E Quem Controla Isso?

No fim de semana tive uma bela conversa com amigo de longa data e responsabilidades na gerência 😀 de uma instituição do ensino superior politécnico, comparando os respectivos modelos de avaliação dos docentes. A certa altura perguntei se os procedimentos estavam todos “plasmados” num Regulamento de Avaliação aprovado pelo(s) orgão(s) competente(s).

Sim, claro que temos.

Mas, perguntei eu, quem controla isso?

O Ministério.

Mas como? insisti.

É o Ministério que trata disso.

Pois, sim, mas como é que controla, vai lá alguém ver se vocês têm isso feito e aprovado conforme o figurino?

Em regra, não.

Então, efectivamente, na prática, quem é que controla se tudo decorre como deveria?

Os professores, respondeu-me ele.

E costumam fazer isso?

Nem por isso.

(pois, bem me parecia! Afinal, não é muito diferente do não-Superior nessa parte. Metade não sabe, metade não se interessa, metade aproveita-se disso, metade pergunta como é se precisa e os esquisitos que não ficam amochadinhos “têm pouco espírito de equipa” e ainda levam má nota na parte do “trabalho colaborativo” prá imagem da instituição)

Uma Amostra Representativa?

Fica aqui a apresentação preliminar do Estudo Diagnóstico das Aprendizagens realizado pelo IAVE para avaliar os efeitos da pandemia nas aprendizagens dos alunos:

Há diversas reservas que se podem colocar à metodologia usada para avaliar as aprendizagens afectadas pela pandemia, quando se resume essa avaliação, aparentemente por comodidade, às áreas do costume, deixando de fora grande parte das disciplinas em que alunos e professores trabalharam. O que significa que, afinal o “paradigma” continua o mesmo que tanto se criticou num passado recente e se acusou, com razão ou não, de”afunilar” o currículo. Não andaram anos a criticar o Crato por achar que havia disciplinas de 1ª e outras de 2ª? Afinal, não andam a fazer o mesmo? Onde está a avaliação das Línguas, Letras e Artes? Em lado nenhum. Foi a ferramenta desenhada de acordo com os princípios do famoso “Perfil do Aluno”? Não me parece.

Outra crítica à metodologia é o facto de terem adoptado uma ferramenta de avaliação totalmente digital, automatizada para facilitar a classificação dos itens, mas muito redutora quanto à capacidade de avaliar de forma diferenciada as competências dos alunos. Ao que acresce a tipologia das questões, que neste tipo de “ambiente”, é bastante diferente das que os professores usam nas suas aulas, curiosamente (ou não), muito mais flexíveis e “abertas”.

Mas a crítica que aqui me ocupa algum tempo é a relativa à amostra usada que me parece claramente insuficiente e estratificada de forma muito deficiente, por muito que se garanta o contrário. Não entrando pelos detalhes do estatuto socio-económico dos alunos ou a natureza dos estabelecimentos (alguma coisa deverá ficar para as notáveis economistas da Educação que apareceram por aí nos últimos tempos), vou concentrar-me na distribuição geográfica dos alunos que responderam ao inquérito.

Vou colocar um quadro com a comparação entre a amostra usada e os dados globais para o país em termos de NUTS II, que é a unidade geográfica usada nesta apresentação. Os dados de referência para os cálculos globais (que nem sempre batem certo de publicação para publicação) foram obtidos aqui, aqui e aqui, faltando apenas números por ano de escolaridade para as regiões autónomas dos Açores e Madeira.

É fácil perceber que as regiões mais populosas (Norte e Lisboa e Vale do Tejo) estão grosseiramente sub-representadas com pouco mais de 30% da amostra, quando o peso real da sua população escolar no Ensino Básico é mais do dobro no contexto nacional. Em contrapartida, o Algarve e a RAM estão claramente sobre-representadas, o que provoca uma natural distorção da distribuição geográfica da amostra.

Se isso teve uma influência decisiva nos resultados obtidos? Não sabemos. Só sabemos que a amostra para ser verdadeiramente representativa e válida, não pode ter estes desvios na estratificação geográfica. E só em sonhos se pode dizer que a margem de erro das respostas (entre os 67% no 9º ano e os 76% no 6º) é de apenas 1%.

Todos Os Anos É O Mesmo

Aparece sempre um destaque oportuno do estudo anual da OCDE a dizer que os professores portugueses isto e aquilo, são uns privilegiados que ganham que se fartam e tem montes de regalias. É mais do que evidente que um professor ganha mesmo mais do que outros profissionais com qualificações idênticas… até porque os professores, na sua larga maioria, tiveram de fazer formações pós-licenciatura. Estou mesmo a ver um médico com 30 anos ou mais anos de carreira a levar 1500 euros limpos para casa. Ou um advogado. Ou um engenheiro. Ou um economista, mesmo no mais falido dos bancos.

Mas mesmo que assim fosse, garanto que o mereceria e só tenho pena que estes estudos do Education at a Glance deixem muito a desejar em algumas comparações que fazem sempre com base numa tabela salarial e estrutura de carreira que são uma ficção. Adoro quando eles fazem aquela de colocar um professor com 15 anos de serviço a ganhar pelo 4º escalão, quando quase todos estão no 2º. Mas é o que fazem passar para a opinião pública.

E depois há coisas incompreensíveis, quando a tabela salarial é única para todos os níveis do Ensino Não-Superior. O que quer isto dizer?

Quanto aos salários auferidos, os professores portugueses dos primeiros anos de ensino ficam a ganhar ligeiramente na comparação, mas recebem menos do que a média na OCDE nos níveis de escolaridade mais avançados.

TAP Privada 3, Escola Pública Digital, 1

São as contas, tão demagógicas como quaisquer cálculos centénicos ou pós-centénicos, quando se percebe que uma empresa vendida, dizia-se, para fazer receita para o Estado, só produz mais e mais despesa, três vezes superior num só ano (1,200 M€) do que todo o dinheiro anunciado para a “Escola Digital” (400 M€). Só falta aparecerem os economistas geniais a explicar que uma coisa é uma one-off ou coisas assim, quando já sabemos que são as vezes que eles bem contrataram.

BArtsimpson

Comparações

Três notas sobre a situação das mortes atendendo à dimensão da população:

  • A situação de Portugal é comparativamente boa em relação aos “vizinhos”, mas isso tem uma outra face que é a possibilidade de uma “abertura” ter consequências complicadas numa segunda vaga.
  • Quando se afirma que a Suécia não fechou escolas e que não teve um enorme número de mortes, convém perceber que em termos relativos a situação é pior do que nos próprios E.U.A.
  • Embora nem todos estejam neste gráfico, a maioria dos países que mais cedo reabriram creches e escolas do 1º ciclo (e não do Secundário), têm um número de mortes por milhão de habitantes ainda mais baixo do que o nosso.

Covid 12Mai20

Fonte para estabelecer outras comparações: Our World in Data.

Pela Dinamarca

A abertura das escolas completou duas semanas:

Photos of Danish children returning to school while staying six feet apart highlight the country’s cautious approach to lifting its lockdown measures

Os dados sobre os novos casos e novas mortes por covid-19 (gráficos de barras) são pouco conclusivos, pois enquanto o número de novos casos se mantém com oscilações, houve picos de mortes a 25 de Abril e 1 de Maio.

Duvida

(já agora, quanto à Suécia, para menos casos confirmados do que em Portugal, há mais 2,5 mortes)