Para O Anedotário Nacional

O surfista pouco prateado a ministro da Cultura. Resta saber se continuará com as verbas todas por meia comunicação social. E acumulará com o cargo de czar dos 50 anos do 25 de Abril ou se irão buscar alguém que, desta vez, perceba um pouco do assunto. Mesmo que seja um frete ao Bloco ou ao PCP para os apaziguar. Se vão ser quase 5 anos disto, mesmo depois do que já gramámos neste século XXI, considero pela primeira vez a possibilidade de emigrar para um qualquer país decente que, por comparação, até pode ser um daqueles em que os nossos “liberais” vão dar consultoria a regimes iliberais.

Espero Mesmo Que Seja Ele

Que o SE Costa passe a ser o ministro João. Quer porque seria passar a de jure o que já era de facto, quer porque assim terá de assumir por inteiro aquilo que gostava de apresentar sempre como sendo da competência ou área alheia. Porque chega meia dúzia de anos de desculpabilização em relação ao que é mau e de vitimização perante a mínima crítica ao seu desempenho, com aquela estratégia do “ai não gostam de mim e eu sou tão inocente de tudo” que adoptou este tempo todo no cargo. e com apenas um secretário de Estado, não vai dar para se esconder quando for necessário discutir a carreira docente, a avaliação do desempenho, os “truques” que por aí andam prometidos para a formação e recrutamento à la minute de professores. Não vai chegar o refúgio das “fofices”, das flexibilidades, inclusões, autonomias, diversidades e demais retóricas esvaziadas de substância. A parte má é que toda aquela “ganga” que o rodeava, a sua corte particular de nostálgicos das pedagogias patchouly, das ubuntices e daquelas outras relativizações nas margens da anti-ciência, em que tudo é motivo para identificar necessidades de formação dos professores, vai continuar a pairar por aí. Resta saber quem será @ escolhid@ para figura sacrificial como secretári@ para se chegar à frente em questões negociais. Aposto em figura feminina, a bem da diversidade – lá está! -, da inclusão e da necessidade de encandear os faróis do papão-mário. Não carreguem é muito nos peróxidos.

E Travar A Fuga Dos Que Estão?

A alteração das regras de recrutamento pode ser um alçapão, para não dizer coisas piores, em especial se passar pela “localização” das colocações a gosto. A legitimação da batota, para não fazer rodeios.

Novo Governo vai tentar mitigar a falta de professores nas escalas alterando as regras de recrutamento. Recuperar aprendizagens continua a ser o mote para os alunos.

Pelo JL/Educação

Que na capa dá um grande destaque a Nóvoa que, se recusou a Educação, poderá estar na origem de ser esta a pasta sobre a qual há menos certezas, ainda a meio do dia de hoje. Se foi assim quem para lá for será sempre uma 2ª ou 3ª escolha, mesmo sendo um previsível João Costa. O texto foi escrito originalmente no dia 15 de Março.

No momento em que escrevo, não se conhece ainda quem irá fazer parte da equipa do Ministério da Educação para os próximos anos. Seja quem for, é difícil que escape ao estatuto de porta-voz das Finanças para a Educação ou de arauto da Administração Local na questão da municipalização da Educação, Por isso, desejo que não seja alguém que, no passado, considerei a pessoa mais adequada para ocupar a pasta com saber e dignidade.

Até porque, ao chegar, já tem parte do caminho minado por decisões que, mesmo em gestão, foram tomadas no sentido de desregular ainda mais os mecanismos disponíveis para aferir, no verdadeiro sentido e de um modo minimamente independente, o desempenho do sistema educativo, em especial ao nível do Ensino Básico.

Durante uma década ou pouco mais, tivemos um esboço de recolha de indicadores que podiam servir para uma análise diacrónica do desempenho dos alunos, para imenso desagrado de uma conhecida clique académica e ideológica que usa os termos “exames” e “rankings” de forma caricatural e truncada para tentar influenciar a opinião pública e mesmo parte dos docentes para recusar a aplicação de provas finais de ciclo. Começámos por ter provas de aferição no 6º ano, em complemento às provas finais do 9º ano, ao finalizar os anos 90 do século XX, concentrando-se nas disciplinas de Português e Matemática.

Esse sistema durou pouco mais de uma década numa das suas vertentes, pois o ministro Nuno Crato, no início da segunda década deste século, transformou as provas de aferição do 6º ano em provas finais com impacto na classificação final dos alunos, alargando essa prática ao 4º ano, à imagem do que se passava já com o 9º ano de escolaridade. A análise continuava a ser possível com os dados do 9º ano, mas já era problemática com os do 6º, por causa da diferente natureza das provas. Mas continuava a ser possível fazer comparações que, no caso dos rankings divulgados por vários órgãos de comunicação social, começaram a apresentar algumas variáveis de contexto social e económico, com excepção das escolas privadas.

Só que no final de 2015 se decidiu acabar com as provas finais dos 1º e 2º ciclos, mantendo apenas as do 3º ciclo, apresentando-se em sua substituição provas de aferição no 2º, 5º e 8º anos de escolaridade, nenhuma delas com impacto na classificação dos alunos e aplicadas de forma rotativa a diferentes disciplinas. O que poderia ser uma mudança interessante se a realização dessas provas fosse feita de forma articulada ao longo do tempo, acompanhando o desempenho da mesma coorte de alunos num determinado grupo de disciplinas, ou seja, os alunos que no 2º ano fossem “aferidos” em Estudo de Meio, por exemplo, deveriam no 5º ano fazer provas em História e Geografia de Portugal e em Ciências Naturais e no 8º pelo menos em duas entre História, Geografia, Ciências Naturais e Físico-Química. O mesmo se poderia e deveria passar com Português ou Matemática. Mas nada disso aconteceu. Verificou-se uma insistência na realização de provas logo no 2º ano, com destaque para a área das Expressões, com as restantes a ser feitas, nos anos seguintes, de modo desarticulado e sem que os dados recolhidos permitissem um verdadeiro trabalho de análise da evolução do trabalho realizado por alunos e professores. Sucederam-se “instantâneos” que dificilmente alguma metodologia credível permitiria “colar” numa série com potencial analítico.

Com a pandemia a disrupção aumentou, embora de forma justificada. Mas, passado o período crítico, esperava-se que este ano fosse possível, pelo menos, retomar alguma da tão ambicionada “normalidade”. Só que, a abrir Março, ainda sem decisão clara sobre a realização das provas de aferição, apesar de calendário aprovado, soube-se que se estava a prever que as provas finais de 9º ano deixassem de contar para a nota final dos alunos. O que, no fundo, significa o seu fim tal como existiram durante cerca de duas décadas, não servindo sequer para “aferição”, pois os alunos irão entrar num novo ciclo de escolaridade, mudando em muitos casos de escola e optando por áreas de estudo diferentes. O que, a confirmar-se, esvaziará qualquer tentativa de manter uma análise dos resultados dos alunos no final do ensino Básico ao longo do tempo.

Sabendo que esta é uma opção que muito agrada a todos os críticos da avaliação externa das aprendizagens e às visões que reduzem tudo à qualificação de “examocracia”, a realidade é que se perderá uma efectiva regulação independente do desempenho dos alunos. Como em outras matérias (do currículo às doutrinas pedagógicas) damos mais um salto para meados dos anos 90 do século XX.

Uma outra notícia no mesmo sentido de tornar inviável uma análise da evolução do desempenho dos alunos portugueses é o caso da alteração dos critérios da amostragem dos alunos seleccionados para a realização dos testes PISA, mais uma “besta negra” para tod@s aquel@s que abominam qualquer tipo de prova que conduza a classificações passíveis de uma hierarquização dos resultados.

Relembremos que Portugal participa nestes testes desde 2000 e que os resultados obtidos até têm revelado uma progressão muito positiva, como foi sendo reportado ao longo do tempo. Em relação a 2012, referia-se que “Portugal é dos países da OCDE que mais tem melhorado o seu desempenho no PISA ao longo dos anos.” (Jornal de Negócios, 3 de Dezembro de 2013). Quanto a 2015, destacava-se que “Portugal é dos países onde mais alunos pobres conseguem bons resultados” (Público, 6 de Dezembro de 2016) e que “pela primeira vez, os alunos portugueses superaram a média da OCDE a ciências, leitura e matemática e foram mesmo os que mais evoluíram a ciências.” (Observador, 6 de Dezembro de 2016). Esta evolução levou mesmo a alguns elogios quase hiperbólicos como este que, no Brasil, explicava “como Portugal elevou sua educação às melhores do mundo: Pouco dinheiro, muito empenho” (Época-Negócios, 6 de Dezembro de 2019).

Num estudo nacional sobre esta evolução sublinhar-se-ia que “Portugal, assim como a Polónia e a Itália, é dos poucos países que no PISA 2012 reduziu simultaneamente a percentagem de ‘low performers’ e aumentou o peso de ‘top performers’. Ou seja, nestes países há um crescimento dos bons alunos e uma diminuição da percentagem de maus alunos”. (Ana Ferreira, Isabel Flores e Teresa Casas-Novas, Introdução ao estudo – Porque melhoraram os resultados PISA em Portugal?. Lisboa: FFMS, 2017, p. 14)

A principal reserva a tão boa fortuna, acompanhada pelo desempenho nos testes PIRLS e TIMMS (cf. António Teodoro e outros, “PISA, TIMSS e PIRLS em Portugal: Uma análise comparativa” in Revista Portuguesa de Educação, vol. 33, núm. 1, pp. 94-120, 2020; João Marôco, “International Large-Scale Assessments: Trends and Effects on the Portuguese Public Education System”. in AA.VV., Monitoring Student Achievement in the 21st Century. Springer, 2020), foi a das suspeitas acerca do modo como a amostra de alunos – que sempre se afirmou escolhida de forma aleatória com base em critérios da OCDE – poderá ter sido mais ou menos manipulada. Ou, no mínimo, que os tais critérios oscilaram a cada três anos (cf. Ana Balcão Reis e outros, PISA 2006-2012: Uma Análise Comparativa. Lisboa: Nova SBE, 2013).

Agora, sabemos que existiu uma nova modificação no modo como escolas e alunos foram escolhidos. De acordo com o IAVE, “a amostra nacional é de 231 escolas, envolvendo no total cerca de 12.000 alunos”, enquanto “em 2018, integraram a amostra 276 escolas e 5932 alunos.” (Público, 10 de Março de 2022). O que significa que se vai verificar uma maior concentração de alunos num menor número de escolas, que se traduz no aumento da média de 21,5 para 52 alunos por escola.

Porque se modificou a estrutura da amostra deste modo? Diz-se que a OCDE aumentou o número máximo de alunos por escola para 53, em vez dos 46 de anos anteriores, mas isso não explica a alteração tão profunda da amostra nacional. O que pode parecer um pormenor, mas que, em termos de metodologia, significa que qualquer comparação a realizar não colocará em presença realidades equivalentes.

Seja qual for o sentido da evolução dos resultados que venham a ser apurados, entramos no território (como com avaliação externa das aprendizagens no Ensino Básico) do “impressionismo”, em que se troca a análise de séries de dados consistentes e comparáveis pelas tais fotos tipo polaroid. Em que se fica com uma “impressão” do momento. A quem interessa esta regressão metodológica? Provavelmente, a quem considera que isto é, afinal, um progresso.