Que na capa dá um grande destaque a Nóvoa que, se recusou a Educação, poderá estar na origem de ser esta a pasta sobre a qual há menos certezas, ainda a meio do dia de hoje. Se foi assim quem para lá for será sempre uma 2ª ou 3ª escolha, mesmo sendo um previsível João Costa. O texto foi escrito originalmente no dia 15 de Março.
No momento em que escrevo, não se conhece ainda quem irá fazer parte da equipa do Ministério da Educação para os próximos anos. Seja quem for, é difícil que escape ao estatuto de porta-voz das Finanças para a Educação ou de arauto da Administração Local na questão da municipalização da Educação, Por isso, desejo que não seja alguém que, no passado, considerei a pessoa mais adequada para ocupar a pasta com saber e dignidade.
Até porque, ao chegar, já tem parte do caminho minado por decisões que, mesmo em gestão, foram tomadas no sentido de desregular ainda mais os mecanismos disponíveis para aferir, no verdadeiro sentido e de um modo minimamente independente, o desempenho do sistema educativo, em especial ao nível do Ensino Básico.
Durante uma década ou pouco mais, tivemos um esboço de recolha de indicadores que podiam servir para uma análise diacrónica do desempenho dos alunos, para imenso desagrado de uma conhecida clique académica e ideológica que usa os termos “exames” e “rankings” de forma caricatural e truncada para tentar influenciar a opinião pública e mesmo parte dos docentes para recusar a aplicação de provas finais de ciclo. Começámos por ter provas de aferição no 6º ano, em complemento às provas finais do 9º ano, ao finalizar os anos 90 do século XX, concentrando-se nas disciplinas de Português e Matemática.
Esse sistema durou pouco mais de uma década numa das suas vertentes, pois o ministro Nuno Crato, no início da segunda década deste século, transformou as provas de aferição do 6º ano em provas finais com impacto na classificação final dos alunos, alargando essa prática ao 4º ano, à imagem do que se passava já com o 9º ano de escolaridade. A análise continuava a ser possível com os dados do 9º ano, mas já era problemática com os do 6º, por causa da diferente natureza das provas. Mas continuava a ser possível fazer comparações que, no caso dos rankings divulgados por vários órgãos de comunicação social, começaram a apresentar algumas variáveis de contexto social e económico, com excepção das escolas privadas.
Só que no final de 2015 se decidiu acabar com as provas finais dos 1º e 2º ciclos, mantendo apenas as do 3º ciclo, apresentando-se em sua substituição provas de aferição no 2º, 5º e 8º anos de escolaridade, nenhuma delas com impacto na classificação dos alunos e aplicadas de forma rotativa a diferentes disciplinas. O que poderia ser uma mudança interessante se a realização dessas provas fosse feita de forma articulada ao longo do tempo, acompanhando o desempenho da mesma coorte de alunos num determinado grupo de disciplinas, ou seja, os alunos que no 2º ano fossem “aferidos” em Estudo de Meio, por exemplo, deveriam no 5º ano fazer provas em História e Geografia de Portugal e em Ciências Naturais e no 8º pelo menos em duas entre História, Geografia, Ciências Naturais e Físico-Química. O mesmo se poderia e deveria passar com Português ou Matemática. Mas nada disso aconteceu. Verificou-se uma insistência na realização de provas logo no 2º ano, com destaque para a área das Expressões, com as restantes a ser feitas, nos anos seguintes, de modo desarticulado e sem que os dados recolhidos permitissem um verdadeiro trabalho de análise da evolução do trabalho realizado por alunos e professores. Sucederam-se “instantâneos” que dificilmente alguma metodologia credível permitiria “colar” numa série com potencial analítico.
Com a pandemia a disrupção aumentou, embora de forma justificada. Mas, passado o período crítico, esperava-se que este ano fosse possível, pelo menos, retomar alguma da tão ambicionada “normalidade”. Só que, a abrir Março, ainda sem decisão clara sobre a realização das provas de aferição, apesar de calendário aprovado, soube-se que se estava a prever que as provas finais de 9º ano deixassem de contar para a nota final dos alunos. O que, no fundo, significa o seu fim tal como existiram durante cerca de duas décadas, não servindo sequer para “aferição”, pois os alunos irão entrar num novo ciclo de escolaridade, mudando em muitos casos de escola e optando por áreas de estudo diferentes. O que, a confirmar-se, esvaziará qualquer tentativa de manter uma análise dos resultados dos alunos no final do ensino Básico ao longo do tempo.
Sabendo que esta é uma opção que muito agrada a todos os críticos da avaliação externa das aprendizagens e às visões que reduzem tudo à qualificação de “examocracia”, a realidade é que se perderá uma efectiva regulação independente do desempenho dos alunos. Como em outras matérias (do currículo às doutrinas pedagógicas) damos mais um salto para meados dos anos 90 do século XX.
Uma outra notícia no mesmo sentido de tornar inviável uma análise da evolução do desempenho dos alunos portugueses é o caso da alteração dos critérios da amostragem dos alunos seleccionados para a realização dos testes PISA, mais uma “besta negra” para tod@s aquel@s que abominam qualquer tipo de prova que conduza a classificações passíveis de uma hierarquização dos resultados.
Relembremos que Portugal participa nestes testes desde 2000 e que os resultados obtidos até têm revelado uma progressão muito positiva, como foi sendo reportado ao longo do tempo. Em relação a 2012, referia-se que “Portugal é dos países da OCDE que mais tem melhorado o seu desempenho no PISA ao longo dos anos.” (Jornal de Negócios, 3 de Dezembro de 2013). Quanto a 2015, destacava-se que “Portugal é dos países onde mais alunos pobres conseguem bons resultados” (Público, 6 de Dezembro de 2016) e que “pela primeira vez, os alunos portugueses superaram a média da OCDE a ciências, leitura e matemática e foram mesmo os que mais evoluíram a ciências.” (Observador, 6 de Dezembro de 2016). Esta evolução levou mesmo a alguns elogios quase hiperbólicos como este que, no Brasil, explicava “como Portugal elevou sua educação às melhores do mundo: Pouco dinheiro, muito empenho” (Época-Negócios, 6 de Dezembro de 2019).
Num estudo nacional sobre esta evolução sublinhar-se-ia que “Portugal, assim como a Polónia e a Itália, é dos poucos países que no PISA 2012 reduziu simultaneamente a percentagem de ‘low performers’ e aumentou o peso de ‘top performers’. Ou seja, nestes países há um crescimento dos bons alunos e uma diminuição da percentagem de maus alunos”. (Ana Ferreira, Isabel Flores e Teresa Casas-Novas, Introdução ao estudo – Porque melhoraram os resultados PISA em Portugal?. Lisboa: FFMS, 2017, p. 14)
A principal reserva a tão boa fortuna, acompanhada pelo desempenho nos testes PIRLS e TIMMS (cf. António Teodoro e outros, “PISA, TIMSS e PIRLS em Portugal: Uma análise comparativa” in Revista Portuguesa de Educação, vol. 33, núm. 1, pp. 94-120, 2020; João Marôco, “International Large-Scale Assessments: Trends and Effects on the Portuguese Public Education System”. in AA.VV., Monitoring Student Achievement in the 21st Century. Springer, 2020), foi a das suspeitas acerca do modo como a amostra de alunos – que sempre se afirmou escolhida de forma aleatória com base em critérios da OCDE – poderá ter sido mais ou menos manipulada. Ou, no mínimo, que os tais critérios oscilaram a cada três anos (cf. Ana Balcão Reis e outros, PISA 2006-2012: Uma Análise Comparativa. Lisboa: Nova SBE, 2013).
Agora, sabemos que existiu uma nova modificação no modo como escolas e alunos foram escolhidos. De acordo com o IAVE, “a amostra nacional é de 231 escolas, envolvendo no total cerca de 12.000 alunos”, enquanto “em 2018, integraram a amostra 276 escolas e 5932 alunos.” (Público, 10 de Março de 2022). O que significa que se vai verificar uma maior concentração de alunos num menor número de escolas, que se traduz no aumento da média de 21,5 para 52 alunos por escola.
Porque se modificou a estrutura da amostra deste modo? Diz-se que a OCDE aumentou o número máximo de alunos por escola para 53, em vez dos 46 de anos anteriores, mas isso não explica a alteração tão profunda da amostra nacional. O que pode parecer um pormenor, mas que, em termos de metodologia, significa que qualquer comparação a realizar não colocará em presença realidades equivalentes.
Seja qual for o sentido da evolução dos resultados que venham a ser apurados, entramos no território (como com avaliação externa das aprendizagens no Ensino Básico) do “impressionismo”, em que se troca a análise de séries de dados consistentes e comparáveis pelas tais fotos tipo polaroid. Em que se fica com uma “impressão” do momento. A quem interessa esta regressão metodológica? Provavelmente, a quem considera que isto é, afinal, um progresso.
Gostar disto:
Gosto Carregando...