Os Filhos De Ontem E Os Enteados De Hoje

Ministério de Manuel Heitor fecha para já a porta, mas reitera que “não deixarão de se tomar as decisões apropriadas” caso as circunstâncias o exijam. Professores de Matemática insistem que já é este o caso porque muitos alunos vão ficar em situação de desigualdade face aos que fizeram exame em 2020.

(ontem à noite, na rtp 3, salvo erro, quem ouvisse o SE Costa diria que tudo são rosas viçosas…)

A Montanha Russa

E depois a culpa pela ansiedade da miudagem é dos professores? Se não há o raio de um rumo… uma forma de ver as condições a mais do que o curto prazo da popularidade (i)mediática.

Notas dos exames nacionais de Matemática, Física e Química e Biologia e Geologia recuam para valores mais próximos do habitual, antes das regras especiais seguidas no ano passado terem feito disparar os resultados.

2ª Feira

Dia da divulgação dos resultados dos exames finais do Secundário. Aqueles que continuam a ser feitos em regime de opacidade pelos especialistas do Santo Iavé, que comete os erros e depois disfarça ao longo do período de classificação. Como já expliquei, não estou contra a realização dos ditos exames, que acho importantes como mecanismo de regulação externa, mas contra procedimentos que privilegiam um secretismo muito pouco aceitável em termos de responsabilização por certos desempenhos. Afinal, são meses e meses em que as “equipas” têm de fazer uma ou duas provas e parece que isso é sempre problemático. Isso e a oscilação permanente de critérios e no modo de classificação, tendo aparentemente vencido em muitas disciplinas a tese do valor quase igual para todas as questões, seja fazer uma cruzinha ou desenvolver um tema ou resolver um problema extenso.

A Ler

Sobre a falta de coerência (e qualidade) dos exames de FQ de 11º ano:

Exames que não servem para nada

O IAVE determinou que as provas de exame nacional de Física e Química A (FQA), aplicadas em 2020, contivessem dois conjuntos diferenciados de itens: um conjunto de 8 itens cujas respostas contribuíam obrigatoriamente para a classificação final da prova, e um outro  conjunto de 18 itens dos quais apenas contribuíam para a classificação final os 12 itens cujas respostas obtivessem melhor pontuação.

Sendo o Perfil dos Alunos à Saída da Escolaridade Obrigatória e as Aprendizagens Essenciais da disciplina os documentos de referência na conceção das provas de avaliação externa, não é congruente admitir-se  que as provas incluam itens que não avaliem aprendizagens essenciais. Do ponto de vista das aprendizagens avaliadas, não existiam assim diferenças entre o primeiro e o segundo daqueles conjuntos –  todos os itens, quer se incluíssem no primeiro conjunto ou no segundo, avaliavam aprendizagens significativas e essenciais.

(…)

Se a comparação dos resultados de 2020 com os resultados de 2019 não permite tirar qualquer conclusão sobre a evolução/regressão das aprendizagens dos alunos no domínio da disciplina de FQA, também a comparação dos resultados de 2020 com os de 2021 não terá qualquer significado, não permitindo também obter qualquer conclusão.

História Em Modo “Essencial”

Vi por curiosidade o exame de História A, até porque cá em casa ninguém o ia fazer ou levava alunos ao dito. E notei que, como começa a ser tradição, parece existir no Santo Iavé uma tendência para complicar coisas simples e pintelhizar nas opções de resposta.

A autora já tinha aflorado a questão há uns dias aqui.

No exame de História A, realizado na semana passada, há duas opções de resposta a uma mesma pergunta que devem ser consideradas corretas. Esta é uma situação grave e que precisa de rápidos e claros esclarecimentos por parte do Iave, pois muitos alunos estão em vias de ser ainda mais prejudicados e perder injustamente 14 pontos.

E não há apenas uma questão que apresenta alguma ambiguidade ou mesmo duas maneiras de responder que não estão factualmente incorrectas. Existe uma outra que, em meu entender, também permite duas leituras, a menos que se tenha uma formação política marxista ortodoxa.

“Uma das mais mobilizadoras forças políticas de carácter marxista no período revolucionário”?

Será Verdade?

pelos vistos, é. Que o exame de Geometria Descritiva tinha um “gato” que só foi comunicado aos alunos muito tardiamente e até levou à extensão do tempo para a rua realização? Confesso que não quero acreditar em mais um deslize de mais uma equipa de “especialistas”. Só poderia ser boato. Mas não é.

E parece que a prova colocada online foi expurgada

Se a ideia é desacreditar os exames, a mim parece que o descrédito começa é a inundar o IAVÉ e as suas equipas de gente desconhecida, seleccionada com base no “mérito”. Esta malta tem meses e meses para fazer a m€rd@ de uma prova sem erros e nem isso consegue?

Com o exame em curso, Júri Nacional enviou erratas às escolas. Alunos tiveram 30 minutos suplementares para responder.

Quem Fez A Prova De Aferição (Amostral) De Português Leu As Canónicas “Aprendizagens Essenciais” Da Disciplina?

Parece que não a avaliar pela questão 14, que “mobiliza” conhecimentos que não estão previstos, nem para o 5º, nem para o 6º ano da disciplina de Português. Nem sequer nas “metas” de 2015 ou no programa da disciplina se prevê a abordagem do grau dos advérbios, mas apenas a identificação de algumas das suas subclasses. por acaso, foi a matéria da semana passada com as minhas turmas de 5º ano.

É apenas um exercício de uma questão? Sim, mas revela desleixo ou coisa pior e ajuda a perceber que se identifiquem aprendizagens por realizar, até porque os alunos tenderão a não assinalar a opção de que nunca ouviram falar. Provavelmente, a prova terá sido feita ou revista por quem não lecciona 2º ciclo e sentiu necessidade de homenagear a classe de palavras que o senhor secretário linguista tanto admira.

Com tanto por onde escolher, escolhe-se logo isto? Fora outras coisas, dando para perceber o “objectivo”. Eu confesso que depois de fazer o “meu” teste para a semana, hei-de aplicar esta prova aos meus alunos para ver como se safariam, sem lhes dar quaisquer instruções ou “treino”, como diz o outro.

(há “acasos” do caraças…)

Este Mês, No JL/Educação

(é uma síntese com acrescentos de dois textos aqui do Quintal)

Um fraco diagnóstico

Andamos há algumas semanas a discutir a solução para um problema em grande parte detectado com base num diagnóstico que levanta muitas reservas quanto ao método usado para o fazer. Porque é muito problemático e dificilmente terá eficácia a definição de uma “cura” quando a “doença” se encontra diagnosticada de forma pouco rigorosa.

Refiro-me à questão das “aprendizagens perdidas” nos tempos do ensino remoto de emergência com base, em primeiro lugar, em apreciações algo impressionistas, e em segundo, num estudo preliminar desenvolvido pelo IAVE para avaliar os efeitos da pandemia nas aprendizagens dos alunos do Ensino Básico no início deste ano lectivo, o qual foi apresentado publicamente com o título Estudo Diagnóstico das Aprendizagens.

Quanto à parte impressionista assente no “acho que”, pouco há a dizer porque quase todos, como sobre o futebol, achamos qualquer coisa sobre Educação e, por exemplo eu “acho que” há muitas aprendizagens importantes que ficam por realizar na sequência de uma estruturação errada do currículo, da distribuição dos tempos lectivos e de uma aplicação voluntariosa mas pouco fundamentada dos princípios da chamada “autonomia e flexibilidade”. E parte do que anda a ser diagnosticado como efeito da pandemia é bem possível que seja o efeito acumulado de outras causas. É o meu “acho que”, que terá tanto valor como muitos outros “achismos” que inundam o debate público sobre a Educação em Portugal.

Já quanto ao estudo promovido pelo IAVE, por determinação superior, as reservas que coloco são de natureza metodológica, porque se usarmos métodos ou ferramentas inadequadas, dificilmente obteremos uma visão clara daquilo que pretendemos conhecer. E analisando este “estudo preliminar” são várias as reservas que considero naturais, mesmo que parte da informação não tenha sido desde já disponibilizada.

Vou agrupar estas reservas, num primeiro olhar, em dois núcleos fundamentais: o da amostra usada e o da metodologia e ferramentas aplicadas na recolha da informação.

Comecemos pelo tipo e características da amostra usada, em particular no que se refere à sua representatividade em relação à população acerca da qual se quer conhecer o desempenho escolar. Porque se uma amostra não respeitar as características da população que se pretende estudar, a sua falta de fiabilidade inviabiliza a sua utilidade. De acordo com uma definição comum de amostra representativa “o critério para definir o perfil da amostra pode ser baseado em características demográficas como idade, sexo e classe social, assim como em características atitudinais de comportamento de consumo, por exemplo. É importante ter bastante cuidado nessa etapa, uma vez que deixar de incluir algumas características relevantes pode levar a conclusões erradas”[i].

Se queremos trabalhar com uma amostra probabilística ou aleatória, é indispensável garantir que temos informações actualizadas sobre a população onde é recolhida a amostra para assegurar a sua representatividade. A amostra deve ser escolhida de forma aleatória exactamente para que cada membro da população tenha a mesma probabilidade de selecção e inclusão na amostra que vai ser usada.

Uma das principais críticas que faço à amostra usada pelo IAVE é que ela me parece estratificada de forma muito deficiente, por muito que se garanta o contrário na sua apresentação. Não entrando pelos detalhes do estatuto socio-económico dos alunos, a natureza dos estabelecimentos (alguma coisa deverá ficar para as notáveis economistas da Educação que apareceram por aí nos últimos tempos) ou a completa ausência de dados sobre a distribuição por sexo, vou concentrar-me na distribuição geográfica dos alunos que fizeram as provas ou responderam ao inquérito realizado.

Se analisarmos um quadro com a comparação entre a amostra usada e os dados globais para o país em termos de NUTS II, que é a unidade geográfica usada nesta apresentação, facilmente percebemos o problema. Os dados de referência para os cálculos globais (que nem sempre batem certo de publicação para publicação) foram obtidos no site oficial da Direcção-Geral das Estatísticas da Educação e Ciência (nomeadamente nas publicações relativas ao Perfil do Aluno), faltando apenas números por ano de escolaridade para as regiões autónomas dos Açores e Madeira.

É evidente a partir destes dados que as regiões mais populosas (Norte e Lisboa e Vale do Tejo) estão grosseiramente sub-representadas, com pouco mais de 30% da amostra, quando o peso real da sua população escolar no Ensino Básico é mais do dobro no contexto nacional. Em contrapartida, o Algarve e a Região Autónoma da Madeira estão claramente sobre-representadas, o que provoca uma natural distorção da distribuição geográfica da amostra.

Se isso teve uma influência decisiva nos resultados obtidos? Não sabemos. Só sabemos que a amostra para ser verdadeiramente representativa e válida, não pode ter estes desvios na estratificação geográfica. E torna-se irrelevante afirmar que a margem de erro das respostas é de apenas 1% se a amostra está de tal modo distorcida.

Em segundo lugar, temos a questão crítica dos referenciais e das ferramentas usadas para a determinação das aprendizagens que deveriam ter sido realizadas e não o foram.

Há diversas reservas que se podem colocar à metodologia usada para avaliar as aprendizagens afectadas pela pandemia, quando se resume essa avaliação a um grupo restrito de áreas, deixando de fora grande parte das disciplinas em que alunos e professores trabalharam. O que significa que, afinal o “paradigma” continua o mesmo que tanto se criticou num passado recente e se acusou, com razão ou não, de ”afunilar” o currículo. Onde está a avaliação das Línguas, Letras e Artes? Em lado nenhum. Foi a ferramenta desenhada de acordo com os princípios do famoso “Perfil do Aluno”? Não me parece.

Outra crítica é o facto de ter sido adoptada uma ferramenta de avaliação totalmente digital, que agiliza a classificação dos itens, mas é muito redutora quanto à capacidade de avaliar de forma diferenciada as competências dos alunos. Ao que acresce a tipologia das questões, que neste tipo de “ambiente”, é bastante diferente das que os professores usam nas suas aulas, curiosamente (ou não), muito mais flexíveis e “abertas”.


[i] https://www.questionpro.com/blog/pt-br/amostragem-representativa/.