A Pobreza, Vista Ao Longe…

… surpreende muito os investigadores, quando chegam perto dela. Estes estudos têm o mérito de dar chancela “científica” a realidades mais do que conhecidas por quem vive fora de casulos, mas acabam quase sempre a irritar-me em certa medida. Porque depois há daquelas constatações que “surpreendem” os engomados de gabinete, por estimáveis que sejam. Parece que descobriram que ter um emprego, mesmo estável, não dá imunidade à pobreza. Logo pela manhã, fiquei a falar com o rádio do carro ao ouvir a peça da TSF e as declarações do principal investigador que descobriu que quem nasce em meio pobre, dificilmente se endireita ou passa de remediado, mesmo que seja “efectivo”. O problema de algumas tertúlias académicas certificadas é que tomam os seus conceitos, nascidos dos seus problemas pessoais (como os de pós-doutorados, com bolsas anos a fio, que ainda não conseguiram vaga nos quadros da Universidade e depois despejam raivas contra Básicos e Secundários), por uma realidade social que não existe. Sim, o “precariado” é indesejável, mas os baixos salários são uma chaga ainda maior. Por acaso, o período em que mais ganhei, em termos relativos, foi quando era professor contratado e tinha mais um par de biscates que me davam outro tanto de remuneração. Há precários a ganhar muito bem e “estáveis” a ganhar muito mal. O problema é estes últimos serem muitos. Mesmo muitos.

Pode andar-se anos ou décadas a fio a dizer que a desregulação das condições de trabalho (abusivas em termos de horário e remuneração) estão na base de muitos problemas, incluindo o insucesso escolar ou o “sucesso remediado”, mas há sempre aquela malta que teoriza a batata na perspectiva do contra-factual e do camandro ao cubo e conclui que a pobreza é apenas um estado de espírito. Sim, é verdade que há muita pobreza de espirito por aí. Mas essa tem uma distribuição transversal nos diversos escalões de rendimento. A pobreza material, daquelas pessoas que sobrevivem um mês com menos dinheiro do que custa uma bicicleta (ou uma roda, que as há a mais de 1000 euros e não necessariamente para profissionais) dos ciclistas chique que se pavoneiam ao fim de semana em leque por aí, é muito diferente. É aquela pobreza, como constatou com ar de alarme o investigador, para a qual uma diferença mensal de 10-20 euros pode ser decisiva.

Que em 2021 seja preciso um estudo com uma dezena de autores para o demonstrar revela muito sobre a tal “pobreza de espírito” de que falava mais acima.

Sábado – Dia 55

Logo coloco link, quando sair no Educare.

Dia 55 – Um Diagnóstico Estranho

Gostava de voltar ao todo o aparato que se armou em torno do “diagnóstico” realizado pelo IAVE às aprendizagens que se diz terem sido perdidas em virtude dos efeitos da pandemia na Educação. Porque há muitas inconsistências na metodologia do estudo, mas ainda mais na encenação que envolveu a divulgação dos seus resultados. Não me parece que tenha sido por falta de preparação – tudo está a decorrer de acordo com uma lógica facilemnte perceptível – mas porque os encenadores parecem voltar a tomar-nos todos por tolos. Haverá uma quantidade razoável por aí, que nem dá por isso, mas nem todos gostamos de ser assim tratados.

Desde logo, são estranhos alguns dos resultados obtidos, até porque acontecem de forma sistemática e transversal às provas e aos anos, dando a entender – sem ironia – que a concepção da ferramenta de avaliação não foi a melhor. Não é muito normal que os alunos respondam de forma mais acertada a questões apresentadas como de maior dificuldade do que às consideradas mais fáceis.

Na prova de “Literacia da Leitura e da Informação”, mais de 80% dos alunos do 9º ano conseguiram responde a pelo menos dois terços das questões de nível 3, enquanto menos de 50% conseguiram isso para as questões de nível 1 ou 2 (os mais baixos, numa escala até 4). No caso dos alunos de 6º ano, as respostas a questões de nível 2 e 3 também tiveram melhores resultados dos que as de de nível 1. Na prova de “Literacia Matemática”, as discrepâncias são menores, mas de qualquer modo, os alunos de 9º ano responderam melhor às questões de nível 2 do que às de nível 1, e às de nível 4 melhor do que às de nível 3. Os do 3º e 6º ano responderam de modo equivalente às de nível 3 e 4. Já na prova de “Literacia Científica”, voltam a verificar-se incongruências que, se fosse em testes feitos nas escolas por professores (não especialistas em avaliação recrutados para o efeito, portanto), levariam a críticas quanto á fiabilidade da ferramenta usada: Os de 3º e 6º ano ano respondem melhor a questões de nível 3 e 4 dos que às de nível 2, enquanto os de 9º ano respondem melhor às de nível 2 do que às de nível 1.

Gostava de sublinhar que a “categorização” da dificuldade das questões foi feita pelos “especialistas” do IAVE, sendo que qualquer manual de avaliação nos explica que uma distribuição tão irregular e assimétrica dos resultados (acontece, repito, em todas as provas realizadas e em quase todos os anos diagosticados), não é “culpa” dos alunos, mas sim de quem elaborou a prova/teste/ferramenta.

Basear qualquer estratégia de combate a aprendizagens alegadamente perdidas com base em ferramentas que parecem ter sido elaboradas seguindo pressupostos desadequados, mesmo que tenham sido pensadas de acordo com os pré-conceitos de quem ordenou o referido “diagnóstico”, parece-me muito arriscado, muito pouco fiável e pouco sério.

Uma Amostra Representativa?

Fica aqui a apresentação preliminar do Estudo Diagnóstico das Aprendizagens realizado pelo IAVE para avaliar os efeitos da pandemia nas aprendizagens dos alunos:

Há diversas reservas que se podem colocar à metodologia usada para avaliar as aprendizagens afectadas pela pandemia, quando se resume essa avaliação, aparentemente por comodidade, às áreas do costume, deixando de fora grande parte das disciplinas em que alunos e professores trabalharam. O que significa que, afinal o “paradigma” continua o mesmo que tanto se criticou num passado recente e se acusou, com razão ou não, de”afunilar” o currículo. Não andaram anos a criticar o Crato por achar que havia disciplinas de 1ª e outras de 2ª? Afinal, não andam a fazer o mesmo? Onde está a avaliação das Línguas, Letras e Artes? Em lado nenhum. Foi a ferramenta desenhada de acordo com os princípios do famoso “Perfil do Aluno”? Não me parece.

Outra crítica à metodologia é o facto de terem adoptado uma ferramenta de avaliação totalmente digital, automatizada para facilitar a classificação dos itens, mas muito redutora quanto à capacidade de avaliar de forma diferenciada as competências dos alunos. Ao que acresce a tipologia das questões, que neste tipo de “ambiente”, é bastante diferente das que os professores usam nas suas aulas, curiosamente (ou não), muito mais flexíveis e “abertas”.

Mas a crítica que aqui me ocupa algum tempo é a relativa à amostra usada que me parece claramente insuficiente e estratificada de forma muito deficiente, por muito que se garanta o contrário. Não entrando pelos detalhes do estatuto socio-económico dos alunos ou a natureza dos estabelecimentos (alguma coisa deverá ficar para as notáveis economistas da Educação que apareceram por aí nos últimos tempos), vou concentrar-me na distribuição geográfica dos alunos que responderam ao inquérito.

Vou colocar um quadro com a comparação entre a amostra usada e os dados globais para o país em termos de NUTS II, que é a unidade geográfica usada nesta apresentação. Os dados de referência para os cálculos globais (que nem sempre batem certo de publicação para publicação) foram obtidos aqui, aqui e aqui, faltando apenas números por ano de escolaridade para as regiões autónomas dos Açores e Madeira.

É fácil perceber que as regiões mais populosas (Norte e Lisboa e Vale do Tejo) estão grosseiramente sub-representadas com pouco mais de 30% da amostra, quando o peso real da sua população escolar no Ensino Básico é mais do dobro no contexto nacional. Em contrapartida, o Algarve e a RAM estão claramente sobre-representadas, o que provoca uma natural distorção da distribuição geográfica da amostra.

Se isso teve uma influência decisiva nos resultados obtidos? Não sabemos. Só sabemos que a amostra para ser verdadeiramente representativa e válida, não pode ter estes desvios na estratificação geográfica. E só em sonhos se pode dizer que a margem de erro das respostas (entre os 67% no 9º ano e os 76% no 6º) é de apenas 1%.

3ª Feira – Dia 51

É curioso que quem tanto afirma que um exame/prova/teste, feito numa hora ou duas, apenas dá uma imagem muito pobre das aprendizagens dos alunos, depois use esse mesmo tipo de ferramenta para basear políticas educativas. Até eu, que gosto de exames/provas/testes acho isso redutor e simplista, sem a devida contextualização. E muito menos com uma amostra que corresponde a cerca de 1,5% dos alunos do Ensino Básico, sendo que não se conhece se a “amostra” tem alguma estratificação geográfica, por género, condição socio-económica, etc, etc. É tão interessante encontrar espetos de plástico em ferraria certificada. 

Prognósticos Depois De Saber O Resultado (Esperado E Pré-Anunciado)?

Afinal não estavam apressados em arranjar “soluções”, apenas acederam aos dados antes dos outros e, pelos vistos, tiveram autorização para apresentar planos ainda antes dos resultados serem divulgados. Isto sem falar nas muitas reservas que se podem colocar à generalização dos dados de provas feitas com uma amostra de que não se conhecem exactamente os critérios, mesmo se o presidente do IAVE garante que não está em causa a sua “representatividade” (como? se responderam apenas os alunos que assim o entenderam da amostra inicial, já de si muito limitada?)

Mas os resultados do diagnóstico às aprendizagens “perdidas” feito pelo IAVE na sequência do período do E@D parece que confirmam tudo o que deles se esperava. Nada de inesperado, portanto. A vários níveis. Atentemos no secretário Costa, o homem que aparece sempre nestas alturas, porque o ministro Tiago nunca recebe o guião a tempo:

Na apresentação dos resultados do estudo diagnóstico, o secretário de Estado da Educação, João Costa, sublinhou que as dificuldades demonstradas pelos alunos nos níveis mais elevados “não é diferente” da registada em outros instrumentos de avaliação, nomeadamente em testes internacionais como o Programme for International Student Assessment –  PISA. No entanto, o governante manifestou a sua preocupação com as “percentagens elevadas” de alunos com uma performance inferior ao esperado “em itens de nível mais simples”.

Ou seja, no fundo os alunos falharam acima do “esperado” nas questões mais simples e mantiveram o desempenho nos “níveis mais elevados”. O que nos pode dizer tanto sobre o dito desempenho dos alunos quanto em relação à adequação da ferramenta usada para a sua aferição A qualquer aluno de um curso de formação inicial de professores (ou a formando numa qualquer formação sobre avaliação dos alunos) é ensinado que se deve ter atenção à forma como se elabora a ferramenta de avaliação, pois pode estar desadequada ao perfil dos alunos.

Se um professor aplicar um(a) teste/prova em que os alunos têm resultados fracos e “abaixo do esperado”, costuma afirmar-se que o erro está do lado do professor, não dos alunos. Não será que se passou isso com o IAVE e os seus “especialistas”? Não terão falhado na concepção das suas provas? Pelo menos, essa é a doutrina se acontecer a um professor comum. Ou então, deve fazer nova prova, de remediação, para ver se os resultados se adequam mais às expectativas. Que me desculpem. mas levamos há décadas com esta cartilha.

Afinal, a culpa não pode ser só dos alunos, como parece ser a leitura do SE Costa:

A forma como foram desenhados [os testes de diagnóstico] avalia transversalmente as literacias. Por isso, alguns dos resultados são obtidos “independentemente da pandemia”, reconheceu o secretário de Estado da Educação. Ou seja, correspondem a debilidades estruturais dos alunos.

A menos que a explicação a dar pelo inevitável grupo de trabalho formado para analisar este problema seja outra. 🙂 Adivinham qual? Pois… adivinha-se que alguém andará a precisar de “formação” 🙂 .

Mas, só porque tenho assim um pouco de mau feitio, coloquemos em cima da mesa algumas hipóteses de trabalho engraçadas, a partir da própria “leitura” do especialista-mor do ME:

  • A primeira: será que os alunos, mesmo sem pandemia, não teriam resultados deste tipo, com uma prova com estas características?
  • A segunda: será que estes resultados não serão também em parte resultantes de alguns erros nas políticas globais de avaliação desenvolvidas no Ensino Básico nos últimos anos, que tanto tem privilegiado os “perfis” aos conhecimentos “enciclopédicos”?
  • A terceira: se “reconfigurássemos” o tipo de provas a aplicar aos alunos, de modo a não colocar em causa a sua auto-estima, não obteríamos resutados muito mais favoráveis?
  • A quarta: e se aplicássemos tais provas a um pouco mais de 13.000 alunos, já que as que foram realizadas nem chegaram a 2% dos alunos do Ensino Básico e, neste tipo de coisas, talvez seja apropriado não usar extrapolações à maneira de empresas de sondagens?

Ficam aqui estas maldosas pistas para o grupo de sumidades mais da preferência do poder neste momento, com destaque para a economista do regime que está e para a eminência parda do poder na 24 de Julho, a quem se conhece bem a tendência para atirar as culpas de todo e qualquer insucesso para os do costume, assim como a falta de paciência para quem contrarie a sua experiência de décadas a repetir o mesmo.

Uma das pessoas convidadas pelo Governo para este grupo de trabalho é a professora da Nova School of Business and Economics (Nova SBE) Susana Peralta, uma das economistas que, na semana passada, apresentou um plano de recuperação das aprendizagens dos alunos que inclui escolas de Verão e um reforço de tutorias. A implementação desse programa custaria, pelo menos, 200 milhões de euros.

No grupo têm também assento a especialista em Saúde Mental Margarida Gaspar de Matos e a vice-presidente da Ordem dos Psicólogos, Sofia Ramalho, sinal da preocupação do Ministério da Educação de centrar o plano “não só nas aprendizagens, mas também nas competências emocionais” que possam também ter sido afectadas pela pandemia, de acordo com o secretário de Estado. 

Neste grupo estão outros académicos como Domingos Fernandes (ISCTE), João Pedro da Ponte (Universidade de Lisboa), Sónia Valente Rodrigues (Universidade do Porto) e professores do ensino básico e secundário – José Jorge Teixeira, professor de Física e Química no agrupamento de Escolas Dr. Júlio Martins, em Chaves, e vencedor do prémio Global Teacher Award 2020, David Sousa, director da escola Frei Gonçalo de Azevedo, em Cascais, e Júlia Gradeço, directora do agrupamento de escolas de Oliveira do Bairro.

O grupo está armado. O plano vem a caminho. Se quiserem as conclusões/soluções, a partir de todas estas premissas tão pouco evidentes, eu posso escrevê-las já amanhã, pela manhã (pensando bem, vou fazer mesmo isso).

Sou Capaz De Comprar

Sinto falta de literatura portuguesa séria de humor. E tem 4 estudos de caso e tudo. Ainda é uma amostra quase de 0.5% do total

Estudar os diretores escolares em ação não se restringe ao mero estudo da ação dos diretores escolares. Para além da análise do modo de atuação dos diretores, pretendeu-se captar as condições de produção da sua ação e os seus efeitos plurais nas organizações escolares.
O modo como os diretores escolares se autorrepresentam, espelhado nas suas respostas a um inquérito por questionário, constituiu uma entrada rica em informação e pistas interpretativas sobre as contradições inerentes à sua centralidade subordinada, à forma como gerem as margens relativas de autonomia e como lidam, sem resistências de maior, com o enfraquecimento da democraticidade da governação escolar.

O Retrato Possível

Das condições de vida das crianças em Portugal, a partir dos dados estatísticos disponíveis, nem sempre actualizados à realidade mesmo presente.

Tem dados muito interessantes, em especial sobre as condições de habitação e de vida dos alunos fora das escolas. Depois, claro, tem ali uma extrapolação final completamente hiperbólica, com um valor mais do que hipotético dos “reais custos” acumuladas até 2100 (!!!) em termos económico-financeiros do encerramento das escolas em 2020, a partir de um estudo em que se mostra que Portugal até foi dos países que menos dias de aulas tinha perdido quando recomeçou o Secundário. Se fosse com base nesse indicador teríamos sido o 12º menos afectado pela pandemia na amostra de 34.

Sábado

Nos dias de Natal, o ME decidiu fazer chegar a algumas redacções, a notícia de que decidiu testar 30.000 alunos do 3º, 6º e 9º anos “para perceber de que forma a suspensão das aulas, durante o ano lectivo passado, afectou as suas aprendizagens”, tendo o cuidado de tranquilizar o país que “não se trata de um exame nem de uma prova de aferição, mas de um estudo”.

À primeira vista parece uma decisão sensata. Assim para quem olha de fora e para produtores de opinião apressada e “preocupados” com o que se passou no 3º período de 2019-20, apostando eu em especial nos que têm estado muito activos na defesa da continuidade das aulas presenciais a qualquer custo, manipulando ou ocultando esta ou aquela informação e intimidando de diversas formas quem, nas escolas, ousa desalinhar, com a complacência de quem afirma “representar os professores”, mas os desencoraja, no concreto, de qualquer acção mais firme.

Mas voltemos ao “estudo” entregue ao IAVE e que será implementado nas primeiras três semanas de Janeiro, com resultados a ser conhecidos em Março (será que vão pedir aos professores do #EstudoEmCasa para os classificar ou vão requisitar pessoal que está a dar aulas, a meio do período, assim quase sem pré-aviso?), não sabemos bem se para desenvolver estratégias de remediação a partir de Abril.

Claro que o estudo teria de ser feito por amostra e, preferencialmente, nos anos em que não se fazem provas de aferição (o que deixa o pessoal do 9º ano que as fizer na situação de fazer uma duplicação de provas no mesmo ano, mesmo que uma seja só de estudo e não tenha implicações em nada… com as de aferição, já agora). Mas essa amostra será representativa da realidade do país? Que critérios serão usados para seleccionar os alunos (a nível de escolas e turmas)? Terão em conta os diferentes contextos em que se desenvolveu o E@D? Porque a mera distribuição geográfica e por tipo de estabelecimento está longe de permitir um retrato credível do que se passou.

O teste vai ser aplicado em 154 agrupamentos públicos (que totalizam 1247 estabelecimentos de ensino) do continente, e outras 79 escolas nos Açores e Madeira, bem como 102 colégios. A escolha da amostra teve em conta três aspectos, de modo a manter a representatividade da população escolar: o número de alunos por região (NUT II), os que frequentam escolas públicas e privadas e ainda os estudantes com Acção Social Escolar.

Mais importante, em termos de coerência interna das políticas do ME: afinal, havendo “autonomia” na definição de uma parte do currículo e na “flexibilidade” da leccionação dos conteúdos, qual será o “padrão” usado para determinar o que se perdeu ou não, já os mesmos conteúdo0s poderiam estar planificados para alturas (ou mesmo anos) diferentes conforme as escolas e os “projectos educativos”? Qual o referencial que vai ser usado? O das “aprendizagens essenciais”? Mas não é verdade que “As Aprendizagens Essenciais estão ancoradas numa cultura de escola de autonomia e de trabalho em equipa educativa dos docentes, nomeadamente ao nível do conselho de docentes e de turma, em que as disciplinas cruzam o que deve ser ensinado e que ações estratégicas devem ser concretizadas para que os alunos aprendam melhor e de forma mais significativa”

Se vão ser usados como referenciais as “aprendizagens” para o 2º, 5º e 8º anos (porque é óbvio que não podem ser as definidas para o 3º, 6º e 9º), no que diferirão estas provas das de aferição que este ano estão calendarizadas para esses anos de escolaridade? Não poderia ser o desempenho em tais provas servir de base para este “estudo”?

Este “estudo” terá o seu valor, mas o momento em que surge (quase a meio do ano e não em Outubro, por exemplo, quando se estariam a recuperar as “aprendizagens não consolidadas”, e não venham dizer que estavam mesmo marcadas inicialmente para os dias que acabaram por ser de “pontes” anti-pandémicas, como se quer dar a entender) e a metodologia da escolha da amostra levantam muitas reservas sobre a sua utilidade, apenas parecendo que se quer transmitir a sensação de que algo se está a fazer. Um bocado como os 400 milhões para a Transição Digital, de que nem 10% terá sido gasto nos 100.000 kits tecnológicos que só começaram a chegar às escolas a poucos dias do fim do 1º período.

Em outras circunstâncias diria que tudo isto resultaria de “desorientação”. Conhecendo os truques já de sobra desta malta, lamento dizer que acho que isto, por muito bom que esteja o relatório “técnico”, não servirá para muito mais do que “manipulação” ao nível da comunicação política.

Dados Da OCDE Sobre As Condições Para Um Ensino À Distância Em Portugal

A síntese sobre Portugal baseia-se em dados anteriores à pandemia, colhidos nas bases de dados do PISA e do TALIS. Para começar, destacaria os dois primeiros quadros que revelam alguns dados interessantes.

No primeiro, pode perceber-se que os professores portugueses até estão bem acima da média quanto ao apoio ao uso de meios digitais por parte dos alunos e da percepção de os poderem ajudar, mas sem que isso tenha feito parte da sua formação inicial. Ou seja, foram competências que os professores desenvolveram na sua formação pessoal e profissional posterior.

No segundo, temos a admissão pelos directores de que os meios (equipamentos, banda larga, plataformas específicas) das escolas são insuficientes para desenvolver um ensino de qualidade com meios digitais, entre outras evidências.

Mas foi assim que se fez o falso “milagre”. E é assim que ainda se continua. Independentemente da segunda vaga que nem o ministro cientista ou o seu secretário (e respectiva corte), sempre tão previdentes e com uma visão tão prospetiva) parecem ter previsto.