Estratégias

Eu prefiro sempre usar um pouco de humor, no bom e no mau. E da sinceridade possível, porque não gosto de enganar as pessoas dizendo-lhes que já sabem o que não sabem ou que estão prestes a conseguir algo que ainda vem longe. Claro que lhes digo que é possível, é sempre possível, mas é importante perceberem se desta vez só saiu asneira.

Finishing Class Strong With Optimistic Closures

The best closing activities use social and emotional practices to reinforce the day’s lessons, so students leave feeling confident—and competent—on their learning journey.

5ª Feira

Sei que esta não é uma atitude muito bem vista por quem acha que tudo deve ser feito muito a sério e acha que eu estou a ser demasiado permissivo. Logo eu, que em outros ambientes tenho fama de adepto de metodologias mais directivas e menos “inovadoras”. Só que a “liberdade” que permito é observada à distância, pois é mais importante para mim a forma como os alunos utilizam os equipamentos e aquilo que procuram do que saberem rapidamente aplicar animações e transições a um powerpoint.

Sábado

Não é nada de excepcional e acho mesmo que é uma espécie de metodologia padrão para grande parte dos docentes. Avaliar a progressão das aprendizagens dos alunos, comunicar o que não correu bem, desenvolver estratégias de remediação, recuperação ou remediação (como lhes queiram chamar) e verificar de novo como estão as coisas. Só que em tempos de recauchutagem do velho, como verniz para parecer novo, fazer isto passa por ser enorme inovação, desde que se lhe coloque a palavra “Projecto” e se acrescente mais qualquer termo identificativo que sirva para servir de pretexto para “formação”. Há casos em que até vejo antigos colegas meus, que sabem fazer isto há décadas, ser nomeados como “embaixadores” de tamanha novidade.

Este Mês, No JL/Educação

(é uma síntese com acrescentos de dois textos aqui do Quintal)

Um fraco diagnóstico

Andamos há algumas semanas a discutir a solução para um problema em grande parte detectado com base num diagnóstico que levanta muitas reservas quanto ao método usado para o fazer. Porque é muito problemático e dificilmente terá eficácia a definição de uma “cura” quando a “doença” se encontra diagnosticada de forma pouco rigorosa.

Refiro-me à questão das “aprendizagens perdidas” nos tempos do ensino remoto de emergência com base, em primeiro lugar, em apreciações algo impressionistas, e em segundo, num estudo preliminar desenvolvido pelo IAVE para avaliar os efeitos da pandemia nas aprendizagens dos alunos do Ensino Básico no início deste ano lectivo, o qual foi apresentado publicamente com o título Estudo Diagnóstico das Aprendizagens.

Quanto à parte impressionista assente no “acho que”, pouco há a dizer porque quase todos, como sobre o futebol, achamos qualquer coisa sobre Educação e, por exemplo eu “acho que” há muitas aprendizagens importantes que ficam por realizar na sequência de uma estruturação errada do currículo, da distribuição dos tempos lectivos e de uma aplicação voluntariosa mas pouco fundamentada dos princípios da chamada “autonomia e flexibilidade”. E parte do que anda a ser diagnosticado como efeito da pandemia é bem possível que seja o efeito acumulado de outras causas. É o meu “acho que”, que terá tanto valor como muitos outros “achismos” que inundam o debate público sobre a Educação em Portugal.

Já quanto ao estudo promovido pelo IAVE, por determinação superior, as reservas que coloco são de natureza metodológica, porque se usarmos métodos ou ferramentas inadequadas, dificilmente obteremos uma visão clara daquilo que pretendemos conhecer. E analisando este “estudo preliminar” são várias as reservas que considero naturais, mesmo que parte da informação não tenha sido desde já disponibilizada.

Vou agrupar estas reservas, num primeiro olhar, em dois núcleos fundamentais: o da amostra usada e o da metodologia e ferramentas aplicadas na recolha da informação.

Comecemos pelo tipo e características da amostra usada, em particular no que se refere à sua representatividade em relação à população acerca da qual se quer conhecer o desempenho escolar. Porque se uma amostra não respeitar as características da população que se pretende estudar, a sua falta de fiabilidade inviabiliza a sua utilidade. De acordo com uma definição comum de amostra representativa “o critério para definir o perfil da amostra pode ser baseado em características demográficas como idade, sexo e classe social, assim como em características atitudinais de comportamento de consumo, por exemplo. É importante ter bastante cuidado nessa etapa, uma vez que deixar de incluir algumas características relevantes pode levar a conclusões erradas”[i].

Se queremos trabalhar com uma amostra probabilística ou aleatória, é indispensável garantir que temos informações actualizadas sobre a população onde é recolhida a amostra para assegurar a sua representatividade. A amostra deve ser escolhida de forma aleatória exactamente para que cada membro da população tenha a mesma probabilidade de selecção e inclusão na amostra que vai ser usada.

Uma das principais críticas que faço à amostra usada pelo IAVE é que ela me parece estratificada de forma muito deficiente, por muito que se garanta o contrário na sua apresentação. Não entrando pelos detalhes do estatuto socio-económico dos alunos, a natureza dos estabelecimentos (alguma coisa deverá ficar para as notáveis economistas da Educação que apareceram por aí nos últimos tempos) ou a completa ausência de dados sobre a distribuição por sexo, vou concentrar-me na distribuição geográfica dos alunos que fizeram as provas ou responderam ao inquérito realizado.

Se analisarmos um quadro com a comparação entre a amostra usada e os dados globais para o país em termos de NUTS II, que é a unidade geográfica usada nesta apresentação, facilmente percebemos o problema. Os dados de referência para os cálculos globais (que nem sempre batem certo de publicação para publicação) foram obtidos no site oficial da Direcção-Geral das Estatísticas da Educação e Ciência (nomeadamente nas publicações relativas ao Perfil do Aluno), faltando apenas números por ano de escolaridade para as regiões autónomas dos Açores e Madeira.

É evidente a partir destes dados que as regiões mais populosas (Norte e Lisboa e Vale do Tejo) estão grosseiramente sub-representadas, com pouco mais de 30% da amostra, quando o peso real da sua população escolar no Ensino Básico é mais do dobro no contexto nacional. Em contrapartida, o Algarve e a Região Autónoma da Madeira estão claramente sobre-representadas, o que provoca uma natural distorção da distribuição geográfica da amostra.

Se isso teve uma influência decisiva nos resultados obtidos? Não sabemos. Só sabemos que a amostra para ser verdadeiramente representativa e válida, não pode ter estes desvios na estratificação geográfica. E torna-se irrelevante afirmar que a margem de erro das respostas é de apenas 1% se a amostra está de tal modo distorcida.

Em segundo lugar, temos a questão crítica dos referenciais e das ferramentas usadas para a determinação das aprendizagens que deveriam ter sido realizadas e não o foram.

Há diversas reservas que se podem colocar à metodologia usada para avaliar as aprendizagens afectadas pela pandemia, quando se resume essa avaliação a um grupo restrito de áreas, deixando de fora grande parte das disciplinas em que alunos e professores trabalharam. O que significa que, afinal o “paradigma” continua o mesmo que tanto se criticou num passado recente e se acusou, com razão ou não, de ”afunilar” o currículo. Onde está a avaliação das Línguas, Letras e Artes? Em lado nenhum. Foi a ferramenta desenhada de acordo com os princípios do famoso “Perfil do Aluno”? Não me parece.

Outra crítica é o facto de ter sido adoptada uma ferramenta de avaliação totalmente digital, que agiliza a classificação dos itens, mas é muito redutora quanto à capacidade de avaliar de forma diferenciada as competências dos alunos. Ao que acresce a tipologia das questões, que neste tipo de “ambiente”, é bastante diferente das que os professores usam nas suas aulas, curiosamente (ou não), muito mais flexíveis e “abertas”.


[i] https://www.questionpro.com/blog/pt-br/amostragem-representativa/.

Literacia Avaliativa

Não será que este tipo de distribuição de resultados (e no caso da Matemática também acontece, mas menos sensível) no “diagnóstico” elaborado pelos “especialistas em avaliação” do Iavé, indica alguma inconsistência (para não dizer pior) na metodologia usada?

Por duas razões:

  1. Se a maioria dos alunos não conseguiu realizar uma tarefa considerada fácil, mas realizou outras tidas como mais difíceis, talvez seja a classificação dessas tarefas que esteja errada.
  2. Se várias ferramentas de avaliação produzem resultados tão incongruentes de forma transversal, não estarão mal concebidas em relação ao público que pretendem avaliar (ou diagnosticar)?

Uma Amostra Representativa?

Fica aqui a apresentação preliminar do Estudo Diagnóstico das Aprendizagens realizado pelo IAVE para avaliar os efeitos da pandemia nas aprendizagens dos alunos:

Há diversas reservas que se podem colocar à metodologia usada para avaliar as aprendizagens afectadas pela pandemia, quando se resume essa avaliação, aparentemente por comodidade, às áreas do costume, deixando de fora grande parte das disciplinas em que alunos e professores trabalharam. O que significa que, afinal o “paradigma” continua o mesmo que tanto se criticou num passado recente e se acusou, com razão ou não, de”afunilar” o currículo. Não andaram anos a criticar o Crato por achar que havia disciplinas de 1ª e outras de 2ª? Afinal, não andam a fazer o mesmo? Onde está a avaliação das Línguas, Letras e Artes? Em lado nenhum. Foi a ferramenta desenhada de acordo com os princípios do famoso “Perfil do Aluno”? Não me parece.

Outra crítica à metodologia é o facto de terem adoptado uma ferramenta de avaliação totalmente digital, automatizada para facilitar a classificação dos itens, mas muito redutora quanto à capacidade de avaliar de forma diferenciada as competências dos alunos. Ao que acresce a tipologia das questões, que neste tipo de “ambiente”, é bastante diferente das que os professores usam nas suas aulas, curiosamente (ou não), muito mais flexíveis e “abertas”.

Mas a crítica que aqui me ocupa algum tempo é a relativa à amostra usada que me parece claramente insuficiente e estratificada de forma muito deficiente, por muito que se garanta o contrário. Não entrando pelos detalhes do estatuto socio-económico dos alunos ou a natureza dos estabelecimentos (alguma coisa deverá ficar para as notáveis economistas da Educação que apareceram por aí nos últimos tempos), vou concentrar-me na distribuição geográfica dos alunos que responderam ao inquérito.

Vou colocar um quadro com a comparação entre a amostra usada e os dados globais para o país em termos de NUTS II, que é a unidade geográfica usada nesta apresentação. Os dados de referência para os cálculos globais (que nem sempre batem certo de publicação para publicação) foram obtidos aqui, aqui e aqui, faltando apenas números por ano de escolaridade para as regiões autónomas dos Açores e Madeira.

É fácil perceber que as regiões mais populosas (Norte e Lisboa e Vale do Tejo) estão grosseiramente sub-representadas com pouco mais de 30% da amostra, quando o peso real da sua população escolar no Ensino Básico é mais do dobro no contexto nacional. Em contrapartida, o Algarve e a RAM estão claramente sobre-representadas, o que provoca uma natural distorção da distribuição geográfica da amostra.

Se isso teve uma influência decisiva nos resultados obtidos? Não sabemos. Só sabemos que a amostra para ser verdadeiramente representativa e válida, não pode ter estes desvios na estratificação geográfica. E só em sonhos se pode dizer que a margem de erro das respostas (entre os 67% no 9º ano e os 76% no 6º) é de apenas 1%.

Interessante

Agradeço a referência à AC.

A ideia foi refutada na década de 1970, mas ainda há uma crença generalizada de que as crianças são pequenos humanos que aprendem e se desenvolvem intelectualmente da mesma forma que um adulto. Este é um mito com consequências potencialmente graves para os sistemas educativos, pois leva a que não se considerem abordagens pedagógicas ajustadas à realidade. Afinal, o que nos diz a psicologia cognitiva sobre este tema? Será o conhecimento prévio determinante para a forma como aprendemos?

(As)Sincronias

Fiquei a saber pela Anabela que a DGE divulgou uma espécie de “manual” para a 2ª vaga do E@D, em que recicla propostas antigas e ocupa o resto das páginas com uma espécie de prós e contras do “trabalho síncrono e assíncrono, em contexto educativo, integrando sugestões metodológicas”. Fica mais abaixo para quem estiver com insónias.

Têm Andado Muito Ocupados

A encomendar computadores não foi. E ajuda a perceber que, em boa verdade, não estavam mesmo à espera de passar para o não-presencial. Nem equipamentos, nem enquadramento. E os Pedagógicos agora andam a decidir na base do “é para já e em força!”, nem sempre com a dosagem de bom senso que deveria estar na bula.

Nem é que eu concorde com soluções únicas, porque acho que devem ser diferenciadas conforme as idades e ciclos de escolaridade, mas a verdade é que a 20 de Julho (Resolução do Conselho de Ministros n.º 53-D/2020) anunciaram e mais de 6 meses depois nada foi feito, para além de uns esclarecimentos formais (mas que não têm qualquer valor vinculativo) do SE Costa aos directores naquelas sessões de agit-prop de que cheguei a transcrever a maior parte.

16 – Determinar que, quanto à organização e funcionamento das atividades letivas e formativas no regime não presencial:

a) Cabe à escola adequar a organização e funcionamento do regime não presencial, fazendo repercutir a carga horária semanal da matriz curricular no planeamento semanal das sessões síncronas e assíncronas;

b) O membro do Governo responsável pela área da educação define a percentagem de sessões síncronas que devam verificar-se;

c) As sessões síncronas e assíncronas devem respeitar os diferentes ritmos de aprendizagem dos alunos, promovendo a flexibilidade na execução das tarefas a realizar;

Sabem o que já está em desenvolvimento em muitos sítios? Isto:

f) Os docentes devem proceder ao registo semanal das aprendizagens desenvolvidas e das tarefas realizadas nas sessões síncronas e assíncronas, recolhendo evidências da participação dos alunos tendo em conta as estratégias, os recursos e as ferramentas utilizadas pela escola e por cada aluno;

O “registo semanal das aprendizagens desenvolvidas”? Todas as disciplinas vão fazer uma esse registo “por cada aluno”? Com base em que metodologia de avaliação? No de soterrar a petizada em tarefas?