segunda-feira, 30 de junho de 2008

"Exames sem erros, porém erróneos"

Uma análise muito sensata sobre os exames e a elaboração dos mesmos.

Por Maria Helena Damião
Professora da FPCE.UC

Recapitulemos a questão mais polémica em torno dos exames nacionais recentemente realizados: políticos, associações científicas, especialistas, professores, encarregados de educação, e até alunos consideram-nos descaradamente acessíveis. A comunicação social interessou-se pelo assunto e deu-lhe destaque. Num debate ocorrido na RTP.N, registei a posição do Director do Gabinete de Avaliação Educacional: especialistas indicados pela Sociedade Portuguesa de Matemática (S.P.M.) auditaram as provas de matemática antes da sua aplicação, pelo que as actuais críticas dessa Sociedade ao grau de dificuldade das mesmas são, no mínimo, caricatas. O representante da S.P.M. presente no debate, Filipe Oliveira, sublinhou que erros científicos e grau de dificuldade são coisas distintas. Demonstrou ainda – lendo o ofício enviado pelo Gabinete de Avaliação Educacional (G.A.V.E.) requerendo a peritagem – que aos especialistas da S.P.M. apenas foi solicitado que auditassem o primeiro aspecto.
Concentremo-nos, então, na seguinte interrogação: será possível que uma prova esteja correcta cientificamente mas apresente um grau de dificuldade errado? Indo mais longe, o grau de dificuldade que se imprime a uma prova de exame pode estar certo ou errado?
De modo propedêutico a este texto, publiquei neste blogue outro, onde afirmei que uma das funções da avaliação da aprendizagem é a função social, cujo fim é classificar como forma de prestar contas da eficácia do sistema de ensino à sociedade e de tomar decisões relativamente aos alunos e/ou ao próprio sistema de ensino. Esta avaliação, com carácter sumativo, tem como principal missão diferenciar os alunos com base nas suas aquisições académicas.
Ora bem: sem subterfúgios, é preciso reconhecer-se que os exames nacionais que agitam a sociedade portuguesa estão nesta categoria. Estando nesta categoria, e não noutra, a sua técnica de construção tem de ser consequente.
Trata-se de uma técnica simples que passo a explicar, muito resumidamente.
Sistematizam-se os conteúdos e as competências constantes dos documentos curriculares, tomando em consideração a importância atribuída a uns e a outras. Para tanto, deve usar-se uma tabela de dupla entrada que permite conjugar estes dois aspectos e, assim, determinar com maior precisão o tipo e o número de perguntas mais adequadas para a sua medição.
Posto isto, decide-se o grau de dificuldade das perguntas, de modo a discriminar a aprendizagem dos alunos. Num exame devem, pois, constar perguntas de dificuldade mínima, pouco exigentes do ponto de vista conteúdos/competências, às quais, em princípio, a grande maioria dos alunos responde correctamente, até perguntas de dificuldade superior, muito exigentes do ponto de vista conteúdos/competências, às quais, em princípio, só uma minoria dos alunos responde correctamente. Entre estes dois pólos formulam-se perguntas de dificuldade intermédia.
A ideia é avaliar “o que os alunos aprenderam” (conteúdos), “para que aprenderam” (competências) e a “profundidade com que aprenderam”.
Aceito, como referem diversas entidades do Ministério da Educação, que os especialistas do G.A.V.E, responsáveis pela elaboração os exames nacionais, dominem tal técnica, ainda que, por vezes isso não pareça claro. Há, contudo, um outro aspecto que lhe dá sentido e que na discussão em causa é crucial: como todas as técnicas, também esta é subordinada às opções de quem avalia. Efectivamente, em cada processo de avaliação, é preciso decidir o critério de rigor/diferenciação que se pretende obter. Critério de rigor/diferenciação que se consubstancia na proporção de perguntas de dificuldade mínima, média e superior que se introduz numa prova de exame. E, neste caso, é a Tutela que toma a decisão.
Então, o que devemos questionar, neste passo, é se é ou não um erro tal decisão ter recaído num critério de rigor/diferenciação mínimo; ou, se formos condescendentes, ter contemplado um critério de rigor/diferenciação médio; mas provavelmente ter excluído um critério de rigor/diferenciação superior.
Entendo que sim, que é um erro. E entendo mais: que é um erro muito grave. Poderia aduzir diversas razões para justificar a minha opinião, mas entendo que uma só é bastante por prevalecer em relação a outras: perverteu-se e dissimulou-se o objectivo dos exames nacionais, que é, relembro, distribuir os alunos numa escala pré-convencionada por referência a uma norma (de conteúdos e competências), como forma de perceber quem chegou a que patamares de aprendizagem.
Se, como país, entendermos que isso não interessa, tenhamos a coragem de dispensar este tipo de avaliação. Atitude que, apesar de errada, é menos errada do que aquela a que temos assistido.

Sem comentários: