quinta-feira, 17 de fevereiro de 2011

Experiências de avaliação electrónica: um balanço desequilibrado?

O projecto @ssess.he recebeu um email com o relato de um professor do ensino superior que gostaríamos de partilhar e saber a sua opinião sobre as questões colocadas:  


A minha experiência foi com cadeiras de licenciatura em que havia um elevado número de estudantes. Para facilitar o nosso trabalho de correcção resolvemos recorrer ao uso de testes online utilizando a ferramenta disponibilizada pela moodle. Não foi fácil! Para permitir a correcção automática e sem erros, acabámos por nos limitar apenas ao uso de perguntas de escolha múltipla, o que se revelou bastante trabalhoso... Todos os alunos (muitos!) realizaram o teste no mesmo dia e à mesma hora numa sala com um computador por pessoa. Os resultados não foram lá muito bons… a média foi baixa e vários alunos se queixaram da dificuldade das questões e da falta de “meio-termo”, ou acertavam e tinham a cotação toda, ou falhavam e tinham 0. Os melhores alunos acharam fácil, os alunos médios e fracos revelaram bastantes dificuldades. Para nos docentes o balanço também não é simples, é verdade que ficámos com o trabalho de correcção facilitado – é feito automaticamente pelo programa, mas não ficámos satisfeitos com a fiabilidade do nosso teste pois as notas foram inferiores ao habitual… Deparamo-nos agora com alguns desafios: reformular o nosso teste de escolha múltipla? Tentar incluir outros tipos de perguntas (complicado)? Tentar recorrer a este tipo de avaliação doutra forma? Como?

3 comentários:

  1. E será que conseguimos avaliar todas as competências que queremos ver desenvolvidas por via de testes automáticos de escolha múltipla?

    ResponderEliminar
  2. Se por um lado os registos automáticos dos resultados dos testes facilitam o trabalho do e-professor, por outro lado a construção de bons testes de avaliação online é uma competencia complexa. Não se trata apenas de usar a tecnologia disponivel. è preciso experimentar e verificar as potencialidades das ferramentas disponíveis. O testes de escolha múltipla podem servir para avaliação de conhecimentos mais de tipo factual, outro tipo de conhecimento deve ser avaliado através de outros tipos de testes.

    ResponderEliminar
  3. O uso de instrumentos de avaliação automatizados não é consensual. Para Sclater (2007), apesar de a avaliação automatizada se ter tornado mais fácil com a internet, subsiste um importante problema: “Como é que os testes corrigidos pelo computador podem avaliar os níveis mais elevados da compreensão (por exemplo, avaliação e síntese – na taxonomia do Bloom)?”

    O tipo de perguntas utilizadas nesta avalição só servem para avaliar “os objectivos situados nos níevis mnais baixos das taxonomias de objectivos educacionais” (Ribeiro & Ribeiro, 1989: 251) e muitos investigadores (ver, por exemplo, Bransford, Brown, & Cocking, 2000; Pellegrino, Chudowsky & Glasser, 2001) consideram esta avaliação como imprópria para a avaliação das aprendizagens mais complexas identificadas por Bloom.

    Portanto, a solução não passará pela reformulação do teste, mas do próprio tipo de avaliação.

    ResponderEliminar