Editorial do Estadão: A avaliação do ensino superior
Das 2.066 instituições de ensino superior avaliadas em 2017, apenas 35 ─ o equivalente a 1,6% do total ─ obtiveram a nota máxima
Na mesma semana em que o Instituto Nacional de Estudos e Pesquisas Educacionais (Inep) divulgou o Índice Geral de Cursos (IGC) de 2017, um indicador da qualidade das universidades, faculdades e centros universitários, a Organização para Cooperação e Desenvolvimento Econômico (OCDE) apresentou um estudo ─ elaborado a pedido do Ministério da Educação (MEC) ─ no qual questiona um dos pilares do Sistema Nacional de Avaliação da Educação Superior (Sinaes).
Trata-se do Exame Nacional de Desempenho dos Estudantes (Enade), que é aplicado aos formandos dos cursos de graduação. Esses cursos são avaliados a cada três anos. Segundo a avaliação divulgada pelo Inep, das 2.066 instituições de ensino superior avaliadas em 2017, apenas 35 ─ o equivalente a 1,6% do total ─ obtiveram a nota máxima, numa escala de 1 a 5. E 278 instituições receberam notas 1 e 2, ficando abaixo do limite de qualidade estabelecido pelo Sinaes.
As áreas dos cursos de bacharelado, licenciatura e tecnologia avaliadas pelo Enade, no ano passado, foram letras, matemática, química, física, ciências sociais, geografia, história, arquitetura, urbanismo, pedagogia, educação física, ciências da computação, ciências biológicas, sistemas de informação e as engenharias. Nessas áreas também estão incluídos cursos de licenciatura de desenvolvimento de sistemas, gestão de produção industrial e tecnologia de informação. Comparada com a última avaliação de todas essas áreas, feita em 2014, a porcentagem de cursos classificados como insuficientes caiu, o que é uma boa notícia.
A notícia ruim foram as críticas ao Enade feitas pela OCDE. Segundo a entidade, as provas do Enade têm falhas gritantes em sua concepção, cobrando habilidades excessivamente genéricas dos estudantes. Além disso, são caras, tendo custado R$ 118 milhões em 2017. O estudo da OCDE revela ainda que, por causa das falhas na elaboração dos quesitos cobrados dos estudantes, os resultados das provas não podem ser comparados com as edições anteriores do Enade. Assim, em decorrência desse problema, é impossível saber se o nível de qualidade de um curso de graduação melhorou ou caiu ao longo dos anos. “Atualmente, os resultados do Enade são usados como base para decisões regulatórias (como a renovação do credenciamento de um curso de graduação), mas não são usados pelas instituições de ensino e por professores para identificar o que precisam para melhorar em termos de qualidade de seus cursos”, conclui o relatório.
Com base nesse diagnóstico, a OCDE propôs ao MEC uma “profunda reflexão” sobre a continuidade ou não do Enade. E também sugeriu a criação de fontes de informação novas e mais confiáveis, que ajudem os docentes e suas instituições a aperfeiçoarem seus respectivos cursos. Apesar de ter contratado o estudo, o MEC não se posicionou oficialmente sobre suas conclusões. Mas, nos meios universitários, vários especialistas não apenas consideraram procedentes as críticas e as sugestões da OCDE, como também chamaram a atenção para a necessidade de acabar com um conflito de interesses, pois ao mesmo tempo que o MEC mantém uma rede de universidades federais, ele também regula o setor privado e avalia sua qualidade. “O que se precisa não é de mais burocracia, mas de uma instância normativa e de regulação efetivamente autônoma, que transforme o sistema de avaliação num processo mais leve, que dê autonomia às instituições mais bem avaliadas, que informe melhor aos estudantes sobre o que está ocorrendo e indique os melhores caminhos”, afirma Simon Schwartzman, membro da Comissão Nacional de Avaliação da Educação Superior e integrante, no passado, da Comissão de Reforma da Universidade.
Em vez de perder tempo e se desgastar politicamente com estéreis discussões sobre orientações políticas e ideológicas dos currículos, o governo deveria enfrentar o desafio apontado por Schwartzman, se quiser, efetivamente, melhorar a qualidade do ensino superior.