Avaliação de aprendizagem em saúde: como medir o que o estudante realmente aprendeu?
Reprovar em prova não significa que o estudante não sabe. Passar não significa que ele sabe. A questão central da avaliação em saúde é mais profunda: como distinguir quem acumulou informação de quem desenvolveu capacidade de agir clinicamente?
A avaliação é, talvez, o componente mais contraditório da formação em saúde. Dedica-se a ela um esforço enorme: provas, simulados, exames práticos, rubricas de desempenho, portfólios. E, ao mesmo tempo, ela carrega um dos pontos cegos mais persistentes do ensino médico: a tendência a medir o que é mais fácil de medir, em vez do que é mais importante medir.
O que é mais fácil de medir? Conteúdo. Nomes, classificações, mecanismos, valores de referência. O que é mais importante medir? A capacidade de usar esse conteúdo para tomar decisões clínicas seguras em situações que nunca se repetem exatamente da mesma forma.
Esses dois objetivos não são opostos, mas também não são a mesma coisa. E a distância entre eles tem consequências práticas que aparecem no momento em que o estudante finalmente enfrenta um paciente real.
O problema das provas que medem o que o estudante lembrou
A prova de múltipla escolha, na sua forma mais comum, testa memória de conteúdo e reconhecimento de padrões em contextos controlados. Ela tem valor e não deve ser descartada, especialmente quando bem construída, com questões que exigem raciocínio, não apenas recordação. Mas ela tem um limite estrutural importante: o estudante sabe de antemão que há uma resposta certa, que o tempo é fixo, que o contexto é artificial e que o objetivo é acertar, não necessariamente entender.
Na prática clínica, nada disso é verdade. O profissional não sabe se há uma resposta certa. O tempo pode ser escasso ou indefinido. O contexto é incerto e carregado de variáveis. E o objetivo não é acertar uma questão, mas cuidar de uma pessoa.
Na educação médica baseada em competências, as avaliações são formativas e têm como objetivo apoiar o estudante a avançar para o próximo estágio de domínio, não emitir um julgamento final sobre ele. Embora exames escritos sejam amplamente utilizados, avaliações que medem o desempenho de habilidades por meio de observação direta ou de registros de pacientes oferecem evidências mais robustas da real aquisição de competências (1).
Isso é o que está no centro do debate atual sobre avaliação em saúde: não se trata de abolir provas, mas de reconhecer que provas sozinhas não respondem à pergunta mais importante da formação clínica.
Competência não se observa diretamente: ela se infere do desempenho
As Diretrizes Curriculares Nacionais (DCNs) de Medicina, atualizadas e homologadas em 2025, aprofundam um entendimento que já estava presente na versão de 2014: competência não é algo diretamente observável, mas sim inferido a partir do desempenho do estudante em contextos reais ou simulados de prática (2).
Nesse sentido, competência continua sendo definida como a capacidade de mobilizar conhecimentos, habilidades e atitudes para resolver problemas de saúde de forma efetiva. A diferença é que a atualização recente reforça e amplia essa visão ao destacar a importância de uma formação mais integrada ao Sistema Único de Saúde (SUS), centrada no cuidado, na tomada de decisão clínica e na responsabilidade social.
Essa evolução traz implicações diretas para a forma como se ensina e se avalia na formação médica. Não basta verificar o que o estudante sabe: é necessário observar o que ele é capaz de fazer com esse conhecimento em situações que reflitam a complexidade da prática profissional.
Assim, a avaliação deixa de ser apenas um instrumento de verificação e passa a assumir um papel estruturante no processo de aprendizagem, acompanhando o desenvolvimento progressivo das competências ao longo do curso.
Nesse contexto, métodos como o OSCE (Objective Structured Clinical Examination) ganham relevância ao buscar avaliar o desempenho do estudante em situações simuladas e estruturadas. Ainda assim, mesmo o OSCE tem limites. Avalia um recorte de competência em condições ainda artificiais, em um momento específico da formação. O que a literatura vem defendendo com crescente consistência é a avaliação longitudinal, distribuída ao longo do curso, com feedback contínuo e progressão documentada.
Feedback como instrumento de aprendizagem, não de julgamento
Currículos orientados por competência devem elaborar programas de avaliação que estejam prioritariamente a serviço do aprendizado, na forma de avaliação formativa, voltados para a detecção de conhecimentos, habilidades e atitudes assimilados pelos estudantes, e não para sua classificação dentro de um grupo normativo (3).
Esse ponto é crucial e frequentemente mal compreendido na prática. Avaliação formativa não é avaliação "sem nota" ou avaliação "de baixa exigência". É avaliação cujo objetivo principal é informar o processo de aprendizagem, não certificar um resultado final. O feedback que ela gera é parte do currículo, não um subproduto dele.
Quando um estudante realiza um caso clínico simulado e recebe um relatório detalhado sobre como conduziu a anamnese, quais hipóteses levantou e em que momento do raciocínio perdeu precisão, ele está recebendo informação que orienta o próximo ciclo de estudo. Isso é qualitativamente diferente de receber uma nota que informa apenas que foi aprovado ou reprovado.
O Clinical Case opera precisamente nessa lógica: cada interação com um paciente virtual gera dados de desempenho, não apenas um resultado final. O estudante vê onde seu raciocínio divergiu do esperado, em quais etapas tomou decisões adequadas e onde há lacunas a trabalhar. Para coordenadores e docentes, esses dados podem informar decisões pedagógicas sobre o currículo, não apenas sobre o aluno individualmente.
O que muda quando a avaliação é orientada por dados de desempenho
Instituições que avançaram para modelos de avaliação baseados em desempenho contínuo relatam ganhos que vão além da precisão diagnóstica sobre o que o estudante sabe. Elas conseguem identificar padrões de dificuldade que são sistêmicos, não individuais: quando muitos estudantes têm desempenho consistentemente frágil em determinada competência, isso sinaliza uma questão curricular, não uma questão do estudante.
Esse tipo de inteligência pedagógica só se constrói quando há dados longitudinais de desempenho, não apenas registros de notas bimestrais. E essa é uma das fronteiras mais relevantes que a tecnologia educacional está abrindo para a formação em saúde: a possibilidade de acompanhar, ao longo do curso inteiro, como cada estudante progride nas competências que a prática clínica vai exigir dele.
A pergunta que orienta esse movimento não é nova: o estudante sabe o conteúdo? Ela é, na verdade, mais exigente e mais honesta: o estudante consegue usar o que sabe para tomar decisões seguras? São perguntas distintas. E o sistema de avaliação que não as distingue está medindo algo diferente do que precisa medir.
Para aprofundar essa discussão, o blog da MedRoom reúne conteúdos que conectam tendências, evidências e prática na formação em saúde.
(1) LEE, Grace B.; CHIU, Anne M. Assessment and feedback methods in competency-based medical education. Annals of Allergy, Asthma & Immunology, v. 128, n. 3, p. 256–262, mar. 2022. doi: 10.1016/j.anai.2021.12.010. Disponível em: https://www.annallergy.org/article/S1081-1206(21)01309-0/fulltext
(2) BRASIL. Ministério da Educação. Resolução CNE/CES nº 3, de 30 de setembro de 2025. Instituiu as novas Diretrizes Curriculares Nacionais (DCNs) para o curso de Medicina no Brasil.
(3) SANTOS, Wilton Silva dos. Organização curricular baseada em competência na educação médica. Revista Brasileira de Educação Médica, SciELO. Disponível em: https://www.scielo.br/j/rbem/a/c9KBjLv9py5gmFW78Q9HMdv/