Como a IA Transformou Avaliações em Stanford: por que Jure Leskovec Reintroduziu Provas Escritas

Nesta análise aprofundada, exploramos a decisão do professor Jure Leskovec de Stanford de retomar provas escritas diante da ascensão da inteligência artificial. O artigo examina impactos na avaliação acadêmica, integridade científica, metodologias de ensino e políticas institucionais, com foco em educação superior, IA e avaliação — palavras-chave essenciais para profissionais e gestores acadêmicos.

Introdução: o contexto da mudança nas avaliações

A rápida difusão de ferramentas de inteligência artificial (IA) capazes de gerar textos, resolver problemas e apoiar decisões técnicas impôs um dilema operacional e pedagógico às universidades. Em 2025, o professor de ciência da computação Jure Leskovec, da Stanford University, decidiu retomar exames escritos presenciais em seus cursos, atendendo a um movimento dos próprios estudantes que questionavam o papel do ensino e da avaliação na era da IA (LICHTENBERG, 2025). Essa decisão, aparentemente simples, reflete questões profundas sobre integridade acadêmica, desenho curricular e competência profissional na formação em ciência da computação e áreas correlatas.

O caso Leskovec e a “crise existencial” entre alunos

Conforme reportagem de Nick Lichtenberg, Leskovec relatou que “tivemos uma grande, não sei, crise existencial entre os estudantes há alguns anos, quando meio que não estava claro qual é o nosso papel…” (Leskovec apud LICHTENBERG, 2025). Em outras palavras, a presença de sistemas de IA colocou alunos e docentes diante de incertezas sobre o que significa demonstrar aprendizado autêntico. A frase ilustra a tensão entre competências técnicas que podem ser suportadas por máquinas e habilidades humanas — criatividade, julgamento crítico e entendimento conceitual — que as instituições ainda precisam mensurar de forma confiável.

Avanços tecnológicos e o impacto sobre avaliações

Nos últimos anos, modelos de linguagem e ferramentas de automação tornaram-se acessíveis e eficientes, alterando não só o modo como estudantes buscam informações, mas também como realizam tarefas acadêmicas. A proliferação de assistentes de escrita e de resolução de códigos gerou um aumento significativo em trabalhos que possuem contribuições de IA não explicitadas. Isso desafiou formatos tradicionais de avaliação baseados em entregas escritas que podem ser parcialmente automatizadas.

A consequência direta foi um questionamento sobre a validade das avaliações: se um estudante utiliza IA para gerar respostas completas, até que ponto essa entrega reflete sua competência individual? A resposta de Leskovec — voltar a provas escritas presenciais — pode ser entendida como uma tentativa de preservar um espaço de demonstração inequívoca de conhecimento próprio, reduzindo a capacidade de auxílio não autorizado por IA durante a prova (LICHTENBERG, 2025).

Provas escritas presenciais como instrumento de verificação

A reintrodução de exames escritos presenciais representa uma estratégia pragmática para mitigar uso indevido de IA em avaliações. Provas cursoras, tarefas sob supervisão e perguntas que exigem raciocínio passo a passo são formas de requerer que o estudante demonstre o processo cognitivo — não apenas o resultado final. Para disciplinas de computação e machine learning, isso significa orientar questões que avaliem compreensão conceitual, derivação de fórmulas, interpretação de resultados experimentais e justificativa de escolhas de projeto.

No entanto, vale ressaltar que provas presenciais não são uma solução definitiva. Elas reduzem, mas não eliminam, possibilidades de colusão e uso clandestino de ferramentas. Além disso, o retorno exclusivo a avaliações tradicionais pode negligenciar competências emergentes relacionadas à utilização produtiva e ética de IA, as quais também demandam mensuração e formação.

Implicações pedagógicas: reequilibrando habilidades humanas e tecnológicas

A discussão suscitada por Leskovec destaca a necessidade de reimaginar currículos. Em vez de simplesmente restringir o uso de IA, instituições podem integrar o ensino sobre como empregar essas ferramentas criticamente. Componentes pedagógicos recomendáveis incluem:
– Ensino explícito sobre detecção de viés, limitações e riscos de modelos de IA;
– Avaliações que combinem provas presenciais com projetos aplicados que demandem documentação rigorosa do processo;
– Rubricas que valorizem reflexão crítica sobre o uso de ferramentas automatizadas;
– Atividades colaborativas supervisionadas que fomentem ética e responsabilidade profissional.

Essa abordagem dupla — avaliar fundamentos sem ignorar a utilidade da IA — prepara alunos para colaborar com sistemas inteligentes, ao mesmo tempo em que assegura que possuam entendimento conceitual robusto.

Integridade acadêmica e normas institucionais

A crise apontada por Leskovec revela lacunas nas políticas de integridade acadêmica frente à IA. Documentos institucionais muitas vezes não preveem explicitamente o uso de modelos generativos, gerando incertezas sobre o que é permitido e o que caracteriza fraude. A atualização dessas diretrizes deve contemplar:
– Definições claras sobre uso permitido de ferramentas de IA em diferentes tipos de avaliação;
– Procedimentos de acompanhamento e verificação (ex.: oralidade complementar, review de código com logs de desenvolvimento);
– Mecanismos de formação e orientação para docentes e discentes sobre práticas aceitáveis;
– Sanções proporcionais e educativas para infrações.

Políticas bem definidas contribuem para reduzir a “crise existencial” estudantil relatada por Leskovec, ao oferecer expectativas claras e ensinar como integrar IA de forma ética e profissional.

Modelos híbridos de avaliação: combinação de provas e projetos

Uma das alternativas emergentes consiste em avaliações híbridas que combinam provas presenciais com trabalhos de projeto e documentação longitudinal. Esses modelos permitem avaliar:
– Conhecimento teórico por meio de avaliações controladas;
– Aplicação prática via projetos que exigem planejamento, iteração e justificativa técnica;
– Competências metacognitivas através de relatórios reflexivos sobre decisões e uso de ferramentas.

Esse arranjo equilibra a necessidade de garantir autenticidade nas demonstrações de conhecimento com a realidade de que ferramentas de IA fazem parte do fluxo de trabalho profissional. Instituições de elite, como Stanford, podem servir de laboratório para o desenvolvimento e validação desses formatos, cuja eficácia deverá ser avaliada empiricamente.

Avaliação formativa e feedback contínuo

Outro eixo importante é reforçar avaliação formativa e mecanismos de feedback contínuo. Em vez de depender quase exclusivamente de avaliações somativas (exames finais), cursos podem estruturar checkpoints ao longo do semestre, nos quais estudantes submetem peças intermediárias de trabalho, participam de revisões por pares e realizam apresentações orais. Tais atividades tornam mais difícil que resultados finais sejam obtidos por meios não autorizados e, simultaneamente, fomentam aprendizagem profunda.

Além disso, feedback contínuo amplia a oportunidade para docentes identificarem lacunas conceituais e oferecerem intervenções pedagógicas, reduzindo a tentação de recorrer a IA como atalho.

Competências profissionais e o novo currículo

A integração da IA nos fluxos de trabalho profissionais exige uma atualização das competências ensinadas em cursos de ciência da computação. Competências desejáveis incluem:
– Habilidade de formular problemas técnicos e decompor tarefas de modo que o uso de IA seja apropriado;
– Avaliação crítica de outputs gerados por modelos (validação, verificação e interpretação);
– Práticas de documentação e reproducibilidade, úteis para rastrear contribuições humanas vs. automáticas;
– Ética e governança da IA aplicada.

Essas competências exigem métodos de ensino e avaliação que valorizem tanto o trabalho independente quanto a colaboração com ferramentas automatizadas.

Considerações sobre equidade e acesso

As políticas de avaliação também devem considerar desigualdades de acesso. Nem todos os estudantes dispõem de ferramentas ou infraestrutura para utilizar IA de forma produtiva. Proibir inteiramente o uso de IA sem oferecer alternativas formativas pode agravar desigualdades. Por isso, estratégias institucionais devem incluir:
– Oferta de recursos e treinamento sobre ferramentas de IA;
– Acesso supervisionado a ambientes computacionais padronizados durante avaliações;
– Flexibilidade em formatos de entrega para alunos com necessidades especiais.

Garantir equidade é essencial para que mudanças nas práticas de avaliação não penalizem desproporcionalmente grupos vulneráveis.

Impactos para docentes: carga de trabalho e formação continuada

A adoção de novos formatos de avaliação e de políticas claras sobre IA demanda investimento em formação docente. Professores precisarão aprender a:
– Elaborar questões que avaliem raciocínio e não apenas respostas finais;
– Identificar sinais de uso indevido de IA e aplicar protocolos de verificação;
– Conduzir avaliações orais e revisões de processos de desenvolvimento em projetos.

Também haverá impacto sobre carga de trabalho: avaliações híbridas e verificações adicionais podem exigir mais tempo de correção e supervisão. Instituições devem considerar apoio administrativo, uso de assistentes de ensino treinados e ferramentas de detecção (com ressalvas metodológicas) para mitigar o aumento de esforço.

Limitações e riscos de dependência excessiva em detecção automatizada

Ferramentas automáticas de detecção de conteúdo gerado por IA têm utilidade, mas apresentam limitações de precisão e riscos de vieses. Dependência excessiva em tais sistemas pode levar a injustiças e penalizações indevidas. Uma abordagem ética combina detecção automática com revisão humana, procedimentos de apelação e transparência sobre métricas usadas. A prudência é necessária para evitar substituição de julgamento pedagógico por caixas pretas automatizadas.

Recomendações práticas para gestores e professores

Com base no caso de Stanford e nas implicações gerais, recomendações práticas incluem:
– Atualizar códigos de conduta acadêmica para contemplar explicitamente IA (com comunicação clara aos estudantes);
– Implementar avaliações mistas (provas presenciais + projetos + apresentações orais);
– Investir em formação docente sobre IA e desenvolvimento de questões que avaliem processos;
– Oferecer recursos e treinamento equitativos aos alunos para uso responsável de IA;
– Monitorar e avaliar as mudanças por meio de métricas de aprendizagem, integridade e satisfação, ajustando políticas conforme evidências.

Essas ações ajudam a transformar a crise existencial em oportunidade de inovação pedagógica.

Aspectos éticos e culturais da adoção de IA na educação

Além de medidas técnicas, há um componente cultural: é necessário construir uma cultura de responsabilidade e transparência no uso de IA. Isso envolve discutir aspectos éticos do desenvolvimento e aplicação de modelos, incentivar autorreflexão e cultivar valores profissionais que transcendam o domínio técnico. A educação superior precisa formar profissionais competentes e cidadãos conscientes do impacto social da tecnologia.

Conclusão: aprender a conviver e ensinar com IA

A decisão de Jure Leskovec de retornar a provas escritas presenciais em Stanford constitui um caso simbólico das transformações que a IA impõe à educação superior (LICHTENBERG, 2025). Mais do que um recuo conservador, trata-se de uma tentativa de restabelecer parâmetros claros de avaliação enquanto se redesenha o papel do ensino na era digital. Instituições de ensino devem adotar estratégias equilibradas: proteger a autenticidade das avaliações, integrar competências relacionadas ao uso crítico de IA e promover políticas justas e formativas.

A crise existencial mencionada por Leskovec pode ser catalisadora de evolução pedagógica, desde que acompanhada de reflexão institucional, investimento em formação docente e políticas que alinhem integridade acadêmica com as demandas do mercado de trabalho contemporâneo. O desafio é construir modelos avaliativos que reconheçam tanto o valor das habilidades humanas quanto a inevitável presença de sistemas inteligentes no exercício profissional.

Citação direta e tradução:
“Tivemos uma grande, não sei, crise existencial entre os estudantes há alguns anos, quando meio que não estava claro qual é o nosso papel…” (Leskovec apud LICHTENBERG, 2025, tradução nossa).

Fonte: Yahoo Entertainment. Reportagem de Nick Lichtenberg. This Stanford computer science professor went to written exams 2 years ago because of AI. He says his students insisted on it. 2025-09-07T09:35:00Z. Disponível em: https://www.yahoo.com/news/articles/stanford-computer-science-professor-went-093500264.html. Acesso em: 2025-09-07T09:35:00Z.
Fonte: Yahoo Entertainment. Reportagem de Nick Lichtenberg. This Stanford computer science professor went to written exams 2 years ago because of AI. He says his students insisted on it. 2025-09-07T09:35:00Z. Disponível em: https://www.yahoo.com/news/articles/stanford-computer-science-professor-went-093500264.html. Acesso em: 2025-09-07T09:35:00Z.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress