Universidade e IA: por que docentes desenvolvem assistentes personalizados para ensino, pesquisa e alfabetização digital

Em um momento em que a inteligência artificial generativa divide decisões institucionais entre proibições e adoção, professores de universidades estão desenvolvendo assistentes de IA personalizados para apoiar ensino e pesquisa. Esta análise explora por que docentes criam ferramentas sob medida, como esses assistentes promovem alfabetização em IA, quais riscos éticos e de integridade acadêmica surgem e que políticas universitárias se mostram mais eficazes. Palavras-chave: IA nas universidades, assistentes personalizados, inteligência artificial generativa, alfabetização em IA, integridade acadêmica.

Introdução: o dilema das universidades frente à inteligência artificial

A chegada e rápida disseminação da inteligência artificial generativa impôs às universidades uma escolha complexa: restringir e proibir seu uso em contextos acadêmicos ou incorporar essas tecnologias nas práticas pedagógicas e de avaliação. Em muitos campi, a resposta não tem sido binária. Em vez disso, docentes e equipes acadêmicas experimentam soluções práticas — entre elas, a criação de assistentes de IA personalizados que auxiliam estudantes em pesquisa, redação e no desenvolvimento de competências em IA. Estes assistentes representam uma tentativa de conciliar inovação pedagógica, proteção da integridade acadêmica e promoção da alfabetização digital entre os discentes (OTTERMAN, 2026).

Contexto e motivações para criar assistentes personalizados

As motivações que levam professores a projetar assistentes de IA são múltiplas e interligadas. Primeiramente, há a necessidade de preparar estudantes para um mercado de trabalho em que habilidades de interação com sistemas de IA e entendimento crítico de suas saídas são cada vez mais valorizadas. Ensino e avaliação tradicional, muitas vezes, não contemplam a competência de formular consultas precisas, avaliar respostas geradas e integrar tais respostas criticamente em trabalhos acadêmicos. Professores, portanto, veem nos assistentes personalizados uma ferramenta para ensinar “alfabetização em IA”: não apenas o uso, mas a compreensão dos vieses, limitações e potencialidades desses sistemas (OTTERMAN, 2026).

Em segundo lugar, há um componente prático: assistentes personalizados podem ser adaptados ao currículo, às normas de citação e aos padrões de redação própria de cada disciplina ou instituição. Diferente de modelos genéricos disponíveis ao público, esses assistentes podem ser configurados com guardrails — por exemplo, orientações sobre como citar conteúdos gerados, quando encaminhar o estudante a fontes primárias e como sinalizar incertezas nas respostas. Isso possibilita um uso pedagógico que visa reduzir o risco de plágio automatizado e melhorar a qualidade do trabalho acadêmico.

Estudos de caso: George Washington University e Barnard College

Relatos recentes indicam que professores em instituições como a George Washington University estão na vanguarda do desenvolvimento de assistentes de IA voltados ao ensino. Tais iniciativas buscam apoiar tarefas estudantis rotineiras — desde a busca bibliográfica até a estruturação de ensaios — ao mesmo tempo em que instruem sobre uso responsável da tecnologia (OTTERMAN, 2026).

Outro exemplo citado na reportagem refere-se à discussão travada em salas de aula específicas, como a do professor Benjamin Breyer, no Barnard College, onde o debate sobre quando e como ensinar o uso de IA acontece na prática diária do ensino. Essas experiências mostram como docentes adaptam abordagens pedagógicas na prática, testando assistentes personalizados para observar impactos sobre a aprendizagem e sobre a conduta acadêmica (OTTERMAN, 2026).

Como assistentes personalizados são construídos e integrados ao ensino

Técnica e pedagogia caminham juntas na criação desses sistemas. Em termos práticos, um assistente personalizado normalmente envolve:

– Seleção de um modelo de base (frequentemente um modelo de linguagem grande).
– Curadoria de dados e criação de prompts especializados que reflitam o conteúdo do curso e as normas institucionais.
– Implementação de restrições e verificações (por exemplo, exigência de referências, limitação de respostas factuais sem indicar fontes).
– Ferramentas de auditoria e logs para monitorar interações e detectar uso indevido.

Professores e equipes de TI universitárias precisam decidir se vão treinar modelos a partir de dados institucionais, aplicar fine-tuning em modelos públicos ou trabalhar com instruções (prompting) avançadas em modelos comerciais. Cada escolha acarreta implicações de custo, privacidade e controle sobre o comportamento do assistente.

Benefícios pedagógicos e promoção da alfabetização em IA

Os assistentes personalizados oferecem vantagens pedagógicas relevantes:

– Aprendizado ativo: ao interagir com o assistente, o estudante pratica formulação de perguntas e avaliação crítica das respostas.
– Feedback imediato: assistentes podem fornecer comentários rápidos sobre estrutura de textos, coerência argumentativa e uso de fontes.
– Escalabilidade: professores conseguem ampliar suporte individualizado sem a necessidade de aumentar proporcionalmente o tempo de correção.
– Alfabetização em IA: os assistentes podem ser usados explicitamente para ensinar sobre vieses algorítmicos, confiabilidade de fontes e ética no uso de IA.

Esses ganhos estão alinhados com a necessidade crescente de dotar graduandos de competências para avaliar e integrar corretamente conteúdos gerados por máquinas, reduzindo riscos de dependência acrítica da tecnologia.

Riscos e preocupações: integridade acadêmica, vieses e privacidade

Apesar dos benefícios, há riscos que justificam a cautela institucional. Universidades têm expressado preocupação com:

– Integridade acadêmica: modelos generativos podem facilitar a produção de textos que simulem autoria humana, tornando mais difícil detectar plágio e má-fé.
– Vieses e desinformação: respostas geradas podem reproduzir vieses presentes nos dados de treinamento ou apresentar informações imprecisas sem alertas claros.
– Privacidade dos dados: a integração de dados institucionais (como trabalhos dos alunos) em modelos ou sistemas externos pode expor informações sensíveis e violar políticas de proteção de dados.
– Desigualdade de acesso: instituições com mais recursos podem desenvolver assistentes sofisticados, aumentando a distância em qualidade de ensino entre universidades.

Para abordar esses problemas, muitos docentes configuram assistentes com restrições e exigem transparência nas interações — por exemplo, registros das conversas e instruções explícitas para que o aluno indique o uso do assistente em produtos finais (OTTERMAN, 2026).

Políticas institucionais e governança

A adoção de assistentes de IA exige políticas institucionais claras. Algumas universidades optaram por proibições temporárias até definir regras; outras, como as que promovem o uso responsável, investem em diretrizes para:

– Divulgação obrigatória do uso de IA em trabalhos acadêmicos.
– Requisitos mínimos de documentação e referência quando conteúdo gerado por IA é empregado.
– Treinamento docente para desenvolvimento e avaliação de tarefas que considerem a presença de IA.
– Auditoria técnica e avaliações de impacto sobre privacidade e vieses.

A governança deve incluir comitês multidisciplinares (docentes, especialistas em ética, TI e representantes estudantis) para definir normas que equilibrem inovação e proteção de valores acadêmicos.

Reconfigurando avaliação e currículo

Uma consequência direta da presença de assistentes de IA é a necessidade de repensar métodos de avaliação. Avaliações tradicionais baseadas exclusivamente na produção escrita individual podem se tornar ineficazes para medir competências desejadas. Possíveis respostas incluem:

– Projetos em que a utilização de assistentes seja permitida, mas com exigência de documentação do processo e justificativas metodológicas.
– Avaliações orais, apresentações e defesas que verifiquem compreensão profunda do conteúdo.
– Tarefas que exijam uso de fontes primárias, análise crítica e processos metodológicos demonstráveis.
– Rubricas que avaliem tanto o produto final quanto a capacidade do estudante de usar ferramentas de IA de forma ética e crítica.

Essas mudanças demandam trabalho institucional e capacitação docente, mas são essenciais para alinhar avaliação às competências do século XXI.

Aspectos técnicos e operacionais a considerar

Ao desenvolver assistentes, universidades enfrentam decisões técnicas relevantes:

– Armazenamento de dados: manter logs de interações exige infraestrutura segura e políticas claras de retenção.
– Transparência e explicabilidade: é importante que o assistente indique quando gera conteúdo com alto grau de incerteza.
– Atualização e manutenção: modelos demandam atualizações e acompanhamento para mitigar desvios no comportamento do assistente.
– Custos e fornecedores: optar por soluções internas ou por contratos com fornecedores de IA afeta autonomia e riscos regulatórios.

A parceria entre departamentos acadêmicos e áreas de TI é vital para que as soluções sejam robustas, seguras e alinhadas a objetivos pedagógicos.

Impacto sobre a profissão docente e carga de trabalho

Desenvolver e manter assistentes personalizados também altera a rotina docente. Em curto prazo, professores investem tempo significativo em configurar prompts, revisar respostas e ajustar guardrails. No médio e longo prazo, o uso bem-planejado pode reduzir tarefas repetitivas (como feedback inicial em rascunhos) e ampliar tempo para atividades de maior valor acadêmico, como pesquisa e mentoria. Essa transição exige apoio institucional — tanto em recursos quanto em reconhecimento formal do trabalho de desenvolvimento pedagógico.

Desigualdades e pluralidade institucional

A capacidade de criar assistentes personalizados tende a se concentrar em instituições com recursos técnicos e financeiros. Isso pode aprofundar desigualdades entre universidades e entre estudantes. Portanto, políticas colaborativas — como consórcios universitários para desenvolvimento conjunto de ferramentas ou soluções open source — podem mitigar disparidades e democratizar o acesso a assistentes pedagógicos de qualidade.

Recomendações práticas para instituições e docentes

Com base nos riscos e oportunidades identificados, seguem recomendações para implementação responsável de assistentes de IA:

– Desenvolver políticas institucionais claras que equilibrem inovação e integridade acadêmica.
– Garantir transparência nas interações: logs, consentimento e requisitos de divulgação do uso de IA.
– Priorizar a alfabetização em IA no currículo, ensinando avaliação crítica e ética.
– Investir em infraestrutura segura e em capacitação técnica de docentes.
– Promover avaliações que considerem o uso legítimo de assistentes, exigindo documentação do processo.
– Fomentar colaborações interinstitucionais para reduzir desigualdades no desenvolvimento de ferramentas.
– Adotar auditorias regulares para avaliar vieses, desempenho e impactos sociais das ferramentas.

Conclusão: integrar IA com critérios pedagógicos e éticos

Os assistentes de IA personalizados surgem como alternativa pragmática ao dilema entre proibição e aceitação irrestrita da inteligência artificial nas universidades. Ao permitir que docentes adaptem ferramentas às necessidades do curso e que estudantes aprendam a interagir criticamente com sistemas de IA, essas iniciativas podem contribuir para a alfabetização digital e para práticas acadêmicas mais alinhadas às demandas contemporâneas. Contudo, a adoção responsável requer políticas claras, infraestrutura adequada, atenção a questões de privacidade e igualdade, além de reconfiguração das práticas de avaliação. Em última análise, o objetivo deve ser formar profissionais capazes de usar IA de forma ética, crítica e informada — não apenas de operar ferramentas, mas de compreender suas implicações sociais e epistemológicas (OTTERMAN, 2026).

Referências (citações no corpo do texto conforme normas ABNT)
OTTERMAN, Sharon. AI in universities: What is driving professors to develop custom assistants?. The Times of India, 18 de janeiro de 2026. Disponível em: https://economictimes.indiatimes.com/tech/artificial-intelligence/ai-in-universities-what-is-driving-professors-to-develop-custom-assistants/articleshow/126637353.cms. Acesso em: 18 de janeiro de 2026.

Fonte: The Times of India. Reportagem de Sharon Otterman. AI in universities: What is driving professors to develop custom assistants?. 2026-01-18T04:52:39Z. Disponível em: https://economictimes.indiatimes.com/tech/artificial-intelligence/ai-in-universities-what-is-driving-professors-to-develop-custom-assistants/articleshow/126637353.cms. Acesso em: 2026-01-18T04:52:39Z.
Fonte: The Times of India. Reportagem de Sharon Otterman. AI in universities: What is driving professors to develop custom assistants?. 2026-01-18T04:52:39Z. Disponível em: https://economictimes.indiatimes.com/tech/artificial-intelligence/ai-in-universities-what-is-driving-professors-to-develop-custom-assistants/articleshow/126637353.cms. Acesso em: 2026-01-18T04:52:39Z.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress