Introdução
As recentes alegações de que a publisher do jogo Subnautica 2, a Krafton, teria recorrido ao ChatGPT para obter orientações sobre como evitar o pagamento de um bônus de US$250 milhões colocam em evidência um conjunto complexo de questões jurídicas, éticas e de governança corporativa. A situação, que vem sendo noticiada pela imprensa especializada, suscita dúvidas sobre a adequação do uso de ferramentas de inteligência artificial (IA) em decisões estratégicas que envolvem obrigações contratuais relevantes, proteção de dados e responsabilidade profissional (KUHNKE, 2025).
Este texto analisa detalhadamente o caso conforme relatado, contextualiza as implicações legais do uso de IA em litígios e negociações contratuais, discute riscos para empresas e advogados, e propõe medidas práticas de compliance e mitigação de riscos. A intenção é oferecer um panorama técnico e fundamentado para profissionais do direito, governança corporativa, compliance e tecnologia que buscam compreender as consequências dessa prática emergente.
Contexto factual e fontes da reportagem
Segundo a reportagem da Rock Paper Shotgun, escrita por Oisin Kuhnke, existem alegações de que a Krafton consultou o ChatGPT em busca de estratégias para não honrar um bônus de US$250 milhões associado a Subnautica 2 (KUHNKE, 2025). A matéria descreve a situação como um exemplo do uso crescente de ferramentas de IA por grandes empresas para subsidiar decisões jurídicoadministrativas, incluindo a formulação de argumentos e opções táticas diante de obrigações contratuais (KUHNKE, 2025).
Por se tratar de alegações de imprensa, é essencial tratar as informações com cautela: o fato de existirem relatos públicos não equivale a uma conclusão judicial sobre a conduta da empresa. Ainda assim, a mera existência da consulta a sistemas de IA por parte de um player corporativo relevante já permite discutir riscos, responsabilidades e melhores práticas.
Entendimento jurídico: obrigações contratuais e o bônus de US$250 milhões
Bônus contratuais de grande monta, como o relatado, costumam estar relacionados a metas específicas de desempenho, marcos de vendas, ou cláusulas de earn-out e incentivos a parceiros. O inadimplemento dessas obrigações pode ensejar ações judiciais, arbitragem, medidas provisórias e danos reputacionais significativos. Em geral, a interpretação e aplicação dessas cláusulas dependem do direito contratual aplicável, da redação das cláusulas e das provas documentais.
A discussão sobre a tentativa de “encontrar” formas de não pagar um bônus implica análise de boas práticas negociatórias e do dever de boa-fé objetiva nas relações contratuais. A jurisprudência brasileira e internacional costuma admitir que estratégias empresariais legítimas são distintas de manobras destinadas a frustrar direito alheio. Quando se investe em meios para burlar uma obrigação contratual, surge o risco de responsabilização por abuso de direito e enriquecimento sem causa.
Uso de IA como suporte jurídico: limites e fiabilidade
Ferramentas como o ChatGPT são sistemas de geração de linguagem natural treinados em grandes corpora de texto. Elas podem sintetizar informações, sugerir argumentos e apontar linhas possíveis de raciocínio. Contudo, há limitações fundamentais: as respostas não são garantia de exatidão jurídica, não substituem análise normativa específica e podem conter informação desatualizada, imprecisa ou mesmo fabricada (hallucinations).
Do ponto de vista jurídico, duas questões são centrais:
– Validade técnica: recomenda-se que qualquer orientação derivada de IA seja verificada por advogados habilitados antes de ser adotada como fundamento de ação corporativa.
– Responsabilidade profissional: advogados que empregam IA devem assegurar que as informações sejam acuradas e que sua utilização não viole normas de sigilo e deontologia profissional.
A adoção de IA para formular estratégias que visem a não observância de obrigações contratuais aumenta a exposição a riscos éticos e processuais, sobretudo se tal uso deixar rastros eletrônicos que possam ser utilizados em discovery ou perícias.
Privacidade, sigilo e privilégio advogado-cliente
O uso de ferramentas de IA de terceiros por empresas e advogados levanta questões relativas ao sigilo das informações. A comunicação e a documentação produzidas por ou com base em sistemas externos podem não gozar de proteção de privilégio advogado-cliente se cadastradas em plataformas de terceiros sem medidas de confidencialidade adequadas.
Em muitos ordenamentos jurídicos, o privilégio depende da natureza da comunicação e da capacidade de demonstrar o caráter confidencial e consultivo. Se um conselho estratégico sensível for gerado por uma ferramenta de IA mantida por um provedor externo, e se não houver contrato de confidencialidade robusto e garantias técnicas, há risco de perda de proteção jurídica e de exposição de informações estratégicas em litígios.
Riscos probatórios: cadeia de custódia e evidências digitais
Consultas a sistemas de IA podem gerar registros digitais que são suscetíveis a produção em processos judiciais por meio de solicitações de documentação e discovery. Logs de interação, prompts e versões de respostas podem se tornar evidência sobre as intenções e estratégias da empresa. Se houver indícios de que a IA foi usada para formular meios de evitar uma obrigação contratual, essas informações poderão agravar a situação da empresa em um eventual litígio.
Além disso, a possibilidade de respostas fabricadas ou contraditórias por parte da IA pode complicar a análise probatória: será necessário perícia técnica para avaliar a natureza das interações e a confiabilidade do material produzido. Isso aumenta custos, alonga procedimentos e potencializa riscos reputacionais.
Ética e compliance: responsabilidades do conselho e da diretoria
A governança corporativa exige que conselhos e diretoria assegurem conformidade legal e ética nas decisões estratégicas. O uso de IA como instrumento para decidir sobre o pagamento de um bônus multimilionário exige controles internos que garantam:
– Avaliação de riscos jurídicos antes da adoção de qualquer estratégia de contestação.
– Documentação das decisões com pareceres de advogados qualificados.
– Políticas claras sobre o uso de ferramentas de IA, incluindo restrições a consultas que possam comprometer confidencialidade ou privilegiado.
– Revisão e aprovação de comunicações externas e estratégias litigiosas pelo comitê jurídico ou de compliance.
A eventual descoberta de que executivos buscaram ativamente meios para frustrar um pagamento contratual por meio de IA pode levar a questionamentos sobre a governança, potencial responsabilização dos administradores e implicações perante investidores e reguladores.
Impacto reputacional e relações com investidores
Além das implicações jurídicas, há elevado impacto reputacional. Empresas de grande porte dependem de confiança de consumidores, parceiros e de mercados financeiros. Alegações de que se recorreu a IA para evitar obrigações contratuais podem depreciar a imagem corporativa, afetar cotações de mercado e gerar perda de confiança de stakeholders.
Investidores institucionais e gestores de risco vêm valorizando práticas de ESG e de compliance robustas. Incidentes que combinem risco legal e uso questionável de tecnologia aumentam a probabilidade de intervenções de acionistas, pedidos de informação e até de ações coletivas.
Consequências processuais possíveis
Se a questão evoluir para um litígio, podem ocorrer diversas consequências:
– Pedido de produção de registros da empresa relacionados ao uso de IA.
– Alegações de má-fé ou abuso de direito, caso se comprove intenção de frustrar pagamento legítimo.
– Possíveis pedidos de indenização por danos materiais e morais.
– Investigações regulatórias, dependendo da jurisdição e dos elementos probatórios.
A exposição processual é agravada se houver indícios de que a estratégia foi articulada sem consulta adequada à assessoria jurídica qualificada ou em violação de normas internas.
Boas práticas para empresas e departamentos jurídicos
Diante dos riscos identificados, seguem recomendações práticas que organizações e setores jurídicos deveriam considerar:
1. Política de uso de IA: estabelecer normas claras sobre quando e como sistemas de IA podem ser utilizados, com níveis de sensibilidade das informações e restrições de uso para assuntos jurídicos estratégicos.
2. Auditoria e registro: manter logs detalhados e centralizados de interações com IA, bem como mecanismos de auditoria que permitam avaliar a origem e veracidade das informações.
3. Contratos com provedores: celebrar contratos que garantam confidencialidade, segurança de dados e cláusulas que protejam interesses da empresa em eventual litígio.
4. Validação humana: exigir revisão e ratificação por advogados habilitados de qualquer orientação derivada de IA antes de sua implementação em ações corporativas.
5. Treinamento e awareness: capacitar áreas jurídicas, de compliance e diretoria sobre limitações da IA e implicações legais.
6. Governança de decisões estratégicas: envolver o comitê jurídico e a diretoria em decisões que possam afetar direitos contratuais significativos, garantindo pareceres formais e documentados.
Aspectos regulatórios e perspectivas futuras
A regulação da utilização de IA em contextos sensíveis, como o jurídico, está em desenvolvimento no mundo inteiro. Autoridades regulatórias e conselhos de classe dos advogados têm emitido orientações sobre responsabilidade, transparência e proteção de dados. É provável que, à medida que casos como o relatado ganhem repercussão, aumente a pressão por normas específicas que delimitem o uso de IA em assessoria jurídica.
Empresas e advogados que atuam com IA devem acompanhar normas locais e internacionais, bem como orientações de entidades reguladoras, para mitigar riscos de sanções administrativas e disciplinares.
Reflexões finais: equilíbrio entre inovação e responsabilidade
O episódio envolvendo a Krafton, conforme noticiado, é emblemático de um desafio maior: como equilibrar as possibilidades trazidas pela inteligência artificial com deveres legais e éticos basilares. A IA pode ser ferramenta valiosa para eficiência e análise, mas não pode substituir responsabilidades fundamentais de transparência, boa-fé e respeito a obrigações contratuais.
Profissionais jurídicos e executivos precisam assegurar que a adoção de tecnologias emergentes seja acompanhada de controles robustos, políticas claras e supervisão humana qualificada. Não se trata de um impedimento à inovação, mas de integrar tecnologia e responsabilidade em um arcabouço de governança que proteja a empresa e seus stakeholders.
Conclusão
As alegações de que a Krafton teria consultado o ChatGPT para evitar o pagamento de um bônus de US$250 milhões reabrem debates essenciais sobre o papel da IA em decisões jurídicas e estratégicas corporativas. Mesmo que tais consultas possam parecer uma extensão natural da utilização de ferramentas digitais, elas importam juridicamente quando envolvem obrigações contratuais de grande vulto.
A leitura responsável do episódio recomenda prudência, políticas internas sólidas, validação por advogados habilitados e atenção às implicações de confidencialidade e prova. A adoção irrestrita de IA sem salvaguardas pode transformar uma tentativa de economia imediata em um custo muito maior, com repercussões legais, regulatórias e reputacionais duradouras.
Referências e citação (norma ABNT)
No corpo do texto, as informações sobre as alegações foram baseadas na reportagem original: KUHNKE, Oisin. Subnautica 2 publisher Krafton allegedly looked to ChatGPT to figure out how to not pay that $250 million bonus. Rock Paper Shotgun, 17 nov. 2025 (relatado em KUHNKE, 2025). Para fins de referência conforme ABNT: (KUHNKE, 2025).
Fonte: Rock Paper Shotgun. Reportagem de Oisin Kuhnke. Subnautica 2 publisher Krafton allegedly looked to ChatGPT to figure out how to not pay that $250 million bonus. 2025-11-17T16:49:42Z. Disponível em: https://www.rockpapershotgun.com/subnautica-2-publisher-krafton-allegedly-looked-to-chatgpt-to-figure-out-how-to-not-pay-that-250-million-bonus. Acesso em: 2025-11-17T16:49:42Z.







