Introdução e relevância do tema
A crescente capacidade da inteligência artificial (IA) para sintetizar vozes, reproduzir imagens e criar representações fidedignas de personalidades públicas elevou o debate sobre proteção de direitos individuais a um novo patamar. Conforme reportagem recente, “In India, Bollywood stars are asking judges to protect their voice and persona in the era of artificial intelligence” (CHATURVEDI; KALRA, 2025). Várias estrelas de Bollywood têm levado a questão ao Judiciário, pedindo medidas contra o uso não autorizado de sua voz e imagem por tecnologias baseadas em IA e responsabilização de plataformas como o Google (CHATURVEDI; KALRA, 2025).
A importância do tema supera o âmbito do entretenimento. Direitos de personalidade, responsabilidade de intermediários e governança de modelos generativos são temas centrais para jurisdições que enfrentam riscos de desinformação, perda de receitas por licenciamento indevido e violação de prerrogativas fundamentais de indivíduos. Este artigo analisa o caso relatado por Arpan Chaturvedi e Aditya Kalra, explora o enquadramento jurídico na Índia e comparativamente, examina os desafios técnicos e propõe caminhos regulatórios e práticos para mitigar riscos associados à IA generativa.
Contexto e resumo do caso
De acordo com a reportagem publicada no Yahoo Entertainment, com base em apuração de Reuters, atores de Bollywood solicitaram ao Judiciário indiano proteção expressa contra o uso não autorizado de suas vozes e personalidades por tecnologias de inteligência artificial (CHATURVEDI; KALRA, 2025). O litígio envolve pedidos para que plataformas e desenvolvedores impeçam a criação e disseminação de conteúdos sintéticos que utilizem sem autorização a imagem, a voz e os maneirismos desses artistas.
Os pedidos refletem preocupações concretas: uso de vozes sintéticas em publicidade, simulação de participações em produções audiovisuais e geração de mensagens atribuídas falsamente a celebridades para fins comerciais ou políticos. As petições buscam medidas cautelares para proibir o uso dos elementos de personalidade sem consentimento, bem como demandam reparação por danos eventualmente causados.
Direitos de personalidade: conceito jurídico e diferenças entre jurisdições
Os direitos de personalidade englobam prerrogativas fundamentais ligadas à imagem, voz, privacidade, honra e identidade de uma pessoa. No Brasil, por exemplo, o Código Civil define e protege direitos da personalidade como inalienáveis e imprescritíveis (artigos iniciais do Código Civil), prevendo ação para indemnização por violação. A comparação com o caso indiano é pertinente: ainda que sistemas jurídicos variem, princípios fundamentais—como a necessidade de consentimento para uso de imagem e a proteção contra uso indevido da voz—tendem a convergir.
Na Índia, a jurisprudência tem evoluído em torno do direito à privacidade e proteção da dignidade. Decisões recentes da Suprema Corte (por exemplo, Puttaswamy v. Union of India, 2017) reforçaram o reconhecimento da privacidade como direito fundamental, o que abre espaço para reivindicações relativas ao uso indevido de dados biométricos e características pessoais (CHATURVEDI; KALRA, 2025). Internacionalmente, regimes de common law, como nos Estados Unidos, desenvolvem doutrina do “right of publicity” (direito de publicidade) que protege o valor comercial da imagem e nome de uma pessoa, enquanto a União Europeia trata proteção de dados pessoais e biométricos via GDPR, que disciplina o tratamento de dados sensíveis, incluindo elementos que possibilitem identificação por meio de voz.
Aspectos tecnológicos: deepfakes, clonagem de voz e modelos generativos
Tecnologias de aprendizado profundo (deep learning) viabilizam a criação de deepfakes visuais e de voz com nível elevado de realismo. Modelos de síntese de voz permitem reproduzir entonação, timbre e maneirismos a partir de amostras de áudio. Modelos multimodais podem combinar rosto, gestos e voz para produzir avatares digitais convincentes.
Os riscos tecnológicos são múltiplos:
– Autenticidade e verificação: conteúdos gerados por IA podem ser indistinguíveis de gravações reais para o público comum.
– Velocidade de disseminação: plataformas digitais amplificam a circulação de conteúdo falso ou manipulado.
– Escalabilidade do dano: a mesma voz ou imagem pode ser replicada em campanhas múltiplas, multiplicando prejuízos reputacionais e financeiros.
– Difícil atribuição: identificar a origem do modelo ou do agente que produziu o conteúdo requer investigação técnica robusta.
Esses aspectos aumentam a urgência de medidas legais e técnicas capazes de prevenir ou mitigar danos renovados pela IA.
Responsabilidade das plataformas e papel do Google
O litígio envolvendo celebridades e Google coloca no centro o debate sobre responsabilidade das plataformas. Empresas que hospedam conteúdo (intermediários) e desenvolvedores de ferramentas generativas têm papéis distintos e sobrepostos. Em muitas jurisdições, intermediários beneficiam de regimes de isenção de responsabilidade condicionada a cumprimento de deveres de due diligence e remoção de conteúdo ilícito quando notificados.
No contexto indiano, o arcabouço legal prevê mecanismos de responsabilização de intermediários, mas as normas ainda carecem de clareza específica quanto a conteúdos sintéticos que reproduzem personalidade sem autorização. As demandas judiciais propostas por artistas buscam não apenas a remoção de conteúdos infratores, mas também imposição de controles pró-ativos sobre plataformas, medidas de verificação e mecanismos de consentimento em ferramentas de geração de mídia (CHATURVEDI; KALRA, 2025).
Do ponto de vista de defesa das plataformas, há preocupações sobre liberdade de expressão, custo operacional das obrigações pró-ativas e o impacto em inovação. No entanto, o uso de IA para explorar comercialmente a imagem alheia sem autorização coloca um argumento forte em favor de obrigações mais rigorosas, especialmente quando a violação atinge direitos fundamentais e prejuízos econômicos.
Consequências econômicas e reputacionais para artistas
Para artistas profissionais, a imagem e a voz são ativos econômicos. Licenciamento de voz para publicidade, contratos de dublagem e aparições remuneradas constituem fontes de renda diretamente afetadas por clonagens não autorizadas. O uso indevido pode também afetar negociações de contratos futuros, pela diluição da exclusividade associada à voz e imagem.
Além do prejuízo financeiro, há danos de reputação quando mensagens geradas por IA atribuídas a uma personalidade publicamente são ofensivas, desinformativas ou contrárias à sua imagem. A recuperação reputacional pode ser difícil mesmo após remoção do material, especialmente quando o conteúdo viraliza rapidamente.
Precedentes judiciais e caminhos jurídicos possíveis
As ações judiciais em curso na Índia poderão delinear precedentes importantes sobre direitos de personalidade versus liberdade tecnológica. Possíveis fundamentos jurídicos para os pleitos incluem:
– Violação do direito à privacidade e à dignidade (direitos fundamentais reconhecidos pela Suprema Corte indiana);
– Violação de direitos conexos à imagem e voz, com base em princípios de direito civil e proteção contra uso comercial não autorizado;
– Pedido de medidas cautelares para impedir disseminação e exigir remoção de conteúdo;
– Requisição de medidas injuntivas para forçar plataformas a implementar controles técnicos.
Essas vias são amparadas por solicitações de tutela de urgência para mitigar danos imediatos, bem como por pedidos de indenização por perdas e danos.
Perspectiva comparada: lições para Brasil e outras jurisdições
O caso indiano oferece lições relevantes para o Brasil e demais países:
– Necessidade de legislação específica: normas que abordem expressamente o uso de dados biométricos e personalidade em modelos de IA podem evitar lacunas jurídicas.
– Compatibilização entre proteção da personalidade e liberdade de expressão: instrumentos jurídicos devem balancear proteção de direitos e inovação tecnológica.
– Mecanismos de licenciamento e remuneração: criação de padrões de consentimento para uso comercial de imagem e voz, inclusive modelos de remuneração justa para artistas.
No Brasil, os direitos da personalidade já são reconhecidos e protegidos pelo Código Civil, que estabelece sua inalienabilidade e imprescritibilidade. Entretanto, a emergência de ferramentas de IA evidencia a necessidade de regulamentações específicas para temas como deepfakes, sintetização de voz e responsabilidade de plataformas diante de conteúdos gerados artificialmente.
Medidas técnicas e normativas recomendadas
Para mitigar os riscos e proteger direitos de personalidade associados a vozes e imagens, recomenda-se um conjunto de medidas integradas:
1. Requisitos de transparência para modelos gerativos:
– Exigir que empresas divulguem quando conteúdo foi gerado ou manipulado por IA (metadados, watermarking técnico e avisos claros ao usuário).
2. Padrões de autenticação e verificação:
– Desenvolvimento de protocolos que permitam identificar origem de mídia (assinaturas digitais, cadeias de custódia).
3. Consentimento e licenciamento:
– Estabelecer regimes normativos para consentimento explícito em uso comercial de voz e imagem, com contratos-padrão e possibilidade de remuneração.
4. Obrigações para intermediários:
– Definir deveres proporcionais de diligência, mecanismos de notificação e remoção e incentivo à adoção de ferramentas de detecção de deepfakes.
5. Ferramentas de mitigação técnica:
– Investimento em detectores de mídia sintética, rotulagem e watermarking robusto, e padrões abertos que facilitem auditoria.
6. Educação e capacitação:
– Campanhas de conscientização sobre riscos de deepfakes para profissionais do entretenimento, imprensa e público em geral.
Implementar essas medidas de forma coordenada pode reduzir incidentes e estabelecer equilíbrio entre inovação tecnológica e proteção de direitos fundamentais.
Implicações para empresas de tecnologia e modelo de negócios
Empresas que desenvolvem ou hospedam modelos de IA enfrentam decisões estratégicas sobre governança e compliance. Do ponto de vista de risco, é recomendável:
– Adotar políticas de uso aceitável que impeçam o treinamento ou a produção de conteúdos que reproduzam, sem autorização, voz e imagem de indivíduos;
– Oferecer mecanismos de consentimento e interface para licenciamento de vozes e imagens com audit trail;
– Investir em detecção e moderação quando a plataforma hospeda conteúdo gerado por terceiros;
– Participar em fóruns de padrões para watermarking e interoperabilidade técnica.
A responsabilização crescente e a pressão pública tornam a adoção proativa de medidas de governança de IA vantajosa não apenas para cumprimento legal, mas também para preservação de reputação e confiança.
Caminhos possíveis para um marco regulatório equilibrado
Um marco regulatório eficaz sobre personalidade e IA deve contemplar os seguintes princípios:
– Definição clara de direitos cobertos (voz, imagem, gestos, maneirismos) e exceções legítimas (paródia, jornalismo, lição de uso justo, devidamente delimitadas);
– Procedimentos céleres para remoção de conteúdo e reparação de danos;
– Requisitos de transparência para conteúdos gerados artificialmente;
– Responsabilidade proporcional para intermediários, com critérios claros para remoção e prevenção;
– Incentivo à adoção de padrões técnicos abertos (watermarks, metadados verificáveis);
– Mecanismos de cooperação internacional para investigação de abusos transfronteiriços.
A construção desse marco exige diálogo entre legisladores, setor de tecnologia, indústria cultural e sociedade civil para equilibrar interesses concorrentes.
Conclusão: impacto e próximos passos
O caso envolvendo estrelas de Bollywood e o Google é emblemático da transição para uma era em que a inteligência artificial pode reproduzir elementos íntimos da personalidade humana com precisão e escala inéditas (CHATURVEDI; KALRA, 2025). A resposta jurídica e regulatória moldará não apenas o futuro da indústria do entretenimento, mas também as relações entre indivíduos e plataformas tecnológicas em todo o mundo.
Recomenda-se atenção imediata a medidas de proteção — tanto técnicas quanto legais — e a abertura de canais de diálogo entre as partes interessadas para desenvolver soluções que protejam direitos sem tolher a inovação. A experiência indiana pode servir de ponto de partida para a formulação de políticas em outros países, incluindo o Brasil, onde dispositivos legais já existentes podem ser complementados por normas específicas sobre mídia sintética, proteção de voz e responsabilidade de plataformas.
Referência normativa e citação da reportagem
A matéria que originou este estudo é a reportagem de Arpan Chaturvedi e Aditya Kalra, publicada no Yahoo Entertainment com base em apuração da Reuters, que descreve o pedido de proteção judicial por parte de atores de Bollywood contra o uso de suas vozes e personalidades por recursos de inteligência artificial (CHATURVEDI; KALRA, 2025).
Citação ABNT no corpo do texto: (CHATURVEDI; KALRA, 2025).
Referência bibliográfica (ABNT):
CHATURVEDI, Arpan; KALRA, Aditya. Spooked by AI, Bollywood stars drag Google into fight for ‘personality rights’. Yahoo Entertainment, 01 out. 2025. Disponível em: https://www.yahoo.com/news/articles/spooked-ai-bollywood-stars-drag-091328434.html. Acesso em: 01 out. 2025.
Fonte: Yahoo Entertainment. Reportagem de By Arpan Chaturvedi and Aditya Kalra. Spooked by AI, Bollywood stars drag Google into fight for ‘personality rights’. 2025-10-01T09:13:28Z. Disponível em: https://www.yahoo.com/news/articles/spooked-ai-bollywood-stars-drag-091328434.html. Acesso em: 2025-10-01T09:13:28Z.







