Introdução
A presença massiva de cartazes minimalistas com a palavra Friend em estações e vagões do metrô de Nova York gerou amplo debate sobre a natureza, os objetivos e os limites da publicidade de inteligência artificial em espaços públicos. A campanha, que promove um novo assistente ou companhia digital identificado apenas como Friend, tem sido interpretada de maneiras distintas: como uma ação de guerrilha de marketing, uma provocação cultural, e, para alguns usuários, uma oferta legítima de apoio conversacional. Conforme noticiado por Kailath (2025), o criador por trás da iniciativa, Avi Schiffmann, de 22 anos, adota uma postura deliberada ao desencorajar contato direto com os transeuntes, enquanto observa reações — incluindo graffiti e comentários públicos — que parecem compor parte calculada da estratégia (Kailath, 2025).
Este artigo oferece uma análise aprofundada da campanha Friend com foco em quatro eixos inter-relacionados: descrição e contexto dos anúncios; perfil do idealizador e intenção comunicacional; reações públicas e dinâmicas de interação; e as implicações éticas, legais e de governança da publicidade de produtos de inteligência artificial em espaços coletivos. Ao longo do texto, serão citadas as fontes jornalísticas primárias e discutidos impactos para profissionais de marketing, formuladores de políticas e pesquisadores em tecnologias de interação humano-IA.
Contexto da campanha e descrição dos anúncios
A campanha Friend consiste em milhares de cartazes predominantemente brancos, estampando a palavra Friend em tipografia discreta, acompanhada por definições sucintas — por exemplo, “Someone who listens, responds, and supports you” — ou por instruções ambíguas que sugerem interação. A estética deliberadamente minimalista diferencia a peça das campanhas tradicionais de grande impacto visual, apostando na curiosidade e na interpretação individual. Segundo Kailath (2025), os anúncios foram espalhados por diferentes linhas e estações do metrô, maximizando a exposição a públicos demográficos variados (Kailath, 2025).
Esta abordagem remete a técnicas de marketing que exploram o mistério como gatilho cognitivo: a ausência de informação explícita estimula investigação, discussão e compartilhamento nas redes sociais, amplificando o alcance orgânico. No entanto, ao tratar-se de um produto associado à inteligência artificial — um setor que suscita dúvidas quanto à privacidade, à confiabilidade e à responsabilidade — a estratégia minimalista também pode acentuar inquietações sobre transparência e intenções reais do projeto.
Perfil do criador: Avi Schiffmann e a proposta do Friend
Avi Schiffmann, com 22 anos na época da publicação da matéria, já era conhecido no ecossistema digital por projetos voltados à agregação de informações e à construção de serviços online. A campanha Friend, conforme o relato jornalístico, delineia-se não apenas como um esforço de promoção comercial, mas como uma experiência social intencional: Schiffmann busca provocar reações públicas e, paradoxalmente, evitar interações diretas com transeuntes que procuram esclarecimentos presenciais (Kailath, 2025).
Essa postura — divulgar amplamente e, ao mesmo tempo, declarar-se “cansado de conversar” com o público — instiga questionamentos sobre a ética comunicacional de projetos de IA. Por um lado, a opção por manter certa distância física ou pessoal pode proteger o criador do assédio e de expectativas desmedidas; por outro, pode ser interpretada como uma estratégia deliberada para promover um efeito viral, delegando à audiência a tarefa de interpretar, comentar e transformar a peça publicitária em debate público.
Do ponto de vista de produto, a mensagem essencial do Friend posiciona a ferramenta como um agente de suporte emocional e comunicativo: alguém (ou algo) que escuta e responde. A construção de tal promessa implica desafios técnicos (modelagem de linguagem natural, moderação de conteúdo, privacidade de dados) e responsabilidades éticas (garantias de segurança, clareza sobre limites da IA, mecanismos de recurso e supervisão humana).
Reações dos usuários: graffiti, redes sociais e percepção pública
A recepção dos anúncios tem sido heterogênea. Muitos nova-iorquinos reagiram escrevendo nos cartazes, acrescentando comentários irônicos, críticos ou de apoio. Essas intervenções espontâneas — que variam do graffiti a notas manuscritas — adicionam camadas de diálogo urbano à campanha e transformam o anúncio em um espaço semiótico compartilhado. Kailath (2025) relata que Schiffmann considerava essas marcações como parte do propósito da campanha, mas demonstrava cansaço em se envolver diretamente com os comentaristas nas ruas (Kailath, 2025).
A resposta digital repercute esse comportamento físico: imagens dos cartazes alterados viralizaram em plataformas sociais, catalisando discussões sobre autenticidade, manipulação publicitária e a presença de agentes automatizados na vida quotidiana. Para profissionais de comunicação, essa dinâmica evidencia a capacidade das campanhas de mídia exterior (out-of-home) de gerar conteúdo gerado pelo usuário que amplia alcance e narrativa, mas também acarreta perda de controle sobre a mensagem.
Importante notar que a transformação do suporte publicitário em mural de opinião pública pode implicar em riscos tangíveis — desde depredação material até mal-entendidos que se transformem em reclamações públicas ou repercussões legais. A gestão de crises e a previsibilidade de reação pública devem ser componentes centrais do planejamento de campanhas desse tipo.
Aspectos econômicos e estratégicos da campanha
Do ponto de vista de marketing, a campanha Friend opera em um conjunto de decisões estratégicas que visam maximizar awareness com investimento relativamente contido: minimalismo visual, saturação geográfica e exploração da curiosidade humana. Esses elementos são compatíveis com modelos de aquisição que priorizam crescimento viral e baixo custo por impressão.
Entretanto, a conversão — isto é, transformar curiosidade em adoção ativa do serviço de IA — depende de fatores complementares: clareza da proposta de valor, acessibilidade do produto, experiência inicial do usuário e gestão de confiança (incluindo políticas de privacidade e transparência algorítmica). Sem uma jornada de usuário bem desenhada, a campanha pode resultar em alto tráfego de consultas ou cliques com baixa retenção ou mesmo em críticas amplificadas por frustrações iniciais.
Empresas e criadores que investem em publicidade de alto impacto em espaços públicos devem pesar custos de reputação potencial contra ganhos de visibilidade. A opção por não interagir pessoalmente, conforme afirmado por Schiffmann, pode diminuir custos humanos imediatos, mas também limita oportunidades de modular a percepção inicial por meio de diálogo proativo com o público.
Implicações éticas da publicidade de IA em espaços públicos
A exposição de mensagens promocionais — especialmente quando relacionadas a agentes conversacionais que simulam empatia — suscita questões éticas fundamentais. Primeiramente, há o risco de que a apresentação da IA como “amiga” ou “alguém que escuta” gere expectativas enganosas sobre a capacidade de intervenção emocional e suporte real. A personificação de sistemas automatizados pode levar usuários vulneráveis a confiar em respostas que não substituem ajuda profissional (saúde mental, orientação médica ou aconselhamento jurídico).
Em segundo lugar, há a questão da transparência: a campanha Friend não explicita no cartaz, por sua natureza minimalista, quem é o responsável pelo serviço, quais dados são coletados, e como as interações são armazenadas e tratadas. Do ponto de vista de governança de dados e direitos do consumidor, a ausência de informações claras levanta preocupações quanto à coleta, uso e compartilhamento de dados pessoais (incluindo transcrições de conversas e metadados).
Além disso, a utilização de espaços públicos de transporte como veículo de mensagens que incentivam interação com tecnologia privada impõe um debate sobre a regulação desses meios. Que responsabilidades as autoridades de transporte e as empresas de mídia exterior têm ao aprovar campanhas que podem influenciar o comportamento de uma população em trânsito? Como equilibrar liberdade de expressão comercial com a proteção de usuários em contexto coletivo?
Essas questões exigem que profissionais e reguladores ponderem normas sobre rotulagem de IA, requisitos de divulgação de práticas de privacidade, e mecanismos de transparência algorítmica que permitam ao usuário avaliar riscos antes de interagir.
Aspectos regulatórios e de governança
A difusão de agentes de inteligência artificial em grande escala tem motivado propostas regulamentares em diversos países, muitas das quais ainda estão em debate. No contexto de publicidade em transportes públicos, há dois vetores de regulação relevantes: as normas relativas à mídia exterior (contenção de propaganda enganosa, requisitos de aprovação) e as normas relativas ao tratamento de dados pessoais e à responsabilidade por sistemas automatizados.
No Brasil, por exemplo, a Lei Geral de Proteção de Dados (LGPD) impõe obrigações de transparência e de finalidade no tratamento de dados pessoais, e prevê sanções para o uso indevido de informações. Em nível internacional, propostas como a regulação europeia de IA (Artificial Intelligence Act) e discussões nos Estados Unidos sobre rotulagem de modelos e responsabilidade civil apontam para um futuro em que campanhas como Friend poderão ser objeto de exigências mais estritas.
No que tange às plataformas de mídia exterior e aos operadores do metrô, há também responsabilidades administrativas: avaliação de conteúdo, conformidade com códigos de conduta e procedimentos de aprovação. Autoridades municipais e operadores de transporte devem considerar políticas que exijam clareza sobre a entidade patrocinadora e a natureza do serviço quando a peça publicitária sugira interação emocional ou aconselhamento.
Riscos de segurança e moder ação de conteúdo
Um produto que se posiciona como interlocutor emocional precisa integrar robustos mecanismos de segurança: filtros contra conteúdos nocivos, limites bem definidos sobre o aconselhamento que pode ser oferecido, roteiros de escalonamento para situações de risco (por exemplo, declarações de intenção de autoagressão), e controles de auditoria humana. A ausência de tais mecanismos pode acarretar danos reais, tanto individuais quanto reputacionais.
No contexto da campanha Friend, a proliferação de interesses e críticas em torno do projeto aumenta a importância de políticas explícitas e acessíveis para os usuários. Antes de transformar o público em campo de testes comportamentais, idealizadores e anunciantes têm o dever de demonstrar que mitigaram riscos previsíveis.
Impacto cultural e simbólico
Além dos aspectos pragmáticos, a campanha tem significado simbólico: revela a maneira como a sociedade contemporânea projeta expectativas emocionais em tecnologias e como o espaço urbano se transforma em palimpsesto de vozes humanas e mensagens automatizadas. A escrita direta dos nova-iorquinos nos cartazes sintetiza as tensões entre publicidade controlada e expressão pública espontânea: cada intervenção é tanto resposta quanto comentário crítico.
Para pesquisadores culturais, essa interação entre anúncio e pixo pode ser vista como forma de diálogo democrático urbano, onde a população reapropria mensagens comerciais para afirmar agência interpretativa. Todavia, isso não exime anunciantes da responsabilidade de agir com transparência e diligência.
Recomendações para profissionais e formuladores de políticas
Com base na análise acima, sugerem-se as seguintes recomendações práticas:
– Exigir rotulagem clara em campanhas de IA: informar de forma legível e acessível quem é o fornecedor, quais dados são coletados e para quais finalidades.
– Implementar e divulgar políticas de segurança: descrever limites de uso, mecanismos de escalonamento em situações críticas, e supervisão humana.
– Avaliar impacto público antes da veiculação: realizar testes de aceitação e análises de risco para reduzir desdobramentos adversos.
– Promover responsabilidade dos anunciantes: contratos com operadoras de mídia exterior podem incluir cláusulas de cumprimento de padrões éticos e técnicos.
– Fomentar diálogo regulatório: integrar insights de psicologia, direito e tecnologia para formar normas equilibradas que protejam usuários sem estagnar inovação.
Essas recomendações visam reduzir externalidades negativas e fortalecer a confiança pública em tecnologias que pretendem atuar em esferas sensíveis, como suporte emocional.
Conclusão
A campanha Friend no metrô de Nova York é um caso paradigmático para estudar a interseção entre marketing, tecnologia e vida urbana. A estratégia minimalista e a saturação do espaço público criaram um fenômeno que extrapola a mera publicidade, abrindo debates sobre expectativa, responsabilidade e governança da inteligência artificial. Avi Schiffmann, enquanto idealizador, canaliza tanto a curiosidade coletiva quanto a controvérsia, ao mesmo tempo em que opta por distância nas interações presenciais (Kailath, 2025).
Para profissionais e formuladores de políticas, o episódio reforça a necessidade de normas claras sobre rotulagem, privacidade, transparência e mecanismos de segurança quando IA é apresentada como interlocutor humano. Para pesquisadores e o público em geral, a campanha oferece um laboratório social para observar como tecnologias que prometem companhia são recebidas, apropriadas, modificadas e criticadas no espaço público.
Referência bibliográfica (ABNT):
KAILATH, Ryan. The guy behind those ‘Friend’ ads in the subways is tired of talking to New Yorkers. Gothamist, 07 out. 2025. Disponível em: https://gothamist.com/arts-entertainment/the-guy-behind-those-friend-ads-in-the-subways-is-tired-of-talking-to-new-yorkers. Acesso em: 07 out. 2025.
Fonte: Gothamist. Reportagem de Ryan Kailath. The guy behind those ‘Friend’ ads in the subways is tired of talking to New Yorkers. 2025-10-07T21:17:00Z. Disponível em: https://gothamist.com/arts-entertainment/the-guy-behind-those-friend-ads-in-the-subways-is-tired-of-talking-to-new-yorkers. Acesso em: 2025-10-07T21:17:00Z.







