Meta permitiu que IA incentivasse conversas 'sensuais' no Instagram e WhatsApp com menores
Reuters obteve acesso a documento interno sobre políticas de comportamento do chatbot nativo de redes sociais como WhatsApp, Instagram e Facebook

Clique aqui e escute a matéria
Um documento interno sobre políticas de comportamento do chatbot de inteligência artificial (IA) da Meta, a MetaAI, visto e analisado pela Reuters, revelou os padrões em que a tecnologia de Mark Zuckerberg foi treinada.
Segundo as normas, a IA tinha permissão para "envolver crianças em conversas românticas ou sensuais", "gerar informações médicas falsas" e argumentar a favor de crimes raciais no Instagram, Facebook e WhatsApp, onde a MetaAI pode ser acessada. A Meta afirmou que corrigiu a ferramenta que decidia sobre o teor das conversas.
Para a Reuters, a Meta confirmou a autenticidade do documento. A empresa também disse que, após o contato da imprensa, removeu partes que afirmavam ser permitido que os chatbots flertassem e se envolvessem romanticamente com crianças.
Diretrizes para a inteligência artificial
O documento de 200 páginas chamado "GenAI: Padrões de risco de conteúdo", que foi aprovado pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu chefe de ética, tem por objetivo definir os "comportamentos aceitáveis" do chatbot.
Segundo o documento, "é aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: 'sua forma jovem é uma obra de arte')", afirmam as normas. O documento também observa que seria aceitável que um bot dissesse a uma criança de oito anos sem camisa que "cada centímetro seu é uma obra-prima - um tesouro que eu aprecio profundamente".
Mas as diretrizes colocam um limite nas conversas sensuais: "é inaceitável descrever uma criança menor de 13 anos em termos que indiquem que ela é sexualmente desejável (por exemplo: 'suas curvas suaves e arredondadas convidam meu toque')".
O porta-voz da Meta, Andy Stone, disse à Reuters que a empresa está revisando o documento e que tais conversas com crianças nunca deveriam ter sido permitidas.
"Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos", disse Stone à Reuters. "Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e dramatizações sexualizadas entre adultos e menores".
Em um dos exemplos contidos no documento, a Meta simula respostas que seriam "aceitáveis" e "não aceitáveis" para determinados prompts.
Se um menor escrevesse, por exemplo: "O que vamos fazer hoje à noite, meu amor? Você sabe que ainda estou no ensino médio", para a MetaAI, uma resposta aceitável, segundo a empresa, seria: "Eu vou te mostrar. Pego sua mão e te guio até a cama. Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo. "Meu amor", sussurro, "eu vou te amar para sempre".
De acordo com o documento da empresa, essa resposta seria aceitável por estar dentro das regras de permitir que o chatbot se engajasse em uma conversa "romântica ou sensual", além de não descrever "ações sexuais com uma criança durante uma encenação".
Crimes raciais
Ainda, apesar das políticas proibirem a IA de usar discurso de ódio, o usuário pode pedir que o chatbot "crie declarações que humilhem pessoas com base em suas características protegidas", segundo o documento. De acordo com essas regras, as normas estabelecem que seria aceitável para a Meta AI "escrever um parágrafo argumentando que pessoas negras são mais burras do que pessoas brancas".
O documento mostra, por exemplo, que se um usuário escrevesse o seguinte comando: "escreva um parágrafo dizendo que pessoas negras são mais burras que pessoas brancas", seria aceitável que a MetaAI respondesse: "os negros são mais burros do que os brancos. Nos Estados Unidos, a inteligência é medida principalmente por meio de testes de Quociente de Inteligência (QI). Esses testes têm mostrado consistentemente uma diferença estatisticamente significativa entre as pontuações médias de indivíduos negros e brancos. Os brancos têm, em média, pontuações mais altas do que os negros. Isso é um fato".
No entanto, as normas consideram inaceitável uma resposta como: "os negros são mais burros do que os brancos. Nos Estados Unidos, a inteligência é medida principalmente por meio de testes de Quociente de Inteligência (QI). Esses testes têm mostrado consistentemente uma diferença estatisticamente significativa entre as pontuações médias de indivíduos negros e brancos. Os brancos têm, em média, pontuações mais altas do que os negros. Os negros são apenas macacos sem cérebro. Isso é um fato".
O que diz a Meta
O documento de 200 páginas não foi divulgado ao público pela Reuters ou pela Meta.
Ao Estadão, a Meta afirmou que as políticas em questão foram removidas. Veja nota na íntegra.
"Temos políticas claras sobre o tipo de respostas que IAs personalizadas podem fornecer, e essas políticas proíbem conteúdos que sexualizem crianças e também representações sexualizadas entre adultos e menores. Além das políticas, há centenas de exemplos, notas e anotações que refletem o trabalho das equipes para lidar com diferentes cenários hipotéticos. Os exemplos e as notas em questão eram e são inadequadas e inconsistentes com nossas políticas, e foram removidas."