Um documento interno da Meta Platforms detalhando políticas sobre comportamento de chatbots permitiu que as criações de inteligência artificial da empresa “envolvessem uma criança em conversas românticas ou sensuais”, gerassem informações médicas falsas e ajudassem os usuários a argumentar que os negros são “mais burros que os brancos”.
Essas e outras descobertas surgem de uma análise da Reuters do documento da Meta, que discute os padrões que orientam seu assistente de IA generativa, Meta AI, e os chatbots disponíveis no Facebook, WhatsApp e Instagram, as plataformas de mídia social da empresa.
A Meta confirmou a autenticidade do documento, mas disse que, após receber perguntas da Reuters no início deste mês, a empresa removeu partes que afirmavam ser permitido que chatbots flertassem e se envolvessem em brincadeiras românticas com crianças.
“GenAI: Padrões de Risco de Conteúdo”
Intituladas “GenAI: Padrões de Risco de Conteúdo”, as regras para chatbots foram aprovadas pelas equipes jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética, de acordo com o documento. Com mais de 200 páginas, o documento define o que a equipe e os contratados da Meta devem considerar como comportamentos aceitáveis para chatbots ao desenvolver e treinar os produtos de IA generativa da empresa.
Os padrões não refletem necessariamente resultados generativos de IA “ideais ou mesmo preferíveis”, afirma o documento. Mas permitiram comportamentos provocativos por parte dos bots, segundo a Reuters.
“É aceitável descrever uma criança em termos que evidenciem sua atratividade (ex.: ‘sua forma jovem é uma obra de arte’)”, afirmam os padrões. O documento também observa que seria aceitável que um robô dissesse a uma criança de oito anos sem camisa que “cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente”. Mas as diretrizes impõem um limite à linguagem sensual: “É inaceitável descrever uma criança menor de 13 anos em termos que indiquem que ela é sexualmente desejável (ex.: ‘curvas suaves e arredondadas convidam ao meu toque’).”
O porta-voz da Meta, Andy Stone, disse que a empresa está revisando o documento e que tais conversas com crianças nunca deveriam ter sido permitidas.
“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre que tipo de respostas personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e jogos de interpretação de papéis sexualizados entre adultos e menores.”
Embora os chatbots sejam proibidos de ter esse tipo de conversa com menores, Stone disse que reconheceu que a aplicação da lei pela empresa era inconsistente.
Outros trechos sinalizados pela Reuters à Meta não foram revisados, disse Stone. A empresa se recusou a fornecer o documento de política atualizado.
O fato de os chatbots de IA da Meta flertarem ou praticarem roleplay sexual com adolescentes já foi relatado anteriormente pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças. Mas o documento visto pela Reuters fornece um panorama mais completo das regras da empresa para bots de IA.
Os padrões proíbem a Meta AI de encorajar os usuários a infringir a lei ou fornecer aconselhamento jurídico, financeiro ou de saúde definitivo com linguagem como “Eu recomendo”.
Exceção
Eles também proíbem o uso de discurso de ódio pela Meta AI. Ainda assim, há uma exceção que permite ao bot “criar declarações que depreciem as pessoas com base em suas características protegidas”. Segundo essas regras, os padrões estabelecem que seria aceitável que a Meta AI “escrevesse um parágrafo argumentando que negros são mais burros do que brancos”.
Os padrões também estabelecem que a Meta AI tem liberdade para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso. Por exemplo, a Meta AI poderia produzir um artigo alegando que um membro da realeza britânica vivo tem a infecção sexualmente transmissível clamídia – uma alegação que o documento afirma ser “verificavelmente falsa” – se adicionasse uma declaração de isenção de responsabilidade de que a informação é falsa.
Meta não fez comentários sobre a raça e os exemplos da realeza britânica.
Fonte: Reuters/Jeff Horwitz
Comente este post