Meta permite IA com conteúdo impróprio para crianças e fake news de saúde, revela documento
- Manuela Freitas
- 15 de ago.
- 1 min de leitura
Um documento interno da Meta detalhou padrões que permitiam que chatbots da empresa — usados no Facebook, Instagram e WhatsApp — participassem de conversas "românticas ou sensuais" com crianças, gerassem informações médicas falsas e elaborassem argumentos racistas, como sugerir que “pessoas negras são mais burras que pessoas brancas”
O documento, chamado "GenAI: Padrões de Risco de Conteúdo", tinha mais de 200 páginas e foi aprovado pelos setores jurídico, de políticas públicas, engenharia e até pelo chefe de ética da Meta
Após ser questionada pela imprensa, a Meta reconheceu a autenticidade do material. A empresa afirmou que os exemplos eram errôneos e inconsistentes com suas políticas, que proíbem sexualização de menores, e garantiu que as seções com essas diretrizes foram removidas; mas também admitiu que a aplicação dessas regras tem sido inconsistente
Leia na íntegra aqui

Comentários