A rede social X está investigando o funcionamento do seu chatbot de inteligência artificial, o Grok, após relatos de que a ferramenta estaria gerando publicações com conteúdos racistas e ofensivos. As informações foram divulgadas pela Sky News neste domingo (8).
De acordo com o repórter Rob Harris, da Sky News, as equipes de segurança do X trabalham com urgência para entender como o chatbot, desenvolvido pela empresa xAI, gerou mensagens de ódio em resposta a comandos feitos por usuários.
Histórico de Restrições
Esta não é a primeira vez que as ferramentas da xAI, empresa de Elon Musk, passam por vistorias. Governos e órgãos reguladores em diversos países têm pressionado a plataforma para criar barreiras contra conteúdos ilegais ou sexualmente explícitos gerados pela inteligência artificial.
Leia mais:
Grok: X questiona testes realizados pela ANPD para geração de imagens eróticas
X não comprovou ter agido contra erotização do Grok, dizem governo e MPF
Caso Grok: Reino Unido abre (mais uma) investigação contra o X
Em resposta a essas pressões, a xAI já havia anunciado algumas mudanças em janeiro:
Edição de imagens: A empresa restringiu as opções de edição de fotos para os usuários do Grok.
Bloqueio por localização: Usuários em determinadas regiões foram impedidos de gerar imagens de pessoas com roupas reveladoras.
Segurança local: Essas restrições foram aplicadas em locais onde esse tipo de conteúdo é considerado ilegal, embora a empresa não tenha listado quais seriam esses países.
Próximos Passos
Até o momento, nem o X nem a xAI responderam oficialmente aos pedidos de comentário sobre a nova investigação. A Reuters informou que ainda não foi possível verificar de forma independente o vídeo citado na reportagem da Sky News.
As investigações atuais fazem parte de um movimento global de autoridades que buscam exigir salvaguardas e punições para conter a disseminação de materiais impróprios gerados por IA.
O post X investiga chatbot Grok por publicações com conteúdo ofensivo e racista apareceu primeiro em Olhar Digital.




