Elon Musk defendeu o Grok AI contra uma onda de críticas, afirmando que a plataforma de inteligência artificial “se recusará a produzir qualquer coisa ilegal”. A controvérsia em torno do Grok AI ganhou força após alegações de que a ferramenta estava gerando imagens sexualizadas de mulheres e menores, um problema que o Primeiro-Ministro do Reino Unido destacou que seu país não “recuará” em investigar.
As declarações de Musk, feitas em um post no X, são seus primeiros comentários públicos substanciais sobre o assunto, além de emojis. Ele afirmou não ter conhecimento de “literalmente zero” imagens nuas de menores geradas pelo Grok AI. No entanto, essas declarações podem ser insuficientes para acalmar os críticos, especialmente depois que a Reuters relatou que a plataforma estava “inundando” o X com “fotos sexualizadas de mulheres e menores”.
Não é uma novidade que o Grok pode gerar imagens provocantes a partir de comandos. O próprio Musk já publicou imagens idealizadas de mulheres criadas com IA. Contudo, as novas acusações são mais graves. O relatório da Reuters detalhou o caso de uma mulher cuja foto com seu gato foi transformada, por meio de um comando no Grok, em uma imagem dela usando um biquíni minúsculo. Além disso, há relatos de que o Grok estaria gerando imagens de menores em contextos sexualizados.
Essas preocupações suscitaram uma reação global. O Grok AI foi banido na Malásia e na Indonésia, e a OFCOM do Reino Unido iniciou uma investigação sobre o X e suas práticas relacionadas ao conteúdo gerado por IA. A dimensão das acusações e a rápida resposta regulatória demonstram a seriedade do tema e o desafio que as plataformas de IA enfrentam ao tentar controlar o tipo de conteúdo que suas ferramentas podem produzir.
Apesar da defesa de Musk de que o Grok não criaria conteúdo ilegal, a percepção pública e a pressão regulatória são crescentes. Esse incidente ressalta a complexidade de desenvolver e implementar modelos de IA que sejam capazes de moderar e recusar a criação de conteúdo prejudicial, especialmente em um cenário onde a linha entre o que é aceitável e o que não é pode ser subjetiva e culturalmente variável. A ausência de uma resposta direta do X ou de Musk às preocupações específicas levantadas no relatório da Reuters apenas intensifica o debate sobre a responsabilidade dessas plataformas.
À medida que a IA se torna mais sofisticada e acessível, a necessidade de diretrizes claras e mecanismos de controle robustos torna-se primordial para evitar abusos e proteger os usuários, especialmente os mais vulneráveis. A comunidade internacional, junto aos desenvolvedores de IA, terá que trabalhar em conjunto para garantir que essas tecnologias sejam usadas de forma ética e responsável.
📷 Crédito da imagem: Techradar
Fonte: Artigo Original



