separador
Atualizado:
Uma pesquisa da organização AI Forensics confirmou que a ferramenta de inteligência artificial Grok, integrada à rede social X, tem sido utilizada para gerar imagens sexualizadas de mulheres, incluindo crianças e adolescentes, além de conteúdos de propaganda extremista.
O estudo analisou 50 mil interações com o sistema e 20 mil imagens produzidas em um curto período entre dezembro de 2025 e janeiro de 2026, evidenciando um padrão consistente de uso da ferramenta para fins abusivos, com pouca ou nenhuma barreira de proteção.
A tradução do relatório foi realizada pelo Idec, que também tem atuado junto a autoridades brasileiras para pressionar por medidas que garantam a proteção de direitos fundamentais no ambiente digital.
Dados mostram padrão de uso abusivo e recorte de gênero
Os resultados da pesquisa indicam que mais da metade das imagens geradas pelo Grok apresenta pessoas com pouca roupa, sendo a grande maioria mulheres. Uma parcela das imagens analisadas também retrata pessoas com aparência de até 18 anos, o que acende um alerta importante sobre a proteção de crianças e adolescentes.
O levantamento identificou ainda a presença de figuras públicas em parte do conteúdo gerado, incluindo lideranças políticas. Isso amplia o risco de uso da ferramenta para desinformação e manipulação de imagem, principalmente em períodos eleitorais.
Outro ponto relevante é o perfil de quem aciona a ferramenta. A maioria dos usuários que solicitam a geração de imagens aparenta ser masculina, o que ajuda a entender como essas dinâmicas reproduzem desigualdades já existentes no ambiente digital.
Além da sexualização, o estudo encontrou conteúdos com símbolos nazistas e materiais associados a grupos extremistas, evidenciando falhas nos mecanismos de moderação da plataforma.
Pressão por regulação cresce diante da gravidade do caso
Os achados reforçam um cenário em que ferramentas de inteligência artificial deixam de ser apenas inovadoras para se tornarem também vetores de risco quando não há controle adequado. A ausência de mecanismos básicos, como verificação de consentimento ou bloqueio de comandos abusivos, contribui para a ampliação dessas violações.
Diante disso, o Idec acionou autoridades brasileiras solicitando medidas urgentes, incluindo a suspensão de funcionalidades da ferramenta que utilizam dados de pessoas reais. Órgãos como a ANPD, o Ministério Público Federal e a Senacon já determinam ações para conter a geração de conteúdos ilegais, especialmente aqueles que envolvem crianças e adolescentes.
“Não estamos diante de falhas pontuais, mas de um modelo que permite e escala violências, especialmente contra mulheres, crianças e grupos minorizados”, afirma Julia Abbad, coordenadora do Programa de Telecomunicações e Direitos Digitais do Idec.
“A tecnologia tem sido usada para sexualizar imagens de meninas, manipular fotos sem consentimento e gerar conteúdos degradantes. Sem controle, isso amplia desigualdades e exige responsabilidade urgente das plataformas.”
O caso coloca em evidência um debate que ganha força no mundo todo. O avanço da inteligência artificial precisa vir acompanhado de regras transparentes e responsabilidade das empresas. Sem isso, o que se vê é a ampliação de danos em escala, atingindo principalmente quem já está em situação de maior vulnerabilidade.





