A recente investigação da Polícia Civil do Rio de Janeiro sobre o Grok — IA integrada à plataforma X para a criação de deepfakes de conteúdo sexual sem consentimento — evidencia fragilidades da autorregulação das plataformas digitais.
Essa tendência de uso de IA generativa não é isolada; ela aponta para uma expansão de conteúdos manipulados acessíveis a milhões de usuários, ampliando riscos de privacidade e danos à reputação.
Segundo o Índice de Fraude 2025 da Veriff, 78% dos consumidores brasileiros já foram vítimas de golpes envolvendo IA e deepfakes.
Em TI e cibersegurança, a rapidez de produção de conteúdos por IA exige governança proativa, com auditorias independentes e políticas claras, pois a moderação reativa depende de denúncias que chegam tarde.
O debate sobre responsabilidade das plataformas não envolve apenas usuários; empresas precisam repensar o desenho de ferramentas e adotar limites de uso, com autoridades reguladoras atuando para impor padrões de governança. O caso Grok pode acelerar essa agenda, sinalizando que autorregulação isolada não é suficiente.