Uma pesquisa recente revela que 93% dos funcionários inserem dados corporativos em ferramentas de IA generativa sem aprovação, abrindo uma crise silenciosa de segurança. O uso não autorizado, apelidado de Shadow AI, já representa 20% de todas as violações de dados no ambiente empresarial, com custos por incidente estimados entre US$ 308 mil e US$ 670 mil.
Enquanto as equipes de TI buscam soluções oficiais, 60% dos trabalhadores continuam recorrendo a ferramentas não aprovadas com maior frequência do que no ano anterior; entre esses usuários, 68% utilizam contas pessoais para acessar plataformas gratuitas como o ChatGPT, gerando pontos cegos críticos para a segurança.
No que tange aos dados expostos, 32% dos funcionários admitiram inserir informações confidenciais de clientes em IA sem aprovação formal, e 77% compartilham dados sensíveis com plataformas como o ChatGPT, frequentemente sem compreender as implicações regulatórias de GDPR e CCPA.
Há uma diferença de percepção alarmante: 91% dos funcionários veem pouco ou nenhum risco no Shadow AI, enquanto 97% dos líderes de TI reconhecem riscos significativos, destacando a lacuna entre prática e governança.
Especialistas recomendam uma mudança de paradigma na governança: adotar frameworks robustos de governança, com descoberta automática de uso de IA, monitoramento de dados em trânsito e políticas que equilibrem inovação com proteção de informações. Devem evoluir as ferramentas de Data Loss Prevention (DLP) para detectar interações com modelos de linguagem, e organizações líderes já investem em opções corporativas seguras, treinamento e, quando possível, protocolos como o Model Context Protocol para limitar agentes de IA operando em ambientes corporativos.