Um quarto dos profissionais do conhecimento já utiliza ferramentas de IA não aprovadas pela empresa, conforme o Relatório Anual 1Password 2025, destacando o crescimento do Shadow AI como um dos principais riscos cibernéticos invisíveis para 2025.
A pesquisa mostra uma contradição: 73% dos funcionários dizem que as empresas incentivam o uso de IA, mas 37% admitem não seguir integralmente as políticas, e 27% recorrem a plataformas não autorizadas para tarefas do dia a dia. Motivo: conveniência e ganho de produtividade. Além disso, 45% utilizam soluções não aprovadas por serem mais práticas, e 43% afirmam ganhar rapidez com IA.
Como funciona a IA paralela: uso informal de ferramentas externas sem avaliação de TI ou Segurança da Informação. Exemplos comuns incluem chatbots gratuitos para redigir relatórios ou e-mails, transcrição automática de reuniões, ferramentas de análise de dados na nuvem e serviços de produtividade baseados no navegador. Risco: dados sensíveis podem ser armazenados, reutilizados ou usados para treinar modelos, potencialmente vazando informações confidenciais.
A percepção de risco permanece baixa. Para Susan Chiang, CISO da Headway, muitos colaboradores ainda veem IA gratuita ou navegável como inofensiva e existe falta de políticas claras. Além disso, 52% dos funcionários já baixaram outros apps não autorizados, sinalizando uma inclinação de “fazer primeiro, justificar depois”.
Para enfrentar o avanço da IA paralela, a 1Password recomenda uma abordagem de três pilares: mapeamento e visibilidade (inventariar dinamicamente as ferramentas de IA em uso), políticas claras e comunicação prática (diretrizes simples e acessíveis) e controles de segurança ajustáveis (prevenir envio de dados sensíveis a apps não verificados sem sufocar a produtividade). O desafio é evitar a “morte por mil cortes”: pequenas brechas acumuladas geram riscos em grande escala — inovação sim, mas com governança e transparência.