Tools

News

Notícias

Classificados

Cursos

Broker

 

IPv4:

IPv6:

UpOrDown
Ping
MTR
MTU Detect
Portscan
DNS
HTTP/SSL
My IP
IP Calc & Sum

Foto pode clonar voz: ameaça de IA

Image © Itshow
Estudo australiano expõe uma nova fronteira da segurança digital: fotos podem gerar voz sintética convincente, contornando sistemas de autenticação. A técnica FOICE transforma imagem em fala, elevando o desafio contra deepfakes.

Um estudo realizado pela Agência Nacional de Ciência da Austrália revela uma vulnerabilidade preocupante: fotos do rosto podem gerar voz sintética viável para sistemas de autenticação. A técnica FOICE (Face-to-Voice) utiliza apenas uma imagem facial para estimar características vocais e sintetizar fala com a voz do proprietário da foto.

O método representa uma nova fronteira na relação entre aparência e voz, ampliando o arsenal de ataques cibernéticos. Em testes, o FOICE enganou o WeChat Voiceprint — ferramenta de autenticação por voz — com uma taxa de sucesso de até 30% já na primeira tentativa, e próxima de 100% em tentativas subsequentes, segundo o estudo.

Pesquisas sobre detecção de deepfake mostraram que detectores tradicionais tinham dificuldade inicial em identificar vozes geradas pelo FOICE. Após retreinamento com amostras do FOICE, a precisão melhorou, mas o estudo alerta para um problema: adaptar detecção para um tipo específico de deepfake pode reduzir a eficácia contra outros métodos.

Os autores defendem abordagens proativas: ampliar os conjuntos de dados de treinamento, criar novos regimes de treinamento e antecipar futuras falsificações, indo além de ataques já conhecidos. A ideia é treinar sistemas para reconhecer padrões de voz sintética a partir de entradas não tradicionais, como imagens e vídeos, antes que se tornem uma ameaça generalizada.

As implicações vão além da autenticação por voz: dispositivos biométricos, bancos e plataformas que dependem de reconhecimento vocal podem ficar vulneráveis. O estudo ressalta a necessidade de defesas mais abrangentes para proteger usuários e organizações de uma nova geração de fraudes cibernéticas.

Em síntese, especialistas pedem uma postura mais proativa na defesa contra deepfakes de voz, com defesas que tragam não apenas reações a ataques já conhecidos, mas sim capacidade de prever e detectar novas formas de falsificação. A convergência entre imagens, áudio e IA demanda novas estratégias de segurança para manter a confiabilidade da identificação de indivíduos.

 

Itshow

Notícias relacionadas

Mercado móvel desacelera; IoT em baixa, pós-pago cresce
Nota de pesar — Rubens Kühl
TIM registra lucro 50% maior no 3º trimestre
[Ciudadano en la red] Cuida tu correo electrónico
[Internet Citizen] Be Careful with Your Email Account
ABTA critica parecer PL 8889/2017

O ISP.Tools sobrevive graças aos anúncios.

Considere a possibilidade de desativar seu bloqueador de anúncios.
Prometemos não ser intrusivos.

Consentimento de cookies

Usamos cookies para melhorar sua experiência em nosso site.

Ao usar nosso site, você concorda com os cookies. Saiba mais sobre o site