Deepfake e truffe vocali: quando la voce diventa un’arma digitale

 

Deepfake vocali : arrivano le truffe con registrazioni audio che imitano la voce di chiunque

Negli ultimi mesi si moltiplicano le segnalazioni di truffe vocali basate sull’intelligenza artificiale: un semplice frammento audio, preso da un video o da un messaggio vocale, è sufficiente per clonare la voce di una persona e usarla per ingannare familiari, colleghi o clienti.
È la nuova frontiera dell’ingegneria sociale: il deepfake vocale.

Come funziona la clonazione vocale

Un software di sintesi vocale basato su intelligenza artificiale può analizzare pochi secondi di parlato — anche solo 10 o 15 — e riprodurre quella voce con estrema fedeltà.
La voce clonata può poi essere:

inserita in una chiamata truffaldina (“ciao…
Leggi l’intero articolo su: https://www.analisideirischinformatici.it/sicurezza/deepfake-e-truffe-vocali-quando-la-voce-diventa-unarma-digitale/

Invia commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *