Deepfake vocali : arrivano le truffe con registrazioni audio che imitano la voce di chiunque
Negli ultimi mesi si moltiplicano le segnalazioni di truffe vocali basate sull’intelligenza artificiale: un semplice frammento audio, preso da un video o da un messaggio vocale, è sufficiente per clonare la voce di una persona e usarla per ingannare familiari, colleghi o clienti.
È la nuova frontiera dell’ingegneria sociale: il deepfake vocale.
Come funziona la clonazione vocale
Un software di sintesi vocale basato su intelligenza artificiale può analizzare pochi secondi di parlato — anche solo 10 o 15 — e riprodurre quella voce con estrema fedeltà.
La voce clonata può poi essere:
inserita in una chiamata truffaldina (“ciao…
Leggi l’intero articolo su: https://www.analisideirischinformatici.it/sicurezza/deepfake-e-truffe-vocali-quando-la-voce-diventa-unarma-digitale/