Kaspersky: come gli strumenti AI di voice deepfake possono ingannare gli utenti
Il sito "il Centro Tirreno.it" utilizza cookie tecnici o assimiliati e cookie di profilazione di terze parti in forma aggregata a scopi pubblicitari e per rendere più agevole la navigazione, garantire la fruizione dei servizi, se vuoi saperne di più leggi l'informativa estesa, se decidi di continuare la navigazione consideriamo che accetti il loro uso.
03
Ven, Mag

Kaspersky: come gli strumenti AI di voice deepfake possono ingannare gli utenti

Immediapress
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

(Adnkronos) -

Milano, 16 novembre 2023 . I Beatles hanno entusiasmato ancora una volta milioni di fan in tutto il mondo, pubblicando una nuova canzone grazie all’Intelligenza Artificiale (AI), che combina parti di una vecchia registrazione e ne migliora la qualità audio. Se da un lato c’è grande emozione per il nuovo lavoro della band, dall’altro c’è anche un risvolto più oscuro nell’utilizzo dell’IA per creare voci e immagini false.  

Fortunatamente, al momento, questi deepfake e gli strumenti utilizzati per realizzarli non sono ancora ben sviluppati o diffusi. Tuttavia, il loro potenziale utilizzo nelle frodi è estremamente elevato e la tecnologia non smette di evolversi.  

Di cosa sono capaci i voice deepfake?  

Recentemente, Open AI ha presentato un modello di API Audio in grado di creare discorsi umani e messaggi vocali. Finora, solo questo software di Open AI è quello che si avvicina maggiormente al vero linguaggio umano.  

In futuro, questi modelli potrebbero diventare un nuovo strumento nelle mani dei criminali informatici. API Audio è in grado di riprodurre vocalmente il testo richiesto, consentendo agli utenti di scegliere quale utilizzare tra le opzioni vocali suggerite. Attualmente, il modello Open AI non può essere utilizzato per creare voice deepfake, ma è indicativo del rapido sviluppo delle tecnologie di generazione vocale.  

Oggi non esiste alcun dispositivo in grado di produrre voice deepfake di alta qualità, che non sia distinguibile dal vero parlato umano. Tuttavia, negli ultimi mesi sono stati rilasciati sempre più strumenti per generare la voce umana. In precedenza, gli utenti avevano bisogno di competenze di programmazione di base, ma ora sta diventando più facile lavorare con questi strumenti. A breve, ci si potrà aspettare di vedere modelli che combineranno semplicità d’uso e qualità dei risultati.  

Le frodi che sfruttano l’intelligenza artificiale non sono frequenti, ma ci sono già esempi di casi “riusciti”. A metà ottobre del 2023, il venture capitalist americano Tim Draper ha avvertito i suoi follower su Twitter che i truffatori possono usare la sua voce per le frodi. Tim ha condiviso che le richieste di denaro fatte dalla sua voce sono il risultato dell’intelligenza artificiale, che sta ovviamente diventando sempre più sofisticata.  

Come proteggersi?  

Finora la società non percepisce i voice deepfake come una possibile minaccia informatica. Sono pochissimi i casi in cui vengono utilizzati con intenzioni malevole, quindi le tecnologie di protezione tardano a diffondersi.  

Per il momento, il modo migliore per proteggersi è ascoltare attentamente le parole dell’interlocutore al telefono. Se la qualità della registrazione è di bassa, contiene rumori e la voce sembra robotica, non bisogna fidarsi delle informazioni ascoltate.  

Un altro modo per testare l’”umanità” del vostro interlocutore è quello di porre domande insolite. Ad esempio, se l’interlocutore fosse un modello vocale, una domanda sul suo colore preferito lo lascerebbe perplesso, poiché non è quello solitamente chiede la vittima di una frode. In questo caso, anche se l’aggressore compone manualmente il numero e riproduce la risposta, il ritardo nella risposta renderà chiaro che l’utente è stato ingannato.  

Un’altra opzione è quella di installare una soluzione di sicurezza affidabile e completa. Sebbene non possa rilevare al 100% i voice deepfake, può aiutare gli utenti a evitare siti web sospetti, pagamenti e download di malware, proteggendo i browser e controllando tutti i file sul computer.  

“Il consiglio principale, al momento, è di non ingigantire la minaccia o cercare di riconoscere i voice deepfake dove non ci sono. Per ora, è improbabile che l’attuale tecnologia sia abbastanza potente da creare una voce che un essere umano non sarebbe in grado di riconoscere come artificiale. Tuttavia, è necessario essere consapevoli delle possibili minacce e prepararsi al fatto che a breve le frodi deepfake avanzate diventino una realtà nel prossimo futuro”, ha affermato Dmitry Anikin, Senior Data Scientist di Kaspersky.  

Per ulteriori informazioni sui voice deepfake è possibile consultare il seguente link.  

Informazioni su Kaspersky  

Kaspersky è un’azienda globale di sicurezza informatica e digital privacy fondata nel 1997. Le profonde competenze in materia di Threat Intelligence e sicurezza si trasformano costantemente in soluzioni e servizi innovativi per proteggere aziende, infrastrutture critiche, governi e utenti in tutto il mondo. Il portfolio completo di sicurezza dell’azienda comprende una protezione leader degli endpoint e diverse soluzioni e servizi di sicurezza specializzati e soluzioni Cyber Immune, per combattere le sofisticate minacce digitali in continua evoluzione. Oltre 400 milioni di utenti sono protetti dalle tecnologie Kaspersky e aiutiamo 220.000 aziende a tenere al sicuro ciò che più conta per loro. Per ulteriori informazioni è possibile consultare https://www.kaspersky.it/  

Seguici su:  

https://twitter.com/KasperskyLabIT  

http://www.facebook.com/kasperskylabitalia  

https://www.linkedin.com/company/kaspersky-lab-italia  

https://www.instagram.com/kasperskylabitalia/  

https://t.me/KasperskyItalia  

Contatto di redazione:  

Noesis Kaspersky Italia 

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo. 

Ho scritto e condiviso questo articolo
Author: Red AdnkronosWebsite: http://ilcentrotirreno.it/Email: Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.