EuropaSardegna

Truffe vocali e deepfake: l’era dell’intelligenza artificiale al servizio del crimine.

Le frodi basate su intelligenza artificiale stanno crescendo in tutto il mondo. Tra le più insidiose, le truffe vocali e i deepfake che replicano voci e volti, rendendo sempre più difficile distinguere realtà e inganno.

L’intelligenza artificiale al servizio della truffa.

Quasi tutte le forme di crimine organizzato oggi lasciano una traccia digitale. L’avvento dell’intelligenza artificiale generativa (IA) ha però aperto un nuovo fronte: quello delle frodi assistite da algoritmi.

Grazie a strumenti sempre più sofisticati, i truffatori possono creare identità sintetiche, replicare voci reali e mettere in scena videochiamate false talmente realistiche da ingannare anche gli esperti.

Le cosiddette “deepfake voice scams” — truffe basate sulla clonazione vocale — stanno aumentando rapidamente, mettendo a rischio cittadini, aziende e persino istituzioni pubbliche. Secondo Europol, solo nel 2024 è stato segnalato un attacco deepfake ogni cinque minuti, e quasi metà delle aziende intervistate in diversi Paesi ha subito frodi tramite audio o video falsificati.

La nuova frontiera del social engineering.

Le tecniche di ingegneria sociale alimentate dall’IA stanno operando su scala senza precedenti. I truffatori utilizzano modelli linguistici avanzati (LLM) per condurre campagne di phishing, furto d’identità e truffe d’investimento o di reclutamento.

Uno dei fenomeni più allarmanti è quello del “voice phishing”, o “vishing”: chiamate telefoniche in cui i criminali, clonando la voce di familiari o dirigenti d’azienda, chiedono trasferimenti urgenti di denaro o dati sensibili.

Un caso emblematico è quello di una società di Hong Kong che ha perso oltre 25 milioni di dollari dopo essere stata vittima di un deepfake vocale. Nei Paesi Bassi, nel 2024, il numero di tentativi di “vishing” è triplicato.

Negli Stati Uniti, l’FBI ha lanciato un’allerta dopo che falsi funzionari governativi sono stati usati come copertura per frodi; in Europa, persino finti agenti di Europol sono stati coinvolti in campagne di truffe vocali.

Leggi e tecnologie inseguono l’evoluzione dell’IA.

Il ritmo vertiginoso con cui si diffonde la tecnologia dell’intelligenza artificiale supera di gran lunga quello della regolamentazione. Per questo, la protezione da queste nuove minacce richiede un approccio multilivello sul fronte della legislazione, tecnologia e formazione.

L’UE dispone già di strumenti giuridici rilevanti, come il Regolamento generale sulla protezione dei dati (GDPR), che obbliga le aziende a ottenere il consenso per raccogliere dati personali, compresi quelli vocali.

L’AI Act europeo, entrato in vigore nel 2025, introduce l’obbligo per i fornitori di sistemi di IA di informare chiaramente gli utenti quando interagiscono con contenuti generati artificialmente. Inoltre, prevede marcatori digitali e watermark per identificare deepfake e contenuti sintetici.

Alcuni Stati membri — tra cui Belgio, Spagna, Germania e Italia — stanno elaborando norme antifrode dedicate. Tuttavia, gli esperti sottolineano che le attuali leggi sulla privacy spesso impediscono a banche e operatori telefonici di intervenire in tempo reale anche quando individuano frodi sospette.

In Asia, invece, Singapore ha già approvato una legge che consente alle autorità di bloccare i conti bancari delle vittime, mentre la Corea del Sud ha annunciato un piano nazionale di cybersicurezza per affrontare le minacce basate su IA.

Distinguere un contenuto autentico da uno falso sta diventando sempre più difficile. Anche per questo cresce la necessità di strumenti tecnologici difensivi basati sulla stessa intelligenza artificiale.

Oggi si sperimentano sistemi di rilevamento tramite machine learning, analisi forense e blockchain, ma i risultati restano parziali. Alcune aziende, come OpenAI, hanno lanciato strumenti in grado di identificare immagini deepfake, mentre Apple e Google stanno investendo in tecnologie per bloccare chiamate robotiche o truffaldine prima che raggiungano gli utenti.

Tuttavia, molti servizi di clonazione vocale permettono ancora di eludere i controlli con una semplice autocertificazione, rendendo la prevenzione tecnica ancora fragile.

Oltre alle leggi e alla tecnologia, resta essenziale educare i cittadini. L’aumento dei deepfake e delle frodi digitali impone una maggiore alfabetizzazione all’IA, tanto tra i consumatori quanto nelle imprese.

La consapevolezza dei rischi, la verifica delle fonti e la capacità di riconoscere contenuti sintetici diventeranno competenze fondamentali nella società digitale. Senza una cultura diffusa della sicurezza informatica, anche gli strumenti più avanzati rischiano di essere inefficaci.

Una sfida globale ancora aperta.

Il fenomeno delle truffe vocali basate sull’intelligenza artificiale dimostra quanto rapidamente la tecnologia possa essere usata per scopi criminali. Mentre le istituzioni europee e internazionali lavorano per colmare il divario normativo, il messaggio è chiaro: la difesa contro l’IA malevola non può essere solo tecnica o legale, ma deve essere culturale e collettiva.

In un mondo in cui la voce di chi chiama potrebbe non essere quella reale, fidarsi non basta più: bisogna verificare.

Foto di Lukas Gehrer da Pixabay.com