sicurezza

Frodi potenziate dall’AI: perché serve un’alleanza tra banche, imprese e autorità



Indirizzo copiato

Nel 2024 le frodi sui mezzi di pagamento hanno superato 1,2 miliardi di euro. L’intelligenza artificiale, alleata e minaccia al tempo stesso, impone un nuovo paradigma: solo la cooperazione tra banche, imprese e autorità pubbliche può garantire fiducia e sicurezza nei flussi finanziari digitali, oggi più vulnerabili e sofisticati che mai

Pubblicato il 6 nov 2025

Anna Ongaro

Country manager per l’Italia di Sis ID



frodi potenziate dall’AI

Nel 2024, le frodi sui mezzi di pagamento hanno raggiunto quasi 1,2 miliardi di euro, di cui 382 milioni legati a manipolazioni dirette, pari al 32% del totale. Dietro questi numeri si cela una trasformazione profonda: la frode è diventata intelligente, agile e quasi invisibile.
Dal 9 ottobre 2025, con l’entrata in vigore delle nuove regole europee sui bonifici istantanei, le banche devono offrire il servizio a costo zero o equivalente a quello dei bonifici ordinari e implementare la verifica del beneficiario (Verification of Payee – VoP), un controllo automatico tra nome e IBAN che riduce errori e frodi.
Si tratta di un progresso importante, ma non sufficiente. Le frodi, infatti, si evolvono rapidamente e spesso sfruttano proprio le tecnologie nate per contrastarle.


L’intelligenza artificiale: alleata indispensabile, ma anche nuova fonte di rischio

L’intelligenza artificiale è ormai al centro della lotta alle frodi. Quasi nove operatori finanziari su dieci utilizzano modelli basati su IA per rilevare anomalie, valutare rischi e analizzare i comportamenti di pagamento, con una riduzione dei costi e una capacità di rilevamento che può raggiungere il 95%.
Tuttavia, la stessa tecnologia è diventata un’arma nelle mani dei criminali. Deepfake vocali, furti d’identità, falsificazione di documenti e phishing mirato sono oggi potenziati da sistemi generativi e automatizzati. L’IA permette di creare in pochi secondi falsi ordini di bonifico o simulazioni credibili di dirigenti d’azienda.
Secondo il Boston Consulting Group, solo il 25% delle banche è realmente pronto a integrare in modo sicuro modelli generativi e agentivi. La sfida, dunque, non è più adottare l’intelligenza artificiale, ma governarla: supervisionarla, spiegarla, controllarla. Solo un’IA affidabile può diventare un vero strumento di difesa.


Federated learning: imparare insieme senza condividere i dati

Per conciliare efficacia e riservatezza, una delle soluzioni più promettenti è il federated learning (apprendimento federato), un approccio di machine learning decentralizzato e collaborativo.
Invece di trasferire i dati a un server centrale, ogni attore – banca, impresa o fintech – addestra localmente il proprio modello di IA e condivide soltanto i parametri aggiornati. Questi vengono poi aggregati per costruire un modello globale, più robusto e preciso, senza che i dati sensibili lascino mai il loro ambiente d’origine.
Questo metodo rispetta pienamente la sovranità dei dati e il GDPR, migliora la precisione media del 20% e consente di individuare schemi di frode trasversali che nessun singolo attore potrebbe rilevare da solo. È un modello di collaborazione ispirato alla logica della cybersicurezza: unire le forze per rafforzare la difesa collettiva.


Banche e imprese: costruire una cooperazione strutturata

Le imprese sono spesso le prime a intercettare segnali deboli di frode nelle catene di fornitura o nei pagamenti, mentre le banche dispongono di una visione d’insieme dei flussi finanziari e di strumenti di rilevamento in tempo reale. Tuttavia, la collaborazione tra questi due mondi resta ancora limitata.
Creare basi di allerta condivise e protocolli comuni di segnalazione permetterebbe di anticipare gli attacchi e ridurne la diffusione. Alcune iniziative pionieristiche indicano la strada: l’alleanza tra Nasdaq Verafin e BioCatch, che copre oltre 2.600 istituzioni finanziarie e 10.000 miliardi di dollari in attivi, o Mastercard Decision Intelligence, che ha triplicato l’efficacia del rilevamento riducendo i falsi positivi del 22%.
Tuttavia, questi progressi restano isolati. Per diventare la norma, devono essere sostenuti da un quadro regolamentare comune, riconosciuto e promosso dai regolatori.


L’Europa e la regolamentazione della fiducia digitale

L’Unione Europea ha già gettato le basi di una regolamentazione di fiducia fondata su tre pilastri: il GDPR, garante della protezione dei dati; il DORA, che impone una maggiore resilienza digitale alle istituzioni finanziarie; e l’AI Act, che disciplina l’uso etico dell’intelligenza artificiale.
Questi strumenti non rappresentano un freno, ma un motore di cooperazione. Promuovono trasparenza e tracciabilità, permettendo a banche e imprese di collaborare in un quadro giuridico sicuro e supervisionato.
In Francia, l’implementazione della Verification of Payee mostra come innovazione e sicurezza possano convergere. Il sistema incoraggia la comunicazione tra organismi di pagamento e clienti aziendali, contribuendo alla creazione di flussi di pagamento più “sani” e affidabili.
Nel futuro prossimo, una rete europea di segnalazione automatizzata potrebbe collegare i segnali di frode rilevati nei vari Paesi membri, costruendo un’infrastruttura comune di difesa finanziaria.


Il triangolo della fiducia: la chiave di una risposta collettiva

Per rendere davvero efficace la lotta alla frode serve un triangolo di fiducia formato da imprese, banche e autorità pubbliche. Le prime agiscono come sentinelle sul campo, le seconde come custodi dei flussi finanziari, le terze come garanti della neutralità e della trasparenza.
L’integrazione tra apprendimento federato e regolamentazione rigorosa dimostra che innovazione, riservatezza e cooperazione possono coesistere.
Di fronte a frodi sempre più sofisticate e potenziate dall’intelligenza artificiale, solo una risposta collettiva – tecnologica, umana e istituzionale – potrà preservare il bene più prezioso del sistema economico: la fiducia.

Articoli correlati