5 agenzie indagano le AI nelle banche US

Cinque agenzie federali di regolamentazione finanziaria stanno raccogliendo informazioni sull’uso dell’intelligenza artificiale (AI) da parte delle istituzioni finanziarie americane. Fonte: Federal Reserve

Le agenzie cercano informazioni su come le istituzioni finanziarie usano l’IA nelle loro attività, compresa la prevenzione delle frodi, la personalizzazione dei servizi ai clienti, la concessione del credito e molte altre operazioni.

Il Federal Reserve Board, il Consumer Financial Protection Bureau (CFPB), la Federal Deposit Insurance Corporation (FDIC), la National Credit Union Administration (NCUA) e l’Office of the Comptroller of the Currency (OCC) hanno annunciato la richiesta di informazioni (RFI) per ottenere input da istituzioni finanziarie, associazioni di categoria, gruppi di consumatori e altre parti interessate sull’uso crescente dell’AI da parte delle istituzioni finanziarie.

Più specificamente, la RFI cerca commenti per capire meglio l’uso dell’AI – compreso l’apprendimento automatico – da parte delle istituzioni finanziarie: informazioni sulla governance delle AI, sulla gestione del rischio ed i controlli sulle AI, sui problemi nello sviluppo, nell’adozione e nella gestione delle AI, i benefici per le istituzioni finanziarie ed i consumatori, e inoltre, qualsiasi altra informazione utile a comprendere il fenomeno.

La RFI nota che le istituzioni finanziarie hanno esplorato e stanno esplorando applicazioni basate sull’AI per una varietà di scopi. Per esempio, gli istituti finanziari usano chatbot e assistenti virtuali per automatizzare le interazioni di routine con i clienti. L’AI può anche informare le decisioni di credito analizzando i dati tradizionali (cioè, i dati che si trovano tipicamente nei dossier dei consumatori) e i dati alternativi. Le istituzioni finanziarie possono utilizzare le applicazioni di cybersecurity per rilevare le minacce e le attività dannose, per condurre indagini in tempo reale di potenziali attacchi, e per bloccare ransomware e altri attacchi.

Non sorprende che i regolatori stiano prestando molta attenzione alla presenza dell’IA nel settore dei servizi finanziari, poiché l’uso dell’IA da parte del settore non mostra segni di rallentamento. Nell’ottobre 2020, Mastercard ha introdotto una suite di strumenti alimentati dall’AI che consente alle banche di valutare il rischio informatico e prevenire potenziali violazioni. Nel febbraio di quest’anno, Google Cloud e BBVA, con sede in Europa, hanno annunciato una partnership strategica che include un accordo per collaborare allo sviluppo di nuovi modelli di AI e machine learning per prevenire i cyberattacchi. Jumio, un fornitore californiano di soluzioni di verifica dell’identità e “conosci il tuo cliente” basate sull’AI, ha chiuso un round di finanziamento di 150 milioni di dollari proprio il mese scorso. Pochi giorni dopo, la californiana Feedzia ha raccolto 200 milioni di dollari per la sua piattaforma di verifica dell’identità e antiriciclaggio di denaro basata sull’AI.

Anche se i potenziali benefici dell’IA sono evidenti, la RFI avverte che le istituzioni finanziarie dovrebbero implementare processi per identificare e gestire i rischi, specialmente quelli che potrebbero influenzare la sicurezza e la solidità dell’istituzione. Tali rischi includono potenziali vulnerabilità operative, come le rotture di processi interni o di controllo, minacce informatiche, carenze informatiche, rischi associati all’uso di terze parti e rischio di modello.

L’RFI avverte anche di alcuni rischi per la protezione dei consumatori, come la discriminazione illegale e i problemi di privacy.

L’ampia indagine della RFI sull’uso dell’IA può suscitare una certa trepidazione da parte degli istituti finanziari, ma dovrebbero considerare l’indagine come un’opportunità per educare i regolatori sui benefici dell’IA e per cercare chiarimenti su come le AI potrebbero sollevare problemi di conformità quando la utilizzano nelle loro attività.

CONDIVIDI QUESTO POST

Torna in alto