L’Intelligenza Artificiale in banca, fra tecnica ed etica

L’ambito finanziario è uno dei campi di impiego dell’Intelligenza Artificiale più delicati e studiati degli ultimi anni. Dall’utilizzo dei chatbot conversazionali per l’assistenza fino al trading, gli algoritmi permettono agli istituti di credito di ridurre gli errori e di migliorare nettamente le performance di calcolo ed elaborazione dei dati.

In particolare, secondo un’analisi di McKinsey, l’AI viene utilizzata soprattutto in automazione di processi robotici per task operativi, assistenti virtuali per il customer service, e tecniche di machine learning per la fraud detection e il risk management.

Tuttavia, permettere a degli algoritmi di avere un ruolo rilevante nei processi di decision making di tipo finanziario ed economico solleva anche delle questioni etiche di non poco rilievo: è corretto lasciare ad un computer delle decisioni che riguardano in modo così delicato le vite delle persone?

=====

Vuoi aggiornarti sul mondo dell’Intelligenza Artificiale? Il 29 Novembre 2021 si terrà il workshop AIABI 2021 in cui le aziende e il mondo accademico si confronteranno sugli impieghi dell’Intelligenza Artificiale nel business: partecipa anche tu!

=====

Lending DocAI: l’Intelligenza Artificiale per la finanza

Una delle applicazioni più rilevanti e discutibili del machine learning nel mondo delle banche è il suo impiego nella concessione dei mutui. Ad esempio, Lending DocAI è il sistema di Intelligenza Artificiale prodotto da Google che promette di “automatizzare l’elaborazione dei documenti relativi ai mutui”: tramite algoritmi finanziari, il software valuta l’idoneità di un individuo alla concessione di un mutuo. In questo modo, minimizza i rischi per l’istituto e rende il processo di analisi più efficiente.

Analizzando dati relativi al “tracciamento delle abitudini finanziarie delle persone, come la puntualità nel pagare le rate delle bollette, dei finanziamenti o dei contratti sottoscritti, ma anche le abitudini di consumo e le preferenze, spesso attraverso i social del richiedente”, viene elaborato un punteggio, chiamato credit score, utilizzato nella predizione del rischio di insolvenza.

In questo modo, di fatto Lending DocAI rischia di compiere scelte discriminatorie verso le classi sociali più deboli, più soggette a ritardi nei pagamenti. Inoltre, la scarsa quantità di dati finanziari rende più difficile una valutazione dei soggetti di queste classi sociali, che quindi sono più a rischio di essere scartate dall’Intelligenza Artificiale in banca.

Martha Bennett, Principal Analyst presso Forrester Research, sostiene che i computer “can crunch vast amounts of numbers, applying different algorithms. They don’t make mistakes, unless they’re badly programmed.” Forse è proprio questa rigidità il vero limite degli algoritmi. L’adozione di metodologie di Explainable AI, che garantiscano agli individui il cosiddetto “right to explaination” relativo alle scelte che li riguardano, diventa non solo una sfida tecnica, ma anche e soprattutto un dovere etico della Data Science.

 

Per saperne di più:

https://www.agendadigitale.eu/cultura-digitale/ai-e-finanza-tra-discriminazioni-e-imprecisioni-rischi-e-contromisure/

https://www.mckinsey.com/industries/financial-services/our-insights/ai-bank-of-the-future-can-banks-meet-the-ai-challenge

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

due × uno =