L’intelligenza artificiale nei rapporti bancari alla luce della Legge n. 132/2025

Profili sistematici, ricadute operative e responsabilità dell’intermediario

La Legge 23 settembre 2025, n. 132, recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”, introduce nel nostro ordinamento una disciplina quadro destinata a incidere in modo trasversale sull’utilizzo dell’IA in tutti i settori economici, inclusi quelli bancario e finanziario.

Pur in assenza di una regolazione settoriale espressa, la legge si caratterizza per una forte carica precettiva, fondata su principi di rango primario – tutela dei diritti fondamentali, dignità della persona, trasparenza, sicurezza, responsabilità e non discriminazione – che assumono immediata rilevanza per gli intermediari del credito, chiamati a integrare tali canoni nei propri modelli organizzativi e decisionali.

1. IA e attività bancaria: inquadramento sistematico

L’impianto della Legge n. 132/2025 si colloca in un paradigma dichiaratamente antropocentrico, nel quale l’intelligenza artificiale è ammessa quale strumento di supporto alla decisione, ma non come sostituto dell’intervento umano.

Nel settore bancario, ciò si traduce nell’impossibilità di demandare integralmente a sistemi automatizzati decisioni idonee a incidere su situazioni giuridiche soggettive del cliente, quali:

  • concessione o diniego del credito;
  • attribuzione di rating o score di rischio;
  • profilazione finanziaria;
  • raccomandazioni di investimento.

Il principio di fondo è quello della non delegabilità integrale della decisione, con conseguente necessità di garantire forme effettive di supervisione umana (human oversight) e la tracciabilità del percorso logico-decisionale seguito dal sistema.

2. Processi decisionali automatizzati e credit scoring

Particolarmente incisivo è l’impatto della legge sull’impiego di algoritmi di credit scoring e di modelli predittivi basati su tecniche di machine learning.

La disciplina impone all’intermediario di presidiare almeno quattro profili fondamentali:

  • Spiegabilità delle decisioni: l’esito del processo automatizzato, soprattutto in caso di rigetto di una richiesta di finanziamento, deve poter essere ricondotto a criteri comprensibili e comunicabili al cliente;
  • Divieto di discriminazione: l’uso di dataset sbilanciati o di variabili surrogate idonee a produrre effetti discriminatori, anche indiretti, espone l’intermediario a rilevanti profili di illegittimità;
  • Obblighi informativi: il cliente deve essere reso edotto dell’impiego di sistemi di IA nel processo valutativo;
  • Diritto al riesame umano: in caso di contestazione, la decisione automatizzata deve poter essere sottoposta a una rivalutazione effettiva da parte di un operatore umano.

Ne deriva un favor per l’adozione di modelli di IA interpretabile, idonei a rendere verificabili le logiche sottese alla decisione e compatibili con i principi di correttezza e trasparenza.

3. Robo-advisory e consulenza finanziaria automatizzata

Nel campo dei servizi di investimento, l’uso di strumenti di robo-advisory si confronta con un duplice ordine di vincoli: da un lato quelli derivanti dalla disciplina finanziaria, dall’altro quelli introdotti dalla Legge n. 132/2025.

In tale contesto:

  • l’IA può formulare raccomandazioni automatizzate, ma non può sostituire l’autonoma valutazione dell’intermediario;
  • il cliente deve essere messo in condizione di comprendere, almeno nelle loro linee essenziali, le logiche alla base delle proposte di investimento;
  • la responsabilità per le scelte operate permane in capo alla banca o all’intermediario, anche qualora il sistema sia stato sviluppato o fornito da terzi.

La tecnologia, dunque, non attenua né diluisce gli obblighi di adeguatezza, appropriatezza e correttezza informativa, ma ne accentua la rilevanza sul piano organizzativo e documentale.

4. IA, prevenzione delle frodi e antiriciclaggio

L’impiego di sistemi di intelligenza artificiale nei processi di monitoraggio antiriciclaggio e di prevenzione delle frodi solleva profili di particolare delicatezza.

La legge impone che tali strumenti rispettino i principi di:

  • proporzionalità del trattamento dei dati rispetto alle finalità perseguite;
  • verificabilità e auditabilità dei modelli utilizzati;
  • supervisione umana nelle fasi che conducono a segnalazioni o blocchi operativi.

L’algoritmo non può costituire fonte esclusiva della decisione: la valutazione finale deve restare il frutto di un apprezzamento critico dell’operatore, chiamato a contestualizzare l’esito del sistema automatizzato.

5. Governance dei dati e qualità dei dataset

Un asse portante della Legge n. 132/2025 è rappresentato dalla disciplina dei dati utilizzati per l’addestramento e l’aggiornamento dei modelli di IA.

Per il settore bancario ciò implica:

  • l’utilizzo di dati leciti, pertinenti, esatti e non discriminatori;
  • il divieto di impiego di dataset acquisiti da fonti non autorizzate o in violazione di diritti di terzi;
  • la trasparenza verso la clientela circa l’uso dei dati nei processi algoritmici.

Si rafforza, in tal modo, l’esigenza di strutture di data governance evolute, fondate su controlli periodici, documentazione tecnica e responsabilità chiaramente allocate.

6. Profili di responsabilità dell’intermediario

La scelta di adottare sistemi di intelligenza artificiale non è neutra sul piano della responsabilità. La Legge n. 132/2025 consolida un modello in cui l’intermediario risponde per:

  • danni derivanti da decisioni algoritmiche opache o scorrette;
  • utilizzo di sistemi discriminatori;
  • carente controllo di modelli sviluppati da fornitori esterni;
  • violazioni in materia di trattamento dei dati e profilazione.

Si afferma, in sostanza, un principio di responsabilità da affidamento tecnologico: la banca, quale soggetto che decide di introdurre l’IA nei propri processi, resta il garante ultimo della sua conformità ai principi dell’ordinamento.

7. Ricadute operative e adeguamenti organizzativi

La conformità alla Legge n. 132/2025 richiede interventi strutturali, tra cui:

  • revisione delle policy interne sull’uso dell’IA;
  • istituzione di presìdi di AI governance;
  • audit periodici su modelli e dataset;
  • aggiornamento di informative, contratti e procedure;
  • integrazione dei principi antropocentrici nei sistemi di risk management.

La legge si configura, dunque, come una norma quadro destinata a incidere profondamente sulle architetture tecnologiche e decisionali del settore bancario.

L’innovazione resta possibile, ma solo entro un perimetro di trasparenza, controllo umano e responsabilità, nel quale l’intelligenza artificiale è strumento potente ma non autonomo, e la componente umana rimane presidio essenziale della tutela del cliente e della legalità dell’azione bancaria.

Domande Frequenti – FAQ

Che cos’è la Legge n. 132/2025 in materia di intelligenza artificiale?

La Legge 23 settembre 2025, n. 132 introduce nel sistema giuridico italiano una disciplina quadro sull’uso dell’intelligenza artificiale, fondata su principi di trasparenza, responsabilità, sicurezza e tutela dei diritti fondamentali.

Come incide la Legge n. 132/2025 sul settore bancario e finanziario?

La normativa impone agli istituti di credito di integrare l’IA solo come strumento di supporto decisionale, garantendo sempre la supervisione umana e la tracciabilità delle decisioni.

Le banche possono utilizzare l’intelligenza artificiale per decidere sull’erogazione del credito?

Possono farlo solo in parte. Le decisioni che incidono sui diritti del cliente, come la concessione di un prestito o la valutazione del rischio, devono essere sempre validate da un operatore umano.

Quali sono gli obblighi delle banche che utilizzano algoritmi di credit scoring?

Devono assicurare la spiegabilità delle decisioni, la non discriminazione dei dati, l’informazione trasparente al cliente e la possibilità di riesame umano in caso di contestazione.

In che modo la Legge n. 132/2025 regola l’uso del robo-advisory?

L’IA può fornire raccomandazioni automatiche, ma la decisione finale e la responsabilità restano in capo all’intermediario, che deve garantire la comprensibilità delle logiche decisionali per il cliente.

Quali cautele vanno adottate nell’uso dell’IA per la prevenzione delle frodi e l’antiriciclaggio?

I sistemi devono rispettare i principi di proporzionalità, verificabilità e controllo umano. Nessuna decisione può essere presa in modo completamente automatizzato.

Che cosa si intende per governance dei dati nei sistemi di IA bancari?

È l’insieme di regole e procedure per garantire che i dati siano leciti, accurati, non discriminatori e utilizzati in modo trasparente, con controlli periodici e responsabilità chiare.

Quali responsabilità legali hanno le banche che impiegano l’intelligenza artificiale?

Gli intermediari restano responsabili per danni, discriminazioni o errori generati dai sistemi di IA, inclusi quelli sviluppati da fornitori esterni, in virtù del principio di responsabilità da affidamento tecnologico.

Come devono adeguarsi gli istituti di credito alla nuova normativa?

È necessario aggiornare policy interne, procedure di audit, informative contrattuali e sistemi di gestione dei rischi, integrando i principi antropocentrici e di supervisione umana.

Qual è l’obiettivo principale della Legge n. 132/2025 nel settore bancario?

Promuovere un uso etico e controllato dell’intelligenza artificiale, garantendo che la tecnologia resti uno strumento a supporto dell’uomo, mai un sostituto della sua valutazione.