Profili sistematici, ricadute operative e responsabilità dell’intermediario
La Legge 23 settembre 2025, n. 132, recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”, introduce nel nostro ordinamento una disciplina quadro destinata a incidere in modo trasversale sull’utilizzo dell’IA in tutti i settori economici, inclusi quelli bancario e finanziario.
Pur in assenza di una regolazione settoriale espressa, la legge si caratterizza per una forte carica precettiva, fondata su principi di rango primario – tutela dei diritti fondamentali, dignità della persona, trasparenza, sicurezza, responsabilità e non discriminazione – che assumono immediata rilevanza per gli intermediari del credito, chiamati a integrare tali canoni nei propri modelli organizzativi e decisionali.
1. IA e attività bancaria: inquadramento sistematico
L’impianto della Legge n. 132/2025 si colloca in un paradigma dichiaratamente antropocentrico, nel quale l’intelligenza artificiale è ammessa quale strumento di supporto alla decisione, ma non come sostituto dell’intervento umano.
Nel settore bancario, ciò si traduce nell’impossibilità di demandare integralmente a sistemi automatizzati decisioni idonee a incidere su situazioni giuridiche soggettive del cliente, quali:
- concessione o diniego del credito;
- attribuzione di rating o score di rischio;
- profilazione finanziaria;
- raccomandazioni di investimento.
Il principio di fondo è quello della non delegabilità integrale della decisione, con conseguente necessità di garantire forme effettive di supervisione umana (human oversight) e la tracciabilità del percorso logico-decisionale seguito dal sistema.
2. Processi decisionali automatizzati e credit scoring
Particolarmente incisivo è l’impatto della legge sull’impiego di algoritmi di credit scoring e di modelli predittivi basati su tecniche di machine learning.
La disciplina impone all’intermediario di presidiare almeno quattro profili fondamentali:
- Spiegabilità delle decisioni: l’esito del processo automatizzato, soprattutto in caso di rigetto di una richiesta di finanziamento, deve poter essere ricondotto a criteri comprensibili e comunicabili al cliente;
- Divieto di discriminazione: l’uso di dataset sbilanciati o di variabili surrogate idonee a produrre effetti discriminatori, anche indiretti, espone l’intermediario a rilevanti profili di illegittimità;
- Obblighi informativi: il cliente deve essere reso edotto dell’impiego di sistemi di IA nel processo valutativo;
- Diritto al riesame umano: in caso di contestazione, la decisione automatizzata deve poter essere sottoposta a una rivalutazione effettiva da parte di un operatore umano.
Ne deriva un favor per l’adozione di modelli di IA interpretabile, idonei a rendere verificabili le logiche sottese alla decisione e compatibili con i principi di correttezza e trasparenza.
3. Robo-advisory e consulenza finanziaria automatizzata
Nel campo dei servizi di investimento, l’uso di strumenti di robo-advisory si confronta con un duplice ordine di vincoli: da un lato quelli derivanti dalla disciplina finanziaria, dall’altro quelli introdotti dalla Legge n. 132/2025.
In tale contesto:
- l’IA può formulare raccomandazioni automatizzate, ma non può sostituire l’autonoma valutazione dell’intermediario;
- il cliente deve essere messo in condizione di comprendere, almeno nelle loro linee essenziali, le logiche alla base delle proposte di investimento;
- la responsabilità per le scelte operate permane in capo alla banca o all’intermediario, anche qualora il sistema sia stato sviluppato o fornito da terzi.
La tecnologia, dunque, non attenua né diluisce gli obblighi di adeguatezza, appropriatezza e correttezza informativa, ma ne accentua la rilevanza sul piano organizzativo e documentale.
4. IA, prevenzione delle frodi e antiriciclaggio
L’impiego di sistemi di intelligenza artificiale nei processi di monitoraggio antiriciclaggio e di prevenzione delle frodi solleva profili di particolare delicatezza.
La legge impone che tali strumenti rispettino i principi di:
- proporzionalità del trattamento dei dati rispetto alle finalità perseguite;
- verificabilità e auditabilità dei modelli utilizzati;
- supervisione umana nelle fasi che conducono a segnalazioni o blocchi operativi.
L’algoritmo non può costituire fonte esclusiva della decisione: la valutazione finale deve restare il frutto di un apprezzamento critico dell’operatore, chiamato a contestualizzare l’esito del sistema automatizzato.
5. Governance dei dati e qualità dei dataset
Un asse portante della Legge n. 132/2025 è rappresentato dalla disciplina dei dati utilizzati per l’addestramento e l’aggiornamento dei modelli di IA.
Per il settore bancario ciò implica:
- l’utilizzo di dati leciti, pertinenti, esatti e non discriminatori;
- il divieto di impiego di dataset acquisiti da fonti non autorizzate o in violazione di diritti di terzi;
- la trasparenza verso la clientela circa l’uso dei dati nei processi algoritmici.
Si rafforza, in tal modo, l’esigenza di strutture di data governance evolute, fondate su controlli periodici, documentazione tecnica e responsabilità chiaramente allocate.
6. Profili di responsabilità dell’intermediario
La scelta di adottare sistemi di intelligenza artificiale non è neutra sul piano della responsabilità. La Legge n. 132/2025 consolida un modello in cui l’intermediario risponde per:
- danni derivanti da decisioni algoritmiche opache o scorrette;
- utilizzo di sistemi discriminatori;
- carente controllo di modelli sviluppati da fornitori esterni;
- violazioni in materia di trattamento dei dati e profilazione.
Si afferma, in sostanza, un principio di responsabilità da affidamento tecnologico: la banca, quale soggetto che decide di introdurre l’IA nei propri processi, resta il garante ultimo della sua conformità ai principi dell’ordinamento.
7. Ricadute operative e adeguamenti organizzativi
La conformità alla Legge n. 132/2025 richiede interventi strutturali, tra cui:
- revisione delle policy interne sull’uso dell’IA;
- istituzione di presìdi di AI governance;
- audit periodici su modelli e dataset;
- aggiornamento di informative, contratti e procedure;
- integrazione dei principi antropocentrici nei sistemi di risk management.
La legge si configura, dunque, come una norma quadro destinata a incidere profondamente sulle architetture tecnologiche e decisionali del settore bancario.
L’innovazione resta possibile, ma solo entro un perimetro di trasparenza, controllo umano e responsabilità, nel quale l’intelligenza artificiale è strumento potente ma non autonomo, e la componente umana rimane presidio essenziale della tutela del cliente e della legalità dell’azione bancaria.
Domande Frequenti – FAQ
La Legge 23 settembre 2025, n. 132 introduce nel sistema giuridico italiano una disciplina quadro sull’uso dell’intelligenza artificiale, fondata su principi di trasparenza, responsabilità, sicurezza e tutela dei diritti fondamentali.
La normativa impone agli istituti di credito di integrare l’IA solo come strumento di supporto decisionale, garantendo sempre la supervisione umana e la tracciabilità delle decisioni.
Possono farlo solo in parte. Le decisioni che incidono sui diritti del cliente, come la concessione di un prestito o la valutazione del rischio, devono essere sempre validate da un operatore umano.
Devono assicurare la spiegabilità delle decisioni, la non discriminazione dei dati, l’informazione trasparente al cliente e la possibilità di riesame umano in caso di contestazione.
L’IA può fornire raccomandazioni automatiche, ma la decisione finale e la responsabilità restano in capo all’intermediario, che deve garantire la comprensibilità delle logiche decisionali per il cliente.
I sistemi devono rispettare i principi di proporzionalità, verificabilità e controllo umano. Nessuna decisione può essere presa in modo completamente automatizzato.
È l’insieme di regole e procedure per garantire che i dati siano leciti, accurati, non discriminatori e utilizzati in modo trasparente, con controlli periodici e responsabilità chiare.
Gli intermediari restano responsabili per danni, discriminazioni o errori generati dai sistemi di IA, inclusi quelli sviluppati da fornitori esterni, in virtù del principio di responsabilità da affidamento tecnologico.
È necessario aggiornare policy interne, procedure di audit, informative contrattuali e sistemi di gestione dei rischi, integrando i principi antropocentrici e di supervisione umana.
Promuovere un uso etico e controllato dell’intelligenza artificiale, garantendo che la tecnologia resti uno strumento a supporto dell’uomo, mai un sostituto della sua valutazione.



