L’intelligenza artificiale è già una realtà nella gestione finanziaria delle aziende. Forecasting, budgeting, tesoreria, credit management: l’AI è entrata in questi processi spesso in modo silenzioso, e il suo ruolo è destinato a crescere in modo esponenziale nei prossimi mesi.

Per questo i CFO non possono più guardare solo agli aspetti tecnologici o funzionali dell’AI, ma devono occuparsi anche delle due implicazioni normative, in particolare dopo l’entrata in vigore dell’EU AI Act. Introducendo un approccio basato sul rischio, questa legge europea:
- Vieta alcuni sistemi di AI classificati come “a rischio inaccettabile” (per esempio certe forme di sorveglianza o manipolazione).
- Definisce requisiti stringenti per i sistemi considerati “ad alto rischio”, tra cui molti tipici dell’area finance: credit scoring e concessione del credito, modelli di rischio (risk modelling), sistemi antifrode e antiriciclaggio
- Prevede obblighi e codici di pratica anche per la generative AI, sempre più presente in strumenti quotidiani (chatbot, copilots, piattaforme di produttività).
Non essendo quindi solo un abilitatore tecnologico ma un oggetto regolato, con impatti economici misurabili, il CFO non può esimersi dall’occuparsi del tema anche perché l’AI se da una parte promette efficienza, velocità, riduzione degli errori umani, dall’altra porta con sé anche alcuni rischi molto concreti. I modelli possono incorporare bias e finire per penalizzare in modo ingiustificato alcuni clienti o controparti; se sono progettati o addestrati male, possono generare errori sistematici nelle decisioni. In più, se un sistema classificato come “high risk” non rispetta l’AI Act, l’azienda si espone a sanzioni e a un serio danno reputazionale, soprattutto quando le decisioni prese (o supportate) dall’AI appaiono ingiuste, poco trasparenti o impossibili da spiegare.
Il primo passo da compiere per un CFO è, dunque, mappare dove l’AI è già in azienda: dentro soluzioni di terze parti (ERP, gestionali, piattaforme di tesoreria, CRM, strumenti di BI); in progetti IT sperimentali, in soluzioni per il marketing o nell’area crediti.
Una volta compiuta questa operazione, è necessario classificare i sistemi aziendali “powered by AI” sulla base dei rischi previsti dall’AI Act:
- Influenzano decisioni economico-finanziarie rilevanti?
- Impatta la valutazione di persone o aziende (clienti, fornitori, dipendenti)?
- Possono ricadere tra i sistemi “ad alto rischio”?
È chiaro dunque che l’AI Act non è solo un vincolo giuridico o tecnologico, ma una radicale opportunità di ripensare in chiave moderna tre funzioni centrali del CFO:
- L’allocazione del capitale: dove ha senso investire in AI, con quali priorità e orizzonti di ritorno
- La gestione del rischio: integrare il rischio algoritmico e regolatorio in quello finanziario tradizionale
- Governance dei dati: senza dati affidabili e spiegabili, nessun modello può essere un vero asset
