Arriva la guida per l’utilizzo dell’intelligenza artificiale (IA) da parte di commercialisti e studi professionali. Il documento, presentato durante il Congresso nazionale di categoria, è un punto di partenza, e di riferimento, per i professionisti che vogliono introdurre le tecnologie automatizzate all’interno dei propri studi. Si tratta di un manuale dal taglio fortemente operativo che comprende esempi pratici di applicazione dell’IA.
Indice
Guida per l’uso dell’intelligenza artificiale dei commercialisti: la gestione dei dati
Il commercialista del futuro, si legge nella guida, sarà chiamato a gestire i sistemi adottati all’interno del proprio studio, garantendo la protezione dei dati. Questo implica anche una corretta conoscenza e gestione di eventuali rischi, senza perdere il focus sul valore umano e relazionale della professione. Per questo motivo, una parte del documento è dedicata al bilanciamento tra innovazione e tutela della privacy. Con un’analisi approfondita delle policy dei migliori tools e dei principali fornitori di IA, tra cui OpenAI e Google.
La gestione responsabile dei dati, insieme alla trasparenza verso il cliente, viene indicata come condizione imprescindibile per l’uso etico della tecnologia. Il mercato offre un’ampia gamma di strumenti per l’anonimizzazione dei documenti, che spaziano da piattaforme commerciali complete a potenti framework open-source. La scelta della soluzione più adatta dipende dalle capacità tecniche interne dello studio, dal volume e dalla tipologia dei dati da trattare, dai requisiti di conformità specifici e dal budget a disposizione. Vengono per questo chiarite le differenze tra piattaforme “consumer” e soluzioni “enterprise”. In particolare, solo queste ultime garantiscono livelli adeguati di sicurezza, anonimizzazione e conformità al GDPR.
Mandato professionale commercialisti: clausola contrattuale per l’uso dell’IA
Tra le altre novità, la guida introduce anche un esempio di clausola contrattuale da inserire nei mandati professionali, come previsto dall’articolo 13 della legge 132/2025, entrata in vigore lo scorso 10 ottobre.
Questa clausola disciplina la possibilità per il professionista di utilizzare strumenti di intelligenza artificiale nello svolgimento dell’attività, assicurando al cliente trasparenza e tracciabilità delle modalità di impiego.
All’interno della guida, la Commissione del Consiglio nazionale dei dottori commercialisti e degli esperti contabili (CNDCEC), ha riportato diversi esempi su come e dove inserire la clausola in questione.
L’intelligenza artificiale per i commercialisti: il metodo in tre fasi
All’interno della guida per l’utilizzo dell’intelligenza artificiale da parte di commercialisti viene descritto il cosiddetto “metodo in tre fasi”, come un approccio pratico e progressivo che gli studi professionali possono seguire nell’adozione consapevole e sicura dell’IA.
La prima fase, comprende la mappatura e la diagnosi. Ovvero, bisogna fotografare la situazione attuale dello studio, per capire dove si perdono tempo, risorse e qualità. In questo modo è possibile individuare i processi che possono essere migliorati o automatizzati. La fase 2, prevede invece la ricerca e selezione delle soluzioni. Una volta cioè individuate le aree critiche, si passa alla scelta delle tecnologie e dei fornitori che possono aiutare a superarle. La fase 3, infine, comprende l’implementazione coordinata, si tratta cioè di mettere in pratica le soluzioni scelte. La guida consiglia di farlo gradualmente, con un approccio di governance e controllo. Magari implementando un processo alla volta e coinvolgendo i collaboratori nelle decisioni, per ridurre le resistenze al cambiamento.
Questo approccio, secondo gli esperti, consente di ridurre il rischio di investimenti sbagliati, coinvolgere il team in modo partecipativo e ottenere risultati misurabili in tempi brevi (time-to-value), integrando la tecnologia senza snaturare l’identità della professione.
Quadro regolatorio
Un altro importante passaggio della guida è il capitolo dedicato al quadro regolatorio, dove viene chiarita qual è la normativa di riferimento in Italia e in Europa, per gli studi e in generale per i professionisti. A livello europeo, questa si fonda su due pilastri, ovvero il regolamento generale sulla protezione dei dati (GDPR) e l’AI Act. Il GDPR, in vigore dal 2018, rappresenta la normativa cardine in materia di protezione dei dati personali. L’AI Act, entrato in vigore nel 2024, è il primo regolamento europeo interamente dedicato all’intelligenza artificiale. Il Regolamento adotta un approccio basato sul rischio, distinguendo quattro categorie di rischio:
- rischio minimo o nullo, quando l’utilizzo dell’IA è libero, senza requisiti specifici;
 - rischio alto, che individua quando l’utilizzo dell’IA è soggetto a requisiti stringenti (es. in ambito sanitario, HR, giustizia);
 - rischio inaccettabile, con conseguente individuazione dei sistemi IA che sono vietati.
 
A tal proposito, nella guida viene specificato che: “GDPR e AI Act non vanno considerati come binari paralleli, bensì come normative complementari che forniscono agli studi professionali una vera e propria bussola per un utilizzo etico, sicuro e responsabile dell’intelligenza artificiale”.
L’importanza del monitoraggio continuo
La guida, nell’adozione di nuovi strumenti IA, suggerisce a studi e commercialisti di adottare meccanismi di controllo strutturali, per garantire sempre un uso sicuro e responsabile dei sistemi di intelligenza artificiale. Vengono per questo consigliati audit periodici sui sistemi di intelligenza utilizzati, con cadenza almeno semestrale per quelli classificati ad alto rischio, per verificare l’efficacia delle misure adottate e segnalare eventuali nuove criticità.
In queste attività di controllo rientrano anche l’aggiornamento costantemente il registro dei sistemi IA in modo che riporti, per ciascun sistema, finalità, livello di rischio, misure di mitigazione applicate e responsabili interni. In questo senso, diventa essenziale la formazione continua di dipendenti e collaboratori, così da assicurare
consapevolezza sia delle potenzialità dell’intelligenza artificiale sia dei suoi limiti e rischi (bias, opacità decisionale,
vulnerabilità di sicurezza). Questo significa adottare un processo ciclico, con cui mappare, valutare monitorare.















Redazione
Il team editoriale di Partitaiva.it