Il recente Regolamento europeo 2024/1689 (“AI Act”) definisce l’IA come un sistema automatizzato capace di generare previsioni, contenuti, raccomandazioni o decisioni, con effetti su ambienti fisici o virtuali e stabilisce un quadro normativo per l’uso dell’intelligenza artificiale (IA) in vari settori, incluso quello tributario.
In tale ambito, l’IA assume strumentalmente un rilevante ruolo tecnico per l’Amministrazione finanziaria, in particolare nella prevenzione dell’evasione fiscale e nell’analisi di grandi volumi di dati (catastali, fatture elettroniche e flussi finanziari). Tutto ciò, auspicabilmente, nell’ottica di un potenziale miglioramento in termini di uguaglianza tributaria, applicando uniformemente le leggi fiscali e riducendo le discrepanze nei trattamenti tra i contribuenti, con l’obiettivo di garantire l’imparzialità nelle decisioni fiscali e riducendo il rischio di discrezionalità.
Tuttavia, sotto un primo profilo, l’adozione dell’IA solleva preoccupazioni legate alla protezione dei diritti fondamentali e della trasparenza. L’uso di sistemi automatizzati mostra una potenziale attitudine ad influire sui diritti dei contribuenti, come la privacy o il diritto a un processo giusto, se non regolamentato correttamente. L’AI Act mira, dunque, a garantire un uso affidabile e rispettoso dei diritti umani, promuovendo l’innovazione ma assicurando anche che le decisioni automatizzate siano trasparenti e giustificate.
In sintesi, mentre l’IA ha attuale prospettiva di migliorare l’efficienza e l’equità nel sistema fiscale, è necessario bilanciare, al contempo le sue potenzialità con un invocabile e necessario controllo umano e la protezione dei diritti dei contribuenti.
Come stabilito nell’AI Act, l’IA non deve compromettere i diritti dei contribuenti, specificamente in relazione agli atti di accertamento. Si rende, pertanto, fondamentale rispettare principi come il diritto alla difesa e il diritto a un processo giusto, anche quando le decisioni fiscali sono prese per mezzo di algoritmi.
In tal senso, un primo esempio di criticità riguarda l’efficacia provvisoria degli atti fiscali, che può influire immediatamente sul patrimonio dei contribuenti prima che l’obbligazione tributaria sia definitivamente accertata. In questi casi, è essenziale che gli atti amministrativi siano adeguatamente motivati, con una chiara esposizione dei presupposti giuridici e fattuali, per consentire ai contribuenti di contestare l’atto in modo efficace e di esercitare il loro diritto di difesa. Se l’IA è utilizzata per motivare tali atti, appare dunque necessario che il processo decisionale sia trasparente, comprensibile e giustificato, rispettando i diritti fondamentali del contribuente e garantendo un processo equo.
In ambito nazionale, prima dell’entrata in vigore dell’AI Act, erano per altro verso già stati avviati progetti per utilizzare l’IA nel settore fiscale. Un esempio significativo è costituito dal progetto “A data driven approach to tax evasion risk analysis in Italy” del 2021, finanziato dall’Unione Europea, che ha utilizzato l’IA per migliorare l’analisi del rischio fiscale. Ed ancora, l’Atto di Indirizzo 2020/2022 ha promosso l’uso di tecniche di IA per valorizzare i dati esistenti e migliorare l’efficienza dell’amministrazione fiscale. In Europa, l’Italia è stata pioniera con l’introduzione degli indici di affidabilità fiscale (ISA) nel 2019, volti a semplificare i controlli tributari. In tal senso, questi ultimi e le dichiarazioni fiscali automatizzate emergono come esempio di utilizzo dell’IA in ambito fiscale.
Al riguardo, un punto fondamentale per la legittimità delle decisioni algoritmiche, sottolineato in via giurisprudenziale dalla sentenza del Consiglio di Stato n. 2270/2019, è rappresentato dalla “conoscibilità della regola” che guida il sistema. Le decisioni automatizzate devono essere comprensibili e giustificate, per permettere ai cittadini di contestarle in modo informato e trasparente.
Nel settore specificamente tributario, la Legge Delega di riforma tributaria (legge 111/2023) ha previsto l’uso dell’IA per migliorare la compliance fiscale. L’obiettivo è ridurre l’evasione e l’elusione fiscale, potenziando i controlli sui soggetti ad alto rischio e favorendo l’adempimento spontaneo da parte dei contribuenti. La Legge Delega conferisce al Governo il compito di disciplinare l’uso dell’IA nell’accertamento fiscale, in particolare nella fase istruttoria.
A seguito della delega, è stato sottoposto al Garante della Privacy uno schema di decreto legislativo riguardante l’uso dell’IA per scopi fiscali. Quest’ultimo, nel proprio parere dell’11 gennaio 2024, ha evidenziato dei limiti nell’uso delle informazioni pubblicamente disponibili per finalità fiscali, raccomandando l’esclusione di dati che non soddisfino requisiti di affidabilità.
Nell’excursus normativo in commento, si deve altresì segnalare l’art. 2, d.lgs. 13/24, che introduce il concetto di “razionalizzazione e riordino” dell’analisi del rischio fiscale, con utilizzo di modelli predittivi per individuare indicatori di rischio e prevenire l’evasione. Tuttavia, l’intero processo deve rispettare le normative sulla protezione dei dati personali, per garantire un trattamento sicuro delle informazioni sensibili.
In tale ambito, viene altresì in evidenza la Relazione del Presidente del Garante della Privacy (2023), illustrativo dei rischi legati all’uso di dati estratti dal web, che, se non verificati, potrebbero peccare di imprecisione e distorcere la rappresentazione fiscale dei contribuenti. Ciò sottolinea l’importanza di garantire l’affidabilità dei dati e il rispetto delle normative sulla protezione della privacy, essenziali per la lotta all’evasione fiscale.
Nell’analisi del rischio fiscale, si utilizzano strumenti avanzati per identificare i contribuenti a rischio di evasione, ma il rischio maggiore per i diritti dei contribuenti non è rappresentato dalla quantità di dati, ma dalla loro incompletezza, che potrebbe distorcere l’equità e compromettere le finanze pubbliche.
Tecnicamente, tale processo è tradotto in termini pratici dal sistema Ve.Ra. (Verifica dei Rapporti Finanziari), strumento utilizzato dall’Agenzia delle Entrate per l’analisi del rischio di evasione fiscale che si basa sull’Archivio dei Rapporti Finanziari, creato nel 1973 e ampliato nel tempo, che raccoglie dati utilizzati per individuare i contribuenti a rischio. Gli algoritmi di Ve.Ra. analizzano i dati per selezionare le imprese con caratteristiche sospette, come discrepanze tra ricavi e costi, basso valore aggiunto e reddito per dipendente.
Le fasi del processo di selezione sono:
- Selezione iniziale: identificazione delle imprese con anomalie nei ricavi e nei costi.
- Utilizzo dell’Archivio dei Rapporti Finanziari: integrazione dei dati finanziari per individuare imprese con versamenti sospetti rispetto ai ricavi dichiarati.
- Scarto delle posizioni giustificabili: esclusione delle imprese che possono giustificare le anomalie.
- Predisposizione della lista e invio alle direzioni provinciali: le imprese selezionate sono inviate per ulteriori analisi, che possono includere ispezioni.
- Attività ispettiva: non tutte le imprese selezionate vengono controllate immediatamente; alcune ricevono lettere di compliance o indagini più approfondite.
Il sistema, pur tuttavia, non opera automaticamente; gli algoritmi supportano la selezione dei contribuenti, ma l’intervento umano è rilevante e necessario. Inoltre, i dati personali sono pseudonimizzati per proteggere la privacy dei contribuenti, evitando l’automatismo nei provvedimenti fiscali. In merito, l’Agenzia delle Entrate sottolinea che non fornirà dettagli specifici sui percorsi di indagine o sull’architettura informatica usata, per tutelare la riservatezza delle attività istituzionali e prevenire elusioni dei controlli.
Rimane tuttavia il dubbio se l’algoritmo Ve.Ra svolga unicamente un ruolo di selezione e compliance preventiva, o se possa essere considerato una vera e propria funzione di accertamento.
In ambito amministrativo, gli algoritmi devono pertanto garantire trasparenza, conoscibilità e il principio “human in the loop”, cioè la supervisione umana. Il Consiglio di Stato (con sentenze nn. 2270 e 8472 del 2019) ha invero ribadito che, pur riconoscendo l’efficienza degli algoritmi, è necessario un approccio critico, dato che le scelte e assunzioni implicite negli algoritmi dipendono dai dati e criteri utilizzati, che spesso non sono trasparenti.
L’uso dell’intelligenza artificiale (IA) e degli algoritmi nel settore fiscale, si manifesta pertanto, in conclusione, quale offerta di rilevante potenzialità in termini di efficienza, ma nel gestito ambito di un dovuto, controllato, equilibrio tra innovazione tecnologica e tutela inalienabile dei diritti individuali in generale e, nello specifico, dei contribuenti.
A cura di Raffaele De Stefano e Michele Manna