Avv. Adriano Colomban
L’automatizzazione delle procedure di gara implica l’uso di algoritmi, e rappresenta certamente un’opportunità per ottimizzare la gestione delle risorse pubbliche, ridurre tempi di esecuzione e minimizzare errori di calcolo e valutazione. Tuttavia, questo processo deve essere opportunamente controbilanciato dalla cd. “riserva di umanità”, un principio giuridico che assicura la supervisione umana e, quindi, la legittimità delle decisioni amministrative.
La “riserva di umanità” ha radici profonde nella teoria dell’organo e nel principio di imputazione dell’atto amministrativo. Tradizionalmente, la pubblica amministrazione opera tramite l’intervento di persone fisiche che agiscono come organi dell’ente pubblico. Questo modello, ben definito nella teoria dell’immedesimazione organica, garantisce che ogni atto amministrativo sia imputabile a una persona fisica. Con l’automatizzazione, invece, la mancanza di intervento umano nelle decisioni amministrative comporterebbe un rischio d’emanazione di atti potenzialmente privi di legittimità giuridica.
Un’efficace distinzione tra algoritmo, automazione e intelligenza artificiale permette di comprendere le diverse modalità di interazione tra tecnologia e l’attività amministrativa:
Nelle decisioni adottate tramite algoritmi e automazione/IA, i concetti di nullità e annullabilità assumono particolare rilevanza, poiché un errore o un vizio tecnico possono compromettere la validità dell’intero procedimento di gara. La giurisprudenza ha tracciato distinzioni importanti in questo contesto:
La “riserva di umanità” funge pertanto da strumento di tutela contro i rischi di nullità e annullabilità nelle decisioni algoritmiche. La necessità di un intervento umano non è solo una garanzia etica ma anche giuridica. È necessario che vi sia un contributo umano capace di verificare, modificare o correggere eventuali errori dell’algoritmo. L’assenza di tale intervento potrebbe portare a vizi insanabili, configurando la nullità dell’atto, specialmente se l’algoritmo agisce su decisioni discrezionali dove il controllo umano è indispensabile.
L’adozione di algoritmi che non rispettano la “riserva di umanità” potrebbe, quindi, provocare situazioni in cui viene dichiarata la nullità dell’atto, soprattutto in casi di discriminazione o di errori, con gravi conseguenze economiche e procedurali.
La “riserva di umanità” stabilisce altresì che ogni decisione amministrativa automatizzata debba essere riconducibile a una persona fisica o giuridica, che ne risponda giuridicamente e patrimonialmente. In caso contrario, si verrebbe a creare una lacuna di responsabilità, dove l’algoritmo opererebbe in modo indipendente, privo di un controllo efficace e senza possibilità di sanzionare eventuali errori.
I Giudice amministrativi in alcune occasioni hanno già affermato che il software, benché esegua calcoli e operazioni complesse, deve essere supervisionato e controllato da funzionari competenti. Questo significa che l’uso degli algoritmi non può esentare i responsabili amministrativi dall’assumersi la piena responsabilità delle scelte effettuate. La stessa impostazione è condivisa nel nuovo Codice Appalti, il quale specifica che l’automazione è ammessa solo se accompagnata da garanzie di trasparenza e responsabilità.
In questo quadro, l’art. 30 del nuovo Codice Appalti impone alle stazioni appaltanti di assicurare la comprensibilità delle logiche decisionali e la disponibilità del codice sorgente, in modo che eventuali vizi possano essere individuati e corretti. Tale obbligo è pensato per ridurre il rischio di nullità, facilitando il controllo umano sull’operato degli algoritmi.
L’inserimento di algoritmi e intelligenza artificiale (IA) nelle gare d’appalto è una pratica che, pur offrendo vantaggi in termini di efficienza e uniformità delle valutazioni, comporta anche una serie di rischi specifici e limitazioni, che la giurisprudenza e il diritto amministrativo mirano a mitigare.
Si prendono infine ad esempio alcune sentenze che hanno definito e circoscritto il ruolo dell’algoritmo e la necessità della supervisione umana nelle decisioni amministrative automatizzate, introducendo, già prima dell’emanazione del nuovo Codice Appalti, elementi volti a proteggere la trasparenza e la responsabilità dell’ente pubblico.
La sentenza, seppure precedente al nuovo Codice Appalti, analizza il caso di una procedura automatizzata per l’assegnazione di sedi a docenti assunti nell’ambito del piano straordinario previsto per legge. Gli appellanti lamentavano sostanzialmente l’assenza di trasparenza sull’algoritmo utilizzato per l’assegnazione delle sedi e l’irrazionalità e l’illogicità degli esiti, con assegnazioni che non rispettavano le preferenze indicate, a danno di soggetti meglio posizionati in graduatoria.
Gli appellanti evidenziavano anche l’impossibilità di comprendere i criteri alla base delle decisioni automatizzate e denunciavano l’assenza di motivazione nei provvedimenti derivanti dall’algoritmo.
L’algoritmo pertanto era percepito come una “scatola nera”, inaccessibile e incomprensibile, che ha impediva il controllo sulla correttezza delle assegnazioni.
Il Consiglio di Stato ha dunque affermato che l’algoritmo, al contrario, deve essere conoscibile in tutti i suoi aspetti, inclusi: la logica sottostante, i criteri utilizzati per le decisioni, le modalità con cui i dati vengono elaborati. La conoscibilità rafforza il principio di trasparenza e consente il sindacato del giudice.
Inoltre in questa Sentenza viene espresso il concetto di Algoritmo come “atto amministrativo informatico”. In pratica l’algoritmo non è un’entità autonoma, ma un’estensione della volontà amministrativa. Deve essere costruito e gestito in modo da rispettare i principi di proporzionalità, ragionevolezza e pubblicità. La discrezionalità amministrativa deve essere esercitata nella fase di programmazione dell’algoritmo, non nella sua esecuzione.
Dal canto suo il Giudice amministrativo deve poter valutare la logica e la ragionevolezza dell’algoritmo e la correttezza dei dati inseriti e delle decisioni prese. Questa possibilità garantisce il diritto di difesa dei cittadini e la piena effettività del controllo giudiziario.
In definitiva l’impiego di algoritmi sembrerebbe non liberare affatto l’amministrazione dalla responsabilità di garantire la correttezza e la legalità degli atti, sottolineando che qualsiasi errore nel processo automatizzato è imputabile al soggetto pubblico. La sentenza stabilisce inoltre che la pubblica amministrazione deve prevedere modalità di verifica dei risultati prodotti dagli algoritmi, così da poter correggere e rendere trasparenti eventuali errori o incoerenze nel processo decisionale.
Un caso similare, ma ancora più datato nel tempo, ha affrontato invece il tema dell’accesso agli atti amministrativi in relazione all’algoritmo utilizzato dal Ministero dell’Istruzione, Università e Ricerca (MIUR) per la gestione della mobilità interprovinciale dei docenti nell’anno scolastico 2016/2017. Il ricorrente richiedeva l’accesso ai codici sorgente del software che gestiva l’algoritmo, dopo che l’amministrazione aveva negato tale accesso, limitandosi a fornire una descrizione generale del funzionamento dell’algoritmo.
Il TAR ha ritenuto invece insufficiente la mera descrizione dell’algoritmo fornita dall’amministrazione, sottolineando che la comprensione completa del funzionamento del sistema richiede l’accesso ai codici sorgente. Questo per garantire la verifica di eventuali errori o incongruenze nell’elaborazione automatizzata.
Sebbene, dunque, il software sia tutelato come opera dell’ingegno, tale tutela non prevale sul diritto di accesso quando ciò è necessario per garantire il rispetto dei diritti degli interessati, a condizione che l’accesso non comprometta lo sfruttamento economico del software.
In conclusione, l’introduzione, oramai conclamata, di algoritmi nelle gare d’appalto comporta vantaggi evidenti, ma è essenziale che tali strumenti siano impiegati con attenzione per prevenire possibili vizi di nullità e annullabilità. La “riserva di umanità” rappresenta una salvaguardia contro il rischio che un agire amministrativo completamente automatizzato perda di trasparenza e di legittimità. Per garantire la corretta applicazione degli algoritmi, è fondamentale che le amministrazioni assicurino la supervisione umana e la trasparenza delle logiche utilizzate.
È sancito l’obbligo imposto dal Codice Appalti di assicurare la comprensibilità delle logiche decisionali e la disponibilità del codice sorgente, in modo che eventuali vizi possano essere individuati e corretti.
In sintesi, l’equilibrio tra automazione ed etica giuridica è possibile, ma richiede un quadro normativo solido e una vigilanza costante, affinché l’efficienza tecnologica non comprometta la tutela dei diritti dei partecipanti alle gare e la legittimità dell’azione amministrativa.