Dott. Guido Lepore
Fra i settori maggiormente influenzati dalla introduzione e diffusione dei sistemi di intelligenza artificiale vi è sicuramente il diritto e l’organizzazione del lavoro.
L’utilizzo delle tecnologie AI in questo settore, infatti, può spaziare dalla fase preassuntiva (come la ricerca e la selezione del personale) sino alla gestione del rapporto di lavoro (come il mutamento delle mansioni, promozioni, trasferimenti, monitoraggio della performance etc.) e alla sua cessazione (ovvero nella scelta o meno di procedere con il licenziamento).
L’Intelligenza Artificiale può poi rappresentare anche un vero e proprio strumento di lavoro, implementando le funzionalità dei dispositivi di salute e sicurezza sul lavoro oppure affiancando gli stessi lavoratori nell’esecuzione delle loro mansioni.
Ma se da un lato le potenzialità di questo strumento sono vastissime, dall’altro è necessario prendere coscienza anche dei rischi che il suo utilizzo comporta.
Fra i pericoli concreti, infatti, vi sono sicuramente quello di un controllo invasivo dei lavoratori, di una loro profilazione sistematica e di decisione automatiche in grado di condurre a trattamenti discriminatori.
Osserviamoli nel dettaglio.
Con l’avvento delle tecnologie AI nei luoghi di lavoro, il concetto giuslavoristico di “controllo a distanza” si è significativamente ampliato.
I sistemi di AI possono infatti monitorare in modo continuo e dettagliato le performance dei lavoratori, così come analizzare la loro produttività e le loro emozioni, valutare eventuali comportamenti anomali o persino prevedere errori o inefficienze. Tutto ciò determina sicuramente un ampliamento del potere di controllo del datore di lavoro sui propri dipendenti intollerabile in un’ ottica giuslavoristica di protezione del lavoratore di fronte alle ingerenze datoriali.
Il tema dei controlli indiretti sul luogo di lavoro, infatti, è stato oggetto di regolamentazione sin dall’art. 4 dello Statuto dei Lavoratori del 1970, (come oggi modificato dal Job Act 2015): tale norma consente l’adozione di sistemi da cui deriva un controllo indiretto dei lavoratori (per esempio, le telecamere) in presenza di due situazioni:
Infine, l’utilizzo dei dati personali dei lavoratori raccolti per il tramite di detti strumenti è subordinato alla consegna ai dipendenti di una apposita informativa ex art. 13 GDPR (comma 3).
Nonostante il sofisticato apparato difensivo dello Statuto dei Lavoratori (ancora oggi attuale) la norma sopra citata non trova applicazione nel caso di strumenti utilizzati per erogare la prestazione lavorativa: in questo senso sussiste un rischio di controllo del lavoratore ove la tecnologia AI sia applicata in fase di esecuzione della mansione lavorativa.
Una ulteriore criticità derivante dall’utilizzo di sistemi di AI sul luogo di lavoro è quello di una profilazione sistematica dei dipendenti.
Ai sensi dell’art. 4 lett 4) GDPR per profilazione si intende la raccolta e il trattamento di dati personali di un individuo o gruppo di individui per analizzarne le caratteristiche, al fine di suddividerli in categorie, gruppi o poterne fare delle valutazioni o delle previsioni.
La profilazione (o anche rating) dei lavoratori trova larga applicazione già nella fase di selezione preassuntiva: numerose aziende, infatti, ricorrono a sistemi di AI in grado di analizzare i curricula dei candidati e metterli a confronto, con lo scopo di selezionare il candidato fra tutti più idoneo sulla base dei parametri utilizzati dall’algoritmo.
Nell’ambito del rapporto di lavoro, questa pratica viene utilizzata come metodo di classificazione del personale, in forza del quale successivamente adottare decisioni rilevanti inerenti al rapporto di lavoro (quale eventuali avanzamenti di carriera, accesso ad opportunità formative e/o lavorative, sino al trasferimento dei dipendenti e addirittura alla selezione del personale in esubero da licenziare).
La profilazione, soprattutto se utilizzata tramite sistemi di AI con il fine di adottare decisioni automatizzate, cela un altissimo rischio di porre in essere condotte discriminatorie e/o situazioni di disparità di trattamento (definite anche bias algoritmico).
E seppur l’art. 22 del GDPR preveda espressamente un diritto di non essere sottoposti a una decisione basata unicamente sul trattamento automatizzato e di ottenere un intervento umano, nel caso dell’ utilizzo di sistemi di AI spesso tale diritto è difficile da garantire stante l’opacità dell’algoritmo, che rende estremamente arduo conoscere e “spiegare” il processo decisionale adottato.
Infine il ricorso a strumenti di AI finalizzate ad adottare decisioni automatizzate può trovare spazio nell’intero ciclo del rapporto lavorativo: dal ricorso a chatbots durante il colloquio di lavoro alla selezione automatizzata nella assegnazione di compiti, mansioni e turni (ma anche promozioni e/o trattamenti retributivi) sino alla identificazione del personale da cessare.
In un contesto quasi distopico di gestione totalmente automatizzata del lavoro (anche definito in gergo “management algoritmico”), il rischio che possano essere violati i precetti fondanti del diritto del lavoro (come il divieto di atti discriminatori o il corretto esercizio dei poteri datoriali) si palesa come un’urgenza concreta con cui fare i conti.
Chiarito quanto sopra vediamo ora come si inserisce il Reg. UE 1689/2024 (c.d. AI ACT) in questo contesto.
Il Legislatore Europeo infatti, ben consapevole di tutti questi rischi, ha introdotto una serie di disposizioni espressamente indirizzate alla materia del lavoro.
In primo luogo, l’AI ACT all’art. 5 ha identificato una serie di pratiche di AI che devono considerarsi vietate.
Tra questa non sono ammissibili
Per quanto attiene alla pratica di cui al primo punto, si precisa che il Considerando 18 esclude dalla nozione di “emozione” gli stati fisici (quali il dolore o l’affaticamento) e la mera individuazione di espressioni, gesti e movimenti immediatamente evidenti (se non utilizzati per inferire emozioni).
Tali pratiche sono state ritenute a monte troppo rischiose per i diritti dei lavoratori, al punto di vietarle, ovvero di ammetterle con eccezioni ristrette.
L’AI ACT ammette poi l’utilizzo di una serie di sistemi di AI che però, per il loro possibile impatto, sono considerati ad Alto Rischio.
Si tratta dei sistemi indicati all’art. 6.
Tale norma (tra quelle cardini del AI ACT) stabilisce che devono essere considerati Sistemi AI ad Alto Rischio non solo i componenti di sicurezza di un prodotto regolato da una disciplina di cui all’All. I (tra cui il Reg.UE DPI e il Reg. Ue Macchine) ma anche i sistemi di AI applicati nei settori elencati all’All. III
Nello specifico tale Allegato al punto 4) è intitolato “Occupazione, gestione dei lavoratori e accesso al lavoro autonomi”.
In questo settore, sonoconsiderati sistemi ad alto rischio:
“a) i sistemi utilizzati per l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;
Appare evidente lo sforzo del Legislatore Europeo di ricomprendere entro queste due ampie casistiche l’intero ciclo di vita del rapporto lavorativo, compresa la fase dell’accesso al lavoro.
Infine l’AI ACT è il primo regolamento comunitario di natura orizzontale che introduce una disciplina ad hoc per la figura dell’ “utilizzatore”, denominato “deployer” (art. 3 lett. 4).
I depolyer (cioè il datore di lavoro che decide di utilizzare sistemi di AI) sono infatti tenuti ad adempiere agli obblighi di cui all’art. 26, fra cui:
Tale ultimo obbligo dimostra il lodevole intento di esaltare il ruolo delle organizzazioni sindacali, attribuendo loro un ruolo concreto nella introduzione e gestione di sistemi di AI sul luogo di lavoro.
Infine, sebbene l’obbligo di effettuare una valutazione di impatto sui diritti fondamentali degli interessati ex art. 35 GDPR (o DPIA) sia previsto al comma 9 solo “se del caso”, la dottrina più recente ritiene che l’utilizzo di sistemi di AI ad alto rischio sul luogo di lavoro integra di per sé i presupposti per la DPIA, con l’effetto di rendere questa di fatto obbligatoria per i deployer – datori di lavoro.
Il Regolamento sull’intelligenza Artificiale, per quanto ampio ed esaustivo, è insufficiente di per sé a garantire la piena protezione dei lavoratori di fronte ai rischi dell’Intelligenza Artificiale.
Per questo motivo, esso necessita di essere integrato con altri testi normativi, primo fra tutti il Reg. 679/2016 (GDPR), in tema di tutela dei dati personali del lavoratori, con il quale il coordinamento risulta immediato: i due Regolamenti, infatti, condividono la medesima tecnica regolamentare (approccio risked – based), nonché plurimi punti di coordinamento (si pensi agli obblighi di preventiva informativa dei lavoratori in qualità di interessati al trattamento ex GDPR e in qualità di destinatari di sistemi di AI nell’AI Act).
Infine, a livello nazionale, l’AI Act necessita di essere integrato non solo con normative consolidate quali lo Statuto dei Lavoratori, ma anche con i nuovi interventi normativi in materia, fra cui il D.D.L. sull’Intelligenza Artificiale e l’art. 1 bis del d.lgs. 152/1997 (come modificato dal d.lgs. 4 maggio 2023, o Decreto Lavoro), in tema di obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati.
Il Legislatore Europeo, nella formulazione dell’AI Act, dimostra di essere consapevole non solo della moltitudine di impieghi che l’AI può avere sul lavoro, ma anche dei rischi concreti che essa può comportare per i lavoratori.
Infatti, l’impiego di sistemi di AI in questo settore comporta nella quasi interezza dei casi che tali sistemi siano annoverati come ad alto rischio ai sensi dell’AI Act, rendendo tassativi gli adempimenti di cui all’art. 26 in capo al datore (la cui violazione comporta l’applicazione delle sanzioni di cui all’art. 99). L’adozione di sistemi di Intelligenza Artificiale da parte dei datori di lavoro necessita quindi delle opportune cautele e precauzione, essendo necessaria una preventiva attività di adeguamento normativo (oltre che di coinvolgimento delle rappresentanze sindacali dei lavoratori).