“Profilazione, controllo e decisioni automatizzate: i rischi AI in tema di lavoro” a cura dello Studio Legale Stefanelli&Stefanelli

Dott. Guido Lepore

 

Fra i settori maggiormente influenzati dalla introduzione e diffusione dei sistemi di intelligenza artificiale vi è sicuramente il diritto e  l’organizzazione del lavoro.

L’utilizzo delle tecnologie AI in questo settore, infatti, può spaziare dalla fase preassuntiva (come la ricerca e la selezione del personale) sino alla gestione del rapporto di lavoro (come il mutamento delle mansioni, promozioni, trasferimenti, monitoraggio della performance etc.) e alla sua cessazione (ovvero nella scelta o meno di procedere con il licenziamento).

L’Intelligenza Artificiale può poi rappresentare anche un vero e proprio strumento di lavoro, implementando le funzionalità dei dispositivi di salute e sicurezza sul lavoro oppure affiancando gli stessi lavoratori nell’esecuzione delle loro mansioni.

Ma se da un lato le potenzialità di questo strumento sono vastissime, dall’altro è necessario prendere coscienza anche dei rischi che il suo utilizzo comporta.

Fra i pericoli concreti, infatti, vi sono sicuramente quello di un controllo invasivo dei lavoratori, di una loro profilazione sistematica e di decisione automatiche in grado di condurre a trattamenti discriminatori.

Osserviamoli nel dettaglio.

INTELLIGENZA ARTIFICIALE E LAVORO

Con l’avvento delle tecnologie AI nei luoghi di lavoro, il concetto giuslavoristico di “controllo a distanza” si è significativamente ampliato.

I sistemi  di AI possono infatti monitorare in modo continuo e dettagliato le performance dei lavoratori, così come analizzare la loro produttività e le loro emozioni, valutare eventuali comportamenti anomali o persino prevedere errori o inefficienze. Tutto ciò determina sicuramente un ampliamento del potere di controllo del datore di lavoro sui propri dipendenti intollerabile in un’ ottica giuslavoristica di protezione del lavoratore di fronte alle ingerenze datoriali.

Il tema dei controlli indiretti sul luogo di lavoro, infatti, è stato oggetto di regolamentazione sin dall’art. 4 dello Statuto dei Lavoratori del 1970, (come oggi modificato dal Job Act 2015): tale norma  consente l’adozione di sistemi da cui deriva un controllo indiretto dei lavoratori (per esempio, le telecamere) in presenza di due situazioni:

  1. la sussistenza di specifiche causaliovvero esigenze organizzative e produttive, sicurezza del lavoro e tutela del patrimonio aziendale, e
  2. la preventiva stipula di un accordo sindacaleo all’ottenimento di una autorizzazione dell’ITL (comma 1).

Infine, l’utilizzo dei dati personali dei lavoratori raccolti per il tramite di detti strumenti è subordinato alla consegna ai dipendenti di una apposita informativa ex art. 13 GDPR (comma 3).

Nonostante il sofisticato apparato difensivo dello Statuto dei Lavoratori (ancora oggi attuale) la norma sopra citata non trova applicazione nel caso di strumenti utilizzati per erogare la prestazione lavorativa: in questo senso sussiste un rischio di controllo del lavoratore ove la tecnologia AI sia applicata in fase di esecuzione della mansione lavorativa.

PROFILAZIONE DEI LAVORATORI E DECISIONI AUTOMATIZZATE

Una ulteriore criticità derivante dall’utilizzo di sistemi di AI sul luogo di lavoro è quello di una profilazione sistematica dei dipendenti.

Ai sensi dell’art. 4 lett 4) GDPR per profilazione si intende la raccolta e il trattamento di dati personali di un individuo o gruppo di individui per analizzarne le caratteristiche, al fine di suddividerli in categorie, gruppi o poterne fare delle valutazioni o delle previsioni.

La profilazione (o anche rating) dei lavoratori trova larga applicazione già nella fase di selezione preassuntiva: numerose aziende, infatti, ricorrono a sistemi di AI in grado di analizzare i curricula dei candidati e metterli a confronto, con lo scopo di selezionare il candidato fra tutti più idoneo sulla base dei parametri utilizzati dall’algoritmo.

Nell’ambito del rapporto di lavoro, questa pratica viene utilizzata come metodo di classificazione del personale, in forza del quale successivamente adottare decisioni rilevanti inerenti al rapporto di lavoro (quale eventuali avanzamenti di carriera, accesso ad opportunità formative e/o lavorative, sino al trasferimento dei dipendenti e addirittura alla selezione del personale in esubero da licenziare).

La profilazione, soprattutto se utilizzata tramite sistemi di AI con il fine di adottare decisioni automatizzate, cela un altissimo rischio di porre in essere condotte discriminatorie e/o situazioni di disparità di trattamento (definite anche bias algoritmico).

E seppur l’art. 22 del GDPR preveda espressamente un diritto di non essere sottoposti a una decisione basata unicamente sul trattamento automatizzato e di ottenere un intervento umano, nel caso dell’ utilizzo di sistemi di AI spesso tale diritto è difficile da garantire stante l’opacità dell’algoritmo, che rende estremamente arduo conoscere e “spiegare” il processo decisionale adottato.

Infine il ricorso a strumenti di AI  finalizzate ad adottare decisioni automatizzate può trovare spazio nell’intero ciclo del rapporto lavorativo: dal ricorso a chatbots durante il colloquio di lavoro alla selezione automatizzata nella assegnazione di compiti, mansioni e turni (ma anche promozioni e/o trattamenti retributivi) sino alla identificazione del personale da cessare.

In un contesto quasi distopico di gestione totalmente automatizzata del lavoro (anche definito in gergo “management algoritmico”), il rischio che possano essere violati i precetti fondanti del diritto del lavoro (come il divieto di atti discriminatori o il corretto esercizio dei poteri datoriali) si palesa come un’urgenza concreta con cui fare i conti.

LE NORME DELL’ AI ACT e LA  TUTELA DEI LAVORATORI

Chiarito quanto sopra vediamo ora come si inserisce il Reg. UE 1689/2024 (c.d. AI ACT) in questo contesto.

Il Legislatore Europeo infatti, ben consapevole di tutti questi rischi, ha introdotto una serie di disposizioni espressamente indirizzate alla materia del lavoro.

In primo luogo, l’AI ACT  all’art. 5 ha identificato una serie di pratiche di AI che devono considerarsi vietate.

Tra questa non sono ammissibili

  • l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro.. (art. 5 lett. f)
  • l’immissione sul mercato e l’uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale… (art. 5 lett. g)

Per quanto attiene alla pratica di cui al primo punto, si precisa che il Considerando 18 esclude dalla nozione di “emozione” gli stati fisici (quali il dolore o l’affaticamento) e la mera individuazione di espressioni, gesti e movimenti immediatamente evidenti (se non utilizzati per inferire emozioni).

Tali pratiche sono state ritenute a monte troppo rischiose per i diritti dei lavoratori, al punto di vietarle, ovvero di ammetterle con eccezioni ristrette.

L’AI ACT ammette poi l’utilizzo di una serie di sistemi di AI che però, per il loro possibile impatto, sono considerati ad Alto Rischio.

Si tratta dei sistemi indicati all’art. 6.

Tale norma (tra quelle cardini del AI ACT) stabilisce che devono essere considerati Sistemi AI ad Alto Rischio non solo i componenti di sicurezza di un prodotto regolato da una disciplina di cui all’All. I (tra cui il Reg.UE DPI e il Reg. Ue Macchine) ma anche i sistemi di AI applicati nei settori elencati all’All. III

Nello specifico tale Allegato al punto 4) è intitolato “Occupazione, gestione dei lavoratori e accesso al lavoro autonomi”.

 In questo settore, sonoconsiderati sistemi ad alto rischio:

“a) i sistemi utilizzati per l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;

  1. b) i sistemi utilizzati per adottare decisioniriguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.”

Appare evidente lo sforzo del Legislatore Europeo di ricomprendere entro queste due ampie casistiche l’intero ciclo di vita del rapporto lavorativo, compresa la fase dell’accesso al lavoro.

Infine l’AI ACT è il primo regolamento comunitario di natura orizzontale che introduce una disciplina ad hoc per la figura dell’ “utilizzatore”, denominato “deployer” (art. 3 lett. 4).

depolyer (cioè il datore di lavoro che decide di utilizzare sistemi di AI) sono infatti tenuti ad adempiere agli obblighi di cui all’art. 26, fra cui:

  1. l’utilizzo e l’implementazione del sistema di AI in conformità con le istruzioni fornite dal provider(o fornitore) (comma 1);
  2. la garanzia di una sorveglianza umanaex art. 14, affidata a persone fisiche appositamente formate (commi 2 e 3);
  3. gli obblighi di monitoraggio e di segnalazione nel caso di incidenti gravi(comma 5);
  4. informare i rappresentanti dei lavoratorie i lavoratori interessati prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro (comma 8).

Tale ultimo obbligo dimostra il lodevole intento di esaltare il ruolo delle organizzazioni sindacali, attribuendo loro un ruolo concreto nella introduzione e gestione di sistemi di AI sul luogo di lavoro.

Infine, sebbene l’obbligo di effettuare una valutazione di impatto sui diritti fondamentali degli interessati ex art. 35 GDPR (o DPIA) sia previsto al comma 9 solo “se del caso”, la dottrina più recente ritiene che l’utilizzo di sistemi di AI ad alto rischio sul luogo di lavoro integra di per sé i presupposti per la DPIA, con l’effetto di rendere questa di fatto obbligatoria per i deployer – datori di lavoro.

LA TUTELA DEL LAVORO OLTRE L’AI ACT: FRA IL GDPR E NORMATIVA ITALIANA

Il Regolamento sull’intelligenza Artificiale, per quanto ampio ed esaustivo, è insufficiente di per sé a garantire la piena protezione dei lavoratori di fronte ai rischi dell’Intelligenza Artificiale.

Per questo motivo, esso necessita di essere integrato con altri testi normativi, primo fra tutti il Reg. 679/2016 (GDPR), in tema di tutela dei dati personali del lavoratori, con il quale il coordinamento risulta immediato: i due Regolamenti, infatti, condividono la medesima tecnica regolamentare (approccio risked – based), nonché plurimi punti di coordinamento (si pensi agli obblighi di preventiva informativa dei lavoratori in qualità di interessati al trattamento ex GDPR e in qualità di destinatari di sistemi di AI nell’AI Act).

Infine, a livello nazionale, l’AI Act necessita di essere integrato non solo con normative consolidate quali lo Statuto dei Lavoratori, ma anche con i nuovi interventi normativi in materia, fra cui il D.D.L. sull’Intelligenza Artificiale e l’art. 1 bis del d.lgs. 152/1997 (come modificato dal d.lgs. 4 maggio 2023, o Decreto Lavoro), in tema di obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati.

CONCLUSIONI

Il Legislatore Europeo, nella formulazione dell’AI Act, dimostra di essere consapevole non solo della moltitudine di impieghi che l’AI può avere sul lavoro, ma anche dei rischi concreti che essa può comportare per i lavoratori.

Infatti, l’impiego di sistemi di AI in questo settore comporta nella quasi interezza dei casi che tali sistemi siano annoverati come ad alto rischio ai sensi dell’AI Act, rendendo tassativi gli adempimenti di cui all’art. 26 in capo al datore (la cui violazione comporta l’applicazione delle sanzioni di cui all’art. 99). L’adozione di sistemi di Intelligenza Artificiale da parte dei datori di lavoro necessita quindi delle opportune cautele e precauzione, essendo necessaria una preventiva attività di adeguamento normativo (oltre che di coinvolgimento delle rappresentanze sindacali dei lavoratori).