Il diritto del lavoro e l'implementazione dell'AI sul posto di lavoro
Autori
L’intelligenza artificiale rappresenta una grossa sfida per i datori di lavoro, con enormi implicazioni sul diritto del lavoro.
In Italia, il diritto del lavoro potrebbe avere difficoltà a "mettersi al passo" con il rapido sviluppo tecnologico dell'IA.
Tuttavia, i legislatori europei stanno adottando un ruolo pionieristico nella regolamentazione generale dei sistemi di IA e il Comitato europeo dei rappresentanti permanenti (Coreper) ha approvato la bozza della legge sull'IA COM (2021) 206 il 2 febbraio 2024. L'approvazione del Parlamento è prevista a breve.
Alla luce di quanto sopra, considerando anche che le aziende che lavorano con l'IA possono avere un vantaggio competitivo, c'è una crescente pressione sui datori di lavoro e sulle risorse umane per adottare e gestire l'IA, anche se il quadro normativo è ancora incerto.
Alcuni dei principali problemi potenziali che un datore di lavoro che utilizza un sistema di intelligenza artificiale potrebbe dover affrontare sono:
1. Controlli a distanza sui dipendenti (e quale impatto avrà L’art. 4 Legge n. 300/1970);
2. protezione della privacy dei dipendenti;
3. sistemi di valutazione delle prestazioni;
4. ,monitoraggio dei dipendenti (ad esempio, la frequenza delle pause);
5. processo disciplinare (quale sanzione disciplinare adottare nel caso in cui il dipendente commettesse un errore dovuto ad una "allucinazione" dell'IA?)
6. responsabilità in caso di danni dovuti a un errore del sistema di IA;
7. protezione del know-how aziendale, dei segreti commerciali e dei dati privati (aumento del rischio di riscatto informatico?);
8. formazione dei dipendenti (i dipendenti più anziani potrebbero staticamente avere problemi ad adattarsi alle nuove tecnologie) e nascita di nuovi ruoli come adattamento ai sistemi di IA.
In Italia esistono già diverse normative che impongono requisiti sull'utilizzo dei sistemi di IA e altre sicuramente verranno adottate nei prossimi mesi/anni.
Innanzitutto, va rilevato che il datore di lavoro deve informare i dipendenti sull'eventuale implementazione di sistemi di IA, sul loro impatto sul lavoro e soprattutto sul modo in cui le loro prestazioni saranno monitorate tramite l'IA (secondo il Decreto Legislativo n. 152/1997, recentemente modificato dal Decreto Legge n. 48/2023). Lo Statuto dei lavoratori prevede ulteriori requisiti e limiti che potrebbero essere applicati anche all'IA (ai sensi degli articoli 4 e 8 della legge n. 300/1970). Ad esempio, potrebbe essere necessario o consigliabile coinvolgere le rappresentanze sindacali aziendali nel processo di implementazione dell'IA.
Inoltre, per proteggere i diritti dei dipendenti, il sistema di IA deve essere conforme ai requisiti di protezione dei dati (secondo il GDPR e il Decreto Legislativo n. 101/2018).
Ad esempio, un potenziale problema è costituito dal fatto che, per creare un account con ChatGPT, i dipendenti devono fornire il proprio nome, indirizzo e-mail e numero di telefono. OpenAI, il proprietario di ChatGPT, non offre quindi account aziendali. Inoltre, OpenAI si riserva il diritto di utilizzare tutte le cronologie delle chat per scopi di formazione.
Per affrontare queste e altre questioni, l'UE sta attualmente lavorando a due importanti strumenti: il c.d. AI Act e la AI Liability Directive.
Questi due testi intendono chiarire la responsabilità dei sistemi di IA e garantire un uso eticamente accettabile anche dal punto di vista del datore di lavoro.
La proposta di legge sull'IA COM (2021) 206 impone ai datori di lavoro che utilizzano o gestiscono sistemi di IA obblighi specifici che dipenderanno dal grado di rischio del sistema di IA gestito o utilizzato. Questo approccio basato sul rischio distingue tra sistemi di IA con rischio inaccettabile, sistemi di IA con rischio elevato e altri sistemi di IA.
Ad esempio, i sistemi di IA utilizzati in ambito HR (ad esempio, per l'assunzione, la promozione o il licenziamento) possono essere classificati come sistemi di IA ad alto rischio. A questo proposito, la bozza di legge europea sull'IA definisce i sistemi di IA ad alto rischio come quelli che presentano rischi significativi per la salute o i diritti fondamentali dei dipendenti.
In base alla bozza attuale, la classificazione di un sistema di IA come ad alto rischio stabilisce una serie di obblighi da parte del datore di lavoro, quali:
- Valutare il sistema di IA durante l'intero periodo di utilizzo (art. 29 della legge sull'IA);
- Utilizzare il sistema di IA solo in conformità alle istruzioni per l'uso e monitorare se i sistemi di IA sono utilizzati in modo conforme alle istruzioni per l'uso (art. 29 della legge sull'IA);
- Assicurarsi che i dati inseriti siano coerenti con lo scopo previsto del sistema e conservare i log generati automaticamente dal sistema;
- Effettuare una valutazione dei diritti fondamentali prima di utilizzare o far funzionare i sistemi di IA, ad esempio tenendo conto del gruppo di dipendenti che saranno interessati dal sistema di IA utilizzato (art. 29a della legge sull'IA);
- consultare i rappresentanti dei lavoratori prima di utilizzare l'IA ad alto rischio sul posto di lavoro;
- informare i dipendenti che saranno soggetti al sistema (art. 29 (5a) della legge sull'IA).
Inoltre, l'UE sta lavorando alla bozza di direttiva sulla responsabilità per l'IA, COM (2022) 496. Questa direttiva introduce nuove regole specifiche per i danni causati dai sistemi di IA. Secondo la versione attuale, la direttiva sulla responsabilità per l'IA non dovrebbe applicarsi alla responsabilità contrattuale.
La bozza di direttiva sulla responsabilità dell'IA prevede che il datore di lavoro - che utilizza o gestisce i sistemi di IA - sia il soggetto responsabile se un terzo subisce un danno a causa di un malfunzionamento del sistema di IA. Inoltre, la direttiva facilita le richieste di risarcimento per danni, ad esempio garantendo la divulgazione delle prove. Ciò significa, ad esempio, che potrebbero essere creati registri e documenti in conformità con la legge sull'IA, che dovrebbero poi essere divulgati in caso di richiesta di risarcimento - per dimostrare che il datore di lavoro ha rispettato pienamente gli obblighi che la legge sull'IA impone al datore di lavoro. In caso contrario, la mancanza di elementi di controprova andrebbe a vantaggio del richiedente. Alle aziende che lavorano con sistemi di IA ad alto rischio si consiglia pertanto di creare l'infrastruttura necessaria e di familiarizzare con la normativa a livello europeo.
Tuttavia, ci vorrà un po' di tempo prima che la direttiva sulla responsabilità civile per l'IA entri in vigore. A questo proposito, non si possono escludere cambiamenti significativi di queste norme prima di allora.
Quanto precede può però consentirci comunque di affermare che le normative in materia di diritto del lavoro sono complesse e, a causa degli sviluppi tecnologici, in uno stato continuo di evoluzione. I nostri esperti sono quindi a vostra disposizione per assistervi in queste tematiche.