Dottrina / Riviste

AI e responsabilità legale: sfide etiche e giuridiche nei contesti lavorativi

14 Marzo 2025 |
Lorenzo Gatto

L'uso dell'intelligenza artificiale (AI) nei contesti lavorativi è cresciuta esponenzialmente negli ultimi anni, trasformando radicalmente i processi decisionali, la gestione delle risorse umane e le dinamiche aziendali. L'adozione di tali tecnologie solleva questioni cruciali in termini di responsabilità legale ed etica, specialmente quando le decisioni prese dagli algoritmi risultino errate, discriminatorie o dannose.

Sommario

AI e decisioni nei contesti lavorativi

L'intelligenza artificiale è impiegata in diversi ambiti del mondo del lavoro, tra cui:

  • la selezione e la valutazione del personale come gli algoritmi predittivi che analizzano CV e profili professionali per identificare candidati idonei (rif. art. 22 GDPR, Dir. CE 2000/78);
  • la gestione delle performance per il tramite di sistemi AI che valutano la produttività dei dipendenti sulla base di dati raccolti in tempo reale (art. 5 AI Act, art. 8 Carta dei diritti fondamentali dell'UE);
  • l'automazione delle decisioni amministrative mediante dei software intelligenti che gestiscono dei processi quali promozioni, aumenti salariali e licenziamenti (rif. art. 9 GDPR, art. 22 GDPR, art. 5 AI Act);
  • il monitoraggio e la sorveglianza con strumenti di AI che analizzano i comportamenti e le attività per garantire il rispetto delle policy aziendali (Regolamento ePrivacy, art. 35 GDPR - DPIA).

Queste applicazioni, sebbene migliorino l'efficienza, pongono importanti sfide sia etiche sia legali significative.

Responsabilità legale: chi risponde degli errori?

Uno dei principali interrogativi riguarda l'attribuzione della responsabilità in caso di decisioni errat...

Contenuto riservato agli abbonati.
Vuoi consultarlo integralmente?

Sei un abbonato

Non sei un abbonato

Se vuoi maggiori informazioni contatta il tuo agente di zona