La digitalizzazione dei processi aziendali ha portato a una progressiva introduzione di strumenti di intelligenza artificiale (IA) anche nell’ambito del diritto del lavoro. Tra le applicazioni più discusse vi è l’impiego di sistemi automatizzati per il monitoraggio dell’attività dei lavoratori.
Tali strumenti, se da un lato contribuiscono a ottimizzare l’organizzazione e a migliorare le performance aziendali, dall’altro pongono delicati interrogativi in merito alla liceità del controllo sui dipendenti, specie laddove si sfumi il confine tra strumenti di lavoro e strumenti di sorveglianza.
Le tecnologie utilizzate: tra efficienza e sorveglianza
Sempre più imprese, anche nel contesto italiano, stanno adottando tecnologie di monitoraggio avanzato:
-
sistemi di riconoscimento facciale,
-
tracciamento delle attività digitali,
-
software per l’analisi in tempo reale delle prestazioni,
-
strumenti che registrano movimenti, clic e permanenza su determinati applicativi.
Questi strumenti possono determinare una forma di controllo continuativo e sistematico sull’attività lavorativa, spesso operato attraverso i medesimi dispositivi assegnati ai lavoratori (es. PC, smartphone, software aziendali). In tale scenario, diventa fondamentale interrogarsi sulla compatibilità di tali prassi con il quadro normativo vigente.
Il quadro normativo italiano
La disciplina di riferimento è costituita principalmente dallo Statuto dei Lavoratori (L. 300/1970), in particolare:
-
Art. 4, comma 1: vieta il controllo a distanza salvo che per esigenze organizzative e produttive, di sicurezza sul lavoro o di tutela del patrimonio aziendale, e comunque previo accordo sindacale o autorizzazione dell’Ispettorato del lavoro.
-
Art. 4, comma 2 (modificato dal D.Lgs. 151/2015 – Jobs Act): consente l’utilizzo di strumenti che il lavoratore impiega per rendere la prestazione, ma impone che ogni trattamento dei dati così raccolti avvenga nel rispetto della normativa sulla protezione dei dati personali.
-
Art. 8: vieta categoricamente al datore di lavoro di effettuare, anche tramite terzi, indagini sulle opinioni politiche, religiose o sindacali del dipendente, nonché su informazioni non rilevanti ai fini della valutazione professionale.
È evidente, dunque, che qualsiasi forma di controllo automatizzato deve fondarsi su principi di necessità, proporzionalità e trasparenza, e non può mai costituire uno strumento generalizzato di sorveglianza.
Il ruolo centrale del GDPR
Il Regolamento (UE) 2016/679 (GDPR) qualifica il monitoraggio dei lavoratori come trattamento di dati personali, richiedendo il rispetto rigoroso di tutti i principi fondamentali di liceità.
In particolare, il datore di lavoro – quale titolare del trattamento – è tenuto a:
-
informare preventivamente e in modo chiaro il lavoratore circa le modalità, le finalità e la base giuridica del trattamento;
-
garantire la minimizzazione dei dati, ossia trattare esclusivamente le informazioni strettamente necessarie;
-
assicurare la limitazione della conservazione dei dati ai tempi strettamente compatibili con la finalità perseguita;
-
implementare misure tecniche e organizzative adeguate a garantire la sicurezza, l’integrità e la riservatezza dei dati personali.
Il controllo non può mai essere indiscriminato, né può avvenire in assenza di un’adeguata informativa e di una valutazione d’impatto ove richiesta.
L’AI Act: un nuovo livello di regolazione
Con l’adozione del Regolamento (UE) 2024/1689 (AI Act), l’Unione Europea ha introdotto una disciplina organica volta a regolamentare i sistemi di intelligenza artificiale in base al livello di rischio che comportano per i diritti fondamentali delle persone.
I sistemi di IA utilizzati per monitorare, valutare o classificare i lavoratori rientrano tra quelli ad “alto rischio” (art. 6 AI Act). La loro adozione sarà pertanto subordinata al rispetto di specifici obblighi:
-
trasparenza nei confronti degli interessati,
-
supervisione umana sul funzionamento del sistema,
-
assenza di discriminazioni nei risultati,
-
implementazione documentata di un sistema di gestione dei rischi.
Le imprese che intendono utilizzare tali strumenti saranno tenute a dimostrare la conformità non solo sotto il profilo della protezione dei dati, ma anche rispetto alla sicurezza, affidabilità e non lesività per la dignità umana.
La necessità di un equilibrio tra innovazione e diritti
L’impiego dell’intelligenza artificiale in ambito lavorativo pone le imprese di fronte alla sfida di coniugare efficienza e rispetto delle garanzie fondamentali dei lavoratori. È necessario adottare un approccio ispirato a:
-
proporzionalità tra finalità e mezzi impiegati,
-
trasparenza nelle politiche interne di monitoraggio,
-
valutazione preventiva dei rischi giuridici e reputazionali.
Solo un utilizzo consapevole e conforme alle normative può trasformare l’IA in un alleato per la crescita aziendale, evitando derive incompatibili con i diritti e le libertà fondamentali.
L’equilibrio andrebbe individuato nel principio di proporzionalità in relazione alla finalità esplicita del mezzo e nella trasparenza con il lavoratore, a tal proposito ti segnaliamo questo articolo su etica ed AI.
Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.