Il report “Worker participation and representation: the impact on risk prevention of AI worker management systems“, commissionato dall’Agenzia Europea per la Sicurezza e la Salute sul Lavoro (EU-OSHA), affronta il complesso intreccio tra l’uso crescente di sistemi di gestione dei lavoratori basati sull’intelligenza artificiale (AIWM) e i rischi psicosociali emergenti. Prodotto da un team internazionale di esperti, guidato da Óscar Molina dell’Università Autonoma di Barcellona, il report analizza le sfide poste da queste tecnologie per la salute e sicurezza occupazionale e il ruolo cruciale delle strutture di partecipazione e rappresentanza dei lavoratori.
I sistemi AIWM, definiti come strumenti che raccolgono dati in tempo reale su spazi, lavoratori e compiti per alimentare modelli basati su IA, possono generare decisioni automatizzate o semi-automatizzate. Tali sistemi presentano un significativo potenziale: possono migliorare l’organizzazione dei compiti, prevenire il burnout grazie a una gestione più attenta dei carichi di lavoro e delle pause e persino, in qualche modo, contribuire alla sicurezza sui luoghi di lavoro, monitorando lo stato di salute dei lavoratori o rilevando situazioni di rischio in tempo reale. Per esempio, alcune aziende hanno utilizzato tecnologie AI per distribuire i compiti in base alle competenze individuali, migliorando così l’efficienza e riducendo lo stress. Nonostante le opportunità, il report segnala anche rischi derivanti dall’uso di questi sistemi: l’intensificazione della sorveglianza (specialmente in relazione al Regolamento Generale sulla Protezione dei Dati – GDPR) o il rischio di riduzione dell’autonomia lavorativa.
Un aspetto centrale del report riguarda il ruolo delle strutture di partecipazione dei lavoratori, come i rappresentanti per la salute e la sicurezza, nel mitigare i rischi psicosociali. La partecipazione attiva dei lavoratori, nell’alveo anche dalla contrattazione collettiva e di un più generale dialogo sociale, può infatti contribuire a regolare l’uso delle tecnologie AIWM, promuovendo soluzioni condivise. La complessità e l’opacità di queste tecnologie, spesso percepite come una “scatola nera”, pongono sfide aprticolari, necessitando di un certo livello di conoscenze anche tecniche avanzate che possa consentire di interpretare le funzioni dei sistemi di IA e negoziare da un punto di vista informato sul loro utilizzo.
Il report evidenzia l’importanza di un quadro normativo adeguato. Esempi come la legislazione tedesca del 2021, che rafforza i diritti di co-determinazione dei consigli aziendali, o la legge sui rider in Spagna, che introduce obblighi di trasparenza per i sistemi algoritmici, dimostrano come un approccio regolatorio mirato possa migliorare la governance aziendale nel suo complesso. Tali normative offrono un quadro chiaro che facilita un’adozione responsabile delle tecnologie basate sull’IA, promuovendo trasparenza, equità e sostenibilità nei processi decisionali.