AI4PA Flash | 06.03.25 | L’impatto dell’Intelligenza Artificiale su economia, lavoro e giustizia. Opportunità e rischi

Notizie

“Intelligenza artificiale e persone: chi servirà chi?”

Un recente report Censis-Confcooperative analizza l’impatto dell’intelligenza artificiale sull’economia e sull’occupazione in Italia. Entro il 2035, l’IA potrebbe far crescere il PIL del 1,8% (+38 miliardi di euro), ma al contempo mettere a rischio 6 milioni di posti di lavoro, mentre altri 9 milioni di lavoratori vedrebbero l’IA integrarsi nelle loro mansioni.

Le professioni più esposte alla sostituzione sono quelle intellettuali automatizzabili, come contabili e tecnici bancari, mentre tra quelle con alta complementarità con l’IA figurano avvocati, magistrati e dirigenti. Le donne risultano più vulnerabili alla trasformazione tecnologica rispetto agli uomini.

L’Italia è in ritardo nell’adozione dell’IA rispetto agli altri Paesi europei: solo l’8,2% delle imprese italiane utilizza l’IA, contro il 19,7% della Germania e una media UE del 13,5%. Inoltre, l’Italia investe solo l’1,33% del PIL in ricerca e sviluppo, ben al di sotto della media UE del 2,33%.

Secondo Censis, il 20-25% dei lavoratori usa già strumenti di IA per attività lavorative come la stesura di e-mail, messaggi e rapporti, con una maggiore diffusione tra i più giovani. Entro il 2030, il 27% delle ore lavorate in Europa sarà automatizzato, con settori come ristorazione, supporto d’ufficio e produzione tra i più colpiti, mentre sanità e management resteranno meno impattati.

“Una fabbrica d’intelligenza artificiale attenta al bene comune”

Sul Sole 24 Ore del 2 marzo, Antonio Larizza, si racconta la trasformazione del Tecnopolo di Bologna in una delle più grandi AI Factory europee, coordinata dal Cineca e finanziata con 430 milioni di fondi UE. L’obiettivo è rendere i centri di supercalcolo non solo infrastrutture di calcolo avanzato, ma veri e propri ecosistemi di ricerca e innovazione, accessibili a imprese e istituzioni.

L’AI Factory offrirà potenza di calcolo gratuita per sviluppare un’intelligenza artificiale europea, fornendo servizi per la conformità all’AI Act, la sperimentazione tecnologica e applicazioni in ambiti come cybersecurity e agritech.

Secondo Francesco Ubertini, presidente del Cineca, questa trasformazione è cruciale per garantire che il supercalcolo resti un bene comune, evitando che il controllo dell’AI finisca nelle mani di pochi privati. Grazie alla più grande infrastruttura pubblica di supercalcolo al mondo, l’Europa punta a un’AI sicura, etica e aperta, capace di accelerare il progresso scientifico e tecnologico.

“L’intelligenza artificiale una possibile strada per ridurre il turn over”

Sul Sole 24 Ore del 5 marzo Cristina Casadei, si analizza l’impatto dell’intelligenza artificiale generativa sul mondo del lavoro, secondo la EY Work Reimagined Survey 2024, che ha coinvolto oltre 17.000 lavoratori e 1.600 datori di lavoro in 27 settori e 23 Paesi, inclusa l’Italia.

L’80% delle imprese italiane utilizza già l’AI generativa, con punte del 100% nei servizi professionali e nelle scienze della vita. L’introduzione di questa tecnologia ha migliorato la produttività e il benessere lavorativo, con il 27% dei lavoratori italiani che segnala un impatto positivo, superiore alla media mondiale del 23%.

Secondo Andrea D’Acunto (EY Italia), se integrata correttamente nei processi aziendali, l’AI non sostituisce il lavoro umano, ma lo ottimizza, migliorando la concentrazione e riducendo il turnover, soprattutto tra i millennials, più propensi a cambiare settore. Tuttavia, la trasformazione dipende dagli investimenti in formazione: il 58% di chi utilizza l’AI in azienda valuta eccellenti i programmi di aggiornamento, segnalando l’importanza dello sviluppo di nuove competenze.

“Contro i rischi dell’AI serve una precisa policy interna”

Sul Sole 24 Ore del 6 marzo, Giovanni De Gregorio, Giulia Gentile e Oreste Pollicino, si analizzano i rischi derivanti dall’uso indiscriminato dell’intelligenza artificiale negli studi legali e la necessità di regolamentazione interna.

Un recente caso negli Stati Uniti ha evidenziato come due avvocati abbiano presentato citazioni inesistenti in un documento legale, basandosi su strumenti di AI, portando a un provvedimento disciplinare. Episodi simili, come i casi Mata v. Avianca e United States v. Cohen, dimostrano che errori generati dall’AI possono compromettere la credibilità legale e professionale.

Gli studi legali stanno sempre più adottando strumenti di AI per attività di ricerca giurisprudenziale e revisione contrattuale, ma senza adeguati controlli questi sistemi possono generare informazioni inattendibili, con rischi per clienti e professionisti. Alcuni studi, come Hill Dickinson, hanno già limitato l’uso dell’AI solo previa autorizzazione.

Gli autori sottolineano la necessità per gli studi legali di definire policy interne e strumenti di verifica, mentre gli ordini professionali, come dimostrato dall’Ordine degli Avvocati di Milano, dovrebbero fornire linee guida per garantire un uso responsabile dell’AI nel settore legale. La soluzione non è vietarne l’uso, ma sviluppare consapevolezza e responsabilità affinché l’AI sia un supporto e non un rischio per la giustizia.