AI4PA Flash – 18/02/2025

Notizie

Potere pubblico e IA: trasparenza e responsabilità nelle decisioni amministrative

Il Sole 24 Ore, 18 febbraio – Michele Corradino, Presidente di Sezione del Consiglio di Stato, e Michele Garrone, Il Comunicatore, analizzano l’impatto dell’intelligenza artificiale sull’azione pubblica, evidenziando le sfide legate alla trasparenza e alla legalità algoritmica. La giurisprudenza del Consiglio di Stato riconosce l’uso di sistemi automatizzati, ma ne vincola l’applicazione al rispetto di principi fondamentali per evitare decisioni opache o discriminatorie. Con l’IA basata su deep learning, il processo decisionale diventa meno ricostruibile, aumentando il rischio di un’illusione di controllo umano. La qualità dei dati è cruciale per garantire affidabilità, così come il ruolo della Pubblica Amministrazione nello sviluppo di strumenti su misura. Anche la sicurezza delle infrastrutture digitali emerge come una questione strategica per la protezione dei dati pubblici.

“Il polo di Bologna attiverà progetti da 2 miliardi sull’artificial intelligence”

Il Sole 24 Ore, 18 febbraio (Luca De Biase) – Bologna si afferma come hub strategico per l’intelligenza artificiale con l’AI Factory, un’iniziativa che mobiliterà 2 miliardi di euro in investimenti. Al centro del progetto c’è un supercomputer da 430 milioni di euro, pensato per supportare startup e imprese nello sviluppo di modelli avanzati.

L’iniziativa si inserisce in un piano europeo più ampio, con 10 miliardi di euro di investimenti pubblici annunciati dalla Commissione Europea, a cui si aggiungono 200 miliardi di fondi pubblico-privati per potenziare l’infrastruttura di calcolo necessaria allo sviluppo dell’IA.

Durante un convegno organizzato dal Comune di Bologna e Confindustria Emilia Centro, esperti e istituzioni hanno discusso il ruolo dell’IA nell’industria e nella ricerca, sottolineando l’importanza di un’autonomia tecnologica europea. Il progetto punta a integrare il Tecnopolo di Bologna in una rete più ampia di poli regionali per l’innovazione.

“L’Ue vuole regole di sicurezza per l’intelligenza artificiale”

Il Sole 24 Ore, 18 febbraio (Beda Romano) – La regolamentazione del mondo digitale deve garantire un ecosistema equo, sicuro e democratico, afferma Henna Virkkunen, vicepresidente della Commissione europea per la sovranità digitale e la sicurezza.

Nel contesto delle tensioni geopolitiche tra Stati Uniti e Unione Europea, il tema della governance del digitale assume un ruolo centrale. L’UE ha adottato normative come il Digital Services Act e il Digital Markets Act, mentre l’AI Act disciplina l’intelligenza artificiale in base ai livelli di rischio. Virkkunen sottolinea che la certezza del diritto non deve entrare in conflitto con la promozione dell’innovazione.

Bruxelles prosegue nella definizione di un quadro normativo che bilanci sicurezza e progresso tecnologico, confermando l’intenzione dell’Europa di affermarsi come modello di riferimento nella regolamentazione digitale.