Il 16 luglio scorso ha preso il via in Senato il nuovo esame del disegno di legge governativo recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, già approvato in prima lettura dallo stesso ramo del Parlamento il 20 marzo 2025 (Atto Senato n. 1146) e, successivamente, licenziato con modifiche dalla Camera il 25 giugno 2025 (Atto Camera n. 2316)[1]. Il provvedimento va letto in una relazione di complementarietà alle recenti disposizioni comunitarie in materia di intelligenza artificiale, segnatamente al Regolamento (UE) 2024/1689, altrimenti noto come “AI Act”[2], con il quale si integra[3] e di cui rappresenta l’estensione attuativa in riferimento agli “aspetti tipici della realtà socio-economica nazionale, ai profili non espressamente coperti dalla normativa unionale e a quelli che quest’ultima rimette proprio alla disciplina dei singoli Stati membri”[4].
In tale ottica, i contenuti del progetto di legge in esame appaiono strettamente correlati ai macro-obiettivi indicati nella Strategia Italiana per l’Intelligenza Artificiale 2024-2026[5] definita dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio e dall’Agenzia per l’Italia Digitale, e precisamente: “Sostenere la realizzazione e l’adozione di applicazioni di IA per supportare pratiche gestionali, modelli produttivi e progetti di innovazione”[6]; “Promuovere le attività di ricerca scientifica funzionale e applicata”[7]; implementare “un sistema di formazione che punti all’eccellenza, sulla crescita di talenti in possesso di competenze coerenti con lo scenario emergente e l’efficientamento dei servizi della Pubblica Amministrazione”[8]. Peraltro, al fine di inquadrare meglio il contesto economico di riferimento nel quale si colloca il progetto di legge in esame può giovare, in via preliminare, la lettura delle osservazioni contenute del dossier di documentazione predisposto dai Servizi studi della Camera e del Senato (vedi link nella nota n. 4).
Appare significativo, ad esempio, il riferimento iniziale alle dimensioni raggiunte dal mercato dell’intelligenza artificiale nel 2024, pari a 1,2 miliardi di euro nel 2024 e con una crescita del 58% rispetto al 2023, secondo i dati riportati dell’Osservatorio Artificial Intelligence del Politecnico di Milano. Nello stesso tempo, tuttavia, si sottolineano le difficoltà nell’adozione delle soluzioni di intelligenza artificiale presso le realtà produttive di minori dimensioni, fra le quali “solo il 7 per cento delle piccole e il 15 per cento delle medie imprese ha avviato progetti”, nonché la “lenta integrazione della pubblica amministrazione che, nonostante un tasso di crescita generale, anno su anno, superiore al 100 per cento, contribuisce al 6 per cento del mercato”[9].
Per effetto delle modifiche introdotte nel corso delle prime due letture parlamentari, il disegno di legge si compone ora di 28 articoli, suddivisi in 6 Capi[10], il cui filo conduttore è rappresentato dal sostegno allo sviluppo di sistemi di intelligenza artificiale basati su una “visione antropocentrica”, nonché sui “principi di trasparenza, responsabilità, equità e rispetto per i diritti fondamentali, che garantiscono un equilibrio tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro impiego dannoso e anche al loro sottoutilizzo”[11]. In attesa che il progetto di legge completi il suo iter parlamentare e giunga all’approvazione definitiva, approfondiremo i contenuti di alcuni articoli che riguardano il mondo del lavoro e, segnatamente, l’attività della pubblica amministrazione. Per tale via, si cercherà di mettere in luce i complessi risvolti che l’impiego dei sistemi di intelligenza artificiale può recare in ordine alla tutela della riservatezza dei dati sensibili e di responsabilità per le conseguenze di eventuali errori a loro danno in esito a procedimenti supportati in tutto o in parte dagli algoritmi.
Preliminarmente, ci sembra interessante segnalare i contenuti dell’articolo 8, concernente “Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario”[12], che affronta il tema del trattamento dei dati personali da parte di soggetti, pubblici e privati, che operano nel settore sanitario nell'ambito di progetti per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità di prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, ecc.[13], necessari ai fini della realizzazione e dell'utilizzazione di “banche di dati e modelli di base”. Le informazioni personali raccolte a tali fini sono dichiarate “di rilevante interesse pubblico in attuazione degli articoli 32 e 33 della Costituzione”[14] e, conseguentemente, ne viene sempre autorizzato l'uso “secondario”, purché i dati personali siano privi di elementi identificativi diretti. Nello stesso tempo, inoltre, viene semplificata al massimo la procedura per soddisfare l’obbligo di richiedere l’autorizzazione dei proprietari (cioè dei cittadini) delle informazioni da mettere a disposizione della ricerca e della sperimentazione scientifica, “che può essere assolto anche mediante un'informativa generale messa a disposizione nel sito web del titolare del trattamento e senza ulteriore consenso dell'interessato”, tranne i casi in cui “la conoscenza dell'identità degli interessati sia inevitabile o necessaria al fine della tutela della loro salute”.
Con riferimento all’uso dell’intelligenza artificiale in ambito lavorativo, l’articolo 11 (“Disposizioni sull'uso dell'intelligenza artificiale in materia di lavoro”) esordisce con una condivisibile affermazione di principio, secondo la quale l’uso dell’intelligenza artificiale deve essere finalizzato a migliorare le condizioni di lavoro, tutelare l'integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone. Si avverte invero la mancanza di un riferimento alla necessità di fissare e rendere esigibile in ogni realtà lavorativa la corrispondenza fra crescita produttiva legata all’impiego di macchine intelligenti e incremento dei livelli retributivi; riferimento che, in un contesto non ancora estesamente presidiato dalla regolazione pattizia, rappresenterebbe un utile indirizzo da parte del legislatore a sostegno delle politiche contrattuali nei settori interessati. Peraltro, l’impostazione prevalentemente ‘difensiva’ della norma sembra emergere anche dal successivo divieto di lesione dei “diritti inviolabili della dignità umana e della riservatezza dei dati personali” da parte di sistemi di intelligenza artificiale[15], nonché dal richiamo all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152, in materia di obblighi informativi nei confronti del lavoratore da parte del datore di lavoro[16]. Infine, all'intelligenza artificiale (che in questo caso, curiosamente, sembra diventare soggetto giuridico attivo) viene affidato il compito di garantire “l'osservanza dei diritti inviolabili del lavoratore” nell'organizzazione e nella gestione del rapporto di lavoro, astenendosi da ogni genere di discriminazione riguardo a sesso, età, origini etniche, credo religioso, orientamento sessuale, opinioni politiche e condizioni personali, sociali ed economiche.
Strettamente correlato al precedente, l’articolo 12 (“Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro”) istituisce presso il Ministero del lavoro[17] e delle politiche sociali uno speciale organismo collegiale, presieduto dal Ministro del lavoro, a cui viene demandato il (non facile) compito di “definire una strategia sull'utilizzo dell'intelligenza artificiale in ambito lavorativo, monitorare l'impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dall'avvento dell'intelligenza artificiale”. A questa lista di attività già di per sé piuttosto complesse, si aggiunge la “formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale”, sebbene il legislatore non fornisca alcuna indicazione rispetto alle modalità e agli strumenti con cui il nuovo organismo provvederà a tale incarico[18].
L’articolo 14 (“Uso dell'intelligenza artificiale nella pubblica amministrazione”) introduce per la prima volta nel nostro ordinamento legislativo il tema dell’utilizzo dell’intelligenza artificiale nel settore pubblico in quanto espressamente finalizzato all’incremento dell’efficienza, alla riduzione dei tempi dei procedimenti amministrativi e all’aumento della qualità e della quantità dei servizi erogati a cittadini e imprese.
L’impiego degli algoritmi dovrà quindi avvenire “in funzione strumentale e di supporto all’attività provvedimentale”, il che esclude, evidentemente, qualunque prospettiva di completa autonomia decisionale delle macchine intelligenti in ordine all’esito dei procedimenti amministrativi trattati, senza però fornire elementi utili a definire con chiarezza il perimetro effettivo della loro funzionalità. La norma si limita qui a prescrivere l’obbligo per le amministrazioni pubbliche di rendere conoscibile “agli interessati” il funzionamento dei sistemi di intelligenza artificiale adottati e la “tracciabilità” del suo utilizzo.
Non è difficile, a nostro avviso, rinvenire proprio in questo passaggio uno dei maggiori fattori di criticità dell’intero provvedimento, dal momento che il funzionamento profondo dei sistemi algoritmici risulta spesso di difficile comprensione e spiegazione innanzitutto per coloro che lo utilizzano, così come il tracciamento analitico di tutte le fasi di elaborazione automatica di dati che precedono la definizione dei procedimenti in cui sia stata utilizzata l'intelligenza artificiale[19]. Il richiamo al “rispetto dell’autonomia e del potere decisionale della persona”, in questo caso del pubblico dipendente (che, non casualmente, è indicato come “responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l'intelligenza artificiale”), appare del tutto coerente con l’ispirazione antropocentrica che informa dall’inizio alla fine il progetto di legge, ma rischia di indebolirsi di fronte alla concreta necessità del decisore pubblico di assicurare la trasparenza e la piena conoscibilità delle regole espresse “in un linguaggio differente da quello giuridico”[20].
Occorre chiedersi se, allo stato attuale, le strutture operative della pubblica amministrazione siano in grado di esprimere le professionalità e le competenze necessarie ad attuare un controllo costante e retroattivo dei processi algoritmici profondi che sottostanno alle decisioni robotizzate e impattano sull’esito delle procedure amministrative, ovvero sugli interessi legittimi dei destinatari delle decisioni stesse. Prevedere, come fa il comma 3 dell’art. 14, che le pubbliche amministrazioni adottino “misure tecniche, organizzative e formative finalizzate a garantire un utilizzo responsabile dell'intelligenza artificiale e a sviluppare le capacità trasversali degli utilizzatori” è senza dubbio opportuno, ma non è sufficiente a delineare una strategia per scongiurare il verificarsi di episodi di ‘loop algoritmico’ come quello che, ad esempio, alimentò il contenzioso susseguente ai ricorsi dei docenti contro la scarsa trasparenza del meccanismo robotizzato di assegnazioni delle cattedre in attuazione della legge 107/2015 (c.d. “Buona scuola”)[21].
Anche sulla scorta di simili precedenti, occorre affrontare (a nostro avviso, con una certa urgenza) il tema dell’applicazione del “principio di non esclusività della decisione algoritmica”, che discende dalla normativa europea[22] e prevede che, nel caso di procedimenti amministrativi che comportano l’uso di macchine intelligenti (e indipendentemente dal fatto che in sede giudiziaria siano accertati errori degli algoritmi), “l'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. Ne discende, sempre ad avviso del Consiglio di Stato[23], “un ulteriore principio fondamentale di non discriminazione algoritmica” che suggerisce l’utilizzo di opportune misure tecniche e organizzative in fase di profilazione per garantire “che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori”.
Alla luce delle nuove possibilità di impiego degli algoritmi nell’esercizio dell’attività amministrativa, per effetto del ‘combinato disposto’ delle novità introdotte dall’IA Act e dal progetto di legge di cui abbiamo brevemente esaminato alcuni aspetti, le pubbliche amministrazioni devono prepararsi ad affrontare una nuova e più complessa mole di lavoro legata alla gestione dei sistemi di intelligenza artificiale e alla continua verifica della loro piena conoscibilità e trasparenza, che implica anche un salto non trascurabile dei livelli di responsabilità per il personale addetto alla cura dei procedimenti. Considerando che le amministrazioni dovrebbero provvedere all’attuazione di tutti i nuovi adempimenti “con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente”, non resta che prepararsi ad affrontare una stagione piuttosto impegnativa: sicuramente foriera di novità per quanto riguarda l’uso delle nuove tecnologie, ma non necessariamente di maggiore fluidità e semplificazione dell’attività amministrativa a carico delle strutture pubbliche.
[1] Il provvedimento (ora Atto Senato n. 1146-B) è assegnato dal 2 luglio 2025 alle Commissioni riunite 8ª (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) e 10ª (Affari sociali, sanità, lavoro pubblico e privato, previdenza sociale).
[2] “Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale)”, pubblicato sulla G.U. dell’Unione Europea del 12 luglio 2024.
[3] Così l’art. 1 (“Finalità e ambito di applicazione”), comma 2, del progetto di legge: “Le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024”.
[4] Senato della Repubblica, Servizio studi, dossier n. 289-4, pag. 4.
[6] “In particolare”, prosegue la Strategia, “sarà rilevante realizzare attività progettuali e infrastrutture dati finalizzate a sviluppare sistemi di IA in una prospettiva country-specific, in grado di preservare i differenziali competitivi delle nostre eccellenze, evitando una loro diluizione conseguente all’importazione di sistemi sviluppati in altri Paesi” (AGID, Strategia italiana per l’intelligenza artificiale 2024-2026, pag. 4).
[7] Sotto tale aspetto, oltre ad incentivare la “connessione delle nostre unità di ricerca operanti su scala nazionale con le grandi piattaforme di sviluppo operative a livello internazionale”, la Strategia italiana sottolinea la necessità di favorire “lo sviluppo di applicazioni di IA coerenti con il fabbisogno di natura competitiva del sistema Paese”, promuovendo altresì “lo sviluppo e l’utilizzo dell’IA anche a sostegno di iniziative mirate al benessere sociale, con applicazioni – ad esempio – nel sistema del welfare, nella tutela del patrimonio ambientale e culturale italiano, nei processi educativi e nella salute” (AGID, Strategia italiana per l’intelligenza artificiale 2024-2026, pag. 5).
[8] AGID, Strategia italiana per l’intelligenza artificiale 2024-2026, pag. 4.
[9] Dossier Senato n. 289 4, pag. 3. Tale principio è altresì tradotto normativamente in modo chiaro dal testo dell’art. 5 (“Principi in materia di sviluppo economico”), comma 1, emendato alla Camera, che recita: “Lo Stato e le altre autorità pubbliche promuovono lo sviluppo e l’utilizzo dell'intelligenza artificiale come strumento per migliorare l'interazione uomo-macchina, anche mediante l'applicazione della robotica, nei settori produttivi, la produttività in tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile all'avvio di nuove attività economiche e di supporto al tessuto nazionale produttivo, costituito principalmente di microimprese e di piccole e medie imprese, al fine di accrescere la competitività del sistema economico nazionale e la sovranità tecnologica della Nazione nel quadro della strategia europea”.
[10] Capo I - Principi e finalità: stabilisce i principi fondamentali per l’uso dell’intelligenza artificiale nei settori produttivi e di difesa; Capo II - Disposizioni di settore: disciplina l’applicazione dell’IA nel sistema sanitario, nella ricerca scientifica, nel lavoro, nella pubblica amministrazione e nell’attività giudiziaria, per promuovere tutele di trattamento e misure di protezione dei dati personali e garantire che non si verifichino discriminazioni. Contiene anche una delega al Governo per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento dei sistemi di IA; Capo III - Strategia nazionale, Autorità nazionali e azioni di promozione: prevede misure inerenti alla redazione e all’aggiornamento della Strategia nazionale per l’IA e designa l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) quali autorità nazionali per l’intelligenza artificiale. normativa nazionale ed unionale; Capo IV - Disposizioni a tutela degli utenti e in materia di diritto d’autore: contiene misure per assicurare la regolamentazione dell’uso dell’IA per l’estrazione e la manipolazione di contenuti, ed estende la protezione sui diritti d’autore anche alle opere create con l’ausilio dell’IA; Capo V - Disposizioni penali: prevede l’introduzione di modifiche al codice penale per punire l’uso illecito dell’IA, con responsabilità penale per chi diffonde contenuti generati con IA in modo ingannevole e per chi utilizza l’IA in modo da compromettere la sicurezza o l’integrità di persone o sistemi; Capo VI - Disposizioni finanziarie e finali.
[11] Dossier Senato n. 289-4, pag. 5.
[12] Questo articolo si colloca in continuità con i principi generali enunciati nel precedente art. 7 (“Uso dell’intelligenza artificiale in ambito sanitario e di disabilità”), in particolare con la dichiarata finalità di promuovere lo sviluppo, lo studio e la diffusione di sistemi di intelligenza artificiale, poiché migliorano le condizioni di vita delle persone con disabilità e “costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica”.
[13] La lista prosegue con: “realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente, salute pubblica, incolumità della persona, salute e sicurezza sanitaria nonché studio della fisiologia, della biomeccanica e della biologia umana anche in ambito non sanitario.
[14] Articolo 32 Cost.: “La Repubblica tutela la salute come fondamentale diritto dell'individuo e interesse della collettività, e garantisce cure gratuite agli indigenti. Nessuno può essere obbligato a un determinato trattamento sanitario se non per disposizione di legge. La legge non può in nessun caso violare i limiti imposti dal rispetto della persona umana”.
Articolo 33 Cost.: “L'arte e la scienza sono libere e libero ne è l'insegnamento. La Repubblica detta le norme generali sull'istruzione ed istituisce scuole statali per tutti gli ordini e gradi. Enti e privati hanno il diritto di istituire scuole ed istituti di educazione, senza oneri per lo Stato. La legge, nel fissare i diritti e gli obblighi delle scuole non statali che chiedono la parità, deve assicurare ad esse piena libertà e ai loro alunni un trattamento scolastico equipollente a quello degli alunni di scuole statali. È prescritto un esame di Stato per l'ammissione ai vari ordini e gradi di scuole o per la conclusione di essi e per l'abilitazione all'esercizio professionale. Le istituzioni di alta cultura, università ed accademie, hanno il diritto di darsi ordinamenti autonomi nei limiti stabiliti dalle leggi dello Stato. La Repubblica riconosce il valore educativo, sociale e di promozione del benessere psicofisico dell’attività sportiva in tutte le sue forme.
[15] “A tal riguardo l’impiego della nuova tecnologia in ambito lavorativo deve possedere i caratteri della sicurezza, dell’affidabilità e della trasparenza. Inoltre, con specifico riferimento a quest’ultimo elemento, la norma prevede che il datore sia tenuto a fornire al lavoratore un’informativa trasparente sugli ambiti di impiego di sistemi di IA” (Dossier Senato n. 289-4, pag. 16).
[16] Per completezza di informazione ricordiamo che l’art. 1-bis (“(Ulteriori obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati”) del decreto 152 stabilisce, al comma 1, che il datore di “lavoro o il committente pubblico e privato è tenuto a informare il lavoratore dell'utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini della assunzione o del conferimento dell'incarico, della gestione o della cessazione del rapporto di lavoro, dell'assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l'adempimento delle obbligazioni contrattuali dei lavoratori.
[17] Gli altri componenti dell’Osservatorio, che presumibilmente saranno scelti fra rappresentanti del mondo produttivo e scientifico, saranno stabiliti entro 90 giorni dall’entrata in vigore della legge con apposito decreto ministeriale. Ricordiamo, peraltro, che dal maggio scorso è disponibile sul sito del Ministero del lavoro una prima versione on-line dell’Osservatorio nella quale, fra le diverse informazioni fornite, si evidenzia la collaborazione con l’Istituto Nazionale per l’Analisi delle Politiche Pubbliche (INAPP) “per sviluppare una strategia integrata sull'utilizzo dell’IA nel mercato del lavoro” (https://www.lavoro.gov.it/pagine/osservatorio-sulladozione-di-sistemi-di-intelligenza-artificiale-nel-mondo-del-lavoro).
[18] Al riguardo, mette conto segnalare che sul ricordato Osservatorio on-line del Ministero (cfr. nota precedente) si legge: “Un aspetto centrale del lavoro dell’Osservatorio è la formazione. Per permettere a lavoratori e aziende di sfruttare al meglio le opportunità offerte dall’Intelligenza Artificiale, l’Osservatorio individua le competenze più richieste dal mercato e promuove iniziative formative mirate alla riqualificazione professionale. L’Osservatorio (…) raccoglie e analizza dati specifici sull’utilizzo dell’IA in diversi settori economici, confrontando la situazione italiana con esperienze internazionali e individuando le pratiche migliori da adottare”.
[19] Il problema della scarsa trasparenza di molti sistemi algoritmici è ben noto, così come i risvolti che ne possono derivare, in termini di aumento della complessità dell’azione amministrativa, a seguito del sempre più diffuso utilizzo dell’intelligenza artificiale in funzione di supporto all’attività provvedimentale delle pubbliche amministrazioni. Al riguardo, ci permettiamo di rimandare a: M. Biagiotti, “Intelligenza artificiale e diritti sociali: la mitografia alla prova dei fatti”, in La Critica Sociologica, LVIII, 232, inverno 2024, pp. 61-74 ed alla relativa appendice bibliografica
[20] Dossier Senato n. 289-4, pag. 51.
[21] Come si ricorderà, quel contenzioso amministrativo si risolse con l’emanazione della sentenza del Consiglio di Stato, Sezione VI, 8-4-2019, n. 2270, che riconobbe la mancanza di trasparenza dell’algoritmo come “vizio insanabile” della procedura di assegnazione delle cattedre.
[22] Art. 22 del Regolamento generale sulla protezione dei dati (GDPR) - Reg. UE 27 aprile 2016, n. 679.
[23] Sentenza del Consiglio di Stato, Sezione VI, 13 dicembre 2019, n. 8472.
[*] Dipendente del Ministero del Lavoro dal 1984 al 2009 e, dal 2009 ad oggi, del Consiglio Nazionale dell’Economia e del Lavoro. Ha collaborato alla realizzazione della collana di volumi “Lavoro e contratti nel pubblico impiego” per la UIL Pubblica Amministrazione. Dal 1996 al 2009 è stato responsabile del periodico di informazione e cultura sindacale “Il Corriere del Lavoro”. Dal 2011 al 2023 ha collaborato alla redazione del notiziario “Mercato del lavoro e Archivio nazionale dei contratti collettivi” del CNEL.
Seguiteci su Facebook