Ampio focus su Il Sole 24 Ore nell’edizione del lunedì sull’Intelligenza Artificiale e il suo previsto impatto sulle aziende. Il quotidiano economico approfondisce diversi aspetti, dal personale ai contratti, per poi dedicare un approfondimento al cosiddetto Eu Ai Act, il primo regolamento sull’intelligenza artificiale, la prima al mondo sul tema.
L’unione Europea, nell’ambito della sua strategia digitale, ha inteso regolamentare l’IA allo scopo di sostenerne l’impiego in diversi ambiti, ipotizzando benefici per sanità, trasporti, produzione, energia. Nell’aprile 2021, la Commissione Europea ha proposto il primo quadro normativo dell’UE per l’IA partendo da una base: i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che rappresentano per gli utenti e questi diversi livelli di rischio saranno tradotti in una maggiore o minore regolamentazione.
La priorità del Parlamento europeo è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Attualmente, il regolamento europeo sull’intelligenza artificiale è definitivo e attende la pubblicazione in Gazzetta europea per entrare in vigore 20 giorni dopo. Gli effetti sono attesi nel giro di 3 anni. Il Ddl italiano, intanto, ha appena iniziato l’iter in Parlamento.
Così, Il Sole 24 Ore ha sintetizzato in 5 tappe i passaggi che attendono produttori-distributori di IA e coloro che la utilizzerà (e che già la usa): le imprese.
- La ricognizione: Mappare le tecnologie già presenti
- La classificazione: Misurare i livelli di rischio
- La qualificazione: Individuare il ruolo svolto dall’azienda
- La formazione: Training su uso e policy per le risorse umane
- La revisione: Adeguare i contratti con i fornitori
In particolare sul primo e sul secondo punto, le tappe più imminenti, sul giornale economico si legge: “Sei mesi dopo l’entrata in vigore scatta la prima scadenza importante. Da quel momento saranno vietati tutti i sistemi classificabili come a rischio inaccettabile sulla base dello stesso Ai Act. Tra questi, ad esempio, le tecnologie di polizia predittiva o per il riconoscimento delle emozioni sul luogo di lavoro”.
Sul sito del Parlamento Europeo è chiarito che i sistemi di intelligenza artificiale a rischio inaccettabile sono sistemi considerati una minaccia per le persone e saranno vietati. Tra questi: quelli che propongono una manipolazione cognitivo comportamentale di persone o specifici gruppi vulnerabili (giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini), quelli che classificano le persone in base al comportamento, allo stato socioeconomico o alle caratteristiche personali e, ancora, quei sistemi che provvedono all’identificazione biometrica e alla categorizzazione delle persone (es: riconoscimento facciale).
Quanto ai sistemi di IA considerati ad Alto rischio, il Parlamento UE considera quelli che incidono negativamente sulla sicurezza o sui diritti fondamentali. Sono di due categorie, ovvero: quelli catalogati nell’ambito della sicurezza dei prodotti dell’UE (es: dispositivi medici, ascensori, automobili) e quei sistemi che hanno a che fare con aree specifiche come istruzione e formazione professionale, occupazione, gestione dei lavoratori e accesso al lavoro autonomo, solo per citare quelle che riguardano più da vicino il mondo dell’impresa.
“Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante tutto il loro ciclo di vita. Le persone avranno il diritto di presentare reclami sui sistemi di IA alle autorità nazionali designate”, sostiene l’UE.
Tornando allìapprofondimento de Il Sole 24 Ore, l’autrice dell’articolo, Valeria Uva, si pone poi la domanda ‘Come si pongono i sistemi di intelligenza artificiale generativa, quali ad esempio ChatGpt o Gemini solo per citarne alcuni, rispetto alle regole Ue? L’Eu Ai Atc “prevede un set di regole ad hoc per tutti i «General purpose Ai model», ovvero i sistemi di intelligenza artificiale generativa, che possono essere classificati come a rischio semplice o sistemico. La capacità di apprendere di continuo in modo autonomo, come fanno ChatGpt e simili, è uno degli indici che può portare a qualificare un modello come a rischio sistemico, da trattare quindi con particolare cautela, anche se la definitiva classificazione sarà complessa e frutto dell’incrocio di più requisiti indicati dall’Ai Act”.
In merito, va ricordato che il Parlamento Ue sostiene: “L’intelligenza artificiale generativa, come ChatGPT, non sarà classificata come ad alto rischio, ma dovrà rispettare i requisiti di trasparenza e la legge sul copyright dell’UE. Ovvero Divulgare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuti illegali, prevedere la pubblicazione di riepiloghi dei dati protetti da copyright utilizzati per la formazione”.
Fonte: Il Sole 24 Ore