Nell’ambito della sua strategia digitale, l’UE intende regolamentare l’intelligenza artificiale (IA) per garantire condizioni migliori per il suo sviluppo e il suo utilizzo. A tal fine, ha definito una serie di norme, chiamate IA Act, volte a promuovere l’adozione di un’intelligenza artificiale incentrata sull’uomo e affidabile, fornendo una protezione da eventuali effetti dannosi per la salute, la sicurezza, i diritti fondamentali e la democrazia.
Con 499 voti a favore, 8 contrari e 93 astensioni, il Parlamento europeo ha perciò dato il via libera alle negoziazioni con gli Stati membri dell’UE così da poter determinare la forma finale di una legge sull’intelligenza artificiale. Le norme intendono garantire che l’IA sviluppata e utilizzata in Europa sia pienamente in linea con i diritti e i valori dell’UE, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale. Dopo il voto, il correlatore Brando Benifei (S&D, Italia) ha dichiarato:
Pratiche consentite
Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e per coloro che impiegano sistemi di IA a seconda del livello di rischio che l’IA stessa può generare. I sistemi con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero quindi vietati, come quelli utilizzati per il social scoring (classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali). I deputati hanno ampliato l’elenco così da includere divieti sugli usi intrusivi e discriminatori dell’IA, come per esempio:
in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
(come genere, razza, etnia, cittadinanza, religione, orientamento politico);
(basati su profilazione, ubicazione o comportamenti criminali passati);
Utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione
Per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Da sottolineare che la classificazione delle applicazioni ad alto rischio includerà i sistemi di IA che pongono danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. A questi si aggiungono anche i sistemi di IA utilizzati per influenzare gli elettori e l’esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti). Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante l’intero ciclo di vita.
L’IA generativa e
I fornitori dei modelli per l’addestramento dell’IA – uno sviluppo in rapida evoluzione – dovranno valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto) e registrare i modelli stessi nella banca dati dell’UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa basati su tali modelli, come ChatGPT, dovrebbero rispettare i requisiti di trasparenza (rivelando che il contenuto è stato creato dall’IA, aiutando anche a distinguere le immagini deep-fake da quelle reali) e fornire garanzie contro la generazione di contenuti illegali. Inoltre, dovrebbero essere resi pubblici dettagliati riepiloghi dei dati protetti da copyright utilizzati per l’addestramento.
Proteggere i diritti,
Nelle intenzioni del Parlamento europeo, l’IA Act non vuole però essere solo uno strumento volto a controllare che l’uso dell’IA non varchi limiti bene definiti. L’obiettivo è, infatti, far sì che agisca da stimolo per l’innovazione attraverso l’uso dell’IA e fornisca un sostegno alle PMI. In tal senso, i deputati europei hanno integrato esenzioni per le attività di ricerca e per i componenti dell’IA forniti con licenze open-source. La nuova legge promuove le regulatory sandbox, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima della sua diffusione.
Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che hanno un impatto significativo sui loro diritti fondamentali. È stato anche rivisto il ruolo dell’Ufficio dell’UE per l’IA, attribuendogli il compito di monitorare l’attuazione del regolamento sull’IA.
L’obiettivo del Parlamento è raggiungere un accordo definitivo sulla legge con i 27 membri dell’UE entro la fine dell’anno. Dopodiché l’IA Act potrà essere approvata e quindi diventare effettiva. L’iter prevede poi che, dopo l’approvazione, i Paesi membri abbiano 2 anni per recepire la legge UE a livello locale.
I piú letti
-
Doppia SIM su IPHONE: come funziona?
4115 condivisioni -
Tutti gli attacchi informatici portano all’esfiltrazione di dati
676 condivisioni -
Guida alla crittografia dei dati nel cloud
214 condivisioni -
System Administrator Salary : Quanto si può guadagnare ?
152 condivisioni -
VMware, Broadcom e la nuova dimensione del mercato della virtualizzazione. Tutto quello che serve sapere
145 condivisioni