L’1 agosto 2024 l’Unione Europea ha siglato e presentato il primo regolamento sull'intelligenza artificiale, che rappresenta, ad oggi, un unicum nel mondo della regolamentazione dell’AI. La normativa (anche conosciuta come AI Act) stabilisce un perimetro legale comune a tutti i Paesi dell’UE per garantire un utilizzo sicuro, etico e trasparente dell’intelligenza artificiale.
Entrerà ufficialmente in vigore il 2 agosto 2027, tra 3 anni, e si applicherà al settore pubblico e privato, all’interno e all’esterno dell’Unione Europea, fintanto che il sistema di AI è presente sul mercato dell’UE e/o ha impatti diretti sulla cittadinanza dell’Unione.
Di conseguenza, tutte le aziende che sviluppano e/o utilizzano sistemi di intelligenza artificiale dovranno adeguarsi alla normativa.
Le disposizioni legislative del regolamento sull’AI promuovono l’equilibrio tra regolamentazione e innovazione. Se da un lato, infatti, il regolamento fa luce sui potenziali rischi di questa tecnologia e pone le basi per un utilizzo e sviluppo responsabile, dall’altro garantisce l’affidabilità di questi strumenti e ne promuove l’adozione da parte di aziende e istituzioni.
Non solo. Aziende e investitori avranno anche a disposizione incentivi per creare un ambiente di ricerca e innovazione stabile e sicuro.
Grazie alla promozione dello sviluppo di un’AI responsabile, il regolamento darà una spinta importante al settore in tutta l’Unione Europea.
In questo articolo abbiamo analizzato i contenuti del regolamento sull’intelligenza artificiale e abbiamo dato alcuni suggerimenti su come arrivare preparati all’entrata in vigore della normativa.
Che cos’è il regolamento sull’intelligenza artificiale?
Il regolamento sull'intelligenza artificiale è un insieme di norme UE che mette in luce i potenziali rischi dell’AI e che promuove lo sviluppo, l’implementazione e l’utilizzo responsabile di queste tecnologie.
Secondo la Commissione Europea, l’obiettivo è mitigare i rischi legati alla sicurezza e ai diritti fondamentali dell’essere umano tutelando allo stesso tempo la democrazia, lo stato di diritto e l’ambiente.
Il regolamento suddivide i sistemi di intelligenza artificiale in base a quattro diversi livelli di rischio e stabilisce per ognuno delle regole precise.
Si applicherà a tutte le aziende, indipendentemente dal fatto che sviluppino, implementino, distribuiscano, vendano o utilizzino l’AI; saranno invece esclusi i sistemi utilizzati per scopi militari, di difesa, di ricerca e di innovazione.
AI: che cosa significa
Secondo il regolamento sull’AI, l’intelligenza artificiale è:
“Qualsiasi sistema basato su macchine che opera autonomamente e genera output quali previsioni, consigli o decisioni che possono influenzare l’ambiente fisico o virtuale.”
Gli Stati membri dell’UE si erano già mossi in favore della protezione dei diritti fondamentali contro le discriminazioni. Questo regolamento rappresenta un ulteriore passo avanti. Con l’integrazione di criteri di responsabilità e trasparenza per i sistemi di AI ad alto rischio, sarà più facile individuare e investigare le violazioni della sicurezza, semplificando il processo di determinazione della conformità dell’AI.
Perché il regolamento sull’AI è importante?
Il regolamento sull’AI poggia su una base concettuale chiara: i cittadini e le cittadine dell’Unione Europea devono potersi fidare della tecnologia che utilizzano.
La maggior parte delle tecnologie di AI che usiamo ogni giorno a lavoro e nella vita privata sono affidabili e offrono un supporto prezioso. Ci sono, però, degli strumenti che, in determinati contesti, pongono dei rischi per la persona, come violazione della privacy e decisioni influenzate da pregiudizi, e devono quindi essere riconosciuti e regolamentati, per evitare conseguenze dannose. Il regolamento si pone come obiettivo di mitigare questi rischi, accrescere la fiducia nei sistemi di AI per le aziende e proteggere le persone.
Ad esempio, le risorse umane possono servirsi dell’intelligenza artificiale per automatizzare l’analisi delle candidature e dei curriculum e velocizzare il processo di selezione. Per garantire un processo equo e privo di discriminazioni, il regolamento prevede una valutazione trasparente e accurata degli algoritmi utilizzati dallo strumento.
Allo stesso modo, se una banca utilizza l’AI per analizzare il rischio di credito e valutare le approvazioni di prestiti, alcuni algoritmi potrebbero riflettere dei pregiudizi presenti in dati storici e, di conseguenza, penalizzare determinate fasce della popolazione. Il regolamento sull’AI mira a mitigare proprio questo rischio attraverso valutazioni di natura etica e controlli scrupolosi.
In altre parole, il nuovo regolamento eleva gli standard di sicurezza e affidabilità dell’intelligenza artificiale creata e utilizzata sul territorio UE, vietando l’utilizzo di strumenti potenzialmente rischiosi e stabilendo obblighi specifici per chi usa e vende l’AI.
Obiettivi del regolamento sull’intelligenza artificiale
A. Salvaguardare la sicurezza e i diritti fondamentali della persona
Il regolamento ha come obiettivo primario la tutela della salute, della sicurezza e dei diritti fondamentali di persone e aziende dalle potenziali minacce di alcuni sistemi di AI. Tra queste, l’imparzialità nel processo decisionale e la protezione dei dati, per garantire sistemi di AI più affidabili.
B. Promuovere l’innovazione
Oltre a stabilire regole per l’AI ad alto rischio, il regolamento si propone anche di fornire un perimetro chiaro per promuovere l’evoluzione di questa tecnologia e incoraggiare gli investimenti. Le aziende conformi al regolamento avranno dalla loro un vantaggio competitivo che permetterà di crescere e innovarsi.
C. Accrescere la trasparenza e l’affidabilità
Tra le misure per una maggiore trasparenza e affidabilità dell’AI, il regolamento include requisiti di documentazione, conservazione dei registri e condivisione chiara delle informazioni con gli utenti riguardo al sistema di AI che stanno utilizzando. Questo significa che se una persona interagisce con un’AI (ad esempio un chatbot) deve esserne informata dall’azienda in questione o se produce un contenuto con il supporto dell’AI è tenuta a comunicarlo pubblicamente. In questo modo aumenta anche la fiducia dei clienti nei confronti dell’azienda.
D. Rafforzare la governance
Il regolamento sull’intelligenza artificiale stabilisce una struttura di governance sia a livello UE sia nazionale per tutti e 27 i Paesi membri, al fine di supervisionare la corretta attuazione e applicazione delle normative. Inoltre, sarà responsabile di garantire che tutti i sistemi di AI presenti sul mercato siano conformi. Di conseguenza, quando un’azienda in UE decide di introdurre uno strumento di AI, dovrà assicurarsi che sia conforme.
Tipologie di rischio
Ci sono quattro tipologie di rischio, ognuna con regole diverse applicabili a ogni sistema di AI che opera nell’Unione:
1. Rischio inaccettabile
Tutti i sistemi di AI i cui rischi vengono considerati inaccettabili saranno vietati nell’Unione Europea. Tra questi, l’intelligenza artificiale usata per prevedere reati prima che vengano commessi, i sistemi di identificazione biometrica in tempo reale, i sistemi per la lettura delle immagini facciali su internet o ancora per la videosorveglianza per il riconoscimento facciale. Questa categoria prevede molte eccezioni e molti sistemi di AI saranno valutati caso per caso.
2. Rischio alto
I sistemi di AI ad alto rischio saranno autorizzati, ma soggetti a controlli rigorosi e a una serie di requisiti e obblighi per poter essere ammessi nel mercato UE. Per garantire ottemperanza al regolamento, le aziende che utilizzano sistemi di questi tipo dovranno prepararsi a una revisione scrupolosa, che includa valutazione dei rischi relativi ai diritti fondamentali, training e supporto allo staff responsabile del monitoraggio dei sistemi di AI ad alto rischio e documentazione dei risultati generati dall’AI. In questa categoria rientra l’AI utilizzata nel mondo della biometrica, delle infrastrutture critiche, della formazione e della legge.
3. Rischio limitato
Sono considerati sistemi a rischio limitato il trattamento di immagini e video e i chatbot. Le aziende che utilizzano questi strumenti dovranno informare gli utenti che stanno interagendo con un’intelligenza artificiale e tutti i contenuti generati dall’AI dovranno essere esplicitati in modo chiaro.
4. Rischio minimo
Le applicazioni AI a rischio minimo includono i filtri per lo spam e i videogiochi e non saranno sottoposte a nessun requisito specifico.
L’impatto del regolamento sull’AI per le aziende
Per continuare a godere dei benefici dell'AI in modo sicuro, le imprese operanti nell'UE saranno interessate nei seguenti modi:
Nuove opportunità di mercato
Il regolamento garantirà che tutte le aziende di AI che operano nell’Unione Europea sviluppino l’intelligenza artificiale in modo trasparente e sostenibile. Questo permetterà di ridurre l’incertezza e la sfiducia nei confronti di queste aziende, aprendo loro nuove opportunità di mercato. È inoltre possibile che queste leggi sull’intelligenza artificiale abbiano come effetto disincentivare investitori esteri e rallentare l’innovazione, soprattutto per quanto riguarda i sistemi ad alto rischio. Tuttavia, ad oggi, non disponiamo di dati per provare la veridicità di questa teoria.
Considerazioni etiche
Verrà chiesto a tutte le aziende di tenere sempre in considerazione le implicazioni etiche dell’intelligenza artificiale non solo nel loro settore di riferimento, ma nella società tutta. In particolare, questioni etiche circa la diffusione e la perpetrazione di pregiudizi, la violazione dei diritti umani e la trasparenza. Le aziende che daranno la giusta importanza alle pratiche etiche potrebbero acquisire un vantaggio competitivo, grazie alla fiducia conquistata.
Implicazioni globali
Il regolamento sull’intelligenza artificiale dell’UE rappresenta un unicum nell’Unione Europea, ma i suoi impatti si estenderanno ben oltre i confini europei. Con ogni probabilità, diventerà un punto di riferimento per le prossime regolamentazioni sull’AI. Le aziende che desiderano operare all'interno dell'UE dovranno rispettare i requisiti del regolamento e le aziende conformi saranno ben posizionate per attrarre investitori attenti alle considerazioni etiche.
Allocazione del budget
Le aziende che sviluppano AI ad alto rischio dovranno allocare parte del budget per rispondere ai requisiti di conformità e per spese legate alla valutazione del rischio, alla documentazione e alla garanzia che i sistemi sviluppati rispettino i requisiti del regolamento. I costi saranno variabili in base alla dimensione dell’azienda e ai sistemi di AI, ma saranno necessari per garantire conformità e prevenire sanzioni in futuro.
Cosa devono fare le aziende ora
La tua azienda ha fino a 36 mesi per prepararsi e garantire totale conformità al regolamento.
Ecco alcuni consigli utili:
- Crea un inventario dettagliato di tutti i sistemi di AI utilizzati in azienda per capire se rientrano nelle disposizioni del regolamento. Chiediti “Perché abbiamo questo strumento?”, “Quanto lo usiamo?”, “Lo usano clienti o stakeholder aziendali? (ad esempio, un chatbot per l’assistenza clienti o uno strumento di decision intelligence per l’analisi dati).
- Valuta e definisci il livello di rischio dei sistemi di AI in azienda. Ad esempio, se la tua azienda utilizza un sistema ad alto rischio come uno strumento di diagnostica medica che sfrutta l’AI, sarà soggetto a revisioni regolari per la valutazione del rischio. Se la tua azienda utilizza immagini generate dall’AI, dovrai aggiungere un disclaimer all’interno del contenuto.
- Sviluppa e implementa una strategia per assicurarti che, quando il regolamento entrerà in vigore, i sistemi di gestione del rischio, di controllo e monitoraggio e la documentazione siano pronti. Per garantire un’implementazione efficace, fai una lista di tutti gli step e requisiti aggiuntivi e inseriscili nel business plan aziendale.
- Assicurati che l’azienda sia aggiornata sull’evoluzione del regolamento e del mondo AI più in generale. Il regolamento che entrerà in vigore nel 2027 è un primo, importante passo avanti, ma non sarà l'ultimo. Ad esempio, nel regolamento si chiede agli sviluppatori di redigere un codice di autoregolamentazione per riaffermare il loro impegno verso la sostenibilità sociale e ambientale, oltre alla prevenzione dei rischi. Mantenersi aggiornati sugli sviluppi del settore e sugli avanzamenti dell’AI Act sarà fondamentale per arrivare preparati ai prossimi cambiamenti.
Come abbiamo visto, l'Europa è in prima linea nella regolamentazione e nello sviluppo di un'intelligenza artificiale responsabile.
Tuttavia, il settore dell’AI evolve molto in fretta. Questo implica che, da qui ai prossimi tre anni, il regolamento sull’AI sarà revisionato e aggiornato, in modo che rimanga rilevante e rispecchi sempre la situazione attuale del mondo AI.
Nel frattempo, le aziende devono iniziare a prepararsi.
Il regolamento sull’AI non è solo un insieme di regole, offre anche opportunità per le aziende e gli sviluppatori. Propone pratiche e linee guida etiche, come l’equità, la trasparenza e il rispetto dei diritti fondamentali, per contribuire a uno sviluppo responsabile dell’intelligenza artificiale.
Inoltre, potrebbe diventare un vantaggio competitivo per l'industria europea. Regolamentazioni chiare e ben definite saranno un punto di forza per attirare investimenti e promuovere un ecosistema incentrato sulle pratiche etiche. Questo posizionerebbe l'Europa come leader nell'innovazione responsabile dell'intelligenza artificiale.
Infine, il regolamento sull’AI contribuirà alla creazione di un panorama dell'AI più democratico, più inclusivo e a beneficio di tutti. Incoraggiando lo sviluppo e l'adozione diffusa dell'AI responsabile, la normativa favorirà l'innovazione e la ricerca, e permetterà alle aziende di interagire con questa tecnologia rivoluzionaria con fiducia.
In questo modo avremo a disposizione un’intelligenza artificiale davvero democratica, per le aziende e per le persone.
Domande frequenti
L’AI Pact è un’iniziativa su base volontaria promossa dall’UE per incoraggiare le grandi aziende ad aderire a un insieme di linee guida etiche in attesa dell’entrata in vigore del regolamento ufficiale. Ha come obiettivo il rafforzamento della collaborazione tra l’industria tech e le autorità di controllo e pone le basi per uno sviluppo dell’AI più responsabile in Europa.
La general-purpose AI (modelli GPAI in italiano) indica i sistemi di intelligenza artificiale progettati per svolgere più attività anziché essere limitati a una singola funzione. Il suo vantaggio è che si può adattare ai contesti più svariati. Ad esempio, ChatGPT, Google speech-to-text, i giochi generati dall’AI o i sistemi di raccomandazione che suggeriscono prodotti, contenuti o servizi agli utenti, basandosi sulle loro preferenze, comportamenti o interazioni passate (ad esempio, le piattaforme streaming o le piattaforme e-commerce).
Sono previste diverse sanzioni per le aziende che non rispettano le normative. Queste includono multe fino a 35 milioni di euro o il 7% del fatturato globale dell'azienda, divieti di mercato e restrizioni sull'uso dell’AI, che ne impedirebbero la vendita, la distribuzione o l’utilizzo.