Il Parlamento europeo ha adottato il primo provvedimento al mondo per regolamentare l’Intelligenza Artificiale: un momento sicuramente da ricordare nella storia dell’innovazione tecnologica. Questa normativa vincolante segna un importante passo avanti verso uno sviluppo sicuro di questa tecnologia innovativa in continuo perfezionamento, indicando una chiara direzione per il futuro.

In questo articolo esamineremo la recente legge sull’Intelligenza Artificiale (IA), valutando in cosa consiste questa nuova normativa, i divieti imposti e le applicazioni consentite. Esploreremo anche i diritti dei cittadini sanciti da questa legge, offrendo un quadro completo delle implicazioni per la società. Concluderemo con una previsione sulle prospettive future e su come questa legge potrebbe plasmare il panorama dell’IA nei prossimi anni.

L’Artificial Intelligence Act nel dettaglio

Il 13 marzo, con una schiacciante maggioranza di voti favorevoli (523), contrari (46), e astensioni (49), i membri del Parlamento europeo hanno approvato l’Artificial Intelligence Act (AI Act). Questa votazione, avvenuta a nove mesi dall’approvazione iniziale del testo, segna un momento storico: l’Unione Europea si è distinta come la prima istituzione politica mondiale a introdurre normative vincolanti sull’Intelligenza Artificiale.

L’Europa ha assunto il ruolo di pioniera producendo il primo regolamento che stabilisce obblighi e divieti specifici per l’Intelligenza Artificiale, partendo dall’analisi dei rischi e dei pericoli associati all’utilizzo dei sistemi ad essa connessi. Questa nuova legge, il cui ingresso in vigore avverrà gradualmente tra la fine del 2024 e il 2026, si propone di proteggere i diritti dei lavoratori e dei cittadini, considerando attentamente l’impatto dell’AI sugli esseri umani e sulle istituzioni democratiche.

AI ACT: tra obiettivi e divieti

L’obiettivo primario dell’AI Act è quello di salvaguardare i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai potenziali rischi derivanti dai sistemi di intelligenza artificiale. Parallelamente, mira a promuovere l’innovazione e a consolidare il ruolo guida dell’Europa nel settore dell’IA. Le nuove norme vietano alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini. Tra i divieti figurano:

  • l’uso di sistemi di categorizzazione biometrica: possono essere utilizzati per effettuare discriminazioni basate su caratteristiche come la razza, l’etnia, il sesso, la religione e altri fattori sensibili;
  • l’estrazione indiscriminata di immagini facciali da fonti online o da registrazioni video per la creazione di banche dati: può essere impiegata per monitorare le persone senza il loro consenso e violare la loro privacy;
  • i sistemi automatizzati di social scoring: chiamato anche credito sociale, questi strumenti possono essere utilizzati per sorvegliare le persone e limitare le loro libertà;
  • il riconoscimento delle emozioni sul luogo di lavoro e nelle istituzioni scolastiche: può essere impiegato per sorvegliare le persone e discriminare in base alle loro emozioni.

È cruciale evidenziare che non tutte le applicazioni di intelligenza artificiale sono proibite. L’AI Act fa infatti una distinzione tra vari livelli di rischio, permettendo lo sviluppo e l’uso di IA a basso o minimo rischio, il quale apporta numerosi vantaggi alla società. Solo le applicazioni di IA con un rischio inaccettabile sono soggette a divieto.

In generale, le forze di sicurezza pubblica saranno limitate nell’utilizzo dell’identificazione biometrica, salvo specifiche situazioni obbligatorie previste per legge. L’identificazione facciale in tempo reale potrà essere impiegata solo dopo che l’autorità di pubblica sicurezza avrà garantito il rispetto rigoroso delle libertà individuali (questo tipo di tecnologia nello specifico sarà utilizzato esclusivamente per reati o condotte riconducibili alla commissione di reati).

 Come tutelare i cittadini? I diritti derivanti dall’AI Act

In un contesto in cui sempre più decisioni vengono prese attraverso sistemi di intelligenza artificiale (IA) che possono avere un impatto significativo sulla vita delle persone, è doveroso tutelare i cittadini. Grazie all’AI Act, sarà possibile sicuramente presentare reclami sui sistemi e ricevere spiegazioni sulle decisioni basate su sistemi di IA. 

Garantire ai cittadini tali diritti è fondamentale per assicurare una maggiore trasparenza, responsabilità e rispetto dei diritti individuali nell’implementazione e nell’uso di queste tecnologie. Queste disposizioni possono infatti contribuire a proteggere i cittadini da decisioni arbitrarie o discriminatorie e promuovere una maggiore fiducia nella tecnologia AI.

AI Act: obbligo o verità?

L’Unione Europea ha definito chiari obblighi per i sistemi di intelligenza artificiale (IA) considerati ad alto rischio, cioè quelli che potrebbero causare danni significativi in diversi ambiti della vita, come salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto. 

Si tratta di sistemi impiegati in vari settori, come infrastrutture critiche, istruzione, formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche), lotta al crimine, migrazione, gestione delle frontiere, giustizia e processi democratici.

Per questi sistemi di IA ad alto rischio, sono previsti vari obblighi:

  • valutare e mitigare i rischi
  • mantenere registri d’uso
  • essere trasparenti e precisi
  • assicurare la supervisione umana

Dall’altro lato, l’IA è diventata una verità tangibile che influenza sempre più la nostra vita quotidiana. Dai sistemi di assistenza virtuale sui nostri smartphone, alle piattaforme di e-commerce che ci suggeriscono cosa acquistare, fino ai veicoli autonomi che guidano per le nostre strade, l’IA è già parte integrante della nostra società.

L’Intelligenza Artificiale prima dell’AI Act

L’intelligenza artificiale (IA) è un campo dell’informatica che si occupa dello sviluppo di sistemi e tecnologie in grado di eseguire compiti che normalmente richiedono intelligenza umana. In altre parole, l’obiettivo dell’IA è quello di creare macchine o sistemi informatici capaci di imitare alcune capacità cognitive umane, come il ragionamento, l’apprendimento, il riconoscimento di modelli, la comprensione del linguaggio naturale e la risoluzione di problemi. Secondo una notizia recente, è emerso, infatti, che l’intelligenza artificiale ha superato il test di Touring, mostrando tratti comportamentali tipici degli umani. 

L’IA continua a evolversi rapidamente e si prevede che avrà un impatto ancora maggiore su diversi settori in futuro. L’utilizzo dell’intelligenza artificiale (IA) è diventato sempre più diffuso e pervasivo nella società moderna, influenzando molteplici settori, tra cui la sanità, l’industria, l’automazione, il trasporto. Tuttavia, fino ad oggi, l’IA non è stata coperta da normative specifiche. Questa assenza di regolamentazione ha finora sollevato una serie di questioni etiche, legali e sociali che richiedono attenzione. Se da un lato l’IA offre opportunità straordinarie per migliorare l’efficienza, la precisione e la qualità dei servizi, dall’altro solleva preoccupazioni riguardo alla privacy, alla sicurezza e alla responsabilità.

Uno dei principali problemi è rappresentato dalla mancanza di chiarezza su chi sia responsabile in caso di errori o danni causati da sistemi basati sull’IA. La complessità degli algoritmi di apprendimento automatico e la loro capacità di evolvere nel tempo rendono difficile individuare e attribuire la responsabilità in caso di incidenti. Sebbene, quindi, l’intelligenza artificiale offra numerose opportunità per migliorare la nostra vita quotidiana, è essenziale sviluppare normative robuste e responsabili per guidarne l’utilizzo in modo etico e responsabile. Solo attraverso un approccio collaborativo e orientato al bene comune sarà possibile massimizzare i benefici dell’IA e mitigare i rischi associati alla sua adozione diffusa.

Il futuro dell’AI Act

Il regolamento è attualmente in fase di verifica finale da parte dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura attraverso la procedura di rettifica. Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

Entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta Ufficiale dell’UE e inizierà ad essere applicata 24 mesi dopo l’entrata in vigore, tranne per quanto riguarda alcune disposizioni specifiche:

  • i divieti relativi a pratiche proibite entreranno in vigore sei mesi dopo l’entrata in vigore;
  • i codici di buone pratiche saranno applicati nove mesi dopo;
  • le norme sui sistemi di intelligenza artificiale per scopi generali, inclusa la governance, saranno applicate 12 mesi dopo;
  • gli obblighi per i sistemi ad alto rischio saranno applicati 36 mesi dopo.

L’obiettivo rimane quello di proteggere i principi fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale dall’impatto delle nuove tecnologie ad alto rischio, mentre si incoraggia l’innovazione e si garantisce all’Europa un ruolo di leadership nel settore. Questo pacchetto normativo, delineato dal legislatore europeo, mira a stabilire uno standard di riferimento internazionale nei confronti degli altri paesi.