login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

AI ACT, ecco il nuovo regolamento europeo sull’intelligenza artificiale

Ascolta l'articolo

La bozza dell’AI ACT, il regolamento europeo sull’intelligenza artificiale, dovrebbe essere approvata entro aprile, definendo i limiti nell’utilizzo dell’AI

AI Act Kitinut Jinapuck/Shutterstock

L’AI ACT è il regolamento europeo sull’intelligenza artificiale. Si parla, in sintesi, di un insieme di norme e di regole che avranno il compito di definire i limiti nell’utilizzo dell’AI, allo scopo di regolarne la diffusione e prevenire eventuali problematiche derivanti da una mala gestione di queste tecnologie.

Un passaggio più che dovuto nella corsa alla diffusione di questi strumenti che dovrebbe essere approvato entro il prossimo 9-10 aprile e che potrebbe rappresentare un modello virtuoso che potrebbe fare scuola nel resto del mondo. Vediamo di cosa si tratta.

Cosa dice l’AI ACT

Come ben noto, l’enorme diffusione dei servizi di intelligenza artificiale sta cambiando radicalmente tutti i settori del vivere quotidiano, dal lavoro, alla scuola e fino ad arrivare al controllo delle infrastrutture essenziali, come quelle di luce e gas.

In tal senso, l’idea del regolamento europeo sull’intelligenza artificiale, si insinua proprio in tutti quei contesti definiti “a rischio” e nei quali l’utilizzo di tali soluzioni potrebbe, potenzialmente, essere un’arma a doppio taglio.

Nel testo dell’AI ACT ci sono 85 articoli e nove allegati che, come appena detto, ruotano intorno al concetto di “rischio” applicato all’adozione di tecnologie del genere, definendo quattro categorie di pericolo con: minimo, limitato, alto e inaccettabile.

Naturalmente più sarà alto il livello di rischio e più l’AI ACT dovrà fissare limiti da non superare per tutti coloro che sviluppano e utilizzano sistemi di intelligenza artificiale.

La cosa, naturalmente, non si applica a tutti i settori e sono escluse le tecnologie militari e (limitatamente) tutto ciò che rientra nel campo della ricerca scientifica.

Dove sarà vietata l’AI

Il primo compito del regolamento europeo sull’intelligenza artificiale è quello di definirne gli utilizzi vietati, tra questi ci sono tutti quei contesti che potrebbero manipolare i comportamenti delle persone; ogni situazione che potrebbe portare a delle conseguenze per soggetti ritenuti “fragili”; il riconoscimento degli utenti tramite dati sensibili o dati biometrici; l’identificazione di volti partendo da materiali sul web; la “predizione del reato”, ossia l’utilizzo di informazioni personali (come la nazionalità, la personalità o la situazione economico-familiare) per identificare soggetti che probabilmente potrebbero commettere un illecito.

Ci sono delle eccezioni, soprattutto quando si parla di sicurezza pubblica, che consentono l’utilizzo dell’AI per tracciare eventuali illeciti o persone sospette, ma vale solo con i dati acquisti legalmente (come quelli dei database delle Forze dell’Ordine).

Naturalmente sarà vietato l’utilizzo dei sistemi AI per il riconoscimento facciale e biometrico in tempo reale che, stando a quanto dichiarato nell’AI ACT, potrebbe portare a discriminazioni di varia natura.

Anche qui ci sono delle eccezioni da valutare in caso di situazioni gravi, dove il risultato finale supera i rischi di cui sopra, come ad esempio in caso di persone scomparse, minacce confermate a uno o più soggetti e in caso di attacchi terroristici.

L’elenco di “eccezioni” è piuttosto nutrito e fa riferimento a tutti casi limite che potrebbero mettere in serio pericolo il singolo o la collettività e anche in questo caso ci sono dei limiti nell’utilizzo di queste tecnologie che possono essere utilizzate solo per il tempo necessario e senza andare a limitare la libertà personale e la privacy dei soggetti coinvolti, con tutti i dati raccolti che devono essere cancellati subito dopo l’utilizzo.

Gli utilizzi dell’AI nei “sistemi ad alto rischio”

Tra gli utilizzi dell’AI considerati ad alto rischio ci sono tutti quei casi che potrebbero rappresentare un pericolo per la salute, la sicurezza o i diritti fondamentali dei cittadini dell’Unione Europea.

Tra i settori sensibili troviamo: l’identificazione biometrica o quella delle emozioni; l’AI applicata all’educazione o alla formazione che potrebbe “caratterizzare” o discriminare le persone; gli utilizzi illeciti sul lavoro (distribuzione dei ruoli, scrematura dei CV); tutto ciò che riguarda la finanza e le frodi ad essa connesse; l’utilizzo dell’AI per le Forze dell’Ordine da utilizzare in caso di situazioni che potrebbero comportare rischi elevati per il singolo o per la collettività ma che dovrà essere regolamentata da un ulteriore sistema di leggi (in arrivo dopo l’approvazione dell’AI Act) e dovrà comprendere sempre la presenza di una persona a cui spetterà la decisione finale.

Tra gli utilizzi considerati ad alto rischio c’è anche lo sviluppo di tecnologie AI che dovrà garantire sistemi di controllo efficaci e una gestione trasparente delle informazioni raccolte, aggiornandole e registrandole su appositi database che dovranno essere consultabili per definire eventuali violazioni.

Gli sviluppatori dovranno anche considerare i pericoli connessi alla sicurezza informatica e, in caso di problemi, dotare la propria tecnologia di un “pulsante di spegnimento” che in qualsiasi momento consenta loro di bloccare il funzionamento di tali strumenti.

Oltretutto l’AI ACT sancisce anche l’obbligo di sottoporre a controlli più frequenti e più serrati tutti i prodotti AI in fase di sviluppo, con l’introduzione di un sistema di monitoraggio postumo, da utilizzare cioè anche dopo l’arrivo sul mercato del prodotto in questione.

L’AI per la vita di tutti i giorni

Visto il proliferare di queste tecnologie nella vita quotidiana, l’AI ACT si occupa anche di regolamentare l’utilizzo di questi “sistemi di uso comune” come ChatGPT, ad esempio o Google Bard.

Tutto ciò che sarà prodotto tramite questi strumenti (incluse le notizie vere e soprattutto le Fake News) dovrà essere marcato e riconoscibile, così come per i chatbot che dovranno avvisare l’utente che sta interagendo con uno strumento AI e non con una persona.

Stesso discorso per i deepfake o le immagini prodotte con l’intelligenza artificiale che dovranno avere etichette e filigrane digitali, per avvertire sulla provenienza di tali contenuti.

La norma sancisce anche una soglia per definire quei sistemi che hanno un maggiore impatto sulle persone che devono avere un potere di calcolo pari a 10^25 FLOPs (floating point operations per second), un limite già rispettato da ChatGPT-4 e Google Gemini ma che in futuro potrebbe essere superato.

Infine anche questo tipo di strumenti dovranno garantire regole ferree per la sicurezza delle informazioni, la cyber security e la trasparenza sull’utilizzo di dati, sull’addestramento dei modelli e sulla condivisione dei documenti. Tutti parametri necessari per fare in modo che l’UE approvi l’arrivo sul mercato di tali tecnologie.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

A cura di Cultur-e
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.