AI Act regolamento intelligenza artificiale
Fonte: Pexels

L’avvento dell’intelligenza artificiale a livello di utenza di base è un fenomeno che farà ricordare quest’epoca ai posteri. Dal punto di vista sociale, non è un segreto che Chat GPT abbia trasmesso sensazioni miste di inquietudine e stupore. L’idea di una macchina che risponda alle domande in maniera efficiente ha rappresentato un cambio di prospettiva nella gestione del tempo, con il conseguente timore che un giorno l’intelletto umano, il modo di pensare e di agire, venga al contrario dettato da un algoritmo, rendendo passivo il ruolo svolto dalle persone.

Dal punto di vista normativo, invece, al fine di evitare che l’IA soverchi o raggiri automaticamente i limiti imposti dalle diverse legislazioni, gli Stati hanno cominciato a confrontarsi, talvolta redigendo regolamentazioni valide a livello nazionale ma, a livello europeo, questo potpourri normativo ha spinto la Commissione Europea a Bruxelles a stilare una regolamentazione sull’utilizzo dell’intelligenza artificiale, l’AI Act.

Sede della Commissione Europea a Bruxelles. (Fonte: Wikimedia Commons)

Origine e obiettivi dell’AI Act

Il processo d’ideazione della regolamentazione è stato caratterizzato da una profonda analisi delle implicazioni dell’IA nelle varie sfere della società. L’obiettivo principale è stato quello di garantire che l’IA serva gli interessi dei cittadini europei senza compromettere i valori fondamentali dell’Unione, come la privacy, la sicurezza e l’equità. Il Parlamento europeo ha approvato il 14 giugno 2023 una bozza del regolamento. Il trilogo è stato raggiunto nel mese di dicembre 2023, ma dovranno intercorrere alcuni “mesi cuscinetto” proposti da Commissione e Parlamento perché l’atto sia effettivamente adottato. L’intesa assicura che sarà approvato entro la fine della legislatura europea, per poi entrare in vigore tra il 2025 e 2026.

Livello di rischio e trasparenza: i contenuti chiave

Il regolamento sull’intelligenza artificiale, proposto dalla Commissione europea nel 2021, prevede una regolamentazione in base a criteri di rischio. Propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti.

In secondo luogo, esistono nell’atto una serie di disposizioni progettate per garantire l’utilizzo etico e responsabile dell’IA. Tra queste, una delle principali è l’obbligo di trasparenza, che richiede che le decisioni automatizzate siano comprensibili e accessibili agli individui che ne sono interessati. Questo è particolarmente rilevante nei settori critici come la salute, dove le decisioni automatizzate possono influenzare direttamente la vita delle persone ma anche in altri campi.

Una possibile nuova era

L’AI Act rappresenta un punto di svolta nella regolamentazione dell’intelligenza artificiale, come primo atto nel mondo in questo ambito, indicando un percorso chiaro verso un utilizzo più sicuro ed etico di questa tecnologia oltre che un primato per l’Unione Europea sicuramente di interesse. Il suo impatto, infatti, sarà avvertito non solo in Europa ma potrebbe anche influenzare le future discussioni e normative sull’IA in tanti altri contesti. 

Il regolamento segna una volontà concreta di bilanciare l’innovazione tecnologica con la salvaguardia dei diritti umani, aprendo la strada a un nuovo indirizzo per questa tipologia di tecnologie affermatesi nel libero mercato.

Benedetta Gravina

Sono Benedetta, ho 26 anni (ma solo all'anagrafe, nell'animo sono ancora adolescente) e sono laureata in Lingue all'università di Roma "La Sapienza". Amo la musica, la lettura, l'antifascismo, i viaggi organizzati all'ultimo momento ma, prima di tutto, il mare: per me il suono delle onde rappresenta la più bella canzone mai composta.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.