La Casa Bianca ha prodotto un Bill of Rights sull'AI
Fonte: Unsplash (@Tabrez Syed)

Dopo un anno di lavoro, l’Ufficio per le Politiche Scientifiche e Tecnologiche (Office of Science and Technology Policy – OSTP) della Casa Bianca ha diffuso il documentoAI Bill of Rights” contente i cinque principi che dovrebbero guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati per proteggere il popolo statunitense nell’era dell’intelligenza artificiale. L’amministrazione Biden riconosce il potenziale dello strumento tecnologico, il modo in cui potrebbe “ridefinire ogni aspetto della società” e “rendere la vita migliore per tutti“, e di un progresso che non deve avvenire al prezzo dei diritti civili e dei valori democratici, che definisce “pietra miliare della sua amministrazione“. Viene scelta la denominazione “Bill of Rights” in aperto riferimento alla Carta dei diritti del 1791 in cui sono inseriti i primi dieci emendamenti della Costituzione, che enunciano i diritti fondamentali del/la cittadinǝ americanǝ.

Il fine ultimo di questo Blueprint è di tracciare un percorso perseguibile, anche se non obbligatorio. Il progetto, infatti, non è vincolante, né si pone come uno strumento di denuncia. Nei fatti, tuttavia, definisce qualche confine non oltrepassabile: «Tra le grandi sfide poste oggi alla democrazia c’è l’uso della tecnologia, dei dati e dei sistemi automatizzati in modi che minacciano i diritti dei cittadini americani», si legge.

I cinque principi della Casa Bianca sull’AI

Il “Blueprint for an AI Bill of Rights” contiene i cinque principi individuati, le premesse, le aspettative e l’attuale assetto giuridico che dovrebbe fornire supporto al processo. Nonostante non sia una policy del governo degli Stati Uniti, può supplire in caso di mancanza di punti di riferimento («Questo quadro fornisce una dichiarazione di valori e un kit di strumenti nazionali, indipendente dal settore, per esercitare queste tutele nella politica, nella pratica o nel processo di progettazione tecnologica. Laddove le leggi o le policy esistenti […] non forniscano già una guida, il “Blueprint for an AI Bill of Rights” dovrebbe essere utilizzato per sensibilizzare le scelte politiche»).

Ecco i cinque principi enunciati in sintesi:

  • Sistemi Sicuri ed Efficaci

«I sistemi automatizzati devono essere sviluppati con la consultazione di diverse comunità, parti interessate ed esperti del settore per identificare preoccupazioni, rischi e potenziali impatti del sistema». Test, valutazioni, report indipendenti e pubblici (quando possibile) si rendono necessari per confermare anche la presenza dei provvedimenti atti a mitigare i potenziali danni. I risultati di queste misure di protezione dovrebbero includere la possibilità di non distribuire il sistema o di rimuoverlo dall’uso.

  • Tutele dalla Diffusione Algoritmica

«L’utente non deve subire discriminazioni da parte degli algoritmi e i sistemi devono essere utilizzati e progettati in modo equo». È ampiamente dimostrato che i sistemi automatizzati possano produrre risultati iniqui e amplificare le disuguaglianze esistenti. Si elencano, pertanto, alcune casistiche: «La discriminazione algoritmica si verifica quando i sistemi automatizzati contribuiscono a un trattamento diverso ingiustificato o a un impatto sfavorevole sulle persone in base a razza, colore, etnia, sesso (compresi gravidanza, parto e condizioni mediche correlate, identità di genere, stato intersessuale e orientamento sessuale), religione, età, origine nazionale, disabilità, stato di veterano, informazioni genetiche o qualsiasi altra classificazione protetta dalla legge». Il testo chiama in causa progettisti, sviluppatori e gestori di sistemi automatizzati per l’adozione di misure che proteggano gli individui e le comunità. Anche la pubblicazione del resoconto viene richiesta in un linguaggio semplice e, quindi, comprensibile.

  • Privacy dei dati

«L’utente deve essere protetto da pratiche abusive di trattamento dei dati attraverso protezioni integrate e deve avere la possibilità di decidere come vengono utilizzati i dati che lo riguardano». Progettisti, sviluppatori e gestori di sistemi automatizzati devono richiedere l’autorizzazione dell’utente e rispettare le sue decisioni in merito alla raccolta, all’uso, all’accesso, al trasferimento e alla cancellazione dei suoi dati in maniera appropriata; laddove non sia possibile, devono essere utilizzate garanzie alternative di privacy by design. Negli ambiti ritenuti sensibili, i dati e le inferenze dovrebbero essere utilizzati solo per le funzioni necessarie, protetti da revisioni etiche e divieti di utilizzo, perché è proprio in questi contesti che le tecnologie di sorveglianza potrebbero causare una limitazione dei diritti, delle opportunità o dell’accesso.

  • Notifica e spiegazione

«L’utente deve sapere che un sistema automatizzato viene utilizzato e deve capire come e perché contribuisce ai risultati che lo riguardano». Coloro che lavorano con i sistemi automatizzati devono essere in grado di provvedere una documentazione redatta in linguaggio semplice e accessibile, comprensiva di descrizioni chiare sul funzionamento del sistema e del ruolo dell’AI, l’avviso sul rispettivo utilizzo, la persona o l’organizzazione che se ne sta occupando. Il principio chiarisce che le persone devono essere informate (tempestivamente) sulle fasi opache del rapporto di interazione con la macchina: «L’utente deve sapere come e perché un esito che lo riguarda è stato determinato da un sistema automatico, anche quando il sistema automatico non è l’unico elemento che determina l’esito».

  • Alternative umane, Considerazioni e Riserve

Le macchine non possono far tutto, questo principio lo sancisce nero su bianco: «L’utente deve avere la possibilità di rinunciare, se del caso, e di avere accesso a una persona in grado di valutare e risolvere rapidamente i problemi riscontrati. Dovrebbe essere possibile rinunciare ai sistemi automatizzati a favore di un’alternativa umana, ove opportuno». Anche negli ambiti sensibili l’utilizzo dei sistemi automatizzati deve essere adattato allo scopo, nella stessa misura in cui gli stessi operatori (e operatrici) devono ricevere un’adeguata formazione e non imporre un onere irragionevole al pubblico. La possibilità di presentare un ricorso deve essere accessibile, equa ed efficace.

I punti menzionano quasi sempre la valutazione indipendente e la necessità che quest’ultima venga resa pubblica affinché sia soggetta a controllo. Vengono identificati “designers, developers e deployers of automated systems” come garanti di questi principi in fase di progettazione del codice. Si rimarca la comprensibilità delle schermate affinché siano chiare, sintetiche e prive di ambiguità. In ambiti sensibili, quali l’educazione, i dati dovrebbero essere utilizzati per funzioni necessarie e protetti da revisioni etiche e proibizioni sul loro utilizzo. Soprattutto in questi settori bisogna scongiurare il pericolo della sorveglianza con una valutazione preventiva dei rischi, garantendo il diritto di accesso del pubblico ai report.

Tra le aspettative meritevoli di interesse, il Bill of Rights menziona l’accountability ed estende la definizione di “sesso” per includere “gravidanza, parto e condizioni mediche correlate“, in risposta alle preoccupazioni sulla privacy a seguito delle recenti disposizioni sull’aborto negli USA.

Le prime reazioni al Bill of Rights 

Khari Johnson su Wired definisce “sdentato” il Bill of Rights nei confronti delle Big Tech: «Non ha alcun potere sulle grandi aziende tecnologiche che detengono il potere maggiore nel dare forma alla distribuzione del machine learning e della tecnologia AI. […] Assomiglia alla marea di principi etici sull’IA diffusi negli ultimi anni da aziende, organizzazioni non profit, governi democratici e persino dalla Chiesa cattolica. I loro principi sono solitamente corretti, utilizzando parole come trasparenza, spiegabilità e affidabilità, ma mancano di contenuti e sono troppo vaghi per fare la differenza nella vita quotidiana delle persone». Secondo alcunǝ studiosǝ di AI e scienze filosofiche, questa Carta dei diritti avrebbe dovuto comprendere il “non utilizzo” dello strumento tecnologico, al fine di tutelare maggiormente i diritti delle persone, ma questa visione si scontra il punto di vista di chi lo considererebbe un divieto.

Tra i piani dell’Amministrazione Biden ci sono alcune azioni messe in campo dalle agenzie federali: sarà presentato entro fine anno un piano per ridurre la discriminazione algoritmica nell’assistenza sanitaria; a partire da gennaio 2023 saranno rese disponibili le raccomandazioni sull’uso dell’IA nel campo dell’insegnamento e dell’apprendimento. D’altro canto, è improbabile che abbia un impatto sul settore privato a meno che non sia seguito da una legislazione vera e propria. Secondo Janet Haven (Data & Society Research Institute), in una dichiarazione riportata su Spectrum, ciò non costituirebbe un problema perché si posiziona come un quadro di riferimento rivolto direttamente ai diritti civili, che meritano nuove ed estese tutele da parte della legge americana.

Un confronto con UE e Cina

L’aveva già anticipato Johnson su Wired, ma approfondiscono l’argomento anche Luciano Floridi e Emmie Hine definendola la «visione più chiara della definizione di “Good AI Society” data dall’amministrazione Biden». Il Bill of Rights statunitense condivide con l’Artificial Intelligence Act (AIA) dell’UE l’approccio orientato al prodotto, ma predilige la regolamentazione degli usi dei “sistemi automatizzati” (la cui definizione è considerata, tuttavia, troppo vaga) piuttosto che dello strumento.

A partire da alcune idee promosse dall’esecutivo guidato da Obama, il documento fornisce una definizione ampia di comunità che include sia i quartieri, sia le connessioni sociali on e offline, i legami organizzativi formali e le connessioni basate su affinità o identità, rivolgendosi ai lettori come cittadinǝ. Così come per l’atto europeo, neanche in questo caso viene menzionato l’ambiente.

Floridi e Hine (2022) notano, infine, un dettaglio interessante: «Uno degli obiettivi dichiarati è quello di proteggere il pubblico da una “sorveglianza incontrollata”, ma è stato criticato per aver normalizzato la sorveglianza in modo più simile alla Cina che all’UE. L’AIA può vietare l’identificazione biometrica in tempo reale e a posteriori tramite dispositivi di sorveglianza, tranne che per identificare vittime o autori di reati o per prevenire una minaccia imminente. La Private Information Protection Law (PIPL) cinese, invece, consente la sorveglianza di massa in nome della sicurezza nazionale».

Sara C. Santoriello

Giornalista pubblicista, aspirante politologa. Mi alimento di dubbi e curiosità. Sono una femminista lonziana, appassionata dell'aspetto Social nei Media. Scrivo di Politica, Genere, Etica e Tecnologie. Coordino la sezione Femminismi per Libero Pensiero. PhD Student in Scienze Sociali e Statistiche all'Università di Napoli "Federico II".

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui