IA femminista
Fonte: Jacob Lund on Canva

Pochi mesi fa è stato pubblicato il volume “Feminist AI: Critical Perspectives on Algorithms, Data, and Intelligent Machines” a cura di Browne, Cave, Drage e McInerney che riunisce in maniera trasversale le più importanti pensatrici femministe per esplorare l’impatto dell’intelligenza artificiale (IA) e delle tecnologie data-driven sulla società umana. I capitoli 5, 12 e 18 sono consultabili gratuitamente sul sito della Oxford University Press.

L’approccio femminista chiede al settore tech di farsi carico della progettazione e dell’utilizzo di sistemi di IA per la giustizia sociale. La comprensione intersezionale dei rischi e dei benefici dell’IA consegna la dimensione di un fenomeno complesso in cui si intersecano ingiustizie, disuguaglianze e relazioni strutturali di potere. In questo libro, la teoria riflette sull’impiego dei sistemi intelligenti e sul ruolo dellə ricercatrici nell’individuazione delle criticità a partire da diversi ambiti disciplinari, palesando il divario tra l’accademia, l’industria e i gruppi di R&S a livello aziendale, da cui emergono le sfide e gli obiettivi politici da affrontare come l’ageismo (discriminazione generazionale), il razzismo, il colonialismo e le oppressioni di classe.

La rappresentazione del tech worker

Chiaro fin dalle premesse, nel settore tech c’è un problema di “costruzione culturale dell’AI engineer“, a partire dal processo di rappresentazione nel cinema dello stereotipo del nerd come un genio ossessionato dai computer, ma inadatto alle relazioni sociali. In 142 tra i più influenti film sull’intelligenza artificiale, estratti da un corpus di 1413 opere cinematografiche prodotte dal 1920 al 2020, soltanto 7 personaggi su 100 raffiguranti professionistə dell’IA (ricercatorə, informatichə, data scientist, ecc…) è di sesso femminile. Il dato rispecchia la situazione nel mercato del lavoro (22 professionistə dell’IA su 100 sono donne) e forse, in qualche misura, la consolida. Alla minore presenza in ambito STEM e tech si associano altre criticità legate a paghe e incarichi “inferiori” a fronte di livelli di istruzione più elevati, pericoli di molestie e atteggiamenti sessisti da parte dei colleghi che ne incentivano l’abbandono (altro che “pipeline” e “differenze strutturali“).

Il rapporto dinamico di influenze reciproche tra Hollywood e la Silicon Valley è conosciuto come “Californian Feedback Loop“. A titolo di esempio, l’attore di Iron Man Robert Downey Jr. ha dichiarato che Elon Musk è stato fonte di ispirazione per il suo personaggio (e a sua volta compare per un cameo in Iron Man 2). In queste narrazioni sono ricorrenti concetti come: il “genio”, l’immagine del bambino prodigio o della mente maschile brillante (“brilliance bias“), quasi ultraterrena, appartenente per lo più all’élite bianca, diffusa anche a mezzo stampa (così in 37 casi di AI scientist su 38 analizzati); gli “ambienti maschili”, principalmente aziendale e militare, dove leader eroici guidano formazioni di scienziati per difendere la sicurezza nazionale; la “vita artificiale”, cioè il governo dell’artificio per la creazione di nuova vita che, secondo alcunə, testimonierebbe “l’invidia dell’utero”; la “disuguaglianza di genere” nel rapporto gerarchico tra scienziati e scienziate, che all’occorrenza si sacrificano per un bene superiore.

In Ex Machina il lavoro di decine di professionistə viene ridotto a un one-man-show che, nutrendo il desiderio di solitudine e lo slancio libertario, progetta e realizza un sistema di IA nel suo appartamento di lusso. Come si legge, è la cornice dei moderni Michelangelo in procinto di realizzare la Cappella Sistina.

Il falso binarismo

La quantificazione è una tecnologia della distanza, si dice. L’assenza di empatia nella data visualization è storicamente associata a una razionalizzazione della raffigurazione basata sul pregiudizio che le emozioni siano irrazionali e, dunque, codificate come femminili, così come le più varie forme di espressione, abbellimento e decorazione. A eccezione della rabbia e dell’orgoglio, associate agli uomini. Come abbiamo visto, la rappresentazione è un’azione politica e il binarismo tende a omettere l’altro punto di vista; per questo necessitiamo di una IA femminista.

Aristotele definiva la retorica come “la facoltà di osservare in ogni caso i mezzi di persuasione disponibili” e ciò vale per la politica quanto per la selezione/rappresentazione della realtà. La dimensione retorica è presente in ogni aspetto del design. Sandra Harding propone un altro tipo di oggettività che si sforza di raggiungere la verità nel considerare il punto di vista del/la designer. La “teoria del punto di vista” (standpoint theory) è definita da quella che Harding chiama “oggettività forte” che riconosce nell’obiettività normale il punto di vista di uomini bianchi e ricchi al potere, che tende a escludere l’esperienza delle donne e delle minoranze. Ciascuno dei nostri punti di vista potrebbe contribuire a formulare nuove domande di ricerca: insomma, dovremmo accettare che ogni essere umano è interessato da bias e usufruirne per arricchire la conoscenza. Nella sua resa viscerale, l’osservatore non è dotato soltanto di occhi, ma è a partire dal suo cervello che assorbe l’informazione nei meandri della sua fisicità e, dunque, vi interagisce.

Come si inserisce la teoria critica per un’IA femminista?

La discriminazione generazionale nel digitale contribuisce a esacerbare l’isolamento delle persone più anziane e le inibisce dall’accesso a servizi sanitari e professionali. Il femminismo materialista interviene sul punto evidenziando come la commistione tra risorse materiali e costrutti sociali giochi un ruolo nella produzione di disuguaglianze. L’età, si legge, non è da intendersi come una contingenza bensì come una categorizzazione sociale costruita su fattori biologici, con annessi desideri, aspettative e capacità. Butler lo definiva “il pregiudizio di una classe d’età su un’altra classe d’età“, cioè nei confronti di coloro che sono più deboli e improduttivi.

Ancora una volta, come nel caso della razza, della disabilità e delle identità queer, la discriminazione algoritmica presuppone una struttura sociale e politica che influenza il design delle tecnologie. Gli effetti prodotti si riscontrano nella continua esclusione delle persone anziane dallo sviluppo dei sistemi di AI e, al contempo, la progressiva introduzione degli stessi in ambiti strettamente necessari per quella coorte, come l’assistenza sociale e sanitaria (determinando “cicli di ingiustizia”). A suo modo, tuttavia, presenta delle specificità: tuttə potrebbero essere discriminati sulla base dell’anzianità, eppure viene considerata un’ingiustizia meno grave; le persone più povere tenderanno a richiedere un maggior supporto dallo Stato; durante la vecchiaia le persone sono maggiormente esposte a situazioni di paternalismo e infantilismo.

La robustezza di algoritmi impiegati per il machine learning potrebbe dipendere dall’età. Persino i social media usati da utenti giovani potrebbero funzionare meglio, e ciò si spiega anche per una minore presenza di persone anziane nei dataset. La maggior parte ritiene che Internet sia una tecnologia di difficile comprensione e rinuncia non soltanto al tentativo, ma anche al dispositivo. Un ulteriore dettaglio che si evidenzia è la finalità delle applicazioni: di intrattenimento per i giovani, di cura per gli anziani. La giustizia sociale è anche una questione di prevenzione dai danni materiali e dalle privazioni, diceva Haslanger. Taluni di questi si configurano come vincoli sociali e materiali che frenano la possibilità di soddisfare i bisogni, esprimere le proprie esperienze, sviluppare ed esercitare il diritto a vivere una vita soddisfacente. E si verificano nella quotidianità.

Sara C. Santoriello

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.