Che le donne e il corpo femminile non uscissero troppo bene dalle sfide dell’intelligenza artificiale era prevedibile ma speravamo non diventasse fattuale. A riguardo notizie poco confortanti dal Guardian che, nella sua esclusiva, ci parla di una triste evidenza nella valutazione dei contenuti visivi da parte degli algoritmi delle più grandi compagnie che si occupano di tecnologie e social. Le foto delle donne sistematicamente sono bollate come contenuti a sfondo sessuale, molto di più rispetto a quelle degli uomini, soprattutto se sono coinvolti capezzoli, pance gravide o esercizio fisico. Free the nipple già dal 2013 metteva in luce le stranezze delle Linee guida per gli utenti (Community Guidelines), ma il problema è ben più ampio e strutturale.
Al vaglio di Hilke Schellman e Gianluca Mauro c’erano centinaia di immagini analizzate con strumenti AI, nelle quali non solo la parziale nudità, che fossero immagini sportive o a sfondo medico, è stata segnalata come a sfondo sessuale, ma persino le immagini di donne vestite intente in attività quotidiane. Quanto è radicata l’oggettificazione nel sistema? Così profondamente da importare bias di genere negli algoritmi AI in grado di portare alla rimozione, alla censura o al più subdolo shadowban di un numero non quantificabile di immagini femminili. Gli algoritmi di cui si parla sono inserite anche all’interno delle infrastrutture di Google e Microsoft e, in situazioni simili, sessualizzano o giudicano tali le foto delle donne.
Da tali presupposti risulta inevitabile ricordare che le moderne AI sfruttano il machine learning. Persone vengono assunte per etichettare le immagini in modo che i computer possano analizzare i loro risultati per trovare modelli utili ad aiutarli a replicare le decisioni umane. Margaret Mitchell, co-responsabile del gruppo di ricerca in etica dell’intelligenza artificiale di Google, suggerisce che tali foto possano essere state etichettate da maschi etero o da persone provenienti da paesi più conservatori. Sembrerebbe dunque che ancora una volta la prospettiva femminile sia stata messa all’angolo, nonostante sia proprio dei benefici che da questa possono derivare che si ha bisogno per un più sicuro futuro delle AI.
Sadie Plant, in “Zero, Uno. Donne digitali e tecnocultura” parlava di una sessualizzazione di hardware e software, progettati come riproduttivi delle più stereotipate associazioni con il sesso dell’uomo etero. Citando McLuhan, Plant parla di vecchi paradigmi applicati a nuovi mondi. La Risoluzione del Parlamento europeo sull’Eliminazione del Divario digitale di Genere (2021) riconosce che l’utilizzo e la creazione di software stanno diventando attività fondamentali per la trasformazione digitale e che quindi il divario di genere tra sviluppatori/trici e gli ingegneri/e di software è causa di preoccupazioni. La mancata partecipazione delle donne al settore, non fa che aumentare il rischio di bias di genere e pregiudizi, nelle applicazioni dell’intelligenza artificiale, dai videogiochi, ai giocattoli e ad altre applicazioni.
Dalla singola immagine a problemi profondamente strutturali il passo è breve: free the AI. Ce lo diamo come monito. Il futuro dell’intelligenza artificiale non può più prevedere la sua strumentalizzazione al servizio di bias di genere di sorta. Si liberi, quindi, dal bistrattamento sistemico del femminile, anche e soprattutto attraverso la giusta attenzione e i giusti spazi per le donne nelle ICT.
Ivana Rizzo