Interfacciarsi con un AI è prassi per ognuno di noi. L’intelligenza artificiale è entrata nella vita di tutti i giorni, caricandosi anche di una certa dose di problematiche inerenti al sociale. I recenti sviluppi delle tecnologie hanno posto in primissimo piano la necessità di portare al centro il dibattito riguardante la ‘machine ethics’. Una tecnologia AI può scegliere quale sia la cosa giusta da fare in una frazione di secondo, ciò non equivale a cedere il potere morale alle macchine. Piuttosto a estendere i nostri poteri morali a domini e scale temporali senza precedenti. Va assolutamente detto che tali tecnologie dovrebbero seguire sempre il principio della supervisione umana; nella sua versione estesa, dovrebbe garantire il controllo di bias discriminatori di sorta. E allora che fare dinanzi a schemi valoriali sovrapposti? Dinanzi al grande contenitore delle strutture sociali e istituzionali umane, l’AI è sempre in grado di prendere decisioni che salvaguardino la dignità della persona?

Il peso politico dell’intelligenza artificiale e dei suoi sviluppi è tutt’altro che trascurabile – parlarne significa entrare nella sfera dell’autonomia umana – e nel quesito inerente alla gestione del risultato dell’innovazione, che richiede una governance orientata da principi consapevoli e valori che siano trasversali, o per azzardo intersezionali, un’idra dunque, questo mostro a sette teste, rappresentato da un utopico approccio antifascista, anticolonialista, transfemminista, ed attento all’ambiente e al peso del progresso sulla vita degli individui. Il legame con la politica lo si riscontra già all’impasse tra efficienza-risparmio ed ideologizzazione dell’intelligenza artificiale come asso nella manica in termini di ottimizzazione. Dietro l’AI allora non è difficile trovare, ben nascoste dall’astrazione utilitaristica, riproduzioni in scala e amplificazioni di brutture sociali portate al grado di macchinoso automatismo.

Il confine tra ciò che è prodotto dal sociale e ciò che contribuisce alla costruzione dell’immaginario sociale è sempre labile. Questa affermazione rimanda un qualcosa di dato. Come per il linguaggio, l’intelligenza artificiale può connotare, categorizzare, anche dividere, e lo fa per necessità funzionali. Ora va ribadito che all’AI fa capo qualcuno, un essere umano che mostra all’intelligenza artificiale quale scelta compiere e, parlando di Machine Learning, noi stessi, utilizzandola per settare le tecnologie, in un senso diverso dalle semplici impostazioni. La macchina è impostata in modo da affinare le proprie capacità ed orientarle in base agli utenti. I chatbot ne sono un esempio, in considerazione della loro evoluzione da ELIZA a PARRY ad A.L.I.C.E. Con conoscenze di base date in formato AIML (Artificial Intelligence Markup Language) si è cercato di creare un’ontologia, un database di concetti e relazioni che si basasse su quei meccanismi cognitivi di categorizzazione che la mente umana applica alla realtà, e poi unitamente alla statistica e al NLP (Natural Language Processing) si è arrivati alle AI di oggi Siri, Alexa, Cortana, etc… In particolare nei chatbot, basati sulle interazioni linguistiche con gli utenti, l’input è  fondamentale, e va da sé che se ciò che viene immesso, in proporzioni rilevanti, è di natura razzista, sessista, omofoba o violenta… la macchina ben presto potrebbe rispecchiare tale atteggiamento.

Bisogna stare molto attentə. Il sociologo Lutz ricorda che quasi metà della popolazione mondiale è fuori dal digitale e questo implica uno svantaggio immane. Un’ovvietà torna tristemente a galla: lə più ricchə avranno accesso a sempre migliori tecnologie per migliorare le prestazioni… E ciò rischia di appiattire la società in due macroclassi: chi può difendere la propria privacy dall’intelligenza artificiale e chi invece no! Insomma alla soglia dei più importanti progressi tecnologici, il rischio è sempre di incappare nelle storiche disuguaglianze. Quello che dovrebbe essere motore di progresso sociale, è al contrario al servizio di privati ed aziende oltre che veicolo di disuguaglianze, pregiudizi e stereotipi, in termini di genere, di etnia etc… Non può che invocarsi una governance ‘illuminata’ dello Stato, che sia consapevole del mastodontico impatto dell’AI.

Ivana Rizzo

Femminista, laureata all'Orientale di Napoli, appassionata di linguistica e di musica, osservo come queste due influiscono sulla vita di tutti i giorni. Amo i giochi di parole e il sarcasmo.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui