Che cos’è un algoritmo? È l’insieme delle operazioni per arrivare alla soluzione di un problema. Si tratta di un concetto semplice: un algoritmo è quel processo che vi permette di sommare due numeri in colonna come si faceva alle scuole elementari. Ma, allo stesso tempo, è quel principio che sta alla base di ogni processo tecnologico.

Perché, se cercate su Google “come si cucina la carbonara”, l’ordine dei risultati di ricerca è così come lo vedete? Semplice: è l’algoritmo di Google che lo decide! Ma non è tutto qua. Viviamo nell’era della personalizzazione della Rete: l’algoritmo memorizza le nostre ricerche passate (i cosiddetti cookie) e le nostre scelte di consumo e confronta tutto ciò con le ricerche e le azioni di migliaia e migliaia di utenti simili a noi. Ed ecco qui un altro tema interessante: la perseguitante, tormentante e incessante profilazione del XXI secolo (ma questo lo approfondiremo un’altra volta magari).

Continuando: perché nella sezione notizie di Facebook compaiono sempre quei post che — fateci caso — hanno a che fare con i vostri principali interessi? Semplice: è l’algoritmo di Facebook che vi conosce più di quanto possiate immaginare.
Ogni like è una traccia ed è proprio di questo che vorrei parlarvi, più che del misterioso meccanismo a cui sottostà l’algoritmo stesso (che è comunque un altro tema da approfondire necessariamente, magari in un’altra occasione).

Ridefinendo la questione, Facebook — o meglio, il suo algoritmo — fa comparire nel news feed (ossia la home) tutto ciò che ritiene rilevante per ogni suo singolo utente.
Ciò significa che ognuno di noi è “costretto” a essere aggiornato, nel proprio news feed, esclusivamente con contenuti che potrebbero piacerci. Quindi, tutto ciò che non è coerente ai nostri gusti viene filtrato e non ci viene proposto.

Gli esperti dei media definiscono l’ambiente in cui ognuno è rinchiuso, a causa delle scelte dell’algoritmo di Facebook, “filter bubble” (in italiano, bolla autoreferenziale).

Sì, siamo in una bolla, la quale non fa altro che limitarci la visione di una molteplicità di contenuti, magari altrettanto interessanti.

All’interno della propria bolla è come se, paradossalmente, ognuno fosse solo: assistiamo, in solitudine, a uno spettacolo iper-personalizzato di notizie. Una vera e propria prigione cognitiva.

Ovviamente, le conseguenze dell’immersione in una bolla sono davvero importanti.

In primis: come possiamo avere un’opinione genuina su un determinato topic se poi un algoritmo (su Facebook e su ogni social network) tende a nasconderci punti di vista antagonisti al nostro? Come facciamo a essere davvero informati se utilizziamo solo il nostro account Facebook come fonte primaria d’informazione?

Eli Pariser, autore del libro “The Filter Bubble”, nonché coniatore del termine, ha affermato qualche anno fa:

«In una società di broadcasting (comunicazione da uno a molti, ndr) c’erano i gatekeeper, gli editori che controllavano i flussi di informazione. E poi è arrivato Internet che li ha spazzati via e ha permesso a tutti noi di collegarci l’un l’altro ed era fantastico. Ma non è quello che sta succedendo adesso. Ciò a cui stiamo assistendo è più che altro il passaggio del testimone dai gatekeeper umani a quelli algoritmici. Il problema è che gli algoritmi non hanno ancora incorporato i principi etici degli editori». 

In Italia, ad esempio, è recente la diatriba tra i #novax e coloro, invece, a favore dei vaccini. Senza entrare nel merito della questione puramente scientifica, è chiaro che un utente con un’opinione oppositiva all’uso dei vaccini, essendo esposto a contenuti in linea con quelli che sono i suoi interessi (la contrarietà ai vaccini stessa, ad esempio), non potrà mai maturare un punto di vista genuino, perché tenderà a credere che il mondo intorno a lui —  seppur si tratti del mondo esclusivamente online e, in particolare, dei social network —  la pensi esattamente come lui.

L’algoritmo che crea la bolla autoreferenziale dell’utente #novax gli mostrerà contenuti che confermano, in un modo o nell’altro, le proprie convinzioni.

Ciò conduce inevitabilmente ad altre conseguenze: l’aumento delle faziosità tra le varie tifoserie, nonché una crescente incomunicabilità tra chi ha diverse posizioni politiche.

 «Per troppi di noi è diventato più sicuro ritirarsi nelle proprie bolle […], circondati da persone che ci assomigliano e che condividono la nostra medesima visione politica e non sfidano mai le nostre posizioni. […] E diventiamo progressivamente tanto sicuri nelle nostre bolle, che finiamo con l’accettare solo quelle informazioni, vere o false che siano, che si adattano alle nostre opinioni, invece di basare le nostre opinioni sulle prove che ci sono là fuori»

[10 gennaio 2017, ultimo discorso da Presidente USA di Barack Obama]

L’ex Presidente degli Stati Uniti d’America lascia la sala ovale a Donald Trump con un discorso che acquisterà enormemente valore da qui ai prossimi anni. In cinque righe, Obama fa un’analisi sociale, politica e culturale del contesto in cui viviamo e traccia la strada da seguire: la verità è fuori dalle nostre bolle, dalle prigioni che ci siamo, inconsapevolmente, autocostruiti, perché ingannati da un algoritmo. Il messaggio di Obama riguarda, ovviamente, la recente campagna elettorale presidenziale e l’influenza esercitata dalle fake news sulla vittoria di Trump.

Dunque, il mondo è ormai stracolmo di bolle autoreferenziali ed è paradossale se si pensa che nell’era di internet, storicamente passata come l’innovazione che accorcia notevolmente tempi e distanze, in realtà, tanto vicini non lo siamo perché ognuno vive in una propria prigione cognitiva.

Non stiamo qui a dirvi di smetterla con i social, non è questo il punto. Ma già essere consapevoli che stare online significa vivere in una bolla (tra miliardi di altre bolle) è un passo avanti.

Proviamo a dirlo in un altro modo: siete consapevoli del fatto che scrollare (traduzione: muovere il pollice sullo schermo dello smartphone) la propria sezione notizie di Facebook non è poi tanto diverso dal mettere un like a un proprio post?

Andrea Palumbo

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here