La bolla del filtro o bolla del filtro (in inglese : filter bubble ) è un concetto sviluppato dall'attivista di Internet Eli Pariser . Secondo Pariser, la “bolla di filtro” designa sia il filtraggio delle informazioni che raggiungono l'utente di Internet attraverso diversi filtri; e lo stato di " isolamento intellettuale e culturale" in cui si trova quando le informazioni che cerca su Internet risultano da una personalizzazione messa in atto a sua insaputa.
Secondo questa teoria, gli algoritmi selezionano “discretamente” i contenuti visibili a ciascun utente di Internet, sulla base di vari dati raccolti su di lui. Ogni utente di Internet accederebbe a una versione notevolmente diversa del web. Sarebbe installato in una " bolla " unica, ottimizzata per la sua presunta personalità. Questa bolla sarebbe in definitiva costruita sia dagli algoritmi che dalle scelte dell'internauta (“amici” sui social network, fonti di informazione, ecc.).
Eli Pariser ritiene che questo fenomeno sia diventato comune sui social network e tramite i motori di ricerca . Siti come Google , Facebook , Twitter o Yahoo! non visualizzare tutte le informazioni, ma solo quelle selezionate per l'utente, e in maniera gerarchica secondo le sue presunte predisposizioni (anche ideologiche e politiche). Sulla base di dati diversi ( cronologia , clic , interazioni social), questi siti prevedono ciò che sarà più rilevante per loro. Gli forniscono quindi le informazioni più rilevanti (anche da un punto di vista commerciale e pubblicitario), tralasciando quelle per loro meno rilevanti. Se gli algoritmi considerano che le informazioni non sono rilevanti per un utente di Internet, semplicemente non gli verranno presentate.
Pubblicizzato dal 2010, il concetto di bolle di filtro è stato criticato per l'importanza che attribuisce agli algoritmi e alle misure di personalizzazione tecnica. Uno studio, ad esempio, qualifica l'impatto dello scoppio delle bolle di filtro sulla nostra capacità di interrogarci e ricorda l'influenza ancora maggiore della televisione.
Grazie a Internet, le informazioni potenzialmente disponibili continuano a crescere: in teoria, sono sempre più accessibili, il che consentirebbe a un utente Internet proattivo di scoprire molti punti di vista diversi dal proprio. Ma paradossalmente, secondo Bakshy et al. (2015) e altri autori, l'accesso reale alle informazioni stampa, opinioni e informazioni è sempre più filtrato dagli algoritmi dei motori di ricerca e/o tramite i social network .
I ricercatori hanno dimostrato che all'interno di Facebook , il filtraggio algoritmico seguito dal filtraggio peer limita il libero arbitrio dell'utente di Internet non presentandogli gran parte delle informazioni (e in particolare limitando il suo accesso alle informazioni. dati o interpretazioni che a priori sarebbero essere per lui più difficile da adottare) e spesso presentando solo una parte delle sfaccettature di un'informazione. Le brevi informazioni condivise peer to peer da milioni di utenti, infatti, provengono per la maggior parte da fonti allineate con l'ideologia o le preferenze dell'utente di Internet. I lettori incontrano il 15% in meno di contenuti trasversali nei loro feed di notizie (a causa del ranking algoritmico) e faranno clic con il 70% in meno di facilità su informazioni provenienti da fonti insolite per loro.
Come in una camera di eco , questo fenomeno tenderebbe ad autosostenersi riproducendo principalmente le opinioni , le credenze e le prospettive dell'utente formando un circolo vizioso .
Un utente di un determinato orientamento politico vedrebbe più contenuti favorevoli a questo orientamento. Sarebbe meno soggetto a punti di vista contraddittori perché gli algoritmi selezionerebbero per lui i contenuti più rilevanti, quelli che più gli piacciono. Ad esempio, a un utente Internet che sarebbe identificato come "di sinistra " dal sito, verrebbero offerti meno contenuti "di destra ".
Query simili possono quindi dare risultati molto diversi. Supponiamo, ad esempio, che due persone, una più politicamente di destra e l'altra più di sinistra, cerchino il termine "BP". Gli utenti "di destra" troveranno informazioni sugli investimenti in British Petroleum . Gli utenti "di sinistra" riceveranno informazioni sulla fuoriuscita di petrolio nel Golfo del Messico . Lo stesso vale per la presentazione di informazioni relative a una guerra, ad esempio la guerra in Iraq o più recentemente le informazioni fornite ai sostenitori di Donald Trump negli Stati Uniti.
La bolla del filtro può influenzare le relazioni sociali e i social network e viceversa. In alcuni social network , la personalizzazione algoritmica nasconderebbe i messaggi meno rilevanti, quelli che sarebbero meno cliccati dall'utente. Meno interagiamo con un “ amico ” di Facebook, meno visibili sono i messaggi che pubblica, meno probabilità avremo di interagire con lui. Pariser mette in evidenza la "scomparsa" dei messaggi dei suoi amici conservatori dal suo feed di attività di Facebook. Mentre aveva aggiunto "amici" conservatori per leggere la loro opinione, la personalizzazione non suggeriva più post di queste persone. Secondo l'algoritmo, questo era irrilevante per Pariser: non avrebbe dovuto cliccare o leggere queste opinioni .
La bolla filtro ridurrebbe quindi il campo informativo dell'internauta; Secondo A Saemmer (2017), molti studenti affermano di consultare la stampa online esclusivamente o principalmente seguendo i link postati dai loro amici sui social network, cioè senza consultare la “prima pagina” o il riassunto dei giornali. .
Secondo Messing (2012), in un social network, un sostegno sociale più forte può portare a un ronzio che aumenta la probabilità che un utente di Internet scelga di leggere contenuti che altrimenti non gli sarebbero stati presentati, il che potrebbe in una certa misura compensare la sua esposizione selettiva iniziale. Tuttavia, nel 2016 in un lungo articolo, commentato a lungo poiché, Katharine Viner , caporedattore del quotidiano The Guardian , stima che quello digitale abbia scosso notevolmente il nostro rapporto con i fatti e che i social network , in particolare, siano largamente responsabili per la vittoria ( populisti ) sostenitori del referendum britannico sull'adesione all'UE , anche se essi stessi hanno ammesso che le loro argomentazioni erano false. Viner afferma che se i social network si accontentano di spacciare dicerie e "vere bugie", è grazie alle bolle di filtro che, a seconda delle pagine visitate, indirizzano gli utenti a ciò che sono abituati a visitare e che, ad esempio, tendono quindi a rafforzare le loro opinioni invece di stimolare il loro pensiero critico .
Il successo del social Web e il sovraccarico di informazioni che questo successo genera hanno rapidamente provocato la necessità di ordinare le informazioni e sviluppare le capacità di filtraggio delle piattaforme interazionali. I motori di ricerca come Google o social network come Facebook o Twitter sono programmati per evidenziare le cosiddette informazioni “rilevanti”, in altre parole, suscettibili di interessare l'utente e per scartare le informazioni ritenute meno rilevanti. La popolarità dei social network risiede in questa capacità di presentare in modo rapido ed efficiente contenuti di interesse per l'utente. Il filtraggio funziona grazie all'implementazione di un algoritmo . L'informatico Gérard Berry parla "di un modo per descrivere con dovizia di particolari come procedere per fare qualcosa". Su Internet, gli algoritmi stabiliscono una gerarchia nell'aspetto dei contenuti sull'interfaccia utente. Ognuno di essi influenza l'accesso alle informazioni a modo suo e fornisce un'esperienza specifica e personalizzata per ciascun utente. Ad esempio, sui social network, sono i “mi piace” o i “retweet” che fanno sì che alcuni contenuti vengano evidenziati rispetto ad altri, ritenuti poi meno rilevanti.
Dal 2016 il social network Twitter ha visto l'introduzione di un nuovo thread algoritmico. Gli utenti che in precedenza hanno visto i tweet (post realizzati sulla rete) apparire in ordine anti-cronologico, vedranno invece quei post in un ordine di preferenza definito dall'algoritmo. L'algoritmo opera la selezione dei Tweet secondo diversi criteri tra i quali si possono citare: il numero di retweet (il numero di volte che il tweet viene ripubblicato in rete), se l'utente è in forte interazione con la persona che twitta o se è uno dei suoi preferiti. L'algoritmo valuta quindi la pertinenza di un tweet e visualizzerà nella parte superiore del feed quelli che hanno maggiori probabilità di interessare l'utente di Internet. Il resto dei tweet apparirà come prima, in ordine anti-cronologico. Concretamente, la riorganizzazione cronologica della rete è segnata dall'introduzione di due nuove sezioni. Innanzitutto, la "Cronologia classificata" o "Cronologia classificata" che mostra i tweet pertinenti nella parte superiore del feed dopo una o due ore di non utilizzo della rete. E la sezione "Potrebbe piacerti" che sostituisce il vecchio "In tua assenza", che si presenta come una funzione complementare e che elenca i tweet meno recenti poiché compare solo diversi giorni dopo l'ultima connessione. Il contributo di questo nuovo algoritmo a Twitter è multiplo secondo l'azienda . L'introduzione di un algoritmo consente a Twitter di conoscere meglio i propri utenti e il modo in cui interagiscono in rete. Quindi, consente di adattare il contenuto in base all'utente e quindi aumentare il dinamismo, il coinvolgimento e l'attenzione sulla piattaforma. Infine, il sistema è abbastanza complesso da offrire a ciascuno degli utenti di Twitter un'esperienza personalizzata senza che si trovino sempre di fronte agli stessi tweet quando effettuano il login.
Il social network ha più di un miliardo di utenti in tutto il mondo. Ecco perché è impossibile per il sito creato da Mark Zuckerberg nel 2004, mostrare tutto ciò che i "nostri amici" pubblicano sul web: Facebook deve selezionare le informazioni. È grazie a un algoritmo chiamato EdgeRank progettato nel 2006 e abbandonato a favore del Newsfeed Ranking Algorithm nel 2011 che il social network ordina le sue informazioni utilizzando 100.000 parametri.
Tra questi parametri, ce ne sono quattro che sono i più famosi:
L'obiettivo di Facebook è mostrare a ciascun utente ciò che lo interesserà di più. E cosa gli piacerà, commenterà o condividerà più facilmente. L'obiettivo è creare il maggior numero di reazioni dal lato consumer del social network. Facebook seleziona quindi i contenuti che potrebbero essere di interesse per gli utenti di Internet. L'algoritmo procederà attraverso diversi passaggi che assegneranno un punteggio di pertinenza a ciascun post e quindi determineranno se verrà pubblicato o meno su Facebook. Prima viene posta una serie di domande del tipo: Quali storie sono state pubblicate dagli amici? Chi ha pubblicato queste storie? Come ci comportiamo per reagire a questo contenuto? Così come l'interesse mostrato per questa pubblicazione. Tutte queste domande saranno poi modellate su ogni post sul social network. I post pubblicati dai consumatori sul sito verranno poi analizzati per dar loro importanza. Come ad esempio: commenti e tag degli amici, quando è stato pubblicato il post, feedback negativo dato all'autore, con quale frequenza vengono pubblicati i post...
Successivamente, l'algoritmo farà diverse previsioni:
Tutti questi criteri vengono analizzati con il fatto che c'è un clickbait (letteralmente significa " clickbait "), nudità o meno sulla pubblicazione. Entrambi questi fattori possono influenzare negativamente il post. Ogni post riceve una valutazione in base ai diversi fattori con cui è stato analizzato. Questo punteggio viene assegnato personalmente ad ogni persona ed è quindi legato al nostro profilo, alle nostre relazioni e alle nostre abitudini sul social network.
Dalla sua acquisizione da parte di Facebook nel 2012, i principi dell'algoritmo di Instagram sono stati modellati su quelli di Facebook. La pubblicazione delle pubblicazioni nel feed è ora effettuata sulla base di 3 criteri e non in un ordine anticronologico.
La popolarità dei post e il coinvolgimento sono i criteri più importanti. Questo algoritmo è stato implementato in modo che gli utenti di Internet interagiscano sulla rete. Le storie (pubblicazioni effimere) sono una funzionalità basata sul principio del social network Snapchat . Ma a differenza di questo, le storie di Instagram sono classificate dall'algoritmo che utilizza i dati di Facebook. L'algoritmo di Instagram sta riorganizzando l'ordine in cui appaiono i post, poiché sembra che le persone vedranno solo il 30% del loro feed e perderanno il 70%. Ecco perché l'algoritmo rimanda le pubblicazioni che potrebbero potenzialmente interessare l'internauta e quindi non seguire più la cronologia delle pubblicazioni.
YouTube si differenzia dagli altri social network per essere un sito di hosting di video. Tuttavia, riesce a immergere gli utenti in una bolla di filtro. Il suo algoritmo seleziona i contenuti per gli utenti di Internet e rafforza così le loro opinioni. Al termine della visualizzazione di un video sulla piattaforma, l'algoritmo offre all'utente Internet una raccomandazione per visualizzare altri contenuti descritti come simili. Questa funzione mantiene lo spettatore nella stessa idea senza metterlo di fronte a contenuti opposti.
Quali sono i criteri che determineranno i contenuti da guardare?
Il sito ha una categoria "tendenze" in cui vengono offerti diversi tipi di video. L'algoritmo ci offre queste capsule perché ritiene che il contenuto sia di buona qualità. Affinché il programma per computer possa valutare la qualità di un video, analizza il tempo di visualizzazione medio degli utenti. Più a lungo si guarda un video, più è probabile che abbia dei buoni contenuti che l'algoritmo offrirà agli spettatori.
Nel 2020, un team di ricercatori del Marc Bloch Center ha pubblicato uno studio sulla rivista PLoS ONE che mostra che i video con un numero elevato di visualizzazioni tendono a promuovere le bolle di filtro, ovvero il confinamento dell'utente a video simili a quello che sta guardando, mentre quelli con un basso numero di visualizzazioni offrono suggerimenti più diversificati.
In generale, l'introduzione di algoritmi sui social network può comportare dei rischi. Infatti, accademici come il sociologo Dominique Cardon ritengono che gli algoritmi sui social network tendano a riprodurre la realtà ea perpetuare le strutture sociali esistenti. Così, questi social network spingono i propri utenti a consumare contenuti che già consultano, il che può provocare una sorta di partizionamento degli utenti nel loro stesso conformismo: vedranno solo il contenuto che verrà loro mostrato, rischierebbero quindi di rinchiudersi le membra in una "bolla di filtro".
Le bolle di filtro di YouTube portano alcune persone a credere che la terra sia piatta (platosfera), nella comunità dei platisti.
Di fronte a questa situazione esistono o sembrano possibili diverse soluzioni. Ognuno potrebbe meglio affermare il proprio "diritto all'informazione" ed uscire volontariamente dalla propria bolla filtro, andando volontariamente incontrare punti di vista diversi, anche opposti al proprio, e anche, ad esempio, coltivare uno sguardo critico da studiando le opinioni di articoli sottoposti a revisione paritaria pubblicati dopo la foga del momento, ad esempio tramite Google Scholar .
La Corte europea dei diritti dell'uomo ha ricordato l'8 luglio 1976 che “Il principio generale di qualsiasi trattamento giuridico ed etico delle informazioni deve basarsi su una chiara distinzione tra opinione e informazione. La prima riguarda l'espressione di pensieri, credenze e giudizi di valore, e la seconda riguarda dati e fatti, fatti che possono essere oggetto di informazione “o che possono essere di rilievo. pubblico”” .
Il CEO di Facebook , Mark Zuckerberg , ha minimizzato la portata di questo fenomeno sulla piattaforma da lui co-fondata, ma l'azienda ha comunque iniziato a lavorare su misure per limitarne l'impatto.
Sono stati inoltre istituiti siti specializzati, principalmente negli Stati Uniti , che consentono a tutti di venire a conoscenza di questo fenomeno, come allsides.com o hifromtheotherside.com .
Alcuni motori di ricerca non personalizzati sostengono che la loro mancanza di ordinamento ideologico dei risultati di ricerca aiuta a combattere le bolle di filtro. Infatti, poiché non vengono raccolti o valutati dati personali, non è possibile creare alcuna bolla di filtro. Questo è ad esempio il caso di Qwant o Ecosia . Infine, sono state sviluppate estensioni per i browser web Google Chrome o Mozilla Firefox per evidenziare le bolle di filtro e contestualizzare determinate informazioni.
In Francia, il quotidiano Le Drenche propone due opinioni diverse e contrapposte per tutti i temi, con l'obiettivo dichiarato di combattere le bolle di filtro; è una tecnica giornalistica ben nota, che sotto le spoglie della neutralità però tende talvolta a privilegiare, anche a ricercare gli estremi a discapito di punti di vista sfumati e/o del pluralismo di opinioni.
La copertura mediatica della teoria della bolla di filtro di Eli Pariser è intesa come critica, ma sono possibili altre letture. Per André Gunthert in E se ci fermassimo con le bolle del filtro? (André Gunthert è docente presso l' École des Hautes Etudes en Sciences Sociales (EHESS), dove detiene la cattedra di storia visiva), “Il sistema di selezione di Facebook cambia solo l'esposizione ai contenuti dell'1%. politiche dei campi opposti”; dà la parola a Dominique Cardon, secondo il quale “la bolla, siamo noi che la creiamo. Con un tipico meccanismo di riproduzione sociale. Il vero filtro è la scelta dei nostri amici, più che l'algoritmo di Facebook. "