di Giovanna Cracco –
La democrazia ai tempi del capitalismo digitale: informazione e web, allarme fake news, ma il vero problema è la bolla dentro cui gli algoritmi di profilazione ci rinchiudono. Un rischio per la democrazia però, di fatto esiste. A marzo del 2017 il New York Times ha annunciato l’avvio di una sperimentazione: la personalizzazione delle notizie. Esiste un rischio per la democrazia ed è rappresentato dal diritto sempre meno garantito del cittadino a un’informazione che sia plurale, libera e indipendente, fuori da qualsiasi bolla.
L’ultimo rapporto del Reuters Institute, “Digital News Report 2017”, pubblicato a giugno, analizza il modo di fruire l’informazione da parte dei cittadini di trentasei Paesi dell’area occidentale: Europa, America del nord e del sud, area del Pacifico. Non è una sorpresa, eppure il primo dato che cattura l’attenzione è il divario generazionale: chi è cresciuto in internet considera la rete la sua principale fonte d’informazione.
Nella fascia di età 18- 24 anni il 64% legge le notizie online, ed è un numero di poco inferiore, il 58%, tra i 25-34 anni; sull’altro lato della scala, per gli over 55 è appena il 28%, che sale al 39% tra i 45-54 anni. All’interno di queste percentuali, il 33% tra i più giovani segue le news attraverso i social network (Facebook non ha rivali, con il suo 47%, subito dopo si posiziona Youtube con il 22% mentre Twitter è al 10%); nelle ultime due fasce di età, appena il 10 e il 7% si informa all’interno dei social. È evidente quindi che la rete e Facebook assumeranno in futuro sempre più importanza nel campo dell’informazione.
Politica e grande stampa denunciano un rischio per la democrazia collegato a questo passaggio di testimone tra i media tradizionali e il web, perché internet e i social sono anche il mezzo virale di diffusione delle fake news. Il rischio di fatto esiste ma non nei termini in cui viene presentato, e non collegato alle false notizie.
È definita ‘bolla informativa’ l’ambito chiuso che viene a crearsi, intorno a ogni persona che navighi in rete, come risultato della profilazione messa in atto dai grandi attori del web. Google innanzitutto, con l’enorme potere che gli deriva dall’essere il principale motore di ricerca, e che registra ogni volta che lo utilizziamo l’indirizzo IP del dispositivo (computer, smartphone ecc.), identificandoci, e collegando a esso geolocalizzazione, le ricerche precedenti, i siti visitati ecc. Con questa profilazione Google crea una sorta di carta d’identità di chi siamo – gli argomenti che interessano, cosa piace, cosa acquistiamo… – che si arricchisce a ogni navigazione, per proporci, come risultato delle nostre ricerche, le risposte più affini a ciò che, in pratica, pensiamo. È facile verificarlo inserendo le stesse parole chiave su un computer utilizzato da un’altra persona, con interessi differenti dai nostri: i siti proposti come risultato della ricerca saranno diversi. La conseguenza evidente di una simile pratica è di isolare ciascuno di noi in una bolla, appunto, culturale e ideologica, impedendoci di entrare in contatto con idee e opinioni diverse dalle nostre.
La bolla di Google è antica quasi quanto Google, e la si può sfuggire utilizzando altri motori di ricerca o software che modificano l’indirizzo IP, bloccano gli algoritmi di profilazione ecc.; programmi semplici da installare, che tuttavia solo una minima parte delle persone che accedono a internet utilizza, per mancanza di consapevolezza o semplice disinteresse a tutelare la propria privacy e libertà. Il problema tuttavia è che questa situazione di prigionia è destinata ad aggravarsi, non essendo più solo Google a usare gli algoritmi per identificarci e tenerci rinchiusi.
A marzo il New York Times ha annunciato l’avvio di una sperimentazione: la personalizzazione delle notizie (1). In base alla profilazione dell’utente che accede al sito del quotidiano, muterà la proposta di articoli visibili sulla pagina online, sia da un punto di vista geografico – saranno in primo piano le news relative al luogo in cui ci si trova – sia tematico: se leggo spesso articoli sull’immigrazione continuerò a vederli, se evito le notizie relative al mondo del lavoro, non le vedrò più.
A ottobre anche la BBC ha lanciato un programma di ricerca quinquennale con l’obiettivo di creare una “BBC più personale”, per sviluppare contenuti specifici e dare a ogni singolo spettatore ciò che gli interessa (2). La tecnica utilizzata è la stessa, la profilazione, e il risultato sarà il medesimo ottenuto dal New York Times. È facile ipotizzare che a breve altre importanti testate percorreranno la strada delle news su misura.
Da tempo si è mosso anche Facebook, e data l’egemonia che ha conquistato tra i social e la crescita del suo ruolo come canale privilegiato per accedere alle notizie, l’impatto delle sue scelte è enorme. Già ora, dentro Facebook, ogni utente è all’interno di una bolla relazionale e informativa: nella bacheca vede solo ciò che postano gli amici – e tendenzialmente ci si circonda di persone con cui si hanno affinità di pensiero – e grazie alla profilazione gli algoritmi scelgono quali notizie proporre in base agli interessi personali (i post pubblicati e condivisi, i ‘mi piace’, i video guardati ecc.). A ciò si aggiungono alcune recenti novità.
A ottobre l’impresa di Zuckerberg ha avviato dei test per separare i contenuti visualizzati dagli utenti: da una parte i post di amici e quelli promossi con contratti pubblicitari – siano essi prodotti commerciali o le notizie pubblicate da una testata – in una bacheca alternativa, che occorre andarsi a cercare, i contenuti non sponsorizzati (3). La sperimentazione è stata attivata in Bolivia, Guatemala, Cambogia, Slovacchia, Serbia e Sri Lanka, e ha immediatamente registrato un crollo dal 60 all’80% dei contenuti pubblicati non a pagamento.
Già da un paio di mesi circa, inoltre, pur continuando nei Paesi estranei al test a mantenere un’unica bacheca per tutti i post, Facebook ha lanciato una campagna per promuovere le sponsorizzazioni a pagamento (rivolta alle pagine pubbliche, non ai profili personali), e contemporaneamente ha modificato alcuni algoritmi, penalizzando fortemente la visibilità dei contenuti pubblicati se non sponsorizzati – l’abbiamo riscontrato anche sul nostro profilo Paginauno Rivista: un crollo di quasi il 50% delle visualizzazioni da un giorno all’altro.
Profilazione significa anche realtà come la Cambridge Analytica, società che utilizzano le cosiddette ‘scienze comportamentali’ per profilare i potenziali elettori e vendere le relative analisi a partiti e candidati. Dati su cui lo staff della campagna elettorale costruisce messaggi personalizzati, che si basano anch’essi sul dire a ognuno ciò che vuol sentirsi dire; rafforzano quindi le opinioni che la persona già possiede, per indirizzare il suo voto a favore di una proposta politica.
Questi messaggi raggiungono gli elettori all’interno dei social attraverso il nuovo strumento della ‘propaganda computazionale’, una tecnica che utilizzando robot a intelligenza artificiale crea centinaia di profili-bot che cliccano ‘mi piace’, condividono e postano contenuti, scrivono commenti con citazioni celebri e frasi ad alto impatto, e così costruiscono un falso consenso virtuale intorno a candidati o posizioni politiche; l’effetto bandwagon (carrozzone), poi, ossia la tendenza psicologica a lasciarsi trascinare dalla tesi che appare maggioritaria, lo trasforma in consenso reale.
Dietro le scelte di aziende private come Google, Facebook e Cambridge Analytica, e anche di testate come il NYT e la BBC, vi sono principalmente ragioni economiche. Profilazione significa innanzitutto dati da vendere – per ricerche di mercato, campagne di marketing o elettorali non fa differenza (4) – e istituendo il meccanismo dei contenuti a pagamento Zuckerberg aggiunge un nuovo terreno da coltivare a profitti; ma significa anche fidelizzare l’utente/cliente – perché lo si facilita nel trovare rapidamente i contenuti che gli interessano, in quel marasma dispersivo che è la rete, e lo si gratifica con la continua conferma di ciò che pensa – e quindi affinare il target e aumentare gli introiti pubblicitari, ponendo annunci mirati accanto ai contenuti.
Tuttavia il risvolto culturale, e quindi politico, di tutto questo, è devastante. Chiuso nella bolla di Google, dei quotidiani online e di Facebook, il cittadino si trasforma in un criceto che corre all’infinito dentro la ruota: le sue opinioni difficilmente cambieranno, privato dell’opportunità di incrociare punti di vista differenti che le mettano in discussione; anche la sua crescita intellettuale sarà limitata, la sua possibilità di allargare lo sguardo, non entrando mai in contatto con argomenti che non conosce e interessi che già non possiede. E l’unica informazione che potrà leggere dentro Facebook sarà quella mainstream, poiché le grandi testate possiedono le risorse economiche per pubblicizzare a pagamento i propri contenuti mentre le piccole, ancor più quelle indipendenti di controinformazione, che spesso hanno chiavi di letture critiche rispetto al pensiero unico dominante, soldi non ne contano mai.
Banale ricordarlo, ma non è mai stato storicamente interesse di chi detiene il potere creare le condizioni affinché il cittadino possa divenire una persona consapevole e informata; le conseguenze culturali dei processi di profilazione non sono quindi mai stati denunciati. Fino al risultato del referendum sulla Brexit e l’approdo di Trump alla Casa Bianca. La stampa statunitense si è allora scagliata contro il presidente Usa, accusando il suo staff di avere utilizzato in campagna elettorale aziende che si occupano di profilazione comportamentale e social-bot; ma ha taciuto che anche Hillary Clinton ne ha fatto uso, e che già Obama aveva varcato la frontiera della profilazione e dei robot AI (5).
È chiaro che fino a quando questi strumenti vengono utilizzati da quello che potremmo chiamare l’establishment – classe politica, mediatica ed economica unita nel promuovere l’attuale ideologia dominante, che per semplificare sintetizziamo nelle parole globalizzazione e neoliberismo – per l’establishment stesso non rappresentano un problema. Lo diventano quando vince il Sì al referendum sulla Brexit e subito dopo sulla scena arriva una figura, imprevedibile e difficile da gestire più che anti-sistema, come Trump. I due passaggi politici hanno suonato l’allarme: gli algoritmi di profilazione, uniti alla disponibilità di denaro, permettono a chiunque di arrivare direttamente ai cittadini, saltando la mediazione della stampa ufficiale, e spostare il consenso di parte dell’opinione pubblica a favore di una proposta elettorale che si presenti di rottura rispetto alle politiche attuate negli ultimi trent’anni.
Impossibilitati a lanciare il grido di battaglia contro i dispositivi di profilazione, perché a farne uso sono sia i ‘populisti cattivi’ che loro stessi, i ‘politici buoni’, senza dimenticare che rappresentano la struttura portante del capitalismo digitale, il nemico diventano le fake news. Che restano un problema, ma provocatoriamente possiamo dire che si sono democratizzate: ora a fabbricarle e diffonderle non è più solo la classe dirigente al potere.
Un rischio per la democrazia però, di fatto esiste. Ed è rappresentato dal diritto sempre meno garantito del cittadino a un’informazione che sia plurale, libera e indipendente, fuori da qualsiasi bolla. Perché a fare le spese di questa finta guerra rischiano di essere le realtà di controinformazione dal basso, per le quali la rete e Facebook hanno rappresentato un mezzo per esserci, far sentire la propria voce critica, cercare di raggiungere più persone possibili e incidere sull’opinione pubblica; sarà sempre più dura.
(da Paginauno n. 55, dicembre 2017 – gennaio 2018)
1) Cfr. A ‘Community’ of One: The Times Gets Tailored, The New York Times, 18 marzo 2017
2) Cfr. BBC and UK universities launch major partnership to unlock potential of data, BBC, 19 ottobre 2017
3) Cfr. Alex Hern, Facebook moving non-promoted posts out of news feed in trial, The Guardian, 23 ottobre 2017
4) Sugli aspetti del controllo sociale e della trasformazione del sistema politico attuati con la profilazione rimando a Renato Curcio, La società artificiale. Controllo sociale, lavoro e trasformazione del sistema politico, Paginauno n. 55/2017
5) Cfr. Jamie Doward and Alice Gibbs, Did Cambridge Analytica influence the Brexit vote and the US election?, The Guardian, 4 marzo 2017