[La redazione di Ibridamenti ricorda Gilberto Pierazzuoli, saggista, animatore culturale e autore di Il soggetto collaborativo. Per una critica del capitalismo digitale (ombrecorte, 2022, con la Prefazione di Claudio Kulesko), di cui pubblichiamo un estratto per gentile concessione dell’editore]

Il potere delle grandi piattaforme

Per il senso comune sembrerebbe ovvio che la pertinenza dei risultati di una interrogazione ad un motore di ricerca sia, se non univoca, semplicemente influenzata dalla specificità dell’interrogazione, ma sappiamo che da alcuni anni non è più così.

Come abbiamo visto sopra si è pensato che là dove ci fossero dei nodi di ambiguità si dovessero scegliere dei percorsi che avessero una maggiore affinità con chi aveva posto l’interrogazione. Si è quindi avuta una personalizzazione dei risultati che comporta anche una raccolta di dati inerenti la tua persona e comprendenti le tue opinioni, le preferenze di gusto, ma anche quelle etiche e politiche.

Internet è probabilmente la tecnologia più rappresentativa e più caratteristica di questa epoca; la rete infatti mette a disposizione di un gran numero di abitanti del pianeta una quantità enorme di informazioni con anche la possibilità per chiunque di poter essere non solo fruitore dei dati circolanti, ma anche di esserne produttore. Ma la rete funziona a partire dall’esistenza di un modo di orientarsi in questa enorme massa di dati, e il modo di orientarsi sono i motori di ricerca che non sono strumenti intrinsechi della rete come il sistema di scambi in quella ferroviaria, ma sono proprietà di poche aziende private con una di queste, Google, leader e quasi monopolista.

Questa particolarità passa quasi inosservata poiché il servizio offerto è gratuito. Ma perché lo è? Semplicemente perché le aziende in questione vi chiedono in cambio i dati sulla vostra persona. Ogni tipo di dato che è possibile estrapolare dai vostri comportamenti in rete. Ogni azienda che ha dimensioni globali e che fa riferimento alla rete, possiede un’enorme quantità di dati che le permette di individuare ogni nicchia di mercato e di poter fare un’offerta ad hoc ad ogni tipo di consumatore. Amazon raccoglie dati sulle vostre preferenze in termini di acquisti, Google scandaglierà le interrogazioni al suo motore, infine Facebook avrà a disposizione una gamma più vasta di tipologia di dati.

Ma come funziona il meccanismo? Facebook personalizza la bacheca che vi trovate di fronte all’apertura del programma. Indipendentemente dal numero dei vostri “amici”, troverete in bacheca non tutte le notizie che questi avranno postato ma soltanto quelle di coloro con i quali avete interagito di più. Così se inserite una comunicazione pensando che la leggeranno tutti, in realtà andrà soltanto sulla bacheca di alcuni, di quelli che probabilmente vi sono più affini, creando un circuito autoreferenziale con poche possibilità di poter far veicolare all’esterno una voce fuori dal coro.

Ora la quantità di informazioni che Facebook possiede è enorme. Più di due miliardi e mezzo di abitanti del pianeta costituiscono – anche senza dover incrociare i dati con altri raccoglitori di informazioni – una potenzialità di controllo e condizionamento incredibile. Questo punto è facile da capire a livello di controllo, ma non immediato a livello di condizionamento. Per condizionamento non si deve pensare a qualcosa di simile al lavaggio del cervello, piuttosto a una forma di disagio nel trovarsi a dover esprimere idee e comportamenti diversi da quelli della gente che ti circonda se non al riparo di una nicchia che però non riesce a comunicare al di fuori.

Tutto questo è cosa ormai detta. Ma ci sono delle novità. Google è stato multato per una cifra record. Al centro delle contestazioni da parte dell’Antitrust europeo, la promozione del suo servizio Google Shopping a scapito delle logiche di concorrenza. Nel 2015, infatti, al termine della conclusione dell’indagine preliminare, la Commissione aveva stabilito che Google favoriva sistematicamente il proprio prodotto per gli acquisti comparativi (Google Shopping) nelle sue pagine generali che mostrano i risultati delle ricerche, deviando il traffico da servizi di acquisto comparativo concorrenti.

Un’ulteriore considerazione: in un social come Facebook gli utenti postano le loro convinzioni politiche, etiche, sportive e le loro preferenze alimentari e culturali. Vi si può essere tracciati in ogni momento della giornata per segnalare la propria vicinanza agli amici; insomma è un programma attraverso il quale mettiamo a disposizione uno spettro molto ampio di dati sulla nostra persona così come fanno praticamente tutti gli altri utenti, e di utenti, come abbiamo già detto, ce ne sono tanti. Questo significa che, se preso un giusto campione della popolazione, è possibile prevedere molti dei suoi comportamenti, con un campione di così grandi dimensioni i livelli di predizione tenderanno a diventare sempre più sofisticati e precisi tanto da permettere di interpretare e simulare qualsiasi spostamento nei comportamenti e nelle opinioni di masse significative della popolazione stessa. Come anche di individuare e circoscrivere comportamenti ritenuti non consoni. E tutto questo, lo ripetiamo, in mano di una singola azienda privata che adesso usa questo potere per raccogliere pubblicità, ma che domani potrebbe pensare di fare anche qualche altra cosa.

Il capitalismo della sorveglianza

Inevitabilità. Il motto dell’esposizione universale di Chicago del 1933 recita: «La scienza trova, l’industria applica, l’uomo si adatta». E segna la fiducia incontrastata sulla capacità della scienza di produrre progresso nella certezza che il progresso stesso fosse/sia sempre un bene per l’umanità. Ogni critica all’applicazione di una nuova tecnologia veniva respinta appellandola retrograda anche nel senso che sottende un ripiegamento e un riemergere di tempi ed epoche storiche nelle quali l’umanità aveva sofferto di un’infinità di problematiche e di malesseri. Così come allora, anche oggi ci vengono recitati diversi mantra. Oltre a quello sempreverde del progresso, ecco l’inevitabilità o la mancanza, vera o presunta, di possibili alternative a quello che ci viene pro(im)posto. Il futuro ci riserverà meraviglie mentre le fantasie distopiche sono indice di un atteggiamento o forse di una patologia tipica: quella del guastafeste.

Se il capitalismo manifatturiero, quello industriale, aveva messo in campo un modo di produzione che soggiogava la natura portando il mondo vicino al collasso, “il capitalismo della sorveglianza” cerca di soggiogare la natura umana. Dal soggiogare la natura a soggiogare la natura umana, questo è il passaggio che si concretizza nel cambiamento di millennio. La narrazione racconta questo passaggio. All’inizio l’esplosione della cosiddetta bolla delle dot.com, compagnie che avevano raggiunto alti livelli di capitalizzazione sulla scia di potenziali exploit supponibili a partire dalla loro popolarità nel World Wide Web, ma che, in realtà, scontavano la difficoltà di capitalizzare questa loro popolarità. L’ambito era ed è particolarmente ammantato da un’aura alla quale contribuiscono dei valori pensati fondanti quali quelli che inneggiano a una visione libertaria, innovativa, democratica e gratuita. Intorno a questo racconto si sono incistate situazioni che hanno determinato l’evoluzione di questa piattaforma di comunicazione. Uno di questi è il nodo intorno al quale si è attorcigliato e sviluppato il capitalismo della sorveglianza e in particolare la gratuità dell’accesso alla rete e quella dell’accesso ai servizi. L’evoluzione di Google è paradigmatica di questo stato delle cose. Il motore di ricerca non era così dominante, lo diventa quando applica due principi. Il primo è quello dell’indicizzazione dei risultati che utilizza gli stessi criteri che vengono usati per il rating delle riviste scientifiche e sono principalmente la qualità e il numero dei rimandi, e quindi i link da siti che a sua volta hanno punteggi rimarchevoli.

Dall’altro è la personalizzazione delle risposte alle query (richieste in input, in particolar modo interrogazioni di un data base). La personalizzazione permette al motore di mostrare per prima le risposte che hanno più affinità con le discipline e gli argomenti che più interessano l’utente. Attraverso queste scelte il motore di Google è diventato il più usato in assoluto operando alla fine in un regime di quasi monopolio. Gli accessi al sito di Google erano e sono al primo posto tra tutti i siti del web. Per fare questo Google doveva prendere delle informazioni che riguardavano l’interrogante per conoscerne indole, curiosità, aree di competenza, preferenze e caratteri culturali. Poi occorreva estrarre queste informazioni dai suoi comportamenti nella navigazione nella rete. Occorreva spiare il comportamento in rete di tutti coloro che accedevano alla stessa. Sino a qui, il fatto di essere spiati da algoritmi funzionalizzati a migliorare le risposte alle tue domande non creava disagi particolari, ma non creava nemmeno introiti al prestatore di servizi, in questo caso Google che aveva ormai monopolizzato il mercato. Ma Google si ritrovava in mano – sui suoi server – questa massa di informazioni che avevano alimentato l’algoritmo di ricerca, come residuo, scarto, avanzo dell’operazione di ricerca. Poteva però usarle per vendere una forma di pubblicità più mirata. Poteva targettizzare gli utenti per offrire agli inserzionisti un’alta probabilità che i primi fossero realmente interessati al prodotto o al servizio pubblicizzato. Ecco che quei dati utilizzati inizialmente per affinare l’algoritmo di ricerca, diventavano preziosi.

Da questa situazione viene fuori il detto: se è gratis, la merce sei tu. Ma come è successo che un privato si sia appropriato di dati concernenti l’insieme dei tuoi comportamenti, propensioni, idee, sentimenti se non difetti e malattie? Perché inizialmente questi dati servivano ad alimentare l’algoritmo che lavorava per te, per restituirti risposte più precise alla tua interrogazione e basta. Nessuno gettava uno sguardo nel calderone delle basi di dati che il motore di Google raccoglieva. Una volta creata la consuetudine, divenne difficile tornare indietro. Dopo l’undici settembre, la priorità che si richiedeva di dare alla lotta al terrorismo, appianò ulteriormente la strada costringendoci ad una scelta obbligata tra difesa della nostra incolumità e difesa della nostra privacy.

Il capitale del XXI secolo, il Capitale Digitale, è di tipo estrattivo. Il termine estrazione fa riferimento alle relazioni sociali e alle infrastrutture materiali con le quali l’azienda impone la propria autorità su tali materie prime per poterne ottenere in quantità tali da sostenere un’economia di scala. Significa anche che l’analisi predittiva può avere un dovuto successo. Per fare questo la quantità di dati deve essere più ricca possibile e, per predire i comportamenti non soltanto dei singoli ma di masse importanti della popolazione, ne occorrono il più possibile. Ma i numeri delle aziende del capitalismo della sorveglianza sono anch’essi imponenti. A consolidare il dispositivo il detto, ormai entrato nel senso comune, che se non si ha niente da nascondere, non ci si dovrebbe impaurire, non riflettendo sul fatto che, probabilmente, la maggioranza della persone non ha niente da nascondere in generale, ma che poi, in realtà, ci sono cose che uno preferirebbe che non fossero alla conoscenza di tutti o di Tizio, oppure di Caio. Ho citato Facebook non a caso, è infatti l’azienda che con Google ha il suo core business nella raccolta e indicizzazione dei dati basata anche essa, e in parte giustificata, dalla personalizzazione in questo caso della bacheca (la news feed).

Il lavoro delle grandi aziende legate al web è dunque l’estrazione di dati per offrire pubblicità perfettamente mirate, ma anche per fare qualcosa di più: prevedere il comportamento, ma anche condizionarlo. Niente di particolarmente nuovo, ogni pubblicità, oltre che farti conoscere un prodotto, cerca di convincerti della sua indispensabilità. Ma qui le cose cominciano a diventare un po’ più complesse. Pensiamo all’esperimento che Facebook ha fatto per le elezioni americane di medio termine del 2012. La cosa è conosciuta perché Facebook stessa ha pubblicato su Nature un articolo così intitolato: Un esperimento d’influenza sociale e mobilitazione politica su 61 milioni di persone. A un primo gruppo venne mostrata un’affermazione all’inizio del loro news feed (la colonna delle notizie, quella che ci accoglie appena entriamo sul social network e ci mostra tutti i post condivisi dai nostri amici e dalle pagine che seguiamo) che li incoraggia a votare. Comprendeva un link per informarsi sui seggi, un pulsante con la scritta “ho votato”, un contatore che riportava quanti utenti di Facebook avevano affermato di aver votato e sei foto del profilo di amici che avevano già cliccato su “ho votato”. Un secondo gruppo ricevette le stesse informazioni, ma senza le immagini degli amici, mentre il gruppo di controllo non ricevette nessun messaggio. I risultati dimostrarono che gli utenti che avevano ricevuto il messaggio sui social avevano più probabilità di cliccare su “ho votato” rispetto a coloro ai quali era arrivata la semplice informazione.

I “ricercatori” di Facebook determinarono che i messaggi erano uno strumento efficace di tuning (sintonizzazione, accordo su un’opinione). Il team calcolò che i messaggi manipolati avevano mandato 60.000 votanti in più a queste elezioni di quelle del 2010. Più 280.000 che erano andati a votare per “contagio sociale” per un totale di 340.000 voti in più.

Così scrive un product manager di Facebook:

Qualunque utente, a un certo punto della sua presenza in rete, diviene il soggetto di qualche esperimento, che si tratti di vedere una pubblicità in un formato diverso, di usare messaggi e pulsanti differenti, o di avere un feed generato secondo un algoritmo che segue un’altra classificazione: […] Lo scopo fondamentale di molte persone che lavorano con i dati per Facebook è alterare l’umore e il comportamento della gente. Lo fanno in continuazione per farti apprezzare di più le storie, per farti cliccare su più ads, per farti passare più tempo su un certo sito: È così che funziona, lo fanno tutti e tutti sanno che lo fanno tutti (Zuboff 2019, pp. 318-319).

Influenzare la gente ad andare a votare è poca cosa, quasi una “pubblicità progresso”, ma lo scandalo di Cambridge Analytica rimanda a situazioni un po’ più pruriginose.

Il capitale e i suoi attori. Per adesso abbiamo parlato principalmente di due strumenti: del motore di ricerca Google Search e del Social Network Facebook, ma gli strumenti di estrazione dei dati sono molti altri. L’operazione street view di Google è stato un modo non tanto di allargare un servizio ma un espediente per raccogliere più dati. Le auto che mappavano quasi ogni angolo della terra abitata non si limitavano a fare riprese, ma raccoglievano dati sulla presenza localizzata di punti Wi-Fi e delle utenze relative spiando anche in alcuni casi i contenuti delle connessioni. La app Google Play preinstallata sui telefoni Android controlla continuamente la localizzazione dell’utente, mandando informazioni alle altre app e ai server di Google. I cookie – denominazione affettuosa per delle bricioline di tracciamento che Pollicino/Capitale della sorveglianza lascia – sono presenti in quasi tutti i siti e raccolgono informazioni sulla nostra navigazione ma anche su tante altre cose come permanenza, azioni e sui termini che più usiamo. Una ricerca riporta che chiunque avesse visitato i cento maggiori siti aveva raccolto qualcosa come più di 6.000 cookie, lo 83 per cento dei quali appartenenti a parti terze non in relazione con il sito visitato. C’era di mezzo l’infrastruttura di tracciamento di Google in 92 dei 100 siti top e in 923 dei 1.000. Il 78 per cento dava il via a trasferimenti verso un dominio di proprietà di Google e per il resto a un dominio di proprietà di Facebook.

Eccoci ora all’Intelligenza Artificiale (IA). La visione del mondo delle aziende del capitalismo della sorveglianza è un futuro nel quale la maggioranza delle decisioni le prenderanno le macchine. I frigoriferi compileranno da soli la lista della spesa perché conosceranno il proprio contenuto e le nostre preferenze in termini di alimentazione. Conosceranno anche qualcosa più di noi, per esempio la stagionalità dei prodotti o semplicemente la loro reperibilità con il minimo dello sforzo, sino a fare ordini direttamente al nostro fornitore o al loro fornitore di Fiducia. I termostati alzeranno e abbasseranno le tapparelle, faranno partire la caldaia o il condizionatore fornendoci la temperatura più consona. La televisione si sintonizzerà automaticamente sui nostri programmi preferiti e ci chiamerà e ordinerà di sederci sul divano. Anche la Democrazia sarà prêt-à-porter. Il regime politico sarà in mano alle macchine che amministreranno la cosa pubblica per il Nostro benessere. E tutti questi gadget estrarranno dati per perpetuare il loro dominio. Ogni oggetto si farà smart per aiutarci e ascoltarci. L’IA trova la reificazione nell’Internet delle Cose. È l’apoteosi dell’estrazione dei dati. La pervasività assoluta della sorveglianza con tecnologie che la assecondano come il 5G che forse non è nocivo per la salute fisica più di altri sistemi come i più diffidenti proclamano, ma che coadiuva il progetto del panopticon universale. Protesi indossabili che trasmettono dati sulla nostra persona. I telefoni che si sbloccano con l’impronta digitale hanno realizzato il sogno distopico di coloro che ci volevano schedare tutti. Ecco il riconoscimento facciale che fa la stessa funzione delle impronte digitali, ma che mantiene anche il fuoco sul soggetto delle videocamere amatoriali facendoci facilmente immaginare l’uso che permette di riconoscere e trovare chiunque in un mondo pieno di telecamere. Non sono gadget futuribili gli orologi che controllano il battito cardiaco, sino a farti un elettrocardiogramma semplicemente spingendo un bottone o attraverso un comando vocale, facendo così contente le assicurazioni ormai indispensabili per sostituire le garanzie che una sanità privatizzata non è più in grado di dare. L’interfaccia umani macchina è in evoluzione e il presente che annuncia il futuro è il riconoscimento vocale che ha bisogno di tanta AI, che ha bisogno di sapere tutto di te. Perché già da subito si presenta non come una semplice interfaccia, ma come un assistente elettronico che presto saprà di te più di quanto ti immagini. Che ti stupirà, che si prenderà cura di te sino al punto che non occorrerà che tu Pensi Più A Niente.

Ci rubano il futuro. Se il passato è fatto spesso di oggetti, il futuro, la visione del futuro, è fatta di “progetti”. Con la nostra volontà facciamo in modo che i progetti abbiano un seguito, che possano arrivare a termine riempiendo il nostro futuro. Non abbiamo bisogno che qualcuno ci appiani la strada portandoci in un futuro che non abbiamo progettato. Quello non è futuro, è solo e soltanto l’espressione del solito vizio del capitale, quello di assecondare l’algoritmo che massimizza il profitto per pochi, anche a scapito dei molti.

E se l’Intelligenza Artificiale non fosse intelligente ma semplicemente stronza?

Arrivati a questo punto, sintetizzo qui un concetto chiave. I dati che vari dispositivi raccolgono su di voi sono preziosi nella misura che rimandino a una vostra profilazione di mercato. Per questo sia i motori, sia i social personalizzano le loro risposte con l’effetto di chiudervi sempre di più in cerchie con le quali condividete gli stessi interessi. La grandezza della rete può poi permettersi di accogliere anche opinioni non accettate dalla maggioranza, ma che circoleranno appunto in quei circoli ristretti dove di fatto sono condivise.

Le piattaforme social hanno una visione sempre ottimistica, tanto è vero che ci si interagisce sempre con la possibilità dell’apprezzamento, mai con il suo contrario: in esse non c’è il dislike. Ma perché nei social non c’è il dislike? Non è cioè possibile avere un atteggiamento negativo? Questo perché la tendenza e l’esigenza di queste piattaforme è appunto quella di raccogliere dati in vista di una profilazione e iscrizione a cerchie i cui membri hanno interessi, vedute e preferenze comuni, cerchie che sono rappresentative di una certa fetta di mercato. Coloro che postano messaggi o altro che non condividi si pensa che non siano tra i tuoi “amici” (nel senso di Facebook) e, se così non fosse, si pensa che uno li banni. Questi “raggruppamenti” poi si devono muovere in uno spazio ristretto all’interno della verità algoritmica, proprio perché l’algoritmo tende a stringere il cerchio, per cercare di darti un’identità sempre più precisa, ma non sul versante della personalità, ma da quello che ti vede soltanto come un potenziale consumatore, in definitiva, come dicevamo sopra, per targettizzarti. Insomma, non è la dittatura dell’ottimismo, ma una vera e propria allergia per il dissenso che caratterizza il modo di essere dell’universo digitale.

———

Immagine di copertina:
un’immagine realizzata nel 2023 da Gilberto Pierazzuoli, tramite IA generativa, per illustrare un suo articolo su perUnaltracittà.