La circolazione delle informazioni su Internet – una delle componenti del cyberspazio – è caratterizzata dalla presenza di piattaforme ad alto livello tecnologico che basano il proprio funzionamento su sistemi complessi che devono gestire una vasta mole di dati.

Possiamo definire questi dati come attività degli utenti.

Il potere nell’era digitale: big data, algoritmi e cyber power

Le attività svolte dagli utenti producono dati, ovvero informazioni testuali e visuali che vengono immesse in circolo dagli utenti attraverso una molteplicità di pratiche, come ad esempio:

  • la pubblicazione di articoli su siti di informazione e blog;
  • l’aggiornamento di forum e enciclopedie collaborative (Wikipedia una su tutte);
  • il caricamento di fotografie e video su social media e piattaforme di content sharing.

Big data e database informazionali

A questi dati, che sono trasparenti e ricercabili dagli utenti – in altre parole, per usare un termine tecnico dei motori di ricerca, indicizzati – si vanno ad aggiungere una serie di dati e informazioni che gli utenti rilasciano consapevolmente e inconsapevolmente durante le loro attività di navigazione, come ad esempio:

  • l’inserimento di dati personali su piattaforme digitali e social network;
  • la compilazione di form e sondaggi;
  • l’accettazione di cookie tecnici e commerciali che permettono di tracciare comportamento, gusti e preferenze.

Questa seconda tipologia di informazioni non sono ricercabili, ma vengono immagazzinati in database informazionali per permettere alle piattaforme di effettuare la profilazione degli utenti, mostrando loro i migliori annunci pubblicitari possibili in base ai gusti del singolo utente e massimizzare così l’efficacia del digital advertising. Questa pratica è nota come microtargeting e il suo scopo è quello di definire un modello archetipico che possiamo chiamare comportamento dell’utente.

Queste informazioni, quando concentrate in maniera cospicua nelle mani di un singolo soggetto, sono comunemente note come big data

L’avvento degli algoritmi

Per agevolare l’accesso alle informazioni di entrambi i tipi e la relativa organizzazione delle stesse, negli anni sono stati introdotti degli strumenti informatici che prendono il nome di algoritmi

In informatica un algoritmo è «una sequenza finita di operazioni elementari, eseguibili facilmente da un elaboratore che, a partire da un insieme di dati I (input), produce un altro insieme di dati O (output) che soddisfano un preassegnato insieme di requisiti.»1

La presenza di algoritmi proprietari e secretati all’interno delle piattaforme utilizzate quotidianamente dai cittadini evidenzia un forte disparità di potere tra Stati sovrani e Attori privati

In poche parole, il cyberpower è in mano a una manciata di attori che definiscono le regole del gioco nella moderna sfera pubblica digitale.

Cos’è il cyberpower

Per cyberpower intendiamo «the ability to use cyberspace to create advantages and influence events in all the operational environments and across the instruments of power»2, ovvero l’insieme degli strumenti e delle strategie per mantenere il potere all’interno del cyberspazio. In altri termini, il «cyberpower is always a measure of the ability to use that environment»3.

Il cyberspazio è il nuovo dominio dove esercitare la sovranità e il controllo di uno Stato e preservare l’interesse nazionale da ingerenze di altri attori pubblici e di attori privati. Il cyberspazio è da considerare a tutti gli effetti «un elemento cruciale per le dinamiche politiche, sociali, finanziarie e umane del XXI secolo». Si tratta di un terreno strategico da monitorare e gestire al pari degli altri domini (land, sea, air, space), ovvero della «quinta dimensione della conflittualità», manifestatasi con la transizione dalla rivoluzione industriale alla rivoluzione digitale4.

Internet è solo una piccola parte del cyberspazio, ma è un importante luogo virtuale in cui le persone trascorrono gran parte del loro tempo.

Cosa sono gli algoritmi?

Gli algoritmi sono «una costruzione umana»5, dato che il loro codice è scritto da persone che hanno una precisa visione del mondo e un sistema interpretativo soggettivo. In altri termini, «gli algoritmi sono opinioni in forma di codice»6. Gli algoritmi e il loro modo di organizzare i dati e le informazioni sono quindi in ultima istanza strumenti parziali e imperfetti, gli stessi strumenti a cui abbiamo affidato e delegato l’organizzazione della moderna sfera pubblica digitale.

Dello stesso avviso è Carlo Vercellis, Professore Ordinario di Machine Learning e Direttore dell’Osservatorio di Big Data Analytics & Business Intelligence del Politecnico di Milano, secondo cui «gli algoritmi sono un prodotto di chi li fa, disegnandoli a seconda dei suoi obiettivi […]»7.

In questo caso si parla di bias, ovvero di predisposizioni umane che vengono incorporate nella struttura decisionale degli algoritmi. 

L’algoritmo è infatti basato sul punto di vista del programmatore, che avendo una visione limitata del mondo finisce per condizionare la struttura dell’algoritmo che sarà perciò fondato su un «processo decisionale» basato sulla conoscenza del suo programmatore, finendo così per «replicare i pregiudizi strutturali, su vasta scala, ampliandone le conseguenze»8.

Capire le regole del gioco: algoritmi troppo opachi per essere trasparenti

Quando milioni di cittadini utilizzano piattaforme digitali quello che vedono è soltanto il front end, l’interfaccia grafica. Quello che veramente conta è il back end, il codice e la struttura sottostante all’interfaccia.9

Questo codice racchiude al suo interno una serie di algoritmi in grado di orientare le scelte degli utenti e ciò che questi possono vedere o non vedere. Questo vale per social network sites (sns), motori di ricerca (search engine), applicazioni web e per dispositivi mobile, etc.

Tutte queste tecnologie vanno a comporre la moderna sfera pubblica digitale, dove i cittadini si incontrano, si informano, acquistano ed esprimono i propri diritti fondamentali.

Dovrebbe essere interesse di ogni Stato far sì che non vi sia alcuna forma di bias, censura e condizionamento dei comportamenti dei cittadini.

Se il codice e gli algoritmi sono secretati per via del segreto commerciale, come è possibile controllare il rispetto delle leggi nel singolo Paese? Ignorando il codice sottostante, come è possibile stabilire se una piattaforma privata stia ponendo in essere comportamenti politici o discriminatori, ad esempio:

  • censurando certe opinioni e avvantaggiandone altre;
  • limitando la visibilità dei contenuti di alcune aziende a discapito di altre;
  • promuovendo l’incitamento all’odio piuttosto che un dialogo civile.

Dagli algoritmi neutri agli algoritmi di personalizzazione

Sebbene l’algoritmo contenga al suo interno i bias di chi ne ha scritto il codice, risulta pur sempre un algoritmo neutro, scevro da deliberate volontà umane di condizionare gli utilizzatori del software.

Se in una prima fase l’algoritmo era in un certo senso “amico dell’uomo”, un agente di semplificazione in grado agevolare la ricerca e la circolazione delle informazioni, a partire dal 2009 si assiste a una serie di cambiamenti che iniziano ad impattare enormemente sulla sfera pubblica e la politica. Parliamo della transizione dagli algoritmi di catalogazione agli algoritmi di personalizzazione.

L’era della personalizzazione e delle filter bubble

Per parafrasare le parole di Eli Pariser, «il 4 Dicembre 2009, l’era della personalizzazione ebbe inizio»10.

In quella data, infatti, Google aveva annunciato l’introduzione dell’algoritmo Page Rank, un software di indicizzazione dei contenuti non più basato su un generico concetto di rilevanza delle informazioni, ma su un più puntuale e personale concetto di gusto delle informazioni

Per gusto delle informazioni intendiamo una tipologia di indicizzazione dei contenuti (risultati di ricerca) basato sulle attitudini, le preferenze e le peculiarità di ogni singolo utente della Rete; ovvero, sul gusto personale della singola persona. Page Rank inizia quindi a costruire un mondo digitale a misura di uomo.

Stando alla tesi della filter bubble, gli algoritmi finiscono quindi per orientare la selezione delle informazioni che gli utenti trovano sui motori di ricerca e leggono nei feed dei social network e aggregatori di notizie che utilizzano.

Infatti, dopo Page Rank di Google, anche tutte le altre piattaforme delle compagnie Big Tech implementeranno un proprio algoritmo di personalizzazione. Il discorso vale per Facebook, Netflix, Amazon, Youtube, Instagram e così via.

Se in passato i feed dei social media erano basati sul concetto di ordine temporale, oggi sono basati sul concetto di pertinenza. Come già spiegato, questo termine non sottintende però un generico e oggettivo concetto di rilevanza delle informazioni, ma di un soggettivo concetto di gusto delle informazioni.

Pertinenza: scelta arbitraria o decisione politica?

Sorge quindi un problema cruciale: chi stabilisce cosa sia pertinente per gli utenti? Come fa un algoritmo a selezionare le informazioni su un generico concetto di gusto dell’utente?

Partiamo dall’ultimo concetto. Il gusto degli utenti è stabilito sulla base di un meccanismo di profilazione, un lento processo di attribuzione di informazioni socio-demografiche, politiche, geografiche e culturali che avviene durante il percorso di navigazione degli utenti. 

I dati raccolti – attraverso ricerche, siti visitati, acquisti sul web, scambio di conversazioni, pubblicazioni sui social media e molto altro ancora – permette di creare un identikit di ogni singolo utente

Risulta così possibile segmentare gli utenti sulla base delle variabili raccolte e, di conseguenza, definire cosa piace (o potrebbe piacere) a utente e cosa no. Ecco che un algoritmo è in grado di definire il concetto di gusto.

Il punto allora riguarda il primo quesito: chi stabilisce cosa sia pertinente per gli utenti? Può il concetto di gusto essere considerato il perno per la selezione delle informazioni da mostrare alle persone?

Ovviamente no. Si tratta di una precisa scelta fatta dalle multinazionali big tech, una scelta che si basa sul concetto di dare alle persone ciò che vogliono, ma non ciò di cui hanno bisogno.

Il modello di business delle big tech

Questa scelta è dovuta al modello di business sottostante alle grandi piattaforme digitali, come motori di ricerca e social media. Infatti, il loro business model si basa sulla vendita di spazi pubblicitari, resi particolarmente efficaci per via del meccanismo della profilazione ottenuta dalla raccolta dei dati. 

Più la pubblicità è mirata e indirizzata a un utente in target (dal microtargeting al nanotargeting), più aumentano le possibilità di cliccare sugli annunci pubblicitari e quindi di generare una vendita per gli inserzionisti. La pubblicità su Internet è basata sul concetto di asta: più un inserzionista paga e più ha la possibilità di apparire a un certo numero di utenti. Questo concetto è riassunto dalla metrica CPM, costo per mille impressioni. Più aumentano gli inserzionisti e più le aste si popolano. 

Di conseguenza, all’aumentare degli inserzionisti aumentano le offerte all’asta e quindi il CPM. Questo comporta un aumento del costo delle pubblicità e un aumento del fatturato generato dalle piattaforme pubblicitarie, anche a parità di pubblicità mostrate. Si tratta di una banale legge della domanda e dell’offerta: se aumenta la domanda e non è possibile aumentare l’offerta, allora il prezzo di quest’ultima tende ad aumentare.

Sebbene il meccanismo della pubblicità sia una variabile trascurabile nelle informazioni che gli utenti fruiscono quotidianamente, il problema sorge dal momento in cui questa logica è applicata anche alle informazioni di tipo organico.

La ricerca organica e le informazioni organiche sono i cosiddetti risultati non a pagamento. Parliamo di risultati sui motori di ricerca, post degli amici su Facebook, contenuti pubblicati da aziende, enti e istituzioni su Instagram, notizie visualizzate su Google News o Apple News, e così via.

Gli algoritmi decidono quindi quali contenuti le persone devono vedere sulla base della profilazione. Una persona poco interessata alle tematiche ambientaliste, vedrà pochissimi contenuti inerenti la salvaguardia del pianeta, la riduzione delle emissioni di CO2, l’importanza della raccolta differenziata, le modalità di spostamento alternative ai mezzi inquinanti. Insomma, se non c’è un interesse attivo, l’algoritmo non produrrà alcuno stimolo per generare un nuovo interesse o stimolare un interesse latente

Questo esempio permette di evidenziare una discrepanza tra ciò che piace alle persone e ciò di cui hanno bisogno. Difficile ritenere non rilevante una tematica che riguarda il futuro del pianeta e della salute dell’essere umano. Eppure, stando all’analogia tra il concetto di gusto e quello di rilevanza, questa informazione per gli algoritmi di personalizzazione potrebbe risultare non rilevante.

Ecco quindi che gli algoritmi si trovano a prendere decisioni politiche in spazi non politici.

Gli algoritmi al potere

È importante constatare che se viene delegato a un algoritmo la decisione di che cosa è rilevante, significa permettere a un software di machine learning di dettare l’agenda (agenda setting) e permettere la circolazione di un tema all’interno della sfera pubblica.

Chi governa l’algoritmo, governa il Paese. Il caso esemplare di Cambridge Analytica e la clusterizzazione della popolazione americana in modo tale da garantire un meccanismo di microtargeting, sfruttando gli algoritmi di personalizzazione.

Le logiche sottostanti agli algoritmi delle piattaforme proprietarie appartenenti a multinazionali sono piuttosto opache, in quanto il codice degli algoritmi è secretato per ragioni commerciali. 

La segretezza degli algoritmi comporta in prima istanza problemi di natura politica: chi decide cosa è rilevante per i cittadini? Chi decide cosa non è pertinente o meritorio di bassa copertura informativa, e quindi di una moderna forma di censura mediatica? 

Da una parte ci sono gli algoritmi che personalizzano le ricerche, i newsfeed e le pubblicità in base alle preferenze degli utenti. 

Dall’altra c’è il potere delle piattaforme nello stabilire una serie di regole e una netiquette per una pluralità di cittadini appartenenti ai Paesi dell’intero globo.

Queste piattaforme assumono sempre più potere grazie alla mole incrementale di dati ottenuti dai milioni di persone che le popolano. Le piattaforme sono in grado di dettare le regole del gioco e imporre le condizioni di partecipazione alle piattaforme stesse. Per tale motivo le piattaforme in questione sono state definite dei walled garden11.

Gli algoritmi e gli effetti sulla comunicazione politica

Come ogni walled garden, non puoi rifiutarti di partecipare al party nel giardino. Allora, devi stare alle regole del gioco. Pena, l’esclusione dallo stesso.

Finisce così che la comunicazione politica diventa succube delle logiche sottostanti alle piattaforme digitali. Questo porta a:

  • politici che pubblicano contenuti relativi a eventi ad alto impatto emotivo, in modo da stimolare l’interesse delle persone, incrementare il numero di like e quindi la copertura organica dei propri contenuti, aumentando così la propria awareness;
  • politici che fanno del conflitto e della «incivility»12 la propria cifra stilistica;
  • manifestazione di echo chamber13.

Sebbene il codice degli algoritmi non sia di dominio pubblico, nel corso degli anni sono state rilasciate delle dichiarazioni ufficiali sul funzionamento degli stessi da parte delle aziende proprietarie14.

Basandosi unicamente su questi dati, è possibile formulare una serie di considerazioni da lasciare aperte per futuri sviluppi che in queste sede sarebbero impossibili.

Come i politici sfruttano gli algoritmi a proprio vantaggio

Cosa succede quando un politico vuole cavalcare l’onda dell’engagement rate? Come viene influenzato nella pubblicazione dei contenuti rivolti ai cittadini? 

Bisogna inoltre considerare che le pubblicazioni non vengono fatte direttamente dai politici, ma molto spesso dai loro social media manager, ovvero dei moderni e digitali addetti stampa e spin doctor, portavoce della parola scritta nell’era della disintermediazione digitale.

Il social media manager è un professionista del digitale e conosce perfettamente le logiche che stanno dietro alle piattaforme. Emblematico è il caso di Matteo Salvini, che per mantenere alto il tasso di interazione dei contenuti ha trasformato i suoi social in dei tabloid dove la politica è solo uno dei tanti temi, mescolato a sport, foto e video di animali feriti, cronaca nera, food blogging, travel blogging e molto altro ancora.15

La comunicazione politica finisce per svilirsi e ridursi a una corsa contro il like. Anche quando appare, si presenta sotto forma di attacco al nemico, costruzione di un negative frame nei confronti di alcuni topos narrativi ricorrenti: l’immigrato clandestino, lo spacciatore africano, il delinquente straniero, i “sinistri”16 nemici del popolo, l’integralista islamico.

Gli algoritmi dei social network, aumentando la copertura dei contenuti in maniera direttamente proporzionale alla crescita del tasso di interazione, finiscono quindi per obnubilare la comunicazione politica a vantaggio di una comunicazione della spettacolarizzazione mediatica, il cui fine ultimo non è quello di informare o educare il cittadino, ma quello di emozionarlo e polarizzarlo.

Il meccanismo della ricorrenza dei contenuti apprezzati finisce così per mostrare alle persone sempre più contenuti di questo tipo, andando ad amplificare l’effetto di simulacro di una sfera pubblica immaginata costruita intorno a una comunicazione politica di questo tipo.

L’influenza della Cina nelle nuove piattaforme

Facebook, Google, LinkedIn e altre piattaforme digitali hanno un elemento comune: sono società quotate, con un forte radicamento in Silicon Valley (nello Stato della California) e quindi soggette soltanto alle leggi del mercato. Se è vero che vi è un interesse strategico da parte degli Stati Uniti, si parla comunque di uno stato democratico e di diritto, dove il governo non può ingerire nelle attività aziendali oltre i limiti imposti dalle legge.

Tik Tok, come le altre piattaforme digitali, ha alla base del business model il cosiddetto data mining, ovvero la capacità di collezionare dati degli utenti e utilizzarli per fini pubblicitari.

Diversamente dalle altre, Tik Tok è di proprietà di  ByteDance, una società con sede in Cina. Come ogni società cinese, anche  ByteDance è partecipata dalla Repubblica Popolare Cinese. In questo caso, oltre alla partecipazione diretta del governo, l’azienda si trova ad agire su un terreno non democratico.

Gli scenari di sicurezza che si aprono in tal caso riguardano principalmente lo spionaggio17, perché non è chiaro come e se la Cina possa accedere a questi dati e con che finalità utilizzarli.

Da questo punto vista, una piattaforma come Tik Tok presenterebbe il problema della segretezza degli algoritmi in modo ancora più evidente. Il Governo cinese potrebbe intervenire su queste porzioni di codice per alterare la copertura dei contenuti politici in altri Paesi? Potrebbe orientare le scelte dei consumatori con precise direttive e scelte politiche?

Questi e altri scenari meritano l’attenzione pubblica. Perché il potere degli attori privati rischia di diventare eccessivo (o forse lo è già), specialmente quando questo potere è controllato da una grande potenza straniera come la Cina.

Conclusioni

Lo scenario in cui stiamo vivendo è caratterizzato dalla presenza di una pluralità di attori. Si parla a tal proposito di multi-stakeholderism. Assistiamo a una diffusione del potere18, dove attori privati iniziano a esercitare una forte influenza su questioni di interesse pubblico.

Si parla spesso di net neutrality in ambito di Internet Service Provider, ma troppo poco in termini di Content Provider. Infatti, se da una parte la net neutrality dovrebbe impedire agli ISP di favorire o penalizzare la circolazione dei contenuti, tutto questo potrebbe annullarsi con la presenza di algoritmi volti a selezionare cosa far vedere e cosa no agli utenti. Si invaliderebbe pertanto il concetto di neutralità della Rete, creando spazi digitali non neutrali all’interno di infrastrutture neutrali. È importante evitare che si passi dalla diffusione del potere alla transizione del potere, ripensando lo scenario attuale con un equilibrio migliore tra attori pubblici e attori privati, interessi pubblici e interessi privati.

Gli algoritmi non possono pertanto essere considerati un fattore marginale, ma degli asset strategici che influenzano profondamente la rimodulazione della moderna e digitale sfera pubblica.

Note

Questo articolo è la rielaborazione di un mio paper scientifico finalizzato il 29 gennaio 2022.

  1. Enciclopedia Treccani, Algoritmo, treccani.it/enciclopedia/algoritmo ↩︎
  2. Daniel T. Kuehl, From Cyberspace to Cyberpower: Defining the Problem ↩︎
  3. Daniel T. Kuehl, ibid. ↩︎
  4. Martino L. (2018), La quinta dimensione della conflittualità, in «Politica & Società». Fascicolo 1, gennaio-aprile 2018 ↩︎
  5. Miriade.it, Big Data, è ora di ripensare al potere degli algoritmi, miriade.it/big-data-algoritmi/, consultato il 3 maggio 2021 ↩︎
  6. Miriade.it, ibid. ↩︎
  7. Magnani A. (2017), Il potere degli algoritmi: cosa sono, come funzionano e perché servono alle aziende, Il Sole 24 Ore, 30 novembre 2017, ilsole24ore.com/art/impresa-e-territori /2017-11-30/il-potere-algoritmi-cosa-sono-come-funzionano-e-perche-servono-aziende-094100.shtml, consultato il 3 maggio 2021 ↩︎
  8. Saetta B. (2019), Il potere degli algoritmi sulle nostre vite, Valigia Blu, 9 Marzo 2019, valigiablu.it/algoritmi-dati-diritti, consultato il 3 maggio 2021 ↩︎
  9. Una prima formulazione di questo paragrafo è stata da me proposta all’interno dei lavori del progetto YouNG-20 (Youth Network for Government), l’edizione del 2021 del Think-Tank della Scuola di Politiche (Sdp). Il titolo originale del paragrafo era Organizzazione multilaterale sugli algoritmi. Per una versione ancora più grezza della proposta si rimanda all’articolo Le regole del gioco: per una trasparenza sulla privacy digitale e gli algoritmi di machine learning, 18 Marzo 2021, christianpergola.com/le-regole-del-gioco-per-una-trasparenza-sulla-privacy-e-gli-algoritmi ↩︎
  10. Pariser E. (2011), Filter Bubble. What the Internet is hiding from You, pp. 3 ↩︎
  11. Brogna, R. (2021), Come e cosa pensano gli algoritmi di marketing, Franco Angeli, Milano ↩︎
  12. Bentivegna S. e Boccia Artieri G. a cura di (2019), Niente di nuovo sul fronte mediale: agenda pubblica e campagna elettorale, Franco Angeli, Milano ↩︎
  13. Sunstein C.R. (2001), Republic.com, Princeton University Press, Princeton ↩︎
  14. Mosseri A. (2021), Shedding More Light on How Instagram Works, 8 giugno, about.instagram.com/blog /announcements/shedding-more-light-on-how-instagram-works ↩︎
  15. Ho parlato di questi temi nella mia tesi di laurea triennale Propagandagram. Lo storytelling politico su Instagram, dalle pratiche iniziali ai profili di Matteo Renzi e Matteo Salvini, Christian Pergola (2019). Al momento l’elaborato non è consultabile pubblicamente. ↩︎
  16. Questa espressione è un gioco di parole spesso utilizzato dai politici di destra in Italia per riferirsi alle persone di sinistra, appellandole appunto come “sinistre”. ↩︎
  17. Johnson D. (2021), Is TikTok safe? Here’s what you need to know, Business Insider, 26 marzo, businessinsider.com/is-tiktok-safe ↩︎
  18. Nye J.S. (2011), The Future of Power in the 21st Century, Public Affairs Press, New York ↩︎