La circolazione delle informazioni su Internet โ una delle componenti del cyberspazio โ รจ caratterizzata dalla presenza di piattaforme ad alto livello tecnologico che basano il proprio funzionamento su sistemi complessi che devono gestire una vasta mole di dati.
Possiamo definire questi dati come attivitร degli utenti.
Il potere nell’era digitale: big data, algoritmi e cyber power
Le attivitร svolte dagli utenti producono dati, ovvero informazioni testuali e visuali che vengono immesse in circolo dagli utenti attraverso una molteplicitร di pratiche, come ad esempio:
- la pubblicazione di articoli su siti di informazione e blog;
- lโaggiornamento di forum e enciclopedie collaborative (Wikipedia una su tutte);
- il caricamento di fotografie e video su social media e piattaforme di content sharing.
Big data e database informazionali
A questi dati, che sono trasparenti e ricercabili dagli utenti – in altre parole, per usare un termine tecnico dei motori di ricerca, indicizzati – si vanno ad aggiungere una serie di dati e informazioni che gli utenti rilasciano consapevolmente e inconsapevolmente durante le loro attivitร di navigazione, come ad esempio:
- l’inserimento di dati personali su piattaforme digitali e social network;
- la compilazione di form e sondaggi;
- lโaccettazione di cookie tecnici e commerciali che permettono di tracciare comportamento, gusti e preferenze.
Questa seconda tipologia di informazioni non sono ricercabili, ma vengono immagazzinati in database informazionali per permettere alle piattaforme di effettuare la profilazione degli utenti, mostrando loro i migliori annunci pubblicitari possibili in base ai gusti del singolo utente e massimizzare cosรฌ lโefficacia del digital advertising. Questa pratica รจ nota come microtargeting e il suo scopo รจ quello di definire un modello archetipico che possiamo chiamare comportamento dell’utente.
Queste informazioni, quando concentrate in maniera cospicua nelle mani di un singolo soggetto, sono comunemente note come big data.
L’avvento degli algoritmi
Per agevolare lโaccesso alle informazioni di entrambi i tipi e la relativa organizzazione delle stesse, negli anni sono stati introdotti degli strumenti informatici che prendono il nome di algoritmi.
In informatica un algoritmo รจ ยซuna sequenza finita di operazioni elementari, eseguibili facilmente da un elaboratore che, a partire da un insieme di dati I (input), produce un altro insieme di dati O (output) che soddisfano un preassegnato insieme di requisiti.ยป1
La presenza di algoritmi proprietari e secretati allโinterno delle piattaforme utilizzate quotidianamente dai cittadini evidenzia un forte disparitร di potere tra Stati sovrani e Attori privati.
In poche parole, il cyberpower รจ in mano a una manciata di attori che definiscono le regole del gioco nella moderna sfera pubblica digitale.
Cos’รจ il cyberpower
Per cyberpower intendiamo ยซthe ability to use cyberspace to create advantages and influence events in all the operational environments and across the instruments of powerยป2, ovvero lโinsieme degli strumenti e delle strategie per mantenere il potere allโinterno del cyberspazio. In altri termini, il ยซcyberpower is always a measure of the ability to use that environmentยป3.
Il cyberspazio รจ il nuovo dominio dove esercitare la sovranitร e il controllo di uno Stato e preservare lโinteresse nazionale da ingerenze di altri attori pubblici e di attori privati. Il cyberspazio รจ da considerare a tutti gli effetti ยซun elemento cruciale per le dinamiche politiche, sociali, finanziarie e umane del XXI secoloยป. Si tratta di un terreno strategico da monitorare e gestire al pari degli altri domini (land, sea, air, space), ovvero della ยซquinta dimensione della conflittualitร ยป, manifestatasi con la transizione dalla rivoluzione industriale alla rivoluzione digitale4.
Internet รจ solo una piccola parte del cyberspazio, ma รจ un importante luogo virtuale in cui le persone trascorrono gran parte del loro tempo.
Cosa sono gli algoritmi?
Gli algoritmi sono ยซuna costruzione umanaยป5, dato che il loro codice รจ scritto da persone che hanno una precisa visione del mondo e un sistema interpretativo soggettivo. In altri termini, ยซgli algoritmi sono opinioni in forma di codiceยป6. Gli algoritmi e il loro modo di organizzare i dati e le informazioni sono quindi in ultima istanza strumenti parziali e imperfetti, gli stessi strumenti a cui abbiamo affidato e delegato lโorganizzazione della moderna sfera pubblica digitale.
Dello stesso avviso รจ Carlo Vercellis, Professore Ordinario di Machine Learning e Direttore dellโOsservatorio di Big Data Analytics & Business Intelligence del Politecnico di Milano, secondo cui ยซgli algoritmi sono un prodotto di chi li fa, disegnandoli a seconda dei suoi obiettivi […]ยป7.
In questo caso si parla di bias, ovvero di predisposizioni umane che vengono incorporate nella struttura decisionale degli algoritmi.
Lโalgoritmo รจ infatti basato sul punto di vista del programmatore, che avendo una visione limitata del mondo finisce per condizionare la struttura dellโalgoritmo che sarร perciรฒ fondato su un ยซprocesso decisionaleยป basato sulla conoscenza del suo programmatore, finendo cosรฌ per ยซreplicare i pregiudizi strutturali, su vasta scala, ampliandone le conseguenzeยป8.
Capire le regole del gioco: algoritmi troppo opachi per essere trasparenti
Quando milioni di cittadini utilizzano piattaforme digitali quello che vedono รจ soltanto il front end, lโinterfaccia grafica. Quello che veramente conta รจ il back end, il codice e la struttura sottostante allโinterfaccia.9
Questo codice racchiude al suo interno una serie di algoritmi in grado di orientare le scelte degli utenti e ciรฒ che questi possono vedere o non vedere. Questo vale per social network sites (sns), motori di ricerca (search engine), applicazioni web e per dispositivi mobile, etc.
Tutte queste tecnologie vanno a comporre la moderna sfera pubblica digitale, dove i cittadini si incontrano, si informano, acquistano ed esprimono i propri diritti fondamentali.
Dovrebbe essere interesse di ogni Stato far sรฌ che non vi sia alcuna forma di bias, censura e condizionamento dei comportamenti dei cittadini.
Se il codice e gli algoritmi sono secretati per via del segreto commerciale, come รจ possibile controllare il rispetto delle leggi nel singolo Paese? Ignorando il codice sottostante, come รจ possibile stabilire se una piattaforma privata stia ponendo in essere comportamenti politici o discriminatori, ad esempio:
- censurando certe opinioni e avvantaggiandone altre;
- limitando la visibilitร dei contenuti di alcune aziende a discapito di altre;
- promuovendo l’incitamento all’odio piuttosto che un dialogo civile.
Dagli algoritmi neutri agli algoritmi di personalizzazione
Sebbene lโalgoritmo contenga al suo interno i bias di chi ne ha scritto il codice, risulta pur sempre un algoritmo neutro, scevro da deliberate volontร umane di condizionare gli utilizzatori del software.
Se in una prima fase lโalgoritmo era in un certo senso โamico dellโuomoโ, un agente di semplificazione in grado agevolare la ricerca e la circolazione delle informazioni, a partire dal 2009 si assiste a una serie di cambiamenti che iniziano ad impattare enormemente sulla sfera pubblica e la politica. Parliamo della transizione dagli algoritmi di catalogazione agli algoritmi di personalizzazione.
L’era della personalizzazione e delle filter bubble
Per parafrasare le parole di Eli Pariser, ยซil 4 Dicembre 2009, lโera della personalizzazione ebbe inizioยป10.
In quella data, infatti, Google aveva annunciato lโintroduzione dellโalgoritmo Page Rank, un software di indicizzazione dei contenuti non piรน basato su un generico concetto di rilevanza delle informazioni, ma su un piรน puntuale e personale concetto di gusto delle informazioni.
Per gusto delle informazioni intendiamo una tipologia di indicizzazione dei contenuti (risultati di ricerca) basato sulle attitudini, le preferenze e le peculiaritร di ogni singolo utente della Rete; ovvero, sul gusto personale della singola persona. Page Rank inizia quindi a costruire un mondo digitale a misura di uomo.
Stando alla tesi della filter bubble, gli algoritmi finiscono quindi per orientare la selezione delle informazioni che gli utenti trovano sui motori di ricerca e leggono nei feed dei social network e aggregatori di notizie che utilizzano.
Infatti, dopo Page Rank di Google, anche tutte le altre piattaforme delle compagnie Big Tech implementeranno un proprio algoritmo di personalizzazione. Il discorso vale per Facebook, Netflix, Amazon, Youtube, Instagram e cosรฌ via.
Se in passato i feed dei social media erano basati sul concetto di ordine temporale, oggi sono basati sul concetto di pertinenza. Come giร spiegato, questo termine non sottintende perรฒ un generico e oggettivo concetto di rilevanza delle informazioni, ma di un soggettivo concetto di gusto delle informazioni.
Pertinenza: scelta arbitraria o decisione politica?
Sorge quindi un problema cruciale: chi stabilisce cosa sia pertinente per gli utenti? Come fa un algoritmo a selezionare le informazioni su un generico concetto di gusto dellโutente?
Partiamo dallโultimo concetto. Il gusto degli utenti รจ stabilito sulla base di un meccanismo di profilazione, un lento processo di attribuzione di informazioni socio-demografiche, politiche, geografiche e culturali che avviene durante il percorso di navigazione degli utenti.
I dati raccolti – attraverso ricerche, siti visitati, acquisti sul web, scambio di conversazioni, pubblicazioni sui social media e molto altro ancora – permette di creare un identikit di ogni singolo utente.
Risulta cosรฌ possibile segmentare gli utenti sulla base delle variabili raccolte e, di conseguenza, definire cosa piace (o potrebbe piacere) a utente e cosa no. Ecco che un algoritmo รจ in grado di definire il concetto di gusto.
Il punto allora riguarda il primo quesito: chi stabilisce cosa sia pertinente per gli utenti? Puรฒ il concetto di gusto essere considerato il perno per la selezione delle informazioni da mostrare alle persone?
Ovviamente no. Si tratta di una precisa scelta fatta dalle multinazionali big tech, una scelta che si basa sul concetto di dare alle persone ciรฒ che vogliono, ma non ciรฒ di cui hanno bisogno.
Il modello di business delle big tech
Questa scelta รจ dovuta al modello di business sottostante alle grandi piattaforme digitali, come motori di ricerca e social media. Infatti, il loro business model si basa sulla vendita di spazi pubblicitari, resi particolarmente efficaci per via del meccanismo della profilazione ottenuta dalla raccolta dei dati.
Piรน la pubblicitร รจ mirata e indirizzata a un utente in target (dal microtargeting al nanotargeting), piรน aumentano le possibilitร di cliccare sugli annunci pubblicitari e quindi di generare una vendita per gli inserzionisti. La pubblicitร su Internet รจ basata sul concetto di asta: piรน un inserzionista paga e piรน ha la possibilitร di apparire a un certo numero di utenti. Questo concetto รจ riassunto dalla metrica CPM, costo per mille impressioni. Piรน aumentano gli inserzionisti e piรน le aste si popolano.
Di conseguenza, allโaumentare degli inserzionisti aumentano le offerte allโasta e quindi il CPM. Questo comporta un aumento del costo delle pubblicitร e un aumento del fatturato generato dalle piattaforme pubblicitarie, anche a paritร di pubblicitร mostrate. Si tratta di una banale legge della domanda e dellโofferta: se aumenta la domanda e non รจ possibile aumentare lโofferta, allora il prezzo di questโultima tende ad aumentare.
Sebbene il meccanismo della pubblicitร sia una variabile trascurabile nelle informazioni che gli utenti fruiscono quotidianamente, il problema sorge dal momento in cui questa logica รจ applicata anche alle informazioni di tipo organico.
La ricerca organica e le informazioni organiche sono i cosiddetti risultati non a pagamento. Parliamo di risultati sui motori di ricerca, post degli amici su Facebook, contenuti pubblicati da aziende, enti e istituzioni su Instagram, notizie visualizzate su Google News o Apple News, e cosรฌ via.
Gli algoritmi decidono quindi quali contenuti le persone devono vedere sulla base della profilazione. Una persona poco interessata alle tematiche ambientaliste, vedrร pochissimi contenuti inerenti la salvaguardia del pianeta, la riduzione delle emissioni di CO2, lโimportanza della raccolta differenziata, le modalitร di spostamento alternative ai mezzi inquinanti. Insomma, se non cโรจ un interesse attivo, lโalgoritmo non produrrร alcuno stimolo per generare un nuovo interesse o stimolare un interesse latente.
Questo esempio permette di evidenziare una discrepanza tra ciรฒ che piace alle persone e ciรฒ di cui hanno bisogno. Difficile ritenere non rilevante una tematica che riguarda il futuro del pianeta e della salute dellโessere umano. Eppure, stando allโanalogia tra il concetto di gusto e quello di rilevanza, questa informazione per gli algoritmi di personalizzazione potrebbe risultare non rilevante.
Ecco quindi che gli algoritmi si trovano a prendere decisioni politiche in spazi non politici.
Gli algoritmi al potere
ร importante constatare che se viene delegato a un algoritmo la decisione di che cosa รจ rilevante, significa permettere a un software di machine learning di dettare lโagenda (agenda setting) e permettere la circolazione di un tema allโinterno della sfera pubblica.
Chi governa lโalgoritmo, governa il Paese. Il caso esemplare di Cambridge Analytica e la clusterizzazione della popolazione americana in modo tale da garantire un meccanismo di microtargeting, sfruttando gli algoritmi di personalizzazione.
Le logiche sottostanti agli algoritmi delle piattaforme proprietarie appartenenti a multinazionali sono piuttosto opache, in quanto il codice degli algoritmi รจ secretato per ragioni commerciali.
La segretezza degli algoritmi comporta in prima istanza problemi di natura politica: chi decide cosa รจ rilevante per i cittadini? Chi decide cosa non รจ pertinente o meritorio di bassa copertura informativa, e quindi di una moderna forma di censura mediatica?
Da una parte ci sono gli algoritmi che personalizzano le ricerche, i newsfeed e le pubblicitร in base alle preferenze degli utenti.
Dallโaltra cโรจ il potere delle piattaforme nello stabilire una serie di regole e una netiquette per una pluralitร di cittadini appartenenti ai Paesi dellโintero globo.
Queste piattaforme assumono sempre piรน potere grazie alla mole incrementale di dati ottenuti dai milioni di persone che le popolano. Le piattaforme sono in grado di dettare le regole del gioco e imporre le condizioni di partecipazione alle piattaforme stesse. Per tale motivo le piattaforme in questione sono state definite dei walled garden11.
Gli algoritmi e gli effetti sulla comunicazione politica
Come ogni walled garden, non puoi rifiutarti di partecipare al party nel giardino. Allora, devi stare alle regole del gioco. Pena, lโesclusione dallo stesso.
Finisce cosรฌ che la comunicazione politica diventa succube delle logiche sottostanti alle piattaforme digitali. Questo porta a:
- politici che pubblicano contenuti relativi a eventi ad alto impatto emotivo, in modo da stimolare lโinteresse delle persone, incrementare il numero di like e quindi la copertura organica dei propri contenuti, aumentando cosรฌ la propria awareness;
- politici che fanno del conflitto e della ยซincivilityยป12 la propria cifra stilistica;
- manifestazione di echo chamber13.
Sebbene il codice degli algoritmi non sia di dominio pubblico, nel corso degli anni sono state rilasciate delle dichiarazioni ufficiali sul funzionamento degli stessi da parte delle aziende proprietarie14.
Basandosi unicamente su questi dati, รจ possibile formulare una serie di considerazioni da lasciare aperte per futuri sviluppi che in queste sede sarebbero impossibili.
Come i politici sfruttano gli algoritmi a proprio vantaggio
Cosa succede quando un politico vuole cavalcare l’onda dell’engagement rate? Come viene influenzato nella pubblicazione dei contenuti rivolti ai cittadini?
Bisogna inoltre considerare che le pubblicazioni non vengono fatte direttamente dai politici, ma molto spesso dai loro social media manager, ovvero dei moderni e digitali addetti stampa e spin doctor, portavoce della parola scritta nell’era della disintermediazione digitale.
Il social media manager รจ un professionista del digitale e conosce perfettamente le logiche che stanno dietro alle piattaforme. Emblematico รจ il caso di Matteo Salvini, che per mantenere alto il tasso di interazione dei contenuti ha trasformato i suoi social in dei tabloid dove la politica รจ solo uno dei tanti temi, mescolato a sport, foto e video di animali feriti, cronaca nera, food blogging, travel blogging e molto altro ancora.15
La comunicazione politica finisce per svilirsi e ridursi a una corsa contro il like. Anche quando appare, si presenta sotto forma di attacco al nemico, costruzione di un negative frame nei confronti di alcuni topos narrativi ricorrenti: l’immigrato clandestino, lo spacciatore africano, il delinquente straniero, i “sinistri”16 nemici del popolo, l’integralista islamico.
Gli algoritmi dei social network, aumentando la copertura dei contenuti in maniera direttamente proporzionale alla crescita del tasso di interazione, finiscono quindi per obnubilare la comunicazione politica a vantaggio di una comunicazione della spettacolarizzazione mediatica, il cui fine ultimo non รจ quello di informare o educare il cittadino, ma quello di emozionarlo e polarizzarlo.
Il meccanismo della ricorrenza dei contenuti apprezzati finisce cosรฌ per mostrare alle persone sempre piรน contenuti di questo tipo, andando ad amplificare l’effetto di simulacro di una sfera pubblica immaginata costruita intorno a una comunicazione politica di questo tipo.
Lโinfluenza della Cina nelle nuove piattaforme
Facebook, Google, LinkedIn e altre piattaforme digitali hanno un elemento comune: sono societร occidentali quotate in borsa, con un forte radicamento in Silicon Valley (nello Stato della California) e quindi soggette soltanto alle leggi del mercato. Se รจ vero che vi รจ un interesse strategico da parte degli Stati Uniti, si parla comunque di uno stato democratico e di diritto, dove il governo non puรฒ ingerire nelle attivitร aziendali oltre i limiti imposti dalle legge.
Tik Tok, come le altre piattaforme digitali, ha alla base del business model il cosiddetto data mining, ovvero la capacitร di collezionare dati degli utenti e utilizzarli per fini pubblicitari.
Diversamente dalle altre, Tik Tok รจ di proprietร di ByteDance, una societร con sede in Cina. Come ogni societร cinese, anche ByteDance รจ partecipata dalla Repubblica Popolare Cinese. In questo caso, oltre alla partecipazione diretta del governo, lโazienda si trova ad agire su un terreno non democratico.
Gli scenari di sicurezza che si aprono in tal caso riguardano principalmente lo spionaggio17, perchรฉ non รจ chiaro come e se la Cina possa accedere a questi dati e con che finalitร utilizzarli.
Da questo punto vista, una piattaforma come Tik Tok presenterebbe il problema della segretezza degli algoritmi in modo ancora piรน evidente. Il Governo cinese potrebbe intervenire su queste porzioni di codice per alterare la copertura dei contenuti politici in altri Paesi? Potrebbe orientare le scelte dei consumatori con precise direttive e scelte politiche?
Questi e altri scenari meritano lโattenzione pubblica. Perchรฉ il potere degli attori privati rischia di diventare eccessivo (o forse lo รจ giร ), specialmente quando questo potere รจ controllato da una grande potenza straniera come la Cina.
Conclusioni
Lo scenario in cui stiamo vivendo รจ caratterizzato dalla presenza di una pluralitร di attori. Si parla a tal proposito di multi-stakeholderism. Assistiamo a una diffusione del potere18, dove attori privati iniziano a esercitare una forte influenza su questioni di interesse pubblico.
Si parla spesso di net neutrality in ambito di Internet Service Provider, ma troppo poco in termini di Content Provider. Infatti, se da una parte la net neutrality dovrebbe impedire agli ISP di favorire o penalizzare la circolazione dei contenuti, tutto questo potrebbe annullarsi con la presenza di algoritmi volti a selezionare cosa far vedere e cosa no agli utenti. Si invaliderebbe pertanto il concetto di neutralitร della Rete, creando spazi digitali non neutrali allโinterno di infrastrutture neutrali. ร importante evitare che si passi dalla diffusione del potere alla transizione del potere, ripensando lo scenario attuale con un equilibrio migliore tra attori pubblici e attori privati, interessi pubblici e interessi privati.
Gli algoritmi non possono pertanto essere considerati un fattore marginale, ma degli asset strategici che influenzano profondamente la rimodulazione della moderna e digitale sfera pubblica.
Note
Questo articolo รจ la rielaborazione di un mio paper scientifico finalizzato il 29 gennaio 2022.
- Enciclopedia Treccani, Algoritmo, treccani.it/enciclopedia/algoritmo โฉ๏ธ
- Daniel T. Kuehl, From Cyberspace to Cyberpower: Defining the Problem โฉ๏ธ
- Daniel T. Kuehl, ibid. โฉ๏ธ
- Martino L. (2018), La quinta dimensione della conflittualitร , in ยซPolitica & Societร ยป. Fascicolo 1, gennaio-aprile 2018 โฉ๏ธ
- Miriade.it, Big Data, รจ ora di ripensare al potere degli algoritmi, miriade.it/big-data-algoritmi/, consultato il 3 maggio 2021 โฉ๏ธ
- Miriade.it, ibid. โฉ๏ธ
- Magnani A. (2017), Il potere degli algoritmi: cosa sono, come funzionano e perchรฉ servono alle aziende, Il Sole 24 Ore, 30 novembre 2017, ilsole24ore.com/art/impresa-e-territori /2017-11-30/il-potere-algoritmi-cosa-sono-come-funzionano-e-perche-servono-aziende-094100.shtml, consultato il 3 maggio 2021 โฉ๏ธ
- Saetta B. (2019), Il potere degli algoritmi sulle nostre vite, Valigia Blu, 9 Marzo 2019, valigiablu.it/algoritmi-dati-diritti, consultato il 3 maggio 2021 โฉ๏ธ
- Una prima formulazione di questo paragrafo รจ stata da me proposta allโinterno dei lavori del progetto YouNG-20 (Youth Network for Government), lโedizione del 2021 del Think-Tank della Scuola di Politiche (Sdp). Il titolo originale del paragrafo era Organizzazione multilaterale sugli algoritmi. Per una versione ancora piรน grezza della proposta si rimanda allโarticolo Le regole del gioco: per una trasparenza sulla privacy digitale e gli algoritmi di machine learning, 18 Marzo 2021, christianpergola.com/le-regole-del-gioco-per-una-trasparenza-sulla-privacy-e-gli-algoritmi โฉ๏ธ
- Pariser E. (2011), Filter Bubble. What the Internet is hiding from You, pp. 3 โฉ๏ธ
- Brogna, R. (2021), Come e cosa pensano gli algoritmi di marketing, Franco Angeli, Milano โฉ๏ธ
- Bentivegna S. e Boccia Artieri G. a cura di (2019), Niente di nuovo sul fronte mediale: agenda pubblica e campagna elettorale, Franco Angeli, Milano โฉ๏ธ
- Sunstein C.R. (2001), Republic.com, Princeton University Press, Princeton โฉ๏ธ
- Mosseri A. (2021), Shedding More Light on How Instagram Works, 8 giugno, about.instagram.com/blog /announcements/shedding-more-light-on-how-instagram-works โฉ๏ธ
- Ho parlato di questi temi nella mia tesi di laurea triennale Propagandagram. Lo storytelling politico su Instagram, dalle pratiche iniziali ai profili di Matteo Renzi e Matteo Salvini, Christian Pergola (2019). Al momento l’elaborato non รจ consultabile pubblicamente. โฉ๏ธ
- Questa espressione รจ un gioco di parole spesso utilizzato dai politici di destra in Italia per riferirsi alle persone di sinistra, appellandole appunto come โsinistreโ. โฉ๏ธ
- Johnson D. (2021), Is TikTok safe? Here’s what you need to know, Business Insider, 26 marzo, businessinsider.com/is-tiktok-safe โฉ๏ธ
- Nye J.S. (2011), The Future of Power in the 21st Century, Public Affairs Press, New York โฉ๏ธ