• Mer. Dic 1st, 2021

Red Viper News

L'aggregatore di notizie di Red VIper

I Facebook Papers ovvero la notizia della morte della Bestia è fortemente esagerata

Luca Morisi / Facebook

Da lunedì, diciassette testate americane, più due europee, Le Monde e Financial Times, stanno pubblicando i documenti interni che l’ex ingegnere di Facebook, Frances Haugen, ha fornito al Congresso degli Stati Uniti d’America, prima della sua testimonianza davanti alla Commissione per la sicurezza. I documenti, dati a settembre al Wall Street Journal, che ha cominciato a raccontarli e analizzarli nell’inchiesta Facebook Files, sono stati ora condivisi da un parlamentare americano anche ad altre testate scelte. E gli approfondimenti pubblicati negli ultimi giorni dimostrano che le informazioni contenute nei “Facebook Papers” sono tante, e alcune molto rilevanti. 

La prima che colpisce è che non era tutta colpa di Luca Morisi. “Facebook – scrive l’Atlantic, uno dei giornali che è in possesso dei documenti, descrivendo le informazioni che vi sono contenute – ha facilitato la diffusione della disinformazione, del discorso d’odio e della polarizzazione politica”, le accuse che più spesso sono state rivolte, in Italia, all’inventore della macchina social di Matteo Salvini – Luca Morisi, appunto –, l’ideatore delle campagne più aggressive e spregiudicate del capo della Lega. Come ha raccontato su questo giornale Adele Sarno, la caduta di Morisi (finito sotto inchiesta per cessione di stupefacenti e sparito dalla circolazione dopo che la notizia dell’indagine è stata pubblicata, benché ora la sua posizione vada verso l’archiviazione) non ha messo fine alla tecnica con la quale Morisi ha costruito il successo di Salvini, attraverso la Bestia. Essa è stata già ereditata dagli epigoni che lavorano per Giorgia Meloni, e che hanno contribuito alla sua ascesa. E questo perché la Bestia, in realtà, non crea né distrugge niente: semplicemente, utilizza con abilità delle funzioni che sono connaturate al sistema di Facebook (e di altri social network), come raccontano i documenti raccolti dalla Haugen.

“Negli anni – scrive il New York Times, un altro dei giornali che sta consultando le carte –, Facebook ha modificato alcune funzioni, ma il meccanismo interno del sistema è rimasto in gran parte invariato”. Le tre infrastrutture chiave del social network (il tasto “mi piace”, la condivisione dei contenuti in tempo reale e la possibilità di creare dei gruppi) sono state messe in discussione in questi anni dai tecnici dell’azienda, poiché ritenuti i responsabili della diffusione virale di teorie cospirative, incoraggiatori dello scontro politico feroce e della mobilitazione dei sentimenti più aggressivi degli utenti, ma, alla fine, nessuna di queste funzioni è stata modificata.  

Nel 2019, racconta il New York Times, dopo aver studiato i rapporti interni dei funzionari di Facebook, è stato condotto un esperimento per la rimozione del tasto “mi piace”, in una parte dell’Australia. L’obiettivo era valutare quanto sarebbe costato all’azienda toglierlo, in termini di interazioni e presenza degli utenti sulla piattaforma, a fronte della riduzione degli effetti collaterali che si volevano eliminare. Il risultato è che sarebbe costato troppo, perché, senza il tasto “mi piace”, gli utenti commentavano e condividevano sensibilmente di meno i post pubblicati. Perciò  Facebook ha deciso di lasciare le cose come stavano. Lo scorso anno, sono state analizzate anche le proprietà del tasto “condividi”. Le ricerche interne hanno dimostrato che il tasto “attrae l’attenzione e incoraggia le interazioni” degli utenti, ma senza controlli “amplifica e diffonde cattivi contenuti e fonti inattendibili”. Tanto che, in uno dei documenti, un ricercatore racconta che nel momento in cui Facebook ragionava sulla necessità di porre dei limiti alla funzione di condivisione ha visto gente che conosceva progressivamente raggiunta e poi sedotta dai post che propagandavano le teorie cospirazioniste del movimento QAnon e quelle complottiste dei gruppi contro il vaccino per il Coronavirus.

L’elemento più inquietante che emerge dalla lettura delle migliaia di pagine di questi documenti, secondo Le Monde, è che però “Facebook non capisce più, o capisce male, quello che fanno i propri algoritmi”, come se l’azienda avesse perso il controllo della macchina che ha creato. L’esempio che Le Monde racconta è quello dei filtri contro i post d’odio o contenenti informazioni false creati da Facebook. Perché i filtri funzionano diminuendo la percentuale di diffusione dei post, in base alla pericolosità assegnata del 10, del 20 o anche del 50 per cento. Il punto, però, è che Facebook utilizza un algoritmo per la “classificazione” dei messaggi che compaiono nella schermata delle notizie degli utenti, usando una moltitudine di segnali, dai più semplici (il numero di persone iscritte a una pagina), ai più complessi (l’interesse che gli “amici” di un utente hanno mostrato a un argomento). Più alto è il punteggio, più è probabile che il contenuto appaia nel feed delle notizie. Ma col tempo, e con l’accumulo di sempre nuovi segnali aggiunti dagli ingegneri del social network, il sistema del “punteggio” è impazzito. In uno dei documenti, racconta Le Monde, un analista di Facebook calcola che alcuni contenuti hanno un ​​punteggio che “può superare 1 miliardo”. Un livello così alto da rendere inefficaci i filtri. Poiché anche se lo si nasconde al 50 per cento degli utenti, il numero dell’altro 50 per cento è così alto da aver già creato gli effetti nefasti che si vorrebbero eliminare attraverso i filtri. Un quadro che mostra chiaramente che Luca Morisi, scaltro interprete di questi meccanismi, è sì fuori dai giochi. Ma la notizia della morte della Bestia è fortemente esagerata.

 

Articolo proveniente da Huffington Post Italia