Scopri La Compatibilità Con Il Segno Zodiacale
Chiedi all'etico: è giusto che Facebook sopprima le notizie conservatrici?
Etica E Fiducia

Foto di Dave Pape tramite Flickr.
Gizmodo ha acceso una tempesta di fuoco sui social media oggi quando segnalato che i curatori della sezione 'trend' di Facebook mettono regolarmente il kibosh su notizie di tendenza.
La storia, attribuita a fonti anonime, è stata degna di nota in parte a causa dello status di Facebook come colosso dei media che dirige ogni giorno una manichetta antincendio verso le testate giornalistiche. Ma ha anche fatto scalpore perché Facebook si è preso la briga di proporsi come intermediario imparziale per le notizie, un'azienda che offre storie senza un'inclinazione. Nel una risposta alla storia di Gizmodo, Facebook ha affermato che stava prendendo le accuse di pregiudizi 'molto sul serio' e ha riaffermato il suo impegno a fornire opinioni 'attraverso lo spettro politico'.
In poco più di un decennio, Facebook è passato dall'avvio di un dormitorio a uno dei più grandi distributori di notizie e informazioni in tutto il mondo. Quindi come dovremmo reagire quando si scopre che uno dei più importanti intermediari del giornalismo è composto da esseri umani con pregiudizi umani? Di seguito è riportata una sessione di domande e risposte con Kelly McBride, vicepresidente del Poynter Institute e il suo esperto di etica dei media, su cosa significa il rapporto di oggi per l'industria delle notizie.
Se l'affermazione di Gizmodo è accurata e i curatori di notizie di Facebook stavano deliberatamente evitando le notizie conservatrici, questo rappresenta un problema? Se sì, perché?
Questo è un problema perché dimostra la capacità di manipolare il mercato delle idee da dietro le quinte. Non è una novità, ma mina i sostenitori dei social media che affermano che Facebook è un forum di distribuzione di notizie più democratico.
Sappiamo da molto tempo che gli algoritmi hanno dei pregiudizi programmati nel loro processo di selezione. Ma questa affermazione secondo cui gli esseri umani stavano scavalcando il processo di selezione mina l'intera idea di elenchi di notizie e feed algoritmici. Mi suggerisce che Facebook non avesse completa fiducia nella propria base di utenti. Ciò è particolarmente vero se si considera l'affermazione della fonte anonima secondo cui il team è stato incaricato di trovare una fonte più neutrale per le informazioni di tendenza in base alla segnalazione iniziale da un sito conservatore.
Sospetto che ci siano più informazioni su questa pratica, descritte da fonti anonime, che ci aiuteranno a capire cosa stava cercando di realizzare Facebook. Perché non ha molto senso commerciale per Facebook manipolare segretamente argomenti di tendenza in base al punto di vista politico.
Ciò non alienerebbe gran parte dei loro utenti? Ci devono essere più dettagli che ci aiutino a capirlo. Forse, come ipotizzato da una fonte, stavano perfezionando l'algoritmo?
Le testate giornalistiche ovviamente avere pregiudizi su ciò che scelgono di presentare. La preferenza di Facebook qui è davvero così diversa da un giornale, una stazione TV o una startup digitale?
Questo è un po' più difficile da discernere per il pubblico, quindi è meno trasparente e quindi diverso. È più facile individuare un pregiudizio umano quando sai di cercarne uno. Fino ad ora, pensavamo che il team degli argomenti di tendenza stesse solo scrivendo titoli e descrizioni, senza influenzare effettivamente la nostra comprensione di ciò che è di tendenza.
Questa storia rivela che i consigli di Facebook non sono interamente guidati da algoritmi: sono realizzati in parte da esseri umani, con preferenze umane. Ci sono passaggi che Facebook può intraprendere per ridurre la comparsa di pregiudizi nelle sue selezioni?
Se vuoi che il pubblico si fidi di te, la trasparenza è sempre la risposta, sia che tu parli di pregiudizi umani o di pregiudizi meccanici. È più facile a dirsi che a farsi, in entrambi i casi. È difficile per gli esseri umani descrivere accuratamente i propri pregiudizi. E gli algoritmi hanno bisogno di un po' di opacità se vogliono essere resistenti alla manipolazione.
Se Facebook potesse dirci di più su ciò che l'algoritmo privilegia e ciò che l'algoritmo rifiuta, sarebbe utile. Se Facebook potesse anche dirci cosa fanno e cosa non fanno gli umani, avremmo più informazioni di quelle che abbiamo ora e un motivo in più per fidarci di ciò che vediamo.
Facebook è un grande determinante delle notizie che vediamo online. Ha la responsabilità di essere trasparente su come ci fornisce le storie?
In qualità di principale motore di audience verso i siti di notizie, Facebook è diventata la più grande forza nel mercato delle idee. Con quell'influenza deriva una responsabilità significativa. Ci sono molti modi in cui Facebook potrebbe essere all'altezza di questa responsabilità. In passato Facebook ha affermato di riconoscere i propri obblighi democratici. Ma può sempre fare di più.
Ci sono altri passi che Facebook potrebbe fare?
Ecco un'idea pazza: e se Facebook (e altre aziende che hanno una chiara capacità di influenzare il mercato delle idee) avesse un editore pubblico, come fa il New York Times. Quella persona sarebbe in grado di ricercare e scrivere sull'azienda dal punto di vista del pubblico, rispondendo alle domande e spiegando i valori che guidano determinate decisioni.
Il caporedattore di Poynter, Benjamin Mullin, ha contribuito a questo rapporto.