Scopri La Compatibilità Con Il Segno Zodiacale
Il vandalismo di Wikipedia potrebbe contrastare le bufale su Google, YouTube e Facebook
Verifica Dei Fatti

Per un breve momento, il Partito Repubblicano della California ha sostenuto il nazismo. Almeno, questo è ciò che ha detto Google.
Questo perché qualcuno ha vandalizzato la pagina Wikipedia del partito il 31 maggio per elencare il 'nazismo' insieme a ideologie come 'conservatorismo', 'liberalismo di mercato' e 'conservatorismo fiscale'. L'errore è stato rimosso dai risultati di ricerca, con Google chiarire a Vice News che il motore di ricerca non è riuscito a cogliere il vandalismo nella voce di Wikipedia.
Se cerchi 'California Republicans' su Google, Google elenca il 'nazismo' come una delle ideologie. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31 maggio 2018
Google ha a lungo attratto l'enciclopedia online per aggiungere informazioni di base ai risultati della ricerca. Secondo il registro delle modifiche per la pagina del GOP della California, qualcuno ha aggiunto “nazismo” alla sezione ideologica del partito intorno alle 7:40 UTC del 31 maggio. La modifica è stata rimossa entro un minuto, ma sembra che l'algoritmo di Google abbia raschiato la pagina giusto in tempo per il falso.
'A volte le persone vandalizzare le fonti di informazione pubbliche, come Wikipedia, che possono avere un impatto sulle informazioni che appaiono nelle ricerche', ha detto a Poynter in un'e-mail un portavoce di Google. 'Abbiamo sistemi in atto che catturano il vandalismo prima che influisca sui risultati di ricerca, ma a volte gli errori vengono superati, ed è quello che è successo qui'.
Anche la Wikimedia Foundation, un'organizzazione senza scopo di lucro che gestisce Wikipedia, ha rilasciato una dichiarazione su Twitter.
Un risultato della scheda informativa di Google è emerso vandalismo da a @Wikipedia articolo oggi. Ecco di più su cosa è successo e come viene affrontato il vandalismo su Wikipedia. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1 giugno 2018
Secondo Google, oltre il 99,9% delle modifiche di Wikipedia che appaiono nei riquadri della conoscenza, che mostrano le informazioni di base sulle parole chiave ricercabili nella parte superiore dei risultati, non sono atti di vandalismo. L'utente che ha creato la modifica originale alla pagina del GOP della California non ha utilizzato un profilo utente , rendendoli difficili da rintracciare.
Quello è una tattica comune tra le persone che vandalizza le pagine di Wikipedia, una pratica che ha l'organizzazione no profit ampiamente documentato . Ma dato il volume di modifiche apportate su Wikipedia — circa 10 al secondo , con 600 nuove pagine al giorno e il fatto che Facebook e YouTube ora ne stiano tirando fuori per fornire più contesto ai post, il potenziale e l'effetto dell'abuso è elevato.
'Ovviamente è un modo piuttosto debole per combattere le notizie false perché Wikipedia non è una fonte affidabile di informazioni, come riconosce anche Wikipedia', ha affermato Magnus Faraone Hansen , ricercatore post-dottorato presso l'Università di Copenaghen, in un messaggio a Poynter. 'Wikipedia è molto vulnerabile alle bufale e contiene tutti i tipi di disinformazione, quindi non è un modo molto serio per combattere il problema delle notizie inventate'.
Hansen ha modificato le pagine di Wikipedia per circa 10 anni e ha affermato che il vandalismo è un luogo comune sulla piattaforma. Il numero di editori è diminuito negli ultimi anni, mentre i partigiani online hanno sempre più mirato alla piattaforma — un problema che è venuto a capo durante la controversia Gamergate nel 2014. È essenzialmente un gioco di numeri.
Questo è molto lontano da dove si trovava Wikipedia nel 2005 , quando uno studio ha scoperto che era accurato quanto la Britannica. E rende più difficile per gli editori volontari combattere il vandalismo su larga scala su Wikipedia, il che non fa ben sperare per il suo utilizzo per combattere la disinformazione su altre piattaforme.
'Certamente ci sono molte informazioni sbagliate su Wikipedia e molte rimarranno', ha detto Hansen. “Spesso qualcuno scrive un articolo e possono passare anni prima che qualcuno arrivi e lo modifichi. Le persone non effettuano verifiche dei fatti a meno che qualcosa non sembri davvero fuori posto'.
Uno articolo di Wikipedia fabbricato ha vissuto sul sito per un decennio prima di essere cancellato nel 2015.
Allo stesso tempo, la piattaforma si è dimostrata resistente al tipo di bufale che diventano regolarmente virali Facebook e Twitter . Stime Wikimedia che circa il 2,5 per cento delle modifiche quotidiane sono atti di vandalismo e Samantha Lien, responsabile delle comunicazioni di Wikimedia, ha indicato un algoritmo che contrassegna automaticamente le modifiche discutibili come un successo chiave per i suoi sforzi di integrità.
'Gli articoli tendono a fornire una rappresentazione equilibrata dei fatti e il sito si è dimostrato resistente alle notizie false e alla disinformazione fino a questo punto', ha detto a Poynter in un'e-mail. 'Negli ultimi due anni abbiamo anche lavorato con editori volontari per creare e migliorare strumenti di moderazione per identificare e affrontare rapidamente il vandalismo su Wikipedia'.
Al di là dei limiti di Wikipedia, i sistemi delle piattaforme tecnologiche sono spesso oggetto di errori e controversie, in particolare i Knowledge Panel.
Sempre il 31 maggio, una ricerca di un senatore repubblicano sostenitore di Donald Trump nella Carolina del Nord è emersa un'immagine di lei con 'bigotto' scritto sul fondo. A gennaio, The Daily Caller ha scoperto che Google stava aggiungendo erroneamente controlli dei fatti al suo contenuto e non a quello di altri punti vendita. Ciò ha portato la società tecnologica a sospendere la funzione fino a quando non ha risolto i bug.
Google ha detto a Poynter che non cambia manualmente i risultati di ricerca per mostrare la preferenza per una parte rispetto a un'altra. Ma i suoi algoritmi sono regolarmente presi in giro bufale , annunci falsi e troll che cercano di alterare i risultati di ricerca. E questi problemi potrebbero estendersi ad altre piattaforme che si collegano a Wikipedia.
'Quando più piattaforme multimediali utilizzano i contenuti di Wikipedia in modo acritico, ciò aumenta la posta in gioco, sia per coloro che ingannerebbero o ingannerebbero, sia per coloro che diffonderebbero la conoscenza', ha affermato Hansen. 'Penso, in particolare con il collegamento a Wikipedia dai video di YouTube sulle teorie del complotto, che potrebbe avere l'effetto di attirare la folla sbagliata'.
Nel mese di marzo, YouTube ha annunciato che si collegherebbe direttamente alle pagine di Wikipedia nelle descrizioni dei video al fine di fornire più contesto e sfatare le teorie del complotto virale, che spesso diventano virali dopo le ultime notizie. Quei 'spunti informativi' - che sono stati introdotti sulla piattaforma all'insaputa di Wikipedia — includerà una breve riga sulla fonte e un collegamento alla sua pagina Wikipedia.
Questa funzione non è stata ancora implementata, ma YouTube ne ha introdotta una simile a febbraio che fornisce più contesto alle testate giornalistiche che ricevono denaro dal governo degli Stati Uniti.

(Schermata da YouTube)
Data la maggiore visibilità delle pagine di Wikipedia, è ipotizzabile che i vandali possano affollarsi sulla piattaforma per trollare più piattaforme con una sola modifica.
“L'hacking di Wikipedia è sempre stato un problema, ma è stato un problema che ha avuto un impatto solo sui lettori di Wikipedia. Ora è ancora più pericoloso poiché le piattaforme si stanno ritirando sempre più automaticamente da Wikipedia', ha affermato Claire Wardle, direttore esecutivo di First Draft, in un'e-mail a Poynter. 'Per gli agenti di disinformazione che vogliono la massima amplificazione, qualsiasi tecnica che garantisca che piattaforme o redazioni si ripetano e quindi legittimeranno una falsità, fornisce un 'ritorno sull'investimento' sproporzionato.''
Nonostante serva come fonte per più piattaforme, Wikipedia non ha visto un aumento del vandalismo, ha detto Lien. Ma vedendo come le aggiunte abbiano colto alla sprovvista l'organizzazione, non è chiaro in che modo influiranno esattamente sull'integrità delle pagine di Wikipedia.
'La tendenza delle aziende tecnologiche che utilizzano Wikipedia per affrontare i problemi di disinformazione sulle proprie piattaforme è un nuovo territorio per noi e non sappiamo quali saranno le implicazioni complete', ha affermato. “A breve termine, stiamo monitorando da vicino come ciò influisca su Wikipedia e sulla nostra comunità globale di volontari. Finora non abbiamo visto nulla che indichi un problema di vandalismo su scala più ampia”.
Ma anche se ci fosse un aumento del vandalismo su Wikipedia con l'intenzione di alterare i risultati sulle piattaforme, Lien ha affermato che l'organizzazione non avrebbe modo di saperlo.
'Non abbiamo dati disponibili che indicherebbero tendenze di vandalismo con l'intento esplicito di manipolare altre piattaforme', ha affermato.
Quindi, quanto è probabile che più disinformazione si faccia strada su altre piattaforme? Joseph Reagle, professore associato di comunicazioni alla Northeastern University ed esperto di Wikipedia, ha detto a Poynter che senza i giusti sistemi di monitoraggio in atto, la struttura che è stata creata potrebbe rendere più visibile la disinformazione, anche quando non è creata per giocare piattaforme come Google e Facebook.
'Sì, è probabile, e penso che diventerà ancora più probabile poiché queste società a scopo di lucro continuano a saltare sul carro del vincitore', ha detto. 'Nel caso di Google, non credo che l'intenzione della modifica fosse quella di inquinare gli utenti a valle di Wikipedia, ma questo è stato comunque l'effetto. Il fatto che Wikipedia sia utilizzata da questi aggregatori a valle renderà Wikipedia più un obiettivo, il che è motivo di preoccupazione'.
Tuttavia, sebbene si stia restringendo, Wikipedia ha ancora una comunità impegnata di editori che lo hanno Anni di esperienza gestire gli articoli sulle ultime notizie. Nathan Matias, un ricercatore post-dottorato all'Università di Princeton, ha detto a Poynter in un'e-mail che è improbabile che la disinformazione sfugga spesso alle crepe a causa di quella comunità.
Ma ai margini del sito, quella possibilità aumenta sostanzialmente.
'Nei casi di ultime notizie, in cui attivisti di ogni tipo hanno sviluppato modi per influenzare gli algoritmi della piattaforma più velocemente della velocità del giornalismo, mi aspetto che Wikipedia sarà più resiliente da influenzare', ha affermato. 'I rischi per Wikipedia e per le piattaforme saranno maggiori ai margini della conoscenza e dell'attenzione, dal momento che è più difficile individuare un piccolo flusso di persone che accedono a materiale estremista di basso profilo'.
Nonostante le sfide, alcuni esperti vedono le piattaforme tecnologiche che si collegano alle pagine di Wikipedia come un passo avanti per contrastare la disinformazione online.
Eni Mustafaraj, assistente professore di informatica al Wellesley College, ha detto a Poynter in una e-mail che l'aggiunta di Wikipedia alle grandi piattaforme tecnologiche è una mossa positiva. Ma viene fornito con avvertimenti.
'Devono farlo in modo coerente, e non solo per combattere la disinformazione, le bufale o le teorie del complotto', ha detto. 'Per combattere la disinformazione, non dovremmo mettere Facebook e Google al comando, perché sono stati loro ad esacerbare il problema in primo luogo'.
Allo stesso tempo, togliere le informazioni da Wikipedia dalla piattaforma può confondere intrinsecamente i lettori. Hansen ha affermato che vedere collegamenti al sito dalle piattaforme di social media, anche se ben etichettati, non susciterà lo stesso tipo di scetticismo che è intrinseco agli utenti di Wikipedia.
“Il lettore non sa che questo è da Wikipedia. Questo tipo di introduce un livello in cui non puoi essere sicuro della fonte delle informazioni', ha detto. 'Le persone sono scettiche quando sono su Wikipedia: puoi vedere quando non c'è una fonte ... quando sei su una piattaforma diversa, non sei attento a quel genere di cose'.
Poi c'è la questione della larghezza di banda. Poiché la direzione editoriale continua a diminuire, Wikipedia potrebbe prendere in considerazione l'assunzione di dipendenti a tempo pieno il cui compito è monitorare il vandalismo e assicurarsi che non si diffonda su altre piattaforme. Hansen ha detto che pensa che l'organizzazione no profit dovrebbe creare un'unità interna di verifica dei fatti o sollecitare editori e accademici esperti a valutare alcune delle pagine più sfumate.
'Penso che sia l'unico modo per combattere la disinformazione su Wikipedia', ha detto.
Per lo meno, Lien ha suggerito che le piattaforme tecnologiche che utilizzano Wikipedia per contrastare la disinformazione restituiscano in qualche modo all'organizzazione no profit, un punto che il direttore esecutivo di Wikimedia Katherine Maher ha sostenuto in un recente articolo per Wired . (Facebook e YouTube non sono inclusi tra i massimi benefattori di Wikimedia.)
'Incoraggiamo le aziende che utilizzano i contenuti di Wikipedia a restituire lo stesso spirito di sostenibilità', ha affermato. 'In tal modo, si unirebbero ai milioni di persone che contribuiscono a mantenere Wikipedia forte e fiorente'.
E Matias acconsentì.
'Se le aziende si aspettano di fare affidamento su enormi quantità di lavoro non retribuito e spesso psicologicamente gravoso da parte dei Wikipediani e della Wikimedia Foundation per affrontare alcuni dei loro problemi più difficili, devono trovare il modo di supportare quel lavoro proteggendo al contempo l'indipendenza intellettuale di Wikipedia', ha affermato.