YouTube cerca di risolvere il suo problema di cospirazione con Wikipedia. Alcuni critici gridano fallo.

Anonim

YouTube, la rete video che è stata messa sotto accusa per un algoritmo che può essere facilmente ingannato dai teorici della cospirazione in cerca di un pubblico, si è rivolta a Wikipedia per la convalida.

Ma i critici dicono che la dipendenza dall'enciclopedia crowdsourcing non aiuterà. È fin troppo facile giocare a Wikipedia, una critica che lo staff di Wikipedia ha cercato di deviare mercoledì.

La rete video di proprietà di Google ha annunciato che nella giornata di martedì metterebbe link a Wikipedia sugli eventi in caselle di testo intorno a "eventi ampiamente accettati, come lo sbarco sulla luna del 1969". La decisione è l'ultimo tentativo di contrastare una reazione pubblica dopo che la sua scheda video di tendenza offriva un'ampia piattaforma di clip che condividevano informazioni false o fuorvianti su eventi nazionali di cronaca, come il tiro al liceo di Parkland, in Florida, e le riprese di massa dello scorso anno in Las Vegas.

Ma la possibilità per chiunque di aggiornare un post su Wikipedia, dove tali cambiamenti rimarranno fino a quando un altro utente non noterà e cambierà, rendere l'enciclopedia una fonte discutibile per il controllo dei fatti, dicono i critici.

Jamie Cohen, un assistente professore al Molloy College di Rockville Center, New York, ha detto che Google sta sostanzialmente spostando la responsabilità dalla società ai volontari che modificano Wikipedia. "Se vogliono un'autentica autorità di convalida, dovrebbero andare alla fonte dell'informazione". Ha suggerito che un'organizzazione di notizie di fiducia avrebbe più senso.

Wikipedia, dove tutti i post sono scritti dagli utenti, è diventata l'enciclopedia del web. Chiunque può modificarlo, un approccio che la non-profit difende notando che "la ricerca dimostra che più persone contribuiscono, gli articoli diventano più precisi e più equilibrati".

Sebbene gran parte di ciò che i post di Wikipedia sono accurati, il sito ha avuto problemi in passato, con politici e personaggi famosi che sono stati dichiarati morti, che in realtà erano ancora vivi e hanno semplicemente falsificato le informazioni.

C'è un grosso pericolo qui che YouTube sta trattando wikipedia come un bene comune solo nel senso di "tragedia dei beni comuni" - vale a dire. Sta risparmiando denaro da solo smistando il lavoro su un bene comune, potenzialmente uccidendo così bene nel processo.

- Tom Coates (@tomcoates) 14 marzo 2018

YouTube riceve 400 ore di nuovi video pubblicati ogni minuto, e valuta ciò che carica in base al feedback della community. I video restano attivi fino a quando vengono "segnalati" dai membri della comunità per non aver aderito alle linee guida di YouTube, vale a dire mostrare violenza, contenuti sessuali o, nel caso delle recenti sparatorie nelle scuole superiori della Florida, informazioni false.

La sua più recente fiammata con video di cospirazione è avvenuta a febbraio, quando gli studenti sopravvissuti alle riprese di una scuola superiore in Florida hanno iniziato a parlare. Un video che suggeriva agli studenti di essere "attori della crisi", assunto da democratici e sostenitori del controllo delle armi, è salito in cima alla sezione Trending di YouTube, attirando 200.000 visualizzazioni, prima che i media lo catturassero e YouTube lo abbattesse.

Se un incidente come questo dovesse ripetersi, "mostreremo una unità di informazioni companion da Wikipedia che mostra che qui ci sono informazioni sull'evento", ha detto l'amministratore delegato di YouTube, Susan Wojcicki, che ha annunciato la mossa in sospeso al South by Southwest festival di Austin, Texas.

Un esempio di collegamento Wikipedia su YouTube

Alla domanda di commentare come potrebbe trasformarsi in una piattaforma crowd-sourcing che chiunque può modificare per offrire la convalida di video falsi su YouTube, la società ha risposto con una dichiarazione:

"Stiamo sempre esplorando nuovi modi per combattere la disinformazione su YouTube", ha detto, sottolineando che le funzionalità si sarebbero sviluppate nei prossimi mesi. "Oltre a questo non abbiamo ulteriori informazioni da condividere in questo momento."

YouTube ha aggiunto che Wikipedia sarà solo una delle nuove fonti di informazioni di terze parti, ma non ha specificato quali sarebbero gli altri.

I video della cospirazione prendono una vita autonoma tramite il motore di raccomandazione di YouTube, che cerca di capire i tuoi interessi, in base alla cronologia delle visualizzazioni. Pertanto, se fai clic su un link a un video di cospirazione di Alex Jones di InfoWars, che ha messo in dubbio i fatti riportati sulle recenti sparatorie in Florida, così come altri, Google ti fornirà quindi contenuti simili.

Nessun collegamento di Wikipedia impedirà che il processo si alimenti da solo.

Wikimedia, l'organizzazione non profit che gestisce Wikipedia, è stata resa cieca dall'annuncio di YouTube. YouTube non l'ha segnalato prima all'organizzazione. Ha risposto inviando 14 tweet di risposta mercoledì.

Quindi parliamo delle teorie cospirative per un minuto. Wikipedia ha migliaia di editor che monitorano i contenuti, ogni giorno. Alcuni di loro hanno passato letteralmente * anni * a combattere cospirazioni, pseudo-scienza, teorie marginali e altro ancora.

- Wikimedia (@Wikimedia) 14 marzo 2018

Quindi, a quanto pare, YouTube non ha dato a Wikipedia una testa in testa che orde di teorici della cospirazione sono ora incentivati ​​ad inondare i loro articoli con fatti alterativi. //t.co/00MM4GPcxe

- Renee DiResta (@noUpside), 14 marzo 2018

La dichiarazione @Wikimedia Foundation sul recente annuncio @YouTube pic.twitter.com/PFDDNtNNjn

- Wikimedia (@Wikimedia) 14 marzo 2018

Wikimedia ha sottolineato che nei suoi post, le citazioni devono fare riferimento a fonti attendibili per confermare le storie e che senza alcuna citazione "la sua verificabilità potrebbe essere messa in dubbio ... L'uso di fonti senza una tale reputazione è fortemente scoraggiato. il contenuto problematico è spesso contrassegnato con il tag infame di Wikipedia [citazione necessaria], che aiuta i lettori a identificarsi e giudicarlo da soli. "

In precedenti tentativi di frenare le informazioni false diffuse su YouTube, la rete ha affermato che avrebbe "de-monetizzato" i clip che non rispettavano i suoi standard comunitari. Ha anche detto che assumerebbe più umani per la supervisione dei video sulla piattaforma, che riceve 400 ore di nuovo video ogni minuto.