Youtube

Youtube rivela le modalità di gestione dei contenuti inappropriati

Le nuove regole di YouTube in merito alla gestione di contenuti segnalati per violenza o spam
Youtube rivela le modalità di gestione dei contenuti inappropriati FASTWEB S.p.A.

Youtube ha pubblicato il primo rapporto trimestrale sull'applicazione delle direttive comunitarie e ha lanciato un report che consente agli utenti di visualizzare lo stato del video contrassegnati per la revisione. Il rapporto, che riguarda l'ultimo trimestre del 2017, fa seguito a una promessa fatta da Youtube a dicembre di dare maggiore trasparenza agli utenti su come vengono gestiti gli abusi e sulle direttive di rimozione dei video.

"Questo aggiornamento mostrerà i progressi che stiamo compiendo nella rimozione dei contenuti che violano dalla nostra piattaforma", ha detto la società in un post sul blog ufficiale. "Entro la fine dell'anno pensiamo di perfezionare i nostri sistemi di segnalazione e aggiungere altri dati, inclusi quelli relativi ai commenti, alla velocità o alla rimozione e le ragioni di essa."

Tuttavia è improbabile che il rapporto possa reprimere le lamentele di chi è convinto che le regole di YouTube siano applicate in maniera casuale. Il problema si è presentato l'anno passato dopo un rapporto del Times, ma molti produttori di contenuti affermano che le nuove politiche di Youtube hanno reso molto difficile la monetizzazione sulla piattaforma, nonostante i loro video non violino nessuna delle regole.

Youtube afferma che l'algoritmo di apprendimento automatico anti-abuso, mirato a monitorare e gestire potenziali violazioni su larga scala, sta "dando i suoi frutti su aree ad alto rischio come l'estremismo violento appunto e altre più vaste come lo spam".
Dal rapporto si apprende che sono stati rimossi 8,2 milioni di video durante l'ultimo trimestre del 2017, la maggior parte dei quali erano spam o contenuti per adulti. Di questi, 6,7 milioni sono stati riconosciuti direttamente da YouTube grazie agli algoritmi anti-abuso interni.

Fra quelli segnalati dagli utenti, 1,1 milioni sono stati portati all'attenzione da un membro del programma Segnalatore Attendibile di Youtube, il quale comprende individui, agenzie governative e organizzazioni non governative che hanno ricevuto la loro formazione dai team Trust & Safety e Public Policy della piattaforma. Il video viene visonato prima di essere rimosso e poi tenuto come benchmark delle misure anti-abuso per quelli successivi.

All'inizio del 2017, l'8% dei video rimossi per contenuti estremisti e/o violenti è stato rimosso prima di aver totalizzato 10 visualizzazioni. Dopo l'inizio dell'utilizzo degli algoritmi ad apprendimento automatico nel giungo del 2017, affermano che la percentuale sia aumentata a più del 50% (in una nota YouTube ha chiarito che questi dati non includono i video che sono stati segnalati automaticamente prima che potessero essere pubblicati e dunque senza nessuna visualizzazione). Da ottobre a dicembre, il 75,9% di tutti i video contrassegnati automaticamente sulla piattaforma sono stati rimossi prima di ricevere visualizzazioni.
Nello stesso periodo 9,3 milioni di video sono stati segnalati da persone, di cui il 95% utenti di Youtube e il resto dal programma Segnalatore Attendibile e da agenzie governative o ONG. Le persone possono selezionare un motivo quando segnalano un video e i risultati dicono che la maggior parte è stato per contenuto sessuale (30,1%) e spam (26,4%).

L'anno scorso YouTube ha annunciato che vorrebbe aumentare il numero delle persone che si occupano di contenuti violenti a 10.000 su Google entro la fine del 2018. L'obiettivo sembra essere quasi stato raggiunto, sono stati assunti anche altri esperti anti-abuso a tempo pieno e sono state ampliate le squadre regionali. Afferma inoltre che l'aggiunta di algoritmi di apprendimento automatico consente a più a persone di recensire i video.
Nel rapporto vengono fornite maggiori informazioni su come funzionano questi algoritmi:
"Rispetto ad altri sistemi automatici che rilevano contenuti estremi, i nostri temi hanno rivisto manualmente oltre due milioni di video per fornire grandi volumi di esempi di formazione, i quali servono a migliorare la tecnologia di segnalazione dell'apprendimento automatico" ha detto, aggiungendo che hanno iniziato ad applicare questa tecnologia anche per altre violazioni dei contenuti.

Il rapporto di Youtube potrebbe non alleviare le preoccupazione dei produttori di contenuti che hanno visto le loro entrate diminuire durante quello che definiscono "Ad-pocalypse" o potrebbe non fornirgli indicazioni su come monetizzare nuovamente e con successo. D'altra parte però è una vittoria per gli utenti, compresi i sostenitori della libertà di parola, che han chiesto chiaramente che le piattaforme social media siano più trasparenti in merito alla gestione dei contenuti segnalati e le violazione delle policy.

24 aprile 2018

Fonte: techcrunch.com
Condividi
Ebook
Sicurezza in Rete: ne sai abbastanza?
Strumenti utili, suggerimenti pratici e tutto quello che devi assolutamente sapere per proteggere davvero i tuoi dispositivi e i tuoi dati personali quando sei connesso
scarica l'ebook

Iscriviti alla
newsletter del
Digital Magazine di
Fastweb

Riceverai ogni settimana le notizie più interessanti sul mondo della tecnologia!
Iscriviti

Grazie per esserti iscritto!

Abbiamo inviato una mail all'indirizzo che hai indicato: per completare l'iscrizione alla newsletter del Digital Magazine di FASTWEB clicca sul link all'interno della mail