Spesso ci viene chiesto come decidiamo quali contenuti sono permessi su Facebook – e quanti sono quelli che violano i nostri Standard. Sono anni, infatti, che abbiamo degli Standard della Comunità che spiegano cosa può trovare spazio su Facebook e cosa no e, tre settimane fa per la prima volta, abbiamo anche pubblicato le linee guida interne che utilizziamo per applicare quegli standard.
Oggi, all’interno del Report sull’applicazione degli Standard della Comunità, comunicheremo in aggiunta i numeri legati all’applicazione di questi Standard, in modo da permettere a tutti di giudicare il nostro operato.
Alex Schultz, il nostro Vice Presidente di Data Analytics, ha spiegato dettagliatamente come misuriamo ciò che succede su Facebook nel blog Hard Question e in questa guida per Comprendere il Report sull’applicazione degli Standard della Comunità. È comunque importante sottolineare che si tratta di un lavoro in continua evoluzione e che la nostra metodologia potrebbe cambiare.
[amazon_link asins=’1980302863,8890341939,8863108455,8820385287,8890341912′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’606cae54-58da-11e8-8a86-45127048dc96′]
Questo report include informazioni e dati relativi all’applicazione dei nostri Standard tra ottobre 2017 e marzo 2018 e copre sei aree: violenza esplicita, nudo (adulti), atti sessuali, propaganda terroristica, incitamento all’odio, spam e account falsi. I numeri illustrano:
- Quanti contenuti che violano i nostri Standard sono stati visti dalle persone;
- Quanti contenuti abbiamo rimosso;
- Quanti contenuti abbiamo rilevato in modo proattivo utilizzando la nostra tecnologia, prima che le persone che utilizzano Facebook li segnalassero.
La maggior parte delle azioni che intraprendiamo per rimuovere contenuti contrari ai nostri Standard, riguarda gli account falsi e la grande quantità di spam che generano. Ad esempio:
- Abbiamo rimosso 837 milioni di contenuti di spam nel primo trimestre del 2018 – quasi il 100% dei quali sono stati trovati e contrassegnati prima che qualcuno li segnalasse;
- La chiave per combattere lo spam è rimuovere gli account falsi che lo diffondono. Nel primo trimestre 2018 abbiamo disattivato circa 583 milioni di account falsi – la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione. Questo si aggiunge ai milioni di tentativi di creazione di account falsi che ogni giorno sventiamo su Facebook. Complessivamente stimiamo che, durante questo periodo di tempo, fossero ancora falsi circa il 3-4% degli account attivi di Facebook.
In merito alle altre tipologie di contenuti che violano i nostri Standard:
- Abbiamo rimosso 21 milioni di contenuti di nudo di adulti o pornografici nel primo trimestre del 2018, il 96% dei quali rilevati dalla nostra tecnologia prima di essere segnalati. Stimiamo, comunque, che su ogni 10.000 contenuti visualizzati su Facebook, 7-9 visualizzazioni abbiano riguardato contenuti che violavano i nostri Standard su nudo e pornografia.
- Per argomenti delicati come la violenza esplicita e l’incitamento all’odio, la nostra tecnologia ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei nostri team di revisione. Abbiamo rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla nostra tecnologia prima che venissero segnalati. Abbiamo, inoltre, rimosso due milioni e mezzo di contenuti che incitavano all’odio, il 38% dei quali sono stati rilevati direttamente dalla nostra tecnologia.
Come sottolineato da Mark durante F8, abbiamo ancora molto lavoro da fare per prevenire gli abusi. In parte è perché l’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per molti contenuti che violano i nostri Standard, perché il contesto è ancora molto importante. Ad esempio, l’intelligenza artificiale non è ancora sufficiente per identificare se qualcuno sta incitando all’odio o se sta semplicemente descrivendo qualcosa che ha vissuto per denunciare pubblicamente il problema. Più in generale, come spiegato la settimana scorsa, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento, che noi spesso non abbiamo per lingue meno diffuse o per i casi che non vengono segnalati spesso. Inoltre, in molte aree – anche se si tratta di spam, pornografia o account falsi – ci scontriamo con avversari sofisticati che cambiano continuamente tattica per eludere i nostri controlli, il che significa che dobbiamo continuamente cambiare e adattare i nostri sforzi. Questo è il motivo per cui stiamo investendo in modo consistente in un numero maggiore di persone e in una tecnologia migliore per rendere Facebook più sicuro per tutti.
Ed è anche il motivo per cui pubblichiamo queste informazioni. Riteniamo che una maggior trasparenza permetta di accrescere il senso di responsabilità nel tempo e che la pubblicazione di queste informazioni ci possa spingere a migliorare più rapidamente. Si tratta degli stessi dati che utilizziamo per valutare internamente il lavoro fatto – e adesso ognuno potrà vederli per giudicare i nostri progressi. Non vediamo l’ora di ricevere i vostri feedback.