Nei primi tre mesi del 2018 Facebook ha disattivato circa 583 milioni di account falsi (ne erano stati cancellati 694 milioni nel quarto trimestre del 2017), ha preso provvedimenti contro 837 milioni di contenuti spam e ha segnalato o rimosso circa 30 milioni di post che contenevano immagini sessualmente esplicite o violente, propaganda terroristica o contenuti d’odio. È quanto si legge nel ‘Report sull’applicazione degli Standard della Comunità’, un documento senza precedenti che il social network ha reso noto e che contiene tutti i numeri legati all’applicazione degli standard.
Si tratta di una risposta alle richieste di trasparenza a seguito dello scandalo dei dati legato a Cambridge Analytica. Nell’85,6% dei casi, il sistema ha individuato le immagini prima di essere allertato dagli utenti. Il dato rappresenta tra lo 0,22% e lo 0,27% del contenuto totale visionato dagli oltre due miliardi di utenti da gennaio a marzo. Facebook ha rivelato di avere bloccato 1,9 milioni di contenuti legati alla propaganda terroristica, un dato in aumento rispetto alla rilevazione precedente. Circa 800mila messaggi terroristici in più sono stati individuati, spiega Menlo Park, “grazie al miglioramento della nostra capacità di individuare messaggi violenti attraverso la tecnologia di rilevamento foto, che trova sia i vecchi contenuti sia quelli appena pubblicati”.
Per quanto riguarda i casi di ‘hate speech’, gli attacchi diretti in base a etnia, religione, identità di genere, orientamento sessuale o disabilità, Facebook spiega che nel primo trimestre dell’anno sono stati bloccati circa 2,5 milioni di contenuti, in crescita dagli 1,6 milioni di fine 2017. “I dati sono influenzati da fattori interni, come il miglioramento della nostra capacità di intercettare questi messaggi, ma anche esterni, come gli eventi mondiali che aumentano la quantità di messaggi di odio su Facebook”, si legge nel rapporto. “Per argomenti delicati come la violenza esplicita e l’incitamento all’odio, la nostra tecnologia ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei nostri team di revisione”, spiega la società. “Abbiamo rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla nostra tecnologia”.
Sono stati 21 milioni i contenuti bloccati perché riguardanti “nudità” e “attività sessuali”, il 96% dei quali rilevati dalla tecnologia prima che fossero segnalati dagli utenti. “Adottiamo provvedimenti su foto e video di adulti nudi (anche creati in digitale) e su attività sessuali esplicite o implicite, con alcune eccezioni – spiega il social network -. Comprendiamo che la nudità può essere condivisa per una serie di motivi e concediamo la tolleranza ai nostri standard laddove l’intento è chiaro, ad esempio per l’educazione alla salute o le immagini dell’allattamento al seno. Permettiamo anche fotografie di dipinti, sculture e altre opere d’arte che mostrano figure nude”. Facebook stima che su ogni 10.000 contenuti visualizzati, 7-9 abbiano riguardato contenuti che violavano gli standard su nudo e pornografia.
Tre settimane fa Facebook ha pubblicato per la prima volta le linee guida interne che utilizza per applicare i suoi standard. “Il rapporto di oggi fornisce una descrizione dettagliata dei nostri processi interni. È un tentativo di mostrare come Facebook sta agendo per rimuovere i contenuti negativi dal nostro sito, così che possiate giudicare il nostro lavoro”, ha spiegato Alex Schultz, vice presidente Facebook Analytics. “Non possiamo cambiare il fatto che le persone cercheranno sempre di postare cose cattive su Facebook – che si tratti di incitamento all’odio, propaganda terroristica o immagini che sfruttano i bambini”, ha aggiunto, “ma possiamo provare a controllare quante volte il contenuto che viola i nostri standard comunitari è visualizzato” e così “misurare l’impatto, il danno che ogni contenuto fa quando è pubblicato”.