Facebook ha affermato di aver rimosso 7 milioni di post responsabili di aver diffuso disinformazione pericolosa sul Covid-19 e di averne segnalati altri 98 milioni etichettati come falsi dai fact checker, tra aprile e giugno di quest’anno.
I post rimossi erano quelli che promuovevano e vendevano false misure preventive o cure esagerate che le organizzazioni sanitarie ritengono pericolose.
Guy Rosen, vicepresident of integrity presso Facebook, ha fornito le statistiche sulla disinformazione in una conferenza stampa, mentre la società ha pubblicato il suo Rapporto sull’applicazione degli standard della comunità, un report trimestrale che descrive in dettaglio il tipo e il volume di contenuti che la società ha rimosso da Facebook e Instagram.
Il rapporto è suddiviso in 12 categorie per Facebook e 10 per Instagram. Negli ultimi mesi Rosen ha dichiarato che la piattaforma ha “dato la priorità al lavoro sui contenuti dannosi relativi al Covid-19 che potrebbero mettere a rischio le persone”, così come alla disinformazione relativa alle imminenti elezioni presidenziali statunitensi.
Da marzo a luglio, Rosen ha affermato di aver rimosso più di 110.000 contenuti negli Stati Uniti per aver violato le policy legate alle votazioni presidenziali, nonostante abbia operato con una forza lavoro ridotta negli ultimi tre mesi.
A marzo ha inviato a casa i suoi revisori dei contenuti a causa del Covid-19 e ha quindi fatto più affidamento sulla tecnologia per rivedere i contenuti.
L’algoritmo di apprendimento automatico di Facebook è imperfetto e può essere soggetto a errori. Rosen ha affermato che gli ultimi mesi hanno dimostrato che l’applicazione dei contenuti “non è un approccio o / o” tra revisori umani e AI, ma che i sistemi sofisticati richiedono sia le persone che la tecnologia.
Ad esempio, i contenuti sul suicidio e l’autolesionismo e i contenuti sulla nudità dei bambini e lo sfruttamento sessuale sono due aree in cui Facebook si affida a collaboratori esperti per rivedere i contenuti con l’ausilio della tecnologia.
Di conseguenza, negli ultimi mesi l’azienda è intervenuta su un minor numero di contenuti relativi a queste aree.
Poiché ha dato la priorità ai contenuti dannosi, Facebook ha dichiarato che quelli che incitavano all’odio sono aumentati da 9,6 milioni di post nel primo trimestre a 22,5 milioni nel secondo trimestre e che il 95% di questi sono stati rilevati in modo proattivo prima che qualcuno li segnalasse, contro l’89% nel primo trimestre.
Su Instagram, è intervenuta su 3,3 milioni di contenuti di incitamento all’odio.
La quantità di contenuti terroristici rimossi è aumentata da 6,3 milioni a 8,7 milioni di post.
La società ha infine comunicato che inviterà esperti esterni a verificare in modo indipendente le metriche utilizzate nel report, a partire dal 2021.