Facebook, il Guardian svela le linee guida per i moderatori interni

Un’inchiesta svela per la prima volta le regole e le linee guida segrete di Facebook. Una rivelazione che probabilmente alimenterà il dibattito sul ruolo, anche dal punto di vista etico, del “gigante dei social media”. Il Guardian è entrato in possesso di più di 100 manuali che danno un’idea delle regole che Facebook usa per moderare i dibattiti su temi come la violenza, l’odio, il terrorismo, il razzismo e la pornografia.

Queste regole mostrano le difficoltà incontrate dal social network nel reagire di fronte a nuove sfide, come ad esempio il cosiddetto “revenge porn” (cioè il pubblicare foto intime dell’ex partner per vendetta). Spesso, si legge sul Guardian, i moderatori sono sommersi da una tale mole di lavoro che hanno solo 10 secondi per decidere se un’immagine è appropriata o meno. “Facebook non è in grado di controllare i suoi contenuti” – sostiene una fonte del Guardian – “E’ cresciuto troppo e troppo in fretta”.

Le linee guida per i moderatori. I criteri emersi dall’inchiesta del Guardian mostrano quanto la scelta possa essere arbitraria. Gli abusi sui minori se non sono di tipo sessuale (ad esempio un atto di bullismo) vanno eliminati solo se costituiscono esaltazione della violenza o sadismo. I video che mostrano morti violente non devono essere rimossi in tutti i casi, ma solo in alcuni. Basta segnalarli come urtanti, perché potenzialmente potrebbero addirittura essere utili per un’indagine, una ricerca scientifica o per creare una coscienza collettiva (come nel caso di crimini di guerra). Indulgenza anche in alcuni casi di foto di abusi su animali. Le immagini degli aborti invece possono essere pubblicate a patto che non contengano nudità. Infine chi ha più di centomila follower ha una protezione diversa degli altri in quanto “figura pubblica”: una minaccia a Donald Trump ad esempio è da cancellare subito.

Facebook non ha rilasciato specifici commenti sul report del Guardian. “Tenere al sicuro le persone è la cosa più importante che facciamo”, ha detto il capo del Global Policy Management della società. “Stiamo lavorando duramente per rendere Facebook più sicura possibile, permettendo la libertà di parola”. In questo senso, un esempio controverso riportato dal Guardian è la politica per cui Facebook permette alle persone in live-streaming di parlare di argomenti autodistruttivi perché “non può censurare o punire gli stati di angoscia”.

Condividi questo articolo: 




 

Altre Notizie