Facebook, Twitter, Google e Microsoft partner nella lotta al terrorismo

Facebook, Twitter, Google e Microsoft si uniscono per realizzare un database per combattere il terrorismo anche in rete. Per fronteggiare la diffusione, e velocizzare la rimozione, di contenuti mirati a reclutare membri oppure a fare propaganda in favore del terrorismo i post, le immagini e i video saranno catalogati.

Nel mese di maggio, Facebook, Twitter, YouTube e Microsoft hanno firmato un codice di comportamento, in cui hanno promesso di rivedere la maggior parte dei report inneggianti all’odio (Hate Speech) entro 24 ore e rimuovere i contenuti illegali. Le cose non sono andate esattamente così il Commissario alla Giustizia della Commissione europea Věra Jourová ha espresso sgomento  proprio nei giorni scorsi perché solo il 40 per cento delle segnalazioni vengono esaminate entro 24 ore.

Dunque, una risposta alla Commissione europea da parte delle quattro aziende statunitensi che promettono maggiore velocità nel scovare e rimuovere contenuti. Vedremo se questa volta dalle parole si passerà ai fatti soprattutto in considerazione del fatto che le piattaforme in gioco già possiedono delle norme di comportamento che spesso sono liberamente interpretate da chi le dovrebbe far rispettare.

Un caso su tutti è certamente Facebook che mette ben in evidenza nelle condizioni di utilizzo che non sono ammessi commenti o pagine inneggianti all’odio e alla violenza eppure i social network ne è pieno. Va poi considerato anche un altro aspetto della questione, c’è chi pensa che questa sia una forma di censura da parte dell’Europa nei confronti di siti statunitensi.

I problemi legati a censura e rispetto della privacy hanno già creato scompiglio nel caso dell’attentato di San Bernardino, in California, e di accesso forzato all’iPhone dell’attentatore. In quel caso Apple si era opposta all’ingiunzione di sbloccare il dispositivo per rispettare la privacy dei propri clienti (in un ragionamento più ampio non legato allo specifico evento). Di certo questo dilemma si ripresenterà ancora.

Kate Crawford di Microsoft e Tarleton Gillespie della Cornell University hanno spiegato nel 2014 che: “I disaccordi su ciò che è offensivo o accettabile sono inevitabili quando si incontrano diverse culture. Dal punto di vista dei fornitori queste divergenze possono essere un fastidio, puntine sotto le ruote di un veicolo altrimenti ben funzionante. Ma sono anche trattative pubblici essenziali. Esempi controversi possono diventare occasioni di sostanziale dibattito pubblico: Dov’è il confine tra una dichiarazione politica aggressiva e un invito alla violenza? Quali sono i giudizi estetici e politici esercitati sull’immagine di un corpo nudo, quando è artistico oppure offensivo?”.

Stabilire il confine è difficile e ancor di più lo sarà se il sistema sarà automatizzato come ha intenzione di fare Facebook che dal suo amministratore delegato, Mark Zuckerberg, ha  dichiarato che la società prevede di utilizzare l’automazione per abbattere il contenuto offensivo prima che questo possa essere segnalato dall’utenza. Quindi la questione è destinata al caos? Al momento sembra questa l’unica possibilità visto che utilizzare forza lavoro per questo significa fare degli investimenti di denaro.

Linguaggio naturale contro quello di programmazione, un  database condiviso  di contenuti rimossi da Facebook, Microsoft, Twitter e YouTube legati al terrorismo ­­­­- non occorre altro per amplificare gli errori di ciascuna delle reti.

Condividi questo articolo: 




 

Altre Notizie