Esplosione a Bangkok: attivo il Safety Check di Facebook, ma è una bufala

Un’esplosione a Bangkok il 27 dicembre ha fatto attivare il Safety Check di Facebook per tenere in contatto le persone sul luogo dell’esplosione con il resto del mondo. Peccato si tratti di una bufala che l’algoritmo del social network di Menlo Park ha contribuito a diffondere.

L’unica esplosione avvenuta a Bangkok (per fortuna) è quella dei petardi lanciati da un uomo, dal tetto del palazzo del governo tailandese, per protesta. Facebook rimane vittima delle bufale che si è impegnata a combattere, secondo le parole del CEO Mark Zuckerberg, e rimane vittima dell’algoritmo del Safety Check attivato alle ore 9 (ora locale tailandese) e disattivato solo un’ora dopo.

L’algoritmo che attiva il “controllo di sicurezza” si basa sulla diffusione di notizie che poi una terza parte controlla per un’ulteriore verifica e quindi viene attivato il Safety Check. Qualcosa non ha funzionato visto che le uniche notizie che parlavano di esplosioni a Bangkok risalgono al 2015 e le altre notizie diffuse in merito lo sono state da siti fake.

Facebook vittima di quella stessa “misinformation” a cui Zuckerberg ha dichiarato guerra. Ecco la dichiarazione del social network a The Verge sulla questione: “Safety Check è stato attivato oggi in Thailandia a seguito di un’esplosione. Come per tutte le attivazioni di Safety Check, Facebook si basa su una terza parte fidata che confermi prima l’incidente e poi attiva lo strumento per la community che può condividere con amici e familiari“.

L’algoritmo del Safety Check di Facebook, dunque, si avvale delle fonti presenti in rete e dei post sul social network, post chiaramente fake che lo hanno fatto attivare. Come segnala La Stampa: “il giornalista Saksith Saiyasombut, di Channel NewsAsia, Facebook avrebbe tradotto male una parola thailandese che può significare sia “bomba” sia “forte rumore“.

Tanto rumore per nulla, per rimanere in tema esplosioni, però la vicenda è anche la dimostrazione di come false notizie dilaghino senza freno sulla piattaforma di Zuckerberg e di come sia facile influenzare un algoritmo. Il social in blu ha molto da sistemare nel 2017 viste anche le molte controversie riguardanti gli standard della comunità che permettono la presenza di pagine inneggianti all’odio e poi cancellano foto storiche o di opere d’arte.

Condividi questo articolo: 




 

Altre Notizie