Scavando più a fondo nei torbidi standard comunitari di Facebook

discorso dei membri – anche nei cosiddetti gruppi privati – Facebook usa semplicemente i suoi standard comunitari per bloccare tutti.

Getty

Da quando ha affrontato la questione degli “standard comunitari” di Facebook il mese scorso, questo reporter ha scoperto che non è solo la storia militare che può essere in qualche modo in violazione. Pubblicità d’epoca, vecchi fumetti, oggetti d’antiquariato e persino giocattoli possono essere in contrasto con gli algoritmi di Facebook e poiché il social network tende a peccare di cautela, qualsiasi cosa anche leggermente controversa può essere segnalata.

È vero che Facebook sta cercando di mantenere uno standard comunitario per garantire la sicurezza e il benessere dei suoi utenti. Ma segnalare una svastica su un fumetto d’epoca (dove i nazisti sono chiaramente presentati come i “cattivi”) o vietare la pubblicazione di un vecchio (e probabilmente offensivo) pezzo di pubblicità affronta davvero il problema?

Invece di creare uno spazio per un discorso ragionevole dei membri – anche nei cosiddetti gruppi privati – Facebook usa semplicemente i suoi standard comunitari per bloccare tutti.

Is Pop Culture Next?

Anche vecchi film e spettacoli televisivi potrebbero essere un problema in base a come Facebook ha contrassegnato le immagini o certe parole chiave “hot button”. Poiché i metadati e i metatag sono sempre più utilizzati per far sì che i motori di ricerca smistino le pagine verso l’alto e cataloghino i contenuti online per la loro stessa natura, ciò potrebbe portare al blocco dei contenuti su tali piattaforme.

“Non c’è dubbio che i vecchi film potrebbero incorrere negli ‘standard della comunità'”, ha spiegato Andrew Nelson, presidente del Dipartimento di Film & Media Arts e professore associato di Film Studies all’Università dello Utah.

C’è una certa ironia, dato che il “Codice Hays” di Hollywood è stato usato per mantenere gli standard della comunità per decenni.

“I film riflettono, in una certa misura, gli standard e la morale del tempo in cui sono stati fatti, e tutti sappiamo che gli standard e la morale cambiano”, ha detto Nelson. “Detto questo, penso che la maggior parte delle persone che sono inclini a guardare i vecchi film lo capiscano. I vecchi film sono spesso presentati in modo ‘curato’ – su TCM, o su Blu-ray con caratteristiche supplementari – dove viene fornito il contesto. C’è anche qualcosa da dire sulla storia del cinema, che è in parte una storia di superamento della censura.”

Storia del lavaggio bianco

Il pericolo di usare un “standard comunitario” sui social media è che mette a tacere tutta la discussione, almeno all’aperto. Essenzialmente blocca il contenuto che potrebbe essere leggermente controverso e blocca qualsiasi conversazione significativa nel processo.

“Nell’interesse di non propagare l’odio e il razzismo, dobbiamo stare attenti a non lavare la nostra storia”, ha suggerito Nathaniel Ivers, presidente del dipartimento e professore associato nel programma di Master Online in Counseling alla Wake Forest University.

“Come dice il cliché, se non studiamo e impariamo dalla storia, è probabile che la ripetiamo”, ha avvertito Ivers. “Quello di cui sono meno sicuro è dove dovrebbe essere tracciata la linea in termini di post sui social media e la condivisione virtuale di fumetti, modellini di auto e aeroplani, ecc.”

Bannare le immagini perché potenzialmente offensive – come una pubblicità d’epoca o una foto storica – presenta il suo problema.

“In retrospettiva, possiamo davvero dire che le immagini utilizzate per pubblicizzare (alcuni prodotti d’epoca) erano, come minimo, irresponsabili”, ha notato James R. Bailey, professore di leadership presso la George Washington University School of Business. “Colpevolmente razzisti, però? Improbabile. Era solo marketing, per quanto grossolano”.

Il fatto che una campagna pubblicitaria così vecchia potesse non essere colpevolmente razzista non avrebbe importanza in termini di standard della comunità dei social media. Il semplice fatto che potrebbe offendere sarebbe sufficiente per essere considerato un problema.

Questo di per sé è preoccupante ha aggiunto Bailey. “L’ultima volta che l’America ha fatto questo esercizio, abbiamo bruciato dei libri, come Il buio oltre la siepe di Harper Lee. Non bruciamo più i libri. Ma li vietiamo, o qualsiasi immagine che potrebbe essere interpretata come offensiva, sui social media. Che si tratti di immagini di innocenti giocattoli d’infanzia, di ristoranti di un tempo o di caramelle alla liquirizia. Queste cose non sono sovversive. Sono storia. Sorridiamo con ironia, e poi comprendiamole per quello che erano.”

Un problema di applicazione

Al cuore del problema Facebook può essere perdonato per come gestisce questi problemi. Chi può davvero difendere un vecchio annuncio che oggi sarebbe considerato razzista e chi può davvero difendere l’esposizione di una svastica, anche se è su una bandiera che il nonno ha riportato dalla spiaggia della Normandia 76 anni fa?

Tuttavia, il termine generico di standard comunitari assicura che nessuno dei due elementi possa essere discusso apertamente sulla piattaforma.

“In parole povere, Facebook non riesce a capire come far rispettare in modo coerente i propri standard”, ha detto David Kirsch, professore associato di Management e Imprenditorialità nel programma MBA online presso l’Università del Maryland.

“Lasciando tutto all’algoritmo, le esperienze che avete documentato – foto, materiali e contributi apparentemente innocui e storicamente legittimi vengono impropriamente contrassegnati come violazioni”, ha spiegato Kirsch. “Trovare esattamente dove l’AI di Facebook traccia la linea tra un pezzo inappropriato di propaganda nazista e una legittima indagine storica su quello stesso argomento è impossibile perché l’algoritmo stesso è proprietario e quindi invisibile per noi. Noi vediamo solo i risultati.”

Anche il modo in cui questi risultati sono gestiti è in discussione.

“Alcuni elementi sono bloccati che non dovrebbero esserlo – falsi positivi – mentre altri passano che forse non dovrebbero – falsi negativi, come i discutibili post di Trump”, ha detto Kirsch. “Molte aree grigie sembrano implorare chiarezza, ma non otteniamo nulla. Le soluzioni a questo problema non sono facili, data la portata della sfida, ma non è impossibile. Per esempio, potremmo immaginare un consiglio per gli standard della comunità costruito in modo tale che qualcuno nella vostra posizione segnalerebbe espressamente il vostro articolo per la revisione, segnalando così al consiglio la vostra consapevolezza dei limiti a cui vi state avvicinando.”

Facebook – così come qualsiasi azienda di social media – non è davvero lì per creare una piattaforma per discussioni significative, e questo forse è un punto chiave da ricordare. In qualche modo gli standard della comunità non potrebbero essere diversi da quelli di un bar locale che ha una politica che vieta le discussioni di religione o politica, o un club accademico che vieta tutti i discorsi di affari.

Poi c’è il fatto che Facebook semplicemente non può essere disturbato a diventare una piattaforma di discussioni significative.

“Posso capire come le aziende di social media potrebbero prendere decisioni politiche radicali per limitare questi tipi di post perché sarebbe molto difficile e costoso sviluppare ed eseguire valutazioni che determinano l’intenzionalità degli utenti dietro i loro post”, ha aggiunto Ivers. “

Sospetto che queste aziende stiano cercando di evitare le scappatoie che i gruppi di odio potrebbero usare per spingere programmi al vetriolo.”

Ricevi il meglio di Forbes nella tua casella di posta elettronica con le ultime intuizioni degli esperti di tutto il mondo.
Loading …

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.