先月、Facebookの「コミュニティ基準」の問題を取り上げて以来、記者は、なぜか違反になるのは戦史だけではないことを発見しました。 ヴィンテージの広告、古いコミック、アンティーク、そしておもちゃでさえも、Facebookのアルゴリズムに違反する可能性があり、ソーシャルネットワークは慎重を期す傾向にあるため、少しでも議論を呼ぶようなものはフラグが立てられます。 しかし、年代物のコミック本(ナチスが「悪者」として明確に提示されている)のかぎ十字にフラグを立てたり、古い(そして間違いなく不快な)広告の投稿を禁止することは、本当に問題に対処しているのでしょうか。
いわゆるプライベート グループを含め、メンバーの妥当な言論の場を作るのではなく、Facebook は単にそのコミュニティ基準を使ってすべてをブロックしているのです。
次はポップ カルチャーか?
古い映画やテレビ番組でさえ、Facebook が画像や特定の「ホットボタン」キーワードにどのようにフラグを立てたかに基づいて問題になりえます。 メタデータとメタタグは、検索エンジンにページを上位に並べさせ、オンライン上のコンテンツをカタログ化するためにますます使用されているため、そのようなプラットフォーム上のコンテンツをブロックする結果になりかねません。
「古い映画が『コミュニティ基準』に反している可能性は疑いありません」と、映画 & メディアアート学科の議長でユタ大学映画学科の准教授である Andrew Nelson は説明してくれました。
ハリウッドの「ヘイズ・コード」は、何十年もの間、地域社会の基準を維持するために使用されていたため、多少の皮肉があります。
「映画はある程度、それが作られた時代の基準やモラルを反映しており、基準やモラルが変わることは誰もが知っています」と、Nelson は述べています。 「とはいえ、古い映画を見る傾向のある人々の大半は、このことを理解していると思います。 古い映画は、TCMやブルーレイの付録映像など、”キュレーション “された形で紹介されることが多く、そこでは文脈が提供される。 また、映画の歴史は、検閲を克服してきた歴史でもあります」
White Washing History
ソーシャルメディアで「コミュニティ基準」をキャッチオールで使うことの危険性は、少なくともオープンでのすべての議論を黙殺することです。
「憎しみや人種差別を広めないために、私たちは歴史を白紙にしないように注意する必要があります」と、ウェイクフォレスト大学のオンラインカウンセリング修士課程で学科長兼准教授を務めるNathaniel Ivers氏は提案します。
決まり文句のように、歴史を学び、そこから学ばないなら、それを繰り返す可能性があります」とIvers氏は警告します。 「
「振り返ってみると、(いくつかのビンテージ)製品の広告に使われた画像は、少なくとも無責任だったと言えるでしょう」と、ジョージ・ワシントン大学ビジネススクールのリーダーシップ教授、James R. Bailey氏は指摘します。 「しかし、人種差別主義者ということになるでしょうか? そうではないだろう。 それは単なるマーケティングであり、粗雑なものだった」。
このような古い広告キャンペーンが犯罪的な人種差別主義者ではなかったかもしれないという事実は、ソーシャルメディアのコミュニティ基準の観点からは重要ではないでしょう。 そのこと自体が心配だと、ベイリー氏は付け加えました。 前回、アメリカがこの運動を行ったとき、私たちはハーパー・リーの『モッキンバードを殺せ』のような本を燃やしました。 今はもう燃やしません。 しかし、そのような本や、攻撃的と解釈されるような画像は、ソーシャルメディア上で禁止しています。 子供の頃の無邪気なおもちゃの写真であれ、過ぎ去った日のレストランであれ、リコリスキャンディーであれ。 これらは破壊的なものではありません。 歴史なのです。 苦笑して、それが何であったかを理解しましょう」
An Enforcement Issue
問題の核心は、Facebook がこれらの問題をどのように扱うかについて、許されることでしょう。 今日、人種差別とみなされるような古い広告を誰が本当に擁護できるでしょうか、そして、たとえそれが 76 年前に祖父がノルマンディー海岸から持ち帰った旗であっても、鉤十字の表示を誰が本当に擁護できるでしょうか。
しかしながら、コミュニティ標準という一律の用語により、どちらの項目もプラットフォーム上でオープンに議論することさえできないのです。
「端的に言えば、Facebook は自身の基準を一貫して強制する方法を見出すことができません」と、メリーランド大学のオンライン MBA プログラムで経営および起業家精神の准教授を務める David Kirsch 氏は語ります。
アルゴリズムにすべてを任せてしまうと、あなたが記録した経験、つまり一見無害で、歴史的に正当な写真、資料、投稿が不適切に違反の旗印を付けられてしまいます」と Kirsch 氏は説明します。 「FacebookのAIが、ナチスの不適切なプロパガンダと、その同じトピックに関する正当な歴史的探求との間の線引きを正確に行う場所を見つけることは、アルゴリズム自体が独占的であるため、私たちには見えないので不可能なのです。 私たちが見るのは結果だけです」
これらの結果がどのように処理されるかも問題です。「あるアイテムはブロックされるべきではなく、誤検出されます。 「多くのグレーゾーンが明確化を求めているように見えますが、何も得られていません。 この問題の解決は、課題の規模を考えると簡単ではありませんが、不可能ではありません。 たとえば、コミュニティ基準委員会が、あなたの立場の誰かが、あなたの記事をレビューするために明示的にフラグを立て、それによって、境界線に近づいているという認識を委員会に示すように構成されることを想像できます」
Facebookは、他のソーシャルメディア企業と同様に、有意義な議論のためのプラットフォームを作るために実際にあるわけではなく、おそらくそれが覚えておくべきキーポイントとなるでしょう。 ある意味では、コミュニティ基準は、宗教または政治に関する議論を禁止するポリシーを持つ地元の酒場や、ビジネスの話をすべて禁止するアカデミックなクラブと変わりません。 「これらの企業は、ヘイトグループが激しい主張を押し通すために利用できる抜け道を避けようとしているのだろう」