#アナタノミカタ 

Facebookライブにアップされた自殺動画の拡散防止に失敗した各SNSの理由
AI.

あるFacebook(フェイスブック)ユーザーが自分が自殺するところをライブ動画としてアップロードした。その動画がTikTok、Twitter(ツイッター)、Instagramに拡散した。YouTubeでは何千回も再生され、それにともなう広告収入を集める動画が今現在も多数流れている。ソーシャルネットワークはさまざまな努力はしているものの、拡散防止に失敗したことは明らかだ。多数の暴力的コンテンツ、フェイクニュースの拡散を防止できなかったことが思い出される。

オリジナルの動画がフェイスブックにアップされたのは2020年8月末だったが、その後、主要な動画プラットフォームにコピーされた。多くは無害なイントロを流した後で自殺の場面に移る。この手法は、はるか以前からプラットフォームによる審査をごまかすために多用されてきた。こうした動画は視聴した人々が違法な内容だ気づいて手動で通報するが、その時点ではすでに大勢が問題のシーンを見せられしまった後だ。

これはいろいろな意味で新型コロナウイルスは人工的に作り出されたものだとする陰謀論がSNSで拡散された際の手法に似ている。ソーシャルネットワークは、多大のリソースを投入してこのような陰謀論が猛威を振るうことを防ごうとしたが失敗した。

大型ソーシャルネットワークは、利用約款に違反する動画を即座に削除する高度なアルゴリズムを装備しているにも関わらず、これまでのところ規約違反動画が狙いとする最も重要な点を防ぐことができていない。多くのユーザーが過激な場面を目にしてしまっている。

Ronnie McNutt(ロニー・マクナット)氏の自殺動画が、最初にアップロードされたのは8月31日だった。システムがこの動画を削除したのは公開後3時間近く経ってからだった。その時には視聴回数は膨大なものになっており、多数のコピーが作られていた。多数のユーザーによって通報されていたにも関わらず、なぜこのような過激で暴力的かつ利用約款に明らかに違反する動画にはが長時間公開されたままになっていたのか?

先週発表されたコミュニティ規定施行レポートでフェイスブックは 暴力的あるいは性的な内容のコンテンツを審査するという報われない仕事に1日中携わる人間の担当者(多くは外部の契約者)がパンデミックのために不足していたことを認めた。

審査担当者の人員が不足していれば 、当然ながらフェイスブックとInstagramにおける自殺、自傷、チャイルドポルノなどのコンテンツの審査も遅れ気味になる。

また違法なコンテンツをみ全員が通報するとは限らないため、通報件数だけでは違法性の程度を判断することが難しい。

しかし自殺したマクナット氏の友人でポッドキャストの共同ホストを務めていたJosh Steen(ジョッシュ・スティーン)氏はTechCrunchの取材に対して次のようなメールを返しており、このライブ動画は自殺シーンのはるか以前に規約違反として通報されていたという。「彼をよく知っているし、またこのような動画がどのように処理されるかについても知識があるので、あのストリーミング動画は、何らかのかたちで介入があることを期待していたのだと信じる。これは仮定に過ぎないが、本人の気をそらすことができてさえいれば、彼が自殺をすることはなかったはずだと思う」。

この点についてもフェイスブックに取材したが、回答は「ライブストリームにいち早く介入できる方法がなかったか検討しているところだ」という型通りのものだった。ともあれ、そういう方法の確立を強く期待する。

しかし、こうした動画が一度配信されてしまうと、フェイスブックにはその拡散を防ぐ方法はない。過去にも自殺や暴力的な場面がライブストリームで放映されたことは多数ある。ただし今回、他のソーシャルメディアの対応は明らかに遅すぎだ。TikTokはこの動画を「おすすめ」ページに入れていた。無責任なアルゴリズムによって、何百万という人々がこのシーンを見ることになってしまった。なるほどこの動画をプラットフォームから完全に削除するのは難しかったかもしれないが、少なくとも「おすすめ」に入れて積極的に拡散すること防止するなんらかの手立てが取られて良かったはずだ。

YouTubeもいわば事後従犯だ。スティーン氏のグループの動画はキャプチャーされ、無数の営利目的のサイトがYouTubeにアップして広告料を稼いだ。スティーン氏は自殺動画をコピーし、広告を付加してSquarespaceやMotley Foolで流した例のスクリーンショットを送ってきた。

最大の動画配信プラットフォームがこのように無責任な態度を取り、悪質なコンテンツを排除するための方策を取らなかったように見えることは非常に残念だ。例えばTikTokは、契約違反の動画を繰り返しアップロードしたユーザーのアカウントを凍結するとしている。しかしそうしたユーザーを排除する前に、何度も繰り返される悪質な動画の投稿を許す必要があるのだろうか?

一方、フェイスブックは繰り返し通報を受けていたにも関わらず、この動画をが規約違反であると断定するのを躊躇したようだ。さまざまなかたちでの再アップロードが、禁止されることなくしばらく続いた。もちろんこれは審査のスキを突かれ、いくつかの動画がすり抜けてしまったのだとも考えられる。何千もの動画が大勢のユーザーの目に触れる前に削除されている。しかしフェイスブックのように、何十億ドル(数千億円)もの資金と何万人もの人員を割り当てている巨大企業が、これほど重大な規約違反動画を削除するために躊躇した理由がわからない。

フェイスブックは8月上旬に「通常の審査体制に戻した」と述べたとされている。しかしスティーン氏は「AIテクノロジーはパンデミック期間中に大きく進歩していた。だからライブストリーミングだから防止できなかった、あるいはその後の拡散を防げなかったというのはおかしい」と主張する。

「(乱射犯がモスクを襲った)クライストチャーチ事件で、私たちはライブ動画のバイラルな拡散の危険性についていくつか重要な教訓を得た。これは広く知らせる必要がある。ライブストリーミングが視聴された総数、共有された回数、それらが視聴された回数などだ。私はこれらの数字はライブ映像のインパクトを正しく認識する上で極めて重要だと考えている。特にどの時点でライブストリームのビューが急増したのかというデータが重要だ」とスティーンは述べている。

TwitterとInstagramでは、自殺動画アップロードするためだけに多数のアカウントが作られた。また自殺者のハンドル名を利用した多数のフェイクアカウントが作られている。一部の動画には「自殺」や「死」といったタグさえ付加されている。こうしたアカウントには、利用規約を破った動画をアップロードする以外の目的がないのは明らかだ。フェイクアカウントやボットアカウントを判別できるはずのアルゴリズムは何をしていたのか?

筆者が見つけたYouTubeチャンネルには、マクナット氏の自殺を利用して50万以上のビューを得ているものがあった。オリジナルの動画にはプリロール広告が付けられ、無害であることを装ったコンテンツとして始まるが、やがて興味を抱くユーザー向けに自殺シーンが表示される。私がYouTubeにこの動画を報告すると、プラットフォームはこのアカウントの収益化を停止し、問題の動画を削除した。しかしスティーン氏らは、何日も前に同じこと報告していた。次にこうしたことが起こった場合、あるいは別のプラットフォームで現に起こりつつあるかもしれないが、メディアが記事にしない限り、プラットフォームは責任ある措置を取ろうとしないのではないかと考えざるを得ない。

こうしたプラットフォームが目的としているのは、規約違反に対する措置をなるべく穏やかなものにして目につかないようにし、ユーザー離れを防いでビジネスへの影響を最小限にすることだ。他のソーシャルネットワークでも見られたが、もし厳格な削除措置がビジネスに悪影響を与えるようであれば、そういう措置は取られない。

しかし、今回の事態あるいは以前の事態が示すように、これはソーシャルネットワークサービスが必要とする重要な要素を欠いている。現在の状況をリアルタイムで共有できる動画配信サービスは、ビジネスとして極めて大きな利益を上げることは明らかだ。しかし同時に、恐るべき行為の映像をそのまま流してしまうというリスクをはらんでいる。

スティーン氏は「こうした(ソーシャルメディア)は非協力的であり、また正直ではない。我々の抗議に対して、ソーシャルメディアが責任ある対応をしなかったことを繰り返し見てきたことにより、改革を求めるハッシュタグ「#ReformForRonnie」を作った。何らかの変革がなければ、こうしたことはいつまでも続くだろう」と述べている。

もちろんスティーン氏は親しい友人を失い、その死を悲しんでいる人間であることは考慮に入れ必要がある。しかし友人の自殺が乱用され不当にコピーされて、故人が笑い者にされている状況に対して巨大動画プラットフォームが中途半端な対応しかしないことについて、強い不満と怒りを感じていることにも留意すべきだ。

スティーン氏はメジャーなソーシャルネットワークに対して、人々は何らかの声を上げるべきだとしてこのハッシュタグを広める運動をしている。どうすればこうした事態を防げたのか?すでにアップロードされた動画についての対応は、どのように改善されるべきなのか?どのようにすれば故人を愛した人々の意思をより尊重できたのか?もちろんこれらすべては完全に実現するのが極めて困難な課題だ。しかしそれが、プラットフォームが何も努力をしないことの言い訳になってはならない。

関連記事
TikTokは今ユーザーの「レコメンド」ページから悪質なビデオを排除中
新型コロナ偽情報の動画「Plandemic」にYouTubeやTwitter、Facebookなどが緊急対応

カテゴリー:パブリック / ダイバーシティ

タグ:Facebook YouTube

画像:Florian Gaertner / Getty Images (Image has been modified)

原文へ

(翻訳:滑川海彦@Facebook

引用先はこちら:Facebookライブにアップされた自殺動画の拡散防止に失敗した各SNSの理由

#アナタノミカタ