古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

Facebook、Microsoft、Twitter、YouTubeがテロ助長コンテンツ排除で協力 法規制に先手

ITmedia NEWS のロゴ ITmedia NEWS 2016/12/06
Facebook、Microsoft、Twitter、YouTubeがテロ助長コンテンツ排除で協力 法規制に先手: (AP Photo/James H. Collins) © ITmedia ニュース 提供 (AP Photo/James H. Collins)

[AP通信] 米Facebook、Microsoft、Twitter、YouTubeが、テロリストによる悪質なプロパガンダをより迅速に特定し、オンラインでの拡散を阻止するための取り組みで協力する。

 12月5日に発表された新しいプログラムは、デジタルデータの指紋の役割を果たす“フィンガープリント”のデータベースを共同で構築し、削除すべき動画や画像の自動判別に役立てるというもの。

 この取り組みは2017年1月に始動する。昨今、ソーシャルメディアのコンテンツをめぐっては「テロリストによる新兵募集に利用され、急進化を助長している」との懸念があるが、4社の取り組みには、言論の自由とのバランスを取りながらも、そうしたテロ関連コンテンツに対する連邦政府の懸念を軽減し、ひいては昨年提出された新しい規制法案の成立を阻止したいという思惑がある。

 取り組みの技術的な詳細については現在詰めている段階だが、Microsoftは2009年、同様のデータベースを用いて児童ポルノを検知、報告、削除する技術を開発している。連邦法に明らかに違法するそうしたポルノ画像とは異なり、写真や動画がテロリズムを助長するものであるかどうかの判断はもっと主観的であり、国の法律や個々のソーシャルサービスのルールによっても異なる。

 ソーシャルメディアは、イスラム過激派組織ISなどのテロ集団によって新兵補充や急進化のためのツールとして使われるケースが増えている。テロ組織やその支持者がソーシャルメディアを使用することによって、いわゆるローンウルフ(一匹狼)型のテロ攻撃の脅威が増大し、さらに“雷が光ってから雷鳴が聞こえるまでの時間”——つまりテロへと急進化するまでの期間——が短くなることで、事件発生前に警察が手がかりを追うための時間はほとんどなくなりつつある。

 5日午後に発表された共同声明によると、新たな提携の下、「自社のサービスから削除した最も過激で悪質なテロリストの画像と動画を共有すること」で合意。「そうしたコンテンツはおそらく我々のそれぞれの企業コンテンツポリシーにも違反している」という。

 削除すべきコンテンツが参加企業のいずれかで見つかった場合には、他の参加企業にも通知が行く仕組みだ。フィンガープリントを用いて自社サービス上の同一のコンテンツを直ちに特定し、自社のルールに違反していないかどうかを確認できる。違反している場合は、当該コンテンツを削除できるほか、必要に応じてアカウントを無効にすることも可能だ。

 大半のソーシャルメディアサービスは、暴力的な行為や違法な活動を支持するコンテンツを明確に禁止している。例えば、Twitterは「人種、民族、出身地、性的指向、性別、性同一性、宗教、年齢、障碍、疾患を理由とした他者への暴力行為、直接的な攻撃、脅迫の助長」を禁止している。

 「我々が協力し、オンラインで共有される極めて悪質なコンテンツを徹底的に監視する。新兵募集や斬首の動画など、我々いずれの企業コンテンツポリシーにも違反しているであろうようなコンテンツが対象だ」とFacebook広報担当者のサリー・オルダス氏は語る。

 ホワイトハウスはこの共同の取り組みを歓迎し、米国家安全保障会議(NSC)の広報担当者カール・ウーグ氏は次のように述べている。「民間企業は革新的な技術を駆使して、テロリストによるオンラインでの新兵募集や急進化を制限できる独自の立場にある。彼らによる今日の発表は、テロリストが開発者の意図とは全く異なる形でこうしたプラットフォームを活用するのをITコミュニティの力で阻止しようという新たな動きだ」

 この1年、テロ組織によるソーシャルメディアの活用を阻止するための各種の取り組みが進められてきた。

 連邦議会では2015年12月、ソーシャルメディア企業に対し、オンラインで把握したテロリストによる活動を全て当局に報告するよう義務付ける法案が提出された。ダイアン・ファインスタイン上院議員(カリフォルニア州、民主党)とリチャード・バー上院議員(ノースカロライナ州、共和党)が提出したこの法案は、「テロリストによる活動」が明確に定義されていないことから、政府が報告を処理しきれなくなる可能性があるとの批判を受けた。Facebook、Snapchat、Google、LinkedIn、Reddit、Twitter、Yahoo!など37社のインターネット企業を代表する業界団体The Internet Associationは、この法案に反対を表明している。

 この法案が提出されたのは、カリフォルニア州サンバーナーディーノでサイード・ファルーク容疑者と妻のタシュフィーン・マリク容疑者が銃乱射事件を起こした数日後のことだ。事件では、14人が死亡し、21人が負傷している。マリク容疑者は偽名で使用していた自身のFacebookページにおいて、犯行前にイスラム過激派組織ISの指導者に忠誠を誓っていた。

 Facebookは事件翌日にこの投稿に気付き、プロフィールを閲覧できないようにした上で、捜査当局に報告した。こうした積極的な対応は以前にはあまりなかったことだ。

 Twitterは2015年に部分的な自動化技術を導入し、サービス条項に違反していたり、テロリズムを助長していたりする可能性のあるアカウントの発見に“プロプライエタリなスパム対策ツール”(詳細は不明)を使用するようになった。ただしアカウントを無効にするためには、事前に社内のチームがコンテンツを確認する必要がある。

 「暴力的脅迫やテロリズムの奨励を禁止するTwitterのポリシーに違反したとの理由で、2015年半ば以降これまでに36万以上のアカウントを凍結してきた。大半のアカウントは、当社のプロプライエタリなスパム対策ツールなど、技術的な手段を用いて削除している」とTwitterのパブリックポリシー担当副社長を務めるシニード・マクスウィーニー氏は話す。

 Facebookは画像照合技術を使って、新しい画像を削除済みの画像と対照するようにしている。同社の広報担当者によれば、この方法を用いることで、報道写真など、合法的な写真や権利に問題のない画像まで削除せずに済むという。

 オハイオ州では2015年、テレンス・マクニール被告がTumblrやFacebook、Twitterなどのソーシャルメディアを通じて米軍人の殺害を呼びかけた罪に問われた。連邦検事は、被告が自身のFacebookページに一連の写真を投稿し、イスラム過激派組織ISによって焼殺されたヨルダン人パイロットの死を称えたとして告訴。告訴状によれば、被告はヨルダン人パイロットが炎に包まれる画像も含め、殺害前から殺害中、殺害後の写真をFacebookに投稿したという。

 ホワイトハウスは2016年1月、暴力的な過激派組織によるソーシャルメディアの使用について議論すべく、FBIのジェームズ・コミー長官、ロレッタ・リンチ司法長官、国家安全保障局(NSA)のマイケル・ロジャース長官らをシリコンバレーに送った。議題には、テロリストのコンテンツをITを活用して迅速に特定するための方法も含まれた。

 参加企業によれば、将来的にはこの取り組みに他の企業も参加できるようにする方針だという。

(日本語翻訳 ITmedia ニュース)

(C) AP通信

ITmedia NEWSの関連記事

image beaconimage beaconimage beacon