偽情報と影響力操作
【 Cambridge Analytica - Facebook 事件を覚えてますか? 】
今回のセッションは、GPT-4 System Card の「偽情報と影響力操作 Disinformation and Influence Operation 」の章を取り上げます。
みなさん、Cambridge Analytica - Facebook 事件を覚えてますか?
Chat-GPTによると、こんな事件です。ここには「幻覚 Hallucination」はないと思います。
「2018年に発覚したCambridge Analytica事件(またはFacebook–Cambridge Analyticaデータスキャンダル)は、大量のFacebookユーザーデータが不適切に取得・使用されたという問題です。具体的には、アメリカの政治コンサルティング会社であるCambridge Analyticaが、Facebook上の数千万人のユーザーの個人情報を取得し、その情報を用いて政治広告を個々のユーザーに最適化するために利用したとされています。
この情報は、アカデミックリサーチとして収集されたもので、Facebookユーザーがある種の性格診断クイズに参加した際に、そのユーザーだけでなく、そのユーザーのFacebook友人のデータも含めて収集されました。そして、このデータがその後、元々の意図から逸脱してCambridge Analyticaに売られ、2016年のアメリカ大統領選挙での選挙キャンペーンに利用されました。
この事件は、大量のユーザーデータが無許可で取得・使用されたこと、そしてそれが民主主義のプロセスに影響を与えた可能性があることから、世界的な憂慮を引き起こしました。この事件は、個人データのプライバシーと、それがどのように使用されるべきかについての広範な議論を引き起こし、Facebookとその他のテクノロジー企業のデータ管理に対する規制を強化する動きにつながりました。」
今回のセッションのトピックである「偽情報と影響力操作」は、2018年に露見したこうした問題が大規模言語モデルのもとで、形を変えて再び現れるのではないかという問題を扱ったものです。
話は飛びますが、先日 Metaが大規模言語モデル LLaMA をオープンソースで公開した時、「Facebook もそんな技術持っていたんだ」と意外に思った人もいたと思います。
ただ、アメリカ議会に召喚されたザッカーバーグは、いろいろ突っ込まれその場はなんとか切り抜けるのですが、この事件以来、Facebookは膨大なネット上の言語コンテンツを対象として、その中から「偽情報」を検出するという技術的課題に取り組み始めます。彼らはそれを「AIを使って」行うと宣言します。https://www.facebook.com/fujio.maruyama/posts/10215449228321380
少なくとも、今回のトピックスである「偽情報と影響力操作」とAIの関連について言えば、Metaは、最も早くからこうした課題に取り組んでいた企業です。大規模言語モデルについてのノウハウを持っていたのは、少しも不思議ではないのです。
本論に戻りましょう。
GPT-4 System Cardは次のように指摘します。
「GPT-4は、ニュース記事、ツイート、対話、電子メールなどで、もっともらしく現実的で標的を絞ったコンテンツを生成することができる。」
「GPT-4 は現実的で標的を絞ったコンテンツを生成することにおいて GPT-3 よりも優れていると予想される。そのため、GPT-4 が誤解を招くことを意図したコンテンツの生成に使用されるリスクがある[50]。」
OpenAIの研究者は、ジョージタウン大学のCenter for Security and Emerging TechnologyおよびStanford Internet Observatoryと共同で、大規模な言語モデルが情報操作の目的でどのように悪用される可能性があるかを調査しました。その結果は次の論文にまとめられています。
“Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations” https://arxiv.org/abs/2301.04246
ビデオ・スライドでは、この論文の内容を少し詳しく紹介しています。
また、OpenAIが偽情報を生み出す危険があると考えているプロンプトを三つ System Card のプロンプト・サンプルから紹介しています。ぜひ、お確かめください。
https://gpt4-report.peatix.com/
コメント
コメントを投稿