生成AIが選挙にもたらす偽情報の脅威 対策と抜け道のいたちごっこは続く

「11月の大統領選挙まで、投票は控えてほしい」。1月、米国ニューハンプシャー州の民主党支持者たちに対し、Joe Biden米大統領に酷似した声でロボコール(自動音声電話)が発信され、このようなセリフが呼びかけられた。そして、それを聞いた一部の民主党支持者は、1月の予備選での投票を思いとどまった。

しかし、それはBiden大統領の発言ではなく、人工知能(AI)によって生成された音声だった。このロボコールに関与した人物の1人は、AIを利用すれば、有権者の行動に影響を及ぼせるという事実を皆に知ってもらうことが目的だったと後から述べている。

テクノロジーは、かなり前から、有権者を左右する目的で利用されている。直近の2回の米大統領選挙では、主にソーシャルメディアが利用され、改変されたコンテンツが瞬く間に拡散した。元米下院議長のNancy Pelosi氏が不適任に見えるように編集され、急速に広まった動画もその1つだ。2023年には、米国のインターネットユーザーの3分の2近くが、誤情報やフェイクニュースがソーシャルメディアプラットフォーム上でまん延していると、調査で回答している。

リアルなテキストや画像、動画(そして、Biden大統領になりすました電話のような音声)を容易に作成できる生成AIツールの登場を受けて、2024年の大統領選も誤情報が流布される可能性は高まる一方だ。政府やテクノロジー企業、有権者は今後数カ月、この新たな現実に対処していかなければならない。

「Photoshop」の開発元であるソフトウェア大手のAdobeは、そうした状況を認識している。同社は先頃、オンラインの誤情報と生成AIについて、米国と英国、フランス、ドイツの消費者6000人に質問した「Future of Trust」という調査の結果を発表した。この調査では、特に選挙に関して、大半の回答者が懸念を抱いていることが明らかになった。

Adobe自体も「Firefly」という生成AIツールを提供している。これは、成長分野の一環であり、AnthropicやGoogle、Microsoft、OpenAIなどの企業もチャットボットや画像生成サービスを提供している。こうしたツールが、例えば、本物そっくりの画像や動画を作成する機能を提供するなど、ますます高度になるにつれて、創造の可能性だけでなく、悪用の可能性も高まる。そうしたツールの開発に携わるテクノロジー企業各社は、有害なコンテンツの作成を制限する防止策を設けているが、ユーザーは抜け道を見つけている。このいたちごっこは、2024年の米大統領選挙投票日まで続き、その後も終わることはないだろう。

誤情報2.0

ニューヨーク大学の非営利公共政策研究所であるBrennan Center for Justiceが2023年7月に発表したレポートによると、生成AIツールは、偽情報を受け手の情報環境にうまく紛れ込ませることにより、組織的な偽情報キャンペーンの説得力を高める可能性があるという。従来のソーシャルメディアの投稿は、文法上の間違いや不自然な言い回しが原因で、うそが発覚することもあるが、生成AIを利用することで、悪人たちはより本物らしい表現ができる。

こうした悪人たちは、AIチャットボットを動かす仕組みである大規模言語モデルを利用して、無数の投稿を生成し、特定の話が広く信じられているという誤った印象を作り出すこともできる。さらには、チャットボットを使用し、有権者の特性に基づいて、その有権者とのやり取りをパーソナライズすることも可能だ。

当然のことながら、Adobeの調査では、投票に影響を及ぼすためにディープフェイク(改変されたメディア)が再び利用されるのではないか、と有権者が考えていることが明らかになった。

同調査によると、米国の回答者の84%は、オンラインコンテンツが改変されやすいことを懸念しており、それ故に、選挙の公正さを憂慮しているという。一方、70%はオンラインコンテンツの信ぴょう性を検証することが難しくなりつつあると考えており、76%はコンテンツがAIによって生成されたものなのかどうかを確認できることが重要だと回答した。Metaや「TikTok」「YouTube」などのソーシャルメディアプラットフォームは、ユーザーに対して、デジタルで生成および編集されたコンテンツにラベルを付けることを義務づけるようになった。AdobeのFirefly、「DALL·E 3」「Copilot」などの生成AIツールには、写真や動画、ドキュメントの引用元、作成者、後で加えられた変更などの情報が表示される。

考えられる解決策

ニューハンプシャー州で発生したBiden大統領の偽音声によるロボコールを受けて、米連邦通信委員会(FCC)は、AIで生成した音声によるロボコールを違法とする裁定を下した。しかし、やるべきことはまだたくさん残っている。

非営利シンクタンクのThe Brookings Institutionは、政府がメディアリテラシーに投資して、有権者が事実と誤情報を区別する方法を学べるように支援すべきだと主張している。カリフォルニア州やコロラド州、イリノイ州はすでにそうしたプログラムを実施している(Adobeの調査で、米国の回答者の84%は、学校で子供たちにメディアリテラシーを教えるべきだと回答)。

The Brookings Institutionは、外国の利害関係者が米国の選挙で誤情報を広めないように抑制する取り組みについても呼びかけている。

Adobeの調査によると、政府は選挙の公正性を守るためにテクノロジー企業とも協力すべきだと、米国の回答者の83%は考えているという。

Brennan Center for Justiceは、議員がAIの規制に注力することを提案している。さらに、開発者が選挙関連のAIフィルターを改良すること、そして、ソーシャルメディアプラットフォームが政治的議論と偽情報の潜在的な害のバランスを改善するポリシーを策定することも求めている。

誤情報や偽情報から身を守るには

ユーザー側にもできることはある。AIによって生成されたコンテンツ、特に画像や動画には、注意すべき特徴的な兆候がいくつかある。コンテンツの出所を確認してみよう。それは信頼できるソースだろうか。

ソーシャルメディアの電子透かしやAdobeの「コンテンツ認証情報」(コンテンツの出所を示し、AI生成かどうかも明示する)などのファクトチェックツールもある(Adobeの調査で、米国の回答者の88%は、オンラインコンテンツの信ぴょう性を検証するツールが不可欠だと考えていると回答した)。

ニューメキシコ州とノースカロライナ州の住民は、州が運営するリソースにアクセスして、地方選挙に関する情報のファクトチェックを行うことができる。だが、全米レベルでは、そのようなリソースはまだ提供されていない。

有権者教育のキャンペーンも始まりつつある。

非営利団体のAIandYouは3月、LeanIn.Org、Voto Latino、TelevisaUnivisionとの提携の下、そうしたキャンペーンの1つである「Behind the Headlines」を発表した。このキャンペーンは、女性や黒人、ヒスパニックのコミュニティーを対象としており、AIが誤情報や選挙プロセスに及ぼす潜在的な影響について、そのコミュニティーの有権者を教育することを目指している。

生成AIの時代に生きる私たちには、利用できるあらゆる助けが必要になるだろう。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社