第4回:証拠映像ですら「証拠」と見なされなくなる時代 政治すら動かしかねない「ニセ映像」リスク

AIで証人喚問も変わっていくかもしれません

■"記憶にございません"では済まない話

昔、国会の証人喚問で都合の悪いことを聞かれたある実業家が、「記憶にございません」を連発して流行語になりました。あれから40年以上を経た今日、依然として「記憶にございません」でその場をしのごうとする人々がいることは、なんとも残念なことです。こういう問題こそ、AIで何とかならないものでしょうか。どんなにうそをついても、あるいは電子的にやり取りしたり、テキストで保存したものを消去したつもりでも、AIを駆使すれば、時間をさかのぼって悪事の痕跡をやすやすと暴き出すことができるかもしれません(これはあくまで筆者の希望的観測ですが)。

ところで世の中の現実を見ると、逆にAIが証拠隠しや他人を陥れるために悪用されかねない、気になる予測も出ています。その予測とは「ビデオ」にまつわるAIのリスクのことです。一言で言えば、「あれ、私そんなことを言いましたか?」と思ってしまうような、本人が口にしたことのない言葉をあたかも本人自身が話したようにビデオを加工する技術が出てきたのです。

この技術は「ディープフェイク(Deepfake)」と呼ばれているもので、言葉の由来はフェイスマッピングとAIのディープラーニング(深層学習)から来ています。本物(本人)の映像とほとんど変わらないリアルさが特徴の「偽」のビデオ映像のことです。

例えば、米国のオバマ前大統領の既存のビデオをコンピューターに取り込んで、オバマ氏にあることないこと、なんでも言わせることができます。CGで加工したようなぎこちなさはなく、実に自然な表情と声を真似ることができる。これは実際にBuzzFeedというサイトに掲載され、注目を浴びました。

■参考記事(VOA)
https://www.voanews.com/a/i-never-said-that-high-tech-deception-of-deepfake-videos/4463932.html

■誰でも入手できるAIアルゴリズム

このビデオはどのようにして作るのでしょうか。まず複雑な命令コード一式をコンピューターにインストールし、次にビデオ加工する人物の様々なイメージと音声を読み込みます。この後コンピュータープログラムは、その人物の顔の表情や動きだけでなく、声や話し方のパターンまで含め、そっくり真似できるように学習します。対象とする人物のビデオ画像や音声がたくさんあればあるほど、ディープフェイクは自由自在に偽の発言を作り出すことができるそうです。

こうしたビデオは、インターネットからプログラムコードを有料または無償でダウンロードして作れるというから驚きです。以前、この連載で述べた「3Dプリンターによる銃製造マニュアルのダウンロード」とほとんど同じでしょう。

考えてみれば、ネット上には政治家やタレント、セレブなどを撮ったビデオ映像があふれています。こうした素材に興味を持つ者はだれでも簡単にインターネットからソースコードをダウンロードし、手軽にフェイクビデオが作れる。これだけでも、なんとなく嫌な予感がするではありませんか。

米国のある専門家はこう指摘します。「私たちが観ている人物が本人なのか、本人が話していることなのか、それともフェイクなのか区別できない時代に入りつつあります。これは大きな問題です」と。アメリカ国防高等研究計画局(DARPA)は、すでにこうしたフェイク画像や映像を見破るための技術の開発に着手しているそうですが、今のところ、フェイクを特定するためのプロセスがとても複雑で、かつ時間もかかると言われています。

しかし仮に世の中にディープフェイクが広まっても、ユーザーはそれを危険なものとは見做さないでしょう。むしろ面白がって繰り返し観るに違いない。過激なYoutube映像ほど数えきれないほどの人が閲覧している現状からもそれは明らかです。しかし、それに慣れ親しんで感覚が麻痺してしまうとやっかいです。自分が観ている映像の真偽の判断がつかず、リテラシーが崩壊してしまうのですから。

■ディープフェイク・ビデオがもたらすさらなるリスク

筆者が観た限りでは、フェイクビデオにはパロディやウケをねらって一目で加工したことがわかるようなものから、先ほどのオバマ前大統領のような真偽の区別がつかないリアルなものまでいろいろあります。一般にこの種のフェイクビデオは、今現在はコメディなどで使われていて、あまり害はなさそうにも見えます。とは言え、その延長上に犯罪リスクの危険性を考えないわけにはいきません。

例えば映画俳優や実業界のセレブなどは世間から注目と賞賛を浴びる一方で、彼ら彼女らを心よく思わない人々もいる。そんな人たちが悪意をもって、いやがらせとか報復のために俳優やセレブを貶めるようなディープフェイク・ビデオを作り、ネットに拡散させるかもしれません。

しかし実のところ、ディープフェイクの拡散をもっとも警戒しているのは米国の政治家や情報当局なのです。最悪の場合、例えば次のような国家レベルの脅威となり得るようなケースが考えられると言います。

(1)大統領や議員選挙などで相手候補者に「トンデモ発言」を言わせたビデオを流して足を引っ張る。
(2)証拠映像をきっかけに告訴された政治家や実業家が、「それはディープフェイク映像だ。私は一言もそんなことは口にしていない」と弁解し、言い逃れの手段に利用する。
(3)国民を分断したり、良好な国家間の関係を破たんさせる目的で、だれかがトランプ大統領のような国のトップにとんでもない発言をさせた映像を流す。とうてい容認できないような人種差別的発言とか、相手国を挑発して戦闘態勢をとらせるような発言です。こんなことが起これば世界は大混乱するでしょう。

さて、これらは米国の話ではありますが、日本はどうなんでしょうか? 国内でディープフェイク・ビデオがネット上にアップされるのは時間の問題かもしれません(いや、どこかでもう映像が流れているかも?)。もしそうなったら、私たちはどう対処すればよいのでしょうか。あまり先行きのことを懸念するのは健康によくありません。けれども今後、まったく気づかないうちにこの種のビデオのとりこになったり、完全に騙されて誤った認識を持つリスクを抱えていることを、私たちは心の隅にとどめておく必要があるのではないでしょうか。

(了)

© 株式会社新建新聞社