第6回:AIの未来がコワすぎる5つの理由(前編) 負の部分にも注目しないと悲惨な結果も

AIの判断で明暗が分かれたり、場合によっては大ダメージを受ける可能性もあります(出典:写真AC)

■コインには表と裏がある

AIは私たちの暮らしを豊かにしてくれるであろうことは、誰しもが認めるところではありますが、他方、AIにもそれなりの懸念すべきリスクがあるわけです。しかし世の中の現実を見れば、どちらかと言えばネガティブなAIの話は敬遠されがちで、多くは期待と希望に満ちた目でAIが見られていることを実感せざるを得ません。このオプティミスティックな雰囲気は言うまでもなく、AIがすでにビジネスや投資の対象として深く経済世界に浸透しているからなのでしょう。

もちろん筆者は、投資や金儲けの対象としてAIを見る姿勢が好ましくないと述べているわけではありません。多くの投資を呼び込み、それが結果的にペイしなければ、莫大な予算を必要とするAIの研究開発を推進したり、AIを改良し、より高性能なAIとして発展させる機会にはつながらないからです。

とはいえ、AIがコインの表と裏もしくは諸刃の剣であることに変わりはありません。AIが利便性や生産性を劇的に向上させる反面、人間がAIを自分の思惑通りに利用しようとして突き当たる限界や事故、広く言えば未知のリスクが潜在していることは、これまで繰り返し述べてきた通りです。

以下では、筆者によるチープなAIリスク批判はひとまず置いておき、米国のメディアCNBCがAIの未来について専門家から意見を聞いてまとめた「5つの脅威」について、前編と後編にわたってご紹介したいと思います。

■参考記事(CNBC)
https://www.cnbc.com/2018/08/01/five-of-the-scariest-predictions-for-ai.html

■大量失業の時代

英国・エジンバラ大学の情報学部教授アラン・バンディ氏は、AIによる生産性の向上や新たな雇用の創出が、とくに長期的な視点で見た場合に既存の大量失業者をカバーするだけの力があるかどうか疑問であるとの見方を示しています。AIを支持する人々の言い分としては、テクノロジーが新たな雇用ニーズを生み出し、AIをさらに高性能にするためにすぐれた能力が求められる。AIを開発する側だけでなく、それを利用する側にしてもAIを日々の仕事で使いこなせるような役割やスキルが必要となるのだと言います。

米国の調査会社ガートナーによれば、2020年までにAIが180万人の失業者を出す一方で、230万人の雇用を生み出すとしています。失業した180万人はすべてカバーされるのみならず、さらに50万人がAIのおかげで新たな仕事にありつけるとの見方ですが、果たしてこの楽観的な予測、信頼してよいものでしょうか。

肉体労働を伴う仕事や一般事務職の仕事、あるいは多くのサービス業務をAIロボットやAIシステムで代替させようとすれば、その業務に特化したおびただしい数の専用AIアプリを開発しなければなりません。そしてそのために、多くのAI関連の雇用ニーズが生まれることは間違いないでしょう。けれどもそれによって、AIにとって代わられたすべての雇用をカバーして有り余るなどというのは、合理化(=人減らし)のためにAIを活用しようというビジネス界の思惑と大きく矛盾するのではないでしょうか。

「AIを通じて(労働者の)技能を高めたり新たな仕事を作り出したりすることで労働市場への影響を軽減することは可能かもしれないが、たとえベーシックインカムを広く導入したって失業の問題を一朝一夕には解決できないことは明らかだ」。CNBCの記事はこう結んでいます。

■人間がAIの標的になる可能性

AIロボットが人間を殺傷する。このような飛躍した懸念は以前から一部の人々の間でささやかれてきましたが、多くはSF映画の素材に転嫁されることがもっぱらで、それ以上に現実的な脅威として問題視されることはありませんでした。

ところが、テスラのCEOである著名なイーロン・マスク氏が「テクノロジー(AIのこと)は第三次世界大戦を引き起こす」と述べてからは、なんとなくあちこちで現実味を帯び始めました。もっとも彼はAIについてはあけすけな、あるいは誇張した意見を述べることもしばしばで、彼自身がどこまで確かな根拠に基づいて語っているのか疑問視する声も少なくありません。しかし専門家たちにしてみれば、意外に聞き捨てならないことのようです。例えばCNBCの次の1文。

「無人殺傷兵器を開発したり軍の意思決定にAIを使用したりすれば、多くの倫理的ジレンマを生み出し、引いてはAIによる戦争への扉を開くことになる、と専門家や活動家は強く主張している」。

あるNGOは、「ストップ殺人ロボットキャンペーン」を掲げ、AIを搭載したドローンや乗り物の開発を禁止するよう政府に働きかけているといいます。

目や耳の錯覚、体調の善し悪し、あるいは恐怖や怒り、油断といった感情が生じて判断を誤りやすい人間に比べると、AIは究極的に冷静な判断力を備えた精緻な存在であるといえるでしょう。その意味でAI自体は危険などころかとても頼りになる存在なわけですが、問題なのはそれが人間の手を離れて完全に自律的に歩き回ったり、走行あるいは飛行したりする「監視ロボット」や「兵器」となったとき、限りなく恐ろしい存在に思えてくる。なにしろ「話せばわかる」相手ではないですから。

■核のボタンを押すのは?

ちなみに映画「ターミネーター」では、スカイネットと呼ばれる戦略防衛コンピュータシステムが自我に目覚め、全世界に核ミサイルを発射して人類の半数を死滅させるというコワい設定でした。今ではスカイネットは究極の軍事AIと呼んでもよいでしょう。この映画に触発されたわけではないとは思いますが、AIを軍事に応用すれば2040年までに核戦争が起きる可能性があることを米国防省傘下のシンクタンクであるランド研究所が警告しているのです。

この過激な予測は、軍事目的のAIが誤った判断を下す可能性があることを示唆しています。AI自身が核のボタンを押さずとも、AIの判断が絶対的に正しいと信ずる軍部の意思決定者あるいは一国のリーダーが、その「ご宣託」を受けて慌てて核のボタンを押してしまうかもしれないのです。

この背景には、1983年に旧ソビエト連邦の軍当局で、コンピュータがうっかり「米国が核ミサイルを発射した」との誤認アラートを出し、あやうく核戦争が起こりかけたという事実があります。「当時のコンピュータは性能が低かったからね」で済まされる話ではありません。人間をはるかに凌駕した記憶量と計算速度を持つ今日のAIは、人手ならば何十年もかかる作業を、ものの数分(あるいは数十秒)で処理してしまうでしょう。そのはかりしれない記憶量と処理速度、そして結論が導き出されるまでの複雑な過程は、人間から見れば完全に不可視あるいは不可知の領域にあるわけです。AIが人間の倫理的直感に反する究極の結論を出したとき、あなたはその結論を「なぜ?」を問うことなく正しいこととして受け入れられますか?

(続く)

© 株式会社新建新聞社