AIは人間にとって敵なのか味方なのか

共存の時代に見えてきた限界点

© 株式会社全国新聞ネット

東京五輪で国立競技場の上空に登場した、ドローンの編隊飛行によって描かれた地球=2021年7月

 人工知能(AI)は既に私たちにとって欠かせない存在になりつつある。ただ、生活を便利にしてくれる一方で、人間の脅威にもなり得ることも分かってきた。AIが提示する決定は本当に正しいのだろうか。その決定の責任は誰が取るのだろうか。そして人間はより幸せになれるのだろうか―。人類とAIが共存する時代に突入した今、その危険性と限界点が見えてきた。(共同通信=澤野林太郎、吉無田修、渡辺哲郎)

 ▽顔認証

 「仕事から帰宅したら妻と娘たちの前で警察に逮捕された。家族は目に涙を浮かべていた」。米ミシガン州デトロイト郊外に住む黒人男性ロバート・ウィリアムズさんは2020年1月、身に覚えのない窃盗の疑いをかけられた。留置施設で約30時間拘束され、コンクリートむき出しの床で寝なければならなかった。

 ウィリアムズさんを支援する米自由人権協会によると、誤認逮捕は不鮮明な監視カメラの映像と運転免許証の写真が顔認証ソフトで照合され、同一人物と判断されたのが原因。捜査手続きもずさんだった。ウィリアムズさんはデトロイト警察などを相手取り、損害賠償を求める訴訟を起こした。「あってはならないこと。このつらい経験が二度と起こらないようにしたい」と訴えた。

ロバート・ウィリアムズさん(左から2人目)と妻子(米自由人権協会提供)

 顔画像の特徴からAIで人を識別する顔認証技術は、スマートフォンのロック解除でも使われ、社会に浸透しつつある。一方、技術を過信し使い方を誤ると「人違い」による人権侵害が起きる恐れがある。

 米公的機関や大学の研究によると、一部の顔認証ソフトの精度には人種によって差があり、黒人は白人よりも誤認率が高かった。複雑な人種問題を抱える米国ではIBMが顔認証ソフトからの撤退を表明。アマゾン・コムとマイクロソフトは警察への顔認証技術の提供を停止した。規制の動きは米自治体にも広がる。2019年以降、サンフランシスコやボストンなど20市以上が警察による顔認証システムの使用を禁止。連邦レベルの法整備も議会で議論されている。

 日本では警察が、防犯カメラなどの顔画像を過去に逮捕した容疑者の顔写真データベースと照合する顔認証システムの運用を始めた。システムの運用ルールは公表されていない。顔認証はどこまで許容されるのか。プライバシー保護より治安維持を優先すべきなのか。安全と監視は常に隣り合わせにある。

 ▽「信用」点数化 

 「587点 信用一般」。中国浙江省杭州市が運営する異性との出会いを求める市民向けアプリの画面には、相手の顔写真や年収のほかに点数化された「信用」が並ぶ。30代の男性はスマートフォンの画面を見ながら「信用が低すぎる女性とは関わりたくない」とつぶやいた。

 点数を決めているのはAIだ。納税状況や借金の有無、当局による処分歴、ボランティア活動への参加など膨大な情報を基に分析され、数値は変動する。中国では個人情報や行動様式を点数化するスコアリングサービスが普及している。中国政府は、市民の信用度を評価する制度のモデルとして全国50以上の都市を指定。制度を導入した杭州市では、利用者が460万人に達し、人口の3分の1を超えた。点数が高い人は飲食代が割引されるなどの特典が受けられる。

信用評価制度のアプリを見せる男性=2021年10月、中国山東省威海市(共同)

 山東省威海市のある居住区では約400人の情報を管理している。「子どもの大学合格」を加点対象とする一方、中国当局が「邪教」と位置付ける非合法の気功集団「法輪功」に加わると大幅な減点になる。住民の点数を公表し「優秀な」人には報奨としてトイレットペーパーや洗剤などの生活用品を贈呈する。

 制度を管理する女性は「問題行動を起こす住人が減り、われわれの業務も楽になった」と胸を張った。地元のタクシー運転手も「交通環境が改善した」と話す。交通違反をすると数値が下がるためだ。数値を改善しようとボランティアや献血をする人も増えた。「多くの人を公益事業に参加させる効果もある」と肯定的だ。

 ただ仕事ぶりや生活態度などがスコアに正確に反映されていることが前提になる。

 もし低い評価を受けてしまうと、就職活動や住宅入居審査、結婚仲介など人生の重要な局面で不利な扱いを受ける。AIによって人間が選別され、新たな階級社会が発生する恐れもある。AIの活用が行き着いた先に本当に幸せに暮らせる社会があるのか。

 ▽責任は誰に

 「ピン」。車の運転席で小さな音が鳴ると、車内のモニター上部のライトが青く光った。運転の主体が人から自動運転システムに移行し「レベル3」になった瞬間だ。

 ホンダは2021年3月、世界初となるレベル3の新型レジェンドを発売した。高速道路で渋滞時という特定の条件下でなら自動走行できるレベル。12のカメラやセンサーで周囲の状況を把握し、車間を保ちながら自動走行する。ドライバーはハンドルを握らずにモニターでテレビを視聴できる。

 ただ改正道交法は、レベル3では緊急時にドライバーが対応するよう規定している。居眠りしていると注意する音声が流れ、乗車中に運転の主体は人と車の間で何度も入れ替わった。自動運転ではAIを搭載したカメラやセンサーが障害物を認知し、左右に曲がるか加減速するかを判断し、ハンドルやブレーキが自動で操作される。

高速道路で渋滞時にドライバーが手を離し自動走行するホンダの新型レジェンド=2021年9月、東京都内

 完全な自動運転車が実現すればドライバーは不要になる。交通事故が減少し、渋滞の解消や排ガス削減も期待できる。それ故、世界中のメーカーが開発にしのぎを削っている。 一方で自動運転車による事故も相次いでいる。米メディアによると、米道路交通安全局(NHTSA)は18年以降、車線維持や自動ブレーキなどの運転支援システムを搭載した米テスラ製の電気自動車が、ライトを点滅させるなどして停止中の車両に衝突した事故を11件確認。NHTSAはこのシステムの調査に乗りだした。

 2021年8月には東京・晴海の東京パラリンピックの選手村で、トヨタ自動車が開発した自動運転バスと視覚障害の選手が接触事故を起こし、選手は試合を欠場した。

 AIの判断ミスや誤作動は必ず発生する。サイバー攻撃など完全に防げない問題もある。金属の塊である車が暴走すれば大事故に発展する恐れもある。事故の責任は誰が取るのか。明確なルール作りが急がれている。

 ▽平和か戦争か

 東京五輪開会式の夜、国立競技場の上空に大きな「地球」が現れた。ドローン1824台による一糸乱れぬ発光ダイオード(LED)の演出。1台約300グラムのドローンは米インテル製で、全てコンピューターによって制御されている。

 開会式をテレビで見ていた拓殖大の佐藤丙午(さとう・へいご)教授(安全保障)は息をのんだ。「大量のドローンを制御する技術はAI兵器の根幹をなす軍事技術だ。将来、ドローン同士が交信し、自律的に動くようになるだろう」と指摘した。

 似たような映像がある。数十台のドローンが一斉に離陸し、整然と隊列を組みながら標的の場所に向かう。敵に見立てたマネキンを確認すると、急降下し近くで自爆した。このドローンはトルコの軍事企業STMが製造した「Kargu―2」(カルグ2)。AIとセンサー、カメラを搭載、顔認証技術を利用して自動で敵を識別し攻撃できるとされる。 国連安全保障理事会の専門家パネルの報告書は、4個の回転翼で飛行するKargu―2は、人間の意思を介在させずに敵を攻撃する「自律型致死兵器システム(LAWS)」だと指摘。2020年春、内戦下のリビアで爆弾などを搭載して兵士や輸送車両を追尾し、攻撃した可能性があるとした。STMのギュレルユズ最高経営責任者(CEO)は取材に「使用者が攻撃のボタンを押して初めて実行される。人が最終判断を下す」とLAWS機能を否定している。

リビア内戦で使われたとされるドローン「Kargu―2」の改良前のタイプ=2020年6月(ゲッティ=共同)

 LAWSはAIを搭載し顔認証技術で標的を判別して攻撃するため、AI兵器とも呼ばれ、火薬、核兵器に続く「第3の軍事革命」と言われる。しかし国際的なルール作りは進んでいない。グテレス国連事務総長は「人間の判断や管理が及ばない機械に人間を殺す資格や能力を与えてはならない」と禁止を求めている。だが巨額投資して開発競争を進める米国やロシア、中国は規制に反対している。AI兵器は人類を破滅に導く潜在的な脅威となる。平和の祭典である五輪で夜空を飾ったドローンは敵なのか味方なのか。先端技術は常に軍事転用されるリスクをはらんでいる。

 ▽「AIに自己決定権委ねるな」

 AIと人権に詳しい慶応大の山本龍彦教授に話を聞いた。

 「AIは、買い物やビジネスだけでなく、就職や結婚など人生のさまざまな場面で活用されている。膨大な情報の中からAIが「最適解」らしきものを示してくれる。しかし、それは確率的、統計的に人間を分類した結果にすぎない。AIの結果が全てを表しているわけではないという点に注意しなければならない」

 「AIに決定を委ねた方が楽だという人もいるだろう。しかし自分のことを自分で決められるという権利は長い歴史の中で獲得してきた人間の基本的な人権である。奴隷制度や封建的身分制の時代に人々は人生を選ぶことができなかった。AIが提示した選択肢を熟慮せずにそのまま選ぶ行為は、せっかく獲得した自己決定権を放棄し、AIの奴隷、隷属する動物になることに等しい」

 「膨大な情報の中から全てを自分で決めるのは現実的ではないし質も落ちる。日常的な単純作業はAIに任せて人生の進路を大きく左右する決定は人間がするといった『決定の分担』」が必要だ」

インタビューに答える慶応大の山本龍彦教授

 「最近は会員制交流サイト(SNS)やインターネット上の情報から、その人がどのような人か、人の感情まで高精度に予測できるようになった。その結果を使って個人の意思決定を誘導することが可能になり、自己決定と他者による決定の境界がますます曖昧になってきている。選挙での投票行動が他者に操作されていないかなど民主主義に関わるため特に注意が必要だ」

 「AI兵器の開発も進んでいる。戦場で1人の兵士が銃の引き金を引いて他者を撃つという行為は、兵士に迷いや苦悩が伴う。死に至らしめてしまうと大きな責任が生じる。これをAIがするとどうなるか。ゲームのように人が殺害される。そこに苦悩と責任は存在せず、殺害された人の尊厳も顧みられない。AIによる自動化された殺害は人間の尊厳に反する。いっそのことAIとAIが戦えばそのようなことも起こらないだろうが、戦争の完全なゲーム化はもう少し先の話だろう」

 「決定するという行為は、時に苦しく、つらく、悲しいものだ。人間が当事者として悩んだ末に決定し、結果について責任を引き受けなければならない領域もある。決定できること自体が人間が持つ権利であり、人間にしかない苦しみや幸せだ。全ての決定をAIに委ねてしまってはならない」