社説:AI兵器の規制 国際ルール作りを急がねば

 ようやく一歩踏み出したに過ぎない。

 人工知能(AI)を使って敵を攻撃する自律型致死兵器システム(LAWS)への規制だ。国連総会が「対応が急務」とする決議を初めて採択した。

 人類を破滅に導く脅威である。各国の利害が対立するとはいえ、開発や製造、使用の禁止に向け、国際的なルール作りを急がねばならない。

 LAWSは人間の判断に基づかず、AIが自動的に標的の識別から攻撃まで担う。殺傷力の高い兵器が実戦配備されれば、火薬、核兵器に続く「第3の軍事革命」が起きるとして、科学者らが警鐘を鳴らしている。

 米国や中国、ロシアなど各国が巨額を投じ、AIで制御する戦闘機や戦車などの開発を競っている。既に部分的な自律化技術を応用した無人機(ドローン)が開発され、ロシアのウクライナ侵攻などで実用化が現実になりつつある。

 決議は、AI兵器に対しても国際人道法などが適用されることを確認し、この分野で新たな軍拡競争が起きる危険性に懸念を表明した。国連のグテレス事務総長に、倫理的問題や人間の関与について各国の見解を取りまとめ、来年9月の次期会期に報告するよう求めた。

 決議案はオーストリアが提出し、日本や米国など152カ国が賛成した。反対はロシアやインドなど4カ国、中国やイスラエルを含む11カ国は棄権した。圧倒的多数による採択は、アフリカなどの途上国の強い危機感の表れでもあろう。

 その危険性を巡り、国連では非人道的兵器を扱う特定通常兵器使用禁止制限条約(CCW)の枠組みで議論されてきたが、ルール作りは進んでいない。

 このため、グテレス氏が今年7月、LAWSを禁じる法的枠組みを交渉し、早期に妥結させるよう呼びかけたものの、中国とロシアは欧米主導の議論をけん制している。

 AI兵器は自国兵士の犠牲を避け、人の感情による判断ミスを減らせると開発国は主張する。だが、そもそも殺すためらいも殺される恐怖も抱かないAIの判断で多くの人命が奪われるのは理不尽と言うほかない。

 国連で軍縮を担当する中満泉事務次長が本紙「現論」で「AI技術が将来の軍事バランスの優劣を左右するだろうし、戦争の在り方もすでに大きく変わりつつある」と分析するように危惧(きぐ)は深まるばかりだ。

 歯止めなく開発が進めば、AI兵器が「暴走」しかねない。越えてはならない一線がすぐ目の前にまで迫っていることを各国は真摯(しんし)に受け止めねばなるまい。

 日本はLAWS開発に否定的な立場だが、より主導的に規制論議に参画すべきだ。AI兵器の脅威を人類全体の問題と捉え、禁止を目指して国際世論を一層高めていく必要がある。

© 株式会社京都新聞社