社説:AIのリスク 国際連携で効果的ルールを

 あらゆる分野で活用が広がる人工知能(AI)の開発に対して、悪用のリスクを国際的なルールで規制する議論が進んでいる。

 英政府はAIの危機管理を主眼に置いた世界初の国際会議「AI安全サミット」を開いた。日本や米国、中国など28カ国と欧州連合(EU)が採択した宣言では、AIの安全な活用に向けた国際的取り組みが急務との認識で一致した。

 AIは新製品の開発や業務の効率化への期待が高い半面、危険な生物・化学兵器の生産、生成AIを使う偽情報の拡散といったリスクへの対応が不可欠となっている。対立する米中両大国も加わり、国際的に課題を共有できたことは意義があるといえる。

 AIの規制と活用を巡っては各国間で主導権を争う状況が生まれている。

 欧州連合(EU)では、あらゆるAIを包括的に規制する法案を欧州議会が6月に採択し、規制強化を明確にしている。違反に対しては制裁金を科す方針という。

 巨大IT企業が拠点を置く米国はバイデン大統領が10月末、リスク管理のための大統領令を出した。開発を推進しつつ、安全保障への影響が懸念される場合は安全性の試験結果を情報提供するよう義務付けた。

 中国の習近平国家主席はサミット直前、世界各国とAIの秩序ある発展を目指す方針を提唱した。だが、欧米では中国による知的財産権の侵害や、偽情報の拡散への懸念が強い。

 サミットでは、欧米や日本の政府、企業が参加し、企業が新技術を発表する前に政府が関与し、官民で協力して安全性を検証する方針で合意した。思惑を超え、リスク対応で一致点を見いだせるかが課題となる。

 壁となりそうなのが軍事利用を巡る議論だ。

 米中間の開発競争は激化しており、人間の判断に基づかず殺傷する自律型AI兵器の実用化が懸念されている。国連のグテレス事務総長は7月の安全保障理事会でこうした兵器を禁じる法的枠組みの交渉を呼びかけたが、中国とロシアが欧米主導の議論をけん制している。

 日本は5月の先進7カ国首脳会議(G7広島サミット)で発足した生成AIの国際ルール作りの枠組み「広島AIプロセス」推進の立場で、今年末までのルール策定を急ぐとした。

 実効性のあるルール策定に向け、G7を超えた議論に生かせるかが問われよう。国内の規制議論は欧米から大きく遅れているのが現状で、並行して検討を進めなければならない。

 安全サミットは6カ月以内に韓国で開催される。主導権争いで溝を深めるのではなく、技術を開発する民間も巻き込んで、協調に向けた議論を積み重ねていくことが求められる。

© 株式会社京都新聞社