社説:対話型AI 未熟さ踏まえルールを

 新しい技術にどう向き合うのか。浮足立たず、長短所を見極めて多角的な議論を進めたい。

 質問すると、自然な文章で人工知能(AI)が回答する「チャットGPT」など対話型ソフトが世界中で急速に普及している。

 便利な半面、個人情報の収集や内容の不正確さ、子供らが安易に利用し、教育の妨げになるといった問題への懸念が強まっている。

 欧米では使用を禁じる国もある。日本でも論文での使用を認めない大学がみられる一方、政府内には国会答弁などへの活用を期待する声も出ている。

 政府は国際社会とも協調し、ルール作りに動くべきだ。

 対話型ソフトを代表するチャットGPTは、マイクロソフトが出資する米新興企業オープンAIが開発し、昨年11月に公開した。

 インターネット上の膨大なデータを収集・学習し、利用者の問いに応じて、人が答えているかのような文章を提示する。小説や歌なども作れる。ウェブサイトで登録すれば、誰でも簡単に使える。

 問題なのは、その答えの正確性である。対話型AIはネット上の百科事典「ウィキペディア」やニュース記事、学術論文などの膨大なデータを学び、「確率的に正しそうな回答」を導き出すという。

 だが、データには誤りや古い情報、性別や人種などへの偏見、極論や陰謀論なども混じる。AIがどういうアルゴリズム(計算式)で情報を取捨選択しているのかは明らかでない。開発者でさえ制御不能ともいわれる現状で、真偽不明の「答え」が流布すれば、社会を不安定にする危険がある。

 特に学校現場で警戒感が高まるのは当然だ。子供の宿題や学生のリポート課題で使われると教員は見抜くのが難しく、成績の評価を揺るがす。何より、調べて試行錯誤する過程で養うべき「考える力」に悪影響を及ぼしかねない。

 文部科学省は取り扱い指針を作るとし、京都大なども「誤情報のリスクがある」と警鐘を鳴らす。

 欧米ではイタリアが、個人情報を違法に収集している疑いで使用を禁じた。米国でも、マイクロソフトなど巨大IT企業が未熟な対話型AIの市場獲得競争に走っているなどと批判され、専門家らが開発の一時中断を求めている。

 今年の先進7カ国(G7)の議長国である日本は、来月の広島サミットなどで対話型AIの管理や運用の議論を先導してほしい。リスクを過小評価せず、共通ルールを冷静に探らねばならない。

© 株式会社京都新聞社