生成AI利用企業も責任、政府案 事業者向け指針、リスク周知要求

人工知能(AI)事業者向けガイドライン(指針)の素案のポイント

 文章や画像を作成する生成人工知能(AI)を適正に利用するため、政府が策定を進める事業者向けガイドライン(指針)の素案が6日、分かった。AI開発やサービスを提供する企業にとどまらず、AIを業務に活用する企業や団体に一定の責任を負わせる。

 生成AIが間違った回答をしたり、個人情報や機密情報を漏えいしたりするリスクを社員や職員に周知。リテラシー教育やAI利用のマニュアルを策定するなどし、社会に悪影響を及ぼさないよう求める。

 政府が8日から京都市で開く国連会合「インターネット・ガバナンス・フォーラム」でもAIが主要議題となる。事業者向け指針は政府のAI戦略会議で10月末をめどに中間取りまとめをし、早ければ11月末に最終案を固める。年明けに意見公募を経て正式決定する。

 指針はAIの基盤技術をつくる「アルゴリズム(計算手法)開発者」や、AIを使ったサービスやソフトウエアを提供する「サービス実施者」などに加え、AIを業務に活用する企業など計五つの事業主体に共通の責務を示した。

© 一般社団法人共同通信社