生成AI対策「利用者にも責任」 G7、包括的国際ルール合意へ

コンピューター基板の上に置かれた「AI」の文字(ロイター=共同)

 先進7カ国(G7)が進める生成人工知能(AI)の国際ルール作りの枠組み「広島AIプロセス」の合意案が1日、分かった。AIの開発者だけでなく、利用者も含めた「全ての関係者」に責任ある利用を求める内容で、包括的な対策を盛り込んだ国際ルールとなる。利用者には偽情報の拡散などAI固有のリスクを認識した上での活用を促す。

 1日午後のG7デジタル・技術相会合で合意した上で、月内に首脳会合をオンライン形式で開いて最終合意を目指す。偽情報対策のため各国政府や民間企業が連携して実証実験を進めていくことでも合意する見込み。

 国際ルールは、開発者や利用者などの関係者を対象とする「指針」と、より具体的に開発者が守るべき取り組みを示す「行動規範」からなる。既に先行合意している行動規範では、偽情報拡散やプライバシー侵害のリスクを減らすため、開発段階で内部と外部による検証を要求。AIが生成したコンテンツだと判別するため「電子透かし」などの手法の開発、導入も求める。

 広島AIプロセスは5月のG7首脳会議(広島サミット)で発足した枠組み。

© 一般社団法人共同通信社