政府はAI(人工知能)を事業で使う企業、団体などに向けて、開発や利用に関する指針案をまとめた。人権配慮などを求める10の原則を柱とし、守るべき内容を提示している。
文章や画像を作成できる生成AIの普及により、偽情報の拡散、プライバシーや著作権の侵害が広がっている。課題は複雑、多様化しており、対応は急務となっている。
こうした現状に対して、指針はAIの適切な活用を促しつつ、一定の規制に踏み出した形だ。ただ、法制化を含めた実効性の確保が大きな課題となろう。
10の原則は、「安全性」「公平性」などを掲げた。取り組むべき内容として、人間の意思決定や感情の不当な操作を目的とせず、偽情報が社会を混乱させるリスクを認識して対策を講じるよう求めている。
AI単独ではなく、「人間の判断を介在させる利用」を検討することも必要とし、データの学習や判断根拠の記録保存も要請する。
事業者を「開発者」「提供者」「利用者」の三つに分けて取り組み内容を列挙し、具体的なリスクの事例や事業者向けのチェックリストも示した。しかし、指針を浸透させる仕組みは見当たらず、踏み込み不足は否めない。
最大の課題は、悪意のある利用をどこまで規制できるかだろう。
欧米では事業者を拘束するルールの制定が先行している。
欧州連合(EU)はAIの負の側面への懸念が強く、リスクに応じて段階的に規制する法案の制定で大筋合意した。違反には巨額の制裁金を科す罰則を含む。2026年にも適用される見通しで、世界初の包括的なAI規制となる可能性がある。
巨大IT企業が集まる米国では、バイデン大統領が10月、AIの安全性確保に向けた法的拘束力を伴う大統領令に署名した。安全保障に関わる高度な開発企業に限るとみられる。
背景には、選挙を巡る偽情報の拡散や知的財産権の侵害、危険な生物・化学兵器の開発など、現実となっているリスクへの強い危機感がある。
活用に重きを置く日本の指針は、甘さが目立つといわざるを得ない。
政府は来年1月ごろにはAIの安全性評価に関する研究所を設け、海外の関係機関と連携する方針も打ち出した。
自民党のデジタル社会推進本部は法制化の検討を提言している。岸田文雄首相は「国際的な動向を踏まえ検証する」という。来春をめどとする指針確定と並行して、作業を進めるべきだろう。
国際的な激しい競争の中で、開発や利用を妨げる過度な規制は避けながら、リスクを抑えることは可能なのか。政府の問題意識と姿勢が問われる。