GoogleやMicrosoft、OpenAIら、子どもをAIによる性的被害から守る規範作成

by 劉 尭

ThornおよびAll Tech Is Humanは23日(米国時間)、GoogleやMicrosoft、Meta、Amazon、OpenAI、stability.aiなどの生成AIを手掛ける大手企業と共同で、生成AIに関する原則を構築して児童の安全に関する取り組みを実施すると発表した。

インターネット自体がオフラインとオンライン両方において児童に対する性的危害を加速させたのと同様に、生成AIの悪用は児童の安全に深刻な脅威をもたらすとしており、すでにコミュニティ内で被害が発生しているという。

この背景には、生成AIにより大量なコンテンツ作成がより簡単になったことにより、加害者が一人でも、児童の性的虐待コンテンツ(CSAM)の作成が、大規模かつ迅速に作成できるようになったことを挙げている。

そこで今回、生成AIに関連する企業の多くが協業を行ない、生成AIに関する原則を構築。生成AIによる児童の性的虐待コンテンツ(AIG-CSAM)の生成をはじめ、児童に対するそのほかの性的危害の作成と拡散を防ぐとしている。

AIG-CSAMの蔓延はわずかだが増加しているとし、児童を守るためには積極的な対応が欠かせない。そこでThronとAll Tech Is Humanを中心としたワーキンググループが発足し、「Safety by Design」と呼ばれる生成AIの原則が書かれた概要のホワイトペーパーを公開。この原則に基づき、AIG-CSAM対策への取り組みの進捗状況を文書で透明性を持って公開するとともに、賛同企業がこの原則に基づいた生成AI技術の開発や製品への統合を行なうことを求めている。

具体的には「責任あるトレーニングデータの調達」、「開発プロセスにおけるフィードバックループと反復ストレステスト戦略の取り組み」、「敵対的な悪用を念頭に置いた、電子透かしといった出所を明確化するためのソリューションの開発」、「生成AI製品とサービスをCSAMなどから保護する」、「責任を持ってモデルをホストする」、「安全な設計による開発者の所有権の奨励」、「有害ツールへのアクセス拡大の防止」、「研究や将来のテクノロジーソリューションへの投資」、「プラットフォーム上における虐待コンテンツとの戦い」などを挙げている。

© 株式会社インプレス