
【ニューヨーク共同】人工知能(AI)を使った自動応答ソフト「チャットGPT」の開発元である米新興企業オープンAIは6日までに、安全対策の取り組みを公表した。個人情報の保護や問題があるコンテンツの生成を防ぐ取り組みを掲げた。
AIツールの利用については、18歳以上か保護者の承認を得た13歳以上に限定していると説明し、認証の導入を検討しているとした。プライバシーについては、AIを強化するためのデータセットから可能な限り個人情報を削除しているという。
最新モデルのGPT―4では問題あるコンテンツの生成要求を拒否できる確率が高まったとしている。