アマゾン、グーグル、Metaなど16社がAI開発の安全性を約束

16の主要IT企業は5月21日に開幕した英韓共催のAIサミットで、AIの安全性のための誓約を結んだ。

英国政府の発表によると、Amazon、Google、Meta、Microsoft、OpenAI、サムスンら16社は、AIの開発や導入において悪用などのリスクを検証し、深刻なリスクを回避できない場合は開発を中止することなどを約束した。

Antonio Guterres国連事務総長は声明で、「私たちは、AIの力が一部の人間によってコントロールされるようなディストピア的な未来に、不注意に歩みを進めることはできない」と述べ、「私たちが今どのように行動するかが、私たちの時代を決める」とした。

今回の誓約は、AIの利用が拡大し続ける中、ルールやガイダンスを設けようとする最新の取り組みだ。OpenAIが2022年に「ChatGPT」を発表してから、企業は自動化やコミュニケーションに役立つ技術としてAIに一層注目してきた。企業はすでにAIを使って、インフラの安全性を監視したり、患者のスキャン画像からがんを特定したり、さらには子供に算数を教えたりしている。

しかしAIの専門家らは、AIの開発には大きなリスクがあると警鐘を鳴らしている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社