「Ray-Ban Metaスマートグラス」のマルチモーダルAI機能、ベータ版が提供開始

筆者はここ数カ月、人工知能(AI)を搭載する「Ray-Ban Metaスマートグラス」をかけて生活し、歩き回り、内蔵のカメラを使って対象物を識別してきた。そしてこのほど、一部の一般ユーザーも同じことができるようになった。Metaの発表によると、この機能は米国時間4月23日からベータ版として北米で提供される。2023年に同製品が発売されてから約6カ月後というタイミングだ。

「マルチモーダル」AIと呼ばれるこの生成AI機能は、音声プロンプトに反応し、カメラを通して対象物を認識して説明したり、文字を翻訳したりできるという。この機能は、Humaneの「Ai Pin」に搭載されているものと似ているが、Ray-Ban Metaスマートグラスは価格が約半分でサブスクリプションも不要だ。

Metaはまた、「WhatsApp」と「Messenger」の通話で動画をライブ配信できるようにする。これにより、見ているものを何でも相手に見せることができる。一種の即席テレプレゼンスであり、相手に体験を共有したり、助言を求めたりできる。

Metaはまた、新デザインのフレームや、低めの鼻梁に対応するブリッジ、そしてFerrariとの提携による限定版も発表した。

Metaの最高技術責任者(CTO)であるAndrew Bosworth氏は最近、Metaのハードウェアに搭載されるAIについて自身の考えを語り、次は自社の仮想現実(VR)ヘッドセットに生成AIを搭載する可能性を示唆した。Ray-Ban MetaスマートグラスとそのAIアシスタント機能は、2024年内に幅広いヘッドセットに搭載されるであろう機能の実現に向けた一歩なのかもしれない。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社