MediaTekが生成系AIをオンデバイスで実現するチップを開発中

大手モバイルプロセッサメーカーの1つであるMediaTekは、将来に向けて大規模なAI計画を立てており、その1つに大規模言語モデル「Meta Llama 2」が含まれています。

Facebookの親会社であるMetaは、ソーシャルメディアアルゴリズムを改良するために随分前からAIを使用しており、MediaTekはFacebookのAIをベースにした生成AIを活用したエッジコンピューティングエコシステムを構築したいと考えています。

それが意味するものとは?


MediaTekのビジョンでは、人工知能を使用して様々なエッジデバイスを強化することに重点が置かれています。同社は、スマートフォンやその他のエッジデバイス(自動車やIoT等)に注目しています。簡単に言えば、私達が日々使用するガジェットやツールがよりスマートになり、より応答性が高くなることを彼らは臨んでいるということです。

生成系AIとは何か?


これは、既存のコンテンツを認識するだけでなく、そこから画像、音楽、テキスト、さらには動画といった新しいコンテンツを生み出すことが出来るタイプの人工知能を指しています。大規模言語モデル(LLM)で生成AIを使用する最も有名なアプリケーションは、OpenAIの「ChatGPT」とGoogleの「Bard」です。

最近では、Adobeも、オンラインデザインプラットフォームであるExpress向けに、AIを活用した新しい生成機能をリリースしました。

ビジョンの背後にあるAIモデル: Meta Llama 2


それを実現するために、同社は、Metaの大規模言語モデル「Llama 2」を使用する予定です。これは基本的に、機械が人間の言語を理解して生成出来るようにする、高度な事前トレーニング済みの言語AIです。GoogleやOpenAI等の大企業が提供する競合ツールとは異なり、オープンソースであるという点で、このツールは特別です。

オープンソースとは、開発者がロイヤリティを支払うこと無く、その内部の仕組を調べ、変更したり改良したり、商用目的で使用したり出来ることを意味します。

なぜこれが重要なのか?


MediaTekが言いたいことは、基本的に、将来のチップではデバイスが遠く離れたサーバーに依存するのではなく、これらの高度な動作の一部をデバイス内でホストするようになるということです。それによって、次のような多くの潜在的な利点が生まれます。

  • プライバシー: データがデバイスから流出しない
  • 速度: データの送信を待つ必要が無いため、応答が速くなる
  • 信頼性: 遠く離れたサーバーへの依存度が低いということは、中断の可能性が少なくなる
  • 通信不要: デバイスはオフラインでも動作可能
  • 費用対効果が高い: AIをエッジデバイスで直接実行する方がコストが安くなる可能性

MediaTekはまた、自社のデバイス、特に5Gを搭載したデバイスは既に一部のAIモデルを処理出来るほど高度になっており、それは事実ですが、LLMは独自のカテゴリーに属していることも強調しました。

これらは全てワクワクすることに聞こえますが、詳細な文脈を理解していなければ、エッジデバイスでMetaのLlama 2を使用する本当の可能性を評価するのは困難です。通常、LLMは大量のメモリを占有し、大量の計算能力を消費するため、データセンターで実行されます。

ChatGPTの実行には1日あたり70万ドル(約1億円)かかると言われていますが、これはユーザーが多いためでもあります。エッジデバイスではユーザーは1人(使用するあなた自身)しかいないため、状況は大きく異なります。とはいえ、ChatGPTのようなサービスを実行するには、例え自宅であっても、依然として大型のゲーム用PCが必要です。

参考までに、現在、スマートフォンはメモリに収まる範囲で、おそらく10億〜20億程度のパラメータでAIを実行出来るでしょう。この数字は急速に増加する可能性がありますが、ChatGPT 3のパラメータ数は既に1750億個で、次期モデルではその500倍に到達すると言われています

通常、エッジデバイスは遥かに機敏であり、その機能に応じて、MetaのLlama 2からどの程度のインテリジェンスを抽出出来るか、またどのようなタイプのAIサービスを提供出来るかはまだわかりません。

モデルにはどのような最適化が行われるのか?これらのデバイスは毎秒何個のトークンを処理出来るのか?MediaTekが今年後半に明らかにするであろう疑問が、いくつかあります。

モバイルデバイスやエッジデバイスが高い電力効率でAIワークロードを処理出来ることに疑問の余地はありません。何故なら、データセンターが絶対的なパフォーマンスを求めて最適化されているのに対し、それらのデバイスはバッテリー寿命に対して最適化されているからです。

また、”一部”のAIワークロードがデバイス上で処理されるようになる可能性もありますが、他のワークロードは引き続きクラウド上で実行されます。いずれにせよ、これは最適化を次の段階に上げるために実世界のデータが収集及び分析されるようになるという、より大きなトレンドの始まりとなるでしょう。

製品化の時期


今年末までに、MediaTekのテクノロジーとLlama 2の両方が使用されたデバイスが市場に投入されることが期待されます。Llama 2はユーザーフレンドリーで、一般的なクラウドプラットフォームに簡単に追加出来るため、多くの開発者がこれを使用したいと考えているかもしれません。つまり、それによって、全ての人にとってより革新的なアプリケーションやツールが生み出される可能性があります。

Llama 2はまだ成長しており、ChatGPT等の人気のあるAIツールの直接の競合相手ではありませんが、多くの可能性を秘めています。時間はかかるかもしれませんが、MediaTekの支援があれば、AIの世界で主要なプレーヤーになるかもしれません。

結論として、私達の日常のデバイスにおけるAIの未来は明るく、MediaTekはこの進化の最前線にいるようです。今後の展開に注目していきましょう。

この記事は、編集部が日本向けに翻訳・編集したものです。

原文はこちら

The post

MediaTekが生成系AIをオンデバイスで実現するチップを開発中

first appeared on

Ubergizmo JAPAN

.

© ティー・クリエイション株式会社