CopilotやCopilot+ PC向けの開発強化を語るナデラCEO。OpenAIアルトマンCEOも登場

by 笠原 一輝

Buildの基調講演で講演する、Microsoftのサティヤ・ナデラCEO

Microsoftは5月21日から5月23日(米国時間)にかけて、開発者向け年次イベントの「Microsoft Build」を、シアトルコンベンションセンターで開催している。初日には、同社CEO サティヤ・ナデラ氏ら同社幹部が登壇し、生成AIソリューションである「Copilot」などに関する新しい発表などを行なった。

この中でMicrosoftは、①PCのローカル上で生成AIを実行できる「Copilot+ PC」などエッジ側の生成AIソリューション、②OpenAIが前週にリリースして話題を呼んでいる最新LLMのGPT-4o、③Microsoftが提供しているSLM(Small Language Model)「Phi-3」の新しいグレードなどクラウド側の生成AIソリューション、④そしてCopilot for Microsoft 365のようなビジネス向けの生成AIツールなどを説明。2023年に同社が導入した生成AIサービス「Copilot」が、エッジ、クラウドの双方で活用できるようになり、今後さらに発展させていくとアピールした。

また、講演の最後には、OpenAI CEO サム・アルトマン氏が登壇し、OpenAIが考えている生成AIの未来について語るなど盛りだくさんの内容となった。

今のIT業界は「スケーリングの法則」に従って、半年で倍になるような進化を遂げている

Copilot、Copilot+ PC、Copilot Stackという3つのCopilotそれぞれで拡張が行なわれるとナデラ氏

基調講演に登壇したMicrosoft CEOのサティヤ・ナデラ氏は、「AI変革の時代へようこそ! 開発者向けのイベントはいつでもワクワクする。ここに参加していただくことで、今起きている根幹から変わるような変化を感じてほしい」と述べ、Microsoftの新戦略をBuildを通じて伝える意向を示した。

スケーリングの法則、1年で4.1倍の勢いで成長している

ナデラ氏は「かつてIT産業は15~18カ月で倍になるというムーアの法則に沿って進化していると言われてきた。しかし、今はスケーリングの法則がこの業界の進化を支えている。スケーリングの法則ではAIモデルは半年で倍になり、それは今後も止まらないと考えられている」と述べる。

OpenAIが提唱したスケーリングの法則(トランスフォーマーモデルのような生成AIのモデルは、学習に利用される計算量が増えるにつれて無駄が減り、効率が上がっていくという経験則)に従って効率があがっていき、コストは下がるが性能は逆に上がっていくということだ。

ナデラ氏によれば、GPT-4は既に登場時に比べてコストが12分の1になっているのに対して、GPT-4oへと進化することで逆に性能は6倍になっていると説明した。その上で、そうした早い進化を遂げている生成AI、特にMicrosoftが提供しているCopilotを活用することで、多くの会社が有益なソフトウェアを構築可能になると強調した。

GPT-4のスピードと価格

ナデラ氏は「Copilotには3つの種類がある。1つはサービスとしてのCopilot、もう1つが顧客企業のアプリケーションに取り込むCopilot(Copilot Stack)、そして最後にPC上で実行できるCopilot+ PCだ」と述べ、今回のBuildでは3つのCopilotを説明していくことを伝えた。

Copilot+ PC向けの開発環境を開発者に説明、Windows AIアプリの開発を促す

Windows Copilot Runtime

ナデラ氏はこの基調講演前日に発表されたCopilot+ PCを最初に取り上げた。Copilot+ PCとは、従来すべてがクラウド側で演算されていたAIの処理を、遅延やプライバシーといった問題をなくすために、デバイス上にあるプロセッサで処理可能にしたPCプラットフォームのことだ。

Copilot+ PCに対応したノートPCでは、16GB以上のメモリ、256GBのストレージという一般的なPCに比べて多くのメモリやストレージを必要とするほか、40TOPS以上の性能を持つNPUが用意されていることが要件になっている。そうした高い処理能力を持つNPUを必須とすることで、よりよいユーザー体験を実現しようというのがMicrosoftの狙いとなる。

Copilot+ PCに向けて、AIアプリケーションを開発する環境としてナデラ氏は「Windows Copilot Runtimeを提供し、それを利用してAIアプリケーションを開発する環境としてWindows Copilot Libraryを提供する。Windows Copilot Libraryは40を超えるローカルで実行できるAIモデル、ローカル用のSLMとなるPhi-Silica、RAG、ベクター検索、テキスト要約などの機能を提供していく」と述べている。

Windows Copilot Libraryはデバイス上でローカルに動作するモデルと一緒に提供される
ローカルSLMとなるPhi-Silicaを提供
RAG、ベクター検索、テキスト要約の機能もWindows Copilot Libraryの基本機能として提供

Microsoftによれば、今後SLMとなるPhi-3をWindows OS上でローカル実行するためのPhi-Silica、RAG、ベクター検索、テキスト要約など、ソフトウェア開発者が必要とするようなモデルやモジュールの提供を開始。それらを開発者が自分のソフトウェアに取り込むことで、簡単にWindows OSで、PC上のNPUやGPUなどを利用してAI推論を行なうアプリケーションを構築可能にする。

PyTorchとWebNNがDirectMLに対応

また、同社がグラフィックスにおけるローレベルAPIとして提供しているDirectXのような、AI推論向けのローレベルAPIとなるDirectMLに関しても拡張を続けると明らかにした。AIアプリケーションの開発で一般的に使われているPyTorchがDirectMLにネイティブ対応したほか、同じようにWebNN(Web Neural Network)に関してもDirectMLに対応した。

Windows Volumetric Apps、Meta Questの中でWindowsアプリを実行できる

基調講演の後半では「Windows Volumetric Apps」が発表され、Windowsの仮想化サービスである「Windows 365」を応用して、Meta QuestでWindowsアプリを操作できるようになることが明らかにされた。

Microsoftとしては5月20日の記者会見でCopilot+ PCを発表し、翌日に行なわれたBuildの基調講演で、そのCopilot+ PCに対応したアプリケーション開発向けのWindows Copilot RuntimeとWindows Copilot Libraryに関して発表および説明をすることで、開発者に対してCopilot+ PCに対応したAIアプリケーションの開発を促す狙いがあると考えられるだろう。

クラウド側のCopilotに向けてAzureも強化。AMD、NVIDIA、自社のAIアクセラレータを拡充

Copilot Stack

続いてナデラ氏はCopilotをカスタマイズして顧客のアプリケーションやサービスに取り込むための「Copilot Stack」に関しての説明を行なった。

Microsoftは顧客企業などがカスタマイズされたAIを構築する環境として、パブリック・クラウドサービスとなる「Azure」経由でさまざまな提供を行なっている。ナデラ氏は、そのAzureの演算インフラの話題から始めた。

「MicrosoftはNVIDIA、AMDと協力してAIアクセラレータをクラウド経由で提供しているほか、我々自身のMaiaも提供している。それにより、我々のCopilotについても、顧客がオリジナルのCopilotを安定して実行できる環境を整えている。今回はAMDのMI300XのサービスインとMicrosoftカスタムデザインのCobalt 100のプレビュー提供開始を発表する」と述べ、引き続きMicrosoftがAzureの演算インフラの強化を続けて行くと明らかにした。

Azureで提供しているAIアクセラレータ
Azureで提供しているNVIDIAのAI半導体やサービス

同時に、ナデラ氏は3月にNVIDIAが発表したばかりで2024年中に出荷するとアナウンスしている新しいAI学習向けGPU「Blackwell」を、クラウドサービスプロバイダ(CSP)として最初にAzureに導入するとも言及した。

なお、4月に行なわれたGoogle Cloudの年次イベント「Google Cloud Next'24」において、Google CloudもCSPとして最初にBlackwellを導入するとし、Google Cloudでは2025年初頭までにと説明している。Microsoftは時期について言及していないが、どちらが正しいかは、その頃には明らかになるだろう。

AzureでGPT-4oの一般提供開始
Model-as-a-Service
Phi-3のバリエーション

また、ナデラ氏はOpenAIが先週発表したGPT-4の進化版となるGPT-4oのAzureでの一般提供開始(GA)、MicrosoftがSLMとして導入しているPhi-3のバリエーションとしてPhi-3-vision(42億パラメータ)、Phi-3-small(70億パラメータ)、Phi-3-medium(140億パラメータ)などの導入を明らかにした。

さらに、AIモデルをサービスとして提供する「Model-as-a-Service」経由で使用されるAIモデルとして、新しくStability AIやNTT DataのAIモデルなどが追加されることも発表している。

このほかにも、企業が独自にカスタマイズしたCopilotを開発するためのツールであるAzure AI Studioの一般提供開始(GA)や、データ解析のための統合型SaaSツールになる「Microsoft Fabric」などに関しての説明が行なわれた。

OpenAIのサム・アルトマンCEOも登壇。生成AIモデルは世代ごとに賢く、速く、安くなっている

Team Copilot

最後にCopilotに関してについて触れたナデラ氏は、Copilotのローコード/ノーコードのカスタム開発ツールとなるCopilot Studioの新機能として「Copilot Connector」、「Team Copilot」に関しての発表を行なった。

Copilot Connectorは、Copilot Studioを利用してCopilotをカスタマイズするときに、他社のサービス(たとえばServiceNowやAdobe Experience Cloudなど)に接続する機能を提供するツール。それに対してTeam Copilotは、Web会議のスケジュールを設定したり、Teamsのチャットを要約したりなどを、部課単位で行なう場合に便利なツールが用意されたCopilotとなる。これまでのCopilotはユーザー単位で提供されていたが、それが部課単位で提供されるようになったものとなる。

OpenAI CEO サム・アルトマン氏(左)、右はMicrosoft CTO ケビン・スコット氏

講演の最後には、GPT-4oなどをMicrosoftに提供しているOpenAI CEO サム・アルトマン氏が登壇し、同社の将来に向けたビジョンなどを語った。

アルトマン氏は「これからのモデルの進化で重要なことはモデル自体がもっともっと賢くなっていくことだ。実際、我々はGPT-3、GPT-3.5、GPT-4、GPT-4oと進化しているが、そのたびにモデルは賢くなっている。もう1つ重要なことは性能とコストだ。実際、GPT-4oでは価格を半分に下げ、速度を2倍にすることができた」と説明した。

また、急成長したスタートアップの創業者でもあるアルトマン氏は、スタートアップ企業のリーダーにアドバイスがあるかと聞かれると「今の生成AIは、インターネット普及時以来の重要な成長期にある。たとえばモバイルが普及したときには、どこの会社も我々はモバイルの会社だと言っていたが、数年経ったら誰も言わなくなった。それが当たり前になったからだ」と述べ、そうした新しい技術の“ゴールドラッシュ”の期間は短く、バスに乗るのなら早く乗るべきだと指摘した。

さらに、生成AIの安全性について聞かれると「我々のGPTもまだまだ完璧にはほど遠く、やるべきことはたくさんあり、これからも多くのことを積み上げていかないといけない。そして強力なモデルを開発していくと、新しい困難に直面する可能性はある。より汎用的なAIに移行していくにともない、複雑さのレベルが高まっており、今後も研究すべきことは多い。だからこそ我々と一緒に開発してほしいし、どんどん新しいものを世の中に送り出していきたい」と述べ、詰めかけた開発者にOpenAIおよびMicrosoftと一緒に次のAIのトレンドを作っていこうと呼びかけた。

© 株式会社インプレス