Apple Intelligenceが古いiPhoneやVision Proで動かない理由が明らかに

Image:Mamun sheikh K/Shutterstock.com

アップルは独自のAI機能「Apple Intelligence」がiPhone 15 ProモデルやM1以降を搭載したiPadやMac以外では動かない理由につき、単にチップの性能が十分ではないためだと答えていた。古いiPhoneでは処理が遅く、レスポンスに時間がかかりすぎるというわけだ。

が、同社は単純なタスクはオンデバイス(端末内)で、複雑なタスクはクラウドサーバー(別名Private Cloud Computer)で実行するとも説明した。それならば、古いiPhoneでも全ての処理はクラウドを使えばいいのではないか、と疑問の声が上がっている。

この件につき、著名ブロガーのジョン・グルーバー氏がアップルに話を聞いたと報告している。

毎年のWWDCにて、グルーバー氏は「The Talk Show」を主催し、アップル幹部らとトークショーを行うことを恒例としている。今回の情報も、このステージ上で交わされた会話に基づいている。

なぜ、古いデバイスはクラウドで全てを行えないのか?グルーバー氏によれば、Apple Intelligenceはそう単純には設計されていないという。

すなわちオンデバイスで実行されるモデルは、クラウドで実行されるモデルとはまったく異なるとのこと。オンデバイスAIモデルの1つは、どのタスクをPrivate Cloud ComputeまたはChatGPTに送るかを決める「ヒューリスティック」なものだという。

ここでいうヒューリスティックとは、与えられた時間内になるべく良い回答を出す方法論だ。タスクが単純か複雑かをざっくり素早く判断し、オンデバイスとクラウドに振り分けるということだ。Apple IntelligenceはオンデバイスAIありきで設計されており、クラウドに丸投げするわけにはいかないのだろう。

第2に、サーバーに負荷が掛かりすぎることが挙げられている。

MシリーズチップまたはA17以降のチップのみを対象としても、Private Cloud Computeが行う処理は膨大な量となる。もしも古いiPhoneでApple Intelligenceを有効として、オンデバイス処理を一切行わなければ、アップルは「その何倍もの規模を負担することになる」という。何億台もの処理がのし掛かっては困る、ということだろう。

もう1つ興味深いのは、空間コンピュータVision ProはM2チップを搭載しているのに、Apple Intelligenceがサポートされないと明らかになったことだ。

グルーバー氏の情報筋によると、すでにM2チップのNeural Engineはオクルージョン(ARコンテンツを現実の物体で隠す)やオブジェクト検出といったリアルタイム処理やR1チップの補完に使われており、余裕がないためだという。

ほかApple Intelligenceを使う上で気になるのが、ユーザーが質問や文書などをChatGPTに送信する前に許可を求められることだろう。実際にいちいち「送りますか?」とポップアップが出るとストレスがたまりかねない。

が、グルーバー氏が話したアップルの担当者によると「常に許可」オプションはまだ存在しないという。アップルとしては、少なくともローンチ直後はプライバシーの面で安全運転をしたいのだろう。

© 株式会社 音元出版