- ニュース

写真:マヌエル・ガイシンガー/Pexels
AppleのAIサービスの一部は、同社独自のプロセッサを搭載したサーバーを備えたデータセンターに依存すると報じられている。負荷の低いAI機能は、ユーザー自身のコンピューター上でローカルに実行される。
これはすべて、今後数か月以内に iPhone、Mac、iPad などにさらに多くの AI 機能を導入する計画の一環であるようです。
Apple AIは部分的にリモートサーバーとデータセンターに依存する
AIは今、まさにホットな話題です。Microsoft、Google、Samsungが製品をユーザーに急いで提供している一方で、Appleは時代遅れの感があります。しかし、それは間もなく変わると予想されています。CEOのティム・クックは、同社のすべてのOSの新機能がAIに重点を置くことを強く示唆しました。Appleは間違いなく、6月のWWDC24でAI技術のいくつかを発表するでしょう。
「アップル社は今年、自社製プロセッサを搭載したデータセンターを通じて、今後登場する人工知能機能の一部を提供する予定だ」とブルームバーグは木曜日に報じた。
これは、クパチーノがNVIDIAや他のチップメーカーのAI特化型プロセッサに依存しないことを意味します。NVIDIAの新しい「Blackwell」B200人工知能チップは1個あたり3万ドルから4万ドルもするため、これは大きな利点です。
代わりに、Apple は現行のハイエンド Mac プロセッサである M2 Ultra からスタートすると報じられています。
AIに特化したチップが必要
Appleは明らかに2層構造のアプローチを採用するようだ。「よりシンプルなAI関連機能は、iPhone、iPad、Mac上で直接処理される」とブルームバーグは報じている。
AppleがAI機能を可能な限りローカルに留めたいと考えていることは、以前から知られていました。そうすればプライバシーが確保され、おそらく高速化も期待できます。しかし、AIタスクがスマートフォンやデスクトップの能力を超える場合、Appleはリモートサーバーで計算を実行する可能性があります。
それでも、AI機能をローカルに維持したいという願望は、新しいApple M4プロセッサの重要性を浮き彫りにしています。このプロセッサは2024年モデルのiPad Proでデビューしますが、今年後半にはMacにも搭載される予定です。
Appleは火曜日の「Let Loose」イベントでこのチップを発表した際、「M4はApple史上最速のニューラルエンジンを搭載し、最大38兆/秒の演算処理能力を備えています。これは、今日のAI搭載PCのニューラルプロセッシングユニットよりも高速です」と述べました。「より高速なメモリ帯域幅、CPUに搭載された次世代機械学習(ML)アクセラレータ、そして高性能GPUと組み合わせることで、M4は新型iPad Proを人工知能(AI)にとって非常にパワフルなデバイスへと進化させます。」
しかし、Mac や iPhone は、どのようなプロセッサを使用していても、要求の厳しい AI タスクを Apple チップを搭載したサーバーにオフロードできるようになるようです。
AppleのAI計画とは…?
iOS 18、macOS 15、その他のOSにおけるAI機能に関するAppleの具体的な計画についてはほとんど明らかにされていません。内蔵アプリケーションは、例えばメール、ウェブページ、テキストメッセージチャットの要約などが可能になると想定されています。ユーザーはおそらく、画像からオブジェクトをシームレスに削除したり、場合によっては追加したりできるようになるでしょう。あるいは、音声コマンドを使って写真に微調整を加えることも可能になるかもしれません。
一部の生成AIタスクがGoogle Geminiにアウトソーシングされる可能性があるとの報道がある。これがSiriの将来にどのような影響を与えるかは依然として不明だ。