Appleが偶然に最高のAIコンピューターを作った方法

Appleが偶然に最高のAIコンピューターを作った方法

  • Oligur
  • 0
  • vyzf
Appleが偶然に最高のAIコンピューターを作った方法
  • ニュース
  • トップストーリー
2025 マックスタジオ
2025 Mac Studio
写真: Ed Hardy/Cult of Mac

AppleはAI開発競争において後れを取っていると思われがちですが、実際にはAI研究に最適なコンピュータを開発しました。最大512GBの統合メモリをサポートするM3 Ultraチップを搭載した新しいMac Studioは、高性能で最先端のLLMを自身のハードウェアで実行する最も簡単で安価な方法です。

ChatGPTに匹敵するパフォーマンスでAI業界に衝撃を与えた最新のDeepSeek v3モデルは、完全に1台のMacで実行できることをAppleのAI研究者が月曜日に明らかにした。

これはサーバーファームではなく、机の上に快適に収まるマシンです。価格は、新しいランボルギーニではなく、中古のホンダ シビックと同じです。

一体どうやってこんなことが起きたのでしょうか? 驚くべきことに、それは全くの偶然でした。Apple Siliconアーキテクチャが最高のAIハードウェアとなる理由、そしてAppleが想定していなかったユースケースを、ここでご紹介します。

Mac Studio で動作する大規模な AI モデル

Nvidiaグラフィックカード
PCのグラフィックカードはMac全体よりも大きくなることがあります。
写真:Nana Dua/Pexels

AIモデルは主にGPUによって駆動されます。GPUはコンピューターのグラフィックス専用部分です。3Dモデルの描画や動画のレンダリングといったGPU中心のタスクと同様に、LLM(大規模言語モデル)は数百万の行列の乗算を可能な限り高速に行うために、大量の並列処理を必要とします。GPUは、まさにこの特定の種類の計算のために設計されています。

しかし、3Dゲームやビデオレンダリングとは異なり、LLMやその他のAIモデルははるかに多くのメモリを必要とします。PCゲーマーがカスタムマシンに搭載するハイエンドコンシューマー向けGPUであるNvidia 4090は、24GBのメモリを搭載しています。しかし、業界をリードする効率性で知られるLLMであるDeepSeek R1は、それでも64倍以上のメモリを必要とします。

これらのモデルをローカルで実行することには大きな利点があります。クラウドベースのAIサービスを利用すれば、費用は一切かかりません。かかるのはマシンと電気代だけです。インターネット経由で他人のサーバー上で動作させる場合のような、ネットワークの遅延、使用量制限、セキュリティ上の懸念もありません。

Appleの統合メモリアーキテクチャは、この点で予想外に優れている。

Apple M1チップ
2つのメモリチップを統合したM1チップ。
写真:iFixit

Apple Siliconは従来のPCとは大きく異なります。CPU、GPU、NPU(Neural Processing Unit、Appleはニューラルエンジンと呼んでいます)はすべて同じチップ内の同じダイ上に搭載されています。演算処理とグラフィックス処理にそれぞれ独立したメモリを使用するのではなく、これら3つが共通のメモリを共有しています。

ゲーム用途では、Appleがチップに内蔵しているGPUよりも大きなGPUを追加できないという点がマイナスです。Appleの最高級CPUを購入しなければ、最高級GPUは購入できず、大量のメモリとSSDストレージのためにティム・クック税を支払わなければなりません。

しかし、機械学習やAI研究においては、Apple Siliconは1ドルあたりのメモリ容量が圧倒的に優れています。最安価格の599ドルのM4 Mac miniには16GBのメモリが搭載されています。同容量のメモリを搭載したNVIDIA 4060ベースのグラフィックカードも、コンピュータ本体を購入する前に、同じくらいの値段になるかもしれません。

512GBの統合メモリを搭載したM3 Ultra Mac Studioは9,499ドルとかなり高価ですが、最新のDeepSeek v3モデルを完全にデバイス上で実行できます。これだけのメモリ容量は、エンタープライズグレードのサーバーファームハードウェアでしか利用できませんが、その価格は「電話で見積もりを取る」ほど高額です。

Macに最適化されたローカルモデルを共有するコミュニティ

月曜日、ソーシャルメディアの投稿で、Appleの機械学習研究者Awni Hannun氏は、512GBの統合メモリを搭載したM3 Ultra Mac Studioで中国のAIスタートアップDeepSeekの新しい大規模言語モデルを実行していることを明らかにした。

「4ビット版の新しいDeep Seek V3 0324は、mlx-lmを搭載した512GB M3 Ultraで20 toks/秒以上で動作します!」と彼は書いています。MLX-LMは、Apple Silicon上で大規模言語モデルを実行するためのソフトウェアです。

DeepSeek-V3-0324と名付けられたこの新モデルは、DeepSeekによってオンラインAIリポジトリHugging Faceのオープンソースプロジェクトとしてひっそりと公開されました。641GBのメモリと6,700億のパラメータを誇り、OpenAIやAnthropicといった巨大企業の最新の生成AIに匹敵すると報じられています。これらのモデルは巨大なデータセンターで動作させる必要があります。

しかし、Hugging Faceコミュニティのメンバーは既に9,499ドルのMac StudioでDeepSeek-V3-0324を稼働させています。スタートアップ企業Exo Labsのように、これらのMac Studioを3台Thunderbolt 5で接続すれば、より長いコンテキストでDeepSeek R1モデル全体を実行できます。

効率的なローカルパフォーマンスにおけるこれらの画期的な進歩は、高価なNvidiaチップを満載した巨大なデータセンターに数十億ドルを投じてきたベンチャーキャピタル資金提供の企業に大きな打撃を与える。

これはすべて幸せな小さな偶然だった

Apple A4チップ
A4チップは2010年にAppleシリコン革命の始まりとなった。
写真:Apple

AppleはApple Siliconアーキテクチャを設計する際に、世界最高のAIコンピューターを作ろうとしたのだろうか?もちろんそんなことはない。

Appleは2008年からiPhoneやiPadに搭載する自社製プロセッサの設計に着手し、最初のA4チップは2010年に発表された。Apple Siliconを搭載したMacの噂は2010年代半ばに本格的に広まり始めた。

これは、大規模言語モデルの爆発的な増加が世界を席巻する何年も前のことであり、Apple の幹部が注目し始めるまでの恥ずかしいほど長い期間でした。

M1チップのプレスリリースでAppleが強調した統合メモリアーキテクチャの利点は、「SoC内のすべてのテクノロジーが、複数のメモリプール間でデータをコピーすることなく、同じデータにアクセスできるようになる」という点に集約されていました。これは、MacBook Airのパワーとバッテリー駆動時間を向上させることが目的だったのです。

次回、ティム・クック氏が彼のお決まりのフレーズ「皆さんがそれをどう活用するか、とても楽しみです」で基調講演を終えたときは、彼が本気でそう思っていることもあるということを知っておいてください。