- ハウツー

グラフィック:Rajesh Pandey/CultOfMac
ChatGPT、GoogleのGemini、Apple Intelligenceは強力ですが、いずれも大きな欠点が1つあります。それは、動作するために常にインターネットに接続する必要があることです。プライバシーを重視し、より優れたパフォーマンスを求めるなら、DeepSeek、GoogleのGemma、MetaのLlamaといった大規模な言語モデルをMac上でローカルに実行するのが最適な選択肢です。
複雑そうに聞こえますか? 想像するよりも簡単です。適切なツールがあれば、DeepSeekやその他の一般的なLLMをMacでローカルに実行できます。
プライバシーとセキュリティは、LLMをローカルで実行する最大の理由です。これにより、モデルが外部サーバーとデータを共有することができなくなり、個人情報や機密情報を扱う際に完全な制御が可能になります。
AIモデルをローカルで実行することで、API料金の繰り返し発生を避け、より高速かつ低コストで実行できます。さらに、LLMをローカルで実行することで、独自のデータで学習させ、ニーズに合わせてレスポンスをカスタマイズできます。DeepSeekやその他のLLMを業務で使用する場合、このアプローチは長期的に見て貴重な時間を節約することにもなります。
開発者であれば、LLMをローカルで実行して実際に操作し、仕事にどのように役立つか試してみるのも良いでしょう。必要な技術的知識があれば、利用可能なAIモデルを使って、仕事に役立つエージェントツールを構築することもできます。
DeepSeekやLlamaなどのLLMをMacでローカルに実行する方法
LLMをローカルで実行するには、十分なRAMを搭載したハイエンドMacが必要だと思われるかもしれません。しかし、そうではありません。Apple Silicon搭載のMacで、システムメモリが16GB以上であれば、LLMをローカルで実行できます。メモリが8GBでも動作しますが、システムパフォーマンスに悪影響が出ます。
LLMには複数のバリエーションがあり、それぞれ異なるパラメータを持つことに注意してください。パラメータが高いほど、LLMはより複雑で賢くなります。また、AIモデルの実行にはより多くのスペースとリソースが必要になります。例えば、MetaのLlamaには複数のバリエーションがあり、中には700億のパラメータを持つものもあります。ただし、このモデルを実行するには、40GB以上の空きストレージと48GB以上のシステムメモリを備えたMacが必要です。
理想的には、DeepSeekのようなLLMを70億または80億のパラメータで実行してみてください。16GBのシステムメモリを搭載したMacであれば、ローカルでスムーズに動作するはずです。より高性能なMacを利用できる場合は、要件に合ったモデルをご利用ください。
ユースケースに応じて適切なモデルをダウンロードすることが重要です。LLMの中には推論に優れたものもあれば、コーディングに関する質問の解決に優れたものもあります。STEMチャットやタスクに優れたものもあれば、複数ターンの会話や長い文脈の一貫性に優れたものもあります。
LM Studioは、Mac上でLLMをローカルに実行する最も簡単な方法です。

スクリーンショット:Rajesh Pandey/CultOfMac
DeepSeekやLlamaなどのLLMをMacでローカルに実行したい場合、LM Studioが最も簡単な方法です。このソフトウェアは個人利用に限り無料です。
開始方法は次のとおりです。
- Mac に LM Studio をダウンロードしてインストールし、アプリケーションを起動します。
- DeepSeekをローカルで実行することが主な目的の場合は、オンボーディングプロセスを完了し、モデルをダウンロードしてください。それ以外の場合は、オンボーディングの手順をスキップできます。
- LM Studioの上部に検索バーが表示され、 「ロードするモデルを選択してください」というメッセージが表示されます。それをクリックして、ダウンロードしてインストールしたいLLMを検索してください。
- または、 LM Studioの右下にある設定アイコンをクリックして、利用可能なLLMのリストを確認します。開いたウィンドウの左側にある「モデル検索」タブを選択します。または、Command + Shift + Mのキーボードショートカットを使用して、このウィンドウを直接開きます。
- ダウンロード可能なすべてのAIモデルがここにリストされています。右側のウィンドウには、各モデルに関する簡単な説明とトークン制限が表示されます。
- DeepSeek、Meta's Llama、Qwen、phi-4、またはその他の利用可能なLLMを選択します。右下にあるダウンロードボタンをクリックします。
- 注意: 複数の LLM をダウンロードできますが、LM Studio は一度に 1 つのモデルのみを読み込んで実行できます。
ダウンロードしたLLMを使用する

スクリーンショット: Rajesh Pandey/CultOfMac
LLMのダウンロードが完了したら、LM StudioのMission Controlウィンドウを閉じてください。次に、上部の検索バーをクリックして、ダウンロードしたLLMを読み込みます。AIモデルを読み込む際に、LM Studioではコンテキストの長さ、CPUスレッドプールのサイズ、その他の重要な設定を行うことができます。これらの設定が何をするものか不明な場合は、そのままにしておいてください。
質問したり、LLM を好きなように使用したりできるようになりました。
LM Studioでは、LLMと複数のチャットを行うことができます。新しい会話を開始するには、上部のツールバーにある「+」アイコンをクリックします。これは、LLMを複数のプロジェクトで同時に使用している場合に役立ちます。また、フォルダを作成してチャットを整理することもできます。
Macのリソースを使い切らないようにする方法

スクリーンショット:Rajesh Pandey/CultOfMac
AIモデルがMacのシステムリソースを消費してしまうのではないかと心配な場合は、キーボードショートカット「Command + ,」を使ってLM Studioの設定画面を開き、「モデル読み込みガードレール」が「厳格」になっていることを確認してください。これにより、LLMがMacに過負荷をかけることがなくなります。
LM StudioとダウンロードしたLLMのリソース使用量は、下部のツールバーで確認できます。CPUまたはメモリ使用量が高すぎる場合は、パラメータが低いAIモデルに切り替えてリソース使用量を削減することを検討してください。
ここ数週間、LM Studioを使ってMacでLlamaとDeepSeekのLLMをローカルで実行してきましたが、16GBのRAMを搭載したM1 Mac miniのパフォーマンスに驚かされました。ワークロードを難なくこなしてくれました。M1 Pro MacBook ProではLLMがよりスムーズに動作します。さらに、システムメモリが大容量のM2、M3、M4搭載の新しいMacでは、パフォーマンスはさらに向上するはずです。
それでも、古いApple Silicon搭載Macをお持ちの場合でも、LLMがスムーズに動作しないと思い込まないでください。そのパフォーマンスにきっと驚かれることでしょう。
Macの空き容量を増やすために、不要なLLMは必ず削除してください。試しにいくつかダウンロードしてしまうと、すぐに容量が足りなくなってしまいます。