DeepSeek V3/R1 ローカルデプロイ:最強のオープンソースモデルをあなたのPCで

高価なH100 GPUは不要。OllamaとvLLMでDeepSeek V3と推論モデルR1をローカルにデプロイする方法を学ぶ。

2026年初頭、AI界を席巻した名前がある:DeepSeek。

この中国のAIラボはDeepSeek-V3DeepSeek-R1をリリースし、様々なベンチマークでGPT-4やClaude 3.5と互角に戦いました—そしてより重要なことに、完全にオープンソースです。DeepSeek-R1の卓越した推論能力は、複雑な数学やプログラミングの問題を楽々と処理します。

今日は話すだけでなく—あなた自身のマシンで実行する方法を教えます。

なぜDeepSeekをローカルで実行するのか?

  1. プライバシー: あなたのコード、あなたのドキュメント—完全にオフライン。
  2. レイテンシ: ネットワーク遅延なし;ローカル推論速度はGPU次第。
  3. 検閲なし: ローカルモデルには(通常)クラウドAPIの厳格なモデレーションがない。
  4. 無料: 電気代以外のトークンコストなし。

ハードウェア要件

DeepSeekのオープンソースバージョンは様々な蒸留モデルサイズを提供しており、通常のGPUで実行可能です。

  • DeepSeek-R1-Distill-Llama-8B:
    • VRAM: ~6GB(4ビット量子化)
    • 推奨: RTX 3060 / 4060
  • DeepSeek-R1-Distill-Qwen-32B:
    • VRAM: ~20GB(4ビット量子化)
    • 推奨: RTX 3090 / 4090 または Mac M2/M3 Max(32GB以上)
  • DeepSeek-V3(671B MoE):
    • VRAM: 大量(マルチGPU H800または高メモリMac Studio)。一般ユーザーはAPIまたは蒸留版を使用すべき。

方法1:Ollamaを使用(最もシンプル、推奨)

Ollamaは現在、ローカルLLMを実行するための最も人気のあるツールです。

1. Ollamaをインストール

ollama.comからダウンロードしてインストール。

2. DeepSeekモデルを実行

ターミナルを開き、セットアップに基づいてコマンドを選択:

8Bバージョンを実行(ほとんどのPCで動作):

ollama run deepseek-r1:8b

32Bバージョンを実行(24GB VRAMまたはMチップMac向け):

ollama run deepseek-r1:32b

70Bバージョンを実行(デュアル3090/4090向け):

ollama run deepseek-r1:70b

3. 推論能力をテスト

DeepSeek-R1の特徴は「考える」(Chain of Thought)ことです。論理パズルを試してみましょう:

「1ポンドの綿と1ポンドの鉄—どちらの体積が大きいですか?ステップバイステップで推論してください。」

<think>タグで囲まれたコンテンツが最初に出力され、詳細な推論プロセスが表示されてから結論が出ます。

方法2:vLLMを使用(高性能デプロイ)

高並列APIサービスをデプロイしたい開発者には、vLLMがより良い選択です。

1. vLLMをインストール

pip install vllm

2. サーバーを起動

python -m vllm.entrypoints.openai.api_server \
  --model deepseek-ai/DeepSeek-R1-Distill-Llama-8B \
  --trust-remote-code \
  --port 8000

3. APIを呼び出す

これでローカルマシンがOpenAI互換APIサーバーになります:

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="empty")

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1-Distill-Llama-8B",
    messages=[{"role": "user", "content": "Pythonでスネークゲームを書いて"}]
)
print(response.choices[0].message.content)

DeepSeek vs 他のモデル

モデル強み速度ハードウェア要件
DeepSeek-V3一般チャット、多言語高速(MoE)
DeepSeek-R1数学、コーディング、論理推論遅い(長い思考)
Llama 3一般チャット、創作文章

まとめ

DeepSeekの登場はクローズドソースモデルの独占を打ち破りました。R1の推論能力は、強化学習(RL)が小型モデルの知的限界を大幅に引き上げられることを証明しています。今すぐ、この未来からのAIをあなたのターミナルで実行しましょう。


DeepSeek R1の思考プロセスとその透明性は、説明可能なAIへの重要な一歩を表しています。