オープンソース LLM ダウンロードセンター
人気オープンソース LLM 10選:ダウンロードリンク・インストール手順・動作環境まとめ
🚀 クイックスタート:Ollama をインストールして3ステップで任意のモデルを実行
アカウント不要、データはすべてローカル保存 · MacBook / Mac mini / Windows / Linux 対応
1
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
2
ollama pull qwen3
3
ollama run qwen3
用途別フィルター
注目のオープンソースモデル
動作環境・GPU別推奨モデル
GPU VRAMに合わせてモデルを選択してください。VRAM が多いほど大きなモデルを実行できます。
| GPU VRAM | 推奨モデル |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
ヒント:すべてのモデルは Ollama で簡単にダウンロード・実行できます。コマンド形式:ollama pull <モデル名>
モデル性能ランキング
2026年3月 · 統一ベンチマーク比較 · バー最大 = その指標の最高スコア
| 模型 |
MMLU-Pro
総合知識
|
GPQA Diamond
科学推論
|
SWE-Bench
コード修正
|
Arena Elo
人間選好
|
VRAM | |
|---|---|---|---|---|---|---|
|
S
Sランク — クローズドソース最上位モデルに匹敵
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
Aランク — 旗艦級の性能、ハードウェア要件は比較的抑えめ
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
Bランク — コンシューマーGPU1枚で動作、総合性能に優れる
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
Cランク — 4〜8GB VRAMで動作、エッジ・低スペック向け
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
MMLU-Pro 総合知識推論
GPQA Diamond 博士レベルの科学推論
SWE-Bench コード修正(最大=77.8%)
Arena Elo 人間選好投票(最大=1500)
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各モデル公式レポート(2026年3月)· 一部スコアはコミュニティテスト推定値
S
Sランク
クローズドソース最上位に匹敵・超越、ハードウェア要件高め
智谱 GLM-5
Apache 2.0
744B 总 / 40B 激活 · 24GB+
Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
コーディング1位
中国チップ対応
📖 インストールガイド
DeepSeek-R1
MIT
685B 总 / 37B 激活 · 16GB+
MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推論最強
数学1位
Qwen 3.5
Apache 2.0
397B 总 / 17B 激活 · 8GB+
Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中国語1位
201言語対応
A
Aランク
旗艦級の性能でハードウェア要件は比較的抑えめ
Llama 4 Maverick
Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1Mコンテキスト
最大エコシステム
Mistral Large 3
Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
EU準拠
多言語対応優秀
B
Bランク
コンシューマーGPU1枚で動作、総合性能に優れる
Llama 4 Scout
Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
コンテキスト
10M
10M超長コンテキスト
GPU1枚で動作
Gemma 3 27B
Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
コンシューマーGPU最強
多模态
LLMダウンロードには高速ネットワークが必須
Hugging Face から数十GBのモデルファイルをダウンロードするには、安定した高速の海外ネットワークが必要です
¥9/月
月額わずか
1000Mbps
ギガビット回線
70+国家
全球节点
30日
返金保証
関連チュートリアル
Qwen 3.5
徹底比較
Qwen3.5-397B vs ChatGPT 徹底比較:圧倒的な差の理由
ベンチマーク・コスト・日本語性能を多角的に検証。Qwen3.5とChatGPT GPT-5.2・Claude Opusを完全解説。
詳しく見る →
Qwen 3.5
Ollama ガイド
Qwen3.5を無料で使う:Ollama・Hugging Face 完全入門
OllamaとHugging FaceでQwen3.5を無料または低コストで実行する方法。OpenAI互換APIの設定も詳述。
詳しく見る →
Qwen 3.5
iOS ガイド
iPhoneでQwen3.5をオフライン実行!ローカルAI完全導入
Off Gridアプリ・MLXフレームワーク使用。iPhone 12以降対応。プライバシー完全保護でAIをローカル実行。
詳しく見る →
Qwen 3.5
Android ガイド
AndroidでQwen3.5を動かす!Termux完全インストールガイド
Termux・ONNX Runtime・MLC LLM の3つの方法を詳しく解説。Galaxy・Pixel 対応。完全オフライン実行。
詳しく見る →