오픈소스 LLM 다운로드 센터
주요 오픈소스 LLM 10종: 다운로드 링크·설치 가이드·GPU 하드웨어 권장사양
계정 불필요, 데이터는 로컬 저장 · MacBook / Mac mini / Windows / Linux 지원
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
ollama pull qwen3
ollama run qwen3
사용 목적별 필터
추천 오픈소스 모델
하드웨어 구성 참고
GPU VRAM에 맞게 모델을 선택하세요. VRAM이 클수록 더 큰 모델을 실행할 수 있습니다.
| GPU VRAM | 추천 모델 |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
팁: 모든 모델은 Ollama 으로 손쉽게 다운로드 및 실행할 수 있습니다. 명령어 형식:ollama pull <모델명>
모델 성능 티어 리스트
2026년 3월 · 통일 기준 벤치마크 비교 · 바 최대 = 해당 지표 최고점
| 模型 |
MMLU-Pro
종합 지식
|
GPQA Diamond
과학 추론
|
SWE-Bench
코드 수정
|
Arena Elo
인간 선호도
|
VRAM | |
|---|---|---|---|---|---|---|
|
S
S티어 — 최고 수준의 클로즈드소스 모델과 동등
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
A티어 — 플래그십급 성능, 비교적 낮은 하드웨어 요구사항
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
B티어 — 소비자용 GPU 1장으로 실행 가능, 종합 성능 우수
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
C티어 — 4~8GB VRAM으로 실행, 엣지/저사양 기기 최적
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 각 모델 공식 보고서(2026년 3월) · 일부 점수는 커뮤니티 테스트 추정치
LLM 다운로드엔 빠른 네트워크가 필수
Hugging Face에서 수십 GB 모델 파일을 다운로드하려면 안정적이고 빠른 해외 네트워크가 필요합니다
관련 튜토리얼
Qwen3.5 397B vs ChatGPT vs Claude: 2026 최강 AI 비교
코딩·수학·비전·에이전트 4개 분야 벤치마크 실측. 어떤 AI가 당신에게 맞는지 완벽 분석.
자세히 보기 →Qwen3.5 아이폰 설치 가이드: 오프라인 AI 완전 실행
Off Grid 앱·MLX 프레임워크 설치부터 2B/4B 모델 선택까지. 인터넷 없이 아이폰에서 AI 사용.
자세히 보기 →Qwen3.5 안드로이드 설치: 갤럭시·픽셀 무료 AI 로컬 실행
Q Chat 앱·MNN·Termux 설치 방법. 갤럭시·픽셀에서 오프라인 Qwen3.5 AI 사용법 총정리.
자세히 보기 →Qwen3.5 소형 모델 PC 설치: 2B·4B·9B Ollama 활용법
Windows·macOS·Linux에서 Ollama로 Qwen3.5 소형 모델 설치. 하드웨어 요구사항과 무료 로컬 AI 실행법.
자세히 보기 →DeepSeek-R1 설치 가이드: 윈도우·맥·안드로이드·아이폰 2026
모든 플랫폼에서 DeepSeek-R1 무료 실행. GPT-4o급 추론 AI를 로컬에서 사용하는 방법.
자세히 보기 →Llama 4 설치 방법: Windows·Mac·Linux·모바일 완전 가이드
Meta Llama 4 Scout를 모든 기기에서 무료로 실행하는 완전 가이드. Ollama 활용법 포함.
자세히 보기 →Gemma 3 설치 가이드: PC·안드로이드·아이폰 Google AI 실행법
Google Gemma 3를 모든 기기에서 실행. 1B~27B 버전 비교, 멀티모달 활용법 포함.
자세히 보기 →Phi-4 설치 방법: Microsoft AI 모델 윈도우·맥·모바일 가이드
14B로 70B급 수학·코딩 성능을 내는 Microsoft Phi-4. 모든 플랫폼 설치 방법.
자세히 보기 →Mistral Large 2 설치 가이드: 윈도우·맥·리눅스 완전 해설
유럽 최고 오픈소스 AI Mistral Large 2. 코딩·다국어 최강 모델을 로컬에서 실행하는 방법.
자세히 보기 →