사용 가능한 모델
현재 다음 AI 모델이 지원됩니다:
언어 모델
로컬 모델
-
Qwen3
Qwen/Qwen3-0.6BQwen/Qwen3-1.7BQwen/Qwen3-4BQwen/Qwen3-8BQwen/Qwen3-14BQwen/Qwen3-32BQwen/Qwen3-30B-A3B(MoE)
API 모델
-
OpenAI
-
Gemini -
Claude
-
Grok
임베딩 모델
로컬 모델
-
BAAI/bge-m3
VRAM 요구 사항
이 값은 환경과 상황에 따라 달라질 수 있습니다.
모델별 필요한 가용 VRAM 크기 요구 사항은 다음과 같이 추정됩니다:
| 모델 | 컨텍스트 길이 | VRAM (파라미터) | VRAM (총) |
|---|---|---|---|
BAAI/bge-m3 | 8k | ≈ 0.3 GB | ≈ 0.3 GB |
Qwen/Qwen3-0.6B | 40k | ≈ 0.5 GB | ≈ 5.0 GB |
Qwen/Qwen3-1.7B | 40k | ≈ 1.0 GB | ≈ 5.5 GB |
Qwen/Qwen3-4B | 40k | ≈ 2.4 GB | ≈ 8.0 GB |
Qwen/Qwen3-8B | 40k | ≈ 4.5 GB | ≈ 10.5 GB |
Qwen/Qwen3-14B | 40k | ≈ 8.0 GB | ≈ 14.5 GB |
Qwen/Qwen3-32B | 40k | ≈ 17.6 GB | ≈ 25 GB |
Qwen/Qwen3-30B-A3B | 40k | ≈ 16.5 GB | ≈ 24 GB |