본문으로 건너뛰기

사용 가능한 모델

현재 다음 AI 모델이 지원됩니다:

언어 모델

로컬 모델

  • small-icon Qwen3
    • Qwen/Qwen3-0.6B
    • Qwen/Qwen3-1.7B
    • Qwen/Qwen3-4B
    • Qwen/Qwen3-8B
    • Qwen/Qwen3-14B
    • Qwen/Qwen3-32B
    • Qwen/Qwen3-30B-A3B (MoE)

API 모델

  • small-icon OpenAI
  • small-icon Gemini
  • small-icon Claude
  • small-icon Grok

임베딩 모델

로컬 모델

  • small-icon BAAI/bge-m3

VRAM 요구 사항

이 값은 환경과 상황에 따라 달라질 수 있습니다.

모델별 필요한 가용 VRAM 크기 요구 사항은 다음과 같이 추정됩니다:

모델컨텍스트 길이VRAM (파라미터)VRAM (총)
BAAI/bge-m38k≈ 0.3 GB≈ 0.3 GB
Qwen/Qwen3-0.6B40k≈ 0.5 GB≈ 5.0 GB
Qwen/Qwen3-1.7B40k≈ 1.0 GB≈ 5.5 GB
Qwen/Qwen3-4B40k≈ 2.4 GB≈ 8.0 GB
Qwen/Qwen3-8B40k≈ 4.5 GB≈ 10.5 GB
Qwen/Qwen3-14B40k≈ 8.0 GB≈ 14.5 GB
Qwen/Qwen3-32B40k≈ 17.6 GB≈ 25 GB
Qwen/Qwen3-30B-A3B40k≈ 16.5 GB≈ 24 GB