콘텐츠로 이동

프로바이더 설정 가이드

이 가이드는 API 키 프로바이더, OAuth 구독, 클라우드 플랫폼, 로컬 모델을 포함하여 Claudex가 지원하는 모든 프로바이더의 상세 설정 방법을 다룹니다.

  1. console.anthropic.com에서 가입
  2. API Keys로 이동하여 새 키 생성 (형식: sk-ant-*)
[[profiles]]
name = "anthropic"
provider_type = "DirectAnthropic"
base_url = "https://api.anthropic.com"
api_key = "sk-ant-..."
default_model = "claude-sonnet-4-20250514"
Terminal window
claudex profile test anthropic
  1. platform.minimaxi.com에서 가입
  2. 콘솔에서 API Keys로 이동
[[profiles]]
name = "minimax"
provider_type = "DirectAnthropic"
base_url = "https://api.minimax.io/anthropic"
api_key = "..."
default_model = "claude-sonnet-4-20250514"
Terminal window
claudex profile test minimax
  1. openrouter.ai에서 가입
  2. openrouter.ai/keys에서 API 키 발급
[[profiles]]
name = "openrouter"
provider_type = "OpenAICompatible"
base_url = "https://openrouter.ai/api/v1"
api_key = "sk-or-..."
default_model = "anthropic/claude-sonnet-4"
Terminal window
claudex profile test openrouter
  1. console.x.ai에서 가입
  2. 콘솔에서 API 키 생성
[[profiles]]
name = "grok"
provider_type = "OpenAICompatible"
base_url = "https://api.x.ai/v1"
api_key = "xai-..."
default_model = "grok-3-beta"
Terminal window
claudex profile test grok
  1. platform.openai.com에서 가입
  2. platform.openai.com/api-keys에서 API 키 생성
[[profiles]]
name = "chatgpt"
provider_type = "OpenAICompatible"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."
default_model = "gpt-4o"
Terminal window
claudex profile test chatgpt
  1. platform.deepseek.com에서 가입
  2. 콘솔에서 API 키 생성
[[profiles]]
name = "deepseek"
provider_type = "OpenAICompatible"
base_url = "https://api.deepseek.com"
api_key = "sk-..."
default_model = "deepseek-chat"
Terminal window
claudex profile test deepseek
  1. platform.moonshot.cn에서 가입
  2. 콘솔에서 API 키 생성
[[profiles]]
name = "kimi"
provider_type = "OpenAICompatible"
base_url = "https://api.moonshot.ai/v1"
api_key = "sk-..."
default_model = "kimi-k2-0905-preview"
Terminal window
claudex profile test kimi
  1. open.bigmodel.cn에서 가입
  2. 콘솔에서 API 키 생성
[[profiles]]
name = "glm"
provider_type = "OpenAICompatible"
base_url = "https://api.z.ai/api/paas/v4"
api_key = "..."
default_model = "glm-4.6"
Terminal window
claudex profile test glm
  1. console.groq.com에서 가입
  2. Settings > API Keys에서 API 키 생성
[[profiles]]
name = "groq"
provider_type = "OpenAICompatible"
base_url = "https://api.groq.com/openai/v1"
api_key = "gsk_..."
default_model = "llama-3.3-70b-versatile"
Terminal window
claudex profile test groq
  1. console.mistral.ai에서 가입
  2. 콘솔에서 API 키 생성
[[profiles]]
name = "mistral"
provider_type = "OpenAICompatible"
base_url = "https://api.mistral.ai/v1"
api_key = "..."
default_model = "mistral-large-latest"
Terminal window
claudex profile test mistral
  1. api.together.ai에서 가입
  2. 대시보드에서 API 키 생성
[[profiles]]
name = "together"
provider_type = "OpenAICompatible"
base_url = "https://api.together.xyz/v1"
api_key = "..."
default_model = "meta-llama/Llama-3.3-70B-Instruct-Turbo"
Terminal window
claudex profile test together
  1. perplexity.ai에서 가입
  2. perplexity.ai/settings/api에서 API 키 생성
[[profiles]]
name = "perplexity"
provider_type = "OpenAICompatible"
base_url = "https://api.perplexity.ai"
api_key = "pplx-..."
default_model = "sonar-pro"
Terminal window
claudex profile test perplexity
  1. cloud.cerebras.ai에서 가입
  2. 대시보드에서 API 키 생성
[[profiles]]
name = "cerebras"
provider_type = "OpenAICompatible"
base_url = "https://api.cerebras.ai/v1"
api_key = "..."
default_model = "llama-3.3-70b"
Terminal window
claudex profile test cerebras
  1. Azure Portal에서 Azure OpenAI 리소스 생성
  2. 모델을 배포하고 리소스 이름과 배포 이름을 기록
  3. Keys and Endpoint에서 API 키 가져오기
[[profiles]]
name = "azure-openai"
provider_type = "OpenAICompatible"
base_url = "https://YOUR_RESOURCE.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT"
api_key = "YOUR_AZURE_KEY"
default_model = "gpt-4o"
[profiles.query_params]
api-version = "2024-12-01-preview"
Terminal window
claudex profile test azure-openai
  1. GCP 프로젝트에서 Vertex AI API 활성화
  2. gcloud auth print-access-token으로 액세스 토큰 생성
[[profiles]]
name = "vertex-ai"
provider_type = "DirectAnthropic"
base_url = "https://us-east5-aiplatform.googleapis.com/v1/projects/YOUR_PROJECT/locations/us-east5/publishers/anthropic/models"
api_key = "YOUR_GCLOUD_TOKEN"
default_model = "claude-sonnet-4@20250514"
Terminal window
claudex profile test vertex-ai

AWS Bedrock은 LiteLLM 프록시를 통해 지원됩니다:

  1. LiteLLM 설치: pip install litellm
  2. 프록시 시작:
Terminal window
litellm --model bedrock/anthropic.claude-sonnet-4-20250514-v2:0
  1. Claudex 설정:
[[profiles]]
name = "bedrock"
provider_type = "OpenAICompatible"
base_url = "http://localhost:4000/v1"
api_key = "sk-litellm"
default_model = "bedrock/anthropic.claude-sonnet-4-20250514-v2:0"

OAuth 인증을 통해 별도의 API 키 없이 기존 프로바이더 구독(ChatGPT Plus, Claude Max 등)을 사용할 수 있습니다.

Claude Code의 네이티브 OAuth 세션을 통해 기존 Claude 구독을 사용합니다.

전제 조건: Claude Code가 설치되어 로그인된 상태 (claude 명령이 정상 작동)

[[profiles]]
name = "claude-max"
provider_type = "DirectAnthropic"
base_url = "https://api.claude.ai"
default_model = "claude-sonnet-4-20250514"
auth_type = "oauth"
oauth_provider = "claude"
[profiles.models]
haiku = "claude-haiku-4-20250514"
sonnet = "claude-sonnet-4-20250514"
opus = "claude-opus-4-20250514"

Codex CLI 토큰을 통해 ChatGPT Plus 또는 Pro 구독을 사용합니다.

전제 조건: Codex CLI를 설치하고 인증:

Terminal window
# Codex CLI 설치
npm install -g @openai/codex
# 인증 (브라우저 열림)
codex auth

Claudex 설정:

[[profiles]]
name = "codex-sub"
provider_type = "OpenAIResponses"
base_url = "https://chatgpt.com/backend-api/codex"
default_model = "gpt-5.3-codex"
auth_type = "oauth"
oauth_provider = "openai"
[profiles.models]
haiku = "codex-mini-latest"
sonnet = "gpt-5.3-codex"
opus = "gpt-5.3-codex"
Terminal window
# Codex CLI에서 토큰 읽기
claudex auth login openai --profile codex-sub
# 확인
claudex auth status
# 실행
claudex run codex-sub

Gemini CLI 자격 증명을 통해 Google 계정을 사용합니다.

[[profiles]]
name = "gemini-sub"
provider_type = "OpenAICompatible"
base_url = "https://generativelanguage.googleapis.com/v1beta/openai"
default_model = "gemini-2.5-pro"
auth_type = "oauth"
oauth_provider = "google"
[profiles.models]
haiku = "gemini-2.0-flash"
sonnet = "gemini-2.5-pro"
opus = "gemini-2.5-pro"
Terminal window
# Gemini CLI 자격 증명에서 읽기
claudex auth login google --profile gemini-sub
# 확인
claudex auth status

OAuth Device Code 플로우를 통해 Qwen 계정을 사용합니다.

[[profiles]]
name = "qwen-oauth"
provider_type = "OpenAICompatible"
base_url = "https://chat.qwen.ai/api"
default_model = "qwen3-235b-a22b"
auth_type = "oauth"
oauth_provider = "qwen"
Terminal window
# Device code 플로우 시작
claudex auth login qwen --profile qwen-oauth
# 확인
claudex auth status

Kimi CLI 자격 증명을 통해 Kimi 계정을 사용합니다.

[[profiles]]
name = "kimi-oauth"
provider_type = "OpenAICompatible"
base_url = "https://api.moonshot.cn/v1"
default_model = "moonshot-v1-128k"
auth_type = "oauth"
oauth_provider = "kimi"
Terminal window
# Kimi CLI 자격 증명에서 읽기
claudex auth login kimi --profile kimi-oauth
# 확인
claudex auth status

OAuth Device Code 플로우를 통해 GitHub Copilot 구독을 사용합니다.

[[profiles]]
name = "copilot"
provider_type = "OpenAICompatible"
base_url = "https://api.githubcopilot.com"
default_model = "gpt-4o"
auth_type = "oauth"
oauth_provider = "github"
Terminal window
# Device code 플로우 시작 (GitHub 로그인을 위해 브라우저 열림)
claudex auth login github --profile copilot
# 확인
claudex auth status

Personal Access Token을 통해 GitLab Duo 구독을 사용합니다.

[[profiles]]
name = "gitlab-duo"
provider_type = "OpenAICompatible"
base_url = "https://gitlab.com/api/v4/ai/llm/proxy"
default_model = "claude-sonnet-4-20250514"
auth_type = "oauth"
oauth_provider = "gitlab"
Terminal window
# GitLab 토큰을 환경 변수로 설정
export GITLAB_TOKEN=glpat-...
# 로그인
claudex auth login gitlab --profile gitlab-duo
# 확인
claudex auth status
  1. Ollama 설치: ollama.com
  2. 모델 다운로드:
Terminal window
ollama pull qwen2.5:72b
  1. Claudex 설정:
[[profiles]]
name = "local-qwen"
provider_type = "OpenAICompatible"
base_url = "http://localhost:11434/v1"
api_key = ""
default_model = "qwen2.5:72b"
Terminal window
claudex profile test local-qwen
  1. vLLM 설치 및 시작:
Terminal window
pip install vllm
vllm serve meta-llama/Llama-3.3-70B-Instruct --port 8000
  1. Claudex 설정:
[[profiles]]
name = "local-llama"
provider_type = "OpenAICompatible"
base_url = "http://localhost:8000/v1"
api_key = ""
default_model = "meta-llama/Llama-3.3-70B-Instruct"
  1. lmstudio.ai에서 LM Studio 다운로드
  2. 모델을 로드하고 로컬 서버 시작 (기본 포트: 1234)
[[profiles]]
name = "lm-studio"
provider_type = "OpenAICompatible"
base_url = "http://localhost:1234/v1"
api_key = "lm-studio"
default_model = "local-model"

프로바이더를 설정한 후 연결을 확인하세요:

Terminal window
# 특정 프로파일 테스트
claudex profile test <profile-name>
# 모든 프로파일 테스트
claudex profile test all
# 설정된 모든 프로파일 목록
claudex profile list