コンテンツにスキップ

プロバイダーセットアップガイド

このガイドでは、API キープロバイダー、OAuth サブスクリプション、クラウドプラットフォーム、ローカルモデルを含む、Claudex がサポートするすべてのプロバイダーの詳細なセットアップ手順を説明します。

  1. console.anthropic.com でサインアップ
  2. API Keys に移動して新しいキーを作成(形式: sk-ant-*
[[profiles]]
name = "anthropic"
provider_type = "DirectAnthropic"
base_url = "https://api.anthropic.com"
api_key = "sk-ant-..."
default_model = "claude-sonnet-4-20250514"
Terminal window
claudex profile test anthropic
  1. platform.minimaxi.com でサインアップ
  2. コンソールの API Keys に移動
[[profiles]]
name = "minimax"
provider_type = "DirectAnthropic"
base_url = "https://api.minimax.io/anthropic"
api_key = "..."
default_model = "claude-sonnet-4-20250514"
Terminal window
claudex profile test minimax
  1. openrouter.ai でサインアップ
  2. openrouter.ai/keys で API キーを取得
[[profiles]]
name = "openrouter"
provider_type = "OpenAICompatible"
base_url = "https://openrouter.ai/api/v1"
api_key = "sk-or-..."
default_model = "anthropic/claude-sonnet-4"
Terminal window
claudex profile test openrouter
  1. console.x.ai でサインアップ
  2. コンソールで API キーを作成
[[profiles]]
name = "grok"
provider_type = "OpenAICompatible"
base_url = "https://api.x.ai/v1"
api_key = "xai-..."
default_model = "grok-3-beta"
Terminal window
claudex profile test grok
  1. platform.openai.com でサインアップ
  2. platform.openai.com/api-keys で API キーを作成
[[profiles]]
name = "chatgpt"
provider_type = "OpenAICompatible"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."
default_model = "gpt-4o"
Terminal window
claudex profile test chatgpt
  1. platform.deepseek.com でサインアップ
  2. コンソールで API キーを作成
[[profiles]]
name = "deepseek"
provider_type = "OpenAICompatible"
base_url = "https://api.deepseek.com"
api_key = "sk-..."
default_model = "deepseek-chat"
Terminal window
claudex profile test deepseek
  1. platform.moonshot.cn でサインアップ
  2. コンソールで API キーを作成
[[profiles]]
name = "kimi"
provider_type = "OpenAICompatible"
base_url = "https://api.moonshot.ai/v1"
api_key = "sk-..."
default_model = "kimi-k2-0905-preview"
Terminal window
claudex profile test kimi
  1. open.bigmodel.cn でサインアップ
  2. コンソールで API キーを作成
[[profiles]]
name = "glm"
provider_type = "OpenAICompatible"
base_url = "https://api.z.ai/api/paas/v4"
api_key = "..."
default_model = "glm-4.6"
Terminal window
claudex profile test glm
  1. console.groq.com でサインアップ
  2. Settings > API Keys で API キーを作成
[[profiles]]
name = "groq"
provider_type = "OpenAICompatible"
base_url = "https://api.groq.com/openai/v1"
api_key = "gsk_..."
default_model = "llama-3.3-70b-versatile"
Terminal window
claudex profile test groq
  1. console.mistral.ai でサインアップ
  2. コンソールで API キーを作成
[[profiles]]
name = "mistral"
provider_type = "OpenAICompatible"
base_url = "https://api.mistral.ai/v1"
api_key = "..."
default_model = "mistral-large-latest"
Terminal window
claudex profile test mistral
  1. api.together.ai でサインアップ
  2. ダッシュボードで API キーを作成
[[profiles]]
name = "together"
provider_type = "OpenAICompatible"
base_url = "https://api.together.xyz/v1"
api_key = "..."
default_model = "meta-llama/Llama-3.3-70B-Instruct-Turbo"
Terminal window
claudex profile test together
  1. perplexity.ai でサインアップ
  2. perplexity.ai/settings/api で API キーを作成
[[profiles]]
name = "perplexity"
provider_type = "OpenAICompatible"
base_url = "https://api.perplexity.ai"
api_key = "pplx-..."
default_model = "sonar-pro"
Terminal window
claudex profile test perplexity
  1. cloud.cerebras.ai でサインアップ
  2. ダッシュボードで API キーを作成
[[profiles]]
name = "cerebras"
provider_type = "OpenAICompatible"
base_url = "https://api.cerebras.ai/v1"
api_key = "..."
default_model = "llama-3.3-70b"
Terminal window
claudex profile test cerebras
  1. Azure Portal で Azure OpenAI リソースを作成
  2. モデルをデプロイし、リソース名とデプロイメント名をメモ
  3. Keys and Endpoint から API キーを取得
[[profiles]]
name = "azure-openai"
provider_type = "OpenAICompatible"
base_url = "https://YOUR_RESOURCE.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT"
api_key = "YOUR_AZURE_KEY"
default_model = "gpt-4o"
[profiles.query_params]
api-version = "2024-12-01-preview"
Terminal window
claudex profile test azure-openai
  1. GCP プロジェクトで Vertex AI API を有効化
  2. gcloud auth print-access-token でアクセストークンを生成
[[profiles]]
name = "vertex-ai"
provider_type = "DirectAnthropic"
base_url = "https://us-east5-aiplatform.googleapis.com/v1/projects/YOUR_PROJECT/locations/us-east5/publishers/anthropic/models"
api_key = "YOUR_GCLOUD_TOKEN"
default_model = "claude-sonnet-4@20250514"
Terminal window
claudex profile test vertex-ai

AWS Bedrock は LiteLLM プロキシ経由でサポートされます:

  1. LiteLLM をインストール: pip install litellm
  2. プロキシを起動:
Terminal window
litellm --model bedrock/anthropic.claude-sonnet-4-20250514-v2:0
  1. Claudex を設定:
[[profiles]]
name = "bedrock"
provider_type = "OpenAICompatible"
base_url = "http://localhost:4000/v1"
api_key = "sk-litellm"
default_model = "bedrock/anthropic.claude-sonnet-4-20250514-v2:0"

OAuth 認証により、別途 API キーを取得せず既存のプロバイダーサブスクリプション(ChatGPT Plus、Claude Max など)を使用できます。

Claude Code のネイティブ OAuth セッションを通じて既存の Claude サブスクリプションを使用します。

前提条件: Claude Code がインストールされてログイン済み(claude コマンドが正常に動作すること)

[[profiles]]
name = "claude-max"
provider_type = "DirectAnthropic"
base_url = "https://api.claude.ai"
default_model = "claude-sonnet-4-20250514"
auth_type = "oauth"
oauth_provider = "claude"
[profiles.models]
haiku = "claude-haiku-4-20250514"
sonnet = "claude-sonnet-4-20250514"
opus = "claude-opus-4-20250514"

Codex CLI トークンを通じて ChatGPT Plus または Pro サブスクリプションを使用します。

前提条件: Codex CLI をインストールして認証します:

Terminal window
# Codex CLI をインストール
npm install -g @openai/codex
# 認証(ブラウザが開きます)
codex auth

次に Claudex を設定します:

[[profiles]]
name = "codex-sub"
provider_type = "OpenAIResponses"
base_url = "https://chatgpt.com/backend-api/codex"
default_model = "gpt-5.3-codex"
auth_type = "oauth"
oauth_provider = "openai"
[profiles.models]
haiku = "codex-mini-latest"
sonnet = "gpt-5.3-codex"
opus = "gpt-5.3-codex"
Terminal window
# Codex CLI からトークンを読み取る
claudex auth login openai --profile codex-sub
# 確認
claudex auth status
# 実行
claudex run codex-sub

Gemini CLI のクレデンシャル経由で Google アカウントを使用します。

[[profiles]]
name = "gemini-sub"
provider_type = "OpenAICompatible"
base_url = "https://generativelanguage.googleapis.com/v1beta/openai"
default_model = "gemini-2.5-pro"
auth_type = "oauth"
oauth_provider = "google"
[profiles.models]
haiku = "gemini-2.0-flash"
sonnet = "gemini-2.5-pro"
opus = "gemini-2.5-pro"
Terminal window
# Gemini CLI のクレデンシャルから読み取ってログイン
claudex auth login google --profile gemini-sub
# 確認
claudex auth status

OAuth デバイスコードフローを通じて Qwen アカウントを使用します。

[[profiles]]
name = "qwen-oauth"
provider_type = "OpenAICompatible"
base_url = "https://chat.qwen.ai/api"
default_model = "qwen3-235b-a22b"
auth_type = "oauth"
oauth_provider = "qwen"
Terminal window
# デバイスコードフローを開始
claudex auth login qwen --profile qwen-oauth
# 確認
claudex auth status

Kimi CLI のクレデンシャル経由で Kimi アカウントを使用します。

[[profiles]]
name = "kimi-oauth"
provider_type = "OpenAICompatible"
base_url = "https://api.moonshot.cn/v1"
default_model = "moonshot-v1-128k"
auth_type = "oauth"
oauth_provider = "kimi"
Terminal window
# Kimi CLI のクレデンシャルから読み取ってログイン
claudex auth login kimi --profile kimi-oauth
# 確認
claudex auth status

OAuth デバイスコードフローを通じて GitHub Copilot サブスクリプションを使用します。

[[profiles]]
name = "copilot"
provider_type = "OpenAICompatible"
base_url = "https://api.githubcopilot.com"
default_model = "gpt-4o"
auth_type = "oauth"
oauth_provider = "github"
Terminal window
# デバイスコードフローを開始(GitHub ログイン用のブラウザが開きます)
claudex auth login github --profile copilot
# 確認
claudex auth status

パーソナルアクセストークンを通じて GitLab Duo サブスクリプションを使用します。

[[profiles]]
name = "gitlab-duo"
provider_type = "OpenAICompatible"
base_url = "https://gitlab.com/api/v4/ai/llm/proxy"
default_model = "claude-sonnet-4-20250514"
auth_type = "oauth"
oauth_provider = "gitlab"
Terminal window
# GitLab トークンを環境変数として設定
export GITLAB_TOKEN=glpat-...
# ログイン
claudex auth login gitlab --profile gitlab-duo
# 確認
claudex auth status
  1. Ollama をインストール: ollama.com
  2. モデルをダウンロード:
Terminal window
ollama pull qwen2.5:72b
  1. Claudex を設定:
[[profiles]]
name = "local-qwen"
provider_type = "OpenAICompatible"
base_url = "http://localhost:11434/v1"
api_key = ""
default_model = "qwen2.5:72b"
Terminal window
claudex profile test local-qwen
  1. vLLM をインストールして起動:
Terminal window
pip install vllm
vllm serve meta-llama/Llama-3.3-70B-Instruct --port 8000
  1. Claudex を設定:
[[profiles]]
name = "local-llama"
provider_type = "OpenAICompatible"
base_url = "http://localhost:8000/v1"
api_key = ""
default_model = "meta-llama/Llama-3.3-70B-Instruct"
  1. lmstudio.ai から LM Studio をダウンロード
  2. モデルをロードしてローカルサーバーを起動(デフォルトポート: 1234)
[[profiles]]
name = "lm-studio"
provider_type = "OpenAICompatible"
base_url = "http://localhost:1234/v1"
api_key = "lm-studio"
default_model = "local-model"

プロバイダーを設定したら、接続を確認してください:

Terminal window
# 特定のプロファイルをテスト
claudex profile test <profile-name>
# すべてのプロファイルをテスト
claudex profile test all
# 設定済みのすべてのプロファイルを一覧表示
claudex profile list