Zum Inhalt springen

Claudex

Claude Code mit jedem KI-Anbieter verwenden — Grok, ChatGPT, DeepSeek, Gemini, Kimi, GLM, Ollama, Azure, Groq, Mistral und 20+ weitere.

Uebersetzungsproxy

Automatische Protokolluebersetzung von Anthropic nach OpenAI. Claude Code mit ueber 20 Anbietern verwenden, darunter Grok, ChatGPT, DeepSeek, Gemini, Kimi, GLM, Azure OpenAI, Groq, Mistral, Together AI, Perplexity, Cerebras und jeder OpenAI-kompatible Endpunkt.

Circuit Breaker

Circuit Breaker pro Profil mit automatischem Failover zu Backup-Anbietern. Konfigurierbare Fehlerschwellenwerte, Wiederherstellungs-Timeouts und OAuth-401-Wiederholung mit Token-Aktualisierung.

Intelligentes Routing

Absichtsbasiertes automatisches Routing ueber einen lokalen Klassifikator. Ordnet Code-, Analyse-, Kreativ-, Such- und Mathematikaufgaben automatisch dem optimalen Anbieterprofil zu.

Kontext-Engine

Konversationskomprimierung, profiluebergreifende Kontextfreigabe und lokales RAG mit Einbettungen. KI-Interaktionen mit reichhaltigerem Kontext verbessern.

TUI-Dashboard

Echtzeit-Terminal-Dashboard mit Profilzustand, Anfragemetriken, Protokollen und Schnellstart-Funktionen. Vollstaendige Tastaturnavigation.

Selbstaktualisierung

Ein Befehl zum Pruefen und Installieren der neuesten Version direkt von GitHub Releases. Muehelos aktuell bleiben.

OAuth-Abonnements

Vorhandene Claude-, ChatGPT-, Google-, Qwen-, Kimi-, GitHub Copilot- oder GitLab Duo-Abonnements verwenden. Unterstuetzt Browser-PKCE, Device-Code-Flow und Credential Chain aus nativen CLIs.

Konfigurationssets

Wiederverwendbare Pakete aus CLAUDE.md-Regeln, Skills und MCP-Servern installieren und verwalten mit claudex sets add. Versionierte Manifeste mit Konflikterkennung.

Terminal-Hyperlinks

OSC-8-klickbare Hyperlinks in der Terminalausgabe. Automatische Erkennung der Terminalunterstuetzung (iTerm, WezTerm, Kitty, Ghostty, VS Code, Windows Terminal) mit PTY-Proxy-Modus.

Modell-Slot-Zuordnung

Den /model-Umschalter von Claude Code (haiku, sonnet, opus) ueber [profiles.models] auf beliebige Anbietermodelle abbilden. Profilspezifische Modellkonfiguration mit Umgebungsvariablen-Ueberschreibung.

Nicht-interaktiver Modus

Einmalige Ausfuehrung mit claudex run <profile> "prompt" --print. Ideal fuer CI/CD-Pipelines und geskriptete Automatisierung.

Werkzeugname-Kompatibilitaet

Kuerzt Werkzeugnamen automatisch, die laenger als 64 Zeichen sind, fuer OpenAI-Kompatibilitaet, mit transparenter Rundreise-Wiederherstellung bei Antworten.

KategorieAnbieter
Direct AnthropicAnthropic, MiniMax
OpenAI CompatibleGrok (xAI), OpenAI, DeepSeek, Kimi/Moonshot, GLM (Zhipu), OpenRouter, Groq, Mistral, Together AI, Perplexity, Cerebras
Cloud-PlattformenAzure OpenAI, Google Vertex AI
OAuth-AbonnementsClaude Max/Pro, ChatGPT Plus/Pro (Codex), Google Gemini, GitHub Copilot, GitLab Duo, Qwen, Kimi
Lokale ModelleOllama, vLLM, LM Studio, llama.cpp
Via LiteLLMAWS Bedrock und jeder von LiteLLM unterstuetzte Anbieter
Terminal-Fenster
curl -fsSL https://raw.githubusercontent.com/StringKe/claudex/main/install.sh | bash
claudex run grok
├── Start proxy → 127.0.0.1:13456
└── exec claude with:
ANTHROPIC_BASE_URL=http://127.0.0.1:13456/proxy/grok
ANTHROPIC_AUTH_TOKEN=<session-token>
ANTHROPIC_MODEL=grok-3-beta

Der Proxy uebersetzt transparent zwischen den Protokollen von Anthropic und OpenAI, sodass Claude Code nahtlos mit jedem unterstuetzten Anbieter funktioniert. Bei OAuth-Profilen wird ANTHROPIC_AUTH_TOKEN (nicht ANTHROPIC_API_KEY) gesetzt, um Konflikte mit Claudes eigenem Abonnement-Login-Mechanismus zu vermeiden.