コンテキストエンジン
コンテキストエンジンは、会話圧縮、プロファイル間コンテキスト共有、ローカル RAG(検索拡張生成)の 3 つのメカニズムを通じて AI とのやり取りを強化します。
会話がトークンしきい値を超えると、Claudex は LLM を使用して古いメッセージを要約し、最近のものをそのまま保持します。
[context.compression]enabled = truethreshold_tokens = 50000 # 合計トークン数がこれを超えると圧縮keep_recent = 10 # 常に最新 N 件のメッセージを保持profile = "openrouter" # プロファイルの base_url + api_key を再利用model = "qwen/qwen-2.5-7b-instruct" # モデルを上書き(任意)動作の仕組み
Section titled “動作の仕組み”- リクエストを転送する前に、Claudex が合計トークン数を推定
- トークン数が
threshold_tokensを超えた場合、古いメッセージ(keep_recentを超えた分)が要約に置き換えられる - 要約は設定されたローカル LLM によって生成される
- 圧縮された会話がプロバイダーに転送される
プロファイル間共有
Section titled “プロファイル間共有”同じセッション内の異なるプロバイダープロファイル間でコンテキストを共有します。
[context.sharing]enabled = truemax_context_size = 2000 # 他のプロファイルから注入する最大トークン数これはタスクの途中でプロバイダーを切り替える際に有用です。以前のやり取りからの関連コンテキストが自動的に含まれます。
ローカル RAG
Section titled “ローカル RAG”検索拡張生成のためにローカルコードとドキュメントをインデックス化します。関連するコードスニペットがリクエストに自動的に注入されます。
[context.rag]enabled = trueindex_paths = ["./src", "./docs"] # インデックス化するディレクトリprofile = "openrouter" # プロファイルの base_url + api_key を再利用model = "openai/text-embedding-3-small" # エンベディングモデルchunk_size = 512 # テキストチャンクサイズtop_k = 5 # 注入する結果数動作の仕組み
Section titled “動作の仕組み”- 起動時に Claudex がエンベディングモデルを使用して
index_paths内のファイルをインデックス化 - 各リクエストに対して、ユーザーのメッセージがエンベディングされインデックスと比較される
- 最も関連性の高い上位 K 件のチャンクがリクエストの追加コンテキストとして注入される
- プロバイダーがコードベースについてより豊かなコンテキストを受け取る