Контекстный движок
Контекстный движок улучшает взаимодействие с AI через три механизма: сжатие диалогов, обмен контекстом между профилями и локальный RAG (Retrieval-Augmented Generation).
Сжатие диалогов
Заголовок раздела «Сжатие диалогов»Когда диалоги превышают пороговое значение токенов, Claudex использует LLM для создания резюме более старых сообщений, сохраняя последние нетронутыми.
[context.compression]enabled = truethreshold_tokens = 50000 # сжимать при превышении этого порога токеновkeep_recent = 10 # всегда сохранять последние N сообщенийprofile = "openrouter" # переиспользовать base_url + api_key из профиляmodel = "qwen/qwen-2.5-7b-instruct" # переопределение модели (опционально)Как это работает
Заголовок раздела «Как это работает»- Перед пересылкой запроса Claudex оценивает общее количество токенов
- Если токенов больше
threshold_tokens, более старые сообщения (сверхkeep_recent) заменяются резюме - Резюме создаётся настроенной локальной LLM
- Сжатый диалог затем пересылается провайдеру
Обмен контекстом между профилями
Заголовок раздела «Обмен контекстом между профилями»Обмен контекстом между разными профилями провайдеров в рамках одной сессии.
[context.sharing]enabled = truemax_context_size = 2000 # максимальное количество токенов для внедрения из других профилейЭто полезно при переключении между провайдерами в середине задачи — релевантный контекст из предыдущих взаимодействий автоматически включается.
Локальный RAG
Заголовок раздела «Локальный RAG»Индексирование локального кода и документации для поисково-дополненной генерации. Релевантные фрагменты кода автоматически внедряются в запросы.
[context.rag]enabled = trueindex_paths = ["./src", "./docs"] # каталоги для индексированияprofile = "openrouter" # переиспользовать base_url + api_key из профиляmodel = "openai/text-embedding-3-small" # модель эмбеддинговchunk_size = 512 # размер фрагмента текстаtop_k = 5 # количество результатов для внедренияКак это работает
Заголовок раздела «Как это работает»- При запуске Claudex индексирует файлы в
index_pathsс использованием модели эмбеддингов - Для каждого запроса сообщение пользователя преобразуется в эмбеддинг и сравнивается с индексом
- Наиболее релевантные top-k фрагментов внедряются как дополнительный контекст в запрос
- Провайдер получает более насыщенный контекст о вашей кодовой базе