컨텍스트 엔진
컨텍스트 엔진은 세 가지 메커니즘을 통해 AI 상호작용을 향상시킵니다: 대화 압축, 프로파일 간 컨텍스트 공유, 로컬 RAG(Retrieval-Augmented Generation).
대화 압축
섹션 제목: “대화 압축”대화가 토큰 임계값을 초과하면, Claudex는 LLM을 사용하여 오래된 메시지를 요약하고 최근 메시지는 그대로 유지합니다.
[context.compression]enabled = truethreshold_tokens = 50000 # 총 토큰이 이 값을 초과하면 압축keep_recent = 10 # 항상 마지막 N개의 메시지 유지profile = "openrouter" # 프로파일의 base_url + api_key 재사용model = "qwen/qwen-2.5-7b-instruct" # 모델 오버라이드 (선택 사항)작동 방식
섹션 제목: “작동 방식”- 요청 전달 전, Claudex가 총 토큰 수를 추정
- 토큰이
threshold_tokens를 초과하면,keep_recent이전의 오래된 메시지가 요약으로 대체 - 설정된 로컬 LLM이 요약 생성
- 압축된 대화가 프로바이더에게 전달
프로파일 간 공유
섹션 제목: “프로파일 간 공유”동일 세션 내에서 서로 다른 프로바이더 프로파일 간에 컨텍스트를 공유합니다.
[context.sharing]enabled = truemax_context_size = 2000 # 다른 프로파일에서 주입할 최대 토큰 수작업 중간에 프로바이더를 전환할 때 유용합니다. 이전 상호작용의 관련 컨텍스트가 자동으로 포함됩니다.
로컬 RAG
섹션 제목: “로컬 RAG”검색 증강 생성을 위해 로컬 코드와 문서를 인덱싱합니다. 관련 코드 스니펫이 요청에 자동으로 주입됩니다.
[context.rag]enabled = trueindex_paths = ["./src", "./docs"] # 인덱싱할 디렉토리profile = "openrouter" # 프로파일의 base_url + api_key 재사용model = "openai/text-embedding-3-small" # 임베딩 모델chunk_size = 512 # 텍스트 청크 크기top_k = 5 # 주입할 결과 수작동 방식
섹션 제목: “작동 방식”- 시작 시 Claudex가 임베딩 모델을 사용하여
index_paths의 파일을 인덱싱 - 각 요청에 대해 사용자 메시지가 임베딩되고 인덱스와 비교
- 가장 관련성이 높은 상위 k개의 청크가 요청에 추가 컨텍스트로 주입
- 프로바이더가 코드베이스에 대한 더 풍부한 컨텍스트를 수신