신규하 블로그

개발 기록 보관소

에이전트형 제품에서 성능과 원가를 동시에 안정화하려면, 모델 성능만이 아니라 요청 구조 자체를 캐시 친화적으로 설계해야 합니다. 이번 글은 https://x.com/trq212/status/2024574133011673516에 공개된 Claude Code 프롬프트 캐싱 레슨을 중심으로, 공식 문서와 대조해 재현 가능한 규칙만 추려서 정리합니다. 더보기

Claude Code를 여러 개 동시에 돌리면 생산성이 크게 오르지만, 같은 작업 디렉터리에서 병렬 실행하면 파일 충돌과 컨텍스트 꼬임이 빠르게 발생합니다. 최근 Threads에서 공유된 qjc.ai의 7개 연속 포스트는 이 문제를 git worktree + claude -w 조합으로 풀어내는 실전 감각을 잘 보여줬습니다. 이 글은 해당 스레드 내용을 그대로 요약하는 데서 끝내지 않고, Anthropic 공식 문서와 교차 검증해서 지금 바로 재현 가능한 패턴과 검증이 필요한 주장을 분리해 정리합니다. 더보기

당신이 회사에서 가장 비싼 고액 연봉의 컨설턴트를 고용했다고 상상해보세요. 그런데 100페이지짜리 방대한 PDF 문서를 그 컨설턴트 앞에 던져주며 “이걸 읽고 요약해줘"라고 요청합니다. 비싼 시간당 비용을 내면서 말이죠. 이것이 지금 대부분의 AI 서비스가 범하고 있는 실수입니다. 대용량 파일을 고성능 AI 모델에 직접 업로드하면 비용은 폭등하고, 정작 중요한 핵심 내용은 누락되기 쉽습니다. 더 나은 방법이 있습니다. 두 개의 AI 시스템을 역할 분담시키는 것입니다. 저렴하고 빠른 AI가 파일을 읽고 요약하면, 고성능 AI가 그 요약만 받아서 정확한 답변을 제공합니다. 이 글에서는 왜 파일 직접 업로드가 문제인지, 그리고 두 개의 AI를 활용해 비용을 절감하고 성능을 향상시키는 구체적인 방법을 소개합니다. 더보기

CLAUDE.md는 Claude Code에서 단순한 메모 파일이 아니라, 세션마다 재주입되는 작업 기준 문서입니다. 그래서 이 파일의 밀도가 낮으면 매번 같은 실수가 반복되고, 반대로 핵심만 압축하면 결과 품질이 빠르게 안정됩니다. 이 글은 공식 문서에서 확인 가능한 사실과 커뮤니티 실전 패턴을 분리해, 바로 복붙 가능한 운영 형태로 재구성합니다. 더보기