“CLAUDE.md를 열심히 쓰면 에이전트가 더 똑똑해질 것"이라는 직관은 꽤 강합니다. 하지만 영상에서 소개된 논의는 반대 방향의 경고를 던집니다. 핵심은 컨텍스트 파일의 존재 자체가 아니라, 현재 작업과 무관한 지시가 상시 주입되는 구조가 탐색 비용과 추론 비용을 밀어 올릴 수 있다는 점입니다. 더보기

에이전트형 제품에서 성능과 원가를 동시에 안정화하려면, 모델 성능만이 아니라 요청 구조 자체를 캐시 친화적으로 설계해야 합니다. 이번 글은 https://x.com/trq212/status/2024574133011673516에 공개된 Claude Code 프롬프트 캐싱 레슨을 중심으로, 공식 문서와 대조해 재현 가능한 규칙만 추려서 정리합니다. 더보기

당신이 회사에서 가장 비싼 고액 연봉의 컨설턴트를 고용했다고 상상해보세요. 그런데 100페이지짜리 방대한 PDF 문서를 그 컨설턴트 앞에 던져주며 “이걸 읽고 요약해줘"라고 요청합니다. 비싼 시간당 비용을 내면서 말이죠. 이것이 지금 대부분의 AI 서비스가 범하고 있는 실수입니다. 대용량 파일을 고성능 AI 모델에 직접 업로드하면 비용은 폭등하고, 정작 중요한 핵심 내용은 누락되기 쉽습니다. 더 나은 방법이 있습니다. 두 개의 AI 시스템을 역할 분담시키는 것입니다. 저렴하고 빠른 AI가 파일을 읽고 요약하면, 고성능 AI가 그 요약만 받아서 정확한 답변을 제공합니다. 이 글에서는 왜 파일 직접 업로드가 문제인지, 그리고 두 개의 AI를 활용해 비용을 절감하고 성능을 향상시키는 구체적인 방법을 소개합니다. 더보기

CLAUDE.md는 Claude Code에서 단순한 메모 파일이 아니라, 세션마다 재주입되는 작업 기준 문서입니다. 그래서 이 파일의 밀도가 낮으면 매번 같은 실수가 반복되고, 반대로 핵심만 압축하면 결과 품질이 빠르게 안정됩니다. 이 글은 공식 문서에서 확인 가능한 사실과 커뮤니티 실전 패턴을 분리해, 바로 복붙 가능한 운영 형태로 재구성합니다. 더보기