이 Threads 스레드는 꽤 강한 문장으로 시작합니다. Karpathy가 AI 코딩의 문제점을 짚었고, 누군가가 그것을 CLAUDE.md 한 파일로 해결했다는 것입니다. 실제로 링크된 forrestchang/andrej-karpathy-skills 저장소 README를 보면 이 프로젝트는 “A single CLAUDE.md file to improve Claude Code behavior” 라고 자신을 설명합니다. 즉 이 저장소의 핵심은 새 모델도, 긴 프롬프트 묶음도 아니라, 한 장의 규칙 문서로 에이전트 행동 편향을 바꾸려는 시도 입니다. Threads 원문 Jina Reader 추출 GitHub README 더보기

이 영상의 문제의식은 단순합니다. Claude Code의 1M 토큰 컨텍스트 윈도우가 생겼는데도, 체감상 한도는 오히려 더 빨리 닳는다는 것입니다. 발표자는 팀이 매일 Claude Code를 쓰면서 최근 몇 주 동안 한도가 너무 빨리 소진되는 문제를 겪었고, 그래서 세션 길이를 늘리고 토큰 소모를 줄이는 방법을 체계적으로 정리하게 됐다고 설명합니다. 0:00 0:13 더보기

이 영상이 던지는 문제는 간단하지만 꽤 아픕니다. 대부분의 사람은 전문가 콘텐츠를 소비하고도 실제 행동은 거의 바꾸지 않습니다. 영상은 그 이유를 “학습은 했지만 루프를 닫지 못했기 때문”이라고 설명합니다. NotebookLM은 전문가 지식을 인용과 함께 정리해 주지만, 그다음에 무엇을 실험하고, 언제 실행하고, 어떻게 복기할지 까지는 책임지지 않는다는 것입니다. 0:00 4:51 더보기

이 영상은 LLM Wiki 개념 자체를 처음 소개하는 데서 멈추지 않고, 왜 이 패턴이 실제 토큰 비용을 크게 줄이는지 를 숫자와 운영 팁으로 설명합니다. 발표자는 문서 383개를 그대로 읽히면 세션 시작에 47,000토큰이 들었지만, 같은 자료를 LLM Wiki 방식으로 정리하니 7,700토큰으로 줄었고, 결과적으로 84% 절감이 가능했다고 말합니다. 0:00 5:30 더보기

이 스레드가 흥미로운 이유는 “Claude Code 대신 GPT를 써라”가 아니라, Claude Code의 작업 환경은 그대로 두고 모델만 바꿔 붙일 수 있다 는 감각을 보여 주기 때문입니다. 작성자는 Claude Code 토큰이 빠르게 소진되는 상황에서, 기존에는 MCP로 GPT와 왕복했지만 그 역시 토큰과 세팅 비용이 들었고, 대신 VibeProxy 를 쓰면 Claude Code의 UI·설정·CLAUDE.md 를 그대로 유지하면서 모델만 GPT-5.4 로 바꿔 쓸 수 있다고 설명합니다. Threads 원문 Jina Reader 추출 더보기

Claude Code를 매일 쓰다 보면 토큰이 “코드를 많이 만들어서”가 아니라, 이상하게도 금방 바닥나는 순간을 자주 겪게 됩니다. 이 Threads 스레드는 그 원인을 꽤 직설적으로 설명합니다. 문제는 코드 생성 자체보다 git status, 테스트 로그, 디렉터리 목록 같은 잡음성 출력과 기본 컨텍스트 오버헤드 라는 것입니다. 작성자는 30분 세션에 CLI 명령어를 60개 정도 실행하면 터미널 출력만으로 약 21만 토큰이 소모될 수 있다고 지적합니다. 원문 스레드 더보기

LightRAG를 한 번 써 본 사람이라면 금방 부딪히는 한계가 있습니다. 텍스트 문서는 잘 다루지만, 스캔 PDF나 이미지가 섞인 보고서, 차트와 그래프가 많은 문서는 갑자기 처리 난도가 올라간다는 점입니다. 이 영상은 그 빈칸을 메우는 방법으로 RAG-Anything 를 소개합니다. 핵심은 새로운 RAG를 처음부터 다시 만드는 것이 아니라, LightRAG 위에 멀티모달 문서 처리 레이어를 하나 더 얹는 방식 이라는 데 있습니다. 0:48 1:03 더보기