이 영상의 문제의식은 단순합니다. Claude Code의 1M 토큰 컨텍스트 윈도우가 생겼는데도, 체감상 한도는 오히려 더 빨리 닳는다는 것입니다. 발표자는 팀이 매일 Claude Code를 쓰면서 최근 몇 주 동안 한도가 너무 빨리 소진되는 문제를 겪었고, 그래서 세션 길이를 늘리고 토큰 소모를 줄이는 방법을 체계적으로 정리하게 됐다고 설명합니다. 0:00 0:13 더보기

이 영상은 LLM Wiki 개념 자체를 처음 소개하는 데서 멈추지 않고, 왜 이 패턴이 실제 토큰 비용을 크게 줄이는지 를 숫자와 운영 팁으로 설명합니다. 발표자는 문서 383개를 그대로 읽히면 세션 시작에 47,000토큰이 들었지만, 같은 자료를 LLM Wiki 방식으로 정리하니 7,700토큰으로 줄었고, 결과적으로 84% 절감이 가능했다고 말합니다. 0:00 5:30 더보기

이 스레드가 흥미로운 이유는 “Claude Code 대신 GPT를 써라”가 아니라, Claude Code의 작업 환경은 그대로 두고 모델만 바꿔 붙일 수 있다 는 감각을 보여 주기 때문입니다. 작성자는 Claude Code 토큰이 빠르게 소진되는 상황에서, 기존에는 MCP로 GPT와 왕복했지만 그 역시 토큰과 세팅 비용이 들었고, 대신 VibeProxy 를 쓰면 Claude Code의 UI·설정·CLAUDE.md 를 그대로 유지하면서 모델만 GPT-5.4 로 바꿔 쓸 수 있다고 설명합니다. Threads 원문 Jina Reader 추출 더보기

Threads에서 자주 보이는 AI 개발 도구 포스트 중에는 문장 하나만으로 사람을 멈추게 만드는 것들이 있습니다. 이번 글의 출발점도 그렇습니다. “Claude가 이제 여러분의 전체 모바일 앱을 구축할 수 있다. Apple 수준의 개발자처럼, 몇 분 만에, 무료로 가능하다”는 식의 짧고 강한 문장입니다. Threads 원문 Jina Reader 추출 더보기

이 영상의 핵심은 “RAG를 더 잘 튜닝하는 법”이 아니라, 아예 벡터와 청킹을 전제로 하지 않는 RAG를 Codex로 빠르게 조립하는 법 에 있습니다. 발표자는 전통적인 vector-based RAG가 문서를 잘게 자르고 임베딩으로 바꾼 뒤 벡터 DB에서 유사도 검색을 하는 방식이라고 먼저 정리한 다음, PageIndex는 문서의 트리 구조 인덱스를 만들고 추론 기반 검색을 수행하는 vectorless RAG 라고 소개합니다. 0:01 1:23 더보기

agent-skills 저장소가 눈에 띄는 이유는 좋은 프롬프트를 몇 개 모아 둔 프로젝트처럼 보이면서도, 실제로는 훨씬 더 넓은 범위를 다루기 때문입니다. README는 이 저장소를 “AI coding agents를 위한 production-grade engineering skills” 라고 소개하며, 아이디어 정제부터 배포까지 개발 생명주기 전체를 7개의 slash command와 19개의 skill로 구조화합니다. GitHub README GitHub API 더보기

Claude Code를 매일 쓰다 보면 토큰이 “코드를 많이 만들어서”가 아니라, 이상하게도 금방 바닥나는 순간을 자주 겪게 됩니다. 이 Threads 스레드는 그 원인을 꽤 직설적으로 설명합니다. 문제는 코드 생성 자체보다 git status, 테스트 로그, 디렉터리 목록 같은 잡음성 출력과 기본 컨텍스트 오버헤드 라는 것입니다. 작성자는 30분 세션에 CLI 명령어를 60개 정도 실행하면 터미널 출력만으로 약 21만 토큰이 소모될 수 있다고 지적합니다. 원문 스레드 더보기