이 영상의 문제의식은 단순합니다. Claude Code의 1M 토큰 컨텍스트 윈도우가 생겼는데도, 체감상 한도는 오히려 더 빨리 닳는다는 것입니다. 발표자는 팀이 매일 Claude Code를 쓰면서 최근 몇 주 동안 한도가 너무 빨리 소진되는 문제를 겪었고, 그래서 세션 길이를 늘리고 토큰 소모를 줄이는 방법을 체계적으로 정리하게 됐다고 설명합니다. 0:00 0:13
더보기
이 영상은 LLM Wiki 개념 자체를 처음 소개하는 데서 멈추지 않고, 왜 이 패턴이 실제 토큰 비용을 크게 줄이는지 를 숫자와 운영 팁으로 설명합니다. 발표자는 문서 383개를 그대로 읽히면 세션 시작에 47,000토큰이 들었지만, 같은 자료를 LLM Wiki 방식으로 정리하니 7,700토큰으로 줄었고, 결과적으로 84% 절감이 가능했다고 말합니다. 0:00 5:30
더보기
2026년 4월 9일 공개된 Advisor Tool 은 최근 Claude 플랫폼 업데이트 중에서도 꽤 방향성이 분명한 기능입니다. 핵심은 더 큰 모델을 항상 전면에 세우는 대신, Sonnet이나 Haiku가 메인 실행을 맡고 정말 어려운 순간에만 Opus에게 자문을 구하게 한다 는 점입니다. Claude 공식 블로그는 이를 advisor strategy 라고 부르며, “near Opus-level intelligence” 를 “a fraction of the cost” 로 가져오는 패턴이라고 설명합니다. Claude 공식 블로그
더보기
이 스레드가 흥미로운 이유는 “Claude Code 대신 GPT를 써라”가 아니라, Claude Code의 작업 환경은 그대로 두고 모델만 바꿔 붙일 수 있다 는 감각을 보여 주기 때문입니다. 작성자는 Claude Code 토큰이 빠르게 소진되는 상황에서, 기존에는 MCP로 GPT와 왕복했지만 그 역시 토큰과 세팅 비용이 들었고, 대신 VibeProxy 를 쓰면 Claude Code의 UI·설정·CLAUDE.md 를 그대로 유지하면서 모델만 GPT-5.4 로 바꿔 쓸 수 있다고 설명합니다. Threads 원문 Jina Reader 추출
더보기
Threads에서 자주 보이는 AI 개발 도구 포스트 중에는 문장 하나만으로 사람을 멈추게 만드는 것들이 있습니다. 이번 글의 출발점도 그렇습니다. “Claude가 이제 여러분의 전체 모바일 앱을 구축할 수 있다. Apple 수준의 개발자처럼, 몇 분 만에, 무료로 가능하다”는 식의 짧고 강한 문장입니다. Threads 원문 Jina Reader 추출
더보기
이 영상의 핵심은 “RAG를 더 잘 튜닝하는 법”이 아니라, 아예 벡터와 청킹을 전제로 하지 않는 RAG를 Codex로 빠르게 조립하는 법 에 있습니다. 발표자는 전통적인 vector-based RAG가 문서를 잘게 자르고 임베딩으로 바꾼 뒤 벡터 DB에서 유사도 검색을 하는 방식이라고 먼저 정리한 다음, PageIndex는 문서의 트리 구조 인덱스를 만들고 추론 기반 검색을 수행하는 vectorless RAG 라고 소개합니다. 0:01 1:23
더보기
agent-skills 저장소가 눈에 띄는 이유는 좋은 프롬프트를 몇 개 모아 둔 프로젝트처럼 보이면서도, 실제로는 훨씬 더 넓은 범위를 다루기 때문입니다. README는 이 저장소를 “AI coding agents를 위한 production-grade engineering skills” 라고 소개하며, 아이디어 정제부터 배포까지 개발 생명주기 전체를 7개의 slash command와 19개의 skill로 구조화합니다. GitHub README GitHub API
더보기