이 영상의 문제의식은 단순합니다. Claude Code의 1M 토큰 컨텍스트 윈도우가 생겼는데도, 체감상 한도는 오히려 더 빨리 닳는다는 것입니다. 발표자는 팀이 매일 Claude Code를 쓰면서 최근 몇 주 동안 한도가 너무 빨리 소진되는 문제를 겪었고, 그래서 세션 길이를 늘리고 토큰 소모를 줄이는 방법을 체계적으로 정리하게 됐다고 설명합니다. 0:00 0:13
더보기
noapi-google-search-mcp 가 흥미로운 이유는 이름 그대로입니다. 보통 로컬 LLM이나 Claude Desktop 같은 MCP 클라이언트에 검색 기능을 붙이려면 Google API 키, Custom Search Engine 설정, 사용량 제한 같은 관문부터 통과해야 합니다. 그런데 이 프로젝트는 브라우저가 직접 Google을 방문하는 방식으로 그 절차를 우회 하려 합니다. PyTorchKR 포럼 글도 이 점을 핵심으로 소개합니다. PyTorchKR 포럼
더보기
이 영상이 던지는 문제는 간단하지만 꽤 아픕니다. 대부분의 사람은 전문가 콘텐츠를 소비하고도 실제 행동은 거의 바꾸지 않습니다. 영상은 그 이유를 “학습은 했지만 루프를 닫지 못했기 때문”이라고 설명합니다. NotebookLM은 전문가 지식을 인용과 함께 정리해 주지만, 그다음에 무엇을 실험하고, 언제 실행하고, 어떻게 복기할지 까지는 책임지지 않는다는 것입니다. 0:00 4:51
더보기
AI로 발표 자료를 만들 때 늘 부딪히는 문제는 ‘슬라이드가 만들어진다’와 ‘슬라이드가 의도적으로 디자인되어 보인다’ 사이의 차이입니다. pptx-design-styles 저장소가 흥미로운 이유는 바로 이 간극을 메우려 하기 때문입니다. 이 프로젝트는 PPTX 파일을 직접 생성하는 엔진이라기보다, PPTX를 만들 때 어떤 미감 규칙을 따라야 하는지를 스킬 형태로 패키징한 디자인 레이어 에 가깝습니다. GitHub README raw README
더보기
이 영상은 LLM Wiki 개념 자체를 처음 소개하는 데서 멈추지 않고, 왜 이 패턴이 실제 토큰 비용을 크게 줄이는지 를 숫자와 운영 팁으로 설명합니다. 발표자는 문서 383개를 그대로 읽히면 세션 시작에 47,000토큰이 들었지만, 같은 자료를 LLM Wiki 방식으로 정리하니 7,700토큰으로 줄었고, 결과적으로 84% 절감이 가능했다고 말합니다. 0:00 5:30
더보기
2026년 4월 9일 공개된 Advisor Tool 은 최근 Claude 플랫폼 업데이트 중에서도 꽤 방향성이 분명한 기능입니다. 핵심은 더 큰 모델을 항상 전면에 세우는 대신, Sonnet이나 Haiku가 메인 실행을 맡고 정말 어려운 순간에만 Opus에게 자문을 구하게 한다 는 점입니다. Claude 공식 블로그는 이를 advisor strategy 라고 부르며, “near Opus-level intelligence” 를 “a fraction of the cost” 로 가져오는 패턴이라고 설명합니다. Claude 공식 블로그
더보기
이 스레드가 흥미로운 이유는 “Claude Code 대신 GPT를 써라”가 아니라, Claude Code의 작업 환경은 그대로 두고 모델만 바꿔 붙일 수 있다 는 감각을 보여 주기 때문입니다. 작성자는 Claude Code 토큰이 빠르게 소진되는 상황에서, 기존에는 MCP로 GPT와 왕복했지만 그 역시 토큰과 세팅 비용이 들었고, 대신 VibeProxy 를 쓰면 Claude Code의 UI·설정·CLAUDE.md 를 그대로 유지하면서 모델만 GPT-5.4 로 바꿔 쓸 수 있다고 설명합니다. Threads 원문 Jina Reader 추출
더보기