rtk 가 건드리는 문제는 생각보다 본질적입니다. AI 코딩 에이전트가 코드를 못 읽어서 멍청해지는 것이 아니라, 터미널이 쏟아내는 쓸모없는 출력이 컨텍스트를 너무 많이 차지해서 정작 중요한 추론 공간이 줄어든다는 것입니다. 공식 사이트는 이를 “Your AI agent is drowning in CLI noise” 라고 직설적으로 표현합니다. rtk 공식 사이트 더보기

이 영상의 문제의식은 단순합니다. Claude Code의 1M 토큰 컨텍스트 윈도우가 생겼는데도, 체감상 한도는 오히려 더 빨리 닳는다는 것입니다. 발표자는 팀이 매일 Claude Code를 쓰면서 최근 몇 주 동안 한도가 너무 빨리 소진되는 문제를 겪었고, 그래서 세션 길이를 늘리고 토큰 소모를 줄이는 방법을 체계적으로 정리하게 됐다고 설명합니다. 0:00 0:13 더보기

noapi-google-search-mcp 가 흥미로운 이유는 이름 그대로입니다. 보통 로컬 LLM이나 Claude Desktop 같은 MCP 클라이언트에 검색 기능을 붙이려면 Google API 키, Custom Search Engine 설정, 사용량 제한 같은 관문부터 통과해야 합니다. 그런데 이 프로젝트는 브라우저가 직접 Google을 방문하는 방식으로 그 절차를 우회 하려 합니다. PyTorchKR 포럼 글도 이 점을 핵심으로 소개합니다. PyTorchKR 포럼 더보기

이 영상이 던지는 문제는 간단하지만 꽤 아픕니다. 대부분의 사람은 전문가 콘텐츠를 소비하고도 실제 행동은 거의 바꾸지 않습니다. 영상은 그 이유를 “학습은 했지만 루프를 닫지 못했기 때문”이라고 설명합니다. NotebookLM은 전문가 지식을 인용과 함께 정리해 주지만, 그다음에 무엇을 실험하고, 언제 실행하고, 어떻게 복기할지 까지는 책임지지 않는다는 것입니다. 0:00 4:51 더보기

AI로 발표 자료를 만들 때 늘 부딪히는 문제는 ‘슬라이드가 만들어진다’와 ‘슬라이드가 의도적으로 디자인되어 보인다’ 사이의 차이입니다. pptx-design-styles 저장소가 흥미로운 이유는 바로 이 간극을 메우려 하기 때문입니다. 이 프로젝트는 PPTX 파일을 직접 생성하는 엔진이라기보다, PPTX를 만들 때 어떤 미감 규칙을 따라야 하는지를 스킬 형태로 패키징한 디자인 레이어 에 가깝습니다. GitHub README raw README 더보기

이 영상은 LLM Wiki 개념 자체를 처음 소개하는 데서 멈추지 않고, 왜 이 패턴이 실제 토큰 비용을 크게 줄이는지 를 숫자와 운영 팁으로 설명합니다. 발표자는 문서 383개를 그대로 읽히면 세션 시작에 47,000토큰이 들었지만, 같은 자료를 LLM Wiki 방식으로 정리하니 7,700토큰으로 줄었고, 결과적으로 84% 절감이 가능했다고 말합니다. 0:00 5:30 더보기

2026년 4월 9일 공개된 Advisor Tool 은 최근 Claude 플랫폼 업데이트 중에서도 꽤 방향성이 분명한 기능입니다. 핵심은 더 큰 모델을 항상 전면에 세우는 대신, Sonnet이나 Haiku가 메인 실행을 맡고 정말 어려운 순간에만 Opus에게 자문을 구하게 한다 는 점입니다. Claude 공식 블로그는 이를 advisor strategy 라고 부르며, “near Opus-level intelligence” 를 “a fraction of the cost” 로 가져오는 패턴이라고 설명합니다. Claude 공식 블로그 더보기