신규하 블로그

개발 기록 보관소

Context Mode의 README 첫 문장은 꽤 정확하다. The other half of the context problem. 많은 사람이 컨텍스트 문제를 “긴 대화”로만 생각하지만, 이 프로젝트는 다른 절반을 찌른다. 도구 출력이 너무 크고 그 출력이 문맥창을 오염시키고 압축 이후에는 에이전트가 무엇을 하던 중이었는지 잊어버린다 즉 Context Mode는 단순 토큰 절감기가 아니라, 도구 샌드박싱과 세션 연속성을 묶어 컨텍스트 위생을 관리하는 레이어에 가깝다. 더보기

이 영상의 포인트는 “Claude를 덜 써라”가 아니다. 오히려 정반대다. 같은 사용량으로도 usage limit를 덜 맞게 하려면, 대화 앞단에 실리는 컨텍스트와 MCP 오버헤드를 줄여야 한다는 주장이다. 즉 병목은 질문 횟수만이 아니라, 세션이 어떤 무게로 시작하느냐에 있다. 더보기

Threads가 던진 첫 문장은 가격이다. 월 1달러짜리 코딩 에이전트 하지만 진짜 흥미로운 포인트는 가격이 아니라 그 뒤에 붙은 설명이다. 도구가 사용자의 코딩 방식 자체를 학습한다. 이 한 줄 때문에 Command Code는 단순히 “싼 OpenCode 대안”이 아니라, Rules 대신 Taste를 축적하는 코딩 에이전트로 보이기 시작한다. 더보기

Threads의 문장은 짧지만 꽤 강하다. AI 에이전트 하나가 텔레그램, 디스코드, 슬랙, 왓츠앱 등 17개 메신저를 동시에 굴린다. 그리고 정작 많은 사용자는 Hermes의 작은 일부만 쓴다는 주장도 붙는다. 이 메시지가 중요한 이유는, Hermes의 본질을 “또 하나의 AI 앱”이 아니라 메시징 접근 레이어를 가진 Agent runtime으로 보게 만들기 때문이다. 더보기

Rapid-MLX의 README는 꽤 도발적이다. The fastest local AI engine for Apple Silicon 4.2x faster than Ollama 0.08s cached TTFT 100% tool calling Drop-in OpenAI replacement 이 저장소가 흥미로운 이유는 단순히 “Mac에서 모델을 돌린다”가 아니라, Apple Silicon 위에서 에이전트 하네스를 가장 빠르게 붙일 수 있는 로컬 백엔드를 노리기 때문이다. 더보기

이 사이트의 제목은 직설적이다. 개인 주식 트레이딩 AI 비서 구축 가이드 하지만 내용을 보면 핵심은 “주식 챗봇 만들기”가 아니다. 오히려 매일 데이터를 보고, 근거를 남기고, Discord에 정해진 형식으로 보고하는 개인용 투자 운영 시스템을 만드는 데 더 가깝다. 더보기