신규하 블로그

개발 기록 보관소

Daniel Saewitz의 “Tests Are The New Moat"는 AI가 코드 작성 비용을 급격히 낮춘 환경에서, 오픈소스의 경쟁력이 어디로 이동하는지 짚습니다. 핵심 주장은 단순합니다. 문서와 API 계약, 그리고 특히 테스트가 잘 정리된 프로젝트일수록, 경쟁자가 동일한 인터페이스를 다른 기반 위에 빠르게 재구현할 수 있다는 것입니다. 이 글은 그 주장을 Cloudflare vinext 사례, SQLite 테스트 전략, tldraw 이슈까지 연결해 상업 오픈소스의 딜레마를 보여줍니다. 더보기

이번 글은 아래 5개 공식 링크를 기준으로 Claude Code의 핵심 업데이트를 “기능 소개"가 아니라 “운영 설계” 관점에서 다시 정리한 문서입니다. 특히 Memory, Skills, Remote Control, Ralph Loop를 각각 이해한 뒤, 마지막에 하나의 루프로 합치는 방법까지 다룹니다. 문서 확인 시점은 2026-03-02 입니다. 더보기

Intro 코딩 에이전트를 여러 개 병행해서 쓰기 시작하면, 규칙 파일이 가장 먼저 운영 비용으로 돌아옵니다. 어떤 도구는 CLAUDE.md, 어떤 도구는 자체 규칙 포맷을 요구하다 보니, 같은 팀 규칙이 파일 이름만 바꿔 중복 관리되는 상황이 반복됩니다. 이번 영상은 이 문제를 AGENTS.md라는 공통 규칙 파일로 정리하자는 제안이며, 핵심은 “파일을 하나 더 늘리는 것"이 아니라 “규칙의 기준면을 하나로 맞추는 것"입니다. 더보기

Intro AGENTS.md 같은 저장소 수준 컨텍스트 파일은 이제 많은 팀의 기본 관행이 되었습니다. 하지만 “권장된다"는 사실과 “실제로 성능이 좋아진다"는 사실은 다를 수 있습니다. 이 글은 Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?(arXiv:2602.11988v1)의 실험 설계와 결과를 중심으로, 언제 컨텍스트 파일이 도움이 되고 언제 오히려 비용만 키우는지 정리합니다. 더보기

Chain-of-Thought(CoT) 는 정확도를 올리지만, 추론 토큰이 길어질수록 지연과 비용이 함께 증가합니다. 이 논문은 이 문제를 “모델 가중치"가 아니라 “시스템 프롬프트"에 추론 규칙을 컴파일하는 방식으로 풀며, 이를 Prompt-Level Distillation(PLD) 이라고 정의합니다 (근거: https://arxiv.org/html/2602.21103v1#S1, https://arxiv.org/html/2602.21103v1#S3). 더보기

복잡한 작업에서 바이브 코딩이 흔들리는 이유는 모델이 코드를 못 써서가 아니라, 무엇을 써야 하는지 결정하는 단계와 실제 타이핑 단계가 섞이기 때문입니다. 이 영상은 그 문제를 “기획과 코딩의 분리"라는 단일 원칙으로 정리하고, 이를 문서 기반 루프로 실행하는 방법을 보여줍니다 (근거: t=55, t=63). 더보기

최근 LLM 기반 트레이딩 연구는 에이전트 수를 늘리는 데서 한 단계 더 나아가, 각 에이전트가 실제로 어떤 단위 작업을 수행해야 하는지까지 설계하는 방향으로 이동하고 있습니다. 이 논문은 바로 그 지점을 검증하며, “역할 이름"만 주는 coarse-grained 프롬프트보다, 분석 단계를 잘게 쪼갠 fine-grained 프롬프트가 위험 조정 수익률과 중간 추론 품질을 함께 개선한다고 보고합니다. 더보기