겉으로만 보면 bkit 과 GSD(Get Shit Done) 는 비슷해 보입니다. 둘 다 AI 코딩을 더 체계적으로 만들겠다고 말하고, 계획과 실행 사이를 문서와 에이전트로 연결하며, 컨텍스트 엔지니어링이라는 표현도 사용합니다. 하지만 공식 문서를 조금만 깊게 읽어 보면, 두 도구가 실제로 통제하려는 대상은 꽤 다릅니다. bkit 은 Claude Code 안에서 엔지니어링 절차와 검증 규율 을 강하게 밀어 넣는 쪽이고, GSD 는 여러 런타임에서 context rot를 줄이면서 실전 구현을 계속 굴리는 운영 흐름 에 더 가깝습니다. 그래서 중요한 질문은 “어느 쪽이 더 강한가"가 아닙니다. 더 정확한 질문은 AI 코딩에서 내가 지금 가장 줄이고 싶은 실패가 무엇인가 입니다. 요구사항 없이 바로 구현으로 점프하는 문제가 더 큰지, 긴 세션에서 품질이 무너지는 문제가 더 큰지, 혹은 Claude Code 하나에 깊게 최적화할지 여러 런타임을 오갈지가 더 중요한지에 따라 답은 달라집니다. 더보기

Claude Code를 쓰다 보면 금방 느끼는 문제가 있습니다. 코드는 빨리 나오는데, 계획과 설계와 검증이 한 흐름으로 묶이지 않으면 결과가 들쭉날쭉해진다는 점입니다. bkit 은 바로 그 지점을 겨냥한 플러그인입니다. 저장소의 현재 설명대로 보면, 이 도구는 Claude Code 위에 PDCA 방법론, CTO-Led Agent Teams, 자동 문서화, Context Engineering 을 얹어 AI 코딩을 조금 더 “운영 가능한 개발 프로세스"에 가깝게 바꾸려는 시도입니다. 현재 공개 저장소 기준으로 bkit 은 v2.0.6, Apache-2.0 라이선스, 37 Skills, 32 Agents, 18 Hook Events, 57 scripts, 88 lib modules, ~620+ functions를 내세우고 있습니다. 숫자만 많아 보이는 도구처럼 보일 수도 있지만, 핵심은 숫자보다 구조입니다. 이 글에서는 그 구조가 실제로 무엇을 바꾸는지 중심으로 보겠습니다. 더보기

Marmelab의 “Agent Experience” 글이 흥미로운 이유는, 코딩 에이전트의 성능 차이를 모델 자체보다 코드베이스가 얼마나 에이전트 친화적으로 설계되어 있는가 로 설명하기 때문입니다. 글은 “좋은 프롬프트를 어떻게 쓸까” 보다 한 단계 더 들어가서, 에이전트가 검색하고, 이해하고, 실행하고, 검증하는 전 과정을 코드베이스 차원에서 어떻게 돕느냐를 묻습니다. 즉 이 글은 에이전트를 잘 쓰는 법을 말하는 사용법 가이드라기보다, 에이전트가 잘 일할 수 있는 저장소를 만드는 운영 원칙 모음 에 가깝습니다. 다만 이때의 Agent Experience는 아직 널리 합의된 표준 용어라기보다, Developer Experience의 문제의식을 에이전트 실행 환경으로 확장한 실무적 framing으로 보는 편이 더 정확합니다. 특히 대형 프로젝트에서 사람이 반복해서 채팅으로 설명하던 규칙과 문맥을 파일, 테스트, 도구, 훅, 문서로 옮겨 두면 에이전트의 자율성과 정확도가 함께 올라간다는 점을 아주 실무적으로 보여 줍니다. 더보기

Claude Code 생태계를 조금만 깊게 따라가 보면 금방 헷갈립니다. Superpowers, GSD, Spec Kit, OpenSpec, gstack, BMAD, Everything Claude Code, HumanLayer/RPI 가 전부 비슷해 보이는데, 막상 안을 들여다보면 같은 문제를 푸는 방식이 전혀 다릅니다. 2026년 3월 24일 기준으로 shanraisshan/claude-code-best-practice 의 Development Workflows 표가 흥미로운 이유도 여기에 있습니다. 이 표는 여러 시스템을 단순 인기 순위가 아니라, 모두 Research → Plan → Execute → Review → Ship 라는 공통 골격 위에 서 있지만 각자 다른 철학을 얹은 워크플로우 로 읽게 만듭니다. Development Workflows 그래서 이 글에서는 스타 수나 명령 개수보다 작동 방식과 잘 맞는 상황 에 집중합니다. 같은 “AI 코딩 워크플로우” 라고 묶여 있어도, 어떤 것은 테스트 규율을 강하게 밀고, 어떤 것은 명세 문서 체인을 중시하고, 어떤 것은 가상 엔지니어링 팀처럼 병렬 스프린트를 운영하고, 어떤 것은 아예 AI 개발 환경 전체를 하니스 시스템으로 보려 합니다. 결국 중요한 질문은 “무엇이 더 유명한가?” 가 아니라 “내 팀이 지금 어느 실패 패턴을 줄이고 싶은가?” 입니다. 더보기

이 영상이 흥미로운 이유는 “Claude Code 스킬을 어떻게 만들까"를 추상적으로 말하지 않기 때문입니다. 발표자는 Anthropic 팀이 내부에서 수백 개 스킬을 운영하면서 무엇이 실제로 먹히는지 압축해서 보여 줍니다. 그래서 초점은 예쁜 SKILL.md 문서를 쓰는 법이 아니라, 스킬이 왜 자꾸 흐트러지고 어떤 구조로 바꿔야 안정적으로 작동하는지 에 있습니다 (t=0). 영상 전체를 한 문장으로 줄이면 이렇습니다. 스킬은 정적인 프롬프트 파일이 아니라, 실패 기록과 보조 자료와 실행 제약을 함께 묶은 작업 패키지 여야 한다는 것입니다. 이 관점으로 보면 폴더 구조, description, gotchas, hooks, 팀 배포 방식이 모두 하나의 운영 문제로 연결됩니다 (t=22, t=262, t=313). 더보기

gstack가 흥미로운 이유는 “Claude Code에 좋은 프롬프트 몇 개를 얹었다” 수준이 아니기 때문입니다. 이 영상이 보여 주는 핵심은 제품 기획, 엔지니어링 리뷰, QA, 배포, 회고를 각각 다른 역할로 분리해 AI를 한 명의 조수에서 하나의 팀처럼 운영하는 방식 입니다. 발표자는 이를 Garry Tan의 경험과 노하우를 Markdown 스킬로 빌려 오는 느낌이라고 설명하고, 실제로 /plan-ceo-review부터 /retro까지를 하나의 개발 사이클로 묶어 보여 줍니다 (근거: t=120, t=154, t=330). 날짜를 분리해서 보는 것도 중요합니다. 영상 설명란에는 업로드 시점 기준으로 “2.5만 stars” 와 “15개 skills"가 언급되지만, 제가 이 글을 쓴 2026-03-23 시점에 garrytan/gstack 저장소는 이미 4만 star를 넘겼고, 현재 README는 28개 skill을 소개하고 있습니다. 즉, 이 글은 2026-03-19에 공개된 영상의 설명 과 2026-03-23에 확인한 공식 문서의 현재 상태 를 구분해 함께 읽는 방식으로 정리합니다. YouTube Video GitHub Repository README 더보기

이 영상이 흥미로운 이유는 Google Stitch를 “Claude Code의 대체품” 으로 소개하지 않는다는 데 있습니다. 발표자는 오히려 Claude Code의 약점으로 느끼는 프런트엔드 디자인 구간만 Stitch로 먼저 처리하고, 그다음 코드를 Claude Code로 넘겨 제품화하는 식으로 역할을 나눠야 한다고 설명합니다. 즉 핵심은 모델 하나를 바꾸는 것이 아니라, 시작점을 어디에 두느냐를 바꾸는 데 있습니다 (근거: t=24, t=45, t=83, t=117, t=138). 그래서 이 글은 이 영상을 단순한 툴 소개가 아니라 영감 수집 -> Stitch에서 시안과 디자인 시스템 생성 -> 반복 탐색 -> 코드 내보내기 -> Claude Code에서 마무리 라는 워크플로 문서로 읽습니다. 발표자가 계속 강조하는 것도 “완제품을 한 번에 뽑는다” 가 아니라, 시각적 품질이 중요한 초반 탐색을 더 싼 비용과 더 빠른 반복으로 처리한 뒤 Claude Code에서 실제 앱으로 이어 가는 방식입니다 (근거: t=97, t=117, t=138, t=653, t=699, t=725). 더보기