신규하 블로그

개발 기록 보관소

이 영상의 제목은 “코딩 배우지 마세요” 이지만, 실제로 보여 주는 내용은 코딩이 완전히 필요 없다는 선언에 가깝지 않습니다. 더 정확히 말하면 발표자는 SDK 설치나 Claude Code 문법부터 배우는 대신, Claude 데스크톱 대화창에서 에이전트가 따라야 할 역할 정의, 행동 규칙, 출력 형식을 먼저 말로 설명하고, 그 설명을 실행 가능한 지침 파일로 굳히는 흐름을 보여 줍니다. 즉 핵심은 “코드를 안 쳐도 된다” 가 아니라 “에이전트 명세를 자연어로 먼저 외주화할 수 있다” 에 있습니다 (근거: t=2, t=10, t=12, t=49, t=52, t=57). 그래서 이 글은 이 영상을 “주식 추천 프롬프트” 로 읽지 않고, 자연어 요청이 어떻게 MD 지침 파일, 에이전트 팀, 코워크(Cowork) 실행 컨텍스트, 병렬 리서치, PDF 보고서, 예약 작업으로 이어지는지 정리하는 워크플로 문서로 읽습니다. 영상 후반으로 갈수록 진짜 포인트는 종목명보다 운영 루프에 있습니다. 에이전트 명세 생성 -> 폴더 적재 -> Cowork 실행 -> 병렬 분석 -> 산출물 수정 -> 예약 실행 이라는 루프가 이 영상의 실전 가치입니다 (근거: t=68, t=146, t=217, t=263, t=347, t=465). 더보기

이 영상이 흥미로운 이유는 “대본만 넣으면 20분 만에 영상이 나온다” 는 선언 자체보다, 그 결과에 도달하기까지 30일 동안 어떤 시행착오가 있었는지를 꽤 투명하게 공개한다는 데 있습니다. 발표자는 이 영상 자체도 자신이 대본만 쓰고 나머지는 AI가 처리했다고 설명하면서, 프리미어 프로나 애프터이펙트, 캡컷 같은 편집 툴을 열지 않고도 모션 그래픽 영상을 자동 생성할 수 있다고 말합니다. 하지만 동시에 여기까지 오는 데 30일이 걸렸고, 오늘의 목적은 마법 같은 프롬프트를 자랑하는 것이 아니라 그 30일에서 건진 핵심 인사이트를 압축해서 공유하는 것이라고 못 박습니다 (근거: t=0, t=7, t=17, t=22, t=26, t=61). 더보기

이 영상의 핵심은 단순히 “텔레그램에서도 Claude Code를 쓸 수 있다” 는 소개가 아닙니다. 발표자는 Claude Code 2.1.80부터 들어온 channels 기능을 실제로 텔레그램과 연결해 보고, 봇 생성부터 페어링, 응답 흐름, 파일 전달, 권한 프롬프트 문제까지 한 번에 보여 줍니다. 그래서 이 영상은 기능 발표보다 원격 사용이 실제로 어디서 막히는지 를 이해하는 데 더 가치가 있습니다 (t=0, t=4, t=8, t=124, t=446). 다만 영상에 나오는 몇몇 셸 명령은 화면으로는 보이지만 자동 생성 자막에서는 대부분 “이 명령어” 수준으로만 남습니다. 그래서 이 글은 복붙용 명령 모음보다, 초보자가 헷갈리기 쉬운 구성 요소의 역할과 실행 순서 를 정확히 이해하는 데 초점을 맞춥니다 (t=37, t=50, t=61). 더보기

이 영상이 흥미로운 이유는 “Claude Code로 앱 하나를 빨리 만들었다” 는 데 있지 않습니다. 오히려 이미 가지고 있는 롱폼 영상과 자막을 바탕으로, 숏츠 후보를 고르고 자르고 렌더링하고 다시 고치는 과정을 Claude Code와 어떻게 협업할 수 있는지 거의 날것 그대로 보여 준다는 점이 핵심입니다. 발표자는 처음부터 “숏폼을 못 만드는 이유는 시간이 없어서” 라는 운영 병목을 제시하고, 1시간 안에 로컬 기반 숏츠 생성기를 같이 만들어 보자고 선언합니다. 그래서 이 영상은 완성품 자랑보다, 문제 정의와 실행 루프를 어떻게 에이전트에게 넘기는지 관찰하는 데 더 큰 가치가 있습니다 (근거: t=0, t=17, t=56, t=3126). 더보기

기존 프로젝트 유지보수에서 Claude Code를 쓸 때 가장 중요한 건 “얼마나 똑똑한 프롬프트를 쓰느냐"가 아닙니다. 더 중요한 건 Claude Code가 실수하기 어려운 작업 흐름 을 먼저 고정하는 것입니다. 기존 서비스는 새 기능을 밀어 넣는 속도보다, 현재 동작을 안전하게 읽고, 필요한 부분만 좁게 바꾸고, 바로 검증하는 리듬이 훨씬 중요합니다. Claude Code는 CLAUDE.md 기반 프로젝트 메모리, 커스텀 서브에이전트, 스킬, 훅, 프로젝트 설정을 모두 지원합니다. 그래서 유지보수용 환경을 만들 때도 “AI가 알아서 잘하겠지"에 기대기보다, 분석 → 최소 수정 → 검증 → 리뷰 순서를 문서와 자동화로 고정하는 편이 훨씬 안정적입니다. 더보기

모노레포에서 CLAUDE.md 를 하나만 두면 금방 복잡해진다. 프런트엔드 규칙, 백엔드 테스트 명령, 워커 금지 사항이 한 파일에 섞이기 시작하면, 결국 “항상 읽히지만 대부분 지금 작업과는 무관한 지침"이 된다. 그래서 실무에서는 루트에는 공통 규칙만, 하위 폴더에는 그 서브프로젝트 전용 규칙만 두는 쪽이 훨씬 잘 맞는다. 이 글은 그 구조를 어떻게 나누면 좋은지, 그리고 frontend/, backend/, worker/, apps/*, packages/* 같은 폴더를 스캔해서 각자에 맞는 CLAUDE.md 를 생성하는 init-subproject-claude 스킬은 어떻게 설계하면 좋은지를 한 번에 정리한 글이다. 더보기

로컬 LLM을 이야기할 때 대부분의 출발점은 Ollama입니다. 설치가 간단하고 바로 써볼 수 있기 때문입니다. 그런데 이번 영상은 질문 자체를 바꿉니다. 내 PC에서 모델이 돌아가느냐 가 아니라, 여러 요청을 계속 받아내는 서빙 엔진으로도 효율적인가 를 봐야 한다는 것입니다. 영상은 vLLM의 강점이 바로 그 지점, 즉 KV Cache 메모리 관리와 다중 요청 스케줄링에서 나온다고 설명합니다. 근거 영상 중요한 것은 숫자를 그대로 외우는 것이 아니라, 왜 어떤 환경에서는 차이가 거의 없고 어떤 환경에서는 크게 벌어지는지 를 이해하는 것입니다. 영상 도입부는 Red Hat의 2025년 8월 8일 벤치마크를 인용해 vLLM의 높은 TPS와 낮은 지연시간을 언급하지만, 뒤에서 보여주는 자체 테스트에서는 단일 요청에서는 큰 차이가 없고 동시 요청 환경에서 우위가 커진다고 정리합니다. 이 글은 바로 그 차이를 만든 구조를 따라가 보려는 글입니다. 근거 영상 더보기