400~500명 규모의 기수제 AI 스터디 커뮤니티를 단 2명이 운영한다면? 지피터스(GPTers)의 송다혜님은 Claude Code(오픈클로)로 만든 뽀짝이 에이전트를 통해 그 불가능에 가까운 운영을 실제로 해내고 있습니다. 이 글은 빌더 조쉬 채널의 인터뷰를 바탕으로, 뽀짝이가 어떻게 만들어졌고 어떻게 동작하며, 그 경험에서 AI 네이티브 조직을 만들려는 분들이 무엇을 배울 수 있는지를 정리합니다. 더보기

AI로 이미지나 영상을 생성할 때 가장 큰 난관 중 하나는 캐릭터 일관성 입니다. 같은 캐릭터를 여러 장면에서 반복 생성하면 얼굴, 체형, 의상 등이 매번 미묘하게 달라지는 문제가 생기죠. 이 문제를 해결하는 핵심 도구가 바로 캐릭터 시트 입니다. 이 글에서는 마스터 프롬프트를 활용해 정밀한 캐릭터 시트를 만드는 전체 워크플로우를 정리합니다. 더보기

LLM의 컨텍스트 윈도우는 계속 커지고 있습니다. 그런데 실무에서는 이상한 장면이 자주 나옵니다. 자료를 더 많이 넣었는데 답이 더 좋아지기는커녕, 엉뚱한 파일을 집거나 이미 결정한 사항을 다시 뒤집는 경우입니다. 이 현상을 최근 실무권에서는 컨텍스트 로트(context rot) 라는 말로 자주 부릅니다. 중요한 점은 이 표현이 엄밀한 학술 용어라기보다, 긴 문맥이 쌓일수록 모델의 주의력과 일관성이 서서히 망가지는 현상을 묶어 부르는 실무 용어라는 점입니다. 더보기

Marmelab의 “Agent Experience” 글이 흥미로운 이유는, 코딩 에이전트의 성능 차이를 모델 자체보다 코드베이스가 얼마나 에이전트 친화적으로 설계되어 있는가 로 설명하기 때문입니다. 글은 “좋은 프롬프트를 어떻게 쓸까” 보다 한 단계 더 들어가서, 에이전트가 검색하고, 이해하고, 실행하고, 검증하는 전 과정을 코드베이스 차원에서 어떻게 돕느냐를 묻습니다. 즉 이 글은 에이전트를 잘 쓰는 법을 말하는 사용법 가이드라기보다, 에이전트가 잘 일할 수 있는 저장소를 만드는 운영 원칙 모음 에 가깝습니다. 다만 이때의 Agent Experience는 아직 널리 합의된 표준 용어라기보다, Developer Experience의 문제의식을 에이전트 실행 환경으로 확장한 실무적 framing으로 보는 편이 더 정확합니다. 특히 대형 프로젝트에서 사람이 반복해서 채팅으로 설명하던 규칙과 문맥을 파일, 테스트, 도구, 훅, 문서로 옮겨 두면 에이전트의 자율성과 정확도가 함께 올라간다는 점을 아주 실무적으로 보여 줍니다. 더보기

로컬 LLM을 이야기할 때 대부분의 출발점은 Ollama입니다. 설치가 간단하고 바로 써볼 수 있기 때문입니다. 그런데 이번 영상은 질문 자체를 바꿉니다. 내 PC에서 모델이 돌아가느냐 가 아니라, 여러 요청을 계속 받아내는 서빙 엔진으로도 효율적인가 를 봐야 한다는 것입니다. 영상은 vLLM의 강점이 바로 그 지점, 즉 KV Cache 메모리 관리와 다중 요청 스케줄링에서 나온다고 설명합니다. 근거 영상 중요한 것은 숫자를 그대로 외우는 것이 아니라, 왜 어떤 환경에서는 차이가 거의 없고 어떤 환경에서는 크게 벌어지는지 를 이해하는 것입니다. 영상 도입부는 Red Hat의 2025년 8월 8일 벤치마크를 인용해 vLLM의 높은 TPS와 낮은 지연시간을 언급하지만, 뒤에서 보여주는 자체 테스트에서는 단일 요청에서는 큰 차이가 없고 동시 요청 환경에서 우위가 커진다고 정리합니다. 이 글은 바로 그 차이를 만든 구조를 따라가 보려는 글입니다. 근거 영상 더보기

justopen.ai의 짧은 Threads 포스트는 Claude Code를 잘 쓰는 순서를 아주 날카롭게 뒤집습니다. 많은 사람이 먼저 “무슨 기능이 있지?“를 묻지만, 이 포스트의 요지는 그 질문 자체가 이미 늦었다는 데 있습니다. 먼저 해야 하는 일은 기능 탐색이 아니라 누가 어떤 판단을 맡고, 그 판단이 어떤 문서로 남아야 하는지 를 정하는 것입니다. 더보기