이 영상의 핵심은 “또 하나의 AI 지식관리 앱이 나왔다”가 아니다.
핵심은 Andrej Karpathy가 던진 LLM Wiki 아이디어가 왜 RAG와 다른지를 선명하게 설명한다는 데 있다.
즉 이 영상은 LLM Wiki를 어떤 특정 제품명이 아니라, 지식을 축적하는 방식 자체를 바꾸는 패턴으로 본다.
Sources
1. 먼저 정리할 것: LLM Wiki는 공식 제품명이 아니다
영상은 이 부분부터 명확히 짚는다.
LLM Wiki는 특정 SaaS 이름이 아니다- Karpathy가 올린 것은 공식 레포가 아니라 gist 수준의 아이디어 파일이다
- 지금 GitHub에 보이는 여러
llm-wiki,llm-wiki-agent,llm-wiki-compiler류는 커뮤니티 구현체들이다
이건 중요하다.
즉 우리가 이야기하는 것은 제품 비교가 아니라, 하나의 구조적 패턴이다.
2. 핵심 정의: LLM이 지속적으로 유지하고 확장하는 영속적 개인 위키
영상이 정리한 LLM Wiki의 핵심 문장은 이것이다.
LLM이 지속적으로 유지하고 확장하는 영속적인 개인 위키를 만들자.
이 정의가 중요한 이유는, 여기서 주체가 바뀌기 때문이다.
- 기존 PKM에서는 사람이 노트를 쓰고 연결한다
- RAG에서는 시스템이 질문이 들어올 때 검색한다
- LLM Wiki에서는 LLM이 raw 자료를 읽고 위키 페이지를 계속 갱신한다
즉 “질문할 때만 잠깐 똑똑해지는 시스템”이 아니라, 평소에도 지식 구조를 미리 써 두는 시스템으로 보는 것이다.
3. 구조는 3계층이다: raw, wiki, schema
영상은 LLM Wiki를 세 층으로 설명한다.
3-1. raw
- 이메일
- 회의록
- 원문 자료
를 그대로 쌓아 두는 불변 입력층이다.
3-2. wiki
이게 핵심이다.
LLM이 raw를 읽고 정리한 마크다운 페이지들이 여기에 쌓인다.
transformer.mdattention.mdoptimizer.mdindex.mdlog.md
같은 식이다.
3-3. schema
agents.md 같은 파일로, LLM이 위키를 어떤 규칙으로 유지할지 정의한다.
즉:
- raw = 원자료
- wiki = 정리된 지식
- schema = 정리 방식과 행동 규약
이다.
flowchart TD
A[raw
PDF, 이메일, 회의록] --> B[wiki
정리된 Markdown 페이지]
C[schema / agents.md
행동 규약] --> B
B --> D[query]
B --> E[lint]4. 연산은 3개뿐이다: ingest, query, lint
영상이 정리한 연산은 놀랄 만큼 단순하다.
4-1. ingest
새 raw 자료를 흡수해 wiki를 갱신한다.
4-2. query
사용자 질문에 대해 wiki를 바탕으로 답한다.
4-3. lint
위키 내부의 모순, 충돌, 불일치를 찾는다.
이 셋만으로 꽤 많은 것이 가능해진다.
즉 LLM Wiki의 핵심은 엄청난 기능 수가 아니라, 지식이 계속 다시 쓰이고 검토되는 루프다.
5. RAG와 가장 큰 차이는 “언제 일하느냐”다
영상은 LLM Wiki와 RAG의 차이를 아주 잘 설명한다.
- RAG는 질문이 들어오면 그때 검색을 한다
- LLM Wiki는 자료가 들어오는 순간부터 위키를 갱신한다
이 차이를 한 문장으로 줄이면:
RAG는 query-time 검색, LLM Wiki는 ingest-time 정리다.
이건 생각보다 큰 차이다.
RAG는 매번 도서관에서 책을 다시 찾는 느낌이라면,
LLM Wiki는 전담 사서가 새 책이 들어올 때마다 서가와 색인을 업데이트해 두는 느낌에 가깝다.
즉 LLM Wiki는 답을 “찾는” 시스템보다, 미리 정리해 두는 시스템이다.
6. 또 다른 차이: 저장과 업데이트 방식이 다르다
RAG는 보통 벡터 인덱스를 중심으로 움직인다.
반면 영상이 설명하는 LLM Wiki는 훨씬 전통적인 방식에 가깝다.
index.mdlog.md- 개념별 페이지
를 마크다운 파일로 유지한다.
이건 반직관적으로 들릴 수 있다.
하지만 장점도 분명하다.
- 사람이 읽을 수 있다
- 변경 이력이 보인다
- 링크 구조가 눈에 들어온다
- 누적 수정이 된다
즉 LLM Wiki는 벡터 저장소보다 사람과 LLM이 함께 편집하는 문서 지식 베이스에 더 가깝다.
flowchart LR
A[RAG] --> B[질문 시 검색]
B --> C[매번 새로 찾기]
D[LLM Wiki] --> E[자료 들어올 때 정리]
E --> F[기존 위키 누적 갱신]7. 영상의 좋은 점: 스케일 한계를 분명히 말한다
이 영상은 과장하지 않는다.
오히려 중요한 비판을 세 가지로 정리한다.
7-1. 최종 신뢰 책임은 인간에게 남는다
LLM이 위키를 유지해도, 그 위키가 맞는지 틀린지는 사람이 검토해야 한다.
7-2. lint가 완벽하지 않다
모순 검출이 유용하긴 해도, 모든 불일치를 다 잡아낸다고 장담할 수는 없다.
오히려 “모순 없음”이라는 거짓 안심을 줄 위험도 있다.
7-3. moderate scale에 더 적합하다
영상은 개인/팀 수준의 지식 관리에는 자연스럽지만, 거대한 엔터프라이즈 문서 저장소 전체를 이 방식으로 바로 대체하긴 아직 이르다고 본다.
즉 결론은 “RAG는 죽었다”가 아니다.
정확한 포지셔닝은:
- 대규모 엔터프라이즈 검색 = 여전히 RAG / 하이브리드 검색 중심
- 개인·팀 단위 누적 지식 관리 = LLM Wiki 패턴이 더 자연스러울 수 있음
이다.
8. 구현 방식은 셋으로 갈린다: 로컬, 옵시디언, MCP
영상은 구현 환경도 세 가지로 정리한다.
8-1. 로컬 파일 시스템 + CLI
가장 단순한 방식이다.
rawwikischema
폴더를 만들고, Claude Code나 Codex 같은 CLI 에이전트에게 ingest/update를 시킨다.
8-2. Obsidian 볼트
우리가 이미 여러 번 봤던 구조와도 연결된다.
볼트 안에서 그래프 뷰와 링크 구조를 활용하면, 사람이 보기에도 가장 직관적이다.
8-3. MCP 서버
위키 파일은 그대로 두고, 그 위에 MCP를 얹어 Claude Desktop이나 Cursor 같은 도구에서 툴처럼 접근하는 방식이다.
즉 본질은 같고, 어떤 UI와 런타임으로 붙이느냐만 다르다.
9. 기존 LLM 위키/옵시디언 글과 이번 영상의 차별점
우리가 앞서 다뤘던 관련 글들은 주로:
- raw → wiki → Claude.md 구조
- ingest 자동화
- 제텔카스텐 자동화
에 가까웠다.
이번 영상이 더 좋았던 부분은, 그 구조를 RAG와 대비되는 패턴 언어로 설명했다는 점이다.
즉 “예쁜 지식 시스템”이 아니라:
- query-time vs ingest-time
- 검색 중심 vs 누적 재작성 중심
- 엔터프라이즈 규모 vs moderate scale
라는 좌표계를 제공한다.
10. 결론
이 영상이 말하는 LLM Wiki의 본질은 이것이다.
질문이 들어올 때마다 다시 찾는 대신, 자료가 들어올 때마다 위키를 다시 써서 지식을 누적하자.
그래서 이 패턴이 강한 곳도 분명하다.
- 연구자
- 리뷰어
- PM / 기획자
- 뉴스레터 작성자
- 개인 지식 오너
반대로 대규모 FAQ, 기업 전체 검색, 매우 큰 문서 저장소라면 아직은 RAG 쪽이 더 자연스럽다.
즉 LLM Wiki는 RAG의 대체재라기보다, 개인과 팀 단위에서 지식을 살아 있는 문서로 축적하는 또 다른 기억 아키텍처에 가깝다.