Second Brain은 원래 인간이 기억하고 정리하기 위한 시스템이었습니다. 하지만 Claude나 Codex 같은 AI가 주 독자가 되면 구조가 달라져야 합니다. AI Impact의 영상은 Karpathy식 second brain이나 PARA 기반 지식 저장소를 그대로 쓰기보다, Claude가 더 적은 토큰으로 정확히 검색하고 추론할 수 있는 Infinite Brain 구조가 필요하다고 주장합니다. 0:00

Sources

문제: AI에게 필요한 것은 노트 폴더가 아니라 지식 그래프다

영상은 AI가 강력하더라도 올바른 지식 베이스에 접근하지 못하면 평범한 답변밖에 하지 못한다고 시작합니다. AI가 나, 내 산업, 내 프로젝트를 이해하려면 그 배경지식이 구조화되어 있어야 합니다. 0:00

중요한 점은 “문서를 많이 넣기"가 아닙니다. 문서가 많아도 AI가 어떤 문서가 어떤 질문에 관련되는지 알 수 없으면 토큰을 낭비합니다. 반대로 작은 노트들이 명확한 관계로 연결되어 있으면, AI는 필요한 맥락만 따라가며 읽을 수 있습니다.

flowchart TD
    A["AI에게 질문"] --> B{"지식 베이스 구조"}
    B -->|긴 문서 뭉치| C["많은 토큰으로 넓게 읽음"]
    B -->|typed knowledge graph| D["관련 노드만 따라감"]
    C --> E["비용 증가·혼동 가능성"]
    D --> F["정확한 맥락·낮은 토큰"]

    classDef inputTone fill:#c5dcef,stroke:#5b7fa6,color:#333
    classDef badTone fill:#ffc8c4,stroke:#c96f68,color:#333
    classDef goodTone fill:#c0ecd3,stroke:#5aa978,color:#333
    class A,B inputTone
    class C,E badTone
    class D,F goodTone

이 관점에서 second brain은 “내가 나중에 읽을 노트"가 아니라, AI가 내 맥락을 검색하고 판단하기 위한 graph database에 가까운 텍스트 시스템 이 됩니다.

기존 Second Brain과 PARA는 인간에게 편하다

영상은 기존 second brain 예시로 Projects, Areas, Resources, Archives, 즉 PARA 구조를 설명합니다. 이는 인간이 폴더 네 개로 지식을 관리하기 좋은 방식입니다. 프로젝트별 노트, 영역별 자료, 참고 리소스, 보관함을 나누면 사람이 눈으로 훑고 찾아가기 쉽습니다. 4:00

하지만 AI가 주 독자라면 문제가 생깁니다. PARA는 큰 문서, 느슨한 링크, 덜 구조화된 metadata, 범위가 넓은 retrieval을 만들기 쉽습니다. 영상은 같은 데이터를 old second brain 구조와 infinite brain 구조에 넣고 질문했을 때, 하나는 9,000 tokens를 쓰고 다른 하나는 600 tokens만 썼다고 설명합니다. 5:00

flowchart TD
    A["PARA Second Brain"] --> B["Projects"]
    A --> C["Areas"]
    A --> D["Resources"]
    A --> E["Archives"]
    B --> F["긴 프로젝트 문서"]
    C --> G["넓은 영역 노트"]
    D --> H["참고 자료 묶음"]
    E --> I["완료/보관"]
    F --> J["AI가 필요 이상으로 읽을 수 있음"]
    G --> J
    H --> J
    I --> J

    classDef humanTone fill:#c5dcef,stroke:#5b7fa6,color:#333
    classDef folderTone fill:#fde8c0,stroke:#c59a45,color:#333
    classDef riskTone fill:#ffc8c4,stroke:#c96f68,color:#333
    class A humanTone
    class B,C,D,E folderTone
    class F,G,H,I,J riskTone

PARA가 나쁘다는 뜻은 아닙니다. 인간이 관리하는 지식 시스템으로는 여전히 유용합니다. 다만 AI가 읽는 시스템에서는 폴더 위치보다 노트의 타입, 요약, 관계, 근거가 더 중요해집니다.

Infinite Brain의 첫 번째 원칙: atomic note

영상은 Infinite Brain의 첫 번째 원칙으로 atomic note를 강조합니다. 노트는 50~300줄 정도가 적당하고, 너무 길어지면 part 1, part 2처럼 나누는 편이 좋다고 설명합니다. 이유는 AI가 “관련성이 높은 정보만 빠르게 ingest"하기 좋기 때문입니다. 6:00

atomic note의 핵심은 한 노트가 하나의 질문, 하나의 결정, 하나의 개념, 하나의 근거를 담는 것입니다. 예를 들어 pricing philosophyno free tier decisionStripe international fees source를 한 문서에 섞어 두지 않고, 각각 별도 노드로 둡니다.

flowchart TD
    A["긴 프로젝트 문서"] --> B["pricing philosophy"]
    A --> C["no free tier decision"]
    A --> D["Stripe fee source"]
    A --> E["team tier question"]
    B --> F["atomic note"]
    C --> F
    D --> F
    E --> F

    classDef longTone fill:#ffc8c4,stroke:#c96f68,color:#333
    classDef atomTone fill:#c0ecd3,stroke:#5aa978,color:#333
    class A longTone
    class B,C,D,E,F atomTone

AI에게는 긴 글 하나보다 짧고 의미가 명확한 노드 여러 개가 더 유리합니다. 필요한 노드만 읽을 수 있고, 필요하면 edge를 따라 더 깊이 들어가면 됩니다.

두 번째 원칙: 4개 폴더가 아니라 16개 타입

PARA는 Projects, Areas, Resources, Archives라는 네 가지 큰 분류를 씁니다. 영상은 인간에게는 단순함이 장점이지만, AI에게는 더 많은 타입이 오히려 도움이 된다고 말합니다. Infinite Brain에서는 pillars, decisions, concepts, questions 같은 16가지 타입으로 나누는 방향을 제안합니다. 6:00

여기서 타입은 폴더 이름이 아니라 retrieval hint입니다. AI가 질문을 받았을 때 “이건 pricing decision을 찾아야 한다”, “이건 source를 확인해야 한다”, “이건 hypothesis와 contradiction을 봐야 한다"처럼 탐색 방향을 줄 수 있습니다.

flowchart TD
    A["AI 질문"] --> B{"필요한 노드 타입"}
    B -->|결정 이유| C["Decision"]
    B -->|개념 설명| D["Concept"]
    B -->|근거 확인| E["Source"]
    B -->|열린 쟁점| F["Question"]
    B -->|전략 방향| G["Strategy/Pillar"]
    C --> H["정확한 retrieval"]
    D --> H
    E --> H
    F --> H
    G --> H

    classDef queryTone fill:#c5dcef,stroke:#5b7fa6,color:#333
    classDef typeTone fill:#fde8c0,stroke:#c59a45,color:#333
    classDef resultTone fill:#c0ecd3,stroke:#5aa978,color:#333
    class A,B queryTone
    class C,D,E,F,G typeTone
    class H resultTone

타입이 많아지면 인간에게는 복잡해 보일 수 있습니다. 그러나 영상의 전제는 “이 시스템의 주 독자는 인간이 아니라 AI"라는 것입니다. AI는 타입이 더 많아도 읽고 분류할 수 있고, 오히려 그 구조를 이용해 토큰을 줄일 수 있습니다.

세 번째 원칙: link가 아니라 typed edge

기존 Obsidian second brain은 노트끼리 링크를 걸 수 있습니다. 하지만 영상은 단순 링크만으로는 부족하다고 말합니다. 두 노트가 연결되어 있다는 사실보다, 어떤 관계로 연결되어 있는지 가 더 중요합니다. 7:00

영상에서는 supports, contradicts, based on, related to, part of, preceded by, followed by, authored 같은 edge type을 소개합니다. 예를 들어 어떤 자료가 pricing philosophy를 “지원"하는지, 어떤 실험 결과가 기존 가설을 “반박"하는지, 어떤 결정이 이전 회의록에 “기반"하는지 구분해야 합니다. 8:00

flowchart TD
    A["Pricing philosophy"] -->|supports| B["Creators will pay hypothesis"]
    C["High churn data"] -->|contradicts| B
    D["Stripe fee analysis"] -->|based on| A
    E["No free tier decision"] -->|part of| A
    F["April MRR data"] -->|related to| A

    classDef conceptTone fill:#c5dcef,stroke:#5b7fa6,color:#333
    classDef supportTone fill:#c0ecd3,stroke:#5aa978,color:#333
    classDef conflictTone fill:#ffc8c4,stroke:#c96f68,color:#333
    classDef sourceTone fill:#fde8c0,stroke:#c59a45,color:#333
    class A conceptTone
    class B,E supportTone
    class C conflictTone
    class D,F sourceTone

이 구조가 있으면 AI는 모든 링크를 같은 중요도로 읽지 않습니다. 질문이 “왜 free tier를 없앴는가?“라면 decision과 based-on source를 먼저 보면 됩니다. 질문이 “이 결정에 반대 근거가 있었나?“라면 contradicts edge를 따라가면 됩니다.

토큰 비용: 9,000 tokens vs 600 tokens

영상에서 가장 강한 주장은 같은 질문을 두 지식 구조에 던졌을 때, old second brain 구조는 9,000 tokens를 쓰고 Infinite Brain 구조는 600 tokens를 썼다는 비교입니다. 5:00

이 수치를 모든 상황에 일반화할 수는 없습니다. 데이터 양, 질문 종류, retrieval 방식, prompt 구성에 따라 달라질 수 있습니다. 하지만 방향은 설득력 있습니다. 긴 문서와 느슨한 링크로 구성된 시스템은 AI가 넓게 읽어야 합니다. 반대로 atomic note, typed node, typed edge, one-sentence summary가 있으면 AI는 얕게 훑은 뒤 필요한 노드만 깊게 읽을 수 있습니다.

flowchart TD
    A["질문: pricing decision 이유"] --> B["기존 second brain"]
    A --> C["Infinite Brain"]
    B --> D["긴 프로젝트 문서 여러 개 읽기"]
    D --> E["약 9,000 tokens"]
    C --> F["decision node summary 확인"]
    F --> G["관련 source/contradiction만 선택"]
    G --> H["약 600 tokens"]

    classDef queryTone fill:#c5dcef,stroke:#5b7fa6,color:#333
    classDef oldTone fill:#ffc8c4,stroke:#c96f68,color:#333
    classDef newTone fill:#c0ecd3,stroke:#5aa978,color:#333
    class A queryTone
    class B,D,E oldTone
    class C,F,G,H newTone

AI 시대의 개인 지식 관리에서 토큰은 곧 비용이자 정확도입니다. 너무 많이 읽히면 비용이 늘고, 관련 없는 과거 논의가 섞여 답변이 흐려질 수 있습니다. 잘게 나뉜 지식 그래프는 적게 읽고도 더 정확히 답하게 만드는 구조입니다.

AI가 직접 지식 그래프를 만들 수 있다

영상은 과거 second brain이 실패하기 쉬웠던 이유로 관리 비용을 들었습니다. 사람이 책을 읽고, 토요일마다 커피를 마시며 노트를 정리하고, 링크를 걸고, 다시 찾아보는 데 시간이 너무 많이 들었다는 것입니다. 3:00

하지만 이제 AI는 텍스트를 만들고 읽는 데 강합니다. 사용자가 대화, 문서, 책, 회의록, 데이터, 디자인 자료를 넣으면 AI가 이를 atomic note로 쪼개고, 타입을 붙이고, edge를 제안할 수 있습니다. 3:00

flowchart TD
    A["raw input
책·회의록·문서·대화"] --> B["AI extraction"] B --> C["atomic notes 생성"] C --> D["node type 부여"] D --> E["edge type 제안"] E --> F["사용자 검토"] F --> G["Infinite Brain 저장"] classDef rawTone fill:#c5dcef,stroke:#5b7fa6,color:#333 classDef aiTone fill:#fde8c0,stroke:#c59a45,color:#333 classDef graphTone fill:#c0ecd3,stroke:#5aa978,color:#333 class A rawTone class B,C,D,E aiTone class F,G graphTone

중요한 것은 완전 자동화가 아닙니다. AI가 초안을 만들고, 사용자가 중요한 결정과 edge를 검토하는 방식이 현실적입니다. 특히 authored edge, source, decision 같은 노드는 나중에 조직 기억이 되므로 정확성이 중요합니다.

어떤 노드를 만들어야 하나

영상은 예시로 ICP, pricing philosophy, no free tier decision, Stripe pricing source, team tier question, April MRR data 같은 노드를 보여줍니다. 1:00 9:00

실무에서 만들 만한 노드 타입은 다음과 같습니다.

flowchart TD
    A["Infinite Brain 노드 후보"] --> B["Decision
무엇을 결정했나"] A --> C["Source
근거 자료"] A --> D["Concept
반복되는 개념"] A --> E["Question
아직 열린 쟁점"] A --> F["Hypothesis
검증 전 가설"] A --> G["Metric/Data
수치와 관측"] A --> H["SOP
반복 절차"] A --> I["Person/ICP
고객·이해관계자"] classDef rootTone fill:#c5dcef,stroke:#5b7fa6,color:#333 classDef nodeTone fill:#fde8c0,stroke:#c59a45,color:#333 class A rootTone class B,C,D,E,F,G,H,I nodeTone

이렇게 노드를 나누면 Claude가 “이 결정은 어떤 metric에 근거했는가?”, “이 가설을 반박하는 source가 있는가?”, “이 SOP의 이전 단계는 무엇인가?” 같은 질문을 구조적으로 따라갈 수 있습니다.

실전 적용 포인트

첫째, 기존 Obsidian vault를 바로 버릴 필요는 없습니다. 먼저 긴 프로젝트 노트 중 반복해서 참조되는 부분을 decision, source, concept, question으로 쪼개는 것부터 시작하면 됩니다.

둘째, 각 노트 상단에는 한 문장 요약을 둡니다. 영상은 AI가 50 tokens 정도로 요약을 읽고, 더 깊게 읽을지 결정할 수 있다고 설명합니다. 11:00

셋째, 링크를 걸 때는 관계를 명시합니다. related만 쓰면 거의 의미가 없습니다. supports, contradicts, based on, part of처럼 AI가 탐색 방향을 결정할 수 있는 edge를 써야 합니다.

넷째, AI가 만들었는지 사람이 만들었는지 authored metadata를 남기는 것이 좋습니다. 영상도 authored edge를 예시로 들며, Claude가 만든 것인지 인간이 만든 것인지 아는 것이 중요하다고 말합니다. 8:00

다섯째, 목표는 예쁜 graph view가 아닙니다. Claude가 적은 토큰으로 필요한 맥락을 회수하고, 팀원이 모르는 institutional knowledge를 복원할 수 있어야 합니다. 9:00

핵심 요약

  • AI에게는 인간용 note folder보다 typed knowledge graph가 더 유리할 수 있습니다. 0:00
  • PARA식 second brain은 인간에게는 편하지만 AI retrieval에는 긴 문서, 느슨한 링크, 덜 구조화된 metadata 문제를 만들 수 있습니다. 4:00
  • Infinite Brain은 atomic note, 16개 노드 타입, typed edge, 짧은 요약을 중심으로 구성됩니다. 6:00
  • 같은 질문에서 기존 구조는 9,000 tokens, 새 구조는 600 tokens를 썼다는 비교가 제시됩니다. 5:00
  • edge는 단순 링크가 아니라 supports, contradicts, based on, part of, preceded by 같은 의미를 가져야 합니다. 7:00
  • AI가 지식 그래프를 만들 수 있지만, 중요한 decision/source/edge는 사람이 검토해야 합니다.

결론

Second Brain의 주 독자가 인간이라면 PARA 구조는 여전히 유용합니다. 하지만 Claude가 주 독자라면 다른 최적화가 필요합니다. Claude는 폴더를 예쁘게 보는 것이 아니라, 질문에 필요한 노드와 관계를 따라가며 토큰을 쓰기 때문입니다.

Infinite Brain의 핵심은 더 많은 노트를 모으는 것이 아닙니다. 노트를 작게 쪼개고, 타입을 붙이고, 관계의 의미를 명시해 AI가 적은 토큰으로 정확한 맥락에 도달하게 만드는 것입니다. AI 시대의 second brain은 노트 앱이 아니라, Claude가 읽기 좋은 개인 지식 그래프가 되어야 합니다.