AI와 대화를 나누고 다음 세션을 시작하면, 이전 맥락은 모두 사라집니다. Supermemory는 이 문제를 해결하기 위해 만들어진 오픈소스 메모리 및 컨텍스트 엔진입니다. LongMemEval, LoCoMo, ConvoMem — 현재 존재하는 AI 메모리 3대 벤치마크에서 모두 1위를 기록했습니다.
Sources
Supermemory란
Supermemory는 AI를 위한 메모리 및 컨텍스트 레이어입니다. 대화에서 사실을 추출하고, 유저 프로필을 자동으로 구성하며, 지식 업데이트와 모순을 처리하고, 만료된 정보를 자동으로 잊습니다. 그리고 올바른 컨텍스트를 올바른 시점에 전달합니다.
flowchart TD
A["AI 에이전트 / 앱"]
B["Supermemory"]
C1["Memory Engine
사실 추출·업데이트·모순 해결·자동 망각"]
C2["User Profiles
정적 사실 + 동적 컨텍스트 (~50ms)"]
C3["Hybrid Search
RAG + Memory 단일 쿼리"]
C4["Connectors
Google Drive·Gmail·Notion·GitHub"]
C5["File Processing
PDF·이미지·영상·코드"]
A --> B
B --> C1
B --> C2
B --> C3
B --> C4
B --> C5
classDef app fill:#fde8c0,color:#333
classDef core fill:#c5dcef,color:#333
classDef feat fill:#c0ecd3,color:#333
class A app
class B core
class C1,C2,C3,C4,C5 featGitHub Stars 19.6k, Forks 1.8k의 오픈소스 프로젝트이며, MIT 라이선스입니다.
벤치마크: 3개 부문 모두 1위
Supermemory는 AI 메모리 분야의 세 가지 주요 벤치마크에서 모두 1위를 차지했습니다.
flowchart TD
subgraph "LongMemEval"
L1["측정: 세션 간 장기 메모리
지식 업데이트 처리"]
L2["결과: 81.6% — 1위"]
end
subgraph "LoCoMo"
M1["측정: 확장 대화에서 사실 회상
단일·다중 홉·시간·적대적 질문"]
M2["결과: 1위"]
end
subgraph "ConvoMem"
C1["측정: 개인화·선호도 학습"]
C2["결과: 1위"]
end
classDef bench fill:#c5dcef,color:#333
classDef result fill:#c0ecd3,color:#333
class L1,M1,C1 bench
class L2,M2,C2 result비교 대상에는 Mem0, Zep 등 기존 메모리 솔루션이 포함됩니다. 자체 개발한 오픈소스 벤치마킹 프레임워크 MemoryBench를 통해 직접 비교할 수도 있습니다.
bun run src/index.ts run -p supermemory -b longmemeval -j gpt-4o -r my-run
MCP로 Claude에 메모리 연결하기
한 줄 설치
npx -y install-mcp@latest https://mcp.supermemory.ai/mcp --client claude --oauth=yes
claude 자리에 cursor, windsurf, vscode 등을 넣으면 해당 클라이언트에 설치됩니다.
지원 클라이언트
Claude Desktop · Cursor · Windsurf · VS Code · Claude Code · OpenCode · OpenClaw
AI가 사용할 수 있는 툴
| MCP 툴 | 동작 |
|---|---|
memory |
정보 저장 또는 삭제. AI가 기억할 가치가 있다고 판단하면 자동 호출 |
recall |
쿼리로 메모리 검색. 관련 메모리 + 유저 프로필 요약 반환 |
context |
전체 프로필(선호도, 최근 활동)을 대화 시작 시 주입. Claude Code에서는 /context 입력 |
flowchart TD
A["사용자 대화"]
B["Supermemory MCP"]
C1["memory 툴
중요한 내용 자동 저장"]
C2["recall 툴
관련 메모리 검색"]
C3["context 툴
프로필 전체 주입"]
D["다음 세션"]
E["AI가 사용자를 이미 알고 있음"]
A --> B
B --> C1
B --> C2
B --> C3
D --> C3
C3 --> E
classDef user fill:#fde8c0,color:#333
classDef mcp fill:#c5dcef,color:#333
classDef tool fill:#c0ecd3,color:#333
classDef result fill:#e0c8ef,color:#333
class A user
class B mcp
class C1,C2,C3 tool
class D,E result작동 방식
- AI와 평소처럼 대화합니다. 선호도, 프로젝트, 문제를 공유합니다.
- Supermemory가 중요한 내용을 추출해 저장합니다. 사실·선호도·프로젝트 컨텍스트를 저장하고 노이즈는 제외합니다.
- 다음 세션에서 AI가 이미 사용자를 알고 있습니다. 진행 중인 작업, 선호 방식, 이전 논의를 기억합니다.
메모리는 프로젝트(container tag) 단위로 범위가 지정됩니다. 업무와 개인 컨텍스트를 분리하거나, 클라이언트·레포지토리별로 구분할 수 있습니다.
Claude Code 플러그인
Supermemory는 Claude Code 전용 플러그인을 제공합니다.
# Claude Code 플러그인 (오픈소스)
# https://github.com/supermemoryai/claude-supermemory
설치 후 Claude Code 세션 간 메모리가 자동으로 영구 저장됩니다.
개발자를 위한 API
AI 에이전트나 앱을 만들 때 Supermemory API 하나로 메모리, RAG, 유저 프로필, 커넥터, 파일 처리를 모두 연결할 수 있습니다. 벡터 DB 설정, 임베딩 파이프라인, 청킹 전략이 필요 없습니다.
설치
npm install supermemory
# 또는
pip install supermemory
TypeScript 퀵스타트
import Supermemory from "supermemory";
const client = new Supermemory();
// 대화 저장
await client.add({
content: "User loves TypeScript and prefers functional patterns",
containerTag: "user_123",
});
// 유저 프로필 + 관련 메모리를 한 번에
const { profile, searchResults } = await client.profile({
containerTag: "user_123",
q: "What programming style does the user prefer?",
});
// profile.static → ["Loves TypeScript", "Prefers functional patterns"]
// profile.dynamic → ["Working on API integration"]
API 메서드
| 메서드 | 용도 |
|---|---|
client.add() |
텍스트·대화·URL·HTML 저장 |
client.profile() |
유저 프로필 + 선택적 검색 |
client.search.memories() |
메모리·문서 하이브리드 검색 |
client.search.documents() |
메타데이터 필터 포함 문서 검색 |
client.documents.uploadFile() |
PDF·이미지·영상·코드 업로드 |
client.settings.update() |
메모리 추출·청킹 설정 |
검색 모드
// Hybrid (기본값) — RAG + Memory 동시 쿼리
const results = await client.search.memories({
q: "how do I deploy?",
containerTag: "user_123",
searchMode: "hybrid",
});
// → 배포 문서(RAG) + 사용자 배포 선호도(Memory) 함께 반환
// Memory만 검색
const results = await client.search.memories({
searchMode: "memories",
});
프레임워크 통합
// Vercel AI SDK
import { withSupermemory } from "@supermemory/tools/ai-sdk";
const model = withSupermemory(openai("gpt-4o"), "user_123");
// Mastra
import { withSupermemory } from "@supermemory/tools/mastra";
const agent = new Agent(withSupermemory(config, "user-123", { mode: "full" }));
지원 프레임워크: Vercel AI SDK · LangChain · LangGraph · OpenAI Agents SDK · Mastra · Agno · Claude Memory Tool · n8n
Memory vs RAG: 핵심 차이
flowchart TD
subgraph "RAG (일반 검색)"
R1["문서 청크 검색"]
R2["Stateless — 모든 사용자 동일 결과"]
R3["지식 베이스 조회"]
end
subgraph "Memory (Supermemory)"
M1["사용자 사실 추출·추적"]
M2["Stateful — 사용자마다 개인화"]
M3["\"NYC에 살아\" → \"SF로 이사했어\" 업데이트"]
M4["임시 정보 자동 망각
(\"내일 시험\"은 지나면 삭제)"]
end
subgraph "Hybrid (Supermemory 기본값)"
H1["RAG + Memory 동시 실행"]
H2["지식 베이스 + 개인화 컨텍스트 함께 반환"]
end
classDef rag fill:#fde8c0,color:#333
classDef mem fill:#c5dcef,color:#333
classDef hybrid fill:#c0ecd3,color:#333
class R1,R2,R3 rag
class M1,M2,M3,M4 mem
class H1,H2 hybrid자동 망각: “내일 시험이 있어"처럼 날짜가 지나면 의미 없어지는 임시 사실은 만료 후 자동 삭제됩니다. 모순도 자동으로 해결됩니다.
커넥터
외부 데이터를 지식 베이스에 자동 동기화합니다.
- Google Drive · Gmail · Notion · OneDrive · GitHub · Web Crawler
실시간 웹훅으로 업데이트됩니다. 문서는 자동으로 처리·청킹·검색 가능 상태로 변환됩니다.
파일 처리
| 파일 유형 | 처리 방식 |
|---|---|
| 텍스트 추출 + 청킹 | |
| 이미지 | OCR |
| 영상 | 트랜스크립션 |
| 코드 | AST 인식 청킹 |
핵심 요약
| 항목 | 내용 |
|---|---|
| 프로젝트 | supermemoryai/supermemory (19.6k ★, MIT) |
| 정의 | AI를 위한 메모리 및 컨텍스트 엔진 |
| 벤치마크 | LongMemEval(81.6% #1) · LoCoMo(#1) · ConvoMem(#1) |
| MCP 설치 | npx -y install-mcp@latest https://mcp.supermemory.ai/mcp --client claude |
| 지원 클라이언트 | Claude, Cursor, Windsurf, VS Code, Claude Code 등 |
| API | npm/pip 설치, TypeScript·Python SDK |
| 검색 | RAG + Memory 하이브리드 기본 지원 |
| 커넥터 | Google Drive·Gmail·Notion·OneDrive·GitHub |
| 자동 망각 | 임시 사실 만료, 모순 자동 해결 |
| 앱 | app.supermemory.ai (노코드 사용 가능) |
결론
대부분의 AI 메모리 솔루션은 단순 RAG입니다. Supermemory는 그 위에 사용자별 사실 추출, 시간적 업데이트, 자동 망각, 유저 프로필 자동 구성까지 더합니다.
Claude Code를 자주 쓴다면 MCP 한 줄 설치로 세션 간 컨텍스트 유실 문제를 해결할 수 있습니다. 에이전트를 만드는 개발자라면 벡터 DB 없이 메모리+RAG+유저 프로필을 API 하나로 연결할 수 있는 가장 빠른 경로입니다.