나를 기록한다는 것 — 페르소나 에이전트 시대의 기억과 망각

요즘 AI 에이전트 이야기를 하다 보면, 결국 이런 질문에 닿게 된다.
“에이전트가 나를 대신한다면, 그 에이전트는 어떤 나를 대신하는 걸까?”
머지않아 각자가 자신만의 AI 에이전트를 갖게 될 것이다. 나의 성격, 취향, 말투, 가치관을 담은 에이전트가 다른 사람의 에이전트와 대화하고, 일정을 조율하고, 정보를 교환하는 세상. SF 같지만 기술적으로는 이미 문턱에 와 있다.
그런데 그 에이전트에 나다움을 넣으려면 뭐가 필요할까? 답은 단순하다. 나에 대한 데이터를 넣으면 된다. 하지만 조금만 더 생각하면 단순하지 않다는 걸 알게 된다. 무엇을 기록하느냐가 곧 나는 누구인가라는 질문이 되기 때문이다.
이 글에서는 페르소나 에이전트를 만들기 위해 필요한 기술들을 간략히 살펴보고, 그보다 더 본질적인 질문 — 에이전트 시대에 우리는 어떻게 기록하고 살아야 하는가 — 에 대해 생각해본다.
▍우리는 이미 기록하고 있다 — 하지만
사실 우리는 매일 방대한 디지털 흔적을 남기고 있다. 카카오톡 대화, 인스타그램 피드, 구글 검색 기록, 유튜브 시청 이력, 쿠팡 구매 내역 등. 이 데이터만으로도 꽤 정확한 “나”의 프로필을 만들 수 있다.
보통 이런 데이터를 흔적이라고 부른다. 의도 없이, 무심코 남긴 것들이니까. 알고리즘이 추천해준 영상을 멍하니 본 이력이 “나의 취향”으로 기록되고, 감정적으로 보낸 새벽 3시의 카톡이 “나의 말투”가 된다.
그런데 가만히 생각해보면, 이 흔적이야말로 편집되지 않은 날것의 나일 수 있다. 의식적으로 쓴 일기에는 자기검열이 개입한다. SNS에는 보여주고 싶은 면만 올린다. 반면 새벽에 무방비 상태로 보낸 카톡, 무의식적으로 고른 유튜브 영상, 충동적으로 장바구니에 담은 물건 — 이런 것들에는 꾸밈이 없다.
| 의도적 기록 | 무의식적 흔적 | |
|---|---|---|
| 예시 | 일기, 메모, 블로그 | 검색 기록, 시청 이력, 구매 내역, 새벽 카톡 |
| 성격 | 편집된 나 — “이렇게 보이고 싶다” | 날것의 나 — “실제로 이렇다” |
| 강점 | 가치관, 방향성이 명확 | 자기검열 없는 진짜 패턴 |
| 약점 | 자기합리화, 이상화 개입 | 맥락 없는 노이즈 포함 |
솔직히 말하면, 둘 다 있어야 온전한 나다. 의도적 기록만으로 만든 에이전트는 “내가 되고 싶은 나”에 가깝고, 흔적만으로 만든 에이전트는 알고리즘이 재구성한 나에 가깝다. 어느 쪽이든 반쪽짜리다.
에이전트 시대에 진짜 중요한 건 흔적을 버리고 기록만 남기는 게 아니다. 흔적과 기록의 비율을 어떻게 설계할 것인가 — 이게 진짜 질문이다.
▍기록이 에이전트가 되기까지
그렇다면 기술적으로는 어떻게 작동할까? 간략하게 짚고 넘어가자.
라이프로깅 — 일상을 데이터로
일상을 캡처하는 도구들이 이미 나와 있다.
| 도구 | 방식 | 특징 |
|---|---|---|
| Limitless Pendant | 음성 녹음 + AI 요약 | 대화를 자동 기록, 회의록 생성 |
| Meta Ray-Ban | 시각 캡처 | 보는 것을 AI가 이해, 실시간 질의 가능 |
| Friend Pendant | 수동 청취 | 감정 동반자형, 맥락 기반 메시지 전송 |
| 텍스트 일기/대화 로그 | 수동 기록 | 가장 의도적, 가장 편향적 |
데이터 수집 자체는 점점 쉬워지고 있다. 문제는 수집이 아니라 선별이다. 모든 데이터가 “나”를 대표하지는 않는다.
페르소나 주입 — RAG vs Fine-tuning
수집된 기록을 에이전트에 넣는 방식은 크게 두 가지다.
| RAG | Fine-tuning | |
|---|---|---|
| 원리 | 기록을 벡터 DB에 저장, 필요할 때 검색해서 컨텍스트에 주입 | 나의 글/대화 패턴을 모델에 직접 학습 |
| 잘하는 것 | 구체적 사실과 기억 (“작년 제주도에서 뭐 먹었지?”) | 말투, 사고방식, 가치 판단 |
| 한계 | 스타일까지 복제하기 어려움 | 새로운 기억 추가가 어려움 |
| 비용 | 상대적으로 저렴 | 학습 비용이 큼 |
현실적으로는 하이브리드가 답이 될 가능성이 높다. 말투와 스타일은 fine-tuning으로, 구체적 기억과 사실은 RAG로.
Letta(구 MemGPT) 는 여기서 한 발 더 나간다. 항상 참조하는 핵심 기억(core memory), 장기 저장소(archival memory), 대화 이력(recall memory) — 이 세 계층으로 메모리를 나누고, 에이전트가 스스로 기억을 관리하게 한다. 마치 운영체제가 메모리를 관리하듯. 실제로 사용해보면, 에이전트가 “이건 중요하니까 core에 저장해야겠다”고 판단하는 과정이 꽤 인상적이다.
에이전트 간 통신 — MCP와 A2A
나의 에이전트가 다른 사람의 에이전트와 대화하려면 공통된 언어가 필요하다.
| 프로토콜 | 역할 | 비유 |
|---|---|---|
| MCP (Model Context Protocol) | 에이전트 ↔ 도구/데이터 연결 | USB 포트 |
| A2A (Agent-to-Agent) | 에이전트 ↔ 에이전트 통신 | 전화선 |
A2A에는 Agent Card라는 개념이 있다. JSON 형태로 에이전트의 능력과 특성을 광고하는 메타데이터인데, 여기에 페르소나 정보를 실을 수 있다. “이 에이전트는 한국어를 선호하고, 기술적 대화에 강하며, 직설적인 소통 스타일을 가진다” 같은 정보를 상대 에이전트에게 전달하는 식이다.
다만 아직 페르소나 교환을 위한 표준 프로토콜은 없다. MCP는 도구 연결에, A2A는 태스크 위임에 초점이 맞춰져 있고, “나다움”을 구조화해서 전달하는 스펙은 아직 열린 문제다.
디지털 망각 — 기억만큼 중요한 것
흥미로운 것은 “기억”만큼 망각을 구현하는 연구도 활발하다는 점이다.
Stanford의 Generative Agents 연구(Park et al., 2023)는 기억을 검색할 때 세 가지 축으로 점수를 매긴다.
score = recency(최신성) × importance(중요도) × relevance(관련성)
LangChain의 TimeWeightedVectorStoreRetriever는 이걸 더 직접적으로 구현한다.
score = similarity + (1.0 - decay_rate) ^ hours_passed
시간이 지날수록 기억의 가중치가 자연스럽게 낮아지는 구조다. 오래된 기억을 요약·압축하는 memory consolidation, 임시 정보에 만료를 설정하는 TTL(Time-To-Live) 메모리 같은 접근도 있다.
기술적으로도 “모든 걸 기억하는 것”이 최선이 아니라는 걸 인정하고 있는 셈이다. 이 지점에서 기술과 철학이 만난다.
▍망각도 나의 일부다
니체는 말했다. 망각은 건강의 조건이라고.
모든 것을 기억하는 사람을 상상해보자. 과거의 모든 실수, 모든 부끄러운 순간, 모든 후회. 그것을 하나도 놓치지 않고 기억한다면 우리는 앞으로 나아갈 수 있을까?
실제로 초기억증(Hyperthymesia)이라는 증상이 있다. 과거의 모든 날을 세세하게 기억하는 사람들인데, 이들 중 상당수가 과거에 대한 강박적 반추로 고통받는다고 한다. 완벽한 기억이 반드시 축복은 아닌 셈이다.
우리는 잊음으로써 성장한다. 잘못된 판단을 잊고, 서툴렀던 시절을 흐릿하게 만들고, 그렇게 새로운 나로 거듭난다.
그런데 에이전트가 모든 걸 기억한다면? 10년 전의 말투, 5년 전의 편견, 3년 전의 잘못된 판단까지 고스란히 페르소나에 반영된다면? 그건 과거에 갇힌 나를 만드는 것이다. 앞서 본 decay function이나 memory consolidation 같은 기술이 필요한 이유가 바로 여기에 있다.
“무엇을 기록할 것인가”만큼 “무엇을 잊게 할 것인가”의 설계가 중요하다. 이건 단순히 스토리지 최적화가 아니다. “어떤 나를 남길 것인가”라는 질문이다.
▍어느 시점의 내가 진짜인가
5년 전의 나와 지금의 나는 다르다. 좋아하는 음악이 다르고, 중요하게 여기는 가치가 다르고, 사람을 대하는 방식이 다르다. 그렇다면 에이전트의 페르소나는 어떤 나를 담아야 할까?
이걸 기술적으로 보면 두 가지 접근이 있다.
| 스냅샷 방식 | 스트림 방식 | |
|---|---|---|
| 원리 | 특정 시점의 나를 고정 | 기록이 쌓이면 계속 업데이트 |
| 장점 | 일관성 있는 페르소나 | 변화를 반영 |
| 단점 | 성장/변화를 반영 못함 | 일관성이 흔들릴 수 있음 |
| 비유 | 프로필 사진 | 라이브 스트리밍 |
현실에서는 아마 둘을 섞게 될 것이다. 핵심 가치관은 스냅샷으로 고정하되, 취향이나 관심사는 스트림으로 업데이트하는 식이다. 앞서 본 Letta의 core memory와 archival memory의 분리가 정확히 이 구조를 반영한다.
또 하나의 문제. 우리는 기록할 때 이미 편집한다. 일기를 쓸 때 나도 모르게 자기합리화를 하고, SNS에 올릴 때 좋은 면만 보여주고, 대화를 회상할 때 기억을 재구성한다. 기록된 나는 실제의 나가 아니다. 어쩌면 “내가 되고 싶은 나”에 더 가까울 수 있다.
그래서 앞서 말한 흔적이 중요해진다. 의도적 기록이 “편집된 자아”라면, 무의식적 흔적은 “편집 이전의 자아”다. 이 둘 사이의 간극 — 내가 보여주고 싶은 나와 실제의 나 사이의 거리 — 이 간극 자체가 어쩌면 가장 솔직한 자기 정보일 수 있다. 에이전트가 이 간극까지 이해할 수 있다면, 그건 꽤 정확한 “나”가 될 것이다.
흥미로운 점은, 에이전트에 들어가는 페르소나가 “이상적인 나”에 가깝더라도 반드시 나쁜 것만은 아니라는 것이다. 그 에이전트는 내가 되고자 하는 방향으로 세상과 소통하게 된다. 일종의 자기실현적 예언이 되는 셈이다. 다만 날것의 흔적이 빠지면, 그 예언은 현실과 너무 동떨어진 환상이 될 수도 있다.
▍그래서, 어떻게 살아야 하는가
여기서 기술 이야기는 일단 내려놓자. 더 중요한 건 이쪽이다.
에이전트 시대의 기록은 단순한 라이프로깅이 아니다. 자기 이해의 행위다. 무심코 남기는 디지털 흔적이 나의 에이전트를 만드는 세상에서, 의식적으로 기록하는 사람과 그렇지 않은 사람의 차이는 클 것이다. 전자의 에이전트는 본인을 정확하게 대변하고, 후자의 에이전트는 알고리즘이 만든 허상을 대변하게 될 테니까.
몇 가지 생각을 정리하면 이렇다.
1. 의도적 기록을 습관화하되, 흔적도 함부로 버리지 말아야 한다.
오늘 무슨 생각을 했는지, 어떤 결정을 왜 내렸는지, 무엇에 감동했는지. 이런 의도적 기록이 에이전트의 뼈대가 된다. 개발자가 CLAUDE.md에 프로젝트 컨벤션을 적어두듯, 자기 자신에 대한 ME.md를 써야 하는 시대가 올 수 있다.
하지만 동시에, 무의식적으로 남긴 흔적들도 나름의 가치가 있다. 검색 기록이 보여주는 내 진짜 관심사, 구매 내역이 드러내는 숨은 취향, 새벽에 보낸 메시지가 담고 있는 가공되지 않은 감정. 이런 것들을 일부러 지울 필요는 없다. 뼈대는 기록으로, 살은 흔적으로 — 이 조합이 가장 온전한 나에 가까울 것이다.
2. “잊는 연습”도 필요하다.
그렇다고 모든 걸 남기려는 강박에 빠져서도 안 된다. 중요한 것과 그렇지 않은 것을 구분하고, 과거의 나를 놓아줄 줄도 알아야 한다. 흔적을 수용하는 것과 모든 순간에 집착하는 것은 다르다.
3. 기록은 큐레이션이다 — 하지만 날것의 재료도 남겨둬야 한다.
박물관을 생각해보자. 모든 유물을 전시하는 박물관은 없다. 하지만 좋은 박물관은 수장고에 방대한 원자료를 보관하고 있다. 전시(기록)만 있고 수장고(흔적)가 없으면 새로운 기획전을 열 수 없다. 나의 에이전트도 마찬가지다. 큐레이션된 기록이 전시실이라면, 날것의 흔적은 수장고다.
4. 결국 내가 나를 알아야 한다.
나를 가장 잘 대변하는 에이전트를 만들기 위해서는, 내가 나를 가장 잘 알아야 한다. 기술이 아무리 발전해도, “나는 어떤 사람인가”라는 질문에 답할 수 있는 건 나뿐이다. 그리고 그 답은 의식적으로 쓴 기록과 무의식적으로 남긴 흔적, 그 둘 사이 어딘가에 있다.
▍마무리
에이전트 시대는 기술의 시대이면서 동시에 자기 성찰의 시대다.
RAG니 fine-tuning이니 하는 기술은 도구일 뿐이다. 그 도구에 무엇을 넣느냐는 온전히 나의 몫이다. 어떤 기록을 남기고, 어떤 기억을 지우고, 어떤 모습으로 세상과 만날지.
오늘의 기록이 내일의 나를 만든다. 그리고 머지않아, 그 기록이 나를 대신하는 에이전트를 만들 것이다.
그러니 오늘, 무엇을 기록할 것인지 한 번쯤 생각해보는 것은 어떨까.
▍참고 자료
- Park et al., “Generative Agents: Interactive Simulacra of Human Behavior” — Stanford/Google (2023)
- Letta (MemGPT), “Memory Management for LLM Agents” — UC Berkeley (2023~)
- Google Cloud, “A2A: Agent-to-Agent Protocol” (2025.04)
- Anthropic, “Model Context Protocol (MCP)” (2024.11)
- LangChain, “TimeWeightedVectorStoreRetriever” — Memory Modules (2023~)
- Nietzsche, On the Genealogy of Morals — “망각은 건강의 조건”