Latent Reasoning 시대의 Nunchi AI 3축 사업

한 줄로

Reasoning paradigm은 격주마다 바뀐다. 메모리 레이어는 그 위에서 직교(orthogonal)하게 동작한다. Latent reasoning이 강해질수록, 검증 가능한 외부 메모리의 가치는 오히려 올라간다.

Reddit이 다시 꺼낸 질문

요즘 r/MachineLearning과 다른 ML 서브레딧에서 반복적으로 올라오는 질문이 있다.

"왜 LLM은 자연어로 reasoning하지? 내부적으로 벡터인데, 그냥 latent space에서 추론하면 더 빠르지 않나?"

직관적으로 매력적이다. 그리고 이 질문에 대한 답은 이미 나와 있다.

Meta의 Coconut (2024.12), Chain of Continuous Thought. LLM의 마지막 hidden state를 토큰으로 디코딩하지 않고, 그대로 다음 입력 임베딩으로 넣는다. continuous thought 하나가 여러 가능성을 동시에 인코딩해서, BFS처럼 탐색한다. ProntoQA 같은 논리 추론에서는 CoT를 능가한다.

그런데 왜 메인스트림이 아닌가?

  1. 학습이 깨진다. latent thought에는 ground truth가 없다. 직접 supervision을 줄 수 없고, GRPO 같은 RL을 붙여도 학습이 불안정하다.
  2. 수학에서는 오히려 떨어진다. 논리는 좋아져도 수학은 CoT보다 약하다.
  3. 해석가능성을 잃는다. 사람이 reasoning trace를 못 읽는다. 안전성, 디버깅, 감사가 모두 깨진다.
  4. 생태계가 텍스트 위에 지어졌다. 평가, 디버깅, RAG, 캐싱 모두 토큰 기준이다.

그래서 어떻게 되나

Latent reasoning이 부분적으로, 특히 unattended agent 쪽에서, 메인스트림으로 들어올 가능성은 충분하다. 그리고 그게 바로 메모리 레이어가 더 필요해지는 이유다.

핵심 명제는 이거다.

Reasoning paradigm과 메모리 레이어는 직교한다.

Reasoning이 불투명해질수록, "모델이 무엇을 알고 있었는가"의 가치는 올라간다.

모델이 latent space에서 무슨 생각을 하는지 사람이 못 봐도, 모델이 어떤 atom을 recall했는지는 추적 가능하다. 이 비대칭이 우리 사업의 진짜 자리다.

Nunchi AI의 3축 사업 구조에 어떻게 작용하는지 라인별로 정리한다.

01. 눈치플랜: 사람도 AI도 같은 기억을 본다

B2C/SMB. Norfolk + Nexus. 노션, 옵시디언 대안.

PKM 시장은 지금 두 진영으로 갈린다. 노션은 사람이 입력하고 사람이 읽는다. 옵시디언도 마찬가지다. AI가 끼어들어도 reasoning trace가 보이지 않으면 신뢰가 안 쌓인다.

Latent reasoning이 들어오면 이 문제는 더 심해진다. AI가 "왜 이렇게 답했는지"를 보여주는 토큰이 사라진다. 사용자는 답만 보고 그게 자기 노트에서 나왔는지, 환각인지 구분할 수 없다.

Norfolk의 포지션은 여기서 명확해진다.

AI가 무슨 생각으로 답했는지는 모르지만, 어떤 사실에 근거했는지는 추적 가능하다.

Citation Graph -> Provenance grading -> 자동 re-atomization으로 이어지는 파이프라인은 latent reasoning 시대에 선택이 아니라 필수가 된다. 이게 노션, 옵시디언이 줄 수 없는 자리다. 그들은 텍스트 저장소지 추적 가능한 메모리가 아니다.

02. 써킷 워크플로우: Unattended Agent의 책임성

B2B. Conductor + Axon + Engram. 2-50인 테크기업.

여기가 가장 직접적이다. 코딩 에이전트가 unattended로 PR을 생성하는 시장은 비어 있다. Cursor와 Devin은 attended 보조 도구다. 회사가 잠든 사이에 도는 에이전트, 그게 써킷이 노리는 자리다.

문제는 unattended 에이전트가 latent reasoning으로 코드를 짜면, 사후에 "왜 이렇게 작성했지?"에 답할 수 없다는 것이다. 코드 리뷰는 산출물만 본다. 의사결정 trace는 사라진다.

써킷의 답.

Reasoning trace는 잃어도, 결정 trace는 남긴다.

Conductor의 분기 선택, Engram의 driven log, Axon이 AMCP로 recall한 PRD atom들. 이 모든 게 PR과 함께 누적된다. 사람이 모델의 머릿속을 못 봐도, "이 PR은 어제의 PRD 결정 #atom-3417과 그 이전 회의록 두 개를 참조해서 나왔다"는 audit trail이 남는다.

이게 엔터프라이즈 시장에서 unattended 에이전트가 통과해야 할 첫 관문이다. SOC2를 받든 ISO를 받든, "AI가 무슨 근거로 결정했는지 설명할 수 있는가"가 필수 항목이 된다. 텍스트 CoT는 이 요구를 만족시키는 척하지만, latent reasoning이 늘어나면 그 척조차 못 하게 된다.

써킷은 처음부터 reasoning trace에 의존하지 않는다. 결정과 출처의 trace에 의존한다. 이게 시장이 latent로 이동할수록 강해지는 포지션이다.

03. MaaS: Reasoning은 숨겨야 하는 도메인

Platform. Synapsis Engine API. 캐릭터챗 -> 로봇/버디봇.

이 라인은 정반대다. 캐릭터챗, 버디봇, 로봇에서 reasoning trace는 숨겨야 한다. 사용자는 "왜 그렇게 말했어?"를 보고 싶지 않다. 자연스러운 응답을 원한다.

즉, 이 시장은 latent reasoning과 가장 잘 맞는다. 모델이 자기 머릿속에서 BFS를 돌리든, 어떤 latent 경로를 따라가든, 사용자에겐 결과만 보이면 된다.

그런데 이 도메인에서 제품 가치 자체는 기억이다. 어제 사용자가 한 말을 오늘 캐릭터가 기억해야 한다. 한 달 전의 약속을 버디봇이 지켜야 한다. 모델이 reasoning을 어떻게 하든, "이 캐릭터/로봇이 무엇을 기억하고 있는가"는 외부에서 주입되어야 한다.

Synapsis Engine API의 자리.

모델 reasoning paradigm이 무엇이든, 일관된 기억을 주입하는 단일 인터페이스.

CoT 모델이든 Coconut 스타일 모델이든, on-device Gemma든 GPT든, 같은 atom 구조로 같은 기억을 제공한다. 모델 회사들은 reasoning에서 경쟁한다. 메모리에서는 경쟁하지 않는다. 이게 우리가 비집고 들어가는 자리다.

그리고 캐릭터챗은 첫 시장이다. 본 시장은 로봇, 버디봇이다. 로봇 OEM이 자체 모델을 쓰든 외부 모델을 쓰든, 메모리는 외부 표준에 붙는 게 합리적이다. OAuth가 모든 인증을 표준화했듯이.

AMCP가 양 라인 공통 표준인 이유

여기서 AMCP가 왜 양 라인 공통 표준이어야 하는지가 다시 정합적으로 들어맞는다.

reasoning paradigm이 무엇이든, CoT든 latent든 hybrid든, atom은 그 위에서 동일한 인터페이스로 노출된다. AMCP가 Apache 2.0 OSS인 이유, 내부 두 제품이 같은 프로토콜로 말하는 이유, 그게 외부 표준으로 확산되어야 하는 이유. 모두 같은 한 가지 명제로 수렴한다.

모델이 생각하는 방식은 격주마다 바뀐다.

회사가, 사람이, 캐릭터가 기억하는 방식은 그 위에서 표준화되어야 한다.

마무리

Reddit의 그 질문, "왜 LLM은 latent space에서 reasoning하지 않지?", 은 이미 답이 있고, 부분적으로 들어오고 있고, 그 자체로는 우리 사업의 위협이 아니다. 오히려 가속기다.

모델이 더 똑똑해질수록 reasoning은 더 불투명해진다. 그 불투명함을 보완하는 자리가 메모리 레이어다.

Synapsis -> Axon -> Engram. 구조 -> 전송 -> 흔적. 이 세 단계가 reasoning paradigm과 무관하게 계속 가치 있는 이유다.

Land with Nunchi Plan, expand with Circuit Workflow.