Latent Reasoning時代におけるNunchi AIの3軸事業

一言で

reasoning paradigmは隔週で変わる。 メモリレイヤーはその上で直交して動作する。 latent reasoningが強くなるほど、検証可能な外部メモリの価値はむしろ上がる。

Redditが再び投げかけた問い

最近、r/MachineLearningや他のML系subredditで繰り返し出てくる問いがある。

「なぜLLMは自然言語でreasoningするのか。内部的にはベクトルなのだから、latent spaceでそのまま推論した方が速いのではないか」

直感的には魅力的だ。 そして、この問いへの答えはすでに出ている。

MetaのCoconut (2024.12)Chain of Continuous Thought。 LLMの最後のhidden stateをトークンにデコードせず、そのまま次の入力埋め込みとして入れる。 一つのcontinuous thoughtが複数の可能性を同時にエンコードし、BFSのように探索する。 ProntoQAのような論理推論ではCoTを上回る。

では、なぜメインストリームになっていないのか。

  1. 学習が壊れる。 latent thoughtにはground truthがない。直接supervisionを与えられず、GRPOのようなRLを付けても学習は不安定になる。
  2. 数学ではむしろ落ちる。 論理は良くなっても、数学ではCoTより弱い。
  3. 解釈可能性を失う。 人間がreasoning traceを読めない。安全性、デバッグ、監査がすべて壊れる。
  4. エコシステムがテキスト上に作られている。 評価、デバッグ、RAG、キャッシュはすべてトークン基準だ。

では何が起きるのか

latent reasoningが部分的に、特にunattended agent側で、メインストリームに入る可能性は十分にある。 そしてそれこそが、メモリレイヤーがさらに必要になる理由だ。

中心命題はこれだ。

reasoning paradigmとメモリレイヤーは直交する。

reasoningが不透明になるほど、「モデルが何を知っていたのか」の価値は上がる。

モデルがlatent spaceで何を考えているのかを人間が見られなくても、モデルがどのatomをrecallしたのかは追跡できる。 この非対称性こそが、私たちの事業の本当の位置だ。

Nunchi AIの3軸事業構造にどう作用するのか、ラインごとに整理する。

01. Nunchi Plan: 人間もAIも同じ記憶を見る

B2C/SMB. Norfolk + Nexus. Notion、Obsidianの代替。

PKM市場はいま二つの陣営に分かれている。 Notionは人間が入力し、人間が読む。 Obsidianも同じだ。 AIが入っても、reasoning traceが見えなければ信頼は積み上がらない。

latent reasoningが入ると、この問題はさらに悪化する。 AIが「なぜこう答えたのか」を示すトークンが消える。 ユーザーは答えだけを見て、それが自分のノートから来たのか、幻覚なのかを区別できない。

Norfolkのポジションはここで明確になる。

AIが何を考えて答えたのかは分からなくても、どの事実に基づいたのかは追跡できる。

Citation Graph -> Provenance grading -> 自動re-atomizationへ続くパイプラインは、latent reasoning時代には選択肢ではなく必須になる。 これはNotionやObsidianが提供できない位置だ。 彼らはテキストストアであって、追跡可能なメモリではない。

02. Circuit Workflow: Unattended Agentの説明責任

B2B. Conductor + Axon + Engram. 2-50人のテック企業。

ここが最も直接的だ。 コーディングエージェントがunattendedでPRを生成する市場はまだ空いている。 CursorやDevinはattendedな補助ツールだ。 会社が眠っている間に動くエージェント、それがCircuitの狙う位置だ。

問題は、unattended agentがlatent reasoningでコードを書くと、後から「なぜこう書いたのか」に答えられないことだ。 コードレビューは成果物だけを見る。 意思決定のtraceは消える。

Circuitの答えはこれだ。

reasoning traceを失っても、decision traceは残す。

Conductorの分岐選択、Engramのdriven log、AxonがAMCPでrecallしたPRD atom。 これらすべてがPRとともに蓄積される。 人間がモデルの頭の中を見られなくても、「このPRは昨日のPRD decision #atom-3417と、その前の会議録二つを参照して作られた」というaudit trailが残る。

これがエンタープライズ市場でunattended agentが通過しなければならない最初の関門だ。 SOC2であれISOであれ、「AIがどの根拠で決定したのかを説明できるか」は必須項目になる。 テキストCoTはこの要求を満たしているふりをするが、latent reasoningが増えると、そのふりさえできなくなる。

Circuitは最初からreasoning traceに依存しない。 決定と出典のtraceに依存する。 市場がlatentへ移動するほど、このポジションは強くなる。

03. MaaS: reasoningは隠すべきドメイン

Platform. Synapsis Engine API. キャラクターチャット -> ロボット/バディボット。

このラインは正反対だ。 キャラクターチャット、バディボット、ロボットではreasoning traceは隠すべきものだ。 ユーザーは「なぜそう言ったのか」を見たいわけではない。 自然な応答を求めている。

つまり、この市場はlatent reasoningと最も相性が良い。 モデルが頭の中でBFSを回そうが、どんなlatent経路をたどろうが、ユーザーには結果だけが見えればよい。

ただし、このドメインでの製品価値そのものは記憶だ。 昨日ユーザーが言ったことを、今日キャラクターが覚えていなければならない。 一か月前の約束を、バディボットが守らなければならない。 モデルがどのようにreasoningするかに関係なく、「このキャラクター/ロボットが何を記憶しているのか」は外部から注入されなければならない。

Synapsis Engine APIの位置はここにある。

モデルのreasoning paradigmが何であれ、一貫した記憶を注入する単一インターフェース。

CoTモデルでも、Coconutスタイルのモデルでも、on-device GemmaでもGPTでも、同じatom構造で同じ記憶を提供する。 モデル企業はreasoningで競争する。 メモリでは競争しない。 ここが私たちの入り込む場所だ。

そしてキャラクターチャットは最初の市場だ。 本命市場はロボットとバディボットだ。 ロボットOEMが自社モデルを使おうが外部モデルを使おうが、メモリは外部標準に接続する方が合理的だ。 OAuthが認証を標準化したように。

AMCPが両ライン共通標準である理由

ここで、AMCPがなぜ両ラインの共通標準であるべきかが改めて整合する。

reasoning paradigmが何であれ、CoTでもlatentでもhybridでも、atomはその上で同じインターフェースとして露出する。 AMCPがApache 2.0 OSSである理由、内部の二つの製品が同じプロトコルで話す理由、それが外部標準として広がるべき理由。 すべては一つの命題に収束する。

モデルの考え方は隔週で変わる。

会社、人間、キャラクターの記憶の仕方は、その上で標準化されなければならない。

おわりに

Redditのあの問い、「なぜLLMはlatent spaceでreasoningしないのか」にはすでに答えがある。 それは部分的に入り始めている。 そしてそれ自体は、私たちの事業への脅威ではない。 むしろ加速装置だ。

モデルが賢くなるほど、reasoningはより不透明になる。 その不透明さを補完する場所がメモリレイヤーだ。

Synapsis -> Axon -> Engram. 構造 -> 転送 -> 痕跡。 この三段階がreasoning paradigmに関係なく価値を持ち続ける理由だ。

Land with Nunchi Plan, expand with Circuit Workflow.