Latent Reasoning時代におけるNunchi AIの3軸事業
一言で
reasoning paradigmは隔週で変わる。 メモリレイヤーはその上で直交して動作する。 latent reasoningが強くなるほど、検証可能な外部メモリの価値はむしろ上がる。
Redditが再び投げかけた問い
最近、r/MachineLearningや他のML系subredditで繰り返し出てくる問いがある。
「なぜLLMは自然言語でreasoningするのか。内部的にはベクトルなのだから、latent spaceでそのまま推論した方が速いのではないか」
直感的には魅力的だ。 そして、この問いへの答えはすでに出ている。
MetaのCoconut (2024.12)、Chain of Continuous Thought。 LLMの最後のhidden stateをトークンにデコードせず、そのまま次の入力埋め込みとして入れる。 一つのcontinuous thoughtが複数の可能性を同時にエンコードし、BFSのように探索する。 ProntoQAのような論理推論ではCoTを上回る。
では、なぜメインストリームになっていないのか。
- 学習が壊れる。 latent thoughtにはground truthがない。直接supervisionを与えられず、GRPOのようなRLを付けても学習は不安定になる。
- 数学ではむしろ落ちる。 論理は良くなっても、数学ではCoTより弱い。
- 解釈可能性を失う。 人間がreasoning traceを読めない。安全性、デバッグ、監査がすべて壊れる。
- エコシステムがテキスト上に作られている。 評価、デバッグ、RAG、キャッシュはすべてトークン基準だ。
では何が起きるのか
latent reasoningが部分的に、特にunattended agent側で、メインストリームに入る可能性は十分にある。 そしてそれこそが、メモリレイヤーがさらに必要になる理由だ。
中心命題はこれだ。
reasoning paradigmとメモリレイヤーは直交する。
reasoningが不透明になるほど、「モデルが何を知っていたのか」の価値は上がる。
モデルがlatent spaceで何を考えているのかを人間が見られなくても、モデルがどのatomをrecallしたのかは追跡できる。 この非対称性こそが、私たちの事業の本当の位置だ。
Nunchi AIの3軸事業構造にどう作用するのか、ラインごとに整理する。
01. Nunchi Plan: 人間もAIも同じ記憶を見る
B2C/SMB. Norfolk + Nexus. Notion、Obsidianの代替。
PKM市場はいま二つの陣営に分かれている。 Notionは人間が入力し、人間が読む。 Obsidianも同じだ。 AIが入っても、reasoning traceが見えなければ信頼は積み上がらない。
latent reasoningが入ると、この問題はさらに悪化する。 AIが「なぜこう答えたのか」を示すトークンが消える。 ユーザーは答えだけを見て、それが自分のノートから来たのか、幻覚なのかを区別できない。
Norfolkのポジションはここで明確になる。
AIが何を考えて答えたのかは分からなくても、どの事実に基づいたのかは追跡できる。
Citation Graph -> Provenance grading -> 自動re-atomizationへ続くパイプラインは、latent reasoning時代には選択肢ではなく必須になる。 これはNotionやObsidianが提供できない位置だ。 彼らはテキストストアであって、追跡可能なメモリではない。
02. Circuit Workflow: Unattended Agentの説明責任
B2B. Conductor + Axon + Engram. 2-50人のテック企業。
ここが最も直接的だ。 コーディングエージェントがunattendedでPRを生成する市場はまだ空いている。 CursorやDevinはattendedな補助ツールだ。 会社が眠っている間に動くエージェント、それがCircuitの狙う位置だ。
問題は、unattended agentがlatent reasoningでコードを書くと、後から「なぜこう書いたのか」に答えられないことだ。 コードレビューは成果物だけを見る。 意思決定のtraceは消える。
Circuitの答えはこれだ。
reasoning traceを失っても、decision traceは残す。
Conductorの分岐選択、Engramのdriven log、AxonがAMCPでrecallしたPRD atom。 これらすべてがPRとともに蓄積される。 人間がモデルの頭の中を見られなくても、「このPRは昨日のPRD decision #atom-3417と、その前の会議録二つを参照して作られた」というaudit trailが残る。
これがエンタープライズ市場でunattended agentが通過しなければならない最初の関門だ。 SOC2であれISOであれ、「AIがどの根拠で決定したのかを説明できるか」は必須項目になる。 テキストCoTはこの要求を満たしているふりをするが、latent reasoningが増えると、そのふりさえできなくなる。
Circuitは最初からreasoning traceに依存しない。 決定と出典のtraceに依存する。 市場がlatentへ移動するほど、このポジションは強くなる。
03. MaaS: reasoningは隠すべきドメイン
Platform. Synapsis Engine API. キャラクターチャット -> ロボット/バディボット。
このラインは正反対だ。 キャラクターチャット、バディボット、ロボットではreasoning traceは隠すべきものだ。 ユーザーは「なぜそう言ったのか」を見たいわけではない。 自然な応答を求めている。
つまり、この市場はlatent reasoningと最も相性が良い。 モデルが頭の中でBFSを回そうが、どんなlatent経路をたどろうが、ユーザーには結果だけが見えればよい。
ただし、このドメインでの製品価値そのものは記憶だ。 昨日ユーザーが言ったことを、今日キャラクターが覚えていなければならない。 一か月前の約束を、バディボットが守らなければならない。 モデルがどのようにreasoningするかに関係なく、「このキャラクター/ロボットが何を記憶しているのか」は外部から注入されなければならない。
Synapsis Engine APIの位置はここにある。
モデルのreasoning paradigmが何であれ、一貫した記憶を注入する単一インターフェース。
CoTモデルでも、Coconutスタイルのモデルでも、on-device GemmaでもGPTでも、同じatom構造で同じ記憶を提供する。 モデル企業はreasoningで競争する。 メモリでは競争しない。 ここが私たちの入り込む場所だ。
そしてキャラクターチャットは最初の市場だ。 本命市場はロボットとバディボットだ。 ロボットOEMが自社モデルを使おうが外部モデルを使おうが、メモリは外部標準に接続する方が合理的だ。 OAuthが認証を標準化したように。
AMCPが両ライン共通標準である理由
ここで、AMCPがなぜ両ラインの共通標準であるべきかが改めて整合する。
- Nunchi Planは人間の記憶をatomにする。
- Circuitは会社の決定をatomにする。
- MaaSはキャラクターとロボットの記憶をatomにする。
reasoning paradigmが何であれ、CoTでもlatentでもhybridでも、atomはその上で同じインターフェースとして露出する。 AMCPがApache 2.0 OSSである理由、内部の二つの製品が同じプロトコルで話す理由、それが外部標準として広がるべき理由。 すべては一つの命題に収束する。
モデルの考え方は隔週で変わる。
会社、人間、キャラクターの記憶の仕方は、その上で標準化されなければならない。
おわりに
Redditのあの問い、「なぜLLMはlatent spaceでreasoningしないのか」にはすでに答えがある。 それは部分的に入り始めている。 そしてそれ自体は、私たちの事業への脅威ではない。 むしろ加速装置だ。
モデルが賢くなるほど、reasoningはより不透明になる。 その不透明さを補完する場所がメモリレイヤーだ。
Synapsis -> Axon -> Engram. 構造 -> 転送 -> 痕跡。 この三段階がreasoning paradigmに関係なく価値を持ち続ける理由だ。
Land with Nunchi Plan, expand with Circuit Workflow.