📌 新专题 LLM · Architecture

大模型专题
架构图谱 · 阅读入口

这条专题不直接教你怎么用 Claude Code,而是补“模型本体”这条线:注意力、混合架构、MoE、长上下文、推理成本这些基础结构,决定了上层 Agent 工具链为什么会长成现在这样。

这个专题最适合怎么用

🧱

先补架构类型

先把 Transformer、混合注意力、状态空间模型、MoE 这些大类分清,再去看具体模型,不容易迷路。

📏

把结构和成本绑在一起看

很多架构变化并不是“更先进”这么简单,而是为了上下文长度、训练效率、推理吞吐和显存成本服务。

🔁

和 Agent / RAG 交叉阅读

当你理解模型内部的注意力和混合结构,再看外层 Agent Loop、RAG、工具调用,会更知道系统瓶颈到底在哪一层。

📚

先看图,再读论文

这页最强的点在于它降低了论文阅读门槛。先建立图谱,再读论文摘要和实现,会轻松很多。