AI 专栏简介
本专栏面向希望系统理解大语言模型(LLM)及相关工程实践的读者,从经典序列建模出发,串联神经网络基础组件、现代 Transformer 架构、检索与工具调用等落地技术,兼顾原理直觉与产品/研发语境下的关键概念,便于建立从「模型在算什么」到「系统怎么搭」的完整认知。
当前内容方向
专栏现有文章大致覆盖以下几条主线,彼此可交叉阅读:
1. 语言建模与表示学习
- 序列建模与长程依赖:循环神经网络(RNN)及其在语言任务中的角色。
- 现代主干架构:Transformer 与典型 LLM 的工作方式(注意力、编解码分工等)。
- 输出层与非线性:Softmax、常见激活函数及其在训练与推理中的意义。
2. 向量语义与检索增强
- 嵌入(Embedding)与向量检索的极简原理,为语义搜索与知识库检索打基础。
- 检索增强生成(RAG):在生成流程中引入外部知识的设计思路与典型场景。
3. 推理侧能力与成本
- 上下文窗口:长度限制、截断与长上下文对应用行为的影响。
- 大模型量化:在精度与算力/显存之间的权衡,面向部署与边缘场景。
4. 工具化与生态协议
- LLM 的函数调用(Function Calling)与 MCP(Model Context Protocol) 等标准化工具接入思路,以及它们与 RAG、Agent 类架构的关系。
5. 应用侧「怎么用好模型」
- 提示工程、思维链(CoT):少改模型、多改沟通方式,提升复杂任务稳定性。
- 幻觉 与缓解思路:和 RAG、工具调用、评测指标一起看,形成风险意识。
- Token 与分词:与 API 计费、上下文预算直接相关。
6. 对齐、评测与多模态
- 微调与对齐(SFT / RLHF / DPO):从「会生成」到「好用、可控」的常见路径。
- 大模型评测与 LLM-as-a-Judge:从 BLEU 到任务成功率、分层指标。
- 多模态:图文对齐与融合架构的直觉;与文生图 扩散模型 入门互补。
7. 推理与 Agent 骨架
- KV Cache:理解 Prefill/Decode 与显存占用;与量化、长上下文并列阅读。
- AI Agent 基本循环:感知—规划—行动—观察,与 MCP 文章衔接。
- Agent 五大核心模块:规划、记忆、工具、执行与观察、约束与治理的工程拆分视角,与基本循环互补。
- 流式生成:SSE、首字延迟与全链路缓冲排查。
8. 训练基础与结构细节
- 优化器、正则化:梯度下降、AdamW、过拟合与权重衰减,读懂训练脚本与论文超参。
- LayerNorm / BatchNorm、位置编码与 RoPE:读懂 Transformer 实现与长上下文外推讨论。
- LoRA / PEFT:低秩适配与 QLoRA,私有化与垂直场景常用。
9. 系统工程与安全
- 结构化输出与 JSON Schema:对接业务系统与解析流水线。
- 向量数据库与 HNSW/IVF:RAG 检索性能与选型。
- 提示注入与安全:对公网 Bot、RAG 知识源、工具权限的纵深防御。
- 混合专家 MoE:总参 vs 激活参、路由与多卡通信直觉。
整体上,专栏侧重 「模型原理 → 表征与检索 → 推理与部署 → 工具与 Agent → 应用技巧与评测 → 训练基础 → 工程安全」,适合作为 LLM 应用架构与产品落地的知识底座。
后续会逐渐扩展的方向
以下内容可在读者反馈与作者排期下继续加深(具体以实际更新为准):
- 更深数学:注意力变体、扩散/流模型推导、优化理论等。
- 工程与基础设施:推理服务、批处理与流式输出、网关与成本 SLA、可观测性专题。
- 安全与合规:红队方法论、隐私计算与审计日志等企业向专题。
若你希望优先看到某一方向(例如「只做工程」或「加深数学推导」),可通过站点反馈渠道或仓库 Issue 提出建议,便于排期与深浅取舍。