Skip to content

AI 专栏简介

本专栏面向希望系统理解大语言模型(LLM)及相关工程实践的读者,从经典序列建模出发,串联神经网络基础组件、现代 Transformer 架构、检索与工具调用等落地技术,兼顾原理直觉产品/研发语境下的关键概念,便于建立从「模型在算什么」到「系统怎么搭」的完整认知。


当前内容方向

专栏现有文章大致覆盖以下几条主线,彼此可交叉阅读:

1. 语言建模与表示学习

  • 序列建模与长程依赖:循环神经网络(RNN)及其在语言任务中的角色。
  • 现代主干架构:Transformer 与典型 LLM 的工作方式(注意力、编解码分工等)。
  • 输出层与非线性:Softmax、常见激活函数及其在训练与推理中的意义。

2. 向量语义与检索增强

  • 嵌入(Embedding)与向量检索的极简原理,为语义搜索与知识库检索打基础。
  • 检索增强生成(RAG):在生成流程中引入外部知识的设计思路与典型场景。

3. 推理侧能力与成本

  • 上下文窗口:长度限制、截断与长上下文对应用行为的影响。
  • 大模型量化:在精度与算力/显存之间的权衡,面向部署与边缘场景。

4. 工具化与生态协议

  • LLM 的函数调用(Function Calling)与 MCP(Model Context Protocol) 等标准化工具接入思路,以及它们与 RAG、Agent 类架构的关系。

5. 应用侧「怎么用好模型」

  • 提示工程思维链(CoT):少改模型、多改沟通方式,提升复杂任务稳定性。
  • 幻觉 与缓解思路:和 RAG、工具调用、评测指标一起看,形成风险意识。
  • Token 与分词:与 API 计费、上下文预算直接相关。

6. 对齐、评测与多模态

  • 微调与对齐(SFT / RLHF / DPO):从「会生成」到「好用、可控」的常见路径。
  • 大模型评测LLM-as-a-Judge:从 BLEU 到任务成功率、分层指标。
  • 多模态:图文对齐与融合架构的直觉;与文生图 扩散模型 入门互补。

7. 推理与 Agent 骨架

  • KV Cache:理解 Prefill/Decode 与显存占用;与量化、长上下文并列阅读。
  • AI Agent 基本循环:感知—规划—行动—观察,与 MCP 文章衔接。
  • Agent 五大核心模块:规划、记忆、工具、执行与观察、约束与治理的工程拆分视角,与基本循环互补。
  • 流式生成:SSE、首字延迟与全链路缓冲排查。

8. 训练基础与结构细节

  • 优化器、正则化:梯度下降、AdamW、过拟合与权重衰减,读懂训练脚本与论文超参。
  • LayerNorm / BatchNorm、位置编码与 RoPE:读懂 Transformer 实现与长上下文外推讨论。
  • LoRA / PEFT:低秩适配与 QLoRA,私有化与垂直场景常用。

9. 系统工程与安全

  • 结构化输出与 JSON Schema:对接业务系统与解析流水线。
  • 向量数据库与 HNSW/IVF:RAG 检索性能与选型。
  • 提示注入与安全:对公网 Bot、RAG 知识源、工具权限的纵深防御。
  • 混合专家 MoE:总参 vs 激活参、路由与多卡通信直觉。

整体上,专栏侧重 「模型原理 → 表征与检索 → 推理与部署 → 工具与 Agent → 应用技巧与评测 → 训练基础 → 工程安全」,适合作为 LLM 应用架构与产品落地的知识底座。


后续会逐渐扩展的方向

以下内容可在读者反馈与作者排期下继续加深(具体以实际更新为准):

  • 更深数学:注意力变体、扩散/流模型推导、优化理论等。
  • 工程与基础设施:推理服务、批处理与流式输出、网关与成本 SLA、可观测性专题。
  • 安全与合规:红队方法论、隐私计算与审计日志等企业向专题。

若你希望优先看到某一方向(例如「只做工程」或「加深数学推导」),可通过站点反馈渠道或仓库 Issue 提出建议,便于排期与深浅取舍。