整理 Hexo、GitHub Pages 与 Redefine 主题搭建过程中的配置步骤、评论系统和常见问题。
-
Sticky
-
基础知识:符号与最小数学地图
这页是基础知识模块的随手查表。第一次读 AI 教程时,真正卡人的往往不是公式本身,而是符号没有说明: 是输入还是图像, 是权重还是宽度, 是图像高度还是预测 horizon。 看到公式先不要急着推导。按四步读:谁是输入,谁是输出,条件是什么,模型在优化什么。只要这四件事能说清,大多数公式都会从“看不懂
-
训练:模型训练从零入门
这页给研究入门读者一条更顺的路线:先看清一次训练循环,再读公式、阶段、论文图和系统账。你不需要一开始就懂 Megatron、ZeRO 或 RLHF,只要抓住一个问题: 模型怎样从一批数据里得到错误信号,再把这个信号变成参数更新 。 遇到公式时,先不要急着推导。先问四件事:谁是输入,谁是目标,模型输出了什么,loss 在
-
量化:论文图解导读
这页把量化章节最常用的论文图放在一条线上。读法不是背图,而是用每张图回答一个问题:量化为什么必要,误差在哪里,系统为什么不一定变快,哪些方法在保护关键路径。 先看 SmoothQuant Figure 1 建立系统压力,再看 Low-bit LLM Survey Figure 1/2/3 分清分类和基础概念,随后看 G
-
量化:符号与最小数学地图
这页不是数学考试,而是读量化教程和论文时随手查的地图。量化公式大多在回答三件事: 看到公式时先问:这个符号是权重、激活还是 KV cache;scale 是一整层共用还是每组共用;误差是在单个数上看,还是在矩阵乘输出上看。 1. 最常见的量化公式 $$ q = mathrm clip left mathrm round
-
世界模型:从零理解世界模型
这页是世界模型专题的入口缓冲层。默认你已经知道神经网络、Transformer、token 和训练 loss 的大概意思,但还不熟 RL 、 RSSM 、 JEPA 、 WAM/VAM 和论文里的公式符号。 先把一句话放在前面: 世界模型不是“会生成未来视频”的模型,而是“能预测动作后果,并把这种预测交给 planne
-
VLM/VLA:符号与最小数学地图
这页不是数学考试,而是一张读论文和读教程时随手查的地图。VLM/VLA 里很多公式看起来吓人,其实大多只是在回答三件事: 看到公式时先别急着推导。先问四个问题:输入是什么,输出是什么,时间下标 表示哪一刻,模型是在回答“理解”“行动”还是“预测后果”。 1. 三类最常见公式 VLM:看图回答问题 $$ p th
-
本站判断原则
这页说明本站如何判断一项技术是否真的服务 世界模型高效训练 。它不替代 全站证据与复现状态标准、Claim Ledger 或 全站效率技术覆盖矩阵,而是把这些页面背后的判断口径写成更短的原则。 世界模型效率不是单一训练技巧,而是表示、交互、系统与验证共同决定的闭环问题。一个方法只有同时说清“省什么成本、牺牲什么、证据是
-
世界模型:Rollout 服务、量化与 Kernel 全链路案例
这页把世界模型 rollout 从“模型能预测未来”推进到“系统能以可接受成本服务规划器”。它串起视频/world-model rollout、KV cache、低比特、MagiAttention、KVSlimmer、CausVid、SLO 和失败回放,重点回答: 怎样证明系统成本下降没有把动作分叉、风险判断和闭环收益
-
世界模型:VLA / 世界模型全链路案例:从机器人数据到闭环评测
这页把 VLA、世界模型、训练系统和评测放到同一条工程链里。它不是新论文综述,而是一个可执行的方案模板:当你要做“机器人数据 + VLA 动作 + 世界模型预测 + 闭环评测”时,每一层该省什么成本、看什么证据、不能外推什么。 本页复用论文原图和站内 mini-chain 指标组织证据链。它不是独立复现实验,也不证明任