整理 Hexo、GitHub Pages 与 Redefine 主题搭建过程中的配置步骤、评论系统和常见问题。
-
Sticky
-
世界模型:WM / WAM / VAM:动作条件建模
近两年世界模型讨论里,很多论文都在谈未来预测、动作建模、视频生成、控制和仿真,但它们强调的对象并不完全相同。 WM / WAM / VAM 不是社区唯一标准术语,却很适合做阅读地图: WM (World Model)强调世界动态, WAM (World-Action Model)强调动作和世界未来的联合建模, VAM
-
世界模型:不确定性与风险敏感规划
世界模型如果只输出一个“最可能的未来”,在高风险决策里往往不够。机器人、自动驾驶和复杂 agent 系统真正关心的不只是平均回报最大,而是在不确定未来里哪些动作更安全,哪些动作期望高但尾部风险不可接受。 不确定性建模与风险敏感规划,是把世界模型从平均预测器提升为安全决策工具的关键。 风险规划不是只看平均收益,而是看坏情
-
世界模型:模拟器、反事实与合成 Rollout
世界模型一旦不仅用于预测未来,而开始指导下一步收什么数据、在哪些场景做验证、如何构造高价值训练样本,就会自然走向模拟器、反事实生成和合成 rollout 数据。这条路线的核心不是“伪造更多样本”,而是让 imagined data 服务长尾风险覆盖、失败恢复、planner warmup、策略改进和数据引擎闭环。 合成
-
世界模型:RSSM、Dreamer 与规划
世界模型的核心目标,是让智能体拥有一种“在脑中试错”的能力。 与其每次都在真实环境里撞墙、摔杯子、翻车,不如先学一个潜空间动力学,再在里面做想象、评估和规划。 这条路线是最经典的 WM 主线之一。 如果按训练来源划分,它属于“交互轨迹驱动的 latent dynamics / model-based RL 世界模型路线
-
世界模型:规划即推理与潜在动作
世界模型与规划有一条重要线索:规划不一定只能写成显式搜索或值函数优化,也可以写成推断问题。与此同时,复杂动作空间直接规划太难,很多系统会把动作片段压缩成潜在动作或技能代码,再在更紧凑的空间里做推理。 这页连接三件事:为什么奖励最大化可以改写成后验推断,为什么潜在动作适合高维控制,以及这条路线如何和 WM / WAM /
-
世界模型:生成式模拟与视频世界模型
生成式模拟(generative simulation)关注的不是“生成一段好看的视频”,而是在给定历史观测、动作、场景约束和不确定性的条件下,生成对未来有用的可验证预测。视频世界模型只是其中最直观的一类:它把未来观测显式展开成图像或视频,让规划、风险评估和数据回流更容易被人和系统检查。 如果按训练来源划分,本页主要对
-
世界模型:评测与失效模式
世界模型评测不能只看一步预测误差。一个模型可能生成很清晰的视频,却不能帮助规划;也可能短期 rollout 很准,但一接入闭环控制就被自己的误差放大。真正有用的评测应同时回答:模型是否学到世界结构、是否对动作和反事实敏感、是否能在闭环里提升决策、是否知道自己什么时候不可靠。 这页建议和 世界模型路线图、生成式模拟与视频
-
世界模型:高效训练技术路线图
这页是全站的主线枢纽: 如何在有限真实交互、有限视频 token、有限 GPU-hour 和有限验证预算下,训练出对动作敏感、能长时 rollout、能改善决策的世界模型。 它不是要替代基础知识、训练、推理、量化、算子、VLM/VLA 或具身智能章节。相反,这些章节都被放到同一条主线下:它们分别解决世界模型训练中的不同
-
世界模型:开发路线
这页把面向机器人任务的世界模型开发路线整理成一条更完整的教程线:从相机和几何数据开始,到 3D encoder、VLA / diffusion policy、仿真环境、success checker,再到一个能服务真实任务的世界模型闭环。 它的重点不是再解释“世界模型是什么”,而是回答一个更实际的问题: 如果今天要开发