VLM/VLA:视频表征、状态记忆与长时序压缩

VLM/VLA:视频表征、状态记忆与长时序压缩

Charles Lv7

VLM 从图片开始,世界模型却必须处理时间。对 VLA 和世界模型来说,视频不是很多张图片的拼接,而是状态如何随动作、接触、遮挡和环境变化而演化。

初学者先抓住

视频表征要解决“当前发生了什么”和“之前发生的事还留下了什么影响”。如果只把每帧当图片理解,模型很容易会描述画面,却抓不住速度、因果、物体持久性和动作后果。

视频表征的四个目标

目标 读者要看什么 对世界模型的意义
时序连续性 物体是否跨帧一致 决定 rollout 是否漂移
运动与接触 速度、碰撞、抓取、遮挡 决定动作后果是否可信
长时记忆 早期状态是否影响后续决策 决定长任务能否恢复
token 压缩 多帧信息如何不爆上下文 决定训练成本是否可控

常见路线

1. 帧级 VLM 拼接

把关键帧抽出来送进 VLM,是最容易落地的方案。它适合视频问答、事件摘要和低频观察,但对机器人控制和世界模型不够:帧间速度、接触瞬间和动作结果可能被采样漏掉。

2. 视频 encoder / latent prediction

用视频 encoder 直接学习时空特征,再在 latent space 做预测。V-JEPA、JEPA 类方法的启发在于:不必重建所有像素,先学能表达运动和上下文的 latent。

这对高效训练很重要,因为像素级重建昂贵且容易把容量花在纹理上;latent prediction 更容易把学习压力放到对象、运动和结构上。

V-JEPA training procedure

图源:V-JEPA: Latent Video Prediction for Visual Representation Learning,Figure 3。原论文图意:context encoder 只处理 masked video 中可见 token,predictor 结合 context output 和 mask tokens 去预测 target encoder 对完整视频产生的 masked token representations。

图解:V-JEPA 支撑的是状态学习,不是像素复读

V-JEPA 的目标不是把遮挡区域画得多清楚,而是在 latent space 预测被遮挡时空区域的表示。这给世界模型一个重要启发:视频状态应优先保留对象、运动、遮挡和上下文结构,而不是把容量花在纹理复原上。但 V-JEPA 仍缺动作条件、reward、risk 和 planner 接口,所以它更适合作为视频状态学习依据,而不是完整世界模型答案。

3. 记忆层级

长视频不能把所有帧都放进上下文。更现实的做法是分层:

层级 保存什么 代价
当前窗口 最近几帧、动作、局部状态 高保真但昂贵
工作记忆 目标、约束、关键物体状态 结构化但可能漏细节
长期记忆 地图、任务历史、失败记录 便宜但读取慢
回放库 完整轨迹、传感器日志 不进实时上下文,供训练和复盘

与高效训练的关系

视频世界模型训练很容易被三件事拖垮:

  1. 帧数太多,序列长度爆炸。
  2. 分辨率太高,视觉 token 爆炸。
  3. 目标太像像素重建,模型学到纹理多于动态。

因此高效训练通常会组合使用:视频 tokenizer、latent prediction、patch / sequence packing、mask 建模、动作条件压缩、长短 horizon 混合训练,以及按任务价值采样轨迹。

VLA 场景下的状态问题

机器人任务里,一个状态是否好,不只看能不能回答画面问题,还要看:

  1. 抓取前后物体是否被持续跟踪。
  2. 遮挡后物体是否仍被记住。
  3. 接触发生时是否保留关键瞬间。
  4. 动作失败后是否知道失败原因。
  5. 同一任务在不同相机和机器人上是否能对齐。

这些能力决定 VLA 能不能从“看一眼做一步”走向“执行、观察、恢复、继续”。

一个记忆写入例子:杯子被移到遮挡区

下面是一条 episode 中最容易被短窗口模型遗忘的片段。关键不是把所有帧都长期保存,而是把会改变后续决策的状态写入工作记忆。

时间 观测 动作 应写入的 memory 后续用途
t=18t=18 红杯在桌面左前方,无遮挡 机械臂接近 object:red_cup pose=left_front visible=true 建立对象身份
t=31t=31 夹爪接触杯把 闭合夹爪 contact:red_cup handle grasped=true confidence=0.82 判断是否已抓住
t=42t=42 杯子被移动到箱子后方,部分遮挡 放置动作 object:red_cup pose=behind_box visible=false last_seen=t42 遮挡后仍保留去向
t=57t=57 当前画面只看到箱子 继续整理桌面 task_state:red_cup already_moved=true 避免重复抓取原位置

如果只保留最近 8 帧,t=57t=57 时模型可能看不到杯子,就把它预测回训练集中最常见的桌面位置。一个更稳的世界模型会把“物体已被移动”和“最后可信位姿”作为结构化 memory token 或 latent state 持续携带。

memory token 不是摘要作文

长时记忆不是把视频写成自然语言摘要就结束。对 VLA / 世界模型更有用的是可验证字段:

1
2
3
4
5
6
7
8
9
memory_event:
object_id: red_cup_03
event: moved_behind_occluder
last_visible_time: 42.1
last_pose_base: [0.42, -0.18, 0.09, 0.0, 0.0, 1.57]
visibility: occluded
evidence_frames: [39, 40, 41, 42]
action_caused_by: place_chunk_04
confidence: 0.76

这些字段可以直接进入训练:last_pose_base 用于几何一致性,action_caused_by 用于动作敏感性,confidence 用于风险头或不确定性校准。自然语言摘要适合给人看,结构化记忆才适合给模型、planner 和评测脚本消费。

硬证据模块:记忆页要证明“长时状态没有漂”

视频记忆的证据不能只靠几帧可视化。世界模型真正要证明的是:压缩后的状态在动作、遮挡和长任务里仍保留可决策变量。

证据项 最小可复算例子 失败案例 验收指标
本页解决哪项成本 当前窗口 token + memory token 替代全视频上下文 memory 写错后污染后续 rollout memory token 数、context length、读取命中率
长时一致性 2s/8s/30s horizon 下对象位置和 ID 曲线 物体被遮挡后身份重置 object permanence、latent drift
动作因果 action_caused_by 字段能否解释状态变化 记忆知道物体移动了,但不知道由哪个动作造成 action-conditioned event accuracy
风险校准 遮挡、滑落、接触前后 risk 是否上升 风险在关键接触帧前没有抬头 near-miss recall、risk ECE
证据边界 说明结果来自 replay、ablation 还是闭环 只在离线 replay 保住,闭环仍重复抓取 closed-loop recovery rate

最小失败 replay 应记录三件事:最后可信观测、写入 memory 的字段、后续动作选择。若模型在 wrong_target_after_occlusion 中选择了可见诱饵,问题可能不是动作头,而是 memory 没有保住被遮挡目标的身份和最后位置。

评测建议

视频表征至少要补三类专项评测:

评测 例子 看什么
时间一致性 物体进出遮挡后是否仍识别 物体持久性
动作敏感性 同一画面接不同动作,未来是否分叉 action conditioning
长时恢复 第 1 步约束在第 20 步是否仍有效 记忆保真

真实排查案例:短视频指标好,长任务中忘了物体在哪里

环节 观察
输入症状 模型在 2-4 秒短 clip 上预测稳定,但机器人把杯子移到遮挡区域后,后续 rollout 又把杯子预测回原位置
指标 short-horizon video loss 正常;object permanence、long-horizon consistency、closed-loop recovery 明显差
Trace / 回放观察 当前窗口只保留最近几帧,工作记忆没有记录“杯子已被移动”;遮挡发生后,模型回到训练集中最常见的桌面布局
判断 视频 encoder 学到了局部运动,但没有把关键状态写入可持续记忆;这类错误短 horizon loss 很难暴露
修复 给关键对象建立 memory token;加入遮挡前后身份一致性 loss;把长时失败、回到旧位置、任务阶段遗忘单独成桶回流
反例 如果任务只是短视频问答或短片段摘要,当前窗口可能足够;只有当系统要做长时 VLA 或世界模型 rollout 时,长期状态才变成核心成本

如果一个视频表征只在静态识别上好,却不能支撑动作敏感预测,它更适合 VLM,不适合作为世界模型的核心状态。

  • Title: VLM/VLA:视频表征、状态记忆与长时序压缩
  • Author: Charles
  • Created at : 2026-04-16 09:00:00
  • Updated at : 2026-04-16 09:00:00
  • Link: https://charles2530.github.io/2026/04/16/ai-files-vlm-video-representation-and-memory/
  • License: This work is licensed under CC BY-NC-SA 4.0.
Comments