具身智能
2026
15
- 世界模型:机器人与自动驾驶中的世界模型
- VLM/VLA:世界模型高效训练接口
- VLM/VLA:视觉 Tokenizer、连接器与信息瓶颈
- VLM/VLA:视频表征、状态记忆与长时序压缩
- VLM/VLA:多模态评测与失败模式
- VLM/VLA:架构:视觉表征、连接器与记忆
- VLM/VLA:部署与安全
- VLM/VLA:数据与策略学习
- VLM/VLA:闭环恢复与失败分析
- VLM/VLA:评测与数据引擎
- VLM/VLA:动作表示与控制接口
- VLM/VLA:动作分块、层级策略与潜在技能
- 思考探索:具身智能现状:VLA、数据工厂与真实闭环
- 量化:多模态与 VLA 模型量化
- 论文专题讲解:Embodied World Model Survey:具身世界模型综述
2025
20
- 论文专题讲解:Video Prediction Policy:预测视觉表征训练机器人策略
- 论文专题讲解:SpatialVLA:3D 空间表征接入 VLA
- 论文专题讲解:π0.5:开放世界 VLA
- 论文专题讲解:GR-3:少样本长时程 VLA
- 论文专题讲解:GR-2:Web 视频知识迁移到机器人
- 论文专题讲解:DreamZero:WAM 零样本策略
- 论文专题讲解:Depth Anything 3:任意视角的 3D 几何底座
- 具身智能:VLA、WAM 与世界模型地图
- 具身智能:VLA 数据、模型与评测路线
- 具身智能:具身任务谱系与评测
- 具身智能:Sim2Real 与具身数据引擎
- 具身智能:具身规划、控制与安全
- 具身智能:Isaac Sim 与 RoboTwin 仿真数据链
- 具身智能:人机协作与交互评测
- 具身智能:家庭机器人流程与失败排查
- 具身智能:具身部署模式与安全案例
- 具身智能:一个任务跑通具身闭环
- 具身智能:相机、深度与机器人视觉
- 具身智能:从零路线
- 具身智能:资产到轨迹:感知、抓取与数据管线
1