全站效率技术覆盖矩阵
这页是全站地图,回答一个问题:每个专题到底服务哪类效率,证据入口在哪里,还有什么不能证明。 它不替代各专题正文,也不替代 证据与复现状态标准。
读法
先按瓶颈选路线,再进入对应专题。不要把数据效率、训练效率、推理效率、显存效率、验证效率和部署效率混成一个笼统的“更高效”。
覆盖矩阵
| 专题 | 数据效率 | 训练效率 | 推理效率 | 显存效率 | 验证效率 | 部署效率 | 证据入口 | 当前缺口 |
|---|---|---|---|---|---|---|---|---|
| 世界模型 | RSSM/Dreamer、MWM、失败回流 | latent dynamics、masked/JEPA、轨迹 packing | imagined rollout、CausVid-style streaming | latent state、KV/GQA、低比特 rollout | action sensitivity、closed-loop gain、risk ECE | cost per success、延迟门禁 | Claim Ledger、世界模型效率矩阵 | 前沿视频世界模型仍需真实闭环与独立复现 |
| VLM/VLA | web-scale 表征迁移、机器人数据混合 | visual tokenizer、connector、action token | action chunk、VLA rollout 调度 | 视觉 token 压缩、长视频 memory | task bucket、failure replay | 安全回退、动作接口治理 | VLA 全链路案例 | 需要更多跨硬件、跨任务的动作因果证据 |
| 具身智能 | sim2real、near-miss、数据引擎 | 多相机/深度/轨迹 schema | 闭环控制频率、恢复策略 | 几何状态层、相机 token | 真实任务成功率、安全 case | 部署模式、人机接管 | RT-2、Open X、π0.5、Depth Anything 3 专题 | 真实家庭长任务复现成本高 |
| 训练 | 数据质量、去重、mixture、curriculum | ZeRO/FSDP、checkpointing、低比特训练、packing | MTP 影响推理候选 | optimizer/gradient/activation state | ablation、run governance、artifact 复盘 | checkpoint 可恢复、实验经济学 | 证据标准、ZeRO/Megatron/技术报告专题 | 系统吞吐和任务质量仍需同表报告 |
| 推理 | prompt/cache 复用降低重复计算 | serving trace 反哺训练配置 | prefill/decode、KV、routing、speculative | KV cache、batch、上下文压缩 | online eval、SLO、shadow | P95/P99、capacity planning | rollout 服务案例 | 系统指标不能直接证明规划质量 |
| 量化 | QLoRA/低成本适配 | FP8/FP4/QAT、敏感头保护 | W4A16、KV INT8、runtime kernel | 权重、activation、KV、scale metadata | quality regression、task bucket | 端侧/多租户/回退路径 | SmoothQuant、Low-bit Survey、DeepSeek/Nemotron 专题 | 低比特收益需按任务桶和硬件复验 |
| 算子与编译器 | shape bucket 改善有效样本吞吐 | GEMM/attention/communication overlap | kernel fusion、runtime dispatch | HBM、shared memory、register、通信 buffer | microbench + end-to-end trace | 硬件拓扑、kernel fallback | MagiAttention、FlashAttention、DeepGEMM 专题 | microbenchmark 不等于端到端收益 |
| 扩散模型 | teacher/student 和 distillation 降采样成本 | DMD/LCM/Rectified Flow 少步训练 | 少步采样、streaming video | latent diffusion、VAE 压缩 | FID/VBench 与任务评测区分 | 预览/终稿分层 | DMD、DMD2、CausVid、Wan 专题 | 视频质量指标不能替代 planning utility |
| 强化学习 | replay、offline RL、verifiable reward | policy gradient、GRPO、world-model RL | rollout batching、reward 评估 | actor/critic/value state | closed-loop、reward hacking、risk | 自动验证、失败回流 | RL for world models、verl 流程 | verifier 质量决定 RL 是否真省人工 |
| 论文专题 | 汇总数据配方证据 | 汇总训练链路证据 | 汇总推理/系统证据 | 汇总显存/KV/低比特证据 | 汇总 benchmark、ablation、closed-loop | 汇总代码、demo、部署证据 | 证据标准 | 新增专题必须同步补 Evidence Snapshot |
成熟度分层:别把前沿方向和工程基线混读
| 成熟度 | 典型技术 | 采用风险 | 进入实验前先问 |
|---|---|---|---|
| 经典已验证 | Dreamer/RSSM、ZeRO、Megatron-LM、SmoothQuant | 主要风险来自任务迁移和实现细节 | 新任务的状态、动作、硬件和数据分布是否相同 |
| 工程常用 | KV cache、FSDP、profiling、SLO、低比特 runtime | 主要风险来自端到端收益打折 | microbench、trace、质量回归是否同表 |
| 前沿待复现 | 新视频世界模型、2025-2026 技术报告、闭源能力 claim | 主要风险来自证据不完整 | 是否只有论文主表或官方 claim |
| 官方展示 | 项目视频、interactive demo、少量 qualitative case | 主要风险来自选择性展示 | 是否有平均指标、失败 case 和闭环评测 |
| 本站推断 | 成本账、路线树、toy fixture、跨论文综合 | 主要风险来自把假设当结论 | 是否已写清 Site Inference 和下一步实验 |
方法选择树:按瓶颈选路线
flowchart TD
A["先问:瓶颈是什么?"] --> B["真实数据或机器人小时数不足"]
A --> C["视觉 token / 视频 context 太多"]
A --> D["训练显存或通信撑不住"]
A --> E["rollout / 服务延迟太高"]
A --> F["闭环验证不可信"]
A --> G["部署成本或端侧预算太紧"]
B --> B1["读世界模型:Dreamer/RSSM、MWM、数据引擎、offline-online hybrid"]
C --> C1["读 VLM/VLA:visual tokenizer、MWM、V-JEPA、geometry state"]
D --> D1["读训练/算子:ZeRO/FSDP、checkpointing、packing、MagiAttention、FP8"]
E --> E1["读推理/扩散:KV cache、KVSlimmer、CausVid/DMD、batching/SLO"]
F --> F1["读评测:action sensitivity、closed-loop gain、risk calibration、failure replay"]
G --> G1["读量化/部署:低比特、runtime、kernel fallback、cost per success"]
B1 --> H["进入 VLA / 世界模型全链路案例"]
C1 --> H
D1 --> I["进入 rollout 服务、量化与 kernel 案例"]
E1 --> I
F1 --> J["进入完整实验报告样例"]
G1 --> I
方法选择树怎么用
这棵树只负责把瓶颈导向专题和案例,不替代论文证据。进入具体页面后仍要回到 Evidence Snapshot:确认 claim 是 Paper Result、Ablation、System Throughput、Closed-loop、Official Demo、Toy Fixture 还是 Site Inference。
从瓶颈到技术选择
| 瓶颈 | 优先技术 | 先读页面 | 必须通过的验收门禁 |
|---|---|---|---|
| 真实数据不足 | RSSM/Dreamer、MWM、offline-online hybrid、failure replay | 世界模型高效训练路线图、完整实验报告样例 | 学习曲线、数据预算、failure bucket、closed-loop gain |
| 视觉 token 太多 | visual tokenizer、masked/JEPA、geometry state、latent dynamics | Masked / JEPA 与潜变量预测、VLM/VLA 接口 | 压缩率、action sensitivity、遮挡/接触/risk case 回归 |
| 训练显存/通信不足 | ZeRO/FSDP、checkpointing、sequence packing、MagiAttention、FP8 | 训练、算子与编译器 | MFU/step time、峰值显存、通信 trace、checkpoint 恢复、收敛指标 |
| rollout 延迟过高 | KV cache、KVSlimmer、CausVid/DMD、batching、低比特 serving | 推理、Rollout 服务案例 | TTFT/TPOT、P95/P99、KV memory、quality regression、cost per success |
| 闭环验证不可信 | action sensitivity、closed-loop success、risk calibration、failure replay | 世界模型评测、VLA 闭环恢复 | counterfactual action、risk ECE、失败回放、真实/仿真闭环分开报告 |
| 部署成本过高 | 量化、kernel fallback、runtime、SLO、fallback policy | 量化、推理成本建模 | 任务桶回归、敏感头保护、硬件 kernel 支持、SLO 和回滚路径 |
使用门槛
- 写“更高效”时必须说明省的是哪一列成本。
- 引用前沿系统时必须补
Evidence Type和Repro Status。 - 只有
System Throughput不能证明任务质量,只有Official Demo不能证明平均成功率,只有Toy Fixture不能证明真实系统有效。
- Title: 全站效率技术覆盖矩阵
- Author: Charles
- Created at : 2026-04-29 09:00:00
- Updated at : 2026-04-29 09:00:00
- Link: https://charles2530.github.io/2026/04/29/ai-files-references-site-efficiency-coverage-matrix/
- License: This work is licensed under CC BY-NC-SA 4.0.
Comments