全站效率技术覆盖矩阵

全站效率技术覆盖矩阵

Charles Lv8

这页是全站地图,回答一个问题:每个专题到底服务哪类效率,证据入口在哪里,还有什么不能证明。 它不替代各专题正文,也不替代 证据与复现状态标准

读法

先按瓶颈选路线,再进入对应专题。不要把数据效率、训练效率、推理效率、显存效率、验证效率和部署效率混成一个笼统的“更高效”。

覆盖矩阵

专题 数据效率 训练效率 推理效率 显存效率 验证效率 部署效率 证据入口 当前缺口
世界模型 RSSM/Dreamer、MWM、失败回流 latent dynamics、masked/JEPA、轨迹 packing imagined rollout、CausVid-style streaming latent state、KV/GQA、低比特 rollout action sensitivity、closed-loop gain、risk ECE cost per success、延迟门禁 Claim Ledger世界模型效率矩阵 前沿视频世界模型仍需真实闭环与独立复现
VLM/VLA web-scale 表征迁移、机器人数据混合 visual tokenizer、connector、action token action chunk、VLA rollout 调度 视觉 token 压缩、长视频 memory task bucket、failure replay 安全回退、动作接口治理 VLA 全链路案例 需要更多跨硬件、跨任务的动作因果证据
具身智能 sim2real、near-miss、数据引擎 多相机/深度/轨迹 schema 闭环控制频率、恢复策略 几何状态层、相机 token 真实任务成功率、安全 case 部署模式、人机接管 RT-2、Open X、π0.5、Depth Anything 3 专题 真实家庭长任务复现成本高
训练 数据质量、去重、mixture、curriculum ZeRO/FSDP、checkpointing、低比特训练、packing MTP 影响推理候选 optimizer/gradient/activation state ablation、run governance、artifact 复盘 checkpoint 可恢复、实验经济学 证据标准、ZeRO/Megatron/技术报告专题 系统吞吐和任务质量仍需同表报告
推理 prompt/cache 复用降低重复计算 serving trace 反哺训练配置 prefill/decode、KV、routing、speculative KV cache、batch、上下文压缩 online eval、SLO、shadow P95/P99、capacity planning rollout 服务案例 系统指标不能直接证明规划质量
量化 QLoRA/低成本适配 FP8/FP4/QAT、敏感头保护 W4A16、KV INT8、runtime kernel 权重、activation、KV、scale metadata quality regression、task bucket 端侧/多租户/回退路径 SmoothQuant、Low-bit Survey、DeepSeek/Nemotron 专题 低比特收益需按任务桶和硬件复验
算子与编译器 shape bucket 改善有效样本吞吐 GEMM/attention/communication overlap kernel fusion、runtime dispatch HBM、shared memory、register、通信 buffer microbench + end-to-end trace 硬件拓扑、kernel fallback MagiAttention、FlashAttention、DeepGEMM 专题 microbenchmark 不等于端到端收益
扩散模型 teacher/student 和 distillation 降采样成本 DMD/LCM/Rectified Flow 少步训练 少步采样、streaming video latent diffusion、VAE 压缩 FID/VBench 与任务评测区分 预览/终稿分层 DMD、DMD2、CausVid、Wan 专题 视频质量指标不能替代 planning utility
强化学习 replay、offline RL、verifiable reward policy gradient、GRPO、world-model RL rollout batching、reward 评估 actor/critic/value state closed-loop、reward hacking、risk 自动验证、失败回流 RL for world models、verl 流程 verifier 质量决定 RL 是否真省人工
论文专题 汇总数据配方证据 汇总训练链路证据 汇总推理/系统证据 汇总显存/KV/低比特证据 汇总 benchmark、ablation、closed-loop 汇总代码、demo、部署证据 证据标准 新增专题必须同步补 Evidence Snapshot

成熟度分层:别把前沿方向和工程基线混读

成熟度 典型技术 采用风险 进入实验前先问
经典已验证 Dreamer/RSSM、ZeRO、Megatron-LM、SmoothQuant 主要风险来自任务迁移和实现细节 新任务的状态、动作、硬件和数据分布是否相同
工程常用 KV cache、FSDP、profiling、SLO、低比特 runtime 主要风险来自端到端收益打折 microbench、trace、质量回归是否同表
前沿待复现 新视频世界模型、2025-2026 技术报告、闭源能力 claim 主要风险来自证据不完整 是否只有论文主表或官方 claim
官方展示 项目视频、interactive demo、少量 qualitative case 主要风险来自选择性展示 是否有平均指标、失败 case 和闭环评测
本站推断 成本账、路线树、toy fixture、跨论文综合 主要风险来自把假设当结论 是否已写清 Site Inference 和下一步实验

方法选择树:按瓶颈选路线

flowchart TD
    A["先问:瓶颈是什么?"] --> B["真实数据或机器人小时数不足"]
    A --> C["视觉 token / 视频 context 太多"]
    A --> D["训练显存或通信撑不住"]
    A --> E["rollout / 服务延迟太高"]
    A --> F["闭环验证不可信"]
    A --> G["部署成本或端侧预算太紧"]

    B --> B1["读世界模型:Dreamer/RSSM、MWM、数据引擎、offline-online hybrid"]
    C --> C1["读 VLM/VLA:visual tokenizer、MWM、V-JEPA、geometry state"]
    D --> D1["读训练/算子:ZeRO/FSDP、checkpointing、packing、MagiAttention、FP8"]
    E --> E1["读推理/扩散:KV cache、KVSlimmer、CausVid/DMD、batching/SLO"]
    F --> F1["读评测:action sensitivity、closed-loop gain、risk calibration、failure replay"]
    G --> G1["读量化/部署:低比特、runtime、kernel fallback、cost per success"]

    B1 --> H["进入 VLA / 世界模型全链路案例"]
    C1 --> H
    D1 --> I["进入 rollout 服务、量化与 kernel 案例"]
    E1 --> I
    F1 --> J["进入完整实验报告样例"]
    G1 --> I
方法选择树怎么用

这棵树只负责把瓶颈导向专题和案例,不替代论文证据。进入具体页面后仍要回到 Evidence Snapshot:确认 claim 是 Paper ResultAblationSystem ThroughputClosed-loopOfficial DemoToy Fixture 还是 Site Inference

从瓶颈到技术选择

瓶颈 优先技术 先读页面 必须通过的验收门禁
真实数据不足 RSSM/Dreamer、MWM、offline-online hybrid、failure replay 世界模型高效训练路线图完整实验报告样例 学习曲线、数据预算、failure bucket、closed-loop gain
视觉 token 太多 visual tokenizer、masked/JEPA、geometry state、latent dynamics Masked / JEPA 与潜变量预测VLM/VLA 接口 压缩率、action sensitivity、遮挡/接触/risk case 回归
训练显存/通信不足 ZeRO/FSDP、checkpointing、sequence packing、MagiAttention、FP8 训练、算子与编译器 MFU/step time、峰值显存、通信 trace、checkpoint 恢复、收敛指标
rollout 延迟过高 KV cache、KVSlimmer、CausVid/DMD、batching、低比特 serving 推理、Rollout 服务案例 TTFT/TPOT、P95/P99、KV memory、quality regression、cost per success
闭环验证不可信 action sensitivity、closed-loop success、risk calibration、failure replay 世界模型评测VLA 闭环恢复 counterfactual action、risk ECE、失败回放、真实/仿真闭环分开报告
部署成本过高 量化、kernel fallback、runtime、SLO、fallback policy 量化、推理成本建模 任务桶回归、敏感头保护、硬件 kernel 支持、SLO 和回滚路径

使用门槛

  1. 写“更高效”时必须说明省的是哪一列成本。
  2. 引用前沿系统时必须补 Evidence TypeRepro Status
  3. 只有 System Throughput 不能证明任务质量,只有 Official Demo 不能证明平均成功率,只有 Toy Fixture 不能证明真实系统有效。
  • Title: 全站效率技术覆盖矩阵
  • Author: Charles
  • Created at : 2026-04-29 09:00:00
  • Updated at : 2026-04-29 09:00:00
  • Link: https://charles2530.github.io/2026/04/29/ai-files-references-site-efficiency-coverage-matrix/
  • License: This work is licensed under CC BY-NC-SA 4.0.
Comments