文| 任倩 具身数据层的全球竞赛正在迅速升温。
NVIDIA Research在2026年发布EgoScale数据与训练框架,在Ego-centric人类操作视频上训练VLA模型,用 20,854小时带动作标注的第一人称人类视频,观察到数据规模和验证损失之间接近对数线性的scaling law。
1X收集人类第一视角及家庭行为数据,通过 Sunday项目采集百万小时级家庭场景视频。
光轮智能采用仿真合成数据和人类视频数据(EgoSuite)的混合路线,宣称累计交付突破100万小时,估值飙向十亿美金。
几个月内,行业关注点已不再只是“谁采得更多”,而是“谁能把Human-centric /Ego-centric数据真正做成高自由度、高精度、低成本、可训练的资产”。
这背后是一场明确的数据范式迁移。
另一方面,这种框架对于不同形态、不同自由度的机。
来源:36氪


