具身数据层的全球竞赛正在迅速升温。
NVIDIA Research在2026年发布EgoScale数据与训练框架,在Ego-centric人类操作视频上训练VLA模型,用 20,854小时带动作标注的第一人称人类视频,观察到数据规模和验证损失之间接近对数线性的scaling law。
1X收集人类第一视角及家庭行为数据,通过 Sunday项目采集百万小时级家庭场景视频。
光轮智能采用仿真合成数据和人类视频数据(EgoSuite)的混合路线,宣称累计交付突破100万小时,估值飙向十亿美金。
几个月内,行业关注点已不再只是“谁采得更多”,而是“谁能把Human-centric /Ego-centric数据真正做成高自由度、高精度、低成本、可训练的资产”。
而其中Ego-centric——以人类第一视角、真实物理交互和多模态感知为核心——正迅速成为最关键的一条采集路线。
来源:36氪











