近日,蚂蚁灵波科技宣布正式开源其自主研发的大规模RGB-D深度数据集——LingBot-Depth-Dataset,为具身智能、空间感知及三维视觉领域的研究注入新动能。该数据集以2.71TB的庞大体量,成为当前开源社区中真实场景覆盖最广的同类数据集之一。
据介绍,LingBot-Depth-Dataset包含300万对高质量样本,其中200万对源自真实场景采集,涵盖家庭、办公、工业等多元环境;剩余100万对通过高精度渲染生成,有效补充了极端场景数据。数据集全面兼容Orbbec 335、335L及Intel RealSense D405、D415、D435、D455等6款主流深度相机,为算法训练提供了跨设备、跨场景的丰富素材。
该数据集已直接赋能蚂蚁灵波此前开源的高精度空间感知模型LingBot-Depth。实验数据显示,以LingBot-Depth-Dataset为核心训练数据的LingBot-Depth模型,在室内场景深度预测任务中,较业界主流方法PromptDA与PriorDA误差降低超70%;在稀疏深度补全等复杂任务中,误差率亦下降约47%,显著提升了空间感知的精度与鲁棒性。
业内专家指出,大规模、高质量的RGB-D数据集是推动三维视觉技术落地的关键基础设施。蚂蚁灵波此次开源的数据集,不仅填补了真实场景深度数据集的规模缺口,更通过多设备兼容性设计,为机器人导航、增强现实等应用场景提供了更贴近实际需求的数据支撑,有望加速相关技术的产业化进程。


