蚂蚁灵波科技近日宣布,正式开源其大规模RGB-D深度数据集LingBot-Depth-Dataset,为具身智能、空间感知和三维视觉等领域的研究与应用注入新动力。该数据集总规模达2.71TB,包含300万对高质量样本,其中200万对来自真实场景采集,100万对通过渲染生成,覆盖6款主流深度相机,成为当前开源社区中规模最大的真实场景RGB-D数据集。
长期以来,公开深度数据集普遍面临规模有限、真实场景覆盖不足、硬件设备单一等挑战。许多数据集以合成数据为主,与真实传感器在噪声、空洞和材质表现上存在显著差异,导致相关模型在真实环境中的应用效果受限。LingBot-Depth-Dataset的发布,有效填补了这一领域的数据空白,为行业提供了大规模、高质量的真实场景数据支撑。
该数据集的每条样本均包含RGB图像、传感器原始深度图和真值深度图,可直接用于深度估计与深度补全任务的训练和评估。数据覆盖Orbbec 335、335L以及Intel RealSense D405、D415、D435、D455等6款主流深度相机,有助于提升模型在不同设备和场景下的训练、适配与评估能力。这种多设备、多场景的覆盖,为相关技术在实际应用中的泛化性提供了重要保障。
蚂蚁灵波此前开源的高精度空间感知模型LingBot-Depth,正是基于该数据集训练而成。实验表明,相比业界主流方法PromptDA与PriorDA,LingBot-Depth在室内场景中的深度预测误差降低超过70%,在稀疏深度补全等任务中的误差降低约47%。搭载该模型的市售深度相机,无需硬件升级即可在透明玻璃、反光镜面、逆光等复杂场景下输出更完整、更平滑、边缘更清晰的深度图,部分场景表现甚至超越业界顶级工业级深度相机。
对于高校和科研机构而言,LingBot-Depth-Dataset的开源不仅降低了数据采集与标注的门槛,也为相关技术从研究验证走向真实应用提供了有力支持。随着机器人和具身智能技术加快进入实际场景,大规模、高质量、以真实采集为主体的空间感知数据集,正成为推动行业持续进步的重要基础设施。此次开源有望加速相关技术的落地应用,为智能设备在复杂环境中的感知能力提升奠定基础。
