Liu, Yang, Chi Guo, and Yingli Wang. “Object-Aware Data Association for the Semantically Constrained Visual SLAM.” Intelligent Service Robotics 16, no. 2 (April 1, 2023): 155–76. https://doi.org/10.1007/s11370-023-00455-9.
1 Introduction
作者认为,将物体级语义信息和传统vSLAM 融合需要考虑两个关键问题:
- 第一个问题是构建连续帧之间的数据关联问题。作者认为物体级vSLAM 需要充分利用相机运动以及3D 几何信息,最终产生一个带有全局一致性物体信息的3D 地图。现有的物体级vSLAM 大多依赖于点云的低级几何特征匹配(Yang 和 Scherer, 2019)、聚类或者统计分析进行数据关联,而忽略了物体整个的外观信息;
- 第二个问题是怎么利用物体级信息进行位姿估计。CubeSLAM(Yang 和 Scherer, 2019)、QuadricSLAM (Nicholson 等, 2019) 都是将物体建模为可观测的几何参数在位姿估计中建立约束;但是作者认为,根据物体级约束来提高传统数据关联的准确性和鲁棒性也可以提高位姿估计精度。
总结来看,本文的贡献如下:
- 提出一个基于物体外观和特征点路标的物体级数据关联框架,产生一个带有物体信息的语义地图;
- 提出一个语义重投影误差项并将其整合至位姿优化中,该重投影误差项结合了语义与特征点观测作为相机位姿的联合约束;
- 在公开数据集上进行了测试,证明了本方法在物体级数据关联中实现了较高的准确性,并超越了位姿估计基线方法。