0%

Qin, Tong, Peiliang Li, and Shaojie Shen. “VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator.” IEEE Transactions on Robotics 34, no. 4 (August 2018): 1004–20. https://doi.org/10.1109/TRO.2018.2853729.

1 Introduction

集成IMU 观测可通过减少由于光照变化、纹理稀少区域或运动模糊造成的视觉跟踪精度损失,来大幅提高运动跟踪的表现。但是,单目VINS (Visual-Inertial System) 在使用中也有一些问题需要解决:

  1. 第一个问题是初始化困难:由于缺失直接的距离观测,很难直接将单目视觉结构与惯性测量进行融合;
  2. 其次是VINS 严重的非线性问题:这会在估计器初始化过程中带来巨大的挑战,再大部分场景中系统需要放置在一个位置已知的静态区域,然后缓慢小心地移动,这会极大限制系统的应用场景;
  3. 另一个问题是VIO 的长期漂移问题:为了消除累积漂移,会使用回环检测、重定位及全局优化技术;
  4. 此外还有对于地图保存与重使用的需求正在不断增长。
阅读全文 »

Bescos, Berta, Jose M. Facil, Javier Civera, and Jose Neira. “DynaSLAM: Tracking, Mapping, and Inpainting in Dynamic Scenes.” IEEE Robotics and Automation Letters 3, no. 4 (October 2018): 4076–83. https://doi.org/10.1109/LRA.2018.2860039.

1 Introduction

本文提出的DynaSLAM 是在ORB-SLAM2 基础上增加一个前端模块,来处理环境中的动态物体。对于单目和双目相机,使用CNN 产生物体的像素级语义分割结果,剔除掉先验动态物体中的特征点;对于RGB-D 相机,结合多视图几何模型和CNN 来检测动态物体,从图片中移除动态物体并进行场景恢复。

阅读全文 »

Zhong, Fangwei, Sheng Wang, Ziqi Zhang, China Chen, and Yizhou Wang. “Detect-SLAM: Making Object Detection and SLAM Mutually Beneficial.” In 2018 IEEE Winter Conference on Applications of Computer Vision (WACV), 1001–10, 2018. https://doi.org/10.1109/WACV.2018.00115.

Abstract

本文提出的Detect-SLAM 较其他SOTA 方法的优势:

  1. 通过利用物体检测器完成对移动物体上的不可靠特征点进行剔除,极大地提高了SLAM 算法在动态环境中的准确性与鲁棒性
  2. 在线构建一个实例级语义地图
  3. 通过利用物体语义地图来提高物体检测器性能,使得其在挑战性环境中可以更有效地识别出物体。
阅读全文 »

Zhang, Liang, Leqi Wei, Peiyi Shen, Wei Wei, Guangming Zhu, and Juan Song. “Semantic SLAM Based on Object Detection and Improved Octomap.” IEEE Access 6 (2018): 75545–59. https://doi.org/10.1109/ACCESS.2018.2873617.

1 Introduction

基于ORB-SLAM2,利用YOLO 实现物体检测,剔除掉先验动态物体上的特征点,提高精度;并建立物体级语义八叉树地图,且优化了制图的速度。

本文的贡献:

  • 本系统可以检测80-200 种物体种类,而现有的语义制图系统只能检测不超过20个种类;
  • 本系统不需要先验3D 模型就可以实现对环境中物体的3D 建模;
  • 本系统利用的是物体级模型信息,而不是像素级的。
阅读全文 »

Gawel, Abel, Carlo Del Don, Roland Siegwart, Juan Nieto, and Cesar Cadena. “X-View: Graph-Based Semantic Multi-View Localization.” IEEE Robotics and Automation Letters (RA-L) 3, no. 3 (2018): 1687–94.

1 Introduction

本文做出的贡献:

  1. 提出一个新颖的语义拓扑图表示方法;
  2. 引进了一个基于随机游走的图描述子,可以有效地使用既定的匹配方法进行高效匹配;
  3. 用于全局定位的语义分割完整pipeline;
  4. 开源X-View 算法;
  5. 公开数据集的测试结果。
阅读全文 »

Lianos, Konstantinos-Nektarios, Johannes L. Schönberger, Marc Pollefeys, and Torsten Sattler. “VSO: Visual Semantic Odometry.” In Computer Vision – ECCV 2018, edited by Vittorio Ferrari, Martial Hebert, Cristian Sminchisescu, and Yair Weiss, 11208:246–63. Lecture Notes in Computer Science. Cham: Springer International Publishing, 2018. https://doi.org/10.1007/978-3-030-01225-0_15.

1 Introduction

作者认为,VO 的核心问题在于数据关联DA

通常来讲,有两种方法来减少VO 中的漂移:

  1. 方法一:利用连续图片之间的短期关联来进行偏移矫正;
  2. 方法二:利用回环检测实现长期关联

传统的几何特征(点、线、面)在光照、视角变化下鲁棒性较差,不能在长距离上保持持续跟踪,而语义特征作为更高级的特征,语义特征在光照、视角、尺寸发生较大变化时仍然可以保持不变,使得中期关联成为可能,如Fig. 1所示。

阅读全文 »

Civera, J., D. Galvez-Lopez, L. Riazuelo, J. D. Tardos, and J. M. M. Montiel. “Towards Semantic SLAM Using a Monocular Camera.” In 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems, 1277–84. San Francisco, CA: IEEE, 2011. https://doi.org/10.1109/IROS.2011.6094648.

1 Introduction

本文提出了一种语义SLAM 算法,本算法将传统无意义的特征点物体融合进到地图中。

本算法融合了三个不同领域的SOTA:

  1. 一个EKF 单目SLAM 提供相机位姿的在线实时估计,以及包含点特征的稀疏地图;
  2. 利用 Structure from Motion (SfM) 从稀疏图片中计算一个物体模型数据库;
  3. 视觉识别来检测图片流中物体是否存在。
阅读全文 »

Mur-Artal, Raul, and Juan D. Tardos. “ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras.” IEEE Transactions on Robotics 33, no. 5 (October 2017): 1255–62. https://doi.org/10.1109/TRO.2017.2705103.

1 Introduction

本文的贡献:

  1. 第一个适用于单目双目以及RGB-D 相机的开源SLAM 系统,该系统包含回环检测、重定位以及地图重用;
  2. 本系统运行RGB-D 的结果证明:使用BA 可以实现比基于ICP 或者光度深度误差最小化的SOTA 方法更高的精度;
  3. 通过使用近远立体点和单目观测,本系统运行双目的结果要比直接双目SLAM 的 SOTA 算法精度更高;
  4. 提出了一种关闭制图功能情况下,有效重使用地图的轻量级定位模式。
阅读全文 »

Mur-Artal, Raul, J. M. M. Montiel, and Juan D. Tardos. “ORB-SLAM: A Versatile and Accurate Monocular SLAM System.” IEEE Transactions on Robotics 31, no. 5 (October 2015): 1147–63. https://doi.org/10.1109/TRO.2015.2463671.

1 Introduction

本文的贡献如下:

  1. 对所有任务使用相同的特性:tracking, mapping, relocalization and loop closing, 这使得我们的系统更加高效简单可靠;使用ORB 特征,可在CPU 上实现实时运行,且具有较好的视角、光照不变性
  2. 利用共视图使得跟踪与制图都聚焦于一个局部共视区域,从而实现在大规模环境中地实时操作,可不受全局地图尺寸地影响;
  3. 基于位姿图优化的实时回环检测(作者称其为 Essential Graph),其构建于系统维护的spanning tree、回环连接以及共视图中的线;
  4. 基于良好的视角和光照不变性实现的实时相机重定位,可在跟踪失败时进行重初始化,并增强了地图的重用性
  5. 提出一个基于模型选择的自动鲁棒的初始化程序,可为平面和非平面场景创建一个初始化地图
  6. 对于地图点和关键帧采取“适者生存” survival of the fittest 策略,在生成时非常宽松,而在剔除时非常严格,该策略提高了跟踪的鲁棒性,且由于冗余的关键帧被舍弃了,从而增强了 lifelong operation。
阅读全文 »

Runz, Martin, and Lourdes Agapito. “Co-Fusion: Real-Time Segmentation, Tracking and Fusion of Multiple Objects.” In 2017 IEEE International Conference on Robotics and Automation (ICRA), 4471–78. Singapore, Singapore: IEEE, 2017. https://doi.org/10.1109/ICRA.2017.7989518.

3 Overview of our Method

Co-Fusion 是一个可以实时处理每一帧输入图片的RGB-D SLAM 系统,本系统为场景中每一个分割的物体存储模型,而且可以独立跟踪它们的运动,每个模型是由一组3D 点构成的。本系统维护两组物体模型:当前在视野中可见的active 模型,以及曾经观测到的模型,但是目前不在视野中,记为inactive 模型。本系统的框架如Fig. 2所示,在初始化阶段,场景只包含一个active 模型——背景,初始化完成后,按照Fig .2的流程处理每一帧图片。

阅读全文 »