目录
(来源:计算机视觉life)
一. 纯视觉SLAM
1. TANDEM
“肝”也许是今年圣诞节的主题之一,国内有457万学子在备战考研,另一边,慕尼黑工业大学 Daniel Cremers团队的肝帝们,赶在圣诞节前开源了TANDEM框架!
视频里展示的设备 Realsense D455有深度传感器和IMU,但是大佬他就是不用这些
仅仅使用其单目相机,实现实时跟踪和稠密重建!
这感觉就像手握步枪,但就是不用,硬是用枪托把怪兽砸倒了
卧槽,这不是把很多小伙伴想做而做不出来的都做了嘛!
该工作主要有3个创新点:
(1)一种新的单目实时稠密SLAM框架,将经典的直接VO和基于学习的MVS重建无缝结合;
(2)第一个利用全局TSDF模型渲染的深度图,实现单目稠密跟踪前端;
(3)一种新的MVS网络,CVA-MVSnet,它能够通过视图聚合和多级深度预测来使用整个关键帧窗口;
这效果太棒了!广大SLAMer的福音!
GitHub:
https://github.com/tum-vision/tandem
TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view Stereo
【即将开源】单目+深度学习,实现实时稠密建图!CoRL 2021_哔哩哔哩_bilibili
2. MonoRec
继续看, 他们团队开源的另外一个工作MonoRec
不需要激光雷达,只需要单目相机,即可在动态环境下,实现半监督稠密重建。有元宇宙那味了!
动态环境重建一直都是难点,如何保证该方法不受移动物体的影响呢?
作者结合了深度MVS和单目深度估计算法。先使用了MaskModule识别移动像素,降低代价体中相应体素的权重。再利用DepthModule 从而实现对静态和动态物体进行深度估计。
该工作可以用于包含动态场景的三维重建和场景理解,比如自动驾驶和AR领域。
Project page:
Code:
https://github.com/Brummi/MonoRec
Paper:
https://arxiv.org/abs/2011.11814
CVPR 2021| 好炫酷!无需LiDAR深度值,通过单目相机在动态环境下就能实现半监督稠密重建!_哔哩哔哩_bilibili
二. 激光雷达SLAM
3. range-mcl
波恩大学Cyrill Stachniss 团队开源了 range-mcl
可用于自动驾驶汽车的激光雷达全局定位!
该工作基于蒙特卡罗定位和粒子滤波,来估计移动机器人或自动驾驶汽车的姿态,以实现全局定位。 传感器模型将当前激光雷达扫描的距离图像,还有三角网格渲染的合成距离图像,进行比较,更新粒子的权重。该方法简单有效,可以在不同的数据集和环境中使用不同类型的激光雷达扫描,无需微调。 并且在动态的室外大范围环境中取得良好的全局定位结果。
https://github.com/PRBonn/range-mcl
最新开源!用于自动驾驶汽车的激光雷达全局定位算法!_哔哩哔哩_bilibili
摘要:鲁棒和准确的基于地图的定位对于自主移动系统至关重要。 在本文中,我们利用从3D激光雷达扫描生成的范围图像(range images)来解决在由三角形网格表示的大规模户外环境的地图中定位移动机器人或自动驾驶汽车的问题。 我们使用泊松曲面重建来生成基于网格的映射表示。 基于当前激光雷达扫描生成的范围图像和基于网格的地图的合成渲染视图,我们提出了一种新的观测模型并将其集成到蒙特卡罗定位框架(Monte Carlo localization framework)中,该框架实现了更好的定位性能并很好地推广到不同的环境。 我们使用不同的激光雷达扫描仪测试在不同环境中收集的多个数据集上提出的定位方法。 实验结果表明,我们的方法可以可靠准确地定位不同环境中的移动系统,并以激光雷达传感器帧速率在线运行以跟踪车辆姿态。
引言:我们不是使用从3D激光雷达传感器获得的原始点云或从点云生成或学习的特征,而是研究用于自动驾驶车辆的基于3D激光雷达的定位的范围图像。 我们将点云投影到范围图像中,并使用由三角形网格表示的地图的渲染视图定位自主系统。 使用范围图像表示和由网格表示的地图有几个原因。 圆柱形范围图像是来自旋转3D激光雷达的扫描的自然和轻量级表示,网格图比大点云更紧凑。 这些属性使我们能够在大规模环境中实现全局定位。 此外,可以使用计算机图形学技术有效地执行来自网格图的范围图像的渲染。 因此,范围图像和网格图是实现基于激光雷达的全局定位的完美匹配。
本文的主要贡献是一种基于三维激光雷达定位的新型观测模型。 我们的模型基于从真实激光雷达扫描和网格图的合成效果图生成的范围图像。 我们利用它们之间的差异来制定蒙特卡罗定位(MCL)的观察模型,以更新粒子的重要权重。基于我们新的观测模型,我们的方法为车辆提供(x,y, θ)-姿态估计,并使用3D激光雷达实现全局定位。此外,我们的方法很好地概括了使用不同类型的激光雷达扫描仪收集的不同环境。 总之,我们提出了三个关键提议:我们的方法能够(i)使用3D激光雷达数据准确可靠地实现全局定位,(ii)可用于不同类型的激光雷达传感器,以及(iii)在不同环境中很好地概括。 这些提议得到了论文和我们的实验评估的支持。
4. MULLS
ETHZ (苏黎世联邦理工学院)、禾赛、EPFL(洛桑联邦理工学院) 开源一种高效、低漂移、通用的三维激光雷达SLAM系统MULLS
适用于各种复杂场景,不同规格的激光雷达,实现SLAM解决方案
前端,使用双阈值地面滤波和PCA,从每帧中提取地面、柱子等特征,然后利用多尺度线性最小二乘ICP算法,实现了当前帧与局部子地图的配准。
对于后端,在存储的历史子图之间进行分层位姿图优化,以减少因航位推算而产生的漂移。
在KITTI基准测试中排名Top10。快来试试吧!
https://github.com/YuePanEdward/MULLS
开源!高效、低漂移、多功能的纯激光雷达SLAM!ICRA 2021_哔哩哔哩_bilibili
摘要:自动驾驶和移动测绘的快速发展需要现成的激光雷达SLAM解决方案,该解决方案适用于各种复杂场景下的不同规格的激光雷达。 为此,我们提出了Mulls,一种高效,低漂移和多功能的3D激光雷达SLAM系统。 对于前端,使用双阈值地面滤波和主成分分析(principal components analysis)从每帧提取粗略分类的特征点(地面,立面,柱,梁等)。 然后通过所提出的多度量线性最小二乘迭代最近点算法,有效地完成当前帧和局部子图之间的配准。 对每个点类中的点对点(平面,线)误差度量与线性近似联合优化,以估计自我运动。 已注册帧中的静态特征点,被附加到local map中以保持更新。 对于后端,在定期存储的历史子地图中,进行分层姿态图优化,以减少航位推测法(dead reckoning)引起的漂移。
引言:这项工作的主要贡献如下:
- 一种名为MullS1的独立扫描线激光雷达专用SLAM解决方案,在各种场景下具有低漂移和实时性能。 目前,Mulls在竞争激烈的Kitti Benchmark2中排名前10位。
- 一种名为Mulls-ICP的高效点云局部配准算法,在粗略分类的几何特征点中联合实现点对点(平面,线)误差度量的线性最小二乘优化。
三. 激光雷达惯性SLAM
5. LiLi-OM
德国KIT(卡尔斯鲁厄理工学院)开源了紧耦合激光雷达-惯性里程计SLAM:LiLi-OM,它专门用于固态和机械激光雷达SLAM
主要特点
1、针对 Livox Horizon的不规则扫描模式量身定做了新的特征提取方法。
2、前端为基于特征的轻量级激光雷达里程计,采用自适应关键帧选择,提供快速的运动估计。
3、后端采用基于关键帧的分层滑动窗口优化,以直接融合IMU和LiDAR测量数据。
该系统为各种场景下的移动感知提供了一种经济有效的解决方案。老铁们,这像不像星际争霸开地图?
论文:https://arxiv.org/abs/2010.13150
源码:https://github.com/KIT-ISAS/lili-om
雷达画出来的高精度地图!高性能固态激光雷达惯性里程计和建图_哔哩哔哩_bilibili
6. FAST-LIO2
另外一个工作来自香港大学张富团队,他们开源了新一代激光雷达惯性里程计FAST-LIO2!
该方法可用于自动驾驶、无人机、快速移动的手持设备等场景,有如下优点:
计算效率高,在大型室外环境中帧率能达到100 Hz;
鲁棒性高,在旋转速度高达1000度/秒的杂乱室内环境中进行可靠的姿态估计、
通用性好,适用于多线旋转和固态激光雷达、无人机和手持平台,以及英特尔和ARM的嵌入式处理器
精度高,能获得更高或与现有方法相当的精度。
创新点:
1、开发了一种增量的k-d树数据结构,可以有效维护稠密点云地图。支持增量更新(即点插入、采样,删除)和动态再平衡。
2、不提取特征直接将原始点云和地图进行配准,即使在动态和复杂环境下仍然能保持较高的精度和可靠性。适用于不同的LiDAR传感器。
代码:
https://github.com/hku-mars/FAST_LIO
视频
开源!香港大学新一代激光雷达惯性里程计FAST-LIO2!_哔哩哔哩_bilibili
四. 多传感器融合SLAM
7. R3LIVE
此外,他们团队非常肝!还将开源视觉+激光+惯性的多传感器融合SLAM系统: R3LIVE
它基于他们之前的工作R2LIVE,提出了一个实时同步定位、建图和着色的框架。能够实时、低漂移地重建稠密、精确的三维彩色环境点云地图。
使用R3LIVE重建的地图,作者还开发了在iPad和电脑上都能玩的游戏!在这个游戏里,玩家可以探索香港大学校园、还能在校园里搏击巨龙!这不就是复刻现实世界场景的虚拟空间嘛!
R3LIVE在各种室内和室外环境验证结果表明,该系统在行驶1.5公里后,平移的漂移误差仅为0.16米,旋转漂移误差仅为3.9度。
作者表示今后不仅会开源软件算法,也会开源硬件设计图。
现在GitHub上只有图片和论文,大家快去催他更新代码吧!
代码
https://github.com/hku-mars/r3live
视频
https://www.youtube.com/watch?v=j5fT8NE5fdg&t=1s
论文翻译:https://visionary.blog.csdn.net/article/details/122769854
8. GVINS
再来看看隔壁香港科技大学沈劭劼团队,他们新开源了 GVINS
一个紧耦合的GNSS-视觉-惯性融合SLAM系统,即使在RTK失效、没有特征点的情况下也能稳如老狗。效果吊打VINS-Mono、VINS-Fusion、RTKLIB
主要创新点
1、 一种在线的由粗到细的初始化GNSS -视觉-惯性状态的方法。
2、 一种基于优化的紧耦合融合方法,在概率框架下将视觉惯性数据与多星座 GNSS 原始测量值融合。
3、 一种实时的状态估计器,能够在 GNSS 信号可能被大量拦截甚至完全不可用的复杂环境中提供无漂移的 6-DoF 全局位姿估计。
https://github.com/HKUST-Aerial-Robotics/GVINS
港科大与大疆强强联合!GNSS-视觉-惯性紧耦合融合的平滑状态估计方法_哔哩哔哩_bilibili
9. LVI-SAM
麻省理工TixiaoShan大佬同样高产,继LIO-SAM工作后,又开源了LVI-SAM,这是一个激光+视觉+惯性的紧耦合多传感器融合SLAM系统
用于移动机器人的实时状态估计和建图。
主要创新点:
1)通过因子图同时实现多传感器融合、全局优化和回环检测。
2)通过故障检测机制,避免单一子系统故障导致系统不能使用的情况,提高了整个系统的鲁棒性。
https://github.com/TixiaoShan/LVI-SAM
https://www.youtube.com/watch?v=8CTl07D6Ibc
五. 语义SLAM
10. DSP-SLAM
很多小伙伴表示不知道如何创新,伦敦大学学院这位小哥用ORB-SLAM2作为SLAM骨架,开源物体级语义SLAM :DSP-SLAM。为前景对象构建了一个丰富而精确的稠密3D模型的联合地图,并用稀疏的地标点来表示背景。支持3种不同的输入模式:单目、双目或双目+激光雷达。每秒10帧的速度工作。利用物体的形状先验,对新见到的物体精确且完整的重建。
项目网站:https://jingwenwang95.github.io/dsp-slam/
代码:https://github.com/JingwenWang95/DSP-SLAM
视频:
开源!伦敦大学学院丨物体级语义SLAM :DSP-SLAM,3DV 2021_哔哩哔哩_bilibili
以上就是2021年十大SLAM开源算法
下面送上2个未开源SLAM的小彩蛋
六.【未开源】
LiTAMIN2
一个是快如闪电的超轻量级3D 激光雷达SLAM: LiTAMIN2【未开源】
该工作来自日本先进工业科技研究所(AIST),里程计帧率可达500–1000 Hz,注意以下视频并没有倍速播放,这速度简直是原地起飞啊!
测绘专业表示很赞!
怎么做到的呢?
核心在于在ICP代价函数中引入对称KL散度,从而在显著减少了用于点云配准的点数后,仍保持较高的精度。
视频:
【最新技术】比奥特曼还快!轻量级激光雷达SLAM, ICRA 2021_哔哩哔哩_bilibili
CodeMapping
另外一个是帝国理工学院Andrew J. Davison 团队的新工作 CodeMapping 【未开源】
我们知道:视觉SLAM通常只能得到用于定位的稀疏地图,这种地图不能用于避障、场景理解等场景。
该工作另辟蹊径,将ORB-SLAM3产生的相机姿势、关键帧和稀疏地图点作为输入,并为每个关键帧预测深度图像,从而实现稠密重建。
算法以松耦合的方式在单独的线程运行,因此可以和任意稀疏SLAM结合,不会延迟SLAM主过程。算法U盘化,即插即用,针不戳!
论文:
CodeMapping: Real-Time Dense Mapping for Sparse SLAM using Compact Scene Representations
https://arxiv.org/abs/2107.08994
视频:
帝国理工最新工作!稀疏SLAM实时稠密建图_哔哩哔哩_bilibili
今天的文章2021年度十大开源SLAM算法分享到此就结束了,感谢您的阅读。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/10423.html