目录

【彻底剖析激光-视觉-IMU-GPS融合SLAM算法:理论推导、代码讲解和实战】

介绍

彻底剖析激光-视觉-IMU-GPS融合SLAM算法:理论推导、代码讲解和实战,夸克网盘资源,免费下载。

自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。

├── 1、公开课多模态融合SLAM技术分享.mp4
├── 2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4
├── 3、多传感器外参标定原理与代码讲解.mp4
├── 4、激光—惯性子系统(LIS)代码精读.mp4
├── 5、视觉—惯性子系统(VIS)代码精读.mp4
├── 6、激光—视觉—惯性数据融合与优化融合.mp4
├── 7、LVI—SAM代码实战与评估.mp4
├── 8、大作业讲解视频.mp4

资源

夸克网盘