摘要:随着移动机器人产业的迅速发展,其应用场景变得更加复杂,对机器人定位和地图构建(SLAM)提出了更高的性能要求。仅依靠单一传感器进行SLAM已难以满足应用需求。鉴于激光雷达在空旷环境下效果差,视觉传感器对光线条件要求高,提出了一种基于激光雷达、惯性测量仪与视觉数据融合的LW-LIV(Lightweight Laser-Inertial-Visual Odometry and Mapping)算法。该算法将激光雷达、惯性测量仪和相机的数据作为输入,利用三者共同构建地图。在构建过程中通过采用Scan Context来优化关键帧选取策略和扫描匹配,有效地降低了运算资源的消耗。通过在UrbanNav、M2DGR等数据集中进行仿真以及实际环境中的实验,证明算法相比于单一传感器SLAM算法,在定位精度上有较大的提升。与已有的多传感器融合算法相比,算法在保证定位精度有提升的情况下,所需的运算资源更少。