摘要:针对现有巡检机器人位姿校正精度不足及环境建图效果不佳的问题,提出一种融合多传感器数据与深度学习的位姿校正与定位建图技术,以提高巡检机器人的定位精度与作业效率。采用摄像头、轮编码器与陀螺仪采集位姿数据,构建CNN-RNN复合模型(3×3卷积核、20个卷积层、5层RNN隐含层)进行异构数据融合;基于SIFT算法提取环境图像特征点,通过变换矩阵配准图像,利用BiGEMAP生成平面栅格地图;引入动态概率模型和改进支持向量机优化区域通行判定。消融实验表明,CNN-RNN模型在26次迭代后位姿校正准确率达99.5%;图像拼接重叠区域比例最低为1.02%,区域通行误判率降至1%,所建地图与实际环境SSIM值达1.0。通过融合CNN-RNN模型与多传感器数据,显著提升了位姿校正精度与环境建图质量,为复杂场景下的巡检机器人自主导航提供了可靠技术支撑。