作者:张文安,梁先鹏,仇翔,邢科新 单位:浙江工业大学 出版:《浙江工业大学学报》2019年第01期 页数:7页  (PDF与DOC格式可能不同) PDF编号:PDFZJGD2019010120 DOC编号:DOCZJGD2019010129 下载格式:PDF + Word/doc 文字可复制、可编辑
《基于RGB-D相机的移动机器人定位分析与实现》PDF+DOC2019年第03期 彭蔚枝,袁锋伟,周志伟 《视觉SLAM系统分析》PDF+DOC2018年第19期 揭云飞,王峰,智凯旋,熊超伟,李学易 《基于激光与视觉的机器人定位目标方法研究》PDF+DOC2017年第17期 靳若砚,王金祥 《基于多传感器融合SLAM应用的室内机器人研究分析》PDF+DOC2019年第09期 施平 《激光和视觉融合SLAM方法研究综述》PDF+DOC2019年第03期 马争光,赵永国,刘成业,刘广亮,朱琳 《基于快速不变卡尔曼滤波的视觉惯性里程计》PDF+DOC2019年第12期 黄伟杰,张国山 《VSLAM的研究与发展》PDF+DOC2019年第09期 吴家伟,潘凤琳,胡合斌 《一种融合视觉与激光的定位方法研究》PDF+DOC2018年第27期 杜万和 《基于视觉和里程计信息融合的移动机器人自定位》PDF+DOC2006年第03期 罗真,曹其新 《煤矿矿井移动机器人的设计与研究》PDF+DOC2013年第01期 韩莉芬,梁胜龙
  • 针对异构多机器人定位问题,提出了一种基于激光与视觉融合的协作定位方法,克服了视觉传感器受环境影响大、测量误差大的缺点,也克服了激光传感器无法识别待测目标的缺点。通过建立移动机器人的运动模型,根据不同传感器的原理分别建立RGB-D相机观测模型与激光观测模型。将RGB-D相机观测模型与运动学模型组成局部估计器,得到位置估计值与方差。通过激光传感器的观测模型与运动模型组成另一个估计器,得出另一组估计值与方差。运用协方差交叉融合方法进一步融合二组数据,提高了系统的可靠性与准确性。使用两台DFROBOT机器人,一台装备里程计、RGB-D相机与激光,另一台装配里程计,搭建了实验平台,验证了所提方法可行,误差范围小,满足实际应用。

    提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。