作者:陆峰,徐友春,李永乐,苏致远,王任栋 单位:中国自动化学会;中国科学院沈阳自动化研究所 出版:《机器人》2018年第05期 页数:11页  (PDF与DOC格式可能不同) PDF编号:PDFJQRR2018050170 DOC编号:DOCJQRR2018050179 下载格式:PDF + Word/doc 文字可复制、可编辑
  • 现有无人车在目标检测中大多依靠单一检测视角进行多传感器数据融合,受传感器检测范围的局限,难以大幅提高准确率,且对融合过程中的类别判定的高冲突情况处理较少.针对以上问题,本文基于多假设思想提出了多视角检测结果的聚类合并方法,并基于DSmT(Dezert-Samarandache theory)和时序信息,改进了冲突分配准则,降低了目标检测的漏检率与误检率.首先利用图像检测算法检测图像中的有效目标,将激光雷达的目标检测结果投影在图像平面上,通过交并比关系构建2种传感器检测结果之间的关联概率矩阵,基于多假设思想实现聚类合并,获取单帧融合检测结果.针对融合过程中可能出现的类别判定冲突情况,利用DSmT融合识别置信度,并结合时序信息对冲突重新分配,获取目标类别的准确识别结果.最后,通过实车实验对算法的有效性进行了验证。

    提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。