《强化学习在机器人路径规划中的应用研究》PDF+DOC
作者:童亮,王准
单位:中国航天科工集团公司第十七研究所
出版:《计算机仿真》2013年第12期
页数:6页 (PDF与DOC格式可能不同)
PDF编号:PDFJSJZ2013120810
DOC编号:DOCJSJZ2013120819
下载格式:PDF + Word/doc 文字可复制、可编辑
《强化学习在移动机器人自主导航中的应用》PDF+DOC2007年第18期 秦政,丁福光,边信黔
《移动机器人路径规划技术的现状与发展》PDF+DOC2016年第03期 徐兆辉
《基于深度Q值网络的自动小车控制方法》PDF+DOC2017年第11期 王立群,朱舜,韩笑,何军
《基于神经网络的进化机器人组合行为方法研究》PDF+DOC2000年第12期 王洪燕,杨敬安,蒋培
《基于模糊神经网络算法的机器人路径规划研究》PDF+DOC2014年第06期 姚毅,陈光建,贾金玲
《基于RPkNN-Sarsa(λ)强化学习的机器人路径规划方法》PDF+DOC2013年第01期 王军红,江虹,黄玉清,伍晓利
《基于符号神经网络的数据溶合系统的研究》PDF+DOC1994年第08期 王继成,吕维雪
《基于神经网络的智能复合材料损伤评估系统》PDF+DOC1994年第10期 陶云刚,陶宝祺
《基于包容结构的移动机器人混合式控制结构》PDF+DOC2002年第02期 王于,林良明,颜国正
《基于神经网络的多传感器信息融合及其在机器人中的应用》PDF+DOC2010年第02期 司兴涛,张新义
研究强化学习在机器人路径规划问题,作为基于行为的移动机器人路径规划,应具有实时、高效、快速的优点,但面对连续环境变量,如机器人通过传感器检测到的与障碍物的距离,存在状态表达和泛化问题,不恰当的状态泛化会影响系统的学习效率和收敛性。为了提高机器人对外界快速响应能力,在分析强化学习基本原理和连续状态泛化方法的基础上,提出利用Kohonen网络对机器人连续外部环境进行聚类的内部状态表示方法,给出了Kohonen网络的Q-Learning强化学习算法。根据机器人工作环境和路径规划目标,设计了机器人路径规划中的奖惩策略和动作选择规则,并通过仿真与传统的状态离散方法进行了比较。结果显示,提出的方法不仅降低了计算机的存储需求,而且加快了系统学习的收敛速度,表明了改进方法的有效性。
提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。