CN108453737A - 一种基于神经网络的机器人动作轨迹获取系统及方法 - Google Patents
一种基于神经网络的机器人动作轨迹获取系统及方法 Download PDFInfo
- Publication number
- CN108453737A CN108453737A CN201810246624.XA CN201810246624A CN108453737A CN 108453737 A CN108453737 A CN 108453737A CN 201810246624 A CN201810246624 A CN 201810246624A CN 108453737 A CN108453737 A CN 108453737A
- Authority
- CN
- China
- Prior art keywords
- robot
- formula
- input terminal
- neural network
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims description 16
- 230000009471 action Effects 0.000 claims abstract description 30
- 244000144992 flock Species 0.000 claims abstract description 13
- 238000004088 simulation Methods 0.000 claims abstract description 5
- 230000019771 cognition Effects 0.000 claims description 6
- 239000002245 particle Substances 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 230000000739 chaotic effect Effects 0.000 claims description 3
- 230000001149 cognitive effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 14
- 239000010410 layer Substances 0.000 description 11
- 210000004556 brain Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mechanical Engineering (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于神经网络的机器人动作轨迹获取系统,包括若干个机器人、算法控制器,其特征在于,所述机器人上设置有驱动电机、机械臂、机器人手指、摄像机,所述机器人手指设置在所述机械臂上,所述摄像机设置于所述机器人手指的侧部,所述驱动电机的输出端分别与所述机械臂的输入端、所述机器人手指的输入端相联接,所述算法控制器的输入端与所述摄像机的输出端相联接,所述算法控制器的输出端与所述驱动电机的输入端、所述机械臂的输入端、所述机器人手指的输入端相联接。本发明通过构建基于改进鸟群算法的最优模型,实现了机器人动作模拟人工动作行为轨迹的最优路线以及控制数据的获取。
Description
技术领域
本发明涉及一种基于神经网络的机器人动作轨迹获取系统及方法,属于机器人应用技术领域。
背景技术
人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。该模型以并行分布的处理能力、高容错性、智能化和自学习等能力为特征,将信息的加工和存储结合在一起,以其独特的知识表示方式和智能化的自适应学习能力,引起各学科领域的关注。它实际上是一个有大量简单元件相互连接而成的复杂网络,具有高度的非线性,能够进行复杂的逻辑操作和非线性关系实现的系统。目前成熟Shallow结构的神经网络(只含有单层隐藏层神经元的结构)主要包括三层,即第一层为输入层(input layer),第二层称为隐藏层(hidden layer),最后一层为输出层(output layer)。
目前市场上使用的协作机器人,主要有两类功能:其一,在人体靠近时安全预警,主动减速甚至停止工作;其二采用拖动示教使工业机器人模仿人类独立完成工作。由于人在工作时容易出现效率不一、疲惫和操作失误等现象,被动的停止工作大大降低了工业生产的效率。拖动示教重点是教会工业机器人模仿人类执行一项任务,机器人仍不能主动的与人协作。在工业生产线中还存在许多复杂、多变的任务必须由人类来完成,因此人类与工业机器人的灵活协作就显得尤为重要。因此,工业生产中急需具有主动获取人体动作任务功能的工业机器人来解决相关问题。
发明内容
本发明的目的在于,克服现有技术存在的缺陷,解决上述技术问题,提出一种基于神经网络的机器人动作轨迹获取系统及方法。
本发明采用如下技术方案:一种基于神经网络的机器人动作轨迹获取系统,包括若干个机器人、算法控制器,其特征在于,所述机器人上设置有驱动电机、机械臂、机器人手指、摄像机,所述机器人手指设置在所述机械臂上,所述摄像机设置于所述机器人手指的侧部,所述驱动电机的输出端分别与所述机械臂的输入端、所述机器人手指的输入端相联接,所述算法控制器的输入端与所述摄像机的输出端相联接,所述算法控制器的输出端与所述驱动电机的输入端、所述机械臂的输入端、所述机器人手指的输入端相联接。
本发明还提出一种基于神经网络的机器人动作轨迹获取方法,具体包括如下步骤:若干个机器人首先通过摄像机观察人手动作的行为轨迹,算法控制器控制驱动电机、机械臂和机器人手指进行动作模拟行为轨迹,算法控制器通过基于改进鸟群算法的最优模型对所有机器人的行为轨迹进行判定,寻找行为轨迹最接近人手动作的行为轨迹的机器人,提取其行为轨迹及控制数据发送给其余机器人,直至人手工作完成,获得最优的行为轨迹及控制数据。
作为一种较佳的实施例,所述基于改进鸟群算法的最优模型的构建方法如下:
步骤SS1:采用混沌优化算法进行机器人参数初始化设定,设定若干个所述机器人群体规模为N,搜索空间的维数为d,则第i个机器人在搜索空间第t时刻的位置可表示为如果一个在(0,1)之间均匀分布的随机数小于P(P∈(0,1)),那么机器人就会动作,否则,机器人就会继续保持原来状态,如公式(1)所示:
其中表示第t代机器人群体规模中的第i个机器人的第j维位置,j∈[1,.........,D];C和S为非负常数,分别为认知和社会系数;rand(0,1)表示(0,1)之间的独立均匀分布数,Pi,j为第i个机器人的最佳位置,gi为当前机器人群体最佳位置;
步骤SS2:机器人的运动方式用如下公式描述:
式中k(k≠i)为(1,N)之间的正整数,a1,a2为(0,2)之间的实数;pFiti表示第i只鸟最佳的适应度,sumFit表示鸟群适应度之和;ε为较小的常数,防止分母为0,meanj表示群体第j维的平均位置;
步骤SS3:机器人群体N中的最优机器人按公式(5)的方式运动,其他机器人按公式(6)运动,即:
其中randn(0,1)表示服从方差为0,均值为1的高斯分布随机数;k(k≠i)为(1,N)之间的正整数;FL(FL∈(0,2))表示其他机器人会模拟最优机器人的运动轨迹,假设飞行频率为FQ,FQ为整数。
作为一种较佳的实施例,所述步骤SS1还包括:引入惯性权值W,通过调整惯性权值W的值来实现全局搜索和局部搜索之间的平衡,令
其中Wmax=0.9,Wmin=0.4,t为当前迭代次数,tmax为最大迭代次数,加入惯性权值W后,以加快收敛速度,提高算法性能。
作为一种较佳的实施例,所述步骤SS1还包括:C和S分别代表认知和社会系数,通过自适应调整自身认知经验和社会经验,使得机器人群体在搜索前期取C=S,表示“个体”和“群体”对粒子搜索过程影响力相同;搜索后期C的取值小于S的取值;加强社会经验比重,使得局部搜索能力得到加强,非线性调整的学习系数更新公式为:
改进后的搜索公式为:
作为一种较佳的实施例,所述步骤SS3还包括:若某一个机器人陷入局部最优,则其余机器人只能模拟该局部最优机器人的运动轨迹,也会陷入局部最优,因此最优机器人的位置公式(5)中加入扰动项,增强其获得全局最优解的能力,有效避免局部最优,所述公式(5)的位置公式改进如下:
本发明所达到的有益效果:本发明通过构建基于改进鸟群算法的最优模型,实现了机器人动作模拟人工动作行为轨迹的最优路线以及控制数据的获取,通过本发明,任何人工动作完成的动作任务均可以通过构建基于改进鸟群算法的最优模型控制机器人来完成,从整体上实现了人机协作的智能化。
附图说明
图1是本发明的一种基于神经网络的机器人动作轨迹获取系统的示意图。
图2是F1函数的收敛曲线图。
图3是F2函数的收敛曲线图。
图4是F3函数的收敛曲线图。
图5是F4函数的收敛曲线图。
图6是F5函数的收敛曲线图。
图7是F6函数的收敛曲线图。
图中标记的含义:1-驱动电机,2-机械臂,3-机器人手指,4-算法控制器,5-摄像机。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
图1是本发明的一种基于神经网络的机器人动作轨迹获取系统的示意图。本发明提出一种基于神经网络的机器人动作预测系统,包括若干个机器人、算法控制器4,其特征在于,机器人上设置有驱动电机1、机械臂2、机器人手指3、摄像机5,机器人手指3设置在机械臂2上,摄像机5设置于机器人手指3的侧部,驱动电机1的输出端分别与机械臂2的输入端、机器人手指3的输入端相联接,算法控制器4的输入端与摄像机5的输出端相联接,算法控制器4的输出端与驱动电机1的输入端、机械臂2的输入端、机器人手指3的输入端相联接。
本发明还提出一种基于神经网络的机器人动作轨迹获取方法,其特征在于,具体包括如下步骤:若干个机器人首先通过摄像机5观察人手动作的行为轨迹,算法控制器4控制驱动电机1、机械臂2和机器人手指3进行动作模拟行为轨迹,算法控制器4通过基于改进鸟群算法的最优模型对所有机器人的行为轨迹进行判定,寻找行为轨迹最接近人手动作的行为轨迹的机器人,提取其行为轨迹及控制数据发送给其余机器人,直至人手工作完成,获得最优的行为轨迹及控制数据。
作为一种较佳的实施例,所述基于改进鸟群算法的最优模型的构建方法如下:
步骤SS1:采用混沌优化算法进行机器人参数初始化设定,设定若干个所述机器人群体规模为N,搜索空间的维数为d,则第i个机器人在搜索空间第t时刻的位置可表示为如果一个在(0,1)之间均匀分布的随机数小于P(P∈(0,1)),那么机器人就会动作,否则,机器人就会继续保持原来状态,如公式(1)所示:
其中表示第t代机器人群体规模中的第i个机器人的第j维位置,j∈[1,.........,D];C和S为非负常数,分别为认知和社会系数;rand(0,1)表示(0,1)之间的独立均匀分布数,Pi,j为第i个机器人的最佳位置,gi为当前机器人群体最佳位置;
步骤SS2:机器人的运动方式用如下公式描述:
式中k(k≠i)为(1,N)之间的正整数,a1,a2为(0,2)之间的实数;pFiti表示第i只鸟最佳的适应度,sumFit表示鸟群适应度之和;ε为较小的常数,防止分母为0,meanj表示群体第j维的平均位置;
步骤SS3:机器人群体N中的最优机器人按公式(5)的方式运动,其他机器人按公式(6)运动,即:
其中randn(0,1)表示服从方差为0,均值为1的高斯分布随机数;k(k≠i)为(1,N)之间的正整数;FL(FL∈(0,2))表示其他机器人会模拟最优机器人的运动轨迹,假设飞行频率为FQ,FQ为整数。
作为一种较佳的实施例,所述步骤SS1还包括:引入惯性权值W,通过调整惯性权值W的值来实现全局搜索和局部搜索之间的平衡,令
其中Wmax=0.9,Wmin=0.4,t为当前迭代次数,tmax为最大迭代次数,加入惯性权值W后,以加快收敛速度,提高算法性能。
作为一种较佳的实施例,所述步骤SS1还包括:C和S分别代表认知和社会系数,通过自适应调整自身认知经验和社会经验,使得机器人群体在搜索前期取C=S,表示“个体”和“群体”对粒子搜索过程影响力相同;搜索后期C的取值小于S的取值;加强社会经验比重,使得局部搜索能力得到加强,非线性调整的学习系数更新公式为:
改进后的搜索公式为:
作为一种较佳的实施例,所述步骤SS3还包括:若某一个机器人陷入局部最优,则其余机器人只能模拟该局部最优机器人的运动轨迹,也会陷入局部最优,因此最优机器人的位置公式(5)中加入扰动项,增强其获得全局最优解的能力,有效避免局部最优,所述公式(5)的位置公式改进如下:
本发明的方法流程具体包括如下步骤:
步骤SS1:初始化参数,设定种群总数N,设定a1,a2以及FQ的初始值,定义机器人群体搜索空间维度dim为2;
步骤SS2:设定外循环最大迭代次数tmax,初始化机器人群体,得到各粒子的位置信息xi;
步骤SS3:更新机器人群体的位置,根据式(2),(9),(11),(6)更新机器人群体在动作行为中的位置信息;
步骤SS4:令t=t+1,判断当前迭代次数是否达到FQ,如果达到则将机器人群体分为全局最优机器人和跟踪机器人两部分,并根据式(6),(11)分别来更新机器人群体的位置,否则跳到式(6)继续迭代;
步骤SS5:判断是否达到最大迭代次数tmax或者机器人群体位置值在若干代中不更新,则停止计算得到最优参数值,即最优的行为轨迹及控制数据。
为了验证本发明改进算法IBSA的有效性,选取以下6个标准测试函数进行仿真实验,并将寻优结果分别与基本鸟群算法(BSA),粒子群算法(PSO),引力搜索算法(GSA)的寻优结果进行对比分析,表1为各个测试函数的一些基本信息,6种算法的相关参数设置如表2所示。统一起见各算法的种群规模为30,空间维数均为30,最大迭代次数最大为500。
表1基准测试函数
4.2实验结果与分析
为了避免偶然因素对结果的影响,各算法均运行30次,测试结果如下,IBSA算法在6个测试函数上均取得了优异成绩。IBSA算法与其他3个算法在测试函数上的结果表明:IBSA算法在寻优精度,算法稳定性上均优于其他三种算法。特别是和GSA算法相比,IBSA算法具有明显优势
为了更加直观的体现IBSA算法的优越性,4种算法对6个基准测试函数的最优个体适应度值收敛特性曲线如图2、3、4、5和6所示。
由上图可知相对于BSA,PSO,GSA等算法,IBSA算法具备更快的收敛速度,达到了更高的搜索精度。综合来说,IBSA算法的寻优性能要高于另外三种算法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (6)
1.一种基于神经网络的机器人动作轨迹获取系统,包括若干个机器人、算法控制器(4),其特征在于,所述机器人上设置有驱动电机(1)、机械臂(2)、机器人手指(3)、摄像机(5),所述机器人手指(3)设置在机械臂(2)上,所述摄像机(5)设置于所述机器人手指(3)的侧部,所述驱动电机(1)的输出端分别与所述机械臂(2)的输入端、所述机器人手指(3)的输入端相联接,所述算法控制器(4)的输入端与所述摄像机(5)的输出端相联接,所述算法控制器(4)的输出端与所述驱动电机(1)的输入端、所述机械臂(2)的输入端、所述机器人手指(3)的输入端相联接。
2.一种基于权利要求1所述的神经网络的机器人动作轨迹获取系统的方法,其特征在于,具体包括如下步骤:若干个机器人首先通过摄像机(5)观察人手动作的行为轨迹,算法控制器(4)控制驱动电机(1)、机械臂(2)和机器人手指(3)进行动作模拟行为轨迹,算法控制器(4)通过基于改进鸟群算法的最优模型对所有机器人的行为轨迹进行判定,寻找行为轨迹最接近人手动作的行为轨迹的机器人,提取其行为轨迹及控制数据发送给其余机器人,直至人手工作完成,获得最优的行为轨迹及控制数据。
3.根据权利要求2所述的一种基于神经网络的机器人动作轨迹获取方法,其特征在于,所述基于改进鸟群算法的最优模型的构建方法如下:
步骤SS1:采用混沌优化算法进行机器人参数初始化设定,设定若干个所述机器人群体规模为N,搜索空间的维数为d,则第i个机器人在搜索空间第t时刻的位置可表示为如果一个在(0,1)之间均匀分布的随机数小于P(P∈(0,1)),那么机器人就会动作,否则,机器人就会继续保持原来状态,如公式(1)所示:
其中表示第t代机器人群体规模中的第i个机器人的第j维位置,j∈[1,.........,D];C和S为非负常数,分别为认知和社会系数;rand(0,1)表示(0,1)之间的独立均匀分布数,Pi,j为第i个机器人的最佳位置,gi为当前机器人群体最佳位置;
步骤SS2:机器人的运动方式用如下公式描述:
式中k(k≠i)为(1,N)之间的正整数,a1,a2为(0,2)之间的实数;pFiti表示第i只鸟最佳的适应度,sumFit表示鸟群适应度之和;ε为较小的常数,防止分母为0,meanj表示群体第j维的平均位置;
步骤SS3:机器人群体N中的最优机器人按公式(5)的方式运动,其他机器人按公式(6)运动,即:
其中randn(0,1)表示服从方差为0,均值为1的高斯分布随机数;k(k≠i)为(1,N)之间的正整数;FL(FL∈(0,2))表示其他机器人会模拟最优机器人的运动轨迹,假设飞行频率为FQ,FQ为整数。
4.根据权利要求3所述的一种基于神经网络的机器人动作轨迹获取方法,其特征在于,所述步骤SS1还包括:引入惯性权值W,通过调整惯性权值W的值来实现全局搜索和局部搜索之间的平衡,令
其中Wmax=0.9,Wmin=0.4,t为当前迭代次数,tmax为最大迭代次数,加入惯性权值W后,以加快收敛速度,提高算法性能。
5.根据权利要求3所述的一种基于神经网络的机器人动作预测方法,其特征在于,所述步骤SS1还包括:C和S分别代表认知和社会系数,通过自适应调整自身认知经验和社会经验,使得机器人群体在搜索前期取C=S,表示“个体”和“群体”对粒子搜索过程影响力相同;搜索后期C的取值小于S的取值;加强社会经验比重,使得局部搜索能力得到加强,非线性调整的学习系数更新公式为:
改进后的搜索公式为:
6.根据权利要求3所述的一种基于神经网络的机器人动作轨迹获取方法,其特征在于,所述步骤SS3还包括:若某一个机器人陷入局部最优,则其余机器人只能模拟该局部最优机器人的运动轨迹,也会陷入局部最优,因此最优机器人的位置公式(5)中加入扰动项,增强其获得全局最优解的能力,有效避免局部最优,所述公式(5)的位置公式改进如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810246624.XA CN108453737B (zh) | 2018-03-23 | 2018-03-23 | 一种基于神经网络的机器人动作轨迹获取系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810246624.XA CN108453737B (zh) | 2018-03-23 | 2018-03-23 | 一种基于神经网络的机器人动作轨迹获取系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108453737A true CN108453737A (zh) | 2018-08-28 |
CN108453737B CN108453737B (zh) | 2021-07-06 |
Family
ID=63237213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810246624.XA Active CN108453737B (zh) | 2018-03-23 | 2018-03-23 | 一种基于神经网络的机器人动作轨迹获取系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108453737B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110039537A (zh) * | 2019-03-15 | 2019-07-23 | 北京精密机电控制设备研究所 | 一种基于神经网络的在线自学习多关节运动规划方法 |
CN111965979A (zh) * | 2020-08-28 | 2020-11-20 | 南京工业大学 | 基于外骨骼机器人作动器的有限时间控制方法 |
CN112348152A (zh) * | 2020-11-05 | 2021-02-09 | 襄阳易捷达隆物联科技有限公司 | 基于改进层次分析法的交通拥堵疏导方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1676286A (zh) * | 2004-04-02 | 2005-10-05 | 李朝辉 | 生物信息随动即时示教控制机器人 |
CN105522576A (zh) * | 2014-10-27 | 2016-04-27 | 广明光电股份有限公司 | 机器手臂自动再校正的方法 |
WO2018022715A1 (en) * | 2016-07-26 | 2018-02-01 | University Of Connecticut | Early prediction of an intention of a user's actions |
-
2018
- 2018-03-23 CN CN201810246624.XA patent/CN108453737B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1676286A (zh) * | 2004-04-02 | 2005-10-05 | 李朝辉 | 生物信息随动即时示教控制机器人 |
CN105522576A (zh) * | 2014-10-27 | 2016-04-27 | 广明光电股份有限公司 | 机器手臂自动再校正的方法 |
WO2018022715A1 (en) * | 2016-07-26 | 2018-02-01 | University Of Connecticut | Early prediction of an intention of a user's actions |
Non-Patent Citations (1)
Title |
---|
朱方文: "基于LAP方法的机器人灵巧手控制", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110039537A (zh) * | 2019-03-15 | 2019-07-23 | 北京精密机电控制设备研究所 | 一种基于神经网络的在线自学习多关节运动规划方法 |
CN111965979A (zh) * | 2020-08-28 | 2020-11-20 | 南京工业大学 | 基于外骨骼机器人作动器的有限时间控制方法 |
CN111965979B (zh) * | 2020-08-28 | 2021-09-24 | 南京工业大学 | 基于外骨骼机器人作动器的有限时间控制方法 |
CN112348152A (zh) * | 2020-11-05 | 2021-02-09 | 襄阳易捷达隆物联科技有限公司 | 基于改进层次分析法的交通拥堵疏导方法及系统 |
CN112348152B (zh) * | 2020-11-05 | 2023-04-18 | 襄阳易捷达隆物联科技有限公司 | 基于改进层次分析法的交通拥堵疏导方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108453737B (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kahn et al. | Plato: Policy learning using adaptive trajectory optimization | |
Bhattacharyya et al. | Simulating emergent properties of human driving behavior using multi-agent reward augmented imitation learning | |
WO2022012265A1 (en) | Robot learning from demonstration via meta-imitation learning | |
CN108491598B (zh) | 一种基于路径规划的人群疏散仿真方法及系统 | |
CN109946975A (zh) | 一种未知伺服系统的强化学习最优跟踪控制方法 | |
CN109947124A (zh) | 改进粒子群算法优化模糊pid无人直升机姿态控制方法 | |
CN112550314B (zh) | 适用于无人驾驶的嵌入优化式控制方法及其驾驶控制模块和自动驾驶控制系统 | |
CN108453737A (zh) | 一种基于神经网络的机器人动作轨迹获取系统及方法 | |
CN103679139A (zh) | 基于粒子群优化bp网络的人脸识别方法 | |
CN107102727A (zh) | 基于elm神经网络的动态手势学习与识别方法 | |
CN110442129A (zh) | 一种多智能体编队的控制方法和系统 | |
CN105700526A (zh) | 具有自主学习能力的在线序列极限学习机方法 | |
CN112231968A (zh) | 基于深度强化学习算法的人群疏散仿真方法及系统 | |
CN112348285B (zh) | 一种基于深度强化学习的动态环境下人群疏散模拟方法 | |
Gudimella et al. | Deep reinforcement learning for dexterous manipulation with concept networks | |
CN113741533A (zh) | 一种基于模仿学习与强化学习的无人机智能决策系统 | |
Ren | Optimal control | |
Thabet et al. | Sample-efficient deep reinforcement learning with imaginary rollouts for human-robot interaction | |
CN114170454A (zh) | 基于关节分组策略的智能体元动作学习方法 | |
Dindo et al. | An adaptive probabilistic approach to goal-level imitation learning | |
Hwang et al. | Fusion of multiple behaviors using layered reinforcement learning | |
Lee et al. | Learning robot behaviors by evolving genetic programs | |
CN113011081B (zh) | 一种基于元学习的无人机导航方法 | |
Mobahi et al. | Concept oriented imitation towards verbal human-robot interaction | |
CN105467841A (zh) | 一种类人机器人上肢运动的类神经控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |