CN110543919B - 一种机器人定位控制方法、终端设备及存储介质 - Google Patents
一种机器人定位控制方法、终端设备及存储介质 Download PDFInfo
- Publication number
- CN110543919B CN110543919B CN201910857536.8A CN201910857536A CN110543919B CN 110543919 B CN110543919 B CN 110543919B CN 201910857536 A CN201910857536 A CN 201910857536A CN 110543919 B CN110543919 B CN 110543919B
- Authority
- CN
- China
- Prior art keywords
- robot
- layer
- input
- output
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 239000013598 vector Substances 0.000 claims abstract description 57
- 230000033001 locomotion Effects 0.000 claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims abstract description 33
- 238000001914 filtration Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 4
- 210000002569 neuron Anatomy 0.000 claims description 60
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000005284 excitation Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 5
- 230000009012 visual motion Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- FESBVLZDDCQLFY-UHFFFAOYSA-N sete Chemical compound [Te]=[Se] FESBVLZDDCQLFY-UHFFFAOYSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种机器人定位控制方法、终端设备及存储介质,该方法中包括:S1:采集不同时刻机器人的图像特征,构建小波Elman网络模型,将采集的图像特征作为模型的输入,系统定位的状态向量作为模型的输出,对模型的参数进行训练,以使模型输出的状态向量跟踪通过卡尔曼滤波算法预测的状态向量,将训练后的模型作为最终模型;S2:将机器人的图像特征I(t)输入最终模型得到最终状态向量X1(t),将最终状态向量X1(t)转换为微分矩阵G(t);S3:根据微分矩阵G(t)计算机器人的控制量UR(t);S4:根据机器人的控制量UR(t)对机器人的运动进行控制。本发明实现了机器人单目视觉大空间定位控制,既能保证机器人系统鲁棒稳定,又使得伺服系统具有一定的环境自适应性。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人定位控制方法、终端设备及存储介质。
背景技术
机器人技术日新月异,应用领域不断推广,特别是智能服务型机器臂工作环境特殊,此类机器人要求执行多样任务,应对多变环境,以致自身定位控制技术面临挑战。视觉传感利用视觉反馈信息调整机器人姿态,由此构成视觉闭环反馈控制技术,有利于提高机器人任务操作的灵活性,与环境自适应性,在机器人操作研究中具有重要地位。
机器人视觉反馈控制技术广泛分为基于位置的视觉伺服(PBVS)和基于图像的视觉伺服(IBVS)。PBVS方法其计算基础是视觉测量技术,视觉系统通过图像特征计算目标物3D笛卡尔坐标位置,并根据已知的目标几何模型,与机器人系统标定参数估计目标姿态,伺服控制器再根据机器人与目标之间的相对位姿进行轨迹规划并实施任务操作。与PBVS过分依赖于目标3D重建技术不同,IBVS视觉伺服直接以2D图像特征为反馈信息,将当前图像特征与期望特征之间的图像误差映射到机器人运动空间中,由图像误差计算机器人控制量并实施运动控制。IBVS省略了目标3D重建而得到广泛关注。然而,IBVS视觉伺服控制技术过于依赖映射微分矩阵,求解非线性微分矩阵是实现IBVS方法的前提条件,而现有大部分求解方法受限于机器人严格标定条件。因此在非结构非标定环境中,建立新型无模型视觉伺服控制方法意义显著。
发明内容
为了解决上述问题,本发明提出了一种机器人定位控制方法、终端设备及存储介质。
具体方案如下:
一种机器人定位控制方法,包括以下步骤:
S1:采集不同时刻机器人的图像特征,构建小波Elman网络模型,将采集的图像特征作为模型的输入,系统定位的状态向量作为模型的输出,对模型的参数进行训练,以使模型输出的状态向量跟踪通过卡尔曼滤波算法预测的状态向量,将训练后的模型作为最终模型;
S2:将机器人的图像特征I(t)输入最终模型得到最终状态向量X1(t),将最终状态向量X1(t)转换为微分矩阵G(t),其中,xn*m(t)=gnm(t),xn*m表示向量X1(t)的第n×m个元素,gnm表示矩阵G(t)的第n行中第m列的元素;
S3:根据微分矩阵G(t)计算机器人的控制量UR(t):
UR(t)=λΔtG(t)T(G(t)G(t)T)-1Ie(t)+UR(t-1)
Ie(t)=I(t)-I*
其中,上标T表示矩阵的转置,λ为控制系数,Δt表示时刻t和时刻t-1的时间差,Ie(t)为t时刻的图像特征误差,I*为机器人的期望图像特征;
S4:根据机器人的控制量UR(t)对机器人的运动进行控制。
进一步的,步骤S1具体包括以下步骤:
S11:将t时刻的图像特征I(t)作为小波Elman网络模型的输入,模型输出机器人系统定位的次优状态向量X'(t);
S12:设定系统的状态转移方程为:
令X(t-1)=X'(t),根据系统的状态转移方程计算获得系统的状态向量X(t);
S13:根据t时刻系统的状态向量X(t)和系统的状态观测方程,计算t时刻的状态观测值Z(t);
状态观测方程为:
Z(t)=Φ(t)X(t)+ψ(t)
其中,Φ(t)为观测矩阵,ψ(t)为观测噪声;
S15:以图像特征I(t)为输入量,以步骤S14得到的最优状态估计向量为参考值,采用梯度下降法对t时刻小波Elman网络模型的权值进行调整,以实现小波Elman网络模型的输出X'(t)跟踪卡尔曼滤波算法的输出
进一步的,小波Elman网络模型的构建方法为:
步骤1:输入层神经元将输入的图像特征传递至隐含层,输入层神经元的传输函数为线性函数,输入层每个神经元节点i的输入和输出分别为:
步骤2:关联层对隐含层输出和自身层输出进行反馈传输,关联层每个神经元节点j的输入和输出分别为:
步骤3:反馈层神经元对输出层实现非线性反馈传递,反馈层每个神经元节点k的输入和输出分别为:
步骤4:隐含层神经元激励函数采用小波函数,隐含层每个神经元节点l的输入和输出表示为:
h(x)=-xexp[-x2/2]
步骤5:输出层每个节点c的输入和输出表示为:
进一步的,步骤S14的系统定位状态预测过程包括:
其中,G(0)和X(0)分别表示初始状态的微分矩阵和状态向量,Q和R均为噪声方差矩阵;
步骤3:预测误差协方差P(t/t-1):P(t/t-1)=Ψ(t/t-1)P(t-1)Ψ(t/t-1)T+Q;
步骤4:计算卡尔曼滤波增益K(t):K(t)=P(t/t-1)Φ(t)T(Φ(t)P(t/t-1)Φ(t)T+R)-1;
进一步的,步骤S15中权值wl(t)更新规则为:
其中,η表示学习率。
一种机器人定位控制终端设备,包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例上述的方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现本发明实施例上述的方法的步骤。
本发明采用如上技术方案,基于状态空间学习技术,建立图像空间与机器人运动空间映射模型,并且针对IBVS视觉伺服技术的局限,在线学习求解机器人视觉-运动空间的非线性微分矩阵,实现了机器人单目视觉大空间定位控制,既能保证机器人系统鲁棒稳定,又使得伺服系统具有一定的环境自适应性,适用于机器人本体无模型系统,无需要标定相机内部参数,免去了复杂的标定过程。
附图说明
图1所示为本发明实施例一中整体的控制流程图。
图2所示为该实施例中小波Elman网络模型示意图。
图3所示为该实施例中PBVS方法机器人运动轨迹图。
图4所示为该实施例中PBVS方法机器人定位图像误差图。
图5所示为该实施例中PBVS方法机器人图像平面特征点运动轨迹图。
图6所示为该实施例中IBVS方法机器人运动轨迹图。
图7所示为该实施例中IBVS方法机器人定位图像误差图。
图8所示为该实施例中IBVS方法机器人图像平面特征点运动轨迹图。
图9所示为该实施例中方法机器人运动轨迹图。
图10所示为该实施例中方法机器人定位图像误差图。
图11所示为该实施例中方法机器人图像平面特征点运动轨迹图。
图12所示为该实施例中传统卡尔曼方法的机器人运动轨迹图。
图13所示为该实施例中传统卡尔曼方法的机器人图像平面特征点运动轨迹图。
图14所示为该实施例中传统卡尔曼方法的机器人定位图像误差图。
图15所示为该实施例中方法的机器人运动轨迹图。
图16所示为该实施例中方法的机器人图像平面特征点运动轨迹图。
图17所示为该实施例中方法的机器人定位图像误差图。
具体实施方式
为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。
现结合附图和具体实施方式对本发明进一步说明。
实施例一:
参考图1所示,本发明实施例提供了一种机器人定位控制方法,包括以下步骤:
S1:采集不同时刻机器人的图像特征,构建小波Elman网络模型,将采集的图像特征作为模型的输入,系统定位的状态向量作为模型的输出,对模型的参数进行训练,以使模型输出的状态向量跟踪通过卡尔曼滤波算法预测的状态向量,将训练后的模型作为最终模型。
所述图像特征可以通过相机或摄像机进行采集,该实施例中以六自由度单目工业机器人为实验平台,摄像机固定安装在机器人手臂末端,构成“眼在手”(Eye-In-Hand)机器人定位系统。
该实施例中采用反馈型小波Elman神经网络对机器人视觉-运动空间的非线性映射关系进行全局学习,以实现机器人在大范围内定位到期望位姿的邻域范围内。如图2所示,该实施例采用五层小波Elman神经网络拓扑结构,网络模型的构建过程如下:
步骤1:输入层神经元将输入的图像特征传递至隐含层,输入层神经元的传输函数为线性函数,输入层每个神经元节点i的输入和输出分别为:
步骤2:关联层对隐含层输出和自身层输出进行反馈传输,关联层每个神经元节点j的输入和输出分别为:
步骤3:反馈层神经元对输出层实现非线性反馈传递,反馈层每个神经元节点k的输入和输出分别为:
步骤4:隐含层神经元激励函数采用小波函数,隐含层每个神经元节点l的输入和输出表示为:
h(x)=-xexp[-x2/2]
步骤5:输出层每个节点c的输入和输出表示为:
在实际的机器人操作中,由于机器人全局工作空间学习样本稀疏有限,机器人定位精度不高,为了解决该问题,该实施例中通过构建卡尔曼(Kalman)滤波联合反馈型小波Elman神经网络学习算法,对小波Elman网络模型的输出状态实施卡尔曼滤波修正,具体包括以下步骤:
S11:将t时刻的图像特征I(t)作为小波Elman网络模型的输入,模型输出机器人系统定位的次优状态向量X'(t)。
S12:设定系统的状态转移方程为:
令X(t-1)=X'(t),根据系统的状态转移方程计算获得系统的状态向量X(t)。
S13:根据t时刻系统的状态向量X(t)和系统的状态观测方程,计算t时刻的状态观测值Z(t)。
状态观测方程为:
Z(t)=Φ(t)X(t)+ψ(t)
其中,Φ(t)为观测矩阵,ψ(t)为观测噪声。
该实施例中,观测矩阵Φ(t)为:
步骤S14具体包括以下步骤:
其中,G(0)和X(0)分别表示初始状态的微分矩阵和状态向量,0表示t=0,Q和R均为噪声方差矩阵;
步骤3:预测误差协方差P(t/t-1):P(t/t-1)=Ψ(t/t-1)P(t-1)Ψ(t/t-1)T+Q;
步骤4:计算卡尔曼滤波增益K(t):K(t)=P(t/t-1)Φ(t)T(Φ(t)P(t/t-1)Φ(t)T+R)-1;
S15:以图像特征I(t)为输入量,以步骤S14得到的最优状态估计向量为参考值,采用梯度下降法对t时刻小波Elman网络模型的权值进行调整,以实现小波Elman网络模型的输出X'(t)跟踪卡尔曼滤波算法的输出
权值wl(t)的更新规则为:
其中,η表示学习率。
通过更新权值wl(t)以使代价函数Υ(t)的值最小:
S2:将机器人的图像特征I(t)输入最终模型得到最终状态向量X1(t),将最终状态向量X1(t)转换为微分矩阵G(t),其中,xn*m(t)=gnm(t),xn*m表示向量X1(t)的第n×m个元素,gnm表示矩阵G(t)的第n行中第m列的元素。
S3:根据微分矩阵G(t)计算机器人的控制量UR(t)。
通过图像特征I(t)与机器人的控制量UR(t)之间的微分方程,构建机器人的视觉-运动空间映射模型为:
由于在非结构环境中其微分矩阵未知,因此,该实施例中把非线性时变微分矩阵转化为系统在线状态估计问题,为此定义不显式微分矩阵G(t):
由于在从图像中采集到的图像特征对应的位姿与期望位姿有一定的误差,因此,设定图像特征误差Ie(t)为:
Ie(t)=I(t)-I*
对上式进行求导,由于其中的期望图像特征I*为定值,因此可得:
假定存在非零常数λ,使得以下等式成立:
则有:
因此,机器人的视觉-运动空间映射模型可变换为:
-λIe(t)Δt=G(t)ΔUR(t)
其中,Δt表示时刻t和时刻t-1的时间差,ΔUR(t)表示时刻t和时刻t-1控制量UR(t)的差值。
上式变形可得:
ΔUR(t)=-λΔtG(t)T(G(t)G(t)T)-1Ie(t)
设定上式中的非零常数λ表示控制系数,则t时刻机器人的控制量UR(t)为:
UR(t)=ΔUR(t)+UR(t-1)
即:
UR(t)=λΔtG(t)T(G(t)G(t)T)-1Ie(t)+UR(t-1)
S4:根据机器人的控制量UR(t)对机器人的运动进行控制。
机器人控制量UR(t)=(vR(t),wR(t))T,其中,vR(t)=(vx(t),vy(t),vz(t)),wR(t)=(wx(t),wy(t),wz(t))分别为机器人末端在基坐标系的x、y、z方向上的线速度和角速度。
实验效果
该实施例中设定相关参数如下,小波Elman网络模型的输入层神经元个数m(1)=8,隐含层和关联层神经元个数m(2)=m(4)=87,输出层和输出反馈层神经元个数m(3)=m(5)=48,小波伸缩系数al(t)=0.1,小波平移系数bl(t)=0.4,网络学习率η=0.15,控制系数λ=0.2。
以经典PBVS和IBVS方法为比较对象,实验中主要验证本实施例方法的两方面的性能:一方面为机器人工作空间大范围定位性能,另一方面为机器人定位鲁棒稳定性能。为了体现机器人大范围定位,该实施例中设定机器人的初始位姿远离期望位姿,即分别设定在机器人工作空间的最远边缘和最近边缘处。
PBVS方法的实验结果如图3、图4和图5所示。由图3可知,在大空间范围内PBVS方法机器人末端从初始位姿定位到期望位姿,机器人末端以直线运动轨迹从初始位姿定位到期望位姿,这是因为PBVS控制器在笛卡尔空间内以机器人位姿为控制对象,直接控制机器人运动轨迹,能够确保机器人运动轨迹稳定在工作范围内。图4为机器人定位图像误差,可知PBVS伺服方法图像误差收敛趋向于零,表明机器人任务完成。然而从图5可以看出,特征点在图像空间内运动轨迹绕行,特征点已经超出相机视场范围,导致特征容易消失在机器人单目可视范围内,这是因为PBVS控制器难易兼顾图像特征点的运动轨迹控制。
IBVS方法实验结果如图6、图7和图8所示。由图8可看出,IBVS方法图像特征以直线运动轨迹从初始位置收敛到期望位置,特征点始终保持在相机视场范围内,这是因为IBVS控制器在图像空间内以特征点位置为控制对象,直接控制特征点运动轨迹,能够确保特征运动轨迹稳定在视觉范围内。并且由图7可知,IBVS方法图像误差收敛趋向于零,表明机器人定位完成。但是图6表明,机器人末端笛卡尔空间运动轨迹不稳定,机器人运动产生较大震动,容易超出机器人工作范围内,这是因为IBVS方法难易兼顾到机器人的运动轨迹控制。
本发明方法实验结果如图9、图10和图11所示。由图9可看出,本实施例方法机器人定位以接近直线运动从始位姿定位到期望位姿,机器人运动轨迹稳定无震荡,图10为机器人定位误差,图像误差收敛趋向于零,机器人定位成功。同时由图11可知,图像特征轨迹同样以近直线方式从初始位置收敛到期望位置,并且特征点保持在相机视场范围内。
通过以上机器人大范围定位实验比较可知,PBVS方法图像特征轨迹容易偏离相机视场范围,IBVS方法机器人运动轨迹震荡不稳定,容易超出机器人工作范围,而本实施例方法机器人运动轨迹平稳无震动,图像特征轨迹保持在相机视场范围内,综合性能最好。
另外,本实施例与传统卡尔曼滤波方法比较,进一步说明本发明小波Elman网络联合卡尔曼方法的鲁棒稳定性。在机器人实际环境操作中,系统噪声和传感器观测噪声统计信息的不确定性,将影响机器人定位性能,严重时可导致系统不稳定定位失败,因此,本实施例加入相关白噪声序列测试系统的鲁棒性能,系统噪声均值为0,方差为Q=2.1,观测噪声均值为0,方差分别为R=1.4。
传统卡尔曼方法机器人定位结果如图12和图13所示。由图12可知,在外界噪声干扰影响下机器人末端轨迹大幅度绕行运动,机器人运动先远离期望位姿而后逐渐接近期望位姿,图13可以看出机器人这种绕行运动进而导致图像特征轨迹偏离相机视场范围。
面对相同外界干扰机器人定位任务,该实施例中采用卡尔曼联合小波Elman学习的方法的实验结果如图15和图16所示。由图15可看出,机器人运动直接定位到期望位姿,轨迹无绕行并且机器人运动稳定,同时由图16可知,图像特征轨迹直行平滑,特征点保持在机器人视场范围内。
另外,由图14和17机器人定位图像误差图的对比可以看出,本实施例采用的卡尔曼联合小波Elman网络学习方法比传统卡尔曼方法收敛快,图像误差小,以上结果主要原因是小波Elman网络预先得到机器人全局定位的次优状态,在这基础上卡尔曼实施状态最优滤波,并实时调整网络权重,这种分步联合工作方式有利于提高机器人执行效率和提高定位精度,并且保证机器人全局空间的稳定性。
本发明实施例一首先获取图像特征,小波Elman网络模型对图像特征进行学习,输出机器人定位系统的次优状态;在此基础上利用卡尔曼滤波算法对模型输出的次优状态进行滤波修正,并恢复得到机器人视觉-运动空间微分矩阵的精确估计值,为此提高机器人定位精度;其次小波Elman网络以卡尔曼状态估计值为参考值在线更新权值,使网络输出状态逼近卡尔曼状态估计值,从而抑制系统状态跳变,确保系统稳定;最后根据更新的权值输出状态向量得到对应的微分矩阵,通过微分矩阵得到机器人的控制量,进而控制机器人末端从当前位姿定位到期望位姿。
实施例二:
本发明还提供一种机器人定位控制终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明实施例一的上述方法实施例中的步骤。
进一步地,作为一个可执行方案,所述机器人定位控制终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述机器人定位控制终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,上述机器人定位控制终端设备的组成结构仅仅是机器人定位控制终端设备的示例,并不构成对机器人定位控制终端设备的限定,可以包括比上述更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人定位控制终端设备还可以包括输入输出设备、网络接入设备、总线等,本发明实施例对此不做限定。
进一步地,作为一个可执行方案,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述机器人定位控制终端设备的控制中心,利用各种接口和线路连接整个机器人定位控制终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述机器人定位控制终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据手机的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例上述方法的步骤。
所述机器人定位控制终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)以及软件分发介质等。
尽管结合优选实施方案具体展示和介绍了本发明,但所属领域的技术人员应该明白,在不脱离所附权利要求书所限定的本发明的精神和范围内,在形式上和细节上可以对本发明做出各种变化,均为本发明的保护范围。
Claims (7)
1.一种机器人定位控制方法,其特征在于,包括以下步骤:
S1:采集不同时刻机器人的图像特征,构建小波Elman网络模型,将采集的图像特征作为模型的输入,系统定位的状态向量作为模型的输出,对模型的参数进行训练,以使模型输出的状态向量跟踪通过卡尔曼滤波算法预测的状态向量,将训练后的模型作为最终模型;
S2:将机器人的图像特征I(t)输入最终模型得到最终状态向量X1(t),将最终状态向量X1(t)转换为微分矩阵G(t),其中,xn*m(t)=gnm(t),xn*m表示向量X1(t)的第n×m个元素,gnm表示矩阵G(t)的第n行中第m列的元素;
S3:根据微分矩阵G(t)计算机器人的控制量UR(t):
UR(t)=λΔtG(t)T(G(t)G(t)T)-1Ie(t)+UR(t-1)
Ie(t)=I(t)-I*
其中,上标T表示矩阵的转置,λ为控制系数,Δt表示时刻t和时刻t-1的时间差,Ie(t)为t时刻的图像特征误差,I*为机器人的期望图像特征;
S4:根据机器人的控制量UR(t)对机器人的运动进行控制。
2.根据权利要求1所述的机器人定位控制方法,其特征在于:步骤S1具体包括以下步骤:
S11:将t时刻的图像特征I(t)作为小波Elman网络模型的输入,模型输出机器人系统定位的次优状态向量X'(t);
S12:设定系统的状态转移方程为:
令X(t-1)=X'(t),根据系统的状态转移方程计算获得系统的状态向量X(t);
S13:根据t时刻系统的状态向量X(t)和系统的状态观测方程,计算t时刻的状态观测值Z(t);
状态观测方程为:
Z(t)=Φ(t)X(t)+ψ(t)
其中,Φ(t)为观测矩阵,ψ(t)为观测噪声;
3.根据权利要求1所述的机器人定位控制方法,其特征在于:小波Elman网络模型的构建方法为:
步骤1:输入层神经元将输入的图像特征传递至隐含层,输入层神经元的传输函数为线性函数,输入层每个神经元节点i的输入和输出分别为:
步骤2:关联层对隐含层输出和自身层输出进行反馈传输,关联层每个神经元节点j的输入和输出分别为:
步骤3:反馈层神经元对输出层实现非线性反馈传递,反馈层每个神经元节点k的输入和输出分别为:
其中,和分别为反馈层第k个节点的输入和输出值,为输出层的输出值,上标表示层,下标k=1,2,...,m(3)表示神经元的序号,m(3)表示反馈层神经元总数,exp(-x2)=e-x2为神经元非线性激励函数;
步骤4:隐含层神经元激励函数采用小波函数,隐含层每个神经元节点l的输入和输出表示为:
h(x)=-x exp[-x2/2]
步骤5:输出层每个节点c的输入和输出表示为:
6.一种机器人定位控制终端设备,其特征在于:包括处理器、存储器以及存储在所述存储器中并在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1~5中任一所述方法的步骤。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1~5中任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910857536.8A CN110543919B (zh) | 2019-09-09 | 2019-09-09 | 一种机器人定位控制方法、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910857536.8A CN110543919B (zh) | 2019-09-09 | 2019-09-09 | 一种机器人定位控制方法、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110543919A CN110543919A (zh) | 2019-12-06 |
CN110543919B true CN110543919B (zh) | 2021-10-15 |
Family
ID=68713234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910857536.8A Active CN110543919B (zh) | 2019-09-09 | 2019-09-09 | 一种机器人定位控制方法、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110543919B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553239B (zh) * | 2020-04-23 | 2023-04-28 | 厦门理工学院 | 一种机器人关节视觉伺服控制方法、终端设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107084714A (zh) * | 2017-04-29 | 2017-08-22 | 天津大学 | 一种基于RoboCup3D的多机器人协作目标定位方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
CN108682023A (zh) * | 2018-03-21 | 2018-10-19 | 南京理工大学 | 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法 |
-
2019
- 2019-09-09 CN CN201910857536.8A patent/CN110543919B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107084714A (zh) * | 2017-04-29 | 2017-08-22 | 天津大学 | 一种基于RoboCup3D的多机器人协作目标定位方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
CN108682023A (zh) * | 2018-03-21 | 2018-10-19 | 南京理工大学 | 基于Elman神经网络的紧耦合无迹卡尔曼跟踪滤波算法 |
Non-Patent Citations (8)
Title |
---|
Finding Structure in Time;JEFFREY L. ELMAN;《COGNITIVE SCIENCE》;19901231;第1-28页 * |
Technical Correspondence;Shuhuan Wen等;《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART C: APPLICATIONS AND REVIEWS》;20120731;第42卷(第4期);第603-608页 * |
基于单目视觉的轮式机器人同步定位与地图构建;弋英民等;《仪器仪表学报》;20100131;第31卷(第1期);第117-121页 * |
基于图像的非标定视觉反馈控制机器人全局定位方法;仲训杲等;《厦门大学学报 (自然科学版)》;20180531;第57卷(第3期);第413-419页 * |
基于多模特征深度学习的机器人抓取判别方法;仲训杲等;《自动化学报》;20160731;第42卷(第7期);第1022-1029页 * |
基于小波和Elman神经网络的气液两相流流型识别方法;王强等;《热能动力工程》;20070331;第22卷(第2期);第168-175页 * |
基于雅可比预测的机器人无模型视觉伺服定位控制;仲训杲等;《控制与决策》;20181031;第33卷(第10期);第1814-1819页 * |
无标定状态空间视觉伺服的机器人学习抓取方法研究;仲训杲;《厦门大学学术典藏库》;20160929;论文第1-6章 * |
Also Published As
Publication number | Publication date |
---|---|
CN110543919A (zh) | 2019-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10410362B2 (en) | Method, device, and non-transitory computer readable storage medium for image processing | |
JP7131994B2 (ja) | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム | |
Sauvée et al. | Image based visual servoing through nonlinear model predictive control | |
CN110517324B (zh) | 基于变分贝叶斯自适应算法的双目vio实现方法 | |
Jouaber et al. | Nnakf: A neural network adapted kalman filter for target tracking | |
CN110068326B (zh) | 姿态计算方法、装置、电子设备以及存储介质 | |
CN108731700B (zh) | 一种视觉惯性里程计中的加权欧拉预积分方法 | |
CN104964683B (zh) | 一种室内环境地图创建的闭环校正方法 | |
Hashim | A geometric nonlinear stochastic filter for simultaneous localization and mapping | |
CN112703367B (zh) | 使用不变卡尔曼滤波器和第二交通工具的导航状态的交通工具导航辅助方法及装置 | |
CN115351780A (zh) | 用于控制机器人设备的方法 | |
Wang et al. | A multi-target trajectory planning of a 6-dof free-floating space robot via reinforcement learning | |
CN110967017A (zh) | 一种用于双移动机器人刚体协作搬运的协同定位方法 | |
Raiesdana | Control of quadrotor trajectory tracking with sliding mode control optimized by neural networks | |
CN109443355B (zh) | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 | |
Sturm et al. | Unsupervised body scheme learning through self-perception | |
CN116583855A (zh) | 用于建模和控制部分可测量系统的方法和系统 | |
CN110598370B (zh) | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 | |
CN110543919B (zh) | 一种机器人定位控制方法、终端设备及存储介质 | |
CN109443353B (zh) | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 | |
Tan et al. | Two model-free schemes for solving kinematic tracking control of redundant manipulators using CMAC networks | |
Zhou et al. | Uncalibrated visual servoing based on Kalman filter and mixed-kernel online sequential extreme learning machine for robot manipulator | |
Luo et al. | End‐Effector Pose Estimation in Complex Environments Using Complementary Enhancement and Adaptive Fusion of Multisensor | |
CN111426322B (zh) | 同时估计状态和输入的自适应目标跟踪滤波方法及系统 | |
CN112284380A (zh) | 一种基于光流和imu融合的非线性估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |