CN108717262A - 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 - Google Patents
一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 Download PDFInfo
- Publication number
- CN108717262A CN108717262A CN201810454177.7A CN201810454177A CN108717262A CN 108717262 A CN108717262 A CN 108717262A CN 201810454177 A CN201810454177 A CN 201810454177A CN 108717262 A CN108717262 A CN 108717262A
- Authority
- CN
- China
- Prior art keywords
- character eigenvector
- initial
- mechanical arm
- eigenvector
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于矩特征学习神经网络的异形曲面跟踪方法及系统,所述方法包括如下步骤:获取期望矩特征向量;获取初始矩特征向量、初始矩特征向量的雅可比矩阵、机械臂的目标关节角速度向量;利用期望矩特征向量、初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练;机械臂关节角速度向量将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量;依据当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。本发明通过上述方法可以实现异形曲面精确定位跟踪。
Description
技术领域
本发明属于自动化控制领域,具体涉及一种基于矩特征学习神经网络的异形曲面跟踪方法及系统。
背景技术
随着工业的飞速发展,高端制造领域在国民经济中占有举足轻重的地位。高端制造领域包括航空航天、轨道交通、新能源制造、海工装备等大型装备制造领域。其中,航空发动机涡轮叶片、舰船螺旋桨叶片、新能源水轮机叶片等一系列复杂异形曲面零部件是该领域最难加工的零部件之一。用传统的人工加工这类零部件往往存在着成品加工精度低、一致性差等缺点,导致零件使用过程存在严重的安全隐患,用机器人替代人工作业能有效克服这些弊端。
机器人作业过程中,高精度定位跟踪是个非常重要的环节。在零件装配过程中,需要对各种零件进行准确地定位跟踪;在大型零部件的测量过程中,需要对零部件不同部位进行定位跟踪测量;在零部件精密抛光过程中,需要多次对同一部位进行定位跟踪测量,然后去除余量。目前,多数针对异形曲面构件的跟踪方法是基于目标位置估计的视觉引导,这种方法对相机标定、手眼标定精度鲁棒性差;且在非结构化的工作环境中缺乏自适应能力,很难获得的较好的跟踪效果。
视觉伺服方法能够实时识别目标、提取有效的目标特征、获取环境信息,并与机器人形成闭环控制,提高了机器人对环境的适应能力。视觉伺服可以分为基于位置的视觉伺服、基于图像特征的视觉伺服和混合视觉伺服。其中,基于图像特征的视觉伺服因为对手眼标定精度要求低、能保证目标处于相机视野中,成为最适合的无标定视觉伺服方法。但是利用图像特征视觉伺服跟踪曲面轨迹的存在以下难点:
(1)传统的视觉伺服难以保证稳定性,且对特征匹配精度要求高。以点特征视觉伺服为例,只有当图像中四特征点形成矩形才能保证雅可比矩阵是满秩的,但在跟踪异形曲面时,相机位姿变化很难保证特征点形成矩形,甚至在处于某些位姿时,特征点被自身结构遮挡,从相机视野中消失。因此,采用构件的全局特征既可以避免特征匹配过程,又能保证系统稳定性。
(2)利用全局特征作为视觉特征时,构成的图像雅可比矩阵非常庞大。例如,利用图像全局深度信息构成视觉伺服系统时,图像雅可比矩阵的行数取决于图像的大小,即M×N行。利用全局特征的统计特性作为视觉信息能简化图像雅可比矩阵,例如图像矩视觉伺服。
(3)图像矩视觉伺服求取图像雅可比矩阵的过程中,需要利用目标表面深度模型的参数。若目标表面是简单的平面,建立深度模型将较为简单,但是会严重影响算法的实时性;若目标表面是异形曲面,建立表面深度模型则更为复杂,且无法保证模型参数的准确性。
(4)多自由度机械臂的视觉伺服控制对象,是一种耦合性强、非线性度高、时变严重的复杂系统。传统的控制方法,例如PID控制器只能在工作空间的期望值邻域内具有较好的控制性能,当特征偏差较大时,该控制器无法胜任。
因此,基于现有的异形曲面跟踪方法存在眼标定精度鲁棒性差、目标深度函数模型难以建立以及对象强耦合、非线性、时变严重导致的控制难题,急需一种可以解决上述难题的异形曲面跟踪方法。
发明内容
本发明的目的是提供一种基于矩特征学习神经网络的异形曲面跟踪方法及系统,可以实现异形曲面定位跟踪,克服现有方法中对手眼标定精度鲁棒性差,以及解决现有方法中目标深度函数模型难以建立以及对象强耦合、非线性、时变严重导致的控制难题,实现精确定位跟踪。
本发明提供的一种基于矩特征学习神经网络的异形曲面跟踪方法,包括如下步骤:
S1:获取待跟踪的异形曲面在期望位姿下的期望图像,并提取所述期望图像的所有图像特征得到期望矩特征向量;
S2:获取待跟踪的异形曲面在预设初始位姿下的初始图像,并计算出初始矩特征向量、初始矩特征向量的雅可比矩阵、机械臂的目标关节角速度向量;
其中,将机械臂端的相机移动至预设初始位姿进行拍摄,再提取所述初始图像的图像特征得到初始矩特征向量,以及基于初始图像中目标区域轮廓的深度信息计算出初始矩特征向量的雅可比矩阵,最后基于初始矩特征向量和初始矩特征向量的雅可比矩阵计算出机械臂的目标关节角速度向量;
每个矩特征向量中图像特征的数量与机械臂关节角速度向量中角速度元素的数量相等;
S3:利用所述期望矩特征向量、初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练;
所述深度离线训练过程为:将初始矩特征向量和所述期望矩特征向量的特征误差作为所述神经网络控制器的输入参数,输出得到机械臂关节角速度向量,并计算网络输出得到的机械臂关节角速度向量与S2计算的机械臂的目标关节角速度向量之间的角度误差值向量,以所述角度误差值向量小于预设第一精度为目标训练所述神经网络控制器直至计算出的所述角度误差值小于预设第一精度;
S4:基于训练后的B样条基的神经网络控制器计算出当前位姿下机械臂关节角速度向量;
其中,将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量;
所述当前矩特征向量是提取当前图像的图像特征生成的,所述当前图像是在当前位姿下的待跟踪的异形曲面的图像;
S5:依据S4中当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。
本发明中S1-S3的目的是离线训练出B样条基的神经网络控制器,S4和S5是基于训练后的B样条基的神经网络控制器进行在线跟踪。具体的本发明通过期望位姿以及初始位姿的数据对B样条基的神经网络控制器进行深度离线训练,随后在线跟踪时,利用离线训练的神经网络控制器计算出当前位姿下机械臂关节角速度向量,再控制机械臂相应地运动进而带动相机相应运动趋近或者位于理想位姿,实现实时在线跟踪目的。
其中,位姿是指相机与待跟踪的异形曲面的相对位置,所选定的预设初始位姿只需保证待跟踪的异形曲面在相机视野范围即可。
进一步优选,S5中的相机移动至新位姿后还包括如下步骤:
S6:获取在新位姿下的当前矩特征向量,再判断新位姿下的当前矩特征向量与所述期望特征的特征误差是否小于预设第二精度,若小于,将当前新位姿视为理想位姿;否则,执行S7;
S7:在线训练所述神经网络控制器,再执行S4、S5、S6直至新位姿下的当前矩特征向量与所述期望特征的特征误差小于预设第二精度;
其中,依据S6中新位姿下的当前矩特征向量与所述期望特征的特征误差、当前位姿时刻与前一位姿时刻的机械臂关节角速度向量的误差以及前一位姿时刻的矩特征向量与所述期望矩特征向量的特征误差在线训练神经网络控制器。
本发明利用离线训练后神经网络控制器进行在线跟踪时,还利用新位姿下的当前矩特征向量与所述期望特征的特征误差对跟踪结果进一步判断,若大于或等于预设第二精度,则进一步在线训练神经网络控制器,再利用训练后的神经网络控制器进行跟踪。本方法可以提高跟踪结果的可靠性,使得每次的在线跟踪最终得到的位姿越来越趋近理想位姿。本发明中神经网络控制器是利用矩特征向量进行训练,直接映射跟踪过程机械臂关节角速度。其中,视最终得到新位姿下的当前矩特征向量与所述期望特征的特征误差小于预设第二精度时,为完成一次完整的异形曲面跟踪。
应当理解,当完成一次完整的异形曲面跟踪后,若待跟踪的异形曲面或相机的相对位置变化了,需要重新跟踪时,则选用前一时刻最新训练后的神经网络控制器计算机械臂关节角速度向量。
进一步优选,每个矩特征向量包括对应图像的6个图像特征,所述6个图像特征分别为对应图像中目标区域的中心点横坐标xg、中心点纵坐标yg、目标区域的面积a、以及水平轴与相机成像平面X轴的夹角α,由不变矩复合构成的两个具有TRS不变性的特征px、py。
进一步优选,所述6个图像特征的计算公式如下所示:
式中,为矩特征向量向量,mij为第i+j阶几何矩,μij为第i+j阶中心矩,R为图像中目标区域,x、y分别代表目标区域R中任意一点的像素点的横、纵坐标。
基于上述表述可知,本发明的期望矩特征向量以及初始矩特征向量中的图像特征的值均采用上述计算公式计算得到。
进一步优选,所述初始矩特征向量的雅可比矩阵中每一行的矩阵行元素对应所述初始矩特征向量中的一个图像特征;
S2中计算所述矩特征向量的雅可比矩阵的执行过程为:依次计算初始矩特征向量中每个图像特征对应的雅可比矩阵中矩阵行元素;
式中,为初始矩特征向量,xgi、ygi、ai、pxi、pyi、αi为所述初始矩特征向量的6个图像特征,Li为初始矩特征向量的雅可比矩阵;
其中,初始矩特征向量的6个图像特征xgi、ygi、ai、pxi、pyi、αi在初始矩特征向量的雅可比矩阵Li对应的元素分别表示为xg(ψξ)、yg(ψξ)、aψξ、Px(ψξ)、Py(ψξ)、α(ψξ);
xg(ψξ)、yg(ψξ)、aψξ、Px(ψξ)、Py(ψξ)、α(ψξ)分别表示初始矩特征向量的6个图像特征xgi、ygi、ai、pxi、pyi、αi在初始矩特征向量的雅可比矩阵Li中ξ轴方向的ψ速度对应的元素,ξ∈{x,y,z},ψ∈{v,ω};
式中,为几何矩mij的雅可比矩阵,为中心矩μij的雅可比矩阵,mij为第i+j阶几何矩,μij为第i+j阶中心矩;
几何矩mij的雅可比矩阵的元素表示为mijψξ,mijψξ表示在雅可比矩阵中ξ轴方向的ψ速度对应的元素,中心矩μij的雅可比矩阵的元素为μijψξ,μijψξ表示在雅可比矩阵中ξ轴方向的ψ速度对应元素,;
a:初始矩特征向量的中心点横坐标xgi对应的雅可比矩阵中各个元素的计算公式如下:
b:初始矩特征向量中心点纵坐标ygi对应的雅可比矩阵的计算公式如下:
c:初始矩特征向量中目标区域的面积ai对应的雅可比矩阵的计算公式如下:
aψξ=m00ψξ
其中元素mijψξ的计算公式如下:
mijωx=-(i+j+3)mi,j+1-imi-1,j,mijωx=imi-1,j+1-jmi+1,j-1
式中,C表示初始图像中目标区域轮廓,Z表示目标区域轮廓C中轮廓点集中点的深度信息;
d:初始矩特征向量中特征pxi对应的雅可比矩阵的计算公式如下:
e:初始矩特征向量中特征pyi对应的雅可比矩阵的计算公式如下:
f:图像特征αi对应的雅可比矩阵的计算公式如下:
式中,元素μijψξ的计算公式如下:
μijωx=(i+j+3)μi,j+1+ixgμi-1,j+1+(i+2j+3)ygμi,j-4in11μi-1,j-4jn02μi,j-1
μijωy=-(i+j+3)μi+1,j-(2i+j+3)xgμi,j-jygμi+1,j-1+4in20μi-1,j-4jn11μi,j-1
μijωx=iμi-1,j+1-jμi+1,j-1
式中,nij=μij/a,Zg为目标区域中心点的深度。
目标区域轮廓C中轮廓点集中各点的深度信息是可以通过深度相机直接获取。本发明直接利用图形中目标区域轮廓的深度信息构成雅可比矩阵,相较于传统的图像矩雅可比矩阵计算,本发明不需要建立曲面的深度模型,可以地简化计算过程,提高算法的实时性。本发明所使用的雅可比矩阵的推导计算过程如下:
(1)几何矩特征向量对应的雅可比矩阵如下:
式中,令V=(v,ω),v、ω表示相机绕相机坐标系xyz三轴的线速度集合和角速度结合,即v={vx,vy,vz},ω={ωx,ωy,ωz},故:
式中,C(t)为目标区域轮廓,T为矩阵转置符号,n为像素点(x,y)处轮廓的单位法向量、dl是轮廓的微分量,再通过格林理论得到:
其中,
令则有:
mijωx=∫∫R(ixiyj+1+jxiyj-1+jxiyj+1+3xiyj+1)dxdy=(i+j+3)mi,j+1+jmi,j-1
mijωx=∫∫R(-ixi-1yj-ixi+1yj-jxi+1yj-3xi+1yj)dxdy=-(i+j+3)mi,j+1-imi-1,j
mijωx=∫∫R(ixi-1yj+1-jxi+1yj-1)dxdy=imi-1,j+1-jmi+1,j-1
2)中心矩特征向量相对应的雅可比矩阵如下所示:
同样地,根据格林理论可得:
令可得:
μijωx=∫∫R[i(x-xg)i-1(y-yg)j(xy-xgyg)+j(x-xg)i(y-yg)j-1(y2-yg 2)
+3y(x-xg)i(y-yg)j]dxdy
=(i+j+3)μi,j+1+ixgμi-1,j+1+(i+2j+3)ygμi,j-4in11μi-1,j-4jn02μi,j-1
μijωy=∫∫R[-i(x-xg)i-1(y-yg)j(x2-xg 2)-j(x-xg)i(y-yg)j-1(xy-xgyg)
+3x(x-xg)i(y-yg)j]dxdy
=-(i+j+3)μi+1,j-(2i+j+3)xgμi,j-jygμi+1,j-1+4in20μi-1,j-4jn11μi,j-1
进一步优选,S2中基于初始矩特征向量和初始矩特征向量的雅可比矩阵计算机械臂的目标关节角速度向量的过程如下:
首先,计算初始矩特征向量的雅可比矩阵的广义逆
然后,基于所述广义逆初始矩特征向量以及期望矩特征向量利用比例控制器计算出初始位姿下相机的速度向量νc;
式中,v、ω分别代表相机绕相机坐标系xyz三轴的线速度集合和角速度集合,λ是整正增益;
最后,根据初始位姿下相机的速度νc并采用下述公式计算出机械臂的目标关节角速度向量
其中,为机械臂的目标关节角速度向量,J为机器臂的雅可比矩阵,vE为机器臂末端速率向量,ERc为手眼标定求得的相机与机械臂末端之间的旋转矩阵,o3×3为三行三列的零矩阵。
整正增益λ是根据经验整定该参数(经验值),其为经验值。机器臂的雅可比矩阵J通过已有的计算模块计算得出。由于初始位姿位于期望位姿附近,因此即使使用简单的传统控制器也具有良好的控制效果,因此本发明基于初始位姿和期望位姿对应的矩特征向量采用传统比例控制器求得当前位姿下相机应具有的速度νc=(v,ω),再进一步计算出机械臂的关节角速度向量。其中,速度向量νc以及机器臂末端速率向量vE均为六个元素构成的六行一列向量。
进一步优选,离线或在线训练所述B样条基的神经网络控制器的过程为调节神经网络控制器中第三层网络与第四层网络之间的权值以及B样条基函数的控制点。
本发明的B样条基的神经网络控制器包含四层网络。
(1)离线训练
其中,离线训练时的目标函数Joff为:
其中,分别为网络目标输出与网络实际输出中第m个角速度。第三层网络与第四层网络之间的权值与控制点的迭代公式如下:
式中,为第三层网络的第i×j×k×l×f×g个输出与第四层网络的第m个输入之间的权值,η1、η2为学习率,其取值范围为(0,1),t+1表示t+1时刻,t表示t时刻,其中本发明离线训练是多次迭代实现的过程,每次迭代过程网络实际输出将随权值、控制点的变化而变化,而输入神经网络控制器的原始参数不变,即初始矩特征向量和所述期望矩特征向量的特征误差以及网络目标输出
代表第二层网络的第1个子网的第i输出、代表第二层网络的第2个子网的第j输出、代表第二层网络的第3个子网的第k输出、代表第二层网络的第4个子网的第l输出、代表第二层网络的第5个子网的第f个输出、代表第二层网络的第6个子网的第g个输出;代表第二层网络的第i×j×k×l×f×g个输出,代表第四层网络的第m个输出。对应于e1、e2、e3、e4、e5、e6一时刻的隶属度期望值,e1、e2、e3、e4、e5均是误差向量中的分量。
因此,根据期望数据值e∈R6×1、 以及式m=round(xk)即可调整B样条基隶属度函数的控制点,进而调整隶属度函数的形状。
(2)在线训练
同理,在线训练时的目标函数Jon如下:
其中,分别为期望特征与当前矩特征向量中第n个元素。第三层网络与第四层网络之间的权值与控制点的迭代公式如下:
其中,
在线训练的过程也是多次迭代的过程,不过每一次迭代是在不同位姿下进行的,在线训练的过程也是利用到当前位姿以及前一时刻位姿的迭代数据进行。
另一方面,本发明还提供一种采用上述方法的跟踪系统,其特征在于:包括机械臂、相机、工控机,所述机械臂上设有运动控制器;
其中,所述相机设置于所述机械臂的端部,所述相机以及所述运动控制器均与工控机通讯连接;
所述工控机,用于对相机采集的图像进行图像信息处理以及训练所述B样条基的神经网络控制器和计算机械臂关节角速度向量
所述运动控制器,用于根据工控机计算出的机械臂关节角速度向量控制机械臂相应运动。
进一步优选,所述机械臂为六轴机械臂。
有益效果
与现有技术相比,本发明的优点有:
(1)本发明是通过提取图像的图像特征生成矩特征向量,再利用矩特征向量、以及矩特征向量的雅可比矩阵计算出机械臂的目标关节角速度向量再利用矩特征向量以及机械臂的目标关节角速度向量离线训练神经网络控制器,以便实时跟踪时,基于当前位姿的矩特征向量再利用训练好的神经网络控制器得到机械臂的关节角速度矩阵进而实现对机械臂端的相机进行控制,使其趋近于理想位姿,实现曲面的跟踪定位。其中,计算矩特征向量伺服的图像雅可比矩阵是直接利用图形中目标区域轮廓的深度信息进行线积分或直接使用图像矩,其无需深度建模的,而传统的基于图像矩的视觉伺服在计算雅克比矩阵时,要利用深度模型函数的参数,所以要先进行深度建模,因此,本发明进而简化了计算过程,提高了算法的实时性;同时相较于传统点特征的视觉伺服方法容易出现交互矩阵奇异和冗余特征导致的局部极小值问题,而矩特征向量视觉伺服能够通过特征选取使交互矩阵(图像雅克比矩阵)具有更好的解耦特性,所以能够克服稳定性差的弊端;其次,点特征视觉伺服方法需要保证相机观察到的特征点是三维空间中同一个特征点,所以在每次求取特征误差时需要进行特征点匹配,而矩特征向量只需要直接计算目标区域的矩特征向量即可,所以利用矩特征向量伺服进行曲面跟踪,能克服传统的视觉伺服稳定性差、特征匹配精度要求高的缺陷。同时解决了全局深度信息视觉伺服计算量大以及对手眼标定精度鲁棒性差的弊端;
(2)本发明利用神经网络在线调整参数对该系统进行有效控制,且所使用的神经网络控制器既不需要对象的精确模型,又能够以任意的精度有效逼近非线性系统,能有效控制图像矩视觉伺服系统;同时神经网络具有自学习能力,能根据对象变化实时调整参数以得到最优的控制效果,克服了PID控制等传统控制方法控制性能差的弊端,如对象强耦合、非线性、时变严重。
(3)本发明将实际求得的图像雅可比矩阵用于模糊神经网络控制器离线训练过程,赋予了神经网络参数调整过程物理意义,为神经网络参数的初值确定的过程提供了定量的计算方法。
(4)本发明的神经网络控制器离线训练后,在线跟踪的同时在线训练神经网络控制器,使得每次跟踪结果更加可靠。
附图说明
图1是本发明实施例提供的一种基于矩特征学习神经网络的异形曲面跟踪方法的技术思路示意图;
图2是本发明实施例提供的一种涡轮机叶片的结构示意图;
图3是本发明实施例提供的一种基于矩特征向量学习神经网络的异形曲面跟踪方法的流程图;
图4是本发明实施例提供的期望图像中目标区域的示意图;
图5是本发明实施例提供的初始图像中目标区域轮廓的示意图;
图6是本发明实施例提供的B样条基神经网络控制器的结构示意图;
图7是本发明实施例提供的B样条基神经网络控制器在离线训练过程的流程示意图;
图8是本发明实施例提供的一种基于矩特征向量学习神经网络的异形曲面跟踪系统的示意图;
图9是本发明实施例提供的在线训练神经网络控制器的示意图。
具体实施方式
下面将结合实例对本发明做进一步的说明。
例如,在码垛过程中,对同一型号的批量叶片中某一叶片进行搬运时,首先需要使机械臂接近并抓取工件。传统的方法采用固定的抓取路径,然而由于生产线的机械抖动等外部干扰,导致工件位置发生变化,从而使机械臂抓取失败。因此需要一种能够更灵活的定位跟踪的方法。
在实际生产过程中存在许多类似的,需要对同一型号叶片进行重复定位的过程,例如采用结构光对同一型号的涡轮叶片进行批量测量建模等。
采用本发明实现工件的定位跟踪时,只需要对同型号的批量叶片中的其中一个叶片进行一次离线训练,在其后的叶片的定位跟踪过程中只需要提取目标叶片的特征即可利用本次训练的网络模型和在线训练映射出机械臂的关节角速度,实现高精度的重复跟踪定位。对工件定位跟踪的方法的实施过程如下所述:
如图1所示为本发明实施例提供的一种基于矩特征学习神经网络的异形曲面跟踪方法的技术思路示意图,从图可知,本发明所述跟踪方法先离线训练出B样条基的神经网络控制器,再基于训练后的B样条基的神经网络控制器计算出机械臂关节角速度向量再控制机械臂相应地运动进而带动机械臂端的相机相应转动实现在线跟踪,且在线跟踪过程中还对B样条基的神经网络控制器进行在线训练,使其预测结果更加可靠,使得相机的当前位姿更贴合理想位姿,实现准确跟踪。其他可行的实施例中,在线跟踪过程可以仅仅是利用离线训练好的B样条基的神经网络控制器进行相关计算,不会在线调节B样条基的神经网络控制器,其效果相较于本实施例,具有跟踪准确性较差的弱点。
如图2所示,本实施例中以涡轮机叶片作为待跟踪的异形曲面。如图1和图3所示,所述跟踪方法包括如下步骤S1-S7:
S1:获取期望矩特征向量其中,
其中,每个位姿下图像的所述图像特征构成一个矩特征向量,即一个位姿下的图像可以生成一个矩特征向量,一个矩特征向量包括6个图像特征,该6个图像特征分别为对应图像中目标区域的中心点横坐标xg、中心点纵坐标yg、目标区域的面积a、以及水平轴与相机成像平面X轴的夹角α,由不变矩复合构成的两个具有TRS不变性的矩特征向量px、py;
其中,该6个图像特征的计算公式如下所示:
式中,m10、m00、m01均为几何矩mij,μ20、μ02、μ11、μ03、μ21、μ30、μ12均为中心矩μij,所述几何矩mij和所述中心矩μij的计算公式如下:
式中,x、y分别代表像素点的横、纵坐标,R为图像中目标区域,本实施例中目标区域为图像中叶片区域。
基于上述矩特征向量原理,本步骤中,用户预先用相机拍摄取涡轮机叶片获取到理想位姿下的理想图像,再对理想图像进而二值化处理,即如图4所示,将理想图像中叶片区域的灰度设置为1,非叶片区域的灰度设置为0,再按照上述6个图像特征的计算公式计算出矩特征向量中每个图像特征的值。
S2:获取初始矩特征向量初始矩特征向量的雅可比矩阵Li、机械臂的目标关节角速度向量
其中,S2的执行过程具体如下:
步骤(2a):获取涡轮机叶片在初始位姿下的初始图像,并计算出初始矩特征向量其中,
对初始图像进行二值化处理并获取构成目标轮廓点集的坐标,其目标轮廓如图5所示,最后再按照上述6个图像特征的计算公式计算出初始矩特征向量中6个图像特征的值。其中,初始位姿为满足涡轮机叶片在相机拍摄视野范围内时的相机姿态。
步骤(2b):基于初始图像中目标区域轮廓的深度信息计算出初始矩特征向量的雅可比矩阵Li。
其中,目标区域轮廓的深度信息为步骤(2a)中目标轮廓点集中点的深度信息。
其中,初始矩特征向量的雅可比矩阵Li如下所示:
a:图像特征xgi对应的雅可比矩阵中各个元素的计算过程如下:首先计算一阶几何矩m10的雅可比矩阵以及零阶几何矩m00的雅可比矩阵然后再根据雅可比矩阵和计算出图像特征xgi对应的雅可比矩阵其中,推到过程如下:
因此可得:
同理可求得xgvy、xgvz、xgωx、xgωy、xgwz,因此,存在以下公式:
b:图像特征ygi对应的雅可比矩阵中各个元素的计算过程如下:首先计算一阶几何矩m01的雅可比矩阵以及零阶几何矩m00的雅可比矩阵然后再根据雅可比矩阵和计算出图像特征ygi对应的雅可比矩阵其中,推理过程如下:
因此可得:
同理可求得ygvy、ygvz、ygωx、ygωy、ygwz,因此,存在以下公式:
c:图像特征ai对应的雅可比矩阵的计算过程如下:首先计算零阶几何矩m00的雅可比矩阵然后再根据雅可比矩阵计算出图像特征ai对应的雅可比矩阵其中,由于ai=m00,所以存在以下等式:
avx=m00vx、avy=m00vy、avz=m00vz、aωx=m00ωx、aωy=m00ωy、awz=m00ωz
d:图像特征pxi对应的雅可比矩阵的计算过程如下:首先计算二阶中心矩μ02的雅可比矩阵二阶中心矩μ20的雅可比矩阵以及二阶中心矩μ11的雅可比矩阵然后再根据雅可比矩阵和计算出图像特征pxi对应的雅可比矩阵其中,推理过程如下:
由于,
故:
因此可得如下等式:
同理可求得Pxvy、Pxvz、Pxωx、Pxωy、Pxwz。
e:图像特征pyi对应的雅可比矩阵的计算过程如下:首先计算如下雅可比矩阵以及然后再根据雅可比矩阵以及计算出图像特征pyi对应的雅可比矩阵
零阶几何矩m00的雅可比矩阵
二阶中心矩μ02的雅可比矩阵
二阶中心矩μ20的雅可比矩阵
二阶中心矩μ11的雅可比矩阵
三阶中心矩μ21的雅可比矩阵
三阶中心矩μ12的雅可比矩阵
三阶中心矩μ03的雅可比矩阵
三阶中心矩μ30的雅可比矩阵
推理过程如下:
由于,
故,
因此可得如下等式:
同理可求得Pyvy、Pyvz、Pyωx、Pyωy、Pywz。
f:图像特征αi对应的雅可比矩阵的计算过程如下:首先计算二阶中心矩μ02的雅可比矩阵二阶中心矩μ20的雅可比矩阵二阶中心矩μ11的雅可比矩阵然后再根据雅可比矩阵以及计算出图像特征αi对应的雅可比矩阵其中,推理过程如下:
由于,
故,
因此可得:
同理可求得αvy、αvz、αωx、αωy、αwz。
步骤(2c):基于初始矩特征向量和雅可比矩阵Li计算出机械臂的目标关节角速度向量
由于初始位姿是在期望位姿附近,因此即使用简单的P控制器也具有良好的控制效果,故使用传统比例控制器求得当前位姿下相机应具有的速度νc=(v,ω),其中,为初始矩特征向量的雅可比矩阵Li的广义逆;最后再按照下述公式计算出机械臂的目标关节角速度向量
式中,J为机器臂的雅可比矩阵,vE为机器臂末端速率向量,ERc为手眼标定求得的相机与机械臂末端之间的旋转矩阵,o3×3为三行三列零矩阵。
由于νc=(v,ω),且v、ω分别代表相机绕相机坐标系xyz三轴的线速度集合和角速度集合,因此所求得的νc为一个六个元素的向量,进而求得的机械臂的目标关节角速度向量中也包括6个角速度,每个角速度对应机械臂的一个关节。
S3:利用期望矩特征向量初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练。
其中,训练过程为调节神经网络控制器中第三层网络与第四层网络之间的权值以及B样条基函数的控制点。具体的,如图6所示,本实施例中所选用的B样条基的神经网络控制器的设计过程如下所示:
第一层将输入引入网络。每个输入的论域为[-1,1]:
其中,en代表输入参数e中的第n个输入元素,即第n个图像特征的差值,代表第一层网络的第n个输出;代表第一层网络的第n个输入,kn代表网络第一层与第二层之间的第n个权值。本实施例中,输入参数e为两个矩特征向量的特征误差,即离线训练时,输入参数e为初始矩特征向量和所述期望矩特征向量的特征误差。
第二层是对输入进行模糊化,对应的输入有5个模糊语言词集(NB,NS,Z,PS,PB)。且在输入论域上定义11个节点。其中,第二层网络的输入输出的表达式为:
式中,分别代表第n个输入对应的第i、j、k、l、f、g个语言词集。代表第二层网络的第1个子网的第i输出,代表第二层网络的第2个子网的第j输出,代表第二层网络的第3个子网的第k输出,代表第二层网络的第4个子网的第l输出,代表第二层网络的第5个子网的第f个输出,代表第二层网络的第6个子网的第g个输出;代表第二层网络的第i×j×k×l×f×g个输出,代表第四层网络的第m个输出。
第三层代表”and”操作,用乘法代替取消运算,则有:
式中,为第三层网络的第i×j×k×l×f×g个输出。
第四层代表去模糊化过程,采用加权平均判决法。
式中,表示第四层网络的第m个输入,表示第三层网络的第i×j×k×l×f×g个输出与第四层网络的第m个输入之间的权值,其表示各控制规则的输出对应的语音词集的中心值,表示第四层网络的第m个输出。
如图7所示,基于上述结构的B样条基的神经网络控制器,将前述计算的机械臂的目标关节角速度向量作为网络目标输出即同时将初始矩特征向量和所述期望矩特征向量的特征误差作为网络输入e,对B样条基的神经网络控制器的网络进行离线训练,其训练过程的目标函数Joff为:
其中,分别为网络目标输出与网络实际输出中第m个角速度。第三层网络与第四层网络之间的权值与控制点的迭代公式如下:
式中,η1、η2为学习率,t+1表示t+1时刻,t表示t时刻。其中, 对应于e1、e2、e3、e4、e5、e6下一时刻的隶属度期望值。故根据期望数据值e∈R6×1、 以及式m=round(xk)即可调整B样条基隶属度函数的控制点,进而调整隶属度函数的形状。
其中,通过重复迭代过程直至网络目标输出与网络实际输出误差小于给定的第一精度ε,应当理解,角速度为向量,对应的精度也应当为向量,且其为经验值。t+1时刻和t时刻表示为两次相邻的迭代过程,其中不论是t+1时刻和t时刻,其网络输入en均为初始矩特征向量和所述期望矩特征向量的特征误差,只是在网络权值以及控制点调节后,网络的实际输出改变了。
S4:基于训练后的B样条基的神经网络控制器计算出当前位姿下机械臂关节角速度向量
其中,首先获取在当前位姿下叶片的图像,然后再根据上述图像特征的计算公式计算出当前位姿的当前矩特征向量然后再将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量
S5:依据S4中当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。
其中,根据当前位姿下机械臂关节角速度向量中每个角速度元素控制机械臂中对应关节转动,由于相机是固定在机械臂端,故相机将随之移动。
S6:获取在新位姿下的当前矩特征向量再判断新位姿下的当前矩特征向量与期望特征的特征误差是否小于预设第二精度,若小于,将当前新位姿视为理想位姿;否则,执行S7。
其中,相机随机械臂移动后将处于新的位姿,为了验证该位姿是否与期望位姿之间的差距在可接受范围内,则选择新位姿下的当前矩特征向量与期望特征的特征误差作为衡量参数,判断其是否小于预设第二精度,若小于,则在可接受范围内,视当前新位姿为理想位姿;否则,不可以接受,则还需要进一步移动相机,且表示当前的控制器精度还不够,还需要进一步在线训练,故执行S7。
S7:在线训练神经网络控制器,再执行S4、S5、S6直至新位姿下的当前矩特征向量与期望特征的特征误差小于预设第二精度。
在线训练过程也是调节神经网络控制器中第三层网络与第四层网络之间的权值以及B样条基函数的控制点。在线训练时的目标函数Jon如下:
其中,分别为期望特征与当前矩特征向量中第n个元素。第三层网络与第四层网络之间的权值与控制点的迭代公式如下:
其中,
从上述表达可知,t+1时刻对应的权值与控制点涉及相邻的前两次次迭代过程的数据,t-1时刻以及t时刻。如图9所示,例如,在t时刻,机械臂的关节角速度矩阵为经过T时间后达到新位姿p(t)并获取新位姿p(t)的矩特征向量若此时的特征误差大于或等于预设第二精度,则进行在线训练,即计算t+1时刻的网络控制器中对应权值和控制点的值:首先,引入目标函数,此时满足然后调节第三层网络和第四层网络之间的网络权值,即计算t+1时刻的网络权值最后根据期望数值 更新控制点,其中,的迭代公式与相同。
需要说明的是,在一个在线跟踪过程中,若t时刻为第一次利用训练后的神经网络控制器计算出机械臂的关节角速度矩阵为时,在线训练过程中,对应t-1时刻的和为0。
如图8所示,本发明还提供一种采用上述跟踪方法的跟踪系统,包括机械臂、相机、工控机,所述机械臂上设有运动控制器;
其中,所述相机设置于所述机械臂的端部,所述相机以及所述运动控制器均与工控机通讯连接;所述工控机,用于对相机采集的图像进行图像信息处理以及训练所述B样条基的神经网络控制器和计算机械臂关节角速度向量;所述运动控制器,用于根据工控机计算出的机械臂关节角速度向量控制机械臂相应运动。本实例中,机械臂为六轴机械臂,即存在6个关节,如图3所示,关节角速度矩阵中依次对应。
其中,工控机的计算过程请参照跟踪方法中对应的表述,再此不再赘述。
需要强调的是,本发明所述的实例是说明性的,而不是限定性的,因此本发明不限于具体实施方式中所述的实例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,不脱离本发明宗旨和范围的,不论是修改还是替换,同样属于本发明的保护范围。
Claims (9)
1.一种基于矩特征学习神经网络的异形曲面跟踪方法,其特征在于:包括如下步骤:
S1:获取待跟踪的异形曲面在期望位姿下的期望图像,并提取所述期望图像的所有图像特征得到期望矩特征向量;
S2:获取待跟踪的异形曲面在预设初始位姿下的初始图像,并计算出初始矩特征向量、初始矩特征向量的雅可比矩阵、机械臂的目标关节角速度向量;
其中,将机械臂端的相机移动至预设初始位姿进行拍摄,再提取所述初始图像的图像特征得到初始矩特征向量,以及基于初始图像中目标区域轮廓的深度信息计算出初始矩特征向量的雅可比矩阵,最后基于初始矩特征向量和初始矩特征向量的雅可比矩阵计算出机械臂的目标关节角速度向量;
每个矩特征向量中图像特征的数量与机械臂关节角速度向量中角速度元素的数量相等;
S3:利用所述期望矩特征向量、初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练;
所述深度离线训练过程为:将初始矩特征向量和所述期望矩特征向量的特征误差作为所述神经网络控制器的输入参数,输出得到机械臂关节角速度向量,并计算网络输出得到的机械臂关节角速度向量与S2计算的机械臂的目标关节角速度向量之间的角度误差值向量,以所述角度误差值向量小于预设第一精度为目标训练所述神经网络控制器直至计算出的所述角度误差值小于预设第一精度;
S4:基于训练后的B样条基的神经网络控制器计算出当前位姿下机械臂关节角速度向量;
其中,将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量;
所述当前矩特征向量是提取当前图像的图像特征生成的,所述当前图像是在当前位姿下的待跟踪的异形曲面的图像;
S5:依据S4中当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。
2.根据权利要求1所述的方法,其特征在于:S5中的相机移动至新位姿后还包括如下步骤:
S6:获取在新位姿下的当前矩特征向量,再判断新位姿下的当前矩特征向量与所述期望特征的特征误差是否小于预设第二精度,若小于,将当前新位姿视为理想位姿;否则,执行S7;
S7:在线训练所述神经网络控制器,再执行S4、S5、S6直至新位姿下的当前矩特征向量与所述期望特征的特征误差小于预设第二精度;
其中,依据S6中新位姿下的当前矩特征向量与所述期望特征的特征误差、当前位姿时刻与前一位姿时刻的机械臂关节角速度向量的误差以及前一位姿时刻的矩特征向量与所述期望矩特征向量的特征误差在线训练神经网络控制器。
3.根据权利要求2所述的方法,其特征在于:每个矩特征向量包括对应图像的6个图像特征,所述6个图像特征分别为对应图像中目标区域的中心点横坐标xg、中心点纵坐标yg、目标区域的面积a、以及水平轴与相机成像平面X轴的夹角α,由不变矩复合构成的两个具有TRS不变性的特征px、py。
4.根据权利要求3所述的方法,其特征在于:所述6个图像特征的计算公式如下所示:
式中,为矩特征向量向量,mij为第i+j阶几何矩,μij为第i+j阶中心矩,R为图像中目标区域,x、y分别代表目标区域R中任意一点的像素点的横、纵坐标。
5.根据权利要求3所述的方法,其特征在于:所述初始矩特征向量的雅可比矩阵中每一行的矩阵行元素对应所述初始矩特征向量中的一个图像特征;
S2中计算所述矩特征向量的雅可比矩阵的执行过程为:依次计算初始矩特征向量中每个图像特征对应的雅可比矩阵中矩阵行元素;
式中,为初始矩特征向量,xgi、ygi、ai、pxi、pyi、αi为所述初始矩特征向量的6个图像特征,Li为初始矩特征向量的雅可比矩阵;
其中,初始矩特征向量的6个图像特征xgi、ygi、ai、pxi、pyi、αi在初始矩特征向量的雅可比矩阵Li对应的元素分别表示为xg(ψξ)、yg(ψξ)、aψξ、Px(ψξ)、Py(ψξ)、α(ψξ);
xg(ψξ)、yg(ψξ)、aψξ、Px(ψξ)、Py(ψξ)、α(ψξ)分别表示初始矩特征向量的6个图像特征xgi、ygi、ai、pxi、pyi、αi在初始矩特征向量的雅可比矩阵Li中相机坐标系ξ轴方向的ψ速度对应的元素,ξ∈{x,y,z},ψ∈{v,ω};
式中,为几何矩mij的雅可比矩阵,为中心矩μij的雅可比矩阵,mij为第i+j阶几何矩,μij为第i+j阶中心矩;
几何矩mij的雅可比矩阵的元素表示为mijψξ,mijψξ表示在雅可比矩阵中相机坐标系ξ轴方向的ψ速度对应的元素,中心矩μij的雅可比矩阵的元素为μijψξ,μijψξ表示在雅可比矩阵中相机坐标系ξ轴方向的ψ速度对应元素;
a:初始矩特征向量的中心点横坐标xgi对应的雅可比矩阵中各个元素的计算公式如下:
b:初始矩特征向量中心点纵坐标ygi对应的雅可比矩阵的计算公式如下:
c:初始矩特征向量中目标区域的面积ai对应的雅可比矩阵的计算公式如下:
aψξ=m00ψξ
其中元素mijψξ的计算公式如下:
mijωx=-(i+j+3)mi,j+1-imi-1,j,mijωx=imi-1,j+1-jmi+1,j-1
式中,C表示初始图像中目标区域轮廓,Z表示目标区域轮廓C中轮廓点集中点的深度信息,x,y为初始图像中目标区域轮廓中像素点的横、纵坐标;
d:初始矩特征向量中特征pxi对应的雅可比矩阵的计算公式如下:
e:初始矩特征向量中特征pyi对应的雅可比矩阵的计算公式如下:
f:图像特征αi对应的雅可比矩阵的计算公式如下:
式中,元素μijψξ的计算公式如下:
μijωx=(i+j+3)μi,j+1+ixgμi-1,j+1+(i+2j+3)ygμi,j-4in11μi-1,j-4jn02μi,j-1
μijωy=-(i+j+3)μi+1,j-(2i+j+3)xgμi,j-jygμi+1,j-1+4in20μi-1,j-4jn11μi,j-1
μijωx=iμi-1,j+1-jμi+1,j-1
式中,nij=μij/a,Zg为目标区域中心点的深度。
6.根据权利要求3所述的方法,其特征在于:S2中基于初始矩特征向量和初始矩特征向量的雅可比矩阵计算机械臂的目标关节角速度向量的过程如下:
首先,计算初始矩特征向量的雅可比矩阵的广义逆
然后,基于所述广义逆初始矩特征向量以及期望矩特征向量利用比例控制器计算出初始位姿下相机的速度向量νc;
νc=(v,ω)
式中,v、ω分别代表相机绕相机坐标系xyz三轴的线速度集合和角速度集合,λ是整正增益;
最后,根据初始位姿下相机的速度νc并采用下述公式计算出机械臂的目标关节角速度向量
其中,为机械臂的目标关节角速度向量,J为机器臂的雅可比矩阵,vE为机器臂末端速率向量,ERc为手眼标定求得的相机与机械臂末端之间的旋转矩阵,o3×3为三行三列的零矩阵。
7.根据权利要求3所述的方法,其特征在于:离线或在线训练所述B样条基的神经网络控制器的过程为调节神经网络控制器中第三层网络与第四层网络之间的权值以及B样条基函数的控制点。
8.一种采用权利要求1-7任一项所述方法的跟踪系统,其特征在于:包括机械臂、相机、工控机,所述机械臂上设有运动控制器;
其中,所述相机设置于所述机械臂的端部,所述相机以及所述运动控制器均与工控机通讯连接;
所述工控机,用于对相机采集的图像进行图像信息处理以及训练所述B样条基的神经网络控制器和计算机械臂关节角速度向量
所述运动控制器,用于根据工控机计算出的机械臂关节角速度向量控制机械臂相应运动。
9.根据权利要求8所述的跟踪系统,其特征在于:所述机械臂为六轴机械臂。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810454177.7A CN108717262B (zh) | 2018-05-14 | 2018-05-14 | 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810454177.7A CN108717262B (zh) | 2018-05-14 | 2018-05-14 | 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108717262A true CN108717262A (zh) | 2018-10-30 |
CN108717262B CN108717262B (zh) | 2020-10-02 |
Family
ID=63899898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810454177.7A Active CN108717262B (zh) | 2018-05-14 | 2018-05-14 | 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108717262B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626305A (zh) * | 2019-02-28 | 2020-09-04 | 阿里巴巴集团控股有限公司 | 目标检测方法、装置和设备 |
CN114373015A (zh) * | 2021-12-28 | 2022-04-19 | 易思维(杭州)科技有限公司 | 一种基于冗余信息进行321定位的方法 |
CN114894379A (zh) * | 2022-05-26 | 2022-08-12 | 湖南大学 | 一种机械手指尖式触觉传感器的标定装置及其标定方法 |
CN115648227A (zh) * | 2022-12-27 | 2023-01-31 | 珞石(北京)科技有限公司 | 一种机器人运动轨迹神经网络模糊控制优化方法 |
CN116079697A (zh) * | 2022-12-23 | 2023-05-09 | 北京纳通医用机器人科技有限公司 | 一种基于图像的单目视觉伺服方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003211381A (ja) * | 2002-01-16 | 2003-07-29 | Denso Wave Inc | ロボット制御装置 |
CN101169621A (zh) * | 2007-11-19 | 2008-04-30 | 北京理工大学 | 一种基于小波神经网络的视觉反馈控制方法 |
CN102059703A (zh) * | 2010-11-22 | 2011-05-18 | 北京理工大学 | 基于自适应粒子滤波的机器人视觉伺服控制方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
-
2018
- 2018-05-14 CN CN201810454177.7A patent/CN108717262B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003211381A (ja) * | 2002-01-16 | 2003-07-29 | Denso Wave Inc | ロボット制御装置 |
CN101169621A (zh) * | 2007-11-19 | 2008-04-30 | 北京理工大学 | 一种基于小波神经网络的视觉反馈控制方法 |
CN102059703A (zh) * | 2010-11-22 | 2011-05-18 | 北京理工大学 | 基于自适应粒子滤波的机器人视觉伺服控制方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
Non-Patent Citations (2)
Title |
---|
CHAUMETTE, F: "Image moments: A general and useful set of features for visual servoing", 《IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION》 * |
李娜: "移动机械手路径规划与控制研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626305A (zh) * | 2019-02-28 | 2020-09-04 | 阿里巴巴集团控股有限公司 | 目标检测方法、装置和设备 |
CN111626305B (zh) * | 2019-02-28 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 目标检测方法、装置和设备 |
CN114373015A (zh) * | 2021-12-28 | 2022-04-19 | 易思维(杭州)科技有限公司 | 一种基于冗余信息进行321定位的方法 |
CN114373015B (zh) * | 2021-12-28 | 2024-05-31 | 易思维(杭州)科技股份有限公司 | 一种基于冗余信息进行321定位的方法 |
CN114894379A (zh) * | 2022-05-26 | 2022-08-12 | 湖南大学 | 一种机械手指尖式触觉传感器的标定装置及其标定方法 |
CN114894379B (zh) * | 2022-05-26 | 2023-03-07 | 湖南大学 | 一种机械手指尖式触觉传感器的标定装置及其标定方法 |
CN116079697A (zh) * | 2022-12-23 | 2023-05-09 | 北京纳通医用机器人科技有限公司 | 一种基于图像的单目视觉伺服方法、装置、设备及介质 |
CN116079697B (zh) * | 2022-12-23 | 2024-05-28 | 北京纳通医用机器人科技有限公司 | 一种基于图像的单目视觉伺服方法、装置、设备及介质 |
CN115648227A (zh) * | 2022-12-27 | 2023-01-31 | 珞石(北京)科技有限公司 | 一种机器人运动轨迹神经网络模糊控制优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108717262B (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108717262A (zh) | 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统 | |
Liang et al. | Formation control of nonholonomic mobile robots without position and velocity measurements | |
CN111590581B (zh) | 机器人的定位补偿方法及装置 | |
CN109960880B (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
CN106423656B (zh) | 基于点云与图像匹配的自动喷涂系统及方法 | |
Li et al. | Adaptive trajectory tracking of nonholonomic mobile robots using vision-based position and velocity estimation | |
CN112132894A (zh) | 一种基于双目视觉引导的机械臂实时跟踪方法 | |
CN109176525A (zh) | 一种基于rbf的移动机械手自适应控制方法 | |
CN111260649B (zh) | 一种近距离机械臂感知与校准方法 | |
Cao et al. | Dynamic target tracking control of autonomous underwater vehicle based on trajectory prediction | |
CN113910218B (zh) | 一种基于运动学与深度神经网络融合的机器人标定方法和装置 | |
Lepora et al. | Pose-based tactile servoing: Controlled soft touch using deep learning | |
Zeng et al. | Adaptive Neural Network-based Visual Servoing with Integral Sliding Mode Control for Manipulator | |
CN108445768A (zh) | 空间机器人操作空间轨迹跟踪的增广自适应模糊控制方法 | |
CN114942593A (zh) | 一种基于干扰观测器补偿的机械臂自适应滑模控制方法 | |
Yu et al. | Position-based visual servo control of dual robotic arms with unknown kinematic models: A cerebellum-inspired approach | |
Xing et al. | A brain-inspired approach for collision-free movement planning in the small operational space | |
Chen et al. | Learning trajectories for visual-inertial system calibration via model-based heuristic deep reinforcement learning | |
Wei et al. | Sensorimotor coordination and sensor fusion by neural networks | |
Li et al. | Homography-based visual servoing of robot pose under an uncalibrated eye-to-hand camera | |
CN108459614A (zh) | 一种基于cw-rnn网络的uuv实时避碰规划方法 | |
Wu et al. | Uncalibrated image-based visual servoing based on joint space and image moment | |
Lepora et al. | Pose-based servo control with soft tactile sensing | |
Zhang et al. | Calibration-free and model-independent method for high-DOF image-based visual servoing | |
Cheng et al. | Real-time robot end-effector pose estimation with deep network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |