CN113910218B - 一种基于运动学与深度神经网络融合的机器人标定方法和装置 - Google Patents
一种基于运动学与深度神经网络融合的机器人标定方法和装置 Download PDFInfo
- Publication number
- CN113910218B CN113910218B CN202110516594.1A CN202110516594A CN113910218B CN 113910218 B CN113910218 B CN 113910218B CN 202110516594 A CN202110516594 A CN 202110516594A CN 113910218 B CN113910218 B CN 113910218B
- Authority
- CN
- China
- Prior art keywords
- pose
- robot
- sequence
- real
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 abstract description 8
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005299 abrasion Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于运动学与深度神经网络融合的机器人标定方法和装置,属于智能制造领域,所述方法包括:S1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;S2:采集在实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;S3:将实轴指令序列、理论位姿序列、实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;S4:将机器人的当前实轴指令及其对应的理论位姿序列输入大数据偏差模型得到预测位姿偏差,利用预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定。本发明能够精准预测机器人末端位姿,提高机器人标定精度。
Description
技术领域
本发明属于智能制造领域,更具体地,涉及一种基于运动学与深度神经网络融合的机器人标定方法和装置。
背景技术
工业机器人是现代制造业的重要自动化设备,它集成了机械、电子、控制、计算机、传感器、人工智能等多学科的先进技术。由制造公差、安装误差、磨损、传动误差和柔顺性等诸多因素共同作用,机器人控制器中使用的运动学模型无法准确描述实际机器人的运动学变换。因此,通过控制关节达到的实际位置与运动学模型的理论位置不一致,导致机器人的定位误差。工业机器人绝对定位精度相对较低,通常只有数控机床的1/30。空载状态机器人绝对定位误差90%源于关节运动学建模误差,没有运动学标定的机器人绝对定位精度仅为毫米级。如何提高定位精度是工业机器人的重要发展方向之一,这也成为离线编程方法在先进机器人制造系统中实际应用的关键技术之一。
现有技术中有很多提高机器人定位精度的标定方法。比如:专利《一种基于卡尔曼滤波的机器人运动学参数标定方法》通过微分运动将机器人末端实际位姿矩阵全微分得到机器人末端位姿误差与机器人运动学误差间的线性关系建立误差模型。专利《一种工业机器人运动学参数简易标定装置及其标定方法》公开一种工业机器人运动学参数简易标定装置及其标定方法,并使用最小二乘法求得工业机器人运动学参数的标定结果。专利《一种基于激光测距仪的机器人运动学参数标定方法》采集机器人每次运动对应的关节角度值及激光测距仪的读数值,依据共面条件确定运动学参数误差。专利《基于多点姿态采样的串联型机器人运动学参数标定方法》操作机器人工具中心多次以不同的姿态围绕固定点旋转,同时采集每次旋转对应的关节变量值,根据采集到的多组关节变量值及初始位置矢量来确定型机器人的运动学参数的最优误差补偿值,以采用最优误差补偿值对串联型机器人的运动学模型参数进行修正。
现有技术中的机器人标定方法往往标定过程复杂,机器人末端位姿预测精度不准,导致标定精度较低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于运动学与深度神经网络融合的机器人标定方法和装置,其目的在于通过建立与运动学精确映射的深度神经网络模型并进行训练,输入机器人各个轴的关节角度值,进而精准预测机器人末端位姿,提高机器人标定精度;由此解决机器人末端位姿预测精度不准导致的绝对定位精度较低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于运动学与深度神经网络融合的机器人标定方法,包括:
S1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;
S2:采集在所述实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;
S3:将所述实轴指令序列、所述理论位姿序列、所述实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
S4:将机器人的当前实轴指令及其对应的理论位姿序列输入所述大数据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定。
在其中一个实施例中,所述S1之前,所述方法包括:
基于机器人的关节类型、关节尺寸、关节轴坐标系确定各个轴的关节角度和末端位姿的映射关系,从而建立起所述运动学基础模型,所述运动学基础模型的输入为实轴指令序列,输出为理论位姿序列。
在其中一个实施例中,所述S2包括:当机器人在所述实轴指令序列的控制下运动时,利用激光跟踪仪追踪采集到机器人末端的连续多个实际位姿,形成所述实际位姿序列。
在其中一个实施例中,所述S2包括:
当机器人在所述实轴指令序列的控制下运动时,利用摄像装置采集所机器人的实际位姿视频或多张连续的实际位姿图像,从所述实际位姿视频或所述多张连续的实际位姿图像获取连续的多个实际位姿,形成所述实际位姿序列。
在其中一个实施例中,所述S4中,所述深度神经网络的输入层神经元个数与样本数据中特征的维度相同,输出层为1个神经元;所述样本数据包括:所述实轴指令序、所述理论位姿序列和所述实际位姿序。
按照本发明的另一方面,提供了一种基于运动学与深度神经网络融合的机器人标定装置,包括:
初始化模块,用于将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;
采集模块,用于采集在所述实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;
训练模块,用于将所述实轴指令序列、所述理论位姿序列、所述实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
标定模块,用于将机器人的当前实轴指令及其对应的理论位姿序列输入所述大数据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定。
按照本发明的另一方面,提供了一种基于运动学与深度神经网络融合的机器人标定系统,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明首先将实轴指令序列输入基于理论分析建立机器人运动学基础模型得到理论位姿序列;其次采集的机器人实际位姿序列和理论位姿序列,制作训练大数据偏差模型的样本;然后建立大数据偏差模型并进行训练,修正运动学基础模型的预测偏差;最后往偏差模型中输入机器人各个轴的关节角度值,即可预测得到实际机器人末端位姿,实现对机器人的运动学标定。该方法通过建立与物理实体精确映射的机器人深度神经网络融合模型,当输入机器人各个轴的关节角度值能够得到位姿偏差,可以精准预测出实际机器人末端位姿,提高机器人绝对定位精度。
(2)机器人是一个复杂动态系统,机器人绝对定位精度由制造公差、安装误差、磨损、传动误差和柔顺性等诸多因素共同影响,机器人的精度误差为多种因素产生的耦合误差,用数学方法及机器人运动学理论建立的运动学基础模型对这种耦合误差的表达受限于运动学基础模型的参数个数的影响,难以完整、准确描述实际机器人的运动学变换,仿真误差较大,无法提供精确的补偿量,并且这种模型属于一种通用模型,并没有对特定某一台机器人的特性进行分析建模。采用基于深度神经网络的非线性的建模方法,可以取得更精准的仿真结果。运动学基础模型输入仅为实轴指令时间序列,与实际物理系统的实时的状态无关,不需要实际物理系统提供额外的信息,不与实际物理系统相互耦合。
附图说明
图1是本发明一实施例中基于运动学与深度神经网络融合的机器人标定方法的框架图;
图2是本发明一实施例中基于运动学与深度神经网络融合的机器人标定方法的流程图;
图3是本发明一实施例中S3的原理图;
图4、图5、图6、图7、图8和图9均是本发明一实施例中理论位姿序列、实际位姿序列与预测位姿序列的曲线图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明专利提出了一种运动学与深度神经网络融合的机器人标定方法,建立了机器人运动学与深度神经网络融合模型进行机器人运动学标定,融合模型包括两个部分:一个是基于理论分析的运动学基础模型,以下简称运动学基础模型;另一个是基于深度神经网络的大数据偏差模型,以下简称偏差模型。融合模型的建模过程如图1所示。
首先,基于理论分析,建立机器人运动学基础模型;
其次,采集的机器人实际位姿数据和运动学基础模型的数据之间的偏差,制作训练大数据偏差模型的样本;
然后,建立大数据偏差模型,修正运动学基础模型的预测偏差。
最后,向大数据偏差模型输入机器人各个轴的关节角度值,即可预测得到实际机器人末端位姿,实现对机器人的运动学标定。
如图2所示,本发明提供一种基于运动学与深度神经网络融合的机器人标定方法,包括:
S1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;
S2:采集在实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;
S3:将实轴指令序列、理论位姿序列、实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
S4:将机器人的当前实轴指令及其对应的理论位姿序列输入大数据偏差模型得到预测位姿偏差,利用预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定。
在其中一个实施例中,S1之前,方法包括:
基于机器人的关节类型、关节尺寸、关节轴坐标系确定各个轴的关节角度和末端位姿的映射关系,从而建立起所述运动学基础模型,所述运动学基础模型的输入为实轴指令序列,输出为理论位姿序列。
具体的,根据实际机器人建立其运动学基础模型,运动学基础模型的输入是机器人各个轴的关节角度值,输出为机器人末端实际位姿。详细如下:机器人包括但不限于各种构型串并联机器人;运动学建模包括运动学方程的建立,并求解出其运动学正逆解,基于机器人的尺寸、构型建立各个轴关节的角度和姿态的映射关系。
在其中一个实施例中,S1和S2包括:
样本数据采集:建立机器人各个轴的关节角度值的实轴指令序列,将该序列输入机器人理论运动学基础模型获得理论位姿序列;同样将该实轴指令序列下发机器人,并采集机器人的实际位姿,形成实际位姿序列。
实轴指令序列是一系列机器人实轴的数据,输入到机器人可以控制机器人根据实轴数据运动,输入到运动学基础模型可以计算出机器人末端的理论位姿;
实际位姿序列是指机器人位姿检测装置采集到的机器人末端实际位姿,采集装置包括但不限于激光跟踪仪。
所属样本数据包括:实轴指令序列、理论位姿序列、实际位姿序列。
在其中一个实施例中,S2包括:
当机器人在实轴指令序列的控制下运动时,利用激光跟踪仪追踪采集到相应的机器人末端实际位姿,形成实际位姿序列。所述的采集设备包括但不限于激光跟踪仪。
在其中一个实施例中,S2包括:
当机器人在实轴指令序列的控制下运动时,利用摄像装置采集所机器人的实际位姿视频或多张连续的实际位姿图像,从实际位姿视频或多张连续的实际位姿图像获取连续的多个实际位姿,形成实际位姿序列。
S3:机器人运动学深度神经网络模型的训练,利用标记好的样本数据,实轴指令序列、理论位姿序列、实际位姿序列作为深度神经网络的输入,位姿偏差作为深度神经网络的输出,训练该深度神经网络模型。
图3为机器人大数据偏差模型的训练与泛化过程图。
需要说明的是,利用的深度神经网络,输入层神经元个数为样本中输入特征的维度,输出层为1个神经元。
S4:预测阶段,输入机器人各个轴的关节角度值,预测出实际位姿偏差。预测偏差补偿运动学基础模型,从而预测得到实际机器人末端位姿。
图4-图9为机器人在实轴指令序列控制下末端位置和角度值,图中6幅子图分别为X,Y,Z轴位移数据和A,B,C的欧拉角数据。其中,最上面的曲线为理论位姿序列;中间的曲线为实际位姿序列;最下面的曲线为预测位姿序列。图4中的(b)是图4中的(a)中第4个点的局部放大图;图5中的(b)是图5中的(a)中第4个点的局部放大图;图6中的(b)是图6中的(a)中第4个点的局部放大图;图7中的(b)是图7中的(a)中第4个点的局部放大图;图8中的(b)是图8中的(a)中第4个点的局部放大图;图9中的(b)是图9中的(a)中第4个点的局部放大图。由图4中的(b)、图5中的(b)、图6中的(b)、图7中的(b)、图8中的(b)、图9中的(b)中最上面曲线和最下面曲线差值较小可知,预测位姿与实际位姿基本重合。
本发明方法采用的是一种运动学与深度神经网络融合的机器人标定方法,利用神经网络算法,实现对机器人末端实际位姿进行精准的建模,提高机器人绝对定位精度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于运动学与深度神经网络融合的机器人标定方法,其特征在于,包括:
S1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;
S2:采集在所述实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;
S3:将所述实轴指令序列、所述理论位姿序列、所述实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
S4:将机器人的当前实轴指令及其对应的理论位姿序列输入所述大数据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定;所述深度神经网络的输入层神经元个数与样本数据中特征的维度相同,输出层为1个神经元;所述样本数据包括:所述实轴指令序、所述理论位姿序列和所述实际位姿序;
基于机器人的关节类型、关节尺寸、关节轴坐标系确定各个轴的关节角度和末端位姿的映射关系,从而建立起所述运动学基础模型,所述运动学基础模型的输入为实轴指令序列,输出为理论位姿序列。
2.如权利要求1所述的基于运动学与深度神经网络融合的机器人标定方法,其特征在于,所述S2包括:
当机器人在所述实轴指令序列的控制下运动时,利用激光跟踪仪追踪采集到相对应的机器人末端实际位姿,形成所述实际位姿序列。
3.如权利要求1所述的基于运动学与深度神经网络融合的机器人标定方法,其特征在于,所述S2包括:
当机器人在所述实轴指令序列的控制下运动时,利用摄像装置采集所机器人的实际位姿视频或多张连续的实际位姿图像,从所述实际位姿视频或所述多张连续的实际位姿图像获取连续的多个实际位姿,形成所述实际位姿序列。
4.一种基于运动学与深度神经网络融合的机器人标定装置,用于执行权利要求1-3任一项所述的基于运动学与深度神经网络融合的机器人标定方法,其特征在于,包括:
初始化模块,用于将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的运动学基础模型,得到理论位姿序列;
采集模块,用于采集在所述实轴指令序列控制下机器人的实际位姿,形成实际位姿序列;
训练模块,用于将所述实轴指令序列、所述理论位姿序列、所述实际位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
标定模块,用于将机器人的当前实轴指令及其对应的理论位姿序列输入所述大数据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定;所述深度神经网络的输入层神经元个数与样本数据中特征的维度相同,输出层为1个神经元;所述样本数据包括:所述实轴指令序、所述理论位姿序列和所述实际位姿序。
5.一种基于运动学与深度神经网络融合的机器人标定系统,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110516594.1A CN113910218B (zh) | 2021-05-12 | 2021-05-12 | 一种基于运动学与深度神经网络融合的机器人标定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110516594.1A CN113910218B (zh) | 2021-05-12 | 2021-05-12 | 一种基于运动学与深度神经网络融合的机器人标定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113910218A CN113910218A (zh) | 2022-01-11 |
CN113910218B true CN113910218B (zh) | 2024-02-06 |
Family
ID=79232604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110516594.1A Active CN113910218B (zh) | 2021-05-12 | 2021-05-12 | 一种基于运动学与深度神经网络融合的机器人标定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113910218B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115302506A (zh) * | 2022-08-08 | 2022-11-08 | 科大讯飞股份有限公司 | 关节模组的测试方法、装置、设备和存储介质 |
CN115556110A (zh) * | 2022-10-25 | 2023-01-03 | 华中科技大学 | 基于主动半监督迁移学习的机器人位姿误差感知方法 |
CN116214526B (zh) * | 2023-05-09 | 2023-08-04 | 合力(天津)能源科技股份有限公司 | 一种机器人运动轨迹的补偿控制方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
CN113490465A (zh) * | 2019-02-28 | 2021-10-08 | 皇家飞利浦有限公司 | 用于机器学习模型的训练数据收集 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200311855A1 (en) * | 2018-05-17 | 2020-10-01 | Nvidia Corporation | Object-to-robot pose estimation from a single rgb image |
-
2021
- 2021-05-12 CN CN202110516594.1A patent/CN113910218B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113490465A (zh) * | 2019-02-28 | 2021-10-08 | 皇家飞利浦有限公司 | 用于机器学习模型的训练数据收集 |
CN113490464A (zh) * | 2019-02-28 | 2021-10-08 | 皇家飞利浦有限公司 | 对末端执行器的前馈连续定位控制 |
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
Non-Patent Citations (2)
Title |
---|
"基于深度神经网络的机器人定位误差补偿方法";花芳芳 等;《航空制造技术》;第2-4节 * |
"激光跟踪仪在机器人运动学参数补偿中的研究";刘保军;《激光杂志》;第77-80 * |
Also Published As
Publication number | Publication date |
---|---|
CN113910218A (zh) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113910218B (zh) | 一种基于运动学与深度神经网络融合的机器人标定方法和装置 | |
Su et al. | An incremental learning framework for human-like redundancy optimization of anthropomorphic manipulators | |
Xu et al. | Compare contact model-based control and contact model-free learning: A survey of robotic peg-in-hole assembly strategies | |
CN109960880B (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
CN110450155B (zh) | 一种多自由度机械臂系统的控制器的优化设计方法 | |
CN111975771A (zh) | 一种基于偏差重定义神经网络的机械臂运动规划方法 | |
Jiang et al. | The state of the art of search strategies in robotic assembly | |
Lepora et al. | Pose-based tactile servoing: Controlled soft touch using deep learning | |
Cao et al. | Dynamic target tracking control of autonomous underwater vehicle based on trajectory prediction | |
Fu et al. | Active learning-based grasp for accurate industrial manipulation | |
CN111673733A (zh) | 未知环境下机器人的智能自适应柔顺控制方法 | |
Luo et al. | Automated tool coordinate calibration system of an industrial robot | |
Zhang et al. | Robotic curved surface tracking with a neural network for angle identification and constant force control based on reinforcement learning | |
CN110463376A (zh) | 一种插机方法及插机设备 | |
Zhang et al. | Deep learning reactive robotic grasping with a versatile vacuum gripper | |
CN116501005A (zh) | 一种数字孪生联动的工厂运行管理方法及系统 | |
Zhang et al. | Deep learning-based robot vision: High-end tools for smart manufacturing | |
Xie et al. | Visual tracking control of SCARA robot system based on deep learning and Kalman prediction method | |
Zhou et al. | Robot manipulator visual servoing based on image moments and improved firefly optimization algorithm-based extreme learning machine | |
Chen et al. | Learning trajectories for visual-inertial system calibration via model-based heuristic deep reinforcement learning | |
CN114012733B (zh) | 一种用于pc构件模具划线的机械臂控制方法 | |
CN116337322A (zh) | 一种阵列式力传感器标定方法及测量方法、装置 | |
CN115338862A (zh) | 一种基于部分可观测马尔科夫的机械手移动路径规划方法 | |
Zhao | Multifeature video modularized arm movement algorithm evaluation and simulation | |
Cheng et al. | “Adult” robot enabled learning process in high precision assembly automation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |