CN106097322B - 一种基于神经网络的视觉系统标定方法 - Google Patents

一种基于神经网络的视觉系统标定方法 Download PDF

Info

Publication number
CN106097322B
CN106097322B CN201610394636.8A CN201610394636A CN106097322B CN 106097322 B CN106097322 B CN 106097322B CN 201610394636 A CN201610394636 A CN 201610394636A CN 106097322 B CN106097322 B CN 106097322B
Authority
CN
China
Prior art keywords
neural network
coordinate
coordinate system
camera
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610394636.8A
Other languages
English (en)
Other versions
CN106097322A (zh
Inventor
顾寄南
丁卫
唐仕喜
尚正阳
张瑜
于萍萍
张丽鹏
高国伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Zhongfu Focus Cross-border Trade Service Co.,Ltd.
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201610394636.8A priority Critical patent/CN106097322B/zh
Publication of CN106097322A publication Critical patent/CN106097322A/zh
Application granted granted Critical
Publication of CN106097322B publication Critical patent/CN106097322B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于神经网络的视觉系统标定方法,包括根据机器人、摄像机的位置关系,推导出适合于Delta机器人视觉系统的Faugeras标定算法;利用Faugeras标定算法求取视觉系统标定的线性内参和线性外参,并将它们作为神经网络的初始权值和偏置;利用Faugeras推导出适合于Delta机器人视觉系统标定的2‑2‑3‑1四层神经网络结构,网络的输入层和隐层之间的传递关系代表摄像机标定的外参,网络的隐层和输出层的传递关系代表视觉系统标定的外参,由于存在畸变等非线性因素,因而神经网络的激活函数为非线性的;由于神经网络的输出中,机器人坐标系X轴和Y轴具有不一样的网络特性,因而采用2‑2‑3‑1四层分布式神经网络结构,本发明的实验标定精度为0.109mm,而传统的Faugeras标定算法的精度为0.535mm。

Description

一种基于神经网络的视觉系统标定方法
技术领域
本发明涉及一种神经网络标定方法,尤其是用于控制工业Delta机器人物料抓取的视觉系统的标定方法。
背景技术
Delta机器人视觉系统成像过程中存在诸多影响因素,如径向畸变、切向畸变、测量误差等,最终的摄像机成像模型变成了复杂的非线性模型,物点与像点间的映射关系也成为了非线性映射关系。许多研究者对摄像机的成像关系进行了深入的研究,提出了许多新的标定方法。传统的标定方法并不能囊括成像过程中的所有非线性因素,只能选择其中主要因素,而忽略其他不确定因素。然而精确的数学标定模型将导致计算繁琐,标定效率低下。基于神经网络的标定方法不依赖确定的数学模型,而是通过训练中间参数来确定物点与像点间的非线性映射关系。传统神经网络算法在应用过程中标定精度低,迭代速度慢,容易早熟而无法获取精准的结果。
发明内容
为了克服传统标定算法精度低、迭代速度慢,标定过程繁琐等问题,本发明提供了一种基于神经网络的视觉系统标定方法,用于Delta机器人视觉系统的标定。相比于传统标定算法,具有更高的标定精度和泛化能力,而与传统的神经网络相比,本发明神经网络的结构是根据公式深入推导得出的,能够再保证精度的情况下,具有更快的收敛速度。由于各坐标轴的标定参数不完全相同,在上述标定模型的基础上进一步采用分布式结构,可以进一步提高神经网络的训练精度和速度。
本发明的技术方案如下:
一种基于神经网络的视觉系统标定方法,包括如下步骤:
步骤1,准备数据检验集:将靶标放置在摄像机正下方,采集靶标图像,经过图像预处理以及Harris角点检测,获取角点像素坐标(ui,vi),电机控制移动传送带,通过编码器计数获取传送带移动距离ΔL,使靶标位于机器人的工作空间,移动机器人,获取图像坐标对应的机器人坐标系的空间坐标为(Xwi+ΔL,Ywi,Zwi);采集若干组坐标对数据;
步骤2,根据Faugeras标定算法推导摄像机坐标系和机器人坐标系之间的转换模型:Faugeras的线性模型采用内参为四参数的摄像机模型,设PR为目标物体在机器人坐标系下的位姿,PO为目标在图像中的像素坐标,TransΔL为考虑传送带安装位置误差的比例因子,为摄像机在机器人坐标系的外参数矩证,为摄像机的内参数矩证,则可以获取摄像机坐标系和机器人坐标系之间的转换模型为
步骤3,根据摄像机坐标系和机器人坐标系之间的转换模型,进一步推导出用于视觉标定的神经网络结构,包括:
步骤3.1,将景物点的像素坐标(u,v)作为神经网络的输入,景物点对应的摄像机坐标系(xc,yc,zc)作为输出,激活函数采用双曲正切S形函数,构建局部神经网络;
步骤3.2,摄像机坐标和机器人坐标之间属于线性变换,将景物点的摄像机坐标系(xc,yc,zc)作为神经网络的输入,景物点在机器人坐标系的坐标(xw,yw,zw)作为输出,激活函数采用线性purein函数,构建第二个局部神经网络;
步骤3.3,将两个局部神经网络合并,因此视觉标定神经网络采用2-2-3-1的四层分布式网络结构,将特征点像素坐标(u,v)作为神经网络的输入,特征点在机器人坐标系的空间坐标(Xwi+ΔL,Ywi,Zwi)作为输出,第一个隐层的激活函数为双正切S形函数,第二个隐层为线性purein函数;
步骤4,训练神经网络:取已知的像素坐标(ui,vi)作为神经网络的输入,计算神经网络的输出向量Xwj和Ywj,并与已知样本对应的期望输出向量Xwi和Ywi比较,将比较误差EX=Xwi-Xwj和EY=Ywi-Ywj用于调节神经网络连接权的大小,反复训练神经网络,直到样本总体误差小于等于误差期望值时停止训练,式中,tpj为输入第P个样本时第j个神经元的期望输出,ypj为对应的实际输出,N表示样本数。
步骤5,将步骤1中检验集的像素坐标逐一输入训练神经网络,分别记录所有的输出,该输出为特征点在机器人坐标系的空间坐标,进行反复的迭代训练。
进一步地,步骤1中所述若干组为160组,其中150组用于训练、10组用于检验;所述ΔL=569.9mm。
进一步地,所述机器人为Delta机器人。
进一步地,步骤1中所述的摄像机采用CCD摄像机。
进一步地,步骤4中所述的误差期望值设为0.001。
本发明的有益效果:
与传统的标定算法相比,本发明提出的标定算法简化了标定步骤,提高了标定精度和算法的泛化性;而与传统神经网络算法相比,由于本发明神经网络的结构是根据公式深入推导得出的,因而结构更加接近真实模型,所以可以加快收敛速度。
附图说明
图1是本发明方法的流程图;
图2是Delta机器人的标定环境示意图。
图3是Delta机器人坐标、摄像机坐标以及图像坐标之间的转化关系图。
图4是基于Faugeras标定算法的神经网络结构图。
图5是X坐标的训练结果。
图6是Y坐标的训练结果。
图中:1.Delta机器人,2.CCD摄像机,3.编码器,4.电机,5.Delta机器人坐标系,6.摄像机坐标系,7.图像坐标系。
具体实施方式
本发明运用图像处理算法从摄像机拍摄的获取160组图像坐标以及对应的Delta机器人坐标,用于网络训练和实验,采用Faugeras标定算法获取网络初值和网络结构,由于初值和网络结构比较接近真实模型,因而可以减少网络训练的迭代次数,提高标定效率。具体包括根据机器人、摄像机的位置关系,推导出适合于Delta机器人视觉系统的Faugeras标定算法;利用Faugeras标定算法求取视觉系统标定的线性内参和线性外参,并将它们作为神经网络的初始权值和偏置,由于初始权值和偏置接近真实值,因而可以加快网络收敛速度;利用Faugeras推导出适合于Delta机器人视觉系统标定的2-2-3-1四层神经网络结构,网络的输入层和隐层之间的传递关系代表摄像机标定的外参,因而神经网络的激活函数为线性的,网络的隐层和输出层的传递关系代表视觉系统标定的外参,由于存在畸变等非线性因素,因而神经网络的激活函数为非线性的;由于神经网络的输出中,机器人坐标系X轴和Y轴具有不一样的网络特性,因而采用2-2-3-1四层分布式神经网络结构,X轴和Y轴的训练迭代次数分别为22次和70次,本发明的实验标定精度为0.109mm,而传统的Faugeras标定算法的精度为0.535mm。
下面结合附图和具体实施例对本发明作进一步说明。
如图1所示,本发明的方法包括如下步骤:
(1)准备数据检验集:Delta机器人的标定环境示意图如图2所示。将靶标放置在CCD摄像机2正下方,采集靶标图像,经过图像预处理以及Harris角点检测,获取角点的像素坐标(ui,vi),电机4控制移动传送带,通过编码器3计数获取传送带移动距离ΔL=569.9mm,使靶标位于Delta机器人1的工作空间,移动机器人,获取特征点在机器人坐标系对应的空间坐标(Xwi,Ywi,Zwi),由于传送带运动,图像坐标对应的机器人坐标系的空间坐标为(Xwi+DL,Ywi,Zwi),各坐标系如图3所示。一共获取160组实验数据,其中150组用于训练、10组用于检验;特征点尽量全工作空间选取,以提高标定的准确性。
(2)根据Faugeras标定算法推导摄像机坐标系6和Delta机器人坐标系5之间的转换模型:Faugeras的线性模型采用内参为四参数的摄像机模型,假设PR为目标物体在机器人坐标系下的位姿,PO为目标在图像中的像素坐标,TransΔL为考虑传送带安装位置误差的比例因子,为摄像机在机器人坐标系的外参数矩证,为摄像机的内参数矩证,则可以获取摄像机坐标系和机器人坐标系之间的转换模型为
(3)根据摄像机坐标系6和机器人坐标系5之间的转换模型,可以进一步推导出用于视觉标定的神经网络结构:
1)由于摄像机存在畸变等非线性因素,因此图像像素坐标和摄像机坐标之间的转换关系属于非线性变换,将景物点的像素坐标(u,v)作为神经网络的输入,景物点对应的摄像机坐标系(xc,yc,zc)作为输出,激活函数采用双曲正切S形函数,构建局部神经网络;
2)摄像机坐标和机器人坐标之间属于线性变换,将景物点的摄像机坐标系(xc,yc,zc)作为神经网络的输入,景物点在机器人坐标系的坐标(xw,yw,zw)作为输出,激活函数采用线性purein函数,构建第二个局部神经网络。
3)将两个局部神经网络合并,因此视觉标定神经网络采用2-2-3-1的四层分布式网络结构,如图4所示,将特征点像素坐标(u,v)作为神经网络的输入,特征点在机器人坐标系的空间坐标(Xwi+ΔL,Ywi,Zwi)作为输出,第一个隐层的激活函数为双正切S形函数,第二个隐层为线性purein函数。将样本总体误差作为训练停止的条件。
(4)训练神经网络:取已知的像素坐标(ui,vi)作为神经网络的输入,计算神经网络的输出向量Xwj和Ywj,并与已知样本对应的期望输出向量Xwi和Ywi(上述采集的坐标值)比较,将比较误差EX=Xwi-Xwj和EY=Ywi-Ywj用于调节神经网络连接权的大小,反复训练神经网络,直到样本总体误差小于等于误差期望值(本发明实施例中设为0.001)时停止训练,式中,tpj为输入第P个样本时第j个神经元的期望输出,ypj为对应的实际输出,N表示样本数。
(5)将检验集的像素坐标逐一输入训练神经网络,分别记录所有的输出,该输出为特征点在机器人坐标系的空间坐标,进行反复的迭代训练。在图5中,Delta机器人X坐标的训练迭代22次,训练误差就降低到0.001mm,相比于传统的神经网络算法,网络训练的收敛速度大大加快了。在图6中,Delta机器人Y轴坐标训练迭代了70次训练误差就达到了0.001mm,说明构建符合实际模型的网络结构算法可以大大提高神经网络的工作效率。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于神经网络的视觉系统标定方法,其特征在于,包括如下步骤:
步骤1,准备数据检验集:将靶标放置在摄像机正下方,采集靶标图像,经过图像预处理以及Harris角点检测,获取角点像素坐标(ui,vi),电机控制移动传送带,通过编码器计数获取传送带移动距离ΔL,使靶标位于机器人的工作空间,移动机器人,获取靶标图像在摄像机坐标系的坐标对应的机器人坐标系的空间坐标为(Xwi+ΔL,Ywi,Zwi);采集若干组坐标对数据;
步骤2,根据Faugeras标定算法推导摄像机坐标系和机器人坐标系之间的转换模型:Faugeras的线性模型采用内参为四参数的摄像机模型,设PR为目标物体在机器人坐标系下的位姿,PO为目标在靶标图像中的像素坐标,TransΔL为考虑传送带安装位置误差的比例因子,为摄像机在机器人坐标系的外参数矩证,为摄像机的内参数矩证,则可以获取摄像机坐标系和机器人坐标系之间的转换模型为
步骤3,根据摄像机坐标系和机器人坐标系之间的转换模型,进一步推导出用于视觉标定的神经网络结构,包括:
步骤3.1,将景物点的像素坐标(u,v)作为神经网络的输入,景物点对应的摄像机坐标系的空间坐标(xc,yc,zc)作为输出,激活函数采用双曲正切S形函数,构建局部神经网络;
步骤3.2,摄像机坐标和机器人坐标之间属于线性变换,将景物点的摄像机坐标系的空间坐标(xc,yc,zc)作为神经网络的输入,景物点在机器人坐标系的空间坐标(xw,yw,zw)作为输出,激活函数采用线性purein函数,构建第二个局部神经网络;
步骤3.3,将两个局部神经网络合并,因此视觉标定神经网络采用2-2-3-1的四层分布式网络结构,将角点像素坐标(ui,vi)作为神经网络的输入,特征点在机器人坐标系的空间坐标(Xwi+ΔL,Ywi,Zwi)作为输出,第一个隐层的激活函数为双正切S形函数,第二个隐层为线性purein函数;
步骤4,训练神经网络:取已知的角点像素坐标(ui,vi)作为神经网络的输入,计算神经网络的输出向量Xwj和Ywj,并与已知样本对应的期望输出向量Xwi和Ywi比较,将比较误差EX=Xwi-Xwj和EY=Ywi-Ywj用于调节神经网络连接权的大小,反复训练神经网络,直到样本总体误差小于等于误差期望值时停止训练,式中,tpj为输入第P个样本时第j个神经元的期望输出,ypj为对应的实际输出,N表示样本数;
步骤5,将步骤1中数据检验集的像素坐标逐一输入训练神经网络,分别记录所有的输出,该输出为角点在机器人坐标系的空间坐标,进行反复的迭代训练。
2.根据权利要求1所述的一种基于神经网络的视觉系统标定方法,其特征在于,步骤1中所述若干组为160组,其中150组用于训练、10组用于检验;所述ΔL=569.9mm。
3.根据权利要求1所述的一种基于神经网络的视觉系统标定方法,其特征在于,所述机器人为Delta机器人。
4.根据权利要求1所述的一种基于神经网络的视觉系统标定方法,其特征在于,步骤1中所述的摄像机采用CCD摄像机。
5.根据权利要求1所述的一种基于神经网络的视觉系统标定方法,其特征在于,步骤4中所述的误差期望值设为0.001。
CN201610394636.8A 2016-06-03 2016-06-03 一种基于神经网络的视觉系统标定方法 Active CN106097322B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610394636.8A CN106097322B (zh) 2016-06-03 2016-06-03 一种基于神经网络的视觉系统标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610394636.8A CN106097322B (zh) 2016-06-03 2016-06-03 一种基于神经网络的视觉系统标定方法

Publications (2)

Publication Number Publication Date
CN106097322A CN106097322A (zh) 2016-11-09
CN106097322B true CN106097322B (zh) 2018-10-09

Family

ID=57448315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610394636.8A Active CN106097322B (zh) 2016-06-03 2016-06-03 一种基于神经网络的视觉系统标定方法

Country Status (1)

Country Link
CN (1) CN106097322B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107972026B (zh) * 2016-10-25 2021-05-04 河北亿超机械制造股份有限公司 机器人、机械臂及其控制方法和装置
CN106791604B (zh) * 2016-11-11 2019-05-03 华南智能机器人创新研究院 机器视觉跟踪下目标对象编码的方法及系统
CN106393144B (zh) * 2016-11-26 2018-09-04 顺德职业技术学院 一种多机器人操作模式下视觉跟踪的方法及系统
CN106600641B (zh) * 2016-12-07 2020-02-11 常州工学院 基于多特征融合的嵌入式视觉伺服控制方法
CN106767422B (zh) * 2017-03-01 2019-05-14 长春工程学院 基于神经网络的动车车体关键尺寸检测系统解决方案
CN107230234A (zh) * 2017-05-08 2017-10-03 上海工程技术大学 一种基于三线结构光的相机平面标定方法
CN107336234A (zh) * 2017-06-13 2017-11-10 赛赫智能设备(上海)股份有限公司 一种反馈式自学习工业机器人及工作方法
CN107481292B (zh) * 2017-09-05 2020-07-28 百度在线网络技术(北京)有限公司 车载摄像头的姿态误差估计方法和装置
CN108257391A (zh) * 2018-01-17 2018-07-06 成都上甲光电科技有限公司 基于桥梁的通行指示器
CN108335333A (zh) * 2018-04-03 2018-07-27 哈尔滨理工大学 一种线性摄像机标定方法
CN108764023B (zh) * 2018-04-04 2021-05-07 浙江大学 一种基于深度学习的传送带上物料检测系统
CN108764248B (zh) * 2018-04-18 2021-11-02 广州视源电子科技股份有限公司 图像特征点的提取方法和装置
CN110009696A (zh) * 2019-04-10 2019-07-12 哈尔滨理工大学 基于蜂群算法优化bp神经网络三目视觉标定
CN112230256B (zh) * 2019-07-15 2024-04-09 苏州宝时得电动工具有限公司 自主机器人及其定位校准方法、装置和存储介质
CN110602449A (zh) * 2019-09-01 2019-12-20 天津大学 一种基于视觉的大场景下施工安全智能监控系统方法
CN110757462B (zh) * 2019-11-15 2022-11-25 上海威士顿信息技术股份有限公司 一种机器人手眼标定方法、系统及存储介质
EP3885970A1 (en) * 2020-03-23 2021-09-29 Toyota Jidosha Kabushiki Kaisha System for processing an image having a neural network with at least one static feature map
WO2022022757A1 (en) 2020-07-27 2022-02-03 Y Soft Corporation, A.S. A method for testing an embedded system of a device, a method for identifying a state of the device and a system for these methods
CN112102414A (zh) * 2020-08-27 2020-12-18 江苏师范大学 基于改进遗传算法和神经网络的双目远心镜头标定方法
CN112611331A (zh) * 2021-01-04 2021-04-06 中国神华能源股份有限公司国华电力分公司 一种位移监测装置及测量方法
CN113749646A (zh) * 2021-09-03 2021-12-07 中科视语(北京)科技有限公司 基于单目视觉的人体身高测量方法、装置及电子设备
CN114494455B (zh) * 2022-01-07 2024-04-05 西北工业大学 一种大视角下的位移高精度测量方法
CN114708333B (zh) * 2022-03-08 2024-05-31 智道网联科技(北京)有限公司 自动标定相机外参模型的生成方法及装置
CN116091600B (zh) * 2022-12-26 2023-12-01 北京万集科技股份有限公司 一种图像目标的定位方法、装置、终端设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1529124A (zh) * 2003-09-29 2004-09-15 上海交通大学 可调精度的神经网络摄像机标定方法
CN102607552A (zh) * 2012-01-11 2012-07-25 南京航空航天大学 基于神经网络的工业机器人空间网格精度补偿方法
CN102915039A (zh) * 2012-11-09 2013-02-06 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN103996056A (zh) * 2014-04-08 2014-08-20 浙江工业大学 一种基于深度学习的纹身图像分类方法
CN104516268A (zh) * 2013-09-28 2015-04-15 沈阳新松机器人自动化股份有限公司 一种基于模糊神经网络的机器人标定误差补偿方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617490A (en) * 1994-06-27 1997-04-01 Sanyo Electric Co., Ltd. Camera system with neural network compensator for measuring 3-D position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1529124A (zh) * 2003-09-29 2004-09-15 上海交通大学 可调精度的神经网络摄像机标定方法
CN102607552A (zh) * 2012-01-11 2012-07-25 南京航空航天大学 基于神经网络的工业机器人空间网格精度补偿方法
CN102915039A (zh) * 2012-11-09 2013-02-06 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN104516268A (zh) * 2013-09-28 2015-04-15 沈阳新松机器人自动化股份有限公司 一种基于模糊神经网络的机器人标定误差补偿方法
CN103996056A (zh) * 2014-04-08 2014-08-20 浙江工业大学 一种基于深度学习的纹身图像分类方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Automatic machine vision calibration using statistical and neural network methods;Lyndon N.Smith et al;《Image and Vision Computing》;20051231(第23期);全文 *
CALIBRATION OF THE ARC-WELDING ROBOT BY NEURAL NETWORK;DONG-SHU WANG et al;《Proceedings of the Fourth International Conference on Machine Learning and Cybernetics》;20050818;全文 *
基于神经网络的机器人无标定视觉伺服系统仿真;张家驹 等;《应用科技》;20110930;第38卷(第9期);全文 *
基于神经网络的视觉伺服机器人摄像机标定;宗晓萍 等;《仪器仪表学报》;20060630;第27卷(第6期);全文 *
激光加工机器人标定的神经网络法;王东署 等;《系统仿真学报》;20061031;第18卷(第10期);全文 *

Also Published As

Publication number Publication date
CN106097322A (zh) 2016-11-09

Similar Documents

Publication Publication Date Title
CN106097322B (zh) 一种基于神经网络的视觉系统标定方法
CN109344882B (zh) 基于卷积神经网络的机器人控制目标位姿识别方法
CN109308693B (zh) 由一台ptz相机构建的目标检测和位姿测量单双目视觉系统
CN106767393B (zh) 机器人的手眼标定装置与方法
CN110014426B (zh) 一种利用低精度深度相机高精度抓取形状对称工件的方法
CN104154875B (zh) 基于两轴旋转平台的三维数据获取系统及获取方法
CN108416428B (zh) 一种基于卷积神经网络的机器人视觉定位方法
CN107633536A (zh) 一种基于二维平面模板的相机标定方法及系统
CN104552341B (zh) 移动工业机器人单点多视角挂表位姿误差检测方法
CN110443879B (zh) 一种基于神经网络的透视误差补偿方法
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量系统和方法
CN106296711A (zh) 一种手机摄像头模组的多轴主动对准方法
CN111452048B (zh) 多机器人相对空间位置关系的标定方法和装置
CN111260649B (zh) 一种近距离机械臂感知与校准方法
CN102842117A (zh) 显微视觉系统中运动误差矫正方法
Shan et al. A calibration method for stereovision system based on solid circle target
CN109974618B (zh) 多传感器视觉测量系统的全局标定方法
CN110202560A (zh) 一种基于单个特征点的手眼标定方法
CN109540140A (zh) 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN107917700A (zh) 基于深度学习的小幅度目标三维姿态角测量方法
CN114359405A (zh) 一种离轴沙姆3d线激光相机的标定方法
CN112102414A (zh) 基于改进遗传算法和神经网络的双目远心镜头标定方法
CN111862236A (zh) 定焦双目相机自标定方法及系统
CN115752295A (zh) 一种线激光轮廓仪自动手眼标定方法
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200529

Address after: 215500 No.13, Caotang Road, Changshu, Suzhou, Jiangsu Province

Patentee after: Changshu intellectual property operation center Co.,Ltd.

Address before: Zhenjiang City, Jiangsu Province, 212013 Jingkou District Road No. 301

Patentee before: JIANGSU University

TR01 Transfer of patent right
CP02 Change in the address of a patent holder

Address after: 215500 5th floor, building 4, 68 Lianfeng Road, Changfu street, Changshu City, Suzhou City, Jiangsu Province

Patentee after: Changshu intellectual property operation center Co.,Ltd.

Address before: No.13 caodang Road, Changshu City, Suzhou City, Jiangsu Province

Patentee before: Changshu intellectual property operation center Co.,Ltd.

CP02 Change in the address of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20211029

Address after: 215500 zd-017, 1f, Fashion Plaza, No. 8, Shangcheng North Road, Changshu, Suzhou, Jiangsu

Patentee after: Jiangsu Zhongfu Focus Cross-border Trade Service Co.,Ltd.

Address before: 215500 5th floor, building 4, 68 Lianfeng Road, Changfu street, Changshu City, Suzhou City, Jiangsu Province

Patentee before: Changshu intellectual property operation center Co.,Ltd.

TR01 Transfer of patent right