CN106127789A - 结合神经网络与虚拟靶标的立体视觉标定方法 - Google Patents

结合神经网络与虚拟靶标的立体视觉标定方法 Download PDF

Info

Publication number
CN106127789A
CN106127789A CN201610517953.4A CN201610517953A CN106127789A CN 106127789 A CN106127789 A CN 106127789A CN 201610517953 A CN201610517953 A CN 201610517953A CN 106127789 A CN106127789 A CN 106127789A
Authority
CN
China
Prior art keywords
neutral net
angle point
virtual target
target
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610517953.4A
Other languages
English (en)
Inventor
王文韫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Science and Technology
Original Assignee
Hunan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Science and Technology filed Critical Hunan University of Science and Technology
Priority to CN201610517953.4A priority Critical patent/CN106127789A/zh
Publication of CN106127789A publication Critical patent/CN106127789A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种结合神经网络与虚拟靶标的立体视觉标定方法,包括以下步骤:S1、利用单角点靶标构建立体虚拟靶标,在构建过程中获取角点图像并记录角点的世界三维坐标;S2、提取角点在图像中的像素坐标;S3、利用神经网络对角点的像素坐标与世界三维坐标进行训练;S4、将测试样本输入训练神经网络进行三维重建,计算重建误差;S5、改变神经网络的隐层节点数,使误差最小。本发明方法一方面利用单角点棋盘格构建范围可控的立体虚拟靶标,解决了大型靶标制作加工困难的问题;另一方面利用神经网络对像机进行标定,不需要建立复杂的非线性畸变模型,标定精度明显高于线性标定的方法。本发明切实可行、简单易操作并且精度高。

Description

结合神经网络与虚拟靶标的立体视觉标定方法
技术领域
本发明属于机器视觉领域,具体涉及大视场摄影测量中的双目标定方法。
背景技术
摄影测量技术因其非接触、高精度以及测量点不限等优良特性受到广泛青睐。尤其是近年来,像机成像材料及加工工艺的发展,更为此项技术在大尺寸工业结构上的广泛应用提供了可能。
摄影测量技术主要面临的是测量精度问题,大视场双目标定主要困难在于:1、由于像机非线性畸变存在,传统的标定往往需要建立复杂的像机模型,一定程度上增加了标定的繁琐性和困难度;2、大视场高精度标定需要相应的大尺寸标定板,而大尺寸标定板无论是在制作、加工还是运输上都有一定的困难。所以,目前的双目标定一般针对近距离小视野标定。
发明内容
本发明的目的在于避免现有技术中的不足而提供一种结合神经网络与虚拟靶标的立体视觉标定方法,以解决大型靶标制作加工困难、像机非线性畸变以及标定模型复杂的问题。
本发明的目的通过以下技术方案实现:
结合神经网络与虚拟靶标的立体视觉标定方法,包括以下步骤:
S1、利用单角点靶标构建立体虚拟靶标,在构建过程中获取角点图像并记录角点的世界三维坐标;
S2、提取角点在图像中的像素坐标;
S3、利用神经网络对角点的像素坐标与世界三维坐标进行训练;
S4、将测试样本输入训练神经网络进行三维重建,计算重建误差;
S5、改变神经网络的隐层节点数,使误差最小。
其中,在步骤S1中,构建立体虚拟靶标的具体步骤如下:
第一步,选定一个正对像机的竖直平面;
第二步,将单角点棋盘格放置在该竖直平面的一定位置处并且获取其图像;
第三步,把单角点棋盘格移动到该竖直平面的下一设定位置并且获取其图像;
第四步,依次进行该竖直平面上每个位置处图像的获取,所有单角点靶标图像重叠为一个平面虚拟靶标;
第五步,选定下一个正对像机的竖直平面,进行第二步至第四步的操作,得到该平面虚拟靶标;
第六步,重复第五步,得到若干个平面虚拟靶标;
第七步,依次根据该若干个平面虚拟靶标建立立体虚拟靶标。
其中,在步骤S2中,用matlab对每一幅图像进行提取,并把结果导出到excel表格。
其中,在步骤S3中,将角点在左右像机中的像素坐标(ul,vl)、(ur,vr)作为网络的输入,角点的世界三维坐标(Xw,Yw,Zw)作为网络的输出,进行神经网络的训练。
其中,所述神经网络采用三层BP神经网络,设输入层有m个节点,输出层有n个节点,隐层有l个节点,输入向量为[x1,x2,x3……xm],wji为隐层节点与输入层节点的连接权值,则隐层节点的输入和输出为:
NET j = Σ i = 1 n ( x i * w j i ) - - - ( 1 )
Oj=f1(NETj) (2)
隐层节点的作用函数f1选取tansig型变换函数,设输出层节点k与隐层节点j的连接权值为wkj,输出层节点的作用函数f2选用purelin变换函数,则输出层节点k的输出为:
y k = f 2 ( Σ j = 1 l ( w k j * O j ) ) - - - ( 3 )
误差函数采用均方误差函数,对所有样本,总误差为:
E = 1 2 Σ p = 1 n Σ k = 1 m ( y k p - y ^ k p ) 2 - - - ( 4 ) .
其中,设输入层有4个节点,输出层有3个节点。
其中,在步骤S4中,采用重建值与真实值的距离差在整个标定平面所占的比例作为相对误差值,公式如下:
D = ( x - x r ) 2 + ( y - y r ) 2 + ( z - z r ) 2 - - - ( 5 )
E r r o r = D / X 2 + Y 2 - - - ( 6 )
式(5)中,(x,y,z)表示通过神经网络重建点的坐标,(xr,yr,zr)表示时间点的坐标;式(6)中,(X,Y)表示测试样本点的空间范围,D表示真实点与重建点的距离,Error是重建值与真实值的距离差在整个标定平面所占的比例,表示相对误差值。
本发明提出的结合神经网络与虚拟靶标的立体视觉标定方法,该方法一方面利用单角点棋盘格构建范围可控的立体虚拟靶标,单角点棋盘格易于制作加工,棋盘格角点所确定的像素坐标精确,并且构建的虚拟靶标范围可控,满足大视场像机标定中高精度、大尺寸靶标的要求,从而解决了大型靶标制作加工困难的问题;另一方面利用神经网络对像机进行标定,神经网络具有强大的非线性映射能力,通过训练能够作为复杂数学模型的虚表达,满足大视场像机标定中像机模型非线性映射的要求,这样不需要建立复杂的非线性畸变模型,实验表明,在虚拟靶标范围为560mm×400mm×600mm的大视场下双像机标定相对误差为0.92%,标定精度明显高于线性标定的方法,对双目像机的标定研究有一定的参考意义。本发明切实可行、简单易操作并且精度高。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是单角点棋盘格构成的单角点靶标示意图。
图2是构建虚拟靶标的示意图。
图3是角点提取的matlab界面。
图4是神经网络拓扑结构图。
图5是重建空间点效果图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
本发明使用的设备主要包括:美国Brown&Sharpe公司Global系列三坐标测量机一台,其测量范围为:700mm×1000mm×660mm;广州精谱徕公司G1GD05C型号的像机两台,该产品分辨率为640x480,帧率130fps;单角点靶标一个;三脚架两个;PC机一台以及千兆网GIGE接口数据线两条等。为对比分析本发明方法的性能,采用目前广泛使用的线性标定方法(DLT)作为对比实验。
本发明的具体实施步骤如下:
S1、构建规模为560mm×400mm×600mm的立体虚拟靶标并采集图像,并记录角点的世界三维坐标。具体的,图1所示为激光打印机打印的单角点棋盘格,将单角点棋盘格粘贴在三坐标测量机探头上。第一步,选定一个正对像机的竖直平面;第二步,将单角点棋盘格放置在该竖直平面左上角位置处并且获取其图像;第三步,把单角点棋盘格在该竖直平面水平向右移动140mm处并且获取其图像;第四步,如图2所示,按照水平距离为140mm,竖直距离为100mm的方式拍摄5×5个角点位置,得到一个平面虚拟靶标;第五步,将单角点棋盘格在下一个距离100mm的竖直平面进行第二步至第四步同样的操作,得到第二个平面虚拟靶标;第六步,重复第五步,共得到七个平面虚拟靶标;第七步,根据该七个平面虚拟靶标依次进行立体虚拟靶标的建立。
S2,角点提取。如图3和表1所示,用matlab对每一幅图像进行提取,并把结果导出到excel表格。其中表1是角点提取的部分数值结果,图3是单幅图像角点提取的matlab界面展示。
表1:部分角点提取的数值结果
u v
3.9389479e+02 2.4437789e+02
1.4188527e+03 2.8432709e+02
2.4037173e+03 3.4376227e+02
3.5892353e+02 9.8164220e+02
1.3941623e+03 1.0220714e+03
S3,神经网络的训练。将角点在左右像机中的像素坐标(ul,vl)、(ur,vr)作为网络的输入,角点的世界三维坐标(Xw,Yw,Zw)作为网络的输出,进行神经网络的训练。
本发明采用的是BP(Back Propagation)神经网络,其模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer),是一种多层前馈网络,其结构如图4所示。BP神经网络的工作原理是:依据样本的实际输出和理论输出误差,按照最速下降法不断对网络的阈值和权值从输出层开始逐层反向调整,最终使网络的误差平方和最小。根据Kolmogorov定理和BP定理可知一个三层的BP神经网络理论上可以逼近任何函数。
在双目视觉标定中,空间标志点的空间坐标和点在左右相机成像平面的像素坐标是一种非线性映射关系。将标志点在左右两个像机上的像素坐标(ul,vl)、(ur,vr)作为网络的输入,把标志点在世界坐标系中的三维坐标(Xw,Yw,Zw)作为网络的输出,故网络的输入为4个节点,输出为3个节点。对应的,在本实施例中,输入层有4个节点,输出层有3个节点,则隐层节点的输入和输出为:
NET j = Σ i = 1 n ( x i * w j i ) - - - ( 1 )
Oj=f1(NETj) (2)
隐层节点的作用函数f1选取tansig型变换函数,设输出层节点k与隐层节点j的连接权值为wkj,输出层节点的作用函数f2选用purelin变换函数,则输出层节点k的输出为:
y k = f 2 ( Σ j = 1 l ( w k j * O j ) ) - - - ( 3 )
误差函数采用均方误差函数,对所有样本,总误差为:
E = 1 2 Σ p = 1 3 Σ k = 1 4 ( y k p - y ^ k p ) 2 - - - ( 4 ) .
S4,将测试样本输入训练神经网络进行三维重建,计算重建误差。单纯的重建值与真实值的距离差不能准确的权衡标定误差,故本发明采用重建值与真实值的距离差在整个标定平面所占的比例作为相对误差值。
公式如下:
D = ( x - x r ) 2 + ( y - y r ) 2 + ( z - z r ) 2 - - - ( 5 )
E r r o r = D / X 2 + Y 2 - - - ( 6 )
式(5)中(x,y,z)表示通过神经网络重建点的坐标,(xr,yr,zr)表示时间点的坐标,式(6)中(X,Y)表示测试样本点的空间范围,本发明中的测试样本范围是200mm×280mm。D表示真实点与重建点的距离,单位是mm;Error是重建值与真实值的距离差在整个标定平面所占的比例,表示相对误差值,重建结果如图5所示。
S5,调节隐层节点数,使相对误差最小。调整结果如表2所示,结果表明,隐层阶段数对网络训练的精度及步数都有一定的影响。在本实施例中,设定隐层节点数为13最合适。
表2:隐层节点数对实验结果的影响
与传统线性标定方法的对比,实验结果如表3所示:本发明提出的标定方法明显由于线性标定方法。
表3:与线性标定方法对比结果
方法 线性标定方法 本发明标定方法
标定误差 2.45% 0.92%
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。

Claims (7)

1.一种结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,包括以下步骤:
S1、利用单角点靶标构建立体虚拟靶标,在构建过程中获取角点图像并记录角点的世界三维坐标;
S2、提取角点在图像中的像素坐标;
S3、利用神经网络对角点的像素坐标与世界三维坐标进行训练;
S4、将测试样本输入训练神经网络进行三维重建,计算重建误差;
S5、改变神经网络的隐层节点数,使误差最小。
2.根据权利要求1所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,在步骤S1中,构建立体虚拟靶标的具体步骤如下:
第一步,选定一个正对像机的竖直平面;
第二步,将单角点棋盘格放置在该竖直平面的一定位置处并且获取其图像;
第三步,把单角点棋盘格移动到该竖直平面的下一设定位置并且获取其图像;
第四步,依次进行该竖直平面上每个位置处图像的获取,所有单角点靶标图像重叠为一个平面虚拟靶标;
第五步,选定下一个正对像机的竖直平面,进行第二步至第四步的操作,得到该平面虚拟靶标;
第六步,重复第五步,得到若干个平面虚拟靶标;
第七步,依次根据该若干个平面虚拟靶标建立立体虚拟靶标。
3.根据权利要求2所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,在步骤S2中,用matlab对每一幅图像进行提取,并把结果导出到excel表格。
4.根据权利要求3所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,在步骤S3中,将角点在左右像机中的像素坐标(ul,vl)、(ur,vr)作为网络的输入,角点的世界三维坐标(Xw,Yw,Zw)作为网络的输出,进行神经网络的训练。
5.根据权利要求4所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,所述神经网络采用三层BP神经网络,设输入层有m个节点,输出层有n个节点,隐层有l个节点,输入向量为[x1,x2,x3......xm],wji为隐层节点与输入层节点的连接权值,则隐层节点的输入和输出为:
NET j = Σ i = 1 n ( x i * w j i ) - - - ( 1 )
Oj=f1(NETj)(2)
隐层节点的作用函数f1选取tansig型变换函数,设输出层节点k与隐层节点j的连接权值为wkj,输出层节点的作用函数f2选用purelin变换函数,则输出层节点k的输出为:
y k = f 2 ( Σ j = 1 l ( w k j * O j ) ) - - - ( 3 )
误差函数采用均方误差函数,对所有样本,总误差为:
E = 1 2 Σ p = 1 n Σ k = 1 m ( y k p - y ^ k p ) 2 - - - ( 4 ) .
6.根据权利要求5所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,设输入层有4个节点,输出层有3个节点。
7.根据权利要求1至6中任一项所述的结合神经网络与虚拟靶标的立体视觉标定方法,其特征在于,在步骤S4中,采用重建值与真实值的距离差在整个标定平面所占的比例作为相对误差值,公式如下:
D = ( x - x r ) 2 + ( y - y r ) 2 + ( z - z r ) 2 - - - ( 5 )
E r r o r = D / X 2 + Y 2 - - - ( 6 )
式(5)中,(x,y,z)表示通过神经网络重建点的坐标,(xr,yr,zr)表示时间点的坐标;式(6)中,(X,Y)表示测试样本点的空间范围,D表示真实点与重建点的距离,Error是重建值与真实值的距离差在整个标定平面所占的比例,表示相对误差值。
CN201610517953.4A 2016-07-04 2016-07-04 结合神经网络与虚拟靶标的立体视觉标定方法 Pending CN106127789A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610517953.4A CN106127789A (zh) 2016-07-04 2016-07-04 结合神经网络与虚拟靶标的立体视觉标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610517953.4A CN106127789A (zh) 2016-07-04 2016-07-04 结合神经网络与虚拟靶标的立体视觉标定方法

Publications (1)

Publication Number Publication Date
CN106127789A true CN106127789A (zh) 2016-11-16

Family

ID=57468362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610517953.4A Pending CN106127789A (zh) 2016-07-04 2016-07-04 结合神经网络与虚拟靶标的立体视觉标定方法

Country Status (1)

Country Link
CN (1) CN106127789A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960456A (zh) * 2017-03-28 2017-07-18 长沙全度影像科技有限公司 一种鱼眼相机标定算法评价的方法
CN108038906A (zh) * 2017-12-26 2018-05-15 山东师范大学 一种基于图像的三维四边形网格模型重建方法
CN108564120A (zh) * 2018-04-04 2018-09-21 中山大学 基于深度神经网络的特征点提取方法
CN108734738A (zh) * 2017-04-18 2018-11-02 杭州海康威视数字技术股份有限公司 相机标定方法及装置
CN109887035A (zh) * 2018-12-27 2019-06-14 哈尔滨理工大学 基于蝙蝠算法优化bp神经网络双目视觉标定
CN111080713A (zh) * 2019-12-11 2020-04-28 四川深瑞视科技有限公司 相机标定系统以及方法
CN112611331A (zh) * 2021-01-04 2021-04-06 中国神华能源股份有限公司国华电力分公司 一种位移监测装置及测量方法
CN113446957A (zh) * 2021-05-08 2021-09-28 北京航空航天大学 基于神经网络标定和散斑追踪的三维轮廓测量方法及装置
CN114494455A (zh) * 2022-01-07 2022-05-13 西北工业大学 一种大视角下的位移高精度测量方法
CN114708333A (zh) * 2022-03-08 2022-07-05 智道网联科技(北京)有限公司 自动标定相机外参模型的生成方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069301A (ja) * 1998-08-17 2000-03-03 Toyo Ink Mfg Co Ltd 色変換系の校正方法
CN101261115A (zh) * 2008-04-24 2008-09-10 吉林大学 空间圆几何参数的双目立体视觉测量方法
US20100091305A1 (en) * 2008-10-10 2010-04-15 Xerox Corporation System and method for printing target colors with process colors utilizing parallel feedforward neural networks
CN102645173A (zh) * 2011-02-16 2012-08-22 张文杰 一种基于多目视觉的桥梁三维变形监测方法
US20160086080A1 (en) * 2013-05-07 2016-03-24 Singapore University Of Technology And Design Method and/or system for magnetic localization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069301A (ja) * 1998-08-17 2000-03-03 Toyo Ink Mfg Co Ltd 色変換系の校正方法
CN101261115A (zh) * 2008-04-24 2008-09-10 吉林大学 空间圆几何参数的双目立体视觉测量方法
US20100091305A1 (en) * 2008-10-10 2010-04-15 Xerox Corporation System and method for printing target colors with process colors utilizing parallel feedforward neural networks
CN102645173A (zh) * 2011-02-16 2012-08-22 张文杰 一种基于多目视觉的桥梁三维变形监测方法
US20160086080A1 (en) * 2013-05-07 2016-03-24 Singapore University Of Technology And Design Method and/or system for magnetic localization

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张可 等: "基于BP神经网络的双目视觉系统摄像机标定", 《机械与电子》 *
李晶 等: "基于BP神经网络的外姿态测量系统线阵CCD标定", 《仪器仪表学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960456A (zh) * 2017-03-28 2017-07-18 长沙全度影像科技有限公司 一种鱼眼相机标定算法评价的方法
CN108734738A (zh) * 2017-04-18 2018-11-02 杭州海康威视数字技术股份有限公司 相机标定方法及装置
CN108038906B (zh) * 2017-12-26 2021-04-02 山东师范大学 一种基于图像的三维四边形网格模型重建方法
CN108038906A (zh) * 2017-12-26 2018-05-15 山东师范大学 一种基于图像的三维四边形网格模型重建方法
CN108564120A (zh) * 2018-04-04 2018-09-21 中山大学 基于深度神经网络的特征点提取方法
CN109887035A (zh) * 2018-12-27 2019-06-14 哈尔滨理工大学 基于蝙蝠算法优化bp神经网络双目视觉标定
CN111080713A (zh) * 2019-12-11 2020-04-28 四川深瑞视科技有限公司 相机标定系统以及方法
CN111080713B (zh) * 2019-12-11 2023-03-28 四川深瑞视科技有限公司 相机标定系统以及方法
CN112611331A (zh) * 2021-01-04 2021-04-06 中国神华能源股份有限公司国华电力分公司 一种位移监测装置及测量方法
CN113446957A (zh) * 2021-05-08 2021-09-28 北京航空航天大学 基于神经网络标定和散斑追踪的三维轮廓测量方法及装置
CN114494455A (zh) * 2022-01-07 2022-05-13 西北工业大学 一种大视角下的位移高精度测量方法
CN114494455B (zh) * 2022-01-07 2024-04-05 西北工业大学 一种大视角下的位移高精度测量方法
CN114708333A (zh) * 2022-03-08 2022-07-05 智道网联科技(北京)有限公司 自动标定相机外参模型的生成方法及装置
CN114708333B (zh) * 2022-03-08 2024-05-31 智道网联科技(北京)有限公司 自动标定相机外参模型的生成方法及装置

Similar Documents

Publication Publication Date Title
CN106127789A (zh) 结合神经网络与虚拟靶标的立体视觉标定方法
CN108053450A (zh) 一种基于多约束的高精度双目相机标定方法
US10048226B2 (en) Imaging method and apparatus based on magnetic flux leakage testing
CN104729534B (zh) 合作目标的单目视觉误差测量系统及误差限量化方法
CN102032878B (zh) 基于双目立体视觉测量系统的精确在线测量方法
CN110443879B (zh) 一种基于神经网络的透视误差补偿方法
CN101398933B (zh) 一种从图像中恢复三维几何信息的方法
CN109323650A (zh) 视觉图像传感器与点光测距传感器测量坐标系的统一方法
CN106600647A (zh) 一种双目视觉多线投影结构光标定方法
CN1971206A (zh) 基于一维靶标的双目视觉传感器校准方法
CN103033132A (zh) 基于单目视觉的平面测量方法及装置
CN103673976A (zh) 复合式精度测量坐标系的转换与统一方法及系统
CN107014399A (zh) 一种星载光学相机‑激光测距仪组合系统联合检校方法
CN106443587A (zh) 一种高分辨率的快速反卷积声源成像算法
Yang et al. Flexible and accurate implementation of a binocular structured light system
CN110009667A (zh) 基于罗德里格斯变换的多视点云全局配准方法
CN110345921A (zh) 立体视场视觉测量及垂轴像差和轴向像差校正方法及系统
CN114332191A (zh) 三维点云误差补偿方法及装置
CN104634248A (zh) 一种双目视觉下的转轴标定方法
CN108088383A (zh) 一种应用于起重机械的摄影测量算法
CN108489468B (zh) 三线阵影像外方位元素平滑方程自适应光束法平差方法
CN104048649A (zh) 一种多视影像与三维模型的快速配准方法
CN113870366A (zh) 基于位姿传感器的三维扫描系统的标定方法及其标定系统
CN106842203A (zh) 一种三维天线阵列综合孔径辐射计的图像反演方法
CN106671081B (zh) 一种基于单目视觉的少自由度机器人运动学标定方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161116