CN110443879A - 一种基于神经网络的透视误差补偿方法 - Google Patents
一种基于神经网络的透视误差补偿方法 Download PDFInfo
- Publication number
- CN110443879A CN110443879A CN201910672485.1A CN201910672485A CN110443879A CN 110443879 A CN110443879 A CN 110443879A CN 201910672485 A CN201910672485 A CN 201910672485A CN 110443879 A CN110443879 A CN 110443879A
- Authority
- CN
- China
- Prior art keywords
- perspective
- pixel coordinate
- neural network
- chessboard
- under
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明属于机器人视觉测量领域,并公开了一种基于神经网络的透视误差补偿方法。该方法包括下列步骤:(a)计算标定棋盘的正投影和预设角度之间像素坐标转换的透视变换矩阵;(b)对在预设角度下标定棋盘上每个点的像素坐标进行透视变换获得透视像素坐标,调整透视像素坐标获得每个点的参考坐标;(c)以透视像素坐标为输入,每个点的参考坐标与其在正投影下的像素坐标之差为输出,训练神经网络结构获得神经网络模型;(d)对于机器人视觉测量过程中的待补偿点,将其透视像素坐标输入神经网络模型中获得误差补偿值,对透视像素坐标进行补偿获得最终所需的像素坐标值,以此实现透视误差补偿。通过本发明,提高透视误差补偿精度,简化补偿过程。
Description
技术领域
本发明属于机器人视觉测量领域,更具体地,涉及一种基于神经网络的透视误差补偿方法。
背景技术
透视变换是中心投影的射影变换,在用非齐次射影坐标表达时是平面的分式线性变换。透视变换常用在移动机器人视觉导航研究中,由于摄像机与地面之间有一倾斜角,而不是直接垂直朝下(正投影),有时希望将图像校正成正投影的形式,就需要利用透视变换。
把空间坐标系中的三维物体或对象转变为二维图像表示的过程称为投影变换,根据投影中心与投影平面之间距离的不同,投影可分为平行投影和透视投影,透视投影即透视变换,平行投影的投影中心与投影平面之间的距离为无穷大,而对透视变换而言,此距离是有限的,透视投影具有透视缩小效应的特点,即三维物体或对象透视投影的大小与形体到投影中心的距离成反比。例如,等长的两直线段都平行于投影面,但离投影中心近的线段透视投影大,而离投影中心远的线段透视投影小,该效应所产生的视觉效果与人的视觉系统类似,与平行投影相比,透视投影的深度感更强,看上去更真实,但透视投影图不能真实地反映物体的精确尺寸和形状。
在传统的机器视觉测量系统中,为了获得物体的长度、距离等信息,需要首先通过标定,确定平面像素坐标与世界坐标之间的变换矩阵,然后根据图像中点的像素坐标,获取被测物体的相关参数,然而在成像过程中,由于存在被测物偏离标定平面的情况以及相机内部的成像误差,便会造成透视投影成像误差,对于相机内部的成像误差,多采用传统相机畸变模型以及张氏标定法进行误差补偿,以前的方法大多采用对各种误差分别补偿的策略,不仅忽略了它们之间的耦合性,而且使得误差补偿过程复杂冗长,实际应用困难,因此,目前急需一种误差补偿过程简单,实际应用方便的误差补偿方法。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于神经网络的透视误差补偿方法,其目的在于通过神经网络算法对在机器人视觉神经网络中获得的图像进行透视误差补偿,由此解决现有的透视误差补偿过程中的计算复杂,精度低的技术问题。
为实现上述目的,按照本发明,提供了一种基于神经网络的透视误差补偿方法,该方法包括下列步骤:
(a)对于包括有多个等间距点的标定棋盘,获取其在正投影下和预设角度下的图像,以此获得所述标定棋盘上每个点分别在正投影下和预设角度下的像素坐标,利用所述标定棋盘上的顶点在所述正投影下和预设角度下的像素坐标,计算正投影和预设角度之间像素坐标转换的透视变换矩阵;
(b)利用所述透视变换矩阵对在所述预设角度下所述标定棋盘上每个点的像素坐标进行透视变换,以此获得在所述预设角度下所述标定棋盘上每个点的透视像素坐标,根据所述标定棋盘的点间距调整每个点的所述透视像素坐标,以此获得所述棋盘上每个点对应的参考坐标;
(c)选取神经网络结构,将每个点的所述透视像素坐标作为输入,所述每个点的参考坐标与该点在正投影下的像素坐标之差作为输出,训练所述神经网络结构,以此获得所需的神经网络模型;
(d)对于机器人视觉测量过程中的待补偿点,将其透视像素坐标输入所述神经网络模型中,以此获得其对应的输出值,即误差补偿值,利用该误差补偿值对所述透视像素坐标进行补偿即获得所述待补偿点最终所需的像素坐标值,以此实现机器人视觉测量过程中点的透视误差补偿。
进一步优选地,在步骤(a)中,所述计算正投影和预设角度之间像素坐标转换的透视变换矩阵,优选按照下列步骤进行:
(a1)利用所述标定棋盘的点间距对在所述预设角度下所述标定棋盘上的顶点坐标进行调整,使得调整后的顶点像素坐标形成方形,以此获得所述顶点在所述预设角度下调整后的像素坐标;
(a2)计算所述标定棋盘上多个的顶点在所述正投影下的像素坐标和所述预设角度下调整后的像素坐标之间的转换矩阵,该转换矩阵即为所需的透视变换矩阵。
进一步优选地,在步骤(a1)中,所述使得调整后的顶点像素坐标形成方形,该方形与所述棋盘的尺寸大小相同。
进一步优选地,在步骤(a1)中,所述利用标定棋盘的点间距对在所述预设角度下所述标定棋盘上的顶点坐标进行调整,优选采用最小均方差损失函数进行调整。
进一步优选地,在步骤(a)中,所述标定棋盘为m×n的棋盘,其中,m和n分别为所述标定棋盘水平方向和竖直方向方格的数量。
进一步优选地,在步骤(b)中,所述神经网络结构优选采用BP神经网络结构,其中包括一个输入层,多个全连接中间层和一个输出层。
进一步优选地,在步骤(d)中,所述用该误差值对所述透视像素坐标进行补偿,优选将所述待补偿点的透视像素坐标减去所述补偿值,即获得最终所需的像素坐标值。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
1、本发明通过利用标定棋盘构建样本数据,一方面考虑到在透视变换过程中的典型性,另一方面标定棋盘中每个点的坐标实时已知,计算方便,简单快捷;
2、本发明通过BP神经网络学习位于图像不同位置的点在透视变换时的误差,可以精确补偿由多种复杂因素导致的变换误差;只需通过一张棋盘图即可确定一个平面的透视变换误差,操作简单,可行性高。
附图说明
图1是按照本发明的优选实施例所构建的一种基于神经网络的透视误差补偿方法的流程图;
图2是按照本发明的优选实施例所构建的标定棋盘的正投影图像;
图3是按照本发明的优选实施例所构建的在预设角度下标定棋盘的图像;
图4是按照本发明的优选实施例所构建的图3进行透视变换后获得的图像;
图5是按照本发明的优选实施例所构建的BP神经网络结构示意图;
图6是按照本发明的优选实施例所构建的进行透视补偿后的补偿效果曲线。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,一种基于神经网络的透视误差补偿方法,其包括下列步骤:
步骤1、采集训练样本:通过一副m×n标定棋盘图上的四个关键角点,计算出变换矩阵M,使用变换矩阵对原图进行透视变换,将透视变换后的(m-1)×(n-1)个关键点像素坐标作为训练样本,如图2所示,标定棋盘上的每个点是等间距的,点间距已知,具体地:
1.1在需要进行透视变换的平面上合适的摆放棋盘,使用相机进行拍摄,获得正投影下和预设角度下的两个图像以及图像中每个点的像素坐标,如图2所示,为拍摄的正投影下的棋盘的图像,如3所示,是在预设角度下标定棋盘的图像,提取棋盘格的四个顶点,使用棋盘上的四个顶点计算透视变换矩阵M,对原图使用矩阵M进行透视变换;
1.2对图3图像中的m×n个点进行透视变换获得透视像素坐标,如图4所示,是对图3进行透视变换后获得的图像,将其做为训练样本,根据标定棋盘的点间距调整每个点的透视像素坐标,以此获得棋盘上每个点对应的参考坐标,例如,可设左上角的角点坐标为(0,0),则其右侧相邻点和下方相邻点的坐标为(100,0),(0,100),标定棋盘上相邻的点间距已知,若设每格200个像素,则上面坐标变为(200,0),(0,200),这个变换过程中采用最小均方差损失函数进行变换;
1.3参考坐标和透视像素坐标作差求得透视变换误差,将其作为输出;
步骤2、搭建神经网络学习框架:如图5所示,采用BP神经网络,网络包括由两个神经元组成的输入层,三个分别由p个神经元组成的中间层;以及由两个神经元组成的输出层,各层之间采用全连接的连接方式。
步骤3、利用神经网络对训练样本进行训练:输入为透视变换后的关键点坐标,将x坐标像素偏差和y坐标像素偏差作为标签,例如参考坐标为(200,200),而透视变换后的透视像素坐标为(199.4,200.9),则误差为(-0.6,0.9),采用最小均方差损失函数,用Adam优化器优化网络。
步骤4、得到训练模型:得到训练模型,将待补偿的透视变换图像关键点作为输入,通过模型即可得到透视变换的像素误差,由像素误差和变换大小比例即可求得实际的坐标值。
步骤5、对于机器人视觉测量过程中的待补偿点,将其透视像素坐标输入神经网络模型中,以此获得其对应的输出值,即误差补偿值,利用该误差值对透视像素坐标进行补偿即获得待补偿点最终所需的像素坐标值,以此实现机器人视觉测量过程中点的透视误差补偿。
如图6所示,是进行透视误差补偿后获得的点的像素坐标的验证曲线,其中x和y坐标分别对应棋盘格图片上的像素坐标x和y,z坐标表示经过透视变换的图片上的点与其对应的真实正投影图片上的点之间的欧氏距离,图6中的叉点表示校正前的误差,圆圈表示校正后的误差,校正后的误差满足预期精度要求,同时因为是神经网络学习算法,故本发明最终能达到的要求指标取决于所给网络学习的数据集的数据优劣。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于神经网络的透视误差补偿方法,其特征在于,该方法包括下列步骤:
(a)对于包括有多个等间距点的标定棋盘,获取其在正投影下和预设角度下的图像,以此获得所述标定棋盘上每个点分别在正投影下和预设角度下的像素坐标,利用所述标定棋盘上的顶点在所述正投影下和预设角度下的像素坐标,计算正投影和预设角度之间像素坐标转换的透视变换矩阵;
(b)利用所述透视变换矩阵对在所述预设角度下所述标定棋盘上每个点的像素坐标进行透视变换,以此获得在所述预设角度下所述标定棋盘上每个点的透视像素坐标,根据所述标定棋盘的点间距调整每个点的所述透视像素坐标,以此获得所述棋盘上每个点对应的参考坐标;
(c)选取神经网络结构,将每个点的所述透视像素坐标作为输入,所述每个点的参考坐标与该点在正投影下的像素坐标之差作为输出,训练所述神经网络结构,以此获得所需的神经网络模型;
(d)对于机器人视觉测量过程中的待补偿点,将其透视像素坐标输入所述神经网络模型中,以此获得其对应的输出值,即误差补偿值,利用该误差补偿值对所述透视像素坐标进行补偿即获得所述待补偿点最终所需的像素坐标值,以此实现机器人视觉测量过程中点的透视误差补偿。
2.如权利要求1所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(a)中,所述计算正投影和预设角度之间像素坐标转换的透视变换矩阵,优选按照下列步骤进行:
(a1)利用所述标定棋盘的点间距对在所述预设角度下所述标定棋盘上的顶点坐标进行调整,使得调整后的顶点像素坐标形成方形,以此获得所述顶点在所述预设角度下调整后的像素坐标;
(a2)计算所述标定棋盘上多个的顶点在所述正投影下的像素坐标和所述预设角度下调整后的像素坐标之间的转换矩阵,该转换矩阵即为所需的透视变换矩阵。
3.如权利要求1或2所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(a1)中,所述使得调整后的顶点像素坐标形成方形,该方形与所述棋盘的尺寸大小相同。
4.如权利要求1所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(a1)中,所述利用标定棋盘的点间距对在所述预设角度下所述标定棋盘上的顶点坐标进行调整,优选采用最小均方差损失函数进行调整。
5.如权利要求1所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(a)中,所述标定棋盘为m×n的棋盘,其中,m和n分别为所述标定棋盘水平方向和竖直方向方格的数量。
6.如权利要求1所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(b)中,所述神经网络结构优选采用BP神经网络结构,其中包括一个输入层,多个全连接中间层和一个输出层。
7.如权利要求1~6任一项所述的一种基于神经网络的透视误差补偿方法,其特征在于,在步骤(d)中,所述用该误差值对所述透视像素坐标进行补偿,优选将所述待补偿点的透视像素坐标减去所述补偿值,即获得最终所需的像素坐标值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672485.1A CN110443879B (zh) | 2019-07-24 | 2019-07-24 | 一种基于神经网络的透视误差补偿方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910672485.1A CN110443879B (zh) | 2019-07-24 | 2019-07-24 | 一种基于神经网络的透视误差补偿方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110443879A true CN110443879A (zh) | 2019-11-12 |
CN110443879B CN110443879B (zh) | 2021-06-11 |
Family
ID=68431392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910672485.1A Active CN110443879B (zh) | 2019-07-24 | 2019-07-24 | 一种基于神经网络的透视误差补偿方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443879B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111015676A (zh) * | 2019-12-16 | 2020-04-17 | 中国科学院深圳先进技术研究院 | 基于无手眼标定的抓取学习控制方法、系统、机器人及介质 |
CN111460919A (zh) * | 2020-03-13 | 2020-07-28 | 华南理工大学 | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 |
CN112734832A (zh) * | 2021-01-22 | 2021-04-30 | 逆可网络科技有限公司 | 一种即时获得线上物体实际尺寸测量方法 |
CN112991464A (zh) * | 2021-03-19 | 2021-06-18 | 山东大学 | 基于立体视觉的三维重建的点云误差补偿方法及系统 |
CN113052919A (zh) * | 2021-04-23 | 2021-06-29 | 深圳市商汤科技有限公司 | 一种视觉传感器的标定方法及装置、电子设备和存储介质 |
CN113160303A (zh) * | 2021-04-30 | 2021-07-23 | 南京金智视讯技术有限公司 | 一种基于道路影像的路面病害影响面积计算方法 |
CN113240829A (zh) * | 2021-02-24 | 2021-08-10 | 南京工程学院 | 一种基于机器视觉的闸机智能通行检测方法 |
CN113487668A (zh) * | 2021-05-25 | 2021-10-08 | 北京工业大学 | 一种半径不受限的可学习柱面反投影方法 |
CN118229890A (zh) * | 2024-05-23 | 2024-06-21 | 中建六局土木工程有限公司 | 一种基于bim技术的钢网架参数化建模和计算方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101199370A (zh) * | 2007-12-13 | 2008-06-18 | 重庆大学 | 机器人服装触觉传感信息融合数据处理方法 |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
WO2014060001A1 (en) * | 2012-09-13 | 2014-04-24 | FRENKEL, Christina | Multitransmitter model of the neural network with an internal feedback |
CN103942796A (zh) * | 2014-04-23 | 2014-07-23 | 清华大学 | 一种高精度的投影仪-摄像机标定系统及标定方法 |
CN106483642A (zh) * | 2016-12-14 | 2017-03-08 | 舜宇光学(中山)有限公司 | 一种基于机器视觉的双远心镜头 |
CN108478222A (zh) * | 2017-12-21 | 2018-09-04 | 北京精密机电控制设备研究所 | 一种基于神经网络的关节角误差补偿实验装置及方法 |
CN110020618A (zh) * | 2019-03-27 | 2019-07-16 | 江南大学 | 一种可用于多拍摄角度的人群异常行为监测方法 |
-
2019
- 2019-07-24 CN CN201910672485.1A patent/CN110443879B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101199370A (zh) * | 2007-12-13 | 2008-06-18 | 重庆大学 | 机器人服装触觉传感信息融合数据处理方法 |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
WO2014060001A1 (en) * | 2012-09-13 | 2014-04-24 | FRENKEL, Christina | Multitransmitter model of the neural network with an internal feedback |
CN103942796A (zh) * | 2014-04-23 | 2014-07-23 | 清华大学 | 一种高精度的投影仪-摄像机标定系统及标定方法 |
CN106483642A (zh) * | 2016-12-14 | 2017-03-08 | 舜宇光学(中山)有限公司 | 一种基于机器视觉的双远心镜头 |
CN108478222A (zh) * | 2017-12-21 | 2018-09-04 | 北京精密机电控制设备研究所 | 一种基于神经网络的关节角误差补偿实验装置及方法 |
CN110020618A (zh) * | 2019-03-27 | 2019-07-16 | 江南大学 | 一种可用于多拍摄角度的人群异常行为监测方法 |
Non-Patent Citations (3)
Title |
---|
刘俊红: "一种采用神经网络进行预测误差补偿的DMC算法", 《中南大学学报》 * |
孙钊: "机器视觉测量中透视投影误差分析控制与补偿", 《计算机工程与应用》 * |
王跃轩: "机器视觉系统中图像误差补偿方法", 《数据采集与处理》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111015676A (zh) * | 2019-12-16 | 2020-04-17 | 中国科学院深圳先进技术研究院 | 基于无手眼标定的抓取学习控制方法、系统、机器人及介质 |
CN111460919A (zh) * | 2020-03-13 | 2020-07-28 | 华南理工大学 | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 |
CN111460919B (zh) * | 2020-03-13 | 2023-05-26 | 华南理工大学 | 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法 |
CN112734832A (zh) * | 2021-01-22 | 2021-04-30 | 逆可网络科技有限公司 | 一种即时获得线上物体实际尺寸测量方法 |
CN112734832B (zh) * | 2021-01-22 | 2024-05-31 | 逆可网络科技有限公司 | 一种即时获得线上物体实际尺寸测量方法 |
CN113240829A (zh) * | 2021-02-24 | 2021-08-10 | 南京工程学院 | 一种基于机器视觉的闸机智能通行检测方法 |
CN112991464A (zh) * | 2021-03-19 | 2021-06-18 | 山东大学 | 基于立体视觉的三维重建的点云误差补偿方法及系统 |
CN113052919A (zh) * | 2021-04-23 | 2021-06-29 | 深圳市商汤科技有限公司 | 一种视觉传感器的标定方法及装置、电子设备和存储介质 |
CN113160303A (zh) * | 2021-04-30 | 2021-07-23 | 南京金智视讯技术有限公司 | 一种基于道路影像的路面病害影响面积计算方法 |
CN113487668A (zh) * | 2021-05-25 | 2021-10-08 | 北京工业大学 | 一种半径不受限的可学习柱面反投影方法 |
CN113487668B (zh) * | 2021-05-25 | 2024-07-16 | 北京工业大学 | 一种半径不受限的可学习柱面反投影方法 |
CN118229890A (zh) * | 2024-05-23 | 2024-06-21 | 中建六局土木工程有限公司 | 一种基于bim技术的钢网架参数化建模和计算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110443879B (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443879A (zh) | 一种基于神经网络的透视误差补偿方法 | |
CN107063129B (zh) | 一种阵列式并行激光投影三维扫描方法 | |
CN103530880B (zh) | 基于投影高斯网格图案的摄像机标定方法 | |
CN108198223A (zh) | 一种激光点云与视觉图像映射关系快速精确标定方法 | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN107507235A (zh) | 一种基于rgb‑d设备采集的彩色图像和深度图像的配准方法 | |
CN109443209A (zh) | 一种基于单应性矩阵的线结构光系统标定方法 | |
CN109961485A (zh) | 一种基于单目视觉进行目标定位的方法 | |
CN111486864B (zh) | 基于立体正八边结构的多源传感器联合标定方法 | |
CN107610183B (zh) | 一种条纹投影相位高度转换映射模型的标定方法 | |
CN107449374A (zh) | 柔性布局的视觉辅助激光振镜扫描系统及其现场校准方法 | |
CN113446957B (zh) | 基于神经网络标定和散斑追踪的三维轮廓测量方法及装置 | |
CN109934878A (zh) | 一种基于相机坐标系的线性标定系统及其方法 | |
CN104048649B (zh) | 一种多视影像与三维模型的快速配准方法 | |
CN110349257B (zh) | 一种基于相位伪映射的双目测量缺失点云插补方法 | |
CN114998448B (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN106952262A (zh) | 一种基于立体视觉的船板加工精度分析方法 | |
CN112050752B (zh) | 一种基于二次投影的投影仪标定方法 | |
CN104156974A (zh) | 基于多重约束的摄像机畸变标定方法 | |
CN109341588B (zh) | 一种双目结构光三系统法视角加权的三维轮廓测量方法 | |
CN115326025A (zh) | 一种用于海浪的双目影像测量与预测方法 | |
CN116527856B (zh) | 球幕影院的播放控制方法、装置、设备及存储介质 | |
CN115546266B (zh) | 基于局部法向相关的多条带机载激光点云配准方法 | |
CN108895979A (zh) | 线段编码的结构光深度获取方法 | |
CN107240133A (zh) | 一种立体视觉映射模型建立方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |