CN114935316B - 基于光学跟踪与单目视觉的标准深度图像生成方法 - Google Patents
基于光学跟踪与单目视觉的标准深度图像生成方法 Download PDFInfo
- Publication number
- CN114935316B CN114935316B CN202210549489.2A CN202210549489A CN114935316B CN 114935316 B CN114935316 B CN 114935316B CN 202210549489 A CN202210549489 A CN 202210549489A CN 114935316 B CN114935316 B CN 114935316B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate system
- depth
- depth image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003287 optical effect Effects 0.000 title claims abstract description 41
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 239000012526 feed medium Substances 0.000 claims description 3
- 239000002609 medium Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 239000003550 marker Substances 0.000 abstract description 7
- 238000003384 imaging method Methods 0.000 abstract description 6
- 230000011218 segmentation Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
基于光学跟踪与单目视觉的标准深度图像生成方法属于计算机视觉成像技术领域,目的在于解决现有技术中存在的深度相机在狭小场景内难以获取深度信息的局限性的问题。本发明包括以下步骤:构建测量装置,所述测量装置包括光学跟踪系统、带有四个标记求的单目相机以及标定板,标定板坐标系原点设为OA,单目相机的光心OB设为相机坐标系原点,标记球坐标系设为OC,光学跟踪系统坐标系设为OD;计算得到测量装置中所有坐标系之间的转换关系;改变单目相机视点进行三角测量,并计算改变单目相机视点前后每一个特征点的深度值,得到初始深度图像;对初始深度图像的弱纹理区域进行深度补全,获得补全后的标准深度图像。
Description
技术领域
本发明属于计算机视觉成像技术领域,具体涉及一种基于光学跟踪与单目视觉的标准深度图像生成方法。
背景技术
目前深度信息最直接的获取来源为深度相机,通过简单拍摄即可获得对应场景的深度图。深度相机受到使用场景的限制,在相对狭窄的空间里很难发挥作用。深度学习领域,有研究者使用神经网络来估计图像深度,用作训练方向的深度图却通过图像合成的方式生成,这样的数据并不能作为标准深度图像来使用。
现有的测量方法,不论是通过深度相机直接获取场景深度还是通过双目相机进行测量的办法,在极为狭小的空间内都很难发挥作用。使用深度相机的方法方法会受到使用场景的限制。当获取深度图的场景狭小且亮度变化不明显时,深度相机就很难完成深度图获取的任务。
发明内容
本发明的目的在于提出一种基于光学跟踪与单目视觉的标准深度图像生成方法,解决现有技术中存在的深度相机在狭小场景内难以获取深度信息的局限性的问题,使用基于单目相机和光学跟踪系统的测量方法来突破狭小环境带来的局限性。在不影响深度图生成质量的情况下,完成狭小场景内的标准深度图像生成任务。
为实现上述目的,本发明的基于光学跟踪与单目视觉的标准深度图像生成方法包括以下步骤:
步骤一:构建测量装置,所述测量装置包括光学跟踪系统、带有四个标记求的单目相机以及标定板,标定板坐标系原点设为OA,单目相机的光心OB设为相机坐标系原点,标记球坐标系设为OC,光学跟踪系统坐标系设为OD;
步骤二:计算得到步骤一中的测量装置中所有坐标系之间的转换关系;
步骤三:改变步骤一中单目相机视点进行三角测量,并计算改变单目相机视点前后每一个特征点的深度值,得到初始深度图像;
步骤四:对步骤三中获得的初始深度图像的弱纹理区域进行深度补全,获得补全后的标准深度图像。
步骤二中所述的计算得到所有坐标系之间的转换关系具体为:
将光学跟踪坐标系设置为世界坐标系,在时刻k,标记球相对于世界坐标系的位姿为Mk,通过光学跟踪系统直接获得;
相机坐标系相对于标定板坐标系的位姿为Nk,通过相机标定直接获得;
将标记球坐标系与相机坐标系之间的转换矩阵记为X,则有:
MkX=Nk (1)
同样的在k+1时刻有:
Mk+1X=Nk+1 (2)
那么:
最终求解方程为:
MX=XN (4)
其中:
拍摄十组图片组成线性方程组来求解得到X矩阵。
步骤三中所述的每一个特征点的深度值的计算过程为:
第一视点相机光心设为OE,转换后的第二视点相机光心设为OF;两个视点间坐标系的变换矩阵为TEF,所述TEF包括旋转矩阵REF和平移向量tEF;
在第一视点拍摄图像IE中存在特征点pe,对应第二视点拍摄图像IF中的特征点pf;OEpe与OFpf交于一个相同的空间点P,按照极平面的定义,设特征点pe与pf的归一化坐标分别为xe和xf;则它们满足:
sfxf=seREFxe+tEF (6)
其中:se为第一视点拍摄图像IE中特征点pe深度;
sf为第二视点拍摄图像IF中特征点pf深度;
求解se,将公式(6)等式两端乘特征点归一化坐标的反对称矩阵xf^,变为如下形式:
sfxf^xf=0=sexf^REFxe+xf^tEF (7)
将得到的se代入公式(6)求解sf。
步骤三中三角测量过程中还包括解决累计漂移问题,具体为:
采用局部光束平差的方法调整单目相机的位姿,使两个特征点se和sf来自于同一个空间点P的投影;其中ui为空间点投影的像素坐标,K为单目相机内参,si为像素坐标与图像坐标系之间的缩放比例,像素ui位置与空间点P位置关系为:
siui=KTEFPi (8)
其中:Pi为3D点的空间坐标;
将各个特征点的误差构成一个最小二乘问题,根据公式(9)实时更新最优的相机位姿,使误差最小化:
其中:Pi为3D点的空间坐标;
TEF *代表更新优化后的变换矩阵。
步骤四中所述的对步骤三中获得的初始深度图像的弱纹理区域进行深度补全具体为:
1)采用亮度一致性分割的方法将拍摄的原始图像中的弱纹理区域分割出来,弱纹理区域满足条件:弱纹理处视差的连续性,弱纹理区域中必定会存在一些可见纹理,弱纹理区域所表示的表面能用一个平面来近似;
2)每个像素点用一个五维向量表示,前两维表示像素点坐标,后三维为像素点的颜色分量;从颜色分布最密集的地方开始,借助一个滑动窗口将像素点归类并统一像素值,滑动窗口中包含了滑动区间和区间内像素点归类的标准;
3)对原始图像基于颜色的亮度一致性分割,分割成多个小块,将初步分割的每一个小块设为Si,将每一小块内的视差联通块设为Sik,根据假设每个块都可以近似成一个平面,寻找各个Si块中的最优视差平面;
4)选择使能量方程最小化的最优视差平面作为最佳拟合平面,将弱纹理区域内的视差全部替换为最佳拟合平面所对应的视差;根据深度与视差的关系,将视差补全后的图像转换为密集深度图,作为标准深度图像。
本发明的有益效果为:本发明使用小体积单目相机来代替大型深度相机,解决狭小场景带来的局限性,与大场景使用的深度相机相比,大幅度降低了使用成本。单目相机在体积上能适用于更多的场景,使深度图测量任务不再受到场景的限制。在测量中通过改变单目相机视点的方法来模拟双目相机成像,使用三角测量方法计算每一个特征点的深度值。本发明使用局部光束平差方法来解决累积漂移问题。完成上述步骤后,对弱纹理区域进行深度补全,本发明采用亮度一致性分割的方法将稀疏深度图分块,在分割出的每个子块中对特征点缺失的区域进行深度值填充。最终得到高质量深度图。由本申请获得的标准深度图像,可用于判断基于深度学习的图像深度估计算法的精度。
附图说明
图1为本发明的基于光学跟踪与单目视觉的标准深度图像生成方法构建的测量装置结构示意图;
图2为本发明的基于光学跟踪与单目视觉的标准深度图像生成方法中三角测量示意图;
其中:1、光学跟踪系统,2、单目相机,3、标记球,4、标定板。
具体实施方式
下面结合附图对本发明的实施方式作进一步说明。
参见附图1和附图2,本发明的基于光学跟踪与单目视觉的标准深度图像生成方法包括以下步骤:
步骤一:构建测量装置,所述测量装置包括光学跟踪系统1、带有四个标记求的单目相机2以及标定板4,标定板4坐标系原点设为OA,单目相机2的光心OB设为相机坐标系原点,标记球3坐标系设为OC,光学跟踪系统1坐标系设为OD;
步骤二:计算得到步骤一中的测量装置中所有坐标系之间的转换关系;
步骤三:改变步骤一中单目相机2视点进行三角测量,并计算改变单目相机2视点前后每一个特征点的深度值,得到初始深度图像;视点的改变依靠人的移动,拍摄角度发生变化时视为视点的变化,改变后两个视点之间依然满足对极几何的原理;相机改变位置后,对两幅视图中的每一个特征点进行三角测量,进而得出每一个特征点的深度值;
步骤四:对步骤三中获得的初始深度图像的弱纹理区域进行深度补全,获得补全后的标准深度图像。
步骤二中所述的计算得到所有坐标系之间的转换关系具体为:
将光学跟踪坐标系设置为世界坐标系,在时刻k,标记球3相对于世界坐标系的位姿为Mk,通过光学跟踪系统1直接获得;
相机坐标系相对于标定板4坐标系的位姿为Nk,通过相机标定直接获得;
将标记球3坐标系与相机坐标系之间的转换矩阵记为X,则有:
MkX=Nk (1)
同样的在k+1时刻有:
Mk+1X=Nk+1 (2)
那么:
最终求解方程为:
MX=XN (4)
其中:
由于标定的结果每一次都不同,所以拍摄十组图片组成线性方程组来求解得到X矩阵。
步骤三中所述的每一个特征点的深度值的计算过程为:
第一视点相机光心设为OE,转换后的第二视点相机光心设为OF;两个视点间坐标系的变换矩阵为TEF,所述TEF包括旋转矩阵REF和平移向量tEF;
在第一视点拍摄图像IE中存在特征点pe,对应第二视点拍摄图像IF中的特征点pf;OEpe与OFpf交于一个相同的空间点P,按照极平面的定义,设特征点pe与pf的归一化坐标分别为xe和xf;则它们满足:
sfxf=seREFxe+tEF (6)
其中:se为第一视点拍摄图像IE中特征点pe深度;
sf为第二视点拍摄图像IF中特征点pf深度;
空间中同一个3D点投影在两个视点相机的成像平面上,REF和tEF分别表示两幅图像中同一个像素点的转换关系;tEF通过传感器直接测量获得,REF需要借助相机标定时的内参计算得到;
求解se,将公式(6)等式两端乘特征点归一化坐标的反对称矩阵xf^,变为如下形式:
sfxf^xf=0=sexf^REFxe+xf^tEF (7)
将得到的se代入公式(6)求解sf。
深度与视差的关系为无论是需要深度图或者是后面对视差图进行视差补全是通过简单的转换即可。
步骤三中三角测量过程中还包括解决累计漂移问题,具体为:
采用局部光束平差的方法调整单目相机2的位姿,使两个特征点se和sf来自于同一个空间点P的投影;其中ui为空间点投影的像素坐标,K为单目相机2内参,si为像素坐标与图像坐标系之间的缩放比例,像素ui位置与空间点P位置关系为:
siui=KTEFPi (8)
其中:Pi就是3D点的空间坐标,这个公式实质反映了空间3D点和成像平面像素点之间的转换关系。
将各个特征点的误差构成一个最小二乘问题,根据公式(9)实时更新最优的相机位姿,使误差最小化:
其中:TEF *代表更新优化后的变换矩阵(里面包括优化后的旋转和平移)Pi这里依然代表特征点的3D坐标
Pi就是3D点的空间坐标,这个公式实质反映了空间3D点和成像平面像素点之间的转换关系。
累计漂移是由于视觉里程计只估计两个图像间的运动造成的,每次估计都会带来一定的误差,这种误差会传递到下一时刻。在测量过程中由于相机位姿未知以及观测点的噪声,因此把特征点误差求和构建最小二乘问题,寻找最好的相机位姿,使公式(9)最小化,方程中的误差项是将像素坐标与3D点按照当前估计的位姿进行投影得到的位置相比较得到的误差。
步骤四中所述的对步骤三中获得的初始深度图像的弱纹理区域进行深度补全具体为:
1)采用亮度一致性分割的方法将拍摄的原始图像中的弱纹理区域分割出来,弱纹理区域满足条件:弱纹理处视差的连续性,弱纹理区域中必定会存在一些可见纹理,弱纹理区域所表示的表面能用一个平面来近似;弱纹理区域是亮度变化不明显的区域,特征稀疏的区域;
2)每个像素点用一个五维向量表示,前两维表示像素点坐标,后三维为像素点的颜色分量;从颜色分布最密集的地方开始,借助一个滑动窗口将像素点归类并统一像素值,滑动窗口中包含了滑动区间和区间内像素点归类的标准;设定的滑动窗口用来覆盖拍摄的原始图像,用第一视点中覆盖区域中像素值的灰度值减去第二视点中像素值的灰度值,像素值归类是看视差值的大小判断当前区域为前景区域还是背景区域;
3)对原始图像基于颜色的亮度一致性分割,分割成多个小块,将初步分割的每一个小块设为Si,将每一小块内的视差联通块设为Sik,根据假设每个块都可以近似成一个平面,寻找各个Si块中的最优视差平面;视差联通块可以称为视差联通区域,代表这一部分中视差时连续的,不间断的;在优化之前,按照颜色分类对初始图像进行亮度一致性分割,在这个分割算法中会为分割面积设置一个阈值100,面积小于100会舍弃掉该块;能量方程将每一个视差联通块Sik内使能量方程最小的区域定义为该区域的最优视差平面;
4)选择使能量方程最小化的最优视差平面作为最佳拟合平面,将弱纹理区域内的视差全部替换为最佳拟合平面所对应的视差;根据深度与视差的关系,将视差补全后的图像转换为密集深度图,作为标准深度图像;能量方程中第一项是视差为D时所有像素匹配代价之和,第二项表示对像素点p的邻域中的所有像素q增加一个惩罚常数p1,第三项增加一个惩罚常数p2。P1是为了适应倾斜或弯曲的表面,p2是为了保留不连续性。深度与视差的关系为其中,深B为基线距离,f为焦距,d为两帧图像之间的视差值。
Claims (4)
1.基于光学跟踪与单目视觉的标准深度图像生成方法,其特征在于,包括以下步骤:
步骤一:构建测量装置,所述测量装置包括光学跟踪系统(1)、带有四个标记求的单目相机(2)以及标定板(4),标定板(4)坐标系原点设为OA,单目相机(2)的光心OB设为相机坐标系原点,标记球(3)坐标系设为OC,光学跟踪系统(1)坐标系设为OD;
步骤二:计算得到步骤一中的测量装置中所有坐标系之间的转换关系;
步骤三:改变步骤一中单目相机(2)视点进行三角测量,并计算改变单目相机(2)视点前后每一个特征点的深度值,得到初始深度图像;
步骤四:对步骤三中获得的初始深度图像的弱纹理区域进行深度补全,获得补全后的标准深度图像;
步骤三中三角测量过程中还包括解决累计漂移问题,具体为:
采用局部光束平差的方法调整单目相机(2)的位姿,使两个特征点se和sf来自于同一个空间点P的投影;其中ui为空间点投影的像素坐标,K为单目相机(2)内参,si为像素坐标与图像坐标系之间的缩放比例,像素ui位置与空间点P位置关系为:
siui=KTEFPi (8)
其中:Pi为3D点的空间坐标;
第一视点相机光心设为OE,转换后的第二视点相机光心设为OF;两个视点间坐标系的变换矩阵为TEF;
将各个特征点的误差构成一个最小二乘问题,根据公式(9)实时更新最优的相机位姿,使误差最小化:
其中:Pi为3D点的空间坐标;
TEF *代表更新优化后的变换矩阵。
2.根据权利要求1所述的基于光学跟踪与单目视觉的标准深度图像生成方法,其特征在于,步骤二中所述的计算得到所有坐标系之间的转换关系具体为:
将光学跟踪坐标系设置为世界坐标系,在时刻k,标记球(3)相对于世界坐标系的位姿为Mk,通过光学跟踪系统(1)直接获得;
相机坐标系相对于标定板(4)坐标系的位姿为Nk,通过相机标定直接获得;
将标记球(3)坐标系与相机坐标系之间的转换矩阵记为X,则有:
MkX=Nk (1)
同样的在k+1时刻有:
Mk+1X=Nk+1 (2)
那么:
最终求解方程为:
MX=XN (4)
其中:
拍摄十组图片组成线性方程组来求解得到X矩阵。
3.根据权利要求1或2所述的基于光学跟踪与单目视觉的标准深度图像生成方法,其特征在于,步骤三中所述的每一个特征点的深度值的计算过程为:
第一视点相机光心设为OE,转换后的第二视点相机光心设为OF;两个视点间坐标系的变换矩阵为TEF,所述TEF包括旋转矩阵REF和平移向量tEF;
在第一视点拍摄图像IE中存在特征点pe,对应第二视点拍摄图像IF中的特征点pf;OEpe与OFpf交于一个相同的空间点P,按照极平面的定义,设特征点pe与pf的归一化坐标分别为xe和xf;则它们满足:
sfxf=srREFxe+tEF (6)
其中:se为第一视点拍摄图像IE中特征点pe深度;
sf为第二视点拍摄图像IF中特征点pf深度;
求解se,将公式(6)等式两端乘特征点归一化坐标的反对称矩阵变为如下形式:
将得到的se代入公式(6)求解sf。
4.根据权利要求1所述的基于光学跟踪与单目视觉的标准深度图像生成方法,其特征在于,步骤四中所述的对步骤三中获得的初始深度图像的弱纹理区域进行深度补全具体为:
1)采用亮度一致性分割的方法将拍摄的原始图像中的弱纹理区域分割出来,弱纹理区域满足条件:弱纹理处视差的连续性,弱纹理区域中必定会存在一些可见纹理,弱纹理区域所表示的表面能用一个平面来近似;
2)每个像素点用一个五维向量表示,前两维表示像素点坐标,后三维为像素点的颜色分量;从颜色分布最密集的地方开始,借助一个滑动窗口将像素点归类并统一像素值,滑动窗口中包含了滑动区间和区间内像素点归类的标准;
3)对原始图像基于颜色的亮度一致性分割,分割成多个小块,将初步分割的每一个小块设为Si,将每一小块内的视差联通块设为Sik,根据假设每个块都可以近似成一个平面,寻找各个Si块中的最优视差平面;
4)选择使能量方程最小化的最优视差平面作为最佳拟合平面,将弱纹理区域内的视差全部替换为最佳拟合平面所对应的视差;根据深度与视差的关系,将视差补全后的图像转换为密集深度图,作为标准深度图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210549489.2A CN114935316B (zh) | 2022-05-20 | 2022-05-20 | 基于光学跟踪与单目视觉的标准深度图像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210549489.2A CN114935316B (zh) | 2022-05-20 | 2022-05-20 | 基于光学跟踪与单目视觉的标准深度图像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114935316A CN114935316A (zh) | 2022-08-23 |
CN114935316B true CN114935316B (zh) | 2024-03-12 |
Family
ID=82863618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210549489.2A Active CN114935316B (zh) | 2022-05-20 | 2022-05-20 | 基于光学跟踪与单目视觉的标准深度图像生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114935316B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471559B (zh) * | 2022-10-31 | 2023-03-17 | 北京石油化工学院 | 一种头部动态定位跟踪方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN107401976A (zh) * | 2017-06-14 | 2017-11-28 | 昆明理工大学 | 一种基于单目相机的大尺寸视觉测量系统及其标定方法 |
CN107578464A (zh) * | 2017-06-30 | 2018-01-12 | 长沙湘计海盾科技有限公司 | 一种基于线激光扫描的传送带工件三维轮廓测量方法 |
CN110370286A (zh) * | 2019-08-13 | 2019-10-25 | 西北工业大学 | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 |
CN111798505A (zh) * | 2020-05-27 | 2020-10-20 | 大连理工大学 | 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统 |
CN112258574A (zh) * | 2020-09-21 | 2021-01-22 | 北京沃东天骏信息技术有限公司 | 标注位姿信息的方法、装置及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103162622B (zh) * | 2013-02-28 | 2016-06-29 | 西安交通大学 | 单目视觉系统及其使用的便携式球靶标及其测量方法 |
US10755428B2 (en) * | 2017-04-17 | 2020-08-25 | The United States Of America, As Represented By The Secretary Of The Navy | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model |
CN108717712B (zh) * | 2018-05-29 | 2021-09-03 | 东北大学 | 一种基于地平面假设的视觉惯导slam方法 |
CN110189375B (zh) * | 2019-06-26 | 2022-08-23 | 中国科学院光电技术研究所 | 一种基于单目视觉测量的图像目标识别方法 |
CN111192235B (zh) * | 2019-12-05 | 2023-05-26 | 中国地质大学(武汉) | 一种基于单目视觉模型和透视变换的图像测量方法 |
-
2022
- 2022-05-20 CN CN202210549489.2A patent/CN114935316B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103528571A (zh) * | 2013-10-12 | 2014-01-22 | 上海新跃仪表厂 | 单目立体视觉相对位姿测量方法 |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN107401976A (zh) * | 2017-06-14 | 2017-11-28 | 昆明理工大学 | 一种基于单目相机的大尺寸视觉测量系统及其标定方法 |
CN107578464A (zh) * | 2017-06-30 | 2018-01-12 | 长沙湘计海盾科技有限公司 | 一种基于线激光扫描的传送带工件三维轮廓测量方法 |
CN110370286A (zh) * | 2019-08-13 | 2019-10-25 | 西北工业大学 | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 |
CN111798505A (zh) * | 2020-05-27 | 2020-10-20 | 大连理工大学 | 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统 |
CN112258574A (zh) * | 2020-09-21 | 2021-01-22 | 北京沃东天骏信息技术有限公司 | 标注位姿信息的方法、装置及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
利用运动线索的单目深度测量;王微;梁凤梅;王琳琳;;中国图象图形学报(03);全文 * |
基于稠密匹配的单目立体视图生成;王连兵;叶兵;马伟东;;电视技术(08);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114935316A (zh) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461180B (zh) | 一种基于深度学习的三维场景重建方法 | |
KR100776649B1 (ko) | 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법 | |
US20200334842A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
CN111524233B (zh) | 一种静态场景动态目标的三维重建方法 | |
CN110853151A (zh) | 一种基于视频的三维立体点集恢复方法 | |
CN102129708A (zh) | 增强现实环境中快速多层次虚实遮挡处理方法 | |
CN114666564B (zh) | 一种基于隐式神经场景表示进行虚拟视点图像合成的方法 | |
KR100560464B1 (ko) | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 | |
GB2580691A (en) | Depth estimation | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN106203429A (zh) | 基于双目立体视觉复杂背景下的遮挡目标检测方法 | |
Afzal et al. | Rgb-d multi-view system calibration for full 3d scene reconstruction | |
CN114782628A (zh) | 基于深度相机的室内实时三维重建方法 | |
CN114494589A (zh) | 三维重建方法、装置、电子设备和计算机可读存储介质 | |
Ann et al. | Study on 3D scene reconstruction in robot navigation using stereo vision | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
CN112927348B (zh) | 一种基于多视点rgbd相机高分辨率人体三维重建方法 | |
CN111914790B (zh) | 基于双摄像头的不同场景下实时人体转动角度识别方法 | |
CN109003294A (zh) | 一种虚实空间位置注册与精准匹配方法 | |
Jäger et al. | A comparative Neural Radiance Field (NeRF) 3D analysis of camera poses from HoloLens trajectories and Structure from Motion | |
CN111899293A (zh) | Ar应用中的虚实遮挡处理方法 | |
Brunken et al. | Incorporating Plane-Sweep in Convolutional Neural Network Stereo Imaging for Road Surface Reconstruction. | |
Ploskas et al. | Rigid and non-rigid 3D motion estimation from multiview image sequences | |
CN117061720B (zh) | 基于单目图像及深度图像渲染的立体图像对生成方法 | |
CN117315152B (zh) | 双目立体成像方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |