CN116630389A - 一种基于光场相机的三维定位方法 - Google Patents
一种基于光场相机的三维定位方法 Download PDFInfo
- Publication number
- CN116630389A CN116630389A CN202210129190.1A CN202210129190A CN116630389A CN 116630389 A CN116630389 A CN 116630389A CN 202210129190 A CN202210129190 A CN 202210129190A CN 116630389 A CN116630389 A CN 116630389A
- Authority
- CN
- China
- Prior art keywords
- light field
- image
- dimensional
- coordinates
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012821 model calculation Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于光场相机的三维定位方法,属于视觉定位领域。本发明的方法由光场相机拍摄三维物体的光场图像,通过将光场图像转化为多视角子孔径图像,计算相邻视角的视差;建立从空间三维点到传感器光场坐标的映射关系模型,结合多视角视差和映射关系模型的物理意义,建立视差‑深度映射关系,由视差求解出深度,最后由视差图包含的传感器光场坐标求解出空间坐标,得到物体的三维坐标。本发明方法实现了采集全景的三维定位,解决了光场相机全景、精确三维测量的问题。
Description
技术领域
本发明涉及一种基于光场相机的三维定位方法,属于视觉定位领域。
背景技术
三维定位技术在人机交互、虚拟现实(Virtual Reality,VR)及增强现实(Augmented Reality,AR)、国防军事及航空航天的发展中起到不可或缺的作用。传统的三维定位方法如GPS、无线传感器网络等需要以目标物体为信号源且定位分辨率取决于传感器的分布密度,无法满足室内以及复杂环境下的全景定位需求。
机器视觉是智能制造中极为关键的组成部分,基于数字图像的定位方法利用光学成像系统获取目标物体的图像、距离等信息,通过相关算法获得目标物体的外观尺寸、位置坐标、姿态等信息,从而实现智能交互环节,在工业检测,自动驾驶,智慧城市方面有着重要的应用价值。主要的视觉定位方法有学者宋少哲、朱丽君、Foix S等人提出的结构光测量方法(宋少哲,牛金星,张涛.基于结构光的三维测量技术研究[J].河南科技,2019(22):14-16;朱丽君.数字莫尔条纹三维面形测量技术研究[D].济南,山东大学,2016;Foix S,GAlenya,C Torras.Lock-in time-of-flight(ToF)cameras:A survey[J].IEEE SensorsJournal,2011,11(9):1917-1926.)、Hartley R等人提出的单目相机视觉定位方法(Hartley R.Muliple view geometry in computer[M].Cambridge universitypress.2011.)、Scharstein D等人提出的双目视觉定位方法(Scharstein D,R Szeliski.ATaxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms[J].Intermational Jourmal of Computer Vision.2002.47(1-3):7-42.)等。
结构光测量方法使用激光器或者投影装置产生具有一定编码结构特征的结构光,并将结构光投影到待测物体上,而物体表面由于不同深度使得条纹产生形变。通过相机对形变的条纹采集及处理,获得物体的三维结构及姿态信息。单目视觉定位方法通过相机对物体进行拍摄,然后通过提取物体上的特征点,根据特征点在不同坐标系下的坐标的分布及相机模型进行计算定位。双目视觉需要先对两个相机进行双目标定,计算得到相应内参及两相机之间的位置关系,然后根据左右相机图像上对应特征点对进行立体匹配,然后计算视差,利用多点对计算获取物体位姿信息。
然而上述方法需要依赖复杂的光学元器件或者精密的机械位移以完成对目标物体深度信息的准确测量;同时双目定位方法由于多视角信息的缺乏在物体具有遮挡关系的立体匹配方面并不理想。光场相机稠密、规则采样的特性使得利用光场数据发展出高准确度的视觉定位方法成为可能。
中国发明专利CN107038719A公布了一种基于光场图像的角度域像素的深度估计方法及系统,该技术的深度估计算法复杂,处理器负担过大、以及采集的深度图精度较差;中国发明专利CN107578437公布了一种基于重聚焦堆栈及物象关系的深度提取方法,但该方案及其依赖光场相机的几何结构,不具有普适性,同时两种方法均没有找到像点到空间物点的映射关系。
发明内容
为了解决目前存在的视觉定位普适性差,定位分辨率低等问题,本发明提供了一种基于光场相机的三维定位方法,所述方法包括:
步骤1:采集被测物体的光场图像:使用光场相机拍摄被测物体图像,对得到的图像解码获得光场图像并转化为标准光场描述形式;
步骤2:视差提取:将所述步骤1中的光场图像转化为子孔径图像阵列,以子孔径图像阵列的中心视角为参考,获得各视角相对于中心视角的视差图集合MD;
步骤3:投影模型计算:使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间三维点到图像传感器坐标的映射关系,形成投影模型;
步骤4:三维坐标计算:所述步骤2中求解的视差图集合MD通过均值拟合的方式获得相邻视角的唯一视差图D,结合所述步骤3的投影模型得到子孔径图像的视差-深度转换关系,得到所述被测物体的三维坐标。
可选的,所述步骤1包括:
步骤11:光场相机采集被测物体,获得初始光场图像Lo;
步骤12:使用光场图像解码程序,将所述初始光场图像Lo矫正为标准光场图像Ls;
步骤13:重新排列所述标准光场图像Ls,将六边形光场图像转化为正方形排列的标准四维光场形式。
可选的,所述步骤2包括:
步骤21:提取所述光场图像中所有微透镜下子图像相同位置的像素点,进而组合成子孔径图像;对子图像所有位置像素点进行相同操作,获得光场子孔径图像阵列;
步骤22:以所述子孔径图像阵列的中心视点对应的子孔径图像为参考视角,以包括但不限于立体匹配法,光流法及机器学习等图像处理方法计算其他视角相对于参考视角的视差,获得所有视角相对与中心视角的视差图集合MD;
步骤23:结合步骤22得到的所述视差图集合MD,通过拟合均值计算得到一幅代表相邻两视角的视差图D。
可选的,所述步骤3包括:步骤31:建立相机坐标[x,y,z]T到空间四维坐标系[u,v,s,t]T的映射关系,相机坐标系是以相机主透镜中心为原点的空间三维坐标系,空间四维坐标系是该三维坐标系下某平面内物体源点m(x,y,z)的位置坐标[s,t]和方向坐标[u,v]的一种空间四维表示[s,t,u,v]T,则此点m的四维坐标[s,t,u,v]T与其对应的三维坐标m(x,y,z)之间具有如公式(1)所示的转换关系:
其中,λ为此任意点到相机坐标系原点的距离;
步骤32:通过棋盘格标定法获得空间四维坐标系[s,t,u,v]T到传感器光场坐标[i,j,k,l]T的转换关系,其中[s,t]表示空间坐标,[u,v]表示角度坐标,[i,j]表示微透镜坐标,[k,l]表示每一个微透镜对应在传感器上的局部像素坐标,如公式(2)所示:
其中h(·)为内参矩阵参数;
步骤33:结合公式(1)与公式(2)可以得到三维空间坐标[x,y,z]T到传感器光场坐标[i,j,k,l]T的映射方程,如公式(3)所示:
可选的,所述步骤4包括:
步骤41:公式(3)中的两个公式的直线斜率代表相邻视角的视差,视差-深度之间的映射关系为:
其中,z为三维坐标中的深度坐标;
步骤42:根据所述视差图D得到一组空间-角度坐标[i,k]T或[j,l]T;
步骤43:根据公式(3)计算三维坐标中的(x,y)坐标,计算公式如公式(5)所示:
可选的,所述计算每一个视角相对于中心视角的视差的方法为:立体匹配法。
可选的,所述计算每一个视角相对于中心视角的视差的方法为:光流法或深度学习方法。
本发明的第二个目的在于提供一种基于光场相机的三维定位系统,所述系统采用上述的基于光场相机的三维定位方法实现对物体的三维定位;
所述系统包括:图像采集模块、图像处理模块、坐标定位模块;
所述图像采集模块采用光场相机采集被测物体的光场图像;
所述图像处理模块将所述图像采集模块采集到的光场图像转化为子孔径图像阵列,并以子孔径图像阵列的中心视角为参考,获得视差图集合;
所述坐标定位模块使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间四维坐标到图像传感器坐标的映射关系,形成投影模型,然后根据所述投影模型和所述图像处理模块得到的拟合视差图计算被测物体的空间三维坐标。
本发明的第三个目的在于提供一种相机定位设备,其特征在于,所述相机定位设备中采用如权利要求8所述的一种基于光场相机的三维定位系统实现对被测物体的定位。
本发明还提供上述的一种基于光场相机的三维定位方法和/或一种基于光场相机的三维定位系统在光场定位领域的应用。
本发明有益效果是:
1、本发明提出了一种基于光场成像的三维全景定位技术,利用光场相机对数据进行采样,利用光场相机稠密、规则采样的特性,解决了传统视觉定位系统复杂、需附加扫描等技术需求,达到了系统小型化、便携式的视觉定位效果。
2、本发明通过基于光场相机标定与光场视差估计联合优化的高精度三维全景光场定位模型,结合了光场相机的特殊光学构造和现有的视差估计方法,解决了光场视觉定位普适性差、精度低的问题,达到了优于商用Kinect 2.0定位精度的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的三维定位流程图。
图2为本发明的光场相机模型示意图。
图3为本发明的光场图像结构示意图。
图4为本发明实施例中子孔径图像转化示意图。
图5为本发明视差-深度转换示意图。
图6为本发明几何投影模型。
图7为本发明的视差图计算xy坐标示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例一:
本实施例提供一种基于光场相机的三维定位方法,所述方法包括:
步骤1:采集被测物体的光场图像:使用光场相机拍摄被测物体图像,对得到的图像解码获得光场图像并转化为标准光场描述形式;
步骤2:视差提取:将所述步骤1中的光场图像转化为子孔径图像阵列,以子孔径图像阵列的中心视角为参考,获得各视角相对于中心视角的视差图集合MD;
步骤3:投影模型计算:使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间三维点到图像传感器坐标的映射关系,形成投影模型;
步骤4:三维坐标计算:所述步骤2中求解的视差图集合MD通过均值拟合的方式获得相邻视角的唯一视差图D,结合所述步骤3的投影模型得到子孔径图像的视差-深度转换关系,得到所述被测物体的三维坐标。
实施例二:
本实施例提供一种基于光场相机的三维定位方法,采用Illum光场相机作为采集设备,使用电控平移台+目标玩偶作为被测物体,对被测物体的距离通过本发明方法进行光场相机采集三维场景并计算三维坐标。
具体过程如图1所示,包括以下步骤:
步骤1:采集被测物体,在本实施例中,使用Illum光场相机采集位于光学平台上的玩偶,光场相机的模型如图2所示,以电控平移台控制玩偶与相机之间的距离,拍摄玩偶的图像,由相机得到图像文件,获得原始光场图像Lo。
原始光场图像Lo经过光场图像解码程序变为如图3所示的标准光场图像Ls,将六边形排列的Ls转化为正方形排列的标准光场形式,标准光场图像含有625×434个子图像,每个子图像中包含7×7的像素。
步骤2:将标准光场形式的光场图像转化为子孔径图像阵列,转化的过程如图4所示,将每一个子图像中第一行第一列的像素点提取出来组合成一个子孔径图像,表示光场相机采集到的一个方向的视角图像。对子图像中所有的像素点实施上述操作,得到子孔径图像阵列,在本实施例中,得到的每个子孔径图像大小为623×434像素,该子孔径图像阵列包含了7×7个视角的场景信息。
由提取出来的多视角子孔径图像阵列计算相邻视角的视差,在本实施例中,采用立体匹配的方式计算相邻视角的视差,视差计算方式为:
D=LabelUnit×Label×ViewIndex (1)
其中LabelUnit为视差单元,Label为视差计算范围,ViewIndex为子孔径的视角索引,在多视角子孔径图像中,视差小于1个像素,对光场图像做立体匹配时无法直接以Label计算视差,需要加上一个远远小于1的LabelUnit以及匹配视图所在的位置ViewIndex。
步骤3:对于被测玩偶,假设其上一点m坐标[x,y,z]T,将m点坐标使用空间四维光场表示,其转化符合公式:
其中[s,t]T表示空间坐标,[u,v]T表示角度坐标,对于光场相机,其外部的光场[s,t,u,v]T与内部传感器上的光场分布[i,j,k,l]T之间的映射关系如下式:
其中,h(·)为内参矩阵参数,矩阵H为相机的内参矩阵,可由棋盘格标定法求出,结合公式(12)与公式(13),得到空间点m到相机传感器光场分布之间的映射关系。如公式(14)所示:
式中定义了传感器光场坐标k与i以及l与v之间的线性关系,表示由子孔径图像在横向和纵向上的极线方程,方程的斜率代表相邻视角的视差,如图5所示。结合极线方程的斜率表达式和其物理意义,可以得到视差-深度之间的映射关系,如公式(15)所示:
其中D为子孔径图像阵列中心视角的视差
步骤4,结合视差图计算三维坐标,由公式(12)和公式(13)得到
同时由S2中得到中间视点的视差图中,包含了一组光场坐标(0,0,k,l),将此坐标代入公式(16)得到(x,y)坐标的求解方程:
结合公式求出的z坐标,在本实施例中,通过光场图像复原出采集的所有像素所代表的物体的三维坐标。
为了更好的理解本发明的技术方案,图1展示出了本发明基于光场相机的三维定位流程示意图,图4展示了本发明实施例中子孔径图像转化示意图。图5展示了为本发明专利中视差-深度转换示意图。图6为本发明几何投影模型。图7为本发明的视差图计算x y坐标示意图。
如图7可以看出基于本发明专利视差图边缘纹理清晰,视差图细腻分辨率高,反映了本发明专利在高分辨率全景高三维定位方面的优势。
实施例三:
本实施例提供一种基于光场相机的三维定位系统,所述系统采用实施例二记载的基于光场相机的三维定位方法实现对物体的三维定位;
所述系统包括:图像采集模块、图像处理模块、坐标定位模块;
所述图像采集模块采用光场相机采集被测物体的光场图像;
所述图像处理模块将所述图像采集模块采集到的光场图像转化为子孔径图像阵列,并以子孔径图像阵列的中心视角为参考,获得视差图集合;
所述坐标定位模块使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间四维坐标到图像传感器坐标的映射关系,形成投影模型,然后根据所述投影模型和所述图像处理模块得到的拟合视差图计算被测物体的空间三维坐标。
本发明实施例中的部分步骤,可以利用软件实现,相应的软件程序可以存储在可读取的存储介质中,如光盘或硬盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于光场相机的三维定位方法,其特征在于,所述方法包括:
步骤1:采集被测物体的光场图像:使用光场相机拍摄被测物体图像,对得到的图像解码获得光场图像并转化为标准光场描述形式;
步骤2:视差提取:将所述步骤1中的光场图像转化为子孔径图像阵列,以子孔径图像阵列的中心视角为参考,获得各视角相对于中心视角的视差图集合MD;
步骤3:投影模型计算:使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间三维点到图像传感器坐标的映射关系,形成投影模型;
步骤4:三维坐标计算:所述步骤2中求解的视差图集合MD通过均值拟合的方式获得相邻视角的唯一视差图D,结合所述步骤3的投影模型得到子孔径图像的视差-深度转换关系,得到所述被测物体的三维坐标。
2.根据权利要求1所述的方法,其特征在于,所述步骤1包括:
步骤11:光场相机采集被测物体,获得初始光场图像Lo;
步骤12:使用光场图像解码程序,将所述初始光场图像Lo矫正为标准光场图像Ls;
步骤13:重新排列所述标准光场图像Ls,将六边形光场图像转化为正方形排列的标准四维光场形式。
3.根据权利要求1所述的方法,其特征在于,所述步骤2包括:
步骤21:提取所述光场图像中所有微透镜下子图像相同位置的像素点,进而组合成子孔径图像;对子图像所有位置像素点进行相同操作,获得光场子孔径图像阵列;
步骤22:以所述子孔径图像阵列的中心视点对应的子孔径图像为参考视角,以包括但不限于立体匹配法,光流法及机器学习等图像处理方法计算其他视角相对于参考视角的视差,获得所有视角相对与中心视角的视差图集合MD;
步骤23:结合步骤22得到的所述视差图集合MD,通过拟合均值计算得到一幅代表相邻两视角的视差图D。
4.根据权利要求1所述的方法,其特征在于,所述步骤3包括:
步骤31:建立相机坐标[x,y,z]T到空间四维坐标系[u,v,s,t]T的映射关系,相机坐标系是以相机主透镜中心为原点的空间三维坐标系,空间四维坐标系是该三维坐标系下某平面内物体源点m(x,y,z)的位置坐标[s,t]和方向坐标[u,v]的一种空间四维表示[s,t,u,v]T,则此点m的四维坐标[s,t,u,v]T与其对应的三维坐标m(x,y,z)之间具有如公式(1)所示的转换关系,
其中,λ为此任意点到相机坐标系原点的距离;
步骤32:通过棋盘格标定法获得空间四维坐标系[s,t,u,v]T到传感器光场坐标[i,j,k,l]T的转换关系,其中[s,t]表示空间坐标,[u,v]表示角度坐标,[i,j]表示微透镜坐标,[k,l]表示每一个微透镜对应在传感器上的局部像素坐标,如公式(2)所示:
其中h(·)为内参矩阵参数;
步骤33:结合公式(1)与公式(2)可以得到三维空间坐标[x,y,z]T到传感器光场坐标[i,j,k,l]T的映射方程,如公式(3)所示:
5.根据权利要求4所述的方法,其特征在于,所述步骤4包括:
步骤41:公式(3)中的两个公式的直线斜率代表相邻视角的视差,视差-深度之间的映射关系为:
其中,z为三维坐标中的深度坐标;
步骤42:根据所述视差图D得到一组空间-角度坐标[i,k]T或[j,l]T;
步骤43:根据公式(3)计算三维坐标中的(x,y)坐标,计算公式如公式(5)所示:
6.根据权利要求3所述的方法,其特征在于,所述计算每一个视角相对于中心视角的视差的方法为:立体匹配法。
7.据权利要求3所述的方法,其特征在于,所述计算每一个视角相对于中心视角的视差的方法为:光流法或深度学习方法。
8.一种基于光场相机的三维定位系统,其特征在于,所述系统采用权利要求1-7任一所述的基于光场相机的三维定位方法实现对物体的三维定位;
所述系统包括:图像采集模块、图像处理模块、坐标定位模块;
所述图像采集模块采用光场相机采集被测物体的光场图像;
所述图像处理模块将所述图像采集模块采集到的光场图像转化为子孔径图像阵列,并以子孔径图像阵列的中心视角为参考,获得视差图集合;
所述坐标定位模块使用光场相机拍摄棋盘格图像,经过光场相机标定程序,获得空间四维坐标到图像传感器坐标的映射关系,形成投影模型,然后根据所述投影模型和所述图像处理模块得到的拟合视差图计算被测物体的空间三维坐标。
9.一种相机定位设备,其特征在于,所述相机定位设备中采用如权利要求8所述的一种基于光场相机的三维定位系统实现对被测物体的定位。
10.权利要求1-7所述的一种基于光场相机的三维定位方法和/或权利要求8所述的一种基于光场相机的三维定位系统在光场定位领域的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210129190.1A CN116630389A (zh) | 2022-02-11 | 2022-02-11 | 一种基于光场相机的三维定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210129190.1A CN116630389A (zh) | 2022-02-11 | 2022-02-11 | 一种基于光场相机的三维定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116630389A true CN116630389A (zh) | 2023-08-22 |
Family
ID=87608617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210129190.1A Pending CN116630389A (zh) | 2022-02-11 | 2022-02-11 | 一种基于光场相机的三维定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116630389A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237546A (zh) * | 2023-11-14 | 2023-12-15 | 武汉大学 | 一种基于光场成像的增材构件三维轮廓重建方法及系统 |
-
2022
- 2022-02-11 CN CN202210129190.1A patent/CN116630389A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237546A (zh) * | 2023-11-14 | 2023-12-15 | 武汉大学 | 一种基于光场成像的增材构件三维轮廓重建方法及系统 |
CN117237546B (zh) * | 2023-11-14 | 2024-01-30 | 武汉大学 | 一种基于光场成像的增材构件三维轮廓重建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977997B (zh) | 一种结合激光雷达三维点云数据的相机自标定方法 | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN110462686B (zh) | 用于从场景获得深度信息的设备和方法 | |
KR100776649B1 (ko) | 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법 | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN113205592B (zh) | 一种基于相位相似性的光场三维重建方法及系统 | |
CN108257161A (zh) | 基于多相机的车辆环境三维重构和运动估计系统及方法 | |
CN107545586B (zh) | 基于光场极线平面图像局部的深度获取方法及系统 | |
CN109840922B (zh) | 基于双目光场相机的深度获取方法和系统 | |
CN103198524A (zh) | 一种大规模室外场景三维重建方法 | |
WO2023046211A1 (zh) | 摄影测量方法、装置、设备及存储介质 | |
CN111854636B (zh) | 一种多相机阵列三维检测系统和方法 | |
CN110419208B (zh) | 成像系统、成像控制方法、图像处理设备和计算机可读介质 | |
CN112634379B (zh) | 一种基于混合视域光场的三维定位测量方法 | |
CN114359406A (zh) | 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法 | |
CN115375745A (zh) | 基于偏振微透镜光场影像视差角的绝对深度测量方法 | |
CN116205961A (zh) | 多镜头组合影像和激光雷达点云的自动配准方法及其系统 | |
CN116630389A (zh) | 一种基于光场相机的三维定位方法 | |
US20180260968A1 (en) | An apparatus and a method for generating data representing a pixel beam | |
CN116824067B (zh) | 一种室内三维重建方法及其装置 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
CN113808070B (zh) | 一种双目数字散斑图像相关的视差测量方法 | |
CN110068308B (zh) | 一种基于多目相机的测距方法及测距系统 | |
CN107610170B (zh) | 多目图像重聚焦的深度获取方法及系统 | |
Li et al. | Binocular stereo vision calibration experiment based on essential matrix |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |