CN113223135B - 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 - Google Patents
一种基于特殊复合平面镜虚像成像的三维重建装置和方法 Download PDFInfo
- Publication number
- CN113223135B CN113223135B CN202110407950.6A CN202110407950A CN113223135B CN 113223135 B CN113223135 B CN 113223135B CN 202110407950 A CN202110407950 A CN 202110407950A CN 113223135 B CN113223135 B CN 113223135B
- Authority
- CN
- China
- Prior art keywords
- imaging
- point cloud
- mirror
- calibration
- virtual image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种基于特殊复合平面镜虚像成像的三维重建装置和方法,装置包括相机设备和标定‑成像联合器件,其中:所述相机设备获取视场深度图;所述标定‑成像联合器件其表面设置有镀银的镜面区域、漫反射区域和定位标识图像,所述镜面区域与漫反射区域位于同一平面上;所述相机设备通过标定‑成像联合器件的反射,获取不在所述相机设备视场范围内的目标物的深度图。方法包括点云重建,镜面区域框定,镜面点云分离,平面拟合以及镜面对称。相比于光路几何解算,本方法无需得知相机设备,镜面,目标物之间的相对位置关系,也不要额外的标准尺寸参考物,可实现快速动态得到非直接视场的目标在相机坐标系中的空间位置,从而得到方位和距离等信息。
Description
技术领域
本发明涉及三维重建领域,更具体地,涉及一种基于特殊复合平面镜虚像成像的三维重建装置和方法。
背景技术
三维重建技术应用范围广泛,包含文物研究,机器视觉等多个方面,目前主流的两种重建设备及方法,一是主动式重建,利用深度相机,基于ToF(时间飞行测量)原理,直接返回视场内物体距离信息,采集多个方向上的深度图片利用算法完成完整的三维重建;二是被动式重建,基于普通的相机,根据对目标的视差,基于三角关系重建点,至少得到两个不同位姿上的目标图片后,根据图像几何特征和灰度特征匹配后计算得到深度,重建空间位姿关系并解算世界坐标系位置。但以上解决方案会受限于采集设备或者是算法的固有问题,基于重建非直接视场中清晰目标虚像的真实相机空间坐标系位置,在狭小和复杂环境下,无论是基于RGBD深度相机或者是二维双目重建以及sfm+mvs,都无法通过目标虚像直接重建出目标真实空间坐标系位置。
因此,当受限于客观条件,只能通过目标物虚像得到目标在空间坐标系中的真实位置和表面信息时,可利用光的反射定律,根据已知的反射平面镜的平面表达式,将目标物虚像所形成的三维表面点云镜像翻转,从而得到虚像的目标物真实的空间位置和表面信息。但这方法受限于几个因素:1)镜面厚度使得镜面空间位置信息确认有误差,2)镜面的平面表达式难以求得,基于固定光路设计会受限于光路移动带来误差和重新测量,基于视差和物体边缘匹配受限于物体的表面和形态。
公开日为2020年12月08日,公开号为CN112053432A的中国专利公开了一种基于结构光与偏振的双目视觉三维重建方法。具体技术方案为:采用投影仪将计算机生成的正弦条纹图像投影到被测物体上;左相机和右相机采集被测物体表面被高度所调制的正弦条纹图像,并发送至计算机;所述计算机将含有高度调制信息的正弦条纹图像进行数据处理,通过质量图导向先求解相位值,再根据所述投影仪、左右相机和被测物体之间的几何关系求出被测物体表面的初步点云坐标,并基于偏振的方法计算高反光区域点云坐标;最后将初步点云坐标和高反光区域点云坐标进行配准后得到的完整点云来重建被测物体的三维模型。该专利于在非直接视场存在目标的场景下,在无法得到准确方位,距离信息的情况下,无法快速进行三维重建。
发明内容
本发明的首要目的是提供一种基于特殊复合平面镜虚像成像的三维重建装置,在非直接视场存在目标的场景下确定其三维空间位置和表面形态。
本发明的进一步目的是提供一种基于特殊复合平面镜虚像成像的三维重建方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于特殊复合平面镜虚像成像的三维重建装置,包括相机设备和标定-成像联合器件,其中:
所述相机设备获取视场深度图;
所述标定-成像联合器件其表面设置有镀银的镜面区域、漫反射区域和定位标识图像,所述镜面区域与漫反射区域位于同一平面上;
所述相机设备通过标定-成像联合器件的反射,获取不在所述相机设备视场范围内的目标物的深度图。
优选地,所述相机设备为拍摄多视角二维图片的硬件设备或深度相机系统。
优选地,所述标定-成像联合器件的漫反射区域上设置有高纹理密度图样。
优选地,所述定位标识图像设置于所述标定-成像联合器件的四个顶角,所述定位标识图像用于算法辨识该定位标识图像在标定-成像联合器件的方向,从而得到目标区域。
优选地,所述标定-成像联合器件采用完整的玻璃底镀银镜面,再将完整镜面按照设计掩膜将漫反射区域处的金属银剥离,随后在玻璃表面加工处理形成等厚度的粗糙表面而成。其中镀银层厚度在亚微米量级,以减小漫反射区与镜面反射区之间的定位误差。
一种基于特殊复合平面镜虚像成像的三维重建方法,所述方法基于上述所述的基于特殊复合平面镜虚像成像的三维重建装置,包括以下步骤:
S1:相机设备通过标定-成像联合器件的反射获取不在所述相机设备视场范围内的目标物的深度图,构建三维点云;
S2:根据相机设备获取的二维图片数据,通过检测图片中定位标识图像,框选出标定-成像联合器件的镜面区域;
S3:根据S2得到的镜面区域,将三维点云中分离得到漫反射区域部分的点云,为漫反射平面点云;
S4:将漫反射平面点云根据线性拟合方法得到平面表达式的参数;
S5:按照平面表达式分离出三维点云来源于镜面虚像的部分,将虚像部分进行镜面翻转,重建完成。
优选地,步骤S1中所述相机设备获取目标物的深度图时,保证所述标定-成像联合器件的漫反射区域能够被相机设备的视场内清晰看见。
优选地,步骤S2中检测图片中定位标识图像,具体为:
求得定位标识图像位置和解算其相对平面位置,采取以下步骤:
转化主视角二维彩色图片为灰度图;
阈值法二值化图片;
对图片进行边缘提取,得到连通域;
根据连通域的比例和相对位置确定定位标识图像的连通域;
提取标识图形内的图案,根据连通域的中心位置与内部连通域的质心坐标相对位置差异解算出该对应位置所在顶角;
得到至少三个以上定位标识图像位置,即可将平面所在区域的像素坐标区间求得。
优选地,步骤S3中将三维点云中分离得到漫反射区域部分的点云,具体为:
根据S2中的平面镜位置像素坐标区间,映射到主视角的三维点云坐标上,分割出标定-成像联合器件所在位置;
根据点云散点Z轴坐标值聚类,分离三维点云中的虚像点云和漫反射平面点云。
优选地,步骤S4中采用随机一致性采样法进行线性拟合。
与现有技术相比,本发明技术方案的有益效果是:
1.相比于固定几何光路解算,无需每次调整光路后重新测量镜面、目标和相机之间的相对空间信息,直接将得到真实空间位置这一步融入到单个重建过程中;
2.无需额外标定物以及对应额外流程实现镜面平面表达式的获取,效率更高;
3.本专利方法基于的硬件,只需要一种标定-成像联合器件,存在表面具备特征纹理的漫反射区域和用于得到非直接视场范围内目标物的虚像的反射镜面即可,根据应用情景和其他硬件设备条件,如相机镜头焦距,分辨率等,可灵活更改符合标定-成像联合器件的镜平面的特征标志位置,两部分屏幕所占区域,尺寸等等。
附图说明
图1为本发明的标定-成像联合器件示意图。
图2为本发明的标定-成像联合器件顶角标识图形之一的示意图。
图3为本发明的方法流程示意图。
图4是实施例中装置的整体示意图。
图5是实施例中目标物和虚像点云位置差异示意图。
图6是实施例提供的一种情景示意图。
图中,1为相机设备,2为阻挡物,3为标定-成像联合器件,4为目标物,5为目标物的虚像,31为定位标识图像,32为漫反射区域,33为镜面区域。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于特殊复合平面镜虚像成像的三维重建装置,包括相机设备1和标定-成像联合器件3,其中:
所述相机设备1获取视场深度图;
所述标定-成像联合器件3其表面设置有镀银的镜面区域33、漫反射区域32和定位标识图像31,所述镜面区域33与漫反射区域32位于同一平面上;
所述相机设备1通过标定-成像联合器件3的反射,获取不在所述相机设备1视场范围内的目标物的深度图。
所述相机设备1为拍摄多视角二维图片的硬件设备或深度相机系统,视使用环境和精度要求可以改变,例如双目重建系统就是依靠两个二维相机及配套镜头;如果是深度相机系统则包含完整的深度相机设备1。
如图1所示,所述标定-成像联合器件3的漫反射区域32上设置有高纹理密度图样,标定-成像联合器件3设置漫反射区域32是因为相比于镜面,可以清晰地通过主动和被动两种重建方式获得表面的点云,在求解标定-成像联合器件3所在空间平面表达式的时候,由于粗糙平面与反射镜平面同处于同一平面上,因此可借由粗糙表面重建得到的点云拟合出平面表达式,进而得到反射镜面所在空间平面表达式。
漫反射区域32中设置高纹理密度图样是因为,一是在特定应用场景下,除了所在空间平面外,需要确定反射镜面在相机视场中的边界范围;二是被动式重建技术,即二维重建技术,依赖于纹理,灰度变化特征,无灰度变化表面无法重建出有效数量的点云。需要注意的是,为达到以上两个目的和应用,粗糙表面在标定-成像联合器件3上所占区域和尺寸是可以根据需求变化的。
所述定位标识图像31设置于所述标定-成像联合器件3的四个顶角,所述定位标识图像31用于算法辨识该定位标识图像31在标定-成像联合器件3的方向,从而得到目标区域,所述定位标识图像31带有的特殊标识图形,通过定位并解算标识图形,可在二维图片上标记镜面区域33位置,有助于后续步骤对平面镜区域和虚像点云的分离。标定-成像联合器件3顶角附近的标识图形,如图2所示,图形为正方形,示意图中所示数字为实际长度所占比例,即全局所占长度为1:1:2:1:1。在内部的黑色正方形有一角所占面积四分之一为白色,边长对比为1:1,该一角与所对应在标定-成像联合器件3顶角区域相对应,如该示意图所对的是左上方顶角位置,相对应的在平面镜右上,左下,右下顶角处的标识符,内部白色一角为在右上方,左下方,右下方。
为减少硬件表面不平整度所导致的误差,需要在加工镜面的时候采取特殊的处理确保漫反射区域32和镜面区域33尽可能处在同一平面上。所述标定-成像联合器件3采用完整的玻璃底镀银镜面,再将完整镜面按照设计掩膜将漫反射区域32处的金属银剥离,随后在玻璃表面加工处理形成等厚度的粗糙表面而成。其中镀银层厚度在亚微米量级,以减小漫反射区与镜面反射区之间的定位误差。
一种基于特殊复合平面镜虚像成像的三维重建方法,如图3所示,所述方法基于上述所述的基于特殊复合平面镜虚像成像的三维重建装置,包括以下步骤:
S1:相机设备1通过标定-成像联合器件3的反射获取不在所述相机设备1视场范围内的目标物的深度图,构建三维点云;
S2:根据相机设备1获取的二维图片数据,通过检测图片中定位标识图像31,框选出标定-成像联合器件3的镜面区域33;
S3:根据S2得到的镜面区域33,将三维点云中分离得到漫反射区域32部分的点云,为漫反射平面点云;
S4:将漫反射平面点云根据线性拟合方法得到平面表达式的参数;
S5:按照平面表达式分离出三维点云来源于镜面虚像的部分,将虚像部分进行镜面翻转,重建完成。
步骤S1中所述相机设备1获取目标物的深度图时,保证所述标定-成像联合器件3的漫反射区域32能够被相机设备1的视场内清晰看见,这样得到的点云部分会包含平面点云部分。
步骤S2中检测图片中定位标识图像31,具体为:
求得定位标识图像31位置和解算其相对平面位置,采取以下步骤:
转化主视角二维彩色图片为灰度图;
阈值法二值化图片;
对图片进行边缘提取,得到连通域;
根据连通域的比例和相对位置确定定位标识图像31的连通域;
提取标识图形内的图案,根据连通域的中心位置与内部连通域的质心坐标相对位置差异解算出该对应位置所在顶角;
得到至少三个以上定位标识图像31位置,即可将平面所在区域的像素坐标区间求得。
步骤S3中将三维点云中分离得到漫反射区域32部分的点云,从得到的场景点云中将漫反射平面点云与目标点云和无关背景点云分离,具体为:
根据S2中的平面镜位置像素坐标区间,映射到主视角的三维点云坐标上,分割出标定-成像联合器件3所在位置;
根据点云散点Z轴坐标值(距离,深度)聚类,分离三维点云中的虚像点云和漫反射平面点云。
步骤S4中采用随机一致性采样法进行线性拟合,降低漂移误差点带来的影响。
在具体的实施例中,如图4所示,包括相机设备1,视场内的阻挡物2,标定-成像联合器件3,目标物4以及其在镜面中得到的虚像5,相机设备1和标定-成像联合器件3是实施例提出的装置内容,在实施例中采取深度相机作为重建点云的设备。需要注意的是,本实施例中的所采取的深度信息传感设备和重建点云解决方案只是一种可行的选项,不代表本方法只限于某种特定的设备和算法。
由于阻挡物2的存在,采集相机设备不能够直接重建得到目标物4的部分表面点云,只能通过镜面3中得到的虚像5来重建表面部分。如同图5所示,实际从虚像重建的点云遵循几何光学原理,具体在相机空间坐标系中的位置在镜面后C处,并非真实位置B处。需要注意的是,在此处描述方向轴是以相机镜头为原点,X,Y轴方向是相机视角面向目标的横纵方向,而Z轴表示为到相机镜头的距离。
重建点云在得到后的坐标信息只和虚像5有关,不是真实的目标物4的世界坐标,故需要采用本实施例方法。具体方法过程如图3中所示,其中镜面3表面是图1所示镜面,下方为镜面,上方为漫反射平面,在四角有定位标识图形。需要注意的是,漫反射部分位置是可以根据需求变化。实施例中是为了说明本专利方法设置的一种形式,为了满足镜头视角,物距等多种因素,漫反射区域的位置和尺寸是可变化的。
深度相机直接获取点云,得到点云后,根据原始数据中的主视角二维图片,依据算法流程,转变为灰度图片、二值化图片、提取轮廓和连通域、分离出标识图形、求得每个标识区域内连通域质心和连通域中心坐标相对方位,确定镜面在主视角图片所占区域和位置,从而在点云中分离出标定-成像联合器件漫反射区域点云和目标虚像点云。随后统计z轴坐标值,依照ROI区域和z坐标值设立的阈值,分离目标虚像点云和漫反射区域点云;
分离出的标定-成像联合器件漫反射区域镜面点云部分,对其进行平面拟合,实施例中为降低重建偏移点对平面拟合的误差,使用RanSAC算法。已知平面点云P有N个散点,点云P的全部散点为pi(xi,yi,zi),i∈(0,N);
设平面方程为z=ax+by+c,根据散点拟合参数a,b,c。
镜像转换虚像点云,得到平面表达式后,遍历除开平面点云外所有散点,如果存在点pk(xk,yk,zk),zk>axk+byk+c,那么可以认为pk是由虚像重建得来,遍历所有点后得到虚像重建点云,根据镜面对称的公式,已知平面法向量和点的空间坐标,遍历每个点,将点云关于拟合平面进行镜面对称,具体是根据参数a、b、c和已知点坐标,求出经过已知点垂直于平面的直线与平面的交点,然后根据中线定理,算出镜像点坐标,完成遍历过程从而得到镜面虚像真实目标物的真实坐标。本专利方法无需得知相机设备,镜面,目标物三者之间的相对角度,距离等信息,可直接通过更换镜面为设计复合镜面完成三维重建,相比于通过光路几何解算出真实空间位置,本专利方法普适性更好,且无需任何前置测量,可用于需要重复移动设备的情境之下。
如图6所示为本实施例一种应用场景示意图。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于特殊复合平面镜虚像成像的三维重建装置,其特征在于,包括相机设备和标定-成像联合器件,其中:
所述相机设备获取视场深度图;
所述标定-成像联合器件其表面设置有镀银的镜面区域、漫反射区域和定位标识图像,所述镜面区域与漫反射区域位于同一平面上;
所述相机设备通过标定-成像联合器件的反射,获取不在所述相机设备视场范围内的目标物的深度图。
2.根据权利要求1所述的基于特殊复合平面镜虚像成像的三维重建装置,其特征在于,所述相机设备为拍摄多视角二维图片的硬件设备或深度相机系统。
3.根据权利要求1所述的基于特殊复合平面镜虚像成像的三维重建装置,其特征在于,所述标定-成像联合器件的漫反射区域上设置有高纹理密度图样。
4.根据权利要求1所述的基于特殊复合平面镜虚像成像的三维重建装置,其特征在于,所述定位标识图像设置于所述标定-成像联合器件的四个顶角,所述定位标识图像用于算法辨识该定位标识图像在标定-成像联合器件的方向,从而得到目标区域。
5.根据权利要求1所述的基于特殊复合平面镜虚像成像的三维重建装置,其特征在于,所述标定-成像联合器件采用完整的玻璃底镀银镜面,再将完整镜面按照设计掩膜将漫反射区域处的金属银剥离,随后在玻璃表面加工处理形成等厚度的粗糙表面而成,其中镀银层厚度在亚微米量级。
6.一种基于特殊复合平面镜虚像成像的三维重建方法,其特征在于,所述方法基于权利要求1至5任一项所述的基于特殊复合平面镜虚像成像的三维重建装置,包括以下步骤:
S1:相机设备通过标定-成像联合器件的反射获取不在所述相机设备视场范围内的目标物的深度图,构建三维点云;
S2:根据相机设备获取的二维图片数据,通过检测图片中定位标识图像,框选出标定-成像联合器件的镜面区域;
S3:根据S2得到的镜面区域,将三维点云中分离得到漫反射区域部分的点云,为漫反射平面点云;
S4:将漫反射平面点云根据线性拟合方法得到平面表达式的参数;
S5:按照平面表达式分离出三维点云来源于镜面虚像的部分,将虚像部分进行镜面翻转,重建完成。
7.根据权利要求6所述的基于特殊复合平面镜虚像成像的三维重建方法,其特征在于,步骤S1中所述相机设备获取目标物的深度图时,保证所述标定-成像联合器件的漫反射区域能够被相机设备的视场内清晰看见。
8.根据权利要求7所述的基于特殊复合平面镜虚像成像的三维重建方法,其特征在于,步骤S2中检测图片中定位标识图像,具体为:
求得定位标识图像位置和解算其相对平面位置,采取以下步骤:
转化主视角二维彩色图片为灰度图;
阈值法二值化图片;
对图片进行边缘提取,得到连通域;
根据连通域的比例和相对位置确定定位标识图像的连通域;
提取标识图形内的图案,根据连通域的中心位置与内部连通域的质心坐标相对位置差异解算出该标识图形所在顶角;
得到至少三个以上定位标识图像位置,即可将平面所在区域的像素坐标区间求得。
9.根据权利要求7所述的基于特殊复合平面镜虚像成像的三维重建方法,其特征在于,步骤S3中将三维点云中分离得到漫反射区域部分的点云,具体为:
根据S2中的平面镜位置像素坐标区间,映射到主视角的三维点云坐标上,分割出标定-成像联合器件所在位置;
根据点云散点Z轴坐标值聚类,分离三维点云中的虚像点云和漫反射平面点云。
10.根据权利要求9所述的基于特殊复合平面镜虚像成像的三维重建方法,其特征在于,步骤S4中采用随机一致性采样法进行线性拟合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110407950.6A CN113223135B (zh) | 2021-04-15 | 2021-04-15 | 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110407950.6A CN113223135B (zh) | 2021-04-15 | 2021-04-15 | 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223135A CN113223135A (zh) | 2021-08-06 |
CN113223135B true CN113223135B (zh) | 2023-04-11 |
Family
ID=77087756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110407950.6A Active CN113223135B (zh) | 2021-04-15 | 2021-04-15 | 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113223135B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113706675B (zh) * | 2021-08-17 | 2023-07-21 | 网易(杭州)网络有限公司 | 镜像处理方法、装置、存储介质和电子装置 |
CN113739718B (zh) * | 2021-08-26 | 2022-06-10 | 江南大学 | 一种基于多圆拟合的物体三维建模方法 |
CN113744222B (zh) * | 2021-08-26 | 2024-04-30 | 江南大学 | 一种基于内切圆的纱线条干三维建模校准方法 |
DK181486B1 (en) * | 2022-07-28 | 2024-03-01 | 4Tech Ip Aps | Robot calibration system and method for calibrating the position of a robot relative to a workplace |
CN115100383B (zh) * | 2022-08-24 | 2022-11-15 | 深圳星坊科技有限公司 | 基于普通光源的镜面物体三维重建方法、装置和设备 |
CN116883517B (zh) * | 2023-09-07 | 2023-11-10 | 华东交通大学 | 基于平面镜的无重叠视场的相机参数标定方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110672039A (zh) * | 2019-09-18 | 2020-01-10 | 南京理工大学 | 一种基于平面反射镜的物体全方位三维测量方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8498460B2 (en) * | 2010-02-22 | 2013-07-30 | Canfield Scientific, Incorporated | Reflectance imaging and analysis for evaluating tissue pigmentation |
DE102013216566A1 (de) * | 2013-08-21 | 2015-02-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche |
US10699468B2 (en) * | 2018-06-09 | 2020-06-30 | Adshir Ltd. | Method for non-planar specular reflections in hybrid ray tracing |
JP6975106B2 (ja) * | 2018-07-31 | 2021-12-01 | 株式会社デンソーアイティーラボラトリ | 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム |
CN109255819B (zh) * | 2018-08-14 | 2020-10-13 | 清华大学 | 基于平面镜的Kinect标定方法及装置 |
US10883823B2 (en) * | 2018-10-18 | 2021-01-05 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
GB2586838B (en) * | 2019-09-05 | 2022-07-27 | Sony Interactive Entertainment Inc | Free-viewpoint method and system |
CN112053432B (zh) * | 2020-09-15 | 2024-03-26 | 成都贝施美医疗科技股份有限公司 | 一种基于结构光与偏振的双目视觉三维重建方法 |
-
2021
- 2021-04-15 CN CN202110407950.6A patent/CN113223135B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110672039A (zh) * | 2019-09-18 | 2020-01-10 | 南京理工大学 | 一种基于平面反射镜的物体全方位三维测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113223135A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113223135B (zh) | 一种基于特殊复合平面镜虚像成像的三维重建装置和方法 | |
CN110264567B (zh) | 一种基于标记点的实时三维建模方法 | |
Wöhler | 3D computer vision: efficient methods and applications | |
CN111563921B (zh) | 一种基于双目相机的水下点云获取方法 | |
JP6573419B1 (ja) | 位置決め方法、ロボット及びコンピューター記憶媒体 | |
EP2064675A1 (en) | Method for determining a depth map from images, device for determining a depth map | |
JP6453908B2 (ja) | 4カメラ組の平面アレイの特徴点のマッチング方法、及びそれに基づく測定方法 | |
CN110827392B (zh) | 单目图像三维重建方法、系统及装置 | |
CN112346073A (zh) | 一种动态视觉传感器与激光雷达数据融合方法 | |
CN110310331B (zh) | 一种基于直线特征与点云特征结合的位姿估计方法 | |
CN111192235A (zh) | 一种基于单目视觉模型和透视变换的图像测量方法 | |
US20090080767A1 (en) | Method for determining a depth map from images, device for determining a depth map | |
CN113409242A (zh) | 一种轨交弓网点云智能监测方法 | |
Ha et al. | A multi-view structured-light system for highly accurate 3D modeling | |
JPH05135155A (ja) | 連続シルエツト画像による3次元モデル構成装置 | |
Park et al. | Automatic 3D model reconstruction based on novel pose estimation and integration techniques | |
CN113052898B (zh) | 基于主动式双目相机的点云和强反光目标实时定位方法 | |
Hebel et al. | Automatic registration of laser point clouds of urban areas | |
Wong et al. | 3D object model reconstruction from image sequence based on photometric consistency in volume space | |
Luhmann et al. | Comparison and verification of optical 3-d surface measurement systems | |
Liu et al. | A New Fusion Algorithm for Depth Images Based on Virtual Views | |
Jiang et al. | Panoramic 3D reconstruction by fusing color intensity and laser range data | |
d’Angelo et al. | Image-based 3D surface reconstruction by combination of sparse depth data with shape from shading and polarisation | |
Brzakovic et al. | Image Formation and Characterization for Three-Dimensional Vision | |
US20210349218A1 (en) | System and method for processing measured 3d values of a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |