CN111275776A - 投影增强现实方法、装置和电子设备 - Google Patents
投影增强现实方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111275776A CN111275776A CN202010087646.3A CN202010087646A CN111275776A CN 111275776 A CN111275776 A CN 111275776A CN 202010087646 A CN202010087646 A CN 202010087646A CN 111275776 A CN111275776 A CN 111275776A
- Authority
- CN
- China
- Prior art keywords
- target object
- coded
- images
- camera
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 41
- 230000000694 effects Effects 0.000 claims abstract description 54
- 230000010363 phase shift Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种投影增强现实方法、装置和电子设备,首先通过投影机向目标对象投射一组编码图像,对目标对象进行编码;通过相机采集上述编码图像,得到目标对象的编码数据;根据编码数据得到目标对象的解码数据;基于解码数据确定目标对象的三维信息;根据三维信息对目标对象施加预设的虚拟特效。本发明通过投影机投射的编码图像为目标对象进行编码,相机采集编码图像获取该目标对象的编码数据,根据该编码数据对应的解码数据可准确确定目标对象的三维信息,基于该三维信息向真实场景中的目标对象施加虚拟特效,由于该方式可得到准确的三维信息,因而该方式提高了虚拟特效与真实场景中目标对象匹配准确定和融合效果,从而提升了用户体验感。
Description
技术领域
本发明涉及增强现实技术领域,尤其是涉及一种投影增强现实方法、装置和电子设备。
背景技术
增强现实技术是将计算机产生的虚拟三维物体、数字动画、数字特效叠加到用户能看到的真实世界中的一种技术。相关技术中的增强现实方法,通常利用头盔显示器、眼镜等设备,将虚拟信息与真实世界中的物体进行匹配和融合,但是该方式匹配和融合的效果较差,影响用户的体验感。
发明内容
本发明的目的在于提供一种投影增强现实方法、装置和电子设备,以提高虚拟信息与真实世界中的物体进行匹配和融合的效果,从而提高用户的体验感。
第一方面,本发明实施例提供一种投影增强现实方法,该方法包括:通过投影机向目标对象投射一组编码图像,对该目标对象进行编码;通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据;根据该编码数据,得到目标对象的解码数据;基于该解码数据,确定目标对象的三维信息;根据该三维信息,对目标对象施加预设的虚拟特效。
在可选的实施方式中,上述通过投影机向目标对象投射一组编码图像,对目标对象进行编码的步骤,包括:通过投影机依次向目标对象投射多张编码图像;其中,多张编码图像采用结构光编码的方式进行编码;基于多张编码图像,编码目标对象。
在可选的实施方式中,上述编码图像包括格雷码图像和相移图像;上述通过投影机依次向目标对象投射多张编码图像的步骤,包括:通过投影机依次向目标对象投射多张格雷码图像,以及多张相移图像;上述基于多张编码图像,编码目标对象的步骤,包括:根据格雷码图像的数量,将目标对象划分为多个区域;基于多张格雷码图像,对多个区域进行格雷码编码;根据多张相移图像,对格雷码编码后的每个区域进行相移编码。
在可选的实施方式中,上述通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据的步骤,包括:通过相机实时采集投影机投射的一组编码图像;对一组编码图像进行高斯滤波平滑处理,得到处理后的编码图像;基于处理后的编码图像,确定编码后的目标对象对应的编码数据。
在可选的实施方式中,上述编码图像为格雷码图像和相移图像;上述基于处理后的编码图像,确定编码后的目标对应的编码数据的步骤,包括:对处理后的格雷码图像进行灰度化处理,得到一组灰度图像;对每张灰度图像中的灰度值进行阈值分割,得到格雷码条纹;基于格雷码条纹,得到目标对象对应的二进制编码;基于相移图像,确定编码相位;根据编码相位对二进制编码进行编码,得到编码后的目标对象对应的编码数据。
在可选的实施方式中,上述根据编码数据,确定目标对象的解码数据的步骤,包括:根据预设的编码规则,对编码数据进行反向解码,得到目标对象对应的解码数据。
在可选的实施方式中,上述相机采用双目相机;该双目相机包含有左摄像头和右摄像头;在通过相机采集一组编码图像之前,上述方法还包括:采用棋盘格的方式,通过OpenCV对双目相机进行标定操作,得到标定结果;其中,标定操作包括标定双目相机的参数,以及双目相机中左摄像头和右摄像头的平移和水平矩阵;保存双目相机的标定结果。
在可选的实施方式中,上述三维信息包括三维坐标;上述基于解码数据,确定目标对象的三维信息的步骤,包括:针对目标对象中每个目标点,执行下述操作:从通过左摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第一解码值;从通过右摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第二解码值;基于所述双目相机的标定结果,建立以左摄像头为原点的第一坐标系,以及以右摄像头为原点的第二坐标系;基于所述第一坐标系,得到第一解码值的第一坐标;基于所述第二坐标系,得到第二解码值的第二坐标;根据三角法则,计算第一坐标和第二坐标对应的三维坐标,以得到当前目标点的三维坐标。
在可选的实施方式中,上述根据三维信息,对目标对象施加预设的虚拟特效的步骤,包括:根据目标对象中每个目标点对应的三维信息,建立三维模型;利用场景编辑器,选择三维模型中的待处理位置,并对待处理位置施加预设的虚拟特效;通过投影机将预设的虚拟特效叠加到目标对象上。
第二方面,本发明实施例提供一种投影增强现实装置,该装置包括:编码生成模块,用于通过投影机向目标对象投射一组编码图像,对目标对象进行编码;编码获取模块,用于通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据;解码模块,用于根据编码数据,得到目标对象的解码数据;三维信息确定模块,用于基于解码数据,确定目标对象的三维信息;特效施加模块,用于根据三维信息,对目标对象施加预设的虚拟特效。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器,该存储器中存储有可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述投影增强现实方法。
本发明实施例带来了以下有益效果:
本发明提供的一种投影增强现实方法、装置和电子设备,首先通过投影机向目标对象投射一组编码图像,对该目标对象进行编码;进而通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据;再根据该编码数据,得到目标对象的解码数据;然后基于该解码数据,确定目标对象的三维信息;最后根据三维信息,对目标对象施加预设的虚拟特效。该方式通过投影机投射的编码图像为目标对象进行编码,再通过相机采集编码图像,可获取到该目标对象对应的编码数据,根据该编码数据对应的解码数据可准确确定目标对象的三维信息,并基于该三维信息向真实场景中的目标对象施加虚拟特效,由于该方式可得到准确的目标对象的三维信息,因而该方式提高了虚拟特效与真实场景中目标对象匹配准确定和融合效果,从而提升了用户体验感。
本发明的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本发明的上述技术即可得知。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施方式,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种投影增强现实方法的流程图;
图2为本发明实施例提供的另一种投影增强现实方法的流程图;
图3为本发明实施例提供的另一种投影增强现实方法的流程图;
图4为本发明实施例提供的一种格雷码编码的示意图;
图5为本发明实施例提供的一种投影增强现实装置的结构示意图;
图6为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中的增强现实方法,对真实世界中的物体有颜色和形状的要求,且通常利用头盔显示器、眼镜等设备,将虚拟信息与真实世界中的物体进行匹配和融合,但是该方式匹配和融合的效果较差,影响用户的体验感。
基于此,本发明实施例提供了一种投影增强现实方法、装置和电子设备,该技术可以应用于教育、健康医疗、展示导览、信息检索、工业设计等领域中的增强现实场景中。为了便于对本发明实施例进行理解,首先对本发明实施例所公开的一种投影增强现实方法进行详细介绍,如图1所示,该方法包括如下具体步骤:
步骤S102,通过投影机向目标对象投射一组编码图像,对该目标对象进行编码。
上述目标对象通常是真实世界的场景中的物体,该物体通常为静止物体,也可以理解中该物体为场景中任何不运动的物体,例如,墙体、桌子、衣柜等。上述投影机是一种可以将图像或者视频投射到场景中的物体表面上的设备,该投影机可以通过不同的接口与计算机、游戏机、移动终端等相连接,以投射相应的图像或者视频。
上述编码图像可以是有规则的图像,也可以是经过编码后的光栅图像,该光栅图像通常是最小单位由像素点构成的图像,且每个像素点有自己的颜色。在具体实现时,计算机可以将预设的一组编码图像依次投射在目标对象的表面,以根据这组编码图像和预设的编码规则对目标对象进行编码,也即是在真实世界的场景中为该目标对象表面上中的每个目标点进行编码,以方便后续针对目标点施加虚拟特效。
步骤S104,通过相机采集上述一组编码图像,得到编码后的目标对象对应的编码数据。
上述相机通常为照相机,该照相机是一种利用光学成像原理形成影像的设备。在具体实现时,在投影机依次向目标对象投射编码图像的过程中,该相机可以根据投射顺序,依次拍摄投射的编码图像,并将拍摄的编码图像发送给计算机,当所有的编码图像拍摄完毕后,完成了相机采集一组编码图像的过程,当计算机获取到所有的编码图像时,即可根据预设的编码规则,得到编码后的目标对象对应的编码数据。该编码数据可以用数字、字母、字符等表示。
步骤S106,根据上述编码数据,得到目标对象的解码数据。
由于解码的过程为编码的逆向工作,在具体实现时,可以根据预设的编码规则,对编码数据进行解码。
步骤S108,基于上述解码数据,确定该目标对象的三维信息。
通过上述解码数据可以获得目标对象中每个目标点对应的解码值,根据该解码值在预设的坐标系中的位置,可以确定该目标点的坐标值,从而确定目标对象上所有目标点的坐标值和该目标对象的几何形状;该坐标值和几何形状也即是目标对象的三维信息。
步骤S110,根据上述三维信息,对目标对象施加预设的虚拟特效。
上述虚拟特效可以包括数字动画、数字特效等。根据目标对象对应的三维信息,可以建立目标对象对应的三维模型,用户可以通过计算机在该三维模型上编辑相应的数字特效、数字动画等,然后通过投影机将这些数字动画和数字特效有机融合到真实世界中的目标对象的表面,以提升视觉效果。
本发明提供的一种投影增强现实方法,首先通过投影机向目标对象投射一组编码图像,对该目标对象进行编码;进而通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据;再根据该编码数据,得到目标对象的解码数据;然后基于该解码数据,确定目标对象的三维信息;最后根据三维信息,对目标对象施加预设的虚拟特效。该方式通过投影机投射的编码图像为目标对象进行编码,再通过相机采集编码图像,可获取到该目标对象对应的编码数据,根据该编码数据对应的解码数据可准确确定目标对象的三维信息,并基于该三维信息向真实场景中的目标对象施加虚拟特效,由于该方式可得到准确的目标对象的三维信息,因而该方式提高了虚拟特效与真实场景中目标对象匹配准确定和融合效果,从而提升了用户体验感。
本发明实施例还提供了另一种投影增强现实方法,该方法在上述实施例方法的基础上实现;如图2所示,该方法包括如下具体步骤:
步骤S202,通过投影机依次向目标对象投射多张编码图像;其中,多张编码图像采用结构光编码的方式进行编码。
结构光通常是一种主动式三角测量技术,其基本原理通常是:由激光投射器(相当于上述投影机)可控制的光点式、光条式或光面式结构光到物体(相当于上述目标对象)表面形成光点。在具体实现时,结构光编码的方式有多种,例如,空间编码、时间编码和直接编码等,如,格雷码编码、灰度级编码等。
步骤S204,基于多张编码图像,编码上述目标对象。
在具体实现时,目标对象可根据投射的多张编码图像进行编码,也即是为目标对象编码上述编码图像对应的编码,例如格雷码、灰度编码或者颜色值等。
在一些实施例中,可以通过投影机向目标对象投射一张编码图像,该编码图像可以被划分成多个网格,每个网格都有一个唯一的颜色,通过每个网格中的颜色可以为与目标对象中该网格对应的区域进行编码。由于该目标对象的编码是由编码图像中的颜色值决定的,而光照变化和目标对象表面纹理的颜色都会影响投影后编码图像的颜色值,通常该编码方式仅适用与光照条件较好的场景,并且场景中没有特殊纹理的目标对象。
步骤S206,通过相机实时采集投影机投射的一组编码图像。
上述相机可以实时采集投影机投射的编码图像,也即是投影机每投射一张编码图像,相机即可拍摄一张编码图像,从而可以提高编码图像获取的时效性,以准确获取到目标对象对应的编码数据。
步骤S208,对一组编码图像进行高斯滤波平滑处理,得到处理后的编码图像。
相机在采集的过程中避免不了受环境光、噪声因素的影响,从而会影响后续图像处理过程,因此需要对相机采集的编码图像进行预处理,也即是对采集的编码图像进行高斯滤波平滑处理,以去除编码图像中离散的噪点。该高斯滤波平滑处理通常是对整幅图像进行加权平均处理,其中,图像中每个像素点的值,都由其本身和邻域内的其他像素点的值经过加权平均后得到的。
步骤S210,基于上述处理后的编码图像,确定编码后的目标对象对应的编码数据。
当相机采集到投影机向目标对象投射的所有的编码图像时,即可获知编码图像对目标对象进行编码后的编码数据。
步骤S212,根据预设的编码规则,对上述编码数据进行反向解码,得到目标对象对应的解码数据。
上述预设的编码规则通常与投影机投射的编码图像有关,例如,该编码图像为格雷码图像时,该编码规则即为格雷码编码的规则;该编码图像为带有不同颜色的网格图像时,该编码规则为通过每个颜色对网格对应的目标区域进行编码。
上述对目标对象对应的编码数据进行解码的过程,也是通过编码图像对目标对象进行编码的逆向工作,因此可以根据预先设置的编码规则,反向解码编码数据得到解码数据。
步骤S214,基于上述解码数据,确定目标对象的三维信息。
上述目标对象中通常包含有多个目标点。在具体实现时,通过预先建立的直角坐标系,可以根据解码数据得到目标对象中每个目标点对应的解码值,根据该解码值在直角坐标系中的位置,可以确定目标点对应的三维坐标。
在一些实施例中,上述相机采用双目相机;该双目相机包含有左摄像头和右摄像头;在通过相机采集一组编码图像之前,需要采用棋盘格的方式,通过OpenCV(Open sourceComputer Vision Library,开放源代码计算机视觉库)对双目相机进行标定操作,得到标定结果;其中,该标定操作包括标定双目相机的参数,以及双目相机中左摄像头和右摄像头的平移和水平矩阵;并保存双目相机的标定结果。
上述双目相机的参数包括畸变系数、内参、外参等。在具体实现时,因为相机采集的图像有一定畸变,编码前需要去掉图像的畸变,所以要标定出相机本身的畸变系数;且由于后续需要计算目标对象的三维信息,因此需要建立以双目相机为中心的三维坐标系统(也即是建立以左摄像头为原点的第一坐标系和以右摄像头为原点的第二坐标系),以计算目标对象的三维坐标或深度信息,基于此还要标定出双目相机内参、外参,以及双目相机摄像头之间的平移和旋转矩阵。上述双目参数的标定结果通常保存到.yml文件中。
在具体实现时,上述三维信息可以是三维坐标;上述步骤S214中可以对目标对象中每个目标点,执行下述步骤10-14,以得到每个目标点对应的三维坐标:
步骤10,从通过左摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第一解码值。
步骤11,从通过右摄像头采集的编码图像得到的目标对象的解码数据中,确定所述当前目标点的第二解码值。
双目相机的左摄像头和右摄像头均可以采集编码图像,通过左摄像头采集的编码图像可以得到目标对象对应的第一编码,通过右摄像头采集的编码图像可以得到目标对象对应的第二编码,再分别对目标对象对应的第一编码和第二编码进行解码,得到第一解码数据和第二解码数据;从第一解码数据和第二解码数据中,可以确定目标对象中每个目标点的第一解码值和第二解码值。
步骤12,根据双目相机的标定结果,建立以左摄像头为原点的第一坐标系,以及以右摄像头为原点的第二坐标系。
根据标定结果中双目相机的内参、外参,以及双目相机摄像头之间的平移和旋转矩阵,可以建立以左摄像头为原点的第一坐标系和以右摄像头为原点的第二坐标系。
步骤13,基于第一坐标系,得到第一解码值的第一坐标;基于第二坐标系,得到第二解码值的第二坐标。
基于计算机视觉的三维坐标测量理论,要向测量目标对象表面某一目标点的三维坐标,需要求出该目标点在左右两个摄像头采集的图像上对应点的坐标,该过程也可以称为图像匹配。在具体实现时,可以根据第一解码值和第二解码值分给找到其左右摄像头对应的坐标系中的第一坐标和第二坐标。在一些实施例中,也可以根据左右摄像头的图像匹配器在右图中的同一行上找出与左图上的点绝对相等的点,也即是通过第一坐标直接得到第二坐标,在具体实现时,由于环境光、噪声的影响,加之左右摄像头之间有一定距离,在匹配相等的像素点时可以允许有一定误差,即匹配到亚像素点即可。
步骤14,根据三角法则,计算上述第一坐标和第二坐标对应的三维坐标,以得到当前目标点的三维坐标。
上述三角法则可以将不同位置处观察到的三维点(相当于上述目标点)的二维投影点(相当于第一坐标和第二坐标),利用三角关系,匹配出三维点的深度信息(相当于三维坐标)。
在具体实现时,上述将第一坐标和第二坐标匹配得到的匹配点存成视差图,然后再利用三角法则求出该匹配点的三维坐标,进一步求出该匹配点对应的深度图。另外根据相位匹配的原则求出投影机视角下的彩色图以及投影机视角下的深度图,也即是经过相位匹配后,即可以将相机视角下的彩色图转换成投影机视角下的彩色图,也可以将相机视角下深度图转换成投影机视角下的深度图,从而可以得到目标对象对应的深度信息和颜色信息。
步骤S216,根据目标对象中每个目标点对应的三维信息,建立三维模型。
步骤S218,利用场景编辑器,选择三维模型中的待处理位置,并对该待处理位置施加预设的虚拟特效。
上述场景编辑器通常是内容创作的核心工作区域,用户可以使用它选择和摆放场景图像、角色、特效等各类元素,在这个工作区域里,用户可以根据需求选中并通过变换工具修改节点(相当于上述待处理位置)的位置、旋转、缩放、尺寸等属性,并可以获得所见即所得的场景效果预览。
在具体实现时,用户可以在场景编辑器中选择三维模型中需要进行处理的位置,也即是待处理位置,然后对待处理位置应用GLSL(OpenGL Shading Language,OpenGL着色语言)的特效、视频、动画,最后基于OpenGL渲染场景。
步骤S220,通过上述投影机将预设的虚拟特效叠加到目标对象上。
在具体实现时,需要通过投影机将施加的特效、视频、动画等叠加到真实世界的场景中的目标对象上,以完成整个投影增强的过程。
上述投影增强实现方法,相对于现有的增强现实方案,该方式与场景中的目标对象无关,也即是对目标对象的特征没有要求,也无需借助头盔、眼镜等设备即可实现增强现实的效果。同时该方式能够准确识别场景中目标对象的三维信息,识别误差较小,因而对投影区域实现了像素级细分,可达到更好的用户体验。
本发明实施例还提供了另一种投影增强现实方法,该方法在上述实施例方法的基础上实现;该实施例终端描述编码图像为格雷码图像和相移图像时,实现投影增强现实的具体过程,如图3所示,该方法包括如下具体步骤:
步骤S302,通过投影机依次向目标对象投射多张格雷码图像,以及多张相移图像。
上述格雷码图像通常是由黑白相间的条纹组组成,如图4所示上半部分所示;上述相移图像通常是指正弦或余弦周期变化的光栅图像。在具体实现时,上述格雷码图像与相移图像的数量可以相同也可以不同,可以通过投影机先向场景中的目标对象投射多张格雷码图像,再投射多张相移图像;也可以通过投影机先向场景中的目标对象投射多张相移图像,再投射多张格雷码图像。
步骤S304,根据上述格雷码图像的数量,将目标对象划分为多个区域。
在具体实现时,如果投影机依次向场景中的目标对象投射n幅格雷码图像,可以将目标对象的表面划分成2n个区域。
步骤S306,基于多张格雷码图像,对多个区域进行格雷码编码。
在具体实现时,目标对象上的目标点经由一组格雷码图像照射后被编上相应的格雷码,例如,假设格雷码图像为6幅,如图4上半部分所示,根据6个格雷码图像可以得到时间序列条纹图(如图4下半部分所示),该时间序列条纹图上的实线为目标对象上的某一目标点在6幅格雷码图像中的光照情况,黑色条纹被赋予0,白色条纹被赋予1,以此类推,那么目标对象上该目标点的格雷码值为010100。通常投射6幅格雷码图像可以将整个目标对象划分64个区域,不同区域的格雷码值是不一样的,但每个区域内的格雷码值是相同的,为了对目标对象中的每个区域进行唯一编码,需要对格雷码编码后的编码进行相移编码。
步骤S308,根据多张相移图像,对格雷码编码后的每个区域进行相移编码。
在具体实现时,可以采用相移技术对格雷码编码后的每个区域进行相移编码,以使每个区域内的编码值也变成连续递增的,进而使得目标对象中的每个目标点上编码值唯一,以达到了对场景中的每个点进行唯一编码的目的。例如,可以采用4步相移技术,也即是通过投影仪向目标对象投射4幅相移图像,该相移图像上的各点灰度值由0~255呈周期性变化,第1幅和4幅相移图像在图案周期的垂直方向上分别差1/4个周期,图像经过相移编码之后,可以使得每个区域均被编码,这样目标对象上的每个目标点就被唯一编码了。
步骤S310,通过相机实时采集上述多张格雷码图像和多张相移图像。
由于相机采集的过程中避免不了受环境光、噪声因素的影响,可能会导致部分格雷码解析错误,因此需要对相机采集的图像(相当于上述格雷码图像和相移图像)进行预处理,例如,对采集的图像进行高斯滤波平滑处理,去除图像中离散的噪点。
步骤S312,对处理后的格雷码图像进行灰度化处理,得到一组灰度图像。
上述灰度化处理通常是指将格雷码图像中每个像素的值设置为灰度值,该灰度值的范围为0-255。
步骤S314,对每张灰度图像中的灰度值进行阈值分割,得到格雷码条纹。
在具体实现时,可以将每张灰度图像中每个像素点的灰度值与预设的阈值进行比较,如果该灰度值大于预设的阈值,将该灰度值设置为255,也即是设置为白色,如果该灰度值小于或者等于预设的阈值,将高灰度值设置为0,也即是设置为黑色,以得到每张灰度图像对应的黑白相间的格雷码条纹。
步骤S316,基于格雷码条纹,得到目标对象对应的二进制编码。
基于与上述步骤S306相同的编码规则,可以得到目标对象对应的二进制编码,也即是由0/1组成的编码值。上述编码数据中可以包含有目标对象中所有目标点对应的格雷码值。
步骤S318,基于上述相移图像,确定编码相位。
通过多张相移图像可以得到目标对象的目标点对应的编码相位f,该编码相位f通常在0~2π之间,也即是目标对象中的每个区域内的目标点的编码在0~2π之间变化。
步骤S320,根据上述编码相位对二进制编码进行编码,得到编码后的目标对象对应的编码数据。
针对每个目标点对应的编码相位,对该目标点的二进制编码值进行相移,得到相移后的编码值,该相移后的编码值也即是目标点对应的最终的编码值。
在具体实现时,为了防止对格雷码图像进行灰度处理时,在黑白条纹交接处附近,灰度值变化不明显,容易把白的当成黑的,或把黑的当成白的,此时可以适当增强格雷码图像数量,新增加的格雷码图像的黑白条纹像素整体偏移一些像素,用这些新增加的格雷码图像作为判断依据。然后有必要使得相移图像中的相移周期与格雷码的区域的宽度相等,理论上在一个相移周期内格雷码值是相等的,如果实际解析中一个周期内有不相等的格雷码值,即这个相移周期内有错误的格雷码值,此时要求出这组格雷码值的众数(出现次数最多的数为众数),用众数来替代错误的格雷码值。
步骤S322,根据预设的编码规则,对上述编码数据进行反向解码,得到目标对象对应的解码数据。
在具体实现时,对目标对象对应的编码数据进行解码的过程也即是编码的逆向工作,分为格雷码解码和相位解码。首先是格雷码解码,因为格雷码在编码时是由连续的二进制码转换过来的,即二进制到格雷码,解码过程就是从格雷码到二进制码,也即是根据格雷码到二进制码的变换公式对编码数据进行解码,然后再通过编码相位,对格雷码解码后的数据进行相移,以进行相位解码,最后得到解码数据。
步骤S324,基于上述解码数据,确定目标对象的三维信息。
步骤S326,根据上述三维信息,对目标对象施加预设的虚拟特效。
上述格雷码编码的方式解码错误率低,且具有易于实现、三维测量精度高等优点,将该格雷码编码加相移技术结合的方法,能够对连续的像素单元进行识别编码,从而可做到高质量的编码。
上述投影增强现实方法,进一步丰富了增强现实的功能实现,提升了场景中目标对象的识别能力和视觉效果,同时该方式也提高了虚拟特效与真实场景中目标对象匹配准确定和融合效果,从而提升了用户体验感。
对应于上述投影增强现实方法,本发明实施例还提供了一种投影增强现实装置,如图5所示,该装置包括:
编码生成模块50,用于通过投影机向目标对象投射一组编码图像,对目标对象进行编码。
编码获取模块51,用于通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据。
解码模块52,用于根据编码数据,得到目标对象的解码数据。
三维信息确定模块53,用于基于上述解码数据,确定目标对象的三维信息。
特效施加模块54,用于根据三维信息,对目标对象施加预设的虚拟特效。
上述投影增强现实装置,首先通过投影机向目标对象投射一组编码图像,对该目标对象进行编码;进而通过相机采集一组编码图像,得到编码后的目标对象对应的编码数据;再根据编码数据得到目标对象对应的解码数据;然后基于解码数据,确定目标对象的三维信息;然后根据三维信息,对目标对象施加预设的虚拟特效。该方式通过投影机投射的编码图像为目标对象进行编码,再通过相机采集编码图像,可获取到该目标对象对应的编码数据,根据该编码数据对应的解码数据可准确确定目标对象的三维信息,并基于该三维信息向真实场景中的目标对象施加虚拟特效,由于该方式可得到准确的目标对象的三维信息,因而该方式提高了虚拟特效与真实场景中目标对象匹配准确定和融合效果,从而提升了用户体验感。
进一步,上述编码生成模块50,用于:通过投影机依次向目标对象投射多张编码图像;其中,多张编码图像采用结构光编码的方式进行编码;基于多张编码图像,编码目标对象。
具体地,上述编码图像包括格雷码图像和相移图像;上述编码生成模块50,还用于:通过投影机依次向目标对象投射多张格雷码图像,以及多张相移图像:根据格雷码图像的数量,将目标对象划分为多个区域;基于多张格雷码图像,对多个区域进行格雷码编码;根据多张相移图像,对格雷码编码后的每个所述区域进行相移编码。
进一步地,上述编码获取模块51,用于:通过相机实时采集投影机投射的一组编码图像;对一组编码图像进行高斯滤波平滑处理,得到处理后的编码图像;基于处理后的编码图像,确定编码后的目标对象对应的编码数据。
具体地,上述编码图像为格雷码图像和相移图像;上述编码获取模块41,还用于:对处理后的格雷码图像进行灰度化处理,得到一组灰度图像;对每张灰度图像中的灰度值进行阈值分割,得到格雷码条纹;基于格雷码条纹,得到目标对象对应的二进制编码;基于相移图像,确定编码相位;根据该编码相位对二进制编码进行编码,得到编码后的目标对象对应的编码数据。
进一步地,上述解码模块52,用于:根据预设的编码规则,对编码数据进行反向解码,得到目标对象对应的解码数据。
在具体实现时,上述相机采用双目相机;该双目相机包含有左摄像头和右摄像头;上述装置还包括相机标定模块,用于:采用棋盘格的方式,通过OpenCV对双目相机进行标定操作,得到标定结果;其中,该标定操作包括标定双目相机的参数,以及双目相机中左摄像头和右摄像头的平移和水平矩阵;保存双目相机的标定结果。
具体地,上述三维信息包括三维坐标;上述三维信息确定模块53,用于:针对目标对象中每个目标点,执行下述操作:从通过左摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第一解码值;从通过右摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第二解码值;根据双目相机的标定结果,建立以左摄像头为原点的第一坐标系,以及以右摄像头为原点的第二坐标系;基于第一坐标系,得到第一解码值的第一坐标,基于第二坐标系,得到第二解码值的第二坐标;根据三角法则,计算第一坐标和第二坐标对应的三维坐标,以得到当前目标点的三维坐标。
进一步地,上述特效施加模块54,用于:根据目标对象中每个目标点对应的三维信息,建立三维模型;利用场景编辑器,选择三维模型中的待处理位置,并对待处理位置施加预设的虚拟特效;通过投影机将预设的虚拟特效叠加到目标对象上。
本发明实施例所提供的投影增强现实装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例还提供了一种电子设备,参见图6所示,该电子设备包括存储器100、处理器101,该存储器100中存储有可在处理器101上运行的计算机程序,该处理器101执行计算机程序时实现上述投影增强现实方法。
进一步地,图6所示的电子设备还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
其中,存储器100可能包含高速随机存取存储器(RAM,RandomAccessMemory),也可能还包括非不稳定的存储器(non-volatilememory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(CentralProcessingUnit,简称CPU)、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器(Digital SignalProcessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种机器可读存储介质,该机器可读存储介质存储有机器可执行指令,该机器可执行指令在被处理器调用和执行时,该机器可执行指令促使处理器实现上述投影增强现实方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和/或电子设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种投影增强现实方法,其特征在于,该方法包括:
通过投影机向目标对象投射一组编码图像,对所述目标对象进行编码;
通过相机采集所述一组编码图像,得到编码后的目标对象对应的编码数据;
根据所述编码数据,得到所述目标对象的解码数据;
基于所述解码数据,确定所述目标对象的三维信息;
根据所述三维信息,对所述目标对象施加预设的虚拟特效。
2.根据权利要求1所述的方法,其特征在于,所述通过投影机向目标对象投射一组编码图像,对所述目标对象进行编码的步骤,包括:
通过所述投影机依次向所述目标对象投射多张编码图像;其中,所述多张编码图像采用结构光编码的方式进行编码;
基于所述多张编码图像,编码所述目标对象。
3.根据权利要求2所述的方法,其特征在于,所述编码图像包括格雷码图像和相移图像;
所述通过所述投影机依次向所述目标对象投射多张编码图像的步骤,包括:
通过所述投影机依次向所述目标对象投射多张格雷码图像,以及多张相移图像;
所述基于所述多张编码图像,编码所述目标对象的步骤,包括:
根据所述格雷码图像的数量,将所述目标对象划分为多个区域;
基于所述多张格雷码图像,对所述多个区域进行格雷码编码;
根据所述多张相移图像,对格雷码编码后的每个所述区域进行相移编码。
4.根据权利要求1所述的方法,其特征在于,所述通过相机采集所述一组编码图像,得到编码后的目标对象对应的编码数据的步骤,包括:
通过所述相机实时采集所述投影机投射的所述一组编码图像;
对所述一组编码图像进行高斯滤波平滑处理,得到处理后的编码图像;
基于所述处理后的编码图像,确定编码后的目标对象对应的编码数据。
5.根据权利要求4所述的方法,其特征在于,所述编码图像为格雷码图像和相移图像;
所述基于所述处理后的编码图像,确定编码后的目标对应的编码数据的步骤,包括:
对处理后的格雷码图像进行灰度化处理,得到一组灰度图像;
对每张灰度图像中的灰度值进行阈值分割,得到格雷码条纹;
基于所述格雷码条纹,得到所述目标对象对应的二进制编码;
基于所述相移图像,确定编码相位;
根据所述编码相位对所述二进制编码进行编码,得到编码后的目标对象对应的编码数据。
6.根据权利要求1所述的方法,其特征在于,根据所述编码数据,得到所述目标对象的解码数据的步骤,包括:
根据预设的编码规则,对所述编码数据进行反向解码,得到所述目标对象对应的解码数据。
7.根据权利要求1所述的方法,其特征在于,所述相机采用双目相机;所述双目相机包含有左摄像头和右摄像头;
在通过相机采集所述一组编码图像之前,所述方法还包括:
采用棋盘格的方式,通过OpenCV对所述双目相机进行标定操作,得到标定结果;其中,所述标定操作包括标定所述双目相机的参数,以及所述双目相机中左摄像头和右摄像头的平移和水平矩阵;
保存所述双目相机的所述标定结果。
8.根据权利要求7所述的方法,其特征在于,所述三维信息包括三维坐标;所述基于所述解码数据,确定所述目标对象的三维信息的步骤,包括:
针对目标对象中每个目标点,执行下述操作:
从通过左摄像头采集的编码图像得到的目标对象的解码数据中,确定当前目标点的第一解码值;
从通过右摄像头采集的编码图像得到的目标对象的解码数据中,确定所述当前目标点的第二解码值;
根据所述双目相机的所述标定结果,建立以左摄像头为原点的第一坐标系,以及以右摄像头为原点的第二坐标系;
基于所述第一坐标系,得到第一解码值的第一坐标;基于所述第二坐标系,得到第二解码值的第二坐标;
根据三角法则,计算所述第一坐标和第二坐标对应的三维坐标,以得到所述当前目标点的三维坐标。
9.根据权利要求1所述的方法,其特征在于,根据所述三维信息,对所述目标对象施加预设的虚拟特效的步骤,包括:
根据目标对象中每个目标点对应的三维信息,建立三维模型;
利用场景编辑器,选择所述三维模型中的待处理位置,并对所述待处理位置施加预设的虚拟特效;
通过所述投影机将所述预设的虚拟特效叠加到所述目标对象上。
10.一种投影增强现实装置,其特征在于,所述装置包括:
编码生成模块,用于通过投影机向目标对象投射一组编码图像,对所述目标对象进行编码;
编码获取模块,用于通过相机采集所述一组编码图像,得到编码后的目标对象对应的编码数据;
解码模块,用于根据所述编码数据,得到目标对象的解码数据;
三维信息确定模块,用于基于所述解码数据,确定所述目标对象的三维信息;
特效施加模块,用于根据所述三维信息,对所述目标对象施加预设的虚拟特效。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010087646.3A CN111275776A (zh) | 2020-02-11 | 2020-02-11 | 投影增强现实方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010087646.3A CN111275776A (zh) | 2020-02-11 | 2020-02-11 | 投影增强现实方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111275776A true CN111275776A (zh) | 2020-06-12 |
Family
ID=70999310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010087646.3A Pending CN111275776A (zh) | 2020-02-11 | 2020-02-11 | 投影增强现实方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111275776A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862241A (zh) * | 2020-07-28 | 2020-10-30 | 杭州优链时代科技有限公司 | 一种人体对齐方法及装置 |
CN113505626A (zh) * | 2021-03-15 | 2021-10-15 | 南京理工大学 | 一种快速三维指纹采集方法与系统 |
CN113689512A (zh) * | 2021-08-23 | 2021-11-23 | 北京搜狗科技发展有限公司 | 一种要素点编码的方法及相关装置 |
CN115314690A (zh) * | 2022-08-09 | 2022-11-08 | 北京淳中科技股份有限公司 | 一种图像融合带处理方法、装置、电子设备及存储介质 |
CN117333560A (zh) * | 2023-12-01 | 2024-01-02 | 北京航空航天大学杭州创新研究院 | 场景自适应的条纹结构光解码方法、装置、设备和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160006914A1 (en) * | 2012-07-15 | 2016-01-07 | 2R1Y | Interactive Illumination for Gesture and/or Object Recognition |
CN106504284A (zh) * | 2016-10-24 | 2017-03-15 | 成都通甲优博科技有限责任公司 | 一种基于立体匹配与结构光相结合的深度图获取方法 |
CN107170043A (zh) * | 2017-06-19 | 2017-09-15 | 电子科技大学 | 一种三维重建方法 |
CN108335365A (zh) * | 2018-02-01 | 2018-07-27 | 张涛 | 一种影像引导的虚实融合处理方法及装置 |
CN110288699A (zh) * | 2019-06-26 | 2019-09-27 | 电子科技大学 | 一种基于结构光的三维重建方法 |
-
2020
- 2020-02-11 CN CN202010087646.3A patent/CN111275776A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160006914A1 (en) * | 2012-07-15 | 2016-01-07 | 2R1Y | Interactive Illumination for Gesture and/or Object Recognition |
CN106504284A (zh) * | 2016-10-24 | 2017-03-15 | 成都通甲优博科技有限责任公司 | 一种基于立体匹配与结构光相结合的深度图获取方法 |
CN107170043A (zh) * | 2017-06-19 | 2017-09-15 | 电子科技大学 | 一种三维重建方法 |
CN108335365A (zh) * | 2018-02-01 | 2018-07-27 | 张涛 | 一种影像引导的虚实融合处理方法及装置 |
CN110288699A (zh) * | 2019-06-26 | 2019-09-27 | 电子科技大学 | 一种基于结构光的三维重建方法 |
Non-Patent Citations (2)
Title |
---|
王兵等: "基于格雷码和多步相移法的双目立体视觉三维测量技术研究", 《计算机测量与控制》 * |
王长波等: "格雷编码与相移结合的双目三维重构", 《计算机工程》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862241A (zh) * | 2020-07-28 | 2020-10-30 | 杭州优链时代科技有限公司 | 一种人体对齐方法及装置 |
CN111862241B (zh) * | 2020-07-28 | 2024-04-12 | 杭州优链时代科技有限公司 | 一种人体对齐方法及装置 |
CN113505626A (zh) * | 2021-03-15 | 2021-10-15 | 南京理工大学 | 一种快速三维指纹采集方法与系统 |
CN113689512A (zh) * | 2021-08-23 | 2021-11-23 | 北京搜狗科技发展有限公司 | 一种要素点编码的方法及相关装置 |
CN115314690A (zh) * | 2022-08-09 | 2022-11-08 | 北京淳中科技股份有限公司 | 一种图像融合带处理方法、装置、电子设备及存储介质 |
CN115314690B (zh) * | 2022-08-09 | 2023-09-26 | 北京淳中科技股份有限公司 | 一种图像融合带处理方法、装置、电子设备及存储介质 |
CN117333560A (zh) * | 2023-12-01 | 2024-01-02 | 北京航空航天大学杭州创新研究院 | 场景自适应的条纹结构光解码方法、装置、设备和介质 |
CN117333560B (zh) * | 2023-12-01 | 2024-02-20 | 北京航空航天大学杭州创新研究院 | 场景自适应的条纹结构光解码方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275776A (zh) | 投影增强现实方法、装置和电子设备 | |
CN101697233B (zh) | 一种基于结构光的三维物体表面重建方法 | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
CN106897648B (zh) | 识别二维码位置的方法及其系统 | |
CN104506838B (zh) | 一种符号阵列面结构光的深度感知方法、装置及系统 | |
CN107592449B (zh) | 三维模型建立方法、装置和移动终端 | |
CN109711246B (zh) | 一种动态物体识别方法、计算机装置及可读存储介质 | |
JP2012103239A (ja) | 三次元計測装置、三次元計測方法及びプログラム | |
CN106991702B (zh) | 一种投影仪标定方法及装置 | |
Lv et al. | Build 3D Scanner System based on Binocular Stereo Vision. | |
CN107346040B (zh) | 裸眼3d显示设备的光栅参数的确定方法、装置及电子设备 | |
WO2015179216A1 (en) | Orthogonal and collaborative disparity decomposition | |
CN107659985B (zh) | 降低移动终端功耗的方法、装置、存储介质和移动终端 | |
Herakleous et al. | 3dunderworld-sls: An open-source structured-light scanning system for rapid geometry acquisition | |
CN106919883B (zh) | 一种qr码的定位方法及装置 | |
CN106980851B (zh) | 一种数据矩阵dm码的定位方法及装置 | |
CN109724537B (zh) | 一种双目三维成像方法及系统 | |
CN114792345B (zh) | 一种基于单目结构光系统的标定方法 | |
CN104270624A (zh) | 一种分区域的3d视频映射方法 | |
CN106780474B (zh) | 一种基于Kinect的实时深度图与彩图的配准及优化方法 | |
CN108734666B (zh) | 一种鱼眼图像校正方法及装置 | |
KR20170047780A (ko) | 적응적 윈도우 마스크를 이용하는 로우 코스트 계산장치 및 그 방법 | |
CN115345994A (zh) | 三维重建方法及装置、系统 | |
CN107515844B (zh) | 字体设置方法、装置及移动设备 | |
CN111105489A (zh) | 数据合成方法和装置、存储介质和电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200612 |