CN110572630B - 三维图像拍摄系统、方法、装置、设备以及存储介质 - Google Patents
三维图像拍摄系统、方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN110572630B CN110572630B CN201910889205.2A CN201910889205A CN110572630B CN 110572630 B CN110572630 B CN 110572630B CN 201910889205 A CN201910889205 A CN 201910889205A CN 110572630 B CN110572630 B CN 110572630B
- Authority
- CN
- China
- Prior art keywords
- scene
- shooting
- vision system
- coordinate system
- capturing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本公开实施例公开了一种三维图像拍摄系统、方法、装置、设备及存储介质。所述三维图像拍摄系统包括图像处理单元和至少两个场景拍摄组件,其中:所述至少两个场景拍摄组件环绕分布在拍摄场景周围,每个场景拍摄组件从不同的方位对拍摄场景进行拍摄,以得到对应的至少两个场景图像,其中,每个所述场景图像包括深度信息;所述图像处理单元被配置为根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。本公开实施例可以提高三维图像模型的观看视角和视点的选择灵活度。
Description
技术领域
本公开实施例涉及图像处理技术,尤其涉及一种三维图像拍摄系统、方法、装置、设备以及存储介质。
背景技术
随着科技的发展,人们对于媒体的质量以及观看方式要求越来越高。
传统的媒体形式大多是二维(two-dimensional,2D)画面,而且视角和视点(眼睛所在的位置)是固定的。为了实现调整视角和视点观看视频,目前大多采用双目三维(three-dimensional,3D)技术和全景摄像技术。
虽然双目3D技术使用户观看的视频具有立体效果,由于只对景物的一侧进行拍摄,没有得到景物全方位的3D图像,因此视角和视点只能在小范围内选择。而全景摄像技术是利用多个照相机拍摄不同角度的图像,然后将多个图像拼接,得到360°的全景照片,虽然采用全景摄像技术视角可以任意选择,但是视点仍然是固定的,而且图像是2D的,所以观众的实际体验效果没有明显改善。
公开内容
本公开实施例提供了一种三维图像拍摄系统、方法、装置、设备以及存储介质,提高三维图像模型的观看视角和视点的选择灵活度。
第一方面,本公开实施例提供了一种三维图像拍摄系统,所述三维图像拍摄系统包括图像处理单元和至少两个场景拍摄组件,其中:
所述至少两个场景拍摄组件环绕分布在拍摄场景周围,每个场景拍摄组件从不同的方位对拍摄场景进行拍摄,以得到对应的至少两个场景图像,其中,每个所述场景图像包括深度信息;
所述图像处理单元被配置为根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
第二方面,本公开实施例提供了一种三维图像拍摄方法,包括:
获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;
根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
第三方面,本公开实施例提供了一种三维图像拍摄装置,包括:
场景图像获取模块,用于获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;
三维图像模型建立模块,用于根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
第四方面,本公开实施例提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本公开实施例所述的三维图像拍摄方法。
第五方面,本公开实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开实施例所述的三维图像拍摄方法。
本公开实施例通过根据多方位覆盖拍摄场景的多张带有深度信息的场景图像,建立三维图像模型,解决了现有技术中三维图像模型的观看视角和视点的选择灵活度低的问题,提高了三维图像模型的观看视角和视点的选择灵活度,提高了用户体验。
附图说明
图1a是本公开一实施例提供的一种三维图像拍摄系统的结构示意图;
图1b是本公开一实施例提供的一种三维图像拍摄方法的流程图;
图1c是本公开一实施例提供的一种场景拍摄组件的标定示意图;
图1d是本公开一实施例提供的一种场景拍摄组件的标定示意图;
图2a是本公开一实施例提供的一种三维图像拍摄方法的流程图;
图2b是本公开一实施例提供的一种阵列控制器的结构示意图;
图2c是本公开一实施例提供的一种标识物面板的结构示意图;
图2d是本公开一实施例提供的一种标识物面板的结构示意图;
图2e是本公开一实施例提供的一种标识物面板的结构示意图;
图2f是本公开一实施例提供的一种场景拍摄组件正面的结构示意图;
图2g是本公开一实施例提供的一种场景拍摄组件侧面的结构示意图;
图2h是本公开一实施例提供的一种场景拍摄组件俯视面的结构示意图;
图2i是本公开一实施例提供的一种双目立体视觉系统应用场景的示意图;
图2j是本公开一实施例提供的一种双目立体视觉系统应用场景的示意图;
图3是本公开一实施例提供的一种三维图像拍摄装置的结构图;
图4是本公开一实施例提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
本公开实施例提供的三维图像拍摄系统包括:图像处理单元和至少两个场景拍摄组件。其中,场景拍摄组件用于对拍摄场景进行拍摄,得到对应的场景图像;图像处理单元用于对场景图像进行进一步的处理,例如:对场景图像进行深度传感处理、着色处理、拼接处理。
需要说明的是,本公开实施例中的图像处理单元并不限制为固定的实体硬件。
例如:在一实施例中,三维图像拍摄系统中的图像处理单元为阵列控制器内部的处理器,用于对场景图像进行深度传感处理、着色处理、拼接处理。其中,阵列控制器为用于对场景拍摄组件的拍摄过程进行控制的硬件,如图1a中所示的101。
在另一实施例中,三维图像拍摄系统中的图像处理单元为外部设备(例如:外部电脑)内部的处理器,用于对场景图像进行深度传感处理、着色处理、拼接处理。
在另一实施例中,三维图像拍摄系统中的图像处理单元为服务器内部用于对场景图像进行深度传感处理、着色处理、拼接处理的相关单元。
同时,本公开实施例中的图像处理单元也不限制于集中在单一的实体硬件中,即,图像处理单元可以分散在不同的实体硬件中,分别行使相应的图像处理功能。
例如:在一实施例中,三维图像拍摄系统中的图像处理单元为场景拍摄组件中深度传感器内部的处理器以及阵列控制器内部的处理器,其中,场景拍摄组件中深度传感器内部的处理器可以用于对场景图像进行深度传感处理、着色处理,阵列控制器内部的处理器可以用于对场景图像进行拼接处理。
在另一实施例中,三维图像拍摄系统中的图像处理单元为场景拍摄组件中深度传感器内部的处理器以及外部设备内部的处理器,其中,场景拍摄组件中深度传感器内部的处理器可以用于对场景图像进行深度传感处理、着色处理,个人终端内部的处理器可以用于对场景图像进行拼接处理。
在另一实施例中,三维图像拍摄系统中的图像处理单元为场景拍摄组件中深度传感器内部的处理器以及服务器内部进行图像处理的相关单元,其中,场景拍摄组件中深度传感器内部的处理器可以用于对场景图像进行深度传感处理、着色处理,服务器内部进行图像处理的相关单元可以用于对场景图像进行拼接处理。
需要说明的是,上述实施例只是示例性的说明,不应对本公开的功能和范围造成限制。
图1a示出本公开一实施例中三维图像拍摄系统的结构示意图。如图1a所示,该三维图像拍摄系统具体包括:一个阵列控制器101和三个场景拍摄组件102,其中,阵列控制器101用于控制三个场景拍摄组件102拍摄,以及接收场景拍摄组件102拍摄的场景图像,场景拍摄组件102用于对拍摄场景103进行拍摄,且环绕分布在拍摄场景周围,形成阵列。
阵列控制器101可以对场景图像进行拼接,生成三维图像模型,进而将拼生成的三维图像模型发送至外部设备或服务器端;或者阵列控制器101可以将场景图像发送至外部设备或服务器端,由外部设备或服务器端执行拼接操作,生成三维图像模型。
在一实施例中,用户可以通过个人终端(例如:个人电脑、智能手机、虚拟现实眼镜或者其他终端设备)获取三维图像模型,并于个人终端上选择观看的视角和视点,进而个人终端的处理器芯片实时渲染呈现出对应的画面,使得用户可以以相应的视角和视点观看三维视频。
在一实施例中,由三维图像模型得到的三维视频可以在用户的个人终端上实时播放,也可以在用户的个人终端上离线播放。
详细的,可以通过服务器将三维图像模型实时传输到用户的个人终端,由个人终端对三维图像模型进行实时渲染,进而实时播放三维视频;也可以由服务器根据三维图像模型预先渲染、生成完整的三维视频,用户通过个人终端从服务器下载三维视频后,个人终端进而根据用户的需求以相应的视角和视点离线播放三维视频。
在一实施例中,所述三维图像模型为全方位三维图像模型。
该实施例中,各场景拍摄组件在对拍摄场景进行拍摄时,覆盖了拍摄场景的每一个方位,进而能够对拍摄得到的场景图像进行拼接,从而得到与拍摄场景匹配的全方位三维图像模型。进一步的,根据全方位三维图像模型能够生成全方位三维视频,从而使得用户能够以任意视角和视点观看拍摄场景对应的三维视频。
需要说明的是,全方位三维图像是指,以设定范围内的物体或场景为目标拍摄对象,环绕拍摄该目标拍摄对象所获取的图像。其中,全景三维图像是拍摄器件以自身为中心旋转拍摄周围的且带有深度信息的图像,而该实施例中的全方位三维图像是指场景拍摄组件以目标拍摄对象为中心,全方位的环绕拍摄目标拍摄对象的且带有深度信息的图像。
图1b示出了本公开一实施例提供的一种三维图像拍摄方法的流程图。该方法的执行主体为所述三维图像拍摄系统中的图像处理单元,具体的,通过上述说明可知,该方法的执行主体可以为该系统中的拍摄设备、控制设备(如阵列控制器)或者由与该系统通信连接的外部设备或服务器。具体可以由本公开实施例提供的三维图像拍摄装置来执行,该装置可采用软件和/或硬件的方式实现,并一般可集成在终端设备中。如图1b所示,该实施例的方法具体包括:
S110,获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息。
在一实施例中,场景拍摄组件可以是用于获取拍摄场景的场景图像的多个设备的设备组合,其中,设备组合可以包括深度传感器。场景拍摄组件可以通过深度传感器获取拍摄场景的带有深度信息的场景图像,即拍摄场景对应的深度图像。
在一实施例中,场景拍摄组件可以包括深度传感器。深度传感器可以有多种形式,比如基于主动式双目3D系统的深度传感器,基于结构光照明的深度传感器,基于飞行时间(Time of flight,TOF)的深度传感器,或其他形式的深度传感器。
在一实施例中,如图1c所示,一个基于结构光照明的深度传感器,其具体结构可以包括红外(Infrared,IR)摄像头104、IR激光器105和衍射光器件106。其中IR摄像头104由IR光学镜头,IR带通滤光片和IR图像传感器构成。衍射光器件106对光有衍射作用,IR激光器105发出的激光透过衍射光器件106后会生成空间分布的结构,其具体结构可以根据衍射光器件的功能确定,例如可以生成二维随机光斑阵列。该深度传感器获取图像的深度信息的具体原理是:通过投影一个预先设计好的图案作为参考图像(编码光源),将结构光投射至物体表面,再使用摄像机接收该物体表面反射的结构光图案,这样,获得了两幅图像,一幅是预先设计的参考图像,另外一幅是相机获取的物体表面反射的结构光图案,由于接收图案必会因物体的立体形状而发生变形,故可以通过该图案在摄像机上的位置和形变程度来计算物体表面的深度信息。
需要说明的是,场景拍摄组件可以是任意可以获取带有深度信息的图像的拍摄组件,不仅仅局限于该实施例所示的基于结构光照明的深度传感器,例如还可以通过基于主动式双目3D系统的深度传感器或者基于飞行时间(Time of flight,TOF)的深度传感器获取图像的深度信息。
可以理解的是,在使用IR摄像头进行拍摄之前,需要对IR摄像头进行标定,标定的方法包括但不限于:如图1c所示,在一实施例中,可以预先测量衍射光器件106的中心距离IR摄像头104中心距离L(也可以称为基线长度),其中,IR摄像头104的焦距f未知。
选择一块白色的平面屏107作为标定板,将标定板放置在距离深度传感器的距离Z0处,同时垂直于IR摄像头104的光轴放置。IR激光器105发出的激光经过衍射光器件106后的二维随机光斑阵列照射到标定板上,IR摄像头104拍摄下IR图像,经过滤波处理后存储到处理器芯片的内存中,作为深度定标图像I0(x,y)。将标定板移动到距离深度传感器的距离Z1处,滤波处理后作为深度定标图像I1(x,y)。
当实际对物体进行拍摄时,光斑阵列照射到物体表面,IR摄像头104拍摄到的图像上经过滤波处理后得到图像I(x,y)。I(x,y)上光斑的位置会相对于深度定标图像I0(x,y)上对应的光斑位置发生横向的偏移(视差)。利用图像匹配算法,得出I(x,y)相对于I0(x,y)的视差分布Δx(x,y)。根据三角关系,物体表面的深度为:
Z(x,y)=Z0+f*L/Δx(x,y)
物体表面相对于IR摄像头实际横向坐标为:
X(x,y)=-x*Z(x,y)/f
Y(x,y)=-y*Z(x,y)/f
IR摄像头104的焦距参数可由两幅标定图像I1(x,y)和I0(x,y)的视差Δx1-0标定出:
f=(Z1-Z0)Δx1-0/L
在另一实施例中,深度传感器结构也可如图1d所示,包括IR摄像头104、IR激光器105、衍射光器件106和IR摄像头108。
相比于前一种深度传感器,图1d所示的深度传感器有两个相同的IR摄像头,光轴相互平行,水平分布在整个传感器上。此时基线长度L为两个IR摄像头中心的距离。
该实施例的具体标定方法为:用标定板106垂直于IR摄像头的光轴放置,并放置在距离深度传感器已知距离Z0处。IR激光经过衍射光器件106后的二维随机光斑阵列照射到屏上,IR摄像头104拍摄下IR图像,经过滤波处理后存储到芯片的内存里面,作为深度定标图像IL0(x,y);IR摄像头108拍摄下IR图像滤波处理后作为深度定标图像IR0(x,y)。两个IR摄像头的焦距f可由IL0(x,y)和IR0(x,y)的视差ΔxRL0标定出:
当对实际物体进行深度传感时,IR摄像头104和IR摄像头108得到图像经过滤波后分别得到IL0(x,y)和IR0(x,y)。运用标准的图像匹配算法,得到两个图像的视差ΔxRL(x,y)。实际物体表面的深度:
物体表面相对于IR摄像头104的横向坐标分别为:
可以理解的是,在获取场景图像的深度信息时,由于任意一个深度传感器所发出的IR结构光有可能不经过景物的反射,而直射进在该深度传感器对面的深度传感器的IR摄像头而造成干扰,这会对对面的深度传感器采集的场景图像数据造成干扰。
为了减少这种干扰情况,提高所述三维图像拍摄系统的抗干扰性,在一实施例中,所述至少两个场景拍摄组件分别被分配相应的拍摄时间段,其中,每个所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在分配的拍摄时间段内对应的发射光不在其他任意一个处于拍摄状态的场景拍摄组件的探测范围内。
具体的,在各场景拍摄组件的拍摄过程中,为了防止一个深度传感器所发出的IR结构光直射进在该深度传感器对面的深度传感器的IR摄像头而造成干扰,需要避免上述两个深度传感器在同一个拍摄时间段处于拍摄状态,对拍摄对象进行拍摄。也就是说,在同一个拍摄时间段内,每个处于拍摄状态的场景拍摄组件所对应的发射光不会在其他任何一个处于拍摄状态的场景拍摄组件的探测范围内。
示例性的,关于“每个处于拍摄状态的场景拍摄组件所对应的发射光不会在其他任何一个处于拍摄状态的场景拍摄组件的探测范围内”,其中包括:每个处于拍摄状态的场景拍摄组件所对应的发射光的照射范围内不存在其他任何一个处于拍摄状态的场景拍摄组件,从而实现一个处于拍摄状态的场景拍摄组件不会探测到来自其他场景拍摄组件发出的发射光,从而不会感知到来自其他场景拍摄组件发出的发射光。需要说明的是,可以理解的,在考虑场景拍摄组件之间的拍摄干扰问题时,此时所考虑到的其实是场景拍摄组件感光器件之间的拍摄干扰问题。因此,即使一个处于拍摄状态的场景拍摄组件所对应的发射光的照射范围内存在其他一个处于拍摄状态的场景拍摄组件,也有可能出现前者对应的发射光不在后者的探测范围内,不被后者所感知的情况。例如:场景拍摄组件A和场景拍摄组件C同时处于拍摄状态,场景拍摄组件C正背对场景拍摄组件A,二者拍摄方向相同。虽然场景拍摄组件A对应的发射光的照射范围内存在场景拍摄组件C,但由于场景拍摄组件A对应的发射光从场景拍摄组件C的背后发射,场景拍摄组件C的感光器件很有可能不会探测到场景拍摄组件A对应的发射光,也就不会感知到场景拍摄组件A对应的发射光,不会受到场景拍摄组件A的干扰。因此,“每个处于拍摄状态的场景拍摄组件所对应的发射光的照射范围内不存在其他任何一个处于拍摄状态的场景拍摄组件”只是“每个处于拍摄状态的场景拍摄组件所对应的发射光不会在其他任何一个处于拍摄状态的场景拍摄组件的探测范围内”中的一部分,只要每个处于拍摄状态的场景拍摄组件所对应的发射光,不会在其他任何一个处于拍摄状态的场景拍摄组件的探测范围内,就不会干扰影响其他任何一个处于拍摄状态的场景拍摄组件。
例如:三维图像拍摄系统中一共有4个场景拍摄组件——场景拍摄组件A、场景拍摄组件B、场景拍摄组件C、场景拍摄组件D。其中,场景拍摄组件A发出的发射光只会影响场景拍摄组件B,场景拍摄组件B发出的发射光只会影响场景拍摄组件A,场景拍摄组件C发出的发射光只会影响场景拍摄组件D,场景拍摄组件D发出的发射光只会影响场景拍摄组件C。则,可以令场景拍摄组件A和场景拍摄组件C一同处于拍摄状态的同时,场景拍摄组件B和场景拍摄组件D处于非拍摄状态;也可以令场景拍摄组件A和场景拍摄组件D一同处于拍摄状态的同时,场景拍摄组件B和场景拍摄组件C处于非拍摄状态,从而使得场景拍摄组件的拍摄不会相互干扰。
在一实施例中,所述至少两个场景拍摄组件分别被分配不同的拍摄时间段,每个场景拍摄组件仅在分配的拍摄时间段内处于拍摄状态。
例如:三维视频的成像周期为T,拍摄系统中共有n个场景拍摄组件。可以将成像周期T分为n个时间段,每个时间段为t=T/n,每个场景拍摄组件可依次选取在一个时间段t内发射IR激光和执行摄像头的曝光操作,而在该成像周期T中的其他时间段内均停止该场景拍摄组件的IR激光器发射激光以及摄像头的曝光操作。当下一个成像周期开始后,循环上述过程。
在一实施例中,所述至少两个场景拍摄组件分别被分配相应的预设波长,每个场景拍摄组件检测对应的预设波长的反射光;其中,所述反射光是该场景拍摄组件发射的具有该预设波长的光经过拍摄对象反射回来的光,每个场景拍摄组件对应的发射光不在与所述场景拍摄组件对应的发射光的预设波长相同的目标场景拍摄组件的探测范围内。
目标场景拍摄组件是指与预设波长的发射光的场景拍摄组件波长一致的场景拍摄组件。例如:场景拍摄组件A对应的发射光的波长与场景拍摄组件B对应的发射光的波长一致,则对于场景拍摄组件A而言,场景拍摄组件B是它的目标场景拍摄组件;对于场景拍摄组件B而言,场景拍摄组件A是它的目标场景拍摄组件。
具体的,在各场景拍摄组件的拍摄过程中,可以通过避免具有相同波长发射光的两个深度传感器在处于拍摄状态时,一个深度传感器所发出的IR结构光在另一个深度传感器的探测范围内,来防止一个深度传感器所发出的IR结构光直射进在与该深度传感器相同波长发射光的深度传感器的IR摄像头而造成干扰。
示例性的,关于“每个场景拍摄组件对应的发射光不在与所述场景拍摄组件对应的发射光的预设波长相同的目标场景拍摄组件的探测范围内”,其中包括:每个处于拍摄状态的场景拍摄组件所对应的发射光的照射范围内,不存在其他任何一个处于拍摄状态的与之相同波长发射光的场景拍摄组件。需要说明的是,该实施例只是示例性的说明,并不代表只能通过“每个处于拍摄状态的场景拍摄组件所对应的发射光的照射范围内,不存在其他任何一个处于拍摄状态的与之相同波长发射光的场景拍摄组件”来实现“每个场景拍摄组件对应的发射光不在与所述场景拍摄组件对应的发射光的预设波长相同的目标场景拍摄组件的探测范围内”。
例如:三维图像拍摄系统中一共有4个场景拍摄组件——场景拍摄组件A、场景拍摄组件B、场景拍摄组件C、场景拍摄组件D。其中,场景拍摄组件A发出的发射光的波长只与场景拍摄组件B发出的发射光的波长相同,场景拍摄组件C发出的发射光的波长只与场景拍摄组件D发出的发射光的波长相同。则,可以令场景拍摄组件A、场景拍摄组件B、场景拍摄组件C、场景拍摄组件D一同处于拍摄状态,场景拍摄组件A发出的发射光与场景拍摄组件B发出的发射光相互不在对方的探测范围内,场景拍摄组件C发出的发射光与场景拍摄组件D发出的发射光相互不在对方的探测范围内,从而使得场景拍摄组件的拍摄不会相互干扰。
在一实施例中,所述至少两个场景拍摄组件分别检测不同波长的反射光。
例如:所有的场景拍摄组件使用不同波长的IR光来获取深度图像;每个场景拍摄组件发射一种波长的IR光,并且一个场景拍摄组件上的IR摄像头上的IR带通滤光片只允许该波长的IR光被探测到,也就是说,预设波长与对应发射光的波长相同;这样就能避免发射其他波长的场景拍摄组件上发出的IR光被该场景拍摄组件所探测到。在一个具体的例子中,拍摄系统中共有m个场景拍摄组件,可以对应m个波长的场景拍摄组件,m个深度传感器使用的波长均不同。
在一实施例中,所述至少两个场景拍摄组件分别被分配相应的拍摄时间段和相应的预设波长,每个场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄,在被分配的拍摄时间段内对应的发射光不在与所述场景拍摄组件对应的发射光的预设波长相同且处于拍摄状态的目标场景拍摄组件的探测范围内;并且每个场景拍摄组件检测对应的预设波长的反射光。
例如:三维视频的成像周期为T,拍摄系统中共有m×n个场景拍摄组件。可以将各场景拍摄组件分为m组,其中,不同组的深度传感器对应发射的激光的波长不同,而同一组的深度传感器在同一个成像周期T中各自选取在一个时间段t=T/n内发射IR激光和执行摄像头的曝光操作,并在该成像周期T中的其余时间停止发射IR激光和摄像头的曝光操作。在同一个时间段t=T/n内,让不同组的具有不同波长的m个场景拍摄组件进行拍摄,而其他场景拍摄组件关闭IR激光的发射和摄像头的曝光。下一个时间段t=T/n内,让另外的不同组的具有不同波长的m个场景拍摄组件进行拍摄,并关闭其他场景拍摄组件的拍摄,依此类推,一整个拍摄周期T内,将完成所有场景拍摄组件的拍摄,并获取到拍摄场景的一个三维图像模型所需的所有场景图象。
需要说明的是,针对现有的基于结构光照明的深度传感器和基于飞行时间(Timeof flight,TOF)的深度传感器,除了可能出现任意一个深度传感器所发出的结构光有可能直射进在该深度传感器对面的深度传感器的摄像头而造成干扰的情况之外,还会出现下述情况:两个深度传感器投射到景物表面的结构光存在一部分相互重叠,重叠的结构光反射回来会同时被两个深度传感器所成像,同样对上述两个深度传感器造成干扰。
为了避免上述干扰,可选的,在同一个拍摄时间段内,每个场景拍摄组件对应的探测范围内与任意一个处于拍摄状态的场景拍摄组件对应的探测范围均不重叠;或者,每个场景拍摄组件对应的探测范围内与与该场景拍摄组件具有相同波长的发射光的场景拍摄组件所对应的探测范围均不重叠;或者,在同一个拍摄时间段内,每个场景拍摄组件对应的探测范围内与与该场景拍摄组件具有相同波长的发射光的场景拍摄组件所对应的探测范围均不重叠。
具体的,探测范围实际和发射光的照射范围稍有不同,由于有些发射光没有经过拍摄场景反射回来,或者有些反射光没有被场景拍摄组件接收到,从而,探测范围实际与发射光的照射范围稍有不同。探测范围不重叠可以是指两个探测范围在空间中不存在任何一个重合的点。
S120,根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
在本实施例中的三维图像模型可以通过视角和视点的选择调整,相应地显示出拍摄场景的图像模型。其中,视角可以是指观看的角度,视点可以是指观看时用户眼睛的所在位置,具体可以用于表示观看距离的远近以及观看视线的方向。其中,场景拼接的具体方式可以是:将至少两个场景图像进行比对,查找有重合部分的两个图像,并按照重合部分对这两个图像进行拼接,直至形成的三维图像模型。
进一步的,由于视频是由连续图像形成的,从而可以通过连续实时获取的三维图像模型,生成三维视频。用户可以通过个人终端确定视角和视点,获取与视角和视点对应的连续实时的图像形成的视频。
本公开实施例通过根据多方位覆盖拍摄场景的多张带有深度信息的场景图像,建立三维图像模型,解决了现有技术中三维图像模型的观看视角和视点的选择灵活度低的问题,提高了三维图像模型的观看视角和视点的选择灵活度,提高了用户体验。
进一步的,本公开实施例通过时间段的分配、波长的分配对拍摄场景进行拍摄,可以减少场景拍摄组件之间的干扰,提高场景图像的质量,从而提高三维图像模型的质量。
在上述实施例基础上,所述场景图像中还包括颜色信息,相应的,如前例中,图1c所示的深度传感器以及图1d所示的深度传感器还可以包括彩色摄像头,或者场景拍摄组件可以包括彩色摄像头和深度传感器。彩色摄像头可以由光学镜头,滤光片和彩色图像传感器构成。其中,彩色图像传感器可以是CMOS图像传感器或者电荷耦合器件图像传感器(Charge Coupled Device,CCD)。
在一实施例中,获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,包括:
分别获取各所述场景拍摄组件拍摄的与拍摄场景对应的深度图像以及彩色图像;
针对同一场景拍摄组件,根据所述同一场景拍摄组件获取的彩色图像,将对应的深度图像进行着色处理,得到与各所述场景拍摄组件分别对应的场景图像,其中,所述深度图像通过所述场景拍摄组件中的深度摄像头拍摄,所述彩色图像通过所述场景拍摄组件中的彩色摄像头拍摄。
深度图像是指带有深度信息的图像;彩色图像是指带有颜色信息的图像。
需要说明的是,彩色摄像头可以设置在场景拍摄组件中的IR摄像头所在的平面内,彩色摄像头与IR摄像头的具体位置关系可以根据需要进行设定,本公开实施例不作具体限制。
通过设置场景拍摄组件中包括彩色摄像头,在深度传感器获取场景图像的深度信息的同时,彩色摄像头获取场景图像的颜色信息和亮度信息,使得场景图像更加符合拍摄场景,提高拍摄图像的质量,从而提高用户体验。
可以理解的是,彩色摄像头在对拍摄场景进行拍摄前,同样需要进行标定。可以预先获取彩色摄像头中心与IR摄像头中心之间的距离L′。若深度传感器的结构如1d所示,距离L'表示为彩色摄像头中心与IR摄像头中心104之间的距离。
选择一块黑白棋盘板作为标定板,将标定板垂直于彩色摄像头的光轴放置,并放置在距离深度传感器已知距离Z0处。彩色摄像头拍摄下图像,经过滤波去噪处理后存储到芯片的内存里面,作为深度定标图像I0(x′,y′)。
棋盘上同一行的两个格子的间距是已知ΔX,对应格子的像在图像上的间距为Δx′,则彩色摄像头焦距f′为:
当对实际物体做深度传感时,物体表面的实际坐标由IR摄像头记录的图的视差用前面的X,Y,Z的表达式计算出。实际物体的彩色图像记录为I(x′,y′),而彩色图像上的坐标和实际物体表面的对应关系由三角关系确定:
因此,物体表面(X,Y,Z)坐标点实际的亮度和颜色信息可以由I(x′,y′)像中(x′,y′)点的彩色信息确定。这样,深度传感器不但获取了物体表面的深度信息,还能对物体的表面着色。
需要说明的是,场景拍摄组件中获取的IR图像和彩色图像可以直接由深度传感器内置的处理器芯片进行处理;也可以是发送到阵列控制器,由阵列控制器内部的处理器芯片进行处理;或者可以是经过阵列控制器发送至外部计算机设备,由外部计算机设备进行处理;还可以是经过阵列控制器发送至网络中的服务器端,由服务器端进行处理。
图2a示出本公开一实施例提供的一种三维图像拍摄方法的流程图,该实施例以上述实施例为基础进行具体化。该实施例中,根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型,具体为:根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两个所述场景图像转换成在所述标准坐标系下的待拼接场景图像;将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
相应的,如图2a所述,该实施例的方法可以包括:
S210,获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;
S220,根据所述至少两个场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将所述至少两个场景图像转换成在所述标准坐标系下的待拼接场景图像。
该实施例中,可以将各所述场景拍摄组件拍摄的场景图像中的各个像素点的空间坐标统一到一个标准坐标系中,再根据更新后的空间坐标系,将各待拼接场景图像进行拼接,避免通过逐一盲目搜索比对各场景图像。只需要根据待拼接场景图像的空间坐标,在小范围进行精细搜索,大大减少了拼接处理的运算量,相应的,处理时间减小了若干个数量级。
具体的,相机坐标系可以是针对每个场景拍摄组件,其所拍摄的场景图像对于该场景拍摄组件的相对空间坐标系;标准空间坐标系可以是任意一个选定的场景拍摄组件的相机坐标系,也可以与各相机坐标系均不同,是一个独立的空间坐标系。因为不同的场景拍摄组件对应的相对空间坐标系不同,可以设置一个标准空间坐标系,并获取各场景拍摄组件对应的相对空间坐标系分别与标准空间坐标系的对应关系,将拍摄组件拍摄的场景图像转换成在标准坐标系下的待拼接场景图像。
其中,各场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,可以根据各场景拍摄组件在自己的相机坐标系中的空间坐标与各场景拍摄组件在标准坐标系中的空间坐标确定。而各场景拍摄组件在标准坐标系中的空间坐标,可以通过位于标准坐标系中的另一独立拍摄设备检测确定。
在一实施例中,所述三维图像拍摄系统还包括定位视觉系统。所述至少两个场景拍摄组件位于一个定位视觉系统的探测范围内,所述标准坐标系为所述定位视觉系统的相机坐标系;所述至少两个场景拍摄组件中的每个场景拍摄组件包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
具体的,由于各场景拍摄组件是具有一定体积的设备集合,从而可以在各场景拍摄组件上设置易于检测到的标识物,用于代表各场景拍摄组件的空间位置,从而可以通过定位视觉系统检测各场景拍摄组件在标准坐标系中的空间坐标。其中,定位视觉系统为用于定位各场景拍摄组件的空间位置的视觉系统,例如:可以是单目视觉系统,可以是双目立体视觉系统,也可以是多目立体视觉系统(如三目立体视觉系统、四目立体视觉系统等)。标识物可以是主动发出均匀可见光的发光物体(如荧光片或者覆盖散射片的灯泡),也可是具有高反射率的反射片,能够被动对光进行反射。通过设置不在同一条直线的至少三个标识物,可以准确确定各场景拍摄组件的空间位置。
需要说明的是,本公开中,设置不在同一条直线的至少三个标识物的根本目的在于:设置不在同一条直线的至少三个参考点,从而准确确定各场景拍摄组件的空间位置。例如:在场景拍摄组件上设置三个中心点不在同一条直线上的荧光片,将每个荧光片的中心点作为一个参考点,从而能够根据不在同一条直线上的这三个参考点确定该场景拍摄组件的空间位置。可以理解的,即使只有一个标识物,但只要该标识物能够提供不在同一条直线的至少三个参考点,也是能够准确确定对应场景拍摄组件的空间位置的。例如:在场景拍摄组件上有一个三角形的荧光片,将该荧光片的每个顶点作为一个参考点,从而能够根据这三个不在同一条直线上的参考点确定该场景拍摄组件的空间位置。因此,无论场景拍摄组件上的标识物的个数是一个还是两个还是三个,只要场景拍摄组件上的标识物能够提供不在同一条直线的至少三个参考点,都在本公开的保护范围内。即,在本公开中,可以将标识物等同于参考点。
可以理解的是,双目立体视觉系统作为定位视觉系统中的典型代表,更便于在其基础上进行有关定位视觉系统的相关说明。故下面对定位视觉系统为双目立体视觉系统时,定位各场景拍摄组件的过程进行详细描述。具体的,可以将双目立体视觉系统设置在阵列控制器上,以对各场景拍摄组件进行定位。
在一实施例中,如图2b所示,阵列控制器201包括两个摄像头202。
在一实施例中,各场景拍摄组件上的多个标识物可以设置在一个面板上,如图2c-图2e所示,标识物面板203可以分别包括4、5、6个标识物204,此外,标识物的数目还可以是3个或其他数目个标识物,本公开实施例不作具体限制。如图2f-图2h所示,标识物面板203可以设置在场景拍摄组件102的不同方向的表面上。
在一实施例中,在根据所述至少两个场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将所述至少两个场景图像转换成在所述标准坐标系下的待拼接场景图像之前,还包括:
获取所述定位视觉系统拍摄的与各所述场景拍摄组件分别对应的探测图像;
根据所述探测图像,计算由各所述场景拍摄组件中包含的标识物确定的各参考点在所述定位视觉系统的相机坐标系中的坐标;
根据各参考点在所述定位视觉系统的相机坐标系中的坐标,以及预先标定的所述各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
具体的,探测图像可以包括各场景拍摄组件以及其上设置的标识物,可以将标识物的中心点作为参考点,其中,若标识物是圆形的,中心点即圆心;若标识物是矩形,中心点即举行对角线的交点,中心点可以根据具体情况进行设定,本公开实施例不作具体限制。根据各参考点在定位视觉系统的相机坐标系中的坐标,以及预先标定的各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定空间转换矩阵,从而确定各场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
在一实施例中,采用双目立体视觉系统对各场景拍摄组件进行定位,同时将双目立体视觉系统设置在阵列控制器上,如图2i所示,一个双目立体视觉系统206可以检测到各场景拍摄组件205,其中,每个场景拍摄组件均设置有标识物面板。
可以采用齐次坐标,则第i个标识物的中心在阵列控制器的相机坐标系的坐标用列向量表示为:
将阵列控制器的相机坐标系变换到场景拍摄组件的相机坐标系,可以通过一个旋转变换以及一个平移变换实现:
在平移矩阵中包含3个独立参数,而在旋转矩阵中仅有3个参数是独立参数,相应的,复合空间变换矩阵MTMR总共包含6个独立参数。
每个坐标点的空间变换可以得到3组方程。当选择3个不在一条直线上的标识物的中心点从阵列控制器的相机坐标系变换到场景拍摄组件的相机坐标系时,总共可以得到9个方程,但由于这3个标识物的中心点之间的相互距离(3个线段的长度)可以预先测量的,因此实际只有6组方程需要求解,而且这6组方程彼此独立。因此,仅需要这三个点的坐标变换方程就能求解出空间变换矩阵的所有6个独立的参数。从而,需要至少选择不在一条直线上的三个标识物代表场景拍摄组件。
需要说明的是,如果是从场景拍摄组件的相机坐标系变换到阵列控制器的相机坐标系,其对应的空间变换矩阵为上述空间变换矩阵MTMR的逆矩阵。
由此,当移动场景拍摄组件的位置和角度时,其上每个标识物的中心位置可由双目立体视觉系统探测出来,因此可以对场景拍摄组件的空间位置进行6自由度的精确定位,即获取每个场景拍摄组件的精确的位置和角度,确定每个场景拍摄组件的相机坐标系到双目立体视觉系统的相机坐标系的空间变换矩阵,因此可以将每个场景拍摄组件获取的深度图像变换到双目立体视觉系统的相机坐标系内的待拼接场景图像,而且每个待拼接场景图像的空间坐标已知。
同理,当定位视觉系统为单目视觉系统或者多目立体视觉系统(例如:三目立体视觉系统)时,要对场景拍摄组件进行定位,同样要求每个场景拍摄组件上包含至少三个标识物,且该至少三个标识物不处于同一直线上。相关的推导过程在此不再赘述。
可以理解的是,一个定位视觉系统可能由于场景拍摄组件彼此之间的遮挡,或者由于拍摄场景中景物的遮挡,导致无法准确探测到各场景拍摄组件,为了避免场景拍摄组件的位置关系造成的干扰,在一实施例中,所述三维图像拍摄系统还包括至少两个定位视觉系统,其中:所述至少两个定位视觉系统中的一个为目标定位视觉系统,其他为参考定位视觉系统,所述参考定位视觉系统位于所述目标定位视觉系统的探测范围内;其中,所述至少两个场景拍摄组件位于所述至少两个定位视觉系统共同构成的探测范围内,所述标准坐标系为所述目标定位视觉系统的相机坐标系;其中,每个所述场景拍摄组件上包含至少三个标识物,且所述至少三个标识物不处于同一直线上,每个参考定位视觉系统上包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
通过设置多个定位视觉系统,避免由于一个定位视觉系统探测多个场景拍摄组件存在死角问题,提高确定场景拍摄组件空间位置的准确性,从而提高场景图像的准确性。
在一实施例中,如图2j所示,采用两个双目立体视觉系统206配合探测三个场景拍摄组件205和一个场景拍摄组件207,其中,每个场景拍摄组件均设置有标识物面板。
进一步的,在根据所述至少两个场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两个所述场景图像转换成在所述标准坐标系下的待拼接场景图像之前,还包括:获取所述至少两个定位视觉系统共同拍摄的与各所述场景拍摄组件分别对应的第一探测图像,并获取所述目标定位视觉系统拍摄的与参考定位视觉系统对应的第二探测图像;根据所述第一探测图像,计算由各所述场景拍摄组件中包含的标识物确定的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标;根据所述第二探测图像,计算由所述参考定位视觉系统中包含的标识物确定的参考点在所述目标定位视觉系统中的坐标;根据各所述场景拍摄组件中的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标、预先标定的各所述场景拍摄组件中的各参考点在对应的场景拍摄组件的相机坐标系中的坐标,预先标定的参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐标系中的坐标,以及所述至少一个参考定位视觉系统中的参考点在所述目标定位视觉系统的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
简要来说,第一探测图像是指为了定位场景拍摄组件而对场景拍摄组件进行探测所得到的图像;第二探测图像是指为了定位参考定位视觉系统而对参考定位视觉系统进行探测所得到的图像。具体的,第一探测图像由目标定位视觉系统和参考定位视觉系统共同探测得到;第二探测图像由目标定位视觉系统探测得到。
具体的,可以根据第一探测图像确定每个场景拍摄组件的相机坐标系与对应定位视觉系统的相机坐标系的对应关系、以及根据第二探测图像确定目标定位视觉系统的相机坐标系与参考定位视觉系统的相机坐标系的对应关系,从而确定目标定位视觉系统与各场景拍摄组件的相机坐标系的对应关系,从而实现间接建立目标定位视觉系统探测不到的场景拍摄组件的相机坐标系与目标定位视觉系统的相机坐标系的对应关系。
在一实施例中,如图2j所示,三维图像拍摄系统中设置有两个阵列控制器206。为方便描述,将左侧的阵列控制器206表述为阵列控制器甲,将右侧的阵列控制器206表述为阵列控制器乙。其中,场景拍摄组件207不能被阵列控制器甲探测到,且阵列控制器乙上设置有标识物。由此,通过前述方法可以计算得到阵列控制器乙的相机坐标系到阵列控制器甲的相机坐标系的空间变换矩阵,再根据采用前述方法得到的场景拍摄组件207的相机坐标系到阵列控制器乙的相机坐标系的空间变换矩阵,将两个空间变换矩阵相乘得到的空间变换矩阵,即为场景拍摄组件207的相机坐标系到阵列控制器甲的相机坐标系的空间变换矩阵。此时,所有的场景拍摄组件获取的深度图像都可以变换到阵列控制器甲的相机坐标系中。
通过设置多个定位视觉系统,选择其中一个作为目标定位视觉系统,并使得其他参考定位视觉系统能够被目标定位视觉系统探测到,实现目标定位视觉系统能够间接探测到被遮挡的场景拍摄组件,避免场景拍摄组件被遮挡而无法被一个定位视觉系统探测到,提高确定场景拍摄组件空间位置的准确性,从而提高场景图像的准确性。
在一实施例中,可以从各定位视觉系统中,选择一个探测到场景拍摄组件的数目最多的定位视觉系统作为目标定位视觉系统。
S230,将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
在本实施例中,各待拼接场景图像的空间坐标均位于同一个标准空间坐标系中,可以根据各待拼接场景图像的空间坐标将各待拼接场景图像拼接起来。
本公开实施例通过将各场景拍摄组件的拍摄的场景图像均转换成在标准坐标系下待拼接场景图像,按照待拼接场景图像中各像素的空间坐标进行拼接,无需针对各张待拼接场景图像在很大的搜索空间内盲目搜索重合部分,仅仅需要在很小的范围做精细的搜索即可完成拼接操作,大大减少了搜索的运算量,提高了图像拼接效率。
图3为本公开一实施例提供的一种三维图像拍摄装置的结构示意图。如图3所示,所述装置包括:
场景图像获取模块310,用于获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;
三维图像模型建立模块320,用于根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
本公开实施例通过根据多方位覆盖拍摄场景的多张带有深度信息的场景图像,建立三维图像模型,解决了现有技术中三维图像模型的观看视角和视点的选择灵活度低的问题,提高了三维图像模型的观看视角和视点的选择灵活度,提高了用户体验。
进一步的,所述三维图像模型建立模块320还用于:根据所述至少两个场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将所述至少两个场景图像转换成在所述标准坐标系下的待拼接场景图像;
将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
进一步的,所述装置还包括:所述至少两个场景拍摄组件位于一个定位视觉系统的探测范围内,所述标准坐标系为所述定位视觉系统的相机坐标系;所述至少两个场景拍摄组件中的每个场景拍摄组件包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
进一步的,所述装置还用于:获取所述定位视觉系统拍摄的与各所述场景拍摄组件分别对应的探测图像;根据所述探测图像,计算由各场景拍摄组件包含的标识物确定的各参考点在所述定位视觉系统的相机坐标系中的坐标;根据各参考点在所述定位视觉系统的相机坐标系中的坐标,以及预先标定的所述各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
进一步的,所述装置还包括:所述至少两个定位视觉系统中的一个为目标定位视觉系统,其他为参考定位视觉系统,所述参考定位视觉系统位于所述目标定位视觉系统的探测范围内;其中,所述至少两个场景拍摄组件位于所述至少两个定位视觉系统共同构成的探测范围内,所述标准坐标系为所述目标定位视觉系统的相机坐标系;其中,每个场景拍摄组件上包含至少三个标识物,且所述至少三个标识物不处于同一直线上;每个参考定位视觉系统上包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
进一步的,所述装置还用于:获取所述至少两个定位视觉系统共同拍摄的与各场景拍摄组件分别对应的第一探测图像,并获取所述目标定位视觉系统拍摄的与参考定位视觉系统对应的第二探测图像;根据所述第一探测图像,计算由各场景拍摄组件中包含的标识物确定的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标;根据所述第二探测图像,计算由所述参考定位视觉系统中包含的标识物确定的参考点在所述目标定位视觉系统中的坐标;根据各所述场景拍摄组件中的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标、预先标定的各场景拍摄组件中的各参考点在对应场景拍摄组件的相机坐标系中的坐标,预先标定的参考定位视觉系统中的各参考点在对应参考定位视觉系统的相机坐标系中的坐标,以及所述至少一个参考定位视觉系统中的参考点在所述目标定位视觉系统的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
进一步的,所述装置还包括:所述至少两个场景拍摄组件分别被分配相应的拍摄时间段,其中,每个所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在分配的拍摄时间段内对应的发射光不在其他任意一个处于拍摄状态的场景拍摄组件的探测范围内。
进一步的,所述装置还包括:所述至少两个场景拍摄组件分别被分配不同的拍摄时间段,每个场景拍摄组件仅在分配的拍摄时间段内处于拍摄状态。
进一步的,所述装置还包括:所述至少两个场景拍摄组件分别被分配相应的预设波长,每个场景拍摄组件检测对应的预设波长的反射光;其中,所述反射光是该场景拍摄组件发射的具有该预设波长的光经过拍摄对象反射回来的光,每个场景拍摄组件对应的发射光不在与所述场景拍摄组件对应的发射光的波长相同的目标场景拍摄组件的探测范围内。
进一步的,所述装置还包括:所述至少两个场景拍摄组件分别检测不同波长的反射光。
进一步的,所述装置还包括:所述至少两个场景拍摄组件分别被分配相应的拍摄时间段和相应的预设波长,每个场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄,在被分配的拍摄时间段内对应的发射光不在与所述场景拍摄组件对应的发射光的预设波长相同且处于拍摄状态的目标场景拍摄组件的探测范围内;并且每个场景拍摄组件检测对应的预设波长的反射光。
进一步的,所述装置还包括:所述场景图像还包括颜色信息。
进一步的,所述场景图像获取模块310,还用于:分别获取各所述场景拍摄组件拍摄的与拍摄场景对应的深度图像以及彩色图像;针对同一场景拍摄组件,根据所述场景拍摄组件获取的彩色图像,将对应的深度图像进行着色处理,得到与各所述场景拍摄组件分别对应的场景图像,其中,所述深度图像通过所述场景拍摄组件中的深度摄像头拍摄,所述彩色图像通过所述场景拍摄组件中的彩色摄像头拍摄。
进一步的,所述装置还包括:所述三维图像模型为全方位三维图像模型。
上述三维图像拍摄装置可执行本公开任意实施例所提供的三维图像拍摄方法,具备执行三维图像拍摄方法相应的功能模块和有益效果。
图4示出本公开一实施例提供的一种设备的结构示意图。图4示出了适于用来实现本公开实施方式的示例性设备412的框图。图4显示的设备412仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,设备412以通用计算设备的形式表现。设备412的组件可以包括但不限于:一个或者多个处理器或者处理单元416,系统存储器428,连接不同系统组件(包括系统存储器428和处理单元416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
设备412典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器428可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)430和/或高速缓存存储器432。设备412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储器428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储器428中,这样的程序模块442包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本公开所描述的实施例中的功能和/或方法。
设备412也可以与一个或多个外部设备414(例如键盘、指向设备、显示器424等)通信,还可与一个或者多个使得用户能与该设备412交互的设备通信,和/或与使得该设备412能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(Input/Output,I/O)接口422进行。并且,设备412还可以通过网络适配器420与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(WideArea Network,WAN)通信。如图所示,网络适配器420通过总线418与设备412的其它模块通信。应当明白,尽管图4中未示出,可以结合设备412使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、(Redundant Arrays ofInexpensive Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理单元416通过运行存储在系统存储器428中的程序,从而执行各种功能应用以及数据处理,例如实现本公开实施例所提供的一种三维图像拍摄方法。
也即,所述处理单元执行所述程序时实现:获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
本公开一实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有公开实施例提供的三维图像拍摄方法。
也即,该程序被处理器执行时实现:获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,其中,所述场景图像包括深度信息;根据所述至少两个场景图像进行场景拼接,得到与所述拍摄场景匹配的三维图像模型。
本公开实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、RAM、只读存储器(Read OnlyMemory,ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式CD-ROM、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、无线电频率(Radio Frequency,RF)等等,或者上述的任意合适的组合。
注意,上述仅为本公开的较佳实施例及所运用技术原理。本领域技术人员会理解,本公开不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本公开的保护范围。因此,虽然通过以上实施例对本公开进行了较为详细的说明,但是本公开不仅仅限于以上实施例,在不脱离本公开构思的情况下,还可以包括更多其他等效实施例,而本公开的范围由所附的权利要求范围决定。
Claims (20)
1.一种三维图像拍摄系统,其特征在于,所述三维图像拍摄系统包括图像处理单元、至少两个场景拍摄组件以及用于拍摄所述场景拍摄组件的定位视觉系统,所述定位视觉系统包括一个目标定位视觉系统以及至少一个参考定位视觉系统,所述参考定位视觉系统位于所述目标定位视觉系统的探测范围内,其中:
所述场景拍摄组件位于所述目标定位视觉系统以及所述参考定位视觉系统共同构成的探测范围内;
各所述场景拍摄组件包含不处于同一直线上的至少三个标识物,且每个所述参考定位视觉系统上包含不处于同一直线上的至少三个标识物;
所述场景拍摄组件环绕分布在拍摄场景周围,每个所述场景拍摄组件从不同的方位对拍摄场景进行拍摄,以得到对应的至少两个场景图像,其中,每个所述场景图像包括深度信息;
所述图像处理单元被配置为:
获取所述定位视觉系统拍摄各所述场景拍摄组件所得到的第一探测图像;
获取所述目标定位视觉系统拍摄各所述参考定位视觉系统所得到的第二探测图像;
根据所述第一探测图像,计算所述场景拍摄组件包含的标识物的参考点在对应的定位视觉系统的相机坐标系中的坐标;
根据所述第二探测图像,计算所述参考定位视觉系统包含的标识物的参考点在标准坐标系中的坐标,其中,所述标准坐标系为所述目标定位视觉系统的相机坐标系;
根据所述场景拍摄组件中的各参考点在对应的定位视觉系统的相机坐标系中的坐标,所述参考定位视觉系统中的各参考点在所述标准坐标系中的坐标,预先标定的所述参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐标系中的坐标,以及预先标定的所述场景拍摄组件中的各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系;
根据各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系,将所述场景图像转换成在所述标准坐标系下的待拼接场景图像;
将在所述标准坐标系下的待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
2.根据权利要求1所述的系统,其特征在于,所述场景拍摄组件分别被分配相应的拍摄时间段,其中,每个所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个所述场景拍摄组件在分配的拍摄时间段内的发射光不在其他任意一个处于拍摄状态的场景拍摄组件的探测范围内。
3.根据权利要求1所述的系统,其特征在于,所述场景拍摄组件分别被分配不同的拍摄时间段,每个所述场景拍摄组件仅在分配的拍摄时间段内处于拍摄状态。
4.根据权利要求1所述的系统,其特征在于,所述场景拍摄组件分别被分配相应的预设波长,每个所述场景拍摄组件检测对应的预设波长的反射光;其中,所述反射光是经拍摄对象反射的所述场景拍摄组件发射的光,每个所述场景拍摄组件的发射光不在具有相同预设波长的发射光的目标场景拍摄组件的探测范围内。
5.根据权利要求1所述的系统,其特征在于,所述场景拍摄组件分别检测不同波长的反射光。
6.根据权利要求1所述的系统,其特征在于,所述场景拍摄组件分别被分配相应的拍摄时间段和相应的预设波长,每个所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄;
在被分配的拍摄时间段内,每个所述场景拍摄组件的发射光不在处于拍摄状态且具有相同预设波长的发射光的目标场景拍摄组件的探测范围内;
并且每个所述场景拍摄组件检测对应的预设波长的反射光。
7.根据权利要求1-6任一项所述的系统,其特征在于,所述场景图像还包括颜色信息;
所述图像处理单元被配置为:
分别获取各所述场景拍摄组件拍摄的与所述拍摄场景对应的深度图像以及彩色图像;
根据各所述场景拍摄组件获取的彩色图像,将对应的深度图像进行着色处理,得到所述场景拍摄组件分别对应的场景图像,其中,所述深度图像通过对应的场景拍摄组件中的深度摄像头拍摄,所述彩色图像通过对应的场景拍摄组件中的彩色摄像头拍摄。
8.根据权利要求1-6任一项所述的系统,其特征在于,所述三维图像模型为全方位三维图像模型。
9.根据权利要求1-6任一项所述的系统,其特征在于,所述图像处理单元为阵列控制器,所述定位视觉系统位于所述阵列控制器上。
10.一种三维图像拍摄方法,其特征在于,包括:
获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的至少两个场景图像,其中,所述场景图像包括深度信息;
获取用于拍摄所述场景拍摄组件的定位视觉系统拍摄各所述场景拍摄组件所得到的第一探测图像,所述定位视觉系统包括一个目标定位视觉系统以及至少一个参考定位视觉系统,所述参考定位视觉系统位于所述目标定位视觉系统的探测范围内,每个所述场景拍摄组件上包含不处于同一直线上的至少三个标识物,且每个所述参考定位视觉系统上包含不处于同一直线上的至少三个标识物;
获取所述目标定位视觉系统拍摄各所述参考定位视觉系统所得到的第二探测图像;
根据所述第一探测图像,计算所述场景拍摄组件包含的标识物的参考点在对应的定位视觉系统的相机坐标系中的坐标;
根据所述第二探测图像,计算所述参考定位视觉系统包含的标识物的参考点在标准坐标系中的坐标,其中,所述标准坐标系为所述目标定位视觉系统的相机坐标系;
根据所述场景拍摄组件中的各参考点在对应的定位视觉系统的相机坐标系中的坐标,所述参考定位视觉系统中的各参考点在所述标准坐标系中的坐标,预先标定的所述参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐标系中的坐标,以及预先标定的所述场景拍摄组件中的各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系;
根据各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系,将所述场景图像转换成在所述标准坐标系下的待拼接场景图像;
将在所述标准坐标系下的待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
11.根据权利要求10所述的方法,其特征在于,所述场景拍摄组件分别被分配相应的拍摄时间段,其中,每个所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个所述场景拍摄组件在分配的拍摄时间段内的发射光不在其他任意一个处于拍摄状态的场景拍摄组件的探测范围内。
12.根据权利要求10所述的方法,其特征在于,所述场景拍摄组件分别被分配不同的拍摄时间段,每个所述场景拍摄组件仅在分配的拍摄时间段内处于拍摄状态。
13.根据权利要求10所述的方法,其特征在于,所述场景拍摄组件分别被分配相应的预设波长,每个所述场景拍摄组件检测对应的预设波长的反射光;其中,所述反射光是经拍摄对象反射的所述场景拍摄组件发射的光,每个所述场景拍摄组件的发射光不在具有相同预设波长的发射光的目标场景拍摄组件的探测范围内。
14.根据权利要求10所述的方法,其特征在于,所述场景拍摄组件分别检测不同波长的反射光。
15.根据权利要求10所述的方法,其特征在于,所述场景拍摄组件分别被分配相应的拍摄时间段和相应的预设波长,每个所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄;
在被分配的拍摄时间段内,每个所述场景拍摄组件的发射光不在处于拍摄状态且具有相同预设波长的发射光的目标场景拍摄组件的探测范围内;
并且每个所述场景拍摄组件检测对应的预设波长的反射光。
16.根据权利要求10-15任一项所述的方法,其特征在于,所述场景图像还包括颜色信息;
获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的对应的至少两个场景图像,包括:
分别获取各所述场景拍摄组件拍摄的与所述拍摄场景对应的深度图像以及彩色图像;
根据各所述场景拍摄组件获取的彩色图像,将对应的深度图像进行着色处理,得到所述场景拍摄组件分别对应的场景图像,其中,所述深度图像通过对应的场景拍摄组件中的深度摄像头拍摄,所述彩色图像通过对应的场景拍摄组件中的彩色摄像头拍摄。
17.根据权利要求10-15任一项所述的方法,其特征在于,所述三维图像模型为全方位三维图像模型。
18.一种三维图像拍摄装置,其特征在于,包括:
场景图像获取模块,用于获取至少两个场景拍摄组件从不同的方位对拍摄场景进行拍摄所得到的至少两个场景图像,其中,所述场景图像包括深度信息;
第一探测模块,配置为获取用于拍摄所述场景拍摄组件的定位视觉系统拍摄各所述场景拍摄组件所得到的第一探测图像,所述定位视觉系统包括一个目标定位视觉系统以及至少一个参考定位视觉系统,所述参考定位视觉系统位于所述目标定位视觉系统的探测范围内,每个所述场景拍摄组件上包含不处于同一直线上的至少三个标识物,且每个所述参考定位视觉系统上包含不处于同一直线上的至少三个标识物;
第二探测模块,配置为获取所述目标定位视觉系统拍摄各所述参考定位视觉系统所得到的第二探测图像;
第一坐标计算模块,配置为根据所述第一探测图像,计算所述场景拍摄组件包含的标识物的参考点在对应的定位视觉系统的相机坐标系中的坐标;
第二坐标计算模块,配置为根据所述第二探测图像,计算所述参考定位视觉系统包含的标识物的参考点在标准坐标系中的坐标,其中,所述标准坐标系为所述目标定位视觉系统的相机坐标系;
坐标系映射模块,配置为根据所述场景拍摄组件中的各参考点在对应的定位视觉系统的相机坐标系中的坐标,所述参考定位视觉系统中的各参考点在所述标准坐标系中的坐标,预先标定的所述参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐标系中的坐标,以及预先标定的所述场景拍摄组件中的各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系;
图像转换模块,配置为根据各所述场景拍摄组件的相机坐标系与所述标准坐标系之间的对应关系,将所述场景图像转换成在所述标准坐标系下的待拼接场景图像;
图像拼接模块,配置为将在所述标准坐标系下的待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的三维图像模型。
19.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求10-17中任一所述的三维图像拍摄方法。
20.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求10-17中任一所述的三维图像拍摄方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018111092325 | 2018-09-21 | ||
CN201811109232.5A CN109379578A (zh) | 2018-09-21 | 2018-09-21 | 全方位三维视频拼接方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110572630A CN110572630A (zh) | 2019-12-13 |
CN110572630B true CN110572630B (zh) | 2022-04-19 |
Family
ID=65402392
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811109232.5A Pending CN109379578A (zh) | 2018-09-21 | 2018-09-21 | 全方位三维视频拼接方法、装置、设备以及存储介质 |
CN201910889205.2A Active CN110572630B (zh) | 2018-09-21 | 2019-09-19 | 三维图像拍摄系统、方法、装置、设备以及存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811109232.5A Pending CN109379578A (zh) | 2018-09-21 | 2018-09-21 | 全方位三维视频拼接方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN109379578A (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113048878B (zh) * | 2019-12-27 | 2023-08-29 | 苏州因确匹电子科技有限公司 | 光学定位系统、方法以及多视图三维重建系统、方法 |
CN113160105A (zh) * | 2020-01-23 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 相机视点确定、相机视点推荐、数据处理方法及设备 |
CN111625001B (zh) * | 2020-05-28 | 2024-02-02 | 珠海格力智能装备有限公司 | 机器人的控制方法及装置、工业机器人 |
CN111800644B (zh) * | 2020-07-14 | 2022-10-14 | 深圳市人工智能与机器人研究院 | 一种视频分享、获取方法、服务器、终端设备及介质 |
CN112073669A (zh) * | 2020-09-18 | 2020-12-11 | 三星电子(中国)研发中心 | 一种视频通信的实现方法和装置 |
CN114584697A (zh) * | 2020-11-16 | 2022-06-03 | 中国航发商用航空发动机有限责任公司 | 残余物探测装置及方法 |
CN113112610A (zh) * | 2021-03-29 | 2021-07-13 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
CN114554108B (zh) * | 2022-02-24 | 2023-10-27 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN115561201B (zh) * | 2022-10-10 | 2023-07-07 | 安徽工程大学 | 一种热障涂层结构完整性太赫兹评价装置及其使用方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008571A (zh) * | 2014-06-12 | 2014-08-27 | 深圳奥比中光科技有限公司 | 基于深度相机的人体模型获取方法及网络虚拟试衣系统 |
CN106204727A (zh) * | 2016-07-11 | 2016-12-07 | 北京大学深圳研究生院 | 一种足部三维扫描重建的方法及装置 |
-
2018
- 2018-09-21 CN CN201811109232.5A patent/CN109379578A/zh active Pending
-
2019
- 2019-09-19 CN CN201910889205.2A patent/CN110572630B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008571A (zh) * | 2014-06-12 | 2014-08-27 | 深圳奥比中光科技有限公司 | 基于深度相机的人体模型获取方法及网络虚拟试衣系统 |
CN106204727A (zh) * | 2016-07-11 | 2016-12-07 | 北京大学深圳研究生院 | 一种足部三维扫描重建的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110572630A (zh) | 2019-12-13 |
CN109379578A (zh) | 2019-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110572630B (zh) | 三维图像拍摄系统、方法、装置、设备以及存储介质 | |
US11503275B2 (en) | Camera calibration system, target, and process | |
CN110044300B (zh) | 基于激光器的两栖三维视觉探测装置及探测方法 | |
US10085011B2 (en) | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
US11145077B2 (en) | Device and method for obtaining depth information from a scene | |
US20170127045A1 (en) | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
US20140307100A1 (en) | Orthographic image capture system | |
JP4825971B2 (ja) | 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 | |
US20230260190A1 (en) | Camera system, mobile terminal, and three-dimensional image acquisition method | |
JPWO2018235163A1 (ja) | キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法 | |
CN111062873A (zh) | 一种基于多对双目相机的视差图像拼接与可视化方法 | |
JP2007192832A (ja) | 魚眼カメラの校正方法。 | |
KR20170005009A (ko) | 3d 라돈 이미지의 생성 및 사용 | |
CN109618108B (zh) | 电子设备和移动平台 | |
CN113841384B (zh) | 校准装置,用于校准的图表和校准方法 | |
CN107241592B (zh) | 一种成像设备及成像方法 | |
US11514608B2 (en) | Fisheye camera calibration system, method and electronic device | |
US20210012515A1 (en) | Apparatus and a method for obtaining a registration error map representing a level of sharpness of an image | |
CN109974659A (zh) | 一种基于双目机器视觉的嵌入式测距系统 | |
US20230328400A1 (en) | Auxiliary focusing method, apparatus, and system | |
CN109587304B (zh) | 电子设备和移动平台 | |
JP2020191624A (ja) | 電子機器およびその制御方法 | |
CN109660731B (zh) | 电子设备和移动平台 | |
US11943539B2 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
CN116524022A (zh) | 偏移数据计算方法、图像融合方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |