CN109379578A - 全方位三维视频拼接方法、装置、设备以及存储介质 - Google Patents

全方位三维视频拼接方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN109379578A
CN109379578A CN201811109232.5A CN201811109232A CN109379578A CN 109379578 A CN109379578 A CN 109379578A CN 201811109232 A CN201811109232 A CN 201811109232A CN 109379578 A CN109379578 A CN 109379578A
Authority
CN
China
Prior art keywords
scene
capture component
image
shooting
vision system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811109232.5A
Other languages
English (en)
Inventor
王瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inqumi Electronic Technology Co Ltd
Original Assignee
Suzhou Inqumi Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inqumi Electronic Technology Co Ltd filed Critical Suzhou Inqumi Electronic Technology Co Ltd
Priority to CN201811109232.5A priority Critical patent/CN109379578A/zh
Publication of CN109379578A publication Critical patent/CN109379578A/zh
Priority to CN201910889205.2A priority patent/CN110572630B/zh
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开了一种全方位三维视频拼接方法、装置、设备以及存储介质。所述方法包括:获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像;其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信息;根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,其中,所述全方位三维图像模型用于形成全方位三维视频。本发明实施例可以减少场景拍摄组件之间的干扰,以及拼接形成可以任意的调整观看的视角和视点的全方位三维视频。

Description

全方位三维视频拼接方法、装置、设备以及存储介质
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种全方位三维视频拼接方法、 装置、设备以及存储介质。
背景技术
随着科技的发展,人们对于媒体的质量以及观看方式要求越来越高。
传统的媒体形式大多是二维(two-dimensional,2D)画面,而且视角和视 点(眼睛所在的位置)是固定的。为了实现调整视角和视点观看视频,目前大 多采用双目三维(three-dimensional,3D)技术和全景摄像技术。
虽然双目3D技术使用户观看的视频具有立体效果,由于只对景物的一侧 进行拍摄,没有得到景物全方位的3D图像,因此视角和视点只能在小范围内 选择。而全景摄像技术是利用多个照相机拍摄不同角度的图像,然后将多个图 像拼接,得到360°的全景照片,虽然采用全景摄像技术视角可以任意选择, 但是视点仍然是固定的,而且图像是2D的,所以观众的实际体验效果没有明 显改善。
发明内容
本发明实施例提供了一种全方位三维视频拼接方法、装置、设备以及存储 介质,可以减少场景拍摄组件之间的干扰,以及拼接形成可以任意的调整观看 的视角和视点的全方位三维视频。
第一方面,本发明实施例提供了一种全方位三维视频拼接方法,包括:
获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方式配合 拍摄的,与拍摄场景对应的至少两张场景图像;
其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像 包括深度信息;
根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹配的全 方位三维图像模型。
第二方面,本发明实施例提供了一种全方位三维视频拼接装置,包括:
场景图像获取模块,用于获取至少两个场景拍摄组件通过分时获取方式, 和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像;其中, 所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信 息;
全方位三维图像模型建立模块,用于根据所述至少两张场景图像进行场景 拼接,得到与所述拍摄场景匹配的全方位三维图像模型,其中,所述全方位三 维图像模型用于形成全方位三维视频。
第三方面,本发明实施例提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多 个处理器实现本发明实施例所述的全方位三维视频拼接方法。
第四方面,本发明实施例提供了一种存储介质,其上存储有计算机程序, 该程序被处理器执行时实现本发明实施例所述的全方位三维视频拼接方法。
本发明实施例通过根据全方位覆盖拍摄对象的多张带有深度信息的场景图 像,建立全方位三维图像模型,生成连续全方位三维图像,从而生成全方位三 维视频,解决了现有技术中无法实现全方位三维拍摄和无法选择任意视点的问 题,可以灵活调整全方位三维图像和全方位三维视频观看的视角和视点,提高 了用户体验,同时,通过分时获取和/或分波长获取方式对拍摄场景进行拍摄, 可以消除场景拍摄组件之间的干扰,提高场景图像的质量,从而提高全方位三 维图像模型的质量,进而实现提高全方位三维视频的质量。
附图说明
图1a是本发明实施例一所适用的一种拍摄系统的结构示意图;
图1b是本发明实施例一提供的一种全方位三维视频拼接方法的流程图;
图1c是本发明实施例一提供的一种场景拍摄组件的标定示意图;
图1d是本发明实施例一提供的一种场景拍摄组件的标定示意图;
图2a是本发明实施例二提供的一种全方位三维视频拼接方法的流程图;
图2b是本发明实施例二提供的一种阵列控制器的结构示意图;
图2c是本发明实施例二提供的一种标识物面板的结构示意图;
图2d是本发明实施例二提供的一种标识物面板的结构示意图;
图2e是本发明实施例二提供的一种标识物面板的结构示意图;
图2f是本发明实施例二提供的一种场景拍摄组件正面的结构示意图;
图2g是本发明实施例二提供的一种场景拍摄组件侧面的结构示意图;
图2h是本发明实施例二提供的一种场景拍摄组件俯视面的结构示意图;
图2i是本发明实施例二提供的一种双目立体视觉系统应用场景的示意图;
图2j是本发明实施例二提供的一种双目立体视觉系统应用场景的示意图;
图3是本发明实施例三提供的一种全方位三维视频拼接装置的结构图;
图4是本发明实施例四提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此 处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需 要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结 构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被 描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述 成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此 外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止, 但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、 规程、子例程、子程序等等。
实施例一
图1a是本发明实施例一所适用的一种拍摄系统的结构示意图,该拍摄系统 具体包括:至少两个拍摄组件和至少一个阵列控制器。如图1a所示,拍摄系统 包括一个阵列控制器101和三个拍摄组件102,其中,阵列控制器101用于控 制三个拍摄组件102拍摄,以及接收拍摄组件102拍摄的场景图像,拍摄组件 102用于对拍摄场景103进行拍摄,且环绕分布在拍摄场景周围,形成阵列。
阵列控制器101可以直接对场景图像进行拼接,并将拼接生成的全方位三 维图像模型发送至外部设备或服务器端,或者还可以将场景图像发送至外部设 备或服务器端,由外部设备或服务器端执行拼接操作,生成全方位三维图像模 型。用户可以通过计算机、移动终端或者其他终端设备获取外部设备或服务器 端中的全方位三维图像模型,选择任意的视角和视点观看全景全方位三维视频。 更详细的,可以将全方位三维视频实时传输到外部设备或服务器端进行实时播 放,或者还可以生成完整的全方位三维视频,根据用户需求控制在外部设备播 放,或者通过服务器端下载播放或在线播放。
需要说明的是,全方位三维图像是指,以设定范围内的物体或场景为目标 拍摄对象,环绕拍摄该目标拍摄对象所获取的图像。其中,全景三维图像是拍 摄器件以自身为中心旋转拍摄周围的且带有深度信息的图像,而实际全方位三 维图像是指拍摄器件以目标拍摄对象为中心,全方位的环绕拍摄目标拍摄对象 的且带有深度信息的图像。
图1b为本发明实施例一提供的一种全方位三维视频拼接方法的流程图,本 实施例可适用于获取全方位三维视频的情形,该方法基于能够对景物进行全方 位3D建模的拍摄系统,该方法可以由该系统中的拍摄设备、控制设备(如阵 列控制器)或者由与该系统通信连接的外部设备或服务器端执行,具体可以由 本发明实施例提供的全方位三维视频拼接装置来执行,该装置可采用软件和/或 硬件的方式实现,并一般可集成在终端设备中。如图1b所示,本实施例的方法 具体包括:
S110,获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方 式配合拍摄的,与拍摄场景对应的至少两张场景图像;其中,所述至少两个场 景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信息。
在本实施例中,场景拍摄组件可以是用于获取拍摄场景的图像的多个设备 的设备组合,其中,场景拍摄组件可以通过深度传感器获取拍摄场景的带有深 度信息的场景图像,即深度场景图像。分时获取方式可以是指,不同的场景拍 摄组件在不同时间段采集拍摄场景的图像;分波长获取方式可以是指,不同的 场景拍摄组件通过发射并接收不同波长的光,获取场景图像的深度信息。
可选的,场景拍摄组件可以包括深度传感器(深度传感器可以有多种形式 的,比如基于主动式双目3D系统的深度传感器,基于结构光照明的深度传感 器,基于飞行时间(Time of flight,TOF)的深度传感器,或其他形式的深度 传感器。在一个具体的例子中,如图1c所示,采用一个基于结构光照明的深度 传感器,其具体结构可以包括红外(Infrared,IR)摄像头104、IR激光器105 和衍射光器件106。其中IR摄像头104由IR光学镜头,IR带通滤光片和IR图 像传感器构成。衍射光器件106对光有衍射作用,IR激光器105发出的激光透 过衍射光器件106后会生成空间分布的结构,其具体结构可以根据衍射光器件的功能确定,例如可以生成二维随机光斑阵列。该深度传感器的具体获取图像 的深度信息的原理是:通过投影一个预先设计好的图案作为参考图像(编码光源), 将结构光投射至物体表面,再使用摄像机接收该物体表面反射的结构光图案, 这样,同样获得了两幅图像,一幅是预先设计的参考图像,另外一幅是相机获 取的物体表面反射的结构光图案,由于接收图案必会因物体的立体形状而发生 变形,故可以通过该图案在摄像机上的位置和形变程度来计算物体表面的深度 信息。
需要说明的是,场景拍摄组件可以是任意可以获取带有深度信息的图像的 拍摄组件,不仅仅局限于本实施例列举的深度传感器,例如还可以通过基于主 动式双目3D系统的深度传感器或者基于飞行时间(Time of flight,TOF)的 深度传感器获取图像的深度信息。
可以理解的是,在使用IR摄像头进行拍摄之前,需要对IR摄像头进行标 定,标定的方法包括但不限于:如图1c所示,可以预先测量衍射光器件106的 中心距离IR摄像头104中心距离L(也可以称为基线长度),而IR摄像头104 的焦距f未知。
选择一块白色的平面屏107作为标定板,将标定板放置在距离深度传感器 的距离Z0处,同时垂直于IR摄像头104的光轴放置。IR激光器105发出的激 光经过衍射光器件106后的二维随机光斑阵列照射到标定板上,IR摄像头104 拍摄下IR图像,经过滤波处理后存储到处理器芯片的内存中,作为深度定标图 像I0(x,y)。将标定板移动到距离深度传感器的距离Z1处,滤波处理后作为深度 定标图像I1(x,y)。
当实际对物体进行拍摄时,光斑阵列照射到物体表面,IR摄像头104拍摄 到的图像上经过滤波处理后得到图像I(x,y)。I(x,y)上光斑的位置会相对于深度 定标图像I0(x,y)上对应的光斑位置发生横向的偏移(视差)。利用图像匹配算 法,得出I(x,y)相对于I0(x,y)的视差分布Δx(x,y)。根据三角关系,物体表面的 深度为:
Z(x,y)=Z0+f*L/Δx(x,y)
物体表面相对于IR摄像头实际横向坐标为:
X(x,y)=-x*Z(x,y)/f
Y(x,y)=-y*Z(x,y)/f
IR摄像头104的焦距参数可由两幅标定图像I1(x,y)和I0(x,y)的视差Δx1-0标 定出:
f=(Z1-Z0)Δx1-0/L
在另一个例子中,深度传感器结构也可如图1d所示,包括IR摄像头104、 IR激光器105、衍射光器件106和IR摄像头108。
相比于前一种深度传感器,图1d所示的深度传感器有两个相同的IR摄像 头,光轴相互平行,水平分布在整个传感器上。此时基线长度L为两个IR摄像 头中心的距离。
具体标定方法为:用标定板106垂直于IR摄像头的光轴放置,并放置在距 离深度传感器已知距离Z0处。IR激光经过衍射光器件106后的二维随机光斑阵 列照射到屏上,IR摄像头104拍摄下IR图像,经过滤波处理后存储到芯片的 内存里面,作为深度定标图像IL0(x,y);IR摄像头108拍摄下IR图像滤波处理 后作为深度定标图像IR0(x,y)。两个IR摄像头的焦距f可由IL0(x,y)和IR0(x,y)的 视差ΔxRL0标定出:
当对实际物体进行深度传感时,IR摄像头104和IR摄像头108得到图像 经过滤波后分别得到IL0(x,y)和IR0(x,y)。运用标准的图像匹配算法,得到两个图 像的视差ΔxRL(x,y)。实际物体表面的深度:
物体表面相对于IR摄像头104的横向坐标分别为:
可以理解的是,在获取场景图像的深度信息时,由于任意一个深度传感器 所发出的IR结构光有可能不经过景物的反射,而直射进在该深度传感器对面的 深度传感器的IR摄像头而造成干扰,这会对对面的深度传感器采集的场景图像 数据造成干扰。
为了减少这种干扰情况,提高拍摄系统的抗干扰性,可选的,所述获取至 少两个场景拍摄组件通过分时获取方式配合拍摄的,与拍摄场景对应的至少两 张场景图像,包括:为各所述场景拍摄组件分配拍摄时间段,其中,各所述场 景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在分配的 拍摄时间段内对应的发射光的照射范围内不包括任意一个处于拍摄状态的场景 拍摄组件;各所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行 拍摄,获取各所述场景拍摄组件拍摄的场景图像。
具体的,在各场景拍摄组件的拍摄过程中,为了防止一个深度传感器所发 出的IR结构光直射进在该深度传感器对面的深度传感器的IR摄像头而造成干 扰,需要避免上述两个深度传感器在同一个拍摄时间段处于拍摄状态,对拍摄 对象进行拍摄。也就是说,在同一个拍摄时间段内,每个处于拍摄状态的场景 拍摄组件所对应的发射光的照射范围内不存在其他任何一个处于拍摄状态的场 景拍摄组件,从而实现在一个处于拍摄状态的场景拍摄组件不会接收到来自其 他场景拍摄组件发出的发射光。
在一个具体的例子中,全方位三维视频的成像周期为T,拍摄系统中共有n 个场景拍摄组件。可以将成像周期T分为n个时间段,每个时间段为t=T/n,每 个场景拍摄组件可依次选取在一个时间段t内发射IR激光和执行摄像头的曝光 操作,而在该成像周期T中的其他时间段内均停止该场景拍摄组件的IR激光器 发射激光以及摄像头的曝光操作。当下一个成像周期开始后,循环上述过程。
在本发明另一个可选的实施例中,所述获取至少两个场景拍摄组件通过分 波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像,可以包括: 各所述场景拍摄组件根据接收到预设波长的反射光,获取各所述场景拍摄组件 拍摄的场景图像;其中,所述反射光是所述预设波长的发射光对应的场景拍摄 组件发射的经过拍摄对象反射回来的光,每个场景拍摄组件对应的发射光的照 射范围内不包括与所述场景拍摄组件对应的发射光的波长相同的目标场景拍摄 组件。
具体的,所有的场景拍摄组件使用不同波长的IR光来获取深度图像;每个 场景拍摄组件发射一种波长的IR光,并且一个场景拍摄组件上的IR摄像头上 的IR带通滤光片只允许该波长的IR光被探测到,也就是说,预设波长与对应 发射光的波长相同;这样就能避免发射其他波长的场景拍摄组件上发出的IR光 被该场景拍摄组件所探测到。在一个具体的例子中,拍摄系统中共有m个场景 拍摄组件,可以对应m个波长的场景拍摄组件,m个深度传感器使用的波长均 不同。
在本发明另一个可选的实施例中,所述获取至少两个场景拍摄组件通过分 时波长获取方式和分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场 景图像,可以包括:各所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄 场景进行拍摄,其中,各所述场景拍摄组件在分配的拍摄时间段内处于拍摄状 态,每个场景拍摄组件在被分配的拍摄时间段内对应的发射光的照射范围内不 包括与所述场景拍摄组件对应的发射光的波长相同且处于拍摄状态的目标场景 拍摄组件;根据各所述场景拍摄组件根据接收到预设波长的反射光,获取各所 述场景拍摄组件拍摄的场景图像。
在一个具体的例子中,全方位三维视频的成像周期为T,拍摄系统中共有 m×n个场景拍摄组件。可以将各场景拍摄组件分为m组,其中,不同组的深 度传感器对应发射的激光的波长不同,而同一组的深度传感器在同一个成像周 期T中各自选取在一个时间段t=T/n内发射IR激光和执行摄像头的曝光操作, 并在该成像周期T中的其余时间停止发射IR激光和摄像头的曝光操作。在同一 个时间段t=T/n内,让不同组的具有不同波长的m个场景拍摄组件进行拍摄, 而其他场景拍摄组件关闭IR激光的发射和摄像头的曝光。下一个时间段t=T/n 内,让另外的不同组的具有不同波长的m个场景拍摄组件进行拍摄,并关闭其他场景拍摄组件的拍摄,依此类推,一整个拍摄周期T内,将完成所有场景拍 摄组件的拍摄,并获取到场景的一个全方位的3D图像所需的所有场景图象。
通过分时获取方式,和/或分波长获取方式配合拍摄到的拍摄场景的图像, 可以减少其他场景拍摄组件的干扰,提高场景图像的质量。
需要说明的是,针对现有的基于结构光照明的深度传感器和基于飞行时间 (Timeof flight,TOF)的深度传感器,除了可能出现任意一个深度传感器所 发出的结构光有可能直射进在该深度传感器对面的深度传感器的摄像头而造成 干扰的情况之外,还会出现下述情况:两个深度传感器投射到景物表面的结构 光存在一部分相互重叠,重叠的结构光反射回来会同时被两个深度传感器所成 像,同样对上述两个深度传感器造成干扰。
为了避免上述干扰,可选的,在同一个拍摄时间段内,每个场景拍摄组件 对应的探测范围内与任意一个处于拍摄状态的场景拍摄组件对应的探测范围均 不重叠;或者,每个场景拍摄组件对应的探测范围内与所述场景拍摄组件对应 的发射光的波长相同的目标场景拍摄组件所对应的探测范围均不重叠;或者, 在同一个拍摄时间段内,每个场景拍摄组件对应的探测范围内与所述场景拍摄 组件对应的发射光的波长相同且处于拍摄状态的目标场景拍摄组件所对应的探 测范围均不重叠。
具体的,探测范围实际和发射光的照射范围稍有不同,由于有些发射光没 有经过拍摄场景反射回来,或者有些反射光没有被场景拍摄组件接收到,从而, 探测范围实际与发射光的照射范围稍有不同。探测范围不重叠可以是指两个探 测范围在空间中不存在任何一个重合的点。
S120,根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹 配的全方位三维图像模型,其中,所述全方位三维图像模型用于形成全方位三 维视频。
在本实施例中,全方位三维图像模型可以是全方位可以显示拍摄场景的图 像模型,同时可以任意选择角度和视点观看拍摄场景的图像,视角可以是指观 看的角度,视点可以是指观看时用户眼睛的所在位置,具体可以用于表示观看 距离的远近以及观看视线的方向。其中,场景拼接的具体方式可以是:将至少 两张场景图像进行比对,查找有重合部分的两张图像,并按照重合部分对这两 张图像进行拼接,直至形成的全方位三维图像模型。
由于视频是由连续图像形成的,从而可以通过连续实时获取的全方位三维 图像模型,生成全方位三维视频。用户可以通过客户端确定视角和视点,获取 与视角和视点对应的连续实时的图像形成的视频。
本发明实施例通过根据全方位覆盖拍摄对象的多张带有深度信息的场景图 像,建立全方位三维图像模型,生成连续全方位三维图像,从而生成全方位三 维视频,解决了现有技术中无法进行全方位三维拍摄和无法选择任意视点的问 题,可以灵活调整全方位三维图像观看的视角和视点,提高了用户体验,同时, 通过分时获取和/或分波长获取方式对拍摄场景进行拍摄,可以减少场景拍摄组 件之间的干扰,提高场景图像的质量,从而提高全方位三维图像模型的质量, 进而实现提高全方位三维视频的质量。
在上述实施例基础上,所述场景图像中还包括颜色信息,相应的,如前例 中,图1c所示的深度传感器以及图1d所示的深度传感器还可以包括彩色摄像 头,或者场景拍摄组件可以包括彩色摄像头和深度传感器。彩色摄像头可以由 光学镜头,滤光片和彩色图像传感器构成。其中,彩色图像传感器可以是CMOS 图像传感器或者电荷耦合器件图像传感器(Charge Coupled Device,CCD)。
可选的,获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取 方式配合拍摄的,与拍摄场景对应的至少两张场景图像,包括:分别获取各所 述场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄 场景对应的深度图像以及彩色图像;其中,所述深度图像通过所述场景拍摄组 件中的深度摄像头拍摄,所述彩色图像通过所述场景拍摄组件中的彩色摄像头 拍摄;针对同一场景拍摄组件,根据所述同一场景拍摄组件获取的彩色图像, 将对应的深度图像进行着色处理,得到与各所述场景拍摄组件分别对应的场景 图像。
需要说明的是,彩色摄像头可以设置在场景拍摄组件中的IR摄像头所在的 平面内,彩色摄像头与IR摄像头的具体位置关系可以根据需要进行设定,本发 明实施例不作具体限制。
通过设置场景拍摄组件中包括彩色摄像头,在深度传感器获取场景图像的 深度信息的同时,彩色摄像头获取场景图像的颜色信息和亮度信息,使得场景 图像更加符合拍摄场景,提高拍摄图像的质量,从而提高用户体验。
可以理解的是,彩色摄像头在对拍摄场景进行拍摄前,同样需要进行标定。 同样彩色摄像头的标定方法包括但不限于:可以预先获取彩色摄像头中心与IR 摄像头中心之间的距离L′。若深度传感器的结构如1d所示,距离L′表示为彩色 摄像头中心与IR摄像头中心104之间的距离。
选择一块黑白棋盘板作为标定板,将标定板垂直于彩色摄像头的光轴放置, 并放置在距离深度传感器已知距离Z0处。彩色摄像头拍摄下图像,经过滤波去 噪处理后存储到芯片的内存里面,作为深度定标图像I0(x′,y′)。
棋盘上同一行的两个格子的间距是已知ΔX,对应格子的像在图像上的间距 为Δx′,则彩色摄像头焦距f′为:
当对实际物体做深度传感时,物体表面的实际坐标由IR摄像头记录的图的 视差用前面的X,Y,Z的表达式计算出。实际物体的彩色图像记录为I(x′,y′),而 彩色图像上的坐标和实际物体表面的对应关系由三角关系确定:
因此,物体表面(X,Y,Z)坐标点实际的亮度和颜色信息可以由I(x′,y′)像中 (x′,y′)点的彩色信息确定。这样,深度传感器不但获取了物体表面的深度信息, 还能对物体的表面着色。
需要说明的是,场景拍摄组件中获取的IR图像和彩色图像可以直接由深度 传感器内置的处理器芯片进行处理;也可以是发送到阵列控制器,由阵列控制 器内部的处理器芯片进行处理;或者可以是经过阵列控制器发送至外部计算机 设备,由外部计算机设备进行处理;还可以是经过阵列控制器发送至网络中的 服务器端,由服务器端进行处理。
另外,本实施例中提供的标定方法均是一种具体实施方式,还可以通过其 他具体实施方式实现对摄像头(包括IR摄像头和彩色摄像头),本发明实施例 不作具体限制。
实施例二
图2a为本发明实施例二提供的一种全方位三维视频拼接方法的流程图,本 实施例以上述实施例为基础进行具体化,在本实施例中,将根据所述至少两张 场景图像进行场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,具 体为:根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系, 将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场景图像; 将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的全方位三维 图像模型。
相应的,本实施例的方法可以包括:
S210,获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方 式配合拍摄的,与拍摄场景对应的至少两张场景图像;其中,所述至少两个场 景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信息。
S220,根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关 系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场景图 像。
在本实施例中,可以将各所述场景拍摄组件拍摄的场景图像中的各个像素 点的空间坐标统一到一个标准坐标系中,再根据更新后的空间坐标系,将各待 拼接场景图像进行拼接,避免通过逐一盲目搜索比对各场景图像,只需要根据 待拼接场景图像的空间坐标,在小范围进行精细搜索,大大减少了拼接处理的 运算量,相应的,处理时间减小了若干个数量级。
具体的,相机坐标系可以是针对每个场景拍摄组件,其所拍摄的深度场景 图像对于该场景拍摄组件的相对空间坐标系;标准空间坐标系可以是任意一个 相机坐标系,也可以与各相机坐标系均不同,是一个独立的空间坐标系。因为 不同的场景拍摄组件对应的相对空间坐标系不同,可以设置一个标准空间坐标 系,并获取各场景拍摄组件对应的相对空间坐标系分别与标准空间坐标系的对 应关系,将深度场景图像转换成在标准坐标系下的待拼接场景图像。
其中,各场景拍摄组件的相机坐标系与标准坐标系之间的对应关系可以根 据各场景拍摄组件在自己的相机坐标系中的空间坐标与各场景拍摄组件在标准 坐标系中的空间坐标确定。而各场景拍摄组件在标准坐标系中的空间坐标,可 以通过位于标准坐标系中的另一独立拍摄设备检测确定。
可选的,所述至少两个场景拍摄组件位于一个定位视觉系统的探测范围内, 所述标准坐标系为所述定位视觉系统的相机坐标系,其中,所述定位视觉系统 是一个双目立体视觉系统或者一个多目立体视觉系统;一个场景拍摄组件包含 至少三个标识物,且所述至少三个标识物不处于同一直线上。
具体的,可以通过定位视觉系统检测各场景拍摄组件在标准坐标系中的空 间坐标,由于各场景拍摄组件是具有一定体积的设备集合,从而可以在各场景 拍摄组件上设置易于检测到的标识物,用于代表各场景拍摄组件的空间位置。 其中,定位视觉系统为包括至少两个摄像机的用于定位各场景拍摄组件的空间 位置的视觉系统,例如可以是双目立体视觉系统,也可以是多目立体视觉系统 (如三目立体视觉系统、四目立体视觉系统等),,标识物可以是主动发出均 匀可见光的发光物体(如荧光片或者覆盖散射片的灯泡),也可是被动对光进 行均匀漫反射的散射片。通过至少设置不在同一条直线的三个标识物,至少确 定场景拍摄组件的一个表面,可以准确确定各场景拍摄组件的空间位置。
可以理解的是,为了节省成本,可以采用双目立体视觉系统对各场景拍摄 组件进行定位,同时将双目立体视觉系统设置在阵列控制器上。在一个具体的 例子中,如图2b所示,阵列控制器201包括两个摄像头202。更具体的,各场 景拍摄组件上的多个标识物可以设置在一个面板上,如图2c-图2e所示,标识 物面板203可以分别包括4、5、6个标识物204,此外,标识物的数目还可以 是3个或其他数目个标识物,本发明实施例不作具体限制。如图2f-图2h所示, 标识物面板203可以设置在场景拍摄组件102的不同方向的表面上。
可选的,在根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对 应关系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场 景图像之前,还包括:获取所述定位视觉系统拍摄的与各所述场景拍摄组件分 别对应的探测图像;根据所述探测图像,计算由各所述场景拍摄组件中包含的 标识物确定的各参考点在所述定位视觉系统的相机坐标系中的坐标;
根据各参考点在所述定位视觉系统的相机坐标系中的坐标,以及预先标定 的所述各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景 拍摄组件的相机坐标系与标准坐标系之间的对应关系。
具体的,探测图像可以包括各场景拍摄组件以及其上设置的标识物,可以 将标识物的中心点作为参考点,其中,若标识物是圆形的,中心点即圆心;若 标识物是矩形,中心点即举行对角线的交点,中心点可以根据具体情况进行设 定,本发明实施例不作具体限制。根据各参考点在定位视觉系统的相机坐标系 中的坐标,以及预先标定的各参考点在对应场景拍摄组件的相机坐标系中的坐 标,确定空间转换矩阵,并作为各场景拍摄组件的相机坐标系与标准坐标系之 间的对应关系。
在一个具体的例子中,采用双目立体视觉系统对各场景拍摄组件进行定位, 同时将双目立体视觉系统设置在阵列控制器上,如图2i所示,一个双目立体视 觉系统206可以检测到各场景拍摄组件205,其中,每个场景拍摄组件均设置 有标识物面板。
可以采用齐次坐标,则第i个标识物的中心在阵列控制器的相机坐标系的坐 标用列向量表示为:
将阵列控制器的相机坐标系变换到场景拍摄组件的相机坐标系,可以通过 一个旋转变换以及一个平移变换实现:
其中,平移矩阵旋转矩阵
在平移矩阵中包含3个独立参数,而在旋转矩阵中仅有3个参数是独立参 数,相应的,复合空间变换矩阵MTMR总共包含6个独立参数。
每个坐标点的空间变换可以得到3组方程。当选择3个不在一条直线上的 标识物的中心点从阵列控制器的相机坐标系变换到场景拍摄组件的相机坐标系 时,总共可以得到9个方程,但由于这3个标识物的中心点之间的相互距离(3 个线段的长度)可以预先测量的,因此实际只有6组方程需要求解,而且这6 组方程彼此独立。因此,仅需要这三个点的坐标变换方程就能求解出空间变换 矩阵的所有6个独立的参数。从而,需要至少选择不在一条直线上的三个标识 物代表场景拍摄组件。
需要说明的是,如果是从场景拍摄组件的相机坐标系变换到阵列控制器的 相机坐标系,其对应的空间变换矩阵为上述空间变换矩阵MTMR的逆矩阵。
由此,当移动场景拍摄组件的位置和角度时,其上每个标识物的中心位置 可由双目立体视觉系统探测出来,因此可以对场景拍摄组件的空间位置进行6 自由度的精确定位,即获取每个场景拍摄组件的精确的位置和角度,确定每个 场景拍摄组件的相机坐标系到双目立体视觉系统的相机坐标系的空间变换矩阵, 因此可以将每个场景拍摄组件获取的深度图像变换到双目立体视觉系统的相机 坐标系内的待拼接场景图像,而且每个待拼接场景图像的空间坐标已知。
可以理解的是,一个定位视觉系统可能由于场景拍摄组件彼此之间的遮挡, 或者由于拍摄场景中景物的遮挡,导致无法准确探测到各场景拍摄组件,为了 避免场景拍摄组件的位置关系造成的干扰,可选的,所述至少两个场景拍摄组 件位于至少两个定位视觉系统共同构成的探测范围内;所述标准坐标系为在所 述至少两个定位视觉系统中选择的目标定位视觉系统的相机坐标系;除去所述 目标定位视觉系统之外的至少一个参考定位视觉系统位于所述目标定位视觉系 统的探测范围内;每个场景拍摄组件上包含至少三个标识物,且所述至少三个 标识物不处于同一直线上;每个参考定位视觉系统上包含至少三个标识物,且 所述至少三个标识物不处于同一直线上。
通过设置多个定位视觉系统,避免由于一个定位视觉系统探测多个场景拍 摄组件存在死角问题,提高确定场景拍摄组件空间位置的准确性,从而提高场 景图像的准确性。
在一个具体的例子中,如图2j所示,采用两个双目立体视觉系统206配合 探测三个场景拍摄组件205和场景拍摄组件207,其中,每个场景拍摄组件均 设置有标识物面板。
进一步的,在根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的 对应关系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接 场景图像之前,还包括:获取所述至少两个定位视觉系统共同拍摄的与各所述 场景拍摄组件分别对应的第一探测图像,并获取所述目标定位视觉系统拍摄的 与参考定位视觉系统对应的第二探测图像;根据所述第一探测图像,计算由各 所述场景拍摄组件中包含的标识物确定的各参考点在所述目标定位视觉系统或 者对应的参考定位视觉系统的相机坐标系中的坐标;根据所述第二探测图像, 计算由所述参考定位视觉系统中包含的标识物确定的参考点在所述目标定位视 觉系统中的坐标;根据各所述场景拍摄组件中的各参考点在所述目标定位视觉 系统或者对应的参考定位视觉系统的相机坐标系中的坐标、预先标定的各所述 场景拍摄组件中的各参考点在对应的场景拍摄组件的相机坐标系中的坐标,预 先标定的参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐 标系中的坐标,以及所述至少一个参考定位视觉系统中的参考点在所述定位视 觉系统的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准 坐标系之间的对应关系。
具体的,可以根据预先确定各定位视觉系统对应的场景拍摄组件的相机坐 标系与定位视觉系统的相机坐标系的对应关系,以及目标定位视觉系统的相机 坐标系与参考定位视觉系统的相机坐标系的对应关系,确定目标定位视觉系统 与各场景拍摄组件的相机坐标系的对应关系。从而实现间接建立目标定位视觉 系统探测不到的场景拍摄组件的相机坐标系与目标定位视觉系统的相机坐标系 的对应关系。其中,可以从各定位视觉系统中,选择一个探测到场景拍摄组件 的数目最多的定位视觉系统作为目标定位视觉系统。
如前例,设置有阵列控制器A和阵列控制器B,且阵列控制器B上设置有 标识物,其中,场景拍摄组件207不能被阵列控制器A探测到。由此,可以通 过前述方法可以计算得到阵列控制器B的相机坐标系到阵列控制器A的相机坐 标系的空间变换矩阵,再根据采用前述方法得到的场景拍摄组件207的相机坐 标系到阵列控制器B的相机坐标系的空间变换矩阵,将两个空间变换矩阵相乘 得到的空间变换矩阵,即为场景拍摄组件207的相机坐标系到阵列控制器A的 相机坐标系的空间变换矩阵。此时,所有的场景拍摄组件获取的深度图像都可 以变换到阵列控制器A的相机坐标系中。
通过设置多个定位视觉系统,选择其中一个作为目标定位视觉系统,并使 得其他参考定位视觉系统能够被目标定位视觉系统探测到,实现目标定位视觉 系统能够间接探测到被遮挡的场景拍摄组件,避免场景拍摄组件被遮挡而无法 被一个定位视觉系统探测到,提高确定场景拍摄组件空间位置的准确性,从而 提高场景图像的准确性。
S230,将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的 全方位三维图像模型。
在本实施例中,各待拼接场景图像的空间坐标均位于同一个标准空间坐标 系中,可以根据各待拼接场景图像的空间坐标将各待拼接场景图像拼接起来。
本发明实施例通过将各场景拍摄组件的拍摄的深度场景图像均转换成在标 准坐标系下待拼接场景图像,按照待拼接场景图像中各像素的空间坐标进行拼 接,无需针对各张待拼接场景图像在很大的搜索空间内盲目搜索重合部分,仅 仅需要在很小的范围做精细的搜索即可完成拼接操作,大大减少了搜索的运算 量,提高了图像拼接效率。
实施例三
图3为本发明实施例三提供的一种全方位三维视频拼接装置的结构示意图。 如图3所示,所述装置包括:
场景图像获取模块310,用于获取至少两个场景拍摄组件通过分时获取方 式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像; 其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括 深度信息;
全方位三维图像模型建立模块320,用于根据所述至少两张场景图像进行 场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,其中,所述全方 位三维图像模型用于形成全方位三维视频。
本发明实施例通过根据全方位覆盖拍摄对象的多张带有深度信息的场景图 像,建立全方位三维图像模型,生成连续全方位三维图像,从而生成全方位三 维视频,解决了现有技术中无法进行全方位三维拍摄和无法选择任意视点的问 题,可以灵活调整全方位三维图像观看的视角和视点,提高了用户体验,同时, 通过分时获取和/或分波长获取方式对拍摄场景进行拍摄,可以减少场景拍摄组 件之间的干扰,提高场景图像的质量,从而提高全方位三维图像模型的质量, 进而实现提高全方位三维视频的质量。
进一步的,所述全方位三维图像模型建立模块320还用于:根据各所述场 景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两张所述深度 场景图像转换成在所述标准坐标系下的待拼接场景图像;
将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的全方位 三维图像模型。
进一步的,所述装置还包括:所述至少两个场景拍摄组件位于一个定位视 觉系统的探测范围内,所述标准坐标系为所述定位视觉系统的相机坐标系,其 中,所述定位视觉系统为双目立体视觉系统或多目立体视觉系统;;一个场景 拍摄组件包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
进一步的,所述装置还用于:获取所述定位视觉系统拍摄的与各场景拍摄 组件分别对应的探测图像;根据所述探测图像,计算由各场景拍摄组件中包含 的标识物确定的各参考点在所述定位视觉系统的相机坐标系中的坐标;根据各 参考点在所述定位视觉系统的相机坐标系中的坐标,以及预先标定的所述各参 考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的 相机坐标系与标准坐标系之间的对应关系。
进一步的,所述装置还包括:所述至少两个场景拍摄组件位于至少两个定 位视觉系统公共构成的探测范围内;所述标准坐标系为在所述至少两个定位视 觉系统中选择的目标定位视觉系统的相机坐标系;除去所述目标定位视觉系统 之外的至少一个参考定位视觉系统位于所述目标定位视觉系统的探测范围内; 每个场景拍摄组件上包含至少三个标识物,且所述至少三个标识物不处于同一 直线上;每个参考定位视觉系统上包含至少三个标识物,且所述至少三个标识 物不处于同一直线上。
进一步的,所述装置还用于:获取所述至少两个定位视觉系统共同拍摄的 与各场景拍摄组件分别对应的第一探测图像,并获取所述目标定位视觉系统拍 摄的与参考定位视觉系统对应的第二探测图像;根据所述第一探测图像,计算 由各场景拍摄组件中包含的标识物确定的各参考点在对应的目标定位视觉系统 或者参考定位视觉系统的相机坐标系中的坐标;根据所述第二探测图像,计算 由所述参考定位视觉系统中包含的标识物确定的参考点在所述目标定位视觉系 统中的坐标;根据各所述场景拍摄组件中的各参考点在所述定位视觉系统或者 所述参考定位视觉系统的相机坐标系中的坐标、预先标定的各场景拍摄组件中 的各参考点在对应场景拍摄组件的相机坐标系中的坐标,预先标定的参考定位 视觉系统中的各参考点在对应参考定位视觉系统的相机坐标系中的坐标,以及 至少一个所述参考定位视觉系统中的参考点在所述目标定位视觉系统的相机坐 标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对 应关系。
进一步的,所述场景图像获取模块310,还用于:为所述各拍摄组件分配 拍摄时间段,其中,各所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态, 每个场景拍摄组件在分配的拍摄时间段内对应的发射光的照射范围内不包括任 意一个处于拍摄状态的场景拍摄组件;所述各拍摄组件在被分配的拍摄时间段 内对所述拍摄场景进行拍摄,获取所述各拍摄组件拍摄的场景图像。
进一步的,所述场景图像获取模块310,还用于:各所述场景拍摄组件根 据接收到预设波长的反射光,获取各所述场景拍摄组件拍摄的场景图像;其中, 所述反射光是所述预设波长的发射光对应的场景拍摄组件发射的经过拍摄对象 反射回来的光,每个场景拍摄组件对应的发射光的照射范围内不包括与所述场 景拍摄组件对应的发射光的波长相同的目标场景拍摄组件。
进一步的,所述场景图像获取模块310,还用于:各所述场景拍摄组件在 被分配的拍摄时间段内对所述拍摄场景进行拍摄,其中,各所述场景拍摄组件 在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在被分配的拍摄时间 段内对应的发射光的照射范围内不包括与所述场景拍摄组件对应的发射光的波 长相同且处于拍摄状态的目标场景拍摄组件;根据各所述场景拍摄组件根据接 收到预设波长的反射光,获取各所述场景拍摄组件拍摄的场景图像。
进一步的,所述装置还包括:所述场景图像中还包括颜色信息。
进一步的,所述场景图像获取模块310,还用于:分别获取各拍摄组件通 过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的深度图 像以及彩色图像;其中,所述深度图像通过所述拍摄组件中的深度摄像头拍摄, 所述彩色图像通过所述拍摄组件中的彩色摄像头拍摄;将与同一拍摄组件分别 对应的深度图像以及彩色图像进行着色处理,得到与各所述拍摄组件分别对应 的场景图像。
上述全方位三维视频拼接装置可执行本发明任意实施例所提供的全方位三 维视频拼接方法,具备执行的全方位三维视频拼接方法相应的功能模块和有益 效果。
实施例四
图4为本发明实施例四提供的一种设备的结构示意图。图4示出了适于用 来实现本发明实施方式的示例性设备412的框图。图4显示的设备412仅仅是 一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,设备412以通用计算设备的形式表现。设备412的组件可以 包括但不限于:一个或者多个处理器或者处理单元416,系统存储器428,连接 不同系统组件(包括系统存储器428和处理单元416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储器总线或者存储器 控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总 线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构 (Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
设备412典型地包括多种计算机系统可读介质。这些介质可以是任何能够 被设备412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移 动的介质。
系统存储器428可以包括易失性存储器形式的计算机系统可读介质,例如 随机存取存储器(RAM)430和/或高速缓存存储器432。设备412可以进一步 包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举 例,存储系统434可以用于读写不可移动的、非易失性磁介质(图4未显示, 通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易 失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例 如紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM),数字视盘 (Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的 光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口 与总线418相连。存储器428可以包括至少一个程序产品,该程序产品具有一 组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的 功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例 如存储器428中,这样的程序模块442包括——但不限于——操作系统、一个 或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种 组合中可能包括网络环境的实现。程序模块442通常执行本发明所描述的实施 例中的功能和/或方法。
设备412也可以与一个或多个外部设备414(例如键盘、指向设备、显示 器424等)通信,还可与一个或者多个使得用户能与该设备412交互的设备通 信,和/或与使得该设备412能与一个或多个其它计算设备进行通信的任何设备 (例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(Input/Output, I/O)接口422进行。并且,设备412还可以通过网络适配器420与一个或者多 个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network, WAN)通信。如图所示,网络适配器420通过总线418与设备412的其它模块 通信。应当明白,尽管图4中未示出,可以结合设备412使用其它硬件和/或软 件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动 阵列、(RedundantArrays of Inexpensive Disks,RAID)系统、磁带驱动器以及 数据备份存储系统等。
处理单元416通过运行存储在系统存储器428中的程序,从而执行各种功 能应用以及数据处理,例如实现本发明实施例所提供的一种全方位三维视频拼 接方法。
也即,所述处理单元执行所述程序时实现:获取至少两个场景拍摄组件通 过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两 张场景图像;其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述 场景图像包括深度信息;根据所述至少两张场景图像进行场景拼接,得到与所 述拍摄场景匹配的全方位三维图像模型,其中,所述全方位三维图像模型用于 形成全方位三维视频。
实施例五
本发明实施例五提供了一种计算机可读存储介质,其上存储有计算机程序, 该程序被处理器执行时实现如本申请所有发明实施例提供的全方位三维视频拼 接方法:
也即,该程序被处理器执行时实现:获取至少两个场景拍摄组件通过分时 获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景 图像;其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图 像包括深度信息;根据所述至少两张场景图像进行场景拼接,得到与所述拍摄 场景匹配的全方位三维图像模型,其中,所述全方位三维图像模型用于形成全 方位三维视频。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质 的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储 介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、 红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存 储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、 便携式计算机磁盘、硬盘、RAM、只读存储器(Read OnlyMemory,ROM)、 可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、 闪存、光纤、便携式CD-ROM、光存储器件、磁存储器件、或者上述的任意合 适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有 形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据 信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种 形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计 算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介 质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或 者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括—— 但不限于——无线、电线、光缆、无线电频率(Radio Frequency,RF)等等, 或者上述的任意合适的组合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员 会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进 行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽 然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以 上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例, 而本发明的范围由所附的权利要求范围决定。

Claims (13)

1.一种全方位三维视频拼接方法,其特征在于,包括:
获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像;
其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信息;
根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,其中,所述全方位三维图像模型用于形成全方位三维视频。
2.根据权利要求1所述的方法,其特征在于,所述根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,包括:
根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场景图像;
将所述待拼接场景图像进行拼接处理,得到与所述拍摄场景匹配的全方位三维图像模型。
3.根据权利要求2所述的方法,其特征在于:
所述至少两个场景拍摄组件位于一个定位视觉系统的探测范围内,所述标准坐标系为所述定位视觉系统的相机坐标系,其中,所述定位视觉系统为双目立体视觉系统或多目立体视觉系统;;
一个场景拍摄组件包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
4.根据权利要求3所述的方法,其特征在于,在根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场景图像之前,还包括:
获取所述定位视觉系统拍摄的与各所述场景拍摄组件分别对应的探测图像;
根据所述探测图像,计算由各所述场景拍摄组件中包含的标识物确定的各参考点在所述定位视觉系统的相机坐标系中的坐标;
根据各参考点在所述定位视觉系统的相机坐标系中的坐标,以及预先标定的所述各参考点在对应场景拍摄组件的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
5.根据权利要求2所述的方法,其特征在于;
所述至少两个场景拍摄组件位于至少两个定位视觉系统共同构成的探测范围内;所述标准坐标系为在所述至少两个定位视觉系统中选择的目标定位视觉系统的相机坐标系;除去所述目标定位视觉系统之外的至少一个参考定位视觉系统位于所述目标定位视觉系统的探测范围内;
每个场景拍摄组件上包含至少三个标识物,且所述至少三个标识物不处于同一直线上;每个参考定位视觉系统上包含至少三个标识物,且所述至少三个标识物不处于同一直线上。
6.根据权利要求5所述的方法,其特征在于,在根据各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系,将至少两张所述深度场景图像转换成在所述标准坐标系下的待拼接场景图像之前,还包括:
获取所述至少两个定位视觉系统共同拍摄的与各所述场景拍摄组件分别对应的第一探测图像,并获取所述目标定位视觉系统拍摄的与参考定位视觉系统对应的第二探测图像;
根据所述第一探测图像,计算由各所述场景拍摄组件中包含的标识物确定的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标;
根据所述第二探测图像,计算由所述参考定位视觉系统中包含的标识物确定的参考点在所述目标定位视觉系统中的坐标;
根据各所述场景拍摄组件中的各参考点在所述目标定位视觉系统或者对应的参考定位视觉系统的相机坐标系中的坐标、预先标定的各所述场景拍摄组件中的各参考点在对应的场景拍摄组件的相机坐标系中的坐标,预先标定的参考定位视觉系统中的各参考点在对应的参考定位视觉系统的相机坐标系中的坐标,以及所述至少一个参考定位视觉系统中的参考点在所述目标定位视觉系统的相机坐标系中的坐标,确定各所述场景拍摄组件的相机坐标系与标准坐标系之间的对应关系。
7.根据权利要求1所述的方法,其特征在于,所述获取至少两个场景拍摄组件通过分时获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像,包括:
为各所述场景拍摄组件分配拍摄时间段,其中,各所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在分配的拍摄时间段内对应的发射光的照射范围内不包括任意一个处于拍摄状态的场景拍摄组件;
各所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄,获取各所述场景拍摄组件拍摄的场景图像。
8.根据权利要求1所述的方法,其特征在于,所述获取至少两个场景拍摄组件通过分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像,包括:各所述场景拍摄组件根据接收到预设波长的反射光,获取各所述场景拍摄组件拍摄的场景图像;其中,所述反射光是所述预设波长的发射光对应的场景拍摄组件发射的经过拍摄对象反射回来的光,每个场景拍摄组件对应的发射光的照射范围内不包括与所述场景拍摄组件对应的发射光的波长相同的目标场景拍摄组件。
9.根据权利要求1所述的方法,其特征在于,所述获取至少两个场景拍摄组件通过分时获取方式和分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像,包括:
各所述场景拍摄组件在被分配的拍摄时间段内对所述拍摄场景进行拍摄,其中,各所述场景拍摄组件在分配的拍摄时间段内处于拍摄状态,每个场景拍摄组件在被分配的拍摄时间段内对应的发射光的照射范围内不包括与所述场景拍摄组件对应的发射光的波长相同且处于拍摄状态的目标场景拍摄组件;
根据各所述场景拍摄组件根据接收到预设波长的反射光,获取各所述场景拍摄组件拍摄的场景图像。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述场景图像中还包括颜色信息;
获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像,包括:
分别获取各所述场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的深度图像以及彩色图像;
其中,所述深度图像通过所述场景拍摄组件中的深度摄像头拍摄,所述彩色图像通过所述场景拍摄组件中的彩色摄像头拍摄;
针对同一场景拍摄组件,根据所述同一场景拍摄组件获取的彩色图像,将对应的深度图像进行着色处理,得到与各所述场景拍摄组件分别对应的场景图像。
11.一种全方位三维视频拼接装置,其特征在于,包括:
场景图像获取模块,用于获取至少两个场景拍摄组件通过分时获取方式,和/或分波长获取方式配合拍摄的,与拍摄场景对应的至少两张场景图像;其中,所述至少两个场景拍摄组件的拍摄角度覆盖全方位,所述场景图像包括深度信息;
全方位三维图像模型建立模块,用于根据所述至少两张场景图像进行场景拼接,得到与所述拍摄场景匹配的全方位三维图像模型,其中,所述全方位三维图像模型用于形成全方位三维视频。
12.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的全方位三维视频拼接方法。
13.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的全方位三维视频拼接方法。
CN201811109232.5A 2018-09-21 2018-09-21 全方位三维视频拼接方法、装置、设备以及存储介质 Pending CN109379578A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811109232.5A CN109379578A (zh) 2018-09-21 2018-09-21 全方位三维视频拼接方法、装置、设备以及存储介质
CN201910889205.2A CN110572630B (zh) 2018-09-21 2019-09-19 三维图像拍摄系统、方法、装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811109232.5A CN109379578A (zh) 2018-09-21 2018-09-21 全方位三维视频拼接方法、装置、设备以及存储介质

Publications (1)

Publication Number Publication Date
CN109379578A true CN109379578A (zh) 2019-02-22

Family

ID=65402392

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201811109232.5A Pending CN109379578A (zh) 2018-09-21 2018-09-21 全方位三维视频拼接方法、装置、设备以及存储介质
CN201910889205.2A Active CN110572630B (zh) 2018-09-21 2019-09-19 三维图像拍摄系统、方法、装置、设备以及存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201910889205.2A Active CN110572630B (zh) 2018-09-21 2019-09-19 三维图像拍摄系统、方法、装置、设备以及存储介质

Country Status (1)

Country Link
CN (2) CN109379578A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111800644A (zh) * 2020-07-14 2020-10-20 深圳市人工智能与机器人研究院 一种视频分享、获取方法、服务器、终端设备及介质
CN113706723A (zh) * 2021-08-23 2021-11-26 维沃移动通信有限公司 图像处理方法和装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113048878B (zh) * 2019-12-27 2023-08-29 苏州因确匹电子科技有限公司 光学定位系统、方法以及多视图三维重建系统、方法
CN113160105B (zh) * 2020-01-23 2024-05-28 阿里巴巴集团控股有限公司 相机视点确定、相机视点推荐、数据处理方法及设备
CN111625001B (zh) * 2020-05-28 2024-02-02 珠海格力智能装备有限公司 机器人的控制方法及装置、工业机器人
CN112073669A (zh) * 2020-09-18 2020-12-11 三星电子(中国)研发中心 一种视频通信的实现方法和装置
CN114584697B (zh) * 2020-11-16 2024-06-25 中国航发商用航空发动机有限责任公司 残余物探测装置及方法
CN113112610B (zh) * 2021-03-29 2024-05-28 联想(北京)有限公司 一种信息处理方法、装置和电子设备
CN114554108B (zh) * 2022-02-24 2023-10-27 北京有竹居网络技术有限公司 图像处理方法、装置和电子设备
CN115561201B (zh) * 2022-10-10 2023-07-07 安徽工程大学 一种热障涂层结构完整性太赫兹评价装置及其使用方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008571B (zh) * 2014-06-12 2017-01-18 深圳奥比中光科技有限公司 基于深度相机的人体模型获取方法及网络虚拟试衣系统
CN106204727A (zh) * 2016-07-11 2016-12-07 北京大学深圳研究生院 一种足部三维扫描重建的方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111800644A (zh) * 2020-07-14 2020-10-20 深圳市人工智能与机器人研究院 一种视频分享、获取方法、服务器、终端设备及介质
CN111800644B (zh) * 2020-07-14 2022-10-14 深圳市人工智能与机器人研究院 一种视频分享、获取方法、服务器、终端设备及介质
CN113706723A (zh) * 2021-08-23 2021-11-26 维沃移动通信有限公司 图像处理方法和装置

Also Published As

Publication number Publication date
CN110572630A (zh) 2019-12-13
CN110572630B (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
CN109379578A (zh) 全方位三维视频拼接方法、装置、设备以及存储介质
US10127712B2 (en) Immersive content framing
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
KR102417177B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN108307675A (zh) 用于vr/ar应用中的深度增强的多基线相机阵列系统架构
JP6974873B2 (ja) シーンから深度情報を取得するための装置および方法
US10482663B2 (en) Virtual cues for augmented-reality pose alignment
JP5456020B2 (ja) 情報処理装置および方法
US10275898B1 (en) Wedge-based light-field video capture
KR102010396B1 (ko) 영상 처리 장치 및 방법
CN110335307B (zh) 标定方法、装置、计算机存储介质和终端设备
CN102243432A (zh) 全景立体摄像装置
WO2018028152A1 (zh) 一种图像采集设备、虚拟现实设备
KR102067823B1 (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
CN109640070A (zh) 一种立体显示方法、装置、设备及存储介质
CN101729920A (zh) 一种自由视角立体视频显示方法
JPH11175762A (ja) 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP2020191624A (ja) 電子機器およびその制御方法
JP2001016621A (ja) 多眼式データ入力装置
GB2565301A (en) Three-dimensional video processing
JP6367803B2 (ja) オブジェクト空間のオブジェクト点の記述のための方法およびその実施のための結合体
CN107103620B (zh) 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
Lee Wand: 360∘ video projection mapping using a 360∘ camera
CN113016011A (zh) 用于基底、涂覆品、中空玻璃单元等的增强现实系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190222

WD01 Invention patent application deemed withdrawn after publication