CN115176282A - 图像处理装置、生成3d模型的方法、学习方法以及程序 - Google Patents
图像处理装置、生成3d模型的方法、学习方法以及程序 Download PDFInfo
- Publication number
- CN115176282A CN115176282A CN202180015968.XA CN202180015968A CN115176282A CN 115176282 A CN115176282 A CN 115176282A CN 202180015968 A CN202180015968 A CN 202180015968A CN 115176282 A CN115176282 A CN 115176282A
- Authority
- CN
- China
- Prior art keywords
- time
- unit
- image
- illumination
- illumination state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/586—Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
视频生成和显示装置(10a)(图像处理装置)的图像捕获单元(43)(第一获取单元)获取通过在照明装置(11)的状态在每个时间点改变的条件下在每个时间点对受摄体(18)(对象)进行成像而获得的图像,并且照明控制信息输入单元(41)(第二获取单元)获取在图像捕获单元(43)捕获图像的每个时间点处照明装置(11)的状态。此外,前景裁剪处理单元(44a)(裁剪单元)基于由照明控制信息输入单元(41)获取的在每个时间点照明装置(11)的状态,从由图像捕获单元(43)捕获的图像中裁剪出受摄体(18),并且建模处理单元(46)(模型生成单元)生成由前景裁剪处理单元(44a)裁剪出的受摄体(18)的三维模型(18M)。
Description
技术领域
本公开内容涉及图像处理装置、生成3D模型的方法、学习方法和程序,并且更具体地,涉及即使照明状态在每个时刻改变的情况下也能够生成高质量的3D模型和立体视频的图像处理装置、生成3D模型的方法、学习方法以及程序。
背景技术
常规上已经提出了以下方法:通过使用通过感测真实3D空间而获得的信息,例如通过从不同视点对受摄体进行成像而获得的多视点视频来在观看空间中生成3D对象,并且生成对象看起来好像存在于观看空间中的视频(立体视频)(例如,专利文献1)。
[引文列表]
[专利文献]
专利文献1:WO 2017/082076 A
发明内容
[技术问题]
然而,在专利文献1中,在诸如专用工作室的稳定照明环境中裁剪受摄体。专利文献1没有提及在照明环境时刻变化的诸如现场演出场地的环境中对受摄体的裁剪。
照明环境的变化使得难以以高精度执行裁剪要建模的区域的处理(前景裁剪处理)。此外,由于照明状态反映在从通过对受摄体进行成像而获得的图像中生成的纹理中,所以受摄体以不同于受摄体的原始颜色的颜色而被观察。因此,存在难以消除照明影响的问题。
本公开内容提出了即使在照明状态在每个时刻改变的情况下也能够生成高质量3D模型和立体视频的图像处理装置、生成3D模型的方法、学习方法以及程序。
[问题的解决方案]
为了解决上述问题,根据本公开内容的实施方式的图像处理装置包括:第一获取单元,第一获取单元获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;第二获取单元,第二获取单元获取每个时刻的照明状态;裁剪单元,裁剪单元基于由第二获取单元获取的每个时刻的照明状态从图像中裁剪对象的区域;以及模型生成单元,该模型生成单元生成由裁剪单元裁剪的对象的3D模型。
此外,根据本公开内容的实施方式的图像处理装置包括:获取单元,获取单元获取3D模型,3D模型通过基于在每个时刻改变的照明状态从图像裁剪对象而生成,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;以及渲染单元,该渲染单元执行由获取单元获取的3D模型的渲染。
附图说明
图1概述了服务器装置生成受摄体的3D模型的流程。
图2示出了表示3D模型所需的数据的内容。
图3是示出第一实施方式的视频生成/显示装置的装置配置的一个示例的框图。
图4是示出第一实施方式的服务器装置的硬件配置的一个示例的硬件框图。
图5是示出第一实施方式的移动终端的硬件配置的一个示例的硬件框图。
图6是示出第一实施方式的视频生成/显示装置的功能配置的一个示例的功能框图。
图7示出了根据第一实施方式的视频生成/显示装置的输入/输出数据的数据格式的一个示例。
图8示出了模拟照明的背景图像的照明信息处理单元的处理。
图9示出了纹理校正处理的方法。
图10示出了由第一实施方式的视频生成/显示装置显示的视频的一个示例。
图11是示出第一实施方式中的照明信息处理的流程的一个示例的流程图。
图12是示出第一实施方式中的前景裁剪处理的流程的一个示例的流程图。
图13是示出第一实施方式中的纹理校正处理的流程的一个示例的流程图。
图14是示出第二实施方式的视频生成/显示装置的功能配置的一个示例的功能框图。
图15概述了使用深度学习的前景裁剪处理。
图16概述了使用深度学习的纹理校正处理。
图17是示出第二实施方式中的前景裁剪处理的流程的一个示例的流程图。
图18是示出第二实施方式中的纹理校正处理的流程的一个示例的流程图。
图19是示出生成学习数据的过程的一个示例的流程图。
具体实施方式
下面将参照附图详细地描述本公开内容的实施方式。注意,在以下实施方式的每一个中,相同的附图标记被附加至相同的部分,以省略重复描述。
此外,将根据以下项目顺序来描述本公开内容。
1.第一实施方式
1-1.前提说明-3D模型的生成
1-2.前提说明-3D模型的数据结构
1-3.视频生成/显示装置的示意配置
1-4.服务器装置的硬件配置
1-5.移动终端的硬件配置
1-6.视频生成/显示装置的功能配置
1-7.模拟照明的背景图像的方法
1-8.前景裁剪处理
1-9.纹理校正处理
1-10.由第一实施方式的视频生成/显示装置执行的照明信息处理的流程
1-11.由第一实施方式的视频生成/显示装置执行的前景裁剪处理的流程
1-12.由第一实施方式的视频生成/显示装置执行的纹理校正处理的流程
1-13.第一实施方式的效果
2.第二实施方式
2-1.第二实施方式的视频生成/显示装置的功能配置
2-2.前景裁剪处理
2-3.纹理校正处理
2-4.由第二实施方式的视频生成/显示装置执行的处理的流程
2-5.第二实施方式的变体
2-6.第二实施方式的效果
(1.第一实施方式)
[1-1.前提说明-3D模型的生成]
图1概述了服务器装置生成受摄体的3D模型的流程。
如图1中所示,通过执行以下处理获得受摄体18的3D模型18M:利用多个相机14(14a、14b和14c)对受摄体18进行成像并且通过3D建模生成具有关于受摄体18的3D信息的3D模型18M。
具体地,如图1中所示,多个相机14被布置在受摄体18的周围以便围绕真实世界中的受摄体18并且面向受摄体18。图1示出了围绕受摄体18布置的三个相机14a、14b和14c的示例。注意,在图1中,受摄体18是人。此外,相机14的数目不限于三个,并且可以提供更大数目的相机。
通过使用从不同视点由三个相机14a、14b和14c同步立体地捕获的多个视点图像来执行3D建模。以三个相机14a、14b和14c的视频帧为单位来生成受摄体18的3D模型18M。
3D模型18M具有关于受摄体18的3D信息。3D模型18M具有以例如称为多边形网格的网格数据的格式表示受摄体18的表面形状的形状信息。在网格数据中,由顶点和顶点的连接表示信息。此外,3D模型18M具有与每个多边形网格对应的表示受摄体18的表面状态的纹理信息。注意,3D模型18M的信息的格式不限于此。可以使用其他格式的信息。
当重建3D模型18M时,执行所谓的纹理映射。在纹理映射中,根据网格位置附加表示网格的颜色、图案和感觉的纹理。在纹理映射中,期望附加视角相关(在下文中称为VD)的纹理以提高3D模型18M的真实性。这将根据在从任何虚拟视点捕获3D模型18M时的视点位置来改变纹理,使得可以获得更高质量的虚拟图像。然而,这增加了计算量,所以可以将视角无关的(在下文中称为VI)纹理附加至3D模型18M。
包括读取的3D模型18M的内容数据被传送至用作再现装置的移动终端80并且被再现。通过渲染3D模型18M并再现包括3D模型18M的内容数据,在用户(观看者)的观看装置上显示包括3D形状的视频。
在图1的示例中,诸如智能电话、平板终端的移动终端80被用作观看装置。也就是说,包括3D模型18M的图像被显示在移动终端80的显示器111上。
[1-2.前提说明-3D模型的数据结构]
接下来,将参照图2描述表现3D模型18M所需的数据的内容。图2示出了表现3D模型所需的数据的内容。
由网格信息M和纹理信息T表现受摄体18的3D模型18M。网格信息M指示受摄体18的形状。纹理信息T指示受摄体18的表面的感觉(例如,色泽和图案)。
网格信息M通过将3D模型18M的表面上的一些部分定义为顶点并且连接顶点(多边形网格)来表示3D模型18M的形状。此外,可以使用深度信息Dp(未示出)而不是网格信息M。深度信息Dp表示从用于观察受摄体18的视点位置到受摄体18的表面的距离。基于同一区域中的受摄体18的视差来计算受摄体18的深度信息Dp。从由例如相邻成像装置捕获的图像中检测视差。注意,可以通过安装传感器(例如,飞行时间(TOF)相机)和包括测距机构的红外(IR)相机而不是成像装置来获得到受摄体18的距离。
在本实施方式中,两种类型的数据被用作纹理信息T。一种是不依赖于用于观察3D模型18M的视点位置(VI)的纹理信息Ta。纹理信息Ta是通过将3D模型18M的表面的纹理以诸如图2中的UV纹理映射的展开视图的格式存储而获得的数据。也就是说,纹理信息Ta是视角无关的数据。例如,当3D模型18M是穿着衣服的人时,包括衣服以及人的皮肤和头发的图案的UV纹理映射被准备为纹理信息Ta。然后,可以通过在表示3D模型18M的网格信息M的表面上附加与网格信息M对应的纹理信息Ta来绘制3D模型18M(VI渲染)。然后,此时,即使当3D模型18M的观察位置改变时,相同的纹理信息Ta也被附加至表示相同区域的网格。如上所述,通过将3D模型18M所穿戴的衣服的纹理信息Ta附加至表示衣服的部分的所有网格来执行使用纹理信息Ta的VI渲染。因此,一般而言,使用纹理信息Ta的VI渲染数据量小且渲染处理的计算负荷轻。然而,要注意的是,附加的纹理信息Ta是一致的,并且即使当观察位置改变时,纹理也不改变。因此,纹理的质量一般较低。
另一种纹理信息T是依赖于用于观察3D模型18M的视点位置(VD)的纹理信息Tb。纹理信息Tb由通过从多个视点观察受摄体18获得的一组图像表示。也就是说,纹理信息Ta是视角相关的数据。具体地,当由N个相机观察受摄体18时,通过由相应的相机同时捕获的N个图像表示纹理信息Tb。然后,当在3D模型90M的任意网格中渲染纹理信息Tb时,从N个图像中检测到对应于相应网格的所有区域。然后,对在多个检测到的区域中出现的每个纹理进行加权并且附加至相应的网格。如上所述,使用纹理信息Tb的VD渲染一般数据量大且渲染处理的计算负荷重。然而,附加的纹理信息Tb根据观察位置而改变,使得纹理的质量一般较高。
[1-3.视频生成/显示装置的示意配置]
接下来,将参照图3描述第一实施方式的视频生成/显示装置的示意配置。图3是示出第一实施方式的视频生成/显示装置的装置配置的一个示例的框图。
视频生成/显示装置10a生成受摄体18的3D模型18M。此外,视频生成/显示装置10a再现通过从自由视点观看生成的受摄体18的3D模型18M而获得的立体视频。视频生成/显示装置10a包括服务器装置20a和移动终端80。注意,视频生成/显示装置10a是本公开内容中的图像处理装置的一个示例。此外,受摄体18是本公开内容中的对象的一个示例。
服务器装置20a生成受摄体18的3D模型18M。服务器装置20a还包括照明控制模块30和立体视频生成模块40a。
照明控制模块30给照明装置11设置每个时刻的照明控制信息17。照明控制信息17包括例如照明的位置、取向、颜色、亮度等。注意,多个照明装置11被连接以从不同的方向照明受摄体18。稍后将描述照明控制模块30的详细功能配置。
立体视频生成模块40a基于由多个相机14捕获的相机图像来生成受摄体18的3D模型18M,所述多个相机14被安装成从不同的位置对受摄体18进行成像。稍后将描述立体视频生成模块40a的详细功能配置。
移动终端80接收从服务器装置20a传送的受摄体18的3D模型18M。然后,移动终端80再现通过从自由视点观看受摄体18的3D模型18M而获得的立体视频。移动终端80包括立体视频再现模块90。注意,移动终端80可以是任何类型,只要移动终端80具有视频再现功能即可,具体地例如智能电话、电视监视器和头戴式显示器(HMD)。
立体视频再现模块90通过在当从自由视点观看到由立体视频生成模块40a生成的受摄体18的3D模型18M时的每个时刻渲染图像来生成立体视频。然后,立体视频再现模块90再现所生成的立体视频。稍后将描述立体视频再现模块90的详细功能配置。
[1-4.服务器装置的硬件配置]
接下来,将参照图4描述服务器装置20a的硬件配置。图4是示出第一实施方式的服务器装置的硬件配置的一个示例的硬件框图。
服务器装置20a具有以下配置:其中,中央处理单元(CPU)50、只读存储器(ROM)51、随机存取存储器(RAM)52、存储单元53、输入/输出控制器54和通信控制器55通过内部总线60连接。
CPU 50通过在RAM 52上开发和执行存储在存储单元53中的控制程序P1和存储在ROM 51中的各种数据文件来控制服务器装置20a的整体操作。也就是说,服务器装置20a具有由控制程序P1操作的普通计算机的配置。注意,可以经由诸如局域网、因特网和数字卫星广播的有线或无线传送介质来提供控制程序P1。此外,服务器装置20a可以利用硬件执行一系列处理。注意,由CPU 50执行的控制程序P1的处理可以按照本公开内容中描述的顺序按时间顺序执行,或者可以并行执行或在必要的定时(例如当进行调用时的定时)处执行。
存储单元53包括例如闪存,并且存储由CPU 50执行的控制程序P1和受摄体18的3D模型18M。此外,3D模型18M可以由服务器装置20a本身生成,或者可以从另一外部装置获取。
输入/输出控制器54经由触摸面板接口56获取触摸面板61的操作信息。触摸面板61堆叠在显示器62上,显示器62显示与照明装置11、相机14等有关的信息。此外,输入/输出控制器54经由显示接口57在显示器62上显示图像信息、与照明装置11有关的信息等。
此外,输入/输出控制器54经由相机接口58连接至相机14。输入/输出控制器54执行相机14的成像控制以同时对受摄体18进行成像,其中多个相机14被布置成围绕受摄体18,输入/输出控制器54向服务器装置20a输入多个捕获的图像。
此外,输入/输出控制器54经由照明接口59连接至照明装置11。输入/输出控制器54向照明装置11输出用于控制照明状态的照明控制信息17(参见图6)。
此外,服务器装置20a经由通信控制器55与移动终端80进行通信。这使得服务器装置20a向移动终端80传送受摄体18的立体视频。
[1-5.移动终端的硬件配置]
接下来,将参照图5描述移动终端80的硬件配置。图5是示出第一实施方式的移动终端的硬件配置的一个示例的硬件框图。
移动终端80具有以下配置:其中,CPU 100、ROM 101、RAM 102、存储单元103、输入/输出控制器104和通信控制器105通过内部总线109连接。
CPU 100通过在RAM 102上开发和执行存储单元103中所存储的控制程序P2和ROM101中所存储的各种数据文件来控制移动终端80的整体操作。也就是说,移动终端80具有由控制程序P2操作的普通计算机的配置。注意,可以经由诸如局域网、因特网和数字卫星广播的有线或无线传送介质来提供控制程序P2。此外,移动终端80可以利用硬件执行一系列处理。注意,由CPU 100执行的控制程序P2的处理可以按照本公开内容中描述的顺序按时间顺序执行,或者可以并行执行或在必要的定时(例如当进行调用时的定时)处执行。
存储单元103包括例如闪存,并且存储由CPU 100执行的控制程序P2和从服务器装置20a获取的3D模型18M。注意,3D模型18M是由移动终端80向服务器装置20a指示的特定受摄体18、即要绘制的受摄体18的3D模型。然后,3D模型18M包括如上所述的网格信息M、纹理信息Ta和纹理信息Tb。
输入/输出控制器104经由触摸面板接口106获取触摸面板110的操作信息。触摸面板110堆叠在显示器111上,显示器111显示与移动终端80有关的信息。此外,输入/输出控制器104经由显示接口107在显示器111上显示包括受摄体18的立体视频等。
此外,移动终端80经由通信控制器105与服务器装置20a进行通信。这使得移动终端80从服务器装置20a获取与3D模型18M等有关的信息。
[1-6.视频生成/显示装置的功能配置]
接下来,将参照图6描述第一实施方式的视频生成/显示装置10a的功能配置。图6是示出第一实施方式的视频生成/显示装置的功能配置的一个示例的功能框图。
服务器装置20a的CPU 50在RAM 52上开发并运行控制程序P1以实现图6中的照明控制UI单元31、照明控制信息输出单元32、照明控制信息输入单元41,照明信息处理单元42、成像单元43、前景裁剪处理单元44a、纹理校正处理单元45a、建模处理单元46和纹理生成单元47作为功能单元。
照明控制UI单元31经由照明控制信息输出单元32向照明装置11提供诸如亮度、颜色和照明方向的照明控制信息17。具体地,照明控制UI单元31向照明控制信息输出单元32传送照明控制信息17,照明控制信息17对应于由操作触摸面板61的操作者在专用UI屏幕上设置的操作内容。注意,可以在照明控制UI单元31中预先生成并且存储照明场景16。照明场景16指示如何随时间设置照明装置11。
照明控制信息输出单元32接收从照明控制UI单元31传送的照明控制信息17。此外,照明控制信息输出单元32向照明装置11、照明控制信息输入单元41和稍后描述的照明模拟控制单元73传送接收到的照明控制信息17。
照明控制信息输入单元41从照明控制信息输出单元32接收照明控制信息17。此外,照明控制信息输入单元41向照明信息处理单元42传送照明控制信息17。注意,照明控制信息输入单元41是本公开内容中的第二获取单元的一个示例。
照明信息处理单元42通过使用照明控制信息17、背景数据12、照明装置设置信息13和相机校准信息15基于那时的照明状态,即,在没有受摄体18的情况下发射照明的图像,来模拟照明背景图像。稍后将描述细节(参见图8)。
成像单元43获取由相机14在每个时刻下对在照明状态在每个时刻改变的情形下的受摄体18(对象)进行成像而获得的图像。注意,成像单元43是本公开内容中的第一获取单元的一个示例。
前景裁剪处理单元44a基于由照明控制信息输入单元41获取的在每个时刻的照明装置11的状态从由相机14捕获的图像中裁剪受摄体18(对象)的区域。注意,前景裁剪处理单元44a是本公开内容中的裁剪单元的一个示例。注意,稍后将描述由前景裁剪处理单元44a执行的具体处理的内容。
纹理校正处理单元45a基于由照明控制信息输入单元41获取的在每个时刻的照明装置11的状态根据在每个时刻的照明装置11的状态来校正在由相机14捕获的图像中出现的受摄体18的纹理。注意,纹理校正处理单元45a是本公开内容中的校正单元的一个示例。稍后将描述由纹理校正处理单元45a执行的具体处理的内容。
建模处理单元46生成受摄体18(对象)由前景裁剪处理单元44a裁剪的3D模型。注意,建模处理单元46是本公开内容中的模型生成单元的一个示例。
纹理生成单元47从相机14收集多条纹理信息、执行压缩和编码处理以及向立体视频再现模块90传送纹理信息。
此外,移动终端80的CPU 100在RAM 102上开发并运行控制程序P2以实现图6中的渲染单元91和再现单元92作为功能单元。
渲染单元91绘制(渲染)从立体视频生成模块40a获取的受摄体18(对象)的3D模型和纹理。注意,渲染单元91是本公开内容中的绘制单元的一个示例。
再现单元92在显示器111上再现由渲染单元91绘制的立体视频。
注意,虽然图6中未示出,但是立体视频再现模块90可以被配置成从位于远处的多个立体视频生成模块40a中获取模型数据48和纹理数据49。然后,立体视频再现模块90可以用于将在远处成像的多个对象组合成一个立体视频并且再现该立体视频。在这种情况下,虽然在远处的照明环境通常不同,但是由立体视频生成模块40a生成的受摄体18的3D模型18M不受如稍后描述的模型生成时的照明的影响。立体视频再现模块90因此可以将在不同的照明环境下生成的多个3D模型18M组合并且在任何照明环境下再现多个3D模型18M。
[1-7.模拟照明的背景图像的方法]
接下来,将参照图7和图8描述模拟照明背景图像的照明信息处理单元的处理的内容。图7示出了根据第一实施方式的视频生成/显示装置的输入/输出数据的数据格式的一个示例。图8示出了模拟照明背景图像的照明信息处理单元的处理。
从照明控制信息输出单元32向照明信息处理单元42输入照明控制信息17。此外,照明装置设置信息13、相机校准信息15和背景数据12被输入至照明控制信息处理单元42。
这些输入信息具有图7中的数据格式。通过在每个时刻且针对每个照明装置11向照明装置11写入提供的各种参数值而获得照明控制信息17。
通过针对每个照明装置11写入指示照明装置11的初始状态的各种参数值而获得照明装置设置信息13。注意,写入的参数是例如照明装置11的类型、安装位置、安装方向、颜色设置、亮度设置等。
通过针对每个相机14写入相机14的内部校准数据和外部校准数据而获得相机校准信息15。内部校准数据与对于相机14唯一的内部参数(用于执行通过镜头或焦点设置最终获得的图像失真校正的参数)有关。外部校准数据与相机14的位置和取向有关。
通过存储在预定照明状态下由每个相机14预先捕获的背景图像而获得背景数据12。
然后,立体视频生成模块40a的前景裁剪处理单元44a输出模型数据48,模型数据48通过在考虑照明装置11的时间变化的情况下从由相机14捕获的图像裁剪受摄体18的区域而获得。此外,立体视频生成单元40a的纹理校正处理单元45a输出纹理数据49,从纹理数据49去除了照明装置11的影响。
通过针对每一帧来存储帧中的受摄体18的网格数据而获得模型数据48。
通过针对每一帧存储每个相机14的外部校准数据和纹理图像而获得纹理数据49。注意,当相机14之间的位置关系固定时,外部校准数据需要存储在仅第一帧中。相对地,当相机14之间的位置关系改变时,外部校准数据被存储在相机14之间的位置关系已经改变的每一帧中。
为了使前景裁剪处理单元44a在考虑照明装置11的时间变化的情况下裁剪受摄体18,照明信息处理单元42生成图8中的照明的背景图像Ia。在每个时刻且针对每个相机14生成照明的背景图像Ia。
更具体地,照明信息处理单元42同时基于照明控制信息17和照明装置设置信息13来计算每个时刻的照明装置11的设置状态。
照明信息处理单元42通过使用每个相机14的相机校准信息15对由每个相机14获得的背景数据12执行失真校正。然后,照明信息处理单元42通过针对失真校正的背景数据12基于照明装置11的设置状态在每个时刻对照明模式进行模拟来生成照明的背景图像Ia。
以这种方式生成的照明的背景图像Ia被用作前景裁剪照明图像Ib和纹理校正照明图像Ic。前景裁剪照明图像Ib和纹理校正照明图像Ic实质上是相同的图像信息,但是为了方便在以下描述中将分别进行描述。
前景裁剪照明图像Ib和纹理校正照明图像Ic是指示由每个相机14在每个时刻观察到的照明在什么状态下的2D图像信息。注意,信息的格式不限于图像信息,只要该信息指示在什么状态下观察到照明即可。
[1-8.前景裁剪处理]
上述前景裁剪照明图像Ib表示照明状态,该照明状态被预测为要在相应时间由相应相机14捕获。前景裁剪处理单元44a(参见图6)通过使用前景/背景差来裁剪前景,即受摄体18的区域,前景/背景差通过从由相机14同时实际捕获的图像中减去前景裁剪照明图像Ib而确定。
注意,此时前景裁剪处理单元44a可以执行色度键处理。然而,注意,在本实施方式中,由于照明的影响,背景颜色针对每个区域而不同。因此,前景裁剪处理单元44a针对前景裁剪照明图像Ib的每个区域设置要确定为背景的颜色的阈值,而没有基于通常使用的单一背景颜色执行色度键处理。然后前景裁剪处理单元44a通过将由相机14实际捕获的图像的亮度与设置的阈值进行比较,来区分颜色是否为背景并裁剪前景。
此外,前景裁剪处理单元44a可以通过使用前景/背景差和色度键处理二者来裁剪受摄体18的区域。
[1-9.纹理校正处理]
接下来,将参照图9描述由视频生成/显示装置10a执行的纹理校正处理。图9示出了纹理校正处理的方法。
纹理校正处理单元45a(参见图6)根据每个时刻照明装置11的状态对在由相机14捕获的图像中出现的受摄体18的纹理执行颜色校正。
纹理校正处理单元45a对上述纹理校正照明图像Ic和由相机14实际捕获的相机图像Id执行类似的颜色校正。然而,注意,在本实施方式中,由于照明的影响,受摄体18的纹理针对每个区域不同,使得如图9中所示,纹理校正照明图像Ic和相机图像Id中的每一个被划分成相同大小的多个小区域,并且针对每个小区域执行颜色校正。注意,颜色校正在数字图像处理中广泛执行,并且仅需要根据已知方法执行。
纹理校正处理单元45a生成并且输出作为执行纹理校正处理的结果的纹理校正图像Ie。也就是说,纹理校正图像Ie指示被估计为要在标准照明下观察到的纹理。
注意,纹理校正处理需要仅被应用于受摄体18的区域,使得纹理校正处理可以仅对相机图像Id中的由上述前景裁剪处理裁剪的受摄体18的区域执行。
可以通过如上所述的前景裁剪处理和纹理校正处理来获得与照明状态无关的受摄体18的3D模型18M。然后,立体视频再现模块90生成并显示图10中的立体视频Iv。在立体视频Iv中,再现了在相机14捕获相机图像Id时同一时间的照明信息,并且绘制了受摄体18的3D模型18M。
此外,当在不同照明状态下生成的多个对象被组合成一个立体视频时,可以去除成像时的照明的影响。
[1-10.由第一实施方式的视频生成/显示装置执行的照明信息处理的流程]
接下来,将参照图11描述由视频生成/显示装置10a执行的照明信息处理的流程。图11是示出第一实施方式中的照明信息处理的流程的一个示例的流程图。
照明信息处理单元42获取由每个相机14预先获得的背景数据12(步骤S10)。
照明信息处理单元42通过使用相机校准信息15(内部校准数据)对在步骤S10中获取的背景数据12执行失真校正(步骤S11)。
照明信息处理单元42从照明控制信息输出单元32获取照明控制信息17。此外,照明信息处理单元42获取照明装置设置信息13(步骤S12)。
照明信息处理单元42生成照明的背景图像Ia(步骤S13)。
照明信息处理单元42通过使用相机校准信息15(外部校准数据)对在步骤S13中生成的照明的背景图像Ia执行失真校正(步骤S14)。
照明信息处理单元42向前景裁剪处理单元44a输出照明的背景图像Ia(步骤S15)。
照明信息处理单元42向纹理校正处理单元45a输出照明的背景图像Ia(步骤S16)。
照明信息处理单元42确定这是否是最后一帧(步骤S17)。当确定这是最后一帧时(步骤S17:是),视频生成/显示装置10a结束图11中的处理。相比之下,当确定这不是最后一帧时(步骤S17:否),处理返回至步骤S10。
[1-11.由第一实施方式的视频生成/显示装置执行的前景裁剪处理的流程]
接下来,将参照图12描述由视频生成/显示装置10a执行的前景裁剪处理的流程。图12是示出第一实施方式中的前景裁剪处理的流程的一个示例的流程图。
成像单元43获取在每个时刻由每个相机14捕获的相机图像Id(步骤S20)。
此外,成像单元43通过使用相机校准信息15(内部校准数据)对在步骤S20中获取的相机图像Id执行失真校正(步骤S21)。
前景裁剪处理单元44a从照明信息处理单元42获取照明的背景图像Ia(步骤S22)。
前景裁剪处理单元44a同时通过使用全景/背景差来从相机图像Id中裁剪前景(受摄体18)(步骤S23)。
前景裁剪处理单元44a确定这是否是最后一帧(步骤S24)。当确定这是最后一帧时(步骤S24:是),视频生成/显示装置10a结束图12中的处理。相比之下,当确定这不是最后一帧时(步骤S24:否),处理返回至步骤S20。
[1-12.由第一实施方式的视频生成/显示装置执行的纹理校正处理的流程]
接下来,将参照图13描述由视频生成/显示装置10a执行的纹理校正处理的流程。图13是示出第一实施方式中的纹理校正处理的流程的一个示例的流程图。
成像单元43获取在每个时刻由每个相机14捕获的相机图像Id(步骤S30)。
此外,成像单元43通过使用相机校准信息15(内部校准数据)对在步骤S30中获取的相机图像Id执行失真校正(步骤S31)。
纹理校正处理单元45a从照明信息处理单元42获取照明的背景图像Ia(步骤S32)。
纹理校正处理单元45a同时将失真校正的相机图像Id和照明的背景图像Ia划分成相同大小的小区域(步骤S33)。
纹理校正处理单元45a针对在步骤S33中划分的每个小区域执行纹理校正(步骤S34)。
纹理校正处理单元45a确定这是否是最后一帧(步骤S35)。当确定这是最后一帧时(步骤S35:是),视频生成/显示装置10a结束图13中的处理。相比之下,当确定这不是最后一帧时(步骤S35:否),处理返回至步骤S30。
[1-13.第一实施方式的效果]
如上所述,根据第一实施方式的视频生成/显示装置10a(图像处理装置),成像单元43(第一获取单元)获取通过在照明装置11的状态在每个时刻改变的情况下在每个时刻对受摄体18(对象)进行成像而获得的图像,并且照明控制信息输入单元41(第二获取单元)获取成像单元43捕获图像时每个时刻照明装置11的状态。然后,前景裁剪处理单元44a(裁剪单元)基于由照明控制信息输入单元41获取的每个时刻照明装置11的状态从由成像单元43捕获的图像裁剪受摄体18。建模处理单元46(模型生成单元)生成由前景裁剪处理单元44a裁剪的受摄体18的3D模型。
这允许即使如在音乐现场演出场地中照明状态在每个时刻改变时,也可以以高精度裁剪受摄体的区域。因此,可以生成高质量的3D模型和立体视频。
此外,根据第一实施方式的视频生成/显示装置10a(图像处理装置),纹理校正处理单元45a(校正单元)基于由照明控制信息输入单元41获取的每个时刻照明装置11的状态来校正根据每个时刻照明装置11的状态的由成像单元43捕获的图像的纹理。
这允许根据在照明状态在每个时刻改变的状态下捕获的图像中出现的受摄体18的纹理来估计在通常照明下观察到的受摄体18的纹理。
此外,在第一实施方式的视频生成/显示装置10a(图像处理装置)中,照明装置11的状态包括照明装置11的至少位置、方向、颜色和亮度。
这允许可靠地获取在每个时刻改变的照明装置11的详细状态。
此外,在第一实施方式的视频生成/显示装置10a(图像处理装置)中,通过从受摄体18(对象)的周围对受摄体18的方向进行成像来获得由相机14捕获的图像。
这允许生成通过从各种自由视点观察受摄体18而获得的3D模型18M。
此外,在第一实施方式的视频生成/显示装置10a(图像处理装置)中,建模处理单元46(模型生成单元)通过基于在每个时刻改变的照明装置11的状态从图像裁剪受摄体18的区域来生成受摄体18的3D模型18M,该图像通过在照明装置11的状态在每个时刻改变的情况下在每个时刻对受摄体18(对象)进行成像而获得。然后,渲染单元91(绘制单元)绘制由建模处理单元46生成的3D模型18M。
这允许从在照明状态改变的情况下捕获的图像中裁剪受摄体18的区域以绘制从自由视点观看的视频。
此外,在第一实施方式的视频生成/显示装置10a(图像处理装置)中,纹理校正处理单元45a(校正单元)基于在每个时刻改变的照明装置11的状态校正来自图像的根据每个时刻的照明装置11的状态的受摄体18的纹理,该图像通过在照明装置11的状态在每个时刻改变的情况下在每个时刻对受摄体18(对象)进行成像而获得。然后,渲染单元91(绘制单元)通过使用由纹理校正处理单元45a校正的纹理来绘制受摄体18。
这允许在照明状态改变的情况下捕获的图像中出现的受摄体18的纹理被校正以绘制从自由视点观看的立体视频。
此外,第一实施方式的视频生成/显示装置10a(图像处理装置)在每个时刻获取在照明状态在每个时刻改变的情况下通过在每个时刻对受摄体18(对象)进行成像而获得的图像和在每个时刻的照明装置11的状态,以及基于获取的在每个时刻的照明装置11的状态从受摄体18的图像中裁剪受摄体18的区域并生成受摄体18的模型数据48。
这允许即使当照明状态在每个时刻改变时也以高精度裁剪受摄体的区域,使得可以生成高质量的3D模型。
(2.第二实施方式)
[2-1.第二实施方式的视频生成/显示装置的功能配置]
第一实施方式中描述的视频生成/显示装置10a基于照明控制信息17获取每个时刻的照明状态,并且基于获取的每个时刻的照明状态执行前景裁剪和纹理校正。根据该方法,可以通过简单的计算处理来执行对象裁剪和纹理校正。为了稳定地应对更复杂的环境,需要提高通用性。以下要描述的第二实施方式的视频生成/显示装置10b通过使用经过使用深度学习创建的学习模型进一步增强了前景裁剪和纹理校正的通用性。
将参照图14描述第二实施方式的视频生成/显示装置10b的功能配置。图14是示出第二实施方式的视频生成/显示装置的功能配置的一个示例的功能框图。注意,视频生成/显示装置10b的硬件配置与视频生成/显示装置10a的硬件配置相同(参见图4和图5)。
视频生成/显示装置10b包括服务器装置20b和移动终端80。服务器装置20b包括照明控制模块30、立体视频生成模块40b、照明模拟模块70和学习数据生成模块75。
照明控制模块30如第一实施方式中所述(参见图6)。
与第一实施方式中描述的立体视频生成模块40a相比,立体视频生成模块40b包括前景裁剪处理单元44b而不是前景裁剪处理单元44a。此外,提供了纹理校正处理单元45b而不是纹理校正处理单元45a。
前景裁剪处理单元44b基于通过学习由照明控制信息输入单元41获取的在每个时刻的照明装置11的状态与受摄体18的区域之间的关系而获得的学习数据,从由相机14捕获的图像中裁剪受摄体18(对象)的区域。
纹理校正处理单元45b基于通过学习由照明控制信息输入单元41获取的在每个时刻的照明装置11的状态与受摄体18的纹理之间的关系而获得的学习数据,校正根据每个时刻照明装置11的状态的在由相机14捕获的图像中出现的受摄体18的纹理。
照明模拟模块70生成通过在背景CG数据19上模拟在每个时刻改变的照明状态而获得的照明模拟视频或基于照明控制信息17的立体视频。照明模拟模块70包括立体视频生成单元71、照明模拟生成单元72和照明模拟控制单元73。
立体视频生成单元71基于受摄体18的模型数据48和纹理数据49以及虚拟视点位置来生成受摄体18的立体视频。
照明模拟生成单元72基于给定的照明控制信息17、由立体视频生成单元71生成的立体视频以及虚拟视点位置来生成在被照明的状态下观察到受摄体18的模拟视频。
照明模拟控制单元73向照明模拟生成单元72传送照明控制信息17和虚拟视点位置。
学习数据生成模块75生成用于执行前景裁剪处理的学习模型和用于执行纹理校正处理的学习模型。学习数据生成模块75包括学习数据生成控制单元76。
学习数据生成控制单元76基于由照明模拟模块70生成的照明模拟视频,生成用于前景裁剪的学习数据77和用于纹理校正的学习数据78。注意,学习数据77是本公开内容中的第一学习数据的一个示例。此外,学习数据78是本公开内容中的第二学习数据的一个示例。注意,稍后将描述生成学习数据77和学习数据78的具体方法。
[2-2.前景裁剪处理]
接下来,将参照图15描述由视频生成/显示装置10b执行的前景裁剪处理。图15概述了使用深度学习的前景裁剪处理。
前景裁剪处理单元44b通过使用学习数据77从由相机14捕获的相机图像Id中裁剪受摄体18的区域。此时基于由学习数据生成控制单元76生成的学习数据77(第一学习数据)来执行前景裁剪处理。
学习数据77是一种由学习数据生成控制单元76生成的鉴别器,其使相机图像Id、存储在背景数据12中的背景图像If、前景裁剪照明图像Ib以及从其获得的受摄体18的区域之间的关系的深度学习被执行。然后,学习数据77同时响应于任何相机图像Id、背景图像If和前景裁剪照明图像Ib的输入而输出通过裁剪受摄体18的区域获得的受摄体图像Ig。
为了生成高度可靠的学习数据77,需要利用尽可能多的数据进行学习。因此,视频生成/显示装置10b通过照明模拟模块70尽可能详尽地生成学习数据77,照明模拟模块70向背景CG数据19模拟将基于模型数据48的3D模型布置在由照明装置11引起的照明环境中的立体视频。稍后将描述详细的处理流程(参见图19)。
[2-3.纹理校正处理]
接下来,将参照图16描述由视频生成/显示装置10b执行的纹理校正处理。图16概述了使用深度学习的纹理校正处理。
纹理校正处理单元45b通过使用学习数据78将由相机14捕获的相机图像中的受摄体18的纹理校正成例如标准照明状态下的纹理。此时基于由学习数据生成控制单元76生成的学习数据78(第二学习数据)执行纹理处理。
学习数据78是一种由学习数据生成控制单元76生成的鉴别器,其使相机图像Id、纹理校正照明图像Ic以及从其获得的受摄体18的纹理之间的关系的深度学习被执行。然后,学习数据78同时响应于任何相机图像Id和纹理校正照明图像Ic的输入而输出对受摄体18的区域执行纹理校正的纹理校正图像Ie。
为了生成高度可靠的学习数据78,需要利用尽可能多的数据进行学习。因此,视频生成/显示装置10b通过照明模拟模块70尽可能详尽地生成学习数据78,照明模拟模块70模拟将基于模型数据48的3D模型布置在由照明装置11引起的照明环境中的立体视频。稍后将描述详细的处理流程(参见图19)。
[2-4.由第二实施方式的视频生成/显示装置执行的处理的流程]
接下来,将参照图17、图18和图19描述由视频生成/显示装置1b执行的处理的流程。图17是示出第二实施方式中的前景裁剪处理的流程的一个示例的流程图。图18是示出第二实施方式中的纹理校正处理的流程的一个示例的流程图。然后,图19是示出生成学习数据的具体过程的一个示例的流程图。
首先,将参照图17描述第二实施方式中的前景裁剪处理的流程。成像单元43获取每个时刻由每个相机14捕获的相机图像Id(步骤S40)。
此外,成像单元43通过使用相机校准信息15(内部校准数据)对在步骤S40中获取的相机图像Id执行失真校正(步骤S41)。
前景裁剪处理单元44b从照明信息处理单元42获取前景裁剪照明图像Ib。此外,前景裁剪处理单元44b获取背景图像If(步骤S42)。
前景裁剪处理单元44b通过同时使用前景裁剪照明图像Ib、背景图像If和失真校正的相机图像Id作为输入使用学习数据77进行推断,并且从相机图像Id中裁剪前景(步骤S43)。
前景裁剪处理单元44b确定这是否是最后一帧(步骤S44)。当确定这是最后一帧时(步骤S44:是),视频生成/显示装置10b结束图17中的处理。相比之下,当确定这不是最后一帧时(步骤S44:否),处理返回至步骤S40。
接下来,将参照图18描述第二实施方式中的纹理校正处理的流程。成像单元43获取每个时刻由每个相机14捕获的相机图像Id(步骤S50)。
此外,成像单元43通过使用相机校准信息15(内部校准数据)对在步骤S50中获取的相机图像Id执行失真校正(步骤S51)。
纹理校正处理单元45b从照明信息处理单元42与获取相机图像Id同时获取纹理校正照明图像Ic。此外,前景裁剪处理单元44b获取背景图像If(步骤S52)。
纹理校正处理单元45b通过同时使用失真校正的相机图像Id和纹理校正照明图像Ic作为输入使用学习数据78进行推断,并且校正在相机图像Id中出现的受摄体18的纹理(步骤S53)。
纹理校正处理单元45b确定这是否是最后一帧(步骤S54)。当确定这是最后一帧时(步骤S54:是),视频生成/显示装置10b结束图18中的处理。相比之下,当确定这不是最后一帧时(步骤S54:否),处理返回至步骤S50。
接下来,将参照图19描述生成学习数据77和78的过程。图19是示出生成学习数据的过程的一个示例的流程图。
学习数据生成控制单元76从每个照明装置11的参数的组合中选择一个(步骤S60)。
学习数据生成控制单元76从多条立体视频内容中选择一个(步骤S61)。
学习数据生成控制单元76选择对象的一个布置位置和一个取向(步骤S62)。
学习数据生成控制单元76选择一个虚拟视点位置(步骤S63)。
学习数据生成控制单元76向照明模拟模块70提供选择的信息,并且生成模拟视频(立体视频和照明的背景图像Ia(前景裁剪照明图像Ib和纹理校正照明图像Ic))(步骤S64)。
学习数据生成控制单元76对在步骤S64中生成的模拟视频执行对象的裁剪处理和纹理校正处理,并且积累作为结果获得的学习数据77和学习数据78(步骤S65)。
学习数据生成控制单元76确定所有虚拟视点位置候选是否已经选择(步骤S66)。当确定所有虚拟视点位置候选已经选择时(步骤S66:是),处理进行到步骤S67。相比之下,当确定所有虚拟视点位置候选没有选择时(步骤S66:否),处理返回至步骤S63。
学习数据生成控制单元76确定对象的所有布置位置和取向是否已经选择(步骤S67)。当确定对象的所有布置位置和取向已经选择时(步骤S67:是),处理进行到步骤S68。相比之下,当确定对象的所有布置位置和取向没有选择时(步骤S67:否),处理返回至步骤S62。
学习数据生成控制单元76确定所有的立体视频内容是否已经选择(步骤S68)。当确定所有的立体视频内容已经选择时(步骤S68:是),处理进行到步骤S69。相比之下,当确定所有的立体视频内容没有选择时(步骤S68:否),处理返回至步骤S61。
学习数据生成控制单元76确定照明装置11的所有参数是否已经选择(步骤S69)。当确定照明装置11的所有参数已经选择时(步骤S69:是),视频生成/显示装置10b结束图19中的处理。相比之下,当确定照明装置11的所有参数没有选择时(步骤S69:否),处理返回至步骤S60。
[2-5.第二实施方式的变体]
尽管上面已经描述了第二实施方式,但是实现所描述的功能的方法可以具有各种变体。
例如,当执行前景裁剪处理时,可以通过向学习数据生成控制单元76直接输入作为数字信息的照明控制信息17而不是使用前景裁剪照明图像Ib来进行推断。此外,可以通过向学习数据生成控制单元76直接输入相机14的外部校准数据(指定相机14的位置和取向的数据)而不是输入虚拟视点位置来进行推断。此外,在标准照明下,可以在不输入背景图像If的情况下进行推断。
此外,当执行纹理校正处理时,可以通过向学习数据生成控制单元76直接输入作为数字信息的照明控制信息17而不是使用纹理校正照明图像Ic来进行推断。此外,可以通过向学习数据生成控制单元76直接输入相机14的外部校准数据(指定相机14的位置和取向的数据)而不是输入虚拟视点位置来进行推断。
此外,可以通过使用纹理校正处理的结果通过常规的方法来执行前景裁剪处理。在这种情况下,仅需要学习数据78,并且不需要生成学习数据77。
注意,任何格式的模型都可以用作学习数据生成控制单元76执行深度学习时使用的输入/输出模型。此外,当推断新的帧时可以反馈前一帧的推断结果。
[2-6.第二实施方式的效果]
如上所述,根据第二实施方式的视频生成/显示装置10b(图像处理装置),前景裁剪处理单元44b(裁剪单元)基于学习数据77(第一学习数据)从由成像单元43(第一获取单元)获取的图像中裁剪受摄体18的区域,学习数据77(第一学习数据)通过学习由照明控制信息输入单元41(第二获取单元)获取的每个时刻照明装置11的状态与受摄体18(对象)的区域之间的关系而获得。
这允许无论使用环境如何都以高精度裁剪受摄体18(前景)。
此外,根据第二实施方式的视频生成/显示装置10b(图像处理装置),纹理校正处理单元45b(校正单元)基于学习数据78(第二学习数据)来校正根据每个时刻照明装置11的状态的由成像单元43(第一获取单元)获取的受摄体18的纹理,学习数据78(第二学习数据)通过学习由照明控制信息输入单元41(第二获取数据)获取的每个时刻照明装置11的状态与受摄体18(对象)的纹理之间的关系而获得。
这允许无论使用环境如何受摄体18的纹理都被稳定地校正。
此外,根据第二实施方式的视频生成/显示装置10b(图像处理装置),建模处理单元46(模型生成单元)通过基于学习数据77(第一学习数据)从具有受摄体18的图像中裁剪受摄体18的区域来生成受摄体18的3D模型18M,学习数据77通过学习每个时刻照明装置11的状态与每个时刻获得的图像中的受摄体18(对象)的区域之间的关系而获得。
这允许无论使用环境如何都以高精度生成受摄体18的3D模型18M。特别地,可以同时推断通过从周围同时捕获受摄体18获得的图像,这可以给从每个图像中裁剪区域的结果提供一致性。
此外,根据第二实施方式的视频生成/显示装置10b(图像处理装置),纹理校正处理单元45b(校正单元)基于通过学习每个时刻照明装置11的状态与受摄体18(对象)的纹理之间的关系而获得的学习数据78(第二学习数据)来校正根据每个时刻照明装置11的状态的在每个时刻成像的受摄体18的纹理。
这允许无论使用环境如何受摄体18的纹理都被稳定地校正。特别地,可以同时推断通过从周围同时捕获受摄体18获得的图像,这可以给每个图像的纹理校正的结果提供一致性。
此外,在第二实施方式的视频生成/显示装置10b(图像处理装置)中,学习数据生成控制单元76通过以下方式生成学习数据77:在每个时刻获取通过在照明装置11的状态在每个时刻改变的情况下在每个时刻对受摄体18(对象)进行成像而获得的图像以及照明装置11的状态;基于获取的每个时刻照明装置11的状态从包括受摄体18的图像中裁剪受摄体18;以及学习每个时刻照明装置11的状态与裁剪的受摄体18的区域之间的关系。
这允许用于裁剪受摄体18的学习数据77容易地生成。特别地,生成立体视频的视频生成/显示装置10b可以容易且详尽地生成自由地组合各种虚拟视点、各种照明条件和各种受摄体的大量学习数据77。
此外,在第二实施方式的视频生成/显示装置10b(图像处理装置)中,学习数据生成控制单元76通过以下方式生成学习数据78:在每个时刻获取通过在照明装置11的状态在每个时刻改变的情况下在每个时刻对受摄体18(对象)进行成像而获得的图像以及照明装置11的状态;以及基于获取的每个时刻照明装置11的状态来学习每个时刻照明装置11的状态与裁剪的受摄体18的纹理之间的关系。
这允许用于校正受摄体18的纹理的学习数据78容易地生成。特别地,生成立体视频的视频生成/显示装置10b可以容易且详尽地生成自由地组合各种虚拟视点、各种照明条件和各种受摄体的大量学习数据78。
注意,在本说明书中阐述的效果仅仅是示例而不是限制。可以获得其他效果。此外,本公开内容的实施方式不限于上述实施方式,并且可以在不脱离本公开内容的主旨的情况下进行各种修改。
例如,本公开内容还可以具有如下配置。
(1)
一种图像处理装置,包括:
第一获取单元,第一获取单元获取图像,所述图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
第二获取单元,第二获取单元获取每个时刻的照明状态;
裁剪单元,裁剪单元基于由第二获取单元获取的每个时刻的照明状态从图像裁剪对象的区域;以及
模型生成单元,该模型生成单元生成由裁剪单元裁剪的对象的3D模型。
(2)
根据(1)所述的图像处理装置,还包括:
校正单元,校正单元基于由第二获取单元获取的在每个时刻的照明状态来校正根据每个时刻的照明状态的图像的纹理。
(3)
根据(1)或(2)所述的图像处理装置,其中,裁剪单元进行如下操作:
基于通过学习由第二获取单元获取的每个时刻的照明状态与对象的区域之间的关系而获得的第一学习数据,从由第一获取单元获取的图像裁剪对象的区域。
(4)
根据(1)至(3)中任一项所述的图像处理装置,其中,校正单元进行如下操作:
基于通过学习由第二获取单元获取的每个时刻的照明状态与对象的纹理之间的关系而获得的第二学习数据,校正根据每个时刻的照明状态的由第一获取单元获取的对象的纹理。
(5)
根据(1)至(4)中任一项所述的图像处理装置,其中,照明状态包括:
至少照明位置、照明方向、照明颜色和照明亮度。
(6)
根据(1)至(5)中任一项所述的图像处理装置,其中,图像是通过从对象的周围对对象的方向进行成像而获得的。
(7)
一种图像处理装置,包括:
模型生成单元,模型生成单元通过基于在每个时刻改变的照明状态从图像裁剪对象的区域来生成对象的3D模型,该图像是通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得的,以及
绘制单元,绘制单元绘制由模型生成单元生成的3D模型。
(8)
根据(7)所述的图像处理装置,还包括:
校正单元,校正单元基于在每个时刻改变的照明状态校正来自图像的根据每个时刻的照明状态的对象的纹理,该图像是通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得的,
其中,绘制单元通过使用由校正单元校正的纹理来绘制对象。
(9)
根据(7)或(8)所述的图像处理装置,
其中,模型生成单元进行如下操作:
通过基于第一学习数据从图像裁剪对象的区域来生成对象的3D模型,所述第一学习数据是通过学习每个时刻的照明状态与来自在每个时刻捕获的图像的对象的区域之间的关系而获得的。
(10)
根据(7)至(9)中任一项所述的图像处理装置,
其中,校正单元进行如下操作:
基于通过学习每个时刻的照明状态与对象的纹理之间的关系而获得的第二学习数据,校正根据每个时刻的照明状态的在每个时刻成像的对象的纹理。
(11)
一种生成3D模型的方法,包括:
获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获取每个时刻的照明状态;
基于获取的每个时刻的照明状态从图像裁剪对象;以及
生成已裁剪的对象的3D模型。
(12)
一种学习方法,包括:
获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获取每个时刻的照明状态;
基于已获取的每个时刻的照明状态从图像裁剪对象;以及
学习每个时刻的照明状态与已裁剪的对象的区域之间的关系。
(13)
根据(12)所述的学习方法,包括:
获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获得每个时刻的照明状态;以及
基于已获取的每个时刻的照明状态,学习每个时刻的照明状态与对象的纹理之间的关系。
(14)
一种使计算机用作如下单元的程序:
第一获取单元,第一获取单元获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
第二获取单元,第二获取单元获取每个时刻的照明状态;
裁剪单元,裁剪单元基于由第二获取单元获取的每个时刻的照明状态从图像裁剪对象的区域;以及
模型生成单元,该模型生成单元生成由裁剪单元裁剪的对象的3D模型。
(15)
一种使计算机用作如下单元的程序:
模型生成单元,模型生成单元通过基于在每个时刻改变的照明状态从图像裁剪对象的区域来生成对象的3D模型,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得。
绘制单元,绘制单元绘制由模型生成单元生成的3D模型。
[附图标记列表]
10a、10b:视频生成/显示装置(图像处理装置)
11:照明装置
12:背景数据
13:照明装置设置信息
14:相机
15:相机校准信息
16:照明场景
17:照明控制信息
18:受摄体(对象)
18M:3D模型
20a、20b:服务器装置
30:照明控制模块
31:照明控制UI单元
32:照明控制信息输出单元
40a、40b:立体视频生成模块
41:照明控制信息输入单元(第二获取单元)
42:照明信息处理单元
43:成像单元(第一获取单元)
44a、44b:前景裁剪处理单元(裁剪单元)
45a、45b:纹理校正处理单元(校正单元)
46:建模处理单元(模型生成单元)
47:纹理生成单元
48:模型数据
49:纹理数据
70:照明模拟模块
75:学习数据生成模块
77:学习数据(第一学习数据)
78:学习数据(第二学习数据)
80:移动终端
90:立体视频再现模块
91:渲染单元(绘制单元)
92:再现单元
Ia:照明的背景图像
Ib:前景裁剪照明图像
Ic:纹理校正照明图像
Id:相机图像
Ie:纹理校正图像
If:背景图像
Ig:受摄体图像
Claims (15)
1.一种图像处理装置,包括:
第一获取单元,所述第一获取单元获取图像,所述图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
第二获取单元,所述第二获取单元获取每个时刻的所述照明状态;
裁剪单元,所述裁剪单元基于由所述第二获取单元获取的每个时刻的所述照明状态从所述图像中裁剪所述对象的区域;以及
模型生成单元,所述模型生成单元生成由所述裁剪单元裁剪的所述对象的3D模型。
2.根据权利要求1所述的图像处理装置,还包括:
校正单元,所述校正单元基于由所述第二获取单元获取的每个时刻的所述照明状态来校正根据每个时刻的所述照明状态的所述图像的纹理。
3.根据权利要求1所述的图像处理装置,其中,所述裁剪单元进行如下操作:
基于通过学习由所述第二获取单元获取的每个时刻的所述照明状态与所述对象的所述区域之间的关系而获得的第一学习数据,从由所述第一获取单元获取的所述图像裁剪所述对象的所述区域。
4.根据权利要求2所述的图像处理装置,其中,所述校正单元进行如下操作:
基于通过学习由所述第二获取单元获取的每个时刻的所述照明状态与所述对象的纹理之间的关系而获得的第二学习数据,校正根据每个时刻的所述照明状态的由所述第一获取单元获取的所述对象的纹理。
5.根据权利要求1所述的图像处理装置,其中,所述照明状态包括:
至少照明位置、照明方向、照明颜色和照明亮度。
6.根据权利要求1所述的图像处理装置,其中,所述图像是通过从所述对象的周围对所述对象的方向进行成像而获得的。
7.一种图像处理装置,包括:
模型生成单元,所述模型生成单元通过基于在每个时刻改变的照明状态从图像裁剪对象的区域来生成所述对象的3D模型,所述图像是通过在所述照明状态在每个时刻改变的情况下在每个时刻对所述对象进行成像而获得的;以及
绘制单元,所述绘制单元绘制由所述模型生成单元生成的所述3D模型。
8.根据权利要求7所述的图像处理装置,还包括:
校正单元,所述校正单元基于在每个时刻改变的照明状态校正来自图像的根据每个时刻的所述照明状态的对象的纹理,该图像是通过在所述照明状态在每个时刻改变的情况下在每个时刻对所述对象进行成像而获得的,
其中,所述绘制单元通过使用由所述校正单元校正的所述纹理来绘制所述对象。
9.根据权利要求7所述的图像处理装置,
其中,所述模型生成单元进行如下操作:
通过基于第一学习数据从所述图像裁剪所述对象的所述区域来生成所述对象的3D模型,所述第一学习数据是通过学习每个时刻的所述照明状态与来自在每个时刻捕获的图像的所述对象的所述区域之间的关系而获得的。
10.根据权利要求8所述的图像处理装置,
其中,所述校正单元进行如下操作:
基于通过学习每个时刻的所述照明状态与所述对象的纹理之间的关系而获得的第二学习数据,校正根据每个时刻的所述照明状态的在每个时刻成像的所述对象的纹理。
11.一种生成3D模型的方法,包括:
获取图像,所述图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获取每个时刻的所述照明状态;
基于获取的每个时刻的所述照明状态从所述图像裁剪所述对象;以及
生成已裁剪的所述对象的所述3D模型。
12.一种学习方法,包括:
获取图像,所述图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获取每个时刻的所述照明状态;
基于已获取的每个时刻的所述照明状态从所述图像裁剪所述对象;以及
学习每个时刻的所述照明状态与已裁剪的所述对象的区域之间的关系。
13.根据权利要求12所述的学习方法,包括:
获取图像,该图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
获取每个时刻的所述照明状态;以及
基于已获取的每个时刻的所述照明状态,学习每个时刻的所述照明状态与所述对象的纹理之间的关系。
14.一种使计算机用作如下单元的程序:
第一获取单元,所述第一获取单元获取图像,所述图像通过在照明状态在每个时刻改变的情况下在每个时刻对对象进行成像而获得;
第二获取单元,所述第二获取单元获取每个时刻的所述照明状态;
裁剪单元,所述裁剪单元基于由所述第二获取单元获取的每个时刻的所述照明状态从所述图像裁剪所述对象的区域;以及
模型生成单元,所述模型生成单元生成由所述裁剪单元裁剪的所述对象的3D模型。
15.一种使计算机用作如下单元的程序:
模型生成单元,所述模型生成单元通过基于在每个时刻改变的照明状态从图像裁剪对象的区域来生成所述对象的3D模型,所述图像是通过在所述照明状态在每个时刻改变的情况下在每个时刻对所述对象进行成像而获得的。
绘制单元,所述绘制单元绘制由所述模型生成单元生成的所述3D模型。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020033432 | 2020-02-28 | ||
JP2020-033432 | 2020-02-28 | ||
PCT/JP2021/004517 WO2021171982A1 (ja) | 2020-02-28 | 2021-02-08 | 画像処理装置、3dモデルの生成方法、学習方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115176282A true CN115176282A (zh) | 2022-10-11 |
Family
ID=77490428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180015968.XA Pending CN115176282A (zh) | 2020-02-28 | 2021-02-08 | 图像处理装置、生成3d模型的方法、学习方法以及程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230056459A1 (zh) |
JP (1) | JPWO2021171982A1 (zh) |
CN (1) | CN115176282A (zh) |
WO (1) | WO2021171982A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220335636A1 (en) * | 2021-04-15 | 2022-10-20 | Adobe Inc. | Scene reconstruction using geometry and reflectance volume representation of scene |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7065242B2 (en) * | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
JP2003058873A (ja) * | 2001-08-13 | 2003-02-28 | Olympus Optical Co Ltd | 形状抽出装置および方法、並びに画像切り出し装置および方法 |
RU2358319C2 (ru) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения |
JP2006105822A (ja) * | 2004-10-06 | 2006-04-20 | Canon Inc | 三次元画像処理システム及び三次元データ処理装置 |
JP4827685B2 (ja) * | 2006-10-23 | 2011-11-30 | 日本放送協会 | 3次元形状復元装置 |
KR20110053166A (ko) * | 2009-11-13 | 2011-05-19 | 삼성전자주식회사 | 3d 오브젝트 렌더딩 방법 및 장치 |
JP5685516B2 (ja) * | 2011-10-25 | 2015-03-18 | 日本電信電話株式会社 | 3次元形状計測装置 |
JP6187235B2 (ja) * | 2013-12-19 | 2017-08-30 | 富士通株式会社 | 法線ベクトル抽出装置、法線ベクトル抽出方法及び法線ベクトル抽出プログラム |
-
2021
- 2021-02-08 US US17/796,990 patent/US20230056459A1/en active Pending
- 2021-02-08 WO PCT/JP2021/004517 patent/WO2021171982A1/ja active Application Filing
- 2021-02-08 CN CN202180015968.XA patent/CN115176282A/zh active Pending
- 2021-02-08 JP JP2022503229A patent/JPWO2021171982A1/ja not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20230056459A1 (en) | 2023-02-23 |
JPWO2021171982A1 (zh) | 2021-09-02 |
WO2021171982A1 (ja) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108605148B (zh) | 视频显示系统 | |
JP4065488B2 (ja) | 3次元画像生成装置、3次元画像生成方法及び記憶媒体 | |
JP2006107213A (ja) | 立体画像印刷システム | |
JP2014056466A (ja) | 画像処理装置及び方法 | |
CN110738736B (zh) | 图像处理装置、图像处理方法和存储介质 | |
JP2013009274A (ja) | 画像処理装置および画像処理方法、プログラム | |
WO2023207452A1 (zh) | 基于虚拟现实的视频生成方法、装置、设备及介质 | |
EP3435670A1 (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
JP2020005202A (ja) | 映像処理装置 | |
KR101408719B1 (ko) | 3차원 영상의 스케일 변환 장치 및 그 방법 | |
WO2013108285A1 (ja) | 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法 | |
KR20080034419A (ko) | 3d 영상 생성 및 디스플레이 시스템 | |
CN103905806A (zh) | 利用单摄像头实现3d拍摄的系统和方法 | |
KR101821141B1 (ko) | 3차원 영상 시스템 및 그 영상 재생 방법 | |
CN115176282A (zh) | 图像处理装置、生成3d模型的方法、学习方法以及程序 | |
KR102558294B1 (ko) | 임의 시점 영상 생성 기술을 이용한 다이나믹 영상 촬영 장치 및 방법 | |
KR20070010306A (ko) | 촬영장치 및 깊이정보를 포함하는 영상의 생성방법 | |
CN113515193A (zh) | 一种模型数据传输方法及装置 | |
JP2008287588A (ja) | 画像処理装置および方法 | |
CN112291550A (zh) | 自由视点图像生成方法、装置、系统及可读存储介质 | |
US9628672B2 (en) | Content processing apparatus, content processing method, and storage medium | |
JP7110378B2 (ja) | 深度データを用いた拡張現実画像提供方法及びプログラム | |
CN114008582A (zh) | 信息处理装置、信息处理方法和程序 | |
KR101632514B1 (ko) | 깊이 영상 업샘플링 방법 및 장치 | |
JP4006105B2 (ja) | 画像処理装置およびその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |