CN102982577A - 用于图像处理的设备和方法 - Google Patents
用于图像处理的设备和方法 Download PDFInfo
- Publication number
- CN102982577A CN102982577A CN2012101955612A CN201210195561A CN102982577A CN 102982577 A CN102982577 A CN 102982577A CN 2012101955612 A CN2012101955612 A CN 2012101955612A CN 201210195561 A CN201210195561 A CN 201210195561A CN 102982577 A CN102982577 A CN 102982577A
- Authority
- CN
- China
- Prior art keywords
- image
- input
- model
- virtual objects
- produce
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Abstract
提供一种用于图像处理的设备和方法。建模单元可通过输入彩色图像和与所述输入彩色图像对应的输入深度图像产生与实际对象对应的三维(3D)模型。计算器可基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并可用于产生包括通过将虚拟对象插入到3D模型而发生的彩色失真信息的差异图像。渲染单元可通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
Description
本申请要求于2011年6月14日提交到韩国知识产权局的第10-2011-0057471号韩国专利申请的优先权权益,所述申请的公开通过引用合并于此。
技术领域
以下描述的示例性实施例涉及一种图像处理设备和方法,更具体地讲,涉及一种可通过在真实彩色图像中包括虚拟对象来产生具有良好的真实性的真实彩色图像的图像处理设备和方法。
背景技术
随着使用计算机图形学的电影技术的发展,用于合成真实彩色图像和虚拟对象的图像处理的必要性正在增加并且需要高质量的合成的结果图像。
然而,在传统技术中,在真实彩色图像中真实地表现虚拟对象方面存在一些限制。例如,由于缺乏关于真实彩色图像之内的实际对象的信息,基于图像的混合表现处理在真实地表现各种光学效果方面存在一些困难,其中,所述基于图像的混合表现处理用于合成真实彩色图像和针对虚拟对象预先被渲染的图像。
例如,被对象反射或折射的照明灯的效果可能使实际对象和虚拟对象不协调。
发明内容
通过提供一种图像处理设备实现前述和/或其它方面,其中,所述图像处理设备包括:建模单元,通过输入彩色图像和与输入彩色图像对应的输入深度图像产生与实际对象对应的三维(3D)模型;计算器,基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并产生差异图像,其中,所述差异图像包括通过将虚拟对象插入到3D模型而发生的彩色失真信息;渲染单元,用于通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
计算器可包括:照明图计算器,假设输入深度图像为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图;材质图计算器,通过针对输入彩色图像的照明图执行按像素划分操作,产生3D模型的材质图。
照明图计算器可通过针对输入深度图像执行低带通滤波和移动最小二乘(MLS)中的至少一个操作来去除输入深度图像的噪声,并随后可产生照明图。
照明图计算器可假设作为所述至少一个操作产生的光滑表面点云为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图。
计算器还可包括:发光图计算器,基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并根据作为基于光子的渲染的结果的光子和反光子之间的差,产生3D模型的发光图;差异图像计算器,通过针对发光图和材质图执行按像素乘积操作来产生差异图像。
通过提供一种图像处理设备实现前述和/或其它方面,所述图像处理设备包括:建模单元,通过输入彩色图像和与输入彩色图像对应的输入深度图像产生3D模型;计算器,产生第一图像和第二图像之间的差异图像,其中,第一图像是通过基于输入光环境信息以相机视图渲染3D模型而获得的,第二图像是通过基于输入光环境信息以相机视图渲染3D模型和输入虚拟对象而获得的;渲染单元,通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
图像处理设备还可包括,其中,当第一图像和第二图像中的至少一个被渲染时,计算器使用基于光子的渲染、射线追踪、光能传递处理中的至少一个。
通过提供一种图像处理设备实现前述和/或其它方面,所述图像处理设备包括:照明图计算器,假设输入深度图像为均一材质,通过基于输入光环境信息执行执行渲染,产生与输入深度图像相关的对象的照明图;材质图计算器,通过针对输入彩色图像的照明图执行按像素划分操作,产生对象的材质图。
通过提供一种图像处理方法实现前述和/或其它方面,所述方法包括:通过输入彩色图像和与输入彩色图像对应的输入深度图像产生与实际对象对应的3D模型;基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,以产生包括通过将虚拟对象插入到3D模型发生的彩色失真信息的差异图像;通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
通过提供一种图像处理方法实现前述和/或其它方面,所述方法包括:通过输入彩色图像和与输入彩色图像对应的输入深度图像产生3D模型;产生第一图像和第二图像之间的差异图像,其中,第一图像是通过基于输入光环境信息以相机视图渲染3D模型而获得的,第二图像是通过基于输入光环境信息以相机视图渲染3D模型和输入虚拟对象而获得的;通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
示例实施例可还包括一种图像处理设备和方法,该设备和方法在渲染虚拟对象被包括在实际对象的彩色图像中的图像时,可产生具有良好真实性的结果图像。此外,相对于图像处理资源,图像处理的质量可被显著地加强,并且可容易地基于光环境信息通过输入彩色图像和输入深度图像产生材质图。
实施例的另外方面将在下面的描述中被部分地阐明,通过描述该部分将是清楚的,或者可通过本公开的实施被获知。
附图说明
通过下面结合附图进行的实施例的描述,这些和/或其他方面将会变得清楚并更容易理解,其中:
图1示出根据示例实施例的图像处理设备;
图2示出包括在图1的图像处理设备中的计算器的配置;
图3示出根据示例实施例的输入彩色图像和输入深度图像;
图4示出根据示例实施例的虚拟对象;
图5示出根据示例实施例的执行基于光子的渲染的处理;
图6示出根据示例实施例的照明图;
图7示出根据示例实施例的材质图;
图8示出根据示例实施例的渲染结果图像;
图9示出根据示例性实施例的图像处理方法。
具体实施方式
现在将详细参照实施例,其示例在附图中示出,其中,相同的标号始终表示相同的部件。下面通过参照附图来描述实施例以解释本发明公开。
图1示出根据示例实施例的图像处理设备100。
图像处理设备100的建模单元110可产生与输入彩色图像和输入深度图像对应的三维(3D)模型。
输入彩色图像和输入深度图像可相互匹配。当输入彩色图像和输入深度图像不匹配时,预处理可被执行以匹配输入彩色图像和输入深度图像。
图像处理设备100可通过在3D模型中包括虚拟对象,真实地在输入彩色图像中包括虚拟对象。
建模单元110可使用输入彩色图像和输入深度图像产生点云形式(pointcloud form)的3D模型。在一些实施例中,可在执行低通滤波和/或移动最小二乘(MLS)之后产生3D模型以去除输入深度图像的噪声。点云形式的3D模型仅是一个示例,因此,可应用产生基于网格的3D模型等其它实施例。
将参照图3进一步描述建模单元110的操作。
输入到图像处理设备100的信息可包括影响3D模型的光环境信息。光环境信息可包括当通过合成虚拟对象和3D模型执行渲染时将被考虑的光的位置、光的方向、光的能量等。
图像处理设备100的计算器120可使用输入彩色图像、输入深度图像和输入光环境信息,计算在虚拟对象被考虑时和虚拟对象不被考虑时发生的色差(color difference)。
色差可被理解为包括针对每个像素的失真、颜色值的增加或减少。因为可针对组成整个彩色图像的每个像素计算色差,所以包括这样的色差信息的图像可被称为色差图像或差异图像。
计算器120可通过针对组成输入深度图像每个像素假设均一材质(constant material),忽略材料纹理并随后仅基于输入光环境信息执行渲染,来产生与输入深度图像对应的照明图。
计算器120可通过针对输入彩色图像的照明图执行按像素划分操作,来产生与输入彩色图像之内的每个对象对应的材质图。
在示例实施例中,材质图可包括纹理信息(texture information)(诸如,输入彩色图像之内的每个对象的颜色信息等)。因为3D模型对应于输入彩色图像,所以材质图可被理解为对应于所述3D模型。
计算器120可基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并可基于作为基于光子的渲染的结果而计算出的光子和反光子的差产生3D模型的发光图(irradiance map)。根据另一示例实施例,计算器120还可针对输入虚拟对象和3D模型使用射线追踪或光能传递处理。
发光图可与关于由对应于每个像素的对象部分(例如,当前光环境中的点或网格)接收的光量的信息对应。因此,当发光图被用于对象部分的材质(例如,颜色信息)时,发光图可被用于计算以相机视图观察的光学颜色值,从而渲染结果图像。
计算器120可使用发光图和材质图产生表示色差的差异图像,其中,所述色差是指虚拟对象被包括在3D模型中的情况和虚拟对象未被包括在3D模型中的情况之间的色差。
基于光子的渲染可被执行以产生差异图像,将参照图2到图7进一步描述。
图像处理设备100的渲染单元130可通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。产生的结果图像可具有良好的真实性,这是因为虚拟对象被自然地包括在输入彩色图像中。将在下面进一步描述。
图2示出包括在图1的图像处理设备100中的计算器120的配置。
参照图2,图像处理设备100的计算器120可包括照明图计算器210、材质图计算器220、发光图计算器230和差异图像计算器240。
如上所述,计算器120可使用输入彩色图像、输入深度图像和输入光环境信息来产生表示当虚拟对象被考虑时和当虚拟对象未被考虑时发生的色差的差异图像。
为了合成虚拟对象和从实际对象拍摄的输入彩色图像,需要真实地表现光学效果(例如,当虚拟对象被插入到输入彩色图像内的实际对象之间时发生的光的反射、光的折射等)。
光学效果可被理解为输入彩色图像内的像素的颜色值的失真或改变。由计算器120产生的差异图像可对应于结果图像,其中,所述结果图像通过计算针对每个像素的颜色值的失真或改变而被获得。
输入深度图像表示关于距离的信息,并因此,可能未提供包括实际对象的颜色信息的纹理信息,其中,所述距离是指每个实际对象和用于获得输入深度图像的深度相机之间的距离。
例如,由于很多原因,输入深度图像会具有噪声特征。所述原因可包括在深度相机的传感器端发生的噪声、深度折叠、实际对象的颜色值、在外部环境中存在的红外线等。
照明图计算器210或图像处理设备100的组成元件中的至少一个可产生光滑表面点云形式的实际对象,并随后通过采用作为预处理的图像处理过程(诸如,噪声滤波、深度折叠去除、MLS等)来使用实际对象,而不是按原样使用具有噪声特征的输入深度图像。在下文中,即使未特别提及,本公开需要被理解为基于执行上述预处理过程的实施例和未执行上述预处理过程的其它实施例。
照明图计算器210可通过忽略材质(例如,材质的颜色)的纹理差异,针对组成输入深度图像的每个像素假设为均一材质。
可通过仅基于输入光环境信息渲染从输入深度图像提取出的3D模型,来产生与输入深度图像对应的照明图。
照明图可包括关于被传递到3D模型内的实际对象的颜色的光、光的方向、光的强度等的信息。因此,基于光环境的颜色值可被包括在照明图中,其中,在所述光环境中,实际对象材质本身的颜色值被考虑。
材质图计算器220可针对来自输入彩色图像的照明图执行划分操作。当假设输入彩色图像和输入深度图像被按像素匹配时,划分操作可以是简单的按像素的颜色值划分操作。
可通过在组成输入深度图像的每个像素的颜色值中去除光环境的影响来产生材质图。材质图可包括光环境被忽略的3D模型内的每个实际对象的材质颜色信息。
发光图计算器230可将输入虚拟对象插入到3D模型的预定位置,并基于光环境信息执行基于光子的渲染。将参照图5进一步描述基于光子的渲染。
当基于光子的渲染被执行时,可产生在虚拟对象被插入到3D模型时的发光图。
发光图可包括关于每个像素或与每个像素对应的对象部分从光环境接收的光量的信息。
在虚拟对象被插入之前的发光图可对应于照明图。发光图可表示通过将虚拟对象插入到3D模型在光环境中接收的光照度(irrandiance)。
差异图像计算器240可通过将材质的颜色值乘以光照度来产生差异图像。
图像处理设备100的渲染单元130可通过合成差异图像和输入彩色图像来产生在实际图像中包括了虚拟对象的结果图像。
图3示出根据示例实施例的输入彩色图像310和输入深度图像320。
输入彩色图像310可包括实际对象311的颜色信息和背景的颜色信息。
输入深度图像320可包括与输入彩色图像310匹配的深度信息。当输入彩色图像310和输入深度图像320不匹配时,匹配处理(例如,卷曲、缩放等)可被执行为预处理。
滤波、MLS等可被执行为预处理以提高输入深度图像320的质量。
图像处理设备100的建模单元110可使用输入彩色图像310和输入深度图像320产生3D模型。产生的3D模型可以是点云模型、基于网格的模型等。
图4示出根据示例实施例的虚拟对象400。
当虚拟对象400被输入时,虚拟对象400的几何信息、材质信息或纹理信息可被提供给图像处理设备100。
在下文中,将参照图5说明通过合成虚拟对象400和图3的输入彩色图像310来产生具有良好真实性的结果图像的处理。
图5示出根据示例实施例的执行基于光子的渲染的处理500。
可使用追踪在输入光环境501中被辐射的光子的前进路径的处理,执行基于光子的渲染。
在光子531在光环境501中被辐射并与虚拟对象530碰撞的情况下,如果虚拟对象530已经不存在,则光子531可能已与原实际对象510碰撞。因此,由于虚拟对象530的存在,光子531的路径被改变。如果虚拟对象530已经不存在,则光子531可能已与实际对象510碰撞的点被分别计算并被表现为反光子512。
在这个示例中,术语“光子”可能不同于实际物理中的光的光子,并且可以是被用来计算包括对象的3D模型内的辐射度的信息。具有更多光子的点可被认为具有更高的辐射度。
此外,术语“反光子”可能被理解为一种概念性的光子,该概念性的光子被引入以计算当虚拟对象不存在时实际对象应该接收到的光子的量,而所述光子的量由于虚拟对象造成光子的前进路径的改变没有被接收。
如上所述,光子531可沿着由于虚拟对象530的插入而改变的路径迁移。反光子512被产生在沿着原始路径与实际对象510相交的点。光子531从虚拟对象530被反射,从而沿着新的路径前进并与另一虚拟对象540相交。作为结果,产生新光子541。因为由于虚拟对象530的插入造成光子531的前进路径被改变,所以产生反光子512和光子541。
光子532的前进路径也可被改变,因此在原始前进路径上产生反光子513。在新路径上产生光子542。
光子511与实际对象510碰撞,并在未与虚拟对象530碰撞的情况下从实际对象510被反射。因此,在实际对象520中产生光子522。在上述处理期间,虚拟对象530的插入不会影响光的前进路径。
在光环境501中辐射的光可能与实际对象520碰撞,从而产生虚拟对象530的光子521和光子533。虽然未示出,由于虚拟对象530的插入,新产生光子533。由于在光子521的路径上新产生的光子533,会在实际对象510中产生另一反光子(未示出)。
针对整个3D模型计算光子和反光子的上述处理可被理解为基于光子的渲染。基于光子的渲染可仅使用预定等级(例如,多次反射中的仅一次反射等)。
图6示出根据示例实施例的照明图600。
照明图计算器210可假设从输入深度图像320确认的整个点云为均一材质,在光环境中执行渲染。可基于光环境信息执行渲染。可产生表示光环境的等级的照明图600,其中,所述光环境针对每个对象改变颜色值。
图7示出根据示例实施例的材质图700。
如上所述,材质图计算器220可通过针对输入彩色图像310的照明图600执行按像素划分操作来产生材质图700。
每个对象的材质信息可被包括在材质图700中。例如,颜色信息可被包括在材质图700中。在图7的示例中,对象部分的颜色可区别于背景颜色。
当材质图700被产生时,差异图像计算器240可针对通过发光图计算器230计算的3D模型和虚拟对象,通过按像素将发光图和材质图700相乘来产生差异图像(未示出)。
图8示出根据示例实施例的渲染结果图像800。
渲染单元130可通过合成差异图像和输入彩色图像310来产生结果图像800。
插入的虚拟对象部分810被表现在结果图像800中。此外,光学效果(例如,输入彩色图像310的失真和/或颜色值的改变(诸如,阴影部分811等))被真实地表现在结果图像800中。
用于以上渲染处理的图像可以是高动态范围(HDR)图像。因此,可能需要将低动态范围(LDR)图像的红、绿、蓝(RGB)值(例如,一个从0到255的整数)转换为预定的浮点实数的RGB值(例如,在0和1之间的实数)的处理,其中,所述LDR图像是使用一般彩色相机获得的。在此,将省略与其相关的详细描述。
此外,可基于由图像处理设备100接收的预定的布置信息,确定将被插入到3D模型的虚拟对象的位置。在这种情况下,可采用标记跟踪处理等。
图9示出根据示例实施例的图像处理方法。
在操作910中,图像处理设备100的建模单元110可产生与输入彩色图像和输入深度图像对应的3D模型。以上,参照图1和图3描述了3D模型产生过程。
在操作920中,图像处理设备100的计算器可产生包括当虚拟对象被插入时可能发生的颜色改变信息的差异图像。
根据示例实施例,操作920可包括以下操作:假设与组成输入深度图像的每个像素对应的对象部分为均一材质,并随后产生仅基于输入光环境渲染的照明图。以上,参照图6描述了照明图产生过程。
操作920可包括由材质图计算器220通过针对来自输入彩色图像的照明图执行按像素划分操作来产生材质图的操作,并且操作920可包括由发光图计算器230产生发光图的操作。以上,参照图7描述了材质图计算过程并且参照图5描述了发光图产生过程。
在操作930中,图像处理设备100的渲染单元130可通过合成差异图像和输入彩色图像来产生结果图像,在所述结果图像中,虚拟对象被包括在实际对象中。以上,参照图8描述了操作930。
根据上述实施例的图像处理方法可被记录在非暂时性计算机可读介质,其中,所述非暂时性计算机可读介质包括用于实施由计算机实施的各种操作的程序指令。实施例可被实施在计算机硬件和/或软件中,诸如(非限制的例子)任何可存储、检索、处理和/或输出数据和/或与其他计算机通信的计算机。产生的结果可被显示在计算硬件的显示器上。所述介质可包括单独的数据文件、数据结构等或包括与程序指令相结合的数据文件、数据结构等。非暂时性计算机可读介质的示例包括:磁介质(诸如,硬盘、软盘和磁带)、光学介质(诸如,CD-ROM盘和DVD)、磁光介质(诸如,光盘)、以及专门配置用于存储和执行程序指令的硬件装置(诸如,只读存储器(ROM)、随机存取存储器(RAM)、闪存等)。磁记录设备的示例包括硬盘设备(HDD)、软磁盘(FD)和磁带(MT)。光学介质的示例包括DVD(数字多功能光盘)、DVD-RAM、CD-ROM(光盘-只读存储器)和CD-R(可记录)/RW。程序指令的示例包括机器代码(诸如由编译器产生的机器代码)和包含可由计算机使用解释器执行的更高级代码的文件。描述的硬件装置可被配置为用作一个或更多软件模块以执行上述实施例的操作,反之亦然。
另外,图像处理设备的实施例可包括一个或多个处理器以执行上述单元和方法中的至少一个。
此外,根据实施例的一方面,可提供描述的特点、功能和/或操作的任何组合。
虽然已示出并描述了实施例,但是本领域的技术人员将理解,在不脱离本公开的原理和精神的情况下,可对这些实施例进行改变,其中,本发明的范围由权利要求及其等同物限定。
Claims (15)
1.一种图像处理设备,包括:
建模单元,使用输入彩色图像和与输入彩色图像对应的输入深度图像来产生与实际对象对应的三维(3D)模型;
计算器,基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并产生差异图像,其中,所述差异图像包括通过将虚拟对象插入到3D模型而发生的颜色失真信息;
渲染单元,通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
2.如权利要求1所述的图像处理设备,其中,计算器包括:
照明图计算器,假设输入深度图像为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图;
材质图计算器,通过针对输入彩色图像的照明图执行按像素划分操作,产生3D模型的材质图。
3.如权利要求2所述的图像处理设备,其中,照明图计算器通过针对输入深度图像执行低带通滤波和移动最小二乘MLS中的至少一个操作来去除输入深度图像中的噪声,并随后产生照明图。
4.如权利要求3所述的图像处理设备,其中,照明图计算器假设作为所述至少一个操作的结果而产生的光滑表面点云为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图。
5.如权利要求2所述的图像处理设备,其中,计算器还包括:
发光图计算器,基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,并根据作为基于光子的渲染的结果而计算出的光子和反光子之间的差,产生3D模型的发光图;
差异图像计算器,通过针对发光图和材质图执行按像素乘积操作来产生差异图像。
6.一种图像处理设备,包括:
建模单元,使用输入彩色图像和与输入彩色图像对应的输入深度图像产生3D模型;
计算器,产生第一图像和第二图像之间的差异图像,其中,第一图像是通过基于输入光环境信息以相机视图渲染3D模型而获得,第二图像是通过基于输入光环境信息以相机视图渲染3D模型和输入虚拟对象而获得;
渲染单元,通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
7.如权利要求6所述的图像处理设备,其中,当第一图像和第二图像中的至少一个被渲染时,计算器使用基于光子的渲染、射线追踪、光能传递处理中的至少一个。
8.一种图像处理设备,包括:
照明图计算器,假设输入深度图像为均一材质,通过基于输入光环境信息执行渲染,产生与输入深度图像相关的对象的照明图;
材质图计算器,用于通过针对输入彩色图像的照明图执行按像素的划分操作,产生对象的材质图。
9.一种图像处理方法包括:
使用输入彩色图像和与输入彩色图像对应的输入深度图像产生与实际对象对应的3D模型;
基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,以产生包括通过将虚拟对象插入到3D模型而发生的颜色失真信息的差异图像;
通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
10.如权利要求9所述的方法,其中,产生差异图像的步骤包括:
假设输入深度图像为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图;
通过针对输入彩色图像的照明图执行按像素划分操作,产生3D模型的材质图。
11.如权利要求10所述的方法,其中,产生照明图的步骤包括:通过针对输入深度图像执行低带通滤波和移动最小二乘MLS中的至少一个操作来去除输入深度图像中的噪声,并随后产生照明图。
12.如权利要求11所述的方法,其中,产生照明图的步骤照明图包括:假设作为所述至少一个操作而产生的光滑表面点云为均一材质,通过基于输入光环境信息执行渲染来产生与实际对象对应的3D模型的照明图。
13.如权利要求10所述的方法,其中,产生差异图像的步骤还包括:
基于输入光环境信息针对输入虚拟对象和3D模型执行基于光子的渲染,根据作为基于光子的渲染的结果计算出的光子和反光子之差产生3D模型的发光图;
通过针对发光图和材质图执行按像素乘积操作来产生差异图像。
14.一种图像处理方法包括:
使用输入彩色图像和与输入彩色图像对应的输入深度图像产生3D模型;
产生第一图像和第二图像之间的差异图像,其中,第一图像是通过基于输入光环境信息以相机视图渲染3D模型而获得的,第二图像是通过基于输入光环境信息以相机视图渲染3D模型和输入虚拟对象而获得的;
通过合成差异图像和输入彩色图像来产生包括虚拟对象的结果图像。
15.如权利要求14所述图像处理方法,其中,使用基于光子的渲染、射线追踪、光能传递处理中的至少一个,使第一图像和第二图像中的至少一个被渲染。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110057471A KR101845231B1 (ko) | 2011-06-14 | 2011-06-14 | 영상 처리 장치 및 방법 |
KR10-2011-0057471 | 2011-06-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102982577A true CN102982577A (zh) | 2013-03-20 |
CN102982577B CN102982577B (zh) | 2017-05-03 |
Family
ID=47353321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210195561.2A Active CN102982577B (zh) | 2011-06-14 | 2012-06-13 | 用于图像处理的设备和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9870644B2 (zh) |
KR (1) | KR101845231B1 (zh) |
CN (1) | CN102982577B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105150530A (zh) * | 2015-04-30 | 2015-12-16 | 北京敏速自动控制设备有限公司 | 三维模型处理方法及其装置、三维打印方法及三维打印设备 |
CN105597314A (zh) * | 2015-10-29 | 2016-05-25 | 网易(杭州)网络有限公司 | 一种2d游戏的渲染系统及方法、终端设备 |
CN111432237A (zh) * | 2014-12-09 | 2020-07-17 | 松下知识产权经营株式会社 | 发送方法、接收方法及接收装置 |
CN114063302A (zh) * | 2015-04-22 | 2022-02-18 | 易赛特股份有限公司 | 光学像差校正的方法和装置 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102223064B1 (ko) | 2014-03-18 | 2021-03-04 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
WO2016077506A1 (en) | 2014-11-11 | 2016-05-19 | Bent Image Lab, Llc | Accurate positioning of augmented reality content |
US9626803B2 (en) | 2014-12-12 | 2017-04-18 | Qualcomm Incorporated | Method and apparatus for image processing in augmented reality systems |
US10119809B2 (en) * | 2015-02-16 | 2018-11-06 | Intel Corporation | Simulating multi-camera imaging systems |
US10284816B2 (en) | 2015-03-23 | 2019-05-07 | Intel Corporation | Facilitating true three-dimensional virtual representation of real objects using dynamic three-dimensional shapes |
US10600249B2 (en) | 2015-10-16 | 2020-03-24 | Youar Inc. | Augmented reality platform |
US10068385B2 (en) | 2015-12-15 | 2018-09-04 | Intel Corporation | Generation of synthetic 3-dimensional object images for recognition systems |
WO2017165705A1 (en) | 2016-03-23 | 2017-09-28 | Bent Image Lab, Llc | Augmented reality for the internet of things |
JP6625745B2 (ja) * | 2016-06-16 | 2019-12-25 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
US10546415B2 (en) * | 2017-02-07 | 2020-01-28 | Siemens Healthcare Gmbh | Point cloud proxy for physically-based volume rendering |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US11004269B2 (en) * | 2019-04-22 | 2021-05-11 | Microsoft Technology Licensing, Llc | Blending virtual environments with situated physical reality |
US11380046B2 (en) * | 2019-07-23 | 2022-07-05 | Texas Instruments Incorporated | Surround view |
CN110599579B (zh) * | 2019-09-20 | 2023-02-24 | 山东师范大学 | 基于光子重采样的随机渐近光子映射图像渲染方法及系统 |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354784A (zh) * | 2008-08-21 | 2009-01-28 | 上海交通大学 | 基于图像的真实光源获取及重光照的方法 |
US20090046099A1 (en) * | 2006-11-13 | 2009-02-19 | Bunkspeed | Real-time display system |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100231712B1 (ko) | 1997-06-13 | 1999-11-15 | 정선종 | 무인정찰기 시스템의 운용 방법 |
JP3720587B2 (ja) | 1998-07-13 | 2005-11-30 | 大日本印刷株式会社 | 画像合成装置 |
US6628298B1 (en) * | 1998-07-17 | 2003-09-30 | The Regents Of The University Of California | Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination |
KR100276433B1 (ko) | 1998-10-10 | 2001-02-01 | 정선종 | 증강 현실을 이용한 관광 망원경 시스템 및 그 운용방법 |
JP3387856B2 (ja) | 1999-08-06 | 2003-03-17 | キヤノン株式会社 | 画像処理方法、画像処理装置および記憶媒体 |
JP2001143105A (ja) | 1999-11-18 | 2001-05-25 | Matsushita Electric Ind Co Ltd | 画像生成装置 |
KR100327120B1 (ko) | 1999-12-13 | 2002-03-13 | 오길록 | 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법 |
US7227547B2 (en) * | 2000-06-19 | 2007-06-05 | Mental Images Gmbh | Method for generating pixel values for pixels in an image using strictly deterministic methodologies for generating sample points |
US7952583B2 (en) * | 2000-06-19 | 2011-05-31 | Mental Images Gmbh | Quasi-monte carlo light transport simulation by efficient ray tracing |
US7432935B2 (en) * | 2002-11-19 | 2008-10-07 | Mental Images Gmbh | Image synthesis methods and systems for generating sample points in a graphics scene |
KR100450836B1 (ko) * | 2001-12-11 | 2004-10-01 | 삼성전자주식회사 | 이차원 영상의 입체화 장치 및 방법 |
JP3863023B2 (ja) | 2002-01-29 | 2006-12-27 | 株式会社東芝 | テクスチャ生成装置、テクスチャマッピング装置、テクスチャ生成方法、テクスチャマッピング方法、テクスチャ生成プログラム、及び、テクスチャマッピングプログラム |
US7262770B2 (en) * | 2002-03-21 | 2007-08-28 | Microsoft Corporation | Graphics image rendering with radiance self-transfer for low-frequency lighting environments |
JP4217100B2 (ja) | 2003-04-17 | 2009-01-28 | 本田技研工業株式会社 | 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム |
KR100551107B1 (ko) | 2003-07-03 | 2006-02-14 | 박배억 | 가상 현실 구현을 위한 실사 이미지 합성 방법 |
JP4522129B2 (ja) | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
KR100740879B1 (ko) | 2004-11-16 | 2007-07-19 | 한국전자통신연구원 | 영상을 이용한 실존 물체 이미지 재현 시스템 및 그 방법 |
KR100755187B1 (ko) | 2006-02-23 | 2007-09-03 | 주식회사 엔씨소프트 | 실제영상에 가상매체를 표시할 수 있는 디지털 기기 및 그표시방법 |
US7408550B2 (en) * | 2006-07-24 | 2008-08-05 | Bunnell Michael T | System and methods for real-time rendering of deformable geometry with global illumination |
US7894662B2 (en) * | 2006-10-11 | 2011-02-22 | Tandent Vision Science, Inc. | Method for using image depth information in identifying illumination fields |
JP4808600B2 (ja) | 2006-11-22 | 2011-11-02 | デジタルファッション株式会社 | レンダリングプログラム、レンダリング装置、及びレンダリング方法 |
US8436855B1 (en) * | 2007-02-19 | 2013-05-07 | Aechelon Technology, Inc. | Efficient illumination of large three dimensional environments |
KR20080102789A (ko) | 2007-05-22 | 2008-11-26 | 김성현 | 버츄어 미러 |
KR100897006B1 (ko) | 2007-08-28 | 2009-05-14 | 중앙대학교 산학협력단 | 실시간으로 영상 합성이 가능한 영상 합성기 및 그 방법 |
EP2051533B1 (en) * | 2007-10-19 | 2014-11-12 | Canon Kabushiki Kaisha | 3D image rendering apparatus and method |
JP4999711B2 (ja) | 2007-11-07 | 2012-08-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US9082213B2 (en) * | 2007-11-07 | 2015-07-14 | Canon Kabushiki Kaisha | Image processing apparatus for combining real object and virtual object and processing method therefor |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
KR100914848B1 (ko) | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 혼합현실 시스템 및 그 구현 방법 |
KR100927009B1 (ko) | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
JP5485257B2 (ja) | 2008-03-21 | 2014-05-07 | コースティック グラフィックス インコーポレイテッド | レイトレース・レンダリングのための並列化された交差テストおよびシェーディングのアーキテクチャ |
US7937245B2 (en) * | 2008-04-02 | 2011-05-03 | Dreamworks Animation Llc | Rendering of subsurface scattering effects in translucent objects |
KR100964951B1 (ko) | 2008-10-29 | 2010-06-21 | 에이알비전 (주) | 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법 |
GB2465791A (en) * | 2008-11-28 | 2010-06-02 | Sony Corp | Rendering shadows in augmented reality scenes |
KR100951121B1 (ko) | 2008-12-08 | 2010-04-07 | 서강대학교산학협력단 | 간접 조명 효과를 위한 렌더링 방법 |
CA2662318C (en) | 2009-01-17 | 2014-12-02 | Lockheed Martin Corporation | Immersive collaborative environment using motion capture, head mounted display, and cave |
US8542231B2 (en) * | 2009-06-29 | 2013-09-24 | Crytek Gmbh | Method, computer graphics image rendering system and computer-readable data storage medium for computing of indirect illumination in a computer graphics image of a scene |
KR101025899B1 (ko) | 2009-06-30 | 2011-03-30 | 에이알비전 (주) | 다수의 카메라센서를 이용한 가상 이미지가 합성된 방송영상의 송출 방법 |
KR101013751B1 (ko) | 2009-07-09 | 2011-02-14 | 주식회사 인스프리트 | 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템 |
KR101615238B1 (ko) | 2009-07-21 | 2016-05-12 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
KR20110014795A (ko) | 2009-08-06 | 2011-02-14 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8798392B2 (en) * | 2010-11-10 | 2014-08-05 | Tandent Vision Science, Inc. | Method and system for generating intrinsic images using a smooth illumination constraint |
TWI513327B (zh) * | 2011-04-15 | 2015-12-11 | Dolby Lab Licensing Corp | 高動態範圍影像的編碼、解碼及表示 |
-
2011
- 2011-06-14 KR KR1020110057471A patent/KR101845231B1/ko active IP Right Grant
-
2012
- 2012-06-13 CN CN201210195561.2A patent/CN102982577B/zh active Active
- 2012-06-13 US US13/495,378 patent/US9870644B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090046099A1 (en) * | 2006-11-13 | 2009-02-19 | Bunkspeed | Real-time display system |
CN101354784A (zh) * | 2008-08-21 | 2009-01-28 | 上海交通大学 | 基于图像的真实光源获取及重光照的方法 |
Non-Patent Citations (2)
Title |
---|
JIANNING WANG等: "《XVI Brazilian Symposium on Computer Graphics and Image Processing》", 31 October 2003 * |
MADSEN等: "《International Conference on Computer Graphics Theory and Applications》", 31 March 2007 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111432237A (zh) * | 2014-12-09 | 2020-07-17 | 松下知识产权经营株式会社 | 发送方法、接收方法及接收装置 |
CN114063302A (zh) * | 2015-04-22 | 2022-02-18 | 易赛特股份有限公司 | 光学像差校正的方法和装置 |
CN114063302B (zh) * | 2015-04-22 | 2023-12-12 | 易赛特股份有限公司 | 光学像差校正的方法和装置 |
CN105150530A (zh) * | 2015-04-30 | 2015-12-16 | 北京敏速自动控制设备有限公司 | 三维模型处理方法及其装置、三维打印方法及三维打印设备 |
WO2016173069A1 (zh) * | 2015-04-30 | 2016-11-03 | 北京敏速自动控制设备有限公司 | 三维模型处理方法及其装置、三维打印方法及三维打印设备 |
CN105597314A (zh) * | 2015-10-29 | 2016-05-25 | 网易(杭州)网络有限公司 | 一种2d游戏的渲染系统及方法、终端设备 |
CN105597314B (zh) * | 2015-10-29 | 2020-07-10 | 网易(杭州)网络有限公司 | 一种2d游戏的渲染系统及方法、终端设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20120138140A (ko) | 2012-12-24 |
US9870644B2 (en) | 2018-01-16 |
US20120320039A1 (en) | 2012-12-20 |
KR101845231B1 (ko) | 2018-04-04 |
CN102982577B (zh) | 2017-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102982577A (zh) | 用于图像处理的设备和方法 | |
US8929668B2 (en) | Foreground subject detection | |
Srinivasan et al. | Aperture supervision for monocular depth estimation | |
KR101168384B1 (ko) | 깊이 맵을 생성하는 방법, 깊이 맵 생성 유닛, 이미지 처리 장치, 및 컴퓨터 프로그램 제품 | |
US8363049B2 (en) | 3D image processing method and apparatus for enabling efficient retrieval of neighboring point | |
CN105701853A (zh) | 3d渲染方法和设备 | |
CN102685533A (zh) | 对2d电影进行转换用于立体3d显示的方法和系统 | |
US8599199B2 (en) | Stereoscopic image generation method of background terrain scenes, system using the same, and recording medium for the same | |
US20090033662A1 (en) | Multiple artistic look rendering methods and apparatus | |
CN113658316B (zh) | 三维模型的渲染方法和装置、存储介质及计算机设备 | |
CN103262126A (zh) | 图像处理装置、照明处理装置及其方法 | |
CN104715468A (zh) | 一种基于Unity3D的裸眼3D内容制作的改进方法 | |
CN117036571B (zh) | 图像数据生成、视觉算法模型训练、评测方法及装置 | |
KR101585998B1 (ko) | 영상 처리 장치 및 방법 | |
Waschbüsch et al. | 3d video billboard clouds | |
CN116958367A (zh) | 一种快速组合并渲染复杂神经场景的方法 | |
Liu et al. | Fog effect for photography using stereo vision | |
Hanika et al. | Camera space volumetric shadows | |
Haji-Esmaeili et al. | Large-scale Monocular Depth Estimation in the Wild | |
Ribera et al. | Video panorama for 2d to 3d conversion | |
US9361689B2 (en) | Image processing apparatus and method | |
Willment et al. | What is virtual production? An explainer and research agenda | |
Chen et al. | A quality controllable multi-view object reconstruction method for 3D imaging systems | |
Papadakis et al. | Virtual camera synthesis for soccer game replays | |
Zhang et al. | Virtual cubic panorama synthesis based on triangular reprojection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |