CN103262126A - 图像处理装置、照明处理装置及其方法 - Google Patents

图像处理装置、照明处理装置及其方法 Download PDF

Info

Publication number
CN103262126A
CN103262126A CN2011800596160A CN201180059616A CN103262126A CN 103262126 A CN103262126 A CN 103262126A CN 2011800596160 A CN2011800596160 A CN 2011800596160A CN 201180059616 A CN201180059616 A CN 201180059616A CN 103262126 A CN103262126 A CN 103262126A
Authority
CN
China
Prior art keywords
image
illumination
depth
diffuse
directive property
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800596160A
Other languages
English (en)
Other versions
CN103262126B (zh
Inventor
沈炫定
金道均
李泰炫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103262126A publication Critical patent/CN103262126A/zh
Application granted granted Critical
Publication of CN103262126B publication Critical patent/CN103262126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

提供了一种图像处理装置、照明处理装置及其方法。根据一方面,照明处理装置可利用实际对象的彩色图像和深度图像提取应用于所述对象的漫射照明信息。照明处理装置可利用提取的所述扩展照明信息复原关于所述实际对象的漫射图像,并可以利用经复原的所述漫射图像和所述彩色图像生成镜面图像和阴影图像中的至少一个。

Description

图像处理装置、照明处理装置及其方法
技术领域
本发明技术领域涉及从图像生成照明条件,并将所生成的照明条件应用于将要插入到图像的虚拟对象的图像处理。
背景技术
随着3D图形技术和相关硬件技术的发展,在3D游戏、3D电影、智能手机等多种应用领域正制作出用于真实地表现出对象的内容。作为真实地表现对象的技术,可采用渲染技术。渲染技术需要对几何图形(Geometry)、材质属性(Material Properties)、光线(Lighting)准确地建模。
发明内容
技术手段
根据本发明的一方面,照明处理装置包括:漫射提取单元,利用实际对象的彩色图像和深度图像提取应用于所述对象的漫射照明信息;漫射复原单元,利用所提取的所述漫射照明信息复原针对所述实际对象的漫射图像;误差图像分离单元,利用所复原的漫射图像和所述彩色图像生成镜面图像和阴影图像中的至少一个。
发明效果
即便不使用辅助装置也能够从拍摄实际对象获得的彩色图像和深度图像获取应用于相关对象的照明条件。
而且,当在图像中添加虚拟对象时,通过将从相关图像获取的照明条件应用到虚拟对象,从而可以得到更加真实的渲染效果。
附图说明
图1为示出根据一实施例的照明处理装置的方框图。
图2为示出根据另一实施例的照明处理装置的方框图。
图3为示出用于获得应用于实际对象的照明条件的照明处理装置的一实施例的方框图。
图4为示出从拍摄单元输出而使用为输入图像的彩色图像和深度图像的一示例的图。
图5为用于说明基于深度图像和深度图像的法线图的基函数建模方式的图。
图6为更具体地示出图3所示的漫射复原单元的方框图。
图7为用于说明通过图3的误差图像分离单元所实现的一系列过程的示例图。
图8为用于说明基于镜面图像提取第一指向性照明信息的方法的例示图。
图9和图10为用于说明基于阴影图像提取第二指向性照明信息的方法的示例图。
图11为用于说明根据一实施例的照明处理方法的流程图。
图12为用于更具体地说明图11的920步骤的流程图。
图13为示出根据一实施例的包括照明处理装置的图像处理装置的组成的图。
具体实施方式
以下,参照附图详细说明本发明的实施例。
用于真实地表现对象的渲染技术需要对几何图形、材质属性、光线准确地建模。对于几何图形建模来说,随着拍摄深度图像的深度照相机的发展,可实时获取移动的物体的形状信息。对于材质属性建模来说,提出有Lambertian、Phong、Torrance-Cook、Or en-Nay ar、Emperical BSSRDF、BRDF等多种实验性/物理性的模型。
对于光线建模来说,以往利用Lambertian物体或Chrome Ball等辅助装置提取应用于对象的光线模型,即照明条件。相反,图1、图1以及图3的照明处理装置100a、100b、200可不使用辅助装置而利用实际对象的彩色图像和深度图像提取照明条件。图1、图2及图3的照明装置100a、100b、200可应用于数码相机、手机、智能手机等消费电子产品(CE,ConsumerElectronics)之中。在此,“照明条件”可包括“关于应用于实际对象的照明的方向的信息”以及“关于应用于实际对象的照明的亮度的信息”。
由照明处理装置生成的照明条件可包括例如漫射(diffuse)照明信息和指向性(directional)照明信息。即,可通过结合漫射照明信息和指向性照明信息,来复原原始(original)照明条件。还可以存在利用漫射照明信息和指向性信息中的其中一个来复原原始照明信息的实施例。
在频域观察漫射照明信息时,漫射照明信息表现出对应于原始照明条件的低频分量的特性。在频域观察指向性照明信息时,指向性照明信息表现出对应于原始照明条件的高频分量的特性。在频域,漫射照明信息可具有连续的形态,指向性照明信息可具有不连续的形态。
实际对象可对光进行反射。例如,可以在实际对象的表面生成具有全反射特性的漫反射(diffuse reflection)或具有指向性反射特性的镜面反射(specularreflection)。若利用拍摄实际对象的图像,则能够生成由受到漫反射影响的像素构成的漫射图像或由受到镜面反射的影响的像素构成的镜面图像。而且,在对象和其周边可根据光的指向性特性生成阴影,还能够生成由在原始图像中受到阴影的影响的像素构成的阴影图像。
漫射照明信息可从漫射图像中获取。另外,指向性照明信息可从镜面图像和阴影图像中的至少一个提取。显然,还可以存在利用漫射照明图像信息生成漫射图像或利用指向性照明信息生成镜面图像或阴影图像的实施例。
根据一实施例,照明处理装置可利用实际对象的彩色图像和深度图像提取漫射照明信息。照明处理装置可利用所提取的漫射照明信息生成漫射图像。而且,照明处理装置可利用漫射图像和原始图像来生成镜面图像。照明处理装置可从所生成的镜面图像提取指向性照明信息。而且,照明处理装置可利用漫射图像和原始图像生成阴影图像。照明处理装置可从所生成的阴影图像提取指向性照明信息。
照明处理装置可利用所提取的照明信息生成照明条件,并将其应用于虚拟对象。即,包括图1、图2及图3的照明处理装置100a、100b、200的图像处理装置可利用包含特定场景的图像生成照明条件,并在图像中插入应用所生成的照明条件的虚拟对象。例如,图像处理装置可利用深度图像和彩色图像提取指向性照明信息,并将应用了基于所提取的所述指向性照明信息的照明条件的虚拟对象合成到所述彩色图像。
图1为示出根据一实施例的照明处理装置的方框图。
参照图1,照明处理装置100a包括漫射提取单元105、漫射复原单元115、基于指向性照明的图像生成单元125。
漫射提取单元105利用实际对象的彩色图像和深度图像来提取应用于实际对象的漫射照明信息。
漫射复原单元115可利用所提取的漫射照明信息来复原漫射图像。漫射照明信息可以以纹理(texture)形态被存储。
基于指向性照明的图像生成单元125基于通过漫射复原单元115复原的漫射图像和彩色图像之间的误差图像来生成镜面图像。基于指向性照明的图像生成单元125还可以基于复原的漫射图像和彩色图像之间的误差图像来生成阴影图像。
图2为示出根据另一实施例的照明处理装置的方框图。
参照图2,照明处理装置100b包括漫射复原单元110、指向性照明信息提取单元120、照明条件确定单元130。
漫射复原单元110可利用实际对象的彩色图像和深度图像提取应用于实际对象的漫射照明信息,并利用所提取的漫射照明信息复原关于实际对象的漫射图像。漫射照明信息可以以纹理形态被存储。
指向性照明信息提取单元120可基于通过漫射复原单元110所复原的漫射图像和彩色图像之间的误差图像提取指向性照明信息。
照明条件确定单元130可利用所提取的漫射照明信息、所提取的指向性照明信息以及输入的彩色图像来确定应用于实际对象的照明条件。
图3为示出用于获得应用于实际对象的照明条件的照明处理装置的一实施例的方框图。
参照图3,照明处理装置200可包括拍摄单元210、漫射复原单元220、误差图像分离单元230、指向性照明信息提取单元240、照明条件确定单元250。
拍摄单元210可在任意的照明环境下拍摄实际对象而输出彩色图像和深度图像。拍摄图像210可分别配备用于获取彩色图像的彩色照相机和用于获取深度图像的深度照相机,或者还可以实现为整合彩色照相机和深度照相机的形态的照相机。或者,拍摄单元210可从立体式照相机或多视点照相机获取深度图像之后,与彩色图像一起输出所获取的深度图像。
图4为示出从拍摄单元210输出而使用为输入图像的彩色图像和深度图像的一示例的图。参照图4,根据照明环境,在实际对象中发生漫反射和镜面反射。
漫射复原单元220可利用实际对象的彩色图像和深度图像来提取应用于实际对象的漫射照明信息,并利用所提取的漫射照明信息复原针对对象的漫射图像。为了提取漫射照明信息,漫射复原单元220可利用基于深度图像的低阶基函数(low order basic function)模型。
图5为用于说明基于深度图像和深度图像的法线图的低阶基函数建模方式的图。
利用图5所示的低阶基函数时,对于Convex Lambertian物体来说,可利用9个低阶基函数准确地复原出较多(例如,99%以上的)像素值。若利用低阶基函数,则漫射复原单元220针对每个彼此不同的形状的对象可生成符合各个彼此不同形状的对象的低阶基函数模型。据此,漫射复原单元220可利用如图5所示的低阶基函数模型,根据Lambertian Law定义和表现出对象上生成的漫反射。“Lambertian Law”是所谓“漫反射与光线矢量1和物体表面的方向的法向量n的内积成比例”的理论。
图6为更加具体地示出图3所示的漫射复原单元220的方框图。
参照图6,漫射复原单元220可包括法线图生成单元221、模型生成单元223、渲染单元225、照明常数计算单元227。
法线图生成单元221可从所输入的深度图像生成深度图像的法线图。法线图以纹理表现出关于对象的法线矢量。
模型生成单元223可基于所生成的法线图生成深度图像的低阶基函数模型。低阶基函数模型的示例可以有如图3所示的球面谐波基函数(SHBF,Spherical Harmonics Basis Function)。
渲染单元225渲染基于深度图像生成的低阶基函数模型。
照明常数计算单元227可将被渲染的低阶基函数应用到彩色图像,从而计算出重新生成最为接近的彩色图像的一个以上的漫射照明常数。照明常数计算单元227可通过最优化过程计算出一个以上的漫射照明常数。照明常数计算单元227可将低阶基函数模型应用到彩色图像,并通过变更漫射照明常数的同时生成临时彩色图像的最优化过程,计算出一个以上的漫射照明常数。在生成临时彩色图像的最优化过程中,可使用[数学式1]。
【数学式1】
I diffuse = Σ k ( c k × D k ( depth ) )
即,照明常数计算单元227可计算出一个以上的可使
Figure BDA00003330367500062
的结果变成最小的ck。此时,I表示所输入的彩色图像。例如可计算出Cl~C9,即9个漫射照明常数,但并不局限于此。参照[数学式1],Idiffuse为表示图像的矢量,矢量的各个元素表示构成图像的像素的颜色值。ck表示漫射照明常数,k表示照明常数的索引,Dk(depth)表示被渲染的低阶基函数的模型。
漫射照明信息可表现为一个以上的漫射照明常数的组合。据此,照明常数计算单元227可利用由一个以上的漫射照明常数构成的漫射照明信息来复原关于实际对象的漫射图像。被复原的漫射图像可包括包含一个以上的漫射照明常数的漫射照明信息和低阶基函数模型的组合。
图7为用于说明通过图3的误差图像分离单元230形成的一系列过程的例示图。
参照图3和图7,误差图像分离单元230可通过将由漫射复原单元220复原的漫射图像和原始图像的亮度相比较而计算出表示亮度值误差的误差图像。原始图像可以是由拍摄单元210输出的彩色图像。误差图像分离单元230可计算出复原的漫射图像和彩色图像的差值,并通过组合差值而计算出误差图像。差值可以是复原的漫射图像和彩色图像中处于相同的位置的像素的亮度值(intensity)差。
误差图像分离单元230可分析误差图像而将误差图像分离为镜面图像和阴影图像。误差图像分离单元230可通过将预先设定的标准值应用于误差图像中,而将误差图像分离为镜面图像和阴影图像。即,误差图像分离单元230可以将误差图像分离为由相比标准值更亮的像素构成的镜面图像和由相比标准值更暗的像素构成的阴影图像。误差图像分离单元230可在表示误差图像的各个像素值分布的柱状图中应用标准值而分离误差图像。
再次参照图3,指向性照明信息提取单元240可从由漫射复原单元220复原的漫射图像和彩色图像之间的误差图像提取出指向性照明信息。即,指向性照明信息提取单元240可基于由误差图像分离出的镜面图像和阴影图像求出指向性照明信息。
指向性照明信息提取单元240可包括从镜面图像提取第一指向性照明信息的第一提取单元241和从阴影图像提取第二指向性照明信息的第二提取单元243。
第一提取单元241可利用镜面图像中最亮处的法向量和拍摄实际对象的拍摄单元210的位置,逆推应用于对象的照明方向,并利用逆推的照明方向提取第一指向性照明信息。
图8为用于说明基于镜面图像提取第一指向性照明信息的方法的例示图。
参照图8,第一提取单元241在镜面图像的各个本地区域中搜索最亮的位置。本地区域意指镜面图像中区域性地形成为更亮的椭圆或其他形状的群集。作为一实施例,本地区域可以是相比周边表现出临界值以上的亮度的像素集合。例如,本地区域可以是图7的镜面图像中圆形的白色部分701、703、705。第一提取单元241可利用高斯平均拟合(Gaussian mean fitting)来搜索出本地区域。第一提取单元241可利用按本地区域最亮位置法向量和拍摄单元210的位置,逆推应用于对象的照明的位置。逆推的照明的位置可表示应用于实际对象的照明的方向。
第一提取单元241可从拍摄单元210的位置得出视线矢量,并可得出本地区域中最亮位置的法向量。据此,针对镜面图像,第一提取单元241可以利用以法向量为基准光的入射角(θr)和反射角(θr)相同的原理,逆推照明的方向。为了逆推照明的方向,第一提取单元241可使用Phong、Blinn-Phong、Torrance-Cook、(Torrance-Sparrow)等多种镜面反射模型中的其中一个。
另外,第二提取单元243对形成阴影图像的所有像素中的每一个生成产生阴影的阴影线(ray),并将对应于所生成的阴影线中的分布率最大的阴影线的方向提取为第二指向性照明信息。
图9和图10为用于说明基于阴影图像提取第二指向性照明信息的方法的例示图。
参照图9,双线表示构成阴影图像的像素,虚线构成的箭头表示虚拟显示能够在阴影像素中生成阴影的照明方向,将此称为阴影线。第二提取单元243可通过任意变更光线方向,来针对每个构成阴影图像的各个像素(例如,psh)任意地生成阴影的阴影线。第二提取单元243可利用Uniform、RandomSampling等技术任意地生成阴影线。如图10所示,第二提取单元243将所生成的所有阴影线的方向针对所有像素进行累积,从而计算出阴影线的分布率。作为一实施例,假设以图像的拍摄位置为中心的半球状的虚拟空间,并假设照明位于半球的表面时,阴影线可由从拍摄位置至照明所处位置的0~180°范围的水平方向角度θ和0~90°范围的垂直方向角度Φ表示。第二提取单元243可以将对应于分布率最高的角度的方向类推为包含于指向性照明信息中。图10中,对应于两个峰值(peak)的角度(θ,Φ),即照明的方向可包含于指向性照明信息之中。
作为一实施例,在求出分布率最高的阴影线的角度时,为了更加精确地找出分布率的峰值,第二提取单元243将分布率应用到任意的连续函数(例如,Gaussian Mixture,Polynomial等),从而即时在采样中没有被选择的阴影线也可以被提取为指向性照明信息。第二提取单元243可组合所提取的一个以上的镜面反射照明来生成指向性照明信息。
照明条件确定单元250可利用所提取的漫射照明信息、所提取的指向性照明信息以及所输入的彩色图像确定应用于对象的照明环境的亮度。作为一例,所提取的漫射照明信息可以是漫射照明常数,所提取的指向性照明信息可以是照明的方向值。照明条件确定单元250可利用[数学式2]确定照明的亮度。
【数学式2】
[ s ^ 1 , · · , s ^ S ] = arg min s 1 , · · , s S | | I - Σ k = 1 L f D ( c k , depth ) - Σ k = 1 s f s ( b k , s k , depth , v ) | | 2
[数学式2]中,sk为照明环境的亮度,S为照明的全部数量,I为从拍摄单元210输入的彩色图像,L为构成所述漫射照明信息的漫射照明常数的全部数量。而且,fD为表示漫反射的模型,fs为表示镜面反射的模型,Ck为漫射照明常数,bk为构成指向性照明信息的所述照明的方向,depth为深度图像的深度值,ν为观察点。
参照[数学式2],照明亮度确定单元250计算可使
Figure BDA00003330367500082
最小化的参数,从而可以计算出照明环境的亮度。
而且,照明条件确定单元250可将指向性照明信息利用为照明方向。指向性照明信息可包括多个照明方向信息。
图11为用于说明根据一实施例的照明处理方法的流程图。图11的照明处理方法可由在参照图1、图2、图3说明的照明处理装置100a、100b、200中控制或处理各种操作的控制单元(未图示)或者至少一个处理器(未图示)来执行。
在910步骤,照明信息处理装置可利用照相机获取实际对象的彩色图像和深度图像。
在920步骤,照明处理装置可利用所获取的彩色图像和深度图像提取应用于实际对象的漫射照明信息。在920步骤中可利用基于深度图像的低阶基函数模型提取照明信息。对此,将参照图10更加详细地进行说明。
930步骤中,照明处理装置可利用所提取的漫射照明信息复原关于对象的漫射图像。
940步骤中,照明处理装置可比较经复原的漫射图像和原始图像(即,所获得的彩色图像)的亮度来计算出误差图像。
950步骤中,照明处理装置可分析所计算出的误差图像而将误差图像分离为镜面图像和阴影图像。镜面图像为由误差图像中相比预设的标准值更亮的像素构成的图像,阴影图像为由误差图像中相比所述标准值更暗的像素构成的图像。
960步骤中,照明处理装置可从分离出的镜面图像中提取第一指向性照明信息。例如,照明处理装置可利用镜面图像的各个本地区域中最亮的位置的法向量和拍摄实际对象的照相机的位置来逆推应用于实际对象的照明的方向,并将逆推的照明的方向提取为第一指向性照明信息。
970步骤中,照明处理装置可从分离出的阴影图像中提取第二指向性照明信息。例如,照明处理装置对于形成阴影图像的所有像素中每一个像素生成产生阴影的阴影线,并将所生成的阴影线中的分布率最大的阴影线所对应的方向提取为第二指向性照明信息。
980步骤中,照明处理装置可将所提取的漫射照明信息、所提取的第一和第二指向性照明信息以及获取的彩色图像应用到[数学式2]中,从而可以确定应用于对象的照明环境的亮度。
图12为用于更加具体地说明图11的920步骤的流程图。
1010步骤中,照明处理装置可基于在910步骤获取的深度图像生成深度图像的法线图(Normal Map)。
1020步骤中,照明处理装置可从所生成的法线图生成深度图像的低阶基函数模型。
1030步骤中,照明处理装置可渲染从深度图像导出的低阶基函数模型,并将经渲染的低阶基函数模型应用到彩色图像中,从而计算出用于重新生成最为接近的彩色图像的一个以上的漫射照明常数。
图13为示出根据一实施例的包含照明处理装置的图像处理装置的构成的图。
参照图13,图像处理装置1100包括图像生成单元1110、照明信息提取单元1120以及图像合成单元1130。而且,图像处理装置1100可进一步包括显示器1140。
图像生成单元1110基于彩色图像和深度图像生成镜面图像和阴影图像中的至少一个。即,图像生成单元1110可执行图2的误差图像分离单元230的功能。
照明信息提取单元1120可从镜面图像和阴影图像中的至少一个提取指向性照明信息。而且,照明信息提取单元1120可基于彩色图像和深度图像提取漫射照明信息。
作为另一实施例,图像生成单元1110可提取漫射照明信息,并利用该漫射照明信息生成漫射图像。
图像合成单元1130可利用指向性照明信息和漫射照明信息中的至少一个来生成照明条件,并将应用所生成的照明条件的虚拟对象合成到彩色图像中。
据此,图像处理装置1100可从所输入的图像的特定的场景生成照明条件,并可以将应用所提取的照明条件的虚拟的对象插入到所述特定场景之中。而且,图像处理装置1100可通过显示器1140显示插入了虚拟对象的场景。
还可以存在仅利用漫射照明信息和指向性照明信息中的一个来生成照明条件,并将应用所生成的照明条件的虚拟对象插入到彩色图像中的实施例。而且,还可以存在仅利用镜面图像和阴影图像中的一个来提取指向性照明信息的实施例。为了适应于此,前述说明的照明装置或图像处理装置的构成要素的功能可以被修改。
根据本发明实施例的各种方法可实现为能够通过各种计算机手段执行的程序命令形态而记录到计算机可读记录介质之中。所述计算机可读记录介质可包括程序命令、数据文件、数据结构等或其组合。记录于所述介质的程序命令可以是为本发明专门设计的程序命令或可以是计算机软件领域人员所共知而可以使用的程序命令。
如此,虽然通过有限的实施例和附图对本发明进行了说明,但本发明并不局限于上述实施例,对于本领域所属的技术领域中具有普通知识的技术人员来说,可基于这种记载进行各种修改和变更。
因此,本发明的范围并不局限于所说明的实施例,不仅由权利要求书所确定,还由于权利要求书等同的内容所确定。

Claims (24)

1.一种照明处理装置,包括:
漫射提取单元,利用实际对象的彩色图像和深度图像提取应用于所述实际对象的漫射照明信息;
漫射复原单元,利用提取的所述漫射照明信息复原关于所述实际对象的漫射图像;
误差图像分离单元,利用经复原的所述漫射图像和所述彩色图像生成镜面图像和阴影图像中的至少一个。
2.根据权利要求1所述的照明处理装置,还包括:指向性照明信息提取单元,从所述镜面图像和所述阴影图像中的至少一个提取指向性照明信息。
3.根据权利要求2所述的照明处理装置,还包括:照明条件确定单元,利用所述提取的漫射照明信息、所述提取的指向性照明信息、所述彩色图像来确定应用于所述实际对象的照明环境的亮度。
4.根据权利要求1所述的照明处理装置,其中,所述漫射复原单元包括:
法线图生成单元,生成所述深度图像的法线图;
模型生成单元,从生成的所述法线图生成所述深度图像的低阶基函数模型;
照明常数计算单元,通过将所述低阶基函数应用到所述彩色图像来计算出重新生成最为接近的所述彩色图像的一个以上的漫射照明常数。
5.根据权利要求4所述的照明处理装置,其中,所述漫射照明信息为所述一个以上的漫射照明常数的组合。
6.根据权利要求1所述的照明处理装置,其中,所述误差图像分离单元还包括:误差图像分离单元,通过比较所述漫射图像和所述彩色图像的亮度来生成表示亮度值误差的误差图像,并将所述误差图像分离为镜面图像和阴影图像。
7.根据权利要求6所述的照明处理装置,其中,所述镜面图像包括所述误差图像中相比预设的标准值更亮的像素,所述阴影图像包括所述误差图像中相比所述标准值更暗的像素。
8.根据权利要求2所述的照明处理装置,其中,所述指向性照明信息提取单元利用按所述镜面图像的本地区域的最亮位置的法向量和拍摄所述实际对象的照相机的位置来将应用于所述实际对象的照明的方向提取为所述指向性照明信息。
9.根据权利要求2所述的照明处理装置,其中,所述指向性照明信息提取单元对于构成所述阴影图像的每个像素提取生成阴影的照明方向,并将所提取的所述照明方向的分布率中的表示峰值的方向提取为所述指向性照明信息。
10.根据权利要求3所述的照明处理装置,其中,所述照明条件确定单元利用下述公式确定所述照明的亮度,
[ s ^ 1 , · · , s ^ S ] = arg min s 1 , · · , s S | | I - Σ k = 1 L f D ( c k , depth ) - Σ k = 1 s f s ( b k , s k , depth , v ) | | 2
其中,sk为照明的亮度,S为照明的全部数量,I为所述彩色图像,L为构成所述漫反射照明环境的漫射照明常数的全部数量,fD为表示漫反射的模型,fs为表示镜面反射的模型,Ck为所述漫射照明常数,bk为构成所述镜面反射照明环境的所述照明的光方向,depth为所述深度图像的深度值,ν为观察点。
11.一种照明处理方法,包括如下步骤:
利用实际对象的彩色图像和深度图像提取应用于所述实际对象的漫射照明信息,并利用所述提取的漫射照明信息复原关于所述实际对象的漫射图像;
利用经复原的所述漫射图像和所述彩色图像生成镜面图像和阴影图像中的至少一个。
12.根据权利要求11所述的照明处理方法,还包括步骤:利用所述提取的漫射照明信息、所述提取的指向性照明信息、所述彩色图像来确定应用于所述实际对象的照明环境的亮度。
13.根据权利要求11所述的照明处理方法,其中,所述彩色图像和深度图像为实际应用于三维图像的对象的图像。
14.根据权利要求11所述的照明处理方法,其中,复原所述漫射图像的步骤包括如下步骤:
生成所述深度图像的法线图;
从生成的所述法线图生成所述深度图像的低阶基函数模型;
通过将所述低阶基函数模型应用到所述彩色图像,来计算出重新生成最为接近的所述彩色图像的一个以上的漫射照明常数。
15.根据权利要求14所述的照明处理方法,其中,所述漫射照明信息为所述一个以上的漫射照明常数的组合。
16.根据权利要求14所述的照明处理方法,其中,还包括步骤:通过比较所述漫射图像和所述彩色图像的亮度来生成表示亮度值误差的误差图像,并将所述误差图像分离为镜面图像和阴影图像。
17.根据权利要求16所述的照明处理方法,其中,所述镜面图像包括所述误差图像中相比预设的标准值更亮的像素,所述阴影图像包括所述误差图像中相比所述标准值更暗的像素。
18.根据权利要求16所述的照明处理方法,其中,还包括步骤:从所述镜面图像和所述阴影图像中的至少一个提取指向性照明信息。
19.根据权利要求18所述的照明处理方法,其中,还包括步骤:利用所述提取的漫射照明信息、所述提取的指向性照明信息、所述彩色图像确定应用于所述实际对象的照明环境的亮度。
20.根据权利要求18所述的照明处理方法,其中,提取所述指向性照明信息的步骤中,利用按所述镜面图像的本地区域的最亮位置的法向量和拍摄所述实际对象的照相机的位置来将应用于所述实际对象的照明的方向提取为所述指向性照明信息。
21.根据权利要求12的照明处理方法,其中,确定所述照明的亮度的步骤中,利用如下的公式确定所述照明的亮度,
[ s ^ 1 , · · , s ^ S ] = arg min s 1 , · · , s S | | I - Σ k = 1 L f D ( c k , depth ) - Σ k = 1 s f s ( b k , s k , depth , v ) | | 2
其中,sk为照明的亮度,S为照明的全部数量,I为所述彩色图像,L为构成所述漫反射照明环境的漫射照明常数的全部数量,fD为表示漫反射的模型,fs为表示镜面反射的模型,Ck为所述漫射照明常数,bk为构成所述镜面反射照明环境的所述照明的光方向,depth为所述深度图像的深度值,ν为观察点。
22.一种图像处理装置,包括:
图像生成单元,基于彩色图像和深度图像生成镜面图像和阴影图像中的至少一个;
照明信息提取单元,从所述生成的镜面图像和阴影图像中的至少一个提取指向性照明信息。
23.根据权利要求22所述的图像处理装置,还包括:图像合成单元,将应用基于提取的所述指向性照明信息的照明条件的虚拟对象合成到所述彩色图像。
24.一种图像处理装置,包括:
照明信息提取单元,基于彩色图像和深度图像提取应用于所述彩色图像的指向性照明信息;
图像合成单元,将应用基于提取的所述指向性照明信息的照明条件的虚拟对象合成到所述彩色图像。
CN201180059616.0A 2010-12-09 2011-12-09 图像处理装置、照明处理装置及其方法 Active CN103262126B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US42135410P 2010-12-09 2010-12-09
US61/421,354 2010-12-09
KR10-2011-0003885 2011-01-14
KR20110003885 2011-01-14
KR10-2011-0131598 2011-12-09
PCT/KR2011/009506 WO2012078006A2 (ko) 2010-12-09 2011-12-09 영상 처리 장치, 조명 처리 장치 및 그 방법
KR1020110131598A KR101885090B1 (ko) 2010-12-09 2011-12-09 영상 처리 장치, 조명 처리 장치 및 그 방법

Publications (2)

Publication Number Publication Date
CN103262126A true CN103262126A (zh) 2013-08-21
CN103262126B CN103262126B (zh) 2016-10-12

Family

ID=46684677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180059616.0A Active CN103262126B (zh) 2010-12-09 2011-12-09 图像处理装置、照明处理装置及其方法

Country Status (6)

Country Link
US (1) US9563959B2 (zh)
EP (1) EP2650843A4 (zh)
JP (1) JP5795384B2 (zh)
KR (1) KR101885090B1 (zh)
CN (1) CN103262126B (zh)
WO (1) WO2012078006A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933390A (zh) * 2014-03-19 2015-09-23 富士通株式会社 生成皮肤图像的方法、装置以及电子设备

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
JP6010004B2 (ja) * 2013-09-02 2016-10-19 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CA2931529C (en) * 2013-11-27 2022-08-23 Children's National Medical Center 3d corrected imaging
WO2015122143A1 (ja) 2014-02-13 2015-08-20 日本電気株式会社 通信システム、通信装置、通信方法及びプログラムが格納された非一時的なコンピュータ可読媒体
KR102273020B1 (ko) * 2014-06-18 2021-07-05 삼성전자주식회사 의료 영상 정합 방법 및 그 장치
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
KR101863648B1 (ko) * 2017-01-11 2018-06-04 대양의료기(주) 척추 측만 정도 측정 장치 및 방법
KR102559202B1 (ko) * 2018-03-27 2023-07-25 삼성전자주식회사 3d 렌더링 방법 및 장치
CN110533707B (zh) 2018-05-24 2023-04-14 微软技术许可有限责任公司 照明估计
CN111612882B (zh) 2020-06-10 2023-04-07 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030011596A1 (en) * 2001-06-03 2003-01-16 Zhengyou Zhang View-dependent image synthesis
WO2008062798A1 (fr) * 2006-11-22 2008-05-29 Digital Fashion Ltd. Programme de rendu, dispositif de rendu et procédé de rendu
CN101246600A (zh) * 2008-03-03 2008-08-20 北京航空航天大学 用球面全景摄像机实时生成增强现实环境光照模型的方法
CN101872491A (zh) * 2010-05-21 2010-10-27 清华大学 基于光度立体的自由视角重光照方法和系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4144960B2 (ja) * 1999-03-18 2008-09-03 三洋電機株式会社 撮像装置及び画像合成装置並びに方法
JP2001014485A (ja) * 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像表示装置
US6707453B1 (en) * 2000-11-21 2004-03-16 Hewlett-Packard Development Company, L.P. Efficient rasterization of specular lighting in a computer graphics system
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
KR20030076470A (ko) 2003-06-19 2003-09-26 예원플라즈마 주식회사 전자제품의 보드내 플라스틱 캔을 이용한 이엠아이 및이에스디 차폐 장치 및 그 제조방법
US7262771B2 (en) 2003-10-10 2007-08-28 Microsoft Corporation Systems and methods for all-frequency relighting using spherical harmonics and point light distributions
WO2005124691A1 (ja) * 2004-06-16 2005-12-29 Techno Dream 21 Co., Ltd. 物体表面の反射特性をサンプリングして行う実時間レンダリングの方法及びテクスチャサイズを変換する方法
KR100609145B1 (ko) 2004-12-20 2006-08-08 한국전자통신연구원 실시간 전역조명 효과를 위한 렌더링 장치 및 그 방법
WO2006129791A1 (ja) * 2005-06-03 2006-12-07 Nec Corporation 画像処理システム、3次元形状推定システム、物体位置姿勢推定システム及び画像生成システム
JP3910618B2 (ja) * 2005-07-19 2007-04-25 株式会社ルネサステクノロジ 画像生成装置
JP4077869B2 (ja) * 2006-05-29 2008-04-23 松下電器産業株式会社 光源推定装置、光源推定システムおよび光源推定方法、並びに、画像高解像度化装置および画像高解像度化方法
JP2008016918A (ja) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
WO2009157129A1 (ja) * 2008-06-26 2009-12-30 パナソニック株式会社 画像処理装置、画像分割プログラムおよび画像合成方法
WO2010004677A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 画像処理方法、画像処理装置、画像処理プログラム、画像合成方法、および画像合成装置
JP5136965B2 (ja) * 2008-09-03 2013-02-06 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR101100650B1 (ko) 2008-11-11 2012-01-03 한국전자통신연구원 맵데이터를 이용한 간접조명 표현과 다층 변위매핑 시스템 및 그 방법
KR101028697B1 (ko) 2008-12-30 2011-04-14 고려대학교 산학협력단 밝기 독립적인 텍스쳐 합성 장치 및 방법
CN101972491B (zh) 2010-09-25 2014-01-08 上海交通大学医学院附属瑞金医院 一种葡萄串状微囊体系及其制备方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030011596A1 (en) * 2001-06-03 2003-01-16 Zhengyou Zhang View-dependent image synthesis
WO2008062798A1 (fr) * 2006-11-22 2008-05-29 Digital Fashion Ltd. Programme de rendu, dispositif de rendu et procédé de rendu
CN101246600A (zh) * 2008-03-03 2008-08-20 北京航空航天大学 用球面全景摄像机实时生成增强现实环境光照模型的方法
CN101872491A (zh) * 2010-05-21 2010-10-27 清华大学 基于光度立体的自由视角重光照方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王骏: "基于环境映照的光照模型", 《中国优秀硕士论文全文数据库信息科技辑》, 15 September 2006 (2006-09-15), pages 22 - 44 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933390A (zh) * 2014-03-19 2015-09-23 富士通株式会社 生成皮肤图像的方法、装置以及电子设备
CN104933390B (zh) * 2014-03-19 2018-02-13 富士通株式会社 生成皮肤图像的方法、装置以及电子设备

Also Published As

Publication number Publication date
US20130251243A1 (en) 2013-09-26
EP2650843A4 (en) 2018-03-28
WO2012078006A2 (ko) 2012-06-14
JP5795384B2 (ja) 2015-10-14
JP2014502741A (ja) 2014-02-03
KR101885090B1 (ko) 2018-08-03
KR20120064641A (ko) 2012-06-19
CN103262126B (zh) 2016-10-12
EP2650843A2 (en) 2013-10-16
WO2012078006A3 (ko) 2012-10-04
US9563959B2 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
CN103262126A (zh) 图像处理装置、照明处理装置及其方法
Du et al. DepthLab: Real-time 3D interaction with depth maps for mobile augmented reality
US10360732B2 (en) Method and system of determining object positions for image processing using wireless network angle of transmission
CN106548455B (zh) 用于调整图像的亮度的设备和方法
Kán et al. Deeplight: light source estimation for augmented reality using deep learning
US10937216B2 (en) Intelligent camera
CN104952063A (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
CN107644453B (zh) 一种基于物理着色的渲染方法及系统
Arief et al. Realtime estimation of illumination direction for augmented reality on mobile devices
US11663775B2 (en) Generating physically-based material maps
US10171785B2 (en) Color balancing based on reference points
CN111292423A (zh) 基于增强现实的着色方法、装置、电子设备与存储介质
CN107749083A (zh) 图像展示的方法和装置
Knecht et al. Interactive BRDF estimation for mixed-reality applications
US20230171508A1 (en) Increasing dynamic range of a virtual production display
WO2023094870A1 (en) Increasing dynamic range of a virtual production display
US20240219260A1 (en) LED Wall Surface Reflectance
Ryu et al. Tangible video teleconference system using real-time image-based relighting
US11869118B2 (en) Generating a synthetic ground-truth image using a dead leaves model
Petrov et al. Methods and algorithms for stitching 360-degree video
Richter et al. A discriminative approach to perspective shape from shading in uncalibrated illumination
CN116597003A (zh) 一种3d空间定位方法及装置、电子设备
WO2023094872A1 (en) Increasing dynamic range of a virtual production display
WO2023094873A1 (en) Increasing dynamic range of a virtual production display
WO2023094879A1 (en) Increasing dynamic range of a virtual production display

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant