CN101872491B - 基于光度立体的自由视角重光照方法和系统 - Google Patents

基于光度立体的自由视角重光照方法和系统 Download PDF

Info

Publication number
CN101872491B
CN101872491B CN2010101883066A CN201010188306A CN101872491B CN 101872491 B CN101872491 B CN 101872491B CN 2010101883066 A CN2010101883066 A CN 2010101883066A CN 201010188306 A CN201010188306 A CN 201010188306A CN 101872491 B CN101872491 B CN 101872491B
Authority
CN
China
Prior art keywords
target object
model
illumination
reflection characteristic
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010101883066A
Other languages
English (en)
Other versions
CN101872491A (zh
Inventor
戴琼海
李冠楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN2010101883066A priority Critical patent/CN101872491B/zh
Publication of CN101872491A publication Critical patent/CN101872491A/zh
Priority to US13/113,178 priority patent/US8928734B2/en
Application granted granted Critical
Publication of CN101872491B publication Critical patent/CN101872491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

本发明提出一种基于光度立体的自由视角重光照方法,包括利用多视角摄像阵列采集目标物体的多视角动态视频图像;根据采集的所述多视角动态视频图像获取所述目标物体的三维模型及模型表面反射特性;获得所述目标物体的静态三维物体重光照模型及所述目标物体的三维运动轨迹;根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型;和基于用户给定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照。本发明提供了一种高效的、支持自由视角观察的动态场景重光照方法。

Description

基于光度立体的自由视角重光照方法和系统
技术领域
本发明涉及数字图像处理领域,特别涉及一种结合光度立体,利用多视角摄像阵列在可控光照条件下采集动态视频,恢复目标物体的法向及反射特性,并进行自由视角重光照的方法和系统。
背景技术
随着数字采集及处理技术的飞速发展,动态视频已成为日常生活和科学研究中广泛存在的一种媒体格式。而在对视频进行处理和播放的过程中,光照条件对视频质量和效果有着至关重要的影响,另外拍摄的角度不同,也会带来不同的效果。尤其对于感兴趣的动态物体,为实现从自由视角对该物体的观察,和生成该物体在任意光照条件下的不同效果,需要基于动态视频对该目标物体进行自由视角的重光照操作。
现有的物体重光照方法主要包括基于光度立体及基于图像的重光照操作两类。
基于光度立体的重光照方法,通过在多种可控光照条件下,对物体进行拍摄,并结合参数化光照模型,恢复物体表面的几何及反射属性信息,从而根据光照模型在新的光照条件下对物体进行重光照操作,并渲染至自由视角进行显示。但是由于此类方法需要在多种可控光照下对场景进行采集,且计算过程中采用无穷远摄像机模型对物体表面的几何信息进行恢复,因此目前已有的基于光度立体的重光照方法多是针对单视角静态场景进行处理,少数针对动态场景的处理方法也需要使用造价昂贵的高速摄像头;且由于需要使用参数化光照模型进行求解,如漫反射光照模型或球面谐波等,因此此类方法也往往受限于对郎伯表面进行处理。
基于图像的重光照方法,是将多种密集可控光照条件下采集的物体图像作为基向量,通过对基向量进行线性组合,实现目标物体的重光照操作。由于在这一过程中,无需利用解析光照模型进行参数求解,而是直接将采集图像作为基向量进行组合,因此重光照效果的真实性较高。但相应的代价是,此种方法需要对目标物体在密集光照条件下进行采集,采集成本及复杂度均较高,且由于三维几何信息的缺失,此类方法很难实现自由视角的渲染。
总之,目前需要本领域技术人员迫切解决的一个技术问题就是,如何提供一种高效的,支持自由视角观察且渲染效果具有高真实感的动态场景重光照方法。
发明内容
本发明的目的在于克服已有技术的不足之处,特别是解决现有技术中对动态场景重光照困难的缺陷。
本发明提出了一种用于动态场景的,基于光度立体的自由视角重光照方法,包括以下步骤:
在预设的可控变化光照条件下,利用多视角摄像阵列采集目标物体的多视角动态视频图像;
根据采集的所述多视角动态视频图像获取所述目标物体的三维模型及模型表面反射特性;
根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,并根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹;
根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型;和
基于用户给定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照,
其中,
在预设的可控变化光照条件下,利用多视角摄像阵列采集目标物体的多视角动态视频图像的步骤包括:
根据所述预设的可控变化光照条件设置可控光源序列,所述可控光源序列包括多个LED光源;
对所述多视角摄像阵列进行几何及颜色校准,以及对所述多视角摄像阵列和所述可控光源序列进行同步校准;
在采集场景中央放水晶球,在所述预设的可控变化光照条件下利用所述多视角摄像阵列对所述水晶球进行拍摄;和
对拍摄的多视角视频中各帧水晶球图像进行全景拼图,得到各时刻对应的场景光照环境图;
所述获取目标物体的三维模型及模型表面反射特性的步骤包括:
利用获得的每个单视角中所述目标物体的动态视频,获取所述目标物体在对应的单视角中的可见区域表面的法向和反射特性信息;和
对获取的目标物体在各个单视角中的可见区域表面的法向和反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性,
其中,
所述利用获得的每个单视角的动态视频,获取目标物体在对应的单视角中的可见区域表面的法向和反射特性的步骤包括:
对获得的每个单视角的动态视频中均匀光照下拍摄的两个图像帧进行对齐操作,并获得所述目标物体的二维运动轨迹;
对已获得的二维运动轨迹进行插值,并将变化光照下拍摄的各图像帧与均匀光照下拍摄的图像帧对齐;
利用鲁棒的主分量分析方法RPCA对变化光照和均匀光照下的各图像帧中像素的置信度进行筛选;以及
利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在所述单视角中的可见区域表面的法向及反射特性信息,
其中,所述利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在单视角中的可见区域表面的法向及反射特性信息的步骤包括:
根据漫反射光照模型Id=ρd(N*L),恢复所述目标物体在单视角中的可见区域表面的法向N及漫反射特性ρd,其中,L根据所述场景光照环境图计算获得;
根据镜面反射特性Is=I-Id,其中,I为采集的图像帧中的像素值,并基于多项式纹理模型恢复相应可见区域表面的镜面反射特性
Figure GSB00000568437500041
其中,分别对应1到k阶的镜面反射多项式系数;和
对所述漫反射特性ρd和所述镜面反射特性进行综合得到所述可见区域表面的反射特性
Figure GSB00000568437500051
所述对获取的目标物体在各个单视角中的可见区域表面的法向及反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性的步骤包括:
采用匹配误差能量函数对相邻视角中目标物体可见区域表面的法向及反射属性进行匹配,并利用对极约束去除错误匹配点;
基于相邻视角匹配结果,对所述目标物体在各单视角中的可见区域表面的法向及反射特性信息进行融合,计算目标物体的三维模型及模型表面各点对应的反射特性;和
基于平滑性约束对目标物体表面存在的漏洞或不可见区域的法向及反射特性进行填充,以获得目标物体完整且连续的三维模型及模型表面的法向和反射特性信息;
根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型的步骤包括:
根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型;
根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹的步骤包括:
根据所述目标物体的三维模型及表面各点的反射特性,并以所述二维运动轨迹为约束条件,结合所述摄像阵列的参数,利用最小二乘方法求解三维模型表面各点的三维空间中的三维运动轨迹;和
根据所述目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作。
根据本发明的一个实施例,所述多项式纹理模型为:
Figure GSB00000568437500061
其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量。
根据本发明的一个实施例,还包括,在可见区域内的每个子块内对所述目标物体的法向及表面反射特性添加局部平滑约束,所述可见区域被划分为多个子块。
本发明实施例还提出了一种用于动态场景的,基于光度立体的自由视角重光照系统,包括:
可控光源,用于产生预设的可控变化光照条件;
多视角摄像阵列,用于在预设的可控变化光照条件下采集目标物体的动态视频图像;和
重光照装置,用于根据所述多视角摄像阵列采集的所述动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,和根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹,之后根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型,以及基于预定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体约自由视角重光照,
其中,
所述重光照装置包括场景光照环境图获取模块,用于根据所述多视角摄像阵列在所述预设的可控变化光照条件下对采集场景中央的水晶球拍摄的多视角视频,对所述多视角视频中各帧水晶球图像进行全景拼图,得到各时刻对应的场景光照环境图;
所述重光照装置包括:
第一计算模块,用于根据所述多视角摄像阵列采集的所述动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,和根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹;
第二计算模块,用于根据所述第一计算模块获得的所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型;和
自由视角渲染模块,用于接收用户设定的自由视角,并对所述第二计算模块获得的所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照;
其中,
所述第一计算模块包括:
单视角处理子模块,用于利用获得的每个单视角的动态视频,获取所述目标物体在对应的单视角中的可见区域表面的法向和反射特性信息;和
融合子模块,用于对所述单视角处理子模块获取的目标物体在各个单视角中的可见区域表面的法向和反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性,
其中,
所述单视角处理子模块对获得的每个单视角的动态视频中均匀光照下拍摄的两个图像帧进行对齐操作,并获得所述目标物体的二维运动轨迹,接着对已获得的二维运动轨迹进行插值,并将变化光照下拍摄的各图像帧与均匀光照下拍摄的图像帧对齐,之后利用鲁棒的主分量分析方法RPCA对变化光照和均匀光照下的各图像帧中像素的置信度进行筛选,以及利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在单视角中的可见区域表面的法向及反射特性信息;
所述单视角处理子模块先根据漫反射光照模型Id=ρd(N*L),恢复所述目标物体在单视角中的可见区域表面的法向N及漫反射特性ρd,其中,L根据所述场景光照环境图计算获得,再根据镜面反射特性Is=I-Id,其中,I为采集的图像帧中的像素值,并基于多项式纹理模型恢复相应可见区域的镜面反射特性,其中,
Figure GSB00000568437500081
分别对应1到k阶的镜面反射多项式系数,之后对所述漫反射特性ρd和所述镜面反射特性
Figure GSB00000568437500082
进行综合得到所述可见区域表面的反射特性 ρ = ( ρ d , ρ 1 s , L , ρ K s ) ;
所述融合子模块采用匹配误差能量函数对相邻视角中目标物体可见区域表面的法向及反射属性进行匹配,并利用对极约束去除错误匹配点,以及基于相邻视角匹配结果,对所述目标物体在各单视角中的可见区域表面的法向及反射特性信息进行融合,计算目标物体的三维模型及模型表面各点对应的反射特性;和
所述融合子模块基于平滑性约束对目标物体表面存在的漏洞或不可见区域的法向及反射特性进行填充,以获得目标物体完整且连续的三维模型及模型表面的法向和反射特性信息;
所述第一计算模块根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型;
所述第二计算模块根据所述目标物体的三维模型及表面各点的反射特性,并以所述二维运动轨迹为约束条件,结合所述摄像阵列的参数,利用最小二乘方法求解三维模型表面各点的三维空间中的三维运动轨迹;
所述第二计算模块还根据所述目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作。
根据本发明的一个实施例,所述摄像阵列和所述可控光源之间同步。
根据本发明的一个实施例,所述多项式纹理模型为:
Figure GSB00000568437500091
其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量。
本发明实施例为针对动态场景的动态重光照方法和系统,且支持自由视角的重光照效果观察,原理简单,明确,易于实现。
在本发明的一个实施例中,基于多项式纹理模型恢复所述单视角中可见区域的法向及反射特性信息,可以保证场景重光照得到真实的渲染效果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例的用于动态场景的,基于光度立体的自由视角重光照方法的流程图;
图2a和2b分别为根据本发明实施例的在可控变化光照条件下采集的动态视频示意图和多视角摄像阵列的示意图;
图3为根据本发明实施例获得目标物体的三维模型及模型表面反射特性的流程图;
图4为根据本发明实施例的动态视频对齐前后的示意图;
图5为根据本发明实施例进行自由视角动态重光照的流程图;
图6为根据本发明实施例的用于动态场景的基于光度立体的自由视角重光照系统结构图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明的核心构思在于,利用多视角拍摄的可控光照下的动态场景视频,并结合置信度判断的结果对每个单视角获得的视频图像进行光度立体计算,以获得目标物体在每个单视角可见区域内表面的法向及反射特性信息。接着,对每个单视角可见区域内表面的法向及反射特性信息进行融合以获取目标物体的三维模型及模型表面反射特性,并依据获取的三维模型及模型表面反射特性计算该目标物体的静态三维物体重光照模型,以及结合三维模型、模型表面反射特性和动态视频图像获得目标物体的三维运动轨迹。从而,根据该目标物体的静态三维物体重光照模型和三维运动轨迹获得该目标物体的动态三维物体重光照模型,并可依据该动态三维物体重光照模型进行依赖视角的渲染,以实现目标物体自由视角的动态重光照。
如图1所示,为本发明实施例的用于动态场景的,基于光度立体的自由视角重光照方法的流程图,该方法包括以下步骤:
步骤S101,对目标物体,在可控变化光照条件下,利用多视角摄像阵列采集目标物体的动态视频。例如,在本发明的一个实施例中,可由30个LED光源形成15种可控变化光照条件(L1,L2,K,LM,M=15),具体地,在可控变化光照条件(L1,L2,K,LM,M=15)中,光源强度与多视角摄像阵列的光照时间相互配合,从而保证动态场景在采集结果中表现出正常曝光的效果。另外,光照变化速率也与动态场景的运动规模相配合,在对于运动速率较慢的动态场景进行采集时,可控光照条件的中两个均匀光照状态之间可以相隔较长的时间,而在对快速运动的动态场景进行采集时,应在完整变光照序列中插于较多的均匀光照状态,保证运动跟踪及后续运动轨迹计算的准确性。如图2a所示,为根据本发明实施例的在可控变化光照条件下采集的动态视频示意图,需要说明的是图2a仅是示意性的,本领域技术人员应该明白可在图2a中加入更多的均匀光照状态,这些均应包含在本发明的包含范围之内。
根据本发明的一个实施例,可由10个摄像头构成多视角摄像阵列,以在该可控变化光照条件下利用多视角摄像阵列采集目标物体的动态视频,如图2b所示,为根据本发明实施例的多视角摄像阵列的示意图。当然本领域技术人员应当知道,上述的LED光源、可控变化光照条件及摄像头的数量是可以增加或减少的,这些均应包含在本发明的保护范围之内。在本发明实施例中,对于动态场景,不需要对每一个动作状态都要进行在15种光照状态下的拍摄,而是对每个动作状态只对应当前时刻的一种光照条件进行拍摄即可,因此可以使采集效率有所提高。在本发明的另一个实施例中,如果采集设备采用高速摄像机进行拍摄的话,可以在相同的时间内,采集更多的图像帧。并且,在其他实施例中,本发明实施例使用的光照条件数目还可以进一步提高,从而对光照空间进行更为密集的采样。因此本发明实施例通过上述可控变化光照条件及摄像机的组合方案,以保证对动态场景在光照空间的高速采样。该步骤具体包括:
步骤1.1,对多视角摄像阵列进行几何及颜色校准,并将多视角摄像阵列与可控光源进行同步校准,从而保证采集得到的各图像帧均是在稳定的光照条件下采集得到的。
步骤1.2,在采集场景中央放一枚水晶球,在完整的15种可控变化光照条件下以预定的光照序列利用多视角摄像阵列对水晶球进行同步采集。
步骤1.3,对10组视角拍摄的视频中的各帧水晶球图像进行全景拼图,得到对应步骤1.2中15种可控变化光照条件的场景光照环境图。
步骤1.4,将目标物体置于采集场景中,并利用多视角摄像阵列采集得到多个视角的目标物体的动态视频。
步骤S102,利用采集得到的目标物体在每个单视角中的动态视频,获取目标物体在对应单视角中的可见区域表面的法向和反射特性信息,如图3所示,该步骤具体包括:
步骤2.1,对单视角视频中在均匀光照下拍摄的两帧进行对齐操作,获得目标物体的运动轨迹,例如在本发明的实施例中,可对在均匀光照L1,L16下拍摄的两帧进行对齐操作。
步骤2..2,对已获得的目标物体的运动轨迹进行插值,并将变化点光源下拍摄的目标物体的各帧图像与均匀光照下拍摄的目标物体的图像对齐,如图4所示,为根据本发明实施例的动态视频对齐前后的示意图。
步骤2.3,利用鲁棒的主分量分析方法(RPCA)对各像素的置信度进行筛选。因为对于常见的多种材质,光照特性主要还是以低频分量为主,而视频图像采集过程中存在的噪声、遮挡阴影、高光区域的过饱和状态等则是以不符合这一低频特性的差残分量存在的,因此本发明实施例可以考虑利用RPCA对这类区域首先进行剔除,选出正常表示物体光照特性的像素区域进行后续计算,这部分正常表示物体光照特性的像素区域即为高置信度区域。因此,在本发明的一个实施例中,所述根据置信度进行筛选包括对各像素在不同时刻采集数据中的过饱和和/或不可见性进行筛选。本发明实施例通过对过饱和和/或具有不可见性的像素进行筛选,从而能够使光度立体的恢复结果准确性得到保证。
步骤2.4,对筛选后得到的满足置信度条件采集得到的图像帧中的各个像素进行独立处理,并基于多项式纹理模型恢复目标物体在对应的单视角中的可见区域表面的法向及反射特性信息。
对于图像帧中各像素进行独立处理包括:选择步骤2.3中筛选得到的高置信度光照角度作为数据集,首先考虑漫反射光照模型Id=ρd(N*L),恢复该单视角中可见区域表面的法向N及漫反射特性ρd,其中,L由利用步骤1.3得到的场景光照环境图(MapL)计算得到,具体地, L = Σ p L p , L p = Map L ( p ) · dir ( p ) , 其中,Map为光照环境图,p为光照环境图内的某一像素点,dir(p)为p点所对应的空间光源方向。之后,再考虑镜面反射特性Is=I-Id,其中,I为采集图像中的像素值,并基于多项式纹理模型恢复相应可见区域表面的镜面反射特性其中,
Figure GSB00000568437500142
分别对应1到k阶的镜面反射多项式系数。在本发明的一个实施例中,多项式纹理模型可为
Figure GSB00000568437500143
其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,例如K=5,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量,当然本领域技术人员也可选择其他的多项式纹理模型以达到类似的技术效果。之后对两者进行综合得到该可见区域表面的反射特性
Figure GSB00000568437500144
此外,可以以可见区域内每个子块内对可见区域表面的法向及反射特性添加局部平滑约束,从而可以解决矩阵求解中可能存在的欠定问题。因此,本发明实施例通过上述的多项式纹理模型进行光度立体计算,可以保证场景重光照能够得到真实的渲染效果。
步骤S103,对各单视角获取的目标物体在单视角中的可见区域表面的法向及反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性。本发明使用光流方法结合光度立体恢复结果,可以融合生成完整的三维模型及反射特性。该步骤具体包括:
步骤3.1,采用匹配误差能量函数对相邻视角p和q的法向Np,Nq及反射特性ρp,ρq进行匹配,并利用对极约束去除错误匹配点:
q = min q ( α 1 | | N p - N q | | + α 2 | ρ p - ρ q | + α 3 | SIFT ( ρ p ) - SIFT ( ρ q ) | ) s . t . q = F · p , 其中,α1,2,3为权重因子,函数SIFT(.)为SIFT(Scale-invariant feature transform)特征描述符的计算结果,F为相邻视角间的基本矩阵,s.t.(subject to)为对极约束条件。
步骤3.2,基于相邻视角匹配结果,对各单视角的光度立体恢复结果进行融合,计算目标物体的完整三维模型及模型表面各点对应的反射特性。具体地融合包括,基于步骤3.1中已经找到了匹配点,因此在该步骤中,对同一个像素点在若干单视角中的计算结果进行合并,例如可以选择各单视角计算结果的中值或平均值作为最终结果,或是选择对多项式纹理模型拟合误差最小的单视角的计算结果做为融合后的结果。
步骤3.3,对于三维模型中可能存在的漏洞或不可见区域,基于平滑性约束对该漏洞或不可见区域的法向及反射特性进行填充,获得目标物体完整且连续的三维模型及模型表面的反射特性信息。
步骤S104,基于得到的三维模型以及模型表面的反射特性信息对目标物体进行静态重光照操作,在用户设定的理想光照条件下,对目标物体进行渲染,得到目标物体的静态三维物体重光照模型,如图5所示,该步骤具体包括:
步骤4.1,根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对步骤2.1.2中对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型:
基于漫反射光照模型Id′=ρd(N*L′),其中,
Figure GSB00000568437500151
其中,p为光照环境图中的一个像素;并
基于多项式纹理模型: I s ′ = Σ p | | L p ′ | | Σ k = 1 K ρ k s ( N * H p ′ ) k , H p ′ = 1 / 2 ( V + L p ′ ) ,
得到静态三维物体重光照模型:I′=Id′+Is′。
步骤S105,估计目标物体对应动态视频的三维运动轨迹,以得到各时刻的动态三维物体重光照模型。该步骤具体包括:
步骤5.1,将步骤2.1中估计得到的多视角视频中的各像素的二维运动轨迹作为约束条件,利用已有的目标物体表面法向信息及反射特性信息,并结合多视角摄像阵列的参数,例如摄像阵列中各视角摄像机对应的内参矩阵(常用K表示),及外参矩阵(常用[Rt]表示),和最小化三维运动轨迹驱动的变形模型在各单视角的投影与实拍数据间的差异,求解三维模型表面各点在三维空间中的三维运动轨迹。
具体地,按照以下公式计算的运动轨迹运动的模型(即三维运动轨迹驱动的变形模型)表面各点的三维运动在各视角中的二维投影,与实际采集图像中的各视角中的对应投影像素之间的二维运动轨迹(由光流计算得到)的差异。
min x t 2 , y t 2 , z t 2 Σ v ∈ V S | | P v · x t 2 - x t 1 y t 2 - y t 1 z t 2 - z t 1 - m v ( P v · x t 1 y t 1 z t 1 ) | |
+ w | | Δ ( x t 2 - x t 1 ) | | + w | | Δ ( y t 2 - y t 1 ) | | + w | | Δ ( z t 2 - z t 1 ) | |
+ | ρ ( x t 2 , y t 2 , z t 2 ) - ρ ( x t 1 , y t 1 , z t 1 ) |
其中,v为属于点
Figure GSB00000568437500164
Figure GSB00000568437500165
均可见的视角范围Vs中的某一视角,Pv为该视角对应的投影矩阵,mv表示该视角对应的二维运动轨迹,Δ(·)为拉普拉斯算子,w为权重因子,受该点在运动轨迹计算的起始、终止时刻的局部法向一致性影响,在本发明的一个实施例中,例如 w = | | Δ ( N ( x t 2 , y t 2 , z t 2 ) - N ( x t 1 , y t 1 , z t 1 ) ) | | , 即如果某像素点在运动过程中,局部法向的一致性发生了变化,那可能在这一局部区域内部发生了非刚体的运动,因此这样的区域则不应该再要求区域内各点的运动轨迹具有较好的平滑性,因此这类区域的w取值应较小。
上式中的第一项对三维运动轨迹与各单视角二维运动轨迹之间的一致性进行约束,第二至四项约束模型表面各点三维运动轨迹的空间平滑性,第五项对两时刻对应点的反射特性一致性进行约束。
步骤5.2,根据所述目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作,保证得到目标物体三维模型的完整且连续的三维运动轨迹。
步骤5.3,根据步骤4.1中的对齐时刻静态三维物体重光照模型,及三维运动轨迹,得到动态视频中各时刻对应的动态三维物体重光照模型。具体地,在本发明的一个实施例中,对于起始时刻模型表面之上的各点,按照目标物体的三维运动轨迹,保拓扑地运动到动态视频中每一时刻的对应位置,而重光照后的各点的色彩信息保持不变,从而得到了对应各时刻的目标物体重光照模型,将各时刻的信息合在一起即可以看作是动态三维物体重光照模型。
步骤S106,基于用户给定的任意自由视角,对目标物体重光照后的动态三维物体重光照模型进行依赖视角的渲染,以实现该目标物体的自由视角动态重光照。
本发明实施例另一方面还提出了一种用于动态场景的,基于光度立体的自由视角重光照系统。如图6所示,为根据本发明实施例的用于动态场景的基于光度立体的自由视角重光照系统结构图。该系统包括可控光源100,与可控光源100同步的多视角摄像阵列200,以及与多视角摄像阵列200相连接的重光照装置300。其中,可控光源100用于产生预设的可控变化光照条件。多视角摄像阵列200用于采集目标物体的动态视频图像。重光照装置300用于根据多视角摄像阵列200采集的所述动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,和根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹,之后根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型,以及基于用户给定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖视角的渲染,以实现所述目标物体的自由视角重光照。
在本发明的一个实施例中,重光照装置300包括场景光照环境图获取模块310,场景光照环境图获取模块310用于根据多视角摄像阵列200在所述预设的可控变化光照条件下对采集场景中央的水晶球拍摄的多视角视频,对多视角视频中各帧水晶球图像进行全景拼图,得到各时刻对应的场景光照环境图。
在本发明的一个实施例中,该重光照装置300包括第一计算模块320、第二计算模块330和自由视角渲染模块340。其中,第一计算模块320用于根据多视角摄像阵列200采集的动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,以及根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹。第二计算模块330用于根据第一计算模块320获得的所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型。自由视角渲染模块340用于接收用户设定的自由视角,并对第二计算模块330获得的所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照。
在本发明的一个实施例中,更具体地,第一计算模块320包括单视角处理子模块321和融合子模块322。其中,单视角处理子模块321用于利用获得的每个单视角的动态视频,获取所述目标物体在对应的单视角中的可见区域表面的法向和反射特性信息。融合子模块322用于对单视角处理子模块321获取的目标物体在各个单视角中的可见区域表面的法向和反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性。具体地,单视角处理子模块321对获得的每个单视角的动态视频中均匀光照下拍摄的两个图像帧进行对齐操作,并获得所述目标物体的二维运动轨迹,接着对已获得的二维运动轨迹进行插值,并将变化光照下拍摄的各图像帧与均匀光照下拍摄的图像帧对齐,之后利用鲁棒的主分量分析方法(RPCA)对变化光照和均匀光照下的各图像帧中像素的置信度进行筛选,以及利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在单视角中的可见区域表面的法向及反射特性信息。更为具体地,单视角处理子模块321先根据漫反射光照模型Id=ρd(N*L),恢复所述目标物体在单视角中可见区域表面的法向N及漫反射特性ρd,其中,L根据所述场景光照环境图计算获得,再根据镜面反射特性Is=I-Id,其中,I为采集的图像帧中的像素值,并基于多项式纹理模型恢复相应可见区域的镜面反射特性其中,
Figure GSB00000568437500192
分别对应1到k阶的镜面反射多项式系数,之后对所述漫反射特性ρd和所述镜面反射特性
Figure GSB00000568437500193
进行综合得到所述可见区域表面的反射特性
Figure GSB00000568437500201
其中,在本发明的一个实施例中,多项式纹理模型可为:其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量。
在本发明的一个实施例中,第一计算模块320根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型。
在本发明的一个实施例中,融合子模块322采用匹配误差能量函数对相邻视角中目标物体可见区域表面的法向及反射属性进行匹配,并利用对极约束去除错误匹配点,以及基于相邻视角匹配结果,对所述目标物体在各单视角中的可见区域表面的法向及反射特性信息进行融合,计算目标物体的三维模型及模型表面各点对应的反射特性。
在本发明的另一个实施例中,融合子模块322基于平滑性约束对目标物体表面存在的漏洞或不可见区域的法向及反射特性进行填充,以获得目标物体完整且连续的三维模型及模型表面的法向和反射特性信息。
在本发明的一个实施例中,第二计算模块330根据目标物体的三维模型及表面各点的反射特性,并以二维运动轨迹为约束条件,结合多视角摄像阵列200的参数,利用最小二乘方法求解三维模型表面各点的三维空间中的三维运动轨迹。
在本发明的另一个实施例中,第二计算模块330还根据目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作。
根据本发明所公开的上述系统,能够很容易地实现对目标物体的自由视角重光照。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同限定。

Claims (6)

1.一种用于动态场景的,基于光度立体的自由视角重光照方法,其特征在于,包括以下步骤:
在预设的可控变化光照条件下,利用多视角摄像阵列采集目标物体的多视角动态视频图像;
根据采集的所述多视角动态视频图像获取所述目标物体的三维模型及模型表面反射特性;
根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,并根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹;
根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型;和
基于用户给定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照,
其中,
在预设的可控变化光照条件下,利用多视角摄像阵列采集目标物体的多视角动态视频图像的步骤包括:
根据所述预设的可控变化光照条件设置可控光源序列,所述可控光源序列包括多个LED光源;
对所述多视角摄像阵列进行几何及颜色校准,以及对所述多视角摄像阵列和所述可控光源序列进行同步校准;
在采集场景中央放水晶球,在所述预设的可控变化光照条件下利用所述多视角摄像阵列对所述水晶球进行拍摄;和
对拍摄的多视角视频中各帧水晶球图像进行全景拼图,得到各时刻对应的场景光照环境图;
所述获取目标物体的三维模型及模型表面反射特性的步骤包括:
利用获得的每个单视角中所述目标物体的动态视频,获取所述目标物体在对应的单视角中的可见区域表面的法向和反射特性信息;和
对获取的目标物体在各个单视角中的可见区域表面的法向和反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性,
其中,
所述利用获得的每个单视角的动态视频,获取目标物体在对应的单视角中的可见区域表面的法向和反射特性的步骤包括:
对获得的每个单视角的动态视频中均匀光照下拍摄的两个图像帧进行对齐操作,并获得所述目标物体的二维运动轨迹;
对已获得的二维运动轨迹进行插值,并将变化光照下拍摄的各图像帧与均匀光照下拍摄的图像帧对齐;
利用鲁棒的主分量分析方法RPCA对变化光照和均匀光照下的各图像帧中像素的置信度进行筛选;以及
利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在所述单视角中的可见区域表面的法向及反射特性信息,
其中,所述利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在单视角中的可见区域表面的法向及反射特性信息的步骤包括:
根据漫反射光照模型Id=ρd(N*L),恢复所述目标物体在单视角中的可见区域表面的法向N及漫反射特性ρd,其中,L根据所述场景光照环境图计算获得;
根据镜面反射特性Is=I-Id,其中,I为采集的图像帧中的像素值,并基于多项式纹理模型恢复相应可见区域表面的镜面反射特性
Figure FSB00000568437400031
其中,
Figure FSB00000568437400032
分别对应1到k阶的镜面反射多项式系数;和
对所述漫反射特性ρd和所述镜面反射特性
Figure FSB00000568437400033
进行综合得到所述可见区域表面的反射特性
Figure FSB00000568437400034
所述对获取的目标物体在各个单视角中的可见区域表面的法向及反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性的步骤包括:
采用匹配误差能量函数对相邻视角中目标物体可见区域表面的法向及反射属性进行匹配,并利用对极约束去除错误匹配点;
基于相邻视角匹配结果,对所述目标物体在各单视角中的可见区域表面的法向及反射特性信息进行融合,计算目标物体的三维模型及模型表面各点对应的反射特性;和
基于平滑性约束对目标物体表面存在的漏洞或不可见区域的法向及反射特性进行填充,以获得目标物体完整且连续的三维模型及模型表面的法向和反射特性信息;
根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型的步骤包括:
根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型;
根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹的步骤包括:
根据所述目标物体的三维模型及表面各点的反射特性,并以所述二维运动轨迹为约束条件,结合所述摄像阵列的参数,利用最小二乘方法求解三维模型表面各点的三维空间中的三维运动轨迹;和
根据所述目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作。
2.如权利要求1所述的方法,其特征在于,所述多项式纹理模型为:
I s = Σ p | | L p | | Σ k = 1 K ρ k s ( N * H p ) k , 其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量。
3.如权利要求2所述的方法,其特征在于,还包括,在可见区域内的每个子块内对所述目标物体的法向及表面反射特性添加局部平滑约束,所述可见区域被划分为多个子块。
4.一种用于动态场景的,基于光度立体的自由视角重光照系统,其特征在于,包括:
可控光源,用于产生预设的可控变化光照条件;
多视角摄像阵列,用于在预设的可控变化光照条件下采集目标物体的动态视频图像;和
重光照装置,用于根据所述多视角摄像阵列采集的所述动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,和根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹,之后根据所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型,以及基于预定的任意自由视角,对所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照,
其中,
所述重光照装置包括场景光照环境图获取模块,用于根据所述多视角摄像阵列在所述预设的可控变化光照条件下对采集场景中央的水晶球拍摄的多视角视频,对所述多视角视频中各帧水晶球图像进行全景拼图,得到各时刻对应的场景光照环境图;
所述重光照装置包括:
第一计算模块,用于根据所述多视角摄像阵列采集的所述动态视频图像获取所述目标物体的三维模型及模型表面反射特性,并根据所述目标物体的三维模型和模型表面反射特性获得所述目标物体的静态三维物体重光照模型,和根据所述三维模型、模型表面反射特性及所述多视角动态视频图像获得所述目标物体的三维运动轨迹;
第二计算模块,用于根据所述第一计算模块获得的所述目标物体的三维运动轨迹和所述静态三维物体重光照模型获得所述目标物体在各时刻的动态三维物体重光照模型;和
自由视角渲染模块,用于接收用户设定的自由视角,并对所述第二计算模块获得的所述目标物体的动态三维物体重光照模型进行依赖所述自由视角的渲染,以实现所述目标物体的自由视角重光照;
其中,
所述第一计算模块包括:
单视角处理子模块,用于利用获得的每个单视角的动态视频,获取所述目标物体在对应的单视角中的可见区域表面的法向和反射特性信息;和
融合子模块,用于对所述单视角处理子模块获取的目标物体在各个单视角中的可见区域表面的法向和反射特性信息进行融合,以获取所述目标物体的三维模型及模型表面反射特性,
其中,
所述单视角处理子模块对获得的每个单视角的动态视频中均匀光照下拍摄的两个图像帧进行对齐操作,并获得所述目标物体的二维运动轨迹,接着对已获得的二维运动轨迹进行插值,并将变化光照下拍摄的各图像帧与均匀光照下拍摄的图像帧对齐,之后利用鲁棒的主分量分析方法RPCA对变化光照和均匀光照下的各图像帧中像素的置信度进行筛选,以及利用得到的高置信度光照条件下采集得到的图像帧,基于多项式纹理模型恢复所述目标物体在单视角中的可见区域表面的法向及反射特性信息;
所述单视角处理子模块先根据漫反射光照模型Id=ρd(N*L),恢复所述目标物体在单视角中的可见区域表面的法向N及漫反射特性ρd,其中,L根据所述场景光照环境图计算获得,再根据镜面反射特性Is=I-Id,其中,I为采集的图像帧中的像素值,并基于多项式纹理模型恢复相应可见区域的镜面反射特性,其中,
Figure FSB00000568437400071
分别对应1到k阶的镜面反射多项式系数,之后对所述漫反射特性ρd和所述镜面反射特性进行综合得到所述可见区域表面的反射特性 ρ = ( ρ d , ρ 1 s , L , ρ K s ) ;
所述融合子模块采用匹配误差能量函数对相邻视角中目标物体可见区域表面的法向及反射属性进行匹配,并利用对极约束去除错误匹配点,以及基于相邻视角匹配结果,对所述目标物体在各单视角中的可见区域表面的法向及反射特性信息进行融合,计算目标物体的三维模型及模型表面各点对应的反射特性;和
所述融合子模块基于平滑性约束对目标物体表面存在的漏洞或不可见区域的法向及反射特性进行填充,以获得目标物体完整且连续的三维模型及模型表面的法向和反射特性信息;
所述第一计算模块根据用户给定的光照环境,以及根据恢复得到的目标物体的法向及反射特性信息,利用多项式纹理模型,对对齐时刻的目标物体的三维模型进行静态重光照操作,得到静态三维物体重光照模型;
所述第二计算模块根据所述目标物体的三维模型及表面各点的反射特性,并以所述二维运动轨迹为约束条件,结合所述摄像阵列的参数,利用最小二乘方法求解三维模型表面各点的三维空间中的三维运动轨迹;
所述第二计算模块还根据所述目标物体表面上的各点三维运动轨迹的场景平滑性约束,对获得的三维模型表面进行补绘及滤波操作。
5.如权利要求4所述的系统,其特征在于,所述摄像阵列和所述可控光源之间同步。
6.如权利要求4所述的系统,其特征在于,所述多项式纹理模型为:
I s = Σ p | | L p | | Σ k = 1 K ρ k s ( N * H p ) k , 其中,Hp=1/2(V+Lp),K为多项式纹理模型的阶数,Lp为入射光方向,V为观察视角方向,Hp为利用Lp和V计算得到的半角向量。
CN2010101883066A 2010-05-21 2010-05-21 基于光度立体的自由视角重光照方法和系统 Active CN101872491B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2010101883066A CN101872491B (zh) 2010-05-21 2010-05-21 基于光度立体的自由视角重光照方法和系统
US13/113,178 US8928734B2 (en) 2010-05-21 2011-05-23 Method and system for free-view relighting of dynamic scene based on photometric stereo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010101883066A CN101872491B (zh) 2010-05-21 2010-05-21 基于光度立体的自由视角重光照方法和系统

Publications (2)

Publication Number Publication Date
CN101872491A CN101872491A (zh) 2010-10-27
CN101872491B true CN101872491B (zh) 2011-12-28

Family

ID=42997333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010101883066A Active CN101872491B (zh) 2010-05-21 2010-05-21 基于光度立体的自由视角重光照方法和系统

Country Status (2)

Country Link
US (1) US8928734B2 (zh)
CN (1) CN101872491B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
WO2012078006A2 (ko) * 2010-12-09 2012-06-14 삼성전자 주식회사 영상 처리 장치, 조명 처리 장치 및 그 방법
US8879828B2 (en) 2011-06-29 2014-11-04 Matterport, Inc. Capturing and aligning multiple 3-dimensional scenes
CN102364524A (zh) * 2011-10-26 2012-02-29 清华大学 一种基于变光照多视角间差采样的三维重建方法和装置
US9607422B1 (en) * 2011-12-22 2017-03-28 Msc.Software Corporation Interactive vertex manipulation system and methods for geometry repair
US9154763B2 (en) 2012-10-11 2015-10-06 Sony Corporation System and method for reducing artifacts caused by view-dependent lighting components
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
GB2514583B (en) * 2013-05-29 2015-03-04 Imagination Tech Ltd Relightable texture for use in rendering an image
CN105637561A (zh) * 2013-09-16 2016-06-01 泰克年研究发展基金会公司 根据具有阴影的光度立体技术的3d重构
GB2519363A (en) * 2013-10-21 2015-04-22 Nokia Technologies Oy Method, apparatus and computer program product for modifying illumination in an image
CN106256122B (zh) * 2014-04-30 2019-09-24 索尼公司 图像处理设备和图像处理方法
GB2526838B (en) * 2014-06-04 2016-06-01 Imagination Tech Ltd Relightable texture for use in rendering an image
US9779512B2 (en) * 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials
CN105120250A (zh) * 2015-08-14 2015-12-02 浙江大学 一种基于多视角图像视频序列的三维动态场景采集与处理系统
EP3151190A1 (en) * 2015-09-30 2017-04-05 Thomson Licensing Method, apparatus and system for determining normal and reflectance parameters using sequential illumination
US10262452B2 (en) * 2015-09-30 2019-04-16 Apple Inc. 3D lighting
GB2545394A (en) * 2015-11-27 2017-06-21 Fuel 3D Tech Ltd Systems and methods for forming three-dimensional models of objects
EP3420716A1 (en) 2016-02-22 2019-01-02 Ketchup On, Inc. Self-propelled device
US10475392B2 (en) * 2016-03-07 2019-11-12 Ecole Polytechnique Federale De Lausanne (Epfl) Media item relighting technique
CN107920197A (zh) * 2016-10-11 2018-04-17 阿里巴巴集团控股有限公司 一种视频拍摄方法和设备
CN106524909B (zh) * 2016-10-20 2020-10-16 北京旷视科技有限公司 三维图像采集方法及装置
GB2564386B (en) * 2017-06-30 2021-08-04 Sony Interactive Entertainment Inc Content modification device and method
CN107506714B (zh) * 2017-08-16 2021-04-02 成都品果科技有限公司 一种人脸图像重光照的方法
CN107909640B (zh) * 2017-11-06 2020-07-28 清华大学 基于深度学习的人脸重光照方法及装置
EP3762794A1 (en) * 2018-03-05 2021-01-13 Omron Corporation Method, device, system and program for setting lighting condition and storage medium
CN108805831B (zh) * 2018-05-26 2021-10-29 杭州电子科技大学 深海环境下的图像增强方法
CN110996000A (zh) * 2019-12-16 2020-04-10 深圳市本牛科技有限责任公司 一种多角度同时拍摄的方法及装置
US20230107571A1 (en) * 2021-10-01 2023-04-06 Liberty Reach Inc. Machine Vision-Based Method and System for Locating Objects within a Scene Containing the Objects
CN113793402B (zh) * 2021-08-10 2023-12-26 北京达佳互联信息技术有限公司 图像渲染方法、装置、电子设备及存储介质
CN114354607B (zh) * 2021-10-09 2023-10-31 七海测量技术(深圳)有限公司 一种基于螺旋相衬滤波算法的光度立体瑕疵检测方法
CN116342848B (zh) * 2023-03-28 2024-02-02 云阳县优多科技有限公司 一种玩具的智能制造方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1889128A (zh) * 2006-07-17 2007-01-03 北京航空航天大学 基于gpu的预计算辐射度传递全频阴影的方法
US7295716B1 (en) * 2006-06-30 2007-11-13 Fujifilm Corporation Method and apparatus for diffusion based image relighting
CN101354784A (zh) * 2008-08-21 2009-01-28 上海交通大学 基于图像的真实光源获取及重光照的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047426A2 (en) * 2002-11-15 2004-06-03 Esc Entertainment, A California Corporation Reality-based light environment for digital imaging in motion pictures
US7324688B2 (en) * 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
US7427986B2 (en) * 2005-03-03 2008-09-23 Pixar Hybrid hardware-accelerated relighting system for computer cinematography
GB0616685D0 (en) * 2006-08-23 2006-10-04 Warwick Warp Ltd Retrospective shading approximation from 2D and 3D imagery
WO2008036092A1 (en) * 2006-09-21 2008-03-27 Thomson Licensing A method and system for three-dimensional model acquisition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295716B1 (en) * 2006-06-30 2007-11-13 Fujifilm Corporation Method and apparatus for diffusion based image relighting
CN1889128A (zh) * 2006-07-17 2007-01-03 北京航空航天大学 基于gpu的预计算辐射度传递全频阴影的方法
CN101354784A (zh) * 2008-08-21 2009-01-28 上海交通大学 基于图像的真实光源获取及重光照的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jianjun Yu,Xubo Yang,Shuangjiu Xiao.Interactive Image Based Relighting with Physical Light Acquisition.《Entertainment Computing - ICEC 2007》.2007,1-5.
Jianjun Yu,Xubo Yang,Shuangjiu Xiao.Interactive Image Based Relighting with Physical Light Acquisition.《Entertainment Computing- ICEC 2007》.2007,1-5. *

Also Published As

Publication number Publication date
US8928734B2 (en) 2015-01-06
US20110285822A1 (en) 2011-11-24
CN101872491A (zh) 2010-10-27

Similar Documents

Publication Publication Date Title
CN101872491B (zh) 基于光度立体的自由视角重光照方法和系统
US11257272B2 (en) Generating synthetic image data for machine learning
CN101356546B (zh) 图像高分辨率化装置、方法及系统
US10560687B2 (en) LED-based integral imaging display system as well as its control method and device
US10015469B2 (en) Image blur based on 3D depth information
US8928654B2 (en) Methods, systems, devices and associated processing logic for generating stereoscopic images and video
EP3401879B1 (fr) Procédé de modélisation d'un objet tridimensionnel à partir d'images bidimensionnelles de cet objet prises sous différents angles
US6757446B1 (en) System and process for image-based relativistic rendering
CN108475327A (zh) 三维采集与渲染
CN101916455B (zh) 一种高动态范围纹理三维模型的重构方法及装置
CN104094318A (zh) 适用于拍摄视频电影的系统
CN101917637B (zh) 基于自由视角光照传输矩阵的重光照方法及系统
Gava et al. Dense scene reconstruction from spherical light fields
CN112019747B (zh) 基于云台传感器的前景跟踪方法
Yu et al. Dynamic depth of field on live video streams: A stereo solution
CN102087815B (zh) 平板立体数码相框
KR102204074B1 (ko) 3차원공간영상 디스플레이 시스템
CN110418125B (zh) 一种集成成像系统的元素图像阵列快速生成方法
Schillebeeckx et al. Using chromo-coded light fields for augmented reality
Xue Exploiting visual motion to understand our visual world
Wang et al. Review of multi view auto-stereoscopic display system based on depth image analysis
Robinson et al. A first order predicate logic formulation of the 3d reconstruction problem and its solution space
CN108391113A (zh) 基于3d模型的数据获取方法及模型生成装置
Cremers et al. 10411 Abstracts Collection--Computational Video
Buehler Rendering from unstructured collections of images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant