CN105701853B - 3d渲染方法和设备 - Google Patents
3d渲染方法和设备 Download PDFInfo
- Publication number
- CN105701853B CN105701853B CN201510931834.9A CN201510931834A CN105701853B CN 105701853 B CN105701853 B CN 105701853B CN 201510931834 A CN201510931834 A CN 201510931834A CN 105701853 B CN105701853 B CN 105701853B
- Authority
- CN
- China
- Prior art keywords
- light source
- scene
- direct light
- viewpoint
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供一种3D渲染方法和设备。一种用于渲染三维(3D)模型的3D渲染的方法包括:从直接光源的每个视点渲染3D模型;获得关于从直接光源的每个视点渲染的场景的场景信息;基于场景信息生成匹配图像,其中,在匹配图像中所述场景被匹配;从匹配图像抽样至少一个间接光源。
Description
本申请要求于2014年12月15日提交到韩国知识产权局的第10-2014-0180315号韩国专利申请的权益,该韩国专利申请的全部公开出于所有目的通过引用合并于此。
技术领域
以下描述涉及用于渲染三维(3D)模型的图像处理技术。
背景技术
三维(3D)渲染是渲染3D模型的计算机绘图的领域。3D渲染用于包括虚拟现实、动画片和电影的各种应用领域。3D渲染的示例包括:通过跟踪从光源发出的光从对象的表面被反射所经过的路径来渲染3D模型的光线跟踪、不仅考虑直接照明效果还考虑从对象的直接照明引起的反射光和漫反射的间接照明效果的光能传递渲染以及通过将矢量数据转换为像素图案图像来渲染3D模型的光栅化渲染。
发明内容
提供本发明内容来以简化的形式介绍对在下面的具体实施方式中进一步描述的构思的选择。本发明内容不意在标识所要求保护的主题的关键特征或必要特征,也不意在用来帮助确定所要求保护的主题的范围。
在一个总体方面,一种用于渲染三维(3D)模型的3D渲染方法包括:从直接光源的每个视点渲染3D模型;获得关于从直接光源的每个视点渲染的场景的场景信息;基于场景信息生成所述场景被匹配的匹配图像;从匹配图像抽样至少一个间接光源。
生成匹配图像的步骤可包括:通过对所述场景中的匹配区域进行组合来生成匹配图像。
场景信息可包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
生成匹配图像的步骤可包括:基于属性信息生成所述场景被匹配的匹配图像。
生成匹配图像的步骤可包括:通过基于属性信息中的第一属性信息对所述场景进行匹配来生成与第一属性信息关联的匹配图像;根据基于第一属性信息对所述场景进行匹配的结果,生成与属性信息中的第二属性信息关联的匹配图像。
生成匹配图像的步骤可包括:基于与直接光源的每个视点关联的相机参数信息来生成匹配图像。
抽样至少一个间接光源的步骤可包括:将匹配图像划分为多个区域;在所述多个区域之中的间接光源将被抽样的感兴趣区域中抽样间接光源。
所述方法还可包括:通过将抽样的所述至少一个间接光源的间接照明效果应用于3D模型来渲染3D模型。
直接光源可直接向3D对象发出光;所述至少一个间接光源可从自直接光源发出的光被反射、折射或衍射的区域发出光。
在另一总体方面,一种存储指令的非暂时性计算机可读存储介质,其中,所述指令使计算硬件执行上述方法。
在另一总体方面,一种用于渲染三维(3D)模型的3D渲染方法包括:从所有直接光源中的一部分直接光源的每个视点渲染3D模型;获得关于从所述一部分直接光源的每个视点渲染的场景的场景信息;基于场景信息生成所述场景被匹配的第一图像;从第一图像抽样至少一个间接光源。
所述方法还可包括:通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染3D模型来生成第二图像;从第二图像抽样至少一个间接光源。
所述方法还可包括:通过将从第一图像和第二图像抽样的间接光源的间接照明效果应用于3D模型来渲染3D模型。
生成第一图像的步骤可包括:通过对所述场景中的匹配区域进行组合来生成第一图像。
场景信息可包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
在另一总体方面,一种用于渲染三维(3D)模型的3D渲染方法包括:对通过从直接光源的每个视点渲染3D模型而获得的场景进行比较;确定是否生成所述场景被匹配的匹配图像;响应于确定将生成匹配图像的结果,基于关于所述场景的场景信息来生成所述场景被匹配的匹配图像;从匹配图像抽样至少一个间接光源。
确定是否生成匹配图像的步骤可包括:响应于所述场景中的匹配区域的大小满足预定条件或匹配区域的大小与所述场景的大小之比满足预定条件,确定生成匹配图像。
生成匹配图像的步骤可包括:通过对所述场景中的匹配区域进行组合来生成匹配图像。
场景信息可包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
在另一总体方面,一种三维(3D)渲染设备包括:渲染器,被配置为从直接光源的每个视点渲染3D模型;场景信息存储器,被配置为存储关于从直接光源的每个视点渲染的场景的场景信息;其中,渲染器还可被配置为:基于场景信息生成所述场景被匹配的匹配图像,并从匹配图像抽样至少一个间接光源。
渲染器还可被配置为:通过对所述场景中的匹配区域进行组合来生成匹配图像。
场景信息可包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
渲染器还可被配置为:通过对所述场景进行比较来确定是否生成匹配图像,并响应于确定将生成匹配图像的结果,基于关于所述场景的场景信息来生成匹配图像。
渲染器还可被配置为:基于与直接光源的每个视点关联的相机参数信息来生成匹配图像。
渲染器还可被配置为:通过将抽样的所述至少一个间接光源的间接照明效果应用于3D模型来渲染3D模型。
在另一总体方面,一种三维(3D)渲染设备包括:渲染器,被配置为从所有直接光源中的一部分直接光源的每个视点渲染3D模型;场景信息存储器,被配置为存储关于从所述一部分直接光源的每个视点渲染的场景的场景信息;其中,渲染器还可被配置为:基于场景信息生成所述场景被匹配的第一图像,并从第一图像抽样至少一个间接光源。
渲染器还可被配置为:通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染3D模型来生成第二图像,并从第二图像抽样至少一个间接光源。
渲染器还可被配置为:通过将从第一图像和第二图像抽样的间接光源的间接照明效果应用于3D模型来渲染3D模型。
在另一总体方面,用于渲染三维(3D)模型的3D渲染方法包括:从直接光源的各自的视点渲染3D模型;从渲染的结果生成合成图像;从合成图像抽样间接光源。
渲染3D模型的步骤可产生包括匹配区域的场景,其中,所述场景包括分别从至少两个直接光源的各自的视点渲染的匹配区域;生成合成图像的步骤可包括:对包括匹配区域的场景进行组合来获得合成图像。
渲染3D模型的步骤可产生分别从直接光源的各自的视点渲染的场景;所述方法还可包括:获得所述场景中的每个场景的场景信息;生成合成图像的步骤可包括:基于场景信息识别场景中的匹配区域;对包括匹配区域的场景进行组合来获得合成图像。
所述场景可包括从直接光源的各自的视点中的每个视点渲染的与多个属性关联的场景;识别匹配区域的步骤可包括:仅基于所述多个属性之一来识别匹配区域。
对包括匹配区域的场景进行组合的步骤可包括:根据仅基于所述多个属性之一识别出的匹配区域,对与所述多个属性中的所有属性关联的包括匹配区域的场景进行组合。
属性可包括强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个。
抽样间接光源的步骤可包括:仅从合成图像仅抽样一次间接光源。
从以下具体实施方式、附图和权利要求,其它特征和方面将是清楚的。
附图说明
图1是示出由三维(3D)渲染设备渲染3D模型的整体处理的示例的示图。
图2是示出由3D渲染设备抽样间接光源并处理间接照明效果的处理的示例的示图。
图3A和图3B示出直接光源与间接光源之间的关系的示例。
图4是示出3D渲染设备的配置的示例的示图。
图5示出从第(i-1)、i和(i+1)个直接光源的每个视点渲染的三个场景的强度、法线和深度值属性的示例。
图6示出对从直接光源的每个视点渲染的场景进行匹配并生成所述场景被匹配的匹配图像的处理的示例。
图7示出从匹配图像抽样间接光源的处理的示例。
图8是示出3D渲染方法的示例的流程图。
图9是示出3D渲染方法的另一示例的流程图。
图10是示出3D渲染方法的另一示例的流程图。
贯穿附图和具体实施方式,相同的参考标号表示相同的元件。附图可不必成比例,并且为了清楚、说明和方便起见,可夸大附图中元件的相对尺寸、比例和绘示。
具体实施方式
提供以下详细描述来帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在此描述的方法、设备和/或系统的各种改变、修改及等同物对本领域普通技术人员而言将是清楚的。在此描述的操作的顺序仅是示例,并且不限于在此阐述的顺序,而是除了必需按特定顺序发生的操作之外,操作的顺序可如本领域普通技术人员将清楚的那样改变。此外,为了更加清楚和简明,可省略对本领域普通技术人员公知的功能和构造的描述。
在此描述的特征可以以不同的形式来实现,并且不应被解释为限于在此描述的示例。相反地,提供在此描述的示例使得本公开将是全面而完整的,并且将向本领域普通技术人员传达本公开的全部范围。
这里使用的术语仅用于描述特定示例的目的,而不意图限制本公开的范围。如这里所使用,除非上下文另外明确指示,否则单数形式也意图包括复数形式。还将理解,当在本说明书中使用术语“包括”和/或“具有”时,表明存在说明的特征、数字、操作、元件、组件或它们的组合,但不排除存在或添加一个或更多个其它特征、数字、操作、元件、组件和/或它们的组合。
图1是示出由三维(3D)渲染设备渲染3D模型的整体处理的示例的示图。
3D渲染设备渲染3D模型并输出通过渲染获得的结果图像。3D渲染设备通过将全局照明效果应用于3D模型来渲染3D模型。3D渲染设备生成通过将除直接光源或基色光源之外的间接光源的照明效果应用于3D模型来进行渲染而获得的具体结果图像。
在计算机绘图中,直接光源和间接光源是将照明效果分配给3D模型的虚拟光源。直接光源是直接向3D模型发出光的光源,间接光源是从自直接光源发出的光被反射、折射或衍射的区域发出光的光源。3D渲染设备通过在3D模型中恰当地布置间接光源来应用更逼真的照明效果。
3D渲染设备可通过调整3D模型中的将布置间接光源的区域或3D模型中将布置的间接光源的数量,来控制将在渲染出的3D模型的图像中呈现的照明效果。在存在多个直接向3D模型发出光的直接光源的环境中,3D渲染设备有效地抽样由直接光源生成的间接光源。对间接光源的抽样是确定3D模型中将布置间接光源的的区域以及将布置的间接光源的数量的操作。
图1示出当3D渲染设备渲染3D模型时将全局照明效果应用于3D模型的处理。
参照图1,在操作110,3D渲染设备从直接光源的每个视点渲染3D模型。3D渲染设备从直接光源的每个视点渲染3D模型,并获得与从直接光源的每个视点进行的渲染关联的信息。
在操作120,3D渲染设备抽样将应用于3D模型的间接光源。3D渲染设备对从直接光源的每个视点渲染的场景进行匹配,基于在操作110获得的信息生成匹配图像,并使用匹配图像来抽样间接光源。3D渲染设备使用本领域普通技术人员已知的各种抽样方法中的任意抽样方法来从匹配图像抽样间接光源。
在操作130,3D渲染设备从用于延迟渲染的相机视点对3D模型进行选择性地渲染。3D渲染设备从相机视点渲染3D模型,并获得用于处理直接照明效果和间接照明效果的与从相机视点进行的渲染关联的信息。与从相机视点进行的渲染关联的信息可包括:例如,包括3D模型的深度、法线(normal)和颜色中的任意一个或包括3D模型的深度、法线和颜色中的任意两个或更多个的任意组合的信息。
在操作140,3D渲染设备通过将直接光源和间接光源的照明效果应用于3D模型来渲染3D模型。3D渲染设备使用在操作110获得的与从直接光源的每个视点进行的渲染关联的信息和在操作130获得的与从相机视点进行的渲染关联的信息来渲染3D模型。
在操作150,在对3D模型的渲染期间,3D渲染设备通过处理直接光源的直接照明效果来将直接照明效果应用于3D模型。在操作160,3D渲染设备通过处理在抽样操作中抽样的间接光源的间接照明效果来将间接照明效果应用于3D模型。3D渲染设备通过应用直接照明效果和间接照明效果来实现全局照明效果。
例如,3D渲染设备通过将直接光着色(light shading)的结果和间接光着色的结果进行组合来将全局照明效果应用于3D模型。直接光着色是一种基于从直接光源发出的光的距离和角度来改变3D对象的表面的照度的方法。间接光着色是一种在渲染3D模型的处理中基于从间接光源发出的光的距离和角度来改变包括在3D模型中的3D对象的表面的照度的方法。
在操作170,3D渲染设备对通过渲染3D模型而获得的结果图像选择性地执行图像后处理。例如,3D渲染设备将各种图像后处理操作(诸如抗锯齿和眩光效果)应用于结果图像。
3D渲染设备可被实现在例如个人计算机(PC)、智能电话或平板PC中来渲染3D模型。例如,3D渲染设备可渲染游戏、电影、用户界面、虚拟现实或增强现实中的3D模型,并输出通过渲染而获得的结果图像。
图2是示出由3D渲染设备抽样间接光源并处理间接照明效果的处理的示例的示图。
参照图2,在操作210,3D渲染设备在包括多个直接光源的环境中从直接光源的每个视点渲染3D模型。3D渲染设备从直接光源的每个视点渲染3D模型,并存储关于从直接光源的每个视点渲染的场景的信息。场景信息被存储在通用存储器或缓冲器中。
3D模型基于一个或更多个属性中的每个属性而从直接光源的每个视点被渲染。例如,3D渲染设备基于包括例如强度、法线和深度值的多个属性中的每个属性从直接光源的每个视点渲染3D模型,并存储关于基于每个属性渲染的场景的场景信息。
在操作220,3D渲染设备通过执行多视点匹配来生成匹配图像,其中,在匹配图像中,从直接光源的每个视点渲染的场景被匹配。3D渲染设备可生成单个匹配图像或多个匹配图像。3D渲染设备使用关于从直接光源的每个视点渲染的场景的信息来识别从直接光源的每个视点渲染的场景中彼此对应的相同区域,并通过对所述相同区域进行组合来将从直接光源的每个视点渲染的场景进行组合,从而生成匹配图像。由于匹配图像是通过对从直接光源的每个视点渲染的场景进行组合而生成的,因此匹配图像是从直接光源的每个视点渲染的场景的合成图像。
在一个示例中,3D渲染设备确定直接光源之中的参考直接光源,并基于参考直接光源的视点改变从不包括参考直接光源的其它直接光源的每个视点进行渲染的结果。3D渲染设备可使用相机的用于从直接光源的每个视点进行渲染的相机参数信息,容易地将从其它直接光源的每个视点进行渲染的结果改变为从参考直接光源的视点进行渲染的结果。3D渲染设备通过将从参考直接光源的视点进行渲染的结果与改变后的从其它直接光源的每个视点进行渲染的结果进行组合来生成匹配图像。
在操作230,3D渲染设备从匹配图像抽样间接光源。3D渲染设备使用本领域普通技术人员已知的各种抽样方法中的任意一个来从匹配图像抽样间接光源。例如,3D渲染设备使用重要性抽样法(importance sampling method)来从匹配图像抽样间接光源。在重要性抽样法中,3D渲染设备基于匹配图像中指示的属性(例如,强度、颜色和通量)确定在匹配图像的每个区域中间接光源将被抽样的概率,并基于确定的概率从匹配图像抽样间接光源。重要性抽样法的各种示例对本领域普通技术人员来说是公知的,因此这里将不详细描述重要性抽样法。
在将被应用全局照明效果的3D模型中存在多个直接光源的情况下,3D渲染设备基于匹配图像仅执行一次抽样间接光源的操作,而无需基于直接光源的每个视点多次抽样间接光源。因此,3D渲染设备提高了渲染的处理速度。此外,通过生成匹配图像的匹配操作,消除了从直接光源的每个视点渲染的场景的重叠,从而防止了在相同区域中对间接光源的重复抽样。此外,当直接光源针对一个属性具有不同特征时,可通过在从匹配图像抽样间接光源的操作中将直接光源的不同特征进行组合来一起处理直接光源的不同特征,从而提高通过渲染而获得的结果图像的质量或清晰度。
在操作240,3D渲染设备处理从匹配图像抽样的间接光源的间接照明效果。3D渲染设备使用抽样的间接光源计算间接光着色效果,并将计算出的间接光着色效果应用于3D模型。3D渲染设备在3D模型中与匹配图像中的抽样的间接光源的位置相应的位置处布置间接光源,并将间接光源的间接照明效果应用于3D模型来渲染3D模型。
图3A和图3B示出直接光源与间接光源之间的关系的示例。
参照图3A,3D模型包括3D对象(例如,3D对象320和3D对象330)和直接光源310。虽然为了便于描述,在此示出单个直接光源310,但是3D模型可具有多个直接光源。包括在3D模型中的直接光源310是直接向3D对象320发出光的光源。3D模型将被渲染的虚拟空间中的亮区域和暗区域首先基于直接光源310与3D对象320之间的位置关系而被确定。从直接光源310发出的光340可被3D对象320反射、折射或衍射。在图3A的示例中,从直接光源310输出的光340被3D对象320反射,然后被3D对象330再次反射。在图3A的示例中,3D对象330是围绕在3D对象320的邻近区域的墙。3D模型从相机315的视点被渲染,并且通过渲染而获得的结果图像被提供给用户。
3D渲染设备通过除了将从直接光源310输出的光340的直接照明效果应用于3D模型外,还将从间接光源输出的光的间接照明效果应用于3D模型,来渲染3D模型。间接光源是在从直接光源310发出的光340被反射、折射或衍射的区域中发出光的光源。参照图3B,间接光源355位于从直接光源310输出的光340被3D对象320反射的区域,间接光源350和360分别位于光340被3D对象330反射的区域。在渲染包括3D对象320和330的3D模型的操作中,除了将直接光源310的照明效果应用于3D模型外,还将间接光源350、355和360的照明效果应用于3D模型,从而3D模型被渲染。
间接光源350、355和360受直接光源310影响,并且还受间接光源350、355和360在3D模型中所位于的区域的特征影响。间接光源350、355和360基于间接光源350、355和360中的每个间接光源在3D模型中所位于的表面的颜色而发出具有不同颜色的光。例如,当间接光源355在3D对象320中所位于的表面的颜色是红色时,间接光源355向邻近区域发出红光。
图4是示出3D渲染设备400的配置的示例的示图。
3D渲染设备400渲染3D模型并输出通过渲染获得的结果图像。在多个直接光源存在于3D模型的环境中,3D渲染设备400抽样与直接光源关联的间接光源,在3D模型中布置抽样的间接光源,并将间接光源的间接照明效果应用于3D模型。参照图4,3D渲染设备400包括:渲染器410和场景信息存储器420。
渲染器410渲染3D模型。渲染器410抽样用于间接照明效果的间接光源,并通过将直接光源的直接照明效果和间接光源的间接照明效果应用于3D模型来渲染3D模型。
渲染器410从直接光源的每个视点渲染3D模型,并获得关于从直接光源的每个视点渲染的场景的场景信息。例如,场景信息可包括属性信息,其中,属性信息包括每个场景中所包括的像素的强度、法线、颜色、反射通量、位置、深度值和其它参数中的任意一个,或者包括每个场景中所包括的像素的强度、法线、颜色、反射通量、位置、深度值和其它参数中的任意两个或更多个的任意组合。渲染器410可基于属性从直接光源的每个视点顺序渲染3D模型,或基于属性使用多重渲染目标(MRT)函数仅渲染一次3D模型。场景信息存储器420存储关于从直接光源的每个视点渲染的场景的场景信息,并且存储的场景信息用于生成匹配图像或用于渲染3D模型。
渲染器410基于场景信息生成匹配图像,其中,在匹配图像中从直接光源的每个视点渲染的场景被匹配。渲染器410通过对场景中的重叠区域或匹配区域进行组合来生成匹配图像。渲染器410使用场景信息识别从直接光源的每个视点渲染的场景中彼此对应的相同区域,并通过对所述相同区域进行组合来将从直接光源的每个视点渲染的场景进行组合,从而生成匹配图像。
例如,渲染器410从多个直接光源选择参考直接光源,并基于参考直接光源的视点改变从不是参考直接光源的其余直接光源的每个视点进行渲染的结果。渲染器410通过将从参考直接光源的视点进行渲染的结果与改变后的从所述其余直接光源的每个视点进行渲染的结果进行组合来生成匹配图像。
渲染器410可使用与3D模型关联的信息和相机参数信息而容易地生成匹配图像。例如,渲染器410可使用将被用于从直接光源的每个视点进行渲染的相机参数信息,基于参考直接光源的视点来改变从其余直接光源的每个视点进行渲染的结果,并通过将与各个直接光源关联的渲染结果进行组合来生成匹配图像。与相机内部参数关联的信息或与相机外部参数关联的信息可被用作相机参数信息。例如,内部参数可包括关于焦距和主点的信息,外部参数可包括关于相机的3D全局坐标和相机朝向方向的信息。
在一个示例中,渲染器410基于每个属性信息集生成匹配图像。属性信息集是针对从直接光源的每个视点渲染的场景中的每个场景的一种类型的属性信息。例如,一个属性信息集可以是针对从直接光源的每个视点渲染的场景中的每个场景的强度信息,或者是针对从直接光源的每个视点渲染的场景中的每个场景的深度值信息。渲染器410基于对与一个属性信息集关联的场景进行匹配的结果来生成与不同属性信息集关联的匹配图像。例如,渲染器410生成与强度属性关联的匹配图像,并通过将对与强度属性关联的场景进行匹配的结果应用于对与深度值属性关联的场景进行匹配的操作来生成与深度值属性关联的匹配图像。
当从直接光源的每个视点渲染了3D模型时,与相同的3D模型坐标和相同的直接光源关联的属性信息集被同时生成。因此,当完成了对与一个属性关联的场景进行匹配的操作时,匹配的结果可在对与另一属性关联的场景进行匹配的操作中被使用。因此,虽然需要将被用于抽样间接光源并处理间接照明效果的基于每个属性信息集的匹配图像,但是对场景进行匹配的操作不需要被执行与属性信息集的数量相应的次数,而仅需要被执行一次。为了提高资源(诸如,存储空间)的效率,可在生成基于每个属性信息集的匹配图像之后,删除存储在场景信息存储器420中的场景信息。
渲染器410使用匹配图像来抽样至少一个间接光源。渲染器410使用本领域普通技术人员已知的各种抽样方法(例如,重要性抽样法)从匹配图像抽样间接光源。在重要性抽样法中,渲染器410基于匹配图像中指示的属性(诸如,强度、颜色和通量)来确定在匹配图像的每个区域中间接光源将被抽样的概率,并基于确定的概率来从匹配图像抽样间接光源。渲染器410通过抽样间接光源的操作在3D模型的区域中布置间接光源,并确定是否将间接照明效果应用于该区域。
在另一示例中,渲染器410将匹配图像划分为多个区域,并选择性地仅在多个区域之中的期望抽样间接光源的感兴趣区域中抽样间接光源。感兴趣区域可由用户选择或者可基于匹配图像的亮度分布或3D对象的移动而被确定。例如,在包括在匹配图像中的区域之中,具有大于阈值的平均亮度的区域或存在移动的3D对象的区域可被确定为感兴趣区域。渲染器410生成针对每个感兴趣区域的单独的重要性图(importance map),并使用生成的重要性图在感兴趣区域中执行重要性抽样法。渲染器410可并行生成多个感兴趣区域的多个重要性图。渲染器410可针对每个感兴趣区域预先确定将被抽样的间接光源的数量,并从感兴趣区域抽样预定数量的间接光源。渲染器410基于匹配图像的亮度分布、颜色分布和通量分布中的任意一个,或匹配图像的亮度分布、颜色分布和通量分布中的任意两个或更多个的任意组合来确定将从感兴趣区域被抽样的间接光源的数量。
虽然直接光源针对一个属性可具有不同特征,但是可通过在从匹配图像抽样直接光源的操作中将所述不同特征进行组合来同时处理所述不同特征。例如,当第一直接光源和第二直接光源对3D模型中的共享区域进行照明,并且第一直接光源和第二直接光源具有不同的颜色时,从共享区域抽样的间接光源将具有第一直接光源与第二直接光源的混合颜色的特征。当来自具有不同特征的直接光源的间接光源被布置在3D模型中的共享区域中时,直接光源的属性可被组合以抽样间接光源,因此通过渲染而获得的结果图像的质量或清晰度可被提高。
渲染器410将间接光源的间接照明效果应用于3D模型的通过抽样间接光源的操作而确定的区域。渲染器410从基于每个属性信息集生成的匹配图像提取用于计算间接照明效果的信息,并使用提取的信息计算间接光源被布置的区域中的间接照明效果。渲染器410通过将间接光源的间接照明效果应用于3D模型来渲染3D模型。
在另一示例中,渲染器410仅将多视点匹配应用于包括在3D模型中的所有直接光源中的一部分直接光源。例如,当较大数量的间接光源将被抽样,或者针对直接光源需要抽样单独的间接光源时,渲染器410仅将多视点匹配应用于所述一部分直接光源。渲染器410通过对从所述一部分直接光源的每个视点渲染的场景进行匹配来生成单个匹配图像,并从匹配图像抽样间接光源。渲染器410从所述一部分直接光源的每个视点渲染3D模型,并存储关于从所述一部分直接光源的每个视点渲染的场景的场景信息。渲染器410基于场景信息生成第一图像,并从第一图像抽样间接光源,其中,在匹配图像中,从所述一部分直接光源的每个视点渲染的场景被匹配。随后,渲染器410通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染3D模型来生成第二图像,并从第二图像抽样间接光源。当存在多个其余直接光源时,渲染器410从所述其余直接光源的每个视点渲染3D模型来生成多个第二图像,并从每个第二图像抽样间接光源。渲染器410对抽样间接光源的结果进行组合并在3D模型中布置间接光源。
在另一示例中,渲染器410对从直接光源的每个视点渲染的场景进行比较,并基于比较结果确定是否生成匹配图像,其中,在匹配图像中场景被匹配。例如,当场景中的重叠区域或匹配区域的大小满足预定条件或者重叠区域或匹配区域的大小与场景的大小之比满足预定条件时,渲染器410确定生成匹配图像。在其它情况下,渲染器410确定不生成匹配图像。当渲染器410确定生成匹配图像时,渲染器410基于关于场景的场景信息来生成匹配图像。渲染器410从匹配图像抽样间接光源,并基于抽样结果将间接照明效果应用于3D模型。相反,当渲染器410确定不生成匹配图像时,渲染器410通过从直接光源的每个视点渲染3D模型来生成多个图像,并从每个生成的图像单独抽样间接光源。
图5示出从第(i-1)、i和(i+1)个直接光源的每个视点渲染的三个场景的强度、法线和深度值属性的示例。从第(i-1)、i和(i+1)个直接光源的每个视点渲染的三个场景的强度属性信息是强度属性信息集。从第(i-1)、i和(i+1)个直接光源的每个视点渲染的三个场景的法线属性信息是法线属性信息集。从第(i-1)、i和(i+1)个直接光源的每个视点渲染的三个场景的深度值属性信息是深度值属性信息集。
图6示出对从直接光源的每个视点渲染的场景进行匹配并生成场景被匹配的匹配图像的处理的示例。
参照图6,三个直接光源从不同的视点渲染3D模型来获得各自的场景,即,场景610、场景620和场景630。场景610、620和630是针对3D模型的至少一个属性而渲染的场景。例如,可通过针对3D模型的强度、深度值、位置、法线、反射通量和颜色中的任意一个或针对3D模型的强度、深度值、位置、法线、反射通量和颜色中的任意两个或更多个的任意组合渲染3D模型来获得场景610、620和630。
3D渲染设备通过对从所述三个直接光源的各自的视点渲染的场景610、620和630进行匹配来生成单个匹配图像640。3D渲染设备通过对场景610、620和630中的匹配区域或重叠区域进行组合来生成匹配图像。例如,3D渲染设备从三个直接光源选择与场景620关联的直接光源作为参考直接光源,并基于参考直接光源的视点改变从不是参考直接光源的其余直接光源的各自的视点渲染的其它场景610和630。3D渲染设备通过将改变场景610和630的结果与从参考直接光源的视点渲染的场景620进行组合来生成匹配图像640。
图7示出从图6的匹配图像640抽样间接光源710的处理的示例。
参照图7,3D渲染设备从匹配图像640抽样提供间接照明效果的间接光源710,并基于抽样结果确定3D模型中将布置间接光源710的区域。例如,3D渲染设备使用重要性抽样法从匹配图像640抽样间接光源710。在重要性抽样法中,基于匹配图像640中指示的属性(例如,强度、颜色和通量)确定间接光源710将被抽样的概率,并且将关于确定的概率的信息表示为重要性图。3D渲染设备基于包括在重要性图中的关于概率的信息来从匹配图像640抽样间接光源710。
例如,3D渲染设备基于匹配图像640的强度分布、双向反射分布函数(BRDF)或双向表面散射反射分布函数(BSSRDF)来抽样间接光源710。例如,3D渲染设备基于包括在匹配图像640中的每个像素的光强度值来确定关于间接光源710将被抽样的概率的信息,并基于确定的关于概率的信息来确定间接光源710将被布置的区域。间接光源710将从匹配图像640中的亮区域被抽样的概率可被设置为相对高于间接光源710将从匹配图像640中的暗区域被抽样的概率。
图8是示出3D渲染方法的示例的流程图。以下描述的3D渲染方法由3D渲染设备执行。
参照图8,在操作810,3D渲染设备从直接光源的每个视点渲染3D模型,并获得关于从直接光源的每个视点渲染的场景的场景信息。例如,场景信息可包括属性信息,其中,属性信息包括每个场景中所包括的像素的强度、法线、颜色、反射通量、位置、深度值和其它参数中的任意一个,或包括每个场景中所包括的像素的强度、法线、颜色、反射通量、位置、深度值和其它参数中的任意两个或更多个的任意组合。
在操作820,3D渲染设备基于在操作810获得的场景信息生成匹配图像,其中,在匹配图像中从直接光源的每个视点渲染的场景被匹配。3D渲染设备通过使用本领域普通技术人员已知的各种匹配方法中的任意匹配方法对从直接光源的每个视点渲染的场景进行匹配来生成单个匹配图像。3D渲染设备基于每个属性信息集生成匹配图像,并基于对与一个属性信息集关联的场景进行匹配的结果生成与不同的属性信息集关联的匹配图像。
在操作830,3D渲染设备使用在操作820生成的匹配图像来抽样至少一个间接光源。例如,3D渲染设备基于匹配图像中指示的属性(例如,强度、颜色和通量)来确定在匹配图像的每个区域中间接光源将被抽样的概率,并基于确定的概率从匹配图像抽样间接光源。
在操作840,3D渲染设备通过将间接光源的间接照明效果应用于3D模型来渲染3D模型。3D渲染设备通过将间接光源的间接光着色和直接光源的直接光着色应用于3D模型来实现全局照明效果。3D渲染设备输出通过渲染3D模型而获得的结果图像。
图9是示出3D渲染方法的另一示例的流程图。以下描述的3D渲染方法由3D渲染设备执行。
参照图9,在操作910,3D渲染设备从所有直接光源中的一部分直接光源的每个视点渲染3D模型,并获得关于从所述一部分直接光源的每个视点渲染的场景的场景信息。
在操作920,3D渲染设备基于在操作910获得的场景信息生成第一图像,其中,在第一图像中,从所述一部分直接光源的每个视点渲染的场景被匹配。3D渲染设备通过对从所述一部分直接光源的每个视点渲染的场景中的匹配区域或重叠区域进行组合来生成第一图像。3D渲染设备基于关于3D模型的信息和与所述一部分直接光源的每个视点关联的相机参数信息来生成第一图像。3D渲染设备基于每个属性信息集生成第一图像。3D渲染设备基于对与一个属性信息集关联的场景进行匹配的结果生成与不同的属性信息集关联的第一图像。
在操作930,3D渲染设备使用在操作920生成的第一图像抽样间接光源。3D渲染设备使用本领域普通技术人员已知的各种抽样方法中的任意抽样方法(例如,重要性抽样法)来从第一图像抽样间接光源。
在操作940,3D渲染设备通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染3D模型来生成第二图像。当存在多个其余直接光源时,3D渲染设备通过从其余直接光源的各自的视点渲染3D模型来生成多个第二图像。然而,为了描述的简单起见,图9示出仅存在一个其余直接光源的示例。
在操作950,3D渲染设备使用在操作940生成的第二图像来抽样间接光源。与操作930相似,3D渲染设备使用例如重要性抽样法来从第二图像抽样间接光源。
在操作960,3D渲染设备通过将间接光源的间接照明效果应用于3D模型来渲染3D模型。3D渲染设备基于从第一图像抽样的间接光源和从第二图像抽样的间接光源来确定3D模型中间接光源将被布置的区域。3D渲染设备在3D模型中的确定的区域中布置间接光源,并通过执行间接光着色来将间接照明效果应用于3D模型。
图10是示出3D渲染方法的另一示例的流程图。以下描述的3D渲染方法由3D渲染设备执行。
参照图10,在操作1010,3D渲染设备对通过从直接光源的每个视点渲染3D模型而获得的场景进行比较。例如,3D渲染设备对从直接光源的每个视点渲染的场景进行比较,确定场景中是否存在匹配区域或重叠区域,并确定匹配区域或重叠区域的大小或者确定匹配区域的大小与场景的大小之比。
在操作1020,3D渲染设备对从直接光源的每个视点渲染的场景进行匹配,并基于在操作1010执行的比较的结果来确定是否生成匹配图像。例如,当场景中的匹配区域或重叠区域的大小满足预定条件或者匹配区域的大小与场景的大小之比满足预定条件时,3D渲染设备确定生成匹配图像。当从直接光源的每个视点渲染的场景中仅存在很小的匹配区域或重叠区域或者没有匹配区域或重叠区域时,3D渲染设备确定不生成匹配图像。
在操作1030,当3D渲染设备在操作1020确定生成匹配图像时,3D渲染设备基于关于从直接光源的每个视点渲染的场景的场景信息生成匹配图像。3D渲染设备通过对场景中的匹配区域或重叠区域进行组合来生成匹配图像。
在操作1040,3D渲染设备使用在操作1030生成的匹配图像来抽样间接光源。3D渲染设备使用本领域普通技术人员已知的各种抽样方法中的任意抽样方法(例如,重要性抽样法)来从匹配图像抽样间接光源。
在操作1050,当3D渲染设备在操作1020确定不生成匹配图像时,3D渲染设备使用通过从直接光源的每个视点渲染3D模型而生成的多个图像来抽样间接光源。3D渲染设备通过从直接光源的每个视点渲染3D模型来生成多个图像,并分别从每个生成的图像抽样间接光源。
在操作1060,3D渲染设备通过将在操作1040抽样的间接光源的间接照明效果或在操作1050抽样的间接光源的间接照明效果应用于3D模型来渲染3D模型。
以上描述的配置和/或方法通过执行小于直接光源的总数的次数的间接光源抽样来减小用于3D渲染的时间量。当从所有直接光源生成的图像被匹配时,间接光源通过仅执行一次间接光源抽样而被生成。因此,即使从直接光源中的一部分直接光源生成的图像被匹配,间接光源抽样的总数也小于直接光源的总数。
通过硬件组件来实现图4中的执行这里针对图1至图10描述的操作的3D渲染设备400、渲染器410和场景信息存储器420。硬件组件的示例包括控制器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器和本领域普通技术人员已知的任何其它电子组件。在一个示例中,通过计算硬件(例如,通过一个或更多个处理器或计算机)来实现硬件组件。通过一个或更多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或本领域普通技术人员已知的能够以限定的方式响应和执行指令以实现期望结果的任何其它装置或装置的组合)来实现处理器或计算机。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或更多个存储器。由处理器或计算机实现的硬件组件执行指令或软件(诸如操作系统(OS)和在OS上运行的一个或多个软件应用),以执行这里针对图1至图10描述的操作。硬件组件还响应于指令或软件的执行来访问、操作、处理、创建和存储数据。为了简明,可在这里描述的示例的描述中使用单数术语“处理器”或“计算机”,但是在其它示例中,使用多个处理器或计算机,或者处理器或计算机包括多个处理元件或多种类型的处理元件或者包括两者。在一个示例中,硬件组件包括多个处理器,在另一示例中,硬件组件包括处理器和控制器。硬件组件具有不同处理配置中的任意一个或多个,不同处理配置的示例包括单处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理和多指令多数据(MIMD)多处理。
可由如上所述的运行用于执行这里描述的操作的指令或软件的处理器或计算机来执行图8至图10中示出的执行这里针对图1至图10描述的操作的方法。
用于控制处理器或计算机实现硬件组件并执行上述方法的指令或软件被写为计算机程序、代码段、指令或它们的任意组合,以独立地或共同地指示或配置处理器或计算机作为用于执行由硬件组件执行的操作和如上所述的方法的机器或专用计算机进行操作。在一个示例中,指令或软件包括由处理器或计算机直接执行的机器代码,诸如由编译器产生的机器代码。在另一示例中,指令或软件包括由处理器或计算机使用解释器执行的更高级代码。本领域的普通编程技术人员可基于附图中示出的框图和流程图以及说明书中的对应描述容易地编写指令或软件,其中,附图中示出的框图和流程图以及说明书中的对应描述公开了用于执行由硬件组件执行的操作和如上所述的方法的算法。
用于控制处理器或计算机实现硬件组件并执行以上描述的方法的指令或软件以及任何关联的数据、数据文件和数据结构被记录、存储或固定在一个或更多个非暂时性计算机可读存储介质中或非暂时性计算机可读存储介质上。非暂时性计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘和本领域普通技术人员已知的能够以非暂时性方式存储指令或软件以及任何关联的数据、数据文件和数据结构并将指令或软件以及任何关联的数据、数据文件和数据结构提供给处理器或计算机使得处理器或计算机可执行指令的任何装置。在一个示例中,指令或软件以及任何关联的数据、数据文件和数据结构分布在联网的计算机系统中,从而由处理器或计算机以分布式方式存储、访问和执行指令和软件以及任何关联的数据、数据文件和数据结构。
虽然本公开包括特定示例,但是本领域普通技术人员将清楚,在不脱离权利要求及其等同物的精神和范围的情况下,可在这些示例中进行形式和细节上的各种改变。这里描述的示例仅应被考虑为描述性意义,而不是限制的目的。每个示例中的特征或方面的描述将被认为可应用于其它示例中的类似特征或方面。如果描述的技术以不同的顺序被执行,和/或如果描述的系统、架构、装置或电路中的组件以不同的方式被组合和/或被其它组件或其等同物代替或补充,则可实现合适的结果。因此,本公开的范围不是由具体实施方式限定,而是由权利要求及其等同物限定,并且权利要求及其等同物的范围内的所有改变将被解释为包括在本公开中。
Claims (34)
1.一种用于渲染三维模型的三维渲染方法,所述三维渲染方法包括:
从直接光源的每个视点渲染三维模型;
获得关于从直接光源的每个视点渲染的场景的场景信息;
确定直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成匹配图像;
从匹配图像抽样至少一个间接光源。
2.如权利要求1所述的三维渲染方法,其中,生成匹配图像的步骤包括:通过对所述场景中的匹配区域进行组合来生成匹配图像。
3.如权利要求1所述的三维渲染方法,其中,场景信息包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
4.如权利要求3所述的三维渲染方法,其中,生成匹配图像的步骤包括:基于属性信息生成所述场景被匹配的匹配图像。
5.如权利要求4所述的三维渲染方法,其中,生成匹配图像的步骤包括:
通过基于属性信息中的第一属性信息对所述场景进行匹配来生成与第一属性信息关联的匹配图像;
根据基于第一属性信息对所述场景进行匹配的结果,生成与属性信息中的第二属性信息关联的匹配图像。
6.如权利要求1所述的三维渲染方法,其中,生成匹配图像的步骤包括:
基于与直接光源的每个视点关联的相机参数信息来生成匹配图像。
7.如权利要求1所述的三维渲染方法,其中,抽样至少一个间接光源的步骤包括:
将匹配图像划分为多个区域;
在所述多个区域之中的间接光源将被抽样的感兴趣区域中抽样间接光源。
8.如权利要求1所述的三维渲染方法,还包括:通过将抽样的所述至少一个间接光源的间接照明效果应用于三维模型来渲染三维模型。
9.如权利要求1所述的三维渲染方法,其中,直接光源直接向三维对象发出光;
所述至少一个间接光源从自直接光源发出的光被反射、折射或衍射的区域发出光。
10.一种用于渲染三维模型的三维渲染方法,所述三维渲染方法包括:
从所有直接光源中的一部分直接光源的每个视点渲染三维模型;
获得关于从所述一部分直接光源的每个视点渲染的场景的场景信息;
确定所述一部分直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从所述一部分直接光源之中的不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成所述场景被匹配的第一图像;
从第一图像抽样至少一个间接光源。
11.如权利要求10所述的三维渲染方法,还包括:
通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染三维模型来生成第二图像;
从第二图像抽样至少一个间接光源。
12.如权利要求11所述的三维渲染方法,还包括:通过将从第一图像和第二图像抽样的间接光源的间接照明效果应用于三维模型来渲染三维模型。
13.如权利要求10所述的三维渲染方法,其中,生成第一图像的步骤包括:通过对所述场景中的匹配区域进行组合来生成第一图像。
14.如权利要求10所述的三维渲染方法,其中,场景信息包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
15.一种用于渲染三维模型的三维渲染方法,所述三维渲染方法包括:
对通过从直接光源的每个视点渲染三维模型而获得的场景进行比较;
确定是否生成所述场景被匹配的匹配图像;
响应于确定将生成匹配图像的结果,基于关于所述场景的场景信息来生成所述场景被匹配的匹配图像;
从匹配图像抽样至少一个间接光源,
其中,生成的步骤包括:
确定直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成匹配图像。
16.如权利要求15所述的三维渲染方法,其中,确定是否生成匹配图像的步骤包括:响应于所述场景中的匹配区域的大小满足预定条件或匹配区域的大小与所述场景的大小之比满足预定条件,确定生成匹配图像。
17.如权利要求15所述的三维渲染方法,其中,生成匹配图像的步骤包括:通过对所述场景中的匹配区域进行组合来生成匹配图像。
18.如权利要求15所述的三维渲染方法,其中,场景信息包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
19.一种三维渲染设备,包括:
渲染器,被配置为从直接光源的每个视点渲染三维模型;
场景信息存储器,被配置为存储关于从直接光源的每个视点渲染的场景的场景信息;
其中,渲染器还被配置为:
确定直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成匹配图像,并从匹配图像抽样至少一个间接光源。
20.如权利要求19所述的三维渲染设备,其中,渲染器还被配置为:通过对所述场景中的匹配区域进行组合来生成匹配图像。
21.如权利要求19所述的三维渲染设备,其中,场景信息包括属性信息,其中,属性信息包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意一个,或者包括每个场景的像素的强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个的任意组合。
22.如权利要求19所述的三维渲染设备,其中,渲染器还被配置为:通过对所述场景进行比较来确定是否生成匹配图像,并响应于确定将生成匹配图像的结果,基于关于所述场景的场景信息来生成匹配图像。
23.如权利要求19所述的三维渲染设备,其中,渲染器还被配置为:基于与直接光源的每个视点关联的相机参数信息来生成匹配图像。
24.如权利要求19所述的三维渲染设备,其中,渲染器还被配置为:通过将抽样的所述至少一个间接光源的间接照明效果应用于三维模型来渲染三维模型。
25.一种三维渲染设备,包括:
渲染器,被配置为从所有直接光源中的一部分直接光源的每个视点渲染三维模型;
场景信息存储器,被配置为存储关于从所述一部分直接光源的每个视点渲染的场景的场景信息;
其中,渲染器还被配置为:
确定所述一部分直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从所述一部分直接光源之中的不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成所述场景被匹配的第一图像,并从第一图像抽样至少一个间接光源。
26.如权利要求25所述的三维渲染设备,其中,渲染器还被配置为:通过从未包括在所述一部分直接光源中的其余直接光源的视点渲染三维模型来生成第二图像,并从第二图像抽样至少一个间接光源。
27.如权利要求26所述的三维渲染设备,其中,渲染器还被配置为:通过将从第一图像和第二图像抽样的间接光源的间接照明效果应用于三维模型来渲染三维模型。
28.一种用于渲染三维模型的三维渲染方法,所述三维渲染方法包括:
从直接光源的各自的视点渲染三维模型;
从渲染的结果生成合成图像;
从合成图像抽样间接光源,
其中,生成的步骤包括:
确定直接光源之中的参考直接光源;
基于参考直接光源的视点,改变从不包括参考直接光源的其他直接光源的每个视点渲染的结果;
通过将从参考直接光源的视点渲染的结果与从所述其他直接光源的每个视点渲染的改变的结果进行组合,生成合成图像。
29.如权利要求28所述的三维渲染方法,其中,渲染三维模型的步骤产生包括匹配区域的场景,其中,所述场景包括分别从至少两个直接光源的各自的视点渲染的匹配区域;
生成合成图像的步骤包括:对包括匹配区域的场景进行组合来获得合成图像。
30.如权利要求28所述的三维渲染方法,其中,渲染三维模型的步骤产生分别从直接光源的各自的视点渲染的场景;
所述方法还包括:获得所述场景中的每个场景的场景信息;
生成合成图像的步骤包括:
基于场景信息识别所述场景中的匹配区域;
对包括匹配区域的场景进行组合来获得合成图像。
31.如权利要求30所述的三维渲染方法,其中,所述场景包括从直接光源的各自的视点中的每个视点渲染的与多个属性关联的场景;
识别匹配区域的步骤包括:仅基于所述多个属性中的一个属性来识别匹配区域。
32.如权利要求31所述的三维渲染方法,其中,对包括匹配区域的场景进行组合的步骤包括:根据仅基于所述多个属性中的一个属性识别出的匹配区域,对与所述多个属性中的所有属性关联的包括匹配区域的场景进行组合。
33.如权利要求31所述的三维渲染方法,其中,属性包括强度、法线、颜色、反射通量、位置和深度值中的任意两个或更多个。
34.如权利要求28所述的三维渲染方法,其中,抽样间接光源的步骤包括:仅从合成图像仅抽样一次间接光源。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0180315 | 2014-12-15 | ||
KR1020140180315A KR102292923B1 (ko) | 2014-12-15 | 2014-12-15 | 3d 렌더링 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701853A CN105701853A (zh) | 2016-06-22 |
CN105701853B true CN105701853B (zh) | 2019-09-24 |
Family
ID=54849552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510931834.9A Active CN105701853B (zh) | 2014-12-15 | 2015-12-15 | 3d渲染方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10297072B2 (zh) |
EP (1) | EP3035292B1 (zh) |
JP (1) | JP6600544B2 (zh) |
KR (1) | KR102292923B1 (zh) |
CN (1) | CN105701853B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6202118B2 (ja) * | 2016-03-09 | 2017-09-27 | 日本電気株式会社 | 描画装置、描画方法およびプログラム |
JP7175585B2 (ja) * | 2016-06-09 | 2022-11-21 | 大日本印刷株式会社 | ヒートシール性樹脂フィルムおよびその製造方法、積層体ならびに包装材料 |
WO2019028472A1 (en) * | 2017-08-04 | 2019-02-07 | Outward, Inc. | IMAGE PROCESSING TECHNIQUES BASED ON MACHINE LEARNING |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
US10235797B1 (en) * | 2017-11-27 | 2019-03-19 | Lowe's Companies, Inc. | Inverse rendering of visual material properties |
CN108063825B (zh) * | 2017-12-26 | 2020-11-20 | 三星电子(中国)研发中心 | 一种远程协助方法 |
CN111869330B (zh) * | 2018-02-27 | 2024-05-10 | 昕诺飞控股有限公司 | 基于一种或多种灯光设置渲染动态灯光场景 |
EP3846133A4 (en) * | 2018-08-30 | 2021-10-20 | Panasonic Intellectual Property Corporation of America | THREE-DIMENSIONAL DATA ENCODING PROCESS, THREE-DIMENSIONAL DATA DECODING PROCESS, THREE-DIMENSIONAL DATA ENCODING DEVICE, AND TRIDIMENSIONAL DATA DECODING DEVICE |
CN109857288A (zh) * | 2018-12-18 | 2019-06-07 | 维沃移动通信有限公司 | 一种显示方法及终端 |
US11361511B2 (en) * | 2019-01-24 | 2022-06-14 | Htc Corporation | Method, mixed reality system and recording medium for detecting real-world light source in mixed reality |
US11030800B2 (en) * | 2019-11-08 | 2021-06-08 | Chaos Software Ltd. | Rendering images using modified multiple importance sampling |
US11272164B1 (en) * | 2020-01-17 | 2022-03-08 | Amazon Technologies, Inc. | Data synthesis using three-dimensional modeling |
US11315310B2 (en) * | 2020-03-12 | 2022-04-26 | Nvidia Corporation | Reservoir-based spatiotemporal importance resampling utilizing a global illumination data structure |
CN112546626B (zh) * | 2020-12-09 | 2024-03-26 | 杭州电魂网络科技股份有限公司 | 结合灯光的物体显示方法、装置、电子设备和存储介质 |
US11922556B2 (en) * | 2021-04-12 | 2024-03-05 | Nvidia Corporation | Ray-traced light resampling using screen space visibility |
CN113538455B (zh) * | 2021-06-15 | 2023-12-12 | 聚好看科技股份有限公司 | 三维发型匹配方法及电子设备 |
KR102325647B1 (ko) * | 2021-08-04 | 2021-11-12 | 파이어슈라이크게임즈 주식회사 | 라이트맵 기반 모바일 게임의 3d 객체 데이터 처리 방법, 장치 및 시스템 |
CN116309974B (zh) * | 2022-12-21 | 2023-11-28 | 四川聚川诚名网络科技有限公司 | 一种动画场景渲染方法、系统、电子设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362822B1 (en) * | 1999-03-12 | 2002-03-26 | Terminal Reality, Inc. | Lighting and shadowing methods and arrangements for use in computer graphic simulations |
US8314797B1 (en) * | 2008-09-22 | 2012-11-20 | Adobe Systems Incorporated | Method and apparatus for irradiance computation in 3-D computer graphics |
CN103077552A (zh) * | 2012-12-27 | 2013-05-01 | 浙江大学 | 一种基于多视点视频的三维展示方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6639594B2 (en) | 2001-06-03 | 2003-10-28 | Microsoft Corporation | View-dependent image synthesis |
JP4464657B2 (ja) | 2002-11-12 | 2010-05-19 | パナソニック株式会社 | 曲面画像処理装置及び曲面画像処理方法 |
US20040257364A1 (en) * | 2003-06-18 | 2004-12-23 | Basler Gregory A. | Shadow casting within a virtual three-dimensional terrain model |
KR101249236B1 (ko) | 2005-01-12 | 2013-04-01 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 깊이 인식 |
US8223148B1 (en) | 2007-11-12 | 2012-07-17 | Adobe Systems Incorporated | Method and apparatus for computing indirect lighting for global illumination rendering in 3-D computer graphics |
KR100938889B1 (ko) | 2008-09-02 | 2010-01-27 | 엘지전자 주식회사 | 이미지 처리 시스템 및 이미지 처리 방법 |
KR101100650B1 (ko) | 2008-11-11 | 2012-01-03 | 한국전자통신연구원 | 맵데이터를 이용한 간접조명 표현과 다층 변위매핑 시스템 및 그 방법 |
KR100951121B1 (ko) | 2008-12-08 | 2010-04-07 | 서강대학교산학협력단 | 간접 조명 효과를 위한 렌더링 방법 |
KR101845225B1 (ko) * | 2011-06-30 | 2018-04-04 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
KR101334187B1 (ko) | 2011-07-25 | 2013-12-02 | 삼성전자주식회사 | 다시점 렌더링 장치 및 방법 |
KR101080508B1 (ko) | 2011-09-14 | 2011-11-04 | 인하대학교 산학협력단 | 다단계 점진적 포톤 매핑 방법 |
KR101399472B1 (ko) | 2012-08-13 | 2014-06-27 | (주)투비소프트 | 다중 프로세싱을 이용한 렌더링 처리 장치 및 방법 |
-
2014
- 2014-12-15 KR KR1020140180315A patent/KR102292923B1/ko active IP Right Grant
-
2015
- 2015-10-29 US US14/926,859 patent/US10297072B2/en active Active
- 2015-12-07 JP JP2015238716A patent/JP6600544B2/ja active Active
- 2015-12-11 EP EP15199614.7A patent/EP3035292B1/en active Active
- 2015-12-15 CN CN201510931834.9A patent/CN105701853B/zh active Active
-
2019
- 2019-04-08 US US16/377,474 patent/US20190236838A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362822B1 (en) * | 1999-03-12 | 2002-03-26 | Terminal Reality, Inc. | Lighting and shadowing methods and arrangements for use in computer graphic simulations |
US8314797B1 (en) * | 2008-09-22 | 2012-11-20 | Adobe Systems Incorporated | Method and apparatus for irradiance computation in 3-D computer graphics |
CN103077552A (zh) * | 2012-12-27 | 2013-05-01 | 浙江大学 | 一种基于多视点视频的三维展示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2016115347A (ja) | 2016-06-23 |
US20190236838A1 (en) | 2019-08-01 |
KR20160072547A (ko) | 2016-06-23 |
EP3035292A2 (en) | 2016-06-22 |
EP3035292A3 (en) | 2016-07-06 |
KR102292923B1 (ko) | 2021-08-24 |
US20160171753A1 (en) | 2016-06-16 |
JP6600544B2 (ja) | 2019-10-30 |
CN105701853A (zh) | 2016-06-22 |
EP3035292B1 (en) | 2020-03-18 |
US10297072B2 (en) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701853B (zh) | 3d渲染方法和设备 | |
Georgoulis et al. | Reflectance and natural illumination from single-material specular objects using deep learning | |
Li et al. | Physically-based editing of indoor scene lighting from a single image | |
CN102982577B (zh) | 用于图像处理的设备和方法 | |
CN101669146B (zh) | 使用摄像机和电视监视器的三维物体扫描 | |
CN107251098A (zh) | 使用动态三维形状促进真实对象的真三维虚拟表示 | |
US20140268160A1 (en) | Specular object scanner for measuring reflectance properties of objects | |
Gao et al. | Deferred neural lighting: free-viewpoint relighting from unstructured photographs | |
CN107644453B (zh) | 一种基于物理着色的渲染方法及系统 | |
Ley et al. | Syb3r: A realistic synthetic benchmark for 3d reconstruction from images | |
Dos Santos et al. | Real time ray tracing for augmented reality | |
CN109523619A (zh) | 一种通过多角度打光的图片生成3d材质贴图的方法 | |
Alhejri et al. | Reconstructing real object appearance with virtual materials using mobile augmented reality | |
Arents et al. | Synthetic data of randomly piled, similar objects for deep learning-based object detection | |
Wang et al. | Capturing and rendering geometry details for BTF-mapped surfaces | |
Bode et al. | Real-time multi-material reflectance reconstruction for large-scale scenes under uncontrolled illumination from rgb-d image sequences | |
Alfonso et al. | DyNeRFactor: Temporally consistent intrinsic scene decomposition for dynamic NeRFs | |
Alhakamy et al. | An empirical evaluation of the performance of real-time illumination approaches: realistic scenes in augmented reality | |
Mahmud et al. | Surrounding-aware screen-space-global-illumination using generative adversarial network | |
Al-Zoube | Web-Based augmented reality with natural feature tracking and advanced rendering | |
Ingebo | Generation and Evaluation of Realistic Training Image Data for Machine Learning-Based Crack Detection | |
Jiddi | Photometric registration of indoor real scenes using an RGB-D camera with application to mixed reality | |
Karlsson et al. | Rendering Realistic Augmented Objects Using a Image Based Lighting Approach | |
Fradet et al. | Light4AR: a Shadow-based Estimator of Multiple Light Sources in Interactive Time for More Photorealistic AR Experiences | |
Liu et al. | Global Tone: using tone to draw in Pen-and-Ink illustration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |