CN113989473B - 一种重新光照的方法和装置 - Google Patents
一种重新光照的方法和装置 Download PDFInfo
- Publication number
- CN113989473B CN113989473B CN202111587517.1A CN202111587517A CN113989473B CN 113989473 B CN113989473 B CN 113989473B CN 202111587517 A CN202111587517 A CN 202111587517A CN 113989473 B CN113989473 B CN 113989473B
- Authority
- CN
- China
- Prior art keywords
- image
- illumination
- map
- stereo
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000005286 illumination Methods 0.000 claims abstract description 80
- 238000003062 neural network model Methods 0.000 claims abstract description 32
- 238000013507 mapping Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 12
- 230000001537 neural effect Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 230000008447 perception Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 31
- 230000004927 fusion Effects 0.000 claims description 17
- 239000000463 material Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 10
- 238000009877 rendering Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供一种重新光照的方法和装置,包括:将拍摄源图像的实时数据传递给重新光照模块;所述重新光照模块对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图;结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新光照图像。该方法重新调整拍摄图片的光照,减少了外部环境光的影响,从而使得画面看起来更加真实。
Description
技术领域
本发明涉及影视制作领域,具体地涉及一种重新光照的方法和装置。
背景技术
图像融合技术与抠像技术是图像处理领域里两个不同的分支。其中图像无缝融合技术在图像编辑领域处于核心地位,它的目的是先将目标物体从一幅源图像中分离出来,然后将目标物体嵌入到目标图像中。图像的无缝融合技术的发展比较缓慢,现存的主流技术有以下三种:一种是Adobe Photoshop中使用的技术,此外还有两种算法。其中一种是通过构造拉普拉斯金字塔进行插值运算来融合两幅图像;另一种是泊松图像编辑技术,其已成为了近几年诸多融合算法的基础,它是通过解带有狄利克雷边界条件的泊松方程来实现颜色的无缝融合。该融合方法是先使用拉普拉斯有限差分公式把泊松方程离散化,再利用高斯塞德尔迭代解其最优值。这样不同的初始值、迭代次数以及引导梯度域就可以产生不同的融合效果。虽然泊松编辑的方法拥有简洁的表达式,且便于理解和计算,但是,这种算法的最大弱点是它需要依赖于用户手动来提取图像边缘,这要求用户即便对于很复杂的图像也要仔细地画出边缘,从而给用户带来了极大的不便。
发明内容
本发明实施例的目的是提供一种重新光照的方法和装置,
所述重新光照的方法重新调整拍摄图片的光照,减少了外部环境光的影响,从而使得画面看起来更加真实。
所述重新光照的方法包括:将拍摄源图像的实时数据传递给重新光照模块;所述重新光照模块对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图;结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新光照图像。
可选的,所述根据所述蒙版画面和AI神经网络模型确定图像立体模型,包括:根据所述蒙版画面和AI神经网络模型,确定立体深度图;通过AI神经网络模型对所述立体深度图去光照处理,得到无光照贴图的立体网格;校正所述立体深度图和所述立体网格,得到图像立体模型。
可选的,所述校正所述立体深度图和所述立体网格,用于保证像素深度在UV上显示一致。
可选的,所述结合所述光照贴图和所述图像立体模型确定初始贴图,包括:对所述图像立体模型进行多材质处理,得到初始贴图。
可选的,所述初始贴图至少包括基础光照贴图、色彩贴图、镜面反射贴图、阴影地面贴图、漫反射贴图;所述初始贴图的材质、尺寸与所述拍摄源图像的贴图相同。
可选的,所述融合所述初始贴图和所述蒙版画面得到重新调整光照的图像,包括:对所述初始贴图和所述蒙版画面进行alpha融合、高亮处理、机位融合处理。
可选的,所述位置信息为所述虚拟摄影机相对于所述拍摄源图像的距离。
可选的,所述实时数据至少包括:焦距、录制区域、空间信息、拍摄画面、光学畸变参数。
可选的,所述实时数据同时发送至重新光照模块和虚拟采集摄影机。
相应的,本发明实施例还提供一种重新光照的装置,其特征在于,包括:物理摄影机、重新光照单元、虚拟摄影机、虚拟采集相机及图像融合单元;所述物理摄影机用于获得拍摄源图像的实时数据;所述重新光照模块用于对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;虚拟摄影机用于根据所述实时数据进行确定位置信息,虚拟采集相机用于根据所述位置信息确定光照贴图;结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新调整光照的图像。
本发明提供的一种重新光照的方法,包括:将拍摄源图像的实时数据传递给重新光照模块;所述重新光照模块对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图;结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新调整光照的图像。该方法重新调整拍摄图片的光照,减少了外部环境光的影响,从而使得画面看起来更加真实。
本发明实施例的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明实施例,但并不构成对本发明实施例的限制。在附图中:
图1是本发明的一种重新光照的方法的流程示意图;
图2是本发明一种重新光照的装置的示意图;
图3是本发明的光源相对于平面的入射角度示意图。
具体实施方式
以下结合附图对本发明实施例的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明实施例,并不用于限制本发明实施例。本发明的重新光照的方法是数字信息与数字信息的融合,不依赖于实际空间和其他头显设备,该方法仅需计算机算力即可完成全部过程推理过程,投放于任意显示端。同时该方法是拟态后逐像素处理的结果,而不是对整体图像进行偏移或者ALPHA蒙版的处理,所述ALPHA并不起到着色或者阴影蒙版的作用。该算法不依赖于使用者的主观意识,而是依赖于真实世界光照物理法则,在该算法的还原光照下,任意数字图形信息,都可以准确的还原出光照结构,同时,该算法不依赖于引擎(光源)或者3D数字资产,对二维图像依然起作用。
图1是本发明的一种重新光照的方法的流程示意图,如图1所示,步骤S101为将拍摄源图像的实时数据传递给重新光照模块。所述实时数据至少包括:焦距、录制区域、空间信息、拍摄画面、光学畸变参数。其中,所述录制区域为有效传感器尺寸信息;所述空间信息包括但不限于位移、旋转、起始高度等。
步骤S102为所述重新光照模块对所述实时数据进行处理得到蒙版画面,属于画面切割。所述蒙版就是选框的外部(选框的内部就是选区),在进行图形处理时,我们常常需要保护一部分图像,以使它们不受各种处理操作的影响,蒙版就是这样的一种工具,它是一种灰度图像,其作用就像一张布,可以遮盖住处理区域中的一部分,当我们对处理区域内的整个图像进行模糊、上色等操作时,被蒙版遮盖起来的部分就不会受到改变。所述蒙版图像即为灰度图像。
步骤S103为根据所述蒙版画面和AI神经网络模型确定图像立体模型,属于拟态重建,包括:根据所述蒙版画面和AI神经网络模型,确定立体深度图;通过AI神经网络模型对所述立体深度图去光照处理,得到无光照贴图的立体网格,属于模型拟合;校正所述立体深度图和所述立体网格,得到图像立体模型。所述AI神经网络模型为基于感知神经训练的数据集。该数据集是依据于手动标记和自动监督而生成。
根据所述实时数据中的焦距和传感器尺寸及所述AI神经网络模型确定,获得物距深度像素图。
对所述物距像素图进行滤值得到图像立体深度图。将深度图再次带入所述AI神经网络模型,去除源图像的光照效果,建立均匀的无光照贴图,根据所述无光照贴图确定立体网格。
步骤S104为虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图,所述位置信息为空间位置。
对深度图和所述立体网格进行校正,使得像素深度在UV上的显示一致,得到图像立体模型,用于3Dlut色域的一致性和模糊估计的一致性。对所述图像立体模型进行多材质的处理,使得该模型分别具有不同粗糙度的光渲染贴图。其中当深度显示不一致时,本申请提出一种新的模糊笔触强度计算Nc,得出强度值后,模糊处理会按照该笔触进行高频抑出,从而将像素RGB模糊处理,将处理后的像素映射到对应的UV上。所述光渲染贴图即为光照贴图。
步骤S105为结合所述光照贴图和所述图像立体模型确定初始贴图,包括对所述图像立体模型进行多材质处理,得到初始贴图,即为不同粗糙度的光渲染贴图;结合所述光照贴图和所述光渲染贴图得到初始贴图。所述初始贴图至少包括基础光照贴图、色彩贴图、镜面反射贴图、阴影地面贴图、漫反射贴图,用于3Dlut色域的一致性;所述初始贴图的材质、尺寸与所述拍摄源图像的贴图相同。所述初始贴图用于照度点亮、漫反射、镜面反射、色彩融合、统一色偏及统一色域空间。
所述虚拟采集摄影机根据自身当前所在位置,即目标拍摄位置的起始画幅,对拍摄物体进行物距计算。计算的物距结果转换为一个圆形的圆心,从而获得一个点的在渲染引擎的坐标,并在此坐标下创建虚拟采集摄影机,该虚拟采集摄影机可以设置采集范围,包括全景、半全景、视场景等,该过程由于是图像之间的采集和编解码过程,所以不依赖于引擎(光源)或者3D数字资产,对任意二维图像(全景图或者图片、视频)依然起作用。
所述虚拟摄影机将位置信息与被摄物的关系储存为位置数据,并且将该数据与虚拟采集相机获得的光照贴图(HDRI)实时传递给所述图像立体模型,所述光照贴图在场景中实时变化,从而获得不同的贴图,即为所述初始贴图。
步骤S106为融合所述初始贴图和所述蒙版画面得到重新调整光照的图像,包括:对所述初始贴图和所述蒙版画面进行alpha融合、高亮处理、机位融合处理,上述处理方式应用计算机图形定位技术。所述实时数据同时发送至重新光照模块和虚拟采集摄影机。对于以上处理,我们提出获取光源的一种算法,用于采集虚拟引擎的环境光源图,包括:
将人物画像和光源放置于系统中的三维场景中,因此人物画像平面是有自身的中心坐标点和平面法线的和光源是有世界坐标的;根据人物画像的中心坐标点和人物画像的法向量以及光源的方向计算出光源与平面的夹角,图3是本发明的光源相对于平面的入射角度示意图,基于下面公式计算得到光源相对于平面的入射角度:
本发明对所述重新光照图像的深度d进行反模糊处理,用于统一前后图像。本发明实施例提供一种重新光照的方法和装置,针对于最领先的虚拟制作的流程痛点而研发,该发明从表层上看,统称为光照统一,从实际原理上,不同于AR,VR。该方法包括:将拍摄源图像的实时数据传递给重新光照模块;所述重新光照模块对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图;结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新光照图像。该方法是面向于最新的虚拟制作,也是国际最领先的关键技术之一,该技术在不仅仅单纯的融合图像或者色彩迁移,而是综合图像的拟态重建、画面切割、照度点亮、漫反射、镜面反射、色彩融合、色偏统一性,色域空间统一性、空间位置计算为一体的拟态交叉神经推理,简称重新光照。该方法重新调整拍摄图片的光照,减少了外部环境光的影响,从而使得画面看起来更加真实。
本申请中的整体算法除了传统的数学算法外,还引入了拟态交叉神经网络的形式,同时将3D(33×33)LUT色域考虑在呈像范围内,综合以上内容,结合计算机数字图形定位和模型拟合,进行全方位的光照点亮,从而实现传统拍摄流程下无法实现的效果。
图2是本发明一种重新光照的装置的示意图。所述重新光照的装置包括:物理摄影机、重新光照单元、虚拟摄影机、虚拟采集相机及图像融合单元。
如图2所示,所述物理摄影机用于获得拍摄源图像的实时数据;所述物理摄像机将采集的实时数据发送至重新光照模块和虚拟采集摄影机,所述实时数据至少包括:焦距、录制区域、空间信息、拍摄画面、光学畸变参数。
所述重新光照模块用于对所述实时数据进行处理得到蒙版画面;根据所述蒙版画面和AI神经网络模型确定图像立体模型包括:根据所述蒙版画面和AI神经网络模型,确定立体深度图;通过AI神经网络模型对所述立体深度图去光照处理,得到无光照贴图的立体网格;校正所述立体深度图和所述立体网格,得到图像立体模型。
虚拟摄影机用于根据所述实时数据进行确定位置信息,虚拟采集相机用于根据所述位置信息确定光照贴图,包括对所述图像立体模型进行多材质处理,得到初始贴图,即为不同粗糙度的光渲染贴图;结合所述光照贴图和所述光渲染贴图得到初始贴图。所述初始贴图至少包括基础光照贴图、色彩贴图、镜面反射贴图、阴影地面贴图、漫反射贴图;所述初始贴图的材质、尺寸与所述拍摄源图像的贴图相同。所述位置信息为所述虚拟摄影机相对于所述拍摄源图像的距离。
结合所述光照贴图和所述图像立体模型确定初始贴图;融合所述初始贴图和所述蒙版画面得到重新调整光照的图像,包括:对所述初始贴图和所述蒙版画面进行alpha融合、高亮处理、机位融合处理。
本发明的重新光照的方法通过对不同光照情况的图像的光照重新调整,减少了外部环境光的影响,从而使得画面看起来更加真实。
具体实施细节及效果可参考前述实施方式,在此则不再赘述。
以上结合附图详细描述了本发明实施例的可选实施方式,但是,本发明实施例并不限于上述实施方式中的具体细节,在本发明实施例的技术构思范围内,可以对本发明实施例的技术方案进行多种简单变型,这些简单变型均属于本发明实施例的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本发明实施例对各种可能的组合方式不再另行说明。
本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得单片机、芯片或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
此外,本发明实施例的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明实施例的思想,其同样应当视为本发明实施例所公开的内容。
Claims (8)
1.一种重新光照的方法,其特征在于,包括:
将拍摄源图像的实时数据传递给重新光照模块;
所述重新光照模块对所述实时数据进行处理得到蒙版画面;
根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;
虚拟采集摄影机根据所述实时数据进行确定位置信息,虚拟采集相机根据所述位置信息确定光照贴图;
结合所述光照贴图和所述图像立体模型确定初始贴图;
融合所述初始贴图和所述蒙版画面得到重新光照图像;
所述根据所述蒙版画面和AI神经网络模型确定图像立体模型,包括:
根据所述蒙版画面和AI神经网络模型,确定立体深度图;
通过AI神经网络模型对所述立体深度图去光照处理,得到无光照贴图的立体网格;
校正所述立体深度图和所述立体网格,得到图像立体模型;
所述校正所述立体深度图和所述立体网格,用于保证像素深度在UV上显示一致;
当像素深度显示不一致时,对像素RGB进行模糊处理,然后将处理后的像素RGB映射到对应的UV上;
所述对像素RGB进行模糊处理为对通道强度Nc消除高频噪音:
其中,ρ(Rc)为采用64x64的高斯滤波器;
所述实时数据同时发送至重新光照模块和虚拟采集摄影机,包括:所述虚拟采集摄影机采集虚拟光源的环境光源图;
其中,虚拟光源与人物画像的平面的夹角为:
其中,PosA(x,y,z)为虚拟光源坐标,PosB(x,y,z)为人物画像中心点。
2.根据权利要求1所述的方法,其特征在于,所述结合所述光照贴图和所述图像立体模型确定初始贴图,包括:
对所述图像立体模型进行多材质处理,得到初始贴图。
3.根据权利要求1所述的方法,其特征在于,
所述初始贴图至少包括基础光照贴图、色彩贴图、镜面反射贴图、阴影地面贴图、漫反射贴图;
所述初始贴图的材质、尺寸与所述拍摄源图像的贴图相同。
4.根据权利要求1所述的方法,其特征在于,所述融合所述初始贴图和所述蒙版画面得到重新光照图像,包括:
对所述初始贴图和所述蒙版画面进行alpha融合、高亮处理、机位融合处理。
5.根据权利要求1所述的方法,其特征在于,
所述位置信息为所述虚拟采集摄影机相对于所述拍摄源图像的距离。
6.根据权利要求1所述的方法,其特征在于,
所述实时数据至少包括:焦距、录制区域、空间信息、拍摄画面、光学畸变参数。
7.根据权利要求1所述的方法,其特征在于,
所述实时数据同时发送至重新光照模块和虚拟采集摄影机。
8.一种重新光照的装置,其特征在于,包括:
物理摄影机、重新光照单元、虚拟采集摄影机、虚拟采集相机及图像融合单元;
所述物理摄影机用于获得拍摄源图像的实时数据;
所述重新光照单元用于对所述实时数据进行处理得到蒙版画面;
根据所述蒙版画面和AI神经网络模型确定图像立体模型,所述AI神经网络模型为基于感知神经训练的数据集;
虚拟采集摄影机用于根据所述实时数据进行确定位置信息,虚拟采集相机用于根据所述位置信息确定光照贴图;
结合所述光照贴图和所述图像立体模型确定初始贴图;
融合所述初始贴图和所述蒙版画面得到重新光照图像;
所述根据所述蒙版画面和AI神经网络模型确定图像立体模型,包括:
根据所述蒙版画面和AI神经网络模型,确定立体深度图;
通过AI神经网络模型对所述立体深度图去光照处理,得到无光照贴图的立体网格;
校正所述立体深度图和所述立体网格,得到图像立体模型;
所述校正所述立体深度图和所述立体网格,用于保证像素深度在UV上显示一致;
当像素深度显示不一致时,对像素RGB进行模糊处理,然后将处理后的像素RGB映射到对应的UV上;
所述对像素RGB进行模糊处理为对通道强度Nc消除高频噪音:
其中,ρ(Rc)为采用64x64的高斯滤波器;
所述实时数据同时发送至重新光照单元和虚拟采集摄影机,包括:所述虚拟采集摄影机采集虚拟光源的环境光源图;
其中,虚拟光源与人物画像的平面的夹角为:
其中,PosA(x,y,z)为虚拟光源坐标,PosB(x,y,z)为人物画像中心点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111587517.1A CN113989473B (zh) | 2021-12-23 | 2021-12-23 | 一种重新光照的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111587517.1A CN113989473B (zh) | 2021-12-23 | 2021-12-23 | 一种重新光照的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113989473A CN113989473A (zh) | 2022-01-28 |
CN113989473B true CN113989473B (zh) | 2022-08-12 |
Family
ID=79734124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111587517.1A Active CN113989473B (zh) | 2021-12-23 | 2021-12-23 | 一种重新光照的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113989473B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965740B (zh) * | 2023-03-14 | 2023-05-12 | 北京天图万境科技有限公司 | 一种感知材质识别的光场重建的方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228507B (zh) * | 2016-07-11 | 2019-06-25 | 天津中科智能识别产业技术研究院有限公司 | 一种基于光场的深度图像处理方法 |
CN106485788B (zh) * | 2016-10-21 | 2019-02-19 | 重庆虚拟实境科技有限公司 | 一种游戏引擎混合现实拍摄方法 |
CN107231531A (zh) * | 2017-05-23 | 2017-10-03 | 青岛大学 | 一种网络虚拟现实技术与实拍结合影视制作系统 |
CN110033510B (zh) * | 2019-03-25 | 2023-01-31 | 创新先进技术有限公司 | 建立颜色映射关系用于校正渲染图像颜色的方法及装置 |
CN111951373B (zh) * | 2020-06-30 | 2024-02-13 | 重庆灵翎互娱科技有限公司 | 一种人脸图像的处理方法和设备 |
CN111862344B (zh) * | 2020-07-17 | 2024-03-08 | 抖音视界有限公司 | 图像处理方法、设备和存储介质 |
CN111882627B (zh) * | 2020-07-20 | 2024-08-20 | 广州市百果园信息技术有限公司 | 图像处理方法、视频处理方法、装置、设备和存储介质 |
CN112040092B (zh) * | 2020-09-08 | 2021-05-07 | 杭州时光坐标影视传媒股份有限公司 | 一种实时虚拟场景led拍摄系统及方法 |
CN112927341A (zh) * | 2021-04-02 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 光照渲染方法、装置、计算机设备和存储介质 |
CN113436343B (zh) * | 2021-06-21 | 2024-06-04 | 广州博冠信息科技有限公司 | 用于虚拟演播厅的画面生成方法及装置、介质及电子设备 |
-
2021
- 2021-12-23 CN CN202111587517.1A patent/CN113989473B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113989473A (zh) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10949978B2 (en) | Automatic background replacement for single-image and multi-view captures | |
KR100914845B1 (ko) | 다시점 영상 정보를 이용한 물체의 삼차원 형상복원 방법및 장치 | |
KR100603601B1 (ko) | 다시점 콘텐츠 생성 장치 및 그 방법 | |
CN111243071A (zh) | 实时三维人体重建的纹理渲染方法、系统、芯片、设备和介质 | |
CN113689540B (zh) | 基于rgb视频的物体重建方法和装置 | |
JPWO2019031259A1 (ja) | 画像処理装置および方法 | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
US11055900B1 (en) | Computer-generated image processing including volumetric scene reconstruction to replace a designated region | |
CN107862718B (zh) | 4d全息视频捕捉方法 | |
CN105488771B (zh) | 光场图像编辑方法及装置 | |
CN110276831B (zh) | 三维模型的建构方法和装置、设备、计算机可读存储介质 | |
US11328437B2 (en) | Method for emulating defocus of sharp rendered images | |
US11165957B2 (en) | Reconstruction of obscured views in captured imagery using user-selectable pixel replacement from secondary imagery | |
CN117278731B (zh) | 多视频与三维场景融合方法、装置、设备及存储介质 | |
CN109064533B (zh) | 一种3d漫游方法及系统 | |
CN113327316A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN113989473B (zh) | 一种重新光照的方法和装置 | |
CN116402943A (zh) | 基于符号距离场的室内三维重建方法和装置 | |
CN111447428A (zh) | 平面至立体图像的转换方法、装置、计算机可读存储介质及设备 | |
CN111243062A (zh) | 一种将平面壁画转化为立体高清数字壁画的制作方法 | |
CN113989434A (zh) | 一种人体三维重建方法及设备 | |
KR101566459B1 (ko) | 이미지 기반의 비주얼 헐에서의 오목 표면 모델링 | |
Liu et al. | Fog effect for photography using stereo vision | |
CN115578273A (zh) | 图像多帧融合的方法、装置、电子设备及存储介质 | |
JP2023153534A (ja) | 画像処理装置、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |