CN115205157B - 图像处理方法和系统、电子设备和存储介质 - Google Patents
图像处理方法和系统、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115205157B CN115205157B CN202210909445.6A CN202210909445A CN115205157B CN 115205157 B CN115205157 B CN 115205157B CN 202210909445 A CN202210909445 A CN 202210909445A CN 115205157 B CN115205157 B CN 115205157B
- Authority
- CN
- China
- Prior art keywords
- dynamic range
- panoramic
- image
- neural network
- high dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims abstract description 86
- 238000013507 mapping Methods 0.000 claims abstract description 43
- 238000005286 illumination Methods 0.000 claims abstract description 41
- 238000005516 engineering process Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 117
- 230000004913 activation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本公开实施例公开了一种图像处理方法和系统、电子设备和存储介质;其中,图像处理方法,包括:获取待处理的低动态范围全景图像;将低动态范围全景图像输入预先训练得到的神经网络,经神经网络输出高动态范围全景图像;其中,神经网络基于至少一组训练数据对训练得到,至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,低动态范围全景样本图像由高动态范围全景样本图像通过色调映射技术转化得到。利用本公开实施例的图像处理方法,可以从LDR全景图像中预测得到高频光照信息准确、且与输入LDR全景图像的细节一致的HDR全景图像。
Description
技术领域
本公开涉及图像处理技术领域,尤其是一种图像处理方法和系统、电子设备和存储介质。
背景技术
随着社会经济的不断发展,图像处理技术的应用也越发广泛,其中对高动态范围(HDR)全景图像的预测特别适用于混合现实或场景理解等应用场景。例如,可通过对真实场景进行HDR全景图像的预测,然后根据HDR全景图像为混合现实设备所呈现的虚拟空间中的对应场景设置光照参数(即,打光)。
相关技术中,对HDR全景图像的预测的方法主要包括根据低动态范围(LDR)非全景图像或LDR全景图像,预测HDR全景图像。其中,所述根据LDR全景图像预测HDR全景图像方案,主要预测参数化光照(例如,球谐光照),但是所述参数化光照的缺点是较难表示高频光照且缺乏细节;因此上述相关技术中的所述根据LDR全景图像预测HDR全景图像方案,至少存在如下问题:1)预测的HDR全景图像的高频光照信息不准确;2)输出的预测HDR全景图像与输入的LDR全景图像细节不一致。
因此,需要提供一种新的可根据LDR全景图像预测HDR全景图像的方案,以解决上述问题。
发明内容
本公开实施例提供一种图像处理方法和系统、电子设备和存储介质,可以从LDR全景图像中预测得到高频光照信息准确、且与输入LDR全景图像的细节一致的HDR全景图像。
本公开实施例的一个方面,提供一种图像处理方法,包括:获取待处理的低动态范围全景图像;将低动态范围全景图像输入预先训练得到的神经网络,经神经网络输出高动态范围全景图像;其中,神经网络基于至少一组训练数据对训练得到,至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,低动态范围全景样本图像由高动态范围全景样本图像通过色调映射技术转化得到。
本公开实施例的另一个方面,提供一种图像处理系统,包括:图像获取单元,被配置为:获取待处理的低动态范围全景图像;图像处理单元,被配置为:将低动态范围全景图像输入预先训练得到的神经网络,经神经网络输出高动态范围全景图像;其中,神经网络基于至少一组训练数据对训练得到,至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,低动态范围全景样本图像由高动态范围全景样本图像通过色调映射技术转化得到。
本公开实施例的又一个方面,提供一种电子设备,其中,包括:存储器,用于存储计算机程序;处理器,用于执行存储器中存储的计算机程序,且计算机程序被执行时,实现本公开图像处理方法。
本公开实施例的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现本公开图像处理方法。
基于本公开实施例的图像处理方法和系统、电子设备和存储介质,由于神经网络是利用包括HDR全景样本图像和LDR全景样本图像的训练数据对预先训练得到的,因此神经网络中的网络参数是匹配训练数据对的最优化网络参数,最优化网络参数刻画了神经网络将LDR全景样本图像转换成HDR全景样本图像所需的映射关系。从而神经网络可利用最优化网络参数,从输入的待处理的LDR全景图像中预测出高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致的HDR全景图像。
由此可知,应用本公开实施例的图像处理方法,直接将待处理的LDR全景图像输入神经网络,既可以得到对应的预测HDR全景图像,并且该预测HDR全景图像的高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是本公开的图像处理方法一个实施例的流程图;
图2是本公开的图像处理方法中关于所述神经网络训练的一个实施例的流程图;
图3是本公开的图像处理系统一个实施例的结构示意图;
图4是本公开的图像处理系统中关于所述神经网络训练的一个实施例的结构示意图;
图5是本公开的图像处理方法和/或系统中所述神经网络的一个实施例的结构图示意图;
图6是本公开的图像处理方法中一个示例性场景的低动态范围全景图;
图7是利用本公开所述图像处理方法,对图6所述低动态范围全景图进行处理,得到的在RGB空间下的高动态范围全景图;
图8是利用本公开所述图像处理方法,对图6所述低动态范围全景图进行处理,得到的在线性空间log10下的高动态范围全景图;
图9是本公开的图像处理方法中一个示例性场景的高动态范围全景样本图像;
图10是本公开电子设备一个应用实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或单元等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序单元)的一般语境下描述。通常,程序单元可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序单元可以位于包括存储设备的本地或远程计算系统存储介质上。
示例性方法
图1是本公开的图像处理方法一个实施例的流程图。如图1所示的方法包括步骤S110和S120。下面对各步骤分别进行说明。
S110、获取待处理的低动态范围(LDR)全景图像;
S120、将低动态范围全景图像输入预先训练得到的神经网络,经神经网络输出高动态范围(HDR)全景图像;其中,神经网络基于至少一组训练数据对训练得到,至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,低动态范围全景样本图像由高动态范围全景样本图像通过色调映射技术转化得到。
需要解释的是,“动态范围”用于定义图像采集装置可以在多大范围内捕捉图像的影调细节,通常指由最低值到最高溢出值之间的范围。简单地说,它描述的是图像采集装置在单帧内可以记录的最亮和最暗色调之间的比率。
LDR全景图像中每个像素的像素值的范围可以为[0,255];HDR全景图像中每个像素的像素值的范围可以为[0,+∞)。为便于计算,LDR全景图像中每个像素的像素值的范围可归一化为[0,1];HDR全景图像中每个像素的像素值的范围可归一化为[0,+∞)。
LDR全景图像可根据图像采集设备采集的多帧LDR非全景图进行图像融合处理得到。其中,图像采集设备包括但不限于例如照相机、手机等。
步骤S110的执行主体可与存储LDR全景图像的装置或单元通信,以实现对LDR全景图像的获取。
本公开实施例的图像处理方法中,由于神经网络是利用包括HDR全景样本图像和LDR全景样本图像的训练数据对预先训练得到的,因此神经网络中的网络参数是匹配训练数据对的最优化网络参数,最优化网络参数刻画了神经网络将LDR全景样本图像转换成HDR全景样本图像所需的映射关系。从而神经网络可利用最优化网络参数,从输入的待处理的LDR全景图像中预测出高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致的HDR全景图像。
由此可知,应用本公开实施例的图像处理方法,直接将待处理的LDR全景图像输入神经网络,既可以得到对应的预测HDR全景图像,并且该预测HDR全景图像的高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致。
在图1实施例的基础上,作为一个可选实施方式,参照图2,图像处理方法还包括训练得到神经网络的步骤S210~步骤S240:
S210、获取至少一组训练数据对。
在步骤S210中,本公开对HDR全景样本图像以及LDR全景样本图像的获取方式不做限定。
例如,可获取针对同一目标场景的多张对应不同曝光时间的LDR全景图像,然后将多帧对应不同曝光时间的LDR全景图像进行图像融合,得到HDR全景样本图像。之后,可采用色调映射技术对HDR全景样本图像的动态范围进行压缩,得到LDR全景样本图像(例如,图6)。其中,色调映射技术可包括全局色调映射方法或局部色调映射方法。
其中,HDR全景样本图像(例如,图9)可作为真值,用于与步骤S220中待训练神经网络输出的预测HDR全景图像进行比对,以实现监督训练。
另外,本公开对至少一组训练数据对的数量不做限定,例如可以为3000组。
S220、分别将每组训练数据对中的低动态范围全景样本图像输入待训练神经网络,经待训练神经网络输出对应的预测高动态范围全景图像。
S230、利用预设综合损失函数,基于每组训练数据对中的高动态范围全景样本图像和对应的预测高动态范围全景图像,获取综合损失函数的函数值。
在步骤S230中,可通过如下方式计算综合损失函数的函数值:
首先,基于每组训练数据对中的高动态范围全景样本图像和对应的预测高动态范围全景图像,分别计算监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值;然后,利用预设权重,对监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值进行加权融合,得到综合损失函数的函数值。
其中,本公开对监督损失函数、照度损失函数以及色调映射损失函数的预设权重的范围不作限定,可根据需求调整。例如,监督损失函数的预设权重的范围为0.7~0.9;照度损失函数的预设权重的范围为0.1~0.3;色调映射损失函数的预设权重的范围为0.1~0.3。
优选地,监督损失函数的预设权重可为0.8、照度损失函数的预设权重可为0.2,色调映射损失函数的预设权重可为0.2;基于此并结合以下将要描述的公式(1)~公式(4),可通过公式(5),对监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值进行加权融合,确定综合损失函数的函数值Lcom:
Lcom=0.8×Lhdr+0.2×Lirradiance+0.2×Ltm (5)
其中,Lhdr表示监督损失函数的函数值;Lirradiance、表示照度损失函数的函数值;Ltm、色调映射损失函数的函数值。
其中,作为一个可选示例,可通过如下公式(1),计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间对应的各像素点的像素值之差,作为监督损失函数的函数值;
其中,表示预测高动态范围全景图像;I表示高动态范围全景样本图像。
可以理解的是,利用如公式(1)的监督损失函数,可以对HDR全景样本图像以及预测HDR全景图像分别做像素级的逐点描述,从而实现原始光照的全景表示,进而在理论上可实现对低频光照和高频光照的表达,确保了监督信息的全面性,有利于待训练的神经网络可训练得到最优化网络参数。
作为另一个可选示例,可通过如下公式(2)和(3)计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间照度之差,作为照度损失函数的函数值;
其中,H+、ωi、n分别表示和I的半球方向、光照方向以及球面方向。
需要说明的是,公式(2)可用于:沿着HDR全景样本图像的半球方向,计算HDR全景样本图像的光照强度一次积分;类似地,将公式(2)中的I替换为可实现沿着预测HDR全景图像的半球方向,计算预测HDR全景图像的光照强度一次积分。
公式(3)可用于:首先,基于HDR全景样本图像的光照强度一次积分,沿着HDR全景样本图像的球面方向,计算HDR全景样本图像的光照强度二次积分,得到HDR全景样本图像的照度;其次,基于预测HDR全景图像的光照强度一次积分,沿着预测HDR全景图像的球面方向,计算预测HDR全景图像的光照强度二次积分,得到预测HDR全景图像的照度;最后,计算HDR全景样本图像的照度与预测HDR全景图像的照度之间的差值。
如上所述,利用如公式(2)~(3)的照度损失函数,可以对预测HDR全景图像的整个球面的照度进行估计,然后与HDR全景样本图像的照度进行差异性比对,从而可以提升待训练神经网络对低频光照的估计精度。
作为又一个可选示例,可通过如下公式(4)计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间对应的各像素点的在色调映射后的像素值之差,作为色调映射损失函数的函数值;
其中,表示预测高动态范围全景图像;I表示高动态范围全景样本图像。
需要解释的是,利用表达式中幂函数对I和执行色调映射,即分别对I和/>的动态范围进行压缩,得到的是对应的低动态范围图像,然后计算二者之间的像素值差异,即得到色调映射差异。
可选地,还可以先利用截断函数对I和的像素值进行截断,使其像素值范围落在[0,255]区间内(因为通常高动态范围全景图的像素值要远远大于255,但是对于现有的电子显示设备而言,像素值超过255是无法显示的),然后再执行色调映射损失函数Ltm的计算。
如上所述,利用如公式(4)的色调映射损失函数,通过比对预测高动态范围全景图像与高动态范围全景样本图像之间色调映射差异,可以提升待训练神经网络对高频光照的估计精度。
S240、基于综合损失函数的函数值,对待训练神经网络进行训练,直至满足预设训练完成条件,由待训练神经网络得到神经网络。
作为又一个可选示例,步骤S240可通过如下方式实现:首先,将综合损失函数的函数值反传给待训练神经网络;其次,待训练神经网络根据综合损失函数的函数值,调整各网络层的网络参数;最后,迭代步骤S230至调整各网络层的网络参数的步骤,直至满足预设训练完成条件。
为便于理解,上述步骤S210至步骤S240的整体训练流程,例如可以描述如下:
通过待训练神经网络对输入的LDR全景样本图像进行语义分割、特征图像提取以及特征图像融合,输出预测HDR全景图像;根据预测HDR全景图像与HDR全景样本图像在对应的至少一个像素点之间的差异,获取待训练神经网络的综合损失函数的函数值,基于综合损失函数的函数值对待训练神经网络进行训练,例如基于梯度更新训练方法,通过链式法则反传梯度,对待训练神经网络中各网络层参数的参数值进行调整,直至满足预设训练完成条件,例如,预测HDR全景图像与HDR全景样本图像在对应的至少一个像素点之间的差异小于预设差值、和/或对待训练神经网络的训练次数达到预设次数,得到训练好的神经网络。
本公开实施例对神经网络的结构不做限定,可根据需求调整。例如,神经网络可以是深度神经网络,例如卷积神经网络。
作为一个可选实施方式,神经网络为基于U-net和ResNet(Deep residualnetwork,深度残差网络)的神经网络。神经网络包括编码器、解码器和激活函数层,编码器、解码器和激活函数层依次级联连接,其中,编码器的输入端作为神经网络的输入端,激活函数层的输出端作为神经网络的输出端。其中,编码器主要用于对输入的LDR全景图像进行语义分割以及特征图像提取;解码器主要用于根据特征图像进行图像融合,从而得到预测HDR全景图像。激活函数层用于对解码器的输出结果进行非线性化处理以及值域限定,以使得神经网络的输出结果的值域趋于正无穷;激活函数层所应用的激活函数包括但不限于Leaky ReLU函数。
可选地,参照图5,编码器包括6组层级单元(即,图5中从左侧开始第1~6个),解码器包括7组层级单元(即,图5中从左侧开始第7~13个)。其中,一组层级单元包括一个卷积层以及连接在该一个卷积层后面的一个组归一化层;组归一化层的用于提升神经网络的收敛速度。
参照图5,编码器中的6组层级单元中的各个层级单元之间级联连接,形成第一级联结构;解码器中的7组层级单元中的各个层级单元之间级联连接,形成第二级联结构;第一级联结构的末尾一级与第二级联结构的第一级连接;第二级联结构中除末尾一级外,与第一级联结构对称;第一级联结构中的卷积层与第二级联结构中处于对称位置的卷积层跳跃连接,用于将第一级联结构中的卷积层输出的结果,直接发送给第二级联结构中处于对称位置的卷积层,以使得语义分割的精度大大提升。第一级联结构的第一级作为神经网络输入端;激活函数层连接于第二级联结构之后,作为神经网络的输出端。
参照图5,本公开实施例的神经网络中编码器(第一级联结构)以及解码器(第二级联结构)以及第一级联结构中的卷积层与第二级联结构中处于对称位置的卷积层跳跃连接,采用了U-net神经网络的结构,U-net神经网络的结构能通过少量的训练数据对,实现对像素点类别的预测,并且可以对像素点进行着色绘图,形成更复杂、严谨的判断。
本公开实施例的神经网络中激活函数层(图5中未示出)可采用ResNet神经网络结构中的非线性激活函数,使得网络拥有了一定的恒等映射能力,加强了网络各层之间梯度的相关性。
作为一可选示例,在图5示例中,第一级联结构中的层级单元按照从左到右的顺序,每个层级单元中卷积层的结构参数可分别为:i3-o64-k4-s2-g16,i64-o128-k4-s2-g16,i128-o256-k4-s2-g16,i256-o256-k4-s2-g16,i256-o512-k4-s2-g16,i512-o1024-k3-s1-g16。第二级联结构中的层级单元按照从左到右的顺序,每个层级单元中卷积层的结构参数可分别为:i1024-o512-k3-s1-g16,i1024-o256-k3-s1-g16,i512-o256-k3-s1-g16,i512-o128-k3-s1-g16,i256-o64-k3-s1-g16,i128-o64-k3-s1-g16,i64-o3-k3-s1。
需要解释的是,i表示输入通道,o表示输出通道,k表示卷积核大小,s表示卷积步长,g表示分组正则化的分组大小。基于此可以理解结构参数表示的意义。例如,结构参数i3-o64-k4-s2-g16表示的意义为:输入通道的数量为3个;输出通道的数量为64个,卷积核大小为4;卷积步长为2以及分组大小为16。其他结构参数的意义类似上述结构参数i3-o64-k4-s2-g16,这里不赘述。
图5中各层级单元中的数字表示的是卷积层的输出通道数量,具体地,在图5中从左侧向右,各层级单元中卷积层的输出通道数量分别为:64、128、256、256、512、1024、512、256、256、128、64、64、3。
综上,本公开实施例的图像处理方法中,由于神经网络是利用包括HDR全景样本图像和LDR全景样本图像的训练数据对预先训练得到的,因此神经网络中的网络参数是匹配训练数据对的最优化网络参数,最优化网络参数刻画了神经网络将LDR全景样本图像转换成HDR全景样本图像所需的映射关系。从而神经网络可利用最优化网络参数,从输入的待处理的LDR全景图像中预测出高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致的HDR全景图像。
由此可知,应用本公开实施例的图像处理方法,直接将待处理的LDR全景图像(例如,图6)输入神经网络,既可以得到对应的预测HDR全景图像(例如,图7或图8,其中,图7是RGB空间下的图像,图8是对图7进行线性空间log10缩放下的图像),另外,对比图8(作为预测HDR全景图像)与图9(作为HDR全景样本图像)可知,神经网络输出的图8无论在整体的低频光照(墙面,地面等)还是高频光照(灯泡,窗户)上都与图9非常接近;因此,预测HDR全景图像的高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致。
示例性系统
应理解,本文中前述实施例关于图像处理方法也可类似地应用于以下用于图像处理方法系统中进行类似扩展。为简化起见,未对其进行详细描述。
图3是本公开的图像处理系统一个实施例的结构示意图。如图3所示的图像处理系统图像获取单元310以及图像处理单元320。下面对各单元分别进行说明。
图像获取单元310,被配置为:获取待处理的低动态范围全景图像;图像处理单元320,被配置为:利用神经网络,将低动态范围全景图像输入预先训练得到的神经网络,经神经网络输出高动态范围全景图像;其中,神经网络基于至少一组训练数据对训练得到,至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,低动态范围全景样本图像由高动态范围全景样本图像通过色调映射技术转化得到。
可选地,图像处理系统还包括:训练数据获取单元410,被配置为:获取至少一组训练数据对;输入单元420,被配置为:分别将每组训练数据对中的低动态范围全景样本图像输入待训练神经网络,经待训练神经网络输出对应的预测高动态范围全景图像;损失函数值确定单元430,被配置为:利用预设综合损失函数,基于每组训练数据对中的高动态范围全景样本图像和对应的预测高动态范围全景图像,获取综合损失函数的函数值;训练执行单元440,被配置为:基于综合损失函数的函数值,对待训练神经网络进行训练,直至满足预设训练完成条件,由待训练神经网络得到神经网络。
可选地,损失函数值确定单元,被进一步配置为:基于每组训练数据对中的高动态范围全景样本图像和对应的预测高动态范围全景图像,分别计算监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值;利用预设权重,对监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值进行加权融合,得到综合损失函数的函数值。
可选地,损失函数值确定单元,被进一步配置为:
通过如下公式(1),计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间对应的各像素点的像素值之差,作为监督损失函数的函数值;
其中,表示对应的预测高动态范围全景图像;I表示高动态范围全景样本图像;
损失函数值确定单元,被进一步配置为:
通过如下公式(2)和(3),计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间照度之差,作为照度损失函数的函数值;
其中,H+、wi、n分别表示和I的半球方向、光照方向以及球面方向;
损失函数值确定单元,被进一步配置为:
通过如下公式(4),计算高动态范围全景样本图像和对应的预测高动态范围全景图像之间对应的各像素点在色调映射后的像素值之差,作为色调映射损失函数的函数值;
其中,表示预测高动态范围全景图像;I表示高动态范围全景样本图像。
可选地,损失函数值确定单元430,被进一步配置为:将综合损失函数的函数值反传给待训练神经网络;待训练神经网络根据综合损失函数的函数值,调整各网络层的网络参数;迭代获取综合损失函数的函数值的步骤至调整各网络层的网络参数的步骤,直至满足预设训练完成条件。
可选地,神经网络为基于U-net和/或ResNet的神经网络。
可选地,监督损失函数的预设权重的范围为0.7~0.9;照度损失函数的预设权重的范围为0.1~0.3;色调映射损失函数的预设权重的范围为0.1~0.3。
综上,本公开实施例的图像处理系统中,由于神经网络是利用包括HDR全景样本图像和LDR全景样本图像的训练数据对预先训练得到的,因此神经网络中的网络参数是匹配训练数据对的最优化网络参数,最优化网络参数刻画了神经网络将LDR全景样本图像转换成HDR全景样本图像所需的映射关系。从而神经网络可利用最优化网络参数,从输入的待处理的LDR全景图像中预测出高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致的HDR全景图像。
由此可知,应用本公开实施例的图像处理系统,直接将待处理的LDR全景图像(例如,图6)输入神经网络,既可以得到对应的预测HDR全景图像(例如,图7或图8,其中,图7是RGB空间下的图像,图8是对图7进行线性空间log10缩放下的图像),另外,对比图8(作为预测HDR全景图像)与图9(作为HDR全景样本图像)可知,神经网络输出的图8无论在整体的低频光照(墙面,地面等)还是高频光照(灯泡,窗户)上都与图9非常接近;因此,预测HDR全景图像的高频光照信息准确、且与输入的待处理的LDR全景图像的细节一致。
示例性电子设备
另外,本公开实施例还提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述的图像处理方法。
图10是本公开电子设备一个应用实施例的结构示意图。下面,参考图10来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
如图10所示,电子设备包括一个或多个处理器和存储器。
处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器可以运行所述程序指令,以实现上文所述的本公开的各个实施例的图像处理方法以及/或者其他期望的功能。
在一个示例中,电子设备还可以包括:输入装置和输出装置,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入设备还可以包括例如键盘、鼠标等等。
该输出装置可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图10中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的图像处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的图像处理方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (7)
1.一种图像处理方法,其特征在于,包括:
获取待处理的低动态范围全景图像;
将所述低动态范围全景图像输入预先训练得到的神经网络,经所述神经网络输出高动态范围全景图像;
其中,所述神经网络基于至少一组训练数据对训练得到,所述至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,所述低动态范围全景样本图像由所述高动态范围全景样本图像通过色调映射技术转化得到;
所述图像处理方法还包括训练得到所述神经网络的步骤:
获取所述至少一组训练数据对;
分别将所述每组训练数据对中的低动态范围全景样本图像输入待训练神经网络,经所述待训练神经网络输出对应的预测高动态范围全景图像;
基于所述每组训练数据对中的高动态范围全景样本图像和所述对应的预测高动态范围全景图像,分别计算监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值;利用预设权重,对所述监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值进行加权融合,得到综合损失函数的函数值;
基于所述综合损失函数的函数值,对所述待训练神经网络进行训练,直至满足预设训练完成条件,由所述待训练神经网络得到所述神经网络;
其中,通过如下公式(2)和(3),计算所述高动态范围全景样本图像和所述对应的预测高动态范围全景图像之间照度之差,作为所述照度损失函数的函数值;
其中,表示所述对应的预测高动态范围全景图像;I表示高动态范围全景样本图像;H+、ωi、n分别表示所述/>和I的半球方向、光照方向以及球面方向。
2.根据权利要求1所述的图像处理方法,其特征在于,所述基于所述每组训练数据对中的高动态范围全景样本图像和所述对应的预测高动态范围全景图像,计算监督损失函数的函数值,包括:
通过如下公式(1),计算所述高动态范围全景样本图像和所述对应的预测高动态范围全景图像之间对应的各像素点的像素值之差,作为所述监督损失函数的函数值;
所述基于所述每组训练数据对中的高动态范围全景样本图像和所述对应的预测高动态范围全景图像,计算色调映射损失函数的函数值,包括:
通过如下公式(4),计算所述高动态范围全景样本图像和所述对应的预测高动态范围全景图像之间对应的各像素点在色调映射后的像素值之差,作为所述色调映射损失函数的函数值;
3.根据权利要求1所述的图像处理方法,其特征在于,所述基于所述综合损失函数的函数值,对所述待训练神经网络进行训练,直至满足预设训练完成条件,包括:
将所述综合损失函数的函数值反传给所述待训练神经网络;
所述待训练神经网络根据所述综合损失函数的函数值,调整各网络层的网络参数;
迭代执行所述获取所述综合损失函数的函数值的步骤至所述调整各网络层的网络参数的步骤,直至满足预设训练完成条件。
4.根据权利要求1-3中任一所述的图像处理方法,其特征在于,所述神经网络为基于U-net和/或ResNet的神经网络。
5.根据权利要求2所述的图像处理方法,其特征在于,
所述监督损失函数的预设权重的范围为0.7~0.9;
所述照度损失函数的预设权重的范围为0.1~0.3;
所述色调映射损失函数的预设权重的范围为0.1~0.3。
6.一种图像处理系统,其特征在于,包括:
图像获取单元,被配置为:获取待处理的低动态范围全景图像;
图像处理单元,被配置为:将所述低动态范围全景图像输入预先训练得到的神经网络,经所述神经网络输出高动态范围全景图像;
其中,所述神经网络基于至少一组训练数据对训练得到,所述至少一组训练数据对中的每组训练数据对包括一张高动态范围全景样本图像和一张低动态范围全景样本图像,所述低动态范围全景样本图像由所述高动态范围全景样本图像通过色调映射技术转化得到;
其中,所述图像处理系统还包括:
训练数据获取单元,被配置为:获取所述至少一组训练数据对;
输入单元,被配置为:分别将所述每组训练数据对中的低动态范围全景样本图像输入待训练神经网络,经所述待训练神经网络输出对应的预测高动态范围全景图像;
损失函数值确定单元,被配置为:分别将所述每组训练数据对中的低动态范围全景样本图像输入待训练神经网络,经所述待训练神经网络输出对应的预测高动态范围全景图像;基于所述每组训练数据对中的高动态范围全景样本图像和所述对应的预测高动态范围全景图像,分别计算监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值;利用预设权重,对所述监督损失函数的函数值、照度损失函数的函数值以及色调映射损失函数的函数值进行加权融合,得到综合损失函数的函数值;其中,通过如下公式(2)和(3),计算所述高动态范围全景样本图像和所述对应的预测高动态范围全景图像之间照度之差,作为所述照度损失函数的函数值;
其中,表示对应的预测高动态范围全景图像;I表示高动态范围全景样本图像;H+、ωi、n分别表示所述/>和I的半球方向、光照方向以及球面方向;
训练执行单元,被配置为:基于所述综合损失函数的函数值,对所述待训练神经网络进行训练,直至满足预设训练完成条件,由所述待训练神经网络得到所述神经网络。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,实现上述权利要求1-5任一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909445.6A CN115205157B (zh) | 2022-07-29 | 2022-07-29 | 图像处理方法和系统、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909445.6A CN115205157B (zh) | 2022-07-29 | 2022-07-29 | 图像处理方法和系统、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115205157A CN115205157A (zh) | 2022-10-18 |
CN115205157B true CN115205157B (zh) | 2024-04-26 |
Family
ID=83586495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210909445.6A Active CN115205157B (zh) | 2022-07-29 | 2022-07-29 | 图像处理方法和系统、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205157B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115294263B (zh) * | 2022-10-08 | 2023-02-03 | 武汉大学 | 一种光照估计方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104065939A (zh) * | 2014-06-20 | 2014-09-24 | 深圳市大疆创新科技有限公司 | Hdri的生成方法及装置 |
CN105787892A (zh) * | 2016-02-22 | 2016-07-20 | 浙江传媒学院 | 一种基于机器学习的蒙特卡洛噪声去除方法 |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合系统 |
CN110796595A (zh) * | 2019-10-31 | 2020-02-14 | 北京大学深圳研究生院 | 一种色调映射方法、装置及电子设备 |
CN111951171A (zh) * | 2019-05-16 | 2020-11-17 | 武汉Tcl集团工业研究院有限公司 | Hdr图像生成方法、装置、可读存储介质及终端设备 |
CN114581316A (zh) * | 2022-01-13 | 2022-06-03 | 北京旷视科技有限公司 | 图像重建方法、电子设备、存储介质及程序产品 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10430978B2 (en) * | 2017-03-02 | 2019-10-01 | Adobe Inc. | Editing digital images utilizing a neural network with an in-network rendering layer |
WO2019112085A1 (en) * | 2017-12-06 | 2019-06-13 | Korea Advanced Institute Of Science And Technology | Method and apparatus for inverse tone mapping |
US20220051375A1 (en) * | 2019-03-18 | 2022-02-17 | Peking University Shenzhen Graduate School | An inverse tone mapping method, system, device and computer readable medium |
-
2022
- 2022-07-29 CN CN202210909445.6A patent/CN115205157B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104065939A (zh) * | 2014-06-20 | 2014-09-24 | 深圳市大疆创新科技有限公司 | Hdri的生成方法及装置 |
CN105787892A (zh) * | 2016-02-22 | 2016-07-20 | 浙江传媒学院 | 一种基于机器学习的蒙特卡洛噪声去除方法 |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合系统 |
CN111951171A (zh) * | 2019-05-16 | 2020-11-17 | 武汉Tcl集团工业研究院有限公司 | Hdr图像生成方法、装置、可读存储介质及终端设备 |
CN110796595A (zh) * | 2019-10-31 | 2020-02-14 | 北京大学深圳研究生院 | 一种色调映射方法、装置及电子设备 |
CN114581316A (zh) * | 2022-01-13 | 2022-06-03 | 北京旷视科技有限公司 | 图像重建方法、电子设备、存储介质及程序产品 |
Non-Patent Citations (3)
Title |
---|
HDR-cGAN: Single LDR to HDR Image Translation using Conditional GAN;Prarabdh Raipurkar 等;《arXiv:2110.0166v0v2》;全文 * |
基于卷积神经网络的 LDR 图像重建 HDR 图像的方法研究;陈文 等;《包装工程》;全文 * |
基于纯平移两视图几何的镜头畸变参数标定;刘阳 等;《光学精密工程》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115205157A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Al‐Ameen | Nighttime image enhancement using a new illumination boost algorithm | |
CN113066017B (zh) | 一种图像增强方法、模型训练方法及设备 | |
US20210004962A1 (en) | Generating effects on images using disparity guided salient object detection | |
WO2023040510A1 (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN111311532B (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN112598597A (zh) | 一种降噪模型的训练方法及相关装置 | |
CN110211017B (zh) | 图像处理方法、装置及电子设备 | |
CN110991373A (zh) | 图像处理方法、装置、电子设备及介质 | |
CN112614110A (zh) | 评估图像质量的方法、装置及终端设备 | |
CN115205157B (zh) | 图像处理方法和系统、电子设备和存储介质 | |
CN113962859A (zh) | 一种全景图生成方法、装置、设备及介质 | |
CN113781370A (zh) | 图像的增强方法、装置和电子设备 | |
CN113066020A (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
Song et al. | Naturalness index for a tone-mapped high dynamic range image | |
CN117151987A (zh) | 一种图像增强方法、装置及电子设备 | |
Yu et al. | LBP‐based progressive feature aggregation network for low‐light image enhancement | |
Huang et al. | Edge device-based real-time implementation of CycleGAN for the colorization of infrared video | |
CN112927200B (zh) | 本征图像分解方法、装置、可读存储介质及电子设备 | |
CN116258651A (zh) | 一种图像处理方法及相关装置 | |
CN115471672A (zh) | 图像处理方法、电子设备、存储介质及程序产品 | |
US10321164B2 (en) | System and method for improving graphics and other signal results through signal transformation and application of dithering | |
CN115375909A (zh) | 一种图像处理方法及装置 | |
Gong et al. | Attention-guided network with hierarchical global priors for low-light image enhancement | |
CN113205530A (zh) | 阴影区域处理方法及装置、计算机可读介质和电子设备 | |
CN112991148A (zh) | 风格图像生成方法、模型的训练方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |