CN111383165B - 一种图像处理方法、系统及存储介质 - Google Patents
一种图像处理方法、系统及存储介质 Download PDFInfo
- Publication number
- CN111383165B CN111383165B CN201811640834.3A CN201811640834A CN111383165B CN 111383165 B CN111383165 B CN 111383165B CN 201811640834 A CN201811640834 A CN 201811640834A CN 111383165 B CN111383165 B CN 111383165B
- Authority
- CN
- China
- Prior art keywords
- loss
- image
- style
- sample
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000006243 chemical reaction Methods 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 230000006872 improvement Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 65
- 239000011159 matrix material Substances 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种图像处理方法、系统及存储介质,通过将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中,组合成改进风格损失函数;将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型,利用训练后的图像转换网络模型进行图像处理,得到转换后的生成图像。本发明所述提供的方法及系统,由于在风格损失函数中增加了亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量,增加风格转换后图像的风格一致性和内容一致性,从而提升图像处理的质量,为用户呈现风格更加贴近风格图像的生成图像。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及的是一种图像处理方法、系统及存储介质。
背景技术
随着人工智能技术的发展,图片转换技术可以通过神经网络分离图片的内容与风格,然后再重建内容图片与风格图片,使图片的语义内容能与不同的艺术风格结合起来,展现出不同的魅力。
2016年,斯坦福大学的Justin Johnson在论文《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》中提出了一种利用前向网络进行图像风格化的算法,其算法流程如图1所示。第一步是将一张图片输入图像转换网络中得到一张生成图像y*,输入的图像X可以是随机高斯白噪声图像,也可以是内容图像。第二步就是将生成图像分别与内容图像和风格图像做内容损失、风格损失,然后将总损失不断迭代到最小来训练图像转换网络,最后就会得到一个训练好的前向生成网络。在测试阶段,只需输入一张原始内容图像,风格转换网络就会生成一张风格化图像,因此风格迁移实现了实时效果。
内容图像和风格图像的判别在整个系统中起着决定性的作用。如何准确的评估内容和风格的差异性,决定了整个网络的性能。在上述传统的两种图像处理算法中,内容图像和风格图像与生成图像的损失函数都是通过某些针对图像分类或者检测问题提出的模型结构来构造的,比如VGG网络计算。而VGG网络是用来做imagenet比赛中的图像分类问题,图像分类问题主要关注的问题是物体整体结构及形状,比如一张图片里有一个杯子,卷积神经网络若需检测出这个物体是杯子,着重会关注杯子整体结构和形状,而非这个杯子是什么颜色及这张图片的亮度信息、对比度信息等等。而图像处理算法来讲,图片的颜色信息、结构信息、对比度信息、亮度信息非常重要,因此只用VGG网络计算风格图与生成图之间的损失函数不够的。因此若需要不仅考虑物体整体结构及形状,还考虑图片的亮度、对比度等信息时,则现有技术中的VGG网络不能满足要求。
因此,现有技术有待于进一步的改进。
发明内容
鉴于上述现有技术中的不足之处,本发明的目的在于提供一种图像处理方法、系统及存储介质,克服现有技术中使用的方法中因为仅仅考虑到物体整体结构及形状,缺少对图像的颜色特征、亮度和对比度的相关信息的参量,从而导致迁移后的图像不能满足的缺陷。
本发明公开的第一实施例为一种图像处理方法,其中,包括:
将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像;
所述图像转换网络模型的损失函数中包含:改进风格损失函数;
所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中组合而成。
可选的,所述方法还包括:
将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中,组合成改进风格损失函数;
将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型。
可选的,所述将所述改进风格损失函数与内容损失函数相结合对所述图像转换网络模型进行训练的步骤还包括:
将样本内容图像和样本风格图像输入到图像转换网络模型中,得到样本生成图像;
根据所述样本生成图像分别与样本内容图像和样本风格图像进行比对,计算出内容损失值和风格损失值,并将内容损失值和风格损失值相结合得到总损失值;
根据总损失值,调整图像转换网络模型的输入参数,对所述图像转换网络模型进行训练。
可选的,所述风格损失函数为:VGG16网络模型的风格损失函数。
可选的,所述亮度损失参量的计算方法为:
将样本生成图像的所有像素值的平均值与样本风格图像的所有像素值的平均值的乘积与两者的平方和相结合,进行亮度损失的值的计算,得到亮度损失值。
可选的,所述对比度损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所有像素值的方差的乘积与两者的平方和相结合,进行对比度损失的计算,得到对比度损失值。
可选的,所述结构损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所有像素值的协方差与两者的乘积相结合,进行结构损失的计算,得到结构损失值。
可选的,所述颜色损失参量的计算方法为:
分别将样本生成图像和样本风格图像的像素数据信息由RGB变成YUV;
提取YUV数据信息中的色度值,并根据分别提出的色度值进行颜色损失参量的计算,得到颜色损失值。
本发明所提供的第二实施例为一种图像处理系统,其中,包括:
图像风格转换模块,用于将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像;
所述图像转换网络模型的损失函数中包含:改进风格损失函数;
所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中组合而成。
本发明所提供的第三实施例为一种存储介质,其中,包括:所述存储介质上存储有图像处理的控制程序,所述图像处理的控制程序被处理器执行时实现所述的图像处理方法的步骤。
有益效果,本发明提供了一种图像处理方法、系统及存储介质,通过将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中,组合成改进风格损失函数;将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型,利用训练后的图像转换网络模型进行图像处理,得到转换后的生成图像。本发明所述提供的方法及系统,由于在风格损失函数中增加了亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量,增加风格转换后图像的风格一致性和内容一致性,从而提升图像处理的质量,为用户呈现风格更加贴近风格图像的生成图像。
附图说明
图1是现有技术中图像处理方法的步骤流程图;
图2是本发明所述方法中图像处理的步骤流程图;
图3是本发明所述方法的具体实施例的步骤流程图;
图4是本发明所提供的图像处理系统的原理示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
本发明公开的第一实施例为一种图像处理方法,如图2所述,包括:
步骤S1、将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像。
所述图像转换网络模型的损失函数中包含:改进风格损失函数;
所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中组合而成。
为了实现上述步骤中所使用的图像转换网络模型,所述方法还包括:
将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中,组合成改进风格损失函数;
将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型;
使用训练后的图像转换网络模型进行图像风格转换。
进一步的,所述将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练的步骤还包括:
将样本内容图像和样本风格图像输入到图像转换网络模型中,得到样本生成图像;
根据所述样本生成图像分别与样本内容图像和样本风格图像进行比对,计算出内容损失值和风格损失值,并将内容损失值和风格损失值相结合得到总损失值;
根据总损失值,调整图像转换网络模型的输入参数,对所述图像转换网络模型进行训练。
上述图像转换网络模型的训练步骤中,通过使用样本内容图像和样本风格图像输入到预设置的卷积神经网络结构的图像转换网络模型中,得到风格转换后的样本生成图像,则根据样本生成图像与样本内容图像之间的差别计算出内容损失值,根据样本生成图像与风格图像之间的差别计算出风格损失值,从而得到总的损失值。根据总的损失值对图像转换网络模型进行迭代至最小值,得到样本生成图,并将最小值所对应的得到的图像转换网络模型作为训练后的图像转换网络模型。
具体的,上述步骤中所述图像转换网络模型所使用的改进风格损失函数包括:内容损失函数和风格损失函数,而风格损失函数包括:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数,通过将上述参量加入到风格损失函数中,得到风格迁移呈现效果更佳的生成图。
下面结合图3所示,对本发明所述方法的具体应用实施例做更为详细的说明。
首先新定义风格损失函数,将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量加入风格损失函数,组成新的风格损失函数;
其次,输入样本图像(包括内容图像和风格图像两个图像)到图像转换网络fw,图像转换网络输出样本生成图像,通过内容图像和风格图像与生成图像进行比较,分别得到内容损失和风格损失值,从而得到总损失值,并根据总损失值对图像转换网络进行训练,直到总损失值最小为止。
最后,输入图像X至图像转换网络,得到生成图像y*。
具体的,改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量添加到现有技术中的风格损失函数而成。
其中,现有技术中的所述风格损失函数为:VGG16网络模型的风格损失函数。
具体的,所述亮度损失参量的计算方法为:
将样本生成图像的所有像素值的平均值与样本风格图像的所述像素值的平均值的乘积与两者的平方和相结合,进行亮度损失的值的计算,得到亮度损失值。
具体的,所述对比度损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所述像素值的方差的乘积与两者的平方和相结合,进行对比度损失的计算,得到对比度损失值。
具体的,所述结构损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所述像素值的协方差与两者的乘积相结合,进行结构损失的计算,得到结构损失值。
具体的,所述颜色损失参量的计算方法为:
分别将样本生成图像和样本风格图像的像素数据信息由RGB变成YUV;
提取YUV数据信息中的色度值,并根据分别提出的色度值进行颜色损失参量的计算,得到颜色损失值。
本发明的损失函数的定义为:
Total_loss=a×loss_VGG+b*loss_constrast+c*loss_lum+d*loss_structure+e*loss_color
其中,a,b,c,d,e是每个loss的权重值。loss_VGG是传承了之前神经网络框架中基于VGG结构网络的损失函数。loss_constrast,loss_lum,loss_structure和loss_color是用来衡量两张图像contrast,亮度,结构和颜色上的差异信息的。
其中loss_VGG的计算方法与原算法保持一致,利用VGG16网络relu1_2,relu2_2,relu3_3和relu4_3层的特征图的Gram矩阵与原图的特征图的Gram矩阵对比计算求得目标风格损失值,定义如下:
其中ys, y*分别代表风格图像和生成图像,wl代表了各个卷积层的权重,El代表了各个卷积层的风格代价,Gij表示风格图在每个卷积层的Gram矩阵计算方法,Fik,Fjk代表了对应图片在该卷积层的输出值,El中的Nl,Ml对应卷积层的缩放系数,El中的Gij代表了风格图在对应层的Gram矩阵,Aij代表了生成图在对应卷积层的Gram矩阵。
在SSIM中,两图像亮度差异判别公式为:
两图像对比度部分差异判别公式为:
两图像结构部分差异判别公式为:
其中ys,y*分别代表风格图与生成图像,它们的SSIM始终小于1;1表示完全相似。其中、/>是图像块所有像素的平均值,/>、/>是图像像素值的方差,/>是风格图像与生成图像的协方差。C1、C2、C3为常数,是为了避免分母为0而维持稳定。通常取C1=(K1*L)^2, C2=(K2*L)^2, C3=C2/2, 一般地K1=0.01, K2=0.03, L=255( 是像素值的动态范围,一般都取为255)。
基于以上对对比度,亮度和结构的差异定义,我们定义了相应部分的损失函数如下,
loss_contrast = -c(ys,y*)
loss_lum = -l(ys,y*)
loss_structure = -s(ys,y*)
同时,颜色信息也是判别风格的重要部分。为了求得图像颜色信息,我们先把图像由RGB变成YUV,在YUV中U、V包含了颜色信息,所以将loss_color=
其中,ys(U) 代表了ys图像在U domain上的图像特征图。ys(V)y*(U)y*(V)的定义以此类推。VGG(ys(Ui))代表了用VGG 提取ys(U)得到的特征向量的第i位值。N是VGG(ys(U))的向量长度。
实施例2
本发明所提供的第二实施例为一种图像处理系统,如图4,包括:
图像风格转换模块410,用于将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像;其功能如图1所述。
所述图像转换网络模型的损失函数中包含:改进风格损失函数;
所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中组合而成。
所述系统可以安装到图像处理装置上,实现上述图像处理的功能。
可以想到的是,所述系统还包括:模型训练模块,用于对图像风格转换网络模型进行训练。
具体的,所述模型训练模块,包括:风格改进单元和模型训练单元;
所述风格改进单元,用于将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中,组合成改进风格损失函数;
所述模型训练单元,用于将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型。
所述模型训练单元包括:样本生成图像子单元、损失值获取子单元和迭代子单元;
所述样本生成图像子单元,用于将样本内容图像和样本风格图像输入到图像转换网络模型中,得到样本生成图像;
所述损失值获取子单元,用于根据所述样本生成图像分别与样本内容图像和样本风格图像进行比对,计算出内容损失值和风格损失值,并将内容损失值和风格损失值相结合得到总损失值;
所述迭代子单元,用于根据总损失值,调整图像转换网络模型的输入参数,对所述图像转换网络模型进行训练。
实施例3
本发明所提供的第三实施例为一种存储介质,其中,包括:所述存储介质上存储有图像处理的控制程序,所述图像处理的控制程序被处理器执行时实现所述的图像处理方法的步骤。
存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储工业设备管理方法使用或接收的数据等。此外,存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
上述计算机设备可执行本发明实施例所提供的方法,具备执行该方法相应的功能模块和得到相应的有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
有益效果,本发明提供了一种图像处理方法、系统及存储介质,通过将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中一个或多个加入到风格损失函数中,组合成改进风格损失函数;将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练,得到训练后的图像转换网络模型,利用训练后的图像转换网络模型进行图像处理,得到转换后的生成图像。本发明所述提供的方法及系统,由于在风格损失函数中增加了亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量,增加风格转换后图像的风格一致性和内容一致性,从而提升图像处理的质量,为用户呈现风格更加贴近风格图像的生成图像。
可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及其发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。
Claims (7)
1.一种图像处理方法,其特征在于,包括:
将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像;所述图像转换网络模型的损失函数中包含:改进风格损失函数;所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中组合而成;
所述方法还包括:
将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中,组合成改进风格损失函数;
将样本内容图像和样本风格图像输入图像转换网络模型,得到样本生成图像;根据所述样本生成图像和样本内容图像的像素值分别计算得到所述亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一种或多种;
所述亮度损失参量的计算方法为:
将样本生成图像的所有像素值的平均值与样本风格图像的所有像素值的平均值的乘积与两者的平方和相结合,进行亮度损失的值的计算,得到亮度损失值;
所述对比度损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所有像素值的方差的乘积与两者的平方和相结合,进行对比度损失的计算,得到对比度损失值;
所述结构损失参量的计算方法为:
将样本风格图像和生成图像的所有像素值的协方差与样本生成图像所有像素值的方差、样本风格图像所有像素值的方差的乘积相结合,进行结构损失的计算,得到结构损失值。
2.根据权利要求1所述的图像处理方法,其特征在于,所述将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中,组合成改进风格损失函数的步骤之后,还包括:
将所述改进风格损失函数与内容损失函数相结合对所述图像转换网络模型进行训练,得到训练后的所述图像转换网络模型。
3.根据权利要求2所述的图像处理方法,其特征在于,所述将所述改进风格损失函数与内容损失函数相结合对图像转换网络模型进行训练的步骤还包括:
将样本内容图像和样本风格图像输入到图像转换网络模型中,得到样本生成图像;
根据所述样本生成图像分别与样本内容图像和样本风格图像进行比对,计算出内容损失值和风格损失值,并将内容损失值和风格损失值相结合得到总损失值;
根据总损失值,调整图像转换网络模型的输入参数,对所述图像转换网络模型进行训练。
4.根据权利要求1所述的图像处理方法,其特征在于,所述风格损失函数为:VGG16网络模型的风格损失函数。
5.根据权利要求1所述的图像处理方法,其特征在于,所述颜色损失参量的计算方法为:
分别将样本生成图像和样本风格图像的像素数据信息由RGB变成YUV;
提取YUV数据信息中的色度值,并根据分别提出的色度值进行颜色损失参量的计算,得到颜色损失值。
6.一种图像处理系统,其特征在于,包括:
图像风格转换模块,用于将内容图像和风格图像输入图像转换网络模型进行图像风格转换,得到风格转换后的生成图像;
所述图像转换网络模型的损失函数中包含:改进风格损失函数;
所述改进风格损失函数由:亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中组合而成;
将亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一个或多个加入到风格损失函数中,组合成改进风格损失函数;
将样本内容图像和样本风格图像输入图像转换网络模型,得到样本生成图像;根据所述样本生成图像和样本内容图像的像素值分别计算得到所述亮度损失参量、对比度损失参量、颜色损失参量和结构损失参量中的一种或多种;
所述亮度损失参量的计算方法为:
将样本生成图像的所有像素值的平均值与样本风格图像的所有像素值的平均值的乘积与两者的平方和相结合,进行亮度损失的值的计算,得到亮度损失值;
所述对比度损失参量的计算方法为:
将样本生成图像的所有像素值的方差与样本风格图像的所有像素值的方差的乘积与两者的平方和相结合,进行对比度损失的计算,得到对比度损失值;
所述结构损失参量的计算方法为:
将样本风格图像和生成图像的所有像素值的协方差与样本生成图像所有像素值的方差、样本风格图像所有像素值的方差的乘积相结合,进行结构损失的计算,得到结构损失值。
7.一种存储介质,其特征在于,包括:所述存储介质上存储有图像处理的控制程序,所述图像处理的控制程序被处理器执行时实现如权利要求1至5中任一项所述的图像处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811640834.3A CN111383165B (zh) | 2018-12-29 | 2018-12-29 | 一种图像处理方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811640834.3A CN111383165B (zh) | 2018-12-29 | 2018-12-29 | 一种图像处理方法、系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111383165A CN111383165A (zh) | 2020-07-07 |
CN111383165B true CN111383165B (zh) | 2024-04-16 |
Family
ID=71216719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811640834.3A Active CN111383165B (zh) | 2018-12-29 | 2018-12-29 | 一种图像处理方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383165B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
CN106886975A (zh) * | 2016-11-29 | 2017-06-23 | 华南理工大学 | 一种可实时运行的图像风格化方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN108875766A (zh) * | 2017-11-29 | 2018-11-23 | 北京旷视科技有限公司 | 图像处理的方法、装置、系统及计算机存储介质 |
CN108961198A (zh) * | 2018-07-09 | 2018-12-07 | 中国海洋大学 | 一种多风格生成对抗网络的水下图像合成方法及其应用 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565757B2 (en) * | 2017-06-09 | 2020-02-18 | Adobe Inc. | Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images |
-
2018
- 2018-12-29 CN CN201811640834.3A patent/CN111383165B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886975A (zh) * | 2016-11-29 | 2017-06-23 | 华南理工大学 | 一种可实时运行的图像风格化方法 |
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN108875766A (zh) * | 2017-11-29 | 2018-11-23 | 北京旷视科技有限公司 | 图像处理的方法、装置、系统及计算机存储介质 |
CN108961198A (zh) * | 2018-07-09 | 2018-12-07 | 中国海洋大学 | 一种多风格生成对抗网络的水下图像合成方法及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN111383165A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A closed-form solution to photorealistic image stylization | |
CN106778928B (zh) | 图像处理方法及装置 | |
US10600171B2 (en) | Image-blending via alignment or photometric adjustments computed by a neural network | |
CN111242841B (zh) | 一种基于语义分割和深度学习的图片背景风格迁移方法 | |
US9953425B2 (en) | Learning image categorization using related attributes | |
US20160035078A1 (en) | Image assessment using deep convolutional neural networks | |
CN111242844B (zh) | 图像处理方法、装置、服务器和存储介质 | |
CN111667399A (zh) | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 | |
WO2020073758A1 (en) | Method and apparatus for training machine learning modle, apparatus for video style transfer | |
US20220076385A1 (en) | Methods and systems for denoising media using contextual information of the media | |
CN107506792B (zh) | 一种半监督的显著对象检测方法 | |
CN111274981B (zh) | 目标检测网络构建方法及装置、目标检测方法 | |
Yan et al. | Enhanced network optimized generative adversarial network for image enhancement | |
CN112132145B (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 | |
KR20090065204A (ko) | 모바일 기기에서의 이미지 변환 장치 및 방법 | |
CN110958469A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN116957917B (zh) | 一种基于近端策略优化的图像美化方法及装置 | |
WO2022109922A1 (zh) | 抠图实现方法、装置、设备及存储介质 | |
US20230153965A1 (en) | Image processing method and related device | |
CN112884893A (zh) | 基于非对称卷积网络和注意力机制的跨视角图像生成方法 | |
CN115294055A (zh) | 图像处理方法、装置、电子设备和可读存储介质 | |
CN109300170B (zh) | 肖像照片光影传递方法 | |
CN115953330B (zh) | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 | |
CN111383165B (zh) | 一种图像处理方法、系统及存储介质 | |
CN115512207A (zh) | 一种基于多路特征融合及高阶损失感知采样的单阶段目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: 516006 TCL science and technology building, No. 17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province Applicant after: TCL Technology Group Co.,Ltd. Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District Applicant before: TCL Corp. Country or region before: China |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |