CN111932645A - 基于生成对抗网络gan自动生成水墨画的方法 - Google Patents
基于生成对抗网络gan自动生成水墨画的方法 Download PDFInfo
- Publication number
- CN111932645A CN111932645A CN202010532759.XA CN202010532759A CN111932645A CN 111932645 A CN111932645 A CN 111932645A CN 202010532759 A CN202010532759 A CN 202010532759A CN 111932645 A CN111932645 A CN 111932645A
- Authority
- CN
- China
- Prior art keywords
- ink
- wash
- picture
- painting
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010422 painting Methods 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000003062 neural network model Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 8
- 238000005520 cutting process Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于生成对抗网络GAN自动生成水墨画的方法,包括以下步骤:1)获取水墨画图片数据集,对水墨画图片进行预处理;2)将预处理后的水墨画数据集分解为不同类别的数据集;3)利用非局部均值去噪算法对数据集进行去噪,得到特征数据集;4)利用训练数据集建立生成对抗网络GAN,并确定输入图片大小;5)将特征数据集输入到生成对抗网络GAN中训练,得到训练好的GAN神经网络模型;6)将类别标签数据输入到训练好的GAN神经网络模型中,自动生成对应标签的水墨画。本发明解决了传统设计方法中手工操作繁琐、创作效率低的问题。
Description
技术领域
本发明涉及深度学习、计算机视觉领域,具体是基于生成对抗网络GAN自动生成水墨画的方法。
背景技术
近年来,利用深度神经网络进行图像的研究已经成为机器学习和计算机视觉研究的热点。生成对抗网络最初由Ian Goodfellow提出,通过在实际训练过程中对生成器和判别器都适用一种对抗性损失,有效地鼓励生成器的输出与原始数据分布相似。GAN在图像生成、图像传输、超分辨率等生成任务中取得了令人印象深刻的结果,广泛应用于各类应用场景。利用计算机生成各种美术风格的图像是数字图像领域的一个热点问题,艺术风格图像的自动生成技术在影视制作、游戏开发、艺术创作等方面具有广泛的应用,可以大大减轻手工绘制的复杂性,提高作品创作效率。水墨画是中国绘画的代表,其写实与抽象结合,色彩微妙,意境丰富。水墨画具有特殊的质感和美感,讲究笔法和用墨的结合,需要特殊的绘画材料,也正因如此,传统手绘的水墨动画制作及其复杂、费时,并且无法修改。利用现有制作软件来创作水墨风格绘画也受到工具的限制,复杂程度并不亚于手工,效果也不尽理想,存在一定的局限性。
发明内容
本发明的目的是解决现有技术中存在的问题。
为实现本发明目的而采用的技术方案是这样的,基于生成对抗网络GAN自动生成水墨画的方法,包括以下步骤:
1)获取水墨画图片数据集,对水墨画图片进行预处理,并打上类别标签。所述水墨画数据集包括山水画和花鸟画。
对水墨画图片进行预处理的主要步骤为:
1.1)统一水墨画数据集中所有水墨画图片格式。
1.2)对水墨画图片进行裁剪,令水墨画图片像素统一为M×N。
1.3)为不同类别的水墨画图片添加类别标签,并将类别标签转换为独热编码。水墨画图片类别包括山水、花鸟。
1.4)提取水墨画数据集中的水墨画图片信息,并统一编码格式。所述水墨画图片信息包括RGB三通道颜色值和对比度A。
2)利用非局部均值去噪算法对预处理后的水墨画图片进行去噪,得到更新后的水墨画图片数据集,具体步骤为:
2.1)确定水墨画图片中待去噪的像素点p。
2.2)逐像素扫描水墨画图片,寻找与待去噪像素点相似的所有相似像素点。相似性包括灰度相关性和几何结构相似性;待去噪像素点q、相似像素点p之间平方欧几里德距离d2满足d2<阈值dmax。
2.3)计算所有相似像素点的平均颜色。
2.4)用相似像素点的平均颜色替换待去噪像素点的颜色。
过滤器NLu(p)如下所示:
式中,d(B(p),B(q))是分别以待去噪像素点p和相似像素点q为中心的图像块之间的欧几里得距离。F是递减函数。C(P)是归一化因子。u(p)表示水墨画图片u的像素点p。
C(P)=∑q∈B(p,r)w(p,q) (3)
式中,n=1,2,3表示RGB通道;p表示待去噪像素点;B(p,r)表示以待去噪像素点p为中心且大小为(2r+1)×(2r+1)像素的邻域;w(p,q)为权重;un(q)为水墨画图片u在RGB通道n上的像素点q;
权重w(p,q)取决于待去噪像素点p和位于(2f+1)×(2f+1)色块的相似像素点q的平方欧几里德距离d2=d2(B(p,f),B(q,f))。
平方欧几里德距离d2(B(p,f),B(q,f))如下所示:
式中,σ表示噪声的标准偏差,h为过滤参数。un(p+j)为水墨画图片u在RGB通道n上的像素点p+j;un(q+j)为水墨画图片u在RGB通道n上的像素点q+j;B(p,f)为以待去噪像素点p为中心且大小为(2f+1)×(2f+1)像素的邻域;B(q,f)为以待去噪像素点q为中心且大小为(2f+1)×(2f+1)像素的邻域;
权重w(p,q)如下所示:
式中,σ表示噪声的标准偏差,h为过滤参数。
3)利用训练数据集建立生成对抗网络CGAN,并确定输入图片大小。根据输入图片大小对更新后的水墨画图片数据集中所有水墨画图片进行裁剪,得到水墨画图片训练集;
4)将水墨画图片训练集输入到生成对抗网络CGAN中训练,得到训练好的CGAN神经网络模型。
CGAN神经网络模型包括生成器、判别器和一个条件变量y。
所述生成器包括输入层、全连接层、卷积层和输出层。
所述判别器包括输入层、卷积层、全连接层和输出层。
所述条件变量为水墨画图片类别标签。
CGAN神经网络模型训练过程如下:
4.1)固定CGAN神经网络模型生成器参数,学习判别器参数,包括以下步骤:
4.1.1)从训练数据集中取出m个正样本{(y1,x1),(y2,x2),...,(ym,xm)}。m表示批处理大小;
4.1.2)从高斯分布中生成噪声数据集z={z1,z2,...,Zm}。
4.2)固定CGAN神经网络模型判别器参数,学习生成器参数,包括以下步骤:
4.2.1)从高斯分布中生成m个噪声数据{z1,z2,...,zm}。
4.2.2)从训练数据集中取出m个条件标签{y1,y2,...,ym}。
CGAN神经网络模型采用Adam梯度下降算法更新CGAN神经网络模型中的权重和偏移。
CGAN神经网络模型卷积层的激活函数为Leaky Relu激活函数。CGAN神经网络模型卷积层利用批标准化进行数据处理。
5)将水墨画图片类别标签数据输入到训练好的生成对抗网络CGAN中,自动生成类别标签对应的水墨画。
本发明的技术效果是毋庸置疑的,本发明解决了传统方法中手工操作繁琐、创意受限、不便修改和效率低的问题。本发明将基于深度学习的方法,搭建GAN模型,自动地学习水墨画图像的特点,再对学习结果进行集成,从而实现水墨画的自动生成;自动生成水墨风格的数字图像有重要的意义,不仅能提高效率,还能帮助设计人员发现灵感。本发明采用高效,简单,通用的非局部操作,用来捕捉图像远程依赖关系,去噪处理后图像的清晰度高且不丢失细节。
附图说明
图1为本发明基于生成对抗网络GAN自动生成水墨画的整体流程结构图;
图2为CGAN网络结构图。
具体实施方式
下面结合实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
实施例1:
参见图1至图2,基于生成对抗网络GAN自动生成水墨画的方法,包括以下步骤:
1)获取水墨画图片数据集,对水墨画图片进行预处理,并打上类别标签。所述水墨画数据集包括山水画和花鸟画。
对水墨画图片进行预处理的主要步骤为:
1.1)统一水墨画数据集中所有水墨画图片格式。
1.2)对水墨画图片进行裁剪,令水墨画图片像素统一为M×N。M为长,N为宽。
1.3)为不同类别的水墨画图片添加类别标签,并将类别标签转换为独热编码。水墨画图片类别包括山水、花鸟。
1.4)提取水墨画数据集中的水墨画图片信息,并统一编码格式。所述水墨画图片信息包括RGB三通道颜色值和对比度A。
2)利用非局部均值去噪算法对特征数据集进行去噪,得到水墨画图片训练集。
利用非局部均值去噪算法对水墨画图片数据集进行去噪处理的具体步骤为:
2.1)确定水墨画图片中待去噪的像素点p。
2.2)逐像素扫描水墨画图片,寻找与待去噪像素点相似的所有相似像素点。相似性包括灰度相关性和几何结构相似性;待去噪像素点q、相似像素点p之间平方欧几里德距离d2满足d2<阈值dmax。
2.3)计算所有相似像素点的平均颜色。
2.4)用相似像素点的平均颜色替换待去噪像素点的颜色。
过滤器NLu(p)如下所示:
式中,d(B(p),B(q))是分别以待去噪像素点p和相似像素点q为中心的图像块之间的欧几里得距离。F是递减函数。C(P)是归一化因子。u(p)表示水墨画图片u的像素点p。B(p)为以待去噪像素点p为中心的图像块,B(q)为以待去噪像素点q为中心的图像块。
C(P)=∑q∈B(p,r)w(p,q) (3)
式中,n=1,2,3表示RGB通道;p表示待去噪像素点;B(p,r)表示以待去噪像素点p为中心且大小为(2r+1)×(2r+1)像素的邻域;w(p,q)为权重;un(q)为水墨画图片u在RGB通道n上的像素点q;
权重w(p,q)取决于待去噪像素点p和位于(2f+1)×(2f+1)色块的相似像素点q的平方欧几里德距离d2=d2(B(p,f),B(q,f))。
平方欧几里德距离d2(B(p,f),B(q,f))如下所示:
式中,σ表示噪声的标准偏差,h为过滤参数。un(p+j)为水墨画图片u在RGB通道n上的像素点p+j;un(q+j)为水墨画图片u在RGB通道n上的像素点q+j;B(p,f)为以待去噪像素点p为中心且大小为(2f+1)×(2f+1)像素的邻域;B(q,f)为以待去噪像素点q为中心且大小为(2f+1)×(2f+1)像素的邻域;
权重w(p,q)如下所示:
式中,σ表示噪声的标准偏差,h为过滤参数。
3)利用训练数据集建立生成对抗网络CGAN,并确定输入图片大小。根据输入图片大小对更新后的水墨画图片数据集中所有水墨画图片进行裁剪,得到水墨画图片训练集;
4)将水墨画图片训练集输入到生成对抗网络CGAN中训练,得到训练好的CGAN神经网络模型。
CGAN神经网络模型包括生成器、判别器和一个条件变量y。
所述生成器包括输入层、全连接层、卷积层和输出层。
所述判别器包括输入层、卷积层、全连接层和输出层。
所述条件变量为水墨画图片类别标签。
CGAN神经网络模型训练过程如下:
4.1)固定CGAN神经网络模型生成器参数,学习判别器参数,包括以下步骤:
4.1.1)从训练数据集中取出m个正样本{(y1,x1),(y2,x2),...,(ym,xm)}。m表示批处理大小;
4.1.2)从高斯分布中生成噪声数据集z={z1,z2,...,zm}。
4.2)固定CGAN神经网络模型判别器参数,学习生成器参数,包括以下步骤:
4.2.1)从高斯分布中生成m个噪声数据{z1,z2,...,zm}。
4.2.2)从训练数据集中取出m个条件标签{y1,y2,...,ym}。
CGAN神经网络模型的损失函数如下:
其中,G表示生成器,D表示判别器,y表示训练数据的条件标签,pz(z)表示先验噪声分布。判别器输出单个标量,表示输入来自训练数据而不是生成数据的概率。
CGAN神经网络模型采用Adam梯度下降算法更新CGAN神经网络模型中的权重和偏移。
CGAN神经网络模型卷积层的激活函数为Leaky Relu激活函数。CGAN神经网络模型卷积层利用批标准化进行数据处理。
6)将水墨画图片类别标签数据输入到训练好的生成对抗网络CGAN中,自动生成类别标签对应的水墨画。
实施例2:
一种基于生成对抗网络GAN自动生成水墨画的方法,该方法包括:
1)获取水墨画数据,获取的图片通过网络爬虫获取;对水墨画图片进行预处理,统一水墨画数据集中的图片的后缀名称,裁剪水墨画数据集中的图片为网络要求的输入图像像素大小,为不同类别的数据集添加类别标签并转换为独热编码,提取水墨画数据集中的图片的信息;全部数据集共有6440张图片。
2)将预处理后的水墨画数据集分解为不同类别的特征数据集;例如:花、鸟、山、水。
3)利用非局部均值去噪算法对数据集进行去噪处理;
在以目标像素x为中心的搜索窗口内,有以y为中心的小窗口在搜索窗口中滑动,通过计算以x和y为中心的两个邻域窗口间的相似程度赋以权值计算目标像素的值。
4)利用训练数据集建立生成对抗网络GAN,GAN神经网络模型包括生成器、判别器和一个条件变量,如图2所示,生成器的输入是噪声z和标签y,输出是生成图片;判别器的输入是生成图片,真实图片x以及标签y,输出为真和假;并确定输入图片大小,例如将网络输入设置为96×96×3。
5)将经过处理的不同类别数据输入到条件生成对抗网络GAN中训练,得到训练好的GAN神经网络模型,GAN神经网络模型生成器包括一个输入层,两个全连接层,两个卷积层,和一个输出层;GAN神经网络模型判别器包括一个输入层,两个卷积层,两个全连接层和一个输出层;超参选择时学习速率选择为0.0001,训练次数为150次,卷积层核大小分别设置为4和1,批处理大小设置为32,采用Adam梯度下降算法更新模型中的权重和偏移。
6)将类别标签数据输入到训练好的GAN神经网络模型中,自动生成对应标签的水墨画。
Claims (9)
1.基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,包括以下步骤:
1)获取所述水墨画图片数据集,对水墨画图片进行预处理,并打上类别标签。
2)利用非局部均值去噪算法对预处理后的水墨画图片进行去噪,得到更新后的水墨画图片数据集;
3)利用训练数据集建立生成对抗网络CGAN,并确定输入图片大小;根据输入图片大小对更新后的水墨画图片数据集中所有水墨画图片进行裁剪,得到水墨画图片训练集;
4)将水墨画图片训练集输入到生成对抗网络CGAN中训练,得到训练好的CGAN神经网络模型;
5)将水墨画图片类别标签数据输入到训练好的生成对抗网络CGAN中,自动生成类别标签对应的水墨画。
2.根据权利要求1或2所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,所述水墨画数据集包括山水画和花鸟画。所述水墨画数据集通过网络爬虫从开放式网络获取。
3.根据权利要求1所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,对水墨画图片进行预处理的主要步骤为:
1)统一水墨画数据集中所有水墨画图片格式;
2)对水墨画图片进行裁剪,令水墨画图片像素统一为M×N;
3)为不同类别的水墨画图片添加类别标签,并将类别标签转换为独热编码;水墨画图片类别包括山水、花鸟。
4)提取水墨画数据集中的水墨画图片信息,并统一编码格式;所述水墨画图片信息包括RGB三通道颜色值和对比度A。
4.根据权利要求1所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,CGAN神经网络模型包括生成器、判别器和一个条件变量y;
所述生成器包括输入层、全连接层、卷积层和输出层;
所述判别器包括输入层、卷积层、全连接层和输出层;
所述条件变量为水墨画图片类别标签。
5.根据权利要求4所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,CGAN神经网络模型训练过程如下:
1)固定CGAN神经网络模型生成器参数,学习判别器参数,包括以下步骤:
1.1)从训练数据集中取出m个正样本{(y1,x1),(y2,x2),…,(ym,xm)};m表示批处理大小;
1.2)从高斯分布中生成噪声数据集z={z1,z2,…,zm};
2)固定CGAN神经网络模型判别器参数,学习生成器参数,包括以下步骤:
2.1)从高斯分布中生成m个噪声数据{z1,z2,…,zm};
2.2)从训练数据集中取出m个条件标签{y1,y2,…,ym};
6.根据权利要求5所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,CGAN神经网络模型采用Adam梯度下降算法更新CGAN神经网络模型中的权重和偏移。
7.根据权利要求5所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,CGAN神经网络模型卷积层的激活函数为Leaky Relu激活函数;CGAN神经网络模型卷积层利用批标准化进行数据处理。
8.根据权利要求1所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,利用非局部均值去噪算法对水墨画图片数据集进行去噪处理的具体步骤为:
1)确定水墨画图片u中待去噪的像素点p;
2)逐像素扫描水墨画图片,寻找与待去噪像素点相似的所有相似像素点;相似性包括灰度相关性和几何结构相似性;
3)计算所有相似像素点的平均颜色;
4)用相似像素点的平均颜色替换待去噪像素点的颜色;
过滤器NLu(p)如下所示:
式中,d(B(p),B(q))是分别以待去噪像素点p和相似像素点q为中心的图像块之间的欧几里得距离;F是递减函数;C(P)是归一化因子;u(p)表示水墨画图片u的像素点p。
C(P)=∑q∈B(p,r)w(p,q) (5)
式中,n=1,2,3表示RGB通道;p表示待去噪像素点;B(p,r)表示以待去噪像素点p为中心且大小为(2r+1)×(2r+1)像素的邻域;w(p,q)为权重;un(q)为水墨画图片u在RGB通道n上的像素点q;
权重w(p,q)取决于待去噪像素点p和位于(2f+1)×(2f+1)色块的相似像素点q的平方欧几里德距离d2=d2(B(p,f),B(q,f));
平方欧几里德距离d2(B(p,f),B(q,f))如下所示:
式中,σ表示噪声的标准偏差,h为过滤参数。un(p+j)为水墨画图片u在RGB通道n上的像素点p+j;un(q+j)为水墨画图片u在RGB通道n上的像素点q+j;B(p,f)为以待去噪像素点p为中心且大小为(2f+1)×(2f+1)像素的邻域;B(q,f)为以待去噪像素点q为中心且大小为(2f+1)×(2f+1)像素的邻域;
权重w(p,q)如下所示:
9.根据权利要求1所述的基于生成对抗网络GAN自动生成水墨画的方法,其特征在于,待去噪像素点q、相似像素点p之间平方欧几里德距离d2满足d2<阈值dmax。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010532759.XA CN111932645B (zh) | 2020-06-12 | 2020-06-12 | 基于生成对抗网络gan自动生成水墨画的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010532759.XA CN111932645B (zh) | 2020-06-12 | 2020-06-12 | 基于生成对抗网络gan自动生成水墨画的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111932645A true CN111932645A (zh) | 2020-11-13 |
CN111932645B CN111932645B (zh) | 2022-08-26 |
Family
ID=73317128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010532759.XA Active CN111932645B (zh) | 2020-06-12 | 2020-06-12 | 基于生成对抗网络gan自动生成水墨画的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111932645B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033595A (zh) * | 2020-12-24 | 2021-06-25 | 重庆大学 | 基于生成对抗网络的多标签汽车造型生成方法 |
CN113435263A (zh) * | 2021-06-07 | 2021-09-24 | 上海应用技术大学 | 基于cgan数据增强的频谱感知方法及系统 |
CN113706646A (zh) * | 2021-06-30 | 2021-11-26 | 酷栈(宁波)创意科技有限公司 | 用于生成山水画的数据处理方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563385A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 基于深度卷积生成式对抗网络的车牌字符识别方法 |
CN108765319A (zh) * | 2018-05-09 | 2018-11-06 | 大连理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN109726230A (zh) * | 2018-12-04 | 2019-05-07 | 重庆大学 | 一种大数据分析模型预测发动机性能的方法 |
WO2019090213A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
CN110163810A (zh) * | 2019-04-08 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置以及终端 |
CN110309708A (zh) * | 2019-05-09 | 2019-10-08 | 北京尚文金泰教育科技有限公司 | 一种基于神经网络的智能皮纹采集分类识别方法 |
CN110378985A (zh) * | 2019-07-19 | 2019-10-25 | 中国传媒大学 | 一种基于gan的动漫绘画辅助创作方法 |
CN111161137A (zh) * | 2019-12-31 | 2020-05-15 | 四川大学 | 一种基于神经网络的多风格国画花生成方法 |
CN111223062A (zh) * | 2020-01-08 | 2020-06-02 | 西安电子科技大学 | 基于生成对抗网络的图像去模糊方法 |
-
2020
- 2020-06-12 CN CN202010532759.XA patent/CN111932645B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563385A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 基于深度卷积生成式对抗网络的车牌字符识别方法 |
WO2019090213A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
CN108765319A (zh) * | 2018-05-09 | 2018-11-06 | 大连理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN109726230A (zh) * | 2018-12-04 | 2019-05-07 | 重庆大学 | 一种大数据分析模型预测发动机性能的方法 |
CN110163810A (zh) * | 2019-04-08 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置以及终端 |
CN110309708A (zh) * | 2019-05-09 | 2019-10-08 | 北京尚文金泰教育科技有限公司 | 一种基于神经网络的智能皮纹采集分类识别方法 |
CN110378985A (zh) * | 2019-07-19 | 2019-10-25 | 中国传媒大学 | 一种基于gan的动漫绘画辅助创作方法 |
CN111161137A (zh) * | 2019-12-31 | 2020-05-15 | 四川大学 | 一种基于神经网络的多风格国画花生成方法 |
CN111223062A (zh) * | 2020-01-08 | 2020-06-02 | 西安电子科技大学 | 基于生成对抗网络的图像去模糊方法 |
Non-Patent Citations (1)
Title |
---|
董伟 等: "基于生成对抗网络的图像艺术风格迁移", 《宁波大学学报(理工版)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033595A (zh) * | 2020-12-24 | 2021-06-25 | 重庆大学 | 基于生成对抗网络的多标签汽车造型生成方法 |
CN113435263A (zh) * | 2021-06-07 | 2021-09-24 | 上海应用技术大学 | 基于cgan数据增强的频谱感知方法及系统 |
CN113435263B (zh) * | 2021-06-07 | 2024-04-19 | 上海应用技术大学 | 基于cgan数据增强的频谱感知方法及系统 |
CN113706646A (zh) * | 2021-06-30 | 2021-11-26 | 酷栈(宁波)创意科技有限公司 | 用于生成山水画的数据处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111932645B (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111932645B (zh) | 基于生成对抗网络gan自动生成水墨画的方法 | |
CN111325203B (zh) | 一种基于图像校正的美式车牌识别方法及系统 | |
US8175384B1 (en) | Method and apparatus for discriminative alpha matting | |
US8280165B2 (en) | System and method for segmenting foreground and background in a video | |
CN111553837B (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN107273905B (zh) | 一种结合运动信息的目标主动轮廓跟踪方法 | |
CN110866896B (zh) | 基于k-means与水平集超像素分割的图像显著性目标检测方法 | |
CN111967470A (zh) | 一种基于解耦注意力机制的文本识别方法及系统 | |
Liu et al. | Interactive image segmentation based on level sets of probabilities | |
US20070122039A1 (en) | Segmentation of objects by minimizing global-local variational energy | |
CN110766020A (zh) | 一种面向多语种自然场景文本检测与识别的系统及方法 | |
CN109657612B (zh) | 一种基于人脸图像特征的质量排序系统及其使用方法 | |
JP2013536960A (ja) | 写真から肖像スケッチを合成するシステム及び方法 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN112802039B (zh) | 一种基于全局边缘注意力的全景分割方法 | |
CN111967488A (zh) | 一种基于孪生卷积神经网络的手机拍摄文本图像匹配方法 | |
CN109711411B (zh) | 一种基于胶囊神经元的图像分割识别方法 | |
CN111414860A (zh) | 一种实时的人像跟踪分割方法 | |
CN113436251B (zh) | 一种基于改进的yolo6d算法的位姿估计系统及方法 | |
CN115713546A (zh) | 移动终端设备用的轻量化目标跟踪算法 | |
CN116310128A (zh) | 基于实例分割与三维重建的动态环境单目多物体slam方法 | |
CN108537109A (zh) | 基于OpenPose的单目相机手语识别方法 | |
CN112668567A (zh) | 一种基于深度学习的图像裁剪算法 | |
CN112614149A (zh) | 基于实例分割的语义合成方法 | |
CN110097604B (zh) | 图像颜色风格转移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |