CN109785227A - 基于卷积神经网络的人脸情感颜色迁移方法 - Google Patents
基于卷积神经网络的人脸情感颜色迁移方法 Download PDFInfo
- Publication number
- CN109785227A CN109785227A CN201811638079.5A CN201811638079A CN109785227A CN 109785227 A CN109785227 A CN 109785227A CN 201811638079 A CN201811638079 A CN 201811638079A CN 109785227 A CN109785227 A CN 109785227A
- Authority
- CN
- China
- Prior art keywords
- layer
- emotion
- network
- image
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 84
- 238000012546 transfer Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 33
- 230000002996 emotional effect Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 238000000576 coating method Methods 0.000 claims description 4
- 206010027940 Mood altered Diseases 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013508 migration Methods 0.000 claims description 3
- 230000005012 migration Effects 0.000 claims description 3
- 210000004218 nerve net Anatomy 0.000 claims 1
- 238000009826 distribution Methods 0.000 abstract description 4
- 230000001815 facial effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理领域,为实现通过调整颜色分布将源图像的情感改变为目标图像的情感,本发明,基于卷积神经网络的人脸情感颜色迁移方法,步骤如下:步骤1、实现目标图像即参考图像的处理;步骤2、实现对源图像的处理;步骤3、进行情感颜色迁移,具体包括以下处理:获得融合之后的特征,通过卷积层和反卷积对特征的维度进行增大,每个卷积层输出是维度不变的特征,而反卷积输出的是原来两倍的高和宽,这些层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像。本发明主要应用于图像处理场合。
Description
技术领域
本发明属于图像处理领域,涉及人脸表情分类、情感颜色迁移以及卷积神经网络,能够实现对带有人脸特征的目标图像进行情感迁移。
背景技术
生活中,人们喜欢用颜色来传达自己的情感。对于艺术家来说,通过不同的色彩能创造出代表不同情感的作品。然而现在的一些图像处理软件,比如Photoshop,难以实现图像的情感编辑。目前在图像处理方面,图像颜色迁移方法非常广泛[1-5],这些方法一般通过处理图像的颜色来达到某种编辑效果,但是大没有情感因素。情感颜色迁移旨在通过调整颜色分布将源图像的情感改变为目标图像的情感。这可以减少艺术家所花费的时间,并且帮助艺术家创作更符合人们情感的作品。目前情感颜色迁移方法主要分为传统方法和机器学习方法。
传统的方法主要通过颜色组合的方式进行颜色迁移。Yang和Peng[6]首次使用直方图匹配来进行情感颜色迁移,以保持图像颜色之间的空间一致性。在这项工作中,他们使用动态颜色组合模板映射颜色和情感。此外,Yang和Peng采用24种情感,每种情感包含32种五色组合,48种三色组合和24种双色组合。Wang等人[7]提出了一种可以通过提供有效的情感词来自动调整输入图像到所需的情感的方法。该方法减少了用户操作,可以防止由于不专业的操作造成的失真现象。He等人[8]提出了一种基于色彩组合的情感颜色迁移框架。Ryoo[9]提出了一种基于面部特征的情感颜色迁移方法,它将机器学习与图像情感颜色迁移相结合。Peng等人[10]提出了一种新的情感颜色迁移框架。该框架使用Emotion6数据库来模拟情感分布。然而,该方法考虑了图像的颜色信息,没有考虑到图像的高级表情特征。当目标图像包含面部表情特征时,如果面部特征所表达的情感与颜色情感不一致,会使得结果图像的情感与源图像不一致。
综上所述,现有的这些算法对图像的情感分析并不准确,这样会导致情感迁移结果不准确。传统的图像情感颜色迁移方法虽然考虑了图像的语义信息,但是没有涉及人脸图像中的人脸特征,这样必然会出现反自然现象。现有的图像情感颜色迁移方法对图像与情感的关联性考虑的较为充分,但是所考虑的特征都是低级视觉特征。并且这种低级视觉特征与情感的关联性很弱。图像的情感很大程度上与图像的高级语义特征相关。对于图像情感来说,关联度密切的是图像的高级语义。在高级语义方面,很多工作忽略了了人脸的表情特征。如果将一张人脸图像的情感迁移到自然风景图片,迁移结果会出现失真现象。因此,目标图像的人脸表情特征也会影响图像的迁移效果,对目标人脸图像的情感分析是非常重要的。
参考文献:
[1]刘世光,翔张,纪建成.数字照片的局部颜色迁移方法:CN,CN 101561927A[P].2009.
[2]舒振宇,辛士庆,陈双敏,等.一种基于权值优化的最优传输图像颜色迁移方法:CN,CN107909561A[P].2018.
[3]金正猛,赵敏钧,郭少健,等.一种基于颜色转移和修正的图像着色方法:CN,CN105761292A[P].2016.
[4]梁湘国,苏卓,李波,等.一种基于卷积神经网络的灰阶图像着色方法及其装置:CN,CN106855996A[P].2016.
[5]陈颖,高乐莲,乔君,等.图像编辑传播方法和系统:CN,CN107886550A[P],2018.
[6]Yang C K,Peng L K.Automatic mood-transferring between colorimages.IEEE Computer Graphics&Applications,2008,28(2):52-61.
[7]Wang X,Jia J,Cai L.Affective image adjustment with a singleword.Visual Computer,2013,29(11):1121-1133.
[8]He L,Qi H,Zaretzki R.Image color transfer to evoke differentemotions based on color combinations.Signal Image&Video Processing,2015,9(8):1965-1973.
[9]Ryoo S T.Emotion affective color transfer.International Journal ofSoftware Engineering&Its Applications,2014,8(3):227-232.
[10]Peng K C,Chen T,Sadovnik A,et al.A mixed bag of emotions:model,predict,and transfer emotion distributions.Computer Vision and PatternRecognition,2015:860-868。
发明内容
为克服现有技术的不足,本发明旨在通过调整颜色分布将源图像的情感改变为目标图像的情感。为此,本发明采用的技术方案是,基于卷积神经网络的人脸情感颜色迁移方法,步骤如下:
步骤1、实现目标图像即参考图像的处理,具体包括以下处理:
通过三个卷积层,两个池化层,四个激活层,两个dropout层,dropout是在训练神经网络模型时,样本数据过少,防止过拟合而采用的网络层,两个全连接层和最终分类层对目标图像的情感信息进行分析,将人脸情感数据库随机按照8:2比例分为训练集和测试集,然后利用情感分类网络训练情感模型;此外,输出节点的数量变为7,在预测阶段,所有情绪类别的概率被归一化;
步骤2、实现对源图像的处理,具体包括以下处理:
首先利用底层网络中的10个卷积层和3个池化层来获得图像的低层特征,之后使用高级特征网络将低级特征和全局特征组合在一起,使得这层包含具有中间水平高级特征的256维向量,利用高级特征网络约束源图像的颜色,该层用于将全局特征合并到局部特征中,将融合层在局部特征坐标(μ,υ)处的输出表示为:
yg是人脸情感分类特征,是坐标(μ,υ)处的特征,W是权重矩阵,b是偏移向量。W和b是在网络训练中学习的参数,σ是Sigmoid函数;
步骤3、进行情感颜色迁移,具体包括以下处理:
获得融合之后的特征,通过卷积层和反卷积对特征的维度进行增大,每个卷积层输出是维度不变的特征,而反卷积输出的是原来两倍的高和宽,这些层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像。
情感模型训练,具体包括以下处理:
首先使用Emotion6数据库对1980张图像进行训练,得到情感模型,在上一步获得分类网络的情感标签之后,找到与标签一致的情感模型,最后获得情感迁移结果。
步骤2实现对源图像的处理进一步具体地:
首先使用10个卷积层和3个池化层来获得图像的低层特征。在网络中使用高斯卷积来滤波图像,获得共享的低层特征来服务高级网络和情感颜色迁移网络。之后使用平均池化层方法来平滑图像,在每个卷积层中添加了填充,使得图像不会因为卷积操作而减少尺寸,使用的是3*3的高斯卷积核和1*1的填充来保证输出输出层和输入层尺寸一致,接下来使用高级特征网络,使得这层包含具有中间水平中级特征的256维向量。该层用于将全局特征合并到局部特征中,将局部特征与该特征空间所有坐标下的全局特征连接在一起,获得以中间特征维度的新特征映射。
步骤3进行情感颜色迁移进一步具体地:
层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像,在输出图像之前通过Sigmoid传递函数对特征做最后一步处理;
在网络BP(Back Propagation)阶段,在颜色迁移层使用均方误差标准,在高级特征层使用交叉熵损失,网络的全局损失LOSS变为:
L(ycolor,yclass)=L(ycolor)+ηL(yfus)
其中,L(ycolor)是颜色迁移层的损失值,L(yfus)是分类网的损失值,η是权衡两者之间的系数;
之后,将训练的特定情感的网络模型与图像分类标签进行匹配,输入图像作为网络的输入层传递到网络中,然后通过网络模型将输入图像转换成特定的情感,在该部分的网络结构中,“Crop”层是最终的输出层,其可以确保输出图像的尺寸与相应的输入图像相同,获取“Crop”图层的输出数据后,进一步获得相应的结果图像。
本发明的特点及有益效果是:
本发明所达到的有益效果是:该发明与现有的情感颜色迁移相比,首先,不需要用户有专业的图像编辑知识便可以操作,操作也很简洁方便;其次该发明的情感分类精度与现有的情感分类方法相比高达5%;最后也是最重要的,本发明的颜色迁移效果与最新的情感迁移方法相比,一方面结果图像的情感与源图像的情感更接近,另一方面,本发明的结果图像在平滑性以及图像的清晰度表现更好。
附图说明:
附图1基于卷积神经网络的人脸情感颜色迁移框架图。
附图2不同参考图像的情感颜色迁移结果。
具体实施方式
本发明的技术方案是:一种基于卷积神经网络的人脸感知情感颜色迁移方法,所述方法包括步骤:
步骤1、实现目标图像(也就是参考图像)的处理,具体包括以下处理:
通过三个卷积层,两个池化层,四个激活层,两个dropout层,两个全连接层和最终分类层对目标图像的情感信息进行分析,将人脸情感数据库随机按照8:2比例分为训练集和测试集,然后利用情感分类网络训练情感模型。此外,输出节点的数量变为7,以便它们可以表示输入图像被分类到面部情绪数据库中的每个情感类别的概率。在预测阶段,所有情绪类别的概率被归一化。
步骤2、实现对源图像的处理,具体包括以下处理:
首先利用底层网络中的10个卷积层和3个池化层来获得图像的低层特征。之后使用高级特征网络将低级特征和全局特征组合在一起。使得这层包含具有(中间水平)高级特征的256维向量。利用高级特征网络约束源图像的颜色。该层用于将全局特征合并到局部特征中。将融合层在局部特征坐标(μ,υ)处的输出表示为:
步骤3、进行情感颜色迁移,具体包括以下处理:
获得融合之后的特征,通过卷积层和反卷积(上采样)对特征的维度进行增大,每个卷积层输出是维度不变的特征,而反卷积输出的是原来两倍的高和宽。这些层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像。
步骤4、情感模型训练,具体包括以下处理:
虽然情感模型能够处理任何大小的图像,但是它是最有效率的输入图像是224×224像素。在共享低级特征的同时,全局网络的输入必须重新缩放到224×224像素。首先使用现有的Emotion6数据库对1980张图像进行训练,得到情感模型。在上一步获得分类网络的情感标签之后,找到与标签一致的情感模型,最后获得情感迁移结果。
下面结合附图和具体实施例对本发明一种基于卷积神经网络的人脸情感颜色迁移方法进行详细说明。如图1所示,一种基于卷积神经网络的人脸情感颜色迁移方法,包括步骤:
1、实现目标图像(也就是参考图像)的处理
图像情感分析,重点是颜色特征的提取,将每一个像素点的颜色特征转换成一个值,最终效果是把一幅图像转换成一个二维矩阵,矩阵中每一个值都代表该像素点的颜色特征。图像情感分析是通过情感分类网络实现。情感分类网络包括三个卷积层,两个池化层,四个激活层,两个dropout层,两个全连接层和最终分类层。将人脸情感数据库随机按照8:2比例分为训练集和测试集,然后利用情感分类网络训练情感模型。此外,输出节点的数量变为7,以便它们可以表示输入图像被分类到面部情绪数据库中的每个情感类别的概率。在预测阶段,所有情绪类别的概率被归一化。将图像的大小调整为100×100像素。每个卷积层中的卷积核的数量是32个,大小是13×13个像素。在三个卷积层和两个合并层处理之后,每幅图像的尺寸是4×4像素。为了防止过度拟合,请注意在平坦层之前有一个丢失层。最后有一个分类层可以确保获取到情感标签。模型训练迭代的次数是20次。最后,获得图像的预测标签,并根据标签获得相应的情感模型。
2、实现对源图像的处理
首先使用10个卷积层和3个池化层来获得图像的低层特征。在网络中使用高斯卷积来滤波图像,获得共享的低层特征来服务高级网络和情感颜色迁移网络。之后使用平均池化层来平滑图像,我们这里实用的是步长为2的池化层。为了保持图像的尺寸,我们在每个卷积层中添加了填充,使得图像不会因为卷积操作而减少尺寸。因此,我们使用的是3*3的高斯卷积核和1*1的填充来保证输出输出层和输入层尺寸一致。接下来使用高级特征网络,使得这层包含具有(中间水平)中级特征的256维向量。该层用于将全局特征合并到局部特征中。将融合层在局部特征坐标(μ,υ)处的输出表示为:
这里是在坐标(μ,υ)处融合之后的特征,yg是人脸情感分类特征,是坐标(μ,υ)处的特征。W是权重矩阵,b是偏移向量。W和b是在网络训练中学习的参数。σ是Sigmoid函数。该融合层作为一个连接器,将局部特征与该特征空间所有坐标下的全局特征连接在一起,获得以中间特征维度的新特征映射。
3、进行情感颜色迁移
获得融合之后的特征,通过卷积层和反卷积(上采样)对特征的维度进行增大,每个卷积层输出是维度不变的特征,而反卷积输出的是原来两倍的高和宽。这些层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像。在输出图像之前我们通过Sigmoid传递函数对特征做最后一步处理。
在网络BP(Back Propagation)阶段,我们在颜色迁移层使用均方误差标准,在高级特征层使用交叉熵损失。网络的全局损失LOSS变为:
L(ycolor,yclass)=L(ycolor)+ηL(yfus)
其中,L(ycolor)是颜色迁移层的损失值,L(yfus)是分类网的损失值,η是权衡两者之间的系数。
之后,将训练的特定情感的网络模型与图像分类标签进行匹配。输入图像作为网络的输入层传递到网络中。然后通过网络模型将输入图像转换成特定的情感。在该部分的网络结构中,“Crop”层是最终的输出层,其可以确保输出图像的尺寸与相应的输入图像相同。获取“Crop”图层的输出数据后,我们可以获得相应的结果图像。
4、情感模型训练
获得情感分类后情感标签对应的情感模型,使用Emotion6数据集。将Emotion6数据集放入整个网络并训练得到6种情感模型(幸福,愤怒,厌恶,悲伤,惊奇,神经)。每个情绪模型对应于情绪标签。Emotion6包含1980图像。每个情感类别包含330个图像,其中300个图像用于训练阶段,另外30个图像用于测试阶段。之后,在情绪分类网络被移除之后,训练集被用于训练网络。最后,我们得到六种情感的情感模型。
Claims (4)
1.一种基于卷积神经网络的人脸情感颜色迁移方法,其特征是,步骤如下:
步骤1、实现目标图像即参考图像的处理,具体包括以下处理:
通过三个卷积层,两个池化层,四个激活层,两个dropout层,dropout是在训练神经网络模型时,样本数据过少,防止过拟合而采用的网络层,两个全连接层和最终分类层对目标图像的情感信息进行分析,将人脸情感数据库随机按照8:2比例分为训练集和测试集,然后利用情感分类网络训练情感模型;此外,输出节点的数量变为7,在预测阶段,所有情绪类别的概率被归一化;
步骤2、实现对源图像的处理,具体包括以下处理:
首先利用底层网络中的10个卷积层和3个池化层来获得图像的低层特征,之后使用高级特征网络将低级特征和全局特征组合在一起,使得这层包含具有中间水平高级特征的256维向量,利用高级特征网络约束源图像的颜色,该层用于将全局特征合并到局部特征中,将融合层在局部特征坐标(μ,υ)处的输出表示为:
yg是人脸情感分类特征,是坐标(μ,υ)处的特征,W是权重矩阵,b是偏移向量。W和b是在网络训练中学习的参数,σ是Sigmoid函数;
步骤3、进行情感颜色迁移,具体包括以下处理:
获得融合之后的特征,通过卷积层和反卷积对特征的维度进行增大,每个卷积层输出是维度不变的特征,而反卷积输出的是原来两倍的高和宽,这些层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像。
2.如权利要求1所述的基于卷积神经网络的人脸情感颜色迁移方法,其特征是,情感模型训练,具体包括以下处理:首先使用Emotion6数据库对1980张图像进行训练,得到情感模型,在上一步获得分类网络的情感标签之后,找到与标签一致的情感模型,最后获得情感迁移结果。
3.如权利要求1所述的基于卷积神经网络的人脸情感颜色迁移方法,其特征是,步骤2实现对源图像的处理进一步具体地:首先使用10个卷积层和3个池化层来获得图像的低层特征。在网络中使用高斯卷积来滤波图像,获得共享的低层特征来服务高级网络和情感颜色迁移网络。之后使用平均池化层方法来平滑图像,在每个卷积层中添加了填充,使得图像不会因为卷积操作而减少尺寸,使用的是3*3的高斯卷积核和1*1的填充来保证输出输出层和输入层尺寸一致,接下来使用高级特征网络,使得这层包含具有中间水平中级特征的256维向量。该层用于将全局特征合并到局部特征中,将局部特征与该特征空间所有坐标下的全局特征连接在一起,获得以中间特征维度的新特征映射。
4.如权利要求1所述的基于卷积神经网络的人脸情感颜色迁移方法,其特征是,步骤3进行情感颜色迁移进一步具体地:
层交替连接,直到输出和输入相同的尺寸结束,而这时特征层转化为三通道的图像,在输出图像之前通过Sigmoid传递函数对特征做最后一步处理;
在网络BP(Back Propagation)阶段,在颜色迁移层使用均方误差标准,在高级特征层使用交叉熵损失,网络的全局损失LOSS变为:
L(ycolor,yclass)=L(ycolor)+ηL(yfus)
其中,L(ycolor)是颜色迁移层的损失值,L(yfus)是分类网的损失值,η是权衡两者之间的系数;
之后,将训练的特定情感的网络模型与图像分类标签进行匹配,输入图像作为网络的输入层传递到网络中,然后通过网络模型将输入图像转换成特定的情感,在该部分的网络结构中,“Crop”层是最终的输出层,其可以确保输出图像的尺寸与相应的输入图像相同,获取“Crop”图层的输出数据后,进一步获得相应的结果图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811638079.5A CN109785227A (zh) | 2018-12-29 | 2018-12-29 | 基于卷积神经网络的人脸情感颜色迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811638079.5A CN109785227A (zh) | 2018-12-29 | 2018-12-29 | 基于卷积神经网络的人脸情感颜色迁移方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109785227A true CN109785227A (zh) | 2019-05-21 |
Family
ID=66498991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811638079.5A Pending CN109785227A (zh) | 2018-12-29 | 2018-12-29 | 基于卷积神经网络的人脸情感颜色迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109785227A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263822A (zh) * | 2019-05-29 | 2019-09-20 | 广东工业大学 | 一种基于多任务学习方式的图像情感分析方法 |
CN110825899A (zh) * | 2019-09-18 | 2020-02-21 | 武汉纺织大学 | 融合颜色特征和残差网络深度特征的服装图像检索方法 |
CN111667559A (zh) * | 2020-05-27 | 2020-09-15 | 西北工业大学 | 一种基于深度迁移网络的多形态人脸情感生成方法 |
WO2023051664A1 (zh) * | 2021-09-30 | 2023-04-06 | 北京字跳网络技术有限公司 | 一种图像处理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005058449A (ja) * | 2003-08-12 | 2005-03-10 | Sony Corp | 感情の可視化装置および感情の可視化方法、感情の可視化出力物 |
CN107679580A (zh) * | 2017-10-21 | 2018-02-09 | 桂林电子科技大学 | 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法 |
-
2018
- 2018-12-29 CN CN201811638079.5A patent/CN109785227A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005058449A (ja) * | 2003-08-12 | 2005-03-10 | Sony Corp | 感情の可視化装置および感情の可視化方法、感情の可視化出力物 |
CN107679580A (zh) * | 2017-10-21 | 2018-02-09 | 桂林电子科技大学 | 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法 |
Non-Patent Citations (1)
Title |
---|
DA LIU ET AL.: "Emotional image color transfer via deep learning", 《PATTERN RECOGNITION LETTERS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263822A (zh) * | 2019-05-29 | 2019-09-20 | 广东工业大学 | 一种基于多任务学习方式的图像情感分析方法 |
CN110825899A (zh) * | 2019-09-18 | 2020-02-21 | 武汉纺织大学 | 融合颜色特征和残差网络深度特征的服装图像检索方法 |
CN111667559A (zh) * | 2020-05-27 | 2020-09-15 | 西北工业大学 | 一种基于深度迁移网络的多形态人脸情感生成方法 |
WO2023051664A1 (zh) * | 2021-09-30 | 2023-04-06 | 北京字跳网络技术有限公司 | 一种图像处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109785227A (zh) | 基于卷积神经网络的人脸情感颜色迁移方法 | |
CN108961245A (zh) | 基于双通道深度并行卷积网络的图像质量分类方法 | |
Liu et al. | Emotional image color transfer via deep learning | |
CN109886121A (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
Bo et al. | Computational aesthetics and applications | |
US20210216806A1 (en) | Fully automatic natural image matting method | |
CN112529768B (zh) | 一种基于生成对抗网络的服装编辑和生成方法 | |
CN109920012A (zh) | 基于卷积神经网络的图像着色系统及方法 | |
CN109871604A (zh) | 基于深度对抗网络模型的室内功能区划分方法 | |
CN110097609A (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
DE102021105249A1 (de) | Mikrotraining zur iterativen verfeinerung eines neuronalen netzes mit wenigen anpassungen | |
DE102021121109A1 (de) | Wiederherstellung dreidimensionaler modelle aus zweidimensionalen bildern | |
Liu et al. | Facial-expression-aware emotional color transfer based on convolutional neural network | |
CN107506362A (zh) | 基于用户群优化的图像分类仿脑存储方法 | |
CN113486700A (zh) | 一种教学场景下基于注意力机制的面部表情分析方法 | |
Martin-Brualla et al. | Gelato: Generative latent textured objects | |
Song et al. | Vividgraph: Learning to extract and redesign network graphs from visualization images | |
Chen et al. | DNNAM: Image Inpainting Algorithm via Deep Neural Networks and Attention Mechanism | |
Weng et al. | Data augmentation computing model based on generative adversarial network | |
Rao et al. | UMFA: a photorealistic style transfer method based on U-Net and multi-layer feature aggregation | |
CN110298365A (zh) | 一种基于人眼视觉的主题色提取方法 | |
Zhu et al. | Emotional generative adversarial network for image emotion transfer | |
Hu | Visual health analysis of print advertising graphic design based on image segmentation and few-shot learning | |
Zhu | The optimization function of computer image technology in processing oil painting creation | |
Li et al. | The interior environment design for entrepreneurship education under the virtual reality and artificial intelligence-based learning environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190521 |