CN110263822A - 一种基于多任务学习方式的图像情感分析方法 - Google Patents

一种基于多任务学习方式的图像情感分析方法 Download PDF

Info

Publication number
CN110263822A
CN110263822A CN201910458052.6A CN201910458052A CN110263822A CN 110263822 A CN110263822 A CN 110263822A CN 201910458052 A CN201910458052 A CN 201910458052A CN 110263822 A CN110263822 A CN 110263822A
Authority
CN
China
Prior art keywords
image
emotional semantic
training
classifier
affective tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910458052.6A
Other languages
English (en)
Other versions
CN110263822B (zh
Inventor
吴壮辉
孟敏
武继刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910458052.6A priority Critical patent/CN110263822B/zh
Publication of CN110263822A publication Critical patent/CN110263822A/zh
Application granted granted Critical
Publication of CN110263822B publication Critical patent/CN110263822B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于多任务学习方式的图像情感分析方法,包括如下步骤:构建图像情感属性检测器和图像情感标签分类器;采用梯度下降法训练图像情感属性检测器初始化参数;测试图像情感属性的预测精度并判断是否达到标准,达标即检测器训练参数设计合理,否则重新训练;将图像情感检测器的输出及原始图像的卷积特征共同作为情感标签分类器的输入,采用梯度下降法训练分类器初始化参数;测试标签分类器的预测精度并判断是否达到标准,达标即标签分类器训练参数设计合理,否则重新训练;将图像情感标签进行分类、图像情感进行分析。本发明可降低语义鸿沟带来的影响,使图像情感预测更准确,更好地适用于大规模图像情感分类任务。

Description

一种基于多任务学习方式的图像情感分析方法
技术领域
本发明涉及图像处理方法的技术领域,更具体地,涉及一种基于多任务学习方式的图像情感分析方法。
背景技术
由于人们受视觉内容唤醒的情感表达需求迫切,国内外学者已着手对图像情感分析进行研究和探索,但现有的大部分研究主要是基于低级视觉特征进行情感分析,由于低级视觉特征与高级情感标签存在巨大的语义鸿沟,因此,现有图像情感标签分类器对图像情感分类的效果并不理想。
发明内容
本发明为克服现有图像情感分析方法导致低级视觉特征与高级情感标签存在巨大语义鸿沟的问题,本发明基于多任务学习方式的设置目标函数训练情感属性检测器,将检测到的情感属性作用到视觉特征上,使情感标签和情感属性的分布趋于一致,在一定程度上减少了语义鸿沟带来的影响,使得图像情感预测更加准确,同时能够很好地适用于大规模的图像情感分类任务,提供一种基于多任务学习方式的图像情感分析方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于多任务学习方式的图像情感分析方法,包括如下步骤:
S1:利用卷积层、全连接层和softmax层构建图像情感属性检测器,利用attention层、全连接层和softmax层构建图像情感标签分类器;
S2:将训练集的原始图像输入到所述图像情感属性检测器,对所述图像情感属性检测器卷积层、全连接层和softmax层的初始化参数采用梯度下降法进行训练;
S3:将测试集的原始图像输入到已训练完毕的图像情感属性检测器,测试所述图像情感属性检测器对测试集原始图像的预测精度;
S4:判断预测精度是否达到标准精度0.19,若达到标准,则表明所述图像情感属性检测器的训练参数设计合理,若未达到标准,则返回步骤S2重复执行训练;
S5:将所述图像情感属性检测器输出的预测情感属性及训练集原始图像的卷积特征同时作为所述情感标签分类器的输入,对所述图像情感标签分类器attention层、全连接层和softmax层的初始化参数采用梯度下降法进行训练;
S6:将测试集的原始图像输入到已训练完毕的所述图像情感属性标签分类器,测试图像情感标签分类器对测试集原始图像的预测精度;
S7:判断情感标签预测精度是否达到标准精度0.90,若达到标准,则表明所述图像情感标签分类器的训练参数设计合理,若未达到标准,则返回步骤S5重复执行训练;
S8:测试完毕的图像情感属性检测器及标签分类器输出得到图像情感标签概率,根据概率大小对图像情感标签进行分类,从而进行图像情感分析。
其中,步骤S1所述的图像情感属性检测器的设计结构包含前端部VGG-16网络卷积层和后端部全连接层、softmax层;所述VGG-16网络卷积层作为卷积特征提取器提取图像的卷积特征,包括第一卷积层组、第二卷积层组、第三卷积层组、第四卷积层组和第五卷积层组;所述全连接层连接在所述VGG-16网络卷积层的第五卷积层组的尾端,神经元数量设为2048;所述softmax层共两个,同时并列连接在所述全连接层尾端,神经元数量分别设为情感属性数aN和情感标签数sK,对应的上侧softmax层输出情感属性,下侧softmax层输出情感标签,以此来体现多任务方式。
随机选取图像情感数据库的80%作为训练集,图像情感数据库的10%作为验证集,10%作为测试集,将所述训练集和验证集的原始图像输入到图像情感属性检测器,步骤S2所述的图像情感属性检测器训练过程,包括以下步骤:
S21、网络初始化:所述前端部结构VGG-16网络卷积层采用ImageNet数据集训练模型初始化,后端部全连接层、softmax层采用正态分布初始化;
S22、设置图像情感属性检测器的目标损失函数:所述目标损失函数的每一个函数值与图像情感属性检测器各结构层的参数对应,采用多任务的目标损失函数,目标损失函数Lmulti-task-loss的表达式为:
式中,多任务目标损失函数包括三个部分:情感标签预测损失函数Lsentiment-loss(x,ys)、情感属性预测损失函数Lattribute-loss(x,ya)和标签属性一致性损失函数Lconsistency-loss(x),其中,x表示三通道图像矩阵、ya表示情感属性;ys表示情感标签;
S23、设置训练参数:学习率设置为0.01;每次训练迭代的图像设置为32;
S24、采用随机梯度下降算法对所述图像情感属性检测器的训练参数进行迭代训练;
S25、在原始图像的训练集上选取多任务目标损失函数值最小的网络模型对应的结构层作为图像情感属性检测器的最优模型,将所述最优模型对应的结构层参数作为训练最终结果。
进一步,所述的情感属性预测损失函数Lattribute-loss(x,ya)的表达式为:
其中,aN表示情感属性个数;yn表示真实情感属性分布;表示由情感属性分类器得到的情感属性预测分布;
情感标签预测损失函数Lsentiment-loss(x,ys)的表达式为:
其中,sK为情感标签个数,表示由情感标签分类器得到的情感标签预测分布;
所述一致性损失函数Lconsistency-loss(x)的表达式为:
其中,中间参数的表达式为:
式中,表示各情感标签所对应的所有情感属性分类器预测概率之和,由情感标签分类器得到的情感标签预测概率之和,其余参数同前文含义所述一致。
进一步,所述图像情感属性标签分类器的设计结构包括一个attention层和一个基于检测图像属性和注意力机制的BP神经网络,所述BP神经网络连接在所述attention层之后,包含一个全连接层和一个softmax层,所述softmax层首端与所述全连接层尾端连接;图像情属性标签分类器的输入包括图像情感属性检测器的预测属性及除图像情感属性检测器外的另一个VGG-16网络卷积层提取的图像卷积特征。
所述图像情感标签分类器设计的具体步骤如下:
S101、网络结构设置:所述attention层后连接一个BP神经网络,所述BP神经网络包括一个全连接层和一个softmax层,softmax层作为图像情感标签分类器的输出;
S102、图像视觉特征和图像情感属性特征设置:图像视觉特征为VGG-16模型提取的图像卷积特征,满足表达式:
其中,vi表示ImageNet数据集下训练的图像情感属性检测器中VGG-16模型的第五个卷积层的输出,n表示卷积特征特征图的个数,个数n为196;所述图像情感属性特征表示为a,由图像情感属性检测器预测排序在前五位的情感属性及使用Glove词向量表示预测的情感属性特征拼接而成;
S103、全连接层输入设置:基于图像情感属性检测器的图像情感属性特征及另一个VGG-16网络卷积层提取的图像卷积特征,attention层使用注意力机制计算获取所述图像的加权特征,凸显出与图像情感紧密相关的局部区域,忽略了干扰特征,提高了图像情感分类精度,后输出给全连接层并作为其输入,所述加权特征的表达式为:
式中,
其中,U为需要学习的转换矩阵;l为特征图的权值向量,其余参数如前文释义一致。
attention层使用注意力机制将所述图像情感检测器输出的预测情感属性作用于除图像情感检测器外的另一个VGG-16网络卷积层提取的图像卷积特征。
选用图像情感数据库,随机选取所述图像情感数据库的80%作为训练集,10%作为验证集,10%作为测试集;将训练集和验证集的原始图像输入到图像情感标签分类器,步骤S5所述的图像情感标签分类器训练过程如下:
S201、网络初始化:所述图像情感标签分类器的全连接层和softmax层采用正态分布初始化;
S202、目标损失函数设置:最终情感标签预测损失函数Lsentiment-loss(x,ys)的表达式如下:
其中,sK为情感标签个数,x表示三通道图像矩阵,ys表示情感标签,表示由情感标签分类器得到的情感标签预测分布,为所述softmax层的输出,其余参数与前文所述含义一致;
S203、设置训练参数:学习率设置为0.01,每次训练迭代的图像设置为32;
S204、采用随机随机梯度下降算法对所述图像情感标签分类器进行迭代训练;
S205、在原始图像的验证集上选取情感标签预测损失函数值最小的网络模型对应的结构层作为图像情感标签分类器的最优模型,将所述最优模型对应的结构层参数作为训练最终结果。
与现有技术相比,本发明技术方案的有益效果是:本发明采用设置多任务目标函数的方式训练情感属性检测器,加入了图像情感做监督,使情感标签和情感属性的分布趋于一致,减少低级视觉特征和高级情感标签存在的语义鸿沟问题;引入图像情感属性,使用注意力机制计算基于视觉特征和情感属性的加权特征,凸显出与图像情感紧密相关的局部区域,忽略了干扰特征,提高了图像情感分类精度,检测的情感属性通过注意力机制可以有效地作用在视觉特征上,突显出与情感标签相关的局部区域,使得图像情感预测更加准确,同时能够很好地适用于大规模的图像情感分析任务。
附图说明
图1为本发明实施方式总体的结构示意图。
图2为本发明基于多任务学习方式的图像情感分析方法流程示意图。
图3为本发明图像情感属性检测器结构示意图。
图4为情感标签所对应情感属性分类器预测概率和的计算方式示意图。
图5为VSO数据集展示图。
具体实施方式
下面结合具体实施方式对本发明作进一步的说明。其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制。
本发明提供的一种基于多任务学习方式的图像情感分析方法,具体实施方式的总体结构示意如图1所示,方法流程示意如图2所示,包括如下步骤:
S1:构建图像情感属性检测器和图像情感标签分类器;
图像情感属性检测器结构示意如图3所示,设计的结构包括前端VGG-16网络卷积层及后端全连接层、softmax层;在本实施例中,前端借用了[K.Simonyan andA.Zisserman,“Very deep convolutional networks for large-scale imagerecognition,”CoRR,vol.abs/1409.1556,2014.]的VGG-16网络结构作为卷积特征提取器,包括第一卷积层组、第二卷积层组、第三卷积层组、第四卷积层组和第五卷积层组,其用于本发明的目的是提取图像的卷积特征,后端全连接层连接在第五卷积层组之后,将全连接层神经元数量设为2048,然后两个softmax层同时连接在全连接层之后,神经元数量分别设为情感属性数aN和情感标签数sK,本具体实施方式中将aN和sK分别设置为269和2,对应的一个softmax层输出情感属性,另一个书很纯粹情感标签,输入图像被随机裁剪为224*224*3的大小,通过此方式确保不会丢失全局信息。
如图1所示,图像情感标签分类器的设计结构由一个attention层和一个基于检测图像属性和注意力机制的BP神经网络组成,BP神经网络连接在所述attention层之后,包含一个全连接层和一个softmax层,softmax层连接在所述全连接层之后,参见图1,图像情感属性标签分类器的输入一部分为图像情感属性检测器输出的预测属性,另一部分为图1下半部所示的VGG-16网络卷积层提取的图像卷积特征。
S2:选取原始图像训练集,并输入到图3所示的图像情感检测器,对图像情感属性检测器卷积层、全连接层和softmax层的初始化参数采用梯度下降法进行训练,以此来优化初始参数,:选用[D.Borth,R.Ji,T.Chen,T.Breuel,and S.-F.Chang,“Large-scalevisual sentiment ontology and detectors using adjective noun pairs,”inProceedings of the 21st ACM International Conference on Multimedia,2013.]的图像情感数据库,如图5所示,该数据库的每张图片对应一个情感属性和一个情感标签,每个情感属性也对应一个情感标签,随机选取80%作为训练集,10%作为验证集,10%作为测试集,将训练集和验证集的原始图像输入到图像情感属性检测器,本阶段情感标签非用户在本发明中最终用到的情感标签,最终的情感标签由图像情感标签分类器得到。具体训练过程包括以下步骤:
S21、网络初始化:所述前端部结构VGG-16网络卷积层采用ImageNet数据集训练模型初始化,后端部全连接层、softmax层采用正态分布初始化;
S22、设置图像情感属性检测器的目标损失函数:所述目标损失函数的每一个函数值与图像情感属性检测器各结构层的参数对应,采用多任务的目标损失函数,目标损失函数Lmulti-task-loss的表达式为:
式中,多任务目标损失函数包括三个部分:情感标签预测损失函数Lsentiment-loss(x,ys)、情感属性预测损失函数Lattribute-loss(x,ya)和标签属性一致性损失函数Lconsistency-loss(x),其中,x表示三通道图像矩阵、ya表示情感属性;ys表示情感标签;
所述的情感属性预测损失函数Lattribute-loss(x,ya)的表达式为:
其中,aN表示情感属性个数;yn表示真实情感属性分布;表示由情感属性分类器得到的情感属性预测分布;
情感标签预测损失函数Lsentiment-loss(x,ys)的表达式为:
其中,sK为情感标签个数,表示由情感标签分类器得到的情感标签预测分布;
所述一致性损失函数Lconsistency-loss(x)的表达式为:
其中,中间参数的表达式为:
式中,表示各情感标签所对应的所有情感属性分类器预测概率之和,由情感标签分类器得到的情感标签预测概率之和,其余参数同前文含义所述一致,计算方式的示意如图4所示。
S23、设置训练参数:学习率设置为0.01;每次训练迭代的图像设置为32;
S24、采用随机梯度下降算法对所述图像情感属性检测器的训练参数进行迭代训练;
S25、在原始图像的训练集上选取多任务目标损失函数值最小的网络模型对应的结构层作为图像情感属性检测器的最优模型,将最优模型对应的结构层参数作为训练最终结果。
S3:将测试集的原始图像输入到已训练完毕的图像情感属性检测器,测试所述图像情感属性检测器对测试集原始图像的预测精度;
S4:判断预测精度是否达到标准精度,若达到标准0.19,则表明所述图像情感属性检测器的训练参数设计合理,若未达到标准,则返回步骤S2重复执行训练;
如图1所示,图像情感属性标签分类器的设计结构包括一个attention层和一个基于检测图像属性和注意力机制的BP神经网络,BP神经网络连接在attention层之后,一个全连接层和一个softmax层,softmax层连接在全连接层之后;此外,参见图1,图像情属性标签分类器的输入包括图像情感属性检测器的预测属性及另一个VGG-16网络卷积层提取的图像卷积特征。
具体设计步骤如下:
S101、网络结构设置:所述attention层后连接一个BP神经网络,所述BP神经网络包括一个全连接层和一个softmax层,softmax层作为图像情感标签分类器的输出;
S102、图像视觉特征和图像情感属性特征设置:图像视觉特征为VGG-16模型提取的图像卷积特征,满足表达式:
其中,vi表示由ImageNet数据集[A.Krizhevsky,I.Sutskever,and G.E.Hinton,“Imagenet classification with deep convolutional neural networks,”inProceedings of the 25th International Conference on Neural InformationProcessing Systems-Volume 1.Curran Associates Inc.,2012,pp.1097–1105.]下训练的图像情感属性检测器中VGG-16模型[D.Borth,R.Ji,T.Chen,T.Breuel,and S.-F.Chang,“Large-scale visual sentiment ontology and detectors using adjective nounpairs,”in Proceedings of the 21st ACM International Conference on Multimedia,2013.]第五个卷积层的输出,n表示特征图的个数,个数n设置为196;图像情感属性特征表示为a,由图像情感属性检测器预测排序在前五位的情感属性及使用Glove词向量表示预测的情感属性特征拼接而成。
S103、全连接层输入设置:基于图像情感属性检测器的图像情感属性特征及另一个VGG-16网络卷积层提取的图像卷积特征,attention层使用注意力机制计算获取所述图像的加权特征,后输出给全连接层并作为其输入,所述加权特征的表达式为:
式中,
其中,U为需要学习的转换矩阵;l为特征图的权值向量,其余参数如前文释义一致。
另外,选用[D.Borth,R.Ji,T.Chen,T.Breuel,and S.-F.Chang,“Large-scalevisual sentiment ontology and detectors using adjective noun pairs,”inProceedings of the 21st ACM International Conference on Multimedia,2013.]的图像情感数据库,如图5所示,该数据库的每张图片对应一个情感属性和一个情感标签,每个情感属性也对应一个情感标签,随机选取所述图像情感数据库的80%作为训练集,10%作为验证集,10%作为测试集;将训练集和验证集的原始图像输入到图像情感标签分类器,图像情感标签分类器训练过程如下步骤所示:
S201、网络初始化:所述图像情感标签分类器的全连接层和softmax层采用正态分布初始化;
S202、目标损失函数设置:最终情感标签预测损失函数Lsentiment-loss(x,ys)的表达式如下:
其中,sK为情感标签个数,x表示三通道图像矩阵,ys表示情感标签,表示由情感标签分类器得到的情感标签预测分布,为所述softmax层的输出,其余参数与前文所述含义一致;
S203、设置训练参数:学习率设置为0.01,每次训练迭代的图像设置为32;
S204、采用随机随机梯度下降算法对所述图像情感标签分类器进行迭代训练;
S205、在原始图像的验证集上选取情感标签预测损失函数值最小的网络模型对应的结构层作为图像情感标签分类器的最优模型,将所述最优模型对应的结构层参数作为训练最终结果。
S5:将图像情感检测器输出的预测情感属性及原始图像的卷积特征共同作为情感标签分类器的输入,且将原始图像训练集输入到图像情感标签分类器,对图像情感标签分类器初始化设计的参数采用梯度下降法进行训练,以此来优化初始参数;
S5:将图像情感属性检测器输出的预测情感属性及训练集原始图像的卷积特征同时作为所述情感标签分类器的输入,对图像情感标签分类器attention层、全连接层和softmax层的初始化参数采用梯度下降法进行训练;
S6:将测试集的原始图像输入到已训练完毕的图像情感属性标签分类器,测试图像情感标签分类器对测试集原始图像的预测精度;
S7:判断情感标签预测精度是否达到标准精度0.90,若达到标准,则表明图像情感属性分类器的训练参数设计合理,若未达到标准,则返回步骤S6重复执行训练;
S8:如图5所示,利用测试完毕的所述图像情感属性检测器及标签分类器输出得到的图像情感标签概率,根据概率大小对图像情感标签进行分类,从而进行图像情感分析,图5对原始图像分别分析出积极、消极、美丽、狰狞四种情感。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种基于多任务学习方式的图像情感分析方法,其特征在于,包括如下步骤:
S1:利用卷积层、全连接层和softmax层构建图像情感属性检测器,利用attention层、全连接层和softmax层构建图像情感标签分类器;
S2:将训练集的原始图像输入到图像情感属性检测器,对所述图像情感属性检测器卷积层、全连接层和softmax层的初始化参数采用梯度下降法进行训练;
S3:将测试集的原始图像输入到已训练完毕的图像情感属性检测器,测试图像情感属性检测器对测试集原始图像的预测精度;
S4:判断预测精度是否达到标准精度,若达到标准,则表明所述图像情感属性检测器的训练参数设计合理,若未达到标准,则返回步骤S2重复执行训练;
S5:将所述图像情感属性检测器输出的预测情感属性及训练集原始图像的卷积特征同时作为图像情感标签分类器的输入,对所述图像情感标签分类器attention层、全连接层和softmax层的初始化参数采用梯度下降法进行训练;
S6:将测试集的原始图像输入到已训练完毕的所述图像情感属性标签分类器,测试图像情感标签分类器对测试集原始图像的预测精度;
S7:判断情感标签预测精度是否达到标准精度,若达到标准,则表明所述图像情感标签分类器的训练参数设计合理,若未达到标准,则返回步骤S5重复执行训练;
S8:测试完毕的图像情感属性检测器及标签分类器输出得到图像情感标签概率,根据概率大小对图像情感标签进行分类,从而进行图像情感分析。
2.根据权利要求1所述的基于多任务学习方式的图像情感分析方法,其特征在于,步骤S1所述的图像情感属性检测器的设计结构包含前端部VGG-16网络卷积层和后端部全连接层、softmax层;所述VGG-16网络卷积层作为卷积特征提取器提取图像的卷积特征,包括第一卷积层组、第二卷积层组、第三卷积层组、第四卷积层组和第五卷积层组,所述全连接层连接在所述VGG-16网络卷积层的第五卷积层组的尾端,神经元数量设为2048;所述softmax层共两个,同时连接在所述全连接层的尾端,神经元数量分别设为情感属性数aN和情感标签数sK,上侧softmax层输出情感属性,下侧softmax层输出情感标签。
3.根据权利要求1所述的基于多任务学习方式的图像情感分析方法,其特征在于,随机选取图像情感数据库的80%作为训练集,图像情感数据库的10%作为验证集,10%作为测试集,将所述训练集和验证集的原始图像输入到图像情感属性检测器,步骤S2所述的图像情感属性检测器训练过程,包括以下步骤:
S21、网络初始化:所述前端部结构VGG-16网络卷积层采用ImageNet数据集训练模型初始化,后端部全连接层、softmax层采用正态分布初始化;
S22、设置图像情感属性检测器的目标损失函数:所述目标损失函数的每一个函数值与图像情感属性检测器各结构层的参数对应,采用多任务的目标损失函数,目标损失函数Lmulti-task-loss的表达式为:
式中,多任务目标损失函数包括三个部分:情感标签预测损失函数Lsentiment-loss(x,ys)、情感属性预测损失函数Lattribute-loss(x,ya)和标签属性一致性损失函数Lconsistency-loss(x),其中,x表示三通道图像矩阵、ya表示情感属性;ys表示情感标签;
S23、设置训练参数:学习率设置为0.01;每次训练迭代的图像设置为32;
S24、采用随机梯度下降算法对所述图像情感属性检测器的训练参数进行迭代训练;
S25、在原始图像的训练集上选取多任务目标损失函数值最小的网络模型对应的结构层作为图像情感属性检测器的最优模型,将所述最优模型对应的结构层参数作为训练最终结果。
4.根据权利要求3所述的基于多任务学习方式的图像情感分析方法,其特征在于,步骤S22所述的情感属性预测损失函数Lattribute-loss(x,ya)的表达式为:
其中,aN表示情感属性个数,yn表示第n个真实情感属性分布;pan表示由情感属性分类器得到的情感属性预测分布;
所述情感标签预测损失函数Lsentiment-loss(x,ys)的表达式为:
其中,sK为情感标签个数,psk表示由情感标签分类器得到的情感标签预测分布;
所述一致性损失函数Lconsistency-loss(x)的表达式为:
其中,中间参数的表达式为:
式中,表示各情感标签所对应的所有情感属性分类器预测概率之和,由情感标签分类器得到的情感标签预测概率之和,其余参数同前文所述一致。
5.根据权利要求1所述的基于多任务学习方式的图像情感分析方法,其特征在于,所述图像情感属性标签分类器的设计结构包括一个attention层和一个基于检测图像属性和注意力机制的BP神经网络,所述BP神经网络连接在所述attention层尾端,包含一个全连接层和一个softmax层,所述softmax层首端与所述全连接层尾端连接。
6.根据权利要求5所述的基于多任务学习方式的图像情感分析方法,其特征在于,所述图像情属性标签分类器的输入包括图像情感属性检测器输出的预测属性和除图像情感属性检测器外另一个VGG-16网络卷积层提取的图像卷积特征。
7.根据权利要求1所述的基于多任务学习方式的图像情感分析方法,其特征在于,所述图像情感标签分类器设计的步骤如下:
S101、网络结构设置:所述attention层尾端连接一个BP神经网络,所述BP神经网络包括一个全连接层和一个softmax层,softmax层作为图像情感标签分类器的输出;
S102、图像视觉特征和图像情感属性特征设置:图像视觉特征为VGG-16模型提取的图像卷积特征,满足表达式:
其中,vi表示ImageNet数据集下训练的图像情感属性检测器中VGG-16模型的第五个卷积层的输出,n表示卷积特征特征图的个数,个数n为196;所述图像情感属性特征表示为a,由图像情感属性检测器预测排序在前五位的情感属性及使用Glove词向量表示预测的情感属性特征拼接而成;
S103、全连接层输入设置:基于图像情感属性检测器的图像情感属性特征及另一个VGG-16网络卷积层提取的图像卷积特征,attention层使用注意力机制计算获取所述图像的加权特征,后输出给全连接层并作为其输入,所述加权特征的表达式为:
式中,
其中,U为需要学习的转换矩阵;l为特征图的权值向量,其余参数如前文释义一致。
8.根据权利要求7所述的基于多任务学习方式的图像情感分析方法,其特征在于,所述attention层使用注意力机制将所述图像情感检测器输出的预测情感属性作用于除图像情感检测器外的另一个VGG-16网络卷积层提取的图像卷积特征。
9.根据权利要求1所述的基于多任务学习方式的图像情感分析方法,其特征在于,选用图像情感数据库,随机选取所述图像情感数据库的80%作为训练集,10%作为验证集,10%作为测试集;将训练集和验证集的原始图像输入到图像情感标签分类器,步骤S5所述的图像情感标签分类器训练过程如下:
S201、网络初始化:所述图像情感标签分类器的全连接层和softmax层采用正态分布初始化;
S202、目标损失函数设置:最终情感标签预测损失函数Lsentiment-loss(x,ys)的表达式如下:
其中,sK为情感标签个数,x表示三通道图像矩阵,ys表示情感标签,表示由情感标签分类器得到的情感标签预测分布,为所述softmax层的输出,其余参数与前文所述含义一致;
S203、设置训练参数:学习率设置为0.01,每次训练迭代的图像设置为32;
S204、采用随机随机梯度下降算法对所述图像情感标签分类器进行迭代训练;
S205、在原始图像的验证集上选取情感标签预测损失函数值最小的网络模型对应的结构层作为图像情感标签分类器的最优模型,将所述最优模型对应的结构层参数作为训练最终结果。
CN201910458052.6A 2019-05-29 2019-05-29 一种基于多任务学习方式的图像情感分析方法 Active CN110263822B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910458052.6A CN110263822B (zh) 2019-05-29 2019-05-29 一种基于多任务学习方式的图像情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910458052.6A CN110263822B (zh) 2019-05-29 2019-05-29 一种基于多任务学习方式的图像情感分析方法

Publications (2)

Publication Number Publication Date
CN110263822A true CN110263822A (zh) 2019-09-20
CN110263822B CN110263822B (zh) 2022-11-15

Family

ID=67915822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910458052.6A Active CN110263822B (zh) 2019-05-29 2019-05-29 一种基于多任务学习方式的图像情感分析方法

Country Status (1)

Country Link
CN (1) CN110263822B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796166A (zh) * 2019-09-25 2020-02-14 浙江大学 一种基于注意力机制的多任务图像处理方法
CN111275125A (zh) * 2020-02-10 2020-06-12 东华大学 一种面向低秩图像特征分析的类别标签恢复方法
CN111475615A (zh) * 2020-03-12 2020-07-31 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种情感增强的细粒度情感预测方法、装置、系统及存储介质
CN112488214A (zh) * 2020-12-02 2021-03-12 浙江大华技术股份有限公司 一种图像情感分析方法以及相关装置
CN112863549A (zh) * 2021-01-20 2021-05-28 广东工业大学 一种基于元-多任务学习的语音情感识别方法及装置
CN114937182A (zh) * 2022-04-18 2022-08-23 江西师范大学 一种基于情感轮和卷积神经网络的图像情感分布预测方法
CN116030526A (zh) * 2023-02-27 2023-04-28 华南农业大学 基于多任务深度学习的情感识别方法、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341506A (zh) * 2017-06-12 2017-11-10 华南理工大学 一种基于多方面深度学习表达的图像情感分类方法
CN107679580A (zh) * 2017-10-21 2018-02-09 桂林电子科技大学 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法
CN108427740A (zh) * 2018-03-02 2018-08-21 南开大学 一种基于深度度量学习的图像情感分类与检索算法
JP2018180628A (ja) * 2017-04-04 2018-11-15 学校法人同志社 感情分類装置および感情分類方法
CN109785227A (zh) * 2018-12-29 2019-05-21 天津大学 基于卷积神经网络的人脸情感颜色迁移方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180628A (ja) * 2017-04-04 2018-11-15 学校法人同志社 感情分類装置および感情分類方法
CN107341506A (zh) * 2017-06-12 2017-11-10 华南理工大学 一种基于多方面深度学习表达的图像情感分类方法
CN107679580A (zh) * 2017-10-21 2018-02-09 桂林电子科技大学 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法
CN108427740A (zh) * 2018-03-02 2018-08-21 南开大学 一种基于深度度量学习的图像情感分类与检索算法
CN109785227A (zh) * 2018-12-29 2019-05-21 天津大学 基于卷积神经网络的人脸情感颜色迁移方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
余传明,等: "基于多任务深度学习的文本情感原因分析", 《广西师范大学学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796166A (zh) * 2019-09-25 2020-02-14 浙江大学 一种基于注意力机制的多任务图像处理方法
CN110796166B (zh) * 2019-09-25 2022-07-26 浙江大学 一种基于注意力机制的多任务图像处理方法
CN111275125A (zh) * 2020-02-10 2020-06-12 东华大学 一种面向低秩图像特征分析的类别标签恢复方法
CN111475615A (zh) * 2020-03-12 2020-07-31 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种情感增强的细粒度情感预测方法、装置、系统及存储介质
CN111475615B (zh) * 2020-03-12 2023-06-20 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种情感增强的细粒度情感预测方法、装置、系统及存储介质
CN112488214A (zh) * 2020-12-02 2021-03-12 浙江大华技术股份有限公司 一种图像情感分析方法以及相关装置
WO2022116771A1 (en) * 2020-12-02 2022-06-09 Zhejiang Dahua Technology Co., Ltd. Method for analyzing emotion shown in image and related devices
CN112863549A (zh) * 2021-01-20 2021-05-28 广东工业大学 一种基于元-多任务学习的语音情感识别方法及装置
CN114937182A (zh) * 2022-04-18 2022-08-23 江西师范大学 一种基于情感轮和卷积神经网络的图像情感分布预测方法
CN114937182B (zh) * 2022-04-18 2024-04-09 江西师范大学 一种基于情感轮和卷积神经网络的图像情感分布预测方法
CN116030526A (zh) * 2023-02-27 2023-04-28 华南农业大学 基于多任务深度学习的情感识别方法、系统及存储介质
CN116030526B (zh) * 2023-02-27 2023-08-15 华南农业大学 基于多任务深度学习的情感识别方法、系统及存储介质

Also Published As

Publication number Publication date
CN110263822B (zh) 2022-11-15

Similar Documents

Publication Publication Date Title
CN110263822A (zh) 一种基于多任务学习方式的图像情感分析方法
CN105045907B (zh) 一种用于个性化社会图像推荐的视觉注意‑标签‑用户兴趣树的构建方法
CN109948447B (zh) 基于视频图像识别的人物网络关系发现及演化呈现方法
CN106295506A (zh) 一种基于集成卷积神经网络的年龄识别方法
CN108984530A (zh) 一种网络敏感内容的检测方法及检测系统
CN110245229A (zh) 一种基于数据增强的深度学习主题情感分类方法
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
CN108549658A (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN106971200A (zh) 一种基于自适应迁移学习的图像记忆度预测方法
CN108765383A (zh) 基于深度迁移学习的视频描述方法
CN110490686A (zh) 一种基于时间感知的商品评分模型构建、推荐方法及系统
CN117149944B (zh) 一种基于宽时间范畴的多模态情境情感识别方法及系统
CN111666766A (zh) 数据处理方法、装置和设备
CN110232123A (zh) 文本的情感分析方法及其装置、计算设备与可读介质
CN106777040A (zh) 一种基于情感极性感知算法的跨媒体微博舆情分析方法
CN114662497A (zh) 一种基于协同神经网络的虚假新闻检测方法
CN110135251A (zh) 一种基于注意力机制和混合网络的群体图像情绪识别方法
CN105869058B (zh) 一种多层潜变量模型用户画像提取的方法
CN107944049A (zh) 一种基于深度学习的电影推荐方法
Liang Intelligent emotion evaluation method of classroom teaching based on expression recognition
CN109086794A (zh) 一种基于t-lda主题模型的驾驶行为模式识方法
Iyer et al. Sign language detection using action recognition
Mandal et al. Applications of Machine Intelligence in Engineering: Proceedings of 2nd Global Conference on Artificial Intelligence and Applications (GCAIA, 2021), September 8-10, 2021, Jaipur, India
Khan et al. Advanced sequence learning approaches for emotion recognition using speech signals
Li et al. Evaluating BERT on cloud-edge time series forecasting and sentiment analysis via prompt learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant