CN114201960A - 一种基于情感属性挖掘的图像情感分析方法 - Google Patents
一种基于情感属性挖掘的图像情感分析方法 Download PDFInfo
- Publication number
- CN114201960A CN114201960A CN202111395864.4A CN202111395864A CN114201960A CN 114201960 A CN114201960 A CN 114201960A CN 202111395864 A CN202111395864 A CN 202111395864A CN 114201960 A CN114201960 A CN 114201960A
- Authority
- CN
- China
- Prior art keywords
- emotion
- matrix
- semantic
- image
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 119
- 238000004458 analytical method Methods 0.000 title claims abstract description 25
- 238000005065 mining Methods 0.000 title claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims abstract description 155
- 230000000007 visual effect Effects 0.000 claims abstract description 76
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 230000008909 emotion recognition Effects 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 68
- 238000004364 calculation method Methods 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 14
- 238000000354 decomposition reaction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 239000004576 sand Substances 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 4
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 238000003491 array Methods 0.000 claims 1
- 230000002996 emotional effect Effects 0.000 abstract description 11
- 230000008569 process Effects 0.000 description 27
- 230000004927 fusion Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像内容分析领域,公开了一种基于情感属性挖掘的图像情感分析方法,利用用户元数据信息挖掘,构建语义覆盖面大、情感可判别能力强的情感属性子集,并采用融合神经网络和矩阵分解模型预测标签矩阵,提升图像情感分析结果的准确性与稳定性。根据用户标签元信息和情感属性的特点,融合四种情感属性特性并优化概念选择模型完成情感属性子集选择;利用卷积神经网络提取视觉特征并通过视觉内容一致性优化;构建引入外界知识库指导的邻接图并通过语义关联性优化;将图像视觉特征和标签语义特征映射到潜在共享空间中,实现预测标签矩阵的重构;最后,利用训练好的重构模型来重构预测标签矩阵,并使用线性分类器进行最终的情感识别。
Description
技术领域
本发明涉及图像内容分析领域,尤其涉及一种基于情感属性挖掘的图像情感分析方法。
背景技术
情感一直以来都是人们适应生存的心理工具,随着信息科学技术与数字媒体科技的蓬勃发展,每天有数以万计的电子信息数据在互联网上传播,越来越多的人会在互联网上通过各种形式表达个人意见与情感倾向,图像逐渐成为互联网用户进行自我情感表达的重要媒介。对图像内容进行分析使抽象的事物具象化,这不仅能作为以用户情感为导向的图像检索和推荐系统的辅助动力;还可以结合大数据与反馈机制,为产品设计在作品创作方面提供辅助决策的方案;更能进行自动化的具体实时的舆情分析以及自动甄别有问题的信息。因此,如何进行图像情感分析已在近年来成为学术界和工业界共同关注的研究热点问题。
虽然目前图像情感识别研究的成果颇为丰富,但仍存在不少技术上的弊端:
其一,多数研究采用经验学习方法,需要大量的、多样的训练数据,存在效率低、过程不可解释、小规模任务上效果差等问题;其二,缺少能够有效地减小图像特征与情感语义之间语义鸿沟的中层语义表示,难以处理图像情感语义映射关系之间的复杂性,在细粒度层次的情感识别任务上表现并不优越;其三,多数研究使用监督学习的方法,需要手动对数据进行标注,数据集获取的工程量巨大;其四,使用互联网用户图像及用户标签的研究中,用户提供的标签信息通常不能满足对视觉内容描述的高质量标准,存在一定的错误和缺失。
发明内容
针对现有图像情感内容分析技术上存在的上述缺陷,本发明提出一种基于情感属性挖掘的图像情感分析方法。该方法定义情感属性为一组在图像情感传递中有贡献作用的视觉概念,利用用户元数据信息挖掘,构建了一个概念选择模型,通过带约束的二次线性优化方法实现从用户生成的标签集合中选择情感属性,进一步采用融合神经网络获取视觉因子矩阵和语义因子矩阵,结合矩阵分解模型构建潜在共享空间,从而重构预测标签矩阵,该方法能够有效提升图像情感分析结果的准确性与稳定性。
为达到上述目标,本发明采用如下技术方案:
一种基于情感属性挖掘的图像情感分析方法,包括以下步骤:
步骤1:根据用户标签和情感属性的特点,构建一个融合了四种情感属性特性的概念选择模型,训练该模型完成情感属性子集选择。
步骤2:利用卷积神经网络提取视觉特征,通过转换矩阵映射到潜在共享空间获取了视觉因子矩阵,并通过视觉内容一致性进行了优化。
步骤3:构建引入外界知识库指导的邻接图,利用图卷积网络获取了语义因子矩阵,并通过语义关联性进行了优化。
步骤4:通过非线性度量方式探索视觉因子矩阵与语义因子矩阵之间的相关性,构建预测标签矩阵的重构模型并训练该模型。
步骤5:采用训练好的重构模型来进行预测标签矩阵的重构,并使用线性分类器进行最终的情感识别。
优选地,所述步骤1中构建融合了四种情感属性特性的概念选择模型并获得情感属性子集的方法,定义情感属性为一组在图像认知层语义部分对情感传递有明显贡献的视觉语义概念,四种情感属性特性为语义可建模性、情感可判别性、语义覆盖性和有限性,其具体定义和计算方式为:
1)语义可建模性,利用信息熵的计算方式,将簇内差异性作为每个簇的概率权重,加以簇间差异性对概念的图像簇信息熵进行放大,计算语义可建模性,具体计算规则如下:
其中,ick为概念c的第k个图像簇,p(ick)为簇内图像数量与整个代表图像数量之比,intra_ds(IC)为簇内差异,inter_ds(IC)为簇间差异;
2)情感可判别性,利用贝叶斯定理分析每个概念与情感之间的关系,获得概念在每类情感图像中的分布,计算情感可判别性,具体计算规则如下:
其中,p(c|e)为情感类别e下概念c的条件概率,p(e)为情感类别的先验概率,通过所属类别e的图像个数和总图像数量之比计算,p(e|c)为概念c对情感e的区分能力;
3)语义覆盖性,基于互信息计算语义覆盖性,具体计算规则如下:
其中ci和cj分别为概念空间和所选情感属性集合的第i和第j个概念;
4)有限性,通过集合大小的倒数计算有限性,具体计算规则如下:
5)把目标函数转化成带有约束项的最大优化问题,并通过矩阵形式变形成二次规划问题,其主要计算规则如下:
minssTAs,s.t.0≤s≤1,1Ts=m
其中,Us为对角矩阵,其元素uii=SM(ci),Ws为对角矩阵,其元素wii=DE(ci),Vs为对称矩阵,其元素vij=SC(ci,cj),si∈{1,0}表示概念ci是否被选择作为情感属性进入Θ,A=-{αUs+βWs+(1-α-β)(DV-Vs)},DV为对角矩阵,其元素1为全1向量,α,β为分配权重。
优选地,所述步骤2中的基于卷积神经网络的视觉因子矩阵学习方法,基于K最近邻方法,构造视觉相似图QU,并基于局部几何结构约束了视觉内容,其主要计算规则如下:
优选地,所述步骤3具体包含:
2)基于K最近邻方法,构造语义相似图QV,并基于局部几何结构约束了语义内容,其主要计算规则如下:
优选地,通过非线性度量方式探索图像和标签信息构成的因子矩阵之间的相关性的预测标签矩阵重构方法,所述步骤4具体包含:
1)融合在稀疏噪声约束、视觉因子矩阵获取和语义因子矩阵获取三部分,计算损失函数,其主要计算规则如下:
其中,α1,β1,β2,λ1,λ2是分配权重,P为预测标签矩阵,G为用户标签矩阵,WU为视觉转换矩阵,S为视觉特征矩阵,V为语义因子矩阵,WV为语义转换矩阵;
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
1、本发明基于多特性建模,使情感特征集合兼具语义可建模、情感可判别、语义覆盖大、数目有限的优点;
2、本发明基于用户元数据信息进行情感挖掘,解决了目前针对图像情感分析定义的中层语义概念所存在的弊端,得到的中层语义概念语义覆盖面大、情感可判别能力强;
3、本发明利用用户生成的图像及关联标签进行预测,降低了计算机视觉中监督学习方法获取数据的代价;
4、本发明提出了基于图卷积网络的语义因子矩阵的学习方法,通过引入外界知识库指导邻接图的构建,削弱了标签之间的噪声关联信息带来的负面影响,得到准确性更高的预测标签矩阵;
5、本发明通过融合神经网络和矩阵分解模型最大限度发挥了矩阵分解算法的灵活性,有效提升了图像情感分析结果的准确性与稳定性。
附图说明
图1是本发明提供的一种基于情感属性挖掘的图像情感分析方法的流程图。
图2是本发明提供的一种融合神经网络与矩阵分解模型预测标签矩阵的框架图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,并参照附图,对本发明作进一步的详细说明。
实施例一
一种基于情感属性挖掘的图像情感分析方法,利用用户元数据信息挖掘构建了一个概念选择模型实现情感属性的选择,进一步提出融合神经网络与矩阵分解模型实现基于用户标注的图像标签预测,操作步骤如下:
步骤1:根据用户标签和情感属性的特点,构建一个融合了四种情感属性特性的概念选择模型,训练该模型完成情感属性子集选择;
步骤2:利用卷积神经网络提取视觉特征,通过转换矩阵映射到潜在共享空间获取了视觉因子矩阵,并通过视觉内容一致性进行了优化;
步骤3:构建引入外界知识库指导的邻接图,利用图卷积网络获取了语义因子矩阵,并通过语义关联性进行了优化;
步骤4:通过非线性度量方式探索视觉因子矩阵与语义因子矩阵之间的相关性,构建预测标签矩阵的重构模型;
步骤5:采用训练好的重构模型来进行预测标签矩阵的重构,并使用线性分类器进行最终的情感识别。
本实施例基于情感属性挖掘的图像情感分析方法,定义情感属性的概念,利用用户信息挖掘,构建了一个概念选择模型,实现选择情感属性,进一步采用融合神经网络获取视觉因子矩阵和语义因子矩阵,结合矩阵分解模型,重构预测标签矩阵,本实施例方法能够有效提升图像情感分析结果的准确性与稳定性。
实施例二:
本实施例与上述实施例基本相同,特别之处在于:
在本实施例中,所述步骤1中构建融合了四种情感属性特性的概念选择模型并获得情感属性子集的方法,定义情感属性为一组在图像认知层语义部分对情感传递有明显贡献的视觉语义概念,四种情感属性特性为语义可建模性、情感可判别性、语义覆盖性和有限性,其具体定义和计算方式为:
1)语义可建模性,利用信息熵的计算方式,将簇内差异性作为每个簇的概率权重,加以簇间差异性对概念的图像簇信息熵进行放大,计算语义可建模性,具体计算规则如下:
其中,ick为概念c的第k个图像簇,p(ick)为簇内图像数量与整个代表图像数量之比,intra_ds(IC)为簇内差异,inter_ds(IC)为簇间差异;
2)情感可判别性,利用贝叶斯定理分析每个概念与情感之间的关系,获得概念在每类情感图像中的分布,计算情感可判别性,具体计算规则如下:
其中,p(c|e)为情感类别e下概念c的条件概率,p(e)为情感类别的先验概率,通过所属类别e的图像个数和总图像数量之比计算,p(e|c)为概念c对情感e的区分能力;
3)语义覆盖性,基于互信息计算语义覆盖性,具体计算规则如下:
其中ci和cj分别为概念空间和所选情感属性集合的第i和第j个概念;
4)有限性,通过集合大小的倒数计算有限性,具体计算规则如下:
5)把目标函数转化成带有约束项的最大优化问题,并通过矩阵形式变形成二次规划问题,其主要计算规则如下:
minssTAs,s.t.0≤s≤1,1Ts=m
其中,Us为对角矩阵,其元素uii=SM(ci),Ws为对角矩阵,其元素wii=DE(ci),Vs为对称矩阵,其元素vij=SC(ci,cj),si∈{1,0}表示概念ci是否被选择作为情感属性进入Θ,A=-{αUs+βWs+(1-α-β)(DV-Vs)},DV为对角矩阵,其元素1为全1向量,α,β为分配权重。
在本实施例中,所述步骤2中的基于卷积神经网络的视觉因子矩阵学习方法,基于K最近邻方法,构造视觉相似图QU,并基于局部几何结构约束了视觉内容,其主要计算规则如下:
在本实施例中,所述步骤3具体包含:
2)基于K最近邻方法,构造语义相似图QV,并基于局部几何结构约束了语义内容,其主要计算规则如下:
在本实施例中,通过非线性度量方式探索图像和标签信息构成的因子矩阵之间的相关性的预测标签矩阵重构方法,所述步骤4具体包含:
1)融合在稀疏噪声约束、视觉因子矩阵获取和语义因子矩阵获取三部分,计算损失函数,其主要计算规则如下:
其中,α1,β1,β2,λ1,λ2是分配权重,P为预测标签矩阵,G为用户标签矩阵,WU为视觉转换矩阵,S为视觉特征矩阵,V为语义因子矩阵,WV为语义转换矩阵;
本实施例基于情感属性挖掘的图像情感分析方法,定义情感属性为一组在图像情感传递中有贡献作用的视觉概念,利用用户元数据信息挖掘,构建了一个概念选择模型,通过带约束的二次线性优化方法实现从用户生成的标签集合中选择情感属性,进一步采用融合神经网络获取视觉因子矩阵和语义因子矩阵,结合矩阵分解模型构建潜在共享空间,从而重构预测标签矩阵,该方法能够有效提升图像情感分析结果的准确性与稳定性。
实施例三:
本实施例与上述实施例基本相同,特别之处在于:
图1展示了本发明公开的一种基于情感属性挖掘的图像情感分析方法的流程图,如图1所示,该方法包括以下步骤:
步骤1:根据用户标签和情感属性的特点,构建一个融合了四种情感属性特性的概念选择模型,训练该模型完成情感属性子集选择,具体包含以下步骤:
1)通过每个概念的关联图像簇的簇内视觉差异和簇间视觉差异,计算语义可建模性,具体步骤如下:
1-2)预先定义图像簇个数为kc,基于图像特征之间的相似度通过K-means聚类得到包含kc个图像簇的图像集合IC,舍弃包含图像个数低于阈值的图像簇,最终得到每个概念的图像集合包含的图像簇个数为|IC|,通过每个簇中图像之间的视觉特征距离计算每个图像簇的簇内视觉差异intra_ds(ick),计算过程如下:
1-4)基于信息熵的计算方式,将簇内差异性作为每个簇的概率权重,加以簇间差异性对概念的图像簇信息熵进行放大,计算最终的语义可建模性,计算过程如下:
其中,p(ick)为簇内图像数量与整个代表图像数量之比。
1-5)计算所选概念的语义可建模性总和,得到情感属性集合的语义可建模性结果,计算过程如下:
2)利用贝叶斯定理分析每个概念与情感之间的关系,获得概念在每类情感图像中的分布,计算情感可判别性,具体步骤如下:
2-1)计算在情感类别e下概念c的条件概率p(c|e),计算过程如下:
2-2)计算每个概念的分布p(c),计算过程如下:
2-3)基于贝叶斯定理,计算已知存在概念c的情况下,此图像的情感分类为e的概率p(e|c),计算过程如下:
其中,情感类别的先验概率p(e)为所属类别e的图像个数和总图像数量之比,p(e|c)代表了概念c对情感e的区分能力。
2-4)基于信息熵,计算最终的情感可判别性得分ED(c),计算过程如下:
2-5)计算所选概念的情感可判别性得分总和,得到情感属性集合的情感可判别性得分,计算过程如下:
3)基于互信息计算语义覆盖性。为了避免重复和相近标签对图像情感分析产生冗余特征,并且使情感属性集合能够尽可能覆盖整个语义概念空间,所选情感属性中的概念在语义上应具有较低的关联性,即语义覆盖性。计算过程如下:
其中ci和cj分别为概念空间和所选情感属性集合的第i和第j个概念。
4)计算有限性。为了避免给情感识别任务造成维度灾难,需要限定情感属性的数目,有限性得分通过集合大小来表示,集合所包含的概念数目越多,其有限性得分越低。情感属性集合的有限性得分L(Θ)计算过程如下:
5)融合四种情感属性特性计算式,将概念选择模型的优化目标转化为二次规划问题,求解此二次规划问题,得到情感属性子集,具体步骤如下:
5-1)添加权重项融合四种情感属性特性计算式,得到的结果是概念选择模型的优化目标,结果如下:
maxΘ{αSM(Θ)+βDE(Θ)+γSC(Θ;C)+(1-α-β-γ)L(Θ)}
其中α,β,γ为用来平衡四种特性的权重分配参数。
5-2)通过将目标情感属性子集大小|Θ|固定为常量m,把目标函数转化成带有约束项的最大优化问题。定义对角矩阵Us和元素uii=SM(ci),对角矩阵Ws和元素wii=DE(ci),对称矩阵Vs和元素vij=SC(ci,cj),以及向量s,其中,si∈{1,0}表示概念ci是否被选择作为情感属性进入Θ,根据以上定义,将优化问题转为下式:
5-3)通过将优化问题转化为矩阵形式,获得一个二次规划问题,具体结果如下:
minssTAs,s.t.0≤s≤1,1Ts=m
5-4)求解此二次规划问题,得到向量s,选取所对应s得分最高的m个概念组成情感属性子集。
步骤2:利用卷积神经网络提取视觉特征,通过转换矩阵映射到潜在共享空间获取了视觉因子矩阵,并通过视觉内容一致性进行了优化,图2展示了本发明提供的融合神经网络与矩阵分解模型预测标签矩阵的框架图,其中视觉特征部分展示了本发明提供的基于卷积神经网络的视觉因子矩阵学习方法的流程。
下面结合图2做更为具体的说明:
1)对于输入图像矩阵X,利用卷积神经网络模型f(·),得到视觉特征矩阵S=f(X),利用视觉转换矩阵WU,将视觉特征矩阵S映射到潜在共享空间获得视觉因子矩阵U,计算方式如下:
U=WUS
2)优化视觉因子矩阵,通过视觉内容一致性约束了视觉因子向量。
2-1)基于K最近邻方法,构造视觉相似图QU,计算过程如下:
其中,σ为带宽参数。
2-2)优化视觉因子矩阵,基于局部几何结构约束,计算视觉内容一致性约束项,计算过程如下:
步骤3:构建引入外界知识库指导的邻接图,利用图卷积网络获取了语义因子矩阵,并通过语义关联性进行了优化,图2展示了本发明提供的融合神经网络与矩阵分解模型预测标签矩阵的框架图,其中语义特征部分展示了本发明提供的基于图卷积网络的语义因子矩阵学习方法的流程。
下面结合图2做更为具体的说明:
1)结合统计邻接图和知识邻接图,构建引入外界知识库指导的邻接图,具体步骤如下:
其中,P(cj|ci)为给定标签ci时标签cj出现的条件概率。对统计邻接图中的元素进行调整,避免图卷积网络产生的过度平滑问题,计算过程如下:
其中,ρ是分配权重。
其中,Rij代表两个标签所位于ConceptNet的单词顶点之间构成的关联关系,w为关联权重。
通过阈值τr来抑制多余的边界生成,计算过程如下:
其中,θg为图卷积网络参数,h(·)为图卷积操作。
2)通过一个语义转换矩阵WV将图卷积网络的输出节点特征Z映射到潜在共享空间获得语义因子矩阵V:
V=WVZT
3)优化语义因子矩阵,通过语义关联性约束了语义因子向量,具体步骤如下:
3-1)基于K最近邻方法,构造语义相似图QV,其表现形式为:
其中,σ为带宽参数。
3-2)基于局部几何结构约束,计算语义内容一致性约束项,计算过程如下:
步骤4:通过非线性度量方式探索视觉因子矩阵与语义因子矩阵之间的相关性,构建预测标签矩阵的重构模型并训练该模型。具体地,通过视觉内容一致性约束和语义关联性约束对重构模型进行优化,图2的融合部分展示了本发明提供的基于矩阵分解模型的预测标签矩阵重构技术的流程图。
下面结合图2做更为具体的说明:
1)构建模型的目标函数,该模型通过两个因子矩阵重构出原始矩阵,目标函数如下:
其中P是预测标签矩阵。
2-1)通过给定的用户标签矩阵G经过噪声标签矩阵E相减,获得预测标签矩阵P=G-E,优化的计算过程如下:
2-2)融合在稀疏噪声约束、视觉因子矩阵获取和语义因子矩阵获取三部分,计算损失函数,计算过程如下:
其中,α1,β1,β2,λ1,λ2是分配权重。
2-3)使用迭代优化算法,通过更新一个变量并固定其他变量来实现每个变量的梯度更新。对于视觉特征到潜在共享空间的视觉转换矩阵WU,计算每次更新的梯度的过程如下:
其中,η为学习率。对于语义特征到潜在共享空间的语义转换矩阵WV,计算每次更新的梯度的过程如下:
通过两个更新的梯度结果,对P值进行更新。
其中,sgn(·)函数对正值输出+1,负值输出-1。
3)训练重构模型,基于训练好的模型可得预测标签矩阵P,并以得分前5的元素所对应的标签作为每个图像样本的预测标签。
步骤5:对于测试样本,采用训练好的重构模型来进行预测标签矩阵的重构,并使用线性分类器进行最终的情感识别。
上述实施例基于情感属性挖掘的图像情感分析方法,利用用户元数据信息挖掘,构建语义覆盖面大、情感可判别能力强的情感属性子集,并采用融合神经网络和矩阵分解模型预测标签矩阵,提升图像情感分析结果的准确性与稳定性。根据用户标签元信息和情感属性的特点,融合四种情感属性特性并优化概念选择模型完成情感属性子集选择;利用卷积神经网络提取视觉特征并通过视觉内容一致性优化;构建引入外界知识库指导的邻接图并通过语义关联性优化;将图像视觉特征和标签语义特征映射到潜在共享空间中,实现预测标签矩阵的重构;最后,利用训练好的重构模型来重构预测标签矩阵,并使用线性分类器进行最终的情感识别。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明的技术原理和发明构思,都属于本发明的保护范围。
Claims (5)
1.一种基于情感属性挖掘的图像情感分析方法,利用用户元数据信息挖掘构建了一个概念选择模型实现情感属性的选择,进一步提出融合神经网络与矩阵分解模型实现基于用户标注的图像标签预测,其特征在于,操作步骤如下:
步骤1:根据用户标签和情感属性的特点,构建一个融合了四种情感属性特性的概念选择模型,训练该模型完成情感属性子集选择;
步骤2:利用卷积神经网络提取视觉特征,通过转换矩阵映射到潜在共享空间获取了视觉因子矩阵,并通过视觉内容一致性进行了优化;
步骤3:构建引入外界知识库指导的邻接图,利用图卷积网络获取了语义因子矩阵,并通过语义关联性进行了优化;
步骤4:通过非线性度量方式探索视觉因子矩阵与语义因子矩阵之间的相关性,构建预测标签矩阵的重构模型;
步骤5:采用训练好的重构模型来进行预测标签矩阵的重构,并使用线性分类器进行最终的情感识别。
2.根据权利要求1所述的一种基于情感属性挖掘的图像情感分析方法,其特征在于,所述步骤1中构建融合了四种情感属性特性的概念选择模型并获得情感属性子集的方法,定义情感属性为一组在图像认知层语义部分对情感传递有明显贡献的视觉语义概念,四种情感属性特性为语义可建模性、情感可判别性、语义覆盖性和有限性,其具体定义和计算方式为∶
1)语义可建模性,利用信息熵的计算方式,将簇内差异性作为每个簇的概率权重,加以簇间差异性对概念的图像簇信息熵进行放大,计算语义可建模性,具体计算规则如下:
其中,ick为概念c的第k个图像簇,p(ick)为簇内图像数量与整个代表图像数量之比,intra_ds(IC)为簇内差异,inter_ds(IC)为簇间差异;
2)情感可判别性,利用贝叶斯定理分析每个概念与情感之间的关系,获得概念在每类情感图像中的分布,计算情感可判别性,具体计算规则如下:
其中,p(c|e)为情感类别e下概念c的条件概率,p(e)为情感类别的先验概率,通过所属类别e的图像个数和总图像数量之比计算,p(e|c)为概念c对情感e的区分能力;
3)语义覆盖性,基于互信息计算语义覆盖性,具体计算规则如下:
其中ci和cj分别为概念空间和所选情感属性集合的第i和第j个概念;
4)有限性,通过集合大小的倒数计算有限性,具体计算规则如下:
5)把目标函数转化成带有约束项的最大优化问题,并通过矩阵形式变形成二次规划问题,其主要计算规则如下:
minssTAs,s.t.0≤s≤1,1Ts=m
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111395864.4A CN114201960A (zh) | 2021-11-23 | 2021-11-23 | 一种基于情感属性挖掘的图像情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111395864.4A CN114201960A (zh) | 2021-11-23 | 2021-11-23 | 一种基于情感属性挖掘的图像情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114201960A true CN114201960A (zh) | 2022-03-18 |
Family
ID=80648545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111395864.4A Pending CN114201960A (zh) | 2021-11-23 | 2021-11-23 | 一种基于情感属性挖掘的图像情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114201960A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115640418A (zh) * | 2022-12-26 | 2023-01-24 | 天津师范大学 | 基于残差语义一致性跨域多视角目标网站检索方法及装置 |
CN116383426A (zh) * | 2023-05-30 | 2023-07-04 | 深圳大学 | 基于属性的视觉情感识别方法、装置、设备及存储介质 |
CN118503363A (zh) * | 2024-07-19 | 2024-08-16 | 北京衔远有限公司 | 一种情感分析方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-23 CN CN202111395864.4A patent/CN114201960A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115640418A (zh) * | 2022-12-26 | 2023-01-24 | 天津师范大学 | 基于残差语义一致性跨域多视角目标网站检索方法及装置 |
CN116383426A (zh) * | 2023-05-30 | 2023-07-04 | 深圳大学 | 基于属性的视觉情感识别方法、装置、设备及存储介质 |
CN116383426B (zh) * | 2023-05-30 | 2023-08-22 | 深圳大学 | 基于属性的视觉情感识别方法、装置、设备及存储介质 |
CN118503363A (zh) * | 2024-07-19 | 2024-08-16 | 北京衔远有限公司 | 一种情感分析方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113822494B (zh) | 风险预测方法、装置、设备及存储介质 | |
CN111563164B (zh) | 一种基于图神经网络的特定目标情感分类方法 | |
Vadicamo et al. | Cross-media learning for image sentiment analysis in the wild | |
CN109389151B (zh) | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 | |
Li et al. | Image sentiment prediction based on textual descriptions with adjective noun pairs | |
CN112199520A (zh) | 基于细粒度相似性矩阵的跨模态哈希检索算法 | |
Xu et al. | A new appraisal model of second-hand housing prices in China’s first-tier cities based on machine learning algorithms | |
Harsha Vardhan et al. | Probabilistic logic graph attention networks for reasoning | |
CN114201960A (zh) | 一种基于情感属性挖掘的图像情感分析方法 | |
CN114201605B (zh) | 一种基于联合属性建模的图像情感分析方法 | |
Zhang et al. | Dual-constrained deep semi-supervised coupled factorization network with enriched prior | |
CN114329232A (zh) | 一种基于科研网络的用户画像构建方法和系统 | |
CN116975256B (zh) | 抽水蓄能电站地下厂房施工过程多源信息的处理方法及系统 | |
Bedi et al. | CitEnergy: A BERT based model to analyse Citizens’ Energy-Tweets | |
Jin et al. | Deepwalk-aware graph convolutional networks | |
Wang et al. | A text classification method based on LSTM and graph attention network | |
Zhu et al. | Multi-attention based semantic deep hashing for cross-modal retrieval | |
Xie et al. | TPNE: topology preserving network embedding | |
CN116244497A (zh) | 一种基于异质数据嵌入的跨域论文推荐方法 | |
Zhang et al. | COS-LDL: Label distribution learning by cosine-based distance-mapping correlation | |
Ugochi et al. | Customer opinion mining in electricity distribution company using twitter topic modeling and logistic regression | |
Wang et al. | Semi-supervised dual low-rank feature mapping for multi-label image annotation | |
Meng et al. | Concept-concept association information integration and multi-model collaboration for multimedia semantic concept detection | |
Liu et al. | TCD-CF: Triple cross-domain collaborative filtering recommendation | |
Hu et al. | Learning knowledge graph embedding with a bi-directional relation encoding network and a convolutional autoencoder decoding network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |