CN114021558B - 一种基于分层的图与文语义一致性智能评估方法 - Google Patents
一种基于分层的图与文语义一致性智能评估方法 Download PDFInfo
- Publication number
- CN114021558B CN114021558B CN202111325660.3A CN202111325660A CN114021558B CN 114021558 B CN114021558 B CN 114021558B CN 202111325660 A CN202111325660 A CN 202111325660A CN 114021558 B CN114021558 B CN 114021558B
- Authority
- CN
- China
- Prior art keywords
- image
- consistency
- text
- ontology
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 34
- 230000007246 mechanism Effects 0.000 claims abstract description 32
- 238000013135 deep learning Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 12
- 238000013210 evaluation model Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000013136 deep learning model Methods 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000005286 illumination Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 235000013599 spices Nutrition 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于分层的图与文语义一致性智能评估方法,采用深度学习表示出图像、文本特征;采用自下而上(bottom‑up)、空间、通道相混合的注意力机制对图像场景进行理解,并将光照、视角、尺度、遮挡等信息考虑在内提取出显著的图像区域特征;从语义学考虑语义一致性,构建本体(object)、属性(property)、关系(relation)、全局(global)四个层次的评估指标模型进行分层次评估;最后加权给出图像与其标题内容最终的语义一致性程度,评估结果考虑了图像本身信息和语义要素层次,能够更加客观、清楚地反映各层次对图像与图像标题语义一致性影响的不同程度。
Description
技术领域
本发明涉及计算机仿真、自然语言处理领域,尤其涉及一种基于分层的图与文语义一致性智能评估方法,可用于新闻、评论、微博等多媒体内容中图像与图像标题的语义一致性评估。
背景技术
现有多媒体内容包含有图像、文本、音频、视频等模态信息,其中图与文内容是多媒体内容最常见的多模态表现形式。虚假内容出于一些不正当目的通过“加减”事实对受众进行蒙蔽、诱导,经过传播会对受众、社会产生不良的影响。图与文语义一致性评估是从语义内容上判定多媒体内容中的图像、文本是否一致,不一致则内容为假。
从2014年开始,国、内外许多高校和企业都进行了图与文语义一致性方面的探索研究,目前以美国斯坦福大学、微软、中科院的研究成果较多。总体来讲,目前大多是分别针对图像、文本进行特征表示,然后将两模态的特征映射到一个公共空间中,再进行相似度的比较。具体来讲,主要有图像特征表示、文本特征表示、公共空间构建、语义一致性度量、模型目标函数构建等几方面的研究内容。对于图像特征表示,常采用卷积神经网络(Convolutional Neural Network,CNN)及其变体(VGG19、ResNet(Residual Network))等将图像表示成多个语义标签、进行语义推理、卷积核直接提取特征、自注意力机制提取本体间的交互关系、注意力机制提取更为显著的本体或图像区域、分层次提取图像特征等;对于文本特征,常采用CNN、长短时记忆网络(Long Short Term Memory Network,LSTM)、双向LSTM(Bi-LSTM)等进行自注意力机制提取、图形化结构表示;公共空间构建的研究有单一模态特征以相同维度进行比较、自注意力机制交互映射、注意力权重分配嵌入映射、特征融合;语义一致性度量的方法有距离计算法、矩阵内积、基于距离的矢量法、多层感知网络回归法;模型的目标学习函数大多采用基于余弦距离法的双向角度损失函数。
图与文语义一致性计算最有代表性的模型有SCAN(Stacked CrossAttentionNetwork)、VSRN(Visual Semantic Reasoning Network)等。2018年微软发表的SCAN模型中,首先将图像特征表示成多个图像区域(region)、将文本特征表示成相同维度的单词(word)向量,接着将图像区域和文本中的单词进行对齐,然后进行“图像到句子和”句子到图像”的双向检索,计算每个{region,word}对的相似度,最后经过平均池化得到整张图像和文本的相似度。2019年美国波士顿东北大学的VSRN模型中,首先采用局部推理和全局推理来表示出重要的、含有语义关系的图像特征,然后通过优化目标学习函数进行图与文对齐学习,最后点乘文本特征向量和更新得到的图像特征向量计算图与文的相似度。
基于规则的图与其标题评估主要是针对参考标题和生成的标题间的相似性进行评估,这类方法包括BLEU(Bilingual Evaluation Understudy)、METEOR(Metric forEvaluation of Translation with Explicit Ordering)、ROUGE(Recall-orientedUnderstanding for Gisting Evaluation)、CIDEr(Consensus-based Image DescriptionEvaluation)、SPICE(Semantic Propositional Image Caption Evaluation)。BLEU、METEOR、ROUGE和CIDEr均是通过语句间n-gram(连续n个词)的匹配准确度评估候选句子与参考句子之间的相似度,BLEU和METEOR多用于评估机器翻译与人工翻译的距离。SPICE基于场景图从语义角度关联本体、属性、关系以量化图的相似度。
对现有研究进行分析能够发现,关于图与文语义一致性评估的研究,目前还未有相关的专利报导。现有的图与文语义一致性研究大多是针对图和单个句子的文本进行局部的语义一致性计算,是将每个词的重要性同等对待,亦不能很好地解释语义要素(本体、属性、关系)对图与文语义一致性的影响程度;基于规则的评估方法均假设参考语句能够很好的表达图像内容,未考虑参考语句不能完全覆盖图像信息的情况,不能从全局上评估图与文的语义一致性。
发明内容
本发明技术解决问题:克服现有技术的不足,提出一种基于分层的图与文语义一致性智能评估方法,该方法基于语义场概念将语义一致性分为本体、属性、关系等语义各要素层次上的一致性,在深度学习的基础上,通过将图像信息本身考虑在内能够更加客观地实现图与文在本体、属性、关系和全局四个层次上的语义一致性评估,量化的评估结果能够更加清晰地解释各个语义要素对评估结果的影响。
本发明技术解决方案:一种基于分层的图与文语义一致性智能评估方法,其特点在于:采用深度学习模型从语义场角度智能地提取出图像与其标题两种模态的本体、属性和关系特征,然后构建两模态在本体、属性、关系、全局四个层次上的语义一致性评估模型,分层次评估出两模态的语义一致度,通过加权得到两模态的语义一致度;
具体包括以下步骤(1)至步骤(5):
步骤(1):综合运用自下而上注意力机制、通道自注意力机制和空间自注意力机制,使用Faster R-CNN深度学习模型对图像提取出显著的区域特征,每个图像区域带有实物标签,并采用全连接网络模型对图像标签进行预测,从语义场角度分析和判别图像的本体、属性和关系语义特征,得到图像区域类别特征;
步骤(2):将文本中单词进行独热编码,由Bi-GRU深度学习模型提取出单词特征,采用Core-NLP深度学习模型对文本单词进行本体、属性、关系的语义分类,得到文本单词类别特征;
步骤(3):将步骤(1)得到的图像区域类别特征和和步骤(2)得到的文本单词类别特征作为输入,采用SCAN深度学习方法中“图像到文本”、“文本到图像”两种映射方式分别对图像参与的文本特征和文本参与的图像特征进行表达,挑选出注意力权重值最大的图像特征和文本特征进行对齐,得到关联度最高的本体、属性、关系特征向量;
步骤(4):将步骤(3)得到的关联度最高的本体、属性、关系特征向量作为输入,通过计算占比、余弦距离,对图像、文本两种模态进行本体、属性、关系及全局层次上的进行语义一致性计算,最后,通过加权得到两模态的语义一致性;
步骤(5):以上步骤(1)至步骤(4)构成整个评估模型;在使用评估模型对图像与其标题进行语义一致性评估之前,先对评估模型进行训练。实现方法是在步骤(4)得到两模态的语义一致度评估结果基础上,对图像和文本匹配、不匹配的情况进行采样,将三元组损失作为模型训练的优化函数,循环执行步骤(1)至步骤(4)对模型进行训练,直到该损失达到设定的期望值,即得到训练好的评估模型;最后,输入测试的图像与文本,最终得到两者在本体、属性、关系、全局四个层次上的语义一致性度、以及最终的语义一致度。
所述步骤(1)具体实现如下:
(11)采用自下而上注意力机制将抽取权重集中在图像的局部区域上,再使用Faster R-CNN深度学习模型首先在带有IoU阈值的贪婪非最大约束条件下选择出排序靠前的区域框,再经过均值化卷积后得到边界框的提取特征,从而对每张图像识别出本体和其他显著的区域。对于每一个图像区域i,xi表示原始的均值化卷积特征,将xi通过线性映射到一个D维向量,得到图像区域特征vi:
vi=Wxxi+bi,i=1,2,...,n
其中,Wx是自下而上注意力机制在每个图像区域上分配的权重,bi是对应的偏差,共n个图像区域;
(12)在Faster R-CNN模型上综合使用已公开的通道和空间两种自注意力机制以进一步增强特征表示,通道自注意力机制用于捕获任意两通道图像区域之间的通道依赖关系,位置注意力机制用于捕获图像区域位置之间的空间依赖性,使目标图像V最终被表示为一个提取出的显著特征集V=(v1,v2,...,vn)∈Rn×D,每个图像区域带有实物标签;
(13)采用全连接模型对V中图像区域标签进行预测,从语义场角度分析和判别图像区域属于本体、属性、关系的类别,得到图像区域类别特征。
所述步骤(4)中,通过计算占比、余弦距离,对图像、文本中的本体、属性、关系进行语义一致性计算,在此基础上计算两种模态的全局一致性的具体实现如下:
假设经过步骤(3)后,图像语义空间中得到no个本体、np个属性、nr个关系类别,文本语义空间中得到mo个本体、mp个属性、mr个关系类别。以下计算图像与其标题在本体、属性、关系和全局四个层次上的一致性;
本体一致性计算:图像与其标题的本体一致度表示为文本与图像中相同或相似本体的数量占文本本体总数量的比例:
其中,kmo表示文本本体与图像本体相同或相似的数量,kmo≤mo,0≤cono≤1.0;
属性一致性计算:计算图像与其标题的属性一致性,需要考虑属性所修饰的本体是否一致:
关系一致性计算:关系通常指某一本体1与另一不同本体2之间的关系,但同时需要考虑本体2缺少的情况,图像与其标题的关系一致性计算如下:
其中,object指与relation对齐的关系作用主体,w2为相应的对齐注意力权重,object′指与relation对其的关系作用受体,w3为相应的对齐注意力权重,本体2缺失时object′对应的元素值赋为1;
全局一致性计算:本体、属性、关系一致性的计算更多是表达图像与文本间局部的对齐关系,全局一致性需要考虑图像与本体中本体、属性、关系间的长依赖关系,计算如下:
cong=conp·conr
其中property、object、relation、object′都是对齐关系;
图像与其标题的语义一致性计算为cono、conp、conr、cong的加权和,四部分的权重wo、wp、wr、wg根据重视度情况而设定;
最终的一致性加权结果为:
conV,T=cono·wo+conp·wp+conr·wr+cong·wg
其中,权重关系满足wo+wp+wr+wg=1.0,conV,T∈[0.0,1.0]值越大表示标题与图像的语义一致性越高。
本发明与现有技术相比的优点在于:
(1)现有对于图片特征的提取,许多未考虑到位置、尺寸、明暗等信息的影响,本发明在现有特征提取基础上加入了位置和通道两种自注意力机制,能够识别不同光照、视角、尺度、遮挡下的显著特征,适用场景更广;
(2)现有对图与文的一致度衡量,大多基于余弦距离给出两模态的匹配程度,解释性较差,本发明从语义场角度能够更加客观和清晰地评价本体、属性、关系、全局多个层次对两模态一致性影响的不同程度。
附图说明
图1为实现本发明基于分层的图像与其标题语义一致性智能评估的模型框架示意图;
图2为实现本发明基于分层的图像与其标题语义一致性智能评估的模型实施流程图;
图3为位置注意力机制原理框图;
图4为通道注意力机制原理框图;
图5为图像区域特征提取及类别预测结果示例;
图6为本发明所提方法的测试用例及评估结果。
具体实施方式
为了能够更加清楚地理解本发明目的、技术方案及优势,以下结合附图和实施例对本发明作进一步的详细说明。此处所描述的具体实施例仅用以本发明的进一步解释,而不对本发明做限定。
如图1所示,本发明基于分层的图像与其标题语义一致性智能评估方法步骤为:首先对图像、文本进行特征提取,其中针对图像特征提取运用了包含自下而上、通道和空间的注意力机制。接着对图像特征、文本特征进行本体、属性、关系的语义分类,然后由SCAN方法对进行“图像到文本”、“文本到图像”的注意力交叉映射,得到关联度及对齐度最高的本体、属性、关系特征向量,再进行特征关联的一致性分层计算,最后加权得到图像与其标题的一致性。图2为方法模型具体的实施流程图。
一种基于分层的图与文语义一致性智能评估方法,采用深度学习网络模型对图像、文本分别进行特征表示,通过注意力机制提取出显著的图像区域,分别对图像、文本特征进行本体、属性、关系的分类,通过SCAN方法中“文本到图像”、“图像到文本”的注意力映射分别得到关于图像、文本的注意力向量表达,通过语义对齐得到有方向的本体、属性、关系图像与文本特征分类,构建本体、属性、关系、全局四个语义层次的评估指标模型进行分指标评估,加权给出图与文内容最终的语义一致性程度。其优点在于语义信息更加全面、评估结果可解释性更强,
包括步骤(1)至步骤(5):
步骤(1)对图像进行特征表示;
采用自下而上注意力机制将抽取权重集中在图像的局部区域上,再使用FasterR-CNN模型首先在带有IoU阈值的贪婪非最大约束条件下选择出排序靠前的区域框,再经过均值化卷积后得到边界框的提取特征,从而对每张图像识别出本体和其他显著的区域。对于每一个图像区域i,xi表示原始的均值化卷积特征,将xi通过线性映射到一个D维向量,得到图像区域特征vi:
vi=Wxxi+bi,i=1,2,...,n
其中Wx是自下而上注意力机制在每个图像区域上分配的权重,bi为相应的偏差,共n个图像区域。
接着,在Faster R-CNN模型上并联使用通道和空间两种自注意力机制以进一步增强特征表示。位置注意力机制用于捕获图像区域位置之间的空间依赖性,其原理如图3所示,特征图A首先分别通过3个卷积层得到3个特征图B、C、D,矩阵变维为C*(H*W),再将变维后的B转置与变维后的C相乘,然后通过softmax学习得到空间注意力特征图S∈R(H*W)*(H*W):
其中,sji是S的第j行第i列元素,衡量第i个位置对第j个位置的影响,Bi、Cj分别为B、C的第i个、第j个子图,N是像素点的个数,两个位置的特征越相似则关联越紧密。
同时,将特征A输入批归一化操作的卷积层,由ReLU学习后得到特征图D,并变维为C*H*W,接着将S的转置与D做乘积,并变维为原来C*H*W的维度,最后乘以尺度系数α,与A相加得到最后的输出E,每个子特征Ej∈E是所有位置特征和原始特征的加权和:
其中,α初始化为0,并在逐渐学习过程中分配到更多的权重,Ej是E的第j个特征,Di是D的第i个特征,Aj是第j个原始特征,N同上。
通道自注意力机制亦运用了相似的特征图变换方法,用于捕获任意两通道图像区域之间的通道依赖关系,原理如图4所示。与位置注意力机制不同,通道注意力特征是直接从特征图A中计算而得。对A和其转置作矩阵乘积,通过softmax层获得通道注意力特征图X:
其中,xji∈X是衡量第i个通道对第j个通道的影响,Ai、Aj分别表示第i、第j个原始特征,C是X的维度大小。
接着对X的转置和A作矩阵乘积,并将结果变维为C*(H*W)。最后,乘以尺度参数β,与A相加得到最后的输出G,每个子特征Gj∈G是所有通道特征和原始特征的加权和:
其中,β同α逐渐从0学习到权重,Gj是G的第j个特征,sij、N、Ai、Aj同上。
从而,目标图像V最终被表示为一个提取出的显著特征集V=(v1,v2,...,vn)∈Rn ×D,每个元素表示一个图像区域,每个图像区域带有实物标签。最后,采用全连接模型对图像区域进行预测,从语义场角度分析和判别图像区域属于本体、属性、关系的类别,得到图像区域类别特征。如图5所示是以MSCOCO数据集中一图像为例得到的判别结果,如“hands”、“green tree”、“two young guy”等图像区域类别。
步骤(2)对文本进行特征表示;
对于句子中的m个输入单词,首先通过单词嵌入层将它的独热编码W={w1,w2,...,wm}嵌入到一个D维空间中,用向量yi表示为:
yi=Wewi
其中,We是模型端到端学习得到的一个参数化矩阵,wi(i∈[1,m])表示第i个单词。
最后,采用Core-NLP模型对T中文本单词进行分类,判别属于本体、属性、关系的类别,得到文本单词类别特征。如MSCOCO数据集中对应图2的文本“Two young guys withshaggy hair look at their hands while hanging out in the yard.”中不同颜色分别表示属性、本体和关系。
步骤(3)基于交叉注意力的语义对齐;
得到图像区域vi和文本单词tj之间的相似度:
其中,score(vi,tj)是通过余弦距离计算得到的vi和tj之间的相似度,sim(vi,tj)是score(vi,tj)经过归一化后取0和score(vi,tj)之间较大的值。
得到图像和其标题对齐的基础得分向量,记为S(V,T):
S(V,T)={s1,s2,...,sn}
其中,每个si表示第i个图像区域vi与标题T的相关程度,能够反映出一定文本下图像区域的重要程度。
标题和图像对齐的基础得分向量记为S(V,T):
S(V,T)={s′1,s′2,...,s′m}
其中,每个s′j表示图像V与第j个文本tj的相关程度,能够反映出一定图像下文本单词的重要程度。
经过步骤(3-1)和(3-2),得到对齐程度最高、有关联关系的本体、属性、关系特征向量。
步骤(4)图与文语义一致性评估结果计算;
假设经过步骤(3)后,图像语义空间中得到no个本体、np个属性、nr个关系类别类别,文本语义空间中得到mo个本体、mp个属性、mr个关系类别。以下计算图像与其标题的本体、属性、关系、全局四个层次上的一致性。
(4-1)本体一致性计算。因此,图像与其标题的本体一致度表示为文本中本体与图像中相同或相似本体占文本中本体的比例:
(4-2)属性一致性计算。需要考虑属性所修饰的本体是否一致:
(4-3)关系一致性计算。关系通常指某一本体1与另一不同本体2之间的关系,但同时需要考虑本体2缺少的情况,因此图像与其标题的关系一致性计算如下:
其中,object指与relation对齐的关系作用主体,w2为相应的对齐注意力权重,object′指与relation对其的关系作用受体,w3为相应的对齐注意力权重,本体2缺失时object′对应的元素值赋为1。
(4-4)全局一致性计算。步骤(4-1)、(4-2)和(4-3)更多是表达图像与文本间局部的对齐关系,全局一致性需要考虑图像与本体中本体、属性、关系间的长依赖关系,计算如下:
cong=conp·conr
其中property、object、relation、object′都是对齐关系。
(4-5)图像与其标题的语义一致性计算为cono、conp、conr、cong的加权和,四部分的权重wo、wp、wr、wg可以根据重视度情况而设定,灵活度较大,最终的一致性结果为:
conV,T=cono·wo+conp·wp+conr·wr+cong·wg
其中,权重关系满足wo+wp+wr+wg=1.0,conV,T∈[0.0,1.0]值越大表示图标题与图像的语义一致性越高。
步骤(5)模型训练与测试;
在使用评估模型对图像与其标题进行语义一致性评估之前,需要对模型进行训练。实现方法是在步骤(4)得到两模态的语义一致度评估结果基础上,将三元组损失作为目标函数,使用文本T作为搜索目标,在每个mini-batch对其匹配和不匹配的图像进行采样,循环执行步骤(1)至步骤(4)对模型进行训练,直到该损失达到设定的期望值,即得到训练好的评估模型。
匹配的图像和文本构成正向对,不匹配的图像和文本构成负向对。正向对要比负向对的相似度得分要高出一个有界值γ。以图像作为搜索目标时,需同样满足上述约束条件。构建如下目标函数,最大化目标函数以使得那些使损失最高的负样本(称为硬负样本)最少:
其中,I′和T′为硬负样本,函数[·]+等价于max[·,0],g(·)表示由步骤(4-5)计算出的图像与文本对的全局相似度。
最后,给训练好的评估模型输入测试的图像与文本,可最终得到两者在本体、属性、关系、全局四个层次上的语义一致性度、以及最终的语义一致度。
以图6中图像和标号1句子为测试应用例,“1.Two men dressed in green are preparingfood in a restaurant.”,计算图像与其相似度。得到 cong=0.767*0.855=0.656,这样就得到了图像和其标题间本体、属性、关系、全局的语义一致度结果,分了四个层次。若赋予wo、wp、wr、wg相同的值,均为1/4,则得到图像该文本间的语义一致性度为conV,T=0.25*(1.0+0.767+0.855+0.656)=0.820。该图像与标号2、3、4,5文本间的分层次语义一致度评估结果如图6所示,该结果与SCAN方法得出的结果一致(标号1、2、3、4均匹配,标号5不匹配)。分析能够看到,本发明所提方法能够清楚地反映出图像与文本间本体、属性、关系、全局四个层次上的语义一致度,通过加权能最终得到图像与其标题最终的语义一致性评估量化结果,所得结果充分考虑了图像的信息,能够更加清晰地解释哪个层次对最终的一致性度的影响程度。
本发明未详细阐述部分属于本领域的公知技术。
以上所述的本发明实施方式并不构成对本发明保护范围的限定,任何熟悉本领域的人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (3)
1.一种基于分层的图与文语义一致性智能评估方法,其特征在于,包括以下步骤:
步骤(1):综合运用自下而上注意力机制、通道自注意力机制和空间自注意力机制,使用Faster R-CNN深度学习模型对图像提取出显著的区域特征,每个图像区域带有实物标签,并采用全连接网络模型对图像标签进行预测,从语义场角度分析和判别图像的本体、属性和关系语义特征,得到图像区域类别特征;
步骤(2):将文本中单词进行独热编码,由Bi-GRU深度学习模型提取出单词特征,采用Core-NLP深度学习模型对文本单词进行本体、属性、关系的语义分类,得到文本单词类别特征;
步骤(3):将步骤(1)得到的图像区域类别特征和步骤(2)得到的文本单词类别特征作为输入,采用SCAN深度学习方法中“图像到文本”、“文本到图像”两种映射方式分别对图像参与的文本特征和文本参与的图像特征进行表达,挑选出注意力权重值最大的图像特征和文本特征进行对齐,得到关联度最高的本体、属性、关系特征向量;
步骤(4):将步骤(3)得到的关联度最高的本体、属性、关系特征向量作为输入,通过计算占比、余弦距离,对图像、文本两种模态进行本体、属性、关系及全局层次上的语义一致性计算,通过加权得到两模态的语义一致性;
步骤(5):以上步骤(1)至步骤(4)构成整个评估模型;在步骤(4)得到两模态的语义一致度评估结果基础上,对图像和文本匹配、不匹配的情况进行采样,将三元组损失作为模型训练的优化函数,循环执行步骤(1)至步骤(4)对评估模型进行训练,直到该三元组损失达到设定的期望值,从而得到训练好的评估模型;最后,输入测试的图像与文本,最终得到图像与文本在本体、属性、关系和全局四个层次上的语义一致性度以及两模态最终的语义一致度。
2.根据权利要求1所述的基于分层的图与文语义一致性智能评估方法,其特征在于:所述步骤(1)实现如下:
(11)采用自下而上注意力机制将抽取权重集中在图像的局部区域上,使用Faster R-CNN深度学习模型,首先在带有交并比 (Intersect over Union)阈值的贪婪非最大约束条件下选择出排序靠前的区域框,再经过均值化卷积后得到边界框的提取特征,从而对每张图像识别出本体和其他显著的区域, 对于每一个图像区域i,xi表示原始的均值化卷积特征,将xi通过线性映射到一个D维向量,得到图像区域特征vi:
vi=Wxxi+bi,i=1,2,...,n
其中,Wx是自下而上注意力机制在每个图像区域上分配的权重,bi是对应的偏差,共n个图像区域;
(12)在Faster R-CNN模型上综合使用通道和空间两种自注意力机制以进一步增强特征表示,通道自注意力机制用于捕获任意两通道图像区域之间的通道依赖关系,位置自注意力机制用于捕获图像区域位置之间的空间依赖性,使目标图像V最终被表示为一个提取出的显著特征集V=(v1,v2,...,vn)∈Rn×D,每个图像区域带有实物标签;
(13)采用全连接模型对显著特征集V中图像区域标签进行预测,从语义场角度分析和判别图像区域属于本体、属性、关系的类别,得到图像区域类别特征。
3.根据权利要求1所述的基于分层的图与文语义一致性智能评估方法,其特征在于:所述步骤(4)中,通过计算占比、余弦距离,对图像和文本中的本体、属性、关系进行语义一致性计算,在此基础上计算两种模态的全局一致性,具体实现如下:
假设经过步骤(3)后,图像语义空间中得到no个本体、np个属性、nr个关系类别,文本语义空间中得到mo个本体、mp个属性、mr个关系类别,以下计算图像与其标题在本体、属性、关系和全局四个层次上的一致性;
本体一致性计算:图像与其标题的本体一致度表示为文本中本体与图像中本体相同或相似数量占文本本体总数量的比例:
其中,kmo表示文本本体与图像本体相同或相似的数量,kmo≤mo,0≤cono≤1.0;
属性一致性计算:计算图像与其标题的属性一致性,需要考虑属性所修饰的本体是否一致:
关系一致性计算:关系通常指某一本体1与另一不同本体2之间的关系,但同时需要考虑本体2缺少的情况,图像与其标题的关系一致性计算如下:
其中,object指与relation对齐的关系作用主体,w2为相应的对齐注意力权重,object′指与relation对齐 的关系作用受体,w3为相应的对齐注意力权重,本体2缺失时object′对应的元素值赋为1;
全局一致性计算:本体、属性、关系一致性的计算更多是表达图像与文本间局部的对齐关系,全局一致性需要考虑图像与本体中本体、属性、关系间的长依赖关系,计算如下:
cong=conp·conr
其中property、object、relation、object′都是对齐关系;
图像与其标题的语义一致性计算为cono、conp、conr、cong的加权和,四部分的权重wo、wp、wr、wg根据重视度情况而设定;
最终的一致性加权结果为:
conV,T=cono·wo+conp·wp+conr·wr+cong·wg
其中,权重关系满足wo+wp+wr+wg=1.0,conV,T∈[0.0,1.0]值越大表示图像标题与其标题的语义一致性越高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111325660.3A CN114021558B (zh) | 2021-11-10 | 2021-11-10 | 一种基于分层的图与文语义一致性智能评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111325660.3A CN114021558B (zh) | 2021-11-10 | 2021-11-10 | 一种基于分层的图与文语义一致性智能评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114021558A CN114021558A (zh) | 2022-02-08 |
CN114021558B true CN114021558B (zh) | 2022-05-10 |
Family
ID=80063256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111325660.3A Active CN114021558B (zh) | 2021-11-10 | 2021-11-10 | 一种基于分层的图与文语义一致性智能评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114021558B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
CN112733866A (zh) * | 2021-01-27 | 2021-04-30 | 西安理工大学 | 一种提高可控图像文本描述正确性的网络构建方法 |
CN113191357A (zh) * | 2021-05-18 | 2021-07-30 | 中国石油大学(华东) | 基于图注意力网络的多层次图像-文本匹配方法 |
CN113516152A (zh) * | 2021-04-08 | 2021-10-19 | 北京航空航天大学 | 一种基于复合图像语义的图像描述方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11093560B2 (en) * | 2018-09-21 | 2021-08-17 | Microsoft Technology Licensing, Llc | Stacked cross-modal matching |
-
2021
- 2021-11-10 CN CN202111325660.3A patent/CN114021558B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
CN112733866A (zh) * | 2021-01-27 | 2021-04-30 | 西安理工大学 | 一种提高可控图像文本描述正确性的网络构建方法 |
CN113516152A (zh) * | 2021-04-08 | 2021-10-19 | 北京航空航天大学 | 一种基于复合图像语义的图像描述方法 |
CN113191357A (zh) * | 2021-05-18 | 2021-07-30 | 中国石油大学(华东) | 基于图注意力网络的多层次图像-文本匹配方法 |
Non-Patent Citations (1)
Title |
---|
基于长短时预测一致性的大规模视频语义识别算法;王铮等;《中国科学:信息科学》;20200610;第50卷(第06期);第877-888页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114021558A (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059217B (zh) | 一种两级网络的图像文本跨媒体检索方法 | |
CN112100346B (zh) | 基于细粒度图像特征和外部知识相融合的视觉问答方法 | |
CN111881262B (zh) | 基于多通道神经网络的文本情感分析方法 | |
CN110147457A (zh) | 图文匹配方法、装置、存储介质及设备 | |
CN113297975A (zh) | 表格结构识别的方法、装置、存储介质及电子设备 | |
CN111324696B (zh) | 实体抽取方法、实体抽取模型的训练方法、装置及设备 | |
CN116097250A (zh) | 用于多模式文档理解的布局感知多模式预训练 | |
CN114398491A (zh) | 一种基于知识图谱的语义分割图像实体关系推理方法 | |
CN112966135B (zh) | 一种基于注意力机制和门控机制的图文检索方法和系统 | |
CN103714148B (zh) | 基于稀疏编码分类的sar图像检索方法 | |
CN113821670B (zh) | 图像检索方法、装置、设备及计算机可读存储介质 | |
CN112651940B (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
CN111598183A (zh) | 一种多特征融合图像描述方法 | |
CN112148831B (zh) | 图文混合检索方法、装置、存储介质、计算机设备 | |
CN116610778A (zh) | 基于跨模态全局与局部注意力机制的双向图文匹配方法 | |
CN114936623A (zh) | 一种融合多模态数据的方面级情感分析方法 | |
Zhao et al. | Generative label fused network for image–text matching | |
KR102358195B1 (ko) | 선형 회귀 분석을 이용하여 선별된 기사를 제공하는 시스템 | |
CN115238685B (zh) | 一种基于位置感知的建筑工程变更事件联合抽取方法 | |
CN113537304A (zh) | 一种基于双向cnn的跨模态语义聚类方法 | |
CN115658934A (zh) | 一种基于多类注意力机制的图文跨模态检索方法 | |
CN113486645A (zh) | 一种基于深度学习的文本相似度检测方法 | |
CN116843175A (zh) | 一种合同条款风险检查方法、系统、设备和存储介质 | |
CN115221369A (zh) | 视觉问答的实现方法和基于视觉问答检验模型的方法 | |
CN114239730B (zh) | 一种基于近邻排序关系的跨模态检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |