CN114220095A - 一种基于实例分割的图像语义描述改进方法 - Google Patents
一种基于实例分割的图像语义描述改进方法 Download PDFInfo
- Publication number
- CN114220095A CN114220095A CN202111548600.8A CN202111548600A CN114220095A CN 114220095 A CN114220095 A CN 114220095A CN 202111548600 A CN202111548600 A CN 202111548600A CN 114220095 A CN114220095 A CN 114220095A
- Authority
- CN
- China
- Prior art keywords
- image
- lstm
- description
- sentence
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像描述领域,具体涉及一种基于实例分割的图像语义描述的改进方法。随着图像语义理解技术的发展,如何能有效的提取图像中蕴藏的高层语义信息成为科研工作者中热门研究的课题,但目前为止图像描述任务依然没有达到令人满意的效果。图像描述试图通过一句话描述图像的全部内容,但是实现图像描述的经典的编解码框架在编码端往往尝试使用基于网格划分和目标检测的卷积神经网络来提取图像特征,使得提取图像特征中容易丢失背景信息,或者不同区域的特征存在信息重合的问题,从而导致生成描述的语句出现丢失重点信息或者信息冗余的问题。因此本发明对基于编解码框架的的图像语义描述算法进行了相应改进,提高编码器提取图像特征的能力,从而使得生成的描述语句更加准确。
Description
技术领域
本发明属于图像描述领域,具体涉及一种基于实例分割的图像语义描述改进方法。
背景技术
实例分割不仅可以提取出图像中的目标,同时还能给出基于像素级别的分类,相当于同时解决了图像目标检测和图像语义分割的任务,但是图像的内容丰富多彩,即使是不同的目标之间,他们也存在诸多的联系,通过为图像生成语句描述,可以提取出图片中丰富的语义信息,不仅可以获取图片中的目标,还能得到目标的属性,同时还可以获取目标之间的相互关系,借助于机器翻译领域经典的编解码框架,将图像视作一种语言,而描述语句视为另外一种语言的编解码框架成为图像语义描述的经典框架模型。
发明内容
本发明要解决的技术问题是:对经典的基于编解码框架的图像语义描述框架进行改进,改进后算法的精度比原算法更高。
本发明基于Bottom-Up and Top-Down的编解码框架进行改进,包括以下步骤:
步骤1:输入一张图像,对图像进行实例分割提取实例区域;
其中步骤1的具体步骤为:
步骤101:实例分割采用Mask RCNN网络,提取图片得到k个实例区域;
步骤2:对提取到的实例区域通过CNN提取特征;
步骤3:将提取到的特征输入到注意力模块;
步骤4:通过注意力机制给提取到的特征分配权重,并且融合特征;
其中步骤4的具体步骤为:
步骤401:将步骤2提取的特征向量和上一时刻输出的单词对应的词向量以及Top-Down LSTM中的语句LSTM中上一时刻的隐藏状态拼接成一个向量;
步骤402:将拼接好的向量输入Top-Down LSTM中的注意力LSTM,经过注意力LSTM处理之后得到输出的隐藏状态,把它输入到注意力机制模块。
步骤403:注意力机制模块对输入的隐藏状态和输入的特征向量融合之后,使用双曲正切tanh激活函数处理得到各个特征向量的权重。
步骤404:使用softmax对前面的权重进行归一化处理,将归一化处理得到的权重与对应的特征向量相乘再累加输入Top-Down LSTM中的语句LSTM。
步骤5:将融合特征和上一时刻生成的单词的词向量输入当前时刻的LSTM隐藏层;
步骤6:LSTM隐藏层计算得到当前时刻的输出单词的概率分布;
其中步骤6的具体步骤为:
步骤601:将加权处理之后的特征向量和Top-Down LSTM中的注意力LSTM的输出隐藏层状态拼接之后输入Top-Down LSTM中的语句LSTM,经过语句LSTM的处理,再使用softmax归一化处理,得到每个单词对应的概率,概率最大的值对应的索引就是词典中单词对应的索引。
步骤7:通过概率分布,输出最大概率索引对应的单词;
其中步骤7的具体步骤为:
求出输出概率分布的最大值对应的下标号,从构造的词典中找到对应的下标号的单词。
步骤8:输出结束标志符或者输出达到最大长度时,所有输出的单词按序组成的句子为输入图像的描述语句。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
(1)解决了传统编解码框架中使用基于目标检测的编码器提取图像特征时存在的区域重合从而导致生成描述中语义重复不准确的问题;
(2)基于实例分割的编码器将提取图像中的所有实例目标,解决了传统编码器忽略图像背景的问题,从而使得生成的描述更加详细。
附图说明
图1改进后图像语义描述算法的网络框架图
图2常用编码器提取语义特征结果对比图
图3基于实例分割的编码器提取语义特征结果图
图4双层LSTM架构图
图5LSTM内部结构
具体实施方式
图像语义描述算法改进后的网络结构如图1所示。
经典Bottom-Up and Top-Down的编解码框架中通过使用Faster R-CNN提取图像感兴趣目标区域,然后将提取的目标特征输入到解码器生成图像描述语句,对于简单场景下,这种做法能生成较为理想的描述语句,但是对于复杂场景下,目标如果出现相互重叠的情况则会使得提取的不同的区域出现目标重合的情况,这将使得不同的区域提取的特征出现特征重合的问题,在解码的过程中将使得生成的语句中出现重复的词语或者语句冗余的问题。另外使用VGG等基于网格划分的编码器,将图像均匀的分割成14×14个网格大小,但是会出现一个目标被分割在多个网格中,在解码的过程中无法对目标进行准确的描述。基于VGG和Faster R-CNN提取语义特征的结果如图2所示。
实例分割算法可以有效的从像素级别提取出目标,使得图像中的每一个像素都有一个单独的类别,不会出现目标重叠的情况,也不会出现一个目标被分割在多个不同的网格中,因此使用实例分割算法将有效的解决上述描述中问题,如图3为使用实例分割算法对图2中的同一张图片处理的结果。具体使用Mask RCNN网络提取出图像中的k个目标区域,得到的区域使用CNN提取特征,提取的特征为v=(v1,v2,v3……vk),其中vi∈R1×512,每个特征的维度为512,如图4所示为结合注意力注意力机制的双层LSTM架构图,其中图5为LSTM内部结构图,在LSTM中位于下面的是注意力LSTM,主要用来给图像特征分配注意力权重,上面的是语句LSTM,主要用来生成当前时刻的单词的概率分布。从v可以得到图像的全局特征在图4中,我们把语句LSTM的上一时刻的输出ht-1 2全局特征以及上一时刻输出的单词的词向量拼接在一起得到注意力LSTM的输入xt 1如下:
其中We∈R×N,E是词汇表中单词的数量,N是每个词向量的维度,因为前面图片特征的维度为512,所以这里的N为512。拼接的三个变量分别代表了输出的语句的上下文、图像全局特征和上一时刻的输出单词。
注意力LSTM的输出ht和局部特征向量v=(v1,v2,v3……vk)一起作为输入,输入到注意力机制得到t时刻每个特征向量vi对应的权重ai,t,其对应的表达式如公式(2):
αi,t=ωa T tanh(Wvavi+Wha ht 1) (2)
αt=softmax(at) (3)
其中ωa T、Wva、Wha是网络学习的超参数,注意力机制输出的是对所有特征的加权和,如公式(4)所示:
使用y1:T表示生成的单词序列(y1,y2……yT),在每个时刻t生成单词yt的条件概率为公式(6):
其中Wp∈RN×M为学习参数,bp为偏差项,完整的句子输出的概率可以由概率的乘法公式得出如公式(7)所示:
给定图片数据集以及对应的语句描述,我们以最小化公式(8)所示的交叉熵损失函数来训练学习参数。
LXE(θ)=-∑log(pθ(yt *|y1:t-1 *)) (8)
另外由于训练与测试时的目标不一致。即模型训练时以交叉熵为代价函数,最大化对数似然概率,然而在测试时以BLEU-n、METEOR、ROUGE、CIDEr等指标评价模型的性能,这些指标离散且不可导的,无法直接通过优化评价指标提升生成的描述句子的质量。另外,基于交叉熵损失函数的训练方法只是最大化每一步生成单词的概率,而没有从整体句子的角度考虑,这样会出现整体训练损失变小了但是模型的实际评估指标并没有下降,为了进一步提高模型的效率,同时引入基于强化学习的训练方法,基于强化学习的训练方法分为两个阶段。
两阶段训练法中的第一阶段为网络的预训练阶段,利用基于负对数似然的交叉熵损失函数对网络进行训练。因此,第一阶段的整体损失函数为式(8)。最小化该损失函数,可得到一系列预训练好的模型和网络参数。
两阶段训练法中的第二阶段为网络的微调训练阶段,将基于CIDEr指标的强化学习目标函数代替预训练阶段整体损失函数中的交叉熵损失,用于第二阶段网络微调的整体损失函数。
Claims (4)
1.一种基于实例分割的图像语义描述改进方法,其特征在于,包括下列步骤:
步骤1:输入一张图像,对图像进行实例分割提取实例区域;
步骤2:对提取到的实例区域通过CNN提取特征;
步骤3:将提取到的特征输入到注意力模块;
步骤4:通过注意力机制给提取到的特征分配权重,并且融合特征;
步骤5:将融合特征和上一时刻生成的单词的词向量输入当前时刻的LSTM隐藏层;
步骤6:LSTM隐藏层计算得到当前时刻的输出单词的概率分布;
步骤7:通过概率分布,输出最大概率索引对应的单词;
步骤8:输出结束标志符或者输出达到最大长度时,所有输出的单词按序组成的句子为输入图像的描述语句。
2.根据权利要求1所述的基于实例分割的图像语义描述改进方法,其特征在于,所述步骤1中通过实例分割的方法具体为:
步骤101:实例分割采用MaskRCNN网络,提取图片得到k个实例区域。
3.根据权利要求1所述的基于实例分割的图像语义描述改进方法,其特征在于,所述步骤4中注意力机制的处理方法具体为:
步骤401:将步骤2提取的特征向量和上一时刻输出的单词对应的词向量以及Top-DownLSTM中的语句LSTM中上一时刻的隐藏状态拼接成一个向量;
步骤402:将拼接好的向量输入Top-DownLSTM中的注意力LSTM,经过注意力LSTM处理之后得到输出的隐藏状态,把它输入到注意力机制模块。
步骤403:注意力机制模块对输入的隐藏状态和输入的特征向量融合之后,使用双曲正切tanh激活函数处理得到各个特征向量的权重。
步骤404:使用softmax对前面的权重进行归一化处理,将归一化处理得到的权重与对应的特征向量相乘再累加输入Top-DownLSTM中的语句LSTM。
4.根据权利要求1所述的基于实例分割的图像语义描述改进方法,其特征在于,所述步骤6中注意力机制的处理方法具体为:
步骤601:将加权处理之后的特征向量和Top-DownLSTM中的注意力LSTM 的输出隐藏层状态拼接之后输入Top-DownLSTM中的语句LSTM,经过语句LSTM的处理,再使用softmax归一化处理,得到每个单词对应的概率,概率最大的值对应的索引就是词典中单词对应的索引。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111548600.8A CN114220095A (zh) | 2021-12-21 | 2021-12-21 | 一种基于实例分割的图像语义描述改进方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111548600.8A CN114220095A (zh) | 2021-12-21 | 2021-12-21 | 一种基于实例分割的图像语义描述改进方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114220095A true CN114220095A (zh) | 2022-03-22 |
Family
ID=80703373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111548600.8A Pending CN114220095A (zh) | 2021-12-21 | 2021-12-21 | 一种基于实例分割的图像语义描述改进方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114220095A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782702A (zh) * | 2022-03-23 | 2022-07-22 | 成都瑞数猛兽科技有限公司 | 一种基于三层lstm推敲网络的图像语义理解算法 |
CN116847091A (zh) * | 2023-07-18 | 2023-10-03 | 华院计算技术(上海)股份有限公司 | 图像编码方法、系统、设备及介质 |
-
2021
- 2021-12-21 CN CN202111548600.8A patent/CN114220095A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782702A (zh) * | 2022-03-23 | 2022-07-22 | 成都瑞数猛兽科技有限公司 | 一种基于三层lstm推敲网络的图像语义理解算法 |
CN116847091A (zh) * | 2023-07-18 | 2023-10-03 | 华院计算技术(上海)股份有限公司 | 图像编码方法、系统、设备及介质 |
CN116847091B (zh) * | 2023-07-18 | 2024-04-26 | 华院计算技术(上海)股份有限公司 | 图像编码方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111399B (zh) | 一种基于视觉注意力的图像文本生成方法 | |
CN109902293B (zh) | 一种基于局部与全局互注意力机制的文本分类方法 | |
CN107291693B (zh) | 一种改进词向量模型的语义计算方法 | |
CN110033008B (zh) | 一种基于模态变换与文本归纳的图像描述生成方法 | |
CN107273913B (zh) | 一种基于多特征融合的短文本相似度计算方法 | |
CN113297975A (zh) | 表格结构识别的方法、装置、存储介质及电子设备 | |
CN110825845A (zh) | 一种基于字符与自注意力机制的层次文本分类方法及中文文本分类方法 | |
CN107273358B (zh) | 一种基于管道模式的端到端英文篇章结构自动分析方法 | |
CN114298158A (zh) | 一种基于图文线性组合的多模态预训练方法 | |
CN112115687B (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN110688862A (zh) | 一种基于迁移学习的蒙汉互译方法 | |
CN108170848B (zh) | 一种面向中国移动智能客服的对话场景分类方法 | |
CN114220095A (zh) | 一种基于实例分割的图像语义描述改进方法 | |
CN114757182A (zh) | 一种改进训练方式的bert短文本情感分析方法 | |
CN113220886A (zh) | 文本分类方法、文本分类模型训练方法及相关设备 | |
CN110532555B (zh) | 一种基于强化学习的语言评价生成方法 | |
CN109214006A (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN111966812A (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
Huang et al. | C-Rnn: a fine-grained language model for image captioning | |
CN115081437A (zh) | 基于语言学特征对比学习的机器生成文本检测方法及系统 | |
CN114708474A (zh) | 一种融合局部和全局特征的图像语义理解算法 | |
Agrawal et al. | Image Caption Generator Using Attention Mechanism | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN116206596A (zh) | 一种垂类领域端到端语音识别方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |