CN114550159A - 一种图像字幕生成方法、装置、设备及可读存储介质 - Google Patents

一种图像字幕生成方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN114550159A
CN114550159A CN202210188782.0A CN202210188782A CN114550159A CN 114550159 A CN114550159 A CN 114550159A CN 202210188782 A CN202210188782 A CN 202210188782A CN 114550159 A CN114550159 A CN 114550159A
Authority
CN
China
Prior art keywords
target
memory
current time
time step
serialization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210188782.0A
Other languages
English (en)
Inventor
史海涛
张骏温
边玲燕
魏燚伟
韩昊天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum Beijing
Original Assignee
China University of Petroleum Beijing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum Beijing filed Critical China University of Petroleum Beijing
Priority to CN202210188782.0A priority Critical patent/CN114550159A/zh
Publication of CN114550159A publication Critical patent/CN114550159A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像字幕生成方法,包括:利用循环卷积神经网络对目标图像进行特征提取,得到原始图像特征集合并发送至序列化变化器模型的序列化变化器编码器进行编码;基于长短期记忆网络的目标状态变量对原始图像特征集合进行注意力调整,将注意力调整后特征和目标状态变量输入门控线性单元,得到目标记忆体;将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器解码器,对得到的目标解码器输出和目标记忆体进行加权求和,根据各时间步的加权求和结果生成目标字幕。本发明能够根据外部状态来识别最有关联的区域,较大地提高了图像字幕生成准确度。本发明还公开了一种装置、设备及存储介质,具有相应技术效果。

Description

一种图像字幕生成方法、装置、设备及可读存储介质
技术领域
本发明涉及图像处理技术领域,特别是涉及一种图像字幕生成方法、装置、设备及计算机可读存储介质。
背景技术
图像字幕生成(Image Captioning)用于从视觉内容中提取自然语言内容,其属于序列建模任务中的子领域。这项技术的目标在于自动为图像添加字幕(caption),后续可用于图像搜索任务。为了生成高质量的字幕,需要理解不同元素(物体、动作、场景),并将它们用合适的语法结构组织起来。
现有技术中一般通过以下两类模型进行图像字幕生成,一类是不包含注意力(Attention)机制的模型,基于由物体检测和属性分类的输出构成的模板进行图像字幕生成。然而,这种方法受限于模板的种类。另一类是包含注意力机制的模型。包含注意力机制的模型又分为基于CNN+RNN的模型和基于变换器(Transformer)的模型。
基于CNN+RNN的模型将卷积神经网络(CNN)和循环神经网络(RNN)分别用来当作编码器和解码器,编码器CNN从输入图像中提取视觉特征,解码器RNN将视觉特征翻译成相应的词语。循环注意力将根据解码器RNN的状态向量来选择性地更关注一些图像区域。然而,循环神经网络固有的序列本质排除了训练并行化的可能性。对于两个有微弱联系的特征,循环神经网络需要通过几个时间步(timestep)来积累信息以将它们连接。因此,距离越远的信息越难被捕获到,从而导致图像字幕生成准确度低。
基于变换器的模型完全依赖于自注意力(Self-Attention)来计算它的输入和输出的表现,而不使用序列对齐(sequence-aligned)的循环神经网络。不同于循环注意力,变换器中的自注意力是完全的自我维持机制。自注意力机制通过直接并行化计算图像内部区域的相关联度的方式,在一定程度上避免了现有技术中的上述问题。然而,对于图像字幕生成来说,仅仅注意到图像内部区域的相关联度,无法识别到最有关联的区域,从而导致图像字幕生成准确度低。
综上所述,如何有效地解决现有的图像字幕生成方法,距离越远的信息越难被捕获到,仅仅注意到图像内部区域的相关联度,无法识别到最有关联的区域,导致图像字幕生成准确度低等问题,是目前本领域技术人员急需解决的问题。
发明内容
本发明的目的是提供一种图像字幕生成方法,该方法兼顾了循环注意力机制和自注意力机制的优点,能够根据外部状态来识别最有关联的区域,较大地提高了图像字幕生成准确度;本发明的另一目的是提供一种图像字幕生成装置、设备及计算机可读存储介质。
为解决上述技术问题,本发明提供如下技术方案:
一种图像字幕生成方法,包括:
利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;
将所述原始图像特征集合发送至序列化变化器模型,以利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,得到编码后图像特征集合;
获取序列记忆模型的当前时间步记忆体、所述序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;
结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量;
利用所述序列记忆模型基于所述目标状态变量对所述原始图像特征集合进行注意力调整,得到注意力调整后特征;
将所述注意力调整后特征和所述目标状态变量输入所述序列记忆模型中的门控线性单元,得到所述序列记忆模型输出的目标记忆体;
将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出;
对所述目标记忆体和所述目标解码器输出进行加权求和,并利用分类器根据所述加权求和结果确定预设词典中各词语分别对应的预测概率;
将各所述预测概率中最大值对应的词语确定为目标词语,并将所述目标词语的词向量确定为目标输出词向量;
将所述目标状态变量确定为当前状态变量,将所述目标记忆体确定为当前时间步记忆体,并将所述目标输出词向量确定为当前时间步输出词向量,重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;
将各所述目标词语进行串联组合,得到所述目标图像对应的目标字幕。
在本发明的一种具体实施方式中,结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量,包括:
计算所述原始图像特征集合的平均池化;
对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量;
对所述当前时间步输出词向量和所述融合向量进行向量拼接,得到拼接向量;
将所述拼接向量输入至所述长短期记忆网络,得到所述长短期记忆网络的目标状态变量;
重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,包括:
重复执行所述对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量的步骤。
在本发明的一种具体实施方式中,利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,包括:
利用所述序列化变化器编码器的多头自注意力机制和全连接前馈网络对所述原始图像特征集合进行编码操作。
在本发明的一种具体实施方式中,将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出,包括:
将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出。
一种图像字幕生成装置,包括:
特征提取模块,用于利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;
编码模块,用于将所述原始图像特征集合发送至序列化变化器模型,以利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,得到编码后图像特征集合;
记忆体及词向量获取模块,用于获取序列记忆模型的当前时间步记忆体、所述序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;
状态变量确定模块,用于结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量;
注意力调整模块,用于利用所述序列记忆模型基于所述目标状态变量对所述原始图像特征集合进行注意力调整,得到注意力调整后特征;
记忆体获得模块,用于将所述注意力调整后特征和所述目标状态变量输入所述序列记忆模型中的门控线性单元,得到所述序列记忆模型输出的目标记忆体;
解码器输出获得模块,用于将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出;
预测概率确定模块,用于对所述目标记忆体和所述目标解码器输出进行加权求和,并利用分类器根据所述加权求和结果确定预设词典中各词语分别对应的预测概率;
输出词向量确定模块,用于将各所述预测概率中最大值对应的词语确定为目标词语,并将所述目标词语的词向量确定为目标输出词向量;
重复执行模块,用于将所述目标状态变量确定为当前状态变量,将所述目标记忆体确定为当前时间步记忆体,并将所述目标输出词向量确定为当前时间步输出词向量,重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;
字幕获得模块,用于将各所述目标词语进行串联组合,得到所述目标图像对应的目标字幕。
在本发明的一种具体实施方式中,所述状态变量确定模块包括:
平均池化计算子模块,用于计算所述原始图像特征集合的平均池化;
融合向量获得子模块,用于对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量;
向量拼接子模块,用于对所述当前时间步输出词向量和所述融合向量进行向量拼接,得到拼接向量;
状态变量获得子模块,用于将所述拼接向量输入至所述长短期记忆网络,得到所述长短期记忆网络的目标状态变量;
重复执行模块具体为重复执行所述对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量的步骤的模块。
在本发明的一种具体实施方式中,所述编码模块具体为利用所述序列化变化器编码器的多头自注意力机制和全连接前馈网络对所述原始图像特征集合进行编码操作的模块。
在本发明的一种具体实施方式中,所述解码器输出获得模块具体为将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出的模块。
一种图像字幕生成设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述图像字幕生成方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述图像字幕生成方法的步骤。
本发明所提供的图像字幕生成方法,利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器模型中的序列化变化器编码器对原始图像特征集合进行编码操作,得到编码后图像特征集合;获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量;利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征;将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体;将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器模型中的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出;对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率;将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量;将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量,重复执行结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;将各目标词语进行串联组合,得到目标图像对应的目标字幕。
由上述技术方案可知,提出了用于图像字幕生成的外向内注意力机制。通过在序列记忆模型中部署外向内注意力的长短期记忆网络。结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量,而后对目标状态变量和原始图像特征集合进行注意力调整,将结果送入门控线性单元进行输出。预先训练包含了序列化变换器编码器和解码器的序列化变换器模型。对于序列化变换器编码器,其中的注意力机制为使用了自注意力的多头自注意力机制,对于序列化变换器解码器,将序列记忆模型的输出和解码器输出按照一定比例加权求和进行平衡调整得到最终的输出。相较于只考虑循环神经网络或者只考虑自注意力机制。本发明兼顾了循环注意力机制和自注意力机制的优点,能够根据外部状态来识别最有关联的区域,较大地提高了图像字幕生成准确度。
相应的,本发明还提供了与上述图像字幕生成方法相对应的图像字幕生成装置、设备和计算机可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中图像字幕生成方法的一种实施流程图;
图2为本发明实施例中图像字幕生成方法的另一种实施流程图;
图3为一种自注意力机制应用到图像字幕生成任务的结构图;
图4为一种外向内注意力机制应用到图像字幕生成任务的结构图;
图5为外向内注意力机制的示意图表;
图6为本发明实施例中一种图像字幕生成装置的结构框图;
图7为本发明实施例中一种图像字幕生成设备的结构框图;
图8为本实施例提供的一种图像字幕生成设备的具体结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1为本发明实施例中图像字幕生成方法的一种实施流程图,该方法可以包括以下步骤:
S101:利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合。
当接收到需要生成字幕的目标图像时,利用循环卷积神经网络R-CNN对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合。
S102:将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器模型中的序列化变化器编码器对原始图像特征集合进行编码操作,得到编码后图像特征集合。
预先训练包含序列化变化器编码器的序列化变化器模型。在利用循环卷积神经网络提取到目标图像的原始图像特征集合之后,将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器模型中的序列化变化器编码器对原始图像特征集合进行编码操作,得到编码后图像特征集合。
S103:获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量。
预先训练序列记忆模型,序列化变化器模型中还包含序列化变化器解码器。获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量。
S104:结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量。
在利用循环卷积神经网络提取到目标图像的原始图像特征集合,并获取到序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量之后,结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络LSTM的目标状态变量。
S105:利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征。
在确定出序列记忆模型中长短期记忆网络的目标状态变量之后,利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征。
S106:将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体。
在通过对原始图像特征集合进行注意力调整,得到注意力调整后特征之后,将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元GLU,得到序列记忆模型输出的目标记忆体。
S107:将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器模型中的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出。
获取当前时间步输出词向量,在得到序列记忆模型输出的目标记忆体之后,将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器模型中的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出。
S108:对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率。
在目标解码器输出之后,对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率。
S109:将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量。
在利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率之后,对各预测概率进行大小排序,根据排序结果选取最大的预测概率,将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量。
S110:将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量。
在确定出目标输出词向量之后,将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量。
S111:判断是否检测到停止标志,若否,则返回步骤S104,若是,则执行步骤S112。
预先设置停止标志,在本次时间步执行完成时,判断是否检测到停止标志,若否,则说明构成目标图像字幕的各词语还未完全确定出来,需要进一步进行词语确定,返回步骤S104,若是,则说明已经完全确定出构成目标图像字幕的各词语,执行步骤S112。
S112:将各目标词语进行串联组合,得到目标图像对应的目标字幕。
在检测到停止标志时,说明已经完全确定出构成目标图像字幕的各词语,将各目标词语进行串联组合,得到目标图像对应的目标字幕。
由上述技术方案可知,提出了用于图像字幕生成的外向内注意力机制。通过在序列记忆模型中部署外向内注意力的长短期记忆网络。结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量,而后对目标状态变量和原始图像特征集合进行注意力调整,将结果送入门控线性单元进行输出。预先训练包含了序列化变换器编码器和解码器的序列化变换器模型。对于序列化变换器编码器,其中的注意力机制为使用了自注意力的多头自注意力机制,对于序列化变换器解码器,将序列记忆模型的输出和解码器输出按照一定比例加权求和进行平衡调整得到最终的输出。相较于只考虑循环神经网络或者只考虑自注意力机制。本发明兼顾了循环注意力机制和自注意力机制的优点,能够根据外部状态来识别最有关联的区域,较大地提高了图像字幕生成准确度。
需要说明的是,基于上述实施例,本发明实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
参见图2,图2为本发明实施例中图像字幕生成方法的另一种实施流程图,该方法可以包括以下步骤:
S201:利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合。
利用循环卷积神经网络对目标图像进行特征提取,得到原始图像特征集合。原始图像特征集合可表示为A={a1,a2,…,an}。
S202:将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器编码器的多头自注意力机制和全连接前馈网络对原始图像特征集合进行编码操作,得到编码后图像特征集合。
利用序列化变化器编码器的多头自注意力机制和全连接前馈网络对原始图像特征集合进行编码操作,得到编码后图像特征集合。编码后图像特征集合可表示为ON
序列化变换器编码器为由N=6个块级联而成,每块都包含一个多头自注意力机制(Multi-head Self-Attention)和一个全连接前馈网络,公式如下:
Figure BDA0003523783490000111
Figure BDA0003523783490000112
Figure BDA0003523783490000113
其中,AddNorm表示残差连接加层归一化操作。在多头注意力(Multi-head)子层中,A中的键向量(key)、查询向量(query)和值向量(value)会被转换为相同的维度。随后,编码器的输出经过归一化后的结果
Figure BDA0003523783490000114
被送进一个包含了两个线性转换中间为ReLu的全连接前馈网络来应用位置信息。
Figure BDA0003523783490000115
Figure BDA0003523783490000116
为可学习优化的线性变换的参数,
Figure BDA0003523783490000117
在经过线性层之后进行激活函数再通过一个线性层,得到中间结果
Figure BDA0003523783490000118
Figure BDA0003523783490000119
表示第(l+1)个块的输出。因为编码器具有循环结构,所以当前块的输入是上一块的输出。在经过N块级联后,最后一个块(第N块)的输出为ON,同时也是整个编码器的输出。且定义第一个块的输入O0=A+PE(A),其中A为通过循环卷积神经网络提取的图像特征集合,PE为图像的位置编码信息。关于图像的位置编码信息PE(PositionEmbedding)说明如下:
将图像划分为K*K大小的patch(网格划分,本发明K=14),而后将[K*K]大小的图像网格拉伸为[K*K]长度的一维序列,对这个序列使用位置编码,即:
Figure BDA0003523783490000121
其中F为图像特征维数,pos_img为每个像素所在patch在上文所述一维序列内的对应顺序编号。
Figure BDA0003523783490000122
a在位置编码中为2的整数倍即可,可选用2。
Self-Attention(自注意力)机制在变换器中一般也叫做缩放点积注意力(Attention)。理论上,一个注意力Attention模块可以被描述为将一个查询向量(query)和一组key-value(键值对)映射到输出空间。自注意力是一种特殊的注意力,它的用途是获取输入序列的内部联系。在自注意力中,Q(查询),K(键),V(值)都来自于相同的输入。它首先度量了Q={q1,…,qn}和K={k1,…,km}间的相似性,并使用相似性来计算V={v1,…,vm}的加权平均和,可表述为:
Figure BDA0003523783490000123
定义
Figure BDA0003523783490000124
且d为缩放因子。
为了使模型可以同时在不同子空间上做注意力,翻译器(Transformer)使用了多头注意力机制(Multi-headAttention)(并行实施自注意力h次)。在每一个头上Q(查询),K(键),V(值)分别线性投影到dk,dk,dv维空间上。可表述为:
MultiHead(Q,K,V)=Concat(H1,...,Hh)WO
Figure BDA0003523783490000125
其中,
Figure BDA0003523783490000126
为头(head)投影矩阵,
Figure BDA0003523783490000127
为线性转换矩阵,并且dm=dk*h为keys、values、queries的初始化维度,dk为单头注意力Key的维度,在应用多头注意力且头数为h时,维度变为dk*h。
定义了两种不同的多头注意力机制(Multi-head Attention)结构。这两种结构定义如下:
Υ=multiheadS(κ);
Υ=multiheadO(κ);
第一种是每一个头(head)都是自注意力机制的多头自注意力机制结构(Multi-head),第二种是每一个头(head)都是外向内注意力机制(Multi-head Outside-inAttention)。其中κ表示输入,Υ表示输出。
S203:获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量。
获取序列记忆模型的当前时间步记忆体
Figure BDA0003523783490000131
序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量St-1
S204:计算原始图像特征集合的平均池化。
计算原始图像特征集合的平均池化。原始图像特征集合的平均池化可表示为
Figure BDA0003523783490000136
S205:对平均池化和当前时间步记忆体进行求和计算,得到融合向量。
在计算得到原始图像特征集合的平均池化
Figure BDA0003523783490000137
并获取序列记忆模型的当前时间步记忆体
Figure BDA0003523783490000132
之后,对平均池化和当前时间步记忆体进行求和计算,得到融合向量
Figure BDA0003523783490000133
S206:对当前时间步输出词向量和融合向量进行向量拼接,得到拼接向量。
在获取到序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量,并计算得到融合向量之后,对当前时间步输出词向量St-1和融合向量
Figure BDA0003523783490000134
进行向量拼接,得到拼接向量。可以通过以下公式进行向量拼接:
Figure BDA0003523783490000135
从而得到拼接向量。
S207:将拼接向量输入至长短期记忆网络,得到长短期记忆网络的目标状态变量。
在得到拼接向量之后,将拼接向量输入至长短期记忆网络,得到长短期记忆网络的目标状态变量ht。可以通过以下公式进行目标状态变量计算:
ht=LSTM(xt,ht-1);
从而得到目标状态变量。
翻译器(Transformer)不具有顺序性。因此,大多方法都会添加一个“位置编码”模块来使模型可以利用到序列的顺序信息。然而,这种方法和循环神经网络相比仍然具有不足。因此,在提出的序列化变换器结构中添加了一个长短期记忆网络(LSTM)层来增强模型的序列建模能力。
长短期记忆网络模型是时序模型的一种,它可以完善普通时序模型的一个功能,就是当输入的序列或者文本过于长的情况下,能够有较长的记忆,也就是说长期依赖性。一个长短期记忆网络由一长串的门(gate)构成。分别是input gate(current cell state),forget gate(0:忘记之前的所有;1:通过之前的所有),output gate(选择输出),Newmemory cell(得到新的记忆单元)。四种不同的门相互协作,相互抑制,从而使整个模型运作起来。其中input gate主要是来完成输入接口的工作,forget gate主要是用来控制模型判断信息的遗留问题,output gate主要控制模型的输出,而New memory cell是整个模型的“大脑”,其可以控制整个模型的运行。
S208:利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征。
在得到长短期记忆网络的目标状态变量ht之后,利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征
Figure BDA0003523783490000141
可以通过以下公式将
Figure BDA0003523783490000142
送入外向内注意力(Multi-head Outside-in)子层:
Figure BDA0003523783490000143
从而产生一个更具有代表性的经过注意力调整过后的特征。
S209:将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体。
在得到注意力调整后特征之后,将注意力调整后特征
Figure BDA0003523783490000151
和目标状态变量ht输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体
Figure BDA0003523783490000152
可以通过以下公式将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元:
Figure BDA0003523783490000153
从而得到序列记忆模型输出的目标记忆体
S210:将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出。
序列化变化器解码器包含多头自注意力机制(Multi-head Attention)和全连接前馈网络。将编码后图像特征集合ON、当前时间步记忆体
Figure BDA0003523783490000154
以及当前时间步输出词向量St-1输入至序列化变化器解码器,得到序列化变化器解码器的目标解码器输出
Figure BDA0003523783490000155
类似地,序列化变换器解码器也可由N块(如N=6)级联而成,以下公式中l的每一次循环即视为经过一个块:
Figure BDA0003523783490000156
for l in range(0,N):
Figure BDA0003523783490000157
Figure BDA0003523783490000158
Figure BDA0003523783490000159
Figure BDA0003523783490000161
其中,S<t={s0,s1,…,st-1}为整个模型历史输出序列的特征向量集合,AddNorm即对数据进行残差连接和层归一化处理,FFN即先后对数据进行线性变换和非线性激活(非线性激活函数可采用tanh函数),MultiheadS即每个头(head)都为自注意力(Self-Attention)的多头注意力(Multi-head Attention)。
对序列S<t使用位置编码,即:
Figure BDA0003523783490000162
其中,a为序列特征维数,pos_seq为每个单词一维序列S<t内的对应顺序编号。
Figure BDA0003523783490000163
第t个时间步(timestep)时第l+1个块的输入包括:编码器的输出ON、序列记忆模块的输出序列
Figure BDA0003523783490000164
解码器的输出序列
Figure BDA0003523783490000165
(
Figure BDA0003523783490000166
即,整个模型历史输出序列的特征向量集合)。
S211:对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率。
在得到序列化变化器解码器的目标解码器输出
Figure BDA0003523783490000167
之后,对目标记忆体
Figure BDA0003523783490000168
和目标解码器输出
Figure BDA0003523783490000169
进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率。
第t个t时间步时解码器的整体输出为最后一个块的输出,即第N块的输出
Figure BDA00035237834900001610
将其与序列记忆模块的当前时间步输出
Figure BDA00035237834900001611
按照1-β与β的比例进行数据融合,得到矩阵ξt,将其送入线性层+softmax去计算在第t个时间步时每个可能词语的概率,公式如下:
Figure BDA00035237834900001612
pt=softmax(ξtWp);
关于以上的过程及变量,
Figure BDA0003523783490000171
Figure BDA0003523783490000172
是句子开头的词语(token)的特征向量。
Figure BDA0003523783490000173
其中
Figure BDA0003523783490000174
Figure BDA0003523783490000175
softmax表示逻辑回归分类函数。A代表通过卷积神经网络VGG模型提取的特征,其维度为[2048,49]。
Figure BDA0003523783490000176
加权所得到的最终结果
Figure BDA0003523783490000177
是可学习优化的线性变化的参数,并且|Ξ|为词典的大小。
S212:将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量。
S213:将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量。
S214:判断是否检测到停止标志,若否,则返回步骤S205,若是,则执行步骤S215。
S215:将各目标词语进行串联组合,得到目标图像对应的目标字幕。
本实施例区别于独立权利要求1所要求保护的技术方案对应的实施例一,还增加了从属权利要求2至4对应要求保护的技术方案,当然,根据实际情况和要求的不同,可将各从属权利要求对应要求保护的技术方案在不影响方案完整性的基础上进行灵活组合,以更加符合不同使用场景的要求,本实施例只是给出了其中一种包含方案最多、效果最优的方案,因为情况复杂,无法对所有可能存在的方案一一列举,本领域技术人员应能意识到根据本申请提供的基本方法原理结合实际情况可以存在很多的例子,在不付出足够的创造性劳动下,应均在本申请的保护范围内。
参见图3,图3为一种自注意力机制应用到图像字幕生成任务的结构图。从图3中可以看出,自注意力机制仅能在图像区域内部获取关联,其操作是在图像中生成查询向量(queries)、键向量(keys)和值向量(values)三个向量集合,并根据计算出的查询向量(query)和键向量(key)的相似度分布来对值向量(value)求加权和。
参见图4,图4为一种外向内注意力机制应用到图像字幕生成任务的结构图。从图4中可以看到,外向内注意力机制将外部状态当作一个额外的查询向量(query)。与图3的方法不同的是,其不仅可以获取到图像内部区域的关联度,也可以获取到图像内部区域和外部状态的关联度。这样,模型便可以在每一个时间步上像自注意力一样获取到最相关的区域。
参见图5,图5为外向内注意力机制的示意图表。内外向注意力机制即为序列记忆化模块中的MultiheadO子层,可表述如下:
(1)对图像进行自注意力,得到当前注意力子层对应的查询向量(Queries)、键向量(Keys)和值向量(Values)。
(2)对查询向量(Queries)和键向量(Keys)做内积得到注意力α的注意图像矩阵AttentionMap1
(3)将注意力矩阵AttentionMap1与图像的值向量(Values)做点乘得到经过注意力调整的图像特征X。
(4)设序列记忆模型中长短期记忆网络在上一个时间步的外部状态变量ht-1为Query。
(5)将X与Query进行相加后激活函数(Softmax)归一化得到每一个像素的注意力
Figure BDA0003523783490000181
的矩阵AttentionMap2
(6)将注意力矩阵AttentionMap2与X做点乘得到特征矩阵C。
(7)重复6次并将结果进行拼接后线性变换为
Figure BDA0003523783490000182
这样,即可同时考虑到外部状态ht-1以及内部区域之间的联系,同时继承了多头注意力(Multi-head Attention)和循环注意力的优点。
相应于上面的方法实施例,本发明还提供了一种图像字幕生成装置,下文描述的图像字幕生成装置与上文描述的图像字幕生成方法可相互对应参照。
参见图6,图6为本发明实施例中一种图像字幕生成装置的结构框图,该装置可以包括:
特征提取模块601,用于利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;
编码模块602,用于将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器模型中的序列化变化器编码器对原始图像特征集合进行编码操作,得到编码后图像特征集合;
记忆体及词向量获取模块603,用于获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;
状态变量确定模块604,用于结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量;
注意力调整模块605,用于利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征;
记忆体获得模块606,用于将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体;
解码器输出获得模块607,用于将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器模型中的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出;
预测概率确定模块608,用于对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率;
输出词向量确定模块609,用于将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量;
重复执行模块610,用于将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量,重复执行结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;
字幕获得模块611,用于将各目标词语进行串联组合,得到目标图像对应的目标字幕。
由上述技术方案可知,提出了用于图像字幕生成的外向内注意力机制。通过在序列记忆模型中部署外向内注意力的长短期记忆网络。结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量,而后对目标状态变量和原始图像特征集合进行注意力调整,将结果送入门控线性单元进行输出。预先训练包含了序列化变换器编码器和解码器的序列化变换器模型。对于序列化变换器编码器,其中的注意力机制为使用了自注意力的多头自注意力机制,对于序列化变换器解码器,将序列记忆模型的输出和解码器输出按照一定比例加权求和进行平衡调整得到最终的输出。相较于只考虑循环神经网络或者只考虑自注意力机制。本发明兼了循环注意力机制和自注意力机制的优点,能够根据外部状态来识别最有关联的区域,较大地提高了图像字幕生成准确度。
在本发明的一种具体实施方式中,状态变量确定模块604包括:
平均池化计算子模块,用于计算原始图像特征集合的平均池化;
融合向量获得子模块,用于对平均池化和当前时间步记忆体进行求和计算,得到融合向量;
向量拼接子模块,用于对当前时间步输出词向量和融合向量进行向量拼接,得到拼接向量;
状态变量获得子模块,用于将拼接向量输入至长短期记忆网络,得到长短期记忆网络的目标状态变量;
重复执行模块具体为重复执行对平均池化和当前时间步记忆体进行求和计算,得到融合向量的步骤的模块。
在本发明的一种具体实施方式中,编码模块602具体为利用序列化变化器编码器的多头自注意力机制和全连接前馈网络对原始图像特征集合进行编码操作的模块。
在本发明的一种具体实施方式中,解码器输出获得模块607具体为将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出的模块。
相应于上面的方法实施例,参见图7,图7为本发明所提供的图像字幕生成设备的示意图,该设备可以包括:
存储器332,用于存储计算机程序;
处理器322,用于执行计算机程序时实现上述方法实施例的图像字幕生成方法的步骤。
具体的,请参考图8,图8为本实施例提供的一种图像字幕生成设备的具体结构示意图,该图像字幕生成设备可因配置或性能不同而产生比较大的差异,可以包括处理器(central processing units,CPU)322(例如,一个或一个以上处理器)和存储器332,存储器332存储有一个或一个以上的计算机应用程序342或数据344。其中,存储器332可以是短暂存储或持久存储。存储在存储器332的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对数据处理设备中的一系列指令操作。更进一步地,处理器322可以设置为与存储器332通信,在图像字幕生成设备301上执行存储器332中的一系列指令操作。
图像字幕生成设备301还可以包括一个或一个以上电源326,一个或一个以上有线或无线网络接口350,一个或一个以上输入输出接口358,和/或,一个或一个以上操作系统341。
上文所描述的图像字幕生成方法中的步骤可以由图像字幕生成设备的结构实现。
相应于上面的方法实施例,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;将原始图像特征集合发送至序列化变化器模型,以利用序列化变化器模型中的序列化变化器编码器对原始图像特征集合进行编码操作,得到编码后图像特征集合;获取序列记忆模型的当前时间步记忆体、序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定序列记忆模型中长短期记忆网络的目标状态变量;利用序列记忆模型基于目标状态变量对原始图像特征集合进行注意力调整,得到注意力调整后特征;将注意力调整后特征和目标状态变量输入序列记忆模型中的门控线性单元,得到序列记忆模型输出的目标记忆体;将编码后图像特征集合、当前时间步记忆体以及当前时间步输出词向量输入至序列化变化器模型中的序列化变化器解码器,得到序列化变化器解码器的目标解码器输出;对目标记忆体和目标解码器输出进行加权求和,并利用分类器根据加权求和结果确定预设词典中各词语分别对应的预测概率;将各预测概率中最大值对应的词语确定为目标词语,并将目标词语的词向量确定为目标输出词向量;将目标状态变量确定为当前状态变量,将目标记忆体确定为当前时间步记忆体,并将目标输出词向量确定为当前时间步输出词向量,重复执行结合原始图像特征集合、当前时间步记忆体、当前时间步输出词向量,确定长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;将各目标词语进行串联组合,得到目标图像对应的目标字幕。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本发明提供的计算机可读存储介质的介绍请参照上述方法实施例,本发明在此不做赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种图像字幕生成方法,其特征在于,包括:
利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;
将所述原始图像特征集合发送至序列化变化器模型,以利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,得到编码后图像特征集合;
获取序列记忆模型的当前时间步记忆体、所述序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;
结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量;
利用所述序列记忆模型基于所述目标状态变量对所述原始图像特征集合进行注意力调整,得到注意力调整后特征;
将所述注意力调整后特征和所述目标状态变量输入所述序列记忆模型中的门控线性单元,得到所述序列记忆模型输出的目标记忆体;
将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出;
对所述目标记忆体和所述目标解码器输出进行加权求和,并利用分类器根据所述加权求和结果确定预设词典中各词语分别对应的预测概率;
将各所述预测概率中最大值对应的词语确定为目标词语,并将所述目标词语的词向量确定为目标输出词向量;
将所述目标状态变量确定为当前状态变量,将所述目标记忆体确定为当前时间步记忆体,并将所述目标输出词向量确定为当前时间步输出词向量,重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;
将各所述目标词语进行串联组合,得到所述目标图像对应的目标字幕。
2.根据权利要求1所述的图像字幕生成方法,其特征在于,结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量,包括:
计算所述原始图像特征集合的平均池化;
对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量;
对所述当前时间步输出词向量和所述融合向量进行向量拼接,得到拼接向量;
将所述拼接向量输入至所述长短期记忆网络,得到所述长短期记忆网络的目标状态变量;
重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,包括:
重复执行所述对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量的步骤。
3.根据权利要求1所述的图像字幕生成方法,其特征在于,利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,包括:
利用所述序列化变化器编码器的多头自注意力机制和全连接前馈网络对所述原始图像特征集合进行编码操作。
4.根据权利要求1所述的图像字幕生成方法,其特征在于,将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出,包括:
将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出。
5.一种图像字幕生成装置,其特征在于,包括:
特征提取模块,用于利用循环卷积神经网络对接收到的待生成字幕的目标图像进行特征提取,得到原始图像特征集合;
编码模块,用于将所述原始图像特征集合发送至序列化变化器模型,以利用所述序列化变化器模型中的序列化变化器编码器对所述原始图像特征集合进行编码操作,得到编码后图像特征集合;
记忆体及词向量获取模块,用于获取序列记忆模型的当前时间步记忆体、所述序列化变化器模型中的序列化变化器解码器的当前时间步输出词向量;
状态变量确定模块,用于结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述序列记忆模型中长短期记忆网络的目标状态变量;
注意力调整模块,用于利用所述序列记忆模型基于所述目标状态变量对所述原始图像特征集合进行注意力调整,得到注意力调整后特征;
记忆体获得模块,用于将所述注意力调整后特征和所述目标状态变量输入所述序列记忆模型中的门控线性单元,得到所述序列记忆模型输出的目标记忆体;
解码器输出获得模块,用于将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至所述序列化变化器模型中的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出;
预测概率确定模块,用于对所述目标记忆体和所述目标解码器输出进行加权求和,并利用分类器根据所述加权求和结果确定预设词典中各词语分别对应的预测概率;
输出词向量确定模块,用于将各所述预测概率中最大值对应的词语确定为目标词语,并将所述目标词语的词向量确定为目标输出词向量;
重复执行模块,用于将所述目标状态变量确定为当前状态变量,将所述目标记忆体确定为当前时间步记忆体,并将所述目标输出词向量确定为当前时间步输出词向量,重复执行所述结合所述原始图像特征集合、所述当前时间步记忆体、所述当前时间步输出词向量,确定所述长短期记忆网络的目标状态变量的步骤,直至检测到停止标志;
字幕获得模块,用于将各所述目标词语进行串联组合,得到所述目标图像对应的目标字幕。
6.根据权利要求5所述的图像字幕生成装置,其特征在于,所述状态变量确定模块包括:
平均池化计算子模块,用于计算所述原始图像特征集合的平均池化;
融合向量获得子模块,用于对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量;
向量拼接子模块,用于对所述当前时间步输出词向量和所述融合向量进行向量拼接,得到拼接向量;
状态变量获得子模块,用于将所述拼接向量输入至所述长短期记忆网络,得到所述长短期记忆网络的目标状态变量;
重复执行模块具体为重复执行所述对所述平均池化和所述当前时间步记忆体进行求和计算,得到融合向量的步骤的模块。
7.根据权利要求5所述的图像字幕生成装置,其特征在于,所述编码模块具体为利用所述序列化变化器编码器的多头自注意力机制和全连接前馈网络对所述原始图像特征集合进行编码操作的模块。
8.根据权利要求5所述的图像字幕生成装置,其特征在于,所述解码器输出获得模块具体为将所述编码后图像特征集合、所述当前时间步记忆体以及所述当前时间步输出词向量输入至包含多头自注意力机制和全连接前馈网络的序列化变化器解码器,得到所述序列化变化器解码器的目标解码器输出的模块。
9.一种图像字幕生成设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述图像字幕生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述图像字幕生成方法的步骤。
CN202210188782.0A 2022-02-28 2022-02-28 一种图像字幕生成方法、装置、设备及可读存储介质 Pending CN114550159A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210188782.0A CN114550159A (zh) 2022-02-28 2022-02-28 一种图像字幕生成方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210188782.0A CN114550159A (zh) 2022-02-28 2022-02-28 一种图像字幕生成方法、装置、设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN114550159A true CN114550159A (zh) 2022-05-27

Family

ID=81662114

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210188782.0A Pending CN114550159A (zh) 2022-02-28 2022-02-28 一种图像字幕生成方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN114550159A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116665012A (zh) * 2023-06-09 2023-08-29 匀熵智能科技(无锡)有限公司 图像字幕自动生成方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116665012A (zh) * 2023-06-09 2023-08-29 匀熵智能科技(无锡)有限公司 图像字幕自动生成方法、装置及存储介质
CN116665012B (zh) * 2023-06-09 2024-02-09 匀熵智能科技(无锡)有限公司 图像字幕自动生成方法、装置及存储介质

Similar Documents

Publication Publication Date Title
Zhang et al. Improved deep hashing with soft pairwise similarity for multi-label image retrieval
CN110490946B (zh) 基于跨模态相似度和生成对抗网络的文本生成图像方法
CN109947912B (zh) 一种基于段落内部推理和联合问题答案匹配的模型方法
CN110765966B (zh) 一种面向手写文字的一阶段自动识别与翻译方法
CN110188167B (zh) 一种融入外部知识的端到端对话方法及系统
Xiang et al. A convolutional neural network-based linguistic steganalysis for synonym substitution steganography
CN110796160A (zh) 一种文本分类方法、装置和存储介质
CN111522581B (zh) 一种增强型代码注释自动生成方法及系统
CN112464643B (zh) 一种机器阅读理解方法、装置、设备及存储介质
CN112801280A (zh) 视觉深度自适应神经网络的一维卷积位置编码方法
CN113157919B (zh) 语句文本方面级情感分类方法及系统
CN113609326B (zh) 基于外部知识和目标间关系的图像描述生成方法
CN112528643A (zh) 一种基于神经网络的文本信息提取方法及装置
US20240046067A1 (en) Data processing method and related device
CN111027681B (zh) 时序数据处理模型训练方法、数据处理方法、装置及存储介质
CN114821169A (zh) 微服务架构下的方法级无侵入调用链路追踪方法
CN114550159A (zh) 一种图像字幕生成方法、装置、设备及可读存储介质
CN113095431B (zh) 一种基于注意力机制的图像描述方法、系统及装置
CN116704198A (zh) 一种基于多模态信息引导的知识增强视觉问答方法
Zhen et al. Toward compact transformers for end-to-end object detection with decomposed chain tensor structure
Hafeth et al. Semantic representations with attention networks for boosting image captioning
CN117429299A (zh) 智能充换电控制系统
CN117115706A (zh) 基于多尺度时空注意力网络的视频场景图生成方法
US20240037335A1 (en) Methods, systems, and media for bi-modal generation of natural languages and neural architectures
CN116311493A (zh) 一种基于编码解码架构的两阶段人-物交互检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination