CN113204674A - 基于局部-整体图推理网络的视频-段落检索方法及系统 - Google Patents

基于局部-整体图推理网络的视频-段落检索方法及系统 Download PDF

Info

Publication number
CN113204674A
CN113204674A CN202110755476.6A CN202110755476A CN113204674A CN 113204674 A CN113204674 A CN 113204674A CN 202110755476 A CN202110755476 A CN 202110755476A CN 113204674 A CN113204674 A CN 113204674A
Authority
CN
China
Prior art keywords
video
layer
graph
paragraph
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110755476.6A
Other languages
English (en)
Other versions
CN113204674B (zh
Inventor
张鹏程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yizhi Intelligent Technology Co ltd
Original Assignee
Hangzhou Yizhi Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yizhi Intelligent Technology Co ltd filed Critical Hangzhou Yizhi Intelligent Technology Co ltd
Priority to CN202110755476.6A priority Critical patent/CN113204674B/zh
Publication of CN113204674A publication Critical patent/CN113204674A/zh
Application granted granted Critical
Publication of CN113204674B publication Critical patent/CN113204674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于局部‑整体图推理网络的视频‑段落检索方法及系统,属于跨模态检索领域,主要包括以下步骤:1)首先对视频和文本(段落)进行预处理。2)针对给定的视频和文本分别使用局部‑整体图推理网络进行编码,得到最终的视频特征和文本特征。3)使用余弦相似度计算视频特征和文本特征之间的相似度。4)根据相似度度量结果进行检索。相比于传统视频‑段落检索的方法,本发明提出将视频和文本分别分解为四层语义结构,并且分别构造成局部图和整体图,进而使用图卷积网络进行图推理操作,本发明在视频‑段落检索中所取得的结果相比于传统方法更好。

Description

基于局部-整体图推理网络的视频-段落检索方法及系统
技术领域
本发明涉及跨模态检索领域,尤其一种基于局部-整体图推理网络的视频-段落检索方法及系统。
背景技术
作为在视频和段落之间的跨模态检索任务,视频-段落检索任务是一项非常重要的任务,吸引了众多研究者的关注。
该任务设计到计算机视觉和自然语言处理两个领域,需要系统对视频和文本都进行编码,然后根据编码计算相似度,进而进行检索。目前视频-段落检索任务仍然是一个新颖的任务,目前在该任务上的研究还不够成熟。
目前已有的视频-段落检索任务不是对整个视频和整个段落直接进行编码,就是仅仅考虑视频和段落的多个分段而直接进行编码。然后这样的编码方式都很难得到很好的效果,一方面由于神经网络对长序列编码能力较差,直接使用其对长序列进行编码导致编码性能变差,另一方面只考虑整体和片段丢失了很多的细粒度信息,这进一步限制了检索系统的性能。
综上所述,对于长文本和长视频之间的检索,目前的技术没有很好的利用细粒度信息,性能较差,难以满足实际应用需求。
发明内容
本发明的目的在于解决现有技术中的问题,为了克服长序列直接编码性能下降的问题同时学到更多细粒度的信息,本发明将视频和文本都分解为四个层次:总体级、片段层、动作层和物体层。同时在局部(视频片段/句子)和整体(视频/段落)构造成图使用图推理进行充分的语义交互。
为了实现上述目的,本发明所采用的具体技术方案是:
本发明的其中一个目的在于提供一种基于局部-整体图推理网络的视频-段落检索方法,包括以下步骤:
步骤1:将视频划分为片段,提取视频帧特征并编码得到视频整体层、视频片段层、视频动作层和视频物体层特征;将段落文本划分为句子,提取单词特征并编码得到段落整体层、段落句子层、段落动作层和段落物体层特征;编码过程采用第一编码器实现;
步骤2:对视频-段落分别构造视频分层局部图和段落分层局部图,确定图中各个节点的连接边;
步骤3:利用图卷积网络对视频分层局部图和段落分层局部图进行推理,计算局部图中各个连接边的边权重,更新局部图中的节点,得到更新后的分层局部图;
步骤4:对更新后的分层局部图进行分层池化,分别得到池化后的视频局部三层特征和段落局部三层特征;
步骤5:对视频-段落构造整体图:首先将经步骤4分层池化后的局部三层特征进行二次编码,利用二次编码后的片段层/句子层、动作层、物体层节点与初始编码后的整体层节点构造视频整体图和段落整体图,确定图中各个节点的连接边;所述的二次编码过程采用第二编码器实现;
步骤6:利用图卷积网络对视频整体图和段落整体图进行推理,利用步骤3中的方法更新整体中的节点,得到更新后的整体图;
步骤7:对更新后的整体图进行分层池化,分别得到池化后的视频全局四层特征和段落全局四层特征;分别对全局四层特征进行连接,得到视频和段落的最终特征表示;
步骤8:计算视频和段落间的余弦相似度,根据相似度度量结果对由第一编码器、第二编码器和图卷积网络构成的局部-整体图推理网络进行训练;
步骤9:利用训练好的局部-整体图推理网络实现视频-段落检索。
本发明的第二个目的在于提供一种基于局部-整体图推理网络的视频-段落检索系统,用于实现上述中的视频-段落检索方法,包括:
预处理模块,其用于将视频划分为片段,将段落文本划分为句子,并分别提取视频帧特征和文本单词特征;
局部图处理模块,其用于利用视频帧特征和文本单词特征构建视频分层局部图和段落分层局部图,得到视频局部三层特征和段落局部三层特征;
整体图处理模块,其用于利用局部三层特征与整体特征,构建视频整体图和段落整体图,得到视频全局四层特征和段落全局四层特征;
相似度计算模块,其用于连接全局四层特征,得到视频和段落的最终特征表示,并根据最终特征表示计算视频和段落间的余弦相似度,根据相似度度量值得到检索结果。
与现有技术相比,本发明的优势是:
(1)传统的对整个视频和段落直接编码的方式丢失了局部和细粒度的语义信息,且传统的对视频和段落的分段以及整体进行编码的方式则丢失了细粒度的语义信息,使得整体和局部难以进行充分的语义交互。本发明通过对视频和段落进行四个层次的分解,使用局部图推理可以更好的进行局部(句子和视频片段)内的语义交互,使用整体图推理可以进行整体(段落和视频)的语义交互,且四个层级的语义进行充分交互,获得的交互信息更加全面。
(2)传统的对视频和段落的分段以及整体进行编码的方式依然存在整体和局部的隔阂,使得整体与局部无法实现更优的互补。为了保证整体图推理和局部图推理可以更好地互补,本发明设计了基于图注意力的池化模块,并且在整体和局部之间利用Transformer模块进行编码,有效弥补了整体和局部之间的隔阂,取得了更优的技术效果。
附图说明
图1是本发明基于局部-整体图推理网络的视频-段落检索的示意图。
图2是本发明中的视频图推理和段落图推理的示意图。
图3是本发明实施例的从段落到视频的检索的实施效果图。
图4是本发明实施例的从视频到段落的检索的实施效果图。
具体实施方式
下面结合附图对本发明做进一步的说明。
本发明主要设计了四部分内容:首先对视频和文本(段落)进行预处理。其次,针对给定的视频和文本分别使用局部-整体图推理网络进行编码,得到最终的视频特征和文本特征。之后,使用余弦相似度计算视频特征和文本特征之间的相似度。最后,根据相似度度量结果进行检索。在局部-整体图推理网络中,本发明提出将视频和文本分别分解为四层语义结构,并且分别构造成局部图和整体图,进而使用图卷积网络进行图推理操作。
本发明的视频-段落检索流程的示意图参考图1所示,主要包括以下步骤:
步骤一:对视频-段落进行初始编码。
将视频划分为片段,提取视频帧特征并编码得到视频整体层、视频片段层、视频动作层和视频物体层特征;
将段落文本划分为句子,提取单词特征并编码得到段落整体层、段落句子层、段落动作层和段落物体层特征;
编码过程采用第一编码器实现;
步骤二:分层局部图推理。
首先,对视频-段落分别构造视频分层局部图和段落分层局部图,确定图中各个节点的连接边;
其次,利用图卷积网络对视频分层局部图和段落分层局部图进行推理,计算局部图中各个连接边的边权重,更新局部图中的节点,得到更新后的分层局部图;
之后,对更新后的分层局部图进行分层池化,分别得到池化后的视频局部三层特征和段落局部三层特征。
步骤三:整体图推理。
首先将经步骤4分层池化后的局部三层特征进行二次编码,利用二次编码后的片段层/句子层、动作层、物体层节点与初始编码后的整体层节点构造视频整体图和段落整体图,确定图中各个节点的连接边;所述的二次编码过程采用第二编码器实现;
其次,利用图卷积网络对视频整体图和段落整体图进行推理,计算整体图中各个连接边的边权重,更新整体图中的节点,得到更新后的整体图;
之后,对更新后的整体图进行分层池化,分别得到池化后的视频全局四层特征和段落全局四层特征;分别对全局四层特征进行连接,得到视频和段落的最终特征表示。
步骤四:利用相似度完整检索任务。
计算视频和段落间的余弦相似度,根据相似度度量值得到检索结果。在训练阶段,需要利用相似度度量结果对由第一编码器、第二编码器和图卷积网络构成的局部-整体图推理网络进行训练;训练好的局部-整体图推理网络可以直接用于进行检索任务。
下面对每一个步骤进行具体介绍。
本实施例中,步骤一为视频和段落的预处理步骤。
(1.1)将视频-段落划分成片段-句子。
针对一段由T帧构成的视频,将其划分为N个视频片段,其中第i个视频片段包含Ti帧,T1+ T2+ …+TN=T;每个视频片段包含的帧的数量可以相同或者不同。
针对由L个单词构成的段落,将其划分为M个句子,第i个句子包含Li个单词,L1+ L2+ …+LM=L;每个句子包含的单词的数量可以相同或者不同。
(1.2)提取初始特征。
将视频中每一帧的帧特征利用Transformer模型进行初始编码,得到编码后的每一个帧特征vi,构成视频特征向量Fv=(v1,v2,…,vi,…,vT)和视频片段特征向量Fc=(Fc1,Fc2,…,Fci,…,FcN);其中,Fci为第i个视频片段特征,是由属于第i个片段的帧特征构成的。
利用Transformer模型对每一个单词进行编码,得到编码后的每一个单词特征ti,构成段落特征向量Ft=(t1,t2,…,ti,…,tL) 和段落句子特征向量Fs=(Fs1,Fs2,…,Fsi,…,FsM);其中,Fsi为第i个句子特征,是由属于第i个句子的单词特征构成的;
(1.3)初始特征聚合,得到视频-段落的整体层特征和片段/句子层特征。
对视频-段落相关特征向量基于自注意力机制进行聚合,聚合公式为:
Figure 237972DEST_PATH_IMAGE001
其中,A为聚合结果,X为待聚合的特征向量,为激活函数,W1、W2为自注意力转换权重矩阵,b1、b2为自注意力转换偏移量;
针对于视频,当X=Fv时,得到视频整体层特征AFv,当X=Fci时,得到视频片段层特征AFci
针对于段落,当X=Ft时,得到段落整体层特征AFt,当X=Fsi时,得到视频片段层特征AFsi
(1.4)确定视频-段落的动作层和物体层特征。
针对视频,根据视频片段特征向量Fc计算视频动作层特征和视频物体层特征,计算公式为:
Figure 873222DEST_PATH_IMAGE002
其中,AFm为视频动作层特征,AFo为视频物体层特征,Wm、Wo为维度转化矩阵,bm、bo为偏移量。由于Fc包含N个视频片段特征,因此会得到N个相对应的AFm和AFa,每一个AFm和AFa均是由相对应的视频片段的每一帧特征计算得到的,即,针对包含Ti帧的第i个视频片段特征Fci,其对应的AFm和AFa中均包含了Ti个节点,分别记为Ti个动作节点和Ti个物体节点,参考图2所示的视频图推理部分。
针对段落,标记每一个句子中的动词和名词短语,以及标记每一个名词短语所对应的动词,将每一个动词对应的单词特征ti作为段落动作层特征,将每一个名词短语对应的所有单词特征ti的聚合结果作为段落物体层特征。也就是说,每一个句子中出现的动词对应的单词特征就作为该句子中的一个动作节点,若一个句子包含tm个动词,则其对应tm个动作节点,若其中一个动词与其相关的名词或名词短语共计to个,则每一个名词对应的单词特征或者名词短语对应的聚合特征作为该动词下的一个物体节点,该动词共对应to个物体节点,参考图2所示的段落图推理过程。
经过步骤(1.1)至步骤(1.4),得到了编码后的视频整体层、视频片段层、视频动作层和视频物体层特征;以及编码后的段落整体层、段落句子层、段落动作层和段落物体层特征,将视频和段落划分成了初始的四层结构。
本实施例中,步骤二为分层局部图推理步骤。
(2.1)创建视频分层局部图和段落分层局部图中各节点的边。
针对视频,将每一个视频片段层特征作为一个段节点,将视频动作层特征中的每一帧特征作为一个动作节点,将视频物体层特征中的每一帧特征作为一个物体节点;将段节点与所属该视频片段的每一个动作节点相连,每一个动作节点与所属该视频片段的每一个物体节点相连;
针对段落,将每一个段落句子层特征作为一个段节点,将段落动作层特征中的每一个单词特征作为一个动作节点,将段落物体层特征中的每一个名词短语特征作为一个物体节点;将段节点与所属该句子的每一个动作节点相连,每一个动作节点与其相对应的物体节点相连。
(2.2)计算边权重,更新局部图中的节点。
边权重计算公式为:
Figure 325063DEST_PATH_IMAGE003
节点更新公式为:
Figure 454693DEST_PATH_IMAGE004
其中,xi表示分层局部图中的第i个节点,xj为xi的邻居节点,
Figure 691902DEST_PATH_IMAGE005
为xi的邻居节点 集合,
Figure 248785DEST_PATH_IMAGE006
Figure 437190DEST_PATH_IMAGE007
是图卷积网络的权重矩阵,D为xi节点的特征向量维度,上角标T为转置,
Figure 104931DEST_PATH_IMAGE008
表示xi和xj两个节点之间的关系参数,属于中间权重变量,
Figure 508231DEST_PATH_IMAGE009
表示xi和xj两个节点之间 边权重,
Figure 921501DEST_PATH_IMAGE010
表示激活函数,W表示转化矩阵,
Figure 410251DEST_PATH_IMAGE011
表示更新后的分层局部图中的节点;遍历分 层局部图中的所有节点,即可得到更新后的分层局部图。
(2.3)分层池化,获得视频局部三层特征和段落局部三层特征。
定义段节点特征、动作节点特征、物体节点特征分别对应与第一局部层特征、第二局部层特征、第三局部层特征。其中,将上一个步骤中得到的更新后的分层局部图中的段节点特征直接作为第一局部层特征,而动作节点特征、物体节点特征需要分别进行分层池化。
池化之前需要计算动作层注意力矩阵Am和物体层注意力矩阵Ao,为了既充分考虑图节点的特征,又充分考虑各节点之间的连接关系,因此在计算注意力权重矩阵时先再次使用步骤(2.2)中的图推理过程,也就是对更新后的分层局部图进行二次更新。这次图推理时图卷积的权重与第一次的不同,两者权重不共享,为了便于区分,我们将二次更新前的分层局部图节点表示为Xnode={node_s, node _m, node _o},二次更新后的分层局部图节点表示为Xatt={att_s, att_m, att_o};其中node_s和att_s分别为二次更新前后的段节点特征,node_m和att_m分别为二次更新前后的动作节点特征,node _o和att_o分别为二次更新前后的物体节点特征。
利用二次更新后的node _m和node _o分别计算动作层注意力矩阵Am和物体层注意力矩阵Ao,计算公式为:
Figure 616105DEST_PATH_IMAGE012
其中,Ai为注意力矩阵,i=m时,Am表示动作层注意力矩阵,i=o时,Ao表示物体层注意力矩阵;Watt和batt分别为分层注意力转化权重和偏移量。
将二次更新前的段节点特征node_s直接作为第一局部层特征,表示为x_s,将池化后的动作节点特征和物体节点特征分别作为第二局部层特征x_m和第三局部级特征x_o,池化公式为:
Figure 60862DEST_PATH_IMAGE013
其中,am,j和ao,j分别为Am和Ao中的第j个权重值;xm,j为二次更新前的第j个动作节点特征,tm表示动作节点的数量,即该句子中的动词数量;xo,j为二次更新前的第j个物体节点特征,to表示物体节点的数量,即该动词对应的名词/名词短语的数量。
经过步骤二,获得了视频局部三层特征和段落局部三层特征,分别表示为第一局部层特征x_s=(s1,s2,…,sN),第二局部层特征x_m=(m1,m2,…,mN),第三局部层特征x_o==(mo,mo,…,mo)。
本实施例中,步骤三为整体图推理步骤。
(3.1)创建视频整体图和段落整体图中各节点的边。
在创建整体图之前,需要将局部三层池化后的特征利用Transformer模型进行再次编码。
将视频和段落的整体层特征作为整体节点,与经再次编码后的段节点、动作节点、物体节点之间创建连接边;其中,对于每一个整体节点,其与对应的所有段节点连接,每一个段节点与其对应的动作节点和其对应的物体节点连接,而每一个动作节点与其对应的物体节点连接,节点的连接关系可参考图2所示。
(3.2)计算边权重,更新整体图中的节点。
该步骤与上述步骤(2.2)计算公式与过程相同,此处不再赘述。
(3.3)分层池化,获得视频全局四层特征和段落全局四层特征。
针对更新后的整体图,将整体节点直接作为全局第一层特征,将段节点、动作节点、物体节点的平均值分别作为全局第二层特征、全局第三层特征和全局第四层特征;
将视频的全局四层特征和段落的全局四层特征分别进行连接,得到视频最终特征表示v和段落最终特征表示p。
本实施例中,步骤四是利用相似度完整检索任务的步骤。
计算视频和段落间的余弦相似度,根据相似度度量值得到检索结果。在训练阶段,需要利用相似度度量结果对由第一编码器、第二编码器和图卷积网络构成的局部-整体图推理网络进行训练;训练好的局部-整体图推理网络可以直接用于进行检索任务。
局部-整体图推理网络采用三元组损失函数进行训练,损失函数为:
Figure 225127DEST_PATH_IMAGE014
其中,
Figure 138856DEST_PATH_IMAGE015
表示边界值变量,s(·)表示余弦相似度。
Figure 633554DEST_PATH_IMAGE016
,表示取0和对 应值中更大的一个数值,(v, p)表示正样本对,(v, p’)和(v’, p)表示负样本对。
在训练过程中,整体推理和局部推理步骤分别使用的编码器、图卷积参数不共享,视频和段落使用的编码器、图卷积参数不共享,但是在整体推理过程中,单独针对视频执行的任务使用的编码器、图卷积参数共享,单独针对段落执行的任务使用的编码器、图卷积参数共享。在局部推理过程中,单独针对视频执行的任务使用的编码器、图卷积参数共享,单独针对段落执行的任务使用的编码器、图卷积参数共享。
与前述的基于局部-整体图推理网络的视频-段落检索方法的实施例相对应,本申请还提供了一种基于局部-整体图推理网络的视频-段落检索系统的实施例,其包括:
预处理模块,其用于将视频划分为片段,将段落文本划分为句子,并分别提取视频帧特征和文本单词特征;
局部图处理模块,其用于利用视频帧特征和文本单词特征构建视频分层局部图和段落分层局部图,得到视频局部三层特征和段落局部三层特征;
整体图处理模块,其用于利用局部三层特征与整体特征,构建视频整体图和段落整体图,得到视频全局四层特征和段落全局四层特征;
相似度计算模块,其用于连接全局四层特征,得到视频和段落的最终特征表示,并根据最终特征表示计算视频和段落间的余弦相似度,根据相似度度量值得到检索结果。
本实施例中,所述的局部图处理模块包括:
第一编码器,内置Transformer模型,其用于对视频-段落进行初始编码,针对视频,获得视频整体层、视频片段层、视频动作层和视频物体层特征;针对段落,获得段落整体层、段落句子层、段落动作层和段落物体层特征。
局部图创建模块,其用于确定片段层/句子层、动作层、物体层节点之间的连接边,获得初始视频分层局部图和段落分层局部图;
局部图卷积模块,内置局部图卷积网络模型,其用于计算分层局部图中连接边的权重值,并更新分层局部图;
局部分层池化模块,其用于对更新后的分层局部图进行分层池化,分别得到池化后的视频局部三层特征和段落局部三层特征;
本实施例中,所述的整体图处理模块包括:
第二编码器,内置Transformer模型,其用于对分层池化后的局部三层特征进行二次编码;
整体图创建模块,其用于利用二次编码后的片段层/句子层、动作层、物体层节点与初始编码后的整体层节点创建视频整体图和段落整体图;
整体图卷积模块,内置整体图卷积网络模型,其用于计算整体图中连接边的权重值,并更新整体图;
整体分层池化模块,对更新后的整体图进行分层池化,分别得到池化后的视频全局四层特征和段落全局四层特征。
关于上述实施例中的系统,其中各个单元或模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
对于系统实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为局部图处理模块,可以是或者也可以不是物理上分开的。另外,在本发明中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述集成的模块或单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现,以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。
为了验证本发明的效果,在多个图像翻译任务上进行了实验。实验如下:
本发明在ActivityNet-Captions数据集上进行了试验,本数据集是一个大规模多模态视频数据集,包括20k个来自YouTube的视频,有10,009个视频作为训练集4,917/4,885个视频构成两个验证集(两个验证集视频数据有大量重叠)。而每一个视频包含着多个片段(最多段数为26段),每一个片段对应着一个描述性的句子,每个视频对应的所有句子可以构成其对应的段落。
本实施例中,对于包含多个片段的视频,首先按照每个视频最多80帧提取视频整体级的帧,同时按照每个视频片段最多20帧提取视频片段级的帧。对于每一帧,使用TSN-Inception V3预训练模型提取出单帧的特征表达,得到维度为2048的特征。对每一个视频,得到视频特征向量和N个视频片段特征向量,T表示每个视频中提取到的帧的数目,Ti表示第i个视频片段中提取到的帧的数目,N表示视频中片段的数量。
对于包含多个句子的段落,使用“BERT-Base, Uncased”模型对其进行处理,使用 模型倒数第二层的特征表达,得到维度为1536的特征。对于每个段落,得到段落特征向量
Figure 11445DEST_PATH_IMAGE017
和M个句子特征Fs=(Fs1,Fs2,…,Fsi,…,FsM),第i个句子特征表示为
Figure 18716DEST_PATH_IMAGE018
,L表示每个段落中词语的数目,Li表示第i个句子中单词的数目,M表示段落 中句子的数目。
本实施例使用PyTorch框架进行了实验,使用Adam优化器对模型进行了训练,将初始学习率设置为0.0001,在训练过程中学习率会逐渐降低;最大epoch设置为50,mini-batch大小设置为64。在损失函数中,设置边界值变量为0.2;上面提到的模型中使用的所有激活函数都是GELU函数。在对应的模态中,用于段级、运动级和对象级不同级别的局部池化特征所使用到的Transformer具有相同的权重。对于局部图推理,同一个模态的不同分段之间共享权值。在训练时,本实施例使用单卡的NVIDIA RTX2080Ti GPU,每个epoch大约花费2分钟。
模型训练结束后,在第一个验证集上测试了模型的性能。针对检索,本发明使用召回率Recall@K(R@K)作为评价指标,K值取1,5,50。在该指标中,召回率越大模型检索效果越好。本发明在ActivityNet-Captions数据集上进行实验,并且与现有技术HSE和COOT进行对比,模型效果如表1所示。
表1 本发明与技术一、二在ActivityNet-Captions数据集上的测试结果
Figure 731325DEST_PATH_IMAGE019
正如表1所示,本发明在所有的度量指标上超越了之前的方法。在段落到视频一侧,本发明在R@1上超越之前的最佳结果(COOT)3.8%,在R@5上超越之前最佳结果3.1%,虽然在R@50上之前的结果已经达到了超过98%的性能,本发明依然超越了他们。同样,在视频到段落一侧,本发明在R@1上超越之前的最佳结果4.3%,在R@5上超越之前最佳结果2.9%,虽然在R@50上之前的结果已经达到了超过98%的性能,本发明也依然超越了他们。
本发明优秀的性能来源于对视频和段落层次的分解以及整体-局部图推理的应用。虽然HSE和COOT模型也采用了层次结构,COOT还进行了一定的全局和局部信息交互,但他们没有考虑到视频片段和句子本身具有层次结构,并且所有的结构都应该进行语义信息交互。
本发明还在ActivityNet-Captions数据集上给出了两个可视化的示例,其中图3和图4中的标记1表示本发明的模型,标记2为COOT模型,标记3为HSE模型。
如图3所示,从段落到视频的检索(根据给出的段落,检索出符合段落描述内容的视频片段)的排名分数来看,三个视频都是关于“南瓜”的场景,本发明的模型找到了最好的匹配段落,准确匹配视频。
如图4所示,从视频到段落的检索(根据给出的视频,检索出符合视频描述内容的句子)的排名分数来看,虽然三个句子都描述了关于“滑板”的场景,本发明的模型根据它们的细微差别检索出更为准确的结果,拉开了与其他两个模型的分数。
本发明不局限于上述具体实施方式,本领域的技术人员根据本发明公开的内容,可以采用多种其他实施方式,如将反馈解耦环节替换为前馈解耦环节、将两电平变流拓扑替换为三电平拓扑等。因而,权利要求书旨在涵盖本发明真正构思和范围内的所有变型。

Claims (10)

1.一种基于局部-整体图推理网络的视频-段落检索方法,其特征在于,包括以下步骤:
步骤1:将视频划分为片段,提取视频帧特征并编码得到视频整体层、视频片段层、视频动作层和视频物体层特征;将段落文本划分为句子,提取单词特征并编码得到段落整体层、段落句子层、段落动作层和段落物体层特征;编码过程采用第一编码器实现;
步骤2:对视频-段落分别构造视频分层局部图和段落分层局部图,确定图中各个节点的连接边;
步骤3:利用图卷积网络对视频分层局部图和段落分层局部图进行推理,计算局部图中各个连接边的边权重,更新局部图中的节点,得到更新后的分层局部图;
步骤4:对更新后的分层局部图进行分层池化,分别得到池化后的视频局部三层特征和段落局部三层特征;
步骤5:对视频-段落构造整体图:首先将经步骤4分层池化后的局部三层特征进行二次编码,利用二次编码后的片段层/句子层、动作层、物体层节点与初始编码后的整体层节点构造视频整体图和段落整体图,确定图中各个节点的连接边;所述的二次编码过程采用第二编码器实现;
步骤6:利用图卷积网络对视频整体图和段落整体图进行推理,利用步骤3中的方法更新整体中的节点,得到更新后的整体图;
步骤7:对更新后的整体图进行分层池化,分别得到池化后的视频全局四层特征和段落全局四层特征;分别对全局四层特征进行连接,得到视频和段落的最终特征表示;
步骤8:计算视频和段落间的余弦相似度,根据相似度度量结果对由第一编码器、第二编码器和图卷积网络构成的局部-整体图推理网络进行训练;
步骤9:利用训练好的局部-整体图推理网络实现视频-段落检索。
2.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的步骤1具体为:
步骤1.1:将由T帧构成的视频划分为N个视频片段,第i个视频片段包含Ti帧,T1+ T2+…+TN=T;将视频中每一帧的帧特征利用Transformer模型进行初始编码,得到编码后的每一个帧特征vi,构成视频特征向量Fv=(v1,v2,…,vi,…,vT)和视频片段特征向量Fc=(Fc1,Fc2,…,Fci,…,FcN);其中,Fci为第i个视频片段特征,是由属于第i个片段的帧特征构成的;
将由L个单词构成的段落划分为M个句子,第i个句子包含Li个单词,L1+ L2+ …+LM=L;利用Transformer模型对每一个单词进行编码,得到编码后的每一个单词特征ti,构成段落特征向量Ft=(t1,t2,…,ti,…,tL) 和段落句子特征向量Fs=(Fs1,Fs2,…,Fsi,…,FsM);其中,Fsi为第i个句子特征,是由属于第i个句子的单词特征构成的;
步骤1.2:对视频-段落相关特征向量基于自注意力机制进行聚合,聚合公式为:
Figure 984899DEST_PATH_IMAGE001
其中,A为聚合结果,X为待聚合的特征向量,
Figure 466565DEST_PATH_IMAGE002
为激活函数,W1、W2为自注意力转换权重 矩阵,b1、b2为自注意力转换偏移量;
针对于视频,当X=Fv时,得到视频整体层特征AFv,当X=Fci时,得到视频片段层特征AFci
针对于段落,当X=Ft时,得到段落整体层特征AFt,当X=Fsi时,得到段落句子层特征AFsi
步骤1.3:确定视频-段落的动作层和物体层特征:
针对视频,根据视频片段特征向量Fc计算视频动作层特征和视频物体层特征,计算公式为:
Figure 910315DEST_PATH_IMAGE003
其中,AFm为视频动作层特征,AFo为视频物体层特征,Wm、Wo为维度转化矩阵,bm、bo为偏移量;
针对段落,标记每一个句子中的动词和名词短语,以及标记每一个名词短语所对应的动词,将每一个动词对应的单词特征ti作为段落动作层特征,将每一个名词短语对应的所有单词特征ti的聚合结果作为段落物体层特征。
3.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的步骤2具体为:
针对视频,将每一个视频片段层特征作为一个段节点,将视频动作层特征中的每一帧特征作为一个动作节点,将视频物体层特征中的每一帧特征作为一个物体节点;将段节点与所属该视频片段的每一个动作节点相连,每一个动作节点与所属该视频片段的每一个物体节点相连;
针对段落,将每一个段落句子层特征作为一个段节点,将段落动作层特征中的每一个单词特征作为一个动作节点,将段落物体层特征中的每一个名词短语特征作为一个物体节点;将段节点与所属该句子的每一个动作节点相连,每一个动作节点与其相对应的物体节点相连。
4.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,步骤3中分层局部图节点的更新公式为:
Figure 329795DEST_PATH_IMAGE004
其中,xi表示分层局部图中的第i个节点,xj为xi的邻居节点,
Figure 697454DEST_PATH_IMAGE005
为xi的邻居节点集合,
Figure 722042DEST_PATH_IMAGE006
Figure 399011DEST_PATH_IMAGE007
是图卷积网络的权重矩阵,D为xi节点的特征向量维度,上角标T为转置,
Figure 555054DEST_PATH_IMAGE008
表 示xi和xj两个节点之间的关系参数,属于中间权重变量,
Figure 647775DEST_PATH_IMAGE009
表示xi和xj两个节点之间边权 重,
Figure 854766DEST_PATH_IMAGE010
表示激活函数,W表示转化矩阵,
Figure 393981DEST_PATH_IMAGE011
表示更新后的分层局部图中的节点;遍历分层局 部图中的所有节点,即可得到更新后的分层局部图。
5.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的步骤4具体为:
步骤4.1:计算分层注意力矩阵:
重复步骤3,即对步骤3中得到的更新后的分层局部图进行二次更新,得到二次更新后的分层局部图节点,二次更新前的分层局部图节点表示为Xnode={node_s, node _m, node_o},二次更新后的分层局部图节点表示为Xatt={att_s, att_m, att_o};其中node_s和att_s分别为二次更新前后的段节点特征,node_m和att_m分别为二次更新前后的动作节点特征,node _o和att_o分别为二次更新前后的物体节点特征;
利用二次更新后的node _m和node _o分别计算动作层注意力矩阵Am和物体层注意力矩阵Ao,计算公式为:
Figure 53633DEST_PATH_IMAGE012
其中,Ai为注意力矩阵,i=m时,Am表示动作层注意力矩阵,i=o时,Ao表示物体层注意力矩阵;Watt和batt分别为分层注意力转化权重和偏移量;
步骤4.2:将二次更新前的段节点特征node_s直接作为第一局部层特征,表示为x_s,将池化后的动作节点特征和物体节点特征分别作为第二局部层特征x_m和第三局部级特征x_o,池化公式为:
Figure 746782DEST_PATH_IMAGE013
其中,am,j和ao,j分别为Am和Ao中的第j个权重值;xm,j为二次更新前的第j个动作节点特征,xo,j为二次更新前的第j个物体节点特征,tm表示动作节点的数量,to表示物体节点的数量。
6.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的步骤5具体为:
在视频和段落内,结合前后分段,对局部三层池化后的特征利用Transformer模型进行再次编码;
将视频和段落的整体层特征作为整体节点,与经Transformer模型再次编码后的段节点、动作节点、物体节点之间创建连接边;其中,对于每一个整体节点,其与对应的所有段节点连接,每一个段节点与其对应的动作节点和其对应的物体节点连接,而每一个动作节点与其对应的物体节点连接。
7.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的步骤7中采用平均池化法对更新后的整体图进行分层池化,具体为:针对步骤6更新后的整体图,将整体节点直接作为全局第一层特征,将段节点、动作节点、物体节点的平均值分别作为全局第二层特征、全局第三层特征和全局第四层特征;
将视频的全局四层特征和段落的全局四层特征分别进行连接,得到视频最终特征表示和段落最终特征表示。
8.根据权利要求1所述的基于局部-整体图推理网络的视频-段落检索方法,其特征在于,所述的局部-整体图推理网络采用三元组损失函数进行训练。
9.一种基于局部-整体图推理网络的视频-段落检索系统,用于实现权利要求1所述的视频-段落检索方法,其特征在于,包括:
预处理模块,其用于将视频划分为片段,将段落文本划分为句子,并分别提取视频帧特征和文本单词特征;
局部图处理模块,其用于利用视频帧特征和文本单词特征构建视频分层局部图和段落分层局部图,得到视频局部三层特征和段落局部三层特征;
整体图处理模块,其用于利用局部三层特征与整体特征,构建视频整体图和段落整体图,得到视频全局四层特征和段落全局四层特征;
相似度计算模块,其用于连接全局四层特征,得到视频和段落的最终特征表示,并根据最终特征表示计算视频和段落间的余弦相似度,根据相似度度量值得到检索结果。
10.根据权利要求9所述的基于局部-整体图推理网络的视频-段落检索系统,其特征在于,所述的局部图处理模块包括:
第一编码器,内置Transformer模型,其用于对视频-段落进行初始编码,针对视频,获得视频整体层、视频片段层、视频动作层和视频物体层特征;针对段落,获得段落整体层、段落句子层、段落动作层和段落物体层特征;
局部图创建模块,其用于确定片段层/句子层、动作层、物体层节点之间的连接边,获得初始视频分层局部图和段落分层局部图;
局部图卷积模块,内置局部图卷积网络模型,其用于计算分层局部图中连接边的权重值,并更新分层局部图;
局部分层池化模块,其用于对更新后的分层局部图进行分层池化,分别得到池化后的视频局部三层特征和段落局部三层特征;
所述的整体图处理模块包括:
第二编码器,内置Transformer模型,其用于对分层池化后的局部三层特征进行二次编码;
整体图创建模块,其用于利用二次编码后的片段层/句子层、动作层、物体层节点与初始编码后的整体层节点创建视频整体图和段落整体图;
整体图卷积模块,内置整体图卷积网络模型,其用于计算整体图中连接边的权重值,并更新整体图;
整体分层池化模块,对更新后的整体图进行分层池化,分别得到池化后的视频全局四层特征和段落全局四层特征。
CN202110755476.6A 2021-07-05 2021-07-05 基于局部-整体图推理网络的视频-段落检索方法及系统 Active CN113204674B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110755476.6A CN113204674B (zh) 2021-07-05 2021-07-05 基于局部-整体图推理网络的视频-段落检索方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110755476.6A CN113204674B (zh) 2021-07-05 2021-07-05 基于局部-整体图推理网络的视频-段落检索方法及系统

Publications (2)

Publication Number Publication Date
CN113204674A true CN113204674A (zh) 2021-08-03
CN113204674B CN113204674B (zh) 2021-09-17

Family

ID=77022707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110755476.6A Active CN113204674B (zh) 2021-07-05 2021-07-05 基于局部-整体图推理网络的视频-段落检索方法及系统

Country Status (1)

Country Link
CN (1) CN113204674B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837083A (zh) * 2021-09-24 2021-12-24 焦点科技股份有限公司 一种基于Transformer的视频片段分割方法
CN114357124A (zh) * 2022-03-18 2022-04-15 成都考拉悠然科技有限公司 一种基于语言重建和图机制的视频段落定位方法
CN115062115A (zh) * 2022-06-30 2022-09-16 华南理工大学 一种在对话策略中响应情感类别预测方法
WO2023168818A1 (zh) * 2022-03-09 2023-09-14 平安科技(深圳)有限公司 视频和文本相似度确定方法、装置、电子设备、存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6021231A (en) * 1993-10-20 2000-02-01 Hitachi, Ltd. Video retrieval method and apparatus
CN110175266A (zh) * 2019-05-28 2019-08-27 复旦大学 一种用于多段视频跨模态检索的方法
CN110659392A (zh) * 2019-09-29 2020-01-07 北京市商汤科技开发有限公司 检索方法及装置、存储介质
CN110765854A (zh) * 2019-09-12 2020-02-07 昆明理工大学 一种视频动作识别方法
CN111611847A (zh) * 2020-04-01 2020-09-01 杭州电子科技大学 基于尺度注意力空洞卷积网络的视频动作检测方法
CN111782870A (zh) * 2020-06-18 2020-10-16 湖南大学 基于强化学习的对抗性视频时刻检索方法、装置、计算机设备和存储介质
CN112800249A (zh) * 2021-02-01 2021-05-14 南京理工大学 基于生成对抗网络的细粒度跨媒体检索方法
CN112966127A (zh) * 2021-04-07 2021-06-15 北方民族大学 一种基于多层语义对齐的跨模态检索方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6021231A (en) * 1993-10-20 2000-02-01 Hitachi, Ltd. Video retrieval method and apparatus
CN110175266A (zh) * 2019-05-28 2019-08-27 复旦大学 一种用于多段视频跨模态检索的方法
CN110765854A (zh) * 2019-09-12 2020-02-07 昆明理工大学 一种视频动作识别方法
CN110659392A (zh) * 2019-09-29 2020-01-07 北京市商汤科技开发有限公司 检索方法及装置、存储介质
TW202113575A (zh) * 2019-09-29 2021-04-01 大陸商北京市商湯科技開發有限公司 檢索方法及裝置、儲存介質
CN111611847A (zh) * 2020-04-01 2020-09-01 杭州电子科技大学 基于尺度注意力空洞卷积网络的视频动作检测方法
CN111782870A (zh) * 2020-06-18 2020-10-16 湖南大学 基于强化学习的对抗性视频时刻检索方法、装置、计算机设备和存储介质
CN112800249A (zh) * 2021-02-01 2021-05-14 南京理工大学 基于生成对抗网络的细粒度跨媒体检索方法
CN112966127A (zh) * 2021-04-07 2021-06-15 北方民族大学 一种基于多层语义对齐的跨模态检索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LINCHAO ZHU ET AL.: ""ActBERT:Learning Global-Local Video-Text Representations"", 《 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
李麟 等: ""一种新的基于注意力机制的细粒度视频分析神经网络结构(英文)"", 《上海师范大学学报(自然科学版),》 *
王树徽 等: ""跨媒体分析与推理技术研究综述"", 《计算机科学》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837083A (zh) * 2021-09-24 2021-12-24 焦点科技股份有限公司 一种基于Transformer的视频片段分割方法
WO2023168818A1 (zh) * 2022-03-09 2023-09-14 平安科技(深圳)有限公司 视频和文本相似度确定方法、装置、电子设备、存储介质
CN114357124A (zh) * 2022-03-18 2022-04-15 成都考拉悠然科技有限公司 一种基于语言重建和图机制的视频段落定位方法
CN115062115A (zh) * 2022-06-30 2022-09-16 华南理工大学 一种在对话策略中响应情感类别预测方法

Also Published As

Publication number Publication date
CN113204674B (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
CN113204674B (zh) 基于局部-整体图推理网络的视频-段落检索方法及系统
CN109840287B (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN110348016B (zh) 基于句子关联注意力机制的文本摘要生成方法
CN110413986B (zh) 一种改进词向量模型的文本聚类多文档自动摘要方法及系统
CN109635124B (zh) 一种结合背景知识的远程监督关系抽取方法
CN107291693B (zh) 一种改进词向量模型的语义计算方法
CN106484674B (zh) 一种基于深度学习的中文电子病历概念抽取方法
CN114169330B (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN109299341A (zh) 一种基于字典学习的对抗跨模态检索方法和系统
CN105938485A (zh) 一种基于卷积循环混合模型的图像描述方法
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN114048350A (zh) 一种基于细粒度跨模态对齐模型的文本-视频检索方法
CN113934887B (zh) 一种基于语义解耦的无提议时序语言定位方法
CN110188193A (zh) 一种基于最短依存子树的电子病历实体关系抽取方法
CN111291188A (zh) 一种智能信息抽取方法及系统
CN114969304A (zh) 基于要素图注意力的案件舆情多文档生成式摘要方法
CN114091450B (zh) 一种基于图卷积网络的司法领域关系抽取方法和系统
CN114265937A (zh) 科技情报的智能分类分析方法、系统、存储介质及服务器
CN116010553A (zh) 一种基于双路编码和精确匹配信号的观点检索系统
CN111966797A (zh) 利用引入了语义信息的词向量进行机器阅读理解的方法
Bai et al. Bilinear Semi-Tensor Product Attention (BSTPA) model for visual question answering
CN114896392A (zh) 工单数据的聚类方法、装置、电子设备及存储介质
CN113255918B (zh) 强化聚合知识指导的生成常识推理方法
CN110888944B (zh) 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant