CN115481285A - 跨模态的视频文本匹配方法、装置、电子设备及存储介质 - Google Patents

跨模态的视频文本匹配方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115481285A
CN115481285A CN202211131503.3A CN202211131503A CN115481285A CN 115481285 A CN115481285 A CN 115481285A CN 202211131503 A CN202211131503 A CN 202211131503A CN 115481285 A CN115481285 A CN 115481285A
Authority
CN
China
Prior art keywords
text
feature
sequence
video
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211131503.3A
Other languages
English (en)
Other versions
CN115481285B (zh
Inventor
陈帅
朱煜东
冯知凡
柴春光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202211131503.3A priority Critical patent/CN115481285B/zh
Publication of CN115481285A publication Critical patent/CN115481285A/zh
Application granted granted Critical
Publication of CN115481285B publication Critical patent/CN115481285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种跨模态的视频文本匹配方法、装置、电子设备及存储介质,涉及知识图谱、自然语言处理等人工智能技术领域,可应用于智能内容生成AIGC、智能创作等场景。具体实现方案为:将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;将候选视频输入所述匹配模型,提取候选图像特征以生成候选图像特征序列;确定目标文本特征和候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。本公开实施例可以通过提取候选图像特征和目标文本特征,根据相似度从所述候选视频中确定推荐视频,实现了对文本和视频的匹配。本公开实施例可以避免为文本和视频的错误匹配,提高文本视频匹配的准确度。

Description

跨模态的视频文本匹配方法、装置、电子设备及存储介质
技术领域
本公开涉及知识图谱、自然语言处理等人工智能技术领域,可应用于智能内容生成AIGC、智能创作等场景。
背景技术
近年来,随着软硬件技术的快速发展,视频成为信息传递的主要方式之一。在很多视频应用场景中,比如短视频平台,需要用到视频检索技术,即输入文本返回符合对应文本内容的视频。常规的跨模态匹配集中于确定视频和文本之间在物体层面的匹配关系,考虑的因素较少,导致文本与匹配到的视频匹配度较低。
发明内容
本公开提供了一种用于跨模态的视频文本匹配方法、装置、电子设备及存储介质。
根据本公开的第一方面,提供了一种跨模态的视频文本匹配方法,包括:
将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;
将候选视频输入所述匹配模型,提取候选视频特征以生成候选图像特征序列;
确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
可选的,所述将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列,包括:
将所述目标文本切分为文本段,以生成目标文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量;
将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
可选的,所述将候选视频输入所述匹配模型,提取候选视频特征以生成候选图像特征序列,包括:
按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
可选的,所述确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,包括:
将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
可选的,所述根据所述相似度从所述候选视频中确定推荐视频,包括:
将相似度最高值对应的候选视频确定为所述推荐视频。
根据本公开的第二方面,提供了一种匹配模型训练方法,包括:
获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
根据所述正例文本训练数据生成负例文本训练数据;
提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
计算所述第一第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为收敛目标,训练所述匹配模型,以获取训练完成的匹配模型。
可选的,所述根据所述正例文本训练数据生成负例文本训练数据,包括:
将其他正例文本数据作为所述负例文本训练数据;或,
获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;或,
将所述正例文本数据中的多个事件对象调整位置,以生成所述负例文本训练数据。
可选的,所述提取所述正例文本训练数据对应的第一文本特征,包括:
将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
可选的,所述提取所述负例文本训练数据对应的第二文本特征包括:
将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
可选的,所述根据所述视频训练数据提取图像特征,包括:
按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
可选的,所述计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度包括:
将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
可选的,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
根据本公开的第三方面,提供了一种跨模态的视频文本匹配装置,包括:
文本特征提取模块,用于将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;
图像特征提取模块,用于将候选视频输入所述匹配模型,提取候选视频特征以生成候选图像特征序列;
匹配模块,用于确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
可选的,所述文本特征提取模块包括:
切分子模块,用于将所述目标文本切分为文本段,以生成目标文本段序列;
文本特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量;
第一编码子模块,用于将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
可选的,所述图像特征提取模块包括:
采样子模块,用于按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
图像特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
第二编码子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
可选的,所述匹配模块包括:
相似度计算子模块,用于将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
可选的,所述匹配模块包括:
匹配子模块,用于将相似度最高值对应的候选视频确定为所述推荐视频。
根据本公开的第四方面,提供了一种匹配模型训练装置,包括:
数据获取模块,用于获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
负例生成模块,用于根据所述正例文本训练数据生成负例文本训练数据;
特征提取模块,用于提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
相似度计算模块,用于计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
训练模块,用于根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为收敛目标,训练所述匹配模型,以获取训练完成的匹配模型。
可选的,所述负例生成模块,包括:
第一生成子模块,用于将其他正例文本数据作为所述负例文本训练数据;
第二生成子模块,用于获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;
第三生成子模块,用于将所述正例文本数据中的多个事件对象调整位置,以生成所述负例文本训练数据。
可选的,所述特征提取模块,包括:
第一切分子模块,用于将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
第一特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
第一特征融合子模块,用于将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
可选的,所述特征提取模块包括:
第二切分子模块,用于将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
第二特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
第二特征融合子模块,用于将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
可选的,所述特征提取模块包括:
视频帧提取子模块,用于按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
视频帧特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
第三特征融合子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
可选的,所述相似度计算模块包括:
第一相似度计算子模块,用于将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
第二相似度计算子模块,用于将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
可选的,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面或第二方面中任一项所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述第一方面或第二方面中任一项所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述第一方面或第二方面中任一项所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图;
图2是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图;
图3是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图;
图4是根据本公开实施例提供的一种匹配模型训练方法的流程示意图;
图5是根据本公开实施例提供的一种匹配模型训练方法的流程示意图;
图6是根据本公开实施例提供的一种匹配模型训练方法的流程示意图;
图7是根据本公开实施例提供的一种匹配模型训练方法的流程示意图;
图8是根据本公开实施例提供的一种跨模态的视频文本匹配装置的结构示意图;
图9是根据本公开实施例提供的一种匹配模型训练装置的结构示意图;
图10是用来实现本公开实施例的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
近年来,随着软硬件技术的快速发展,视频成为信息传递的主要方式之一。在很多视频应用场景中,比如短视频平台,需要用到视频检索技术,即输入文本返回符合对应文本内容的视频。常规的跨模态匹配集中于确定视频和文本之间在物体层面的匹配关系,比如检索的文本为“一只狗在追逐一只猫”,那么视频内容只要是狗和猫在追逐,无论是猫追逐狗还是狗追逐猫,都会被认为与文本的相似度都是很高的。而这样进行匹配显然是不合理的,忽略了文本中事件的主客体关系,导致文本与匹配到的视频匹配度较低,在实际应用中降低了用户体验。
图1是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图,如图1所示,所述方法包括:
步骤101,将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列。
步骤102,将候选视频输入所述匹配模型,提取候选图像特征以生成候选图像特征序列。
本申请实施例中,本方法的目的是在多个候选视频中找到与所述目标文本的描述最贴近的视频,需要通过预先训练好的匹配模型来提取目标文本和候选视频的高维特征,从所述目标文本中提取多个目标文本特征组成目标文本特征序列,并从所述候选视频中提取多个候选图像特征组成候选图像特征序列。
所述匹配模型为神经网络模型,包括卷积神经网络(CNN)、循环神经网络(RNN)、长短时记忆网络(LSTM)等等。所述匹配模型可以利用通用的神经网络模型训练方法训练得到,或者通过下文的匹配模型训练方法训练得到,其中包含多层,每层中包含多个神经元,输入其中的数据经过每层的神经元进行卷积运算,最后输出特征。需要说明的是,对于神经网络中提取的特征,其表现形式均为向量,所以本申请中的目标文本特征和候选图像特征的表现形式均为向量。
步骤103,确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
本申请实施例中,提取所述目标文本特征和候选图像特征后,计算所述目标文本特征和候选图像特征的相似度,根据所述相似度确定目标文本与候选视频的匹配度,相似度越高,所述目标文本与候选视频越匹配。根据所述相似度筛选出与所述目标文本最匹配的候选视频,确定其为推荐视频。
图2是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图,如图2所示,图1中的步骤101包括:
步骤201,将所述目标文本切分为文本段,以生成目标文本段序列;
本申请实施例中,为了更精确地提取目标文本的特征,首先将目标文本切分为单个的文本段,并将文本段按照在目标文本中的顺序排列,以生成目标文本段序列,方便提取每个文本段的特征。
需要说明的是,所述文本段中包含的文字数量大于或等于1,即所述文本段既可以是单个文字,也可以是词语或短语,文本段包含的文字数量可以由实施者根据实际情况进行调整。
步骤202,提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量。
本申请实施例中,通过预先训练好的词向量模型来提取各个文本段的特征,生成所述文本段特征向量。同时为了提高匹配的准确度,将文本段在目标文本中的位置加入特征中,根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量,所述位置嵌入向量表征了当前文本段与目标文本段序列中其他文本段的相对位置关系,提高了特征向量信息的丰富度,有利于更准确地进行文本视频匹配。
在一种可能的实施例中,所述第一位置嵌入向量的生成公式为:
Figure BDA0003850486450000091
其中,pk,2i和pk,2i+1分别是位置k的第一位置嵌入向量的第2i,2i+1个分量,d为向量维度。
步骤203,将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
本申请实施例中,通过相加的方式将所述第一位置嵌入向量与所述文本段特征向量融合在一起,并通过Transformer网络进行编码,以生成目标文本特征,这样可以在文本段特征向量中加入文本段的位置信息,丰富特征向量中包含的信息,有利于后续更准确地进行文本段和视频的匹配。将所述目标文本特征按照对应的文本段在目标文本段序列中的位置排列,即可组成所述目标文本特征序列。
图3是根据本公开实施例提供的一种跨模态的视频文本匹配方法的流程示意图,如图3所示,图1中的步骤102具体包括:
步骤301,按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
本申请实施例中,完整视频中包含的信息量较大,直接从整个候选视频中提取特征速度慢,效率较低。为了提高效率,预先设置一定的采样率,从所述候选视频中提取一定数量的视频帧,由于采样是从视频的开头开始向后采样,所以将所述视频帧按照在采样出来的顺序排列生成候选视频帧序列即可反映视频帧在候选视频中的先后顺序。
步骤302,提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
本申请实施例中,通过预先训练好的视觉模型来提取各个视频帧的特征,生成视频帧的表示向量。同时为了提高匹配的准确度,将视频帧在候选视频帧序列中的位置加入特征中,根据所述视频帧在所述候选视频帧序列中的位置生成各个视频帧的位置特征向量,所述位置特征向量表征了当前视频帧与候选视频帧序列中其他视频帧的相对位置关系,提高了位置特征向量的丰富度,有利于更准确地进行文本视频匹配。
在一种可能的实施例中,所述位置特征向量的生成公式为:
Figure BDA0003850486450000101
其中,pk,2i和pk,2i+1分别是位置k的位置特征向量的第2i,2i+1个分量,d为向量维度。
步骤303,将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
本申请实施例中,通过相加的方式将所述位置特征向量与所述表示向量融合在一起,并通过Transformer网络进行编码,以生成候选图像特征,这样可以在表示向量中加入视频的位置信息,丰富表示向量中包含的信息,有利于后续更准确地进行文本段和视频的匹配。将所述候选图像特征按照对应的视频帧在候选视频帧序列中的位置排列,即可组成所述候选图像特征序列。
可选的,所述确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,包括:
将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
本申请实施例中,首先候选图像特征序列中第一个候选图像特征和所述目标文本特征序列中第一个目标文本特征,计算余弦相似度,所述余弦相似度即为所述相似度。以此类推,继续计算后续的候选图像特征和目标文本特征的相似度。
可选的,对于一个候选视频,计算其对应的候选图像特征和目标文本特征的相似度后取平均值,作为所述候选视频和目标文本的相似度。
可选的,所述根据所述相似度从所述候选视频中确定推荐视频,包括:
将相似度最高值对应的候选视频确定为所述推荐视频。
本申请实施例中,相似度越高,所述目标文本与候选视频越匹配。根据所述相似度筛选出与所述目标文本最匹配的候选视频,确定其为推荐视频。
图4是根据本公开实施例提供的一种匹配模型训练方法的流程示意图,如图4所示,所述方法包括:
步骤401,获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
本申请实施例中,在训练所述匹配模型时,首先准备训练所用的数据,所述数据包括多个数据对,每个数据对中包含一个正例文本训练数据和该正例文本训练数据对应的视频训练数据,所述正例文本训练数据与所述视频训练数据相匹配。
步骤402,根据所述正例文本训练数据生成负例文本训练数据;
本申请实施例中,为了训练使匹配更好地提取文本和视频中的特征,需要生成所述正例文本训练数据对应的若干个负例文本训练数据,所述负例文本训练数据与正例文本训练数据有关,但是和所述视频数据不匹配,在训练中将负例文本训练数据和正例文本训练数据进行对比,可以使匹配模型更好地区分,提取更合适的特征。
步骤403,提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
步骤404,计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
本申请实施例中,所述第一相似度表征了第一图像特征和所述第一文本特征的匹配程度,所述第二相似度表征了第一图像特征和所述第二文本特征的匹配程度。
步骤405,根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为目标,训练所述匹配模型,以获取训练完成的匹配模型。
本申请实施例中,为了提高匹配模型区分正例文本数据和负例文本数据的能力,需要使所述第一相似度大于所述第二相似度,且第一相似度与所述第二相似度的差距越大越好,本申请通过设置损失函数来实现此目标。所述损失函数与第一相似度和第二相似度有关。不断地训练匹配模型,更新迭代其中的参数值直到使损失函数收敛,即可得到训练完成的匹配模型。
通过图4中的步骤训练得到所述匹配模型后,可以根据所述匹配模型执行图1所述的跨模态的视频文本匹配方法,利用此匹配模型可以提高视频和文本的匹配度。
需要说明的是,对于匹配模型中提取的特征,其表现形式均为向量,所以本申请中的第一文本特征、第二文本特征和第一图像特征的表现形式均为向量。可选的,图4中的步骤402具体包括一下至少一项:
将其他正例文本数据作为所述负例文本训练数据;
本申请实施例中,生成的负例文本训练数据与所述视频训练数据中发生的事情无关,对于当前数据对中的正例文本数据,可以将其他数据对中的正例文本数据作为当前正例文本数据对应的负例文本训练数据。
例如,一个数据对中的正例文本数据为“狗追逐猫”,可以将其他数据对中的正例文本数据“女孩在散步”作为“狗追逐猫”对应的负例文本数据。
获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;
本申请实施例中,文本数据用于描述一个事件,一般包括事件对象和事件类型,其中,所述事件对象包括主体和客体,主体为实施事件的一方,客体为被实施事件的一方。可以在不改变主体和客体的前提下,通过更换正例文本数据的事件类型来生成与正例训练文本数据较为接近的负例文本训练数据,再训练中可以更好的使匹配模型区分不同文本描述的区别,提高训练效果。
例如,一个数据对中的正例文本数据为“狗追逐猫”,“狗”为主体,“猫”为客体,“追逐”为事件类型,通过事件分类模型对所述事件类型“追逐”进行分析,生成的概率最大的事件为“追逐”,概率第二的事件为“捕猎”,“捕猎”和“追逐”意思完全不同,但是其在视频中的表现形式较为接近,即生成“狗捕猎猫”的负例训练文本数据。
在一种可能的实施例中,将所述正例文本数据中的主体和客体调换位置,以生成所述负例文本训练数据。
例如,一个数据对中的正例文本数据为“狗追逐猫”,“狗”为主体,“猫”为客体,“追逐”为事件类型,可以将“猫追逐狗”作为负例训练文本数据。
图5是根据本公开实施例提供的一种匹配模型训练方法的流程示意图,如图5所示,图4中的步骤403具体包括:
步骤501,将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
本申请实施例中,为了更精确地提取正例文本训练数据的特征,首先将正例文本训练数据切分为单个的文本段,并将文本段按照在正例文本训练数据中的顺序排列,以生成第一文本段序列,方便提取每个文本段的特征。
步骤502,提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
本申请实施例中,通过预先训练好的词向量模型来提取各个文本段的特征,生成所述文本段特征向量。同时为了提高匹配的准确度,将文本段在第一文本段序列中的位置加入特征中,根据所述文本段在所述第一文本段序列中的位置生成各个文本段的第二位置嵌入向量,所述第二位置嵌入向量表征了当前文本段与第一文本段序列中其他文本段的相对位置关系,提高了特征向量信息的丰富度,有利于更准确地进行文本视频匹配。
在一种可能的实施例中,所述第二位置嵌入向量的生成公式为:
Figure BDA0003850486450000141
其中,pk,2i和pk,2i+1分别是位置k的第二位置嵌入向量的第2i,2i+1个分量,d为向量维度。
步骤503,将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
本申请实施例中,通过相加的方式将所述第二位置嵌入向量与所述文本段特征向量融合在一起,并通过Transformer网络进行编码,以生成第一文本特征,这样可以在文本段特征向量中加入文本段的位置信息,丰富特征向量中包含的信息,有利于后续更好地训练。将所述第一文本特征按照对应的文本段在第一文本段序列中的位置排列,即可组成所述第一文本特征序列。
图6是根据本公开实施例提供的一种匹配模型训练方法的流程示意图,如图6所示,图4中的步骤403具体包括:
步骤601,将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
本申请实施例中,为了更精确地提取正例文本训练数据的特征,首先将负例文本训练数据切分为单个的文本段,并将文本段按照在负例文本训练数据中的顺序排列,以生成第二文本段序列,方便提取每个文本段的特征。
步骤602,提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
本申请实施例中,通过预先训练好的词向量模型来提取各个文本段的特征,生成所述文本段特征向量。同时为了提高匹配的准确度,将文本段在第二文本段序列中的位置加入特征中,根据所述文本段在所述第二文本段序列中的位置生成各个文本段的第三位置嵌入向量,所述第三位置嵌入向量表征了当前文本段与第二文本段序列中其他文本段的相对位置关系,提高了特征向量信息的丰富度,有利于更准确地进行文本视频匹配。
在一种可能的实施例中,所述第三位置嵌入向量的生成公式为:
Figure BDA0003850486450000151
其中,pk,2i和pk,2i+1分别是位置k的第三位置嵌入向量的第2i,2i+1个分量,d为向量维度。
步骤603,将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
本申请实施例中,通过相加的方式将所述第三位置嵌入向量与所述文本段特征向量融合在一起,并通过Transformer网络进行编码,以生成第二文本特征,这样可以在文本段特征向量中加入文本段的位置信息,丰富特征向量中包含的信息,有利于后续更好地训练。将所述第二文本特征按照对应的文本段在第二文本段序列中的位置排列,即可组成所述第二文本特征序列。
图7是根据本公开实施例提供的一种匹配模型训练方法的流程示意图,如图7所示,图4中的步骤403具体包括:
步骤701,按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
本申请实施例中,完整视频中包含的信息量较大,直接从整个视频训练数据中提取特征速度慢,效率较低。为了提高效率,预先设置一定的采样率,从所述视频训练数据中提取一定数量的视频帧,由于采样是从视频的开头开始向后采样,所以将所述视频帧按照在采样出来的顺序排列生成视频帧序列即可反映视频帧在视频训练数据的先后顺序。
步骤702,提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
本申请实施例中,通过预先训练好的视觉模型(如ResNet、ViT等)来提取各个视频帧的特征,生成视频帧的表示向量。同时为了提高匹配的准确度,将视频帧在视频帧序列中的位置加入特征中,根据所述视频帧在所述视频帧序列的位置生成各个视频帧的位置特征向量,所述位置特征向量表征了当前视频帧与视频帧序列中其他视频帧的相对位置关系,提高了位置特征向量的丰富度,有利于更准确地进行文本视频匹配。
在一种可能的实施例中,所述位置特征向量的生成公式为:
Figure BDA0003850486450000161
其中,pk,2i和pk,2i+1分别是位置k的位置特征向量的第2i,2i+1个分量,d为向量维度。
步骤703,将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
本申请实施例中,通过相加的方式将所述位置特征向量与所述表示向量融合在一起,并通过Transformer网络进行编码,以生成第一图像特征,这样可以在表示向量中加入视频的位置信息,丰富表示向量中包含的信息,有利于后续更准确地进行文本段和视频的匹配。将所述第一图像特征按照对应的视频帧在视频帧序列中的位置排列,即可组成所述图像特征序列。
在一种可能的实施例中,记所述视频帧的表示向量为Pi,第一图像特征为Vi,i表示视频帧序列的第i个位置。则将所述位置特征向量与所述表示向量融合在一起的公式化表达为
Figure BDA0003850486450000162
Figure BDA0003850486450000163
按顺序排列组成的序列为
Figure BDA0003850486450000164
k表示序列长度。
记所述文本段特征向量和所述第二位置嵌入向量相加后得到的序列为
Figure BDA0003850486450000165
记所述文本段特征向量和所述第三位置嵌入向量相加后得到的序列为
Figure BDA0003850486450000166
通过Transformer网络对Hv
Figure BDA00038504864500001610
进行编码分别得到:
第一图像特征序列
Figure BDA0003850486450000167
第一文本特征序列
Figure BDA0003850486450000168
第二文本特征序列
Figure BDA0003850486450000169
可选的,图4中的步骤404具体包括:
将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
根据
Figure BDA0003850486450000171
中的第一个第一图像特征
Figure BDA0003850486450000172
Figure BDA0003850486450000173
中的第一个第一文本特征
Figure BDA0003850486450000174
计算余弦相似度
Figure BDA0003850486450000175
将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
根据
Figure BDA0003850486450000176
中的第一个图像特征
Figure BDA0003850486450000177
Figure BDA0003850486450000178
中的第一个第二文本特征
Figure BDA0003850486450000179
计算余弦相似度
Figure BDA00038504864500001710
可选的,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
本公开中损失函数的目标是拉近正例与视频之间的距离,同时推远负例和视频之间的距离,即增大d(v,tp),降低d(v,tn)。
在一种可能的实施例中,所述损失函数为loss=max(0,m+d(v,tp)-d(v,tn)),根据所述损失函数训练匹配模型,可以有效地使匹配模型区分正例文本数据和负例文本数据,提高模型在进行视频和文本匹配时的准确度。
图8是根据本公开实施例提供的一种跨模态的视频文本匹配装置的结构示意图,如图8所示,所述装置包括:
文本特征提取模块810,用于将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;;
图像特征提取模块820,用于将候选视频输入所述匹配模型,提取候选视频特征以生成候选图像特征序列;
匹配模块830,用于确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
可选的,所述文本特征提取模块包括:
切分子模块,用于将所述目标文本切分为文本段,以生成目标文本段序列;
文本特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量;
第一编码子模块,用于将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
可选的,所述图像特征提取模块包括:
采样子模块,用于按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
图像特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
第二编码子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
可选的,所述匹配模块包括:
相似度计算子模块,用于将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
可选的,所述匹配模块包括:
匹配子模块,用于将相似度最高值对应的候选视频确定为所述推荐视频。
图9是根据本公开实施例提供的一种匹配模型训练装置的结构示意图,如图9所示,所述装置包括:
数据获取模块910,用于获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
负例生成模块920,用于根据所述正例文本训练数据生成负例文本训练数据;
特征提取模块930,用于提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
相似度计算模块940,用于计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
训练模块950,用于根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为目标,训练所述匹配模型,以获取训练完成的匹配模型。
可选的,所述负例生成模块,包括:
第一生成子模块,用于将其他正例文本数据作为所述负例文本训练数据;
第二生成子模块,用于获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;
第三生成子模块,用于将所述正例文本数据中的多个事件对象调整位置,以生成所述负例文本训练数据。
可选的,所述特征提取模块,包括:
第一切分子模块,用于将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
第一特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
第一特征融合子模块,用于将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
可选的,所述特征提取模块包括:
第二切分子模块,用于将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
第二特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
第二特征融合子模块,用于将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
可选的,所述特征提取模块包括:
视频帧提取子模块,用于按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
视频帧特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
第三特征融合子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
可选的,所述相似度计算模块包括:
第一相似度计算子模块,用于将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
第二相似度计算子模块,用于将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
可选的,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如上述跨模态的视频文本匹配方法或匹配模型训练方法。例如,在一些实施例中,上述跨模态的视频文本匹配方法或匹配模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的上述跨模态的视频文本匹配方法或匹配模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行上述跨模态的视频文本匹配方法或匹配模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (27)

1.一种跨模态的视频文本匹配方法,包括:
将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;
将候选视频输入所述匹配模型,提取候选图像特征以生成候选图像特征序列;
确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
2.根据权利要求1所述的方法,其中,所述将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列,包括:
将所述目标文本切分为文本段,以生成目标文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量;
将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
3.根据权利要求1所述的方法,其中,所述将候选视频输入所述匹配模型,提取候选图像特征以生成候选图像特征序列,包括:
按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
4.根据权利要求1所述的方法,其中,所述确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,包括:
将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
5.根据权利要求4所述的方法,其中,所述根据所述相似度从所述候选视频中确定推荐视频,包括:
将相似度最高值对应的候选视频确定为所述推荐视频。
6.一种匹配模型训练方法,包括:
获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
根据所述正例文本训练数据生成负例文本训练数据;
提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为目标,训练所述匹配模型,以获取训练完成的匹配模型。
7.根据权利要求6所述的方法,其中,所述根据所述正例文本训练数据生成负例文本训练数据,包括:
将其他正例文本数据作为所述负例文本训练数据;或,
获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;或,
将所述正例文本数据中的多个事件对象调整位置,以生成所述负例文本训练数据。
8.根据权利要求6所述的方法,其中,所述提取所述正例文本训练数据对应的第一文本特征,包括:
将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
9.根据权利要求6所述的方法,其中,所述提取所述负例文本训练数据对应的第二文本特征包括:
将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
10.根据权利要求8或9中任一项所述的方法,其中,所述根据所述视频训练数据提取第一图像特征,包括:
按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
11.根据权利要求10所述的方法,其中,所述计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度包括:
将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
12.根据权利要求6所述的方法,其中,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
13.一种跨模态的视频文本匹配装置,包括:
文本特征提取模块,用于将目标文本输入预训练的匹配模型,提取目标文本特征以生成目标文本特征序列;
图像特征提取模块,用于将候选视频输入所述匹配模型,提取候选图像特征以生成候选图像特征序列;
匹配模块,用于确定所述目标文本特征序列中目标文本特征和所述候选图像特征序列中候选图像特征的相似度,根据所述相似度从所述候选视频中确定推荐视频。
14.根据权利要求13所述的装置,其中,所述文本特征提取模块包括:
切分子模块,用于将所述目标文本切分为文本段,以生成目标文本段序列;
文本特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述目标文本段序列中的位置生成各个文本段的第一位置嵌入向量;
第一编码子模块,用于将所述文本段特征向量和所述第一位置嵌入向量相加后进行编码以生成目标文本特征,并根据所述目标文本特征生成所述目标文本特征序列。
15.根据权利要求13所述的装置,其中,所述图像特征提取模块包括:
采样子模块,用于按预设的采样率从所述候选视频提取视频帧,以生成候选视频帧序列;
图像特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述候选视频帧序列的位置生成位置特征向量;
第二编码子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述候选图像特征,并根据所述候选图像特征生成所述候选图像特征序列。
16.根据权利要求13所述的装置,其中,所述匹配模块包括:
相似度计算子模块,用于将所述候选图像特征序列和所述目标文本特征序列中位置对应的候选图像特征和目标文本特征之间的余弦距离作为所述相似度。
17.根据权利要求16所述的装置,其中,所述匹配模块包括:
匹配子模块,用于将相似度最高值对应的候选视频确定为所述推荐视频。
18.一种匹配模型训练装置,包括:
数据获取模块,用于获取正例文本训练数据和所述正例文本训练数据对应的视频训练数据;
负例生成模块,用于根据所述正例文本训练数据生成负例文本训练数据;
特征提取模块,用于提取所述正例文本训练数据对应的第一文本特征,提取所述负例文本训练数据对应的第二文本特征,并根据所述视频训练数据提取第一图像特征;
相似度计算模块,用于计算所述第一图像特征和所述第一文本特征之间的第一相似度,并计算所述第一图像特征和第二文本特征之间的第二相似度;
训练模块,用于根据所述第一相似度和第二相似度计算损失函数,以所述损失函数收敛为目标,训练所述匹配模型,以获取训练完成的匹配模型。
19.根据权利要求18所述的装置,其中,所述负例生成模块,包括:
第一生成子模块,用于将其他正例文本数据作为所述负例文本训练数据;
第二生成子模块,用于获取所述正例文本数据的事件类型,将属于所述事件类型的文本作为所述负例文本训练数据;
第三生成子模块,用于将所述正例文本数据中的多个事件对象调整位置,以生成所述负例文本训练数据。
20.根据权利要求18所述的装置,其中,所述特征提取模块,包括:
第一切分子模块,用于将所述正例文本训练数据切分为文本段,以生成第一文本段序列;
第一特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述正例文本训练数据中的位置生成各个文本段的第二位置嵌入向量;
第一特征融合子模块,用于将所述文本段特征向量和所述第二位置嵌入向量相加后进行编码以生成第一文本特征,并根据所述第一文本特征生成第一文本特征序列。
21.根据权利要求18所述的装置,其中,所述特征提取模块包括:
第二切分子模块,用于将所述负例文本训练数据切分为文本段,以生成第二文本段序列;
第二特征提取子模块,用于提取各个文本段对应的文本段特征向量,并根据所述文本段在所述负例文本训练数据中的位置生成各个文本段的第三位置嵌入向量;
第二特征融合子模块,用于将所述文本段特征向量和所述第三位置嵌入向量相加后进行编码以生成第二文本特征,并根据所述第二文本特征生成第二文本特征序列。
22.根据权利要求20或21中任一项所述的装置,其中,所述特征提取模块包括:
视频帧提取子模块,用于按预设的采样率从所述视频训练数据提取视频帧,以生成视频帧序列;
视频帧特征提取子模块,用于提取所述视频帧的表示向量,并根据所述视频帧在所述视频帧序列的位置生成位置特征向量;
第三特征融合子模块,用于将所述表示向量和所述位置特征向量相加后进行编码以生成所述第一图像特征,并根据所述第一图像特征生成图像特征序列。
23.根据权利要求22所述的装置,其中,所述相似度计算模块包括:
第一相似度计算子模块,用于将所述图像特征序列和所述第一文本特征序列中位置对应的第一图像特征和第一文本特征之间的余弦距离作为所述第一相似度;
第二相似度计算子模块,用于将所述图像特征序列和所述第二文本特征序列中位置对应的所述第一图像特征和第二文本特征之间的余弦距离作为所述第二相似度。
24.根据权利要求18所述的装置,其中,所述损失函数以所述第一相似度大于所述第二相似度为收敛目标。
25.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5或权利要求6-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-5或权利要求6-12中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5或权利要求6-12中任一项所述的方法。
CN202211131503.3A 2022-09-16 2022-09-16 跨模态的视频文本匹配方法、装置、电子设备及存储介质 Active CN115481285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211131503.3A CN115481285B (zh) 2022-09-16 2022-09-16 跨模态的视频文本匹配方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211131503.3A CN115481285B (zh) 2022-09-16 2022-09-16 跨模态的视频文本匹配方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN115481285A true CN115481285A (zh) 2022-12-16
CN115481285B CN115481285B (zh) 2023-06-23

Family

ID=84424240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211131503.3A Active CN115481285B (zh) 2022-09-16 2022-09-16 跨模态的视频文本匹配方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115481285B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183729A (zh) * 2020-09-30 2021-01-05 腾讯音乐娱乐科技(深圳)有限公司 一种神经网络模型训练方法、装置及计算机可读存储介质
CN112990297A (zh) * 2021-03-10 2021-06-18 北京智源人工智能研究院 多模态预训练模型的训练方法、应用方法及装置
CN114297432A (zh) * 2021-08-05 2022-04-08 腾讯科技(深圳)有限公司 一种视频检索方法、装置、设备及计算机可读存储介质
US20220139180A1 (en) * 2020-10-29 2022-05-05 Visual One Technologies Inc. Custom event detection for surveillance cameras
CN114998777A (zh) * 2022-04-22 2022-09-02 北京爱奇艺科技有限公司 一种针对跨模态视频检索模型的训练方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183729A (zh) * 2020-09-30 2021-01-05 腾讯音乐娱乐科技(深圳)有限公司 一种神经网络模型训练方法、装置及计算机可读存储介质
US20220139180A1 (en) * 2020-10-29 2022-05-05 Visual One Technologies Inc. Custom event detection for surveillance cameras
CN112990297A (zh) * 2021-03-10 2021-06-18 北京智源人工智能研究院 多模态预训练模型的训练方法、应用方法及装置
CN114297432A (zh) * 2021-08-05 2022-04-08 腾讯科技(深圳)有限公司 一种视频检索方法、装置、设备及计算机可读存储介质
CN114998777A (zh) * 2022-04-22 2022-09-02 北京爱奇艺科技有限公司 一种针对跨模态视频检索模型的训练方法及装置

Also Published As

Publication number Publication date
CN115481285B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN113313022B (zh) 文字识别模型的训练方法和识别图像中文字的方法
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
CN112949415B (zh) 图像处理方法、装置、设备和介质
CN113657399A (zh) 文字识别模型的训练方法、文字识别方法及装置
CN114445831A (zh) 一种图文预训练方法、装置、设备以及存储介质
EP4390725A1 (en) Video retrieval method and apparatus, device, and storage medium
CN114782719B (zh) 一种特征提取模型的训练方法、对象检索方法以及装置
CN114242113A (zh) 语音检测方法、训练方法、装置和电子设备
CN114611625A (zh) 语言模型训练、数据处理方法、装置、设备、介质及产品
CN114416981A (zh) 一种长文本的分类方法、装置、设备及存储介质
CN114528387A (zh) 基于对话流自举的深度学习对话策略模型构建方法和系统
CN114494747A (zh) 模型的训练方法、图像处理方法、装置、电子设备及介质
CN113360683A (zh) 训练跨模态检索模型的方法以及跨模态检索方法和装置
CN115565177B (zh) 文字识别模型训练、文字识别方法、装置、设备及介质
CN116343233B (zh) 文本识别方法和文本识别模型的训练方法、装置
CN115481285B (zh) 跨模态的视频文本匹配方法、装置、电子设备及存储介质
CN113239215B (zh) 多媒体资源的分类方法、装置、电子设备及存储介质
CN114882334A (zh) 用于生成预训练模型的方法、模型训练方法及装置
CN114549904A (zh) 视觉处理及模型训练方法、设备、存储介质及程序产品
CN115270719A (zh) 基于多模态信息的文本摘要生成方法、训练方法及其装置
CN114492404A (zh) 一种长文本的处理方法、装置、设备及存储介质
CN113947195A (zh) 模型确定方法、装置、电子设备和存储器
CN114707591B (zh) 数据处理方法和数据处理模型的训练方法、装置
CN114821603B (zh) 票据识别方法、装置、电子设备以及存储介质
CN116797829B (zh) 一种模型生成方法、图像分类方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant