CN114419387A - 基于预训练模型和召回排序的跨模态检索系统及方法 - Google Patents

基于预训练模型和召回排序的跨模态检索系统及方法 Download PDF

Info

Publication number
CN114419387A
CN114419387A CN202111229288.6A CN202111229288A CN114419387A CN 114419387 A CN114419387 A CN 114419387A CN 202111229288 A CN202111229288 A CN 202111229288A CN 114419387 A CN114419387 A CN 114419387A
Authority
CN
China
Prior art keywords
retrieval
text
module
cross
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111229288.6A
Other languages
English (en)
Inventor
欧中洪
田子敬
史明昊
罗中李
宋美娜
钟茂华
梁昊光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202111229288.6A priority Critical patent/CN114419387A/zh
Priority to PCT/CN2022/087219 priority patent/WO2023065617A1/zh
Publication of CN114419387A publication Critical patent/CN114419387A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出一种基于预训练模型和召回排序的跨模态检索系统及方法,其中,该系统包括:多维度文本信息提取模块,用于为所述跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;智能图像检索模块,用于视频智能抽帧模块和以图搜图模块,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;跨模态检索模块,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。该系统用于降低信息管理成本、提升信息搜索精度和效率,支撑大型赛事咨询和新闻搜索的多模态自动化信息检索。

Description

基于预训练模型和召回排序的跨模态检索系统及方法
技术领域
本发明属于人工智能领域。
背景技术
随着互联网的发展,网络中的信息不再以单一的文本形式呈现,而是朝着多元化的方向发展。如今,网络上除了包含海量文本数据外,还有不亚于文本数量的图像、视频、音频等多个模态的数据。面对高速发展的互联网产业产生的海量数据,如何根据用户意愿在不同模态数据间快速、有效地检索出相关信息具有很大实用价值。目前主流的多模态检索技术主要可分为两种,一是基于匹配函数学习的交叉编码器模型,其主要思想是图文特征先融合,然后再经过隐层(神经网络),让隐层学习出跨模态距离函数,最终得到图文关系得分。该模型主要关注细粒度注意力和交叉特征,其结构如图3;二是基于表示学习的向量嵌入模型,其主要思想是图文特征分别计算得到最终顶层的嵌入,然后用可解释的距离函数(余弦函数、L2函数等)来约束图文关系,该模型更关注两种不同模态的信号在同一映射空间中的表示方法,其结构如图4。
一般而言,交叉编码器模型的模型效果优于向量嵌入模型,因为图文特征组合后可为模型隐层提供更多的交叉特征信息,但交叉编码器模型的主要问题在于无法使用顶层嵌入来独立表示图像和文本的输入信号。在一个N张图片M条文本输入的检索召回场景下,需要N*M个组合输入到该模型才能得到以图搜文或以文搜图的结果;此外,在线使用时,计算性能也是很大瓶颈,特征组合后隐层需要在线计算;由于交叉组合量非常大,无法提前存储图文信号的嵌入向量使用缓存进行计算。因此,交叉编码器模型虽然效果好,但并不是实际应用的主流。
向量嵌入模型结构是当前的主流检索结构,由于把图片和文本两个不同模态的信号分开,可以在离线阶段分别计算出各自的顶层嵌入;存储嵌入后在线使用时,只需计算两个模态向量的距离即可。如果是样本对的相关性过滤,则只需计算两个向量的余弦/欧氏距离;如果是在线检索召回,则需提前将一个模态的嵌入集合构建成检索空间,使用最近邻检索算法(如ANN等算法)搜索。向量嵌入模型的核心是得到高质量的嵌入。然而,向量嵌入模型虽然简洁有效、应用广泛,但其缺点也很明显。从模型结构可看出,不同模态的信号基本没有交互,因此很难学习出高质量代表信号语义的嵌入,对应的度量空间/距离准确性也有待提升。
本提案针对目前互联网中数据动态、多源、多模态特点,提出基于预训练模型和召回排序的跨模态检索系统,用于降低信息管理成本、提升信息搜索精度和效率,支撑大型赛事咨询和新闻搜索的多模态自动化信息检索。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于预训练模型和召回排序的跨模态检索系统,用于降低信息管理成本、提升信息搜索精度和效率,支撑大型赛事咨询和新闻搜索的多模态自动化信息检索。
本发明的第二个目的在于提出一种基于预训练模型和召回排序的跨模态检索方法。
为达上述目的,本发明第一方面实施例提出了一种基于预训练模型和召回排序的跨模态检索系统,包括:多维度文本信息提取模块,用于为所述跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;智能图像检索模块,包括视频智能抽帧模块和以图搜图模块,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;跨模态检索模块,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
本发明实施例提出的基于预训练模型和召回排序的跨模态检索系统,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
另外,根据本发明上述实施例的基于预训练模型和召回排序的跨模态检索系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述多维度文本信息提取模块,包括:
语音数据处理模块,用于音频提取和基于深度学习的语音识别;
自然语言文本扩展模块,用于获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
进一步地,在本发明的一个实施例中,所述视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,具体包括:
提取视频地每一帧,得到若干张图片;
将所述图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
进一步地,在本发明的一个实施例中,所述以图搜图模块用于完成大规模高效率的图片检索任务,具体包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
进一步地,在本发明的一个实施例中,所述跨模态检索模块,包括:
粗略召回模块,采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
精确排序模块,利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
为达上述目的,本发明另一方面实施例提出了一种基于预训练模型和召回排序的跨模态检索方法,包括以下步骤:提取文本信息,通过不同维度扩大文本信息的语义表示,增加文本样本量;提取图像信息,从一段视频中抽取出最能代表视频内容的若干张图片,从数据库中检索出相同或相似图片;根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
本发明实施例提出的基于预训练模型和召回排序的跨模态检索方法,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
进一步地,在本发明的一个实施例中,所述提取文本信息,包括:
音频提取和基于深度学习的语音识别;
获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
进一步地,在本发明的一个实施例中,所述从一段视频中抽取出最能代表视频内容的若干张图片,包括:
提取视频地每一帧,得到若干张图片;
将所述图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
进一步地,在本发明的一个实施例中,所述从数据库中检索出相同或相似图片,包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
进一步地,在本发明的一个实施例中,所述根据查询项生成大致相关地候选集,对所述候选集进行精确排序,包括:
采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种基于预训练模型和召回排序的跨模态检索系统的流程示意图。
图2为本发明实施例所提供的一种基于预训练模型和召回排序的跨模态检索方法的流程示意图。
图3为本发明实施例所提供的交叉编码模型示意图。
图4为本发明实施例所提供的向量嵌入模型示意图。
图5为本发明实施例所提供的技术方案示意图。
图6为本发明实施例所提供的语音数据处理模块示意图。
图7为本发明实施例所提供的自然语言文本扩展模块示意图。
图8为本发明实施例所提供的视频智能抽帧模块示意图。
图9为本发明实施例所提供的图片特征提取示意图。
图10为本发明实施例所提供的检索架构图示意图。
图11为本发明实施例所提供的粗略召回模块示意图。
图12为本发明实施例所提供的精准排序模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于预训练模型和召回排序的跨模态检索系统和方法。
图1为本发明实施例所提供的一种基于基于预训练模型和召回排序的跨模态检索系统的流程示意图。
如图1所示,该基于预训练模型和召回排序的跨模态检索系统包括以下模块:多维度文本信息提取模块10,智能图像检索模块20,跨模态检索模块30。
其中,多维度文本信息提取模块10,用于为跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;智能图像检索模块20,包括视频智能抽帧模块201和以图搜图模块202,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;跨模态检索模块30,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。本方案的处理流程如图5所示。
进一步地,在本发明的一个实施例中,多维度文本信息提取模块10,包括:
语音数据处理模块101,用于音频提取和基于深度学习的语音识别;
自然语言文本扩展模块102,用于获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
可以理解的是,多维度文本信息提取模块为多模态检索系统提供文本侧的信息支持, 主要通过不同维度扩大文本信息的语义表示,增加文本样本量。此外,该模块为文本单模态检索提供足量的数据支撑,一方面丰富文本模态的数据内容,另一方面增强多模态间的关联关系。
不同于常规的文本信息提取,多维度文本信息提取模块采用文本翻译结合语音识别的方法,充分利用多模态数据的优势,将视频中的音频数据,以及原本就是音频的数据进行语音识别,获取成对的训练数据;随后将整体的文本数据进行文本翻译处理,利用文本语义信息,提升数据的整体质量,扩展成对多模态关联数据的数量,同时通过多维度自然语言分析,将句子中的成分随机替换,构成丰富的负样本空间,提升模型的鲁棒性。
多维度文本信息提取模块可以细分为语音数据处理子模块和自然语言文本扩展子模块。
语音数据处理子模块主要包含音频提取和基于深度学习的语音识别,其结构如图6。
高维度模态具有较高的信息量,将其投影到低维度能大幅扩充低维度模态数据。将高维度模态(如视频、音频)转换为低维度模态(文本)数据,能提供大量的成对关联数据内容。音频提取能高效剥离视频中的音频数据,快速提供给后续功能。
基于深度学习的语音识别利用注意力机制实现端到端训练,将从各个模态中获取到的音频数据进行统一的语音识别获取低模态(即文本模态)信息,端到端模型能够用很好地形成完整的流水线为后续文本特征提取提供大量的成对数据。同时在深度学习过程中得到的音频特征,可以支撑最终的跨模态检索所需的音频特征内容。
跨模态检索模型训练所使用的数据,都是成对的关联数据。目前这种数据大部分靠人为打标签进行获取,公开的完好数据集难以满足深度学习所需的训练数据量。多维度文本信息提取模块通过对自然语言文本进行基于深度学习的翻译转换为多语言的文本信息,以获取当前文本数据的多维语义表示,再将其转换回原本的语言,以达到统─训练语言的目的。
自然语言文本扩展子模块主要通过多语言的翻译结果,获取不同语序不同语种下对于当前语句的语义描述,从多方面对已有的文本数据进行扩展。此外,自然语言处理也能够根据细粒度的文本分析,获取大量的负样本数据,使最终的跨模态检索模型更加健壮,提升模型的鲁棒性,其结构如图7。
进一步地,在本发明的一个实施例中,视频智能抽帧模块201用于从一段视频中抽取出最能代表视频内容的若干张图片,具体包括:
提取视频地每一帧,得到若干张图片;
将图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
可以理解的是,视频由图片帧所构成,视频模态数据和图片模态数据存在天然连接,要实现从视频模态到图片模态的跨越,只需从视频中抽取若干代表性的图片即可。
为完成视频智能抽帧,首先提取视频的每一帧,得到若干张图片;然后将图片映射到统一的LUV颜色空间中,计算每一帧与前一帧的绝对距离,距离越大,表明该帧相较于前一帧的变化越剧烈;最后根据计算出的绝对距离将提取出的所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。视频智能抽帧如图8所示。
进一步地,在本发明的一个实施例中,以图搜图模块202用于完成大规模高效率的图片检索任务,具体包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
为了满足根据用户输入图片在数据库中快速检索并返回相同或相似图片的需求,以图搜图技术不可或缺。目前大量的图片检索技术都存在检索速度不够快、检索范围不够广的问题。本方案提出一种基于平均灰度级比较的图片特征提取方法,并由Elasticsearch搜索引擎赋能加速的以图搜图技术,以完成大规模高效率的图片检索任务。
检索速度极大影响检索体验,图片检索有别于关键词检索,计算量显著提升。为加快图片检索速度,本方案首先将RGB三色图片转换为具有255个灰度级的灰色图片;然后对图片进行适当裁剪,裁去大概率不能表现图片特征的部分,得到如图9所示的灰色图片。为实现图片与图片间的相似度计算,图片特征的提取方法尤为重要,本方案在如图9所示的图片中选取9*9的网格点及其周边区域,基于这些矩形区域计算平均灰度级的比较差距,并将比较差距量化,作为图片特征进行存储。此图片特征提取方法可以实现仅用81*8的矩阵来表示一张图片,故在进行图片与图片间相似度计算时速度较快;且由于单张图片所需存储空间较小,可实现大规模的以图搜图任务。
为进一步提升检索速度,本方案基于ElasticSearch实现图片检索任务。运用上述图片特征提取方法,将图片特征存入ElasticSearch中,构建图片检索数据库,基于ElasticSearch的图片数据库不同于传统数据库,其利用了倒排索引机制,大大地提升检索速度。当用户输入一张图片或视频智能抽帧所得图片输入时,首先提取特征,再通过ElasticSearch提供的模糊查询功能,快速地从图片数据库中检索出相同或相似图片。
进一步地,在本发明的一个实施例中,所述跨模态检索模块30,包括:
粗略召回模块301,采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
精确排序模块302,利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
前述提到,现有的两种主流建模方案均存在不足。本方案首次基于两种方案进行有机结合,采用粗略召回、精确排序的创新思路,在保证检索效果的同时,提升检索效率。本方案使用向量嵌入模型进行粗略的信息召回,然后使用交叉编码器模型对召回的信息进行精确排序,最终返回最符合检索要求排序靠前的选项。该架构可以利用现有的跨模态预训练模型,且在两种模型间共享参数,提升模型的参数效率。检索架构如图10所示。
其中,粗略召回部分采用基于transformer的多模态预训练模型,如OSCAR,作为向量嵌入模型的子模型,进行快速的粗略召回。
由图11可知,向量嵌入模型包含两个预训练子模型,分别处理文本信号和图像信号,但实现参数共享。通过两个子模型,将不同模态的信号分别编码;然后映射到同一个高维多模态特征空间中;最后利用标准距离度量方法,如欧式距离、余弦距离,计算两个信号间的相似度,选出最相似的top-k个候选项,由交叉编码器模型进行精确排序。
为了使输入图像i和文本标题c两种模态的分布在高维多模态特征空间中更接近,在训练时将对应的图像-文本对紧密地放置于特征空间中,而不相关的样本对则放置较远(距离至少超过边界值α)。因此,使用三重态损失函数(triplet loss)来表示(距离度量方法采用余弦距离):
LEMB(i,c)=max(0,cos(i,c′)-cos(i,c)+α)+ max(0,cos(i′,c)-cos(i,c)+α)
其中(i,c)是来自训练语料库的正图像-文本对,而c′和t′是从训练语料库采样的负样本,使得图像-文本对(i,c′)和(i′,c)不出现在语料库中。
由于该模型对文本和图片信号进行独立编码,在检索时只需将查询的文本或图像映射到同样的特征空间中进行距离计算即可。因此,对于数据库中的数据可以进行离线编码,保证在线检索时的效率,使其可以应用于大规模的数据检索;但由于该模型不会被要求学习输入的细粒度特征,因此只用于快速召回候选目标集,由交叉编码器模型进行精确排序。
精确排序部分利用基于transformer的多模态预训练模型,如OSCAR,作为交叉编码器模型的子模型,进行精确排序。精确排序如图9所示。
由图9可知,交叉编码器模型只利用了一个预训练子模型,需要将文本和图像信号进行拼接,再通过神经网络判断其相似性。本方案利用二分类器来判断文本和图像是否相关,使用交叉嫡损失函数来表示:
LCE(i,c)=-(y log p(i,c)+(1-y)log(1-p(i,c)))
p(i,c)表示输入图像i和文本c的组合是正样本的概率(是否为正确的图像-文本组合)。当(i,c)是正样本对时,y=1;当(i,c)是负样本对时,y=0。
检索时,将粗略召回的top-k个候选项依次与查询项拼接,分别得出每一个图像-文本对的相似概率,完成精确排序。
尽管上述方法通常具有较高性能,可以从两种信号的交互中学习到更多信息,但它的计算成本较高,因为需要将每种组合都通过整个网络来获得相似度评分p(i,c),即该方法在检索期间不利用任何预先计算的表示,很难在大规模数据上进行快速检索。
因此,本子模块的整体流程如图12所示,首先利用向量嵌入模型根据用户的查询项快速地选择top-k个大致相关的候选项,再利用交叉编码模型根据查询项对候选集进行精确排序,最终返回给用户相关的检索结果。本方案同时保留了向量嵌入模型能在大规模数据集上检索的效率和交叉编码模型的检索准确性。
本方案充分利用了多模态数据的优势,采用文本翻译结合语音识别的方法,提升数据的整体质量、多模态关联数据的数量和模型的鲁棒性;利用了基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取,结合ElasticSearch搜索引擎对图片特征进行快速检索,实现了大规模高效的图片检索;结合向量嵌入模型和交叉编码器模型各自的优点,创新地在检索时采用粗略召回和精确排序的策略,实现了在大规模数据上快速有效地跨模态检索。
与当前主流的跨模态检索技术相比,本方案的优势在于:首先提出了一个联合检索的框架,结合向量嵌入模型检索速度快和交叉编码器模型检索效果好的优点,在检索时采用粗略召回和精确排序的策略,实现在大规模数据上快速有效地跨模态检索,同时共享两种模型的参数,提高参数效率,该框架适用于任何跨模态预训练模型,使得该框架可以使用现有模型而不需要从头开始训练,具有广泛的应用场景。其次结合多维度文本信息提取和智能图像检索,实现了单模态的快速检索,解决了目前主流跨模态检索模型无法实现相同模态信息检索的缺点;多维度文本信息提取一方面丰富了文本模态的信息内容,另一方面增强了多模态间关联关系,同时实现了语音到文本的转换;智能图像检索实现视频模态数据到图片模态数据的转换,可根据图片的像素、颜色、纹理等信息提取出图片特征,并在数据库中高效检索出相同或者相似度高的图片。
本发明实施例提出的基于预训练模型和召回排序的跨模态检索系统,针对跨模态检索数据动态、多源、多模态等特性,以及当前两种主流建模方法存在的问题,将两种建模方法有机结合,采用粗略召回、精确排序的思路,融合两种方案的长处,实现高效快速的跨模态检索;此外,本方案提出基于倒排检索的文本查询和基于颜色、纹理的高维图像特征检索技术,实现多个模态间的快速检索,为用户提供良好使用体验。
为了实现上述实施例,本发明还提出一种基于预训练模型和召回排序的跨模态检索方法。
图2为本发明实施例提供的一种基于预训练模型和召回排序的跨模态检索方法示意图。
如图2所示,该基于预训练模型和召回排序的跨模态检索方法,包括以下步骤:S101, 提取文本信息,通过不同维度扩大文本信息的语义表示,增加文本样本量;S102,提取图像信息,从一段视频中抽取出最能代表视频内容的若干张图片,并从数据库中检索出相同或相似图片;S103,根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
进一步地,在本发明的一个实施例中,所述提取文本信息,包括:
音频提取和基于深度学习的语音识别;
获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
进一步地,在本发明的一个实施例中,所述从一段视频中抽取出最能代表视频内容的若干张图片,包括:
提取视频地每一帧,得到若干张图片;
将所述图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
进一步地,在本发明的一个实施例中,所述从数据库中检索出相同或相似图片,包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
进一步地,在本发明的一个实施例中,所述根据查询项生成大致相关地候选集,对所述候选集进行精确排序,包括:
采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的, 不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于预训练模型和召回排序的跨模态检索系统,其特征在于,包括以下模块:
多维度文本信息提取模块,用于为所述跨模态检索系统提供文本侧的信息支持,通过不同维度扩大文本信息的语义表示,增加文本样本量;
智能图像检索模块,包括视频智能抽帧模块和以图搜图模块,其中,视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,以图搜图模块用于完成大规模高效率的图片检索任务;
跨模态检索模块,用于根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
2.根据权利要求1所述的系统,其特征在于,所述多维度文本信息提取模块,包括:
语音数据处理模块,用于音频提取和基于深度学习的语音识别;
自然语言文本扩展模块,用于获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
3.根据权利要求1所述的系统,其特征在于,所述视频智能抽帧模块用于从一段视频中抽取出最能代表视频内容的若干张图片,具体包括:
提取视频地每一帧,得到若干张图片;
将所述图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
4.根据权利要求1所述的系统,其特征在于,所述以图搜图模块用于完成大规模高效率的图片检索任务,具体包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
5.根据权利要求1所述的系统,其特征在于,所述跨模态检索模块,包括:
粗略召回模块,采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
精确排序模块,利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
6.一种基于预训练模型和召回排序的跨模态检索方法,其特征在于,包括以下步骤:
提取文本信息,通过不同维度扩大文本信息的语义表示,增加文本样本量;
提取图像信息,从一段视频中抽取出最能代表视频内容的若干张图片,从数据库中检索出相同或相似图片;
根据查询项生成大致相关地候选集,对所述候选集进行精确排序,最终返回相关地检索结果。
7.根据权利要求6所述的方法,其特征在于,所述提取文本信息,包括:
音频提取和基于深度学习的语音识别;
获取不同语序不同语种下对于当前语句地语义描述,从多方面对已有地文本数据进行扩展,还用于根据细粒度地文本分析,获取大量地负样本数据。
8.根据权利要求6所述的方法,其特征在于,所述从一段视频中抽取出最能代表视频内容的若干张图片,包括:
提取视频地每一帧,得到若干张图片;
将所述图片映射到统一地LUV颜色空间中,计算每一帧与前一帧地绝对距离;
根据所述绝对距离将提取出地所有帧排序,排行靠前的若干帧即视为最能代表视频内容的若干张图片。
9.根据权利要求6所述的方法,其特征在于,所述从数据库中检索出相同或相似图片,包括:
基于平均灰度级比较差距的图片特征提取技术对图片进行特征提取;
通过ElasticSearch提供的模糊查询功能,快速的从图片数据库中检索出相同或相似的图片。
10.根据权利要求6所述的方法,所述根据查询项生成大致相关地候选集,对所述候选集进行精确排序,包括:
采用基于transformer的多模态预训练模型,作为向量嵌入模型的子模型,进行快速的粗略召回;
利用基于transformer的多模态预训练模型,作为交叉编码器模型的子模型,进行精确排序。
CN202111229288.6A 2021-10-21 2021-10-21 基于预训练模型和召回排序的跨模态检索系统及方法 Pending CN114419387A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111229288.6A CN114419387A (zh) 2021-10-21 2021-10-21 基于预训练模型和召回排序的跨模态检索系统及方法
PCT/CN2022/087219 WO2023065617A1 (zh) 2021-10-21 2022-04-15 基于预训练模型和召回排序的跨模态检索系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111229288.6A CN114419387A (zh) 2021-10-21 2021-10-21 基于预训练模型和召回排序的跨模态检索系统及方法

Publications (1)

Publication Number Publication Date
CN114419387A true CN114419387A (zh) 2022-04-29

Family

ID=81266522

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111229288.6A Pending CN114419387A (zh) 2021-10-21 2021-10-21 基于预训练模型和召回排序的跨模态检索系统及方法

Country Status (2)

Country Link
CN (1) CN114419387A (zh)
WO (1) WO2023065617A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115329749A (zh) * 2022-10-14 2022-11-11 成都数之联科技股份有限公司 一种语义检索的召回和排序联合训练方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229332B (zh) * 2023-05-06 2023-08-04 浪潮电子信息产业股份有限公司 一种视频预训练模型的训练方法、装置、设备及存储介质
CN116523024B (zh) * 2023-07-03 2023-10-13 腾讯科技(深圳)有限公司 召回模型的训练方法、装置、设备及存储介质
CN116578693B (zh) * 2023-07-14 2024-02-20 深圳须弥云图空间科技有限公司 一种文本检索方法及装置
CN117033308B (zh) * 2023-08-28 2024-03-26 中国电子科技集团公司第十五研究所 一种基于特定范围的多模态检索方法及装置
CN117312688B (zh) * 2023-11-29 2024-01-26 浙江大学 基于时空资产目录的跨源数据检索方法、介质及设备
CN117746344B (zh) * 2024-02-21 2024-05-14 厦门农芯数字科技有限公司 一种猪场监控视频的事件分析方法、装置以及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547713B2 (en) * 2013-04-30 2017-01-17 Microsoft Technology Licensing, Llc Search result tagging
CN110472081B (zh) * 2019-08-23 2022-10-04 大连海事大学 一种基于度量学习的鞋图片跨域检索方法
CN111949806A (zh) * 2020-08-03 2020-11-17 中电科大数据研究院有限公司 一种基于Resnet-Bert网络模型的跨媒体检索方法
CN112035728B (zh) * 2020-08-21 2023-07-25 中国电子科技集团公司电子科学研究院 一种跨模态检索方法、装置及可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115329749A (zh) * 2022-10-14 2022-11-11 成都数之联科技股份有限公司 一种语义检索的召回和排序联合训练方法及系统

Also Published As

Publication number Publication date
WO2023065617A1 (zh) 2023-04-27

Similar Documents

Publication Publication Date Title
CN114419387A (zh) 基于预训练模型和召回排序的跨模态检索系统及方法
CN104050160B (zh) 一种机器与人工翻译相融合的口语翻译方法和装置
CN111464881B (zh) 基于自优化机制的全卷积视频描述生成方法
CN110083729B (zh) 一种图像搜索的方法及系统
US20220138193A1 (en) Conversion method and systems from natural language to structured query language
CN112348111B (zh) 视频中的多模态特征融合方法、装置、电子设备及介质
CN112836487B (zh) 一种自动评论方法、装置、计算机设备及存储介质
CN110990597B (zh) 基于文本语义映射的跨模态数据检索系统及其检索方法
CN113076465A (zh) 一种基于深度哈希的通用跨模态检索模型
CN116304745B (zh) 基于深层次语义信息的文本话题匹配方法及系统
CN113392265A (zh) 多媒体处理方法、装置及设备
CN111125457A (zh) 一种深度跨模态哈希检索方法及装置
CN114972848A (zh) 基于细粒度视觉信息控制网络的图像语义理解及文本生成
CN112084788B (zh) 一种影像字幕隐式情感倾向自动标注方法及系统
CN117313728A (zh) 实体识别方法、模型训练方法、装置、设备和存储介质
CN117036833A (zh) 一种视频分类方法、装置、设备和计算机可读存储介质
CN110287799B (zh) 基于深度学习的视频ucl语义标引方法与装置
CN116542817A (zh) 一种智能数字人律师咨询方法及系统
CN117216255A (zh) 分类模型训练方法以及相关设备
CN115203206A (zh) 数据内容搜索方法、装置、计算机设备及可读存储介质
CN112287690A (zh) 基于条件句子生成和跨模态重排的手语翻译方法
CN117453895B (zh) 一种智能客服应答方法、装置、设备及可读存储介质
CN117033308B (zh) 一种基于特定范围的多模态检索方法及装置
CN116561350B (zh) 一种资源生成方法及相关装置
CN112417865B (zh) 一种基于文章和标题动态融合的摘要提取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination