CN110659392A - 检索方法及装置、存储介质 - Google Patents

检索方法及装置、存储介质 Download PDF

Info

Publication number
CN110659392A
CN110659392A CN201910934892.5A CN201910934892A CN110659392A CN 110659392 A CN110659392 A CN 110659392A CN 201910934892 A CN201910934892 A CN 201910934892A CN 110659392 A CN110659392 A CN 110659392A
Authority
CN
China
Prior art keywords
video
similarity
text
determining
retrieval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910934892.5A
Other languages
English (en)
Other versions
CN110659392B (zh
Inventor
熊宇
黄青虬
郭凌峰
周航
周博磊
林达华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201910934892.5A priority Critical patent/CN110659392B/zh
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to KR1020217011348A priority patent/KR20210060563A/ko
Priority to PCT/CN2019/118196 priority patent/WO2021056750A1/zh
Priority to JP2021521293A priority patent/JP7181999B2/ja
Priority to SG11202107151TA priority patent/SG11202107151TA/en
Priority to TW109100236A priority patent/TWI749441B/zh
Publication of CN110659392A publication Critical patent/CN110659392A/zh
Priority to US17/362,803 priority patent/US20210326383A1/en
Application granted granted Critical
Publication of CN110659392B publication Critical patent/CN110659392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7343Query language or query format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种检索方法及装置、存储介质,其中,所述的方法包括:确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。

Description

检索方法及装置、存储介质
技术领域
本申请涉及计算机视觉技术领域,具体涉及一种检索方法及装置、存储介质。
背景技术
在现实生活中,根据一段文字描述,在视频数据库中检索符合文字描述的视频这项功能有着广泛的需求。传统的检索方法通常将文字编码为词向量,同时将视频编码成视频特征向量。但是,传统的检索方法,检索效率低,匹配正确率差。
发明内容
本申请提供一种检索方法的技术方案。
第一方面,本申请实施例提供了一种检索方法,所述方法包括:确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
如此,相对于传统的基于特征的检索算法,本申请通过确定文本和至少一个视频之间的第一相似度,所述文本的第一人物互动图和所述至少一个视频的第二人物互动图之间的第二相似度,可以利用文字本身的语法结构以及视频本身的事件结构等信息,进行视频检索,从而能提高根据文本描述检索视频如电影的准确率。
上述方案中,可选地,所述确定文本和至少一个视频之间的第一相似度,包括:确定所述文本的段落特征;确定所述至少一个视频的视频特征;根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
如此,通过分析文本的段落特征和视频的视频特征来确定第一相似度,可得到视频和文本直接匹配的相似度,为后续确定与检索条件相匹配的视频提供参考依据。
上述方案中,可选地,所述段落特征包括句子特征和句子的数量;所述视频特征包括镜头特征和镜头的数量。
如此,通过将句子特征和句子的数量作为文本的段落特征,将镜头特征和镜头的数量作为视频的视频特征,对文本和视频进行了量化,进而能够为分析文本的段落特征和视频的视频特征提供分析依据。
上述方案中,可选地,所述确定所述文本的第一人物互动图,包括:检测所述文本中包含的人名;在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;将每个所述人物对应的角色节点和动作节点连接;其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
如此,文本中的句子通常遵循与事件中的情景相似的顺序,每一段文本都描述了视频中的一个事件,通过构建文本的人物交互图来捕捉视频的叙事结构,为后续确定与检索条件相匹配的视频提供参考依据。
上述方案中,可选地,所述方法还包括:将连接同一动作节点的角色节点相互连接。
如此,有助于更好地构建文本的人物交互图,进而更好地捕捉视频的叙事结构。
上述方案中,可选地,所述检测所述文本中包含的人名,包括:将所述文本中的代词替换为所述代词所代表的所述人名。
如此,防止漏掉文本中用非人名表示的人物,能够对文本中描述的所有人物进行分析,进而提高确定文本的人物互动图的准确率。
上述方案中,可选地,所述确定所述至少一个视频的第二人物互动图,包括:检测出所述至少一个视频的每个镜头中的人物;提取所述人物的人体特征与运动特征;将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的动作节点上;将每个人物对应的角色节点和动作节点相连。
如此,由于人物之间的相互作用经常在文本中描述,角色之间的互动在视频故事中扮演着重要的角色,为了结合这一点,本申请提出了一个基于图表表示的人物交互图,通过确定视频的人物交互图和文本的人物交互图之间的相似度,为后续确定与检索条件相匹配的视频提供参考依据。
上述方案中,可选地,所述确定所述至少一个视频的第二人物互动图,还包括:将同时出现在一个镜头中的一组人物作为同组人物,将所述同组人物中的人物的角色节点两两相连。
如此,有助于更好地构建视频的人物交互图,进而更好地捕捉视频的叙事结构。
上述方案中,可选地,所述确定所述至少一个视频的第二人物互动图,还包括:将一个镜头中的一位人物和其相邻镜头的每个人物的角色节点都相连。
如此,有助于更好地构建视频的人物交互图,进而更好地捕捉视频的叙事结构。
上述方案中,可选地,所述根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频,包括:对每个视频的所述第一相似度和所述第二相似度加权求和,得到每个视频的相似度值;将相似度值最高的视频,确定为与所述检索条件相匹配的视频。
如此,结合第一相似度和第二相似度来确定与检索条件相匹配的视频,能提高根据文本描述检索视频的准确率。
上述方案中,可选地,所述检索方法通过检索网络实现,所述方法还包括:确定文本和训练样本集中的视频之间的第一相似度预测值,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述训练样本集中的视频的第二人物互动图之间的第二相似度;根据所述第一相似度预测值与所述第一相似度真值确定所述第一相似度的损失;根据所述第二相似度预测值与所述第二相似度真值确定所述第二相似度的损失;根据所述第一相似度的损失以及所述第二相似度的损失,结合损失函数确定总损失值;根据所述总损失值调整所述检索网络的权重参数。
如此,通过检索网络实现检索,有助于快速检索出与文本描述相匹配的视频。
上述方案中,可选地,所述检索网络包括第一子网络以及第二子网络;所述第一子网络用于确定文本与视频的第一相似度,所述第二子网络用于确定所述文本的第一人物互动图和所述视频的第二人物互动图之间的相似度;所述根据所述总损失值调整所述检索网络的权重参数,包括:基于所述总损失值调整所述第一子网络以及所述第二子网络的权重参数。
如此,通过不同的子网络分别确定不同的相似度,有助于快速得到与检索条件相关的第一相似度和第二相似度,进而能够快速检索出与检索条件相适应的视频。
第二方面,本申请实施例提供了一种检索装置,所述装置包括:第一确定模块,用于确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;第二确定模块,用于确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;处理模块,用于根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
上述方案中,可选地,所述第一确定模块,用于:确定所述文本的段落特征;确定所述至少一个视频的视频特征;根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
上述方案中,可选地,所述段落特征包括句子特征和句子的数量;所述视频特征包括镜头特征和镜头的数量。
上述方案中,可选地,所述第二确定模块,用于:检测所述文本中包含的人名;在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;将每个所述人物对应的角色节点和动作节点连接;其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
上述方案中,可选地,所述第二确定模块,还用于:将连接同一动作节点的角色节点相互连接。
上述方案中,可选地,所述第二确定模块,用于:将所述文本中的代词替换为所述代词所代表的所述人名。
上述方案中,可选地,所述第二确定模块,用于:检测出所述至少一个视频的每个镜头中的人物;提取所述人物的人体特征与运动特征;将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的动作节点上;将每个人物对应的角色节点和动作节点相连。
上述方案中,可选地,所述第二确定模块,还用于:将同时出现在一个镜头中的一组人物作为同组人物,将所述同组人物中的人物的角色节点两两相连。
上述方案中,可选地,所述第二确定模块,还用于:将一个镜头中的一位人物和其相邻镜头的每个人物的角色节点都相连。
上述方案中,可选地,所述处理模块,用于:对每个视频的所述第一相似度和所述第二相似度加权求和,得到每个视频的相似度值;将相似度值最高的视频,确定为与所述检索条件相匹配的视频。
上述方案中,可选地,所述检索装置通过检索网络实现,所述装置还包括:训练模块,用于:确定文本和训练样本集中的视频之间的第一相似度预测值,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述训练样本集中的视频的第二人物互动图之间的第二相似度;根据所述第一相似度预测值与所述第一相似度真值确定所述第一相似度的损失;根据所述第二相似度预测值与所述第二相似度真值确定所述第二相似度的损失;根据所述第一相似度的损失以及所述第二相似度的损失,结合损失函数确定总损失值;根据所述总损失值调整所述检索网络的权重参数。
上述方案中,可选地,所述检索网络包括第一子网络以及第二子网络;所述第一子网络用于确定文本与视频的第一相似度,所述第二子网络用于确定文本的第一人物互动图和所述视频的第二人物互动图之间的相似度;所述训练模块,用于:基于所述总损失值调整所述第一子网络以及所述第二子网络的权重参数。
第三方面,本申请实施例提供了一种检索装置,所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本申请实施例所述的检索方法的步骤。
第四方面,本申请实施例提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行本申请实施例所述的检索方法的步骤。
本申请提供的技术方案,确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。如此,相对于传统的基于特征的检索算法,本申请通过确定文本和至少一个视频之间的第一相似度,所述文本的第一人物互动图和所述至少一个视频的第二人物互动图之间的第二相似度,可以利用文字本身的语法结构以及视频本身的事件结构等信息,进行视频检索,从而能提高根据文本描述检索视频如电影的准确率。
附图说明
图1为本申请实施例提供的检索方法概述框架示意图;
图2为本申请实施例提供的一种检索方法的实现流程示意图;
图3为本申请实施例提供的一种检索装置的组成结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请实施例相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请实施例的一些方面相一致的装置和方法的例子。
在本公开实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开实施例。在本公开实施例和所附权利要求书中所使用的单数形式的“一种”、“一个”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”及“若”可以被解释成为“在……时”或“当……时”或“响应于确定”。
下面结合附图和具体实施例对本申请的检索方法进行详细阐述。
图1为本申请实施例提供的检索方法概述框架示意图,该框架用于匹配视频和文本,如匹配电影节段和剧情片段。该框架包括两类模块:事件流模块(EFM,Event FlowModule)和人物交互模块(CIM,Character Interaction Module);事件流模块用于探索事件流的事件结构,以段落特征和视频特征为输入,输出视频和段落直接的相似度;人物交互模块用于利用人物交互,分别构建段落中的人物互动图和视频中的人物互动图,再通过图匹配算法衡量二图之间的相似度。
给定一个查询文本P和一个候选视频Q,上述两个模块分别产生P和Q之间的相似度得分,分别表示为
Figure BDA0002221355340000071
Figure BDA0002221355340000072
然后将总匹配分数
Figure BDA0002221355340000073
定义为它们的和:
具体如何求解将
Figure BDA0002221355340000082
Figure BDA0002221355340000083
在下文中详细描述。
当然,在其他实施例中,总匹配分数也可以是上述两个模块得分的加权和等运算结果。
本申请实施例提供一种检索方法,此检索方法可应用于终端设备、服务器或其他电子设备。其中,终端设备可以为用户设备(UE,User Equipment)、移动设备、蜂窝电话、无绳电话、个人数字处理(PDA,Personal Digital Assistant)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该处理方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图2所示,所述方法主要包括:
步骤S101、确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件。
这里,所述文本是用于表征检索条件的一段文字描述。本申请实施例对获取文本的方式不作限定。例如,电子设备可以接收用户在输入区输入的文字描述,或者,接收用户在语音输入,然后将语音数据转换成文字描述。
这里,所述检索条件包括人名和至少一个表征动作的动词。例如,杰克打了他自己一拳。
这里,所述至少一个视频位于可供检索的本地或第三方视频数据库中。
这里,所述第一相似度是表征视频和文本直接匹配的相似度。
在一个例子中,电子设备将文本的段落特征和视频的视频特征输入到事件流模块,由事件流模块输出视频和文本的相似度,即第一相似度。
在一些可选实现方式中,所述确定文本和至少一个视频之间的第一相似度,包括:
确定所述文本的段落特征,所述段落特征包括句子特征和句子的数量;
确定所述至少一个视频的视频特征,所述视频特征包括镜头特征和镜头的数量;
根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
在一些例子中,确定文本的段落特征,包括:可以利用第一神经网络对文本进行处理,得到文本的段落特征,所述段落特征包括句子特征和句子的数量。例如,每个单词对应一个300维的向量,将句子中每个单词的特征加起来就是句子的特征。句子数量是指文本中的句号的数量,将输入的文本用句号将句子分割开,得到句子的数量。
在一些例子中,确定视频的视频特征,包括:可以利用第二神经网络对视频进行处理,具体地,先将视频解码成图片流,然后基于图片流得到视频特征;所述视频特征包括镜头特征和镜头的数量。例如,镜头特征是将镜头的3张关键帧的图片通过神经网络得到3个2348维的向量,再取平均。一个镜头是指视频中同一摄像机在同一机位拍摄的连续画面,如果画面切换则是另一个镜头,按照现有的镜头切割算法来得到镜头的数量。
如此,通过分析文本的段落特征和视频的视频特征来确定第一相似度,为后续确定出与检索条件相匹配的视频提供依据;利用文字本身的语法结构以及视频本身的事件结构等信息,进行视频检索,从而能提高根据文本描述检索视频的准确率。
上述方案中,可选地,所述第一相似度的计算公式为:
其中,一个段落特征由M个句子特征组成,设句子特征为则段落特征表示为Φ=[φ1,…,φM]T;一个视频特征由N个镜头特征组成,设镜头特征为
Figure BDA0002221355340000093
则视频特征表示为Ψ=[ψ1,…,ψN]T;设布尔分配矩阵Y∈{0,1}N×M,用于将每个镜头分配给每个句子,其中yij=Y(i,j)=1代表第i个镜头被分配给第j个句子,yij=Y(i,j)=0代表第i个镜头未被分配给第j个句子。
上述方案中,可选地,所述第一相似度的计算公式的约束条件包括:
每个镜头最多被分配给1个句子;
序号靠前的镜头被分配到的句子,相对于序号在后的镜头被分配到的句子,更靠前。
因此,可将计算第一相似度转化为求解如下公式(3)的优化目标,将优化目标和约束条件联合起来,可以得到如下优化公式:
maxY tr(ΦΨTY) 式(3)
s.t.Y1≤1 式(4)
Figure BDA0002221355340000101
其中,公式(3)是优化目标;s.t.是such that的缩写,引出表示公式(3)约束条件的公式(4)和(5);yi表示Y的第i行向量,
Figure BDA0002221355340000102
表示一个布尔向量的第一个非零值的序号。公式(4)中,Y是一个矩阵,1是一个向量(所有元素都是1的向量),Y1是矩阵Y和向量1的乘积。
进一步地,通过传统的动态规划算法,可以得到该优化问题的解。具体地,通过动态规划算法相关算法,可以解得最优的Y,从而得到
Figure BDA0002221355340000103
的值。
步骤S102、确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图。
这里,人物互动图是用于表征人物之间的角色关系和动作关系的图,包括角色节点和动作节点。
在一些可选实施方式中,一个文本对应一个第一人物互动图,一个视频对应一个第二人物互动图。
在一些可选实施方式中,所述确定所述文本的第一人物互动图,包括:检测所述文本中包含的人名;在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;将每个所述人物对应的角色节点和动作节点连接。
其中,数据库是预先存储有大量的人名和肖像的对应关系的库,所述肖像是与该人名对应的人物的肖像。肖像数据可从网络上爬取,如可从互联网电影资料库(InternetMovie Database,简称IMDb)网站和电影数据库(The Movie Database,简称TMDb)网站上爬取到肖像数据。其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
在一些实施例中,解析确定所述文本的语义树,包括:通过依存句法算法解析确定文本的语义树。例如,利用依存句法算法将每句话分成一个一个的词,然后根据语言学的一些规则,把词作为节点,建一棵语义树。
先将每个句子得到一个图,然后每一段有多个句子,就是多个图。但是,在数学上,我们可以把这几个图看成一个图(一个非连接图)。也就是说,在数学上图的定义不一定是要每个节点到另一个节点都有路径可以达到的,也可以是那种可分割成几个小图的图。
其中,如果多个人名指向同一个动作节点,则将所述多个人名的动作节点两两之间用边连接。
其中,边连接的两个节点特征拼接作为边的特征。
示例性地,可将边连接的两个节点特征分别表示为两个向量,将该两个向量进行拼接(例如维度相加),则得到边的特征。比如一个向量3维,另一个向量4维度,直接拼接成7维的向量。举例来说,若将[1,3,4]和[2,5,3,6]拼接,则拼接的结果是[1,3,4,2,5,3,6]。
在一些例子中,可以采用Word2Vec(英文全称为Word to Vector)词向量经神经网络处理后的特征作为动作节点的表征,即作为人物的运动特征。
在一些例子中,检测文本中包含的人名时,将文本中的代词替换为所述代词所代表的人名。具体地,通过人名检测工具(如斯坦福人名检测工具包)检测出所有的人名(如“杰克”)。之后通过共指解析工具将代词替换成该词所代表的人名(如“杰克打了他自己一拳”中的“他”提取为“杰克”)。
在一些实施例中,基于人名在数据库中搜索到所述人名对应的人物的肖像,并通过神经网络提取所述肖像的图像特征;其中,所述图像特征包括人脸和身体特征。通过神经网络确定所述文本中每个句子的语义树以及所述语义树上每个词的词性,如名词、代词、动词等,所述语义树上每个节点是所述句子中的一个词,将句子中的动词作为人物的运动特征,即动作节点,将名词或代词对应的人名作为人物角色节点,将人物的肖像的图像特征附加到人物角色节点;根据所述语义树和所述人名,将每个所述人名对应的角色节点和所述人名的动作节点连接,如果多个人名指向同一个动作节点,则所述多个人名两两之间用边连接。
在一些可选实施方式中,所述确定所述至少一个视频的第二人物互动图,包括:
检测出所述至少一个视频的每个镜头中的人物;
提取所述人物的人体特征与运动特征;
将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的运动节点上;
将每个人物对应的角色节点和运动节点相连。
这里,一个镜头是指视频中同一摄像机在同一机位拍摄的连续画面,如果画面切换则是另一个镜头,按照现有的镜头切割算法来得到镜头的数量。
这里,所述人体特征是人物的人脸和身体特征,将镜头对应的图像通过训练好的模型可以得到图像中的人物的人体特征。
这里,所述运动特征是将镜头对应的图像输入训练好的模型得到的图像中的人物的运动特征,例如识别得到的人物在当前图像中的动作(如喝水)。
进一步地,所述确定所述至少一个视频的第二人物互动图时,还包括:如果一组人物同时出现在一个镜头中,则将同组人物中的人物的角色节点两两相连;将一个镜头中的一位人物和其相邻镜头的每个人物的角色节点都相连。
这里,所述相邻镜头是指当前镜头的前一个镜头和后一个镜头。
其中,如果多个角色节点指向同一个动作节点,则将所述多个角色节点的动作节点两两之间用边连接。
其中,边连接的两个节点特征拼接作为边的特征。
上述边特征的确定过程可参考第一人物互动图中边特征的确定方法,此处不再赘述。
步骤S103、确定所述第一人物互动图和所述第二人物互动图之间的第二相似度。
这里,所述第二相似度是表征第一人物互动图和第二人物互动图二图进行匹配计算得到的相似度。
在一个例子中,电子设备将文本和视频输入到人物互动模块,由人物互动模块构建文本中的第一人物互动图和视频中的第二人物互动图,再通过图匹配算法衡量二图之间的相似度,输出该相似度,即第二相似度。
在一些可选实施方式中,所述第二相似度的计算公式为:
其中,u是二值向量(布尔向量),uia=1代表Vp里第i个节点和Vq里第a个节点能匹配上,uia=0代表Vp里第i个节点和Vq里第a个节点不能匹配上。同理,ujb=1代表Vp里第j个节点和Vq里第b个节点能匹配上,ujb=0代表Vp里第j个节点和Vq里第b个节点不能匹配上;i,a,j,b都是索引符号;kia;ia代表Vp里第i个节点和Vq里第a个节点的相似度,kia;jb代表Ep里的边(i,j)和Eq里的边(a,b)的相似度。
设文本中的第一人物互动图为
Figure BDA0002221355340000132
其中,Vp是节点的集合,Ep是边的集合;Vp由两种节点构成,
Figure BDA0002221355340000133
为第一人物互动图中的动作节点,
Figure BDA0002221355340000134
为第一人物互动图中的角色节点;
设视频中的第二人物互动图为
Figure BDA0002221355340000135
其中,Vq是节点的集合,Eq是边的集合;Vq由两种节点构成,为第二人物互动图中的动作节点,
Figure BDA0002221355340000137
为第一人物互动图中的角色节点;
|Vp|=m=ma+mc,ma为动作节点数量,mc为角色节点数量;
|Vq|=n=na+nc,na为动作节点数量,nc为角色节点数量;
给定布尔向量u∈{0,1}nm×1,如果uia=1,则代表i∈Vq被匹配到a∈Vp;相似度矩阵
Figure BDA0002221355340000141
相似度矩阵K对角线元素为节点的相似度kia;ia=K(ia,ia),衡量Vq中第i个节点和Vp中第a个节点的相似度;kia;jb=K(ia,jb)衡量边(i,j)∈Eq和边(a,b)∈Ep的相似度,相似度由节点或边对应的特征,通过点积处理可得。
在一些可选实施方式中,所述第二相似度的计算公式的约束条件包括:
一个节点只能被匹配到另一个集合的最多一个节点;
不同类型的节点不能被匹配。
也就是说,匹配必须是一对一匹配,即一个节点之内被匹配到另一个集合的最多一个节点。不同类型的节点不能被匹配,比如角色节点不能被另一集合的动作节点所匹配。
因此,计算上述第二相似度可转化为求解如下优化公式(7),最终的优化公式和上述约束条件结合起来,可以得到:
maxu uTKu, 式(7)
Figure BDA0002221355340000142
Figure BDA0002221355340000143
Figure BDA0002221355340000144
在解优化的过程中,会得到u,将u带入公式(7)就能得到相似度。
步骤S104、根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
在一些可选实施方式中,所述根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频,包括:对每个视频的所述第一相似度和所述第二相似度加权求和,得到每个视频的相似度值;将相似度值最高的视频,确定为与所述检索条件相匹配的视频。
在一些实施例中,权重通过数据库中的验证集确定,在验证集上可以通过调权重方式,根据最终检索结果反馈得到一组最优的权重,进而可直接用到测试集上或直接用到实际检索中。
如此,利用文字本身的语法结构以及视频本身的事件结构等信息,进行视频检索,将相似度值最高的视频,确定为与所述检索条件相匹配的视频,能提高根据文本描述检索视频的准确率。
当然,在其他实施例中,也可以直接将第一相似度和第二相似度相加,得到每个视频对应的相似度。
上述方案中,所述检索方法通过检索网络实现,该检索网络的训练方法,包括:确定文本和训练样本集中的视频之间的第一相似度预测值,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述训练样本集中的视频的第二人物互动图之间的第二相似度;根据所述第一相似度预测值与所述第一相似度真值确定所述第一相似度的损失;根据所述第二相似度预测值与所述第二相似度真值确定所述第二相似度的损失;根据所述第一相似度的损失以及所述第二相似度的损失,结合损失函数确定总损失值;根据所述总损失值调整所述检索网络的权重参数。
本公开实施例中,所述检索网络对应的检索框架里有不同的组成模块,每个模块里可使用不同类型的神经网络。所述检索框架是事件流模块和人物关系模块共同组成的框架。
在一些可选实施方式中,所述检索网络包括第一子网络以及第二子网络;所述第一子网络用于确定文本与视频的第一相似度,所述第二子网络用于确定文本的第一人物互动图和所述视频的第二人物互动图之间的相似度。
具体地,将文本和视频输入第一子网络,该第一子网络输出文本与视频的第一相似度预测值;将文本和视频输入第二子网络,该第二子网络输出文本的第一人物互动图和所述视频的第二人物互动图之间的相似度预测值;根据标注的真值,能够得到文本与视频的第一相似度真值,以及所述文本的第一人物互动图和所述视频的第二人物互动图之间的相似度真值,根据第一相似度预测值和第一相似度真值的差异,可得到第一相似度的损失;根据第二相似度预测值和第二相似度真值得差异,可得到第二相似度的损失;根据第一相似度的损失和第二相似度的损失,再结合损失函数调整第一子网络和第二自网络的网络参数。
在一个例子中,构建了一个数据集,它包含了328部电影的概要,以及概要段落和电影片段之间的注释关联。具体地,该数据集不仅为每部电影提供了高质量的详细概要,而且还通过手动注释将概要的各个段落与电影片段相关联;在这里,每个电影片段可以持续到每个分钟和捕获完整事件。这些电影片段,再加上相关的概要段落,可以让人在更大的范围和更高的语义层次上进行分析。在这个数据集的基础上,本申请利用一个包括事件流模块和人物交互模块的框架来执行电影片段和概要段落之间的匹配。与传统的基于特征的匹配方法相比,该框架可显著提高匹配精度,同时也揭示了叙事结构和人物互动在电影理解中的重要性。
在一些可选实施方式中,所述根据所述总损失值调整所述检索网络的权重参数,包括:
基于所述总损失值调整所述第一子网络以及所述第二子网络的权重参数。
在一些可选实施方式中,所述损失函数表示为:
Figure BDA0002221355340000161
其中,θefm表示在事件流模块中嵌入网络的模型参数,θcim表示在人物交互模块中嵌入网络的模型参数。
其中,Y是事件流模块定义的二值矩阵,u是人物互动模块的二值向量,公式(12)表示通过最小化函数来调整网络的参数,例如下面公式(13)所示得到新的网络参数
Figure BDA0002221355340000164
其中,
Figure BDA0002221355340000165
可通过如下公式(14)表示:
Figure BDA0002221355340000166
Figure BDA0002221355340000171
其中,Y*是使得公式(3)的值最大的Y,也称之为最优解。
其中,u*是使得公式(7)最大的u。
其中,S(Qi,Pj)表示第i个视频Qi与第j个段落Pj的相似度;S(Qi,Pi)表示第i个视频Qi与第i个段落Pi的相似度,S(Qj,Pi)表示第j个视频Qj与第i个段落Pi的相似度;α为损失函数的参数,表示最小相似度差值。
本申请所述技术方案可用于各种检索任务中,对检索场景不做限定,比如检测场景包括电影片段检索场景、电视剧片段检索场景、短视频检索场景等。
本申请实施例提出的检索方法,确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。如此,相对于传统的基于特征的检索算法,本申请通过确定文本和至少一个视频之间的第一相似度,所述文本的第一人物互动图和所述至少一个视频的第二人物互动图之间的第二相似度,解决了传统的基于特征的检索算法没有利用文字本身的语法结构以及视频本身的事件结构等信息的问题,采用事件流匹配的方法和基于人物互动图匹配的方法进行视频检索,能提高根据文本描述检索视频的准确率。
对应上述检索方法,本申请实施例提供了一种检索装置,如图3所示,所述装置包括:第一确定模块10,用于确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;第二确定模块20,用于确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;处理模块30,用于根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
在一些实施例中,所述第一确定模块10,用于:确定所述文本的段落特征;确定所述至少一个视频的视频特征;根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
在一些实施例中,所述段落特征包括句子特征和句子的数量;所述视频特征包括镜头特征和镜头的数量。
在一些实施例中,所述第二确定模块20,用于:检测所述文本中包含的人名;在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;将每个所述人物对应的角色节点和动作节点连接;其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
在一些实施例中,所述第二确定模块20,还用于:将连接同一动作节点的角色节点相互连接。
在一些实施例中,所述第二确定模块20,用于:将所述文本中的代词替换为所述代词所代表的所述人名。
在一些实施例中,所述第二确定模块20,用于:检测出所述至少一个视频的每个镜头中的人物;提取所述人物的人体特征与运动特征;将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的动作节点上;将每个人物对应的角色节点和动作节点相连。
在一些实施例中,所述第二确定模块20,还用于:将同时出现在一个镜头中的一组人物作为同组人物,将所述同组人物中的人物的角色节点两两相连。
在一些实施例中,所述第二确定模块20,还用于:将一个镜头中的一位人物和其相邻镜头的每个人物的角色节点都相连。
在一些实施例中,所述处理模块30,用于:对每个视频的所述第一相似度和所述第二相似度加权求和,得到每个视频的相似度值;将相似度值最高的视频,确定为与所述检索条件相匹配的视频。
在一些实施例中,所述检索装置通过检索网络实现,所述装置还包括:训练模块40,用于:确定文本和训练样本集中的视频之间的第一相似度预测值,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述训练样本集中的视频的第二人物互动图之间的第二相似度;根据所述第一相似度预测值与所述第一相似度真值确定所述第一相似度的损失;根据所述第二相似度预测值与所述第二相似度真值确定所述第二相似度的损失;根据所述第一相似度的损失以及所述第二相似度的损失,结合损失函数确定总损失值;根据所述总损失值调整所述检索网络的权重参数。
在一些实施例中,所述检索网络包括第一子网络以及第二子网络;所述第一子网络用于确定文本与视频的第一相似度,所述第二子网络用于确定文本的第一人物互动图和所述视频的第二人物互动图之间的相似度;所述训练模块40,用于:基于所述总损失值调整所述第一子网络以及所述第二子网络的权重参数。
本领域技术人员应当理解,图3中所示的检索装置中的各处理模块的实现功能可参照前述检索方法的相关描述而理解。本领域技术人员应当理解,图3所示的检索装置中各处理单元的功能可通过运行于处理器上的程序而实现,也可通过具体的逻辑电路而实现。
实际应用中,上述第一确定模块10、第二确定模块20、处理模块30和训练模块40的具体结构均可对应于处理器。所述处理器具体的结构可以为中央处理器(CPU,CentralProcessing Unit)、微处理器(MCU,Micro Controller Unit)、数字信号处理器(DSP,Digital Signal Processing)或可编程逻辑器件(PLC,Programmable Logic Controller)等具有处理功能的电子元器件或电子元器件的集合。其中,所述处理器包括可执行代码,所述可执行代码存储在存储介质中,所述处理器可以通过总线等通信接口与所述存储介质中相连,在执行具体的各单元的对应功能时,从所述存储介质中读取并运行所述可执行代码。所述存储介质用于存储所述可执行代码的部分优选为非瞬间存储介质。
本申请实施例提供的检索装置,能提高根据文本检索视频的准确率。
本申请实施例还记载了一种检索装置,所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现前述任意一个技术方案提供的检索方法。
作为一种实施方式,所述处理器执行所述程序时实现:确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
作为一种实施方式,所述处理器执行所述程序时实现:所述确定文本和至少一个视频之间的第一相似度,包括:确定所述文本的段落特征;确定所述至少一个视频的视频特征;根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
作为一种实施方式,所述处理器执行所述程序时实现:检测所述文本中包含的人名;在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;将每个所述人物对应的角色节点和动作节点连接;其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
作为一种实施方式,所述处理器执行所述程序时实现:将连接同一动作节点的角色节点相互连接。
作为一种实施方式,所述处理器执行所述程序时实现:将所述文本中的代词替换为所述代词所代表的所述人名。
作为一种实施方式,所述处理器执行所述程序时实现:检测出所述至少一个视频的每个镜头中的人物;提取所述人物的人体特征与运动特征;将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的动作节点上;将每个人物对应的角色节点和动作节点相连。
作为一种实施方式,所述处理器执行所述程序时实现:将同时出现在一个镜头中的一组人物作为同组人物,将所述同组人物中的人物的角色节点两两相连。
作为一种实施方式,所述处理器执行所述程序时实现:将一个镜头中的一位人物和其相邻镜头的每个人物的角色节点都相连。
作为一种实施方式,所述处理器执行所述程序时实现:对每个视频的所述第一相似度和所述第二相似度加权求和,得到每个视频的相似度值;将相似度值最高的视频,确定为与所述检索条件相匹配的视频。
作为一种实施方式,所述处理器执行所述程序时实现:确定文本和训练样本集中的视频之间的第一相似度预测值,所述文本用于表征检索条件;确定所述文本的第一人物互动图和所述训练样本集中的视频的第二人物互动图之间的第二相似度;根据所述第一相似度预测值与所述第一相似度真值确定所述第一相似度的损失;根据所述第二相似度预测值与所述第二相似度真值确定所述第二相似度的损失;根据所述第一相似度的损失以及所述第二相似度的损失,结合损失函数确定总损失值;根据所述总损失值调整检索网络的权重参数。
作为一种实施方式,所述处理器执行所述程序时实现:基于所述总损失值调整所述第一子网络以及所述第二子网络的权重参数。
本申请实施例提供的检索装置,能提高根据文本描述检索视频的准确率。
本申请实施例还记载了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行前述各个实施例所述的检索方法。也就是说,所述计算机可执行指令被处理器执行之后,能够实现前述任意一个技术方案提供的检索方法。该计算机存储介质可以是易失性计算机可读存储介质或非易失性计算机可读存储介质。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,当计算机可读代码在设备上运行时,设备中的处理器执行用于实现如上任一实施例提供的检索方法。
该上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
本领域技术人员应当理解,本实施例的计算机存储介质中各程序的功能,可参照前述各实施例所述的检索方法的相关描述而理解。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种检索方法,其特征在于,所述方法包括:
确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;
确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;
确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;
根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
2.根据权利要求1所述的检索方法,其特征在于,所述确定文本和至少一个视频之间的第一相似度,包括:
确定所述文本的段落特征;
确定所述至少一个视频的视频特征;
根据所述文本的段落特征和所述至少一个视频的视频特征,确定所述文本和所述至少一个视频之间的第一相似度。
3.根据权利要求2所述的检索方法,其特征在于,所述段落特征包括句子特征和句子的数量;所述视频特征包括镜头特征和镜头的数量。
4.根据权利要求1至3任一项所述的检索方法,其特征在于,所述确定所述文本的第一人物互动图,包括:
检测所述文本中包含的人名;
在数据库中搜索到所述人名对应的人物的肖像,并提取所述肖像的图像特征,得到所述人物的角色节点;
解析确定所述文本的语义树,基于所述语义树得到所述人物的运动特征,得到所述人物的动作节点;
将每个所述人物对应的角色节点和动作节点连接;
其中,所述人物的角色节点用肖像的图像特征表征;所述人物的动作节点采用语义树中的运动特征表征。
5.根据权利要求4所述的检索方法,其特征在于,所述方法还包括:
将连接同一动作节点的角色节点相互连接。
6.根据权利要求4或5所述的检索方法,其特征在于,所述检测所述文本中包含的人名,包括:
将所述文本中的代词替换为所述代词所代表的所述人名。
7.根据权利要求1至6任一项所述的检索方法,其特征在于,所述确定所述至少一个视频的第二人物互动图,包括:
检测出所述至少一个视频的每个镜头中的人物;
提取所述人物的人体特征与运动特征;
将所述人物的人体特征附加到所述人物的角色节点上,将所述人物的运动特征附加到所述人物的动作节点上;
将每个人物对应的角色节点和动作节点相连。
8.一种检索装置,其特征在于,所述装置包括:
第一确定模块,用于确定文本和至少一个视频之间的第一相似度,所述文本用于表征检索条件;
第二确定模块,用于确定所述文本的第一人物互动图和所述至少一个视频的第二人物互动图;确定所述第一人物互动图和所述第二人物互动图之间的第二相似度;
处理模块,用于根据所述第一相似度和所述第二相似度,从所述至少一个视频中确定出与所述检索条件相匹配的视频。
9.一种检索装置,所述装置包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7任一项所述的检索方法。
10.一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,能够使得所述处理器执行权利要求1至7任一项所述的检索方法。
CN201910934892.5A 2019-09-29 2019-09-29 检索方法及装置、存储介质 Active CN110659392B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201910934892.5A CN110659392B (zh) 2019-09-29 2019-09-29 检索方法及装置、存储介质
PCT/CN2019/118196 WO2021056750A1 (zh) 2019-09-29 2019-11-13 检索方法及装置、存储介质
JP2021521293A JP7181999B2 (ja) 2019-09-29 2019-11-13 検索方法及び検索装置、記憶媒体
SG11202107151TA SG11202107151TA (en) 2019-09-29 2019-11-13 Search method and device, and storage medium
KR1020217011348A KR20210060563A (ko) 2019-09-29 2019-11-13 검색 방법 및 장치, 저장 매체
TW109100236A TWI749441B (zh) 2019-09-29 2020-01-03 檢索方法及裝置、儲存介質
US17/362,803 US20210326383A1 (en) 2019-09-29 2021-06-29 Search method and device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910934892.5A CN110659392B (zh) 2019-09-29 2019-09-29 检索方法及装置、存储介质

Publications (2)

Publication Number Publication Date
CN110659392A true CN110659392A (zh) 2020-01-07
CN110659392B CN110659392B (zh) 2022-05-06

Family

ID=69038407

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910934892.5A Active CN110659392B (zh) 2019-09-29 2019-09-29 检索方法及装置、存储介质

Country Status (7)

Country Link
US (1) US20210326383A1 (zh)
JP (1) JP7181999B2 (zh)
KR (1) KR20210060563A (zh)
CN (1) CN110659392B (zh)
SG (1) SG11202107151TA (zh)
TW (1) TWI749441B (zh)
WO (1) WO2021056750A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259118A (zh) * 2020-05-06 2020-06-09 广东电网有限责任公司 一种文本数据检索方法及装置
CN112256913A (zh) * 2020-10-19 2021-01-22 四川长虹电器股份有限公司 一种基于图模型比对的视频搜索方法
CN113204674A (zh) * 2021-07-05 2021-08-03 杭州一知智能科技有限公司 基于局部-整体图推理网络的视频-段落检索方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7877774B1 (en) * 1999-04-19 2011-01-25 At&T Intellectual Property Ii, L.P. Browsing and retrieval of full broadcast-quality video
US20110122137A1 (en) * 2009-11-23 2011-05-26 National Cheng Kung University Video summarization method based on mining story structure and semantic relations among concept entities thereof
CN103200463A (zh) * 2013-03-27 2013-07-10 天脉聚源(北京)传媒科技有限公司 一种视频摘要生成方法和装置
CN103440274A (zh) * 2013-08-07 2013-12-11 北京航空航天大学 一种基于细节描述的视频事件概要图构造和匹配方法
CN109783655A (zh) * 2018-12-07 2019-05-21 西安电子科技大学 一种跨模态检索方法、装置、计算机设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060018516A1 (en) * 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
JP4909200B2 (ja) 2006-10-06 2012-04-04 日本放送協会 人間関係グラフ生成装置及びコンテンツ検索装置、並びに、人間関係グラフ生成プログラム及びコンテンツ検索プログラム
JP5591670B2 (ja) 2010-11-30 2014-09-17 株式会社東芝 電子機器、人物相関図出力方法、人物相関図出力システム
CN103365854A (zh) * 2012-03-28 2013-10-23 鸿富锦精密工业(深圳)有限公司 视频文件检索系统及检索方法
US9547678B2 (en) * 2014-06-17 2017-01-17 Nant Holdings Ip, Llc Activity recognition systems and methods
JP6446987B2 (ja) 2014-10-16 2019-01-09 日本電気株式会社 映像選択装置、映像選択方法、映像選択プログラム、特徴量生成装置、特徴量生成方法及び特徴量生成プログラム
CN105279495B (zh) * 2015-10-23 2019-06-04 天津大学 一种基于深度学习和文本总结的视频描述方法
CN106127803A (zh) * 2016-06-17 2016-11-16 北京交通大学 人体运动捕捉数据行为分割方法及系统
JP2019008684A (ja) 2017-06-28 2019-01-17 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7877774B1 (en) * 1999-04-19 2011-01-25 At&T Intellectual Property Ii, L.P. Browsing and retrieval of full broadcast-quality video
US20110122137A1 (en) * 2009-11-23 2011-05-26 National Cheng Kung University Video summarization method based on mining story structure and semantic relations among concept entities thereof
CN103200463A (zh) * 2013-03-27 2013-07-10 天脉聚源(北京)传媒科技有限公司 一种视频摘要生成方法和装置
CN103440274A (zh) * 2013-08-07 2013-12-11 北京航空航天大学 一种基于细节描述的视频事件概要图构造和匹配方法
CN109783655A (zh) * 2018-12-07 2019-05-21 西安电子科技大学 一种跨模态检索方法、装置、计算机设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
PHUC QUANG NGUYEN等: "using textualsemantic similarity to improve clustering quality of web video search results", 《2015 SEVENTH INTERNATIONAL CONFERENCE ON KNOWLEDGE AND SYSTEM ENGINEERING》 *
吴蓉波: "智慧视频监控和人脸识别在监狱安防中的应用研究", 《科技风》 *
李瞳等: "基于残差神经网络的视频内容快速检索系统研究", 《吉林大学学报(信息科学版)》 *
高利军: "用于警务实战的监控视频人像识别预处理技术", 《信息通信》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259118A (zh) * 2020-05-06 2020-06-09 广东电网有限责任公司 一种文本数据检索方法及装置
CN112256913A (zh) * 2020-10-19 2021-01-22 四川长虹电器股份有限公司 一种基于图模型比对的视频搜索方法
CN113204674A (zh) * 2021-07-05 2021-08-03 杭州一知智能科技有限公司 基于局部-整体图推理网络的视频-段落检索方法及系统
CN113204674B (zh) * 2021-07-05 2021-09-17 杭州一知智能科技有限公司 基于局部-整体图推理网络的视频-段落检索方法及系统

Also Published As

Publication number Publication date
TWI749441B (zh) 2021-12-11
TW202113575A (zh) 2021-04-01
JP7181999B2 (ja) 2022-12-01
SG11202107151TA (en) 2021-07-29
US20210326383A1 (en) 2021-10-21
WO2021056750A1 (zh) 2021-04-01
CN110659392B (zh) 2022-05-06
JP2022505320A (ja) 2022-01-14
KR20210060563A (ko) 2021-05-26

Similar Documents

Publication Publication Date Title
CN110580292B (zh) 一种文本标签生成方法、装置和计算机可读存储介质
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
CN113312500B (zh) 一种面向大坝安全运行的事件图谱构建方法
WO2021159632A1 (zh) 智能问答方法、装置、计算机设备及计算机存储介质
CN111159485B (zh) 尾实体链接方法、装置、服务器及存储介质
CN110659392B (zh) 检索方法及装置、存储介质
CN113627447B (zh) 标签识别方法、装置、计算机设备、存储介质及程序产品
CN111222305A (zh) 一种信息结构化方法和装置
CN110083729B (zh) 一种图像搜索的方法及系统
CN111291177A (zh) 一种信息处理方法、装置和计算机存储介质
CN113672708A (zh) 语言模型训练方法、问答对生成方法、装置及设备
CN116628186B (zh) 文本摘要生成方法及系统
CN113704460A (zh) 一种文本分类方法、装置、电子设备和存储介质
CN113392265A (zh) 多媒体处理方法、装置及设备
CN116561570A (zh) 一种多模态模型的训练方法、装置、设备及可读存储介质
CN112347339A (zh) 一种搜索结果处理方法及装置
CN114417823A (zh) 一种基于句法和图卷积网络的方面级情感分析方法及装置
CN113705315A (zh) 视频处理方法、装置、设备及存储介质
CN113128431A (zh) 视频片段检索方法、装置、介质与电子设备
Saleem et al. Stateful human-centered visual captioning system to aid video surveillance
CN107704632A (zh) 基于同义词和反义词的中文标签推荐修正方法
CN116414988A (zh) 基于依赖关系增强的图卷积方面级情感分类方法及系统
CN110851629A (zh) 一种图像检索的方法
CN110852066A (zh) 一种基于对抗训练机制的多语言实体关系抽取方法及系统
CN114386412B (zh) 一种基于不确定性感知的多模态命名实体识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40012673

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant