CN110598048A - 视频检索方法及视频检索映射关系生成方法、装置 - Google Patents

视频检索方法及视频检索映射关系生成方法、装置 Download PDF

Info

Publication number
CN110598048A
CN110598048A CN201810516305.6A CN201810516305A CN110598048A CN 110598048 A CN110598048 A CN 110598048A CN 201810516305 A CN201810516305 A CN 201810516305A CN 110598048 A CN110598048 A CN 110598048A
Authority
CN
China
Prior art keywords
frame picture
sequence corresponding
text description
description sequence
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810516305.6A
Other languages
English (en)
Other versions
CN110598048B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambricon Technologies Corp Ltd
Beijing Zhongke Cambrian Technology Co Ltd
Original Assignee
Beijing Zhongke Cambrian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Cambrian Technology Co Ltd filed Critical Beijing Zhongke Cambrian Technology Co Ltd
Priority to CN201810516305.6A priority Critical patent/CN110598048B/zh
Priority to CN202011567126.9A priority patent/CN112597341B/zh
Priority to US16/962,110 priority patent/US11995556B2/en
Priority to PCT/CN2019/087446 priority patent/WO2019219083A1/zh
Priority to EP19802694.0A priority patent/EP3796189A4/en
Publication of CN110598048A publication Critical patent/CN110598048A/zh
Application granted granted Critical
Publication of CN110598048B publication Critical patent/CN110598048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种视屏检索方法及视频检索映射关系生成方法、设备和存储介质。本申请提供的视频检索方法包括:获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片。本申请提供的视频检索映射关系生成方法包括:采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;根据每个帧图片对应的文字描述序列,构建映射关系。采用本申请提供的视频检索方法及视频检索映射关系生成方法、设备和存储介质,能够提高视频检索的效率,并且人机交互更智能。

Description

视频检索方法及视频检索映射关系生成方法、装置
技术领域
本申请涉及计算机技术领域,特别是涉及一种视频检索方法及视频检索映射关系生成方法、装置。
背景技术
随着技术的不断进步,现在视频越来越普及,现在的视频不仅用于电视系统、电影系统中,还用于监控系统中。但是,电视中或者电影中的视频时长最少几个小时,而监控系统中的视频则少则存储几天的视频,长则几个月甚至几年的视频。则在现在信息化时代中产生了海量的视频信息,在海量的视频中查找自己所需要的镜头,无疑是大海捞针。
以电视剧为例,目前,当用户需要在海量电视剧视频中查找自己所需要的某一特定镜头时,往往是通过将视频快进的方式,对整个视频进行遍历,直到发现待查找的镜头。
但是,上述用户手动对视频进行快进并遍历的检索方法,其效率较低,且在快进视频的过程用户容易错过待查找的镜头,导致人机交互不够智能。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高智能性的视频检索方法及视频检索映射关系生成方法、装置、设备、存储介质。
第一方面,本发明实施例提供一种视频检索方法,包括:
获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;
根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
第二方面,本发明实施例提供一种视频检索映射关系生成方法,包括:
采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征;
将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,文字描述序列为能够描述帧图片的内容的文字构成的序列;
根据每个帧图片对应的文字描述序列,构建映射关系;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系。
第三方面,本发明实施例提供一种视频检索映射关系生成装置,包括:
提取模块,用于采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征;
第一处理模块,用于将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,文字描述序列为能够描述帧图片的内容的文字构成的序列;
构建模块,用于根据每个帧图片对应的文字描述序列,构建映射关系;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系。
第四方面,本发明实施例提供一种设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,文字描述序列为能够描述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系。
第五方面,本发明实施例提供的一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,文字描述序列为能够描述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系。
本发明提供的视频检索方法及视频检索映射关系生成方法、装置、终端、设备、存储介质,由于终端进行检索时只需要获取到目标帧图片的检索信息就可以得到用户所要检索的目标帧图片,而无需像传统技术中用户手动对视频进行快进而完成遍历检索,即采用本实施例提供的视频检索方法及视频检索映射关系生成方法,使得视频检索效率高;而且采用本实施例提供的视频检索方法及视频检索映射关系生成方法,也不会出现传统技术中手动快进遍历时用户容易错过待查找镜头的情况,即本实施例提供的视频检索方法及视频检索映射关系生成方法,使得人机交互智能化较高。
附图说明
图1a为一个实施例提供的一种终端的内部结构示意图;
图1为一个实施例提供的视频检索方法的流程示意图;
图2为另一个实施例提供的视频检索方法的流程示意图;
图3为另一个实施例提供的视频检索方法的流程示意图;
图4为另一个实施例提供的视频检索方法的流程示意图;
图5为另一个实施例提供的视频检索方法的流程示意图;
图6为一个实施例提供的树状目录结构的结构示意图;
图7为另一个实施例提供的视频检索方法的流程示意图;
图8为又一个实施例提供的视频检索方法的流程示意图;
图9为一个实施例提供的视频检索映射关系生成方法的流程示意图;
图10为另一个实施例提供的视频检索映射关系生成方法的流程示意图;
图11为又一个实施例提供的视频检索映射关系生成方法的流程示意图;
图12为一个实施例提供的视频检索装置的结构示意图;
图13为一个实施例提供的视频检索映射关系生成装置的结构示意图;
图14为另一个实施例提供的视频检索映射关系生成装置的结构示意图;
图15为另一个实施例提供的视频检索映射关系生成装置的结构示意图;
图16为又一个实施例提供的视频检索映射关系生成装置的结构示意图;
图17为又一个实施例提供的视频检索映射关系生成装置的结构示意图;
图18为又一个实施例提供的视频检索映射关系生成装置的结构示意图;
图19为又一个实施例提供的视频检索映射关系生成装置的结构示意图;
图20为又一个实施例提供的视频检索映射关系生成装置的结构示意图。
具体实施方式
本发明实施例提供的视频检索方法,可以适用于如图1a所示的终端。该终端包括通过系统总线连接的处理器、存储器,该存储器中存储有计算机程序,处理器执行该计算机程序时可以执行下述方法实施例的步骤。可选的,该终端还可以包括网络接口、显示屏和输入装置。其中,该终端的处理器用于提供计算和控制能力。该终端的存储器包括非易失性存储介质、内存储器,该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该终端的网络接口用于与外部的终端通过网络连接通信。可选的,终端可以为移动终端、便携式设备等具有数据处理功能、且可以与外部设备或者用户交互的电子设备,如电视机、数字放映机、平板电脑、手机、个人计算机、数字化视频光盘(Digital Video Disc,DVD)播放器等。本发明实施例对终端的具体形式并不做限定。该终端的输入装置可以是显示屏上覆盖的触摸层,也可以是终端外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板、遥控器或鼠标等。
随着社会的发展,人们的生活中越来越离不开视频,从之前的在电视、电影荧幕上看视频,到现在的还可以在终端(终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、电视、电视机顶盒)上看视频。最初期的视频只能一帧图片一帧图片的进行观看,而无法快进,而现在,无论是在电视上进行观看还是在终端上进行观看都可以快进,把自己不喜欢的镜头直接跳过。即传统技术中,如果用户想要看某一个特定镜头时,需要通过将视频进行快进的方式对整个视频进行遍历,但是,通过传统技术中用户手动快进视频遍历的方法,效率较低,并且在快进视频时容易错过待查找的镜头,导致人机交互智能性低。本申请提供的视频检索方法及视频检索映射关系生成方法、装置、设备、存储介质旨在解决传统技术的如上技术问题。
需要说明的是,下述方法实施例的执行主体可以是视频检索装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为上述终端的部分或者全部。下述方法实施例以执行主体是终端为例来进行说明。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例提供的视频检索方法的流程示意图。本实施例涉及的是终端根据检索指令中的检索信息及预设的映射关系得到目标帧图片的具体过程。如图1所示,该方法包括:
S101、获取检索指令,其中,检索指令中携带用于检索目标帧图片的检索信息。
具体的,检索指令可以为终端通过语音识别传感器获取到的语音信号,其中,语音信号中可以包括目标帧图片的描述信息;检索指令也可以为终端通过视觉传感器获取到的体感信号,其中,体感信号中可以包括目标帧图片中人物的姿势信息;检索指令还可以为终端通过人机交互界面(如手机的触摸屏等)获取到的文字信号或图片信号等,其中,文字信号中可以包括目标帧图片的描述信息,图片信号中可以包括目标帧图片中的人物、动物、景色等。
当检索指令为通过语音识别传感器获取到的语音信号时,将获取到的语音信号识别为文字,文字中包括至少一个用于检索目标帧图片的检索信息。当检索指令为通过视觉传感器获取到的体感信号时,将获取到的体感信号识别为文字,文字中包括至少一个用于检索目标帧图片的检索信息。当检索指令为通过人机交互界面获取到的文字信号或图片信号等时,将获取到的文字信号或图片信号识别为文字,文字中包括至少一个用于检索目标帧图片的检索信息。
需要说明的是,检索指令还可以为终端获取到的其他信号,只要携带用于检索目标帧图片的检索信息即可,例如,检索指令还可以为至少上述两种获取检索指令方式的组合,本实施例中对检索指令的获取方式不做限定。
S102、根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
具体的,上述文字描述序列为可以描述帧图片的内容的文字构成的序列。可选的,文字描述序列可以包括能够描述帧图片的至少一个文字描述句,其中,文字描述句中可以包括多个能够描述帧图片的内容的文字,当然,文字描述序列还可以为其他形式的序列。可选的,文字描述句中可以包括人物文字描述、时间文字描述、地点文字描述、事件文字描述中的至少一种文字。
可选的,人物文字描述可以为帧图片中所包括的人物的个数、性别、身份和/或角色。时间文字描述可以为帧图片中的季节、昼夜和/或时代,其中,季节可以为春夏秋冬,时代可以为古代、近代。地点文字描述可以为帧图片中的地理条件、地貌条件、特殊场景的至少一种,其中,地理条件如可以包括城市、乡镇、农村等,地貌条件如可以包括草原、平原、高原、雪地等,特殊场景如可以包括住宅、写字楼、工厂、商场等。事件文字描述可以为帧图片中的整体环境,如可以包括战争、体育比赛等。
具体的,上述目标帧图片包括从视频流的所有帧图片中检索出的与检索信息所对应的帧图片。
需要说明的是,上述的映射关系可以以表格的形式体现,当然也可以以列表的形式体现,对此本实施例不做限定。另外,映射关系可以通过下述实施例来构建,映射关系也可以通过从视频中获取先验知识,并根据获取到的先验知识和检索信息(例如检索关键字)结合构成词向量的方式进行构建,还可以预先设置好。需要说明的是,本实施例不对如何得到映射关系进行限定。
在具体实现上述S102时,终端根据获取到的用于检索目标帧图片的检索信息,将检索信息在文字描述序列进行检索。在检索到与S101中获取到的检索指令中的检索信息对应的文字描述序列后,根据映射关系确定出该文字描述序列对应的帧图片,即得到目标帧图片。需要说明的是,如果检索指令较明确时,所检索出的帧图片可能为一帧,如果检索出的帧图片为一帧时,该帧图片即为目标帧图片。但是,如果检索指令较模糊时,所检索出的帧图片可能为多帧,如果多个帧图片所表示的场景很相近,相近场景的帧图片对应的文字描述序列也比较相近,那么所检索出的帧图片也可能为多帧,当检索出的帧图片为多帧时,将检索出的多帧帧图片可以同时展示在终端的显示界面中,供用户从中进行挑选;也可以按照多帧帧图片在视频中出现的顺序在显示界面中一帧一帧的依次展示,供用户从中挑选。挑选时,用户可以通过按键选择下一页/上一页进行选择,还可以通过用手势或者身体姿势表示进行下一页/上一页等方式进行选择,需要说明的是,本实施例中对如何操作使得帧图片进行下一页/上一页不做限定。另外,本实施例中对检索出的帧图片为多个帧图片时,如何在显示界面中进行展示也不做限定。
本实施例提供的视频检索方法,终端根据获取到的检索指令中携带的用于检索目标帧图片的检索信息和预设的映射关系,就可以得到用户所要检索的目标帧图片。由于终端进行检索时只需要获取到目标帧图片的检索信息就可以得到用户所要检索的目标帧图片,而无需像传统技术中用户手动对视频进行快进而完成遍历检索,即本实施例提供的视频检索方法效率高;而且本实施例提供的视频检索方法也不会出现传统技术中手动快进遍历时用户容易错过待查找镜头的情况,即本实施例提供的视频检索方法人机交互智能化较高。
图2为另一个实施例提供的视频检索方法的流程示意图,本实施例涉及的是终端如何构建文字描述序列与帧图片之间的映射关系的具体过程。在上述实施例的基础上,获取检索指令之前,该方法还包括:
S201、对视频流进行采样,得到视频流所包含的多个帧图片。
可选的,终端对视频流进行采样时,可以选择采样频率为1帧/秒,也可以选择采样频率为2帧/秒,但是,本实施例对采样频率并不做限定。
上述对视频流进行采样得到视频流所包含的多个帧图片,这样下述步骤对采样后得到的视频流中的帧图片进行处理时,可以降低运算复杂度。当然,也可以不对视频流进行采样,下述步骤直接对视频流中的帧图片进行处理。
S202、采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征。
具体的,特征提取模型可以采用神经网络模型,可选的,可以选择卷积神经网络模型。例如,采用卷积神经网络模型对每个帧图片进行特征提取操作,将该帧图片输入卷积神经网络模型,该卷积神经网络模型的输出为该帧图片所对应的关键特征,并且每个帧图片对应至少一个关键特征,至少一个关键特征可以组成每个帧图片对应的关键特征序列。需要说明的是,本实施例中对特征提取模型不做限定,只需要能实现输入一帧帧图片时输出该帧图片的关键特征即可。
S203、将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列。
具体的,文字序列提取模型可以采用神经网络模型,可选的,可以选择序列到序列的网络模型。例如,采用序列到序列的网络模型对关键特征序列进行处理,对该序列到序列的网络模型输入帧图片对应的关键特征序列时,该序列到序列的网络模型将输出该帧图片所对应的文字描述序列。需要说明的是,本实施例中对文字序列提取模型不做限定,只需要能实现输入帧图片对应的关键特征序列时输出该帧图片对应的文字描述序列即可。
S204、根据每个帧图片对应的文字描述序列,构建映射关系。
具体的,根据上述S201~S203,可以得到每个帧图片对应的文字描述序列,根据帧图片与文字描述序列之间的对应关系,构建帧图片-文字描述序列的映射关系。
可选的,在一种实施例中,上述采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之后,即上述S202后该方法还包括:
计算前一个帧图片集合对应的关键特征序列以及后一个帧图片集合对应的关键特征序列之间的第一关联度。
具体的,通过上述S202得到每个帧图片对应的关键特征序列,可以通过欧氏距离或者曼哈顿距离或者夹角余弦等方法,计算前一个帧图片集合对应的关键特征序列与后一个帧图片集合对应的关键特征序列之间的第一关联度。可选的,上述帧图片集合可以包括一帧帧图片,也可以包括多帧帧图片,本实施例中对此不做限定。上述第一关联度用于表征前一个帧图片集合对应的关键特征序列与后一个帧图片集合对应的关键特征序列之间的相似度,前一个帧图片集合对应的关键特征序列与后一个帧图片集合对应的关键特征序列越相似,第一关联度越大,反之,第一关联度越小。
需要说明的是,上述的欧氏距离、曼哈顿距离、夹角余弦等均属于传统的计算两个向量之间的关联度的方法,对此本实施例不再赘述。另外,计算两个向量之间的关联度的方法除上述举例的3种方法之外,还有其他方法,本实施例中不再一一列举。
本实施例提供的视频检索方法,终端通过特征提取模型对视频流中采样到的帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列,然后关键特征序列通过文字序列提取模型处理后得到每个帧图片对应的文字描述序列,从而构建了帧图片与文字描述序列之间的映射关系。通过本实施例构建的帧图片与文字描述序列之间的映射关系,在检索时根据检索信息和该映射关系就可以得到用户所要检索的目标帧图片,并且得到的目标帧图片更加精确,从而达到更高的效率,且人机交互智能化更高。
图3为另一个实施例提供的视频检索方法的流程示意图。本实施例涉及的是如何构建文字描述序列与帧图片基于章节属性的映射关系的具体过程。在上述实施例的基础上,上述S204根据每个帧图片对应的文字描述序列,构建映射关系,包括:
S301、计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度。
具体的,通过上述S203得到每个帧图片对应的文字描述序列,可以通过欧氏距离或者曼哈顿距离或者夹角余弦等方法计算前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的第二关联度。第二关联度用于表征前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列的相似度。
可选的,作为计算前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度的一种可能的实施方式,还可以对文字描述序列中的文字描述句进行分词,根据前一个帧图片集合与后一个帧图片集合的分词结果确定第二关联度的具体过程,可以参见图4,即上述S301可以包括如下步骤:
S401、对每个文字描述序列中的文字描述句执行分词操作,得到每个文字描述序列对应的分词结果;其中,分词结果包括多个分词。
具体的,终端对上述每个文字描述序列中的文字描述句执行分词操作时,可以采用基于字符串匹配的分词方法或基于理解的分词方法或基于统计的分词方法等方法。对文字描述句执行分词操作后,可以将每个文字描述句分为多个单独的分词,即为文字描述序列对应的分词结果。例如,文字描述句执行分词操作之后可以分为人物、时间、地点、事件类型的分词。需要说明的是,本实施例对分词操作的方法不做限制。
S402、根据每个文字描述序列对应的分词结果、预设的标签和分词之间的映射关系,确定每个文字描述序列的分词结果所对应的标签;其中,标签包括人物标签、时间标签、地点标签、事件标签。
具体的,标签包括人物标签、时间标签、地点标签、事件标签,当通过S401对文字描述句执行分词操作之后,将文字描述句分为人物、时间、地点、事件类型的分词,按照预设标签和分词之间的映射关系,将分词结果与标签进行对应。例如,分词结果为人名时与人物标签进行对应,分词结果为高原时与地点标签进行对应,以此类推。
S403、判断同一标签下,前一个帧图片集合对应的文字描述序列的分词结果与后一个帧图片集合对应的文字描述序列的分词结果是否相同,并根据判断结果确定前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度。
具体的,当根据S402将文字描述序列的分词结果与标签进行对应之后,每个分词分别对应到相应的标签下,对于前一个帧图片集合与后一个帧图片集合,当两个帧图片集合的文字描述序列的每个分词结果分别在对应的同一标签下时,分别判断两个帧图片集合对应的文字描述序列的分词结果是否相同,例如,可以根据相同分词结果的数量与不同分词结果的数量之间的比例得到相邻的两个帧图片集合对应的文字描述序列之间的第二关联度。即第二关联度用于表征前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列的相似度,如果相邻两个帧图片集合的分词结果相同的概率越多,第二关联度越大,反之,第二关联度越小。
综上S401-S403的描述,得到每个文字描述序列对应的分词结果。之后,执行下述S302的步骤。
S302、根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性。
具体的,根据上述S301得到的所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度,每个第二关联度分别与第一阈值、第二阈值进行比较,根据第二关联度与第一阈值、第二阈值的比较结果,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性。该S302可以通过下述两种可能的实施方式来实现:
第一种可能的实施方式:可以参见图5,即上述S302可以包括如下步骤:
S501、若第二关联度大于或者等于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节。
S502、若第二关联度大于第二阈值且小于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
具体的,上述第一阈值为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一节时,第二关联度所能取的最小值,且为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一章中不同节时,第二关联度所能取的最大值。而上述第二阈值为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一章中不同节时,第二关联度所能取的最小值。
基于上述描述可以理解为,树状目录结构中同一节为相邻的两个帧图片集合的场景变化不大,树状目录结构中同一章为相邻的两个帧图片集合的场景变化比属于树状目录结构中同一节时大,但是场景没有完全变化,而当相邻的两个帧图片集合的场景完全变化时属于树状目录结构中的不同章,即树状目录结构中的章节用于表征相邻的两个帧图片集合的场景变化程度。
可选的,在确定完所有帧图片的前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性之后,所有帧图片对应的文字描述序列的章节构成的结构即为树状目录结构,如图6所示。
第二种可能的实施方式:可以参见图7,即上述S302还可以包括如下步骤:
S601、对第一关联度和第二关联度执行加权操作,确定加权关联度。
具体的,如上述第一关联度用于表征前一个图片集合对应的关键特征序列与后一个帧图片集合对应的关键特征序列的相似度,第二关联度则为用于表征前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列的相似度,根据第一关联度与第二关联度的权重,对第一关联度和第二关联度执行加权求和操作,加权求和的结果确定为加权关联度。其中,第一关联度与第二关联度的权重可以根据经验进行设置,也可以先给定初始值,然后进行迭代运算直至迭代结果收敛时分别对应的权重,需要说明的是,本实施例对第一关联度和第二关联度的权重获取方式不做限定。
S602、若加权关联度大于或者等于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节。
S603、若加权关联度大于第二阈值且小于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
具体的,与上述根据第二关联度与第一阈值、第二阈值确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性类似,上述第一阈值为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一节时,加权关联度所能取的最小值,且为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一章中不同节时,第二关联度所能取的最大值。而上述第二阈值为确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中同一章中不同节时,第二关联度所能取的最小值。
该实施方式中,终端将第一关联度和第二关联度执行加权操作,确定加权关联度,根据第一关联度和第二关联度确定的加权关联度,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列是属于树状目录结构中的同一节,还是属于树状目录结构中的同一章,这样通过第一关联度和第二关联度,共同划分帧图片对应的文字描述序列的树状目录结构的章节属性,可以得到更鲁棒的帧图片对应的文字描述序列划分。
综上图5和图7的描述,可以确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性。之后,执行S303-S304。
S303、根据所有文字描述序列中前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构。
具体的,参照图6所示,树状目录结构的具体划分过程,上述已经详述,这里不再赘述。
S304、根据树状目录结构以及每个帧图片对应的文字描述序列,构建基于章节属性的映射关系。
具体的,基于上述描述,树状目录结构是基于所有文字描述序列中的前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性而划分得到的,树状目录结构中的节包括至少相邻两个帧图片集合对应的文字描述序列,树状目录结构中的章包括至少两个树状目录结构中的节。
本实施例提供的视频检索方法,终端通过计算所有文字描述序列中前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的第二关联度,然后将第二关联度与预设的第一阈值和第二阈值进行比较,确定出前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性,然后根据确定的前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构,构建树状目录结构与每个帧图片对应的文字描述序列基于章节属性的映射关系。本实施例提供的视频检索方法,终端通过构建树状目录结构与每个帧图片对应的文字描述序列基于章节属性的映射关系,使得检索时,检索信息可以先确定检索信息所对应的树状目录结构中的章,然后再在树状目录结构的章中继续确定检索信息所对应的树状目录结构中的节,从而根据树状目录结构与文字描述序列的映射关系确定检索信息所对应的文字描述序列,进而确定出目标帧图片,这样提高了检索速度,即提高了检索效率,且人机交互智能化也更高。
图8为又一个实施例提供的视频检索方法的流程示意图,本实施例涉及的是如何根据检索信息和预设的映射关系,得到目标帧图片的具体过程。在上述实施例的基础上,上述S102根据检索信息和预设的映射关系,得到目标帧图片,包括:
S701、获取检索信息中的第一级别检索信息和第二级别检索信息。
具体的,在上述描述中,检索信息可以根据用户的语音信号解析得到,也可以根据用户的体感信号解析得到,还可以通过人机交互界面得到,根据获取到的检索信息的网络权重将检索信息划分为具有等级的检索信息。其中,第一级别检索信息为对相邻的两帧帧图片的关联度影响不是最大的检索信息,第二级别检索信息为对相邻的两帧帧图片的关联度影响最大的检索信息,当然,第一级别检索信息与第二级别检索信息并不是绝对的,因此,本实施例对第一级别检索信息和第二级别检索信息并不做限定。
需要说明的是,本实施例中对如何将检索信息划分等级不做限定。
S702、根据第一级别检索信息,检索基于章节属性的映射关系中所包含的树状目录结构,确定检索信息对应的目标章。
具体的,上述S701中将检索信息划分为第一级别检索信息和第二级别检索信息,根据上述第一级别检索信息以及上述确定的包含章节属性的树状目录结构,将第一级别检索信息在树状目录结构中进行检索,检索出第一级别检索信息所对应的树状目录结构中的章,即为检索信息对应的目标章。其中,检索可以从所有帧图片的第一帧帧图片开始进行一一遍历,也可以从某一特定帧图片开始进行遍历,本实施例对检索方式不做限定。
S703、根据第二级别检索信息,从目标章中确定目标节。
具体的,根据上述第一级别检索信息确定出检索信息对应的目标章,然后根据第二级别检索信息在上述目标章中进行检索,检索出第二级别检索信息所对应的树状目录结构中的节,即为检索信息对应的目标节,根据第一级别检索信息和第二级别检索信息检索之后,可能会得到检索信息对应多个目标节。
S704、根据目标节对应的文字描述序列以及基于章节属性的映射关系,得到目标帧图片。
具体的,根据上述S703得到检索信息所对应的目标节,而根据基于章节属性的映射关系,可以得到目标节所对应的文字描述序列,再根据目标节所对应的文字描述序列对应的帧图片即得到目标帧图片。若检索信息对应多个目标节时,即对应多个文字描述序列,亦则对应多个帧图片,此时,可以将多个帧图片同时显示供用户挑选目标帧图片。
本实施例提供的视频检索方法,终端根据获取到的检索信息中的第一级别检索信息,检索基于章节属性的映射关系中所包含的树状目录结构,确定出检索信息对应的目标章,然后根据获取到的检索信息中的第二级别检索信息,从目标章中确定目标节,最后根据目标节对应的文字描述序列及基于章节属性的映射关系得到目标帧图片。本实施例提供的视频检索方法,终端获取到的检索信息中的第一级别检索信息在树状目录结构进行检索,由于检索时确定了检索信息所对应的树状目录结构中的章,然后再在树状目录结构的章中继续确定检索信息中第二级别检索信息所对应的树状目录结构中的节,从而根据树状目录结构与文字描述序列的映射关系确定检索信息所对应的文字描述序列,进而确定出目标帧图片,这样提高了检索速度,即提高了检索效率,且人机交互智能化也更高。
图9为一个实施例提供的视频检索映射关系生成方法的流程示意图。需要说明的是,下述方法实施例的执行主体可以与上述方法实施例的执行主体相同,即视频检索方法和视频检索映射关系生成方法均在同一个执行主体上执行。下述方法实施例的执行主体也可以与上述方法实施例的执行主体不同,即视频检索方法和视频检索映射关系生成方法在不同的执行主体上执行,两个执行主体协同完成视频检索过程和映射关系生成过程。例如,下述方法实施例的执行主体以与上述方法实施例的执行主体不同为例,即下述方法实施例以执行主体是服务器端为例来进行说明。
本实施例涉及的是服务器端如何构建文字描述序列与帧图片之间的映射关系的具体过程。如图9所示,该方法包括:
S801、采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,关键特征序列包括帧图片中的至少一个关键特征。
可选的,服务器端在采用特征提取模型对视频流中的各个帧图片进行特征提取操作前,还可以先对视频流进行采样,得到视频流所包含的多个帧图片。在对视频流中的各个帧图片进行特征提取操作前,先对视频流进行采样,可以降低运算复杂度。
另外,服务器端采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列的具体过程,与在终端进行操作时相应的过程类似,可以参见上述图2对应的实施例,这里不再赘述。
当然,在采用特征提取模型对视频流中的各个帧图片进行特征提取操作之前,还需要对特征提取模型进行训练,对特征提取模型进行训练时,可以达到预设的训练次数时,停止调整调整特征提取模型中的权重和偏置;具体的训练过程也可以参见下述实施例。
S802、将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,文字描述序列为能够描述帧图片的内容的文字构成的序列。
具体的,服务器端将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列的具体过程,与在终端进行操作时相应的过程类似,可以参见上述图2对应的实施例,这里不再赘述。其中,文字描述序列可参见上述图1对应的实施例,这里不再赘述。
当然,在将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理之前,还需要对文字序列提取模型进行训练,对文字序列提取模型进行训练时,可以达到预设的训练次数时,停止调整文字序列提取模型中的权重和偏置;具体的训练过程也可以参见下述实施例。
S803、根据每个帧图片对应的文字描述序列,构建映射关系;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系。
具体的,服务器端根据上述S801~S802,可以得到每个帧图片对应的文字描述序列,根据帧图片与文字描述序列之间的对应关系,构建帧图片-文字描述序列的映射关系。
本实施例提供的视频检索映射关系生成方法,服务器端采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列,然后将得到的每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列,最后根据每个帧图片对应的文字描述序列,构建映射关系,即构建了帧图片-文字描述序列的映射关系。通过本实施例提供的视频检索映射关系生成方法构建的映射关系,用户在终端进行视频检索时,只需要输入目标帧图片的检索信息,就可以得到想要检索的目标帧图片,而无需像传统技术中用户手动对视频进行快进而完成遍历检索,即采用本实施例提供的视频检索映射关系生成方法构建的映射关系,可以为用户提高视频检索的效率;并且采用本实施例提供的视频检索映射关系生成方法构建的映射关系,用户进行视频检索时也不会错过待查找镜头,可以提高人机交互智能化。
图10为另一个实施例提供的视频检索映射关系生成方法的流程示意图,本实施例涉及的是如何得到特征提取模型的具体过程。在上述实施例的基础上,采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之前,如图10所示,该方法还包括:
S901、将第一训练数据集中的第一训练输入数据输入至第一初始神经网络模型,得到第一正向输出数据;其中,第一训练数据集包括第一训练输入数据以及第一训练输出数据,第一训练输入数据包括训练帧图片,第一训练输出数据包括与训练帧图片对应的关键特征序列。
可选的,在将第一训练数据集中的第一训练输入数据输入至第一初始神经网络模型之前,还可以先获取第一训练数据集,可选的,第一训练数据集可以通过从服务器端存储的音频或视频获取得到,也可以通过其他外部设备获取得到,对此,本实施例中不做限定。其中,第一训练数据集包括第一训练输入数据及第一训练输出数据,第一训练输入数据包括训练帧图片,可选的,第一训练输入数据可以为训练帧图片,第一训练输入数据还可以为训练帧图片和训练声音,对此,本实施例中不做限定。第一训练输出数据包括与训练帧图片对应的关键特征序列,相应的,可选的,第一训练输出数据可以为与训练帧图片对应的关键特征序列,第一训练输出数据还可以为与训练帧图片和训练声音对应的关键特征序列。本实施例以第一训练输入数据为训练帧图片为例,相应的,以第一训练输出数据为与训练帧图片对应的关键特征序列为例。
具体的,第一初始神经网络模型包括多个神经元函数,第一训练输入数据输入至第一初始神经网络模型,第一训练输入数据通过多个神经元函数的正向运算后,第一初始神经网络模型输出第一正向输出数据。
S902、根据第一正向输出数据和第一训练输入数据对应的第一训练输出数据之间的误差,调整第一初始神经网络模型中的权重和偏置,直至第一正向输出数据与第一训练输出数据之间的误差小于或者等于第一阈值为止,得到第一调整神经网络模型。
S903、将第一调整神经网络模型确定为特征提取模型。
具体的,第一正向输出数据和第一训练输入数据对应的第一训练输出数据,根据第一初始神经网络模型的误差损失函数,确定出第一正向输出数据和第一训练输入数据对应的第一训练输出数据之间的误差,若上述得到的误差大于第一阈值,则根据误差调整第一初始神经网络模型中的权重和偏置,直至第一正向输出数据与第一训练输出数据之间的误差小于或者等于第一阈值为止,得到第一调整神经网络模型;将上述得到的第一调整神经网络模型确定为特征提取模型,特征提取模型即为训练好的第一初始神经网络模型。
本实施例提供的视频检索映射关系生成方法,将训练帧图片作为输入,输入至第一初始神经网络模型,得到第一正向输出数据,然后根据第一正向输出数据和第一训练输出数据之间的误差,调整第一初始神经网络模型中的权重和偏置,进而确定特征提取模型。采用本实施例提供的视频检索映射关系生成方法中将训练帧图片作为输入得到的特征提取模型,构建的帧图片-文字描述序列的映射关系,可以使得用户在终端进行视频检索时,检索结果更精确。
图11为又一个实施例提供的视频检索映射关系生成方法的流程示意图,本实施例涉及的是如何得到文字序列提取模型的具体过程。在上述实施例的基础上,将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列之前,如图11所示,该方法还包括:
S1001、将第二训练数据集中的第二输入数据输入至第二初始神经网络模型,得到第二正向输出数据;其中,第二训练数据集包括第二训练输入数据以及第二训练输出数据,第二训练输入数据包括训练关键特征序列,第二训练输出数据包括与训练关键特征序列对应的训练文字描述序列。
可选的,在将第二训练数据集中的第二输入数据输入至第二初始神经网络模型之前,还可以先获取第二训练数据集,可选的,第二训练数据集可以通过服务器端获取上述特征提取模型输出的第一训练输出数据得到,也可以通过其他外部设备获取得到,对此,本实施例中不做限定。其中,第二训练数据集包括第二训练输入数据及第二训练输出数据,第二训练输入数据包括训练关键特征序列。第二训练输出数据包括与训练关键特征序列对应的训练文字描述序列。
具体的,第二初始神经网络模型包括多个神经元函数,第二训练输入数据输入至第二初始神经网络模型,第二训练输入数据通过多个神经元函数的正向运算后,第二初始神经网络模型输出第二正向输出数据。
S1002、根据第二正向输出数据和第二训练输入数据对应的第二训练输出数据之间的误差,调整第二初始神经网络模型中的权重和偏置,直至第二正向输出数据与第二训练输出数据之间的误差小于或者等于第二阈值为止,得到第二调整神经网络模型。
S1003、将第二调整神经网络模型确定为文字序列提取模型。
具体的,第二正向输出数据和第二训练输入数据对应的第二训练输出数据,根据第二初始神经网络模型的误差损失函数,确定出第二正向输出数据和第二训练输入数据对应的第二训练输出数据之间的误差,若上述得到的误差大于第二阈值,则根据误差调整第二初始神经网络模型中的权重和偏置,直至第二正向输出数据与第二训练输出数据之间的误差小于或者等于第二阈值为止,得到第二调整神经网络模型;将上述得到的第二调整神经网络模型确定为文字序列提取模型,文字序列提取模型即为训练好的第二初始神经网络模型。
本实施例提供的视频检索映射关系生成方法,将训练关键特征序列作为输入,输入至第二初始神经网络模型,得到第二正向输出数据,然后根据第二正向输出数据和第二训练输出数据之间的误差,调整第二初始神经网络模型中的权重和偏置,进而得到文字序列提取模型。采用本实施例提供的视频检索映射关系生成方法中将训练关键特征序列作为输入得到的文字序列提取特征,构建的帧图片-文字描述序列的映射关系,可以使得用户在终端进行视频检索时,检索结果更精确。
可选的,文字描述序列包括能够描述帧图片的至少一个文字描述句,文字描述句中包括多个能够描述帧图片的内容的文字。该文字描述序列的具体解释说明与视频检索方法中的解释说明相同,这里不再赘述。
可选的,文字描述句中包括人物文字描述、时间文字描述、地点文字描述、事件文字描述中的至少一种文字。该文字描述句的具体解释说明与视频检索方法中的解释说明相同,这里不再赘述。
可选的,采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之后,该方法还包括:计算前一个帧图片集合对应的关键特征序列以及后一个帧图片集合对应的关键特征序列之间的第一关联度。该计算第一关联度的方法与视频检索方法中的计算方法相同,这里不再赘述。
可选的,根据每个帧图片对应的文字描述序列,构建映射关系,包括:计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度;根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性;根据所有文字描述序列中前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构;根据树状目录结构以及每个帧图片对应的文字描述序列,构建基于章节属性的映射关系。该构建基于章节属性的映射关系参见前述图3对应实施例的过程,这里不再赘述。
可选的,计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度,包括:对每个文字描述序列中的文字描述句执行分词操作,得到每个文字描述序列对应的分词结果;其中,分词结果包括多个分词;根据每个文字描述序列对应的分词结果、预设的标签和分词之间的映射关系,确定每个文字描述序列的分词结果所对应的标签;其中,标签包括人物标签、时间标签、地点标签、事件标签;判断同一标签下,前一个帧图片集合对应的文字描述序列的分词结果与后一个帧图片集合对应的文字描述序列的分词结果是否相同,并根据判断结果确定前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度。该计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度参见前述图4对应实施例的过程,这里不再赘述。
可选的,根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合与后一个帧图片集合之间的章节属性,包括:若第二关联度大于或者等于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;若第二关联度大于第二阈值且小于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。该确定前一个帧图片集合与后一个帧图片集合之间的章节属性参见前述图5对应实施例的过程,这里不再赘述。
可选的,根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合与后一个帧图片集合之间的章节属性,包括:对第一关联度和第二关联度执行加权操作,确定加权关联度;若加权关联度大于或者等于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;若加权关联度大于第二阈值且小于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。该根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合与后一个帧图片集合之间的章节属性参见前述图7对应实施例的过程,这里不再赘述。
应该理解的是,虽然图1-5、7、8-11的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-5、7、8-11中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图12所示,提供了一种视频检索装置,该装置包括:获取模块10、映射模块11,其中:
获取模块10,用于获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;
映射模块11,用于根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,在上述实施例的基础上,视频检索装置还包括:
采样模块,用于对视频流进行采样,得到所述视频流所包含的多个帧图片;
提取模块A,用于采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;
第一处理模块A,用于将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;
构建模块A,用于根据每个帧图片对应的文字描述序列,构建所述映射关系。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,文字描述序列包括能够描述帧图片的至少一个文字描述句,文字描述句中包括多个能够描述帧图片的内容的文字;其中,文字描述句中包括人物文字描述、时间文字描述、地点文字描述、事件文字描述中的至少一种文字。
在一种实施例中,在上述实施例的基础上,视频检索装置还包括:
第二处理模块B,用于提取模块A采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之后,计算前一个帧图片集合对应的关键特征序列以及后一个帧图片集合对应的关键特征序列之间的第一关联度。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述实施例的基础上,上述构建模块A还用于:计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度;根据所述第二关联度与预设的第一阈值以及第二阈值的大小,确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列之间的章节属性;根据所有文字描述序列中所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构;根据所述树状目录结构以及每个帧图片集合对应的文字描述序列,构建基于所述章节属性的映射关系。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述实施例的基础上,上述构建模块A还用于:对每个文字描述序列中的文字描述句执行分词操作,得到每个所述文字描述序列对应的分词结果;其中,所述分词结果包括多个分词;根据每个所述文字描述序列对应的分词结果、预设的标签和分词之间的映射关系,确定每个所述文字描述序列的分词结果所对应的标签;其中,所述标签包括人物标签、时间标签、地点标签、事件标签;判断同一标签下,所述前一个帧图片集合对应的文字描述序列的分词结果与所述后一个帧图片集合对应的文字描述序列的分词结果是否相同,并根据判断结果确定所述前一个帧图片集合对应的文字描述序列以及所述后一个帧图片集合对应的文字描述序列之间的第二关联度。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述实施例的基础上,上述构建模块A还用于:当第二关联度大于或者等于第一阈值时,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;当第二关联度大于第二阈值且小于第一阈值时,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述实施例的基础上,上述构建模块A还用于:对所述第一关联度和所述第二关联度执行加权操作,确定加权关联度;若所述加权关联度大于或者等于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;若所述加权关联度大于所述第二阈值且小于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述实施例的基础上,上述映射模块11还用于:获取所述检索信息中的第一级别检索信息和第二级别检索信息;根据所述第一级别检索信息,检索所述基于章节属性的映射关系中所包含的树状目录结构,确定所述检索信息对应的目标章;根据所述第二级别检索信息,从所述目标章中确定目标节;根据所述目标节对应的文字描述序列以及所述基于章节属性的映射关系,得到所述目标帧图片。
本实施例提供的视频检索装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,如图13所示,提供了一种视频检索映射关系生成装置,该装置包括:提取模块12、第一处理模块13、构建模块14,其中:
提取模块12,用于采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;
第一处理模块13,用于将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;
构建模块14,用于根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图13所示实施例的基础上,如图14所示,上述的视频检索映射关系生成装置还包括:第二处理模块15、第三处理模块16、第一确定模块17,其中:
第二处理模块15,用于将第一训练数据集中的第一训练输入数据输入至第一初始神经网络模型,得到第一正向输出数据;其中,所述第一训练数据集包括第一训练输入数据以及第一训练输出数据,所述第一训练输入数据包括训练帧图片,所述第一训练输出数据包括与所述训练帧图片对应的关键特征序列;
第三处理模块16,用于根据所述第一正向输出数据和所述第一训练输入数据对应的第一训练输出数据之间的误差,调整所述第一初始神经网络模型中的权重和偏置,直至所述第一正向输出数据与所述第一训练输出数据之间的误差小于或者等于第一阈值为止,得到第一调整神经网络模型;
第一确定模块17,用于将所述第一调整神经网络模型确定为所述特征提取模型。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图14所示实施例的基础上,如图15所示,上述的视频检索映射关系生成装置还包括:第四处理模块18、第五处理模块19、第二确定模块20,其中:
第四处理模块18,用于将第二训练数据集中的第二输入数据输入至第二初始神经网络模型,得到第二正向输出数据;其中,所述第二训练数据集包括第二训练输入数据以及第二训练输出数据,所述第二训练输入数据包括训练关键特征序列,所述第二训练输出数据包括与所述训练关键特征序列对应的训练文字描述序列;
第五处理模块19,用于根据所述第二正向输出数据和所述第二训练输入数据对应的第二训练输出数据之间的误差,调整所述第二初始神经网络模型中的权重和偏置,直至所述第二正向输出数据与所述第二训练输出数据之间的误差小于或者等于第二阈值为止,得到第二调整神经网络模型;
第二确定模块20,用于将所述第二调整神经网络模型确定为所述文字序列提取模型。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
可选的,文字描述序列包括能够描述帧图片的至少一个文字描述句,文字描述句中包括多个能够描述帧图片的内容的文字。
可选的,文字描述句中包括人物文字描述、时间文字描述、地点文字描述、事件文字描述中的至少一种文字。
在一种实施例中,在上述图13所示实施例的基础上,如图16所示,上述视频检索映射关系生成装置还包括:第六处理模块21。
具体的,第六处理模块21,用于提取模块12采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之后,计算前一个帧图片集合对应的关键特征序列以及后一个帧图片集合对应的关键特征序列之间的第一关联度。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图13所示实施例的基础上,如图17所示,上述构建模块14包括:第一处理单元141、判断单元142、划分单元143、映射单元144。
具体的,第一处理单元141,用于计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度;
判断单元142,用于根据第二关联度与预设的第一阈值以及第二阈值的大小,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性;
划分单元143,用于根据所有文字描述序列中前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构;
映射单元144,用于根据树状目录结构以及每个帧图片对应的文字描述序列,构建基于章节属性的映射关系。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图17所示实施例的基础上,如图18所示,上述第一处理单元141包括:分词子单元1411、处理子单元1412、判断子单元1413。
具体的,分词子单元1411,用于对每个文字描述序列中的文字描述句执行分词操作,得到每个文字描述序列对应的分词结果;其中,分词结果包括多个分词;
处理子单元1412,用于根据每个文字描述序列对应的分词结果、预设的标签和分词之间的映射关系,确定每个文字描述序列的分词结果所对应的标签;其中,标签包括人物标签、时间标签、地点标签、事件标签;
判断子单元1413,用于判断同一标签下,前一个帧图片集合对应的文字描述序列的分词结果与后一个帧图片集合对应的文字描述序列的分词结果是否相同,并根据判断结果确定前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图17所示实施例的基础上,如图19所示,上述判断单元142可以包括:第一判断子单元1421、第二判断子单元1422。
具体的,第一判断子单元1421,用于当第二关联度大于或者等于第一阈值时,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;
第二判断子单元1422,用于当第二关联度大于第二阈值且小于第一阈值时,确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
在一种实施例中,在上述图17所示实施例的基础上,如图20所示,上述判断单元142还可以包括:加权子单元1423、第三判断子单元1424、第四判断子单元1425。
具体的,加权子单元1423,用于对第一关联度和第二关联度执行加权操作,确定加权关联度;
第三判断子单元1424,用于当加权关联度大于或者等于第一阈值时,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;
第四判断子单元1425,用于当加权关联度大于第二阈值且小于第一阈值,则确定前一个帧图片集合对应的文字描述序列与后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
本实施例提供的视频检索映射关系生成装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
上述图1a为一实施例提供的一种终端的内部结构示意图。如图1a所示,该终端包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该终端的处理器用于提供计算和控制能力。该终端的存储器包括非易失性存储介质、内存储器,该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该终端的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种视屏检索方法。该终端的显示屏可以是液晶显示屏或者电子墨水显示屏,该终端的输入装置可以是显示屏上覆盖的触摸层,也可以是终端外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板、遥控器或鼠标等。
本领域技术人员可以理解,图1a中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
在一个实施例中,提供了一种设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
在一个实施例中,提供了一种设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取检索指令,检索指令中携带用于检索目标帧图片的检索信息;根据检索信息和预设的映射关系,得到目标帧图片;其中,映射关系包括不同的文字描述序列与帧图片之间的对应关系,文字描述序列为能够描述帧图片的内容的文字构成的序列。采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种视频检索方法,其特征在于,所述方法包括:
获取检索指令,所述检索指令中携带用于检索目标帧图片的检索信息;
根据所述检索信息和预设的映射关系,得到所述目标帧图片;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列。
2.根据权利要求1所述的方法,其特征在于,所述获取检索指令之前,所述方法还包括:
对视频流进行采样,得到所述视频流所包含的多个帧图片;
采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;
将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;
根据每个帧图片对应的文字描述序列,构建所述映射关系。
3.根据权利要求2所述的方法,其特征在于,所述文字描述序列包括能够描述所述帧图片的至少一个文字描述句,所述文字描述句中包括多个能够描述所述帧图片的内容的文字;其中,所述文字描述句中包括人物文字描述、时间文字描述、地点文字描述、事件文字描述中的至少一种文字。
4.根据权利要求2或3所述的方法,其特征在于,所述采用特征提取模型对每个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之后,所述方法还包括:
计算前一个帧图片集合对应的关键特征序列以及后一个帧图片集合对应的关键特征序列之间的第一关联度。
5.根据权利要求4所述的方法,其特征在于,所述根据每个帧图片对应的文字描述序列,构建所述映射关系,包括:
计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度;
根据所述第二关联度与预设的第一阈值以及第二阈值的大小,确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列之间的章节属性;
根据所有文字描述序列中所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列之间的章节属性,将所有文字描述序列划分为树状目录结构;
根据所述树状目录结构以及每个帧图片集合对应的文字描述序列,构建基于所述章节属性的映射关系。
6.根据权利要求5所述的方法,其特征在于,所述计算所有文字描述序列中前一个帧图片集合对应的文字描述序列以及后一个帧图片集合对应的文字描述序列之间的第二关联度,包括:
对每个文字描述序列中的文字描述句执行分词操作,得到每个所述文字描述序列对应的分词结果;其中,所述分词结果包括多个分词;
根据每个所述文字描述序列对应的分词结果、预设的标签和分词之间的映射关系,确定每个所述文字描述序列的分词结果所对应的标签;其中,所述标签包括人物标签、时间标签、地点标签、事件标签;
判断同一标签下,所述前一个帧图片集合对应的文字描述序列的分词结果与所述后一个帧图片集合对应的文字描述序列的分词结果是否相同,并根据判断结果确定所述前一个帧图片集合对应的文字描述序列以及所述后一个帧图片集合对应的文字描述序列之间的第二关联度。
7.根据权利要求5所述的方法,其特征在于,所述根据所述第二关联度与预设的第一阈值以及第二阈值的大小,确定所述前一个帧图片集合与所述后一个帧图片集合之间的章节属性,包括:
若所述第二关联度大于或者等于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;
若所述第二关联度大于所述第二阈值且小于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
8.根据权利要求5所述的方法,其特征在于,所述根据所述第二关联度与预设的第一阈值以及第二阈值的大小,确定所述前一个帧图片集合与所述后一个帧图片集合之间的章节属性,包括:
对所述第一关联度和所述第二关联度执行加权操作,确定加权关联度;
若所述加权关联度大于或者等于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一节;
若所述加权关联度大于所述第二阈值且小于所述第一阈值,则确定所述前一个帧图片集合对应的文字描述序列与所述后一个帧图片集合对应的文字描述序列属于树状目录结构中的同一章中的不同节。
9.根据权利要求7或8所述的方法,其特征在于,所述根据所述检索信息和预设的映射关系,得到所述目标帧图片,包括:
获取所述检索信息中的第一级别检索信息和第二级别检索信息;
根据所述第一级别检索信息,检索所述基于章节属性的映射关系中所包含的树状目录结构,确定所述检索信息对应的目标章;
根据所述第二级别检索信息,从所述目标章中确定目标节;
根据所述目标节对应的文字描述序列以及所述基于章节属性的映射关系,得到所述目标帧图片。
10.一种视频检索映射关系生成方法,其特征在于,包括:
采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;
将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;
根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
11.根据权利要求10所述的方法,其特征在于,所述采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列之前,还包括:
将第一训练数据集中的第一训练输入数据输入至第一初始神经网络模型,得到第一正向输出数据;其中,所述第一训练数据集包括第一训练输入数据以及第一训练输出数据,所述第一训练输入数据包括训练帧图片,所述第一训练输出数据包括与所述训练帧图片对应的关键特征序列;
根据所述第一正向输出数据和所述第一训练输入数据对应的第一训练输出数据之间的误差,调整所述第一初始神经网络模型中的权重和偏置,直至所述第一正向输出数据与所述第一训练输出数据之间的误差小于或者等于第一阈值为止,得到第一调整神经网络模型;
将所述第一调整神经网络模型确定为所述特征提取模型。
12.根据权利要求10所述的方法,其特征在于,所述将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列之前,所述方法还包括:
将第二训练数据集中的第二输入数据输入至第二初始神经网络模型,得到第二正向输出数据;其中,所述第二训练数据集包括第二训练输入数据以及第二训练输出数据,所述第二训练输入数据包括训练关键特征序列,所述第二训练输出数据包括与所述训练关键特征序列对应的训练文字描述序列;
根据所述第二正向输出数据和所述第二训练输入数据对应的第二训练输出数据之间的误差,调整所述第二初始神经网络模型中的权重和偏置,直至所述第二正向输出数据与所述第二训练输出数据之间的误差小于或者等于第二阈值为止,得到第二调整神经网络模型;
将所述第二调整神经网络模型确定为所述文字序列提取模型。
13.一种视频检索映射关系生成装置,其特征在于,包括:
提取模块,用于采用特征提取模型对视频流中的各个帧图片进行特征提取操作,得到每个帧图片对应的关键特征序列;其中,所述关键特征序列包括所述帧图片中的至少一个关键特征;
第一处理模块,用于将每个帧图片对应的关键特征序列输入至文字序列提取模型中进行处理,得到每个帧图片对应的文字描述序列;其中,所述文字描述序列为能够描述所述帧图片的内容的文字构成的序列;
构建模块,用于根据每个帧图片对应的文字描述序列,构建映射关系;其中,所述映射关系包括不同的文字描述序列与帧图片之间的对应关系。
14.一种设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
CN201810516305.6A 2018-05-18 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置 Active CN110598048B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201810516305.6A CN110598048B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置
CN202011567126.9A CN112597341B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置
US16/962,110 US11995556B2 (en) 2018-05-18 2019-05-17 Video retrieval method, and method and apparatus for generating video retrieval mapping relationship
PCT/CN2019/087446 WO2019219083A1 (zh) 2018-05-18 2019-05-17 视频检索方法及视频检索映射关系生成方法、装置
EP19802694.0A EP3796189A4 (en) 2018-05-18 2019-05-17 VIDEO RECOVERY METHOD, AND METHOD AND APPARATUS FOR GENERATING A VIDEO RECOVERY MAPPING RELATION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810516305.6A CN110598048B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202011567126.9A Division CN112597341B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置

Publications (2)

Publication Number Publication Date
CN110598048A true CN110598048A (zh) 2019-12-20
CN110598048B CN110598048B (zh) 2021-01-29

Family

ID=68848712

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810516305.6A Active CN110598048B (zh) 2018-05-18 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置
CN202011567126.9A Active CN112597341B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202011567126.9A Active CN112597341B (zh) 2018-05-25 2018-05-25 视频检索方法及视频检索映射关系生成方法、装置

Country Status (1)

Country Link
CN (2) CN110598048B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209439A (zh) * 2020-01-10 2020-05-29 北京百度网讯科技有限公司 视频片段检索方法、装置、电子设备及存储介质
CN111309969A (zh) * 2020-01-16 2020-06-19 湘潭大学 一种匹配文字信息的视频检索方法
CN111432233A (zh) * 2020-03-20 2020-07-17 北京字节跳动网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN111538858A (zh) * 2020-05-06 2020-08-14 英华达(上海)科技有限公司 建立视频图谱的方法、装置、电子设备、存储介质
CN111651635A (zh) * 2020-05-28 2020-09-11 拾音智能科技有限公司 一种基于自然语言描述的视频检索方法
CN112040325A (zh) * 2020-11-02 2020-12-04 成都睿沿科技有限公司 一种视频播放方法、装置、电子设备及存储介质
CN112668411A (zh) * 2020-12-15 2021-04-16 南京中兴力维软件有限公司 基于sgan的视频流标记方法、装置、系统及存储介质
CN113065018A (zh) * 2021-04-13 2021-07-02 杭州海康威视数字技术股份有限公司 一种音视频的索引库创建和检索方法、装置及电子设备
CN113780038A (zh) * 2020-06-10 2021-12-10 深信服科技股份有限公司 一种图片审计方法、装置、计算设备及存储介质
WO2024103653A1 (zh) * 2022-11-15 2024-05-23 浪潮电子信息产业股份有限公司 视频与文本的互检方法、装置、设备、非易失性可读存储介质及终端

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191262B (zh) * 2021-04-29 2022-08-19 桂林电子科技大学 一种视频描述数据处理方法、装置及存储介质

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1254470A (zh) * 1997-03-07 2000-05-24 英戴克系统公司 在索引文件中的静止帧视频图象
CN1687929A (zh) * 2005-05-13 2005-10-26 北京工业大学 基于视频特征曲线的视频检索的方法
US7454090B2 (en) * 2000-02-21 2008-11-18 Hewlett-Packard Development Company, L.P. Augmentation of sets of image recordings
US20090024596A1 (en) * 2007-07-18 2009-01-22 At&T Labs, Inc. System and apparatus to represent, store, manipulate, and process metadata information
CN101655860A (zh) * 2009-09-16 2010-02-24 北京中盾安全技术开发公司 一种刑侦破案视频辅助分析方法及系统
CN101872346A (zh) * 2009-04-22 2010-10-27 中国科学院自动化研究所 一种自动生成视频导航系统的方法
CN102508867A (zh) * 2011-10-09 2012-06-20 南京大学 一种人体运动的运动图检索方法
CN102650993A (zh) * 2011-02-25 2012-08-29 北大方正集团有限公司 音视频文件的索引建立和检索方法、装置及系统
CN102663069A (zh) * 2012-03-31 2012-09-12 广东威创视讯科技股份有限公司 视频检索方法与装置
US20120301014A1 (en) * 2011-05-27 2012-11-29 Microsoft Corporation Learning to rank local interest points
CN103052987A (zh) * 2010-07-28 2013-04-17 国际商业机器公司 促进视频监控中的人物搜索
CN105100718A (zh) * 2015-07-29 2015-11-25 西安冉科信息技术有限公司 一种基于视频摘要的智能视频分析方法
CN105760472A (zh) * 2016-02-06 2016-07-13 中国农业大学 视频检索方法及系统
CN106339484A (zh) * 2016-08-31 2017-01-18 武汉烽火众智数字技术有限责任公司 一种视频智能检索处理的系统及方法
CN106557545A (zh) * 2016-10-19 2017-04-05 北京小度互娱科技有限公司 视频检索方法和装置
CN106610987A (zh) * 2015-10-22 2017-05-03 杭州海康威视数字技术股份有限公司 视频图像检索方法、装置及系统
CN106910203A (zh) * 2016-11-28 2017-06-30 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3267237B2 (ja) * 1998-03-27 2002-03-18 松下電器産業株式会社 映像記録媒体および映像記録装置および映像検索装置
JP2000050258A (ja) * 1998-07-31 2000-02-18 Toshiba Corp 映像検索方法および映像検索装置
JP3307613B2 (ja) * 1998-09-03 2002-07-24 株式会社次世代情報放送システム研究所 映像検索システム
KR100442991B1 (ko) * 1999-02-01 2004-08-04 주식회사 팬택앤큐리텔 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법
GB2429597B (en) * 2004-02-06 2009-09-23 Agency Science Tech & Res Automatic video event detection and indexing
KR100850776B1 (ko) * 2006-07-24 2008-08-06 한국과학기술정보연구원 트리구조를 이용한 무 검색어 검색 시스템 및 그에 따른검색방법
CN101281520B (zh) * 2007-04-05 2010-04-21 中国科学院自动化研究所 基于非监督学习和语义匹配特征交互式体育视频检索方法
CN101799827A (zh) * 2010-03-11 2010-08-11 浙江大学 基于层次化结构的视频素材库管理方法
RU2010144450A (ru) * 2010-10-29 2012-05-10 ЭлЭсАй Корпорейшн (US) Оценка движения для видео транскодера
CN102332031B (zh) * 2011-10-18 2013-03-27 中国科学院自动化研究所 一种基于视频集合层级主题结构的检索结果聚类方法
CN102760169A (zh) * 2012-06-13 2012-10-31 天脉聚源(北京)传媒科技有限公司 一种电视直播流中的广告段检测方法
CN103514226B (zh) * 2012-06-28 2017-11-10 浙江大华技术股份有限公司 一种数字硬盘录像机文件存储的快速索引方法和装置
CN103853794B (zh) * 2012-12-07 2017-02-08 北京瑞奥风网络技术中心 一种基于部件关联的行人检索方法
CN103260010B (zh) * 2013-04-23 2017-02-08 四川天翼网络服务有限公司 智慧天网视频快速检索系统
CN103279580B (zh) * 2013-06-24 2016-05-11 魏骁勇 基于新型语义空间的视频检索方法
CN104376003B (zh) * 2013-08-13 2019-07-05 深圳市腾讯计算机系统有限公司 一种视频检索方法及装置
CN104064203A (zh) * 2014-06-26 2014-09-24 广东互维科技有限公司 一种录像检索定位方法
WO2016031055A1 (ja) * 2014-08-29 2016-03-03 株式会社日立製作所 情報検索装置、情報検索方法、および情報検索プログラム
CN104199931B (zh) * 2014-09-04 2018-11-20 厦门大学 一种商标图像一致语义提取方法及商标检索方法
CN106295799B (zh) * 2015-05-12 2018-11-02 核工业北京地质研究院 一种深度学习多层神经网络的实现方法
CN105718597A (zh) * 2016-03-04 2016-06-29 北京邮电大学 一种数据检索方法及系统
CN107688571A (zh) * 2016-08-04 2018-02-13 上海德拓信息技术股份有限公司 多元化的视频检索方法
CN107239801B (zh) * 2017-06-28 2020-07-28 安徽大学 视频属性表示学习方法及视频文字描述自动生成方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1254470A (zh) * 1997-03-07 2000-05-24 英戴克系统公司 在索引文件中的静止帧视频图象
US7454090B2 (en) * 2000-02-21 2008-11-18 Hewlett-Packard Development Company, L.P. Augmentation of sets of image recordings
CN1687929A (zh) * 2005-05-13 2005-10-26 北京工业大学 基于视频特征曲线的视频检索的方法
US20090024596A1 (en) * 2007-07-18 2009-01-22 At&T Labs, Inc. System and apparatus to represent, store, manipulate, and process metadata information
CN101872346A (zh) * 2009-04-22 2010-10-27 中国科学院自动化研究所 一种自动生成视频导航系统的方法
CN101655860A (zh) * 2009-09-16 2010-02-24 北京中盾安全技术开发公司 一种刑侦破案视频辅助分析方法及系统
CN103052987A (zh) * 2010-07-28 2013-04-17 国际商业机器公司 促进视频监控中的人物搜索
CN102650993A (zh) * 2011-02-25 2012-08-29 北大方正集团有限公司 音视频文件的索引建立和检索方法、装置及系统
US20120301014A1 (en) * 2011-05-27 2012-11-29 Microsoft Corporation Learning to rank local interest points
CN102508867A (zh) * 2011-10-09 2012-06-20 南京大学 一种人体运动的运动图检索方法
CN102663069A (zh) * 2012-03-31 2012-09-12 广东威创视讯科技股份有限公司 视频检索方法与装置
CN105100718A (zh) * 2015-07-29 2015-11-25 西安冉科信息技术有限公司 一种基于视频摘要的智能视频分析方法
CN106610987A (zh) * 2015-10-22 2017-05-03 杭州海康威视数字技术股份有限公司 视频图像检索方法、装置及系统
CN105760472A (zh) * 2016-02-06 2016-07-13 中国农业大学 视频检索方法及系统
CN106339484A (zh) * 2016-08-31 2017-01-18 武汉烽火众智数字技术有限责任公司 一种视频智能检索处理的系统及方法
CN106557545A (zh) * 2016-10-19 2017-04-05 北京小度互娱科技有限公司 视频检索方法和装置
CN106910203A (zh) * 2016-11-28 2017-06-30 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209439A (zh) * 2020-01-10 2020-05-29 北京百度网讯科技有限公司 视频片段检索方法、装置、电子设备及存储介质
CN111209439B (zh) * 2020-01-10 2023-11-21 北京百度网讯科技有限公司 视频片段检索方法、装置、电子设备及存储介质
CN111309969A (zh) * 2020-01-16 2020-06-19 湘潭大学 一种匹配文字信息的视频检索方法
CN111432233B (zh) * 2020-03-20 2022-07-19 北京字节跳动网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN111432233A (zh) * 2020-03-20 2020-07-17 北京字节跳动网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN111538858A (zh) * 2020-05-06 2020-08-14 英华达(上海)科技有限公司 建立视频图谱的方法、装置、电子设备、存储介质
TWI823018B (zh) * 2020-05-06 2023-11-21 英華達股份有限公司 建立影片圖譜的方法
CN111538858B (zh) * 2020-05-06 2023-06-23 英华达(上海)科技有限公司 建立视频图谱的方法、装置、电子设备、存储介质
CN111651635A (zh) * 2020-05-28 2020-09-11 拾音智能科技有限公司 一种基于自然语言描述的视频检索方法
CN113780038A (zh) * 2020-06-10 2021-12-10 深信服科技股份有限公司 一种图片审计方法、装置、计算设备及存储介质
CN112040325B (zh) * 2020-11-02 2021-01-29 成都睿沿科技有限公司 一种视频播放方法、装置、电子设备及存储介质
CN112040325A (zh) * 2020-11-02 2020-12-04 成都睿沿科技有限公司 一种视频播放方法、装置、电子设备及存储介质
CN112668411A (zh) * 2020-12-15 2021-04-16 南京中兴力维软件有限公司 基于sgan的视频流标记方法、装置、系统及存储介质
CN112668411B (zh) * 2020-12-15 2024-05-14 南京中兴力维软件有限公司 基于sgan的视频流标记方法、装置、系统及存储介质
CN113065018A (zh) * 2021-04-13 2021-07-02 杭州海康威视数字技术股份有限公司 一种音视频的索引库创建和检索方法、装置及电子设备
WO2024103653A1 (zh) * 2022-11-15 2024-05-23 浪潮电子信息产业股份有限公司 视频与文本的互检方法、装置、设备、非易失性可读存储介质及终端

Also Published As

Publication number Publication date
CN112597341A (zh) 2021-04-02
CN110598048B (zh) 2021-01-29
CN112597341B (zh) 2024-08-06

Similar Documents

Publication Publication Date Title
CN110598048B (zh) 视频检索方法及视频检索映射关系生成方法、装置
CN112740709B (zh) 一种执行用于视频分析的门控的计算机实现的方法、计算设备及计算机可读介质
WO2019219083A1 (zh) 视频检索方法及视频检索映射关系生成方法、装置
US10621755B1 (en) Image file compression using dummy data for non-salient portions of images
US9176987B1 (en) Automatic face annotation method and system
US20190340194A1 (en) Associating still images and videos
WO2020177673A1 (zh) 一种视频序列选择的方法、计算机设备及存储介质
CN111209897B (zh) 视频处理的方法、装置和存储介质
CN112052387B (zh) 一种内容推荐方法、装置和计算机可读存储介质
CN113590881B (zh) 视频片段检索方法、视频片段检索模型的训练方法及装置
CN111062871A (zh) 一种图像处理方法、装置、计算机设备及可读存储介质
CN111708915B (zh) 内容推荐方法、装置、计算机设备和存储介质
CN111708941A (zh) 内容推荐方法、装置、计算机设备和存储介质
CN113204659B (zh) 多媒体资源的标签分类方法、装置、电子设备及存储介质
CN114339360B (zh) 一种视频处理的方法、相关装置及设备
CN112995757B (zh) 视频剪裁方法及装置
CN110765286A (zh) 跨媒体检索方法、装置、计算机设备和存储介质
CN112752121A (zh) 一种视频封面生成方法及装置
CN113596601A (zh) 一种视频画面的定位方法、相关装置、设备及存储介质
US11647294B2 (en) Panoramic video data process
CN113395584B (zh) 一种视频数据处理方法、装置、设备以及介质
CN115935049A (zh) 基于人工智能的推荐处理方法、装置及电子设备
CN114329049A (zh) 视频搜索方法、装置、计算机设备和存储介质
Feng et al. Image‐Text Joint Learning for Social Images with Spatial Relation Model
CN116975331A (zh) 媒体全局信息提取方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant after: Zhongke Cambrian Technology Co., Ltd

Address before: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant before: Beijing Zhongke Cambrian Technology Co., Ltd.

CB02 Change of applicant information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant