CN111984825A - 用于搜索视频的方法和装置 - Google Patents

用于搜索视频的方法和装置 Download PDF

Info

Publication number
CN111984825A
CN111984825A CN202010888913.7A CN202010888913A CN111984825A CN 111984825 A CN111984825 A CN 111984825A CN 202010888913 A CN202010888913 A CN 202010888913A CN 111984825 A CN111984825 A CN 111984825A
Authority
CN
China
Prior art keywords
video
semantic understanding
image
videos
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010888913.7A
Other languages
English (en)
Inventor
张晓寒
王述
冯知凡
柴春光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010888913.7A priority Critical patent/CN111984825A/zh
Publication of CN111984825A publication Critical patent/CN111984825A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了用于搜索视频的方法和装置,涉及人工智能、知识图谱、深度学习技术领域。该方法包括:获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果;获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果;基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果;在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频。采用本方法可以提高搜索视频的准确性。

Description

用于搜索视频的方法和装置
技术领域
本公开涉及人工智能、知识图谱、深度学习技术领域,具体涉及搜索技术、图像处理技术和视频处理技术,尤其涉及用于搜索视频的方法和装置。
背景技术
随着网络技术的发展,网络中存储了越来越多的视频资源,常见的视频搜索方法包括根据图片进行视频检索。目前根据图片进行视频检索的方法为根据图像的特征向量与视频中关键帧的特征向量的相似度搜索对应的视频,或者根据图像中物体的文本信息与视频的文本信息的匹配度搜索对应的视频。
然而,根据特征向量或者文本信息进行视频搜索的方法存在搜索不准确的问题。
发明内容
本公开提供了一种用于搜索视频方法、装置、电子设备以及计算机可读存储介质。
根据本公开的第一方面,提供了一种用于搜索视频的方法,包括:获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果;获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果;基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果;在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频。
根据本公开的第二方面,提供了一种用于搜索视频的装置,包括:第一语义理解单元,被配置为获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果;第二语义理解单元,被配置为获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果;第三语义理解单元,被配置为基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果;第一搜索单元,被配置为在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频。
根据本公开的第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器:存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的用于搜索视频的方法。
根据本公开的第四方面,本公开的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的用于搜索视频的方法。
本公开提供的用于搜索视频的方法、装置,根据图像的语义理解结果搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频,可以提高搜索视频的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请的实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于搜索视频的方法的一个实施例的流程图;
图3是根据本申请的用于搜索视频的方法的另一个实施例的流程图;
图4是根据本申请的用于搜索视频的方法的又一个实施例的流程图;
图5是根据本申请的用于搜索视频的装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的用于搜索视频的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本申请的用于搜索视频的方法或用于搜索视频的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种接收推送服务的客户端应用,例如图像类应用、视频类应用、搜索类应用、数据采集类应用等。
终端设备101、102、103可以是具有显示屏并且支持接收推送服务的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExperts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,当终端设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以从终端设备101、102、103获取图像,根据图像以及知识图谱确定该图像的语义理解结果,并在本地或者云端存储的视频库中搜索与图像的语义理解结果相匹配的视频作为搜索到的目标视频,然后将该目标视频返回给终端设备101、102、103。服务器105也可以基于人工智能领域的技术确定获取到的图像的语义理解结果,并在本地或者云端存储的视频库中搜索与图像的语义理解结果相匹配的视频作为搜索到的目标视频,然后将该目标视频返回给终端设备101、102、103
需要说明的是,本公开的实施例所提供用于搜索视频的方法一般由服务器105执行,相应地,用于搜索视频的装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的用于搜索视频的方法的一个实施例的流程200。用于搜索视频的方法包括以下步骤:
步骤201,获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果。
在本实施例中,用于搜索视频的方法的执行主体(例如图1所示的服务器)可以从终端获取用于索引到视频的图像,并根据语义理解步骤获得该图像的语义理解结果。语义理解步骤是指:识别源图像(即,待确定语义理解结果的图像)中的实体,并根据图像中的实体,通过第一知识图谱确定该图像的语义理解结果。其中,实体是指人物、人物的描述信息、物品的名称、物品的描述信息、事件、事件的描述信息、动作的名称、作品名称、作品的描述信息等;知识图谱包含实体之间信息/关系/知识;语义理解结果是指根据识别出的实体,通过知识图谱得出的对源图像的含义的理解。例如,根据源图像识别出的物品实体为“老虎”以及“围栏”,知识图谱中存在知识“有老虎以及围栏的地方很有可能是动物园”,则语义理解结果可以是源图像的拍摄地点是动物园;或者识别出物品实体为“手机”以及文字实体“第一品牌”、“5.5英寸”、“像素1000万”,知识图谱中存在知识“有手机物品,以及同时出现尺寸以及像素等功能性描述的文字的图像很有可能是手机广告”,则语义理解结果可以是源图像为第一品牌的手机广告海报,也可以是包含该源图像的视频为第一品牌的手机发布会。
步骤202,获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果。
在本实施例中,可以通过终端设备、本地存储或者互联网获取用于搜索目标视频的视频集合,并利用视频编辑方法或者视频画面截取方法获得各个视频的关键帧,可以利用语义理解步骤,获取各个视频的关键帧的语义理解结果。可以理解,视频的一帧关键帧即为一张静态图像,在利用语义理解步骤对关键帧进行语义理解时,关键帧即为语义理解步骤中的源图像。
在本实施例中,关键帧可以是概括视频中全部场景的一帧图像,具体地,对视频中的各帧图像进行图像识别,可以选取实体个数最多的图像作为关键帧,也可以选取清晰度最高的图像作为关键帧;关键帧可以是概括视频中各个不同视频片段的多帧图像,具体地,可以首先对视频中的各帧图像进行图像识别,将每一帧图像与下一帧图像进行相似度对比,若图像的相似度低于预设相似度阈值,则将当前帧作为场景切分点,然后,根据各个场景切分点将视频切分为对应于各个场景的多个视频片段,最后,针对每一个场景的视频片段,选取能够概括视频片段的帧作为关键帧。
步骤203,基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果。
在本实施例中,可以根据各个视频的关键帧的语义理解结果确定各个视频的语义理解结果。具体地,当视频存在一帧关键帧时,可以将该关键帧的语义理解结果作为该视频的语义理解结果;当视频存在对应于该视频每个场景的视频片段的关键帧时(即,当视频存在多个关键帧时),可以将多个关键帧的语义理解结果全部作为该视频的语义理解结果。
步骤204,在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频。
在本实施例中,视频集合中的各个视频的语义理解结果确定之后,在各个视频的语义理解结果中进行搜索,将语义理解结果与图像的语义理解结果匹配的视频作为搜索出的目标视频。具体地,可以当视频的语义理解结果与图像的语义理解结果之间的相似度达到预设的相似度阈值时,确定其二者的语义理解结果匹配。
本实施例提供的用于搜索视频的方法,根据图像的语义理解结果搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频,可以提高搜索视频的准确性。
可选地,基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果,包括:根据各个视频中的音频流,确定各个视频中的音频流中的实体;从第二知识图谱中,确定各个视频中的音频流中的实体所对应的视频的音频流的语义理解结果;基于各个视频的关键帧的语义理解结果和各个视频中的音频流的语义理解结果,确定各个视频的语义理解结果。
在本实施例中,针对各个视频中的每一个视频,可以通过语音识别方法、音频流分析方法等技术,获取该视频的音频流中的实体。然后,基于音频流中的实体,从第二知识图谱中,确定该视频的音频流的语义理解结果。最后,根据该视频的关键帧的语义理解结果以及该视频的音频流的语义理解结果,确定最终的该视频的语义理解结果。例如,某视频的关键帧的语义理解结果为“第一品牌手机的2020年新品发布会”,该视频的音频流的语义理解结果为“发布型号为A1型、B3型、C5型”,则可以确定该视频的语义理解结果为“第一品牌手机的2020年新品发布会上,发布了型号为A1型、B3型、C5型的手机”。在本实施例中,第二知识图谱与第一知识图谱可以相同,也可以不同。
本实施例将视频中的音频流作为确定视频的语义理解结果的参考,可以提高对视频的进行语义理解的全面性以及准确性。
可选地,图像的语义理解结果,包括:识别图像的画面中的实体;从第一知识图谱中,确定图像的画面中的实体所对应的图像的画面的语义理解结果;识别图像的文字中的实体;从第三知识图谱中,确定图像的文字中的实体所对应的图像的文字的语义理解结果;基于图像的画面的语义理解结果和图像的文字的语义理解结果,确定图像的语义理解结果。
在本实施例中,对图像进行图形学上的识别,识别出的画面所包含的人脸、物品、场景等实体,并根据图像的画面中的实体,从第一知识图谱中,确定图像的画面的语义理解结果。以及,对该图像进行文字内容的识别,识别出图像中的文字内容所包含的名词等文字对应的实体,并根据文字内容的实体从第三知识图谱中,确定图像的文字的语义理解结果。最后,根据图像的画面的语义理解结果以及图像的文字的语义理解结果,确定最终的该图像的语义理解结果。在本实施例中,第三知识图谱与第一知识图谱或第二知识图谱可以相同,也可以不同。
本实施例将图像中的文字内容作为确定图像的语义理解结果的参考,可以提高对图像的语义理解的全面性以及准确性。
可选地,基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果,包括:识别各个视频的关键帧中的文字中的实体;从第三知识图谱中,确定各个视频的关键帧中的文字中的实体所对应的各个视频的文字的语义理解结果;基于各个视频的关键帧的语义理解结果和各个视频的文字的语义理解结果,确定各个视频的语义理解结果。
在本实施例中,针对各个视频的每一个视频,对该视频的关键帧进行文字识别,识别出该视频的关键帧中的文字内容,并基于该视频的关键帧中的文字内容中的实体,从第三知识图谱中确定该视频的文字的语义理解结果。最后,根据该视频的文字的语义理解结果以及该视频的关键帧的语义理解结果,确定最终的该视频的语义理解结果。
本实施例将视频中的文字内容作为确定视频的语义理解结果的参考,可以提高对视频的语义理解的全面性以及准确性。
可选地,在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频,包括:根据图像的语义理解结果,确定图像的语义标签;针对视频集合中的各个视频,根据该视频的语义理解结果确定该视频的语义标签;在视频集合中各个视频的语义标签中,搜索语义标签与图像的语义标签匹配的视频作为目标视频。
在本实施例中,可以将图像的语义理解结果转换为语义标签,以及将各个视频的语义理解结果转换为各个视频的语义理解标签,在根据图像从视频集合中搜索视频时,可以将语义标签与图像的语义标签匹配的视频作为目标视频。例如,图像的语义理解结果为“明星A的2020年演唱会”,则可以将该语义理解结果转换为语义标签“明星A”、“2020年演唱会”,视频集合中视频1的语义理解结果为“明星A的2019年演唱会”,转换成语义标签为“明星A”、“2019年演唱会”,视频2的语义理解结果为“明星A的2020年上映的电影”,转换成语义标签为“明星A”、“2020年电影”,视频3的语义理解结果为“动物园里的老虎在爬假山”,转换成语义标签为“动物园”、“老虎爬假山”,则可以确定,视频1中的语义标签“明星A”以及视频2中的语义标签“明星A”,与图像的语义标签“明星A”匹配,可以将视频1以及视频2确定为目标视频。
本实施例通过将语义理解结果转换为语义标签,并根据视频与图像的语义标签是否匹配判断视频与图像的语义理解结果是否匹配,可以减少信息存储的数据量,以及提高匹配操作的效率。
进一步参考图3,其示出了用于搜索视频的方法的另一个实施例的流程300,包括以下步骤:
步骤301,获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果。
步骤302,获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果。
步骤303,基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果。
本实施例中对步骤301、步骤302、步骤303的描述与步骤201、步骤202、步骤203的描述一致,此处不再赘述。
步骤304,获取图像的特征值。
在本实施例中,可以利用图像特征值计算方法获取图像的特征值。图像特征值计算方法可以是对组成图像的像素点进行矩阵计算的计算方法,也可以是利用目视图像生成器等神经网络模型进特征值计算的计算方法。
步骤305,针对视频集合中的各个视频,分别获取该视频的特征值,该视频的特征值包括该视频的关键帧的特征值。
在本实施例中,针对视频集合中的每个视频,根据图像特征值计算方法计算该视频的关键帧的特征值,并将该视频的关键帧的特征值作为该视频的特征值。
步骤306,在视频集合中各个视频的语义理解结果以及特征值中,搜索语义理解结果与图像的语义理解结果匹配、并且特征值与图像的特征值匹配的视频作为目标视频。
在本实施例中,根据图像的语义理解结果以及特征值,在视频集合中各个视频的语义理解结果以及特征值中,搜索语义理解结果与图像的语义理解结果匹配,并且特征值与图像的特征值匹配的视频作为目标视频。
本实施例将语义理解结果以及特征值这两项指标作为搜索目标视频的参考,可以提高搜索目标视频的准确性。
进一步参考图4,其示出了用于搜索视频的方法的又一个实施例的流程400,包括以下步骤:
步骤401,获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果。
步骤402,获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果。
步骤403,基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果。
本实施例中对步骤401、步骤402、步骤403的描述与步骤201、步骤202、步骤203的描述一致,此处不再赘述。
步骤404,获取图像的文本信息,其中,图像的文本信息包括对图像进行文字识别获得的文本内容。
在本实施例中,可以利用文字识别方法获取图像中的文本内容。
步骤405,针对视频集合中的各个视频,分别获取该视频的文本信息,该视频的文本信息包括该视频的以下至少一项信息:该视频的关键帧的文本信息、该视频中的音频流中的文本信息。
在本实施例中,针对视频集合中的每一个视频,获取该视频的文本信息,视频的文本信息可以是对视频的音频流进行语音识别,获得的音频流中的文本信息,视频的文本信息也可以是对视频的关键帧进行基于图像的文字识别,获得的关键帧的文本信息。
步骤406,在视频集合中各个视频的语义理解结果以及文本信息中,搜索语义理解结果与图像的语义理解结果匹配、并且文本信息与图像的文本信息匹配的视频作为目标视频。
在本实施例中,根据图像的语义理解结果以及文本信息,在视频集合中各个视频的语义理解结果以及文本信息中,搜索语义理解结果与图像的语义理解结果匹配,并且文本信息与图像的文本信息匹配的视频作为目标视频。
本实施例将语义理解结果以及文本信息这两项指标作为搜索目标视频的参考,可以提高搜索目标视频的准确性。
上述结合图2、图3、图4描述的实施例的一些可选的实现方式中,用于搜索视频的方法还包括:在视频集合中各个视频的表征信息中搜索表征信息与图像的索引信息匹配的待选视频,其中,各个视频的表征信息包括以下至少一项:各个视频的语义理解结果、各个视频的语义标签、各个视频的特征值、各个视频的文本信息;图像的索引信息包括以下至少一项:图像的语义理解结果、图像的语义标签、图像的特征值、图像的文本信息;匹配待选视频的表征信息与图像的索引信息,得到待选视频与图像的匹配度;根据待选视频与图像的匹配度确定目标视频。
在本实施例中,可以根据预设匹配条件,在视频集合中各个视频的表征信息中搜索表征信息与图像的索引信息匹配的待选视频,并根据待选视频的表征信息与图像的索引信息中如语义理解结果、语义标签、特征值、文本信息等指标的匹配项数、或者指标的相似度(例如,图像的语义标签与视频的语义标签之间的相似度、图像的特征值与语义的特征值之间的相似度等),确定待选视频与图像的匹配度,最后根据待选视频与图像的匹配度,将待选视频中的一个或者多个视频确定为目标视频。
例如,图像的索引信息包括:图像的语义标签、图像的特征值、图像的文本信息,视频3、视频4以及视频5的表征信息包括:视频的语义标签、视频的特征值、视频的文本信息;视频3的语义标签与图像的语义标签匹配、视频3的特征值与图像的特征值匹配、视频3的文本信息与图像的文本信息匹配;视频4的语义标签与图像的语义标签匹配、视频4的特征值与图像的特征值匹配、视频4的文本信息与图像的文本信息不匹配;视频5的语义标签与图像的语义标签匹配、视频5的特征值与图像的特征值不匹配、视频5的文本信息与图像的文本信息不匹配。若预设匹配条件为图像的索引信息与视频的表征信息存在两项及以上指标匹配即可确定图像与视频匹配,则可确定视频3与视频4为待选视频;若预设匹配条件为图像的索引信息与视频的表征信息存在匹配的指标,即可确定图像与视频匹配,则可以确定视频3、视频4与视频5为待选视频。待选视频与图像的匹配度可以根据指标匹配的项数的数目确定,如:视频3的表征信息与图像的索引信息的中指标匹配的项数为3,则可以确定视频3与图像的匹配度为3个单位;待选视频与图像的匹配度还可以根据指标匹配项数占比对指标总数的百分比确定,如:对比指标包括语义标签、特征值、文本信息这三项,视频4表征信息中有两项指标与图像的索引信息的指标匹配,可以确定视频4与图像的匹配度为:2/3=66.7%。最后,根据目标视频的筛选条件(例如,匹配度大于3个单位或者大于60%)从待选视频中筛选出目标视频。
本实施例根据图像与视频的多维度信息的匹配度,搜索与图像相匹配的目标视频,可以提高搜索视频的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于搜索视频的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于搜索视频的装置500,其中,该装置500包括:第一语义理解单元501、第二语义理解单元502、第三语义理解单元503、第一搜索单元504。其中,第一语义理解单元501,被配置为获取图像,根据语义理解步骤确定图像的语义理解结果,其中,语义理解步骤包括:识别源图像中的实体,基于源图像中的实体,从第一知识图谱中确定源图像的语义理解结果;第二语义理解单元502,被配置为获取视频集合中各个视频的关键帧,基于语义理解步骤确定视频集合中各个视频的关键帧的语义理解结果;第三语义理解单元503,被配置为基于各个视频的关键帧的语义理解结果,确定各个视频的语义理解结果;第一搜索单元504,被配置为在视频集合中各个视频的语义理解结果中,搜索语义理解结果与图像的语义理解结果匹配的视频作为目标视频。
在一些实施例中,第三语义理解单元503,包括:音频理解模块,被配置为根据各个视频中的音频流,确定各个视频中的音频流中的实体;从第二知识图谱中,确定各个视频中的音频流中的实体所对应的视频的音频流的语义理解结果;第二理解模块,被配置为基于各个视频的关键帧的语义理解结果和各个视频中的音频流的语义理解结果,确定各个视频的语义理解结果。
在一些实施例中,第一语义理解单元501,包括:画面识别模块,被配置为识别图像的画面中的实体;图像画面理解模块,被配置为从第一知识图谱中,确定图像的画面中的实体所对应的图像的画面的语义理解结果;文字识别模块,被配置为识别图像的文字中的实体;图像文字理解模块,被配置为从第三知识图谱中,确定图像的文字中的实体所对应的图像的文字的语义理解结果;第一理解模块,被配置为基于图像的画面的语义理解结果和图像的文字的语义理解结果,确定图像的语义理解结果。
在一些实施例中,第三语义理解单元503,包括:帧文字识别模块,被配置为识别各个视频的关键帧中的文字中的实体;帧文字理解模块,被配置为从第三知识图谱中,确定各个视频的关键帧中的文字中的实体所对应的各个视频的文字的语义理解结果;第二理解模块,被配置为基于各个视频的关键帧的语义理解结果和各个视频的文字的语义理解结果,确定各个视频的语义理解结果。
在一些实施例中,第一搜索单元504,包括:第一标记模块,被配置为根据图像的语义理解结果,确定图像的语义标签;第二标记模块,被配置为针对视频集合中的各个视频,根据该视频的语义理解结果确定该视频的语义标签;搜索模块,被配置为在视频集合中各个视频的语义标签中,搜索语义标签与图像的语义标签匹配的视频作为目标视频。
在一些实施例中,用于搜索视频的装置包括:第一特征值获取单元,被配置为获取图像的特征值;第二特征值获取单元,被配置为针对视频集合中的各个视频,分别获取该视频的特征值,该视频的特征值包括该视频的关键帧的特征值;第二搜索单元,被配置为在视频集合中各个视频的语义理解结果以及特征值中,搜索语义理解结果与图像的语义理解结果匹配、并且特征值与图像的特征值匹配的视频作为目标视频。
在一些实施例中,用于搜索视频的装置包括:第一文本获取单元,被配置为获取图像的文本信息,其中,图像的文本信息包括对图像进行文字识别获得的文本内容;第二文本获取单元,被配置为针对视频集合中的各个视频,分别获取该视频的文本信息,该视频的文本信息包括该视频的以下至少一项信息:该视频的关键帧的文本信息、该视频中的音频流中的文本信息;第三搜索单元,被配置为在视频集合中各个视频的语义理解结果以及文本信息中,搜索语义理解结果与图像的语义理解结果匹配、并且文本信息与图像的文本信息匹配的视频作为目标视频。
在一些实施例中,用于搜索视频的装置包括:第四搜索单元,被配置为在视频集合中各个视频的表征信息中搜索表征信息与图像的索引信息匹配的待选视频,其中,各个视频的表征信息包括以下至少一项:各个视频的语义理解结果、各个视频的语义标签、各个视频的特征值、各个视频的文本信息;图像的索引信息包括以下至少一项:图像的语义理解结果、图像的语义标签、图像的特征值、图像的文本信息;匹配单元,被配置为匹配待选视频的表征信息与图像的索引信息,得到待选视频与图像的匹配度;确定单元,被配置为根据待选视频与图像的匹配度确定目标视频。
上述装置500中的各单元与参考图2、图3和图4描述的方法中的步骤相对应。由此上文针对用于搜索视频的方法描述的操作、特征及所能达到的技术效果同样适用于装置500及其中包含的单元,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的用于搜索视频的方法的电子设备600的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,该存储器存储有可由至少一个处理器执行的指令,以使该至少一个处理器执行本申请所提供的用于搜索视频的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于搜索视频的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于搜索视频的方法对应的程序指令/模块(例如,附图5所示的第一语义理解单元501、第二语义理解单元502、第三语义理解单元503、第一搜索单元504)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于搜索视频的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据用于搜索视频的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于搜索视频的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于搜索视频的方法的电子设备还可以包括:输入装置603、输出装置604以及总线606。处理器601、存储器602、输入装置603和输出装置604可以通过总线605或者其他方式连接,图6中以通过总线605连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用于搜索视频的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (18)

1.一种用于搜索视频的方法,包括:
获取图像,根据语义理解步骤确定所述图像的语义理解结果,其中,所述语义理解步骤包括:识别源图像中的实体,基于所述源图像中的实体,从第一知识图谱中确定所述源图像的语义理解结果;
获取视频集合中各个视频的关键帧,基于所述语义理解步骤确定所述视频集合中所述各个视频的关键帧的语义理解结果;
基于所述各个视频的关键帧的语义理解结果,确定所述各个视频的语义理解结果;
在所述视频集合中所述各个视频的语义理解结果中,搜索语义理解结果与所述图像的语义理解结果匹配的视频作为目标视频。
2.根据权利要求1所述的方法,其中,所述基于所述各个视频的关键帧的语义理解结果,确定所述各个视频的语义理解结果,包括:
根据所述各个视频中的音频流,确定所述各个视频中的音频流中的实体;从第二知识图谱中,确定所述各个视频中的音频流中的实体所对应的所述视频的音频流的语义理解结果;
基于所述各个视频的关键帧的语义理解结果和所述各个视频中的音频流的语义理解结果,确定所述各个视频的语义理解结果。
3.根据权利要求1所述的方法,其中,所述根据语义理解步骤确定所述图像的语义理解结果,包括:
识别所述图像的画面中的实体;
从所述第一知识图谱中,确定所述图像的画面中的实体所对应的所述图像的画面的语义理解结果;
识别所述图像的文字中的实体;
从第三知识图谱中,确定所述图像的文字中的实体所对应的所述图像的文字的语义理解结果;
基于所述图像的画面的语义理解结果和所述图像的文字的语义理解结果,确定所述图像的语义理解结果。
4.根据权利要求1所述的方法,其中,所述基于所述各个视频的关键帧的语义理解结果,确定所述各个视频的语义理解结果,包括:
识别所述各个视频的关键帧中的文字中的实体;
从所述第三知识图谱中,确定所述各个视频的关键帧中的文字中的实体所对应的各个视频的文字的语义理解结果;
基于所述各个视频的关键帧的语义理解结果和所述各个视频的文字的语义理解结果,确定所述各个视频的语义理解结果。
5.根据权利要求1所述的方法,其中,所述在所述视频集合中所述各个视频的语义理解结果中,搜索语义理解结果与所述图像的语义理解结果匹配的视频作为目标视频,包括:
根据所述图像的语义理解结果,确定所述图像的语义标签;
针对所述视频集合中的各个视频,根据该视频的语义理解结果确定该视频的语义标签;
在所述视频集合中所述各个视频的语义标签中,搜索语义标签与所述图像的语义标签匹配的视频作为目标视频。
6.根据权利要求1所述的方法,其中,所述方法包括:
获取所述图像的特征值;
针对所述视频集合中的各个视频,分别获取该视频的特征值,该视频的特征值包括该视频的关键帧的特征值;
在所述视频集合中所述各个视频的语义理解结果以及特征值中,搜索语义理解结果与所述图像的语义理解结果匹配、并且特征值与所述图像的特征值匹配的视频作为目标视频。
7.根据权利要求1所述的方法,其中,所述方法包括:
获取所述图像的文本信息,其中,所述图像的文本信息包括对所述图像进行文字识别获得的文本内容;
针对所述视频集合中的各个视频,分别获取该视频的文本信息,该视频的文本信息包括该视频的以下至少一项信息:该视频的关键帧的文本信息、该视频中的音频流中的文本信息;
在所述视频集合中所述各个视频的语义理解结果以及文本信息中,搜索语义理解结果与所述图像的语义理解结果匹配、并且文本信息与所述图像的文本信息匹配的视频作为目标视频。
8.根据权利要求1-7之一所述的方法,其中,所述方法还包括:
在所述视频集合中各个视频的表征信息中搜索表征信息与所述图像的索引信息匹配的待选视频,其中,所述各个视频的表征信息包括以下至少一项:所述各个视频的语义理解结果、所述各个视频的语义标签、所述各个视频的特征值、所述各个视频的文本信息;所述图像的索引信息包括以下至少一项:所述图像的语义理解结果、所述图像的语义标签、所述图像的特征值、所述图像的文本信息;
匹配所述待选视频的表征信息与所述图像的索引信息,得到所述待选视频与所述图像的匹配度;
根据所述待选视频与所述图像的匹配度确定所述目标视频。
9.一种用于搜索视频的装置,包括:
第一语义理解单元,被配置为获取图像,根据语义理解步骤确定所述图像的语义理解结果,其中,所述语义理解步骤包括:识别源图像中的实体,基于所述源图像中的实体,从第一知识图谱中确定所述源图像的语义理解结果;
第二语义理解单元,被配置为获取视频集合中各个视频的关键帧,基于所述语义理解步骤确定所述视频集合中所述各个视频的关键帧的语义理解结果;
第三语义理解单元,被配置为基于所述各个视频的关键帧的语义理解结果,确定所述各个视频的语义理解结果;
第一搜索单元,被配置为在所述视频集合中所述各个视频的语义理解结果中,搜索语义理解结果与所述图像的语义理解结果匹配的视频作为目标视频。
10.根据权利要求9所述的装置,其中,所述第三语义理解单元,包括:
音频理解模块,被配置为根据所述各个视频中的音频流,确定所述各个视频中的音频流中的实体;从第二知识图谱中,确定所述各个视频中的音频流中的实体所对应的所述视频的音频流的语义理解结果;
第二理解模块,被配置为基于所述各个视频的关键帧的语义理解结果和所述各个视频中的音频流的语义理解结果,确定所述各个视频的语义理解结果。
11.根据权利要求9所述的装置,其中,所述第一语义理解单元,包括:
画面识别模块,被配置为识别所述图像的画面中的实体;
图像画面理解模块,被配置为从所述第一知识图谱中,确定所述图像的画面中的实体所对应的所述图像的画面的语义理解结果;
文字识别模块,被配置为识别所述图像的文字中的实体;
图像文字理解模块,被配置为从第三知识图谱中,确定所述图像的文字中的实体所对应的所述图像的文字的语义理解结果;
第一理解模块,被配置为基于所述图像的画面的语义理解结果和所述图像的文字的语义理解结果,确定所述图像的语义理解结果。
12.根据权利要求9所述的装置,其中,所述第三语义理解单元,包括:
帧文字识别模块,被配置为识别所述各个视频的关键帧中的文字中的实体;
帧文字理解模块,被配置为从所述第三知识图谱中,确定所述各个视频的关键帧中的文字中的实体所对应的各个视频的文字的语义理解结果;
第二理解模块,被配置为基于所述各个视频的关键帧的语义理解结果和所述各个视频的文字的语义理解结果,确定所述各个视频的语义理解结果。
13.根据权利要求9所述的装置,其中,所述第一搜索单元,包括:
第一标记模块,被配置为根据所述图像的语义理解结果,确定所述图像的语义标签;
第二标记模块,被配置为针对所述视频集合中的各个视频,根据该视频的语义理解结果确定该视频的语义标签;
搜索模块,被配置为在所述视频集合中所述各个视频的语义标签中,搜索语义标签与所述图像的语义标签匹配的视频作为目标视频。
14.根据权利要求9所述的装置,其中,所述装置包括:
第一特征值获取单元,被配置为获取所述图像的特征值;
第二特征值获取单元,被配置为针对所述视频集合中的各个视频,分别获取该视频的特征值,该视频的特征值包括该视频的关键帧的特征值;
第二搜索单元,被配置为在所述视频集合中所述各个视频的语义理解结果以及特征值中,搜索语义理解结果与所述图像的语义理解结果匹配、并且特征值与所述图像的特征值匹配的视频作为目标视频。
15.根据权利要求9所述的装置,其中,所述装置包括:
第一文本获取单元,被配置为获取所述图像的文本信息,其中,所述图像的文本信息包括对所述图像进行文字识别获得的文本内容;
第二文本获取单元,被配置为针对所述视频集合中的各个视频,分别获取该视频的文本信息,该视频的文本信息包括该视频的以下至少一项信息:该视频的关键帧的文本信息、该视频中的音频流中的文本信息;
第三搜索单元,被配置为在所述视频集合中所述各个视频的语义理解结果以及文本信息中,搜索语义理解结果与所述图像的语义理解结果匹配、并且文本信息与所述图像的文本信息匹配的视频作为目标视频。
16.根据权利要求9-15之一所述的装置,其中,所述装置还包括:
第四搜索单元,被配置为在所述视频集合中各个视频的表征信息中搜索表征信息与所述图像的索引信息匹配的待选视频,其中,所述各个视频的表征信息包括以下至少一项:所述各个视频的语义理解结果、所述各个视频的语义标签、所述各个视频的特征值、所述各个视频的文本信息;所述图像的索引信息包括以下至少一项:所述图像的语义理解结果、所述图像的语义标签、所述图像的特征值、所述图像的文本信息;
匹配单元,被配置为匹配所述待选视频的表征信息与所述图像的索引信息,得到所述待选视频与所述图像的匹配度;
确定单元,被配置为根据所述待选视频与所述图像的匹配度确定所述目标视频。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
CN202010888913.7A 2020-08-28 2020-08-28 用于搜索视频的方法和装置 Pending CN111984825A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010888913.7A CN111984825A (zh) 2020-08-28 2020-08-28 用于搜索视频的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010888913.7A CN111984825A (zh) 2020-08-28 2020-08-28 用于搜索视频的方法和装置

Publications (1)

Publication Number Publication Date
CN111984825A true CN111984825A (zh) 2020-11-24

Family

ID=73440005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010888913.7A Pending CN111984825A (zh) 2020-08-28 2020-08-28 用于搜索视频的方法和装置

Country Status (1)

Country Link
CN (1) CN111984825A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712056A (zh) * 2021-01-14 2021-04-27 珠海格力电器股份有限公司 视频语义分析方法、装置、存储介质及电子设备
CN113190710A (zh) * 2021-04-27 2021-07-30 南昌虚拟现实研究院股份有限公司 语义视频图像的生成方法、播放方法及相关装置
CN113361344A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 视频事件识别方法、装置、设备及存储介质
CN113490057A (zh) * 2021-06-30 2021-10-08 海信电子科技(武汉)有限公司 显示设备和媒资推荐方法
CN115474084A (zh) * 2022-08-10 2022-12-13 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222227A (zh) * 2011-04-25 2011-10-19 中国华录集团有限公司 基于视频识别与提取影片图像的系统
CN110598651A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 一种信息处理方法、装置及存储介质
CN110609955A (zh) * 2019-09-16 2019-12-24 腾讯科技(深圳)有限公司 一种视频推荐的方法及相关设备
CN110781347A (zh) * 2019-10-23 2020-02-11 腾讯科技(深圳)有限公司 一种视频处理方法、装置、设备以及可读存储介质
CN110909209A (zh) * 2019-11-26 2020-03-24 北京达佳互联信息技术有限公司 直播视频的搜索方法及装置、设备、服务器和存储介质
CN111522994A (zh) * 2020-04-15 2020-08-11 北京百度网讯科技有限公司 用于生成信息的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222227A (zh) * 2011-04-25 2011-10-19 中国华录集团有限公司 基于视频识别与提取影片图像的系统
CN110609955A (zh) * 2019-09-16 2019-12-24 腾讯科技(深圳)有限公司 一种视频推荐的方法及相关设备
CN110598651A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 一种信息处理方法、装置及存储介质
CN110781347A (zh) * 2019-10-23 2020-02-11 腾讯科技(深圳)有限公司 一种视频处理方法、装置、设备以及可读存储介质
CN110909209A (zh) * 2019-11-26 2020-03-24 北京达佳互联信息技术有限公司 直播视频的搜索方法及装置、设备、服务器和存储介质
CN111522994A (zh) * 2020-04-15 2020-08-11 北京百度网讯科技有限公司 用于生成信息的方法和装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712056A (zh) * 2021-01-14 2021-04-27 珠海格力电器股份有限公司 视频语义分析方法、装置、存储介质及电子设备
CN113190710A (zh) * 2021-04-27 2021-07-30 南昌虚拟现实研究院股份有限公司 语义视频图像的生成方法、播放方法及相关装置
CN113190710B (zh) * 2021-04-27 2023-05-02 南昌虚拟现实研究院股份有限公司 语义视频图像的生成方法、播放方法及相关装置
CN113361344A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 视频事件识别方法、装置、设备及存储介质
CN113361344B (zh) * 2021-05-21 2023-10-03 北京百度网讯科技有限公司 视频事件识别方法、装置、设备及存储介质
CN113490057A (zh) * 2021-06-30 2021-10-08 海信电子科技(武汉)有限公司 显示设备和媒资推荐方法
CN113490057B (zh) * 2021-06-30 2023-03-24 海信电子科技(武汉)有限公司 显示设备和媒资推荐方法
CN115474084A (zh) * 2022-08-10 2022-12-13 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质
CN115474084B (zh) * 2022-08-10 2023-10-31 北京奇艺世纪科技有限公司 一种视频封面图像的生成方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
CN111984825A (zh) 用于搜索视频的方法和装置
CN111125435B (zh) 视频标签的确定方法、装置和计算机设备
CN111507104B (zh) 建立标签标注模型的方法、装置、电子设备和可读存储介质
CN111967302B (zh) 视频标签的生成方法、装置及电子设备
CN111104514B (zh) 文档标签模型的训练方法及装置
CN111522994A (zh) 用于生成信息的方法和装置
CN112036509A (zh) 用于训练图像识别模型的方法和装置
CN111522967A (zh) 知识图谱构建方法、装置、设备以及存储介质
CN111782977A (zh) 兴趣点处理方法、装置、设备及计算机可读存储介质
CN111639228B (zh) 视频检索方法、装置、设备及存储介质
CN111309200B (zh) 一种扩展阅读内容的确定方法、装置、设备及存储介质
CN111737559A (zh) 资源排序方法、训练排序模型的方法及对应装置
CN112487242A (zh) 用于识别视频的方法、装置、电子设备及可读存储介质
CN111680517A (zh) 用于训练模型的方法、装置、设备以及存储介质
CN111078878A (zh) 文本处理方法、装置、设备及计算机可读存储介质
CN111582477A (zh) 神经网络模型的训练方法和装置
CN111935506B (zh) 用于确定重复视频帧的方法和装置
CN112818224A (zh) 信息推荐方法、装置、电子设备及可读存储介质
CN111611990A (zh) 用于识别图像中表格的方法和装置
CN111460296B (zh) 用于更新事件集合的方法和装置
CN112380847A (zh) 兴趣点处理方法、装置、电子设备及存储介质
CN113127669B (zh) 广告配图方法、装置、设备和存储介质
CN111858905A (zh) 模型训练方法、信息识别方法、装置、电子设备及存储介质
CN110532404B (zh) 一种源多媒体确定方法、装置、设备及存储介质
CN112016521A (zh) 视频处理的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination