CN103309865B - 视频源聚类的实现方法及实现系统 - Google Patents
视频源聚类的实现方法及实现系统 Download PDFInfo
- Publication number
- CN103309865B CN103309865B CN201210058592.3A CN201210058592A CN103309865B CN 103309865 B CN103309865 B CN 103309865B CN 201210058592 A CN201210058592 A CN 201210058592A CN 103309865 B CN103309865 B CN 103309865B
- Authority
- CN
- China
- Prior art keywords
- video source
- captions
- duration
- target
- fingerprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明涉及一种视频源聚类的实现方法及实现系统。该方法包括以下步骤:获取对视频源的字幕的搜索请求;根据所述搜索请求搜索得到目标字幕;将所述目标字幕与所述视频源进行匹配;接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,减少了人员的投入,降低了人力成本,且提高了效率。
Description
【技术领域】
本发明涉及多媒体技术,特别涉及一种视频源聚类的实现方法及实现系统。
【背景技术】
随着多媒体和互联网技术的高速发展,互联网用户对多媒体内容尤其是视频源的需求日益增长。同一部影视作品会以不同的质量参数(如不同的音视频编码格式、不同的码率、不同的分辨率)分布于网络中的各个存储服务器上。
面对海量的视频,将相同内容的视频源进行聚类,可为用户带来更好的应用体验。例如,可针对终端性能匹配内容相同但分辨率不同的视频源,以保证终端能够流畅播放,以及在线播放服务能力不足时可切换到内容相同的其他格式进行播放。
传统的对视频源进行聚类的方法主要是依靠视频源文件名称中的关键字信息加上人工审核的方式来判断两部视频源是否具备相同的内容,该方法需要耗费大量的时间且需投入大量的人力,成本较高且效率较低。
【发明内容】
基于此,有必要提供一种能降低成本且提高效率的视频源聚类的实现方法。
一种视频源聚类的实现方法,包括以下步骤:
获取对视频源的字幕的搜索请求;
根据所述搜索请求搜索得到目标字幕;
将所述目标字幕与所述视频源进行匹配;
接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。
优选的,在将所述目标字幕与所述视频源进行匹配的步骤之后,还包括步骤:若匹配成功,则获取所述视频源的元数据及目标字幕的元数据,并将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
优选的,所述元数据包括指纹和时长,所述方法还包括步骤:判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值,若是,则建立目标字幕的指纹与视频源指纹之间的映射关系,并存储所述映射关系,若否,则丢弃所述关联结果。
优选的,还包括步骤:统计同一关联结果的上报次数;建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
优选的,所述将所述视频源的元数据与所述目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
优选的,所述将所述目标字幕与所述视频源进行匹配的步骤包括:在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
此外,还有必要提供一种能降低成本且提高工作效率的视频源聚类的实现方法。
一种视频源聚类的实现系统,包括:
请求获取模块,用于获取对视频源的字幕的搜索请求;
搜索模块,用于根据所述搜索请求搜索得到目标字幕;
匹配模块,用于将所述目标字幕与所述视频源进行匹配;
片源聚类模块,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。
优选的,还包括:
元数据获取模块,用于在匹配成功时,获取所述视频源的元数据及目标字幕的元数据;
关联上报模块,用于将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
优选的,所述元数据包括指纹和时长,所述片源聚类模块包括:
判断单元,用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值;
关系建立单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值小于预设误差阈值时,建立目标字幕的指纹与视频源指纹之间的映射关系,并将所述映射关系存入所述聚类数据库;
丢弃单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不小于预设误差阈值时,丢弃所述关联结果。
优选的,还包括:
统计模块,用于统计同一关联结果的上报次数;
所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
优选的,所述关联上报模块还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
优选的,所述匹配模块还用于在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,可将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,不需额外的人工干预,减少了人员的投入,降低了人力成本,且提高了效率。
【附图说明】
图1为一个实施例中视频源聚类的实现方法的流程图;
图2为另一个实施例中视频源聚类的实现方法的流程图;
图3为一个实施例中视频源聚类的实现系统的结构示意图;
图4为图3中片源聚类模块的内部结构示意图;
图5为另一个实施例中视频源聚类的实现系统的结构示意图。
【具体实施方式】
下面结合具体的实施例及附图对技术方案进行详细的描述。
如图1所示,在一个实施例中,一种视频源聚类的实现方法,包括以下步骤:
步骤S110,获取对视频源的字幕的搜索请求。
本实施例中,客户端获取用户观看本地视频源时,通过键盘、触摸屏等输入设备输入的影片名称的关键字,根据该关键字发起的搜索外挂字幕的搜索请求,并向服务端发起搜索请求。其中,影片名称为视频源中内容的名称。
步骤S120,根据搜索请求搜索得到目标字幕。
本实施例中,服务端接收到搜索请求后,从字幕数据库中查找与所述关键字相关的候选字幕,并将相关性最高的至少一组候选字幕及其元数据返回给客户端,客户端获取用户从候选字幕选取的字幕作为目标字幕。服务端也可将得到的相关性最高的一组候选字幕作为目标字幕,将目标字幕及其元数据返回给客户端。其中,元数据包括指纹和时长,还可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值,其用来唯一标识字幕。其中,字幕数据库可通过订制的字幕爬虫建立,也可通过人工整理录入建立,或两种方式有效组合。
相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距离计算得到。例如,影片名称的关键字为test,字幕的文件名为test,则两者的编辑距离为0,若字幕的文件名为tent,则两者的编辑距离为1。
步骤S130,将目标字幕与视频源进行匹配。
本实施例中,获取用户从搜索得到的相关性最高的候选字幕中选取目标字幕。然后,将目标字幕与视频源进行匹配。
进一步的,在一个实施例中,步骤S130包括:在播放视频源及目标字幕时,判断视频源播放时长是否大于预设播放时长阈值,若视频源播放时长大于所述预设播放阈值,则为匹配成功。播放视频源及目标字幕,客户端检测到该播放时长大于预设播放时长阈值,则表示匹配成功。其中,预设的播放时长阈值可为视频源总播放时长的百分比,如视频源总播放时长的5%的时间。
进一步的,在一个实施例中,在步骤S130之后,还包括步骤:若匹配成功,则可获取视频源的元数据和目标字幕的元数据,并将两者进行关联,生成关联结果,并上报关联结果,若匹配不成功,则丢弃该目标字幕,可重新返回获取从相关的候选字幕中选取目标字幕的步骤。
本实施例中,元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计算其相应的哈希值得到。
进一步的,在一个实施例中,将视频源的元数据与目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
步骤S140,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。
本实施例中,服务端接收到该关联结果后,并存储该关联结果,以便后续根据字幕查找到相同内容的视频源。
在一个实施例中,如图2所示,上述视频源聚类的实现方法,步骤S110至步骤S130与图1中相同,其区别在于,在步骤S130之后,还包括:
步骤S141,若匹配成功,获取视频源的元数据及目标字幕的元数据,并将视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
步骤S150,接收关联结果。
步骤S160,判断目标字幕的时长与视频源的时长差值绝对值是否小于预设误差阈值,若是,执行步骤S170,若否,则执行步骤S180。
本实施例中,预设误差阈值是指允许视频源的时长与字幕的时长之间存在一定的误差,但不影响其观看效果。当目标字幕的时长与视频源的时长差值绝对值小于误差阈值时,建立两者指纹之间的映射关系,并将该映射关系存储到聚类数据库中;当目标字幕的时长与视频源的时长差值绝对值不小于误差阈值时,则丢弃该关联结果,即不需记录目标字幕的元数据与视频源的元数据之间的关联。
步骤S170,建立目标字幕的指纹与视频源指纹之间的映射关系,并存储该映射关系。
在一个实施例中,在步骤S170之前,还包括步骤:统计同一关联结果的上报次数。具体的,不同的用户可能选择了相同的视频源及相同的字幕,客户端将其进行关联,然后将关联结果上报到服务端,服务端统计该关联结果的上报次数。例如,客户端A上报视频源a和字幕b的关联结果,客户端B也上报视频源a和字幕b,则上报次数为2。
在统计同一关联结果的上报次数后,还包括步骤:建立目标字幕的指纹与视频源的指纹、上报次数之间的映射关系,并存储该映射关系。统计了上报次数,并建立目标字幕的指纹与视频源的指纹和上报次数之间的映射关系,如此,上报次数越多,该目标字幕与视频源的匹配度越高,提高了对视频源聚类的准确性。
步骤S180,丢弃该关联结果。
如图3所示,在一个实施例中,一种视频源聚类的实现系统,包括请求获取模块110、搜索模块120、匹配模块130和片源聚类模块140。其中:
请求获取模块110,用于获取视频源的字幕的搜索请求。
本实施例中,客户端获取用户观看本地视频源时,通过键盘、触摸屏等输入设备输入的影片名称的关键字,根据该关键字发起的搜索外挂字幕的搜索请求,并向服务端发起搜索请求。其中,影片名称为视频源中内容的名称。其中,字幕数据库可通过订制的字幕爬虫建立,也可通过人工整理录入建立,或两种方式有效组合。
搜索模块120,用于根据该搜索请求搜索得到目标字幕。
本实施例中,服务端接收到搜索请求后,从字幕数据库中查找与所述关键字相关的候选字幕,并将相关性最高的至少一组候选字幕及其元数据返回给客户端,客户端获取用户从候选字幕选取的字幕作为目标字幕。服务端也可将得到的相关性最高的一组候选字幕作为目标字幕,将目标字幕及其元数据返回给客户端。其中,元数据包括指纹和时长,还可包括语言种类等。字幕的指纹可为字幕的分段哈希值或全段哈希值,其用来唯一标识字幕。
相关性可采用用户输入的影片名称的关键字和字幕的文件名的编辑距离计算得到。例如,影片名称的关键字为test,字幕的文件名为test,则两者的编辑距离为0,若字幕的文件名为tent,则两者的编辑距离为1。
匹配模块130,用于将目标字幕与视频源进行匹配。
在一个实施例中,匹配模块130还用于在播放视频源及目标字幕时,判断视频源播放时长是否大于预设播放时长阈值,若视频源播放时长大于所述预设播放阈值,则为匹配成功。播放视频源及目标字幕,客户端检测到该播放时长大于预设播放时长阈值,则表示匹配成功。其中,预设的播放时长阈值可为视频源总播放时长的百分比,如视频源总播放时长的5%的时间。若匹配成功,则可获取视频源的元数据和目标字幕的元数据,并将两者进行关联,生成关联结果,并上报关联结果,若匹配不成功,则丢弃该目标字幕,可重新获取从相关的候选字幕中选取目标字幕。
片源聚类模块140,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。
本实施例中,片源聚类模块140接收到该关联结果后,并存储该关联结果,以便后续根据字幕查找到相同内容的视频源。
如图5所示,在一个实施例中,上述视频源聚类的实现系统,除了包括请求获取模块110、搜索模块120、匹配模块130和片源聚类模块140,还包括元数据获取模块150、关联上报模块160和统计模块170。
元数据获取模块150,用于在匹配成功时,获取视频源的元数据及目标字幕的元数据。
本实施例中,元数据包括指纹和时长。视频源的指纹和目标字幕的指纹可通过计算其相应的哈希值得到。元数据获取模块150可包括视频源指纹计算模块和字幕指纹计算模块。视频源指纹计算模块用于计算视频源的指纹,字幕指纹计算模块用于计算字幕的指纹。
关联上报模块160,用于将视频源的元数据与目标字幕的元数据进行关联,生成关联结果,并上报该关联结果。在一个实施例中,关联上报模块160还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
片源聚类模块140还用于接收该关联结果,并将其存入聚类数据库。
元数据包括指纹和时长。在一个实施例中,如图4所示,片源聚类模块140包括判断单元141、关系建立单元143和丢弃单元145。其中:
判断单元141,用于判断目标字幕的时长与视频源的时长差值绝对值是否小于预设误差阈值。本实施例中,预设误差阈值是指允许视频源的时长与字幕的时长之间存在一定的误差,但不影响其观看效果。
当目标字幕的时长与视频源的时长差值绝对值小于误差阈值时,关系建立单元143建立两者指纹之间的映射关系,并将该映射关系存储到聚类数据库中;当目标字幕的时长与视频源的时长差值绝对值不小于误差阈值时,则丢弃单元145丢弃该关联结果,即不需记录目标字幕的元数据与视频源的元数据之间的关联。
统计模块170,用于统计同一关联结果的上报次数。具体的,不同的用户可能选择了相同的视频源及相同的字幕,关联上报模块160将其进行关联,然后将关联结果上报到服务端,统计模块170统计该关联结果的上报次数。例如,客户端A上报视频源a和字幕b的关联结果,客户端B也上报视频源a和字幕b,则上报次数为2。
关系建立单元143还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
统计了上报次数,并建立目标字幕的指纹与视频源的指纹和上报次数之间的映射关系,如此,上报次数越多,该目标字幕与视频源的匹配度越高,提高了对视频源聚类的准确性。
此外,请求获取模块110、匹配模块130、元数据获取模块150和关联上报模块160可设在客户端上,搜索模块120、片源聚类模块140、统计模块170和聚类数据库可设在服务端上。
上述视频源聚类的实现方法及实现系统,采用将获取的目标字幕与视频源匹配后,接收并存储上报的将目标字幕与视频源进行关联生成的关联结果,可将相同内容的视频源聚类在一起,如此仅需利用用户观看视频源下载字幕的主动行为,不需额外的人工干预,减少了人员的投入,降低了人力成本,且提高了效率。
另外,将相同内容的视频源聚类在一起后,方便根据不同的终端设备的计算性能提供不同质量参数的视频源来保证终端设备的播放流畅,以及在线点播服务能力不足时能切换到内容相同的其他格式的视频源进行播放来保证播放流畅。
此外,通过判断目标字幕的时长与视频源时长的差值绝对值是否小于预设误差阈值,过滤一部分关联结果,提高了聚类的准确性;通过统计上报次数,建立目标字幕的指纹与视频源的指纹和上报次数的映射关系,上报次数越高,其目标字幕与视频源的匹配度越高,聚类的准确性越高;通过判断播放时长是否大于预设播放时长阈值,判断目标字幕与视频源的匹配度,操作方便。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (12)
1.一种视频源聚类的实现方法,包括以下步骤:
获取对视频源的字幕的搜索请求,所述搜索请求中包含关键字;
根据所述搜索请求搜索与所述关键字相关的候选字幕,获取用户从搜索得到的相关性最高的候选字幕中选取的目标字幕;
将所述目标字幕与所述视频源进行匹配;
接收并存储上报的将目标字幕与视频源进行关联生成的关联结果。
2.根据权利要求1所述的视频源聚类的实现方法,其特征在于,在将所述目标字幕与所述视频源进行匹配的步骤之后,还包括步骤:若匹配成功,则获取所述视频源的元数据及目标字幕的元数据,并将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
3.根据权利要求2所述的视频源聚类的实现方法,其特征在于,所述元数据包括指纹和时长,所述方法还包括步骤:判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值,若是,则建立目标字幕的指纹与视频源指纹之间的映射关系,并存储所述映射关系,若否,则丢弃所述关联结果。
4.根据权利要求3所述的视频源聚类的实现方法,其特征在于,还包括步骤:统计同一关联结果的上报次数;建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
5.根据权利要求3所述的视频源聚类的实现方法,其特征在于,所述将所述视频源的元数据与所述目标字幕的元数据进行关联的步骤包括:将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
6.根据权利要求2所述的视频源聚类的实现方法,其特征在于,所述将所述目标字幕与所述视频源进行匹配的步骤包括:在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
7.一种视频源聚类的实现系统,其特征在于,包括:
请求获取模块,用于获取对视频源的字幕的搜索请求,所述搜索请求中包含关键字;
搜索模块,用于根据所述搜索请求搜索与所述关键字相关的候选字幕,获取用户从搜索得到的相关性最高的候选字幕中选取的目标字幕;
匹配模块,用于将所述目标字幕与所述视频源进行匹配;
片源聚类模块,用于接收上报的将目标字幕与视频源进行关联生成的关联结果,并将其存入聚类数据库。
8.根据权利要求7所述的视频源聚类的实现系统,其特征在于,还包括:
元数据获取模块,用于在匹配成功时,获取所述视频源的元数据及目标字幕的元数据;
关联上报模块,用于将所述视频源的元数据与所述目标字幕的元数据进行关联,生成关联结果,并上报所述关联结果。
9.根据权利要求8所述的视频源聚类的实现系统,其特征在于,所述元数据包括指纹和时长,所述片源聚类模块包括:
判断单元,用于判断目标字幕的时长与所述视频源的时长差值绝对值是否小于预设误差阈值;
关系建立单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值小于预设误差阈值时,建立目标字幕的指纹与视频源指纹之间的映射关系,并将所述映射关系存入所述聚类数据库;
丢弃单元,用于在判断出所述目标字幕的时长与所述视频源的时长差值绝对值不小于预设误差阈值时,丢弃所述关联结果。
10.根据权利要求9所述的视频源聚类的实现系统,其特征在于,还包括:
统计模块,用于统计同一关联结果的上报次数;
所述关系建立单元还用于建立目标字幕的指纹与视频源指纹和上报次数之间的映射关系,并存储所述映射关系。
11.根据权利要求9所述的视频源聚类的实现系统,其特征在于,所述关联上报模块还用于将目标字幕的指纹和时长、视频源的指纹和时长拼接在一起。
12.根据权利要求8所述的视频源聚类的实现系统,其特征在于,所述匹配模块还用于在播放所述视频源及目标字幕时,判断所述视频源播放时长是否大于预设播放时长阈值,若所述视频源播放时长大于所述预设播放时长阈值,则为匹配成功。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210058592.3A CN103309865B (zh) | 2012-03-07 | 2012-03-07 | 视频源聚类的实现方法及实现系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210058592.3A CN103309865B (zh) | 2012-03-07 | 2012-03-07 | 视频源聚类的实现方法及实现系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103309865A CN103309865A (zh) | 2013-09-18 |
CN103309865B true CN103309865B (zh) | 2017-03-22 |
Family
ID=49135103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210058592.3A Active CN103309865B (zh) | 2012-03-07 | 2012-03-07 | 视频源聚类的实现方法及实现系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103309865B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105100833A (zh) * | 2015-07-01 | 2015-11-25 | 北京奇虎科技有限公司 | 用于在线播放的字幕加载方法和装置 |
CN105872730A (zh) * | 2015-11-23 | 2016-08-17 | 乐视网信息技术(北京)股份有限公司 | 字幕数据融合方法及装置 |
CN112887806A (zh) * | 2021-01-25 | 2021-06-01 | 当趣网络科技(杭州)有限公司 | 字幕处理方法、装置、电子设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1799259A (zh) * | 2003-08-05 | 2006-07-05 | 三星电子株式会社 | 用于存储字幕和视频映射信息的信息存储介质及其再现方法和设备 |
CN101021855A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 基于内容的视频检索系统 |
CN101021857A (zh) * | 2006-10-20 | 2007-08-22 | 鲍东山 | 基于内容分析的视频搜索系统 |
CN101336545A (zh) * | 2006-03-15 | 2008-12-31 | 深圳Tcl新技术有限公司 | 搜索视频信号的系统和方法 |
CN102207966A (zh) * | 2011-06-01 | 2011-10-05 | 华南理工大学 | 基于对象标签的视频内容快速检索方法 |
CN102222227A (zh) * | 2011-04-25 | 2011-10-19 | 中国华录集团有限公司 | 基于视频识别与提取影片图像的系统 |
JP2012043422A (ja) * | 2010-08-16 | 2012-03-01 | Nhn Corp | 字幕情報を用いた検索結果提供方法およびシステム |
-
2012
- 2012-03-07 CN CN201210058592.3A patent/CN103309865B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1799259A (zh) * | 2003-08-05 | 2006-07-05 | 三星电子株式会社 | 用于存储字幕和视频映射信息的信息存储介质及其再现方法和设备 |
CN101336545A (zh) * | 2006-03-15 | 2008-12-31 | 深圳Tcl新技术有限公司 | 搜索视频信号的系统和方法 |
CN101021855A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 基于内容的视频检索系统 |
CN101021857A (zh) * | 2006-10-20 | 2007-08-22 | 鲍东山 | 基于内容分析的视频搜索系统 |
JP2012043422A (ja) * | 2010-08-16 | 2012-03-01 | Nhn Corp | 字幕情報を用いた検索結果提供方法およびシステム |
CN102222227A (zh) * | 2011-04-25 | 2011-10-19 | 中国华录集团有限公司 | 基于视频识别与提取影片图像的系统 |
CN102207966A (zh) * | 2011-06-01 | 2011-10-05 | 华南理工大学 | 基于对象标签的视频内容快速检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103309865A (zh) | 2013-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105142028B (zh) | 面向三网融合的电视节目内容搜索与推荐方法 | |
US7624416B1 (en) | Identifying events of interest within video content | |
US7072901B2 (en) | Index generation method, index generation apparatus, index addition system, and program and storage medium thereof | |
US10567839B2 (en) | System and method for associating search queries with remote content display | |
US9407974B2 (en) | Segmenting video based on timestamps in comments | |
US9414006B2 (en) | System for generating recommendation keyword of multimedia contents and method thereof | |
US9396258B2 (en) | Recommending video programs | |
US9477712B2 (en) | Searching for segments based on an ontology | |
US8694533B2 (en) | Presenting mobile content based on programming context | |
CN1719909A (zh) | 一种测量音视频内容变化的方法 | |
US20140115621A1 (en) | Intra-Video Ratings | |
US10880025B1 (en) | Identification of concurrently broadcast time-based media | |
US20100299701A1 (en) | Media content retrieval system and personal virtual channel | |
US20040260682A1 (en) | System and method for identifying content and managing information corresponding to objects in a signal | |
CN1659882A (zh) | 基于个人资料档案的内容补充 | |
CN1607832A (zh) | 有关流媒体对象的推理信息 | |
CN106484774B (zh) | 一种多源视频元数据的关联方法及系统 | |
WO2011050280A2 (en) | Method and apparatus for video search and delivery | |
US8248940B2 (en) | Method and apparatus for targeted content delivery based on internet video traffic analysis | |
WO2015156842A1 (en) | Methods and apparatus to identify media using hash keys | |
CN103309865B (zh) | 视频源聚类的实现方法及实现系统 | |
CA2697565C (en) | Merging of multiple data sets | |
He et al. | Understanding user behavior in large scale internet video service | |
CN107071523B (zh) | 节目推荐方法及装置 | |
Liang et al. | Personalized sports video customization for mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |