CN111372116A - 视频播放提示信息处理方法、装置、电子设备及存储介质 - Google Patents

视频播放提示信息处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111372116A
CN111372116A CN202010230201.6A CN202010230201A CN111372116A CN 111372116 A CN111372116 A CN 111372116A CN 202010230201 A CN202010230201 A CN 202010230201A CN 111372116 A CN111372116 A CN 111372116A
Authority
CN
China
Prior art keywords
information
video
prompt
scene
segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010230201.6A
Other languages
English (en)
Other versions
CN111372116B (zh
Inventor
陈妙
钟宜峰
吴耀华
李琳
吴志勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
MIGU Culture Technology Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
MIGU Culture Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, MIGU Culture Technology Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202010230201.6A priority Critical patent/CN111372116B/zh
Publication of CN111372116A publication Critical patent/CN111372116A/zh
Application granted granted Critical
Publication of CN111372116B publication Critical patent/CN111372116B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4665Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms involving classification methods, e.g. Decision trees
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4666Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提供一种视频播放提示信息处理方法及装置,方法包括:获取目标视频的视频标签和播放信息,播放信息为在视频播放过程中获取的信息;根据视频标签确定对应于所述目标视频的提示信息库;根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。本发明实施例提供的视频播放提示信息处理方法及装置,通过获取目标视频的视频标签和播放信息,根据视频标签确定对应于目标视频的提示信息库,从而根据播放信息从提示信息库中确定目标视频在播放过程中的提示信息,实现信息的自动提示,有利于用户对视频内容的关注度。

Description

视频播放提示信息处理方法、装置、电子设备及存储介质
技术领域
本发明涉及视频处理技术领域,尤其涉及一种视频播放提示信息处理方法、装置、电子设备及存储介质。
背景技术
用户使用终端(智能手机、平板电脑和PC电脑)观看视频的过程中,如果能在终端上看到服务端对播放画面内容的提示信息,有利于用户对视频内容的关注度。
目前常见的提示信息的生成方式主要是对视频进行人工打点编辑,即对视频中的某些视频片段配置对应的剧情简介,并设置视频播放进度条上的某个时间点上。如用户通过鼠标停留在该时间点上,对应的剧情简介可浮现在进度条上,鼠标离开,剧情简介便消失。
这种信息的提示方式,无法做到自动提示,且不能浮现在视频画面上,以便引起用户的关注。
发明内容
针对现有技术存在的问题,本发明实施例提供一种视频播放提示信息处理方法、装置、电子设备及存储介质。
第一方面,本发明实施例提供一种视频播放提示信息处理方法,包括:
获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包含在视频播放过程中对视频内容进行提示的信息;
根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
可选地,所述播放信息包括当前时间,所述当前时间为视频播放过程中的当前时间点;所述提示信息库包括提示时间与高频词语的对应关系,和/或,所述提示信息库包括提示时间与推荐场景信息的对应关系,所述提示时间为提示高频词语或推荐场景信息进行显示的时间点,则所述根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息,包括:
当确定所述当前时间为所述目标视频的前期时间、中期时间或后期时间时,从所述提示信息库中调用分别对应于所述前期时间、中期时间或后期时间的前期信息、中期信息或后期信息,将所述前期信息、中期信息或后期信息作为对应于所述目标视频的提示信息,所述前期时间、中期时间或后期时间分别为所述提示信息库中对应于目标视频的片头、片中和片尾的提示时间,所述前期信息、中期信息和后期信息分别为所述提示信息库中对应目标视频的片头、片中和片尾的高频词语;
和/或,当确定所述当前时间为所述提示信息库中的提示时间时,根据所述提示信息库中预存的提示时间与推荐场景信息的对应关系调用对应的推荐场景信息,将所述推荐场景信息作为对应于所述目标视频的提示信息。
可选地,所述播放信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括因场景信息、间隔时长和果场景信息的对应关系,和/或,所述提示信息库包括前景片段特征与预测场景信息的对应关系,则所述根据所述播放信息和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得片段特征,当确定所述片段特征符合因片段时,确定该因片段在所述提示信息库中的因场景信息,根据所述提示信息库中预存的因场景信息、间隔时长和果场景信息的对应关系调用对应的间隔时长和果场景信息,将所述间隔时长和果场景信息作为目标视频的提示信息;其中,所述因场景信息和所述果场景信息分别为因片段和果片段对应的提示信息;
和/或,对所述片段内容进行分析获得前景片段特征,并根据预存的前景片段特征与预测场景信息的对应关系确定对应的预测场景信息,将预测场景信息作为所述目标视频的提示信息。
可选地,还包括提示信息库的生成步骤,所述步骤包括:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,根据聚类处理的结果获取所述点播视频中预设的多个时间段上对应的高频词语,并为所述预设的多个时间段分别设置提示时间,为同一时间段上的所述高频词语和提示时间建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分类,确定各片段对应的推荐场景信息,并为各片段配置对应的提示时间,为同一片段上的所述提示时间和推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息;
和/或,
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;其中,所述场景分析模型为样本视频片段的片段特征和对应的场景类别通过神经网络模型训练得到;
和/或,
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将各片段对应的所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
可选地,还包括提示信息库的生成步骤,所述步骤包括:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分析,确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
可选地,还包括提示信息库的生成步骤,所述步骤包括:
获取已知场景类别的样本视频片段,对样本视频片段进行分析得到对应的前景片段特征;
将样本视频片段的前景片段特征和对应的场景类别输入到神经网络模型中进行训练,获得场景分析模型;
根据场景分析模型提取经训练优化后的前景片段特征,为前景片段特征配置对应的预测场景信息;
建立前景片段特征和预测场景信息的对应关系,将各对应关系进行集合,得到提示信息库。
可选地,所述播放信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括人物标签与人物信息的对应关系,则所述根据所述播放信息和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得人脸特征,当所述人脸特征符合所述人脸信息库中的人物标签时,根据所述人脸信息库中预存的人物标签与人物信息的对应关系调用对应的人物信息,将人物信息作为对应于所述片段内容的提示信息。
第二方面,本发明实施例提供一种视频播放提示信息处理装置,包括:
获取模块,用于获取目标视频的视频标签和播放信息,所述目标视频为用户在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
确定模块,用于根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;
处理模块,用于根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述视频播放提示信息处理方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述视频播放提示信息处理方法的步骤。
本发明实施例提供的视频播放提示信息处理方法、装置、电子设备及存储介质,通过获取目标视频的视频标签和播放信息,根据视频标签确定对应于目标视频的提示信息库,从而根据播放信息从提示信息库中确定目标视频在播放过程中的提示信息,实现信息的自动提示,有利于用户对视频内容的关注度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明视频播放提示信息处理方法实施例流程图;
图2为本发明视频播放提示信息处理装置实施例结构图;
图3为本发明电子设备实施例结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明一实施例提供的一种视频播放提示信息处理方法的流程示意图,参见图1,该方法包括:
S11、获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
S12、根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;
S13、根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
针对步骤S11,需要说明的是,在本发明实施例中,用户在终端(智能手机、平板电脑、电视终端和PC电脑)上打开某个视频门户上传的视频(电视剧、电影等)或者该视频门户进行的直播(如足球赛事,晚会,发布会等),该视频门户所属的云端服务器获取到所打开视频的播放信息。在这里,用户的终端上正在播放的视频为本实施例提及的目标视频。
在本发明实施例中,从观看视频获得提示信息的必要性上来看,较短的视频(例如几秒或几分钟)没有提示信息的必要,因此,本实施例中提及的需要提示信息的视频为较长时间的视频,如一个完整的电视剧集,一个完整的电影视频或一场完整的赛事视频。为此,在这里,需要提示信息的视频可包括播放总时长超过预设时长的视频。
在本发明实施例中,在视频播放过程中,需要获取目标视频的视频标签和播放信息。一般情况下,每个视频在发布时都会编辑对应的信息,如视频名称、视频类别、主要演员、导演、剧集数等较多具有区分性的信息。这些信息在本实施例中均作为提及的视频标签。为此,该视频标签具有限定相同或相似视频的目的。例如电视剧《生活》第5集,该视频的视频标签可为“《生活》和第5集”。此时,该视频标签可限定到《生活》第5集的完整视频以及第5集的预告片段视频。
该播放信息为从目标视频播放过程中获取到的信息。如某个片段内容或当前播放的时间点。在这里,该片段内容为视频中已播放过的片段。该播放信息可作为匹配提示信息的参考依据。
针对步骤S12,需要说明的是,在本发明实施例中,针对不同的视频,在云端服务器中可存有各个视频所对应的提示信息库,以便每个视频有专门的提示信息库。也可存有多个视频公用一个提示信息库,以便多个视频都以同一个提示信息库作为视频内容提示的依据,减少后台数据量。该提示信息库包括在视频播放过程中进行内容提示的至少一个维度下的提示信息。该维度为区分提示信息的条件项,例如时间维度、场景维度和人物维度等。该提示信息库能够为用户在播放对应视频时提供所需的提示信息。
为此,云端服务器根据目标视频的视频标签可以确定对应于该目标视频的提示信息库。
针对步骤S13,需要说明的是,在本发明实施例中,由于要对播放中的视频进行温馨提示,因此,云端服务器需要根据播放信息从提示信息库确定目标视频的提示信息,并将该提示信息在视频画面上以弹幕或弹窗的形式进行显示。此情况下,用户可以在终端上看到提示信息。
例如提示信息是“十分钟之后,恐怖画面来袭”。该信息会以弹幕或弹窗的形式出现在视频画面上。
本发明实施例提供的视频播放提示信息处理方法,通过获取目标视频的视频标签和播放信息,根据视频标签确定对应于目标视频的提示信息库,从而根据播放信息从提示信息库中确定目标视频在播放过程中的提示信息,实现信息的自动提示,有利于用户对视频内容的关注度。
在上述实施例方法的进一步实施例中,主要是对正在播放的视频利用提示信息库完成提示的解释说明,具体如下:
在本发明实施例中,播放信息包括当前时间和/或片段内容。
当前时间为视频播放过程中的当前时间点。如当前时间点为视频当前播放到时长为10分钟的位置。
片段内容为早于所述当前时间的第一历史时间段的视频片段,第一历史时间段较短,如十几秒钟、一分钟等,在此不对具体时长进行限定。
针对上述提及到的当前时间和/或片段内容,在确定目标视频的提示信息可从时间维度和场景维度下进行确定。
因此,根据播放信息和提示信息库确定目标视频的提示信息,具体为:
针对当前时间,提示信息库可包括提示时间与高频词语的对应关系,和/或,提示信息库包括提示时间与推荐场景信息的对应关系,该提示时间为提示高频词语或推荐场景信息进行显示的时间点,则根据提示当前时间和提示信息库确定目标视频在播放过程中的提示信息,包括:
当确定当前时间为目标视频的前期时间、中期时间或后期时间时,从提示信息库中调用分别对应于前期时间、中期时间或后期时间的前期信息、中期信息或后期信息,将前期信息、中期信息或后期信息作为对应于目标视频的提示信息,前期时间、中期时间或后期时间分别为提示信息库中对应于目标视频的片头、片中和片尾的提示时间,前期信息、中期信息和后期信息分别为提示信息库中对应目标视频的片头、片中和片尾的高频词语。
例如一个完整的视频包含片头、片中和片尾,针对片头、片中和片尾可设置对应的提示信息。如视频片头时,“小板凳已准备好”,“沙发”等高频词汇作为提示信息。视频片尾时,“精彩”、“你是一个成熟的进度条了,要学会自我延伸”作为提示信息。视频中段时,“精彩继续不要走开”作为提示信息。这些提示信息由于对剧情的提示不较重要,因此,此部分提示信息可以弹幕的形式发出,主要作用为温馨提示影片的播放到何种程度。
当确定当前时间为提示信息库中的提示时间时,根据提示信息库中预存的提示时间与推荐场景信息的对应关系调用对应的推荐场景信息,将推荐场景信息作为对应于目标视频的提示信息。
例如恐怖片段,其前方设置提示时间,当播放时间点达到提示时间点,此时的推荐场景信息“前方恐怖,胆小请回避”可作为提示信息进行显示。
针对片段内容,该片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,提示信息库包括因场景信息、间隔时长和果场景信息的对应关系,和/或,所述提示信息库包括前景片段特征与预测场景信息的对应关系,则根据片段内容和提示信息库确定所述目标视频的提示信息,包括:
对片段内容进行分析获得片段特征,当确定片段特征符合因片段时,确定该因片段在提示信息库中的因场景信息,根据提示信息库中预存的因场景信息、间隔时长和果场景信息的对应关系调用对应的间隔时长和果场景信息,将间隔时长和果场景信息作为目标视频的提示信息;在这里,因场景信息是对应于因片段的提示信息,果场景信息是对应于果片段的提示信息。间隔时长是因片段和果片段之间的间隔时长,预示着因片段被识别之后,将要在多少时间之后发生果片段。
在本实施例中,对片段内容的分析可采用预设的场景分析模型完成,从而得到片段特征是否符合因片段。
例如“男主角因缘巧合学会失传的武功”和“男主角用该武功在一个山庄内大战群豪”是对应的因片段和果片段。当视频播放到男主角得到武功秘籍的画面,则分析该画面与因片段符合,进而可以在提示信息库得到“30分钟之后”和“高战画面,请做好”。在这里,“高战画面,请做好”是“男主角用该武功在一个山庄内大战群豪”这个片段的提示信息。
对片段内容进行分析获得前景片段特征,并根据预存的前景片段特征与预测场景信息的对应关系确定对应的预测场景信息,将预测场景信息作为目标视频的提示信息。
例如视频中的一个人带着面具拿出一把刀,可能会发生惊悚血腥的场景。在这里,“一个人带着面具拿出一把刀”对应的片段特征为前景片段特征。该前景片段特征可对应的提示信息为“血腥画面,请注意”。
用户在终端(智能手机、平板电脑、电视终端和PC电脑)上打开某个视频门户上传的视频(电视剧、电影等),这些视频属于点播视频,这些视频一旦上传,视频的完整资源便存在在网络上。用户在该视频门户观看进行的直播(如足球赛事,晚会,发布会等),即直播视频,这些视频是实时直播,在播放过程中,视频的资源的完整度随着直播的进行而增加。因此,针对这两种形式的视频,其提示信息库的获取存在不同。
在上述实施例方法的进一步实施例中,提示信息库的获取的一种情况进行解释说明,该情况针对点播视频,具体如下:
A1、根据点播视频的视频标签获取第二历史时间段内播放该点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
B1、对所述弹幕文本和/或评论文本进行聚类处理,获取点播视频的提示信息库。
针对步骤A1和步骤B1,需要说明的是,在本发明实施例中,某视频门户将某个视频上传到网站上,供用户观看,该视频为点播视频。用户在观看点播视频过程中,可能会对视频的剧情片段、演员演技、歌唱曲目等发表观感。其方式包括弹幕文本或评论文本。弹幕文本直接显示在视频画面上方。评论文本在视频界面下发的内容框内发表。
为此,等该点播视频被用户观看一段时间(如一天、一周或一月,该时间为上述提及的第二历史时间段)后,云端服务器会根据该点播视频的视频标签获取第二历史时间段内播放该视频以及播放与视频标签对应的相关视频所产生的弹幕文本和/或评论文本。在这里,弹幕文本和/或评论文本的发表时间会存在视频播放过程中任何时间点上。因此,会存在某些时间段上产生的弹幕文本和/或评论文本数目较多,这是因为大量用户对视频中某些片段产生共鸣,以至于对相同片段进行集中发表观感。
由上述可以得知,云端服务器会获得第一历史时间段内的文本集合。对文本集合前期可进行筛选过滤,减少数据量。然后对所述弹幕文本和/或评论文本进行聚类(可采用Kmeans聚类算法)处理,获取点播视频的提示信息库。
在上述实施例方法的更进一步实施例中,针对点播视频,主要是对弹幕文本和/或评论文本进行聚类处理获取视频的提示信息库进行解释说明,具体如下:
B11、对所述弹幕文本和/或评论文本进行聚类处理,根据聚类处理的结果获取所述点播视频中预设的多个时间段上对应的高频词语,并为所述预设的多个时间段分别设置提示时间,为同一时间段上的所述高频词语和提示时间建立对应关系,并将各对应关系进行集合,得到提示信息库;
B12、对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分类,确定各片段对应的推荐场景信息,并为各片段配置对应的提示时间,为同一片段上的所述提示时间和推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息;
B13、对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分析,确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
针对步骤B11,需要说明的是,该时间信息库主要用于针对视频中某些时间段进行剧情之外的提示。通常设置在片头、片中和片尾。为此,针对片头、片中和片尾设置对应的时间段。采用聚类算法对所述弹幕文本和/或评论文本进行处理,可做到:获取视频上预设的不同时间段上对应的高频词语,并为不同时间段分别设置提示时间,将所属于每个时间段上的高频词语和对应的提示时间建立对应关系,并将各对应关系进行集合作为时间维度下的提示信息库。该提示时间为一个视频上的时间点,当播放时间点到达该提示时间时,则会将对应的高频词语提示到视频画面上。
例如,片头的高频词语如“小板凳已准备好”。片中的高频词语如“精彩继续”,片尾的高频词语如“观看结束,谢谢”。
针对步骤B12,需要说明的是,该场景信息库主要用于针对视频中某些片段进行剧情的提示。为此,采用聚类算法对完整视频中所有的弹幕文本和/或评论文本进行处理,确定视频中的场景片段,这些场景片段为处理得到的视频中的某些片段。获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分类,得到各片段的场景类别,从而配置各片段对应的推荐场景信息,并配置对应的提示时间,将所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合作为时间维度下的提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息。该提示时间为一个视频上的时间点,当播放时间点到达该提示时间时,则会将对应的推荐场景信息提示到视频画面上。
针对B13,需要说明的是,该场景信息库主要用于针对视频中某些片段进行剧情的提示。为此,采用聚类算法对完整视频中所有的弹幕文本和/或评论文件进行处理,确定视频中的场景片段,这些场景片段为处理得到的视频中的某些片段。获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分析,确定这些片段中存在的相互对应的因片段和果片段。因片段和果片段是剧情上存在因果关系的片段,然后配置对应的因场景信息、果场景信息和间隔时长,将间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合作为场景维度下的提示信息库。该间隔时间是因片段与果片段所预测出的间隔时长。当确定当前播放的片段为因片段时,提醒后续一定间隔时长之后会播放到果片段。
上述步骤B11-步骤B13,均是基于历史记录生成所需的提示信息库。因为历史记录更能反映用户对点播视频的直观感受,采用用户直观的评论作为提示信息库的依据,能够体现大众的关注点的一致性。
在上述实施例方法的进一步实施例中,提示信息库的获取还存在另一情况上的解释说明,该情况针对点播视频(即点播视频),具体如下:
A2、采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到时间维度下的提示信息库;其中,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息,所述场景分析模型为样本视频片段的片段特征和对应的场景类别通过神经网络模型训练得到;
B2、采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到场景维度下的提示信息库。
针对步骤A2,需要说明的是,当第二历史时间段内产生的弹幕文本和/或评论文件较少时,则从较少的数据中不能得到较直观且准确的提示信息。为此,针对点播视频需要通过场景分析模型进行场景分析,从而确定视频中某些片段的场景类型,进而配置对应的场景信息。
所述场景分析模型为样本视频片段的片段特征和对应的场景类别通过神经网络模型训练得到。
在本发明实施例中,该场景分析模型采用基于深度学习方式建立。预先将不同场景类别(如恐怖、搞笑、感动和高甜等)的大量短视频作为样本视频片段进行训练,提取每个样本视频片段的片段特征,将每个样本视频片段的片段特征与对应的场景类别输入到神经网络模型中,从而训练得到场景分析模型。
采用场景分析模型对点播视频进行场景分析,确定视频中的场景片段,这些场景片段为处理得到的视频中的某些片段。然后配置各片段对应的推荐场景信息和提示时间,将提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到时间维度下的提示信息库。该推荐场景信息为所述提示时间之后要出现的片段的提示信息。该提示时间为一个视频上的时间点,当播放时间点到达该提示时间时,则会将对应的推荐场景信息提示到视频画面上。
针对B2,采用场景分析模型对点播视频进行场景分析,确定视频中的场景片段,这些场景片段为处理得到的视频中的某些片段。从各片段中确定对应的因片段和果片段,再配置对应的因场景信息、果场景信息和间隔时长,将所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到场景维度下的提示信息库。在这里,可利用三维卷积算法对各片段内容进行特征提取,之后求取距离产生因果性分析,可以确定对应的因片段和果片段。
上述步骤A2-步骤B2,主要是避免历史数据较少无法获得提示信息,采用场景分析模型可随时对点播视频进行场景分析,得到所需的场景信息库。
在上述实施例方法的进一步实施例中,提示信息库的获取还存在另一情况上的解释说明,该情况针对直播视频,具体如下:
A3、根据直播视频的视频标签获取预告信息,所述预告信息是在第一历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将各片段对应的所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到作为时间维度下的提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息;
B3、根据直播视频的视频标签获取预告信息,所述预告信息是在第一历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到场景维度下的提示信息库。
针对步骤A3,需要说明的是,直播视频由于视频播放具有时效性,因此,在播放过程中,提示信息的作用是预测提醒后续要播放的内容。为此,无法像点播视频那样获得一定时间段内的弹幕文本和/或评论文本去分析获得提示信息库。但可以获取一定时间段内与视频标签对应的相关网文。这些相关网文可能会包含一定的预告信息。
例如一个晚会的直播视频,事先会在网络上爆出“节目表”的网文。对节目表进行分析,可以得到各节目的节目时间。各节目的节目时间作为预告信息。
对预告信息进行划分处理,划分对应于直播视频的场景片段。这里的场景片段可对应上述节目表中的各个节目。然后配置各片段对应的推荐场景信息和第四提示时间,将第四提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到场景维度下的提示信息库。该提示时间为一个时间点,当播放时间点到达该提示时间时,则会将对应的推荐场景信息提示到视频画面上。
针对步骤B3,需要说明的是,可从上述提到的各片段中确定对应的因片段和果片段,再配置对应的因场景信息、果场景信息和间隔时长,将所述间隔时长、因场景信息和果场景信息建立对应关系。
在上述实施例方法的进一步实施例中,提示信息库的获取还存在另一情况上的解释说明,该情况针对直播视频,具体如下:
获取已知场景类别的样本视频片段,对样本视频片段进行分析得到对应的前景片段特征;将样本视频片段的前景片段特征和对应的场景类别输入到神经网络模型中进行训练,获得场景分析模型;根据场景分析模型提取经训练优化后的前景片段特征,为前景片段特征配置对应的预测场景信息;建立前景片段特征和预测场景信息的对应关系,将各对应关系进行集合,得到场景维度下的提示信息库。
在本发明实施例中,由于与直播视频相关的网文不存在,为此,需要通过场景分析模型去建立场景信息库,该场景分析模型采用基于深度学习方式建立。预先将不同场景类别(如恐怖、搞笑、感动和高甜等)的大量短视频作为样本视频片段进行训练,提取每个样本视频片段的前景片段特征。该前景片段特征为短视频中所发生的场景事件之前的发生条件。有这个条件,才会产生对应的场景事件。
例如短视频中的一个人带着面具拿出一把刀,可能会发生惊悚血腥的场景。在这里,“一个人带着面具拿出一把刀”对应的片段特征为前景片段特征。
将每个样本视频片段的前景片段特征与对应的场景类别输入到神经网络模型中,从而训练得到场景分析模型。
由于得到的场景分析模型能够对输入的任何视频进行场景预测,故其内部存在前景片段特征与场景类别的对应关系,为此,根据场景分析模型可以获取所需的前景片段特征,并配置对应的预测场景信息,从而建立前景片段特征与预测场景信息的对应关系,将各对应关系进行集合,得到提示信息库。
在上述实施例方法的进一步实施例中,提示信息库还包括人物维度的提示信息库,其包括人物标签和人物信息的对应关系,则根据视频播放参数和提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得人脸特征,当所述人脸特征符合所述人脸信息库中的人物标签时,根据所述人脸信息库中预存的人物标签与人物信息的对应关系调用对应的人物信息作为对应于所述片段内容的提示信息。
在这里,人脸信息库可直接对一些明星人物的信息进行编辑,建立人物标签与人物信息的对应关系,将对应关系集合在一起形成人物信息库。
在这里,主要是在视频播放中,对主演的一些介绍信息进行提示,以便用户了解演员的信息。影视剧中出现“胡歌”,便可温馨提示“胡歌,82年生人,曾获金鹰视帝等”。此部分内容以弹窗或者弹幕形式产生即可,主要作用可引起粉丝的共鸣或者做简单的科普等。
本发明实施例提供的视频播放提示信息处理方法,通过获取目标视频的视频标签和播放信息,根据视频标签确定对应于目标视频的提示信息库,从而根据播放信息从提示信息库确定目标视频在播放过程中的提示信息,实现信息的自动提示,有利于用户对视频内容的关注度。
图2示出了本发明一实施例提供的一种视频播放提示信息处理装置的结构示意图,参见图2,该装置包括获取模块21、确定模块22和处理模块23,其中:
获取模块21,用于获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
确定模块22,用于根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;
处理模块23,用于根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
在上述实施例装置的进一步实施例中,所述处理模块具体用于:
所述播放信息包括当前时间,所述当前时间为视频播放过程中的当前时间点;所述提示信息库包括提示时间与高频词语的对应关系,和/或,所述提示信息库包括提示时间与推荐场景信息的对应关系,所述提示时间为提示高频词语或推荐场景信息进行显示的时间点,则所述根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息,包括:
当确定所述当前时间为所述目标视频的前期时间、中期时间或后期时间时,从所述提示信息库中调用分别对应于所述前期时间、中期时间或后期时间的前期信息、中期信息或后期信息,将所述前期信息、中期信息或后期信息作为对应于所述目标视频的提示信息,所述前期时间、中期时间或后期时间分别为所述提示信息库中对应于目标视频的片头、片中和片尾的提示时间,所述前期信息、中期信息和后期信息分别为所述提示信息库中对应目标视频的片头、片中和片尾的高频词语;
和/或,当确定所述当前时间为所述提示信息库中的提示时间时,根据所述提示信息库中预存的提示时间与推荐场景信息的对应关系调用对应的推荐场景信息,将所述推荐场景信息作为对应于所述目标视频的提示信息。
在上述实施例装置的进一步实施例中,所述处理模块具体用于:
所述播放信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括因场景信息、间隔时长和果场景信息的对应关系,和/或,所述提示信息库包括前景片段特征与预测场景信息的对应关系,则所述根据所述视频播放参数和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得片段特征,当确定所述片段特征符合因片段时,确定该因片段在所述提示信息库中的因场景信息,根据所述提示信息库中预存的因场景信息、间隔时长和果场景信息的对应关系调用对应的间隔时长和果场景信息,将所述间隔时长和果场景信息作为目标视频的提示信息;其中,所述因场景信息和所述果场景信息分别为因片段和果片段对应的提示信息;
和/或,对所述片段内容进行分析获得前景片段特征,并根据预存的前景片段特征与预测场景信息的对应关系确定对应的预测场景信息,将预测场景信息作为所述目标视频的提示信息。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于对所述提示信息库的生成处理,具体用于:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,根据聚类处理的结果获取所述点播视频中预设的多个时间段上对应的高频词语,并为所述预设的多个时间段分别设置提示时间,为同一时间段上的所述高频词语和提示时间建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分类,确定各片段对应的推荐场景信息,并为各片段配置对应的提示时间,为同一片段上的所述提示时间和推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分析,确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;其中,所述场景分析模型为样本视频片段的片段特征和对应的场景类别通过神经网络模型训练得到。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将各片段对应的所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
在上述实施例装置的进一步实施例中,该装置还包括生成模块,用于:
获取已知场景类别的样本视频片段,对样本视频片段进行分析得到对应的前景片段特征;
将样本视频片段的前景片段特征和对应的场景类别输入到神经网络模型中进行训练,获得场景分析模型;
根据场景分析模型提取经训练优化后的前景片段特征,为前景片段特征配置对应的预测场景信息;
建立前景片段特征和预测场景信息的对应关系,将各对应关系进行集合,得到提示信息库。
在上述实施例装置的进一步实施例中,所述处理模块具体用于:
所述提示播放参考信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括人物标签与人物信息的对应关系,则所述根据所述提示播放参考信息和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得人脸特征,当所述人脸特征符合所述人脸信息库中的人物标签时,根据所述人脸信息库中预存的人物标签与人物信息的对应关系调用对应的人物信息,将人物信息作为对应于所述片段内容的提示信息。
由于本发明实施例所述装置与上述实施例所述方法的原理相同,对于更加详细的解释内容在此不再赘述。
需要说明的是,本发明实施例中可以通过硬件处理器(hardware processor)来实现相关功能模块。
本发明实施例提供的视频播放提示信息处理装置,通过获取目标视频的视频标签和播放信息,根据视频标签确定对应于目标视频的提示信息库,从而根据播放信息从提示信息库确定目标视频在播放过程中的提示信息,实现信息的自动提示,有利于用户对视频内容的关注度。
图3示例了一种电子设备的实体结构示意图,如图3所示,该电子设备可以包括:处理器(processor)31、通信接口(Communications Interface)32、存储器(memory)33和通信总线34,其中,处理器31,通信接口32,存储器33通过通信总线34完成相互间的通信。处理器31可以调用存储器33中的逻辑指令,以执行如下方法:获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
此外,上述的存储器33中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种视频播放提示信息处理方法,其特征在于,包括:
获取目标视频的视频标签和播放信息,所述目标视频为在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包含在视频播放过程中对视频内容进行提示的信息;
根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
2.根据权利要求1所述的视频播放提示信息处理方法,其特征在于,所述播放信息包括当前时间,所述当前时间为视频播放过程中的当前时间点;所述提示信息库包括提示时间与高频词语的对应关系,和/或,所述提示信息库包括提示时间与推荐场景信息的对应关系,所述提示时间为提示高频词语或推荐场景信息进行显示的时间点,则所述根据所述播放信息和所述提示信息库确定所述目标视频在播放过程中的提示信息,包括:
当确定所述当前时间为所述目标视频的前期时间、中期时间或后期时间时,从所述提示信息库中调用分别对应于所述前期时间、中期时间或后期时间的前期信息、中期信息或后期信息,将所述前期信息、中期信息或后期信息作为对应于所述目标视频的提示信息,所述前期时间、中期时间或后期时间分别为所述提示信息库中对应于目标视频的片头、片中和片尾的提示时间,所述前期信息、中期信息和后期信息分别为所述提示信息库中对应目标视频的片头、片中和片尾的高频词语;
和/或,当确定所述当前时间为所述提示信息库中的提示时间时,根据所述提示信息库中预存的提示时间与推荐场景信息的对应关系调用对应的推荐场景信息,将所述推荐场景信息作为对应于所述目标视频的提示信息。
3.根据权利要求1所述的视频播放提示信息处理方法,其特征在于,所述播放信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括因场景信息、间隔时长和果场景信息的对应关系,和/或,所述提示信息库包括前景片段特征与预测场景信息的对应关系,则所述根据所述播放信息和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得片段特征,当确定所述片段特征符合因片段时,确定该因片段在所述提示信息库中的因场景信息,根据所述提示信息库中预存的因场景信息、间隔时长和果场景信息的对应关系调用对应的间隔时长和果场景信息,将所述间隔时长和果场景信息作为目标视频的提示信息;其中,所述因场景信息和所述果场景信息分别为因片段和果片段对应的提示信息;
和/或,对所述片段内容进行分析获得前景片段特征,并根据预存的前景片段特征与预测场景信息的对应关系确定对应的预测场景信息,将预测场景信息作为所述目标视频的提示信息。
4.根据权利要求2所述的视频播放提示信息处理方法,其特征在于,还包括提示信息库的生成步骤,所述步骤包括:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,根据聚类处理的结果获取所述点播视频中预设的多个时间段上对应的高频词语,并为所述预设的多个时间段分别设置提示时间,为同一时间段上的所述高频词语和提示时间建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分类,确定各片段对应的推荐场景信息,并为各片段配置对应的提示时间,为同一片段上的所述提示时间和推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库,所述推荐场景信息为所述提示时间之后要出现的片段的提示信息;
和/或,
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;其中,所述场景分析模型为样本视频片段的片段特征和对应的场景类别通过神经网络模型训练得到;
和/或,
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频中的片段,为各片段配置对应的推荐场景信息和提示时间,将各片段对应的所述提示时间和对应的推荐场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
5.根据权利要求3所述的视频播放提示信息处理方法,其特征在于,还包括提示信息库的生成步骤,所述步骤包括:
根据点播视频的视频标签获取第二历史时间段内播放点播视频以及播放与所述视频标签对应的相关视频所产生的弹幕文本和/或评论文本;
对所述弹幕文本和/或评论文本进行聚类处理,确定点播视频中的片段,并根据聚类处理的结果获取各片段对应的高频词语,根据所述高频词语对各片段进行场景分析,确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述间隔时长、因场景信息和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,
采用预先构建的场景分析模型对点播视频进行场景分析确定视频中的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库;
和/或,
根据直播视频的视频标签获取预告信息,所述预告信息是在第二历史时间段内通过分析与所述视频标签对应的相关网文所产生的信息,对所述预告信息进行划分处理确定直播视频的片段,根据各片段确定对应的因片段和果片段,为因片段和果片段配置对应的因场景信息、果场景信息和间隔时长,将对应的因片段和果片段的所述因场景信息、间隔时长和果场景信息建立对应关系,并将各对应关系进行集合,得到提示信息库。
6.根据权利要求3所述的视频播放提示信息处理方法,其特征在于,还包括提示信息库的生成步骤,所述步骤包括:
获取已知场景类别的样本视频片段,对样本视频片段进行分析得到对应的前景片段特征;
将样本视频片段的前景片段特征和对应的场景类别输入到神经网络模型中进行训练,获得场景分析模型;
根据场景分析模型提取经训练优化后的前景片段特征,为前景片段特征配置对应的预测场景信息;
建立前景片段特征和预测场景信息的对应关系,将各对应关系进行集合,得到提示信息库。
7.根据权利要求1所述的视频播放提示信息处理方法,其特征在于,所述播放信息包括片段内容,所述片段内容为目标视频中的早于视频播放过程中当前时间的第一历史时间段的视频片段,所述提示信息库包括人物标签与人物信息的对应关系,则所述根据所述播放信息和所述提示信息库确定所述目标视频的提示信息,包括:
对所述片段内容进行分析获得人脸特征,当所述人脸特征符合所述人脸信息库中的人物标签时,根据所述人脸信息库中预存的人物标签与人物信息的对应关系调用对应的人物信息,将人物信息作为对应于所述片段内容的提示信息。
8.一种视频播放提示信息处理装置,其特征在于,包括:
获取模块,用于获取目标视频的视频标签和播放信息,所述目标视频为用户在目标终端上正在播放的视频,所述播放信息为在视频播放过程中获取的信息;
确定模块,用于根据所述视频标签确定对应于所述目标视频的提示信息库,所述提示信息库包括在视频播放过程中对视频内容进行提示的信息;
处理模块,用于根据所述提示播放参考信息和所述提示信息库确定所述目标视频在播放过程中的提示信息。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述视频播放提示信息处理方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项权利要求所述视频播放提示信息处理方法的步骤。
CN202010230201.6A 2020-03-27 2020-03-27 视频播放提示信息处理方法、装置、电子设备及存储介质 Active CN111372116B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010230201.6A CN111372116B (zh) 2020-03-27 2020-03-27 视频播放提示信息处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010230201.6A CN111372116B (zh) 2020-03-27 2020-03-27 视频播放提示信息处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111372116A true CN111372116A (zh) 2020-07-03
CN111372116B CN111372116B (zh) 2023-01-03

Family

ID=71209224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010230201.6A Active CN111372116B (zh) 2020-03-27 2020-03-27 视频播放提示信息处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111372116B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112291589A (zh) * 2020-10-29 2021-01-29 腾讯科技(深圳)有限公司 视频文件的结构检测方法、装置
CN112423077A (zh) * 2020-10-15 2021-02-26 深圳Tcl新技术有限公司 视频播放方法、装置、设备和存储介质
CN113792183A (zh) * 2021-09-17 2021-12-14 咪咕数字传媒有限公司 一种文本生成方法、装置及计算设备
CN113810730A (zh) * 2021-09-17 2021-12-17 咪咕数字传媒有限公司 基于视频的实时文本生成方法、装置及计算设备

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120328267A1 (en) * 2011-06-24 2012-12-27 General Instrument Corporation Method and device for optimizing storage of recorded video programs
CN105578209A (zh) * 2015-12-16 2016-05-11 广州酷狗计算机科技有限公司 弹幕显示方法及装置
CN105812956A (zh) * 2016-03-18 2016-07-27 广州酷狗计算机科技有限公司 视频直播过程中的节目信息提示方法及装置
CN105847859A (zh) * 2016-03-29 2016-08-10 乐视控股(北京)有限公司 一种视频的预警方法及装置
WO2017092324A1 (zh) * 2015-12-01 2017-06-08 乐视控股(北京)有限公司 视频片段的展示方法及系统
CN108471551A (zh) * 2018-03-23 2018-08-31 上海哔哩哔哩科技有限公司 基于主体识别的视频主体信息显示方法、装置、系统和介质
CN108882024A (zh) * 2018-08-01 2018-11-23 北京奇艺世纪科技有限公司 一种视频播放方法、装置及电子设备
CN109089172A (zh) * 2018-04-11 2018-12-25 北京奇艺世纪科技有限公司 一种弹幕显示方法、装置及电子设备
CN109104630A (zh) * 2018-08-31 2018-12-28 北京优酷科技有限公司 视频互动方法及装置
CN109933691A (zh) * 2019-02-11 2019-06-25 北京百度网讯科技有限公司 用于内容检索的方法、装置、设备和存储介质
CN110198491A (zh) * 2019-05-28 2019-09-03 北京奇艺世纪科技有限公司 一种视频分享方法及装置
CN110291794A (zh) * 2016-12-19 2019-09-27 三星电子株式会社 用于对视频进行过滤的方法和设备
CN110677735A (zh) * 2019-10-17 2020-01-10 网易(杭州)网络有限公司 一种视频定位方法和装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120328267A1 (en) * 2011-06-24 2012-12-27 General Instrument Corporation Method and device for optimizing storage of recorded video programs
WO2017092324A1 (zh) * 2015-12-01 2017-06-08 乐视控股(北京)有限公司 视频片段的展示方法及系统
CN105578209A (zh) * 2015-12-16 2016-05-11 广州酷狗计算机科技有限公司 弹幕显示方法及装置
CN105812956A (zh) * 2016-03-18 2016-07-27 广州酷狗计算机科技有限公司 视频直播过程中的节目信息提示方法及装置
CN105847859A (zh) * 2016-03-29 2016-08-10 乐视控股(北京)有限公司 一种视频的预警方法及装置
CN110291794A (zh) * 2016-12-19 2019-09-27 三星电子株式会社 用于对视频进行过滤的方法和设备
CN108471551A (zh) * 2018-03-23 2018-08-31 上海哔哩哔哩科技有限公司 基于主体识别的视频主体信息显示方法、装置、系统和介质
CN109089172A (zh) * 2018-04-11 2018-12-25 北京奇艺世纪科技有限公司 一种弹幕显示方法、装置及电子设备
CN108882024A (zh) * 2018-08-01 2018-11-23 北京奇艺世纪科技有限公司 一种视频播放方法、装置及电子设备
CN109104630A (zh) * 2018-08-31 2018-12-28 北京优酷科技有限公司 视频互动方法及装置
CN109933691A (zh) * 2019-02-11 2019-06-25 北京百度网讯科技有限公司 用于内容检索的方法、装置、设备和存储介质
CN110198491A (zh) * 2019-05-28 2019-09-03 北京奇艺世纪科技有限公司 一种视频分享方法及装置
CN110677735A (zh) * 2019-10-17 2020-01-10 网易(杭州)网络有限公司 一种视频定位方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WEIGUO ZHENG: "Adaptive motion search with elastic diamond for MPEG-4 video coding", 《 PROCEEDINGS 2001 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (CAT. NO.01CH37205)》 *
金琬君: "弹幕视频使用动机差异及动机对参与程度、依赖程度的影响", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112423077A (zh) * 2020-10-15 2021-02-26 深圳Tcl新技术有限公司 视频播放方法、装置、设备和存储介质
CN112291589A (zh) * 2020-10-29 2021-01-29 腾讯科技(深圳)有限公司 视频文件的结构检测方法、装置
CN112291589B (zh) * 2020-10-29 2023-09-22 腾讯科技(深圳)有限公司 视频文件的结构检测方法、装置
CN113792183A (zh) * 2021-09-17 2021-12-14 咪咕数字传媒有限公司 一种文本生成方法、装置及计算设备
CN113810730A (zh) * 2021-09-17 2021-12-17 咪咕数字传媒有限公司 基于视频的实时文本生成方法、装置及计算设备
CN113810730B (zh) * 2021-09-17 2023-08-01 咪咕数字传媒有限公司 基于视频的实时文本生成方法、装置及计算设备
CN113792183B (zh) * 2021-09-17 2023-09-08 咪咕数字传媒有限公司 一种文本生成方法、装置及计算设备

Also Published As

Publication number Publication date
CN111372116B (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
CN111372116B (zh) 视频播放提示信息处理方法、装置、电子设备及存储介质
CN106792100B (zh) 一种视频弹幕显示方法及装置
CN109377293B (zh) 广告投放效果监控方法及系统
CN108366278B (zh) 一种视频播放中的用户交互实现方法及装置
JP5795580B2 (ja) タイムベースメディアにおけるソーシャルインタレストの推定および表示
CN107615766A (zh) 用于创建和分配多媒体内容的系统和方法
CN104486649B (zh) 视频内容评级方法及装置
CN103718166A (zh) 信息处理设备、信息处理方法和计算机程序产品
US11678029B2 (en) Video labeling method and apparatus, device, and computer-readable storage medium
CN107547922B (zh) 信息处理方法、装置、系统及计算机可读存储介质
CN111277910A (zh) 弹幕显示方法、装置、电子设备及存储介质
CN110856039A (zh) 视频处理方法及装置、存储介质
CN112653918B (zh) 预览视频生成方法、装置、电子设备及存储介质
CN113422988B (zh) 直播封面生成方法、装置、电子设备及存储介质
CN113038185B (zh) 弹幕处理方法及装置
CN112507163A (zh) 时长预测模型训练方法、推荐方法、装置、设备及介质
CN110072140A (zh) 一种视频信息提示方法、装置、设备及存储介质
CN113766268B (zh) 视频处理方法、装置、电子设备和可读介质
US8913869B2 (en) Video playback apparatus and video playback method
CN112199582A (zh) 一种内容推荐方法、装置、设备及介质
US20140012792A1 (en) Systems and methods for building a virtual social network
CN107343221B (zh) 一种在线多媒体互动系统及方法
CN110602483B (zh) 视频故障确定方法、装置及计算机可读存储介质
US20170139933A1 (en) Electronic Device, And Computer-Readable Storage Medium For Quickly Searching Video Segments
CN113542845B (zh) 一种信息展示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant