CN114697741B - 多媒体信息的播放控制方法及相关设备 - Google Patents

多媒体信息的播放控制方法及相关设备 Download PDF

Info

Publication number
CN114697741B
CN114697741B CN202011643263.6A CN202011643263A CN114697741B CN 114697741 B CN114697741 B CN 114697741B CN 202011643263 A CN202011643263 A CN 202011643263A CN 114697741 B CN114697741 B CN 114697741B
Authority
CN
China
Prior art keywords
current
target
training
highlight
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011643263.6A
Other languages
English (en)
Other versions
CN114697741A (zh
Inventor
袁微
田思达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011643263.6A priority Critical patent/CN114697741B/zh
Publication of CN114697741A publication Critical patent/CN114697741A/zh
Application granted granted Critical
Publication of CN114697741B publication Critical patent/CN114697741B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本公开提供了一种多媒体信息的播放控制方法及相关设备,属于计算机与通信技术领域。该方法包括:确定当前多媒体信息;定位所述当前多媒体信息中的精彩事件的起止时间序列;根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;获得与所述当前精彩片段匹配的目标自动描述信息,目标自动描述信息包括当前精彩片段的多维度标签识别结果;播放所述当前精彩片段的同时,展示所述目标自动描述信息。通过本公开实施例提供的技术方案,可以自动定位当前多媒体信息中的当前精彩片段,并给出与之匹配的目标自动描述信息,可以基于人工智能技术来实现,并可适用于虚拟游戏的视频场景。

Description

多媒体信息的播放控制方法及相关设备
技术领域
本公开涉及计算机和通信技术领域,具体而言,涉及一种多媒体信息的播放控制方法及装置、计算机可读存储介质、电子设备。
背景技术
相关技术中,在多媒体信息例如视频的编辑过程中至少存在以下问题:
第一,当需要对该多媒体信息添加描述信息例如解说与弹幕时,一般采用人工解说与输入弹幕,人工解说与输入弹幕需要耗费较多的人力资源,效率低,添加速度慢,且容易出现人为差错。
第二,当需要剪辑出该多媒体信息中的精彩片段时,难以准确定位出所有精彩片段,导致剪辑出来的精彩时刻中混入背景时刻,或者漏剪精彩部分。
因此,需要一种新的多媒体信息的播放控制方法及装置、计算机可读存储介质、电子设备。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解。
发明内容
本公开实施例提供一种多媒体信息的播放控制方法及装置、计算机可读存储介质、电子设备,能够解决上述相关技术中存在的难以自动准确定位出精彩片段且无法自动对精彩片段匹配描述信息的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本公开实施例提供一种多媒体信息的播放控制方法,所述方法包括:确定当前多媒体信息;定位所述当前多媒体信息中的精彩事件的起止时间序列;根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果;播放所述当前精彩片段的同时,展示所述目标自动描述信息。
本公开实施例提供一种多媒体信息的播放控制装置,所述装置包括:多媒体信息确定单元,用于确定当前多媒体信息;起止时间序列定位单元,用于定位所述当前多媒体信息中的精彩事件的起止时间序列;当前精彩片段剪辑单元,用于根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;自动描述信息获得单元,用于获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果;片段描述同时播放单元,用于播放所述当前精彩片段的同时,展示所述目标自动描述信息。
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中所述的多媒体信息的播放控制方法。
本公开实施例提供了一种电子设备,包括:至少一个处理器;存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如上述实施例中所述的多媒体信息的播放控制方法。
在本公开的一些实施例所提供的技术方案中,一方面,通过定位当前多媒体信息中的精彩事件的起止时间序列,能够准确剪辑出当前多媒体信息中的全部当前精彩片段;另一方面,还能够自动生成与每个当前精彩片段匹配的目标自动描述信息,并在该目标自动描述信息中包括了各个当前精彩片段的多维度标签识别结果。在实际业务场景中可以替代人工剪辑当前多媒体信息例如视频与编辑解说和弹幕,节约大量的人工成本并减少人为误差。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程图。
图2示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程图。
图3示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。
图4示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。
图5示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。
图6示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。
图7示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的示意图。
图8示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的界面示意图。
图9示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的界面示意图。
图10示意性示出了根据本公开的一实施例的多媒体信息的播放控制装置的框图。
图11示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
本公开所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图仅为本公开的示意性图解,图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在至少一个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和步骤,也不是必须按所描述的顺序执行。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本说明书中,用语“一个”、“一”、“该”、“所述”和“至少一个”用以表示存在至少一个要素/组成部分/等;用语“包含”、“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”、“第二”和“第三”等仅作为标记使用,不是对其对象的数量限制。
下面结合附图对本公开示例实施方式进行详细说明。
基于上述相关技术中存在的技术问题,本公开实施例提出了一种多媒体信息的播放控制方法,以用于至少部分解决上述问题。本公开各实施例提供的方法可以由任意的电子设备来执行,例如服务器,或者终端,或者服务器与终端之间进行交互,本公开对此不做限定。
本公开实施例中的服务器可以是独立的服务器,也可以是多个服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
本公开实施例中的终端为可以进行多媒体播放的终端,例如可以是个人电脑(Personal Computer,PC)、平板电脑、个人数字助理(Personal DigitalAssistant,PDA)、笔记本和手机等终端设备,还可以包括各种便携式、袖珍式、手持式、计算机内置的或者车载的移动装置。
图1示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程图。如图1所示,本公开实施例提供的方法可以包括以下步骤。
在步骤S110中,确定当前多媒体信息。
本公开实施例中,媒体是指承载和传输某种信息或物质的载体。在计算机领域中,媒体主要是传输和存储信息的载体,其中传输的信息包括语音、文字、数据、视频、音频等。存储信息的载体包括硬盘、软盘、磁带、磁盘、光盘等。当前多媒体信息是把各种媒体的功能进行整合,在交互式界面上以文字材料、影像、音频及视频等形式展示,提供多种形式的多样化信息的展现。
在下面的举例说明中,以当前多媒体信息为虚拟游戏为例进行举例说明,但本公开并不限定于此。本公开实施例提供的方法可以通过多种形式应用于虚拟游戏的视频剪辑方案中。以web(网络)接口为例,用户可以通过终端上传一段虚拟游戏的视频或者虚拟游戏的视频URL(Uniform Resource Locator,统一资源定位符),web接口将该虚拟游戏的视频传输给服务器。
在步骤S120中,定位所述当前多媒体信息中的精彩事件的起止时间序列。
本公开实施例中,精彩事件是指当前多媒体信息中出现的一些相比该当前多媒体信息中的大部分事件具有超常表现的事件,让用户能够产生出乎意料感觉的事件。在不同的应用场景中,精彩事件可以有不同的设置。例如若当前多媒体信息为音乐,则精彩事件可以是该音乐中的歌唱高潮部分,让听众能够产生被打动感觉的歌词部分。再例如若当前多媒体信息为电影,则精彩事件可以是该电影中让人悲伤、兴奋、高兴等的视频片段。再例如若当前多媒体信息为虚拟游戏的视频,则精彩事件可以是该虚拟游戏的视频中让人感觉兴奋的视频片段,例如团战、击败人、逃生等精彩画面。当前多媒体信息中包括精彩事件的画面称之为精彩画面,其对应的时刻称之为精彩时刻;不包括精彩事件的画面称之为非精彩画面或者背景画面,其对应的时刻称之为背景时刻或者非精彩时刻。
起止时间是指精彩事件发生的起始时间和结束时间,起止时间序列是指多个精彩事件的起止时间按照时间顺序排列形成的序列。定位所述当前多媒体信息中的精彩事件的起止时间序列的实现方式可以参照下图2实施例的描述。
在步骤S130中,根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段。
当确定了当前多媒体信息中的每个精彩事件的起始时间和结束时间后,从可以据此从当前多媒体信息中剪辑出包括每个精彩事件的每个当前精彩片段。
在步骤S140中,获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果。
本公开实施例中,描述信息是指用于描述当前精彩片段的语音、文字、图片等任意形式的信息。自动描述信息是指该描述信息是服务器或者终端自动生成的,而非用户手动输入或者添加的。目标自动描述信息是指与当前精彩片段中的精彩事件相匹配、内容上具有关联性的自动描述信息。
在步骤S150中,播放所述当前精彩片段的同时,展示所述目标自动描述信息。
本公开实施例中,终端上可以按照有多媒体客户端,多媒体客户端是主要用于多媒体播放处理的客户端,例如视频客户端和音乐播放器等,客户端可以是第三方应用程序。在一些实施例中,终端可以通过多媒体客户端播放当前多媒体信息,并在播放到当前精彩片段的同时,展示相应的目标自动描述信息。可以理解的是,终端也可以通过网页播放当前多媒体信息,并在播放到当前精彩片段的同时,展示相应的目标自动描述信息。
以当前多媒体信息为虚拟游戏的视频为例,该虚拟游戏的视频可以包括直播平台的游戏直播视频,此时多媒体客户端可以为播放游戏直播视频的客户端,比如游戏客户端。
本公开实施方式提供的多媒体信息的播放控制方法,一方面,通过定位当前多媒体信息中的精彩事件的起止时间序列,能够准确剪辑出当前多媒体信息中的全部当前精彩片段;另一方面,还能够自动生成与每个当前精彩片段匹配的目标自动描述信息。在实际业务场景中可以替代人工剪辑当前多媒体信息例如视频与编辑解说和弹幕,节约大量的人工成本并减少人为误差。
图2示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程图。如图2所示,本公开实施例提供的方法可以包括以下步骤。
图2实施例中的步骤S110可以参照上述图1实施例。
在步骤S120中,定位所述当前多媒体信息中的精彩事件的起止时间序列。图2实施例中,步骤S120可以进一步包括步骤S121-步骤S124。
在步骤S121中,获得所述当前多媒体信息的当前视频特征矩阵。
获得所述当前多媒体信息的当前视频特征矩阵的方式可以参照下图4实施例。
在步骤S122中,获得所述当前多媒体信息的当前音频特征矩阵。
其中,获得所述当前多媒体信息的当前音频特征矩阵,可以包括:从所述当前多媒体信息中抽取当前音频文件;按预定长度滑窗提取所述当前音频文件中的当前音频序列;将所述当前音频序列中的当前音频依次输入至音频特征编码模型中,提取各当前音频的音频特征向量;按照时间序列拼接各当前音频的音频特征向量,获得所述当前多媒体信息的当前音频特征矩阵。
本公开实施例中,可以从当前多媒体信息例如虚拟游戏的视频中抽取当前音频文件(假设时长为t秒,t为大于或等于1的正整数,若实际的当前音频文件的时长不足整数秒,可以对其进行补齐),以预定长度滑窗(例如1秒,但本公开并不限定于此)提取当前音频序列(包括t个当前音频),将这t个当前音频依次输入到音频特征编码模型,用于提取各当前音频的音频特征向量,将各当前音频的音频特征向量(维度假设为m,m为大于或等于1的正整数)组成的序列在时间维度上拼接成时序特征矩阵,代表该虚拟游戏的视频的当前音频特征矩阵(维度为t*m)。
本公开实施例中,音频特征编码模型是指用于将输入的音频文件编码成音频特征向量的神经网络。在下面的举例说明中,采用在AudioSet公开数据集上训练好的VGGish网络作为音频特征编码模型,但本公开并不限定于此。
其中,AudioSet是一个标记的视频音轨组成的数据集,其标签来自多个音频事件类的本体。VGGish网络是在AudioSet公开数据集上预训练得到的VGG(Visual GeometryGroup,计算机视觉组)模型。VGGish支持从音频波形中提取具有语义的128维embedding(嵌入式)特征向量。即m=128,将每个预定长度滑窗的当前音频输入至VGGish网络,将VGGish网络的全连接层输出的t个128维的音频特征向量进行拼接,作为当前音频特征矩阵。
在步骤S123中,拼接所述当前视频特征矩阵和所述当前音频特征矩阵,获得所述当前多媒体信息的当前融合特征矩阵。
在步骤S124中,将所述当前融合特征矩阵输入至精彩片段时序定位模型中,确定所述当前多媒体信息中的精彩事件的起止时间序列。
本公开实施例中,精彩片段时序定位模型是指用于定位精彩事件发生的开始与结束时刻的网络。精彩片段时序定位模型的生成方式可以参照下图3实施例的描述。
图2实施例中的步骤S130-步骤S150可以参照上述图1实施例。
本公开实施方式提供的多媒体信息的播放控制方法,一方面,可以融合当前多媒体信息的当前视频特征矩阵和当前音频特征矩阵获得当前融合特征矩阵,并利用精彩片段时序定位模型处理该当前融合特征矩阵来自动定位当前多媒体信息中的精彩事件的起止时间序列,能够实现当前精彩片段定位的自动化、智能化,并能够提高定位的准确性和定位效率。
图3示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。如图3所示,与上述图2实施例的不同之处在于,在步骤S110之前,还可以进一步包括以下步骤S310-步骤S360,以用于训练获得精彩片段时序定位模型。
在步骤S310中,获得训练视频及所述训练视频中的精彩事件的标注起止时间对。
在数据标注阶段,可以将获得的全部视频样本划分为训练集和测试集,例如假设有100个视频样本,将其中80个划分至训练集,其中20个划分至测试集。将训练集中的视频样本称之为训练视频,将测试集中的视频样本称之为测试视频。对训练集中每个训练视频中出现的全部精彩事件(highlight),标注每个highlight发生的起始时间和结束时间,作为标注起止时间对。类似的,对测试集中每个测试视频中出现的全部精彩事件(highlight),标注每个highlight发生的起始时间和结束时间,作为标注起止时间对。测试集可以用于验证训练集的训练效果。
在步骤S320中,获得所述训练视频的训练视频特征矩阵。
在数据整理阶段,将全部训练视频与测试视频以固定频率(例如1FPS(Frame PerSecond,每秒帧数))进行抽帧,获得训练视频帧序列,将训练视频帧序列中的训练视频帧依次输入到视频特征编码模型,得到每个训练视频的训练视频特征矩阵。本公开实施例中的当前视频特征矩阵和训练视频特征矩阵均可以采用RGB特征矩阵,但本公开并不限定于此。
获得训练视频的训练视频特征矩阵的具体方式可以参照下图4实施例。
在步骤S330中,获得所述训练视频的训练音频特征矩阵。
其中,获得所述训练视频的训练音频特征矩阵,可以包括:从所述训练视频中抽取训练音频文件;按所述预定长度滑窗提取所述训练音频文件中的训练音频序列;将所述训练音频序列中的训练音频依次输入至音频特征编码模型中,提取各训练音频的音频特征向量;按照时间序列拼接各训练音频的音频特征向量,获得所述训练视频的训练音频特征矩阵。
例如,将全部训练视频与测试视频按照预定长度(例如1秒)滑窗抽取训练音频文件和测试音频文件。将每个预定长度滑窗的训练音频输入至VGGish网络,将VGGish网络的全连接层输出的t个128维的音频特征向量进行拼接,作为训练音频特征矩阵。
在步骤S340中,拼接所述训练视频特征矩阵和所述训练音频特征矩阵,获得所述训练视频的训练融合特征矩阵。
将上述步骤S320获得的每个训练视频的训练视频特征矩阵和步骤S330获得的训练音频特征矩阵进行拼接,获得每个训练视频的训练融合特征矩阵。
在步骤S350中,将所述训练融合特征矩阵输入至时序定位网络模型,获得所述训练视频中的精彩事件的预测起止时间对。
将拼接得到的每个训练视频的训练融合特征矩阵输入至时序定位网络模型,输出每个训练视频中的精彩事件的预测起止时间对,假设标记为{(开始时间,结束时间)|Xn},Xn为大于或等于0的整数,Xn是该训练视频中检测到的highlight数量。
在步骤S360中,根据所述预测起止时间对及其标注起止时间对训练所述时序定位网络模型,获得所述精彩片段时序定位模型。
根据步骤S350获得的预测起止时间对和步骤S310中的标注起止时间对计算损失函数,进行迭代,直至达到预定迭代次数(可以根据实际需求设置)或者损失函数收敛,获得精彩片段时序定位模型。
本公开实施例中,时序定位网络模型例如可以采用时间行为建议生成的边界敏感网络(Boundary sensitive network for temporal action proposal generation),但本公开并不限定于此。
本公开实施方式提供的多媒体信息的播放控制方法,可以预先训练获得精彩片段时序定位模型,以用于后续预测当前多媒体信息中的精彩事件的起止时间序列,实现起止时间序列预测的自动化和智能化,提高预测的准确性和效率。
图4示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。如图4所示,本公开实施例提供的方法可以包括以下步骤。
图4实施例中的步骤S310可以参照上述图3实施例。
在步骤S320中,获得所述训练视频的训练视频特征矩阵。在图4实施例中,上述步骤S320可以进一步包括步骤S321-步骤S325,以用于训练获得视频特征编码模型。
在步骤S321中,以所述视频抽帧率(例如1FPS,但本公开并不限定于此)对所述训练视频进行抽帧,获得训练视频帧序列。
在步骤S322中,根据所述训练视频帧序列中的训练视频帧是否处于所述标注起止时间对的标注时间区间内,确定各训练视频帧的标签为精彩画面或者背景画面。
根据上述数据标注阶段标注的训练视频中的精彩事件的标注起止时间对,将在标注时间区间内的训练视频帧的标签确定为精彩画面,将不在任一标注时间区间内的训练视频帧的标签确定为背景画面或非精彩画面。
在步骤S323中,利用标签为所述精彩画面或所述背景画面的各训练视频帧训练卷积神经网络模型,获得精彩背景图像二分类网络模型,其中所述精彩背景图像二分类网络模型包括分类层。
本公开实施例中,可以使用任意的卷积神经网络模型训练获得精彩背景图像二分类网络模型,在下面的举例说明中,以MobileNet为例进行举例说明,但本公开并不限定于此。MobileNet是一种小巧而高效的CNN(Convolutional Neural Networks,卷积神经网络)模型,其能够在模型性能(accuracy准确性)和模型速度(speed,low latency低延迟)之间做较好的平衡。
例如,使用上述标签为背景画面或精彩画面的训练视频帧训练MobileNet,得到一个2分类(精彩画面+背景画面)的图像分类网络作为精彩背景图像二分类网络模型。
在步骤S324中,将训练获得的所述精彩背景图像二分类网络模型剔除所述分类层,作为所述视频特征编码模型。
MobileNet的网络结构首先是一个3x3的标准卷积,然后是堆积depthwiseseparable convolution(深度可分卷积),然后采用average pooling(平均池化)将feature(特征)变成1x1,根据预测类别大小(这里为二分类)加上全连接层,最后是一个softmax层(称之为分类层)。将训练好的MobileNet除最后的softmax以外的其他结构作为视频特征编码模型。
在步骤S325中,按照时间顺序拼接所述视频特征编码模型输出的各训练视频帧的视频特征向量,获得所述训练视频的训练视频特征矩阵。
将上述训练过程中每个训练视频帧输入至该视频特征编码模型,该视频特征编码模型最后的全连接层输出的1280维的视频特征向量拼接作为对应训练视频的训练视频特征矩阵。例如,假设某个训练视频为100秒时长,按照1FPS抽帧,将全部抽出的100帧训练视频帧的1280维视频特征向量拼接成100*1280的训练视频特征矩阵。
圆圈中的1代表省略了上述实施例中的步骤S330-S360和步骤S110。
在步骤S120中,定位所述当前多媒体信息中的精彩事件的起止时间序列。
在步骤S121中,获得所述当前多媒体信息的当前视频特征矩阵。在图4实施例中,上述步骤S121可以进一步包括步骤S1211-步骤S1213。
在步骤S1211中,按视频抽帧率对所述当前多媒体信息进行抽帧,获得当前视频帧序列。
在步骤S1212中,将所述当前视频帧序列中的当前视频帧依次输入至视频特征编码模型中,提取各当前视频帧的视频特征向量。
本公开实施例中,视频特征编码模型是指用于将输入的视频帧序列(包括当前视频帧序列和训练视频帧序列)例如RGB图像序列编码成视频特征向量的神经网络。
在步骤S1213中,按照时间顺序拼接各当前视频帧的视频特征向量,获得所述当前多媒体信息的当前视频特征矩阵。
按固定时间间隔(视频抽帧率例如为1秒)对当前多媒体信息例如虚拟游戏的视频(时长假设为t秒)进行抽帧,获得包括t帧当前视频帧的当前视频帧序列,将当前视频帧序列依次输入到视频特征编码模型,用于提取RGB特征,将RGB特征向量(维度n)作为视频特征向量形成序列,在时间维度上拼接成时序特征矩阵,代表该虚拟游戏的视频的RGB特征矩阵(即当前视频特征矩阵,维度为t*n)。
圆圈中的2代表省略了上述实施例中的步骤S122-步骤S124。
将上述获得的t*n维的当前视频特征矩阵和t*m维的当前音频特征矩阵进行融合拼接,拼接后获得的当前融合特征矩阵维度为t*(n+m)。将得到的当前融合特征矩阵输入到精彩片段时序定位模型,得到全部精彩事件发生的起止时间序列,并剪辑出当前精彩片段。
圆圈中的3代表省略了上述实施例中的步骤S130-步骤S150。
本公开实施方式提供的多媒体信息的播放控制方法,可以预先训练获得精彩背景图像二分类网络模型,然后剔除该精彩背景图像二分类网络模型中最后的softmax层作为视频特征编码模型,从而使得后续可以利用该视频特征编码模型输出当前多媒体信息的当前视频特征矩阵,可以实现视频特征的自动提取,提高视频特征提取的效率和智能化。
图5示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。如图5所示,本公开实施例提供的方法可以包括以下步骤。
图5实施例的步骤S110-步骤S130可以参照上述图1至图4实施例。
在步骤S140中,获得与所述当前精彩片段匹配的目标自动描述信息。在图5实施例中,上述步骤S140可以进一步包括以下步骤S141-步骤S143。
在步骤S141中,利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的多维度标签识别结果。
相关技术中,缺少从多维度给出当前多媒体信息例如虚拟游戏的视频中的当前精彩片段的标签的能力。本公开实施例中的多维度标签识别模型可以使用多种图像分类网络来给出当前精彩片段中的精彩画面的多种维度标签,结合识别出的多种维度标签,可以自动生成准确的目标自动描述信息。
在步骤S142中,综合所述当前精彩片段的多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果。
在步骤S143中,根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息。
在示例性实施例中,所述目标描述信息可以包括目标自动解说。其中,根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息,可以包括:获得解说模板;根据所述解说模板和所述目标标签分类结果,确定所述目标自动解说。
当用户利用终端查看新闻、观看视频、听音乐、玩网络游戏,或者观看电竞玩家在电竞比赛中的虚拟游戏的视频、体育比赛的直播视频、转播视频等,但是对于一些非专业用户在观看虚拟游戏的视频、体育比赛视频时,需要借助一定的解说才能更好地了解比赛形式,增强用户对比赛的理解等。本公开实施例中,可以使用算法自动定位出当前多媒体信息例如虚拟游戏的视频中的全部当前精彩片段,并对其发生的精彩事件进行文字、语音等至少一种形式的描述,称之为目标自动解说。
在示例性实施例中,所述目标描述信息可以包括目标自动弹幕。其中,根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息,可以包括:获得弹幕语料库,所述弹幕语料库包括每个标签分类结果及其对应的弹幕语料,所述标签分类结果包括所述目标标签分类结果;根据所述目标标签分类结果从所述弹幕语料库中匹配获得目标弹幕语料作为所述目标自动弹幕。
本公开实施例中,弹幕是指在网络上观看当前多媒体信息时弹出的评论性字幕,以实现在观看多媒体过程中的互动。例如,很多视频客户端(也可以是音乐播放器、新闻客户端等)都提供评论功能,用户在线观看某个视频内容时,用户可以手动输入发表评论,该评论内容会在同时观看该相同视频的其他用户的视频窗口上显示,这样的评论可以称之为弹幕。而目标自动弹幕是指使用算法自动定位出当前多媒体信息中的当前精彩片段,对每个精彩片段自动生成的至少一句弹幕描述。
需要说明的是,目标自动描述信息不限于上述例举的目标自动解说和目标自动弹幕两种方式,且目标自动描述信息可以包括目标自动解说或者目标自动弹幕,或者同时包括目标自动解说和目标自动弹幕,在下面的举例说明中,以同时包括目标自动解说和目标自动弹幕为例进行举例说明。
图5实施例的步骤S150可以参照上述图1至图4实施例。
本公开实施方式提供的多媒体信息的播放控制方法,可以通过多维度标签识别模型自动识别出当前精彩片段的多维度标签识别结果,根据该多维度标签识别结果可以获得当前精彩片段的目标标签分类结果,据此可以获得与该当前精彩片段匹配的目标自动描述信息,例如目标自动解说和/或目标自动弹幕,一方面,实现了解说和弹幕的自动生成;另一方面,基于多维度标签可以提高生成的解说和弹幕与当前精彩片段的关联度,使得解说和弹幕契合当前精彩片段中的精彩事件。
图6示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的流程示意图。本公开实施例中,以当前多媒体信息为虚拟游戏的视频为例,所述多维度标签识别模型可以包括英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型,所述多维度标签识别结果可以包括目标英雄、目标团战规模、目标我方敌方人数、目标能量、目标越塔识别结果、目标闪现识别结果、目标播报文字识别结果和目标播报框颜色识别结果。如图6所示,本公开实施例提供的方法可以包括以下步骤。
图6实施例中的圆圈中的4代表省略了上述图5实施例中的步骤S110-步骤S130。
在步骤S140中,获得与所述当前精彩片段匹配的目标自动描述信息。在图6实施例中,上述步骤S140可以进一步包括以下步骤S141-步骤S143。
在步骤S141中,利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的多维度标签识别结果。在图6实施例中,上述步骤S141可以进一步包括以下步骤S1411-步骤S1413。
在步骤S1411中,分别确定所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型的第一至第八抽帧率和第一至第八空间抠图区域。
在步骤S1412中,对所述当前精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八当前图像帧序列。
本公开实施例中,将获得的当前精彩片段依次输入到多维度标签识别模型,这里假设多维度标签识别模型包括英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型这8个图像分类网络,对每个当前精彩片段按照不同的特定时间间隔(不同的抽帧率,将对应这8个图像分类网络的抽帧率分别定义为第一抽帧率、第二抽帧率、第三抽帧率、第四抽帧率、第五抽帧率、第六抽帧率、第七抽帧率和第八抽帧率),以及不同的特定空间位置(不同的空间抠图区域,将对应这8个图像分类网络的空间抠图区域分别定义为第一空间抠图区域、第二空间抠图区域、第三空间抠图区域、第四空间抠图区域、第五空间抠图区域、第六空间抠图区域、第七空间抠图区域和第八空间抠图区域)抽帧,获得第一当前图像帧序列、第二当前图像帧序列、第三当前图像帧序列、第四当前图像帧序列、第五当前图像帧序列、第六当前图像帧序列、第七当前图像帧序列和第八当前图像帧序列。
在步骤S1413中,将第一至第八当前图像帧序列中的当前图像帧分别输入至所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型,确定所述当前精彩片段中的所述目标英雄、所述目标团战规模、所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果。
将第一当前图像帧序列中的当前图像帧输入至英雄识别模型,得到目标英雄;将第二当前图像帧序列中的当前图像帧输入至团战规模识别模型,得到目标团战规模;将第三当前图像帧序列中的当前图像帧输入至我方敌方人数识别模型,得到目标我方敌方人数;将第四当前图像帧序列中的当前图像帧输入至能量识别模型,得到目标能量;将第五当前图像帧序列中的当前图像帧输入至越塔识别模型,得到目标越塔识别结果;将第六当前图像帧序列中的当前图像帧输入至闪现识别模型,得到目标闪现识别结果;将第七当前图像帧序列中的当前图像帧输入至播报文字识别模型,得到目标播报文字识别结果;将第八当前图像帧序列中的当前图像帧输入至播报框颜色识别模型,得到目标播报框颜色识别结果,即可以得到8种维度的标签。
在示例性实施例中,所述方法还可以包括:获得训练视频及所述训练视频中的精彩事件的标注起止时间对;根据所述标注起止时间对从所述训练视频中剪辑出训练精彩片段;对所述训练精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八训练图像帧序列;分别获得第一至第八训练图像帧序列中的训练图像帧的英雄标签、团战规模标签、我方敌方人数标签、能量标签、越塔标签、闪现标签、播报文字标签和播报框颜色标签;将第一至第八训练图像帧序列中的训练图像帧分别输入至第一至第八图像分类模型,输出其预测英雄、预测团战规模、预测我方敌方人数、预测能量、预测越塔、预测闪现、预测播报文字和预测播报框颜色;根据所述英雄标签及其预测英雄训练所述第一图像分类模型,获得所述英雄识别模型;根据所述团战规模标签及其预测团战规模训练所述第二图像分类模型,获得所述团战规模识别模型;根据所述我方敌方人数标签及其预测我方敌方人数训练所述第三图像分类模型,获得所述我方敌方人数识别模型;根据所述能量标签及其预测能量训练所述第四图像分类模型,获得所述能量识别模型;根据所述越塔标签及其预测越塔训练所述第五图像分类模型,获得所述越塔识别模型;根据所述闪现标签及其预测闪现训练所述第六图像分类模型,获得所述闪现识别模型;根据所述播报文字标签及其预测播报文字训练所述第七图像分类模型,获得所述播报文字识别模型;根据所述播报框颜色标签及其预测播报框颜色训练所述第八图像分类模型,获得所述播报框颜色识别模型。
下面还是以虚拟游戏的视频来举例说明如何训练获得多维度标签识别模型。
在上述数据标注基础上,根据标注起止时间对从训练视频中剪辑出训练精彩片段,对训练精彩片段分别进行抽帧,获得第一训练图像帧序列、第二训练图像帧序列、第三训练图像帧序列、第四训练图像帧序列、第五训练图像帧序列、第六训练图像帧序列、第七训练图像帧序列和第八训练图像帧序列,并分别对第一训练图像帧序列、第二训练图像帧序列、第三训练图像帧序列、第四训练图像帧序列、第五训练图像帧序列、第六训练图像帧序列、第七训练图像帧序列和第八训练图像帧序列中的训练图像帧添加多维度标签标注,例如英雄标签、团战规模标签、我方敌方人数标签、能量标签、越塔标签、闪现标签、播报文字标签和播报框颜色标签,标签内容、第一至第八抽帧率以及第一至第八抠图空间区域可以参见下表1。其中,抠图是图像处理中的操作之一,是把图片或影像的某一部分从原始图片或影像中分离出来成为单独的图层。
表1多维度标签训练数据标注
Figure GDA0003897939160000171
Figure GDA0003897939160000181
上述表1中,之所以给不同图像分类网络设置不同的空间抠图区域和抽帧率,是考虑到不同图像分类网络要识别的区域及该区域的大小不同。例如,能量识别只需要抠出能量那个位置的图片做分类,对于整张大图,网络是较难关注到能量那部分的。再例如,一场比赛的英雄开局前已确定,不会变,抽帧可以稀疏些。
上表1中,scale表示图片resize(调整大小)后的尺寸,例如“-1:240”代表“高resize到240像素,宽按比例”。crop表示抠图位置,W表示抠出的小图的宽,H表示抠出的小图的高,X表示抠图的左上角x坐标,Y表示抠图的左上角y坐标,iw表示原图的宽的长度,ih表示原图的高的长度。
模型训练:使用得到的8组训练图像帧的数据分别训练CNN网络例如MobileNet,获得英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型8个特定的图像分类网络,用于预测输出当前图像帧的8组标签。
在步骤S142中,综合所述当前精彩片段的多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果。
在示例性实施例中,所述目标标签分类结果可以包括所述目标英雄、所述目标团战规模、目标击败类型、目标逃生类型和目标击败数。
其中,图6实施例中上述步骤S142还可以进一步包括步骤S1421。
在步骤S1421中,根据所述当前精彩片段中的所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果,确定所述当前精彩片段的所述目标击败类型、所述目标逃生类型和所述目标击败数。
综合上述获得的目标我方敌方人数、目标能量、目标越塔识别结果、目标闪现识别结果、目标播报文字识别结果和目标播报框颜色识别结果,可以获得目标击败类型、目标逃生类型和目标击败数。
例如若目标我方敌方人数为1vs 1,则目标击败类型为单击败;若目标我方敌方人数为N vs 1、N vs N(N为大于1的整数),则目标击败类型为多人击败;若目标越塔识别结果为越塔、目标播报文字识别结果不是背景、目标播报框颜色识别结果为左蓝右红且目标能量没出现无能量,则目标击败类型为越塔强击败;若目标播报文字识别结果不是背景、目标播报框颜色识别结果为左蓝右红且目标能量为能量少,且没出现无能量,则目标击败类型为XXXX;若目标能量为能量少,且没出现无能量,则目标逃生类型为丝能量逃生;若目标闪现识别结果为前期出现闪现可用,后来出现闪现已用,且目标能量没出现无能量,则目标逃生类型为闪现逃生。
其中,“左蓝右红”表示我方击败了敌方;“左红右蓝”表示敌方击败了我方。假设获得的目标标签分类结果如下表2所示。
表2标签分类
Figure GDA0003897939160000191
Figure GDA0003897939160000201
本公开实施例中,多人击败是指多个人击败一个人或多个人。XXXX是指能量里剩的能量很少时,击败了人。闪现逃生是使用了闪现技能且没死,丝能量逃生是能量里剩的能量很少且没死。四连超凡和五连绝世是播报框里显示的字(非自己定义),四连超凡指连续4次击败人,五连绝世指连续5次击败人。第一滴能量是播报框里显示的字(非自己定义),指开局首击败。团战在游戏中的定义即为以小组(如帮派、战队)为单位的数名玩家进行集体对抗,大规模团战大概是7-10人,我方敌方两边至少有2人;小规模团战大概是4-6人,我方敌方两边至少有2人。在敌人没有离开敌方防御塔攻击范围内,己方英雄进塔攻击敌人,这个行为叫越塔。
在步骤S143中,根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息。
对每个当前精彩片段的多维度的目标标签分类结果(见表2)进行组合,形成一句话描述,作为目标自动解说,例如假设解说(一句话描述)模板如下:
“(英雄名字)在(大/小规模团战)中,参与(多击败/单击败/越塔强击败/XXXX)敌人,(闪现/丝能量)逃生,实现(击败敌人/二连击破/三连决胜/四连超凡/五连绝世/第一滴能量),(给力/干得漂亮/赞/奥力给/奈斯)!”
“(英雄名字)参与(大/小规模团战)。”
本公开实施例中,还可以构建弹幕语料库(见表3),每个目标标签分类结果结合相应弹幕语料,形成至少一句目标自动弹幕;
表2弹幕语料库示例
Figure GDA0003897939160000202
/>
Figure GDA0003897939160000211
上述表3中,N连击败是指目标击败数的标签为二连击破、三连决胜、四连超凡、五连绝世中的任意一个均可。当同一个目标标签分类结果对应多个弹幕语料时,可以随机决定本次采用哪一句作为目标弹幕语料。将目标标签分类结果+目标弹幕语料组合生成目标自动弹幕。例如:“XXXX,不残能量不会玩”,“三连决胜”。
图6实施例的步骤S150可以参照上述图1至图4实施例。
本公开实施方式提供的多媒体信息的播放控制方法,可以通过训练多个图像分类网络以生成多维度标签识别模型,从而可以基于该多维度标签识别模型识别自动、准确地获得每个当前精彩片段的多维度标签识别结果。
图7示意性示出了根据本公开的一实施例的多媒体信息的播放控制方法的示意图。图7实施例以将上述实施例提供的方法应用于虚拟游戏的视频自动生成解说与弹幕为例进行举例说明。如图7所示,当前视频作为当前多媒体信息,且假设为虚拟游戏的视频,分别利用视频特征编码模型和音频特征编码模型对该当前视频进行视频特征编码和音频特征编码,获得当前视频特征矩阵和当前音频特征矩阵,然后进行特征融合,获得当前融合特征矩阵,再将当前融合特征矩阵输入至精彩片段时序定位模型进行精彩片段时序定位,获得当前视频中的精彩事件的起止时间序列作为精彩片段序列,利用多维度标签识别模型对精彩片段序列进行多维度标签识别,这里以多维度标签识别包括英雄识别、团战规模识别、我方敌方人数识别、能量识别、越塔识别、闪现识别、播报文字识别和播报框颜色识别为例,获得多维度标签识别结果,然后根据多维度标签识别结果自动生成目标自动解说和目标自动弹幕。
一些当前精彩片段的目标自动解说和目标自动弹幕的实例如图8和图9所示。如图8所示,在显示当前精彩片段的同时,显示“XXXX,我来就是看这个的”、“丝能量逃生,化险为夷”、“越塔强击败”、“二连击破,无敌”和“芈月参与越塔强击败敌人,XXXX敌方,丝能量逃生,实现二连击破,给力!”等目标自动解说和目标自动弹幕。如图9所示,在显示当前精彩片段的同时,显示“击败敌人”、“多击败,藏冰埋火销神剑,匹马西风听大潮”、“赵云在小规模团战中,参与多人击败敌方,实现击败敌人,赞!”和“小规模团战”等目标自动解说和目标自动弹幕。
本公开实施方式提供的多媒体信息的播放控制方法,提供一套多模态自动解说与自动弹幕工具,使用多模态技术(图像分类、音频分类、时序定位)对接收到的当前视频中包含的全部当前精彩片段实现自动剪辑,准确剪辑出当前视频中的全部当前精彩片段,可以将这些当前精彩片段拼接成视频集锦,并完成当前精彩片段的多维度标签识别,利用构建的弹幕语料库和解说模板自动生成目标自动解说与目标自动弹幕。Web接口可以以以URL的形式返回包含目标自动解说和目标自动弹幕的视频集锦。在实际业务场景中可以替代人工剪辑视频与编辑解说,节约大量的人工成本并减少人为误差。
本公开实施例提供的方法可以采用人工智能和云技术来实现。
其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
上述实施例提及的虚拟游戏可以采用云游戏。其中,云游戏(Cloud gaming)又可称为游戏点播(gaming on demand),是一种以云计算技术为基础的在线游戏技术。云游戏技术使图形处理与数据运算能力相对有限的轻端设备(thin client)能运行高品质游戏。在云游戏场景下,游戏并不在玩家游戏终端,而是在云端服务器中运行,并由云端服务器将游戏场景渲染为视频音频流,通过网络传输给玩家游戏终端。玩家游戏终端无需拥有强大的图形运算与数据处理能力,仅需拥有基本的流媒体播放能力与获取玩家输入指令并发送给云端服务器的能力即可。
图10示意性示出了根据本公开的一实施例的多媒体信息的播放控制装置的框图。如图10所示,本公开实施例提供的多媒体信息的播放控制装置1000可以包括多媒体信息确定单元1010、起止时间序列定位单元1020、当前精彩片段剪辑单元1030、自动描述信息获得单元1040以及片段描述同时播放单元1050。
本公开实施例中,多媒体信息确定单元1010可以用于确定当前多媒体信息。起止时间序列定位单元1020可以用于定位所述当前多媒体信息中的精彩事件的起止时间序列。当前精彩片段剪辑单元1030可以用于根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段。自动描述信息获得单元1040可以用于获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果。片段描述同时播放单元1050可以用于播放所述当前精彩片段的同时,展示所述目标自动描述信息。
在示例性实施例中,起止时间序列定位单元1020可以包括:当前视频特征矩阵获得单元,可以用于获得所述当前多媒体信息的当前视频特征矩阵;当前音频特征矩阵获得单元,可以用于获得所述当前多媒体信息的当前音频特征矩阵;当前融合特征矩阵获得单元,可以用于拼接所述当前视频特征矩阵和所述当前音频特征矩阵,获得所述当前多媒体信息的当前融合特征矩阵;精彩片段时序定位单元,可以用于将所述当前融合特征矩阵输入至精彩片段时序定位模型中,确定所述当前多媒体信息中的精彩事件的起止时间序列。
在示例性实施例中,当前视频特征矩阵获得单元可以包括:当前视频帧序列获得单元,可以用于按视频抽帧率对所述当前多媒体信息进行抽帧,获得当前视频帧序列;当前视频特征向量提取单元,可以用于将所述当前视频帧序列中的当前视频帧依次输入至视频特征编码模型中,提取各当前视频帧的视频特征向量;当前视频特征矩阵拼接单元,可以用于按照时间顺序拼接各当前视频帧的视频特征向量,获得所述当前多媒体信息的当前视频特征矩阵。
在示例性实施例中,当前音频特征矩阵获得单元可以包括:当前音频文件抽取单元,可以用于从所述当前多媒体信息中抽取当前音频文件;当前音频序列提取单元,可以用于按预定长度滑窗提取所述当前音频文件中的当前音频序列;当前音频特征向量提取单元,可以用于将所述当前音频序列中的当前音频依次输入至音频特征编码模型中,提取各当前音频的音频特征向量;当前音频特征矩阵拼接单元,可以用于按照时间序列拼接各当前音频的音频特征向量,获得所述当前多媒体信息的当前音频特征矩阵。
在示例性实施例中,多媒体信息的播放控制装置1000还可以包括:标注起止时间对获得单元,可以用于获得训练视频及所述训练视频中的精彩事件的标注起止时间对;训练视频特征矩阵获得单元,可以用于获得所述训练视频的训练视频特征矩阵;训练音频特征矩阵获得单元,可以用于获得所述训练视频的训练音频特征矩阵;训练融合特征矩阵获得单元,可以用于拼接所述训练视频特征矩阵和所述训练音频特征矩阵,获得所述训练视频的训练融合特征矩阵;预测起止时间对获得单元,可以用于将所述训练融合特征矩阵输入至时序定位网络模型,获得所述训练视频中的精彩事件的预测起止时间对;精彩片段时序定位模型训练单元,可以用于根据所述预测起止时间对及其标注起止时间对训练所述时序定位网络模型,获得所述精彩片段时序定位模型。
在示例性实施例中,训练视频特征矩阵获得单元可以包括:训练视频帧序列获得单元,可以用于以所述视频抽帧率对所述训练视频进行抽帧,获得训练视频帧序列;训练视频帧画面标签确定单元,可以用于根据所述训练视频帧序列中的训练视频帧是否处于所述标注起止时间对的标注时间区间内,确定各训练视频帧的标签为精彩画面或者背景画面;精彩背景图像二分类网络模型训练单元,可以用于利用标签为所述精彩画面或所述背景画面的各训练视频帧训练卷积神经网络模型,获得精彩背景图像二分类网络模型,其中所述精彩背景图像二分类网络模型包括分类层;视频特征编码模型生成单元,可以用于将训练获得的所述精彩背景图像二分类网络模型剔除所述分类层,作为所述视频特征编码模型;训练视频特征矩阵拼接单元,可以用于按照时间顺序拼接所述视频特征编码模型输出的各训练视频帧的视频特征向量,获得所述训练视频的训练视频特征矩阵。
在示例性实施例中,自动描述信息获得单元1040可以包括:多维度标签识别结果获得单元,可以用于利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的多维度标签识别结果;目标标签分类结果获得单元,可以用于综合所述当前精彩片段的多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果;目标自动描述信息匹配单元,可以用于根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息。
在示例性实施例中,所述当前多媒体信息为虚拟游戏,所述多维度标签识别模型可以包括英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型,所述多维度标签识别结果包括目标英雄、目标团战规模、目标我方敌方人数、目标能量、目标越塔识别结果、目标闪现识别结果、目标播报文字识别结果和目标播报框颜色识别结果。
其中,多维度标签识别结果获得单元可以包括:抽帧率抠图区域确定单元,可以用于分别确定所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型的第一至第八抽帧率和第一至第八空间抠图区域;当前图像帧序列获得单元,可以用于对所述当前精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八当前图像帧序列;多维度标签识别结果识别单元,可以用于将第一至第八当前图像帧序列中的当前图像帧分别输入至所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型,确定所述当前精彩片段中的所述目标英雄、所述目标团战规模、所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果。
在示例性实施例中,多媒体信息的播放控制装置1000还可以包括:标注起止时间对获得单元,可以用于获得训练视频及所述训练视频中的精彩事件的标注起止时间对;训练精彩片段剪辑单元,可以用于根据所述标注起止时间对从所述训练视频中剪辑出训练精彩片段;训练图像帧序列获得单元,可以用于对所述训练精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八训练图像帧序列;多维度标注标签获得单元,可以用于分别获得第一至第八训练图像帧序列中的训练图像帧的英雄标签、团战规模标签、我方敌方人数标签、能量标签、越塔标签、闪现标签、播报文字标签和播报框颜色标签;多维度标签预测单元,可以用于将第一至第八训练图像帧序列中的训练图像帧分别输入至第一至第八图像分类模型,输出其预测英雄、预测团战规模、预测我方敌方人数、预测能量、预测越塔、预测闪现、预测播报文字和预测播报框颜色;多维度标签识别模型训练单元,可以用于根据所述英雄标签及其预测英雄训练所述第一图像分类模型,获得所述英雄识别模型;根据所述团战规模标签及其预测团战规模训练所述第二图像分类模型,获得所述团战规模识别模型;根据所述我方敌方人数标签及其预测我方敌方人数训练所述第三图像分类模型,获得所述我方敌方人数识别模型;根据所述能量标签及其预测能量训练所述第四图像分类模型,获得所述能量识别模型;根据所述越塔标签及其预测越塔训练所述第五图像分类模型,获得所述越塔识别模型;根据所述闪现标签及其预测闪现训练所述第六图像分类模型,获得所述闪现识别模型;根据所述播报文字标签及其预测播报文字训练所述第七图像分类模型,获得所述播报文字识别模型;根据所述播报框颜色标签及其预测播报框颜色训练所述第八图像分类模型,获得所述播报框颜色识别模型。
在示例性实施例中,所述目标标签分类结果可以包括所述目标英雄、所述目标团战规模、目标击败类型、目标逃生类型和目标击败数。
其中,目标标签分类结果获得单元可以包括:多维度标签识别结果综合单元,可以用于根据所述当前精彩片段中的所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果,确定所述当前精彩片段的所述目标击败类型、所述目标逃生类型和所述目标击败数。
在示例性实施例中,所述目标描述信息可以包括目标自动解说。其中,目标自动描述信息匹配单元可以包括:解说模板获得单元,可以用于获得解说模板;目标自动解说确定单元,可以用于根据所述解说模板和所述目标标签分类结果,确定所述目标自动解说。
在示例性实施例中,所述目标描述信息可以包括目标自动弹幕。其中,目标自动描述信息匹配单元可以包括:弹幕语料库获得单元,可以用于获得弹幕语料库,所述弹幕语料库包括每个标签分类结果及其对应的弹幕语料,所述标签分类结果包括所述目标标签分类结果;目标自动弹幕匹配单元,可以用于根据所述目标标签分类结果从所述弹幕语料库中匹配获得目标弹幕语料作为所述目标自动弹幕。
本公开实施例的多媒体信息的播放控制装置的其它内容可以参照上述实施例。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
下面参考图11,其示出了适于用来实现本申请实施例的电子设备的结构示意图。图11示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
参照图11,本公开实施例提供的电子设备可以包括:处理器1101、通信接口1102、存储器1103和通信总线1104。
其中处理器1101、通信接口1102和存储器1103通过通信总线1104完成相互间的通信。
可选的,通信接口1102可以为通信模块的接口,如GSM(Global System forMobile communications,全球移动通信系统)模块的接口。处理器1101用于执行程序。存储器1103用于存放程序。程序可以包括计算机程序,该计算机程序包括计算机操作指令。其中,程序中可以包括:游戏客户端的程序。
处理器1101可以是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本公开实施例的一个或多个集成电路。
存储器1103可以包含高速RAM(random access memory,随机存取存储器)存储器,也可以还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
其中,程序可具体用于:确定当前多媒体信息;定位所述当前多媒体信息中的精彩事件的起止时间序列;根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;获得与所述当前精彩片段匹配的目标自动描述信息;播放所述当前精彩片段的同时,展示所述目标自动描述信息。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例的各种可选实现方式中提供的方法。
需要理解的是,在本公开附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (20)

1.一种多媒体信息的播放控制方法,其特征在于,包括:
确定当前多媒体信息;
定位所述当前多媒体信息中的精彩事件的起止时间序列;
根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;
获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果和目标自动解说,其中获得与所述当前精彩片段匹配的目标自动描述信息,包括:利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的多维度标签识别结果,所述多维度标签识别模型包括多种图像分类网络,不同的所述图像分类网络根据不同的空间抠图区域和不同的抽帧率获得各个所述图像分类网络对应的当前图像帧序列,通过所述图像分类网络处理对应的所述当前图像帧序列获得每个所述当前精彩片段的所述多维度标签识别结果;综合所述当前精彩片段的所述多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果;根据所述当前精彩片段的所述目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息;其中,根据所述当前精彩片段的所述目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息,包括:获得解说模板;根据所述解说模板和所述目标标签分类结果,确定所述目标自动解说;
播放所述当前精彩片段的同时,展示所述目标自动描述信息。
2.根据权利要求1所述的方法,其特征在于,定位所述当前多媒体信息中的精彩事件的起止时间序列,包括:
获得所述当前多媒体信息的当前视频特征矩阵;
获得所述当前多媒体信息的当前音频特征矩阵;
拼接所述当前视频特征矩阵和所述当前音频特征矩阵,获得所述当前多媒体信息的当前融合特征矩阵;
将所述当前融合特征矩阵输入至精彩片段时序定位模型中,确定所述当前多媒体信息中的精彩事件的起止时间序列。
3.根据权利要求2所述的方法,其特征在于,获得所述当前多媒体信息的当前视频特征矩阵,包括:
按视频抽帧率对所述当前多媒体信息进行抽帧,获得当前视频帧序列;
将所述当前视频帧序列中的当前视频帧依次输入至视频特征编码模型中,提取各当前视频帧的视频特征向量;
按照时间顺序拼接各当前视频帧的视频特征向量,获得所述当前多媒体信息的当前视频特征矩阵;
其中,获得所述当前多媒体信息的当前音频特征矩阵,包括:
从所述当前多媒体信息中抽取当前音频文件;
按预定长度滑窗提取所述当前音频文件中的当前音频序列;
将所述当前音频序列中的当前音频依次输入至音频特征编码模型中,提取各当前音频的音频特征向量;
按照时间序列拼接各当前音频的音频特征向量,获得所述当前多媒体信息的当前音频特征矩阵。
4.根据权利要求3所述的方法,其特征在于,还包括:
获得训练视频及所述训练视频中的精彩事件的标注起止时间对;
获得所述训练视频的训练视频特征矩阵;
获得所述训练视频的训练音频特征矩阵;
拼接所述训练视频特征矩阵和所述训练音频特征矩阵,获得所述训练视频的训练融合特征矩阵;
将所述训练融合特征矩阵输入至时序定位网络模型,获得所述训练视频中的精彩事件的预测起止时间对;
根据所述预测起止时间对及其标注起止时间对训练所述时序定位网络模型,获得所述精彩片段时序定位模型。
5.根据权利要求4所述的方法,其特征在于,获得所述训练视频的训练视频特征矩阵,包括:
以所述视频抽帧率对所述训练视频进行抽帧,获得训练视频帧序列;
根据所述训练视频帧序列中的训练视频帧是否处于所述标注起止时间对的标注时间区间内,确定各训练视频帧的标签为精彩画面或者背景画面;
利用标签为所述精彩画面或所述背景画面的各训练视频帧训练卷积神经网络模型,获得精彩背景图像二分类网络模型,其中所述精彩背景图像二分类网络模型包括分类层;
将训练获得的所述精彩背景图像二分类网络模型剔除所述分类层,作为所述视频特征编码模型;
按照时间顺序拼接所述视频特征编码模型输出的各训练视频帧的视频特征向量,获得所述训练视频的训练视频特征矩阵。
6.根据权利要求1所述的方法,其特征在于,所述当前多媒体信息为虚拟游戏,所述多维度标签识别模型包括英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型,所述多维度标签识别结果包括目标英雄、目标团战规模、目标我方敌方人数、目标能量、目标越塔识别结果、目标闪现识别结果、目标播报文字识别结果和目标播报框颜色识别结果;其中,利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的多维度标签识别结果,包括:
分别确定所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型的第一至第八抽帧率和第一至第八空间抠图区域;
对所述当前精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八当前图像帧序列;
将第一至第八当前图像帧序列中的当前图像帧分别输入至所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型,确定所述当前精彩片段中的所述目标英雄、所述目标团战规模、所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果。
7.根据权利要求6所述的方法,其特征在于,还包括:
获得训练视频及所述训练视频中的精彩事件的标注起止时间对;
根据所述标注起止时间对从所述训练视频中剪辑出训练精彩片段;
对所述训练精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八训练图像帧序列;
分别获得第一至第八训练图像帧序列中的训练图像帧的英雄标签、团战规模标签、我方敌方人数标签、能量标签、越塔标签、闪现标签、播报文字标签和播报框颜色标签;
将第一至第八训练图像帧序列中的训练图像帧分别输入至第一至第八图像分类模型,输出其预测英雄、预测团战规模、预测我方敌方人数、预测能量、预测越塔、预测闪现、预测播报文字和预测播报框颜色;
根据所述英雄标签及其预测英雄训练所述第一图像分类模型,获得所述英雄识别模型;根据所述团战规模标签及其预测团战规模训练所述第二图像分类模型,获得所述团战规模识别模型;根据所述我方敌方人数标签及其预测我方敌方人数训练所述第三图像分类模型,获得所述我方敌方人数识别模型;根据所述能量标签及其预测能量训练所述第四图像分类模型,获得所述能量识别模型;根据所述越塔标签及其预测越塔训练所述第五图像分类模型,获得所述越塔识别模型;根据所述闪现标签及其预测闪现训练所述第六图像分类模型,获得所述闪现识别模型;根据所述播报文字标签及其预测播报文字训练所述第七图像分类模型,获得所述播报文字识别模型;根据所述播报框颜色标签及其预测播报框颜色训练所述第八图像分类模型,获得所述播报框颜色识别模型。
8.根据权利要求6所述的方法,其特征在于,所述目标标签分类结果包括所述目标英雄、所述目标团战规模、目标击败类型、目标逃生类型和目标击败数;其中,综合所述当前精彩片段的多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果,包括:
根据所述当前精彩片段中的所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果,确定所述当前精彩片段的所述目标击败类型、所述目标逃生类型和所述目标击败数。
9.根据权利要求1所述的方法,其特征在于,所述目标自动描述信息包括目标自动弹幕;其中,根据所述当前精彩片段的目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息,包括:
获得弹幕语料库,所述弹幕语料库包括每个标签分类结果及其对应的弹幕语料,所述标签分类结果包括所述目标标签分类结果;
根据所述目标标签分类结果从所述弹幕语料库中匹配获得目标弹幕语料作为所述目标自动弹幕。
10.一种多媒体信息的播放控制装置,其特征在于,包括:
多媒体信息确定单元,用于确定当前多媒体信息;
起止时间序列定位单元,用于定位所述当前多媒体信息中的精彩事件的起止时间序列;
当前精彩片段剪辑单元,用于根据所述起止时间序列剪辑出所述当前多媒体信息中包括所述精彩事件的当前精彩片段;
自动描述信息获得单元,用于获得与所述当前精彩片段匹配的目标自动描述信息,所述目标自动描述信息包括所述当前精彩片段的多维度标签识别结果和目标自动解说;
片段描述同时播放单元,用于播放所述当前精彩片段的同时,展示所述目标自动描述信息;
其中,所述自动描述信息获得单元包括:
多维度标签识别结果获得单元,用于利用多维度标签识别模型处理所述当前精彩片段,获得所述当前精彩片段的所述多维度标签识别结果,所述多维度标签识别模型包括多种图像分类网络,不同的所述图像分类网络根据不同的空间抠图区域和不同的抽帧率获得各个所述图像分类网络对应的当前图像帧序列,通过所述图像分类网络处理对应的所述当前图像帧序列获得每个所述当前精彩片段的所述多维度标签识别结果;
目标标签分类结果获得单元,用于综合所述当前精彩片段的所述多维度标签识别结果,获得所述当前精彩片段的目标标签分类结果;
目标自动描述信息匹配单元,用于根据所述当前精彩片段的所述目标标签分类结果,获得与所述当前精彩片段匹配的目标自动描述信息;
其中,所述目标自动描述信息匹配单元包括:
解说模板获得单元,用于获得解说模板;
目标自动解说确定单元,用于根据所述解说模板和所述目标标签分类结果,确定所述目标自动解说。
11.根据权利要求10所述的装置,其特征在于,所述起止时间序列定位单元包括:
当前视频特征矩阵获得单元,用于获得所述当前多媒体信息的当前视频特征矩阵;
当前音频特征矩阵获得单元,用于获得所述当前多媒体信息的当前音频特征矩阵;
当前融合特征矩阵获得单元,用于拼接所述当前视频特征矩阵和所述当前音频特征矩阵,获得所述当前多媒体信息的当前融合特征矩阵;
精彩片段时序定位单元,用于将所述当前融合特征矩阵输入至精彩片段时序定位模型中,确定所述当前多媒体信息中的精彩事件的起止时间序列。
12.根据权利要求11所述的装置,其特征在于,所述当前视频特征矩阵获得单元包括:
当前视频帧序列获得单元,用于按视频抽帧率对所述当前多媒体信息进行抽帧,获得当前视频帧序列;
当前视频特征向量提取单元,用于将所述当前视频帧序列中的当前视频帧依次输入至视频特征编码模型中,提取各当前视频帧的视频特征向量;
当前视频特征矩阵拼接单元,用于按照时间顺序拼接各当前视频帧的视频特征向量,获得所述当前多媒体信息的当前视频特征矩阵;
其中,所述当前音频特征矩阵获得单元包括:
当前音频文件抽取单元,用于从所述当前多媒体信息中抽取当前音频文件;
当前音频序列提取单元,用于按预定长度滑窗提取所述当前音频文件中的当前音频序列;
当前音频特征向量提取单元,用于将所述当前音频序列中的当前音频依次输入至音频特征编码模型中,提取各当前音频的音频特征向量;
当前音频特征矩阵拼接单元,用于按照时间序列拼接各当前音频的音频特征向量,获得所述当前多媒体信息的当前音频特征矩阵。
13.根据权利要求12所述的装置,其特征在于,还包括:
标注起止时间对获得单元,用于获得训练视频及所述训练视频中的精彩事件的标注起止时间对;
训练视频特征矩阵获得单元,用于获得所述训练视频的训练视频特征矩阵;
训练音频特征矩阵获得单元,用于获得所述训练视频的训练音频特征矩阵;
训练融合特征矩阵获得单元,用于拼接所述训练视频特征矩阵和所述训练音频特征矩阵,获得所述训练视频的训练融合特征矩阵;
预测起止时间对获得单元,用于将所述训练融合特征矩阵输入至时序定位网络模型,获得所述训练视频中的精彩事件的预测起止时间对;
精彩片段时序定位模型训练单元,用于根据所述预测起止时间对及其标注起止时间对训练所述时序定位网络模型,获得所述精彩片段时序定位模型。
14.根据权利要求13所述的装置,其特征在于,所述训练视频特征矩阵获得单元包括:
训练视频帧序列获得单元,用于以所述视频抽帧率对所述训练视频进行抽帧,获得训练视频帧序列;
训练视频帧画面标签确定单元,用于根据所述训练视频帧序列中的训练视频帧是否处于所述标注起止时间对的标注时间区间内,确定各训练视频帧的标签为精彩画面或者背景画面;
精彩背景图像二分类网络模型训练单元,用于利用标签为所述精彩画面或所述背景画面的各训练视频帧训练卷积神经网络模型,获得精彩背景图像二分类网络模型,其中所述精彩背景图像二分类网络模型包括分类层;
视频特征编码模型生成单元,用于将训练获得的所述精彩背景图像二分类网络模型剔除所述分类层,作为所述视频特征编码模型;
训练视频特征矩阵拼接单元,用于按照时间顺序拼接所述视频特征编码模型输出的各训练视频帧的视频特征向量,获得所述训练视频的训练视频特征矩阵。
15.根据权利要求10所述的装置,其特征在于,所述当前多媒体信息为虚拟游戏,所述多维度标签识别模型包括英雄识别模型、团战规模识别模型、我方敌方人数识别模型、能量识别模型、越塔识别模型、闪现识别模型、播报文字识别模型和播报框颜色识别模型,所述多维度标签识别结果包括目标英雄、目标团战规模、目标我方敌方人数、目标能量、目标越塔识别结果、目标闪现识别结果、目标播报文字识别结果和目标播报框颜色识别结果;其中,所述多维度标签识别结果获得单元包括:
抽帧率抠图区域确定单元,用于分别确定所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型的第一至第八抽帧率和第一至第八空间抠图区域;
当前图像帧序列获得单元,用于对所述当前精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八当前图像帧序列;
多维度标签识别结果识别单元,用于将第一至第八当前图像帧序列中的当前图像帧分别输入至所述英雄识别模型、所述团战规模识别模型、所述我方敌方人数识别模型、所述能量识别模型、所述越塔识别模型、所述闪现识别模型、所述播报文字识别模型和所述播报框颜色识别模型,确定所述当前精彩片段中的所述目标英雄、所述目标团战规模、所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果。
16.根据权利要求15所述的装置,其特征在于,还包括:
标注起止时间对获得单元,用于获得训练视频及所述训练视频中的精彩事件的标注起止时间对;
训练精彩片段剪辑单元,用于根据所述标注起止时间对从所述训练视频中剪辑出训练精彩片段;
训练图像帧序列获得单元,用于对所述训练精彩片段分别按照第一至第八抽帧率和第一至第八空间抠图区域抽帧,获得第一至第八训练图像帧序列;
多维度标注标签获得单元,用于分别获得第一至第八训练图像帧序列中的训练图像帧的英雄标签、团战规模标签、我方敌方人数标签、能量标签、越塔标签、闪现标签、播报文字标签和播报框颜色标签;
多维度标签预测单元,用于将第一至第八训练图像帧序列中的训练图像帧分别输入至第一至第八图像分类模型,输出其预测英雄、预测团战规模、预测我方敌方人数、预测能量、预测越塔、预测闪现、预测播报文字和预测播报框颜色;
多维度标签识别模型训练单元,用于根据所述英雄标签及其预测英雄训练所述第一图像分类模型,获得所述英雄识别模型;根据所述团战规模标签及其预测团战规模训练所述第二图像分类模型,获得所述团战规模识别模型;根据所述我方敌方人数标签及其预测我方敌方人数训练所述第三图像分类模型,获得所述我方敌方人数识别模型;根据所述能量标签及其预测能量训练所述第四图像分类模型,获得所述能量识别模型;根据所述越塔标签及其预测越塔训练所述第五图像分类模型,获得所述越塔识别模型;根据所述闪现标签及其预测闪现训练所述第六图像分类模型,获得所述闪现识别模型;根据所述播报文字标签及其预测播报文字训练所述第七图像分类模型,获得所述播报文字识别模型;根据所述播报框颜色标签及其预测播报框颜色训练所述第八图像分类模型,获得所述播报框颜色识别模型。
17.根据权利要求15所述的装置,其特征在于,所述目标标签分类结果包括所述目标英雄、所述目标团战规模、目标击败类型、目标逃生类型和目标击败数;其中,所述目标标签分类结果获得单元包括:
多维度标签识别结果综合单元,用于根据所述当前精彩片段中的所述目标我方敌方人数、所述目标能量、所述目标越塔识别结果、所述目标闪现识别结果、所述目标播报文字识别结果和所述目标播报框颜色识别结果,确定所述当前精彩片段的所述目标击败类型、所述目标逃生类型和所述目标击败数。
18.根据权利要求10所述的装置,其特征在于,所述目标自动描述信息还包括目标自动弹幕;其中,所述目标自动描述信息匹配单元包括:
弹幕语料库获得单元,用于获得弹幕语料库,所述弹幕语料库包括每个标签分类结果及其对应的弹幕语料,所述标签分类结果包括所述目标标签分类结果;
目标自动弹幕匹配单元,用于根据所述目标标签分类结果从所述弹幕语料库中匹配获得目标弹幕语料作为所述目标自动弹幕。
19.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述程序被处理器执行时实现如权利要求1至9任一项所述的方法。
20.一种电子设备,其特征在于,包括:
至少一个处理器;
存储装置,配置为存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如权利要求1至9任一项所述的方法。
CN202011643263.6A 2020-12-30 2020-12-30 多媒体信息的播放控制方法及相关设备 Active CN114697741B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011643263.6A CN114697741B (zh) 2020-12-30 2020-12-30 多媒体信息的播放控制方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011643263.6A CN114697741B (zh) 2020-12-30 2020-12-30 多媒体信息的播放控制方法及相关设备

Publications (2)

Publication Number Publication Date
CN114697741A CN114697741A (zh) 2022-07-01
CN114697741B true CN114697741B (zh) 2023-06-30

Family

ID=82136472

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011643263.6A Active CN114697741B (zh) 2020-12-30 2020-12-30 多媒体信息的播放控制方法及相关设备

Country Status (1)

Country Link
CN (1) CN114697741B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278299B (zh) * 2022-07-27 2024-03-19 腾讯科技(深圳)有限公司 无监督的训练数据生成方法、装置、介质及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108833969A (zh) * 2018-06-28 2018-11-16 腾讯科技(深圳)有限公司 一种直播流的剪辑方法、装置以及设备
CN109672922A (zh) * 2017-10-17 2019-04-23 腾讯科技(深圳)有限公司 一种游戏视频剪辑方法及装置
CN110119711A (zh) * 2019-05-14 2019-08-13 北京奇艺世纪科技有限公司 一种获取视频数据人物片段的方法、装置及电子设备
CN110347872A (zh) * 2019-07-04 2019-10-18 腾讯科技(深圳)有限公司 视频封面图像提取方法及装置、存储介质及电子设备
CN110569391A (zh) * 2019-09-11 2019-12-13 腾讯科技(深圳)有限公司 播报事件识别方法、电子设备及计算机可读存储介质
CN111770357A (zh) * 2020-07-27 2020-10-13 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
CN111787356A (zh) * 2020-07-09 2020-10-16 易视腾科技股份有限公司 目标视频片段提取方法和装置
CN111953910A (zh) * 2020-08-11 2020-11-17 腾讯科技(深圳)有限公司 基于人工智能的视频处理方法、装置及电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572735B2 (en) * 2015-03-31 2020-02-25 Beijing Shunyuan Kaihua Technology Limited Detect sports video highlights for mobile computing devices
US10390082B2 (en) * 2016-04-01 2019-08-20 Oath Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
US10341744B2 (en) * 2016-06-30 2019-07-02 Nbcuniversal Media, Llc System and method for controlling related video content based on domain specific language models
CN106851385B (zh) * 2017-02-20 2019-12-27 北京乐我无限科技有限责任公司 视频录制方法、装置和电子设备
US10595101B2 (en) * 2018-03-15 2020-03-17 International Business Machines Corporation Auto-curation and personalization of sports highlights
US11025964B2 (en) * 2019-04-02 2021-06-01 Wangsu Science & Technology Co., Ltd. Method, apparatus, server, and storage medium for generating live broadcast video of highlight collection
CN110191357A (zh) * 2019-06-28 2019-08-30 北京奇艺世纪科技有限公司 视频片段精彩度评估、动态封面生成方法及装置
CN110784759B (zh) * 2019-08-12 2022-08-12 腾讯科技(深圳)有限公司 弹幕信息处理方法、装置、电子设备及存储介质
CN111967344B (zh) * 2020-07-28 2023-06-20 南京信息工程大学 一种面向人脸伪造视频检测的精细化特征融合方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109672922A (zh) * 2017-10-17 2019-04-23 腾讯科技(深圳)有限公司 一种游戏视频剪辑方法及装置
CN108833969A (zh) * 2018-06-28 2018-11-16 腾讯科技(深圳)有限公司 一种直播流的剪辑方法、装置以及设备
CN110119711A (zh) * 2019-05-14 2019-08-13 北京奇艺世纪科技有限公司 一种获取视频数据人物片段的方法、装置及电子设备
CN110347872A (zh) * 2019-07-04 2019-10-18 腾讯科技(深圳)有限公司 视频封面图像提取方法及装置、存储介质及电子设备
CN110569391A (zh) * 2019-09-11 2019-12-13 腾讯科技(深圳)有限公司 播报事件识别方法、电子设备及计算机可读存储介质
CN111787356A (zh) * 2020-07-09 2020-10-16 易视腾科技股份有限公司 目标视频片段提取方法和装置
CN111770357A (zh) * 2020-07-27 2020-10-13 深圳大学 一种基于弹幕的视频高光片段识别方法、终端及存储介质
CN111953910A (zh) * 2020-08-11 2020-11-17 腾讯科技(深圳)有限公司 基于人工智能的视频处理方法、装置及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于剪辑元素属性约束的可计算产品展示视频自动剪辑框架;鲁雨佳;陈实;帅世辉;王禹溪;杨昌源;孙凌云;;计算机辅助设计与图形学学报(07);全文 *
密集帧率采样的视频标题生成;汤鹏杰;谭云兰;李金忠;谭彬;;计算机科学与探索(06);全文 *
足球赛事实时智能分析系统的研究;潘文宇;邢青;;科技风(22);全文 *

Also Published As

Publication number Publication date
CN114697741A (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
CN110784759B (zh) 弹幕信息处理方法、装置、电子设备及存储介质
WO2022184117A1 (zh) 基于深度学习的视频剪辑方法、相关设备及存储介质
CN109618222A (zh) 一种拼接视频生成方法、装置、终端设备及存储介质
CN107633441A (zh) 追踪识别视频图像中的商品并展示商品信息的方法和装置
CN113542777B (zh) 直播视频剪辑方法、装置及计算机设备
CN111182358B (zh) 视频处理方法、视频播放方法、装置、设备和存储介质
CN109803180A (zh) 视频预览图生成方法、装置、计算机设备及存储介质
JP7223056B2 (ja) 画像審査方法、装置、電子機器及び記憶媒体
CN108171160B (zh) 一种任务结果识别方法、装置、存储介质及电子设备
CN113515997B (zh) 一种视频数据处理方法、装置以及可读存储介质
CN113766296B (zh) 直播画面的展示方法和装置
US20180143741A1 (en) Intelligent graphical feature generation for user content
CN110166811A (zh) 弹幕信息的处理方法、装置及设备
CN111491187A (zh) 视频的推荐方法、装置、设备及存储介质
CN112163560A (zh) 一种视频信息处理方法、装置、电子设备及存储介质
CN113392690A (zh) 视频语义标注方法、装置、设备及存储介质
CN113515998A (zh) 一种视频数据处理方法、设备以及可读存储介质
CN114938459A (zh) 基于弹幕的虚拟直播互动方法、装置、存储介质及设备
CN111985419A (zh) 视频处理方法及相关设备
CN114697741B (zh) 多媒体信息的播放控制方法及相关设备
CN113822127A (zh) 视频处理方法、装置、视频处理设备及存储介质
Cho et al. Sora as an agi world model? a complete survey on text-to-video generation
CN115193039A (zh) 游戏剧情的交互方法、装置及系统
CN114283349A (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN110166825B (zh) 视频数据处理方法及装置、视频播放方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant