CN104618797B - 信息处理方法、装置及客户端 - Google Patents
信息处理方法、装置及客户端 Download PDFInfo
- Publication number
- CN104618797B CN104618797B CN201510065026.9A CN201510065026A CN104618797B CN 104618797 B CN104618797 B CN 104618797B CN 201510065026 A CN201510065026 A CN 201510065026A CN 104618797 B CN104618797 B CN 104618797B
- Authority
- CN
- China
- Prior art keywords
- special efficacy
- client
- virtual
- virtual special
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
Abstract
本发明实施例公开了一种信息处理方法、装置及客户端;方法包括:基于源视频流数据触发客户端呈现视频信息,并监测针对视频信息的特效触发事件;解析来自客户端的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效,生成对应虚拟特效的渲染操作指令;对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据;将虚拟特效视频流数据叠加入源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发客户端实时呈现叠加有虚拟特效的视频信息。采用本发明,能够在线上视频中实时叠加线上用户触发的虚拟特效。
Description
技术领域
本发明涉及互联网通信技术,尤其涉及一种信息处理方法、装置及客户端。
背景技术
当前,通过客户端观看在线视频(如娱乐节目、新闻、影视节目),正取代传统的电视终端成为日益主流的观看视频的方式;为增加在线视频的趣味性以提升用户体验,相关技术通常在视频的播放(或制作)过程中为视频添加虚拟特效,但仅限于在处理视频时利用虚拟特效对视频进行包装(例如由视频虚拟特效公司在视频的基础上叠加预先设计好的虚拟特效),这就导致用户只能被动观看视频中添加的虚拟特效;对于将如何在线上视频中实时叠加虚拟特效,以支持线上用户通过客户端观看视频时在视频中实时添加线下的虚拟特效,相关技术尚无有效解决方案。
发明内容
本发明实施例提供一种信息处理方法、客户端及装置,能够在线上视频中实时叠加线上用户触发的虚拟特效,以支持线上通过客户端观看视频的用户形成互动,提升用户体验。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种信息处理方法,所述方法包括:
基于源视频流数据触发客户端呈现视频信息,并监测针对所述视频信息的特效触发事件;
解析来自所述客户端的特效触发事件,在候选虚拟特效中确定响应所述特效触发事件的虚拟特效,生成对应所述虚拟特效的渲染操作指令;
对所述虚拟特效对应的特效模型执行对应所述虚拟特效所生成的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,其中,所述虚拟特效对应的特效模型为从特效模型数据库获取;
将所述虚拟特效视频流数据叠加入所述源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发所述客户端实时呈现叠加有所述虚拟特效的视频信息。
本发明实施例提供一种信息处理方法,所述方法包括:
客户端基于源视频流数据呈现视频信息,当监测到用户对所述视频信息的特效触发操作时生成特效触发事件;
基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定。
本发明实施例提供一种信息处理装置,所述信息处理装置包括:
监测模块,用于基于源视频流数据触发客户端呈现视频信息,并监测针对所述视频信息的特效触发事件;
解析模块,用于解析来自所述客户端的特效触发事件,在候选虚拟特效中确定响应所述特效触发事件的虚拟特效,生成对应所述虚拟特效的渲染操作指令;
渲染模块,用于对所述虚拟特效对应的特效模型执行对应所述虚拟特效所生成的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,其中,所述虚拟特效对应的特效模型为从特效模型数据库获取;
叠加模块,用于将所述虚拟特效视频流数据叠加入所述源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发所述客户端实时呈现叠加有所述虚拟特效的视频信息。
本发明实施例提供一种客户端,所述客户端包括:
呈现模块,用于基于源视频流数据呈现视频信息;
监测模块,用于当监测到对所述视频信息的特效触发操作时生成特效触发事件;
所述呈现模块,还用于基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定。
本发明实施例中,通过在客户端呈现的视频信息中监测特效触发事件,从而实施在视频信息中叠加虚拟特效的处理,将叠加有虚拟特效的视频信息在客户端中呈现,以使用户通过客户端观看到所触发的虚拟特效,这就将能够在线上视频中实时叠加线上用户触发的虚拟特效,以支持线上通过客户端观看视频的用户形成互动,突破了相关技术中只能在视频信息的处理过程中在视频信息中叠加虚拟特效信息的限制;并且,用户通过客户端不仅可以看到用户自己实施特效触发事件在视频信息中所叠加的虚拟特效,并且可以看到其他用户通过在客户端实施特效触发事件在视频信息中所叠加的虚拟特效,不同的用户各自通过在客户端呈现的视频信息中叠加虚拟特效,实现了用户通过在视频信息叠加虚拟特效的实施互动方式,提高了用户信息交互的效率,提升了用户体验。
附图说明
图1a是本发明实施例中信息处理方法的实现流程图一;
图1b是本发明实施例中信息处理方法的场景示意图一;
图2a是本发明实施例中信息处理方法的实现流程图二;
图2b是本发明实施例中信息处理方法的场景示意图二;
图2c是本发明实施例中信息处理方法的场景示意图三;
图3a是本发明实施例中信息处理方法的实现流程图三;
图3b是本发明实施例中信息处理方法的场景示意图四;
图4是本发明实施例中信息处理方法的实现流程图四;
图5a是本发明实施例中信息处理方法的实现流程图五;
图5b是本发明实施例中信息处理方法的场景示意图五;
图6是本发明实施例中信息处理方法的实现流程图六;
图7是本发明实施例中信息处理装置的结构示意图;
图8是本发明实施例中客户端的结构示意图;
图9是本发明实施例中信息处理装置各模块分布设置的示意图;
图10是本发明实施例中信息处理装置各模块分布设置时实现虚拟特效的流程示意图;
图11是本发明实施例中客户端显示道具的示意图;
图12是本发明实施例中客户端呈现的未叠加有虚拟特效的视频的示意图;
图13和图14是本发明实施例中客户端呈现叠加有虚拟特效的视频的示意图。
具体实施方式
以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一 权1方案
本实施例记载一种信息处理方法,可以应用于信息处理装置,实际应用中,下述的步骤可以由信息处理装置中的不同的功能模块来执行(例如一个功能模块对应执行一个步骤,当然,也可以由一个功能模块执行两个以上步骤,或者,由两个功能模块共同执行一个步骤),信息处理装置中的所有功能模块可以设置于网络中的单个服务器中,也可以分布设置于网络中的多个服务器中(此时,下述的步骤可以由网络中的多个服务器配合完成,服务器中之间可以通过网络通信链路完成数据交互);如图1a所示,本实施例记载的信息处理方法包括以下步骤:
步骤101,基于源视频流数据触发客户端的图形界面中呈现视频信息,并监测对视频信息的特效触发事件。
这里的客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、个人电脑(PC)端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用(APP)、超文本标记语言(HTML,Hyper Text Mark-up Language)5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤101中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤102,解析在客户端生成的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
当用户通过客户端的图形界面观看视频信息时,客户端可以在图形界面中呈现可供用户在视频信息中叠加的虚拟特效,虚拟特效的形式可以采用以下形式至少之一:视频(可以采用2D或3D的形式,例如视频信息为演唱会现场时,虚拟特效可以为动态玫瑰花、动态评论文字等);音频特效(例如当视频信息为演唱会现场时,音频特效可以为掌声);可以在客户端的图形界面中实施特效触发操作;当用户在客户端的图形界面中实施特效触发操作时(也即在触发在客户端的图形界面中呈现的视频信息中呈现虚拟特效)时,客户端会监测到该特效触发操作并向生成特效触发事件,表征用户触发在视频信息中叠加虚拟特效;特效触发事件可以携带参数,包括客户端的标识、用户实施的特效触发操作所选定的虚拟特效的标识,例如虚拟特效标识1时,信息处理装置依据虚拟特效的标识2,在候选虚拟特效确定具有标识2的虚拟特效为响应特效触发事件的虚拟特效;当特效触发事件未携带参数时(也即此时用户通过客户端的图形界面实施特效触发操作时未指定在视频信息中叠加何种形式的虚拟特效)时,可以在候选虚拟特效中随机选取在视频信息中叠加的虚拟特效。
步骤103,生成对应响应特效触发事件的虚拟特效的渲染操作指令。
步骤104,从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
例如,当从客户端1监测到特效触发事件1(携带虚拟特效标识1),从客户端2监测到特效触发事件2(携带虚拟特效标识2),则在步骤103中生成对应虚拟特效1的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2;在步骤104中,基于虚拟特效的标识,从特效模型数据库获取虚拟特效1对应的特效模型1、以及虚拟特效2对应的特效模型2;对特效模型1执行渲染操作指令1,并对特效模型2执行渲染操作指令2,得到承载有虚拟特效1以及虚拟特效2的虚拟特效视频流数据,虚拟特效1和虚拟特效2可以在虚拟特效视频流数据同时呈现。
步骤105,将虚拟特效视频流数据叠加入源视频流数据,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
叠加后所得到的视频流数据可以通过网络通信链路传输至客户端,以使客户端在自身的图形界面上呈现虚拟特效,需要指出的是,呈现同一视频的客户端的交互提醒界面中会同时呈现响应所有特效触发事件(针对同一视频信息所监测到的所有特效触发事件)的虚拟特效;在步骤104的示例中,客户端1、以及客户端2接收到叠加后得到的视频流数据进行显示时,客户端1的图形界面会同时呈现有虚拟特效1以及虚拟特效2。
实际应用的一个场景示意图如图1b所示,用户1通过客户端1观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D红色玫瑰(对应虚拟特效1),用户2通过客户端2观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D黄色玫瑰(对应虚拟特效2);前端数据服务器从客户端1监测到特效触发事件1(携带虚拟特效标识1),从客户端2监测到特效触发事件2(携带虚拟特效标识2),对应特效触发事件1和特效触发事件2生成统一格式的指令数据,该指令数据可以被演播室数据服务器识别,并基于指令数据生成对应虚拟特效1的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2,并将所生成的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2发送至渲染服务器,渲染服务器基于虚拟特效的标识,从特效模型数据库获取虚拟特效1对应的特效模型1、以及虚拟特效2对应的特效模型2;对特效模型1执行渲染操作指令1,并对特效模型2执行渲染操作指令2,得到承载有虚拟特效1以及虚拟特效2的虚拟特效视频流数据;视频叠加服务器将虚拟特效视频流数据叠加入源视频流数据并通过网络通信链路发送至客户端1以及客户端2,客户端1和客户端2基于叠加后所得到的视频流数据在各自对应的图形界面中实时呈现叠加有虚拟特效1和虚拟特效2的视频信息。
可以看出,通过在客户端呈现的视频信息中监测特效触发事件,从而实施在视频信息中叠加虚拟特效的处理,将叠加有虚拟特效的视频信息在客户端中呈现,以使用户通过客户端观看到所触发的虚拟特效,在线上视频中实时叠加线上用户触发的虚拟特效,以支持线上通过客户端观看视频的用户形成互动,突破了相关技术中只能在视频信息的处理过程中在视频信息中叠加虚拟特效信息的限制;并且,用户通过客户端不仅可以看到用户自己实施特效触发事件在视频信息中所叠加的虚拟特效,并且可以看到其他用户通过在客户端实施特效触发事件在视频信息中所叠加的虚拟特效,不同的用户各自通过在客户端呈现的视频信息中叠加虚拟特效,实现了用户通过在视频信息叠加虚拟特效的实施互动方式,提高了用户信息交互的效率,提升了用户体验。
实施例二 权2、权3组合方案
本实施例针对当在至少两个客户端的图形界面中分别监测到特效触发事件时的处理作进一步说明,实际应用的业务场景中,往往是多个用户分别通过各自的客户端观看视频信息,当每个用户都通过客户端实施特效触发操作从而监测到对应的特效触发事件时,可以按照特定的优先级排序在视频信息中呈现响应特效触发事件的虚拟特效,也就是响应不同客户端的特效触发事件的虚拟特效的显著性进行了优先级上的区分,有利用实际业务场景中针对不同的用户(如重点用户和一般用户)进行有针对性的响应,提升重点用户的用户体验。
本实施例记载一种信息处理方法,如图2a所示,本实施例记载的信息处理方法包括以下步骤:
步骤201,基于源视频流数据触发客户端的图形界面中呈现视频信息,并监测对视频信息的特效触发事件。
客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、PC端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用APP、HTML5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤101中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤202,解析客户端生成的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
当用户通过客户端的图形界面观看视频信息时,客户端可以在图形界面中呈现可供用户在视频信息中叠加的虚拟特效,虚拟特效的形式可以采用以下形式至少之一:视频(可以采用2D或3D的形式,例如视频信息为演唱会现场时,虚拟特效可以为动态玫瑰花、动态评论文字等);音频特效(例如当视频信息为演唱会现场时,音频特效可以为掌声);可以在客户端的图形界面中实施特效触发操作;当用户在客户端的图形界面中实施特效触发操作时(也即在触发在客户端的图形界面中呈现的视频信息中呈现虚拟特效)时,客户端会监测到该特效触发操作并生成特效触发事件,表征用户触发在视频信息中叠加虚拟特效;特效触发事件可以携带参数,包括客户端的标识、用户实施的特效触发操作所选定的虚拟特效的标识,例如虚拟特效标识1时,信息处理装置依据虚拟特效的标识2,在候选虚拟特效确定具有标识2的虚拟特效为响应特效触发事件的虚拟特效;当特效触发事件未携带参数时(也即此时用户通过客户端的图形界面实施特效触发操作时未指定在视频信息中叠加何种形式的虚拟特效)时,可以在候选虚拟特效中随机选取在视频信息中叠加的虚拟特效。
步骤203,生成对应响应特效触发事件的虚拟特效的渲染操作指令。
步骤204,从特效模型数据库获取虚拟特效对应的特效模型。
例如,当从客户端1监测到特效触发事件1(携带虚拟特效标识1),从客户端2监测到特效触发事件2(携带虚拟特效标识2),则在步骤103中生成对应虚拟特效1的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2;在步骤104中,基于虚拟特效的标识,从特效模型数据库获取虚拟特效1对应的特效模型1、以及虚拟特效2对应的特效模型2;对特效模型1执行渲染操作指令1,并对特效模型2执行渲染操作指令2,得到承载有虚拟特效1以及虚拟特效2的虚拟特效视频流数据。
步骤205,对所监测到的特效触发事件的来源客户端进行优先级排序。
确定来源客户端的对应以下维度至少之一的特征值:
第一维度:监测到来自来源客户端的特效触发事件的先后时间排序,来源客户端的第一维度特征值与来源客户端生成虚拟特效事件的先后时间排序正相关,例如,当在第一时刻监测到来自客户端1的特效触发事件1、并在第二时刻(第一时刻之后)来自客户端2的特效触发事件2时,则客户端1的第一维度特征值大于客户端2的第一维度特征值;
第二维度:来源客户端的优先级排序,来源客户端的第二维度特征值与来源客户端的优先级排序正相关;来源客户端的优先级排序可以根据来源客户端的账户信息(如账户积分、等级)确定,例如,当客户端1和客户端2均为腾讯视频客户端时,可以根据用户1和用户2的腾讯视频账户信息(或者关联的QQ账户信息等)确定用户1和用户2的优先级排序(对应客户端1和客户端2的优先级排序);
比较来源客户端的特征值,基于特征值比较结果确定来源客户端的优先级排序,来源客户端的特征值为来源客户端对应的第一维度特征值和第二维度特征值基于特定权重值的加和;例如可以为第一维度特征值和第二位置特征值分别分配50%权重,则客户端1的特征值为:客户端1的第一维度特征值*50%+客户端1的第二维度特征值50%*;客户端2的特征值为:客户端2的第一维度特征值*50%+客户端2的第二维度特征值50%*;当客户端1的特征值大于客户端2的特征值时,则客户端的优先级排序为:客户端1>客户端2;
上述权重值仅为示例,例如还可以为第一维度特征值和第二维度特征值对应分配0、100%权重值,也即仅利用第二维度特征值确定客户端的优先级排序;当然,也可以为第一维度特征值和第二维度特征值对应分配100%、0权重值,也即仅利用第一维度特征值确定客户端的优先级排序。
步骤206,基于来源客户端的优先级排序,依次对响应特效触发事件的虚拟特效所对应的特效模型执行渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
其中,虚拟特效在虚拟特效视频流数据中呈现时的显著性排序与触发虚拟特效的来源客户端的优先级排序结果对应;也就是说,虚拟特效的来源客户端的优先级排序越高,则虚拟特效在虚拟特效视频流数据中呈现时显著性越高;不同的虚拟特效的显著性可以采用以下方式体现:
1)虚拟特效的显著性排序与虚拟特效在虚拟特效视频流中呈现的先后时间排序,即先呈现的虚拟特效的显著性要高于后呈现的虚拟特效的显著性;例如,客户端1的优先级高于客户端2的优先级时,则客户端1生成的特效触发事件1触发的虚拟特效1在虚拟特效视频流中先于客户端2生成的特效触发事件2触发的虚拟特效2呈现;
2)显著性排序与虚拟特效具有的属性信息的数量排序对应,也即虚拟特效的来源客户端的优先级越高,则虚拟特效具有的属性信息的数量也越多,属性信息可以包括:用动态效果属性(也即虚拟特效具有动态效果);动态效果持续时长属性;呈现客户端的标识属性(也即虚拟特效中包括有客户端的标识,如QQ用户名);呈现评论信息属性(也即虚拟特效中包括有用户的评论信息);虚拟特效占用区域属性(也即优先级高的客户端触发的虚拟特效的占用的显示区域大于优先级低的客户端触发的虚拟特效占用的显示区域)。
步骤207,将虚拟特效视频流数据叠加入源视频流数据,基于叠加后所得到的视频流数据在每个客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
叠加后所得到的视频流数据可以通过网络通信链路传输至客户端,以使客户端在自身的图形界面上呈现虚拟特效,需要指出的是,呈现同一视频的客户端的交互提醒界面中会同时呈现响应所有特效触发事件(针对同一视频信息所监测到的所有特效触发事件)的虚拟特效;客户端1、以及客户端2接收到叠加后得到的视频流数据进行显示时,客户端1的图形界面会同时呈现有虚拟特效1以及虚拟特效2,且虚拟特效1先于虚拟特效2(对应客户端1的优先级高于客户端2的优先级的情况),同样,客户端2的图形界面会同时呈现有虚拟特效1以及虚拟特效2。
实际应用的一个场景示意图如图2b所示,用户1在第一时刻通过客户端1观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D红色玫瑰(对应虚拟特效1),用户2在第二时刻(第一时刻之后)通过客户端2观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D黄色玫瑰(对应虚拟特效2);前端数据服务器从客户端1监测到特效触发事件1(携带虚拟特效标识1),从客户端2监测到特效触发事件2(携带虚拟特效标识2),对应特效触发事件1和特效触发事件2生成统一格式的指令数据,该指令数据可以被演播室数据服务器识别,并基于指令数据生成对应虚拟特效1的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2,并将所生成的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2发送至渲染服务器;前端数据服务器还根据上述的优先级确定方案确定客户端1和客户端2的优先级排序(这里设仅采用第一维度确定客户端的优先级排序,由于客户端1生成特效触发事件1的时刻早于客户端2生成特效触发事件2的时刻,因此客户端1的优先级高于客户端2的优先级);渲染服务器基于虚拟特效的标识,从特效模型数据库获取虚拟特效1对应的特效模型1、以及虚拟特效2对应的特效模型2;对特效模型1执行渲染操作指令1,并对特效模型2执行渲染操作指令2,得到承载有虚拟特效1以及虚拟特效2的虚拟特效视频流数据,并且基于客户端1和客户端2的优先级排序,虚拟特效1在虚拟特效视频流数据中先于虚拟特效2呈现;视频叠加服务器将虚拟特效视频流数据叠加入源视频流数据并通过网络通信链路发送至客户端1以及客户端2,客户端1和客户端2基于叠加后所得到的视频流数据在各自对应的图形界面中实时呈现叠加有虚拟特效1和虚拟特效2的视频信息,其中,由于虚拟特效1在虚拟特效视频流数据中先于虚拟特效2呈现,因此,用户1和用户2通过各自的客户端观看视频信息时,首先会在视频信息中看到视频信息中出现红玫瑰(对应虚拟特效1),然后会在视频信息中看到黄玫瑰(对应虚拟特效2);从而实现了用户1触发的红玫瑰虚拟特效的显著性大于用户2触发的黄玫瑰虚拟特效的效果;
另一个示例如图2c所示,用户1触发的红玫瑰虚拟特效携带用户1给出评论信息以及用户1的标识,并且红玫瑰虚拟特效占用的显示区域面积大于黄玫瑰虚拟特效占用的显示区域面积,从而实现了用户1触发的红玫瑰虚拟特效的显著性大于用户2触发的黄玫瑰虚拟特效的效果。
实施例三 权4方案
用户通过客户端触发虚拟特效时,可以允许用户(例如购买有偿虚拟特效服务的用户)设置所触发的虚拟特效属性,如虚拟特效的视觉效果、听觉效果、用户对视频信息的评论等。
本实施例记载一种信息处理方法,如图3a所示,本实施例记载的信息处理法包括以下步骤:
步骤301,基于源视频流数据在客户端的图形界面中呈现视频信息,并基于图形界面监测针对视频信息的特效触发事件。
客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、PC端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用APP、HTML5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤101中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤302,解析在客户端的图形界面中所监测到的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
步骤303,解析特效触发事件,得到特效触发事件设置的虚拟特效的属性信息。
属性包括以下至少之一:虚拟特效的视觉特征参数(如虚拟特效在视频信息中的位置、颜色、占用区域大小、是否采用动态显示效果等);虚拟特效的听觉特征参数(如虚拟特效中的音频的音量);对应视频信息的评论信息(用户通过客户端对视频信息作出的评论);客户端的标识信息(如通过腾讯视频观看视频信息时,可以采用用户的QQ号码)。
步骤304,基于特效触发事件所设置的虚拟特效的属性生成渲染操作指令。
步骤305,从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
利用步骤304中解析出的每个特效触发事件设置的虚拟特效的属性信息,针对每个虚拟特效属性信息生成对应的渲染操作指令,并在步骤305中针对每个虚拟特效事件对应的特效模型执行对应该虚拟特效的属性信息生成的特效渲染操作指令。
步骤306,将虚拟特效视频流数据叠加入源视频流数据,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
实际应用的一个场景示意图如图3b所示,用户1通过客户端1观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D红色玫瑰,并设置红色玫瑰中显示用户1的标识以及评论信息(对应虚拟特效1的属性信息),用户2通过客户端2观看演唱会现场的在线视频信息,并实施特效触发操作以触发在在线视频中显示3D黄色玫瑰(对应虚拟特效2),并设置显示用户2的标识以及评论信息(对应虚拟特效2的属性信息);前端数据服务器从客户端1监测到特效触发事件1(携带虚拟特效标识1、以及设置的虚拟特效1的属性信息),从客户端2监测到特效触发事件2(携带虚拟特效标识2、以及虚拟特效2的属性信息),对应特效触发事件1和特效触发事件2生成统一格式的指令数据,该指令数据可以被演播室数据服务器识别,并基于指令数据生成对应虚拟特效1的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2,并将所生成的渲染操作指令1、以及对应虚拟特效2的渲染操作指令2发送至渲染服务器,渲染服务器基于虚拟特效的标识,从特效模型数据库获取虚拟特效1对应的特效模型1、以及虚拟特效2对应的特效模型2;对特效模型1执行渲染操作指令1,并对特效模型2执行渲染操作指令2,得到承载有虚拟特效1(包括设置的虚拟特效1的属性信息)以及虚拟特效2(包括虚拟特效2的属性信息)的虚拟特效视频流数据;视频叠加服务器将虚拟特效视频流数据叠加入源视频流数据并通过网络通信链路发送至客户端1以及客户端2,客户端1和客户端2基于叠加后所得到的视频流数据在各自对应的图形界面中实时呈现叠加有虚拟特效1(包括用户设置的虚拟特效1的属性信息)和虚拟特效2(包括用户设置的虚拟特效1的属性信息)的视频信息。
实施例四 权5方案
当客户端呈现实时的视频信息(例如演唱会现场),且视频信息中叠加有客户端用户触发的虚拟特效时(虚拟特效可以包括评论信息),可以在演唱会现场(对应视频信息的来源环境)进行信息采集,得到演唱会现场针对虚拟特效的反馈信息(对应交互信息),并将交互信息以虚拟特效进行包装处理为交互信息视频数据流,以叠加入实时视频信息数据流在客户端呈现,实现了客户端用户和演唱会现场的双向交互。
本实施例记载一种信息处理方法,如图4所示,本实施例记载的信息处理方法包括以下步骤:
步骤401,基于源视频流数据在客户端的图形界面中呈现视频信息,并基于图形界面监测针对视频信息的特效触发事件。
客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、PC端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用APP、HTML5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤401中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤402中,解析在客户端的图形界面中所监测到的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
步骤403,生成对应响应特效触发事件的虚拟特效的渲染操作指令。
步骤404,从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
步骤405,将虚拟特效视频流数据叠加入源视频流数据,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
作为上述步骤的一个示例,请参见实施例一至实施例三的记载,用户1通过客户端1实施特效触发操作触发在视频信息中叠加红玫瑰虚拟特效(对应虚拟特效1),客户端1对应生成虚拟特效事件1(携带客户端1的标识、以及用户1的评论信息),最终在客户端1中呈现叠加有红玫瑰虚拟特效的视频信息;当
步骤406,对视频信息的来源环境进行消息采集得到交互信息。
当视频信息的来源环境中设置有客户端2(例如演唱会现场的大型显示屏)时,客户端2中可以呈现有红玫瑰虚拟特效(包括用户1的评论信息);此时,演唱会现场的人员可以根据评论给出交互信息如“谢谢”等,通过对来源环境信息进行音频采集并进行语音识别处理得到交互信息。
步骤407,将交互信息进行虚拟特效处理得到承载有交互信息的交互信息视频流数据。
步骤408,将交互信息视频流数据叠加入视频流数据,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效、以及交互信息的视频信息。
用户1通过客户端1可以看到来自演唱会现场的交互信息,实现了线上用户与视频信息的来源环境中的人员的交互,增加了用户通过客户端观看视频信息的互动性,提升了用户体验。
实施例五 权6方案
实际应用场景中,当用户1和用户1均通过各自的客户端触发虚拟特效时,用户a会在客户端的视频信息观看到用户1触发的虚拟特效、以及用户1触发的虚拟特效,当用户1需要与用户1通信时,可以在用户1的客户端的图形界面上选定用户2触发的虚拟特效,建立用户1与用户2的客户端的通信连接,实现线上用户的交互。
本实施例记载一种信息处理方法,如图5a所示,本实施例记载的信息处理方法包括以下步骤:
步骤501,基于源视频流数据在客户端的图形界面中呈现视频信息,并基于图形界面监测对视频信息的特效触发事件。
客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、PC端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用APP、HTML5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤101中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤502,解析在客户端的图形界面中所监测到的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
步骤503,生成对应响应特效触发事件的虚拟特效的渲染操作指令。
步骤504,从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
步骤505,将虚拟特效视频流数据叠加入源视频流数据,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
步骤506,在呈现有虚拟特效的客户端的图形界面中监测通信触发事件。
客户端监测用户对图形界面的操作,当监测到操控对象为其他客户端触发在视频中叠加的虚拟特效的操作(也即通信触发操作)时,则生成通信触发事件(携带生成通信触发事件的客户端的标识、以及触发选定的虚拟特效的客户端的标识)。例如,当用户1通过客户端1观看到虚拟特效(包括用户2的标识)时,在客户端1的图形界面中实施通信触发操作(也即选定用户2的虚拟特效),则生成通信触发事件(携带客户端1和客户端2的标识)。
步骤507,解析所述通信触发事件得到目标客户端的标识。
步骤508,基于所述通信触发事件的来源客户端的标识、以及所述目标客户端的标识,建立所述通信触发事件的来源客户端与所述目标客户端的网络通信链路。
如图5b所示,以步骤506为例,前端数据服务器解析通信触发事件得到需要建立通信连接的客户端为客户端1和客户端2,则为客户端1和客户端2建立通信连接,以用户1的客户端1和用户2的客户端2均运行腾讯视频应用为例,建立用户1的QQ号码与用户2的QQ号码的网络通信链路,并在客户端1和客户端2呈现用户1与用户2的临时对话窗口,实现线上用户的交互。
实施例六 权7方案
实际应用中,用户通过客户端虚拟特效时,进行虚拟特效的渲染、以及视频数据流的叠加往往会产生一定的时延,为提升用户体验,在用户虚拟特效至客户端的图形界面中呈现有虚拟特效的时间段中,可以呈现对应虚拟特效的道具信息,实现延时效果。
本实施例记载一种信息处理方法,如图6所示,本实施例记载的信息处理方法包括以下步骤:
步骤601,基于源视频流数据在客户端的图形界面中呈现视频信息,并基于图形界面监测针对视频信息的特效触发事件。
客户端为承载视频信息并进行播放的介质,包括:终端(可以为智能手机、平板电脑)网页、PC端客户端、移动端(如智能手机、平台电脑,可以运行安卓系统或IOS系统)应用APP、HTML5页面、电视机顶盒、Xbox/PS3游戏机、车载广告展示屏,还包括其他任意可以承载视频信息并进行播放的介质,本实施例中对客户端的具体类型不做限定;步骤101中可以通过网络通信链路向一个或两个以上客户端发送源视频流数据,以使客户端在自身的图形界面上呈现对应的视频信息。
步骤602中,解析在客户端的图形界面中所监测到的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效。
步骤603,在监测到所述特效触发事件的图形界面中,呈现对应虚拟特效的道具信息。
道具信息可以具有动态显示效果,例如可以表征虚拟特效从图形界面中特效触发事件的触发实施区域移动至视频信息中叠加有虚拟特效的区域;实际应用中,可以根据客户端的标识(对应用户的标识)确定是否呈现道具信息,例如可以对于等级较高的用户的客户端中呈现道具信息,或者在购买有偿道具信息服务的用户的客户端中呈现道具信息。
步骤604,生成对应响应特效触发事件的虚拟特效的渲染操作指令。
步骤605,从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据。
步骤606,将虚拟特效视频流数据叠加入源视频流数据。
步骤607,停止呈现对应虚拟特效的道具信息,基于叠加后所得到的视频流数据在客户端的图形界面中实时呈现叠加有虚拟特效的视频信息。
实施例七
本实施例记载一种信息处理装置,用以执行上述的信息处理方法,对于本实施例中未披露的技术细节请参见上述实施例的记载。
如图7所示,本实施例记载的信息处理装置包括:
监测模块71,用于基于源视频流数据在客户端的图形界面中呈现视频信息,并基于图形界面监测针对视频信息的特效触发事件;
解析模块72,用于解析来自客户端的特效触发事件,在候选虚拟特效中确定响应特效触发事件的虚拟特效,生成对应虚拟特效的渲染操作指令;
渲染模块73,用于从特效模型数据库获取虚拟特效对应的特效模型,对虚拟特效对应的特效模型执行对应虚拟特效所生成的渲染操作指令,得到承载有虚拟特效的虚拟特效视频流数据;
叠加模块74,用于将虚拟特效视频流数据叠加入源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发客户端实时呈现叠加有虚拟特效的视频信息。
作为一个实施方式,所述渲染模块73包括:
排序单元731,用于当所述监测模块监测到来自至少两个不同所述客户端的特效触发事件时,对所监测到的特效触发事件的来源客户端进行优先级排序;
渲染单元732(与排序单元731耦合),用于基于对所述来源客户端的优先级排序结果,依次对响应所述特效触发事件的虚拟特效所对应的特效模型执行渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据;
其中,所述虚拟特效在所述虚拟特效视频流数据中呈现的显著性排序与触发所述虚拟特效的来源客户端的优先级排序结果对应。
作为一个实施方式,所述排序单元731还用于确定所述来源客户端的对应以下维度至少之一的特征值:
第一维度:来自所述来源客户端的特效触发事件的先后时间排序,所述来源客户端的第一维度特征值与所述来源客户端生成虚拟特效事件的先后时间排序正相关;
第二维度:所述来源客户端的优先级排序,所述来源客户端的第二维度特征值与所述来源客户端的优先级排序正相关;
比较所述来源客户端的特征值,基于特征值比较结果确定所述来源客户端的优先级排序,所述来源客户端的特征值为所述来源客户端对应的第一维度特征值和第二维度特征值基于特定权重值的加和。
作为一个实施方式,所述渲染模块73,还用于解析来自所述客户端的虚拟特效触发事件,得到所述客户端所设置的所述虚拟特效的以下属性信息至少之一:
所述虚拟特效的视觉特征参数;所述虚拟特效的听觉特征参数;来自触发所述虚拟特效的客户端的评论信息;触发所述虚拟特效的客户端的标识信息;
以具有所述属性信息至少之一的虚拟特效为渲染操作目标生成渲染操作指令。
作为一个实施方式,所述信息处理装置还包括:
采集模块75,用于当所述客户端中实时呈现叠加有所述虚拟特效的视频信息时,对所述视频信息的来源环境进行采集得到交互信息;
虚拟特效处理模块,用于将所述交互信息进行虚拟特效处理得到承载有所述交互信息的交互信息视频流数据;
所述叠加模块,还用于将所述交互信息视频流数据叠加入所述视频流数据,基于叠加后所得到的视频流数据在所述客户端实时呈现叠加有所述虚拟特效、以及所述交互信息的视频信息。
作为一个实施方式,所述监测模块71还用于在呈现有所述虚拟特效的客户端中监测通信触发事件;
所述解析模块,还用于解析所述通信触发事件得到目标客户端的标识;
所述信息处理装置还包括通信连接模块,用于基于所述通信触发事件的来源客户端的标识、以及所述目标客户端的标识,建立所述来源客户端与所述目标客户端的网络通信链路。
作为一个实施方式,所述信息处理装置还包括:
虚拟道具模块76,用于在监测到所述特效触发事件时,从道具呈现接口数据库调用道具信息在所述特效事件的来源客户端呈现,直至,
当所述来源客户端接收到所述视频流数据时停止呈现所述道具信息。
实际应用中,上述信息处理装置中的模块可以设置于单个服务器,或者可以基于实际应用的网络拓扑结构分布设置于不同的服务器中;上述模块可由微处理器(MCU)、逻辑可编程门阵列(FPGA)或专用集成电路(ASIC)实现;下面以分布设置各模块进行说明。
本实施例还记载一种客户端,如图8所示,本实施例记载的客户端包括:
呈现模块81,用于基于源视频流数据呈现视频信息;
监测模块82,用于当监测到用户对所述视频信息的特效触发操作时生成特效触发事件;
所述呈现模块81,还用于基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定;上述模块可由MCU、FPGA或ASIC实现;。
如图9所示的客户端以及服务器形式分布设置的信息处理装置中的各模块:
客户端也即前端图形界面(UI):用于呈现图形界面、以及供用户触发虚拟特效的入口,并作为播放视频信息的观看的界面。
前端数据服务器,用于将用户前端交互操作转化成指令数据。例如,用户在UI界面上点击“虚拟道具”触发按钮,前端数据服务器接收到特效触发事件,将特效触发事件转换成统一格式的指令数据;等待演播室数据服务器的请求,将数据通过网络发送给演播室数据服务器;同时,通过道具接口调用虚拟特效对应的前端道具,在客户端呈现延时效果。
虚拟特效对应的前端道具,如虚拟特效可以是3D玫瑰花的虚拟特效,为了增强用户体验,用户在客户端购买虚拟特效的时候,客户端可以有对应的玫瑰花呈现的前端道具,实现延时效果。
演播室数据服务器:请求前端数据服务器发送的指令数据,接收前端服务器发送的指令数据,将指令数据处理成渲染引擎识别的渲染操作指令,发送给渲染服务器。
渲染服务器,主要用于识别演播室数据服务器传输过来的渲染操作指令,调用VizArtist软件的接口,调用3D虚拟特效模型,控制自身的虚拟播放模块进行虚拟特效的渲染,Viz/ Engine 是一种综合性的动画、合成及渲染软件引擎,可被用于广播实时在线、互联网实时渲染广播推送、高效动画后期制作及其他显像应用中的图形渲染。
虚拟特效3D模型库:可以采用Viz Artist设计3D虚拟特效模型。
视频叠加虚拟特效服务器:在现场的真实场景的视频中叠加虚拟特效,将视频与虚拟特效叠加成一路信号输出视频流,视频流编码后在网络上直播输出,供用户通过客户端观看。
基于图9的具体处理流程如图10所示,包括以下处理步骤:
1)赠送道具
用户从客户端的播放器特效入口触发虚拟特效(可以为3D虚拟特效)时,从道具接口调用道具,在客户端呈现道具(道具可以在客户端免费呈现,或者在用户购买并触发虚拟特效时才呈现;如图11为显示道具的示意图,图11以道具为3D玫瑰花为例,赠送道具时可以呈现3D玫瑰花从客户端的图形界面中被触发的位置移动至显示视频的区域。
2)赠送成功
完成赠送道具的事件,将赠送成功的结果数据存储在前端数据服务器,同时,赠送成功事件将会触发赠送成功实时反馈。
3)赠送成功实时反馈
在客户端反馈赠送道具的成功信息给用户。
4)前端数据服务器处理数据
前端数据服务器将触发虚拟特效的指令数据(设置虚拟特效的属性、如视觉特征参数、听觉特征参数、评论信息、用户标识信息)根据约定的接口协议格式处理,并通知演播室数据服务器。
5)演播室数据服务器处理数据
演播室数据服务器请求前端数据服务器的用户指令数据,将用户指令数据转换成3D渲染服务器可识别处理的渲染操作指令。
6)3D渲染服务器渲染虚拟特效
3D渲染服务器接收演播室数据服务器的指令数据,调用虚拟特效3D模型,进行3D虚拟特效的渲染。
7)直播流特效展示
渲染完成的虚拟特效与视频信号的直播视频流信号叠加,在客户端以直播流的形式展示,虚拟特效将会呈现在直播视频流中;如图12至图14为客户端呈现叠加有虚拟特效的视频的示意图。
实施例八
本实施例记载一种计算机可读介质,可以为ROM(例如,只读存储器、FLASH存储器、转移装置等)、磁存储介质(例如,磁带、磁盘驱动器等)、光学存储介质(例如,CD-ROM、DVD-ROM、纸卡、纸带等)以及其他熟知类型的程序存储器;所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,引起至少一个处理器执行包括以下的操作:
基于源视频流数据触发客户端呈现视频信息,并监测针对所述视频信息的特效触发事件;
解析来自所述客户端的特效触发事件,在候选虚拟特效中确定响应所述特效触发事件的虚拟特效,生成对应所述虚拟特效的渲染操作指令;
对所述虚拟特效对应的特效模型执行对应所述虚拟特效所生成的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,其中,所述虚拟特效对应的特效模型为从特效模型数据库获取;
将所述虚拟特效视频流数据叠加入所述源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发所述客户端实时呈现叠加有所述虚拟特效的视频信息。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:所述对所述虚拟特效对应的特效模型执行对应所述虚拟特效的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,包括:
当监测到来自至少两个不同所述客户端的特效触发事件时,对所监测到的特效触发事件的来源客户端进行优先级排序;
基于对所述来源客户端的优先级排序结果,依次对响应所述特效触发事件的虚拟特效所对应的特效模型执行渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据;
其中,所述虚拟特效在所述虚拟特效视频流数据中呈现的显著性排序与触发所述虚拟特效的来源客户端的优先级排序结果对应。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:所述对所监测到的特效触发事件的来源客户端进行优先级排序,包括:
确定所述来源客户端对应以下维度至少之一的特征值:
第一维度:来自所述来源客户端的特效触发事件的先后时间排序,所述来源客户端的第一维度特征值与所述来源客户端生成虚拟特效事件的先后时间排序正相关;
第二维度:所述来源客户端的优先级排序,所述来源客户端的第二维度特征值与所述来源客户端的优先级排序正相关;
比较所述来源客户端的特征值,基于特征值比较结果确定所述来源客户端的优先级排序,所述来源客户端的特征值为所述来源客户端对应的第一维度特征值和第二维度特征值基于特定权重值的加和。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:解析来自所述客户端的虚拟特效触发事件,得到所述虚拟特效的以下属性信息至少之一:
所述虚拟特效的视觉特征参数;所述虚拟特效的听觉特征参数;来自触发所述虚拟特效的客户端的评论信息;触发所述虚拟特效的客户端的标识信息;
以具有所述属性信息至少之一的虚拟特效为渲染操作目标生成渲染操作指令。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:在所述客户端中实时呈现叠加有所述虚拟特效的视频信息时,对所述视频信息的来源环境进行采集得到交互信息;
将所述交互信息进行虚拟特效处理得到承载有所述交互信息的交互信息视频流数据;
将所述交互信息视频流数据叠加入所述视频流数据,基于叠加后所得到的视频流数据在所述客户端实时呈现叠加有所述虚拟特效、以及所述交互信息的视频信息。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:在呈现有所述虚拟特效的客户端中监测通信触发事件;
解析所述通信触发事件得到目标客户端的标识;
基于所述通信触发事件的来源客户端的标识、以及所述目标客户端的标识,建立所述来源客户端与所述目标客户端的网络通信链路。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:监测到所述特效触发事件时,从道具呈现接口数据库调用道具信息在所述特效触发事件的来源客户端呈现,直至,
当所述来源客户端接收到所述视频流数据时停止呈现所述道具信息。
本实施例还记载一种计算机可读介质,可以为ROM(例如,只读存储器、FLASH存储器、转移装置等)、磁存储介质(例如,磁带、磁盘驱动器等)、光学存储介质(例如,CD-ROM、DVD-ROM、纸卡、纸带等)以及其他熟知类型的程序存储器;所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,引起至少一个处理器执行包括以下的操作:
基于源视频流数据呈现视频信息,当监测到用户对所述视频信息的特效触发操作时生成特效触发事件;
基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定。
作为一个实施方式,所述计算机可读介质中存储有计算机可执行指令,当执行所述指令时,还引起至少一个处理器执行包括以下的操作:监测用户实施的通信触发操作;
监测到通信触发操作时生成通信触发事件,所述通信触发事件携带所述客户端的标识、以及目标客户端的标识;
其中,所述客户端的标识、以及所述目标客户端的标识用于触发建立所述客户端与所述目标客户端的网络通信链路。
综上所述,本发明实施例具有以下有益效果:
1)视频虚拟特效的整个过程由用户和视频服务商来共同完成,用户可以直接影响视频的虚拟特效,能够在线上视频中实时叠加线上用户触发的虚拟特效,以支持线上通过客户端观看视频的用户形成互动,提升用户体验;
2)用户通过互联网触发视频的虚拟特效的播放,实现了用户与视频的实时的直接的交互。
4)将视频虚拟特效技术应用到节目互动模式中,为用户带来虚实交错和实时互动的身临其境的全新观赏体验。
5)实际的人物(如:主持人、歌手)与虚拟的角色或物件可以实现多样化的互动。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、随机存取存储器(RAM,Random Access Memory)、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、RAM、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (18)
1.一种信息处理方法,其特征在于,所述方法包括:
基于源视频流数据触发客户端呈现视频信息,并监测针对所述视频信息的特效触发事件;
解析来自所述客户端的特效触发事件,在候选虚拟特效中确定响应所述特效触发事件的虚拟特效,生成对应所述虚拟特效的渲染操作指令;
对所述虚拟特效对应的特效模型执行对应所述虚拟特效所生成的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,其中,所述虚拟特效对应的特效模型为从特效模型数据库获取;
将所述虚拟特效视频流数据叠加入所述源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发所述客户端实时呈现叠加有所述虚拟特效的视频信息。
2.如权利要求1所述的方法,其特征在于,所述对所述虚拟特效对应的特效模型执行对应所述虚拟特效的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,包括:
当监测到来自至少两个不同所述客户端的特效触发事件时,对所监测到的特效触发事件的来源客户端进行优先级排序;
基于对所述来源客户端的优先级排序结果,依次对响应所述特效触发事件的虚拟特效所对应的特效模型执行渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据;
其中,所述虚拟特效在所述虚拟特效视频流数据中呈现的显著性排序与触发所述虚拟特效的来源客户端的优先级排序结果对应。
3.如权利要求2所述的方法,其特征在于,所述对所监测到的特效触发事件的来源客户端进行优先级排序,包括:
确定所述来源客户端对应以下维度至少之一的特征值:
第一维度:来自所述来源客户端的特效触发事件的先后时间排序,所述来源客户端的第一维度特征值与所述来源客户端生成虚拟特效事件的先后时间排序正相关;
第二维度:所述来源客户端的优先级排序,所述来源客户端的第二维度特征值与所述来源客户端的优先级排序正相关;
比较所述来源客户端的特征值,基于特征值比较结果确定所述来源客户端的优先级排序,所述来源客户端的特征值为所述来源客户端对应的第一维度特征值和第二维度特征值基于特定权重值的加和。
4.如权利要求1所述的方法,其特征在于,所述生成对应所述虚拟特效的渲染操作指令,包括:
解析来自所述客户端的虚拟特效触发事件,得到所述虚拟特效的以下属性信息至少之一:
所述虚拟特效的视觉特征参数;所述虚拟特效的听觉特征参数;来自触发所述虚拟特效的客户端的评论信息;触发所述虚拟特效的客户端的标识信息;
以具有所述属性信息至少之一的虚拟特效为渲染操作目标生成渲染操作指令。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
在所述客户端中实时呈现叠加有所述虚拟特效的视频信息时,对所述视频信息的来源环境进行采集得到交互信息;
将所述交互信息进行虚拟特效处理得到承载有所述交互信息的交互信息视频流数据;
将所述交互信息视频流数据叠加入所述视频流数据,基于叠加后所得到的视频流数据在所述客户端实时呈现叠加有所述虚拟特效、以及所述交互信息的视频信息。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
在呈现有所述虚拟特效的客户端中监测通信触发事件;
解析所述通信触发事件得到目标客户端的标识;
基于所述通信触发事件的来源客户端的标识、以及所述目标客户端的标识,建立所述来源客户端与所述目标客户端的网络通信链路。
7.如权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
监测到所述特效触发事件时,从道具呈现接口数据库调用道具信息在所述特效触发事件的来源客户端呈现,直至,
当所述来源客户端接收到所述视频流数据时停止呈现所述道具信息。
8.一种信息处理方法,其特征在于,所述方法包括:
客户端基于源视频流数据呈现视频信息,当监测到用户对所述视频信息的特效触发操作时生成特效触发事件;
基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定。
9.如权利要求8所述的方法,其特征在于,所述方法还包括:
监测用户实施的通信触发操作;
监测到通信触发操作时生成通信触发事件,所述通信触发事件携带所述客户端的标识、以及目标客户端的标识;
其中,所述客户端的标识、以及所述目标客户端的标识用于触发建立所述客户端与所述目标客户端的网络通信链路。
10.一种信息处理装置,其特征在于,所述信息处理装置包括:
监测模块,用于基于源视频流数据触发客户端呈现视频信息,并监测针对所述视频信息的特效触发事件;
解析模块,用于解析来自所述客户端的特效触发事件,在候选虚拟特效中确定响应所述特效触发事件的虚拟特效,生成对应所述虚拟特效的渲染操作指令;
渲染模块,用于对所述虚拟特效对应的特效模型执行对应所述虚拟特效所生成的渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据,其中,所述虚拟特效对应的特效模型为从特效模型数据库获取;
叠加模块,用于将所述虚拟特效视频流数据叠加入所述源视频流数据,基于网络通信链路传输叠加后所得到的视频流数据,并基于叠加后所得到的视频流数据触发所述客户端实时呈现叠加有所述虚拟特效的视频信息。
11.如权利要求10所述的信息处理装置,其特征在于,所述渲染模块包括:
排序单元,用于当所述监测模块监测到来自至少两个不同所述客户端的特效触发事件时,对所监测到的特效触发事件的来源客户端进行优先级排序;
渲染单元,用于基于对所述来源客户端的优先级排序结果,依次对响应所述特效触发事件的虚拟特效所对应的特效模型执行渲染操作指令,得到承载有所述虚拟特效的虚拟特效视频流数据;
其中,所述虚拟特效在所述虚拟特效视频流数据中呈现的显著性排序与触发所述虚拟特效的来源客户端的优先级排序结果对应。
12.如权利要求11所述的信息处理装置,其特征在于,
所述排序单元还用于确定所述来源客户端对应以下维度至少之一的特征值:
第一维度:来自所述来源客户端的特效触发事件的先后时间排序,所述来源客户端的第一维度特征值与所述来源客户端生成虚拟特效事件的先后时间排序正相关;
第二维度:所述来源客户端的优先级排序,所述来源客户端的第二维度特征值与所述来源客户端的优先级排序正相关;
比较所述来源客户端的特征值,基于特征值比较结果确定所述来源客户端的优先级排序,所述来源客户端的特征值为所述来源客户端对应的第一维度特征值和第二维度特征值基于特定权重值的加和。
13.如权利要求10所述的信息处理装置,其特征在于,
所述渲染模块,还用于解析来自所述客户端的虚拟特效触发事件,得到所述虚拟特效的以下属性信息至少之一:
所述虚拟特效的视觉特征参数;所述虚拟特效的听觉特征参数;来自触发所述虚拟特效的客户端的评论信息;触发所述虚拟特效的客户端的标识信息;
以具有所述属性信息至少之一的虚拟特效为渲染操作目标生成渲染操作指令。
14.如权利要求10所述的信息处理装置,其特征在于,所述信息处理装置还包括:
采集模块,用于当所述客户端中实时呈现叠加有所述虚拟特效的视频信息时,对所述视频信息的来源环境进行采集得到交互信息;
虚拟特效处理模块,用于将所述交互信息进行虚拟特效处理得到承载有所述交互信息的交互信息视频流数据;
所述叠加模块,还用于将所述交互信息视频流数据叠加入所述视频流数据,基于叠加后所得到的视频流数据在所述客户端实时呈现叠加有所述虚拟特效、以及所述交互信息的视频信息。
15.如权利要求10所述的信息处理装置,其特征在于,
所述监测模块还用于在呈现有所述虚拟特效的客户端中监测通信触发事件;
所述解析模块,还用于解析所述通信触发事件得到目标客户端的标识;
所述信息处理装置还包括通信连接模块,用于基于所述通信触发事件的来源客户端的标识、以及所述目标客户端的标识,建立所述来源客户端与所述目标客户端的网络通信链路。
16.如权利要求10至15任一项所述的信息处理装置,其特征在于,所述信息处理装置还包括:
虚拟道具模块,用于在监测到所述特效触发事件时,从道具呈现接口数据库调用道具信息在所述特效事件的来源客户端呈现,直至,
当所述来源客户端接收到所述视频流数据时停止呈现所述道具信息。
17.一种客户端,其特征在于,所述客户端包括:
呈现模块,用于基于源视频流数据呈现视频信息;
监测模块,用于当监测到对所述视频信息的特效触发操作时生成特效触发事件;
所述呈现模块,还用于基于从网络通信链路获取的视频流数据实时呈现叠加有虚拟特效的视频信息,所述虚拟特效用于响应所述特效触发事件;
其中,所述视频流数据为基于虚拟特效视频流数据和所述源视频流数据进行叠加得到,所述虚拟特效视频流数据为对从特效模型数据库获取的对应虚拟特效的特效模型执行渲染操作得到,所述虚拟特效为通过解析所述特效触发事件在候选虚拟特效中选定。
18.如权利要求17所述的客户端,其特征在于,
所述监测模块还用于在呈现有所述虚拟特效的客户端中监测通信触发操作;监测到通信触发操作时生成通信触发事件,所述通信触发事件携带所述客户端的标识、以及目标客户端的标识;
其中,所述客户端的标识、以及所述目标客户端的标识用于触发建立所述客户端与所述目标客户端的网络通信链路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510065026.9A CN104618797B (zh) | 2015-02-06 | 2015-02-06 | 信息处理方法、装置及客户端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510065026.9A CN104618797B (zh) | 2015-02-06 | 2015-02-06 | 信息处理方法、装置及客户端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104618797A CN104618797A (zh) | 2015-05-13 |
CN104618797B true CN104618797B (zh) | 2018-02-13 |
Family
ID=53153040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510065026.9A Active CN104618797B (zh) | 2015-02-06 | 2015-02-06 | 信息处理方法、装置及客户端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104618797B (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104994421A (zh) * | 2015-06-30 | 2015-10-21 | 广州华多网络科技有限公司 | 一种直播频道中虚拟物品的互动方法、装置和系统 |
CN105335064B (zh) | 2015-09-29 | 2017-08-15 | 腾讯科技(深圳)有限公司 | 一种信息处理方法和终端 |
CN105578110B (zh) * | 2015-11-19 | 2019-03-19 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法 |
CN105657323A (zh) * | 2015-12-30 | 2016-06-08 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、装置和系统 |
CN105610868B (zh) * | 2016-03-03 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种信息交互的方法、设备及系统 |
CN105975066A (zh) * | 2016-04-28 | 2016-09-28 | 乐视控股(北京)有限公司 | 基于虚拟现实设备的控制方法及装置 |
CN105898522A (zh) * | 2016-05-11 | 2016-08-24 | 乐视控股(北京)有限公司 | 一种弹幕信息处理方法和装置、系统 |
CN105933330B (zh) * | 2016-06-13 | 2019-03-15 | 武汉斗鱼网络科技有限公司 | 一种基于直播弹幕控制人员置顶的方法及装置 |
CN106303733B (zh) * | 2016-08-11 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 播放直播特效信息的方法和装置 |
CN106331735B (zh) * | 2016-08-18 | 2020-04-21 | 北京奇虎科技有限公司 | 一种特效处理方法、电子设备及服务器 |
CN106303578B (zh) * | 2016-08-18 | 2020-10-16 | 北京奇虎科技有限公司 | 一种基于主播节目的信息处理方法、电子设备及服务器 |
CN106331880B (zh) * | 2016-09-09 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及系统 |
CN106385591B (zh) | 2016-10-17 | 2020-05-15 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN106604101A (zh) * | 2016-11-15 | 2017-04-26 | 北京小米移动软件有限公司 | 直播互动的方法及装置 |
CN106792246B (zh) * | 2016-12-09 | 2021-03-09 | 福建星网视易信息系统有限公司 | 一种融合式虚拟场景互动的方法及系统 |
CN106791786B (zh) * | 2016-12-29 | 2019-04-12 | 北京奇艺世纪科技有限公司 | 直播方法及装置 |
CN108540515B (zh) * | 2017-03-06 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及服务器 |
CN107371057B (zh) * | 2017-06-16 | 2020-09-08 | 武汉斗鱼网络科技有限公司 | 一种设置美颜效果的方法和装置 |
CN109218837B (zh) * | 2017-06-30 | 2020-09-08 | 武汉斗鱼网络科技有限公司 | 一种显示虚拟礼物特效的方法和设备 |
CN109218757B (zh) * | 2017-06-30 | 2020-09-08 | 武汉斗鱼网络科技有限公司 | 一种显示虚拟礼物特效的方法和设备 |
CN107743221A (zh) * | 2017-10-30 | 2018-02-27 | 上海麦界信息技术有限公司 | 一种基于3d模式的电视节目互动方法 |
CN109936749B (zh) * | 2017-12-18 | 2022-04-19 | 腾讯科技(深圳)有限公司 | 特效实现方法、装置和可读存储介质 |
CN108234903B (zh) * | 2018-01-30 | 2020-05-19 | 广州市百果园信息技术有限公司 | 互动特效视频的处理方法、介质和终端设备 |
CN108924176A (zh) * | 2018-05-04 | 2018-11-30 | 中国信息安全研究院有限公司 | 一种数据推送方法 |
CN108647313A (zh) * | 2018-05-10 | 2018-10-12 | 福建星网视易信息系统有限公司 | 一种实时生成演唱视频的方法和系统 |
CN109529329B (zh) * | 2018-11-21 | 2022-04-12 | 北京像素软件科技股份有限公司 | 游戏特效处理方法及装置 |
CN110221822A (zh) * | 2019-05-29 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 特效的合并方法、装置、电子设备及计算机可读存储介质 |
CN112040270B (zh) * | 2019-06-03 | 2022-05-31 | 广州虎牙信息科技有限公司 | 一种直播方法、装置、设备和存储介质 |
CN110489250A (zh) * | 2019-08-26 | 2019-11-22 | 携程计算机技术(上海)有限公司 | 基于事件的可配置化的执行操作方法及系统 |
CN110599396B (zh) * | 2019-09-19 | 2024-02-02 | 网易(杭州)网络有限公司 | 信息处理方法及装置 |
CN111147770B (zh) * | 2019-12-18 | 2023-07-07 | 广东保伦电子股份有限公司 | 一种多路视频窗口叠加显示方法、电子设备及存储介质 |
CN111541914B (zh) * | 2020-05-14 | 2021-10-15 | 腾讯科技(深圳)有限公司 | 一种视频处理方法及存储介质 |
CN114071115A (zh) * | 2020-07-31 | 2022-02-18 | 阿里巴巴集团控股有限公司 | 自由视点视频重建及播放处理方法、设备及存储介质 |
JP7459297B2 (ja) | 2021-05-28 | 2024-04-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 仮想環境におけるエフェクト生成方法、装置、機器及びコンピュータプログラム |
CN113181645A (zh) * | 2021-05-28 | 2021-07-30 | 腾讯科技(成都)有限公司 | 特效显示方法、装置、电子设备及存储介质 |
CN113746837B (zh) * | 2021-09-03 | 2023-07-21 | 北京百度网讯科技有限公司 | 信息处理方法和装置、电子设备、计算机可读介质 |
CN114302153B (zh) * | 2021-11-25 | 2023-12-08 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频播放方法及装置 |
CN114327204A (zh) * | 2021-12-30 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 信息显示方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129346A (zh) * | 2011-03-03 | 2011-07-20 | 亿度慧达教育科技(北京)有限公司 | 一种视频互动方法及装置 |
CN103634681A (zh) * | 2013-11-29 | 2014-03-12 | 腾讯科技(成都)有限公司 | 直播互动方法、装置、客户端、服务器及系统 |
CN103905885A (zh) * | 2014-03-25 | 2014-07-02 | 广州华多网络科技有限公司 | 视频直播方法及装置 |
CN103997688A (zh) * | 2014-04-28 | 2014-08-20 | 小米科技有限责任公司 | 智能交互系统、装置和方法 |
CN104104703A (zh) * | 2013-04-09 | 2014-10-15 | 广州华多网络科技有限公司 | 多人音视频互动方法、客户端、服务器及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103096128B (zh) * | 2011-11-07 | 2016-07-06 | 中国移动通信集团公司 | 一种实现视频互动的方法、服务器、终端及系统 |
-
2015
- 2015-02-06 CN CN201510065026.9A patent/CN104618797B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129346A (zh) * | 2011-03-03 | 2011-07-20 | 亿度慧达教育科技(北京)有限公司 | 一种视频互动方法及装置 |
CN104104703A (zh) * | 2013-04-09 | 2014-10-15 | 广州华多网络科技有限公司 | 多人音视频互动方法、客户端、服务器及系统 |
CN103634681A (zh) * | 2013-11-29 | 2014-03-12 | 腾讯科技(成都)有限公司 | 直播互动方法、装置、客户端、服务器及系统 |
CN103905885A (zh) * | 2014-03-25 | 2014-07-02 | 广州华多网络科技有限公司 | 视频直播方法及装置 |
CN103997688A (zh) * | 2014-04-28 | 2014-08-20 | 小米科技有限责任公司 | 智能交互系统、装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104618797A (zh) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104618797B (zh) | 信息处理方法、装置及客户端 | |
CN106502554B (zh) | 一种显示控制方法及装置 | |
CN106997235B (zh) | 用于实现增强现实交互和展示的方法、设备 | |
WO2017177766A1 (zh) | 虚拟现实设备的控制方法、装置及虚拟现实设备、系统 | |
CN106717010B (zh) | 用户交互分析模块 | |
CN106131057B (zh) | 基于虚拟现实场景的认证和装置 | |
CN104519124B (zh) | 一种虚拟资源的分配方法以及装置 | |
CN104253862B (zh) | 基于数字全景的沉浸式互动导览支持服务系统及设备 | |
CN108391153A (zh) | 虚拟礼物显示方法、装置及电子设备 | |
CN104574005A (zh) | 集增强现实、体感、抠绿技术的广告展示管理系统和方法 | |
US11962866B2 (en) | Information display and processing methods and apparatuses, device, and medium | |
CN106331735B (zh) | 一种特效处理方法、电子设备及服务器 | |
CN106302471B (zh) | 一种推荐虚拟礼物的方法和装置 | |
CN113178015A (zh) | 房源的交互方法、装置、电子设备及存储介质 | |
CN112347395A (zh) | 特效展示方法、装置、电子设备及计算机存储介质 | |
CN114257875B (zh) | 数据传输方法、装置、电子设备和存储介质 | |
CN103384311A (zh) | 互动视频批量自动生成方法 | |
CN105975066A (zh) | 基于虚拟现实设备的控制方法及装置 | |
CN109391848A (zh) | 一种互动广告系统 | |
CN106408623A (zh) | 一种文字展现方法、装置及终端 | |
CN114938459A (zh) | 基于弹幕的虚拟直播互动方法、装置、存储介质及设备 | |
CN114222076B (zh) | 一种换脸视频生成方法、装置、设备以及存储介质 | |
CN106534142A (zh) | 多媒体数据的实时传输方法及装置 | |
CN105956430A (zh) | 一种自动登录vr平台的方法及装置 | |
CN111984126A (zh) | 答题记录生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |