CN110753233A - 信息交互的播放方法、装置、电子设备及存储介质 - Google Patents
信息交互的播放方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110753233A CN110753233A CN201910853902.2A CN201910853902A CN110753233A CN 110753233 A CN110753233 A CN 110753233A CN 201910853902 A CN201910853902 A CN 201910853902A CN 110753233 A CN110753233 A CN 110753233A
- Authority
- CN
- China
- Prior art keywords
- behavior
- video data
- action information
- information
- playing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种信息交互的播放方法、装置、电子设备及存储介质,所述方法包括:获取正在播放的视频数据中第一对象的行为动作信息;通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;至少通过播放所述视频数据的客户端执行所述反馈操作。本公开实施例中,当判断获取的屏幕双方对象的行为动作信息产生关联时,则为双方对象播放对应的反馈操作,从而使双方对象隔屏幕也能感受到真实触碰的感觉,丰富了双方的仿真体验与互动方式。
Description
技术领域
本公开涉及互联网技术领域,尤其涉及一种信息交互的播放方法、装置、电子设备及存储介质。
背景技术
相关技术中,随着互联网技术的发展,网络直播成为了一种深受大众喜爱的娱乐方式,越来越多的用户喜欢在网络上看直播,为了提升网络直播的趣味性,用户(即粉丝)可以在网络直播过程中与主播进行互动,比如,用户可以给主播赠送虚拟礼物,也可以给主播点赞等。仅有点赞、送虚拟礼物等等这样简单的交互式反馈,并不能使用户和主播双方产生真实的交互感受。
因此,在直播过程中,如何使用户与主播之间产生触觉类等真实的深度交互式感受,是目前有待解决的技术问题。
发明内容
本公开提供一种信息交互的播放方法、装置、电子设备及存储介质,以至少解决相关技术中由于用户与主播之间仅能产生简单的交互式反馈,导致用户体验差的技术问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种信息交互的播放方法,包括:
获取正在播放的视频数据中第一对象的行为动作信息;
通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;
至少通过播放所述视频数据的客户端执行所述反馈操作。
可选的,在获取与产生关联的行为动作对应的反馈操作后,所述方法还包括:
若所述视频数据为直播数据,则将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由录制所述视频数据的客户端执行所述反馈操作。
可选的,所述反馈操作包括下述至少之一:
所述客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果。
可选的,所述获取正在播放的视频数据中第一对象的行为动作信息,包括:
从远端服务器上获取正在播放的视频数据中第一对象的行为动作信息;或者
从远端服务器获取正在播放的视频的视频数据;对所述第一对象的视频数据进行识别,得到识别结果;
根据识别结果得到所述第一对象的行为动作信息。
可选的,所述通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息,包括:
通过播放所述视频数据的客户端所在移动终端上的摄像头获取所述第二对象的视频数据;
对所述第二对象的视频数据进行识别,得到识别结果;
根据所述识别结果得到所述第二对象的行为动作信息。
可选的,所述判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联包括:
判断所述第二对象的行为动作信息和第一对象的行为动作信息是否存在下述情况中的至少之一,若存在,则确定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,其中,所述下述情况包括:
所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作,同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上;
所述第一对象的肢体动作与所述第二对象的肢体动作形成一对社交行为;
所述第一对象的肢体动作与所述第二对象的肢体动作轨迹形成闭合曲线;
所述第一对象的肢体动作与所述第二对象的肢体动作轨迹在播放过程中时序上连续。
可选的,所述获取与产生关联的行为动作对应的反馈操作,包括:
从本地存储的映射关系中查询与产生关联的所述行为动作对应的反馈操作。
可选的,所述第一对象行为动作信息包括:第一对象点击、触摸屏幕的信息,以及所述第一对象的肢体动作在所述屏幕中的位置信息;
所述第二对象行为动作信息包括:第二对象点击、触摸屏幕的信息,以及所述第二对象的肢体动作在所述屏幕中的位置信息。
根据本公开实施例的第二方面,提供一种信息交互的播放装置,包括:
第一获取模块,被配置为执行获取正在播放的视频数据中第一对象的行为动作信息;
接收模块,被配置为执行通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
判断模块,被配置为执行判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
第二获取模块,被配置为执行在所述判断模块判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,获取与产生关联的行为动作对应的反馈操作;
执行模块,被配置为至少通过播放所述视频数据的客户端执行所述反馈操作。
可选的,所述播放装置还包括:
发送模块,被配置为在所述视频数据为直播数据时,将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由录制所述视频数据的客户端执行所述反馈操作。
可选的,所述执行模块执行的反馈操作包括下述至少之一:
所述客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果。
可选的,所述第一获取模块包括:信息获取模块;和/或,第一数据获取模块、第一识别模块和第一确定模块;其中,
所述信息获取模块,被配置为执行从远端服务器上获取正在播放的视频数据中第一对象的行为动作信息;
所述第一数据获取模块,被配置为执行从远端服务器获取正在播放的视频数据;
所述第一识别模块,被配置为执行对所述第一对象的视频数据进行识别,得到识别结果;
所述第一确定模块,被配置为执行根据识别结果确定所述第一对象的行为动作信息。
可选的,所述接收模块包括:
第二数据获取模块,被配置为执行通过播放所述视频数据的客户端所在移动终端上的摄像头获取所述第二对象的视频数据;
第二识别模块,被配置为执行对所述第二对象的视频数据进行识别,得到识别结果;
第二确定模块,被配置为执行根据所述识别结果得到所述第二对象的行为动作信息。
可选的,所述判断模块包括:
判断子模块,被配置为执行判断所述第二对象的行为动作信息和第一对象的行为动作信息是否存在下述情况中的至少之一,其中,其下述情况包括:所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作,同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上;所述第一对象的肢体动作与所述第二对象的肢体动作形成一对社交行为;所述第一对象的肢体动作与所述第二对象的肢体动作轨迹形成闭合曲线;所述第一对象的肢体动作与所述第二对象的肢体动作轨迹在播放过程中时序上连续;
第三确定模块,被配置为执行在所述判断子模块判定所述第二对象的行为动作信息和第一对象的行为动作信息存在下述情况中的至少一种时,确定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联。
可选的,所述第二获取模块,具体被配置为在所述判断模块判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,从本地存储的映射关系中查询与产生关联的所述行为动作对应的反馈操作。
可选的,所述第一获取模块获取的所述第一对象行为动作信息包括:第一对象点击、触摸屏幕的信息,以及所述第一对象的肢体动作在所述屏幕中的位置信息;
所述接收模块接收的所述第二对象行为动作信息包括:第二对象点击、触摸屏幕的信息,以及所述第二对象的肢体动作在所述屏幕中的位置信息。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如上所述的信息交互的播放方法。
根据本公开实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如上所述的信息交互的播放方法。
根据本公开实施例的第五方面,提供根据一种计算机程序产品,当所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行如上所述的信息交互的播放方法。
本公开的实施例提供的技术方案至少可以包括以下有益效果:
本公开实施例中,先获取正在播放的视频数据中第一对象的行为动作信息;通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;至少通过播放所述视频数据的客户端执行所述反馈操作,以使所述第二对象感受到与所述第一对象的真实交互行为。也就是说,本公开实施例中,当判断获取的屏幕双方的第一对象的行为动作信息和第二对象的行为动作信息产生关联时,则为第二对象(也可以同时为第二对象和第一对象)播放产生关联行为动作信息对应的反馈操作,从而使第二对象隔着屏幕也能感受到与第一对象真实触碰的感觉,从而丰富了第二对象与第一对象之间的真实体验与互动方式。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种信息交互的播放方法的流程图。
图2是根据一示例性实施例示出的一种信息交互的播放装置的框图。
图3是根据一示例性实施例示出的一种信息交互的播放装置的另一框图。
图4是根据一示例性实施例示出的一种第一获取模块的框图。
图5是根据一示例性实施例示出的一种第一获取模块的另一框图。
图6是根据一示例性实施例示出的一种接收模块的框图。
图7是根据一示例性实施例示出的一种判断模块的框图。
图8是根据一示例性实施例示出的一种电子设备的框图。
图9是根据一示例性实施例示出的一种电子设备的另一框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。。
图1是根据一示例性实施例示出的一种信息交互的播放方法的流程图,如图1所示,所述信息交互的播放方法用于移动终端中,包括以下步骤。
在步骤101中,获取正在播放的视频数据中第一对象的行为动作信息;
在步骤102中,通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
在步骤103中,判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
在步骤104中,如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;
在步骤105中,至少通过播放所述视频数据的客户端执行所述反馈操作。
其中,所述反馈操作可以至少包括下述一种:所述客户端所在终端(比如移动终端等)上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果等,当然,并不限于此。
本公开实施例所述的信息交互的播放方法可以应用于移动终端、服务器、客户端,也可以用于主播端,在此不作限制,其实施设备可以是智能手机,笔记本电脑、平板电脑等电子设备,在此也不作限制。
下面结合图1,对本公开实施例提供的信息交互的播放方法的具体实施步骤进行详细说明。
需要说明的是,本方案可以为在终端上提供的一种触觉反馈功能,该功能可以在用户的指示和授权下启动,在启动该功能之后,可以通过执行如下的任一实施例来实现上述功能。
首先,执行步骤101,获取正在播放的视频数据中第一对象的行为动作信息;
该步骤中,正在播放的视频数据,可以是直播的视频数据,也可以是回放的视频数据,或者短视频的数据数据等,也可以是视频通话中的视频数据等。其中,第一对象的行为动作信息,可以是上述视频数据中的第一对象的行为动作信息,当然,第一对象也可以是该视频数据中的其他的行为动作信息,本公开不作限制。
其中,第一对象(比如主播或视频通话的一方等)的行为动作信息可以包括:第一对象点击、触摸屏幕的信息,以及所述第一对象的肢体动作在屏幕中的位置信息。当然,并不限于此,还可以根据实际需要适应性包括其他信息等。其中,所述屏幕为播放视频数据所在终端的屏幕。
具体的,该实施例中,可以从下述三种方式获取正在播放的视频数据中的第一对象的行为动作信息:
第一种方式是:客户端(也可以是移动终端,下同)从远端服务器上获取所述正在播放的视频数据中第一对象的行为动作信息;
也就是说,第一对象的行为动作信息由远端服务器进行识别和确定,其具体识别和确认的过程包括:远端服务器可以从与第一对象对应的第一客户端(比如主播客户端或视频通话的一端等)获取或者接收到该第一客户端发的正在播放的视频的视频数据;然后采用动作识别技术(比如基于视觉的人体动作识别的处理方法等)对所述第一对象的视频数据进行识别,得到识别结果;并根据识别结果得到所述第一对象的行为动作信息。
其中,基于视觉的人体动作识别的处理方法大体可以分为三类,非参数方法,立方体分析方法,参数化时间序列分析的方法。非参数方法通常从视频的每一帧中提取某些特征,然后用这些特征与预先存储的模板(template)进行匹配。方体分析方法不是基于帧的处理,而是将整段视频数据看作是一个三维的时空立方体进行分析。而参数化时间序列分析的方法是对运动的动态过程给出一个特定的模型,并通过对训练样数据的学习,获得每一类动作特定的模型参数,其中比较常用的模型包括:隐马尔可夫模型(HMMS,HiddenMarkov Models),线性动态系统(LDSs,Linesr Dynamical Aystems)等。
需要说明的是,对于基于视觉的人体动作识别技术的处理方法对于本领域已是熟知技术,在此不再赘述。
第二种方式是:客户端(即与第二对象对应的第二客户端)从远端服务器获取正在播放的视频的视频数据;对所述第一对象的视频数据进行识别,得到识别结果;根据识别结果得到所述第一对象的行为动作信息。
也就是说,客户端在获取到正在播放的视频的视频数据后,通过运动识别技术,对所述第一对象的视频数据进行识别,并根据识别结果得到所述第一对象的行为动作信息。
第三种方式是:视频双方的客户端,可以对正在播放的视频的视频数据进行记录和运算,并将记录和运算视频中双方对象(比如用户)点击、触碰(或触摸)或动作在屏幕中的位置,实时上传到云端服务器,由云端服务器进行识别,得到对应的对象(比如用户)的行为动作信息,然后,再将得到的对象(比如用户)的行为动作信息发送给对应的客户端。
其次,执行步骤102,通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
该步骤中,播放所述视频数据的客户端,即所述第二对象(比如观众或视频通话的另一方等)观看正在播放的视频数据的客户端,即先通过播放所述视频数据的客户端所在移动终端上摄像头获取所述第二对象的视频数据;然后,对所述第二对象的视频数据进行识别,得到识别结果;具体的识别方式可以采用运动识别技术等,最后,根据所述识别结果得到所述第二对象的行为动作信息。
需要说明的是,该实施例中,步骤101和步骤102在实际应用中,不分先后,也可以同时执行,本实施例作限制。
再次,执行步骤103,判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
该步骤中,客户端先判断所述第二对象的当前行为动作信息是否与所述第一对象的当前行为动作信息产生关联,如果产生关联,则获取与产生关联的行为动作对应的反馈操作,并通过播放所述视频数据的客户端为所述第二对象播放产生关联的当前行为动作对应的反馈操作,以使所述第二对象感受到与所述第一对象的真实交互行为(即执行步骤104和步骤105);如果没有产生关联,则继续判断所述第二对象的下一个行为动作信息是否与所述第一对象的下一个行为动作信息产生关联,依次反复执行上述过程,直到该正在播放的视频数据结束。
具体的,该步骤中,客户端判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联,具体包括:
判断所述第二对象的行为动作信息和第一对象的行为动作信息是否存在下述情况中的至少之一,若存在,则确定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,其中,所述下述情况包括:
1)所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作,同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上;
2)所述第一对象的肢体动作与所述第二对象的肢体动作形成一对社交行为;比如,击掌、指尖相触、嘴唇相触、合作比心等等社交行为。
3)所述第一对象的肢体动作与所述第二对象的肢体动作轨迹形成闭合曲线;比如,动作轨迹形成一个心形、圆形等。
4)所述第一对象的肢体动作与所述第二对象的肢体动作轨迹在播放过程中时序上连续。比如,第一对象和第二对象接连做了同一个动作:击掌等。
需要说明的是,该实施例在实际执行过程中,各个肢体动作之间允许有一定的误差。
当然,在该实施例中,客户端可以判断所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作是否同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上,且,所述第一对象的肢体动作与所述第二对象的的肢体动作形成一对社交行为,也就是说,如果双方肢体动作同时出现在以所述屏幕为中心线的相对镜像位置上,且双方的肢体动作形成一对社交行为,则判定该第二对象的行为动作信息与第一对象的行为动作信息产生关联,比如,击掌、指尖相触、嘴唇相触、合作比心等等社交行为;否则,判定该第二对象的行为动作信息与第一对象的行为动作信息没有产生关联。
其中,判断双方肢体动作是否同时出现在以播放所述视频数据的屏幕为中心线的相对镜像位置上,且双方的肢体动作是否形成一对社交行为,具体的,可以结合客户端所在的移动终端上的摄像头及陀螺仪等来识别肢体动作,从而判断双方的肢体动作是否形成一个自然的社交行为。需要说明的是,通过摄像头及陀螺仪来识别肢体动作以及判断是否形成一个自然的社交行为的判断过程,对于本领域技术人员来说,已是熟知技术,在此不再赘述。
再后,执行步骤104,如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;其中,该反馈操作可以包括:所述播放所述视频数据的客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果等。
最后,执行步骤105,至少通过播放所述视频数据的客户端执行所述反馈操作。
该步骤中104和步骤105中,客户端在判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,客户端获取与产生关联的行为动作对应的反馈操作,并为所述第二对象播放产生关联的行为动作对应的反馈操作,以使所述第二对象感受到与所述第一对象的真实交互行为。当然,如果判定第二对象的行为动作信息与所述第一对象的行为动作信息没有产生关联,则返回步骤103,继续判断第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联的步骤。
具体的,客户端在判定第二对象和第一对象的行为动作信息产生关联时,通过查询本地存储的行为动作与反馈操作的对应映射关系(也可以是对应关系映射表,该对应映射关系是预先建立并存储在客户端所在的移动终端本地的),得到与产生关联的行为动作对应的反馈操作,当然,如果没有查询到对应的反馈操作,则继续查询下一个产生关联的行为动作;而对于查询到产生关联的行为动作对应的反馈操作后,通过客户端所在的移动终端的扬声器发出的声音音效,振动马达的振动音效或调用视频的动画效果为所述反馈产生关联的行为动作对应的反馈操作,从而使双方感受到真实的交互行为。
比如,隔屏击掌交互行为,客户端通过其所在的移动终端的扬声器可以发出声音音效。再比如,隔屏指尖相触,可以通过其所在的移动终端的马达发出振动等;再比如,隔屏嘴唇相触、合作比心等等,可以通过视频动画效果来反馈等等,让第二对象(即观众)感受到与第一对象的真实触碰的感觉。
本公开实施例中,先获取正在播放的视频数据中第一对象的行为动作信息;通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;至少通过播放所述视频数据的客户端执行所述反馈操作,以使所述第二对象感受到与所述第一对象的真实交互行为。也就是说,本公开实施例中,当判断获取的屏幕双方的第一对象的行为动作信息和第二对象的行为动作信息产生关联时,则为第二对象(也可以同时为第二对象和第一对象)播放产生关联行为动作信息对应的反馈操作,从而使第二对象隔着屏幕也能感受到与第一对象真实触碰的感觉,从而丰富了第二对象与第一对象之间的真实体验与互动方式。
可选的,在另一实施例中,该实施例在上述实施例的基础上,在获取与产生关联的行为动作对应的反馈操作后,所述方法还可以包括:
若所述视频数据为直播数据,则将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据中的客户端,由录制所述视频数据的客户端执行所述反馈操作。其中,所述反馈操作至少包括下述之一:录制所述视频数据的客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果。
也就是说,本公开实施例中,若所述视频数据为直播数据,在所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,可以先获取产生关联的行为动作对应的反馈操作,通过播放所述视频数据的客户端为第二对象播放所述反馈操作,以使所述第二对象感受到与所述第一对象的真实交互行为;当然,客户端也可以将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由所述录制所述视频数据的客户端播放所述反馈操作,以使所述第一对象感受到与所述第二对象的真实交互行为。比如,情侣视频通话时可以隔屏接吻等等,让情侣双方都能感受到真实触碰的感觉。再比如,主播和粉丝观众们可以隔空击掌、隔屏合作比心等等双方都能感受到真实的触碰感觉。也就是,播放视频数据的客户端和录制所述视频的客户端同时执行所述反馈操作,以使所述第二对象与所述第一对象双方同时(或者近似同时,允许有一定时差)感受到真实的交互行为。即客户端执行反馈操作时允许有一定的误差。
其中,该实施例中,利用所述第一对象对应的客户端执行所述反馈操作的过程,与利用第二对象的客户端执行对应的反馈操作的过程相同,具体详见上述,在此不再赘述。
本公开实施例中,在所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,移动终端的屏幕双方(即播放和录制所述视频数据的客户端)可以同时(或者近似同时)为各自的对象播放产生关联的行为动作对应的反馈操作,以使所述第二对象和第一对象之间相互感受到真实的交互行为,为屏幕双方营造一种屏幕即窗户的隔空增强现实体验,从而提高了屏幕双方交互的触觉感受,达到更接近真实的体验效果。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开实施例并不受所描述的动作顺序的限制,因为依据本公开实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本公开实施例所必须的。
图2是根据一示例性实施例示出的一种信息交互的播放装置框图。参照图2,该装置包括:第一获取模块201,接收模块202、判断模块203、第二获取模块204和执行模块205。
该第一获取模块201被配置为执行获取正在播放的视频数据中第一对象的行为动作信息;
该接收模块202被配置为执行通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
该判断模块203被配置为执行判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
该第二获取模块204,被配置为执行在所述判断模块203判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,获取与产生关联的行为动作对应的反馈操作;
该执行模块205被配置为至少通过播放所述视频数据的客户端执行所述反馈操作。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述第一获取模块201获取的所述第一对象行为动作信息包括:第一对象点击、触摸屏幕的信息,以及所述第一对象的肢体动作在所述屏幕中的位置信息;
所述接收模块202获取的所述第二对象行为动作信息包括:第二对象点击、触摸屏幕的信息,以及所述第二对象的肢体动作在所述屏幕中的位置信息。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述播放装置还可以包括:发送模块301,其结构示意如图如图3所示,其中,
该发送模块301被配置为执行在所述视频数据为直播数据时,将所述第二获取模块204获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由录制所述视频数据的的客户端执行所述反馈操作。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述执行模块执行的反馈操作包括下述至少之一:所述客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述第一获取模块201包括:信息获取模块401,其结构示意图如图4所示,其中,
该信息获取模块401被配置为执行从远端服务器上获取正在播放的视频数据中第一对象的行为动作信息;
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述第一获取模块201包括:第一数据获取模块501、第一识别模块502和第一确定模块503,其结构示意图如图5所示,;其中,
该第一数据获取模块501被配置为执行从远端服务器获取正在播放的视频数据;
该第一识别模块502被配置为执行对所述第一对象的视频数据进行识别,得到识别结果;
该第一确定模块503被配置为执行根据识别结果得到所述第一对象的行为动作信息。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述第一获取模块201可以同时包括:信息获取模块401,第一数据获取模块501、第一识别模块502和第一确定模块503(图中未示),其中,各个模块的功能和作用详见上述,在此不再赘述。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述接收模块202包括:第二数据获取模块601、第二识别模块602和第二确定模块603,其结构示意图如图6所示,其中,
该第二数据获取模块601被配置为执行通过播放所述视频数据的客户端所在移动终端上的摄像头获取所述第二对象的视频数据;
该第二识别模块602被配置为执行对所述第二对象的视频数据进行识别,得到识别结果;
该第二确定模块603被配置为执行根据所述识别结果得到所述第二对象的行为动作信息。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述判断模块203包括:判断子模块701和第三确定模块702,其结构示意图如图7所示,其中,
该判断子模块701被配置为执行判断所述第二对象的行为动作信息和第一对象的行为动作信息是否存在下述情况中的至少之一,其中,其下述情况包括:所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作,同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上;所述第一对象的肢体动作与所述第二对象的肢体动作形成一对社交行为;所述第一对象的肢体动作与所述第二对象的肢体动作轨迹形成闭合曲线;所述第一对象的肢体动作与所述第二对象的肢体动作轨迹在播放过程中时序上连续;
该第三确定模块702,被配置为执行在所述判断子模块判定所述第二对象的行为动作信息和第一对象的行为动作信息存在下述情况中的至少一种时,确定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联。
可选的,在另一实施例中,该实施例在上述实施例的基础上,所述第二获取模块204被配置为执行在所述判断模块203判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,从本地存储的映射关系中查询与产生关联的所述行为动作对应的反馈操作。
本公开实施例中,当判断获取的屏幕双方的第一对象的行为动作信息和第二对象的行为动作信息产生关联时,则可以为第二对象播放产生关联行为动作信息对应的反馈操作,从而使第二对象隔屏幕也能感受到与第一对象真实触碰的感觉,从而丰富了观看视频对象的仿真体验与互动方式。
进一步,在所述第一对象的行为动作信息和第二对象的行为动作信息产生关联时,还可以获取第二对象和第一对象播放产生关联行为动作信息对应的反馈操作,并通过播放和/或制作所述视频数据的客户端播放所述反馈操作,从而使第二对象和第一对象隔屏幕也能感受到真实触碰的感觉,为屏幕双方的第二对象和第一对象营造一种屏幕即窗户的隔空增强现实体验。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例还提供一种电子设备,所述电子设备包括:处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如上所述的信息交互的播放方法:
获取正在播放的视频数据中第一对象的行为动作信息;
通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;
至少通过播放所述视频数据的客户端执行所述反馈操作。
在示例性实施例中,本公开还提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如上所述的信息交互的播放方法。
可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图8是根据一示例性实施例示出的一种用于信息交互播放的电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述图1中所示的信息交互的播放方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述图1中所示的信息交互的播放方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,当计算机程序产品中的指令由电子设备800的处理器820执行时,使得电子设备800执行上述图1中所示的信息交互的播放方法。
图9是根据一示例性实施例示出的一种用于信息交互播放的电子设备900的框图。例如,电子设备900可以被提供为一服务器。参照图9,电子设备900包括处理组件922,其进一步包括一个或多个处理器,以及由存储器932所代表的存储器资源,用于存储可由处理组件922的执行的指令,例如应用程序。存储器932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件922被配置为执行指令,以执行上述信息交互的播放方法。
电子设备900还可以包括一个电源组件926被配置为执行电子设备900的电源管理,一个有线或无线网络接口950被配置为将电子设备900连接到网络,和一个输入输出(I/O)接口958。电子设备900可以操作基于存储在存储器932的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改。
Claims (10)
1.一种信息交互的播放方法,其特征在于,包括:
获取正在播放的视频数据中第一对象的行为动作信息;
通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
如果所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,则获取与产生关联的行为动作对应的反馈操作;
至少通过播放所述视频数据的客户端执行所述反馈操作。
2.根据权利要求1所述的信息交互的播放方法,其特征在于,在获取与产生关联的行为动作对应的反馈操作后,所述方法还包括:
若所述视频数据为直播数据,则将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由录制所述视频数据的客户端执行所述反馈操作。
3.根据权利要求1或2所述的信息交互的播放方法,其特征在于,所述反馈操作包括下述至少之一:
所述客户端所在终端上的扬声器发出的声音音效、振动马达的振动音效以及调用视频的动画效果。
4.根据权利要求1所述的信息交互的播放方法,其特征在于,所述获取正在播放的视频数据中第一对象的行为动作信息,包括:
从远端服务器上获取正在播放的视频数据中第一对象的行为动作信息;或者
从远端服务器获取正在播放的视频的视频数据;对所述第一对象的视频数据进行识别,得到识别结果;
根据识别结果得到所述第一对象的行为动作信息。
5.根据权利要求1所述的信息交互的播放方法,其特征在于,所述通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息,包括:
通过播放所述视频数据的客户端所在移动终端上的摄像头获取所述第二对象的视频数据;
对所述第二对象的视频数据进行识别,得到识别结果;
根据所述识别结果得到所述第二对象的行为动作信息。
6.根据权利要求1所述的信息交互的播放方法,其特征在于,所述判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联包括:
判断所述第二对象的行为动作信息和第一对象的行为动作信息是否存在下述情况中的至少之一,若存在,则确定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联,其中,所述下述情况包括:
所述第二对象的行为动作信息和第一对象的行为动作信息中的双方肢体动作,同时出现在以播放所述视频数据的屏幕为中心线的内外两侧的相对镜像位置上;
所述第一对象的肢体动作与所述第二对象的肢体动作形成一对社交行为;
所述第一对象的肢体动作与所述第二对象的肢体动作轨迹形成闭合曲线;
所述第一对象的肢体动作与所述第二对象的肢体动作轨迹在播放过程中时序上连续。
7.一种信息交互的播放装置,其特征在于,包括:
第一获取模块,被配置为执行获取正在播放的视频数据中第一对象的行为动作信息;
接收模块,被配置为执行通过播放所述视频数据的客户端,接收第二对象输入的行为动作信息;
判断模块,被配置为执行判断所述第二对象的行为动作信息是否与所述第一对象的行为动作信息产生关联;
第二获取模块,被配置为执行在所述判断模块判定所述第二对象的行为动作信息与所述第一对象的行为动作信息产生关联时,获取与产生关联的行为动作对应的反馈操作;
执行模块,被配置为至少通过播放所述视频数据的客户端执行所述反馈操作。
8.根据权利要求7所述的信息交互的播放装置,其特征在于,所述播放装置还包括:
发送模块,被配置为在所述视频数据为直播数据时,将获取到的所述反馈操作通过远端服务器传输给录制所述视频数据的客户端,由录制所述视频数据的客户端执行所述反馈操作。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的信息交互的播放方法。
10.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至6中任一项所述的信息交互的播放方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910853902.2A CN110753233B (zh) | 2019-09-10 | 2019-09-10 | 信息交互的播放方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910853902.2A CN110753233B (zh) | 2019-09-10 | 2019-09-10 | 信息交互的播放方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110753233A true CN110753233A (zh) | 2020-02-04 |
CN110753233B CN110753233B (zh) | 2022-11-11 |
Family
ID=69276204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910853902.2A Active CN110753233B (zh) | 2019-09-10 | 2019-09-10 | 信息交互的播放方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110753233B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140163752A1 (en) * | 2009-07-27 | 2014-06-12 | Kyle James Gonyer | Universal control system with universal interface to operate a plurality of devices |
CN103870106A (zh) * | 2012-12-14 | 2014-06-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106527678A (zh) * | 2016-04-15 | 2017-03-22 | 深圳市原点创新设计有限公司 | 一种混合现实的社交交互设备、系统及头戴式显示设备 |
CN107635154A (zh) * | 2017-06-21 | 2018-01-26 | 白冰 | 一种实体互动直播控制装置 |
CN108024134A (zh) * | 2017-11-08 | 2018-05-11 | 北京密境和风科技有限公司 | 一种基于直播的数据分析方法、装置和终端设备 |
-
2019
- 2019-09-10 CN CN201910853902.2A patent/CN110753233B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140163752A1 (en) * | 2009-07-27 | 2014-06-12 | Kyle James Gonyer | Universal control system with universal interface to operate a plurality of devices |
CN103870106A (zh) * | 2012-12-14 | 2014-06-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106527678A (zh) * | 2016-04-15 | 2017-03-22 | 深圳市原点创新设计有限公司 | 一种混合现实的社交交互设备、系统及头戴式显示设备 |
CN107635154A (zh) * | 2017-06-21 | 2018-01-26 | 白冰 | 一种实体互动直播控制装置 |
CN108024134A (zh) * | 2017-11-08 | 2018-05-11 | 北京密境和风科技有限公司 | 一种基于直播的数据分析方法、装置和终端设备 |
Non-Patent Citations (1)
Title |
---|
中科极限元: "极限元:手势识别,一种全新的直播互动应用", 《搜狐网》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110753233B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110662083B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN111970533B (zh) | 直播间的互动方法、装置及电子设备 | |
CN106791893B (zh) | 视频直播方法及装置 | |
CN108363706B (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
KR102173479B1 (ko) | 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버 | |
CN112153400B (zh) | 直播互动方法、装置、电子设备及存储介质 | |
CN111954063B (zh) | 视频直播间的内容显示控制方法及装置 | |
KR20180057366A (ko) | 이동 단말기 및 그 제어방법 | |
JP2020537206A (ja) | ロボットインタラクションのための方法及びデバイス | |
CN109451341B (zh) | 视频播放方法、视频播放装置、电子设备及存储介质 | |
CN105677023B (zh) | 信息呈现方法及装置 | |
CN113689530B (zh) | 一种驱动数字人的方法、装置及电子设备 | |
WO2020173284A1 (zh) | 互动内容展示方法、装置、电子设备及存储介质 | |
CN110751707A (zh) | 动画显示方法、装置、电子设备及存储介质 | |
CN112188230A (zh) | 虚拟资源处理方法、装置、终端设备及服务器 | |
CN107247794B (zh) | 直播中的话题引导方法、直播装置及终端设备 | |
CN106447747B (zh) | 图像处理方法及装置 | |
CN107679485A (zh) | 基于虚拟现实的辅助阅读方法及装置 | |
CN110753233B (zh) | 信息交互的播放方法、装置、电子设备及存储介质 | |
CN114374880B (zh) | 联合直播方法、装置、电子设备及计算机可读存储介质 | |
CN109788367A (zh) | 一种信息提示方法、装置、电子设备及存储介质 | |
CN105100946A (zh) | 视频通讯方法及装置 | |
CN114554231A (zh) | 一种信息显示方法、装置、电子设备及存储介质 | |
CN108159686B (zh) | 投影设备投影的方法、装置及存储介质 | |
CN109407942B (zh) | 一种模型处理方法、装置、控制客户端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |