CN109640164A - 一种用于多个虚拟现实设备间的播放方法与装置 - Google Patents
一种用于多个虚拟现实设备间的播放方法与装置 Download PDFInfo
- Publication number
- CN109640164A CN109640164A CN201811301509.4A CN201811301509A CN109640164A CN 109640164 A CN109640164 A CN 109640164A CN 201811301509 A CN201811301509 A CN 201811301509A CN 109640164 A CN109640164 A CN 109640164A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- virtual reality
- user speech
- speech information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000001755 vocal effect Effects 0.000 claims abstract description 115
- 230000008451 emotion Effects 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 30
- 230000009471 action Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 13
- 239000011800 void material Substances 0.000 claims description 6
- 230000003993 interaction Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000005291 magnetic effect Effects 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明的目的是提供一种用于多个虚拟现实设备间的播放方法与设备。本申请对在同一虚拟现实场景下同步播放同一多媒体资源的多个虚拟现实设备的播放进行控制,首先,获取多个虚拟现实设备所对应的一条或多条用户语音信息,然后根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征,并根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。与现有技术相比,本申请能够自动地向用户提供播放进度调整的相应信息,及时响应用户的需求,并能够实现对播放进度调整的准确定位,提高了使用虚拟现实设备用户的用户体验,增强了用户互动的动力。
Description
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种用于多个虚拟现实设备间的播放的技术。
背景技术
虚拟现实技术(VR,Virtual Reality)的发展使得多用户之间能够通过虚拟现实设备进行多人在线互动交流,例如,多个用户通过虚拟现实设备在同一虚拟房间内同步观看视频或音频等。
在观看视频或音频过程中,用户之间可能会产生各类互动,而这类互动可能会导致对音视频的观看产生新的播放需求,如回放或快进等。在现有技术中,音视频的播放常常是按照播放列表依序播放,或者由该虚拟房间的房主所控制,而这种控制方法均无法准确或及时地响应上述播放需求。
发明内容
本发明的目的是提供一种用于多个虚拟现实设备间的播放方法与设备。
根据本发明的一个实施例,提供了一种用于多个虚拟现实设备间的播放方法,其中,该方法包括以下步骤:
a获取多个虚拟现实设备所对应的一条或多条用户语音信息,其中,所述多个虚拟现实设备在同一虚拟现实场景下同步播放同一多媒体资源;
b根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;
c根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述步骤b包括以下至少任一项:
根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述步骤b包括:
根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;
根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述步骤b还包括:
根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;
其中,确定与所述用户语音信息相对应的用户语音特征的步骤包括:
根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述步骤c包括:
根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述步骤c包括:
根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述步骤c包括:
根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,该方法还包括:
将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
可选地,该方法还包括:
将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
根据本发明的另一个实施例,还提供了一种用于多个虚拟现实设备间的播放设备,其中,所述播放设备包括:
第一装置,用于获取多个虚拟现实设备所对应的一条或多条用户语音信息,其中,所述多个虚拟现实设备在同一虚拟现实场景下同步播放同一多媒体资源;
第二装置,用于根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;
第三装置,用于根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述第二装置用于以下至少任一项:
根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述第二装置用于:
根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;
根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述第二装置还用于:
根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;
其中,确定与所述用户语音信息相对应的用户语音特征的步骤包括:
根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
可选地,所述第三装置用于:
根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述第三装置用于:
根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述第三装置用于:
根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
可选地,所述播放设备还包括:
第四装置,用于将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
可选地,所述播放设备还包括:
第五装置,用于将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
根据本发明的另一个实施例,还提供了一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个计算机程序;
当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述任一项所述的方法。
根据本发明的另一个实施例,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序可被处理器执行如上述任一项所述的方法。
与现有技术相比,本申请对在同一虚拟现实场景下同步播放同一多媒体资源的多个虚拟现实设备的播放进行控制,首先,获取多个虚拟现实设备所对应的一条或多条用户语音信息,然后根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征,并根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。从而,本申请能够自动地向用户提供播放进度调整的相应信息,及时响应用户的需求,并能够实现对播放进度调整的准确定位,提高了使用虚拟现实设备用户的用户体验,增强了用户互动的动力。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本申请的一个实施例的一种用于多个虚拟现实设备间的播放设备示意图;
图2示出根据本申请的一个实施例的一种用于多个虚拟现实设备间的播放方法流程图;
图3示出了可被用于实施本申请中所述的各个实施例的示例性系统。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本申请作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本申请所指播放设备包括但不限于网络设备、用户设备或用户设备与网络设备通过网络相集成所构成的设备。所述用户设备包括但不限于任何一种可与用户进行人机交互的电子产品,例如虚拟现实个人终端、个人电脑、智能手机、平板电脑等,所述电子产品可以采用任意操作系统,如windows操作系统、android操作系统、iOS操作系统等。其中,所述网络设备包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、嵌入式设备等。所述网络设备包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集或多个服务器构成的云;在此,云由基于云计算(Cloud Computing)的大量计算机或网络服务器构成,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个虚拟超级计算机。所述网络包括但不限于互联网、广域网、城域网、局域网、VPN网络、无线自组织网络(Ad Hoc网络)等。
当然,本领域技术人员应能理解上述播放设备仅为举例,其他现有的或今后可能出现的设备如可适用于本申请,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
在本申请的描述中,“多个”的含义是两个或者更多,除非另有明确具体的限定。
图1示出根据本申请的一个实施例的一种用于多个虚拟现实设备间的播放设备示意图;其中,所述播放设备包括第一装置1、第二装置2以及第三装置3。
具体地,所述第一装置1获取多个虚拟现实设备所对应的一条或多条用户语音信息;所述第二装置2根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;所述第三装置3根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
其中,所述多个虚拟现实设备在同一虚拟现实场景下同步播放同一多媒体资源。在此,所述同一虚拟现实场景包括但不限于同一虚拟地点(如房间、影院、教室等),同一虚拟现实环境(如时间、天气等);所述多媒体资源包括但不限于视频、音频、幻灯片等任意可以播放的多媒体。所述多个虚拟现实设备分别被不同的用户所使用,从而多个用户可以实现在同一虚拟现实场景下共同观看同一多媒体资源的效果,例如,所述虚拟现实场景为影院场景,所播放的多媒体资源为某一影片,从而多名用户分别通过多个不同的虚拟现实设备能够实现同步观影的效果。
所述第一装置1获取多个虚拟现实设备所对应的一条或多条用户语音信息。
具体地,使用各个虚拟现实设备的用户在观看多媒体资源时,能够进行语音交互。所述第一装置1通过自身的声音采集装置,获取所述多个虚拟现实设备所对应的一条或多条用户语音信息,在此,每条用户语音信息对应于该用户所使用的虚拟现实设备;或者,所述第一装置1通过直接与所述虚拟现实设备相交互,分别从各个虚拟现实设备中获取其所对应的用户的用户语音信息。
所述第二装置2根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,所述第二装置2通过对所述一条或多条用户语音信息进行统计,或者基于语音分析技术,对所述用户语音信息进行分析,从而将所述统计结果和/或所述分析结果作为所述用户语音特征。
优选地,所述第二装置2可以执行以下至少任一项:
-根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征:也即,获取所述一条或多条用户语音信息是由几名用户所发出的,从而对所述一条或多条用户语音信息所对应的用户数量进行统计,从而将所述用户数量作为用户语音特征;或者,直接对所述用户语音信息的条数进行统计,以将所述用户语音信息的条数作为用户语音特征。
-根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征:也即,直接将每条用户语音信息的发送时间作为所述用户语音特征;或者,将所述用户语音信息的发送时间按照时间段进行统计,从而将该时间段作为所述用户语音特征;或者,将多个用户语音信息按照发送时间段进行聚类,从而将所聚类后的多个不同的时间段作为所述用户语音特征。
-根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征:也即,直接将每条用户语音信息的音量作为所述用户语音特征;或者,将按照发送时间聚类后的每个类别下的多条用户语音信息的平均音量作为所述用户语音特征;或者,将所述音量按照预定的划分标准,分别划分为“音量高、音量中、音量低”,从而将音量的“高、中、低”作为所述用户语音特征。
优选地,所述第二装置2可以根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,所述第二装置2基于语音识别技术,对所述用户语音信息进行识别,从而将用户语音信息转化为语义信息。
然后,所述第二装置2将所述语义信息直接作为所述用户语音特征,或者,对所述语义信息中的关键字进行提取,将所述关键字作为所述用户语音特征。
本领域技术人员应能理解,所述第二装置2可以对每一条用户语音信息分别执行上述操作,以为每一条语音信息确定所述用户语音特征;此外,所述第二装置2还可以对多条所述用户语音信息进行统计,以为多条用户语音信息确定同一用户语音特征,例如,将多条用户语音信息中出现频率较高的关键字作为该组用户语音信息所对应的用户语音特征。
更优选地,所述第二装置2还可以根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;然后,根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,所述第二装置2可以直接根据所述用户语音信息中的语义信息,对所述用户语音信息所对应的情感信息进行确定,例如,通过对所述语音信息进行语义识别,以确定所述语音信息所对应的语义;在此,所述语义识别可以将所述语音信息完全识别,也可以提取所述语音信息中的关键词,例如,“高兴”、“烦”、“唉”(叹气)等表示情绪的词。
或者,所述第二装置2通过对所述用户语音信息的语速、语调等进行数据分析,根据高频、低频、持续时间等频谱信息来确定所述用户语音信息所对应的情绪信息。例如,若通过音频分析得知音调高亢且短促,则可认为所述情绪信息为恐惧等。
然后,所述第二装置2根据所述语义信息并结合所述情感信息,将所述语义信息与情感信息直接确定为所述用户语音特征;或者,将所述情感信息作为所述语义信息的辅助信息,将具有情感信息的语义信息作为所述用户语音特征;或者,根据所述语义信息与所述情感信息,确定所述用户的需求倾向(如希望快进、重播等),并将所述用户需求倾向作为所述用户语音特征。
所述第三装置3根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述第三装置3根据所述用户语音特征,确定是否对当前所述多媒体资源的播放进度进行调整,在此,所述调整包括但不限于暂停、快进、回放、或是选择某一特定片段等。在此,本领域技术人员应能理解,所述播放进度调整信息可以是直接对应于该用户语音信息所对应的用户所使用的虚拟现实设备;也可以是对应于整个虚拟现实场景,也即,对该虚拟现实场景下的所有虚拟现实设备进行播放进度调整。
例如,若所述用户语音特征为多人同时发布语音,则可对于用户交谈这段时间内的多媒体资源进行重播;若所述用户语音特征为“恐惧”,则可跳过该多媒体资源的当前播放场景内容;若所述用户语音特征为语义信息“想知道结局”,则可直接跳转至该多媒体资源的结尾等。
优选地,所述第三装置3可以根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述第三装置3将所述用户语音特征与所述多媒体资源所对应的内容信息进行匹配。例如,若所述用户语音特征为语义信息,这将该语义信息与多媒体资源的资源内容信息相匹配,在此,所述资源内容信息可以根据所述多媒体资源的资源介绍、当前台词信息/展示信息等进行确定;或者,若所述用户语音特征为情感信息,则根据该情感信息与所述多媒体资源的资源内容信息进行匹配,并将符合该情感信息的资源内容作为匹配后的内容等。
然后,根据所述确定的资源内容信息,将该播放进度调整信息进行调整,以使得调整播放该匹配的资源内容信息。
例如,若所述用户语音特征信息为“高兴”,则将该多媒体资源中的“高兴”场景的播放进度作为播放进度调整信息;若所述用户语音特征信息为“放鞭炮”,则将该多媒体资源中的“放鞭炮”场景的播放进度作为播放进度调整信息。
优选地,所述第三装置3可以根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述虚拟现实场景的场景信息包括当前虚拟现实场景的时间、光线、声音、场景分类、参与用户等信息。例如,若参与用户小于一定数量时,则可以直接基于所述用户语音特征确定播放进度调整信息,若参与用户超过一定数量时,则仅当所述用户语音特征满足预定阈值时,才基于所述用户语音特征确定播放进度调整信息;若场景分类为“会议场景”,则可以提高对播放进度调整信息的确定的频率等。
优选地,所述第三装置3可以根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述播放设备可以直接通过拍照或摄像等方式,获取所述用户的动作信息,或者,所述播放设备可以与能够提供所述动作信息的设备(如该用户对应的虚拟现实设备)相交互,以获取所述用户的动作信息。其中,所述动作信息包括但不限于肢体动作和/或表情动作。
所述第三装置3通过对所述动作信息进行分析,例如通过基于单帧或多张连贯图片进行分析,以确定所述用户动作信息的特征;然后,将所述用户动作信息的特征与所述用户语音特征结合,从而确定与所述虚拟现实设备所对应的播放进度调整信息。例如,若用户摇头、嘴角向下等,则表明对当前播放内容不满,因此可以结合所述用户语音特征来对所述多媒体资源进行快进或跳过当前内容等。
优选地,所述播放设备还包括第四装置(未示出),其中,所述第四装置将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
具体地,由于所述用户语音特征信息对应于一个或多个用户,所述第四装置可以将所述播放进度调整信息发送至该用户所对应的虚拟现实设备。从而,所述虚拟现实设备可以基于所述播放进度调整信息来对播放进度进行调整。
优选地,所述播放设备还包括第五装置(未示出),其中,所述第五装置将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
具体地,所述虚拟现实场景下包含有多个虚拟现实设备,其中,第一虚拟现实设备为所述播放进度控制设备;也即,第一用户使用第一虚拟现实设备,第二用户使用第二虚拟现实设备,所述第一用户作为该虚拟现实场景的管理用户,所述第二用户作为该虚拟现实场景的普通用户。例如,在播放电影时,所述第一用户可以作为房主,使用所述第一虚拟现实设备来对所播放的多媒体资源进行控制;所述第二用户可以作为普通观众,与所述第一用户一起来观看当前影片。
然后,所述第五装置将所述播放进度调整信息发送至所述第一虚拟现实设备,从而所述第一虚拟现实设备能够确定是否对所述多媒体资源的播放进度进行调整;如确定,则所述第一虚拟现实设备执行对所述多媒体资源的播放调整,并同步至该虚拟现实场景下的其他多个虚拟现实设备。
图2示出根据本申请的一个实施例的一种用于多个虚拟现实设备间的播放方法流程图。
具体地,在步骤S1中,所述播放设备获取多个虚拟现实设备所对应的一条或多条用户语音信息;在步骤S2中,所述播放设备根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;在步骤S3中,所述播放设备根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
在步骤S1中,所述播放设备获取多个虚拟现实设备所对应的一条或多条用户语音信息。
具体地,使用各个虚拟现实设备的用户在观看多媒体资源时,能够进行语音交互。在步骤S1中,所述播放设备通过自身的声音采集装置,获取所述多个虚拟现实设备所对应的一条或多条用户语音信息,在此,每条用户语音信息对应于该用户所使用的虚拟现实设备;或者,在步骤S1中,所述播放设备通过直接与所述虚拟现实设备相交互,分别从各个虚拟现实设备中获取其所对应的用户的用户语音信息。
在步骤S2中,所述播放设备根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,在步骤S2中,所述播放设备通过对所述一条或多条用户语音信息进行统计,或者基于语音分析技术,对所述用户语音信息进行分析,从而将所述统计结果和/或所述分析结果作为所述用户语音特征。
优选地,在步骤S2中,所述播放设备可以执行以下至少任一项:
-根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征:也即,获取所述一条或多条用户语音信息是由几名用户所发出的,从而对所述一条或多条用户语音信息所对应的用户数量进行统计,从而将所述用户数量作为用户语音特征;或者,直接对所述用户语音信息的条数进行统计,以将所述用户语音信息的条数作为用户语音特征。
-根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征:也即,直接将每条用户语音信息的发送时间作为所述用户语音特征;或者,将所述用户语音信息的发送时间按照时间段进行统计,从而将该时间段作为所述用户语音特征;或者,将多个用户语音信息按照发送时间段进行聚类,从而将所聚类后的多个不同的时间段作为所述用户语音特征。
-根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征:也即,直接将每条用户语音信息的音量作为所述用户语音特征;或者,将按照发送时间聚类后的每个类别下的多条用户语音信息的平均音量作为所述用户语音特征;或者,将所述音量按照预定的划分标准,分别划分为“音量高、音量中、音量低”,从而将音量的“高、中、低”作为所述用户语音特征。
优选地,在步骤S2中,所述播放设备可以根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,在步骤S2中,所述播放设备基于语音识别技术,对所述用户语音信息进行识别,从而将用户语音信息转化为语义信息。
然后,在步骤S2中,所述播放设备将所述语义信息直接作为所述用户语音特征,或者,对所述语义信息中的关键字进行提取,将所述关键字作为所述用户语音特征。
本领域技术人员应能理解,在步骤S2中,所述播放设备可以对每一条用户语音信息分别执行上述操作,以为每一条语音信息确定所述用户语音特征;此外,在步骤S2中,所述播放设备还可以对多条所述用户语音信息进行统计,以为多条用户语音信息确定同一用户语音特征,例如,将多条用户语音信息中出现频率较高的关键字作为该组用户语音信息所对应的用户语音特征。
更优选地,在步骤S2中,所述播放设备还可以根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;然后,根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
具体地,在步骤S2中,所述播放设备可以直接根据所述用户语音信息中的语义信息,对所述用户语音信息所对应的情感信息进行确定,例如,通过对所述语音信息进行语义识别,以确定所述语音信息所对应的语义;在此,所述语义识别可以将所述语音信息完全识别,也可以提取所述语音信息中的关键词,例如,“高兴”、“烦”、“唉”(叹气)等表示情绪的词。
或者,在步骤S2中,所述播放设备通过对所述用户语音信息的语速、语调等进行数据分析,根据高频、低频、持续时间等频谱信息来确定所述用户语音信息所对应的情绪信息。例如,若通过音频分析得知音调高亢且短促,则可认为所述情绪信息为恐惧等。
然后,在步骤S2中,所述播放设备根据所述语义信息并结合所述情感信息,将所述语义信息与情感信息直接确定为所述用户语音特征;或者,将所述情感信息作为所述语义信息的辅助信息,将具有情感信息的语义信息作为所述用户语音特征;或者,根据所述语义信息与所述情感信息,确定所述用户的需求倾向(如希望快进、重播等),并将所述用户需求倾向作为所述用户语音特征。
在步骤S3中,所述播放设备根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,在步骤S3中,所述播放设备根据所述用户语音特征,确定是否对当前所述多媒体资源的播放进度进行调整,在此,所述调整包括但不限于暂停、快进、回放、或是选择某一特定片段等。在此,本领域技术人员应能理解,所述播放进度调整信息可以是直接对应于该用户语音信息所对应的用户所使用的虚拟现实设备;也可以是对应于整个虚拟现实场景,也即,对该虚拟现实场景下的所有虚拟现实设备进行播放进度调整。
例如,若所述用户语音特征为多人同时发布语音,则可对于用户交谈这段时间内的多媒体资源进行重播;若所述用户语音特征为“恐惧”,则可跳过该多媒体资源的当前播放场景内容;若所述用户语音特征为语义信息“想知道结局”,则可直接跳转至该多媒体资源的结尾等。
优选地,在步骤S3中,所述播放设备可以根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,在步骤S3中,所述播放设备将所述用户语音特征与所述多媒体资源所对应的内容信息进行匹配。例如,若所述用户语音特征为语义信息,这将该语义信息与多媒体资源的资源内容信息相匹配,在此,所述资源内容信息可以根据所述多媒体资源的资源介绍、当前台词信息/展示信息等进行确定;或者,若所述用户语音特征为情感信息,则根据该情感信息与所述多媒体资源的资源内容信息进行匹配,并将符合该情感信息的资源内容作为匹配后的内容等。
然后,根据所述确定的资源内容信息,将该播放进度调整信息进行调整,以使得调整播放该匹配的资源内容信息。
例如,若所述用户语音特征信息为“高兴”,则将该多媒体资源中的“高兴”场景的播放进度作为播放进度调整信息;若所述用户语音特征信息为“放鞭炮”,则将该多媒体资源中的“放鞭炮”场景的播放进度作为播放进度调整信息。
优选地,在步骤S3中,所述播放设备可以根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述虚拟现实场景的场景信息包括当前虚拟现实场景的时间、光线、声音、场景分类、参与用户等信息。例如,若参与用户小于一定数量时,则可以直接基于所述用户语音特征确定播放进度调整信息,若参与用户超过一定数量时,则仅当所述用户语音特征满足预定阈值时,才基于所述用户语音特征确定播放进度调整信息;若场景分类为“会议场景”,则可以提高对播放进度调整信息的确定的频率等。
优选地,在步骤S3中,所述播放设备可以根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
具体地,所述播放设备可以直接通过拍照或摄像等方式,获取所述用户的动作信息,或者,所述播放设备可以与能够提供所述动作信息的设备(如该用户对应的虚拟现实设备)相交互,以获取所述用户的动作信息。其中,所述动作信息包括但不限于肢体动作和/或表情动作。
在步骤S3中,所述播放设备通过对所述动作信息进行分析,例如通过基于单帧或多张连贯图片进行分析,以确定所述用户动作信息的特征;然后,将所述用户动作信息的特征与所述用户语音特征结合,从而确定与所述虚拟现实设备所对应的播放进度调整信息。例如,若用户摇头、嘴角向下等,则表明对当前播放内容不满,因此可以结合所述用户语音特征来对所述多媒体资源进行快进或跳过当前内容等。
优选地,所述方法还包括步骤S4(未示出),其中,在步骤S4中,所述播放设备将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
具体地,由于所述用户语音特征信息对应于一个或多个用户,所述播放设备可以将所述播放进度调整信息发送至该用户所对应的虚拟现实设备。从而,所述虚拟现实设备可以基于所述播放进度调整信息来对播放进度进行调整。
优选地,所述方法还包括步骤S5(未示出),其中,在步骤S5中,所述播放设备将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
具体地,所述虚拟现实场景下包含有多个虚拟现实设备,其中,第一虚拟现实设备为所述播放进度控制设备;也即,第一用户使用第一虚拟现实设备,第二用户使用第二虚拟现实设备,所述第一用户作为该虚拟现实场景的管理用户,所述第二用户作为该虚拟现实场景的普通用户。例如,在播放电影时,所述第一用户可以作为房主,使用所述第一虚拟现实设备来对所播放的多媒体资源进行控制;所述第二用户可以作为普通观众,与所述第一用户一起来观看当前影片。
然后,所述播放设备将所述播放进度调整信息发送至所述第一虚拟现实设备,从而所述第一虚拟现实设备能够确定是否对所述多媒体资源的播放进度进行调整;如确定,则所述第一虚拟现实设备执行对所述多媒体资源的播放调整,并同步至该虚拟现实场景下的其他多个虚拟现实设备。
图3示出了可被用于实施本申请中所述的各个实施例的示例性系统。
在一些实施例中,系统300能够作为图1与图2所示的实施例或其他所述实施例中的任意一个远程计算设备。在一些实施例中,系统300可包括具有指令的一个或多个计算机可读介质(例如,系统存储器或NVM/存储设备320)以及与该一个或多个计算机可读介质耦合并被配置为执行指令以实现模块从而执行本申请中所述的动作的一个或多个处理器(例如,(一个或多个)处理器305)。
对于一个实施例,系统控制模块310可包括任意适当的接口控制器,以向(一个或多个)处理器305中的至少一个和/或与系统控制模块310通信的任意适当的设备或组件提供任意适当的接口。
系统控制模块310可包括存储器控制器模块330,以向系统存储器315提供接口。存储器控制器模块330可以是硬件模块、软件模块和/或固件模块。
系统存储器315可被用于例如为系统300加载和存储数据和/或指令。对于一个实施例,系统存储器315可包括任意适当的易失性存储器,例如,适当的DRAM。在一些实施例中,系统存储器315可包括双倍数据速率类型四同步动态随机存取存储器(DDR4SDRAM)。
对于一个实施例,系统控制模块310可包括一个或多个输入/输出(I/O)控制器,以向NVM/存储设备320及(一个或多个)通信接口325提供接口。
例如,NVM/存储设备320可被用于存储数据和/或指令。NVM/存储设备320可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(HDD)、一个或多个光盘(CD)驱动器和/或一个或多个数字通用光盘(DVD)驱动器)。
NVM/存储设备320可包括在物理上作为系统300被安装在其上的设备的一部分的存储资源,或者其可被该设备访问而不必作为该设备的一部分。例如,NVM/存储设备320可通过网络经由(一个或多个)通信接口325进行访问。
(一个或多个)通信接口325可为系统300提供接口以通过一个或多个网络和/或与任意其他适当的设备通信。系统300可根据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信。
对于一个实施例,(一个或多个)处理器305中的至少一个可与系统控制模块310的一个或多个控制器(例如,存储器控制器模块330)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器305中的至少一个可与系统控制模块310的一个或多个控制器的逻辑封装在一起以形成系统级封装(SiP)。对于一个实施例,(一个或多个)处理器305中的至少一个可与系统控制模块310的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器305中的至少一个可与系统控制模块310的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(SoC)。
在各个实施例中,系统300可以但不限于是:服务器、工作站、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)。在各个实施例中,系统300可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,系统300包括一个或多个摄像机、键盘、液晶显示器(LCD)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(ASIC)和扬声器。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本申请的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本申请的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本申请的方法和/或技术方案。本领域技术人员应能理解,计算机程序指令在计算机可读介质中的存在形式包括但不限于源文件、可执行文件、安装包文件等,相应地,计算机程序指令被计算机执行的方式包括但不限于:该计算机直接执行该指令,或者该计算机编译该指令后再执行对应的编译后程序,或者该计算机读取并执行该指令,或者该计算机读取并安装该指令后再执行对应的安装后程序。在此,计算机可读介质可以是可供计算机访问的任意可用的计算机可读存储介质或通信介质。
通信介质包括藉此包含例如计算机可读指令、数据结构、程序模块或其他数据的通信信号被从一个系统传送到另一系统的介质。通信介质可包括有导的传输介质(诸如电缆和线(例如,光纤、同轴等))和能传播能量波的无线(未有导的传输)介质,诸如声音、电磁、RF、微波和红外。计算机可读指令、数据结构、程序模块或其他数据可被体现为例如无线介质(诸如载波或诸如被体现为扩展频谱技术的一部分的类似机制)中的已调制数据信号。术语“已调制数据信号”指的是其一个或多个特征以在信号中编码信息的方式被更改或设定的信号。调制可以是模拟的、数字的或混合调制技术。
作为示例而非限制,计算机可读存储介质可包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据的信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动的介质。例如,计算机可读存储介质包括,但不限于,易失性存储器,诸如随机存储器(RAM,DRAM,SRAM);以及非易失性存储器,诸如闪存、各种只读存储器(ROM,PROM,EPROM,EEPROM)、磁性和铁磁/铁电存储器(MRAM,FeRAM);以及磁性和光学存储设备(硬盘、磁带、CD、DVD);或其它现在已知的介质或今后开发的能够存储供计算机系统使用的计算机可读信息/数据。
在此,根据本申请的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本申请的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (20)
1.一种用于多个虚拟现实设备间的播放方法,其中,该方法包括以下步骤:
a获取多个虚拟现实设备所对应的一条或多条用户语音信息,其中,所述多个虚拟现实设备在同一虚拟现实场景下同步播放同一多媒体资源;
b根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;
c根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
2.根据权利要求1所述的方法,其中,所述步骤b包括以下至少任一项:
根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征。
3.根据权利要求1或2所述的方法,其中,所述步骤b包括:
根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;
根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
4.根据权利要求3所述的方法,其中,所述步骤b还包括:
根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;
其中,确定与所述用户语音信息相对应的用户语音特征的步骤包括:
根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
5.根据权利要求3或4所述的方法,其中,所述步骤c包括:
根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
6.根据权利要求1至5中任一项所述的方法,其中,所述步骤c包括:
根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
7.根据权利要求1至6中任一项所述的方法,其中,所述步骤c包括:
根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
8.根据权利要求1至7中任一项所述的方法,其中,该方法还包括:
将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
9.根据权利要求1至7中任一项所述的方法,其中,该方法还包括:
将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
10.一种用于多个虚拟现实设备间的播放设备,其中,所述播放设备包括:
第一装置,用于获取多个虚拟现实设备所对应的一条或多条用户语音信息,其中,所述多个虚拟现实设备在同一虚拟现实场景下同步播放同一多媒体资源;
第二装置,用于根据所述一条或多条用户语音信息,确定与所述用户语音信息相对应的用户语音特征;
第三装置,用于根据所述用户语音特征,确定与所述虚拟现实设备所对应的播放进度调整信息。
11.根据权利要求10所述的播放设备,其中,所述第二装置用于以下至少任一项:
根据所述用户语音信息所对应的用户数量和/或用户语音信息数量,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的发送时间,确定与所述用户语音信息相对应的用户语音特征;
根据所述用户语音信息所对应的音量,确定与所述用户语音信息相对应的用户语音特征。
12.根据权利要求10或11所述的播放设备,其中,所述第二装置用于:
根据所述用户语音信息,确定所述用户语音信息所对应的语义信息;
根据所述语义信息,确定与所述用户语音信息相对应的用户语音特征。
13.根据权利要求12所述的播放设备,其中,所述第二装置还用于:
根据所述用户语音信息,确定所述用户语音信息所对应的情感信息;
其中,确定与所述用户语音信息相对应的用户语音特征的步骤包括:
根据所述语义信息,结合所述情感信息,确定与所述用户语音信息相对应的用户语音特征。
14.根据权利要求12或13所述的播放设备,其中,所述第三装置用于:
根据所述用户语音特征,结合所述多媒体资源所对应的资源内容信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
15.根据权利要求10至14中任一项所述的播放设备,其中,所述第三装置用于:
根据所述用户语音特征,结合所述用户语音信息所对应的虚拟现实场景的场景信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
16.根据权利要求10至15中任一项所述的播放设备,其中,所述第三装置用于:
根据所述用户语音特征,结合所述用户语音信息所对应的用户的动作信息,确定与所述虚拟现实设备所对应的播放进度调整信息。
17.根据权利要求10至16中任一项所述的播放设备,其中,所述播放设备还包括:
第四装置,用于将所述播放进度调整信息发送至与所述用户语音特征相对应的虚拟现实设备。
18.根据权利要求10至16中任一项所述的播放设备,其中,所述播放设备还包括:
第五装置,用于将所述播放进度调整信息发送至与所述虚拟现实场景所对应的第一虚拟现实设备,其中,所述第一虚拟现实设备为所述虚拟现实场景下的多个虚拟现实设备的播放进度控制设备。
19.一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个计算机程序;
当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至9中任一项所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序可被处理器执行如权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811301509.4A CN109640164A (zh) | 2018-11-02 | 2018-11-02 | 一种用于多个虚拟现实设备间的播放方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811301509.4A CN109640164A (zh) | 2018-11-02 | 2018-11-02 | 一种用于多个虚拟现实设备间的播放方法与装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109640164A true CN109640164A (zh) | 2019-04-16 |
Family
ID=66067254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811301509.4A Pending CN109640164A (zh) | 2018-11-02 | 2018-11-02 | 一种用于多个虚拟现实设备间的播放方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109640164A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287365A (zh) * | 2019-06-29 | 2019-09-27 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN110719516A (zh) * | 2019-10-21 | 2020-01-21 | 北京字节跳动网络技术有限公司 | 视频同步的方法及装置、终端和存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104407795A (zh) * | 2014-12-10 | 2015-03-11 | 联想(北京)有限公司 | 显示控制方法和显示控制装置 |
US20150177903A1 (en) * | 2013-12-20 | 2015-06-25 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling scale resolution in electronic device |
CN104866809A (zh) * | 2014-02-25 | 2015-08-26 | 腾讯科技(深圳)有限公司 | 画面播放方法和装置 |
CN105005468A (zh) * | 2014-04-25 | 2015-10-28 | 联想(新加坡)私人有限公司 | 使用自然用户界面输入加强预测置信和命令优先级 |
CN105099855A (zh) * | 2014-04-30 | 2015-11-25 | 阿尔派株式会社 | 电子装置以及语音信息的播放控制方法 |
CN105704569A (zh) * | 2016-03-08 | 2016-06-22 | 京东方科技集团股份有限公司 | 一种声音调节系统及声音调节方法 |
CN106162358A (zh) * | 2016-06-30 | 2016-11-23 | 乐视控股(北京)有限公司 | 一种vr播放视频进度的调节方法及设备 |
US20170075539A1 (en) * | 2015-09-10 | 2017-03-16 | Qualcomm Incorporated | Dynamic Control Schemes for Simultaneously-Active Applications |
CN106546251A (zh) * | 2016-10-14 | 2017-03-29 | 深圳市元征科技股份有限公司 | 一种导航处理的方法及终端 |
CN107340947A (zh) * | 2017-06-23 | 2017-11-10 | 珠海市魅族科技有限公司 | 一种界面调节方法及装置、计算机装置及存储介质 |
CN107545029A (zh) * | 2017-07-17 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 智能设备的语音反馈方法、设备及可读介质 |
CN107767881A (zh) * | 2016-08-15 | 2018-03-06 | 中国移动通信有限公司研究院 | 一种语音信息的满意度的获取方法和装置 |
-
2018
- 2018-11-02 CN CN201811301509.4A patent/CN109640164A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150177903A1 (en) * | 2013-12-20 | 2015-06-25 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling scale resolution in electronic device |
CN104866809A (zh) * | 2014-02-25 | 2015-08-26 | 腾讯科技(深圳)有限公司 | 画面播放方法和装置 |
CN105005468A (zh) * | 2014-04-25 | 2015-10-28 | 联想(新加坡)私人有限公司 | 使用自然用户界面输入加强预测置信和命令优先级 |
CN105099855A (zh) * | 2014-04-30 | 2015-11-25 | 阿尔派株式会社 | 电子装置以及语音信息的播放控制方法 |
CN104407795A (zh) * | 2014-12-10 | 2015-03-11 | 联想(北京)有限公司 | 显示控制方法和显示控制装置 |
US20170075539A1 (en) * | 2015-09-10 | 2017-03-16 | Qualcomm Incorporated | Dynamic Control Schemes for Simultaneously-Active Applications |
CN105704569A (zh) * | 2016-03-08 | 2016-06-22 | 京东方科技集团股份有限公司 | 一种声音调节系统及声音调节方法 |
CN106162358A (zh) * | 2016-06-30 | 2016-11-23 | 乐视控股(北京)有限公司 | 一种vr播放视频进度的调节方法及设备 |
CN107767881A (zh) * | 2016-08-15 | 2018-03-06 | 中国移动通信有限公司研究院 | 一种语音信息的满意度的获取方法和装置 |
CN106546251A (zh) * | 2016-10-14 | 2017-03-29 | 深圳市元征科技股份有限公司 | 一种导航处理的方法及终端 |
CN107340947A (zh) * | 2017-06-23 | 2017-11-10 | 珠海市魅族科技有限公司 | 一种界面调节方法及装置、计算机装置及存储介质 |
CN107545029A (zh) * | 2017-07-17 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 智能设备的语音反馈方法、设备及可读介质 |
Non-Patent Citations (1)
Title |
---|
杨栗洋,陈建英,曾华林: "《VR战略 从虚拟到现实的商业革命》", 《读秀》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287365A (zh) * | 2019-06-29 | 2019-09-27 | 联想(北京)有限公司 | 一种数据处理方法及电子设备 |
CN110719516A (zh) * | 2019-10-21 | 2020-01-21 | 北京字节跳动网络技术有限公司 | 视频同步的方法及装置、终端和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11158102B2 (en) | Method and apparatus for processing information | |
CN109640188B (zh) | 视频预览方法、装置、电子设备及计算机可读存储介质 | |
JP7470137B2 (ja) | 視覚的特徴をサウンドタグに相関させることによるビデオタグ付け | |
WO2022121601A1 (zh) | 一种直播互动方法、装置、设备及介质 | |
US11417341B2 (en) | Method and system for processing comment information | |
US10182095B2 (en) | Method and system for video call using two-way communication of visual or auditory effect | |
US20190130185A1 (en) | Visualization of Tagging Relevance to Video | |
CN110012302A (zh) | 一种网络直播监测方法及装置、数据处理方法 | |
US20150130836A1 (en) | Adapting content to augmented reality virtual objects | |
US10645464B2 (en) | Eyes free entertainment | |
JP2015517709A (ja) | コンテキストに基づくメディアを適応配信するシステム | |
WO2021019342A1 (en) | Synchronized sound generation from videos | |
US20230368461A1 (en) | Method and apparatus for processing action of virtual object, and storage medium | |
US20230298628A1 (en) | Video editing method and apparatus, computer device, and storage medium | |
CN108924644A (zh) | 视频片段提取方法及装置 | |
CN110121106A (zh) | 视频播放方法及装置 | |
JP2022531221A (ja) | テキスト類似性を使用した視覚的タグのサウンドタグへのマッピング | |
CN109640164A (zh) | 一种用于多个虚拟现实设备间的播放方法与装置 | |
CN109445573A (zh) | 一种用于虚拟化身形象互动的方法与装置 | |
CN111265851B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
US20200057890A1 (en) | Method and device for determining inter-cut time range in media item | |
CN109547830A (zh) | 一种用于多个虚拟现实设备的同步播放的方法与装置 | |
CN110225384A (zh) | 状态消息的推送方法、交互内容的切换方法、装置及设备 | |
CN115981769A (zh) | 页面显示方法、装置、设备、计算机可读存储介质及产品 | |
CN115334367A (zh) | 视频的摘要信息生成方法、装置、服务器以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190416 |