CN112203114A - 协同演奏方法、系统、终端设备及存储介质 - Google Patents

协同演奏方法、系统、终端设备及存储介质 Download PDF

Info

Publication number
CN112203114A
CN112203114A CN202010927502.4A CN202010927502A CN112203114A CN 112203114 A CN112203114 A CN 112203114A CN 202010927502 A CN202010927502 A CN 202010927502A CN 112203114 A CN112203114 A CN 112203114A
Authority
CN
China
Prior art keywords
user
information
performance
playing
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010927502.4A
Other languages
English (en)
Other versions
CN112203114B (zh
Inventor
段新
段拙然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Chuangshijia Technology Co Ltd
Original Assignee
Foshan Chuangshijia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Chuangshijia Technology Co Ltd filed Critical Foshan Chuangshijia Technology Co Ltd
Priority to CN202010927502.4A priority Critical patent/CN112203114B/zh
Publication of CN112203114A publication Critical patent/CN112203114A/zh
Priority to PCT/CN2021/076155 priority patent/WO2022048113A1/zh
Application granted granted Critical
Publication of CN112203114B publication Critical patent/CN112203114B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/211User input interfaces for electrophonic musical instruments for microphones, i.e. control of musical parameters either directly from microphone signals or by physically associated peripherals, e.g. karaoke control switches or rhythm sensing accelerometer within the microphone casing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • G10H2220/326Control glove or other hand or palm-attached control device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本申请适用于计算机技术领域,提供了协同演奏方法、系统、终端设备及存储介质,包括:第一用户通过第一终端发送协同演奏邀请信息,所述协同演奏邀请信息包括演奏曲目及演奏场景信息;若获取到第二用户通过第二终端返回的接受邀请信息,则与所述第二终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目。本申请实施例能够让处于不同地域的人们实现远程音乐娱乐交流。

Description

协同演奏方法、系统、终端设备及存储介质
技术领域
本申请属于计算机技术领域,尤其涉及一种协同演奏方法、系统、终端设备及存储介质。
背景技术
随着社会的发展及生活水平的提高,人们的娱乐方式越来越丰富,其中唱歌、乐器演奏等音乐娱乐方式为一种广受喜爱的娱乐方式。但现实生活中,音乐作品的表现往往需要大家协同合作,而位于不同地域的人们通常难以抵达同一地点进行音乐作品的协同合作,导致音乐作品的协同演奏实现较难。
发明内容
有鉴于此,本申请实施例提供了协同演奏方法、系统、终端设备及存储介质,以解决现有技术中如何简便有效地让处于不同地域的人们实现音乐的协同演奏的问题。
本申请实施例的第一方面提供了一种协同演奏方法,所述方法应用于第一用户对应的第一终端,包括:
发送协同演奏邀请信息,所述协同演奏邀请信息包括演奏曲目及演奏场景信息;
若获取到第二用户通过第二终端返回的接受邀请信息,则与所述第二终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;
展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目。
本申请实施例的第二方面提供了另一种协同演奏方法,所述方法应用于第二用户对应的第二终端,包括:
接收协同演奏邀请信息,并返回接受邀请信息至第一用户对应的第一终端;所述协同演奏邀请信息包括演奏曲目及演奏场景信息;
与所述第一终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;
展示所述目标虚拟现实场景,并指示所述第二用户在所述目标虚拟现实场景中与所述第一用户协同演奏所述演奏曲目。
本申请实施例的第三方面提供了一种协同演奏系统,所述系统包括第一用户对应的第一终端,第二用户对应的第二终端以及服务端;
所述第一终端,用于执行如第一方面所述的协同演奏方法;
所述第二终端,用于执行如第二方面所述的协同演奏方法;
所述服务端,用于接收所述协同演奏邀请信息,根据所述协同演奏邀请信息确定目标虚拟现实场景;以及用于将所述目标虚拟现实场景的数据传送至所述第一终端及所述第二终端。
本申请实施例的第四方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,当所述处理器执行所述计算机程序时,使得终端设备实现如第一方面或者第二方面所述协同演奏方法的步骤。
本申请实施例的第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得终端设备实现如第一方面或者第二方面所述协同演奏方法的步骤。
本申请实施例的第六方面提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行如第一方面或者第二方面所述协同演奏方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中,第一用户通过第一终端发送协同演奏邀请,并在获取到第二用户通过第二终端返回的接受邀请信息后,与第二终端一同从服务端加载根据协同演奏邀请信息确定的虚拟现实场景(即目标虚拟现实场景),并在之后展示目标虚拟现实场景以及指示第一用户在目标虚拟现实场景中与所述第二用户协同演奏演奏曲目。由于能够根据协同演奏邀请信息邀请第二用户以及从服务端加载目标虚拟现实场景,使得第一用户和第二用户能够通过在该目标虚拟现实场景中协同演奏指定的演奏曲目,因此能够方便有效地实现远程音乐娱乐交互,使得处于不同地域的人们无需抵达同一地点,也能够基于虚拟现实技术,简便有效地实现身临其境的远程音乐协同演奏。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种协同演奏方法的应用场景示意图;
图2是本申请实施例提供的第一种协同演奏方法的实现流程示意图;
图3是本申请实施例提供的一种虚拟电子打击板的示意图;
图4是本申请实施例提供的一种虚拟MIDI键盘的示意图;
图5是本申请实施例提供的一种虚拟弦的示意图;
图6是本申请实施例提供的一种虚拟孔的示意图;
图7是本申请是实施例提供一种虚拟孔对应的乐器操作提示信息的示意图;
图8是本申请实施例提供的节奏音和旋律音的提取示意图;
图9是本申请实施例提供的第二种协同演奏方法的实现流程示意图;
图10是本申请实施例提供的一种协同演奏系统的示意图;
图11是本申请实施例提供的另一种协同演奏系统的示意图;
图12是本申请实施例提供的一种第一终端的示意图。
图13是本申请实施例提供的一种第二终端的示意图。
图14是本申请实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
在目前的音乐娱乐方式中,需要多个音乐爱好者到达约定的场所才能实现,而处于不同地域、距离较远的音乐爱好者难以同步进行相互的音乐娱乐交流。为了解决该技术问题,本申请实施例提供了一种协同演奏方法、系统、终端设备及存储介质,该协同演奏方法包括第一用户通过第一终端发送协同演奏邀请,并在获取到第二用户通过第二终端返回的接受邀请信息后,与第二终端一同从服务端加载根据协同演奏邀请信息构建的目标虚拟现实场景,并在之后展示目标虚拟现实场景以及指示第一用户在目标虚拟现实场景中与所述第二用户协同演奏演奏曲目。由于能够根据协同演奏邀请信息邀请第二用户以及从服务端加载目标虚拟现实场景,使得第一用户和第二用户能够通过在该目标虚拟现实场景中协同演奏指定的演奏曲目,因此能够方便有效地实现远程音乐娱乐交互,使得处于不同地域的人们能够基于虚拟现实技术,身临其境地实现远程音乐娱乐交流。
示例性地,图1为本申请实施例提供的一种协同演奏方法的应用场景示意图,包括服务端、多个用户及其对应的终端和交互设备(可以包括头显设备、耳机、麦克风、手柄/数据手套等)。当多个用户需要通过协同演奏实现音乐娱乐交流时,由其中一个用户作为第一用户(即协同演奏的邀请方),通过第一用户对应的终端(称为第一终端)发送协同演奏邀请信息至服务端,以使该协同演奏邀请信息直接或者通过服务端间接地传送至至少一个第二用户(即被第一用户邀请的其它用户)对应的终端(称为第二终端);接着,若第二用户接受邀请,则通过第二终端发送接受邀请信息,第一终端在接收到该接受邀请信息后,与第二终端一同从服务端加载目标虚拟现实场景;之后,第一终端向第一用户展示目标虚拟现实场景,并指示第一用户在目标虚拟现实场景中与第二用户协同演奏预设的演奏曲目(第一终端具体可以将目标虚拟现实场景的信息和指示信息输出至第一用户佩戴的头显设备来实现目标虚拟现实场景的展示以及对第一用户的指示),同样地,第二终端向第二用户展示目标虚拟现实场景,并指示第二用户在目标虚拟现实场景中与第一用户协同演奏该演奏曲目,从而完成第一用户和第二用户远程协同演奏,使得处于不同地域的用户能够基于虚拟现实技术,身临其境地实现远程音乐娱乐交流。
实施例一:
图2示出了本申请实施例提供的第一种协同演奏方法的流程示意图,该方法应用于第一终端,详述如下:
本申请实施例中,第一用户为当前协同演奏方法的邀请者,第二用户为被第一用户所邀请的用户;第一用户所使用的终端设备为第一终端,第二用户所使用的终端设备为第二终端。第一用户、第二用户、第一终端、第二终端仅作为区别描述,任意一个用户均可以在想成为邀请者时作为第一用户,以其对应的终端设备作为第一终端执行以下S201至S203的步骤;除该第一用户以外的其它任意一个或者多个用户均可以作为第二用户,通过其对应的第二终端接受第一用户通过第一终端发送的协同演奏邀请信息,实现第一用户和第二用户的远程协同演奏。
在S201中,发送协同演奏邀请信息,所述协同演奏邀请信息包括演奏曲目及演奏场景信息。
第一用户可以通过自身的用户账号登录第一终端预设的客户端程序,以使第一终端接入协同演奏系统。之后,第一用户可以在第一终端上进行协同演奏的设定,生成协同演奏邀请信息,并将该协同演奏邀请信息发送至服务端或者第二用户对应的第二终端。
具体地,该协同演奏邀请信息至少包括演奏曲目和演奏场景信息,演奏场景信息为用于设定虚拟现实场景的虚拟环境的信息,该虚拟环境可以包括K厅、草原、海边等。具体地,第一终端可以从服务端加载服务端预存的曲目库、虚拟环境库,从该曲目库中选择当前的演奏曲目,从虚拟环境库中选择当前的虚拟环境,从而生成该协同演奏邀请信息。可选地,该协同演奏邀请信息还可以包括演奏难度信息、被邀请的第二用户的账号信息、此次协同演奏的用户数量、第二用户的权限、用户的虚拟化身设置信息、演奏形式设置信息等。
在S202中,若获取到第二用户通过第二终端返回的接受邀请信息,则与所述第二终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景。
本申请实施例中,第二用户对应的第二终端可以直接与第一终端建立通讯连接,直接接收第一终端发送的协同演奏邀请信息,或者,第一终端将协同演奏邀请信息发送至服务端后,由服务端转发至第二终端。第二终端获取该协同演奏邀请信息后,若第二用户接受协同演奏邀请,则通过第二终端直接向第一终端发出接受邀请信息,或者通过服务端间接地向第一终端返回接受邀请信息。
第一终端若获取到第二用户通过第二终端返回的该接受邀请信息,则与第二终端一同从服务端加载上述的演奏场景信息对应的目标虚拟现实场景。具体地,第一终端在获取到该接受邀请信息后,在从服务端加载目标虚拟现实场景的同时也指示第二终端加载该目标虚拟现实场景;或者,第二终端在发送接受邀请信息后,自动从服务端加载目标虚拟现实场景,而第一终端在获取到接受邀请信息后,从服务端加载该目标虚拟现实场景。
具体地,该目标虚拟现实场景为服务端根据协同演奏邀请信息确定的虚拟现实场景。服务端预存了包含K厅、草原、海边等虚拟环境的多种虚拟现实场景,服务端根据该协同演奏邀请信息中的演奏场景信息从预存的多个虚拟现实场景中选择一个虚拟现实场景,并添加第一用户对应的虚拟化身及虚拟演奏设备、第二用户对应的虚拟化身及虚拟演奏设备,从而生成目标虚拟现实场景。在一个实施例中,协同演奏邀请信息中除了包含演奏曲目和演奏场景信息外,还包括用户的虚拟化身设置信息和演奏形式设置信息,该用户的虚拟化身设置信息包括为第一用户选择的虚拟化身及为第二用户选择的虚拟化身的信息,该演奏形式设置信息包括为第一用户选择的演奏形式及对应的虚拟演奏设备的信息,以及为第二用户选择的演奏形式及对应的虚拟演奏设备的信息,其中该虚拟演奏设备可以包括虚拟麦克风、虚拟乐器、虚拟简易演奏装置中的任意一项或者多项;在第一终端通过步骤S201将该协同演奏邀请信息发送至服务端后,服务端根据该协同邀请信息中包含的演奏场景信息从预存的虚拟现实场景库中选择当前的虚拟现实场景,根据用户的虚拟化身设置信息在该当前的虚拟现实场景中添加对应的虚拟化身,根据演奏形式设置信息在该当前的虚拟现实场景中添加对应的虚拟演奏设备,从而得到目标虚拟现实场景,并在接收到第一终端、第二终端的加载请求后,将该目标虚拟现实场景的数据发送至该第一终端、第二终端,从而完成第一终端、第二终端对目标虚拟现实场景的加载。在另一个实施例中,协同演奏邀请信息中只包含了演奏曲目和演奏场景信息,在第一终端通过步骤S201将该协同演奏邀请信息发送至服务端后,服务端根据该协同邀请信息中包含的演奏场景信息从预存的虚拟现实场景库中选择当前的虚拟现实场景;在第一终端获取到第二终端返回的接受邀请信息后,第一用户通过第一终端向服务端发送自身设定的虚拟化身和虚拟演奏设备的信息,第二用户通过第二终端向服务端发送自身设定的虚拟化身和虚拟演奏设备的信息,之后,服务端再相应地从已选择的当前的虚拟现实场景添加第一用户对应的虚拟化身和虚拟演奏设备,以及第二用户对应的虚拟化身和虚拟演奏设备,从而得到目标虚拟现实场景,以供后续第一终端和第二终端的加载。
在S203中,展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目。
本申请实施例中,第一终端和第二终端均连接了对应的头显设备、耳机、麦克风、手柄、数据手套等交互设备。第一终端根据加载的目标虚拟现实场景的数据,向第一用户佩戴的头显设备输出该目标虚拟现实场景的视觉图像信息来向第一用户展示该包含了虚拟环境、虚拟演奏设备、第一用户和第二用户的虚拟化身的目标虚拟现实场景,并通过在该视觉图像信息中添加用于指示第一用户进行演奏的指示信息来指示第一用户通过手柄、数据手套或者麦克风等交互设备执行演奏动作,从而实现第一用户与第二用户在目标虚拟现实场景中协同演奏该演奏曲目。
具体地,所述协同演奏邀请信息还包括用于设置所述第一用户的演奏形式及所述第二用户的演奏形式的演奏形式设置信息,所述演奏形式包括唱歌和乐器演奏;
对应地,所述步骤S203,包括:
S20301:展示所述目标虚拟现实场景,并根据所述演奏形式设置信息及所述演奏曲目显示演奏提示信息;
S20302:获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,实现所述第一用户在所述目标虚拟现实场景中协同所述第二用户所述演奏曲目。
本申请实施例中,协同演奏邀请信息具体包括演奏形式设置信息,该演奏形式设置信息具体设定了第一用户的演奏形式和第二用户的演奏形式。具体地,该演奏形式可以包括唱歌和乐器演奏。示例性地,当第一用户的演奏形式和第二用户演奏形式均为唱歌时,当前协同演奏的形式具体为合唱形式;当第一用户的演奏形式和第二用户的演奏形式均为乐器演奏时,当前协同演奏的形式具体为合奏形式;当第一用户的演奏形式和第二用户演奏形式既包含唱歌,也包含乐器演奏,则当前的协同演奏的形式具体为伴奏形式。
在步骤S20301中,在第一终端向第一用户展示目标虚拟现实场景后,根据演奏形式设置信息和演奏曲目确定并显示对应的演奏提示信息,具体地,若演奏形式设置信息中设定的第一用户的演奏形式为唱歌,则获取该演奏曲目对应的歌词信息作为当前的演奏提示信息;若演奏形式设置信息中设定的第一用户的演奏形式为乐器演奏,则获取该演奏曲目对应的乐器操作提示信息作为当前的演奏提示信息,从而指示第一用户执行对应的演奏动作。
在步骤S20302中,第一终端通过交互设备获取第一用户根据演奏提示信息执行的演奏动作,并通过第一终端自身的运算或者借助服务端的运算,生成第一用户的演奏动作对应的反馈信息并输出,以及接收服务端或者第二终端根据第二用户执行的演奏动作生成的反馈信息并输出。该反馈信息至少包括视觉反馈信息、听觉反馈信息,还可以包括力觉反馈信息,具体可以通过头显设备输出该反馈信息、通过耳机输出该听觉反馈信息,通过数据手套或者手柄输出该力觉反馈信息,从而实时地向第一用户反馈自身或者第二用户执行演奏动作后在该目标虚拟现实场景产生的视觉、听觉、力觉效果,以增强第一用户在与第二用户进行协同演奏时的真实感和沉浸感。
可选地,第一终端获取第一用户的演奏动作的信息、第二终端获取第二用户的演奏动作的信息后,均上传至服务端;服务端根据获取的演奏动作的信息(演奏动作的位置、手势、加速度等信息)生成对应的反馈信息,并发送至第一终端和第二终端,再由第一终端将该反馈信息输出至第一用户佩戴的交互设备、由第二终端将该反馈信息输出至第二用户佩戴的交互设备。其中,服务端可以根据该演奏动作的信息生成反馈信息的步骤可以如下:(1)根据演奏动作的信息,通过空间分解法或者层次包围盒法进行碰撞检测计算,得到碰撞检测结果,该碰撞检测结果包含根据演奏动作的位置计算出的用户的虚拟手与虚拟现实场景中的虚拟物体的接触位置以及根据演奏动作的手势和加速度计算出的对虚拟物体的作用力度等信息;(2)根据碰撞检测结果进行虚拟物体的形变计算,得到视觉反馈信息;(3)根据碰撞检测结果确定用户对虚拟演奏设备的弹奏效果,获取对应的音频信息作为听觉反馈信息;(4)根据碰撞检测结果,结合牛顿第三定律及虚拟物体的物理属性,进行力反馈计算,得到力觉反馈信息。
本申请实施例中,由于能够根据协同演奏邀请信息中的演奏形式设置信息和演奏曲目准确地显示对应的演奏提示信息,即使用户不懂乐理和乐器的专业演奏方法,也可以根据该演奏提示信息准确地执行相应的演奏动作,从而降低了对用户的专业演奏要求,提高协同演奏方法的普遍适用性和操作简易性;并且,由于能够获取第一用户、第二用户执行演奏动作生成的反馈信息并输出,使得用户能够及时获得当前协同演奏的反馈效果,因此能够增强第一用户在与第二用户进行协同演奏时的真实感和沉浸感。
可选地,若根据所述演奏形式设置信息确定所述第一用户的演奏形式包括唱歌,则所述演奏提示信息包括歌词提示信息;所述步骤S20302,包括:
A1:获取所述第一用户根据所述歌词提示信息在所述目标虚拟现实场景中演唱生成的第一响应数据并传递至所述第二终端,以及获取第二终端发送的所述第二用户执行演奏动作生成的第二响应数据;
A2:根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息;所述反馈信息包括听觉反馈信息及视觉反馈信息。
本申请实施中,演奏形式设置信息具体设定的第一用户的演奏形式为唱歌,则当前显示的演奏提示信息包括歌词提示信息,具体地,第一终端从服务器加载当前演奏曲目对应的歌词数据,并根据当前的演奏进度按时序将该歌词数据输出至第一用户佩戴的头显设备,该歌词数据至少包括歌词文字信息,还可以包括歌词对应的发声、音高、节奏等提示信息。
对应地,步骤S20302包括步骤A1至步骤A2。具体地:
在A1中,第一用户根据歌词提示信息的提示演唱上述的演奏曲目,第一终端通过麦克风捕获该第一用户演唱该演奏曲目的声音,生成对应的演唱音频数据,同时,可以在捕获到该声音时获取预存的用于显示第一用户的虚拟化身的演唱动态图像数据,将该演唱音频数据和动态图像数据作为第一响应数据。并且,第一终端还接收第二终端发送的根据第二用户的演奏动作生成的第二响应数据,该第二响应数据可以包括第二用户演唱或者弹奏虚拟乐器生成的音频数据,以及第二用户的虚拟化身的演唱动态图像数据或者乐器演奏动态图像数据。
在A2中,第一终端根据获取的第一响应数据及第二响应数据,生成对应的反馈信息并输出。具体地,根据获取的第一响应数据中的音频数据以及第二响应数据中的音频数据,生成听觉反馈信息并输出至第一用户佩戴的耳机;根据获取的第一响应数据中的第一用户的虚拟化身的演唱动态图像数据以及第二响应数据中的第二用户的演唱动态图像数据或者乐器演奏动态图像数据,生成视觉反馈信息并输出至第一用户佩戴的头显设备。
本申请实施例中,在演奏形式具体为唱歌时,能够在目标虚拟现实场景中通过歌词提示信息来指导用户进行演唱并输出对应的反馈信息,从而准确有效地实现用户在虚拟现实场景中实现远程的合唱、伴唱。
可选地,若根据所述演奏形式设置信息确定所述第一用户的演奏形式包括乐器演奏,则所述目标虚拟现实场景包括目标乐器对应的虚拟乐器或者虚拟简易演奏装置,所述演奏提示信息包括标识于所述虚拟乐器的乐器操作提示信息;所述步骤S20302,包括:
B1:获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,以及获取第二终端发送的所述第二用户执行演奏动作生成的第二响应数据;
B2:根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息,所述反馈信息包括听觉反馈信息、视觉反馈信息及力觉反馈信息。
本申请实施例中,演奏形式设置信息具体设定的第一用户的演奏形式为乐器演奏,具体地,该演奏形式设置信息还设定了第一用户所要演奏的目标乐器。该目标乐器可以包括锣鼓、架子鼓等打击乐器;钢琴、电子琴等键盘乐器;小提琴、大提琴、七弦古琴、古筝等弦乐器;或者长笛、短笛、萧、双簧管、萨克斯等管乐器。对应地,当前目标虚拟现实场景包括目标乐器对应的虚拟乐器或者虚拟简易演奏装置。具体地,虚拟乐器为在目标虚拟现实场景中具有目标乐器形式的虚拟物体(即仿照实际的目标乐器而构建的三维模型),例如,若当前的目标乐器为锣鼓,则在目标虚拟现实场景中可以设置具有锣鼓的形式的虚拟锣鼓。具体地,虚拟简易演奏装置为目标虚拟现实场景中具有用于演奏目标乐器的简易演奏装置的形式的虚拟物体,该简易演奏装置可以简化用户对目标乐器的操作,使得不懂乐器的用户也能够简单有效地实现乐器演奏。其中,若目标乐器为复杂打击乐器,则该简易演奏装置可以为电子打击板,虚拟简易演奏装置为虚拟电子打击板,其示意图如图3所示;示例性地,当用户选择的目标乐器为架子鼓时,将架子鼓上的多个打击位置映射到虚拟电子打击板上,使得用户在目标虚拟现实场景中敲击该虚拟电子打击板即可发出与操作架子鼓一致的音效,由于虚拟电子打击板相对于架子鼓来说操作位置较少、对打击动作的要求较低,因此能够降低用户操作乐器的复杂度。若目标乐器为键盘乐器,则简易演奏装置可为乐器数字接口(Musical Instrument Digital Interface,MIDI)键盘,虚拟简易演奏装置为虚拟MIDI键盘,其示意图如图4所示;示例性地,当用户选择的目标乐器为钢琴时,通过将钢琴上的多个弹奏位置映射到虚拟MIDI键盘上,使得用户在目标虚拟现实场景中弹奏该虚拟MIDI键盘即可发出与弹奏钢琴一致的音效,由于虚拟MIDI键盘的琴键相对于钢琴来说较少,从而能够降低用户操作乐器的复杂度。若目标乐器为弦乐器,则该虚拟简易演奏装置可以由几根琴弦形式组成的虚拟弦;示例性地,若当前的虚拟弦乐器具体为虚拟小提琴,则该虚拟简易演奏装置如图5所示,由分别对应G、D、A、E四个音名的四根弦组成;示例性地,当虚拟弦乐器具体为吉他时,虚拟简易演奏装置由分别对应E、A、D、G、B、E六个音名的六根弦组成。若目标乐器为管乐器,则该虚拟简易演奏装置可以为由数个圆孔的形式组成的虚拟孔,其中包括吹孔及指孔,如图6所示。可选地,吹孔只用作示意,不供用户操作使用,而指孔所在的位置可供用户通过数据手套等交互设备进行按压操作,当用户在指孔所在位置进行按压操作时,即默认吹孔已经生效;即,用户仅通过指控按压操作即可等效于现实中管乐器的吹按配合效果,从而进一步简化用户的乐器演奏操作。进一步地,由于弦乐器和管乐器的操作较为复杂,其对应的虚拟简易演奏装置可以为虚拟音效板,该虚拟音效板的形式与图3所示的虚拟电子打击板相似,用户只需要敲击或者按压音效板即可在虚拟现实场景中表现出弦乐器、管乐器的弹奏音效。
对应地,本申请实施例中演奏提示信息包括标识于虚拟乐器或者虚拟简易演奏装置的乐器操作提示信息,该乐器操作提示信息具体包括操作的时间点和操作方式,该操作时间点为在演奏曲目中目标乐器的音效出现的时间点,该操作方式可以为打击、按压或者弹拨等。示例性地,当虚拟简易演奏装置具体为如图3所示的虚拟电子打击板时,则乐器操作提示信息可以为按时序在该虚拟电子打击板上显示的打击指示信息,例如在1~6号板中的一个板上显示高亮、或者火花等图像信息,以指示用户打击该板。示例性地,当虚拟简易演奏装置具体为如图4所示的虚拟MIDI键盘时,则乐器操作提示信息可以为按时序在该虚拟MIDI键盘上显示的按压指示信息,例如在MIDI键盘上的其中一个键盘上显示高亮或者凸起的图像信息,以指示用户按压该键盘。示例性地,当虚拟简易演奏装置具体为如图5所示的虚拟弦时,则乐器操作提示信息可以为按时序在该虚拟弦上显示的弹/拨/按弦指示信息,例如将当前需要操作的一根虚拟弦高亮显示,并显示“弹”“拨”或者“按”的文字提示信息,以指示用户弹/拨/按对应的虚拟弦。示例性地,当虚拟简易演奏装置具体由如图6所的吹孔和指孔组成时,则乐器操作提示信息具体可以为按时序使某几个原始状态为空心的指孔变换为实心状态,以指示用户按压对应的指孔,示例性地,如图7所示为发出1(do),2(re),3(mi),4(fa),5(sol),6(la),7(si)这七个唱名对应的指孔按压示意图。
在步骤B1中,第一用户根据标识于虚拟乐器或者虚拟简易演奏装置上的乐器操作提示信息,通过交互设备(手柄或者数据手套)实现在目标虚拟现实场景中操作该虚拟乐器,实现乐器演奏。此时,第一终端通过该交互设备捕获第一用户操作该虚拟乐器或者虚拟简易演奏装置的动作信息,并将该动作信息通过第一终端自身的响应数据确定算法计算出对应的第一响应数据,或者将该动作信息发送至服务端,由服务端通过响应数据确定算法计算出对应的第一响应数据并返回至第一终端。并且第一终端还接收第二终端或者服务端发送的第二用户执行演奏动作生成的第二响应数据。
在步骤B2中,第一终端结合第一用户操作虚拟乐器生成的第一响应数据以及第二终端执行演奏动作生成的第二响应数据,确定当前需要反馈给第一用户的反馈信息并输出。具体地,该反馈信息除了包括听觉反馈信息和视觉反馈信息外,还包括第一用户操作虚拟乐器或者虚拟简易演奏装置的反作用力的信息——力觉反馈信息。具体地,第一终端将该听觉反馈信息输出至第一用户佩戴的耳机、将该视觉反馈信息输出第一用户佩戴的头显设备、将该力觉反馈信息输出至第一用户手持的手柄或者穿戴的数据手套,从而将反馈信息准确地反馈至第一用户。
本申请实施例中,在演奏形式具体为乐器演奏时,能够通过标识于虚拟乐器或者虚拟简易演奏装置的乐器操作提示信息来指导用户通过交互设备实现在目标虚拟现实场景中操作虚拟乐器或者虚拟简易演奏装置,使得非专业的用户也能够通过该乐器操作提示信息方便准确地实现在目标虚拟现实场景中的乐器演奏;并且,由于能够根据用户操作生成的响应数据生成听觉反馈信息、视觉反馈信息和力觉反馈信息反馈至用户,因此能够增强第一用户在与第二用户进行协同演奏时的真实感和沉浸感。进一步地,当目标虚拟现实场景中具体以虚拟电子打击板、虚拟MIDI键盘、虚拟音效板等虚拟简易演奏装置作为虚拟演奏设备时,能够进一步简化用户的操作,使得不懂乐器的用户也能够简单有效地在虚拟现实场景中实现乐器演奏。
可选地,所述获取所述第一用户根据所述乐器操作提示信息在所述虚拟现实场景中操作所述虚拟乐器或者虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,包括:
B11:获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置的动作信息;
B12:根据所述动作信息生成所述第一视觉响应数据及所述第一力觉响应数据;
B13:根据所述动作信息获取对应的预存音源信息,生成第一声音响应数据;所述预存音源信息为将目标乐器演奏的音效,所述音效包括节奏音或者旋律音;
B14:将所述第一视觉响应数据及所述第一声音响应数据传递至所述第二终端;
对应地,所述步骤B2包括:
根据所述第一声音响应数据及所述第二响应数据中的第二声音响应数据生成听觉反馈信息;
根据所述第一视觉响应数据及所述第二响应数据中的第二视觉响应数据生成视觉反馈信息;
根据所述第一力觉响应数据生成力觉反馈信息;
输出所述听觉反馈信息、所述视觉反馈信息及所述力觉反馈信息。
本申请实施例中,第一响应数据具体包括第一声音响应数据、第一视觉响应数据及第一力觉响应数据。具体地,在步骤B11中,第一终端通过获取交互设备上的传感器数据来确定第一用户根据乐器操作提示信息、通过交互设备在目标虚拟现实场景中操作虚拟乐器或者虚拟简易演奏装置的动作信息。具体地,该动作信息包括动作位置、动作手势及动作加速度信息。在步骤B12中,第一终端根据动作信息,通过自身或者服务端的碰撞检测算法(例如空间分解法或者层次包围盒法),确定第一用户的演奏动作与目标虚拟现实场景中的虚拟乐器或者虚拟简易演奏装置等虚拟物体产生的碰撞检测结果;之后,根据该碰撞检测结果和形变算法,确定第一视觉响应数据,即用于表示第一用户操作虚拟乐器或者虚拟简易演奏装置给目标虚拟现实场景中的虚拟物体带来的变形结果,该变形结果可以用虚拟现实构造语言OpenGL API中提供的NURBS接口绘制;并且,根据该碰撞检测结果和力反馈算法(例如质点弹簧模型算法或者有限元方法),确定第一力觉响应数据,该第一力觉响应数据即表示第一用户操作虚拟乐器给虚拟乐器带来作用力后获得的该虚拟乐器的反作用力的数据。在步骤B13中,具体根据动作信息中的动作位置确定当前用户的操作是否与乐器操作提示信息指示的位置相符,若相符,则获取按时序存储的预存音源信息,生成对应的第一声音响应数据。具体地,该预存音源信息为预存的目标乐器演奏的音效,该音效可以为打击乐器的节奏音,或者键盘乐器、弦乐器、管乐器等乐器的旋律音。可选地,该预存音源信息为按时序提取所述演奏曲目对应的预存音频文件中的节奏音和/或旋律音,所述预存音频文件为提前采集至少一个实际乐器演奏所述演奏曲目的声音得到的音频文件,所述至少一个实际乐器至少包括所述目标乐器。服务端存储了当前演奏曲目的预存音频文件,并按照时序分别提取该预存音频文件中各个时刻各个乐器演奏的节奏音或者旋律音,得到按时序排列的预存音源信息;之后,若在某一时刻,用户执行的动作信息与乐器操作提示信息相符时,则获取该时刻目标乐器对应的预存音源信息作为当前的第一声音响应数据。示例性地,如图8所示,设当前演奏曲目的预存音频文件中包括了架子鼓演奏该演奏曲目的节奏音和钢琴弹奏该演奏曲目的旋律音,从该预存音频文件中分别提取该演奏曲目的演奏时间为第1'20"(1分20秒)的节奏音、旋律音,分别进行保存,得到架子鼓演奏该演奏曲目时第1'20"出现的节奏音,以及得到钢琴弹奏该演奏曲目时第1'20"出现的旋律音;之后,在用户选中该演奏曲目,以及选中架子鼓作为目标乐器时,若用户在第1'20"的动作信息与乐器操作提示信息指示的打击位置相符,则以该提前存储的第1'20"的节奏音作为当前的预存音源信息,生成第一声音响应数据;或者,当用户选中钢琴作为目标乐器时,若用户在第1'20"的动作信息与乐器操作提示信息指示的弹按位置相符,则以该提前存储的第1'20"的旋律音作为当前的预存音源信息,生成第一声音响应数据。同样地,图8中示出的第1'30"(1分30秒)的节奏音、旋律音的提取保存过程与第1'20"的相同。应理解,图8仅示例了两个演奏时刻的节奏音和旋律音,图中未示出的其它演奏时刻的节奏音、旋律音的提取保存过程与图中示例的两个演奏时刻的提取保存过程相似。这种从演奏曲目的预存音频文件中提取节奏音、旋律音保存为预存音源信息,并在后续以该预存音源信息作为生成的第一声音响应信息的方法,可以称为“抠音还原”方法,通过该方法,能够准确地还原实际乐器演奏当前演奏曲目的声音。可选地,上述的预存音源信息还可以从网络上的音源资料库下载,或者可以通过例如专业音频编辑软件(Adobe Audition,AE)、水果音乐编辑软件(Fruity Loops Studio,FLstudio)等音乐编辑软件合成目标乐器演奏该演奏曲目的音效而得到。在步骤B14中,由于与第一用户协同演奏的第二用户需要获取第一用户演奏虚拟乐器的视觉效果和听觉效果来增强协同演奏的真实感,因此需要将上述生成的第一视觉响应数据和第一声音响应数据直接或者通过服务端间接地传递至第二终端,以使第二终端生成相应的反馈信息反馈至第二用户,而第一力觉响应数据是第一用户操作虚拟乐器而受到的反作用力数据,只需在后续反馈给第一用户,而无需向第二用户传递。
对应地,在步骤B2中,第一终端将步骤B13中确定的第一声音响应数据以及第二响应数据中包含的第二声音响应数据(即第二用户执行演奏动作生成的声音响应数据)结合得到听觉反馈信息,并输出至第一用户佩戴的耳机,以使用户获取到该听觉反馈信息;将步骤B12中确定的第一视觉响应数据集第二响应数据中包含的第二视觉响应数据结合得到视觉反馈信息,并输出至第二用户佩戴的头显设备,以使用户获取到该视觉反馈信息;将步骤B12中确定的第一力觉响应数据直接作为力觉反馈信息输出至第一用户操作的交互设备或者穿戴的数据手套,以使用户获取到该力觉反馈信息。
本申请实施例中,由于获取第一用户通过交互设备操作虚拟乐器的动作信息准确地生成对应的第一视觉响应数据、第一力觉响应数据以及结合预存音源信息生成的第一声音响应数据,并在之后结合第一终端接收到的第二响应数据准确地分别输出听觉反馈信息、视觉反馈信息和力觉反馈信息,因此能够提高反馈信息输出的准确性,进一步增强第一用户在与第二用户进行协同演奏时的真实感。进一步地,当预存音源信息具体为从演奏曲目对应的预存音频文件按时序提取得到的节奏音或者旋律音时,能够通过“抠音还原”方法准确地还原目标乐器演奏当前演奏曲目的声音。
可选地,在所述步骤S203之后,还包括:
获取并输出演奏测评数据。
本申请实施例中,在第一用户和第二用户协同演奏之后,第一终端根据第一用户协同演奏时记录的演奏动作的信息,统计生成第一用户的演奏测评数据并输出。或者,第一终端将记录的第一用户协同演奏时的演奏动作的信息上传至服务端,以使服务端根据第一终端记录的第一用户的演奏动作的信息以及根据第二终端记录的第二用户的演奏动作的信息,进行统计分析,得到此次协同演奏总体的演奏测评数据,之后第一终端、第二终端分别从服务端获取该总体的演奏测评数据并输出。具体地,当演奏动作包括演唱时,记录的演奏动作的信息包括按时序记录的用户演唱时的音高信息和节奏信息,通过将该按时序记录的音高信息和节奏信息与按时序预存的演奏曲目的预存音高信息和预存节奏信息进行比较,得出用户的演唱得分作为演奏测评数据。具体地,当演奏动作包括操作虚拟乐器时,记录的演奏动作的信息包括用户操作虚拟乐器时的动作信息和动作频次,统计操作准确率(该用户操作虚拟乐器的动作信息与乐器操作提示信息相符的百分数),并以该准确率作为演奏测评数据。可选地,本申请实施例中,第一终端在获取演奏测评数据后,可以将该演奏测评数据转化为图像信息输出至第一用户佩戴的头显设备,或者转换为音频信息输出至第一用户佩戴的耳机,以使第一用户能够获取到该演奏测评数据。
本申请实施例中,由于在协同演奏之后,还能够获取演奏测评数据并输出,因此能够使得第一用户及时获取到此次协同演奏的评价反馈信息,让用户及时掌握每次的协同演奏结果以便做出相应的改进和强化训练,从而提高协同演奏的智能性和用户体验。
本申请实施例中,第一用户通过第一终端发送协同演奏邀请,并在获取到第二用户通过第二终端返回的接受邀请信息后,与第二终端一同从服务端加载根据协同演奏邀请信息确定的虚拟现实场景(即目标虚拟现实场景),并在之后展示目标虚拟现实场景以及指示第一用户在目标虚拟现实场景中与所述第二用户协同演奏演奏曲目。由于能够根据协同演奏邀请信息邀请第二用户以及从服务端加载目标虚拟现实场景,使得第一用户和第二用户能够通过在该目标虚拟现实场景中协同演奏指定的演奏曲目,因此能够方便有效地实现远程音乐娱乐交互,使得处于不同地域的人们能够基于虚拟现实技术,身临其境地实现远程音乐娱乐交流。
实施例二:
图9示出了本申请实施例提供的第二种协同演奏方法的流程示意图,该方法应用于第二终端,详述如下:
本申请实施例中,第一用户、第二用户、第一终端、第二终端的定义与上一实施例的完全相同,此次不再赘述。
在S901中,接收协同演奏邀请信息,并返回接受邀请信息至第一用户对应的第一终端;所述协同演奏邀请信息包括演奏曲目及演奏场景信息。
第二终端直接接收第一终端发送的协同演奏邀请信息,或者通过服务端间接地接收第一终端发送的协同演奏邀请信息,并在第二用户输入确认接收邀请的信息后,生成接受邀请信息并发送,以使该接受邀请信息直接发送至第一用户对应的第一终端或者通过服务端间接地返回至第一终端。该协同演奏邀请信息至少包括演奏曲目及演奏场景信息,还可以包括演奏难度信息、被邀请的第二用户的账号信息、此次协同演奏的用户数量、第二用户的权限、用户的虚拟化身设置信息、演奏形式设置信息等,该协同演奏邀请信息的具体含义与实施例一中的协同演奏邀请信息相同,具体可以参见实施例一中的相关描述。
在S902中,与所述第一终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景。
在返回接受邀请信息后,第二终端和第一终端一同从服务端加载与协同演奏邀请信息中的演奏场景信息相对应的目标虚拟现实场景,该目标虚拟现实场景的具体含义与实施例一中的协同演奏邀请信息相同,具体可以参见实施例一中的相关描述。
在S903中,展示所述目标虚拟现实场景,并指示所述第二用户在所述目标虚拟现实场景中与所述第一用户协同演奏所述演奏曲目。
在加载目标虚拟现实场景后,第二终端将该目标虚拟现实场景的数据输出值第二用户佩戴的交互设备,并通过该交互设备指示第二用户执行演奏动作。具体地,第二终端根据加载的目标虚拟现实场景的数据,向第二用户佩戴的头显设备输出该目标虚拟现实场景的视觉图像信息来向第二用户展示该包含了虚拟环境、虚拟演奏设备、第一用户和第二用户的虚拟化身的目标虚拟现实场景,并通过在该视觉图像信息中添加用于指示第二用户进行演奏的指示信息来指示第二用户通过手柄、数据手套或者麦克风等交互设备执行演奏动作,从而实现第一用户与第二用户在目标虚拟现实场景中协同演奏该演奏曲目。
可选地,所述协同演奏邀请信息还包括用于设置所述第一用户的演奏形式及所述第二用户的演奏形式的演奏形式设置信息,所述演奏形式包括唱歌和乐器演奏;
对应地,所述步骤S903包括:
展示所述目标虚拟现实场景,并根据所述演奏形式设置信息及所述演奏曲目显示演奏提示信息;
获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,实现所述第一用户在所述目标虚拟现实场景中协同所述第二用户所述演奏曲目。
可选地,若根据所述演奏形式设置信息确定所述第二用户的演奏形式包括唱歌,则所述演奏提示信息包括歌词提示信息;
所述获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,包括:
获取所述第二用户根据所述歌词提示信息在所述目标虚拟现实场景中演唱生成的第二响应数据并传递至所述第一终端,以及获取第一终端发送的所述第二用户执行演奏动作生成的第二响应数据;
根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息;所述反馈信息包括听觉反馈信息及视觉反馈信息。
可选地,若根据所述演奏形式设置信息确定所述第二用户的演奏形式包括乐器演奏,则所述目标虚拟现实场景包括目标乐器对应的虚拟乐器或者虚拟简易演奏装置,所述演奏提示信息包括标识于所述虚拟乐器或者所述虚拟简易演奏装置的乐器操作提示信息;
所述获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,包括:
获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,以及获取第二终端发送的所述第二用户执行演奏动作生成的第二响应数据;
根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息,所述反馈信息包括听觉反馈信息、视觉反馈信息及力觉反馈信息。
可选地,所述第二响应数据包括第二声音响应数据、第二视觉响应数据及第二力觉响应数据,所述获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,包括:
获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置的动作信息;
根据所述动作信息生成所述第二视觉响应数据及所述第二力觉响应数据;
根据所述动作信息获取对应的预存音源信息,生成第一声音响应数据;所述预存音源信息为预存的所述目标乐器演奏的音效,所述音效包括节奏音或者旋律音;
将所述第二视觉响应数据及所述第二声音响应数据传递至所述第一终端;
对应地,所述根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息,包括:
根据所述第二声音响应数据及所述第一响应数据中的第一声音响应数据,输出所述听觉反馈信息;
根据所述第二视觉响应数据及所述第一响应数据中的第一视觉响应数据,输出所述视觉反馈信息;
根据所述第二力觉响应数据,输出所述力觉反馈信息。
可选地,在所述步骤S903之后,还包括:
获取并输出演奏测评数据。
本申请实施例中,第二终端执行上述步骤的具体过程与实施例一中第一终端的相关步骤相似或者相同,具体请参见实施例一中的相关描述,此次不再赘述。
本申请实施例中,由于第二终端能够获取第一终端发送的协同演奏邀请信息,加载并展示对应的目标虚拟现实场景,以及指示第二用户在该目标虚拟现实场景与第一用户协同演奏设定的演奏曲目,从而能够通过第二终端与第一终端的交互有效地实现第二用户与第一用户的协同演奏,使得第一用户和第二用户能够通过在该目标虚拟现实场景中协同演奏指定的演奏曲目,因此能够方便有效地实现远程音乐娱乐交互,使得处于不同地域的音乐爱好者能够基于虚拟现实技术,身临其境地实现远程音乐娱乐交流。
实施例三:
图10示出了本申请实施例提供的一种协同演奏系统的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分:
该协同演奏系统包括第一终端、至少一个第二终端和服务端。其中,第一终端用于执行如实施例一描述的协同演奏方法,第二终端用于执行如实施例二描述的协同演奏方法,具体可以参见实施例一、实施例二的相关描述,此处不赘述。
具体地,该服务端用于接收所述协同演奏邀请信息,根据所述协同演奏邀请信息确定目标虚拟现实场景;以及用于将所述目标虚拟现实场景的数据传送至所述第一终端及所述第二终端。
本申请实施例中,服务端为构建、存储虚拟现实场景的终端设备。服务端可以通过虚拟现实建模语言(Virtual Reality Modeling Language,VRML)、Java3D(Java语言在三维图形领域扩展的一组应用编程接口)或者开放图形库(Open Graphics Library,OpenGL)等工具提前构建并存储分别包含K厅、草原、海边等各种虚拟环境的各种虚拟现实场景,以及预存虚拟演奏设备数据库和虚拟化身数据库。当服务端接收到协同演奏邀请信息后,根据协同演奏邀请信息中包含的演奏场景信息,确定对应虚拟现实场景,并根据第一用户和/或第二用户选择的虚拟演奏设备、虚拟化身从虚拟演奏设备数据库选择对应的虚拟演奏设备,从虚拟化身数据库选择对应的虚拟化身添加至该虚拟现实场景中,从而得到目标虚拟现实场景。之后,服务端接收到第一终端、第二终端的加载请求时,将目标虚拟现实场景的数据(具体可以为该目标虚拟现实场景的VRML文件)传送至第一终端、第二终端,以使第一终端、第二终端将目标虚拟现实场景展示给对应的第一用户、第二用户。
可选地,本申请实施例中,服务端除了用于构建、存储传送虚拟现实场景外,还可以作为第一终端和第二终端的数据传送媒介,第一终端和第二终端之间的交互均通过该服务端的数据转送实现。
可选地,服务端还用于监听第一终端记录并的第一用户的演奏动作的信息、第二终端记录的第二用户的演奏动作的信息,并根据这些演奏动作的信息计算生成对应的反馈信息,之后将反馈信息返回至第一终端和第二终端,以使第一终端将该反馈信息输出反馈至第一用户,第二终端将该反馈信息输出反馈至第二用户,使得第一用户和第二用户能够及时准确地获得自身以及对方演奏动作的执行效果,以增强第一用户在与第二用户进行协同演奏时的真实感和沉浸感。
可选地,服务端还用于根据第一用户的演奏动作的信息和第二用户的演奏动作的信息,计算生成协同演奏的演奏测评数据,并输出至第一终端、第二终端,以反馈至对应的第一用户、第二用户,使得用户能够及时掌握当前协同演奏的评价反馈信息,提高协同演奏的智能性和用户体验。
作为示例而非限定,本申请实施例终端协同演奏系统可以基于Web3D的虚拟现实网络平台实现,第一终端、第二终端(统称为用户终端)以及服务端可以通过5G网络建立通讯连接。具体地,如图11所示,服务端可以包括协同服务器和Web服务器,其中Web服务器中提前存储了虚拟现实场景的文件,具体包括后缀名为.wrl的VRML文件和后缀名为.class的java(一门面向对象编程语言)文件。用户可以通过用户终端上的浏览器登录其对应的用户账号,与服务端建立通讯连接,并加载对应的目标虚拟现实场景的文件,具体根据目标虚拟现实场景的VRML文件输出展示该目标虚拟现实场景,根据虚拟现实场景的java文件生成用于实现目标虚拟现实场景内部与外部的交互的Java Applet(用Java语言编写的小应用程序,可以直接嵌入到网页中)。之后,服务端的协同服务器中的监听线程实时监听各个用户终端上的Java Applet记录的目标虚拟现实场景内部的变化信息(可以为用户在目标虚拟现实场景中执行演奏动作带来的碰撞检测结果信息),并通过该协同服务器的通讯线程将该变化信息传递给其它用户终端的Java Applet程序,以使该其它用户终端的Java Applet程序将该变化信息作用于各自展示的目标虚拟现实场景,并生成对应的反馈信息反馈至对应的用户,以使各个用户能够获得其它用户作用于目标虚拟现实场景而产生的变化效果。示例性地,图11示出了用户终端a从Web服务器加载后缀名为.wrl的VRML文件和后缀名为.class的java文件的过程,以及服务端通过监听线程监听用户终端a上的变化信息并通过通讯线程反馈至其它用户终端的过程。
本申请实施例的协同演奏系统,通过第一终端、第二终端及服务端的交互,实现协同演奏邀请信息的传送、目标虚拟现实场景的确定、加载和展示和反馈信息的输出,使得不同用户能够通过该目标虚拟现实场景身临其境地实现远程的协同演奏,方便有效地实现远程音乐娱乐交互。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例四:
图12示出了本申请实施例提供的一种第一终端的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分:
该第一终端包括:协同演奏邀请信息发送单元121、接受邀请信息获取单元122、第一展示单元123。其中:
协同演奏邀请信息发送单元121,用于发送协同演奏邀请信息,所述协同演奏邀请信息包括演奏曲目及演奏场景信息。
协同演奏邀请信息发送单元122,用于若获取到第二用户通过第二终端返回的接受邀请信息,则与所述第二终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景。
第一展示单元123,用于展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目。
图13示出了本申请提供的一种第二终端的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分:
该第二终端包括:协同演奏邀请信息接收单元131、加载单元132、第二展示单元133。其中:
协同演奏邀请信息接收单元131,用于接收协同演奏邀请信息,并返回接受邀请信息至第一用户对应的第一终端;所述协同演奏邀请信息包括演奏曲目及演奏场景信息;
加载单元132,用于与所述第一终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;
第二展示单元133,用于展示所述目标虚拟现实场景,并指示所述第二用户在所述目标虚拟现实场景中与所述第一用户协同演奏所述演奏曲目。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
实施例五:
图14是本申请一实施例提供的终端设备的示意图。如图14所示,该实施例的终端设备14包括:处理器140、存储器141以及存储在所述存储器141中并可在所述处理器140上运行的计算机程序142,例如协同演奏程序。所述处理器140执行所述计算机程序142时实现上述各个协同演奏方法实施例中的步骤,例如图2所示的步骤201至S203或例如图3所示的步骤S901至S903。或者,所述处理器140执行所述计算机程序142时实现上述各装置实施例中各模块/单元的功能,例如图12所示单元121至123的功能或例如图13所示单元131至133的功能。
示例性的,所述计算机程序142可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器141中,并由所述处理器140执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序142在所述终端设备14中的执行过程。例如,所述计算机程序142可以被分割成协同演奏邀请信息发送单元、接受邀请信息获取单元、第一展示单元;或者,所述计算机程序142可以被分割成协同演奏邀请信息接收单元、加载单元、第二展示单元。
所述终端设备14可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器140、存储器141。本领域技术人员可以理解,图14仅仅是终端设备14的示例,并不构成对终端设备14的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器140可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器141可以是所述终端设备14的内部存储单元,例如终端设备14的硬盘或内存。所述存储器141也可以是所述终端设备14的外部存储设备,例如所述终端设备14上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器141还可以既包括所述终端设备14的内部存储单元也包括外部存储设备。所述存储器141用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器141还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种协同演奏方法,所述方法应用于第一用户对应的第一终端,其特征在于,包括:
发送协同演奏邀请信息,所述协同演奏邀请信息包括演奏曲目及演奏场景信息;
若获取到第二用户通过第二终端返回的接受邀请信息,则与所述第二终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;
展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目。
2.如权利要求1所述的协同演奏方法,其特征在于,所述协同演奏邀请信息还包括用于设置所述第一用户的演奏形式及所述第二用户的演奏形式的演奏形式设置信息,所述演奏形式包括唱歌和乐器演奏;
对应地,所述展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目,包括:
展示所述目标虚拟现实场景,并根据所述演奏形式设置信息及所述演奏曲目显示演奏提示信息;
获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,实现所述第一用户在所述目标虚拟现实场景中协同所述第二用户演奏所述演奏曲目。
3.如权利要求2所述的协同演奏方法,其特征在于,若根据所述演奏形式设置信息确定所述第一用户的演奏形式包括唱歌,则所述演奏提示信息包括歌词提示信息;
所述获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,包括:
获取所述第一用户根据所述歌词提示信息在所述目标虚拟现实场景中演唱生成的第一响应数据并传递至所述第二终端,以及获取第二终端发送的所述第二用户执行演奏动作生成的第二响应数据;
根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息;所述反馈信息包括听觉反馈信息及视觉反馈信息。
4.如权利要求2所述的协同演奏方法,其特征在于,若根据所述演奏形式设置信息确定所述第一用户的演奏形式包括乐器演奏,则所述目标虚拟现实场景包括目标乐器对应的虚拟乐器或者虚拟简易演奏装置,所述演奏提示信息包括标识于所述虚拟乐器或者所述虚拟简易演奏装置的乐器操作提示信息;
所述获取所述第一用户及所述第二用户根据所述演奏提示信息在所述目标虚拟现实场景中执行演奏动作生成的反馈信息,并输出所述反馈信息,包括:
获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,以及获取第二终端发送的所述第二用户执行演奏动作生成的第二响应数据;
根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息,所述反馈信息包括听觉反馈信息、视觉反馈信息及力觉反馈信息。
5.如权利要求4所述的协同演奏方法,其特征在于,所述第一响应数据包括第一声音响应数据、第一视觉响应数据及第一力觉响应数据,所述获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置生成的第一响应数据,并传递至所述第二终端,包括:
获取所述第一用户根据所述乐器操作提示信息在所述目标虚拟现实场景中操作所述虚拟乐器或者所述虚拟简易演奏装置的动作信息;
根据所述动作信息生成所述第一视觉响应数据及所述第一力觉响应数据;
根据所述动作信息获取对应的预存音源信息,生成第一声音响应数据;所述预存音源信息为预存的所述目标乐器演奏的音效,所述音效包括节奏音或者旋律音;
将所述第一视觉响应数据及所述第一声音响应数据传递至所述第二终端;
对应地,所述根据所述第一响应数据及所述第二响应数据生成反馈信息,并输出所述反馈信息,包括:
根据所述第一声音响应数据及所述第二响应数据中的第二声音响应数据,输出所述听觉反馈信息;
根据所述第一视觉响应数据及所述第二响应数据中的第二视觉响应数据,输出所述视觉反馈信息;
根据所述第一力觉响应数据,输出所述力觉反馈信息。
6.如权利要求1所述的协同演奏方法,其特征在于,在所述展示所述目标虚拟现实场景,并指示所述第一用户在所述目标虚拟现实场景中与所述第二用户协同演奏所述演奏曲目之后,还包括:
获取并输出演奏测评数据。
7.一种协同演奏方法,所述方法应用于第二用户对应的第二终端,其特征在于,包括:
接收协同演奏邀请信息,并返回接受邀请信息至第一用户对应的第一终端;所述协同演奏邀请信息包括演奏曲目及演奏场景信息;
与所述第一终端一同从服务端加载所述演奏场景信息对应的目标虚拟现实场景;所述目标虚拟现实场景为所述服务端根据所述协同演奏邀请信息确定的虚拟现实场景;
展示所述目标虚拟现实场景,并指示所述第二用户在所述目标虚拟现实场景中与所述第一用户协同演奏所述演奏曲目。
8.一种协同演奏系统,所述系统包括第一用户对应的第一终端,第二用户对应的第二终端以及服务端;
所述第一终端,用于执行如权利要求1至6任意一项所述的方法;
所述第二终端,用于执行如权利要求7所述的方法;
所述服务端,用于接收所述协同演奏邀请信息,根据所述协同演奏邀请信息确定目标虚拟现实场景;以及用于将所述目标虚拟现实场景的数据传送至所述第一终端及所述第二终端。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,当所述处理器执行所述计算机程序时,使得终端设备实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,当所述计算机程序被处理器执行时,使得终端设备实现如权利要求1至7任一项所述方法的步骤。
CN202010927502.4A 2020-09-07 2020-09-07 协同演奏方法、系统、终端设备及存储介质 Active CN112203114B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010927502.4A CN112203114B (zh) 2020-09-07 2020-09-07 协同演奏方法、系统、终端设备及存储介质
PCT/CN2021/076155 WO2022048113A1 (zh) 2020-09-07 2021-02-09 协同演奏方法、系统、终端设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010927502.4A CN112203114B (zh) 2020-09-07 2020-09-07 协同演奏方法、系统、终端设备及存储介质

Publications (2)

Publication Number Publication Date
CN112203114A true CN112203114A (zh) 2021-01-08
CN112203114B CN112203114B (zh) 2022-07-12

Family

ID=74006364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010927502.4A Active CN112203114B (zh) 2020-09-07 2020-09-07 协同演奏方法、系统、终端设备及存储介质

Country Status (2)

Country Link
CN (1) CN112203114B (zh)
WO (1) WO2022048113A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485559A (zh) * 2021-07-23 2021-10-08 王皓 基于全景漫游平台的虚拟乐器演奏方法及系统
WO2022048113A1 (zh) * 2020-09-07 2022-03-10 佛山创视嘉科技有限公司 协同演奏方法、系统、终端设备及存储介质
CN114927026A (zh) * 2022-02-15 2022-08-19 湖北省民间工艺技师学院 古琴弹奏的辅助方法、装置、存储介质和古琴
CN115713924A (zh) * 2022-11-15 2023-02-24 广州珠江艾茉森数码乐器股份有限公司 一种基于物联网的智能钢琴控制方法及系统
WO2023246159A1 (zh) * 2022-06-21 2023-12-28 腾讯科技(深圳)有限公司 一种虚拟现实的交互方法、相关装置、设备以及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116974404A (zh) * 2022-10-20 2023-10-31 腾讯科技(深圳)有限公司 虚拟自习室的信息显示方法、装置和存储介质及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342564A1 (en) * 2012-06-25 2013-12-26 Peter Tobias Kinnebrew Configured virtual environments
EP2838020A1 (en) * 2013-08-16 2015-02-18 Disney Enterprises, Inc. Cross platform sharing of user-generated content
CN106716306A (zh) * 2014-09-30 2017-05-24 索尼互动娱乐股份有限公司 将多个头戴式显示器同步到统一空间并且使统一空间中的对象移动关联
WO2018008434A1 (ja) * 2016-07-05 2018-01-11 株式会社エム・ティー・ケー 演奏上演装置
CN109166565A (zh) * 2018-08-23 2019-01-08 百度在线网络技术(北京)有限公司 虚拟乐器处理方法、装置、虚拟乐器设备及存储介质
CN109690450A (zh) * 2017-11-17 2019-04-26 腾讯科技(深圳)有限公司 Vr场景下的角色模拟方法和终端设备
CN109799903A (zh) * 2018-12-21 2019-05-24 段新 基于虚拟现实的打击乐方法、终端设备及系统
CN111402844A (zh) * 2020-03-26 2020-07-10 广州酷狗计算机科技有限公司 歌曲合唱的方法、装置及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112203114B (zh) * 2020-09-07 2022-07-12 佛山创视嘉科技有限公司 协同演奏方法、系统、终端设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342564A1 (en) * 2012-06-25 2013-12-26 Peter Tobias Kinnebrew Configured virtual environments
EP2838020A1 (en) * 2013-08-16 2015-02-18 Disney Enterprises, Inc. Cross platform sharing of user-generated content
CN106716306A (zh) * 2014-09-30 2017-05-24 索尼互动娱乐股份有限公司 将多个头戴式显示器同步到统一空间并且使统一空间中的对象移动关联
WO2018008434A1 (ja) * 2016-07-05 2018-01-11 株式会社エム・ティー・ケー 演奏上演装置
CN109690450A (zh) * 2017-11-17 2019-04-26 腾讯科技(深圳)有限公司 Vr场景下的角色模拟方法和终端设备
CN109166565A (zh) * 2018-08-23 2019-01-08 百度在线网络技术(北京)有限公司 虚拟乐器处理方法、装置、虚拟乐器设备及存储介质
CN109799903A (zh) * 2018-12-21 2019-05-24 段新 基于虚拟现实的打击乐方法、终端设备及系统
CN111402844A (zh) * 2020-03-26 2020-07-10 广州酷狗计算机科技有限公司 歌曲合唱的方法、装置及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022048113A1 (zh) * 2020-09-07 2022-03-10 佛山创视嘉科技有限公司 协同演奏方法、系统、终端设备及存储介质
CN113485559A (zh) * 2021-07-23 2021-10-08 王皓 基于全景漫游平台的虚拟乐器演奏方法及系统
CN114927026A (zh) * 2022-02-15 2022-08-19 湖北省民间工艺技师学院 古琴弹奏的辅助方法、装置、存储介质和古琴
WO2023246159A1 (zh) * 2022-06-21 2023-12-28 腾讯科技(深圳)有限公司 一种虚拟现实的交互方法、相关装置、设备以及存储介质
CN115713924A (zh) * 2022-11-15 2023-02-24 广州珠江艾茉森数码乐器股份有限公司 一种基于物联网的智能钢琴控制方法及系统

Also Published As

Publication number Publication date
CN112203114B (zh) 2022-07-12
WO2022048113A1 (zh) 2022-03-10

Similar Documents

Publication Publication Date Title
CN112203114B (zh) 协同演奏方法、系统、终端设备及存储介质
US9558727B2 (en) Performance method of electronic musical instrument and music
US8618405B2 (en) Free-space gesture musical instrument digital interface (MIDI) controller
Clarke Empirical methods in the study of performance
CN101645268B (zh) 一种演唱和演奏的计算机实时分析系统
JP2018537727A (ja) 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス
CN102576524A (zh) 接收、分析并编辑音频来创建音乐作品的系统和方法
US10748515B2 (en) Enhanced real-time audio generation via cloud-based virtualized orchestra
US10140967B2 (en) Musical instrument with intelligent interface
Meneses et al. GuitarAMI and GuiaRT: two independent yet complementary augmented nylon guitar projects
Martin et al. Understanding musical predictions with an embodied interface for musical machine learning
CN112669811A (zh) 一种歌曲处理方法、装置、电子设备及可读存储介质
Scirea Mood dependent music generator
CN112420006B (zh) 运行模拟乐器组件的方法及装置、存储介质、计算机设备
CN112435644B (zh) 音频信号输出方法及装置、存储介质、计算机设备
Menzies New performance instruments for electroacoustic music
Frisson et al. Multimodal guitar: Performance toolbox and study workbench
Turchet et al. Smart Musical Instruments: Key Concepts and Do-It-Yourself Tutorial
JP5847049B2 (ja) 楽器音出力装置
WO2023181570A1 (ja) 情報処理方法、情報処理システムおよびプログラム
WO2022172732A1 (ja) 情報処理システム、電子楽器、情報処理方法および機械学習システム
Romo MIDI: A Standard for Music in the Ever Changing Digital Age
US20240038205A1 (en) Systems, apparatuses, and/or methods for real-time adaptive music generation
Rey López Development of an Augmented Reality musical instrument
Tomczak On the development of an interface framework in chipmusic: theoretical context, case studies and creative outcomes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant