WO2012053371A1 - アミューズメントシステム - Google Patents

アミューズメントシステム Download PDF

Info

Publication number
WO2012053371A1
WO2012053371A1 PCT/JP2011/073131 JP2011073131W WO2012053371A1 WO 2012053371 A1 WO2012053371 A1 WO 2012053371A1 JP 2011073131 W JP2011073131 W JP 2011073131W WO 2012053371 A1 WO2012053371 A1 WO 2012053371A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
performance
data
unit
audience
Prior art date
Application number
PCT/JP2011/073131
Other languages
English (en)
French (fr)
Inventor
基康 田中
Original Assignee
株式会社メガチップス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010235043A external-priority patent/JP5553446B2/ja
Priority claimed from JP2010258707A external-priority patent/JP5486467B2/ja
Application filed by 株式会社メガチップス filed Critical 株式会社メガチップス
Priority to US13/877,029 priority Critical patent/US9601118B2/en
Publication of WO2012053371A1 publication Critical patent/WO2012053371A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Definitions

  • the present invention relates to an amusement system in which a user can sing a song in accordance with music data to be reproduced.
  • Karaoke is generally in the form of singing along with the performance of the music selected by the user.
  • the lyrics of the music selected by the user are displayed as the performance of the music progresses. Thereby, even if the user does not remember all the lyrics of the selected music, he can enjoy karaoke.
  • On the background of the lyrics displayed on the monitor a video of a character that sings a song, a video that matches the image of the music, and the like are displayed.
  • Karaoke is often enjoyed by small groups such as family members or friends.
  • Japanese Patent Application Laid-Open No. 2004-151867 discloses an apparatus that can generate a sound effect or the like at a desired timing for a user who sings a song to excite karaoke.
  • the electronic percussion device has the shape of a percussion instrument such as maracas and includes an acceleration sensor.
  • the electronic percussion device notifies the user of the timing at which the device can be operated by turning on the LED, such as when an interlude is being played. When the user shakes the electronic percussion device during the lighting period of the LED, the percussion sound is reproduced.
  • Patent Document 2 discloses a karaoke apparatus that can illuminate a user who sings in order to enliven karaoke.
  • the karaoke apparatus includes a transmitter, a karaoke terminal, and a lighting fixture.
  • the karaoke terminal plays the music selected by the user.
  • the user sings a song while holding the transmitter in accordance with the music to be played.
  • a transmitter transmits the attitude
  • the luminaire changes the irradiation direction to the flying direction of the attitude control signal.
  • JP 2004-287020 A Japanese Patent Laid-Open No. 11-134611
  • karaoke is often enjoyed by small groups.
  • a person who listens to a song sung by the user is limited to a family member or a friend who participates in karaoke.
  • karaoke users other than users who sing a song often listen to the song or search for a song to be sung next. That is, even when karaoke is enjoyed by a small group, all members of the group cannot enjoy karaoke.
  • the karaoke apparatus which concerns on patent document 2 can illuminate the user who sings by the user who sings holding a transmitter. However, since other users cannot operate the lighting, they cannot actively participate in karaoke.
  • the amusement system of the present invention includes a main body device, a voice input device that is held by a user and outputs voice input by the user as voice data, and a phrase indicating a phrase spoken by the user by performing voice recognition processing on the voice data
  • a voice recognition device that generates information
  • the voice input device includes a first motion information output unit that outputs first motion information indicating a motion of the voice input device
  • the main device is a music piece selected by the user A performance that identifies the performance of the user based on at least one of the phrase information and the first motion information, and a reproduction unit that reproduces data and audience status data in which at least one of video and audio indicating the status of the audience is recorded Playback corresponding to the specified performance from multiple reaction data indicating the response of the specific part and audience Select the action data, including a reaction instructing unit for instructing the reproduction unit to reproduce the reproduction reaction data.
  • An amusement system of the present invention includes a main body device, a voice input device that is held by a user and outputs a voice input by the user as voice data, an imaging device that shoots the user and outputs video data, and voice data And a speech recognition device that generates phrase information indicating a phrase spoken by the user, and the main body device includes at least the music data selected by the user, and video and audio indicating the situation of the audience At least one of the phrase information and the first motion information, a playback unit that plays back the recorded audience situation data, a video analysis unit that analyzes the video data and generates first motion information indicating a user's motion, Based on the performance identification part that identifies the user's performance and multiple reaction data indicating the audience's reaction, Select reproduction reaction data corresponding to the constant by performance, including a reaction instructing unit for instructing the reproduction unit to reproduce the reproduction reaction data.
  • the user can enjoy karaoke while acting as a singer that provides live performance to the displayed audience, the user can experience a live performance with a high sense of reality in a simulated manner.
  • the amusement system of the present invention includes a main body device that reproduces the selected music data, a performance information generation device that generates performance information according to the performance of the first user, and a second user operation according to the operation of the second user.
  • a production instruction device that generates production instruction information for instructing the performance of one user, and the main device uses performance status data indicating the performance status of the first user based on the music data and the performance information.
  • a performance situation data generation unit that generates and changes performance condition data generation conditions according to the production instruction information, and the production contents of the first user are evaluated with reference to the production instruction information, and the performance of the first user is evaluated.
  • the result of evaluation of the generation of reaction data indicating the reaction of the audience Based comprising a rendering evaluation unit for instructing the performance status data generating unit, a reproducing unit for reproducing a performance status data and response data, the by.
  • the second user can perform the performance of the first user by operating the performance instruction device. Therefore, the second user can enjoy virtual live together with the first user.
  • An object of the present invention is to provide an amusement system capable of experiencing a live performance with a high sense of presence in a pseudo manner.
  • an object of the present invention is to provide an amusement system that a user who sings and other users can enjoy together.
  • FIG. 1 is an overall view of a karaoke system according to a first embodiment of the present invention. It is a functional block diagram of the main body apparatus shown in FIG. It is a functional block diagram of the microphone shown in FIG. It is a functional block diagram of the controller shown in FIG. It is a flowchart which shows the flow of operation
  • FIG. 1 It is a figure which shows a user's motion using the karaoke system shown in FIG. It is a figure which shows the setting screen displayed on the monitor shown in FIG. It is a general view of the karaoke system by the 2nd Embodiment of this invention. It is a figure which shows the usage method of the microphone and remote controller which are shown in FIG. It is a functional block diagram of the main body apparatus shown in FIG. It is a functional block diagram of the remote controller shown in FIG. It is a flowchart which shows operation
  • FIG. 1 is an overall view of the karaoke system 100.
  • the karaoke system 100 includes a main device 2, a monitor 3, a microphone 4, and a controller 5.
  • the main device 2 is a processing device that performs overall control of the karaoke system 100, and reproduces music data and video data corresponding to the music selected by the user.
  • the user selects music to sing at karaoke using a remote controller (not shown).
  • the monitor 3 is a liquid crystal display or the like, and displays an image output from the main device 2.
  • the monitor 3 includes a speaker (not shown), and outputs music data reproduced by the main body device 2 as sound.
  • the microphone 4 is a voice input device that inputs voice when the user sings a song.
  • the microphone 4 has a motion detection function for detecting the motion of the own device, and transmits motion information indicating the user's motion to the main body device 2.
  • the controller 5 has a motion detection function for detecting the motion of the device itself, and transmits motion information to the main device 2.
  • the user sings a song with the microphone 4 in one hand and the controller 5 in the other hand.
  • the controller 5 has a rectangular parallelepiped shape, but may have a shape that can be fitted on the user's arm, such as a wristband. In this case, the user can be prevented from dropping the controller 5 by mistake.
  • the main unit 2 outputs the performance sound of the music selected by the user, and displays on the monitor 3 a video recording the state of the live venue where a large number of spectators entered. That is, the monitor 3 displays images of many spectators watching a singer (user) standing on the stage of the live venue.
  • the user not only sings the song of the selected music, but also performs various live performances for the audience by calling the audience in the screen 3a through the microphone 4 or pointing the microphone 4 toward the audience.
  • the main device 2 detects the movement of both hands of the user based on the movement information transmitted from the microphone 4 and the controller 5.
  • the main device 2 identifies the user's live performance based on the sound input to the microphone 4 and the movement information of the microphone 4 and the controller 5.
  • An image showing the audience reaction to the identified live performance is displayed on the monitor 3. In this way, by using the karaoke system 100, the user can behave like a singer who actually performs live at a live venue, so that a live performance with a high sense of reality can be simulated.
  • FIG. 2 is a block diagram illustrating a functional configuration of the main device 2.
  • the main device 2 includes a wireless communication unit 21, a data acquisition unit 22, a reproduction unit 23, a voice recognition unit 24, a performance identification unit 25, a reaction instruction unit 26, a storage unit 27, and an output unit 28. Prepare.
  • the wireless communication unit 21 performs wireless communication with the microphone 4 and the controller 5 and acquires motion information 42A and 51A from the microphone 4 and the controller 5.
  • wireless communication Bluetooth (registered trademark), wireless LAN, infrared communication, or the like can be used.
  • the data acquisition unit 22 acquires music data 35, audience video data 36, a plurality of reaction data 37, 37,... Corresponding to the music selected by the user from a music server (not shown) via the Internet or the like.
  • the music data 35 is data in which the performance sound of the music selected by the user is recorded.
  • the audience video data 36 is audience status data indicating the status of a large number of audiences (audiences) who entered the live venue, and is data in which video and audio of the audience are recorded.
  • the audience refers to people who appreciate the song that the user sings along with the music at the live venue, and is a concept that includes the audience.
  • the reaction data 37 is data in which video and audio indicating the reaction of the audience to the live performance are recorded.
  • the reaction data 37 corresponds to any one of a plurality of live performances and also corresponds to any one of the audience reaction levels. Details of the reaction level will be described later.
  • audience video data 36 is used as audience situation data indicating the situation of many audiences.
  • audio data indicating the situation of a large audience may be used.
  • spectator video data 36 audio data in which spectators (audience) cheers are recorded can be used.
  • the reproduction unit 23 reproduces the music data 35 and the audience video data 36 acquired by the data acquisition unit 22.
  • the voice recognition unit 24 performs voice recognition processing on the voice data 4 ⁇ / b> A transmitted from the microphone 4 and detects a phrase input to the microphone 4 by the user.
  • the voice recognition unit 24 outputs phrase information 24A indicating the detected phrase.
  • the performance specifying unit 25 specifies the live performance performed by the user based on the phrase information 24A and the movement information 42A and 51A.
  • the performance specifying unit 25 determines that the user has performed a live performance when the phrase information 24A includes a specific phrase (a phrase that the singer calls the audience) and the user performs an operation corresponding to the specific phrase. To do.
  • the reaction instruction unit 26 determines the audience reaction level for the specified live performance. Reaction data 37 indicating the reaction of the audience is selected based on the specified live performance and the audience reaction level. The reaction instruction unit 26 determines a reproduction condition for the selected reaction data 37 based on the reaction level of the audience. The reproduction condition is a volume when the selected reaction data 37 is reproduced. The reaction instruction unit 26 instructs the reproduction unit 23 to reproduce the selected reaction data 37 under the determined reproduction condition.
  • the storage unit 27 is a hard disk device or the like, and stores music data 35, audience video data 36, and reaction data 37, 37,... Acquired by the data acquisition unit 22.
  • the output unit 28 outputs the audio and video generated by the playback unit 23 to the monitor 3.
  • FIG. 3 is a block diagram showing a functional configuration of the microphone 4.
  • the microphone 4 includes a voice input unit 41, a sensor unit 42, and a wireless communication unit 43.
  • the voice input unit 41 inputs a voice uttered by the user, converts it into an electrical signal, and outputs voice data 4A.
  • the sensor unit 42 includes an acceleration sensor that detects a change in the movement of the microphone 4, and outputs movement information 42 ⁇ / b> A indicating the movement of the microphone 4.
  • the sensor unit 42 may include a geomagnetic sensor or a gyroscope in addition to the acceleration sensor.
  • the wireless communication unit 43 performs wireless communication with the main body device 2 and transmits audio data 4A and motion information 42A to the main body device 2.
  • FIG. 4 is a block diagram showing a functional configuration of the controller 5.
  • the controller 5 includes a sensor unit 51 and a wireless communication unit 52.
  • the sensor unit 51 includes an acceleration sensor similarly to the sensor unit 42 of the microphone 4, and outputs motion information 51 ⁇ / b> A indicating the motion of the controller 5.
  • the wireless communication unit 52 performs wireless communication with the main body device 2 and transmits motion information 51 ⁇ / b> A to the main body device 2.
  • the karaoke system 100 may include a camera that captures the movement of the user.
  • the main body device 2 includes an image analysis unit that analyzes video data and detects a user's movement.
  • the camera is installed on the monitor 3 and outputs video data obtained by photographing the user to the main unit 2 in real time.
  • the image analysis unit analyzes the video data, generates and outputs motion information indicating the user's motion.
  • the performance specifying unit 25 specifies the live performance performed by the user based on the phrase information 24A and the motion information output from the image analysis unit.
  • the karaoke system 100 does not need to include the controller 5, and the sensor unit 42 may not be provided in the microphone 4.
  • main device 2 ⁇ Operation of main device 2 ⁇
  • the process of changing the video and audio of the spectator output from the monitor 3 in accordance with the user's live performance will be described focusing on the operation of the main device 2.
  • an example using motion information 42A and 51A transmitted from the microphone 4 and the controller 5 will be described. Similar processing is performed even when a user's movement is detected using a camera.
  • FIG. 5 is a flowchart showing the operation of the main device 2.
  • the user operates a remote controller (not shown) to select a song that he wants to sing at karaoke.
  • the data acquisition unit 22 acquires music data 35 corresponding to the music selected by the user, audience video data 36, and reaction data 37, 37,... From the music server and stores them in the storage unit 27. (Step S1).
  • the reproduction unit 23 starts reproduction of the music data 35 and the audience video data 36 (step S2). Thereby, the performance sound of the music selected by the user and the video and cheers of the audience enjoying the live performance at the live venue are output from the monitor 3.
  • FIG. 6 is a diagram showing the monitor 3 on which many spectator images are displayed.
  • the user stands in front of the monitor 3 on which images of many spectators are displayed on the screen 3a, so as to face many spectators in the screen 3a.
  • the user performs a simulated live performance for the audience projected on the monitor 3. That is, the user can perform various live performances as a singer performing live while singing a song.
  • the main device 2 repeatedly executes the processes of steps S4 to S9 until the reproduction of the music data 35 is completed (Yes in step S3).
  • the microphone 4 transmits the voice phrase input to the voice input unit 41 to the main unit 2 in real time as voice data 4A.
  • the voice recognition unit 24 executes voice recognition processing on the voice data 4A (Step S5).
  • the voice recognition unit 24 outputs phrase information 24A in which a voice phrase issued by the user is recorded.
  • the performance specifying unit 25 determines whether or not the user has called a specific phrase to the audience in the screen 3a (step S6).
  • step S6 When the phrase information 24A does not include a specific phrase (No in step S6), it is determined that the voice input to the microphone 4 is the user's singing voice. The main device 2 returns to the process of step S3.
  • the phrase information 24A includes a specific phrase (Yes in step S6), the performance specifying unit 25 determines that the user has called the audience for the specific phrase. And the performance specific
  • the microphone 4 transmits the movement information 42A output from the sensor unit 42 to the main unit 2 in real time.
  • the controller 5 transmits the motion information 51A output from the sensor unit 51 to the main body device 2 in real time.
  • the performance specifying unit 25 determines whether or not the user has made a movement according to the specific phrase based on the movement information 42A and 51A (step S7).
  • step S7 If no movement corresponding to the specific phrase is detected (No in step S7), the main device 2 returns to the process of step S3.
  • the performance specifying unit 25 determines that the user has performed a live performance on the audience in the screen 3a.
  • live performances performed by the user include audience enthusiasts, audience chorus leaders, and clapping leaders.
  • the reaction instruction unit 26 uses the phrase information 24A and the movement information 42A, 51A to determine the audience reaction level with respect to the user's live performance (step S8).
  • the reaction instruction unit 26 selects the reaction data 37 based on the live performance performed by the user and the reaction level. For example, when the reaction level is high, the reaction instructing unit 26 selects the reaction data 37 in which a video in which all the audiences respond to the user's live performance is recorded.
  • the reaction instruction unit 26 instructs the reproduction unit 23 to reproduce the selected reaction data 37.
  • the reproducing unit 23 reproduces the instructed reaction data 37 together with the music data 35 being reproduced (step S9).
  • the reaction of the audience with respect to the user's live performance is displayed on the screen 3a, and the performance sound of the music and the cheer of the audience overlap and are output from the monitor 3.
  • the reaction instruction unit 26 may change the reproduction condition of the reaction data 37 according to the reaction level. For example, if the reaction level is high, the audience cheer volume may be increased. If the response level is low, the audience cheer volume may be reduced, or the playback speed of data recorded with the audience cheer may be reduced.
  • step S7 After a specific phrase is detected from the audio data 4A, it is determined whether or not a movement according to the detected specific phrase has been performed. However, depending on the type of live performance, the order of processing in steps S4 to S6 and the order of processing in motion detection (step S7) may be interchanged. The user's live performance may be specified based on either the specific phrase or the user's movement.
  • each audience in the audience video data 36 may be converted into an object.
  • the main body device 2 changes the movement of each audience object based on the specified live forman and reaction level.
  • the main device 2 can change the behavior and cheers of each spectator object as a spectator reaction to the specified live performance.
  • the reaction instruction unit 26 can change the proportion of the audience objects that react to the user's live performance according to the reaction level.
  • FIG. 7A and FIG. 7B are diagrams illustrating a procedure in which the user strikes the audience 31 in the screen 3a. 7A and 7B, only one spectator 31 is displayed in the screen 3a in order to easily explain the movement of the spectator 31 in the screen 3a. Actually, the reproduction unit 23 reproduces the audience video data 36, so that the live venue and a large number of spectators 31 coming to the live venue are displayed on the screen 3a. 7A and 7B, the display of the main body device 2 and the controller 5 is omitted.
  • ⁇ Audience is a live performance in which a live singer calls a question-type phrase to the audience and the audience responds to the singer all at once. The user can perform audience enthusiasm when a prelude or interlude of music is being played.
  • the main unit 2 uses the audio data 4A and the motion information 42A transmitted from the microphone 4 and does not use the motion information 51A transmitted from the controller 5 when the audience performance is specified as the live performance.
  • the main unit 2 first detects a specific phrase when identifying audience audience as a live performance. As shown in FIG. 7A, the user first directs the microphone 4 toward the user himself, for example, a specific phrase in a question format of “Do n’t you?” (Hereinafter, referred to as “buzz phrase”). Is input to the microphone 4. The microphone 4 transmits the beat phrase as audio data 4A to the main device 2.
  • the voice recognition unit 24 performs voice recognition processing on the received voice data 41A (step S5) to generate phrase information 24A.
  • phrase information 24A Various phrases that the singer calls to the audience during the live performance are set in the performance specifying unit 25.
  • the performance specifying unit 25 compares the phrase information 24A with the various set phrases, and determines that the user has called the utterance phrase to the audience (Yes in step S6).
  • the user inputs the utterance phrase to the microphone 4 directed toward the user, and then directs the microphone 4 from the user's own direction toward the screen 3a. That is, the user reverses the direction of the microphone 4 as indicated by the arrow 45 (see FIG. 7A).
  • the sensor unit 42 of the microphone 4 generates motion information 42A corresponding to the user's motion.
  • the performance specifying unit 25 determines that the direction of the microphone 4 is reversed based on the motion information 42 ⁇ / b> A transmitted from the microphone 4.
  • the performance specifying unit 25 is assumed that the utterance phrase is input to the microphone 4 (Yes in Step S6), and the direction of the microphone 4 is inverted (Yes in Step S7), so that the user has engaged the audience as a live performance. judge.
  • the reaction instructing unit 26 determines the audience reaction level with respect to audience enthusiasm performed by the user (step S8).
  • the reaction instruction unit 26 determines the reaction level based on the time difference (detection time difference) between the voice input timing when the beat phrase is input and the motion detection timing when the inversion of the microphone is detected.
  • the voice input timing is included in the phrase information 24A.
  • the motion detection timing is included in the motion information 42A.
  • the reaction instruction unit 26 is set with a time difference (ideal time difference) between the voice detection timing and the motion detection timing at which the reaction level is maximized.
  • the reaction instruction unit 26 determines the reaction level based on the magnitude of the difference between the ideal time difference and the detection time difference. For example, when the deviation is small, the reaction instruction unit 26 determines that the audience has been smoothly struck and increases the reaction level. On the other hand, if the deviation is large, such as when the timing to invert the microphone is late, it is considered that the audience's reaction to the utterance phrase varies. In this case, the reaction level decreases.
  • the reaction instruction unit 26 may determine the reaction level in consideration of the reproduction position in the music data 35 where the user performed the audience audience.
  • the reaction instruction unit 26 selects the reaction data 37 for the audience visit from the reaction data 37, 37,... Stored in the storage unit 27 based on the determined reaction level. If the reaction level is high, the reaction data 37 in which a video in which all the spectators react to the audience is recorded is selected. If the reaction level is low, the reaction data 37 in which an image with a small number of spectators who react to the audience sensation is recorded is selected.
  • the reaction instruction unit 26 instructs the reproduction unit 23 to reproduce the selected reaction data 37.
  • the playback condition of the selected reaction data 37 is also notified to the playback unit 23.
  • the reproduction condition is determined based on the reaction level with respect to the audience. For example, if the reaction level is high, the volume when the reaction data 37 is reproduced increases. If the reaction level is low, it is possible to reduce the volume when the reaction data 37 is reproduced, or to reduce the reproduction speed of the audience cheers.
  • the reproduction unit 23 reproduces the reaction data 37 instructed by the reaction instruction unit 26 in accordance with the music data being reproduced (step S9).
  • a state in which the audience 31 in the screen 3a raises the right hand is displayed on the screen 3a as a reaction of the audience to the audience scramble, and the cheer of the audience “Yay!” Is reproduced.
  • the screen 3a displays how many spectators react to the audience at once, the user can experience the live performance at the live venue in a pseudo manner. Depending on how the audience is enthusiastic, the reaction of the audience 31 in the live venue changes greatly, so that the user can enjoy the same tension as a singer who actually performs live.
  • FIGS. 8A and 8B are diagrams illustrating a procedure in which the user leads the audience's chorus.
  • 8A and 8B show only two spectators 31, 31 in order to explain the movement of the spectators in the screen 3a in an easy-to-understand manner, as in FIG. 7A. 8A and 8B, the display of the main body device 2 and the controller 5 is omitted.
  • the main device 2 uses the audio data 4A and the motion information 42A transmitted from the microphone 4.
  • the motion information 51A transmitted from the controller 5 is not used for the determination of the chorus lead.
  • the screen 3a displays the video of the audience at the live venue and the lyrics 32 of the music being reproduced.
  • the lyrics 32 corresponding to the portion (for example, the chorus portion of the song) that can be sung by the audience in the reproduced music are displayed surrounded by a square frame. Thereby, the user can know the timing which leads chorus.
  • the main device 2 When the main device 2 specifies the chorus leader as the live performance, the main device 2 first detects a voice phrase (hereinafter referred to as “choral phrase”) that calls the chorus to the audience. For example, the user inputs a chorus phrase “Let's sing together!” To the microphone 4 while pointing the microphone 4 at the user himself / herself. The microphone 4 transmits the input choral phrase to the main device 2 as audio data 4A. In the same procedure as described above, the performance specifying unit 25 determines that the user has called for a choral phrase (Yes in step S6).
  • a voice phrase hereinafter referred to as “choral phrase”
  • the user inputs the chorus phrase into the microphone 4 and then reverses the microphone 4 in the direction of the screen 3a (the direction of the arrow 45).
  • the performance specifying unit 25 determines that the direction of the microphone 4 is reversed based on the motion information 42 ⁇ / b> A transmitted from the microphone 4. Since the chorus phrase is input to the microphone 4 and the direction of the microphone 4 is reversed (Yes in step S7), the performance specifying unit 25 determines that the user is leading chorus as a live performance.
  • the reaction instruction unit 26 determines a reaction level for the lead of the chorus performed by the user. Since the procedure for determining the reaction level is the same as described above, the description thereof is omitted.
  • the reaction instruction unit 26 instructs the reproduction of the reaction data 37 corresponding to the determined reaction level among the reaction data 37, 37,.
  • the playback condition of the reaction data 37 is also notified to the playback unit 23.
  • the number of spectators who sing and the volume of the chorus change according to the reaction level.
  • FIG. 8B as a response to the chorus request made by the user, a state in which the spectators 31, 31 in the screen 3a sing with their shoulders crossed is displayed.
  • the singing voice of the audience corresponding to the lyrics that the user has led the chorus is output from the monitor 3.
  • the screen 3a displays the chorus of many spectators all at once, so that the user can experience a live performance of singing a song together with the spectator at the live venue. it can.
  • the audience's chorus continues unless the user moves the microphone 4.
  • the microphone 4 is reversed from the direction of the screen 3a to the user's own direction.
  • the performance specifying unit 25 determines that the lead has been completed. Thereby, the reproduction of the music data 35 and the audience video data 36 is resumed.
  • FIG. 9A and FIG. 9B are diagrams showing a procedure in which the user leads the hand clapping to the spectators 31 and 31 in the screen 3a.
  • 9A and 9B show only two spectators 31, 31 in order to explain the movement of the spectators 31 in the screen 3a in an easy-to-understand manner, as in FIG. 7A.
  • 9A and 9B the display of the main device 2 is omitted.
  • the main body device 2 uses the audio data 4A, the motion information 42A transmitted from the microphone 4 and the motion information 51A transmitted from the controller 5 when detecting the lead of the clapping.
  • the main device 2 detects the lead of the hand time signature, the main device 2 first detects a voice phrase that leads the hand time signature (hereinafter referred to as a “hand time phrase”) (Yes in step S6).
  • a hand time phrase a voice phrase that leads the hand time signature
  • the user inputs a clapping phrase into the microphone 4.
  • the clapping phrase is, for example, “Everyone clapping!”
  • the microphone 4 transmits the input clapping phrase to the main device 2 as audio data 4A.
  • the performance specifying unit 25 determines that the user has called a clapping phrase to the audience in the screen 3a.
  • the user performs the operation of leading the hand clapping after inputting the hand clapping phrase into the microphone 4.
  • the user clapping in time with the rhythm of the music performance sound (reproduced music data 35). Since the user has the microphone 4 in the right hand and the controller 5 in the left hand, the microphone 4 and the controller 5 transmit motion information 42 ⁇ / b> A and 51 ⁇ / b> A indicating the movement of the hand clapping to the main body device 2.
  • the performance specifying unit 25 detects the movement of both hands of the user based on the received movement information 42A and 51A. For example, when the microphone 4 and the controller 5 repeatedly move left and right, and the direction in which the microphone 4 moves and the direction in which the controller 5 moves are opposite directions, the performance specifying unit 25 indicates that the user is clapping. It can be judged (Yes in step S7). In other words, the performance specifying unit 25 determines that the user is leading the clapping by detecting the clapping phrase and the clapping action.
  • the reaction instruction unit 26 determines the response level of the audience based on the timing when the clapping phrase is detected and the timing when the movement of the clapping is detected (step S8).
  • the procedure for determining the reaction level is basically the same as that for determining the response level of the audience.
  • indication part 26 may calculate a user's clapping rhythm using movement information 42A, 51A, and may determine a reaction level based on the calculated rhythm.
  • the reaction instruction unit 26 can detect a deviation between the rhythm of the musical performance sound and the clapping rhythm of the user, and the reaction level can be increased as the detected deviation is smaller.
  • the reaction instruction unit 26 instructs the reproduction of the reaction data 37 corresponding to the determined reaction level among the reaction data 37, 37.
  • the playback condition of the reaction data 37 is also notified to the playback unit 23.
  • the reaction data 37 that the audience is clapping with the music data 35 is reproduced (step S9), and as shown in FIG. 9B, the video of the audience 31 and 31 clapping overhead in the screen 3a. Is displayed.
  • the proportion of the audience clapping varies depending on the reaction level.
  • the volume of the clapping also changes depending on the playback condition determined based on the reaction level.
  • the video of the audience 31, 31 clapping in the screen 3a is displayed in accordance with the movement of the user clapping, so the user is clapping with the audience at the live venue. You can experience live performance in a simulated manner.
  • FIGS. 10A and 10B are diagrams illustrating a procedure in which a user leads a wave.
  • 10A and 10B show only two spectators 31, 31 in order to explain the movement of the spectators in the screen 3a in an easy-to-understand manner, as in FIG. 9A. 10A and 10B, the display of the main device 2 is omitted.
  • the main body device 2 uses the audio data 4A and motion information 42A transmitted from the microphone 4 and the motion information 51A transmitted from the controller 5.
  • the main device 2 detects the leading of the wave, the main device 2 first detects an audio phrase that calls the wave (hereinafter referred to as a “wave phrase”).
  • the user inputs a wave phrase to the microphone 4.
  • the wave phrase is “Everyone shake both hands!”.
  • the microphone 4 transmits the input wave phrase to the main unit 2 as audio data 4A.
  • the performance specifying unit 25 determines that the user has called a wave phrase to the audience in the screen 3a (Yes in step S6).
  • the user operates the wave after inputting the wave phrase to the microphone 4.
  • the user shakes his hands greatly over the head in accordance with the rhythm of the performance sound of the music (music data 35 to be reproduced). Since the user has the microphone 4 on the right hand and the controller 5 on the left hand, the microphone 4 and the controller 5 transmit motion information 42 ⁇ / b> A and 51 ⁇ / b> A indicating wave motion to the main body device 2.
  • the performance specifying unit 25 detects the movement of both hands of the user based on the received movement information 42A and 51A. For example, if the performance specifying unit 25 detects an operation in which the microphone 4 and the controller 5 repeatedly move left and right, and the direction in which the microphone 4 moves matches the direction in which the controller 5 moves, the user performs a wave operation. Judge that
  • the reaction instruction unit 26 determines the reaction level of the audience (step S8).
  • the reaction level is determined based on the rhythm with which the user shakes both hands. For example, the reaction instruction unit 26 detects a deviation between the rhythm of the musical performance sound and the user's wave rhythm, and the reaction level can be increased as the detected deviation is smaller.
  • the reaction instruction unit 26 instructs the reproduction of the reaction data 37 corresponding to the determined reaction level among the reaction data 37, 37,.
  • the reproducing unit 23 reproduces the reaction data 37 that the audience waves together with the music data 35 (step S9).
  • FIG. 10B an image in which the spectators 31 and 31 in the screen 3a wave over the head is displayed.
  • the proportion of the audiences who wave will vary depending on the reaction level.
  • the main device 2 may reproduce the reaction data 37 in which the audience is clapping even if the user does not detect the clapping phrase and only detects the movement of the user clapping.
  • the user may lead the clapping or wave using only the microphone 4 without using the controller 5.
  • the performance specifying unit 25 may determine that the user is leading the clapping or wave when the microphone 4 repeatedly moves left and right. At this time, the difference between the clapping and the wave may be distinguished on the basis of the magnitude by which the user moves the microphone 4 left and right.
  • Admission and Exit ⁇ As a live performance, the user can enter or leave the live venue displayed on the screen 3a in a pseudo manner.
  • FIG. 11 is a diagram showing a procedure for a user to pseudo-enter a live venue.
  • the performance specifying unit 25 detects the user's movement based on the presence / absence of a radio signal from the microphone 4 instead of the movement information 42A and 51A.
  • the user goes out of the room where the main device 2 is installed and waits before the reproduction of the music data 35 is started. At this time, the wireless communication unit 21 of the main body device 2 cannot detect the wireless signal transmitted from the microphone 4.
  • the wireless communication unit 21 can detect a wireless signal from the microphone 4 when the user enters the room.
  • the performance specifying unit 25 determines that the user has entered the live venue when a radio signal from the microphone 4 is detected after the reproduction of the music data 35 is started.
  • the reaction instruction unit 26 determines the reaction level of the audience.
  • the reaction instruction unit 26 determines the reaction level of the audience based on the timing when the wireless signal from the microphone 4 is detected.
  • the reaction instruction unit 26 instructs the reproduction unit 23 to reproduce the reaction data 37 indicating the reaction of the audience when the singer enters. At this time, the playback condition of the reaction data 37 is also instructed to the playback unit 23.
  • the playback unit 23 plays back the reaction data 37 in which the video that the audience is greatly excited and the cheer of the audience are recorded in accordance with the entrance of the user. The volume of the audience cheers is changed according to the playback conditions.
  • the reaction instruction unit 26 determines the audience reaction level when it is determined that the user has left the live venue. The reaction instruction unit 26 determines the reaction level at the time of leaving based on the timing when the user leaves the live venue and the reaction level of the live performance performed until the user leaves. If the reaction level is high, the reaction instructing unit 26 instructs the reproducing unit 23 to reproduce the reaction data 37 for which the audience requests offer. On the other hand, if the reaction level is low, the reaction instruction unit 26 instructs the reproduction unit 23 to reduce the volume of the cheer of the audience, or instructs the reproduction unit 23 to reproduce the reaction data 37 that the audience is booing. can do.
  • a switch for notifying that the user has entered and exited may be provided in the microphone 4.
  • the microphone 4 transmits an entrance signal to the main body device 2.
  • the exit switch is pressed, the microphone 4 transmits an exit signal to the main body device 2.
  • the main device 2 changes the audience reaction in response to the reception of the entrance signal and the exit signal. Thereby, the user does not need to go in and out of the room where the main body device 2 is installed.
  • the user can experience a live presence in a pseudo manner even before starting to sing a song or after singing a song.
  • the user may sing with the microphone 4 in the right hand while turning the left hand with the controller 5 greatly.
  • the controller 5 transmits movement information 51A indicating the movement of the controller 5 to the main body device 2.
  • the performance specifying unit 25 specifies the movement of the user's left hand based on the movement information 51A. In this case, the reaction data in which the video of the spectator turning his / her left hand in accordance with the user's movement is recorded together with the music data 35.
  • the user may perform a performance combining the above-mentioned live performance.
  • the user may simultaneously perform chorus lead and wave lead as a live performance.
  • the user performs the wave operation shown in FIG. 10B after inputting the choral phrase into the microphone 4.
  • the performance specifying unit 25 determines that the user is leading chorus based on the detected choral phrase, and determines that the wave is leading based on the detected movement of both hands of the user.
  • an image in which the audience waves is displayed on the screen 3a.
  • the performance sound of the music being reproduced and the singing voice sung by the audience are simultaneously output from the monitor 3.
  • FIG. 12 is a diagram showing a setting screen for setting a live customer segment.
  • the user operates a remote controller (not shown) to set the audience audience based on gender and age.
  • the gender setting the user designates a male subject, a female subject, or an intermediate.
  • the male subject indicates that the ratio of male spectators is set to 80%.
  • the female subject indicates that the ratio of female audience members is set to 80%.
  • the intermediate means that the ratio of males to females is 50%.
  • the user selects one of 15 to 25 years old, 25 to 45 years old, and 45 years old or older.
  • the ratio of the audience in the age group selected by the user is set to 70%.
  • audience video data 36 corresponding to the set customer segment is reproduced.
  • the audience reaction level changes according to the music selected by the user and the live performance performed by the user. For this reason, the user needs to perform a live performance in consideration of the audience of the audience. For example, when a user designates a female-centered audience who is over 45 years old, by selecting a relatively slow tempo music and performing a live performance (such as wave guidance) that does not require intense movement for the audience , Can increase the reaction level. On the other hand, when a hard rock music is led by the same audience and the audience is repeatedly struck as a live performance, the audience's reaction level becomes low. In this way, by setting the audience layer of the audience, the user can experience a simulated live performance for various audiences.
  • a live performance such as wave guidance
  • the karaoke system 100 can execute a battle mode in which a plurality of users compete for live performance.
  • the operation of the main device 2 when the battle mode is executed will be described.
  • the battle mode two users perform live performances alternately.
  • competition is performed using the music which has the lyrics to the 3rd is demonstrated.
  • the first user sings song 1 while performing a live performance.
  • the second user sings the second piece of music while performing a live performance.
  • the first user and the second user share the microphone 4 and the controller 5.
  • a plurality of microphones 4 and controllers 5 may be prepared for the number of persons performing the battle mode.
  • the live performance performed by each user is scored by the main unit 2.
  • a user with a high score can sing No. 3 of the music being played.
  • the main body device 2 determines the reaction level every time the live performance performed by the user is performed. Each time the first user performs a live performance, the main device 2 scores each performance based on the determined reaction level. The total score for each live performance performed by the first user is calculated as the score of the first user. The score of the second user is calculated in the same way.
  • the score of each user is displayed on the screen 3a.
  • the winning user can perform a live performance with the third song.
  • the microphone 4 and the controller 5 may have a vibration function.
  • the reaction instruction unit 26 of the main device 2 transmits a vibration instruction signal to the microphone 4 and the controller 5 when the audience reaction level exceeds a certain level.
  • the microphone 4 and the controller 5 receive the vibration instruction signal, the microphone 4 and the controller 5 vibrate their own devices for a certain time (about 3 seconds). Thereby, the user can know not only the image of the audience in the screen 3 a but also the reaction of the audience via the microphone 4 and the controller 5.
  • the main unit 2 may be provided with a live venue selection function.
  • the user can select an arena, a baseball field, a concert hall, or the like as a live venue by operating a remote controller (not shown).
  • the main device 2 reproduces the audience video data corresponding to the selected venue. Thereby, the user can experience the live performance in various live venues in a pseudo manner as a live singer.
  • the microphone 4 may include the voice recognition unit 24.
  • the microphone 4 transmits the generated phrase information 24 to the main body device 2 in real time each time the phrase information 24A is generated by the voice recognition unit 24.
  • reaction data 37 is data in which video and audio indicating the reaction of the audience to the live performance is recorded has been described.
  • the reaction data 37 may be data in which only a voice indicating the reaction of the audience is recorded.
  • the data in which the cheering of the audience with respect to the audience, the clapping of the clapping of the clapping, the booing of the audience, and the like can be used as the reaction data 37.
  • the reaction data 37 may be data that symbolically represents the reaction of the audience, instead of the data that specifically indicates the audience's behavior with respect to the live performance as described above.
  • the reaction data 37 it is possible to use data in which a video in which a plurality of fireworks are recorded from a live venue is recorded.
  • the reaction instruction unit 26 changes the number of fireworks to fire according to the reaction level, the user can know the reaction of the audience to the live performance.
  • the reaction instruction unit 26 may select, as the reaction data 37 when the reaction level is low, data in which a video of a live venue without a spectator is recorded or data in which a raging sea is recorded.
  • FIG. 13 is an overall view of the karaoke system 200. As shown in FIG. 13, the karaoke system 200 includes a main body device 6, a monitor 7, a microphone 8, and a remote controller 9.
  • the main device 6 is a processing device that performs overall control of the karaoke system 200.
  • the main device 6 reproduces the music data selected by the user and outputs a virtual live video.
  • the monitor 7 is a liquid crystal display or the like, and displays a virtual live video output from the main unit 6. In other words, a video on which the state of the live venue where many spectators entered is displayed on the screen 7a of the monitor.
  • the monitor 7 includes a speaker (not shown), and outputs music data reproduced by the main device 6 as sound.
  • the microphone 8 is a voice input device that inputs voice when the user sings a song.
  • the microphone 8 outputs the voice input by the user to the main unit 6 as voice data.
  • the remote controller 9 is a device used when the user selects a song at karaoke.
  • the remote controller 9 functions as an effect instruction device for instructing a virtual live effect when music data is being reproduced.
  • a user other than the user having the microphone 8 operates the remote controller 9.
  • FIG. 14 is a diagram showing how to use the microphone 8 and the remote controller 9 in the karaoke system 200.
  • the display of the main unit 6 is omitted.
  • the user 11 holds the microphone 8 and sings a song according to the music reproduced by the main device 6.
  • On the screen 7a a vocal 75 and a guitarist 76 are displayed as characters performing at a virtual live venue.
  • the user 11 having the microphone 8 is in charge of the vocal 75 in the virtual live.
  • the user 12 operates the remote controller 9 to perform a virtual live performance.
  • the user 12 changes the virtual live video and audio displayed on the screen 7a as a live director.
  • the user 12 can excite the virtual live together with the user 11.
  • the users 11 and 12 can enjoy the karaoke together because they can be in charge of various roles in live such as a singer who sings a song or a director in charge of the production.
  • FIG. 15 is a block diagram showing a functional configuration of the main unit 6.
  • the main device 6 includes a wireless communication unit 61, a data acquisition unit 62, a storage unit 63, a live data creation unit 64, a playback unit 65, a performance evaluation unit 66, and a production interface creation. Part 67.
  • the wireless communication unit 61 performs wireless communication with the microphone 8 and the remote controller 9.
  • the wireless communication unit 61 receives the audio data 8A generated by the microphone 8.
  • the wireless communication unit 61 receives the audio data 9 ⁇ / b> A and the production instruction information 74 generated by the remote controller 9.
  • Bluetooth registered trademark
  • wireless LAN wireless local area network
  • infrared communication or the like can be used.
  • the data acquisition unit 62 acquires music data 71 corresponding to the music selected by the user from a music server (not shown).
  • the music data 71 is data in which the performance sound of the music selected by the user is recorded.
  • the storage unit 63 is a hard disk device or the like, and stores music data 71 and venue data 72.
  • the venue data 72 is used when creating live data 73 in which virtual live video and audio are recorded.
  • the venue data 72 includes object data such as vocals 75, guitarists 76, and visitors to the live venue.
  • the venue data 72 includes data indicating the positional relationship between the stage and the audience seats as data indicating the structure of the live venue.
  • the live data creation unit 64 uses the audio data 8A, the music data 71, and the venue data 72 input from the microphone 8 to record live video and audio recorded in a virtual live venue. 73 is created.
  • the live video includes not only the stage of the live venue, but also a video showing the visitors and the entire live venue.
  • the live sound includes not only the reproduction sound of the music data 71 and the sound of the user 11 but also the cheer of the visitor, the effect sound based on the operation by the user 12 and the like.
  • the live data creation unit 64 changes the creation condition of the live data 73 based on the production instruction information 74 transmitted from the remote controller 9.
  • the effect instruction information 74 is information indicating an effect content in virtual live, and is transmitted from the remote controller 9.
  • the reproduction unit 65 reproduces the live data 73 and outputs live video and audio to the monitor 7.
  • the production evaluation unit 66 evaluates the live production based on the production instruction information 74.
  • the performance evaluation unit 66 instructs the creation of live data 73 indicating the state of the visitors who react to the live performance based on the evaluation result. Based on the evaluation result, live data 73 is created in which the attendee gives a loud cheer and the attendee boos.
  • the production interface creation unit 67 creates a production interface according to the production method selected by the user 12.
  • the effect interface is displayed on the touch panel display 94 (see FIG. 16) of the remote controller 9.
  • FIG. 16 is a block diagram showing a functional configuration of the remote controller 9.
  • the remote controller 9 includes a voice input unit 91, a sensor unit 92, a wireless communication unit 93, a touch panel display 94, and an effect content instruction unit 95.
  • the voice input unit 91 inputs a voice uttered by the user, converts it into an electrical signal, and outputs voice data 9A.
  • the sensor unit 92 includes an acceleration sensor that detects a change in the movement of the remote controller 9, and outputs movement information 92 ⁇ / b> A indicating the movement of the remote controller 9.
  • the sensor unit 92 may include a geomagnetic sensor, a gyroscope, and the like in addition to the acceleration sensor.
  • the wireless communication unit 93 performs wireless communication with the main body device 6 and transmits the audio data 9A and the production instruction information 74 to the main body device 6.
  • the touch panel display 94 displays an effect interface. The user 12 uses the effect interface displayed on the touch panel display 94 to instruct the effect on the virtual live.
  • the effect content instruction unit 95 displays an effect interface transmitted from the main device 6 on the touch panel display 94.
  • the production content instruction unit 95 creates production instruction information 74 based on the operation of the production interface by the user 12 and transmits it to the main body device 6. Details of the production interface will be described later.
  • FIG. 17 is a flowchart showing the operation of the main device 6.
  • the user 11 operates the remote controller 9 to select music data 71 to be sung at karaoke.
  • the data acquisition unit 62 acquires the selected music data 71 from a music server (not shown) (step S21).
  • the data acquisition unit 62 stores the acquired music data 71 in the storage unit 63.
  • the venue data 72 is stored in the storage unit 63 in advance.
  • the live data creation unit 64 starts creating live data 73 using the music data 71 and the venue data 72 (step S22). Specifically, the live data creation unit 64 uses the venue data 71 to create video data in which a video of a virtual live venue is recorded. The live data creation unit 64 outputs data including the created video data and the music data 71 to the playback unit 65 as live data 63.
  • the live data creation unit 64 creates live data 63 including the audio data 8A. Thereby, the song of the user 11 is output from the monitor 7.
  • the live data creation unit 64 may include audio data in which the cheer of the visitor is recorded in the live data 73 in accordance with the prelude of the music data 71 and the timing at which the chorus is reproduced.
  • the playback unit 65 starts playback of the live data 73 created by the live data creation unit 64 (step S23). By reproducing the live data 73, a virtual live video is displayed on the screen 7a, and the reproduction sound of the music data 71 is output from the speaker of the monitor 7.
  • the main device 6 repeatedly executes the processing from step S25 to step S28 until the reproduction of the music data 71 is completed (Yes in step S24). As shown in FIG. 14, while the music data 71 is being reproduced, the user 11 sings a song with the microphone 8. The user 12 operates the remote controller 9 to perform a virtual live performance. The remote controller 9 creates the production instruction information 74 corresponding to the operation of the user 12 and transmits it to the main device 6 in real time.
  • the live data creation unit 64 changes the production condition of the live data 73 based on the production instruction information 74 (step S26).
  • the live data creation unit 64 creates live data 73 based on the creation conditions changed based on the production instruction information 74 (step S27). For example, when the production instruction information 74 is information for instructing the launch of fireworks, the live data 73 creates a video showing how fireworks are launched at the live venue. Details of the contents that the user 12 can produce in the virtual live will be described later.
  • the production evaluation unit 66 evaluates the production based on the timing when the production instruction information 74 is input, the contents of the production designated by the production instruction information 74, and the like (step S28). For example, when fireworks are launched while the rust portion of the music data 71 is being played, the performance evaluation unit 66 determines that the attendee has been able to excite, and is higher than the performance of the user 12. Points are given.
  • the effect evaluation unit 66 sums up the points given to the effects of the user 12 (step S29). .
  • the performance evaluation unit 66 instructs the creation of live data 73 indicating the reaction of the visitors based on the total score. Live data 73 created by the live data creation unit 64 is played back by the playback unit 65 (step S30).
  • FIG. 18 is a diagram showing an image of the monitor 7 when the live data 73 indicating the reaction of the visitors is reproduced. If the total value is higher than a preset threshold value, as shown in FIG. 18, an image of all the visitors applauding is displayed on the screen 7a, and the cheer of the visitors is output from the speaker of the monitor 7. Is done. If the total score is low, the video and audio that the attendee boos are output from the monitor 7.
  • the user 12 can know the evaluation for the virtual live performance. Since the evaluation of the user 12's performance is shown as the response of the attendee at the live venue, the user 12 can operate the remote controller 9 while having a sense of tension as when performing an actual live performance.
  • the production evaluation unit 66 may instruct the live data creation unit 64 to generate the live data 73 according to the evaluation result every time the user 12 evaluates the production.
  • the live data creation unit 64 creates the live data 73 corresponding to the score given by the production evaluation unit 66 after creating the live data 73 corresponding to the production instruction information 74 (data indicating the reaction of the visitors). To do.
  • the user 12 instructs a live performance, a response of the visitor to the live performance is output from the monitor 7. Therefore, whenever the user 12 operates the remote controller 9, he can know the evaluation of the effect with respect to virtual live.
  • the music introduction is an effect method in which the user 12 introduces the music sung by the user 11 as a live presenter.
  • the procedure for introducing music will be explained in detail.
  • the user 12 operates the remote controller 9 to display an effect method selection screen (not shown) on the touch panel display 94.
  • an effect interface for music introduction is displayed on the touch panel display 94.
  • FIG. 19 is a diagram showing the remote controller 9 on which an effect interface 271 for introducing music is displayed.
  • the production content instruction unit 95 requests the main body device 6 to display the production interface 271.
  • the production interface creation unit 67 creates the production interface 271 in response to a request from the production content instruction unit 95 and transmits it to the remote controller 9.
  • the effect interface 271 is displayed on the touch panel display 94 as shown in FIG.
  • the presentation interface 271 displays manuscript data 271A for the user 12 to introduce music.
  • various patterns of document data 271A, 271A,... are set.
  • the effect interface creation unit 67 selects the document data 271A based on the length of the prelude of the music data 71 selected by the user 11, the genre of the music data 71, and the like. Based on the selected document data 271A, screen data of the effect interface 271 is created.
  • the live data creating unit 64 When the reproduction of the music data 71 selected by the user 11 is started, the live data creating unit 64, as shown in FIG. 14, shows live data in which video images of characters such as vocals 75 and guitarists 76 standing on the stage are recorded. 73 is created. At this time, the live data creation unit 64 may create live data 73 in which the video of the presenter corresponding to the user 12 is recorded together with the vocal 75 and the like.
  • the user 12 introduces the music sung by the user 11 by reading the manuscript data 271A displayed on the effect interface 271 before the reproduction of the prelude of the music data 71 is completed.
  • the voice input unit 91 inputs the voice of the user 12 and generates voice data 9A.
  • the production content instruction unit 95 transmits the audio data 9A as production instruction information 74 to the main body device 6 in real time.
  • the live data creation unit 64 creates live data 73 including the audio data 9 ⁇ / b> A and outputs it to the playback unit 65. Thereby, the music introduction sound is output from the speaker of the monitor 7.
  • the user 12 touches the end button 271B.
  • the production content instruction unit 95 transmits production instruction information 74 (introduction end notification) indicating that the music introduction has ended to the main body device 6.
  • the performance evaluation unit 66 evaluates the music introduction performed by the user 12 based on the introduction end notification. Specifically, the production evaluation unit 66 gives a high score to the music introduction performed by the user 12 when the music introduction ends at the timing when the prelude ends (just before the user 11 sings). At this time, the performance evaluation unit 66 may increase the number of points given to the music introduction as the difference between the timing at which the music introduction ends and the timing at which the prelude ends is smaller. When the music introduction is not completed by the end of the prelude, the performance evaluation unit 66 does not give a score to the music introduction.
  • the live data creation unit 64 creates live data 73 indicating the reactions of visitors at the live venue based on the assigned points. For example, when the score is high, the live data creation unit 64 creates live data 73 in which a video of applause by all visitors is recorded, as shown in FIG.
  • the performance evaluation unit 66 may evaluate the music introduction by determining whether the user 12 has read the manuscript without error. For example, the effect evaluation unit 66 specifies a phrase input to the voice input unit 91 by the user 12 by performing voice recognition processing on the voice data 9A. The effect evaluation unit 66 can determine whether or not there is an error in reading the document by comparing the specified phrase with the document data 271A displayed on the effect interface 271.
  • the performance evaluation unit 66 may evaluate the music introduction performed by the user 12 based on the rhythm with which the user 12 reads the manuscript. In this case, the effect evaluation unit 66 detects a rhythm by which the user 12 reads the document based on the audio data 9A. When the difference between the rhythm of the prelude and the rhythm of reading the manuscript is small, the performance evaluation unit 66 may give a high score to the music introduction.
  • the user 12 can experience the live tension in a simulated manner without singing a song at karaoke by performing a live performance as a moderator.
  • the mixer operation is an effect method for adjusting the output condition of the music played live by changing the playback condition of the music data 71 or switching the microphone 8 on and off.
  • the user 12 performs a live performance by operating a virtual mixer displayed on the touch panel display 94.
  • FIG. 20 is a diagram showing the remote controller 9 on which the effect interface 272 corresponding to the mixer operation is displayed.
  • the user 12 operates the remote controller 9 to select “mixer operation”.
  • the production content instruction unit 95 requests the main body device 6 to display the production interface 272 for mixer operation in response to the selection of the user 12.
  • the effect interface creating unit 67 creates an effect interface 272 used for mixer operation, and transmits it to the remote controller 9. As a result, an effect interface 272 shown in FIG. 20 is displayed on the remote controller 9.
  • FIG. 21 is a diagram showing the configuration of the music data 71.
  • the music data 71 is composed of part data 71a to 71d corresponding to the guitar, bass, keyboard, and back chorus parts.
  • the user 12 can adjust the volume of the part data 71a to 71d by operating the effect interface 272.
  • the effect interface 272 includes volume controllers 272a, 272a,..., Mute buttons 272b, 272b,..., Mute release buttons 272c, 272c,. ... is displayed.
  • the volume controller 272a is an interface for adjusting the volume of the microphone 8 or each part.
  • the mute button 272b is an interface for muting the microphone 8 or each part.
  • the mute release button 272c is an interface for releasing the mute of the microphone 8 or each part.
  • the mute button 272b is displayed by hatching.
  • the mute release button 272c is displayed by hatching.
  • the production content instruction unit 95 creates production instruction information 74 corresponding to the operation of the production interface 272 by the user 12 and transmits it to the main body device 6 in real time.
  • the production instruction information 74 corresponding to the mixer operation includes information for designating a part whose volume is to be adjusted, and information for instructing the volume of the designated part.
  • the live data creation unit 64 creates live data 73 in which the volume of the microphone 8 or the part data 71a to 71d is adjusted based on the production instruction information 74 corresponding to the mixer operation.
  • the user 12 can adjust the volume of the microphone 8 using the effect interface 272.
  • the user 12 touches the mute button 272 b corresponding to the microphone 8.
  • Production instruction information 74 for instructing mute of the microphone 8 is transmitted to the main unit 6.
  • the live data creation unit 64 does not include the audio data 8A (see FIG. 15) transmitted from the microphone 8 in the live data 73. Even if the user 11 inputs voice to the microphone 8, the voice of the user 11 is not output from the monitor 7.
  • the user 12 touches the mute release button 272c corresponding to the microphone 8 at the timing when the prelude of the music data 71 ends.
  • Production instruction information 74 instructing to cancel mute of the microphone 8 is transmitted to the main unit 6.
  • the live data creation unit 64 creates live data 73 including the audio data 8A. Thereby, the singing voice of the user 11 is output from the monitor 7.
  • the user 12 may perform a mixer operation when a solo performance of the guitar is performed.
  • the live data creating unit 64 notifies the user 12 of the start timing and end timing of the guitar solo performance by creating a video to which a message indicating the start timing and end timing of the guitar solo performance is created. .
  • the user 12 touches the mute button 272b corresponding to the microphone 4 and other parts excluding the guitar at the timing when the solo performance is started.
  • the user 12 may increase the volume of the part data 71a by sliding the volume controller 272a so that the volume of the guitar is increased.
  • the user 12 touches the mute release button 272c corresponding to the microphone 8 and each part excluding the guitar. Thereby, normal performance can be resumed.
  • the effect evaluation unit 66 evaluates the effect of the mixer operation based on the content of the volume adjustment instructed by the effect instruction information 74, the timing at which the volume adjustment is instructed, and the like. For example, as described above, when the user 12 cancels mute of the microphone 8 at the timing when the prelude ends, the score given to the mixer operation increases. At this time, the effect evaluation unit 66 may increase the score to be given as the time difference between the timing when the prelude ends and the timing when the mute of the microphone 8 is released is smaller. If the mute of the microphone 8 is not released even after the prelude is completed, the singing voice of the user 11 does not flow to the virtual live venue, so the number of points given is reduced.
  • the user 12 can prevent the howling from occurring at the live venue by adjusting the volume of each part to an appropriate level.
  • a predetermined level for example, 2 or more
  • the live data creation unit 64 creates live data 73 including howling sound.
  • the effect evaluation unit 66 determines that the user 12 has mistakenly operated the mixer, and deducts the points given to the mixer operation.
  • FIG. 20 shows an effect interface 272 having only the volume adjustment function of each part and the microphone 8.
  • the effect interface 272 may have an equalizer function for changing the frequency characteristics during reproduction of each part data.
  • the volume of each part of the microphone 8 and music can be adjusted in real time. Therefore, the user 12 can enjoy karaoke together with the user 11 by operating the remote controller 9 as a virtual live sound person.
  • Fireworks launch is an effect method of launching fireworks at a virtual live venue while the music data 71 is being reproduced.
  • the user 12 can instruct the type of fireworks to be launched at the live venue and the timing of the fireworks launch by operating the effect interface for launching the fireworks.
  • FIG. 22 is a diagram showing the remote controller 9 on which an effect interface 273 for launching fireworks is displayed.
  • the effect content instruction unit 95 requests the main body device 6 to display the effect interface 273 for fireworks launch control in accordance with the selection of the user 12.
  • the effect interface creating unit 67 creates the effect interface 273 and transmits it to the remote controller 9. Thereby, the effect interface 273 shown in FIG. 22 is displayed on the remote controller 9.
  • the user 12 can operate the effect interface 273 to instruct selection of the fireworks to be launched and launch of the selected fireworks. Specifically, the user 12 touches any of the fireworks 273a to 273c displayed on the effect interface 273 and selects the fireworks to be launched. In the effect interface 273 shown in FIG. 22, the fireworks 273b is selected. The user 12 instructs the launch of the selected fireworks 273b by touching the launch button 273d.
  • FIG. 23 is a diagram showing how fireworks are launched at the live venue.
  • the effect content instruction unit 95 transmits the effect instruction information 74 for instructing the launch of the selected fireworks 273b to the main body device 6.
  • the live data creation unit 64 creates live data 73 including an image of fireworks 273b being launched behind the stage and fireworks explosion sounds. As shown in FIG. 23, on the screen 7a of the monitor 7, an image showing fireworks is displayed behind the stage of the live venue.
  • the user 12 can continuously launch fireworks behind the stage by repeating the above-described operation.
  • the user 12 may select both the fireworks 273a and 273b and touch the launch instruction button 273d.
  • the live data creation unit 64 creates live data 73 including an image in which fireworks 273a and 273b are launched simultaneously.
  • the production evaluation unit 66 evaluates the fireworks launch based on the production instruction information 74 instructing the fireworks launch. That is, scoring for fireworks launch is performed based on the timing of launching fireworks and the number of fireworks launched. When the fireworks launch is instructed at the timing when the chorus performance of the music starts or when the reproduction of the music data 71 ends, the performance evaluation unit 66 gives a high score to the fireworks performance. Give.
  • the user 12 becomes a person in charge of lighting at the live venue and can perform a virtual live performance. That is, the user 12 can illuminate various places in the live venue by operating the remote controller 9.
  • FIG. 24 is a diagram showing the remote controller 9 on which the lighting instruction effect interface 274 is displayed.
  • the user 12 operates the remote controller 9 to select “illumination instruction”.
  • the effect content instruction unit 95 requests the main body device 6 to display the effect interface 274 for instructing illumination according to the selection of the user 12.
  • the effect interface creating unit 67 creates an effect interface 274 and transmits it to the remote controller 9. As a result, the effect interface 274 is displayed on the remote controller 9 as shown in FIG.
  • the production interface 274 includes a video display column 274a and a lighting instruction column 274b.
  • the video display field 274a displays video data 274c indicating the stage of the live venue.
  • the illumination instruction column 274b displays a button for instructing on / off of illumination.
  • the monitor 7 displays the same video as the video data 274c.
  • the user 12 can illuminate the vocal 75 standing on the stage and the guitarist 76 by operating the effect interface 274.
  • FIG. 25 is a diagram showing an effect interface 274 in which an object to be illuminated is selected.
  • the vocal 75 is illuminated, the user 12 touches the vocal 75 displayed in the video display field 274a.
  • the effect content instructing unit 95 hatches the vocal 75 displayed in the video display field 274a as an object to be illuminated.
  • the effect content instructing unit 95 creates effect instruction information 74 for instructing the vocal 75 to be illuminated, and transmits it to the main body device 6.
  • the live data creation unit 64 creates live data 73 including an image in which the vocal 75 is illuminated based on the production instruction information 74.
  • the main device 6 transmits the created live data 73 to the remote controller 9 as video data 274c.
  • video data 274c indicating that the vocal 75 is illuminated is displayed in the video display field 274a.
  • the monitor 7 displays the same video as the video data 274c shown in FIG.
  • User 12 can change the target to be illuminated. For example, when a solo performance of a guitar is performed during reproduction of the music data 71, the illumination target can be changed to the guitarist 76.
  • the user 12 selects the vocal 75 displayed in the video display field 274a and touches “OFF” in the illumination instruction field 274b.
  • the user 12 selects the guitarist 76 displayed in the video display field 274a and touches “ON” in the illumination instruction field 274b. Thereby, the illumination is switched from the vocal 75 to the guitarist 76.
  • the user 12 may select both the vocal 75 and the guitarist 76 and touch “ON” in the lighting instruction column 274b.
  • video data 274c in which both the vocal 75 and the guitarist 76 are illuminated is displayed in the video display column 274a.
  • the production evaluation unit 66 evaluates the production of lighting based on the contents of the production instruction information 74 and the timing at which the production instruction information 74 is received. For example, when only the vocal 75 is illuminated at the timing when the rust of the music is reproduced, a high score is given to the lighting effect. Similarly, by illuminating only the guitarist 76 at the timing when the solo performance of the guitar is performed, a high score is given to the lighting effect. When lighting is applied to the guitarist 76 instead of the vocal 75 at the timing when the rust is reproduced, the effect evaluation unit 66 does not give a score to the lighting effect. Alternatively, the effect evaluation unit 66 may deduct the assigned points.
  • the user 12 may designate the irradiation direction to which the illumination is applied by moving the remote controller 9.
  • the user 12 can illuminate not only the stage but also the visitors of the live venue.
  • the illumination direction is determined based on the motion information 92A (see FIG. 16) output from the sensor unit 92.
  • FIG. 26 is a diagram illustrating an operation method of the remote controller 9 when determining the illumination direction.
  • the display of the user 12 having the remote controller 9 is omitted.
  • the user 12 determines the reference direction of the remote controller 9. Specifically, as shown in FIG. 26, the user 12 points the touch panel display 94 toward the user 12 and points the back of the remote controller 9 in the direction of the monitor 7 (direction of the arrow 274d).
  • the effect content instructing unit 95 sets the direction of the arrow 274d as the reference direction of the remote controller 9.
  • Information indicating the reference direction is transmitted to the main body device 6 as the production instruction information 74. It is assumed that the reference position of the remote controller 9 corresponds to the front row of the passenger seat.
  • the user 12 designates the irradiation direction by changing the direction of the remote controller 9 to the directions of arrows 274e and 274e while the music data 71 is being reproduced.
  • the effect content instruction unit 95 transmits the motion information 92A output from the sensor unit 92 to the main body device 6 as the effect instruction information 74 in real time.
  • the live data creation unit 64 determines the irradiation direction based on the reference position, reference direction, and motion information 92A of the remote controller 9.
  • the live data creation unit 64 creates video data 274c indicating the state of the live venue when viewing the irradiation direction from the reference position.
  • the main device 6 transmits the created video data 274c to the remote controller 9. Creation and transmission of the video data 274c corresponding to the irradiation direction are performed in real time. Thereby, video data 274c indicating the state of the venue in the irradiation direction is displayed in the video display column 274a.
  • FIG. 27 is a diagram showing the remote controller 9 on which video data 274c indicating the state of the venue in the irradiation direction is displayed.
  • the illumination direction is set from the reference position to the direction in which the passenger seat is located.
  • visitors to the live venue are displayed in the video display field 274a.
  • the user 12 touches “ON” in the lighting instruction column 274b in a state where the video of the visitor is displayed in the video display column 274a.
  • the production content instruction unit 95 transmits production instruction information 74 for instructing lighting to the main body device 6.
  • the live data creation unit 64 creates video data 274c indicating how the passenger seat is illuminated based on the production instruction information 74 and the irradiation direction. In FIG. 27, the hatched area corresponds to an illuminated area.
  • the live data creation unit 64 may create video data 274c indicating that a visitor in the hatching area is greatly excited.
  • the user 12 may move the remote controller 9 while selecting “ON” in the lighting instruction column 274b.
  • the area illuminated can be moved within the live venue. For example, when an interlude of the music data 71 is being played, the user 12 can illuminate the live by illuminating the visitors.
  • the user 12 can illuminate the vocal 75 and the guitarist 76 by pointing the remote controller 9 in the direction of the stage.
  • the live data creation unit 64 determines that the illumination direction is the direction of the stage, the live data creation unit 64 creates live data 73 including an image in which the stage is illuminated. In this case, an image showing the illumination is displayed on the screen 7a of the monitor 7.
  • the performance evaluation unit 66 also evaluates the lighting effect even when the remote controller 9 is moved to indicate the lighting position. As described above, when the guitarist 76 is illuminated while the guitar is being played solo, the performance evaluation unit 66 gives a high score to the lighting performance. In addition, when an interlude is reproduced while the music data 71 is being played, the performance evaluation unit 66 gives a high score to the lighting performance.
  • ⁇ Modifications ⁇ In the present embodiment, an example in which the user 11 sings with the microphone 8 as the performance performed by the user 11 has been described. However, the user 11 may perform other performances. For example, the user 11 may perform a live performance using an electronic musical instrument device that can communicate with the main device 6.
  • the user 11 holds an electronic musical instrument device in the shape of a guitar and performs an operation of repelling the strings of the electronic musical instrument device.
  • the electronic musical instrument device transmits information corresponding to the user's operation to the main device 6.
  • the live data creation unit 64 creates live data 73 including guitar performance sounds instead of the audio data 8A. Thereby, the user 11 can perform as a guitarist in a virtual live venue.
  • the karaoke system 200 may include a plurality of remote controllers 9.
  • a user who operates each remote controller is in charge of music introduction, mixer operation, fireworks display, and lighting operation. Thereby, since a plurality of effects can be executed in parallel, it is possible to enliven a virtual live with all the members of the group.
  • the live data creation unit 64 generates the live data 73 in which video and audio are recorded has been described.
  • the live data 73 may be data including at least one of video and audio.
  • the live data creation unit 73 creates live data 73 including only sound.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

 臨場感の高いライブ演奏を疑似的に体験することができる技術を提供することを課題とする。本体装置(2)は、楽曲データ(35)と、観客の映像が記録された観客映像データ(36)とを再生する。ユーザは、マイク(4)を持って、モニタ(3)に表示された観客に対してライブパフォーマンスを行う。マイク(4)は、音声データ(4A)と、マイク(4)の動き情報(42A)を本体装置(2)に送信する。本体装置(2)は、ユーザが特定のフレーズを呼び掛け、かつ、特定のフレーズに対応する動作をした場合、ユーザがライブパフォーマンスを行った判定する。本体装置(2)は、ライブパフォーマンスに対する観客の反応を示す映像及び音声が記録されたリアクションデータを再生する。

Description

アミューズメントシステム
 本発明は、ユーザが再生される楽曲データに合わせて歌を歌うことができるアミューズメントシステムに関する。
 カラオケでは、ユーザが選択した楽曲の演奏に合わせて歌を歌う形式が一般的である。カラオケ装置のモニタには、ユーザが選択した楽曲の歌詞が、楽曲の演奏の進行に合わせて表示される。これにより、ユーザは、選択した楽曲の歌詞を全て覚えていなくても、カラオケを楽しむことができる。モニタに表示される歌詞の背景には、歌を歌うキャラクタの映像や、楽曲のイメージに合わせた映像などが表示される。
 カラオケは、家族あるいは友人同士などの少人数のグループで楽しむことが多い。カラオケを盛り上げるために、歌を歌うユーザが好みのタイミングで効果音などを発生することができる装置が特許文献1に開示されている。
 下記特許文献1に係る電子パーカッション装置は、マラカスなど打楽器の形状をしており、加速度センサを備えている。電子パーカッション装置は、楽曲の間奏が演奏されているときなど、自装置を操作することができるタイミングを、LEDを点灯させることによりユーザに通知する。LEDの点灯期間内にユーザが電子パーカッション装置を振ることによって、パーカッション音が再生される。
 カラオケを盛り上げるために、歌を歌うユーザに照明をあてることができるカラオケ装置が、特許文献2に開示されている。
 下記特許文献2に係るカラオケ装置は、送信器と、カラオケ端末機と、照明器具とを備える。カラオケ端末機は、ユーザが選択した楽曲を再生する。ユーザは、再生される楽曲に合わせて、送信器を持ちながら歌を歌う。送信器は、照明器具の照射方向を制御する姿勢制御信号を照明器具に送信する。照明器具は、照射方向を姿勢制御信号の飛来方向に変更する。
特開2004-287020号公報 特開平11-134611号公報
 上述したように、カラオケは、少人数のグループで楽しむことが多い。ユーザが歌う歌を聞く人は、カラオケに参加した家族あるいは友人等に限られる。つまり、カラオケでは、ライブのシンガーのように、多くの観客に自分の歌を聴いてもらうという体験をすることができない。
 カラオケでは、歌を歌うユーザ以外の他のユーザは、歌を聴いたり、次に歌う楽曲を探したりすることが多い。つまり、カラオケを少人数のグループで楽しむ場合であっても、グループのメンバー全員がカラオケを楽しむことはできない。特許文献2に係るカラオケ装置は、歌を歌うユーザが送信器を保持することにより、歌うユーザに照明をあてることができる。しかし、他のユーザは、照明を操作することができないため、カラオケに積極的に参加することはできない。
 本発明のアミューズメントシステムは、本体装置と、ユーザが保持し、ユーザが入力した音声を音声データとして出力する音声入力装置と、音声データに対する音声認識処理を行って、ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、音声入力装置は、音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、を含み、本体装置は、ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、フレーズ情報及び第1動き情報の少なくとも一方に基づいて、ユーザのパフォーマンスを特定するパフォーマンス特定部と、聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、再生リアクションデータの再生を再生部に指示する反応指示部と、を含む。
 また、本発明のアミューズメントシステムは、本体装置と、ユーザが保持し、ユーザが入力した音声を音声データとして出力する音声入力装置と、ユーザを撮影して映像データを出力する撮像装置と、音声データに対する音声認識処理を行って、ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、本体装置は、ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、映像データを解析してユーザの動きを示す第1動き情報を生成する映像解析部と、フレーズ情報及び第1動き情報の少なくとも一方に基づいて、ユーザのパフォーマンスを特定するパフォーマンス特定部と、聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、再生リアクションデータの再生を再生部に指示する反応指示部と、を含む。
 ユーザは、表示された聴衆に対してライブ演奏を提供するシンガーとして振る舞いながら、カラオケを楽しむことができるため、臨場感の高いライブ演奏を疑似的に体験することができる。
 また、本発明のアミューズメントシステムは、選択された楽曲データを再生する本体装置と、第1ユーザのパフォーマンスに応じたパフォーマンス情報を生成するパフォーマンス情報生成装置と、第2ユーザの操作に応じて、第1ユーザのパフォーマンスの演出を指示する演出指示情報を生成する演出指示装置と、を備え、本体装置は、楽曲データとパフォーマンス情報とに基づいて、第1ユーザのパフォーマンスの状況を示すパフォーマンス状況データを生成し、演出指示情報に応じてパフォーマンス状況データの生成条件を変更するパフォーマンス状況データ生成部と、演出指示情報を参照して第1ユーザのパフォーマンスの演出内容を評価し、第1ユーザのパフォーマンスを観覧する観客の反応を示す反応データの生成を、評価結果に基づいてパフォーマンス状況データ生成部に指示する演出評価部と、パフォーマンス状況データと反応データとを再生する再生部と、を備える。
 第2ユーザは、演出指示装置を操作することにより、第1ユーザのパフォーマンスの演出を行うことが可能となる。したがって、第2ユーザは、第1ユーザとともに、仮想的なライブを楽しむことが可能となる。
 本発明の目的は、臨場感の高いライブ演奏を疑似的に体験することができるアミューズメントシステムを提供することである。
 また、本発明の目的は、歌を歌うユーザと、他のユーザとが一緒に楽しむことができるアミューズメントシステムを提供することである。
 この発明の目的、特徴、局面、及び利点は、以下の詳細な説明と添付図面によって、明白となる。
本発明の第1の実施の形態によるカラオケシステムの全体図である。 図1に示す本体装置の機能ブロック図である。 図1に示すマイクの機能ブロック図である。 図1に示すコントローラの機能ブロック図である。 図1に示す本体装置の動作の流れを示すフローチャートである。 図1に示すモニタの画面に表示される観客の映像を示す図である。 図1に示すモニタの画面内の観客に対して観客煽りを行う手順を示す図である。 図1に示すモニタの画面内の観客に対して観客煽りを行う手順を示す図である。 図1に示すモニタの画面内の観客に対して合唱を先導する手順を示す図である。 図1に示すモニタの画面内の観客に対して合唱を先導する手順を示す図である。 図1に示すモニタの画面内の観客に対して手拍子を先導する手順を示す図である。 図1に示すモニタの画面内の観客に対して手拍子を先導する手順を示す図である。 図1に示すモニタの画面内の観客に対してウェーブ(両手を大きく振る動作)を先導する手順を示す図である。 図1に示すモニタの画面内の観客に対してウェーブを先導する手順を示す図である。 図1に示すカラオケシステムを使用するユーザの動きを示す図である。 図1に示すモニタに表示される設定画面を示す図である。 本発明の第2の実施の形態によるカラオケシステムの全体図である。 図13に示すマイク及びリモートコントローラの使用方法を示す図である。 図13に示す本体装置の機能ブロック図である。 図13に示すリモートコントローラの機能ブロック図である。 図13に示す本体装置の動作を示すフローチャートである。 図13に示す本体装置により、入場者の反応を示すライブデータが再生されたときの映像を示す図である。 図13に示すリモートコントローラに表示される楽曲紹介用の演出インタフェースを示す図である。 図13に示すリモートコントローラに表示されるミキサ操作用の演出インタフェースを示す図である。 図15に示す楽曲データの構成を示す図である。 図13に示すリモートコントローラに表示される花火打ち上げ用の演出インタフェースを示す図である。 図13に示すモニタに表示される映像を示す図である。 図13に示すリモートコントローラに表示される照明指示用の演出インタフェースを示す図である。 図13に示すリモートコントローラに表示される照明指示用の演出インタフェースを示す図である。 図13に示すリモートコントローラの操作方法を示す図である。 図13に示すリモートコントローラに表示される映像を示す図である。
 [第1の実施の形態]
 以下、図面を参照しつつ、本発明の第1の実施の形態について説明する。本実施の形態では、アミューズメントシステムの一例として、カラオケシステムについて説明する。
 {1.カラオケシステム100の全体構成}
 図1は、カラオケシステム100の全体図である。カラオケシステム100は、本体装置2と、モニタ3と、マイク4と、コントローラ5とを備える。
 本体装置2は、カラオケシステム100の全体制御を行う処理装置であり、ユーザが選択した楽曲に対応する楽曲データ及び映像データを再生する。ユーザは、図示しないリモコンを用いて、カラオケで歌う楽曲を選択する。
 モニタ3は、液晶ディスプレイなどであり、本体装置2から出力される映像を表示する。モニタ3は、図示しないスピーカを備えており、本体装置2により再生される楽曲データを音声として出力する。
 マイク4は、ユーザが歌を歌うときに音声を入力する音声入力装置である。マイク4は、自装置の動きを検出する動き検出機能を有し、ユーザの動きを示す動き情報を本体装置2に送信する。
 コントローラ5は、自装置の動きを検出する動き検出機能を有しており、動き情報を本体装置2に送信する。ユーザは、一方の手にマイク4を持ち、他方の手にコントローラ5を持って歌を歌う。図1に示す例では、コントローラ5は、直方体状の形状であるが、リストバンドのように、ユーザの腕にはめることができる形状であってもよい。この場合、ユーザがコントローラ5を誤って落とすことを防止できる。
 本体装置2は、ユーザが選択した楽曲の演奏音を出力するとともに、大勢の観客が入場したライブ会場の様子が記録された映像をモニタ3に表示する。つまり、モニタ3には、ライブ会場のステージに立つシンガー(ユーザ)を見ている大勢の観客の映像が表示される。
 ユーザは、選択した楽曲の歌を歌うだけでなく、マイク4を通して画面3a内の観客に呼び掛けたり、マイク4を観客に向けたりすることにより、観客に対して様々なライブパフォーマンスを行う。本体装置2は、マイク4及びコントローラ5から送信される動き情報に基づいて、ユーザの両手の動きを検出する。本体装置2は、マイク4に入力された音声や、マイク4及びコントローラ5の動き情報に基づいて、ユーザのライブパフォーマンスを特定する。特定されたライブパフォーマンスに対する観客の反応を示す映像が、モニタ3に表示される。このように、ユーザは、カラオケシステム100を利用することにより、実際にライブ会場でライブを行うシンガーのように振る舞うことができるため、臨場感の高いライブ演奏を疑似的に体験することができる。
 次に、本体装置2の構成について説明する。図2は、本体装置2の機能的構成を示すブロック図である。本体装置2は、無線通信部21と、データ取得部22と、再生部23と、音声認識部24と、パフォーマンス特定部25と、反応指示部26と、記憶部27と、出力部28とを備える。
 無線通信部21は、マイク4及びコントローラ5と無線通信を行い、マイク4及びコントローラ5から動き情報42A,51Aを取得する。無線通信には、Bluetooth(登録商標)、無線LAN、赤外線通信などを利用することができる。
 データ取得部22は、ユーザが選択した楽曲に対応する楽曲データ35、観客映像データ36、複数のリアクションデータ37,37・・・を、インターネット等を介して楽曲サーバ(図示省略)から取得する。楽曲データ35は、ユーザが選択した楽曲の演奏音を記録したデータである。観客映像データ36は、ライブ会場に入場した大勢の観客(聴衆)の状況を示す聴衆状況データであり、観客の映像及び音声を記録したデータである。ここで、聴衆とは、ユーザが楽曲に合わせて歌う歌をライブ会場で鑑賞する人々を指し、観客を含む概念である。リアクションデータ37は、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである。リアクションデータ37は、複数のライブパフォーマンスのうちいずれか一つに対応するとともに、観客の反応レベルのいずれか一つに対応する。反応レベルの詳細については、後述する。
 本実施の形態では、大勢の観客の状況を示す聴衆状況データとして、観客映像データ36を用いる例を説明する。しかし、大勢の観客(聴衆)の状況を示す音声データを用いてもよい。具体的には、観客映像データ36に代えて、観客(聴衆)の歓声などが記録された音声データなどを用いることができる。
 再生部23は、データ取得部22が取得した楽曲データ35及び観客映像データ36を再生する。音声認識部24は、マイク4から送信された音声データ4Aに対し音声認識処理を行い、ユーザがマイク4に入力したフレーズを検出する。音声認識部24は、検出したフレーズを示すフレーズ情報24Aを出力する。
 パフォーマンス特定部25は、フレーズ情報24Aと、動き情報42A,51Aとに基づいて、ユーザが行ったライブパフォーマンスを特定する。パフォーマンス特定部25は、フレーズ情報24Aが特定のフレーズ(シンガーが観客に呼び掛けるフレーズ)を含み、かつ、ユーザが特定のフレーズに対応した動作を行ったと判断した場合、ユーザがライブパフォーマンスを行ったと判断する。
 反応指示部26は、特定されたライブパフォーマンスに対する観客の反応レベルを決定する。特定されたライブパフォーマンスと観客の反応レベルとに基づいて、観客のリアクションを示すリアクションデータ37が選択される。反応指示部26は、観客の反応レベルに基づいて、選択されたリアクションデータ37の再生条件を決定する。再生条件とは、選択したリアクションデータ37の再生時の音量などである。反応指示部26は、選択したリアクションデータ37を、決定した再生条件で再生することを再生部23に指示する。
 記憶部27は、ハードディスク装置などであり、データ取得部22が取得した楽曲データ35、観客映像データ36及びリアクションデータ37,37,・・・を格納する。出力部28は、再生部23により生成された音声及び映像を、モニタ3に出力する。
 次に、マイク4の構成について説明する。図3は、マイク4の機能的構成を示すブロック図である。マイク4は、音声入力部41と、センサ部42と、無線通信部43とを備える。
 音声入力部41は、ユーザが発する音声を入力して電気信号に変換し、音声データ4Aを出力する。センサ部42は、マイク4の動きの変化を検出する加速度センサを備えており、マイク4の動きを示す動き情報42Aを出力する。センサ部42は、加速度センサの他に、地磁気センサやジャイロスコープなどを備えていてもよい。無線通信部43は、本体装置2と無線通信を行い、音声データ4A及び動き情報42Aを本体装置2に送信する。
 次に、コントローラ5の構成について説明する。図4は、コントローラ5の機能的構成を示すブロック図である。コントローラ5は、センサ部51と、無線通信部52とを備える。センサ部51は、マイク4のセンサ部42と同様に加速度センサを備えており、コントローラ5の動きを示す動き情報51Aを出力する。無線通信部52は、本体装置2と無線通信を行い、動き情報51Aを本体装置2に送信する。
 なお、カラオケシステム100は、ユーザの動きを撮影するカメラを備えていてもよい。この場合、本体装置2は、映像データを解析してユーザの動きを検出する画像解析部を備える。カメラは、たとえば、モニタ3の上に設置され、ユーザを撮影した映像データをリアルタイムに本体装置2に出力する。画像解析部は、映像データを解析して、ユーザの動きを示す動き情報を生成して出力する。パフォーマンス特定部25は、フレーズ情報24Aと、画像解析部から出力される動き情報とに基づいて、ユーザが行ったライブパフォーマンスを特定する。この場合、カラオケシステム100は、コントローラ5を備える必要はなく、マイク4にセンサ部42を設けなくてもよい。
 {2.本体装置2の動作}
 以下、ユーザのライブパフォーマンスに応じて、モニタ3から出力される観客の映像及び音声が変更される処理について、本体装置2の動作を中心に説明する。以下の説明では、マイク4及びコントローラ5から送信される動き情報42A,51Aを用いる例について説明する。カメラを用いてユーザの動きを検出する場合であっても、同様の処理が行われる。
 図5は、本体装置2の動作を示すフローチャートである。最初に、ユーザは、図示しないリモコンを操作して、カラオケで歌いたい楽曲を選択する。データ取得部22は、ユーザにより選択された楽曲に対応する楽曲データ35と、観客映像データ36と、リアクションデータ37,37,・・・とを楽曲サーバから取得して、記憶部27に格納する(ステップS1)。
 再生部23は、楽曲データ35及び観客映像データ36の再生を開始する(ステップS2)。これにより、ユーザが選択した楽曲の演奏音と、ライブ会場でライブを楽しむ観客の映像及び歓声とが、モニタ3から出力される。
 図6は、多くの観客の映像が表示されたモニタ3を示す図である。ユーザは、画面3aに多くの観客の映像が表示されたモニタ3の前に立つことにより、画面3a内の多くの観客と向かい合う。ユーザは、モニタ3に映し出された観客に対して、疑似的にライブを行う。すなわち、ユーザは、ライブを行うシンガーとして、歌を歌いながら、様々なライブパフォーマンスを行うことができる。
 本体装置2は、楽曲データ35の再生が終了するまで(ステップS3においてYes)、ステップS4~ステップS9の処理を繰り返し実行する。
 マイク4は、音声入力部41に入力された音声フレーズを、音声データ4Aとしてリアルタイムに本体装置2に送信している。本体装置2が音声データ4Aを受信した場合(ステップS4においてYes)、音声認識部24は、音声データ4Aに対する音声認識処理を実行する(ステップS5)。音声認識部24は、ユーザの発した音声フレーズを記録したフレーズ情報24Aを出力する。パフォーマンス特定部25は、フレーズ情報24Aに基づいて、ユーザが画面3a内の観客に対して特定のフレーズを呼び掛けた否かを判定する(ステップS6)。
 フレーズ情報24Aが特定のフレーズを含まない場合(ステップS6においてNo)、マイク4に入力された音声は、ユーザの歌声であると判定される。本体装置2は、ステップS3の処理に戻る。一方、フレーズ情報24Aが特定のフレーズを含む場合(ステップS6においてYes)、パフォーマンス特定部25は、ユーザが観客に特定のフレーズを呼び掛けたと判断する。そして、パフォーマンス特定部25は、ユーザが特定のフレーズに応じた動きをしたか否かを、動き情報42A,51Aに基づいて確認する。
 マイク4は、センサ部42が出力する動き情報42Aを本体装置2にリアルタイムに送信する。同様に、コントローラ5は、センサ部51が出力する動き情報51Aを本体装置2にリアルタイムに送信する。パフォーマンス特定部25は、動き情報42A,51Aに基づいて、特定のフレーズに応じた動きをユーザが行ったか否かを判定する(ステップS7)。
 特定のフレーズに応じた動きが検出されなかった場合(ステップS7においてNo)、本体装置2は、ステップS3の処理に戻る。
 特定のフレーズに応じた動きが検出された場合(ステップS7においてYes)、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してライブパフォーマンスを行ったと判定する。ユーザが行うライブパフォーマンスとして、観客煽り、観客の合唱の先導、手拍子の先導などが挙げられる。
 反応指示部26は、フレーズ情報24A及び動き情報42A,51Aを用いて、ユーザのライブパフォーマンスに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、ユーザが行ったライブパフォーマンスと、反応レベルとに基づいて、リアクションデータ37を選択する。たとえば、反応レベルが高い場合、反応指示部26は、ユーザのライブパフォーマンスに対して全観客が反応する映像が記録されたリアクションデータ37を選択する。
 反応指示部26は、選択されたリアクションデータ37の再生を、再生部23に対して指示する。再生部23は、指示されたリアクションデータ37を、再生中の楽曲データ35とともに再生する(ステップS9)。この結果、ユーザのライブパフォーマンスに対する観客のリアクションが画面3aに表示されるとともに、楽曲の演奏音と、観客の歓声とが重なってモニタ3から出力される。
 反応指示部26は、リアクションデータ37の再生条件を反応レベルに応じて変更してもよい。たとえば、反応レベルが高ければ、観客の歓声の音量を大きくしてもよい。反応レベルが低ければ、観客の歓声の音量を小さくしたり、観客の歓声が記録されたデータの再生速度を遅くしたりしてもよい。
 図5に示すフローチャートでは、音声データ4Aから特定のフレーズを検出した後に、検出した特定のフレーズに応じた動きが行われたか否かを判定している。しかし、ライブパフォーマンスの種別に応じて、ステップS4~S6の処理の順序と、動き検出(ステップS7)の処理の順序とを入れ替え序とを入れ替えてもよい。特定のフレーズ及びユーザの動きのいずれか一方に基づいて、ユーザのライブパフォーマンスを特定してもよい。
 本実施の形態では、観客映像データ36と、リアクションデータ37とが異なるデータである例を説明しているが、これに限られない。たとえば、観客映像データ36の各観客をオブジェクト化してもよい。この場合、本体装置2は、特定されたライブフォーマンと反応レベルとに基づいて、各観客オブジェクトの動きを変更する。たとえば、本体装置2は、特定されたライブパフォーマンスに対する観客の反応として、各観客オブジェクトの動作や歓声を変更することができる。また、反応指示部26は、反応レベルに応じて、ユーザのライブパフォーマンスに対して反応する観客オブジェクトの割合を変化させることができる。
 {3.ライブパフォーマンスの具体例}
 以下、本体装置2が検出することができるライブパフォーマンスの具体例について説明する。
 {3.1.観客煽り}
 図7A及び図7Bは、ユーザが画面3a内の観客31に対して観客煽りを行う手順を示す図である。図7A及び図7Bでは、画面3a内の観客31の動きを分かりやすく説明するために、画面3a内に一人の観客31のみを表示している。実際には、再生部23が観客映像データ36を再生することにより、ライブ会場と、ライブ会場に来ている多数の観客31とが画面3aに表示される。図7A、図7Bにおいて、本体装置2及びコントローラ5の表示を省略している。
 観客煽りとは、ライブ中のシンガーが質問形式のフレーズを観客に対して呼びかけ、観客がシンガーに対して一斉に返事をするというライブパフォーマンスである。ユーザは、楽曲の前奏あるいは間奏が再生されているときなどに、観客煽りを行うことができる。
 本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、マイク4から送信される音声データ4A及び動き情報42Aを使用し、コントローラ5から送信される動き情報51Aを使用しない。
 本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、特定のフレーズの検出を先に行う。図7Aに示すように、ユーザは、最初に、マイク4をユーザ自身に向けながら、たとえば、「のってるかーい?」という質問形式の特定のフレーズ(以下、「煽りフレーズ」と呼ぶ。)をマイク4に入力する。マイク4は、煽りフレーズを音声データ4Aとして本体装置2に送信する。
 音声認識部24は、受信した音声データ41Aに対して音声認識処理を行って(ステップS5)、フレーズ情報24Aを生成する。パフォーマンス特定部25には、シンガーがライブパフォーマンスの際に観客に呼び掛ける様々なフレーズが設定されている。パフォーマンス特定部25は、フレーズ情報24Aと、設定された様々なフレーズとを比較することにより、ユーザが煽りフレーズを観客に呼び掛けたと判断する(ステップS6においてYes)。
 ユーザは、ユーザ自身に向けたマイク4に煽りフレーズを入力した後に、マイク4をユーザ自身の方向から画面3aの方向に向ける。つまり、ユーザは、矢印45(図7A参照)に示すように、マイク4の向きを反転させる。マイク4のセンサ部42は、ユーザの動きに応じた動き情報42Aを生成する。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、煽りフレーズがマイク4に入力され(ステップS6においてYes)、かつ、マイク4の向きが反転されたことから(ステップS7においてYes)、ユーザがライブパフォーマンスとして観客煽りを行ったと判定する。
 反応指示部26は、ユーザが行った観客煽りに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、煽りフレーズが入力された音声入力タイミングと、マイクの反転が検出された動き検出タイミングとの時間差(検出時間差)に基づいて、反応レベルを決定する。音声入力タイミングは、フレーズ情報24Aに含まれている。動き検出タイミングは、動き情報42Aに含まれている。
 反応指示部26には、反応レベルが最大となる、音声検出タイミングと動き検出タイミングとの時間差(理想時間差)が設定されている。反応指示部26は、理想時間差と、検出時間差とのずれの大きさに基づいて反応レベルを決定する。たとえば、ずれが小さい場合、反応指示部26は、観客煽りがスムーズに行われたと判断して、反応レベルを高くする。一方、マイクを反転させるタイミングが遅い場合など、ずれが大きい場合、煽りフレーズに対する観客の反応がばらつくと考えられる。この場合、反応レベルは低下する。また、反応指示部26は、ユーザが観客煽りを、楽曲データ35のどの再生位置で行ったかを考慮して、反応レベルを決定してもよい。
 反応指示部26は、観客煽りに対するリアクションデータ37を、決定した反応レベルに基づいて、記憶部27に格納されたリアクションデータ37,37,・・・の中から選択する。反応レベルが高ければ、観客全員が観客煽りに対して反応する映像が記録されたリアクションデータ37が選択される。反応レベルが低ければ、観客煽りに対して反応する観客の数が少ない映像が記録されたリアクションデータ37が選択される。
 反応指示部26は、選択したリアクションデータ37の再生を、再生部23に指示する。このとき、選択されたリアクションデータ37の再生条件も、再生部23に通知される。再生条件は、観客煽りに対する反応レベルに基づいて決定される。たとえば、反応レベルが高ければ、リアクションデータ37の再生時の音量が大きくなる。反応レベルが低ければ、リアクションデータ37の再生時の音量を小さくしたり、観客の歓声の再生速度を小さくしたりすることができる。
 再生部23は、再生中の楽曲データに合わせて、反応指示部26に指示されたリアクションデータ37を再生する(ステップS9)。この結果、図7Bに示すように、観客煽りに対する観客の反応として、画面3a内の観客31が右手を挙げる様子が画面3aに表示されるとともに、「イェーイ!」という観客の歓声が再生される。実際には、画面3aには、多くの観客が一斉に観客煽りに対して反応する様子が表示されるため、ユーザは、ライブ会場でのライブパフォーマンスを疑似的に体験することができる。観客煽りのやり方によっては、ライブ会場内の観客31の反応が大きく変化するため、ユーザは、実際にライブを行うシンガーと同様の緊張感を楽しむことが可能となる。
 {3.2.合唱の先導}
 ユーザは、ライブパフォーマンスとして、画面3a内の観客に対して、ユーザが歌っている楽曲の合唱を先導することができる。図8A及び図8Bは、ユーザが観客の合唱を先導する手順を示す図である。
 図8A及び図8Bは、図7Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図8A、図8Bにおいて、本体装置2及びコントローラ5の表示を省略している。
 本体装置2は、合唱を先導するライブパフォーマンスが行われたと判定する場合には、マイク4から送信される音声データ4A及び動き情報42Aを使用する。コントローラ5から送信される動き情報51Aは、合唱の先導の判定に用いられない。
 図8Aに示すように、楽曲データ35が再生されている間、画面3aには、ライブ会場の観客の映像と、再生されている楽曲の歌詞32とが表示されている。再生されている楽曲の中で観客の合唱が可能な部分(たとえば、楽曲のサビの部分)に対応する歌詞32が、図8Aに示すように、四角い枠で囲まれて表示される。これにより、ユーザは、合唱を先導するタイミングを知ることができる。
 本体装置2は、ライブパフォーマンスとして合唱の先導を特定する場合、ユーザが合唱を観客に呼び掛ける音声フレーズ(以下、「合唱フレーズ」と呼ぶ。)を先に検出する。ユーザは、マイク4をユーザ自身に向けながら、たとえば、「一緒に歌おう!」という合唱フレーズをマイク4に入力する。マイク4は、入力された合唱フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが合唱フレーズを呼び掛けたと判定する(ステップS6においてYes)。
 ユーザは、合唱フレーズをマイク4に入力した後に、マイク4を画面3aの方向(矢印45の方向)へ反転させる。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、合唱フレーズがマイク4に入力され、かつ、マイク4の向きが反転されたことから(ステップS7においてYes)、ユーザがライブパフォーマンスとして合唱を先導していると判定する。
 反応指示部26は、ユーザが行った合唱の先導に対する反応レベルを決定する。反応レベルの決定手順については、上記と同様であるため、その説明を省略する。
 反応指示部26は、観客が合唱をするリアクションデータ37,37,・・・のうち、決定した反応レベルに対応するリアクションデータ37の再生を指示する。リアクションデータ37の再生条件も再生部23に通知される。これにより、合唱する観客の数や合唱の音量は、反応レベルに応じて変化する。図8Bに示すように、ユーザが行った合唱の要求に対する反応として、画面3a内の観客31,31が肩を組んで合唱する様子が表示される。また、ユーザが合唱を先導した歌詞に対応する観客の歌声が、モニタ3から出力される。実際には、画面3aには、多くの観客が一斉に合唱をする様子が表示されるため、ユーザは、ライブ会場で、観客と一緒に歌を歌うというライブパフォーマンスを疑似的に体験することができる。
 観客の合唱は、ユーザがマイク4を動かさない限り継続される。ユーザは、観客の合唱を停止させる場合、マイク4を画面3aの方向からユーザ自身の方向へ反転させる。パフォーマンス特定部25は、リアクションデータ37の再生中にマイク4の向きが反転した場合、合唱を先導が終了したと判定する。これにより、楽曲データ35及び観客映像データ36の再生が再開される。
 {3.3.手拍子の先導}
 ユーザは、ライブパフォーマンスとして、画面3a内の観客31に対して手拍子を先導する動作を行うことができる。図9A及び図9Bは、ユーザが画面3a内の観客31,31に対して手拍子を先導する手順を示す図である。
 図9A及び図9Bは、図7Aと同様に、画面3a内の観客31の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図9A、図9Bにおいて、本体装置2の表示を省略している。本体装置2は、手拍子の先導を検出する場合、マイク4から送信される音声データ4A、動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
 図9Aに示すように、楽曲データ35が再生されている間、ユーザは、ライブパフォーマンスとして手拍子を先導することができる。本体装置2は、手拍子の先導を検出する場合、手拍子を先導する音声フレーズ(以下、「手拍子フレーズ」と呼ぶ。)を先に検出する(ステップS6においてYes)。
 具体的には、ユーザは、マイク4に手拍子フレーズを入力する。手拍子フレーズは、たとえば、「みんな、手拍子よろしく!!」などである。マイク4は、入力された手拍子フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対して、手拍子フレーズを呼び掛けたと判定する。
 ユーザは、手拍子フレーズをマイク4に入力した後に、手拍子を先導する動作を行う。図9Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ35)のリズムに合わせて手拍子をする。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、手拍子の動きを示す動き情報42A,51Aを本体装置2に送信する。
 パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、マイク4及びコントローラ5が左右に繰り返し動き、かつ、マイク4が動く方向とコントローラ5が動く方向とが反対方向である場合、パフォーマンス特定部25は、ユーザが手拍子の動作をしていると判断することができる(ステップS7においてYes)。つまり、パフォーマンス特定部25が、手拍子フレーズと、手拍子の動作とを検出することにより、ユーザが手拍子を先導していると判断する。
 反応指示部26は、手拍子フレーズを検出したタイミングと、手拍子の動きを検出したタイミングとに基づいて、観客の反応レベルを決定する(ステップS8)。反応レベルの決定手順は、基本的には、観客煽りの反応レベルの決定と同様である。また、反応指示部26は、動き情報42A,51Aを用いて、ユーザの手拍子のリズムを算出し、算出したリズムに基づいて、反応レベルを決定してもよい。たとえば、反応指示部26は、楽曲の演奏音のリズムとユーザの手拍子のリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
 反応指示部26は、観客が手拍子をするリアクションデータ37,37・・・のうち、決定した反応レベルに対応するリアクションデータ37の再生を指示する。リアクションデータ37の再生条件も、再生部23に通知される。これにより、楽曲データ35とともに、観客が手拍子をするリアクションデータ37が再生されることにより(ステップS9)、図9Bに示すように、画面3a内の観客31,31が頭上で手拍子をする映像が表示される。画面3aに表示する観客のうち、手拍子をする観客の割合は、反応レベルによって変化する。また、手拍子の音量も、反応レベルに基づいて決められた再生条件によって変化する。
 このように、ユーザが手拍子をする動きに合わせて、画面3a内の観客31,31が手拍子をする映像が表示されるため、ユーザは、ライブ会場で、観客と一体となって手拍子をするというライブパフォーマンスを疑似的に体験することができる。
 {3.4.ウェーブ(両手を大きく振る動作)の先導}
 ユーザは、ライブパフォーマンスとして、画面3a内の観客に対してウェーブを先導する動作を行うことができる。ウェーブとは、ライブ会場の観客が、ライブ中の楽曲に合わせて両手を左右に大きく振る動作である。図10A及び図10Bは、ユーザがウェーブを先導する手順を示す図である。
 図10A及び図10Bは、図9Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図10A、図10Bにおいて、本体装置2の表示を省略している。本体装置2は、ウェーブの先導を検出する場合、マイク4から送信される音声データ4A,動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
 図10Aに示すように、楽曲データ35が再生されている間、ユーザは、ライブパフォーマンスとしてウェーブを先導することができる。本体装置2は、ウェーブの先導を検出する場合、ウェーブを呼び掛ける音声フレーズ(以下、「ウェーブフレーズ」と呼ぶ。)を先に検出する。
 具体的には、ユーザは、ウェーブフレーズをマイク4に入力する。ウェーブフレーズは、たとえば、「みんな、両手を大きく振って!!」である。マイク4は、入力されたウェーブフレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してウェーブフレーズを呼び掛けたと判定する(ステップS6においてYes)。
 ユーザは、ウェーブフレーズをマイク4に入力した後に、ウェーブの動作を行う。図10Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ35)のリズムに合わせて、頭上で両手を大きく振る。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、ウェーブの動きを示す動き情報42A,51Aを本体装置2に送信する。
 パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、パフォーマンス特定部25が、マイク4及びコントローラ5が左右に繰り返し大きく動く動作を検出し、かつ、マイク4が動く方向と、コントローラ5が動く方向と一致する場合、ユーザがウェーブの動作をしていると判断する。
 反応指示部26は、ユーザがウェーブの先導をしていると判定した場合(ステップS7においてYes)、観客の反応レベルを決定する(ステップS8)。ユーザが両手を振るリズムに基づいて、反応レベルが決定される。たとえば、反応指示部26は、楽曲の演奏音のリズムと、ユーザのウェーブのリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
 反応指示部26は、観客がウェーブをするリアクションデータ37,37,・・・のうち、決定した反応レベルに対応するリアクションデータ37の再生を指示する。再生部23は、楽曲データ35とともに、観客がウェーブをするリアクションデータ37を再生する(ステップS9)。この結果、図10Bに示すように、画面3a内の観客31,31が頭上でウェーブをする映像が表示される。画面3aに表示する観客のうち、ウェーブをする観客の割合は、反応レベルによって変化する。
 ユーザは、ライブパフォーマンスとして手拍子またはウェーブを先導する場合、手拍子フレーズまたはウェーブフレーズを画面3a内の観客に対して呼びかけなくてもよい。たとえば、本体装置2は、手拍子フレーズを検出せず、ユーザが手拍子をする動作のみを検出した場合であっても、観客が手拍子をするリアクションデータ37を再生してもよい。
 ユーザは、コントローラ5を用いず、マイク4のみを用いて、手拍子またはウェーブを先導してもよい。パフォーマンス特定部25は、マイク4が繰り返し左右に動いている場合に、ユーザが手拍子またはウェーブを先導していると判定すればよい。このとき、手拍子とウェーブとの違いは、ユーザがマイク4を左右に動かす大きさに基づいて区別すればよい。
 {3.5.入場及び退場}
 ユーザは、ライブパフォーマンスとして、画面3aに表示されているライブ会場に疑似的に入場したり、退場したりすることができる。
 最初に、ユーザがライブ会場に疑似的に入場するケースについて説明する。図11は、ユーザがライブ会場に疑似的に入場する手順を示す図である。パフォーマンス特定部25は、動き情報42A,51Aに代えて、マイク4からの無線信号の有無に基づいてユーザの動きを検出する。
 ユーザは、楽曲データ35の再生が開始される前に、本体装置2が設置された部屋から出て待機する。このとき、本体装置2の無線通信部21は、マイク4から送信される無線信号を検出することができない。
 楽曲データ35の再生が開始された後に、ユーザは、マイク4を持って、カラオケシステム100が設置された部屋へ入る。無線通信部21は、ユーザが入室した場合、マイク4からの無線信号を検出することができる。パフォーマンス特定部25は、楽曲データ35の再生が開始された後に、マイク4からの無線信号を検出した場合、ユーザがライブ会場に入場したと判定する。
 ユーザがライブ会場に入場したと判定された場合、反応指示部26は、観客の反応レベルを決定する。反応指示部26は、マイク4からの無線信号を検出したタイミングに基づいて、観客の反応レベルを決定する。
 反応指示部26は、シンガーの入場時の観客の反応を示すリアクションデータ37の再生を、再生部23に指示する。このとき、リアクションデータ37の再生条件も、再生部23に指示される。再生部23は、ユーザの入場に合わせて、観客が大きく盛り上がる映像と、観客の歓声とが記録されたリアクションデータ37を再生する。観客の歓声の音量は、再生条件に応じて変更される。
 次に、ユーザのライブ会場からの退場について説明する。ユーザは、ライブ会場から疑似的に退場する場合、マイク4を持って部屋から退出する。無線通信部21がマイク4からの無線信号を検出することができなった場合、パフォーマンス特定部25は、ユーザがライブ会場から退出したと判定する。
 反応指示部26は、ユーザがライブ会場から退場したと判定された場合、観客の反応レベルを決定する。反応指示部26は、ユーザがライブ会場から退場したタイミングや、ユーザが退場するまでに行われたライブパフォーマンスの反応レベルに基づいて、退場時の反応レベルを決定する。反応レベルが高ければ、反応指示部26は、観客がアンコールを要求するリアクションデータ37の再生を再生部23に指示する。一方、反応レベルが低ければ、反応指示部26は、観客の歓声の音量を小さくするように再生部23に指示したり、観客がブーイングをするリアクションデータ37の再生を再生部23に指示したりすることができる。
 また、マイク4に、ユーザが入場及び退場したことを通知するスイッチを設けてもよい。この場合、入場スイッチが押された場合、マイク4は、入場信号を本体装置2に送信する。退場スイッチが押された場合、マイク4は、退場信号を本体装置2に送信する。本体装置2は、入場信号及び退場信号の受信に応じて、観客の反応を変化させる。これにより、ユーザは、本体装置2が設置された部屋から出入りしなくてもよい。
 このように、ユーザは、歌を歌い出す前、あるいは、歌を歌い終わった後であっても、ライブの臨場感を疑似的に体験することが可能となる。
 {3.6.その他のライブパフォーマンス}
 ユーザは、上述したライブパフォーマンスの他に、様々なライブパフォーマンスを行うことができる。
 たとえば、ユーザは、コントローラ5を持つ左手を大きく回しながら、右手にマイク4を持って歌ってもよい。この場合、コントローラ5は、コントローラ5が回転する動きを示す動き情報51Aを、本体装置2に送信する。パフォーマンス特定部25は、動き情報51Aに基づいて、ユーザの左手の動きを特定する。この場合、ユーザの動きに合わせて観客が左手を回す映像が記録されたリアクションデータが、楽曲データ35とともに再生される。
 ユーザは、上述のライブパフォーマンスを組み合わせたパフォーマンスを行ってもよい。たとえば、ユーザは、ライブパフォーマンスとして、合唱の先導とウェーブの先導とを同時に行ってもよい。ユーザは、合唱フレーズをマイク4に入力した後に、図10Bに示すウェーブの動作を行う。パフォーマンス特定部25は、検出した合唱フレーズに基づいて、ユーザが合唱を先導していると判定し、検出したユーザの両手の動きに基づいてウェーブを先導していると判定する。この結果、画面3aには、観客がウェーブをする映像が表示される。また、再生中の楽曲の演奏音と、観客が合唱する歌声とが、同時にモニタ3から出力される。
 {4.ライブパフォーマンス以外の機能}
 {4.1.観客指定機能}
 ユーザは、カラオケシステム100を用いてカラオケをする場合、ライブ会場の観客の客層を指定することができる。ユーザは、設定した客層に応じたライブパフォーマンスを行う必要がある。
 図12は、ライブの客層を設定する設定画面を示す図である。ユーザは、図示しないリモコンを操作して、観客の客層を性別、年齢に基づいて設定する。性別設定では、ユーザは、男性主体、女性主体、及び中間のいずれかを指定する。男性主体は、観客の男性の比率が、80%に設定されることを示す。女性主体は、観客の女性の比率が、80%に設定されることを示す。中間とは、観客の男性の比率と女性との比率が50%ずつであることを示す。年齢設定では、ユーザは、15~25歳、25~45歳、及び45歳以上のいずれかから選択する。年齢設定により、ユーザが選択した年齢層の観客の比率が、70%に設定される。この結果、楽曲データ35とともに、設定された客層に応じた観客映像データ36が再生される。
 客層が設定された場合、観客の反応レベルは、ユーザが選択した楽曲や、ユーザが行うライブパフォーマンスに応じて変化する。このため、ユーザは、観客の客層を意識して、ライブパフォーマンスを行う必要がある。たとえば、ユーザは、45歳以上で女性主体の客層を指定した場合、比較的ゆっくりとしたテンポの楽曲を選択し、観客に対して激しい動きを要求しないライブパフォーマンス(ウェーブ先導など)を行うことによって、反応レベルを上げることができる。一方、同様の客層でハードロック系の楽曲を先導し、ライブパフォーマンスとして観客煽りを繰り返し行った場合、観客の反応レベルは低くなる。このように、観客の客層を設定することにより、ユーザは、様々な観客を対象にしたライブを疑似的に経験することができる。
 {4.2.対戦モード}
 カラオケシステム100は、複数のユーザがライブパフォーマンスの出来を競い合う対戦モードを実行することができる。以下、対戦モードの実行時における、本体装置2の動作について説明する。
 対戦モードでは、二人のユーザが交互にライブパフォーマンスを行う。ここでは、歌詞が3番まである楽曲を用いて、対戦が行われるケースを説明する。最初に、第1のユーザが、ライブパフォーマンスを行いながら、楽曲の1番を歌う。次に、第2のユーザがライブパフォーマンスを行いながら、楽曲の2番を歌う。このとき、第1のユーザ及び第2のユーザは、マイク4及びコントローラ5を共用する。しかし、複数のマイク4及びコントローラ5を、対戦モードを行う人数分用意してもよい。
 各ユーザが行うライブパフォーマンスは、本体装置2により採点される。第1のユーザ及び第2のユーザのうち、得点の高いユーザが、演奏中の楽曲の3番を歌うことができる。
 ライブパフォーマンスの採点方法について説明する。上述したように、本体装置2は、ユーザが行ったライブパフォーマンスを行うたびに反応レベルを決定している。本体装置2は、第1のユーザがライブパフォーマンスを行うたびに、決定した反応レベルに基づいて各パフォーマンスを採点する。第1ユーザが行ったライブパフォーマンスごとの点数の総和が、第1ユーザの得点として算出される。第2ユーザの得点も、同様に算出される。
 第2のユーザがライブパフォーマンスを終了した後に、各ユーザの得点が画面3aに表示される。勝者となったユーザが、楽曲の3番でライブパフォーマンスを行うことができる。このように、対戦モードを設けることにより、複数のユーザがライブパフォーマンスを競い合うという新たなカラオケシステムを提供することができる。
 {5.変形例}
 マイク4及びコントローラ5は、バイブレーション機能を備えていてもよい。たとえば、本体装置2の反応指示部26は、観客の反応レベルが一定のレベルを超えた場合、マイク4及びコントローラ5に振動指示信号を送信する。マイク4及びコントローラ5は、振動指示信号を受信した場合、一定の時間(3秒程度)、自装置を振動させる。これにより、ユーザは、画面3a内の観客の映像だけでなく、マイク4及びコントローラ5を介して観客の反応を知ることができる。
 本体装置2は、ライブ会場の選択機能を設けてもよい。この場合、ユーザは、図示しないリモコンを操作することにより、アリーナ、野球場、及びコンサートホールなどをライブ会場として選択することができる。本体装置2は、選択された会場に応じた観客映像データを再生する。これにより、ユーザは、ライブのシンガーとして、様々なライブ会場でのライブパフォーマンスを疑似的に経験することができる。
 図2に示すように、本体装置2が音声認識部24を備える例を説明したが、マイク4が音声認識部24を備えていてもよい。マイク4は、フレーズ情報24Aが音声認識部24により生成されるたびに、生成されたフレーズ情報24をリアルタイムに本体装置2に送信する。
 リアクションデータ37が、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである例を説明した。しかし、リアクションデータ37は、聴衆の反応を示す音声のみが記録されたデータであってもよい。たとえば、観客煽りに対する観客の歓声や、手拍子の先導に対する手拍子、聴衆のブーイングなどが記録されたデータを、リアクションデータ37として用いることができる。
 リアクションデータ37は、上述のような、ライブパフォーマンスに対する観客の動作を具体的に示すデータでなく、観客の反応を象徴的に示すデータであってもよい。たとえば、リアクションデータ37として、ライブ会場から複数の打ち上げ花火が上がる映像が記録されたデータを用いることができる。反応指示部26が反応レベルに応じて打ち上げ花火の数を変更することにより、ユーザは、ライブパフォーマンスに対する観客の反応を知ることができる。あるいは、反応指示部26は、反応レベルが低いときのリアクションデータ37として、観客のいないライブ会場の映像が記録されたデータや、荒れ狂う海が記録されたデータを選択してもよい。
 [第2の実施の形態]
 以下、本発明の第2の実施の形態について説明する。
 {1.カラオケシステム200の全体構成}
 図13は、カラオケシステム200の全体図である。図13に示すように、カラオケシステム200は、本体装置6と、モニタ7と、マイク8と、リモートコントローラ9とを備える。
 本体装置6は、カラオケシステム200の全体制御を行う処理装置である。本体装置6は、ユーザが選択した楽曲データを再生するとともに、仮想的なライブの映像を出力する。
 モニタ7は、液晶ディスプレイなどであり、本体装置6から出力される仮想的なライブの映像を表示する。つまり、モニタの画面7aには、大勢の観客が入場したライブ会場の様子が記録された映像が表示される。モニタ7は、図示しないスピーカを備えており、本体装置6により再生される楽曲データを音声として出力する。
 マイク8は、ユーザが歌を歌うときに音声を入力する音声入力装置である。マイク8は、ユーザが入力する音声を音声データとして本体装置6に出力する。
 リモートコントローラ9は、ユーザがカラオケで楽曲を選択するときに用いる装置である。リモートコントローラ9は、楽曲データが再生されているときに、仮想的なライブの演出を指示する演出指示装置として機能する。リモートコントローラ9を演出指示装置として用いる場合、マイク8を持つユーザとは別のユーザが、リモートコントローラ9を操作する。
 図14は、カラオケシステム200におけるマイク8及びリモートコントローラ9の使用方法を示す図である。図14では、本体装置6の表示を省略している。ユーザ11は、マイク8を持って、本体装置6により再生される楽曲に合わせて歌を歌う。画面7aには、仮想的なライブ会場でライブを行うキャラクタとして、ボーカル75とギタリスト76とが表示される。マイク8を持つユーザ11は、仮想的なライブにおいて、ボーカル75を担当する。
 ユーザ12は、リモートコントローラ9を操作して、仮想的なライブの演出を行う。つまり、ユーザ12は、ライブの演出担当者として、画面7aに表示される仮想的なライブの映像や音声を変化させる。ユーザ12は、歌を歌わないときであっても、ユーザ11とともに仮想的なライブを盛り上げることができる。このように、ユーザ11,12は、歌を歌うシンガーや演出担当者など、ライブにおける様々な役割を担当して仮想的なライブを盛り上げることができるため、カラオケを一緒に楽しむことができる。
 図15は、本体装置6の機能的構成を示すブロック図である。図15に示すように、本体装置6は、無線通信部61と、データ取得部62と、記憶部63と、ライブデータ作成部64と、再生部65と、演出評価部66と、演出インタフェース作成部67とを備える。
 無線通信部61は、マイク8及びリモートコントローラ9と無線通信を行う。無線通信部61は、マイク8が生成した音声データ8Aを受信する。無線通信部61は、リモートコントローラ9が生成した音声データ9A及び演出指示情報74を受信する。無線通信には、Bluetooth(登録商標)、無線LAN、赤外線通信などを利用することができる。
 データ取得部62は、ユーザが選択した楽曲に対応する楽曲データ71を図示しない楽曲サーバから取得する。楽曲データ71は、ユーザが選択した楽曲の演奏音を記録したデータである。
 記憶部63は、ハードディスク装置などであり、楽曲データ71と、会場データ72とを記憶する。会場データ72は、仮想的なライブの映像及び音声が記録されたライブデータ73を作成する際に用いられる。会場データ72は、ボーカル75、ギタリスト76、ライブ会場の入場者などのオブジェクトデータを含む。会場データ72は、ライブ会場の構造を示すデータとして、ステージや客席などの位置関係を示すデータを含む。
 ライブデータ作成部64は、マイク8から入力される音声データ8Aと、楽曲データ71と、会場データ72とを用いて、仮想的なライブ会場で行われるライブの映像及び音声が記録されたライブデータ73を作成する。ライブの映像は、ライブ会場のステージだけでなく、入場者や、ライブ会場全体の様子を示す映像を含む。ライブの音声は、楽曲データ71の再生音及びユーザ11の音声だけでなく、入場者の歓声、ユーザ12に操作に基づく演出音などを含む。
 ライブデータ作成部64は、リモートコントローラ9から送信される演出指示情報74に基づいて、ライブデータ73の作成条件を変更する。演出指示情報74は、仮想的なライブにおける演出内容を指示した情報であり、リモートコントローラ9から送信される。
 再生部65は、ライブデータ73を再生して、ライブの映像及び音声をモニタ7に出力する。
 演出評価部66は、演出指示情報74に基づいて、ライブの演出に対する評価を行う。演出評価部66は、評価結果に基づいて、ライブの演出に対して反応する入場者の様子を示すライブデータ73の作成を指示する。評価結果に基づいて、入場者が大きな歓声を上げたり、入場者がブーイングをしたりするライブデータ73が作成される。
 演出インタフェース作成部67は、ユーザ12が選択した演出方法に応じた演出インタフェースを作成する。演出インタフェースは、リモートコントローラ9のタッチパネル式ディプレイ94(図16参照)に表示される。
 図16は、リモートコントローラ9の機能的構成を示すブロック図である。図16に示すように、リモートコントローラ9は、音声入力部91と、センサ部92と、無線通信部93と、タッチパネル式ディプレイ94と、演出内容指示部95とを備える。
 音声入力部91は、ユーザが発する音声を入力して電気信号に変換し、音声データ9Aを出力する。センサ部92は、リモートコントローラ9の動きの変化を検出する加速度センサを備えており、リモートコントローラ9の動きを示す動き情報92Aを出力する。センサ部92は、加速度センサの他に、地磁気センサやジャイロスコープなどを備えていてもよい。
 無線通信部93は、本体装置6と無線通信を行い、音声データ9A及び演出指示情報74を本体装置6に送信する。タッチパネル式ディプレイ94は、演出インタフェースを表示する。ユーザ12は、タッチパネル式ディプレイ94に表示された演出インタフェースを利用して、仮想的なライブに対する演出を指示する。
 演出内容指示部95は、本体装置6から送信される演出インタフェースをタッチパネル式ディスプレイ94に表示させる。演出内容指示部95は、ユーザ12による演出インタフェースの操作に基づいて、演出指示情報74を作成して本体装置6に送信する。演出インタフェースの詳細は、後述する。
 {2.演出処理の概要}
 以下、ユーザ12によるリモートコントローラ9の操作に応じて、仮想的なライブの演出が行われる処理について、本体装置6の動作を中心に説明する。図17は、本体装置6の動作を示すフローチャートである。
 最初に、ユーザ11が、リモートコントローラ9を操作して、カラオケで歌いたい楽曲データ71を選択する。データ取得部62は、選択された楽曲データ71を楽曲サーバ(図示省略)から取得する(ステップS21)。データ取得部62は、取得した楽曲データ71を記憶部63に格納する。会場データ72は、記憶部63に予め格納されている。
 ライブデータ作成部64は、楽曲データ71と会場データ72とを用いて、ライブデータ73の作成を開始する(ステップS22)。具体的には、ライブデータ作成部64は、会場データ71を用いて、仮想的なライブ会場の映像が記録された映像データを作成する。ライブデータ作成部64は、作成した映像データと、楽曲データ71とを含むデータを、ライブデータ63として再生部65に出力する。
 本体装置6がマイク8から音声データ8Aを受信した場合、ライブデータ作成部64は、音声データ8Aを含むライブデータ63を作成する。これにより、ユーザ11の歌が、モニタ7から出力される。ライブデータ作成部64は、楽曲データ71の前奏や、サビが再生されるタイミングに合わせて、入場者の歓声などが記録された音声データをライブデータ73に含めてもよい。
 再生部65は、ライブデータ作成部64が作成したライブデータ73の再生を開始する(ステップS23)。ライブデータ73が再生されることにより、仮想的なライブの映像が画面7aに表示され、楽曲データ71の再生音がモニタ7のスピーカから出力される。
 本体装置6は、楽曲データ71の再生が終了するまで(ステップS24においてYes)、ステップS25~ステップS28の処理を繰り返し実行する。図14に示すように、楽曲データ71が再生されている間、ユーザ11は、マイク8を持って歌を歌う。ユーザ12は、リモートコントローラ9を操作して、仮想的なライブの演出を行う。リモートコントローラ9は、ユーザ12の操作に応じた演出指示情報74を作成し、リアルタイムに本体装置6に送信する。
 本体装置6が演出指示情報74を受信した場合(ステップS25においてYes)、ライブデータ作成部64は、演出指示情報74に基づいて、ライブデータ73の作成条件を変更する(ステップS26)。ライブデータ作成部64は、演出指示情報74に基づいて変更した作成条件に基づいて、ライブデータ73を作成する(ステップS27)。たとえば、演出指示情報74が、花火の打ち上げを指示する情報であった場合、ライブデータ73は、ライブ会場に花火が打ち上げられる様子を示す映像を作成する。ユーザ12が仮想的なライブにおいて演出できる内容の詳細は、後述する。
 演出評価部66は、演出指示情報74が入力されたタイミング、及び演出指示情報74により指示された演出の内容などに基づいて、演出に対する評価を行う(ステップS28)。たとえば、楽曲データ71のサビの部分が再生されているときに、花火が打ち上げられた場合、演出評価部66は、入場者を盛り上げることができたと判断して、ユーザ12の演出に対して高い点数を付与する。
 ライブデータ73の再生が終了した(楽曲データ71の再生が終了した)場合(ステップS24においてYes)、演出評価部66は、ユーザ12の演出に対して付与された点数を合計する(ステップS29)。演出評価部66は、点数の合計値に基づいて、入場者の反応を示すライブデータ73の作成を指示する。ライブデータ作成部64により作成されたライブデータ73が、再生部65により再生される(ステップS30)。
 図18は、入場者の反応を示すライブデータ73が再生されたときのモニタ7の映像を示す図である。合計値が予め設定されたしきい値よりも高ければ、図18に示すように、入場者全員が拍手をする映像が、画面7aに表示され、入場者の歓声が、モニタ7のスピーカから出力される。総得点が低ければ、入場者がブーイングをする映像及び音声が、モニタ7から出力される。
 これにより、ユーザ12は、仮想的なライブの演出に対する評価を知ることができる。ユーザ12の演出に対する評価がライブ会場の入場者の反応として示されるため、ユーザ12は、実際のライブの演出を行うときのような緊張感を持ちながら、リモートコントローラ9を操作することができる。
 演出評価部66は、ユーザ12の演出に対する評価を行うたびに、評価結果に応じたライブデータ73の生成をライブデータ作成部64に指示してもよい。この場合、ライブデータ作成部64は、演出指示情報74に対応するライブデータ73を作成した後に、演出評価部66が付与した点数に対応するライブデータ73(入場者の反応を示すデータ)を作成する。ユーザ12がライブの演出を指示するたびに、ライブの演出に対する入場者の反応が、モニタ7から出力される。したがって、ユーザ12は、リモートコントローラ9を操作するたびに、仮想的なライブに対する演出の評価を知ることができる。
 {3.演出の具体例}
 以下、ユーザ12がリモートコントローラ9を操作することにより、仮想的なライブで行うことができる演出の具体例として、楽曲紹介、ミキサ操作、花火打ち上げ、照明指示について説明する。
 {3.1.楽曲紹介}
 楽曲紹介は、ユーザ12がライブの司会者として、ユーザ11が歌う楽曲を紹介する演出方法である。
 楽曲紹介が行われる手順について、詳しく説明する。ユーザ12は、リモートコントローラ9を操作して、演出方法の選択画面(図示省略)をタッチパネル式ディスプレイ94に表示させる。ユーザ12が「楽曲紹介」を選択することにより、楽曲紹介用の演出インタフェースが、タッチパネル式ディスプレイ94に表示される。
 図19は、楽曲紹介用の演出インタフェース271が表示されたリモートコントローラ9を示す図である。ユーザ12が楽曲紹介を選択した場合、演出内容指示部95は、演出インタフェース271の表示を本体装置6に要求する。演出インタフェース作成部67は、演出内容指示部95の要求に応じて、演出インタフェース271を作成してリモートコントローラ9に送信する。これにより、図19に示すように、演出インタフェース271が、タッチパネル式ディスプレイ94に表示される。
 演出インタフェース271には、ユーザ12が楽曲紹介をするための原稿データ271Aが表示される。演出インタフェース作成部67には、様々なパターンの原稿データ271A,271A・・・が設定されている。演出インタフェース作成部67は、ユーザ11が選択した楽曲データ71の前奏の長さや、楽曲データ71のジャンルなどに基づいて原稿データ271Aを選択する。選択された原稿データ271Aに基づいて、演出インタフェース271の画面データが作成される。
 ユーザ11により選択された楽曲データ71の再生が開始された場合、ライブデータ作成部64は、図14に示すように、ステージに立つボーカル75やギタリスト76などのキャラクタの映像が記録されたライブデータ73を作成する。このとき、ライブデータ作成部64は、ボーカル75などとともに、ユーザ12に対応する司会者の映像が記録されたライブデータ73を作成してもよい。
 ユーザ12は、楽曲データ71の前奏の再生が終了するまでに、演出インタフェース271に表示された原稿データ271Aを音読することにより、ユーザ11が歌う楽曲を紹介する。
 具体的には、音声入力部91は、ユーザ12の音声を入力して音声データ9Aを生成する。演出内容指示部95は、音声データ9Aを、演出指示情報74としてリアルタイムに本体装置6へ送信する。ライブデータ作成部64は、音声データ9Aを含むライブデータ73を作成して再生部65に出力する。これにより、楽曲紹介の音声が、モニタ7のスピーカから出力される。ユーザ12は、演出インタフェース271に表示された原稿データ271Aを読み終わった場合(楽曲紹介が終了した場合)、終了ボタン271Bにタッチする。これにより、演出内容指示部95は、楽曲紹介が終了したことを示す演出指示情報74(紹介終了通知)を、本体装置6に送信する。
 演出評価部66は、紹介終了通知に基づいてユーザ12が行った楽曲紹介を評価する。具体的には、演出評価部66は、前奏が終了するタイミング(ユーザ11が歌い出す直前)に、楽曲紹介が終了した場合、ユーザ12が行った楽曲紹介に対して高い点数を付与する。このとき、演出評価部66は、楽曲紹介が終了したタイミングと、前奏が終了したタイミングとの差が小さいほど、楽曲紹介に対して付与する点数を高くしてもよい。前奏が終了するまでに楽曲紹介が終了しない場合、演出評価部66は、楽曲紹介に対して点数を付与しない。
 ライブデータ作成部64は、付与された点数に基づいて、ライブ会場の入場者の反応を示すライブデータ73を作成する。たとえば、点数が高い場合、ライブデータ作成部64は、図18に示すように、入場者全員が拍手する映像が記録されたライブデータ73を作成する。
 演出評価部66は、ユーザ12が原稿を誤ることなく読めたかどうかを判定することにより、楽曲紹介を評価してもよい。たとえば、演出評価部66は、音声データ9Aに対して音声認識処理を行うことにより、ユーザ12が音声入力部91に入力したフレーズを特定する。演出評価部66は、特定したフレーズと、演出インタフェース271に表示された原稿データ271Aとを比較することにより、原稿の読み誤りがあるか否かを判定することができる。
 演出評価部66は、ユーザ12が原稿を読むリズムに基づいて、ユーザ12が行う楽曲紹介を評価してもよい。この場合、演出評価部66は、音声データ9Aに基づいて、ユーザ12が原稿を読むリズムを検出する。前奏のリズムと、原稿を読むリズムとのずれが小さい場合、演出評価部66は、楽曲紹介に対して高い点数を付与してもよい。
 このように、ユーザ12は、司会者としてライブの演出を行うことにより、カラオケで歌を歌わなくても、ライブの緊張感を疑似的に体験することができる。
 {3.2.ミキサ操作}
 ミキサ操作は、楽曲データ71の再生条件を変更したり、マイク8のオン、オフを切り替えたりすることにより、ライブで演奏される楽曲の出力条件を調整する演出方法である。ユーザ12は、タッチパネル式ディスプレイ94に表示される仮想的なミキサを操作することにより、ライブの演出を行う。
 図20は、ミキサ操作に対応する演出インタフェース272が表示されたリモートコントローラ9を示す図である。ユーザ12は、リモートコントローラ9を操作して、「ミキサ操作」を選択する。演出内容指示部95は、ユーザ12の選択に応じて、ミキサ操作用の演出インタフェース272の表示を本体装置6に要求する。演出インタフェース作成部67は、ミキサ操作に用いる演出インタフェース272を作成して、リモートコントローラ9に送信する。これにより、図20に示す演出インタフェース272が、リモートコントローラ9に表示される。
 図21は、楽曲データ71の構成を示す図である。図21に示すように、楽曲データ71は、ギター、ベース、キーボード、及びバックコーラスの各パートに対応したパートデータ71a~71dにより構成される。ユーザ12は、演出インタフェース272を操作して、パートデータ71a~71dの音量を調整することができる。
 図20に示すように、演出インタフェース272には、マイク8及び各パートに対応する音量コントローラ272a,272a,・・・と、ミュートボタン272b,272b,・・・と、ミュート解除ボタン272c,272c,・・・とが表示される。音量コントローラ272aは、マイク8または各パートの音量を調節するためのインタフェースである。ミュートボタン272bは、マイク8または各パートをミュートにするためのインタフェースである。ミュート解除ボタン272cは、マイク8または各パートのミュートを解除するためのインタフェースである。図20では、マイク8または各パートにおいて、ミュートが指示された場合、ミュートボタン272bがハッチングで表示される。ミュートの解除が指示された場合、ミュート解除ボタン272cがハッチングで表示される。
 演出内容指示部95は、ユーザ12による演出インタフェース272の操作に応じた演出指示情報74を作成し、本体装置6にリアルタイムに送信する。ミキサ操作に対応する演出指示情報74は、音量調節の対象となるパートを指定する情報と、指定されたパートの音量を指示する情報とを含む。ライブデータ作成部64は、ミキサ操作に対応する演出指示情報74に基づいて、マイク8またはパートデータ71a~71dの音量を調節したライブデータ73を作成する。
 たとえば、ユーザ12は、演出インタフェース272を用いて、マイク8の音量を調節することができる。楽曲データ71の再生が開始されるとき、ユーザ12は、マイク8に対応するミュートボタン272bにタッチする。マイク8のミュートを指示する演出指示情報74が、本体装置6に送信される。ライブデータ作成部64は、マイク8のミュートが指示された場合、マイク8から送信される音声データ8A(図15参照)を、ライブデータ73に含めない。ユーザ11がマイク8に音声を入力したとしても、ユーザ11の音声は、モニタ7から出力されない。
 ユーザ12は、楽曲データ71の前奏が終了するタイミングで、マイク8に対応するミュート解除ボタン272cにタッチする。マイク8のミュートの解除を指示する演出指示情報74が、本体装置6に送信される。ライブデータ作成部64は、音声データ8Aを含むライブデータ73を作成する。これにより、ユーザ11の歌声が、モニタ7から出力される。
 ユーザ12は、ギターのソロ演奏が行われるときに、ミキサ操作を行ってもよい。たとえば、ライブデータ作成部64は、ギターのソロ演奏の開始タイミングと終了タイミングとを示すメッセージを付加した映像を作成することにより、ギターのソロ演奏の開始タイミングと終了タイミングとをユーザ12に通知する。
 ユーザ12は、ソロ演奏が開始されるタイミングで、マイク4と、ギターを除く他のパートとに対応するミュートボタン272bにタッチする。ユーザ12は、ギターの音量が大きくなるように、音量コントローラ272aをスライドさせることにより、パートデータ71aの音量を大きくしてもよい。ギターソロが終了するタイミングで、ユーザ12は、マイク8と、ギターを除く各パートとに対応するミュート解除ボタン272cにタッチする。これにより、通常の演奏を再開させることができる。
 演出評価部66は、演出指示情報74により指示される音量調節の内容や、音量調節が指示されたタイミングなどに基づいて、ミキサ操作の演出に対する評価を行う。たとえば、上述のように、ユーザ12が、前奏が終了するタイミングでマイク8のミュートを解除した場合、ミキサ操作に対して付与される点数が高くなる。このとき、演出評価部66は、前奏が終了するタイミングと、マイク8のミュートが解除されたタイミングとの時間差が小さいほど、付与する点数を高くすればよい。前奏が終了してもマイク8のミュートが解除されない場合、ユーザ11の歌声が、仮想的なライブ会場に流れないため、付与される点数が低くなる。
 また、ユーザ12は、各パートの音量を適切なレベルに調節することにより、ハウリングがライブ会場で発生することを防止することができる。音量コントローラ272a,272a,・・・の全ての音量レベルが所定レベル(たとえば、2以上)となった場合、ライブデータ作成部64は、ハウリングの音声を含むライブデータ73を作成する。この場合、演出評価部66は、ユーザ12がミキサの操作を誤ったと判断して、ミキサ操作に付与された点数を減点する。
 図20では、各パートとマイク8の音量調節機能のみを有する演出インタフェース272を示している。しかし、一般に用いられるオーディオミキサのように、演出インタフェース272は、各パートデータの再生時の周波数特性を変更するイコライザ機能などを有していてもよい。
 このように、マイク8や、楽曲の各パートの音量調節をリアルタイムで行うことができる。したがって、ユーザ12は、仮想的なライブの音響担当者としてリモートコントローラ9を操作することにより、ユーザ11と一緒にカラオケを楽しむことができる。
 {3.3.花火の打ち上げ}
 花火の打ち上げは、楽曲データ71の再生中に仮想的なライブ会場に花火を打ち上げる演出方法である。ユーザ12は、花火打ち上げ用の演出インタフェースを操作することにより、ライブ会場で打ち上げられる花火の種類と、花火の打ち上げタイミングとを指示することができる。
 図22は、花火打ち上げ用の演出インタフェース273が表示されたリモートコントローラ9を示す図である。演出内容指示部95は、ユーザ12の選択に応じて、花火の打ち上げ制御用の演出インタフェース273の表示を本体装置6に要求する。演出インタフェース作成部67は、演出インタフェース273を作成して、リモートコントローラ9に送信する。これにより、図22に示す演出インタフェース273が、リモートコントローラ9に表示される。
 ユーザ12は、楽曲データ71が再生されているときに、演出インタフェース273を操作して、打ち上げる花火の選択と、選択した花火の打ち上げとを指示することができる。具体的には、ユーザ12は、演出インタフェース273に表示された花火273a~273cのいずれかにタッチして、打ち上げる花火を選択する。図22に示す演出インタフェース273では、花火273bが選択されている。ユーザ12は、打ち上げボタン273dにタッチすることにより、選択された花火273bの打ち上げを指示する。
 図23は、ライブ会場に花火が打ち上げられる様子を示す図である。打ち上げボタン273dがタッチされた場合、演出内容指示部95は、選択された花火273bの打ち上げを指示する演出指示情報74を本体装置6に送信する。ライブデータ作成部64は、受信した演出指示情報74に基づいて、ステージの背後に花火273bが打ち上げられる映像と、花火の爆発音とを含むライブデータ73を作成する。図23に示すように、モニタ7の画面7aには、ライブ会場のステージの背後に、花火が打ち上げられる映像が表示される。
 ユーザ12は、上述の操作を繰り返すことにより、ステージの背後に連続的に花火を打ち上げることができる。ユーザ12は、花火273a,273bの両者を選択して、打ち上げ指示ボタン273dにタッチしてもよい。この場合、ライブデータ作成部64は、花火273a,273bが同時に打ち上げられる映像を含むライブデータ73を作成する。
 演出評価部66は、花火の打ち上げを指示する演出指示情報74に基づいて、花火の打ち上げに対する評価を行う。つまり、花火を打ち上げるタイミングや、打ち上げた花火の数などに基づいて、花火の打ち上げに対する採点が行われる。楽曲のサビの演奏が開始されるタイミングや、楽曲データ71の再生が終了するタイミングに、花火の打ち上げが指示された場合、演出評価部66は、花火の打ち上げの演出に対して、高い点数を付与する。
 {3.4.照明の演出(その1)}
 ユーザ12は、ライブ会場の照明担当者となって、仮想的なライブの演出を行うことができる。つまり、ユーザ12は、リモートコントローラ9を操作して、ライブ会場の様々な場所に照明をあてることができる。
 図24は、照明指示用の演出インタフェース274が表示されたリモートコントローラ9を示す図である。ユーザ12は、リモートコントローラ9を操作して、「照明指示」を選択する。演出内容指示部95は、ユーザ12の選択に応じて、照明指示用の演出インタフェース274の表示を本体装置6に要求する。演出インタフェース作成部67は、演出インタフェース274を作成して、リモートコントローラ9に送信する。これにより、図24に示すように、演出インタフェース274が、リモートコントローラ9に表示される。
 演出インタフェース274は、映像表示欄274aと、照明指示欄274bとを備える。映像表示欄274aは、ライブ会場のステージの様子を示す映像データ274cを表示する。照明指示欄274bは、照明のオン、オフを指示するボタンを表示する。モニタ7は、映像データ274cと同じ映像を表示する。ユーザ12は、演出インタフェース274を操作することにより、ステージに立つボーカル75や、ギタリスト76に照明をあてることができる。
 図25は、照明をあてる対象が選択された演出用インタフェース274を示す図である。ボーカル75に照明をあてる場合、ユーザ12は、映像表示欄274aに表示されたボーカル75にタッチする。演出内容指示部95は、照明をあてる対象として、映像表示欄274aに表示されたボーカル75をハッチングで表示する。
 次に、ユーザ12は、照明指示欄274bの「ON」にタッチすることにより、ボーカル75に照明をあてることを指示する。演出内容指示部95は、ボーカル75に照明をあてることを指示する演出指示情報74を作成して、本体装置6に送信する。ライブデータ作成部64は、演出指示情報74に基づいて、ボーカル75に照明が当たる映像を含むライブデータ73を作成する。
 本体装置6は、作成されたライブデータ73を、映像データ274cとしてリモートコントローラ9に送信する。図24に示すように、ボーカル75に照明があたる様子を示す映像データ274cが、映像表示欄274aに表示される。再生部65がライブデータ73を再生することにより、モニタ7は、図24に示す映像データ274cと同じ映像を表示する。
 ユーザ12は、照明をあてる対象を変更することができる。たとえば、楽曲データ71の再生中に、ギターのソロ演奏が行われる場合、照明の対象をギタリスト76に変更することができる。ユーザ12は、映像表示欄274aに表示されたボーカル75を選択して、照明指示欄274bの「OFF」をタッチする。次に、ユーザ12は、映像表示欄274aに表示されたギタリスト76を選択して、照明指示欄274bの「ON」をタッチする。これにより、照明がボーカル75からギタリスト76に切り替わる。
 また、ユーザ12は、ボーカル75及びギタリスト76の両者を選択して、照明指示欄274bの「ON」をタッチしてもよい。この場合、ボーカル75及びギタリスト76の両者に照明があたる映像データ274cが、映像表示欄274aに表示される。
 演出評価部66は、演出指示情報74の内容や、演出指示情報74を受信したタイミングに基づいて、照明の演出に対する評価を行う。たとえば、楽曲のサビが再生されるタイミングで、ボーカル75だけに照明が当てられた場合、照明の演出に対して高い点数が付与される。同様に、ギターのソロ演奏が行われるタイミングで、ギタリスト76だけに照明をあてることにより、照明の演出に対して高い点数が付与される。サビが再生されるタイミングで、ボーカル75ではなく、ギタリスト76に照明が当てられた場合、演出評価部66は、照明の演出に対して点数を付与しない。あるいは、演出評価部66は、付与された点数を減点してもよい。
 {3.5.照明の演出(その2)}
 ユーザ12は、リモートコントローラ9を動かすことにより、照明をあてる照射方向を指定してもよい。ユーザ12は、ステージだけでなく、ライブ会場の入場者に照明をあてることが可能となる。この場合、照明方向が、センサ部92から出力される動き情報92A(図16参照)に基づいて、決定される。
 図26は、照明方向を決定するときのリモートコントローラ9の操作方法を説明する図である。図26では、リモートコントローラ9を持つユーザ12の表示を省略している。楽曲データ71の再生が開始される前に、ユーザ12は、リモートコントローラ9の基準方向を決定する。具体的には、図26に示すように、ユーザ12は、タッチパネル式ディスプレイ94をユーザ12に向け、かつ、リモートコントローラ9の背面をモニタ7の方向(矢印274dの方向)に向ける。演出内容指示部95は、矢印274dの方向を、リモートコントローラ9の基準方向に設定する。基準方向を示す情報が、演出指示情報74として本体装置6に送信される。リモートコントローラ9の基準位置は、客席の最前列に対応すると仮定する。
 ユーザ12は、楽曲データ71が再生されている間、リモートコントローラ9の向きを矢印274e,274eの方向に変えることにより、照射方向を指定する。演出内容指示部95は、センサ部92から出力される動き情報92Aを、演出指示情報74としてリアルタイムに本体装置6に送信する。
 ライブデータ作成部64は、リモートコントローラ9の基準位置、基準方向、及び動き情報92Aに基づいて、照射方向を決定する。ライブデータ作成部64は、基準位置から照射方向を見たときのライブ会場の様子を示す映像データ274cを作成する。本体装置6は、作成された映像データ274cをリモートコントローラ9に送信する。照射方向に対応する映像データ274cの作成及び送信は、リアルタイムで行われる。これにより、映像表示欄274aには、照射方向の会場の様子を示す映像データ274cが表示される。
 図27は、照射方向の会場の様子を示す映像データ274cが表示されたリモートコントローラ9を示す図である。ユーザ12がリモートコントローラ9を基準方向の反対方向に向けた場合、照明方向は、基準位置から客席のある方向に設定される。この結果、図27に示すように、ライブ会場の入場者が映像表示欄274aに表示される。
 モニタ7の画面7aには、楽曲データ71が再生されている間、ライブ会場のステージの映像(図14参照)が表示される。したがって、ユーザ11、12は、それぞれの役割に応じた画面を見ながら、仮想的なライブを盛り上げることが可能となる。
 ユーザ12は、入場者の映像が映像表示欄274aに表示された状態で、照明指示欄274bの「ON」をタッチする。演出内容指示部95は、照明をあてることを指示する演出指示情報74を本体装置6に送信する。ライブデータ作成部64は、演出指示情報74と照射方向とに基づいて、客席に照明があたる様子を示す映像データ274cを作成する。図27において、ハッチング領域は、照明があたっている領域に対応する。ライブデータ作成部64は、ハッチング領域にいる入場者が、大きく盛り上がる様子を示す映像データ274cを作成してもよい。
 ユーザ12は、照明指示欄274bの「ON」を選択したままでリモートコントローラ9を動かしてもよい。この場合、照明があたる領域を、ライブ会場の中で移動させることができる。たとえば、楽曲データ71の間奏が再生されているときなどに、ユーザ12が入場者に照明をあてることにより、ライブを盛り上げることができる。
 ユーザ12は、リモートコントローラ9をステージの方向に向けることにより、ボーカル75及びギタリスト76に照明をあてることができる。ライブデータ作成部64は、照明方向がステージの方向であると判定した場合、ステージに照明があたる映像を含むライブデータ73を作成する。この場合、モニタ7の画面7aには、照明があたる様子を示す映像が表示される。
 演出評価部66は、リモートコントローラ9を動かして照明位置を指示する場合にも、照明の演出に対する評価を行う。上述のように、ギターのソロ演奏が行われているときに、ギタリスト76に照明をあてた場合には、演出評価部66は、照明の演出に対して高い点数を付与する。また、楽曲データ71の間奏が再生されているときに、入場者に照明があてた場合には、演出評価部66は、照明の演出に対して高い点数を付与する。
 {変形例}
 本実施の形態では、ユーザ11が行うパフォーマンスとして、ユーザ11がマイク8を持って歌う例について説明した。しかし、ユーザ11は、他のパフォーマンスを行ってもよい。たとえば、ユーザ11は、本体装置6と通信可能な電子楽器装置を用いて、ライブのパフォーマンスを行ってもよい。
 たとえば、ユーザ11は、ギターの形状をした電子楽器装置を持って、電子楽器装置の弦をはじく動作を行う。電子楽器装置は、ユーザの操作に応じた情報を本体装置6に送信する。ライブデータ作成部64は、音声データ8Aに代えて、ギターの演奏音を含むライブデータ73を作成する。これにより、ユーザ11は、仮想的なライブ会場で、ギタリストとしてパフォーマンスを行うことができる。
 本実施の形態において、カラオケシステム200は、複数のリモートコントローラ9を備えてもよい。各リモートコントローラを操作するユーザが、楽曲紹介、ミキサ操作、花火打ち上げ、及び照明操作の演出を担当する。これにより、複数の演出を並行して実行することができるため、グループのメンバー全員で、仮想的なライブを盛り上げることが可能となる。
 本実施の形態において、ライブデータ作成部64が、映像及び音声が記録されたライブデータ73を生成する例を説明した。しかし、ライブデータ73は、映像及び音声の少なくとも一方を含むデータであればよい。たとえば、カラオケシステム200が、モニタ7に代えてスピーカを備えている場合、ライブデータ作成部73は、音声のみを含むライブデータ73を作成する。
 この発明を添付図面に示す実施態様について説明したが、この発明は、特に明記した部分を除いては、その詳細な説明の記載をもって制約しようとするものではなく、特許請求の範囲に記載する範囲において広く構成しようとするものである。
 

Claims (28)

  1.  アミューズメントシステムであって、
     本体装置と、
     ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
     前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
    を備え、
     前記音声入力装置は、
     前記音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、
    を含み、
     前記本体装置は、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
     前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
     前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
    を含む。
  2.  アミューズメントシステムであって、
     本体装置と、
     ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
     前記ユーザを撮影して映像データを出力する撮像装置と、
     前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
    を備え、
     前記本体装置は、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
     前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部と、
     前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
     前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
    を含む。
  3.  請求項1または請求項2に記載のアミューズメントシステムであって、
     前記反応指示部は、前記特定されたパフォーマンスに対する前記聴衆の反応レベルを、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて決定し、前記聴衆の反応レベルに基づいて、前記再生リアクションデータを選択する。
  4.  請求項3に記載のアミューズメントシステムであって、
     前記反応指示部は、前記聴衆の反応レベルに基づいて、前記再生リアクションデータの再生条件を決定し、前記再生条件を前記再生部に指示する。
  5.  請求項3に記載のアミューズメントシステムであって、
     前記再生部は、前記ユーザにより設定された聴衆の客層に応じた聴衆状況データを再生し、
     前記反応指示部は、前記聴衆の客層に基づいて、前記聴衆の反応レベルを決定する。
  6.  請求項1または請求項2に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して質問形式の特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆を煽るパフォーマンスを行ったと判定し、
     前記反応指示部は、前記再生リアクションデータとして、前記特定のフレーズに対して聴衆が一斉に応答をする映像及び音声が記録されたリアクションデータを選択する。
  7.  請求項1または請求項2に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して合唱を要求する特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆に合唱を要求するパフォーマンスを行ったと判定し、
     前記反応指示部は、前記再生リアクションデータとして、前記聴衆が合唱する映像及び音声が記録されたリアクションデータを選択する。
  8.  請求項1または請求項2に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが手拍子を行っていると判定した場合、前記ユーザが手拍子を先導するパフォーマンスを行ったと判定し、
     前記反応指示部は、前記再生リアクションデータとして、前記聴衆が手拍子する映像及び手拍子の音声が記録されたリアクションデータを選択する。
  9.  請求項1または請求項2に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが腕を振る動作をしていると判定した場合、前記ユーザが前記聴衆に対して両手を振る動作を要求するパフォーマンスを行ったと判定し、
     前記反応指示部は、前記再生リアクションデータとして、前記聴衆が両手を振る映像が記録されたリアクションデータを選択する。
  10.  請求項1に記載のアミューズメントシステムであって、さらに、
     前記ユーザが前記音声入力装置を保持する手と反対の手で保持するコントローラ、
    を備え、
     前記コントローラは、
     前記コントローラの動きを示す第2動き情報を出力する第2動き情報出力部、
    を含み、
     前記パフォーマンス特定部は、前記第2動き情報に基づいて、前記ユーザのパフォーマンスを特定する。
  11.  請求項3に記載のアミューズメントシステムであって、
     前記反応指示部は、前記楽曲データの第1パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点し、前記楽曲データの第2パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点する。
  12.  アミューズメントシステムであって、
     本体装置と、
     ユーザが保持する音声入力装置と、
    を備え、
     前記音声入力装置は、
     前記本体装置と無線通信を行う無線通信部、
    を含み、
     前記本体装置は、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
     前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
     前記聴衆の反応を示す音声又は映像が記録された複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
    を含む。
  13.  請求項12に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出した場合、前記ユーザが仮想的なライブ会場に入場したと判定する。
  14.  請求項12に記載のアミューズメントシステムであって、
     前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出できなくなった場合、前記ユーザが仮想的なライブ会場から退場したと判定する。
  15.  請求項1、請求項2及び請求項12のいずれかに記載のアミューズメントシステムにおいて用いられる音声入力装置。
  16.  本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力し、自装置の動きを示す第1動き情報を出力する音声入力装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置とを備えるアミューズメントシステムにおいて、前記本体装置に搭載されるコンピュータに実行させるためのプログラムであって、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生するステップと、
     前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するステップと、
     前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を指示するステップと、
    を備える。
  17.  本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記ユーザを撮影して映像データを出力する撮像装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置とを備えるアミューズメントシステムにおいて、前記本体装置に搭載されるコンピュータに実行させるためのプログラムであって、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生するステップと、
     前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成するステップと、
     前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するステップと、
     前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を指示するステップと、
    を備える。
  18.  ユーザが保持する音声入力装置と無線通信が可能な本体装置に搭載されるコンピュータに実行させるためのプログラムであって、
     前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生するステップと、
     前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するステップと、
     前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を指示するステップと、
    を備える。
  19.  アミューズメントシステムであって、
     選択された楽曲データを再生する本体装置と、
     第1ユーザのパフォーマンスに応じたパフォーマンス情報を生成するパフォーマンス情報生成装置と、
     第2ユーザの操作に応じて、前記第1ユーザのパフォーマンスの演出を指示する演出指示情報を生成する演出指示装置と、
    を備え、
     前記本体装置は、
     前記楽曲データと前記パフォーマンス情報とに基づいて、前記第1ユーザのパフォーマンスの状況を示すパフォーマンス状況データを生成し、前記演出指示情報に応じて前記パフォーマンス状況データの生成条件を変更するパフォーマンス状況データ生成部と、
     前記演出指示情報を参照して前記第1ユーザのパフォーマンスの演出内容を評価し、前記第1ユーザのパフォーマンスを観覧する観客の反応を示す反応データの生成を、評価結果に基づいて前記パフォーマンス状況データ生成部に指示する演出評価部と、
     前記パフォーマンス状況データと前記反応データとを再生する再生部と、
    を備える。
  20.  請求項19に記載のアミューズメントシステムであって、
     前記演出評価部は、前記パフォーマンス状況データが再生される期間に生成された全ての演出指示情報に基づいて、前記第1ユーザのパフォーマンスの演出を評価して全体評価情報を生成し、前記全体評価情報に対応する反応データの生成を指示する。
  21.  請求項19に記載のアミューズメントシステムであって、
     前記演出評価部は、前記本体装置に前記演出指示情報が入力されるたびに、前記第1ユーザのパフォーマンスの演出を評価して個別評価情報を生成し、前記個別評価情報に対応する反応データの生成を指示する。
  22.  請求項19に記載のアミューズメントシステムであって、
     前記演出指示装置は、
     前記第2ユーザの音声を入力して音声データを生成する音声入力部と、
     前記パフォーマンス状況データの再生中に前記第2ユーザが読み上げるべき内容を表示し、前記音声データを前記演出指示情報として前記本体装置に出力する演出内容指示部と、
    を備え、
     前記パフォーマンス状況データ生成部は、前記音声データを含むパフォーマンス状況データを生成し、
     前記演出評価部は、前記音声データの入力が終了したタイミングに基づいて、前記パフォーマンスの演出を評価する。
  23.  請求項22に記載のアミューズメントシステムであって、
     前記演出評価部は、前記音声データに対する音声認識処理を行って前記第2ユーザが前記音声入力部に入力した音声フレーズを特定し、前記音声フレーズと前記内容とを比較することにより、前記パフォーマンスの演出を評価する。
  24.  請求項19に記載のアミューズメントシステムであって、
     前記演出指示装置は、
     前記第2ユーザにより選択された花火の種類と、前記選択された花火の打ち上げとを指示する打ち上げ情報を生成し、前記打ち上げ情報を前記演出指示情報として前記本体装置に出力する演出内容指示部、
    を備え、
     前記パフォーマンス状況データ生成部は、前記打ち上げ情報に基づいて、前記第1ユーザのパフォーマンスを演出する花火が打ち上げられる様子を示すパフォーマンス状況データを生成し、
     前記演出評価部は、前記打ち上げ情報に基づいて、前記パフォーマンスの演出を評価する。
  25.  請求項19に記載のアミューズメントシステムであって、
     前記楽曲データは、楽曲の演奏パートのそれぞれに対応する複数のパートデータにより構成され、
     前記演出指示装置は、
     各パート楽曲データの再生条件を指定した再生条件情報を前記第2ユーザの操作に応じて生成し、前記再生条件情報を前記演出指示情報として前記本体装置に出力する演出内容指示部、
    を備え、
     前記パフォーマンス状況データ生成部は、前記再生条件情報に基づいて、パート楽曲データの再生時の条件を変更したパフォーマンス状況データを生成し、
     前記演出評価部は、前記再生条件情報に基づいて、前記パフォーマンスの演出を評価する。
  26.  請求項19に記載のアミューズメントシステムであって、
     前記演出指示装置は、
     前記第1ユーザのパフォーマンスを演出する照明の照射対象を示す照明対象情報を前記第2ユーザの操作に応じて生成し、前記照明対象情報を前記演出指示情報として前記本体装置に出力する演出内容指示部、
    を備え、
     前記パフォーマンス状況データ生成部は、前記照明対象情報に基づいて、前記照明が照射される様子を示すパフォーマンス状況データを生成し、
     前記演出評価部は、前記照明対象情報に基づいて、前記パフォーマンスの演出を評価する。
  27.  請求項19に記載のアミューズメントシステムであって、
     前記演出指示装置は、
     前記本体装置から送信される映像データを表示する表示部と、
     前記演出指示装置の動きを検出して、動き情報を生成する動き検出部と、
     前記動き情報を、前記演出指示情報として前記本体装置に出力する演出内容指示部と、
    を備え、
     前記本体装置は、さらに、
     前記動き情報に基づいて、前記第1ユーザのパフォーマンスを演出する照明の照射領域を特定し、前記照明領域に照明があたる様子を示す照明映像データを生成する照明映像データ生成部と、
     前記照明映像データを前記演出指示装置に出力する出力部と、
    を備える。
  28.  選択された楽曲を再生する本体装置と、第1ユーザのパフォーマンスに応じたパフォーマンス情報を生成するパフォーマンス情報生成装置と、第2ユーザの操作に応じて、前記第1ユーザのパフォーマンスの演出を指示する演出指示情報を生成する演出指示装置とを備えるアミューズメントシステムにおいて、前記本体装置に搭載されるコンピュータに実行させるためのプログラムであって、
     前記楽曲データと前記パフォーマンス情報とに基づいて、前記第1ユーザのパフォーマンスの状況を示すパフォーマンス状況データを生成し、前記演出指示情報に応じて前記パフォーマンス状況データの生成条件を変更するステップと、
     前記演出指示情報を参照して前記第1ユーザのパフォーマンスの演出内容を評価し、前記第1ユーザのパフォーマンスを観覧する観覧者の反応を示す反応データの生成を、評価結果に基づいて前記パフォーマンス状況データ生成部に指示するステップと、
     前記パフォーマンス状況データと前記反応データとを再生するステップと、
    を備える。
     
PCT/JP2011/073131 2010-10-20 2011-10-06 アミューズメントシステム WO2012053371A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/877,029 US9601118B2 (en) 2010-10-20 2011-10-06 Amusement system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010235043A JP5553446B2 (ja) 2010-10-20 2010-10-20 アミューズメントシステム
JP2010-235043 2010-10-20
JP2010258707A JP5486467B2 (ja) 2010-11-19 2010-11-19 アミューズメントシステム
JP2010-258707 2010-11-19

Publications (1)

Publication Number Publication Date
WO2012053371A1 true WO2012053371A1 (ja) 2012-04-26

Family

ID=45975089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073131 WO2012053371A1 (ja) 2010-10-20 2011-10-06 アミューズメントシステム

Country Status (2)

Country Link
US (1) US9601118B2 (ja)
WO (1) WO2012053371A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017176728A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365147B2 (ja) * 2014-09-05 2018-08-01 ブラザー工業株式会社 再生制御装置、プログラム、及び再生システム
JP6402654B2 (ja) * 2015-03-05 2018-10-10 ブラザー工業株式会社 再生制御装置、プログラム、及び再生システム
CN107368491B (zh) * 2016-05-12 2023-07-25 富泰华工业(深圳)有限公司 影像制作系统及方法
US11487815B2 (en) * 2019-06-06 2022-11-01 Sony Corporation Audio track determination based on identification of performer-of-interest at live event
CN113518237B (zh) * 2021-05-19 2022-09-23 腾讯科技(深圳)有限公司 语音直播方法、装置、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772880A (ja) * 1993-09-03 1995-03-17 Sony Corp カラオケ装置
JP2000047675A (ja) * 1998-07-30 2000-02-18 Mitsubishi Heavy Ind Ltd 歌唱音響装置及び演技表現判定方法
JP2004287362A (ja) * 2003-03-20 2004-10-14 Hiroyuki Sato カラオケ装置
JP2004333577A (ja) * 2003-04-30 2004-11-25 Daiichikosho Co Ltd カラオケ映像システム
JP2008010966A (ja) * 2006-06-27 2008-01-17 Xing Inc 動画生成システム、及び動画生成方法
JP2011154289A (ja) * 2010-01-28 2011-08-11 Daiichikosho Co Ltd 聴衆に唱和をうながす気分を楽しむカラオケ装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296643A (en) * 1992-09-24 1994-03-22 Kuo Jen Wei Automatic musical key adjustment system for karaoke equipment
US5465240A (en) * 1993-01-05 1995-11-07 Mankovitz; Roy J. Apparatus and methods for displaying text in conjunction with recorded audio programs
US5663514A (en) * 1995-05-02 1997-09-02 Yamaha Corporation Apparatus and method for controlling performance dynamics and tempo in response to player's gesture
JPH09166992A (ja) 1995-12-15 1997-06-24 Ekushingu:Kk カラオケシステム
JP3299890B2 (ja) * 1996-08-06 2002-07-08 ヤマハ株式会社 カラオケ採点装置
JPH10134611A (ja) 1996-10-28 1998-05-22 Matsushita Electric Works Ltd カラオケ装置
US6514083B1 (en) * 1998-01-07 2003-02-04 Electric Planet, Inc. Method and apparatus for providing interactive karaoke entertainment
JP2000029480A (ja) 1998-07-15 2000-01-28 Ricoh Co Ltd 音楽再生装置
JP2000237455A (ja) * 1999-02-16 2000-09-05 Konami Co Ltd 音楽演出ゲーム装置、音楽演出ゲーム方法および可読記録媒体
US6386985B1 (en) * 1999-07-26 2002-05-14 Guy Jonathan James Rackham Virtual Staging apparatus and method
US7183480B2 (en) * 2000-01-11 2007-02-27 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US7053915B1 (en) * 2002-07-30 2006-05-30 Advanced Interfaces, Inc Method and system for enhancing virtual stage experience
JP2004287020A (ja) 2003-03-20 2004-10-14 Brother Ind Ltd 演出効果音発生装置、音楽再生装置
US20060009979A1 (en) * 2004-05-14 2006-01-12 Mchale Mike Vocal training system and method with flexible performance evaluation criteria
JP2006047755A (ja) 2004-08-05 2006-02-16 Namco Ltd カラオケ情報配信システム、プログラム、情報記憶媒体およびカラオケ情報配信方法
US20090191519A1 (en) * 2004-12-23 2009-07-30 Wakamoto Carl I Online and computer-based interactive immersive system for language training, entertainment and social networking
JP2006325161A (ja) 2005-05-20 2006-11-30 Shohei Kajiwara 映像システム
US20090075711A1 (en) * 2007-06-14 2009-03-19 Eric Brosius Systems and methods for providing a vocal experience for a player of a rhythm action game
US7772480B2 (en) * 2007-08-10 2010-08-10 Sonicjam, Inc. Interactive music training and entertainment system and multimedia role playing game platform
US8535130B2 (en) * 2008-02-14 2013-09-17 Peter Ciarrocchi Amusement pod entertainment center
US8098831B2 (en) * 2008-05-15 2012-01-17 Microsoft Corporation Visual feedback in electronic entertainment system
US8380119B2 (en) * 2008-05-15 2013-02-19 Microsoft Corporation Gesture-related feedback in eletronic entertainment system
US9515754B2 (en) * 2008-08-12 2016-12-06 Iheartmedia Management Services, Inc. Measuring audience reaction
WO2010059994A2 (en) * 2008-11-21 2010-05-27 Poptank Studios, Inc. Interactive guitar game designed for learning to play the guitar
JP2011053276A (ja) 2009-08-31 2011-03-17 Daiichikosho Co Ltd 背景映像可変表示機能を備えるカラオケシステム
US8682653B2 (en) * 2009-12-15 2014-03-25 Smule, Inc. World stage for pitch-corrected vocal performances
JP5361776B2 (ja) * 2010-03-24 2013-12-04 株式会社エクシング カラオケシステム、カラオケ装置及びコンピュータプログラム
US8621503B2 (en) * 2010-06-23 2013-12-31 Uplause Oy Apparatuses, system, method, and storage medium for crowd game
US20110319160A1 (en) * 2010-06-25 2011-12-29 Idevcor Media, Inc. Systems and Methods for Creating and Delivering Skill-Enhancing Computer Applications
US9565426B2 (en) * 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
WO2012135048A2 (en) * 2011-04-01 2012-10-04 Votini Llc Systems and methods for capturing event feedback
US20140137144A1 (en) * 2012-11-12 2014-05-15 Mikko Henrik Järvenpää System and method for measuring and analyzing audience reactions to video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772880A (ja) * 1993-09-03 1995-03-17 Sony Corp カラオケ装置
JP2000047675A (ja) * 1998-07-30 2000-02-18 Mitsubishi Heavy Ind Ltd 歌唱音響装置及び演技表現判定方法
JP2004287362A (ja) * 2003-03-20 2004-10-14 Hiroyuki Sato カラオケ装置
JP2004333577A (ja) * 2003-04-30 2004-11-25 Daiichikosho Co Ltd カラオケ映像システム
JP2008010966A (ja) * 2006-06-27 2008-01-17 Xing Inc 動画生成システム、及び動画生成方法
JP2011154289A (ja) * 2010-01-28 2011-08-11 Daiichikosho Co Ltd 聴衆に唱和をうながす気分を楽しむカラオケ装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017176728A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム

Also Published As

Publication number Publication date
US9601118B2 (en) 2017-03-21
US20130185069A1 (en) 2013-07-18

Similar Documents

Publication Publication Date Title
JP5553446B2 (ja) アミューズメントシステム
JP5743954B2 (ja) リアルタイムのコンテンツのストリームと対話するための装置
US8696456B2 (en) Music-based video game with user physical performance
JP4307193B2 (ja) プログラム、情報記憶媒体、及びゲームシステム
WO2012053371A1 (ja) アミューズメントシステム
TW200951764A (en) Gesture-related feedback in electronic entertainment system
US20090100988A1 (en) Scheme for providing audio effects for a musical instrument and for controlling images with same
JP6515057B2 (ja) シミュレーションシステム、シミュレーション装置及びプログラム
JP2013037670A (ja) ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
JP2008170685A (ja) 音声評価装置及びカラオケ装置
JP2019101050A (ja) 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
JP2002215151A (ja) 音響信号出力方法及びbgm生成方法
WO2022221902A1 (en) System and method for performance in a virtual reality environment
WO2018008434A1 (ja) 演奏上演装置
JP2008134295A (ja) 合奏システム
JP4516944B2 (ja) カラオケ歌唱補助システム
WO2022163137A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5486467B2 (ja) アミューズメントシステム
JP5486941B2 (ja) 聴衆に唱和をうながす気分を楽しむカラオケ装置
CN108877754A (zh) 人工智能音乐简奏系统及实现方法
JP2019101413A (ja) 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
WO2023084933A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20110104183A (ko) 노래반주 시스템을 이용한 노래간 분위기 상승게임 제공방법
JP6065224B2 (ja) カラオケ装置
WO2016017623A1 (ja) リファレンス表示装置、リファレンス表示方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11834211

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13877029

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11834211

Country of ref document: EP

Kind code of ref document: A1