WO2022196076A1 - 情報処理装置、及び、情報処理方法 - Google Patents

情報処理装置、及び、情報処理方法 Download PDF

Info

Publication number
WO2022196076A1
WO2022196076A1 PCT/JP2022/001488 JP2022001488W WO2022196076A1 WO 2022196076 A1 WO2022196076 A1 WO 2022196076A1 JP 2022001488 W JP2022001488 W JP 2022001488W WO 2022196076 A1 WO2022196076 A1 WO 2022196076A1
Authority
WO
WIPO (PCT)
Prior art keywords
cheering
unit
recording
data
reproduction
Prior art date
Application number
PCT/JP2022/001488
Other languages
English (en)
French (fr)
Inventor
尚子 菅野
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/549,992 priority Critical patent/US20240155284A1/en
Priority to JP2023506796A priority patent/JPWO2022196076A1/ja
Publication of WO2022196076A1 publication Critical patent/WO2022196076A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • A63J5/04Arrangements for making sound-effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • G06F16/164File meta data generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/18Controlling the light source by remote control via data-bus transmission
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission

Definitions

  • the present technology relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method that enable the use of cheering for each audience member at a concert or the like.
  • Patent Document 1 discloses a technique for controlling the timing of turning on and off penlights used by spectators at concert venues and the like.
  • Concert audience cheering (including call-and-response) is important to liven up the atmosphere of the concert.
  • the cheering of the audience is an important factor in expressing the atmosphere of the concert.
  • An information processing device includes a communication unit that communicates with another device that can simultaneously control a plurality of recording devices, and a communication unit that is controlled by the other device and can record in synchronization with the plurality of recording devices.
  • the information processing apparatus includes a recording unit, and a processing unit that adds position information regarding a recording position and time information regarding a recording time to voice data recorded by the recording unit.
  • the communication unit of an information processing device having a communication unit, a recording unit, and a processing unit communicates with another device capable of simultaneously controlling a plurality of recording devices
  • the recording unit is controlled by the other device to perform recording in synchronization with the plurality of recording devices
  • the processing unit provides positional information about the recorded position for the audio data recorded by the recording unit. and time information about the time of recording.
  • communication is performed with another device capable of simultaneously controlling a plurality of recording devices, control is performed by the other device, and synchronization with the plurality of recording devices is performed.
  • the audio data is recorded, and position information regarding the recording position and time information regarding the recording time are added to the recorded voice data.
  • An information processing device includes: a communication unit that communicates with another device capable of simultaneously controlling a plurality of playback devices; and an audio reproducing unit for reproducing.
  • the communication unit of an information processing apparatus having a communication unit and an audio reproduction unit communicates with another device capable of simultaneously controlling a plurality of reproduction devices, and reproduces the audio.
  • the information processing method wherein the unit is controlled by the other device and reproduces the audio data in synchronization with the plurality of reproduction devices.
  • a plurality of playback devices are controlled by the other device and synchronized with the plurality of playback devices. Audio data is played back.
  • FIG. 1 is a diagram exemplifying the configuration of an embodiment of a venue production system to which the present technology is applied; FIG. It is the figure which illustrated the external appearance of a child device.
  • 2 is a configuration diagram illustrating an internal configuration of a child device; FIG. It is the figure which illustrated some seats in the concert venue.
  • 3 is a configuration diagram illustrating the configuration of a parent device; FIG. It is a figure explaining the outline
  • FIG. 4 is a diagram illustrating header information added to audio data; FIG.
  • FIG. 3 is a block diagram showing a configuration example of a cheering recording device for carrying out processing of a cheering recording function; 7 is a flowchart illustrating a processing procedure when using the cheering recording function; It is a figure explaining the cheering reproduction
  • FIG. 10 is a block diagram illustrating the configuration of a cheering playback device for performing processing of a cheering playback function; 7 is a flowchart illustrating a processing procedure when using a cheering generation function; It is a figure explaining an audio
  • FIG. 4 is an explanatory diagram of virtual sound generation; 1 is a block diagram showing a configuration example of an editing device that edits cheering data; FIG. FIG.
  • FIG. 16 is a diagram illustrating the flow of processing for generating virtual sound in FIG. 15;
  • FIG. 11 is a diagram for explaining the generation of virtual sound in the third concert form;
  • 1 is a block diagram showing a configuration example of an audio reproducing device that generates audio data;
  • FIG. 19 is a diagram illustrating the flow of processing for generating virtual sound in FIG. 18;
  • FIG. 1 is a diagram illustrating the configuration of an embodiment of a venue production system to which the present technology is applied.
  • the venue production system 1 in FIG. 1 has a slave device 11 and a master device 12.
  • the handset 11 is, for example, a penlight used by many spectators at a concert venue or the like, and has functions as a recording device and a playback device.
  • the child device 11 and the parent device 12 are configured to be capable of wireless communication, and the parent device 12 (another device capable of simultaneously controlling the child device 11) transmits a signal to the child device 11 by omnidirectional radio. By transmitting a signal from the parent device 12 to the child device 11, the light lighting timing, the recording timing, the reproduction (sound emission) timing, etc. of the child device 11 are synchronously controlled.
  • the venue production system 1 to which the present technology is applied can be used not only in concert venues but also in arbitrary venues of arbitrary events where people gather, such as music concerts and plays.
  • the event is assumed to be a music concert (simply referred to as a concert), and those who participate in the event as singers, musicians, etc. are called performers.
  • the performance includes not only the performance of musical instruments, but also the singing and talking voices of performers.
  • FIG. 2 is a diagram exemplifying the appearance of the child device 11.
  • the child device 11 has a cylindrical shape as a whole, and has a base-side grip portion 21 that is gripped by a user who is an audience member of the concert and a light emitting portion 22 that emits light. It should be noted that among the audience at the concert, the audience who owns the handset 11 is called a user.
  • a power switch 23 , an operation unit 24 , a speaker 25 , a microphone 26 and the like are arranged on the grip portion 21 .
  • the power switch 23 switches the power of the child device 11 between on and off.
  • the operation unit 24 represents operation buttons, operation switches, and the like operated by the user other than the power switch 23 .
  • the operation unit 24 executes and stops the light emission (lighting) of the light emitting unit 22, switches the light emission color, luminance, and blinking interval of the light emitting unit 22, executes and stops audio recording, and executes and stops audio reproduction. Contains various buttons or switches for manual operation by the user.
  • the speaker 25 audio reproduction unit
  • the speaker 25 reproduces (outputs) audio data such as cheering stored in advance in a storage unit, which will be described later, as audio.
  • the microphone 26 (speech acquiring unit) detects (receives) the user's cheering voice during the concert and stores it as voice data in the storage unit described later.
  • the light emitting unit 22 diffuses light from a light source such as an LED and emits light as a whole. It should be noted that the present technology can be applied even if the slave device 11 is not the penlight type having the light emitting unit 22 as shown in FIG. 2 .
  • FIG. 3 is a configuration diagram exemplifying the internal configuration of the child device 11.
  • the child device 11 includes the power switch 23, the operation unit 24, the speaker 25, and the microphone 26 shown in FIG. ) 33 , LED driver 34 , three-color LEDs 35 a , 35 b , 35 c , storage section 36 , reader 37 , battery 38 , and power supply section 39 .
  • the power switch 23 is switched between an on state and an off state by the user's operation.
  • the power switch 23 is in the OFF state, power is not supplied from the power supply unit 39 to each part in the child device 11, and the child device 11 as a whole is in a stopped state.
  • the power switch 23 is turned on, power is supplied from the power supply section 39 to each section in the child device 11, and each section of the child device 11 becomes operable.
  • the operation unit 24 supplies instructions to the control unit 33 according to the user's manual operation.
  • the contents of the instruction from the operation unit 24 to the control unit 33 include ON/OFF of the light emission of the light-emitting unit 22 by the three-color LEDs 35a, 35b, and 35c, the light emission color, and the brightness.
  • a flashing frequency instruction (simply referred to as a light emitting instruction).
  • the content of the instruction regarding the speaker 25 includes an instruction to reproduce (sound) the audio data (audio signal) stored in the storage unit 36 by the speaker 25 (simply referred to as an instruction to reproduce audio).
  • the content of the instruction relating to the microphone 26 includes an instruction to record the audio data received by the microphone 26 in the storage unit 36 (simply referred to as an instruction to record audio).
  • an instruction to record audio the instruction contents that can be instructed by the user's manual operation on the operation unit 24 may be part of them, or may include other instruction contents.
  • the speaker 25 is an audio output unit that outputs (reproduces) audio data as sound, and switches between a reproduction execution state and a reproduction stop state according to a control signal from the control unit 33 . In the reproduction stop state, the speaker 25 does not reproduce (sound) the audio data. In the reproduction execution state, the speaker 25 reproduces (emits) audio data stored (stored) in the storage unit 36 .
  • the microphone 26 switches between the recording execution state and the recording stop state according to the control signal from the control unit 33 .
  • the microphone 26 does not store (record) voice data in the storage unit 36 .
  • the microphone 26 stores the received audio signal in the storage unit 36 as audio data.
  • Antenna 31 receives a signal from master device 12 or transmits a signal to master device 12 .
  • the communication unit 32 transmits/receives various signals (various instructions and various data) to/from the base unit 12 via the antenna 31 by communication conforming to a predetermined wireless communication standard such as Bluetooth (registered trademark) or wireless LAN.
  • the communication unit 32 supplies the signal acquired from the master device 12 to the control unit 33 .
  • the communication unit 32 transmits various signals to the base unit 12 supplied from the control unit 33 to the base unit 12 via the antenna 31 .
  • the instruction contents from the parent device 12 supplied from the communication part 32 to the control part 33 are, like the instruction contents from the operation part 24, instructions for light emission, voice reproduction, voice recording, and the like.
  • the control unit 33 controls light emission, audio reproduction, and audio recording based on instructions from the parent device 12 or instructions from the operation unit 24.
  • the controller 33 sends control signals to the LED driver 34 for driving the three-color LEDs 35a, 35b, and 35c.
  • the LED driver 34 drives the three-color LEDs 35 a , 35 b , 35 c based on control signals from the control section 33 .
  • the emission colors, brightness, blinking intervals, etc. of the three-color LEDs 35a, 35b, and 35c are controlled.
  • the control unit 33 sends a control signal for driving the speaker 25 to the speaker 25 .
  • the speaker 25 switches between a reproduction execution state and a reproduction stop state based on the control signal sent from the control section 33 .
  • the reproduction execution state the speaker 25 reproduces (emits) the audio data stored in the storage unit 36 .
  • the reproduction stop state power supply (power supply) to the speaker 25 is stopped, and the speaker 25 does not reproduce audio data.
  • the flow of audio data from the storage unit 36 to the speaker 25 is omitted in the figure.
  • the reading of audio data to be reproduced by the speaker 25 from the storage unit 36 is performed by the control unit 33, for example.
  • the audio data read from the storage section 36 is supplied from the control section 33 to the speaker 25 . Processing such as decoding of the audio data stored in the storage unit 36 is also performed by the control unit 33 when the audio data is encoded.
  • the control unit 33 sends a control signal for driving the microphone 26 to the microphone 26 .
  • the microphone 26 switches between a recording execution state and a recording stop state based on the control signal sent from the control unit 33 .
  • the recording execution state the microphone 26 causes the storage unit 36 to store the detected voice data.
  • the power supply (power supply) to the microphone 26 is stopped, and the microphone 26 does not store voice data in the storage unit 36 .
  • the flow of audio data from the microphone 26 to the storage unit 36 is omitted in the figure.
  • writing (storing) of the audio data detected by the microphone 26 into the storage unit 36 is performed by the control unit 33, for example.
  • the audio data received by the microphone 26 is stored in the storage section 36 from the control section 33 .
  • Encoding processing for encoding the audio data to be stored in the storage unit 36 is performed by the control unit 33 .
  • the reader 37 communicates with an electronic tag (IC tag) approaching the vicinity of the reader 37 (touched by the child device 11) by NFC (Near Field Communication) technology such as FeliCa (registered trademark). and read the information recorded on the electronic tag.
  • IC tag electronic tag
  • NFC Near Field Communication
  • FeliCa registered trademark
  • FIG. 4 is a diagram illustrating some seats in a concert venue.
  • the seats 41 are arranged in a horizontal row and arranged in a plurality of vertical rows.
  • the notation 42 (No. 28 is shown in the example of FIG. 4) is the row number of the horizontal row of seats to which the notation 42 is attached.
  • the notation 43 (Nos. 81 to 83 are shown in the example of FIG. 4) is the row number of the seat to which the notation 43 is attached.
  • a seat number of each seat 41 is determined by a combination of a row number and a row number.
  • An electronic tag 44 is installed on each seat 41 .
  • a seat number is recorded in the electronic tag 44 of each seat 41 as identification information for identifying (the position of) each seat.
  • the seat number recorded on the electronic tag 44 and the seat number represented by the notations 42 and 43 do not have to match. Acquisition of seat information specifying the position of the seat is not limited to the use of the electronic tag 44 . The seat information specifying the position of the seat is not limited to the seat number.
  • a user who is a spectator moves to a seat with a seat number designated at the time of ticket purchase or the like, and then touches the electronic tag 44 installed on that seat with the slave device 11 owned by each user. That is, each user who acquires the child device 11 by purchasing or the like before the concert brings the child device 11 owned by him/herself close to the electronic tag 44 of the seat assigned to him/herself.
  • the reader 37 of each child device 11 approaches the electronic tag 44 within a communicable distance
  • the seat number recorded on the electronic tag 44 is read by the reader 37 of the child device 11 and supplied to the control unit 33 .
  • each handset 11 recognizes the seat number of the seat in which it is arranged.
  • the staff of the concert management side may arrange the child device 11 at each seat and hold the concert.
  • the task of recognizing the seat number of each handset 11 placed on each seat may be performed by the staff or the like who arranges the handset 11 on each seat, and is not limited to the case where the user does it.
  • the control unit 33 uses the seat number read from the electronic tag 44 as the identification information (user ID) for identifying the user who uses the own child device 11 among the many child devices 11 .
  • the control unit 33 transmits the seat number as the user ID to the base unit 12 through the communication unit 32 .
  • the master device 12 recognizes the seat position of each slave device 11 in the concert venue based on the user ID (seat number).
  • control unit 61 of the parent device 12 transmits a signal for instructing the child device 11 to emit light, reproduce sound, or record a sound
  • the control unit 61 uses the mode information in the signal to be transmitted to the child device 11. Specify broadcast mode and ID division mode.
  • ID division mode When the ID division mode is designated, the control unit 61 further designates the user ID (seat number) of the slave device 11 that should effectively receive the signal based on the ID division information in the signal to be transmitted to the slave device 11. do.
  • control unit 33 of the child device 11 Upon receiving the signal from the parent device 12, the control unit 33 of the child device 11 refers to the mode information included in the signal and determines whether the signal is in the broadcast mode or the ID division mode.
  • the control unit 33 When the signal from the master device 12 is a broadcast mode signal, the control unit 33 follows the light emission instruction, the audio reproduction instruction, or the audio recording instruction included in the signal from the master device 12 .
  • the control unit 33 refers to the ID division information contained in the signal, and designates the user ID (seat number) of its own slave unit 11. Determine whether or not
  • the control unit 33 instructs light emission, audio reproduction, or , follow the voice recording instructions.
  • control unit 33 invalidates the signal from the parent device 12 if the ID division information does not specify its own user ID.
  • the master device 12 can issue a light emission instruction, an audio reproduction instruction, or an audio recording instruction by restricting the child apparatuses 11 at a specific seat position.
  • the battery 38 supplies power to each component of the child device 11 through the power supply unit 39 .
  • the power supply unit 39 does not supply power from the battery 38 to each component when the power switch 23 is in the off state.
  • the power switch 23 When the power switch 23 is on, power is supplied from the battery 38 to the speaker 25, the microphone 26, the communication section 32, the control section 33, the LED driver 34, the reader 37, and the like. As a result, the handset 11 becomes operable.
  • FIG. 5 is a configuration diagram illustrating the configuration of the master device 12. As shown in FIG. In FIG. 5, a personal computer (PC) 91, a console terminal 92, and a peripheral (such as a spotlight) 93 are connected to the parent device 12 as connected external devices.
  • PC personal computer
  • console terminal 92 console terminal
  • peripheral such as a spotlight
  • the parent device 12 has a control section 61, a communication section 62, an antenna 63, a display section 64, a USB terminal 67, a conversion IC 68, a DMX input terminal 69, a DMX output terminal 70, a polarity conversion SW71, and a conversion IC72.
  • the control unit 61 Based on a signal from the PC 91 or the console terminal 92, the control unit 61 supplies the communication unit 62 with a signal (instruction, etc.) to be transmitted to the slave device 11, for example.
  • the contents of the instruction from the control unit 61 to the child device 11 include an instruction to emit light, an instruction to reproduce sound, an instruction to record sound, and the like.
  • the communication unit 62 transmits various signals (various instructions, various data, ) are sent and received.
  • Antenna 63 receives a signal from child device 11 and transmits a signal to child device 11 .
  • the communication unit 62 supplies the signal acquired from the slave device 11 to the control unit 61 .
  • the communication unit 62 transmits various signals to the child device 11 supplied from the control unit 61 to the child device 11 via the antenna 63 .
  • the display unit 64 displays various information based on instructions from the control unit 61 .
  • a PC 91 is connected to the USB terminal 67 .
  • the PC 91 transmits to the parent device 12 a signal for instructing the child device 11 to emit light, reproduce sound, record sound, etc. by the application of the PC 91 according to the user's operation or the like.
  • a signal input from the PC 91 via the USB terminal 67 is converted to UART by the conversion IC 68 and sent to the control section 61 .
  • the control unit 61 supplies a signal instructing the child device 11 to emit light, reproduce sound, and record the sound to the communication unit 62 and transmits the signal to the child device 11 according to the instruction from the PC 91 .
  • a console terminal 92 is connected to the DMX input terminal 69 .
  • the console terminal 92 transmits to the parent device 12 a signal instructing the child device 11 to emit light, reproduce sound, record sound, etc., according to the user's operation.
  • the signal from the console terminal 92 also includes a signal instructing the peripheral 93 connected to the master device 12 to perform a predetermined operation.
  • a signal from the console terminal 92 is input to the DMX input terminal 69 of the parent device 12 .
  • a signal input to the DMX input terminal 69 is sent from the polarity conversion SW 71 to the conversion IC 72 , converted into serial data by the conversion IC 72 , and sent to the control section 61 .
  • a signal that is an instruction from the console terminal 92 to the peripheral 93 is sent to the DMX output terminal 70 and sent to the peripheral 93 .
  • the peripheral 93 is a spotlight used at a concert venue, the angle of the spotlight is changed based on the signal from the console terminal 92 .
  • the control unit 61 of the parent device 12 transmits an instruction from the PC 91 or the console terminal 92 to the child device 11 by the ID division mode signal as described above, and effectively receives the instruction.
  • 11 user ID (seat number) is transmitted to the handset 11 as ID classification information.
  • FIG. 6 is a diagram explaining an overview of the present technology.
  • the venue production system 1 to which the present technology is applied has a cheering recording function, a cheering reproducing function, and an audio data transmitting function, in addition to the light emitting function of the slave device 11 (lighting function).
  • the light emission function is a function of synchronizing all or some of the child devices 11 or causing each child device 11 to emit light or blink under control by a radio signal from the parent device 12 or the like. Since the position of each handset 11 in the concert hall is specified by the seat number (user ID), the master device 12 designates the seat number and controls the light emission timing, color, etc. of the handset 11 at a predetermined position. can do.
  • the cheering recording function synchronizes all or part of the child devices 11 or records the voice (cheering) of each user for each child device 11 by controlling the wireless signal from the parent device 12. It is a function to record. That is, the cheering recording function turns on the microphone 26 when the handset 11 of each user, who is an audience member of the concert, receives a signal (cheering recording start signal) instructing the start of cheering recording from the parent device 12. This is a function of recording the cheering of the user (recording in the storage unit 36). It is also possible to record the user's cheering with the microphone 26 always on from the beginning to the end of the concert.
  • the microphone 26 is always turned on, the capacity of the battery of the child device 11 becomes insufficient, and an unforeseen situation may arise in which the child device 11 becomes unusable during the concert.
  • the memory capacity for storing recorded cheering voice data (cheering data) is also increased.
  • the amount of data increases when the recorded cheering data is transmitted to the server or the like on the side of the concert operator after the concert ends. Therefore, during the concert, the microphone 26 is used only during the cheering period during which the audience is expected to cheer, and the cheering is recorded, thereby reducing battery consumption, memory capacity, and the amount of data to be transmitted. .
  • the cheering playback function is a function that synchronizes all or some of the child devices 11, or reproduces the cheering of each user for each child device 11, by controlling with a radio signal from the parent device 12 or the like. is. That is, the cheering reproduction function turns on the speaker 25 and stores it in the storage unit 36 when the handset 11 of each user receives a signal (cheering reproduction start signal) instructing the start of cheering reproduction from the parent device 12 . This is a function for playing back (sounding) cheering data. With this cheering reproduction function, the speaker 25 is turned on only during the cheering period, so battery consumption is reduced.
  • the cheering data reproduced by the cheering reproduction function is not limited to the cheering data stored in the storage unit 36 . The user's cheering data transmitted to the child device 11 in real time through a communication network such as a network may be reproduced.
  • the voice data transmission function is a function of transmitting the cheering data stored in the storage unit 36 of the child device 11 to the base device 12, the PC 91 connected to the base device 12, or an arbitrary server (concert management server). is.
  • cheering recording function cheering playback function
  • voice data transmission function voice data transmission function
  • the audio data recorded by each child device 11 with the cheering recording function and the audio data reproduced by each child device 11 with the cheering playback function are mainly voice data of cheering of the user who owns each child device 11. Therefore, it is called cheering data.
  • the cheering data may include voices other than cheering.
  • concert format there is a general format (audience concert) in which the audience is mobilized to the concert venue and the concert is held as the first concert format.
  • a second concert format there is a special format (audienceless concert) in which a concert is held without mobilizing audiences to the concert venue.
  • a third concert form there is a form (virtual concert) in which a concert is held in a concert venue (virtual venue) in a virtual space using VR (virtual reality) or AR (augmented reality) technology.
  • VR virtual reality
  • AR augmented reality
  • the cheering recording function of the venue production system 1 can record the cheering of each user during the concert. Since the seat number of the seat assigned to the user who owns each child device 11 is acquired by each child device 11 from the electronic tag 44, the seat number can be used as the position information of each child device 11 (recorded). , at which position in the concert venue the recording was made.
  • the cheering data recorded by each slave unit 11 by the cheering recording function can be sent to the base unit 12, the PC 91 connected to the base unit 12, the Internet, etc. by using the voice data transmission function after the end of the concert. Collected in a server (concert management side server) connected to a communication network.
  • Audio data recording concert performances are distributed on recording media such as CDs (Compact Discs) and DVDs (Digital Versatile Discs) for a fee or free of charge. , or may be distributed through a communication network such as the Internet.
  • main audio data performance data
  • the use of such a cheering recording function is not limited to the case of the first concert format, and can be similarly applied to the second concert format. However, since there are no spectators in the second concert format, the cheering data recorded by the cheering recording function is voice data output from the speaker 25 .
  • the cheering recording function it is possible to individually record the cheering of each audience member at the concert. To edit the cheering data of the audience separately from the performance data in editing the voice data recorded in the concert, etc., and to achieve various performance effects using the cheering data.
  • the concert is held with the child device 11 arranged at each seat in the concert venue with no audience, and the cheering reproduction function of the venue production system 1 encourages the performers.
  • the cheering data reproduced by the cheering reproduction function is, for example, the cheering data stored in advance in the storage unit 36 before the concert is held.
  • the cheering data may be data recording the actual voice of the user who purchased the ticket for each seat (the user assigned to each seat), or may be selected by the user from a plurality of types of predetermined cheering data. It may be the cheering data that has been received.
  • the user When using the user's actual vocal cheering data, the user records his/her own vocal cheering data in advance.
  • the users transmit the recorded cheering data from terminal devices such as smartphones owned by each user to the PC 91 or the like using a communication network such as the Internet.
  • the PC 91 transmits the cheering data from the user to the child device 11 of the seat assigned to the user through the parent device 12 and stores it in the storage unit 36 .
  • the cheering data may be transmitted directly from the terminal device owned by each user to the child device 11 of the seat assigned to each user without going through the PC 91, the master device 12, or the like.
  • the cheering data reproduced by each slave device 11 by the cheering reproduction function may be cheering data obtained by detecting real-time cheering given by a user at home or the like during a concert.
  • the use of such a cheering reproduction function is not limited to the case of the second concert format, and is similarly possible in the first concert format.
  • the cheering reproduction function is used in the first concert form, the user actually possesses the child device 11, so the cheering data reproduced by the cheering reproduction function is transmitted in advance using the microphone 26 of the child device 11. You may record.
  • the cheering of each audience can be emitted from the seat position assigned to each audience.
  • the cheering of each spectator can be reproduced at a predetermined timing for each area of the concert venue under the control of the master unit 12, and various performance effects can be achieved using the cheering of each spectator.
  • performers can receive cheers as if the audience were there.
  • Fans who are not at the concert venue can get the feeling of participating in the concert.
  • To edit the cheering data of the spectators used in the cheering reproduction function separately from the performance data in editing the voice data recorded in the concert, and to achieve various performance effects using the cheering data.
  • a virtual child device corresponding to the actual child device 11 is arranged at each virtual seat (virtual seat) in the virtual concert venue (virtual venue) generated in the virtual space. That is, a virtual speaker (virtual speaker) corresponding to the speaker 25 of the actual child device 11 and a virtual microphone corresponding to the microphone 26 of the actual child device 11 are arranged at each virtual seat in the virtual venue.
  • the performers performing at the virtual venue can listen to realistic virtual cheering (virtual sound) through ear monitors or the like.
  • the spectators at each virtual seat can similarly listen to the sound of the performance and the cheering according to their seat position through headphones or the like.
  • the use of such a cheering reproduction function is also possible in the second concert mode when the users assigned to each seat can listen to realistic virtual sounds at home or the like.
  • the cheering recording function in the third concert mode it is possible to individually record the cheering data at the virtual venue of each spectator (each user) assigned to each virtual seat in the virtual venue. To edit the cheering data of the audience separately from the performance data in editing the voice data recorded in the concert, etc., and to achieve various performance effects using the cheering data.
  • the cheering data recorded by the virtual microphone of each virtual seat recorded by the cheering recording function in the third concert mode is the same as the cheering data played by each virtual speaker of each virtual seat may be
  • FIG. 7 is a diagram for explaining the cheering recording function of the venue production system 1. As shown in FIG.
  • a in FIG. 7 shows the time code (LTC: Longitudinal Time-Code) hours:minutes:seconds that is added to the performance data when the audio data (performance data) of a song played at a concert is recorded (recorded).
  • the performance data can be acquired from a microphone used by the performer, an output signal of a musical instrument, or the like, by a device (not shown). Performance data is not limited to acquisition by a specific device.
  • B in FIG. 7 represents the timing of recording by the microphone 26 of the child device 11 at a predetermined seat.
  • C in FIG. 7 represents the timing of the cheering recording start signal transmitted from the parent device 12 to the child device 11 .
  • the management side of the concert may decide in advance the timing and words of cheering (call and response) for each song to be played at the concert, and notify the audience.
  • time T1 is the time code when a predetermined song starts, and cheering is generally given at the start and end of the song even if there is no call.
  • time T2 which is a predetermined time after time T1 is the start timing of cheering according to the song.
  • the cheering at the timing of time T2 is a response to the performer's call.
  • the response will be taken as one recording period, and the cheering will be performed at the start timing of time T2. This is the first response.
  • the start timing of the cheers (responses) in the song, the number of calls (the number of responses), and the words of the responses are notified to the audience in advance.
  • Time T3 when a predetermined period of time has elapsed from time T2, is also the time to start cheering according to the song.
  • the timing of starting the second response, the number of calls (the number of responses), and the words of the responses are also notified to the audience in advance. However, the timing of cheering, the number of calls, and the words of the response may not be notified to the audience.
  • the concert management side may determine the timing at which it is estimated (predicted) that cheering will be performed, based on the number or the like.
  • a period during which the audience is expected to cheer is also referred to as a cheering period. In FIG. 7, the timing of cheering after the cheering at the start timing of time T3 is omitted.
  • the base unit 12 sets a predetermined time (for example, 6 seconds) before time t1, At t2 or t3, a cheering recording start signal is transmitted to the handset 11 to instruct the start of recording of cheering.
  • the cheering recording start signal is a signal that designates the time to start recording (recording start time), for example, times t1s, t2s, and Designate t3s as the recording start time.
  • the time T1 at which the song starts is managed by the concert progression manager or the like.
  • PC 91 or console terminal 92 (hereinafter referred to as console terminal 92) connected to master device 12 obtains the information (input by the operator) to grasp time T1.
  • the console terminal 92 can grasp times T1, T2, and T3, which are start timings of cheering (cheering period), based on the time T1.
  • the console terminal 92 stores the name of the song being played, and the time t1, which is a predetermined time (for example, 6 seconds) before the times T1, T2, and T3, which are the cheering start timings.
  • times t1s, t2s and t3s at which recording is started for cheering at respective start timings of times T1, T2 and T3, and length of recording time (recording duration ) and the number of cheers (calls) (the number of consecutive calls) at the respective start timings of times T1, T2, and T3 are set in advance.
  • the console terminal 92 instructs the parent device 12 (control unit 61) to transmit a cheering recording start signal to the child device 11 at time t1, t2, or t3.
  • a cheering recording start signal is transmitted from the parent device 12 to the child device 11 at times t1, t2, and t3.
  • the operator of the console terminal 92 (staff on the management side, etc.) manually instructs the parent device 12 to send a cheering recording start signal to the child device 11. may be instructed to send the
  • the slave device 11 receives the cheering recording start signal from the master device 12 at times t1, t2, and t3.
  • the child device 11 turns on the microphone 26 (power consumption state) and starts receiving cheering data with the microphone 26 . That is, the child device 11 starts recording at times t1s, t2s, and t3s one second before times T1, T2, and T3, which are timings for starting cheering.
  • the encouragement recording start signal from the parent device 12 to the child device 11 also includes designation (instruction) of the length of recording time (recording duration). For each of the recordings started at t2s and t3s, the microphone 26 is turned off (non-power consumption state) at times t1e, t2e, and t3e when the specified recording duration has passed, and the microphone 26 Stop receiving cheering data.
  • the slave device 11 stores the cheering data acquired in each of the cheering period from time t1s to t1e, the cheering period from time t2s to t2e, and the cheering period from time t3s to t3e as individual cheering data files. Save in the storage unit 36 .
  • the handset 11 control unit 33
  • the header file includes song titles, LCT records (time codes), the number of calls, user IDs (seat numbers), and information about the vibration frequency of the handset 11 (vibration information about vibrations) when cheering was recorded.
  • a vibration sensor (not shown) is mounted on the child device 11 to detect the vibration frequency of the child device 11 during cheering recording. If the vibration frequency of the child device 11 during cheering recording is high, the reliability of the recording is low, and the cheering data can be used for determination such as not to be used.
  • the cheering data can be used for determination such as not to be used.
  • header information any one or more of the song title, LCT record (time code), number of calls, user ID (seat number), and information on the vibration frequency of the handset 11 is added to the cheering data. For example, only the time code and seat number may be added.
  • the performer may request a call and response only for a specific area of the concert venue.
  • the base unit 12 uses the ID division mode signal to specify only the seat number (user ID) of the specific area as the ID division information, and sends a cheering recording start signal to the slave unit 11. Send.
  • the recording of the cheering is executed only by the child device 11 of the designated seat number.
  • FIG. 9 is a block diagram showing a configuration example of a cheering recording device for carrying out the processing of the cheering recording function in the hall production system 1. As shown in FIG. The configuration and processing of the cheering recording apparatus shown in FIG. 9 will be described on the assumption that the cheering recording function is used in the first concert format (concert with audience).
  • the cheering recording device 101 in FIG. 9 is constructed by one component of the venue production system 1, and performs the processing of the cheering recording function.
  • the cheer recording device 101 includes a microphone 26, a cheer recording instruction unit 111, a time designation unit 112, a song information designation unit 113, a venue seat designation unit 114, a vibration sensor 115, a voice recording processing unit 116, and a cheer data storage unit 117. have.
  • a microphone 26 represents the microphone 26 in the child device 11 (predetermined one child device 11) in FIGS.
  • An audio signal (user's cheering) detected (received) by the microphone 26 is supplied to the audio recording processing unit 116 .
  • the cheering recording instruction unit 111 supplies a cheering recording start signal for instructing recording of the voice (user's cheering) detected by the microphone 26 to the voice recording processing unit 116 constructed by the constituent elements of the child device 11 .
  • a cheering recording start signal from cheering recording instructing unit 111 to voice recording processing unit 116 is transmitted via wireless communication between child device 11 and parent device 12 .
  • the cheering recording start signal is supplied from the cheering recording instruction unit 111 to the voice recording processing unit 116 for each cheering period during which the audience cheers during the concert.
  • the cheering period is, for example, the period from the start of the concert until the elapse of a predetermined time after the start of the first song, the period during which calls and responses are made during each song, and the end of each song.
  • MC Master of Ceremonies
  • MC is performed during the period from a predetermined time before the start of the next song until the predetermined time has passed, and the period from the predetermined time before the end of the last song to the end of the concert. It is the period, etc., and is estimated in advance based on the set list (track order, etc.) at the concert.
  • the timing (time) at which the cheering recording instruction unit 111 transmits the cheering recording start signal to the voice recording processing unit 116 is a predetermined time (before the recording standby time) before the recording start time at which recording is actually started. Time.
  • the length of the recording standby time is several seconds, for example 5 seconds.
  • a cheering recording start signal from the cheering recording instruction unit 111 to the voice recording processing unit 116 is sent by the operator of the PC 91 or the console terminal 92 (concert progress manager, technical staff, etc.) for each cheering period according to the progress of the concert. It may be supplied when a predetermined operation is performed, or at a time when a preset time has passed based on the time when the operator performed a predetermined operation at the start of a song, etc. It may be supplied automatically.
  • the cheering recording start signal from the cheering recording instructing unit 111 to the voice recording processing unit 116 for each cheering period may be supplied by any method.
  • the cheering recording start signal includes specification of the recording start time, which is the time at which recording is to be started, and specification of the recording duration, which is the time during which the recording is to be continued.
  • the cheering recording instruction unit 111 designates, for example, one second before the start time of the target cheering period as the recording start time.
  • the cheering recording instruction unit 111 designates, as the recording continuation time, a time longer than or equal to the length of time from the recording start time to the end time of the target cheering period.
  • the cheering recording instruction unit 111 may specify the recording start time and the recording end time, and specify the period during which the recording is to be performed. It is acceptable if it is specified to
  • the cheering recording start signal is sent to the voice recording processing unit before the recording start time. 116 should be given.
  • the cheering recording instruction unit 111 transmits a cheering recording start signal five seconds before the recording standby time one second before the start time of each cheering period. Even if the time at which the voice recording processing unit 116 receives the cheering recording start signal is delayed, the recording is properly performed in each cheering period.
  • the recording wait time may be other than 5 seconds, or may be a different time for each cheer period.
  • the time designation unit 112 is a timer (internal clock) built into the slave device 11 .
  • the time designation unit 112 measures the time and supplies it to the audio recording processing unit 116 .
  • the time is time information specifying an arbitrary point in time during the concert.
  • the time is also measured by a timer (internal clock) in master device 12 .
  • the time specifying unit 112 is synchronized with the timer of the master device 12 before the start of a concert or the like so as to output the same time as the timer of the master device 12 at any time.
  • the song information designating unit 113 specifies the song information of the song played during the target cheering period. It is supplied to the voice recording processing unit 116 .
  • the song information includes the song title and the number of cheers (calls). The number of times of cheering (call) indicates the order (order) of the target cheering period when each cheering period from the start of the song or the start of the concert is ordered.
  • the number of times of cheering indicates how many cheering periods have been counted from the start of the song or the start of the concert.
  • the cheering period may be limited to a period during which a response is made to the performer's call, and in that case, the number of times of cheering may be the number of calls.
  • the song information may be included in the cheering recording start signal from the cheering recording instructing section 111 .
  • the venue seat designation unit 114 is a processing unit constructed by the constituent elements of the child device 11 in FIG.
  • the venue seat designation unit 114 acquires in advance the seat number of the seat assigned to the user who uses the child device 11 at the concert venue before the concert or the like.
  • the venue seat designation unit 114 supplies the seat number acquired in advance to the voice recording processing unit 116 .
  • the seat number is stored in the electronic tag 44 (see Fig. 4) installed at each seat in the concert venue.
  • the user holds the reader 37 of the handset 11 owned by the user over the electronic tag 44 of the seat assigned to the user.
  • the seat number recorded on the electronic tag 44 is read by the reader 37 .
  • Venue seat designation unit 114 acquires (stores) the seat number read by reader 37 as the seat number (user ID) assigned to the user who uses own handset 11 .
  • the venue seat designation unit 114 is not limited to acquiring the seat number assigned to the user from the electronic tag 44 .
  • the hall seat designation unit 114 may acquire the seat number manually input by the user from the input unit provided in the slave device 11 .
  • the venue seat designation unit 114 may acquire, through wireless communication or the like, the user's seat number input to a terminal device such as a smartphone owned by the user.
  • the handset 11 in which the information of the seat number is stored in advance may be given to the user to whom the seat of the seat number is assigned.
  • the seat number is positional information specifying the position (or area) of each child device 11 in the concert venue, and other information specifying the position (or area) of the concert venue is used instead of the seat number. It may be used as location information.
  • a concert venue is divided into a plurality of areas, and each area is given a unique area number.
  • the user is given an area number of the viewing area, which is determined in the concert venue.
  • Each user is given an area number as well as a unique number that does not overlap with at least users viewing in the same area.
  • the handset 11 owned by each user acquires the combination of the user's area number and unique number as position information.
  • Acquisition of positional information in the handset 11 may be performed by distributing an electronic tag on which positional information is recorded to each user in the same manner, and reading the positional information of the electronic tag with the reader 37 in the same manner as in the case of the seat number. , may be entered manually by the user.
  • position information obtained by GPS (Global Positioning System) technology is used as the position information of the child device 11
  • wireless nodes such as wireless LAN access points installed at multiple locations in the concert hall and the child device 11 It may also be the case that the position information obtained by using radio waves propagated between is used.
  • the vibration sensor 115 includes, for example, an acceleration sensor mounted on the child device 11.
  • the vibration sensor 115 detects the vibration frequency of the child device 11 during the period when the voice recording processing unit 116 is recording the cheering, and the vibration frequency during that period, for example, the average value or the maximum value, is used for the voice recording process. 116.
  • the voice recording processing unit 116 is a processing unit constructed by the constituent elements of the child device 11 in FIG.
  • the voice recording processing unit 116 executes recording processing according to the cheering recording start signal from the cheering recording instructing unit 111 .
  • the voice recording processing unit 116 may be constructed by the components of the master device 12 .
  • the voice recording processing unit 116 turns on the microphone 26 (supplies power to the microphone 26), and starts recording. Start processing.
  • the voice recording processing unit 116 starts the recording process. Stop (end) and turn off the microphone 26 .
  • the voice recording processing unit 116 converts the voice signal detected (received) by the microphone 26 from an analog signal to a digital signal at a predetermined sampling period, and acquires it as cheering data.
  • the voice recording processing unit 116 ends acquisition of the cheering data from the microphone 26, and stores the cheering data acquired from the recording start time to the recording end time as, for example, one file in the cheering data storage unit 117. save.
  • the voice recording processing unit 116 adds the header file (header information) shown in FIG. 8 to the cheering data when storing the cheering data in the cheering data storage unit 117 .
  • the song title included in the header information is supplied from the song information specifying section 113 .
  • the title of the song in the header information represents the name of the song that was being played while the cheering data was being recorded.
  • the LTC record (time code) included in the header information is supplied from the time designation section 112 .
  • the time code of the header information represents, for example, the recording start time (time information regarding the time of recording) at which the voice recording processing unit 116 started recording processing.
  • the header information may include the number of cheers supplied from the song information designating section 113 .
  • the seat number included in the header information is supplied from the venue seat designation section 114 .
  • the seat number in the header information represents the seat position where the cheering data was recorded (position information about the recorded position).
  • the vibration frequency of the child device included in the header information is supplied from the vibration sensor 115 .
  • the frequency of the header information is, for example, the average value or the maximum value of the vibration frequency of the child device 11 during the recording of the cheering data, and represents the reliability of the recorded sound. That is, the higher the vibration frequency, the higher the possibility that the user has moved the handset 11 violently.
  • the header information may be added to the beginning of the cheering data in one cheering period, or may be added at predetermined time intervals.
  • the header information may be inserted into the cheering data, or may be associated with the cheering data as data separate from the cheering data.
  • the time code time stamp
  • the voice recording processing unit 116 may encode (compress) the cheering data acquired by the recording process in a predetermined format and store it in the cheering data storage unit 117 .
  • the cheering data storage unit 117 is a processing unit constructed by the components of the child device 11 in FIG. 3, and is included in the storage unit 36 of the child device 11.
  • the cheering data storage unit 117 stores the cheering data acquired by the recording processing of the voice recording processing unit 116 .
  • the cheering recording device 101 described above is constructed for each slave device 11 owned by a plurality of spectators (users), and individually records cheering data for each spectator.
  • the cheering recording instructing unit 111 designates some seat numbers in the ID division mode and instructs recording of cheering data by the microphone 26, so that the designated partial seat numbers are used as user IDs. Recording of the cheering data only by the machine 11 can be performed synchronously.
  • FIG. 10 is a flow chart illustrating a processing procedure when using the cheering recording function.
  • step S1 each user turns on the power switch 23 of the slave device 11. Processing proceeds from step S1 to step S2.
  • step S2 each user touches the electronic tag 44 installed in the seat designated by the child device 11, and the seat number (seat information) recorded in the electronic tag 44 is taken into the child device 11 by NFC.
  • the slave device 11 transmits the seat number acquired from the electronic tag 44 to the master device 12 as a user ID, and performs pairing with the master device 12 .
  • step S2 proceeds from step S2 to step S3.
  • step S3 the control unit 33 of the slave device 11 synchronizes the time of the built-in timer (internal clock) with the master device 12 to match the time with the master device 12. Processing proceeds from step S3 to step S4.
  • step S4 slave device 11 determines whether or not there is a recording start time instruction (cheering recording start signal) from master device 12 or not.
  • step S4 If it is determined in step S4 that there is no recording start time instruction, the process proceeds to step S6. If it is determined in step S4 that the recording start time has been instructed, the process proceeds to step S5.
  • step S5 the slave device 11 sets the recording start time instructed by the master device 12. Processing proceeds from step S5 to step S6.
  • step S6 the slave device 11 determines whether or not the recording start time set in step S5 has come.
  • step S6 If it is determined in step S6 that the recording start time has not yet come, the process returns to step S4 and repeats from step S4. If it is determined in step S6 that the recording start time has come, the process proceeds to step S7.
  • step S7 the child device 11 continues recording until the recording duration specified by the cheering recording start signal from the parent device 12 elapses.
  • step S7 ends the process returns to step S4 and repeats from step S4.
  • the cheering recording function it is possible to individually record the cheering of each audience member at a concert. To edit the cheering data of the audience separately from the performance data in editing the voice data recorded in the concert, etc., and to achieve various performance effects using the cheering data.
  • the cheering recording function can be used not only in the case of the first concert format, but also in the second concert format and the third concert format.
  • FIG. 11 is a diagram for explaining the cheering reproduction function of the hall production system 1.
  • FIG. 11A shows time code (LTC: Longitudinal Time-Code) hours:minutes:seconds added to performance data when recording (recording) audio data (performance data) of a song played at a concert.
  • the performance data can be acquired from a microphone used by the performer, an output signal of a musical instrument, or the like, by a device (not shown). Performance data is not limited to acquisition by a specific device.
  • FIG. 11 represents the timing of reproduction of cheering by the speaker 25 of the child device 11 placed on the predetermined seat.
  • the second concert format is a performance at a concert venue with no audience, there is no audience.
  • each seat in the concert venue is assigned, for example, a user who watches the video and audio of the concert delivered online as an audience.
  • the storage unit 36 of the handset 11 arranged at each seat stores cheering data recorded in advance by the user assigned to each seat.
  • a header file shown in FIG. 8 is added to the cheering data stored in the storage unit 36, and the song title, time code (time), etc. of the song for reproducing each cheering data are determined.
  • C in FIG. 11 represents the timing of the cheering reproduction start signal transmitted from the parent device 12 to the child device 11 .
  • time T1 is the time code when a predetermined song starts, and cheers are generally given at the start and end of the song even if there is no call.
  • time T2 which is a predetermined time after time T1 is the start timing of cheering according to the song. The cheering at the timing of time T2 is a response to the performer's call.
  • the cheering at the start timing of time T2 is the first response.
  • the start timing of the cheers (responses) in the song, the number of calls (the number of responses), and the words of the responses are notified to the audience in advance.
  • Time T3 when a predetermined period of time has elapsed from time T2, is also the time to start cheering according to the song.
  • the timing of starting the second response, the number of calls (the number of responses), and the words of the responses are also notified to the audience in advance.
  • the timing of cheering, the number of calls, and the words of the response may not be notified to the audience, and may be based on the interlude or lyrics of the song, or the timing and number of calls made by the performers.
  • the host side may determine the timing at which the cheering will be estimated (predicted) based on the above. In FIG. 11, the timing of cheering after the cheering at the start timing of time T3 is omitted.
  • the base unit 12 sets a predetermined time (for example, 6 seconds) before time t1, At t2 or t3, a cheering reproduction start signal is transmitted to the slave unit 11 to instruct the start of reproduction of cheering.
  • the cheering reproduction start signal is a signal that designates the time to start reproduction. For example, it designates times t1s, t2s, and t3s five seconds after times t1, t2, and t3 as reproduction start times. do.
  • the time T1 at which the song starts is managed by the concert progression manager or the like.
  • the console terminal 92 connected to the master device 12 obtains the information (input by the operator) to grasp the time T1.
  • the console terminal 92 can grasp times T1, T2, and T3, which are cheering start timings, based on the time T1.
  • the console terminal 92 stores the name of the song being played and the timing of the start of cheering (cheering period), i.
  • times t1, t2, and t3, times t1s, t2s, and t3s at which the cheering is started at the respective start timings of times T1, T2, and T3, and the length of the reproduction time (playback duration) and the number of cheers (calls) (the number of continuous calls) at the respective start timings of times T1, T2, and T3 are set in advance.
  • the console terminal 92 instructs the parent device 12 (control unit 61) to transmit a cheering reproduction start signal to the child device 11 at time t1, t2, or t3.
  • the cheering reproduction start signal is transmitted from the parent device 12 to the child device 11 at times t1, t2, and t3.
  • the operator of the console terminal 92 (staff on the management side, etc.) manually instructs the parent device 12 to transmit the cheering reproduction start signal to the child device 11. may be instructed to send the
  • the slave device 11 receives the cheer generation start signal from the master device 12 at times t1, t2, and t3.
  • the handset 11 turns on the speaker 25 (power consumption state) and starts playing the cheering data through the speaker 25 . That is, the child device 11 starts reproduction from times t1s, t2s, and t3s, which are one second before times T1, T2, and T3, which are cheering start timings.
  • Child device 11 reads cheering data to be reproduced by speaker 25 from storage unit 36 by referring to the song title and time code in the header file.
  • the cheering data reproduced from time t2s is cheering data in which the title of the song currently being played at the concert venue matches the title of the song in the header file.
  • cheering data is read from the storage section 36 in which the elapsed time from the song start time T1 to time t2s matches or approximates the elapsed time from the song start time calculated from the time code of the header file.
  • the sound is reproduced (sound emitted) by the speaker 25 that is emitted.
  • the cheering data may be read out and reproduced in chronological order indicated by the time code.
  • the cheering reproduction start signal from the parent device 12 to the child device 11 also includes designation (instruction) of the length of the reproduction time (reproduction continuation time).
  • the speaker 25 is turned off (non-power consumption state) at times t1e, t2e, and t3e when the designated playback duration time has elapsed for each of the playback started at t2s and t3s, and the speaker 25 Stop playing the cheering data.
  • the performer may request a call and response only for a specific area of the concert venue.
  • the base unit 12 uses the ID division mode signal to specify only the seat number (user ID) of the specific area as the ID division information, and sends a cheering reproduction start signal to the slave unit 11. Send. As a result, the cheering is reproduced only by the child device 11 of the designated seat number.
  • FIG. 12 is a block diagram exemplifying the configuration of a cheering reproduction device for executing the processing of the cheering reproduction function in the hall production system 1. As shown in FIG. The configuration and processing of the cheering reproduction apparatus in FIG. 12 will be described on the assumption that the cheering reproduction function is used in the second concert format.
  • the cheering reproduction device 131 in FIG. 12 is constructed by the constituent elements of the venue production system 1, and carries out processing of the cheering reproduction function.
  • the cheering playback device 131 has a speaker 25 , a cheering playback instruction unit 141 , a time specifying unit 142 , a cheering data storage unit 143 , and an audio playback processing unit 144 .
  • a speaker 25 represents the speaker 25 in the child device 11 (predetermined one child device 11) in FIGS.
  • the speaker 25 reproduces (emits) the audio signal supplied from the audio reproduction processing unit 144 .
  • the cheering reproduction instruction unit 141 supplies a cheering reproduction start signal for instructing the speaker 25 to reproduce the sound (user's cheering) to the audio reproduction processing unit 144 constructed by the components of the child device 11 .
  • a cheering reproduction start signal from the cheering reproduction instruction unit 141 to the audio reproduction processing unit 144 is transmitted via wireless communication between the child device 11 and the parent device 12 .
  • the cheering reproduction start signal is supplied from the cheering reproduction instruction unit 141 to the audio reproduction processing unit 144 for each cheering period during which the audience cheers during the concert. Since the cheering period is as described above, the explanation is omitted.
  • the timing (time) at which the cheering reproduction instruction unit 141 transmits the cheering reproduction start signal to the audio reproduction processing unit 144 is a predetermined time (before the reproduction standby time) before the reproduction start time at which reproduction is actually started. Time.
  • the length of the playback waiting time is several seconds, for example 5 seconds.
  • a cheering reproduction start signal from the cheering reproduction instruction unit 141 to the audio reproduction processing unit 144 is supplied when the operator of the PC 91 or the console terminal 92 performs a predetermined operation for each cheering period according to the progress of the concert. It may be the case, and even if it is automatically supplied at the time when the preset time has passed based on the time when the operator performs a predetermined operation at the start of the song, etc. good.
  • the cheering reproduction start signal from the cheering reproduction instruction unit 141 to the audio reproduction processing unit 144 for each cheering period may be supplied by any method.
  • the cheering reproduction start signal includes designation of a reproduction start time, which is the time to start reproduction, and designation of a reproduction duration, which is the time to continue reproduction.
  • the cheering reproduction instruction unit 141 designates, for example, one second before the start time of the target cheering period as the reproduction start time.
  • the cheering reproduction instruction unit 141 designates, as the reproduction duration time, a time longer than or equal to the length of time from the reproduction start time to the end time of the target cheering period.
  • the cheering reproduction instruction unit 141 may designate the reproduction start time and the reproduction end time instead of designating the reproduction start time and the reproduction continuation time by the cheering reproduction start signal. It can be specified as long as it is specified.
  • the cheering reproduction instruction unit 141 transmits a cheering reproduction start signal five seconds before the reproduction standby time one second before the start time of each cheering period. Even if the time at which the audio reproduction processing unit 144 receives the audio reproduction instruction is delayed, the reproduction is appropriately performed in each cheering period.
  • the playback wait time may be other than 5 seconds, or it may be a different time for each cheering period.
  • the time designation unit 142 is a timer (internal clock) built into the slave device 11 .
  • the time designation unit 142 measures the time and supplies it to the audio reproduction processing unit 144 .
  • the time is time information specifying an arbitrary point in time during the concert.
  • the time is also measured by a timer (internal clock) in master device 12 .
  • the time specifying unit 142 is synchronized with the timer of the master device 12 before the start of a concert or the like so as to output the same time as the timer of the master device 12 at any time.
  • the cheering data storage unit 143 is a processing unit constructed by the components of the child device 11 in FIG. 3, and is included in the storage unit 36 of the child device 11.
  • the cheering data storage unit 143 stores in advance the cheering data to be reproduced (sounded) by the speaker 25 by the reproduction processing of the audio reproduction processing unit 144 .
  • the cheering data stored in the cheering data storage unit 143 may be cheering data recorded in advance by the user's own voice before the start of a concert, etc., or predetermined cheering data in an artificially generated voice. data, or default cheering data in the voice of a person unrelated to the user.
  • the user causes a terminal device (recording device) such as a smartphone owned by the user to execute a predetermined application (software).
  • the user records cheering in each cheering period and generates cheering data in each cheering period according to the guidance of the application.
  • the header information shown in FIG. 8 is added to the cheering data in each cheering period.
  • the title of the song in the header information represents the name of the song played when the cheering data is reproduced.
  • the LTC record (time code) of the header information indicates, for example, the playback start time at which playback of cheering data is started.
  • the playback start time at which the cheering data actually starts playing varies depending on the progress of the concert, but the playback starting time of the cheering data according to the concert plan (timetable) is added as the time code in the header information. be done.
  • the number of times of cheering may be included in the header information together with the time code of the header information or instead of the time code.
  • the number of times of cheering is, for example, the order of target cheering periods (cheering periods for reproducing cheering data) when each cheering period from the start of a song or the start of a concert is ordered, as described above. represents (order).
  • the seat number of the header information is the seat number of the seat assigned to the user, and represents the seat position where the cheering data is reproduced in the concert hall.
  • the frequency of the child device 11 in the header information indicates the reliability of the recorded sound, and is set to 0 when the reliability is the highest.
  • a time code (time stamp) may be added to the cheering data at predetermined time intervals.
  • the cheering data with header information added in this way is transmitted from the user's terminal device to the server of the concert management side through a communication network such as the Internet.
  • the cheering data transmitted to the server is transmitted to the child device 11 whose user ID is the seat number of the seat assigned to the user via the master device 12 and stored in the cheering data storage unit 143 .
  • each handset 11 acquires the seat number of the seat where it is placed from the electronic tag 44, It is notified to the parent device 12 as an ID.
  • the user may Access the server and specify the cheering data to be reproduced in each cheering period.
  • the cheering data to be reproduced in each cheering period may be configured so that the user can select one of a plurality of types of cheering data with different words, for example.
  • the server adds the header information of FIG. 8 to the cheering data of each cheering period designated by the user.
  • the cheering data to which the header information is added is transmitted to the handset 11 whose user ID is the seat number of the seat assigned to the user, and stored in the cheering data storage unit 143 .
  • the audio reproduction processing unit 144 is a processing unit constructed by the constituent elements of the child device 11 in FIG.
  • the audio reproduction processing unit 144 executes reproduction processing according to the cheering reproduction start signal from the cheering reproduction instruction unit 141 . It should be noted that the audio reproduction processing unit 144 may be constructed by the components of the parent device 12 .
  • the audio reproduction processing unit 144 turns on the speaker 25 (supplies power to the speaker 25), and reproduces the sound. Start processing.
  • the audio reproduction processing unit 144 starts reproduction processing. Stop (end) and turn off the speaker 25 .
  • the audio reproduction processing unit 144 reads from the cheering data storage unit 143 the cheering data having the reproduction start time specified by the cheering reproduction start signal from the cheering reproduction instruction unit 141 as the time code of the header information.
  • the cheering reproduction instruction unit 141 intends to reproduce the cheering data of a predetermined cheering period stored in the cheering data storage unit 143, and designates the reproduction start time corresponding to the target cheering period by the cheering reproduction start signal. .
  • the playback start time specified by the cheering playback start signal and the time code of the header information added to the cheering data of the target cheering period stored in the cheering data storage unit 143 are used to determine the progress of the concert as planned. difference.
  • the audio reproduction processing unit 144 selects, among the cheering data of each cheering period stored in the cheering data storage unit 143, the cheering data of the cheering period that has not been played back, and the time code of the header information is the first.
  • the cheering data to which the arrival time is added (or the cheering data to which the time closest to the designated reproduction start time is added) may be read from the cheering data storage unit 143 .
  • the audio reproduction processing unit 144 counts the number of times the cheering reproduction start signal is supplied from the cheering reproduction instruction unit 141, and reads the cheering data of the cheering period in the order matching the number of times from the cheering data storage unit 143. can be
  • the audio reproduction processing unit 144 converts the cheering data read from the cheering data storage unit 143 from a digital signal to an analog signal and reproduces (emits) it from the speaker 25 as an audio signal.
  • the audio reproduction processing unit 144 performs processing for decoding the encoded cheering data.
  • the cheering playback device 131 described above is constructed for each slave device 11 owned by a plurality of spectators (users) (the slave device 11 arranged in the seat assigned to each user), and the cheering data for each spectator is sent to each user. Individually played at assigned seat positions.
  • the cheering reproduction instruction unit 141 designates some seat numbers in the ID division mode and instructs reproduction of the cheering data by the speaker 25, so that the designated partial seat numbers are used as user IDs. The reproduction of the cheering data only on the machine 11 can be synchronized.
  • FIG. 13 is a flowchart illustrating a processing procedure when using the cheering generation function.
  • step S11 the staff on the management side of the concert (hereinafter referred to as "staff") turns on the power switch 23 of the child device 11. Processing proceeds from step S11 to step S12.
  • step S12 the staff touches the electronic tag 44 installed on the seat where the child device 11 is to be placed, with the child device 11, and transmits the seat number (seat information) recorded in the electronic tag 44 to the child device 11 by NFC. take in.
  • the slave device 11 transmits the seat number acquired from the electronic tag 44 to the master device 12 as a user ID, and performs pairing with the master device 12 . Processing proceeds from step S12 to step S13.
  • step S13 the control unit 33 of the slave device 11 downloads the cheering data corresponding to the seat number (user ID) via the master device 12 and stores it in the storage unit 36.
  • the cheering data to be downloaded may be the cheering data previously uploaded by the user assigned to the seat number to the server (such as the PC 91) connected to the master device 12, or may be the predetermined cheering data. Processing proceeds from step S13 to step S14.
  • step S14 the control unit 33 of the slave device 11 synchronizes the time of the built-in timer (internal clock) with the master device 12 to match the time with the master device 12. Processing proceeds from step S14 to step S15.
  • step S15 the child device 11 determines whether or not the master device 12 has instructed the reproduction start time (cheering reproduction start signal).
  • step S15 If it is determined in step S15 that no playback start time has been specified, the process proceeds to step S17. If it is determined in step S15 that the reproduction start time has been instructed, the process proceeds to step S16.
  • step S16 the slave device 11 sets the playback start time instructed by the master device 12. Processing proceeds from step S16 to step S17.
  • step S17 the child device 11 determines whether or not the reproduction start time set in step S16 has come.
  • step S17 If it is determined in step S17 that the playback start time has not yet come, the process returns to step S15 and repeats from step S15. If it is determined in step S17 that the reproduction start time has come, the process proceeds to step S18.
  • step S18 the child device 11 reproduces the cheering data until the reproduction continuation time designated by the cheering reproduction start signal from the parent device 12 elapses.
  • step S18 ends the process returns to step S15 and repeats from step S15.
  • the cheering of each audience member at a concert can be played back individually or in synchronization at the seat position assigned to each audience member.
  • the cheering of each spectator can be synchronized and reproduced at a predetermined timing for each area of the concert venue under the control of the parent device 12, and various performance effects can be achieved using the cheering of each spectator.
  • performers can receive cheers as if the audience were there.
  • Fans who are not at the concert venue can get the feeling of participating in the concert.
  • To edit the cheering data of the spectators used in the cheering reproduction function separately from the performance data in editing the voice data recorded in the concert, and to achieve various performance effects using the cheering data.
  • the cheering data reproduced by the cheering reproduction function is not stored in advance in the cheering data storage unit 143, but is based on real-time cheering data from a user who is watching the concert at a remote location such as his/her home. It may be cheering data.
  • the cheering reproduction function can be used not only in the second concert mode but also in the first concert mode and the third concert mode.
  • ⁇ Voice data transmission function> The audio data transmission function of the venue production system 1 will be described with the first concert mode as an example.
  • FIG. 14 is a diagram explaining the audio data transmission function.
  • the cheering data stored in the storage unit 36 of the child device 11 by the cheering recording function of the venue production system 1 can be transferred to the main device 12 by using the voice data transmission function after the concert ends.
  • FIG. 14 is a diagram for explaining a form in which cheering data is transmitted from the slave device 11 to the master device 12 (or server).
  • the slave device 11 can directly transmit the cheering data stored in the storage unit 36 by wireless communication with the master device 12 by a predetermined operation of the user.
  • the cheering data transmitted to the master device 12 can be transferred to, for example, a server connected to the master device 12 on the concert administration side. However, in this case, it is necessary to transmit the cheering data to the base unit 12 at the concert venue.
  • the slave device 11 can be connected to the smartphone 161 owned by each user by wireless communication. Therefore, after the concert ends, the user connects the slave device 11 to the smartphone 161 at home or the like, and temporarily transfers the cheering data stored in the storage unit 36 to the smartphone 161 .
  • the user can connect the smartphone 161 to the server of the concert management side via a communication network such as the Internet, and transmit the cheering data transferred to the smartphone 161 to the server via the communication network. It is also possible to transfer the cheering data to not only the smart phone 161 but also to a mobile terminal connectable to a communication network, a PC (personal computer) at home, or the like, and then send the data to the server.
  • the cheering data is attached with a seat number, it is possible to identify which seat in the concert venue the cheering data was recorded from by the seat number added to the cheering data.
  • the seat number user ID
  • the cheering data sent by the user is It may be possible to identify which seat of the user in the concert hall the cheering data belongs to.
  • the voice data transmission function is not limited to transmitting cheering data recorded by the cheering recording function from the child device 11 to the server or the like, but also when transmitting cheering data reproduced by the cheering reproduction function from the child device 11 to the server or the like. is also used in the same way.
  • FIG. 15 is an explanatory diagram of virtual sound generation.
  • a concert venue 171 is a virtual space representation of the concert venue actually used in the first concert format.
  • a concert venue (virtual venue) 171 in the virtual space virtual seats (virtual seats) are arranged at the same positions as the actual seats.
  • An object audio (speaker) in the virtual space is arranged at each virtual seat.
  • the object audio of each virtual seat outputs the cheering data actually recorded by the handset 11 at each seat position.
  • the cheering data (virtual sound) heard at an arbitrary listening position (seat position, on stage, etc.) in the virtual space (virtual venue) is calculated by calculation. If the cheering data of all the seats were synchronously reproduced, it would be possible to generate the virtual sound of a large chorus.
  • the cheering data (virtual sound) is generated when the cheering data (virtual sound) of the seats within the range of the area 172 in FIG. It is possible to generate realistic virtual sounds. That is, by using the seat information in the header information added to each cheering data, the cheering data for each seat can be reproduced in a predetermined order (seat order) from a predetermined starting point. It is also possible to generate cheering data (virtual sound) when the cheering data of only the seats in the area indicated by the performer is reproduced in the virtual space.
  • FIG. 16 is a block diagram showing a configuration example of an editing device that edits cheering data at a concert. It is assumed that the cheering data recorded by the cheering recording function in the first concert style or the cheering data used by the cheering playback function in the second concert style is edited. Editing of cheering data is performed when distributing audio data of concert performances on recording media such as CDs (Compact Discs) and DVDs (Digital Versatile Discs), and when distributing them via communication networks.
  • CDs Compact Discs
  • DVDs Digital Versatile Discs
  • the editing device 201 in FIG. 16 has a cheering data storage unit 211, a cheering playback instruction unit 212, a time designation unit 213, a venue seat information storage unit 214, an audio processing unit 215, and a generated data storage unit 216.
  • the cheering data storage unit 211 stores the cheering data of each audience at each seat in the concert venue when the concert is held. For example, when the concert is held in the first concert format, the cheering data recorded for each audience by the cheering recording device 101 shown in FIG. sent. The cheering data storage unit 211 stores the cheering data of each spectator transmitted to the server. When the concert is held in the second concert format, the cheering data of each audience reproduced by the cheering reproduction device 131 of FIG. The cheering data storage unit 211 supplies the stored cheering data to the audio processing unit 215 . Header information shown in FIG. 8 is added to each spectator's cheering data.
  • the cheering reproduction instruction unit 212 designates the reproduction start time for starting the reproduction of the cheering data and the reproduction duration for continuing the reproduction to the sound processing unit 215 . Along with this designation, the cheering reproduction instruction unit 212 designates the seat number and the time code for limiting the cheering data to be reproduced to the audio processing unit 215 .
  • the cheering data to which the seat number and the time code specified by the cheering reproduction instructing section 212 are added as header information is designated as the cheering data to be reproduced.
  • the playback start time, playback duration, seat number, and time code designated by the cheering playback instruction unit 212 are set by the operator of the editing device 201 while viewing the concert performance and video. It should be noted that instead of specifying the seat number, it is also possible to specify an area when the concert venue is divided into a plurality of areas. Even when specifying an area, it is referred to as specifying a seat number.
  • the time designation unit 213 supplies the time from the start time to the end time of the concert to the audio processing unit 215 .
  • the venue seat information storage unit 214 stores the stage position in the concert hall, the seat position of each seat number, and the seat range included in each area when the concert hall is divided into areas as venue seat information. ing.
  • the venue seat information storage unit 214 supplies the stored venue seat information to the audio processing unit 215 .
  • the audio processing unit 215 uses the seat number and time code specified by the cheering playback instruction unit 212 as header information.
  • the added cheering data is acquired from the cheering data storage unit 211 .
  • the sound processing unit 215 refers to the venue seat information stored in the venue seat information storage unit 214, and determines whether the area is included in the specified area. Detect seat numbers.
  • the voice processing unit 215 acquires the cheering data of the detected seat number from the cheering data storage unit 211 .
  • the audio processing unit 215 generates virtual seats (virtual seats) at positions in the virtual venue corresponding to the positions of the seats of each seat number in the real space in the virtual space concert venue (virtual venue) corresponding to the real space concert venue. ).
  • the cheering data read out from the cheering data storage unit 211 is arranged as object audio at the virtual seat position corresponding to the seat number.
  • the audio processing unit 215 assumes that the audio of the cheering data reproduced (sounded) by each object audio is propagated to the left and right ears of the listening position, with a predetermined position in the virtual venue as the listening position. , and generate audio data of left and right sounds heard by the left and right ears, respectively, using a head-related transfer function or the like.
  • the audio processing unit 215 generates cheering data as virtual sound or virtual surround (stereophonic sound) in which the sound image is localized.
  • the audio processing unit 215 reproduces the cheering data by object audio from the playback start time to the playback end time, and generates left and right voice data (cheering data) at the listening position.
  • the audio processing unit 215 adds the time supplied from the time designating unit 213 to the generated left and right cheering data as a time code, and causes the generated data storage unit 216 to store the time code.
  • the generated data storage unit 216 stores left and right cheering data generated by the audio processing unit 215 .
  • the cheering data stored in the generated data storage unit 216 is mixed with the performance data recorded from the performance of the concert.
  • a time code is added to each of the cheering data and the performance data, and the cheering data and the performance data are mixed when the times indicated by the time codes match.
  • the cheering data for each seat stored in the cheering data storage unit 211 can be reproduced at desired timing. It is possible to generate cheering data that is heard at predetermined positions when played back on the . Therefore, as described with reference to FIG. 15, by shifting the area 172 for reproducing cheering data from a predetermined start point to a predetermined end position, a wave-like virtual sound can be generated.
  • FIG. 17 is a diagram explaining the flow of virtual sound generation processing in FIG. FIG. 17 shows the flow of processing for generating virtual sound when the cheering data of each audience recorded by the cheering recording function in the first concert mode is reproduced at the same timing as the concert.
  • step S41 the data receiving server (server on the concert management side) collects cheering data recorded by the handset 11 of each seat in the first concert mode.
  • step S42 the virtual sound generating device (editing device 201) analyzes the seat positions in the concert hall based on the seat numbers (seat information) included in the header information of the cheering data collected in step S41. At this time, the virtual sound generating device refers to the venue seat information indicating the relationship between the seat number and seat position of each seat in the concert venue.
  • step S43 the virtual sound generation device arranges each piece of cheering data collected in step S41 in a concert venue (virtual venue) in a virtual space simulating an actual concert venue. At this time, each cheering data is placed at a position in the virtual space corresponding to the seat position where each cheering data was actually recorded.
  • the virtual sound generator generates an LTC signal and designates the playback time.
  • the virtual sound generation device reproduces each piece of cheering data at the time of the LTC signal generated in step S44 in the virtual space to generate sound at the set listening position in the virtual space.
  • the virtual sound generation processing described above it is possible to generate a virtual sound when listening to cheering at an arbitrary position in the concert venue. Also, since the editing device 201 in FIG. 16 can freely edit the area and timing for reproducing the cheering of the audience at each seat during the concert, virtual sounds such as waves as described in FIG. 15 can be reproduced. It is possible to generate sounds for various production effects.
  • the editing device 201 of FIG. 16 generates virtual sound at a specific listening position from the cheering data recorded by the cheering recording function in the first concert style and the cheering data used by the cheering playback function in the second concert style.
  • the editing device 201 converts the cheering data recorded by the cheering recording function in the second concert style or the third concert style or the cheering data used by the cheering playback function in the first concert style or the third concert style into a specific listening position. may generate a virtual sound in
  • the editing device 201 may generate virtual sounds at a specific listening position in real time during the concert from the cheering data scheduled to be reproduced by the cheering reproduction function in the second concert format and the third concert format.
  • the virtual sound at the listening position of the performers is generated in real time during the concert from the cheering data to be played back by the cheering playback function, and the generated virtual sound is It is also possible for the performers to listen to the music through an ear monitor or the like during the concert. In this case, the performers can listen to the cheering of the audience even at the concert hall with no audience.
  • the cheering data generated by the editing device 201 does not have to be stereophonic sound considering the position (distance or direction) of each spectator with respect to the listening position.
  • the cheering data of each audience member is reproduced by the cheering reproduction device 131 of FIG. It is also possible to generate wave-like cheering as described in FIG. 15 at an actual concert venue.
  • FIG. 18 is a diagram for explaining virtual sound generation in the third concert mode.
  • a concert hall 241 is a virtual concert hall formed in virtual space.
  • a concert at a virtual concert hall 241 is distributed online (distributed via a communication network), and viewers are assigned seat numbers in the virtual concert hall 241 .
  • the number of seats in the concert venue 241 has no upper limit, and seat numbers are assigned to, for example, 700,000 viewers. However, suppose that it is possible to assign duplicate seat numbers to multiple viewers. If there are 700,000 viewers, 10 viewers are allocated per seat (one seat number).
  • a virtual handset 11 is placed on each seat. From the speaker 242 of the virtual handset 11, the cheering data for, for example, ten people assigned to the seat may be synthesized and output, or the cheering data may be divided for each song and output.
  • FIG. 19 is a block diagram showing a configuration example of an audio playback device that generates audio data to be provided to users in the third concert format.
  • a performance data supply unit 271 includes a performance data supply unit 271, a cheering data supply unit 272, a microphone 273, a cheering reproduction instruction unit 274, a time designation unit 275, a listening seat designation unit 276, a venue seat information storage unit 277, and a sound processing unit. It has a section 278 and an audio data reproducing section 279 .
  • the performance data supply unit 271 is constructed from the constituent elements of the server on the concert management side.
  • the performance data supply unit 271 is a configuration of a VR device (or a processing device connected to the VR device) such as an HMD (Head Mounted Display) that a user wears and uses performance data recording performers' performances at a concert. It feeds into the audio processor 278 constructed by the elements.
  • the server and the VR device are communicably connected via a communication network such as the Internet, and the performance data from the performance data supply unit 271 to the sound processing unit 278 is transmitted through the communication network.
  • the VR device may be a device that can listen only to audio.
  • the performance data supply unit 271 supplies the performance data obtained substantially at the same time as the performance to the audio processing unit 278 in substantially real time.
  • the performance data supply part 271 supplies the performance data from the start to the end of the concert stored in the storage part to the voice processing part 278 according to the passage of time.
  • the cheering data supply unit 272 is constructed from the constituent elements of the server on the concert management side.
  • the cheering data supply unit 272 supplies the voice processing unit 278 with cheering data of voices uttered by each user watching the virtual concert.
  • the cheering data is transmitted from the server to each user's VR device through the communication network in the same manner as the performance data.
  • Each user's cheering data is detected by the microphone 273 arranged for each user, added with the seat number of the virtual seat assigned to each user, and supplied to the cheering data supply unit 272 through the communication network.
  • the cheering data supply unit 272 supplies the cheering data acquired from each user's microphone 273 to the voice processing unit 278 .
  • the cheering data may be cheering data recorded in advance by the user's own voice before the start of the concert, as in the cheering reproducing apparatus 131 of FIG. or default cheering data in the voice of a person unrelated to the user. In this case, header information in FIG. 8 is added to the cheering data.
  • the cheering reproduction instruction unit 274 is a processing unit that is constructed by the constituent elements of the server on the concert management side, and whose processing is performed by the server.
  • the cheering reproduction instruction unit 274 supplies a cheering reproduction start signal to the audio processing unit 278 to instruct the audio data reproduction unit 279 to reproduce (sound) cheering.
  • a cheering reproduction start signal from the cheering reproduction instruction unit 141 to the audio reproduction processing unit 144 is transmitted via wireless communication between the server and each user's VR device.
  • the cheering reproduction start signal is supplied from the cheering reproduction instruction unit 274 to the audio processing unit 278 for each cheering period during which the audience cheers during the concert. Since the cheering period is as described above, the explanation is omitted.
  • the timing (time) at which the cheering reproduction instruction unit 274 transmits the cheering reproduction start signal to the audio processing unit 278, the reproduction start time and the reproduction duration specified by the cheering reproduction start signal are the same as those of the cheering reproduction device 131 shown in FIG. Since it is the same as , the explanation is omitted.
  • the time designation unit 275 is a timer installed in the VR device used by each user.
  • the time designation unit 275 supplies the time from the start time to the end time of the concert to the audio processing unit 278 .
  • the listening seat designation unit 276 is constructed from the components of the VR device used by each user.
  • the listening seat designation unit 276 designates the seat number of the virtual seat in the virtual venue assigned to the user using the own device to the voice processing unit 278 .
  • Each user is assigned a virtual seat in the virtual venue prior to the start of the concert and notified of the seat number.
  • the listening seat designation unit 276 acquires in advance the seat number of the virtual seat assigned to the user using the own device.
  • Venue seat information storage unit 277 stores as venue seat information representing the position of the stage in the virtual venue, the position of the virtual seat for each seat number, and the range of seats included in each area when the virtual venue is divided into areas. is doing.
  • the venue seat information storage unit 277 supplies the stored venue seat information to the audio processing unit 278 .
  • the audio processing unit 278 is constructed from the components of the VR device used by each user. However, the audio processing unit 278 may be constructed by components of the server. The audio processing unit 278 mixes the performance data supplied from the performance data supply unit 271 with cheering data and outputs the result from the audio data reproduction unit 279 .
  • the audio data reproducing unit 279 is an audio reproducing device such as headphones or earphones.
  • the audio processing unit 278 executes cheering reproduction processing in accordance with the cheering reproduction start signal from the cheering reproduction instruction unit 274 .
  • the audio processing unit 278 starts the cheering reproduction process when the time supplied from the time designation unit 275 reaches the reproduction start time designated by the cheering reproduction start signal.
  • the audio processing unit 278 starts the cheering reproduction process. Stop (end).
  • the audio processing unit 278 acquires from the cheering data supply unit 272 the cheering data having the reproduction start time specified by the cheering reproduction start signal from the cheering reproduction instruction unit 274 as the time code of the header information.
  • the cheering data supply unit 272 supplies the cheering data detected by the microphone 273 in real time
  • the sound processing unit 278 supplies the cheering data in real time during the period from the playback start time specified by the cheering playback instruction unit 141 to the playback end time.
  • the cheering data is acquired from the cheering data supply unit 272 .
  • the voice processing unit 278 uses the cheering data acquired from the cheering data supply unit 272 for the virtual seat of the seat number designated by the listening seat designation unit 276, for example, the seat number of the virtual seat that is less than the predetermined distance. It may be limited to only user's cheering data.
  • the seat number of the virtual seat that is less than a predetermined distance from the listening seat (virtual seat) specified by the listening seat specifying unit 276 is specified based on the venue seat information stored in the venue seat information storage unit 277. be.
  • the audio processing unit 278 arranges the cheering data acquired from the cheering data supply unit 272 as object audio at the position of the virtual seat with the seat number added as header information to the cheering data.
  • the sound processing unit 278 uses the position of the listening seat of the user using the own device as the listening position, and the sound of the cheering data reproduced (sounded) by each object audio is distributed to the left and right ears of the listening position. Assuming that the sound is propagated, audio data of the left and right sounds heard by the left and right ears are generated using a head-related transfer function or the like. Thereby, the audio processing unit 278 generates cheering data as virtual sound or virtual surround (stereophonic sound) in which the sound image is localized.
  • the audio processing unit 215 reproduces the cheering data by object audio from the reproduction start time designated by the cheering reproduction instruction unit 212 to the reproduction end time when the reproduction duration designated by the cheering reproduction instruction unit 212 has elapsed. left and right audio data (cheering data) at the listening position.
  • the audio processing unit 278 mixes the generated left and right cheering data with the performance data and supplies the performance data to the audio data reproducing unit 279 .
  • the audio data reproducing unit 279 is an audio reproducing device such as headphones or earphones worn by each user on both ears.
  • the audio data reproducing unit 279 reproduces the audio data (performance data and cheering data) from the audio processing unit 278 and provides it to the user.
  • the audio playback device 261 described above is constructed for a VR device installed in the homes of each spectator who views the third concert format (virtual concert) by distribution or the like via a communication network. Therefore, each user can hear the cheering of the audience as a virtual sound when watching the concert at the position of the virtual seat assigned to each user.
  • FIG. 20 is a diagram explaining the flow of virtual sound generation processing in FIG.
  • step S61 the data receiving server (server on the concert administration side) collects the cheering data of the users assigned to each seat in the virtual concert hall in the third concert format.
  • step S62 the virtual sound generation device (sound reproduction device 261) analyzes the seat position in the virtual concert venue based on the seat number (seat information) included in the header information of the cheering data collected in step S61.
  • the virtual sound generating device refers to the venue seat information indicating the relationship between the seat number and seat position of each seat in the virtual concert venue.
  • the virtual sound generator normalizes the seat position. Normalization means, for example, mixing cheering data for 700,000 people into cheering data for 70,000 people, expanding the virtual space according to the number of users (number of cheering), or increasing the density of virtual seats. is changed according to the number of viewers.
  • step S64 the virtual sound generation device arranges each piece of cheering data collected in step S61 in the virtual concert venue (virtual venue). At this time, each piece of cheering data is arranged at the virtual seat position assigned to each user.
  • the virtual sound generator generates an LTC signal and designates the playback time.
  • step S667 the virtual sound generation device reproduces each piece of cheering data at the time of the LTC signal generated in step S65 in the virtual space (virtual venue), and reproduces the listening position (user's seat position) set in the virtual space. ) to generate audio.
  • each user can listen to the audience's cheering and performance according to the seat position in the virtual venue assigned to each user.
  • Performers can listen to the realistic cheering of the audience by listening to the virtual sound of the cheering generated using their own position as the listening position through an ear monitor or the like.
  • the present technology can also take the following configurations.
  • a communication unit that communicates with another device capable of simultaneously controlling a plurality of recording devices; a recording unit controlled by the other device and capable of recording in synchronization with the plurality of recording devices;
  • An information processing device comprising: a processing unit that adds position information about a position of recording and time information about a time of recording to voice data recorded by the recording unit.
  • the processing unit adds, as the position information, seat information specifying a position of a seat installed in a venue to the audio data.
  • the processing unit adds a seat number of the seat as the seat information to the audio data.
  • the information processing apparatus according to any one of (1) to (7), further including a light emitting unit whose light emission is controlled by the other device.
  • the information processing apparatus according to any one of (1) to (8), further comprising: an audio reproduction unit that is controlled by the other apparatus and reproduces audio data.
  • (11) a communication unit that communicates with another device capable of simultaneously controlling a plurality of playback devices; an audio reproduction unit that is controlled by the other device and reproduces audio data in synchronization with the plurality of reproduction devices; An information processing device.
  • (12) The information processing apparatus according to (11), wherein the voice reproducing unit reproduces pre-recorded user voice data.
  • (12) The information processing apparatus according to (11) or (12), wherein the audio reproduction unit reproduces audio data corresponding to a time at which reproduction is instructed by the other device.
  • (14) The information processing apparatus according to any one of (11) to (13), wherein the audio reproduction unit is arranged at a seat position installed in a hall.
  • the plurality of playback devices and the audio playback unit are arranged at predetermined positions in the venue in the virtual space, any one of (11) to (14) above, further comprising a generation unit that generates audio data when the audio data reproduced at each position by the plurality of reproduction devices is heard at the position where the audio reproduction unit is arranged.
  • the information processing device according to claim 1.
  • the generation unit generates the audio data of the plurality of playback devices in a predetermined order from a seat position at a predetermined start point in the venue, using information on seat positions in the venue where the plurality of playback devices are played.
  • the information processing apparatus according to (15), which reproduces.
  • the information processing apparatus according to any one of (11) to (16), further comprising a light emitting unit whose light emission is controlled by wireless communication.
  • a communications department the communication unit of an information processing device having an audio reproduction unit, communicating with another device capable of simultaneously controlling a plurality of reproduction devices; The information processing method, wherein the audio reproduction unit is controlled by the other device and reproduces audio data in synchronization with the plurality of reproduction devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

本技術は、コンサート等での観客ごとの声援を利用できるようにする情報処理装置、及び、情報処理方法に関する。 複数の録音装置を同時に制御可能な他装置と通信が行われ、前記他装置によって制御され、前記複数の録音装置と同期して録音が行われ、録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とが付加される。本技術はコンサートで観客が使用するペンライト等に搭載され得る。

Description

情報処理装置、及び、情報処理方法
 本技術は、情報処理装置、及び、情報処理方法に関し、特に、コンサート等での観客ごとの声援を利用できるようにした情報処理装置、及び、情報処理方法に関する。
 特許文献1には、コンサート会場などで観客が使用するペンライトの点灯及び消灯のタイミングを制御する技術が開示されている。
特開2013-191357号公報
 コンサートの観客の声援(コール&レスポンスを含む)は、コンサートの雰囲気を盛り上げるために重要である。コンサートを記録した音声を制作(編集)する際に、観客の声援は、コンサートの雰囲気を表すのに重要な要素である。コンサート等のイベントの開催時又はイベントの記録音声の編集時において、観客ごとの声援を利用できるようにすることが望ましい。
 本技術はこのような状況に鑑みてなされたものであり、コンサート等での観客ごとの声援を利用できるようにする。
 本技術の第1の側面の情報処理装置は、複数の録音装置を同時に制御可能な他装置と通信する通信部と、前記他装置によって制御され、前記複数の録音装置と同期して録音可能な録音部と、前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する処理部を有する情報処理装置である。
 本技術の第1の側面の情報処理方法は、通信部と、録音部と、処理部とを有する情報処理装置の前記通信部が、複数の録音装置を同時に制御可能な他装置と通信し、前記録音部が、前記他装置によって制御され、前記複数の録音装置と同期して録音を行い、前記処理部が、前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する情報処理方法である。
 本技術の第1の側面の情報処理装置及び情報処理方法においては、複数の録音装置を同時に制御可能な他装置と通信が行われ、前記他装置によって制御され、前記複数の録音装置と同期して録音が行われ、録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とが付加される。
 本技術の第2の側面の情報処理装置は、複数の再生装置を同時に制御可能な他装置と通信する通信部と、前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する音声再生部と、を有する情報処理装置である。
 本技術の第2の側面の情報処理方法は、通信部と、音声再生部とを有する情報処理装置の前記通信部が、複数の再生装置を同時に制御可能な他装置と通信し、前記音声再生部が、前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する情報処理方法である。
 本技術の第2の側面の情報処理装置及び情報処理方法においては、複数の再生装置を同時に制御可能な他装置と通信が行われ、前記他装置によって制御され、前記複数の再生装置と同期して音声データが再生される。
本技術が適用された会場演出システムの実施の形態の構成を例示した図である。 子機の外観を例示した図である。 子機の内部構成を例示した構成図である。 コンサート会場における一部の座席を例示した図である。 親機の構成を例示する構成図である。 本技術の概要について説明する図である。 会場演出システムの声援録音機能を説明する図である。 音声データに付加されるヘッダー情報を例示した図である。 声援録音機能の処理を実施するための声援録音装置の構成例を示したブロック図である。 声援録音機能利用時における処理手順を例示したフローチャートである。 会場演出システムの声援再生機能を説明する図である。 声援再生機能の処理を実施するための声援再生装置の構成を例示したブロック図である。 声援生成機能利用時における処理手順を例示したフローチャートである。 音声データ送信機能を説明する図である。 バーチャルサウンドの生成についての説明図である。 声援データを編集する編集装置の構成例を示したブロック図である。 図15のバーチャルサウンドの生成の処理の流れを説明する図である。 第3コンサート形態でのバーチャルサウンドの生成を説明する図である。 音声データを生成する音声再生装置の構成例を示したブロック図である。 図18のバーチャルサウンドの生成の処理の流れを説明する図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。
<会場演出システムの実施の形態>
 図1は、本技術が適用された会場演出システムの実施の形態の構成を例示した図である。
 図1の会場演出システム1は、子機11と親機12を有する。子機11は、例えば、コンサート会場等において多数の観客がそれぞれ使用するペンライトであり、録音装置及び再生装置としての機能を有する。子機11と親機12とは無線通信可能に構成されており、親機12(子機11を同時に制御可能な他装置)は無指向性の無線により子機11へ信号を送信する。親機12から子機11へ信号を送信することで、子機11のライト点灯タイミング、録音タイミング、再生(放音)タイミングなどが同期して制御される。なお、コンサート会場が広い場合等において、子機11と親機12との間は無線通信を中継する1又は複数の中継機が介在している場合であってよい。本技術が適用された会場演出システム1はコンサート会場に限らず、音楽コンサート、演劇等の人の集まる任意のイベントの任意の会場で利用され得る。以下において、イベントは音楽コンサート(単にコンサートという)であるとし、イベントに歌手や楽器の演奏者等として参加する者を出演者というものとする。演奏という場合には楽器の演奏だけでなく、出演者の歌声や話し声等を含む。
(子機11の構成)
 図2は、子機11の外観を例示した図である。子機11は、全体として円柱状の形状を有し、コンサートの観客であるユーザが把持する基端側の把持部21と発光する発光部22とを有する。なお、コンサートの観客のうち、子機11を所持する観客をユーザということとする。把持部21には、電源スイッチ23、操作部24、スピーカ25、及び、マイク(マイクロフォン)26等が配置される。電源スイッチ23は、子機11の電源のオンとオフとを切り替える。操作部24は、電源スイッチ23以外のユーザにより操作される操作ボタンや操作スイッチ等を表す。図2では操作部24は省略されて1つの押しボタンのみが例示されているが、これに限らない。操作部24は、発光部22の発光(点灯)の実行及び停止、発光部22の発光色、輝度、及び、点滅間隔の切替え、音声録音の実行及び停止、並びに、音声再生の実行及び停止をユーザがマニュアル操作するための各種ボタン又はスイッチを含む。スピーカ25(音声再生部)は、後述の記憶部に事前に記憶された声援等の音声データを音声として再生(出力)する。マイク26(音声取得部)は、コンサート中のユーザの声援等の音声を検出(受信)して後述の記憶部に音声データとして記憶する。発光部22は、発光部22は、LED等の光源からの光を拡散させて全体が発光する。なお、本技術は、図2のような発光部22を有するペンライト型の子機11でなくても適用可能である。
 図3は、子機11の内部構成を例示した構成図である。図3において、子機11は、図2にも図示した電源スイッチ23、操作部24、スピーカ25、及び、マイク26と、図2には不図示のアンテナ31、通信部32、制御部(マイコン)33、LEDドライバ34、3色LED35a、35b、35c、記憶部36、リーダ37、バッテリ38、及び、電源部39とを有する。
 電源スイッチ23は、ユーザの操作によりオン状態とオフ状態とが切り替わる。電源スイッチ23がオフ状態である場合には、電源部39から子機11内の各部への電力供給が行われず、子機11が全体として停止した状態である。電源スイッチ23がオン状態になると、電源部39から子機11内の各部への電力供給が行われ、子機11の各部が動作可能な状態となる。
 操作部24は、ユーザのマニュアル操作に応じた指示を制御部33に供給する。操作部24から制御部33への指示の内容としては、発光部22(図2参照)の発光に関しては、3色LED35a、35b、35cによる発光部22の発光のオン/オフ、発光色、輝度、及び、点滅周波数の指示(単に発光の指示という)等がある。スピーカ25に関する指示の内容としては、記憶部36に記憶された音声データ(音声信号)のスピーカ25による再生(放音)の指示(単に音声再生の指示という)等がある。マイク26に関する指示の内容としては、マイク26で受信した音声データの記憶部36への記録の指示(単に音声録音の指示という)等がある。なお、これらの指示内容のうち、操作部24に対するユーザのマニュアル操作により指示可能な指示内容は、一部であってもよいし、他の指示内容を含む場合であってもよい。
 スピーカ25は、音声データを音として出力(再生)する音声出力部であり、制御部33からの制御信号に従って再生実行状態と再生停止状態とを切り替える。再生停止状態では、スピーカ25は音声データの再生(放音)を行わない。再生実行状態では、スピーカ25は、記憶部36に格納(記憶)されている音声データを再生(放音)する。
 マイク26は、制御部33からの制御信号に従って録音実行状態と録音停止状態とを切り替える。録音停止状態では、マイク26は音声データの記憶部36への記憶(録音)を行わない。録音実行状態では、マイク26は、受信した音声信号を音声データとして記憶部36に記憶する。
 アンテナ31は、親機12からの信号を受信し、又は、親機12への信号を送信する。通信部32は、Bluetooth(登録商標)や無線LAN等の所定の無線通信規格に準拠した通信により親機12との間でアンテナ31を介して各種信号(各種指示や各種データ)を送受信する。通信部32は、親機12から取得した信号を制御部33に供給する。通信部32は、制御部33から供給される親機12への各種信号をアンテナ31を介して親機12に送信する。通信部32から制御部33に供給される親機12からの指示内容としては、操作部24からの指示内容と同様に、発光、音声再生、及び、音声録音の指示等がある。
 制御部33は、親機12からの指示、又は、操作部24からの指示に基づいて、発光、音声再生、及び、音声録音を制御する。発光の制御では、制御部33は、3色LED35a、35b、35cを駆動するための制御信号をLEDドライバ34へ送る。LEDドライバ34は、制御部33からの制御信号に基づいて、3色LED35a、35b、35cを駆動する。これにより、親機12又は操作部24からの指示に従って、3色LED35a、35b、35cの発光色、輝度、点滅間隔等が制御される。
 音声再生の制御では、制御部33は、スピーカ25を駆動するための制御信号をスピーカ25へ送る。スピーカ25は、制御部33から送られた制御信号に基づいて、再生実行状態と再生停止状態とを切り替える。再生実行状態では、スピーカ25は、記憶部36に記憶された音声データを再生(放音)する。再生停止状態では、スピーカ25への電源供給(電力供給)が停止され、スピーカ25は音声データの再生を実行しない。なお、図では記憶部36からスピーカ25への音声データの流れが省略されている。具体的には、スピーカ25で再生する音声データの記憶部36からの読出しは、例えば制御部33により行われる。記憶部36から読み出された音声データは、制御部33からスピーカ25に供給される。記憶部36に記憶された音声データが符号化されている場合の音声データの復号等の処理も制御部33により行われる。
 音声録音の制御では、制御部33は、マイク26を駆動するための制御信号をマイク26へ送る。マイク26は、制御部33から送られた制御信号に基づいて、録音実行状態と録音停止状態とを切り替える。録音実行状態では、マイク26は、検出した音声データを記憶部36に記憶させる。録音停止状態では、マイク26への電源供給(電力供給)が停止され、マイク26は音声データの記憶部36への記憶を実行しない。なお、図ではマイク26から記憶部36への音声データの流れが省略されている。具体的には、マイク26で検出された音声データの記憶部36への書込み(記憶)は、例えば制御部33により行われる。マイク26で受信された音声データは、制御部33から記憶部36に記憶される。記憶部36に記憶させる音声データを符号化する場合の符号化の処理は、制御部33により行われる。
 リーダ37は、FeliCa(登録商標)等のNFC(Near Field Communication:近距離無線通信)の技術により、リーダ37の近傍に接近した(子機11にタッチされた)電子タグ(ICタグ)と通信を行い、電子タグに記録されている情報を読み取る。
 図4は、コンサート会場における一部の座席を例示した図である。図4において、各座席41は、横一列に並べて配置され、かつ、縦に複数列分配置されている。表記42(図4の例では28番が図示)は、その表記42が付された横一列の座席の列番号である。表記43(図4の例では81乃至83番が図示)は、その表記43が付された座席の行番号である。各座席41の座席番号は、列番号と行番号との組合せにより決められている。各座席41には電子タグ44が設置される。各座席41の電子タグ44には、各座席(の位置)を識別する識別情報として座席番号が記録されている。ただし、電子タグ44に記録されている座席番号と、表記42、43により表される座席番号とは一致していなくてもよい。座席の位置を特定する座席情報の取得は、電子タグ44を用いる場合に限らない。座席の位置を特定する座席情報は、座席番号に限らない。
 観客であるユーザは、チケット購入時等に指定された座席番号の座席に移動した後、その座席に設置された電子タグ44を各ユーザが所有する子機11でタッチする。即ち、コンサート前に子機11を購入等により取得した各ユーザは、自身が所持する子機11を、自身に割り当てられた座席の電子タグ44に接近させる。各子機11のリーダ37が電子タグ44に通信可能な距離まで近づくと、電子タグ44に記録された座席番号が、子機11のリーダ37により読み取られて、制御部33に供給される。これにより、各子機11は、それぞれが配置される座席の座席番号を認識する。なお、後述のようにコンサート会場に観客を動員せずにコンサートを開催(実施)する場合がある。その場合に、コンサート運営側のスタッフ等が子機11を各座席に配置してコンサートを実施してもよい。このとき、各座席に配置された各子機11に各座席の座席番号を認識させる作業は、各座席に子機11を配置するスタッフ等が行ってよく、ユーザが行う場合に限らない。
 図3において、制御部33は、多数の子機11のうちの自己の子機11を利用するユーザを識別する識別情報(ユーザID)として、電子タグ44から読み取られた座席番号を用いる。制御部33は、ユーザIDとした座席番号を親機12に通信部32により送信する。これにより、親機12は、ユーザID(座席番号)に基づいて各子機11のコンサート会場における座席位置を認識する。
 ここで、親機12の制御部61は、子機11に対して発光、音声再生、又は、音声録音の指示を行う信号を送信する場合に、子機11に送信する信号内におけるモード情報によりブロードキャストモードと、ID分けモードとを指定する。制御部61は、ID分けモードを指定した場合には、更に子機11に送信する信号内におけるID分け情報により、その信号を有効に受信すべき子機11のユーザID(座席番号)を指定する。
 子機11の制御部33は、親機12からの信号を受信すると、信号内に含まれるモード情報を参照し、ブロードキャストモードの信号か、ID分けモードの信号かを判別する。
 制御部33は、親機12からの信号がブロードキャストモードの信号である場合には、親機12からの信号に含まれる発光の指示、音声再生の指示、又は、音声録音の指示に従う。
 制御部33は、親機12からの信号がID分けモードの信号である場合には、その信号内に含まれるID分け情報を参照し、自己の子機11のユーザID(座席番号)が指定されているか否かを判定する。
 制御部33は、ID分けモードの信号の場合において、ID分け情報に自己のユーザIDが指定されている場合には、親機12からの信号に含まれる発光の指示、音声再生の指示、又は、音声録音の指示に従う。
 制御部33は、ID分けモードの信号の場合において、ID分け情報に自己のユーザIDが指定されていない場合には、親機12からの信号を無効にする。
 これにより、親機12は、特定の座席位置の子機11に制限して、発光の指示、音声再生の指示、又は、音声録音の指示を行うことができる。
 バッテリ38は、子機11の各構成部へ電力を電源部39を通じて供給する。電源部39は、電源スイッチ23がオフ状態の場合には、バッテリ38からの電力を各構成部に供給しない。電源スイッチ23がオン状態の場合には、バッテリ38からの電力をスピーカ25、マイク26、通信部32、制御部33、LEDドライバ34、リーダ37等に供給する。これにより、子機11は動作可能な状態となる。
(親機12の構成)
 図5は、親機12の構成を例示する構成図である。図5において、親機12には、接続外部機器として、パーソナルコンピュータ(PC)91、コンソール端末92、ペリフェラル(スポットライトなど)93が接続される。
 親機12は、制御部61、通信部62、アンテナ63、表示部64、USB端子67、変換IC68、DMX入力端子69、DMX出力端子70、極性変換SW71、変換IC72を有する。
 制御部61は、PC91又はコンソール端末92からの信号に基づいて、例えば、子機11に対して送信する信号(指示等)を通信部62に供給する。制御部61の子機11への指示内容としては、発光の指示、音声再生の指示、音声録音の指示などがある。
 通信部62は、Bluetooth(登録商標)や無線LAN等の所定の無線通信規格に準拠した通信により子機11(通信部32)との間でアンテナ63を介して各種信号(各種指示や各種データ)を送受信する。アンテナ63は、子機11からの信号を受信し、子機11への信号を送信する。通信部62は、子機11から取得した信号を制御部61に供給する。通信部62は、制御部61から供給される子機11への各種信号をアンテナ63を介して子機11に送信する。
 表示部64は、制御部61からの指示に基づいて各種情報を表示する。
 USB端子67には、PC91が接続される。PC91は、ユーザの操作などに応じて、PC91のアプリケーションにより子機11の発光、音声再生、及び、音声録音等を指示する信号を親機12に送信する。PC91からUSB端子67を介して入力された信号は、変換IC68にてUARTに変換され、制御部61へ送られる。制御部61は、PC91からの指示に従って、子機11の発光、音声再生、及び、音声録音を指示する信号を通信部62に供給し、子機11に送信する。
 DMX入力端子69には、コンソール端末92が接続される。コンソール端末92は、ユーザの操作により、子機11の発光、音声再生、及び、音声録音等を指示する信号を親機12に送信する。コンソール端末92からの信号には、親機12に接続されたペリフェラル93に対して所定動作を指示する信号も含まれる。コンソール端末92からの信号は、親機12のDMX入力端子69に入力される。DMX入力端子69に入力された信号は、極性変換SW71から変換IC72に送られ、変換IC72にてシリアルデータに変換されて、制御部61へ送られる。コンソール端末92からのペリフェラル93への指示である信号は、DMX出力端子70へ送られ、ペリフェラル93へ送られる。例えば、ペリフェラル93がコンサート会場で使用されるスポットライトの場合、コンソール端末92からの信号に基づいてスポットライトの角度が変更される。
 なお、PC91及びコンソール端末92では、発光、音声再生、及び、音声録音等のそれぞれの指示を与える子機11を一部の座席番号の座席に対応した子機11に制限することができる。その場合、親機12の制御部61は、上記のように、ID分けモードの信号によりPC91又はコンソール端末92からの指示を子機11に送信し、かつ、その指示を有効に受信させる子機11のユーザID(座席番号)をID分け情報として子機11に送信する。
<本技術の概要>
 図6は、本技術の概要について説明する図である。図6において、本技術が適用された会場演出システム1は、子機11の発光に関する機能(発光機能)に加えて、声援録音機能、声援再生機能、及び、音声データ送信機能を有する。発光機能は、親機12からの無線信号による制御等により、全ての子機11若しくは一部の子機11を同期させて、又は、子機11ごとに、発光又は点滅させる機能である。コンサート会場における各子機11の位置は、座席番号(ユーザID)により特定されるので、親機12は、座席番号を指定して所定の位置の子機11の発光のタイミングや色等を制御することができる。したがって、発光機能によれば、コンサート会場に光による文字や模様を描くなど、光による様々な演出を行うことができる。発光機能については、周知であるので詳細な説明を省略する(例えば、特許文献1(特開2013-191357号公報)参照)。本技術は、発光機能を有していない子機11に対しても適用可能である。
 声援録音機能は、親機12からの無線信号による制御等により、全ての子機11若しくは一部の子機11を同期させて、又は、子機11ごとに、各ユーザの音声(声援)を録音する機能である。即ち、声援録音機能は、コンサートの観客である各ユーザの子機11が、親機12からの声援録音の開始を指示する信号(声援録音開始信号)を受信すると、マイク26をオンにして、ユーザの声援の録音(記憶部36への記録)を行う機能である。なお、コンサートの開始から終了まで、マイク26を常にオンにしてユーザの声援を録音することも可能である。ただし、マイク26を常にオンにすると、子機11のバッテリの容量が不足し、コンサートの途中で子機11が使用できなくなる不測の事態が生じ得る。録音した声援の音声データ(声援データ)を記憶するためのメモリ容量も増大する。コンサートの終了後等において録音した声援データをコンサート運営側のサーバ等に送信する際のデータ量も増大する。したがって、コンサート中において、観客の声援が生じると推定される声援期間のみでマイク26にし、声援を録音することで、バッテリの消費、メモリ容量、及び、送信するデータ量の低減が図られている。
 声援再生機能は、親機12からの無線信号による制御等により、全ての子機11若しくは一部の子機11を同期させて、又は、子機11ごとに、各ユーザの声援を再生する機能である。即ち、声援再生機能は、各ユーザの子機11が、親機12からの声援再生の開始を指示する信号(声援再生開始信号)を受信すると、スピーカ25をオンにして、記憶部36に記憶された声援データの再生(放音)を行う機能である。この声援再生機能では、スピーカ25が声援期間のみでオンになるので、バッテリの消費が低減される。なお、声援再生機能で再生する声援データは、記憶部36に記憶された声援データに限らない。ネットワーク等の通信網を通じてリアルタイムに子機11に送信されてくるユーザの声援データを再生してもよい。
 音声データ送信機能は、子機11の記憶部36に記憶されている声援データを親機12、親機12に接続されたPC91、又は、任意のサーバ(コンサート運営側のサーバ)に送信する機能である。
 これらの声援録音機能、声援再生機能、及び、音声データ送信機能は、コンサートの形態に応じて適宜利用される。なお、声援録音機能で各子機11により録音される音声データ、声援再生機能で各子機11により再生される音声データは、主に各子機11を所有するユーザの声援の音声データであるので、声援データという。ただし、それらの声援データは、声援以外の音声を含んでいてもよい。
 コンサートの形態には、第1コンサート形態として、コンサート会場に観客を動員してコンサートを開催する一般的な形態(有観客コンサート)がある。第2コンサート形態として、コンサート会場に観客を動員せずにコンサートを開催する特殊な形態(無観客コンサート)がある。第3コンサート形態として、VR(仮想現実)又はAR(拡張現実)の技術により仮想空間のコンサート会場(仮想会場)でコンサートを開催する形態(バーチャルコンサート)がある。
 第1コンサート形態(有観客コンサート)では、会場演出システム1の声援録音機能により、コンサート中のユーザごとの声援を録音しておくことができる。各子機11を所有するユーザに割り当てられた座席の座席番号は、電子タグ44により各子機11で取得されるので、座席番号を各子機11(録音)の位置情報として利用することで、コンサート会場のどの位置で録音されたかが特定される。声援録音機能により各子機11で録音された声援データは、コンサートの終了後などに、音声データ送信機能を用いることで、親機12、親機12に接続されたPC91、又は、インターネット等の通信網に接続されたサーバ(コンサート運営側のサーバ)に収集される。コンサートの演奏を記録した音声データ(映像データを伴う場合、又は、音声データのみの場合を含む)は、CD(Compact Disc)やDVD(Digital Versatile Disc)等の記録媒体で有償又は無償で頒布され、又は、インターネット等の通信網を通じて配信される場合がある。その場合に、演奏を記録したメインの音声データ(演奏データ)に対して、コンサートの雰囲気を演出するために特定の時間及び領域で発生した観客の声援データを混合するなどの編集が可能となる。このような声援録音機能の利用は、第1コンサート形態の場合に限らず、第2コンサート形態でも同様に可能である。ただし、第2コンサート形態では観客がいないので、声援録音機能で録音される声援データは、スピーカ25から出力された音声データとなる。
 声援録音機能によれば、コンサートでの観客ごとの声援を個別に録音しておくことができる。コンサートを記録した音声データの編集等において演奏データと分けて観客の声援データを編集し、声援データを利用した様々な演出効果を図ることができるようになる。
 第2コンサート形態(無観客コンサート)では、無観客のコンサート会場の各座席に子機11を配置してコンサートを開催することで、会場演出システム1の声援再生機能により、出演者に対して声援を送ることができる。声援再生機能により再生される声援データは、例えば、コンサートの開催前に事前に記憶部36に記憶された声援データである。その声援データは、各座席のチケットを購入したユーザ(各座席を割り当てられたユーザ)の実際の声を記録したデータであってもよいし、複数種の既定の声援データの中からユーザにより選択された声援データであってもよい。ユーザの実際の声の声援データを用いる場合、ユーザは事前に自身の声の声援データを録音しておく。コンサートの開始前に、ユーザは、録音した声援データを各ユーザが所有するスマートフォン等の端末装置からインターネット等の通信網を利用してPC91等に送る。PC91は、ユーザに割り当てられた座席の子機11に対して、そのユーザからの声援データを親機12を通じて送信し、記憶部36に記憶させておく。声援データは、各ユーザに割り当てられた座席の子機11にPC91や親機12等を介さずに各ユーザが所有する端末装置から直接的に送信できるようにしてもよい。なお、声援再生機能により各子機11で再生する声援データは、自宅等のユーザがコンサート中にリアルタイムに発した声援を検出して得られた声援データであってもよい。このような声援再生機能の利用は、第2コンサート形態の場合に限らず、第1コンサート形態でも同様に可能である。第1コンサート形態で声援再生機能を利用する場合には、ユーザが子機11を実際に所持するので、声援再生機能により再生される声援データを、子機11のマイク26を使用して事前に録音してもよい。
 声援再生機能によれば、観客ごとの声援を、それぞれの観客に割り当てられた座席の位置から放音することができる。観客ごとの声援を親機12からの制御によってコンサート会場のエリアごとに所定のタイミングで再生することもでき、観客ごとの声援を利用して様々な演出効果を図ることができる。無観客のコンサートにおいても、出演者は、あたかも観客が会場にいるかのような声援を受けることができる。コンサート会場にいないファンは、コンサートに参加しているような感覚を得ることができる。コンサートを記録した音声データの編集等において、演奏データと分けて声援再生機能で使用された観客の声援データを編集し、声援データを利用した様々な演出効果を図ることができるようになる。
 第3コンサート形態(バーチャルコンサート)では、仮想空間に生成された仮想のコンサート会場(仮想会場)の仮想の各座席(仮想座席)に実際の子機11に対応した仮想の子機が配置される。即ち、仮想会場の各仮想座席に、実際の子機11のスピーカ25に対応する仮想のスピーカ(バーチャルスピーカ)や実際の子機11のマイク26に対応する仮想のマイクが配置される。
 第3コンサート形態での声援再生機能によれば、仮想会場で演奏する出演者は、リアリティのある仮想の声援(バーチャルサウンド)をイヤーモニタ等で聴くことができる。各仮想座席の観客も同様に座席位置に応じた演奏音及び声援をヘッドフォン等で聴くことができる。このような声援再生機能の利用は、第2コンサート形態において、各座席を割り当てられたユーザがリアリティのあるバーチャルサウンドを自宅等で聴けるようにする場合にも同様に可能である。
 第3コンサート形態での声援録音機能によれば、仮想会場の各仮想座席を割り当てられた各観客(各ユーザ)の仮想会場における声援データを個別に録音することができる。コンサートを記録した音声データの編集等において演奏データと分けて観客の声援データを編集し、声援データを利用した様々な演出効果を図ることができるようになる。なお、第3コンサート形態での声援録音機能により録音される各仮想座席の仮想のマイクにより録音される声援データは、各仮想座席の各バーチャルスピーカで再生される声援データと同一であるとする場合であってもよい。
<会場演出システム1の声援録音機能>
 会場演出システム1の声援録音機能について、第1コンサート形態の場合を例に説明する。図7は、会場演出システム1の声援録音機能を説明する図である。
 図7のAは、コンサートで演奏される曲の音声データ(演奏データ)を記録(録音)する場合にその演奏データに付加されるタイムコード(LTC:Longitudinal Time-Code)の時:分:秒を表す。なお、演奏データは、不図示の装置により出演者が使用するマイク、楽器の出力信号等から取得され得る。演奏データは、特定の装置で取得される場合に限定されない。
 図7のBは、所定の座席の子機11でのマイク26による録音のタイミングを表す。図7のCは、親機12から子機11に送信される声援録音開始信号のタイミングを表す。
 出演者等のコンサートの運営側は、コンサートで演奏される各曲について、声援(コール&レスポンス)のタイミングと言葉とを事前に決めて、観客に通知しておく場合がある。図7のAにおいて、時刻T1は、所定の曲が開始されたときのタイムコードであり、曲の開始時と終了時ではコールがなくても一般的に声援が行われる。それに対して時刻T1から所定時間が経過した時刻T2は、曲に応じた声援の開始タイミングである。時刻T2のタイミングでの声援は、出演者のコールに対するレスポンスである。
 なお、曲中において複数回の連続なコールに対して同数のレスポンス(所定時間間隔以下でのレスポンス)が行われる場合、1回分の録音期間でのレスポンスとし、時刻T2の開始タイミングでの声援を第1レスポンスとする。曲中での声援(レスポンス)の開始タイミング、コールの数(レスポンスの数)、及び、レスポンスの言葉は、観客に事前に通知されている。
 時刻T2から所定時間が経過した時刻T3も、曲に応じた声援の開始タイミングである。時刻T3の開始タイミングでの声援を第2レスポンスとする。第2レスポンスの開始タイミング、コールの数(レスポンスの数)、及び、レスポンスの言葉も、観客に事前に通知されている。ただし、声援のタイミング、コールの数、及び、レスポンスの言葉が観客に通知されていない場合であってもよく、曲の間奏の時刻や歌詞に基づいて、又は、出演者が行うコールのタイミング及び数等に基づいて、声援が行われると推定(予測)されるタイミングをコンサート運営側が決めてもよい。観客の声援が生じると推定される期間を声援期間ともいうこととする。なお、図7では、時刻T3の開始タイミングでの声援よりも後の声援のタイミングについては省略する。
 親機12(制御部61)は、声援(声援期間)の開始タイミングである時刻T1、T2、及び、T3のそれぞれに対して予め決められた所定時間前(例えば6秒前)の時刻t1、t2、又は、t3になると、子機11に対して声援の録音の開始を指示する声援録音開始信号を送信する。声援録音開始信号は、録音を開始する時刻(録音開始時時刻)を指定する信号であり、例えば、時刻t1、t2、及び、t3のそれぞれに対して5秒後の時刻t1s、t2s、及び、t3sを録音開始時刻として指定する。
 ここで、曲が開始される時刻T1は、コンサートの進行管理者等が管理している。親機12に接続されたPC91又はコンソール端末92(以下、コンソール端末92とする)は、その情報を取得(操作者が入力)することで、時刻T1を把握する。コンソール端末92は、その時刻T1を基準にして、声援(声援期間)の開始タイミングである時刻T1、T2、及び、T3を把握することができる。コンソール端末92には、演奏されている曲の曲名と、声援の開始タイミングである時刻T1、T2、及び、T3に対して、予め決められた所定時間前(例えば6秒前)の時刻t1、t2、及び、t3と、時刻T1、T2、及び、T3のそれぞれの開始タイミングでの声援に対して録音を開始する時刻t1s、t2s、及び、t3s、並びに、録音時間の長さ(録音継続時間)と、時刻T1、T2、及び、T3のそれぞれの開始タイミングでの声援(コール)の数(連続的なコールの数)とが事前に設定されている。
 コンソール端末92は、時刻t1、t2、又は、t3になると親機12(制御部61)に対して、声援録音開始信号の子機11への送信を指示する。これにより、図7のCにおいて、時刻t1、t2、及び、t3のタイミングで親機12から子機11に声援録音開始信号が送信される。なお、時刻t1、t2、又は、t3になったときに、コンソール端末92の操作者(運営側のスタッフ等)がマニュアル操作により、親機12に対して、声援録音開始信号の子機11への送信を指示してもよい。
 図7のBにおいて、子機11(制御部33)は、時刻t1、t2、及び、t3のタイミングで声援録音開始信号を親機12から受信する。子機11は、声援録音開信号により指定された録音開始の時刻t1s、t2s、及び、t3sになると、マイク26をオン(電力消費状態)にし、マイク26による声援データの受信を開始する。即ち、子機11は、声援の開始タイミングである時刻T1、T2、及び、T3に対して1秒前の時刻t1s、t2s、及び、t3sから録音を開始する。
 親機12から子機11への声援録音開始信号には、録音時間の長さ(録音継続時間)の指定(指示)も含まれており、子機11(制御部33)は、時刻t1s、t2s、及び、t3sで開始した録音のそれぞれに対して、指定された録音継続時間が経過した時刻t1e、t2e、及び、t3eのタイミングでマイク26をオフ(非電力消費状態)にし、マイク26による声援データの受信を停止する。
 子機11(制御部33)は、時刻t1s乃至t1eの声援期間、時刻t2s乃至t2eの声援期間、及び、時刻t3s乃至t3eの声援期間のそれぞれで取得した声援データを個別の声援データのファイルとして記憶部36に保存する。このとき、子機11(制御部33)は、各声援データに図8の情報を含むヘッダーファイル(ヘッダー情報)を付加する。ヘッダーファイルは、声援を録音した際における、曲名、LCT記録(タイムコード)、コールの数、ユーザID(座席番号)、及び、子機11の振動数に関する情報(振動に関する振動情報)を含む。なお、子機11には不図示の振動センサが搭載され、声援録音時の子機11の振動数が検出される。声援録音時の子機11の振動数が高い場合には、録音されたときの信頼性が低く、その声援データは利用しない等の判定に利用できる。ヘッダー情報として、曲名、LCT記録(タイムコード)、コールの数、ユーザID(座席番号)、及び、子機11の振動数に関する情報のうちのいずれか1以上を声援データに付加する場合であってもよく、例えば、タイムコードと座席番号のみを付加する場合であってもよい。
 ここで、出演者がコンサート会場の特定のエリアに対してのみコール&レスポンスを要求する場合がある。このような場合には、親機12は、上述のID分けモードの信号により、その特定のエリアの座席番号(ユーザID)のみをID分け情報として指定して声援録音開始信号を子機11に送信する。これにより、指定された座席番号の子機11のみで声援の録音が実行される。
 図9は、会場演出システム1において声援録音機能の処理を実施するための声援録音装置としての構成例を示したブロック図である。なお、第1コンサート形態(有観客コンサート)での声援録音機能の使用を想定して図9の声援録音装置の構成及び処理を説明する。
 図9の声援録音装置101は、会場演出システム1の1台の構成要素により構築され、声援録音機能の処理を実施する。声援録音装置101は、マイク26、声援録音指示部111、時刻指定部112、曲情報指定部113、会場座席指定部114、振動センサ115、音声録音処理部116、及び、声援データ記憶部117を有する。
 マイク26は、図2及び図3の子機11(所定の1台の子機11)におけるマイク26を表す。マイク26により検出(受信)された音声信号(ユーザの声援)は、音声録音処理部116に供給される。
 声援録音指示部111は、図5(図1)の親機12と、親機12に接続されたPC91又はコンソール端末92との構成要素により構築され、その処理が、親機12とPC91又はコンソール端末92とで実施される処理部である。声援録音指示部111は、子機11の構成要素により構築される音声録音処理部116に対して、マイク26により検出される音声(ユーザの声援)の録音を指示する声援録音開始信号を供給する。声援録音指示部111から音声録音処理部116への声援録音開始信号は、子機11と親機12との間の無線通信を介して伝送される。
 声援録音開始信号は、コンサート中において観客の声援が生じる声援期間のそれぞれに対して声援録音指示部111から音声録音処理部116に供給される。声援期間は、例えば、コンサートが開始された時から第1曲目が開始された後の所定時間が経過するまでの期間、各曲の曲中等においてコール&レスポンスが行われる期間、各曲が終了する所定時間前から次の曲が開始された後の所定時間が経過するまでの期間、最後の曲が終了する所定時間前からコンサートが終了した時までの期間、MC(Master of Ceremonies)が行われる期間等であり、コンサートにおけるセットリスト(曲順等)に基づいて事前に推定されている。
 声援録音指示部111が音声録音処理部116に対して声援録音開始信号を送信するタイミング(時刻)は、実際に録音を開始させる録音開始時刻に対して所定時間前(録音待機時間前)となる時刻である。録音待機時間の長さは、数秒であり、例えば5秒である。
 声援録音指示部111から音声録音処理部116への声援録音開始信号は、PC91又はコンソール端末92の操作者(コンサートの進行管理者・技術スタッフ等)がコンサートの進行状況に応じて声援期間ごとに所定の操作を行ったときに供給される場合であってよいし、操作者が曲の開始時等に所定の操作を行った時刻を基準に事前に設定された時間が経過したときの時刻に自動的に供給される場合であってもよい。各声援期間に対する声援録音指示部111から音声録音処理部116への声援録音開始信号は、どのような方法で供給される場合であってもよい。
 声援録音開始信号は、具体的には、録音を開始する時刻である録音開始時刻の指定と、録音を継続する時間である録音継続時間の指定とを含む。声援録音指示部111は、録音開始時刻として、対象の声援期間の開始時刻の例えば1秒前の時刻を指定する。声援録音指示部111は、録音継続時間として、録音開始時刻から、対象の声援期間の終了時刻までの時間長さ以上の時間を指定する。
 なお、声援録音指示部111は、声援録音開始信号により録音開始時刻と録音継続時間とを指定する代わりに、録音開始時刻と録音終了時刻とを指定してもよく、録音を実行する期間を特定する指定であればよい。
 音声録音処理部116での録音は声援録音指示部111からの声援録音開始信号により指定された録音開始時刻から開始されるので、声援録音開始信号は、録音開始時刻よりも前に音声録音処理部116に与えられれば良い。声援録音指示部111が各声援期間の開始時刻の1秒前に対して録音待機時間である5秒前に声援録音開始信号を送信することで、親機12から子機11への無線通信により音声録音処理部116が声援録音開始信号を受信する時刻が遅延した場合でも、各声援期間での録音が適切に行われる。録音待機時間は、5秒以外であってもよいし、各声援期間に対して異なった時間であってもよい。
 時刻指定部112は、子機11に内蔵されたタイマー(内部時計)である。時刻指定部112は、時刻を計測し、音声録音処理部116に供給する。時刻は、コンサート中における任意の時点を特定する時間情報である。時刻は、親機12においてもタイマー(内部時計)により計測される。時刻指定部112は、任意の時点で親機12のタイマーと同一時刻を出力するように、コンサートの開始前等において親機12のタイマーと同期される。
 曲情報指定部113は、図5(図1)の親機12と、親機12に接続されたPC91又はコンソール端末92との構成要素により構築され、その処理が、親機12とPC91又はコンソール端末92とで実施される処理部である。曲情報指定部113は、音声録音処理部116に対して声援録音指示部111が所定の声援期間の声援の録音を指示する際に、その対象の声援期間に演奏されている曲の曲情報を音声録音処理部116に対して供給する。曲情報には、曲名と、声援(コール)の回数とが含まれる。声援(コール)の回数は、曲の開始時、又は、コンサートの開始時からの各声援期間に順序を付したときの対象の声援期間の順序(順番)を表す。即ち、声援の回数は、曲の開始時、又は、コンサートの開始時から数えて対象の声援期間が何回目であるかを表す。声援期間は、出演者のコールに対してレスポンスが行われる期間に限定してもよく、その場合には、声援の回数は、コールの回数としてもよい。曲情報は、声援録音指示部111からの声援録音開始信号に含まれるようにしてもよい。
 会場座席指定部114は、図3の子機11の構成要素により構築される処理部であり、その処理が主に子機11の制御部33及びリーダ37により実施される処理部である。会場座席指定部114は、コンサート会場において、自己の子機11を使用するユーザに割り当てられた座席の座席番号をコンサート前等に事前に取得する。会場座席指定部114は、事前に取得した座席番号を音声録音処理部116に供給する。
 座席番号は、コンサート会場の各座席に設置された電子タグ44(図4参照)に記憶されている。ユーザは、自己に割り当てられた座席の電子タグ44に自己が所持する子機11のリーダ37をかざす。これにより、リーダ37により電子タグ44に記録された座席番号が読み取られる。会場座席指定部114は、リーダ37により読み取られた座席番号を、自己の子機11を使用するユーザに割り当てられた座席番号(ユーザID)として取得(記憶)する。
 なお、会場座席指定部114は、ユーザに割り当てられた座席番号を、電子タグ44から取得する場合に限らない。例えば、会場座席指定部114は、子機11に設けられた入力部からユーザによりマニュアル入力された座席番号を取得するようにしてもよい。会場座席指定部114は、ユーザが所有するスマートフォン等の端末装置に入力されたユーザの座席番号を無線通信等を通じて取得してもよい。事前に座席番号の情報が記憶された子機11を、その座席番号の座席を割り当てられたユーザに与えるようにしてもよい。
 座席番号は、コンサート会場における各子機11の位置(又はエリア)を特定する位置情報であり、座席番号の代わりに、コンサート会場の位置(又はエリア)を特定する他の情報が子機11の位置情報として用いられる場合であってもよい。例えば、コンサート会場が複数のエリアに分割され、エリアごとに固有のエリア番号が付される。ユーザには、コンサート会場において視聴するエリアが決められ、視聴するエリアのエリア番号が与えられる。各ユーザには、エリア番号と共に、少なくとも同一エリア内で視聴するユーザに対しては重複しない固有番号が与えられる。この場合に、各ユーザが所持する子機11は、ユーザのエリア番号と固有番号との組合せを位置情報として取得する。子機11における位置情報の取得は、同様に位置情報を記録した電子タグを各ユーザに配布して、座席番号の場合と同様にリーダ37により電子タグの位置情報を読み取るようにしてもよいし、ユーザがマニュアル入力してもよい。その他、子機11の位置情報として、GPS(Global Positioning System)技術により得られた位置情報が用いられる場合、コンサート会場の複数の位置に設置された無線LANアクセスポイント等の無線ノードと子機11との間で伝搬される無線電波を利用して得られた位置情報が用いられる場合等であってもよい。
 振動センサ115は、子機11に搭載された例えば加速度センサを含む。振動センサ115は、音声録音処理部116が声援の録音を実行している期間において、子機11の振動数を検出し、その期間での振動数の例えば、平均値又は最大値を音声録音処理部116に供給する。
 音声録音処理部116は、図3の子機11の構成要素により構築される処理部であり、その処理が主に子機11の制御部33により実施される処理部である。音声録音処理部116は、声援録音指示部111からの声援録音開始信号に従って録音処理を実行する。なお、音声録音処理部116は、親機12の構成要素により構築される場合であってもよい。
 即ち、音声録音処理部116は、時刻指定部112から供給される時刻が、声援録音開始信号により指定された録音開始時刻になると、マイク26をオンにし(マイク26に電力を供給し)、録音処理を開始する。音声録音処理部116は、時刻指定部112から供給される時刻が、録音開始時刻に対して声援録音開始信号により指定された録音継続時間が経過した時刻(録音終了時刻)になると、録音処理を停止(終了)し、マイク26をオフにする。
 録音処理では、音声録音処理部116は、マイク26により検出(受信)された音声信号を所定のサンプリング周期でアナログ信号からデジタル信号に変換して声援データとして取得する。音声録音処理部116は、録音終了時刻になると、マイク26からの声援データの取得を終了し、録音開始時刻から録音終了時刻までに取得した声援データを例えば1つのファイルとして声援データ記憶部117に保存する。音声録音処理部116は、声援データを声援データ記憶部117に保存する際に、図8に示したヘッダーファイル(ヘッダー情報)を声援データに付加する。ヘッダー情報に含まれる曲名は、曲情報指定部113から供給される。ヘッダー情報の曲名は、声援データの録音が実行されていた際に演奏されていた曲の曲名を表す。ヘッダー情報に含まれるLTC記録(タイムコード)は、時刻指定部112から供給される。ヘッダー情報のタイムコードは、例えば、音声録音処理部116が録音処理を開始した録音開始時刻(録音された時刻に関する時刻情報)を表す。なお、ヘッダー情報のタイムコードと併せて、又は、タイムコードの代わりに、曲情報指定部113から供給される声援の回数をヘッダー情報に含めてもよい。ヘッダー情報に含まれる座席番号は、会場座席指定部114から供給される。ヘッダー情報の座席番号は、声援データが録音された座席位置(録音された位置に関する位置情報)を表す。ヘッダー情報に含まれる子機の振動数は、振動センサ115から供給される。ヘッダー情報の振動数は、例えば、声援データの録音を実行していた期間における子機11の振動数の平均値、又は、最大値であり、録音された音の信頼度を表す。即ち、振動数が大きい程、ユーザが子機11を激しく動かしていた可能性が高いので、ユーザの声援が適切に記録されていない声援データの可能性が高い。
 ヘッダー情報は、1つの声援期間における声援データの先頭に付加されていてもよいし、所定時間おきに付加されていてもよい。ヘッダー情報は、声援データに挿入されていてもよいし、声援データとは別のデータとして声援データに対応付けられていてもよい。特に、タイムコード(タイムスタンプ)は、声援データに対して所定時間おきに付加されていてもよい。
 なお、音声録音処理部116は、録音処理により取得した声援データを所定のフォーマットで符号化(圧縮)して声援データ記憶部117に保存してもよい。
 声援データ記憶部117は、図3の子機11の構成要素により構築される処理部であり、子機11の記憶部36に含まれる。声援データ記憶部117は、音声録音処理部116の録音処理により取得された声援データを保存する。
 以上の声援録音装置101は、複数の観客(ユーザ)が所有する子機11ごとに構築され、観客ごとの声援データが個別に録音される。声援録音指示部111が、ID分けモードにより、一部の座席番号を指定してマイク26による声援データの録音を指示することで、それらの指定された一部の座席番号をユーザIDとする子機11のみでの声援データの録音を同期させて行うことができる。
<声援録音機能の処理手順>
 図10は、声援録音機能利用時における処理手順を例示したフローチャートである。
 ステップS1では、各ユーザは、子機11の電源スイッチ23をオンにする。処理はステップS1からステップS2に進む。ステップS2では、各ユーザが指定された座席に設置されている電子タグ44を子機11でタッチしてNFCにより電子タグ44に記録されている座席番号(座席情報)を子機11に取り込む。これにより、子機11は、電子タグ44から取り込んだ座席番号をユーザIDとして親機12に送信し、親機12とペアリングする。処理はステップS2からステップS3に進む。
 ステップS3では、子機11の制御部33は、内蔵のタイマー(内部時計)の時刻を親機12と同期させて、親機12と時刻を合わせる。処理はステップS3からステップS4に進む。ステップS4では、子機11は、親機12から録音開始時刻の指示(声援録音開始信号)があったか否かを判定する。
 ステップS4において、録音開始時刻の指示がないと判定された場合には、処理はステップS6に進む。ステップS4において、録音開始時刻の指示があったと判定された場合には、処理はステップS5に進む。
 ステップS5では、子機11は、親機12から指示された録音開示時刻を設定する。処理はステップS5からステップS6に進む。ステップS6では、子機11は、ステップS5で設定した録音開始時刻になったか否かを判定する。
 ステップS6において、録音開始時刻になっていないと判定された場合、処理はステップS4に戻り、ステップS4から繰り返す。ステップS6において、録音開始時刻になったと判定された場合には、処理はステップS7に進む。
 ステップS7では、子機11は、親機12から声援録音開始信号により指定された録音継続時間が経過するまで録音を行う。ステップS7が終了すると、処理はステップS4に戻り、ステップS4から繰り返す。
 以上の声援録音機能によれば、コンサートでの観客ごとの声援を個別に録音しておくことができる。コンサートを記録した音声データの編集等において演奏データと分けて観客の声援データを編集し、声援データを利用した様々な演出効果を図ることができるようになる。声援録音機能は、第1コンサート形態の場合に限らず、第2コンサート形態や第3コンサート形態においても同様に利用可能である。
<会場演出システム1の声援再生機能>
 会場演出システム1の声援録音機能について、第2コンサート形態(無観客コンサート)の場合を例に説明する。
 図11は、会場演出システム1の声援再生機能を説明する図である。
 図11のAは、コンサートで演奏される曲の音声データ(演奏データ)を記録(録音)する場合にその演奏データに付加されるタイムコード(LTC:Longitudinal Time-Code)の時:分:秒を表す。なお、演奏データは、不図示の装置により出演者が使用するマイク、楽器の出力信号等から取得され得る。演奏データは、特定の装置で取得される場合に限定されない。
 図11のBは、所定の座席に配置された子機11でのスピーカ25による声援の再生のタイミングを表す。なお、第2コンサート形態は無観客のコンサート会場での演奏であるので観客は存在しない。ただし、コンサート会場の各座席には例えばオンラインで配信されるコンサートの映像及び音声を視聴するユーザが観客として割り当てられている。各座席に配置された子機11の記憶部36には、各座席を割り当てられたユーザが事前に録音した声援データが記憶されている。記憶部36に記憶された声援データには、図8で示したヘッダーファイルが付加されており、各声援データを再生する曲の曲名とタイムコード(時刻)等が決められている。
 図11のCは、親機12から子機11に送信される声援再生開始信号のタイミングを表す。
 図11のAにおいて、時刻T1は、所定の曲が開始されたときのタイムコードであり、曲の開始時と終了時ではコールがなくても一般的に声援が行われる。それに対して時刻T1から所定時間が経過した時刻T2は、曲に応じた声援の開始タイミングである。時刻T2のタイミングでの声援は、出演者のコールに対するレスポンスである。
 なお、時刻T2の開始タイミングでの声援を第1レスポンスとする。曲中での声援(レスポンス)の開始タイミング、コールの数(レスポンスの数)、及び、レスポンスの言葉は、観客に事前に通知されている。
 時刻T2から所定時間が経過した時刻T3も、曲に応じた声援の開始タイミングである。時刻T3の開始タイミングでの声援を第2レスポンスとする。第2レスポンスの開始タイミング、コールの数(レスポンスの数)、及び、レスポンスの言葉も、観客に事前に通知されている。ただし、声援のタイミング、コールの数、及び、レスポンスの言葉が観客に通知されていない場合であってもよく、曲の間奏や歌詞に基づいて、又は、出演者が行うコールのタイミング及び数等に基づいて、声援が行われると推定(予測)されるタイミングを開催者側が決めてもよい。なお、図11では、時刻T3の開始タイミングでの声援よりも後の声援のタイミングについては省略する。
 親機12(制御部33)は、声援(声援期間)の開始タイミングである時刻T1、T2、及び、T3のそれぞれに対して予め決められた所定時間前(例えば6秒前)の時刻t1、t2、又は、t3になると、子機11に対して声援の再生の開始を指示する声援再生開始信号を送信する。声援再生開始信号は再生を開始する時刻を指定する信号であり、例えば、時刻t1、t2、及び、t3のそれぞれに対して5秒後の時刻t1s、t2s、及び、t3sを再生開始時刻として指示する。
 ここで、曲が開始される時刻T1は、コンサートの進行管理者等が管理している。親機12に接続されたコンソール端末92は、その情報を取得(操作者が入力)することで、時刻T1を把握する。コンソール端末92は、その時刻T1を基準にして、声援の開始タイミングである時刻T1、T2、及び、T3を把握することができる。コンソール端末92には、演奏されている曲の曲名と、声援(声援期間)の開始タイミングである時刻T1、T2、及び、T3に対して、予め決められた所定時間前(例えば6秒前)の時刻t1、t2、及び、t3と、時刻T1、T2、及び、T3のそれぞれの開始タイミングでの声援に対して再生を開始する時刻t1s、t2s、及び、t3s、並びに、再生時間の長さ(再生継続時間)と、時刻T1、T2、及び、T3のそれぞれの開始タイミングでの声援(コール)の数(連続的なコールの数)とが事前に設定されている。
 コンソール端末92は、時刻t1、t2、又は、t3になると親機12(制御部61)に対して、声援再生開始信号の子機11への送信を指示する。これにより、図11のCにおいて、時刻t1、t2、及び、t3のタイミングで親機12から子機11に声援再生開始信号が送信される。なお、時刻t1、t2、又は、t3になったときに、コンソール端末92の操作者(運営側のスタッフ等)がマニュアル操作により、親機12に対して、声援再生開始信号の子機11への送信を指示してもよい。
 図11のBにおいて、子機11(制御部33)は、時刻t1、t2、及び、t3のタイミングで声援生成開始信号を親機12から受信する。子機11は、声援再生開始信号により指定された再生開始の時刻t1s、t2s、及び、t3sになると、スピーカ25をオン(電力消費状態)にし、スピーカ25による声援データの再生を開始する。即ち、子機11は、声援の開始タイミングである時刻T1、T2、及び、T3に対して1秒前の時刻t1s、t2s、及び、t3sから再生を開始する。子機11(制御部33)は、スピーカ25で再生する声援データをヘッダーファイルの曲名とタイムコードとを参照して記憶部36から読み出す。例えば、時刻t2sから再生する声援データは、コンサート会場で現在演奏されている曲の曲名と、ヘッダーファイルの曲名とが一致する声援データである。これに加えて、曲の開始時刻T1から時刻t2sまでの経過時間と、ヘッダーファイルのタイムコードにより算出される曲の開始時刻からの経過時間とが一致又は近似する声援データが記憶部36から読み出されたスピーカ25により再生(放音)される。なお、記憶部36に記憶されている同一曲の声援データのうち、タイムコードが示す時刻が古い順に声援データを読み出して再生してもよい。
 親機12から子機11への声援再生開始信号には、再生時間の長さ(再生継続時間)の指定(指示)も含まれており、子機11(制御部33)は、時刻t1s、t2s、及び、t3sで開始した再生のそれぞれに対して、指定された再生継続時間が経過した時刻t1e、t2e、及び、t3eのタイミングでスピーカ25をオフ(非電力消費状態)にし、スピーカ25による声援データの再生を停止する。
 ここで、出演者がコンサート会場の特定のエリアに対してのみコール&レスポンスを要求する場合がある。このような場合には、親機12は、上述のID分けモードの信号により、その特定のエリアの座席番号(ユーザID)のみをID分け情報として指定して声援再生開始信号を子機11に送信する。これにより、指定された座席番号の子機11のみで声援の再生が実行される。
 図12は、会場演出システム1において声援再生機能の処理を実施するための声援再生装置としての構成を例示したブロック図である。なお、第2コンサート形態での声援再生機能の使用を想定して図12の声援再生装置の構成及び処理を説明する。
 図12の声援再生装置131は、会場演出システム1の構成要素により構築され、声援再生機能の処理を実施する。声援再生装置131は、スピーカ25、声援再生指示部141、時刻指定部142、声援データ記憶部143、及び、音声再生処理部144を有する。
 スピーカ25は、図2及び図3の子機11(所定の1台の子機11)におけるスピーカ25を表す。スピーカ25は、音声再生処理部144から供給された音声信号を再生(放音)する。
 声援再生指示部141は、図5(図1)の親機12と、親機12に接続されたPC91又はコンソール端末92との構成要素により構築され、その処理が、親機12とPC91又はコンソール端末92とで実施される処理部である。声援再生指示部141は、子機11の構成要素により構築される音声再生処理部144に対して、スピーカ25による音声(ユーザの声援)の再生を指示する声援再生開始信号を供給する。声援再生指示部141から音声再生処理部144への声援再生開始信号は、子機11と親機12との間の無線通信を介して伝送される。
 声援再生開始信号は、コンサート中において観客の声援が生じる声援期間のそれぞれに対して声援再生指示部141から音声再生処理部144に供給される。声援期間は、上述した通りであるので説明を省略する。
 声援再生指示部141が音声再生処理部144に対して声援再生開始信号を送信するタイミング(時刻)は、実際に再生を開始させる再生開始時刻に対して所定時間前(再生待機時間前)となる時刻である。再生待機時間の長さは、数秒であり、例えば5秒である。
 声援再生指示部141から音声再生処理部144への声援再生開始信号は、PC91又はコンソール端末92の操作者がコンサートの進行状況に応じて声援期間ごとに所定の操作を行ったときに供給される場合であってよいし、操作者が曲の開始時等に所定の操作を行った時刻を基準に事前に設定された時間が経過したときの時刻に自動的に供給される場合であってもよい。各声援期間に対する声援再生指示部141から音声再生処理部144への声援再生開始信号は、どのような方法で供給される場合であってもよい。
 声援再生開始信号は、具体的には、再生を開始する時刻である再生開始時刻の指定と、再生を継続する時間である再生継続時間の指定とを含む。声援再生指示部141は、再生開始時刻として、対象の声援期間の開始時刻の例えば1秒前の時刻を指定する。声援再生指示部141は、再生継続時間として、再生開始時刻から、対象の声援期間の終了時刻までの時間長さ以上の時間を指定する。
 なお、声援再生指示部141は、声援再生開始信号により再生開始時刻と再生継続時間とを指定する代わりに、再生開始時刻と再生終了時刻とを指定してもよく、再生を実行する期間を特定する指定であればよい。
 音声再生処理部144での再生は声援再生指示部141からの声援再生開始信号により指定された再生開始時刻から開始されるので、声援再生開始信号は、再生開始時刻よりも前に音声再生処理部144に与えられれば良い。声援再生指示部141が各声援期間の開始時刻の1秒前に対して再生待機時間である5秒前に声援再生開始信号を送信することで、親機12から子機11への無線通信により音声再生処理部144が音声再生指示を受信する時刻が遅延した場合でも、各声援期間での再生が適切に行われる。再生待機時間は、5秒以外であってもよいし、各声援期間に対して異なった時間であってもよい。
 時刻指定部142は、子機11に内蔵されたタイマー(内部時計)である。時刻指定部142は、時刻を計測し、音声再生処理部144に供給する。時刻は、コンサート中における任意の時点を特定する時間情報である。時刻は、親機12においてもタイマー(内部時計)により計測される。時刻指定部142は、任意の時点で親機12のタイマーと同一時刻を出力するように、コンサートの開始前等において親機12のタイマーと同期される。
 声援データ記憶部143は、図3の子機11の構成要素により構築される処理部であり、子機11の記憶部36に含まれる。声援データ記憶部143は、音声再生処理部144の再生処理によりスピーカ25で再生(放音)される声援データを事前に保存する。
 声援データ記憶部143に保存される声援データは、コンサートの開始前等に事前にユーザが自身の声で録音した声援データであってもよいし、人工的に生成された声での既定の声援データ、又は、ユーザとは関係のない人物の声での既定の声援データであってもよい。ユーザが自身の声で録音した声援データを声援データ記憶部143に保存する場合、例えば、ユーザは、自身が所有するスマートフォン等の端末装置(録音装置)で、所定のアプリケーション(ソフトウェア)を実行させる。ユーザは、アプリケーションの案内に従って、各声援期間での声援を録音して各声援期間での声援データを生成する。各声援期間での声援データには、それぞれ図8に示したヘッダー情報が付加される。なお、ヘッダー情報の曲名は、声援データを再生する際に演奏される曲の曲名を表す。ヘッダー情報のLTC記録(タイムコード)は、例えば、声援データの再生を開始する再生開始時刻を表す。実際に声援データの再生が開始される再生開始時刻は、コンサートの進行状況に応じて変動するが、コンサートの計画(タイムテーブル)に従った声援データの再生開始時刻がヘッダー情報のタイムコードとして付加される。なお、ヘッダー情報のタイムコードと併せて、又は、タイムコードの代わりに、声援の回数をヘッダー情報に含めてもよい。声援の回数は、上述のように、例えば、曲の開始時、又は、コンサートの開始時からの各声援期間に順序を付したときの対象の声援期間(声援データを再生する声援期間)の順序(順番)を表す。ヘッダー情報の座席番号は、ユーザに割り当てられた座席の座席番号であり、コンサート会場において声援データが再生される座席位置を表す。ヘッダー情報の子機11の振動数は、録音された音の信頼度を表し、最も信頼度が高い場合の0とする。タイムコード(タイムスタンプ)は、声援データに対して所定時間おきに付加されるようにしてもよい。
 このようにヘッダー情報が付加された声援データは、ユーザの端末装置からコンサート運営側のサーバにインターネット等の通信網を通じて送信される。サーバに送信された声援データは、親機12を介して、ユーザに割り当てられた座席の座席番号をユーザIDとする子機11に送信されて声援データ記憶部143に保存される。なお、コンサートの開始前に、コンサート運営側のスタッフ等が各座席に子機11を配置した際に、各子機11は自己が配置された座席の座席番号を電子タグ44から取得し、ユーザIDとして親機12に通知する。
 人工的に生成された声での既定の声援データ、又は、ユーザとは関係のない人物の声での既定の声援データを声援データ記憶部143に保存する場合、例えば、ユーザはコンサート運営側のサーバにアクセスし、各声援期間において再生する声援データを指定する。なお、各声援期間において再生する声援データは、例えば文言等が異なる複数種の声援データの中からいずれかをユーザが選択できるようにしてもよい。サーバは、ユーザにより指定された各声援期間の声援データに図8のヘッダー情報を付加する。ヘッダー情報が付加された声援データは、ユーザに割り当てられた座席の座席番号をユーザIDとする子機11に送信されて声援データ記憶部143に保存される。
 音声再生処理部144は、図3の子機11の構成要素により構築される処理部であり、その処理が主に子機11の制御部33により実施される処理部である。音声再生処理部144は、声援再生指示部141からの声援再生開始信号に従って再生処理を実行する。なお、音声再生処理部144は、親機12の構成要素により構築される場合であってもよい。
 即ち、音声再生処理部144は、時刻指定部142から供給される時刻が、声援再生開始信号により指定された再生開始時刻になると、スピーカ25をオンにし(スピーカ25に電力を供給し)、再生処理を開始する。音声再生処理部144は、時刻指定部142から供給される時刻が、再生開始時刻に対して声援再生開始信号により指定された再生継続時間が経過した時刻(再生終了時刻)になると、再生処理を停止(終了)し、スピーカ25をオフにする。
 再生処理では、音声再生処理部144は、声援再生指示部141からの声援再生開始信号により指定された再生開始時刻をヘッダー情報のタイムコードとして有する声援データを声援データ記憶部143から読み出す。なお、声援再生指示部141は、声援データ記憶部143に保存された所定の声援期間の声援データの再生を意図してその対象の声援期間に対応した再生開始時刻を声援再生開始信号により指定する。その声援再生開始信号により指定された再生開始時刻と、声援データ記憶部143に保存されている対象の声援期間の声援データに付加されたヘッダー情報のタイムコードとは、コンサートの進行状況が計画とによって相違が生じる。そのため、音声再生処理部144は、声援データ記憶部143に保存されている各声援期間の声援データのうち、再生されていない声援期間の声援データであって、ヘッダー情報のタイムコードとして最も先に到来する時刻が付加された声援データ(又は、指定された再生開始時刻に最も近い時刻が付加された声援データ)を声援データ記憶部143から読み出すようにしてもよい。又は、音声再生処理部144は、声援再生指示部141からの声援再生開始信号が供給された回数をカウントし、その回数と一致する順番の声援期間の声援データを声援データ記憶部143から読み出すようにしてもよい。
 音声再生処理部144は、声援データ記憶部143から読み出した声援データをデジタル信号からアナログ信号に変換して音声信号としてスピーカ25から再生(放音)させる。声援データ記憶部143に保存されている声援データが符号化されている場合には、音声再生処理部144は、符号化された声援データを復号する処理を行う。
 以上の声援再生装置131は、複数の観客(ユーザ)が所有する子機11(各ユーザに割り当てられた座席に配置された子機11)ごとに構築され、観客ごとの声援データが各ユーザに割り当てられた座席の位置で個別に再生される。声援再生指示部141が、ID分けモードにより、一部の座席番号を指定してスピーカ25による声援データの再生を指示することで、それらの指定された一部の座席番号をユーザIDとする子機11のみでの声援データの再生を同期させて行うことができる。
<音声再生機能の処理手順>
 図13は、声援生成機能利用時における処理手順を例示したフローチャートである。
 ステップS11では、コンサートの運営側のスタッフ(以下、スタッフ)は、子機11の電源スイッチ23をオンにする。処理はステップS11からステップS12に進む。
 ステップS12では、スタッフは、子機11を配置する座席に設置されている電子タグ44を子機11でタッチしてNFCにより電子タグ44に記録されている座席番号(座席情報)を子機11に取り込む。これにより、子機11は、電子タグ44から取り込んだ座席番号をユーザIDとして親機12に送信し、親機12とペアリングする。処理はステップS12からステップS13に進む。
 ステップS13では、子機11の制御部33は、座席番号(ユーザID)に対応する声援データを親機12を介してダウンロードし、記憶部36に記憶させる。ダウンロードする声援データは、座席番号に割り当てられたユーザが事前に親機12に接続されるサーバ(PC91等)にアップロードした声援データであってもよいし、既定の声援データであってもよい。処理はステップS13からステップS14に進む。
 ステップS14では、子機11の制御部33は、内蔵のタイマー(内部時計)の時刻を親機12と同期させて、親機12と時刻を合わせる。処理はステップS14からステップS15に進む。ステップS15では、子機11は、親機12から再生開始時刻の指示(声援再生開始信号)があったか否かを判定する。
 ステップS15において、再生開始時刻の指示がないと判定された場合には、処理はステップS17に進む。ステップS15において、再生開始時刻の指示があったと判定された場合には、処理はステップS16に進む。
 ステップS16では、子機11は、親機12から指示された再生開示時刻を設定する。処理はステップS16からステップS17に進む。ステップS17では、子機11は、ステップS16で設定した再生開始時刻になったか否かを判定する。
 ステップS17において、再生開始時刻になっていないと判定された場合、処理はステップS15に戻り、ステップS15から繰り返す。ステップS17において、再生開始時刻になったと判定された場合には、処理はステップS18に進む。
 ステップS18では、子機11は、親機12から声援再生開始信号により指定された再生継続時間が経過するまで声援データの再生を行う。ステップS18が終了すると、処理はステップS15に戻り、ステップS15から繰り返す。
 以上の声援再生機能によれば、コンサートでの観客ごとの声援を各観客に割り当てられた座席の位置で個別に又は同期させて再生することができる。観客ごとの声援を親機12からの制御によってコンサート会場のエリアごとに所定のタイミングで同期させて再生することもでき、観客ごとの声援を利用して様々な演出効果を図ることができる。無観客のコンサートにおいても、出演者は、あたかも観客が会場にいるかのような声援を受けることができる。コンサート会場にいないファンは、コンサートに参加しているような感覚を得ることができる。コンサートを記録した音声データの編集等において、演奏データと分けて声援再生機能で使用された観客の声援データを編集し、声援データを利用した様々な演出効果を図ることができるようになる。
 なお、声援再生機能で再生する声援データは、声援データ記憶部143に事前に記憶させておくのではなく、コンサートを自宅等の遠隔地で視聴しているユーザがリアルタイムで発してしいる声援の声援データであってもよい。声援再生機能は、第2コンサート形態の場合に限らず、第1コンサート形態や第3コンサート形態においても同様に利用可能である。
<音声データ送信機能>
 会場演出システム1の音声データ送信機能について、第1コンサート形態の場合を例に説明する。
 図14は、音声データ送信機能を説明する図である。
 第1コンサート形態において、会場演出システム1の声援録音機能により、子機11の記憶部36に記憶された声援データは、コンサートの終了後などに、音声データ送信機能を用いることで、親機12、親機12に接続されたPC91、又は、インターネット等のネットワークに接続されたサーバ(コンサート運営側のサーバ)に送信することができる。
 図14は、子機11から親機12(又はサーバ)に声援データを送信する場合の形態を説明する図である。
 図14において、子機11は、ユーザの所定の操作によって、記憶部36に記憶された声援データを親機12との無線通信により直接的に送信することができる。親機12に送信された声援データは、例えば、親機12に接続されたコンサート運営側のサーバに転送することができる。ただし、この場合にはコンサート会場で声援データを親機12に送信する必要がある。
 一方、子機11は、各ユーザが所有するスマートフォン161に無線通信により接続することができる。そこで、コンサートの終了後において、ユーザは自宅等で子機11をスマートフォン161と接続し、記憶部36に記憶された声援データをスマートフォン161に一旦転送する。ユーザは、スマートフォン161をインターネット等の通信網を介してコンサート運営側のサーバに接続し、スマートフォン161に転送した声援データを通信網を介してサーバに送信することができる。スマートフォン161に限らず、通信網に接続可能な携帯端末や自宅のPC(パーソナルコンピュータ)などに声援データを転送してからサーバに送信することも可能である。
 なお、声援データには、座席番号が付加されているので、コンサート会場のどの座席で録音された声援データであるかは、声援データに付加された座席番号により識別され得る。ただし、これに限らず、ユーザが自己の端末装置等をサーバに通信網を介して声援データを送信する際に、座席番号(ユーザID)をサーバに通知して、ユーザが送信する声援データがコンサート会場のどの座席のユーザの声援データであるかを識別できるようにしてもよい。
 音声データ送信機能は、声援録音機能により録音された声援データを子機11からサーバ等に送信する場合に限らず、声援再生機能により再生された声援データを子機11からサーバ等に送信する場合にも同様に使用される。
<バーチャルサウンド生成への利用>
 第1コンサート形態において声援録音機能により各子機11に記憶された声援の声援データが音声データ送信機能によりコンサート運営側のサーバで収集されたとする。コンサート運営側は、コンサートの演奏を記録した音声データを記録媒体による頒布又は通信網による配信等にために制作(編集)する場合に、子機11から収集した声援データに付加されたヘッダーファイル(ヘッダー情報)の座席情報(座席位置)を利用して、コンサートの雰囲気を再現するバーチャルサウンドを生成することができる。
 図15は、バーチャルサウンドの生成についての説明図である。コンサート会場171は、第1コンサート形態において実際に使用されたコンサート会場を仮想空間で表した図である。仮想空間のコンサート会場(仮想会場)171において、実際の座席の通りの位置に仮想の座席(仮想座席)が配置される。各仮想座席には仮想空間におけるオブジェクトオーディオ(スピーカ)が配置される。各仮想座席のオブジェクトオーディオからは、各座席位置で実際に子機11により録音された声援データが出力される。これにより、仮想空間(仮想会場)における任意の聴取位置(座席位置、ステージ上等)で聴取される声援データ(バーチャルサウンド)が演算により算出される。仮に、全座席の声援データを同期再生した場合には、大合唱のバーチャルサウンドを生成することが可能である。
 図15のエリア172の範囲内の座席の声援データを仮想空間で再生した場合の声援データ(バーチャルサウンド)を生成することとすると、エリア172をスタート地点からエンド地点まで周回させることでウェーブのようなバーチャルサウンドを生成することが可能である。即ち、各声援データに付加されたヘッダー情報の座席情報を用いて、各座席の声援データを、所定のスタート地点の座席から所定の順番(座席の順番)で再生することができる。出演者が指し示したエリアの座席のみの声援データを仮想空間で再生した場合の声援データ(バーチャルサウンド)を生成することも可能である。
 図16は、コンサートにおける声援データを編集する編集装置の構成例を示したブロック図である。なお、第1コンサート形態において声援録音機能により録音された声援データ、又は、第2コンサート形態において声援再生機能により使用された声援データを編集する場合を想定する。声援データの編集は、コンサートの演奏を収録した音声データを、CD(Compact Disc)やDVD(Digital Versatile Disc)等の記録媒体で頒布する場合や、通信網を通じて配信する場合等に行われる。
 図16の編集装置201は、声援データ記憶部211、声援再生指示部212、時刻指定部213、会場座席情報記憶部214、音声処理部215、及び、生成データ記憶部216を有する。
 声援データ記憶部211は、コンサートが実施された際に、コンサート会場の各座席の各観客の声援データを記憶している。例えば、コンサートが第1コンサート形態で実施された場合には、コンサート中に図9の声援録音装置101により観客ごとに録音された声援データが、コンサート後に音声データ転送機能によりコンサート運営側のサーバに送信される。声援データ記憶部211には、サーバに送信された各観客の声援データが記憶される。コンサートが第2コンサート形態で実施された場合には、コンサートの実施時に図12の声援再生装置131により再生された各観客の声援データが、声援データ記憶部211に記憶される。声援データ記憶部211は、記憶している声援データを音声処理部215に供給する。なお、各観客の声援データには図8のヘッダー情報が付加されている。
 声援再生指示部212は、音声処理部215に対して声援データの再生を開始する再生開始時刻と再生を継続する再生継続時間とを指定する。この指定と共に、声援再生指示部212は、音声処理部215に対して、再生する声援データを限定するための座席番号とタイムコードと指定する。声援再生指示部212により指定された座席番号とタイムコードがヘッダー情報として付加された声援データが再生する声援データとして指定される。声援再生指示部212が指定する再生開始時刻、再生継続時間、座席番号、及び、タイムコードに関しては、編集装置201の操作者が、コンサートの演奏や映像を視聴しながら設定する。なお、座席番号の指定の代わりに、コンサート会場を複数のエリアに分割した場合のエリアを指定する場合であってもよい。エリアを指定する場合であっても座席番号の指定という。
 時刻指定部213は、コンサートの開始時刻から終了時刻までの時刻を音声処理部215に供給する。
 会場座席情報記憶部214は、コンサート会場におけるステージの位置、各座席番号の座席の位置、及び、コンサート会場をエリアに分割した場合の各エリアに含まれる座席範囲等を表す会場座席情報として記憶している。会場座席情報記憶部214は、記憶している会場座席情報を音声処理部215に供給する。
 音声処理部215は、時刻指定部213から供給される時刻が、声援再生指示部212により指定された再生開始時刻になると、声援再生指示部212により指定された座席番号及びタイムコードをヘッダー情報として付加された声援データを声援データ記憶部211から取得する。声援再生指示部212により座席番号の代わりにエリアが指定された場合、音声処理部215は、会場座席情報記憶部214に記憶されている会場座席情報を参照して、指定されたエリアに含まれる座席番号を検出する。音声処理部215は検出した座席番号の声援データを声援データ記憶部211から取得する。
 音声処理部215は、実空間のコンサート会場に対応した仮想空間のコンサート会場(仮想会場)において、実空間における各座席番号の座席の位置に対応する仮想会場での位置に仮想の座席(仮想座席)を配置する。その仮想会場において、声援データ記憶部211から読み出した声援データを座席番号に対応した仮想座席の位置にオブジェクトオーディオとして配置する。音声処理部215は、仮想会場の所定の位置を聴取位置として、各オブジェクトオーディオにより再生(放音)された声援データの音声が、聴取位置の左右の耳のそれぞれの位置に伝播したと想定し、左右の耳のそれぞれで聴取される左右の音声の音声データを頭部伝達関数等を用いて生成する。これにより、音声処理部215は、音像が定位されたバーチャルサウンド又はバーチャルサラウンド(立体音響)としての声援データを生成する。なお、音声処理部215は、再生開始時刻から再生終了時刻までの間、オブジェクトオーディオにより声援データを再生し、聴取位置での左右の音声データ(声援データ)を生成する。音声処理部215は、生成した左右の声援データに対して時刻指定部213から供給される時刻をタイムコードとして付加して生成データ記憶部216に記憶させる。
 生成データ記憶部216は、音声処理部215により生成された左右の声援データを記憶する。生成データ記憶部216に記憶された声援データは、コンサートの演奏を録音した演奏データと混合される。声援データと演奏データとにはそれぞれをタイムコードが付加されており、それらのタイムコードが示す時刻が一致するときの声援データと演奏データとが混合される。
 以上の編集装置201によれば、声援データ記憶部211に記憶された各座席の声援データを、所望のタイミングで再生することができるので、コンサート会場の特定のエリアのみの声援データを所望のタイミングで再生したときに所定の位置で聴取される声援データを生成することができる。従って、図15で説明したように声援データを再生するエリア172を所定のスタート地点から所定のエンド位置までシフトさせることでウェーブのようなバーチャルサウンドを生成することができる。
 図17は、図15のバーチャルサウンドの生成の処理の流れを説明する図である。なお、図17では、第1コンサート形態において声援録音機能により録音された各観客の声援データを、コンサート時と同様のタイミングで再生するときのバーチャルサウンドを生成する場合の処理の流れを示す。
 ステップS41では、データ受信サーバ(コンサート運営側のサーバ)は、第1コンサート形態において各座席の子機11で録音された声援データを収集する。ステップS42では、バーチャルサウンド生成装置(編集装置201)はステップS41で収集された声援データのヘッダー情報に含まれる座席番号(座席情報)に基づいてコンサート会場における座席位置を解析する。このとき、バーチャルサウンド生成装置は、コンサート会場の各座席の座席番号と座席位置との関係を示す会場座席情報を参照する。
 ステップS43では、バーチャルサウンド生成装置は、実際のコンサート会場を模した仮想空間におけるコンサート会場(仮想会場)において、ステップS41で収集された各声援データを配置する。このとき、各声援データが実際の録音された座席位置に対応する仮想空間の位置に各声援データを配置する。
 ステップS44では、バーチャルサウンド生成装置は、LTC信号を発生させて再生時刻を指定する。ステップS45では、バーチャルサウンド生成装置は、ステップS44で発生されたLTC信号の時刻での各声援データを仮想空間において再生して、仮想空間における設定された聴取位置での音声を生成する。
 以上のバーチャルサウンドの生成処理によれば、コンサート会場の任意の位置での声援を聴取した場合のパーチャルサウンドを生成することができる。また、図16の編集装置201により、コンサート時における各座席の観客の声援を再生するエリアやタイミングを自由に編集することができるので、図15で説明したようなウェーブのようなバーチャルサウンド等、様々な演出効果を図るサウンドを生成することができる。
 なお、図16の編集装置201は、第1コンサート形態において声援録音機能により録音された声援データや、第2コンサート形態において声援再生機能により使用された声援データから特定の聴取位置ではバーチャルサウンドを生成する場合に限らない。編集装置201は、第2コンサート形態又は第3コンサート形態において声援録音機能により録音された声援データや、第1コンサート形態又は第3コンサート形態において声援再生機能により使用された声援データから特定の聴取位置でのバーチャルサウンドを生成してもよい。編集装置201は、第2コンサート形態や第3コンサート形態において声援再生機能により再生される予定の声援データから特定の聴取位置でのバーチャルサウンドをコンサート中にリアルタイムに生成してもよい。例えば、第2コンサート形態(無観客コンサート)において、声援再生機能により再生される予定の声援データから、出演者の聴取位置でのバーチャルサウンドをコンサート中にリアルタイムに生成し、生成されたバーチャルサウンドを出演者がイヤーモニタ等で聴取しながらコンサートを実施することもできる。この場合に、無観客のコンサート会場でも出演者は観客の声援を聴くことができる。なお、編集装置201において生成される声援データは、聴取位置に対して各観客の位置(距離や方向)を考慮した立体音響でなくてもよい。第1コンサート形態又は第2コンサート形態において図12の声援再生装置131により、各観客の声援データを再生する場合に、再生する声援データの座席のエリアや時間を親機12で制御することで、図15で説明したウェーブのような声援を実際のコンサート会場に発生させることもできる。
<第3コンサート形態でのバーチャルサウンド生成>
 図18は、第3コンサート形態でのバーチャルサウンドの生成を説明する図である。
 図18において、コンサート会場241は、仮想空間に形成された仮想のコンサート会場である。例えば、仮想のコンサート会場241でのコンサートがオンライン配信(通信網により配信)され、視聴者には、仮想のコンサート会場241のおける座席番号が割り当てられる。コンサート会場241の座席数は略上限はなく、例えば70万人の視聴者に対しても座席番号が割り当てられる。ただし、複数の視聴者に対して重複した座席番号を割り当てることが可能であるとする。70万の視聴者がいる場合に1座席(1つの座席番号)あたり10人の視聴者が割り当てられるとする。
 各座席には仮想の子機11が配置される。仮想の子機11のスピーカ242からはその座席が割り当てられた例えば10人分の声援データが合成されて出力されるとしてもよいし、曲ごとに声援データを分けて出力されるとしてもよい。
 図19は、第3コンサート形態においてユーザに提供する音声データを生成する音声再生装置の構成例を示したブロック図である。
 図19の音声再生装置261は、演奏データ供給部271、声援データ供給部272、マイク273、声援再生指示部274、時刻指定部275、聴取座席指定部276、会場座席情報記憶部277、音声処理部278、及び、音声データ再生部279を有する。
 演奏データ供給部271は、コンサート運営側のサーバの構成要素により構築される。演奏データ供給部271は、コンサートにおいて出演者の演奏を記録した演奏データをユーザが装着して使用するHMD(Head Mounted Display)等のVR装置(又は、VR装置に接続された処理装置)の構成要素により構築される音声処理部278に供給する。サーバとVR装置とはインターネット等の通信網を介して通信可能に接続され、演奏データ供給部271から音声処理部278への演奏データは、通信網を通じて伝送される。VR装置は、音声のみを聴取できる装置であってもよい。
 コンサートの演奏をリアルタイムに配信する場合には、演奏データ供給部271は、演奏と略同時に得られる演奏データを略リアルタイムで音声処理部278に供給する。事前に収録された演奏データを配信する場合には、演奏データ供給部271は、記憶部に記憶されたコンサートの開始から終了までの演奏データを時間の経過に従って音声処理部278に供給する。
 声援データ供給部272は、コンサート運営側のサーバの構成要素により構築される。声援データ供給部272は、バーチャルコンサートを視聴している各ユーザが発した声の声援データを音声処理部278に供給する。声援データは、演奏データと同様に通信網を通じてサーバから各ユーザのVR装置に伝送される。
 各ユーザの声援データは、各ユーザに対して配置されたマイク273により検出され、各ユーザに割り当てられた仮想座席の座席番号が付加されて、通信網を通じて声援データ供給部272に供給される。
 声援データ供給部272は、各ユーザのマイク273から取得した声援データを音声処理部278に供給する。なお、声援データは、図12の声援再生装置131と同様に、コンサートの開始前等に事前にユーザが自身の声で録音した声援データであってもよいし、人工的に生成された声での既定の声援データ、又は、ユーザとは関係のない人物の声での既定の声援データであってもよい。この場合に、声援データには、図8のヘッダー情報が付加される。
 声援再生指示部274は、コンサート運営側のサーバの構成要素により構築され、その処理が、サーバで実施される処理部である。声援再生指示部274は、音声処理部278に対して、音声データ再生部279により声援の再生(放音)を指示する声援再生開始信号を供給する。声援再生指示部141から音声再生処理部144への声援再生開始信号は、サーバと各ユーザのVR装置との間の無線通信を介して伝送される。
 声援再生開始信号は、コンサート中において観客の声援が生じる声援期間のそれぞれに対して声援再生指示部274から音声処理部278に供給される。声援期間は、上述した通りであるので説明を省略する。
 声援再生指示部274が音声処理部278に対して声援再生開始信号を送信するタイミング(時刻)や、声援再生開始信号により指定される再生開始時刻及び再生継続時間は、図12の声援再生装置131と同様であるので説明を省略する。
 時刻指定部275は、各ユーザが使用するVR装置に搭載されたタイマーである。時刻指定部275は、コンサートの開始時刻から終了時刻までの時刻を音声処理部278に供給する。
 聴取座席指定部276は、各ユーザが使用するVR装置の構成要素により構築される。聴取座席指定部276は、自装置を使用するユーザに割り当てられた仮想会場における仮想座席の座席番号を音声処理部278に対して指定する。各ユーザには、コンサートの開始前に仮想会場における仮想座席が割り当てられ、その座席番号が通知される。聴取座席指定部276は、自装置を使用するユーザに割り当てられた仮想座席の座席番号を事前に取得している。
 会場座席情報記憶部277は、仮想会場におけるステージの位置、各座席番号の仮想座席の位置、及び、仮想会場をエリアに分割した場合の各エリアに含まれる座席範囲等を表す会場座席情報として記憶している。会場座席情報記憶部277は、記憶している会場座席情報を音声処理部278に供給する。
 音声処理部278は、各ユーザが使用するVR装置の構成要素により構築される。ただし、音声処理部278は、サーバの構成要素により構築されてもよい。音声処理部278は、演奏データ供給部271から供給される演奏データに対して声援データを混合して音声データ再生部279から出力する。音声データ再生部279は、ヘッドフォン、イヤフォン等の音声再生装置である。
 音声処理部278は、声援再生指示部274からの声援再生開始信号に従って声援再生処理を実行する。
 即ち、音声処理部278は、時刻指定部275から供給される時刻が、声援再生開始信号により指定された再生開始時刻になると、声援再生処理を開始する。音声処理部278は、時刻指定部275から供給される時刻が、再生開始時刻に対して声援再生開始信号により指定された再生継続時間が経過した時刻(再生終了時刻)になると、声援再生処理を停止(終了)する。
 声援再生処理では、音声処理部278は、声援再生指示部274からの声援再生開始信号により指定された再生開始時刻をヘッダー情報のタイムコードとして有する声援データを声援データ供給部272から取得する。声援データ供給部272が、マイク273で検出された声援データをリアルタイムに供給する場合には、音声処理部278は、声援再生指示部141により指定された再生開始時刻から再生終了時刻までの期間において、声援データ供給部272から声援データを取得する。ただし、音声処理部278は、声援データ供給部272から取得する声援データは、聴取座席指定部276から指定された座席番号の仮想座席に対して、例えば、所定距離未満の仮想座席の座席番号のユーザの声援データのみに制限されるようにしてもよい。聴取座席指定部276により指定された聴取座席(仮想座席)に対して、所定の距離未満の仮想座席の座席番号は、会場座席情報記憶部277に記憶されている会場座席情報に基づいて特定される。
 音声処理部278は、声援データ供給部272から取得した声援データに対してヘッダー情報として付加された座席番号の仮想座席の位置に、その声援データをオブジェクトオーディオとして配置する。音声処理部278は、自装置を使用するユーザの聴取座席の位置を聴取位置として、各オブジェクトオーディオにより再生(放音)された声援データの音声が、聴取位置の左右の耳のそれぞれの位置に伝播したと想定し、左右の耳のそれぞれで聴取される左右の音声の音声データを頭部伝達関数等を用いて生成する。これにより、音声処理部278は、音像が定位されたバーチャルサウンド又はバーチャルサラウンド(立体音響)としての声援データを生成する。なお、音声処理部215は、声援再生指示部212により指定された再生開始時刻から声援再生指示部212により指定された再生継続時間が経過する再生終了時刻までの間、オブジェクトオーディオにより声援データを再生し、聴取位置での左右の音声データ(声援データ)を生成する。音声処理部278は、生成した左右の声援データを演奏データに混合して音声データ再生部279に供給する。
 音声データ再生部279は、各ユーザに両耳に装着されるヘッドフォンやイヤフォン等の音声再生装置である。音声データ再生部279は音声処理部278からの音声データ(演奏データ及び声援データ)を再生し、ユーザに提供する。
 以上の音声再生装置261は、第3コンサート形態(バーチャルコンサート)を通信網を介した配信等により視聴する各観客の自宅等に配置されたVR装置に対して構築される。したがって、各ユーザは、各ユーザに割り当てられた仮想座席の位置でコンサートを視聴したときの観客の声援をバーチャルサウンドとして聴くことができる。
 図20は、図18のバーチャルサウンドの生成の処理の流れを説明する図である。
 ステップS61では、データ受信サーバ(コンサート運営側のサーバ)は、第3コンサート形態において仮想のコンサート会場の各座席に割り当てられたユーザの声援データを収集する。
 ステップS62では、バーチャルサウンド生成装置(音声再生装置261)は、ステップS61で収集された声援データのヘッダー情報に含まれる座席番号(座席情報)に基づいて仮想のコンサート会場における座席位置を解析する。このとき、バーチャルサウンド生成装置は、仮想のコンサート会場の各座席の座席番号と座席位置との関係を示す会場座席情報を参照する。
 ステップS63では、バーチャルサウンド生成装置は、座席位置の正規化を行う。正規化とは、例えば、70万人分の声援データを7万人規模の声援データにミキシングすること、仮想空間をユーザ数(声援数)に応じて拡大すること、又は、仮想の座席の密度を視聴者の人数に応じて変更することを意味する。
 ステップS64では、バーチャルサウンド生成装置は、仮想のコンサート会場(仮想会場)において、ステップS61で収集された各声援データを配置する。このとき、各声援データは、各ユーザに割り当てられた仮想の座席位置に配置される。
 ステップS65では、バーチャルサウンド生成装置は、LTC信号を発生させて再生時刻を指定する。
 ステップS667では、バーチャルサウンド生成装置は、ステップS65で発生されたLTC信号の時刻での各声援データを仮想空間(仮想会場)において再生して、仮想空間において設定された聴取位置(ユーザの座席位置)での音声を生成する。
 以上のバーチャルサウンドの生成によれば、各ユーザは、各ユーザに割り当てられた仮想会場の座席位置に応じた観客の声援や演奏を聴くことができる。出演者は、自己の位置を聴取位置として生成された声援のバーチャルサウンドをイヤーモニタ等で聴取することで、リアリティのある観客の声援を聴くことができる。
 本技術は以下のような構成も取ることができる。
(1)
 複数の録音装置を同時に制御可能な他装置と通信する通信部と、
 前記他装置によって制御され、前記複数の録音装置と同期して録音可能な録音部と、
 前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する処理部
 を有する情報処理装置。
(2)
 前記処理部は、前記音声データに対して、前記位置情報として、会場に設置された座席の位置を特定する座席情報を付加する
 前記(1)に記載の情報処理装置。
(3)
 前記処理部は、前記音声データに対して、前記座席情報として前記座席の座席番号を付加する
 前記(2)に記載の情報処理装置。
(4)
 前記処理部は、前記座席情報を、前記座席に設置されたタグから取得する
 前記(2)又は(3)に記載の情報処理装置。
(5)
 前記処理部は、前記音声データに対して前記音声データが録音された際に前記会場で演奏されていた曲名を付加する
 前記(2)乃至(4)のいずれかに記載の情報処理装置。
(6)
 前記処理部は、前記音声データに対して前記録音部の振動に関する振動情報を付加する
 前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記録音部は、前記通信部により前記他装置から取得した録音開始の指示に基づいて、前記音声データの録音を開始する
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記他装置により発光が制御される発光部
 を更に有する
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記他装置により制御され、音声データを再生する音声再生部
 を更に有する
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 通信部と、
 録音部と、
 処理部と
 を有する情報処理装置の
 前記通信部が、複数の録音装置を同時に制御可能な他装置と通信し、
 前記録音部が、前記他装置によって制御され、前記複数の録音装置と同期して録音を行い、
 前記処理部が、前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する
 情報処理方法。
(11)
 複数の再生装置を同時に制御可能な他装置と通信する通信部と、
 前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する音声再生部と、
 を有する
 情報処理装置。
(12)
 前記音声再生部は、予め録音されたユーザの音声データを再生する
 前記(11)に記載の情報処理装置。
(13)
 前記音声再生部は、前記他装置により再生を指示された時刻に対応した音声データを再生する
 前記(11)又は(12)に記載の情報処理装置。
(14)
 前記音声再生部は、会場に設置された座席の位置に配置される
 前記(11)乃至(13)のいずれかに記載の情報処理装置。
(15)
 前記複数の再生装置及び前記音声再生部は、仮想空間における会場の所定位置に配置され、
 前記複数の再生装置が各々の位置で再生した音声データを、前記音声再生部が配置された位置で聴取したときの音声データを生成する生成部
 を更に有する
 前記(11)乃至(14)のいずれかに記載の情報処理装置。
(16)
 前記生成部は、前記複数の再生装置が再生される前記会場における座席位置の情報を用いて、前記会場の所定のスタート地点の座席位置から所定の順番で前記複数の再生装置の前記音声データを再生する
 前記(15)に記載の情報処理装置。
(17)
 無線通信により発光が制御される発光部
 を有する
 前記(11)乃至(16)のいずれかに記載の情報処理装置。
(18)
 通信部と、
 音声再生部と
 を有する情報処理装置の
 前記通信部が、複数の再生装置を同時に制御可能な他装置と通信し、
 前記音声再生部が、前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する
 情報処理方法。
 1 会場演出システム, 11 子機, 12 親機, 22 発光部, 25 スピーカ, 26 マイク, 33,61 制御部, 36 記憶部, 62 通信部

Claims (18)

  1.  複数の録音装置を同時に制御可能な他装置と通信する通信部と、
     前記他装置によって制御され、前記複数の録音装置と同期して録音可能な録音部と、
     前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する処理部
     を有する情報処理装置。
  2.  前記処理部は、前記音声データに対して、前記位置情報として、会場に設置された座席の位置を特定する座席情報を付加する
     請求項1に記載の情報処理装置。
  3.  前記処理部は、前記音声データに対して、前記座席情報として前記座席の座席番号を付加する
     請求項2に記載の情報処理装置。
  4.  前記処理部は、前記座席情報を、前記座席に設置されたタグから取得する
     請求項2に記載の情報処理装置。
  5.  前記処理部は、前記音声データに対して前記音声データが録音された際に前記会場で演奏されていた曲名を付加する
     請求項2に記載の情報処理装置。
  6.  前記処理部は、前記音声データに対して前記録音部の振動に関する振動情報を付加する
     請求項1に記載の情報処理装置。
  7.  前記録音部は、前記通信部により前記他装置から取得した録音開始の指示に基づいて、前記音声データの録音を開始する
     請求項1に記載の情報処理装置。
  8.  前記他装置により発光が制御される発光部
     を更に有する
     請求項1に記載の情報処理装置。
  9.  前記他装置により制御され、音声データを再生する音声再生部
     を更に有する
     請求項1に記載の情報処理装置。
  10.  通信部と、
     録音部と、
     処理部と
     を有する情報処理装置の
     前記通信部が、複数の録音装置を同時に制御可能な他装置と通信し、
     前記録音部が、前記他装置によって制御され、前記複数の録音装置と同期して録音を行い、
     前記処理部が、前記録音部によって録音された音声データに対して、録音された位置に関する位置情報と、録音された時刻に関する時刻情報とを付加する
     情報処理方法。
  11.  複数の再生装置を同時に制御可能な他装置と通信する通信部と、
     前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する音声再生部と、
     を有する
     情報処理装置。
  12.  前記音声再生部は、予め録音されたユーザの音声データを再生する
     請求項11に記載の情報処理装置。
  13.  前記音声再生部は、前記他装置により再生を指示された時刻に対応した音声データを再生する
     請求項11に記載の情報処理装置。
  14.  前記音声再生部は、会場に設置された座席の位置に配置される
     請求項11に記載の情報処理装置。
  15.  前記複数の再生装置及び前記音声再生部は、仮想空間における会場の所定位置に配置され、
     前記複数の再生装置が各々の位置で再生した音声データを、前記音声再生部が配置された位置で聴取したときの音声データを生成する生成部
     を更に有する
     請求項11に記載の情報処理装置。
  16.  前記生成部は、前記複数の再生装置が再生される前記会場における座席位置の情報を用いて、前記会場の所定のスタート地点の座席位置から所定の順番で前記複数の再生装置の前記音声データを再生する
     請求項15に記載の情報処理装置。
  17.  無線通信により発光が制御される発光部
     を有する
     請求項11に記載の情報処理装置。
  18.  通信部と、
     音声再生部と
     を有する情報処理装置の
     前記通信部が、複数の再生装置を同時に制御可能な他装置と通信し、
     前記音声再生部が、前記他装置によって制御され、前記複数の再生装置と同期して音声データを再生する
     情報処理方法。
PCT/JP2022/001488 2021-03-19 2022-01-18 情報処理装置、及び、情報処理方法 WO2022196076A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/549,992 US20240155284A1 (en) 2021-03-19 2022-01-18 Information processing apparatus and information processing method
JP2023506796A JPWO2022196076A1 (ja) 2021-03-19 2022-01-18

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021046278 2021-03-19
JP2021-046278 2021-03-19

Publications (1)

Publication Number Publication Date
WO2022196076A1 true WO2022196076A1 (ja) 2022-09-22

Family

ID=83320221

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001488 WO2022196076A1 (ja) 2021-03-19 2022-01-18 情報処理装置、及び、情報処理方法

Country Status (3)

Country Link
US (1) US20240155284A1 (ja)
JP (1) JPWO2022196076A1 (ja)
WO (1) WO2022196076A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251399A (ja) * 1999-03-03 2000-09-14 Olympus Optical Co Ltd 音声記録装置、音声記録システム及び信号処理方法
JP2003036981A (ja) * 2001-07-24 2003-02-07 Komaden:Kk 携帯発光装置による演出用発光装置及び演出方法
JP2009245389A (ja) * 2008-03-31 2009-10-22 Yamaha Corp コンテンツ再生システムおよび携帯端末装置
KR101740005B1 (ko) * 2017-01-25 2017-05-25 김필종 다기능 디스플레이 시스템
JP2020004284A (ja) * 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置
JP2020047475A (ja) * 2018-09-19 2020-03-26 日本電業工作株式会社 送信システム、送信装置及び演出システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251399A (ja) * 1999-03-03 2000-09-14 Olympus Optical Co Ltd 音声記録装置、音声記録システム及び信号処理方法
JP2003036981A (ja) * 2001-07-24 2003-02-07 Komaden:Kk 携帯発光装置による演出用発光装置及び演出方法
JP2009245389A (ja) * 2008-03-31 2009-10-22 Yamaha Corp コンテンツ再生システムおよび携帯端末装置
KR101740005B1 (ko) * 2017-01-25 2017-05-25 김필종 다기능 디스플레이 시스템
JP2020004284A (ja) * 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置
JP2020047475A (ja) * 2018-09-19 2020-03-26 日本電業工作株式会社 送信システム、送信装置及び演出システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Loud cheers, from smartphones at hand In response to the corona disaster, Fukui's idol management team launches a new system", 14 July 2020 (2020-07-14), XP055967373, Retrieved from the Internet <URL:https://fukui.keizai.biz/headline/810/> [retrieved on 20221003] *

Also Published As

Publication number Publication date
US20240155284A1 (en) 2024-05-09
JPWO2022196076A1 (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
US5982902A (en) System for generating atmospheric quasi-sound for audio performance
JP5394532B2 (ja) ローカライズされたオーディオ・ネットワークおよび関連するディジタル・アクセサリ
US20030049591A1 (en) Method and system for multimedia production and recording
JP2003117865A (ja) ロボット、ロボットの動作パターン制御プログラム、および、音楽情報ファイル
CN1419796A (zh) 虚拟音像定位处理装置、虚拟音像定位处理方法以及记录介质
JP6148958B2 (ja) 携帯端末による照明の遠隔操作が可能な通信カラオケシステム
CN106465008A (zh) 终端混音系统和播放方法
JP2021077257A (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2022196076A1 (ja) 情報処理装置、及び、情報処理方法
JP6246532B2 (ja) 通信カラオケシステム
JP5544961B2 (ja) サーバ
JP2011075730A (ja) 楽曲発光システム
WO2021246104A1 (ja) 制御方法および制御システム
US20220036867A1 (en) Entertainment System
JPH10268888A (ja) カラオケ室
JPH1091177A (ja) 楽音再生システム
JPH10124074A (ja) 楽音発生装置
JP5454530B2 (ja) カラオケ装置
JP2000205795A (ja) 花火コントロ―ルシステム
JP7022872B1 (ja) データ処理方法およびデータ処理装置
JP2005107285A (ja) 楽曲再生装置
JP2002073024A (ja) 可搬型音楽生成装置
JP4642685B2 (ja) 歌曲録音作品を随所で随時に再生できる通信カラオケシステム、カラオケ装置、方法
US20190200130A1 (en) Silent disco roller skating
JPH11102194A (ja) 外部入力された画像情報をディスプレイに表示するカラオケ装置およびその使用方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22770838

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023506796

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18549992

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22770838

Country of ref document: EP

Kind code of ref document: A1