WO2022075418A1 - 通信方法およびシステム - Google Patents

通信方法およびシステム Download PDF

Info

Publication number
WO2022075418A1
WO2022075418A1 PCT/JP2021/037184 JP2021037184W WO2022075418A1 WO 2022075418 A1 WO2022075418 A1 WO 2022075418A1 JP 2021037184 W JP2021037184 W JP 2021037184W WO 2022075418 A1 WO2022075418 A1 WO 2022075418A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
terminal
event data
data
event
Prior art date
Application number
PCT/JP2021/037184
Other languages
English (en)
French (fr)
Inventor
達也 入山
訓史 鵜飼
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2022555566A priority Critical patent/JP7426006B2/ja
Priority to CN202180067545.2A priority patent/CN116438790A/zh
Publication of WO2022075418A1 publication Critical patent/WO2022075418A1/ja
Priority to US18/192,828 priority patent/US20230239520A1/en
Priority to JP2024007460A priority patent/JP2024028555A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/08Telephonic communication systems specially adapted for combination with other electrical systems specially adapted for optional reception of entertainment or informative matter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages

Definitions

  • the present invention relates to a communication method and a system in which a plurality of users located apart from each other exchange information via a server.
  • Patent Document 1 discloses a technique of recording an applause sound together with a karaoke song on a recording medium and reproducing the applause sound from the recording medium together with the karaoke song.
  • the applause sound reproduced together with the karaoke song is a fixed sound recorded in advance, and is not sufficient as a means for enlivening the place.
  • Multiple users who enjoy a common object may want to share the applause sounds that each user emits in real time.
  • objects such as plays, music performances, lectures, and sports
  • a plurality of users located apart from each other may appreciate and enjoy a common object. In such cases, the users are so far apart that they cannot share each other's applause.
  • An example of an object of the present invention is to provide a technical means for allowing a plurality of users who intend to emit a sound such as a clapping sound to share a sound with each other.
  • the first terminal transmits the first event data instructing the generation of the first sound to the server, and the second terminal transmits the second event data instructing the generation of the second sound.
  • the data including the first event data and the data including the second event data are transmitted to the first terminal by the server, and the first event data is included by the first terminal. It includes controlling the generation of the first sound and the second sound based on the data and the data including the second event data.
  • the system according to the embodiment of the present invention includes a first terminal, a second terminal, and a server. The first terminal transmits the first event data instructing the generation of the first sound to the server for transmission.
  • the second terminal transmits the second event data instructing the generation of the second sound to the server.
  • the server transmits data including the first event data and data including the second event data to the first terminal.
  • the first terminal controls the generation of the first sound and the second sound based on the data including the first event data and the data including the second event data.
  • FIG. 1 is a block diagram showing a configuration of a communication system 1 according to an embodiment of the present invention.
  • the communication system 1 includes a first terminal 10_1 and a second terminal 10_2 connected to a network 30 such as the Internet, and a server 20.
  • the server 20 transmits video data (including sound data) of various live broadcast programs such as plays, music performances, and lectures to the first terminal 10_1 and the second terminal 10_2.
  • the first terminal 10_1 receives data from the server 20 and plays a live broadcast program. During this reproduction, the first terminal 10_1 generates the first event data EV_1 instructing the pronunciation of the applause sound in response to an operation from the user, and transmits the first event data EV_1 to the server 20. Similarly, the second terminal 10_2 receives the data from the server 20 and reproduces the live broadcast program. During this reproduction, the second terminal 10_2 generates the second event data EV_2 instructing the pronunciation of the applause sound in response to an operation from the user, and transmits the second event data EV_2 to the server 20.
  • the server 20 generates a third event data EV_3 including a first event data EV_1 received from the first terminal 10_1 and a second event data EV_2 received from the second terminal 10_2, and the third event data EV_3. Is transmitted to the first terminal 10_1 and the second terminal 10_2.
  • Each of the first terminal 10_1 and the second terminal 10_2 produces an applause sound according to the third event data EV_3 received from the server 20.
  • the user of the first terminal 10_1 and the user of the second terminal 10_2 can share the applause sound instructed to pronounce while watching the common live broadcast program.
  • FIG. 1 only two terminals 10_1 and 10_2 are shown in order to prevent the drawing from becoming complicated, but event data instructing the pronunciation of the applause sound is provided by receiving the live broadcast program from the server 20.
  • the number of terminals that transmit to the server 20 may be three or more.
  • FIG. 2 is a block diagram showing a configuration example of the first terminal 10_1 in the present embodiment.
  • the second terminal 10_2 also has the same configuration as the first terminal 10_1.
  • the first terminal 10_1 is a computer having a communication function such as a personal computer or a smartphone.
  • the first terminal 10_1 has a processor 100, an operation unit 110, a display unit 120, a sound input unit 130, a sound output unit 140, a storage unit 150, and a communication unit 160. ..
  • the processor 100 is a control center that controls each part of the first terminal 10_1.
  • the operation unit 110 is a means for receiving operations for giving various instructions to the processor 100, and includes various controls such as a keyboard and a mouse.
  • the display unit 120 is a means for displaying various types of information, and includes, for example, a liquid crystal display panel.
  • the operation unit 110 and the display unit 120 may be a touch panel having both functions.
  • the sound input unit 130 is a means for collecting sound from the outside world and giving it to the processor 100, and is composed of a microphone 130-1.
  • the sound output unit 140 is a means for outputting an electric signal given from the processor 100 to the outside world as sound, and is composed of a speaker 140-1.
  • the storage unit 150 has a volatile storage unit such as a RAM and a non-volatile storage unit such as a ROM and a hard disk.
  • the volatile storage unit is used as a work area by the processor 100.
  • the non-volatile storage unit stores various programs executed by the processor 100 and various control data used by the processor.
  • the communication unit 160 is a means for controlling communication between the processor 100 and other devices connected to the network 30.
  • the first terminal 10_1 when the first terminal 10_1 accesses the server 20 and starts receiving the video data of the live broadcast program, the first terminal 10_1 downloads the program playback program 151 from the server 20 before starting the reception of the video data. , Stored in the volatile storage unit of the storage unit 150.
  • the processor 100 functions as a program reproduction unit 101, an event generation unit 102, and an event reproduction unit 103 by executing the program reproduction program 151.
  • the program reproduction unit 101 receives the video data of the live broadcast program from the server 20 via the communication unit 160, and generates (reproduces) the live broadcast program based on the video data. More specifically, the program reproduction unit 101 displays the image indicated by the received moving image data on the display unit 120, and emits the sound indicated by the moving image data by the sound output unit 140.
  • the event generation unit 102 generates the first event data EV_1 for instructing the pronunciation of the applause sound in response to an operation on the operation unit 110 during the reproduction of the live broadcast program.
  • the screen shown in FIG. 3 is displayed on the display unit 120 in order to receive various instructions such as a pronunciation instruction of the applause sound.
  • FIG. 3 an image of a live broadcast program reproduced by the program reproduction unit 101 is displayed in the program display area 121.
  • the applause buttons 122a, 122b, 122c and 122d, and the first mute button 123a and the second mute button 123b are displayed on the right side of the program display area 121.
  • the applause buttons 122a, 122b, 122c and 122d are associated with applause sounds a, b, c and d having different sound wave shapes or pronunciation modes, respectively.
  • the applause sound a may be an applause sound that sounds many times at short time intervals.
  • the clapping sound b may be a clapping sound that sounds a few times at long time intervals.
  • the user can give a desired pronunciation instruction of the applause sound to the event generation unit 102 by instructing (selecting) any of the applause buttons 122a to 122d by a pointing device such as a mouse.
  • FIG. 4 illustrates the first event data EV_1 generated by the event generation unit 102.
  • one first event data EV_1 is text data including generation time data D1, sound type data D2, and terminal identification data D3.
  • the first event data EV_1 does not include the sound data of the applause sound.
  • the second event data EV_1 and the third event data EV_3 do not include the sound data of the applause sound.
  • the generation time data D1 is data indicating the generation time of the pronunciation instruction, that is, the time when any of the applause buttons 122a to 122d is selected.
  • the generation time of the pronunciation instruction is the time on the time axis in which the program provided by the server 20 progresses, that is, the time in the program (the current time based on the start time of the program, the elapsed time of the program). Time).
  • the server 20 transmits information indicating the start of the program to the first terminal 10_1 and the second terminal 10_2 at the start timing of the live broadcast of the program.
  • Each of the first terminal 10_1 and the second terminal 10_2 initializes the time in the program by receiving this information. After that, each of the first terminal 10_1 and the second terminal 10_2 updates the time in each program according to the passage of time.
  • the server 20 when the live broadcast program is broadcast (transmitted), the server 20 multiplexes the in-program time with the video data of the live broadcast program and transmits the live broadcast program to the first terminal 10_1 and the second terminal 10_2.
  • Each of the first terminal 10_1 and the second terminal 10_2 takes out the in-program time data from the moving image data of the program currently being played and uses it for generating the first event data EV_1.
  • the time in the program is determined by this aspect.
  • the event generation unit 102 When any of the applause buttons 122a to 122d is selected, the event generation unit 102 generates generation time data D1 indicating the time in the program at that time.
  • the sound type data D2 is data indicating the type of applause sound for which pronunciation is instructed.
  • the sound type data D2 is data indicating the applause sound a.
  • the sound type data D2 becomes data indicating the applause sound b.
  • the sound type data D2 is data indicating the applause sound c.
  • the sound type data D2 is data indicating the applause sound d.
  • the terminal identification data D3 is information for identifying the terminal in which the pronunciation instruction is generated. Since the first event data EV_1 is generated by the pronunciation instruction to the first terminal 10_1, the terminal identification data D3 becomes ID1 which is the identification information of the first terminal 10_1. Further, since the second event data EV_2 is generated by the pronunciation instruction to the second terminal 10_2, the terminal identification data D3 becomes ID2 which is the identification information of the second terminal 10_2.
  • the first event data EV_1 generated by the event generation unit 102 is transmitted to the server 20 via the communication unit 160 and is given to the event reproduction unit 103.
  • the event reproduction unit 103 applauds according to the first function of pronouncing the applause sound according to the first event data EV_1 generated by the event generation unit 102 and the third event data EV_3 received from the server 20 via the communication unit 160. It has a second function of producing a sound. These two functions are controlled based on the states of the first mute flag MUTE1 and the second mute flag MUTE2 set in the volatile storage unit of the storage unit 150.
  • 1st mute flag (cancellation flag, cancellation flag)
  • the first event data EV_1 generated by the event generation unit 102 is transmitted to the server 20 and the first event data EV_1 becomes the third event data EV_1 and is received from the server 20, it responds to the second mute flag MUTE2. Therefore, it is determined whether or not to mute the sound of the applause sound based on the third event data EV_3.
  • the first mute button 123a is turned on when the first mute flag MUTE1 is ON and turned off when the first mute flag MUTE1 is OFF.
  • the second mute button 123b is turned on when the second mute flag MUTE2 is ON and turned off when the second mute flag MUTE2 is OFF.
  • the user can switch ON / OFF of the first mute flag MUTE1 by selecting the first mute button 123a by the pointing device. Further, the user can switch ON / OFF of the second mute flag MUTE2 by selecting the second mute button 123b by the pointing device.
  • the relationship between the first mute flag MUTE1 and the first function is as follows.
  • the event reproduction unit 103 When the first mute flag MUTE1 is OFF, the event reproduction unit 103 generates the sound signal of the applause sound specified by the first event data EV_1 when the first event data EV_1 is received from the event generation unit 102. Then, the sound output unit 140 makes a sound as a clap sound.
  • the event reproduction unit 103 causes the event reproduction unit 103 to pronounce the applause sound instructed by the first event data EV_1 even if the first event data EV_1 is received from the event generation unit 102. not.
  • the relationship between the second mute flag MUTE2 and the second function is as follows.
  • the event reproduction unit 103 has the first event data EV_3 generated by the first event generation unit 102 when the third event data EV_3 is received from the server 20.
  • the sound output unit 140 is made to sound the applause sound specified by the third event data EV_1.
  • the event reproduction unit 103 When the second mute flag MUTE2 is ON, when the event reproduction unit 103 receives the third event data EV_3 from the server 20, the terminal identification data D3 of the third event data EV_3 is the identification information of the first terminal 10_1. It is determined whether or not ID1 is indicated, that is, whether or not the third event data EV_3 is the first event data EV_1 generated by the first terminal 10_1. Then, when the third event data EV_3 does not correspond to the first event data EV_1, the event reproduction unit 103 causes the third event data EV_3 to pronounce the applause sound specified by the third event data EV_1. When the third event data EV_3 corresponds to the first event data EV_1, the event reproduction unit 103 does not pronounce the applause sound specified by the third event data EV_3.
  • the event reproduction unit 103 controls the timing of sounding the applause sound based on the third event data EV_3 based on the current time (time in the program) and the time when the sounding instruction indicated by the third event data EV_3 is generated. More specifically, it is as follows.
  • the event reproduction unit 103 stores the third event data EV_3 received from the server 20 in the storage unit 150, sorts the accumulated third event data EV_3 in the order of the occurrence time indicated by the occurrence time data D1, and lists the stored third event data EV_3. create. Then, the event reproduction unit 103 takes out each third event data EV_3 from the sorted list of the plurality of third event data EV_3 in the order of the occurrence time, and makes the applause sound sound according to the taken out third event data EV_3.
  • the details of the control of the timing of the sound of the applause sound based on the third event data EV_3 will be clarified in the operation description of the present embodiment in order to avoid duplication of description.
  • FIG. 5 is a block diagram showing the configuration of the server 20.
  • the server 20 communicates with a processor 200 similar to that of the first terminal 10_1 and the second terminal 10_2, an operation unit 210, a display unit 220, a sound input unit 230, a sound output unit 240, and a storage unit 250. It has a unit 260.
  • the program broadcasting program 251 is stored in the non-volatile storage unit of the storage unit 250.
  • the processor 200 functions as a program broadcasting unit 201, an event merging unit 202, and an event reproducing unit 203 by executing the program broadcasting program 251.
  • the program broadcasting unit 201 transmits the above-mentioned program reproduction program 151 to the first terminal 10_1 and the second terminal 10_2 requesting reception of the broadcast of the live broadcast program, and then transmits the moving image data of the live broadcast program.
  • the event merging unit 202 merges the first event data EV_1 and the second event data EV_1 sent from the first terminal 10_1 and the second terminal 10_2 to receive the broadcast of the program, and generates the third event data EV_3.
  • the event reproduction unit 203 is a means for controlling the pronunciation of the applause sound based on the third event data EV_3.
  • the applause sound reproduction mode can be set in the server 20 or the set applause sound reproduction mode can be canceled by the operation of the operation unit 210 or by the instruction from the terminal connected to the network 30. ..
  • the applause sound reproduction mode is a mode in which the server 20 produces an applause sound according to the first event data EV_1 and the second event data EV_1 transmitted from the first terminal 10_1 and the second terminal 10_2.
  • the event reproduction unit 203 causes the sound output unit 240 to pronounce the applause sound according to the third event data EV_3. More specifically, the event reproduction unit 203 stores the third event data EV_3 in the storage unit 250, and sorts the accumulated third event data EV_3 in the order of the occurrence time indicated by the occurrence time data D1. Then, the event reproduction unit 203 extracts the third event data EV_3 from the sorted third event data EV_3 in the order of each occurrence time, and makes the applause sound sound according to the extracted third event data EV_3. More specifically, the sound input unit 230 is composed of a plurality of microphones, specifically, microphones 230-1 and microphones 230-2.
  • the sound input unit 230 may be composed of only one microphone, that is, the microphone 230-1.
  • the sound output unit 240 is composed of a plurality of speakers, specifically, a speaker 240-1 and a speaker 240-2.
  • the sound output unit 240 may be composed of only one speaker, that is, the speaker 240-1.
  • a case where one microphone (microphone 230-1) and one speaker (speaker 240-1) are used will be described.
  • the speaker 240-1 produces the applause sound of each third event data EV_3.
  • the microphone 230-1 collects the clapping sound produced by the speaker 240-1, and the sound input unit 230 generates sound data including the clapping sound.
  • the communication unit 260 transmits the sound data to the first terminal 10_1 and the second terminal 10_2.
  • the first terminal 10_1 and the second terminal 10_2 reproduce the applause sound based on the sound data.
  • the reverberation sound is generated by generating the applause sound by the speaker 240-1. Therefore, the sound data includes the reverberation sound. Therefore, the first terminal 10_1 and the second terminal 10_2 can reproduce a natural applause sound.
  • a case where one microphone (microphone 230-1) and a plurality of speakers (speakers 240-1 and 240-2) are used will be described. In this case, the speaker 240-1 and the speaker 240-1 produce an applause sound according to each third event data EV_3.
  • the speaker 240-1 emits only the applause sound according to the third event data EV_3 in which the terminal identification data D3 indicates the identification information ID 1, and the speaker 240-2 causes the terminal identification data D3 to indicate the identification information ID 2.
  • the microphone 230-1 collects the clapping sound produced by the speaker 240-1 and the clapping sound produced by the speaker 240-2, so that the sound input unit 230 generates sound data including the clapping sound.
  • the communication unit 260 transmits the sound data to the first terminal 10_1 and the second terminal 10_2.
  • the first terminal 10_1 and the second terminal 10_2 reproduce the applause sound based on the sound data.
  • the reverberation sound corresponding to the difference in the positions of the speakers 240-1 and 240-2 is generated. Therefore, the first terminal 10_1 and the second terminal 10_2 can reproduce the clapping sound including such a reverberation sound. Therefore, the user can share a more natural applause sound.
  • a plurality of microphones microphones 230-1 and 230-2
  • a plurality of speakers speakerers 240-1 and 240-2
  • the sound input unit 230 generates sound data based on the sound picked up by the microphone 230-1 and sound data based on the sound picked up by the microphone 230-2.
  • the communication unit 260 transmits sound data based on the sound picked up by the microphone 230-1 to the first terminal 10_1. Further, the communication unit 260 transmits sound data based on the sound picked up by the microphone 230-2 to the second terminal 10_2. Therefore, the first terminal 10_1 and the second terminal 10_2 can reproduce different applause sounds corresponding to the difference in the positions of the microphones 230-1 and 230-2.
  • the microphones 230-1 and / or 230-2 and the speakers 240-1 and / or 240-2 may be installed in a place where environmental noise enters. In this case, the sound data will include environmental noise. Therefore, the first terminal 10_1 and the second terminal 10_2 can reproduce the environmental noise together with the applause sound. Therefore, the user can share a more natural applause sound.
  • FIG. 6 is a flowchart showing the processing contents of the event reproduction unit 103 of the first terminal 10_1 and the second terminal 10_2.
  • the event reproduction unit 103 repeatedly executes the process shown in FIG. 6 while the program reproduction is performed.
  • the event reproduction unit 103 takes out the sorted third event data EV_3 from the storage unit 150 in the order of each occurrence time, and controls the pronunciation of the applause sound.
  • the event reproduction unit 103 tries to retrieve the third event data EV_3 having the earliest occurrence time remaining in the storage unit 150, the time indicated by the occurrence time data D1 of the third event data EV_3 is in the current program.
  • step S1 It is determined whether or not the time is within the allowable range TA (step S1). If this determination result is negative, the event reproduction unit 103 takes out the third event data EV_3 from the list and discards it (step S2). That is, the event reproduction unit 103 does not pronounce the applause sound based on the third event data EV_3.
  • the event reproduction unit 103 determines whether or not there is the third event data EV_3 that pronounces the applause sound prior to the third event data EV_3 to be fetched. Judgment (step S3). When there is no preceding third event data EV_3, the event reproduction unit 103 immediately takes out the third event data EV_3 from the list and causes the third event data EV_3 to pronounce the applause sound based on the third event data EV_3 (step S4).
  • the event reproduction unit 103 When there is a preceding third event data EV_3, the event reproduction unit 103 has the occurrence time t1 indicated by the occurrence time data D1 of the preceding third event data EV_3 and the occurrence time data D1 of the third event data EV_3 to be fetched. The time t2-t1 of the difference from the indicated occurrence time t2 is obtained. Further, the event reproduction unit 103 is trying to extract the time t2'after the time t2-t1 from the occurrence time t1'of the clapping sound based on the preceding third event data EV_3, of the clapping sound based on the third event data EV_3. Temporarily set the occurrence time (step S5).
  • the event reproduction unit 103 determines whether or not the occurrence time t2 of the third event data EV_3 to be fetched is within the allowable range TA with respect to the temporarily set occurrence time t2'(step S6). That is, the event reproduction unit 103 determines whether or not the time difference between the occurrence time t2 of the third event data EV_3 to be fetched and the provisionally set occurrence time t2'is within the allowable range TA. If this determination result is affirmative, the event reproduction unit 103 waits until the time in the program reaches the occurrence time t2', retrieves the third event data EV_3 from the list at the occurrence time t2', and the third event. The applause sound is pronounced based on the data EV_3 (step S7).
  • the event reproduction unit 103 causes the occurrence time t2 to occur with respect to the occurrence time t2'.
  • the occurrence time t2' is advanced so that it falls within the allowable range TA (step S8).
  • the event reproduction unit 103 waits until the time in the program reaches the earlier occurrence time t2', takes out the third event data EV_3 from the list at the occurrence time t2', and applauds based on the third event data EV_3. Have the sound pronounced (step S9).
  • FIGS. 7 and 8 are time charts showing an operation example of this embodiment.
  • the transmission delay time from the server 20 to the first terminal 10_1 is longer than the transmission delay time from the server 20 to the second terminal 10_1. Therefore, the first terminal 10_1 starts playing the live broadcast program later than the second terminal 10_2.
  • the transmission delay between the server 20 and each of the first terminal 10_1 and the second terminal 10_2 is the first event data EV_1 and the second.
  • Each of the event data EV_2 and the third event data EV_3 is shown exaggerated with respect to the time interval in which they occur.
  • the second event data EV_2 is generated at the occurrence time (time in the program) t1 after the program reproduction is started, and the second event data EV_2 is the third event by passing through the server 20. It becomes data EV_3 and is transmitted to the first terminal 10_1.
  • the occurrence time data D1 of the third event data EV_3 indicates the occurrence time t1.
  • the third event data EV_3 is stored in the storage unit 150 at a time after the generation time (time in the program) t1. In this operation example, there is no third event data EV_3 that precedes the third event data EV_3. Further, the occurrence time t1 indicated by the occurrence time data D1 of the third event data EV_3 is within the allowable range TA with respect to the current occurrence time (time in the program) t1'.
  • the event reproduction unit 103 takes out the third event data EV_3 from the storage unit 150 at the occurrence time (time in the program) t1'immediately after the third event data EV_3 is stored in the storage unit 150, and takes out the third event data EV_3 from the storage unit 150.
  • the second event data EV_2 is generated at the occurrence time (time in the program) t2, and the second event data EV_2 becomes the third event data EV_3 by passing through the server 20. It is transmitted to the terminal 10_1.
  • the occurrence time data D1 of the third event data EV_3 indicates the occurrence time t2.
  • the third event data EV_3 is stored in the storage unit 150 at a time after the generation time (time in the program) t2.
  • the pronunciation of the applause sound based on the third event data EV_3 preceding the third event data EV_3 is performed at time t1'.
  • the time t2'after the time t2-t1 from the time t1' is tentatively set as the occurrence time.
  • the occurrence time t2 indicated by the occurrence time data D1 of the third event data EV_3 is within the allowable range TA with respect to the temporarily set occurrence time t2'. Therefore, the event reproduction unit 103 takes out the third event data EV_3 from the storage unit 150 at the occurrence time t2', and causes the event reproduction unit 103 to pronounce the applause sound based on the third event data EV_3.
  • the first event data EV_1 is generated at the occurrence time (time in the program) t3, and the first event data EV_1 becomes the third event data EV_1 by passing through the server 20. It is transmitted to the second terminal 10_2.
  • the occurrence time data D1 of the third event data EV_3 indicates the occurrence time (time in the program) t3.
  • the first event data EV_1 is generated at the occurrence time (in-program time) t4 after the occurrence time (in-program time) t3, and the first event data EV_1 is also the third event data EV_1. Is transmitted to the second terminal 10_2.
  • the occurrence time data D1 of the third event data EV_3 indicates the occurrence time t4.
  • the third event data EV_3 is stored in the storage unit 150 at the time when the generation time (time in the program) t3 has passed.
  • the processing for the third event data EV_3 is the same as the processing for the third event data EV_3 received by the event reproduction unit 103 of the first terminal 10_1 at the time after the time t1 in the example of FIG. ..
  • the program playback start time of the second terminal 10_1 is earlier than the program playback start time of the first terminal 10_1. Therefore, the time difference between the occurrence time indicated by the occurrence time data D1 of the third event data EV_3 received by the second terminal 10_2 and the in-program time when the third event data EV_3 is received by the second terminal 10_2 is The time difference between the occurrence time indicated by the occurrence time data D1 of the third event data EV_3 received by the first terminal 10_1 and the in-program time when the third event data EV_3 is received by the first terminal 10_1 is larger than the time difference. Therefore, in the second terminal 10_2, when the generation time of the applause sound is provisionally set based on the third event data EV_3, it may be necessary to correct the generation time as compared with the case of the first terminal 10_1. It gets higher.
  • the second terminal 10_2 receives the third event data EV_3 including the occurrence time data D1 indicating the occurrence time t4, the time t4-from the generation time t3'of the applause sound based on the preceding third event data EV_3.
  • the time t4'after t3 is tentatively set as the generation time of the applause sound based on the third event data EV_3 (generation time t4).
  • the occurrence time t4 indicated by the third event data EV_3 is not within the allowable range TA with respect to the provisionally set occurrence time t4'.
  • the event reproduction unit 103 sets the occurrence time t4'earlier than usual, that is, the time after the occurrence time t4 indicated by the third event data EV_3 by the allowable range (allowable time) TA. Correct to. In this case, the applause sound is sounded based on the third event data EV_3 at the occurrence time t4'satisfying "t4'-t3' ⁇ t4-t3".
  • the applause sound based on the pronunciation instruction is sounded substantially in synchronization with the pronunciation instruction issued by the first terminal 10_1. Further, in the first terminal 10_1, the applause sound is pronounced based on the pronunciation instruction substantially in synchronization with the pronunciation instruction issued by the second terminal 10_2. Therefore, the users of the first terminal 10_1 and the second terminal 10_2 can each share the applause sound instructed to pronounce.
  • the first event data EV_1 transmitted by the first terminal 10_1 becomes the third event data EV_1 and is transmitted to the first terminal 10_1 via the server 20.
  • the second event data EV_2 transmitted by the second terminal 10_2 becomes the third event data EV_3 and is transmitted to the second terminal 10_2 via the server 20.
  • the processing for the third event data EV_3 received by the first terminal 10_1 and the second terminal 10_2 in this way differs depending on the ON / OFF state of the second mute flag MUTE2.
  • the event reproduction unit 103 of the first terminal 10_1 is concerned with whether or not the terminal identification data D3 included in the third event data EV_3 indicates the identification information ID1 of the first terminal 10_1. Instead, the applause sound is sounded based on all the third event data EV_3. The same applies to the second terminal 10_2.
  • the event reproduction unit 103 of the first terminal 10_1 determines whether or not the terminal identification data D3 included in the third event data EV_3 indicates the identification information ID1 of the first terminal 10_1. do.
  • the event reproduction unit 103 of the first terminal 10_1 does not pronounce a clapping sound for the third event data EV_3 in which the terminal identification data D3 indicates the identification information ID 1, and the terminal identification data D3 does not indicate the identification information ID 1.
  • the clapping sound is pronounced only for the event data EV_3.
  • FIG. 9 is a diagram showing an operation example of the first terminal 10_1 in this case.
  • FIG. 9 shows a list of the third event data EV_3 received by the first terminal 10_1.
  • the third event data EV_3 in which the terminal identification data D3 indicates the identification information ID 1 is excluded from the target of sounding the applause sound.
  • "X" means exclusion.
  • the server receives the pronunciation instruction of the applause sound from the plurality of terminals, mixes the plurality of applause sounds, and transmits the sound to the plurality of terminals.
  • users of a plurality of terminals can share the applause sound that is pronounced according to the pronunciation instruction from each terminal.
  • the applause sound is generated twice, that is, in response to the pronunciation instruction from the user.
  • Applause according to the instruction sent from the server The pronunciation of such applause sounds gives the user a sense of discomfort.
  • the present embodiment when the first mute flag MUTE1 is turned off and the second mute flag MUTE2 is turned on in the first terminal 10_1, this pronunciation is given when a pronunciation instruction is given to the first terminal 10_1.
  • the pronunciation of the clapping sound based on the instruction is only performed at the first terminal 10_1 at the time of this pronunciation instruction, and the first event data EV_1 based on this pronunciation instruction becomes the third event data EV_3 via the server 20. Even if the user returns to the first terminal 10_1, the clapping sound based on the third event data EV_3 is not pronounced. Therefore, according to the present embodiment, it is possible to avoid the situation where the applause sound generated in the above comparative example is pronounced twice.
  • the first terminal 10_1 transmits the first event data EV_1 instructing the pronunciation of the applause sound to the server 20.
  • the second terminal 10_2 transmits the second event data EV_2 instructing the pronunciation of the applause sound to the server 20.
  • the server 20 transmits the third event data EV_3 including the first event data EV_1 and the second event data EV_1 to the first terminal 10_1.
  • the first terminal 10_1 pronounces the applause sound according to the third event data EV_3. Therefore, the user of the first terminal 10_1 can share the applause sound with the user of the second terminal 10_2.
  • the server 20 since the third event data EV_1 having a small amount of data is sent from the server 20 to the first terminal 10_1, the server 20 sends the third event data EV_1 to the first terminal 10_1 as compared with the case of sending the clapping sound data. Data transmission delay is shortened. Therefore, in the first terminal 10_1, the applause sound can be sounded at an appropriate timing with little delay from the time when the sounding instruction is generated in the second terminal 10_1.
  • the server 20 broadcasts (transmits) a program to the first terminal 10_1 and the second terminal 10_2.
  • the first event data EV_1, the second event data EV_2, and the third event data EV_3 include the occurrence time data D1 indicating the occurrence time of the pronunciation instruction on the time axis in which the program progresses.
  • the event reproduction unit 103 of the first terminal 10_1 is based on the current time and the occurrence time of the pronunciation instruction indicated by the occurrence time data D1 of the third event data EV_3, and the timing of the pronunciation of the applause sound based on the third event data EV_3.
  • the event reproduction unit 103 of the first terminal 10_1 can make the sound of the applause sound based on the sounding instruction substantially synchronized with the generation of the sounding instruction in the second terminal 10_2.
  • the event reproduction unit 103 of the first terminal 10_1 processes the sounding based on the event data corresponding to the first event data EV_1 transmitted from the first terminal 10_1 among the third event data EV_3. It is controlled according to the operation for one terminal 10_1. Specifically, the event reproduction unit 103 of the first terminal 10_1 is transmitted from the first terminal 10_1 of the third event data EV_3 when the second mute flag MUTE2 is set to ON by the operation of the operation unit 110. The event data corresponding to the first event data EV_1 is excluded from the target of pronunciation. Therefore, according to the present embodiment, it is possible to avoid a situation in which the applause sound is pronounced twice in the first terminal 10_1 based on the same pronunciation instruction.
  • the event reproduction unit 203 of the server 20 causes the applause sound to be sounded according to the third event data EV_3 generated by the event merging unit 202 when the applause sound reproduction mode is set. Therefore, the user of the server 20 can share the applause sound with each user of the first terminal 10_1 and the second terminal 10_2.
  • the terminal may be provided with means for preventing the terminal from producing an unfavorable applause sound for the user. For example, when the server 20 broadcasts a lecture program to each terminal, if there is a user who makes an applause sound at a timing when many users do not make an applause sound, such as during a period when the speaker is speaking, that user's Prevent the applause sound from being pronounced on the terminal. This requires a means of identifying the user's terminal that emits an undesired applause. The following aspects may be adopted for this means.
  • the event reproduction unit 103 displays dots associated with each terminal on the display screen of the display unit 120.
  • the event reproduction unit 103 causes the sound of the applause sound to be pronounced according to the third event data EV_3
  • the event reproduction unit 103 lights the dots associated with the terminals specified by the terminal identification data D3 of the third event data EV_3.
  • the user indicates a dot to be lit at an unfavorable timing by a pointing device.
  • the event reproduction unit 103 excludes the third event data EV_3 including the terminal identification data D3 of the terminal corresponding to the instructed dot from the sounding target of the applause sound.
  • the event reproduction unit 103 analyzes the sounding timing of the applause sound based on the third event data EV_3 for a certain period of time. Many applause sounds are densely generated at about the same time. On the other hand, there may be a minority of applause sounds (pronunciation instructions less than a predetermined number) that occur at a time away from the time when these many applause sounds occur. The terminal that is the source of the pronunciation instruction of such a minority applause sound is determined. The third event data EV_3 including the terminal identification data D3 of the terminal is excluded from the sounding target of the applause sound.
  • the server 20 provides the live broadcast program to the first terminal 10_1 and the second terminal 10_2 has been described, but the present invention is not limited to such an embodiment.
  • a mode for providing the program a mode for providing the recorded program in response to a request from the terminal may be adopted.
  • the server 20 when recording a live broadcast program, merges the first event data EV_1 received from the first terminal 10_1 and the second event data EV_2 received from the second terminal 10_2 into the third event data EV_3. save. Then, when the server 20 receives a recording / playback request from the terminal, the server 20 merges the event data of the sounding instruction of the applause sound received from the terminal and the saved third event data EV_3 to create a new third event. Data EV_3'is generated and transmitted to the terminal. According to this aspect, the user who has requested the recording / reproduction can share the applause sound with the user who has watched the live broadcast program.
  • the plurality of users share the applause sound, but the sound to be shared is not limited to the applause sound.
  • a plurality of users may share a shout to the actor.
  • the mode of the sounding process may be controlled by the operation of the operation unit 110.
  • the event reproduction unit 103 of the first terminal 10_1 excludes the event data corresponding to the first event data EV_1 transmitted from the first terminal 10_1 out of the third event data EV_3 from the sounding target. ..
  • the mode of controlling pronunciation based on the event data corresponding to the first event data EV_1 is not limited to this. For example, the volume of the applause sound to be pronounced based on the event data corresponding to the first event data EV_1 may be lowered.
  • the server 20 may transmit data including sound data (sound signal) of clapping sound as third event data EV_3 to the first terminal 10_1 and the second terminal 10_2.
  • the first terminal 10_1 and the second terminal 10_2 generate the applause sound based on the sound data of the applause sound.
  • the present invention may be applied to a communication method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

第1端末が、第1音の発生を指示する第1イベントデータをサーバに送信する。第2端末が、第2音の発生を指示する第2イベントデータを前記サーバに送信する。前記サーバが、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信する。前記第1端末が、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータに基づいて、前記第1音および前記第2音の発生を制御する。

Description

通信方法およびシステム
 この発明は、互いに離れて所在する複数のユーザがサーバを介して情報交換を行う通信方法およびシステムに関する。
 この出願は、2020年10月9日に出願された日本国特願2020-171116号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 演劇や楽曲演奏の鑑賞、講演の視聴、スポーツ観戦、カラオケ等、複数のユーザが共通の対象を楽しむ場面において、拍手音等、ユーザが発する音は、場を盛り上げる有効な手段である。そこで、特許文献1は、拍手音をカラオケ曲とともに記録媒体に記録し、記録媒体からカラオケ曲とともに拍手音を再生する技術を開示している。
日本国特開平9-26796号公報
 しかしながら、特許文献1に記載の技術において、カラオケ曲とともに再生される拍手音は予め記録された固定的な音であり、場を盛り上げる手段としては、物足りない。共通の対象を楽しむ複数のユーザが、各ユーザがリアルタイムに発する拍手音の共有を望む可能性がある。しかし、演劇、楽曲演奏、講演、スポーツ等の対象に関しては、互いに離れて所在する複数のユーザが共通の対象を鑑賞して楽しむ場合がある。そのような場合、各ユーザは、互いに離れているので、互いの拍手音を共有することができない。
 この発明は以上のような事情に鑑みてなされた。この発明の目的の一例は、拍手音等の音を発しようとする複数のユーザが互いの音を共有することを可能にする技術的手段を提供することである。
 本発明の実施態様による通信方法は、第1端末によって、第1音の発生を指示する第1イベントデータをサーバに送信し、第2端末によって、第2音の発生を指示する第2イベントデータを前記サーバに送信し、前記サーバによって、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信し、前記第1端末によって、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータに基づいて、前記第1音および前記第2音の発生を制御することを含む。
 本発明の実施態様によるシステムは、第1端末と、第2端末と、サーバとを備える。前記第1端末は、第1音の発生を指示する第1イベントデータを前記サーバに送信に送信する。前記第2端末は、第2音の発生を指示する第2イベントデータを前記サーバに送信する。前記サーバは、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信する。前記第1端末は、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータに基づいて、前記第1音および前記第2音の発生を制御する。
この発明の実施形態による通信システムの構成を示すブロック図である。 この発明の実施形態端末の構成を示すブロック図である。 図2に示す端末の表示画面を示す図である。 図2に示す端末において生成される第1イベントデータを示す図である。 この発明の実施形態によるサーバの構成を示す図である。 この発明の実施形態による第1端末および第2端末のイベント再生部の処理内容を示すフローチャートである。 この発明の実施形態による動作例を示すタイムチャートである。 この発明の実施形態による動作例を示すタイムチャートである。 この発明の実施形態による動作例を示す図である。
 以下、図面を参照し、この発明の実施形態について説明する。
 図1はこの発明の実施形態である通信システム1の構成を示すブロック図である。図1に示すように、通信システム1は、インターネット等のネットワーク30に接続された第1端末10_1および第2端末10_2と、サーバ20とを含む。
 この通信システム1において、サーバ20は、第1端末10_1および第2端末10_2に対し、演劇、楽曲演奏、講演等の各種の生放送番組の動画データ(音データを含む)を送信する。
 第1端末10_1は、サーバ20からのデータを受信して生放送番組を再生する。第1端末10_1は、この再生中に、ユーザからの操作に応じて、拍手音の発音を指示する第1イベントデータEV_1を生成し、サーバ20に送信する。同様に、第2端末10_2は、サーバ20からのデータを受信して生放送番組を再生する。第2端末10_2は、この再生中に、ユーザからの操作に応じて、拍手音の発音を指示する第2イベントデータEV_2を生成し、サーバ20に送信する。
 サーバ20は、第1端末10_1から受信される第1イベントデータEV_1と、第2端末10_2から受信される第2イベントデータEV_2とを含む第3イベントデータEV_3を生成し、この第3イベントデータEV_3を第1端末10_1および第2端末10_2に送信する。
 第1端末10_1および第2端末10_2の各々は、サーバ20から受信される第3イベントデータEV_3に従って拍手音を発音する。このように通信システム1では、第1端末10_1のユーザおよび第2端末10_2のユーザは、共通の生放送番組を視聴しつつ、各々が発音を指示した拍手音を共有することができる。
 以上が本実施形態による通信システム1の概略である。なお、図1では、図面が煩雑になるのを防止するために2台の端末10_1および10_2のみを示したが、サーバ20から生放送番組の提供を受け、拍手音の発音を指示するイベントデータをサーバ20に送信する端末は3台以上であってもよい。
 図2は本実施形態における第1端末10_1の構成例を示すブロック図である。なお、図示は省略したが、第2端末10_2も、第1端末10_1と同様な構成を有する。第1端末10_1は、パーソナルコンピュータ、スマートフォン等の通信機能を備えたコンピュータである。図2に示すように、第1端末10_1は、プロセッサ100と、操作部110と、表示部120と、音入力部130と、音出力部140と、記憶部150と、通信部160とを有する。
 プロセッサ100は、第1端末10_1の各部を制御する制御中枢である。操作部110は、プロセッサ100に対して各種の指示を行うための操作を受け付ける手段であり、キーボード、マウス等の各種の操作子からなる。表示部120は、各種の情報を表示する手段であり、例えば液晶表示パネルからなる。第1端末10_1がスマートフォン等の端末である場合、操作部110および表示部120は、各々の機能を併有するタッチパネルであってもよい。音入力部130は、外界から音を収音してプロセッサ100に与える手段であり、マイクロホン130-1により構成されている。音出力部140は、プロセッサ100から与えられる電気信号を音として外界に出力する手段であり、スピーカ140-1により構成されている。記憶部150は、RAM等の揮発性記憶部と、ROM、ハードディスク等の不揮発性記憶部とを有する。揮発性記憶部は、プロセッサ100によりワークエリアとして使用される。不揮発性記憶部には、プロセッサ100により実行される各種のプログラムやプロセッサにより使用される各種の制御データが記憶される。通信部160は、プロセッサ100とネットワーク30に接続された他の装置との通信を制御する手段である。
 本実施形態において、第1端末10_1は、サーバ20にアクセスして生放送番組の動画データの受信を開始する場合に、動画データの受信を開始する前に、番組再生プログラム151をサーバ20からダウンロードし、記憶部150の揮発性記憶部に格納する。プロセッサ100は、この番組再生プログラム151を実行することにより番組再生部101、イベント生成部102およびイベント再生部103として機能する。
 番組再生部101は、サーバ20から通信部160を介して生放送番組の動画データを受信し、動画データに基づいて生放送番組を生成(再生)する。さらに詳述すると、番組再生部101は、受信した動画データが示す画像を表示部120に表示し、動画データが示す音を音出力部140により放音する。
 イベント生成部102は、生放送番組の再生中、操作部110に対する操作に応じて、拍手音の発音を指示する第1イベントデータEV_1を生成する。本実施形態では、拍手音の発音指示等の各種の指示を受け付けるために、図3に示す画面が表示部120に表示される。
 図3において、番組表示エリア121には、番組再生部101によって再生される生放送番組の画像が表示される。表示部120の表示画面において、番組表示エリア121の右側には、拍手ボタン122a、122b、122cおよび122dと、第1ミュートボタン123aおよび第2ミュートボタン123bが表示される。
 拍手ボタン122a、122b、122cおよび122dは、音波形あるいは発音態様が互いに異なった拍手音a、b、cおよびdが各々対応付けられている。例えば拍手音aは、短い時間間隔で多数回鳴る拍手音であってもよい。拍手音bは長い時間間隔で小数回鳴る拍手音であってもよい。ユーザは、マウス等のポインティングデバイスによって拍手ボタン122a~122dのいずれかを指示(選択)することにより、所望の拍手音の発音指示をイベント生成部102に与えることができる。
 図4はイベント生成部102によって生成される第1イベントデータEV_1を例示している。図4に示すように、1個の第1イベントデータEV_1は、発生時刻データD1と、音種類データD2と、端末識別データD3とを含むテキストデータである。第1イベントデータEV_1は、拍手音の音データは含まない。同様に、第2イベントデータEV_1および第3イベントデータEV_3も拍手音の音データは含まない。
 発生時刻データD1は、発音指示の発生時刻、すなわち、拍手ボタン122a~122dのいずれかが選択された時刻を示すデータである。本実施形態において、発音指示の発生時刻は、サーバ20によって提供される番組が進行する時間軸上における時刻、すなわち、番組内時刻(番組の開始時刻を基準とした現在の時刻、番組の経過時間を示す時刻)である。
 このような番組内時刻を決定するための手段として、各種の態様の手段を用いてよい。ある好ましい態様において、サーバ20は、番組の生放送の開始タイミングにおいて、番組開始を示す情報を第1端末10_1および第2端末10_2に送信する。第1端末10_1および第2端末10_2の各々は、この情報を受信することにより、各々の番組内時刻を初期化する。その後、第1端末10_1および第2端末10_2の各々は、時間経過に従って各々の番組内時刻を更新する。
 他の好ましい態様において、サーバ20は、生放送番組を放送(送信)する際に、生放送番組の動画データに番組内時刻を多重化して第1端末10_1および第2端末10_2に送信する。第1端末10_1および第2端末10_2の各々は、現在再生中の番組の動画データから番組内時刻のデータを取り出して第1イベントデータEV_1の生成に利用する。本実施形態では、この態様により番組内時刻を決定する。イベント生成部102は、拍手ボタン122a~122dのいずれかが選択されたとき、その時点における番組内時刻を示す発生時刻データD1を生成する。
 音種類データD2は、発音が指示された拍手音の種類を示すデータである。拍手ボタン122aが選択された場合、音種類データD2は拍手音aを示すデータとなる。拍手ボタン122bが選択された場合、音種類データD2は拍手音bを示すデータとなる。拍手ボタン122cが選択された場合、音種類データD2は拍手音cを示すデータとなる。拍手ボタン122dが選択された場合、音種類データD2は拍手音dを示すデータとなる。
 端末識別データD3は、発音の指示が発生した端末を識別するための情報である。第1イベントデータEV_1は、第1端末10_1に対する発音指示により生成されるので、その端末識別データD3は、第1端末10_1の識別情報であるID1となる。また、第2イベントデータEV_2は、第2端末10_2に対する発音指示により生成されるので、その端末識別データD3は、第2端末10_2の識別情報であるID2となる。
 イベント生成部102により生成される第1イベントデータEV_1は、通信部160を介してサーバ20に送信されるとともに、イベント再生部103に与えられる。
 イベント再生部103は、イベント生成部102によって生成される第1イベントデータEV_1に従って拍手音を発音する第1の機能と、サーバ20から通信部160を介して受信される第3イベントデータEV_3に従って拍手音を発音する第2の機能とを有している。これら2つの機能は、記憶部150の揮発性記憶部に設定される第1ミュートフラグMUTE1および第2ミュートフラグMUTE2の状態に基づいて制御される。
 第1ミュートフラグ(キャンセルフラグ、中止フラグ)MUTE1は、イベント再生部103が第1イベントデータEV_1に基づく拍手音の発音をミュート(キャンセル、中止)するか(MUTE1=ON)、ミュートしないか(MUTE1=OFF)を指示するフラグである。拍手ボタン122a~122dのいずれかが選択され、第1イベントデータEV_1が生成されたとき、第1ミュートフラグMUTE1に応じて、第1イベントデータEV_1に基づく拍手音の発音をミュートするかしないかが決定される。
 第2ミュートフラグ(キャンセルフラグ、中止フラグ)MUTE2は、第3イベントデータEV_3に基づく拍手音の発音をミュート(キャンセル、中止)するか(MUTE2=ON)、ミュートしないか(MUTE2=OFF)を指示するフラグである。イベント生成部102によって生成された第1イベントデータEV_1がサーバ20に送信され、第1イベントデータEV_1が第3イベントデータEV_3となってサーバ20から受信された場合に、第2ミュートフラグMUTE2に応じて、この第3イベントデータEV_3に基づく拍手音の発音をミュートするかしないかが決定される。
 図3に示す表示部120の表示画面において、第1ミュートボタン123aは、第1ミュートフラグMUTE1がONであるときに点灯し、OFFであるときに消灯する。また、第2ミュートボタン123bは、第2ミュートフラグMUTE2がONであるときに点灯し、OFFであるときに消灯する。ユーザは、ポインティングデバイスによって第1ミュートボタン123aを選択することにより、第1ミュートフラグMUTE1のON/OFFを切り換えることができる。また、ユーザは、ポインティングデバイスによって第2ミュートボタン123bを選択することにより、第2ミュートフラグMUTE2のON/OFFを切り換えることができる。
 イベント再生部103において、第1ミュートフラグMUTE1と第1の機能との関係は次の通りである。第1ミュートフラグMUTE1がOFFである場合、イベント再生部103は、イベント生成部102から第1イベントデータEV_1を受け取った時点において、その第1イベントデータEV_1によって指定された拍手音の音信号を生成し、音出力部140から拍手音として発音させる。第1ミュートフラグMUTE1がONである場合、イベント再生部103は、イベント生成部102から第1イベントデータEV_1を受け取ったとしても、その第1イベントデータEV_1によって指示された拍手音の発音を行わせない。
 イベント再生部103において、第2ミュートフラグMUTE2と第2の機能との関係は次の通りである。第2ミュートフラグMUTE2がOFFである場合、イベント再生部103は、サーバ20から第3イベントデータEV_3が受信されたとき、その第3イベントデータEV_3が第1イベント生成部102によって生成された第1イベントデータEV_1であるか否かに拘わらず、その第3イベントデータEV_3によって指定された拍手音を音出力部140に発音させる。
 第2ミュートフラグMUTE2がONである場合、イベント再生部103は、サーバ20から第3イベントデータEV_3が受信されたとき、その第3イベントデータEV_3の端末識別データD3が第1端末10_1の識別情報ID1を示しているか否か、すなわち、その第3イベントデータEV_3が第1端末10_1によって生成された第1イベントデータEV_1であるか否かを判定する。そして、イベント再生部103は、第3イベントデータEV_3が第1イベントデータEV_1に該当しない場合は、その第3イベントデータEV_3によって指定された拍手音の発音を行わせる。イベント再生部103は、第3イベントデータEV_3が第1イベントデータEV_1に該当する場合は、その第3イベントデータEV_3によって指定された拍手音の発音を行わせない。
 次にイベント再生部103が第3イベントデータEV_3に基づいて拍手音の発音を行わせる処理のタイミング制御について説明する。イベント再生部103は、現在時刻(番組内時刻)と、第3イベントデータEV_3が示す発音指示の発生時刻とに基づいて、第3イベントデータEV_3に基づく拍手音の発音のタイミングを制御する。さらに詳述すると、次の通りである。
 イベント再生部103は、サーバ20から受信される第3イベントデータEV_3を記憶部150に蓄積し、蓄積した複数の第3イベントデータEV_3を発生時刻データD1が示す発生時刻順にソートして、リストを作成する。そして、イベント再生部103は、ソート済の複数の第3イベントデータEV_3のリストの中から各第3イベントデータEV_3を発生時刻順に取り出し、取り出した第3イベントデータEV_3に従って拍手音を発音させる。この第3イベントデータEV_3に基づく拍手音の発音のタイミングの制御については、説明の重複を避けるため、本実施形態の動作説明において、その詳細を明らかにする。
 図5はサーバ20の構成を示すブロック図である。サーバ20は、第1端末10_1および第2端末10_2のものと同様なプロセッサ200と、操作部210と、表示部220と、音入力部230と、音出力部240と、記憶部250と、通信部260とを有する。
 記憶部250の不揮発性記憶部には番組放送プログラム251が記憶されている。プロセッサ200は、この番組放送プログラム251を実行することにより、番組放送部201、イベント併合部202およびイベント再生部203として機能する。
 番組放送部201は、生放送番組の放送の受信を要求する第1端末10_1および第2端末10_2に対し、上述した番組再生プログラム151を送信し、次いで生放送番組の動画データを送信する。
 イベント併合部202は、番組の放送を受信する第1端末10_1および第2端末10_2から送られてくる第1イベントデータEV_1および第2イベントデータEV_2を併合し、第3イベントデータEV_3を生成する。
 イベント再生部203は、第3イベントデータEV_3に基づく拍手音の発音を制御する手段である。
 本実施形態では、操作部210の操作により、あるいはネットワーク30に接続された端末からの指示により、拍手音再生モードをサーバ20に設定し、あるいは設定された拍手音再生モードを解除することができる。拍手音再生モードとは、第1端末10_1および第2端末10_2から送信される第1イベントデータEV_1および第2イベントデータEV_2に従ってサーバ20が拍手音を発音するモードである。
 この拍手音再生モードがサーバ20に設定された状態において、イベント再生部203は、第3イベントデータEV_3に従って音出力部240に拍手音を発音させる。さらに詳述すると、イベント再生部203は、第3イベントデータEV_3を記憶部250に蓄積し、蓄積した複数の第3イベントデータEV_3を発生時刻データD1が示す発生時刻順にソートする。そして、イベント再生部203は、ソート済の第3イベントデータEV_3の中から第3イベントデータEV_3を各々の発生時刻順に取り出し、取り出した第3イベントデータEV_3に従って拍手音を発音させる。さらに詳述すると、音入力部230は、複数のマイクロホン、具体的には、マイクロホン230-1とマイクロホン230-2とにより構成されている。音入力部230は、一つのマイクロホン、すなわち、マイクロホン230-1のみにより構成されていてもよい。音出力部240は、複数のスピーカ、具体的には、スピーカ240-1とスピーカ240-2とにより構成されている。音出力部240は、一つのスピーカ、すなわち、スピーカ240-1のみにより構成されていてもよい。第1の例として、一つマイクロホン(マイクロホン230-1)と一つのスピーカ(スピーカ240-1)とを利用する場合について説明する。この場合、スピーカ240-1は、各第3イベントデータEV_3の拍手音を発音する。マイクロホン230-1がスピーカ240-1により発音された拍手音を収音することにより、音入力部230が拍手音を含む音データを生成する。通信部260は、その音データを第1端末10_1および第2端末10_2に送信する。第1端末10_1および第2端末10_2は、音データに基づいて拍手音を再生する。ここで、スピーカ240-1により拍手音を発生させることにより、残響音が発生する。よって、音データは残響音を含む。したがって、第1端末10_1および第2端末10_2は、自然な拍手音を再生可能となる。次に、第2の例として、一つマイクロホン(マイクロホン230-1)と複数のスピーカ(スピーカ240-1および240-2)とを利用する場合について説明する。この場合、スピーカ240-1およびスピーカ240-1は、各第3イベントデータEV_3に従った拍手音を発音する。別例として、スピーカ240-1が端末識別データD3が識別情報ID1を示す第3イベントデータEV_3に従った拍手音のみを発音し、スピーカ240-2が端末識別データD3が識別情報ID2を示す第3イベントデータEV_3に従った拍手音のみを発音してもよい。マイクロホン230-1がスピーカ240-1により発音された拍手音およびスピーカ240-2により発音された拍手音を収音することにより、音入力部230が拍手音を含む音データを生成する。通信部260は、その音データを第1端末10_1および第2端末10_2に送信する。第1端末10_1および第2端末10_2は、音データに基づいて拍手音を再生する。ここで、スピーカ240-1および240-2により拍手音を発生させることにより、スピーカ240-1および240-2の位置の違いに対応した残響音が発生する。したがって、第1端末10_1および第2端末10_2は、そのような残響音を含む拍手音を再生可能となる。よって、ユーザは、より自然な拍手音を共有することができる。次に、第3の例として、複数のマイクロホン(マイクロホン230-1および230-2)と複数のスピーカ(スピーカ240-1および240-2)とを利用する場合について説明する。この場合、音入力部230は、マイクロホン230-1によって収音された音に基づく音データと、マイクロホン230-2によって収音された音に基づく音データとを生成する。通信部260は、第1端末10_1にマイクロホン230-1によって収音された音に基づく音データを送信する。また、通信部260は、第2端末10_2にマイクロホン230-2によって収音された音に基づく音データを送信する。よって、第1端末10_1および第2端末10_2は、マイクロホン230-1および230-2の位置の違いに対応してそれぞれ異なる拍手音を再生可能となる。第1~第3の例において、マイクロホン230-1および/または230-2と、スピーカ240-1および/または240-2とが、環境ノイズが入る場所に設置されていてもよい。この場合、音データには環境ノイズが含まれることになる。したがって、第1端末10_1および第2端末10_2は、拍手音とともに環境ノイズを再生可能となる。よって、ユーザは、より自然な拍手音を共有することができる。
 次に本実施形態の動作例について説明する。図6は、第1端末10_1および第2端末10_2のイベント再生部103の処理内容を示すフローチャートである。イベント再生部103は、番組再生が行われる間、図6に示す処理を繰り返し実行する。上述したようにイベント再生部103は、ソート済の第3イベントデータEV_3を各々の発生時刻順に記憶部150から取り出して拍手音の発音の制御を行う。そして、イベント再生部103は、記憶部150内に残った最も発生時刻が早い第3イベントデータEV_3を取り出そうとする際、その第3イベントデータEV_3の発生時刻データD1が示す時刻が現在の番組内時刻に対して許容範囲TA内にあるか否かを判断する(ステップS1)。この判断結果が否定的である場合、イベント再生部103は、その第3イベントデータEV_3をリストから取り出して廃棄する(ステップS2)。すなわち、イベント再生部103は、その第3イベントデータEV_3に基づく拍手音の発音を行わせない。
 一方、上記判断の結果が肯定的である場合、イベント再生部103は、取り出そうとしている第3イベントデータEV_3に先行し、拍手音の発音を行った第3イベントデータEV_3があるか否かを判断する(ステップS3)。先行する第3イベントデータEV_3がない場合、イベント再生部103は、直ちにその第3イベントデータEV_3をリストから取り出してその第3イベントデータEV_3に基づく拍手音の発音を行わせる(ステップS4)。
 先行する第3イベントデータEV_3がある場合、イベント再生部103は、先行する第3イベントデータEV_3の発生時刻データD1が示す発生時刻t1と取り出そうとしている第3イベントデータEV_3の発生時刻データD1が示す発生時刻t2との差の時間t2-t1を求める。さらに、イベント再生部103は、先行する第3イベントデータEV_3に基づく拍手音の発生時刻t1′から時間t2-t1だけ後の時刻t2′を取り出そうとしている第3イベントデータEV_3に基づく拍手音の発生時刻に仮設定する(ステップS5)。
 次にイベント再生部103は、取り出そうとしている第3イベントデータEV_3の発生時刻t2が仮設定した発生時刻t2′に対して許容範囲TA内にあるか否かを判断する(ステップS6)。すなわち、イベント再生部103は、取り出そうとしている第3イベントデータEV_3の発生時刻t2と仮設定した発生時刻t2′との時間差が許容範囲TA内にあるか否かを判断する。この判断結果が肯定的である場合、イベント再生部103は、番組内時刻が発生時刻t2′になるまで待機し、発生時刻t2′においてその第3イベントデータEV_3をリストから取り出し、その第3イベントデータEV_3に基づく拍手音の発音を行わせる(ステップS7)。
 一方、取り出そうとしている第3イベントデータEV_3の発生時刻t2が仮設定した発生時刻t2′に対して許容範囲TA内にない場合、イベント再生部103は、発生時刻t2が発生時刻t2′に対して許容範囲TA内に収まるように発生時刻t2′を早める(ステップS8)。そして、イベント再生部103は、番組内時刻がこの早めた発生時刻t2′になるまで待機し、発生時刻t2′においてその第3イベントデータEV_3をリストから取り出し、その第3イベントデータEV_3に基づく拍手音の発音を行わせる(ステップS9)。
 図7および図8は本実施形態の動作例を示すタイムチャートである。この動作例において、サーバ20から第1端末10_1までの伝送遅延時間は、サーバ20から第2端末10_2までの伝送遅延時間よりも長い。このため、第1端末10_1では、第2端末10_2よりも遅れて、生放送番組の再生が開始される。なお、図6および図7では、本実施形態の動作の理解を容易にするため、サーバ20と第1端末10_1および第2端末10_2の各々との伝送遅延が、第1イベントデータEV_1、第2イベントデータEV_2および第3イベントデータEV_3の各々が発生する時間間隔よりも誇張されて図示されている。
 図7において、第2端末10_2では、番組再生開始後、発生時刻(番組内時刻)t1において第2イベントデータEV_2が発生し、この第2イベントデータEV_2はサーバ20を経由することにより第3イベントデータEV_3となって第1端末10_1に送信される。この第3イベントデータEV_3の発生時刻データD1は発生時刻t1を示している。
 第1端末10_1では、この第3イベントデータEV_3が発生時刻(番組内時刻)t1を過ぎた時刻において記憶部150に蓄積される。この動作例では、この第3イベントデータEV_3に先行する第3イベントデータEV_3がない。また、この第3イベントデータEV_3の発生時刻データD1が示す発生時刻t1が、現在の発生時刻(番組内時刻)t1′に対して許容範囲TA内にある。このため、イベント再生部103は、第3イベントデータEV_3の記憶部150への蓄積直後の発生時刻(番組内時刻)t1′において、この第3イベントデータEV_3を記憶部150から取り出し、第3イベントデータEV_3に基づく拍手音の発音を行わせる。
 その後、第2端末10_2では、発生時刻(番組内時刻)t2において第2イベントデータEV_2が発生し、この第2イベントデータEV_2はサーバ20を経由することにより第3イベントデータEV_3となって第1端末10_1に送信される。この第3イベントデータEV_3の発生時刻データD1は発生時刻t2を示している。
 第1端末10_1では、この第3イベントデータEV_3が発生時刻(番組内時刻)t2を過ぎた時刻において記憶部150に蓄積される。ここで、この第3イベントデータEV_3に先行する第3イベントデータEV_3に基づく拍手音の発音が時刻t1′において行われている。そして、時刻t1′から時間t2-t1だけ後の時刻t2′が発生時刻として仮設定される。この動作例では、第3イベントデータEV_3の発生時刻データD1が示す発生時刻t2は、仮設定された発生時刻t2′に対して許容範囲TA内にある。そこで、イベント再生部103は、発生時刻t2’において、この第3イベントデータEV_3を記憶部150から取り出し、第3イベントデータEV_3に基づく拍手音の発音を行わせる。
 図8において、第1端末10_1では、発生時刻(番組内時刻)t3において第1イベントデータEV_1が発生し、この第1イベントデータEV_1はサーバ20を経由することにより第3イベントデータEV_3となって第2端末10_2に送信される。この第3イベントデータEV_3の発生時刻データD1は発生時刻(番組内時刻)t3を示している。また、第1端末10_1では、発生時刻(番組内時刻)t3の後の、発生時刻(番組内時刻)t4において第1イベントデータEV_1が発生し、この第1イベントデータEV_1も第3イベントデータEV_3となって第2端末10_2に送信される。この第3イベントデータEV_3の発生時刻データD1は発生時刻t4を示している。
 第2端末10_2では、第3イベントデータEV_3が発生時刻(番組内時刻)t3を過ぎた時刻において記憶部150に蓄積される。この第3イベントデータEV_3に対する処理は、図7の例において、第1端末10_1のイベント再生部103が時刻t1を過ぎた時刻に受信した第3イベントデータEV_3に対して行った処理と同様である。
 この動作例では、第2端末10_2の番組再生開始時刻は、第1端末10_1の番組再生開始時刻よりも早い。このため、第2端末10_2により受信される第3イベントデータEV_3の発生時刻データD1が示す発生時刻と、第2端末10_2によりその第3イベントデータEV_3が受信される番組内時刻との時間差は、第1端末10_1により受信される第3イベントデータEV_3の発生時刻データD1が示す発生時刻と、第1端末10_1によりその第3イベントデータEV_3が受信される番組内時刻との時間差よりも大きくなる。このため、第2端末10_2では、第3イベントデータEV_3に基づく拍手音の発生時刻の仮設定を行った場合に、第1端末10_1の場合よりも、発生時刻の修正が必要になる可能性が高くなる。
 図8において、発生時刻t4を示す発生時刻データD1を含む第3イベントデータEV_3を第2端末10_2が受信したとき、先行する第3イベントデータEV_3に基づく拍手音の発生時刻t3′から時間t4-t3だけ後の時刻t4′が、その第3イベントデータEV_3(発生時刻t4)に基づく拍手音の発生時刻として仮設定される。しかし、この動作例において、その第3イベントデータEV_3が示す発生時刻t4は、この仮設定された発生時刻t4′に対して許容範囲TA内にない。そこで、この動作例において、イベント再生部103は、発生時刻t4′を通常よりも早めた時刻、すなわち、その第3イベントデータEV_3が示す発生時刻t4から許容範囲(許容時間)TAだけ後の時刻に修正する。この場合、「t4′-t3′<t4-t3」を満たす発生時刻t4′において、第3イベントデータEV_3に基づく拍手音の発音が行われる。
 このように本実施形態において、第2端末10_2では、第1端末10_1が発した発音指示にほぼ同期してその発音指示に基づく拍手音の発音が行われる。また、第1端末10_1では、第2端末10_2が発した発音指示にほぼ同期してその発音指示に基づく拍手音の発音が行われる。従って、第1端末10_1および第2端末10_2のユーザは各々が発音を指示した拍手音を共有することができる。
 図示は省略したが、図7および図8において、第1端末10_1が送信した第1イベントデータEV_1は、サーバ20を経由することにより、第3イベントデータEV_3となって第1端末10_1に送信される。また、第2端末10_2が送信した第2イベントデータEV_2は、サーバ20を経由することにより、第3イベントデータEV_3となって第2端末10_2に送信される。このようにして第1端末10_1および第2端末10_2に受信される第3イベントデータEV_3に対する処理は、第2ミュートフラグMUTE2のON/OFF状態により異なる。
 第2ミュートフラグMUTE2がOFFである場合、第1端末10_1のイベント再生部103は、第3イベントデータEV_3に含まれる端末識別データD3が第1端末10_1の識別情報ID1を示すか否かに拘わらず、全ての第3イベントデータEV_3に基づいて拍手音の発音を行わせる。第2端末10_2も同様である。
 第2ミュートフラグMUTE2がONである場合、第1端末10_1のイベント再生部103は、第3イベントデータEV_3に含まれる端末識別データD3が第1端末10_1の識別情報ID1を示すか否かを判定する。第1端末10_1のイベント再生部103は、端末識別データD3が識別情報ID1を示す第3イベントデータEV_3については拍手音の発音を行わせず、端末識別データD3が識別情報ID1を示さない第3イベントデータEV_3についてのみ拍手音の発音を行わせる。
 図9はこの場合の第1端末10_1の動作例を示す図である。図9には第1端末10_1により受信された第3イベントデータEV_3のリストが示されている。第2ミュートフラグMUTE2がONである場合には、図9に示すように、端末識別データD3が識別情報ID1を示す第3イベントデータEV_3が、拍手音の発音の対象から除外される。図9の例において、「X」は、除外を意味する。
 次のような比較例を想定すると、この態様の効果が分かり易い。比較例において、サーバは、複数の端末から拍手音の発音指示を受け、これら複数の拍手音をミキシングして複数の端末に送信する。この比較例においても、複数の端末のユーザは、各端末からの発音指示に従って発音される拍手音を共有することができる。しかしながら、比較例において、複数の端末の各々は、ユーザからの発音指示に応じて拍手音の発音を行った場合に、拍手音を2度、すなわち、ユーザからの発音指示に応じこの拍手音と、サーバから送信される指示に応じた拍手音と発する。このような拍手音の発音はユーザに違和感を与える。
 これに対し、本実施形態では、第1端末10_1において、第1ミュートフラグMUTE1をOFF、第2ミュートフラグMUTE2をONにすると、第1端末10_1に対して発音指示が与えられた場合、この発音指示に基づく拍手音の発音は、この発音指示の時点において第1端末10_1において行われるのみであり、この発音指示に基づく第1イベントデータEV_1がサーバ20を経由して第3イベントデータEV_3となって第1端末10_1に戻ってきたとしても、この第3イベントデータEV_3に基づく拍手音の発音は行われない。従って、本実施形態によれば、上記比較例において発生する拍手音が2回発音されるという事態を回避することができる。
 以上説明したように、本実施形態によれば、第1端末10_1が、拍手音の発音を指示する第1イベントデータEV_1をサーバ20に送信する。第2端末10_2が、拍手音の発音を指示する第2イベントデータEV_2をサーバ20に送信する。サーバ20が、第1イベントデータEV_1と第2イベントデータEV_2を含む第3イベントデータEV_3を第1端末10_1に送信する。第1端末10_1が、第3イベントデータEV_3に従って拍手音の発音を行う。このため、第1端末10_1のユーザは、第2端末10_2のユーザと拍手音を共有することができる。また、本実施形態では、サーバ20から第1端末10_1に対し、データ量の少ない第3イベントデータEV_3を送るので、拍手音の音データを送る場合に比べて、サーバ20から第1端末10_1へのデータの伝送遅延が短くなる。従って、第1端末10_1では、第2端末10_2における発音指示の発生時刻からの遅れが少ない適切なタイミングにおいて拍手音を発音させることができる。
 また、上記実施形態において、サーバ20は、第1端末10_1および第2端末10_2に番組を放送(送信)する。第1イベントデータEV_1、第2イベントデータEV_2および第3イベントデータEV_3は、番組が進行する時間軸における発音指示の発生時刻を示す発生時刻データD1を含む。第1端末10_1のイベント再生部103は、現在時刻と、第3イベントデータEV_3の発生時刻データD1が示す発音指示の発生時刻とに基づいて、第3イベントデータEV_3に基づく拍手音の発音のタイミングを制御する。従って、本実施形態によれば、第1端末10_1のイベント再生部103は、第2端末10_2における発音指示の発生にほぼ同期させて当該発音指示に基づく拍手音の発音を行わせることができる。
 また、本実施形態において、第1端末10_1のイベント再生部103は、第3イベントデータEV_3のうち第1端末10_1から送信された第1イベントデータEV_1に対応したイベントデータに基づく発音の処理を第1端末10_1に対する操作に従って制御する。具体的には、第1端末10_1のイベント再生部103は、操作部110の操作により第2ミュートフラグMUTE2がONに設定された場合に、第3イベントデータEV_3のうち第1端末10_1から送信された第1イベントデータEV_1に対応したイベントデータについては発音の対象から除外する。従って、本実施形態によれば、第1端末10_1において、同じ発音指示に基づいて拍手音が2回に亙って発音される事態を回避することができる。
 また、本実施形態において、サーバ20のイベント再生部203は、拍手音再生モードが設定されている場合に、イベント併合部202によって生成される第3イベントデータEV_3に従って拍手音を発音させる。従って、サーバ20のユーザは、第1端末10_1および第2端末10_2の各ユーザと拍手音を共有することができる。
 以上、この発明の実施形態について説明したが、この発明の実施形態はこれらに限定されない。この発明の別の実施形態について説明する。
(1)ユーザにとって好ましくない拍手音が端末において発音されるのを回避する手段を端末に設けてもよい。例えばサーバ20が講演の番組を各端末に放送する場合において、講演者が発話をしている期間等、多くのユーザが拍手音を発しないタイミングで拍手音を発するユーザがいた場合、そのユーザの拍手音を端末において発音させないようにする。それには、好ましくない拍手音を発するユーザの端末を特定する手段が必要になる。この手段に関しては次のような態様を採用してもよい。
<態様1>
 イベント再生部103は、表示部120の表示画面に各端末に対応付けられたドットを表示する。イベント再生部103は、第3イベントデータEV_3に従って拍手音の発音を行わせる際に、その第3イベントデータEV_3の端末識別データD3により特定される端末に対応付けられたドットを点灯させる。ユーザが、好ましくないタイミングにおいて点灯するドットをポインティングデバイスにより指示する。以後、イベント再生部103は、指示されたドットに対応した端末の端末識別データD3を含む第3イベントデータEV_3を拍手音の発音対象から除外する。
<態様2>
 イベント再生部103は、第3イベントデータEV_3に基づく拍手音の発音タイミングを一定期間解析する。多数の拍手音は、ほぼ同じ時刻に密集して発生する。他方で、それら多数の拍手音の発生時刻から離れた時刻において発生する少数派の拍手音(所定数未満の発音指示)があり得る。そのような少数派の拍手音の発音指示の発生元である端末を判定する。その端末の端末識別データD3を含む第3イベントデータEV_3を拍手音の発音対象から除外する。
(2)上記実施形態において、サーバ20は生放送番組を第1端末10_1および第2端末10_2に提供する例を説明したが、このような実施形態に限定されない。番組を提供する態様として、録画された番組を端末からの要求に応じて提供する態様を採用してもよい。
 この態様において、サーバ20は、生放送番組を録画する際に、第1端末10_1から受信した第1イベントデータEV_1および第2端末10_2から受信した第2イベントデータEV_2を併合した第3イベントデータEV_3を保存する。そして、サーバ20は、端末から録画再生の要求を受けた場合、その端末から受信される拍手音の発音指示のイベントデータと、保存した第3イベントデータEV_3とを併合して新たな第3イベントデータEV_3′を生成し、その端末に送信する。この態様によれば、録画再生の要求をしたユーザは、生放送番組を視聴したユーザと拍手音を共有することができる。
(3)上記実施形態において、複数のユーザは、拍手音を共有したが、共有の対象となる音は拍手音に限定されない。例えば複数のユーザが歌舞伎等の演劇を鑑賞する場合において、役者に対する掛け声を共有してもよい。
(4)第1端末10_1および第2端末10_2の各々において、拍手音a、b、cおよびdという音の種類毎に、音量バランス、定位、音色、時間長等、第3イベントデータEV_3に基づく発音処理の態様を操作部110の操作により制御してもよい。
(5)上記実施形態において第1端末10_1のイベント再生部103は、第3イベントデータEV_3のうち第1端末10_1から送信された第1イベントデータEV_1に対応したイベントデータを発音の対象から除外した。しかし、第1イベントデータEV_1に対応したイベントデータに基づく発音の制御の態様はこれに限定されない。例えば第1イベントデータEV_1に対応したイベントデータに基づいて発音する拍手音の音量を低下させるといった態様でもよい。
(6)サーバ20は、第1端末10_1および第2端末10_2に対して、第3イベントデータEV_3として、拍手音の音データ(音信号)を含むデータを送信してもよい。この場合、第1端末10_1および第2端末10_2は、拍手音の音データに基づいて、拍手音を発生させる。
 本発明は、通信方法に適用してもよい。
10_1……第1端末
10_2……第2端末
20……サーバ
30……ネットワーク
100,200……プロセッサ
110,210……操作部
120,220……表示部
130,230……音入力部
140,240……音出力部
150,250……記憶部
160,260……通信部
151……番組再生プログラム
101……番組再生部
102……イベント生成部
103,203……イベント再生部
201……番組放送部
202……イベント併合部
121……番組表示エリア
122a~122d……拍手ボタン
123a……第1ミュートボタン
123b……第2ミュートボタン

Claims (7)

  1.  第1端末によって、第1音の発生を指示する第1イベントデータをサーバに送信し、
     第2端末によって、第2音の発生を指示する第2イベントデータを前記サーバに送信し、
     前記サーバによって、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信し、
     前記第1端末によって、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータに基づいて、前記第1音および前記第2音の発生を制御する
     ことを含む通信方法。
  2.  前記サーバによって、前記第1端末および前記第2端末に対して番組を送信することをさらに含み、
     前記第1イベントデータは、前記第1音を発生させる時刻を示す情報として、前記番組の経過時間である第1の時刻を示す情報を含み、前記第2イベントデータは、前記第2音を発生させる時刻を示す情報として、前記番組の経過時間である第2の時刻を示す情報を含み、
     前記第1音および前記第2音の発生を制御することは、前記第1端末において再生されている前記番組の現在時刻と、前記第1の時刻および前記第2の時刻とに基づいて、前記第1音および前記第2音を発生させるタイミングを制御することを含む、
     請求項1に記載の通信方法。
  3.  前記第1音および前記第2音の発生を制御することは、前記第1端末に対する操作に従って、前記第1音の発生を制御することを含む
     請求項1または2に記載の通信方法。
  4.  前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信することは、前記第1音の音声データと前記第2音の音声データとを前記サーバから前記第1端末に送信することを含み、
     前記第1音および前記第2音の発生を制御することは、
     前記第1音の音声データに基づいて前記第1音を発生させ、
     前記第2音の音声データに基づいて前記第2音を発生させる、ことを含む
     請求項1~3のいずれか1項に記載の通信方法。
  5.  前記第1音および前記第2音の発生を制御することは、前記第1端末に対する操作に従って、前記第1音および前記第2音の発生の態様を制御することを含む
     請求項1~4のいずれか1項に記載の通信方法。
  6.  前記第1イベントデータは、前記第1音の種類を示す情報を含み、前記第2イベントデータは、前記第2音の種類を示す情報を含み、
     前記第1音および前記第2音の発生を制御することは、
     前記第1音の種類に応じて前記第1音の発生の態様を制御することと、
     前記第2音の種類に応じて前記第2音の発生の態様を制御することと、を含む
     請求項1~5のいずれか1項に記載の通信方法。
  7.  第1端末と、第2端末と、サーバとを備えるシステムであって、
     前記第1端末は、第1音の発生を指示する第1イベントデータを前記サーバに送信に送信し、
     前記第2端末は、第2音の発生を指示する第2イベントデータを前記サーバに送信し、
     前記サーバは、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータを前記第1端末に送信し、
     前記第1端末は、前記第1イベントデータを含むデータと前記第2イベントデータを含むデータに基づいて、前記第1音および前記第2音の発生を制御する、
     システム。
PCT/JP2021/037184 2020-10-09 2021-10-07 通信方法およびシステム WO2022075418A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022555566A JP7426006B2 (ja) 2020-10-09 2021-10-07 通信方法およびシステム
CN202180067545.2A CN116438790A (zh) 2020-10-09 2021-10-07 通信方法及系统
US18/192,828 US20230239520A1 (en) 2020-10-09 2023-03-30 Communication method and system
JP2024007460A JP2024028555A (ja) 2020-10-09 2024-01-22 システム、通信方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-171116 2020-10-09
JP2020171116 2020-10-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/192,828 Continuation US20230239520A1 (en) 2020-10-09 2023-03-30 Communication method and system

Publications (1)

Publication Number Publication Date
WO2022075418A1 true WO2022075418A1 (ja) 2022-04-14

Family

ID=81126967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037184 WO2022075418A1 (ja) 2020-10-09 2021-10-07 通信方法およびシステム

Country Status (4)

Country Link
US (1) US20230239520A1 (ja)
JP (2) JP7426006B2 (ja)
CN (1) CN116438790A (ja)
WO (1) WO2022075418A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305435A (ja) * 2008-08-29 2008-12-18 Sony Corp 情報提供方法及び情報提供装置、並びに、情報受信方法及び情報受信装置
JP2013150095A (ja) * 2012-01-18 2013-08-01 Digital Sensation Co Ltd コンテンツ配信システムおよびコンテンツ配信方法
JP2015005940A (ja) * 2013-06-24 2015-01-08 クリアタッチ株式会社 コンテンツ再生装置、コメント管理システム、およびコメント管理方法
JP2019092186A (ja) * 2017-11-13 2019-06-13 株式会社ドワンゴ 配信サーバ、配信プログラムおよび端末

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9277179B1 (en) 2013-06-27 2016-03-01 Google Inc. Video conferencing system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305435A (ja) * 2008-08-29 2008-12-18 Sony Corp 情報提供方法及び情報提供装置、並びに、情報受信方法及び情報受信装置
JP2013150095A (ja) * 2012-01-18 2013-08-01 Digital Sensation Co Ltd コンテンツ配信システムおよびコンテンツ配信方法
JP2015005940A (ja) * 2013-06-24 2015-01-08 クリアタッチ株式会社 コンテンツ再生装置、コメント管理システム、およびコメント管理方法
JP2019092186A (ja) * 2017-11-13 2019-06-13 株式会社ドワンゴ 配信サーバ、配信プログラムおよび端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Summary of how to use the comment reading software "Stick Reading" and how to link with the comment viewer", TEXTBOOK FOR LIVE GAME DISTRIBUTION AND VIDEO EDITING, 1 September 2020 (2020-09-01), pages 1 - 24, XP055919186, Retrieved from the Internet <URL:https://quest-log.com/bouyomichan-howto/> [retrieved on 20220509] *

Also Published As

Publication number Publication date
JPWO2022075418A1 (ja) 2022-04-14
CN116438790A (zh) 2023-07-14
US20230239520A1 (en) 2023-07-27
JP2024028555A (ja) 2024-03-04
JP7426006B2 (ja) 2024-02-01

Similar Documents

Publication Publication Date Title
KR101554399B1 (ko) 자동 연주 장치, 저장 장치, 연주 정보 출력 장치 및 연주 시스템
JP5729393B2 (ja) 演奏システム
WO2019225463A1 (ja) 再生システムおよび再生方法
US5484291A (en) Apparatus and method of playing karaoke accompaniment
JP2010112981A (ja) 遠隔実演再生方法、装置
CN114466242A (zh) 显示设备及音频处理方法
CN114615534A (zh) 显示设备及音频处理方法
JPH1152966A (ja) 音楽演奏システム
WO2022075418A1 (ja) 通信方法およびシステム
JP5109496B2 (ja) データ配信装置、データ配信方法およびプログラム
CN114598917B (zh) 显示设备及音频处理方法
JP6568351B2 (ja) カラオケシステム、プログラム及びカラオケ音声再生方法
WO2019208067A1 (ja) 任意信号挿入方法及び任意信号挿入システム
WO2021246104A1 (ja) 制御方法および制御システム
CN114466241A (zh) 显示设备及音频处理方法
JPH1091177A (ja) 楽音再生システム
JP4214917B2 (ja) 演奏システム
JP3963514B2 (ja) カラオケ装置
WO2013151140A1 (ja) 音響処理装置および通信音響処理システム
JP2006069288A (ja) 車載音楽生成装置及び車載エンタテイメントシステム
JP7468111B2 (ja) 再生制御方法、制御システムおよびプログラム
JP3290903B2 (ja) カラオケ採点ゲーム装置
CN100546339C (zh) 一种音乐影像播放系统及其方法
WO2021255831A1 (ja) 送信装置、コミュニケーション方法、及びプログラム
JP6264660B2 (ja) 音源制御装置、カラオケ装置、音源制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21877717

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022555566

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21877717

Country of ref document: EP

Kind code of ref document: A1