WO2013151140A1 - 音響処理装置および通信音響処理システム - Google Patents

音響処理装置および通信音響処理システム Download PDF

Info

Publication number
WO2013151140A1
WO2013151140A1 PCT/JP2013/060366 JP2013060366W WO2013151140A1 WO 2013151140 A1 WO2013151140 A1 WO 2013151140A1 JP 2013060366 W JP2013060366 W JP 2013060366W WO 2013151140 A1 WO2013151140 A1 WO 2013151140A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
input
data
processing device
sound data
Prior art date
Application number
PCT/JP2013/060366
Other languages
English (en)
French (fr)
Inventor
成己 田川
克己 石川
紀行 畑
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to KR1020147025950A priority Critical patent/KR20140125440A/ko
Priority to CN201380015320.8A priority patent/CN104170005A/zh
Publication of WO2013151140A1 publication Critical patent/WO2013151140A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Definitions

  • the present invention includes a plurality of karaoke devices connected to each other so that they can communicate with each other. In each karaoke device, the same music is reproduced simultaneously, and some signal processing is performed on the singing sound input to each karaoke device.
  • the present invention also relates to a technology of a communication karaoke system in which signal processing can be independently controlled by each karaoke apparatus.
  • a karaoke system that connects multiple bases via a communication network and exchanges video and audio has been proposed (for example, Patent Document 1).
  • a system has been proposed in which performance information such as a singer's ID, music information desired to be sung, part information, or key control is registered in a server, and applications for duet applicants matching the conditions are accepted (for example, patents).
  • Document 2 or Patent Document 3 In this system, when a duet partner appears, the route between the system and the communication network is controlled so that a remote duet can be requested only for the music.
  • Patent Documents 1 to 3 are systems in which entry is made in units of music to find a duet partner and sing, and operations such as changing the key of the singing sound or performing signal processing on the singing sound are performed. It is not possible to do it independently at each base.
  • the present invention provides an acoustic processing apparatus and communication acoustic processing that can perform favorite key setting and signal processing at each base without worrying about keys and signal processing at other bases.
  • the purpose is to provide a system.
  • an acoustic processing device of the present invention includes an input unit that inputs first input sound data, the first input sound data, and the other acoustic processing that is input to another acoustic processing device.
  • Reproduction means for reproducing the second input sound data transmitted from the apparatus, transmission means for transmitting the first input sound data to the other sound processing apparatus, the first input sound data or the second input sound.
  • Acoustic processing means for performing acoustic processing on at least one of the data.
  • the first input sound data input by one sound processing device is reproduced by the reproducing unit together with the second input sound data transmitted from another sound processing device.
  • the first input sound data is transmitted to the other sound processing device by the transmitting means, and is reproduced by the reproducing means together with the second input sound data input by the other sound processing device in the other sound processing device.
  • at least one of the first input sound data and the second input sound data can be subjected to sound processing by the sound processing means.
  • the acoustic processing means is a timbre processing means for processing a timbre of at least one of the first input sound data and the second input sound data.
  • the sound processing means changes a pitch of at least one of the first input sound data and the second input sound data. It is. Accordingly, the input sound data whose pitch is changed independently in each of the one sound processing device and the other sound processing device is reproduced, regardless of what kind of sound processing is performed at each site. There is an advantage that the input sound after desired processing can be reproduced at each base, and specifically, what kind of tone was processed regardless of what pitch was changed at each base Regardless of this, there is an advantage that the input sound data can be reproduced with a desired pitch or tone color at each site.
  • the pitch changing means is configured to specify a pitch of the first input sound data transmitted by the transmitting means by the second acoustic processing apparatus.
  • the pitch of the second input sound data may be changed according to the first designation designated by the sound processing apparatus.
  • the second input sound data is changed in pitch according to the first designation, and the first input sound data is used in the one sound processing device. Played.
  • the first input sound data whose pitch is changed according to the second designation is reproduced, and the second input sound data inputted in accordance with the reproduction is reproduced. Is called. Therefore, in each of the first sound processing device and the second sound processing device, the pitch is changed according to the respective designations and reproduction is performed. As a result, even if the pitches according to the respective specifications are different, reproduction is performed without a sense of incongruity.
  • the pitch changing means has a certain relationship between the pitch of the first input sound data or the second input sound data and the reference data. It is good also as a means to change. By configuring in this way, the pitch of the input sound data can be appropriately changed and transmitted to the other party in each acoustic processing device, and the pitch of the other party's input sound data can be transmitted without being known to the other party. There is an advantage that you can enjoy changing it properly.
  • the pitch changing means is configured to change the key of the input sound data or to form harmony with the sound data based on the input sound data.
  • the reproducing means is means for reproducing music data in addition to the first input sound data and the second input sound data, and the first input sound data and the second input sound data
  • the input sound data may be singing data
  • the pitch changing means may be means for changing the pitch of the singing data or the music data.
  • the sound processing apparatus may further comprise timbre processing means for processing the timbre of the second input sound data.
  • timbre processing means for processing the timbre of the second input sound data.
  • a communication acoustic processing system of the present invention includes at least a first acoustic processing device and a second acoustic processing device that are communicably connected to each other, and input to each acoustic processing device.
  • a communication acoustic processing system in which the input sounds are communicated with each other and played back, provided in the first acoustic processing device, and first input sound data input to the first acoustic processing device; First reproduction means for reproducing second input sound data transmitted from the second sound processing apparatus; first transmission means for transmitting the first input sound data to the second sound processing apparatus; A second sound reproduction device provided in the second sound processing device for reproducing the second input sound data input to the second sound processing device and the first input sound data transmitted from the first sound processing device.
  • Playback means and the second input sound data before Second transmission means for transmitting to the first acoustic processing device; first acoustic processing means for performing acoustic processing on the first input sound data; and second acoustic processing means for performing acoustic processing on the second input sound data; , Provided.
  • the first input sound data input by the first sound processing device is first reproduced by the first sound processing device together with the second input sound data transmitted from the second sound processing device. Regenerated by means.
  • the first input sound data is transmitted to the second sound processing device by the first transmission means, and the second sound processing device includes the second input sound data input by the second sound processing device and the second input sound data. Reproduced by two reproduction means.
  • the first input sound data can be acoustically processed by the first pitch changing means.
  • the second input sound data can also be acoustically processed by the second pitch changing means.
  • the input sound data that has been subjected to the independent acoustic processing in each of the first acoustic processing device and the second acoustic processing device is reproduced, and what kind of acoustic processing is performed at each site. Regardless, there is an advantage that the input sound data after desired processing can be reproduced at each base.
  • the first acoustic processing means is first timbre processing means for processing a timbre of the first input sound data
  • the second acoustic processing means is the Second tone color processing means for processing the tone color of the second input sound data.
  • the first acoustic processing means is first pitch changing means for changing a pitch of the first input sound data
  • the second acoustic processing means is , Second pitch change means for changing the pitch of the second input sound data.
  • the communication sound processing method of the present invention is configured such that input sounds input to a first sound processing device and a second sound processing device that are connected to communicate with each other communicate with each other. The communication sound processing method is reproduced and transmitted from the first sound processing device, the first input sound data input to the first sound processing device, and the second sound processing device.
  • Second input sound data is reproduced, the first input sound data is transmitted to the second sound processing device, and the second sound processing device receives the second input to the second sound processing device.
  • the input sound data and the first input sound data transmitted from the first sound processing device are reproduced, the second input sound data is transmitted to the first sound processing device, and the first input sound data is converted into the first input sound data.
  • a computer program according to the present invention is capable of controlling a first sound processing device and a second sound processing device that are connected so as to communicate with each other, and is executed by a computer.
  • the first input sound data input to the first sound processing device and the second input sound data transmitted from the second sound processing device are reproduced.
  • FIG. 1 is a block diagram of a communication karaoke system 100 according to the first embodiment of the present invention.
  • the communication karaoke system 100 includes a karaoke device 10 ⁇ / b> A installed at a site A and a karaoke device 10 ⁇ / b> B installed at a site B.
  • the karaoke device 10A and the karaoke device 10B are communicably connected to each other via a network 20 such as the Internet or a LAN.
  • the karaoke apparatus 10A includes a user interface 1A, a CPU 2A, a key controller 3A, a communication interface 4A, a song database 5A, a mixer 6A, and an amplifier 7A.
  • the user interface 1A is an interface capable of inputting the tune number and title of a karaoke song according to the user's operation.
  • the user 30A at the site A operates the user interface 1A to select a desired karaoke song. It can be selected.
  • the user interface 1A can also be used to change the key of a karaoke song as will be described later.
  • the CPU 2A is a control means for controlling the entire karaoke apparatus 10A, and is connected to elements constituting the karaoke apparatus 10A.
  • the key controller 3A is signal processing means for changing the key of the original karaoke song to the set key when the user sets a desired key by operating the user interface 1A. Details will be described later.
  • the communication interface 4A is an interface for transmitting and receiving data between the karaoke apparatus 10A and the karaoke apparatus 10B.
  • the song database 5A is a database storing song data of karaoke songs, and the karaoke songs selected by the user operating the user interface 1A are output to the mixer 6A.
  • the mixer 6A is means for mixing the singing sound of the user 30A at the site A, the accompaniment sound of the karaoke song, and the singing sound of the user 30B transmitted from the karaoke apparatus 10B and outputting the mixed sound to the amplifier 7A. Moreover, as will be described later, the user 30A singing sound and the accompaniment sound of the karaoke song are mixed and output to the communication interface 4A.
  • the amplifier 7A amplifies a sound obtained by mixing the singing sound of the user 30A output from the mixer 6A, the accompaniment sound of the karaoke song, and the singing sound of the user 30B transmitted from the karaoke apparatus 10B. Is output from the speaker 8A connected to the.
  • the singing sound of the user 30A is collected by the microphone 9A connected to the karaoke apparatus 10A and input to the mixer 6A.
  • the karaoke apparatus 10B includes a user interface 1B, a CPU 2B, a key controller 3B, a communication interface 4B, a mixer 6B, and an amplifier 7B.
  • the configuration is the same as that of the karaoke apparatus 10B except that a database corresponding to the song database 5A is not provided.
  • the user interface 1B is an interface that allows the key of the karaoke song to be changed according to the user's operation.
  • the CPU 2B is a control means for controlling the karaoke apparatus 10B as a whole, and is connected to elements constituting the karaoke apparatus 10B.
  • the key controller 3B uses the user 30A singing sound and the karaoke song key transmitted from the karaoke apparatus 10A as the set key. This is signal processing means to be changed. Moreover, when transmitting the singing sound of the user 30B of the base B to the karaoke apparatus 10A, the key of the singing sound of the user 30B is also changed to a key set by the karaoke apparatus 10A. Details will be described later.
  • the communication interface 4B is an interface for transmitting and receiving data between the karaoke apparatus 10A and the karaoke apparatus 10B.
  • the mixer 6B is means for mixing the singing sound of the user 30B at the site B, the accompaniment sound of the karaoke song transmitted from the karaoke apparatus 10A and the singing sound of the user 30A and outputting the mixed sound to the amplifier 7B. Moreover, the user 30B singing sound is output to the communication interface 4B so that it may mention later.
  • the amplifier 7B amplifies a sound obtained by mixing the singing sound of the user 30B output from the mixer 6B, the accompaniment sound of the karaoke song, and the singing sound of the user 30A, and outputs from the speaker 8B connected to the amplifier 7B. To do.
  • the singing sound of the user 30B is collected by the microphone 9B connected to the karaoke apparatus 10B and input to the mixer 6B.
  • the user 30A at the site A selects the karaoke song and then operates the user interface 1A to change the key of the karaoke song to the designated key (n + p) higher than the original key (n).
  • the key controller 3A is controlled via the CPU 2A, and the accompaniment sound data (MI) of the karaoke song output from the song database 5A is changed from the original key (n) to the designated key (n + p).
  • the accompaniment sound data (MI) of the karaoke song whose key is changed to the designated key (n + p) is output as an accompaniment sound from the speaker 8A via the mixer 6A and the amplifier 7A, and the user 30A outputs the accompaniment sound. While listening to the sound, sing using the microphone 9A in accordance with the changed designated key (n + p).
  • the singing data (Vo.A) of the user 30A is mixed by the mixer 6A with the accompaniment sound data (MI) of the karaoke song whose key is changed to the designated key (n + p), and the singing sound and the singing sound from the speaker 8A via the amplifier 7A. Output as accompaniment sound. Further, the data (Vo.A + MI) in which the song data (Vo.A) of the user 30A and the accompaniment sound data (MI) are mixed is output to the communication interface 4A, and the communication interface 4A is controlled by the CPU 2A. Data (Vo.A + MI) in which (Vo.A) and accompaniment sound data (MI) are mixed is transmitted to the karaoke apparatus 10B.
  • the key is changed to the designated key (n + p) in the karaoke device 10B.
  • This song data (Vo.B ') is input to the mixer 6A via the communication interface 4A.
  • the song data (Vo.A) of the user 30A the song data (Vo.B ′) in which the key is changed to the designated key (n + p) of the user 30B, and the karaoke in which the key is changed to the designated key (n + p)
  • the musical accompaniment sound data (MI) is mixed in the mixer 6A and output from the speaker 8A via the amplifier 7A as the accompaniment sound of the karaoke music with each singing sound and key changed.
  • the communication interface 4B controls the data (Vo.A + MI) mixed with the song data (Vo.A) of the user 30A and the accompaniment sound data (MI) input to the communication interface 4B by the CPU 2B. Is received by the karaoke apparatus 10B.
  • the designated key (n + p) is higher than this.
  • the key of the mixed data (Vo.A + MI) is set to a key (n + p + q) lower than the designated key (n + p).
  • This process is executed by the CPU 2B controlling the key controller 3B when the user 30B designates a low key (n + p + q) by operating the user interface 1B.
  • the mixed data (Vo.A + MI) changed to the low key (n + p + q) and the song data (Vo.B) of the user 30B collected via the microphone 9B are mixed by the mixer 6B.
  • the singer 8B From the speaker 8B, the singing sound of the user 30A, the accompaniment sound of the karaoke song, and the singing sound of the user 30B are output from the speaker 8B via the amplifier 7B.
  • the song data (Vo.B) of the user 30B is output to the communication interface 4B via the mixer 6B, but the song data (Vo.B) of the user 30B is a high designation changed by the user 30A. Since it is the singing data sung in accordance with the accompaniment data changed to a key (n + p + q) lower than the key (n + p), the key is again a key (n + p + q) lower than the higher designated key (n + p) changed by the user 30A. It has become.
  • the CPU 2B of the karaoke apparatus 10B controls the key controller 3B so that the key of the singing data (Vo.B) of the user 30B which is the low key (n + p + q) is the high designated key changed by the user 30A.
  • the song data is changed to be (n + p) song data (Vo.B ′).
  • the singing data (Vo.B ') of the user 30B whose key has been changed to the designated key (n + p) is input to the communication interface 4A of the karaoke apparatus 10A and received by the karaoke apparatus 10A.
  • the accompaniment sound of the karaoke song is reproduced with the designated key (n + p) designated by the user 30A, and the user 30A also sings along with the designated key (n + p).
  • the singing sound of the user 30B transmitted from the karaoke apparatus 10B is also changed so that the key becomes the designated key (n + p)
  • the user 30A is duet with the user 30B with the same designated key (n + p). can do.
  • the singing sound of the user 30A and the accompaniment sound of the karaoke song transmitted from the karaoke apparatus 10A are changed to the low key (n + p + q). ) And duet with the user 30A.
  • the accompaniment sound data (MI) of the karaoke song transmitted from the karaoke apparatus 10A to the karaoke apparatus 10B may remain the original key (n).
  • the key of the accompaniment sound data (MI) of the karaoke song is changed from the original key (n) to the key (n + p + q) designated by the user 30B, and the key (n + p) of the song data of the user 30A. May be changed to the key (n + p + q) designated by the user 30B.
  • the key changing process executed in the karaoke apparatus 10B may be executed in the karaoke apparatus 10A.
  • Key information designated by the user 30B operating the user interface 1B is transmitted from the karaoke device 10B to the karaoke device 10A, and the key changing process is performed in the karaoke device 10A.
  • the key changing process executed in the karaoke apparatus 10B may be executed by an apparatus on the network 20 connecting both bases.
  • the key set at each base is changed immediately before being played by the amplifier. It can be decided arbitrarily.
  • a second embodiment of the present invention will be described with reference to FIG.
  • symbol is attached
  • This embodiment demonstrates the communication karaoke system 200 which performs a harmony reproduction
  • the karaoke apparatus 10A and the karaoke apparatus 10B of the present embodiment have the same configuration as the karaoke apparatus 10A and the karaoke apparatus 10B of the first embodiment, except that a harmony database 11A and a harmony database 11B are provided. is there.
  • the user 30A at the site A operates the user interface 1A to select a karaoke song arbitrarily selected from the song database 5A provided in the karaoke apparatus 10A. The case of performing will be described.
  • the karaoke apparatus 10A and the karaoke apparatus 10B of the present embodiment include a harmony database 11A and a harmony database 11B, respectively.
  • each harmony database musical score data for harmony is recorded, and if a key is selected with respect to a predetermined key, it is possible to know whether a harmony is constituted.
  • the accompaniment sound data of the karaoke song selected by the user 30A operating the user interface 1A and the song data of the user 30A are mixed by the mixer 6A and output from the speaker 8A via the amplifier 7A.
  • the singing data (Vo.B) of the user 30B is transmitted from the karaoke device 10B, and the singing data (Vo.B) of the user 30B is transmitted to the key controller 3A by the CPU 2A in the karaoke device 10A. By controlling, it is automatically changed to the keys that make up the harmony.
  • the key controller 3A collates the progress information of the accompaniment sound data of the karaoke song with the musical score data recorded in the harmony database 11A, and the received song data (Vo.B) of the user 30B is harmonized. Is processed in real time so as to be the singing data (Vo.B ′) of the key constituting the key.
  • the singing data (Vo.B ′) of the user 30B changed to the key constituting the harmony is mixed with the accompaniment sound data (MI) of the karaoke song and the singing data (Vo.A) of the user 30A by the mixer 6A. And output from the speaker 8A through the amplifier 7A.
  • the user 30B is singing with a normal key, at the site A, the singing sound of the user 30A and the singing sound of the user 30B constitute a harmony and are reproduced.
  • the singing data (Vo.A) of the user 30A is transmitted from the karaoke apparatus 10A.
  • the singing data (Vo.A) of the user 30A is automatically changed to keys constituting harmony by the CPU 2B controlling the key controller 3B.
  • the key controller 3B collates the progress information of the accompaniment sound data of the karaoke song with the musical score data recorded in the harmony database 11B, and receives the received song data (Vo. A) of the user 30A as the harmony. Is processed in real time so as to be the singing data (Vo.A ′) of the key constituting the key.
  • the singing data (Vo.A ′) of the user 30A changed to the key constituting this harmony is mixed with the accompaniment sound data (MI) of the karaoke song and the singing data (Vo.B) of the user 30B by the mixer 6B. And output from the speaker 8B via the amplifier 7B.
  • the user 30A is singing with a normal key
  • the singing sound of the user 30B and the singing sound of the user 30A constitute a harmony and are reproduced.
  • the users at the respective bases sing with the normal keys, the singing sounds of the users at the other bases are changed to the keys constituting the harmony and reproduced. Therefore, you can enjoy the duets that make up the harmony at each base.
  • the singing data transmitted from the karaoke device at one base is subjected to signal processing so as to form a harmony with the karaoke device at the other base.
  • signal processing may be performed before transmission, and the singing data subjected to the signal processing may be transmitted to the karaoke apparatus at the other base.
  • the process of processing the singing data so as to constitute a harmony may be executed in a device on the network 20 connecting the karaoke device 10A and the karaoke device 10B.
  • ⁇ C Third Embodiment>
  • a third embodiment of the present invention will be described with reference to FIG. Portions common to the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • This embodiment demonstrates the communication karaoke system 300 which correct
  • the karaoke apparatus 10A and the karaoke apparatus 10B of the present embodiment are the same as the karaoke apparatus 10A and the karaoke apparatus 10B of the first embodiment, except that the pitch correction means 12A and the pitch correction means 12B are provided. It is a configuration.
  • the user 30A at the site A operates the user interface 1A to select a karaoke song arbitrarily selected from the song database 5A provided in the karaoke apparatus 10A. The case of performing will be described.
  • the pitch correction unit 12A selects the pitch of the song data (Vo.A) of the user 30A input by the microphone 9A. Correction is made to approach the pitch of the main melody of the music data, and corrected song data (Vo.A ′) is generated.
  • the corrected song data (Vo.A ') of the user 30A and the accompaniment sound data (MI) of the karaoke song are mixed by the mixer 6A and output from the speaker 8A via the amplifier 7A.
  • the karaoke device 10B transmits the corrected song data (Vo.B ′) of the user 30B, and the corrected song data (Vo.B ′) of the user 30B is also corrected by the user 30A.
  • a ′) and the accompaniment sound data (MI) of the karaoke song are mixed by the mixer 6A and output from the speaker 8A via the amplifier 7A.
  • the data (Vo.A ′ + MI) obtained by mixing the corrected song data (Vo.A ′) of the user 30A and the accompaniment sound data (MI) of the karaoke song is transmitted to the karaoke apparatus 10B via the communication interface 4A.
  • the pitch correction unit 12B has the song data (Vo.B) of the user 30B input by the microphone 9B. Is corrected so as to be close to the pitch of the main melody of the selected music data, and corrected song data (Vo.B ′) is generated.
  • the corrected song data (Vo.B ') of the user 30B is input to the mixer 6B and output from the speaker 8B via the amplifier 7B.
  • the karaoke apparatus 10A transmits data (Vo.A '+ MI) in which the corrected song data (Vo.A') of the user 30A and the accompaniment data (MI) of the karaoke song are mixed. Is also mixed by the mixer 6A together with the corrected song data (Vo.B ′) of the user 30B and output from the speaker 8B via the amplifier 7B.
  • the corrected song data (Vo.B ') of the user 30B is transmitted to the karaoke apparatus 10A via the communication interface 4B.
  • the pitch of one's own singing can be corrected to be close to the pitch of the main melody of the music data, and then transmitted to another base.
  • the data transmitted from the karaoke apparatus 10A is data obtained by mixing the corrected singing data and the accompaniment sound data of the karaoke music, but these may be transmitted as separate data.
  • the pitch correction processing for the singing data of the user 30A executed by the karaoke apparatus 10A may be executed by the karaoke apparatus 10B.
  • the base A listens to the singing of the user 30A that has not been corrected
  • the base B listens to the singing of the user 30A that has been pitch-corrected.
  • the pitch correction processing for the song data of the user 30B executed by the karaoke apparatus 10B may be executed by the karaoke apparatus 10A.
  • the base B listens to the uncorrected user 30B singing
  • the base A listens to the pitch-corrected user 30B singing.
  • the singing data transmitted from the karaoke device at one base may be pitch-corrected at the karaoke device at the other base, or the corrected singing data transmitted from the karaoke device at one base. May be further corrected for pitch in the karaoke apparatus at the other base.
  • the pitch correction processing steps as described above may be executed in an apparatus on the network 20 connecting the karaoke apparatus 10A and the karaoke apparatus 10B.
  • the pitch is corrected by transmitting it to the karaoke device at the other party's base. You can let the other party hear the song you made. Also, it is possible to listen to singing data transmitted from other bases with a pitch correction without being known to the other party. Therefore, even when one or both users have poor singing ability, it is possible to enjoy a duet at an appropriate pitch.
  • a fourth embodiment of the present invention demonstrates the communication karaoke system 400 which performs a voice change process with respect to the other party's song data.
  • the karaoke apparatus 10A and the karaoke apparatus 10B of the present embodiment are the same as the karaoke apparatus 10A and the karaoke apparatus 10B of the first embodiment, except that the voice change means 13A and the voice change means 13B are provided. It is a configuration.
  • Voice change refers to changing a male voice to a female voice or an electronic voice.
  • the user 30A at the site A operates the user interface 1A to select a karaoke song arbitrarily selected from the song database 5A provided in the karaoke apparatus 10A. The case of performing will be described.
  • the voice change means 13A When the user 30A designates performing voice change processing by operating the user interface 1A, the voice change means 13A performs voice change processing on the song data (Vo.A) of the user 30A input by the microphone 9A. To generate voice change song data (Vo.A ′).
  • the voice change song data (Vo.A ') of the user 30A and accompaniment sound data (MI) of the karaoke song are mixed by the mixer 6A and output from the speaker 8A via the amplifier 7A.
  • the voice change song data (Vo.B ′) of the user 30B is transmitted from the karaoke apparatus 10B, and the voice change song data (Vo.B ′) of the user 30B is also transmitted to the voice change song of the user 30A.
  • the data (Vo.A ′) and accompaniment sound data (MI) of karaoke music are mixed by the mixer 6A and output from the speaker 8A via the amplifier 7A.
  • the data (Vo.A ′ + MI) obtained by mixing the voice change song data (Vo.A ′) of the user 30A and the accompaniment sound data (MI) of the karaoke song is transmitted to the karaoke apparatus 10B via the communication interface 4A. Is done.
  • the voice change means 13B causes the singing data (Vo. B) of the user 30B input by the microphone 9B. ) Is changed to generate voice change song data (Vo.B ′).
  • the voice change song data (Vo.B ') of the user 30B is input to the mixer 6B and output from the speaker 8B via the amplifier 7B.
  • the karaoke apparatus 10A transmits data (Vo.A ′ + MI) in which voice change data (Vo.A ′) of the user 30A and accompaniment data (MI) of the karaoke song are mixed.
  • the data is also mixed by the mixer 6A together with the voice change song data (Vo.B ′) of the user 30B and output from the speaker 8B via the amplifier 7B.
  • the voice change song data (Vo.B ') of the user 30B is transmitted to the karaoke apparatus 10A via the communication interface 4B.
  • the data transmitted from the karaoke apparatus 10A is the data obtained by mixing the voice change data and the accompaniment sound data of the karaoke song, but these may be transmitted as separate data.
  • the voice change process for the singing data of the user 30A executed by the karaoke apparatus 10A may be executed by the karaoke apparatus 10B.
  • the base A listens to the song of the user 30A who has not been voice-changed, and the base B hears the voice of the user 30A who has been voice-changed without being known to the user 30A.
  • the voice change process for the singing data of the user 30B executed by the karaoke apparatus 10B may be executed by the karaoke apparatus 10A.
  • the base B listens to the song of the user 30B that has not been voice-changed
  • the base A listens to the voice of the user 30B that has been voice-changed without being known to the user 30B.
  • voice change processing steps as described above may be executed in an apparatus on the network 20 connecting the karaoke apparatus 10A and the karaoke apparatus 10B.
  • each karaoke apparatus includes the voice change unit according to the present embodiment, and the key control process, the harmony process, or the pitch correction process according to each embodiment. And voice change processing may be combined.
  • the present invention is not limited to such an example.
  • the present invention can be applied to a case where a live performance session is performed while being remote from each other. In the case of a session, what is necessary is just to input the performance of a musical instrument other than song data with a microphone etc. from each apparatus. Further, so-called minus one-type accompaniment data, which is the remaining music data from which members participating in the session have removed their own performance parts, may be used. Also, the present invention can be applied to a case where a chorus is performed with a live piano performance. In this case, live piano performance and choral singing data may be input with a microphone.
  • the present invention can also be applied to a case where a chorus is performed with a cappella without performance while being remote from each other.
  • the singing data of each part may be input with a microphone.
  • the present invention has been described as a communication karaoke system and a karaoke apparatus included in the communication karaoke system.
  • the present invention may not be realized as a system or apparatus.
  • the general-purpose processor which is a computer, may execute the computer program recorded on a computer-readable recording medium to perform the operation of the system or apparatus in the above-described embodiment.
  • the computer program can be distributed by being stored in a recording medium such as a CD-ROM, or can be distributed using an electric communication line such as the Internet.
  • the sound processing performed on the sound data is not limited to the key setting and signal processing described in the above embodiment.
  • the sound processing device includes the input means for inputting the first input sound data, the first input sound data, and the other sound input to the other sound processing device.
  • Reproduction means for reproducing the second input sound data transmitted from the processing device; transmission means for transmitting the first input sound data to the other sound processing device; and the first input sound data or the second input.
  • It is expressed as an apparatus that includes an acoustic processing unit 120A that performs acoustic processing on at least one of the sound data.
  • the base A is the apparatus illustrated in FIG. Presence / absence of other elements and specific modes of other elements are arbitrary. This application is based on Japanese Patent Application No. 2012-085510 filed on Apr. 4, 2012, the contents of which are incorporated herein by reference.
  • sound processing is performed independently at each site, and sound data subjected to desired sound processing at each site can be reproduced.
  • Communication karaoke system 1A, 1B ... User interface, 2A, 2B ... CPU, 3A, 3B ... Key controller, 4A, 4B ... Communication interface, 5A ... Song database, 6A, 6B ... Mixer, 7A, 7B ... Amplifier, 8A, 8B ... Speaker, 9A, 9B ... Microphone, 10A, 10B ... Karaoke device, 20 ... Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

 第一入力音データを入力する入力手段と、前記第一入力音データと、他の音響処理装置に入力され当該他の音響処理装置から送信される第二入力音データとを再生する再生手段と、前記第一入力音データを前記他の音響処理装置に送信する送信手段と、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方に音響処理を行う音響処理手段と、を備えた、ことを特徴とする音響処理装置。

Description

音響処理装置および通信音響処理システム
 本発明は、相互に通信可能に接続された複数のカラオケ装置を含み、各カラオケ装置では同一の楽曲が同時に再生され、各カラオケ装置に入力された歌唱音に対して何等かの信号処理を行い、その信号処理を各カラオケ装置で独立に制御可能な通信カラオケシステムの技術に関する。
 遠隔デュエットを目的として、多拠点間を通信網を介して接続し、映像や音声をやり取りするカラオケシステムが従来から提案されている(例えば特許文献1)。また、歌唱者のIDや歌唱希望の楽曲情報、あるいはパート情報、もしくはキーコントロール等の演奏情報をサーバに登録し、条件にマッチするデュエット希望者の応募を受け付けるシステムが提案されている(例えば特許文献2または特許文献3)。このシステムでは、デュエット相手が現れた場合には、その楽曲に限って遠隔デュエットを頼めるようにシステムと通信網の経路が制御されるようになっている。
日本国特開2005-77485号公報 日本国特許第4062328号 日本国特許第4100424号
 しかしながら、特許文献1~3のシステムは、楽曲単位でエントリーを行ってデュエット相手を探し、歌唱するシステムであり、歌唱音のキーを変更したり、歌唱音に対して信号処理を行うという操作を、それぞれの拠点で独立に行うということはできない。
 また、同一の空間においてカラオケのデュエットを行う場合には、互いの好みにあったカラオケのキーを設定することはできず、いずれかの歌唱者の好みのキーに合わせるしかない。また、同一の空間において、個々の歌唱音に別々の信号処理を施してしまうと、お互いに歌いにくくなってしまう。
 以上の事情を考慮して、本発明は、他の拠点におけるキーや信号処理を気にすることなく、それぞれの拠点において好みのキー設定や信号処理を施すことのできる音響処理装置および通信音響処理システムを提供することを目的とする。
 以上の課題を解決するために、本発明の音響処理装置は、第一入力音データを入力する入力手段と、前記第一入力音データと、他の音響処理装置に入力され当該他の音響処理装置から送信される第二入力音データとを再生する再生手段と、前記第一入力音データを前記他の音響処理装置に送信する送信手段と、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方に音響処理を行う音響処理手段とを備える。
 以上の構成においては、一の音響処理装置で入力された第一入力音データは、他の音響処理装置から送信される第二入力音データと共に、再生手段によって再生される。また、第一入力音データは、送信手段によって他の音響処理装置に送信され、他の音響処理装置において、他の音響処理装置で入力された第二入力音データと共に、再生手段によって再生される。この際、第一入力音データまたは第二入力音データの少なくとも何れか一方に、音響処理手段によって、音響処理を行うことが可能である。
 本発明の好適な第一の態様に係る音響処理装置において、前記音響処理手段は、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方の音色を加工する音色加工手段である。
 本発明の好適な第一の態様に係る音響処理装置において、前記音響処理手段は、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方の音高を変更する音高変更手段である。
 従って、前記一の音響処理装置と他の音響処理装置のそれぞれにおいて独立して音高が変更された入力音データの再生が行われ、各拠点でどのような音響処理を行ったかに拘わらず、それぞれの拠点で所望の処理後の入力音の再生を行えるという利点があり、具体的には、各拠点でどのような音高に変更したのかに拘わらず、またはどのような音色に加工したかに拘わらず、それぞれの拠点で所望の音高または音色による入力音データの再生を行えるという利点がある。
 本発明の好適な態様に係る音響処理装置において、前記音高変更手段は、前記送信手段によって送信される前記第一入力音データの音高を、前記他の音響処理装置で指定された第二の指定に従って変更すると共に、前記第二入力音データの音高を、当該音響処理装置で指定された第一の指定に従って変更する手段としてもよい。
 このように構成することにより、一の音響処理装置においては、第二入力音データは、第一の指定に従って音高の変更が行われて、第一入力音データと共に当該一の音響処理装置で再生される。また、前記他の音響処理装置においては、第二の指定に従って音高が変更された第一入力音データの再生が行われ、この再生に合わせて入力される第二入力音データの再生が行われる。従って、前記一の音響処理装置と第二の音響処理装置のそれぞれにおいて、それぞれの指定に従った音高の変更が行われて再生が行われる。その結果、それぞれの指定に従った音高が異なる場合であっても、違和感なく再生が行われることになる。
 本発明の好適な態様に係る音響処理装置において、前記音高変更手段は、第一入力音データまたは第二入力音データの音高を、基準となるデータに対して一定の関係を有するように変更する手段としてもよい。
 このように構成することにより、それぞれの音響処理装置において、入力音データの音高を適切に変更して相手方に送信することができ、また、相手方に知られずに相手方の入力音データの音高を適切に変更して楽しむことができるという利点がある。
 本発明の好適な態様に係る音響処理装置において、前記音高変更手段は、入力音データのキーを変更する手段、または、入力音データが基準となる音データに対してハーモニーを構成するように入力音データの音高を変更する手段、あるいは、入力音データの音高が基準となる音データの音高に対して所定の関係を有するように、入力音データの音高を変更する手段の少なくともいずれか一の手段としてもよい。
 このように構成することにより、それぞれの音響処理装置において、相手方から送信される入力音データのキーを適切に変更したり、相手方から送信される入力音データをハーモニーを構成するように変更したり、あるいは、自分自身の装置における入力音データのピッチを適正に変更したりすることを、相手方に知られずに実行することができるという利点がある。
 本発明の好適な態様に係る音響処理装置において、前記再生手段を、前記第一入力音データおよび第二入力音データに加えて楽曲データを再生する手段とし、前記第一入力音データおよび第二入力音データを歌唱データとし、前記音高変更手段を、前記歌唱データまたは前記楽曲データの音高を変更する手段としてもよい。
 このように構成することにより、それぞれの音響処理装置において、例えばカラオケなどの入力音データである歌唱データの音高を適切に変更して相手方に送信することができ、また、相手方に知られずに相手方の歌唱データや楽曲データの音高を適切に変更して楽しむことができるという利点がある。
 本発明の好適な態様に係る音響処理装置において、前記第二入力音データの音色を加工する音色加工手段をさらに備えるようにしてもよい。このように構成することにより、相手に知られずに相手の入力音データの音色を加工して楽しむことができる。
 以上の課題を解決するために、本発明の通信音響処理システムは、相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置とを少なくとも含み、各音響処理装置に入力された入力音が相互に通信されて再生される通信音響処理システムであって、前記第一の音響処理装置に設けられ、前記第一の音響処理装置に入力された第一入力音データと、前記第二の音響処理装置から送信される第二入力音データとを再生する第一再生手段と、前記第一入力音データを前記第二の音響処理装置に送信する第一送信手段と、前記第二の音響処理装置に設けられ、前記第二の音響処理装置に入力された第二入力音データと、前記第一の音響処理装置から送信される第一入力音データとを再生する第二再生手段と、前記第二入力音データを前記第一の音響処理装置に送信する第二送信手段と、前記第一入力音データに音響処理を行う第一音響処理手段と、前記第二入力音データに音響処理を行う第二音響処理手段と、を備えたことを特徴とする。
 以上の構成においては、第一の音響処理装置で入力された第一入力音データは、第二の音響処理装置から送信される第二入力音データと共に、第一の音響処理装置における第一再生手段によって再生される。また、第一入力音データは、第一送信手段によって第二の音響処理装置に送信され、第二の音響処理装置において、第二の音響処理装置で入力された第二入力音データと共に、第二再生手段によって再生される。この際、第一入力音データは、第一音高変更手段によって音響処理が可能となっている。また、第二入力音データも、第二音高変更手段によって音響処理が可能となっている。
 従って、第一の音響処理装置と第二の音響処理装置のそれぞれにおいて独立して音響処理が行われた入力音データの再生が行われ、各拠点でどのような音響処理が行われたのかに拘わらずそれぞれの拠点で所望の処理後の入力音データの再生を行えるという利点がある。
 本発明の好適な態様に係る通信音響処理システムにおいて、前記第一音響処理手段は、前記第一入力音データの音色を加工する第一音色加工手段であり、前記第二音響処理手段は、前記第二入力音データの音色を加工する第二音色加工手段である。
 本発明の好適な態様に係る通信音響処理システムにおいて、前記第一音響処理手段は、前記第一入力音データの音高を変更する第一音高変更手段であり、前記第二音響処理手段は、前記第二入力音データの音高を変更する第二音高変更手段である。
 以上の課題を解決するために、本発明の    通信音響処理方法は、相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置とに入力された入力音が相互に通信されて再生される通信音響処理方法であって、前記第一の音響処理装置において、前記第一の音響処理装置に入力された第一入力音データと前記第二の音響処理装置から送信される第二入力音データとを再生し、前記第一入力音データを前記第二の音響処理装置に送信し、前記第二の音響処理装置において、前記第二の音響処理装置に入力された第二入力音データと前記第一の音響処理装置から送信される第一入力音データとを再生し、前記第二入力音データを前記第一の音響処理装置に送信し、前記第一入力音データに音響処理を行い、前記第二入力音データに音響処理を行う、ことを特徴とする。
 以上の課題を解決するために、本発明のコンピュータプログラムは、相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置を制御可能であり、コンピュータによって実行されるコンピュータプログラムであって、前記第一の音響処理装置において、前記第一の音響処理装置に入力された第一入力音データと前記第二の音響処理装置から送信される第二入力音データとを再生する第一再生ステップと、前記第一入力音データを前記第二の音響処理装置に送信する第一送信ステップと、前記第二の音響処理装置において、前記第二の音響処理装置に入力された第二入力音データと前記第一の音響処理装置から送信される第一入力音データとを再生する第二再生ステップと、前記第二入力音データを前記第一の音響処理装置に送信する第二送信ステップと、前記第一入力音データに音響処理を行う第一音響処理ステップと、前記第二入力音データに音響処理を行う第二音響処理ステップと、を実行させる。
本発明の第1実施形態に係る通信カラオケシステムのブロック図である。 本発明の第2実施形態に係る通信カラオケシステムのブロック図である。 本発明の第3実施形態に係る通信カラオケシステムのブロック図である。 本発明の第4実施形態に係る通信カラオケシステムのブロック図である。 本発明の音響処理装置(カラオケ装置)のブロック図である。
<A:第1実施形態>
 図1は、本発明の第1実施形態に係る通信カラオケシステム100のブロック図である。図1に示すように、通信カラオケシステム100は、拠点Aに設置されたカラオケ装置10Aと、拠点Bに設置されたカラオケ装置10Bとを備える。カラオケ装置10Aとカラオケ装置10Bは、インターネットやLANなどのネットワーク20を介して互いに通信可能に接続されている。
 カラオケ装置10Aは、ユーザインターフェース1A、CPU2A、キーコントローラー3A、通信インターフェース4A、曲データベース5A、ミキサー6A、アンプ7Aを備えている。
 ユーザインターフェース1Aは、ユーザの操作に応じてカラオケ曲の曲目番号やタイトルを入力可能なインターフェースであり、例えば、拠点Aにいるユーザ30Aが、このユーザインターフェース1Aを操作して、所望のカラオケ曲を選択できるようになっている。また、後述するようなカラオケ曲のキーを変更する操作もこのユーザインターフェース1Aにより可能になっている。
 CPU2Aは、カラオケ装置10A全体を制御する制御手段であり、カラオケ装置10Aを構成する要素と接続されている。
 キーコントローラー3Aは、ユーザがユーザインターフェース1Aを操作することにより、所望のキーを設定した場合に、カラオケ曲の原曲のキーを、その設定されたキーに変更する信号処理手段である。詳しくは後述する。
 通信インターフェース4Aは、カラオケ装置10Aとカラオケ装置10Bとの間のデータの送受信を行うためのインターフェースである。
 曲データベース5Aは、カラオケ曲の曲データが記憶されたデータベースであり、ユーザがユーザインターフェース1Aを操作することにより選択したカラオケ曲をミキサー6Aに出力するようになっている。
 ミキサー6Aは、拠点Aのユーザ30Aの歌唱音と、カラオケ曲の伴奏音と、カラオケ装置10Bから送信されてきたユーザ30Bの歌唱音とをミックスしてアンプ7Aに出力する手段である。また、後述するように、ユーザ30Aの歌唱音とカラオケ曲の伴奏音とをミックスして、通信インターフェース4Aに出力する。
 アンプ7Aは、ミキサー6Aから出力されるユーザ30Aの歌唱音と、カラオケ曲の伴奏音と、カラオケ装置10Bから送信されてきたユーザ30Bの歌唱音とがミックスされた音を増幅し、このアンプ7Aに接続されたスピーカ8Aから出力する。
 拠点Aにおいては、ユーザ30Aの歌唱音は、カラオケ装置10Aに接続されたマイク9Aにより収音され、ミキサー6Aに入力される。
 一方、カラオケ装置10Bは、ユーザインターフェース1B、CPU2B、キーコントローラー3B、通信インターフェース4B、ミキサー6B、アンプ7Bを備えている。曲データベース5Aに相当するデータベースを備えていない点を除いては、カラオケ装置10Bと同様の構成になっている。
 ユーザインターフェース1Bは、ユーザの操作に応じてカラオケ曲のキーを変更可能とするインターフェースである。
 CPU2Bは、カラオケ装置10B全体を制御する制御手段であり、カラオケ装置10Bを構成する要素と接続されている。
 キーコントローラー3Bは、ユーザがユーザインターフェース1Bを操作することにより、所望のキーを設定した場合に、カラオケ装置10Aから送信されてきたユーザ30Aの歌唱音とカラオケ曲のキーを、その設定したキーに変更する信号処理手段である。また、拠点Bのユーザ30Bの歌唱音をカラオケ装置10Aに送信する際には、ユーザ30Bの歌唱音のキーを、カラオケ装置10Aで設定されたキーに変更することも行う。詳しくは後述する。
 通信インターフェース4Bは、カラオケ装置10Aとカラオケ装置10Bとの間のデータの送受信を行うためのインターフェースである。
 ミキサー6Bは、拠点Bのユーザ30Bの歌唱音と、カラオケ装置10Aから送信されてきたカラオケ曲の伴奏音およびユーザ30Aの歌唱音とをミックスしてアンプ7Bに出力する手段である。また、後述するように、ユーザ30Bの歌唱音を通信インターフェース4Bに出力する。
 アンプ7Bは、ミキサー6Bから出力されるユーザ30Bの歌唱音と、カラオケ曲の伴奏音と、ユーザ30Aの歌唱音とがミックスされた音を増幅し、このアンプ7Bに接続されたスピーカ8Bから出力する。
 拠点Bにおいては、ユーザ30Bの歌唱音は、カラオケ装置10Bに接続されたマイク9Bにより収音され、ミキサー6Bに入力される。
[キーコントロール処理]
 次に、本実施形態におけるカラオケ装置10Aとカラオケ装置10Bのそれぞれにおいて独立に行われるキーコントロール処理について説明する。
 以下の例では、拠点Aのユーザ30Aがユーザインターフェース1Aを操作して、カラオケ装置10Aに備えられた曲データベース5Aの中から任意に選択したカラオケ曲で、拠点Bのユーザ30Bと遠隔地デュエットを行う場合について説明する。
 拠点Aのユーザ30Aが、カラオケ曲を選択した後、ユーザインターフェース1Aを操作して、カラオケ曲のキーをオリジナルキー(n)を、このキーよりも高い指定キー(n+p)に変更したとする。
 その結果、CPU2Aを介してキーコントローラー3Aが制御され、曲データベース5Aから出力されるカラオケ曲の伴奏音データ(MI)は、オリジナルキー(n)から指定キー(n+p)に変更される。
 このように指定キー(n+p)にキーが変更されたカラオケ曲の伴奏音データ(MI)は、ミキサー6Aおよびアンプ7Aを介してスピーカ8Aから伴奏音として出力され、ユーザ30Aは、この出力された音を聞きながら、変更された指定キー(n+p)に合わせてマイク9Aを使用して歌唱する。
 ユーザ30Aの歌唱データ(Vo.A)は、指定キー(n+p)にキーが変更されたカラオケ曲の伴奏音データ(MI)とミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから歌唱音および伴奏音として出力される。また、ユーザ30Aの歌唱データ(Vo.A)と伴奏音データ(MI)がミックスされたデータ(Vo.A+MI)は、通信インターフェース4Aに出力され、通信インターフェース4AはCPU2Aによって制御されてこの歌唱データ(Vo.A)と伴奏音データ(MI)がミックスされたデータ(Vo.A+MI)をカラオケ装置10Bに送信する。
 また、カラオケ装置10Bから送信されるユーザ30Bの歌唱データ(Vo.B’)は、カラオケ装置10Bにおいてキーが指定キー(n+p)に変更されている。この歌唱データ(Vo.B’)が通信インターフェース4Aを介してミキサー6Aに入力される。したがって、ユーザ30Aの歌唱データ(Vo.A)と、ユーザ30Bの指定キー(n+p)にキーが変更された歌唱データ(Vo.B’)と、指定キー(n+p)にキーが変更されたカラオケ曲の伴奏音データ(MI)は、ミキサー6Aにおいてミックスされ、アンプ7Aを介してスピーカ8Aから、それぞれの歌唱音とキーが変更されたカラオケ曲の伴奏音として出力されることになる。
 一方、拠点Bにおいては、通信インターフェース4Bに入力されたユーザ30Aの歌唱データ(Vo.A)と伴奏音データ(MI)がミックスされたデータ(Vo.A+MI)は、通信インターフェース4BがCPU2Bに制御されることによって、カラオケ装置10Bに受信される。
 カラオケ装置10Aから送信されてくるユーザ30Aの歌唱データ(Vo.A)と伴奏音データ(MI)がミックスされたデータ(Vo.A+MI)は、ユーザ30Aによって、そのキーがオリジナルキー(n)から、これよりも高い指定キー(n+p)に変更されている。ユーザ30Bは、この指定キー(n+p)が自分のキーに合わないと感じた場合には、ミックスされたデータ(Vo.A+MI)のキーを、この指定キー(n+p)よりも低いキー(n+p+q)に変更する。
 この処理は、ユーザ30Bがユーザインターフェース1Bを操作することにより、低いキー(n+p+q)への指定を行うと、CPU2Bがキーコントローラ3Bを制御することにより実行される。
 このようにして低いキー(n+p+q)に変更されたミックスされたデータ(Vo.A+MI)と、マイク9Bを介して収音されたユーザ30Bの歌唱データ(Vo.B)は、ミキサー6Bによってミックスされ、アンプ7Bを介してスピーカ8Bから、ユーザ30Aの歌唱音、カラオケ曲の伴奏音、そして、ユーザ30Bの歌唱音として出力される。
 また、同時に、ユーザ30Bの歌唱データ(Vo.B)は、ミキサー6Bを介して通信インターフェース4Bに出力されるが、このユーザ30Bの歌唱データ(Vo.B)は、ユーザ30Aが変更した高い指定キー(n+p)よりも低いキー(n+p+q)に変更された伴奏データに合わせて歌唱した歌唱データなので、やはりそのキーは、ユーザ30Aが変更した高い指定キー(n+p)よりも低いキー(n+p+q)になっている。
 そこで、カラオケ装置10BのCPU2Bが、キーコントローラ3Bを制御することにより、前記低いキー(n+p+q)になっているユーザ30Bの歌唱データ(Vo.B)のキーは、ユーザ30Aが変更した高い指定キー(n+p)の歌唱データ(Vo.B’)となるように変更される。
 このように指定キー(n+p)にキーが変更されたユーザ30Bの歌唱データ(Vo.B’)は、カラオケ装置10Aの通信インターフェース4Aに入力され、カラオケ装置10Aに受信される。
 したがって、拠点Aにおいては、カラオケ曲の伴奏音は、ユーザ30Aが指定した指定キー(n+p)で再生され、ユーザ30Aもこの指定キー(n+p)に合わせて歌唱する。そして、カラオケ装置10Bから送信されてくるユーザ30Bの歌唱音も、そのキーが指定キー(n+p)となるように変更されているので、ユーザ30Aは、同じ指定キー(n+p)でユーザ30Bとデュエットすることができる。
 また、拠点Bにおいては、カラオケ装置10Aから送信されてくるユーザ30Aの歌唱音とカラオケ曲の伴奏音は、前記低いキー(n+p+q)に変更されるので、ユーザ30Bも自分に合ったキー(n+p+q)で、ユーザ30Aとデュエットすることができる。
 なお、本実施形態では、ユーザ30Aの歌唱データ(Vo.A)とカラオケ曲の伴奏音データ(MI)とをミックスしてカラオケ装置10Aからカラオケ装置10Bに送信する例について説明したが、ユーザ30Aの歌唱データ(Vo.A)と、カラオケ曲の伴奏音データ(MI)とを別々のデータとして送信するようにしてもよい。
 この場合、カラオケ装置10Aからカラオケ装置10Bに送信するカラオケ曲の伴奏音データ(MI)は、オリジナルのキー(n)のままでもよい。カラオケ装置10Bにおいては、カラオケ曲の伴奏音データ(MI)のキーを、オリジナルのキー(n)からユーザ30Bが指定したキー(n+p+q)に変更すると共に、ユーザ30Aの歌唱データのキー(n+p)を、ユーザ30Bが指定したキー(n+p+q)に変更すればよい。
 また、カラオケ装置10B内で実行したキーの変更処理は、カラオケ装置10A内で実行するようにしてもよい。ユーザ30Bがユーザインターフェース1Bを操作することにより指定したキーの情報が、カラオケ装置10Bからカラオケ装置10Aに送信され、カラオケ装置10Aにおいてキーの変更処理が行われる。
 さらに、カラオケ装置10B内で実行したキーの変更処理は、両拠点を接続するネットワーク20上の装置で実行するようにしてもよい。
 つまり、カラオケ装置10Aにおいても、また、カラオケ装置10Bにおいても、アンプによって再生される直前に、それぞれの拠点で設定したキーへの変更処理が行われていればよく、その変更処理を行う場所は任意に決めることができる。
 以上のように、本実施形態によれば、遠隔地デュエットを行う場合に、それぞれの拠点において、それぞれの好みのキーでデュエットを楽しむことができる。
<B:第2実施形態>
 次に、本発明の第2実施形態を図2に基づいて説明する。なお、第1実施形態との共通個所には同一符号を付して説明を省略する。
 本実施形態は、ハーモニー再生を自動的に実行する通信カラオケシステム200について説明する。なお、本実施形態のカラオケ装置10Aとカラオケ装置10Bは、それぞれハーモニーデータベース11Aとハーモニーデータベース11Bが備えられている点を除いては、第1実施形態のカラオケ装置10Aおよびカラオケ装置10Bと同じ構成である。
 本実施形態においても、拠点Aのユーザ30Aがユーザインターフェース1Aを操作して、カラオケ装置10Aに備えられた曲データベース5Aの中から任意に選択したカラオケ曲で、拠点Bのユーザ30Bと遠隔地デュエットを行う場合について説明する。
 本実施形態のカラオケ装置10Aとカラオケ装置10Bは、それぞれハーモニーデータベース11Aとハーモニーデータベース11Bを備えている。それぞれのハーモニーデータベースはハーモニー用の譜面データが記録されており、所定のキーに対してとのキーを選択すればハーモニーが構成されるかがわかるようになっている。
 ユーザ30Aがユーザインターフェース1Aを操作することによって選択したカラオケ曲の伴奏音データと、ユーザ30Aの歌唱データは、ミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 また、カラオケ装置10Bからは、ユーザ30Bの歌唱データ(Vo.B)が送信されてくるが、このユーザ30Bの歌唱データ(Vo.B)は、カラオケ装置10Aにおいては、CPU2Aがキーコントローラ3Aを制御することにより、ハーモニーを構成するキーに自動的に変更される。
 具体的には、キーコントローラ3Aは、カラオケ曲の伴奏音データの進行情報と、ハーモニーデータベース11Aに記録された譜面データとを照合し、受信したユーザ30Bの歌唱データ(Vo.B)を、ハーモニーを構成するキーの歌唱データ(Vo.B’)とするようにリアルタイムに信号処理を行う。
 このハーモニーを構成するキーに変更されたユーザ30Bの歌唱データ(Vo.B’)は、ミキサー6Aによって、カラオケ曲の伴奏音データ(MI)と、ユーザ30Aの歌唱データ(Vo.A)とともにミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 したがって、ユーザ30Bは通常のキーで歌唱しているにも拘わらず、拠点Aにおいては、ユーザ30Aの歌唱音とユーザ30Bの歌唱音がハーモニーを構成して再生されることになる。
 一方、拠点Bにおいては、カラオケ装置10Aから、ユーザ30Aの歌唱データ(Vo.A)が送信されてくる。このユーザ30Aの歌唱データ(Vo.A)は、カラオケ装置10Bにおいては、CPU2Bがキーコントローラ3Bを制御することにより、ハーモニーを構成するキーに自動的に変更される。
 具体的には、キーコントローラ3Bは、カラオケ曲の伴奏音データの進行情報と、ハーモニーデータベース11Bに記録された譜面データとを照合し、受信したユーザ30Aの歌唱データ(Vo.A)を、ハーモニーを構成するキーの歌唱データ(Vo.A’)とするようにリアルタイムに信号処理を行う。
 このハーモニーを構成するキーに変更されたユーザ30Aの歌唱データ(Vo.A’)は、ミキサー6Bによって、カラオケ曲の伴奏音データ(MI)と、ユーザ30Bの歌唱データ(Vo.B)とともにミックスされ、アンプ7Bを介してスピーカ8Bから出力される。
 したがって、ユーザ30Aは通常のキーで歌唱しているにも拘わらず、拠点Bにおいては、ユーザ30Bの歌唱音とユーザ30Aの歌唱音がハーモニーを構成して再生されることになる。
 このように、本実施形態によれば、それぞれの拠点のユーザは普通のキーで歌唱しているにも拘わらず、他の拠点のユーザの歌唱音がハーモニーを構成するキーに変更されて再生されるので、それぞれの拠点において、ハーモニーを構成するデュエットを楽しむことができる。
 なお、本実施形態においては、一方の拠点のカラオケ装置から送信されてくる歌唱データを、他方の拠点のカラオケ装置でハーモニーを構成するように信号処理を行ったが、一方の拠点のカラオケ装置から送信する前にこのような信号処理を行い、その信号処理を行った歌唱データを他方の拠点のカラオケ装置に送信するようにしてもよい。
 このように送信前に信号処理を行う場合には、一方の拠点のカラオケ装置のユーザの歌唱データを信号処理したデータと、カラオケ用の伴奏音データとをミックスして他の拠点のカラオケ装置に送信するようにしてもよい。
 また、ハーモニーを構成するように歌唱データを信号処理する工程は、カラオケ装置10Aとカラオケ装置10Bとを接続するネットワーク20上の装置において実行するようにしてもよい。
 以上のように、本実施形態によれば、各拠点では普通にカラオケ曲の伴奏音に合わせて歌唱しているにも拘わらず、他の拠点の歌唱をハーモニー効果のある歌唱として楽しむことができる。
<C:第3実施形態>
 次に、本発明の第3実施形態を図3に基づいて説明する。第1実施形態との共通個所には同一符号を付して説明を省略する。
 本実施形態は、歌唱データの音高を、選択した楽曲データのメインメロディーの音高に近づける補正を行う通信カラオケシステム300について説明する。なお、本実施形態のカラオケ装置10Aとカラオケ装置10Bは、それぞれピッチ補正手段12Aとピッチ補正手段12Bが備えられている点を除いては、第1実施形態のカラオケ装置10Aおよびカラオケ装置10Bと同じ構成である。
 本実施形態においても、拠点Aのユーザ30Aがユーザインターフェース1Aを操作して、カラオケ装置10Aに備えられた曲データベース5Aの中から任意に選択したカラオケ曲で、拠点Bのユーザ30Bと遠隔地デュエットを行う場合について説明する。
 ユーザ30Aがユーザインターフェース1Aを操作することによって、ピッチ補正を行うレベルを指定すると、ピッチ補正手段12Aは、マイク9Aによって入力されたユーザ30Aの歌唱データ(Vo.A)の音高を、選択した楽曲データのメインメロディーの音高に近づけるように補正し、補正歌唱データ(Vo.A’)を生成する。
 このユーザ30Aの補正歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)は、ミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 また、カラオケ装置10Bからは、ユーザ30Bの補正歌唱データ(Vo.B’)が送信されてくるが、このユーザ30Bの補正歌唱データ(Vo.B’)も、ユーザ30Aの補正歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)とともに、ミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 さらに、ユーザ30Aの補正歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)がミックスされたデータ(Vo.A’+MI)は、通信インターフェース4Aを介してカラオケ装置10Bに送信される。
 一方、拠点Bにおいては、ユーザ30Bがユーザインターフェース1Bを操作することによって、ピッチ補正を行うレベルを指定すると、ピッチ補正手段12Bは、マイク9Bによって入力されたユーザ30Bの歌唱データ(Vo.B)の音高を、選択した楽曲データのメインメロディーの音高に近づけるように補正し、補正歌唱データ(Vo.B’)を生成する。
 このユーザ30Bの補正歌唱データ(Vo.B’)はミキサー6Bに入力され、アンプ7Bを介してスピーカ8Bから出力される。
 また、カラオケ装置10Aからは、ユーザ30Aの補正歌唱データ(Vo.A’)とカラオケ曲の伴奏データ(MI)がミックスされたデータ(Vo.A’+MI)が送信されてくるが、このデータもユーザ30Bの補正歌唱データ(Vo.B’)とともに、ミキサー6Aによってミックスされ、アンプ7Bを介してスピーカ8Bから出力される。
 さらに、ユーザ30Bの補正歌唱データ(Vo.B’)は、通信インターフェース4Bを介してカラオケ装置10Aに送信される。
 以上のように、本実施形態によれば、自分の歌唱の音高を、楽曲データのメインメロディの音高に近づけるように補正したうえで、他の拠点に送信することができる。
 なお、本実施形態においては、カラオケ装置10Aから送信するデータを、補正歌唱データとカラオケ曲の伴奏音データとをミックスしたデータとしたが、これらは別々のデータとして送信するようにしてもよい。
 カラオケ装置10Aで実行しているユーザ30Aの歌唱データに対するピッチ補正処理は、カラオケ装置10Bで実行するようにしてもよい。この場合、拠点Aにおいては、補正されていないユーザ30Aの歌唱を聞き、拠点Bにおいては、ピッチ補正されたユーザ30Aの歌唱を聞くことになる。
 逆に、カラオケ装置10Bで実行しているユーザ30Bの歌唱データに対するピッチ補正処理は、カラオケ装置10Aで実行するようにしてもよい。この場合、拠点Bにおいては、補正されていないユーザ30Bの歌唱を聞き、拠点Aにおいては、ピッチ補正されたユーザ30Bの歌唱を聞くことになる。
 このように、一方の拠点のカラオケ装置から送信されてきた歌唱データを、他方の拠点のカラオケ装置においてピッチ補正するようにしてもよいし、一方の拠点のカラオケ装置から送信されてきた補正歌唱データを、他方の拠点のカラオケ装置においてさらにピッチ補正するようにしてもよい
 また、以上のようなピッチ補正の処理工程は、カラオケ装置10Aとカラオケ装置10Bとを接続するネットワーク20上の装置において実行するようにしてもよい。
 以上のように、本実施形態によれば、自分の歌唱の音高を、選択した楽曲データのメインメロディの音高に近づけるように補正した後に、相手の拠点のカラオケ装置に送信し、ピッチ補正された歌唱を相手に聞かせることができる。また、他の拠点から送信されてきた歌唱データを、相手に知られずに、ピッチ補正して聞くことができる。したがって、いずれかのユーザまたは両方のユーザの歌唱能力が劣る場合でも適正なピッチでのデュエットを楽しむことができる。
<D:第4実施形態>
 次に、本発明の第4実施形態を図4に基づいて説明する。本実施形態は、相手の歌唱データに対してボイスチェンジ処理を行う通信カラオケシステム400について説明する。なお、本実施形態のカラオケ装置10Aとカラオケ装置10Bは、それぞれボイスチェンジ手段13Aとボイスチェンジ手段13Bが備えられている点を除いては、第1実施形態のカラオケ装置10Aおよびカラオケ装置10Bと同じ構成である。なお、ボイスチェンジとは、男性の声を女性の声に変えたり、電子的な声に変えたりすることをいう。
 本実施形態においても、拠点Aのユーザ30Aがユーザインターフェース1Aを操作して、カラオケ装置10Aに備えられた曲データベース5Aの中から任意に選択したカラオケ曲で、拠点Bのユーザ30Bと遠隔地デュエットを行う場合について説明する。
 ユーザ30Aがユーザインターフェース1Aを操作することによって、ボイスチェンジ処理を行うことを指定すると、ボイスチェンジ手段13Aは、マイク9Aによって入力されたユーザ30Aの歌唱データ(Vo.A)に対してボイスチェンジ処理を行い、ボイスチェンジ歌唱データ(Vo.A’)を生成する。
 このユーザ30Aのボイスチェンジ歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)は、ミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 また、カラオケ装置10Bからは、ユーザ30Bのボイスチェンジ歌唱データ(Vo.B’)が送信されてくるが、このユーザ30Bのボイスチェンジ歌唱データ(Vo.B’)も、ユーザ30Aのボイスチェンジ歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)とともに、ミキサー6Aによってミックスされ、アンプ7Aを介してスピーカ8Aから出力される。
 さらに、ユーザ30Aのボイスチェンジ歌唱データ(Vo.A’)とカラオケ曲の伴奏音データ(MI)がミックスされたデータ(Vo.A’+MI)は、通信インターフェース4Aを介してカラオケ装置10Bに送信される。
 一方、拠点Bにおいては、ユーザ30Bがユーザインターフェース1Bを操作することによって、ボイスチェンジ処理を行うことを指定すると、ボイスチェンジ手段13Bは、マイク9Bによって入力されたユーザ30Bの歌唱データ(Vo.B)に対してボイスチェンジ処理を行い、ボイスチェンジ歌唱データ(Vo.B’)を生成する。
 このユーザ30Bのボイスチェンジ歌唱データ(Vo.B’)はミキサー6Bに入力され、アンプ7Bを介してスピーカ8Bから出力される。
 また、カラオケ装置10Aからは、ユーザ30Aのボイスチェンジ歌唱データ(Vo.A’)とカラオケ曲の伴奏データ(MI)がミックスされたデータ(Vo.A’+MI)が送信されてくるが、このデータもユーザ30Bのボイスチェンジ歌唱データ(Vo.B’)とともに、ミキサー6Aによってミックスされ、アンプ7Bを介してスピーカ8Bから出力される。
 さらに、ユーザ30Bのボイスチェンジ歌唱データ(Vo.B’)は、通信インターフェース4Bを介してカラオケ装置10Aに送信される。
 以上のように、本実施形態によれば、自分の歌唱をボイスチェンジして他拠点に聞かせて楽しむことができる。
 なお、本実施形態においては、カラオケ装置10Aから送信するデータを、ボイスチェンジデータとカラオケ曲の伴奏音データとをミックスしたデータとしたが、これらは別々のデータとして送信するようにしてもよい。
 カラオケ装置10Aで実行しているユーザ30Aの歌唱データに対するボイスチェンジ処理は、カラオケ装置10Bで実行するようにしてもよい。この場合、拠点Aにおいては、ボイスチェンジされていないユーザ30Aの歌唱を聞き、拠点Bにおいては、ユーザ30Aに知られることなく、ボイスチェンジされたユーザ30Aの歌唱を聞くことになる。
 逆に、カラオケ装置10Bで実行しているユーザ30Bの歌唱データに対するボイスチェンジ処理は、カラオケ装置10Aで実行するようにしてもよい。この場合、拠点Bにおいては、ボイスチェンジされていないユーザ30Bの歌唱を聞き、拠点Aにおいては、ユーザ30Bに知られることなく、ボイスチェンジされたユーザ30Bの歌唱を聞くことになる。
 また、以上のようなボイスチェンジの処理工程は、カラオケ装置10Aとカラオケ装置10Bとを接続するネットワーク20上の装置において実行するようにしてもよい。
 さらに、第1実施形態、第2実施形態、および、第3実施形態の各カラオケ装置に、本実施形態のボイスチェンジ手段を備え、各実施形態におけるキーコントロール処理、ハーモニー処理、または、ピッチ補正処理と、ボイスチェンジ処理とを組み合わせるようにしてもよい。
 以上のように、本実施形態によれば、自分の歌唱をボイスチェンジして他拠点に聞かせて楽しむことができる。また、他の拠点の歌唱を相手に知られずにボイスチェンジして聞いて楽しむことができる。<E:応用>
 なお、上述した全ての実施形態においては、2つのカラオケ装置を接続した例について説明したが、2以上の複数のカラオケ装置を接続する場合にも適用可能である。また、各信号処理は、それぞれのカラオケ装置内で行う例について説明したが、カラオケ装置を接続するネットワーク上に制御用の装置を設置し、その装置で信号処理を行うようにしてもよい。このような構成にすれば、各拠点におけるカラオケ装置の処理負担を軽減することができる。
 また、上述した全ての実施形態では、一つの拠点のカラオケ装置に装備された曲データベースからカラオケ曲の伴奏音データを出力する例について説明したが、カラオケ曲の伴奏音データを出力する装置を別の装置として、ネットワーク上に配置し、遠隔操作で制御するようにしてもよい。
 上述した実施形態では、本発明を通信カラオケ装置に適用した例について説明したが、本発明はこのような例に限定されるものではない。例えば、互いに遠隔地にいながら、生演奏のセッションを行う場合にも適用可能である。セッションの場合には、それぞれの装置から、歌唱データの他に楽器の演奏をマイク等で入力すればよい。また、セッションに参加するメンバがそれぞれ自分で演奏するパートを抜いた残りの楽曲データである、いわゆるマイナスワン形式の伴奏データを用いるようにしてもよい。また、ピアノの生演奏で合唱を行う場合にも適用が可能である。この場合には、ピアノの生演奏と合唱の歌唱データをマイクで入力すればよい。さらには、互いに遠隔地にいながら、演奏なしのアカペラで合唱を行うような場合にも適用可能である。この場合には、それぞれのパートの歌唱データをマイクで入力すればよい。
 なお、上述の実施形態では通信カラオケシステム及び通信カラオケシステムに含まれるカラオケ装置として本発明を説明したが、本発明は、システム又は装置として実現されなくてもよい。たとえば、コンピュータである汎用のプロセッサがコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムを実行することにより、上述した実施形態におけるシステム又は装置の動作を行ってもよい。コンピュータプログラムは、CD-ROM等の記録媒体に格納して配布したり、インターネット等の電気通信回線を利用して配布したりすることも可能である。
 また、本発明において、音データに行う音響処理は、上記実施形態で説明したキー設定や信号処理などの処理に限定されない。
 以上のように、本発明の好適な態様に係る音響処理装置は、第一入力音データを入力する入力手段と、前記第一入力音データと、他の音響処理装置に入力され当該他の音響処理装置から送信される第二入力音データとを再生する再生手段と、前記第一入力音データを前記他の音響処理装置に送信する送信手段と、 前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方に音響処理を行う音響処理手段120Aと、を備えた、装置として表現され、例えば、拠点Aでは、図5に図示される装置となる。他の要素の有無や他の要素の具体的な態様は任意である。
 本出願は、2012年4月4日出願の日本特許出願、特願2012-085510に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、各拠点において独立して音響処理が行われ、それぞれの拠点で所望の音響処理が施された音データを再生することができる。
100,200,300,400……通信カラオケシステム、1A,1B……ユーザインターフェース、2A,2B……CPU、3A,3B……キーコントローラー、4A,4B……通信インターフェース、5A……曲データベース、6A,6B……ミキサー、7A,7B……アンプ、8A,8B……スピーカ、9A,9B……マイク、10A,10B……カラオケ装置、20……ネットワーク

Claims (12)

  1.  第一入力音データを入力する入力手段と、
     前記第一入力音データと、他の音響処理装置に入力され当該他の音響処理装置から送信される第二入力音データとを再生する再生手段と、
     前記第一入力音データを前記他の音響処理装置に送信する送信手段と、
     前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方に音響処理を行う音響処理手段と、を備えた、
     ことを特徴とする音響処理装置。
  2.  前記音響処理手段は、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方の音色を加工する音色加工手段であることを特徴とする請求項1に記載の音響処理装置。
  3.  前記音響処理手段は、前記第一入力音データまたは前記第二入力音データの少なくとも何れか一方の音高を変更する音高変更手段であることを特徴とする請求項1に記載の音響処理装置。
  4.  前記音高変更手段は、前記送信手段によって送信される前記第一入力音データの音高を、前記他の音響処理装置で指定された第二の指定に従って変更すると共に、前記第二入力音データの音高を、当該音響処理装置で指定された第一の指定に従って変更する手段であることを特徴とする請求項3に記載の音響処理装置。
  5.  前記音高変更手段は、第一入力音データまたは第二入力音データの音高を、基準となるデータに対して一定の関係を有するように変更する手段であることを特徴とする請求項3に記載の音響処理装置。
  6.  前記音高変更手段は、入力音データのキーを変更する手段、または、入力音データが基準となる音データに対してハーモニーを構成するように入力音データの音高を変更する手段、あるいは、入力音データの音高が基準となる音データの音高に対して所定の関係を有するように、入力音データの音高を変更する手段の少なくともいずれか一の手段であることを特徴とする請求項3ないし請求項5のいずれか一に記載の音響処理装置。
  7.  前記再生手段は、前記第一入力音データおよび第二入力音データに加えて楽曲データを再生する手段であり、
     前記第一入力音データおよび第二入力音データは歌唱データであり、
     前記音高変更手段は、前記歌唱データまたは前記楽曲データの音高を変更する手段である、
     ことを特徴とする請求項3ないし請求項6のいずれか一に記載の音響処理装置。
  8.  相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置とを少なくとも含み、各音響処理装置に入力された入力音が相互に通信されて再生される通信音響処理システムであって、
     前記第一の音響処理装置に設けられ、前記第一の音響処理装置に入力された第一入力音データと前記第二の音響処理装置から送信される第二入力音データとを再生する第一再生手段と、
     前記第一入力音データを前記第二の音響処理装置に送信する第一送信手段と、
     前記第二の音響処理装置に設けられ、前記第二の音響処理装置に入力された第二入力音データと前記第一の音響処理装置から送信される第一入力音データとを再生する第二再生手段と、
     前記第二入力音データを前記第一の音響処理装置に送信する第二送信手段と、
     前記第一入力音データに音響処理を行う第一音響処理手段と、
    前記第二入力音データに音響処理を行う第二音響処理手段と、
    を備えた、
     ことを特徴とする通信音響処理システム。
  9.  前記第一音響処理手段は、前記第一入力音データの音色を加工する第一音色加工手段であり、
    前記第二音響処理手段は、前記第二入力音データの音色を加工する第二音色加工手段である、
    ことを特徴とする請求項8に記載の音響処理装置。
  10.  前記第一音響処理手段は、前記第一入力音データの音高を変更する第一音高変更手段であり、
    前記第二音響処理手段は、前記第二入力音データの音高を変更する第二音高変更手段である、
    ことを特徴とする請求項8に記載の音響処理装置。
  11.  相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置とに入力された入力音が相互に通信されて再生される通信音響処理方法であって、
     前記第一の音響処理装置において、前記第一の音響処理装置に入力された第一入力音データと前記第二の音響処理装置から送信される第二入力音データとを再生し、
     前記第一入力音データを前記第二の音響処理装置に送信し、
     前記第二の音響処理装置において、前記第二の音響処理装置に入力された第二入力音データと前記第一の音響処理装置から送信される第一入力音データとを再生し、
     前記第二入力音データを前記第一の音響処理装置に送信し、
     前記第一入力音データに音響処理を行い、
    前記第二入力音データに音響処理を行う、
     ことを特徴とする通信音響処理方法。
  12.  相互に通信可能に接続された第一の音響処理装置と第二の音響処理装置を制御可能であり、コンピュータによって実行されるコンピュータプログラムであって、
     前記第一の音響処理装置において、前記第一の音響処理装置に入力された第一入力音データと前記第二の音響処理装置から送信される第二入力音データとを再生する第一再生ステップと、
     前記第一入力音データを前記第二の音響処理装置に送信する第一送信ステップと、
     前記第二の音響処理装置において、前記第二の音響処理装置に入力された第二入力音データと前記第一の音響処理装置から送信される第一入力音データとを再生する第二再生ステップと、
     前記第二入力音データを前記第一の音響処理装置に送信する第二送信ステップと、
     前記第一入力音データに音響処理を行う第一音響処理ステップと、
     前記第二入力音データに音響処理を行う第二音響処理ステップと、
    を実行させるコンピュータプログラム。
PCT/JP2013/060366 2012-04-04 2013-04-04 音響処理装置および通信音響処理システム WO2013151140A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020147025950A KR20140125440A (ko) 2012-04-04 2013-04-04 음향 처리 장치 및 통신 음향 처리 시스템
CN201380015320.8A CN104170005A (zh) 2012-04-04 2013-04-04 音响处理装置及通信音响处理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012085510A JP2013217953A (ja) 2012-04-04 2012-04-04 音響処理装置および通信音響処理システム
JP2012-085510 2012-04-04

Publications (1)

Publication Number Publication Date
WO2013151140A1 true WO2013151140A1 (ja) 2013-10-10

Family

ID=49300618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/060366 WO2013151140A1 (ja) 2012-04-04 2013-04-04 音響処理装置および通信音響処理システム

Country Status (5)

Country Link
JP (1) JP2013217953A (ja)
KR (1) KR20140125440A (ja)
CN (1) CN104170005A (ja)
TW (1) TWI496136B (ja)
WO (1) WO2013151140A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6208439B2 (ja) * 2013-02-28 2017-10-04 株式会社第一興商 ネットワーク合唱における演奏キーのマッチングシステム
JP6415341B2 (ja) * 2015-01-30 2018-10-31 株式会社第一興商 ハーモニー歌唱のためのピッチシフト機能を備えたカラオケシステム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286687A (ja) * 1995-04-12 1996-11-01 Yamaha Corp カラオケ装置
JPH0997072A (ja) * 1995-09-29 1997-04-08 Yamaha Corp カラオケ装置
JPH1055191A (ja) * 1996-08-09 1998-02-24 Yamaha Corp カラオケ装置
JP2003167587A (ja) * 2001-11-30 2003-06-13 Daiichikosho Co Ltd ピッチシフター付きカラオケ装置
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004093975A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 通信端末及びプログラム
JP2010197499A (ja) * 2009-02-23 2010-09-09 Taito Corp カラオケサービスシステム、配信サーバ、端末装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2838977B2 (ja) * 1995-01-17 1998-12-16 ヤマハ株式会社 カラオケ装置
JP3709631B2 (ja) * 1996-11-20 2005-10-26 ヤマハ株式会社 カラオケ装置
KR100274046B1 (ko) * 1998-10-19 2000-12-15 구자홍 다기능 네트워크 노래방 장치
JP4219234B2 (ja) * 2003-08-28 2009-02-04 独立行政法人産業技術総合研究所 カラオケシステム、音楽演奏通信装置、及び演奏同期方法
JP2008083201A (ja) * 2006-09-26 2008-04-10 Matsushita Electric Works Ltd 照明制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286687A (ja) * 1995-04-12 1996-11-01 Yamaha Corp カラオケ装置
JPH0997072A (ja) * 1995-09-29 1997-04-08 Yamaha Corp カラオケ装置
JPH1055191A (ja) * 1996-08-09 1998-02-24 Yamaha Corp カラオケ装置
JP2003167587A (ja) * 2001-11-30 2003-06-13 Daiichikosho Co Ltd ピッチシフター付きカラオケ装置
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004093975A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 通信端末及びプログラム
JP2010197499A (ja) * 2009-02-23 2010-09-09 Taito Corp カラオケサービスシステム、配信サーバ、端末装置

Also Published As

Publication number Publication date
CN104170005A (zh) 2014-11-26
JP2013217953A (ja) 2013-10-24
KR20140125440A (ko) 2014-10-28
TWI496136B (zh) 2015-08-11
TW201346885A (zh) 2013-11-16

Similar Documents

Publication Publication Date Title
JP4382786B2 (ja) 音声ミックスダウン装置、音声ミックスダウンプログラム
JP6457326B2 (ja) 歌唱音声の伝送遅延に対応したカラオケシステム
US5484291A (en) Apparatus and method of playing karaoke accompaniment
JP4103364B2 (ja) カラオケシステム、カラオケ装置およびカラオケシステムのサーバ装置
JP5144333B2 (ja) カラオケ装置
JPH1152966A (ja) 音楽演奏システム
WO2013151140A1 (ja) 音響処理装置および通信音響処理システム
JP5622679B2 (ja) カラオケ装置
JP5130348B2 (ja) 携帯用電子機器を利用したカラオケ協演方法
JP6316099B2 (ja) カラオケ装置
JP2014066922A (ja) 楽曲演奏装置
JP2008187549A (ja) 楽器演奏アシストシステム
JP6829605B2 (ja) カラオケ装置
JP2008097096A (ja) サーバ装置及び通信セッション確立方法
JP6208439B2 (ja) ネットワーク合唱における演奏キーのマッチングシステム
JP5421333B2 (ja) カラオケ装置
JP6236807B2 (ja) 歌唱音声評価装置および歌唱音声評価システム
JP5191336B2 (ja) グループ演奏練習支援機能を備える音響システム
JP3743985B2 (ja) カラオケ装置
JP6924119B2 (ja) カラオケ装置
JP6438823B2 (ja) カラオケシステム及びプログラム
JP6774888B2 (ja) カラオケ装置
JP2005189878A (ja) 音楽演奏装置と音楽演奏方法とプログラム
JP5510435B2 (ja) カラオケ装置及びプログラム
JP2014071214A (ja) 音楽再生装置、音楽再生システム、音楽再生方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13772282

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20147025950

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13772282

Country of ref document: EP

Kind code of ref document: A1