WO2005111997A1 - オーディオ再生装置 - Google Patents

オーディオ再生装置 Download PDF

Info

Publication number
WO2005111997A1
WO2005111997A1 PCT/JP2005/005149 JP2005005149W WO2005111997A1 WO 2005111997 A1 WO2005111997 A1 WO 2005111997A1 JP 2005005149 W JP2005005149 W JP 2005005149W WO 2005111997 A1 WO2005111997 A1 WO 2005111997A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
data
tune
vocal
music
Prior art date
Application number
PCT/JP2005/005149
Other languages
English (en)
French (fr)
Inventor
Hirobumi Iwaji
Yoshiya Nonaka
Nobuo Tarui
Ryoji Sugino
Noritaka Nii
Takeshi Mutoh
Masashi Aoyama
Original Assignee
Pioneer Corporation
Tech Experts Incorporation
Pioneer System Technologies Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation, Tech Experts Incorporation, Pioneer System Technologies Corporation filed Critical Pioneer Corporation
Priority to JP2006513500A priority Critical patent/JPWO2005111997A1/ja
Publication of WO2005111997A1 publication Critical patent/WO2005111997A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Definitions

  • the present invention relates to an audio playback device having a karaoke function.
  • Patent Document 1 JP-A-11-175077
  • Patent Document 2 JP-A-2000-47677
  • the karaoke apparatus disclosed in Patent Document 1 prepares an accompaniment sound and sample vocal singing data, and mixes (mixes) the accompaniment sound and the example vocal singing data with a speaker or the like. In addition to playing back music, the singing voice of the user input through the microphone is mixed to play back music.
  • the pitch of the sample vocal singing data is compared with the pitch of the user's singing voice, and if the pitch difference is within a predetermined range, it is determined that the pitch matches, and the sample vocal singing is performed.
  • the pitch difference is out of the predetermined range, it is determined that the pitch is out of range, and the volume of the vocal singing data is increased. This makes it easier to listen to the sample vocal singing data and accompaniment sounds, so that singing practice can be performed in accordance with the pitch of the sample vocal singing data.
  • Patent Document 1 the model vocal singing data is prepared, and when the pitch difference from the sample vocal singing data is large, the volume of the sample vocal singing data is increased and the practice is performed. If it is small, lower the volume of the sample vocal singing data and practice. In other words, support singing practice while listening to the sample vocal singing data as needed.
  • the karaoke apparatus disclosed in Patent Document 2 prepares accompaniment sound and vocal sound data as an example, and converts the accompaniment sound, vocal sound data, and the singing voice of the user input through the microphone. They are configured to be mixed and reproduced by a speaker or the like.
  • the level of the vocal sound data and the input level of the microphone input If the singing voice of the user is lower than the vocal sound data, it is determined that the singing voice is a part that the user does not understand, and the volume of the vocal sound data as a model is increased. When the user's singing voice is at a higher level than the vocal sound data, the user's singing voice and the accompaniment sound are listened to by determining that the user can sing and increasing the volume of the user's singing voice. It makes it easy to practice singing.
  • Patent Document 1 JP-A-111-175077
  • Patent Document 2 JP-A-2000-47677
  • the volume of the vocal singing data with respect to the user's singing voice is determined according to the pitch difference between the model vocal singing data and the user's singing voice.
  • the volume is adjusted based on these pitches, it responds to the surrounding environmental sounds and conversations, etc., and automatically adjusts the volume regardless of whether the user is singing or not. (For example, increasing the volume of the sample vocal singing data).
  • the volume of the vocal sound data corresponding to the singing voice of the user is determined according to the level of the vocal sound data as a model and the singing voice of the user.
  • the conventional karaoke apparatuses disclosed in Patent Document 1 and Patent Document 2 described above prepare vocal singing data as an example, and allow the user to listen to the vocal singing data as necessary.
  • an audio playback device that plays karaoke and plays music data from a storage medium such as a CD, a compact disc (CD) on which recorded vocal singing data of the model is recorded, and the vocal of the music data is used.
  • a storage medium such as a CD, a compact disc (CD) on which recorded vocal singing data of the model is recorded, and the vocal of the music data is used.
  • the present invention has been made in view of such conventional problems, and it is possible to accurately determine the singing voice of a user, and to use a karaoke sound reproducing apparatus that does not provide a model vocal singing data. The purpose is to be able to enjoy.
  • the invention according to claim 1 is an audio reproducing apparatus provided with a mixing means for mixing and outputting a sound pickup signal output from a sound pickup means for picking up sound and a music signal output from a sound source means.
  • a live device wherein the first tune detection means detects a tune of a sound pickup signal output from the sound pickup means, and the second tune detects a tune of a vocal sound of the music signal output from the sound source means.
  • a tune detecting means for judging the similarity between the tune characteristic of the vocal sound and the tune characteristic of the vocal sound detected by the first and second tune detection means, And a vocal volume adjusting means for removing or attenuating the vocal sound of the music signal supplied from the sound source means to the mixing means when judging that there is similarity.
  • the invention according to claim 3 is an audio reproducing apparatus comprising a mixing means for mixing and outputting a sound pickup signal output from a sound pickup means for picking up a sound and a music signal output from a sound source means.
  • An audio reproduction method in a live device comprising: a first tune detection step of detecting a tune of a picked-up signal output from the sound pickup means; and a tune of a vocal sound of a music signal output from the sound source means.
  • FIG. 1 is a block diagram showing a configuration of an audio playback device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of an audio playback device according to an embodiment.
  • FIG. 3 is a flowchart for explaining an operation of the audio reproducing apparatus shown in FIG. 2;
  • FIG. 1 is a block diagram illustrating a configuration of an audio playback device according to the present embodiment.
  • the audio reproducing device 1 includes a microphone MIC and an input amplifier unit.
  • the microphone MIC and the input amplifier unit 2 are provided as sound pickup means for picking up a singing voice or the like of a user.
  • the input amplifier unit 2 amplifies the sound pickup signal picked up by the microphone MIC, AZD conversion to sound pickup data Dau consisting of a data string is output.
  • the sound source unit 3 is a sound source unit that outputs music data Dson composed of a digital data string, and includes various storage media such as an MD (Min Disc), a CD (Compact Disc), and a DVD (Digital Versatile Disc).
  • Information reproduction device that reproduces and outputs music recorded on the Internet, radio receivers that receive and output radio and television broadcasts, and music that is distributed via communication networks such as the Internet. It is formed by receiving means for outputting the data.
  • the tune detection unit 4 extracts the characteristics of the singing voice of the user having the tune by performing the tune detection at predetermined intervals on the collected sound data Dau output from the input amplifier unit 2.
  • the tune detection unit 4 includes a "tonality (key)", a “change amount (BPM) of a beat (beat)", and a “change amount of a chord (chord: chord)".
  • CPM '', ⁇ Maximum beat level '', ⁇ Average intensity of musical tone '', and ⁇ Maximum intensity of musical tone '' Is supplied to the comparison unit 6.
  • the tune detection unit 5 receives music data Dson output from the sound source unit 3 at predetermined intervals. By performing the tune detection while synchronizing with the tune detection section 4, the characteristics of the vocal sound of the singer having the tune are extracted.
  • the tune detection section 5 also includes a “tonality (key)”, a “change in beat (BPM)”, and a “chord (chord).
  • Chord) change amount (CPM) “Maximum beat level”, “Average intensity of musical tone”, and “Maximum intensity of musical tone” are feature-extracted as parameters representing tune. Then, the feature amount CHy including the extracted six types of parameters is supplied to the comparison unit 6.
  • the comparison unit 6 compares the feature amounts CHx and C Hy supplied in synchronization with the predetermined period from the tune detection units 4 and 5 for each of the above parameters, and calculates a difference value for each of the parameters. . If the difference value of each parameter is within the range of the predetermined reference value, it is determined that the singing voice of the user input through the microphone and the vocal sound of the singer are similar, and the control signal CNT is changed. If the difference value of each parameter is out of the range of a predetermined reference value, it is determined that the singing voice of the user input through the microphone and the vocal sound of the singer are not similar, and the control signal CNT is output. Do not output.
  • the comparing unit 6 when the feature quantity CHy supplied on the characteristics amount CHx and singers vocals sound on the vocal of the user from the music tone detection unit 4 and 5, the feature amount and the feature amount
  • control signal CNT is output; otherwise, the control signal CNT is not output.
  • the comparing unit 6 determines that the feature CHx and the feature CHY are similar to each other. Do not output the control signal CNT.
  • the tune detection unit 4 detects tune based on the sound pickup data Dau when the user does not sing, the feature CHx having no tune property is detected. For this reason, even when the characteristic amount CHx when the user is not singing and the characteristic amount CHy relating to the singer's vocal sound are supplied to the comparison unit 6, the comparison unit 6 does not output the control signal CNT. ,.
  • the vocal volume adjustment unit 7 removes the singer's vocal sound data included in the music data Dson or attenuates the value of the data during the period in which the control signal CNT is supplied. And output.
  • the characteristic amount CHX relating to the user's singing voice and the characteristic amount CHy relating to the singer's vocal sound are output from the tune detection units 4 and 5, and the comparing unit 6 outputs the characteristic amount CHx and the characteristic amount CHy.
  • the vocal volume adjustment unit 7 removes or attenuates the singer's vocal sound data only during the output period of the control signal CNT.
  • the music data Dc of the accompaniment sound is generated and output, and during a period in which the control signal CNT is not output, the music data Dson is passed as it is as the music data Dc and output.
  • the mixing unit 8 mixes the sound pickup data Dau from the input amplifier unit 2 and the music data Dc from the vocal volume adjustment unit 7 to supply the data to a speaker or the like so as to reproduce music. Generate and output music playback data Dout.
  • the mixing unit 8 collects the sound from the input amplifier unit 2.
  • the music data Dc that does not mix the data D au (that is, the sound collection data Dau) is output as it is as the music reproduction data Dout.
  • each parameter of the feature amount CHx representing the tune of the sound picked up by the microphone MIC (hereinafter simply described as “feature amount CHx”)
  • feature amount CHx The similarity with each parameter of the characteristic amount CHy (hereinafter simply referred to as “characteristic amount CHy”) representing the tune of the vocal sound by the music data Dson output from the sound source unit 3 is compared, and the characteristic amounts CHx, CHy If the characteristics are similar, the vocal sound is removed or attenuated, and the collected sound is reproduced. If the feature values CHx and CHy are not similar, the collected sound is not reproduced. Since the singer's vocal sound is reproduced, it is possible to accurately detect the singing voice uttered by the user without being affected by conversation and surrounding environmental sounds.
  • the feature amount CHx and the feature amount CHy are not similar. It determines that the picked-up sound is not the singing voice of the user, and does not output the control signal CNT. Therefore, as a result, it is possible to accurately detect the singing voice uttered by the user.
  • the vocal sound is removed or attenuated and the collected sound is reproduced, so that the singer's vocal sound is not disturbed. You can enjoy. In other words, karaoke can be enjoyed not only with a karaoke device that prepares vocal singing data but also with a normal audio device.
  • FIG. 2 is a block diagram showing the configuration of the audio reproducing apparatus according to the present embodiment, and the same or corresponding parts as in FIG. 1 are denoted by the same reference numerals.
  • FIG. 3 is a flowchart for explaining the operation of the audio playback device of the present embodiment.
  • the audio reproducing device 1 includes a microphone MIC and an input amplifier unit 2, a sound source unit 3, a bandpass filter 9 provided on the input amplifier unit 2 side, and a sound source unit 3 And a vocal volume adjustment section 7 and a mixing section 8.
  • the tune detection sections 4 and 5 are configured by computer programs. Formed by a digital signal processor (DSP) that operates according to the program
  • the band-pass filter 9 digitally processes the collected sound data Dau, which is composed of digital data trains output from the input amplifier unit 2, to generate audio data corresponding to the frequency band components of human uttered voice. Dvce is extracted and supplied to the tune detection unit 4.
  • the band-pass filter 10 performs digital arithmetic processing on the music data Dson output from the sound source unit 3 to extract vocal sound data Dvoc corresponding to a frequency band component of human uttered voice, and a tune detection unit.
  • Supply 5
  • the tune detection section 4 includes a key detection section 4a, a beat change detection section 4b, a chord change detection section 4c, a beat maximum value detection section 4d, an average intensity detection section 4e, and a maximum intensity detection section 4f. It is configured.
  • the key detection unit 4a the beat change amount detection unit 4b, the chord change amount detection unit 4c, the beat maximum value detection unit 4d, the average intensity detection unit 4e, and the maximum intensity detection unit 4f
  • the ⁇ key '' is displayed.
  • Feature data Dxl feature data Dx2 representing "change in beat (beat) (BPM)", feature data Dx3 representing "change in chord (chord) (CPM)” and "beat Feature data Dx4 representing the maximum level of the tone, feature data Dx5 representing the average intensity of the musical tone, and feature data Dx6 representing the maximum intensity of the musical tone.
  • These six types of feature data Dxl Dx6 are generated.
  • the characteristic amount CHx is supplied to the comparison unit 6.
  • the tune detecting section 5 includes, similarly to the tune detecting section 4, a key detecting section 5a, a beat change detecting section 5b, a chord changing detecting section 5c, a beat maximum value detecting section 5d, an average intensity detecting section 5e, It is configured to have a strength detecting section 5f.
  • the key detection unit 5a, the beat change amount detection unit 5b, the chord change amount detection unit 5c, the beat maximum value detection unit 5d, the average intensity detection unit 5e, and the maximum intensity detection unit 5f are connected to the tune detection unit 4 side. It operates in synchronization with each of the detectors 4a-4f installed in the unit, and performs tune detection on the vocal sound data Dvoc in each predetermined period range, thereby improving the “tonality (key)”.
  • the characteristic data Dyl to be represented the characteristic data Dy2 representing the change in beat (BPM) (BPM), the characteristic data Dy3 representing the change in chord (chord) (CPM), and the characteristic data Dy3 Feature data Dy4 representing the maximum level of the musical tone, feature data Dy5 representing the average intensity of the musical tone, and feature data Dy6 representing the maximum intensity of the musical tone, and these six types of feature data Dyl— Dy6 is supplied to the comparison unit 6 as a feature quantity CHy.
  • the comparison unit 6 compares the feature amounts CHx and C Hy supplied from the tune detection units 4 and 5 in synchronization with a predetermined cycle for each of the above-described parameters, and calculates a difference value for each of the parameters. .
  • the comparison unit 6 determines the difference between the feature data Dxl and Dyl, the difference between the feature data Dx2 and Dy2, the difference between the feature data Dx3 and Dy3, the difference between the feature data Dx4 and Dy4, and the feature data D The difference between x5 and Dy5 and the difference between feature data Dx6 and Dy6 are calculated.
  • the difference value of each parameter is within the range of a predetermined reference value, it is determined that the singing voice of the user input by microphone and the vocal sound of the singer are similar, and the control signal is determined. If the difference value of each parameter is out of the range of the predetermined reference value, it is determined that the singing voice of the user and the vocal sound of the singer input through the microphone are not similar, and Does not output control signal CNT.
  • the comparison unit 6 compares the feature amount CHx relating to the singing voice uttered by the user with the singer's vocal By comparing the similarity with the feature CHy related to the sound, if the feature CHx and the feature CHy are similar, the control signal CNT is output; otherwise, the control signal CNT is not output. I have.
  • the vocal volume adjustment section 7 is configured to include a band-pass filter 7a, a voice analysis / synthesis section 7b, a mouth-pass filter 7c, and a subtractor 7d.
  • the band-pass filter 7a performs digital arithmetic processing on the music data Dson output from the sound source unit 3 to convert the music data Dson into a frequency band component of human uttered voice.
  • the corresponding vocal sound data Dvoc is extracted and supplied to the voice analysis / synthesis unit 7b.
  • the speech analysis / synthesis unit 7b has an adaptive digital filter for speech analysis that approximates the inverse characteristic of the transfer function of the human vocal tract, and a digital filter for speech synthesis that approximates the transfer function of the human vocal tract. are doing.
  • the adaptive digital filter for voice analysis performs a voice recognition process based on the voice sound data Dvoc, and furthermore, each of the digital filters for voice synthesis based on the voice recognition result.
  • the tap coefficients are adjusted adaptively, and impulse response train data hvoc equivalent to pseudo vocal sound is output from the digital filter for speech synthesis.
  • the low-pass filter 7c removes the high-frequency noise component of the impulse response train data hvoc and supplies it to the subtractor 7d.
  • the subtractor 7d subtracts the impulse response train data hvoc corresponding to the pseudo vocal sound supplied via the low-pass filter 7c and the music data Dson during the period in which the control signal CNT is output.
  • the data related to the vocal sound included in the music data Dson is removed or attenuated, and the music data Dc after the subtraction processing is supplied to the mixing unit 8.
  • the mixing section 8 mixes the sound pickup data Dau from the input amplifier section 2 and the music data Dc from the subtractor 7d to supply the data to a speaker or the like for reproduction. Generate and output Dout.
  • the mixing unit 8 outputs the signal from the input amplifier unit 2 when the vocal sound data of the singer is not removed or attenuated by the vocal volume adjustment unit 7, that is, during a period when the control signal CNT is not output from the comparison unit 6.
  • Mixed sound collection data Dau The music data Dc (that is, the sound pickup data Dau) which is not to be output is output as the music reproduction data Dout as it is.
  • the user loads various storage media such as an MD, a CD, and a DVD into the information reproducing apparatus as the sound source unit 3 and starts reproduction by, for example, turning on a karaoke function, or Turn on the wireless receiver and turn on the power radio function, for example, to start reception of radio broadcasts, etc., or to receive music distributed via a communication network such as the Internet and start playback.
  • a karaoke function is turned on, for example, the karaoke function is turned on, the audio reproducing device 1 of the present embodiment is activated to start the karaoke operation, and the sound source section 3 starts reproducing in step ST1.
  • the tune detection sections 4 and 5 perform parallel processing while synchronizing with each other, and detect a feature CHx from the collected sound data Dau and a feature CHy from the music data Dson.
  • step ST4 the comparing unit 6 determines the similarity by comparing the feature amounts CHx and CHy, and if it is determined that there is similarity, performs the processing in step ST5, and then proceeds to step ST6. However, if it is determined that there is no similarity (including no sound pickup data), the process directly proceeds to step ST6 without performing the process of step ST5.
  • step ST5 the vocal volume adjustment unit 7 generates impulse response sequence data hvoc corresponding to a pseudo vocal sound based on the vocal sound data Dvoc included in the music data Dson, and By subtracting the impulse response train data hvoc from the data Dson, the data related to the vocal sound is removed or attenuated, and the music data Dc of the accompaniment sound is generated. Further, the mixing section 8 generates and outputs music reproduction data Dout by mixing the music data Dc of the accompaniment sound and the sound collection data Dau.
  • step ST4 when the comparison unit 6 determines that there is no similarity, the vocal volume adjustment unit 7 performs processing such as subtracting the in-no-response sequence data hvoc from the music data Dson. Since the mixing is not performed, the mixing unit 8 does not mix the music data Dson output from the sound source unit 3 and the picked-up data Dau output from the input amplifier unit 2 without mixing. Data Dson is output as data Dout for music reproduction.
  • step ST6 the karaoke operation is continued or stopped depending on whether or not the karaoke function of the sound source unit 3 is turned off. That is, if the karaoke function of the sound source unit 3 has not been turned off, the process returns to steps ST2 and ST3 to repeat the processing. If the karaoke function of the sound source unit 3 is turned off, the karaoke operation ends.
  • the characteristic amount CHx representing the tune of the sound picked up by the microphone MIC and the characteristic of the vocal sound of the music data from the sound source unit 3 Compared to the amount CHy, the vocal sound of the music data is removed or attenuated and the collected sound is played back only when they are similar, so the effects of conversation and surrounding environmental sounds are reduced.
  • a singing voice uttered by a user who does not receive can be detected with high precision, and karaoke can be enjoyed not only with a karaoke device that prepares vocal singing data as a model but also with a normal audio device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

 本発明は、お手本となるボーカル歌唱データを用意しないオーディオ再生装置でも任意のタイミングでカラオケを楽しむことができるようにすることを目的とする。  マイクロホンMIC等で収音したユーザの歌声等の収音データDauに対して曲調検出を行う曲調検出部4と、音源部3から出力される音楽データDsonに対して曲調検出を行う曲調検出部5と、曲調検出部4の曲調検出結果(特徴量)CHxと曲調検出部6の曲調検出結果(特徴量)CHyとを比較してユーザの歌声と音楽のボーカル音との類似性を判断する比較部6と、ボーカル音量調部7と混合部8とを設ける。比較部6が類似性有りと判断するとボーカル音量調部7が音楽データDsonのボーカル音を除去又は減衰させた音楽データDcを生成し、混合部8が音声データDcと収音データDauを混合することにより、カラオケ再生用の音楽再生用データDoutを生成して出力する。

Description

明 細 書
オーディオ再生装置
技術分野
[0001] 本発明は、カラオケ機能を有するオーディオ再生装置に関する。
背景技術
[0002] 従来のカラオケ装置として、特開平 11 - 175077号公報 (以下「特許文献 1」)と、特 開 2000— 47677号公報(以下「特許文献 2」 )に開示されたものが知られてレヽる。
[0003] 特許文献 1に開示されてレ、るカラオケ装置は、伴奏音とお手本ボーカル歌唱デー タとを用意し、それら伴奏音とお手本ボーカル歌唱データとをミキシング (混合)する ことによってスピーカ等で再生を行う他、マイク入力されるユーザの歌声も混合して音 楽再生を行うように構成されてレ、る。
[0004] そして、お手本ボーカル歌唱データの音程 (interval)とユーザの歌声の音程とを比 較し、その音程差が所定範囲内であれば、音程が合っていると判定して、お手本ボ 一カル歌唱データの音量を小さくすることによってユーザの歌声と伴奏音とを聴きや すくし、音程差が所定範囲外であれば、音程が外れていると判定して、ボーカル歌唱 データの音量を大きくすることによってお手本ボーカル歌唱データと伴奏音とを聴き やすくすることにより、お手本ボーカル歌唱データの音程に合わせて歌唱練習を行 えるようにしている。
[0005] つまり、特許文献 1では、お手本ボーカル歌唱データを用意し、そのお手本ボー力 ル歌唱データとの音程差が大きい場合にはお手本ボーカル歌唱データの音量を大 きくして練習させ、音程差が小さい場合には、お手本ボーカル歌唱データの音量を 小さくして練習させる。すなわち、必要に応じてお手本ボーカル歌唱データを聴かせ ながら歌唱練習をサポートしてレ、る。
[0006] 特許文献 2に開示されているカラオケ装置も同様に、伴奏音とお手本となるボー力 ル音データとを用意し、それら伴奏音とボーカル音データとマイク入力されるユーザ の歌声とを混合してスピーカ等で再生を行うように構成されている。
[0007] そして、このカラオケ装置では、ボーカル音データのレベルと、マイク入力されるュ 一ザの歌声のレベルとを比較し、ユーザの歌声がボーカル音データに比して小さレヽ レベルのときには、ユーザの分からない部分であると判断してお手本となるボーカル 音データの音量を大きくして学習させ、ユーザの歌声がボーカル音データに比して 大きいレベルのときには、ユーザが歌える部分であると判断してユーザの歌声の音量 を大きくすることにより、ユーザの歌声と伴奏音とを聴きやすくして歌唱練習を行える ようにしている。
[0008] つまり、特許文献 2では、お手本となるボーカル音データを用意し、そのボーカル音 データのレベルより小さい場合には、ボーカル音データによる音量を大きくして学習 させ、レベルが小さい場合にはユーザの歌声の音量を大きくしてユーザの歌唱を妨 げないようにしている。すなわち、必要に応じてお手本となるボーカル音データを聴 かせながら歌唱練習をサポートしている。
[0009] 特許文献 1 :特開平 11一 175077号公報
特許文献 2:特開 2000 - 47677号公報
発明の開示
発明が解決しょうとする課題
[0010] ところで、上記特許文献 1に開示されてレ、る従来のカラオケ装置では、お手本ボー カル歌唱データとユーザの歌声との音程差に応じて、ユーザの歌声に対するボー力 ル歌唱データの音量を自動的に調整することとしているが、こうした音程に基づいて 音量調整を行うと、周囲の環境音や会話等にも反応し、ユーザが歌唱していないに もかかわらず、 自動的に音量調整を行ってしまう(例えば、お手本ボーカル歌唱デー タの音量を大きくする)という問題があった。
[0011] また、上記特許文献 2に開示されている従来のカラオケ装置では、お手本となるボ 一カル音データとユーザの歌声とのレベルの大小に応じて、ユーザの歌声に対する ボーカル音データの音量を自動的に調整することとしている力 こうしたレベルの大 小に基づいてボーカル音の音量を自動調整する場合にも、周囲の環境音や会話等 にも反応し、ユーザが歌唱していないにもかかわらず、 自動的に音量調整を行ってし まう(例えば、お手本となるボーカル音データのレベルを大きくしてしまう)という問題 があった。 [0012] また、上記特許文献 1と特許文献 2に開示された従来のカラオケ装置は、お手本と なるボーカル歌唱データを用意して、そのボーカル歌唱データを必要に応じて聴か せることによりユーザに対しカラオケを楽しませるものであり、例えば、お手本のボー カル歌唱データが記録されてレ、なレ、CD (Compact Disc)等のストレージ媒体等から 音楽データを再生するオーディオ再生装置ではその音楽データのボーカル音が邪 魔してカラオケを充分に楽しむことができないという不都合があった。
[0013] 本発明はこのような従来の問題点に鑑みてなされたものであり、ユーザの歌声を精 度良く判定して、お手本となるボーカル歌唱データを用意しないオーディオ再生装 置でもカラ才ケを楽しむことができることを目的とする。
課題を解決するための手段
[0014] 請求項 1に記載の発明は、音を収音する収音手段から出力される収音信号と音源 手段から出力される音楽信号とを混合して出力する混合手段を備えたオーディオ再 生装置であって、前記収音手段から出力される収音信号の曲調を検出する第 1の曲 調検出手段と、音源手段力 出力される音楽信号のボーカル音の曲調を検出する第 2の曲調検出手段と、前記第 1 ,第 2の曲調検出手段が検出した前記収音信号の曲 調の特徴と前記ボーカル音の曲調の特徴との類似性を判断する比較手段と、前記 比較手段が類似性有りと判断すると、前記音源手段から混合手段へ供給される前記 音楽信号のボーカル音を除去又は減衰させるボーカル音量調整手段と、を具備する ことを特徴とする。
[0015] 請求項 3に記載の発明は、音を収音する収音手段から出力される収音信号と音源 手段から出力される音楽信号とを混合して出力する混合手段を備えたオーディオ再 生装置におけるオーディオ再生方法であって、前記収音手段から出力される収音信 号の曲調を検出する第 1の曲調検出工程と、音源手段から出力される音楽信号のボ 一カル音の曲調を検出する第 2の曲調検出工程と、前記第 1,第 2の曲調検出工程 で検出した前記収音信号の曲調の特徴と前記ボーカル音の曲調の特徴との類似性 を判断する比較工程と、前記比較工程で類似性有りと判断すると、前記音源手段か ら混合手段へ供給される前記音楽信号のボーカル音を除去又は減衰させるボー力 ル音量調整工程と、を具備することを特徴とする。 図面の簡単な説明
[0016] [図 1]本発明の実施形態に係るオーディオ再生装置の構成を表したブロック図である
[図 2]実施例に係るオーディオ再生装置の構成を表したブロック図である。
[図 3]図 2に示したオーディオ再生装置の動作を説明するためのフローチャートである 発明を実施するための最良の形態
[0017] 本発明の実施形態に係るオーディオ再生装置について、図 1を参照して説明する
。図 1は、本実施形態のオーディオ再生装置の構成を表したブロック図である。
[0018] 同図において、このオーディオ再生装置 1は、マイクロホン MIC及び入力アンプ部
2と、音源部 3と、曲調検出部 4, 5、比較部 6、ボーカル音量調整部 7と、混合部 8を 有して構成されている。
[0019] マイクロホン MIC及び入力アンプ部 2は、ユーザの歌声等を収音する収音手段とし て設けられており、マイクロホン MICが収音した収音信号を入力アンプ部 2が増幅し 、更にデジタルデータ列から成る収音データ Dauに AZD変換して出力する。
[0020] 音源部 3は、デジタルデータ列から成る音楽データ Dsonを出力する音源手段であ り、例えば、 MD (Min Disc)や CD (Compact Disc)や DVD (Digital Versatile Disc)等 の各種ストレージ媒体に記録されている音楽を再生して出力するいわゆる情報再生 装置や、ラジオ放送やテレビ放送を受信して出力する無線受信機、インターネット等 の通信網を介して配信されてくる音楽等を受信して出力する受信手段等によって形 成されている。
[0021] 曲調検出部 4は、入力アンプ部 2から出力される収音データ Dauに対して、所定周 期毎に曲調検出を行うことにより、曲調を有するユーザの歌声の特徴を抽出する。
[0022] ここで、曲調検出部 4は、「調性 (キー: key)」と、「拍(ビート: beat)の変化量 (BPM) 」と、「和音(コード: chord)の変化量(CPM)」と、「拍の最大レベル」と、「楽音の平均 強度」と、「楽音の最大強度」との 6種類のパラメータを曲調を表すパラメータとして特 徴抽出し、抽出した 6種類のパラメータから成る特徴量 CHxを比較部 6に供給する。
[0023] 曲調検出部 5は、音源部 3から出力される音楽データ Dsonに対して、所定周期毎 に且つ曲調検出部 4と同期を取りながら曲調検出を行うことにより、曲調を有する歌 手のボーカル音の特徴を抽出する。
[0024] ここで、曲調検出部 5も曲調検出部 4と同様に、「調性 (キー: key)」と、「拍(ビート: beat)の変化量(BPM)」と、「和音(コード: chord)の変化量(CPM)」と、「拍の最大レ ベル」と、「楽音の平均強度」と、「楽音の最大強度」との 6種類のパラメータを曲調を 表すパラメータとして特徴抽出し、抽出した 6種類のパラメータから成る特徴量 CHy を比較部 6に供給する。
[0025] 比較部 6は、曲調検出部 4, 5から所定周期に同期して供給される特徴量 CHx, C Hyを上述の各パラメータ毎に比較して、各パラメータ毎の差分値を演算する。そして 、各パラメータの差分値が夫々予め決められた基準値の範囲内であれば、マイク入 力されたユーザの歌声と歌手のボーカル音とが類似していると判断して制御信号 C NTを出力し、各パラメータの差分値が夫々予め決められた基準値の範囲外であれ ば、マイク入力されたユーザの歌声と歌手のボーカル音とが類似していなと判断して 、制御信号 CNTを出力しない。
[0026] すなわち、比較部 6は、曲調検出部 4と 5からユーザの歌声に関する特徴量 CHxと 歌手のボーカル音に関する特徴量 CHyが供給された場合に、特徴量 と特徴量
CHyが類似していれば、制御信号 CNTを出力し、それ以外の場合には制御信号 C NTを出力しない。
[0027] したがって、比較部 6は、ユーザの歌声に関する特徴量 CHxと歌手のボーカル音 に関する特徴量 CHyが供給された場合であっても特徴量 CHxと特徴量 CHyが類似 してレ、なければ制御信号 CNTを出力しなレ、。
[0028] また、ユーザが歌唱していないときの収音データ Dauに基づいて、曲調検出部 4が 曲調検出を行った場合、曲調の性質を有さない特徴量 CHxを検出することとなる。こ のため、ユーザが歌唱していないときの特徴量 CHxと歌手のボーカル音に関する特 徴量 CHyが比較部 6に供給された場合にも、比較部 6は、制御信号 CNTを出力しな レ、。
[0029] ボーカル音量調整部 7は、制御信号 CNTが供給される期間にぉレ、て、音楽データ Dsonに含まれている歌手のボーカル音のデータを除去又はそのデータの値を減衰 させて出力する。
[0030] すなわち、上述したように、曲調検出部 4と 5からユーザの歌声に関する特徴量 CH Xと歌手のボーカル音に関する特徴量 CHyが出力され、比較部 6が特徴量 CHxと特 徴量 CHyが類似していると判断して、制御信号 CNTを出力した場合に、ボーカル音 量調整部 7は、その制御信号 CNTの出力期間だけ、歌手のボーカル音のデータを 除去又は減衰させることにより、伴奏音の音楽データ Dcを生成して出力し、制御信 号 CNTが出力されない期間では、音楽データ Dsonをそのまま音楽データ Dcとして 通過させて出力する。
[0031] 混合部 8は、入力アンプ部 2からの収音データ Dauと、ボーカル音量調整部 7からの 音楽データ Dcとを混合することにより、スピーカ等に供給して音楽再生を行わせるた めの音楽再生用データ Doutを生成して出力する。なお、混合部 8は、ボーカル音量 調整部 7により歌手のボーカル音のデータが除去又は減衰されていない場合、すな わち、制御信号 CNTが出力されない期間では、入力アンプ部 2からの収音データ D auを混合することなぐ音楽データ Dc (すなわち、収音データ Dau)をそのまま音楽再 生用データ Doutとして出力する。
[0032] このように、本実施形態のオーディオ再生装置 1によれば、マイクロホン MICで収音 した音の曲調を表す特徴量 CHxの各パラメータ(以下単に「特徴量 CHx」として説明 する)と、音源部 3から出力される音楽データ Dsonによるボーカル音の曲調を表す特 徴量 CHyの各パラメータ(以下単に「特徴量 CHy」として説明する)との類似性を比 較し、特徴量 CHx, CHyが類似している場合に、ボーカル音を除去又は減衰させて 、収音した音を再生し、また、特徴量 CHx, CHyが類似していない場合には、収音し た音を再生せず、歌手のボーカル音を再生するので、会話や周囲の環境音の影響 を受けることなぐユーザが発声した歌声を精度良く検出することが可能となっている
[0033] つまり、マイクロホン MICで収音した音が環境音や会話等の曲調を有さない音であ る場合には、特徴量 CHxと特徴量 CHyとが類似しなくなるため、比較部 6は、収音し た音をユーザの歌声ではないと判断し、制御信号 CNTを出力しなくなる。このため、 結果的に、ユーザが発声した歌声を精度良く検出することが可能となっている。 [0034] 更に、特徴量 CHxと特徴量 CHyとが類似している場合に限り、ボーカル音を除去 又は減衰させて、収音した音を再生するので、歌手のボーカル音が邪魔することなく カラオケを楽しむことができる。つまり、お手本となるボーカル歌唱データを用意した カラオケ装置でなく通常のオーディオ装置でもカラオケを楽しむことが可能となる。 実施例
[0035] 次に、オーディオ再生装置のより詳細な実施例について、図 2及び図 3を参照して 説明する。
[0036] 図 2は、本実施例に係るオーディオ再生装置の構成を表したブロック図であり、図 1 と同一又は相当する部分を同一符号で示している。図 3は、本実施例のオーディオ 再生装置の動作を説明するためのフローチャートである。
[0037] 図 2において、このオーディオ再生装置 1は、マイクロホント MIC及び入力アンプ部 2と、音源部 3と、入力アンプ部 2側に設けられたバンドパスフィルタ 9と、音源部 3側 に設けられたバンドパスフィルタ 10と、曲調検出部 4, 5、比較部 6、ボーカル音量調 整部 7と、混合部 8とを有して構成されており、曲調検出部 4, 5は、コンピュータプロ グラムに従って動作するデジタルシグナルプロセッサ(DSP)によって形成されている
[0038] バンドパスフィルタ 9は、入力アンプ部 2から出力されるデジタルデータ列力、ら成る 収音データ Dauをデジタル演算処理することによって、人間の発話音声の周波数帯 域成分に相当する音声データ Dvceを抽出し、曲調検出部 4に供給する。
[0039] バンドパスフィルタ 10は、音源部 3から出力される音楽データ Dsonをデジタル演算 処理することにより、人間の発話音声の周波数帯域成分に相当するボーカル音デー タ Dvocを抽出し、曲調検出部 5に供給する。
[0040] 曲調検出部 4は、キー検出部 4a、ビート変化量検出部 4b、コード変化量検出部 4c 、ビート最大値検出部 4d、平均強度検出部 4e、最大強度検出部 4fを有して構成さ れている。
[0041] ここで、キー検出部 4aと、ビート変化量検出部 4b、コード変化量検出部 4c、ビート 最大値検出部 4d、平均強度検出部 4e、最大強度検出部 4fは、所定周期の範囲毎 に音声データ Dvceに対して夫々曲調検出を行うことにより、「調性 (キー: key)」を表 す特徴データ Dxlと、「拍(ビート: beat)の変化量 (BPM)」を表す特徴データ Dx2と、 「和音(コード: chord)の変化量(CPM)」を表す特徴データ Dx3と、「拍の最大レベル 」を表す特徴データ Dx4と、「楽音の平均強度」を表す特徴データ Dx5と、「楽音の最 大強度」を表す特徴データ Dx6とを生成し、これら 6種類の特徴データ Dxl Dx6を 特徴量 CHxとして、比較部 6に供給する。
[0042] 曲調検出部 5は、曲調検出部 4と同様に、キー検出部 5a、ビート変化量検出部 5b、 コード変化量検出部 5c、ビート最大値検出部 5d、平均強度検出部 5e、最大強度検 出部 5fを有して構成されてレ、る。
[0043] そして、キー検出部 5aと、ビート変化量検出部 5b、コード変化量検出部 5c、ビート 最大値検出部 5d、平均強度検出部 5e、最大強度検出部 5fは、曲調検出部 4側に設 けられている各検出部 4a— 4fと同期して動作し、所定周期の範囲毎にボーカル音 データ Dvocに対して夫々曲調検出を行うことにより、「調性 (キー: key)」を表す特徴 データ Dylと、「拍(ビート: beat)の変化量 (BPM)」を表す特徴データ Dy2と、「和音( コード: chord)の変化量(CPM)」を表す特徴データ Dy3と、「拍の最大レベル」を表 す特徴データ Dy4と、「楽音の平均強度」を表す特徴データ Dy5と、「楽音の最大強 度」を表す特徴データ Dy6とを生成し、これら 6種類の特徴データ Dyl— Dy6を特徴 量 CHyとして、比較部 6に供給する。
[0044] 比較部 6は、曲調検出部 4, 5から所定周期に同期して供給される特徴量 CHx, C Hyを上述の各パラメータ毎に比較して、各パラメータ毎の差分値を演算する。
[0045] すなわち、比較部 6は、特徴データ Dxlと Dylの差分と、特徴データ Dx2と Dy2の差 分と、特徴データ Dx3と Dy3の差分と、特徴データ Dx4と Dy4の差分と、特徴データ D x5と Dy5の差分と、特徴データ Dx6と Dy6の差分を演算する。
[0046] そして、各パラメータの差分値が夫々予め決められた基準値の範囲内であれば、マ イク入力されたユーザの歌声と歌手のボーカル音とが類似していると判断して制御信 号 CNTを出力し、各パラメータの差分値が夫々予め決められた基準値の範囲外で あれば、マイク入力されたユーザの歌声と歌手のボーカル音とが類似していないと判 断して、制御信号 CNTを出力しない。
[0047] つまり、比較部 6は、ユーザの発声した歌声に関する特徴量 CHxと歌手のボーカル 音に関する特徴量 CHyとの類似性を比較し、特徴量 CHxと特徴量 CHyが類似して いれば、制御信号 CNTを出力し、それ以外の場合には制御信号 CNTを出力しない ようになつている。
[0048] 次に、ボーカル音量調整部 7は、バンドパスフィルタ 7aと、音声分析合成部 7bと、口 一パスフィルタ 7c及び減算器 7dを有して構成されている。
[0049] ここで、バンドパスフィルタ 7aは、上述のバンドパスフィルタ 10と同様に、音源部 3か ら出力される音楽データ Dsonをデジタル演算処理することにより、人間の発話音声 の周波数帯域成分に相当するボーカル音データ Dvocを抽出し、音声分析合成部 7 bへ供給する。
[0050] 音声分析合成部 7bは、人間の声道の伝達関数の逆特性に近似した音声分析用 適応デジタルフィルタと、人間の声道の伝達関数に近似した音声合成用デジタルフ ィルタとを有している。
[0051] そして、制御信号 CNTが供給されると、音声分析用適応デジタルフィルタがボー力 ル音データ Dvocに基づいて音声認識処理を行い、更に音声認識結果に基づいて 音声合成用デジタルフィルタの各タップ係数を適応的に調整して、音声合成用デジ タルフィルタから、擬似的なボーカル音に相当するインパルス応答列データ hvocを出 力させる。そして、ローパスフィルタ 7cが、インパルス応答列データ hvocの高域ノイズ 成分を除去して減算器 7dへ供給する。
[0052] 減算器 7dは、制御信号 CNTが出力されている期間において、ローパスフィルタ 7c を介して供給される擬似的なボーカル音に相当するインパルス応答列データ hvocと 、音楽データ Dsonとを減算処理することにより、音楽データ Dsonに含まれているボー カル音に関するデータを除去又は減衰させ、減算処理後の音楽データ Dcを混合部 8へ供給する。
[0053] 混合部 8は、入力アンプ部 2からの収音データ Dauと、減算器 7dからの音楽データ Dcとを混合することにより、スピーカ等に供給して再生を行わせるための再生用デー タ Doutを生成して出力する。また、混合部 8は、ボーカル音量調整部 7により歌手の ボーカル音のデータが除去又は減衰されていない場合、すなわち、比較部 6から制 御信号 CNTが出力されない期間では、入力アンプ部 2からの収音データ Dauを混合 することなぐ音楽データ Dc (すなわち、収音データ Dau)をそのまま音楽再生用デー タ Doutとして出力する。
[0054] 次に、力かる構成を有する本実施例のオーディオ再生装置 1の動作について図 3を 参照して説明する。
[0055] 図 3において、ユーザが音源部 3である情報再生装置に MDや CD、 DVD等の各 種ストレージ媒体を装填して、例えばカラオケ機能をオン操作して再生を開始したり、 又は、無線受信機をオン操作するとともに例えば力ラオケ機能をオン操作してラジオ 放送等の受信を開始させたり、インターネット等の通信網を介して配信されてくる音 楽等を受信して再生開始の操作を行うとともに例えばカラオケ機能をオン操作すると 、本実施例のオーディオ再生装置 1が起動してカラオケ動作を開始し、ステップ ST1 におレ、て音源部 3が再生を開始する。
[0056] 次に、ステップ ST2, ST3において、曲調検出部 4, 5が互いに同期を取りながら並 列処理を行い、収音データ Dauから特徴量 CHx、音楽データ Dsonから特徴量 CHy を検出する。
[0057] ステップ ST4では、比較部 6が、特徴量 CHxと CHyを比較することによって相互の 類似性を判断し、類似性があると判断するとステップ ST5の処理を行ってからステツ プ ST6へ移行し、類似性がなレ、(収音データがないことを含む)と判断すると、ステツ プ ST5の処理を行わず直接ステップ ST6へ移行する。
[0058] ステップ ST5では、ボーカル音量調整部 7が、音楽データ Dsonに含まれているボ 一カル音データ Dvocに基づいて擬似的なボーカル音に相当するインパルス応答列 データ hvocを生成すると共に、音楽データ Dsonからインパルス応答列データ hvocを 減算することによって、ボーカル音に関するデータを除去又は減衰させ、伴奏音の音 楽データ Dcを生成する。更に、混合部 8が伴奏音の音楽データ Dcと収音データ Dau とを混合することによって音楽再生用データ Doutを生成して出力する。
[0059] したがって、ステップ ST4において、比較部 6が類似性なしと判断した場合には、ボ 一カル音量調整部 7が音楽データ Dsonからインノ^レス応答列データ hvocを減算す る等の処理を行わないため、混合部 8からは、実質的に音源部 3から出力される音楽 データ Dsonと入力アンプ部 2から出力される収音データ Dauとを混合せずに音楽デ ータ Dsonを音楽再生用データ Doutとして出力する。
[0060] ステップ ST6では、音源部 3のカラオケ機能がオフ操作されているか否かに応じて 、カラオケ動作を継続又は停止する。すなわち、音源部 3のカラオケ機能がオフ操作 されていないと、ステップ ST2, ST3に戻って処理を繰り返し、音源部 3のカラオケ機 能がオフ操作されるとカラオケ動作を終了する。
[0061] 以上説明したように、本実施例のオーディオ再生装置 1によれば、マイクロホン Ml Cで収音した音の曲調を表す特徴量 CHxと、音源部 3からの音楽データのボーカル 音の特徴量 CHyとを比較して、それらが類似している場合に限り、音楽データのボ 一カル音を除去又は減衰させて、収音した音を再生するので、会話や周囲の環境音 の影響を受けることなぐユーザが発声した歌声を精度良く検出することができ、また 、お手本となるボーカル歌唱データを用意したカラオケ装置でなく通常のオーディオ 装置でもカラオケを楽しむことが可能となる。

Claims

請求の範囲
[1] 音を収音する収音手段から出力される収音信号と音源手段から出力される音楽信 号とを混合して出力する混合手段を備えたオーディオ再生装置であって、
前記収音手段から出力される収音信号の曲調を検出する第 1の曲調検出手段と、 音源手段から出力される音楽信号のボーカル音の曲調を検出する第 2の曲調検出 手段と、
前記第 1 ,第 2の曲調検出手段が検出した前記収音信号の曲調の特徴と前記ボー カル音の曲調の特徴との類似性を判断する比較手段と、
前記比較手段が類似性有りと判断すると、前記音源手段から混合手段へ供給され る前記音楽信号のボーカル音を除去又は減衰させるボーカル音量調整手段と、を具 備することを特徴とするオーディオ再生装置。
[2] 前記第 1 ,第 2の曲調検出手段は、前記曲調の特徴として、調性と、柏の変化量と、 和音の変化量と、柏の最大レベルと、楽音の平均強度と、楽音の最大強度を検出す ることを特徴とする請求項 1に記載のオーディオ再生装置。
[3] 音を収音する収音手段から出力される収音信号と音源手段から出力される音楽信 号とを混合して出力する混合手段を備えたオーディオ再生装置におけるオーディオ 再生方法であって、
前記収音手段から出力される収音信号の曲調を検出する第 1の曲調検出工程と、 音源手段から出力される音楽信号のボーカル音の曲調を検出する第 2の曲調検出 工程と、
前記第 1 ,第 2の曲調検出工程で検出した前記収音信号の曲調の特徴と前記ボー カル音の曲調の特徴との類似性を判断する比較工程と、
前記比較工程で類似性有りと判断すると、前記音源手段から混合手段へ供給され る前記音楽信号のボーカル音を除去又は減衰させるボーカル音量調整工程と、を具 備することを特徴とするオーディオ再生方法。
PCT/JP2005/005149 2004-05-14 2005-03-22 オーディオ再生装置 WO2005111997A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006513500A JPWO2005111997A1 (ja) 2004-05-14 2005-03-22 オーディオ再生装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-145047 2004-05-14
JP2004145047 2004-05-14

Publications (1)

Publication Number Publication Date
WO2005111997A1 true WO2005111997A1 (ja) 2005-11-24

Family

ID=35394380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/005149 WO2005111997A1 (ja) 2004-05-14 2005-03-22 オーディオ再生装置

Country Status (2)

Country Link
JP (1) JPWO2005111997A1 (ja)
WO (1) WO2005111997A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256879A (ja) * 2006-03-27 2007-10-04 Yamaha Corp オーディオデータ再生装置および携帯端末装置
JP2008145777A (ja) * 2006-12-11 2008-06-26 Yamaha Corp 楽音信号発生装置及びカラオケ装置
JP2015132724A (ja) * 2014-01-14 2015-07-23 ヤマハ株式会社 録音方法
US9953545B2 (en) 2014-01-10 2018-04-24 Yamaha Corporation Musical-performance-information transmission method and musical-performance-information transmission system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04238384A (ja) * 1991-01-22 1992-08-26 Brother Ind Ltd 練習機能付き電子音楽再生装置
JPH06295193A (ja) * 1993-04-09 1994-10-21 Matsushita Electric Ind Co Ltd 再生装置
JPH0720861A (ja) * 1993-06-30 1995-01-24 Casio Comput Co Ltd 自動演奏装置
JPH08115091A (ja) * 1994-10-14 1996-05-07 Sharp Corp 歌唱評価機能付き音響機器
JPH08146979A (ja) * 1994-11-25 1996-06-07 Matsushita Electric Ind Co Ltd 音声制御装置
JP2004102148A (ja) * 2002-09-12 2004-04-02 Taito Corp リズム感採点機能を有するカラオケ採点装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04238384A (ja) * 1991-01-22 1992-08-26 Brother Ind Ltd 練習機能付き電子音楽再生装置
JPH06295193A (ja) * 1993-04-09 1994-10-21 Matsushita Electric Ind Co Ltd 再生装置
JPH0720861A (ja) * 1993-06-30 1995-01-24 Casio Comput Co Ltd 自動演奏装置
JPH08115091A (ja) * 1994-10-14 1996-05-07 Sharp Corp 歌唱評価機能付き音響機器
JPH08146979A (ja) * 1994-11-25 1996-06-07 Matsushita Electric Ind Co Ltd 音声制御装置
JP2004102148A (ja) * 2002-09-12 2004-04-02 Taito Corp リズム感採点機能を有するカラオケ採点装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256879A (ja) * 2006-03-27 2007-10-04 Yamaha Corp オーディオデータ再生装置および携帯端末装置
JP4591391B2 (ja) * 2006-03-27 2010-12-01 ヤマハ株式会社 オーディオデータ再生装置および携帯端末装置
JP2008145777A (ja) * 2006-12-11 2008-06-26 Yamaha Corp 楽音信号発生装置及びカラオケ装置
US9953545B2 (en) 2014-01-10 2018-04-24 Yamaha Corporation Musical-performance-information transmission method and musical-performance-information transmission system
JP2015132724A (ja) * 2014-01-14 2015-07-23 ヤマハ株式会社 録音方法
US9959853B2 (en) 2014-01-14 2018-05-01 Yamaha Corporation Recording method and recording device that uses multiple waveform signal sources to record a musical instrument

Also Published As

Publication number Publication date
JPWO2005111997A1 (ja) 2008-03-27

Similar Documents

Publication Publication Date Title
US9224375B1 (en) Musical modification effects
US5889223A (en) Karaoke apparatus converting gender of singing voice to match octave of song
US7974838B1 (en) System and method for pitch adjusting vocals
CN102790932B (zh) 区分信号信息内容和控制信号处理功能的音频系统和方法
US5811708A (en) Karaoke apparatus with tuning sub vocal aside main vocal
US8796527B2 (en) Tone reproduction apparatus and method
US20120294459A1 (en) Audio System and Method of Using Adaptive Intelligence to Distinguish Information Content of Audio Signals in Consumer Audio and Control Signal Processing Function
TW594602B (en) Device and method for learning and evaluating accompanied singing
US5966687A (en) Vocal pitch corrector
US7851688B2 (en) Portable sound processing device
US9148104B2 (en) Reproduction apparatus, reproduction method, provision apparatus, and reproduction system
CN107195288A (zh) 一种助唱方法及系统
JP2002215195A (ja) 音楽信号処理装置
CN101448186A (zh) 扬声器音效自动调整系统及方法
JP4060993B2 (ja) オーディオ情報記憶制御方法及び装置並びにオーディオ情報出力装置。
WO2005111997A1 (ja) オーディオ再生装置
US5684262A (en) Pitch-modified microphone and audio reproducing apparatus
JP2005530213A (ja) 音声信号処理装置
GB2431282A (en) Automatic playing and recording apparatus for accoustic/electric guitar
US20050100170A1 (en) Method of recording and playing compact disk quality sound signals for a doorbell system, and a receiver embodying such method
US20230057082A1 (en) Electronic device, method and computer program
JP2005037845A (ja) 音楽再生装置
US7495166B2 (en) Sound processing apparatus, sound processing method, sound processing program and recording medium which records sound processing program
JP3554649B2 (ja) 音声処理装置とその音量レベル調整方法
JP2005107088A (ja) 歌唱音声評価装置、カラオケ採点装置及びそのプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006513500

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase