JP3176273B2 - Audio signal processing device - Google Patents

Audio signal processing device

Info

Publication number
JP3176273B2
JP3176273B2 JP30304695A JP30304695A JP3176273B2 JP 3176273 B2 JP3176273 B2 JP 3176273B2 JP 30304695 A JP30304695 A JP 30304695A JP 30304695 A JP30304695 A JP 30304695A JP 3176273 B2 JP3176273 B2 JP 3176273B2
Authority
JP
Japan
Prior art keywords
specific part
input
audio signal
harmony
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30304695A
Other languages
Japanese (ja)
Other versions
JPH08286689A (en
Inventor
保夫 蔭山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP30304695A priority Critical patent/JP3176273B2/en
Priority to US08/599,763 priority patent/US5712437A/en
Priority to DE69608826T priority patent/DE69608826T2/en
Priority to CNB961024089A priority patent/CN1146858C/en
Priority to EP96102092A priority patent/EP0726559B1/en
Publication of JPH08286689A publication Critical patent/JPH08286689A/en
Application granted granted Critical
Publication of JP3176273B2 publication Critical patent/JP3176273B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、歌唱等の旋律音
声信号に対してハーモニー音声を付加する音声信号処理
装置に関し、特に、複数の旋律音声信号が入力されたと
きに、このうち特定の旋律の音声信号のみに対してハー
モニーを付加する音声信号処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio signal processing apparatus for adding a harmony voice to a melody voice signal such as a singing voice, and more particularly to a melody voice signal when a plurality of melody voice signals are input. The present invention relates to an audio signal processing device that adds harmony to only the audio signal of the audio signal.

【0002】[0002]

【従来の技術】カラオケの歌唱を盛り上げるために、歌
唱者の歌唱に対してハーモニー(たとえば、歌唱の旋律
に対して3度上の旋律)の音声を付加して出力するもの
が提案されている。ハーモニー機能としては、歌唱音声
信号をピッチシフトしてハーモニー音を生成するものが
一般的である。
2. Description of the Related Art In order to excite the singing of karaoke, it has been proposed to output a singer's singing with a harmony sound (for example, a melody three times higher than the singing melody). . As the harmony function, a harmony sound is generally generated by shifting the pitch of a singing voice signal.

【0003】また、カラオケ曲のなかには、いわゆるデ
ュエット曲など複数(二人)で歌唱するものもある。
Some karaoke songs, such as so-called duet songs, are sung by a plurality (two people).

【0004】[0004]

【発明が解決しようとする課題】しかし、上記デュエッ
ト曲の場合、二人の歌唱音声信号が混ざって入力される
が、従来のハーモニー付加機能を有するカラオケ装置で
は、この全ての歌唱音声に対してハーモニーをつけてし
まうため、複数パートが混ざりあった不明瞭な歌唱にな
ってしまい、カラオケ歌唱を盛り上げることができず、
かえって、二人の歌唱音声信号を損なってしまう欠点が
あった。
However, in the case of the above-mentioned duet music, two singing voice signals are mixed and input. In a conventional karaoke apparatus having a harmony adding function, all singing voices are input. Because it adds harmony, it becomes an unclear song with multiple parts mixed, and it is not possible to excite the karaoke song,
On the contrary, there is a disadvantage that the singing voice signal of the two is damaged.

【0005】この発明は、複数の歌唱音声信号が入力さ
れた場合でも、そのなかから特定のパートのみを抽出し
てハーモニーを付加することのできるカラオケ装置を提
供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a karaoke apparatus capable of extracting harmony by extracting only a specific part from a plurality of singing voice signals even when a plurality of singing voice signals are input.

【0006】[0006]

【課題を解決するための手段】請求項1の発明は、特定
パート選択手段(21、23)、特定パート成分分離手
段(25)、ピッチシフト手段(26)、合成手段(2
8)を備える音声信号処理装置であって、特定パート選
択手段(21、23)は、複数パートの音声が混合され
た混合信号から各パートの基本周波数を抽出するととも
に、特定パートの旋律情報または各パートの基本周波数
の高低の順位に基づき、前記複数パートのなかから特定
パート選択して、該特定パートを指示する選択情報を
特定パート成分分離手段(25)に出力し、特定パート
成分分離手段(25)は、混合信号を各パートの音声信
号に分離するとともに、特定パート選択手段(21、2
3)から入力された選択情報によって指示される特定
ートの音声信号をピッチシフト手段(26)に出力し、
ピッチシフト手段(26)は、入力した音声信号をピッ
チシフトしてハーモニー音声信号を生成し、合成手段
(28)は、混合信号、および、ハーモニー音声信号を
合成して出力することを特徴とする。
According to the first aspect of the present invention, a specific part selecting means (21, 23), a specific part component separating means (25), a pitch shifting means (26), a synthesizing means (2)
8) An audio signal processing device comprising 8), wherein the specific part selecting means (21, 23) extracts a fundamental frequency of each part from a mixed signal obtained by mixing sounds of a plurality of parts, and acquires melody information of the specific part or based on the level of rank of the fundamental frequency of each part, said select a specific part from among the plurality of parts, and outputs the selection information indicating the specific part to <br/> specific part component separating means (25), The specific part component separating means (25) separates the mixed signal into audio signals of the respective parts, and separates the specific part selecting means (21, 2).
Outputting a sound signal of a specific part indicated by the selection information inputted from 3) to the pitch shift means (26);
The pitch shift means (26) generates a harmony audio signal by pitch-shifting the input audio signal, and the synthesizing means (28) synthesizes and outputs the mixed signal and the harmony audio signal. .

【0007】請求項2の発明は、特定パート選択手段
(41、42、43)、切換入力手段(45)、ピッチ
シフト手段(46)、合成手段(47、49)を備える
音声信号処理装置であって、特定パート選択手段(4
1、42、43)は、複数パートの音声信号を別々
力し、各パートの基本周波数をそれぞれ検出するととも
に、特定パートの旋律情報または各パートの基本周波数
の高低の順位に基づき、前記複数パートのなかから特定
パート選択して、該特定パートを指示する選択情報を
切換入力手段(45)に出力し、切換入力手段(45)
は、特定パート選択手段(41、42、43)から入力
された選択情報によって指示される特定パートの音声信
ピッチシフト手段(46)に出力し、ピッチシフト
手段(46)は、入力した音声信号をピッチシフトして
ハーモニー音声信号を生成し、合成手段(47、49)
は、複数パートの音声信号、および、ハーモニー音声信
号を合成して出力することを特徴とする。
According to a second aspect of the present invention, there is provided an audio signal processing apparatus including specific part selecting means (41, 42, 43), switching input means (45), pitch shifting means (46), and synthesizing means (47, 49). Then, specific part selection means (4
1,42,43) is separately input <br/> force audio signals of a plurality of parts, and detects the fundamental frequency of each part respectively, ranking the level of the fundamental frequency of the melody information or each part of a particular part A specific part is selected from the plurality of parts , and selection information designating the specific part is output to the switching input means (45), and the switching input means (45) is selected.
Is input from specific part selecting means (41, 42, 43)
The voice signal of the specific part specified by the selected information is output to the pitch shift means (46). The pitch shift means (46) generates a harmony voice signal by pitch-shifting the input voice signal. (47, 49)
Is characterized by combining and outputting a plurality of part audio signals and a harmony audio signal.

【0008】[0008]

【0009】この発明は、たとえばカラオケ装置に適用
されるものであり、この場合、音声信号は、歌唱用のマ
イクとそのマイクに接続されるアンプ等の機器から入力
される。入力された複数パートの音声信号から特定パー
トの音声信号を選択する。特定パートは、例えば、主旋
律パートやハーモニーパート,いわゆる合いの手パート
などである。このような特定パートを判定する手法とし
ては、予め記憶しておいた特定パート情報に基づき、こ
れに対応するものを特定パートと判定するようにしても
よく、また、あるルール、例えば最高音の音声信号を
パートとするなどのルールに基づいて判定してもよ
い。このようにして特定パートとして判定された音声信
号を前記入力された複数パートの音声信号から抽出す
る。複数パートの音声信号が別系統で入力されている場
合には、そのうち特定パートの音声信号が入力される系
統を選択すればよく、複数パートの音声信号が1系統で
入力されている場合には、そのなかから前記特定パート
の基本倍音に該当する周波数成分のみを分離抽出するな
どの方式で特定パートの音声信号を抽出する。この抽出
された特定パートの音声信号をピッチシフトしてハーモ
ニー音声信号を生成する。ピッチシフトの方式は単純に
読出クロックを変える方式もあり、また、フォルマント
を移動させずに、周波数成分のみシフトする方式もあ
る。
The present invention is applied to , for example, a karaoke apparatus. In this case , an audio signal is input from a singing microphone and an apparatus such as an amplifier connected to the microphone.
Is done. An audio signal of a specific part is selected from the input audio signals of a plurality of parts . The specific part is, for example, a main melody part or a harmony part, a so-called hand part. As a method for determining such a specific part, a corresponding part may be determined as a specific part based on the specific part information stored in advance, or a certain rule, for example, Special audio signal
The determination may be based on rules such as a fixed part. The audio signal determined as the specific part is extracted from the input audio signals of the plurality of parts. When audio signals of a plurality of parts are input in different systems, a system to which an audio signal of a specific part is input may be selected. When audio signals of a plurality of parts are input in a single system, Then, the audio signal of the specific part is extracted by a method such as separating and extracting only the frequency component corresponding to the fundamental harmonic of the specific part. A harmony sound signal is generated by pitch-shifting the extracted sound signal of the specific part. As a pitch shift method, there is a method of simply changing a read clock, and a method of shifting only a frequency component without moving a formant.

【0010】このようにして生成されたハーモニー音声
信号を入力された複数パートの音声信号に合成すること
によって多彩なハーモニーを伴った音声信号を出力する
ことができる。
By synthesizing the harmony audio signal generated in this way with the input audio signals of a plurality of parts, it is possible to output an audio signal with various harmony.

【0011】[0011]

【発明の実施の形態】図面を参照してこの発明の実施形
態であるカラオケ装置について説明する。このカラオケ
装置は、いわゆる音源カラオケ装置である。音源カラオ
ケ装置とは、楽曲データで音源装置を駆動することによ
りカラオケ演奏音を発生するカラオケ装置である。楽曲
データとは、音高や発音タイミングを指定する演奏デー
タ列などの複数トラックからなるシーケンスデータであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A karaoke apparatus according to an embodiment of the present invention will be described with reference to the drawings. This karaoke device is a so-called sound source karaoke device. A sound source karaoke device is a karaoke device that generates a karaoke performance sound by driving the sound source device with music data. The music data is sequence data composed of a plurality of tracks, such as a performance data string that specifies a pitch and a sound generation timing.

【0012】また、このカラオケ装置は、歌唱者の歌唱
音声信号に3度や5度の音程のハーモニー音声信号を付
加するハーモニー付加機能を有している。ハーモニー音
声信号は、歌唱者の歌唱音声をピッチシフトすることに
より3度や5度などの音程を有する音声信号を生成し、
これをハーモニー音声信号として出力するものである。
さらに、このカラオケ装置は、デュエット曲で2人が2
パートに別れて同時に歌っているときでも、そのうちど
ちらが主旋律パートであるかを判断しその主旋律パート
の歌唱音声信号に対してのみハーモニーを付加する。
Further, the karaoke apparatus has a harmony adding function of adding a harmony voice signal having a pitch of 3rd or 5th to a singing voice signal of a singer. The harmony voice signal generates a voice signal having a pitch such as 3rd or 5th by shifting the pitch of the singer's singing voice,
This is output as a harmony audio signal.
In addition, this karaoke device uses two duet songs.
Even when a part is sung simultaneously, it is determined which of the parts is the main melody part, and harmony is added only to the singing voice signal of the main melody part.

【0013】図1は同カラオケ装置の要部のブロック図
である。同図はカラオケ演奏音(伴奏音)および歌唱音
の音声信号処理部のみを図示しており、歌詞や背景画像
などの表示処理部や選曲部は従来より一般的な構成であ
るため図示を省略している。カラオケ演奏を行うための
楽曲データはHDD15に記憶されている。HDD15
には楽曲データが数千曲分記憶されており、図示しない
選曲部によってそのうちの1曲が選択されると、シーケ
ンサ14が該選択された楽曲データを読み込む。シーケ
ンサ14は読み込んだ楽曲データを記憶するメモリと、
この楽曲データをテンポクロックに基づいて順次読み出
すシーケンスプログラム処理部を有しており、読み出さ
れたデータはそのトラックに応じて所定の処理部に出力
される。
FIG. 1 is a block diagram of a main part of the karaoke apparatus. FIG. 1 shows only a karaoke performance sound (accompaniment sound) and a singing sound signal processing unit, and a display processing unit such as lyrics and a background image and a music selection unit are omitted from the drawing since they have a more general configuration than before. are doing. Music data for performing a karaoke performance is stored in the HDD 15. HDD15
The song data is stored for thousands of songs. When one of the songs is selected by a song selection unit (not shown), the sequencer 14 reads the selected song data. The sequencer 14 has a memory for storing the read music data,
There is a sequence program processing unit for sequentially reading out the music data based on the tempo clock, and the read data is output to a predetermined processing unit according to the track.

【0014】ここで、図2を参照して楽曲データの構成
を説明する。同図(A)において、楽曲データは、曲名
やジャンル等が書き込まれたヘッダに続いて、楽音トラ
ック,主旋律トラック,ハーモニートラック,歌詞トラ
ック,音声トラック,効果トラックおよび音声データ部
からなっている。このうち、主旋律トラックは同図
(B)に示すように複数のイベントデータと各イベント
データ間の時間間隔を示すデュレーションデータΔtか
らなるシーケンスデータで構成されている。シーケンサ
14は、カラオケ演奏時に所定のテンポクロックでΔt
をカウントし、このΔtをカウントアップしたときこれ
に続くイベントデータを読み出す。読み出されたこの主
旋律トラックのイベントデータは、主旋律選択用のデー
タとして後述の主旋律選択部23に出力される。
Here, the configuration of the music data will be described with reference to FIG. In FIG. 3A, the music data is composed of a musical tone track, a main melody track, a harmony track, a lyric track, an audio track, an effect track, and an audio data section, following a header in which a music name, a genre and the like are written. Of these, the main melody track is composed of sequence data including a plurality of event data and duration data Δt indicating a time interval between the event data as shown in FIG. The sequencer 14 uses a predetermined tempo clock at the time of karaoke performance
Is counted, and when this Δt is counted up, the subsequent event data is read out. The read event data of the main melody track is output to the main melody selection unit 23 described later as data for selecting a main melody.

【0015】主旋律トラック以外のトラック、すなわ
ち、楽音トラック,ハーモニートラック,歌詞トラッ
ク,音声トラック,効果トラックも主旋律トラックと同
様、複数のイベントデータおよびデュレーションデータ
列からなるシーケンスデータで構成されている。楽音ト
ラックは、カラオケ演奏用のメロディトラック,リズム
トラック,コードトラックなどの複数のシーケンストラ
ックで構成されている。カラオケ演奏時にシーケンサ1
4がこの楽音トラックからイベントデータを読み出す
と、そのデータを音源16に出力する。ハーモニートラ
ックは、主旋律に付加すべきハーモニー旋律を記憶した
トラックであり、このイベントデータは、歌唱分析部2
2やピッチシフト部26に出力される。音源16はこの
データに基づいて楽音信号を発生する。また、歌詞トラ
ックは、画面に歌詞を表示するためのシーケンストラッ
クである。シーケンサ14がこの歌詞トラックのイベン
トデータが読み出したとき、これを図示しない表示制御
部に出力する。表示制御部はこのイベントデータに基づ
いて歌詞の表示を制御する。音声トラックは、音源16
で合成することが困難なコーラス音声や合いの手などの
人声信号の再生タイミングを指定するトラックである。
人声信号は音声データとして音声データ部に複数記憶さ
れている。カラオケ演奏中にシーケンサ14が音声トラ
ックのイベントデータを読み出したとき、そのイベント
データで指定される音声データを後述の加算部28に出
力する。これにより、この音声データがカラオケ演奏と
してミキシングされる。効果トラックは音源16に含ま
れる効果部(DSPで構成される)を制御するためのト
ラックである。効果部が付与する効果としてはリバーブ
などがある。このイベントデータは音源16に出力され
る。
Tracks other than the main melody track, that is, tone tracks, harmony tracks, lyrics tracks, audio tracks, and effect tracks, like the main melody track, are composed of sequence data including a plurality of event data and duration data strings. The musical sound track is composed of a plurality of sequence tracks such as a melody track for karaoke performance, a rhythm track, and a chord track. Sequencer 1 when performing karaoke
4 reads out the event data from the musical sound track, and outputs the data to the sound source 16. The harmony track is a track in which a harmony melody to be added to the main melody is stored.
2 and output to the pitch shift unit 26. The sound source 16 generates a tone signal based on this data. The lyrics track is a sequence track for displaying lyrics on the screen. When the sequencer 14 reads out the event data of the lyrics track, it outputs this to a display control unit (not shown). The display controller controls the display of lyrics based on the event data. The audio track is a sound source 16
This is a track for designating the reproduction timing of a human voice signal such as a chorus voice or a hand that is difficult to synthesize with a.
A plurality of human voice signals are stored in the voice data section as voice data. When the sequencer 14 reads the event data of the audio track during the karaoke performance, the sequencer 14 outputs the audio data specified by the event data to the adder 28 described later. As a result, the audio data is mixed as a karaoke performance. The effect track is a track for controlling an effect section (comprising a DSP) included in the sound source 16. The effect provided by the effect section includes reverb and the like. This event data is output to the sound source 16.

【0016】音源16は、シーケンサ14から入力され
た楽音イベントデータに基づいて、そのデータで指定さ
れる音色,音高,音量の楽音信号を形成する。この楽音
信号はDSP13内の加算部28に入力される。
The tone generator 16 forms a tone signal having a tone, pitch and volume specified by the tone event data input from the sequencer 14 based on the tone event data. This tone signal is input to the adder 28 in the DSP 13.

【0017】一方、このカラオケ装置は、1本の歌唱用
のマイク10を有しており、デュエット曲などで二人が
歌唱した場合、2人の歌唱音は該1本のマイク10に入
力される。マイク10から入力された歌唱の音声信号は
アンプ11で増幅され、ADC12によってディジタル
信号に変換される。このディジタル信号に変換された音
声信号がDSP13に入力される。DSPはマイクロプ
ログラムによって種々の機能を実現するが、このDSP
13は、同図のブロックに示すような機能を実現するた
めのマイクロプログラムを記憶しており、前記ディジタ
ル信号の1サンプリング周期にこの図示の機能を全て実
行する速度でこのマイクロプログラムを実行している。
On the other hand, this karaoke apparatus has one singing microphone 10, and when two people sing in a duet song or the like, the singing sounds of the two are input to the one microphone 10. You. A singing voice signal input from the microphone 10 is amplified by the amplifier 11 and converted to a digital signal by the ADC 12. The audio signal converted to the digital signal is input to the DSP 13. The DSP realizes various functions by a microprogram.
Numeral 13 stores a microprogram for realizing the function shown in the block of FIG. 3, and executes this microprogram at a speed for executing all the functions shown in one sampling cycle of the digital signal. I have.

【0018】同図において、ADC12から入力された
ディジタル音声信号は自己相関分析部21およびディレ
イ24,27に入力される。自己相関分析部21は、入
力された音声信号の各周波数成分の繰り返し周期を分析
し、この繰り返し周期から複数の歌唱者の歌唱音声信号
の基本周波数を検出する。
In FIG. 1, a digital audio signal input from an ADC 12 is input to an autocorrelation analyzer 21 and delays 24 and 27. The autocorrelation analyzer 21 analyzes the repetition period of each frequency component of the input audio signal, and detects the fundamental frequency of the singing voice signals of a plurality of singers from the repetition period.

【0019】図3は、前記自己相関分析部2における自
己相関分析の手法を説明する図である。周期信号の自己
相関関数も、信号と同じ周期の周期関数となることか
ら、周期Pサンプルの信号の自己相関関数は信号の時間
原点に無関係に、0,±P,±2P,…サンプル目に極
大値に達する。そこで、自己相関関数の最初の極大点を
見つけることで、その周期を推定することができる。同
図において、極大値は整数倍でない複数の位置に現れて
おり、これらが2人の歌唱者による異なる周波数の歌唱
信号波の周期を示していることがわかる。これで、基本
周波数が割り出される。自己相関分析部21は、この2
つの基本周波数を歌唱分析部22および主旋律選択部2
3に入力する。また、有声音は明確な周期波形になるの
に対し、無声音はノイズ的な波形になるため、これによ
り有声音/無声音の識別をすることができる。この識別
結果は歌唱分析部22に入力される。
FIG. 3 is a diagram for explaining a method of autocorrelation analysis in the autocorrelation analyzer 2. Since the autocorrelation function of the periodic signal is also a periodic function having the same period as that of the signal, the autocorrelation function of the signal of the period P samples is 0, ± P, ± 2P,. The maximum is reached. Therefore, by finding the first maximum point of the autocorrelation function, its period can be estimated. In the figure, it can be seen that the local maxima appear at a plurality of positions that are not integral multiples, and these indicate the periods of the singing signal waves of different frequencies by the two singers. Thus, the fundamental frequency is determined. The auto-correlation analysis unit 21
Singing analysis section 22 and main melody selection section 2
Enter 3 In addition, a voiced sound has a clear periodic waveform, whereas an unvoiced sound has a noise-like waveform, so that voiced / unvoiced sound can be distinguished. This identification result is input to the singing analysis unit 22.

【0020】主旋律選択部23は、シーケンサ14から
入力される主旋律情報(主旋律トラックのイベントデー
タ)に基づいて、自己相関分析部21から入力された複
数パートの歌唱音声信号の基本周波数のうちどれが主旋
律パートの歌唱音声信号であるかを割り出す。この選択
情報は主旋律成分分離部25に入力される。
Based on the main melody information (event data of the main melody track) input from the sequencer 14, the main melody selection unit 23 selects which of the fundamental frequencies of the singing voice signals of a plurality of parts input from the autocorrelation analysis unit 21. Determine whether it is a singing voice signal of the main melody part. This selection information is input to the main melody component separation unit 25.

【0021】一方、歌唱分析部22では自己相関分析部
21から入力される基本周波数を含む分析情報に基づい
て、現在の歌唱状態を分析する。歌唱状態とは、現在歌
っている歌唱者の人数が0人(間奏等の無音区間)であ
るか、1人(ソロまたは掛け合い)であるか、2人以上
(デュエット中)であるかの状態である。歌唱分析部2
2はこれを判断し、さらに2人以上が歌っている場合に
主旋律以外のパートの音声信号がハーモニーになってい
ないかなどの状態を検出する。ハーモニーの検出はシー
ケンサから入力されるハーモニー情報(ハーモニートラ
ックのイベントデータ)に基づいて判断される。また、
主旋律の発声が有声音であるか無声音であるかも判定す
る。
On the other hand, the singing analysis section 22 analyzes the current singing state based on the analysis information including the fundamental frequency input from the autocorrelation analysis section 21. The singing state is a state in which the number of singers currently singing is 0 (silent section such as interlude), 1 (solo or negotiating), or 2 or more (during a duet). It is. Singing analysis part 2
2 judges this, and detects a state such as whether or not the audio signal of the part other than the main melody is in harmony when two or more people sing. Harmony is detected based on harmony information (event data of a harmony track) input from the sequencer. Also,
It is also determined whether the melody is voiced or unvoiced.

【0022】歌唱分析部22は、この判定結果に基づい
て主旋律選択部23や主旋律成分分離部25の動作内容
を制御する。歌唱状態が無音区間であると判断した場合
には、主旋律選択も主旋律成分分析も不要であるため、
主旋律選択部23および主旋律成分分離部25の動作を
この期間休止させる。また、2人のうち一方が主旋律を
歌唱し、他方がそれに対するハーモニーを歌唱している
場合には、敢えてこれに重ねてハーモニー音を生成する
必要がないため、主旋律成分分離部25を休止させる。
主旋律分離部25が動作を休止すると後段のピッチシフ
ト部26に入力される音声信号がないためピッチシフト
によるハーモニー音の生成も休止することになる。
The singing analysis section 22 controls the operation of the main melody selecting section 23 and the main melody component separating section 25 based on the result of the determination. When it is determined that the singing state is a silent section, neither the main melody selection nor the main melody component analysis is required,
The operations of the main melody selecting unit 23 and the main melody component separating unit 25 are suspended during this period. When one of the two sings the main melody and the other sings the harmony for it, the main melody component separation unit 25 is paused because it is not necessary to generate a harmony sound over it. .
When the main melody separation unit 25 stops its operation, there is no audio signal input to the subsequent pitch shift unit 26, so that the generation of the harmony sound by the pitch shift also stops.

【0023】なお、一方が主旋律を歌唱し他方がハーモ
ニーを歌唱している場合には、このハーモニー歌唱と異
なるハーモニー音を指定してピッチシフトするようにし
てもよい。たとえば、他方の歌唱者が主旋律の3度上を
歌唱している場合には、ピッチシフト部26は主旋律を
5度上にピッチシフトするなどである。
When one sings the main melody and the other sings a harmony, the pitch may be shifted by specifying a harmony sound different from the harmony singing. For example, when the other singer sings three times above the main melody, pitch shifter 26 shifts the main melody five degrees above.

【0024】また、現在歌唱者の一方しか歌っていない
ことが検出された場合には、歌われている旋律が主旋律
であることは明らかであるため、主旋律選択部23の動
作を休止させ、主旋律成分分離部25に入力された歌唱
音声信号をスキップさせるように指示する。これによ
り、1人の歌唱音声信号がディレイ24から直接ピッチ
シフト部26に入力される。
If it is detected that only one of the singers is currently singing, it is clear that the melody being sung is the main melody. It instructs the component separating unit 25 to skip the singing voice signal input. Thereby, one singing voice signal is directly input from the delay 24 to the pitch shift unit 26.

【0025】さらに、現在の主旋律の音声が有声音であ
るか無声音であるかで主旋律成分分離部25の分離アル
ゴリズムを切り換える。すなわち、有声音の場合には、
比較的単純に基音(基本周波数)の倍音で歌唱音声信号
が構成されているため、この原則に基づいて主旋律成分
分離を行う。一方、無声音の場合には、非線形なノイズ
成分が多く含まれているため、上記有声音とは異なる手
法で主旋律の歌唱音声信号を分離する。
Further, the separation algorithm of the main melody component separation unit 25 is switched depending on whether the voice of the current main melody is a voiced sound or an unvoiced sound. That is, for voiced sounds,
Since the singing voice signal is relatively simply composed of harmonics of the fundamental tone (fundamental frequency), the main melody component is separated based on this principle. On the other hand, since the unvoiced sound contains many non-linear noise components, the singing voice signal of the main melody is separated by a method different from the above-mentioned voiced sound.

【0026】主旋律成分分離部25により分離された主
旋律の音声信号、または、主旋律成分分離部25をスキ
ップした単独歌唱の音声信号はピッチシフト部26に入
力される。ピッチシフト部26は、入力された音声信号
をシーケンサ14から入力されるハーモニー情報に基づ
いてピッチシフトし、ハーモニーの音声信号として加算
部28に出力する。
The voice signal of the main melody separated by the main melody component separation section 25 or the voice signal of a single singing skipping the main melody component separation section 25 is input to the pitch shift section 26. The pitch shift unit 26 shifts the pitch of the input audio signal based on the harmony information input from the sequencer 14, and outputs the harmony audio signal to the addition unit 28.

【0027】ここで、ピッチシフト部26は、図4に示
すように前段から入力された音声信号のフォルマント
(周波数成分の包絡線)を保存し、そのフォルマントを
構成する各周波数成分のみをピッチシフトする。ピッチ
シフトされた各周波数成分はそのピッチの包絡線に一致
されるようにレベル調整される。これにより、音質を変
えずに音高(周波数)のみをシフトすることができる。
Here, as shown in FIG. 4, the pitch shift section 26 stores the formants (envelopes of frequency components) of the audio signal inputted from the preceding stage, and pitch-shifts only each frequency component constituting the formants. I do. The level of each pitch-shifted frequency component is adjusted to match the envelope of the pitch. Thus, only the pitch (frequency) can be shifted without changing the sound quality.

【0028】図1において、加算部28には、このハー
モニー音声信号以外に前記音源16から入力されるカラ
オケ演奏音、シーケンサ14から直接入力されるコーラ
ス音およびADC12からディレイ27を介して直接入
力される歌唱音声信号が入力される。加算部28は、こ
れらの歌唱音声信号,ハーモニー音声信号,カラオケ演
奏音およびコーラス音を加算合成してステレオ信号にミ
キシングする。このミキシングされた音声信号はDSP
13から出力され、DAC17に入力される。DAC1
7はこのディジタルステレオ信号をアナログ信号に変換
してアンプ18に入力する。アンプ18はこのアナログ
信号を増幅してスピーカ19から出力する。
In FIG. 1, in addition to the harmony sound signal, a karaoke performance sound input from the sound source 16, a chorus sound input directly from the sequencer 14, and a direct input from the ADC 12 via the delay 27 are added to the adder 28. Singing voice signal is input. The adder 28 adds and synthesizes the singing voice signal, the harmony voice signal, the karaoke performance sound, and the chorus sound and mixes them into a stereo signal. This mixed audio signal is DSP
13 and input to the DAC 17. DAC1
7 converts this digital stereo signal into an analog signal and inputs it to the amplifier 18. The amplifier 18 amplifies this analog signal and outputs it from the speaker 19.

【0029】なお、DSP13のブロック中に挿入され
ている2つのディレイ24,27は、信号処理自己相関
分析部21,歌唱分析部22および主旋律選択部23等
における信号処理のための遅れ時間を吸収するためのも
のである。
The two delays 24 and 27 inserted in the block of the DSP 13 absorb the delay time for signal processing in the signal processing autocorrelation analysis unit 21, the singing analysis unit 22, the main melody selection unit 23 and the like. It is for doing.

【0030】このようにこのカラオケ装置では、1本の
マイク10から入力される複数パート(2パート)の歌
唱音声信号のうち何方が主旋律パートであるかを分析
し、その主旋律パートの歌唱音声信号のみにハーモニー
を付加して出力するため、デュエット曲などを一緒に歌
っていても、その主旋律に対してのみハーモニーを付加
することができる。
As described above, the karaoke apparatus analyzes which of the plurality of (two parts) singing voice signals inputted from one microphone 10 is the main melody part, and analyzes the singing voice signal of the main melody part. Since harmony is added to only the melody and the melody is output, harmony can be added only to the main melody even when a duet song or the like is sung together.

【0031】図5はこの発明の他の実施形態であるカラ
オケ装置の要部のブロック図である。このカラオケ装置
と図1に示した第1の実施形態のカラオケ装置との相違
点は、このカラオケ装置が歌唱者の人数分のマイク(同
図では2本)を備え、各歌唱者の歌唱音声信号が別系統
でDSPに入力される点である。カラオケ演奏用の楽曲
データの記憶・読出部および歌唱音声信号とカラオケ演
奏信号とが加算されたのちの信号系は上記第1の実施形
態と同一であるため構成部に同一番号を付して説明を省
略する。
FIG. 5 is a block diagram of a main part of a karaoke apparatus according to another embodiment of the present invention. The difference between the karaoke apparatus and the karaoke apparatus of the first embodiment shown in FIG. 1 is that the karaoke apparatus has microphones (two in the figure) for the number of singers and the singing voice of each singer. The point is that the signal is input to the DSP in another system. The storage / read-out unit for the music data for karaoke performance and the signal system after the singing voice signal and the karaoke performance signal are added are the same as those in the first embodiment, so the components are given the same numbers and explained. Is omitted.

【0032】デュエット用の2本のマイク30,31は
それぞれ別系統のアンプ32,33で増幅され、ADC
34,35でディジタル信号に変換されてDSP36に
入力される。DSP36において、第1の歌唱音声信号
(マイク30から入力された歌唱音声信号)は自己相関
分析部41および加算部47に入力される。また、第2
の歌唱音声信号(マイク31から入力された歌唱音声信
号)は自己相関分析部42および加算部44,47に入
力される。自己相関分析部41,42では、それぞれ第
1の歌唱信号,第2の歌唱信号の基本周波数を分析す
る。この構成では、自己相関分析部41,42は、複数
の歌唱音の基本周波数をぞれぞれ分離して分析する必要
はない。分析結果は歌唱分析部43に入力される。歌唱
分析部43は、入力された2人の歌唱音声信号の基本周
波数およびシーケンサ14から入力される主旋律情報,
ハーモニー情報に基づいて、歌唱人数判定動作,主旋律
選択動作,ハーモニー検出動作を実行する。すなわち、
2人が同時に歌唱しているか否か、二人で歌っている場
合、どちらが主旋律か、また、他方の歌唱音が主旋律の
ハーモニーになっているかなどを分析する。主旋律選択
動作により主旋律が選択されると、それに対応するセレ
クト信号をセレクタ45に入力する。セレクタ45は主
旋律として選択された歌唱音声信号をピッチシフト部4
6に入力するべく接続を切り換える。ピッチシフト部4
6は、入力された音声信号をシーケンサ14から入力さ
れるハーモニー情報に基づいてピッチシフトし、ハーモ
ニー音声信号を生成する。
The two duet microphones 30 and 31 are amplified by amplifiers 32 and 33 of different systems, respectively.
The signals are converted into digital signals at 34 and 35 and input to the DSP 36. In the DSP 36, the first singing voice signal (the singing voice signal input from the microphone 30) is input to the autocorrelation analyzing unit 41 and the adding unit 47. Also, the second
(The singing voice signal input from the microphone 31) is input to the autocorrelation analyzer 42 and the adders 44 and 47. The autocorrelation analyzers 41 and 42 analyze the fundamental frequencies of the first singing signal and the second singing signal, respectively. In this configuration, the autocorrelation analyzers 41 and 42 do not need to separate and analyze the fundamental frequencies of a plurality of singing sounds. The analysis result is input to the singing analysis unit 43. The singing analysis unit 43 outputs the fundamental melody information input from the sequencer 14 and the fundamental frequencies of the two input singing voice signals,
Based on the harmony information, a singing number determination operation, a main melody selection operation, and a harmony detection operation are executed. That is,
It is analyzed whether two people are singing at the same time, if they are singing together, which is the main melody, and whether the other singing sound is the harmony of the main melody. When the main melody is selected by the main melody selection operation, a select signal corresponding to the main melody is input to the selector 45. The selector 45 converts the singing voice signal selected as the main melody into the pitch shift unit 4.
6. Switch connection to input to 6. Pitch shift unit 4
Reference numeral 6 shifts the pitch of the input audio signal based on the harmony information input from the sequencer 14 to generate a harmony audio signal.

【0033】ハーモニー音声信号は加算部49に入力さ
れる。加算部49には、このハーモニー音声信号以外に
前記音源16から入力されるカラオケ演奏音、シーケン
サ14から直接入力されるコーラス音およびADC12
から加算部47−ディレイ48を経て入力される歌唱音
声信号が入力される。加算部49は、これらの歌唱音声
信号,ハーモニー音声信号,カラオケ演奏音およびコー
ラス音を加算合成してステレオ信号にミキシングする。
このミキシングされた音声信号はDSP36から出力さ
れ、DAC17に入力される。
The harmony sound signal is input to the adder 49. In addition to the harmony sound signal, the addition unit 49 includes a karaoke performance sound input from the sound source 16, a chorus sound input directly from the sequencer 14, and the ADC 12.
, A singing voice signal input through an adder 47-delay 48. The adder 49 adds and synthesizes the singing voice signal, the harmony voice signal, the karaoke performance sound, and the chorus sound and mixes them into a stereo signal.
The mixed audio signal is output from the DSP 36 and input to the DAC 17.

【0034】なお、上記実施形態では、デュエット曲の
主旋律パートの歌唱音声信号のみにハーモニーを付加す
る機能を備えたカラオケ装置について説明したが、デュ
エット曲の主旋律パート以外のパート、たとえば、合い
の手パートのみにハーモニーを付加するようにしてもよ
い。また、選択により、主旋律パートまたはその他のパ
ートのいずれかまたは両方にハーモニーを付加できるよ
うにしてもよい。
In the above-described embodiment, the karaoke apparatus having the function of adding harmony to only the singing voice signal of the main melody part of the duet tune has been described. However, only the parts other than the main melody part of the duet tune, for example, only the matching hand part Harmony may be added. In addition, harmony may be added to one or both of the main melody part and other parts by selection.

【0035】たとえば、図5の装置において、セレクタ
45を主旋律パート側またはその他のパート側に任意に
切り換えることができるようにし、この切り換えに合わ
せて主旋律のハーモニー情報またはその他パートのハー
モニー情報をピッチシフト部46に入力することによ
り、上記機能を実現することができる。
For example, in the apparatus shown in FIG. 5, the selector 45 can be arbitrarily switched to the main melody part or the other parts, and the harmony information of the main melody or the harmony information of the other parts is pitch-shifted in accordance with the switching. The above function can be realized by inputting to the section 46.

【0036】また、図6に1系統で複数の歌唱音声信号
が入力される場合の実施形態を示しておく。同図の構成
において図1の実施形態と同一構成の部分は同一番号を
付して説明を省略する。この実施形態において、シーケ
ンサ14に記憶されている楽曲データには主旋律トラッ
クに代えて特定パートトラックが設けられている。特定
パート選択部53は、この特定パートトラックのデータ
(特定パート情報)をシーケンサ14から入力し、自己
相関分析部21から入力された複数パートの歌唱音声信
号の基本周波数のうちどれが特定パートの歌唱音声信号
であるかを割り出す。この選択情報は特定パート成分分
離部55に入力される。特定パート成分分離部5は、
入力された複数パートの歌唱音声信号から特定パートの
周波数成分のみを抽出・分離する。特定パートの判定方
法としては、先に述べたように複数の音声パートの音声
信号のなかから最も高い音のパートを主旋律などの特定
パートとする方法などを採用することができる。抽出・
分離された特定パートの歌唱音声信号の成分はピッチシ
フト部26に入力される。ピッチシフト部26ではこの
特定パートを分厚くするような音程にピッチシフトす
る。
FIG. 6 shows an embodiment in which a plurality of singing voice signals are input in one system. In the configuration of FIG. 2, the same components as those of the embodiment of FIG. In this embodiment, the music data stored in the sequencer 14 is provided with a specific part track instead of the main melody track. The specific part selection unit 53 inputs the data of the specific part track (specific part information) from the sequencer 14, and which of the fundamental frequencies of the singing voice signals of the plurality of parts input from the autocorrelation analysis unit 21 corresponds to the specific part. Determine whether the signal is a singing voice signal. This selection information is input to the specific part component separation unit 55. Certain part component separation unit 5 5,
Only the frequency components of a specific part are extracted and separated from the input singing voice signals of a plurality of parts. How to determine a specific part
As a rule, as mentioned earlier, the audio of multiple audio parts
Identify the highest melody part of the signal, such as the main melody
A method of forming a part or the like can be adopted. Extraction
The separated components of the singing voice signal of the specific part are input to the pitch shift unit 26. The pitch shift unit 26 shifts the pitch to a pitch that thickens the specific part.

【0037】さらに、本実施形態には特許請求の範囲に
記載した発明以外の発明も含まれており、この発明を示
すと以下のようになる。
Further, the present embodiment includes inventions other than the inventions described in the claims, and the present invention is as follows.

【0038】[0038]

【0039】[0039]

【0040】[0040]

【0041】〔構成〕 前記ピッチシフト手段は、予
め記憶されているハーモニー情報に基づいて前記特定パ
ートの音声信号をピッチシフトする手段である特許請求
の範囲の請求項1または2に記載の音声信号処理装置。
[Structure 1 ] The voice according to claim 1 or 2 , wherein the pitch shift means is a means for pitch-shifting the voice signal of the specific part based on harmony information stored in advance. Signal processing device.

【0042】〔構成特定パート以外のパートの音
声信号が該特定パートに対するハーモニーになっている
か否かを検出するハーモニー検出手段と、該ハーモニー
検出手段がハーモニーになっている音声信号を検出した
とき前記ピッチシフト手段を無効にする手段とを備えた
ことを特徴とする特許請求の範囲の請求項1または2に
記載の音声信号処理装置。
[Structure 2 ] Harmony detecting means for detecting whether or not an audio signal of a part other than the specific part is in harmony with the specific part , and detecting the audio signal in which the harmony detecting means is in harmony the audio signal processing apparatus according to claim 1 or 2 claims, characterized in that a means to disable the pitch shifting means when.

【0043】[0043]

【0044】また、この発明はカラオケのような歌唱音
声以外にも楽器演奏にも適用することができる。
The present invention can be applied not only to singing voices such as karaoke but also to musical instrument performances.

【0045】[0045]

【発明の効果】以上のようにこの発明によれば、複数パ
ートの音声信号が入力されても、そのなかから主旋律パ
ートやその他のパートなど特定パートの音声信号を判定
して抽出し、この音声信号のみにハーモニー音声を付加
するため、複数パートの音声信号が同時に入力された場
合でも特定パートを引き立てるハーモニーのみを付加す
ることができ、演奏を引き立てることができる。
As described above, according to the present invention, even if audio signals of a plurality of parts are input, the audio signals of a specific part such as the main melody part and other parts are determined and extracted from the input, and this audio signal is extracted. Since the harmony sound is added only to the signal, even when audio signals of a plurality of parts are input at the same time, only the harmony that enhances the specific part can be added, and the performance can be enhanced.

【0046】また、入力された複数の音声信号から主旋
律を判定するため、主旋律が交代するような演奏であっ
てもそのなかから主旋律を抽出することができる。
Since the main melody is determined from a plurality of input audio signals, the main melody can be extracted from the performance even when the main melody alternates.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態であるカラオケ装置の要部
の構成図
FIG. 1 is a configuration diagram of a main part of a karaoke apparatus according to an embodiment of the present invention.

【図2】同カラオケ装置の楽曲データの構成を示す図FIG. 2 is a diagram showing a configuration of music data of the karaoke apparatus.

【図3】入力された歌唱音声信号の自己相関分析を説明
する図
FIG. 3 is a diagram illustrating an autocorrelation analysis of an input singing voice signal.

【図4】音声信号のピッチシフトの手法を説明する図FIG. 4 is a diagram for explaining a pitch shift method of an audio signal.

【図5】この発明の他の実施形態であるカラオケ装置の
要部の構成図
FIG. 5 is a configuration diagram of a main part of a karaoke apparatus according to another embodiment of the present invention.

【図6】この発明のさらに他の実施形態であるカラオケ
装置の要部の構成図
FIG. 6 is a configuration diagram of a main part of a karaoke apparatus according to still another embodiment of the present invention.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 特定パート選択手段(21、23)、特
定パート成分分離手段(25)、ピッチシフト手段(2
6)、合成手段(28)を備える音声信号処理装置であ
って、 特定パート選択手段(21、23)は、複数パートの音
声が混合された混合信号から各パートの基本周波数を抽
出するとともに、特定パートの旋律情報または各パート
基本周波数の高低の順位に基づき、前記複数パートの
なかから特定パート選択して、該特定パートを指示す
る選択情報を特定パート成分分離手段(25)に出力
し、 特定パート成分分離手段(25)は、混合信号を各パー
トの音声信号に分離するとともに、特定パート選択手段
(21、23)から入力された選択情報によって指示さ
れる特定パートの音声信号をピッチシフト手段(26)
に出力し、 ピッチシフト手段(26)は、入力した音声信号をピッ
チシフトしてハーモニー音声信号を生成し、 合成手段(28)は、混合信号、および、ハーモニー音
声信号を合成して出力する音声信号処理装置。
A specific part selecting means (21, 23);
Constant part component separation means (25), pitch shift means (2
6) An audio signal processing device including a synthesizing unit (28).
The specific part selecting means (21, 23) is a
From the mixed signal with mixed voices,BasicExtract frequency
As well as the melody information of a specific part or each part
ofBasicBased on the rank of frequency,The multiple parts
From insideSpecific partToSelect, Indicating the specific part
Select informationFor specific part component separation means (25)output
Then, the specific part component separating means (25) converts the mixed signal into each part.
And a specific part selection means.
From (21,23)inputWas doneIndicated by selection information
SpecificMeans for shifting the voice signal of the part (26)
And the pitch shift means (26) picks up the input audio signal.
The harmony sound signal is generated by performing the harmony sound signal.
An audio signal processing device that synthesizes and outputs voice signals.
【請求項2】 特定パート選択手段(41、42、4
3)、切換入力手段(45)、ピッチシフト手段(4
6)、合成手段(47、49)を備える音声信号処理装
置であって、 特定パート選択手段(41、42、43)は、複数パー
トの音声信号を別々入力し、各パートの基本周波数を
それぞれ検出するとともに、特定パートの旋律情報また
は各パートの基本周波数の高低の順位に基づき、前記複
数パートのなかから特定パート選択して、該特定パー
トを指示する選択情報を切換入力手段(45)に出力
し、 切換入力手段(45)は、特定パート選択手段(41、
42、43)から入力された選択情報によって指示され
る特定パートの音声信号ピッチシフト手段(46)に
出力し、 ピッチシフト手段(46)は、入力した音声信号をピッ
チシフトしてハーモニー音声信号を生成し、 合成手段(47、49)は、複数パートの音声信号、お
よび、ハーモニー音声信号を合成して出力する音声信号
処理装置。
2. A specific part selecting means (41, 42, 4)
3), switch input means (45), pitch shift means (4)
6) an audio signal processing device provided with a synthesizing means (47, 49);
The specific part selection means (41, 42, 43) includes a plurality of parts.
Separate audio signalsToEnter each partBasicFrequency
While detecting each, the melody information of a specific part or
Is for each partBasicBased on the rank of frequency,The compound
From several partsSpecific partToSelect, The specific par
Selection informationTo switch input means (45)output
The switching input means (45) is provided with a specific part selecting means (41,
42, 43)Instructed by the entered selection information
Specific partAudio signalToTo pitch shift means (46)
Output, and the pitch shift means (46) picks up the input audio signal.
The harmony sound signal is generated by performing the shift operation, and the synthesizing means (47, 49) outputs the sound signal of a plurality of parts.
Audio signal that synthesizes and outputs the harmony audio signal
Processing equipment.
JP30304695A 1995-02-13 1995-11-21 Audio signal processing device Expired - Fee Related JP3176273B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP30304695A JP3176273B2 (en) 1995-02-13 1995-11-21 Audio signal processing device
US08/599,763 US5712437A (en) 1995-02-13 1996-02-12 Audio signal processor selectively deriving harmony part from polyphonic parts
DE69608826T DE69608826T2 (en) 1995-02-13 1996-02-13 Device for processing audio signals, in which a harmonic voice is derived from polyphonic voices
CNB961024089A CN1146858C (en) 1995-02-13 1996-02-13 Audio signal processor selectively deriving harmony part from polyphonic parts
EP96102092A EP0726559B1 (en) 1995-02-13 1996-02-13 Audio signal processor selectively deriving harmony part from polyphonic parts

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP07024337 1995-02-13
JP7-24337 1995-02-13
JP30304695A JP3176273B2 (en) 1995-02-13 1995-11-21 Audio signal processing device

Publications (2)

Publication Number Publication Date
JPH08286689A JPH08286689A (en) 1996-11-01
JP3176273B2 true JP3176273B2 (en) 2001-06-11

Family

ID=26361835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30304695A Expired - Fee Related JP3176273B2 (en) 1995-02-13 1995-11-21 Audio signal processing device

Country Status (1)

Country Link
JP (1) JP3176273B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3709631B2 (en) * 1996-11-20 2005-10-26 ヤマハ株式会社 Karaoke equipment
JP4010019B2 (en) * 1996-11-29 2007-11-21 ヤマハ株式会社 Singing voice signal switching device
JP3508981B2 (en) * 1997-11-12 2004-03-22 日本電信電話株式会社 Method for separating, separating and extracting melodies included in music performance
JP3511360B2 (en) * 1998-03-09 2004-03-29 日本電信電話株式会社 Music sound signal separation method, its apparatus and program recording medium
JP6201332B2 (en) * 2013-02-15 2017-09-27 セイコーエプソン株式会社 Sound processor
US9880615B2 (en) 2013-02-15 2018-01-30 Seiko Epson Corporation Information processing device and control method for information processing device
JP2015025839A (en) * 2013-07-24 2015-02-05 日本電信電話株式会社 Microphone selection device, microphone selection method, and microphone selection program
CN112530448A (en) * 2020-11-10 2021-03-19 北京小唱科技有限公司 Data processing method and device for harmony generation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01108600U (en) * 1988-01-14 1989-07-21

Also Published As

Publication number Publication date
JPH08286689A (en) 1996-11-01

Similar Documents

Publication Publication Date Title
US5712437A (en) Audio signal processor selectively deriving harmony part from polyphonic parts
JP2921428B2 (en) Karaoke equipment
KR100270434B1 (en) Karaoke apparatus detecting register of live vocal to tune harmony vocal
US7563975B2 (en) Music production system
JP3293745B2 (en) Karaoke equipment
JP3718919B2 (en) Karaoke equipment
EP0723256B1 (en) Karaoke apparatus modifying live singing voice by model voice
JP3176273B2 (en) Audio signal processing device
JP3996565B2 (en) Karaoke equipment
JP4204941B2 (en) Karaoke equipment
JP3613859B2 (en) Karaoke equipment
JP5292702B2 (en) Music signal generator and karaoke device
JP3750533B2 (en) Waveform data recording device and recorded waveform data reproducing device
JPH11338480A (en) Karaoke (prerecorded backing music) device
JPH06149242A (en) Automatic playing device
JP2000047677A (en) Karaoke device
JP2000330580A (en) Karaoke apparatus
JP2904045B2 (en) Karaoke equipment
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JPH10143177A (en) Karaoke device (sing-along machine)
JP4910764B2 (en) Audio processing device
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JPH09230881A (en) Karaoke device
JPH0341498A (en) Musical sound data generating device
JP5034471B2 (en) Music signal generator and karaoke device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090406

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090406

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees