JP3116937B2 - Karaoke equipment - Google Patents

Karaoke equipment

Info

Publication number
JP3116937B2
JP3116937B2 JP11029716A JP2971699A JP3116937B2 JP 3116937 B2 JP3116937 B2 JP 3116937B2 JP 11029716 A JP11029716 A JP 11029716A JP 2971699 A JP2971699 A JP 2971699A JP 3116937 B2 JP3116937 B2 JP 3116937B2
Authority
JP
Japan
Prior art keywords
data
phoneme
harmony
singing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11029716A
Other languages
Japanese (ja)
Other versions
JPH11282483A (en
Inventor
隆宏 川嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP11029716A priority Critical patent/JP3116937B2/en
Publication of JPH11282483A publication Critical patent/JPH11282483A/en
Application granted granted Critical
Publication of JP3116937B2 publication Critical patent/JP3116937B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、歌唱音声信号のピッ
チ(周波数)のズレを補正することのできるカラオケ装
置に関し、さらに、補正された歌唱音声信号に対してハ
ーモニー音声を付加することのできるカラオケ装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke apparatus which can correct a deviation in pitch (frequency) of a singing voice signal, and can add a harmony voice to the corrected singing voice signal. It relates to a karaoke device.

【0002】[0002]

【従来の技術】カラオケ装置において、歌唱を盛り上げ
るため、または、歌唱を上手く聞かせるために歌唱者の
歌唱音声に対してハーモニー(たとえば、歌唱の旋律に
対して3度上の旋律など)の音声を付加して出力する機
能を備えたものが提案されている。ハーモニー付加機能
としては、歌唱者の歌唱テンポに合わせたハーモニー音
声を作るためマイクから入力された歌唱者の音声信号を
ピッチシフトしてハーモニー音声信号を形成するものが
一般的である。
2. Description of the Related Art In a karaoke apparatus, harmony (for example, a melody three times higher than a melody of a singer) is applied to a singer's singing voice in order to excite the singing or to make the singing sound better. A device having a function of adding and outputting is added. As a harmony addition function, a harmony voice signal is generally formed by pitch-shifting a singer's voice signal input from a microphone in order to generate a harmony voice in accordance with the singer's singing tempo.

【0003】[0003]

【発明が解決しようとする課題】しかし、このようなハ
ーモニー音声信号付加機能を有するカラオケ装置では、
歌唱者の歌唱音声をそのままピッチシフトするため、歌
唱者のピッチがずれていた場合には、ハーモニー音声
も、歌唱者とは協和するものの、ピッチのずれたものと
なり、伴奏と合わずにカラオケ歌唱を盛り上げることが
できない。また、ハーモニー音声信号を歌唱者の歌唱を
無視して付加することも考えられるが、それではハーモ
ニーとして主旋律の歌唱に合わせることができず、ま
た、歌唱者のみピッチがずれることになり、カラオケ歌
唱をより盛り上げることができない欠点があった。
However, in a karaoke apparatus having such a harmony sound signal adding function,
Since the singer's singing voice is pitch-shifted as it is, if the singer's pitch is out of sync, the harmony voice will also be out of sync with the singer, but the pitch will be out of sync. Cannot excite. It is also conceivable to add a harmony voice signal ignoring the singer's singing.However, it is not possible to match the harmony to the main melody singing. There was a drawback that could not be raised more.

【0004】この発明は、歌唱者の歌唱音声信号を補正
することにより、伴奏やハーモニーが歌唱音声によく協
和するようにしたカラオケ装置を提供することを目的と
する。
[0004] It is an object of the present invention to provide a karaoke apparatus in which accompaniment and harmony are well matched to the singing voice by correcting the singing voice signal of the singer.

【0005】[0005]

【課題を解決するための手段】この発明は、記憶手段
(17)、制御手段(10)、音源手段(18)、音声
処理手段(30)を有するカラオケ装置であって、記憶
手段(17)は、複数の楽曲情報を記憶し、楽曲情報
は、楽音情報のシーケンスデータである楽音トラック、
ハーモニーデータのシーケンスデータであるハーモニー
トラック、音素情報のシーケンスデータである音素トラ
ックからなり、制御手段(10)は、テンポクロックに
基づいて記憶手段(17)から楽音情報を読み出し、音
源手段(18)へ出力し、音源手段(18)は、入力さ
れた楽音情報に基づいて楽音を発生し、音声処理手段
(30)は、入力される歌唱音声信号から音節の区切り
を検出し、検出された音節の区切りに基づいて音素ポイ
ンタを歩進し、音素ポインタの指定する音素情報とハー
モニーデータに基づいてハーモニー音声信号を形成する
とともに、歌唱音声信号から音節の区切りを検出できな
かったとき、テンポクロックに基づいて音素ポインタを
歩進することを特徴とする。
The present invention relates to a karaoke apparatus having storage means (17), control means (10), sound source means (18), and sound processing means (30), wherein the storage means (17) Stores a plurality of pieces of music information, and the music information includes a music track, which is sequence data of music information,
The control means (10) reads out the tone information from the storage means (17) based on the tempo clock, and comprises a tone generator means (18). The harmony track is sequence data of harmony data and a phoneme track is sequence data of phoneme information. The sound source means (18) generates a musical tone based on the input musical sound information, and the voice processing means (30) detects a syllable segment from the input singing voice signal, and detects the detected syllable. The phoneme pointer is incremented based on the punctuation of the phoneme, and a harmony voice signal is formed based on the phoneme information and the harmony data specified by the phoneme pointer. The phoneme pointer is advanced on the basis of this.

【0006】この発明のカラオケ装置は、歌唱者が入力
した歌唱音声信号から音節の区切りを検出し、これに同
期して音素ポインタを歩進することによって、歌唱音声
信号に同期したハーモニー音声信号を形成する。しか
し、歌唱者が歌い忘れた場合など歌唱音声信号が入力さ
れない場合もあり、この場合にはハーモニー音声信号も
形成されないことになるため、このようなときにはテン
ポクロックで音素ポインタを歩進し、歌唱音声信号が入
力されない場合にもハーモニー音声信号が形成されるよ
うにした。
The karaoke apparatus of the present invention detects a syllable segment from a singing voice signal input by a singer, and advances a phoneme pointer in synchronization with the syllable breaking, thereby converting a harmony voice signal synchronized with the singing voice signal. Form. However, a singer's voice signal may not be input, for example, when the singer forgets to sing.In this case, a harmony voice signal is not formed. A harmony sound signal is formed even when no sound signal is input.

【0007】[0007]

【実施例】図面を参照してこの発明の実施例であるカラ
オケ装置について説明する。このカラオケ装置は、通信
機能、歌唱補正機能、および、ハーモニー付加機能を備
えている。音源カラオケ装置とは、楽曲データで音源装
置を駆動することによりカラオケ演奏音を発生するカラ
オケ装置である。楽曲データとは、音高や発音タイミン
グを指定する演奏データ列などの複数トラックからなる
シーケンスデータである。また、通信機能とは、通信回
線を介してホストステーションと接続され、楽曲データ
をホストステーションからダウンロードしてハードディ
スク装置17(図1参照)に蓄える機能である。ハード
ディスク装置17は、楽曲データを数百〜数千曲分記憶
することができる。歌唱補正機能とは、歌唱のピッチす
なわち歌唱者がマイクから入力する歌唱音声信号の周波
数が正しい好ましい周波数からずれていた場合には、こ
れを補正する機能である。ハーモニー付加機能とは、歌
唱者の歌唱音声に対して3度や5度など所定の音程を有
する音声信号をオリジナル歌手の音声で生成し、これを
ハーモニー音声信号として出力するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A karaoke apparatus according to an embodiment of the present invention will be described with reference to the drawings. This karaoke apparatus has a communication function, a singing correction function, and a harmony adding function. A sound source karaoke device is a karaoke device that generates a karaoke performance sound by driving the sound source device with music data. The music data is sequence data composed of a plurality of tracks, such as a performance data string that specifies a pitch and a sound generation timing. The communication function is a function that is connected to the host station via a communication line, downloads music data from the host station, and stores the music data in the hard disk device 17 (see FIG. 1). The hard disk device 17 can store music data for hundreds to thousands of songs. The singing correction function is a function of correcting a singing pitch, that is, a singing voice signal input from a microphone by a singer when the singing voice signal deviates from a correct and preferable frequency. The harmony addition function is to generate an audio signal having a predetermined pitch, such as third or fifth, with respect to the singing voice of the singer as the voice of the original singer, and to output this as a harmony voice signal.

【0008】まず、図3〜図6を参照して同カラオケ装
置においてカラオケ演奏に用いられる楽曲データの構成
について説明する。図3は楽曲データの構成を示す図で
ある。また、図4,図5は楽曲データの詳細な構成を示
す図である。さらに、図6は楽曲データに含まれる音素
データの構成を説明する図である。
First, the configuration of music data used for karaoke performance in the karaoke apparatus will be described with reference to FIGS. FIG. 3 is a diagram showing a configuration of music data. FIGS. 4 and 5 are diagrams showing a detailed configuration of music data. FIG. 6 is a diagram illustrating the configuration of phoneme data included in the music data.

【0009】図3において、1つの楽曲データは、ヘッ
ダ,楽音トラック,主旋律トラック,ハーモニートラッ
ク,歌詞トラック,音声トラック,効果トラック,音素
トラックおよび音声データ部からなっている。
In FIG. 3, one piece of music data includes a header, a musical tone track, a main melody track, a harmony track, a lyrics track, a voice track, an effect track, a phoneme track, and a voice data section.

【0010】ヘッダは、この楽曲データに関する種々の
データが書き込まれる部分であり、曲名,ジャンル,発
売日,曲の演奏時間(長さ)などのデータが書き込まれ
ている。CPU10(図1参照:以下同様)は、メイン
シーケンスプログラムの実行時にジャンルデータに基づ
いてモニタ26に表示する背景映像を決定し、LDチェ
ンジャ24に対してその映像のチャプタナンバを送信す
る。背景映像の決定方式は、冬をテーマにした演歌の場
合には雪国の映像を選択し、ポップスの場合には外国の
映像を選択するなどである。
The header is a portion in which various data relating to the music data are written, and data such as a music title, a genre, a release date, and a music playing time (length) are written therein. The CPU 10 (see FIG. 1: the same applies hereinafter) determines a background image to be displayed on the monitor 26 based on the genre data when the main sequence program is executed, and transmits a chapter number of the image to the LD changer 24. The method of determining the background image is to select an image of a snowy country in the case of enka on the theme of winter, and to select an image of a foreign country in the case of pops.

【0011】楽音トラック〜音素トラックの各トラック
は図4,図5に示すように複数のイベントデータと各イ
ベントデータ間の時間間隔を示すデュレーションデータ
Δtからなるシーケンスデータで構成されている。CP
U10はカラオケ演奏時にシーケンスプログラムを実行
する。シーケンスプログラムは、曲のテンポを決定する
所定のテンポクロックでΔtをカウントし、Δtをカウ
ントアップしたときこれに続くイベントデータの読出タ
イミングであるとして、これを読み出して所定の処理部
へ出力するプログラムである。
As shown in FIGS. 4 and 5, each track from the musical tone track to the phoneme track is composed of sequence data including a plurality of event data and duration data Δt indicating a time interval between the event data. CP
U10 executes a sequence program during karaoke performance. The sequence program is a program that counts Δt at a predetermined tempo clock that determines the tempo of the song, and when Δt is counted up, determines that it is the readout timing of the event data following this, and reads out this and outputs it to a predetermined processing unit. It is.

【0012】楽音トラックには、メロディトラック,リ
ズムトラックを初めとして種々のパートのトラックが形
成されている。CPU10は、楽音シーケンスプログラ
ムによって読み出したイベントデータを音源装置18に
出力する。音源装置18はそのイベントデータに含まれ
ているチャンネル指定データに基づいて発音チャンネル
を選択し、その発音チャンネルについてそのイベントを
実行する。
[0012] In the musical sound track, tracks of various parts including a melody track and a rhythm track are formed. The CPU 10 outputs to the tone generator 18 the event data read by the tone sequence program. The sound source device 18 selects a sounding channel based on the channel designation data included in the event data, and executes the event for the sounding channel.

【0013】主旋律トラックには、このカラオケ曲の主
旋律すなわち歌唱者が歌うべき旋律のシーケンスデータ
が書き込まれている。このデータはCPU10から音声
処理用DSP30に入力される。音声処理用DSP30
はこのデータに基づいて歌唱者の音声信号を補正する。
また、ハーモニートラックの構成も主旋律トラックと同
様であり、このカラオケ曲のハーモニー旋律のシーケン
スデータが書き込まれている。このデータもCPU10
から音声処理用DSP30に入力される。音声処理用D
SP30はこのデータに基づいてハーモニー音声信号の
周波数(音高)を決定する。
In the main melody track, the main melody of the karaoke song, that is, the sequence data of the melody to be sung by the singer is written. This data is input from the CPU 10 to the DSP 30 for audio processing. DSP 30 for audio processing
Corrects the singer's voice signal based on this data.
The configuration of the harmony track is the same as that of the main melody track, and the sequence data of the harmony melody of this karaoke song is written. This data is also stored in the CPU 10
Is input to the DSP 30 for audio processing. D for audio processing
The SP 30 determines the frequency (pitch) of the harmony audio signal based on this data.

【0014】歌詞トラックは、モニタ26上に歌詞を表
示するためのシーケンスデータを記憶したトラックであ
る。このシーケンスデータは楽音データではないが、イ
ンプリメンテーションの統一をとり、作業工程を容易に
するためこのトラックもMIDIデータ形式で記述され
ている。データ種類は、システム・エクスクルーシブ・
メッセージである。歌詞トラックのデータ記述におい
て、通常は1行の歌詞を1つの歌詞表示データとして扱
っている。歌詞表示データは1行の歌詞の文字データ
(文字コードおよびその文字の表示座標)、この歌詞の
表示時間(通常は30秒前後)、および、ワイプシーケ
ンスデータからなっている。ワイプシーケンスデータと
は、曲の進行に合わせて歌詞の表示色を変更してゆくた
めのシーケンスデータであり、表示色を変更するタイミ
ング(この歌詞が表示されてからの時間)と変更位置
(座標)が1行分の長さにわたって順次記録されている
データである。
The lyrics track is a track that stores sequence data for displaying lyrics on the monitor 26. Although this sequence data is not tone data, this track is also described in the MIDI data format in order to unify the implementation and facilitate the work process. The data type is system exclusive
It is a message. In the data description of the lyrics track, usually, one line of lyrics is treated as one piece of lyrics display data. The lyrics display data is composed of character data (character codes and display coordinates of the characters) of one line of lyrics, display time of the lyrics (usually around 30 seconds), and wipe sequence data. The wipe sequence data is sequence data for changing the display color of the lyrics in accordance with the progress of the song. The timing of changing the display color (the time from when the lyrics are displayed) and the change position (coordinates) ) Is data sequentially recorded over the length of one line.

【0015】音声トラックは、音声データ部に記憶され
ている音声データn(n=1,2,3,‥‥)の発生タ
イミングなどを指定するシーケンストラックである。音
声データ部には、音源装置18で合成しにくいバックコ
ーラスやハーモニー歌唱などの人声が記憶されている。
音声トラックには、音声指定データと音声指定データの
読み出し間隔、すなわち、音声データを音声データ処理
部19に出力して音声信号を形成するタイミングを指定
するデュレーションデータΔtが書き込まれている。音
声指定データは、音声データ番号,音程データおよび音
量データからなっている。音声データ番号は、音声デー
タ部に記録されている各音声データの識別番号nであ
る。音程データ,音量データは、形成すべき音声データ
の音程や音量を指示するデータである。すなわち、言葉
を伴わない「アー」や「ワワワワッ」などのバックコー
ラスは、音程や音量を変化させれば何度も利用できるた
め、基本的な音程,音量で1つ記憶しておき、このデー
タに基づいて音程や音量をシフトして繰り返し使用す
る。音声データ処理部19は音量データに基づいて出力
レベルを設定し、音程データに基づいて音声データの読
出間隔を変えることによって音声信号の音程を設定す
る。
The audio track is a sequence track for specifying the generation timing of the audio data n (n = 1, 2, 3,...) Stored in the audio data section. The voice data section stores human voices such as back chorus and harmony singing that are difficult to synthesize by the sound source device 18.
The audio track is written with duration data Δt for designating the timing at which the voice-designated data and the voice-designated data are read, that is, the timing at which the voice data is output to the voice data processing unit 19 and the voice signal is formed. The voice designation data includes a voice data number, pitch data, and volume data. The audio data number is an identification number n of each audio data recorded in the audio data section. The pitch data and the volume data are data indicating the pitch and volume of the audio data to be formed. In other words, a back chorus without words, such as "Ah" or "Wawa Wawa", can be used many times by changing the pitch or volume. The pitch and volume are shifted based on and used repeatedly. The audio data processing unit 19 sets the output level based on the volume data, and sets the interval of the audio signal by changing the reading interval of the audio data based on the interval data.

【0016】効果トラックには、効果用DSP20を制
御するためのDSPコントロールデータが書き込まれて
いる。効果用DSP20は音源装置18,音声データ処
理部19,音声処理用DSP30から入力される信号に
対してリバーブなどの残響系の効果を付与する。DSP
コントロールデータは、このような効果の種類を指定す
るデータおよびその変化量データなどからなっている。
In the effect track, DSP control data for controlling the effect DSP 20 is written. The effect DSP 20 applies reverberation or other reverberation effects to signals input from the sound source device 18, the audio data processing unit 19, and the audio processing DSP 30. DSP
The control data includes data designating the kind of the effect and data of a change amount thereof.

【0017】一方、音素トラックには、図6に示す音素
データs1,s2,‥‥および各音素データの属する音
節の長さを表すデュレーションデータe1,e2,‥‥
が時系列(曲の進行順)に交互に書き込まれている。音
素データは、オリジナル歌手の歌唱を分析して得た音節
毎のデータであり、子音データと母音データからなって
いる。図6において、歌詞「あかしやの」は、それぞれ
「あ」「か」「し」「や」「の」の5個の音節からなっ
ており、音素データs1は、「あ」を分析したものであ
るため、子音データ(c1)は存在せず、母音データv
1のみである。また、音素データs2は、子音と母音を
含む音節であるため、子音データc2と母音データv2
からなっている。子音データは短い非周期波形であるた
め、サンプリングデータをそのまま記憶している。母音
データは「か」の音の母音である「a」音の特徴を抽出
したものであり、母音の1〜数波形をコード化したサン
プルデータ,平均のアンプリチュード(振幅),ビブラ
ートの周波数,ビブラートの深さ(振幅)および付加音
ノイズ特性である。ここで、付加音ノイズ特性とは、母
音に混じっている非周期的なノイズの特徴を示すデータ
である。以下、s3,s4,‥も同様の構成のデータで
ある。
On the other hand, the phoneme track includes phoneme data s1, s2,... Shown in FIG. 6 and duration data e1, e2,.
Are written alternately in chronological order (in the order of progress of the music). The phoneme data is data for each syllable obtained by analyzing the singing of the original singer, and is composed of consonant data and vowel data. In FIG. 6, the lyrics “Akashiya no” consist of five syllables “a”, “ka”, “shi”, “ya”, and “no”, and the phoneme data s1 is obtained by analyzing “a”. Therefore, consonant data (c1) does not exist, and vowel data v
There is only one. Also, since the phoneme data s2 is a syllable including a consonant and a vowel, the consonant data c2 and the vowel data v2
Consists of Since the consonant data has a short non-periodic waveform, the sampling data is stored as it is. The vowel data is obtained by extracting the characteristics of the "a" sound which is the vowel of the "ka" sound. Sample data obtained by encoding one to several waveforms of the vowel, average amplitude (amplitude), vibrato frequency, These are the vibrato depth (amplitude) and additional sound noise characteristics. Here, the additional sound noise characteristic is data indicating characteristics of aperiodic noise mixed with vowels. Hereinafter, s3, s4, and ‥ are data having the same configuration.

【0018】図1は同カラオケ装置のブロック図であ
る。装置全体の動作を制御するCPU10には、バスを
介してROM11,RAM12,ハードディスク記憶装
置(HDD)17,ISDNコントローラ16,リモコ
ン受信機13,表示パネル14,パネルスイッチ15,
音源装置18,音声データ処理部19,効果用DSP2
0,文字表示部23,LDチェンジャ24,表示制御部
25および音声処理用DSP30が接続されている。
FIG. 1 is a block diagram of the karaoke apparatus. The CPU 10 for controlling the operation of the entire apparatus includes a ROM 11, a RAM 12, a hard disk storage (HDD) 17, an ISDN controller 16, a remote control receiver 13, a display panel 14, a panel switch 15,
Sound source device 18, audio data processing unit 19, effect DSP2
0, a character display unit 23, an LD changer 24, a display control unit 25, and a voice processing DSP 30.

【0019】ROM11には、システムプログラム,ア
プリケーションプログラム,ローダおよびフォントデー
タが記憶されている。システムプログラムは、この装置
の基本動作や周辺機器とのデータ送受を制御するプログ
ラムである。アプリケーションプログラムは周辺機器制
御プログラム,シーケンスプログラムなどである。カラ
オケ演奏時にはシーケンスプログラムがCPU10によ
って実行され、楽曲データに基づいた楽音の発生,映像
の再生が行われる。ローダは、ホストステーションから
楽曲データをダウンロードするためのプログラムであ
る。フォントデータは、歌詞や曲名などを表示するため
のものであり、明朝体やゴジック体などの複数種類の文
字種のフォントが記憶されている。また、RAM12に
は、ワークエリアが設定される。HDD17には楽曲デ
ータファイルが設定される。
The ROM 11 stores a system program, an application program, a loader, and font data. The system program is a program that controls the basic operation of the device and data transmission / reception with peripheral devices. The application program is a peripheral device control program, a sequence program, or the like. During a karaoke performance, a sequence program is executed by the CPU 10 to generate musical tones and reproduce images based on music data. The loader is a program for downloading music data from a host station. The font data is for displaying lyrics, song titles, and the like, and stores fonts of a plurality of character types, such as Mincho and Gothic. In the RAM 12, a work area is set. A music data file is set in the HDD 17.

【0020】ISDNコントローラ16は、ISDN回
線を介してホストステーションと交信するためのコント
ローラである。ホストステーションからは楽曲データな
どがダウンロードされる。ISDNコントローラ16は
DMA回路を内蔵しており、ダウンロードされた楽曲デ
ータやアプリケーションプログラムをCPU10を介さ
ずに直接HDD17に書き込む。
The ISDN controller 16 is a controller for communicating with a host station via an ISDN line. Music data and the like are downloaded from the host station. The ISDN controller 16 has a built-in DMA circuit, and writes downloaded music data and application programs directly to the HDD 17 without passing through the CPU 10.

【0021】リモコン受信機13はリモコン31から送
られてくる赤外線信号を受信してデータを復元する。リ
モコン31は選曲スイッチなどのコマンドスイッチやテ
ンキースイッチなどを備えており、利用者がこれらのス
イッチを操作するとその操作に応じたコードで変調され
た赤外線信号を送信する。表示パネル14はこのカラオ
ケ装置の前面に設けられており、現在演奏中の曲コード
や予約曲数などを表示するものである。パネルスイッチ
15はカラオケ装置の前面操作部に設けられており、曲
コード入力スイッチやキーチェンジスイッチなどを含ん
でいる。
The remote control receiver 13 receives the infrared signal sent from the remote control 31 and restores the data. The remote controller 31 includes a command switch such as a music selection switch, a numeric key switch, and the like. When the user operates these switches, an infrared signal modulated with a code corresponding to the operation is transmitted. The display panel 14 is provided on the front of the karaoke apparatus, and displays the currently playing music code and the number of reserved music. The panel switch 15 is provided on a front operation unit of the karaoke apparatus, and includes a music code input switch, a key change switch, and the like.

【0022】音源装置18は、楽曲データに基づいて楽
音信号を形成する。音声データ処理部19は、楽曲デー
タに含まれるADPCMデータである音声データに基づ
き、指定された長さ,指定された音高の音声信号を形成
する。音声データは、バックコーラスや模範歌唱音など
の音源装置18で電子的に発生しにくい信号波形をその
ままディジタル化して記憶したものである。
The tone generator 18 forms a tone signal based on music data. The audio data processing unit 19 forms an audio signal having a specified length and a specified pitch based on audio data that is ADPCM data included in the music data. The audio data is obtained by directly digitizing and storing a signal waveform, such as a back chorus or a model singing sound, which is hardly generated electronically by the sound source device 18.

【0023】一方、音声処理用DSP30には歌唱用の
マイク27から入力された歌唱の音声信号がプリアンプ
28,A/Dコンバータ29を介して入力されるととも
に、CPU10から主旋律情報,ハーモニー情報や音素
データなどが入力される。音声処理用DSP30はこれ
らの情報に基づいて歌唱者の歌唱音声信号の周波数を補
正するとともに、この補正した歌唱音声信号に対してオ
リジナル歌手の音色のハーモニー音声信号を合成する。
これら音声信号は効果用DSP20に出力される。
On the other hand, the singing voice signal input from the singing microphone 27 is input to the voice processing DSP 30 via the preamplifier 28 and the A / D converter 29, and the main melody information, harmony information and phonemes are also transmitted from the CPU 10. Data and the like are input. The voice processing DSP 30 corrects the frequency of the singing voice signal of the singer based on the information, and synthesizes a harmony voice signal of the original singer's tone with the corrected singing voice signal.
These audio signals are output to the effect DSP 20.

【0024】音源装置18が形成した楽音信号、音声デ
ータ処理部19が形成した音声信号および音声処理用D
SP30から入力される歌唱音声信号,ハーモニー音声
信号は効果用DSP20に入力される。効果用DSP2
0は、これら入力された音声信号や楽音信号に対してリ
バーブやエコーなどの効果を付与する。効果用DSP2
0が付与する効果の種類や程度は、楽曲データに含まれ
ているDSPコントロールデータに基づいて制御され
る。DSPコントロールデータはDSPコントロール用
シーケンスプログラムに基づき、CPU10が所定のタ
イミングに効果用DSP20に入力する。効果が付与さ
れた楽音信号,音声信号はD/Aコンバータ21でアナ
ログ信号に変換されたのちアンプ・スピーカ22に出力
される。アンプ・スピーカ22はこの信号を増幅したの
ち放音する。
The tone signal formed by the sound source device 18, the sound signal formed by the sound data processing section 19, and the sound processing D
The singing voice signal and the harmony voice signal input from the SP 30 are input to the effect DSP 20. DSP2 for effects
A value of 0 gives effects such as reverb and echo to these input audio signals and tone signals. DSP2 for effects
The type and degree of the effect given by 0 are controlled based on the DSP control data included in the music data. The DSP control data is input to the effect DSP 20 at a predetermined timing by the CPU 10 based on the DSP control sequence program. The tone signal and audio signal to which the effect has been added are converted into analog signals by the D / A converter 21 and then output to the amplifier / speaker 22. The amplifier / speaker 22 amplifies this signal and emits sound.

【0025】また、文字表示部23は入力される文字デ
ータに基づいて、曲名や歌詞などの文字パターンを生成
する。また、LDチェンジャ24は入力された映像選択
データ(チャプタナンバ)に基づき、対応するLDの背
景映像を再生する。映像選択データは当該カラオケ曲の
ジャンルデータなどに基づいて決定される。カラオケ演
奏スタート時、CPU10は楽曲データのヘッダから曲
のジャンルデータを読み取る。CPU10はジャンルデ
ータと背景映像の内容などに基づいてどの背景映像を再
生するかを決定し、映像選択データをLDチェンジャ2
4に出力する。LDチェンジャ24には、5枚(120
シーン)程度のレーザディスクが内蔵されており120
シーンの背景映像を再生することができる。映像選択デ
ータによってこのなかから1つの背景映像が選択され、
映像データとして出力される。文字パターン,映像デー
タは表示制御部25に入力される。表示制御部25では
これらのデータをスーパーインポーズで合成してモニタ
26に表示する。
The character display unit 23 generates character patterns such as song titles and lyrics based on the input character data. The LD changer 24 reproduces the background video of the corresponding LD based on the input video selection data (chapter number). The video selection data is determined based on the genre data of the karaoke song or the like. At the start of the karaoke performance, the CPU 10 reads the genre data of the music from the header of the music data. The CPU 10 determines which background video is to be reproduced based on the genre data and the content of the background video, and stores the video selection data in the LD changer 2.
4 is output. The LD changer 24 has 5 sheets (120
Scene) and a laser disk of about 120
The background video of the scene can be reproduced. One background image is selected from among them according to the image selection data,
Output as video data. The character pattern and the video data are input to the display control unit 25. The display control unit 25 superimposes these data in superimposition and displays them on the monitor 26.

【0026】図2は前記音声処理用DSP30の動作を
説明する図である。音声処理用DSP30は内蔵されて
いるマイクロプログラムに基づき入力信号に対して多種
の処理動作を実行するが、各処理動作をブロック化して
表すと同図のようになる。
FIG. 2 is a diagram for explaining the operation of the DSP 30 for audio processing. The voice processing DSP 30 executes various processing operations on an input signal based on a built-in microprogram, and each processing operation is represented by blocks as shown in FIG.

【0027】マイク27から入力された歌唱音声信号は
アンプ28で増幅されA/Dコンバータ29でディジタ
ル信号に変換されたのちこの音声処理用DSP30の音
節検出部40,ピッチ検出部41およびピッチ補正部4
2に入力される。音節検出部40は、この歌唱音声信号
のレベルを逐次リアルタイムに検出するとともに、レベ
ルの切れ目や子音の出現によって音節の切れ目を検出す
る。子音はホワイトノイズ的な非周期波形であるところ
から周期波形の母音と識別可能である。レベル変化波形
はエンベロープ付与部46に出力され、音節区切り信号
は音素ポインタ生成部43に出力される。
The singing voice signal input from the microphone 27 is amplified by the amplifier 28 and converted into a digital signal by the A / D converter 29, and then the syllable detecting unit 40, the pitch detecting unit 41 and the pitch correcting unit of the voice processing DSP 30. 4
2 is input. The syllable detecting unit 40 sequentially detects the level of the singing voice signal in real time, and detects a syllable break based on a level break or the appearance of a consonant. Since the consonant is a non-periodic waveform like white noise, it can be distinguished from a vowel having a periodic waveform. The level change waveform is output to the envelope assigning section 46, and the syllable delimiter signal is output to the phoneme pointer generating section 43.

【0028】ピッチ検出部41は入力された歌唱音声信
号の周波数を逐次リアルタイムに検出し、該周波数情報
(周波数変化波形)をピッチ補正部42に出力する。ピ
ッチ補正部42には、周波数情報,歌唱音声信号のほか
主旋律情報が入力される。ピッチ補正部42は、入力さ
れた周波数情報を主旋律情報と比較し、そのずれ分だけ
歌唱音声信号をシフトすることにより、歌唱音声信号が
主旋律に一致するように補正する。この補正された歌唱
音声信号は加算部47に出力される。
The pitch detecting section 41 sequentially detects the frequency of the input singing voice signal in real time, and outputs the frequency information (frequency change waveform) to the pitch correcting section 42. The main melody information in addition to the frequency information and the singing voice signal is input to the pitch correction unit 42. The pitch correction unit 42 compares the input frequency information with the main melody information, and shifts the singing voice signal by an amount corresponding to the difference, thereby correcting the singing voice signal to match the main melody. The corrected singing voice signal is output to the adding section 47.

【0029】ここで、主旋律情報としては、音符単位で
音高を記憶したデータであってもよく、また、模範歌唱
者(オリジナル歌手)のピッチ変化を時系列に書き込ん
だ、すなわち、節回しをそのまま書き取ったデータであ
ってもよい。
Here, the main melody information may be data in which the pitch is stored in note units, and the pitch change of the model singer (original singer) is written in chronological order, that is, the moderation is kept as it is. It may be written data.

【0030】図7に、主旋律情報として模範歌唱者の歌
唱ピッチの変化を時系列に書き込んだ情報を用いた場合
のピッチ補正をグラフ化した図を示す。同図の細線が模
範歌唱者の歌唱ピッチの変化を示している。また、カラ
オケ歌唱者の歌唱ピッチもほぼ追従した変化をしている
が、微妙にそのピッチに誤差がある。そこで、同図下段
に示すようなピッチ補正値を生成し、これを歌唱音声信
号の周波数に加算することにより、カラオケ歌唱者の歌
唱ピッチが模範歌唱者の歌唱ピッチに一致する。
FIG. 7 is a graph showing pitch correction in the case of using information in which the change of the singing pitch of the model singer is written in time series as the main melody information. The thin line in the figure shows the change in the singing pitch of the model singer. The singing pitch of the karaoke singer also changes substantially following, but there is a slight error in the pitch. Therefore, by generating a pitch correction value as shown in the lower part of the figure and adding this to the frequency of the singing voice signal, the singing pitch of the karaoke singer matches the singing pitch of the model singer.

【0031】なお、同図のように完全に補正する方式以
外に、カラオケ歌唱者の歌唱ピッチと模範歌唱者の歌唱
ピッチとの差の半分程度を補正することにより、カラオ
ケ歌唱者の節回しをある程度生かすようにすることもで
きる。
It should be noted that, besides the method of complete correction as shown in the figure, by correcting about half the difference between the singing pitch of the karaoke singer and the singing pitch of the model singer, the moderation of the karaoke singer is reduced to some extent. You can make use of it.

【0032】一方、カラオケ演奏のスタート時に楽曲デ
ータ中の音素トラックの内容がこの音声処理用DSP3
0に入力される。このうち音素データは音素データレジ
スタ44に入力され、デュレーションデータはポインタ
生成部43に入力される。ポインタ生成部43は、曲の
進行に同期して音素データレジスタ44中の1つの音素
データを指定する音素ポインタを生成する。音素ポイン
タは、通常は音節検出部40から入力される音節区切り
信号に基づいて歩進されるが、歌唱音声信号が全く入力
されないときや音節の区切りができなかった場合などに
はテンポクロックであるbeat情報によるデュレーシ
ョンデータのカウントで歩進される。音素ポインタで指
定された音素データは音素データレジスタ44からハー
モニー形成部45に出力される。ハーモニー形成部45
には、また、CPU10からハーモニーデータが入力さ
れ、ハーモニー形成部45は、入力された音素データの
波形でハーモニーデータの音高のハーモニー音声信号を
形成する。形成されたハーモニー音声信号はエンベロー
プ付与部46に出力される。エンベロープ付与部46で
は、ハーモニー形成部45から入力されたハーモニー音
声信号に対して、音節検出部40から入力されたレベル
変化波形を乗じてエンベロープを付与する。音節検出に
よる音素データの歩進およびこのエンベロープの付与に
よりカラオケ歌唱者に合わせて歌うハーモニー音声信号
を形成することができる。エンベロープを付与されたハ
ーモニー音声信号は加算部47に出力される。
On the other hand, at the start of the karaoke performance, the contents of the phoneme tracks in the music data are
Input to 0. Of these, the phoneme data is input to the phoneme data register 44, and the duration data is input to the pointer generator 43. The pointer generation unit 43 generates a phoneme pointer that specifies one phoneme data in the phoneme data register 44 in synchronization with the progress of the music. The phoneme pointer is normally advanced based on a syllable delimiter signal input from the syllable detection unit 40, but is a tempo clock when a singing voice signal is not input at all or when a syllable cannot be delimited. The increment is performed by counting the duration data according to the beat information. The phoneme data specified by the phoneme pointer is output from the phoneme data register 44 to the harmony forming unit 45. Harmony forming part 45
In addition, the harmony data is input from the CPU 10, and the harmony forming unit 45 forms a harmony sound signal of the pitch of the harmony data with the waveform of the input phoneme data. The formed harmony audio signal is output to the envelope providing unit 46. The envelope adding section 46 multiplies the harmony sound signal input from the harmony forming section 45 by the level change waveform input from the syllable detecting section 40 to add an envelope. A harmony voice signal singing to a karaoke singer can be formed by advancing phoneme data by syllable detection and adding this envelope. The harmony sound signal to which the envelope has been added is output to the adding unit 47.

【0033】加算部47ではピッチを補正された歌唱音
声信号およびハーモニー音声信号が加算される。この信
号は効果用DSP20に対して出力される。
The adder 47 adds the singing voice signal and the harmony voice signal whose pitch has been corrected. This signal is output to the effect DSP 20.

【0034】音声処理用DSP30の以上のような動作
により、歌唱者の歌唱音声信号を正しく合わせることが
できるとともに、歌唱者の歌唱に合わせたハーモニー音
声信号をオリジナル歌手の声で形成することができる。
By the above-described operation of the voice processing DSP 30, the singing voice signal of the singer can be correctly matched, and the harmony voice signal matched with the singing of the singer can be formed by the voice of the original singer. .

【0035】なお、この実施例では、オリジナル歌手の
歌唱から抽出した音節のデータを音素データとしてシー
ケンシャルに記憶したが、音素データとしてはこれに限
定されない。すなわち、一般的な50音の発音等を記憶
しておき、歌唱者の歌唱音声を音声認識して、対応する
音素を割り出して使用するようにしてもよい。
In this embodiment, the syllable data extracted from the singing of the original singer is sequentially stored as phoneme data, but the phoneme data is not limited to this. That is, the pronunciation of the general 50 sounds may be stored, the singing voice of the singer may be recognized, and the corresponding phoneme may be determined and used.

【0036】なお、カラオケ演奏スタート時に音素トラ
ックのみ音声処理用DSP30に取り込み、主旋律デー
タ,ハーモニーデータはCPU10によるシーケンスで
DSP30に入力するようにしているが、カラオケスタ
ート時に音素トラック,主旋律トラック,ハーモニート
ラックのデータを全てDSP30に取り込み、歌唱者の
歌唱の進行に合わせてピッチ補正を行うようにしてもよ
い。また、その逆に音素データもCPU10によるシー
ケンスでDSP30に入力するようにし、歌唱者の歌唱
の進行に拘らずカラオケ曲の進行に合わせてハーモニー
音声信号を形成するようにしてもよい。
At the start of the karaoke performance, only the phoneme tracks are taken into the DSP 30 for voice processing, and the main melody data and the harmony data are input to the DSP 30 in a sequence by the CPU 10. However, at the start of the karaoke, the phoneme tracks, the main melody tracks and the harmony tracks are obtained. May be taken into the DSP 30, and the pitch may be corrected in accordance with the progress of the singer's singing. Conversely, the phoneme data may also be input to the DSP 30 in a sequence by the CPU 10, so that the harmony voice signal may be formed in accordance with the progress of the karaoke song regardless of the progress of the singer's singing.

【0037】[0037]

【発明の効果】以上のようにこの発明のカラオケ装置に
よれば、歌唱者が入力する歌唱音声信号に同期させて、
音素情報に基づいて合成したハーモニー音声信号を付加
することができ、歌唱者の音声と異なる音声のハーモニ
ーを付加することができる。この場合に、歌唱者が歌い
忘れた場合でもテンポクロックに基づいてハーモニー音
声信号が合成されるため主旋律とハーモニーの両方の音
声が消えてしまうことがない。
As described above, according to the karaoke apparatus of the present invention, in synchronization with the singing voice signal input by the singer,
A harmony voice signal synthesized based on the phoneme information can be added, and harmony of a voice different from the voice of the singer can be added. In this case, even if the singer forgets to sing, the harmony voice signal is synthesized based on the tempo clock, so that both the main melody and the harmony voice do not disappear.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例である音声変換カラオケ装置
のブロック図
FIG. 1 is a block diagram of a voice conversion karaoke apparatus according to an embodiment of the present invention.

【図2】同音声変換カラオケ装置の音声処理用DSPの
構成を示す図
FIG. 2 is a diagram showing a configuration of a voice processing DSP of the voice conversion karaoke apparatus.

【図3】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 3 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図4】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 4 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図5】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 5 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図6】同楽曲データに含まれる音素データの構成を示
す図
FIG. 6 is a diagram showing a configuration of phoneme data included in the music data.

【図7】同楽曲データに含まれる主旋律データとピッチ
補正の例を示す図
FIG. 7 is a diagram showing an example of main melody data and pitch correction included in the music piece data;

【符号の説明】[Explanation of symbols]

30−音声処理用DSP、41−ピッチ検出部、42−
ピッチ補正部、45−ハーモニー形成部。
30-DSP for voice processing, 41-Pitch detector, 42-
Pitch correction part, 45-harmony formation part.

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 13/08 G10L 19/00 - 21/06 G10K 15/00 - 15/12 G10H 1/00 - 7/12 Continuation of the front page (58) Field surveyed (Int.Cl. 7 , DB name) G10L 11/00-13/08 G10L 19/00-21/06 G10K 15/00-15/12 G10H 1/00-7 / 12

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 記憶手段(17)、制御手段(10)、
音源手段(18)、音声処理手段(30)を有するカラ
オケ装置であって、 記憶手段(17)は、複数の楽曲情報を記憶し、 楽曲情報は、楽音情報のシーケンスデータである楽音ト
ラック、ハーモニーデータのシーケンスデータであるハ
ーモニートラック、音素情報のシーケンスデータである
音素トラックからなり、 制御手段(10)は、テンポクロックに基づいて記憶手
段(17)から楽音情報を読み出し、音源手段(18)
へ出力し、 音源手段(18)は、入力された楽音情報に基づいて楽
音を発生し、 音声処理手段(30)は、入力される歌唱音声信号から
音節の区切りを検出し、検出された音節の区切りに基づ
いて音素ポインタを歩進し、音素ポインタの指定する音
素情報とハーモニーデータに基づいてハーモニー音声信
号を形成するとともに、歌唱音声信号から音節の区切り
を検出できなかったとき、テンポクロックに基づいて音
素ポインタを歩進するカラオケ装置。
1. A storage means (17), a control means (10),
A karaoke apparatus having a sound source means (18) and a voice processing means (30), wherein the storage means (17) stores a plurality of pieces of music information, and the music information is a musical sound track, a harmony, which is sequence data of musical sound information. The control means (10) reads out the tone information from the storage means (17) based on the tempo clock, and generates a sound source means (18). The harmony track is data sequence data and the phoneme track is phoneme information sequence data.
The sound source means (18) generates a musical tone based on the input musical sound information, and the voice processing means (30) detects a syllable segment from the input singing voice signal, and detects the detected syllable. The phoneme pointer is incremented based on the punctuation of the phoneme, and a harmony voice signal is formed based on the phoneme information and the harmony data specified by the phoneme pointer. A karaoke device that advances phoneme pointers based on the
JP11029716A 1999-02-08 1999-02-08 Karaoke equipment Expired - Fee Related JP3116937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11029716A JP3116937B2 (en) 1999-02-08 1999-02-08 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11029716A JP3116937B2 (en) 1999-02-08 1999-02-08 Karaoke equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP7038721A Division JP2904045B2 (en) 1995-02-27 1995-02-27 Karaoke equipment

Publications (2)

Publication Number Publication Date
JPH11282483A JPH11282483A (en) 1999-10-15
JP3116937B2 true JP3116937B2 (en) 2000-12-11

Family

ID=12283846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11029716A Expired - Fee Related JP3116937B2 (en) 1999-02-08 1999-02-08 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP3116937B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117599A (en) * 1999-10-21 2001-04-27 Yamaha Corp Voice processor and karaoke device
JP4757971B2 (en) * 1999-10-21 2011-08-24 ヤマハ株式会社 Harmony sound adding device
JP4509273B2 (en) * 1999-12-22 2010-07-21 ヤマハ株式会社 Voice conversion device and voice conversion method
JP3709817B2 (en) 2001-09-03 2005-10-26 ヤマハ株式会社 Speech synthesis apparatus, method, and program
JP3938015B2 (en) 2002-11-19 2007-06-27 ヤマハ株式会社 Audio playback device
JP4207902B2 (en) * 2005-02-02 2009-01-14 ヤマハ株式会社 Speech synthesis apparatus and program
JP5337608B2 (en) 2008-07-16 2013-11-06 本田技研工業株式会社 Beat tracking device, beat tracking method, recording medium, beat tracking program, and robot
JP7298702B2 (en) * 2019-09-27 2023-06-27 ヤマハ株式会社 Acoustic signal analysis method, acoustic signal analysis system and program
JP6884903B1 (en) * 2020-03-30 2021-06-09 株式会社第一興商 Karaoke equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2904045B2 (en) 1995-02-27 1999-06-14 ヤマハ株式会社 Karaoke equipment
JP2921428B2 (en) 1995-02-27 1999-07-19 ヤマハ株式会社 Karaoke equipment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2904045B2 (en) 1995-02-27 1999-06-14 ヤマハ株式会社 Karaoke equipment
JP2921428B2 (en) 1995-02-27 1999-07-19 ヤマハ株式会社 Karaoke equipment

Also Published As

Publication number Publication date
JPH11282483A (en) 1999-10-15

Similar Documents

Publication Publication Date Title
JP2921428B2 (en) Karaoke equipment
JP3598598B2 (en) Karaoke equipment
JP3319211B2 (en) Karaoke device with voice conversion function
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP2838977B2 (en) Karaoke equipment
JP3127722B2 (en) Karaoke equipment
JP3116937B2 (en) Karaoke equipment
JP4038836B2 (en) Karaoke equipment
JP3901008B2 (en) Karaoke device with voice conversion function
JP2904045B2 (en) Karaoke equipment
JPH10268895A (en) Voice signal processing device
JP2006126710A (en) Playing style determining device and program
JP3430814B2 (en) Karaoke equipment
JP5561263B2 (en) Musical sound reproducing apparatus and program
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP3050129B2 (en) Karaoke equipment
JP3173310B2 (en) Harmony generator
JP2004144867A (en) Singing practice assisting system of karaoke device
JP3047879B2 (en) Performance guide device, performance data creation device for performance guide, and storage medium
JP2001100771A (en) Karaoke device
JP3564775B2 (en) Karaoke device with vibrato addition function
JP5747974B2 (en) Information processing apparatus and program
JPH10133658A (en) Accompaniment pattern data forming device
JPH07199973A (en) Karaoke device
JP2001022349A (en) Music data processing method

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071006

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081006

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees