JP2904045B2 - Karaoke equipment - Google Patents

Karaoke equipment

Info

Publication number
JP2904045B2
JP2904045B2 JP7038721A JP3872195A JP2904045B2 JP 2904045 B2 JP2904045 B2 JP 2904045B2 JP 7038721 A JP7038721 A JP 7038721A JP 3872195 A JP3872195 A JP 3872195A JP 2904045 B2 JP2904045 B2 JP 2904045B2
Authority
JP
Japan
Prior art keywords
data
harmony
phoneme
voice signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7038721A
Other languages
Japanese (ja)
Other versions
JPH08234772A (en
Inventor
隆宏 川嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP7038721A priority Critical patent/JP2904045B2/en
Publication of JPH08234772A publication Critical patent/JPH08234772A/en
Application granted granted Critical
Publication of JP2904045B2 publication Critical patent/JP2904045B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、歌唱音声信号のピッ
チ(周波数)のズレを補正することのできるカラオケ装
置に関し、さらに、補正された歌唱音声信号に対してハ
ーモニー音声を付加することのできるカラオケ装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke apparatus which can correct a deviation in pitch (frequency) of a singing voice signal, and can add a harmony voice to the corrected singing voice signal. It relates to a karaoke device.

【0002】[0002]

【従来の技術】カラオケ装置において、歌唱を盛り上げ
るため、または、歌唱を上手く聞かせるために歌唱者の
歌唱音声に対してハーモニー(たとえば、歌唱の旋律に
対して3度上の旋律)の音声を付加して出力する機能を
備えたものが提案されている。ハーモニー付加機能とし
ては、歌唱者の歌唱テンポに合わせたハーモニー音声を
作るためマイクから入力された歌唱者の音声信号をピッ
チシフトしてハーモニー音声信号を形成するものが一般
的である。
2. Description of the Related Art In a karaoke apparatus, harmony (for example, a melody three times higher than a melody of a singer) is applied to a singer's singing voice in order to excite the singing or to make the singing sound better. A device having a function of adding and outputting has been proposed. As a harmony addition function, a harmony voice signal is generally formed by pitch-shifting a singer's voice signal input from a microphone in order to generate a harmony voice in accordance with the singer's singing tempo.

【0003】[0003]

【発明が解決しようとする課題】しかし、このようなハ
ーモニー音声信号付加機能を有するカラオケ装置では、
歌唱者の歌唱音声をそのまま用いてハーモニー音声を作
成するため、主旋律もハーモニーも同じ声になってしま
う。また、歌唱者の歌唱音声をそのままピッチシフトす
るため、歌唱者のピッチがずれていた場合には、ハーモ
ニー音声も、歌唱者とは協和するものの、ピッチのずれ
たものとなり、伴奏と合わずにカラオケ歌唱を盛り上げ
ることができない。また、ハーモニー音声信号を歌唱者
の歌唱を無視して付加することも考えられるが、それで
はハーモニーとして主旋律の歌唱に合わせることができ
ず、また、歌唱者のみピッチがずれることになり、カラ
オケ歌唱をより盛り上げることができない欠点があっ
た。
However, in a karaoke apparatus having such a harmony sound signal adding function,
Create a harmony voice using the singer's singing voice as it is
The main melody and harmony have the same voice
U. Also, since the singer's singing voice is pitch-shifted as it is, if the singer's pitch is out of alignment, the harmony voice will also be in harmony with the singer, but will be out of pitch, and will not match the accompaniment I can't excite karaoke songs. It is also conceivable to add a harmony voice signal ignoring the singer's singing.However, it is not possible to match the harmony to the main melody singing. There was a drawback that could not be raised more.

【0004】この発明は、ハーモニー音声を別の声で合
成し、歌唱者の歌唱音声信号を補正することにより、伴
奏やハーモニーが歌唱音声によく協和するようにしたカ
ラオケ装置を提供することを目的とする。
According to the present invention, the harmony sound is combined with another voice.
Form, by correcting the singing voice signal of the singer, the accompaniment and harmony and an object thereof is to provide a karaoke apparatus that consonant well singing voice.

【0005】[0005]

【課題を解決するための手段】この出願の請求項1の発
明は、記憶手段(17)、制御手段(10)、音源手段
(18)、音声処理手段(30)を有するカラオケ装置
であって、記憶手段(17)は、複数の楽曲情報を記憶
し、楽曲情報は、楽音情報のシーケンスデータである楽
音トラック、ハーモニーデータのシーケンスデータであ
るハーモニートラック、音素情報のシーケンスデータで
ある音素トラックからなり、制御手段(10)は、楽曲
情報を記憶手段(17)から読み出し、楽音情報を音源
手段(18)へ、ハーモニーデータおよび音素情報を音
声処理手段(30)へ出力し、音声処理手段(30)
は、入力される歌唱音声信号から音節の区切りを検出
し、検出された音節の区切りに基づいて音素ポインタを
歩進し、音素ポインタの指定する音素情報とハーモニー
データに基づいてハーモニー音声信号を形成することを
特徴とする。
The invention of claim 1 of the present application is a karaoke apparatus having storage means (17), control means (10), sound source means (18), and sound processing means (30). , The storage means (17) stores a plurality of pieces of music information, and the music information is obtained from a music track, which is sequence data of music information, a harmony track, which is sequence data of harmony data, and a phoneme track, which is sequence data of phoneme information. The control means (10) reads out the music information from the storage means (17), outputs the musical sound information to the sound source means (18), outputs the harmony data and the phoneme information to the sound processing means (30), and outputs the sound processing means ( 30)
Detects syllable breaks from the input singing voice signal, advances the phoneme pointer based on the detected syllable breaks, and forms a harmony voice signal based on the phoneme information and harmony data specified by the phoneme pointer. It is characterized by doing.

【0006】この出願の請求項2の発明は、請求項1の
発明において、音声処理手段(30)は、歌唱音声信号
のレベルを検出してレベル変化波形を出力し、形成した
ハーモニー音声信号にレベル変化波形を乗ずることを特
徴とする。請求項3の発明は、請求項1,2の発明にお
いて、記憶手段(17)が記憶する楽曲情報は、主旋律
データのシーケンスデータである主旋律トラックを含
み、制御手段(10)は、主旋律情報を音声処理手段
(30)に出力し、音声処理手段(30)は、入力され
る歌唱音声信号主旋律データに基づいて周波数補正
し、補正した歌唱音声信号をハーモニー音声信号と合成
して出力することを特徴とする。
According to a second aspect of the present invention, in the first aspect, the voice processing means (30) detects a level of the singing voice signal, outputs a level change waveform, and outputs the harmony voice signal to the formed harmony voice signal. It is characterized by multiplying a level change waveform. According to a third aspect of the present invention, in the first and second aspects of the invention, the music information stored in the storage means (17) includes a main melody track which is a sequence data of the main melody data, and the control means (10) stores the main melody information. output to sound processing means (30), sound processing means (30), the frequency correction based on the singing voice signal inputted to the main melody data, and outputs the corrected singing voice signal harmony audio signal and synthesizing the It is characterized by.

【0007】[0007]

【0008】[0008]

【0009】[0009]

【実施例】図面を参照してこの発明の実施例であるカラ
オケ装置について説明する。このカラオケ装置は、通信
機能、歌唱補正機能、および、ハーモニー付加機を備え
ている。音源カラオケ装置とは、楽曲データで音源装置
を駆動することによりカラオケ演奏音を発生するカラオ
ケ装置である。楽曲データとは、音高や発音タイミング
を指定する演奏データ列などの複数トラックからなるシ
ーケンスデータである。また、通信機能とは、通信回線
を介してホストステーションと接続され、楽曲データを
ホストステーションからダウンロードしてハードディス
ク装置17(図1参照)に蓄える機能である。ハードデ
ィスク装置17は、楽曲データを数百〜数千曲分記憶す
ることができる。歌唱補正機能とは、歌唱のピッチすな
わち歌唱者がマイクから入力する歌唱音声信号の周波数
が正しい好ましい周波数からずれていた場合には、これ
を補正する機能である。ハーモニー付加機能とは、歌唱
者の歌唱音声信号に3度や5度の音程のハーモニー音声
信号を付加する機能である。ハーモニー音声信号は、歌
唱者の歌唱音声に対して3度や5度などの音程を有する
音声信号をオリジナル歌手の音声で生成し、これをハー
モニー音声信号として出力するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A karaoke apparatus according to an embodiment of the present invention will be described with reference to the drawings. This karaoke apparatus has a communication function, a singing correction function, and a harmony addition device. A sound source karaoke device is a karaoke device that generates a karaoke performance sound by driving the sound source device with music data. The music data is sequence data composed of a plurality of tracks, such as a performance data string that specifies a pitch and a sound generation timing. The communication function is a function that is connected to the host station via a communication line, downloads music data from the host station, and stores the music data in the hard disk device 17 (see FIG. 1). The hard disk device 17 can store music data for hundreds to thousands of songs. The singing correction function is a function of correcting a singing pitch, that is, a singing voice signal input from a microphone by a singer when the singing voice signal deviates from a correct and preferable frequency. The harmony adding function is a function of adding a harmony voice signal having a pitch of 3rd or 5th to the singing voice signal of the singer. The harmony voice signal is a signal that generates a voice signal having a pitch such as third or fifth with respect to the singing voice of the singer as the voice of the original singer, and outputs this as a harmony voice signal.

【0010】まず、図3〜図6を参照して同カラオケ装
置においてカラオケ演奏に用いられる楽曲データの構成
について説明する。図3は楽曲データの構成を示す図で
ある。また、図4,図5は楽曲データの詳細な構成を示
す図である。さらに、図6は楽曲データに含まれる音素
データの構成を説明する図である。
First, the configuration of music data used for karaoke performance in the karaoke apparatus will be described with reference to FIGS. FIG. 3 is a diagram showing a configuration of music data. FIGS. 4 and 5 are diagrams showing a detailed configuration of music data. FIG. 6 is a diagram illustrating the configuration of phoneme data included in the music data.

【0011】図3において、1つの楽曲データは、ヘッ
ダ,楽音トラック,主旋律トラック,ハーモニートラッ
ク,歌詞トラック,音声トラック,効果トラック,音素
トラックおよび音声データ部からなっている。
In FIG. 3, one piece of music data is composed of a header, a musical tone track, a main melody track, a harmony track, a lyrics track, a voice track, an effect track, a phoneme track, and a voice data section.

【0012】ヘッダは、この楽曲データに関する種々の
データが書き込まれる部分であり、曲名,ジャンル,発
売日,曲の演奏時間(長さ)などのデータが書き込まれ
ている。CPU10(図1参照:以下同様)は、メイン
シーケンスプログラムの実行時にジャンルデータに基づ
いてモニタ26に表示する背景映像を決定し、LDチェ
ンジャ24に対してその映像のチャプタナンバを送信す
る。背景映像の決定方式は、冬をテーマにした演歌の場
合には雪国の映像を選択し、ポップスの場合には外国の
映像を選択するなどである。
The header is a portion in which various data related to the music data is written, and data such as a music title, a genre, a release date, and a music playing time (length) are written therein. The CPU 10 (see FIG. 1: the same applies hereinafter) determines a background image to be displayed on the monitor 26 based on the genre data when the main sequence program is executed, and transmits a chapter number of the image to the LD changer 24. The method of determining the background image is to select an image of a snowy country in the case of enka on the theme of winter, and to select an image of a foreign country in the case of pops.

【0013】楽音トラック〜音素トラックの各トラック
は図4,図5に示すように複数のイベントデータと各イ
ベントデータ間の時間間隔を示すデュレーションデータ
Δtからなるシーケンスデータで構成されている。CP
U10はカラオケ演奏時にシーケンスプログラムを実行
する。シーケンスプログラムは、所定のテンポクロック
でΔtをカウントし、Δtをカウントアップしたときこ
れに続くイベントデータの読出タイミングであるとし
て、これを読み出して所定の処理部へ出力するプログラ
ムである。
As shown in FIGS. 4 and 5, each track from the musical tone track to the phoneme track is composed of sequence data including a plurality of event data and duration data Δt indicating a time interval between the event data. CP
U10 executes a sequence program during karaoke performance. The sequence program is a program that counts Δt at a predetermined tempo clock, and when Δt is counted up, determines that it is the readout timing of event data following this, and reads out this data and outputs it to a predetermined processing unit.

【0014】楽音トラックには、メロディトラック,リ
ズムトラックを初めとして種々のパートのトラックが形
成されている。CPU10は、楽音シーケンスプログラ
ムによって読み出したイベントデータを音源装置18に
出力する。音源装置18はそのイベントデータに含まれ
ているチャンネル指定データに基づいて発音チャンネル
を選択し、その発音チャンネルについてそのイベントを
実行する。
On the musical sound track, tracks of various parts including a melody track and a rhythm track are formed. The CPU 10 outputs to the tone generator 18 the event data read by the tone sequence program. The sound source device 18 selects a sounding channel based on the channel designation data included in the event data, and executes the event for the sounding channel.

【0015】主旋律トラックには、このカラオケ曲の主
旋律すなわち歌唱者が歌うべき旋律のシーケンスデータ
が書き込まれている。このデータはCPU10から音声
処理用DSP30に入力される。音声処理用DSP30
はこのデータに基づいて歌唱者の音声信号を補正する。
また、ハーモニートラックの構成も主旋律トラックと同
様であり、このカラオケ曲のハーモニー旋律のシーケン
スデータが書き込まれている。このデータもCPU10
から音声処理用DSP30に入力される。音声処理用D
SP30はこのデータに基づいてハーモニー音声信号の
周波数(音高)を決定する。
In the main melody track, the main melody of the karaoke song, that is, the sequence data of the melody to be sung by the singer is written. This data is input from the CPU 10 to the DSP 30 for audio processing. DSP 30 for audio processing
Corrects the singer's voice signal based on this data.
The configuration of the harmony track is the same as that of the main melody track, and the sequence data of the harmony melody of this karaoke song is written. This data is also stored in the CPU 10
Is input to the DSP 30 for audio processing. D for audio processing
The SP 30 determines the frequency (pitch) of the harmony audio signal based on this data.

【0016】歌詞トラックは、モニタ26上に歌詞を表
示するためのシーケンスデータを記憶したトラックであ
る。このシーケンスデータは楽音データではないが、イ
ンプリメンテーションの統一をとり、作業工程を容易に
するためこのトラックもMIDIデータ形式で記述され
ている。データ種類は、システム・エクスクルーシブ・
メッセージである。歌詞トラックのデータ記述におい
て、通常は1行の歌詞を1つの歌詞表示データとして扱
っている。歌詞表示データは1行の歌詞の文字データ
(文字コードおよびその文字の表示座標)、この歌詞の
表示時間(通常は30秒前後)、および、ワイプシーケ
ンスデータからなっている。ワイプシーケンスデータと
は、曲の進行に合わせて歌詞の表示色を変更してゆくた
めのシーケンスデータであり、表示色を変更するタイミ
ング(この歌詞が表示されてからの時間)と変更位置
(座標)が1行分の長さにわたって順次記録されている
データである。
The lyrics track is a track in which sequence data for displaying lyrics on the monitor 26 is stored. Although this sequence data is not tone data, this track is also described in the MIDI data format in order to unify the implementation and facilitate the work process. The data type is system exclusive
It is a message. In the data description of the lyrics track, usually, one line of lyrics is treated as one piece of lyrics display data. The lyrics display data is composed of character data (character codes and display coordinates of the characters) of one line of lyrics, display time of the lyrics (usually around 30 seconds), and wipe sequence data. The wipe sequence data is sequence data for changing the display color of the lyrics in accordance with the progress of the song. The timing of changing the display color (the time from when the lyrics are displayed) and the change position (coordinates) ) Is data sequentially recorded over the length of one line.

【0017】音声トラックは、音声データ部に記憶され
ている音声データn(n=1,2,3,‥‥)の発生タ
イミングなどを指定するシーケンストラックである。音
声データ部には、音源装置18で合成しにくいバックコ
ーラスやハーモニー歌唱などの人声が記憶されている。
音声トラックには、音声指定データと音声指定データの
読み出し間隔、すなわち、音声データを音声データ処理
部19に出力して音声信号形成するタイミングを指定す
るデュレーションデータΔtが書き込まれている。音声
指定データは、音声データ番号,音程データおよび音量
データからなっている。音声データ番号は、音声データ
部に記録されている各音声データの識別番号nである。
音程データ,音量データは、形成すべき音声データの音
程や音量を指示するデータである。すなわち、言葉を伴
わない「アー」や「ワワワワッ」などのバックコーラス
は、音程や音量を変化させれば何度も利用できるため、
基本的な音程,音量で1つ記憶しておき、このデータに
基づいて音程や音量をシフトして繰り返し使用する。音
声データ処理部19は音量データに基づいて出力レベル
を設定し、音程データに基づいて音声データの読出間隔
を変えることによって音声信号の音程を設定する。
The audio track is a sequence track for specifying the generation timing of the audio data n (n = 1, 2, 3,...) Stored in the audio data section. The voice data section stores human voices such as back chorus and harmony singing that are difficult to synthesize by the sound source device 18.
In the audio track, duration data Δt for designating the timing of outputting the audio designation data and the audio designation data, that is, the timing of outputting the audio data to the audio data processing unit 19 and forming the audio signal are written. The voice designation data includes a voice data number, pitch data, and volume data. The audio data number is an identification number n of each audio data recorded in the audio data section.
The pitch data and the volume data are data indicating the pitch and volume of the audio data to be formed. In other words, back choruses such as "Ah" and "Wawa Wawa" without words can be used many times by changing the pitch or volume,
One basic pitch and volume are stored, and the pitch and volume are shifted and used repeatedly based on this data. The audio data processing unit 19 sets the output level based on the volume data, and sets the interval of the audio signal by changing the reading interval of the audio data based on the interval data.

【0018】効果トラックには、効果用DSP20を制
御するためのDSPコントロールデータが書き込まれて
いる。効果用DSP20は音源装置18,音声データ処
理部19,音声処理用DSP30から入力される信号に
対してリバーブなどの残響系の効果を付与する。DSP
コントロールデータは、このような効果の種類を指定す
るデータおよびその変化量データなどからなっている。
In the effect track, DSP control data for controlling the effect DSP 20 is written. The effect DSP 20 applies reverberation or other reverberation effects to signals input from the sound source device 18, the audio data processing unit 19, and the audio processing DSP 30. DSP
The control data includes data designating the kind of the effect and data of a change amount thereof.

【0019】一方、音素トラックには、図6に示す音素
データs1,s2,‥‥および各音素データの属する音
節の長さを表すデュレーションデータe1,e2,‥‥
が時系列に交互に書き込まれている。音素データは、オ
リジナル歌手の歌唱を分析して得た音節毎のデータであ
り、子音データと母音データからなっている。図6にお
いて、歌詞「あかしやの」は、それぞれ「あ」「か」
「し」「や」「の」の5個の音節からなっており、音素
データs1は、「あ」を分析したものであるため、子音
データ(c1)は存在せず、母音データv1のみであ
る。また、音素データs2は、子音と母音を含む音節で
あるため、子音データc2と母音データv2からなって
いる。子音データは短い非周期波形であるため、サンプ
リングデータをそのまま記憶している。母音データは
「か」の音の母音である「a」音の特徴を抽出したもの
であり、母音の1〜数波形をコード化したサンプルデー
タ,平均のアンプリチュード(振幅),ビブラートの周
波数,ビブラートの深さ(振幅)および付加音ノイズ特
性である。ここで、付加音ノイズ特性とは、母音に混じ
っている非周期的なノイズの特徴を示すデータである。
以下、s3,s4,‥も同様の構成のデータである。
On the other hand, the phoneme track includes phoneme data s1, s2,... Shown in FIG. 6 and duration data e1, e2,.
Are written alternately in chronological order. The phoneme data is data for each syllable obtained by analyzing the singing of the original singer, and is composed of consonant data and vowel data. In FIG. 6, the lyrics “Akashinoya” are “A” and “K”, respectively.
Since the phoneme data s1 is obtained by analyzing "a", there is no consonant data (c1) and only the vowel data v1. is there. Since the phoneme data s2 is a syllable including a consonant and a vowel, it is composed of consonant data c2 and vowel data v2. Since the consonant data has a short non-periodic waveform, the sampling data is stored as it is. The vowel data is obtained by extracting the characteristics of the "a" sound which is the vowel of the "ka" sound. Sample data obtained by encoding one to several waveforms of the vowel, average amplitude (amplitude), vibrato frequency, These are the vibrato depth (amplitude) and additional sound noise characteristics. Here, the additional sound noise characteristic is data indicating characteristics of aperiodic noise mixed with vowels.
Hereinafter, s3, s4, and ‥ are data having the same configuration.

【0020】図1は同カラオケ装置のブロック図であ
る。装置全体の動作を制御するCPU10には、バスを
介してROM11,RAM12,ハードディスク記憶装
置(HDD)17,ISDNコントローラ16,リモコ
ン受信機13,表示パネル14,パネルスイッチ15,
音源装置18,音声データ処理部19,効果用DSP2
0,文字表示部23,LDチェンジャ24,表示制御部
25および音声処理用DSP30が接続されている。
FIG. 1 is a block diagram of the karaoke apparatus. The CPU 10 for controlling the operation of the entire apparatus includes a ROM 11, a RAM 12, a hard disk storage (HDD) 17, an ISDN controller 16, a remote control receiver 13, a display panel 14, a panel switch 15,
Sound source device 18, audio data processing unit 19, effect DSP2
0, a character display unit 23, an LD changer 24, a display control unit 25, and a voice processing DSP 30.

【0021】ROM11には、システムプログラム,ア
プリケーションプログラム,ローダおよびフォントデー
タが記憶されている。システムプログラムは、この装置
の基本動作や周辺機器とのデータ送受を制御するプログ
ラムである。アプリケーションプログラムは周辺機器制
御プログラム,シーケンスプログラムなどである。カラ
オケ演奏時にはシーケンスプログラムがCPU10によ
って実行され、楽曲データに基づいた楽音の発生,映像
の再生が行われる。ローダは、ホストステーションから
楽曲データをダウンロードするためのプログラムであ
る。フォントデータは、歌詞や曲名などを表示するため
のものであり、明朝体やゴジック体などの複数種類の文
字種のフォントが記憶されている。また、RAM12に
は、ワークエリアが設定される。HDD17には楽曲デ
ータファイルが設定される。
The ROM 11 stores a system program, an application program, a loader, and font data. The system program is a program that controls the basic operation of the device and data transmission / reception with peripheral devices. The application program is a peripheral device control program, a sequence program, or the like. During a karaoke performance, a sequence program is executed by the CPU 10 to generate musical tones and reproduce images based on music data. The loader is a program for downloading music data from the host station. The font data is for displaying lyrics, song titles, and the like, and stores fonts of a plurality of character types, such as Mincho and Gothic. In the RAM 12, a work area is set. A music data file is set in the HDD 17.

【0022】ISDNコントローラ16は、ISDN回
線を介してホストステーションと交信するためのコント
ローラである。ホストステーションからは楽曲データな
どがダウンロードされる。ISDNコントローラ16は
DMA回路を内蔵しており、ダウンロードされた楽曲デ
ータやアプリケーションプログラムをCPU10を介さ
ずに直接HDD17に書き込む。
The ISDN controller 16 is a controller for communicating with a host station via an ISDN line. Music data and the like are downloaded from the host station. The ISDN controller 16 has a built-in DMA circuit, and writes downloaded music data and application programs directly to the HDD 17 without passing through the CPU 10.

【0023】リモコン受信機13はリモコン31から送
られてくる赤外線信号を受信してデータを復元する。リ
モコン31は選曲スイッチなどのコマンドスイッチやテ
ンキースイッチなどを備えており、利用者がこれらのス
イッチを操作するとその操作に応じたコードで変調され
た赤外線信号を送信する。表示パネル14はこのカラオ
ケ装置の前面に設けられており、現在演奏中の曲コード
や予約曲数などを表示するものである。パネルスイッチ
15はカラオケ装置の前面操作部に設けられており、曲
コード入力スイッチやキーチェンジスイッチなどを含ん
でいる。
The remote control receiver 13 receives the infrared signal sent from the remote control 31 and restores the data. The remote controller 31 includes a command switch such as a music selection switch, a numeric key switch, and the like. When the user operates these switches, an infrared signal modulated with a code corresponding to the operation is transmitted. The display panel 14 is provided on the front of the karaoke apparatus, and displays the currently playing music code and the number of reserved music. The panel switch 15 is provided on a front operation unit of the karaoke apparatus, and includes a music code input switch, a key change switch, and the like.

【0024】音源装置18は、楽曲データに基づいて楽
音信号を形成する。音声データ処理部19は、楽曲デー
タに含まれるADPCMデータである音声データに基づ
き、指定された長さ,指定された音高の音声信号を形成
する。音声データは、バックコーラスや模範歌唱音など
の音源装置18で電子的に発生しにくい信号波形をその
ままディジタル化して記憶したものである。
The tone generator 18 forms a tone signal based on the music data. The audio data processing unit 19 forms an audio signal having a specified length and a specified pitch based on audio data that is ADPCM data included in the music data. The audio data is obtained by directly digitizing and storing a signal waveform, such as a back chorus or a model singing sound, which is hardly generated electronically by the sound source device 18.

【0025】一方、音声処理用DSP30には歌唱用の
マイク27から入力された歌唱の音声信号がプリアンプ
28,A/Dコンバータ29を介して入力されるととも
に、CPU10から主旋律情報,ハーモニー情報や音素
データなどが入力される。音声処理用DSP30はこれ
らの情報に基づいて歌唱者の歌唱音声信号の周波数を補
正するとともに、この補正した歌唱音声信号に対してオ
リジナル歌手の音色のハーモニー音声信号を合成する。
これら音声信号は効果用DSP20に出力される。
On the other hand, a singing voice signal input from the singing microphone 27 is input to the voice processing DSP 30 via the preamplifier 28 and the A / D converter 29, and the main melody information, harmony information and phonemes are also transmitted from the CPU 10. Data and the like are input. The voice processing DSP 30 corrects the frequency of the singing voice signal of the singer based on the information, and synthesizes a harmony voice signal of the original singer's tone with the corrected singing voice signal.
These audio signals are output to the effect DSP 20.

【0026】音源装置18が形成した楽音信号、音声デ
ータ処理部19が形成した音声信号および音声処理用D
SP30から入力される歌唱音声信号,ハーモニー音声
信号は効果用DSP20に入力される。効果用DSP2
0は、これら入力された音声信号や楽音信号に対してリ
バーブやエコーなどの効果を付与する。効果用DSP2
0が付与する効果の種類や程度は、楽曲データに含まれ
ているDSPコントロールデータに基づいて制御され
る。DSPコントロールデータはDSPコントロール用
シーケンスプログラムに基づき、CPU10が所定のタ
イミングに効果用DSP20に入力する。効果が付与さ
れた楽音信号,音声信号はD/Aコンバータ21でアナ
ログ信号に変換されたのちアンプ・スピーカ22に出力
される。アンプ・スピーカ22はこの信号を増幅したの
ち放音する。
The tone signal formed by the sound source device 18, the sound signal formed by the sound data processing section 19, and the sound processing D
The singing voice signal and the harmony voice signal input from the SP 30 are input to the effect DSP 20. DSP2 for effects
A value of 0 gives effects such as reverb and echo to these input audio signals and tone signals. DSP2 for effects
The type and degree of the effect given by 0 are controlled based on the DSP control data included in the music data. The DSP control data is input to the effect DSP 20 at a predetermined timing by the CPU 10 based on the DSP control sequence program. The tone signal and audio signal to which the effect has been added are converted into analog signals by the D / A converter 21 and then output to the amplifier / speaker 22. The amplifier / speaker 22 amplifies this signal and emits sound.

【0027】また、文字表示部23は入力される文字デ
ータに基づいて、曲名や歌詞などの文字パターンを生成
する。また、LDチェンジャ24は入力された映像選択
データ(チャプタナンバ)に基づき、対応するLDの背
景映像を再生する。映像選択データは当該カラオケ曲の
ジャンルデータなどに基づいて決定される。カラオケ演
奏スタート時、CPU10は楽曲データのヘッダから曲
のジャンルデータを読み取る。CPU10はジャンルデ
ータと背景映像の内容などに基づいてどの背景映像を再
生するかを決定し、映像選択データをLDチェンジャ2
4に出力する。LDチェンジャ24には、5枚(120
シーン)程度のレーザディスクが内蔵されており120
シーンの背景映像を再生することができる。映像選択デ
ータによってこのなかから1つの背景映像が選択され、
映像データとして出力される。文字パターン,映像デー
タは表示制御部25に入力される。表示制御部25では
これらのデータをスーパーインポーズで合成してモニタ
26に表示する。
The character display unit 23 generates character patterns such as song titles and lyrics based on the input character data. The LD changer 24 reproduces the background video of the corresponding LD based on the input video selection data (chapter number). The video selection data is determined based on the genre data of the karaoke song or the like. At the start of the karaoke performance, the CPU 10 reads the genre data of the music from the header of the music data. The CPU 10 determines which background video is to be reproduced based on the genre data and the content of the background video, and stores the video selection data in the LD changer 2.
4 is output. The LD changer 24 has 5 sheets (120
Scene) and a laser disk of about 120
The background video of the scene can be reproduced. One background image is selected from among them according to the image selection data,
Output as video data. The character pattern and the video data are input to the display control unit 25. The display control unit 25 superimposes these data in superimposition and displays them on the monitor 26.

【0028】図2は前記音声処理用DSP30の動作を
説明する図である。音声処理用DSP30は内蔵されて
いるマイクロプログラムに基づき入力信号に対して多種
の処理動作を実行するが、各処理動作をブロック化して
表すと同図のようになる。
FIG. 2 is a diagram for explaining the operation of the DSP 30 for audio processing. The voice processing DSP 30 executes various processing operations on an input signal based on a built-in microprogram, and each processing operation is represented by blocks as shown in FIG.

【0029】マイク27から入力された歌唱音声信号は
アンプ28で増幅されA/Dコンバータ29でディジタ
ル信号に変換されたのちこの音声処理用DSP30の音
節検出部40,ピッチ検出部41およびピッチ補正部4
2に入力される。音節検出部40は、この歌唱音声信号
のレベルを逐次リアルタイムに検出するとともに、レベ
ルの切れ目や子音の出現によって音節の切れ目を検出す
る。子音はホワイトノイズ的な非周期波形であるところ
から周期波形の母音と識別可能である。レベル変化波形
はエンベロープ付与部46に出力され、音節区切り信号
は音素ポインタ生成部43に出力される。
The singing voice signal input from the microphone 27 is amplified by the amplifier 28 and converted into a digital signal by the A / D converter 29, and then the syllable detecting unit 40, the pitch detecting unit 41 and the pitch correcting unit of the voice processing DSP 30. 4
2 is input. The syllable detecting unit 40 sequentially detects the level of the singing voice signal in real time, and detects a syllable break based on a level break or the appearance of a consonant. Since the consonant is a non-periodic waveform like white noise, it can be distinguished from a vowel having a periodic waveform. The level change waveform is output to the envelope assigning section 46, and the syllable delimiter signal is output to the phoneme pointer generating section 43.

【0030】ピッチ検出部41は入力された歌唱音声信
号の周波数を逐次リアルタイムに検出し、該周波数情報
(周波数変化波形)をピッチ補正部42に出力する。ピ
ッチ補正部42には、周波数情報,歌唱音声信号のほか
主旋律情報が入力される。ピッチ補正部42は、入力さ
れた周波数情報を主旋律情報と比較し、そのずれ分だけ
歌唱音声信号をシフトすることにより、歌唱音声信号が
主旋律に一致するように補正する。この補正された歌唱
音声信号は加算部47に出力される。
The pitch detecting section 41 sequentially detects the frequency of the input singing voice signal in real time, and outputs the frequency information (frequency change waveform) to the pitch correcting section 42. The main melody information in addition to the frequency information and the singing voice signal is input to the pitch correction unit 42. The pitch correction unit 42 compares the input frequency information with the main melody information, and shifts the singing voice signal by an amount corresponding to the difference, thereby correcting the singing voice signal to match the main melody. The corrected singing voice signal is output to the adding section 47.

【0031】ここで、主旋律情報としては、音符単位で
音高を記憶したデータであってもよく、また、模範歌唱
者(オリジナル歌手)のピッチ変化を時系列に書き込ん
だ、すなわち、節回しをそのまま書き取ったデータであ
ってもよい。
Here, the main melody information may be data in which the pitch is stored in units of notes, and the pitch change of the model singer (original singer) is written in time series, that is, the moderation is kept as it is. It may be written data.

【0032】図7に、主旋律情報として模範歌唱者の歌
唱ピッチの変化を時系列に書き込んだ情報を用いた場合
のピッチ補正をグラフ化した図を示す。同図の細線が模
範歌唱者の歌唱ピッチの変化を示している。また、カラ
オケ歌唱者の歌唱ピッチもほぼ追従した変化をしている
が、微妙にそのピッチに誤差がある。そこで、同図下段
に示すようなピッチ補正値を生成し、これを歌唱音声信
号の周波数に加算することにより、カラオケ歌唱者の歌
唱ピッチが模範歌唱者の歌唱ピッチに一致する。
FIG. 7 is a graph showing pitch correction in the case where information in which changes in the singing pitch of the model singer are written in time series is used as the main melody information. The thin line in the figure shows the change in the singing pitch of the model singer. The singing pitch of the karaoke singer also changes substantially following, but there is a slight error in the pitch. Therefore, by generating a pitch correction value as shown in the lower part of the figure and adding this to the frequency of the singing voice signal, the singing pitch of the karaoke singer matches the singing pitch of the model singer.

【0033】なお、同図のように完全に補正する方式以
外に、カラオケ歌唱者の歌唱ピッチと模範歌唱者の歌唱
ピッチとの差の半分程度を補正することにより、カラオ
ケ歌唱者の節回しをある程度生かすようにすることもで
きる。
It should be noted that, besides the method of complete correction as shown in the figure, by correcting about half the difference between the singing pitch of the karaoke singer and the singing pitch of the model singer, the moderation of the karaoke singer is reduced to some extent. You can make use of it.

【0034】一方、カラオケ演奏のスタート時に楽曲デ
ータ中の音素トラックの内容がこの音声処理用DSP3
0に入力される。このうち音素データは音素データレジ
スタ44に入力され、デュレーションデータはポインタ
生成部43に入力される。ポインタ生成部43は、曲の
進行に同期して音素データレジスタ44中の1つの音素
データを指定する音素ポインタを生成する。音素ポイン
タは、通常は音節検出部40から入力される音節区切り
信号に基づいて歩進されるが、歌唱音声信号が全く入力
されないときや音節の区切りができなかった場合などに
はbeat情報によるデュレーションデータのカウント
で歩進される。音素ポインタで指定された音素データは
音素データレジスタ44からハーモニー形成部45に出
力される。ハーモニー形成部45には、また、CPU1
0からハーモニーデータが入力され、ハーモニー形成部
45は、入力された音素データの波形でハーモニーデー
タの音高のハーモニー音声信号を形成する。形成された
ハーモニー音声信号はエンベロープ付与部46に出力さ
れる。エンベロープ付与部46では、ハーモニー形成部
45から入力されたハーモニー音声信号に対して、音節
検出部40から入力されたレベル変化波形を乗じてエン
ベロープを付与する。音節検出による音素データの歩進
およびこのエンベロープの付与によりカラオケ歌唱者に
合わせて歌うハーモニー音声信号を形成することができ
る。エンベロープを付与されたハーモニー音声信号は加
算部47に出力される。
On the other hand, at the start of the karaoke performance, the contents of the phoneme tracks in the music data are stored in the DSP 3 for voice processing.
Input to 0. Of these, the phoneme data is input to the phoneme data register 44, and the duration data is input to the pointer generator 43. The pointer generation unit 43 generates a phoneme pointer that specifies one phoneme data in the phoneme data register 44 in synchronization with the progress of the music. The phoneme pointer is normally stepped on the basis of a syllable delimiter signal input from the syllable detector 40. However, when no singing voice signal is input or when a syllable cannot be delimited, the duration based on the beat information is used. It is incremented by the data count. The phoneme data specified by the phoneme pointer is output from the phoneme data register 44 to the harmony forming unit 45. The harmony forming section 45 also includes a CPU 1
The harmony data is input from 0, and the harmony forming unit 45 forms a harmony sound signal having the pitch of the harmony data with the waveform of the input phoneme data. The formed harmony audio signal is output to the envelope providing unit 46. The envelope adding section 46 multiplies the harmony sound signal input from the harmony forming section 45 by the level change waveform input from the syllable detecting section 40 to add an envelope. A harmony voice signal singing to a karaoke singer can be formed by advancing phoneme data by syllable detection and adding this envelope. The harmony sound signal to which the envelope has been added is output to the adding unit 47.

【0035】加算部47ではピッチを補正された歌唱音
声信号およびハーモニー音声信号が加算される。この信
号は効果用DSP20に対して出力される。
The adding section 47 adds the singing voice signal and the harmony voice signal whose pitch has been corrected. This signal is output to the effect DSP 20.

【0036】音声処理用DSP30の以上のような動作
により、歌唱者の歌唱音声信号を正しく合わせることが
できるとともに、歌唱者の歌唱に合わせたハーモニー音
声信号をオリジナル歌手の声で形成することができる。
By the above-described operation of the voice processing DSP 30, the singing voice signal of the singer can be correctly matched, and the harmony voice signal matched to the singing of the singer can be formed by the voice of the original singer. .

【0037】なお、この実施例では、オリジナル歌手の
歌唱から抽出した音節のデータを音素データとしてシー
ケンシャルに記憶したが、音素データとしてはこれに限
定されない。すなわち、一般的な50音の発音等を記憶
しておき、歌唱者の歌唱音声を音声認識して、対応する
音素を割り出して使用するようにしてもよい。
In this embodiment, the syllable data extracted from the singing of the original singer is sequentially stored as phoneme data, but the phoneme data is not limited to this. That is, the pronunciation of the general 50 sounds may be stored, the singing voice of the singer may be recognized, and the corresponding phoneme may be determined and used.

【0038】なお、カラオケ演奏スタート時に音素トラ
ックのみ音声処理用DSP30に取り込み、主旋律デー
タ,ハーモニーデータはCPU10によるシーケンスで
DSP30に入力するようにしているが、カラオケスタ
ート時に音素トラック,主旋律トラック,ハーモニート
ラックのデータを全てDSP30に取り込み、歌唱者の
歌唱の進行に合わせてピッチ補正を行うようにしてもよ
い。また、その逆に音素データもCPU10によるシー
ケンスでDSP30に入力するようにし、歌唱者の歌唱
の進行に拘らずカラオケ曲の進行に合わせてハーモニー
音声信号を形成するようにしてもよい。
At the start of the karaoke performance, only the phoneme tracks are taken into the DSP 30 for voice processing, and the main melody data and the harmony data are input to the DSP 30 in a sequence by the CPU 10. May be taken into the DSP 30, and the pitch may be corrected in accordance with the progress of the singer's singing. Conversely, the phoneme data may also be input to the DSP 30 in a sequence by the CPU 10, so that the harmony voice signal may be formed in accordance with the progress of the karaoke song regardless of the progress of the singer's singing.

【0039】[0039]

【発明の効果】以上のようにこの発明のカラオケ装置に
よれば、歌唱者が入力する歌唱音声信号に対して、音素
情報に基づいて合成したハーモニー音声信号を付加する
ことができ、歌唱者の音声と異なる音声のハーモニーを
付加することができる。 またこの発明によれば、歌唱者
が入力する音声信号の周波数がずれていてもこれを正し
い周波数に補正することができ、カラオケ伴奏とあう音
声で出力することができる。
As described above, according to the karaoke apparatus of the present invention , a phoneme is applied to a singing voice signal input by a singer.
Add harmony audio signal synthesized based on information
Can have a harmony of voice that is different from the voice of the singer
Can be added. Further, according to the present invention, even if the frequency of the voice signal input by the singer is shifted, it can be corrected to a correct frequency, and the voice signal can be output as a voice that matches the karaoke accompaniment.

【0040】[0040]

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例である音声変換カラオケ装置
のブロック図
FIG. 1 is a block diagram of a voice conversion karaoke apparatus according to an embodiment of the present invention.

【図2】同音声変換カラオケ装置の音声処理用DSPの
構成を示す図
FIG. 2 is a diagram showing a configuration of a voice processing DSP of the voice conversion karaoke apparatus.

【図3】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 3 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図4】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 4 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図5】同音声変換カラオケ装置に用いられる楽曲デー
タの構成を示す図
FIG. 5 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.

【図6】同楽曲データに含まれる音素データの構成を示
す図
FIG. 6 is a diagram showing a configuration of phoneme data included in the music data.

【図7】同楽曲データに含まれる主旋律データとピッチ
補正の例を示す図
FIG. 7 is a diagram showing an example of main melody data and pitch correction included in the music piece data;

【符号の説明】[Explanation of symbols]

30−音声処理用DSP、41−ピッチ検出部、42−
ピッチ補正部、45−ハーモニー形成部。
30-DSP for voice processing, 41-Pitch detector, 42-
Pitch correction part, 45-harmony formation part.

フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G10K 15/04 302 G10H 1/10 G10L 3/00 G10L 3/02 G10L 5/04 Continuation of front page (58) Fields investigated (Int.Cl. 6 , DB name) G10K 15/04 302 G10H 1/10 G10L 3/00 G10L 3/02 G10L 5/04

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 記憶手段(17)、制御手段(10)、
音源手段(18)、音声処理手段(30)を有するカラ
オケ装置であって、 記憶手段(17)は、複数の楽曲情報を記憶し、 楽曲情報は、楽音情報のシーケンスデータである楽音ト
ラック、ハーモニーデータのシーケンスデータであるハ
ーモニートラック、音素情報のシーケンスデータである
音素トラックからなり、 制御手段(10)は、楽曲情報を記憶手段(17)から
読み出し、楽音情報を音源手段(18)へ、ハーモニー
データおよび音素情報を音声処理手段(30)へ出力
し、 音声処理手段(30)は、入力される歌唱音声信号から
音節の区切りを検出し、検出された音節の区切りに基づ
いて音素ポインタを歩進し、音素ポインタの指定する音
素情報とハーモニーデータに基づいてハーモニー音声信
号を形成するカラオケ装置。
1. A storage means (17), a control means (10),
A karaoke apparatus having a sound source means (18) and a voice processing means (30), wherein the storage means (17) stores a plurality of pieces of music information, and the music information is a musical sound track, a harmony, which is sequence data of musical sound information. The control means (10) reads out the music information from the storage means (17), and outputs the musical tone information to the sound source means (18), in the form of a harmony track which is a sequence data of data and a phoneme track which is a sequence data of the phoneme information. Data and phoneme information are output to the voice processing means (30). The voice processing means (30) detects a syllable break from the input singing voice signal, and walks the phoneme pointer based on the detected syllable break. A karaoke apparatus that forms a harmony voice signal based on phoneme information specified by a phoneme pointer and harmony data.
【請求項2】 音声処理手段(30)は、歌唱音声信号
のレベルを検出してレベル変化波形を出力し、形成した
ハーモニー音声信号にレベル変化波形を乗ずる請求項1
に記載のカラオケ装置。
2. The sound processing means (30) detects a level of a singing voice signal, outputs a level change waveform, and multiplies the formed harmony voice signal by the level change waveform.
A karaoke apparatus according to claim 1.
【請求項3】 記憶手段(17)が記憶する楽曲情報
は、主旋律データのシーケンスデータである主旋律トラ
ックを含み、 制御手段(10)は、主旋律情報を音声処理手段(3
0)に出力し、 音声処理手段(30)は、入力される歌唱音声信号
旋律データに基づいて周波数補正し、補正した歌唱音声
信号をハーモニー音声信号と合成して出力する請求項1
または請求項2に記載のカラオケ装置。
The music information stored in the storage means (17) includes a main melody track which is sequence data of the main melody data, and the control means (10) stores the main melody information in the audio processing means (3).
Output to 0), the sound processing means (30), and frequency correction based on the singing voice signal inputted to the main <br/> melody data, and outputs the corrected singing voice signal harmony audio signal and synthesizing the Claim 1
Or a karaoke apparatus according to claim 2.
JP7038721A 1995-02-27 1995-02-27 Karaoke equipment Expired - Lifetime JP2904045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7038721A JP2904045B2 (en) 1995-02-27 1995-02-27 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7038721A JP2904045B2 (en) 1995-02-27 1995-02-27 Karaoke equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP11029716A Division JP3116937B2 (en) 1999-02-08 1999-02-08 Karaoke equipment

Publications (2)

Publication Number Publication Date
JPH08234772A JPH08234772A (en) 1996-09-13
JP2904045B2 true JP2904045B2 (en) 1999-06-14

Family

ID=12533197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7038721A Expired - Lifetime JP2904045B2 (en) 1995-02-27 1995-02-27 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP2904045B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3116937B2 (en) 1999-02-08 2000-12-11 ヤマハ株式会社 Karaoke equipment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117599A (en) * 1999-10-21 2001-04-27 Yamaha Corp Voice processor and karaoke device
WO2006079813A1 (en) * 2005-01-27 2006-08-03 Synchro Arts Limited Methods and apparatus for use in sound modification

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0351899A (en) * 1989-07-19 1991-03-06 Matsushita Electric Ind Co Ltd Device for 'karaoke' (orchestration without lyrics)
JP3179468B2 (en) * 1990-07-25 2001-06-25 ソニー株式会社 Karaoke apparatus and singer's singing correction method in karaoke apparatus
JPH06202676A (en) * 1992-12-28 1994-07-22 Pioneer Electron Corp Karaoke contrller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3116937B2 (en) 1999-02-08 2000-12-11 ヤマハ株式会社 Karaoke equipment

Also Published As

Publication number Publication date
JPH08234772A (en) 1996-09-13

Similar Documents

Publication Publication Date Title
JP2921428B2 (en) Karaoke equipment
JP3319211B2 (en) Karaoke device with voice conversion function
JP3598598B2 (en) Karaoke equipment
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP2838977B2 (en) Karaoke equipment
JP3127722B2 (en) Karaoke equipment
JP3116937B2 (en) Karaoke equipment
JP2904045B2 (en) Karaoke equipment
JP3901008B2 (en) Karaoke device with voice conversion function
JPH08286689A (en) Voice signal processing device
JP3430814B2 (en) Karaoke equipment
JP2006126710A (en) Playing style determining device and program
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP3173310B2 (en) Harmony generator
JP3050129B2 (en) Karaoke equipment
JP3047879B2 (en) Performance guide device, performance data creation device for performance guide, and storage medium
JPH08227296A (en) Sound signal processor
JP2001100771A (en) Karaoke device
JP3166670B2 (en) Karaoke device and automatic performance device
JP3564775B2 (en) Karaoke device with vibrato addition function
JP3166671B2 (en) Karaoke device and automatic performance device
JPH10133658A (en) Accompaniment pattern data forming device
JP2006276894A (en) Device and method for automatically determining way of playing
JPH07199973A (en) Karaoke device
JP2001022349A (en) Music data processing method

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 15

EXPY Cancellation because of completion of term