JP3564775B2 - Karaoke device with vibrato addition function - Google Patents

Karaoke device with vibrato addition function Download PDF

Info

Publication number
JP3564775B2
JP3564775B2 JP04952495A JP4952495A JP3564775B2 JP 3564775 B2 JP3564775 B2 JP 3564775B2 JP 04952495 A JP04952495 A JP 04952495A JP 4952495 A JP4952495 A JP 4952495A JP 3564775 B2 JP3564775 B2 JP 3564775B2
Authority
JP
Japan
Prior art keywords
data
vibrato
syllable
singing
singer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP04952495A
Other languages
Japanese (ja)
Other versions
JPH08248966A (en
Inventor
秀一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP04952495A priority Critical patent/JP3564775B2/en
Publication of JPH08248966A publication Critical patent/JPH08248966A/en
Application granted granted Critical
Publication of JP3564775B2 publication Critical patent/JP3564775B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【産業上の利用分野】
この発明は、カラオケ歌唱の歌唱音声信号に対してビブラートを付加することのできるカラオケ装置に関する。
【0002】
【従来の技術】
現在実用化されているカラオケ装置は、歌唱を盛り上げるためカラオケの歌唱音声信号に対してディレイやリバーブなど種々の効果を付与する機能を備えている。これらの機能により、歌唱音声に響きが加わり、歌唱者の声をより良く聞かせることができる。
【0003】
【発明が解決しようとする課題】
しかし、この種の効果は、歌唱音声信号を時間的にずらせて重ね合わせるものであるため、歌唱のピッチ(いわゆる音程)を修正する機能やピッチを曖昧化することによって歌唱者の音程と本来のボーカル音程とのずれを隠すことができない。また、長い音符を伸ばして歌うとき、平板な歌唱では変化が乏しく歌唱が盛り上がらない欠点がある。
【0004】
歌唱者が自らビブラートをつけて歌唱すればこれらは解決されるが、ビブラートは相当高度な技術であり、上級者以外の者がこの技術を習得するのは困難であった。
【0005】
この発明は、歌唱音声信号に対して適切なビブラートを付与することのできるカラオケ装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
この出願の請求項1の発明は、歌唱者が操作する操作子と、歌唱音声信号の音節のスタートを検出する音節検出手段と、音節検出手段が音節のスタートを検出するごとにエンベロープ波形を発生するエンベロープ発生手段と、前記操作子の操作量および前記発生したエンベロープ波形に応じて歌唱者の歌唱音声信号にビブラートを付加するビブラート付加手段と、を備えたことを特徴とする。
【0007】
この出願の請求項2の発明は、前記操作子を歌唱用のマイクのグリップに設けられた圧力センサで構成したことを特徴とする。
【0008】
この出願の請求項3の発明は、複数のビブラート制御データをカラオケ曲の進行に合わせて時系列に記憶する手段と、カラオケ演奏時にこのビブラート制御データを逐次出力する読出手段と、歌唱音声信号の音節のスタートを検出する音節検出手段と、音節検出手段が音節のスタートを検出するごとにエンベロープ波形を発生するエンベロープ発生手段と、読み出されたビブラート制御データおよび前記発生したエンベロープ波形に応じて歌唱者の歌唱音声信号に対してビブラートを付加するビブラート付加手段と、を備えたことを特徴とする。
【0009】
【作用】
請求項1の発明では、歌唱者が操作する操作子を設け、歌唱者が歌唱中にこの操作子を操作できるようにしている。歌唱者がこの操作子を操作すると、そのとき入力されている歌唱音声信号に対してビブラートが付加される。したがって、操作子を操作することによって歌唱者が自分の好みに合わせてビブラートを付加することができ、発声でビブラートを付加できない歌唱者でも、ビブラートを伴う歌唱を容易にすることができる。
【0010】
請求項2の発明では、前記操作子を歌唱用マイクのグリップに設けた圧力センサとした。一般的にカラオケ歌唱においては、歌唱者が力を入れる場面と大きなビブラートを付加すべき場面とが一致することが多いため、歌唱者の行動をそのままビブラートに反映すれば、的確なビブラートを付与することができる。
【0011】
請求項3の発明では、カラオケ歌唱の進行に合わせたビブラートを自動的に付与する。初心者は、ビブラートをかける場面がよく分からない場合があるため、自動的にビブラートを付加することによってその場所を歌唱者に分からせることができる。また、一律にビブラートを付加する従来の効果装置と違い、曲の進行に合わせてビブラートを調整するため、カラオケ歌唱の盛り上げ効果が大きい。
【0012】
【実施例】
図面を参照してこの発明の実施例であるビブラート付加機能付カラオケ装置について説明する。このカラオケ装置は、音源カラオケ装置であり、通信機能およびビブラート付加機能を備えている。音源カラオケ装置とは、楽曲データで音源装置を駆動することによりカラオケ演奏音を発生するカラオケ装置である。楽曲データとは、音高や発音タイミングを指定する演奏データ列などの複数トラックからなるシーケンスデータである。また、通信機能とは、通信回線を介してホストステーションと接続され、楽曲データをホストステーションからダウンロードしてハードディスク装置17(図1参照)に蓄える機能である。ハードディスク装置17は、楽曲データを数百〜数千曲分記憶することができる。ビブラート付加機能とは、歌唱者の歌唱音声信号に対して細かい周波数変調および振幅変調を付与して歌唱を上手く聴かせる機能である。
【0013】
図1は同カラオケ装置のブロック図である。装置全体の動作を制御するCPU10には、バスを介してROM11,RAM12,ハードディスク記憶装置(HDD)17,ISDNコントローラ16,リモコン受信機13,表示パネル14,パネルスイッチ15,音源装置18,音声データ処理部19,効果用DSP20,文字表示部23,LDチェンジャ24,表示制御部25および音声処理用DSP30が接続されている。
【0014】
ROM11には、システムプログラム,アプリケーションプログラム,ローダおよびフォントデータが記憶されている。システムプログラムは、この装置の基本動作や周辺機器とのデータ送受を制御するプログラムである。アプリケーションプログラムは周辺機器制御プログラム,シーケンスプログラムなどである。カラオケ演奏時にはシーケンスプログラムがCPU10によって実行され、楽曲データに基づいた楽音の発生,映像の再生が行われる。ローダは、ホストステーションから楽曲データをダウンロードするためのプログラムである。フォントデータは、歌詞や曲名などを表示するためのものであり、明朝体やゴジック体などの複数種類の文字種のフォントが記憶されている。また、RAM12には、ワークエリアが設定される。HDD17には楽曲データファイルが設定される。
【0015】
ISDNコントローラ16は、ISDN回線を介してホストステーションと交信するためのコントローラである。ISDNコントローラ16はホストステーションから楽曲データなどをダウンロードする。また、ISDNコントローラ16はDMA回路を内蔵しており、ダウンロードされた楽曲データやアプリケーションプログラムをCPU10を介さずに直接HDD17に書き込む。
【0016】
リモコン受信機13はリモコン31から送られてくる赤外線信号を受信してデータを復元する。リモコン31は選曲スイッチなどのコマンドスイッチやテンキースイッチなどを備えており、利用者がこれらのスイッチを操作するとその操作に応じたコードで変調された赤外線信号を送信する。表示パネル14はこのカラオケ装置の前面に設けられており、現在演奏中の曲コードや予約曲数などを表示するものである。パネルスイッチ15はカラオケ装置の前面操作部に設けられており、曲コード入力スイッチやキーチェンジスイッチなどを含んでいる。
【0017】
音源装置18は、カラオケ演奏時にCPU10から入力されるイベントデータに基づいて楽音信号を形成する。イベントデータは楽曲データの楽音トラックに記憶されている。楽音トラックは図8に示すように複数設定されているため、イベントデータも複数系統が並行して入力される。音源装置18は、これらのデータを受信して複数の楽音信号を同時に形成する。音声データ処理部19は、楽曲データに含まれるADPCMデータである音声データに基づき、指定された長さ,指定された音高の音声信号を形成する。音声データは、バックコーラスや模範歌唱音などの音源装置18で電子的に発生しにくい信号波形をそのままディジタル化して記憶したものである。
【0018】
一方、歌唱用のマイク27から入力された歌唱の音声信号はプリアンプ28で増幅されA/Dコンバータ29でディジタル信号に変換されたのち音声処理用DSP30に入力される。音声処理用DSP30には、このほか、A/Dコンバータ34を介してマイク27に設けられている圧力センサ33の検出値が入力される。また、CPU10から各種の制御情報が入力される。音声処理用DSP30はこれらの情報に基づいて歌唱者の歌唱音声信号に対してビブラートなどの効果を付与する。効果を付与された歌唱音声信号は、効果用DSP20に出力される。なお、マイク27に設けられる圧力センサ33は、プッシュスイッチ状に構成し、これを指を押下するようにしてもよく、グリップ全体に感圧ゴムなどを巻き付けて全体の圧力を検出するようにしてもよい。
【0019】
効果用DSP20には、音源装置18が形成した楽音信号、音声データ処理部19が形成した音声信号、および音声処理用DSP30によってビブラートを付与された歌唱音声信号が入力される。効果用DSP20は、これら入力された音声信号や楽音信号に対してリバーブやエコーなどの効果を付与する。効果用DSP20が付与する効果の種類や程度は、楽曲データの効果トラックのイベントデータ(DSPコントロールデータ)に基づいて制御される。DSPコントロールデータはDSPコントロール用シーケンスプログラムに基づき、CPU10が所定のタイミングに効果用DSP20に入力する。効果が付与された楽音信号,音声信号はD/Aコンバータ21でアナログ信号に変換されたのちアンプ・スピーカ22に出力される。アンプ・スピーカ22はこの信号を増幅したのち放音する。
【0020】
文字表示部23は入力される文字データに基づいて、曲名や歌詞などの文字パターンを生成する。また、LDチェンジャ24は入力された映像選択データ(チャプタナンバ)に基づき、対応するLDの背景映像を再生する。映像選択データは当該カラオケ曲のジャンルデータなどに基づいて決定される。ジャンルデータは楽曲データのヘッダに書き込まれており、カラオケ演奏スタート時にCPU10によって読み出される。CPU10はジャンルデータに基づいてどの背景映像を再生するかを決定し、その背景映像を指定する映像選択データをLDチェンジャ24に対して出力する。LDチェンジャ24には、5枚(120シーン)程度のレーザディスクが内蔵されており約120シーンの背景映像を再生することができる。映像選択データによってこのなかから1つの背景映像が選択され、映像データとして出力される。文字パターン,映像データは表示制御部25に入力される。表示制御部25ではこれらのデータをスーパーインポーズで合成してモニタ26に表示する。
【0021】
次に、図8〜図10を参照して同カラオケ装置においてカラオケ演奏に用いられる楽曲データの構成について説明する。図8は楽曲データの構成を示す図である。また、図9,図10は楽曲データの詳細な構成を示す図である。
【0022】
図8において、1つの楽曲データは、ヘッダ,楽音トラック,歌詞トラック,音声トラック,効果トラック,ビブラート制御トラックおよび音声データ部からなっている。
【0023】
ヘッダは、この楽曲データに関する種々のデータが書き込まれる部分であり、曲名,ジャンル,発売日,曲の演奏時間(長さ)などのデータが書き込まれている。CPU10は、メインシーケンスプログラムの実行時にジャンルデータに基づいてモニタ26に表示する背景映像を決定し、LDチェンジャ24に対してその映像のチャプタナンバを送信する。背景映像の決定方式は、冬をテーマにした演歌の場合には雪国の映像を選択し、ポップスの場合には外国の映像を選択するなどである。
【0024】
楽音トラック〜ビブラート制御トラックの各トラックは図9,図10に示すように複数のイベントデータと各イベントデータ間の時間間隔を示すデュレーションデータΔtからなるシーケンスデータで構成されている。各トラックのイベントデータはカラオケ演奏中にシーケンスプログラムに基づきCPU10によって読み出される。シーケンスプログラムは、所定のテンポクロックでΔtをカウントし、Δtをカウントアップしたときこれに続くイベントデータの読出タイミングであるとして、これを読み出して所定の処理部へ出力するプログラムである。
【0025】
楽音トラックには、メロディトラック,リズムトラックを初めとして種々のパートのトラックが形成されている。CPU10は、楽音シーケンスプログラムによって読み出したイベントデータを音源装置18に出力する。音源装置18はそのイベントデータに含まれているチャンネル指定データに基づいて発音チャンネルを選択し、その発音チャンネルについてそのイベントを実行する。
【0026】
以下、歌詞トラック,音声トラック,効果トラック,ビブラート制御トラックのシーケンスデータは楽音データではないが、インプリメンテーションの統一をとり、作業工程を容易にするため、これらのトラックもMIDIデータ形式で記述されている。データ種類は、システム・エクスクルーシブ・メッセージである。
【0027】
歌詞トラックは、モニタ26上に歌詞を表示するためのシーケンスデータを記憶したトラックである。歌詞トラックのイベントデータは歌詞表示データである。この歌詞表示データの記述において、通常は1行の歌詞を1つのイベントデータとして扱っている。歌詞表示データは1行の歌詞の文字データ(文字コードおよびその文字の表示座標)、この歌詞の表示時間(通常は30秒前後)、および、ワイプシーケンスデータからなっている。ワイプシーケンスデータとは、曲の進行に合わせて歌詞の表示色を変更してゆくためのシーケンスデータであり、表示色を変更するタイミング(この歌詞が表示されてからの時間)と変更位置(座標)が1行分の長さにわたって順次記録されているデータである。
【0028】
音声トラックは、音声データ部に記憶されている音声データn(n=1,2,3,‥‥)の発生タイミングなどを指定するシーケンストラックである。音声データ部には、音源装置18で合成しにくいバックコーラスやハーモニー歌唱などの人声が記憶されている。音声トラックには、音声指定データと、音声指定データの読み出し間隔、すなわち、音声データを音声データ処理部19に出力して音声信号形成するタイミングを指定するデュレーションデータΔtが書き込まれている。音声指定データは、音声データ番号,音程データおよび音量データからなっている。音声データ番号は、音声データ部に記録されている各音声データの識別番号nである。音程データ,音量データは、形成すべき音声データの音程や音量を指示するデータである。すなわち、言葉を伴わない「アー」や「ワワワワッ」などのバックコーラスは、音程や音量を変化させれば何度も利用できるため、基本的な音程,音量で1つ記憶しておき、このデータに基づいて音程や音量をシフトして繰り返し使用する。音声データ処理部19は音量データに基づいて出力レベルを設定し、音程データに基づいて音声データの読出間隔を変えることによって音声信号の音程を設定する。
【0029】
効果トラックには、効果用DSP20を制御するためのDSPコントロールデータが書き込まれている。効果用DSP20は音源装置18,音声データ処理部19,音声処理用DSP30から入力される信号に対してリバーブなどの残響系の効果を付与する。DSPコントロールデータは、このような効果の種類を指定するデータおよびその変化量データなどからなっている。
【0030】
ビブラート制御トラックには、音声処理用DSP30を制御するための制御データが書き込まれている。このデータはCPU10から音声処理用DSP30に入力される。音声処理用DSP30はこのデータに基づいて歌唱音声信号に対してビブラートを付与する。ビブラートは、周波数変調と振幅変調の複合であり、この音声処理用DSP30は周波数変調のみ、振幅変調のみの効果を音声信号に対して付与することも可能である。この切り換えはCPU10からの制御情報に基づいて行われる。
【0031】
図2〜図7は前記音声処理用DSP30の動作を説明する図である。音声処理用DSP30は内蔵されているマイクロプログラムに基づき入力された歌唱音声信号に対するハーモニー音声信号を形成するが、このマイクロプログラムをブロック化するとこの図のように表すことができる。
【0032】
図2は同DSP30の概略構成を示す図である。このDSPは、入力された歌唱音声信号に対してFM変調を施すFM変調部40,AM変調を施すAM変調部41を備え、これらFM変調部40,AM変調部41をどのように組み合わせるか、すなわち、歌唱音声信号をどの経路で出力するかを切り換えるバス42、および、FM変調部40,AM変調部41,バス42に制御情報を入力する制御部43を備えている。
【0033】
バス42は、伝達経路の切り換えにより、入力された歌唱音声信号をFM変調部40,AM変調部41の両方またはいずれか一方に通過させて、若しくは、どちらも通過させずにそのまま出力する動作部である。すなわち、バス42は、FM変調部40,AM変調部41を任意に組み合わせて信号伝達経路を構成することができる。本来のビブラートは、歌唱音声信号にFM変調とこれに同期した微小なAM変調を付与することであるが、これ以外にもFM変調またはAM変調の一方のみを付与することもでき、FM変調もAM変調も付与せずにそのまま出力することもできる。さらに、FM変調部40とAM変調部41とを並列に接続し、FM変調のみ付与した信号とAM変調のみ付与した信号とを加算して出力することもできる。
【0034】
図3は上記制御部43のブロック図である。図2にも示したように制御部43には、A/Dコンバータ34でディジタル化された圧力センサ33の検出値である圧力データ、ビブラート制御トラックから読み出されたビブラート制御データ、および、歌唱音声信号が入力されている。
【0035】
圧力データは変換部50に入力される。変換部50は入力された圧力データを低周波発振器51が発生する低周波信号を制御するための周波数制御データFrqと強度制御データMgに変換する。この変換は、変換部50に内蔵されている変換テーブルを用いて行われる。変換テーブルは、図4(A),(B)示すようなものである。同図(A)は圧力データ−Frq変換テーブルである。このテーブルは、圧力データが0の場合でもFrqが0とならず、圧力データが大きくなると、Frqは若干大きくなるがそれほどFrqが大きくならないように設定されている。これは、ビブラートの周波数として適当な範囲はそれほど広くないため(5〜10Hz程度)、この範囲の変化に止めたためである。また、同図(B)は圧力データ−Mg変換テーブルである。このテーブルは、ほぼ圧力データに比例してMgを出力するように設定されているが、圧力データが一定値以下の場合には振幅情報を出力しない。これは、歌唱者はマイク27を手に持って歌唱しているため、ビブラートを掛けるつもりがない場合でも圧力センサ33にはある程度の圧力が加わると考えられる。そこで、マイク27を持つための最低限の圧力はオミットする必要があるためこのようなオフセットが設定されている。このような変換テーブルで割り出された周波数制御データFrqは低周波発振器51に出力される。また、強度制御データMgは乗算器57に出力される。
【0036】
低周波発振器51は、入力された周波数制御データFrqに応じた周波数の低周波信号(正弦波)を発振出力され、係数乗算器52に入力される。
【0037】
一方、この制御部43に入力された歌唱音声信号は音節検出部55に入力される。音節検出部は、歌唱音声の音節の切れ目を検出する。図5において、歌詞「あかしやの」は、それぞれ「あ」「か」「し」「や」「の」の5個の音節からなっており、各音節の切れ目は、振幅レベルの低下、母音から子音に切り換わることによるホワイトノイズ成分の増加、基本周波数の変化などによって検出することができる。音節検出部55が音節の切れ目、すなわち、新たな音節のスタートを検出すると音節スタート信号をエンベロープ発生部56に出力する。
【0038】
エンベロープ発生部56は、この音節スタート信号をトリガとして図4(C)に示すエンベロープ波形データEnを発生する。このエンベロープ波形の特徴は、一定時間ディレイがあって、そののち徐々に大きくなり、上限値になったのちはその値を維持するというものである。すなわち、一般的な歌唱では、短い歌詞を歌う場合にはビブラートを掛けず、長い音符の伸ばしのとき徐々に深いビブラートを掛けてゆくという手法が一般的に用いられるため、これを模倣したものである。エンベロープ発生部56が発生したエンベロープ波形データEnは乗算器57に入力される。
【0039】
乗算器57には、上述したように変換部50から出力された強度制御データMgおよびエンベロープ発生部56が発生したエンベロープ波形データEnが入力される。乗算器57は、これらのデータを乗算して深度制御データDepを生成し、この深度制御データDepを係数乗算器52に係数として入力する。この深度制御データDepは、ビブラートの技巧(En)に歌唱者の意図(Mg)を反映させたものである。係数乗算器52は、低周波発振器51から入力された低周波信号にこの係数を乗算してビブラート波形信号が生成される。このビブラート波形信号が、FM変調部40およびAM変調部41に出力される。
【0040】
なお、ビブラート制御トラックから読み出されたビブラート制御データも圧力データ同様に変換部50に入力される。変換部50は、CPU10からの指示に従い、このビブラート制御データを圧力データと併用または単独で利用する。
【0041】
すなわち、▲1▼ビブラート制御データを全く無視する。▲2▼歌唱者による圧力データの入力がないときのみこのデータで肩代わりして制御する。▲3▼圧力データおよびこのビブラート制御データの平均値をとり、これを変換テーブルに与えるデータとする。▲4▼圧力データによらず全てこのビブラート制御データで制御する。などの制御方式があり、このいずれを選択するかは歌唱者がパネルスイッチ15の設定で選択できるものとする。なお、ビブラート制御データで制御する場合も、そのデータの取り扱いは圧力データと同様である。
【0042】
図5は前記FM変調部40の構成を示す図である。FM変調部は、歌唱音声信号を入力するシフトレジスタ60およびこのシフトレジスタの任意のタップ60aからデータを読み出すタップアサイナ61で構成されている。タップアサイナ61は、制御部43から入力されるビブラート波形信号に基づいて読出タップを決定する。すなわち、ビブラート波形信号の振幅の瞬時値に応じて読出タップを前後する。具体的には、瞬時値が大きいほど読出タップを先端側(図面において左方)に移動し、瞬時値が小さいほど読出タップを後端側(図面右方)に移動する。このように制御することにより、ビブラート波形信号を微分した波形の周波数変化する歌唱音声信号を出力することができる。また、ビブラートの波形信号の振幅の瞬時値を読出タップの移動速度とすることにより、ビブラート波形信号どおりの周波数変調をかけることもできる。
【0043】
図7は前記AM変調部41の構成を示す図である。AM変調部41は係数乗算器62、加算器63および乗算器64で構成されている。歌唱音声信号は係数乗算器62および加算器63に入力される。係数乗算器62は、入力された歌唱音声信号に係数を乗算して加算器63に出力する。係数乗算器62に入力される係数は、乗算器64において圧縮係数aを乗じられたビブラート波形信号である。圧縮係数aは1未満の値であり、このAM変調部41によるAM変調がFM変調に比して大きく掛からないように調整するためのものである。以上の構成により、加算器63において、通常の歌唱音声信号に対してビブラート波形信号(低周波信号)でレベルを周期的に変化された低レベルの歌唱音声信号が加算されるため、出力される信号は同じレベル変化の繰り返しすなわちトレモロがかかったものとなる。
【0044】
上記構成により、歌唱音声信号に対して歌唱者がマイク27を握る力によってビブラートを制御することができ、歌唱者がマイク27を強く握るとビブラートが深く掛かるという歌唱者の歌唱の状態に則した制御をすることができる。
【0045】
なお、この音声処理用DSP30では、自動的にエンベロープを付与するようにしたが、エンベロープを付与せずに歌唱者の操作のままビブラートを付与することも可能である。また、変換テーブルおよびエンベロープ波形は図4に示したものに限定されるものではなく、たとえば、圧力データ−Mg変換テーブルのオフセットを無くしてもよい。
【0046】
また、上記実施例ではFM変調部40,AM変調部41に同じ波形のビブラート波形信号を入力しているが、両者に入力する信号波形を別々のものにしてもよい。さらに、同一の波形信号を入力する場合でも、その位相をずらすことにより、両者を併用する場合の変調効果に変化を持たせることができる。
【0047】
【発明の効果】
以上のようにこの発明によれば、歌唱者が歌唱中に操作子を操作することによってその歌唱者の歌唱音声信号に対してビブラートが付与される。これにより、歌唱者が自分の好みに合わせてビブラートを付加することができ、発声でビブラートを付加できない歌唱者でも、ビブラートを伴う歌唱を容易にすることができる。
【0048】
また、この発明によれば、、前記操作子を歌唱用マイクのグリップに設けた圧力センサとしたことにより、歌唱者がマイクを強く握りしめたときビブラートが強く掛かるようになり、操作が容易なうえ、歌唱者の歌唱時の行為をそのままビブラートに反映して的確なビブラートを付与することができる。
【0049】
また、この発明によれば、カラオケ歌唱の進行に合わせたビブラートを自動的に付与するようにしたことにより、初心者でもその曲に合わせたビブラートで歌唱することができ、一律にビブラートを付加する従来の効果装置に比べて極めてカラオケ歌唱を盛り上げることができる。
【図面の簡単な説明】
【図1】この発明の実施例である音声変換カラオケ装置のブロック図
【図2】同音声変換カラオケ装置の音声処理用DSPの構成を示す図
【図3】同音声処理用DSPの制御部の構成を示す図
【図4】同制御部の変換テーブルおよびエンベロープ発声テーブルを示す図
【図5】同制御部の音節検出動作を説明する図
【図6】同音声処理用DSPのFM変調部の構成を示す図
【図7】同音声処理用DSPのAM変調部の構成を示す図
【図8】同音声変換カラオケ装置に用いられる楽曲データの構成を示す図
【図9】同音声変換カラオケ装置に用いられる楽曲データの構成を示す図
【図10】同音声変換カラオケ装置に用いられる楽曲データの構成を示す図
【符号の説明】
30−音声処理用DSP、33−圧力センサ、40−FM変調部、
41−AM変調部、50−変換部
[0001]
[Industrial applications]
The present invention relates to a karaoke apparatus capable of adding vibrato to a singing voice signal of a karaoke song.
[0002]
[Prior art]
A karaoke apparatus currently in practical use has a function of giving various effects such as delay and reverb to a singing voice signal of karaoke to excite the singing. With these functions, the sound is added to the singing voice, and the singer's voice can be heard better.
[0003]
[Problems to be solved by the invention]
However, since this kind of effect is to superimpose the singing voice signal with a time shift, the function of correcting the singing pitch (so-called pitch) and the ambiguity of the pitch make the singer's pitch correspond to the original singer's pitch. I can't hide the deviation from the vocal pitch. Further, when singing a long note, the flat singing has a disadvantage that the change is poor and the singing does not swell.
[0004]
These can be resolved if the singer sings with the vibrato on his own, but vibrato is a fairly sophisticated technique, and it has been difficult for non-experts to master this technique.
[0005]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a karaoke apparatus capable of giving an appropriate vibrato to a singing voice signal.
[0006]
[Means for Solving the Problems]
The invention according to claim 1 of the present application includes an operator operated by a singer, A syllable detecting means for detecting the start of a syllable of the singing voice signal; an envelope generating means for generating an envelope waveform each time the syllable detecting means detects the start of the syllable; Manipulator operation amount And the generated envelope waveform And vibrato adding means for adding vibrato to the singing voice signal of the singer according to.
[0007]
The invention according to claim 2 of this application is characterized in that the operator is constituted by a pressure sensor provided on a grip of a singing microphone.
[0008]
The invention according to claim 3 of this application is a means for storing a plurality of vibrato control data in chronological order according to the progress of a karaoke song, a reading means for sequentially outputting the vibrato control data during a karaoke performance, Syllable detecting means for detecting the start of a syllable of the singing voice signal, and envelope generating means for generating an envelope waveform each time the syllable detecting means detects the start of the syllable, Vibrato control data read And the generated envelope waveform And vibrato adding means for adding vibrato to the singing voice signal of the singer according to.
[0009]
[Action]
According to the first aspect of the present invention, an operator operated by the singer is provided, and the singer can operate the operator during the singing. When the singer operates this operator, vibrato is added to the singing voice signal input at that time. Therefore, the singer can add vibrato according to his / her preference by operating the operator, and even a singer who cannot add vibrato by vocalization can easily sing with vibrato.
[0010]
In the invention according to claim 2, the operating element is a pressure sensor provided on a grip of a singing microphone. In general, in karaoke singing, a scene where the singer puts emphasis and a scene where a large vibrato should be added often coincide, so if the singer's action is directly reflected in the vibrato, an accurate vibrato is given. be able to.
[0011]
According to the third aspect of the present invention, the vibrato according to the progress of the karaoke singing is automatically given. Since the beginner may not know the scene where the vibrato is applied, the singer can know the place by automatically adding the vibrato. Also, unlike a conventional effect device in which vibrato is uniformly added, since the vibrato is adjusted according to the progress of the song, the effect of raising the karaoke singing is great.
[0012]
【Example】
An embodiment of the present invention will be described with reference to the accompanying drawings. This karaoke apparatus is a sound source karaoke apparatus and has a communication function and a vibrato addition function. A sound source karaoke device is a karaoke device that generates a karaoke performance sound by driving the sound source device with music data. The music data is sequence data composed of a plurality of tracks, such as a performance data sequence for specifying a pitch and a sound generation timing. The communication function is a function that is connected to a host station via a communication line, downloads music data from the host station, and stores the music data in the hard disk device 17 (see FIG. 1). The hard disk device 17 can store music data for several hundred to several thousand songs. The vibrato addition function is a function of applying fine frequency modulation and amplitude modulation to a singing voice signal of a singer to make the singing sound good.
[0013]
FIG. 1 is a block diagram of the karaoke apparatus. The CPU 10 for controlling the operation of the entire apparatus includes a ROM 11, a RAM 12, a hard disk storage device (HDD) 17, an ISDN controller 16, a remote control receiver 13, a display panel 14, a panel switch 15, a sound source device 18, a sound data The processing unit 19, the effect DSP 20, the character display unit 23, the LD changer 24, the display control unit 25, and the voice processing DSP 30 are connected.
[0014]
The ROM 11 stores a system program, an application program, a loader, and font data. The system program is a program that controls the basic operation of the device and data transmission / reception with peripheral devices. The application program is a peripheral device control program, a sequence program, or the like. During a karaoke performance, a sequence program is executed by the CPU 10 to generate musical tones and reproduce images based on music data. The loader is a program for downloading music data from the host station. The font data is for displaying lyrics, song titles, and the like, and stores fonts of a plurality of types of characters such as Mincho and Gothic. In the RAM 12, a work area is set. A music data file is set in the HDD 17.
[0015]
The ISDN controller 16 is a controller for communicating with a host station via an ISDN line. The ISDN controller 16 downloads music data and the like from the host station. Further, the ISDN controller 16 has a built-in DMA circuit, and writes downloaded music data and application programs directly to the HDD 17 without passing through the CPU 10.
[0016]
The remote control receiver 13 receives the infrared signal transmitted from the remote control 31 and restores the data. The remote controller 31 includes a command switch such as a music selection switch, a numeric key switch, and the like. When the user operates these switches, an infrared signal modulated with a code corresponding to the operation is transmitted. The display panel 14 is provided on the front of the karaoke apparatus, and displays a currently playing music code, the number of reserved music, and the like. The panel switch 15 is provided on a front operation unit of the karaoke apparatus, and includes a music code input switch, a key change switch, and the like.
[0017]
The sound source device 18 forms a tone signal based on event data input from the CPU 10 during a karaoke performance. The event data is stored in a music track of the music data. Since a plurality of tone tracks are set as shown in FIG. 8, a plurality of event data are also input in parallel. The sound source device 18 receives these data and simultaneously forms a plurality of tone signals. The audio data processing unit 19 forms an audio signal having a specified length and a specified pitch based on audio data that is ADPCM data included in the music data. The audio data is obtained by directly digitizing and storing a signal waveform, such as a back chorus or a model singing sound, which is hardly generated electronically by the sound source device 18.
[0018]
On the other hand, the singing voice signal input from the singing microphone 27 is amplified by the preamplifier 28 and converted to a digital signal by the A / D converter 29, and then input to the voice processing DSP 30. In addition, the detection value of the pressure sensor 33 provided in the microphone 27 is input to the voice processing DSP 30 via the A / D converter 34. Further, various control information is input from the CPU 10. The voice processing DSP 30 gives effects such as vibrato to the singing voice signal of the singer based on the information. The singing voice signal provided with the effect is output to the effect DSP 20. The pressure sensor 33 provided on the microphone 27 may be configured as a push switch, and may be configured to press a finger. The pressure sensor 33 is wound around the entire grip to detect the entire pressure. Is also good.
[0019]
To the effect DSP 20, a musical sound signal formed by the sound source device 18, a sound signal formed by the sound data processing unit 19, and a singing sound signal to which vibrato is added by the sound processing DSP 30 are input. The effect DSP 20 gives effects such as reverb and echo to the input audio signal and musical sound signal. The type and degree of the effect given by the effect DSP 20 are controlled based on the event data (DSP control data) of the effect track of the music data. The DSP control data is input to the effect DSP 20 at a predetermined timing by the CPU 10 based on the DSP control sequence program. The tone signal and audio signal to which the effect has been added are converted to analog signals by the D / A converter 21 and then output to the amplifier / speaker 22. The amplifier / speaker 22 amplifies this signal and emits sound.
[0020]
The character display unit 23 generates character patterns such as song titles and lyrics based on the input character data. The LD changer 24 reproduces the background video of the corresponding LD based on the input video selection data (chapter number). The video selection data is determined based on the genre data of the karaoke song or the like. The genre data is written in the header of the music data, and is read by the CPU 10 when the karaoke performance starts. The CPU 10 determines which background video is to be reproduced based on the genre data, and outputs video selection data designating the background video to the LD changer 24. The LD changer 24 contains about five (120 scenes) laser disks and can reproduce about 120 scenes of background video. One background video is selected from among them according to the video selection data, and is output as video data. The character pattern and the video data are input to the display control unit 25. The display controller 25 superimposes these data in superimposition and displays them on the monitor 26.
[0021]
Next, a configuration of music data used for karaoke performance in the karaoke apparatus will be described with reference to FIGS. FIG. 8 is a diagram showing a configuration of music data. FIGS. 9 and 10 are diagrams showing a detailed configuration of music data.
[0022]
In FIG. 8, one piece of music data is composed of a header, a musical sound track, a lyrics track, an audio track, an effect track, a vibrato control track, and an audio data section.
[0023]
The header is a portion where various data related to the music data is written, and data such as a music title, a genre, a release date, and a performance time (length) of the music are written. The CPU 10 determines a background image to be displayed on the monitor 26 based on the genre data when executing the main sequence program, and transmits a chapter number of the image to the LD changer 24. The method of determining the background image is to select an image of a snowy country in the case of an enka on the theme of winter, and to select an image of a foreign country in the case of pops.
[0024]
As shown in FIGS. 9 and 10, each track from the musical tone track to the vibrato control track is composed of sequence data including a plurality of event data and duration data Δt indicating a time interval between the event data. The event data of each track is read out by the CPU 10 based on a sequence program during a karaoke performance. The sequence program is a program that counts Δt at a predetermined tempo clock, and when Δt is counted up, determines that it is the readout timing of event data subsequent thereto, and reads out the data and outputs it to a predetermined processing unit.
[0025]
In the musical sound track, tracks of various parts including a melody track and a rhythm track are formed. The CPU 10 outputs the event data read by the tone sequence program to the tone generator 18. The sound source device 18 selects a sounding channel based on the channel designation data included in the event data, and executes the event for the sounding channel.
[0026]
Hereinafter, although the sequence data of the lyrics track, the audio track, the effect track, and the vibrato control track are not tone data, these tracks are also described in the MIDI data format in order to unify the implementation and facilitate the work process. ing. The data type is a system exclusive message.
[0027]
The lyrics track is a track that stores sequence data for displaying lyrics on the monitor 26. The event data of the lyrics track is lyrics display data. In the description of the lyrics display data, one line of lyrics is usually handled as one event data. The lyrics display data is composed of one line of character data of the lyrics (character code and display coordinates of the character), display time of the lyrics (usually around 30 seconds), and wipe sequence data. The wipe sequence data is sequence data for changing the display color of the lyrics in accordance with the progress of the song, and includes the timing of changing the display color (the time from when the lyrics are displayed) and the change position (coordinates). ) Is data sequentially recorded over the length of one line.
[0028]
The audio track is a sequence track for specifying the generation timing of the audio data n (n = 1, 2, 3,...) Stored in the audio data section. The voice data section stores human voices such as back chorus and harmony singing that are difficult to synthesize by the sound source device 18. In the audio track, audio designation data and duration data Δt for designating a read interval of the audio designation data, that is, a timing of outputting the audio data to the audio data processing unit 19 and forming an audio signal are written. The voice designation data includes a voice data number, pitch data, and volume data. The audio data number is an identification number n of each audio data recorded in the audio data section. The pitch data and the volume data are data indicating the pitch and volume of the audio data to be formed. That is, a back chorus such as "Ah" or "Wawa Wawa" without words can be used many times by changing the pitch or volume, so one basic pitch and volume are stored and this data is stored. The pitch and volume are shifted based on and used repeatedly. The audio data processing unit 19 sets the output level based on the volume data, and sets the interval of the audio signal by changing the reading interval of the audio data based on the interval data.
[0029]
In the effect track, DSP control data for controlling the effect DSP 20 is written. The effect DSP 20 applies reverberation or other reverberation effects to signals input from the sound source device 18, the audio data processing unit 19, and the audio processing DSP 30. The DSP control data is composed of data designating the kind of the effect and data of the change amount thereof.
[0030]
Control data for controlling the audio processing DSP 30 is written in the vibrato control track. This data is input from the CPU 10 to the DSP 30 for audio processing. The voice processing DSP 30 applies vibrato to the singing voice signal based on the data. Vibrato is a combination of frequency modulation and amplitude modulation, and the DSP 30 for audio processing can also apply an effect of only frequency modulation or only amplitude modulation to an audio signal. This switching is performed based on control information from the CPU 10.
[0031]
2 to 7 are views for explaining the operation of the DSP 30 for audio processing. The voice processing DSP 30 forms a harmony voice signal for the input singing voice signal based on a built-in microprogram, and this microprogram can be represented as shown in FIG.
[0032]
FIG. 2 is a diagram showing a schematic configuration of the DSP 30. This DSP includes an FM modulator 40 for performing FM modulation on an input singing voice signal and an AM modulator 41 for performing AM modulation. How the FM modulator 40 and the AM modulator 41 are combined is described below. That is, a bus 42 for switching which path the singing voice signal is output, and a control unit 43 for inputting control information to the FM modulation unit 40, the AM modulation unit 41, and the bus 42 are provided.
[0033]
The bus 42 allows the input singing voice signal to pass through both or one of the FM modulation unit 40 and the AM modulation unit 41 by switching the transmission path, or to output the singing voice signal as it is without passing through both. It is. That is, the bus 42 can form a signal transmission path by arbitrarily combining the FM modulation unit 40 and the AM modulation unit 41. The original vibrato is to apply FM modulation and a minute AM modulation synchronized with the singing voice signal to the singing voice signal, but it is also possible to apply only one of the FM modulation and the AM modulation. The data can be output as it is without applying AM modulation. Further, the FM modulation section 40 and the AM modulation section 41 can be connected in parallel, and a signal to which only FM modulation has been added and a signal to which only AM modulation has been added can be output.
[0034]
FIG. 3 is a block diagram of the control unit 43. As shown in FIG. 2, the control unit 43 includes pressure data, which is a detection value of the pressure sensor 33, digitized by the A / D converter 34, vibrato control data read from the vibrato control track, and singing. An audio signal is being input.
[0035]
The pressure data is input to the converter 50. The converter 50 converts the input pressure data into frequency control data Frq for controlling a low frequency signal generated by the low frequency oscillator 51 and intensity control data Mg. This conversion is performed using a conversion table built in the conversion unit 50. The conversion table is as shown in FIGS. FIG. 7A is a pressure data-Frq conversion table. This table is set so that even when the pressure data is 0, Frq does not become 0, and when the pressure data increases, Frq slightly increases but Frq does not increase so much. This is because the range suitable for the vibrato frequency is not so wide (about 5 to 10 Hz), so that the change in this range is stopped. FIG. 3B is a pressure data-Mg conversion table. This table is set so as to output Mg almost in proportion to the pressure data, but does not output amplitude information when the pressure data is equal to or less than a certain value. This is because the singer sings while holding the microphone 27 in his hand, so that even if there is no intention to apply vibrato, it is considered that some pressure is applied to the pressure sensor 33. Therefore, such an offset is set because it is necessary to omit the minimum pressure for holding the microphone 27. The frequency control data Frq determined by such a conversion table is output to the low frequency oscillator 51. The intensity control data Mg is output to the multiplier 57.
[0036]
The low-frequency oscillator 51 oscillates and outputs a low-frequency signal (sine wave) having a frequency corresponding to the input frequency control data Frq, and is input to the coefficient multiplier 52.
[0037]
On the other hand, the singing voice signal input to the control unit 43 is input to the syllable detection unit 55. The syllable detection unit detects a syllable break of the singing voice. In FIG. 5, the lyrics "Akashiya no" consist of five syllables, "a", "ka", "shi", "ya", and "no", respectively. It can be detected by an increase in white noise component due to switching to a consonant, a change in fundamental frequency, and the like. When the syllable detector 55 detects a syllable break, that is, the start of a new syllable, it outputs a syllable start signal to the envelope generator 56.
[0038]
The envelope generator 56 generates the envelope waveform data En shown in FIG. 4C using the syllable start signal as a trigger. The characteristic of this envelope waveform is that there is a delay for a certain time, then it gradually increases, and after reaching the upper limit, the value is maintained. In other words, in general singing, when singing short lyrics, vibrato is not applied, and when vibrating long notes, deep vibrato is applied gradually. is there. The envelope waveform data En generated by the envelope generator 56 is input to the multiplier 57.
[0039]
As described above, the intensity control data Mg output from the converter 50 and the envelope waveform data En generated by the envelope generator 56 are input to the multiplier 57. The multiplier 57 multiplies the data to generate depth control data Dep, and inputs the depth control data Dep to the coefficient multiplier 52 as a coefficient. The depth control data Dep reflects the singer's intention (Mg) on the vibrato technique (En). The coefficient multiplier 52 multiplies the low-frequency signal input from the low-frequency oscillator 51 by this coefficient to generate a vibrato waveform signal. This vibrato waveform signal is output to FM modulation section 40 and AM modulation section 41.
[0040]
The vibrato control data read from the vibrato control track is also input to the conversion unit 50 in the same manner as the pressure data. The conversion unit 50 uses the vibrato control data together with the pressure data or independently, in accordance with an instruction from the CPU 10.
[0041]
That is, (1) the vibrato control data is completely ignored. {Circle around (2)} Only when there is no input of pressure data by the singer, control is performed by using this data. {Circle around (3)} An average value of the pressure data and the vibrato control data is obtained, and is used as data to be provided to the conversion table. {Circle around (4)} Vibrato control data is used for all control regardless of pressure data. It is assumed that the singer can select any of these control methods by setting the panel switch 15. When the control is performed using the vibrato control data, the handling of the data is the same as the pressure data.
[0042]
FIG. 5 is a diagram showing a configuration of the FM modulator 40. The FM modulator includes a shift register 60 for inputting a singing voice signal and a tap assigner 61 for reading data from an arbitrary tap 60a of the shift register. The tap assigner 61 determines a read tap based on the vibrato waveform signal input from the control unit 43. That is, the read tap is moved back and forth according to the instantaneous value of the amplitude of the vibrato waveform signal. Specifically, as the instantaneous value is larger, the readout tap is moved toward the front end (leftward in the drawing), and as the instantaneous value is smaller, the readout tap is moved toward the rear end (rightward in the drawing). By performing such control, it is possible to output a singing voice signal in which the frequency of a waveform obtained by differentiating the vibrato waveform signal changes. In addition, by using the instantaneous value of the amplitude of the vibrato waveform signal as the moving speed of the readout tap, it is possible to perform frequency modulation according to the vibrato waveform signal.
[0043]
FIG. 7 is a diagram showing a configuration of the AM modulator 41. The AM modulator 41 includes a coefficient multiplier 62, an adder 63, and a multiplier 64. The singing voice signal is input to a coefficient multiplier 62 and an adder 63. The coefficient multiplier 62 multiplies the input singing voice signal by a coefficient and outputs the result to the adder 63. The coefficient input to the coefficient multiplier 62 is a vibrato waveform signal multiplied by the compression coefficient a in the multiplier 64. The compression coefficient a is a value less than 1, and is used to adjust the AM modulation by the AM modulating unit 41 so as not to be large as compared with the FM modulation. With the above configuration, the adder 63 adds a low-level singing voice signal whose level is periodically changed with a vibrato waveform signal (low-frequency signal) to a normal singing voice signal, and is output. The signal is obtained by repeating the same level change, that is, tremolo.
[0044]
According to the above configuration, the vibrato can be controlled by the power of the singer holding the microphone 27 with respect to the singing voice signal, and the vibrato is deeply applied when the singer holds the microphone 27 strongly, in accordance with the singing state of the singer. You can control.
[0045]
In the DSP 30 for audio processing, an envelope is automatically added. However, it is also possible to add a vibrato without adding an envelope while operating the singer. Further, the conversion table and the envelope waveform are not limited to those shown in FIG. 4, and for example, the offset of the pressure data-Mg conversion table may be eliminated.
[0046]
In the above embodiment, the same vibrato waveform signal is input to the FM modulator 40 and the AM modulator 41, but the signal waveforms input to both may be different. Further, even when the same waveform signal is input, the modulation effect when both are used can be changed by shifting the phase.
[0047]
【The invention's effect】
As described above, according to the present invention, the singer operates the operating element while singing, whereby vibrato is given to the singing voice signal of the singer. As a result, the singer can add vibrato according to his / her preference, and even a singer who cannot add vibrato by vocalization can easily sing with vibrato.
[0048]
Further, according to the present invention, since the operation element is a pressure sensor provided on the grip of the singing microphone, the vibrato is strongly applied when the singer squeezes the microphone strongly, and the operation is easy. In addition, the act of the singer at the time of singing can be reflected on the vibrato as it is, and an accurate vibrato can be given.
[0049]
Also, according to the present invention, by automatically adding a vibrato according to the progress of karaoke singing, even a beginner can sing with a vibrato according to the song, and the conventional method of uniformly adding vibrato Can greatly excite the karaoke singing compared to the effect device of the above.
[Brief description of the drawings]
FIG. 1 is a block diagram of a voice conversion karaoke apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of a voice processing DSP of the voice conversion karaoke apparatus.
FIG. 3 is a diagram showing a configuration of a control unit of the voice processing DSP.
FIG. 4 is a diagram showing a conversion table and an envelope utterance table of the control unit.
FIG. 5 is a diagram illustrating a syllable detection operation of the control unit.
FIG. 6 is a diagram showing a configuration of an FM modulation unit of the audio processing DSP.
FIG. 7 is a diagram showing a configuration of an AM modulation unit of the DSP for audio processing.
FIG. 8 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.
FIG. 9 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.
FIG. 10 is a diagram showing a configuration of music data used in the voice conversion karaoke apparatus.
[Explanation of symbols]
30-DSP for voice processing, 33-pressure sensor, 40-FM modulator,
41-AM modulator, 50-converter

Claims (3)

歌唱者が操作する操作子と、
歌唱音声信号の音節のスタートを検出する音節検出手段と、
音節検出手段が音節のスタートを検出するごとにエンベロープ波形を発生するエンベロープ発生手段と、
前記操作子の操作量および前記発生したエンベロープ波形に応じて歌唱者の歌唱音声信号にビブラートを付加するビブラート付加手段と、
を備えたことを特徴とするビブラート付加機能付カラオケ装置。
Operators operated by the singer,
Syllable detection means for detecting the start of a syllable of the singing voice signal;
An envelope generating means for generating an envelope waveform each time the syllable detecting means detects the start of a syllable;
A vibrato adding means for adding vibrato in singing voice signal of the singer in accordance with the operation amount and the generated envelope waveform of the operating element,
A karaoke device with a vibrato addition function, comprising:
前記操作子は、歌唱用のマイクのグリップに設けられた圧力センサである請求項1に記載のビブラート付加機能付カラオケ装置。2. The karaoke apparatus with a vibrato addition function according to claim 1, wherein the operator is a pressure sensor provided on a grip of a singing microphone. 複数のビブラート制御データをカラオケ曲の進行に合わせて時系列に記憶する手段と、
カラオケ演奏時にこのビブラート制御データを逐次出力する読出手段と、
歌唱音声信号の音節のスタートを検出する音節検出手段と、
音節検出手段が音節のスタートを検出するごとにエンベロープ波形を発生するエンベロープ発生手段と、
読み出されたビブラート制御データおよび前記発生したエンベロープ波形に応じて歌唱者の歌唱音声信号に対してビブラートを付加するビブラート付加手段と、
を備えたことを特徴とするビブラート付加機能付カラオケ装置。
Means for storing a plurality of vibrato control data in chronological order in accordance with the progress of the karaoke song;
Reading means for sequentially outputting the vibrato control data during a karaoke performance;
Syllable detection means for detecting the start of a syllable of the singing voice signal;
An envelope generating means for generating an envelope waveform each time the syllable detecting means detects the start of a syllable;
Vibrato adding means for adding vibrato to the singing voice signal of the singer according to the read vibrato control data and the generated envelope waveform ,
A karaoke device with a vibrato addition function, comprising:
JP04952495A 1995-03-09 1995-03-09 Karaoke device with vibrato addition function Expired - Lifetime JP3564775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04952495A JP3564775B2 (en) 1995-03-09 1995-03-09 Karaoke device with vibrato addition function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04952495A JP3564775B2 (en) 1995-03-09 1995-03-09 Karaoke device with vibrato addition function

Publications (2)

Publication Number Publication Date
JPH08248966A JPH08248966A (en) 1996-09-27
JP3564775B2 true JP3564775B2 (en) 2004-09-15

Family

ID=12833538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04952495A Expired - Lifetime JP3564775B2 (en) 1995-03-09 1995-03-09 Karaoke device with vibrato addition function

Country Status (1)

Country Link
JP (1) JP3564775B2 (en)

Also Published As

Publication number Publication date
JPH08248966A (en) 1996-09-27

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP2921428B2 (en) Karaoke equipment
US5621182A (en) Karaoke apparatus converting singing voice into model voice
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP2838977B2 (en) Karaoke equipment
JP3116937B2 (en) Karaoke equipment
JP3901008B2 (en) Karaoke device with voice conversion function
JP3212872B2 (en) Electronic musical instrument
JP3564775B2 (en) Karaoke device with vibrato addition function
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP2904045B2 (en) Karaoke equipment
JP3794805B2 (en) Music performance device
JP3173310B2 (en) Harmony generator
JP3047879B2 (en) Performance guide device, performance data creation device for performance guide, and storage medium
JP3663681B2 (en) Vibrato addition device
JP3050129B2 (en) Karaoke equipment
JP3397071B2 (en) Automatic performance device
JP3178694B2 (en) Karaoke equipment
JP4085471B2 (en) Karaoke device and microphone
JP4033146B2 (en) Karaoke equipment
JP3324431B2 (en) Automatic performance device
JP2004219495A (en) Electronic musical instrument
JP4341563B2 (en) Vibrato addition device
JP4222257B2 (en) Accompaniment adding device
JP4341562B2 (en) Vibrato addition device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140618

Year of fee payment: 10

EXPY Cancellation because of completion of term