JP4174940B2 - Karaoke equipment - Google Patents

Karaoke equipment Download PDF

Info

Publication number
JP4174940B2
JP4174940B2 JP2000027463A JP2000027463A JP4174940B2 JP 4174940 B2 JP4174940 B2 JP 4174940B2 JP 2000027463 A JP2000027463 A JP 2000027463A JP 2000027463 A JP2000027463 A JP 2000027463A JP 4174940 B2 JP4174940 B2 JP 4174940B2
Authority
JP
Japan
Prior art keywords
data
narration
karaoke
lead
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000027463A
Other languages
Japanese (ja)
Other versions
JP2001215979A (en
Inventor
実 荻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000027463A priority Critical patent/JP4174940B2/en
Publication of JP2001215979A publication Critical patent/JP2001215979A/en
Application granted granted Critical
Publication of JP4174940B2 publication Critical patent/JP4174940B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、カラオケ曲の手本の歌唱であるガイドボーカルとともに、カラオケ曲の歌詞の先読みであるリードナレーションを発生することのできるカラオケ装置に関する。
【0002】
【従来の技術】
カラオケ装置は、歌唱者をカラオケ曲の歌唱をするために、カラオケ曲の伴奏を演奏する装置である。したがって、演奏には歌唱は含まれていない。しかし、不慣れな歌唱者や曲を知らない歌唱者のために手本の歌唱音声であるガイドボーカルを発生できるようにしたカラオケ装置も実用化されている。
【0003】
【発明が解決しようとする課題】
しかし、ガイドボーカルは、そのカラオケ曲を歌唱した音声そのものであるため、このガイドボーカルを発生させると、カラオケ演奏がいわゆる「カラオケ」でなくなって歌唱者が歌唱する余地がなくなるという問題点があった。
【0004】
また、多人数で一緒に歌唱する場合、全員がモニタに表示される歌詞を見ることができない場合が多い。また、老人や視覚障害者などモニタに表示された歌詞テロップを読むのが困難な歌唱者に歌詞を教えるためには音声で教えるのが最も適当である。
【0005】
この発明は、歌詞の先読み音声であるリードナレーションを発生させて、歌詞を音声で教えることができるカラオケ装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
この発明は、カラオケ曲の演奏音を発生するための演奏データ、該カラオケ曲の手本の歌唱音声を発生するためのガイドボーカルデータを有する楽曲データを記憶する記憶手段と、
前記演奏データを用いてカラオケ曲の演奏音を発生する演奏手段と、前記ガイドボーカルデータを再生することにより手本の歌唱音声を発生する音声再生手段と、前記ガイドボーカルデータの再生タイミング、再生速度、および、再生周波数を変更して再生することにより歌詞の先読み音声を発生する音声処理手段と、を備えたことを特徴とする。
【0008】
このカラオケ装置は、手本の歌唱音声であるガイドボーカルを発生するとともに、歌詞の先読み音声であるリードナレーションを発生する。リードナレーションとは、曲のフレーズの直前(冒頭)にそのフレーズの歌詞を早口で知らせる音声であり、昔フォークソングなどで多くの聴衆が一緒に歌えるように行われた手法である。ガイドボーカルは、歌唱者が歌詞もメロディも知らない場合に発生すればよく、リードナレーションは、歌唱者がメロディは知っているが歌詞をよく知らない場合に発生すればよい。また、モニタに表示される歌詞が見にくい場合、たとえば、歌唱者が老人である場合、歌唱者が多人数でモニタを見ることができない人がいる場合などに有効である。
【0009】
そして、ガイドボーカルデータは現在多くの楽曲データが有するが、リードナレーションデータを有する楽曲データは少ない。そこで、ガイドボーカルデータを有し、リードナレーションデータを持たない楽曲データの場合、ガイドボーカルデータを用いてリードナレーションの音声を作成する。ガイドボーカルデータは、一般的にフレーズ毎に分割された部分データとして記憶されているため、各部分データ毎に再生タイミング、再生速度、および、再生周波数を変更して再生することにより、リードナレーションとして使用できる音声を発生することができる。すなわち、再生速度を当該フレーズの直前に全ての音声を再生できるように速くし、再生タイミングを当該フレーズの冒頭で再生が終了するように変更する。そして、話言葉になるように歌唱の旋律を除去するように再生周波数を変換する。この歌唱の旋律の除去は、たとえば演奏データ中のガイドメロディデータを用い、全ての音が一定の音高になるように変換する。
【0010】
そして、カラオケ装置には、マイクから入力された歌唱音声の周波数を変換してハーモニー音声を生成し、これを前記歌唱音声と一緒に出力するいわゆるハモリ機能を有するものがあるが、このハモリ機能を実現する音声処理手段をそのままリードナレーションデータの生成に用いればカラオケ装置のリソースを有効に活用することができる。
【0011】
この発明は、複数のスピーカを設け、前記演奏手段が発生した演奏音を全てのスピーカから出力し、前記歌詞の先読み音声を一部のスピーカから出力することを特徴とする。
リードナレーションは、たとえば、大勢の聴衆に対して出力して全員で歌唱するために用いたり、モニタに表示される歌詞の読み取りが困難な視覚障害者や老人などに用いたりすることで有効に機能する。前者の場合、聴衆の前で歌っている歌唱者にリードナレーションは不要である。また、後者の場合、聴衆にはリードナレーションが聞こえないほうが歌唱を上手に聞かせることができる。そこで、複数のスピーカを設け、必要なスピーカのみからリードナレーションを出力する。
【0012】
【発明の実施の形態】
図1はこの発明の実施形態であるカラオケ装置のブロック図である。このカラオケ装置は、DVDチェンジャ4にセットされるDVDやハードディスク17に記憶されている楽曲データを読み出し、これを音源装置18に入力することによってカラオケ曲の楽音を形成・出力するものである。このカラオケ装置は、音源装置18等を用いて楽音を発生しカラオケ曲を演奏するとともに、利用者(歌唱者)の選択に応じてガイドメロディ、ガイドボーカル、リードナレーションなどの歌唱補助音声を発生することができる。ガイドメロディは歌唱旋律を音源18で楽音として発生したものである。ガイドボーカルは、音声データとして記憶されている歌手の歌唱音声を再生したものである。リードナレーションは、歌唱する歌詞をフレーズ毎にそのフレーズの冒頭に音声として読み上げるものである。リードナレーションは、リードナレーション用の音声データを設けてもよく、また、上記ガイドボーカル用の音声データを加工して発生してもよい。
【0013】
図1において、この実施形態のカラオケ装置は、複数のコンポーネントからなるシステムであり、カラオケ装置本体1,コントロールアンプ2,音声信号処理装置3,DVD(ディジタル・ビデオ・ディスク)チェンジャ4,スピーカ5,モニタ6,マイク7および赤外線のリモコン装置8で構成されている。カラオケ装置本体1はこのカラオケ装置全体の動作を制御する。該カラオケ装置本体1の制御装置であるCPU10には、内部バスを介してROM11,RAM12,ハードディスク17,通信制御部16,リモコン受信部13,表示パネル14,パネルスイッチ15,音源装置18,音声データ処理部19,文字表示部20,表示制御部21が接続されるとともに、上記外部装置であるコントロールアンプ2,音声信号処理装置3およびDVDチェンジャ4がインタフェースを介して接続されている。
【0014】
ROM11にはこの装置を起動するために必要な起動プログラムなどが記憶されている。装置の動作を制御するシステムプログラム,カラオケ演奏実行プログラムなどはハードディスク17に記憶されている。カラオケ装置の電源がオンされると上記起動プログラムによってシステムプログラムやカラオケ演奏プログラムがRAM12に読み込まれる。
【0015】
ハードディスク17には、上記プログラムを記憶するプログラム記憶エリアのほか、楽曲データを記憶する楽曲データ記憶エリアなどが設定されている。楽曲データ記憶エリアは、数千曲分の楽曲データを記憶することができ、配信センタ9が定期的にダウンロードしてくる新曲の楽曲データなどが記憶されている。
【0016】
前記RAM12には、装置の起動時にハードディスク記憶装置17からプログラムを読み込むプログラム記憶エリア、リクエストされたカラオケ曲の曲番号を登録する予約曲リスト、演奏されるカラオケ曲の楽曲データを読み込む実行曲データ記憶エリア、および、上記歌唱補助音声のうちどれを発生するかのモードである歌唱補助モードを記憶する歌唱補助モードレジスタなどが設定される。
【0017】
通信制御部16はISDN回線を介して配信センタ9と接続される。配信センタ9は、定期的にカラオケ装置に対して電話を掛け、新曲の楽曲データや新しいインデックステーブルなどを配信する。
【0018】
リモコン装置8は、テンキーなどのキースイッチを備えており、利用者がこれらのスイッチを操作するとその操作に応じたコード信号を赤外線で出力する。利用者は、テンキーを用いてカラオケ装置本体1に対して曲番号を入力する。リモコン受信部13はリモコン装置8から送られてくる赤外線信号を受信して、そのコード信号を復元しCPU10に入力する。CPU10は、リモコン装置8から曲番号が入力されると、この曲番号を、RAM12に設定されている予約リストに登録する。
【0019】
表示パネル14およびパネルスイッチ15は、カラオケ装置本体1の前面に設けられている。パネルスイッチ15は、前記リモコン装置8と同様の曲番号入力用のテンキーやモード切換スイッチなどを備えている。表示パネル14は、現在演奏中の曲番号や予約曲数を表示する。
【0020】
文字表示部20は、モニタ6の表示領域に対応するVRAMを備えている。このVRAMには文字パターンに展開されたカラオケ曲の歌詞が書き込まれる。文字コードとして楽曲データの歌詞トラックに記憶されている歌詞を文字パターンに展開する作業はCPU10が行う。CPU10は文字コードをパターンに展開したのち、表示座標に対応するVRAM上のアドレスにこれを書き込む。この文字パターンは、映像信号として表示制御部21に入力される。また、カラオケ演奏時はDVDチェンジャ4は背景映像を再生し、この映像信号も表示制御部21に入力される。表示制御部21は、文字パターンを背景映像にスーパーインポーズで合成してモニタ6に表示する。
【0021】
表示制御部21は、文字表示部20の映像信号とDVDチェンジャ4の映像信号をスーパーインポーズ合成するのみでなく、文字表示部20から入力される映像信号の一部または全部をフェードイン、フェードアウトすることができる。
【0022】
なお、DVDチェンジャ4には6枚程度のDVDをセットすることができ、そのうち数枚には上記背景映像が記録されており、他の数枚には定番となっているカラオケ曲の楽曲データが記録されている。この定番曲がリクエストされたとき、DVDチェンジャ4は、まずその楽曲データを読み出してRAM12の実行曲データ記憶エリアに書き込み、こののち背景映像のDVDを再生する。
【0023】
音源装置18は、楽曲データ(楽音トラックのイベントデータ)に基づいて楽音を形成し、形成した楽音に対してエフェクト制御トラックで指定されたエフェクトを付与してコントロールアンプ2に出力する。
【0024】
音声データ処理部19は、楽曲データに含まれている(または楽曲データに対応して記憶されている)音声データを再生する。音声データとしては、カラオケ演奏のバックコーラスの音声データであるバックコーラスデータ、カラオケ曲の手本となる歌唱の音声データであるガイドボーカルデータおよびカラオケ曲の歌詞をフレーズ毎に先読みした音声データであるリードナレーションデータなどがある。これらバックコーラスデータ、ガイドボーカルデータ、リードナレーションデータはデジタル化(および圧縮)されたデジタル音声データとして記憶されており、音声データ処理部19はこれらをデコードしてアナログオーディオ信号に変換する。なお、この音声データ処理部19は、バックコーラスデータをデコードする第1の系統およびガイドボーカルデータまたはリードナレーションデータをデコードする第2の系統の2系統の処理部を有している。デコードされたアナログオーディオ信号は、コントロールアンプ2に入力される。
【0025】
また、このカラオケ装置は、リードナレーションデータを持たない楽曲データであっても、ガイドボーカルデータを用いてリードナレーションを発生することができる。後述の音声信号処理装置3は、デジタル化された音声信号のテンポや音高を変換する機能を有している。この機能を利用してボーカルの音声データを音高の抑揚を少なく修正して早く読み出すことにより、リードナレーションとして用いることができるようにしている。
【0026】
コントロールアンプ2には、マイク7が接続されており、カラオケ歌唱者の歌唱音声が入力される。コントロールアンプ2は歌唱音声に対して所定のエフェクト(ボーカルエフェクト)を付与するとともに、歌唱音声・カラオケ演奏音をそれぞれイコライジング、ミキシングしたのち増幅してスピーカ5に出力する。
【0027】
また、音声信号処理装置3は、コントロールアンプ2から歌唱音声を入力して種々のエフェクトを付与する装置である。エコーなどの単純なエフェクトはコントロールアンプ2が単独で付与することができるが、マイク7から入力された歌唱音声の音程のずれを修正したり、この歌唱音声の周波数等を変換して他のパートのハーモニー歌唱を作成するなどの処理はこの音声信号処理装置3が行う。ピッチ修正された歌唱音声や新たに作成されたハーモニー歌唱音声などは再度コントロールアンプ2に入力される。また、上記音声のずれの修正やハーモニー歌唱の作成を行う機能を用いて、上記のようにガイドボーカル音声データからリードナレーションを作成することもできる。
【0028】
図2を参照してこの発明のガイドボーカルとリードナレーションについて説明する。カラオケ曲は、たとえば、同図上段に示すように前奏、コーラス1、間奏1、コーラス2、間奏2、コーラス3、後奏で構成される。このうち、コーラス1の冒頭の部分を詳細に見ると、カラオケ曲の演奏は連続して行われているが、ボーカルはフレーズ毎に切れている。楽曲データが有するガイドボーカルデータは、このボーカルの手本の歌唱音声を再生するためのデータであるが、このデータもフレーズ毎に別々の部分データを集めたものとして楽曲データに含まれている。また、このカラオケ曲の歌詞を歌唱タイミングに先立って早く読み上げる音声であるリードナレーションを再生するためのリードナレーションデータもフレーズ毎に音声データ(部分データ)を集めたものとして楽曲データに含まれている。リードナレーションの再生タイミングは、対応するフレーズの歌唱タイミングの直前の無歌唱区間である。
【0029】
図3は、カラオケ曲を演奏するための楽曲データ構成を示す図である。同図(A)はリードナレーションデータを含む楽曲データの構成を示す図である。楽曲データは、曲名,ジャンル,リリース日などが書き込まれているヘッダ、ガイドメロディトラックを含み、複数パートの演奏データが書き込まれている演奏データトラック、歌詞データが書き込まれている歌詞データトラック、バックコーラス指定データが書き込まれているバックコーラス指定データトラック、ガイドボーカル指定データが書き込まれているガイドボーカル指定データトラック、リードナレーション指定データが書き込まれているリードナレーション指定データトラック、周辺機器制御データが書き込まれている周辺機器制御データトラック、バックコーラスの音声データ(部分データ群)が書き込まれているバックコーラスデータ部、ガイドボーカルの音声データ(部分データ群)が書き込まれているガイドボーカルデータ部、リードナレーションの音声データ(部分データ群)が書き込まれているリードナレーションデータ部からなっている。
【0030】
演奏データトラック,歌詞データトラック,バックコーラス指定データトラック、ガイドボーカル指定データトラック、リードナレーション指定データトラック、周辺機器制御データトラックの各トラックは全て、複数のイベントデータと各イベントデータの読み出しタイミングを示すタイミングデータからなるシーケンスデータとして記述されている。シーケンスプログラムは、所定のテンポクロックでタイミングデータをカウントし、カウントデータをカウントアップしたときこれに続くイベントデータを読み出して所定の処理部へ出力する。タイミングデータは、曲の先頭からの時間で記述してもよく直前のイベントからの間隔で記述してもよい。
【0031】
演奏データトラックのイベントデータは、楽音を発生するためのデータであるため、MIDIの汎用フォーマットで記述することができる。これ以外のトラックのイベントデータは通常のMIDIメッセージではないが、インプリメンテーションの統一をとり、作業工程を容易にするためこのトラックもシステムエクスクルーシブメッセージとしてMIDIフォーマットで記述されている。
【0032】
バックコーラス指定データトラックのイベントデータ(バックコーラス指定データ)は、複数の部分データの集合として記憶されているバックコーラスデータのなかから1つの部分データを指定するとともに、その部分データの再生タイミングを指定するデータである。このトラックのタイミングデータはこのイベントデータの読み出しタイミングを指定しており、バックコーラスの音声データ(部分データ)の再生タイミングは、バックコーラス指定データ内のタイミング指定データによって指定される。
【0033】
ガイドボーカル指定データトラックのイベントデータ(ガイドボーカル指定データ)は、複数の部分データの集合として記憶されているガイドボーカルデータのなかから1つの部分データを指定するとともに、その部分データの再生タイミングを指定するデータである。このトラックのタイミングデータはこのイベントデータの読み出しタイミングを指定しており、ガイドボーカルの音声データ(部分データ)の再生タイミングは、ガイドボーカル指定データ内のタイミング指定データによって指定される。
【0034】
リードナレーション指定データトラックのイベントデータ(リードナレーション指定データ)は、複数の部分データの集合として記憶されているリードナレーションデータのなかから1つの部分データを指定するとともに、その部分データの再生タイミングを指定するデータである。このトラックのタイミングデータはこのイベントデータの読み出しタイミングを指定しており、リードナレーションの音声データ(部分データ)の再生タイミングは、リードナレーション指定データ内のタイミング指定データによって指定される。
【0035】
なお、図3において、リードナレーションデータやガイドボーカルデータは、楽曲データの一部として構成されているが、楽曲データとは別のファイルとしてハードディスク17等に記憶し、楽曲データのヘッダにそのファイル名などを書き込んで対応づけるようにしてもよい。
【0036】
同図(B)はリードナレーションデータを含まない楽曲データの構成を示す図である。この楽曲データは、同図(A)の楽曲データと比較して、リードナレーション指定データトラックおよびリードナレーションデータが存在していない。このような楽曲データを用いて、リードナレーションを発生する場合、ガイドボーカルデータの再生タイミング、再生速度、再生周波数を音声信号処理装置3を用いてリードナレーションのように変換し、これを再生した音声をリードナレーションとして用いる。
【0037】
以下、ガイドボーカルデータからリードナレーションデータを作成する手法を説明する。ガイドボーカル指定トラックのイベントデータ(ガイドボーカル指定データ)を先読みし、このイベントデータが指定するガイドボーカルの音声データを読み出す。そして、これを音声信号処理装置3に入力して、リードナレーションとして使用できるように、再生時間を圧縮する。この時間圧縮は元の音声データと周波数が変化しないように行う。また、子音と母音とを認識し、子音は圧縮せず、母音のみ時間を短くする。そして、旋律によって母音の長さが不揃いになっている可能性があるが、これをほぼ同じ長さに揃える。また、各母音の周波数は歌唱の音高になっているが、これをほぼ同じ周波数になるように音高変換して修正する。この修正は完全に行うのでなく、若干抑揚を残して行うようにする。音高変換するための音高情報はガイドメロディトラックが示す旋律データを用いて行う。なお、再生タイミングと再生速度の変換は図2の破線で示すように行えばよい。
【0038】
以上の処理をカラオケ曲の演奏に先立って全曲にわたって行い、リードナレーション指定データトラックおよびリードナレーションデータ部を新たに作成してからカラオケ曲の演奏をスタートしてもよく、以上の処理を演奏中にフレーズ毎に行ってもよい。この場合音声信号処理装置3が変換した音声データがコントロールアンプ2を介してスピーカ5から出力される。
【0039】
図4は同カラオケ装置の動作を示すフローチャートである。
同図(A)は歌唱補助モード選択動作を示すフローチャートである。歌唱補助モードは、「補助なし」、「ガイドボーカル」、「ガイドメロディ」、「リードナレーション」、「ガイドメロディ+リードナレーション」の5種類があり、リモコン8やパネルスイッチ15の操作で利用者がそのいずれかを選択することができる。利用者がリモコン8やパネルスイッチ15を操作して歌唱補助モードを選択すると(s1)、選択された歌唱補助モードを、RAM12に設定されている歌唱補助モードレジスタに記憶する(s2)。
【0040】
同図(B)はカラオケ演奏動作を示すフローチャートである。利用者が選曲したカラオケ曲の楽曲データをハードディスク17やDVDからRAM12の実行データ記憶エリアに読み出す(s10)。この楽曲データを用いてカラオケ曲の演奏をスタートする。カラオケ曲の演奏は、楽曲データの演奏データトラックのイベントデータで音源装置18を駆動し、バックコーラスデータを音声データ処理部19で再生するなどする動作である。そして歌唱補助モードを判断する(s12、s13、s15)。歌唱補助モードが「補助なし」であれば、何もしないでカラオケ曲の演奏を継続する。歌唱補助モードが「ガイドメロディ」であれば、演奏データトラック中のガイドメロディトラックのイベントデータも音源装置18に入力し、音源装置18にガイドメロディを発生させる(s14)。また、歌唱補助モードが「ガイドボーカル」であればガイドボーカル指定データトラックのイベントデータを読み出し、このイベントデータに応じてガイドボーカルの音声データを音声データ処理部19に入力することによって、ガイドボーカルを発生する(s16)。
【0041】
また、歌唱補助モードが「リードナレーション」であれば、この楽曲データにリードナレーションのためのデータ、すなわちリードナレーションデータ、リードナレーション指定データトラックが存在するかを判断する(s17)。リードナレーションのためのデータが存在する場合にはリードナレーション指定データトラックのイベントデータを読み出し、このイベントデータに応じてリードナレーションの音声データを音声データ処理部19に入力することによって、リードナレーションを発生する(s19)。一方、リードナレーションのためのデータが存在しない場合(s17)には、ガイドボーカルのデータからリードナレーションのためのデータを作成し(s18)、これを用いてリードナレーションを発生する(s19)。リードナレーションのためのデータの作成手法は上述したとおりである。
【0042】
また、歌唱補助モードが「ガイドメロディ+リードナレーション」の場合には、まずガイドメロディトラックのデータを音源装置18に入力してガイドメロディを発生させるとともに(s14)、s17〜s19の処理を行ってリードナレーションを発生する。
【0043】
なお、図1では、スピーカ5は1系統であるが、歌唱者用のスピーカと聴衆用のスピーカを設け、その一方のみにリードナレーションを出力することもできる。すなわち、図5に示すようにコントロールアンプ2の出力系統を2系統にして一方に聴衆用スピーカ5aを接続し、他方に歌唱用モニタスピーカ5bを接続する。そして、同図(A)に示すように、聴衆用スピーカ5aのみにリードナレーションを出力することにより、大勢の聴衆がステージ上の歌唱者と一緒にカラオケ曲を歌唱できるようにすることができる。また、同図(B)のように、歌唱用モニタスピーカ5bのみにリードナレーションを出力することにより、モニタの歌詞を読み取り難い老人や視覚障害者の補助をすることができる。
【0044】
この場合、リードナレーションの出力先は、利用者の操作または楽曲データに埋め込まれている設定情報等により「聴衆用スピーカ5aのみ」、「歌唱用モニタスピーカ5bのみ」、「両方」に切り換え可能である。
【0045】
なお、聴衆用スピーカ5a、歌唱用モニタスピーカ5bの個数は1個に限定されない。また、各系統はモノラル、ステレオ、マルチチャンネルのいずれでもよい。
【0046】
さらに、このように歌詞がリードナレーションとして発生されるため、歌詞テロップを表示するモニタがなくても歌唱者が歌唱することができ、モニタ無しでカラオケ装置を運用することも可能になる。また、歌唱者が振りをつけたり踊りながら歌唱してモニタを見ることができない場合でもヘッドセットを用いてリードナレーションを聞きながら歌唱することにより、歌詞を知らない曲を歌唱することができる。
【0047】
【発明の効果】
以上のようにこの発明によれば、歌詞の先読み音声であるリードナレーションや手本の歌唱であるガイドボーカルを選択的に発生することができるため、歌唱者が自分の練習の程度にあわせて上記歌唱補助の音声を発生させることができる。また、この発明ではリードナレーションのデータをガイドボーカルデータから作成することができるため、従来の楽曲データでもリードナレーションを発生することができる。
【図面の簡単な説明】
【図1】この発明の実施形態であるカラオケ装置のブロック図
【図2】同カラオケ装置のガイドボーカルとリードナレーションのタイミングを示す図
【図3】同カラオケ装置で用いられる楽曲データの構成を示す図
【図4】同カラオケ装置の動作を示すフローチャート
【図5】同カラオケ装置をマルチスピーカ構成にした場合の出力系統図
【符号の説明】
1…カラオケ装置本体、2…コントロールアンプ、3…音声信号処理装置、4…DVDチェンジャ、5…スピーカ、5a…聴衆用スピーカ、5b…歌唱用モニタスピーカ、6…モニタ、7…マイク、8…リモコン装置、9…配信センタ、
10…CPU、11…ROM、12…RAM、13…リモコン受信部、14…表示パネル、15…パネルスイッチ、16…通信制御部、17…ハードディスク、18…音源装置、19…音声データ処理部、20…文字表示部、21…表示制御部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a karaoke apparatus capable of generating lead narration, which is a pre-reading of lyrics of a karaoke song, together with a guide vocal which is a singing example of a karaoke song.
[0002]
[Prior art]
The karaoke device is a device that plays an accompaniment of karaoke songs to sing a karaoke song by a singer. Therefore, the performance does not include singing. However, a karaoke apparatus that can generate a guide vocal, which is a model singing voice, for an inexperienced singer or a singer who does not know a song has been put into practical use.
[0003]
[Problems to be solved by the invention]
However, since the guide vocal is the voice itself of singing the karaoke song, when this guide vocal is generated, there is a problem that the karaoke performance is not a so-called “karaoke” and the singer has no room to sing. .
[0004]
In addition, when many people sing together, there are many cases where everyone cannot see the lyrics displayed on the monitor. In addition, it is most appropriate to teach by voice to teach a singer who is difficult to read the lyrics telop displayed on the monitor, such as an elderly person or a visually impaired person.
[0005]
An object of the present invention is to provide a karaoke apparatus that can generate lead narration, which is a pre-read voice of lyrics, and teach the lyrics by voice.
[0007]
[Means for Solving the Problems]
The present invention comprises a storage means for storing music data having performance data for generating performance sounds of karaoke songs and guide vocal data for generating singing voices of examples of the karaoke songs,
Performance means for generating a performance sound of a karaoke song using the performance data, voice reproduction means for generating a model singing voice by reproducing the guide vocal data, reproduction timing and reproduction speed of the guide vocal data And voice processing means for generating prefetched voices of lyrics by changing the playback frequency and playing back.
[0008]
This karaoke apparatus generates a guide vocal that is a model singing voice and also generates a lead narration that is a pre-reading voice of lyrics. Lead narration is a voice that promptly announces the lyrics of a phrase immediately before (at the beginning of) a song, and is a technique that was performed so that many audiences could sing together in old folk songs. The guide vocal may be generated when the singer does not know the lyrics or the melody, and the lead narration may be generated when the singer knows the melody but does not know the lyrics well. Further, it is effective when it is difficult to see the lyrics displayed on the monitor, for example, when the singer is an elderly person, or when there is a person who cannot see the monitor with a large number of people.
[0009]
And although many pieces of music data currently have guide vocal data, there are few pieces of music data having lead narration data. Therefore, in the case of music data that has guide vocal data and no lead narration data, the voice of the lead narration is created using the guide vocal data. Since guide vocal data is generally stored as partial data divided for each phrase, by changing the playback timing, playback speed, and playback frequency for each partial data, it is possible to obtain lead narration. The sound which can be used can be generated. That is, the playback speed is increased so that all sounds can be played immediately before the phrase, and the playback timing is changed so that playback ends at the beginning of the phrase. Then, the reproduction frequency is converted so as to remove the melody of the song so that it becomes a spoken word. For example, the melody removal of the singing is performed by using guide melody data in performance data so that all the sounds have a constant pitch.
[0010]
And some karaoke devices have a so-called hammer function that converts the frequency of the singing voice input from the microphone to generate a harmony voice and outputs it together with the singing voice. If the voice processing means to be realized is used as it is for the generation of lead narration data, the resources of the karaoke apparatus can be used effectively.
[0011]
The present invention is characterized in that a plurality of speakers are provided, the performance sound generated by the performance means is output from all the speakers, and the pre-reading sound of the lyrics is output from some speakers.
Lead narration works effectively by, for example, using it to output to a large audience and singing together, or to use it for visually impaired people or elderly people who have difficulty reading the lyrics displayed on the monitor. To do. In the former case, lead narration is not necessary for the singer who is singing in front of the audience. In the latter case, the audience can hear the singing better if the audience cannot hear the lead narration. Therefore, a plurality of speakers are provided, and lead narration is output only from necessary speakers.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram of a karaoke apparatus according to an embodiment of the present invention. This karaoke device reads out music data stored in a DVD or hard disk 17 set in the DVD changer 4 and inputs the data to the sound source device 18 to form and output musical sounds of karaoke music. This karaoke device generates musical sounds using the sound source device 18 and the like and plays karaoke music, and generates singing auxiliary sounds such as guide melody, guide vocal, lead narration, etc. according to the selection of the user (singer). be able to. The guide melody is a melody generated as a musical sound by the sound source 18. The guide vocal is a reproduction of the singer's singing voice stored as voice data. In the lead narration, the lyrics to be sung are read out as speech at the beginning of each phrase. The lead narration may be provided with voice data for lead narration, or may be generated by processing the voice data for the guide vocal.
[0013]
In FIG. 1, the karaoke apparatus of this embodiment is a system composed of a plurality of components, and includes a karaoke apparatus main body 1, a control amplifier 2, an audio signal processing apparatus 3, a DVD (digital video disk) changer 4, a speaker 5, and the like. It comprises a monitor 6, a microphone 7 and an infrared remote control device 8. The karaoke apparatus main body 1 controls the operation of the entire karaoke apparatus. The CPU 10 which is the control device of the karaoke device main body 1 has a ROM 11, RAM 12, hard disk 17, communication control unit 16, remote control receiving unit 13, display panel 14, panel switch 15, sound source device 18, sound data via an internal bus. The processing unit 19, the character display unit 20, and the display control unit 21 are connected, and the control amplifier 2, the audio signal processing device 3, and the DVD changer 4 which are the external devices are connected through an interface.
[0014]
The ROM 11 stores an activation program necessary for activating this apparatus. A system program for controlling the operation of the apparatus, a karaoke performance execution program, and the like are stored in the hard disk 17. When the power of the karaoke apparatus is turned on, a system program and a karaoke performance program are read into the RAM 12 by the above startup program.
[0015]
In addition to the program storage area for storing the program, a music data storage area for storing music data is set in the hard disk 17. The music data storage area can store music data for thousands of songs, and stores music data of new songs that the distribution center 9 periodically downloads.
[0016]
The RAM 12 stores a program storage area for reading a program from the hard disk storage device 17 when the apparatus is started up, a reserved song list for registering the song number of the requested karaoke song, and an execution song data for reading the song data of the karaoke song to be played. An area and a singing assistance mode register for storing a singing assistance mode, which is a mode for generating the singing assistance voice, are set.
[0017]
The communication control unit 16 is connected to the distribution center 9 via an ISDN line. The distribution center 9 periodically calls the karaoke device to distribute new song data, new index tables, and the like.
[0018]
The remote control device 8 includes key switches such as a numeric keypad. When a user operates these switches, the remote control device 8 outputs a code signal corresponding to the operation by infrared rays. The user inputs a song number to the karaoke apparatus body 1 using the numeric keypad. The remote control receiving unit 13 receives an infrared signal sent from the remote control device 8, restores the code signal, and inputs it to the CPU 10. When the song number is input from the remote control device 8, the CPU 10 registers the song number in the reservation list set in the RAM 12.
[0019]
The display panel 14 and the panel switch 15 are provided on the front surface of the karaoke apparatus body 1. The panel switch 15 includes a numeric keypad for inputting a music number, a mode change switch, and the like, similar to the remote control device 8. The display panel 14 displays the number of the currently played song and the number of reserved songs.
[0020]
The character display unit 20 includes a VRAM corresponding to the display area of the monitor 6. In this VRAM, the lyrics of karaoke songs developed in character patterns are written. The CPU 10 performs the work of expanding the lyrics stored in the lyrics track of the music data as character codes into character patterns. The CPU 10 develops the character code into a pattern and then writes it in the address on the VRAM corresponding to the display coordinates. This character pattern is input to the display control unit 21 as a video signal. Further, during the karaoke performance, the DVD changer 4 reproduces the background video, and this video signal is also input to the display control unit 21. The display control unit 21 synthesizes the character pattern with the background image in a superimposition and displays it on the monitor 6.
[0021]
The display control unit 21 not only superimposes the video signal of the character display unit 20 and the video signal of the DVD changer 4, but also fades in or out part or all of the video signal input from the character display unit 20. can do.
[0022]
In addition, about 6 DVDs can be set in the DVD changer 4, of which some of the background images are recorded, and the other several pieces are the classic karaoke song data. It is recorded. When this classic song is requested, the DVD changer 4 first reads the song data and writes it into the execution song data storage area of the RAM 12, and then reproduces the background video DVD.
[0023]
The tone generator 18 forms a musical tone based on the music data (event data of the musical tone track), gives the effect designated by the effect control track to the formed musical tone, and outputs it to the control amplifier 2.
[0024]
The audio data processing unit 19 reproduces audio data included in the music data (or stored corresponding to the music data). The voice data is back chorus data that is back chorus data for karaoke performances, guide vocal data that is singing voice data that serves as a model for karaoke songs, and voice data that is pre-read for each phrase. There is lead narration data. These back chorus data, guide vocal data, and lead narration data are stored as digitized (and compressed) digital audio data, and the audio data processing unit 19 decodes them and converts them into analog audio signals. The audio data processing unit 19 includes two processing units, a first system for decoding back chorus data and a second system for decoding guide vocal data or lead narration data. The decoded analog audio signal is input to the control amplifier 2.
[0025]
Moreover, this karaoke apparatus can generate lead narration using guide vocal data even for music data that does not have lead narration data. The audio signal processing device 3 described later has a function of converting the tempo and pitch of the digitized audio signal. By using this function, vocal voice data is read out quickly with less pitch inflection, so that it can be used as a lead narration.
[0026]
A microphone 7 is connected to the control amplifier 2, and the singing voice of the karaoke singer is input. The control amplifier 2 applies a predetermined effect (vocal effect) to the singing voice, and equalizes and mixes the singing voice and the karaoke performance sound, and then amplifies and outputs them to the speaker 5.
[0027]
The audio signal processing device 3 is a device that inputs a singing voice from the control amplifier 2 and applies various effects. Simple effects such as echo can be given by the control amplifier 2 alone, but the pitch of the singing voice input from the microphone 7 can be corrected, or the frequency of the singing voice can be converted to other parts. The voice signal processing device 3 performs processing such as creating a harmony song. The pitch-corrected singing voice or the newly created harmony singing voice is input to the control amplifier 2 again. Moreover, a lead narration can also be created from the guide vocal voice data as described above by using the function of correcting the deviation of the voice and creating a harmony song.
[0028]
The guide vocal and lead narration of the present invention will be described with reference to FIG. A karaoke piece is composed of, for example, a prelude, a chorus 1, an interlude 1, a chorus 2, an interlude 2, a chorus 3, and a follower, as shown in the upper part of FIG. Among these, when the beginning part of chorus 1 is seen in detail, karaoke music is played continuously, but the vocal is cut for each phrase. The guide vocal data included in the music data is data for reproducing the vocal sound of this vocal model, and this data is also included in the music data as a collection of different partial data for each phrase. Also, the narration data for reproducing the narration, which is the voice that reads out the lyrics of this karaoke song before the singing timing, is included in the music data as a collection of voice data (partial data) for each phrase. . The reproduction timing of the lead narration is a non-singing section immediately before the singing timing of the corresponding phrase.
[0029]
FIG. 3 is a diagram showing a music data configuration for playing karaoke music. FIG. 4A is a diagram showing the composition of music data including lead narration data. The song data includes a header in which the song name, genre, release date, etc. are written, a guide melody track, a performance data track in which performance data of multiple parts is written, a lyrics data track in which lyrics data is written, a back Back chorus designation data track in which chorus designation data is written, guide vocal designation data track in which guide vocal designation data is written, lead narration designation data track in which lead narration designation data is written, and peripheral device control data are written Peripheral device control data track, back chorus data section in which back chorus audio data (partial data group) is written, guide vocal in which guide vocal sound data (part data group) is written Over data unit consists of a read narration data portion of the read narration voice data (partial data group) is written.
[0030]
The performance data track, lyrics data track, back chorus designation data track, guide vocal designation data track, lead narration designation data track, and peripheral device control data track all indicate the read timing of a plurality of event data and each event data. It is described as sequence data consisting of timing data. The sequence program counts timing data at a predetermined tempo clock, and when the count data is counted up, reads the event data that follows it and outputs it to a predetermined processing unit. The timing data may be described by the time from the beginning of the song or by the interval from the immediately preceding event.
[0031]
Since the performance data track event data is data for generating musical sounds, it can be described in a MIDI general-purpose format. Other track event data is not a normal MIDI message, but this track is also described in a MIDI format as a system exclusive message in order to make the implementation uniform and facilitate the work process.
[0032]
For the event data (back chorus designation data) of the back chorus designation data track, one partial data is designated from the back chorus data stored as a set of a plurality of partial data, and the reproduction timing of the partial data is designated. It is data to be. The timing data of this track designates the read timing of this event data, and the reproduction timing of the back chorus audio data (partial data) is designated by the timing designation data in the back chorus designation data.
[0033]
For the event data (guide vocal designation data) of the guide vocal designation data track, one partial data is designated from the guide vocal data stored as a set of a plurality of partial data, and the reproduction timing of the partial data is designated. It is data to be. The timing data of this track designates the read timing of this event data, and the reproduction timing of the guide vocal audio data (partial data) is designated by the timing designation data in the guide vocal designation data.
[0034]
For the event data (lead narration designation data) of the lead narration designation data track, one partial data is designated from the lead narration data stored as a set of a plurality of partial data, and the reproduction timing of the partial data is designated. It is data to be. The timing data of this track designates the read timing of this event data, and the reproduction timing of the audio data (partial data) of the lead narration is designated by the timing designation data in the lead narration designation data.
[0035]
In FIG. 3, lead narration data and guide vocal data are configured as a part of the music data, but are stored in the hard disk 17 or the like as a separate file from the music data, and the file name is included in the header of the music data. Etc. may be written and associated.
[0036]
FIG. 5B is a diagram showing the composition of music data that does not include lead narration data. This music data does not include a lead narration designation data track and lead narration data as compared to the music data of FIG. When lead narration is generated using such music data, the playback timing, playback speed, and playback frequency of the guide vocal data are converted like lead narration using the audio signal processing device 3, and the reproduced voice is reproduced. Is used as a lead narration.
[0037]
A method for creating lead narration data from guide vocal data will be described below. The event data (guide vocal designation data) of the guide vocal designated track is pre-read, and the voice data of the guide vocal designated by the event data is read out. Then, this is input to the audio signal processing device 3 and the reproduction time is compressed so that it can be used as lead narration. This time compression is performed so that the frequency of the original audio data does not change. Also, consonants and vowels are recognized, the consonants are not compressed, and only the vowels are shortened. And, there is a possibility that the length of the vowels is not uniform due to the melody. Moreover, although the frequency of each vowel is the pitch of a song, it is corrected by converting the pitch so that it becomes substantially the same frequency. This modification is not done completely, but with some inflection. The pitch information for pitch conversion is performed using melody data indicated by the guide melody track. The conversion between the reproduction timing and the reproduction speed may be performed as indicated by a broken line in FIG.
[0038]
Prior to the performance of the karaoke song, the above processing may be performed for all the songs, and the karaoke song performance may be started after a new lead narration designation data track and a lead narration data section are created. You may go for every phrase. In this case, the audio data converted by the audio signal processing device 3 is output from the speaker 5 via the control amplifier 2.
[0039]
FIG. 4 is a flowchart showing the operation of the karaoke apparatus.
FIG. 5A is a flowchart showing the singing assistance mode selection operation. There are five types of singing assistance modes: “no assistance”, “guide vocal”, “guide melody”, “lead narration”, “guide melody + lead narration”. The user can operate the remote control 8 or the panel switch 15 to operate the singing assistance mode. Either of them can be selected. When the user operates the remote controller 8 or the panel switch 15 to select the singing assistance mode (s1), the selected singing assistance mode is stored in the singing assistance mode register set in the RAM 12 (s2).
[0040]
FIG. 5B is a flowchart showing the karaoke performance operation. The song data of the karaoke song selected by the user is read from the hard disk 17 or DVD to the execution data storage area of the RAM 12 (s10). The performance of the karaoke music is started using this music data. The performance of a karaoke song is an operation in which the sound source device 18 is driven by the event data of the performance data track of the song data and the back chorus data is reproduced by the audio data processing unit 19. And singing assistance mode is judged (s12, s13, s15). If the singing assistance mode is “no assistance”, the karaoke song continues to be played without doing anything. If the singing assistance mode is “guide melody”, the event data of the guide melody track in the performance data track is also input to the sound source device 18 to cause the sound source device 18 to generate a guide melody (s14). If the singing assistance mode is “guide vocal”, the event data of the guide vocal designated data track is read, and the voice data of the guide vocal is input to the audio data processing unit 19 in accordance with this event data, so that the guide vocal is Occurs (s16).
[0041]
If the singing assistance mode is “lead narration”, it is determined whether or not there is data for lead narration, that is, lead narration data and a lead narration designation data track, in this music data (s17). If there is data for lead narration, read the event data of the lead narration designated data track, and input the voice data of the lead narration to the voice data processing unit 19 according to this event data to generate the lead narration (S19). On the other hand, if there is no data for lead narration (s17), data for lead narration is created from the guide vocal data (s18), and lead narration is generated using this data (s19). The method of creating data for lead narration is as described above.
[0042]
When the singing assistance mode is “guide melody + lead narration”, first, the data of the guide melody track is input to the sound source device 18 to generate a guide melody (s14), and the processing of s17 to s19 is performed. Generate lead narration.
[0043]
In FIG. 1, the speaker 5 is one system, but a speaker for a singer and a speaker for an audience can be provided, and lead narration can be output to only one of them. That is, as shown in FIG. 5, the output system of the control amplifier 2 is made into two systems, the audience speaker 5a is connected to one, and the singing monitor speaker 5b is connected to the other. Then, as shown in FIG. 5A, by outputting a lead narration only to the audience speaker 5a, a large audience can sing karaoke songs together with the singers on the stage. Further, as shown in FIG. 5B, by outputting the lead narration only to the singing monitor speaker 5b, it is possible to assist elderly people and visually impaired persons who are difficult to read the lyrics on the monitor.
[0044]
In this case, the output destination of the lead narration can be switched to “audience speaker 5a only”, “single monitor speaker 5b only”, or “both” depending on the user's operation or setting information embedded in the music data. is there.
[0045]
The number of audience speakers 5a and singing monitor speakers 5b is not limited to one. Each system may be mono, stereo, or multi-channel.
[0046]
Furthermore, since the lyrics are generated as lead narrations in this way, the singer can sing without a monitor that displays the lyrics telop, and the karaoke apparatus can be operated without a monitor. Moreover, even if a singer cannot sing while singing or dancing and watching the monitor, singing while listening to lead narration using a headset can sing a song that does not know the lyrics.
[0047]
【The invention's effect】
As described above, according to the present invention, it is possible to selectively generate lead narration, which is the pre-reading sound of the lyrics, and guide vocal, which is a model song, so that the singer can perform the above according to his / her practice level. Singing assistance sound can be generated. Further, in the present invention, lead narration data can be created from guide vocal data, so that lead narration can be generated even with conventional music data.
[Brief description of the drawings]
FIG. 1 is a block diagram of a karaoke apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing timings of guide vocals and lead narration of the karaoke apparatus. FIG. 3 shows a composition of music data used in the karaoke apparatus. FIG. 4 is a flowchart showing the operation of the karaoke apparatus. FIG. 5 is an output system diagram when the karaoke apparatus is configured as a multi-speaker.
DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus main body, 2 ... Control amplifier, 3 ... Audio signal processing apparatus, 4 ... DVD changer, 5 ... Speaker, 5a ... Audience speaker, 5b ... Singing monitor speaker, 6 ... Monitor, 7 ... Microphone, 8 ... Remote control device, 9 ... distribution center,
DESCRIPTION OF SYMBOLS 10 ... CPU, 11 ... ROM, 12 ... RAM, 13 ... Remote control receiving part, 14 ... Display panel, 15 ... Panel switch, 16 ... Communication control part, 17 ... Hard disk, 18 ... Sound source device, 19 ... Audio data processing part, 20 ... Character display unit, 21 ... Display control unit

Claims (4)

カラオケ曲の演奏音を発生するための演奏データ、該カラオケ曲の手本の歌唱音声を発生するためのガイドボーカルデータを有する楽曲データを記憶する記憶手段と、
前記演奏データを用いてカラオケ曲の演奏音を発生する演奏手段と、
前記ガイドボーカルデータを再生することにより手本の歌唱音声を発生する音声再生手段と、
前記ガイドボーカルデータの再生タイミング、再生速度、および、再生周波数を変更して再生することにより、歌詞の先読み音声を発生する音声処理手段と、
を備えたカラオケ装置。
Storage means for storing music data having performance data for generating a performance sound of a karaoke song and guide vocal data for generating a singing voice of the model of the karaoke song;
Performance means for generating a performance sound of a karaoke song using the performance data;
A sound reproducing means for generating a model singing voice by reproducing the guide vocal data;
Audio processing means for generating pre-reading sound of lyrics by changing the reproduction timing, reproduction speed, and reproduction frequency of the guide vocal data,
Karaoke device equipped with.
前記ガイドボーカルデータは、フレーズ毎に分割された部分データとして記憶されており、
前記音声処理手段は、各部分データ毎に再生タイミング、再生速度、および、再生周波数を変更して再生する請求項に記載のカラオケ装置。
The guide vocal data is stored as partial data divided for each phrase,
The karaoke apparatus according to claim 1 , wherein the sound processing means changes the reproduction timing, the reproduction speed, and the reproduction frequency for each partial data.
前記音声処理手段は、カラオケ曲の歌唱音声の周波数を変換してハーモニー音声を生成する請求項または請求項に記載のカラオケ装置。It said voice processing means, the karaoke apparatus according to claim 1 or claim 2 to produce a harmony voice by converting the frequency of the singing voice of the karaoke. 複数のスピーカを設け、前記演奏手段が発生した演奏音を全てのスピーカから出力し、前記歌詞の先読み音声を一部のスピーカから出力する請求項1乃至請求項のいずれかに記載のカラオケ装置。The karaoke apparatus according to any one of claims 1 to 3 , wherein a plurality of speakers are provided, the performance sound generated by the performance means is output from all speakers, and the pre-read sound of the lyrics is output from some speakers. .
JP2000027463A 2000-02-04 2000-02-04 Karaoke equipment Expired - Fee Related JP4174940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000027463A JP4174940B2 (en) 2000-02-04 2000-02-04 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000027463A JP4174940B2 (en) 2000-02-04 2000-02-04 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2001215979A JP2001215979A (en) 2001-08-10
JP4174940B2 true JP4174940B2 (en) 2008-11-05

Family

ID=18553027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000027463A Expired - Fee Related JP4174940B2 (en) 2000-02-04 2000-02-04 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP4174940B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3804536B2 (en) * 2002-01-16 2006-08-02 ヤマハ株式会社 Musical sound reproduction recording apparatus, recording apparatus and recording method
JP3885587B2 (en) * 2002-01-16 2007-02-21 ヤマハ株式会社 Performance control apparatus, performance control program, and recording medium
JP3835324B2 (en) * 2002-03-25 2006-10-18 ヤマハ株式会社 Music playback device
JP2004240257A (en) * 2003-02-07 2004-08-26 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP4236533B2 (en) * 2003-07-18 2009-03-11 クリムゾンテクノロジー株式会社 Musical sound generator and program thereof
JP2005037827A (en) * 2003-07-18 2005-02-10 Brother Ind Ltd Musical sound generator
JP3878180B2 (en) * 2004-01-21 2007-02-07 株式会社コナミデジタルエンタテインメント Karaoke device, karaoke method, and program
JP2006195047A (en) * 2005-01-12 2006-07-27 Yamaha Corp Electronic musical device, program which is applied to same device and is computer readable, and server computer
JP2006337702A (en) * 2005-06-01 2006-12-14 Hiroshi Hosaka Karaoke service method and karaoke system
JP2008028573A (en) * 2006-07-19 2008-02-07 Taito Corp Microphone apparatus
JP4910764B2 (en) * 2007-02-27 2012-04-04 ヤマハ株式会社 Audio processing device
JP5106437B2 (en) * 2009-02-09 2012-12-26 株式会社東芝 Karaoke apparatus, control method therefor, and control program therefor
JP6144552B2 (en) * 2013-06-29 2017-06-07 株式会社第一興商 Karaoke system for singing by part
JP2016157082A (en) * 2015-02-26 2016-09-01 パイオニア株式会社 Reproduction device, reproduction method, and program
JP6497404B2 (en) 2017-03-23 2019-04-10 カシオ計算機株式会社 Electronic musical instrument, method for controlling the electronic musical instrument, and program for the electronic musical instrument
JP6399715B1 (en) * 2017-11-15 2018-10-03 株式会社テクノスピーチ Singing support device and karaoke device
JP6810773B2 (en) * 2019-08-20 2021-01-06 パイオニア株式会社 Playback device, playback method, and program
WO2023074399A1 (en) * 2021-10-28 2023-05-04 株式会社バンダイ Music reproduction toy
JP7291269B2 (en) * 2021-10-28 2023-06-14 株式会社バンダイ music playing toy

Also Published As

Publication number Publication date
JP2001215979A (en) 2001-08-10

Similar Documents

Publication Publication Date Title
JP4174940B2 (en) Karaoke equipment
JPH08263077A (en) Karaoke device with voice converting function
JP4038836B2 (en) Karaoke equipment
JP2005331806A (en) Performance practice system and computer program for performance practice
JP2000099050A (en) Karaoke device selectively reproducing and outputting plural vocal parts
JP3901008B2 (en) Karaoke device with voice conversion function
JP4171680B2 (en) Information setting device, information setting method, and information setting program for music playback device
JP4008562B2 (en) A karaoke device characterized by a singer's original grading system
JP4994890B2 (en) A karaoke device that allows you to strictly compare your recorded singing voice with a model song
JP4107212B2 (en) Music playback device
JP3673385B2 (en) Music performance device
JP4081859B2 (en) Singing voice generator and karaoke device
JP3637196B2 (en) Music player
JP3903492B2 (en) Karaoke equipment
JP2797644B2 (en) Karaoke device with vocalization function
JPH10319977A (en) Karaoke (sign-along machine) playing device and portable test hearing terminal for karaoke
JP4033146B2 (en) Karaoke equipment
JP4161714B2 (en) Karaoke equipment
JP3743985B2 (en) Karaoke equipment
JP3547396B2 (en) Karaoke device with scat input ensemble system
JPH08146977A (en) Karaoke device
JP2005189878A (en) Music player, music playing method, and program
JPH1195770A (en) Karaoke machine and karaoke reproducing method
JP3081096B2 (en) Karaoke equipment
JPH08292782A (en) Karaoke device which decrease sound volume between music or during intermediate orchestration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees