JP2008268368A - 評価装置 - Google Patents

評価装置 Download PDF

Info

Publication number
JP2008268368A
JP2008268368A JP2007108522A JP2007108522A JP2008268368A JP 2008268368 A JP2008268368 A JP 2008268368A JP 2007108522 A JP2007108522 A JP 2007108522A JP 2007108522 A JP2007108522 A JP 2007108522A JP 2008268368 A JP2008268368 A JP 2008268368A
Authority
JP
Japan
Prior art keywords
evaluation
data
pitch
reference data
evaluation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007108522A
Other languages
English (en)
Other versions
JP4891135B2 (ja
Inventor
Tatsuya Terajima
辰弥 寺島
Shingo Kamiya
伸悟 神谷
Satoshi Tachibana
聡 橘
拓弥 ▲高▼橋
Takuya Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Daiichikosho Co Ltd
Original Assignee
Yamaha Corp
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp, Daiichikosho Co Ltd filed Critical Yamaha Corp
Priority to JP2007108522A priority Critical patent/JP4891135B2/ja
Publication of JP2008268368A publication Critical patent/JP2008268368A/ja
Application granted granted Critical
Publication of JP4891135B2 publication Critical patent/JP4891135B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】複数の歌唱パートを有する曲において、歌唱されているパートに対応して評価する技術を提供する。
【解決手段】歌唱者の歌唱音声がマイクロホン151,152によって収音され、歌唱音声データに変換される。カラオケ装置1の制御部11は、歌唱音声データからピッチを検出し、歌唱ピッチデータを生成する。制御部11は、歌唱ピッチデータを複数のリファレンスピッチデータのそれぞれとノート単位で比較し、比較結果に基づいてリファレンスピッチデータのいずれかを選択する。制御部11は、予め定められた回数以上連続して同一のデータが選択された場合に、選択されたデータを評価用データとして採用する。制御部11は、歌唱音声データと評価用データとを比較し、比較結果に応じて歌唱音声データを評価する。
【選択図】図1

Description

本発明は、歌唱(又は演奏)を評価する技術に関する。
カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱とそのお手本となるリファレンスを比較するにあたって、歌唱のタイミングとリファレンスのタイミングがずれている場合には、歌唱音声データとリファレンスデータを時間軸方向にずらして相互相関を求め、相互相関の最も高い位置で各音符について採点する方法が提案されている。この方法によれば、歌唱者が「ため」や「ルバート」の歌唱技法を用いて歌唱した場合でも、歌唱タイミングをリファレンスのタイミングに合わせて比較して採点することができる。
ところで、カラオケ曲には、二人の歌唱者で歌唱するデュエット曲や複数の歌唱者で合唱する曲といったように、複数の歌唱パートを有する曲がある。このような複数の歌唱パートを有する曲において歌唱の採点を行う方法が特許文献2において提案されている。
特開2005−107330号公報 特開2004−109260号広報
しかしながら、特許文献2に記載の方法では、歌唱者がパート選択スイッチを用いて選択したパートについてしか採点することができなかった。このように歌唱するパートを選択する操作は歌唱者にとって煩雑であることが多い。これは、楽器の演奏についても同様である。
本発明は上述した背景の下になされたものであり、複数の歌唱(又は演奏)パートを有する曲において、歌唱(又は演奏)されているパートに対応した評価を行う技術を提供することを目的とする。
上記課題を解決するため、本発明の好適な態様である評価装置は、ノートの列から構成される各々異なる複数のリファレンスデータを記憶するリファレンスデータ記憶手段と、第1のオーディオ信号からピッチを検出する第1のピッチ検出手段と、前記第1のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分に基づいて前記複数のリファレンスデータのうちのいずれかひとつをノート毎に選択する第1の選択手段と、前記第1の選択手段によって予め定められた回数以上連続して同一のリファレンスデータが選択された場合に、選択されたリファレンスデータを評価用データとして採用する一方、それ以外の場合には、直前に採用したリファレンスデータを継続して評価用データとして採用する第1の評価用データ採用手段と、前記第1の評価用データ採用手段によって採用された評価用データと前記第1のオーディオ信号とを比較し、比較結果に基づいて該第1のオーディオ信号を評価する第1の評価手段と、前記第1の評価手段による評価結果を示すデータを出力する出力手段とを具備することを特徴とする。
上述の態様において、前記第1の選択手段は、前記第1のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分が最も小さいリファレンスデータをノート毎に選択してもよい。
上述の態様において、第2のオーディオ信号からピッチを検出する第2のピッチ検出手段と、前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータのうちの前記第1の評価用データ採用手段によって採用されていないデータのいずれかひとつを評価用データとして採用する第2の評価用データ採用手段と、前記第2の評価用データ採用手段によって採用された評価用データと前記第2のオーディオ信号とを比較し、比較結果に基づいて該第2のオーディオ信号を評価する第2の評価手段とを具備し、前記出力手段は、前記第1の評価手段による評価結果及び前記第2の評価手段による評価結果の少なくともいずれか一方を示すデータを出力してもよい。
また、上述の態様において、第2のオーディオ信号からピッチを検出する第2のピッチ検出手段と、前記第2のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分に基づいて前記複数のリファレンスデータのうちのいずれかひとつをノート毎に選択する第2の選択手段と、前記第2の選択手段によって予め定められた回数以上連続して同一のリファレンスデータが選択された場合に、選択されたデータを評価用データとして採用する一方、それ以外の場合には、直前に採用したリファレンスデータを継続して評価用データとして採用する第2の評価用データ採用手段と、前記第2の評価用データ採用手段によって採用された評価用データと前記第2のオーディオ信号とを比較し、比較結果に基づいて該第2のオーディオ信号を評価する第2の評価手段とを具備し、前記出力手段は、前記第1の評価手段による評価結果及び前記第2の評価手段による評価結果の少なくともいずれか一方を示すデータを出力してもよい。
また、上述の態様において、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果とのいずれか一方を選択する評価結果選択手段を備え、前記出力手段は、前記評価結果選択手段によって選択された評価結果を示すデータを出力してもよい。
また、上述の態様において、前記評価結果選択手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果のうち評価結果が高いほうを選択してもよい。
また、上述の態様において、前記出力手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果との平均点を算出し、算出結果を示すデータを出力してもよい。
また、上述の態様において、前記評価結果選択手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果とのいずれか一方をノート毎に選択し、前記出力手段は、前記評価結果選択手段によってノート毎に選択された評価結果を示すデータをノート単位で出力してもよい。
また、上述の態様において、前記第1のオーディオ信号から該オーディオ信号のパワーを検出する第1のパワー検出手段と、前記第2のオーディオ信号から該オーディオ信号のパワーを検出する第2のパワー検出手段とを備え、前記評価結果選択手段は、前記第1のパワー検出手段により検出されたパワーと前記第2の検出手段により検出されたパワーとを比較し、パワーがおおきい方のオーディオ信号の評価結果を選択してもよい。
本発明によれば、複数の歌唱(又は演奏)パートを有する曲において、歌唱(又は演奏)されているパートに対応した評価を行うことができる。
<A:構成>
図1は、この発明の一実施形態であるカラオケ装置1のハードウェア構成を示すブロック図である。図において、制御部11は、CPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)を備え、ROM又は記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、バスBUSを介してカラオケ装置1の各部を制御する。記憶部12は、制御部11によって実行されるコンピュータプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。表示部13は、液晶パネルを備え、制御部11による制御の下に各種の画像を表示する。操作部14は、カラオケ装置1の利用者による操作に応じた信号を制御部11に出力する。マイクロホン151,152はそれぞれ、歌唱者の音声を収音し、収音した音声信号を表すアナログ信号を出力する収音手段である。音声処理部16は、マイクロホン151,152が出力するアナログ信号をA/D変換してデジタルデータに変換する。また、音声処理部16は、デジタルデータをD/A変換してアナログ信号に変換してスピーカ17に出力する。スピーカ17は、音声処理部16でデジタルデータからアナログ信号に変換され出力される音声信号に応じた強度で放音する放音手段である。
なお、この実施形態では、マイクロホン151,152とスピーカ17とがカラオケ装置1に含まれている場合について説明するが、音声処理部16に入力端子及び出力端子を設け、オーディオケーブルを介してその入力端子に外部マイクロホンを接続する構成としても良く、同様に、オーディオケーブルを介してその出力端子に外部スピーカを接続するとしても良い。また、この実施形態では、マイクロホン151,152から音声処理部16へ入力されるオーディオ信号及び音声処理部16からスピーカ17へ出力されるオーディオ信号がアナログオーディオ信号である場合について説明するが、デジタルオーディオデータを入出力するようにしても良い。このような場合には、音声処理部16にてA/D変換やD/A変換を行う必要はない。表示部13についても同様であり、外部出力端子を設け、外部モニタを接続する構成としてもよい。
なお、この実施形態では、2つのマイクロホン151,152を図示しているが、マイクロホンは2つに限らず、1つであってもよく、また、3つ以上であってもよい。
カラオケ装置1の記憶部12は、図1に示すように、楽曲データ記憶領域121と、背景画データ記憶領域122と、評価結果データ記憶領域123とを有している。楽曲データ記憶領域121には、楽曲の伴奏音や歌詞を表す楽曲データが記憶されている。背景画データ記憶領域122には、カラオケ伴奏時に背景として表示される動画像を表す背景画データが記憶されている。評価結果データ記憶領域123には、歌唱者の歌唱音声の評価結果を示す評価結果データが記憶される。
ここで、楽曲データ記憶領域121に記憶された楽曲データの内容の一例について説明する。楽曲データは、図2に示すように、ヘッダと複数のトラックとを有しており、複数のトラックには、利用者が歌唱すべき旋律(ピッチ)の内容を表すリファレンスデータが記述されたリファレンスデータトラック、カラオケ演奏音の内容を表す演奏データが記述された演奏トラック、歌詞の内容を表す歌詞データが記述された歌詞トラックがある。楽曲データは、その楽曲が有する歌唱パートの数だけリファレンスデータトラックを有しており、それぞれのリファレンスデータトラックに各々歌唱パートのピッチの内容を表すリファレンスデータが記述されている。図2に示す例においては、楽曲データは2つのリファレンスデータトラックを有している。なお、歌唱パートが1つである楽曲の場合には楽曲データは1つのリファレンスデータトラックを有しており、また、歌唱パートが3つである楽曲の場合には楽曲データは3つのリファレンスデータトラックを有している。なお、楽曲データが複数のリファレンスデータトラックを有する場合には、それぞれのリファレンスデータトラックには各々異なるリファレンスデータが記述されている。楽曲データのヘッダ部分には、図2に示すように楽曲を特定する曲番号データ、楽曲の曲名を示す曲名データ、ジャンルを示すジャンルデータ、楽曲の演奏時間を示す演奏時間データ等が含まれている。以上の楽曲データは、MIDIフォーマットに従って記述されている。
次に、リファレンスデータトラックの各々に記述されているリファレンスデータの具体例について説明する。図3は行と列のマトリックスになっているので、まず、列について説明する。第1列のデルタタイムは、イベントとイベントとの時間間隔を示しており、テンポクロックの数で表される。デルタタイムが「0」の場合は、直前のイベントと同時に実行される。第2列には演奏データの各イベントが持つメッセージの内容が記述されている。このメッセージには、発音イベントを示すノートオンメッセージ(NoteOn)や消音イベントを示すノートオフメッセージ(NoteOff)の他、コントロールチェンジメッセージ等が含まれる。なお、図3に示す例では、コントロールチェンジメッセージは含まれていない。
第3列にはチャンネルの番号が記述されている。ここでは、説明の簡略のためリファレンスデータトラックのチャンネル番号を「1」としている。楽曲データに複数のリファレンスデータが含まれる場合には、それぞれのリファレンスデータのチャンネル番号として異なる番号が用いられる。
第4列には、ノートナンバ(NoteNum)あるいはコントロールナンバ(CtrlNum)が記述されるが、どちらが記述されるかはメッセージの内容により異なる。例えば、ノートオンメッセージ又はノートオフメッセージであれば、ここには音階を表すノートナンバが記述され、またコントロールチェンジメッセージであればその種類を示すコントロールナンバが記述されている。
第5列にはMIDIメッセージの具体的な値(データ)が記述されている。例えばノートオンメッセージであれば、ここには音の強さを表すベロシティの値が記述され、ノートオフメッセージであれば、音を消す速さを表すベロシティの値が記述され、またコントロールチェンジメッセージであればコントロールナンバに応じたパラメータの値が記述されている。
次に、図3に示す各行は、歌唱すべきメロディの各音符の属性を示す楽音パラメータとなっており、ノートオンイベント、ノートオフイベントで構成される。
図3に示す例では、デルタタイム480の長さを4分音符の長さとしている。この場合、第1行、第2行のイベント処理によりC4音が4分音符の長さにわたって発音されることが示され、第3行、第4行のイベント処理によりG4音が4分音符の長さにわたって発音されることが示される。そして、第5行、第6行の処理によりF4音が2分音符の長さにわたって発音されることが示される。
利用者が楽曲指定操作を行うと、曲番号データを基にして、指定された楽曲データが楽曲データ記憶領域121から読み出され、RAMに転送される。制御部11がRAM内の楽曲データを順次読み出して処理することで楽曲の演奏が進行する。このとき、リファレンスデータも楽曲の進行と同期して読み出され、制御部11はリファレンスデータのノートとベロシティに応じてリファレンスピッチデータを生成する。
一方、マイクロホン151,152に入力された歌唱者の音声は、音声信号となり、スピーカ17より出力されるとともに、音声処理部16に入力される。音声処理部16がこれらの音声信号をA/D変換した後、制御部11は、歌唱音声のピッチを抽出し、歌唱ピッチデータとして出力する。この場合、歌唱音声のピッチの抽出処理はフレーム(およそ10ms)ごとに行われるようになっている。
なお、以下の説明においては、説明の便宜上、マイクロホン151から出力され、音声処理部でA/D変換されたデジタルデータを「歌唱音声データSA1」と称し、マイクロホン152から出力され、音声処理部でA/D変換されたデジタルデータを「歌唱音声データSA2」と称することとする。
<B:動作>
図4は、カラオケ装置1の制御部が行う処理の流れを示すフローチャートである。以下、図4を参照しつつ、この実施形態の動作について説明する。利用者が操作部14を用いて楽曲指定操作を行うと、指定された楽曲の楽曲データが楽曲データ記憶領域121からRAMへ転送されるとともに、指定された楽曲に対応する背景画データが背景画データ記憶領域122からRAMへ転送される。制御部11は、RAM内の楽曲データのイベントを順次読み出すことによりカラオケ伴奏を行うとともに、RAM内の楽曲データの歌詞データと背景画データを順次読み出すことにより歌詞と背景画の表示処理を実行する(ステップS1)。具体的には、制御部11は、楽曲データの演奏トラックに記述されたイベントデータを音声処理部16に出力する。音声処理部16は、供給されるイベントデータに基づいて楽曲音声信号を生成する。生成された楽曲音声信号は、スピーカ17より出力される。また、制御部11は、背景画データと歌詞トラックの歌詞データとを表示部13に出力する。この結果、カラオケ伴奏音がスピーカ17から放音される一方、歌詞データの表す歌詞と背景画データの表す背景画とが表示部13に表示される。
次いで、制御部11は、楽曲の進行に応じて読み出したリファレンスデータのノートオンイベント(NoteOn)のノートナンバ及びベロシティから、歌唱すべきピッチを示すリファレンスピッチデータを生成する(ステップS2)。このとき、楽曲データが複数のリファレンスデータトラックを有する場合には、制御部11は、複数のリファレンスデータトラックに記述された複数のリファレンスデータのそれぞれについて、リファレンスピッチデータを生成する。
歌唱者は、スピーカ17から放音される伴奏音にあわせて歌唱を行う。歌唱者が一人である場合には、歌唱者は、マイクロホン151又はマイクロホン152を把持して歌唱を行う。一方、歌唱者が2人である場合には、それぞれの歌唱者が、マイクロホン151,マイクロホン152をそれぞれ把持して歌唱を行う。歌唱者の歌唱音声はマイクロホン151,152から入力されアナログ信号が生成される。このアナログ信号は音声処理部16でA/D変換されて、制御部11は、音声処理部16でA/D変換された歌唱音声データSA1,SA2からそれぞれピッチを抽出し、歌唱ピッチデータSP1,SP2として出力する(ステップS3)。その際、歌唱ピッチは10ms毎に抽出される。そして後述するようにステップS4の比較処理ではリファレンスピッチとノート毎に比較する。そのために比較対象のノートの発音時間内に抽出された歌唱ピッチの平均値を算出して比較するようにしている。
次いで、制御部11は、後述するステップS4〜ステップS7の処理を実行することによって、歌唱音声データSA1と歌唱音声データSA2のそれぞれについて、リファレンスデータと比較することによって評価を行う。このとき、制御部11は、楽曲データが複数のリファレンスデータを有する場合には、複数のリファレンスデータからいずれか一つを選択し、選択したリファレンスデータと歌唱音声データとを比較することによって評価を行う。この評価処理は、歌唱音声データSA1と歌唱音声データSA2のそれぞれで同様の処理を行う。そのため、以下の説明においては、歌唱音声データSA1について説明し、歌唱音声データSA2に対する評価処理についてはその詳細な説明を省略する。
まず、制御部11は、ステップS2で生成したリファレンスピッチデータとステップS3で生成した歌唱ピッチデータSP1とをノート単位で比較し、比較結果を示す比較結果データをRAMに格納する(ステップS4)。なお、楽曲データに複数のリファレンスデータが含まれている場合には、制御部11は、歌唱ピッチデータSP1を、複数のリファレンスピッチデータのそれぞれとノート毎に比較する。この実施形態では、制御部11は、リファレンスピッチデータと歌唱ピッチデータSP1とをノート単位で比較し、両者の差分が予め定められた閾値以上である場合には「NG」と判定する一方、それ以外の場合には「OK」と判定し、判定結果(「OK」又は「NG」)を示す比較結果データをRAMに格納する。この実施形態では、ノート3つ分の比較結果データを格納する領域がRAMに確保されており、カラオケ伴奏中においては、カラオケ装置1のRAMには、過去3つ分のノートの比較結果を示すデータが常時格納されるようになっている。
次いで、制御部11は、RAMに格納された比較結果データを参照して、評価用データとして採用するリファレンスデータを変更するか否かを判定する(ステップS5)。この判定方法について、図5に示す具体的な動作例を参照にしつつ以下に説明する。
図5は、或る歌唱者zが、パート1とパート2との2つパートを有する楽曲を歌唱した場合のピッチの変化の一例を示したものである。図において、横軸は時刻を示し、縦軸はピッチを示している。また、実線pzは歌唱者z歌唱音声のピッチを示し、鎖線p1はパート1のピッチを示し、実線p2はパート2のピッチを示す。図5に示す例においては、歌唱者zは楽曲の途中で、パート2からパート1に歌唱パートを変更している。
図において、評価結果データD1,D2,D3,…は、ノート毎の評価結果を示すデータであり、その上段にパート1に対する評価が示されており、下段にパート2に対する評価結果が示されている。なお、評価結果データD1,D2,D3,…において「O」は「OK」を示し、「N」はNGを示している。この実施形態では、上述したように、最近のノートに対しての評価結果に加えて、1つ前と2つ前のノートに対しての評価も履歴として記録している。この例のD1では、パート1に対しては、現在と過去2つのノート全てがNGで、パート2に対しては、現在のノートについてはOK、過去2つのノートに対してはNGであることが示されている。
制御部11は、パート1とパート2のそれぞれのリファレンスデータのノートオフのタイミングでそのノートに対する歌唱ピッチの評価をする。この評価は、上述のように、過去2つ前のノートの評価まで記録しておく。制御部11は、パート1の評価結果とパート2の評価結果との対応関係に基づいて、評価用データとして採用するリファレンスデータを変更するか否かを判定する。この実施形態では、制御部11は、パート1の評価結果とパート2の評価結果との組み合わせを、予め記憶部12に記憶されたテーブルと照合して、評価用データとして採用するリファレンスデータを変更するか否かを判定する。
図6は、この判定処理において参照されるテーブルの内容の一例を示す図である。図6に示すテーブルの各データは、パート1とパート2との評価結果の組み合わせと、評価用データとして採用するリファレンスデータとの対応関係を示したものである。なお、このテーブルにおいて、「1」は、パート1のリファレンスデータを採用することを示し、「2」はパート2のリファレンスデータを採用することを示し、「−」は、現在採用しているリファレンスデータを継続して評価用データとして採用することを示す。この実施形態では、制御部11は、過去3つ分のノートの評価結果データの組み合わせを図6に示すテーブルで照合し、評価用データとして採用するリファレンスデータを切り替えるか否かを判定する。
図5に示す例では、パート1の3つ目のノートで初めて、パート1に対しての評価がOKになったが、このパターンではまだ同じリファレンスデータを評価用データとして用いる。次のパート1の4つ目のノートで2回続けてパート1がOK、パート2がNGとなったので、図6の「NOO」−「ONN」の項目を参照すると、“1”であるため、評価用データをパート1のリファレンスデータに変更する。
図4の説明に戻る。ステップS5の判定結果が肯定的である場合には(ステップS5;YES)、制御部11は、前記テーブルの内容に基づいて評価用データを変更する(ステップS6)。一方、それ以外の場合には(ステップS5;NO)、制御部11は、直前に採用したリファレンスデータを継続して評価用データとして採用する。なお、楽曲の冒頭部分においては直前に採用したリファレンスデータが存在しないから、この実施形態では、楽曲の冒頭部分においては、制御部11は、予め定められたリファレンスデータ(例えば、メインパートのリファレンスデータ等)を評価用データとして採用する。なお、楽曲の冒頭部分における評価用データの採用方法はこれに限らず、例えば、各パートをノート毎に評価し、先に「OK」と評価されたほうのリファレンスデータを評価用データとして採用するようにしてもよい。
次いで、制御部11は、ステップS6で変更された評価用データと歌唱音声データSA1とを比較し、その比較結果に基づいて歌唱音声データSA1を評価し、評価結果を示すデータを記憶部12の評価結果データ記憶領域123に記憶する(ステップS7)。具体的には、例えば、制御部11は、評価用データとして採用されたリファレンスデータと歌唱音声データSA1のピッチをフレーム単位で比較し、その差分が小さいほど評価結果が高くなるように評価してもよい。なお、この評価処理は、ピッチの比較に限らず、それぞれのピッチ、パワー、スペクトルの少なくともいずれか一つを用いて評価を行うようにしてもよい。なお、この評価処理については、従来のカラオケ装置で行われている処理と同様であるため、ここではその詳細な説明を省略する。
なお、制御部11は、歌唱音声データSA2に対しても、上述した歌唱音声データSA1と同様にステップS4からステップS7に示す処理を実行し、リファレンスデータの選択処理を行うとともに、選択したリファレンスデータと歌唱音声データSA2とを比較することによって評価を行う。
次いで、制御部11は、歌唱音声データSA1に対する評価結果と歌唱音声データSA2に対する評価結果とのいずれか一方を選択し、選択した評価結果を示す画像を表すデータを表示部13に出力する(ステップS8)。この実施形態では、制御部11は、歌唱音声データSA1に対する評価結果と歌唱音声データSA2に対する評価結果とを比較し、評価が高いほうの評価結果を示す画像データを表示部13に出力する。表示部13は、制御部11から出力されるデータに基づいて、評価結果を示す画像を表示する。
図7は、表示部13に表示される画面の一例を示す図である。図示のように、表示部13には、歌詞テロップW1が表示されるとともに、評価結果を示す画像G1,G2,…が表示される。なお、図5に示す例においては、制御部11は、評価用データと歌唱音声データとの差分が閾値以上であるノートとそれ以外のノートとが異なる色で表示されるような画像を表すデータを表示部13に出力する。
ところで、一般的に、カラオケ装置1の表示画面はその大きさが限られているものが多いため、複数の歌唱者が同時に歌唱する場合においては、全員の歌唱の評価結果を表示すると画面が煩雑になる場合が多い。これに対しこの実施形態では、いずれか一方の評価結果を表示するから、画面が煩雑になるのを防ぐことができる。
図4の説明に戻る。制御部11は、楽曲のカラオケ伴奏が終了していない場合には(ステップS9;NO)、ステップS2の処理に戻り、ノート毎のリファレンスデータの選択処理や評価処理を行う。このように、制御部11は、指定された楽曲のカラオケ伴奏が終了する(ステップS9;YES)まで、ステップS2〜ステップS8の処理を繰り返し実行する。すなわち、この実施形態では、カラオケ伴奏の再生中において、ノート毎にリファレンスデータとの比較処理が行われ、比較結果に基づいて評価用データとしてリファレンスデータが採用される。
指定された楽曲のカラオケ伴奏が終了すると(ステップS9;YES)、制御部11は、ステップS7におけるノート毎の評価結果を集計し、楽曲全体の評価結果を示すデータを生成する(ステップS10)。制御部11は、楽曲全体の評価結果を示すデータを表示部13に出力し、評価結果を表示部13に表示する(ステップS11)。
ところで、複数パートを有する楽曲についてカラオケ歌唱の評価を行う場合には、ピッチが近いほうのパートを歌唱しているとみなして評価する方法が考えられる。しかしながら、このようにすると、本来のパートから音程がずれて他のパートの音程に偶然近くなった場合でも、評価結果が高くなってしまう。これに対しこの実施形態では、歌唱者の音程が歌唱中のパートの音程から一時的にずれた場合であっても、歌唱中のパートについて評価を行うことができ、これにより、より正確な評価を行うことができる。
また、従来のカラオケ装置においては、歌唱者が評価対象となる歌唱パートを選択する必要があり、評価対象となる歌唱パートを曲の途中で切り替えることはできなかった。これに対しこの実施形態では、歌唱者が歌唱パートを変更しても、評価対象となる歌唱パートを切り替えることができ、より正確な評価を行うことができる。また、評価対象となる歌唱パートを切り替えるためには、歌唱者は、歌唱するパートを変更するだけでよく、操作部を用いて歌唱パートを選択するといった煩雑な操作を行う必要がない。
このようにこの実施形態によれば、操作部を用いて評価するための歌唱パートを選択するといった煩雑な操作を歌唱者が行う必要がなく、歌唱者は、自身が選択したパートを歌唱するだけで、正確な評価を行うことができる。
また、この実施形態では、歌唱者が楽曲の途中で歌唱パートを変更した場合であっても、変更したパートに応じた評価を行うことができる。
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。なお、以下の各態様を適宜に組み合わせてもよい。
(1)上述の実施形態において、複数のパートを有する楽曲を複数の歌唱者が歌唱する場合には、制御部11は、楽曲の冒頭部分の所定時間においては、予め定められたマイクとパートとの対応関係に従って、それぞれのマイクにおいて評価用データとして採用するリファレンスデータを特定するようにしてもよい。この場合、所定時間を過ぎると、制御部11は、予め定められた対応関係ではなく、上述の実施形態で示した評価処理を行って、評価用データとして採用するリファレンスデータを変更するようにすればよい。
また、逆に、楽曲の冒頭部分だけ、上述の実施形態で示した評価処理を行ってマイクとパートの対応付けを行い、所定時間を過ぎると冒頭部分で決定したマイクとパートの組で評価するようにしてもよい。
(2)上述した実施形態では、歌唱音声データSA1の評価結果と歌唱音声データSA2の評価結果とを比較し、評価が高い方の評価結果を表示部13に表示するようにした(図4のステップS8参照)。これに代えて、両方の評価結果を表示部13に表示するようにしてもよい。また、例えば、直前のノートの評価結果が高い方の音声の評価結果を表示するようにしてもよい。
また、マイクロホン151で収音された歌唱音声のパワーを検出するとともにマイクロホン152で収音された歌唱音声のパワーを検出し、両者のパワーを比較して、パワーが大きい方の歌唱音声データの評価結果を示すデータを表示部13に出力するようにしてもよい。特に、楽曲の冒頭部分においてはそれ以前の評価結果が存在しないからどの歌唱音声に対する評価結果を表示するかを選択できない。そのため、楽曲の冒頭部分においては、パワーが大きいほうの歌唱音声に対する評価結果を表示することで、表示タイミングが遅れるのを防ぐことができる。
(3)上述した実施形態では、歌唱音声データSA1と歌唱音声データSA2との両方の総合評価結果を表示部13に表示した(図4のステップS11参照)。これに代えて、2つの評価結果の平均を算出し、算出結果を総合評価として表示部13に表示するようにしてもよい。また、例えば、総合得点の高いほうの評価結果を表示するといったように、いずれか一方の総合評価結果を表示部13に表示するようにしてもよい。
(4)上述した実施形態では、評価結果を表示部13に表示することによって歌唱者に報知したが、報知の態様はこれに限らず、例えば、音声メッセージを出力することによって報知してもよく、また、評価結果を示す情報を電子メール形式で歌唱者のメール端末に送信するという形態であってもよい。また、評価結果を示す情報を記憶端末に出力して記憶させるようにしてもよく、この場合、歌唱者はコンピュータを用いてこの記憶媒体から情報を読み出させることで、それを参照することができる。また、評価結果を所定の用紙に印刷出力してもよい。要は歌唱者に対して何らかの手段でメッセージ乃至情報を伝えられるように、評価結果を示す情報を出力するものであればよい。
また、評価結果は、歌唱中にリアルタイムに報知してもよく、また、歌唱が終了した後で評価結果を報知するようにしてもよく、評価結果を報知するタイミングは任意である。
(5)上述した実施形態において、楽曲データに含まれる複数のリファレンスデータのうち、歌唱音声データSA1の評価用データとして採用されていないリファレンスデータを、歌唱音声データSA2の評価用データとして採用するようにしてもよい。
(6)上述の実施形態において、歌唱音声の比較対象となるリファレンスデータは、例えば楽曲のガイドメロディを表すデータであってもよく、また、例えば楽曲の模範となる歌唱音声を表すデータであってもよく、楽曲の模範となる音を表すデータであればどのようなものであってもよい。
(7)上述した実施形態では、歌唱者の歌唱音声をリアルタイムで評価するようにしたが、必ずしもリアルタイムで解析する必要はなく、例えば記憶部に予め歌唱音声データを記憶しておき、記憶された歌唱音声データを評価するようにしてもよい。また、例えば、カラオケ装置1にインターネット等の通信ネットワークを介してデータ伝送を行うための通信部を設ける構成とし、通信ネットワークを介して歌唱音声データを受信し、受信した歌唱音声データを評価するようにしてもよい。
(8)上述した実施形態では、音声の特徴として音声のピッチを用いて、リファレンスピッチデータと歌唱ピッチデータとを比較するようにしたが、音声の特徴はピッチに限定されるものではなく、例えば、音声の音量(パワー)やスペクトルを音声の特徴として用いるようにしてもよい。例えば、音声のパワーを用いる場合には、上述した実施形態と同様に、制御部11が、リファレンスデータから音量を検出してリファレンス音量データを生成するとともに、歌唱音声データから音量を検出して歌唱音量データを生成し、リファレンス音量データと歌唱音量データとを所定単位で比較する。また、音声のピッチとパワーとを音声の特徴として用いるなど、複数の特徴を用いて比較処理を行うようにしてもよい。
(9)上述した実施形態では、制御部11が、楽曲データ記憶領域121に記憶された楽曲データに含まれるリファレンスデータからリファレンスピッチデータを生成するようにしたが、これに代えて、模範となる音のピッチを表すリファレンスピッチデータを予め記憶部12に記憶しておくようにしてもよい。
(10)なお、上述した実施形態では、制御部11が、リファレンスピッチデータと歌唱音声ピッチデータとをノート毎に比較するようにしたが、比較する単位はノート単位に限らず、例えば、フレーム単位で比較してもよく、また、例えば、小節毎に比較してもよく、要は所定単位毎に比較するようにすればよい。フレーム(約10ms)毎に比較してリファレンスデータを選択するようにすれば、発音時間の長い音符で構成されたメロディの場合に音符の途中で歌唱するパートが変更されたとしても、それに応じた評価が行えるようになる。その場合、ステップS5、S6で評価用のリファレンスデータを切り替える条件は例えば10回以上連続して選択された時点にすると効果的である。つまりノート毎に比較する場合より回数を多めに設定する。
(11)上述の実施形態では、歌唱者の歌唱音声とリファレンスデータとを比較したが、歌唱者の歌唱音声に変えて、演奏者による楽器の演奏音とリファレンスデータとを比較してもよい。このように、本実施形態にいう「音声」には、人間が発生した音声や楽器の演奏音といった種々の音が含まれる。
(12)上述した実施形態では、歌唱ピッチデータを複数のリファレンスデータとノート毎に比較し、比較結果を予め定められたテーブルと照合することによって、評価用データを変更するか否かを判定した。これに代えて、例えば、いずれかのリファレンスにおいて「OK」が予め定められた回数以上連続した場合にそのリファレンスデータを評価用データとして採用するようにしてもよい。また、例えば、バッファされた3つ分のノートの評価結果を参照して、「OK」の数が多いほうのリファレンスデータを評価用データとして採用するようにしてもよい。要するに、歌唱ピッチデータを複数のリファレンスデータとノート毎に比較し、予め定められた個数分のノートの判定結果に基づいて、評価用データを変更するか否かを判定するようにすればよい。
また、評価用データの変更処理の他の例として、例えば、歌唱ピッチデータを複数のリファレンスピッチデータとノート毎に比較し、その差分に基づいて複数のリファレンスデータのうちのいずれか一つをノート毎に選択するようにし、予め定められた回数以上連続して同一のリファレンスデータが選択された場合に、選択されたリファレンスデータを評価用データとして採用する一方、それ以外の場合には、直前に採用したリファレンスデータを継続して評価用データとして採用するようにしてもよい。この具体例について以下に説明する。
図8は、歌唱者xの歌唱音声のピッチの一例を示す図である。図8を参照しつつ、歌唱者xの歌唱音声の評価処理について説明する。図8に示す例では、2種類の歌唱パート(以下「歌唱パートa」,「歌唱パートb」)を有する楽曲Gを、二人の歌唱者(以下「歌唱者x」,「歌唱者y」)が歌唱した場合の動作の一例について説明する。まず、歌唱者xが歌唱パートaを歌唱し、一方、歌唱者yが歌唱パートbを歌唱したとする。図8において、横軸は時刻を示し、縦軸はピッチを示す。図において、実線paは歌唱パートaのピッチを示し、実線pbは歌唱パートbのピッチを示す。また、鎖線pxは歌唱者xの歌唱音声のピッチを示す。
制御部11は、歌唱者xの歌唱ピッチデータ(以下「歌唱ピッチデータSPx」)を、歌唱パートaのリファレンスピッチデータ(以下「リファレンスピッチデータSPa」)及び歌唱パートbのリファレンスピッチデータ(以下「リファレンスピッチデータSPb」)とノート毎に比較し、その比較結果に応じてノート毎にリファレンスピッチデータSPaとリファレンスピッチデータSPbのいずれか一方を選択する。図8に示す例においては、「SPa」,「SPa」,「SPa」,「SPb」,「SPa」…の順に選択される。
制御部11は、3回以上連続して同一のリファレンスデータが選択された場合には選択されたリファレンスデータを評価用データとして採用する。この動作例では、先頭の3つのノートの選択結果により、歌唱パートaのリファレンスデータ(以下「リファレンスデータRa」)が評価用データとして採用される。その後、4つ目のノートにおいてはリファレンスピッチデータSPbが選択されるが、リファレンスピッチデータSPbは3回以上連続して選択されていないため、制御部11は、歌唱パートaのリファレンスデータを継続して評価用データとして採用する。
次に、歌唱者xが歌唱パートaから歌唱パートbに歌唱を切り替えたとする。これは例えば、歌唱者yが歌唱パートbの音程が分からなくなって歌唱が途切れ、歌唱者xが歌唱者yの代わりに歌唱パートbを歌唱する場面等が想定される。制御部11は、歌唱者xの歌唱ピッチデータSPxを、リファレンスピッチデータSPa及びリファレンスピッチデータSPbとノート毎に比較し、その比較結果に応じてノート毎にいずれか一方を選択する。そのため、この動作例では、制御部11は、歌唱パートが切り替えられたときからリファレンスピッチデータSPbを連続して選択することとなる。制御部11は、3回以上連続してリファレンスピッチデータSPbを選択した時点で、歌唱音声xに対する評価用データを、リファレンスデータRaからリファレンスデータRbに切り替える。
(13)上述の実施形態では、カラオケ装置1が本実施形態に係る全ての処理を実行するようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記実施形態に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置1を実現するようにしてもよい。例えば、マイクロホンやスピーカ、表示装置及び操作部等を備えるコンピュータ装置と、リファレンスデータの選択処理、評価処理等を実行するサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、例えば、コンピュータ装置が、マイクロホンで収音された音声を歌唱音声データに変換してサーバ装置に送信し、サーバ装置が、受信した歌唱音声データを評価して評価結果を示す画像データを生成し、生成した画像データをコンピュータ装置に送信してもよい。
(14)上述した実施形態におけるカラオケ装置1の制御部11によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、RAM、ROMなどの記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置1にダウンロードさせることも可能である。
(15)上述した実施形態では、歌唱の評価結果を表示部13に表示するようにしたが、これに加えて、歌唱の歌唱技法の巧拙を評価し、その評価結果も表示部13に表示するようにしてもよい。この場合、例えば、評価の良いほうだけを表示する、といったように、表示する評価結果を間引くようにしてもよい。評価結果の間引き処理の他の例としては、例えば、歌唱技法の検出頻度が予め定められた値より大きい場合には、検出結果を間引くようにしてもよい。具体的には、例えば、表示する個数が予め定められた範囲内になるように、表示する歌唱技法のアイコンの数を調節するようにしてもよい。図9に画面の一例を示す。図9に例示する画面には、歌唱者が用いた歌唱技法を示すアイコンI1,I2,…が表示される。制御部11は、歌唱者の歌唱音声を解析することによって、例えば「ビブラート」や「こぶし」などの歌唱技法を検出する。具体的には、例えば、制御部11は、歌唱音声データから検出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を、「ビブラート」の歌唱技法が用いられている区間として検出するようにしてもよい。また、例えば、制御部11は、短時間歌唱ピッチが上がる区間を「こぶし」の歌唱技法が用いられている区間として検出するようにしてもよい。制御部11は、検出結果を示すアイコンI1,I2,…を表示部13に表示する。
カラオケ装置のハードウェア構成の一例を示すブロック図である。 楽曲データの構造を示す図である。 楽曲データに含まれるリファレンスデータトラックの内容を示す図である。 カラオケ装置の制御部が行う処理の流れを示すフローチャートである。 歌唱者の歌唱音声のピッチの一例を示す図である。 評価用データの選択処理において参照されるテーブルの内容の一例を示す図である。 表示部に表示される画面の一例を示す図である。 歌唱者の歌唱音声のピッチの一例を示す図である。 表示部に表示される画面の一例を示す図である。
符号の説明
1…カラオケ装置、11…制御部、12…記憶部、13…表示部、14…操作部、16…音声処理部、17…スピーカ、121…楽曲データ記憶領域、122…背景画データ記憶領域、151,152…マイクロホン。

Claims (9)

  1. ノートの列から構成される各々異なる複数のリファレンスデータを記憶するリファレンスデータ記憶手段と、
    第1のオーディオ信号からピッチを検出する第1のピッチ検出手段と、
    前記第1のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分に基づいて前記複数のリファレンスデータのうちのいずれかひとつをノート毎に選択する第1の選択手段と、
    前記第1の選択手段によって予め定められた回数以上連続して同一のリファレンスデータが選択された場合に、選択されたリファレンスデータを評価用データとして採用する一方、それ以外の場合には、直前に採用したリファレンスデータを継続して評価用データとして採用する第1の評価用データ採用手段と、
    前記第1の評価用データ採用手段によって採用された評価用データと前記第1のオーディオ信号とを比較し、比較結果に基づいて該第1のオーディオ信号を評価する第1の評価手段と、
    前記第1の評価手段による評価結果を示すデータを出力する出力手段と
    を具備することを特徴とする評価装置。
  2. 前記第1の選択手段は、前記第1のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分が最も小さいリファレンスデータをノート毎に選択する
    ことを特徴とする請求項1に記載の評価装置。
  3. 第2のオーディオ信号からピッチを検出する第2のピッチ検出手段と、
    前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータのうちの前記第1の評価用データ採用手段によって採用されていないデータのいずれかひとつを評価用データとして採用する第2の評価用データ採用手段と、
    前記第2の評価用データ採用手段によって採用された評価用データと前記第2のオーディオ信号とを比較し、比較結果に基づいて該第2のオーディオ信号を評価する第2の評価手段と
    を具備し、
    前記出力手段は、前記第1の評価手段による評価結果及び前記第2の評価手段による評価結果の少なくともいずれか一方を示すデータを出力する
    ことを特徴とする請求項1又は2に記載の評価装置。
  4. 第2のオーディオ信号からピッチを検出する第2のピッチ検出手段と、
    前記第2のピッチ検出手段により検出されたピッチを前記リファレンスデータ記憶手段に記憶された複数のリファレンスデータとノート毎に比較し、その差分に基づいて前記複数のリファレンスデータのうちのいずれかひとつをノート毎に選択する第2の選択手段と、
    前記第2の選択手段によって予め定められた回数以上連続して同一のリファレンスデータが選択された場合に、選択されたデータを評価用データとして採用する一方、それ以外の場合には、直前に採用したリファレンスデータを継続して評価用データとして採用する第2の評価用データ採用手段と、
    前記第2の評価用データ採用手段によって採用された評価用データと前記第2のオーディオ信号とを比較し、比較結果に基づいて該第2のオーディオ信号を評価する第2の評価手段と
    を備え、
    前記出力手段は、前記第1の評価手段による評価結果及び前記第2の評価手段による評価結果の少なくともいずれか一方を示すデータを出力する
    ことを特徴とする請求項1又は2に記載の評価装置。
  5. 前記第1の評価手段による評価結果と前記第2の評価手段による評価結果とのいずれか一方を選択する評価結果選択手段を備え、
    前記出力手段は、前記評価結果選択手段によって選択された評価結果を示すデータを出力する
    ことを特徴とする請求項3又は4に記載の評価装置。
  6. 前記評価結果選択手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果のうち評価結果が高いほうを選択する
    ことを特徴とする請求項5に記載の評価装置。
  7. 前記出力手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果との平均点を算出し、算出結果を示すデータを出力する
    ことを特徴とする請求項3又は4に記載の評価装置。
  8. 前記評価結果選択手段は、前記第1の評価手段による評価結果と前記第2の評価手段による評価結果とのいずれか一方をノート毎に選択し、
    前記出力手段は、前記評価結果選択手段によってノート毎に選択された評価結果を示すデータをノート単位で出力する
    ことを特徴とする請求項5に記載の評価装置。
  9. 前記第1のオーディオ信号から該オーディオ信号のパワーを検出する第1のパワー検出手段と、
    前記第2のオーディオ信号から該オーディオ信号のパワーを検出する第2のパワー検出手段と
    を備え、
    前記評価結果選択手段は、前記第1のパワー検出手段により検出されたパワーと前記第2の検出手段により検出されたパワーとを比較し、パワーが大きい方のオーディオ信号の評価結果を選択する
    ことを特徴とする請求項5に記載の評価装置。
JP2007108522A 2007-04-17 2007-04-17 評価装置 Active JP4891135B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007108522A JP4891135B2 (ja) 2007-04-17 2007-04-17 評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007108522A JP4891135B2 (ja) 2007-04-17 2007-04-17 評価装置

Publications (2)

Publication Number Publication Date
JP2008268368A true JP2008268368A (ja) 2008-11-06
JP4891135B2 JP4891135B2 (ja) 2012-03-07

Family

ID=40047992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007108522A Active JP4891135B2 (ja) 2007-04-17 2007-04-17 評価装置

Country Status (1)

Country Link
JP (1) JP4891135B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145878A (ja) * 2008-12-22 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012078700A (ja) * 2010-10-05 2012-04-19 Yamaha Corp 歌唱音声評価装置
JP2012194241A (ja) * 2011-03-15 2012-10-11 Yamaha Corp 評価装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161672A (ja) * 1996-11-29 1998-06-19 Yamaha Corp 歌唱音声信号切換装置
JPH11282478A (ja) * 1998-03-27 1999-10-15 Daiichikosho Co Ltd カラオケ装置における歌唱採点方式
JP2000330580A (ja) * 2000-01-01 2000-11-30 Yamaha Corp カラオケ装置
JP2004109260A (ja) * 2002-09-13 2004-04-08 Yamaha Corp カラオケ装置
JP2004279786A (ja) * 2003-03-17 2004-10-07 Konami Co Ltd カラオケ装置、音程判定方法、ならびに、プログラム
JP2005107329A (ja) * 2003-09-30 2005-04-21 Yamaha Corp カラオケ装置
JP2006284919A (ja) * 2005-03-31 2006-10-19 Brother Ind Ltd カラオケ装置及びプログラム
JP2007004045A (ja) * 2005-06-27 2007-01-11 Brother Ind Ltd カラオケ装置及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161672A (ja) * 1996-11-29 1998-06-19 Yamaha Corp 歌唱音声信号切換装置
JPH11282478A (ja) * 1998-03-27 1999-10-15 Daiichikosho Co Ltd カラオケ装置における歌唱採点方式
JP2000330580A (ja) * 2000-01-01 2000-11-30 Yamaha Corp カラオケ装置
JP2004109260A (ja) * 2002-09-13 2004-04-08 Yamaha Corp カラオケ装置
JP2004279786A (ja) * 2003-03-17 2004-10-07 Konami Co Ltd カラオケ装置、音程判定方法、ならびに、プログラム
JP2005107329A (ja) * 2003-09-30 2005-04-21 Yamaha Corp カラオケ装置
JP2006284919A (ja) * 2005-03-31 2006-10-19 Brother Ind Ltd カラオケ装置及びプログラム
JP2007004045A (ja) * 2005-06-27 2007-01-11 Brother Ind Ltd カラオケ装置及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145878A (ja) * 2008-12-22 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012078700A (ja) * 2010-10-05 2012-04-19 Yamaha Corp 歌唱音声評価装置
JP2012194241A (ja) * 2011-03-15 2012-10-11 Yamaha Corp 評価装置

Also Published As

Publication number Publication date
JP4891135B2 (ja) 2012-03-07

Similar Documents

Publication Publication Date Title
JP4672613B2 (ja) テンポ検出装置及びテンポ検出用コンピュータプログラム
JP4353018B2 (ja) 楽器演奏教習装置及びそのプログラム
JP5799966B2 (ja) 採点装置及びプログラム
JP2008015195A (ja) 楽曲練習支援装置
JP4949899B2 (ja) ピッチ表示制御装置
JP2007232750A (ja) カラオケ装置、制御方法およびプログラム
JP2008020798A (ja) 歌唱指導装置
JP2007310204A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP4913638B2 (ja) 評価装置及びカラオケ装置
JP2005107333A (ja) カラオケ装置
JP4204941B2 (ja) カラオケ装置
JP4204940B2 (ja) カラオケ装置
JP2007264569A (ja) 検索装置、制御方法及びプログラム
JP4891135B2 (ja) 評価装置
JP5014073B2 (ja) メロディ表示制御装置及びカラオケ装置
JP2007322934A (ja) 歌唱練習装置、カラオケ装置及びプログラム
JP4116849B2 (ja) 動作評価装置、カラオケ装置およびプログラム
JP2009031549A (ja) メロディ表示制御装置及びカラオケ装置
JP2009169103A (ja) 練習支援装置
JP4839967B2 (ja) 指導装置及びプログラム
JP2009092871A (ja) 採点装置及びプログラム
JP3599686B2 (ja) カラオケ歌唱時に声域の限界ピッチを検出するカラオケ装置
JP2007334202A (ja) カラオケ装置
JP2009014802A (ja) コード名検出装置及びコード名検出用プログラム
JP2013200455A (ja) 演奏練習支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111215

R150 Certificate of patent or registration of utility model

Ref document number: 4891135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250