JP2010140058A - カラオケ装置およびカラオケ情報処理のプログラム - Google Patents

カラオケ装置およびカラオケ情報処理のプログラム Download PDF

Info

Publication number
JP2010140058A
JP2010140058A JP2010058755A JP2010058755A JP2010140058A JP 2010140058 A JP2010140058 A JP 2010140058A JP 2010058755 A JP2010058755 A JP 2010058755A JP 2010058755 A JP2010058755 A JP 2010058755A JP 2010140058 A JP2010140058 A JP 2010140058A
Authority
JP
Japan
Prior art keywords
data
waveform data
song
waveform
display means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010058755A
Other languages
English (en)
Other versions
JP4973753B2 (ja
Inventor
Tatsuya Dejima
達也 出嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010058755A priority Critical patent/JP4973753B2/ja
Publication of JP2010140058A publication Critical patent/JP2010140058A/ja
Application granted granted Critical
Publication of JP4973753B2 publication Critical patent/JP4973753B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】 歌い手に対してカラオケ曲の歌の表現における強弱を視覚的に素早く認識させる歌唱指導を実現する。
【解決手段】 CPU11は、曲メモリ15から読み出されて入力される曲データに含まれている歌詞データおよび模範となっている歌唱の波形データを本体3の表示部3bに表示する際には、表示する波形データの振幅の範囲ごとに対応する青色、緑色、黄色、および赤色からなる異なる色を波形データに併せて表示することにより歌の表現における強弱を視覚的に素早く認識させる。
【選択図】 図3

Description

本発明は、カラオケ装置およびカラオケ情報処理のプログラムに関し、特に、ユーザが歌唱するフレーズの発声タイミングを容易に把握するためのカラオケ装置およびカラオケ情報処理のプログラムに関するものである。
従来、カラオケ装置においては、表示された歌詞の文字列の色を曲の進行に伴って変化させて、歌唱するフレーズの発声タイミングをユーザが把握できるようになっている。しかし、色が変化する歌詞の文字列に合わせて歌う場合には、テンポがやや遅れ気味になってしまう。また、歌の強弱や息継ぎを表すことはできないので、抑揚のない歌い方や苦しい歌い方になってしまう。そこで、表示された歌詞の文字列の色を曲の進行に伴って変化させるだけでなく、種々の歌唱指導を同時に表示する提案がいくつかなされている。
ある提案の歌支援表示機能付き音楽再生装置においては、音符データと歌詞データを記憶する記憶部に、歌のテンポ又は強弱を表示するための歌支援データを格納し、歌う少し前に表示される歌詞と共に、歌のテンポや強弱を、例えば、文字の形状の変化やグラフィックな形で表示するようになっている。(特許文献1参照)
また、ある提案の楽音発生装置においては、演奏進行中のモニタ表示に併せ、歌詞の息継ぎすべき箇所に、息継ぎの長さを表す息継ぎマーク情報を表示するようになっている。(特許文献2参照)
また、ある提案のカラオケシステムにおける歌詞表示方法においては、モニタ画面に、背景画と歌詞テロップを表示するだけでなく、特に強く歌う所やこぶしをきかせる所を指示する歌唱の仕方に関するノウハウ情報を表示するようになっている。(特許文献3参照)
実開平3−117262号公報 特開平3−296789号公報 特開平5−61403号公報
しかしながら、上記特許文献1ないし特許文献3のように、種々の歌唱指導を歌詞と同時に表示しても、歌の強弱を視覚的に素早く認識させる力は乏しい。また、従来のカラオケ装置においては、子音の発声タイミングや母音の発声タイミングが苦手な歌い手に対する歌唱指導については実現されていない。また、従来のカラオケ装置においては、模範となるプロの歌手の声紋に倣って歌うような高度な歌唱指導については実現されていない。また、従来のカラオケ装置においては、歌うときの呼吸方法を歌唱指導することは実現されていない。
本発明は、このような従来の課題を解決するためのものであり、その第1の目的は、歌の強弱を視覚的に素早く認識させる歌唱指導を実現することである。また、本発明の第2の目的は、子音の発声タイミングや母音の発声タイミングが苦手な歌い手に対する歌唱指導を実現することである。また、本発明の第3の目的は、模範となるプロの歌手の声紋に倣って歌うような高度な歌唱指導を実現することである。また、本発明の第4の目的は、息継ぎなどの呼吸方法について歌唱指導を実現することである。
請求項1に記載のカラオケ装置は、入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示する第1の表示制御手段(実施形態においては、図3のCPU11に相当する)と、第1の表示制御手段によって表示される波形データの振幅の範囲ごとに対応する異なる色(実施形態においては、青色、緑色、黄色、および赤色に相当する)を当該波形データに併せて表示手段に表示する第2の表示制御手段(実施形態においては、図3のCPU11に相当する)と、を備えた構成になっている。
請求項2に記載のカラオケ装置は、入力される曲データに含まれている歌詞データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示する第1の表示制御手段(実施形態においては、図3のCPU11に相当する)と、入力される曲データに含まれている模範となる歌唱の波形データの周波数成分を分析する周波数分析手段(実施形態においては、図3のCPU11に相当する)と、周波数分析手段によって分析された特定の周波数帯域の波形データを強調して表示手段に表示する第2の表示制御手段(実施形態においては、図3のCPU11に相当する)と、を備えた構成になっている。
請求項2のカラオケ装置において、請求項3に記載したように、第2の表示制御手段は、周波数分析手段によって分析された子音成分の周波数帯域の波形データを強調して表示手段に表示するような構成にしてもよい。
あるいは請求項2のカラオケ装置において、請求項4に記載したように、第2の表示制御手段は、周波数分析手段によって分析された母音成分の周波数帯域の波形データを強調して表示手段に表示するような構成にしてもよい。
請求項2ないし4のいずれか1項に記載のカラオケ装置において、請求項5に記載したように、周波数分析手段によって分析された特定の周波数帯域の波形データを聴覚補正する波形補正手段(実施形態においては、図3のDSP17に相当する)をさらに備え、第2の表示制御手段は、波形補正手段によって聴覚補正された波形データを表示手段に表示するような構成にしてもよい。
請求項6に記載のカラオケ装置は、入力される曲データに含まれている歌詞データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示する第1の表示制御手段(実施形態においては、図3のCPU11に相当する)と、入力される曲データに含まれている模範となる歌唱の波形データの声紋を分析する声紋分析手段(実施形態においては、図3のCPU11に相当する)と、声紋分析手段によって分析された声紋の波形データを表示手段に表示する第2の表示制御手段(実施形態においては、図3のCPU11に相当する)と、を備えた構成になっている。
請求項6のカラオケ装置において、請求項7に記載したように、第2の表示制御手段は、声紋分析手段によって分析された声紋の波形データの振幅の範囲ごとに対応する異なる色(実施形態においては、青色、緑色、黄色、および赤色に相当する)を当該波形データに併せて表示手段に表示するような構成にしてもよい。
請求項8に記載のカラオケ装置は、入力される曲データに含まれている歌詞データおよび模範となる歌唱の楽音データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示する第1の表示制御手段(実施形態においては、図3のCPU11に相当する)と、曲データに含まれている模範となる歌唱の波形データおよび楽音データの中から特定の歌唱状態を抽出する状態抽出手段(実施形態においては、図3のCPU11に相当する)と、状態抽出手段によって抽出された特定の歌唱状態に応じたイラスト画像を表示手段に表示する第2の表示制御手段(実施形態においては、図3のCPU11に相当する)と、を備えた構成になっている。
請求項9に記載のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示するステップA(実施形態においては、図3のCPU11の処理に相当する)と、ステップAによって表示される波形データの振幅の範囲ごとに対応する異なる色(実施形態においては、青色、緑色、黄色、および赤色に相当する)を当該波形データに併せて表示手段に表示するステップB(実施形態においては、図3のCPU11の処理に相当する)と、をコンピュータ(実施形態においては、図3のCPU11に相当する)に実行させる構成になっている。
請求項10に記載のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示するステップA(実施形態においては、図3のCPU11の処理に相当する)と、入力される曲データに含まれている模範となる歌唱の波形データの周波数成分を分析するステップB(実施形態においては、図3のCPU11の処理に相当する)と、ステップBによって分析された特定の周波数帯域の波形データを強調して表示手段に表示するステップC(実施形態においては、図3のCPU11の処理に相当する)と、をコンピュータ(実施形態においては、図3のCPU11に相当する)に実行させる構成になっている。
請求項10のカラオケ情報処理のプログラムにおいて、請求項11に記載したように、ステップCは、ステップBによって分析された子音成分の周波数帯域の波形データを強調して表示手段に表示するような構成にしてもよい。
あるいは請求項10のカラオケ情報処理のプログラムにおいて、請求項12に記載したように、ステップCは、ステップBによって分析された母音成分の周波数帯域の波形データを強調して表示手段に表示するような構成にしてもよい。
請求項10ないし12のいずれか1項に記載のカラオケ情報処理のプログラムにおいて、請求項13に記載したように、ステップBによって分析された特定の周波数帯域の波形データを聴覚補正するステップD(実施形態においては、図3のDSP17の処理に相当する)をさらに含み、ステップCは、ステップDによって聴覚補正された波形データを表示手段に表示するような構成にしてもよい。
請求項14に記載のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示するステップA(実施形態においては、図3のCPU11の処理に相当する)と、入力される曲データに含まれている模範となる歌唱の波形データの声紋を分析するステップB(実施形態においては、図3のCPU11の処理に相当する)と、ステップBによって分析された声紋の波形データを表示手段に表示するステップC(実施形態においては、図3のCPU11の処理に相当する)と、をコンピュータ(実施形態においては、図3のCPU11に相当する)に実行させる構成になっている。
請求項14のカラオケ情報処理のプログラムにおいて、請求項15に記載したように、ステップCは、ステップBによって分析された声紋の波形データの振幅の範囲ごとに対応する異なる色(実施形態においては、青色、緑色、黄色、および赤色に相当する)を当該波形データに併せて表示手段に表示するような構成にしてもよい。
請求項16に記載のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データおよび模範となる歌唱の楽音データを所定の表示手段(実施形態においては、図1の本体3の表示部3bや図2のリモコン装置2の表示部2bに相当する)に表示するステップA(実施形態においては、図3のCPU11の処理に相当する)と、曲データに含まれている模範となる歌唱の波形データおよび楽音データの中から特定の歌唱状態を抽出するステップB(実施形態においては、図3のCPU11の処理に相当する)と、ステップBによって抽出された特定の歌唱状態に応じたイラスト画像を表示手段に表示するステップC(実施形態においては、図3のCPU11の処理に相当する)と、をコンピュータ(実施形態においては、図3のCPU11に相当する)に実行させる構成になっている。
本発明のカラオケ装置およびカラオケ情報処理のプログラムによれば、歌の強弱を視覚的に素早く認識させる歌唱指導を実現できるという効果が得られる。また、子音の発声タイミングや母音の発声タイミングが苦手な歌い手に対する歌唱指導を実現できるという効果が得られる。また、模範となるプロの歌手の声紋に倣って歌うような高度な歌唱指導を実現できるという効果が得られる。また、息継ぎなどの呼吸方法について歌唱指導を実現できるという効果が得られる。
本発明のカラオケ装置を適用した実施形態のシステム構成を示す外観図。 図1のリモコン装置の外観図。 図1における本体の内部構成を示すブロック図。 図3の曲メモリに記憶されている曲データの構成を示す図。 図3のDSPの内部構成を示す概略ブロック図。 図3のCPUのメインルーチンのフローチャート。 図6のメインルーチンにおける歌詞初期表示処理のフローチャート。 図6のメインルーチンにおける波形初期表示処理のフローチャート。 図8における色付け表示処理のフローチャート。 図6のメインルーチンにおけるMIDI読み出し処理のフローチャート。 図6のメインルーチンにおける歌詞データ読み出し処理のフローチャート。 図6のメインルーチンにおける波形読み出し処理のフローチャート。 図3の曲メモリに記憶されている曲データの詳細な構成を示す図。 第1実施形態における歌詞および波形表示の画面を示す図。 第2実施形態における波形データの周波数分割のデータ構成を示す図。 第2実施形態における母音の波形および歌詞の表示を示す図。 第2実施形態における子音の波形および歌詞の表示を示す図。 第2実施形態における400Hz帯域の母音の波形および歌詞の表示を示す図。 第3実施形態における波形データの声紋分析による周波数分割のデータ構成を示す図。 第3実施形態における声紋の波形および歌詞の表示を示す図。 第4実施形態における楽譜データおよび波形データから低音の部分および息継ぎの部分を抽出した場合のデータ構成を示す図。 第4実施形態における音符およびイラスト画像および歌詞の表示を示す図。
以下、本発明の第1実施形態ないし第4実施形態について、図を参照して詳細に説明する。
図1は、本発明のカラオケ装置およびカラオケ情報処理のプログラムを適用した各実施形態のシステム構成の外観図である。図1に示すように、このシステムは、マイク1、リモコン装置2、本体3、スピーカ4で構成されている。マイク1は、歌い手の音声入力に応じて生成した音声データを赤外線通信又は他の無線通信によって本体3に送信する。同様に、リモコン装置2は、操作に応じた曲選択やその他の制御信号を赤外線通信又は他の無線通信によって本体3に送信する。本体3は、操作部3a、表示部3b、および後述する信号処理部を備え、マイク1から受信した音声データに対して所定の信号処理を施して、スピーカ4から発音させるとともに、リモコン装置2から受信した曲選択の制御信号、又は、操作部3aから入力された曲選択の制御信号に応じて、選択した曲の歌詞データなどの歌唱指導の情報を表示部3bに表示する。なお、図には示していないが、マイク1と本体3とは、ケーブルを介して接続するコネクタが設けられている。
図2は、リモコン装置2の外観図である。図2に示すように、リモコン装置2には、種々のスイッチ群2aおよび表示部2bが設けられている。なお、本体3の操作部3aにも同じスイッチ群が設けられている。したがって、以下、リモコン装置2と本体3とを区別することなく、スイッチ操作について説明する。ユーザは、歌手名や曲名のスイッチおよびテンキースイッチによって曲を検索し、決定スイッチによって歌う曲を選択する。そして、スタートスイッチ(演奏/一時停止スイッチ)によって曲の開始を指示する。表示部2bには、本体3の表示部3bに表示される歌唱指導の情報と同じものが本体3から送信され、ユーザが手元で見られるように表示することができる。演奏を中止する場合には、ストップスイッチ(演奏中止スイッチ)を操作する。
図3は、図1の本体3の内部構成を示すブロック図である。このブロック図は、説明の簡便のために、マイク1と本体3とがケーブルで接続された場合の構成を示している。なお、マイク1において音声入力に応じて生成した音声データを赤外線通信又は他の無線通信によって本体3に送信する構成についても、本体3の動作は同じである。図3において、CPU11は、システムバス12を介して、プログラムメモリ13、ワークメモリ14、表示部3b、操作部3a、曲メモリ15、音源16、DSP(デジタル信号処理部)17に接続されている。CPU11は、システムバス12を介して接続された上記各部との間でデータやコマンドを授受して本体3を制御する。プログラムメモリ13は、CPU11によって実行されるカラオケ情報処理のプログラム、および、起動時の初期データやカラオケの背景画像データなどを予め格納している。ワークメモリ14は、CPU11によって処理されるデータを一時的に記憶するための各種のレジスタやバッファを有する。操作部2aは、上記したようにリモコン装置2と同じ種々のスイッチ群と、検出回路で構成されている。曲メモリ15は、カラオケ曲の伴奏曲のMIDIデータ、歌詞データ、模範となるプロの歌手の歌唱を録音した波形データを予め記憶している。波形データは、例えば、PCMデータである。
図4は、曲メモリ15に記憶された1つの曲データの構成を示している。図4に示すように、MIDIデータは、タイムおよびイベントからなるシーケンスデータで構成されている。歌詞データは、歌詞データおよびタイムからなるシーケンスデータで構成されている。なお、歌詞データについては、MIDIデータのイクスクルーシブのエリアに記憶する構成でもよい。波形データは、歌詞の子音および母音の各波高値を示すデジタルデータすなわち振幅データで構成されている。
図3における音源16は、MIDIデータに対応する伴奏曲データの元となる波形データを記憶した波形ROMを有し、CPU11によって曲メモリ15から読み出されたMIDIデータに基づいて、伴奏曲の楽音信号を生成してDSP17に送付する。DSP17は、マイク1から入力されてプリアンプ18で増幅され、ADコンバータ19によってアナログからデジタルに変換された音声信号と、音源16から入力された伴奏曲の楽音信号とを合成し、DAコンバータ20に出力してデジタルからアナログに変換し、メインアンプ21によって増幅して、スピーカ4から発音させる。
図5は、CPU11によって制御されるDSP17の内部構成を示す概略ブロック図である。A特性フィルタ171は、CPU11から入力される波形データに対して、人間の耳の周波数応答特性の近似値(これを「A特性」という)に聴覚補正を行ってCPU11に戻すフィルタである。人間の耳の聴覚は、周波数に対してフラットな特性でなく、「等ラウドネス曲線」と称される周波数応答特性を持っている。この等ラウドネス曲線の1kHzにおける40dBの音圧レベルを基準の音量として、他の周波数における40dBの音圧レベルに対する人間の耳の聴覚の周波数応答特性がA特性である。A特性は、1kHzから低域になるにしたがって感度が急激に低下する。また、1kHzから3kHzに近づくにしたがって感度がわずかに高くなり、3kHzから10kHzに近づくにしたがって感度がわずかに低くなる。このため、DSP17は、80Hz〜1kHzの帯域に対する聴覚補正を行って、人間の耳に聞きやすい特性に補正する。
図5において、加算器172は、ADコンバータ19を介して入力されるマイク1からの音声信号の波形データと、音源16から入力される伴奏曲の波形データとを加算して出力する。エフェクタ172は、加算器172から出力される波形データに対して、エコー、リバーブ、コーラス、ピッチシフトなどのエフェクト処理を施して、DAコンバータ20に出力する。
次に、第1実施形態の動作について、CPU11によって実行されるカラオケ情報処理のプログラムを示す図6ないし図12のフローチャート、曲メモリ15のデータを示す図13、および、表示部3bの画面を示す図14に基づいて説明する。
図6は、メインルーチンのフローチャートである。まず、所定のイニシャライズ(ステップSA1)を行った後、スタートスイッチがオンされたか否かを判別し(ステップSA2)、このスイッチがオンされたときは、フラグSTFを「1(演奏)」にセットする(ステップSA3)。また、ワークメモリ14の各アドレスを初期化して(ステップSA4)、そのアドレスに基づきMIDIのタイムの読み出しを行う(ステップSA5)。そして、歌詞初期表示(ステップSA6)および波形初期表示(ステップSA7)を行う。
次に、STFが「1」であるか又は「0(演奏停止)」であるかを判別し(ステップSA8)、STFが「1」である場合には、曲のテンポに応じた最小時間が経過したか否かを判別する(ステップSA9)。STFが「0」の場合又は最小時間が経過していない場合にはステップSA2に移行してスタートスイッチのオンを判別するが、最小時間が経過したときは、MIDIデータの読み出し(ステップSA10)、歌詞データの読み出し(ステップSA11)、および、波形データの読み出し(ステップSA12)を行う。そして、ステップSA2に移行してスタートスイッチのオンを判別する。
スタートスイッチがオンでない場合には、ストップスイッチがオンされたか否かを判別し(ステップSA13)、このスイッチがオンされたときは、STFを「0」にリセットする(ステップSA14)。ストップスイッチがオンされない場合には、ステップSA8に移行して、STFが「1」であるか又は「0」であるかを判別する。STFが「1」である限り、テンポに応じた速度でステップSA10、ステップSA11、およびステップSA12において、MIDIデータの読み出し、歌詞データの読み出し、および波形データの読み出しを繰り返しながら曲を進行させる。
各実施形態において、曲メモリ15に記憶されている各曲のデータは、図13に示すように、MIDIデータ、歌詞データ、波形データ、および、制御データで構成されている。MIDIデータは、伴奏曲のデータであり、音調データ、音高データ(楽譜データ)、音色データ、ベロシティデータ等で構成され、上記したように、音源16に送付されて楽音信号が生成される。歌詞データは、文字のテキストデータで構成され、表示部3bにおいてビットマップの画像データに変換されて表示される。波形データは、模範となるプロの歌手の歌声を録音したPCMデータである。制御データは、青色、緑色、黄色、赤色を表示するための色データ、特定の周波数を指定する周波数データ、イラスト画像データ等で構成されている。
図7は、図6のメインルーチンにおけるステップSA6の歌詞初期表示のフローチャートである。アドレスに対応した歌詞データを読み出し(ステップSB1)、アドレスをインクリメントする(ステップSB2)。次に、インクリメントしたアドレスに基づきタイムを読み出し(ステップSB3)、読み出された歌詞データを表示する(ステップSB4)。そして、図6のメインルーチンに戻る。
図8は、メインルーチンにおけるステップSA7の波形初期表示のフローチャートである。波形データの初期アドレスをワークメモリ14のレジスタADにストアする(ステップSC1)。次に、ADに対応する波高値を読み出し(ステップSC2)、読み出された波高値をDSP17へ出力する(ステップSC3)。DSP17は、図5に示したA特性フィルタ171によって、CPU11から入力された波高値に対してA特性の聴覚補正を行ってCPU11に出力する。
CPU11は、図8において、DSP17より入力された波高値を受領する(ステップSC4)。そして、受領した波高値と3段階の閾値a、b、c(a<b<c)とを比較して、青色、緑色、黄色、又は赤色で色付け表示を行う(ステップSC5)。いずれかの色で波高値を表示した後は、ADのアドレスをインクリメントする(ステップSC6)。そして、ADのアドレスが1画面分のアドレス数であるNの値を超えたか否かを判別し(ステップSC7)、ADのアドレスがNの値以下である場合には、ステップSC2〜ステップSC6の処理を繰り返す。ADのアドレスがNの値を超えたとき、すなわち、色付け表示した初期の波形データが1画面分に達したときは、図6のメインルーチンに戻る。
図9は、図8のステップSC5の色付け表示のフローチャートである。まず、波高値のレベルが閾値a以下であるか又はaより大きいか判別する(ステップSG1)。波高値のレベルがa以下である場合には、波高値を青色で表示する(ステップSG2)。波高値のレベルがaより大きい場合には、波高値のレベルが閾値b以下であるか又はbより大きいか判別する(ステップSG3)。波高値のレベルが閾値aより大きく閾値b以下である場合には、波高値を緑色で表示する(ステップSG4)。波高値のレベルがbより大きい場合には、波高値のレベルが閾値c以下であるか又はcより大きいか判別する(ステップSG5)。波高値のレベルが閾値bより大きく閾値c以下である場合には、波高値を黄色で表示する(ステップSG6)。波高値のレベルがcより大きい場合には、波高値を赤色で表示する(ステップSG7)。ステップSG2、ステップSG4、ステップSG6、又はステップSG7において、波高値を色付けした後は図8のステップSC6に移行する。
図10は、図6のメインルーチンにおけるステップSA10のMIDI読み出しのフローチャートである。まず、ワークメモリ14のレジスタにストアしているタイムの値をデクリメントする(ステップSD1)。そして、デクリメントしたレジスタのタイムの値が「0」に達したか否かを判別する(ステップSD2)。タイムの値が「0」に達しない場合にはメインルーチンに戻るが、タイムの値が「0」に達したときは、アドレスをインクリメントする(ステップSD3)。次に、アドレスに基づき図4に示したMIDIデータを曲メモリ15から読み出して(ステップSD4)、そのデータがタイムであるか又はイベントであるかを判別する(ステップSD5)。読み出したデータがイベントすなわち伴奏曲の楽音データである場合には、そのデータを音源16に送付するイベント処理を行う(ステップSD6)。そして、ステップSD3に移行してアドレスをインクリメントする。ステップSD5において、読み出したデータがタイムである場合には、ワークメモリ14のレジスタを読み出されたタイムの値に更新する(ステップSD7)。そして、図6のメインルーチンに戻る。
図11は、メインルーチンにおけるステップSA11の歌詞読み出しのフローチャートである。まず、ワークメモリ14のレジスタにストアしているタイムの値をデクリメントする(ステップSE1)。そして、表示された歌詞データの一部の色を替える(ステップSE2)。すなわち、曲の進行に伴って歌うタイミングの歌詞の部分の色を替えて、歌い手に対する歌唱指導を行う。次に、デクリメントしたタイムの値が「0」に達したか否かを判別し(ステップSE3)、タイムの値が「0」に達しない場合にはメインルーチンに戻るが、タイムの値が「0」に達したときは、アドレスをインクリメントする(ステップSE4)。次に、アドレスに基づき図4に示した歌詞データを曲メモリ15から読み込み(ステップSE5)、そのデータがタイムであるか又は歌詞データであるかを判別する(ステップSE6)。読み出したデータが歌詞データである場合には、読み出された歌詞データに基づき表示を更新する(ステップSE7)。そして、ステップSE4に移行してアドレスをインクリメントする。ステップSE6において、読み出したデータがタイムである場合には、ワークメモリ14のレジスタを読み出されたタイムの値に更新する(ステップSE8)。そして、図6のメインルーチンに戻る。
図12は、メインルーチンにおけるステップSA12の波形読み出しのフローチャートである。まず、ワークメモリ14のバッファの波形表示データを左シフトする(ステップSF1)。図14は、歌詞データと共に画面に表示されている波形データwを示している。なお、図13の波形データと比較すると、図14の波形データは、歌い手が容易に認識できるように、波高値がゼロ以上の半波整流の形状に信号処理がなされている。マーク画像としてのインジケータcは、現在の進行位置を示し、図11の歌詞読み出し処理において、表示された歌詞データの一部の色を替えた位置に同期している。各実施形態においては、インジケータcの位置は固定であり、歌詞および波形の画像が左にスクロールされる構成になっている。このため、曲の進行に伴ってバッファの波形表示データを左シフトする。
次に、アドレスをインクリメントして(ステップSF2)、そのアドレスに基づき波高値を曲メモリ15から読み出す(ステップSF3)。次に、読み出された波高値をDSP17に出力する(ステップSF4)。そして、図5に示したDSP17のA特性フィルタ171によって聴覚補正された波高値を取り込み(ステップSF5)、ワークメモリ14のバッファの波形表示データの右端(最後)にストアする(ステップSF6)。この後、図9のフローチャートに示した色付け表示処理を行って(ステップSF7)、図6のメインルーチンに戻る。
この色付け表示によって、図14の波形の画像が波高値のレベルすなわち振幅の範囲ごとに対応した色で表示される。図9において、波高値のレベルが閾値a以下の場合には青色(図14では網点部分)で表示され、波高値のレベルが閾値aより大きく閾値b以下の場合には緑色(図14ではハッチング部分)で表示され、波高値のレベルが閾値bより大きく閾値c以下の場合には黄色(図14ではクロスハッチング部分)で表示され、波高値のレベルが閾値cより大きい場合には赤色(図14では黒ベタ部分)で表示される。
以上のように、この第1実施形態によれば、CPU11は、入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを表示部3bに表示する際には、表示する波形データの振幅の範囲ごとに対応する異なる色を波形データに併せて表示する。
したがって、形の違いよりも識別性が高い色の違いによって、歌の強弱を視覚的に素早く認識させる歌唱指導を実現できる。
次に、本発明の第2実施形態について説明する。第2実施形態において、CPU11によって実行されるフローチャートについては、波形データの表示方法を除いて、図6ないし図12に示した第1実施形態のフローチャートと同じであるので、曲メモリ15のデータ構成および本体3の表示部3bに表示される画面に基づいて、第2実施形態の動作を説明する。なお、図3のDSP17には、波形データの周波数を分割する複数のバンドパスフィルタ(図示せず)が設けられており、選択された曲の波形データを80Hz以上1kHz未満の第1の周波数帯域、1kHz以上10kHz未満の第2の周波数帯域、400Hzを中心とする第3の周波数帯域に分割分離して、ワークメモリ14のバッファに記憶する。
図15は、曲メモリ15の波形データを80Hz以上1kHz未満の第1の周波数帯域、1kHz以上10kHz未満の第2の周波数帯域、400Hzを中心とする第3の周波数帯域に分割されたワークメモリ14のバッファのデータ構成を示している。図15において、第1の周波数帯域は母音の波形データを表し、第2の周波数帯域は子音の波形データを表し、第3の周波数帯域は400Hzを中心とする帯域に限定した母音の波形データを表している。なお、子音については、波形のアタック部分に特徴があるので、周波数分割でなくアタック部分によって波形データを分割する構成にしてもよいし、周波数およびアタック部分の両方に基づいて分割する構成にしてもよい。
図16〜図18は、本体3の表示部3bの画面に歌詞と共に表示された波形データを示している。これら3つの画面は、母音の発音タイミングが苦手な歌い手、子音の発音タイミングが苦手な歌い手、母音の中で顕著に発音される「G4(ハ長調のソ)」や「A4(ハ長調のラ)」の音階を修得したい歌い手に応じて、いずれかの画面表示が選択される。
図16においては、歌詞の母音(点線の円)の位置の波高値のレベルが高くなっている。したがって、この第2実施形態によれば、歌い手は母音の発音タイミングを視覚的に素早く認識することができるので、母音の発声タイミングが苦手な歌い手に対する歌唱指導を実現できる。
図17においては、歌詞の子音(点線の円)の位置の波高値のレベルが高くなっている。したがって、この第2実施形態によれば、歌い手は子音の発音タイミングを視覚的に素早く認識することができるので、子音の発声タイミングが苦手な歌い手に対する歌唱指導を実現できる。
図18においては、歌詞の400Hzを中心とする母音の位置の波高値のレベルが高くなっている。したがって、この第2実施形態によれば、歌い手はこの帯域の母音の発音タイミングを視覚的に素早く認識することができるので、頻繁に発音される「G4」や「A4」の音階の発音を修得したい歌い手に対する歌唱指導を実現できる。
次に、本発明の第3実施形態について説明する。第3実施形態においても、CPU11によって実行されるフローチャートについては、波形データの表示方法を除いて、図6ないし図12に示した第1実施形態のフローチャートと同じであるので、曲メモリ15のデータ構成および本体3の表示部3bに表示される画面に基づいて、第3実施形態の動作を説明する。第3実施形態の場合には、すでに高い歌唱力を持っているユーザが、さらにプロの歌手の歌唱力にまで向上することを望んでいる場合の高度な歌唱指導を行うものである。なお、図3のDSP17には、第2実施形態と同様に、波形データの周波数を分割する複数のバンドパスフィルタ(図示せず)が設けられており、選択された曲の波形データを、100Hzを中心とする周波数帯域、1kHzを中心とする第2の周波数帯域、10kHzを中心とする第3の周波数帯域に分割分離して、ワークメモリ14のバッファに記憶する。
図19は、曲メモリ15の波形データを、100Hzを中心とする第1の周波数帯域、1kHzを中心とする第2の周波数帯域、10kHzを中心とする第3の周波数帯域に分割されたワークメモリ14のバッファのデータ構成を示している。図20は、分割された3つの周波数帯域の波高値を示す画面である。したがって、この第3実施形態によれば、歌い手は、画面を見ながら模範となるプロの歌手の声紋に倣って歌うような高度な歌唱指導を享受できる。
なお、第1実施形態の場合と同様に、声紋の波形データの波高値レベルの範囲ごとに対応する異なる色を波形データに表示するような構成にしてもよい。この場合には、声紋の状態を視覚的に素早く認識できるので、プロの歌手の声紋に倣って歌うような高度な歌唱指導をよりいっそう享受できる。
次に、本発明の第4実施形態について説明する。第4実施形態においても、CPU11によって実行されるフローチャートについては、波形データの表示方法を除いて、図6ないし図12に示した第1実施形態のフローチャートと同じであるので、曲メモリ15のデータ構成および本体3の表示部3bに表示される画面に基づいて、第4実施形態の動作を説明する。
図21は、波形データおよびMIDIデータの中の楽譜データにおける音高データ、休符データ、スタッカートなどの臨時記号に応じて、低音の部分、息継ぎの部分を抽出した場合のデータ構成を示している。図22は、歌詞と共に画面に表示された音符およびイラスト画像を示している。音符の上の大きな口のイラスト画像mは、息継ぎの状態を表し、音符の下の胸が震えるイラスト画像bは、低音の発音のために大きく息を吸って体に力を込める状態を表している。A特性で説明したように、低音の聴覚は高音に比較して感度が低いので、大きく息を吸って体に力を込めて歌うことが必要である。このため、イラスト画像bによってその状態を表している。
したがって、この第4実施形態によれば、息継ぎなどの呼吸方法について歌唱指導を実現することができる。
なお、上記実施形態においては、プログラムメモリ13に予め格納されているカラオケ情報処理のプログラムをCPU11が実行する装置の発明について説明したが、フレキシブルディスク(FD)、CD、メモリカードなどの外部記憶媒体に記憶されたカラオケ情報処理のプログラム、又は、インターネットなどのネットワークからダウンロードしたカラオケ情報処理のプログラムをワークメモリ14あるいは別途設けたフラッシュROMやハードディスクなどの不揮発性メモリにインストールして、CPU11がそのプログラムを実行する構成も可能である。この場合には、プログラムの発明および記憶媒体の発明を実現できる。
本発明のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを所定の表示手段に表示するステップAと、前記ステップAによって表示される波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示するステップBと、をコンピュータに実行させることを特徴とする。
本発明のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データを所定の表示手段に表示するステップAと、前記入力される曲データに含まれている模範となる歌唱の波形データの周波数成分を分析するステップBと、前記ステップBによって分析された特定の周波数帯域の波形データを強調して前記表示手段に表示するステップCと、をコンピュータに実行させることを特徴とする。
この場合において、前記ステップCは、前記ステップBによって分析された子音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とする。
あるいは、前記ステップCは、前記ステップBによって分析された母音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とすることを特徴とする。
上記いずれかの発明のカラオケ情報処理のプログラムにおいて、前記ステップBによって分析された特定の周波数帯域の波形データを聴覚補正するステップDをさらに含み、前記ステップCは、前記ステップDによって聴覚補正された波形データを前記表示手段に表示することを特徴とする。
本発明のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データを所定の表示手段に表示するステップAと、前記入力される曲データに含まれている模範となる歌唱の波形データの声紋を分析するステップBと、前記ステップBによって分析された声紋の波形データを前記表示手段に表示するステップCと、をコンピュータに実行させることを特徴とする。
この場合において、前記ステップCは、前記ステップBによって分析された声紋の波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示することを特徴とする。
本発明のカラオケ情報処理のプログラムは、入力される曲データに含まれている歌詞データおよび模範となる歌唱の楽音データを所定の表示手段に表示するステップAと、前記曲データに含まれている模範となる歌唱の波形データおよび前記楽音データの中から特定の歌唱状態を抽出するステップBと、前記ステップBによって抽出された特定の歌唱状態に応じたイラスト画像を前記表示手段に表示するステップCと、をコンピュータに実行させることを特徴とする。
1 マイク
2b リモコン装置の表示部
3 本体
3b 本体の表示部
4 スピーカ
11 CPU
13 プログラムメモリ
14 ワークメモリ
15 曲メモリ
16 音源
17 DSP
18 プリアンプ
19 ADコンバータ
20 DAコンバータ
21 メインアンプ
171 A特性フィルタ

Claims (16)

  1. 入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを所定の表示手段に表示する第1の表示制御手段と、
    前記第1の表示制御手段によって表示される波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示する第2の表示制御手段と、
    を備えたことを特徴とするカラオケ装置。
  2. 入力される曲データに含まれている歌詞データを所定の表示手段に表示する第1の表示制御手段と、
    前記入力される曲データに含まれている模範となる歌唱の波形データの周波数成分を分析する周波数分析手段と、
    前記周波数分析手段によって分析された特定の周波数帯域の波形データを強調して前記表示手段に表示する第2の表示制御手段と、
    を備えたことを特徴とするカラオケ装置。
  3. 前記第2の表示制御手段は、前記周波数分析手段によって分析された子音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とする請求項2に記載のカラオケ装置。
  4. 前記第2の表示制御手段は、前記周波数分析手段によって分析された母音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とする請求項2に記載のカラオケ装置。
  5. 前記周波数分析手段によって分析された特定の周波数帯域の波形データを聴覚補正する波形補正手段をさらに備え、前記第2の表示制御手段は、前記波形補正手段によって聴覚補正された波形データを前記表示手段に表示することを特徴とする請求項2ないし4のいずれか1項に記載のカラオケ装置。
  6. 入力される曲データに含まれている歌詞データを所定の表示手段に表示する第1の表示制御手段と、
    前記入力される曲データに含まれている模範となる歌唱の波形データの声紋を分析する声紋分析手段と、
    前記声紋分析手段によって分析された声紋の波形データを前記表示手段に表示する第2の表示制御手段と、
    を備えたことを特徴とするカラオケ装置。
  7. 前記第2の表示制御手段は、前記声紋分析手段によって分析された声紋の波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示することを特徴とする請求項6に記載のカラオケ装置。
  8. 入力される曲データに含まれている歌詞データおよび模範となる歌唱の楽音データを所定の表示手段に表示する第1の表示制御手段と、
    前記曲データに含まれている模範となる歌唱の波形データおよび前記楽音データの中から特定の歌唱状態を抽出する状態抽出手段と、
    前記状態抽出手段によって抽出された特定の歌唱状態に応じたイラスト画像を前記表示手段に表示する第2の表示制御手段と、
    を備えたことを特徴とするカラオケ装置。
  9. 入力される曲データに含まれている歌詞データおよび模範となる歌唱の波形データを所定の表示手段に表示するステップAと、
    前記ステップAによって表示される波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示するステップBと、
    をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。
  10. 入力される曲データに含まれている歌詞データを所定の表示手段に表示するステップAと、
    前記入力される曲データに含まれている模範となる歌唱の波形データの周波数成分を分析するステップBと、
    前記ステップBによって分析された特定の周波数帯域の波形データを強調して前記表示手段に表示するステップCと、
    をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。
  11. 前記ステップCは、前記ステップBによって分析された子音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とする請求項10に記載のカラオケ情報処理のプログラム。
  12. 前記ステップCは、前記ステップBによって分析された母音成分の周波数帯域の波形データを強調して前記表示手段に表示することを特徴とする請求項10に記載のカラオケ情報処理のプログラム。
  13. 前記ステップBによって分析された特定の周波数帯域の波形データを聴覚補正するステップDをさらに含み、前記ステップCは、前記ステップDによって聴覚補正された波形データを前記表示手段に表示することを特徴とする請求項10ないし12のいずれか1項に記載のカラオケ情報処理のプログラム。
  14. 入力される曲データに含まれている歌詞データを所定の表示手段に表示するステップAと、
    前記入力される曲データに含まれている模範となる歌唱の波形データの声紋を分析するステップBと、
    前記ステップBによって分析された声紋の波形データを前記表示手段に表示するステップCと、
    をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。
  15. 前記ステップCは、前記ステップBによって分析された声紋の波形データの振幅の範囲ごとに対応する異なる色を当該波形データに併せて前記表示手段に表示することを特徴とする請求項14に記載のカラオケ情報処理のプログラム。
  16. 入力される曲データに含まれている歌詞データおよび模範となる歌唱の楽音データを所定の表示手段に表示するステップAと、
    前記曲データに含まれている模範となる歌唱の波形データおよび前記楽音データの中から特定の歌唱状態を抽出するステップBと、
    前記ステップBによって抽出された特定の歌唱状態に応じたイラスト画像を前記表示手段に表示するステップCと、
    をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。
JP2010058755A 2010-03-16 2010-03-16 カラオケ装置およびカラオケ情報処理のプログラム Expired - Fee Related JP4973753B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010058755A JP4973753B2 (ja) 2010-03-16 2010-03-16 カラオケ装置およびカラオケ情報処理のプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058755A JP4973753B2 (ja) 2010-03-16 2010-03-16 カラオケ装置およびカラオケ情報処理のプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006085578A Division JP2007264060A (ja) 2006-03-27 2006-03-27 カラオケ装置およびカラオケ情報処理のプログラム

Publications (2)

Publication Number Publication Date
JP2010140058A true JP2010140058A (ja) 2010-06-24
JP4973753B2 JP4973753B2 (ja) 2012-07-11

Family

ID=42350183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058755A Expired - Fee Related JP4973753B2 (ja) 2010-03-16 2010-03-16 カラオケ装置およびカラオケ情報処理のプログラム

Country Status (1)

Country Link
JP (1) JP4973753B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6214196A (ja) * 1985-07-12 1987-01-22 有限会社 ジヨ−シマ商事 自動伴奏装置
JPH04270391A (ja) * 1991-01-16 1992-09-25 Ricos:Kk 音程比較表示装置
JPH08194495A (ja) * 1995-01-17 1996-07-30 Yamaha Corp カラオケ装置
JPH08292784A (ja) * 1995-04-21 1996-11-05 Katsuhiko Nomura カラオケ・レッスンシステム
JP2005286768A (ja) * 2004-03-30 2005-10-13 Brother Ind Ltd 音圧周波数特性調整装置、プログラム、楽曲再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6214196A (ja) * 1985-07-12 1987-01-22 有限会社 ジヨ−シマ商事 自動伴奏装置
JPH04270391A (ja) * 1991-01-16 1992-09-25 Ricos:Kk 音程比較表示装置
JPH08194495A (ja) * 1995-01-17 1996-07-30 Yamaha Corp カラオケ装置
JPH08292784A (ja) * 1995-04-21 1996-11-05 Katsuhiko Nomura カラオケ・レッスンシステム
JP2005286768A (ja) * 2004-03-30 2005-10-13 Brother Ind Ltd 音圧周波数特性調整装置、プログラム、楽曲再生装置

Also Published As

Publication number Publication date
JP4973753B2 (ja) 2012-07-11

Similar Documents

Publication Publication Date Title
KR100949872B1 (ko) 악곡 연습 지원 장치, 악곡 연습 지원 장치의 제어 방법, 악곡 연습 지원 장치를 제어하는 제어 방법을 컴퓨터로 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
JP3598598B2 (ja) カラオケ装置
JP2012098637A (ja) 電子打楽器およびプログラム
JP2007232750A (ja) カラオケ装置、制御方法およびプログラム
JP2015225268A (ja) 電子楽器、発音制御方法及びプログラム
JP4479701B2 (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP2006259471A (ja) 歌唱練習システムおよび歌唱練習システム用プログラム
JP4839967B2 (ja) 指導装置及びプログラム
JP4973753B2 (ja) カラオケ装置およびカラオケ情報処理のプログラム
JP2007264060A (ja) カラオケ装置およびカラオケ情報処理のプログラム
JP6326976B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6070652B2 (ja) リファレンス表示装置およびプログラム
JP2006251697A (ja) カラオケ装置
JP2008040260A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP4134921B2 (ja) カラオケ装置
JP2008040258A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP4501874B2 (ja) 楽曲練習装置
JP4452671B2 (ja) アシスト評価機能を有するカラオケ装置
JP6569255B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6753250B2 (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP2007225916A (ja) オーサリング装置、オーサリング方法およびプログラム
JP2007193151A (ja) 楽音制御装置および楽音制御処理のプログラム
WO2022190502A1 (ja) 音生成装置およびその制御方法、プログラム、電子楽器

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees