JP6075313B2 - プログラム,情報処理装置,及び評価データ生成方法 - Google Patents

プログラム,情報処理装置,及び評価データ生成方法 Download PDF

Info

Publication number
JP6075313B2
JP6075313B2 JP2014060253A JP2014060253A JP6075313B2 JP 6075313 B2 JP6075313 B2 JP 6075313B2 JP 2014060253 A JP2014060253 A JP 2014060253A JP 2014060253 A JP2014060253 A JP 2014060253A JP 6075313 B2 JP6075313 B2 JP 6075313B2
Authority
JP
Japan
Prior art keywords
note
data
music
singing
vocal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014060253A
Other languages
English (en)
Other versions
JP2015184447A (ja
Inventor
典昭 阿瀬見
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014060253A priority Critical patent/JP6075313B2/ja
Publication of JP2015184447A publication Critical patent/JP2015184447A/ja
Application granted granted Critical
Publication of JP6075313B2 publication Critical patent/JP6075313B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、歌唱を評価するための評価データを生成するプログラム、情報処理装置、及び評価データ生成方法に関する。
従来、楽曲の歌唱旋律を歌った歌唱の巧拙を評価する歌唱評価技術が知られている(特許文献1参照)。
この種の歌唱評価技術として、歌唱音声における音高の推移に基づく基準点数に、付加点数を加えた評価点数を算出する技術が提案されている。この種の歌唱評価技術における基準点数は、歌唱旋律を構成する音符ごとに規定された1つの音高を表すリファレンスデータと、歌唱音声における音高とのズレが小さいほど高い点数となるように算出される。また、付加点数は、歌唱音声から検出した歌唱技巧(例えば、しゃくりやこぶしなど)の回数が多いほど高い点数となるように算出される。
特開2007−233013号公報
ところで、人間が歌唱する場合、歌唱音声の音高や音圧は、1つの音符の期間内であっても、一定に保持されず変動する。1つの音符の期間内における歌唱音声の音高や音圧の変動は、歌手ごとに表れる特徴である。このような歌手ごとに表れる特徴を、カラオケ装置などのユーザが表現して歌唱した場合、高い評価とすることが好ましい。
しかしながら、従来の歌唱評価技術では、カラオケ装置などのユーザが、楽曲の歌手特有の特徴を表現して歌唱しても、何ら評価されないという課題があった。
そこで、本発明は、楽曲における歌手特有の特徴を表現して歌唱することを評価可能な評価データを提供することを目的とする。
上記目的を達成するためになされた本発明は、第1取得ステップと、抽出ステップと、第2取得ステップと、特定ステップと、第1決定ステップと、生成ステップとをコンピュータに実行させるプログラムである。
本発明のプログラムにおける第1取得ステップでは、ボーカル音を含む楽曲を表す楽曲データを第1記憶部から取得する。抽出ステップでは、第1取得ステップにより取得された楽曲データから、ボーカル音を表すボーカルデータを抽出する。第2取得ステップでは、楽曲を構成する複数の音符から構成される楽譜データであって、音符ごとの演奏時間である第1時間長と、複数の音符間の時間長である第2時間長とを含む楽譜データを第2記憶部から取得する。
さらに、特定ステップでは、抽出ステップで抽出したボーカルデータと、第2取得ステップで取得した楽譜データの第1時間長及び第2時間長とに基づいて、楽曲における歌唱旋律を構成する音符それぞれに対応するボーカルデータの区間である音符ボーカルデータを特定する。第1決定ステップでは、特定ステップにて特定した音符ボーカルデータに基づいて、音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の音符に対応する区間内での推移を表す特徴変化量を決定する。そして、生成ステップでは、第1決定ステップにより決定された特徴変化量を用いて、歌唱を評価するための評価データを生成する。
このようなプログラムが実行されることで生成される評価データは、音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方が、音符に対応する区間内で推移した特徴変化量を含む。この特徴変化量には、その楽曲を歌唱した人物の歌い方のクセが表れる。
つまり、評価データは、楽曲を歌唱した歌手特有の歌い方の特徴を音符ごとに表したものである。
ここで、例えば、情報処理装置の利用者が、評価データを生成するために用いた楽曲とは異なる楽曲について歌唱した歌声を、評価データを用いて評価する場合を想定する。この場合、利用者が歌唱した楽曲の各音符について、評価データにおける特徴変化量と、歌声から検出した音符それぞれでの振幅または基本周波数の推移との相関が高いほど、情報処理装置の利用者は、歌手特有の歌い方の特徴を表現できていると言える。
したがって、本発明のプログラムによれば、楽曲を歌唱したプロの歌手特有の特徴の表現を評価可能な評価データを生成できる。
楽譜データには、音符の音高が含まれる。この場合、本発明のプログラムにおいては、対応付ステップを、コンピュータにさらに実行させても良い。この対応付ステップでは、第2取得ステップで取得した楽譜データに含まれる音符の音高及び第1時間長と、第1決定ステップで決定された特徴変化量とを、対応する音符ごとに対応付ける。
この場合の本発明のプログラムにおける生成ステップでは、少なくとも、音符の音高と第1時間長との組み合わせが共通である音符を、所定の条件を満たす音符として、所定の条件を満たす音符ごとに特徴変化量の代表値を決定し、その決定した特徴変化量の代表値を含む評価データを生成しても良い。
このようなプログラムによれば、所定の条件を満たす音符ごとに決定した特徴変化量の代表値を含むデータを、評価データとして生成することができる。このような評価データによれば、特徴変化量が、所定の条件を満たす音符ごとに代表値化されているため、データ量を低減できる。なお、ここで言う代表値には、平均値や、最頻値、中央値を含む。
また、楽譜データには、楽曲の歌唱旋律を構成する音符に割り当てられた歌詞の音節を表す歌詞情報が含まれる。この場合の対応付ステップでは、第2取得ステップで取得した楽譜データに含まれる音符の音高、第1時間長、及び歌詞情報と、第1決定ステップで決定された特徴変化量とを、対応する音符ごとに対応付けても良い。そして、生成ステップでは、音符の音高と、第1時間長と、歌詞情報との組み合わせが共通である音符を、所定の条件を満たす音符として、所定の条件を満たす音符ごとに特徴変化量の代表値を決定しても良い。
このようなプログラムによれば、音符の音高と、第1時間長と、歌詞情報とが共通である音符を、所定の条件を満たす音符として、音符に対応する特徴変化量の代表値を、当該所定の条件を満たす音符ごとに決定できる。
ここで、楽曲においては、同一種類の音符に対して異なる音節が歌詞として割り当てられていることがある。この場合、楽曲を歌唱したプロの歌手は、音符と音節との組み合わせによって、歌唱の方法が異なる可能性が高い。つまり、音高と第1時間長との組み合わせによって決まる音符が同一であっても、その音符に割り当てられた歌詞の音節が異なる場合には、音符ボーカルデータにおける特徴変化量は、異なる可能性が高い。
このため、本発明のプログラムのように、音高と第1時間長とに加えて歌詞情報が共通である音符ごとに決定した特徴変化量の代表値を評価データに含めれば、歌手の歌い方のより細かな特徴の表現を評価可能な評価データを生成できる。
そして、本発明における対応付ステップでは、第2取得ステップで取得した楽譜データに含まれる音符の音高、第1時間長、及び第2時間長と、第1決定ステップで決定された特徴変化量とを、対応する音符ごとに対応付けても良い。この場合の生成ステップでは、楽曲における時間軸に沿って連続する少なくとも2つの音符の組み合わせである音符群のうち、少なくとも、音符の音高と第1時間長と第2時間長との組み合わせが共通である音符群を所定の条件を満たす音符として、所定の条件を満たす音符ごとに特徴変化量の代表値を決定しても良い。
このようなプログラムによれば、音符群ごとに決定した特徴変化量の代表値を含むデータを評価データとして生成できる。
ここで、楽曲における音符のうちの1つを対象音符と称し、楽曲における時間軸に沿って対象音符の直前の音符を前音符と称し、楽曲における時間軸に沿って対象音符の直後の音符を後音符と称す。
そして、前音符から対象音符へとボーカルデータが切り替わった場合や、対象音符から後音符へとボーカルデータが切り替わった場合には、それらの音符の組み合わせごとに、音符ボーカルデータでの基本周波数の推移や音圧の推移が異なる。つまり、音符群が異なることによって、特徴変化量には、歌手特有の歌い方に細かな特徴が表れる。
このため、代表値を求める対象を共通の音符群ごととする本発明のプログラムによれば、情報処理装置の利用者が歌唱した歌声について、歌手特有のより細かな特徴の表現を評価可能な評価データを生成できる。
ところで、本発明における生成ステップよれば、楽曲を歌唱した歌手ごとに評価データを生成できる。
また、本発明における第1決定ステップでは、設定ステップと、変化量決定ステップとをコンピュータに実行させても良い。設定ステップでは、音符ボーカルデータに、少なくとも2つ以上の分析窓を時間軸に沿って連続するように設定する。変化量決定ステップでは、設定ステップにて音符ボーカルデータに設定された分析窓それぞれにおける音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の値を決定し、その決定した分析窓それぞれにおける音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の値を時間軸に沿って配置することで、特徴変化量を決定する。
本発明のプログラムによれば、音符ボーカルデータにおける分析窓での振幅及び基本周波数の少なくともいずれか一方の値を決定し、その決定した分析窓ごとの値の推移を特徴変化量として決定できる。
この結果、本発明のプログラムにおいて、例えば、分析窓の個数を増加すれば、音符それぞれにおける歌手特有の歌い方のより詳細な内容を評価データとして生成できる。
本発明のプログラムにおいては、歌唱取得ステップと、第2特定ステップと、第2決定ステップと、評価決定ステップとをコンピュータにさらに実行させても良い。
歌唱取得ステップでは、所定の楽曲の演奏中に入力された音声を表す歌唱データを取得する。第2特定ステップでは、歌唱取得ステップにより取得された歌唱データに基づいて、所定の楽曲の歌唱旋律を構成する対象音符に対応する歌唱データの区間である音符歌唱データを特定する。
そして、第2決定ステップでは、第2特定ステップにて特定した音符歌唱データに基づいて、音符歌唱データの振幅及び基本周波数の少なくともいずれか一方の対象音符に対応する区間内での推移を表す歌唱変化量を決定する。評価決定ステップでは、第2決定ステップで決定された歌唱変化量と、生成ステップで生成された特徴変化量との相関値を決定し、その決定した相関値が高いほど高い評価とする。
このようなプログラムによれば、楽曲を歌唱したプロの歌手特有の歌い方における特徴の表現を評価できる。
本発明は、第1取得手段と、抽出手段と、第2取得手段と、特定手段と、決定手段と、生成手段とを備えた情報処理装置としてなされていても良い。
本発明における第1取得手段は、楽曲データを第1記憶部から取得する。抽出手段は、第1取得手段により取得された楽曲データからボーカルデータを抽出する。第2取得手段は、楽譜データを第2記憶部から取得する。特定手段は、抽出手段で抽出したボーカルデータと、第2取得手段で取得した楽譜データの第1時間長及び第2時間長とに基づいて、音符ボーカルデータを特定する。そして、決定手段は、特定手段にて特定した音符ボーカルデータに基づいて、特徴変化量を決定する。生成手段は、決定手段により決定された特徴変化量を用いて、評価データを生成する。
このような情報処理装置によれば、本発明のプログラムを実行した場合と同様の効果を得ることができる。
なお、本発明は、第1取得手順と、抽出手順と、第2取得手順と、特定手順と、決定手順と、生成手順とを情報処理装置が実行する評価データ生成方法としてなされていても良い。
第1取得手順では、第1記憶部から楽曲データを情報処理装置が取得する。抽出手順では、第1取得手順により取得された楽曲データからボーカルデータを情報処理装置が抽出する。第2取得手順では、第2記憶部から楽譜データを情報処理装置が取得する。特定手順では、抽出手順で抽出したボーカルデータと、第2取得手順で取得した楽譜データの第1時間長及び第2時間長とに基づいて、音符ボーカルデータを情報処理装置が特定する。そして、決定手順では、特定手順にて特定した音符ボーカルデータに基づいて、特徴変化量を情報処理装置が決定する。生成手順では、決定手順により決定された特徴変化量を用いて、評価データを情報処理装置が生成する。
このような評価データ生成方法によれば、本発明のプログラムを実行した場合と同様の効果を得ることができる。
すなわち、本発明としての情報処理装置や評価データ生成方法によって生成された評価データを用いて歌声を評価すれば、その評価結果を、楽曲を歌唱したプロの歌手特有の歌い方における特徴の表現を評価したものとすることができる。
本発明が適用された情報処理装置を備えたシステムの概略構成を示すブロック図である。 情報処理装置が実行する特徴量算出処理の処理手順を示すフローチャートである。 特徴変化量の概要を例示する図である。 基準特徴量の概要を例示する図である。 情報処理サーバが実行する採点基準生成処理の処理手順を示すフローチャートである。 採点基準の概要を例示する図である。 カラオケ装置が実行するカラオケ採点処理の処理手順を示すフローチャートである。
以下に本発明の実施形態を図面と共に説明する。
〈システム構成〉
図1に示すカラオケ装置30は、ユーザが指定した楽曲を演奏すると共に、その楽曲の演奏中にユーザが歌唱した歌唱音声を評価する装置である。このカラオケ装置30において実行される評価は、指定した楽曲において表現されるプロの歌手の歌い方における特徴を、ユーザが歌唱音声によって表現している度合いである。
このような評価を実現するために構築されるシステム1は、情報処理装置3と、情報処理サーバ10と、カラオケ装置30とを備えている。
情報処理装置3は、楽曲ごとに用意された楽曲データWD及びMIDI楽曲MDに基づいて、基準特徴量SFを算出する。ここで言う基準特徴量SFとは、楽曲を歌唱する歌手ごとの歌い方における特徴を表すデータであり、特許請求の範囲における評価データの一例である。
情報処理サーバ10は、少なくとも、MIDI楽曲MD及び情報処理装置3にて算出された基準特徴量SFを記憶部14に記憶する。さらに、情報処理サーバ10は、基準特徴量SF及びMIDI楽曲MDに基づいて採点基準MSを生成する。ここで言う採点基準MSとは、カラオケ装置30が実行するカラオケ採点処理に用いるデータであり、各楽曲において表現されるプロの歌手の歌い方における特徴を表すデータである。
カラオケ装置30は、ユーザが指定した楽曲に対応するMIDI楽曲MD及び採点基準MSを情報処理サーバ10から取得し、そのMIDI楽曲MDに基づいて楽曲を演奏すると共に、その楽曲の演奏中に入力された音声を評価する。
<楽曲データ>
次に、楽曲データWDは、特定の楽曲ごとに予め用意されたものであり、楽曲に関する情報が記述された楽曲管理情報と、楽曲の演奏音を表す原盤波形データとを備えている。楽曲管理情報には、楽曲を識別する楽曲識別情報(以下、楽曲IDと称す)と、楽曲を歌唱したプロの歌手を識別する歌手識別情報(以下、歌手IDと称す)とが含まれる。
本実施形態の原盤波形データは、複数の楽器の演奏音と、歌唱旋律をプロの歌手が歌唱したボーカル音とを含む音声データである。この音声データは、非圧縮音声ファイルフォーマットの音声ファイルによって構成されたデータであっても良いし、音声圧縮フォーマットの音声ファイルによって構成されたデータであっても良い。
なお、以下では、原盤波形データに含まれる演奏音を表す音声波形データを伴奏データと称し、原盤波形データに含まれるボーカル音を表す音声波形データをボーカルデータと称す。
本実施形態の伴奏データに含まれる楽器の演奏音としては、打楽器(例えば、ドラム,太鼓,シンバルなど)の演奏音,弦楽器(例えば、ギター,ベースなど)の演奏音,打弦楽器(例えば、ピアノ)の演奏音,及び管楽器(例えば、トランペットやクラリネットなど)の演奏音がある。一般的な楽曲においては、通常、打楽器やベースがリズム楽器として用いられる。
<MIDI楽曲>
MIDI楽曲MDは、楽曲ごとに予め用意されたものであり、演奏データと、歌詞データとを有している。
このうち、演奏データは、周知のMIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲の楽譜を表したデータである。この演奏データは、楽曲IDと、歌手IDと、当該楽曲にて用いられる楽器ごとの楽譜を表す楽譜トラックとを少なくとも有している。
そして、楽譜トラックには、MIDI音源から出力される個々の演奏音について、少なくとも、音高(いわゆるノートナンバー)と、MIDI音源が演奏音を出力する期間(以下、音符長と称す)とが規定されている。楽譜トラックにおける音符長は、当該演奏音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。
すなわち、楽譜トラックでは、ノートナンバーと、ノートオンタイミング及びノートオフタイミングによって表される音符長とによって、1つの音符NOが規定される。そして、楽譜トラックは、音符NOが演奏順に配置されることによって、1つの楽譜として機能する。なお、楽譜トラックは、例えば、鍵盤楽器、弦楽器、打楽器、及び管楽器などの楽器ごとに用意されている。このうち、本実施形態では、特定の楽器(例えば、ヴィブラフォン)が、楽曲において歌唱旋律を担当する楽器として規定されている。
一方、歌詞データは、楽曲の歌詞に関するデータであり、歌詞テロップデータと、歌詞プロパティデータと、歌詞出力データとを備えている。歌詞テロップデータは、楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す。歌詞プロパティデータは、歌詞構成文字それぞれの音節及びその音節の母音を表す。歌詞出力データは、歌詞構成文字の出力タイミングである歌詞出力タイミングを、演奏データの演奏と対応付けるタイミング対応関係が規定されたデータである。
具体的に、本実施形態におけるタイミング対応関係は、演奏データの演奏を開始するタイミングに、歌詞テロップデータの出力を開始するタイミングが対応付けられている。さらに、タイミング対応関係では、楽曲の時間軸に沿った各歌詞構成文字の歌詞出力タイミングが、演奏データの演奏開始からの経過時間によって規定されている。これにより、楽譜トラックに規定された個々の演奏音(即ち、音符NO)と、歌詞構成文字それぞれとが対応付けられる。
〈情報処理装置〉
情報処理装置3は、記憶部5と、制御部6とを備えた周知の情報処理装置(例えば、パーソナルコンピュータ(PC))である。
記憶部5は、記憶内容を読み書き可能に構成された周知の記憶装置である。記憶部5には、少なくとも1つの楽曲データWDと、少なくとも1つのMIDI楽曲MDとが、共通する楽曲ごとに対応付けられて記憶されている。なお、図1に示す符号「n」は、情報処理装置3の記憶部5に記憶されている楽曲データWD及びMIDI楽曲MDの個数を表し、1以上の自然数である。
制御部6は、ROM7,RAM8,CPU9を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM7は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを記憶する。RAM8は、処理プログラムやデータを一時的に記憶する。CPU9は、ROM7やRAM8に記憶された処理プログラムに従って各処理(各種演算)を実行する。
本実施形態のROM7には、記憶部5に記憶されている楽曲データWD及びMIDI楽曲MDに基づいて、基準特徴量SFを算出する特徴量算出処理を、制御部6が実行するための処理プログラムが記憶されている。
〈情報処理サーバ〉
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
このうち、通信部12は、通信網を介して、情報処理サーバ10が外部との間で通信を行う。すなわち、情報処理サーバ10は、通信網を介してカラオケ装置30と接続されている。なお、ここで言う通信網は、有線による通信網であっても良いし、無線による通信網であっても良い。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、少なくとも、複数のMIDI楽曲MDが記憶される。この記憶部14に記憶されるMIDI楽曲MDには、情報処理装置3の記憶部5に記憶されたMIDI楽曲MDの楽曲と同一の楽曲に加えて、情報処理装置3の記憶部5に記憶されていないMIDI楽曲MDの楽曲を含む。なお、図1に示す符号「m」は、情報処理サーバ10の記憶部14に記憶されているMIDI楽曲MDの個数を表し、2以上の自然数である。
さらに、記憶部14には、情報処理装置3が特徴量算出処理を実行することで生成された基準特徴量SFが記憶される。また、記憶部14には、情報処理装置3にて生成された採点基準MSが記憶される。
制御部16は、ROM18,RAM20,CPU22を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM18,RAM20,CPU22は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
なお、本実施形態のROM18には、記憶部14に記憶された基準特徴量SF及びMIDI楽曲MDに基づいて採点基準MSを生成する採点基準算出処理を、制御部16が実行するための処理プログラムが記憶されている。
〈カラオケ装置〉
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
通信部32は、通信網を介して、カラオケ装置30が外部との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
楽曲再生部36は、情報処理サーバ10からダウンロードしたMIDI楽曲MDに基づく楽曲の演奏を実行する。楽曲再生部36は、例えば、MIDI音源である。音声制御部40は、音声の入出力を制御するデバイスであり、出力部42と、マイク入力部44とを備えている。
マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、ユーザの歌唱音を取得する。出力部42にはスピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の音源信号、マイク入力部44からの歌唱音の音源信号をスピーカ60に出力する。スピーカ60は、出力部42から出力される音源信号を音に換えて出力する。
映像制御部46は、制御部50から送られてくる映像データに基づく映像の出力を行う。映像制御部46には、映像の表示を行う表示部64が接続されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。ROM52,RAM54,CPU56は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
そして、ROM52には、カラオケ採点処理を制御部50が実行するための処理プログラムが記憶されている。カラオケ採点処理は、ユーザによって指定された楽曲を演奏すると共に、ユーザが指定した楽曲において表現されるプロの歌手の歌い方における特徴を、演奏期間中にマイク62を介して入力された音声によって表現している度合いを評価する。
〈特徴量算出処理〉
次に、情報処理装置3の制御部6が実行する特徴量算出処理について説明する。
この特徴量算出処理は、処理プログラムを起動するための起動指令が、情報処理装置3の入力受付部(図示せず)を介して入力されたタイミングで起動される。
そして、特徴量算出処理では、図2に示すように、起動されると、まず、制御部6は、情報処理装置3の入力受付部(図示せず)を介して入力された歌手IDを取得する(S105)。続いて、制御部6は、情報処理装置3の記憶部5に記憶されている全ての楽曲データWDの中から、S105にて取得した歌手IDが対応付けられた一つの楽曲データWDを取得する(S110)。
さらに、特徴量算出処理では、制御部6は、情報処理装置3の記憶部5に記憶されている全てのMIDI楽曲MDの中から、S110で取得した楽曲データWDと同一の楽曲IDが対応付けられた一つのMIDI楽曲MDを取得する(S120)。すなわち、S110及びS120では、制御部6は、同一の楽曲に対する楽曲データWD及びMIDI楽曲MDを取得する。
続いて、制御部6は、S110にて取得した楽曲データWD(以下、「取得楽曲データ」と称す)における各音符に対応する各音の再生時間に、S120で取得したMIDI楽曲MD(以下、「取得MIDI」と称す)を構成する各音符の演奏タイミングが一致するように、その取得MIDIを調整する(S130)。このS130における取得MIDIを調整する手法として、周知の手法(例えば、特許第5310677号に記載の手法)を用いることが考えられる。特許第5310677号に記載の手法では、具体的には、制御部6は、取得MIDIをレンダリングし、その取得MIDIのレンダリング結果と取得楽曲データの原盤波形データとの双方を規定時間単位でスペクトルデータに変換する。そして、双方のスペクトルデータ上の時間が同期するように、各演奏音の演奏開始タイミング及び演奏終了タイミングを修正する。なお、スペクトルデータ上の時間が同期するように調整する際には、DPマッチングを用いても良い。
特徴量算出処理では、制御部6は、取得楽曲データWDに含まれる原盤波形データを取得する(S140)。続いて、制御部6は、S140にて取得した原盤波形データから、ボーカルデータと伴奏データとを分離して抽出する(S150)。このS150において制御部6が実行する、伴奏データとボーカルデータとの分離手法として、周知の手法(例えば、特開2008−134606に記載された“PreFEst”)を使って推定された音高および調波成分を利用する手法が考えられる。なお、PreFEstとは、原盤波形データにおいて最も優勢な音声波形をボーカルデータとみなしてボーカルの音高(即ち、基本周波数)および調波成分の大きさを推定する手法である。
さらに、制御部6は、S130にて時間調整が実施されたMIDI楽曲MD(以下、「調整済MIDI」と称す)と、S150で抽出したボーカルデータとに基づいて、音符ボーカルVo(a,i)を特定する(S160)。音符ボーカルVo(a,i)とは、ボーカルデータにおいて、歌唱旋律を構成する各音符NO(a,i)に対応する区間である。S160においては、制御部6は、S150で抽出したボーカルデータに、調整済MIDIにおける演奏開始タイミングnnt(a,i)及び演奏終了タイミングnft(a,i)を照合することで、音符ボーカルVo(a,i)を特定する。なお、符号aは、楽曲を識別する符号であり、符号iは、楽曲における歌唱旋律の音符NOを識別する符号である。
さらに、特徴量算出処理では、制御部6は、音符ボーカルVo(a,i)のそれぞれに、複数の分析窓を設定する(S170)。このS170での分析窓の設定では、制御部6は、時間軸に沿って複数個の分析窓が互いに隣接するように設定する。この分析窓は、音符NO(a,i)の時間長よりも短い時間長を有した区間である。また、以下では、1つの音符ボーカルVo(a,i)に設定される分析窓の個数を「L」とする。
続いて、制御部6は、音符ボーカルVo(a,i)における振幅の音符NO(a,i)に対応する区間内での推移を表す歌唱振幅ベクトルA(a,i)を算出する(S180)。S180においては、制御部6は、まず、図3(A)に示すように、S170にて設定された分析窓それぞれにおける音符ボーカルVo(a,i)の振幅値を算出する。そして、制御部6は、それらの分析窓ごとに算出された振幅値を時間軸に沿って配置することで、振幅値の配列を生成し、その振幅値の配列を歌唱振幅ベクトルA(a,i)として算出する。さらに、制御部は、歌唱振幅ベクトルA(a,i)に、音符ボーカルVo(a,i)に設定された分析窓の個数Lを対応付ける。なお、S180において算出する分析窓ごとの振幅は、例えば、各分析窓内での音符ボーカルVo(a,i)の離散値を、相加平均したものであっても良い。
さらに、特徴量算出処理では、制御部6は、音符ボーカルVo(a,i)における基本周波数の音符NO(a,i)に対応する区間内での推移を表す歌唱音高ベクトルF(a,i)を算出する(S190)。このS190では、制御部6は、まず、図3(B)に示すように、S170にて設定された分析窓それぞれにおける音符ボーカルVo(a,i)の基本周波数f0を算出する。そして、制御部6は、それらの分析窓ごとに算出された基本周波数f0を時間軸に沿って配置することで、基本周波数f0の配列を生成し、その基本周波数f0の配列を歌唱音高ベクトルF(a,i)として算出する。さらに、制御部6は、音符ボーカルVo(a,i)に設定された分析窓の数Lを、歌唱音高ベクトルF(a,i)に対応付ける。本実施形態における基本周波数f0の算出手法として、種種の周知の手法が考えられる。一例として、S190では、制御部6は、音符ボーカルVo(a,i)に設定された分析窓それぞれについて、周波数解析(例えば、DFT)を実施し、自己相関の結果、最も強い周波数成分を基本周波数f0とすることが考えられる。
このS180にて算出される歌唱振幅ベクトルA及びS190にて算出される歌唱音高ベクトルFのうちの少なくともいずれか一方が、特許請求の範囲に記載の特徴変化量の一例である。
さらに、特徴量算出処理では、制御部6は、各音符ボーカルVo(a,i)での複数の歌唱技巧についての評価を表す技巧特徴量S(a,i)を決定する(S200)。ここで言う複数の歌唱技巧には、少なくとも“ビブラート”,“ため”,“しゃくり”,“フォール”,“こぶし”を含む。
このうち、“ビブラート”についての技巧特徴量(以下、「ビブラート特徴量」と称す)vibの算出では、制御部6は、まず、音符ボーカルVo(a,i)それぞれについて周波数解析(DFT)を実施する。そして、制御部6は、下記(1)式に従って、ビブラート特徴量vibを算出する。
vib(a,i)=vib_per(a,i)×vip_dep(a,i) (1)
ただし、上記(1)式におけるvib_per(a,i)は、各音符ボーカルVo(a,i)におけるスペクトルピークの突出精度を表す指標である。このvib_perは、周波数解析結果(即ち、振幅スペクトル)のピーク値を、周波数解析結果の平均値で除すことで求めれば良い。また、上記(1)式におけるvip_depは、各音符ボーカルVo(a,i)の標準偏差である。
“ため”についての技巧特徴量(以下、「ため特徴量」と称す)tt(a,i)の算出では、制御部6は、まず、伴奏データにおける非調波成分の音声波形をリズム楽器の演奏音波形として抽出する。非調波成分の抽出手法は、周知の手法を用いれば良い。具体的な手法の例として、非調波成分の音声波形を表すフィルタとして予め用意されたフィルタに伴奏音データを通過させることが考えられる。
さらに、ため特徴量tt(a,i)の算出では、制御部6は、リズム楽器の演奏音波形において、音圧が規定値以上となるタイミングを拍の位置として推定する。続いて、制御部6は、楽曲の歌唱旋律を構成する音符NOの中で、音価が最も短い音符(以下、「最短音符」と称す)を抽出する。そして、制御部6は、抽出した最短音符の音価にて拍の位置の間隔を除すことで、発声タイミングを特定する。ここで言う発声タイミングとは、ボーカルデータにおいて、各音符NO(a,i)に対して歌唱を開始する可能性のあるタイミングである。
ため特徴量tt(a,i)の算出では、さらに、制御部6は、規定条件を満たす発声タイミングを特定する。ここで言う規定条件を満たすとは、各音符(a,i)の演奏開始タイミングnnt(a,i)よりも遅い発声タイミングであって、かつ、演奏開始タイミングnnt(a,i)から減算した値の絶対値が最小となる発声タイミングである。そして、特定した発声タイミングを演奏開始タイミングnnt(a,i)から減算した時間長を、ため特徴量tt(a,i)として算出する。
“しゃくり”についての技巧特徴量(以下、「しゃくり特徴量」と称す)rise(a,i)の算出では、制御部6は、まず、ボーカルデータの音高時間変化を微分した微分変化を算出する。続いて、制御部6は、各音符NO(a,i)の演奏開始タイミングnnt(a,i)以前で、微分変化が時間軸に沿って正の値となったタイミングを特定する。さらに、制御部6は、その特定した各タイミングから演奏開始タイミングnnt(a,i)までの区間におけるボーカルデータの音高時間変化と予め規定された模範曲線との相互相関値を、しゃくり特徴量rise(a,i)として算出する。
“フォール”についての技巧特徴量(以下、「フォール特徴量」と称す)fall(a,i)の算出では、制御部6は、各音符NO(a,i)の演奏終了タイミングnft(a,i)以降で、微分変化が時間軸に沿って正の値となった最初のタイミングを特定する。さらに、制御部6は、歌唱旋律を構成する各音符NO(a,i)の演奏終了タイミングnft(a,i)から、その特定したタイミングまでの区間におけるボーカルデータの音高時間変化と、予め規定された模範曲線との相互相関値を、フォール特徴量fall(a,i)として算出する。
“こぶし”についての技巧特徴量(以下、「こぶし特徴量」と称す)kob(a,i)の算出では、制御部6は、まず、こぶし区間を特定する。ここで言うこぶし区間とは、複数の音高に渡る各音符NOを同一母音で音高を変化させながら歌っている区間である。
このため、こぶし特徴量kob(a,i)の算出では、制御部6は、同一母音で発声された区間(以下、「同一母音区間」と称す)を特定する。この同一母音区間の特定方法として、各音符ボーカルVo(a,i)のメル周波数ケプストラム(MFCC)の平均値の類似性を相互相関で算出し、相互相関値が閾値以上である音符ボーカルVoを同一母音区間として特定する方法を用いる。
また、制御部6は、同一母音区間において、設定条件を満たす同一母音区間だけをこぶし区間として特定する。ここで言う設定条件を満たすとは、時間軸に沿って隣接する音符ボーカルVo(a,i−1)に対応する音符NO(a,i−1)の演奏終了タイミングnft(a,i−1)と演奏開始タイミングnnt(a,i)との時間間隔が閾値以下であり、かつ、隣接する音符ボーカルVoの音高が全て異なることである。
そして、こぶし特徴量kob(a,i)の算出では、制御部6は、こぶし区間におけるボーカルデータからクロマベクトルを算出する。さらに、制御部6は、同こぶし区間における伴奏データのクロマベクトルを算出し、ボーカルデータのクロマベクトルとの相互相関値をこぶし特徴量kob(a,i)として算出する。
さらに、特徴量算出処理では、制御部6は、各音符ボーカルVo(a,i)に対応する音符NO(a,i)の音符プロパティp(a,i)を特定する(S210)。本実施形態のS210では、具体的には、制御部6は、取得MIDIから、その取得MIDIに規定された各音符NO(a,i)の情報を音符プロパティp(a,i)として抽出して特定する。
ここで言う音符プロパティp(a,i)には、対象音符属性と、前音符属性と、後音符属性とを含む。
対象音符属性とは、音符NO(a,i)の属性を表す情報である。この対象音符属性には、音符NO(a,i)の音階(音高)、音符長(第1時間長の一例)、歌詞の音節、及び歌詞の母音を含む。また、前音符属性とは、時間軸に沿って音符NO(a,i)の一つ前の音符(以下、前音符と称す)NO(a,i−1)の属性を表す情報である。この前音符属性には、前音符NO(a,i)の音階(音高)、音符長、歌詞の音節、及び前音符NO(a,i−1)と音符NO(a,i)との間の時間長(即ち、無音期間)を含む。
さらに、後音符属性とは、時間軸に沿って対象音符NO(a,i)の一つ後の音符(以下、後音符と称す)NO(a,i+1)の属性を表す情報である。この後音符属性には、音階(音高)、音符長、歌詞の音節、及び音符NO(a,i)と後音符NO(a,i+1)との間の時間長(即ち、無音期間,第2時間長の一例)を含む。
なお、音符プロパティp(a,i)における音符長、及び音符間の時間長は、予め規定された階級へと量子化されたものでも良い。
特徴量算出処理では、続いて、制御部6は、S210で特定した各音符NO(a,i)の音符プロパティp(a,i)を、対応する音符NO(a,i)の歌唱振幅ベクトルA(a,i)、歌唱音高ベクトルF(a,i)、及び技巧特徴量S(a,i)と対応付ける(S220)。
さらに、特徴量算出処理では、制御部6は、S105にて取得した歌手IDが対応付けられた楽曲のうち、予め設定された設定条件を満たす全楽曲について、S110からS220のステップを完了したか否かを判定する(S230)。ここで言う設定条件とは、S105にて取得した歌手IDが対応付けられ、楽曲データWDとMIDI楽曲MDとの双方が用意されていることである。
このS230での判定の結果、設定条件を満たす全楽曲について、S110からS220のステップを完了していなければ(S230:NO)、制御部6は、特徴量算出処理をS110へと戻す。そして、制御部6は、S105にて指定された歌手IDが対応付けられた楽曲データWDの中から、新たな楽曲データWDを取得し(S110)、さらに、その楽曲データWDに対応するMIDI楽曲MDを取得して(S120)、S130からS230のステップを実行する。
一方、S230での判定の結果、全楽曲について、S110からS220のステップを完了していれば(S230:YES)、制御部6は、特徴量算出処理をS240へと移行させる。
そのS240では、制御部6は、歌唱振幅ベクトルA(a,i)、歌唱音高ベクトルF(a,i)、及び技巧特徴量S(a,i)のそれぞれについて、対応付けられた音符プロパティpが共通するものごとに代表値を算出する。
すなわち、本実施形態のS240では、制御部6は、対象音符属性と前音符属性と後音符属性との全てが共通する音符NOごとに、それらの属性が共通する各音符NOにおける歌唱振幅ベクトルA及び分析窓の個数Lの相加平均を、歌唱振幅ベクトルA及び分析窓の代表値として算出する。
また、制御部6は、対象音符属性と前音符属性と後音符属性との全てが共通する音符NOごとに、それらの属性が共通する音符NOにおける歌唱音高ベクトルF及び分析窓の個数Lの相加平均を、歌唱音高ベクトルF及び分析窓の代表値として算出する。
また、制御部6は、対象音符属性と前音符属性と後音符属性との全てが共通する音符NOごとに、それらの属性が共通する音符NOにおける技巧特徴量pそれぞれの相加平均を、技巧特徴量Sの代表値として算出する。
このS240にて代表値として算出する相加平均は、歌唱振幅ベクトルA(a,i)、歌唱音高ベクトルF(a,i)、及び技巧特徴量S(a,i)を算出した全ての楽曲の範囲内で実施する。なお、S240において算出する代表値は、相加平均の結果に限るものではなく、中央値や最頻値であっても良い。
続いて、制御部6は、S240にて算出された歌唱振幅ベクトルA、歌唱音高ベクトルF、分析窓の個数L、及び技巧特徴量Sのそれぞれの代表値を、対応する音符プロパティp及び歌手IDと対応付けることで、基準特徴量SFを生成して記憶部5に記憶する(S250)。
その後、制御部6は、本特徴量算出処理を終了する。
つまり、特徴量算出処理では、歌手の歌い方における特徴を表す基準特徴量SFを歌手ごとに生成する。この特徴量算出処理にて生成される基準特徴量SFは、図4に示すように、歌手の歌手IDと、共通する音符プロパティpにおける歌唱振幅ベクトルA、歌唱音高ベクトルF、及び技巧特徴量Sのそれぞれの代表値と、その共通する音符プロパティpが対応付けられたものである。
なお、情報処理装置3の制御部6が特徴量算出処理を実行することで生成される基準特徴量SFは、可搬型の記憶媒体を用いて情報処理サーバ10の記憶部14に記憶されても良い。情報処理装置3と情報処理サーバ10とが通信網を介して接続されている場合には、情報処理装置3の記憶部5に記憶された基準特徴量SFは、通信網を介して転送されることで、情報処理サーバ10の記憶部14に記憶されても良い。
<採点基準生成処理>
次に、情報処理サーバ10の制御部16が実行する採点基準生成処理について説明する。
この採点基準生成処理では、起動されると、図5に示すように、制御部16は、記憶部14に記憶されている全てのMIDI楽曲MDの中から1つのMIDI楽曲MDを取得する(S310)。このS310にて制御部16が取得する1つのMIDI楽曲MDは、カラオケ採点処理のS510(詳しくは後述)にて指定された楽曲に対応するMIDI楽曲MDであっても良いし、情報処理サーバ10に接続された入力装置(図示せず)を介して指定された楽曲に対応するMIDI楽曲MDであっても良い。
続いて、制御部16は、S310にて取得したMIDI楽曲MDを分析し、そのMIDI楽曲MDにおける歌唱旋律を構成する各音符NO(b,i)の音符プロパティp(b,i)を特定する(S320)。ここでの符号bは、S310にて取得したMIDI楽曲MDに対応する楽曲を識別する符号である。
そして、採点基準生成処理では、制御部16は、S310にて取得したMIDI楽曲MDに含まれる歌手IDと一致する歌手IDが対応付けられた基準特徴量SFを、記憶部14から取得する(S330)。続いて、制御部16は、S320での分析によって特定された各音符NO(b,i)に、S320にて取得し、かつ特定の条件を満たす歌唱振幅ベクトルA、歌唱音高ベクトルF、分析窓の個数L、及び技巧特徴量Sのそれぞれの代表値を割り当てることで、採点基準MSを生成する(S340)。ここで言う特定の条件とは、各音符NO(b,i)における音符プロパティp(b,i)と一致する音符プロパティp(b,i)が対応付けられていることである。
なお、基準特徴量SFの中に、特定の条件を満たす基準特徴量SFが存在しない場合も考えられる。この場合のS340では、制御部16は、音符NO(b,i)の音符プロパティp(b,i)に近接する音符プロパティpが対応付けられた歌唱振幅ベクトルA、歌唱音高ベクトルF、分析窓の個数L、及び技巧特徴量Sのそれぞれの代表値を、その音符NO(b,i)に割り当てれば良い。ここで言う近接する音符プロパティpとは、例えば、音階が一音違う、音符長が1階級違うことなどである。また、上記の方法とは別に、制御部16は、時間及び周波数の2つの軸について、両隣の2つの音符NO(b,i−1),NO(b,i+1)に対応する歌唱振幅ベクトルA、歌唱音高ベクトルF、分析窓の個数L、及び技巧特徴量Sのそれぞれの代表値を平均した値を、その音符NO(b,i)に割り当てても良い。
さらに、S340では、制御部16は、生成した採点基準MSを記憶部14に記憶する。
その後、本採点基準生成処理を終了する。
つまり、採点基準生成処理では、図6に示すように、MIDI楽曲MDにおける歌唱旋律を構成する各音符NO(b,i)に、その音符NO(b,i)の音符プロパティpと共通する音符プロパティpが対応付けられた歌唱振幅ベクトルA、歌唱音高ベクトルF、及び技巧特徴量Sのそれぞれの代表値を割り当てる。これにより、情報処理サーバ10の制御部16は、採点基準MSを生成する。
<カラオケ採点処理>
次に、カラオケ装置30の制御部50が実行するカラオケ採点処理について説明する。
このカラオケ採点処理は、カラオケ採点処理を実行するための処理プログラムを起動する指令が入力されると起動される。
そして、カラオケ採点処理では、起動されると、図7に示すように、制御部50は、まず、入力受付部34を介して指定された楽曲に対応するMIDI楽曲MDを、情報処理サーバ10の記憶部14から取得する(S510)。続いて、制御部50は、S510にて取得したMIDI楽曲MDを演奏する(S520)。具体的にS530では、制御部50は、楽曲再生部36にMIDI楽曲MDを出力し、そのMIDI楽曲MDを取得した楽曲再生部36は、楽曲の演奏を行う。そして、楽曲再生部36によって演奏された楽曲の音源信号が、出力部42を介してスピーカ60へと出力される。すると、スピーカ60は、音源信号を音に換えて出力する。
さらに、カラオケ採点処理では、制御部50は、マイク62及びマイク入力部44を介して入力された音声を歌唱データとして取得する(S530)。そして、制御部50は、S530にて取得した歌唱データを記憶部38に記憶する(S540)。
続いて、カラオケ採点処理では、制御部50は、楽曲の演奏を終了したか否かを判定する(S550)。この判定の結果、楽曲の演奏を終了していなければ(S550:NO)、制御部50は、カラオケ採点処理をS530へと戻す。一方、S550での判定の結果、楽曲の演奏が終了していれば(S550:YES)、制御部50は、カラオケ採点処理をS560へと移行させる。
そのS560では、制御部50は、記憶部38に記憶されている全ての歌唱データを取得する。そして、制御部50は、楽曲における時間軸に沿った歌唱データから、歌唱旋律を構成する各音符NO(c,i)を歌唱した区間の歌唱波形(以下、「音符歌唱データ」と称す)Vos(c,i)それぞれを抽出する(S570)。この音符歌唱データの特定は、例えば、「ボーカルデータ」を「歌唱データ」へと読み替えた上で、特徴量算出処理におけるS160と同様の手法を用いれば良い。ここでの符号cは、S510にて取得したMIDI楽曲MDに対応する楽曲を表す符号である。
続いて、カラオケ採点処理では、制御部50は、各音符歌唱データVos(c,i)における歌い方の特徴を表す歌唱特徴量、及び歌唱技巧を評価した歌唱技巧量SS(c,i)を算出する(S580)。ここで言う歌唱特徴量とは、歌声振幅ベクトルAA(c,i)と、歌声音高ベクトルFF(c,i)とを含む。この歌声振幅ベクトルAA、及び歌声音高ベクトルFFのうちの少なくともいずれか一方は、特許請求の範囲の記載における歌唱変化量の一例である。
このうち、歌声振幅ベクトルAA(c,i)は、音符歌唱データVos(c,i)の振幅の音符NO(c,i)に対応する区間内での推移を表す。この歌声振幅ベクトルAA(c,i)の算出方法は、「音符ボーカル」を「音符歌唱データ」へと読み替えた上で、特徴量算出処理におけるS170,S180と同様の手法を用いれば良い。
歌声音高ベクトルFF(c,i)は、音符歌唱データの基本周波数の音符NO(c,i)に対応する区間内での推移を表す。この歌声音高ベクトルFF(c,i)の算出方法は、「音符ボーカル」を「音符歌唱データ」へと読み替えた上で、特徴量算出処理におけるS170,S190と同様の手法を用いれば良い。
また、歌唱技巧量SS(c,i)には、歌声ビブラート特徴量Vvib(c,i)と、歌声ため特徴量Vtt(c,i)と、歌声しゃくり特徴量Vrise(c,i)と、歌声フォール特徴量Vfall(c,i)と、こぶし特徴量Vkob(c,i)とを含む。
このうち、歌声ビブラート特徴量Vvib(c,i)は、音符歌唱データVos(c,i)における“ビブラート”についての歌唱技巧量である。歌声ため特徴量Vtt(c,i)は、音符歌唱データVos(c,i)における“ため”についての歌唱技巧量である。歌声しゃくり特徴量Vrise(c,i)は、音符歌唱データVos(c,i)における“しゃくり”についての歌唱技巧量である。歌声フォール特徴量Vfall(c,i)は、音符歌唱データVos(c,i)における“フォール”についての歌唱技巧量である。また、こぶし特徴量Vkob(c,i)は、音符歌唱データVos(c,i)における“こぶし”についての歌唱技巧量である。
これらの歌声ビブラート特徴量Vvib(c,i)、歌声ため特徴量Vtt(c,i)、歌声しゃくり特徴量Vrise(c,i)、歌声フォール特徴量Vfall(c,i)、及びこぶし特徴量Vkob(c,i)の算出方法は、「ボーカルデータ」を「歌唱データ」へと、「音符ボーカル」を「音符歌唱データ」へと読み替えた上で、特徴量算出処理におけるS200と同様の手法を用いれば良い。
カラオケ採点処理では、続いて、制御部50は、S510にて取得したMIDI楽曲MDに対応する採点基準MSを情報処理サーバ10の記憶部14から取得する(S590)。続いて、制御部は、S510にて取得したMIDI楽曲MDに対応する楽曲において表現されるプロの歌手の歌い方における特徴を、歌唱音声によってユーザが表現している度合いを評価した評価点を算出する(S600)。
このS600では、制御部50は、音高正確度、振幅正確度、及び技巧正確度のそれぞれを評価点として算出する。
具体的には、制御部50は、採点基準MSにおける各音符NO(c,i)の歌唱振幅ベクトルA(c,i)と、S580にて算出した歌声振幅ベクトルAA(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を振幅正確度として算出する。つまり、振幅正確度は、楽曲cを歌唱するプロの歌手の歌い方における特徴のうち、音符NO(c,i)に対応する区間内での音圧の推移の類似性が高いほど高い値となる。
また、制御部50は、採点基準MSにおける各音符NO(i)の歌唱音高ベクトルF(c,i)と、S580にて算出した歌声音高ベクトルFF(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を音高正確度として算出する。つまり、音高正確度は、楽曲cを歌唱するプロの歌手の歌い方における特徴のうち、音符NO(c,i)に対応する区間内での基本周波数(音高)の推移の類似性が高いほど高い値となる。
さらに、制御部50は、採点基準MSにおける各音符NO(c,i)のビブラート特徴量vib(c,i)と、S580にて算出した歌声ビブラート特徴量Vvib(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を、技巧正確度のうちの“ビブラート”に関する評価として算出する。
制御部50は、採点基準MSにおける各音符NO(i)のため特徴量tt(c,i)と、S580にて算出した歌声ため特徴量Vtt(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を、技巧正確度のうちの“ため”に関する評価として算出する。
制御部50は、採点基準MSにおける各音符NO(i)のしゃくり特徴量rise(c,i)と、S580にて算出した歌声しゃくり特徴量Vrise(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を、技巧正確度のうちの“しゃくり”に関する評価として算出する。
制御部50は、採点基準MSにおける各音符NO(i)のフォール特徴量fall(c,i)と、S580にて算出した歌声フォール特徴量Vfall(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を、技巧正確度のうちの“フォール”に関する評価として算出する。
なお、S600においては、制御部50は、採点基準MSにおける各音符NO(i)のこぶし特徴量kob(c,i)と、S580にて算出したこぶし特徴量Vkob(c,i)との相関値を、対応する音符NO(c,i)ごとに算出する。そして、制御部50は、音符NO(c,i)ごとに算出した相関値の全音符NOに渡る相加平均を、技巧正確度のうちの“こぶし”に関する評価として算出する。
そして、制御部50は、S600にて算出した音高正確度、振幅正確度、及び技巧正確度のそれぞれを表示部64に表示させる(S610)。S610での表示は、制御部50が、映像制御部46を介して表示部64に対して制御信号を出力することで実現する。
その後、本カラオケ採点処理を終了し、次の起動タイミングまで待機する。
つまり、カラオケ採点処理では、制御部50は、ユーザに指定された楽曲を演奏する。これと共に、カラオケ採点処理では、制御部50は、楽曲の演奏中に入力された歌唱データを解析して歌唱特徴量(即ち、歌声振幅ベクトルAA、及び歌声音高ベクトルFF)及び歌唱技巧量SSを算出する。さらに、カラオケ採点処理では、制御部50は、歌声振幅ベクトルAAと歌唱振幅ベクトルA(c,i)との相関値を振幅正確度(即ち、評価点の1つ)として、歌声音高ベクトルFFと歌唱音高ベクトルFとの相関値を音高正確度(即ち、評価点の1つ)として算出する。カラオケ採点処理では、制御部50は、歌唱技巧量SSと技巧特徴量Sとの相関値を技巧正確度(評価点の1つ)として算出する。
[実施形態の効果]
以上説明したように、特徴量算出処理が実行されることで算出される歌唱振幅ベクトルA(a,i)は、音符ボーカルVo(a,i)の振幅が音符NO(a,i)に対応する区間内で推移したものである。また、特徴量算出処理が実行されることで算出される歌唱音高ベクトルF(a,i)は、音符ボーカルVo(a,i)の基本周波数f0が音符NO(a,i)に対応する区間内で推移したものである。
これらの歌唱振幅ベクトルA及び歌唱音高ベクトルFには、その楽曲aを歌唱した人物の歌い方の特徴(クセ)が表れる。つまり、歌唱振幅ベクトルA及び歌唱音高ベクトルFは、楽曲を歌唱した歌手特有の歌い方の特徴を音符NOごとに表したものである。
そして、特徴量算出処理では、歌唱振幅ベクトルA及び歌唱音高ベクトルFを音符プロパティp及び歌手IDと対応付けることで、基準特徴量SFを生成している。したがって、特徴量算出処理を実行した情報処理装置3によれば、情報処理装置3自身が生成した基準特徴量SFを、楽曲を歌唱したプロの歌手特有の特徴の表現を評価可能なデータとすることができる。
さらに、特徴量算出処理では、音符プロパティpが一致する音符NOごとに、歌唱振幅ベクトルA及び歌唱音高ベクトルFの代表値を求めて、その歌唱振幅ベクトルA及び歌唱音高ベクトルFの代表値を基準特徴量SFとしている。このため、特徴量算出処理によれば、基準特徴量SFのデータ量を低減できる。
ところで、楽曲においては、音高及び音価の組み合わせが一致する複数の音符に対して異なる歌詞が割り当てられていることがある。この場合、楽曲を歌唱した歌手は、音符と歌詞との組み合わせによって、歌唱の方法が異なる可能性が高い。
このため、特徴量算出処理では、音符プロパティpに、音符NOの音高と音符長とに加えて、歌詞の音節や歌詞の母音を含んでいる。
このように、音符プロパティpに歌詞に関する情報を含むことで、特徴量算出処理では、音符NOの音高と音符長と歌詞の音節と歌詞の母音との組み合わせが一致する音符ごとに、歌唱振幅ベクトルA及び歌唱音高ベクトルFの代表値を算出できる。
また、前音符NO(a,i−1)から音符NO(a,i)へとボーカルデータが切り替わった場合や、音符NO(a,i)から後音符NO(a,i+1)へとボーカルデータが切り替わった場合には、それらの音符NOの組み合わせごとに、歌唱振幅ベクトルA及び歌唱音高ベクトルFが異なる。
このため、特徴量算出処理では、対象音符属性に加えて前音符属性及び後音符属性を、音符プロパティpに含んでいる。このように前音符属性及び後音符属性を音符プロパティpに含むことで、特徴量算出処理によれば、代表値を求める対象を共通の音符群とすることができる。
これらの結果、特徴量算出処理によれば、歌手の歌い方のより細かな特徴の表現を評価可能な基準特徴量SFを求めることができる。また、採点基準生成処理における採点基準MSの生成方法は、MIDI楽曲MDにおける歌唱旋律を構成する各音符NO(b,i)に、その音符NO(b,i)の音符プロパティpと共通する音符プロパティpが対応付けられた歌唱振幅ベクトルA、歌唱音高ベクトルFの代表値を割り当てることである。
このような採点基準生成処理によれば、基準特徴量SFの算出に用いた楽曲とは異なる楽曲についても採点基準MSを生成することができる。さらに、カラオケ採点処理によれば、カラオケ装置30のユーザが指定した楽曲において表現されるプロの歌手の歌い方における特徴を、ユーザが歌唱音声によって表現している度合いを評価できる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
例えば、上記実施形態における特徴量算出処理は、情報処理装置3にて実行されていたが、本発明において特徴量算出処理を実行する装置は、情報処理装置3に限るものではない。すなわち、特徴量算出処理を実行する装置は、情報処理サーバ10であっても良いし、カラオケ装置30であっても良い。この場合、情報処理装置3は、システム1から省略されていても良い。
上記実施形態における採点基準生成処理は、情報処理サーバ10にて実行されていたが、本発明において採点基準算出処理を実行する装置は、情報処理サーバ10に限るものではなく、情報処理装置3であっても良いし、カラオケ装置30であっても良い。
上記実施形態におけるカラオケ採点処理は、カラオケ装置30にて実行されていたが、本発明においてカラオケ採点処理を実行する装置は、カラオケ装置30に限るものではなく、情報処理装置3であっても良い。
ところで、上記実施形態においては、特徴量算出処理と採点基準生成処理とは別個の処理として構成されていたが、本発明においては、特徴量算出処理と採点基準生成処理とは1つの処理として構成されていても良い。この場合、特徴量算出処理と採点基準生成処理とからなる1つの処理は、情報処理サーバ10にて実行されても良いし、情報処理装置3にて実行されても良い。
また、上記実施形態においては、採点基準生成処理とカラオケ採点処理とは別個の処理として構成されていたが、本発明においては、採点基準生成処理とカラオケ採点処理とは1つの処理として構成されていても良い。この場合、採点基準生成処理とカラオケ採点処理とからなる1つの処理は、情報処理サーバ10にて実行されても良いし、カラオケ装置30にて実行されても良い。
さらには、本発明においては、特徴量算出処理と採点基準生成処理とカラオケ採点処理とが1つの処理として構成されていても良い。この場合、特徴量算出処理と採点基準生成処理とカラオケ採点処理とからなる1つの処理は、情報処理装置3にて実行されても良いし、カラオケ装置30にて実行されても良い。特徴量算出処理と採点基準生成処理とカラオケ採点処理とからなる1つの処理がカラオケ装置30にて実行される場合には、情報処理装置3は、システム1から省略されていても良い。
ところで、上記実施形態においては、音符プロパティpに、対象音符属性、前音符属性、及び後音符属性を含んでいたが、音符プロパティpには、対象音符属性だけを含んでも良いし、対象音符属性と、前音符属性及び後音符属性のうちのいずれかだけを含んでも良い。
また、上記実施形態のカラオケ採点処理におけるS600では、振幅正確度について、歌声振幅ベクトルAAと歌唱振幅ベクトルAとの相関値を算出することで求めていたが、振幅正確度の算出方法は、これに限るものではなく、歌声振幅ベクトルAAと歌唱振幅ベクトルAとの内積を、振幅正確度としても良い。
上記実施形態のカラオケ採点処理におけるS600では、音高正確度について、歌声音高ベクトルFFと歌唱音高ベクトルFとの相関値を算出することで求めていたが、音高正確度の算出方法は、これに限るものではなく、歌声音高ベクトルFFと歌唱音高ベクトルFとの内積を、音高正確度としても良い。
上記実施形態のカラオケ採点処理におけるS600では、技巧正確度について、歌声技巧量SSと技巧特徴量Sとの相関値を算出することで求めていたが、技巧正確度の算出方法は、これに限るものではなく、歌声技巧量SSと技巧特徴量Sとの内積を、技巧正確度としても良い。
さらに、上記実施形態のカラオケ採点処理におけるS600では、楽曲における特徴的な技巧が強く表れているほど、大きな点数となるように技巧ごとに予め規定された重みを、技巧正確度のうちの、ビブラートに関する評価、ために関する評価、しゃくりに関する評価、フォールに関する評価、こぶしに関する評価のそれぞれに付与した重み付き演算により、技巧正確度を算出しても良い。
なお、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。
1…システム 3…情報処理装置 5,14,38…記憶部 6,16,50…制御部 7,18,52…ROM 8,20,54…RAM 9,22,56…CPU 10…情報処理サーバ 12,32…通信部 30…カラオケ装置 34…入力受付部 36…楽曲再生部 40…音声制御部 42…出力部 44…マイク入力部 46…映像制御部 60…スピーカ 62…マイク 64…表示部

Claims (7)

  1. ボーカル音を含む楽曲を表す楽曲データを第1記憶部から取得する第1取得ステップと、
    前記第1取得ステップにより取得された楽曲データから、前記ボーカル音を表すボーカルデータを抽出する抽出ステップと、
    前記楽曲を構成する複数の音符から構成される楽譜データであって、前記音符ごとの演奏時間である第1時間長と、前記複数の音符間の時間長である第2時間長とを含む楽譜データを第2記憶部から取得する第2取得ステップと、
    前記抽出ステップで抽出したボーカルデータと、前記第2取得ステップで取得した楽譜データの前記第1時間長及び前記第2時間長とに基づいて、前記楽曲における歌唱旋律を構成する音符それぞれに対応する前記ボーカルデータの区間である音符ボーカルデータを特定する特定ステップと、
    前記特定ステップにて特定した前記音符ボーカルデータに基づいて、前記音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の前記音符に対応する区間内での推移を表す特徴変化量を決定する第1決定ステップと、
    前記第1決定ステップにより決定された前記特徴変化量を用いて、歌唱を評価するための評価データを生成する生成ステップと、
    をコンピュータに実行させ
    前記楽譜データには、前記音符の音高を含み、
    前記第2取得ステップで取得した楽譜データに含まれる前記音符の音高及び前記第1時間長と、前記第1決定ステップで決定された特徴変化量とを、対応する前記音符ごとに対応付ける対応付ステップを、
    前記コンピュータにさらに実行させ、
    さらに、前記生成ステップは、
    少なくとも、前記音符の音高と前記第1時間長との組み合わせが共通である前記音符を、所定の条件を満たす音符として、前記所定の条件を満たす音符ごとに前記特徴変化量の代表値を決定し、その決定した前記特徴変化量の代表値を含む前記評価データを生成する
    ことを特徴とするプログラム。
  2. 前記楽譜データには、前記楽曲の歌唱旋律を構成する音符に割り当てられた歌詞の音節を表す歌詞情報を含み、
    前記対応付ステップは、
    前記第2取得ステップで取得した楽譜データに含まれる前記音符の音高、前記第1時間長、及び前記歌詞情報と、前記第1決定ステップで決定された特徴変化量とを、対応する音符ごとに対応付け、
    前記生成ステップは、
    前記音符の音高と、前記第1時間長と、前記歌詞情報との組み合わせが共通である前記音符を、前記所定の条件を満たす音符として、前記所定の条件を満たす音符ごとに前記特徴変化量の代表値を決定する
    ことを特徴とする請求項1に記載のプログラム。
  3. 前記生成ステップは、
    前記楽曲を歌唱した歌手ごとに、前記評価データを生成する
    ことを特徴とする請求項1または請求項2に記載のプログラム。
  4. 前記第1決定ステップは、
    前記音符ボーカルデータに、少なくとも2つ以上の分析窓を時間軸に沿って連続するように設定する設定ステップと、
    前記設定ステップにて前記音符ボーカルデータに設定された前記分析窓それぞれにおける前記音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の値を決定し、その決定した前記分析窓それぞれにおける前記音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の値を時間軸に沿って配置することで、前記特徴変化量を決定する変化量決定ステップと
    を前記コンピュータに実行させることを特徴とする請求項1から請求項3までのいずれか一項に記載のプログラム。
  5. 所定の楽曲の演奏中に入力された音声を表す歌唱データを取得する歌唱取得ステップと、
    前記歌唱取得ステップにより取得された前記歌唱データに基づいて、前記所定の楽曲の歌唱旋律を構成する対象音符に対応する前記歌唱データの区間である音符歌唱データを特定する第2特定ステップと、
    前記第2特定ステップにて特定した前記音符歌唱データに基づいて、前記音符歌唱データの振幅及び基本周波数の少なくともいずれか一方の前記対象音符に対応する区間内での推移を表す歌唱変化量を決定する第2決定ステップと、
    前記第2決定ステップで決定された歌唱変化量と、前記生成ステップで生成された特徴変化量との相関値を決定し、その決定した前記相関値が高いほど高い評価とする評価決定ステップと、
    を前記コンピュータにさらに実行させることを特徴とする請求項1から請求項4までのいずれか一項に記載のプログラム。
  6. ボーカル音を含む楽曲を表す楽曲データを第1記憶部から取得する第1取得手段と、
    前記第1取得手段により取得された楽曲データから、前記ボーカル音を表すボーカルデータを抽出する抽出手段と、
    前記楽曲を構成する複数の音符から構成される楽譜データであって、前記音符ごとの演奏時間である第1時間長と、前記複数の音符間の時間長である第2時間長とを含む楽譜データを第2記憶部から取得する第2取得手段と、
    前記抽出手段で抽出したボーカルデータと、前記第2取得手段で取得した楽譜データの前記第1時間長及び前記第2時間長とに基づいて、前記楽曲における歌唱旋律を構成する音符それぞれに対応する前記ボーカルデータの区間である音符ボーカルデータを特定する特定手段と、
    前記特定手段にて特定した前記音符ボーカルデータに基づいて、前記音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の前記音符に対応する区間内での推移を表す特徴変化量を決定する決定手段と、
    前記決定手段により決定された前記特徴変化量を用いて、歌唱を評価するための評価データを生成する生成手段と、
    を備え、
    前記楽譜データには、前記音符の音高を含み、
    前記第2取得手段にて取得した楽譜データに含まれる前記音符の音高及び前記第1時間長と、前記決定手段により決定された特徴変化量とを、対応する前記音符ごとに対応付ける対応付手段をさらに備え、
    さらに、前記生成手段は、
    少なくとも、前記音符の音高と前記第1時間長との組み合わせが共通である前記音符を、所定の条件を満たす音符として、前記所定の条件を満たす音符ごとに前記特徴変化量の代表値を決定し、その決定した前記特徴変化量の代表値を含む前記評価データを生成する
    ことを特徴とする情報処理装置。
  7. ボーカル音を含む楽曲を表す楽曲データを第1記憶部から、情報処理装置が取得する第1取得手順と、
    前記第1取得手順により取得された楽曲データから、前記ボーカル音を表すボーカルデータを、前記情報処理装置が抽出する抽出手順と、
    前記楽曲を構成する複数の音符から構成される楽譜データであって、前記音符ごとの演奏時間である第1時間長と、前記複数の音符間の時間長である第2時間長とを含む楽譜データを第2記憶部から、前記情報処理装置が取得する第2取得手順と、
    前記抽出手順で抽出したボーカルデータと、前記第2取得手順で取得した楽譜データの前記第1時間長及び前記第2時間長とに基づいて、前記楽曲における歌唱旋律を構成する音符それぞれに対応する前記ボーカルデータの区間である音符ボーカルデータを、前記情報処理装置が特定する特定手順と、
    前記特定手順にて特定した前記音符ボーカルデータに基づいて、前記音符ボーカルデータの振幅及び基本周波数の少なくともいずれか一方の前記音符に対応する区間での推移を表す特徴変化量を、前記情報処理装置が決定する決定手順と、
    前記決定手順により決定された前記特徴変化量を用いて、歌唱を評価するための評価データを、前記情報処理装置が生成する生成手順と、
    を備え、
    前記楽譜データには、前記音符の音高を含み、
    前記第2取得手順にて取得した楽譜データに含まれる前記音符の音高及び前記第1時間長と、前記決定手段により決定された特徴変化量とを、対応する前記音符ごとに対応付ける対応付手順をさらに備え、
    さらに、前記生成手順は、
    少なくとも、前記音符の音高と前記第1時間長との組み合わせが共通である前記音符を、所定の条件を満たす音符として、前記所定の条件を満たす音符ごとに前記特徴変化量の代表値を決定し、その決定した前記特徴変化量の代表値を含む前記評価データを生成する
    ことを特徴とする評価データ生成方法。
JP2014060253A 2014-03-24 2014-03-24 プログラム,情報処理装置,及び評価データ生成方法 Active JP6075313B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014060253A JP6075313B2 (ja) 2014-03-24 2014-03-24 プログラム,情報処理装置,及び評価データ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014060253A JP6075313B2 (ja) 2014-03-24 2014-03-24 プログラム,情報処理装置,及び評価データ生成方法

Publications (2)

Publication Number Publication Date
JP2015184447A JP2015184447A (ja) 2015-10-22
JP6075313B2 true JP6075313B2 (ja) 2017-02-08

Family

ID=54351048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014060253A Active JP6075313B2 (ja) 2014-03-24 2014-03-24 プログラム,情報処理装置,及び評価データ生成方法

Country Status (1)

Country Link
JP (1) JP6075313B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365483B2 (ja) * 2015-09-24 2018-08-01 ブラザー工業株式会社 カラオケ装置,カラオケシステム,及びプログラム
CN107507628B (zh) * 2017-08-31 2021-01-15 广州酷狗计算机科技有限公司 唱歌评分方法、装置及终端

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3430811B2 (ja) * 1996-08-27 2003-07-28 ヤマハ株式会社 カラオケ装置
JP2007232750A (ja) * 2006-02-27 2007-09-13 Yamaha Corp カラオケ装置、制御方法およびプログラム
JP5109909B2 (ja) * 2008-09-30 2012-12-26 ブラザー工業株式会社 難易度推定システムおよびプログラム

Also Published As

Publication number Publication date
JP2015184447A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6060867B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP5598516B2 (ja) カラオケ用音声合成システム,及びパラメータ抽出装置
JP6075313B2 (ja) プログラム,情報処理装置,及び評価データ生成方法
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6252420B2 (ja) 音声合成装置、及び音声合成システム
JP5782972B2 (ja) 情報処理システム,プログラム
JP2013210501A (ja) 素片登録装置,音声合成装置,及びプログラム
JP5810947B2 (ja) 発声区間特定装置、音声パラメータ生成装置、及びプログラム
JP6260565B2 (ja) 音声合成装置、及びプログラム
JP6011506B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6365483B2 (ja) カラオケ装置,カラオケシステム,及びプログラム
JP6406182B2 (ja) カラオケ装置、及びカラオケシステム
JP5413380B2 (ja) 楽曲データ修正装置
JP6252408B2 (ja) 表示制御装置,及び表示制御システム
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP6281447B2 (ja) 音声合成装置,及び音声合成システム
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6090043B2 (ja) 情報処理装置、及びプログラム
JP6260499B2 (ja) 音声合成システム、及び音声合成装置
JP5569307B2 (ja) プログラム、及び編集装置
JP6365561B2 (ja) カラオケシステム、カラオケ装置、及びプログラム
JP5845857B2 (ja) パラメータ抽出装置、音声合成システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6075313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150