JP6056799B2 - プログラム、情報処理装置、及びデータ生成方法 - Google Patents

プログラム、情報処理装置、及びデータ生成方法 Download PDF

Info

Publication number
JP6056799B2
JP6056799B2 JP2014069740A JP2014069740A JP6056799B2 JP 6056799 B2 JP6056799 B2 JP 6056799B2 JP 2014069740 A JP2014069740 A JP 2014069740A JP 2014069740 A JP2014069740 A JP 2014069740A JP 6056799 B2 JP6056799 B2 JP 6056799B2
Authority
JP
Japan
Prior art keywords
pitch
vibrato
data
transition
vocal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014069740A
Other languages
English (en)
Other versions
JP2015191177A (ja
Inventor
誠司 黒川
誠司 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014069740A priority Critical patent/JP6056799B2/ja
Publication of JP2015191177A publication Critical patent/JP2015191177A/ja
Application granted granted Critical
Publication of JP6056799B2 publication Critical patent/JP6056799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、データを生成するプログラム、情報処理装置、及びデータ生成方法に関する。
従来、楽曲の歌唱旋律を歌った歌唱の巧拙を評価する歌唱評価技術が知られている(特許文献1参照)。
この特許文献1に記載の技術では、楽曲ごとに用意された模範音声に、利用者が歌唱した音声を照合することで巧拙を評価し、その評価に応じたコメントを歌唱後に提示している。
特開2007−233013号公報
ところで、プロの歌手が歌唱した楽曲においては、多くの場合、その楽曲の歌手ごとに特有の特徴が表出する。カラオケ装置や情報処理装置などを用いて利用者が歌唱する場合において、歌手特有の歌い方の特徴を再現できた場合には、より上手く歌唱しているように聞こえる。
このため、カラオケ装置や情報処理装置などにおいて、歌手特有の歌い方の特徴について、その歌い方の特徴を利用者が実際に歌唱する前に提示することが求められている。
しかしながら、従来の技術では、模範音声と利用者が歌唱した音声とのズレを利用者が歌唱した後に提示するだけである。よって、カラオケ装置や情報処理装置などの利用者は、歌手特有の歌い方の特徴について、どのタイミングでどのように歌唱するとよいのかを歌唱前に認識できないという課題があった。
つまり、カラオケ装置や情報処理装置などにおいて、歌手特有の歌い方の特徴について、利用者が実際に歌唱する前に何ら提示していないという課題があった。
そこで、本発明は、歌手特有の歌い方の特徴を提示するために必要なデータを生成可能な技術の提供を目的とする。
上記目的を達成するためになされた本発明は、コンピュータに実行させるプログラムに関する。
本発明のプログラムでは、第1取得ステップと、第2取得ステップと、音高推移決定ステップと、特定ステップと、基準算出ステップと、決定ステップと、データ生成ステップとをコンピュータに実行させる。
このうち、第1取得ステップでは、複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する。第2取得ステップでは、楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する。抽出ステップでは、楽曲データからボーカル音を表すボーカルデータを抽出する。
さらに、音高推移決定ステップでは、ボーカルデータに基づいて、ボーカルデータにおける音高の推移を表すボーカル音高推移を決定する。特定ステップでは、ボーカル音高推移に基づいて、ボーカル音高推移においてビブラートを用いて歌唱された歌唱区間であるビブラート波形を特定する。基準算出ステップでは、ビブラート波形における頂点の音高に基づいて、ビブラート波形における高音域の音高を表す高音基準音高、及び、ビブラート波形における低音域の音高を表す低音基準音高を算出する。
そして、決定ステップでは、高音基準音高及び低音基準音高に基づいて、中心音高差、または、ビブラート深さのうち少なくともいずれかを決定する。ここで言う中心音高差とは、ビブラート波形における中心音高と、楽譜データにおける歌唱区間に対応する音符の音高との差分である。ここで言うビブラート深さとは、ビブラート波形における周波数軸に沿った振れ幅を表す。
データ生成ステップでは、歌唱区間に対応する楽譜データでの区間に、中心音高差、及び、ビブラート深さのうち少なくともいずれかを対応付けることで、歌唱特徴データを生成する。
このようなプログラムにて生成される歌唱特徴データは、楽曲を歌唱した歌手が用いるビブラートに関する特徴である「中心音高差」及び「ビブラート深さ」のうちの少なくともいずれか一方を、楽譜データの音符に対応付けたものである。ここで、「中心音高差」及び「ビブラート深さ」は、歌手が用いるビブラートに関する特徴を表す情報であり、歌手ごとに特有の特徴である。
このような歌唱特徴データによれば、楽譜データに基づいて楽曲を構成する音符、即ち、歌唱旋律を表示する場合、カラオケ装置や情報処理装置に接続された表示部に、歌手が用いたビブラートの「中心音高差」及び「ビブラート深さ」を提示できる。しかも、その「中心音高差」及び「ビブラート深さ」の提示を、カラオケ装置や情報処理装置の利用者が実際に歌唱する前に実施できる。
そして、ビブラートの「中心音高差」及び「ビブラート深さ」が表示装置に提示されるカラオケ装置や情報処理装置の利用者は、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ビブラート」をどのように用いているのかを認識できる。この結果、カラオケ装置や情報処理装置の利用者は、利用者自身の歌い方を、プロの歌手の歌い方により近づけることができる。
本発明における決定ステップでは、高音基準音高と低音基準音高との平均値を、ビブラート波形における中心音高として決定し、その決定した中心音高と、楽譜データにおける歌唱区間に対応する音符の音高との差分を、中心音高差として決定しても良い。
このようなプログラムによれば、高音基準音高と低音基準音高との平均値を、ビブラート波形における中心音高として算出することができる。そして、本発明のプログラムによれば、ビブラート波形における中心音高と音符の音高との差分を、中心音高差として算出できる。
さらに、本発明における決定ステップでは、高音基準音高と低音基準音高との差分を、ビブラート深さとして算出しても良い。
このようなプログラムによれば、高音基準音高と低音基準音高との差分を、ビブラート深さとして算出できる。
また、本発明における基準算出ステップでは、頂点検出ステップと、高音基準算出ステップと、低音基準算出ステップとをコンピュータに実行させても良い。頂点検出ステップでは、特定ステップで特定されたビブラート波形における変曲点を検出する。高音基準算出ステップでは、頂点検出ステップで検出されたビブラート波形の変曲点のうち、極大となる変曲点における音高の代表値を高音基準音高として算出する。さらに、低音基準算出ステップでは、頂点検出ステップで検出されたビブラート波形の変曲点のうち、極小となる変曲点における音高の代表値を低音基準音高として算出する。
このようなプログラムによれば、高音基準音高及び低音基準音高をより確実に算出できる。
また、本発明の基準算出ステップでは、ビブラート波形において極小となる変曲点の個数と、ビブラート波形において極大となる変曲点の個数とを同数として、高音基準音高及び低音基準音高を算出しても良い。
このようなプログラムによれば、ビブラート波形の変曲点における特異点を除外でき、高音基準音高及び低音基準音高の算出精度を向上させることができる。
なお、本発明のプログラムにおいては、表示制御ステップをコンピュータに実行させても良い。この場合、表示制御ステップでは、第1取得ステップで取得された楽譜データを構成する複数の音符を表示部に表示させ、歌唱特徴データに含まれる中心音高差、及び、ビブラート深さのうち少なくともいずれか一方を、歌唱区間に対応する楽譜データでの区間と対応付けて、表示部に表示させる。
このようなプログラムによれば、カラオケ装置や情報処理装置に接続された表示部に、歌手が用いたビブラートの「中心音高差」及び「ビブラート深さ」を提示できる。
この結果、ビブラートの「中心音高差」及び「ビブラート深さ」が表示装置に提示されるカラオケ装置や情報処理装置の利用者は、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ビブラート」をどのように用いているのかを認識できる。
本発明は、情報処理装置としてなされていても良い。
本発明の情報処理装置は、第1取得手段と、第2取得手段と、抽出手段と、音高推移決定手段と、特定手段と、基準算出手段と、決定手段と、データ生成手段とを備える。
第1取得手段は、楽譜データを第1記憶部から取得し、第2取得手段は、楽曲データを第2記憶部から取得する。抽出手段は、ボーカルデータを抽出し、音高推移決定手段は、そのボーカルデータにおける音高の推移を表すボーカル音高推移を決定する。特定手段は、そのボーカル音高推移においてビブラートを用いて歌唱された歌唱区間であるビブラート波形を特定する。基準算出手段は、そのビブラート波形における頂点の音高に基づいて、高音基準音高、及び、低音基準音高を算出する。
さらに、決定手段は、高音基準音高及び低音基準音高に基づいて、中心音高差、または、ビブラート深さのうち少なくともいずれかを決定する。また、データ生成手段は、歌唱区間に対応する楽譜データでの区間に、中心音高差、及び、ビブラート深さのうち少なくともいずれかを対応付けることで、歌唱特徴データを生成する。
このような情報処理装置によれば、本発明に係るプログラムと同様の効果を得ることができる。
また、本発明は、情報処理装置が実行するデータ生成方法としてなされていても良い。
本発明のデータ生成方法は、第1取得手順と、第2取得手順と、抽出手順と、音高推移決定手順と、特定手順と、基準算出手順と、決定手順と、データ生成手順とを備える。
第1取得手順では、情報処理装置が楽譜データを第1記憶部から取得し、第2取得手順では、情報処理装置が楽曲データを第2記憶部から取得する。抽出手順では、ボーカルデータを情報処理装置が抽出し、音高推移決定手順では、その抽出したボーカルデータに基づいて、情報処理装置がボーカル音高推移を決定する。特定手順では、その決定されたボーカル音高推移に基づいて、情報処理装置がビブラート波形を特定する。
そして、基準算出手順では、その特定されたビブラート波形における頂点の音高に基づいて、情報処理装置が、高音基準音高及び低音基準音高を算出する。決定手順では、中心音高差、または、ビブラート深さのうち少なくともいずれかを、情報処理装置が決定する。そして、データ生成手順では、歌唱区間に対応する楽譜データでの区間に、中心音高差、及び、ビブラート深さのうち少なくともいずれかを対応付けることで、情報処理装置が歌唱特徴データを生成する。
このようなデータ生成方法によれば、本発明に係るプログラムと同様の効果を得ることができる。
本発明が適用された情報処理装置を備えたシステムの概略構成を示すブロック図である。 情報処理装置が実行するデータ生成処理の処理手順を示すフローチャートである。 ビブラート特徴算出処理の処理手順を示すフローチャートである。 ビブラート特徴の算出手法の概要を例示する図である。 歌唱特徴データの概要を例示する図である。 カラオケ装置が実行する表示処理の処理手順を示すフローチャートである。 表示処理を実行することで表示部に表示される表示の態様を例示する図である。
以下に本発明の実施形態を図面と共に説明する。
<システム構成>
図1に示すカラオケ装置30は、ユーザが指定した楽曲を演奏すると共に、その楽曲において表出するプロの歌手の歌い方における特徴を、表示部64に表示させる装置である。
このような、プロの歌手の歌い方における特徴をカラオケ装置30が表示するために構築されるシステム1は、情報処理装置2と、情報処理サーバ10と、カラオケ装置30とを備えている。
情報処理装置2は、楽曲ごとに用意された楽曲データWD及びMIDI楽曲MDに基づいて、歌唱特徴データSFを算出する。ここで言う歌唱特徴データSFとは、楽曲を歌唱するプロの歌手の歌い方における特徴を表すデータである。
情報処理サーバ10には、少なくとも、情報処理装置2にて算出された歌唱特徴データSF及びMIDI楽曲MDが、対応する楽曲ごとに対応付けられて記憶部14に記憶されている。
<楽曲データ>
次に、楽曲データWDは、特定の楽曲ごとに予め用意されたものであり、楽曲に関する情報が記述された楽曲管理情報と、楽曲の演奏音を表す原盤波形データとを備えている。楽曲管理情報には、楽曲を識別する楽曲識別情報(以下、楽曲IDと称す)が含まれる。
本実施形態の原盤波形データは、複数の楽器の演奏音と、歌唱旋律をプロの歌手が歌唱したボーカル音とを含む音声データである。この音声データは、非圧縮音声ファイルフォーマットの音声ファイルによって構成されたデータであっても良いし、音声圧縮フォーマットの音声ファイルによって構成されたデータであっても良い。
なお、以下では、原盤波形データに含まれる楽器の演奏音を表す音声波形データを伴奏データと称し、原盤波形データに含まれるボーカル音を表す音声波形データをボーカルデータと称す。
本実施形態の伴奏データに含まれる楽器の演奏音としては、打楽器(例えば、ドラム,太鼓,シンバルなど)の演奏音,弦楽器(例えば、ギター,ベースなど)の演奏音,打弦楽器(例えば、ピアノ)の演奏音,及び管楽器(例えば、トランペットやクラリネットなど)の演奏音がある。
<MIDI楽曲>
MIDI楽曲MDは、楽曲ごとに予め用意されたものであり、演奏データと、歌詞データとを有している。
このうち、演奏データは、周知のMIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲の楽譜を表したデータである。この演奏データは、楽曲IDと、当該楽曲にて用いられる楽器ごとの楽譜を表す楽譜トラックとを少なくとも有している。
そして、楽譜トラックには、MIDI音源から出力される個々の演奏音について、少なくとも、音高(いわゆるノートナンバー)と、MIDI音源が演奏音を出力する期間(以下、音符長と称す)とが規定されている。楽譜トラックにおける音符長は、当該演奏音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。
すなわち、楽譜トラックでは、ノートナンバーと、ノートオンタイミング及びノートオフタイミングによって表される音符長とによって、1つの音符NOが規定される。そして、楽譜トラックは、音符NOが演奏順に配置されることによって、1つの楽譜として機能する。なお、楽譜トラックは、例えば、鍵盤楽器、弦楽器、打楽器、及び管楽器などの楽器ごとに用意されている。このうち、本実施形態では、特定の楽器(例えば、ヴィブラフォン)が、楽曲における歌唱旋律を担当する楽器として規定されている。
一方、歌詞データは、楽曲の歌詞に関するデータであり、歌詞テロップデータと、歌詞出力データとを備えている。歌詞テロップデータは、楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す。歌詞出力データは、歌詞構成文字の出力タイミングである歌詞出力タイミングを、演奏データの演奏と対応付けるタイミング対応関係が規定されたデータである。
具体的に、本実施形態におけるタイミング対応関係では、演奏データの演奏を開始するタイミングに、歌詞テロップデータの出力を開始するタイミングが対応付けられている。さらに、タイミング対応関係では、楽曲の時間軸に沿った各歌詞構成文字の歌詞出力タイミングが、演奏データの演奏開始からの経過時間によって規定されている。これにより、楽譜トラックに規定された個々の演奏音(即ち、音符NO)と、歌詞構成文字それぞれとが対応付けられる。
<情報処理装置>
情報処理装置2は、入力受付部3と、情報出力部4と、記憶部5と、制御部6とを備えた周知の情報処理装置(例えば、パーソナルコンピュータ)である。
入力受付部3は、外部からの情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、可搬型の記憶媒体(例えば、CDやDVD、フラッシュメモリ)に記憶されたデータを読み取る読取ドライブ、通信網を介して情報を取得する通信ポートなどである。情報出力部4は、外部に情報を出力する出力装置である。ここでの出力装置とは、可搬型の記憶媒体にデータを書き込む書込ドライブや、通信網に情報を出力する通信ポートなどである。
記憶部5は、記憶内容を読み書き可能に構成された周知の記憶装置である。記憶部5には、少なくとも1つの楽曲データWDと、少なくとも1つのMIDI楽曲MDとが、共通する楽曲ごとに対応付けて記憶されている。
制御部6は、ROM7,RAM8,CPU9を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM7は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを記憶する。RAM8は、処理プログラムやデータを一時的に記憶する。CPU9は、ROM7やRAM8に記憶された処理プログラムに従って各処理を実行する。
本実施形態のROM7には、記憶部5に記憶されている楽曲データWD及びMIDI楽曲MDに基づいて、歌唱特徴データSFを算出するデータ生成処理を、制御部6が実行するための処理プログラムが記憶されている。
<情報処理サーバ>
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
このうち、通信部12は、通信網を介して、情報処理サーバ10が外部との間で通信を行う。すなわち、情報処理サーバ10は、通信網を介してカラオケ装置30と接続されている。なお、ここで言う通信網は、有線による通信網であっても良いし、無線による通信網であっても良い。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、少なくとも、複数のMIDI楽曲MDが記憶される。なお、図1に示す符号「m」は、情報処理サーバ10の記憶部14に記憶されているMIDI楽曲MDを識別する識別子であり、1以上の自然数である。さらに、記憶部14には、情報処理装置2がデータ生成処理を実行することで生成された歌唱特徴データSFが記憶される。
制御部16は、ROM18,RAM20,CPU22を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM18,RAM20,CPU22は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
<カラオケ装置>
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
通信部32は、通信網を介して、カラオケ装置30が外部との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
楽曲再生部36は、情報処理サーバ10からダウンロードしたMIDI楽曲MDに基づく楽曲の演奏を実行する。この楽曲再生部36は、例えば、MIDI音源である。音声制御部40は、音声の入出力を制御するデバイスであり、出力部42と、マイク入力部44とを備えている。
マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、ユーザの歌唱音を取得する。出力部42にはスピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の音源信号、マイク入力部44からの歌唱音の音源信号をスピーカ60に出力する。スピーカ60は、出力部42から出力される音源信号を音に換えて出力する。
映像制御部46は、制御部50から送られてくる映像データに基づく映像または画像の出力を行う。映像制御部46には、映像または画像を表示する表示部64が接続されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。ROM52,RAM54,CPU56は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
そして、ROM52には、表示処理を制御部50が実行するための処理プログラムが記憶されている。表示処理は、ユーザによって指定された楽曲を演奏すると共に、その楽曲において表出するプロの歌手の歌い方における特徴、その楽曲の歌詞、及び歌唱旋律を表示部64に表示させる処理である。
<データ生成処理>
次に、情報処理装置2の制御部6が実行するデータ生成処理について説明する。
このデータ生成処理は、処理プログラムを起動するための起動指令が、情報処理装置2の入力受付部3を介して入力されたタイミングで起動される。
そして、データ生成処理では、図2に示すように、起動されると、まず、制御部6は、情報処理装置2の記憶部5に記憶されている全ての楽曲データWDの中から、一つの楽曲データWDを取得する(S110)。なお、本実施形態のS110においては、制御部6は、楽曲データWDを記憶部5から取得したが、制御部6は、入力受付部3を介して、可搬型の記憶媒体や通信網を介してサーバなどから楽曲データWDを取得しても良い。
データ生成処理では、制御部6は、続いて、S110にて取得した楽曲データWD(以下、「取得楽曲データ」と称す)に含まれる原盤波形データを取得する(S120)。さらに、制御部6は、S120にて取得した原盤波形データから、ボーカルデータと伴奏データとを分離して抽出する(S130)。このS130において制御部6が実行する、伴奏データとボーカルデータとの分離手法として、周知の手法(例えば、特開2008−134606に記載された“PreFEst”)を使って推定された音高および調波成分を利用する手法が考えられる。なお、PreFEstとは、原盤波形データにおいて最も優勢な音声波形をボーカルデータとみなしてボーカルの音高(即ち、基本周波数)および調波成分の大きさを推定する手法である。
データ生成処理では、続いて、制御部6は、ボーカルデータにおける音圧レベルの推移を表すボーカル音圧推移を特定する(S140)。さらに、制御部6は、ボーカルデータにおける基本周波数f0の推移を表すボーカル周波数推移を特定する(S150)。
具体的に、本実施形態のS140,S150では、制御部6は、まず、規定時間窓AW(j)をボーカルデータに設定する。この規定時間窓AW(j)は、予め規定された単位時間(例えば、10[ms])を有した分析窓である。本実施形態においては、規定時間窓AWは、時間軸に沿って互いに隣接かつ連続するように設定される。なお、符号jは、規定時間窓AWを識別する識別子である。
続いて、制御部6は、周知の手法により、ボーカルデータにおける各規定時間窓AW(j)での音圧レベルLpを算出する。なお、音圧レベルLpは、ボーカルデータの規定時間窓AW(j)における音圧の二乗平均平方根pを、基準となる音圧p0で除したものの常用対数に、所定の係数(通常、「20」)を乗じること(即ち、Lp=20×log10(p/p0))で求めることができる。
さらに、制御部6は、各規定時間窓AW(j)での音圧レベルLpを、ボーカルデータにおける時間軸に沿って配置することで、ボーカル音圧推移を特定する。
また、ボーカル周波数推移を特定するために、制御部6は、ボーカルデータにおける各規定時間窓AW(j)での基本周波数f0を導出する。この基本周波数f0の導出手法として、種種の周知の手法が考えられる。一例として、制御部6は、ボーカルデータに設定された規定時間窓AW(j)それぞれについて、周波数解析(例えば、DFT)を実施し、自己相関の結果、最も強い周波数成分を基本周波数f0とすることが考えられる。
そして、制御部6は、それらの規定時間窓AW(j)ごとに導出された基本周波数f0を、ボーカルデータにおける時間軸に沿って配置することで、ボーカル周波数推移を特定する。
データ生成処理では、制御部6は、続いて、S110で取得した楽曲データWDと同一の楽曲IDが対応付けられた一つのMIDI楽曲MDを取得する(S160)。さらに、制御部6は、取得楽曲データの各音符に対応する各音の再生時間に、S160で取得したMIDI楽曲MD(以下、「取得MIDI」と称す)を構成する各音符の演奏タイミングが一致するように、その取得MIDIを調整する(S170)。この取得MIDIを調整する手法として、周知の手法(例えば、特許第5310677号に記載の手法)を用いることが考えられる。特許第5310677号に記載された手法では、制御部6は、取得MIDIをレンダリングし、その取得MIDIのレンダリング結果と取得楽曲データの原盤波形データとの双方を規定時間単位でスペクトルデータに変換する。そして、双方のスペクトルデータ上の時間が同期するように、各演奏音の演奏開始タイミング及び演奏終了タイミングを修正する。なお、スペクトルデータ上の時間が同期するように調整する際には、DPマッチングを用いても良い。
さらに、データ生成処理では、制御部6は、S170にて時間調整が実施されたMIDI楽曲MDから、歌唱旋律を表すメロディトラックを取得する(S180)。このS180において取得するメロディトラックには、歌唱旋律を構成する各音符(以下、「メロディ音符」と称す)NO(i)が規定されている。そして、各メロディ音符NO(i)には、ノートナンバー(音高),演奏開始タイミングnnt(i),演奏終了タイミングnft(i),及び各種の時間制御情報(例えば、テンポ,分解能など)などの音符プロパティが規定されている。なお、符号iは、メロディ音符を識別する識別子であり、歌唱旋律の時間軸に沿って増加するように規定されている。
データ生成処理では、制御部6は、時系列音符データを生成する(S190)。この時系列音符データは、メロディ音符NO(i)を時間軸に沿って配置した音符推移に、各メロディ音符NO(i)に関する音符プロパティを対応付けたものである。
具体的に、本実施形態のS190では、まず、制御部6は、メロディ音符NO(i)を時間軸に沿って配置した音符推移を生成する。その音符推移に対して、制御部6は、規定時間窓AW(j)を設定する。この音符推移に設定される規定時間窓AW(j)は、ボーカルデータに設定される規定時間窓AW(j)と共通である。すなわち、音符推移及びボーカルデータに設定される規定時間窓AW(j)は、符号jが共通であれば、同一タイミングであることを意味する。
続いて、制御部6は、音符推移に設定した規定時間窓AWの個数と、ボーカルデータに設定した規定時間窓AWの個数とを比較する。制御部6は、比較の結果、個数が多いものを、音符推移及びボーカルデータの両データにおける規定時間窓AWの個数(即ち、「jmax」)として採用する。なお、制御部6は、規定時間窓AWとの個数が一致するように、個数が少ない方に「0値」を追加する補完を実行しても良い。
さらに、制御部6は、音符推移に設定された規定時間窓AW(j)の中で、各メロディ音符NO(i)の演奏開始タイミングnnt(i)及び演奏終了タイミングnft(i)に対応する規定時間窓AW(j)を特定する。そして、制御部6は、演奏開始タイミングnnt(i)に対応する規定時間窓AW(j)に対して、演奏開始タイミングnnt(i)に対応する旨を表す音符開始フラグを対応付ける。さらに、制御部6は、演奏終了タイミングnft(i)に対応する規定時間窓AW(j)に対して、演奏終了タイミングnft(i)に対応する旨を表す音符終了フラグを対応付ける。これと共に、制御部6は、音符開始フラグが対応付けられた規定時間窓AWから、音符終了フラグが対応付けられた規定時間窓AWまでの全ての規定時間窓AWに対して、対応するメロディ音符NO(i)の音高を対応付けることで、時系列音符データを生成する。
データ生成処理では、制御部6は、S140にて特定したボーカル音圧推移と、S150にて特定したボーカル周波数推移と、S190で生成した時系列音符データとを、規定時間窓AW(j)ごとに対応付ける(S200)。以下では、ボーカル音圧推移とボーカル周波数推移と時系列音符データとを対応付けたデータを、同期データとも称す。
データ生成処理では、制御部6は、同期データに基づいて、ボーカルデータにおいて、歌唱技巧としてのビブラートを用いて歌唱した区間を特定すると共に、ビブラート特徴を算出するビブラート特徴算出処理を実行する(S210)。
このビブラート特徴は、プロの歌手の歌い方における特徴の1つであり、楽曲においてプロの歌手が用いたビブラートに関する情報である。本実施形態のS210にて算出されるビブラート特徴には、中心音高差と、ビブラート深さとを含む。中心音高差は、ビブラートを用いて歌唱されたボーカルデータの区間における、そのビブラートの中心音高と、ビブラートを用いて歌唱されたボーカルデータの区間に対応する演奏タイミングが規定されたメロディ音符NO(i)の音高との差分である。また、ビブラート深さは、ビブラートを用いて歌唱されたボーカルデータの区間における基本周波数f0の周波数軸に沿った振れ幅を表す。
さらに、データ生成処理では、制御部6は、歌唱特徴データSFを生成する(S220)。具体的に、本実施形態のS220では、S210にて算出されたビブラート特徴量に識別情報(以下、「ビブラートID」と称す)を付与することで、歌唱特徴データSFを生成する。
データ生成処理では、制御部6は、S220にて生成した歌唱特徴データSFを記憶部5に記憶する(S230)。
その後、制御部6は、本データ生成処理を終了する。
<ビブラート特徴算出処理>
データ生成処理のS210にて実行されるビブラート特徴算出処理では、図3に示すように、制御部6は、先のS140にて特定されたボーカル周波数推移を取得する(S710)。
続いて、制御部6は、S710にて取得したボーカル周波数推移を、規定された個数分の規定時間窓AWごとに平滑化微分する(S720)。さらに、制御部6は、ボーカル周波数推移を平滑化微分した結果と、規定された軸(いわゆるX軸)とが交わる規定時間窓AW(j)を、交点PI(j)として特定する(S720)。この交点PI(j)は、ボーカル周波数推移における頂点であり、変曲点である。このS720では、制御部6は、各交点PIに、交点PI自身が、極大となる変曲点であるのか、極小となる変曲点であるのかを対応付ける。
ビブラート特徴算出処理では、制御部6は、交点PI(j)の中から、1つの交点PI(j)を抽出する(S730)。このS730では、制御部6は、まず、時間軸に沿って最先の交点PI(j)を取得する。以下、S730にて取得した交点PI(j)を判定対象交点PI(j)と称す。
さらに、制御部6は、判定対象交点PI(j)から、規定された時間長の範囲内に存在する交点PIの個数が、予め規定された閾値Thc(例えば、「4」)よりも多いか否かを判定する(S740)。このS740での判定の結果、交点PIの個数が閾値Thc以下であれば(S740:NO)、制御部6は、後述するS770へとビブラート特徴算出処理を移行させる。一方、S740での判定の結果、交点PIの個数が閾値Thcよりも多ければ(S740:YES)、制御部6は、ビブラート特徴算出処理をS750へと移行させる。
そのS750では、制御部6は、判定対象交点PI(j)から規定された時間長の範囲内における、ボーカル周波数推移の最高音高と最低音高との音高差が、予め規定された規定値よりも小さいか否かを判定する。このS750での判定の結果、規定された時間長の範囲内での音高差が規定値以上であれば(S750:NO)、制御部6は、ビブラート特徴算出処理をS770へと移行する。一方、S750での判定の結果、規定された時間長の範囲内での音高差が規定値よりも小さければ(S750:YES)、制御部6は、ビブラート特徴算出処理をS760へと移行する。
そのS760では、制御部6は、判定対象交点PI(j)から規定された時間長の範囲内に存在する全ての規定時間窓AW(j)にビブラートフラグを付与する。このビブラートフラグとは、ビブラートによって歌唱された可能性のある区間であることを表す。以下、ビブラートフラグが付与された規定時間窓AW(j)からなる1つの領域を、ビブラート候補領域CS(k)と称す。ただし、符号kは、ビブラート候補領域CSを識別する識別子であり、ビブラートIDである。
続くS770では、制御部6は、全ての交点PIについて、S730からS760までの処理を実行したか否かを判定する。そして、S770での判定の結果、S730からS760までの処理を全ての交点PIについて実行していなければ(S770:NO)、制御部6は、ビブラート特徴算出処理をS730へと戻す。そのS730では、ビブラートフラグが付与されていない規定時間窓AWに対応する交点PIの中から、時間軸に沿って最先の交点PIを1つ抽出する。その後、制御部6は、S770までのステップを実行する。
一方、S770での判定の結果、S730からS760までの処理を全ての交点PIについて実行していれば(S770:YES)、制御部6は、ビブラート特徴算出処理をS780へと移行する。そのS780では、制御部6は、ビブラート候補領域CSのそれぞれにおいて、メロディ音符NOの音高が変化するか否かを判定する。このS780での判定の結果、メロディ音符NOの音高が変化していなければ(S780:NO)、制御部6は、各ビブラート候補領域CS(k)をビブラート領域VT(k)に設定して、後述するS800へとビブラート特徴算出処理を移行させる。ここで言うビブラート領域VTは、ボーカルデータにおいてビブラートによって歌唱されていることを表す規定時間窓AWの区間である。
なお、S780での判定の結果、メロディ音符NOの音高が変化していれば(S780:YES)、制御部6は、その音高が変化したタイミングに対応する規定時間窓AW(j)にて、ビブラート候補領域CSを分割する(S790)。その後、制御部6は、分割後のビブラート候補領域CSを含む、全てのビブラート候補領域CSをビブラート領域VTに設定して、ビブラート特徴算出処理をS800へと移行させる。そのS800では、制御部6は、ビブラート領域VTの1つに対応するボーカル周波数推移をビブラート波形として取得する。
続いて、制御部6は、S800にて取得したビブラート波形(以下、「取得ビブラート波形」と称す)に基づいて、高音基準音高及び低音基準音高を算出する(S810)。高音基準音高とは、取得ビブラート波形における高音域の音高を表す。具体的に、S810では、制御部6は、取得ビブラート波形における変曲点(即ち、交点PIに対応するボーカル周波数推移での規定時間窓AW)のうち、極大となる変曲点での基本周波数f0の代表値を、高音基準音高として算出する。また、S810では、制御部6は、取得ビブラート波形の変曲点のうち、極小となる変曲点での基本周波数f0の代表値を、低音基準音高として算出する。ここで言う代表値は、極大または極小となる変曲点での基本周波数f0の相加平均であっても良い。また、代表値は、極大または極小となる変曲点での基本周波数f0の中で、最も高い基本周波数f0及び最も低い基本周波数f0を除いた基本周波数f0の相加平均であっても良い。代表値は、極大または極小となる変曲点での基本周波数f0の中央値であっても良いし、最頻値であっても良い。
なお、本実施形態においては、制御部6は、取得ビブラート波形において極小となる変曲点の個数と、取得ビブラート波形において極大となる変曲点の個数とを同数として、高音基準音高及び低音基準音高を算出する。
ビブラート特徴算出処理では、制御部6は、続いて、ビブラート中心音高を算出する(S820)。ビブラート中心音高とは、取得ビブラート波形における中心音高である。具体的に、S820では、制御部6は、S810にて算出した高音基準音高と低音基準音高との相加平均の結果を、ビブラート中心音高として算出する。
さらに、制御部6は、S820にて算出したビブラート中心音高と、取得ビブラート波形に対応する演奏期間が規定されたメロディ音符NO(i)の音高との差分を、中心音高差として算出する(S830)。続いて、制御部6は、高音基準音高と低音基準音高との差分を、ビブラート深さとして算出する(S840)。なお、本実施形態においては、制御部6は、中心音高差及びビブラート深さをセント値にて算出する。
ビブラート特徴算出処理では、制御部6は、全てのビブラート領域VTについて、S800からS840までのステップを実行したか否かを判定する(S850)。このS850での判定の結果、全てのビブラート領域VTについてS800からS840までのステップを実行していなければ(S850:NO)、制御部6は、ビブラート特徴算出処理をS830へと戻す。そのS830では、制御部6は、S800からS840までのステップを未実施であるビブラート領域VTの1つに対応するボーカル周波数推移をビブラート波形として取得する。制御部6は、その後、S850までのステップを実行する。
一方、S850での判定の結果、全てのビブラート領域VTについてS800からS840までのステップを実行していれば(S850:YES)、制御部6は、本ビブラート特徴算出処理を終了し、データ生成処理のS220へと処理を移行させる。
つまり、ビブラート特徴算出処理では、制御部6は、図4に示すように、ボーカル周波数推移に基づいて、ボーカルデータにおいてビブラートを用いて歌唱された区間、即ち、ビブラート領域VTを特定する。そして、制御部6は、その特定したビブラート領域VTに対応するボーカル周波数推移における頂点の音高に基づいて、高音基準音高、及び、低音基準音高を算出する。さらに、制御部6は、ビブラート波形における中心音高と、当該ビブラート波形に対応する演奏期間が規定されたメロディ音符NO(i)の音高との差分を中心音高差として算出する。これと共に、制御部6は、高音基準音高と低音基準音高との差分をビブラート深さとして算出する。
なお、ビブラート特徴算出処理の終了後に実行されるデータ生成処理のS220では、制御部6は、図5に示すように、ビブラート特徴量にビブラートIDを付与する。すなわち、制御部6は、ビブラート領域VTにビブラート特徴量を対応付けることで、歌唱特徴データSFを生成する。
情報処理装置2の制御部6がデータ生成処理を実行することで生成した歌唱特徴データSFは、可搬型の記憶媒体を用いて情報処理サーバ10の記憶部14に記憶されても良い。情報処理装置2と情報処理サーバ10とが通信網を介して接続されている場合には、情報処理装置2の記憶部5に記憶された歌唱特徴データSFは、通信網を介して転送されることで、情報処理サーバ10の記憶部14に記憶されても良い。ただし、いずれの場合も、歌唱特徴データSFは、対応する楽曲のMIDI楽曲MDと対応付けて、情報処理サーバ10の記憶部14に記憶される。
<表示処理>
カラオケ装置30の制御部50が実行する表示処理は、表示処理を実行するための処理プログラムを起動する指令が入力されると起動される。
そして、表示処理では、起動されると、図6に示すように、制御部50は、入力受付部34を介して指定された楽曲に対応するMIDI楽曲MDを、情報処理サーバ10の記憶部14から取得する(S910)。続いて、制御部50は、S910にて取得したMIDI楽曲MDに対応する歌詞データを取得する(S920)。さらに、制御部50は、S910にて取得したMIDI楽曲MDに対応する歌唱特徴データSFを取得する(S930)。
表示処理では、続いて、制御部50は、S910にて取得したMIDI楽曲MDを演奏する(S940)。具体的にS940では、制御部50は、楽曲再生部36にMIDI楽曲MDを出力する。そのMIDI楽曲MDを取得した楽曲再生部36は、楽曲の演奏を行う。そして、楽曲再生部36によって演奏された楽曲の音源信号が、出力部42を介してスピーカ60へと出力される。すると、スピーカ60は、音源信号を音に換えて出力する。
さらに、表示処理では、制御部50は、S910にて取得したMIDI楽曲MD、S920にて取得した歌詞データ、及びS930にて取得した歌唱特徴データSFに基づく表示を実行する(S950)。このS950では、具体的には、制御部50は、MIDI楽曲MDにおけるメロディトラック、歌詞データ、及び歌唱特徴データSFを映像制御部46に出力する。その映像制御部46は、歌詞データと、メロディトラックを構成するメロディ音符NO(i)を、時間軸に沿って順次表示部64に出力する。すると、表示部64は、歌詞データを時間軸に沿って順次表示すると共に、図7に示すように、メロディトラックを構成するメロディ音符NO(i)を時間軸に沿って順次表示する。
さらに、映像制御部46は、歌唱特徴データSFに含まれるビブラート特徴量を、対応するビブラート領域VTのタイミングで時間軸に沿って順次表示部64に出力する。すると、表示部64は、対応するビブラート領域VTのタイミングでビブラート特徴量を時間軸に沿って順次表示する。
なお、S950では、制御部50は、楽曲の演奏に合わせて、カラオケ装置30の利用者が歌唱した歌唱音声の音高の推移を、映像制御部46に出力しても良い。そして、映像制御部46は、カラオケ装置30の利用者が歌唱した歌唱音声の音高の推移(例えば、図7に示す実線の波形)を、メロディ音符NO(i)とのズレを、利用者が認識可能な態様で表示しても良い。さらに、S950では、制御部50は、プロの歌手が歌唱したボーカルデータの音高推移を、映像制御部46に出力しても良い。そして、映像制御部46は、プロの歌手が歌唱したボーカルデータの音高推移(即ち、ボーカル周波数推移、図7に示す破線の波形)を表示しても良い。
ところで、図7においては、ビブラート特徴量とビブラート領域VTとが対応付いていることを容易に理解できるように、ビブラート領域VTを図示したが、本実施形態の表示部64には、ビブラート特徴量だけが表示され、ビブラート領域VTは表示されなくとも良い。
さらに、S950では、制御部50は、ビブラート特徴量を、予め規定された分類範囲ごとに分類した結果を、映像制御部46に出力しても良い。すなわち、制御部50は、例えば、ビブラート特徴を、制御部50は、例えば、中心音高差が規定音高差以上高ければ、「中心音高高」に分類する。そして、制御部50は、中心音高差が規定音高差以上低ければ、「中心音高低」に分類する。さらに、制御部50は、例えば、ビブラート深さが規定音高差未満であれば、「ビブラート浅い」に分類する。そして、制御部50は、ビブラート深さが規定音高差以上であれば、「ビブラート深い」に分類する。そして、制御部50は、分類の結果をビブラート特徴として映像制御部46に出力しても良い。この場合、映像制御部46は、分類の結果を表示部64に表示させる。
続いて、表示処理では、制御部50は、楽曲の演奏を終了したか否かを判定する(S960)。この判定の結果、楽曲の演奏を終了していなければ(S960:NO)、制御部50は、表示処理をS940へと戻す。一方、S960での判定の結果、楽曲の演奏が終了していれば(S960:YES)、制御部50は、表示処理を終了する。
[実施形態の効果]
以上説明したように、本実施形態の歌唱特徴データSFは、ビブラート領域VTを特定しその特定したビブラート領域VTに「中心音高差」、及び「ビブラート深さ」を対応付けたものである。「中心音高差」及び「ビブラート深さ」は、歌手が用いるビブラートに関する特徴を表す情報であり、歌手ごとに特有の特徴である。
そして、歌唱特徴データSFに基づいて表示部64に表示するカラオケ装置30では、「中心音高差」、及び「ビブラート深さ」を時間軸に沿って順次表示している。
このため、カラオケ装置30のユーザは、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ビブラート」をどのように用いているのかを認識できる。この結果、カラオケ装置30のユーザは、ユーザ自身の歌い方を、プロの歌手の歌い方により近づけることができる。
また、本実施形態のデータ生成処理では、高音基準音高及び低音基準音高を算出するために用いる、ビブラート波形において極大となる変曲点の個数と極小となる変曲点の個数とを同数としている。
このため、データ生成処理によれば、高音基準音高及び低音基準音高から特異点を除くことができ、高音基準音高及び低音基準音高の算出精度を向上させることができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
例えば、上記実施形態におけるデータ生成処理は、情報処理装置2にて実行されていたが、本発明においてデータ生成処理を実行する装置は、情報処理装置2に限るものではない。すなわち、データ生成処理を実行する装置は、情報処理サーバ10であっても良いし、カラオケ装置30であっても良い。この場合、情報処理装置2は、システム1から省略されていても良い。
上記実施形態における表示処理は、カラオケ装置30にて実行されていたが、本発明において表示処理を実行する装置は、カラオケ装置30に限るものではなく、情報処理装置2であっても良い。この場合、情報処理装置2には、映像制御部46が設けられ、その映像制御部46には、表示部64が接続されている必要がある。
また、上記実施形態においては、データ生成処理と表示処理とは別個の処理として構成されていたが、本発明においては、データ生成処理と表示処理とは1つの処理として構成されていても良い。この場合、データ生成処理と表示処理とからなる1つの処理は、情報処理装置2にて実行されても良いし、カラオケ装置30にて実行されても良い。
ところで、上記実施形態のビブラート特徴算出処理では、中心音高差と、ビブラート深さとの両方を、ビブラート特徴として算出していたが、本発明においては、中心音高差と、ビブラート深さとのうちのいずれか一方だけを、ビブラート特徴として算出しても良い。この場合、ビブラート特徴算出処理においては、S820及びS830が省略されていても良いし、S840が省略されていても良い。
なお、上記実施形態のデータ生成処理では、「中心音高差」、及び「ビブラート深さ」をビブラート領域VTに対応付けることで歌唱特徴データSFを生成していたが、「中心音高差」、及び「ビブラート深さ」を対応付ける対象は、ビブラート領域VTに限るものではない。例えば、「中心音高差」、及び「ビブラート深さ」を対応付ける対象は、ビブラート領域VTを包含するメロディ音符NOであっても良い。
また、この場合において、メロディ音符NOに対応付ける対象は、「中心音高差」、及び「ビブラート深さ」のうちの少なくともいずれか一方であっても良い。
なお、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。
1…システム 2…情報処理装置 3…入力受付部 4…情報出力部 5…記憶部 6,16,50…制御部 7,18,52…ROM 8,20,54…RAM 9,22,56…CPU 10…情報処理サーバ 12…通信部 14…記憶部 30…カラオケ装置 32…通信部 34…入力受付部 36…楽曲再生部 38…記憶部 40…音声制御部 42…出力部 44…マイク入力部 46…映像制御部 60…スピーカ62…マイク 64…表示部

Claims (5)

  1. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得ステップと、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得ステップと、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出ステップと、
    前記ボーカルデータに基づいて、前記ボーカルデータにおける音高の推移を表すボーカル音高推移を決定する音高推移決定ステップと、
    前記楽譜データに基づいて前記楽曲の歌唱旋律を構成する各音符であるメロディ音符の時系列の推移を表す時系列音符推移を決定する音符推移決定ステップと、
    前記ボーカル音高推移と前記時系列音符推移とに基づいて、前記ボーカル音高推移においてビブラートを用いて歌唱された歌唱区間であるビブラート波形であって、前記メロディ音符の音高が変化しない領域ごとに分割された前記ビブラート波形を特定する特定ステップと、
    前記ビブラート波形における頂点の音高に基づいて、前記ビブラート波形における高音域の音高を表す高音基準音高、及び、前記ビブラート波形における低音域の音高を表す低音基準音高を算出する基準算出ステップと、
    前記高音基準音高及び前記低音基準音高に基づいて、前記ビブラート波形における中心音高と、前記楽譜データにおける前記歌唱区間に対応する音符の音高との差分である中心音高差、または、前記ビブラート波形における周波数軸に沿った振れ幅を表すビブラート深さのうち少なくともいずれかを決定する決定ステップと、
    前記歌唱区間に対応する前記楽譜データでの区間に、前記中心音高差、及び、前記ビブラート深さのうち少なくともいずれかを対応付けることで、歌唱特徴データを生成するデータ生成ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  2. 前記決定ステップは、前記高音基準音高と前記低音基準音高との差分を、前記ビブラート深さとして算出するように構成されており、
    前記第1取得ステップで取得された楽譜データを構成する複数の音符を、表示部に表示させ、前記歌唱特徴データに含まれる前記ビブラート深さに基づいてビブラートの特徴を「浅い」又は「深い」に分類した結果を、前記歌唱区間に対応する前記楽譜データでの区間と対応付けて、前記表示部に表示させる表示制御ステップを更に有すること、
    を特徴とする請求項1に記載のプログラム。
  3. 前記基準算出ステップは、
    前記ビブラート波形における変曲点を検出する頂点検出ステップと、
    前記ビブラート波形の変曲点のうち、極大となる変曲点における音高の代表値を、前記高音基準音高として算出する高音基準算出ステップと、
    前記ビブラート波形の変曲点のうち、極小となる変曲点における音高の代表値を、前記低音基準音高として算出する低音基準算出ステップと、
    を前記コンピュータに実行させるものであって、
    前記ビブラート波形において極小となる変曲点の個数と、前記ビブラート波形において極大となる変曲点の個数とを同数として、前記高音基準音高及び前記低音基準音高を算出するように構成されていること、
    を特徴とする請求項1または請求項2に記載のプログラム。
  4. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得手段と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得手段と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出手段と、
    前記ボーカルデータに基づいて、前記ボーカルデータにおける音高の推移を表すボーカル音高推移を決定する音高推移決定手段と、
    前記楽譜データに基づいて前記楽曲の歌唱旋律を構成する各音符であるメロディ音符の時系列の推移を表す時系列音符推移を決定する音符推移決定手段と、
    前記ボーカル音高推移と前記時系列音符推移とに基づいて、前記ボーカル音高推移においてビブラートを用いて歌唱された歌唱区間であるビブラート波形であって、前記メロディ音符の音高が変化しない領域ごとに分割された前記ビブラート波形を特定する特定手段と、
    前記ビブラート波形における頂点の音高に基づいて、前記ビブラート波形における高音域の音高を表す高音基準音高、及び、前記ビブラート波形における低音域の音高を表す低音基準音高を算出する基準算出手段と、
    前記高音基準音高及び前記低音基準音高に基づいて、前記ビブラート波形における中心音高と、前記楽譜データにおける前記歌唱区間に対応する音符の音高との差分である中心音高差、または、前記ビブラート波形における周波数軸に沿った振れ幅を表すビブラート深さのうち少なくともいずれかを決定する決定手段と、
    前記歌唱区間に対応する前記楽譜データでの区間に、前記中心音高差、及び、前記ビブラート深さのうち少なくともいずれかを対応付けることで、歌唱特徴データを生成するデータ生成手段と
    を備えることを特徴とする情報処理装置。
  5. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、情報処理装置が第1記憶部から取得する第1取得手順と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、前記情報処理装置が第2記憶部から取得する第2取得手順と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを、前記情報処理装置が抽出する抽出手順と、
    前記ボーカルデータに基づいて、前記ボーカルデータにおける音高の推移を表すボーカル音高推移を、前記情報処理装置が決定する音高推移決定手順と、
    前記楽譜データに基づいて前記楽曲の歌唱旋律を構成する各音符であるメロディ音符の時系列の推移を表す時系列音符推移を、前記情報処理装置が決定する音符推移決定手順と、
    前記ボーカル音高推移と前記時系列音符推移とに基づいて、前記ボーカル音高推移においてビブラートを用いて歌唱された歌唱区間であるビブラート波形であって、前記メロディ音符の音高が変化しない領域ごとに分割された前記ビブラート波形を、前記情報処理装置が特定する特定手順と、
    前記ビブラート波形における頂点の音高に基づいて、前記ビブラート波形における高音域の音高を表す高音基準音高、及び、前記ビブラート波形における低音域の音高を表す低音基準音高を、前記情報処理装置が算出する基準算出手順と、
    前記高音基準音高及び前記低音基準音高に基づいて、前記ビブラート波形における中心音高と、前記楽譜データにおける前記歌唱区間に対応する音符の音高との差分である中心音高差、または、前記ビブラート波形における周波数軸に沿った振れ幅を表すビブラート深さのうち少なくともいずれかを、前記情報処理装置が決定する決定手順と、
    前記歌唱区間に対応する前記楽譜データでの区間に、前記中心音高差、及び、前記ビブラート深さのうち少なくともいずれかを対応付けることで、前記情報処理装置が歌唱特徴データを生成するデータ生成手順と
    を備えることを特徴とするデータ生成方法。
JP2014069740A 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法 Active JP6056799B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014069740A JP6056799B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014069740A JP6056799B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Publications (2)

Publication Number Publication Date
JP2015191177A JP2015191177A (ja) 2015-11-02
JP6056799B2 true JP6056799B2 (ja) 2017-01-11

Family

ID=54425689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014069740A Active JP6056799B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Country Status (1)

Country Link
JP (1) JP6056799B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003627B (zh) * 2018-09-07 2021-02-12 广州酷狗计算机科技有限公司 确定音频得分的方法、装置、终端及存储介质
CN109697990B (zh) * 2018-11-12 2020-12-11 南京南大电子智慧型服务机器人研究院有限公司 一种基于虚拟低音算法主观评价的客观评价方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1039881A (ja) * 1996-07-19 1998-02-13 Yamaha Corp カラオケ採点装置
JP2007256618A (ja) * 2006-03-23 2007-10-04 Yamaha Corp 検索装置
JP2008026622A (ja) * 2006-07-21 2008-02-07 Yamaha Corp 評価装置
JP4900017B2 (ja) * 2007-04-17 2012-03-21 ヤマハ株式会社 ビブラート検出装置、ビブラート評価装置、ビブラート検出方法、ビブラート評価方法およびプログラム
JP5883216B2 (ja) * 2010-09-17 2016-03-09 ヤマハ株式会社 ビブラート付加装置、ビブラート付加方法及びプログラム

Also Published As

Publication number Publication date
JP2015191177A (ja) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6060867B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6252420B2 (ja) 音声合成装置、及び音声合成システム
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP5782972B2 (ja) 情報処理システム,プログラム
JP6098422B2 (ja) 情報処理装置、及びプログラム
JP6075313B2 (ja) プログラム,情報処理装置,及び評価データ生成方法
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
JP6260565B2 (ja) 音声合成装置、及びプログラム
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6365483B2 (ja) カラオケ装置,カラオケシステム,及びプログラム
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6011506B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP5810947B2 (ja) 発声区間特定装置、音声パラメータ生成装置、及びプログラム
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP5310677B2 (ja) 音源分離装置、及びプログラム
JP6365561B2 (ja) カラオケシステム、カラオケ装置、及びプログラム
JP6252408B2 (ja) 表示制御装置,及び表示制御システム
JP2012118234A (ja) 信号処理装置,及びプログラム
JP6281447B2 (ja) 音声合成装置,及び音声合成システム
JP5569307B2 (ja) プログラム、及び編集装置
JP5012269B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP6260499B2 (ja) 音声合成システム、及び音声合成装置
JP2017049538A (ja) カラオケ装置、及びカラオケシステム
JP6183002B2 (ja) 演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6056799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150