JP2016161900A - 音楽データ検索装置及び音楽データ検索プログラム - Google Patents
音楽データ検索装置及び音楽データ検索プログラム Download PDFInfo
- Publication number
- JP2016161900A JP2016161900A JP2015043512A JP2015043512A JP2016161900A JP 2016161900 A JP2016161900 A JP 2016161900A JP 2015043512 A JP2015043512 A JP 2015043512A JP 2015043512 A JP2015043512 A JP 2015043512A JP 2016161900 A JP2016161900 A JP 2016161900A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- data
- music data
- key
- performance part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】検索精度(的確性)を向上させた音楽データ検索装置を提供する。【解決手段】電子楽器は、複数の演奏パートデータから構成された複数の音楽データを記憶している。演奏データを取得するS11。つぎに、演奏データに含まれる演奏パートを判定するS12。判定した演奏パートのうちの1つの演奏パートを選択するS13。つぎに、選択された演奏パートに対応する音楽データを選択し、選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、選択された演奏パートと同一又は対応する演奏パートの演奏と選択された演奏パートの演奏との類似度を計算するS15。そして、計算した類似度に基づいて、演奏データに類似する音楽データの検索結果を出力するS16。【選択図】図2
Description
本発明は、楽器の演奏を表す演奏データを取得し、前記演奏データが表す演奏に相性の良い音楽を表す音楽データ(例えば、伴奏スタイルデータ、楽曲データなど)を検索して提示する音楽データ検索装置及び音楽データ検索プログラムに関する。
従来から、例えば、下記特許文献1に記載されているように、複数の音楽データ(伴奏スタイルデータ、楽曲データなど)を記憶した電子楽器は知られている。この電子楽器は、鍵盤装置を備えている。ユーザが鍵盤装置を用いて演奏すると、前記演奏のリズムパターンと同一又は類似するリズムパターンを有する音楽データが検索され、前記検索された音楽データの名称が表示される。
また、例えば、下記特許文献2に記載されているように、楽曲(曲名)を検索する楽曲検索装置(コンピュータプログラム)は知られている。この楽曲検索装置によれば、ユーザがメロディ(単音の系列)を入力すると、データベースの中から、前記入力したメロディを含む楽曲が検索され、前記検索された楽曲の曲名が表示される。
上記特許文献1に記載の電子楽器においては、ユーザがリズムパート(ドラムパート)を演奏した場合には、良好な検索結果が得られる。この電子楽器は、ユーザがメロディパート、コードパート、ベースパートなどの演奏パートを演奏することを想定していないので、例えば、ユーザが、バラード調の音楽データを検索しようとして、右手でメロディを弾きつつ、左手でアルペジオを弾いた場合、全く異なるジャンルの音楽データが検索されることがある。よって、ユーザは、良好な検索結果を得るために、敢えてリズムパート(ドラムパート)を演奏する必要がある。
また、上記特許文献2に記載の楽曲検索装置においては、各音の長さ(又は発音タイミング)を指定することができない。すなわち、ユーザが入力したメロディの各音間の音高(音程)の変化の態様が一致(又は類似)する部分を含む楽曲であれば、比較対象の各音同士の長さ(つまりメロディのリズム)が全く異なっていたとしても、前記入力したメロディに一致(又は類似)する楽曲として判断される。よって、ユーザが意図した楽曲とは全く異なる楽曲が検索されることがある。
本発明は上記問題に対処するためになされたもので、その目的は、従来よりも検索精度(的確性)を向上させた音楽データ検索装置及び音楽データ検索プログラムを提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。
上記目的を達成するために、本発明の特徴は、各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段(S11)と、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段(14)と、前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段(S12)と、前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段(S13)と、前記選択手段によって選択された演奏パートに対応する前記音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算する類似度計算手段(S15)と、前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段(S16)と、を備えた、音楽データ検索装置(10)としたことにある。
この場合、前記演奏パート判定手段は、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定するとよい。
また、この場合、前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定するとよい。
また、この場合、前記類似度計算手段は、前記演奏データから、前記選択された演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算するとよい。
本発明によれば、ユーザが楽曲の一部の演奏パート(1つ又は複数の演奏パート)を演奏すると、その演奏に相性の良い音楽データが検索される。一般に、ユーザが音楽データを検索しようとするとき、ユーザは、前記楽曲の特徴的な部分(演奏パート)を最初に思い浮かべ、その部分を演奏することが多い。そして、その特徴的な部分は、楽曲によって異なる。つまり、ユーザが演奏する演奏パートがベースパートである場合もあれば、メロディパートである場合もある。また、ユーザが両手で複数の演奏パートを演奏する場合もある。そこで、本発明に係る音楽データ検索装置においては、演奏データに基づいて、前記演奏データが表す演奏に含まれる演奏パートが判定される。つぎに、例えば、ユーザが、前記判定された演奏パートのうちの1つの演奏パートを選択する。なお、音楽のジャンルの特徴を最もよく表している演奏パートが選択されるとよい。つぎに、前記複数の音楽データのうち、前記選択された演奏パートに対応する音楽データが検索対象として選択される。この場合、各音楽データが所定のルール(例えば音楽のジャンル)に従って複数のグループに分類されており、前記選択された演奏パートの種類に対応するグループに属する音楽データが選択されるとよい。つまり、前記選択された演奏パートの種類とグループのとの対応関係を表す対応情報が予め設定されていて、前記対応情報に基づいて、音楽データが選択されるとよい。例えば、選択手段によってベースパートが選択されたとき、ベースパートに特徴があるジャンルであるスウィング(ジャズ)、ポップス、ロック、ボサノバなどに属する音楽データが検索対象として選択されるように対応情報が設定されているとよい。また、例えば、選択手段によってコードパートが選択された場合、コードパートに特徴があるジャンルであるカントリーに属する音楽データが検索対象として選択されるように対応情報が設定されていてもよい。また、例えば、音楽データは、伴奏パターンを表す伴奏スタイルデータであるとよい。この場合、選択手段によってメロディパートが選択されたとき、メロディパートを含むセクション(イントロセクション、エンディングセクション、ソロセクションなど)に用いられる伴奏スタイルデータが検索対象として選択されるように対応情報が設定されているとよい。前記検索対象の音楽データの演奏パートであって、前記選択された演奏パートと同一又は対応する演奏パートの演奏と、前記選択された演奏パートの演奏との類似度が計算され、その類似度に従って、検索結果が表示される。なお、2つの演奏パートの音色が異なっていても、同種の楽器で演奏される演奏パートであれば、前記2つの演奏パートは、「同一の演奏パート」とみなす。例えば、「ウッドベース」で演奏される演奏パートと「エレキベース」で演奏される演奏パートは、「同一の演奏パート」である。本発明によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、音楽データを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、ユーザは、類似度の計算に適した演奏パート(つまり、特徴的な演奏パート)を選択することができる。また、前記選択された演奏パートに対応する音楽データ(例えば、伴奏スタイルデータ)が検索対象(検索範囲)として選択される。このように、検索対象(検索範囲)が限定される(絞り込まれる)ので、検索精度(的確性)を向上させることができる。
なお、本発明は、音楽データ検索装置としての実施に限られず、音楽データ検索装置が備えるコンピュータに適用されるコンピュータプログラム(音楽データ検索プログラム)としても実施可能である。
本発明の一実施形態に係る電子楽器10について説明する。まず、電子楽器10の概略について説明する。電子楽器10は、自動伴奏機能を備えている。すなわち、電子楽器10は、複数の伴奏スタイルデータを備えている。伴奏スタイルデータは、所定長(例えば2小節の長さ)の伴奏(フレーズ)を表す。伴奏スタイルデータは、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータから構成されている。伴奏スタイルデータは、少なくとも、コードパート及びベースパートの演奏パートデータを含む。各演奏パートデータは、複数のノートデータ(MIDIデータ)から構成されている。ただし、本実施形態では、メロディパートは演奏者によってマニュアル演奏されることを前提としている。したがって、基本的には、伴奏スタイルデータは、メロディパートの演奏パートデータを含まない。各ノートデータは、発音開始を表すキーオンデータ又は発音停止を表すキーオフデータを含む。キーオンデータは、発音開始する音の音高を表す音高データ(キーナンバ)を含む。また、キーオフデータは、発音停止する音の音高を表す音高データ(キーナンバ)を含む。また、各ノートデータは、発音開始のタイミング又は発音停止のタイミングを表すタイミングデータを含む。伴奏パターンの再生中に、ユーザが鍵盤装置を用いてコード(和音)を入力する(複数の鍵を押す)と、伴奏スタイルデータの演奏パートの音高が前記コードに応じて変更される。各伴奏スタイルデータは、その伴奏スタイルが属する音楽のジャンルの特徴を表している演奏パートを有する。前記音楽のジャンルの特徴を表す演奏パートは、例えば、コードパート、ベースパート、リズムパートなどである。前記音楽のジャンルの特徴を表す複数の演奏パートが1つの伴奏スタイルデータに含まれていてもよい。前記音楽のジャンルの特徴を表している演奏パートが共通する複数の伴奏スタイルデータが同一のグループに属するように、各伴奏スタイルデータが分類されている。以下の説明においては、簡単化のため、1つの伴奏スタイルデータが、前記音楽のジャンルの特徴を表す1つの演奏パートを含むものとする。そして、ベースパートが特徴的な演奏パートである複数の伴奏スタイルデータのグループをベースパートデータベースと呼ぶ、また、コードパートが特徴的な演奏パートである複数の伴奏スタイルデータのグループをコードパートデータベースと呼ぶ。
また、電子楽器10は、伴奏スタイルデータの検索機能を備えている。すなわち、ユーザが鍵盤装置を用いて楽曲の一部(例えば、楽曲の特徴的な部分)を演奏すると、前記演奏に相性の良い伴奏スタイルデータの名称が表示される。以下の説明において、伴奏スタイルデータを検索する際の電子楽器10の動作モードを伴奏スタイルデータ検索モードと呼ぶ。また、鍵盤装置を用いて演奏する際の電子楽器10の動作モードを演奏モードと呼ぶ。
つぎに、電子楽器10の具体的構成について説明する。電子楽器10は、図1に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。
入力操作子11は、電子楽器10の動作モードを切り替える際、音色を選択する際などに用いられる設定操作子を含む。設定操作子は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11は、楽曲を演奏する際に用いられる演奏操作子を含む。演奏操作子は、例えば、鍵盤装置を含む。鍵盤装置は、複数の鍵から構成されている。各鍵には、互いに異なるキーナンバが割り当てられている。例えば、鍵盤装置は、88個(「A0」〜「C8」)の鍵から構成されている。最低音(「A0」)の鍵から最高音(「C8」)の鍵に向かって順に、「21」,「22」,「23」,・・・,「108」がキーナンバとして割り当てられている。ユーザが入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。例えば、鍵が押されたときには、前記押された鍵のキーナンバを含むキーオンデータがコンピュータ部12に供給される。また、鍵が離されたときには、前記離された鍵のキーナンバを含むキーオフデータがコンピュータ部12に供給される。
コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b、RAM12c及びタイマ12dを含む。例えば、鍵盤装置の鍵が押されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音開始させる。また、例えば、鍵盤装置の鍵が離されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音停止させる。また、例えば、CPU12aは、詳しくは後述する伴奏スタイルデータ検索プログラムをROM12bから読み出して実行し、ユーザが演奏した楽曲に相性の良い伴奏スタイルデータを検索する。ROM12bには、伴奏スタイルデータ検索プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、各種データが一時的に記憶される。タイマ12dは、CPU12aからの指示に応じた時間間隔で割り込み信号をCPU12aに供給する。例えば、タイマ12dは、メトロノームのクリック音を発生させるタイミングを計算する際に利用される。また、例えば、タイマ12dは、伴奏スタイルデータに基づいて伴奏を再生する際に利用される。具体的には、CPU12aは、タイマ12dから割り込み信号を受信するごとに、伴奏(伴奏スタイルデータを構成する各演奏パートデータ)の再生進行位置を表すカウンタをインクリメントする。また、CPU12aは、押されている鍵のキーナンバに基づいて、入力されているコードを検出する。そして、CPU12aは、伴奏スタイルデータを構成するノートデータのうち、前記カウンタのカウント値に対応するタイミングデータを有するノートデータを選択する。CPU12aは、前記検出したコードに応じて、前記選択されたノートデータ(具体的には、各演奏パートの音高)を修正する。CPU12aは、前記修正したノートデータを構成するキーオンデータ又はキーオフデータを音源回路16に供給する。
表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、伴奏スタイルデータの検索結果が表示される。
また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の伴奏スタイルデータ、楽曲データなどが記憶されている。これらの伴奏スタイルデータ、楽曲データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込まれてもよい。
外部インターフェース回路15は、電子楽器10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。電子楽器10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。
音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aから指定された音色波形データを波形メモリWMから読み出して、前記読み出した音色波形データを用いてキーオンデータ(又はキーオフデータ)に対応する楽音の音響波形を表す音響波形データを生成し、サウンドシステム17に供給する。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。
サウンドシステム17は、音源回路16から供給された音響波形データをアナログオーディオ信号に変換するD/A変換器、前記変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。
つぎに、伴奏スタイルデータの検索機能について説明する。ユーザが、入力操作子11を用いて、電子楽器10の動作モードを伴奏スタイルデータ検索モードに切り替えると、CPU12aは、図2に示す、伴奏スタイルデータ検索プログラムをROM12cから読み込んで実行する。CPU12aは、ステップS10にて、伴奏スタイルデータ検索処理を開始する。つぎに、CPU12aは、ステップS11にて、ユーザに楽曲を演奏させる。ユーザは、まず、入力操作子11を用いて、演奏しようとする楽曲の拍子及びテンポを設定する。CPU12aは、前記設定されたテンポに従って、メトロノームを動作させる。そして、ユーザは、入力操作子11を用いて演奏データの記録を開始することを指示し、鍵盤装置を用いて演奏する。ユーザは、片手又は両手で鍵盤装置を操作し、メロディパート、コードパート、及びベースパートのうちのいずれか1つ又は複数の演奏パートを演奏する。CPU12aは、鍵盤装置から取得したキーオンデータ及びキーオフデータを、音源回路16に供給するとともに、前記取得したキーオンデータ及びキーオフデータを、それらの取得タイミングに関連付けて演奏データとして記録(RAM12c又はROM12bに記憶)する。ユーザが演奏を終了すると、CPU12aは、演奏データの記録を停止し、各小節線に相当するタイミングを計算する。この際、CPU12aは、前記計算したタイミングが小節線であることを表す小節線データを、演奏データに挿入してもよい。
つぎに、CPU12aは、ステップS12にて、前記記録した演奏データ及び図3に示す判定テーブルに基づいて、ユーザによって演奏された演奏パートが何れの演奏パート(演奏パートの組み合わせ)であるかを判定する。
まず、CPU12aは、前記記録した演奏データを複数の区間に分割する(図4参照)。例えば、各区間の長さΔtは10ミリ秒である。CPU12aは、前記各区間を、1つの楽音のみが発音開始された区間(つまり、単音が発音された区間)と、複数の楽音が発音開始された区間(つまり、和音が発音された区間)とに分類する。なお、図4においては、前記記録した演奏データを、所謂ピアノロール形式で表示している。
図3に示すように、例えば、単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が中音域(例えば、「60」〜「83」)又は高音域(例えば、「84」〜「108」)に含まれる場合、CPU12aは、メロディパートが演奏されたと判定する。
単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が低音域(例えば、「59」以下)に含まれる場合、CPU12aは、ベースパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音を構成する楽音のうち隣り合う音高の楽音のキーナンバの差の平均が小さい(例えば「3」以下)とき、CPU12aは、コードパートが片手で演奏されたと判定する。また、単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば30%より大きく)、各和音を片手で演奏可能であるとき、CPU12aは、コードが片手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が「12」以下であるとき、「和音を片手で演奏可能である」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が低音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が所定の値(例えば「15」)以上であるとき、「和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布している」と判定する。なお、前記キーナンバの差が「12」であれば、片手で演奏(押鍵)可能と考えられる。前記キーナンバの差が「12」を超えた場合には、片手で演奏することが困難であり、特に、前記キーナンバの差が「17」を超えた場合には、片手で演奏することは、ほぼ不可能である。そこで、前記キーナンバの差を、「13」〜「17」のうちのいずれかの値に設定するのが適切である。また、CPU12aは、例えば、楽音のキーナンバの平均が「60(中央のド)」以下であるとき、「和音が低音域に偏っている」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が高音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、楽音のキーナンバの平均が「72」より大きいとき、「和音が高音域に偏っている」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音の最高音と最低音のキーナンバの差が、所定の閾値(例えば「12」)以上であるとき、CPU12aは、左手でベースパートが演奏され、右手でメロディパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均よりも小さいとき、CPU12aは、左手でベースパートが演奏され、右手でコードパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均以上であるとき、CPU12aは、左手でコードパートが演奏され、右手でメロディパートが演奏されたと判定する。
つぎに、CPU12aは、ステップS13にて、前記判定した演奏パートの名称を表示器13に表示して、ユーザに1つの演奏パートを選択させる。ユーザは、入力操作子11を用いて、表示された演奏パートのうち、音楽のジャンルの特徴を最もよく表している演奏パートを選択する。なお、ステップS12にて判定された演奏パートが1つである場合には、その演奏パートが自動的に選択されても良い。
つぎに、CPU12aは、ステップS14にて、例えば、特開平6−295179に記載されている手順と同様の手順で前記記録した演奏データを分析し、各区間に含まれるキーオンデータのうちの1つ又は複数のデータに、識別子として、「LB」、「LT」、「RB」、「RT」を付加する(図4参照)。なお、「LB」は、左手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「LT」は、左手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。また、「RB」は、右手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「RT」は、右手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。
具体的には、CPU12aは、1小節ごとに、前記記録した演奏データを分析して、各識別子をキーオンデータに付加する。まず、CPU12aは、処理対象の小節を選択する。以降、CPU12aは、処理対象の小節の先頭の区間から末尾の区間へ向かって処理対象の区間を1つずつ順に選択して分析していく。CPU12aは、処理対象の区間より前の区間(1つ前の区間又は数個前の区間)のキーオンデータに付加されている識別子を参照して、処理対象の区間のキーオンデータに識別子を付加する。つまり、ユーザの手の動きを考慮して、処理対象の区間においてユーザが右手及び左手で押さえた鍵に係るキーオンデータを検出する。これにより、ベース、メロディ又はコードを構成する音符列(キーオンデータの系列)を抽出することができる。なお、先頭の区間においては、前の区間が存在しない。そこで、例えば、処理対象の小節内の最高音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「RT」を付加する。また、処理対象の小節内の最低音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「LB」を付加する。また、前記生成した2つのキーオンデータのキーナンバに基づいて、「RB」及び「LT」を付加するキーオンデータを仮に生成する。例えば、前記生成した2つのキーオンデータのキーナンバを用いて、2つのキーナンバを補間演算(内挿)する。そして、前記補間演算により得られたキーナンバを有するキーオンデータを仮に生成し、前記生成したキーオンデータに「RB」及び「LT」を付加する。
例えば、処理対象の区間が単音の区間である場合、CPU12aは、1つ前の区間(又は数個前の区間)のキーオンデータのうち、「RT」又は「LB」が付されたキーオンデータを選択する。つぎに、CPU12aは、前記選択したキーオンデータのうち、キーナンバが処理対象の区間のキーオンデータのキーナンバに近いキーオンデータを選択する。そして、CPU12aは、前記選択したキーオンデータに付されている識別子と同じ識別子を処理対象の区間のキーオンデータに付加する。
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブ以上であれば、この区間においては、ユーザが両手で演奏した可能性が高い。そこで、CPU12aは、最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「LB」を付加する。また、最高音と最低音との間に他のキーオンデータが存在する場合、CPU12aは、前記他のキーオンデータのうち、最もキーナンバの小さいキーオンデータを選択する。前記選択したキーオンデータのキーナンバが最低音のキーナンバよりも最高音のキーナンバに近ければ、CPU12aは、前記選択したキーオンデータに「RB」を付加する。この場合、CPU12aは、最低音にさらに「LT」を付加する。
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブより小さければ、この区間においては、ユーザが片手で演奏した可能性が高い。この場合、CPU12aは、次に説明するベース信頼度BR及びメロディ信頼度MRを計算する。
ベース信頼度BRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RB」及び「LB」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RB」が付されたキーオンデータのキーナンバKNRB及び「LB」が付されたキーオンデータのキーナンバKNLB、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(1)に適用する。この演算結果がベース信頼度BRである。
BR=(KNRB−KNCB)+(KNCT−KNCB)―2×(KNCB−KNLB)・・・(1)
BR=(KNRB−KNCB)+(KNCT−KNCB)―2×(KNCB−KNLB)・・・(1)
また、メロディ信頼度MRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RT」及び「LT」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RT」が付されたキーオンデータのキーナンバKNRT及び「LT」が付されたキーオンデータのキーナンバKNLT、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(2)に適用する。この演算結果がメロディ信頼度MRである。
MR=(KNCT−KNLT)+(KNCT−KNCB)―2×(KNRT−KNCT)・・・(2)
MR=(KNCT−KNLT)+(KNCT−KNCB)―2×(KNRT−KNCT)・・・(2)
ベース信頼度BRが「0」以下であり、且つメロディ信頼度MRが「0」より大きいとき、処理対象の区間において、ユーザは右手で演奏したと考えられる。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「RB」を付加する。一方、ベース信頼度BRが「0」より大きく、且つメロディ信頼度MRが「0」以下であるとき、処理対象の区間において、ユーザは左手で演奏したと考えられる。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「LT」を付加し、最低音のキーオンデータに「LB」を付加する。
つぎに、CPU12aは、ステップS15にて、前記記録した演奏データから、前記選択された演奏パートのキーオンデータの系列を抽出する。そして、前記抽出したキーオンデータの系列と、前記選択された演奏パートに対応するデータベースに含まれる各伴奏スタイルデータのうちの所定の演奏パートデータを構成するキーオンデータの系列との類似度を計算する。類似度の計算手順については後述する。
例えば、ステップS13において、メロディパート又はコードパートが選択された場合、CPU12aは、前記演奏データのうち、「RT」が付されたキーオンデータの系列を抽出する。そして、CPU12aは、コードパートデータベースに含まれる各伴奏スタイルデータのコードパートを構成する楽音のうち、各区間における最高音のキーオンデータの系列と、前記抽出したキーオンデータの系列との類似度を計算する。
また、例えば、ステップS13において、ベースパートが選択された場合、CPU12aは、前記演奏データのうち、「LB」が付されたキーオンデータの系列を抽出する。そして、CPU12aは、ベースパートデータベースに含まれる各伴奏スタイルデータのベースパートを構成する楽音のうち、各区間における最低音のキーオンデータの系列と、前記抽出したキーオンデータの系列との類似度を計算する。
前記類似度は次のようにして計算される。まず、CPU12aは、上記特許文献1に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列と比較対象のキーオンデータの系列のリズムの類似度を、各キーオンデータに対応するタイミングデータを用いて計算する。そして、CPU12aは、上記特許文献2に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列におけるキーナンバの変化の態様と比較対象のキーオンデータの系列におけるキーナンバの変化の態様の類似度を計算する。
つぎに、CPU12aは、ステップS16にて、前記計算した類似度の高い順に各伴奏スタイルデータの名称を並べたリストを検索結果として、表示器13に表示する。そして、CPU12aは、ステップS17にて、伴奏スタイルデータ検索処理を終了する。
上記のように、電子楽器10においては、演奏データを構成する各楽音のキーナンバ及び発音タイミングの分布に基づいて、何れの演奏パートが演奏されたのかが判定される。つぎに、ユーザは前記判定された演奏パートのうちの1つの演奏パートを選択する。そして、前記演奏データから、前記選択された演奏パートのキーオンデータの系列が抽出される。そして、前記抽出されたキーオンデータの系列と、前記選択された演奏パートに対応するデータベースに含まれる伴奏スタイルデータの演奏パートであって、前記選択された演奏パートに対応する演奏パートのキーオンデータの系列との類似度が計算され、前記類似度の高い順に各伴奏スタイルデータの名称が表示される。このように、電子楽器10によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、伴奏スタイルデータを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、ユーザは、類似度の計算に適した演奏パート(つまり、特徴的な演奏パート)を選択することができる。また、各伴奏スタイルデータは、音楽のジャンルの特徴を表す演奏パートごとに分類されており、前記選択された演奏パートに対応するデータベースに含まれる伴奏スタイルデータが検索対象(検索範囲)として選択される。例えば、ベースパートの演奏は、音楽のジャンル(バラード、ロック、ジャズ、ボサノバなど)に特有の演奏パターンを含むことが多い。したがって、演奏データからベースパートのキーオンデータの系列を抽出するとともに、ベースパートデータベースに含まれる伴奏スタイルデータが検索対象として選択される。このように、検索対象(検索範囲)が限定されるので、検索精度(的確性)を向上させることができる。
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
上記実施形態においては、ユーザが鍵盤装置を用いて演奏した演奏データに相性の良い伴奏スタイルデータが検索される。これに代えて、予め記録された演奏データをROM12b、記憶装置14などから読み込んで、前記読み込んだ演奏データに相性の良い伴奏スタイルデータが検索されるように構成しても良い。
また、伴奏スタイルデータではなく、複数の演奏パートからなる楽曲データが検索されるように構成しても良い。また、上記の伴奏スタイルデータ及び楽曲データ(音楽データ)は、オーディオデータであってもよい。すなわち、これらの音楽データは、複数の演奏パートの演奏(楽音)を所定のサンプリング周期でサンプリングして得られた複数のサンプル値から構成されていても良い。この場合、従来の手法(例えば、特開2009−217260号公報に記載の手法)を用いて、前記オーディオデータに基づいて、各演奏パートの各楽音の音高及び発音タイミングを抽出すればよい。
また、上記実施形態においては、伴奏スタイルデータがメロディパートを含まない例を説明した。しかし、伴奏スタイルデータが、メロディパートを含んでいてもよい。ただし、これらのメロディパートが、伴奏スタイルデータを検索するために利用され、各セクションの演奏時には再生されないように設定されていてもよい。そして、メロディパートを含む複数の伴奏スタイルデータからメロディパートデータベースが構成されていてもよい。この場合、ステップS13において、メロディパートが選択されたとき、CPU12aは、前記演奏データのうち、「RT」が付されたキーオンデータの系列を抽出する。そして、CPU12aは、メロディパートデータベースに含まれる各伴奏スタイルデータのメロディパートを構成する楽音の系列と、前記抽出したキーオンデータの系列との類似度を計算するとよい。なお、ステップS13においてベースパート又はコードパートが選択されたときの動作は、上記実施形態と同様である。このように、選択されたデータベースに含まれる伴奏スタイルデータの演奏パートであって、ステップS13にて選択された演奏パートと同一の演奏パートの演奏と、ステップS13にて選択された演奏パートの演奏との類似度が計算されてもよい。
また、定番のフレーズ、耳慣れたフレーズなどを表す複数のフレーズデータを記憶するとともに、各フレーズデータに1つ又は複数の伴奏スタイルデータを対応付けておいてもよい。この場合、ステップS13において、メロディパートが選択されたとき、CPU12aは、前記演奏データのうち、「RT」が付されたキーオンデータの系列を抽出する。そして、CPU12aは、前記フレーズデータを構成する楽音の系列と、前記抽出したキーオンデータの系列との類似度を計算し、前記計算した類似度が所定の閾値(例えば、80%)を超えたとき、前記フレーズデータに対応付けられた伴奏スタイルデータのリストを表示してもよい。
10・・・電子楽器、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム、BR・・・ベース信頼度、BUS・・・バス、MR・・・メロディ信頼度、WM・・・波形メモリ
Claims (5)
- 各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段と、
複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段と、
前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段と、
前記選択手段によって選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算する類似度計算手段と、
前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた、音楽データ検索装置。 - 請求項1に記載の音楽データ検索装置において、
前記演奏パート判定手段は、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する、音楽データ検索装置。 - 請求項2に記載の音楽データ検索装置において、
前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定する、音楽データ検索装置。 - 請求項1乃至3のうちのいずれか1つに記載の音楽データ検索装置において、
前記類似度計算手段は、前記演奏データから、前記選択された演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算する、音楽データ検索装置。 - コンピュータを、
各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段と、
複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段と、
前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段と、
前記選択手段によって選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算する類似度計算手段と、
前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた、音楽データ検索装置として機能させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043512A JP2016161900A (ja) | 2015-03-05 | 2015-03-05 | 音楽データ検索装置及び音楽データ検索プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043512A JP2016161900A (ja) | 2015-03-05 | 2015-03-05 | 音楽データ検索装置及び音楽データ検索プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016161900A true JP2016161900A (ja) | 2016-09-05 |
Family
ID=56845140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015043512A Pending JP2016161900A (ja) | 2015-03-05 | 2015-03-05 | 音楽データ検索装置及び音楽データ検索プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016161900A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
US11600251B2 (en) | 2018-04-26 | 2023-03-07 | University Of Tsukuba | Musicality information provision method, musicality information provision apparatus, and musicality information provision system |
-
2015
- 2015-03-05 JP JP2015043512A patent/JP2016161900A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11600251B2 (en) | 2018-04-26 | 2023-03-07 | University Of Tsukuba | Musicality information provision method, musicality information provision apparatus, and musicality information provision system |
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
US11955104B2 (en) | 2020-01-17 | 2024-04-09 | Yamaha Corporation | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8680387B2 (en) | Systems and methods for composing music | |
US9536508B2 (en) | Accompaniment data generating apparatus | |
JP2014194536A (ja) | コード検出装置およびコード検出方法を実現するためのプログラム | |
US8946534B2 (en) | Accompaniment data generating apparatus | |
JP2012103603A (ja) | 情報処理装置、楽曲区間抽出方法、及びプログラム | |
JP5293710B2 (ja) | 調判定装置および調判定プログラム | |
US8791350B2 (en) | Accompaniment data generating apparatus | |
JP6733720B2 (ja) | 演奏装置、演奏プログラム、及び演奏パターンデータ生成方法 | |
JP3698057B2 (ja) | 自動アレンジ装置及び方法 | |
JP3419278B2 (ja) | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 | |
JP2016161900A (ja) | 音楽データ検索装置及び音楽データ検索プログラム | |
JP2008089975A (ja) | 電子楽器 | |
JP6554826B2 (ja) | 音楽データ検索装置及び音楽データ検索プログラム | |
US20210225345A1 (en) | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program | |
JP3724347B2 (ja) | 自動作曲装置及び方法並びに記憶媒体 | |
JP5909967B2 (ja) | 調判定装置、調判定方法及び調判定プログラム | |
JP2940449B2 (ja) | 自動演奏装置 | |
JP3775390B2 (ja) | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 | |
JP2000112472A (ja) | 自動作曲装置と記録媒体 | |
JP3807333B2 (ja) | メロディ検索装置およびメロディ検索プログラム | |
JP3775386B2 (ja) | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 | |
JP3821094B2 (ja) | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 | |
JP3738634B2 (ja) | 自動伴奏装置、及び記録媒体 | |
JP6424501B2 (ja) | 演奏装置及び演奏プログラム | |
JP5387032B2 (ja) | 電子音楽装置及びプログラム |