JP2016161901A - 音楽データ検索装置及び音楽データ検索プログラム - Google Patents

音楽データ検索装置及び音楽データ検索プログラム Download PDF

Info

Publication number
JP2016161901A
JP2016161901A JP2015043513A JP2015043513A JP2016161901A JP 2016161901 A JP2016161901 A JP 2016161901A JP 2015043513 A JP2015043513 A JP 2015043513A JP 2015043513 A JP2015043513 A JP 2015043513A JP 2016161901 A JP2016161901 A JP 2016161901A
Authority
JP
Japan
Prior art keywords
data
performance
key
music data
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015043513A
Other languages
English (en)
Other versions
JP6554826B2 (ja
Inventor
大地 渡邊
Daichi Watanabe
大地 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015043513A priority Critical patent/JP6554826B2/ja
Publication of JP2016161901A publication Critical patent/JP2016161901A/ja
Application granted granted Critical
Publication of JP6554826B2 publication Critical patent/JP6554826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】従来よりも検索精度(的確性)を向上させた音楽データ検索装置を提供する。
【解決手段】 電子楽器10は、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶している。電子楽器10は、各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する。つぎに、電子楽器10は、前記演奏データが表す演奏に含まれる演奏パートを判定する。つぎに、電子楽器10は、前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する所定の演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する。そして、電子楽器10は、前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する。
【選択図】図3

Description

本発明は、楽器の演奏を表す演奏データを取得し、前記演奏データが表す演奏に相性の良い音楽を表す音楽データ(例えば、伴奏スタイルデータ、楽曲データなど)を検索して提示する音楽データ検索装置及び音楽データ検索プログラムに関する。
従来から、例えば、下記特許文献1に記載されているように、複数の音楽データ(伴奏スタイルデータ、楽曲データなど)を記憶した電子楽器は知られている。この電子楽器は、鍵盤装置を備えている。ユーザが鍵盤装置を用いて演奏すると、前記演奏のリズムパターンと同一又は類似するリズムパターンを有する音楽データが検索され、前記検索された音楽データの名称が表示される。
また、例えば、下記特許文献2に記載されているように、楽曲(曲名)を検索する楽曲検索装置(コンピュータプログラム)は知られている。この楽曲検索装置によれば、ユーザがメロディ(単音の系列)を入力すると、データベースの中から、前記入力したメロディを含む楽曲が検索され、前記検索された楽曲の曲名が表示される。
国際公開第2012/074070号 特許5552968号公報
上記特許文献1に記載の電子楽器においては、ユーザがリズムパート(ドラムパート)を演奏した場合には、良好な検索結果が得られる。この電子楽器は、ユーザがメロディパート、コードパート、ベースパートなどの演奏パートを演奏することを想定していないので、例えば、ユーザが、バラード調の音楽データを検索しようとして、右手でメロディを弾きつつ、左手でアルペジオを弾いた場合、全く異なるジャンルの音楽データが検索されることがある。よって、ユーザは、良好な検索結果を得るために、敢えてリズムパート(ドラムパート)を演奏する必要がある。
また、上記特許文献2に記載の楽曲検索装置においては、各音の長さ(又は発音タイミング)を指定することができない。すなわち、ユーザが入力したメロディの各音間の音高(音程)の変化の態様が一致(又は類似)する部分を含む楽曲であれば、比較対象の各音同士の長さ(つまりメロディのリズム)が全く異なっていたとしても、前記入力したメロディに一致(又は類似)する楽曲として判断される。よって、ユーザが意図した楽曲とは全く異なる楽曲が検索されることがある。
本発明は上記問題に対処するためになされたもので、その目的は、従来よりも検索精度(的確性)を向上させた音楽データ検索装置及び音楽データ検索プログラムを提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。
上記目的を達成するために、本発明の特徴は、各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段(S11)と、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段(14)と、前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段(S12)と、前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段(S14)と、前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段(S15)と、を備えた、音楽データ検索装置(10)としたことにある。
この場合、前記演奏パート判定手段は、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定するとよい。
また、この場合、前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定するとよい。
また、この場合、前記類似度計算手段は、前記演奏データから、所定の演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算するとよい。
一般に、ユーザが伴奏スタイルデータを検索しようとするとき、ユーザは、前記楽曲の特徴的な部分(演奏パート)を最初に思い浮かべ、その部分を演奏することが多い。そして、その特徴的な部分は、楽曲によって異なる。つまり、ユーザが演奏する演奏パートがベースパートである場合もあれば、メロディパートである場合もある。また、ユーザが両手で複数の演奏パートを演奏する場合もある。そこで、本発明に係る音楽データ検索装置においては、演奏データに基づいて、前記演奏データが表す演奏に含まれる演奏パートが判定される。つぎに、前記判定した演奏パートの演奏と、各音楽データの演奏パートであって、前記判定した演奏パートに対応する所定の演奏パートの演奏との類似度が計算され、その類似度に従って、検索結果が表示される。本発明によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、音楽データを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、上記のように、前記判定した演奏パートの演奏と、各音楽データの演奏パートであって、前記判定した演奏パートに対応する所定の演奏パートの演奏との類似度が計算される。これにより、検索精度(的確度)を向上させることができる。例えば、楽曲の特徴を表す演奏パート同士の類似度を比較すれば、検索精度をより向上させることができる。
なお、本発明は、音楽データ検索装置としての実施に限られず、音楽データ検索装置が備えるコンピュータに適用されるコンピュータプログラム(音楽データ検索プログラム)としても実施可能である。
本発明の一実施形態に係る演奏装置の概略を表わす概略図である。 伴奏スタイルデータ検索プログラムのフローチャートである。 演奏データが表す演奏に含まれる演奏パートを判定する際に用いる判定条件、抽出されるキーオンデータ、及び比較対象の演奏パートを示す表である。 演奏データをピアノロール形式で示したグラフである。
本発明の一実施形態に係る電子楽器10について説明する。まず、電子楽器10の概略について説明する。電子楽器10は、自動伴奏機能を備えている。すなわち、電子楽器10は、複数の伴奏スタイルデータを備えている。伴奏スタイルデータは、所定長(例えば2小節の長さ)の伴奏(フレーズ)を表す。伴奏スタイルデータは、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータから構成されている。伴奏スタイルデータは、少なくとも、コードパート及びベースパートの演奏パートデータを含む。各演奏パートデータは、複数のノートデータ(MIDIデータ)から構成されている。各ノートデータは、発音開始を表すキーオンデータ又は発音停止を表すキーオフデータを含む。キーオンデータは、発音開始する音の音高を表す音高データ(キーナンバ)を含む。また、キーオフデータは、発音停止する音の音高を表す音高データ(キーナンバ)を含む。また、各ノートデータは、発音開始のタイミング又は発音停止のタイミングを表すタイミングデータを含む。伴奏パターンの再生中に、ユーザが鍵盤装置を用いてコード(和音)を入力する(複数の鍵を押す)と、伴奏スタイルデータの演奏パートの音高が前記コードに応じて変更される。
また、電子楽器10は、伴奏スタイルデータの検索機能を備えている。すなわち、ユーザが鍵盤装置を用いて楽曲の一部(例えば、楽曲の特徴的な部分)を演奏すると、前記演奏に相性の良い伴奏スタイルデータの名称が表示される。以下の説明において、伴奏スタイルデータを検索する際の電子楽器10の動作モードを伴奏スタイルデータ検索モードと呼ぶ。また、鍵盤装置を用いて演奏する際の電子楽器10の動作モードを演奏モードと呼ぶ。
つぎに、電子楽器10の具体的構成について説明する。電子楽器10は、図1に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。
入力操作子11は、電子楽器10の動作モードを切り替える際、音色を選択する際などに用いられる設定操作子を含む。設定操作子は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11は、楽曲を演奏する際に用いられる演奏操作子を含む。演奏操作子は、例えば、鍵盤装置を含む。鍵盤装置は、複数の鍵から構成されている。各鍵には、互いに異なるキーナンバが割り当てられている。例えば、鍵盤装置は、88個(「A0」〜「C8」)の鍵から構成されている。最低音(「A0」)の鍵から最高音(「C8」)の鍵に向かって順に、「21」,「22」,「23」,・・・,「108」がキーナンバとして割り当てられている。ユーザが入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。例えば、鍵が押されたときには、前記押された鍵のキーナンバを含むキーオンデータがコンピュータ部12に供給される。また、鍵が離されたときには、前記離された鍵のキーナンバを含むキーオフデータがコンピュータ部12に供給される。
コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b、RAM12c及びタイマ12dを含む。例えば、鍵盤装置の鍵が押されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音開始させる。また、例えば、鍵盤装置の鍵が離されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音停止させる。また、例えば、CPU12aは、詳しくは後述する伴奏スタイルデータ検索プログラムをROM12bから読み出して実行し、ユーザが演奏した楽曲に相性の良い伴奏スタイルデータを検索する。ROM12bには、伴奏スタイルデータ検索プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、各種データが一時的に記憶される。タイマ12dは、CPU12aからの指示に応じた時間間隔で割り込み信号をCPU12aに供給する。例えば、タイマ12dは、メトロノームのクリック音を発生させるタイミングを計算する際に利用される。また、例えば、タイマ12dは、伴奏スタイルデータに基づいて伴奏を再生する際に利用される。具体的には、CPU12aは、タイマ12dから割り込み信号を受信するごとに、伴奏(伴奏スタイルデータを構成する各演奏パートデータ)の再生進行位置を表すカウンタをインクリメントする。また、CPU12aは、押されている鍵のキーナンバに基づいて、入力されているコードを検出する。そして、CPU12aは、伴奏スタイルデータを構成するノートデータのうち、前記カウンタのカウント値に対応するタイミングデータを有するノートデータを選択する。CPU12aは、前記検出したコードに応じて、前記選択されたノートデータ(具体的には、各演奏パートの音高)を修正する。CPU12aは、前記修正したノートデータを構成するキーオンデータ又はキーオフデータを音源回路16に供給する。
表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、伴奏スタイルデータの検索結果が表示される。
また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の伴奏スタイルデータ、楽曲データなどが記憶されている。これらの伴奏スタイルデータ、楽曲データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込まれてもよい。
外部インターフェース回路15は、電子楽器10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。電子楽器10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。
音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aから指定された音色波形データを波形メモリWMから読み出して、前記読み出した音色波形データを用いてキーオンデータ(又はキーオフデータ)に対応する楽音の音響波形を表す音響波形データを生成し、サウンドシステム17に供給する。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。
サウンドシステム17は、音源回路16から供給された音響波形データをアナログオーディオ信号に変換するD/A変換器、前記変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。
つぎに、伴奏スタイルデータの検索機能について説明する。ユーザが、入力操作子11を用いて、電子楽器10の動作モードを伴奏スタイルデータ検索モードに切り替えると、CPU12aは、図2に示す、伴奏スタイルデータ検索プログラムをROM12cから読み込んで実行する。CPU12aは、ステップS10にて、伴奏スタイルデータ検索処理を開始する。つぎに、CPU12aは、ステップS11にて、ユーザに楽曲を演奏させる。ユーザは、まず、入力操作子11を用いて、演奏しようとする楽曲の拍子及びテンポを設定する。CPU12aは、前記設定されたテンポに従って、メトロノームを動作させる。そして、ユーザは、入力操作子11を用いて演奏データの記録を開始することを指示し、鍵盤装置を用いて演奏する。ユーザは、片手又は両手で鍵盤装置を操作し、メロディパート、コードパート、及びベースパートのうちのいずれか1つ又は複数の演奏パートを演奏する。CPU12aは、鍵盤装置から取得したキーオンデータ及びキーオフデータを、音源回路16に供給するとともに、前記取得したキーオンデータ及びキーオフデータを、それらの取得タイミングに関連付けて演奏データとして記録(RAM12c又はROM12bに記憶)する。ユーザが演奏を終了すると、CPU12aは、演奏データの記録を停止し、各小節線に相当するタイミングを計算する。この際、CPU12aは、前記計算したタイミングが小節線であることを表す小節線データを、演奏データに挿入してもよい。
つぎに、CPU12aは、ステップS12にて、前記記録した演奏データ及び図3に示す判定テーブルに基づいて、ユーザによって演奏された演奏パートが何れの演奏パート(演奏パートの組み合わせ)であるかを判定する。
まず、CPU12aは、前記記録した演奏データを複数の区間に分割する(図4参照)。例えば、各区間の長さΔtは10ミリ秒である。CPU12aは、前記各区間を、1つの楽音のみが発音開始された区間(つまり、単音が発音された区間)と、複数の楽音が発音開始された区間(つまり、和音が発音された区間)とに分類する。なお、図4においては、前記記録した演奏データを、所謂ピアノロール形式で表示している。
図3に示すように、例えば、単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が中音域(例えば、「60」〜「83」)又は高音域(例えば、「84」〜「108」)に含まれる場合、CPU12aは、メロディパートが演奏されたと判定する。
単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が低音域(例えば、「59」以下)に含まれる場合、CPU12aは、ベースパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音を構成する楽音のうち隣り合う音高の楽音のキーナンバの差の平均が小さい(例えば「3」以下)とき、CPU12aは、コードパートが片手で演奏されたと判定する。また、単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば30%より大きく)、各和音を片手で演奏可能であるとき、CPU12aは、コードが片手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が「12」以下であるとき、「和音を片手で演奏可能である」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が低音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が所定の値(例えば「15」)以上であるとき、「和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布している」と判定する。なお、前記キーナンバの差が「12」であれば、片手で演奏(押鍵)可能と考えられる。前記キーナンバの差が「12」を超えた場合には、片手で演奏することが困難であり、特に、前記キーナンバの差が「17」を超えた場合には、片手で演奏することは、ほぼ不可能である。そこで、前記キーナンバの差を、「13」〜「17」のうちのいずれかの値に設定するのが適切である。また、CPU12aは、例えば、楽音のキーナンバの平均が「60(中央のド)」以下であるとき、「和音が低音域に偏っている」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が高音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、楽音のキーナンバの平均が「72」より大きいとき、「和音が高音域に偏っている」と判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音の最高音と最低音のキーナンバの差が、所定の閾値(例えば「12」)以上であるとき、CPU12aは、左手でベースパートが演奏され、右手でメロディパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均よりも小さいとき、CPU12aは、左手でベースパートが演奏され、右手でコードパートが演奏されたと判定する。
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均以上であるとき、CPU12aは、左手でコードパートが演奏され、右手でメロディパートが演奏されたと判定する。
つぎに、CPU12aは、ステップS13にて、例えば、特開平6−295179に記載されている手順と同様の手順で前記記録した演奏データを分析し、各区間に含まれるキーオンデータのうちの1つ又は複数のデータに、識別子として、「LB」、「LT」、「RB」、「RT」を付加する(図4参照)。なお、「LB」は、左手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「LT」は、左手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。また、「RB」は、右手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「RT」は、右手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。
具体的には、CPU12aは、1小節ごとに、前記記録した演奏データを分析して、各識別子をキーオンデータに付加する。まず、CPU12aは、処理対象の小節を選択する。以降、CPU12aは、処理対象の小節の先頭の区間から末尾の区間へ向かって処理対象の区間を1つずつ順に選択して分析していく。CPU12aは、処理対象の区間より前の区間(1つ前の区間又は数個前の区間)のキーオンデータに付加されている識別子を参照して、処理対象の区間のキーオンデータに識別子を付加する。つまり、ユーザの手の動きを考慮して、処理対象の区間においてユーザが右手及び左手で押さえた鍵に係るキーオンデータを検出する。これにより、ベース、メロディ又はコードを構成する音符列(キーオンデータの系列)を抽出することができる。なお、先頭の区間においては、前の区間が存在しない。そこで、例えば、処理対象の小節内の最高音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「RT」を付加する。また、処理対象の小節内の最低音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「LB」を付加する。また、前記生成した2つのキーオンデータのキーナンバに基づいて、「RB」及び「LT」を付加するキーオンデータを仮に生成する。例えば、前記生成した2つのキーオンデータのキーナンバを用いて、2つのキーナンバを補間演算(内挿)する。そして、前記補間演算により得られたキーナンバを有するキーオンデータを仮に生成し、前記生成したキーオンデータに「RB」及び「LT」を付加する。
例えば、処理対象の区間が単音の区間である場合、CPU12aは、1つ前の区間(又は数個前の区間)のキーオンデータのうち、「RT」又は「LB」が付されたキーオンデータを選択する。つぎに、CPU12aは、前記選択したキーオンデータのうち、キーナンバが処理対象の区間のキーオンデータのキーナンバに近いキーオンデータを選択する。そして、CPU12aは、前記選択したキーオンデータに付されている識別子と同じ識別子を処理対象の区間のキーオンデータに付加する。
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブ以上であれば、この区間においては、ユーザが両手で演奏した可能性が高い。そこで、CPU12aは、最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「LB」を付加する。また、最高音と最低音との間に他のキーオンデータが存在する場合、CPU12aは、前記他のキーオンデータのうち、最もキーナンバの小さいキーオンデータを選択する。前記選択したキーオンデータのキーナンバが最低音のキーナンバよりも最高音のキーナンバに近ければ、CPU12aは、前記選択したキーオンデータに「RB」を付加する。この場合、CPU12aは、最低音にさらに「LT」を付加する。
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブより小さければ、この区間においては、ユーザが片手で演奏した可能性が高い。この場合、CPU12aは、次に説明するベース信頼度BR及びメロディ信頼度MRを計算する。
ベース信頼度BRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RB」及び「LB」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RB」が付されたキーオンデータのキーナンバKNRB及び「LB」が付されたキーオンデータのキーナンバKNLB、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(1)に適用する。この演算結果がベース信頼度BRである。
BR=(KNRB−KNCB)+(KNCT−KNCB)―2×(KNCB−KNLB)・・・(1)
また、メロディ信頼度MRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RT」及び「LT」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RT」が付されたキーオンデータのキーナンバKNRT及び「LT」が付されたキーオンデータのキーナンバKNLT、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(2)に適用する。この演算結果がメロディ信頼度MRである。
MR=(KNCT−KNLT)+(KNCT−KNCB)―2×(KNRT−KNCT)・・・(2)
ベース信頼度BRが「0」以下であり、且つメロディ信頼度MRが「0」より大きいとき、処理対象の区間において、ユーザは右手で演奏した可能性が高い。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「RB」を付加する。一方、ベース信頼度BRが「0」より大きく、且つメロディ信頼度MRが「0」以下であるとき、処理対象の区間において、ユーザは左手で演奏した可能性が高い。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「LT」を付加し、最低音のキーオンデータに「LB」を付加する。
つぎに、CPU12aは、ステップS14にて、上述のステップS12における判定結果に応じて、前記記録した演奏データから、所定のキーオンデータの系列を抽出する。そして、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのうちの所定の演奏パートデータを構成するキーオンデータの系列との類似度を計算する。類似度の計算手順については後述する。
例えば、上述のステップS12においてメロディパートが演奏されたと判定された場合、CPU12aは、前記記録した演奏データのうち、「RT」が付されたキーオンデータを抽出する。また、例えば、上述のステップS12において、コードパートが片手で演奏されたと判定された場合、及びコードパートが両手で演奏されたと判定された場合であって和音が低音域に偏っている場合も、CPU12aは、「RT」が付されたキーオンデータを抽出する。これらの場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのコードパートのキーオンデータの系列との類似度を計算する。
また、例えば、上述のステップS12においてベースパートが演奏されたと判定された場合、CPU12aは、前記記録した演奏データのうち、「LB」が付されたキーオンデータを抽出する。また、例えば、上述のステップS12においてコードパートが両手で演奏されたと判定された場合であって和音が高音域に偏っている場合、左手でベースパートが演奏され且つ右手でメロディパートが演奏されたと判定された場合も、CPU12aは、「LB」が付されたキーオンデータを抽出する。さらに、いずれの判定条件にも該当しなかった場合も、CPU12aは、「LB」が付されたキーオンデータを抽出する。これらの場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのベースパートのキーオンデータの系列との類似度を計算する。
また、例えば、上述のステップS12において左手でコードパートが演奏され且つ右手でメロディパートが演奏されたと判定された場合、CPU12aは、「LB」が付されたキーオンデータを抽出する。この場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのコードパートのキーオンデータの系列との類似度を計算する。
前記類似度は次のようにして計算される。まず、CPU12aは、上記特許文献1に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列と比較対象のキーオンデータの系列のリズムの類似度を、各キーオンデータに対応するタイミングデータを用いて計算する。そして、CPU12aは、上記特許文献2に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列におけるキーナンバの変化の態様と比較対象のキーオンデータの系列におけるキーナンバの変化の態様の類似度を計算する。
つぎに、CPU12aは、ステップS15にて、前記計算した類似度の高い順に各伴奏スタイルデータの名称を並べたリストを検索結果として、表示器13に表示する。そして、CPU12aは、ステップS16にて、伴奏スタイルデータ検索処理を終了する。
上記のように、電子楽器10においては、演奏データを構成する各楽音のキーナンバ及び発音タイミングの分布に基づいて、何れの演奏パートが演奏されたのかが判定される。つぎに、前記演奏データから、前記判定結果に応じたキーオンデータの系列が抽出される。そして、前記抽出されたキーオンデータの系列と、各伴奏スタイルデータの所定の演奏パートとの類似度が計算され、前記類似度の高い順に各伴奏スタイルデータの名称が表示される。このように、電子楽器10によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、伴奏スタイルデータを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、図3に示す表に従って、類似度の計算に適した演奏パートのキーオンデータの系列が演奏データから抽出されるとともに、比較対象の演奏パートが選択されるので、検索精度(的確性)を向上させることができる。例えば、ベースパートの演奏は、音楽のジャンル(バラード、ロック、ジャズ、ボサノバなど)に特有の演奏パターンを含むことが多い。したがって、演奏データからベースパートのキーオンデータの系列を抽出することにより、検索精度(的確性)を向上させることができる。
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
上記実施形態においては、ユーザが鍵盤装置を用いて演奏した演奏データに相性の良い伴奏スタイルデータが検索される。これに代えて、予め記録された演奏データをROM12b、記憶装置14などから読み込んで、前記読み込んだ演奏データに相性の良い伴奏スタイルデータが検索されるように構成しても良い。
また、伴奏スタイルデータではなく、複数の演奏パートからなる楽曲データが検索されるように構成しても良い。また、上記の伴奏スタイルデータ及び楽曲データ(音楽データ)は、オーディオデータであってもよい。すなわち、これらの音楽データは、複数の演奏パートの演奏(楽音)を所定のサンプリング周期でサンプリングして得られた複数のサンプル値から構成されていても良い。この場合、従来の手法(例えば、特開2009−217260号公報に記載の手法)を用いて、前記オーディオデータに基づいて、各演奏パートの各楽音の音高及び発音タイミングを抽出すればよい。
10・・・電子楽器、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム、BR・・・ベース信頼度、BUS・・・バス、MR・・・メロディ信頼度、WM・・・波形メモリ

Claims (5)

  1. 各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段と、
    複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
    前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段と、
    前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段と、
    前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた、音楽データ検索装置。
  2. 請求項1に記載の音楽データ検索装置において、
    前記演奏パート判定手段は、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する、音楽データ検索装置。
  3. 請求項2に記載の音楽データ検索装置において、
    前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定する、音楽データ検索装置。
  4. 請求項1乃至3のうちのいずれか1つに記載の音楽データ検索装置において、
    前記類似度計算手段は、前記演奏データから、所定の演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算する、音楽データ検索装置。
  5. コンピュータを、
    各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段と、
    複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
    前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段と、
    前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段と、
    前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた、音楽データ検索装置として機能させる、コンピュータプログラム。
JP2015043513A 2015-03-05 2015-03-05 音楽データ検索装置及び音楽データ検索プログラム Active JP6554826B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015043513A JP6554826B2 (ja) 2015-03-05 2015-03-05 音楽データ検索装置及び音楽データ検索プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015043513A JP6554826B2 (ja) 2015-03-05 2015-03-05 音楽データ検索装置及び音楽データ検索プログラム

Publications (2)

Publication Number Publication Date
JP2016161901A true JP2016161901A (ja) 2016-09-05
JP6554826B2 JP6554826B2 (ja) 2019-08-07

Family

ID=56845102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043513A Active JP6554826B2 (ja) 2015-03-05 2015-03-05 音楽データ検索装置及び音楽データ検索プログラム

Country Status (1)

Country Link
JP (1) JP6554826B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113140201A (zh) * 2020-01-17 2021-07-20 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234168A (ja) * 2011-04-21 2012-11-29 Yamaha Corp 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234168A (ja) * 2011-04-21 2012-11-29 Yamaha Corp 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113140201A (zh) * 2020-01-17 2021-07-20 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序
US20210225345A1 (en) * 2020-01-17 2021-07-22 Yamaha Corporation Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program
US11955104B2 (en) * 2020-01-17 2024-04-09 Yamaha Corporation Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program
CN113140201B (zh) * 2020-01-17 2024-04-19 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序

Also Published As

Publication number Publication date
JP6554826B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
US9117432B2 (en) Apparatus and method for detecting chord
US9536508B2 (en) Accompaniment data generating apparatus
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
US8946534B2 (en) Accompaniment data generating apparatus
JP5293710B2 (ja) 調判定装置および調判定プログラム
JP6295583B2 (ja) 音楽データ生成装置および音楽データ生成方法を実現するためのプログラム
JP6733720B2 (ja) 演奏装置、演奏プログラム、及び演奏パターンデータ生成方法
JP5732982B2 (ja) 楽音生成装置および楽音生成プログラム
JP6645085B2 (ja) 自動アレンジ装置及びプログラム
JP2008089975A (ja) 電子楽器
JP2016161900A (ja) 音楽データ検索装置及び音楽データ検索プログラム
JP6554826B2 (ja) 音楽データ検索装置及び音楽データ検索プログラム
JP3633335B2 (ja) 楽曲生成装置および楽曲生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3724347B2 (ja) 自動作曲装置及び方法並びに記憶媒体
JP5909967B2 (ja) 調判定装置、調判定方法及び調判定プログラム
JP2021113895A (ja) 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム
JP2940449B2 (ja) 自動演奏装置
JP6606844B2 (ja) ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
JP3752859B2 (ja) 自動作曲装置と記録媒体
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
JP2000112472A (ja) 自動作曲装置と記録媒体
JP3807333B2 (ja) メロディ検索装置およびメロディ検索プログラム
JP2016057389A (ja) コード決定装置及びコード決定プログラム
JP6424501B2 (ja) 演奏装置及び演奏プログラム
JP3821094B2 (ja) 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R151 Written notification of patent or utility model registration

Ref document number: 6554826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151