JP6554826B2 - Music data retrieval apparatus and music data retrieval program - Google Patents
Music data retrieval apparatus and music data retrieval program Download PDFInfo
- Publication number
- JP6554826B2 JP6554826B2 JP2015043513A JP2015043513A JP6554826B2 JP 6554826 B2 JP6554826 B2 JP 6554826B2 JP 2015043513 A JP2015043513 A JP 2015043513A JP 2015043513 A JP2015043513 A JP 2015043513A JP 6554826 B2 JP6554826 B2 JP 6554826B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- data
- music data
- performance part
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
本発明は、楽器の演奏を表す演奏データを取得し、前記演奏データが表す演奏に相性の良い音楽を表す音楽データ(例えば、伴奏スタイルデータ、楽曲データなど)を検索して提示する音楽データ検索装置及び音楽データ検索プログラムに関する。 The present invention obtains performance data representing the performance of a musical instrument, and retrieves music data representing music data (for example, accompaniment style data, music data, etc.) representing music that is compatible with the performance represented by the performance data. The present invention relates to an apparatus and a music data search program.
従来から、例えば、下記特許文献1に記載されているように、複数の音楽データ(伴奏スタイルデータ、楽曲データなど)を記憶した電子楽器は知られている。この電子楽器は、鍵盤装置を備えている。ユーザが鍵盤装置を用いて演奏すると、前記演奏のリズムパターンと同一又は類似するリズムパターンを有する音楽データが検索され、前記検索された音楽データの名称が表示される。 2. Description of the Related Art Conventionally, as described in Patent Document 1 below, for example, an electronic musical instrument that stores a plurality of music data (accompaniment style data, music data, etc.) is known. This electronic musical instrument includes a keyboard device. When the user performs using the keyboard device, music data having a rhythm pattern that is the same as or similar to the rhythm pattern of the performance is searched, and the name of the searched music data is displayed.
また、例えば、下記特許文献2に記載されているように、楽曲(曲名)を検索する楽曲検索装置(コンピュータプログラム)は知られている。この楽曲検索装置によれば、ユーザがメロディ(単音の系列)を入力すると、データベースの中から、前記入力したメロディを含む楽曲が検索され、前記検索された楽曲の曲名が表示される。 For example, as described in Patent Document 2 below, a music search device (computer program) for searching for music (song title) is known. According to this music search apparatus, when the user inputs a melody (single tone series), the music including the input melody is searched from the database, and the name of the searched music is displayed.
上記特許文献1に記載の電子楽器においては、ユーザがリズムパート(ドラムパート)を演奏した場合には、良好な検索結果が得られる。この電子楽器は、ユーザがメロディパート、コードパート、ベースパートなどの演奏パートを演奏することを想定していないので、例えば、ユーザが、バラード調の音楽データを検索しようとして、右手でメロディを弾きつつ、左手でアルペジオを弾いた場合、全く異なるジャンルの音楽データが検索されることがある。よって、ユーザは、良好な検索結果を得るために、敢えてリズムパート(ドラムパート)を演奏する必要がある。 In the electronic musical instrument described in Patent Document 1, a good search result is obtained when a user plays a rhythm part (drum part). Since this electronic musical instrument does not assume that the user plays a performance part such as a melody part, a chord part, or a bass part, for example, the user plays a melody with the right hand in order to search for ballad-like music data. However, when an arpeggio is played with the left hand, music data of a completely different genre may be searched. Therefore, the user needs to play the rhythm part (drum part) in order to obtain a good search result.
また、上記特許文献2に記載の楽曲検索装置においては、各音の長さ(又は発音タイミング)を指定することができない。すなわち、ユーザが入力したメロディの各音間の音高(音程)の変化の態様が一致(又は類似)する部分を含む楽曲であれば、比較対象の各音同士の長さ(つまりメロディのリズム)が全く異なっていたとしても、前記入力したメロディに一致(又は類似)する楽曲として判断される。よって、ユーザが意図した楽曲とは全く異なる楽曲が検索されることがある。 Moreover, in the music search apparatus described in Patent Document 2, the length of each sound (or sounding timing) cannot be specified. That is, if the music includes a portion in which the pitch (pitch) change between the sounds of the melody input by the user is the same (or similar), the lengths of the sounds to be compared (that is, the rhythm of the melody) ) Are completely different, it is determined that the music matches (or resembles) the input melody. Therefore, a music completely different from the music intended by the user may be searched.
本発明は上記問題に対処するためになされたもので、その目的は、従来よりも検索精度(的確性)を向上させた音楽データ検索装置及び音楽データ検索プログラムを提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。 The present invention has been made to address the above-described problems, and an object of the present invention is to provide a music data search device and a music data search program that have improved search accuracy (accuracy) as compared with the prior art. In addition, in the description of each constituent element of the present invention below, in order to facilitate understanding of the present invention, reference numerals of corresponding portions of the embodiment are described in parentheses, but each constituent element of the present invention is The present invention should not be construed as being limited to the configurations of the corresponding portions indicated by the reference numerals of the embodiments.
上記目的を達成するために、本発明の特徴は、各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段(S11)と、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段(14)と、前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段(S12)であって、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する演奏パート判定手段と、前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段(S14)と、前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段(S15)と、を備えた、音楽データ検索装置(10)としたことにある。
In order to achieve the above object, the present invention is characterized in that performance data acquisition means (S11) for acquiring performance data including pitch information indicating the pitch of each musical tone and timing information indicating the sounding timing of each musical tone; A music data storage means (14) for storing a plurality of music data each composed of a plurality of performance part data representing performances of a plurality of performance parts, and a performance part included in the performance represented by the performance data; A performance part determination means (S12) , which is a performance part determination means for determining the performance part based on the pitch of each musical tone and the distribution of the sounding timing, and a performance part for each stored music data. The similarity calculation means (S) for calculating the similarity between the performance of the performance part corresponding to the determined performance part and the performance of the determined performance part 4) and output means (S15) for generating and outputting search result data representing a search result of music data similar to the performance data based on the calculated similarity, and a music data search device (10) That is.
この場合、前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定するとよい。In this case, the performance part determining means divides the performance represented by the acquired performance data into a plurality of sections, and determines the performance part based on a ratio of a section where a single sound is generated or a section where a chord is generated. Good.
また、この場合、前記類似度計算手段は、前記演奏データから、所定の演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算するとよい。Further, in this case, the similarity calculation means extracts a sequence of musical sounds of a predetermined performance part from the performance data, and any one of the pitch information and the timing information representing the extracted musical sound sequences. The similarity may be calculated using one or both.
また、この場合、音楽データ検索装置は、前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段を備え、前記類似度計算手段は、前記選択手段によって選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算するとよい。さらに、この場合、前記類似度計算手段は、前記演奏データから、前記選択された演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算するとよい。Further, in this case, the music data search apparatus includes a selection unit that selects one performance part among the determined performance parts, and the similarity calculation unit corresponds to the performance part selected by the selection unit. By selecting music data, one of the performance parts constituting the selected music data, the performance part being the same as or corresponding to the performance part selected by the selection means, and the selection means The similarity with the performance of the selected performance part may be calculated. Further, in this case, the similarity calculation means extracts a musical tone sequence of the selected performance part from the performance data, and the pitch information and the timing information representing the extracted musical tone sequence are extracted. The similarity may be calculated using either one or both.
一般に、ユーザが伴奏スタイルデータを検索しようとするとき、ユーザは、前記楽曲の特徴的な部分(演奏パート)を最初に思い浮かべ、その部分を演奏することが多い。そして、その特徴的な部分は、楽曲によって異なる。つまり、ユーザが演奏する演奏パートがベースパートである場合もあれば、メロディパートである場合もある。また、ユーザが両手で複数の演奏パートを演奏する場合もある。そこで、本発明に係る音楽データ検索装置においては、演奏データに基づいて、前記演奏データが表す演奏に含まれる演奏パートが判定される。つぎに、前記判定した演奏パートの演奏と、各音楽データの演奏パートであって、前記判定した演奏パートに対応する所定の演奏パートの演奏との類似度が計算され、その類似度に従って、検索結果が表示される。本発明によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、音楽データを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、上記のように、前記判定した演奏パートの演奏と、各音楽データの演奏パートであって、前記判定した演奏パートに対応する所定の演奏パートの演奏との類似度が計算される。これにより、検索精度(的確度)を向上させることができる。例えば、楽曲の特徴を表す演奏パート同士の類似度を比較すれば、検索精度をより向上させることができる。 Generally, when a user tries to search for accompaniment style data, the user often thinks about a characteristic part (performance part) of the music first and plays that part. And the characteristic part changes with music. That is, the performance part performed by the user may be a base part or a melody part. In some cases, the user plays a plurality of performance parts with both hands. Therefore, in the music data retrieval apparatus according to the present invention, the performance part included in the performance represented by the performance data is determined based on the performance data. Next, the similarity between the performance of the determined performance part and the performance of the predetermined performance part corresponding to the determined performance part, which is the performance part of each music data, is calculated, and search is performed according to the similarity. The result is displayed. According to the present invention, the user does not need to perform a special performance in order to obtain a good search result. That is, when playing a part of a piece of music to search for music data, the user can play any performance part without being aware of the search result. Further, as described above, the similarity between the performance of the determined performance part and the performance of the predetermined performance part corresponding to the determined performance part is calculated. Thereby, search accuracy (accuracy) can be improved. For example, if the similarities between performance parts representing the characteristics of music are compared, the search accuracy can be further improved.
なお、本発明は、音楽データ検索装置としての実施に限られず、音楽データ検索装置が備えるコンピュータに適用されるコンピュータプログラム(音楽データ検索プログラム)、又は音楽データ検索方法としても実施可能である。
The present invention is not limited to implementation as a music data search device, but can also be implemented as a computer program (music data search program) or a music data search method applied to a computer provided in the music data search device.
本発明の一実施形態に係る電子楽器10について説明する。まず、電子楽器10の概略について説明する。電子楽器10は、自動伴奏機能を備えている。すなわち、電子楽器10は、複数の伴奏スタイルデータを備えている。伴奏スタイルデータは、所定長(例えば2小節の長さ)の伴奏(フレーズ)を表す。伴奏スタイルデータは、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータから構成されている。伴奏スタイルデータは、少なくとも、コードパート及びベースパートの演奏パートデータを含む。各演奏パートデータは、複数のノートデータ(MIDIデータ)から構成されている。各ノートデータは、発音開始を表すキーオンデータ又は発音停止を表すキーオフデータを含む。キーオンデータは、発音開始する音の音高を表す音高データ(キーナンバ)を含む。また、キーオフデータは、発音停止する音の音高を表す音高データ(キーナンバ)を含む。また、各ノートデータは、発音開始のタイミング又は発音停止のタイミングを表すタイミングデータを含む。伴奏パターンの再生中に、ユーザが鍵盤装置を用いてコード(和音)を入力する(複数の鍵を押す)と、伴奏スタイルデータの演奏パートの音高が前記コードに応じて変更される。 An electronic musical instrument 10 according to an embodiment of the present invention will be described. First, an outline of the electronic musical instrument 10 will be described. The electronic musical instrument 10 has an automatic accompaniment function. That is, the electronic musical instrument 10 includes a plurality of accompaniment style data. The accompaniment style data represents an accompaniment (phrase) having a predetermined length (for example, a length of two bars). The accompaniment style data is composed of a plurality of performance part data representing performances of a plurality of performance parts. The accompaniment style data includes at least performance parts data of chord parts and bass parts. Each performance part data is composed of a plurality of note data (MIDI data). Each note data includes key-on data indicating the start of sound generation or key-off data indicating the stop of sound generation. The key-on data includes pitch data (key number) representing the pitch of the sound at which sound generation is started. The key-off data includes pitch data (key number) representing the pitch of the sound whose sound generation is stopped. Each note data includes timing data representing the timing of starting sound generation or the timing of stopping sound generation. When the user inputs chords (chords) using the keyboard device while playing the accompaniment pattern (presses a plurality of keys), the pitch of the performance part of the accompaniment style data is changed according to the chords.
また、電子楽器10は、伴奏スタイルデータの検索機能を備えている。すなわち、ユーザが鍵盤装置を用いて楽曲の一部(例えば、楽曲の特徴的な部分)を演奏すると、前記演奏に相性の良い伴奏スタイルデータの名称が表示される。以下の説明において、伴奏スタイルデータを検索する際の電子楽器10の動作モードを伴奏スタイルデータ検索モードと呼ぶ。また、鍵盤装置を用いて演奏する際の電子楽器10の動作モードを演奏モードと呼ぶ。 Further, the electronic musical instrument 10 has a search function for accompaniment style data. That is, when a user plays a part of a song (for example, a characteristic part of a song) using the keyboard device, the name of accompaniment style data that is compatible with the performance is displayed. In the following description, the operation mode of the electronic musical instrument 10 when searching for accompaniment style data is referred to as an accompaniment style data search mode. The operation mode of the electronic musical instrument 10 when performing using the keyboard device is referred to as a performance mode.
つぎに、電子楽器10の具体的構成について説明する。電子楽器10は、図1に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。
Next, a specific configuration of the electronic musical instrument 10 will be described. As shown in FIG. 1, the electronic musical instrument 10 includes an
入力操作子11は、電子楽器10の動作モードを切り替える際、音色を選択する際などに用いられる設定操作子を含む。設定操作子は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11は、楽曲を演奏する際に用いられる演奏操作子を含む。演奏操作子は、例えば、鍵盤装置を含む。鍵盤装置は、複数の鍵から構成されている。各鍵には、互いに異なるキーナンバが割り当てられている。例えば、鍵盤装置は、88個(「A0」〜「C8」)の鍵から構成されている。最低音(「A0」)の鍵から最高音(「C8」)の鍵に向かって順に、「21」,「22」,「23」,・・・,「108」がキーナンバとして割り当てられている。ユーザが入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。例えば、鍵が押されたときには、前記押された鍵のキーナンバを含むキーオンデータがコンピュータ部12に供給される。また、鍵が離されたときには、前記離された鍵のキーナンバを含むキーオフデータがコンピュータ部12に供給される。
The
コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b、RAM12c及びタイマ12dを含む。例えば、鍵盤装置の鍵が押されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音開始させる。また、例えば、鍵盤装置の鍵が離されると、CPU12aは、鍵盤装置から取得したキーナンバを音源回路16に供給して、前記キーナンバに対応する楽音を発音停止させる。また、例えば、CPU12aは、詳しくは後述する伴奏スタイルデータ検索プログラムをROM12bから読み出して実行し、ユーザが演奏した楽曲に相性の良い伴奏スタイルデータを検索する。ROM12bには、伴奏スタイルデータ検索プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、各種データが一時的に記憶される。タイマ12dは、CPU12aからの指示に応じた時間間隔で割り込み信号をCPU12aに供給する。例えば、タイマ12dは、メトロノームのクリック音を発生させるタイミングを計算する際に利用される。また、例えば、タイマ12dは、伴奏スタイルデータに基づいて伴奏を再生する際に利用される。具体的には、CPU12aは、タイマ12dから割り込み信号を受信するごとに、伴奏(伴奏スタイルデータを構成する各演奏パートデータ)の再生進行位置を表すカウンタをインクリメントする。また、CPU12aは、押されている鍵のキーナンバに基づいて、入力されているコードを検出する。そして、CPU12aは、伴奏スタイルデータを構成するノートデータのうち、前記カウンタのカウント値に対応するタイミングデータを有するノートデータを選択する。CPU12aは、前記検出したコードに応じて、前記選択されたノートデータ(具体的には、各演奏パートの音高)を修正する。CPU12aは、前記修正したノートデータを構成するキーオンデータ又はキーオフデータを音源回路16に供給する。
The
表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、伴奏スタイルデータの検索結果が表示される。
The
また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の伴奏スタイルデータ、楽曲データなどが記憶されている。これらの伴奏スタイルデータ、楽曲データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込まれてもよい。
The
外部インターフェース回路15は、電子楽器10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。電子楽器10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。
The
音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aから指定された音色波形データを波形メモリWMから読み出して、前記読み出した音色波形データを用いてキーオンデータ(又はキーオフデータ)に対応する楽音の音響波形を表す音響波形データを生成し、サウンドシステム17に供給する。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。
Connected to the
サウンドシステム17は、音源回路16から供給された音響波形データをアナログオーディオ信号に変換するD/A変換器、前記変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。
The
つぎに、伴奏スタイルデータの検索機能について説明する。ユーザが、入力操作子11を用いて、電子楽器10の動作モードを伴奏スタイルデータ検索モードに切り替えると、CPU12aは、図2に示す、伴奏スタイルデータ検索プログラムをROM12cから読み込んで実行する。CPU12aは、ステップS10にて、伴奏スタイルデータ検索処理を開始する。つぎに、CPU12aは、ステップS11にて、ユーザに楽曲を演奏させる。ユーザは、まず、入力操作子11を用いて、演奏しようとする楽曲の拍子及びテンポを設定する。CPU12aは、前記設定されたテンポに従って、メトロノームを動作させる。そして、ユーザは、入力操作子11を用いて演奏データの記録を開始することを指示し、鍵盤装置を用いて演奏する。ユーザは、片手又は両手で鍵盤装置を操作し、メロディパート、コードパート、及びベースパートのうちのいずれか1つ又は複数の演奏パートを演奏する。CPU12aは、鍵盤装置から取得したキーオンデータ及びキーオフデータを、音源回路16に供給するとともに、前記取得したキーオンデータ及びキーオフデータを、それらの取得タイミングに関連付けて演奏データとして記録(RAM12c又はROM12bに記憶)する。ユーザが演奏を終了すると、CPU12aは、演奏データの記録を停止し、各小節線に相当するタイミングを計算する。この際、CPU12aは、前記計算したタイミングが小節線であることを表す小節線データを、演奏データに挿入してもよい。
Next, a search function for accompaniment style data will be described. When the user switches the operation mode of the electronic musical instrument 10 to the accompaniment style data search mode using the
つぎに、CPU12aは、ステップS12にて、前記記録した演奏データ及び図3に示す判定テーブルに基づいて、ユーザによって演奏された演奏パートが何れの演奏パート(演奏パートの組み合わせ)であるかを判定する。
Next, in step S12, the
まず、CPU12aは、前記記録した演奏データを複数の区間に分割する(図4参照)。例えば、各区間の長さΔtは10ミリ秒である。CPU12aは、前記各区間を、1つの楽音のみが発音開始された区間(つまり、単音が発音された区間)と、複数の楽音が発音開始された区間(つまり、和音が発音された区間)とに分類する。なお、図4においては、前記記録した演奏データを、所謂ピアノロール形式で表示している。
First, the
図3に示すように、例えば、単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が中音域(例えば、「60」〜「83」)又は高音域(例えば、「84」〜「108」)に含まれる場合、CPU12aは、メロディパートが演奏されたと判定する。
As shown in FIG. 3, for example, the ratio of a single sound section is 90% or more, and the average key number of a musical sound (key-on data) is a middle sound range (for example, “60” to “83”) or a high sound range (for example, , “84” to “108”), the
単音の区間の割合が90%以上であって、楽音(キーオンデータ)のキーナンバの平均が低音域(例えば、「59」以下)に含まれる場合、CPU12aは、ベースパートが演奏されたと判定する。
When the proportion of a single tone section is 90% or more and the average key number of musical tones (key-on data) is included in the low sound range (for example, “59” or less), the
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音を構成する楽音のうち隣り合う音高の楽音のキーナンバの差の平均が小さい(例えば「3」以下)とき、CPU12aは、コードパートが片手で演奏されたと判定する。また、単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば30%より大きく)、各和音を片手で演奏可能であるとき、CPU12aは、コードが片手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が「12」以下であるとき、「和音を片手で演奏可能である」と判定する。
The proportion of a single tone segment is 90% or less, the proportion of a chord segment composed of three or more musical tones is low (for example, 30% or less), and the adjacent musical pitches of the musical tones constituting the chord are When the average of the key number differences is small (for example, “3” or less), the
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が低音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、和音を構成する楽音のうち最も音高が低い楽音と最も音高が高い楽音のキーナンバの差が所定の値(例えば「15」)以上であるとき、「和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布している」と判定する。なお、前記キーナンバの差が「12」であれば、片手で演奏(押鍵)可能と考えられる。前記キーナンバの差が「12」を超えた場合には、片手で演奏することが困難であり、特に、前記キーナンバの差が「17」を超えた場合には、片手で演奏することは、ほぼ不可能である。そこで、前記キーナンバの差を、「13」〜「17」のうちのいずれかの値に設定するのが適切である。また、CPU12aは、例えば、楽音のキーナンバの平均が「60(中央のド)」以下であるとき、「和音が低音域に偏っている」と判定する。
The proportion of single notes is 90% or less, the proportion of chords composed of three or more musical notes is high (for example, greater than 60%), and the key numbers of the musical notes that make up the chords cannot be played with one hand When the chord is biased toward the low range, the
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が高く(例えば60%より大きく)、和音を構成する楽音のキーナンバが片手では演奏不可能な範囲に分布しており、和音が高音域に偏っているとき、CPU12aは、コードパートが両手で演奏されたと判定する。なお、CPU12aは、例えば、楽音のキーナンバの平均が「72」より大きいとき、「和音が高音域に偏っている」と判定する。
The proportion of single notes is 90% or less, the proportion of chords composed of three or more musical notes is high (for example, greater than 60%), and the key numbers of the musical notes that make up the chords cannot be played with one hand When the chord is biased toward the high range, the
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が低く(例えば30%以下)、和音の最高音と最低音のキーナンバの差が、所定の閾値(例えば「12」)以上であるとき、CPU12aは、左手でベースパートが演奏され、右手でメロディパートが演奏されたと判定する。 The proportion of a single note is 90% or less, the proportion of a chord composed of three or more musical sounds is low (for example, 30% or less), and the difference between the key numbers of the highest and lowest chords is predetermined. CPU12a determines that the bass part is played with the left hand and the melody part is played with the right hand.
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均よりも小さいとき、CPU12aは、左手でベースパートが演奏され、右手でコードパートが演奏されたと判定する。
The proportion of a single tone segment is 90% or less, and the proportion of a chord segment composed of three or more musical tones is medium (for example, greater than 30% and less than 60%). When the average of the key numbers is smaller than the average of the key numbers of the musical tones in the chord section, the
単音の区間の割合が90%以下であって、3つ以上の楽音から構成された和音の区間の割合が中程度(例えば30%より大きく、60%以下)であり、単音の区間の楽音のキーナンバの平均が、和音の区間の楽音のキーナンバの平均以上であるとき、CPU12aは、左手でコードパートが演奏され、右手でメロディパートが演奏されたと判定する。
The proportion of a single tone segment is 90% or less, and the proportion of a chord segment composed of three or more musical tones is medium (for example, greater than 30% and less than 60%). When the average of the key numbers is equal to or greater than the average of the key numbers of the musical tones in the chord section, the
つぎに、CPU12aは、ステップS13にて、例えば、特開平6−295179に記載されている手順と同様の手順で前記記録した演奏データを分析し、各区間に含まれるキーオンデータのうちの1つ又は複数のデータに、識別子として、「LB」、「LT」、「RB」、「RT」を付加する(図4参照)。なお、「LB」は、左手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「LT」は、左手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。また、「RB」は、右手で演奏された楽音のうちの最低音のキーオンデータに付加される識別子である。また、「RT」は、右手で演奏された楽音のうちの最高音のキーオンデータに付加される識別子である。
Next, in step S13, the
具体的には、CPU12aは、1小節ごとに、前記記録した演奏データを分析して、各識別子をキーオンデータに付加する。まず、CPU12aは、処理対象の小節を選択する。以降、CPU12aは、処理対象の小節の先頭の区間から末尾の区間へ向かって処理対象の区間を1つずつ順に選択して分析していく。CPU12aは、処理対象の区間より前の区間(1つ前の区間又は数個前の区間)のキーオンデータに付加されている識別子を参照して、処理対象の区間のキーオンデータに識別子を付加する。つまり、ユーザの手の動きを考慮して、処理対象の区間においてユーザが右手及び左手で押さえた鍵に係るキーオンデータを検出する。これにより、ベース、メロディ又はコードを構成する音符列(キーオンデータの系列)を抽出することができる。なお、先頭の区間においては、前の区間が存在しない。そこで、例えば、処理対象の小節内の最高音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「RT」を付加する。また、処理対象の小節内の最低音のキーオンデータを1つ前の区間のキーオンデータとして仮に生成し、前記生成したキーオンデータに「LB」を付加する。また、前記生成した2つのキーオンデータのキーナンバに基づいて、「RB」及び「LT」を付加するキーオンデータを仮に生成する。例えば、前記生成した2つのキーオンデータのキーナンバを用いて、2つのキーナンバを補間演算(内挿)する。そして、前記補間演算により得られたキーナンバを有するキーオンデータを仮に生成し、前記生成したキーオンデータに「RB」及び「LT」を付加する。
Specifically, the
例えば、処理対象の区間が単音の区間である場合、CPU12aは、1つ前の区間(又は数個前の区間)のキーオンデータのうち、「RT」又は「LB」が付されたキーオンデータを選択する。つぎに、CPU12aは、前記選択したキーオンデータのうち、キーナンバが処理対象の区間のキーオンデータのキーナンバに近いキーオンデータを選択する。そして、CPU12aは、前記選択したキーオンデータに付されている識別子と同じ識別子を処理対象の区間のキーオンデータに付加する。
For example, when the section to be processed is a single-tone section, the
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブ以上であれば、この区間においては、ユーザが両手で演奏した可能性が高い。そこで、CPU12aは、最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「LB」を付加する。また、最高音と最低音との間に他のキーオンデータが存在する場合、CPU12aは、前記他のキーオンデータのうち、最もキーナンバの小さいキーオンデータを選択する。前記選択したキーオンデータのキーナンバが最低音のキーナンバよりも最高音のキーナンバに近ければ、CPU12aは、前記選択したキーオンデータに「RB」を付加する。この場合、CPU12aは、最低音にさらに「LT」を付加する。
Further, for example, when the section to be processed is a chord section, if the pitch difference between the highest sound and the lowest sound is 1 octave or more, it is highly likely that the user has played with both hands in this section. Therefore, the
また、例えば、処理対象の区間が和音の区間である場合、最高音と最低音の音高差が1オクターブより小さければ、この区間においては、ユーザが片手で演奏した可能性が高い。この場合、CPU12aは、次に説明するベース信頼度BR及びメロディ信頼度MRを計算する。
Further, for example, when the section to be processed is a chord section, if the pitch difference between the highest sound and the lowest sound is smaller than one octave, the user is highly likely to perform with one hand in this section. In this case, the
ベース信頼度BRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RB」及び「LB」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RB」が付されたキーオンデータのキーナンバKNRB及び「LB」が付されたキーオンデータのキーナンバKNLB、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(1)に適用する。この演算結果がベース信頼度BRである。
BR=(KNRB−KNCB)+(KNCT−KNCB)―2×(KNCB−KNLB)・・・(1)
The base reliability BR is calculated as follows. The
BR = (KN RB −KN CB ) + (KN CT −KN CB ) −2 × (KN CB −KN LB ) (1)
また、メロディ信頼度MRは次のようにして計算される。CPU12aは、処理対象の区間の直近の区間であって、「RT」及び「LT」が付されたキーオンデータを含む区間をそれぞれ選択する。そして、「RT」が付されたキーオンデータのキーナンバKNRT及び「LT」が付されたキーオンデータのキーナンバKNLT、並びに処理対象の区間の最低音のキーナンバKNCB及び最高音のキーナンバKNCTを下記の演算式(2)に適用する。この演算結果がメロディ信頼度MRである。
MR=(KNCT−KNLT)+(KNCT−KNCB)―2×(KNRT−KNCT)・・・(2)
The melody reliability MR is calculated as follows. The
MR = (KN CT −KN LT ) + (KN CT −KN CB ) −2 × (KN RT −KN CT ) (2)
ベース信頼度BRが「0」以下であり、且つメロディ信頼度MRが「0」より大きいとき、処理対象の区間において、ユーザは右手で演奏した可能性が高い。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「RT」を付加し、最低音のキーオンデータに「RB」を付加する。一方、ベース信頼度BRが「0」より大きく、且つメロディ信頼度MRが「0」以下であるとき、処理対象の区間において、ユーザは左手で演奏した可能性が高い。したがって、CPU12aは、処理対象の区間の最高音のキーオンデータに「LT」を付加し、最低音のキーオンデータに「LB」を付加する。
When the base reliability BR is equal to or lower than “0” and the melody reliability MR is higher than “0”, the user is highly likely to perform with the right hand in the processing target section. Therefore, the
つぎに、CPU12aは、ステップS14にて、上述のステップS12における判定結果に応じて、前記記録した演奏データから、所定のキーオンデータの系列を抽出する。そして、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのうちの所定の演奏パートデータを構成するキーオンデータの系列との類似度を計算する。類似度の計算手順については後述する。
Next, in step S14, the
例えば、上述のステップS12においてメロディパートが演奏されたと判定された場合、CPU12aは、前記記録した演奏データのうち、「RT」が付されたキーオンデータを抽出する。また、例えば、上述のステップS12において、コードパートが片手で演奏されたと判定された場合、及びコードパートが両手で演奏されたと判定された場合であって和音が低音域に偏っている場合も、CPU12aは、「RT」が付されたキーオンデータを抽出する。これらの場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのコードパートのキーオンデータの系列との類似度を計算する。
For example, if it is determined in step S12 that the melody part has been played, the
また、例えば、上述のステップS12においてベースパートが演奏されたと判定された場合、CPU12aは、前記記録した演奏データのうち、「LB」が付されたキーオンデータを抽出する。また、例えば、上述のステップS12においてコードパートが両手で演奏されたと判定された場合であって和音が高音域に偏っている場合、左手でベースパートが演奏され且つ右手でメロディパートが演奏されたと判定された場合も、CPU12aは、「LB」が付されたキーオンデータを抽出する。さらに、いずれの判定条件にも該当しなかった場合も、CPU12aは、「LB」が付されたキーオンデータを抽出する。これらの場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのベースパートのキーオンデータの系列との類似度を計算する。
For example, when it is determined in step S12 that the bass part has been played, the
また、例えば、上述のステップS12において左手でコードパートが演奏され且つ右手でメロディパートが演奏されたと判定された場合、CPU12aは、「LB」が付されたキーオンデータを抽出する。この場合、CPU12aは、前記抽出したキーオンデータの系列と、各伴奏スタイルデータのコードパートのキーオンデータの系列との類似度を計算する。
For example, if it is determined in step S12 that the chord part is played with the left hand and the melody part is played with the right hand, the
前記類似度は次のようにして計算される。まず、CPU12aは、上記特許文献1に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列と比較対象のキーオンデータの系列のリズムの類似度を、各キーオンデータに対応するタイミングデータを用いて計算する。そして、CPU12aは、上記特許文献2に記載の手法と同様の手法を用いて、前記抽出したキーオンデータの系列におけるキーナンバの変化の態様と比較対象のキーオンデータの系列におけるキーナンバの変化の態様の類似度を計算する。
The similarity is calculated as follows. First, the
つぎに、CPU12aは、ステップS15にて、前記計算した類似度の高い順に各伴奏スタイルデータの名称を並べたリストを検索結果として、表示器13に表示する。そして、CPU12aは、ステップS16にて、伴奏スタイルデータ検索処理を終了する。
Next, in step S15, the
上記のように、電子楽器10においては、演奏データを構成する各楽音のキーナンバ及び発音タイミングの分布に基づいて、何れの演奏パートが演奏されたのかが判定される。つぎに、前記演奏データから、前記判定結果に応じたキーオンデータの系列が抽出される。そして、前記抽出されたキーオンデータの系列と、各伴奏スタイルデータの所定の演奏パートとの類似度が計算され、前記類似度の高い順に各伴奏スタイルデータの名称が表示される。このように、電子楽器10によれば、ユーザは、良好な検索結果を得るために特殊な演奏をする必要がない。つまり、ユーザは、伴奏スタイルデータを検索するために楽曲の一部を演奏する際、検索結果を意識することなく、任意の演奏パートを演奏できる。また、図3に示す表に従って、類似度の計算に適した演奏パートのキーオンデータの系列が演奏データから抽出されるとともに、比較対象の演奏パートが選択されるので、検索精度(的確性)を向上させることができる。例えば、ベースパートの演奏は、音楽のジャンル(バラード、ロック、ジャズ、ボサノバなど)に特有の演奏パターンを含むことが多い。したがって、演奏データからベースパートのキーオンデータの系列を抽出することにより、検索精度(的確性)を向上させることができる。 As described above, in the electronic musical instrument 10, it is determined which performance part has been played based on the key number of each musical tone constituting the performance data and the distribution of sound generation timing. Next, a sequence of key-on data corresponding to the determination result is extracted from the performance data. Then, the similarity between the extracted key-on data series and a predetermined performance part of each accompaniment style data is calculated, and the names of the accompaniment style data are displayed in descending order of the similarity. Thus, according to the electronic musical instrument 10, the user does not need to perform a special performance in order to obtain a favorable search result. That is, when playing a part of a piece of music to search for accompaniment style data, the user can play any performance part without being aware of the search result. Also, according to the table shown in FIG. 3, a performance part key-on data series suitable for calculating the similarity is extracted from the performance data, and the performance part to be compared is selected, so that the search accuracy (accuracy) is improved. Can be improved. For example, the performance of the bass part often includes a performance pattern specific to the music genre (ballad, rock, jazz, bossa nova, etc.). Therefore, by extracting a base part key-on data sequence from the performance data, the search accuracy (accuracy) can be improved.
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。 Furthermore, in carrying out the present invention, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.
上記実施形態においては、ユーザが鍵盤装置を用いて演奏した演奏データに相性の良い伴奏スタイルデータが検索される。これに代えて、予め記録された演奏データをROM12b、記憶装置14などから読み込んで、前記読み込んだ演奏データに相性の良い伴奏スタイルデータが検索されるように構成しても良い。
In the above-described embodiment, accompaniment style data that is compatible with performance data performed by the user using the keyboard device is retrieved. Instead, performance data recorded in advance may be read from the
また、伴奏スタイルデータではなく、複数の演奏パートからなる楽曲データが検索されるように構成しても良い。また、上記の伴奏スタイルデータ及び楽曲データ(音楽データ)は、オーディオデータであってもよい。すなわち、これらの音楽データは、複数の演奏パートの演奏(楽音)を所定のサンプリング周期でサンプリングして得られた複数のサンプル値から構成されていても良い。この場合、従来の手法(例えば、特開2009−217260号公報に記載の手法)を用いて、前記オーディオデータに基づいて、各演奏パートの各楽音の音高及び発音タイミングを抽出すればよい。 Further, instead of the accompaniment style data, music data including a plurality of performance parts may be searched. The accompaniment style data and music data (music data) may be audio data. That is, these music data may be composed of a plurality of sample values obtained by sampling performances (musical sounds) of a plurality of performance parts at a predetermined sampling period. In this case, the pitch and tone generation timing of each musical tone of each performance part may be extracted based on the audio data using a conventional method (for example, the method described in Japanese Patent Application Laid-Open No. 2009-217260).
10・・・電子楽器、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム、BR・・・ベース信頼度、BUS・・・バス、MR・・・メロディ信頼度、WM・・・波形メモリ DESCRIPTION OF SYMBOLS 10 ... Electronic musical instrument, 11 ... Input operation element, 12 ... Computer part, 13 ... Display, 14 ... Memory | storage device, 15 ... External interface circuit, 16 ... Sound source circuit , 17 ... Sound system, BR ... Base reliability, BUS ... Bus, MR ... Melody reliability, WM ... Waveform memory
Claims (9)
複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段であって、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する演奏パート判定手段と、
前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段と、
前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた音楽データ検索装置。 Performance data acquisition means for acquiring performance data including pitch information indicating the pitch of each musical sound and timing information indicating the sound generation timing of each musical sound;
Music data storage means for storing a plurality of music data each composed of a plurality of performance part data respectively representing performances of a plurality of performance parts;
Performance part determination means for determining a performance part included in the performance represented by the performance data, wherein the performance part determination means determines the performance part based on a pitch and a sounding timing distribution of each musical sound;
A similarity calculation means for calculating a similarity between the performance part corresponding to the determined performance part and the performance of the determined performance part, which is the performance part of each stored music data;
A music data search device comprising: output means for generating and outputting search result data representing a search result of music data similar to the performance data based on the calculated similarity.
前記演奏パート判定手段は、前記取得した演奏データが表す演奏を複数の区間に分割し、単音が発音された区間又は和音が発音された区間の割合に基づいて、前記演奏パートを判定する、音楽データ検索装置。 The music data search device according to claim 1,
The performance part determination means divides a performance represented by the acquired performance data into a plurality of sections, and determines the performance part based on a ratio of a section where a single sound is generated or a section where a chord is generated. Data retrieval device.
前記類似度計算手段は、前記演奏データから、所定の演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算する、音楽データ検索装置。 In the music data search device according to claim 1 or 2,
The similarity calculation means extracts a musical tone sequence of a predetermined performance part from the performance data, and uses either one or both of the pitch information and the timing information representing the extracted musical tone sequence. And a music data search device for calculating the similarity.
前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段を備え、 Selecting means for selecting one of the determined performance parts;
前記類似度計算手段は、前記選択手段によって選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算する、音楽データ検索装置。 The similarity calculation means selects music data corresponding to the performance part selected by the selection means, and is one performance part of the performance parts constituting the selected music data, and the selection means A music data retrieval device for calculating a similarity between a performance of a performance part that is the same as or corresponding to a selected performance part and a performance of a performance part selected by the selection means.
前記類似度計算手段は、前記演奏データから、前記選択された演奏パートの楽音の系列を抽出し、前記抽出した楽音の系列を表す前記音高情報及び前記タイミング情報のうちのいずれか一方又は両方を用いて、前記類似度を計算する、音楽データ検索装置。 The similarity calculation means extracts a musical tone sequence of the selected performance part from the performance data, and either or both of the pitch information and the timing information representing the extracted musical tone sequence A music data search device that calculates the similarity using
各楽音の音高を表す音高情報及び前記各楽音の発音タイミングを表すタイミング情報を含む演奏データを取得する演奏データ取得手段と、
複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データを記憶した音楽データ記憶手段と、
前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定手段であって、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する演奏パート判定手段と、
前記記憶されている各音楽データの演奏パートであって、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算手段と、
前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力手段と、を備えた、音楽データ検索装置として機能させる、コンピュータプログラム。 Computer
Performance data acquisition means for acquiring performance data including pitch information indicating the pitch of each musical sound and timing information indicating the sound generation timing of each musical sound;
Music data storage means for storing a plurality of music data each composed of a plurality of performance part data respectively representing performances of a plurality of performance parts;
Performance part determination means for determining a performance part included in the performance represented by the performance data, wherein the performance part determination means determines the performance part based on a pitch and a sounding timing distribution of each musical sound;
A similarity calculation means for calculating a similarity between the performance part corresponding to the determined performance part and the performance of the determined performance part, which is the performance part of each stored music data;
A computer program that functions as a music data search device, comprising: output means for generating and outputting search result data representing a search result of music data similar to the performance data based on the calculated similarity.
前記コンピュータを、 The computer,
前記判定した演奏パートのうちの1つの演奏パートを選択する選択手段を備え、 Selecting means for selecting one of the determined performance parts;
前記類似度計算手段は、前記選択手段によって選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択手段によって選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択手段によって選択された演奏パートの演奏との類似度を計算する、音楽データ検索装置として機能させる、コンピュータプログラム。 The similarity calculation means selects music data corresponding to the performance part selected by the selection means, and is one performance part of the performance parts constituting the selected music data, and the selection means A computer program functioning as a music data search device for calculating a similarity between a performance of a performance part that is the same as or corresponding to a selected performance part and a performance of a performance part selected by the selection means.
前記演奏データが表す演奏に含まれる演奏パートを判定する演奏パート判定ステップであって、各楽音の音高及び発音タイミングの分布に基づいて、前記演奏パートを判定する演奏パート判定ステップと、 A performance part determining step for determining a performance part included in the performance represented by the performance data, the performance part determining step for determining the performance part based on a pitch of each musical sound and a distribution of sound generation timing;
所定の音楽データ記憶手段に記憶されている複数の音楽データであって、複数の演奏パートの演奏をそれぞれ表す複数の演奏パートデータからそれぞれ構成された複数の音楽データの演奏パートのうち、前記判定した演奏パートに対応する演奏パートの演奏と前記判定した演奏パートの演奏との類似度を計算する類似度計算ステップと、 Of the plurality of music data stored in the predetermined music data storage means, the determination among the performance parts of the plurality of music data each composed of a plurality of performance part data respectively representing performances of the plurality of performance parts A similarity calculation step for calculating a similarity between the performance of the performance part corresponding to the performance part and the performance of the determined performance part;
前記計算した類似度に基づいて、前記演奏データに類似する音楽データの検索結果を表す検索結果データを生成して出力する出力ステップと、を含む、音楽データ検索方法。 An output step of generating and outputting search result data representing a search result of music data similar to the performance data based on the calculated similarity.
前記判定した演奏パートのうちの1つの演奏パートを選択する選択ステップを含み、 A selection step of selecting one performance part of the determined performance parts;
前記類似度計算ステップは、前記選択ステップにて選択された演奏パートに対応する音楽データを選択し、前記選択した音楽データを構成する演奏パートのうちの1つの演奏パートであって、前記選択ステップにて選択された演奏パートと同一又は対応する演奏パートの演奏と前記選択ステップにて選択された演奏パートの演奏との類似度を計算するステップを含む、音楽データ検索方法。 The similarity calculation step selects music data corresponding to the performance part selected in the selection step, and is one performance part of the performance parts constituting the selected music data, wherein the selection step A method for retrieving music data, comprising: calculating a similarity between the performance of a performance part that is the same as or corresponding to the performance part selected in step 1 and the performance of the performance part selected in the selection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043513A JP6554826B2 (en) | 2015-03-05 | 2015-03-05 | Music data retrieval apparatus and music data retrieval program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043513A JP6554826B2 (en) | 2015-03-05 | 2015-03-05 | Music data retrieval apparatus and music data retrieval program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161901A JP2016161901A (en) | 2016-09-05 |
JP6554826B2 true JP6554826B2 (en) | 2019-08-07 |
Family
ID=56845102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015043513A Active JP6554826B2 (en) | 2015-03-05 | 2015-03-05 | Music data retrieval apparatus and music data retrieval program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6554826B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419830B2 (en) * | 2020-01-17 | 2024-01-23 | ヤマハ株式会社 | Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5970934B2 (en) * | 2011-04-21 | 2016-08-17 | ヤマハ株式会社 | Apparatus, method, and recording medium for searching performance data using query indicating musical tone generation pattern |
-
2015
- 2015-03-05 JP JP2015043513A patent/JP6554826B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016161901A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9117432B2 (en) | Apparatus and method for detecting chord | |
US9536508B2 (en) | Accompaniment data generating apparatus | |
JP5293710B2 (en) | Key judgment device and key judgment program | |
JP3698057B2 (en) | Automatic arrangement apparatus and method | |
JP2019008336A (en) | Musical performance apparatus, musical performance program, and musical performance pattern data generation method | |
JP6645085B2 (en) | Automatic arrangement device and program | |
JP6554826B2 (en) | Music data retrieval apparatus and music data retrieval program | |
JP2008089975A (en) | Electronic musical instrument | |
JP2016161900A (en) | Music data search device and music data search program | |
JP7419830B2 (en) | Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program | |
JP3633335B2 (en) | Music generation apparatus and computer-readable recording medium on which music generation program is recorded | |
JP5909967B2 (en) | Key judgment device, key judgment method and key judgment program | |
JP2940449B2 (en) | Automatic performance device | |
JP6606844B2 (en) | Genre selection device, genre selection method, program, and electronic musical instrument | |
JP3752859B2 (en) | Automatic composer and recording medium | |
JP3807333B2 (en) | Melody search device and melody search program | |
JP2000112472A (en) | Automatic music composing device, and recording medium | |
JP7425558B2 (en) | Code detection device and code detection program | |
JP3775390B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP3775386B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP3775388B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP2016057389A (en) | Chord determination device and chord determination program | |
JP5387032B2 (en) | Electronic music apparatus and program | |
JP3413842B2 (en) | Automatic accompaniment device | |
JP5387031B2 (en) | Electronic music apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6554826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |