JP6565529B2 - Automatic arrangement device and program - Google Patents
Automatic arrangement device and program Download PDFInfo
- Publication number
- JP6565529B2 JP6565529B2 JP2015185301A JP2015185301A JP6565529B2 JP 6565529 B2 JP6565529 B2 JP 6565529B2 JP 2015185301 A JP2015185301 A JP 2015185301A JP 2015185301 A JP2015185301 A JP 2015185301A JP 6565529 B2 JP6565529 B2 JP 6565529B2
- Authority
- JP
- Japan
- Prior art keywords
- performance information
- accompaniment
- pattern data
- accompaniment pattern
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
本発明は、音楽演奏情報を自動的にアレンジ(編曲)する装置及びプログラムに関し、特に原演奏情報が持つ特徴と相性の良い伴奏をデータベースから検索することに基づき、品質のよい自動アレンジを行なう技術に関する。 The present invention relates to an apparatus and a program for automatically arranging (arranging) music performance information, and in particular, a technique for performing high-quality automatic arrangement based on searching an accompaniment having characteristics and compatibility with original performance information from a database. About.
下記特許文献1には、所与の楽曲の複数パートのMIDI形式の自動演奏データからユーザが所望のパートを選択して、該選択されたパートについて希望する形式の楽譜を生成する技術が示されている。そこにおいて、一例として、ユーザがメロディパートを選択し、該選択したメロディパートのメロディに適した伴奏データを自動的に生成し、該選択したメロディパートと自動生成された伴奏データに基づく伴奏パートとからなる楽譜を生成することが示されている。メロディに適した伴奏データを自動的に生成する手法として、具体的には、演奏レベルに応じた複数の伴奏パターンを予め用意しておき、ユーザが選択した演奏レベルに対応する伴奏パターンを選択し、該選択された伴奏パターンに基づきメロディにおける和音進行を考慮して伴奏データを自動生成している。 Japanese Patent Application Laid-Open No. 2004-228561 shows a technique in which a user selects a desired part from MIDI format automatic performance data of a plurality of parts of a given musical piece, and generates a desired score for the selected part. ing. As an example, the user selects a melody part, automatically generates accompaniment data suitable for the melody of the selected melody part, and the accompaniment part based on the selected melody part and the automatically generated accompaniment data; It is shown to generate a score consisting of As a method for automatically generating accompaniment data suitable for a melody, specifically, a plurality of accompaniment patterns corresponding to performance levels are prepared in advance, and an accompaniment pattern corresponding to the performance level selected by the user is selected. The accompaniment data is automatically generated in consideration of the chord progression in the melody based on the selected accompaniment pattern.
下記特許文献2には、ユーザがタッピング操作等によって入力したリズムパターンに類似する伴奏パターンをデータベースから検索する技術が示されている。また、下記非特許文献1には、ユーザが入力したメロディ演奏の音高順序に基づき、該当するメロディ進行を持つ曲を検索する技術が示されている。 Japanese Patent Application Laid-Open No. 2004-259561 discloses a technique for searching an accompaniment pattern similar to a rhythm pattern input by a user by a tapping operation or the like from a database. Non-Patent Document 1 below discloses a technique for searching for music having a corresponding melody progression based on the pitch order of the melody performance input by the user.
上述した特許文献1における伴奏データの自動生成は、所与のメロディに基づき伴奏のアレンジ(編曲)を自動的に行なっていると言える。しかし、特許文献1における伴奏データの自動生成は、既存の伴奏パターン(和音バッキングあるいはアルペジオ等)を構成する楽音の音高をメロディの和音進行に応じて変更する程度のものでしかない。故に、ベースとなる既存の伴奏パターンをユーザが適切に選択しないと、メロディに合った伴奏を生成することが困難である。すなわち、特許文献1は、メロディと相性の良い伴奏パターンが自動的に選択されるものではなかった。特許文献2は、ユーザが入力したリズムパターンに類似する伴奏パターンを検索するには適するが、曲中のメロディパートあるいは和音パート、ベースパート等に適した伴奏パターンを検索することはできない。非特許文献1は、ユーザが入力した音高順序に基づき、該当するメロディ進行を持つ曲を検索するにすぎず、メロディパートに適した伴奏パターンを検索するという発想はない。
It can be said that the automatic generation of accompaniment data in Patent Document 1 described above automatically arranges (arranges) accompaniment based on a given melody. However, the automatic generation of the accompaniment data in Patent Document 1 is only to change the pitch of the musical sound constituting the existing accompaniment pattern (such as chord backing or arpeggio) according to the progress of the chord of the melody. Therefore, it is difficult to generate an accompaniment that matches the melody unless the user appropriately selects an existing accompaniment pattern that is the base. That is, Patent Document 1 does not automatically select an accompaniment pattern that is compatible with a melody.
本発明は上述の点に鑑みてなされたものであり、自動アレンジの品質を向上させることができる自動アレンジ装置及びプログラムを提供しようとするものである。 The present invention has been made in view of the above points, and an object of the present invention is to provide an automatic arrangement apparatus and program capable of improving the quality of automatic arrangement.
本発明に係る自動アレンジ装置は、原演奏情報を取得する手段と、演奏パートを指定する手段と、前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段と、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段と、前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段とを備える。 An automatic arrangement device according to the present invention includes means for acquiring original performance information, means for specifying a performance part, means for extracting performance information of the specified performance part from the acquired original performance information, and the extraction Means for retrieving accompaniment pattern data in accordance with the query from a database storing a plurality of accompaniment pattern data using the played performance information as a query, and at least a part of the original performance information based on the retrieved accompaniment pattern data And means for generating accompaniment data for use in combination.
本発明によれば、原演奏情報から指定された演奏パートの演奏情報を抽出し、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、該クエリに応じた伴奏パターンデータを検索し、該検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成するので、原演奏情報中の指定された演奏パートとの相性が良い伴奏パターンデータを自動的に検索することができ、もって、該検索された伴奏パターンデータに基づき原演奏情報との相性が良い伴奏データを容易に生成することができ、自動アレンジの品質を向上させることができる。 According to the present invention, performance information of a specified performance part is extracted from original performance information, and a plurality of accompaniment pattern data is stored as a query using the extracted performance information as a query. Since the data is retrieved and accompaniment data for use in combination with at least a part of the original performance information is generated based on the retrieved accompaniment pattern data, the compatibility with the performance part specified in the original performance information Good accompaniment pattern data can be automatically retrieved, and accompaniment data that is compatible with the original performance information can be easily generated based on the retrieved accompaniment pattern data, improving the quality of automatic arrangement Can be made.
一実施例において、前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に組み合わせるのに適した伴奏パターンデータを検索するように構成されていてよい。これにより、前記検索された伴奏パターンデータに基づき生成した伴奏データを、前記原演奏情報から抽出された前記演奏情報に組み合わせることにより、アレンジした演奏情報を提供する場合、該組み合わせによって音楽的に相性のよいアレンジを提供することができる。 In one embodiment, the means for searching for the accompaniment pattern data may be configured to search for accompaniment pattern data suitable for combining with the extracted performance information. Thus, in the case where the arranged performance information is provided by combining the accompaniment data generated based on the retrieved accompaniment pattern data with the performance information extracted from the original performance information, the combination is musically compatible. Can provide a good arrangement.
別の一実施例において、前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に代替するのに適した伴奏パターンデータを検索するように構成されていてよい。これにより、前記検索された伴奏パターンデータに基づき生成した伴奏データを、前記原演奏情報中の前記抽出された演奏情報とは別の演奏情報に組み合わせることにより、アレンジした演奏情報を提供する場合、該組み合わせからなるアレンジした演奏情報は、原演奏が持つ前記抽出された演奏情報と前記別の演奏情報との相性の良さを引き継いだものとなり、もって、音楽的に相性のよいアレンジを容易に提供することができる。 In another embodiment, the means for searching for accompaniment pattern data may be configured to search for accompaniment pattern data suitable for replacing the extracted performance information. Accordingly, when providing the performance information arranged by combining the accompaniment data generated based on the searched accompaniment pattern data with performance information different from the extracted performance information in the original performance information, The arranged performance information composed of the combination inherits the good compatibility between the extracted performance information and the other performance information of the original performance, thereby easily providing a musically compatible arrangement. can do.
本発明に係る自動アレンジ装置を構成する各手段は、それぞれの機能を実現するように構成された専用装置又は回路によって構成され得るし、それぞれの機能を実現するように構成されたプログラムモジュール及び該プログラムモジュールを実行可能なプロセッサ(CPUのような汎用プロセッサあるいはDSPのような専用プロセッサ)の組み合わせによっても構成され得る。 Each means constituting the automatic arrangement device according to the present invention can be constituted by a dedicated device or a circuit configured to realize each function, or a program module configured to realize each function, and the program module It can also be configured by a combination of processors capable of executing program modules (a general-purpose processor such as a CPU or a dedicated processor such as a DSP).
また、本発明は、装置の発明として実施しうるのみならず、各手段の機能を実現するステップからなるコンピュータ実装された方法の発明としても実施することができ、また、該方法を実行するためのプロセッサにより実行可能な命令群からなるプログラムの発明としても実施することができ、また、該プログラムを記憶した非一過性のコンピュータ読取可能な記憶媒体の発明としても実施することができる。 In addition, the present invention can be implemented not only as an apparatus invention but also as a computer-implemented method invention comprising steps for realizing the functions of the respective means, and for executing the method. The present invention can also be implemented as an invention of a program comprising a group of instructions that can be executed by a processor, and as an invention of a non-transitory computer-readable storage medium storing the program.
図1は、本発明に係る自動アレンジ装置の一実施例を示すハードウェア構成ブロック図である。この自動アレンジ装置は、必ずしも自動アレンジのための専用装置として構成されている必要はなく、パーソナルコンピュータ、携帯端末装置、電子楽器など、コンピュータ機能を持つ任意の装置又は機器において、本発明に係る自動アレンジ用のアプリケーションプログラムをインストールしてなるものであればよい。この自動アレンジ装置のハードウェア構成は、コンピュータにおいて周知の構成、例えば、CPU(中央処理ユニット)1、ROM(リードオンリメモリ)2、RAM(ランダムアクセスメモリ)3、文字及び記号等を入力するためのキーボート及びマウスを含む入力装置4、ディスプレイ5、プリンタ6、不揮発的な大容量メモリであるハードディスク7、USBメモリ等の可搬媒体8のためのメモリインターフェイス(I/F)9、音源回路ボード10、スピーカ等のサウンドシステム11、外部の通信ネットワークに接続するための通信インターフェイス(I/F)12などを含む。ROM2及び/又はハードディスク7には、本発明に係る自動アレンジ用のアプリケーションプログラム及びその他のアプリケーションプログラム並びに制御プログラムが非一過的に記憶される。
FIG. 1 is a hardware configuration block diagram showing an embodiment of an automatic arrangement device according to the present invention. The automatic arrangement device does not necessarily have to be configured as a dedicated device for automatic arrangement, and the automatic arrangement device according to the present invention can be applied to any device or device having a computer function, such as a personal computer, a portable terminal device, and an electronic musical instrument. Any application program may be installed as long as an arrangement application program is installed. The hardware arrangement of this automatic arrangement device is a well-known configuration in a computer, for example, for inputting a CPU (Central Processing Unit) 1, ROM (Read Only Memory) 2, RAM (Random Access Memory) 3, characters and symbols, etc. Input device 4 including keyboard and mouse, display 5, printer 6, hard disk 7 which is a non-volatile large-capacity memory, memory interface (I / F) 9 for portable medium 8 such as USB memory, sound
図2は、CPU1による制御の下で実行される本発明の一実施例に係る処理の機能ブロック図である。まず、ブロック20では、アレンジの対象となる音楽演奏情報(これを原演奏情報という)を取得する。原演奏情報を取得するための具体的構成はどのようなものであってもよい。例えば、取得する原演奏情報のデータ形式は、スタンダードMIDIファイル(SMF)のような所定形式で符号化されたデータであってもよいし、あるいは五線譜に描かれた楽譜のイメージ情報であってもよく、また可聴的なオーディオ波形データからなるものであってもよく、楽曲を表現しうるものであればその他任意のデータ形式からなっていてよい。楽譜イメージからなる原演奏情報を取得した場合は、公知の楽譜解析技術に従って該イメージを解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、その強弱記号、アクセント記号等の各種記号をその時間位置と共に符号化する。オーディオ波形データからなる場合も同様に、公知の音高及び音量等の解析技術に従って該オーディオ波形を解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、音量をその時間位置と共に符号化すればよい。また、取得する原演奏情報の音楽的パート構成は、実質的に複数の演奏パートを含むものであればよく、例えば、ピアノ譜のように右手パート(メロディパート)と左手パート(伴奏又は和音パートさらにはベースパート)とからなっていてもよいし、メロディパートと和音バッキング、アルペジオ、ベース及びリズム(ドラム)等の複数の伴奏パートとからなっていてもよい。また、原演奏情報を取得するための構成若しくは経路は任意であり、例えば、所望の原演奏情報を保持している可搬媒体8からメモリI/F9を介して取得してもよいし、あるいは、通信I/F12を介して外部のソース又はサーバから所望の原演奏情報を選択的に取得するようにしてもよいし、あるいは、図示しないキーボート等の演奏装置を用いてユーザがリアルタイムに演奏した曲の情報を原演奏情報として取得するようにしてもよい。CPU1がブロック20の処理を実行するとき、原演奏情報を取得する手段として機能する。
FIG. 2 is a functional block diagram of processing according to an embodiment of the present invention that is executed under the control of the CPU 1. First, in
ブロック21では、前記取得した原演奏情報における楽曲の和音進行を示す和音情報を取得する。前記取得した原演奏情報内に和音情報が含まれていれば、その和音情報を取得すればよい。前記取得した原演奏情報内に和音情報が含まれていなければ、公知の和音解析技術を用いて、原演奏情報に含まれるメロディ又は伴奏の進行を解析することにより和音を検出し、この検出に基づいて和音情報を取得すればよい。あるいは、ユーザが入力装置4等を介して和音情報を入力し、このユーザ入力に基づいて和音情報を取得するようにしてもよい。取得した和音情報は、追って、ハーモニーとなる伴奏データを生成するときに、該伴奏データが示す伴奏音の音高をシフトするために利用される。
In
ブロック22では、前記取得した原演奏情報における演奏パートの構成を判定する。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用して原演奏情報における演奏パート構成を判定すればよい。また、原演奏情報が楽譜イメージからなっている場合は、該楽譜がピアノ譜のようにメロディ譜(ト音記号譜)と伴奏譜(ヘ音記号譜)からなっているならば、あるいはパート別の五線譜からなっているならば、それに基づき原演奏情報における演奏パート構成を判定することができる。原演奏情報がパート別の音符情報として予め識別されていない場合、あるいは、パート別の五線譜からなっていない場合は、ブロック22では、原演奏情報に含まれる音符あるいは楽譜を解析することにより、該原演奏情報における奏法を判定する(該原演奏情報における各音符が、メロディ、和音、ベース等、どの演奏パートの音符として演奏されているかを推定する)。
In
ブロック22における奏法判定処理の一例について説明すると次の通りである。まず、判定対象である原演奏情報に含まれる全ての音符の音高情報を時系列順に記憶する。こうして記憶した音高情報を下記のように解析することにより、奏法判定を行なう。なお、下記において、「単音」とは、同じ発音タイミングにおいて1つの音高のみが存在していることを言い、「複音」とは、同じ発音タイミングにおいて2以上の音高が存在していることを言う。
An example of the rendition style determination process in
(1)メロディパートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)以上であって、原演奏情報中の音高の平均が所定の中音域又は高音域に属する場合、原演奏情報はメロディパートのみからなると判定する。
(1) Performance method consisting only of melody part The ratio of “single tone” in the original performance information is a predetermined high ratio (for example, 90%) or more, and the average pitch in the original performance information is a predetermined middle range or high range If it belongs to the original performance information, it is determined that the original performance information consists only of the melody part.
(2)ベースパートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)以上であって、原演奏情報中の音高の平均が所定の低音域に属する場合、原演奏情報はベースパートのみからなると判定する。
(2) Performance method comprising only the bass part When the ratio of “single notes” in the original performance information is a predetermined high ratio (for example, 90%) or more, and the average pitch in the original performance information belongs to a predetermined low frequency range The original performance information is determined to consist only of the bass part.
(3)メロディパートとベースパートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも低く、かつ、個々の「複音」における最低音高と最高音高の差が所定閾値以上である場合、原演奏情報はメロディパートとベースパートからなると判定する。すなわち、高音域側(右手)でメロディパートの演奏が行なわれ、低音域側(左手)でベースパートの演奏が行なわれる奏法であると推定される。
(3) Performance method composed of a melody part and a bass part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is lower than a predetermined threshold value. If the difference between the lowest pitch and the highest pitch in each “compound” is equal to or greater than a predetermined threshold, it is determined that the original performance information is composed of a melody part and a bass part. That is, it is presumed that the melody part is played on the high pitch side (right hand) and the bass part is played on the low pitch side (left hand).
(4)和音パートとベースパートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、「単音」の音高の平均が所定の低音域以下に属する場合、原演奏情報は和音パートとベースパートからなると判定する。すなわち、中又は高音域側(右手)で和音パートの演奏が行なわれ、低音域側(左手)でベースパートの演奏が行なわれる奏法であると推定される。
(4) Performance method composed of chord part and bass part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. If the average pitch of the “single note” falls below a predetermined low frequency range, it is determined that the original performance information is composed of a chord part and a bass part. That is, it is presumed that the chord part is played on the middle or high-frequency side (right hand) and the bass part is played on the low-frequency side (left hand).
(5)メロディパートと和音パートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、「単音」の音高の平均が「複音」の音高の平均よりも高い場合、原演奏情報はメロディパートと和音パートからなると判定する。すなわち、中又は高音域側(右手)でメロディパートの演奏が行なわれ、低音域側(左手)で和音パートの演奏が行なわれる奏法であると推定される。
(5) Performance method comprising a melody part and a chord part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold value. If the average pitch of “single note” is higher than the average pitch of “compound”, it is determined that the original performance information is composed of a melody part and a chord part. That is, it is presumed that the melody part is played on the middle or high pitch side (right hand) and the chord part is played on the low pitch side (left hand).
(6)片手での和音パートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、各「複音」における隣接音高間の差(音程)の平均が所定値よりも小さいか、又は、個々の「複音」において全ての音高が片手で演奏可能な比較的狭い音域範囲にそれぞれ収まっている場合、原演奏情報は和音パートのみからなると判定する。この場合は、鍵盤において「複音」からなる和音を片手で演奏する奏法であると推定される。
(6) Performance with only one chord part in one hand The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. In addition, the average of the differences (pitch) between adjacent pitches in each “compound” is smaller than a predetermined value, or a relatively narrow range in which all pitches can be played with one hand in each “compound” Are determined to be composed only of chord parts. In this case, it is presumed that the chord composed of “compounds” is played with one hand on the keyboard.
(7)両手での和音パートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、個々の「複音」における全ての音高が両手で演奏可能な比較的広い音域範囲にそれぞれ収まっている場合、原演奏情報は和音パートのみからなると判定する。この場合は、鍵盤において「複音」からなる和音を両手で演奏する奏法であると推定される。
(7) Performance method consisting only of chord parts with both hands The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. When all the pitches of individual “compounds” are within a relatively wide range that can be played with both hands, it is determined that the original performance information consists only of chord parts. In this case, it is presumed that this is a performance method in which a chord composed of “compounds” is played with both hands on the keyboard.
次に、ブロック23においては、アレンジに関与する演奏パートを指定する。例えば、前記ブロック22で判定した原演奏情報の演奏パート構成をGUI(ディスプレイ5)を介してユーザに提示し、後述する検索用のクエリとして使用する演奏パート(入力パート)をユーザに選択させるようにしてよい。この演奏パート(入力パート)の指定(選択)は、原演奏情報の任意の時間区間(時間的範囲)に対応づけて行なうようにしてよい。なお、ここで指定する演奏パートは、原演奏情報を構成している1又は複数の演奏パートのうちいずれか1つの演奏パートであってもよいし、原演奏情報を構成している1又は複数の演奏パートのすべて(全パート)であってもよい。更に、ブロック23において、アレンジの結果として生成される伴奏データを使用する1つの演奏パート(出力パート)をユーザに選択させるようにしてよい。CPU1がブロック23の処理を実行するとき、演奏パートを指定する手段として機能する。
Next, in
次に、ブロック24においては、前記ブロック23で指定された演奏パート(1つのパート又は全パート)の演奏情報を、原演奏情報から抽出する。この抽出は、該指定された演奏パートに対応する前記時間区間毎に行なわれる。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用して、指定された演奏パートの演奏情報を原演奏情報から抽出すればよい。他方、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいなければ、指定された演奏パートの音楽的性質を考慮して、適宜の手法に従い原演奏情報から、該指定された演奏パートの演奏情報を分析し、抽出すればよい。CPU1がブロック24の処理を実行するとき、前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段として機能する。
Next, in
ブロック24において行なう、前記指定された演奏パートの音楽的性質を考慮して該指定された演奏パートの演奏情報を抽出するための手法の一具体例につき、次に説明する。この場合、まず、判定対象である原演奏情報に含まれる全ての音符(音高及び音価情報)を時系列順に記憶する。こうして記憶した音符(音高及び音価情報)を次のように解析することにより、必要な演奏パートの演奏情報を抽出する。
A specific example of the technique for extracting performance information of the designated performance part in consideration of the musical properties of the designated performance part performed in
(a)メロディパートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、各グループ(発音タイミング)における最高音をメロディパートの候補とする。これは、通常、メロディ演奏はベースや和音よりも高音域で行なわれるからである。そして、これら候補の中から、一連のメロディパートを構成しているとみなすのにふさわしくないものを除外し、残りの候補音符をメロディパートの演奏情報として抽出する。除外の条件としては、例えば、周辺の複数の候補音符の音高の平均値よりも所定閾値以上低い音高を持つ候補音符を除外する、及び/又は、先行する発音タイミングの候補音符の音高がその次の発音タイミングの候補音符よりも高く且つ該先行する発音タイミングの候補音符の音長が該次の発音タイミングにおいても持続しているならば、該次の発音タイミングの候補音符を除外する、などがある。
(A) Extraction example of melody part Time-series notes in the original performance information are grouped together at the same sounding timing for each sounding timing, and the highest sound in each group (sounding timing) is selected as a melody part candidate. And This is because a melody performance is usually performed in a higher range than a bass or chord. Then, from these candidates, those that are not suitable for constituting a series of melody parts are excluded, and the remaining candidate notes are extracted as performance information of the melody parts. As the exclusion condition, for example, a candidate note having a pitch that is lower than the average value of the pitches of a plurality of surrounding candidate notes by a predetermined threshold or more is excluded, and / or the pitch of a candidate note at the preceding pronunciation timing Is higher than the candidate note at the next pronunciation timing and the note length at the preceding pronunciation timing is maintained at the next pronunciation timing, the candidate note at the next pronunciation timing is excluded. ,and so on.
(b)ベースパートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、各グループ(発音タイミング)における最低音をベースパートの候補とする。これは、通常、ベース演奏はメロディや和音よりも低音域で行なわれるからである。そして、これら候補の中から、一連のベースパートを構成しているとみなすのにふさわしくないものを除外し、残りの候補音符をベースパートの演奏情報として抽出する。除外の条件としては、例えば、周辺の複数の候補音符の音高の平均値よりも所定閾値以上高い音高を持つ候補音符を除外する、及び/又は、先行する発音タイミングの候補音符の音高がその次の発音タイミングの候補音符よりも低く且つ該先行する発音タイミングの候補音符の音長が該次の発音タイミングにおいても持続しているならば、該次の発音タイミングの候補音符を除外する、などがある。
(B) Bass part extraction example Time-series notes in the original performance information are grouped together at the same sounding timing for each successive sounding timing, and the lowest sound in each group (sounding timing) is the base part candidate. And This is because the bass performance is usually performed in a lower range than the melody or chord. Then, from these candidates, those that are not suitable to be regarded as constituting a series of bass parts are excluded, and the remaining candidate notes are extracted as performance information of the bass part. As the exclusion condition, for example, a candidate note having a pitch higher than the average value of the pitches of a plurality of surrounding candidate notes by a predetermined threshold or more is excluded, and / or the pitch of a candidate note at a preceding pronunciation timing Is lower than the candidate note at the next pronunciation timing and the note length at the preceding pronunciation timing is maintained at the next pronunciation timing, the candidate note at the next pronunciation timing is excluded. ,and so on.
(c)和音パートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、「複音」からなるグループ(発音タイミング)を和音パートの候補とする。そして、各グループにおいて、片手で演奏される和音を構成しているとみなすのにふさわしい複数の音符を和音パートの演奏情報として抽出する。例えば、該グループ内の音符数が3以下であり、それらの音高が片手で演奏可能な音域内に収まっているならば、該グループ内の全ての音符を和音パートの演奏情報として抽出する。あるいは、該グループ内の音符数が4以上であるならば、片手で演奏可能な音域内に収まっている音高のみを選択し、選択した音高の音符を和音パートの演奏情報として抽出する。
(C) Example of chord part extraction Time-series notes in the original performance information are grouped together for each sequential sounding timing, and notes belonging to the same sounding timing are grouped. Candidate. Then, in each group, a plurality of notes suitable to be regarded as constituting a chord played with one hand are extracted as performance information of the chord part. For example, if the number of notes in the group is 3 or less and the pitches are within the range that can be played with one hand, all the notes in the group are extracted as performance information of the chord part. Alternatively, if the number of notes in the group is 4 or more, only the pitches that fall within the range that can be played with one hand are selected, and the notes with the selected pitch are extracted as the performance information of the chord part.
次に、ブロック25においては、前記ブロック24で抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する。複数の伴奏パターンデータを記憶した該データベースは、内部のデータベース(例えばハードディスク7又は可搬媒体8)あるいは外部のデータベース(例えばインターネット上のサーバ)のいずれであってもよい。
Next, in
なお、一実施例において、既存の伴奏パターンデータのソースとして、公知の伴奏スタイルデータ(自動伴奏データ)のバンクを利用してよい。公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおいては、各カテゴリー(Pop&Rock、あるいはCountry&Blues、Standard&Jazzなど)別に複数セットの伴奏スタイルデータを記憶しており、各1セットの伴奏スタイルデータは、イントロセクション、メインセクション、フィルインセクション、エンディングセクション等の各セクション別に伴奏データセットを含んでおり、1セクション分の伴奏データセットは、リズム1、リズム2、ベース、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の複数パートの伴奏パターンデータ(テンプレート)を含んでいる。このような公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおける最下位層のパート別の伴奏パターンデータ(テンプレート)が、前記ブロック25において取得される伴奏パターンデータである。前記ブロック25においては、ある1セクション分の伴奏データセットのうち1パートのみの伴奏パターンデータを取得してもよいし、全パート若しくは一部の複数パートの伴奏パターンデータを組み合わせて取得してもよい。なお、公知のように、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の音高要素を含むパートの伴奏パターンデータ(テンプレート)においては、基準和音名(例えばCメジャー和音)を示す情報及び音高変換ルールを既定する情報等が追加的に含まれている。伴奏パターンデータ(テンプレート)の実体は、MIDI規格等に従って分散的に符号化されたデータであってもよいし、オーディオ波形データのような時間軸に沿うデータであってもよい。
In one embodiment, a bank of known accompaniment style data (automatic accompaniment data) may be used as a source of existing accompaniment pattern data. In a bank of known accompaniment style data (automatic accompaniment data), multiple sets of accompaniment style data are stored for each category (Pop & Rock, Country & Blues, Standard & Jazz, etc.), and each set of accompaniment style data is an intro section. , Main section, fill-in section, ending section, etc. each accompaniment data set is included, one section accompaniment data set is rhythm 1,
前記ブロック25において行なう検索のアルゴリズムは、大別して2種ある。1つは、クエリとした演奏情報に組み合わせるのに適した伴奏パターンデータを検索するものである(例1)。もう1つは、クエリとした演奏情報に代替するのに適した伴奏パターンデータを検索するものである(例2)。前者(例1)の検索アルゴリズムは、例えばブロック23で指定された入力パートと出力パートが異なる場合に採用される。例えば、入力パートとしてメロディパートが指定され、出力パートとしてドラムパートが指定されるような場合である。これは、原演奏情報にドラムパートの演奏情報が含まれていない場合に、原演奏情報中のメロディパートの演奏情報と相性の良いドラムパートの伴奏パターンデータを検索し、該検索した伴奏パターンデータに基づいてドラムパートの伴奏データを生成するような場合に有利である。後者(例2)の検索アルゴリズムは、例えばブロック23で指定された入力パートと出力パートが同じ場合に採用される。例えば、入力パートとして和音パートが指定され、出力パートとしても和音パートが指定されるような場合である。これは、原演奏情報中の和音パートの演奏情報を別の演奏情報に差し替えるために、該原演奏情報中の和音パートの演奏情報と相性の良い和音パートの伴奏パターンデータを検索し、該検索した伴奏パターンデータに基づいて和音パートの伴奏データを生成するような場合に有利である。
There are roughly two types of search algorithms performed in the
前記ブロック25において前記例1又は例2に従って検索を行なう場合、例えば、前記データベースに記憶されている多数の伴奏パターンデータのうち、出力パートとして指定された演奏パートの伴奏パターンデータ群を対象として、入力パートとして指定された演奏パートの演奏情報(前記ブロック24で抽出された演奏情報)をクエリとして、該クエリ演奏情報と相性の良い1以上の伴奏パターンデータを検索する。そのための具体的な検索手法は、公知の適宜の手法を採用してよい。例えば、クエリ演奏情報を構成している各音符の音高、音価、発音タイミング等の楽音要素と、検索対象伴奏パターンデータ群内の各伴奏パターンデータの該楽音要素とを比較し、それぞれの類似度を数値化して評価し、各楽音要素の類似度の合計又は平均若しくは重み付け加算等によって総合評価値を算出し、最も総合評価値の高い1以上の伴奏パターンデータを、検索するようにしてよい。この場合、所定数(1又は複数)の小節毎に前記総合評価値(区間評価値)を算出し、該算出した各区間評価値の合計又は平均若しくは重み付け加算等によって全体評価値を算出し、最も全体評価値の高い1以上の伴奏パターンデータを、検索するようにしてもよい。なお、複数の伴奏パターンデータが該検索によって得られた場合は、それらの検索された複数の伴奏パターンデータをディスプレイ5を介してユーザに提示し、そのうちいずれか1つをユーザに選択させるようにしてよい。
When searching according to Example 1 or Example 2 in the
なお、クエリである演奏情報の時間区間(時間的範囲)がN小節(Nは任意の複数)からなっているのに対して、検索対象たる伴奏パターンデータがNよりも少ないk小節からなる場合(kは1以上であって、k<N又はk<<N)は、k小節分の検索対象伴奏パターンデータを複数回繰り返すことによって必要なN小節分の検索対象伴奏パターンデータを作成し、該作成されたN小節分の検索対象伴奏パターンデータとN小節分のクエリ演奏情報とを比較するようにすればよい。この場合においては、複数の前記区間評価値に基づき前記全体評価値を求める手法を採用するのがよい。その場合、前記総合評価値(区間評価値)を算出するための前記所定数としては、例えば前記kに設定するとよい。 Note that the time section (temporal range) of the performance information that is the query consists of N bars (N is an arbitrary plural number), whereas the accompaniment pattern data to be searched consists of k bars less than N. (K is 1 or more, and k <N or k << N) creates search target accompaniment pattern data for N measures by repeating the search target accompaniment pattern data for k measures a plurality of times, The created N-bar search target accompaniment pattern data and the N-bar query performance information may be compared. In this case, it is preferable to employ a method for obtaining the overall evaluation value based on a plurality of the interval evaluation values. In this case, the predetermined number for calculating the comprehensive evaluation value (section evaluation value) may be set to k, for example.
CPU1がブロック25の処理を実行するとき、前記抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段として機能する。
When the CPU 1 executes the processing of
次に、ブロック26では、前記ブロック25における検索によって取得した伴奏パターンデータに基づき伴奏データを生成する。例えば、検索によって取得した1乃至複数小節からなる1つの伴奏パターンデータを1回又は複数回繰り返すことにより、前記クエリ演奏情報の時間的範囲に対応する時間長を持つ伴奏データを生成する。なお、必要に応じて、検索した伴奏パターンデータの1回又は複数回の繰り返しからなる伴奏データの一部をユーザ操作によって適宜変更するようにしてもよい。
Next, in
ブロック27は、前記ブロック25における検索によって取得した伴奏パターンデータが和音バッキングやアルペジオのような音高要素を持つ伴奏音を含む場合に行なわれる処理であり、前記ブロック26において伴奏データを生成する際に、前記ブロック21で取得した和音情報に応じて、生成する伴奏データの音高をシフトする。なお、前記ブロック25における検索によって取得した伴奏パターンデータがドラムパートのようなリズムパターンからなる場合は、このブロック27の処理は省略される。
The
ブロック28では、前記ブロック26で生成した伴奏データを、前記原演奏情報の少なくとも一部と組み合わせて、アレンジ済の演奏情報として、ユーザに対して提供する。前記ブロック26で生成した伴奏データを前記原演奏情報のどのパートと組み合わせるかは、例えば前記ブロック23における入力パートと出力パートの指定に従うようにしてもよいし、あるいはこのブロック28においてユーザが任意に選択するようにしてもよい。例えば、前記ブロック23において入力パートとして全パートが指定され、出力パートとしてドラムパートが指定されたような場合は、前記ブロック26で生成したドラムパートの伴奏データを、前記原演奏情報のすべてと組み合わせて、アレンジ済の演奏情報として提供してよい。あるいは、前記ブロック23において入力パートとしてメロディパートが指定され、出力パートとして和音パートが指定されたような場合は、前記ブロック26で生成した和音パートの伴奏データを、前記原演奏情報中のメロディパートの演奏情報と組み合わせて、アレンジ済の演奏情報として提供してよい。また、例えば、前記ブロック23において入力パート及び出力パートとして同じパート(例えば和音パート)が指定されたような場合は、前記ブロック26で生成した伴奏データを代替用の演奏情報として使用し、この代替用の演奏情報で、前記原演奏情報中の入力パートとして指定されたパート(例えば和音パート)の演奏情報を差し替えることにより、アレンジ済の演奏情報を提供してよい。すなわち、前記原演奏情報中の和音パートの演奏情報に代えて、前記ブロック26で生成した伴奏データを和音パートの演奏情報として使用し、前記原演奏情報中の残りの演奏情報とともに、アレンジ済の演奏情報として提供する。
In
なお、アレンジ済の演奏情報をどのような形式で提供するかについては、設計上、任意に選定してよい。例えば、MIDI規格のような所定形式に従って符号化された電子データの状態で提供する、あるいは、具体的な楽譜イメージでディスプレイ5に表示するか又はプリンタ6で紙にプリント出力するか又は電子的イメージデータとして提供する、あるいは、オーディオ波形データとして提供する、ようにしてよい。 The format in which the arranged performance information is provided may be arbitrarily selected in terms of design. For example, it is provided in the state of electronic data encoded according to a predetermined format such as the MIDI standard, or is displayed on the display 5 as a specific musical score image, printed on paper by the printer 6, or an electronic image. It may be provided as data or as audio waveform data.
CPU1がブロック26の処理を実行するとき、前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段として機能する。
When the CPU 1 executes the processing of
以上のように、上記実施例によれば、原演奏情報から指定された演奏パートの演奏情報を抽出し、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、該クエリに応じた伴奏パターンデータを検索し、該検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成するので、原演奏情報中の指定された演奏パートとの相性が良い伴奏パターンデータを自動的に検索することができる。従って、該検索された伴奏パターンデータに基づき原演奏情報との相性が良い伴奏データを容易に生成することができ、自動アレンジの品質を向上させることができる。 As described above, according to the above embodiment, the performance information of the designated performance part is extracted from the original performance information, and the extracted performance information is used as a query from the database storing a plurality of accompaniment pattern data. Accompaniment pattern data corresponding to the query is retrieved, and accompaniment data for use in combination with at least a part of the original performance information is generated based on the retrieved accompaniment pattern data. Accompaniment pattern data having good compatibility with the performance part can be automatically retrieved. Therefore, accompaniment data having good compatibility with the original performance information can be easily generated based on the retrieved accompaniment pattern data, and the quality of automatic arrangement can be improved.
1 CPU(中央処理ユニット)
2 ROM(リードオンリメモリ)
3 RAM(ランダムアクセスメモリ)
4 入力装置
5 ディスプレイ
6 プリンタ
7 ハードディスク
8 可搬媒体
9 メモリインターフェイス
10 音源回路ボード
11 サウンドシステム
12 通信インターフェイス
1 CPU (Central Processing Unit)
2 ROM (Read Only Memory)
3 RAM (Random Access Memory)
4 Input device 5 Display 6 Printer 7 Hard disk 8 Portable medium 9
Claims (5)
演奏パートを指定する手段と、
前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段と、
該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段と、
前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段と
を備える自動アレンジ装置。 Means for obtaining original performance information;
Means to specify the performance part;
Means for extracting performance information of the designated performance part from the acquired original performance information;
Means for retrieving accompaniment pattern data in accordance with the query from a database storing a plurality of accompaniment pattern data using the extracted performance information as a query;
An automatic arrangement apparatus comprising: means for generating accompaniment data for use in combination with at least a part of the original performance information based on the retrieved accompaniment pattern data.
前記伴奏データを生成する手段は、前記検索された伴奏パターンデータにおける各音の音高要素を、前記取得した和音に応じて制御することにより前記伴奏データを生成する、請求項1乃至3のいずれかに記載の自動アレンジ装置。 Means for obtaining a chord of the original performance information;
The means for generating the accompaniment data generates the accompaniment data by controlling a pitch element of each sound in the retrieved accompaniment pattern data according to the acquired chord. The automatic arrangement device according to crab.
演奏パートを指定する手順と、
前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手順と、
該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手順と、
前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手順と
をコンピュータに実行させるためのプログラム。 The procedure to get the original performance information,
To specify the performance part,
A procedure for extracting performance information of the designated performance part from the acquired original performance information;
A procedure for searching for accompaniment pattern data according to the query from a database storing a plurality of accompaniment pattern data using the extracted performance information as a query;
A program for causing a computer to execute a procedure for generating accompaniment data for use in combination with at least a part of the original performance information based on the retrieved accompaniment pattern data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015185301A JP6565529B2 (en) | 2015-09-18 | 2015-09-18 | Automatic arrangement device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015185301A JP6565529B2 (en) | 2015-09-18 | 2015-09-18 | Automatic arrangement device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017058596A JP2017058596A (en) | 2017-03-23 |
JP6565529B2 true JP6565529B2 (en) | 2019-08-28 |
Family
ID=58390186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015185301A Active JP6565529B2 (en) | 2015-09-18 | 2015-09-18 | Automatic arrangement device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6565529B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11204336B2 (en) | 2016-03-30 | 2021-12-21 | Ngk Insulators, Ltd. | Sensor element and gas sensor |
JP7475993B2 (en) | 2020-06-30 | 2024-04-30 | ローランド株式会社 | Automatic music arrangement program and automatic music arrangement device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3698057B2 (en) * | 2001-02-02 | 2005-09-21 | ヤマハ株式会社 | Automatic arrangement apparatus and method |
JP2008537180A (en) * | 2005-04-18 | 2008-09-11 | エルジー エレクトロニクス インコーポレーテッド | Operation method of music composer |
JP5982980B2 (en) * | 2011-04-21 | 2016-08-31 | ヤマハ株式会社 | Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern |
US9251773B2 (en) * | 2013-07-13 | 2016-02-02 | Apple Inc. | System and method for determining an accent pattern for a musical performance |
-
2015
- 2015-09-18 JP JP2015185301A patent/JP6565529B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017058596A (en) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9728173B2 (en) | Automatic arrangement of automatic accompaniment with accent position taken into consideration | |
Bosch et al. | Evaluation and combination of pitch estimation methods for melody extraction in symphonic classical music | |
JP5935503B2 (en) | Music analysis apparatus and music analysis method | |
US9378719B2 (en) | Technique for analyzing rhythm structure of music audio data | |
JP6743425B2 (en) | Sound signal processing method and sound signal processing device | |
JP2014038308A (en) | Note sequence analyzer | |
JP6565528B2 (en) | Automatic arrangement device and program | |
Zhou et al. | BandNet: A neural network-based, multi-instrument Beatles-style MIDI music composition machine | |
Cho et al. | Music emotion recognition using chord progressions | |
JP6760450B2 (en) | Automatic arrangement method | |
Heydarian | Automatic recognition of Persian musical modes in audio musical signals | |
US11176917B2 (en) | Automatic arrangement of music piece based on characteristic of accompaniment | |
JP6565529B2 (en) | Automatic arrangement device and program | |
Mazurowski | Computer models for algorithmic music composition | |
Dittmar et al. | Real-time guitar string detection for music education software | |
JP7120468B2 (en) | SOUND ANALYSIS METHOD, SOUND ANALYZER AND PROGRAM | |
JP7375302B2 (en) | Acoustic analysis method, acoustic analysis device and program | |
Holder et al. | Musiplectics: computational assessment of the complexity of music scores | |
Wang et al. | A framework for automated pop-song melody generation with piano accompaniment arrangement | |
Della Ventura | The influence of the rhythm with the pitch on melodic segmentation | |
JP6606844B2 (en) | Genre selection device, genre selection method, program, and electronic musical instrument | |
De Pasquale et al. | Towards Automatic Classification of Sheet Music | |
Abeßer et al. | Bass Playing Style Detection Based on High-level Features and Pattern Similarity. | |
Zhao et al. | Tunerank model for main melody extraction from multi-part musical scores | |
Bosch Vicente | From heuristics-based to data-driven audio melody extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190715 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6565529 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |