JP6565529B2 - Automatic arrangement device and program - Google Patents

Automatic arrangement device and program Download PDF

Info

Publication number
JP6565529B2
JP6565529B2 JP2015185301A JP2015185301A JP6565529B2 JP 6565529 B2 JP6565529 B2 JP 6565529B2 JP 2015185301 A JP2015185301 A JP 2015185301A JP 2015185301 A JP2015185301 A JP 2015185301A JP 6565529 B2 JP6565529 B2 JP 6565529B2
Authority
JP
Japan
Prior art keywords
performance information
accompaniment
pattern data
accompaniment pattern
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015185301A
Other languages
Japanese (ja)
Other versions
JP2017058596A (en
Inventor
大地 渡邉
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015185301A priority Critical patent/JP6565529B2/en
Publication of JP2017058596A publication Critical patent/JP2017058596A/en
Application granted granted Critical
Publication of JP6565529B2 publication Critical patent/JP6565529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音楽演奏情報を自動的にアレンジ(編曲)する装置及びプログラムに関し、特に原演奏情報が持つ特徴と相性の良い伴奏をデータベースから検索することに基づき、品質のよい自動アレンジを行なう技術に関する。   The present invention relates to an apparatus and a program for automatically arranging (arranging) music performance information, and in particular, a technique for performing high-quality automatic arrangement based on searching an accompaniment having characteristics and compatibility with original performance information from a database. About.

下記特許文献1には、所与の楽曲の複数パートのMIDI形式の自動演奏データからユーザが所望のパートを選択して、該選択されたパートについて希望する形式の楽譜を生成する技術が示されている。そこにおいて、一例として、ユーザがメロディパートを選択し、該選択したメロディパートのメロディに適した伴奏データを自動的に生成し、該選択したメロディパートと自動生成された伴奏データに基づく伴奏パートとからなる楽譜を生成することが示されている。メロディに適した伴奏データを自動的に生成する手法として、具体的には、演奏レベルに応じた複数の伴奏パターンを予め用意しておき、ユーザが選択した演奏レベルに対応する伴奏パターンを選択し、該選択された伴奏パターンに基づきメロディにおける和音進行を考慮して伴奏データを自動生成している。   Japanese Patent Application Laid-Open No. 2004-228561 shows a technique in which a user selects a desired part from MIDI format automatic performance data of a plurality of parts of a given musical piece, and generates a desired score for the selected part. ing. As an example, the user selects a melody part, automatically generates accompaniment data suitable for the melody of the selected melody part, and the accompaniment part based on the selected melody part and the automatically generated accompaniment data; It is shown to generate a score consisting of As a method for automatically generating accompaniment data suitable for a melody, specifically, a plurality of accompaniment patterns corresponding to performance levels are prepared in advance, and an accompaniment pattern corresponding to the performance level selected by the user is selected. The accompaniment data is automatically generated in consideration of the chord progression in the melody based on the selected accompaniment pattern.

下記特許文献2には、ユーザがタッピング操作等によって入力したリズムパターンに類似する伴奏パターンをデータベースから検索する技術が示されている。また、下記非特許文献1には、ユーザが入力したメロディ演奏の音高順序に基づき、該当するメロディ進行を持つ曲を検索する技術が示されている。   Japanese Patent Application Laid-Open No. 2004-259561 discloses a technique for searching an accompaniment pattern similar to a rhythm pattern input by a user by a tapping operation or the like from a database. Non-Patent Document 1 below discloses a technique for searching for music having a corresponding melody progression based on the pitch order of the melody performance input by the user.

特開2005−202204号公報JP-A-2005-202204 国際公開第WO2012/074070号公報International Publication No. WO2012 / 074070

http://jp.yamaha.com/products/apps/melodysearch/http://jp.yamaha.com/products/apps/melodysearch/

上述した特許文献1における伴奏データの自動生成は、所与のメロディに基づき伴奏のアレンジ(編曲)を自動的に行なっていると言える。しかし、特許文献1における伴奏データの自動生成は、既存の伴奏パターン(和音バッキングあるいはアルペジオ等)を構成する楽音の音高をメロディの和音進行に応じて変更する程度のものでしかない。故に、ベースとなる既存の伴奏パターンをユーザが適切に選択しないと、メロディに合った伴奏を生成することが困難である。すなわち、特許文献1は、メロディと相性の良い伴奏パターンが自動的に選択されるものではなかった。特許文献2は、ユーザが入力したリズムパターンに類似する伴奏パターンを検索するには適するが、曲中のメロディパートあるいは和音パート、ベースパート等に適した伴奏パターンを検索することはできない。非特許文献1は、ユーザが入力した音高順序に基づき、該当するメロディ進行を持つ曲を検索するにすぎず、メロディパートに適した伴奏パターンを検索するという発想はない。   It can be said that the automatic generation of accompaniment data in Patent Document 1 described above automatically arranges (arranges) accompaniment based on a given melody. However, the automatic generation of the accompaniment data in Patent Document 1 is only to change the pitch of the musical sound constituting the existing accompaniment pattern (such as chord backing or arpeggio) according to the progress of the chord of the melody. Therefore, it is difficult to generate an accompaniment that matches the melody unless the user appropriately selects an existing accompaniment pattern that is the base. That is, Patent Document 1 does not automatically select an accompaniment pattern that is compatible with a melody. Patent Document 2 is suitable for searching for an accompaniment pattern similar to a rhythm pattern input by a user, but cannot search for an accompaniment pattern suitable for a melody part, chord part, bass part, or the like in a song. Non-Patent Document 1 merely searches for a song having a corresponding melody progression based on the pitch order input by the user, and has no idea of searching for an accompaniment pattern suitable for the melody part.

本発明は上述の点に鑑みてなされたものであり、自動アレンジの品質を向上させることができる自動アレンジ装置及びプログラムを提供しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to provide an automatic arrangement apparatus and program capable of improving the quality of automatic arrangement.

本発明に係る自動アレンジ装置は、原演奏情報を取得する手段と、演奏パートを指定する手段と、前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段と、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段と、前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段とを備える。   An automatic arrangement device according to the present invention includes means for acquiring original performance information, means for specifying a performance part, means for extracting performance information of the specified performance part from the acquired original performance information, and the extraction Means for retrieving accompaniment pattern data in accordance with the query from a database storing a plurality of accompaniment pattern data using the played performance information as a query, and at least a part of the original performance information based on the retrieved accompaniment pattern data And means for generating accompaniment data for use in combination.

本発明によれば、原演奏情報から指定された演奏パートの演奏情報を抽出し、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、該クエリに応じた伴奏パターンデータを検索し、該検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成するので、原演奏情報中の指定された演奏パートとの相性が良い伴奏パターンデータを自動的に検索することができ、もって、該検索された伴奏パターンデータに基づき原演奏情報との相性が良い伴奏データを容易に生成することができ、自動アレンジの品質を向上させることができる。   According to the present invention, performance information of a specified performance part is extracted from original performance information, and a plurality of accompaniment pattern data is stored as a query using the extracted performance information as a query. Since the data is retrieved and accompaniment data for use in combination with at least a part of the original performance information is generated based on the retrieved accompaniment pattern data, the compatibility with the performance part specified in the original performance information Good accompaniment pattern data can be automatically retrieved, and accompaniment data that is compatible with the original performance information can be easily generated based on the retrieved accompaniment pattern data, improving the quality of automatic arrangement Can be made.

一実施例において、前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に組み合わせるのに適した伴奏パターンデータを検索するように構成されていてよい。これにより、前記検索された伴奏パターンデータに基づき生成した伴奏データを、前記原演奏情報から抽出された前記演奏情報に組み合わせることにより、アレンジした演奏情報を提供する場合、該組み合わせによって音楽的に相性のよいアレンジを提供することができる。   In one embodiment, the means for searching for the accompaniment pattern data may be configured to search for accompaniment pattern data suitable for combining with the extracted performance information. Thus, in the case where the arranged performance information is provided by combining the accompaniment data generated based on the retrieved accompaniment pattern data with the performance information extracted from the original performance information, the combination is musically compatible. Can provide a good arrangement.

別の一実施例において、前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に代替するのに適した伴奏パターンデータを検索するように構成されていてよい。これにより、前記検索された伴奏パターンデータに基づき生成した伴奏データを、前記原演奏情報中の前記抽出された演奏情報とは別の演奏情報に組み合わせることにより、アレンジした演奏情報を提供する場合、該組み合わせからなるアレンジした演奏情報は、原演奏が持つ前記抽出された演奏情報と前記別の演奏情報との相性の良さを引き継いだものとなり、もって、音楽的に相性のよいアレンジを容易に提供することができる。   In another embodiment, the means for searching for accompaniment pattern data may be configured to search for accompaniment pattern data suitable for replacing the extracted performance information. Accordingly, when providing the performance information arranged by combining the accompaniment data generated based on the searched accompaniment pattern data with performance information different from the extracted performance information in the original performance information, The arranged performance information composed of the combination inherits the good compatibility between the extracted performance information and the other performance information of the original performance, thereby easily providing a musically compatible arrangement. can do.

本発明に係る自動アレンジ装置を構成する各手段は、それぞれの機能を実現するように構成された専用装置又は回路によって構成され得るし、それぞれの機能を実現するように構成されたプログラムモジュール及び該プログラムモジュールを実行可能なプロセッサ(CPUのような汎用プロセッサあるいはDSPのような専用プロセッサ)の組み合わせによっても構成され得る。   Each means constituting the automatic arrangement device according to the present invention can be constituted by a dedicated device or a circuit configured to realize each function, or a program module configured to realize each function, and the program module It can also be configured by a combination of processors capable of executing program modules (a general-purpose processor such as a CPU or a dedicated processor such as a DSP).

また、本発明は、装置の発明として実施しうるのみならず、各手段の機能を実現するステップからなるコンピュータ実装された方法の発明としても実施することができ、また、該方法を実行するためのプロセッサにより実行可能な命令群からなるプログラムの発明としても実施することができ、また、該プログラムを記憶した非一過性のコンピュータ読取可能な記憶媒体の発明としても実施することができる。   In addition, the present invention can be implemented not only as an apparatus invention but also as a computer-implemented method invention comprising steps for realizing the functions of the respective means, and for executing the method. The present invention can also be implemented as an invention of a program comprising a group of instructions that can be executed by a processor, and as an invention of a non-transitory computer-readable storage medium storing the program.

本発明に係る自動アレンジ装置の一実施例を示すハードウェア構成ブロック図。1 is a hardware configuration block diagram showing an embodiment of an automatic arrangement device according to the present invention. CPUによる制御の下で実行される本発明の一実施例に係る処理の機能ブロック図。The functional block diagram of the process which concerns on one Example of this invention performed under control by CPU.

図1は、本発明に係る自動アレンジ装置の一実施例を示すハードウェア構成ブロック図である。この自動アレンジ装置は、必ずしも自動アレンジのための専用装置として構成されている必要はなく、パーソナルコンピュータ、携帯端末装置、電子楽器など、コンピュータ機能を持つ任意の装置又は機器において、本発明に係る自動アレンジ用のアプリケーションプログラムをインストールしてなるものであればよい。この自動アレンジ装置のハードウェア構成は、コンピュータにおいて周知の構成、例えば、CPU(中央処理ユニット)1、ROM(リードオンリメモリ)2、RAM(ランダムアクセスメモリ)3、文字及び記号等を入力するためのキーボート及びマウスを含む入力装置4、ディスプレイ5、プリンタ6、不揮発的な大容量メモリであるハードディスク7、USBメモリ等の可搬媒体8のためのメモリインターフェイス(I/F)9、音源回路ボード10、スピーカ等のサウンドシステム11、外部の通信ネットワークに接続するための通信インターフェイス(I/F)12などを含む。ROM2及び/又はハードディスク7には、本発明に係る自動アレンジ用のアプリケーションプログラム及びその他のアプリケーションプログラム並びに制御プログラムが非一過的に記憶される。   FIG. 1 is a hardware configuration block diagram showing an embodiment of an automatic arrangement device according to the present invention. The automatic arrangement device does not necessarily have to be configured as a dedicated device for automatic arrangement, and the automatic arrangement device according to the present invention can be applied to any device or device having a computer function, such as a personal computer, a portable terminal device, and an electronic musical instrument. Any application program may be installed as long as an arrangement application program is installed. The hardware arrangement of this automatic arrangement device is a well-known configuration in a computer, for example, for inputting a CPU (Central Processing Unit) 1, ROM (Read Only Memory) 2, RAM (Random Access Memory) 3, characters and symbols, etc. Input device 4 including keyboard and mouse, display 5, printer 6, hard disk 7 which is a non-volatile large-capacity memory, memory interface (I / F) 9 for portable medium 8 such as USB memory, sound source circuit board 10, a sound system 11 such as a speaker, and a communication interface (I / F) 12 for connecting to an external communication network. In the ROM 2 and / or the hard disk 7, the application program for automatic arrangement according to the present invention, other application programs, and a control program are temporarily stored.

図2は、CPU1による制御の下で実行される本発明の一実施例に係る処理の機能ブロック図である。まず、ブロック20では、アレンジの対象となる音楽演奏情報(これを原演奏情報という)を取得する。原演奏情報を取得するための具体的構成はどのようなものであってもよい。例えば、取得する原演奏情報のデータ形式は、スタンダードMIDIファイル(SMF)のような所定形式で符号化されたデータであってもよいし、あるいは五線譜に描かれた楽譜のイメージ情報であってもよく、また可聴的なオーディオ波形データからなるものであってもよく、楽曲を表現しうるものであればその他任意のデータ形式からなっていてよい。楽譜イメージからなる原演奏情報を取得した場合は、公知の楽譜解析技術に従って該イメージを解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、その強弱記号、アクセント記号等の各種記号をその時間位置と共に符号化する。オーディオ波形データからなる場合も同様に、公知の音高及び音量等の解析技術に従って該オーディオ波形を解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、音量をその時間位置と共に符号化すればよい。また、取得する原演奏情報の音楽的パート構成は、実質的に複数の演奏パートを含むものであればよく、例えば、ピアノ譜のように右手パート(メロディパート)と左手パート(伴奏又は和音パートさらにはベースパート)とからなっていてもよいし、メロディパートと和音バッキング、アルペジオ、ベース及びリズム(ドラム)等の複数の伴奏パートとからなっていてもよい。また、原演奏情報を取得するための構成若しくは経路は任意であり、例えば、所望の原演奏情報を保持している可搬媒体8からメモリI/F9を介して取得してもよいし、あるいは、通信I/F12を介して外部のソース又はサーバから所望の原演奏情報を選択的に取得するようにしてもよいし、あるいは、図示しないキーボート等の演奏装置を用いてユーザがリアルタイムに演奏した曲の情報を原演奏情報として取得するようにしてもよい。CPU1がブロック20の処理を実行するとき、原演奏情報を取得する手段として機能する。   FIG. 2 is a functional block diagram of processing according to an embodiment of the present invention that is executed under the control of the CPU 1. First, in block 20, music performance information (this is called original performance information) to be arranged is acquired. Any specific configuration for acquiring the original performance information may be used. For example, the data format of the original performance information to be acquired may be data encoded in a predetermined format such as a standard MIDI file (SMF), or may be image information of a musical score drawn on a staff. It may be composed of audible audio waveform data, or may be composed of any other data format as long as it can express a music piece. When original performance information consisting of a score image is acquired, the image is analyzed according to a known score analysis technique, and the pitch, beat position (time position), note value, etc. of each note constituting the original performance information are encoded. In addition, various symbols such as the strength symbol and the accent symbol are encoded together with the time position. Similarly, in the case of audio waveform data, the audio waveform is analyzed according to a known analysis technique such as pitch and volume, and the pitch, beat position (time position), note value of each note constituting the original performance information is analyzed. And the sound volume may be encoded together with the time position. Also, the musical part configuration of the original performance information to be acquired may be substantially one that includes a plurality of performance parts. For example, a right-hand part (melody part) and a left-hand part (accompaniment or chord part) like a piano score. Furthermore, it may consist of a melody part and a plurality of accompaniment parts such as chord backing, arpeggio, bass and rhythm (drum). Further, the configuration or path for acquiring the original performance information is arbitrary. For example, the original performance information may be acquired from the portable medium 8 holding the original performance information via the memory I / F 9, or The desired original performance information may be selectively acquired from an external source or server via the communication I / F 12, or the user performed in real time using a performance device such as a keyboard (not shown). You may make it acquire the information of a music as original performance information. When the CPU 1 executes the process of block 20, it functions as a means for acquiring original performance information.

ブロック21では、前記取得した原演奏情報における楽曲の和音進行を示す和音情報を取得する。前記取得した原演奏情報内に和音情報が含まれていれば、その和音情報を取得すればよい。前記取得した原演奏情報内に和音情報が含まれていなければ、公知の和音解析技術を用いて、原演奏情報に含まれるメロディ又は伴奏の進行を解析することにより和音を検出し、この検出に基づいて和音情報を取得すればよい。あるいは、ユーザが入力装置4等を介して和音情報を入力し、このユーザ入力に基づいて和音情報を取得するようにしてもよい。取得した和音情報は、追って、ハーモニーとなる伴奏データを生成するときに、該伴奏データが示す伴奏音の音高をシフトするために利用される。   In block 21, the chord information indicating the chord progression of the music in the acquired original performance information is acquired. If chord information is included in the acquired original performance information, the chord information may be acquired. If chord information is not included in the acquired original performance information, a chord is detected by analyzing the progress of the melody or accompaniment included in the original performance information using a known chord analysis technique. The chord information may be acquired based on the information. Alternatively, the user may input chord information via the input device 4 or the like, and the chord information may be acquired based on the user input. The acquired chord information is used to shift the pitch of the accompaniment sound indicated by the accompaniment data when generating accompaniment data that becomes harmony.

ブロック22では、前記取得した原演奏情報における演奏パートの構成を判定する。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用して原演奏情報における演奏パート構成を判定すればよい。また、原演奏情報が楽譜イメージからなっている場合は、該楽譜がピアノ譜のようにメロディ譜(ト音記号譜)と伴奏譜(ヘ音記号譜)からなっているならば、あるいはパート別の五線譜からなっているならば、それに基づき原演奏情報における演奏パート構成を判定することができる。原演奏情報がパート別の音符情報として予め識別されていない場合、あるいは、パート別の五線譜からなっていない場合は、ブロック22では、原演奏情報に含まれる音符あるいは楽譜を解析することにより、該原演奏情報における奏法を判定する(該原演奏情報における各音符が、メロディ、和音、ベース等、どの演奏パートの音符として演奏されているかを推定する)。   In block 22, the composition of the performance part in the acquired original performance information is determined. If the original performance information includes part information or identification information equivalent thereto, the performance part configuration in the original performance information may be determined using the part information or identification information. In addition, when the original performance information is composed of a score image, if the score is composed of a melody score (G clef score) and an accompaniment score (H clef score) like a piano score, or by part Can be determined based on the performance part composition of the original performance information. If the original performance information is not previously identified as part-specific note information, or is not composed of a part-specific staff score, block 22 analyzes the notes or the score included in the original performance information, A performance method in the original performance information is determined (estimating which musical part in each original performance information is played, such as a melody, a chord, or a bass).

ブロック22における奏法判定処理の一例について説明すると次の通りである。まず、判定対象である原演奏情報に含まれる全ての音符の音高情報を時系列順に記憶する。こうして記憶した音高情報を下記のように解析することにより、奏法判定を行なう。なお、下記において、「単音」とは、同じ発音タイミングにおいて1つの音高のみが存在していることを言い、「複音」とは、同じ発音タイミングにおいて2以上の音高が存在していることを言う。   An example of the rendition style determination process in block 22 will be described as follows. First, the pitch information of all the notes included in the original performance information to be determined is stored in chronological order. The performance information is determined by analyzing the pitch information thus stored as follows. In the following, “single note” means that only one pitch exists at the same sounding timing, and “compound” means that two or more pitches exist at the same sounding timing. Say.

(1)メロディパートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)以上であって、原演奏情報中の音高の平均が所定の中音域又は高音域に属する場合、原演奏情報はメロディパートのみからなると判定する。
(1) Performance method consisting only of melody part The ratio of “single tone” in the original performance information is a predetermined high ratio (for example, 90%) or more, and the average pitch in the original performance information is a predetermined middle range or high range If it belongs to the original performance information, it is determined that the original performance information consists only of the melody part.

(2)ベースパートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)以上であって、原演奏情報中の音高の平均が所定の低音域に属する場合、原演奏情報はベースパートのみからなると判定する。
(2) Performance method comprising only the bass part When the ratio of “single notes” in the original performance information is a predetermined high ratio (for example, 90%) or more, and the average pitch in the original performance information belongs to a predetermined low frequency range The original performance information is determined to consist only of the bass part.

(3)メロディパートとベースパートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも低く、かつ、個々の「複音」における最低音高と最高音高の差が所定閾値以上である場合、原演奏情報はメロディパートとベースパートからなると判定する。すなわち、高音域側(右手)でメロディパートの演奏が行なわれ、低音域側(左手)でベースパートの演奏が行なわれる奏法であると推定される。
(3) Performance method composed of a melody part and a bass part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is lower than a predetermined threshold value. If the difference between the lowest pitch and the highest pitch in each “compound” is equal to or greater than a predetermined threshold, it is determined that the original performance information is composed of a melody part and a bass part. That is, it is presumed that the melody part is played on the high pitch side (right hand) and the bass part is played on the low pitch side (left hand).

(4)和音パートとベースパートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、「単音」の音高の平均が所定の低音域以下に属する場合、原演奏情報は和音パートとベースパートからなると判定する。すなわち、中又は高音域側(右手)で和音パートの演奏が行なわれ、低音域側(左手)でベースパートの演奏が行なわれる奏法であると推定される。
(4) Performance method composed of chord part and bass part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. If the average pitch of the “single note” falls below a predetermined low frequency range, it is determined that the original performance information is composed of a chord part and a bass part. That is, it is presumed that the chord part is played on the middle or high-frequency side (right hand) and the bass part is played on the low-frequency side (left hand).

(5)メロディパートと和音パートからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、「単音」の音高の平均が「複音」の音高の平均よりも高い場合、原演奏情報はメロディパートと和音パートからなると判定する。すなわち、中又は高音域側(右手)でメロディパートの演奏が行なわれ、低音域側(左手)で和音パートの演奏が行なわれる奏法であると推定される。
(5) Performance method comprising a melody part and a chord part The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold value. If the average pitch of “single note” is higher than the average pitch of “compound”, it is determined that the original performance information is composed of a melody part and a chord part. That is, it is presumed that the melody part is played on the middle or high pitch side (right hand) and the chord part is played on the low pitch side (left hand).

(6)片手での和音パートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、各「複音」における隣接音高間の差(音程)の平均が所定値よりも小さいか、又は、個々の「複音」において全ての音高が片手で演奏可能な比較的狭い音域範囲にそれぞれ収まっている場合、原演奏情報は和音パートのみからなると判定する。この場合は、鍵盤において「複音」からなる和音を片手で演奏する奏法であると推定される。
(6) Performance with only one chord part in one hand The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. In addition, the average of the differences (pitch) between adjacent pitches in each “compound” is smaller than a predetermined value, or a relatively narrow range in which all pitches can be played with one hand in each “compound” Are determined to be composed only of chord parts. In this case, it is presumed that the chord composed of “compounds” is played with one hand on the keyboard.

(7)両手での和音パートのみからなる奏法
原演奏情報における「単音」の割合が所定の高率(例えば90%)未満であって、3以上の「複音」の割合が所定閾値よりも高く、かつ、個々の「複音」における全ての音高が両手で演奏可能な比較的広い音域範囲にそれぞれ収まっている場合、原演奏情報は和音パートのみからなると判定する。この場合は、鍵盤において「複音」からなる和音を両手で演奏する奏法であると推定される。
(7) Performance method consisting only of chord parts with both hands The ratio of “single notes” in the original performance information is less than a predetermined high ratio (for example, 90%), and the ratio of three or more “compounds” is higher than a predetermined threshold. When all the pitches of individual “compounds” are within a relatively wide range that can be played with both hands, it is determined that the original performance information consists only of chord parts. In this case, it is presumed that this is a performance method in which a chord composed of “compounds” is played with both hands on the keyboard.

次に、ブロック23においては、アレンジに関与する演奏パートを指定する。例えば、前記ブロック22で判定した原演奏情報の演奏パート構成をGUI(ディスプレイ5)を介してユーザに提示し、後述する検索用のクエリとして使用する演奏パート(入力パート)をユーザに選択させるようにしてよい。この演奏パート(入力パート)の指定(選択)は、原演奏情報の任意の時間区間(時間的範囲)に対応づけて行なうようにしてよい。なお、ここで指定する演奏パートは、原演奏情報を構成している1又は複数の演奏パートのうちいずれか1つの演奏パートであってもよいし、原演奏情報を構成している1又は複数の演奏パートのすべて(全パート)であってもよい。更に、ブロック23において、アレンジの結果として生成される伴奏データを使用する1つの演奏パート(出力パート)をユーザに選択させるようにしてよい。CPU1がブロック23の処理を実行するとき、演奏パートを指定する手段として機能する。   Next, in block 23, a performance part involved in the arrangement is designated. For example, the performance part configuration of the original performance information determined in the block 22 is presented to the user via the GUI (display 5), and the user is allowed to select a performance part (input part) to be used as a search query to be described later. You can do it. The performance part (input part) may be specified (selected) in association with an arbitrary time section (time range) of the original performance information. The performance part specified here may be any one of the one or more performance parts constituting the original performance information, or one or more of the performance parts constituting the original performance information. All of the performance parts (all parts) may be used. Furthermore, in block 23, the user may select one performance part (output part) that uses the accompaniment data generated as a result of the arrangement. When the CPU 1 executes the processing of block 23, it functions as means for designating a performance part.

次に、ブロック24においては、前記ブロック23で指定された演奏パート(1つのパート又は全パート)の演奏情報を、原演奏情報から抽出する。この抽出は、該指定された演奏パートに対応する前記時間区間毎に行なわれる。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用して、指定された演奏パートの演奏情報を原演奏情報から抽出すればよい。他方、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいなければ、指定された演奏パートの音楽的性質を考慮して、適宜の手法に従い原演奏情報から、該指定された演奏パートの演奏情報を分析し、抽出すればよい。CPU1がブロック24の処理を実行するとき、前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段として機能する。   Next, in block 24, the performance information of the performance part (one part or all parts) designated in block 23 is extracted from the original performance information. This extraction is performed for each time interval corresponding to the designated performance part. If the original performance information includes part information or identification information equivalent thereto, the performance information of the designated performance part may be extracted from the original performance information using the part information or identification information. On the other hand, if the original performance information does not include part information or identification information equivalent thereto, the specified performance part is determined from the original performance information according to an appropriate method in consideration of the musical properties of the specified performance part. It is sufficient to analyze and extract the performance information. When the CPU 1 executes the processing of block 24, it functions as means for extracting performance information of the designated performance part from the acquired original performance information.

ブロック24において行なう、前記指定された演奏パートの音楽的性質を考慮して該指定された演奏パートの演奏情報を抽出するための手法の一具体例につき、次に説明する。この場合、まず、判定対象である原演奏情報に含まれる全ての音符(音高及び音価情報)を時系列順に記憶する。こうして記憶した音符(音高及び音価情報)を次のように解析することにより、必要な演奏パートの演奏情報を抽出する。   A specific example of the technique for extracting performance information of the designated performance part in consideration of the musical properties of the designated performance part performed in block 24 will be described below. In this case, first, all notes (pitch and note value information) included in the original performance information to be determined are stored in chronological order. By analyzing the stored notes (pitch and note value information) as follows, performance information of necessary performance parts is extracted.

(a)メロディパートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、各グループ(発音タイミング)における最高音をメロディパートの候補とする。これは、通常、メロディ演奏はベースや和音よりも高音域で行なわれるからである。そして、これら候補の中から、一連のメロディパートを構成しているとみなすのにふさわしくないものを除外し、残りの候補音符をメロディパートの演奏情報として抽出する。除外の条件としては、例えば、周辺の複数の候補音符の音高の平均値よりも所定閾値以上低い音高を持つ候補音符を除外する、及び/又は、先行する発音タイミングの候補音符の音高がその次の発音タイミングの候補音符よりも高く且つ該先行する発音タイミングの候補音符の音長が該次の発音タイミングにおいても持続しているならば、該次の発音タイミングの候補音符を除外する、などがある。
(A) Extraction example of melody part Time-series notes in the original performance information are grouped together at the same sounding timing for each sounding timing, and the highest sound in each group (sounding timing) is selected as a melody part candidate. And This is because a melody performance is usually performed in a higher range than a bass or chord. Then, from these candidates, those that are not suitable for constituting a series of melody parts are excluded, and the remaining candidate notes are extracted as performance information of the melody parts. As the exclusion condition, for example, a candidate note having a pitch that is lower than the average value of the pitches of a plurality of surrounding candidate notes by a predetermined threshold or more is excluded, and / or the pitch of a candidate note at the preceding pronunciation timing Is higher than the candidate note at the next pronunciation timing and the note length at the preceding pronunciation timing is maintained at the next pronunciation timing, the candidate note at the next pronunciation timing is excluded. ,and so on.

(b)ベースパートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、各グループ(発音タイミング)における最低音をベースパートの候補とする。これは、通常、ベース演奏はメロディや和音よりも低音域で行なわれるからである。そして、これら候補の中から、一連のベースパートを構成しているとみなすのにふさわしくないものを除外し、残りの候補音符をベースパートの演奏情報として抽出する。除外の条件としては、例えば、周辺の複数の候補音符の音高の平均値よりも所定閾値以上高い音高を持つ候補音符を除外する、及び/又は、先行する発音タイミングの候補音符の音高がその次の発音タイミングの候補音符よりも低く且つ該先行する発音タイミングの候補音符の音長が該次の発音タイミングにおいても持続しているならば、該次の発音タイミングの候補音符を除外する、などがある。
(B) Bass part extraction example Time-series notes in the original performance information are grouped together at the same sounding timing for each successive sounding timing, and the lowest sound in each group (sounding timing) is the base part candidate. And This is because the bass performance is usually performed in a lower range than the melody or chord. Then, from these candidates, those that are not suitable to be regarded as constituting a series of bass parts are excluded, and the remaining candidate notes are extracted as performance information of the bass part. As the exclusion condition, for example, a candidate note having a pitch higher than the average value of the pitches of a plurality of surrounding candidate notes by a predetermined threshold or more is excluded, and / or the pitch of a candidate note at a preceding pronunciation timing Is lower than the candidate note at the next pronunciation timing and the note length at the preceding pronunciation timing is maintained at the next pronunciation timing, the candidate note at the next pronunciation timing is excluded. ,and so on.

(c)和音パートの抽出例
原演奏情報における時系列的な音符を順次の発音タイミング毎に同一発音タイミングに属する音符同士をそれぞれグループ化し、「複音」からなるグループ(発音タイミング)を和音パートの候補とする。そして、各グループにおいて、片手で演奏される和音を構成しているとみなすのにふさわしい複数の音符を和音パートの演奏情報として抽出する。例えば、該グループ内の音符数が3以下であり、それらの音高が片手で演奏可能な音域内に収まっているならば、該グループ内の全ての音符を和音パートの演奏情報として抽出する。あるいは、該グループ内の音符数が4以上であるならば、片手で演奏可能な音域内に収まっている音高のみを選択し、選択した音高の音符を和音パートの演奏情報として抽出する。
(C) Example of chord part extraction Time-series notes in the original performance information are grouped together for each sequential sounding timing, and notes belonging to the same sounding timing are grouped. Candidate. Then, in each group, a plurality of notes suitable to be regarded as constituting a chord played with one hand are extracted as performance information of the chord part. For example, if the number of notes in the group is 3 or less and the pitches are within the range that can be played with one hand, all the notes in the group are extracted as performance information of the chord part. Alternatively, if the number of notes in the group is 4 or more, only the pitches that fall within the range that can be played with one hand are selected, and the notes with the selected pitch are extracted as the performance information of the chord part.

次に、ブロック25においては、前記ブロック24で抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する。複数の伴奏パターンデータを記憶した該データベースは、内部のデータベース(例えばハードディスク7又は可搬媒体8)あるいは外部のデータベース(例えばインターネット上のサーバ)のいずれであってもよい。   Next, in block 25, using the performance information extracted in block 24 as a query, accompaniment pattern data corresponding to the query is retrieved from a database storing a plurality of accompaniment pattern data. The database storing a plurality of accompaniment pattern data may be either an internal database (for example, the hard disk 7 or the portable medium 8) or an external database (for example, a server on the Internet).

なお、一実施例において、既存の伴奏パターンデータのソースとして、公知の伴奏スタイルデータ(自動伴奏データ)のバンクを利用してよい。公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおいては、各カテゴリー(Pop&Rock、あるいはCountry&Blues、Standard&Jazzなど)別に複数セットの伴奏スタイルデータを記憶しており、各1セットの伴奏スタイルデータは、イントロセクション、メインセクション、フィルインセクション、エンディングセクション等の各セクション別に伴奏データセットを含んでおり、1セクション分の伴奏データセットは、リズム1、リズム2、ベース、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の複数パートの伴奏パターンデータ(テンプレート)を含んでいる。このような公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおける最下位層のパート別の伴奏パターンデータ(テンプレート)が、前記ブロック25において取得される伴奏パターンデータである。前記ブロック25においては、ある1セクション分の伴奏データセットのうち1パートのみの伴奏パターンデータを取得してもよいし、全パート若しくは一部の複数パートの伴奏パターンデータを組み合わせて取得してもよい。なお、公知のように、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の音高要素を含むパートの伴奏パターンデータ(テンプレート)においては、基準和音名(例えばCメジャー和音)を示す情報及び音高変換ルールを既定する情報等が追加的に含まれている。伴奏パターンデータ(テンプレート)の実体は、MIDI規格等に従って分散的に符号化されたデータであってもよいし、オーディオ波形データのような時間軸に沿うデータであってもよい。   In one embodiment, a bank of known accompaniment style data (automatic accompaniment data) may be used as a source of existing accompaniment pattern data. In a bank of known accompaniment style data (automatic accompaniment data), multiple sets of accompaniment style data are stored for each category (Pop & Rock, Country & Blues, Standard & Jazz, etc.), and each set of accompaniment style data is an intro section. , Main section, fill-in section, ending section, etc. each accompaniment data set is included, one section accompaniment data set is rhythm 1, rhythm 2, bass, rhythmic chord 1, rhythmic chord 2, phrase 1, It includes accompaniment pattern data (template) of multiple parts such as phrase 2. The accompaniment pattern data (template) for each part of the lowest layer in the bank of such known accompaniment style data (automatic accompaniment data) is the accompaniment pattern data acquired in the block 25. In the block 25, accompaniment pattern data of only one part in an accompaniment data set for a certain section may be acquired, or accompaniment pattern data of all parts or a part of plural parts may be acquired in combination. Good. As is well known, in accompaniment pattern data (template) of parts including pitch elements such as rhythmic chord 1, rhythmic chord 2, phrase 1, phrase 2, etc., information indicating a reference chord name (for example, C major chord) In addition, information for defining a pitch conversion rule is additionally included. The entity of the accompaniment pattern data (template) may be data encoded in a distributed manner according to the MIDI standard or the like, or may be data along the time axis such as audio waveform data.

前記ブロック25において行なう検索のアルゴリズムは、大別して2種ある。1つは、クエリとした演奏情報に組み合わせるのに適した伴奏パターンデータを検索するものである(例1)。もう1つは、クエリとした演奏情報に代替するのに適した伴奏パターンデータを検索するものである(例2)。前者(例1)の検索アルゴリズムは、例えばブロック23で指定された入力パートと出力パートが異なる場合に採用される。例えば、入力パートとしてメロディパートが指定され、出力パートとしてドラムパートが指定されるような場合である。これは、原演奏情報にドラムパートの演奏情報が含まれていない場合に、原演奏情報中のメロディパートの演奏情報と相性の良いドラムパートの伴奏パターンデータを検索し、該検索した伴奏パターンデータに基づいてドラムパートの伴奏データを生成するような場合に有利である。後者(例2)の検索アルゴリズムは、例えばブロック23で指定された入力パートと出力パートが同じ場合に採用される。例えば、入力パートとして和音パートが指定され、出力パートとしても和音パートが指定されるような場合である。これは、原演奏情報中の和音パートの演奏情報を別の演奏情報に差し替えるために、該原演奏情報中の和音パートの演奏情報と相性の良い和音パートの伴奏パターンデータを検索し、該検索した伴奏パターンデータに基づいて和音パートの伴奏データを生成するような場合に有利である。   There are roughly two types of search algorithms performed in the block 25. One is to search for accompaniment pattern data suitable for combining with performance information as a query (Example 1). The other is to search for accompaniment pattern data suitable for substituting the performance information used as a query (example 2). The former (example 1) search algorithm is employed, for example, when the input part specified in the block 23 is different from the output part. For example, a melody part is designated as the input part and a drum part is designated as the output part. This is because, when the performance information of the drum part is not included in the original performance information, the accompaniment pattern data of the drum part having good compatibility with the performance information of the melody part in the original performance information is retrieved, and the retrieved accompaniment pattern data This is advantageous when the accompaniment data of the drum part is generated based on the above. The latter (example 2) search algorithm is employed, for example, when the input part specified in the block 23 and the output part are the same. For example, a chord part is designated as an input part and a chord part is designated as an output part. In order to replace the performance information of the chord part in the original performance information with another performance information, the accompaniment pattern data of the chord part having good compatibility with the performance information of the chord part in the original performance information is searched and the search is performed. This is advantageous when accompaniment data for chord parts is generated based on the accompaniment pattern data.

前記ブロック25において前記例1又は例2に従って検索を行なう場合、例えば、前記データベースに記憶されている多数の伴奏パターンデータのうち、出力パートとして指定された演奏パートの伴奏パターンデータ群を対象として、入力パートとして指定された演奏パートの演奏情報(前記ブロック24で抽出された演奏情報)をクエリとして、該クエリ演奏情報と相性の良い1以上の伴奏パターンデータを検索する。そのための具体的な検索手法は、公知の適宜の手法を採用してよい。例えば、クエリ演奏情報を構成している各音符の音高、音価、発音タイミング等の楽音要素と、検索対象伴奏パターンデータ群内の各伴奏パターンデータの該楽音要素とを比較し、それぞれの類似度を数値化して評価し、各楽音要素の類似度の合計又は平均若しくは重み付け加算等によって総合評価値を算出し、最も総合評価値の高い1以上の伴奏パターンデータを、検索するようにしてよい。この場合、所定数(1又は複数)の小節毎に前記総合評価値(区間評価値)を算出し、該算出した各区間評価値の合計又は平均若しくは重み付け加算等によって全体評価値を算出し、最も全体評価値の高い1以上の伴奏パターンデータを、検索するようにしてもよい。なお、複数の伴奏パターンデータが該検索によって得られた場合は、それらの検索された複数の伴奏パターンデータをディスプレイ5を介してユーザに提示し、そのうちいずれか1つをユーザに選択させるようにしてよい。   When searching according to Example 1 or Example 2 in the block 25, for example, among the many accompaniment pattern data stored in the database, the accompaniment pattern data group of the performance part designated as the output part is targeted. Using the performance information of the performance part designated as the input part (performance information extracted in the block 24) as a query, one or more accompaniment pattern data having a good compatibility with the query performance information is retrieved. As a specific search method for that purpose, a known appropriate method may be adopted. For example, the musical tone elements such as the pitch, note value, and pronunciation timing of each note constituting the query performance information are compared with the musical tone elements of each accompaniment pattern data in the search target accompaniment pattern data group. The degree of similarity is digitized and evaluated, and the overall evaluation value is calculated by the sum or average or weighted addition of the similarity of each musical tone element, and one or more accompaniment pattern data having the highest overall evaluation value is searched. Good. In this case, the total evaluation value (section evaluation value) is calculated for each predetermined number (one or more) of bars, and the total evaluation value is calculated by summing or averaging or weighted addition of the calculated section evaluation values. One or more accompaniment pattern data having the highest overall evaluation value may be searched. When a plurality of accompaniment pattern data is obtained by the search, the retrieved plurality of accompaniment pattern data is presented to the user via the display 5 and any one of them is selected by the user. It's okay.

なお、クエリである演奏情報の時間区間(時間的範囲)がN小節(Nは任意の複数)からなっているのに対して、検索対象たる伴奏パターンデータがNよりも少ないk小節からなる場合(kは1以上であって、k<N又はk<<N)は、k小節分の検索対象伴奏パターンデータを複数回繰り返すことによって必要なN小節分の検索対象伴奏パターンデータを作成し、該作成されたN小節分の検索対象伴奏パターンデータとN小節分のクエリ演奏情報とを比較するようにすればよい。この場合においては、複数の前記区間評価値に基づき前記全体評価値を求める手法を採用するのがよい。その場合、前記総合評価値(区間評価値)を算出するための前記所定数としては、例えば前記kに設定するとよい。   Note that the time section (temporal range) of the performance information that is the query consists of N bars (N is an arbitrary plural number), whereas the accompaniment pattern data to be searched consists of k bars less than N. (K is 1 or more, and k <N or k << N) creates search target accompaniment pattern data for N measures by repeating the search target accompaniment pattern data for k measures a plurality of times, The created N-bar search target accompaniment pattern data and the N-bar query performance information may be compared. In this case, it is preferable to employ a method for obtaining the overall evaluation value based on a plurality of the interval evaluation values. In this case, the predetermined number for calculating the comprehensive evaluation value (section evaluation value) may be set to k, for example.

CPU1がブロック25の処理を実行するとき、前記抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段として機能する。   When the CPU 1 executes the processing of block 25, the CPU 1 functions as a means for retrieving the accompaniment pattern data corresponding to the query from a database storing a plurality of accompaniment pattern data using the extracted performance information as a query.

次に、ブロック26では、前記ブロック25における検索によって取得した伴奏パターンデータに基づき伴奏データを生成する。例えば、検索によって取得した1乃至複数小節からなる1つの伴奏パターンデータを1回又は複数回繰り返すことにより、前記クエリ演奏情報の時間的範囲に対応する時間長を持つ伴奏データを生成する。なお、必要に応じて、検索した伴奏パターンデータの1回又は複数回の繰り返しからなる伴奏データの一部をユーザ操作によって適宜変更するようにしてもよい。   Next, in block 26, accompaniment data is generated based on the accompaniment pattern data acquired by the search in block 25. For example, accompaniment data having a time length corresponding to the time range of the query performance information is generated by repeating one or a plurality of accompaniment pattern data including one or more measures obtained by the search. If necessary, a part of the accompaniment data formed by repeating the retrieved accompaniment pattern data once or a plurality of times may be appropriately changed by a user operation.

ブロック27は、前記ブロック25における検索によって取得した伴奏パターンデータが和音バッキングやアルペジオのような音高要素を持つ伴奏音を含む場合に行なわれる処理であり、前記ブロック26において伴奏データを生成する際に、前記ブロック21で取得した和音情報に応じて、生成する伴奏データの音高をシフトする。なお、前記ブロック25における検索によって取得した伴奏パターンデータがドラムパートのようなリズムパターンからなる場合は、このブロック27の処理は省略される。   The block 27 is a process performed when the accompaniment pattern data acquired by the search in the block 25 includes an accompaniment sound having a pitch element such as chord backing or arpeggio. When the accompaniment data is generated in the block 26 In addition, the pitch of the accompaniment data to be generated is shifted according to the chord information acquired in the block 21. When the accompaniment pattern data acquired by the search in the block 25 is composed of a rhythm pattern such as a drum part, the processing in this block 27 is omitted.

ブロック28では、前記ブロック26で生成した伴奏データを、前記原演奏情報の少なくとも一部と組み合わせて、アレンジ済の演奏情報として、ユーザに対して提供する。前記ブロック26で生成した伴奏データを前記原演奏情報のどのパートと組み合わせるかは、例えば前記ブロック23における入力パートと出力パートの指定に従うようにしてもよいし、あるいはこのブロック28においてユーザが任意に選択するようにしてもよい。例えば、前記ブロック23において入力パートとして全パートが指定され、出力パートとしてドラムパートが指定されたような場合は、前記ブロック26で生成したドラムパートの伴奏データを、前記原演奏情報のすべてと組み合わせて、アレンジ済の演奏情報として提供してよい。あるいは、前記ブロック23において入力パートとしてメロディパートが指定され、出力パートとして和音パートが指定されたような場合は、前記ブロック26で生成した和音パートの伴奏データを、前記原演奏情報中のメロディパートの演奏情報と組み合わせて、アレンジ済の演奏情報として提供してよい。また、例えば、前記ブロック23において入力パート及び出力パートとして同じパート(例えば和音パート)が指定されたような場合は、前記ブロック26で生成した伴奏データを代替用の演奏情報として使用し、この代替用の演奏情報で、前記原演奏情報中の入力パートとして指定されたパート(例えば和音パート)の演奏情報を差し替えることにより、アレンジ済の演奏情報を提供してよい。すなわち、前記原演奏情報中の和音パートの演奏情報に代えて、前記ブロック26で生成した伴奏データを和音パートの演奏情報として使用し、前記原演奏情報中の残りの演奏情報とともに、アレンジ済の演奏情報として提供する。   In block 28, the accompaniment data generated in block 26 is provided to the user as arranged performance information in combination with at least a part of the original performance information. The part in which the accompaniment data generated in the block 26 is combined with which part of the original performance information may be determined according to the designation of the input part and the output part in the block 23, for example. You may make it select. For example, when all the parts are specified as the input part and the drum part is specified as the output part in the block 23, the accompaniment data of the drum part generated in the block 26 is combined with all the original performance information. May be provided as arranged performance information. Alternatively, when a melody part is designated as an input part and a chord part is designated as an output part in the block 23, the accompaniment data of the chord part generated in the block 26 is used as the melody part in the original performance information. The performance information may be provided in combination with the performance information. For example, when the same part (for example, a chord part) is designated as the input part and the output part in the block 23, the accompaniment data generated in the block 26 is used as substitute performance information. Arranged performance information may be provided by replacing performance information of a part (for example, a chord part) designated as an input part in the original performance information. That is, instead of the chord part performance information in the original performance information, the accompaniment data generated in the block 26 is used as the chord part performance information, and is arranged together with the remaining performance information in the original performance information. Provide performance information.

なお、アレンジ済の演奏情報をどのような形式で提供するかについては、設計上、任意に選定してよい。例えば、MIDI規格のような所定形式に従って符号化された電子データの状態で提供する、あるいは、具体的な楽譜イメージでディスプレイ5に表示するか又はプリンタ6で紙にプリント出力するか又は電子的イメージデータとして提供する、あるいは、オーディオ波形データとして提供する、ようにしてよい。   The format in which the arranged performance information is provided may be arbitrarily selected in terms of design. For example, it is provided in the state of electronic data encoded according to a predetermined format such as the MIDI standard, or is displayed on the display 5 as a specific musical score image, printed on paper by the printer 6, or an electronic image. It may be provided as data or as audio waveform data.

CPU1がブロック26の処理を実行するとき、前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段として機能する。   When the CPU 1 executes the processing of block 26, it functions as means for generating accompaniment data for use in combination with at least a part of the original performance information based on the retrieved accompaniment pattern data.

以上のように、上記実施例によれば、原演奏情報から指定された演奏パートの演奏情報を抽出し、該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、該クエリに応じた伴奏パターンデータを検索し、該検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成するので、原演奏情報中の指定された演奏パートとの相性が良い伴奏パターンデータを自動的に検索することができる。従って、該検索された伴奏パターンデータに基づき原演奏情報との相性が良い伴奏データを容易に生成することができ、自動アレンジの品質を向上させることができる。   As described above, according to the above embodiment, the performance information of the designated performance part is extracted from the original performance information, and the extracted performance information is used as a query from the database storing a plurality of accompaniment pattern data. Accompaniment pattern data corresponding to the query is retrieved, and accompaniment data for use in combination with at least a part of the original performance information is generated based on the retrieved accompaniment pattern data. Accompaniment pattern data having good compatibility with the performance part can be automatically retrieved. Therefore, accompaniment data having good compatibility with the original performance information can be easily generated based on the retrieved accompaniment pattern data, and the quality of automatic arrangement can be improved.

1 CPU(中央処理ユニット)
2 ROM(リードオンリメモリ)
3 RAM(ランダムアクセスメモリ)
4 入力装置
5 ディスプレイ
6 プリンタ
7 ハードディスク
8 可搬媒体
9 メモリインターフェイス
10 音源回路ボード
11 サウンドシステム
12 通信インターフェイス
1 CPU (Central Processing Unit)
2 ROM (Read Only Memory)
3 RAM (Random Access Memory)
4 Input device 5 Display 6 Printer 7 Hard disk 8 Portable medium 9 Memory interface 10 Sound source circuit board 11 Sound system 12 Communication interface

Claims (5)

原演奏情報を取得する手段と、
演奏パートを指定する手段と、
前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手段と、
該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手段と、
前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手段と
を備える自動アレンジ装置。
Means for obtaining original performance information;
Means to specify the performance part;
Means for extracting performance information of the designated performance part from the acquired original performance information;
Means for retrieving accompaniment pattern data in accordance with the query from a database storing a plurality of accompaniment pattern data using the extracted performance information as a query;
An automatic arrangement apparatus comprising: means for generating accompaniment data for use in combination with at least a part of the original performance information based on the retrieved accompaniment pattern data.
前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に組み合わせるのに適した伴奏パターンデータを検索する、請求項1に記載の自動アレンジ装置。   The automatic arrangement device according to claim 1, wherein the means for searching for the accompaniment pattern data searches for accompaniment pattern data suitable for combining with the extracted performance information. 前記伴奏パターンデータを検索する手段は、前記抽出された演奏情報に代替するのに適した伴奏パターンデータを検索する、請求項1に記載の自動アレンジ装置。   The automatic arrangement device according to claim 1, wherein the means for searching for the accompaniment pattern data searches for accompaniment pattern data suitable for substituting for the extracted performance information. 前記原演奏情報の和音を取得する手段を更に備え、
前記伴奏データを生成する手段は、前記検索された伴奏パターンデータにおける各音の音高要素を、前記取得した和音に応じて制御することにより前記伴奏データを生成する、請求項1乃至3のいずれかに記載の自動アレンジ装置。
Means for obtaining a chord of the original performance information;
The means for generating the accompaniment data generates the accompaniment data by controlling a pitch element of each sound in the retrieved accompaniment pattern data according to the acquired chord. The automatic arrangement device according to crab.
原演奏情報を取得する手順と、
演奏パートを指定する手順と、
前記取得した原演奏情報から前記指定された演奏パートの演奏情報を抽出する手順と、
該抽出された演奏情報をクエリとして、複数の伴奏パターンデータを記憶したデータベースから、前記クエリに応じた伴奏パターンデータを検索する手順と、
前記検索された伴奏パターンデータに基づき前記原演奏情報の少なくとも一部と組み合わせて使用するための伴奏データを生成する手順と
をコンピュータに実行させるためのプログラム。
The procedure to get the original performance information,
To specify the performance part,
A procedure for extracting performance information of the designated performance part from the acquired original performance information;
A procedure for searching for accompaniment pattern data according to the query from a database storing a plurality of accompaniment pattern data using the extracted performance information as a query;
A program for causing a computer to execute a procedure for generating accompaniment data for use in combination with at least a part of the original performance information based on the retrieved accompaniment pattern data.
JP2015185301A 2015-09-18 2015-09-18 Automatic arrangement device and program Active JP6565529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015185301A JP6565529B2 (en) 2015-09-18 2015-09-18 Automatic arrangement device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015185301A JP6565529B2 (en) 2015-09-18 2015-09-18 Automatic arrangement device and program

Publications (2)

Publication Number Publication Date
JP2017058596A JP2017058596A (en) 2017-03-23
JP6565529B2 true JP6565529B2 (en) 2019-08-28

Family

ID=58390186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015185301A Active JP6565529B2 (en) 2015-09-18 2015-09-18 Automatic arrangement device and program

Country Status (1)

Country Link
JP (1) JP6565529B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11204336B2 (en) 2016-03-30 2021-12-21 Ngk Insulators, Ltd. Sensor element and gas sensor
JP7475993B2 (en) 2020-06-30 2024-04-30 ローランド株式会社 Automatic music arrangement program and automatic music arrangement device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3698057B2 (en) * 2001-02-02 2005-09-21 ヤマハ株式会社 Automatic arrangement apparatus and method
JP2008537180A (en) * 2005-04-18 2008-09-11 エルジー エレクトロニクス インコーポレーテッド Operation method of music composer
JP5982980B2 (en) * 2011-04-21 2016-08-31 ヤマハ株式会社 Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern
US9251773B2 (en) * 2013-07-13 2016-02-02 Apple Inc. System and method for determining an accent pattern for a musical performance

Also Published As

Publication number Publication date
JP2017058596A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
US9728173B2 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
Bosch et al. Evaluation and combination of pitch estimation methods for melody extraction in symphonic classical music
JP5935503B2 (en) Music analysis apparatus and music analysis method
US9378719B2 (en) Technique for analyzing rhythm structure of music audio data
JP6743425B2 (en) Sound signal processing method and sound signal processing device
JP2014038308A (en) Note sequence analyzer
JP6565528B2 (en) Automatic arrangement device and program
Zhou et al. BandNet: A neural network-based, multi-instrument Beatles-style MIDI music composition machine
Cho et al. Music emotion recognition using chord progressions
JP6760450B2 (en) Automatic arrangement method
Heydarian Automatic recognition of Persian musical modes in audio musical signals
US11176917B2 (en) Automatic arrangement of music piece based on characteristic of accompaniment
JP6565529B2 (en) Automatic arrangement device and program
Mazurowski Computer models for algorithmic music composition
Dittmar et al. Real-time guitar string detection for music education software
JP7120468B2 (en) SOUND ANALYSIS METHOD, SOUND ANALYZER AND PROGRAM
JP7375302B2 (en) Acoustic analysis method, acoustic analysis device and program
Holder et al. Musiplectics: computational assessment of the complexity of music scores
Wang et al. A framework for automated pop-song melody generation with piano accompaniment arrangement
Della Ventura The influence of the rhythm with the pitch on melodic segmentation
JP6606844B2 (en) Genre selection device, genre selection method, program, and electronic musical instrument
De Pasquale et al. Towards Automatic Classification of Sheet Music
Abeßer et al. Bass Playing Style Detection Based on High-level Features and Pattern Similarity.
Zhao et al. Tunerank model for main melody extraction from multi-part musical scores
Bosch Vicente From heuristics-based to data-driven audio melody extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R151 Written notification of patent or utility model registration

Ref document number: 6565529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151