JP6760450B2 - Automatic arrangement method - Google Patents

Automatic arrangement method Download PDF

Info

Publication number
JP6760450B2
JP6760450B2 JP2019137836A JP2019137836A JP6760450B2 JP 6760450 B2 JP6760450 B2 JP 6760450B2 JP 2019137836 A JP2019137836 A JP 2019137836A JP 2019137836 A JP2019137836 A JP 2019137836A JP 6760450 B2 JP6760450 B2 JP 6760450B2
Authority
JP
Japan
Prior art keywords
accompaniment
performance information
data
accent
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019137836A
Other languages
Japanese (ja)
Other versions
JP2019200427A (en
Inventor
大地 渡邉
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019137836A priority Critical patent/JP6760450B2/en
Publication of JP2019200427A publication Critical patent/JP2019200427A/en
Application granted granted Critical
Publication of JP6760450B2 publication Critical patent/JP6760450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音楽演奏情報を自動的にアレンジ(編曲)する装置及びプログラムに関し、特に原曲の持つアクセント位置を考慮することにより、品質のよい自動アレンジを行なう技術に関する。 The present invention relates to a device and a program for automatically arranging (arranging) music performance information, and particularly to a technique for performing high-quality automatic arrangement by considering the accent position of the original music.

下記特許文献1には、所与の楽曲の複数パートのMIDI形式の自動演奏データからユーザが所望のパートを選択して、該選択されたパートについて希望する形式の楽譜を生成する技術が示されている。そこにおいて、一例として、ユーザがメロディパートを選択し、該選択したメロディパートのメロディに適した伴奏データを自動的に生成し、該選択したメロディパートと自動生成された伴奏データに基づく伴奏パートとからなる楽譜を生成することが示されている。メロディに適した伴奏データを自動的に生成する手法として、具体的には、演奏レベルに応じた複数の伴奏パターンを予め用意しておき、ユーザが選択した演奏レベルに対応する伴奏パターンを選択し、該選択された伴奏パターンに基づきメロディにおける和音進行を考慮して伴奏データを自動生成している。 Patent Document 1 below discloses a technique in which a user selects a desired part from MIDI-format automatic performance data of a plurality of parts of a given musical piece, and generates a score in a desired format for the selected part. ing. Then, as an example, the user selects a melody part, automatically generates accompaniment data suitable for the melody of the selected melody part, and the selected melody part and the accompaniment part based on the automatically generated accompaniment data. It has been shown to generate a score consisting of. As a method of automatically generating accompaniment data suitable for a melody, specifically, a plurality of accompaniment patterns according to the performance level are prepared in advance, and an accompaniment pattern corresponding to the performance level selected by the user is selected. , The accompaniment data is automatically generated based on the selected accompaniment pattern in consideration of the chord progression in the melody.

特開2005−202204号公報Japanese Unexamined Patent Publication No. 2005-202204

上述した特許文献1における伴奏データの自動生成は、所与のメロディに基づき伴奏のアレンジ(編曲)を自動的に行なっていると言える。しかし、特許文献1における伴奏データの自動生成は、既存の伴奏パターン(和音バッキングあるいはアルペジオ等)を構成する楽音の音高をメロディの和音進行に応じて変更する程度のものでしかない。故に、原曲の持つリズム的要素に調和した伴奏アレンジを行なうことができるものではなかった。そのため、自動アレンジによって追加された伴奏が原曲のリズム的要素に調和していないことにより、原曲が本来持っていたアクセント位置が打ち消されてしまう、という不都合がある。また、そのようにして自動生成された伴奏データに基づく伴奏演奏を原曲のメロディ演奏と一緒に、例えば鍵盤楽器等で演奏した場合、演奏者の右手(メロディ演奏)と左手(伴奏演奏)のアクセント位置が調和していないことにより、演奏しにくいものとなる、という不都合がある。 It can be said that the automatic generation of accompaniment data in Patent Document 1 described above automatically arranges (arranges) accompaniment based on a given melody. However, the automatic generation of accompaniment data in Patent Document 1 is only to change the pitch of the musical tones constituting the existing accompaniment pattern (chord backing, arpeggio, etc.) according to the chord progression of the melody. Therefore, it was not possible to arrange accompaniment in harmony with the rhythmic elements of the original song. Therefore, there is a disadvantage that the accompaniment added by the automatic arrangement is not in harmony with the rhythmic elements of the original song, so that the accent position originally possessed by the original song is canceled. In addition, when an accompaniment performance based on the accompaniment data automatically generated in this way is performed together with the melody performance of the original song, for example, on a keyboard instrument, the performer's right hand (melody performance) and left hand (accompaniment performance) There is an inconvenience that it becomes difficult to play because the accent positions are not in harmony.

本発明は上述の点に鑑みてなされたものであり、自動アレンジの品質を向上させることができる自動アレンジ方法を提供しようとするものである。 The present invention has been made in view of the above points, and an object of the present invention is to provide an automatic arranging method capable of improving the quality of automatic arranging.

本発明に係る自動アレンジ方法は、原演奏情報からメロディパートを含む少なくとも1つのパートの演奏情報を抽出するステップと、前記原演奏情報から抽出した前記少なくとも1つのパートの演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出するステップと、伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するステップ、をプロセッサによって実行することからなる。
別の観点によれば、本発明に係る自動アレンジ方法は、原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出するステップと、伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するステップと、前記原演奏情報から特定のパートの演奏情報を分離して抽出するステップと、前記抽出した特定のパートの演奏情報を前記生成されたアレンジした伴奏データと合成するステップ、をプロセッサによって実行することからなる。
The automatic arrangement method according to the present invention is based on the step of extracting the performance information of at least one part including the melody part from the original performance information and the performance information of the at least one part extracted from the original performance information. The step of extracting one or more accent positions in the song represented by the performance information and the time position of one or more accompaniment sounds generated based on the accompaniment pattern data are matched with the extracted one or more accent positions. The processor executes the step of generating the arranged accompaniment data by adjusting.
According to another viewpoint, the automatic arrangement method according to the present invention is generated based on the step of extracting one or more accent positions in the song represented by the original performance information and the accompaniment pattern data based on the original performance information. A step of generating arranged accompaniment data by adjusting the time position of one or more accompaniment sounds to be adjusted so as to match the extracted one or more accent positions, and a performance of a specific part from the original performance information. The processor executes a step of separating and extracting the information and a step of synthesizing the performance information of the extracted specific part with the generated accompaniment data arranged.

本発明によれば、原演奏情報に適した伴奏データを生成する(アレンジする)にあたって、既存の伴奏パターンデータを基にして、該伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記原演奏情報から抽出した1以上のアクセント位置に合うように、調整することにより該伴奏データを生成する(アレンジする)。従って、原演奏情報が持つ曲中のアクセント位置(リズム的要素)に調和した伴奏データを生成することができ、既存の伴奏パターンデータ及び原演奏情報(原曲)の特徴を残したアレンジを自動的に行なうことができる。また、そのようにして自動生成された伴奏データに基づく伴奏演奏を原曲のメロディ演奏と一緒に、例えば鍵盤楽器等で演奏した場合、演奏者の右手(メロディ演奏)と左手(伴奏演奏)のアクセント位置(リズム的要素)が調和するものとなるため、演奏し易いものとなる。従って、品質の良いアレンジを自動的に提供することができる。 According to the present invention, in generating (arranging) accompaniment data suitable for the original performance information, the time position of one or more accompaniment sounds generated based on the existing accompaniment pattern data based on the existing accompaniment pattern data. Is adjusted so as to match one or more accent positions extracted from the original performance information, thereby generating (arranging) the accompaniment data. Therefore, it is possible to generate accompaniment data that is in harmony with the accent position (rhythmic element) of the original performance information in the song, and automatically arranges the existing accompaniment pattern data and the characteristics of the original performance information (original song). Can be done In addition, when an accompaniment performance based on the accompaniment data automatically generated in this way is played together with the melody performance of the original song, for example, with a keyboard instrument, the performer's right hand (melody performance) and left hand (accompaniment performance) Since the accent position (rhythmic element) is in harmony, it is easy to play. Therefore, it is possible to automatically provide a high quality arrangement.

一実施例において、前記伴奏データを生成するステップは、(1)前記伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含める、ように構成されていてよい。これにより、原演奏情報の持つアクセント位置に調和した伴奏データを生成することができる。 In one embodiment, the steps for generating the accompaniment data are as follows: (1) In one or more accompaniment sounds generated based on the accompaniment pattern data, the accompaniment sound exists at a time position corresponding to one of the extracted accent positions. In this case, one accompaniment sound existing at a time position matching the one accent position is included in the arranged accompaniment data, and (2) in one or more accompaniment sounds generated based on the accompaniment pattern data, the said If there is no accompaniment sound at the time position that matches one of the extracted accent positions, the accompaniment sound that exists at the time position close to the one accent position is shifted to the time position that matches the accent position, and the arranged accompaniment data. It may be configured to be included in. As a result, accompaniment data that is in harmony with the accent position of the original performance information can be generated.

別の実施例において、前記伴奏データを生成するステップは、(1)前記伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ように構成されていてよい。これによれば、上記(1)の特徴により、前述と同様に、原演奏情報が持つ曲中のアクセント位置(リズム的要素)に調和した伴奏データを生成することができ、かつ、上記(2)の特徴により、所定の音符分解能よりも細かな分解能の伴奏音は、それがアクセント位置に該当していない限り、前記アレンジした伴奏データから省略されるので、初心者にも演奏し易いアレンジを提供することができる。 In another embodiment, the step of generating the accompaniment data is as follows: (1) One accompaniment sound located at a time position finer than a predetermined note resolution among one or more accompaniment sounds generated based on the accompaniment pattern data. Is matched with one of the extracted accent positions, one accompaniment sound located at the fine time position is included in the arranged accompaniment data, and (2) is generated based on the accompaniment pattern data. If the accompaniment sound located at a time position finer than the predetermined note resolution among the one or more accompaniment sounds does not match the extracted accent position, the accompaniment data located at the fine time position is arranged. It may be configured not to be included in. According to this, according to the above-mentioned feature (1), it is possible to generate accompaniment data in harmony with the accent position (rhythmic element) in the song that the original performance information has, and the above-mentioned (2). ), Accompaniment sounds with a resolution finer than the predetermined note resolution are omitted from the arranged accompaniment data unless it corresponds to the accent position, providing an arrangement that is easy for beginners to play. can do.

本発明に係る自動アレンジ方法を構成する各ステップは、それぞれの機能を実現するように構成されたプログラムモジュール及び該プログラムモジュールを実行可能なプロセッサ(CPUのような汎用プロセッサあるいはDSPのような専用プロセッサ)の組み合わせによって構成され得る。 Each step constituting the automatic arrangement method according to the present invention includes a program module configured to realize each function and a processor capable of executing the program module (a general-purpose processor such as a CPU or a dedicated processor such as a DSP). ) Can be configured.

また、本発明は、方法の発明として実施しうるのみならず、各ステップの機能を実現するように構成された手段を備えてなる装置の発明としても実施することができ、また、該方法を実行するためのプロセッサにより実行可能な命令群からなるプログラムの発明としても実施することができ、また、該プログラムを記憶した非一過性のコンピュータ読取可能な記憶媒体の発明としても実施することができる。 Further, the present invention can be implemented not only as an invention of a method, but also as an invention of an apparatus provided with means configured to realize the function of each step, and the method can be implemented. It can be implemented as an invention of a program consisting of a group of instructions that can be executed by a processor for execution, and can also be implemented as an invention of a non-transient computer-readable storage medium that stores the program. it can.

本発明に係る自動アレンジ方法の一実施例を実現するための装置のハードウェア構成ブロック図。The hardware block diagram of the apparatus for realizing one Example of the automatic arrangement method which concerns on this invention. CPUによる制御の下で実行される本発明の一実施例に係る処理の機能ブロック図。The functional block diagram of the process which concerns on one Embodiment of this invention which is executed under the control of a CPU. 第1実施例として、或る原演奏情報の第1及び第2小節に関して行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表。As a first embodiment, it is a figure which shows an example of the accent position extraction result performed with respect to the 1st and 2nd measures of a certain original performance information, (a) is a figure of the 1st and 2nd measures of the original performance information. A figure showing an example of a rhythm image, (b) is a table showing an accent position extraction result extracted from the original performance information having the rhythm image of (a). 第1実施例に従う実例を示す図であり、(a)は取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜、(b)は取得した和音情報に応じて(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜、(c)は図3に示すアクセント位置抽出結果に応じて(b)に示す伴奏音のアクセント位置を調整した一例を示す楽譜。It is a figure which shows the example according to 1st Example, (a) is a musical score which shows an example of the acquired accompaniment pattern data (template), (b) is based on the accompaniment pattern data of (a) according to the acquired chord information. A score showing an example of shifting the pitch of the generated accompaniment sound, (c) is a score showing an example of adjusting the accent position of the accompaniment sound shown in (b) according to the result of extracting the accent position shown in FIG. 第1実施例として、図2において実行される伴奏データを生成する処理(アレンジ処理)の具体例を示すフローチャート。As a first embodiment, a flowchart showing a specific example of a process (arrangement process) for generating accompaniment data executed in FIG. 第2実施例として、別の或る原演奏情報の第1及び第2小節に関して行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表。As a second embodiment, it is a figure which shows an example of the accent position extraction result performed about the 1st and 2nd measures of another original performance information, (a) is the 1st and 2nd of the original performance information. The figure which shows an example of the rhythm image of a bar, (b) is the table which shows the accent position extraction result extracted from the original performance information which has the rhythm image of (a). 第2実施例に従う実例を示す図であり、(a)は取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜、(b)は取得した和音情報に応じて(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜、(c)は図3に示すアクセント位置抽出結果に応じて(b)に示す伴奏音のアクセント位置を調整した一例を示す楽譜。It is a figure which shows the example according to 2nd Example, (a) is a musical score which shows an example of the acquired accompaniment pattern data (template), (b) is based on the accompaniment pattern data of (a) according to the acquired chord information. A score showing an example of shifting the pitch of the generated accompaniment sound, (c) is a score showing an example of adjusting the accent position of the accompaniment sound shown in (b) according to the result of extracting the accent position shown in FIG. 第2実施例として、図2において実行される伴奏データを生成する処理(アレンジ処理)の具体例を示すフローチャート。As a second embodiment, a flowchart showing a specific example of a process (arrangement process) for generating accompaniment data executed in FIG.

図1は、本発明に係る自動アレンジ方法の一実施例を実現するための装置(以下、自動アレンジ装置と言う)のハードウェア構成ブロック図である。この自動アレンジ装置は、必ずしも自動アレンジのための専用装置として構成されている必要はなく、パーソナルコンピュータ、携帯端末装置、電子楽器など、コンピュータ機能を持つ任意の装置又は機器において、本発明に係る自動アレンジ用のアプリケーションプログラムをインストールしてなるものであればよい。この自動アレンジ装置のハードウェア構成は、コンピュータにおいて周知の構成、例えば、CPU(中央処理ユニット)1、ROM(リードオンリメモリ)2、RAM(ランダムアクセスメモリ)3、文字及び記号等を入力するためのキーボート及びマウスを含む入力装置4、ディスプレイ5、プリンタ6、不揮発的な大容量メモリであるハードディスク7、USBメモリ等の可搬媒体8のためのメモリインターフェイス(I/F)9、音源回路ボード10、スピーカ等のサウンドシステム11、外部の通信ネットワークに接続するための通信インターフェイス(I/F)12などを含む。ROM2及び/又はハードディスク7には、本発明に係る自動アレンジ用のアプリケーションプログラム及びその他のアプリケーションプログラム並びに制御プログラムが非一過的に記憶される。 FIG. 1 is a hardware configuration block diagram of a device (hereinafter referred to as an automatic arranging device) for realizing an embodiment of the automatic arranging method according to the present invention. This automatic arranging device does not necessarily have to be configured as a dedicated device for automatic arranging, and is an automatic device or device according to the present invention in any device or device having a computer function such as a personal computer, a mobile terminal device, or an electronic musical instrument. It suffices if the application program for arrangement is installed. The hardware configuration of this automatic arranging device is for inputting a configuration well known in a computer, for example, a CPU (central processing unit) 1, a ROM (read-only memory) 2, a RAM (random access memory) 3, characters and symbols. Input device 4 including keyboard and mouse, display 5, printer 6, hard disk 7 which is a non-volatile large-capacity memory, memory interface (I / F) 9 for portable medium 8 such as USB memory, sound source circuit board 10. Sound system 11 such as a speaker, communication interface (I / F) 12 for connecting to an external communication network, and the like. The application program for automatic arrangement and other application programs and control programs according to the present invention are non-temporarily stored in the ROM 2 and / or the hard disk 7.

図2は、CPU1による制御の下で実行される本発明の一実施例に係る処理の機能ブロック図である。まず、ブロック20では、アレンジの対象となる音楽演奏情報(これを原演奏情報という)を取得する。原演奏情報を取得するための具体的構成はどのようなものであってもよい。例えば、取得する原演奏情報のデータ形式は、スタンダードMIDIファイル(SMF)のような所定形式で符号化されたデータであってもよいし、あるいは五線譜に描かれた楽譜のイメージ情報であってもよく、また可聴的なオーディオ波形データからなるものであってもよく、楽曲を表現しうるものであればその他任意のデータ形式からなっていてよい。楽譜イメージからなる原演奏情報を取得した場合は、公知の楽譜解析技術に従って該イメージを解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、その強弱記号、アクセント記号等の各種記号をその時間位置と共に符号化する。オーディオ波形データからなる場合も同様に、公知の音高及び音量等の解析技術に従って該オーディオ波形を解析し、原演奏情報を構成する個々の音符の音高、拍位置(時間位置)、音価等を符号化し、かつ、音量をその時間位置と共に符号化すればよい。また、取得する原演奏情報の音楽的パート構成は、任意であってよく、例えば、メロディパートのみからなっていてもよいし、ピアノ譜のように右手パート(メロディパート)と左手パート(伴奏又は和音パート)とからなっていてもよいし、メロディパートと和音バッキング、アルペジオ及びリズム(ドラム)等の複数の伴奏パートとからなっていてもよい。例えば、取得する原演奏情報がメロディパートのみからなる場合は、本発明に従って伴奏パートの演奏情報を追加するアレンジを行なうことができる。あるいは、取得する原演奏情報がメロディパートとその他の伴奏パートからなる場合は、本発明に従って原演奏情報が持つ伴奏パートの演奏内容とは異なる(例えば、初心者向けに簡単化した、又は上級者向けに複雑化した)伴奏演奏情報を提供するようなアレンジを行なうことができる。また、原演奏情報を取得するための構成若しくは経路は任意であり、例えば、所望の原演奏情報を保持している可搬媒体8からメモリI/F9を介して取得してもよいし、あるいは、通信I/F12を介して外部のソース又はサーバから所望の原演奏情報を選択的に取得するようにしてもよい。CPU1がブロック20の処理を実行するとき、原演奏情報を取得する手段として機能する。 FIG. 2 is a functional block diagram of a process according to an embodiment of the present invention, which is executed under the control of the CPU 1. First, the block 20 acquires music performance information (this is referred to as original performance information) to be arranged. The specific configuration for acquiring the original performance information may be any. For example, the data format of the original performance information to be acquired may be data encoded in a predetermined format such as a standard MIDI file (SMF), or may be image information of a musical score drawn on a five-line notation. It may be composed of well-audible audio waveform data, and may be composed of any other data format as long as it can express a musical score. When the original performance information consisting of the score image is acquired, the image is analyzed according to a known score analysis technique, and the pitch, beat position (time position), note value, etc. of the individual notes constituting the original performance information are coded. And, various symbols such as the strength symbol and the accent symbol are encoded together with the time position. Similarly, in the case of consisting of audio waveform data, the audio waveform is analyzed according to a known analysis technique such as pitch and volume, and the pitch, beat position (time position), and note value of each note constituting the original performance information are analyzed. Etc. may be encoded, and the volume may be encoded together with the time position. Further, the musical part composition of the original performance information to be acquired may be arbitrary, for example, it may consist only of a melody part, or a right-hand part (melody part) and a left-hand part (accompaniment or accompaniment or) like a piano score. It may consist of a chord part), or it may consist of a melody part and a plurality of accompaniment parts such as chord backing, arpeggio and rhythm (drum). For example, when the original performance information to be acquired consists only of the melody part, it is possible to make an arrangement to add the performance information of the accompaniment part according to the present invention. Alternatively, when the original performance information to be acquired consists of a melody part and other accompaniment parts, the performance content of the accompaniment part of the original performance information is different according to the present invention (for example, simplified for beginners or for advanced users). Arrangements can be made to provide accompaniment performance information (complexed to). Further, the configuration or route for acquiring the original performance information is arbitrary, and for example, the original performance information may be acquired from the portable medium 8 holding the desired original performance information via the memory I / F9, or may be acquired. , The desired original performance information may be selectively acquired from an external source or server via the communication I / F12. When the CPU 1 executes the process of the block 20, it functions as a means for acquiring the original performance information.

ブロック21では、前記取得した原演奏情報における楽曲の和音進行を示す和音情報を取得する。前記取得した原演奏情報内に和音情報が含まれていれば、その和音情報を取得すればよい。前記取得した原演奏情報内に和音情報が含まれていなければ、公知の和音解析技術を用いて、原演奏情報に含まれるメロディ進行を解析することにより和音を検出し、この検出に基づいて和音情報を取得すればよい。あるいは、ユーザが入力装置4等を介して和音情報を入力し、このユーザ入力に基づいて和音情報を取得するようにしてもよい。取得した和音情報は、追って、ハーモニーとなる伴奏データを生成するときに、該伴奏データが示す伴奏音の音高をシフトするために利用される。 In the block 21, chord information indicating the chord progression of the musical piece in the acquired original performance information is acquired. If the acquired original performance information includes chord information, the chord information may be acquired. If the acquired original performance information does not include chord information, a chord is detected by analyzing the melody progression included in the original performance information using a known chord analysis technique, and the chord is detected based on this detection. All you have to do is get the information. Alternatively, the user may input chord information via the input device 4 or the like, and acquire the chord information based on the user input. The acquired chord information is used to shift the pitch of the accompaniment sound indicated by the accompaniment data when the accompaniment data to be harmony is generated later.

ブロック22及び23では、前記取得した原演奏情報からメロディパートとそれ以外のパート(もしあれば)を分離し、メロディパートの原演奏情報を取得し(ブロック22)、かつ、メロディパート以外のパート(もしあれば)の原演奏情報を取得する(ブロック23)。なお、原演奏情報がパート情報若しくはそれと同等の識別情報を含んでいれば、そのパート情報又は識別情報を利用してパート別の原演奏情報を取得すればよい。また、原演奏情報が楽譜イメージからなっている場合は、該楽譜がピアノ譜のようにメロディ譜(ト音記号譜)と伴奏譜(ヘ音記号譜)からなっているならば、あるいはパート別の五線譜からなっているならば、それに基づき各パートの原演奏情報を取得することができる。パート別の五線譜からなっていない場合は、楽譜を解析することにより、メロディ、和音、ベース等の各パートの音符を推定的に抽出すればよい。 In blocks 22 and 23, the melody part and other parts (if any) are separated from the acquired original performance information, the original performance information of the melody part is acquired (block 22), and the parts other than the melody part are obtained. Acquire the original performance information (if any) (block 23). If the original performance information includes the part information or the identification information equivalent thereto, the original performance information for each part may be acquired by using the part information or the identification information. If the original performance information consists of a musical score image, if the musical score consists of a melody clef (treble clef) and an accompaniment clef (bass clef) like a piano staff, or by part. If it consists of the staff notation of, the original performance information of each part can be obtained based on it. If it does not consist of a staff notation for each part, the notes of each part such as melody, chord, and bass may be presumably extracted by analyzing the score.

ブロック24では、前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する。この場合、原演奏情報に含まれる全てのパートの組み合わせから曲のアクセント位置を抽出するようにしてもよいし、原演奏情報に含まれる一部のパートから曲のアクセント位置を抽出するようにしてもよく、例えばどのパートからアクセント位置を抽出するかの選択をユーザによって行なうことができるようにしてよい。なお、このアクセント位置の抽出は、曲(あるいは1コーラス)の全体にわたって行なわれ、原演奏情報の時間的進行に関連づけて、抽出した1以上のアクセント位置が特定される(記憶される)。CPU1がブロック24の処理を実行するとき、前記取得した原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段として機能する。 In the block 24, one or more accent positions in the song represented by the original performance information are extracted based on the acquired original performance information. In this case, the accent position of the song may be extracted from the combination of all the parts included in the original performance information, or the accent position of the song may be extracted from some parts included in the original performance information. Also, for example, the user may be able to select from which part the accent position is to be extracted. The extraction of the accent position is performed over the entire song (or one chorus), and one or more extracted accent positions are specified (memorized) in relation to the temporal progress of the original performance information. When the CPU 1 executes the process of the block 24, it functions as a means for extracting one or more accent positions in the song represented by the original performance information based on the acquired original performance information.

具体的にアクセント位置を抽出するための手法(アルゴリズム)は、特定の手法(アルゴリズム)に限られるものではなく、何らかの基準に従って多少なりともアクセント位置を抽出できるものであればどのような手法(アルゴリズム)を採用してよい。アクセント位置を抽出するための手法(アルゴリズム)のいくつかの例を示すと次の通りである。例示したこれらの手法(アルゴリズム)から、1つのみを採用してもよく、あるいは、複数を組み合わせて採用してもよい。 The method (algorithm) for specifically extracting the accent position is not limited to a specific method (algorithm), but any method (algorithm) as long as the accent position can be extracted to some extent according to some standard. ) May be adopted. Some examples of methods (algorithms) for extracting accent positions are as follows. From these illustrated methods (algorithms), only one may be adopted, or a plurality of methods may be adopted in combination.

(1)原演奏情報が和音パートを含む場合、和音パート(若しくは和音パートとメロディパートを含めて)において発音タイミング毎に同時に発音される音数を求め、該音数が所定の閾値以上の発音タイミング(つまり時間位置若しくは拍位置)を、アクセント位置として抽出する。これは、特にピアノ演奏などの場合、強調される箇所ほど同時に弾かれる音数が多い、という特性を考慮したものである。 (1) When the original performance information includes a chord part, the number of notes that are simultaneously pronounced at each pronunciation timing in the chord part (or including the chord part and the melody part) is obtained, and the number of notes is pronounced at a predetermined threshold value or more. The timing (that is, the time position or the beat position) is extracted as an accent position. This takes into consideration the characteristic that, especially in the case of piano performance, the more emphasized parts are, the more sounds are played at the same time.

(2)原演奏情報内にアクセント記号が存在する場合、該アクセント記号が存在する発音タイミング(時間位置)を、アクセント位置として抽出する。 (2) When an accent symbol exists in the original performance information, the pronunciation timing (time position) in which the accent symbol exists is extracted as an accent position.

(3)原演奏情報がMIDIファイルである場合、ベロシティ値が所定閾値以上であるノートイベントの発音タイミング(時間位置)を、アクセント位置として抽出する。 (3) When the original performance information is a MIDI file, the sounding timing (time position) of the note event whose velocity value is equal to or higher than a predetermined threshold value is extracted as an accent position.

(4)原演奏情報(例えばメロディ)中の1フレーズにおける音の位置を考慮してアクセント位置として抽出する。例えば、1フレーズにおける最初の音あるいは最後の音は、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。あるいは、1フレーズ中で音高が最大又は最小の音も、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。 (4) Extracted as an accent position in consideration of the position of the sound in one phrase in the original performance information (for example, melody). For example, since the first sound or the last sound in one phrase seems to have a strong accent, the pronunciation timing (time position) of those sounds is extracted as the accent position. Alternatively, since it seems that the sounds having the maximum or minimum pitch in one phrase also have strong accents, the sound generation timing (time position) of those sounds is extracted as the accent position.

(5)原演奏情報中のメロディ進行において、直前の音よりも音高が所定閾値以上高音側又は低音側に大きく変化している音は、アクセントが強いと思われるので、それらの音の発音タイミング(時間位置)を、アクセント位置として抽出する。 (5) In the melody progression in the original performance information, the sounds whose pitch is significantly changed to the treble side or the bass side by a predetermined threshold value or more from the immediately preceding sound are considered to have a strong accent, so that the sound is pronounced. The timing (time position) is extracted as an accent position.

(6)原演奏情報中のメロディ(あるいは伴奏)の各音を1小節内の拍位置を考慮して重み付けし、その重み付け値が所定閾値以上の音の発音タイミング(時間位置)を、アクセント位置として抽出する。例えば、1小節内の1拍目の音に最大の重みを与え、2拍目以降の表拍(オンビート)の音に2番目の重みを与え、裏拍(オフビート)の音にその音価に応じた重みを与える(例えば8分音符に3番目の重み、16分音符に4番目の重み)。 (6) Each sound of the melody (or accompaniment) in the original performance information is weighted in consideration of the beat position in one bar, and the sounding timing (time position) of the sound whose weighting value is equal to or more than a predetermined threshold is set as the accent position. Extract as. For example, the maximum weight is given to the note of the first beat in one bar, the second weight is given to the note of the front beat (on beat) after the second beat, and the note value of the note of the back beat (off beat) is given. Give the appropriate weight (for example, the eighth note has the third weight, the sixteenth note has the fourth weight).

(7)原演奏情報中のメロディ(あるいは伴奏)の各音の音価又はデュレーションを重み付けし、その重み付け値が所定閾値以上の音の発音タイミング(時間位置)を、アクセント位置として抽出する。すなわち、発音時間が長い音が、短い音よりも、よりアクセントが強いとみなす。 (7) The note value or duration of each sound of the melody (or accompaniment) in the original performance information is weighted, and the sounding timing (time position) of the sound whose weighted value is equal to or higher than a predetermined threshold value is extracted as an accent position. That is, a sound with a long pronunciation time is considered to have a stronger accent than a sound with a short pronunciation time.

ブロック25では、既存の伴奏パターンデータを取得する。多数の既存の伴奏パターンデータ(テンプレート)が、内部のデータベース(例えばハードディスク7又は可搬媒体8)あるいは外部のデータベース(例えばインターネット上のサーバ)に記憶されており、ユーザは、アレンジを行なおうとする原演奏情報の楽曲の拍子やリズム等を考慮して、該データベースから所望の伴奏パターンデータ(テンプレート)を選択する。このようなユーザ選択に応じて、ブロック25において、既存の伴奏パターンデータが取得される。なお、原演奏情報の楽曲の全体を通じて同じ伴奏パターンデータを選択する(取得する)必要はなく、何小節分かの区間に分けて異なる伴奏パターンデータを選択する(取得する)ようにしてよい。また、同時に演奏される複数種類の伴奏パターンデータ(例えば和音バッキングパターンとドラムリズムパターン)の組み合わせを同時に取得してもよい。CPU1がブロック25の処理を実行するとき、既存の伴奏パターンデータを取得する手段として機能する。 In block 25, the existing accompaniment pattern data is acquired. A large number of existing accompaniment pattern data (templates) are stored in an internal database (for example, hard disk 7 or portable medium 8) or an external database (for example, a server on the Internet), and the user tries to make arrangements. The desired accompaniment pattern data (template) is selected from the database in consideration of the time signature, rhythm, etc. of the original performance information. In response to such user selection, existing accompaniment pattern data is acquired in block 25. It is not necessary to select (acquire) the same accompaniment pattern data throughout the music of the original performance information, and it is possible to select (acquire) different accompaniment pattern data in sections of several measures. Further, a combination of a plurality of types of accompaniment pattern data (for example, a chord backing pattern and a drum rhythm pattern) to be played at the same time may be acquired at the same time. When the CPU 1 executes the process of the block 25, it functions as a means for acquiring the existing accompaniment pattern data.

なお、一実施例において、既存の伴奏パターンデータのソースとして、公知の伴奏スタイルデータ(自動伴奏データ)のバンクを利用してよい。公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおいては、各カテゴリー(Pop&Rock、あるいはCountry&Blues、Standard&Jazzなど)別に複数セットの伴奏スタイルデータを記憶しており、各1セットの伴奏スタイルデータは、イントロセクション、メインセクション、フィルインセクション、エンディングセクション等の各セクション別に伴奏データセットを含んでおり、1セクション分の伴奏データセットは、リズム1、リズム2、ベース、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の複数パートの伴奏パターンデータ(テンプレート)を含んでいる。このような公知の伴奏スタイルデータ(自動伴奏データ)のバンクにおける最下位層のパート別の伴奏パターンデータ(テンプレート)が、前記ブロック25において取得される伴奏パターンデータである。前記ブロック25においては、ある1セクション分の伴奏データセットのうち1パートのみの伴奏パターンデータを取得してもよいし、全パート若しくは一部の複数パートの伴奏パターンデータを組み合わせて取得してもよい。なお、公知のように、リズミック和音1、リズミック和音2、フレーズ1、フレーズ2等の音高要素を含むパートの伴奏パターンデータ(テンプレート)においては、基準和音名(例えばCメジャー和音)を示す情報及び音高変換ルールを既定する情報等が追加的に含まれている。伴奏パターンデータ(テンプレート)の実体は、MIDI規格等に従って分散的に符号化されたデータであってもよいし、オーディオ波形データのような時間軸に沿うデータであってもよい。 In one embodiment, a bank of known accompaniment style data (automatic accompaniment data) may be used as a source of existing accompaniment pattern data. In the bank of known accompaniment style data (automatic accompaniment data), a plurality of sets of accompaniment style data are stored for each category (Pop & Rock, County & Blues, Standard & Jazz, etc.), and each set of accompaniment style data is an intro section. The accompaniment data set for each section such as the main section, fill-in section, and ending section is included, and the accompaniment data set for one section is rhythm 1, rhythm 2, bass, rhythmic chord 1, rhythmic chord 2, phrase 1, Contains accompaniment pattern data (template) for multiple parts such as phrase 2. The accompaniment pattern data (template) for each part of the lowest layer in the bank of such known accompaniment style data (automatic accompaniment data) is the accompaniment pattern data acquired in the block 25. In the block 25, the accompaniment pattern data of only one part of the accompaniment data set for a certain section may be acquired, or the accompaniment pattern data of all parts or a part of a plurality of parts may be acquired in combination. Good. As is known, in the accompaniment pattern data (template) of a part including pitch elements such as rhythmic chord 1, rhythmic chord 2, phrase 1, and phrase 2, information indicating a reference chord name (for example, C major chord). It also contains additional information that defines pitch conversion rules. The substance of the accompaniment pattern data (template) may be data distributed and encoded according to a MIDI standard or the like, or data along the time axis such as audio waveform data.

ブロック26では、前記ブロック25で取得した伴奏パターンデータ(テンプレート)に基づき伴奏音のデータ(伴奏データ)を生成することを行い、その際に、伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置(発音タイミング)を、前記ブロック24で抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する。例えば、1乃至複数小節からなる伴奏パターンデータ(テンプレート)を1回又は複数回繰り返すことにより所望の区間の伴奏データを生成するようになっており、該区間における1以上の伴奏音の時間位置(発音タイミング)を前記抽出した1以上のアクセント位置に合わせて変更することにより、アレンジした伴奏データを生成する。CPU1がブロック26の処理を実行するとき、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段として機能する。 In block 26, accompaniment sound data (accompaniment data) is generated based on the accompaniment pattern data (template) acquired in block 25, and at that time, one or more accompaniment sounds generated based on the accompaniment pattern data. The accompaniment data arranged is generated by adjusting the time position (sounding timing) of the above so as to match one or more accent positions extracted in the block 24. For example, accompaniment pattern data (template) consisting of one or more measures is repeated once or multiple times to generate accompaniment data for a desired section, and the time position of one or more accompaniment sounds in the section ( Arranged accompaniment data is generated by changing the sounding timing) according to the extracted one or more accent positions. When the CPU 1 executes the processing of the block 26, the time position of one or more accompaniment sounds generated based on the acquired accompaniment pattern data is adjusted so as to match the extracted one or more accent positions. It functions as a means to generate arranged accompaniment data.

ブロック27は、前記ブロック25で取得した伴奏パターンデータ(テンプレート)が和音バッキングやアルペジオのような音高要素を持つ伴奏音を含む場合に行なわれる処理であり、前記ブロック26においてアレンジした伴奏データを生成する際に、前記ブロック21で取得した和音情報に応じて、生成する伴奏データの音高をシフトする。なお、前記ブロック25で取得した伴奏パターンデータ(テンプレート)がドラムリズムパターンからなる場合は、このブロック27の処理は省略される。 The block 27 is a process performed when the accompaniment pattern data (template) acquired in the block 25 includes an accompaniment sound having a pitch element such as a chord backing or an arpeggio, and the accompaniment data arranged in the block 26 is used. At the time of generation, the pitch of the accompaniment data to be generated is shifted according to the chord information acquired in the block 21. If the accompaniment pattern data (template) acquired in the block 25 consists of a drum rhythm pattern, the processing of the block 27 is omitted.

ブロック28では、前記ブロック26で生成したアレンジ済の伴奏データを含むアレンジ済の演奏情報をユーザに対して提供する。アレンジ済の演奏情報をどのような形式で提供するかについては、設計上、任意に選定してよい。例えば、前記ブロック26で生成したアレンジ済の伴奏データのみを、MIDI規格のような所定形式に従って符号化された電子データの状態で提供する、あるいは、具体的な楽譜イメージでディスプレイ5に表示するか又はプリンタ6で紙にプリント出力するか又は電子的イメージデータとして提供する、ようにしてよい。別の例として、前記ブロック22及び23で分離した前記原演奏情報のメロディパートとそれ以外のパート(もしあれば)のうち少なくとも1パートの原演奏情報を適宜に選択し(例えばユーザの希望に従って選択し)、該選択した少なくとも1パートの原演奏情報と前記ブロック26で生成したアレンジ済の伴奏データとを合成し、こうして合成したアレンジ済演奏情報を、前述と同様に、符号化された電子データの状態で、あるいは物理的又は電子的楽譜イメージデータの状態で、提供するようにしてもよい。 The block 28 provides the user with arranged performance information including the arranged accompaniment data generated in the block 26. In terms of design, the format in which the arranged performance information is provided may be arbitrarily selected. For example, whether to provide only the arranged accompaniment data generated in the block 26 in the form of electronic data encoded according to a predetermined format such as the MIDI standard, or to display it on the display 5 as a concrete musical score image. Alternatively, it may be printed out on paper by the printer 6 or provided as electronic image data. As another example, the original performance information of at least one part of the melody part of the original performance information separated by the blocks 22 and 23 and the other parts (if any) is appropriately selected (for example, according to the user's request). (Selected), the original performance information of at least one selected part and the arranged accompaniment data generated in the block 26 are combined, and the arranged performance information thus synthesized is encoded in the same manner as described above. It may be provided in the form of data or in the form of physical or electronic musical score image data.

<第1実施例>
次に、前記ブロック26における伴奏データ生成処理の一具体例を、第1実施例として説明する。この第1実施例において、前記ブロック26における伴奏データ生成処理は、例えば、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、他方、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含める、ようにすることからなる。これにより、原演奏情報の持つアクセント位置に調和した伴奏データを生成することができる。例えば、上記1)に従って生成する伴奏音の一例が、後述する図4(c)における発音タイミングA3における伴奏音である。また、上記2)に従って生成する伴奏音の一例が、後述する図4(c)における発音タイミングA4における伴奏音である。
<First Example>
Next, a specific example of the accompaniment data generation process in the block 26 will be described as a first embodiment. In this first embodiment, the accompaniment data generation process in the block 26 is, for example, 1) a time that matches one of the extracted accent positions in one or more accompaniment sounds generated based on the acquired accompaniment pattern data. When there is an accompaniment sound at the position, one accompaniment sound existing at the time position corresponding to the one accent position is included in the arranged accompaniment data, while 2) it is generated based on the acquired accompaniment pattern data. If there is no accompaniment sound at the time position that matches one of the extracted accent positions in one or more accompaniment sounds, the accompaniment sound that exists at the time position close to the one accent position is set to the time position that matches the accent position. It consists of shifting the accompaniment data and including it in the arranged accompaniment data. As a result, accompaniment data that is in harmony with the accent position of the original performance information can be generated. For example, an example of the accompaniment sound generated according to 1) above is the accompaniment sound at the sounding timing A3 in FIG. 4 (c) described later. Further, an example of the accompaniment sound generated according to the above 2) is the accompaniment sound at the sounding timing A4 in FIG. 4 (c) described later.

さらに詳しくは、該第1実施例において、このブロック26における伴奏データ生成処理は、例えば、前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記抽出した1以上のアクセント位置から所定長以上(例えば1拍分以上)離れた時間位置に存在する1以上の伴奏音については、前記アレンジした伴奏データの中に含めるようにすることからなる。これにより、ユーザが選択した既存の伴奏パターンデータの特徴を残したアレンジを行なうことができる。このような既存の伴奏パターンデータの特徴を残した伴奏音の一例が、後述する図4(c)における発音タイミングA1,A2,A5,A6,A7における伴奏音である。 More specifically, in the first embodiment, the accompaniment data generation process in the block 26 is, for example, one or more accent positions extracted from the one or more accompaniment sounds generated based on the acquired accompaniment pattern data. One or more accompaniment sounds existing at a time position separated from the predetermined length (for example, one beat or more) are included in the arranged accompaniment data. As a result, it is possible to make an arrangement that retains the characteristics of the existing accompaniment pattern data selected by the user. An example of an accompaniment sound that retains the characteristics of such existing accompaniment pattern data is the accompaniment sound at the sounding timings A1, A2, A5, A6, and A7 in FIG. 4C, which will be described later.

ここで、第1実施例に従う前記ブロック24〜27における処理の具体例について図3及び図4を参照して説明する。図3は、或る原演奏情報の第1及び第2小節に関して前記ブロック24で行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表である。この例では、前記(1)で述べたような手法、つまり、原演奏情報における和音パートとメロディパートを含む発音タイミング毎に同時に発音される音数を求める手法、に従ってアクセント位置抽出を行なった例を示している。 Here, a specific example of the processing in the blocks 24 to 27 according to the first embodiment will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing an example of the accent position extraction result performed in the block 24 with respect to the first and second measures of a certain original performance information, and FIG. 3A is a diagram showing the first and second measures of the original performance information. A figure showing an example of a rhythm image of a bar, (b) is a table showing an accent position extraction result extracted from the original performance information having the rhythm image of (a). In this example, the accent position is extracted according to the method described in (1) above, that is, the method of obtaining the number of sounds that are simultaneously pronounced at each pronunciation timing including the chord part and the melody part in the original performance information. Is shown.

図3(b)において、「小節番号」は、原演奏情報における小節番号を示し、「1」は第1小節、「2」は第2小節である。「拍番号」は、1小節中の拍番号を示し、「1」は1拍目、「2」は2拍目、「3」は3拍目、「4」は4拍目である。なお、原演奏情報に係る曲が4分の4拍子であるとしている。「差分クロック」は、原演奏情報における音符の位置の拍位置からのずれを、4分音符の長さを480クロックとしたクロック数で示している。差分クロック「0」は拍位置に音符(発音タイミング)が位置していることを示し、差分クロック「240」は拍位置から8分音符長だけずれた位置に音符(発音タイミング)が位置していることを示している。「音符数」は、発音タイミング毎に同時に発音される音数を示している。「長さ」は、各発音タイミングにおいて発音される音符の長さを示している。なお、「8分音符+4分音符」とは、第1小節の末尾の8分音符と第2小節の先頭の4分音符がシンコペーションでつながっていることを示す。「アクセント」は、アクセント位置として抽出されたか否かを示しており、記号Aがアクセント位置として抽出されたことを示し、記号−がアクセント位置として抽出されなかったことを示す。なお、この例では、アクセント位置として抽出される音数の閾値が「3」に設定されているものとする。結局、図3の例では、第1小節の3拍目の付点4分音符長の発音タイミングと、第1小節の4拍目の裏拍から第2小節の1拍目までシンコペーションで延びる「8分音符+4分音符」長の発音タイミングがアクセント位置として抽出される。 In FIG. 3B, the “bar number” indicates the bar number in the original performance information, “1” is the first bar, and “2” is the second bar. The "beat number" indicates the beat number in one bar, "1" is the first beat, "2" is the second beat, "3" is the third beat, and "4" is the fourth beat. It is assumed that the song related to the original performance information has a four-quarter time signature. The "difference clock" indicates the deviation of the position of the note from the beat position in the original performance information by the number of clocks in which the length of the quarter note is 480 clocks. The difference clock "0" indicates that the note (pronunciation timing) is located at the beat position, and the difference clock "240" indicates that the note (pronunciation timing) is located at a position deviated from the beat position by an eighth note length. It shows that there is. The "number of notes" indicates the number of notes that are simultaneously pronounced at each pronunciation timing. "Length" indicates the length of the note that is pronounced at each pronunciation timing. Note that "eighth note + quarter note" indicates that the eighth note at the end of the first bar and the quarter note at the beginning of the second bar are connected by syncopation. “Accent” indicates whether or not the symbol A was extracted as the accent position, indicates that the symbol A was extracted as the accent position, and indicates that the symbol − was not extracted as the accent position. In this example, it is assumed that the threshold value of the number of sounds extracted as the accent position is set to "3". After all, in the example of FIG. 3, the sounding timing of the dotted quarter note length of the third beat of the first bar and the syncopation extending from the back beat of the fourth beat of the first bar to the first beat of the second bar " The pronunciation timing of "8th note + quarter note" length is extracted as an accent position.

図4(a)は、前記ブロック25で取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜である。Cメジャー和音を4分音符長で規則的に刻んだ和音バッキングパターンからなっている。公知のように、音高情報を含む伴奏パターンデータ(テンプレート)は、基準調若しくはルートが予め定義されており、図4(a)では、基準調若しくはルートはCである。図4(b)は、前記ブロック21で取得した和音情報の一例、及び前記ブロック27の処理によって、該取得した和音情報に応じて図4(a)の伴奏パターンデータに基づき生成される伴奏音の音高をシフトした一例を示す楽譜である。この例では、原演奏情報の第1小節の1拍目から4拍目の表拍(8分音符長)までがCメジャー和音、第1小節の4拍目の裏拍(8分音符長)から第2小節の終わりまでがFメジャー和音である。図4(b)においては、原演奏情報の和音を反映して、第2小節の和音バッキングパターンの音高がFメジャー和音にシフトされる。 FIG. 4A is a musical score showing an example of the accompaniment pattern data (template) acquired in the block 25. It consists of a chord backing pattern in which C major chords are regularly carved with quarter note lengths. As is known, the accompaniment pattern data (template) including the pitch information has a reference key or root defined in advance, and in FIG. 4A, the reference key or root is C. FIG. 4B shows an example of the chord information acquired in the block 21, and the accompaniment sound generated based on the accompaniment pattern data in FIG. 4A according to the acquired chord information by the processing of the block 27. This is a score showing an example of shifting the pitch of. In this example, the front beat (eighth note length) of the first bar of the original performance information is the C major chord, and the back beat of the fourth beat (eighth note length) of the first bar. From to the end of the second bar is the F major chord. In FIG. 4B, the pitch of the chord backing pattern of the second bar is shifted to the F major chord, reflecting the chord of the original performance information.

図4(c)は、前記ブロック26で行なわれた伴奏データ生成結果を示す楽譜であり、前記図3(b)に示すアクセント位置抽出結果に応じて、図4(b)に示す伴奏音のアクセント位置を調整した例を示す。第1小節の3拍目に付点4分音符長のアクセント(リズム的アクセント)があるため、図4(b)における第1小節の3拍目の4分音符長のCメジャー和音を、図4(c)の発音タイミングA3に示すように、付点4分音符長に変更する。また、第1小節の4拍目の裏拍(8分音符長)に「8分音符+4分音符」長のシンコペーションのアクセント(リズム的アクセント)があるため、図4(b)における第1小節の4拍目の4分音符長のCメジャー和音の発音タイミングを、図4(c)の発音タイミングA4に示すように、裏拍(8分音符長)の時間位置に移動し、かつ、第2小節の1拍目まで続く「8分音符+4分音符」長のシンコペーションに変更し、かつ、第1小節の4拍目の裏拍(8分音符長)からFメジャー和音に切り替わるのに合わせて、発音タイミングA4で発音する和音の音高をFメジャー和音にシフトする。図4(c)において、発音タイミングA1,A2,A5,A6,A7は、アクセント位置から所定長以上(例えば1拍分以上)離れているので、アクセント位置による調整の影響を受けることなく、伴奏パターンデータ(テンプレート)における和音発音タイミングが維持される。 FIG. 4C is a musical score showing the accompaniment data generation result performed in the block 26, and the accompaniment sound shown in FIG. 4B depends on the accent position extraction result shown in FIG. 3B. An example of adjusting the accent position is shown. Since there is a dotted quarter note length accent (rhythmic accent) on the third beat of the first bar, the C major chord of the third beat of the first bar in FIG. 4 (b) is shown in the figure. As shown in the sounding timing A3 of 4 (c), the note length is changed to a dotted quarter note. In addition, since the back beat (8th note length) of the 4th beat of the 1st bar has a syncopated accent (rhythmic accent) of "8th note + 4th note" length, the 1st bar in FIG. 4 (b). The sounding timing of the C major chord with the quarter note length of the 4th beat is moved to the time position of the back beat (8th note length) as shown in the sounding timing A4 of FIG. 4 (c), and the third beat. Change to syncopation of "8th note + 4th note" length that continues to the 1st beat of the 2nd bar, and switch from the back beat (8th note length) of the 4th beat of the 1st bar to the F major chord. Then, the pitch of the chord sounded at the sounding timing A4 is shifted to the F major chord. In FIG. 4C, the sounding timings A1, A2, A5, A6, and A7 are separated from the accent position by a predetermined length or more (for example, one beat or more), so that the accompaniment is not affected by the adjustment by the accent position. The chord sounding timing in the pattern data (template) is maintained.

図3及び4に示したような処理が、第1及び第2小節に限らず、必要な全ての小節にわたって実行される。こうして、ブロック26では、必要な全ての小節にわたって、アレンジ済の伴奏データを生成する。 The processing as shown in FIGS. 3 and 4 is executed not only in the first and second measures but also in all necessary measures. Thus, in block 26, the arranged accompaniment data is generated over all the necessary measures.

次に、第1実施例に従って、前記ブロック26において実行される伴奏データ生成処理(アレンジ処理)の具体的手順の一例について、図5を参照して説明する。図5において、ステップS1では、RAM3内においてアレンジ用記憶領域を設定する。ステップS2では、前記ブロック25でユーザによって選択された伴奏パターンデータ(例えば前記図4(a)参照)を、該伴奏パターンデータを使用する区間の長さ分だけ繰り返し、かつ、該伴奏パターンデータに基づく伴奏音の音高を原演奏情報の和音進行に従って音高変換し(例えば前記図4(b)参照)、前記アレンジ用記憶領域に格納する。以下、アレンジ用記憶領域に格納されたデータを現在アレンジデータという。ステップS3では、アレンジ処理のための現在位置を、アレンジ用記憶領域内の現在アレンジデータの最初の音符の発音タイミングに設定する。 Next, an example of a specific procedure of the accompaniment data generation process (arrangement process) executed in the block 26 according to the first embodiment will be described with reference to FIG. In FIG. 5, in step S1, the arrangement storage area is set in the RAM 3. In step S2, the accompaniment pattern data selected by the user in the block 25 (see, for example, FIG. 4A) is repeated for the length of the section in which the accompaniment pattern data is used, and is added to the accompaniment pattern data. The pitch of the accompaniment based on the accompaniment is converted according to the chord progression of the original performance information (see, for example, FIG. 4B), and stored in the arrangement storage area. Hereinafter, the data stored in the arrangement storage area is referred to as the current arrangement data. In step S3, the current position for the arrangement process is set to the sounding timing of the first note of the current arrangement data in the arrangement storage area.

ステップS4では、前記ブロック24において行なったアクセント位置抽出結果(例えば前記図3参照)を参照して、上記現在位置がアクセント位置であるかを判定する。NOであれば、ステップS5に進み、上記現在位置から所定範囲(例えば4分音符長未満)内にアクセント位置があるかを判定する。ステップS5がNOであれば、ステップS6に進み、アレンジ用記憶領域内の現在アレンジデータの末尾まで処理したか否かを判定する。末尾まで処理していなければ、ステップS7に進み、現在アレンジデータ中の次の音符の発音タイミングを現在位置とする。ステップS7の後、ステップS4に戻る。前記図4(c)における発音タイミングA1,A2に関する処理は、上記ステップS4のNO、ステップS5のNO、ステップS6のNOを経てステップS7に進み、ステップS4に戻るルートで行なわれる。 In step S4, it is determined whether or not the current position is the accent position with reference to the result of extracting the accent position performed in the block 24 (see, for example, FIG. 3). If NO, the process proceeds to step S5, and it is determined whether or not the accent position is within a predetermined range (for example, less than a quarter note length) from the current position. If step S5 is NO, the process proceeds to step S6, and it is determined whether or not the end of the current arrangement data in the arrangement storage area has been processed. If the processing has not been performed to the end, the process proceeds to step S7, and the sounding timing of the next note currently in the arrangement data is set as the current position. After step S7, the process returns to step S4. The processing relating to the sounding timings A1 and A2 in FIG. 4C is performed by a route that proceeds to step S7 via NO in step S4, NO in step S5, and NO in step S6, and returns to step S4.

例えば、前記図4(c)における発音タイミングA3のように、処理の現在位置がアクセント位置である場合、ステップS4でYESと判定され、ステップS8に進む。ステップS8では、現在位置に発音タイミングを持つ音符(音符群)をアレンジ用記憶領域内の現在アレンジデータから抽出する。前記図4(c)における発音タイミングA3においては、Cメジャー和音を構成する音符群が抽出される。次のステップS9では、該抽出した音符群の長さを当該アクセント位置における原演奏情報の音符長に変更する。前記図4(c)における発音タイミングA3の例では、付点4分音符長に変更される。こうして、アレンジ用記憶領域内の現在アレンジデータにおけるアクセント位置に対応する音符の長さが、原演奏情報のリズム的アクセントに調和するように調整される。 For example, when the current position of the process is the accent position as in the sounding timing A3 in FIG. 4C, YES is determined in step S4, and the process proceeds to step S8. In step S8, a note (note group) having a sounding timing at the current position is extracted from the current arrangement data in the arrangement storage area. At the sounding timing A3 in FIG. 4C, a group of notes constituting the C major chord is extracted. In the next step S9, the length of the extracted note group is changed to the note length of the original performance information at the accent position. In the example of the sounding timing A3 in FIG. 4C, the length is changed to a dotted quarter note length. In this way, the length of the note corresponding to the accent position in the current arrangement data in the arrangement storage area is adjusted so as to match the rhythmic accent of the original performance information.

次に、ステップS10では、上記のように変更された音符長が所定期間よりも長ければ、該変更された音符長に重複する発音タイミングを持つ他の音符(音符群)を現在アレンジデータから検出し、検出した音符(音符群)を現在アレンジデータから削除する。例えば、この所定期間は、8分音符長、4分音符長など、ユーザによって適宜に設定可能である。該所定期間を長く設定するほど、長いデュレーションを持つ原演奏のアクセント感がアレンジした伴奏データに対してより強く反映されることとなり、他方、該所定期間を短く設定するほど、現在アレンジデータから音符を削除する確率が減るため、伴奏パターンデータの持つビート感が維持され易くなる。例えば、この所定期間が4分音符長に設定されているとすると、前記図4(b)の第1小節の3拍目の音符群が前記図4(c)における発音タイミングA3に示すように付点4分音符長に変更されたとき、ステップS10の処理により、該所定期間よりも長い音符長に変更されたと判定され、該変更された音符長に重複する発音タイミングを持つ音符として前記図4(b)の第1小節の4拍目の音符群が検出され、これらの音符群が現在アレンジデータから削除される。 Next, in step S10, if the note length changed as described above is longer than the predetermined period, another note (note group) having a pronunciation timing overlapping with the changed note length is detected from the current arrangement data. Then, the detected note (note group) is deleted from the current arrangement data. For example, this predetermined period can be appropriately set by the user, such as an eighth note length and a quarter note length. The longer the predetermined period is set, the stronger the accent feeling of the original performance with a long duration is reflected in the arranged accompaniment data. On the other hand, the shorter the predetermined period is set, the notes from the current arrangement data. Since the probability of deleting is reduced, the beat feeling of the accompaniment pattern data can be easily maintained. For example, assuming that this predetermined period is set to the quarter note length, the note group of the third beat of the first bar of FIG. 4 (b) is shown in the sounding timing A3 of FIG. 4 (c). When the note length is changed to the dotted quarter note length, it is determined by the process of step S10 that the note length has been changed to be longer than the predetermined period, and the note has a sounding timing overlapping with the changed note length. The note group of the 4th beat of the 1st bar of 4 (b) is detected, and these note groups are currently deleted from the arrangement data.

次に、ステップS11では、上記のように音符長を変更した音符(音符群)の途中で和音変更がなされるかを判定する。前記図4(c)の発音タイミングA3において付点4分音符長に変更された音符群については、その途中で和音変更がなされていないので、ステップS11ではNOと判定され、前記ステップS6にジャンプし、前記ステップ7を経てステップS4に戻る。このとき、前記図4(b)の第1小節の4拍目の音符群は既に消去されたため、現在アレンジデータ中の次の発音タイミングは、前記図4(b)の第2小節の1拍目である。従って、ステップS4では、現在位置(第2小節の1拍目)がアクセント位置に該当していないと判定する。 Next, in step S11, it is determined whether the chord is changed in the middle of the note (note group) whose note length is changed as described above. Regarding the note group changed to the dotted quarter note length in the sounding timing A3 of FIG. 4 (c), since the chord is not changed in the middle, it is determined as NO in step S11 and jumps to the step S6. Then, the process returns to step S4 through the step 7. At this time, since the note group of the 4th beat of the 1st bar of FIG. 4B has already been deleted, the next sounding timing in the current arrangement data is the 1st beat of the 2nd bar of FIG. 4B. It's an eye. Therefore, in step S4, it is determined that the current position (the first beat of the second bar) does not correspond to the accent position.

ステップS4のNOからステップS5に進み、上記現在位置から所定範囲(例えば4分音符長未満)内にアクセント位置があるかを判定する。前記図4(b)の第2小節の1拍目が現在位置である場合、そこから8分音符長だけ前の位置がアクセント位置として抽出されている(前記図3参照)ので、ステップS5ではYESと判定し、ステップS12に進む。ステップS12では、該当するアクセント位置が現在位置よりも時間的に先行している場合、現在アレンジデータ内において該当アクセント位置において発音状態となる音符イベントが存在していないかどうかを判定する。前記図4(b)の第2小節の1拍目が現在位置である場合、現在アレンジデータ中には、その8分音符長だけ前のアクセント位置には、音符イベントが存在していないので、ステップS12はYESと判定され、ステップS13に進む。 From NO in step S4, the process proceeds to step S5, and it is determined whether or not the accent position is within a predetermined range (for example, less than a quarter note length) from the current position. When the first beat of the second bar of FIG. 4B is the current position, the position before the eighth note length is extracted as the accent position (see FIG. 3). Therefore, in step S5, A determination of YES is made, and the process proceeds to step S12. In step S12, when the corresponding accent position is ahead of the current position in time, it is determined whether or not there is a note event that is in the sounding state at the corresponding accent position in the current arrangement data. When the first beat of the second bar of FIG. 4B is the current position, there is no note event at the accent position corresponding to the eighth note length in the current arrangement data. Step S12 is determined to be YES, and the process proceeds to step S13.

ステップS13では、現在位置に発音タイミングを持つ音符(音符群)を現在アレンジデータから抽出する。上記例の場合、前記図4(b)の第2小節の1拍目のFメジャー和音の構成音が抽出される。次に、ステップS14では、前ステップで抽出した音符(音符群)の発音タイミングを該当アクセント位置に変更する。次に、ステップS15では、前ステップで該当アクセント位置に変更した音符(音符群)の長さを拡張又は調整する。一例として、前ステップで抽出した音符(音符群)の発音タイミングを時間的に先行するアクセント位置まで移動したことに伴い、その分だけ音符長を拡張する。例えば、図4(c)の発音タイミングA4に示すように、第1小節の4拍目の裏拍(8分音符長)から第2小節の1拍目まで続く「8分音符+4分音符」長のシンコペーションとなるように拡張する。 In step S13, a note (note group) having a sounding timing at the current position is extracted from the current arrangement data. In the case of the above example, the constituent tones of the F major chord of the first beat of the second measure of FIG. 4B are extracted. Next, in step S14, the pronunciation timing of the notes (note group) extracted in the previous step is changed to the corresponding accent position. Next, in step S15, the length of the note (note group) changed to the corresponding accent position in the previous step is expanded or adjusted. As an example, as the sounding timing of the notes (note group) extracted in the previous step is moved to the accent position that precedes in time, the note length is expanded by that amount. For example, as shown in the sounding timing A4 of FIG. 4C, "eighth note + quarter note" that continues from the back beat (eighth note length) of the fourth beat of the first bar to the first beat of the second bar. Extend to a long syncopation.

ステップS15の後、前記ステップS10及びS11に進む。なお、上記のように音符長を変更した音符(音符群)の途中で和音変更がなされる場合は、ステップS11のYESからステップS16に進む。ステップS16では、長さを変更した音符(音符群)の音高を変更後の和音に応じてシフトする。 After step S15, the process proceeds to steps S10 and S11. If the chord is changed in the middle of the note (note group) whose note length is changed as described above, the process proceeds from YES in step S11 to step S16. In step S16, the pitch of the note (note group) whose length has been changed is shifted according to the chord after the change.

以上のように、上記第1実施例によれば、原演奏情報が持つアクセント位置(及びリズム的アクセント)を考慮した伴奏データを自動的に生成することができ、従って、品質のよい自動アレンジを行なうことができる。 As described above, according to the first embodiment, it is possible to automatically generate accompaniment data in consideration of the accent position (and rhythmic accent) of the original performance information, and therefore, a high-quality automatic arrangement can be performed. Can be done.

<第2実施例>
次に、前記ブロック26における伴奏データ生成処理の別の具体例を、第2実施例として説明する。この第2実施例においては、原則として、前記抽出したアクセント位置に該当しない伴奏音は、アレンジした伴奏データの中に含めないようにしている。加えて、前記伴奏パターンデータ中の伴奏音が所定の音符分解能より細かい時間位置に位置する場合、前記抽出したアクセント位置に該当しない限り、アレンジした伴奏データの中に含めないようにしている。すなわち、第2実施例においては、該所定の音符分解能に関連して、前記ブロック26における伴奏データ生成処理が、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、該所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ようにしている。前記所定の音符分解能は、4分音符分解能あるいは8分音符分解能等、ユーザによって任意に設定可能である。
<Second Example>
Next, another specific example of the accompaniment data generation processing in the block 26 will be described as a second embodiment. In this second embodiment, as a general rule, accompaniment sounds that do not correspond to the extracted accent positions are not included in the arranged accompaniment data. In addition, when the accompaniment sound in the accompaniment pattern data is located at a time position finer than the predetermined note resolution, it is not included in the arranged accompaniment data unless it corresponds to the extracted accent position. That is, in the second embodiment, in relation to the predetermined note resolution, the accompaniment data generation process in the block 26 1) among one or more accompaniment sounds generated based on the acquired accompaniment pattern data. When one accompaniment sound located at a time position finer than the predetermined note resolution matches one of the extracted accent positions, the accompaniment data in which one accompaniment sound located at the fine time position is arranged. 2) Of the one or more accompaniment sounds generated based on the acquired accompaniment pattern data, the accompaniment sound located at a time position finer than the predetermined note resolution does not match the extracted accent position. In this case, the accompaniment sound located at the fine time position is not included in the arranged accompaniment data. The predetermined note resolution can be arbitrarily set by the user, such as a quarter note resolution or an eighth note resolution.

第2実施例に従う前記ブロック24〜27における処理の具体例について図6及び図7を参照して説明する。図6は、前記図3と同様に、或る原演奏情報の第1及び第2小節に関して前記ブロック24で行なったアクセント位置抽出結果の一例を示す図であって、(a)は該原演奏情報の第1及び第2小節のリズムイメージの一例を示す図、(b)は(a)のリズムイメージを持つ原演奏情報から抽出したアクセント位置抽出結果を示す表である。表の見方は、前記図3と同様である。ただし、図6に関する原演奏情報は、前記図3に関する原演奏情報とは異なるものであるため、両者のアクセント位置抽出結果は異なっている。 Specific examples of the processing in the blocks 24 to 27 according to the second embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram showing an example of the accent position extraction result performed in the block 24 with respect to the first and second measures of a certain original performance information, as in the case of FIG. 3, and FIG. 6A is a diagram showing the original performance. A figure showing an example of the rhythm image of the first and second measures of the information, (b) is a table showing the accent position extraction result extracted from the original performance information having the rhythm image of (a). The way of reading the table is the same as that in FIG. However, since the original performance information with respect to FIG. 6 is different from the original performance information with respect to FIG. 3, the accent position extraction results of the two are different.

図7(a)は、第2実施例において、前記ブロック25で取得した伴奏パターンデータ(テンプレート)の一例を示す楽譜である。Cメジャー和音を4分音符長で規則的に刻んだ和音バッキングパターンとベースパターンの組み合わせからなっている。図7(b)は、第2実施例において、前記ブロック21で取得した和音情報の一例、及び前記ブロック27の処理によって、該取得した和音情報に応じて図7(a)の伴奏パターンデータに基づき生成される伴奏音(和音及びベース音)の音高をシフトした一例を示す楽譜である。この例では、原演奏情報の第1小節がCメジャー和音、第2小節がGメジャー和音である。従って、図7(b)においては、原演奏情報の和音を反映して、第2小節の和音の音高がGメジャー和音にシフトされ、ベース音も同様に音高シフトされる。 FIG. 7A is a musical score showing an example of the accompaniment pattern data (template) acquired in the block 25 in the second embodiment. It consists of a combination of a chord backing pattern and a bass pattern in which C major chords are regularly carved with a quarter note length. FIG. 7B shows an example of the chord information acquired in the block 21 in the second embodiment, and the accompaniment pattern data of FIG. 7A according to the acquired chord information by the processing of the block 27. It is a musical score showing an example of shifting the pitch of accompaniment sounds (chords and bass sounds) generated based on the basis. In this example, the first bar of the original performance information is a C major chord, and the second bar is a G major chord. Therefore, in FIG. 7B, the pitch of the chord in the second bar is shifted to the G major chord, and the pitch of the bass note is also shifted in the same manner, reflecting the chord of the original performance information.

図7(c)は、第2実施例に従って、前記ブロック26で行なわれた伴奏データ生成処理結果を示す楽譜であり、前記図6に示すアクセント位置抽出結果に応じて、図7(b)に示す伴奏音のアクセント位置を調整した例を示す。なお、一例として、前記所定の音符分解能は、8分音符分解能に設定されているものとしている。図7(a)に示す伴奏パターンデータ(テンプレート)においては、元々8分音符分解能よりも細かい分解能の音が存在していないので、上記1)及び2)のように所定音符分解能よりも細かい時間位置に位置する伴奏音がアクセント位置に合っている場合は前記アレンジした伴奏データの中に含めるが、アクセント位置に合っていない前記アレンジした伴奏データの中に含めない、という処理は図示例には現れていない。一方、図6に示すように、原演奏情報における第1小節の1拍目、3拍目、4拍目と第2小節の1拍目、3拍目、4拍目の音数が「4」又は「3」であるので、閾値「3」を考慮して、これらがアクセント位置として抽出される。これに対して、第1小節の2拍目と第2小節の2拍目の音数は「2」であるので、これらはアクセント位置として抽出されない。従って、図7(c)に示すように、生成される伴奏データにおいては、元の伴奏パターンデータにおける第1小節の2拍目と第2小節の2拍目の和音が消去されている(発音タイミングA12及びA16)。 FIG. 7 (c) is a musical score showing the result of the accompaniment data generation processing performed in the block 26 according to the second embodiment, and is shown in FIG. 7 (b) according to the result of the accent position extraction shown in FIG. An example of adjusting the accent position of the accompaniment sound shown is shown. As an example, it is assumed that the predetermined note resolution is set to the eighth note resolution. In the accompaniment pattern data (template) shown in FIG. 7 (a), since there is originally no sound with a resolution finer than the eighth note resolution, the time finer than the predetermined note resolution as shown in 1) and 2) above. When the accompaniment sound located at the position matches the accent position, it is included in the arranged accompaniment data, but the process of not including it in the arranged accompaniment data that does not match the accent position is shown in the illustrated example. It has not appeared. On the other hand, as shown in FIG. 6, the numbers of the first beat, the third beat, the fourth beat of the first bar and the first beat, the third beat, and the fourth beat of the second bar in the original performance information are "4". , Or “3”, so these are extracted as accent positions in consideration of the threshold value “3”. On the other hand, since the number of notes in the second beat of the first bar and the second beat of the second bar is "2", these are not extracted as accent positions. Therefore, as shown in FIG. 7 (c), in the generated accompaniment data, the chords of the second beat of the first bar and the second beat of the second bar in the original accompaniment pattern data are deleted (pronunciation). Timing A12 and A16).

次に、第2実施例に従って、前記ブロック26において実行される伴奏データ生成処理(アレンジ処理)の具体的手順の一例について、図8を参照して説明する。図8において、ステップS0では、ユーザの選択に従って、アレンジ処理のための音符分解能を設定する。例えば8分音符長の分解能に設定されと仮定する。ステップS1及びS2は、図5における同一符号の処理と同様の処理を行なう。例えば、図7(a)に示すような伴奏パターンデータを使用する区間の長さ分だけ繰り返したものが、アレンジ用記憶領域内に現在アレンジデータとして格納され、この現在アレンジデータは和音情報に応じて図7(b)に示すような音高にシフトされる。次のステップS20では、アレンジ処理のための現在位置を、アレンジ用記憶領域内の現在アレンジデータの第1小節の1拍目に設定する。 Next, an example of a specific procedure of the accompaniment data generation process (arrangement process) executed in the block 26 according to the second embodiment will be described with reference to FIG. In FIG. 8, in step S0, the note resolution for the arrangement process is set according to the user's selection. For example, it is assumed that the resolution is set to an eighth note length. Steps S1 and S2 perform the same processing as the processing of the same reference numerals in FIG. For example, the accompaniment pattern data as shown in FIG. 7A, which is repeated for the length of the section in which the accompaniment pattern data is used, is stored as the current arrangement data in the arrangement storage area, and the current arrangement data corresponds to the chord information. The pitch is shifted as shown in FIG. 7 (b). In the next step S20, the current position for the arrangement process is set to the first beat of the first measure of the current arrangement data in the arrangement storage area.

ステップS21では、現在アレンジデータの現在位置に音符イベントがあるかどうかを判定する。図7(b)の例では、現在位置が第1小節の1拍目の場合、音符イベントがあるので、YESと判定され、ステップS22に進む。ステップS22では、現在位置がアクセント位置であるどうか判定する。図6の例では、第1小節の1拍目はアクセント位置であるので、YESと判定され、ステップS23に進む。 In step S21, it is determined whether or not there is a musical note event at the current position of the current arrangement data. In the example of FIG. 7B, when the current position is the first beat of the first bar, there is a musical note event, so it is determined as YES, and the process proceeds to step S22. In step S22, it is determined whether or not the current position is the accent position. In the example of FIG. 6, since the first beat of the first bar is the accent position, it is determined as YES, and the process proceeds to step S23.

ステップS23では、現在位置より後の、前記設定された分解能に相当する音符長(例えば8分音符長)未満の範囲内において、原演奏情報においてアクセント位置があるかを判定する。例えば、現在位置より16分音符長だけ後の位置にアクセント位置があれば、YESと判定され、ステップS24に進む。ステップS24では、現在アレンジデータにおいてこのアクセント位置に音符イベントがあるかを判定する。もし音符イベントがあれば、ステップS25に進み、該当アクセント位置の音符を除き、現在位置より後の分解能に相当する音符長未満の範囲内にある音符を、現在アレンジデータから削除する。 In step S23, it is determined whether or not there is an accent position in the original performance information within the range after the current position and less than the note length (for example, eighth note length) corresponding to the set resolution. For example, if there is an accent position at a position 16th note length after the current position, YES is determined and the process proceeds to step S24. In step S24, it is determined whether or not there is a musical note event at this accent position in the current arrangement data. If there is a note event, the process proceeds to step S25, excluding the note at the corresponding accent position, and deleting the note within the range of the note length corresponding to the resolution after the current position from the current arrangement data.

現在位置より後の、前記設定された分解能に相当する音符長(例えば8分音符長)未満の範囲内において、原演奏情報においてアクセント位置が存在せず、又は存在していても当該アクセント位置において現在アレンジデータ内に音符イベントが存在していない場合、ステップS26に進む。ステップS26では、現在位置より後の分解能に相当する音符長未満の範囲内にある音符を、現在アレンジデータからすべて削除する。 Within the range after the current position and less than the note length (for example, eighth note length) corresponding to the set resolution, the accent position does not exist in the original performance information, or even if it exists, at the accent position. If no note event currently exists in the arrangement data, the process proceeds to step S26. In step S26, all notes within the range of less than the note length corresponding to the resolution after the current position are deleted from the current arrangement data.

こうして、ステップS23〜S26により、1)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、2)前記取得した伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ようにする処理がなされる。 In this way, in steps S23 to S26, 1) of the one or more accompaniment sounds generated based on the acquired accompaniment pattern data, one accompaniment sound located at a time position finer than a predetermined note resolution is the extracted accent. If it matches one of the positions, one accompaniment sound located at the fine time position is included in the arranged accompaniment data, and 2) one or more accompaniment sounds generated based on the acquired accompaniment pattern data. Of these, if the accompaniment sound located at a time position finer than the predetermined note resolution does not match the extracted accent position, the accompaniment sound located at the fine time position is not included in the arranged accompaniment data. , Is done.

ステップS26の後、ステップS6に進み、アレンジ用記憶領域内の現在アレンジデータの末尾まで処理したか否かを判定する。末尾まで処理していなければ、ステップS27に進み、現在位置を、前記設定された音符分解能に相当する音符長(例えば8分音符)だけ後の拍位置(例えば1拍目の裏拍)に設定する。ステップS27の後、ステップS21に戻る。 After step S26, the process proceeds to step S6 to determine whether or not processing has been performed up to the end of the current arrangement data in the arrangement storage area. If the process has not been performed to the end, the process proceeds to step S27, and the current position is set to the beat position (for example, the back beat of the first beat) after the note length (for example, an eighth note) corresponding to the set note resolution. To do. After step S27, the process returns to step S21.

前記図6及び図7(b)の例では、現在位置が第1小節の1拍目の場合、音符イベントがあり、かつアクセント位置に該当しているので、ステップS22のYES、ステップS23のNO、ステップS26、ステップS6のNOを経て、ステップS27に至る。従って、現在アレンジデータの第1小節の1拍目の音符(音符群)が削除されることなく残され、図7(c)の発音タイミングA11に示すように、これらの第1小節の1拍目の音符(音符群)がアレンジ済伴奏データに含まれる。 In the examples of FIGS. 6 and 7 (b), when the current position is the first beat of the first bar, there is a musical note event and it corresponds to the accent position, so YES in step S22 and NO in step S23. , Step S26, step S6, and step S27. Therefore, the notes (note group) of the first beat of the first bar of the arrangement data are left without being deleted, and as shown in the sounding timing A11 of FIG. 7 (c), one beat of these first bars is left. The eye notes (note groups) are included in the arranged accompaniment data.

次に、前記図6及び図7(b)の例では、現在位置が第1小節の1拍目の裏拍の場合、音符イベントがないので、ステップS21のNO、ステップS23のNO、ステップS26、ステップS6のNOを経て、ステップS27に至る。この場合、ステップS27では、現在位置を、第1小節の2拍目(表拍)に設定する。 Next, in the examples of FIGS. 6 and 7 (b), when the current position is the back beat of the first beat of the first bar, there is no note event, so NO in step S21, NO in step S23, and step S26. , NO in step S6 to step S27. In this case, in step S27, the current position is set to the second beat (front beat) of the first bar.

前記図6及び図7(b)の例では、現在位置が第1小節の2拍目(表拍)の場合、音符イベントがあるが、アクセント位置に該当していないので、ステップS22ではNOと判定され、ステップS28に進む。ステップS28では、現在位置に発音タイミングを持つ音符を現在アレンジデータから削除する。これにより、現在アレンジデータの第1小節の2拍目(表拍)の音符(音符群)が削除され、図7(c)の発音タイミングA12に示すように、第1小節の2拍目の音符がアレンジ済伴奏データに含まれないものとなる。 In the examples of FIGS. 6 and 7 (b), when the current position is the second beat (front beat) of the first bar, there is a musical note event, but since it does not correspond to the accent position, NO is displayed in step S22. The determination is made, and the process proceeds to step S28. In step S28, the note having the pronunciation timing at the current position is deleted from the current arrangement data. As a result, the notes (note group) of the second beat (front beat) of the first bar of the current arrangement data are deleted, and as shown in the sounding timing A12 of FIG. 7C, the second beat of the first bar is deleted. The notes will not be included in the arranged accompaniment data.

ステップS28の後、前記ステップS23に進み、前述と同様の処理を繰り返す、その後の処理においては、前記図6及び図7(b)の例では、第1小節の3拍目及び4拍目、第2小節の1拍目、3拍目及び4拍目において、音伴奏パターンデータに音符イベントがあり、かつ、原演奏情報のアクセント位置に該当するため、それらの伴奏音データが現在アレンジデータ内に残され、図7(c)の発音タイミングA13,A14,A15,A17,A18に示すように、それらの音符(音符群)がアレンジ済伴奏データに含まれることになる。一方、第2小節の2拍目の場合、音符イベントがあるがアクセント位置に該当していないので、それらの伴奏音データが現在アレンジデータから削除され、図7(c)の発音タイミングA16に示すように、それらの音符(音符群)がアレンジ済伴奏データに含まれないものとなる。 After step S28, the process proceeds to step S23, and the same processing as described above is repeated. In the subsequent processing, in the examples of FIGS. 6 and 7B, the third and fourth beats of the first bar, Since there are note events in the sound accompaniment pattern data at the 1st, 3rd, and 4th beats of the 2nd bar and they correspond to the accent positions of the original performance information, those accompaniment sound data are currently in the arrangement data. As shown in the sounding timings A13, A14, A15, A17, and A18 of FIG. 7 (c), those notes (note groups) are included in the arranged accompaniment data. On the other hand, in the case of the second beat of the second measure, since there is a note event but it does not correspond to the accent position, those accompaniment sound data are currently deleted from the arrangement data and are shown in the sounding timing A16 of FIG. 7 (c). As described above, those notes (note group) are not included in the arranged accompaniment data.

以上のように、上記第2実施例によれば、第1実施例と同様に、原演奏情報が持つアクセント位置(及びリズム的アクセント)を考慮した伴奏データを自動的に生成することができ、従って、品質のよい自動アレンジを行なうことができる。また、所定の音符分解能よりも細かな分解能の伴奏音は、それがアクセント位置に該当していない限り、前記アレンジした伴奏データから省略されるので、初心者にも演奏し易いアレンジを提供することができる。 As described above, according to the second embodiment, the accompaniment data considering the accent position (and rhythmic accent) of the original performance information can be automatically generated as in the first embodiment. Therefore, high quality automatic arrangement can be performed. Further, since the accompaniment sound having a resolution finer than the predetermined note resolution is omitted from the arranged accompaniment data unless it corresponds to the accent position, it is possible to provide an arrangement that is easy for beginners to play. it can.

上記実施例では、原演奏情報によって表される曲中の強いアクセント位置を判定し、この強いアクセント位置に応じて伴奏音の時間位置を調整している。しかし、これに限らず、原演奏情報によって表される曲中の1以上の弱いアクセント位置を判定し、この弱いアクセント位置に応じて伴奏音の時間位置を調整するようにしてもよい。例えば、取得した原演奏情報に基づき、現時点が曲中の弱いアクセント位置に該当するか否かを判断し、現時点が弱いアクセント位置に該当すると判断されたとき、取得した伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するようにしてよい。これにより、原演奏情報によって表される曲中の1以上の弱いアクセント位置に同調して伴奏演奏も弱いアクセントを示すようにアレンジすることができる。 In the above embodiment, the strong accent position in the song represented by the original performance information is determined, and the time position of the accompaniment sound is adjusted according to the strong accent position. However, the present invention is not limited to this, and one or more weak accent positions in the song represented by the original performance information may be determined, and the time position of the accompaniment sound may be adjusted according to the weak accent positions. For example, based on the acquired original performance information, it is determined whether or not the current time corresponds to a weak accent position in the song, and when it is determined that the current time corresponds to a weak accent position, it is generated based on the acquired accompaniment pattern data. The arranged accompaniment data may be generated by adjusting the time position of one or more accompaniment sounds so as to match the extracted one or more accent positions. As a result, the accompaniment performance can be arranged so as to show a weak accent in synchronization with one or more weak accent positions in the song represented by the original performance information.

1 CPU(中央処理ユニット)
2 ROM(リードオンリメモリ)
3 RAM(ランダムアクセスメモリ)
4 入力装置
5 ディスプレイ
6 プリンタ
7 ハードディスク
8 可搬媒体
9 メモリインターフェイス
10 音源回路ボード
11 サウンドシステム
12 通信インターフェイス
1 CPU (Central Processing Unit)
2 ROM (read-only memory)
3 RAM (random access memory)
4 Input device 5 Display 6 Printer 7 Hard disk 8 Portable medium 9 Memory interface 10 Sound source circuit board 11 Sound system 12 Communication interface

Claims (9)

原演奏情報からメロディパートを含む少なくとも1つのパートの演奏情報を抽出するステップと、
前記原演奏情報から抽出した前記少なくとも1つのパートの演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出するステップと、
伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するステップ、
をプロセッサによって実行することからなる自動アレンジ方法。
The step of extracting the performance information of at least one part including the melody part from the original performance information,
Extracting said based on the extracted performance information of the at least one part from the original performance information, one or more accent position in a song represented by raw performance information,
A step of generating arranged accompaniment data by adjusting the time position of one or more accompaniment sounds generated based on the accompaniment pattern data so as to match the extracted one or more accent positions.
An automatic arrangement method consisting of executing by a processor.
前記原演奏情報から特定のパートの演奏情報を分離して抽出するステップと、
前記抽出した特定のパートの演奏情報を前記生成されたアレンジした伴奏データと合成するステップ、
を前記プロセッサによって更に実行することからなる、請求項に記載の自動アレンジ方法。
A step of separating and extracting the performance information of a specific part from the original performance information, and
A step of synthesizing the performance information of the extracted specific part with the generated accompaniment data arranged.
The automatic arrangement method according to claim 1 , wherein the above-mentioned processor further executes the above.
原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出するステップと、
伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成するステップと、
前記原演奏情報から特定のパートの演奏情報を分離して抽出するステップと、
前記抽出した特定のパートの演奏情報を前記生成されたアレンジした伴奏データと合成するステップ、
プロセッサによって実行することからなる自動アレンジ方法。
Based on the original performance information, a step of extracting one or more accent positions in the song represented by the original performance information, and
A step of generating arranged accompaniment data by adjusting the time position of one or more accompaniment sounds generated based on the accompaniment pattern data so as to match the extracted one or more accent positions.
A step of separating and extracting the performance information of a specific part from the original performance information, and
A step of synthesizing the performance information of the extracted specific part with the generated accompaniment data arranged.
An automatic arrangement method consisting of executing by a processor .
前記伴奏データを生成するステップは、(1)前記伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在する場合、該1つのアクセント位置に合う時間位置に存在する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記伴奏パターンデータに基づき生成される1以上の伴奏音において、前記抽出したアクセント位置の1つに合う時間位置に伴奏音が存在しない場合、該1つのアクセント位置に近い時間位置に存在する伴奏音を該アクセント位置に合う時間位置にずらして、前記アレンジした伴奏データの中に含めることからなる、請求項1乃至3のいずれかに記載の自動アレンジ方法。 The steps for generating the accompaniment data are as follows: (1) In one or more accompaniment sounds generated based on the accompaniment pattern data, if the accompaniment sound is present at a time position corresponding to one of the extracted accent positions, the 1 One accompaniment sound existing at a time position corresponding to one accompaniment position is included in the arranged accompaniment data, and (2) in one or more accompaniment sounds generated based on the accompaniment pattern data, the extracted accent position If there is no accompaniment sound at the time position that matches one, the accompaniment sound that exists at the time position close to the one accent position is shifted to the time position that matches the accent position and included in the arranged accompaniment data. The automatic arranging method according to any one of claims 1 to 3, comprising. 前記伴奏データを生成するステップは、前記伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記抽出した1以上のアクセント位置から離れた時間位置に存在する1以上の伴奏音については、前記アレンジした伴奏データの中に含めることからなる、請求項1乃至4のいずれかに記載の自動アレンジ方法。 In the step of generating the accompaniment data, among the one or more accompaniment sounds generated based on the accompaniment pattern data, one or more accompaniment sounds existing at a time position away from the extracted one or more accent positions are referred to. The automatic arrangement method according to any one of claims 1 to 4, wherein the accompaniment data is included in the arranged accompaniment data. 前記伴奏データを生成するステップは、(1)前記伴奏パターンデータに基づき生成される1以上の伴奏音のうち、所定の音符分解能より細かい時間位置に位置する1つの伴奏音が、前記抽出したアクセント位置の1つに合っている場合、該細かい時間位置に位置する1つの伴奏音を前記アレンジした伴奏データの中に含め、(2)前記伴奏パターンデータに基づき生成される1以上の伴奏音のうち、前記所定の音符分解能より細かい時間位置に位置する伴奏音が、前記抽出したアクセント位置に合っていない場合、該細かい時間位置に位置する伴奏音を前記アレンジした伴奏データの中に含めない、ように構成されている、請求項1乃至3のいずれかに記載の自動アレンジ方法。 The steps for generating the accompaniment data are as follows: (1) Of the one or more accompaniment sounds generated based on the accompaniment pattern data, one accompaniment sound located at a time position finer than a predetermined note resolution is the accent extracted. If it matches one of the positions, one accompaniment sound located at the fine time position is included in the arranged accompaniment data, and (2) one or more accompaniment sounds generated based on the accompaniment pattern data. Of these, if the accompaniment sound located at a time position finer than the predetermined note resolution does not match the extracted accent position, the accompaniment sound located at the fine time position is not included in the arranged accompaniment data. The automatic arrangement method according to any one of claims 1 to 3, which is configured as described above. 原演奏情報からメロディパートを含む少なくとも1つのパートの演奏情報を抽出する手段と、A means for extracting the performance information of at least one part including the melody part from the original performance information,
前記原演奏情報から抽出した前記少なくとも1つのパートの演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段と、A means for extracting one or more accent positions in a song represented by the original performance information based on the performance information of at least one part extracted from the original performance information.
伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段、A means for generating arranged accompaniment data by adjusting the time position of one or more accompaniment sounds generated based on the accompaniment pattern data so as to match the extracted one or more accent positions.
を備える自動アレンジ装置。An automatic arranging device equipped with.
前記原演奏情報から特定のパートの演奏情報を分離して抽出する手段と、A means for separating and extracting the performance information of a specific part from the original performance information,
前記抽出した特定のパートの演奏情報を前記生成されたアレンジした伴奏データと合成する手段、A means for synthesizing the performance information of the extracted specific part with the generated accompaniment data arranged.
を更に備える請求項7に記載の自動アレンジ装置。7. The automatic arranging device according to claim 7.
原演奏情報に基づき、該原演奏情報によって表される曲中の1以上のアクセント位置を抽出する手段と、A means for extracting one or more accent positions in a song represented by the original performance information based on the original performance information, and
伴奏パターンデータに基づき生成される1以上の伴奏音の時間位置を、前記抽出した1以上のアクセント位置に合うように、調整することにより、アレンジした伴奏データを生成する手段と、A means for generating arranged accompaniment data by adjusting the time position of one or more accompaniment sounds generated based on the accompaniment pattern data so as to match the extracted one or more accent positions.
前記原演奏情報から特定のパートの演奏情報を分離して抽出する手段と、A means for separating and extracting the performance information of a specific part from the original performance information,
前記抽出した特定のパートの演奏情報を前記生成されたアレンジした伴奏データと合成する手段、A means for synthesizing the performance information of the extracted specific part with the generated accompaniment data arranged.
を備える自動アレンジ装置。An automatic arranging device equipped with.
JP2019137836A 2019-07-26 2019-07-26 Automatic arrangement method Active JP6760450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019137836A JP6760450B2 (en) 2019-07-26 2019-07-26 Automatic arrangement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019137836A JP6760450B2 (en) 2019-07-26 2019-07-26 Automatic arrangement method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015185299A Division JP6565528B2 (en) 2015-09-18 2015-09-18 Automatic arrangement device and program

Publications (2)

Publication Number Publication Date
JP2019200427A JP2019200427A (en) 2019-11-21
JP6760450B2 true JP6760450B2 (en) 2020-09-23

Family

ID=68613174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019137836A Active JP6760450B2 (en) 2019-07-26 2019-07-26 Automatic arrangement method

Country Status (1)

Country Link
JP (1) JP6760450B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419830B2 (en) * 2020-01-17 2024-01-23 ヤマハ株式会社 Accompaniment sound generation device, electronic musical instrument, accompaniment sound generation method, and accompaniment sound generation program
JPWO2022249402A1 (en) * 2021-05-27 2022-12-01
CN114005424A (en) * 2021-09-16 2022-02-01 北京灵动音科技有限公司 Information processing method, information processing device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2019200427A (en) 2019-11-21

Similar Documents

Publication Publication Date Title
US9728173B2 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
CN112382257B (en) Audio processing method, device, equipment and medium
JP6760450B2 (en) Automatic arrangement method
WO2007073098A1 (en) Music generating device and operating method thereof
JP6705272B2 (en) Sound control device, sound control method, and program
JP5974436B2 (en) Music generator
JP6565528B2 (en) Automatic arrangement device and program
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
JP3637775B2 (en) Melody generator and recording medium
US11176917B2 (en) Automatic arrangement of music piece based on characteristic of accompaniment
JP6175812B2 (en) Musical sound information processing apparatus and program
JP2020144346A (en) Information processing apparatus, information processing method, performance data display system, and program
JP2000315081A (en) Device and method for automatically composing music and storage medium therefor
JP6693176B2 (en) Lyrics generation device and lyrics generation method
JP2011118218A (en) Automatic arrangement system and automatic arrangement method
JP6693596B2 (en) Automatic accompaniment data generation method and device
JP3664126B2 (en) Automatic composer
JP6496998B2 (en) Performance information editing apparatus and performance information editing program
JP2013210501A (en) Synthesis unit registration device, voice synthesis device, and program
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP6809608B2 (en) Singing sound generator and method, program
JP3531507B2 (en) Music generating apparatus and computer-readable recording medium storing music generating program
JP2007248880A (en) Musical performance controller and program
JP4175364B2 (en) Arpeggio sound generator and computer-readable medium having recorded program for controlling arpeggio sound
Subramanian Carnatic music-automatic computer synthesis of gamakams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R151 Written notification of patent or utility model registration

Ref document number: 6760450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151