JP2002229561A - Automatic arranging system and method - Google Patents

Automatic arranging system and method

Info

Publication number
JP2002229561A
JP2002229561A JP2001027521A JP2001027521A JP2002229561A JP 2002229561 A JP2002229561 A JP 2002229561A JP 2001027521 A JP2001027521 A JP 2001027521A JP 2001027521 A JP2001027521 A JP 2001027521A JP 2002229561 A JP2002229561 A JP 2002229561A
Authority
JP
Japan
Prior art keywords
performance data
music
accompaniment
arrangement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001027521A
Other languages
Japanese (ja)
Other versions
JP3698057B2 (en
Inventor
Tomoyuki Funaki
知之 船木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001027521A priority Critical patent/JP3698057B2/en
Publication of JP2002229561A publication Critical patent/JP2002229561A/en
Application granted granted Critical
Publication of JP3698057B2 publication Critical patent/JP3698057B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily form playing data of desired arrangement in accordance with existing playing data. SOLUTION: The playing data of original music consisting of the playing data of plural tracks is prepared. The playing data of the track corresponding to the melody part among pieces of the playing data of the original music is fetched and the playing data of the melody part of the arranged music is formed in accordance with the playing data of the fetched track. The playing data by each of respective partial sections is selectively fetched out of the playing data of the plural tracks exclusive of the track corresponding to the melody part among pieces of the playing data of the original music and the playing data of at least one part for accompaniment in the arranged music is formed in accordance with the combinations of the playing data by each of the respective fetched partial sections.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、アレンジの元と
なる曲(以下これをオリジナル曲という)の演奏データ
に基づきこれをアレンジした曲の演奏データを生成する
自動アレンジ装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic arranging apparatus and method for generating performance data of a tune arranged based on performance data of a tune (hereinafter referred to as "original tune") from which the arrangement is based.

【0002】[0002]

【従来の技術】MIDI規格に従う演奏データ(以下単
にMIDIデータという)に基づき楽音信号を発生する
ことのできる音源装置は、一般に「MIDI音源」と言
われる。MIDI音源は、電子楽器等の専用楽器の音源
としては勿論のこと、カラオケの伴奏音源や携帯電話の
「着信メロディ」の音源などその他の種々の用途の機器
における音源として現在では広く使用されている。これ
に伴い、音楽ソフトウェアとしてのMIDIデータも、
多くの楽曲について用意されており、流通販路を介して
一般ユーザが購入することも可能である。しかし、既存
楽曲のMIDIデータの多くは、元となった楽曲のオリ
ジナル演奏(当該曲のCD等に録音された演奏)を再現
できるように作成されているので、曲によってはオーケ
ストラ編成の複数楽器の演奏パートからなっていたり、
複雑な音楽編成からなっている場合が多い。そのため、
原曲がオーケストラ編成からなっているような場合、例
えば、ユーザがピアノソロのバージョンに編曲した演奏
データを希望する場合、曲演奏データの提供者は、その
ようなユーザの希望にたやすく応ずることは困難であっ
た。例えば、オーケストラ編成の原曲演奏データのう
ち、ピアノパートあるいはキーボードパートのみを取り
出したとしても、ピアノソロ用に編曲した演奏データと
はならず、原曲の雰囲気が損なわれてしまう。そのた
め、ピアノソロ用に初めから本格的に編曲し直さねばな
らない。従って、曲演奏データの提供者は、個別のユー
ザーの細々としたアレンジ希望にいちいち答えることが
できなかった。また、本格的な編曲には高度な音楽的知
識が要求されるので、多くの一般ユーザにとっては、自
分自身で望みの編曲を行なうことも困難である。ピアノ
ソロに限らず、ギターソロやその他の特定楽器のソロに
適したアレンジにあっても、同様の問題がある。
2. Description of the Related Art A tone generator capable of generating a tone signal based on performance data (hereinafter simply referred to as MIDI data) in accordance with the MIDI standard is generally called a "MIDI tone generator". The MIDI sound source is now widely used not only as a sound source for a dedicated musical instrument such as an electronic musical instrument, but also as a sound source for various other applications such as a karaoke accompaniment sound source and a "ringtone melody" sound source for a mobile phone. . Along with this, MIDI data as music software,
Many songs are prepared, and can be purchased by general users via a sales channel. However, most of the MIDI data of existing songs are created so that the original performance of the original song (the performance recorded on the CD or the like of the song) can be reproduced. Or the performance part of
Often composed of complex music. for that reason,
In the case where the original music is composed of an orchestra, for example, when the user desires performance data arranged in a piano solo version, the music performance data provider may not easily respond to such user's wishes. It was difficult. For example, even if only the piano part or the keyboard part is taken out of the orchestra-organized original music performance data, it will not be the performance data arranged for piano solo, and the atmosphere of the original music will be impaired. Therefore, it must be rearranged in earnest from the beginning for piano solo. Therefore, the provider of the music performance data has not been able to respond to the individual user's detailed arrangement requests. In addition, since high-level musical knowledge is required for full-scale arranging, it is difficult for many general users to perform the desired arranging themselves. A similar problem occurs in arrangements suitable not only for piano solos but also for guitar solos and other specific instrument solos.

【0003】[0003]

【発明が解決しようとする課題】この発明は上述の点に
鑑みてなされたもので、既存の演奏データに基づき容易
に所望のアレンジの演奏データを生成することができる
自動アレンジ装置及び方法を提供しようとするものであ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and provides an automatic arrangement apparatus and method which can easily generate performance data of a desired arrangement based on existing performance data. What you want to do.

【0004】[0004]

【課題を解決するための手段】この発明に係る自動アレ
ンジ装置は、複数トラックの演奏データからなるオリジ
ナル曲の演奏データを取得する手段と、前記オリジナル
曲の演奏データのうちメロディパートに該当するトラッ
クの演奏データを取り出し、取り出した該トラックの演
奏データを基にしてアレンジ曲のメロディパートの演奏
データを生成するアレンジメロディ生成手段と、前記オ
リジナル曲の演奏データのうち前記メロディパートに該
当するトラック以外の複数のトラックの演奏データから
各部分的区間毎の演奏データを選択的に取り出し、取り
出した各部分的区間毎の演奏データの組み合わせに基づ
きアレンジ曲における少なくとも1つの伴奏用パートの
演奏データを生成するアレンジ伴奏生成手段とを具え
る。
According to the present invention, there is provided an automatic arrangement device for acquiring performance data of an original music composed of performance data of a plurality of tracks, and a track corresponding to a melody part among the performance data of the original music. Arrangement melody generating means for generating performance data of a melody part of an arranged music piece based on the performance data of the retrieved music track; and Selectively retrieves performance data for each partial section from the performance data of the plurality of tracks, and generates performance data of at least one accompaniment part in the arranged music based on a combination of the retrieved performance data for each partial section. And an arrangement accompaniment generating means.

【0005】例えば、ピアノソロ形式のアレンジ曲を得
たい場合は、典型例として、メロディをリードする右手
演奏パート(メロディパート)と伴奏を奏でる左手演奏
パート(伴奏パート)のアレンジ曲構成とするとよい。
その場合、アレンジメロディ生成手段でアレンジ曲のメ
ロディパートの演奏データを生成し、アレンジ伴奏生成
手段でアレンジ曲における1つの伴奏用パートの演奏デ
ータを生成すればよい。伴奏用パートの演奏データは、
オリジナル曲の演奏データのうちメロディパート以外の
パートの演奏データから各部分的区間毎の演奏データを
選択的に取り出し、取り出した各部分的区間毎の演奏デ
ータの組み合わせに基づき生成されるので、オリジナル
曲における各部分的区間毎の伴奏の良い部分を取り出す
ことで、比較的簡単に、良い伴奏アレンジを作成でき
る。なお、各部分的区間とは、曲全体を時間軸に沿って
適宜に分割した区間であり、1小節あるいは2小節ある
いは4小節など、適宜の数の小節に対応する区間で区切
るようにしてよい。
[0005] For example, when it is desired to obtain an arrangement music in a piano solo format, as a typical example, an arrangement music composition of a right-hand performance part (melody part) leading a melody and a left-hand performance part (accompaniment part) playing accompaniment may be used.
In this case, the arrangement melody generating means may generate the performance data of the melody part of the arrangement music, and the arrangement accompaniment generation means may generate the performance data of one accompaniment part in the arrangement music. The performance data of the accompaniment part is
Since the performance data of each partial section is selectively extracted from the performance data of the parts other than the melody part among the performance data of the original music and generated based on a combination of the extracted performance data of each partial section, the original data is generated. By extracting a good accompaniment portion for each partial section of the music, a good accompaniment arrangement can be created relatively easily. Note that each partial section is a section obtained by appropriately dividing the entire music along the time axis, and may be divided into sections corresponding to an appropriate number of measures such as one measure, two measures, or four measures. .

【0006】また、例えば、ピアノ弾き語り形式のアレ
ンジ曲を得たい場合は、典型例として、メロディをリー
ドする「語り」(ボーカル又は歌)パート(つまりメロ
ディパート)と、伴奏の高音部を演奏する右手演奏パー
ト(伴奏パート1)と伴奏の低音部を演奏する左手演奏
パート(伴奏パート2)のアレンジ曲構成とするとよ
い。2つの伴奏パートのアレンジ演奏データを作成する
ためには、例えば、アレンジ伴奏生成手段で、前記取り
出した各部分的区間毎の演奏データの組み合わせに基づ
き1つの伴奏用パートの演奏データを1次的に生成し、
1次的に生成した1つの伴奏用パートの演奏データを音
域に応じて2つのパートに分けることにより2つの伴奏
用パートの演奏データを生成するとよい。
[0006] For example, when it is desired to obtain an arrangement tune in a piano playing narration format, as a typical example, a narration (vocal or song) part (ie, a melody part) leading a melody and a treble part of an accompaniment are played. It is preferable to arrange a right-handed performance part (accompaniment part 1) and a left-handed performance part (accompaniment part 2) that plays the bass part of the accompaniment. In order to create the arrangement performance data of two accompaniment parts, for example, the arrangement accompaniment generation means temporarily converts the performance data of one accompaniment part based on a combination of the extracted performance data for each partial section. And generate
The performance data of two accompaniment parts may be generated by dividing the performance data of one accompaniment part that is temporarily generated into two parts according to the range.

【0007】前記アレンジメロディ生成手段及びアレン
ジ伴奏生成手段では、単に、オリジナル曲の演奏データ
を取り出すだけでなく、これら演奏データに対して適宜
加工を加えることができるようにしてよい。この演奏デ
ータ加工は、自動的処理で行うようにしてもよいし、人
間によるマニュアル操作を適宜介在させて行うようにし
てもよい、また、部分的区間毎の演奏データの取り出し
操作も、ディスプレイにおけるオリジナル曲の各パート
表示と部分的区間の区分表示とを見ながら、人間による
マニュアル選択操作を適宜介在させて行うようにしてよ
い。
The arrangement melody generating means and the arrangement accompaniment generating means may not only take out the performance data of the original music but also make it possible to appropriately process the performance data. This performance data processing may be performed by automatic processing, or may be performed by manually intervening a manual operation by a human being. Also, the operation of extracting the performance data for each partial section may be performed on the display. A manual selection operation by a human may be appropriately performed while watching the display of each part of the original music and the divisional display of the partial sections.

【0008】例えば、前記アレンジメロディ生成手段
は、前記オリジナル曲の演奏データのうちメロディパー
トに該当する1トラックの演奏データを取り出すと共
に、前記オリジナル曲の演奏データのうち前記1トラッ
クの他のトラックの演奏データから一部の区間の演奏デ
ータを取り出し、取り出した前記1トラックの演奏デー
タに前記他のトラックの一部の区間の演奏データを追加
することに基づき前記アレンジ曲のメロディパートの演
奏データを生成するようにしてよい。これにより、オリ
ジナル曲におけるイントロや間奏あるいはエンディング
など主旋律以外の部分をアレンジ曲のメロディパートに
含めることができる。あるいはオリジナル曲でメロディ
演奏が複数のトラックで分担して行われている場合や、
本来のメロディトラックとは別のトラックで一時的にメ
ロディフレーズが演奏されている場合などに対応して、
アレンジ曲のメロディを的確に定めることができる。例
えば、オリジナル曲でメロディパートに該当するものと
して選定した1トラックの演奏データに、所定期間以上
の無音区間が存在しているような場合は、その区間で、
別のトラックでメロディ演奏を行っていたり、イントロ
や間奏などが行われていることがありうるので、そのよ
うな場合は、該無音区間に該別のトラックでのメロディ
演奏データあるいはイントロや間奏などの演奏データを
付加する(マージする)ことで、1トラック分のアレン
ジ曲のメロディパートの演奏データを生成し、アレンジ
曲のメロディを的確に定めることができる。また、アレ
ンジ曲に特有のメロディアレンジを容易に施すことも可
能となる。例えば、オリジナル曲のメロディパートのう
ち音符数が少ない区間について、他パートの演奏データ
を追加することで、アレンジ曲のメロディを豊かにする
ことができる。この場合、アレンジ曲のメロディパート
に追加したオリジナル曲の他トラック又は他パートの一
部区間の演奏データは、アレンジ曲の伴奏用パートの演
奏データとして使用しないようにするのがよい。これ
は、メロディと伴奏が同じ旋律になってしまうと単調に
なるから、これを防ぐためである。
[0008] For example, the arrangement melody generating means extracts the performance data of one track corresponding to the melody part from the performance data of the original music, and extracts the other track of the one track of the performance data of the original music. The performance data of the melody part of the arranged music is obtained based on the performance data of a part of the tune arranged on the basis of adding the performance data of a part of the other track to the performance data of the one track. It may be generated. Thereby, parts other than the main melody, such as the intro, interlude, and ending, in the original music can be included in the melody part of the arranged music. Or if the melody performance of the original song is shared among multiple tracks,
In case the melody phrase is temporarily played on a track different from the original melody track,
The melody of the arranged song can be accurately determined. For example, if there is a silent section for more than a predetermined period in the performance data of one track selected as a melody part in the original music, in that section,
It is possible that a melody performance is performed on another track, or an intro or an interlude is performed. In such a case, the melody performance data or intro or interlude on the other track is added to the silent section. By adding (merging) the performance data of the song, the performance data of the melody part of the arranged music for one track can be generated, and the melody of the arranged music can be accurately determined. Also, it is possible to easily apply a melody range peculiar to the arranged music. For example, in a melody part of an original tune, in a section having a small number of notes, performance data of another part is added, thereby enriching the melody of the arranged tune. In this case, it is preferable that the performance data of another track of the original music added to the melody part of the arranged music or a partial section of another part be not used as the performance data of the accompaniment part of the arranged music. This is to prevent the melody and accompaniment from becoming monotonous if they have the same melody.

【0009】また、この発明の別の観点に従う自動アレ
ンジ装置は、複数トラックの演奏データからなるオリジ
ナル曲の演奏データを取得する手段と、前記オリジナル
曲の複数のトラックの演奏データから各部分的区間毎の
演奏データを選択的に取り出し、取り出した各部分的区
間毎の演奏データの組み合わせに基づき1トラック分の
アレンジ曲演奏データを生成する1次的データ生成手段
と、前記生成した1トラック分のアレンジ曲演奏データ
を音域に応じて2つのパートに分けることにより2トラ
ックからなるアレンジ曲の演奏データを生成する2次的
データ生成手段とを具える。これは、上述の「弾き語
り」タイプのアレンジにおいて「語り」(ボーカル又は
歌)パート(つまりメロディパート)の演奏データの作
成を省略したものに対応している。これによっても、高
音部(右手演奏パート)と低音部(左手演奏パート)と
からなるピアノ用のアレンジを容易に作成できる。勿
論、ピアノに限らず、他の楽器用の簡易なアレンジにも
適用できる。
According to another aspect of the present invention, there is provided an automatic arrangement apparatus, comprising: means for acquiring performance data of an original music composed of performance data of a plurality of tracks; Primary data generating means for selectively extracting performance data for each track and generating arrangement music performance data for one track based on a combination of the performance data for each extracted partial section; Secondary data generating means for generating performance data of an arrangement music composed of two tracks by dividing the arrangement music performance data into two parts according to the range. This corresponds to the above-described arrangement of the "playing narration" type in which the performance data of the "narration" (vocal or song) part (that is, the melody part) is omitted. This also makes it possible to easily create an arrangement for a piano including a treble portion (right hand performance part) and a bass portion (left hand performance part). Of course, the present invention can be applied not only to the piano but also to a simple arrangement for other musical instruments.

【0010】なお、本発明において「オリジナル曲」と
は、アレンジの元となる曲を意味する広い用語であり、
或る楽曲の初版のもののみを指しているのではない。よ
って、アレンジの元となる曲でありさえすれば、どのよ
うな曲であってもよい。換言すれば、目的とする楽器演
奏形態のアレンジと相違するアレンジでデータが作成・
保存されている楽曲を、「オリジナル曲」という。たと
えば、或る楽曲の初版のレコードやCDに記録された演
奏に聴覚的に似せて、あるいは初版の楽譜を再現した複
数楽器のアレンジで作成・保存された楽曲は勿論「オリ
ジナル曲」となりうるし、初版のレコードやCDに記録
された演奏とは聴覚的に異なる複数楽器のアレンジで作
成・保存された楽曲も「オリジナル曲」となりうる。ま
た、複数楽器のアレンジに限らず、単一楽器のアレンジ
で作成・保存された楽曲も「オリジナル曲」となりう
る。例えば、ピアノ弾き語り用にアレンジされた「メロ
ディパート」と「鍵盤右手演奏パート」と「鍵盤左手演
奏パート」とからなる楽曲を、「鍵盤右手演奏パート」
と「鍵盤左手演奏パート」とからなるピアノソロ形式の
楽曲にアレンジしようとする場合は、その元となる「ピ
アノ弾き語り形式の楽曲」が「オリジナル曲」に該当す
る。また、本発明において「アレンジ曲」とは今回のア
レンジ処理の結果得られる曲のことを示す。よって、本
発明に従うアレンジ処理によって過去に得られた曲を元
にして、更に別の形態にアレンジしようする場合は、本
発明に従うアレンジ処理によって過去に得られた曲が、
本発明でいう「オリジナル曲」に該当することになる。
[0010] In the present invention, "original music" is a broad term meaning a music that is a source of arrangement.
It does not refer only to the first edition of a song. Therefore, any song may be used as long as the song is the source of the arrangement. In other words, data is created / arranged in a different arrangement
The stored songs are called "original songs". For example, a song created and stored in an arrangement of multiple instruments that audibly resembles the performance recorded on the record or CD of the first version of a certain song or that reproduces the score of the first version can of course be an "original song", Songs created and stored with arrangements of multiple instruments that are acoustically different from the performances recorded on the first edition records or CDs can also be "original songs". In addition, music created and stored in an arrangement of a single instrument, not limited to an arrangement of a plurality of instruments, can also be an “original song”. For example, a song composed of a "melody part", a "right-hand keyboard performance part", and a "left-hand keyboard performance part" arranged for piano playing is called a "right-hand keyboard performance part".
When an attempt is made to arrange a song in a piano solo format composed of a song and a left-hand performance part of a keyboard, the original song in a piano-speaking format corresponds to the “original song”. In the present invention, "arranged music" indicates a music obtained as a result of the current arrangement processing. Therefore, based on the music obtained in the past by the arrangement process according to the present invention, if the arrangement is to be arranged in yet another form, the music obtained in the past by the arrangement process according to the present invention,
This corresponds to the “original song” in the present invention.

【0011】本発明は、装置の発明として構成し、実施
することができるのみならず、方法の発明として構成
し、実施することができる。また、本発明は、コンピュ
ータまたはDSP等のプロセッサのプログラムの形態で
実施することができるし、そのようなプログラムを記憶
した記録媒体の形態で実施することもできる。また、プ
ロセッサとしては、任意のソフトウェアプログラムを実
行するコンピュータのような汎用プロセッサを使用でき
るのは勿論のこと、専用ロジックをハードウェアで組ん
だ専用プロセッサを用いてもよい。
The present invention can be constructed and implemented not only as an apparatus invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a recording medium storing such a program. As the processor, not only a general-purpose processor such as a computer that executes an arbitrary software program but also a dedicated processor in which dedicated logic is assembled by hardware may be used.

【0012】[0012]

【発明の実施の形態】以下、添付図面を参照してこの発
明の実施の形態について詳細に説明する。図1は、この
発明に係る自動アレンジ装置及び方法を実施するために
使用可能な電子楽器若しくはコンピュータのハード構成
例を示すブロック図である。図1において、電子楽器若
しくはコンピュータは、マイクロプロセッサユニット
(CPU)1、リードオンリメモリ(ROM)2、ラン
ダムアクセスメモリ(RAM)3からなるマイクロコン
ピュータによって制御される。この発明に係る自動アレ
ンジ方法をコンピュータに実行させるための制御プログ
ラムがROM2又はRAM3に格納されており、該制御
プログラムに従って自動アレンジ処理を実行することに
より、この発明に係る自動アレンジ方法の一実施例が実
施される。また、該制御プログラムを実行可能に搭載し
た該電子楽器若しくはコンピュータによってこの発明に
係る自動アレンジ装置の一実施例が構成される。勿論、
自動アレンジ処理のプログラムに限らず、自動演奏処理
や楽音波形生成処理などその他種々のアプリケーション
の制御プログラム及び各種データをメモリ(ROM2又
はRAM3又はHDDあるいはその他外部記憶媒体)に
記憶していて、それらのアプリケーションを実行可能で
ある。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing an example of a hardware configuration of an electronic musical instrument or a computer that can be used to implement an automatic arrangement device and method according to the present invention. In FIG. 1, an electronic musical instrument or a computer is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. A control program for causing a computer to execute the automatic arranging method according to the present invention is stored in the ROM 2 or the RAM 3, and an automatic arranging method according to the present invention is executed by executing an automatic arranging process according to the control program. Is performed. Further, an embodiment of the automatic arrangement apparatus according to the present invention is constituted by the electronic musical instrument or the computer on which the control program is executable. Of course,
Not only programs for automatic arrangement processing but also control programs and various data for various other applications such as automatic performance processing and musical sound waveform generation processing are stored in a memory (ROM 2 or RAM 3 or HDD or other external storage medium). The application can be executed.

【0013】CPU1に対して、データ及びアドレスバ
ス4を介してリードオンリメモリ(ROM)2、ランダ
ムアクセスメモリ(RAM)3、外部記憶装置ドライブ
6、MIDIインタフェース(I/F)7、通信インタ
フェース8、演奏操作子(鍵盤等)9、パネル操作子1
0、電子的ディスプレイ(CRTあるいは液晶表示パネ
ルなど)11、プリンタ12、音源回路13、効果回路
14がそれぞれ接続されている。音源回路13で発生さ
れ、効果回路14で効果付与された楽音信号はサウンド
システム15を介して音響的に発音可能である。また、
演奏操作子(鍵盤等)9に関連して、ユーザによる演奏
操作を支援するための演奏ガイド用指示手段(図示せ
ず)が設けられていてもよい。CPU1にはタイマ5が
接続されており、各種時間を計時したり、タイマ割込み
処理(インタラプト処理)における割込みクロックや、
自動演奏の再生テンポを設定するテンポクロックパルス
などを発生する。
For the CPU 1, a read only memory (ROM) 2, a random access memory (RAM) 3, an external storage device drive 6, a MIDI interface (I / F) 7, a communication interface 8 via a data and address bus 4 , Performance operators (keyboard etc.) 9, panel operators 1
0, an electronic display (such as a CRT or a liquid crystal display panel) 11, a printer 12, a sound source circuit 13, and an effect circuit 14 are connected to each other. The tone signal generated by the tone generator 13 and given an effect by the effect circuit 14 can be acoustically generated through the sound system 15. Also,
In connection with the performance operator (keyboard etc.) 9, performance guide instruction means (not shown) for assisting the performance operation by the user may be provided. A timer 5 is connected to the CPU 1 to measure various times, an interrupt clock in timer interrupt processing (interrupt processing),
Generates a tempo clock pulse that sets the playback tempo of the automatic performance.

【0014】外部記憶装置ドライブ6にセットする外部
記憶媒体はハードディスク(HD)のような固定した形
態の外部記憶装置であってもよいし、フロッピィーディ
スク(FD)、コンパクトディスク(CD−ROM・C
D−RAM)、光磁気ディスク(MO)、ディジタル多
用途ディスク(DVD)、あるいはRAMカードのよう
な半導体メモリ等の着脱自在な形態の外部記憶媒体であ
ってもよい。これらの外部記憶媒体には、いろいろなオ
リジナル曲の演奏データを記憶していてもよいし、アレ
ンジされた曲の演奏データを書き込んで記憶するように
してもよい。勿論、この実施例に係る自動アレンジ方法
を実施する制御プログラムが外部記憶媒体に記憶されて
いてもよい。MIDIインタフェース(I/F)7は、
他のMIDI機器(図示せず)等からMIDIデータを
当該電子楽器若しくはコンピュータへ入力したり、ある
いは当該電子楽器若しくはコンピュータからMIDIデ
ータを他のMIDI機器等へ出力するためのインタフェ
ースである。他のMIDI機器はユーザによる操作に応
じてMIDIデータを発生する機器であればよく、鍵盤
型、ギター型、管楽器型、打楽器型、ミブリ型等どのよ
うなタイプの操作子を具えた(若しくは、操作形態から
なる)機器であってもよい。MIDIインタフェース7
は専用のMIDIインタフェースを用いるものに限ら
ず、RS232−C、USB(ユニバーサル・シリアル
・バス)、IEEE1394(アイトリプルイー139
4)等の汎用のインタフェースを用いてMIDIインタ
フェース7を構成するようにしてもよい。この場合、M
IDIイベントデータ以外のデータをも同時に送受信す
るようにしてもよい。MIDIインタフェース7として
上記したような汎用のインタフェースを用いる場合に
は、他のMIDI機器はMIDIイベントデータ以外の
データも送受信できるようにしてよい。勿論、音楽演奏
データのデータフォーマットはMIDI形式のデータに
限らず、他の形式であってもよく、その場合はMIDI
インタフェース7と他のMIDI機器の適合するデータ
形式はそれにあった構成とする。
The external storage medium set in the external storage device drive 6 may be a fixed external storage device such as a hard disk (HD), a floppy disk (FD), or a compact disk (CD-ROM C).
A removable external storage medium such as a D-RAM), a magneto-optical disk (MO), a digital versatile disk (DVD), or a semiconductor memory such as a RAM card may be used. Performance data of various original songs may be stored in these external storage media, or performance data of arranged songs may be written and stored. Of course, a control program for executing the automatic arrangement method according to this embodiment may be stored in an external storage medium. The MIDI interface (I / F) 7
This is an interface for inputting MIDI data from another MIDI device (not shown) or the like to the electronic musical instrument or computer, or outputting MIDI data from the electronic musical instrument or computer to another MIDI device or the like. The other MIDI devices may be devices that generate MIDI data in response to a user operation, and include any type of controls such as a keyboard type, a guitar type, a wind instrument type, a percussion type, and a miburi type (or The device may be an operation type. MIDI interface 7
Are not limited to those using a dedicated MIDI interface, but include RS232-C, USB (Universal Serial Bus), IEEE1394 (I Triple E 139)
The MIDI interface 7 may be configured using a general-purpose interface such as 4). In this case, M
Data other than the IDI event data may be transmitted and received at the same time. When the above-described general-purpose interface is used as the MIDI interface 7, other MIDI devices may be configured to transmit and receive data other than the MIDI event data. Of course, the data format of the music performance data is not limited to the MIDI format data, but may be another format.
The data format compatible with the interface 7 and the other MIDI devices has a configuration suitable for it.

【0015】通信インタフェース8は、例えばLANや
インターネット、光ケーブルや電話回線、ISDN等の
有線あるいは無線の通信ネットワー18に接続され、該
通信ネットワーク18を介して、図示しない他のコンピ
ュータ(例えば自機がサーバーのときは他のクラエン
ト;自機がクラエントのときは他のクラエント又はサー
バー)と接続され、オリジナル曲の演奏データやアレン
ジした曲の演奏データや制御プログラムや各種データな
どを授受するためのインタフェースである。図1に示す
ハードウェア構成は電子楽器を想定しているため、演奏
操作子9や演奏ガイド用指示器16などを具備している
が、汎用パーソナルコンピュータの場合はこれらを具備
していなくてもよい。また、自動アレンジ処理機能のみ
を具備し、自動演奏機能や楽音発生機能は具備してなく
てもよい。特に、自動アレンジサービスをクライアント
に提供するサーバーコンピュータにあっては、音源回路
13、効果回路14、サウンドシステム15等の楽音発
生機能を持っていなくてもよい。本発明が適用可能なハ
ードウエアは、電子楽器やパソコンに限らず、携帯電話
端末やカラオケ端末などその他マルチメディア機器であ
ってもよい。従って、本発明が適用される機器のタイプ
に応じて、そのハードウェア構成が図1に示すものか
ら、上記のように、適宜取捨択一されてよい。
The communication interface 8 is connected to a wired or wireless communication network 18 such as a LAN, the Internet, an optical cable, a telephone line, or an ISDN, and is connected to another computer (not shown) via the communication network 18. If it is a server, it is connected to another client; if it is a client, it is connected to another client or server) to send and receive original music performance data, arranged music performance data, control programs, various data, etc. Interface. Although the hardware configuration shown in FIG. 1 is assumed to be an electronic musical instrument, the hardware configuration includes a performance operator 9 and a performance guide indicator 16, but a general-purpose personal computer does not need to include these components. Good. In addition, only the automatic arrangement processing function may be provided, and the automatic performance function and the tone generation function may not be provided. In particular, a server computer that provides an automatic arrangement service to a client need not have a tone generating function such as a tone generator circuit 13, an effect circuit 14, and a sound system 15. The hardware to which the present invention can be applied is not limited to electronic musical instruments and personal computers, but may be other multimedia devices such as mobile phone terminals and karaoke terminals. Therefore, depending on the type of the device to which the present invention is applied, the hardware configuration may be appropriately selected from the configuration shown in FIG. 1 as described above.

【0016】〔第1実施例〕本発明に従う自動アレンジ
の第1の実施例として、「ピアノソロ」タイプのアレン
ジ例について説明する。図2は、「ピアノソロ」タイプ
の自動アレンジ処理を実行するプログラムの一例を略示
するフロー図である。このプログラムはCPU1によっ
て実行される。図3は、本実施例に従って「ピアノソ
ロ」タイプの自動アレンジ処理を行い、オリジナル曲の
演奏データからアレンジ曲の演奏データを生成する一例
を、理解しやすくするために示す模式図である。
First Embodiment As a first embodiment of the automatic arrangement according to the present invention, an example of a "piano solo" type arrangement will be described. FIG. 2 is a flowchart schematically illustrating an example of a program for executing a “piano solo” type automatic arrangement process. This program is executed by the CPU 1. FIG. 3 is a schematic diagram showing an example of performing “piano solo” type automatic arrangement processing according to the present embodiment and generating performance data of an arranged music piece from performance data of an original music piece for easy understanding.

【0017】図2のステップS1では、これからアレン
ジしようとするオリジナル曲の演奏データを取得する。
オリジナル曲の構成は複数の演奏パートからなってお
り、該オリジナル曲の演奏データは複数トラックで構成
される。このような複数トラックからなる演奏データの
構成それ自体は公知であるため特に詳しく説明しない。
該演奏データのデータ形式は例えばMIDI規格に従っ
ているものとするが、他の規格であってもさしつかえな
い。このステップS1では、例えば、既存のMIDI曲
データ群の中から所望のものを、これからアレンジしよ
うとするオリジナル曲の演奏データとして、選択するよ
うにすればよい。アレンジしようとする所望のオリジナ
ル曲の演奏データの取得は、通信ネットワークを介して
取得するようにしてもよいし、あるいはFD等の記憶媒
体に記録済みのMIDI曲データの中から選択して取得
するようにしてもよい。取得したオリジナル曲の演奏デ
ータは、RAM3のような内部メモリに保存され、以後
のアレンジ処理の過程で必要な時にアクセスされて、必
要なトラック又はパートの演奏データを必要な区間で取
り出すことが可能とされる。
In step S1 of FIG. 2, the performance data of the original music to be arranged is obtained.
The configuration of the original music is composed of a plurality of performance parts, and the performance data of the original music is composed of a plurality of tracks. The configuration of such performance data composed of a plurality of tracks is known per se and will not be described in detail.
The data format of the performance data conforms to, for example, the MIDI standard, but other standards may be used. In this step S1, for example, a desired one from the existing MIDI music data group may be selected as performance data of an original music to be arranged. Acquisition of performance data of a desired original song to be arranged may be obtained via a communication network, or may be obtained by selecting from MIDI song data recorded on a storage medium such as an FD. You may do so. The acquired performance data of the original tune is stored in an internal memory such as the RAM 3 and is accessed when necessary in the subsequent arrangement process, so that the required track or part performance data can be extracted in a required section. It is said.

【0018】なお、この明細書で「パート」とは演奏デ
ータを主に音楽的見地から分類しようとする用語であ
り、「トラック」とは演奏データを主にデータ記憶所在
のあり方から分類しようとする用語であり、両語の技術
意義は共通している場合もあれば異なっている場合もあ
る。例えば、メモリ内に記憶する演奏データはトラック
を単位とするトラック情報によってアクセス可能であ
り、望みの演奏パートに関する演奏データは該演奏パー
トに該当するトラックのトラック情報によってアクセス
可能である。各トラックは音楽的な演奏パートに対応し
て設定されるが、必ずしも両者がイコールであるとは限
らない。例えば、或る1つの楽器パートの演奏データが
複数のトラックで記憶されていることもありうる。
In this specification, "part" is a term that intends to classify performance data mainly from a musical point of view, and "track" is a term that intends to classify performance data mainly from a data storage location. The technical significance of both words may be common or different. For example, performance data stored in a memory can be accessed by track information in units of tracks, and performance data relating to a desired performance part can be accessed by track information of a track corresponding to the performance part. Each track is set corresponding to a musical performance part, but both are not necessarily equal. For example, performance data of a certain instrument part may be stored in a plurality of tracks.

【0019】ステップS2では、上記のように取得した
オリジナル曲全体を時間軸に沿って複数の部分的区間に
区切る(若しくは分割する)。この部分的区間の区切り
方は、種々のやり方があり、どのようなやり方であって
もよい。例えば、1小節あるいは2小節あるいは4小節
など、適宜の数の小節に対応する区間で区切るようにし
てよい。その場合、一律の小節数(例えば4小節)で区
切るようにしてもよいし、各部分的区間毎に適宜の数で
区切る(例えば第1小楽節と第2小楽節は2小節毎に区
切り、第3小楽節は4小節で区切る、など)ようにして
もよい。小節線を基準とする区切り処理は、オリジナル
曲の演奏データ中に小節線データを持つ場合は、その小
節線データを利用して自動的に区切り処理を行うように
してよい。あるいは、ディスプレイ11においてオリジ
ナル曲の適宜のパート(例えば少なくともメロディパー
ト)の楽譜を表示し、これを見ながら、マウス等を用い
た人間のマニュアル操作によって各部分的区間毎の区切
り箇所を指定するようにしてもよい。別の区切り方とし
て、オリジナル曲のメロディパートの演奏データを自動
分析してフレーズの切れ目を検出し、検出したフレーズ
の切れ目を1つの部分的区間の区切り箇所とする、やり
方がある。この場合の自動分析の仕方としては、例えば
演奏データにおける音符列を分析するやり方があり、別
の例としては、演奏データ中にフレーズ区切りを示すフ
レーズマークを含んでいる場合は、そのフレーズマーク
の配置箇所を区切り箇所とするやり方がある。あるい
は、この場合藻、ディスプレイ11においてオリジナル
曲の適宜のパート(例えば少なくともメロディパート)
の楽譜を表示し、これを見ながら、マウス等を用いた人
間のマニュアル操作によってフレーズの区切り箇所を指
定するようにしてもよい。勿論、小節数に基づく区切り
方とフレーズに基づく区切り方を組み合わせて、あるい
は更に別のやり方を組み合わせて、オリジナル曲全体を
時間軸に沿って複数の部分的区間に区切るようにしてよ
い。なお、オリジナル曲の部分的区間の区切り方は全パ
ート共通であってよいが、必要に応じて一部のパートの
区間の区切り方が他のパートのそれよりも細かったり又
は粗かったりしてもよい。また、部分的区間の区切り方
の別の例としては、オリジナル曲の演奏データが該オリ
ジナル曲の曲構成を音楽的区間(イントロ、メイン、フ
ィルイン、エンディングなど)で区別するセクション情
報を含んでいる場合は、このセクション情報を利用する
やり方がある。すなわち、オリジナル曲のセクション情
報が示す音楽的区間毎に区切って部分的区間を設定す
る。この場合、必要に応じて、セクション情報に従って
区切った区間を更に細かく区切って部分的区間を設定す
るようにしてもよい。
In step S2, the entire original music piece obtained as described above is divided (or divided) into a plurality of partial sections along the time axis. There are various ways of dividing the partial section, and any method may be used. For example, it may be divided into sections corresponding to an appropriate number of measures such as one measure, two measures, or four measures. In such a case, it may be divided by a uniform number of measures (for example, 4 measures), or may be divided by an appropriate number for each partial section (for example, the first measure and the second measure are divided every 2 measures, The third bar may be divided into four bars, etc.). When the original music data has bar line data, the delimiter process based on the bar line may be automatically performed using the bar line data. Alternatively, a score of an appropriate part (for example, at least a melody part) of the original song is displayed on the display 11, and while viewing the score, a break point for each partial section is designated by manual operation of a human using a mouse or the like. It may be. As another method of division, there is a method of automatically analyzing the performance data of the melody part of the original song to detect a break in the phrase, and using the detected break in the phrase as a break point of one partial section. As an automatic analysis method in this case, for example, there is a method of analyzing a note sequence in performance data. As another example, when the performance data includes a phrase mark indicating a phrase delimiter, the phrase mark of the phrase mark is used. There is a way to use the placement location as a break location. Alternatively, in this case, an appropriate part (eg, at least a melody part) of the original song on the algae display 11
May be displayed, and while looking at the score, a phrase break point may be designated by a human manual operation using a mouse or the like. Of course, the whole original song may be divided into a plurality of partial sections along the time axis by combining the dividing method based on the number of measures and the dividing method based on the phrase, or by combining another method. The method of dividing the partial section of the original song may be common to all parts, but if necessary, the division of the section of some parts may be finer or coarser than that of other parts. Is also good. As another example of how to divide a partial section, the performance data of the original song includes section information that distinguishes the song configuration of the original song by musical sections (intro, main, fill-in, ending, etc.). If so, there is a way to use this section information. That is, a partial section is set for each musical section indicated by the section information of the original music piece. In this case, if necessary, the section divided according to the section information may be further divided to set a partial section.

【0020】ステップS3では、オリジナル曲の演奏デ
ータのうちメロディパートに該当する1トラックの演奏
データを取り出し、取り出した該1トラックの演奏デー
タをアレンジ曲のメロディトラックにストアし、メロデ
ィパートの1次的な演奏データとする。そして、この実
施例では「ピアノソロ」タイプのアレンジを行うため、
アレンジ曲のメロディパートのための音色指定データを
ピアノ音色又はピアノ類似の音色を指定するデータに設
定する。一具体例としては、まず、オリジナル曲の演奏
データを記憶している複数のトラックのうちメロディパ
ートがどのトラックに該当するかを検索する。この検索
の仕方としては、曲データの種類によっては、所定のト
ラック(例えば第1トラック)がメロディトラックに固
定されているので、当該オリジナル曲が該曲データ種類
に該当する場合は、該所定のトラック(例えば第1トラ
ック)を検索し、検索した該トラックの演奏データを、
オリジナル曲の演奏データから取り出してこれをアレン
ジ曲のメロディパートの1次的な演奏データとして、R
AM3等の内部メモリに設定されているアレンジ曲のメ
ロディトラックにストアする。あるいは、別の曲データ
種類によっては、各トラック毎に当該トラックの演奏パ
ート等の特徴を記述する文字情報等の補助データを含ん
でいるものがあるので、当該オリジナル曲が該曲データ
種類に該当する場合は、各トラックの該補助データ中に
「メロディ」あるいはそれに相当する記述を含むトラッ
クを検索し、検索した該トラックの演奏データを、オリ
ジナル曲の演奏データから取り出して、アレンジ曲のメ
ロディパートの1次的な演奏データとして、メロディト
ラックにストアする。あるいは、別のやり方として、オ
リジナル曲の各トラックの音色情報から、メロディパー
トとして使われる音色がどのトラックに割り当てられて
いるかを検索し、検索した該トラックの演奏データを、
オリジナル曲の演奏データから取り出して、アレンジ曲
のメロディパートの1次的な演奏データとして、メロデ
ィトラックにストアする。この場合、検索のキーワード
となる「メロディパートとして使われる音色」をどの音
色とするかは、ユーザがオリジナル曲を聴くことなどに
基づき決定し、これを設定入力してやればよい。別の例
として、メロディパートとして選択するトラック番号を
ユーザが入力し、入力されたトラック番号の演奏データ
を、オリジナル曲の演奏データから取り出して、アレン
ジ曲のメロディパートの1次的な演奏データとして、メ
ロディトラックにストアする。
In step S3, the performance data of one track corresponding to the melody part is extracted from the performance data of the original music, and the extracted performance data of the one track is stored in the melody track of the arranged music. Performance data. Then, in this embodiment, in order to perform a “piano solo” type arrangement,
The tone color specification data for the melody part of the arranged music is set to data for specifying a piano tone color or a piano-like tone color. As a specific example, first, a search is made as to which track the melody part corresponds to among a plurality of tracks storing performance data of the original music. As a method of this search, a predetermined track (for example, the first track) is fixed to the melody track depending on the type of the music data, and when the original music corresponds to the music data type, the predetermined track is used. A track (for example, the first track) is searched, and the performance data of the searched track is
R is taken out from the performance data of the original music and is used as primary performance data of the melody part of the arranged music.
It is stored in the melody track of the arranged music set in the internal memory such as AM3. Alternatively, depending on another music data type, since each track includes auxiliary data such as character information describing characteristics of a performance part or the like of the track, the original music corresponds to the music data type. In this case, a track containing "melody" or a description corresponding thereto is searched for in the auxiliary data of each track, the retrieved performance data of the track is extracted from the performance data of the original music, and the melody part of the arranged music is retrieved. Is stored in the melody track as primary performance data. Alternatively, as another method, from the timbre information of each track of the original song, a search is made to find which track the tone used as the melody part is assigned to, and the searched performance data of the track is
It is extracted from the performance data of the original music and stored in the melody track as primary performance data of the melody part of the arranged music. In this case, the tone to be used for the "tone used as the melody part" as a keyword for the search may be determined based on the user listening to the original music, and may be set and input. As another example, a user inputs a track number to be selected as a melody part, retrieves the performance data of the input track number from the performance data of the original tune, and takes it as primary performance data of the melody part of the arranged tune. , Store in the melody track.

【0021】なお、ここで、オリジナル曲のメロディパ
ートに該当するトラックの演奏データを1トラック分そ
っくりアレンジ曲のメロディトラックにストアしてよい
のは勿論であるが、そうせずに、アレンジに際して適宜
必要な部分のみを取り出してアレンジ曲のメロディトラ
ックにストアするようにしてもよい。例えば、オリジナ
ル曲のメロディを1コーラス分だけ取り出してアレンジ
曲のメロディとしてもよいし、あるいは第1小楽節の4
小節とそれから数小楽節離れたサビの数小節とを取り出
してこれらを時間系列的につなぎ合わせてアレンジ曲の
メロディとしてもよい。例えば、携帯電話の「着信メロ
ディ」をアレンジするような場合に、アレンジ曲をオリ
ジナル曲よりも短くすることがある。そのように、オリ
ジナル曲のメロディを部分的に抽出してアレンジ曲のメ
ロディを作成する場合は、ステップS2で区切った部分
的区間についても、以後の処理(メロディパートの演奏
データ追加処理及び伴奏用パートのアレンジ処理など)
に際しては、アレンジ曲のメロディパートとして抽出さ
れた区間だけを対象にして処理するようにするのがよ
い。
It should be noted that the performance data of the track corresponding to the melody part of the original music may be stored in the melody track of the arranged music for one track. Only the necessary part may be taken out and stored in the melody track of the arranged music. For example, the melody of the original song may be extracted for one chorus and used as the melody of the arranged song, or the melody of the first small passage may be used.
It is also possible to take out a measure and a few measures of rust a few measures away from it and connect them in a time series to form a melody of the arranged music. For example, when arranging a “ring melody” of a mobile phone, the arranged music may be shorter than the original music. As described above, when the melody of the arranged music is created by partially extracting the melody of the original music, the subsequent processing (addition of performance data of the melody part and processing of accompaniment for the melody part) is also performed for the partial section divided in step S2. Part arrangement processing, etc.)
At this time, it is preferable to process only the section extracted as the melody part of the arranged music.

【0022】これまでの説明を理解しやすくするため
に、図3を参照して付加的説明を行う。図3では、演奏
データの所在は棒グラフ状に模式的に示している。一例
として、オリジナル曲のトラックはトラックTR1〜T
R8の8トラックが示されており、トラックTR1がメ
ロディパート、トラックTR2がベース、TR3がドラ
ム、TR4がトランペット、TR5とTR6がピアノ、
TR7がギター、TR8がサックスの各楽器パートに対
応しているものとしている。部分的区間として、区間1
〜6の6区間が区分されているものとして図示されてい
る。オリジナル曲のメロディパートに該当するトラック
TR1が検索され、該トラックTR1の演奏データがそ
っくりアレンジ曲のメロディパートの演奏データとし
て、アレンジ曲のメロディトラックAMTにコピーされ
る例が図示されている。なお、アレンジ曲のメロディパ
ートは、「ピアノソロ」タイプのアレンジでは、ピアノ
の右手演奏パートと換言することができる。
To facilitate understanding of the above description, an additional description will be given with reference to FIG. In FIG. 3, the location of the performance data is schematically shown in the form of a bar graph. As an example, the tracks of the original song are tracks TR1 to TR
8 tracks of R8 are shown, a track TR1 is a melody part, a track TR2 is a bass, TR3 is a drum, TR4 is a trumpet, TR5 and TR6 are pianos,
It is assumed that TR7 corresponds to a guitar and TR8 corresponds to each instrument part of a saxophone. Section 1 as a partial section
6 are illustrated as being divided into six sections. An example is shown in which a track TR1 corresponding to the melody part of the original song is searched, and the performance data of the track TR1 is copied to the arranged melody track AMT as the melody part of the arranged song. The melody part of the arranged song can be paraphrased with the right-handed performance part of the piano in the “piano solo” type arrangement.

【0023】図2に戻り、ステップS4では、上記のよ
うにアレンジ曲のメロディパートの1次的な演奏データ
としてアレンジ曲のメロディトラックにストアした演奏
データの中から、所定期間以上にわたって無音区間が存
在しているかどうかを調べ、その無音区間がどこにある
かを検出する。オリジナル曲におけるメロディトラック
には一般にイントロや間奏あるいはエンディングなど主
旋律以外の部分は含まれていないのに対して、ピアノソ
ロのような場合は、イントロや間奏あるいはエンディン
グなどであってもメロディラインはメロディパートとし
てアレンジすることが望まれる。また、それ以外の場合
でも、オリジナル曲においてメロディパートの演奏が2
又はそれ以上のトラックで分担されていることは有りう
ることである。例えば、オリジナル曲で、1コーラスの
メロディをサックスが演奏し、それに続くサビのメロデ
ィをトランペットが演奏するような演奏スタイル、ある
いは或る楽器がメロディを演奏している区間で或る極く
短いフレーズだけ別の楽器がメロディを担当するような
演奏スタイル、などがありうる。その場合、1つの楽器
(例えばサックス)のトラックをメロディトラックとし
て検出し、これをアレンジ曲のメロディパートとして使
用するだけでは不十分であり、別の楽器(例えばトラン
ペット)でメロディを演奏している区間をもアレンジ曲
のメロディパートとして採用して付加する必要がある。
そのために、このステップS4及び次のステップS5の
処理を行う。つまり、このステップS4で検出した無音
区間は、オリジナル曲では別のトラックでメロディパー
トの演奏がなされているか、あるいはイントロや間奏あ
るいはエンディングなどが行われていると推定する。よ
って、ここで、無音区間の有無を調べる条件となる所定
期間以上とは、少なくとも所定フレーズ長(例えば1小
節分の長さ)以上に設定されてよい。勿論、これに限ら
ず、或るフレーズの末尾でメロディそれ自体は休符とな
っている又は最後の音符の小音量サステインを持続して
いることで無音区間となっているような場合、アレンジ
曲ではその無音区間に装飾的にメロディを付加すること
で、アレンジ曲に特有の豊かなメロディを作りたいよう
な場合にも、このステップS4での無音区間の検出と次
のステップS5でのメロディ付加を行ってよい。例え
ば、オリジナル曲で、メロディを奏でる管楽器はフレー
ズ最後の長音符をサステインしているとき、伴奏音とし
てピアノが装飾的にメロディを付加するような演奏スタ
イル、などがありうる。その場合、無音区間の有無を調
べる条件となる所定期間以上とは、1小節より短い長さ
のことがありうる。なお、無音区間の意味は、音(サス
テイン音すらもが)が全く存在していない(つまり完全
な休符状態)という意味に限定解釈されるべきではな
く、ノートオンイベントが存在していない(サステイン
音は残っていてもよい状態)という意味にも解釈される
べきであり、設計上どちらであってもよい。
Returning to FIG. 2, in step S4, a silence section for a predetermined period or more is selected from the performance data stored in the melody track of the arranged music as primary performance data of the melody part of the arranged music as described above. It checks whether it exists, and detects where the silent section is. The melody track in the original song generally does not include parts other than the main melody, such as intro, interlude, or ending, whereas in the case of a piano solo, the melody line is the melody part even in the intro, interlude, or ending. It is desired to arrange as. In other cases, the melody part of the original song is
Or it could be shared by more trucks. For example, in an original song, a saxophone plays a melody of one chorus followed by a trumpet of a chorus melody, or an extremely short phrase in a section where a certain instrument is playing the melody. There could be a playing style where another instrument is in charge of the melody. In that case, it is not enough to detect a track of one instrument (for example, a saxophone) as a melody track and use this as a melody part of an arrangement song, but to play a melody with another instrument (for example, a trumpet). It is necessary to add the section by adopting it as the melody part of the arranged song.
For this purpose, the processing of this step S4 and the next step S5 is performed. That is, in the silent section detected in step S4, it is estimated that the melody part is being played on another track in the original music, or the intro, interlude, or ending is being performed. Therefore, here, the predetermined period or more as a condition for checking the presence or absence of a silent section may be set to at least a predetermined phrase length (for example, the length of one bar). Of course, the arrangement is not limited to this. If the melody itself is a rest at the end of a certain phrase, or if a silent section occurs due to sustaining the low volume sustain of the last note, the arrangement song Then, even if it is desired to create a rich melody peculiar to the arranged song by decoratively adding a melody to the silent section, the detection of the silent section in step S4 and the addition of the melody in the next step S5 are performed. You can go. For example, in an original song, a wind instrument that plays a melody may have a performance style in which the piano adds a decorative melody as an accompaniment sound when the last note of the phrase is sustained. In this case, the condition that is equal to or longer than the predetermined period as a condition for checking the presence or absence of a silent section may be shorter than one bar. Note that the meaning of the silent section should not be limited to the meaning that no sound (even the sustain sound) exists (that is, a complete rest state), and no note-on event exists ( (The state in which the sustain sound may remain) should be interpreted, and either of them may be designed.

【0024】ステップS5では、オリジナル曲の演奏デ
ータのうちメロディパートに該当するものとして前記ス
テップS3で検索された1トラック以外の他のトラック
から、前記無音区間にマージされるべき一部の区間の演
奏データを有しているトラックを検索し、検索した該ト
ラックの一部の区間の演奏データを取り出して、該取り
出した一部の区間の演奏データを前記アレンジ曲のメロ
ディトラックにおける前記無音区間に対して付加する
(マージする)。この検索の仕方としては、前述のメロ
ディパートに該当するトラックの検索の仕方と同様の手
法を適宜取捨択一的に採用してよい。例えば、オリジナ
ル曲を聴いてみて、1コーラスのメロディをサックスが
演奏し、それに続くサビのメロディをトランペットが演
奏しているような場合、ステップS3の処理でサックス
のパートをメロディトラックとして検索してこの演奏デ
ータをアレンジ曲のメロディトラックにストアしている
ような場合、トランペットのパートのトラックをオリジ
ナル曲のデータから検索し、前記ステップS4で検出し
たサックスのパートの無音区間に対応する一部区間分の
トランペットのパートの演奏データを該検索したトラン
ペットのパートのトラックから取り出す。こうして取り
出した一部区間分のトランペットのパートの演奏データ
を、アレンジ曲のメロディトラックにストアしている演
奏データの無音区間に対して付加する(マージする)こ
とで、オリジナル曲におけるサックスパートのメロディ
演奏とトランペットのメロディ演奏とをマージした、新
しい1トラック分のアレンジ曲のメロディパートの演奏
データが生成され、アレンジ曲のメロディトラックにス
トアされる。
In step S5, from the tracks other than the one track searched in step S3 as the data corresponding to the melody part in the performance data of the original music, a part of the section to be merged into the silent section is read. A track having performance data is searched, performance data of a partial section of the searched track is extracted, and performance data of the extracted partial section is added to the silent section of the melody track of the arranged music. (Merge). As a method of this search, a method similar to the above-described method of searching for a track corresponding to the melody part may be adopted as appropriate. For example, when listening to the original song, the saxophone is playing a melody of one chorus and the trumpet is playing the melody of the chorus that follows, the process of step S3 searches for the saxophone part as a melody track. In the case where the performance data is stored in the melody track of the arranged song, the track of the trumpet part is searched from the data of the original song, and the partial section corresponding to the silent section of the sax part detected in step S4 is detected. The performance data of the trumpet part for the minute is extracted from the track of the searched trumpet part. By adding (merging) the performance data of the trumpet part for the partial section thus extracted to the silent section of the performance data stored in the melody track of the arranged music, the melody of the saxophone part of the original music is added. The performance data of the melody part of the arranged song for one new track is generated by merging the performance and the melody performance of the trumpet, and stored in the melody track of the arranged song.

【0025】別の検索例としては、前述したようなセク
ション情報に基づき自動的に、あるいは、オリジナル曲
を人間が聴くことに基づき、上記無音区間に対応してオ
リジナル曲においてイントロ演奏や間奏あるはエンディ
ング演奏を受け持っているパートのトラックを抽出し、
該抽出したトラックの該無音区間に対応する区間におけ
る演奏データを取り出して、前記アレンジ曲のメロディ
トラックにおける前記無音区間に対して付加する(マー
ジする)。更に別の検索例として、ドラムパートのトラ
ックを除く残りのトラックから、当該無音区間に対応す
る区間内で音符数(ノートオンイベント数)の最も多い
トラックを検出するというやり方もありうる。あるい
は、ドラムパートのトラックを除く残りのトラックか
ら、当該無音区間に対応する区間内で各音符(ノートオ
ンイベント)における音量ボリューム値とベロシティ値
の総和が最も大きいトラックを検出するというやり方も
ありうる。ドラムパートを除く理由は、メロディパート
として使用するのにあまり適さないからである。なお、
前述の通り、ピアノソロタイプのアレンジでは、このア
レンジ曲のメロディパートにピアノ系の音色データが設
定されるので、新しいメロディパートの音色はピアノ系
音色となる。勿論、曲全体を通して複数の無音区間が検
出された場合は、各無音区間に対応して検索されるオリ
ジナル曲の他のトラックはそれぞれ異なるトラックであ
ってもよい。
As another search example, based on the section information as described above, or based on the fact that a human listens to the original music, an intro performance or an interlude or an interlude in the original music corresponding to the above-mentioned silent section. Extract the track of the part that is in charge of the ending performance,
Performance data in a section corresponding to the silent section of the extracted track is extracted and added (merged) to the silent section in the melody track of the arranged music piece. As still another search example, there is a method of detecting a track having the largest number of notes (number of note-on events) in a section corresponding to the silent section from the remaining tracks excluding the drum part track. Alternatively, from the remaining tracks excluding the drum part track, a track in which the sum of the volume volume value and the velocity value of each note (note-on event) is the largest in a section corresponding to the silent section may be detected. . The reason for excluding the drum part is that it is not very suitable for use as a melody part. In addition,
As described above, in the piano solo type arrangement, piano-based timbre data is set in the melody part of this arrangement tune, so that the tone of the new melody part is a piano-based timbre. Of course, when a plurality of silent sections are detected throughout the entire song, the other tracks of the original song searched for corresponding to each silent section may be different tracks.

【0026】このステップS4とS5の処理によってア
レンジ曲のメロディパートの演奏データをマージで作成
する例を理解しやすくするために、図4を参照して付加
的に説明する。図4の描き方は図3と同様である。この
例では、オリジナル曲のトラックTR1(メロディパー
ト)では、区間1、3、6が無音区間であるとし、区間
1に対応してトラックTR2(ベースパート)を選択
し、区間3に対応してトラックTR7(ギターパート)
を選択し、区間6に対応してトラックTR8(サックス
パート)を、選択する例が示されている。なお、ステッ
プS4とS5の処理は省略してもよい。
In order to make it easier to understand an example in which the performance data of the melody part of the arrangement music piece is created by merging through the processing of steps S4 and S5, an explanation will be additionally given with reference to FIG. 4 is the same as that of FIG. In this example, in the track TR1 (melody part) of the original music, the sections 1, 3, and 6 are silence sections, and the track TR2 (base part) is selected corresponding to the section 1; Track TR7 (guitar part)
Is selected, and a track TR8 (sax part) is selected corresponding to the section 6. The processing in steps S4 and S5 may be omitted.

【0027】図2に戻ると、ステップS6では、前記オ
リジナル曲の演奏データのうちメロディパートに該当す
るものとして前記ステップS3で検索されたトラック以
外の複数のトラックから、前記ステップS2で区切った
各部分的区間毎に、特徴的な演奏データを持つトラック
を抽出する。なお、前述の通り、アレンジ曲のメロディ
をオリジナル曲のメロディから部分的に取り出した場合
は、このステップS6で抽出の対象となるのは、アレン
ジ曲のメロディとして抽出された部分に対応する区間で
ある。また、1つの部分的区間につき1つのトラックの
みを抽出することに限らず、2又はそれ以上のトラック
を抽出してもよい。
Returning to FIG. 2, in step S6, among the plurality of tracks other than the track searched in step S3 as the data corresponding to the melody part in the performance data of the original music, each segment divided in step S2 A track having characteristic performance data is extracted for each partial section. As described above, when the melody of the arranged song is partially extracted from the melody of the original song, the target of extraction in step S6 is a section corresponding to the portion extracted as the melody of the arranged song. is there. Further, the present invention is not limited to extracting only one track per one partial section, but may extract two or more tracks.

【0028】ステップS7では、前ステップS6で各部
分的区間毎に抽出したトラックの演奏データをそれぞれ
取り出してこれらを各部分的区間の時系列順に並べて組
み合わせることで、アレンジ曲の1つの伴奏用パートの
演奏データを生成する。なお、1つの部分的区間につき
複数のトラックが抽出されている区間については、これ
らのトラックの演奏データを合併(マージ)して1つの
部分的区間分の演奏データとする。生成したアレンジ曲
の伴奏用パートの演奏データは、アレンジ曲の伴奏用パ
ートの1次的な演奏データとして、RAM3等の内部メ
モリに設定されているアレンジ曲の伴奏用トラックにス
トアする。そして、この実施例では「ピアノソロ」タイ
プのアレンジを行うため、アレンジ曲の伴奏用パートの
ための音色指定データをピアノ音色又はピアノ類似の音
色を指定するデータに設定する。なお、前記ステップS
5でアレンジ曲のメロディパートに追加したオリジナル
曲の前記他のトラックの前記一部の区間については、ア
レンジ曲の伴奏用パートの演奏データとして使用しない
ように、前記ステップS6での抽出対象から除外するも
のとする。これは、メロディと伴奏が一部区間でも同じ
旋律になってしまうと単調になるから、これを防ぐため
である。
In step S7, the performance data of the tracks extracted for each of the partial sections in the previous step S6 are taken out and arranged in chronological order of each of the partial sections and combined to obtain one accompaniment part of the arranged music. To generate performance data. For a section in which a plurality of tracks are extracted for one partial section, the performance data of these tracks is merged (merged) into performance data for one partial section. The generated performance data of the accompaniment part of the arranged music is stored as primary performance data of the accompaniment part of the arranged music in the accompaniment track of the arranged music set in the internal memory such as the RAM 3. In this embodiment, in order to perform the "piano solo" type arrangement, the tone color designation data for the accompaniment part of the arranged music piece is set to data for designating a piano tone or a piano-like tone. Note that the step S
The part of the other track of the original song added to the melody part of the arranged song in step 5 is excluded from the extraction target in step S6 so as not to use it as the performance data of the accompaniment part of the arranged song. It shall be. This is to prevent the melody and accompaniment from becoming monotonous if the melody becomes the same in some sections.

【0029】オリジナル曲におけるメロディパートに該
当するトラック以外のトラックには、概ね伴奏パートの
演奏データが記憶されている。概して、オリジナル曲に
おいては、これらの伴奏パートの演奏データによって複
数の楽器のアンサンブルによる複雑な伴奏が行われるこ
とになる。本実施例に従うアレンジに従えば、このオリ
ジナル曲の複雑な伴奏アンサンブルから、部分部分で特
徴的なパート(オイシイところ)の演奏データを取り出
し、これらを継ぎはぎ的に組み合わせて伴奏パートのア
レンジを作成することになる。従って、前記ステップS
6における特徴的な演奏データを持つトラックの抽出基
準は、各部分的区間毎に代表的な伴奏演奏を示している
演奏データを検出することからなっていてよい。そのよ
うな代表的な伴奏演奏を示す演奏データの検出の仕方と
しては、適宜のやり方を用いてよく、そのいくつかの例
については後述する。
Tracks other than the track corresponding to the melody part in the original music generally store performance data of the accompaniment part. Generally, in the original music, the performance data of these accompaniment parts causes complicated accompaniment by ensemble of a plurality of musical instruments. According to the arrangement according to the present embodiment, the performance data of a characteristic part (particularly good) is extracted from the complex accompaniment ensemble of the original song, and the arrangement data is spliced to create an arrangement of the accompaniment part. Will be. Therefore, step S
The extraction criterion of the track having the characteristic performance data in 6 may be to detect the performance data indicating the representative accompaniment performance for each partial section. An appropriate method may be used as a method of detecting such performance data indicating a representative accompaniment performance, and some examples thereof will be described later.

【0030】ここで、伴奏用パートのためのアレンジ例
を理解しやすくするために、再び図3を参照して付加的
説明を行う。図3の例では、区間1でオリジナル曲のト
ラックTR2(ベースパート)を選択し、区間2でトラ
ックTR5(ピアノパート)を、区間3でトラックTR
4(トランペットパート)及びTR7(ギターパート)
を、区間4でトラックTR6(ピアノパート)を、区間
5でトラックTR5(ピアノパート)を、区間6でトラ
ックTR8(サックスパート)をそれぞれ選択して伴奏
用の演奏データを生成し、これをアレンジ曲の伴奏用ト
ラックAATにストアするようにした例が示されてい
る。前述の通り、区間3で選択されたオリジナル曲の2
つのトラックTR4,TR7の演奏データは合併され
る。なお、アレンジ曲の伴奏用パートは、「ピアノソ
ロ」タイプのアレンジでは、ピアノの左手演奏パートと
換言することができる。
Here, in order to make it easier to understand the arrangement example for the accompaniment part, an additional explanation will be given with reference to FIG. 3 again. In the example of FIG. 3, the track TR2 (base part) of the original song is selected in the section 1, the track TR5 (piano part) is selected in the section 2, and the track TR 5 is selected in the section 3.
4 (Trumpet part) and TR7 (Guitar part)
, A track TR6 (piano part) in section 4, a track TR5 (piano part) in section 5, and a track TR8 (sax part) in section 6 to generate performance data for accompaniment. An example is shown in which the music is stored in the accompaniment track AAT. As described above, the original song 2 selected in the section 3
The performance data of the two tracks TR4 and TR7 are merged. In the arrangement of the "piano solo" type, the accompaniment part of the arranged music can be paraphrased with the left-hand performance part of the piano.

【0031】次に、前記ステップS6における特徴的な
演奏データを持つトラックの抽出の仕方についてのいく
つかの例を示す。その一例は、アレンジ曲の伴奏用デー
タとして、オリジナル曲の演奏データから優先的に選択
する音色(又は楽器名)を設定し、設定された音色に該
当するパートのトラックを抽出するやり方である。例え
ば、第1優先はグランドピアノ、第2優先はエレクトリ
ックピアノ、というようにいくつかの優先順位で優先音
色を設定するようにしてもよい。この場合、オリジナル
曲のメロディパートのトラック以外の各トラックについ
て、各部分的区間毎に音符数(ノートオンイベント数)
を検出し、この音符数と優先音色とを組み合わせてトラ
ック抽出を行うようにしてもよい。例えば、優先順位1
の音色のトラックでも或る部分的区間における音符数が
0または少数ならばその区間ではそのトラックを抽出せ
ずに、それよりも下位の優先順位の音色のトラックであ
って音符数が少なくないトラックを抽出する。あるい
は、各部分的区間毎に音符数(ノートオンイベント数)
を検出することに代えて、各部分的区間毎に音量レベル
(音量ボリューム設定値とベロシティ値の合計)の総和
を検出し、この音量レベル総和値と優先音色とを組み合
わせてトラック抽出を行うようにしてもよい。あるい
は、複数の優先音色を設定し、設定した複数の優先音色
内では順位をつけずに、各部分的区間毎の前記音符数
(ノートオンイベント数)あるいは前記音量レベル総和
値を検出し、複数の優先音色に対応するトラックのう
ち、この検出値の最も大きいトラックを抽出するように
してもよい。このアレンジ曲の伴奏用パートの音色とし
て設定される音色(ピアノソロアレンジにあってはピア
ノ系の音色)を、優先させる音色として設定するように
すると、オリジナル曲の雰囲気をうまく引き継ぐことが
しやすい。しかし、これに限らない。
Next, several examples of a method of extracting a track having characteristic performance data in step S6 will be described. One example is a method of setting a tone (or a musical instrument name) to be preferentially selected from performance data of an original song as accompaniment data of an arranged song, and extracting a track of a part corresponding to the set tone. For example, a priority tone may be set in several priorities, such as a first priority being a grand piano and a second priority being an electric piano. In this case, for each track other than the melody part track of the original song, the number of notes (number of note-on events) for each partial section
May be detected, and track extraction may be performed by combining the number of notes and the priority timbre. For example, priority 1
If the number of notes in a partial section is 0 or a small number of notes, the track is not extracted in that section, and the track is a track of a tone of lower priority and the number of notes is not small. Is extracted. Alternatively, the number of notes for each partial section (number of note-on events)
Instead of detecting the sum, the sum of the volume levels (the sum of the volume volume setting value and the velocity value) is detected for each partial section, and track extraction is performed by combining this volume level sum value and the priority timbre. It may be. Alternatively, a plurality of priority tones are set, and the number of notes (the number of note-on events) or the total volume level of each partial section is detected without prioritizing among the set plurality of priority tones. Out of the tracks corresponding to the priority timbre of (i), the track having the largest detected value may be extracted. If the tone set as the tone of the accompaniment part of the arranged song (piano tone in the piano solo arrangement) is set as the priority tone, the atmosphere of the original song can be easily succeeded. However, it is not limited to this.

【0032】別の一例として、上記のように、オリジナ
ル曲のメロディパートのトラック以外の各トラックにつ
いて、各部分的区間毎に音符数(ノートオンイベント
数)を検出し、各部分的区間毎に音符数(ノートオンイ
ベント数)の最も多いトラックを抽出するようにしても
よい。また、別の一例として、上記のように、各部分的
区間毎に音量レベル(音量ボリューム設定値とベロシテ
ィ値の合計)の総和を検出し、各部分的区間毎にこの音
量レベル総和値の最も大きいトラックを抽出するように
してもよい。更に別の例として、各部分的区間毎の音符
数と音量レベル総和値との組み合わせでトラック抽出を
行うようにしてもよい。
As another example, as described above, for each track other than the melody part track of the original music, the number of notes (number of note-on events) is detected for each partial section, and for each partial section, A track having the largest number of notes (the number of note-on events) may be extracted. As another example, as described above, the sum of the volume levels (the sum of the volume volume setting value and the velocity value) is detected for each partial section, and the maximum of the volume level sum value is detected for each partial section. A large track may be extracted. As still another example, track extraction may be performed using a combination of the number of notes for each partial section and the total volume level value.

【0033】別の一例として、オリジナル曲の演奏デー
タのうちメロディパートに該当するトラックとベースパ
ートに該当するトラック以外のトラックの演奏データか
ら各部分的区間毎の演奏データを選択的に取り出す一方
で、オリジナル曲の演奏データのうちベースパートに該
当するトラックの演奏データを少なくとも一部の区間で
取り出し、取り出した前記各部分的区間毎の演奏データ
の組み合わせに対して前記取り出した一部の区間のベー
スパートの演奏データを付加する(つまり合併・マージ
する)ことに基づきアレンジ曲における伴奏用パートの
演奏データを生成するようにしてもよい。こうすれば、
アレンジ曲における伴奏用パートにオリジナル曲のベー
スパートの演奏データが組み込まれるので、ベースの特
徴を伴奏に生かしたアレンジを行うことがやりやすい。
この場合、オリジナル曲の演奏データのうちメロディパ
ートに該当するトラックとベースパートに該当するトラ
ック以外のトラックの演奏データから各部分的区間毎の
演奏データを選択的に取り出すやり方は、上述した伴奏
データ用のトラック抽出法のどれを採用して実施しても
よい。
As another example, the performance data of each partial section is selectively extracted from the performance data of the tracks other than the track corresponding to the melody part and the track corresponding to the base part in the performance data of the original music. The performance data of the track corresponding to the base part in the performance data of the original music is extracted in at least a part of the sections, and the combination of the extracted pieces of the performance data for each of the partial sections is compared with the extracted part of the sections. The performance data of the accompaniment part in the arranged music may be generated based on the addition of the performance data of the base part (that is, merging / merging). This way,
Since the performance data of the base part of the original music is incorporated into the accompaniment part of the arranged music, it is easy to perform the arrangement utilizing the characteristics of the bass in the accompaniment.
In this case, the method of selectively extracting the performance data of each partial section from the performance data of the tracks other than the track corresponding to the melody part and the track corresponding to the base part in the performance data of the original music is performed by using the accompaniment data described above. And any of the truck extraction methods used for this purpose.

【0034】別の一例として、オリジナル曲の演奏デー
タのうちメロディパート、ベースパート及びドラムパー
ト以外のパートに該当する複数のトラックのうち、各部
分的区間毎に、音楽的に目立つ演奏データ(音符列)を
含むトラックを抽出するようにしてもよい。音楽的に目
立つ演奏データ(音符列)とは、例えば、その曲の基本
リズム(ビート)にのっている音符列からなる部分、あ
るいはメロディックな音符列からなる部分、あるいは伴
奏らしい音符列(例えばアルペジオ進行の音符列)から
なる部分、である。
As another example, of a plurality of tracks corresponding to parts other than the melody part, the bass part and the drum part in the performance data of the original music, performance data (notes) that are musically conspicuous for each partial section. A track including a row may be extracted. The musical data (note sequence) that is musically conspicuous is, for example, a portion consisting of a note sequence on the basic rhythm (beat) of the song, a portion consisting of a melodic note sequence, or a note sequence (like an accompaniment). For example, a portion composed of an arpeggio progression note sequence).

【0035】図2に戻ると、ステップS8では、内部メ
モリ内に1次的な演奏データとしてストアされた、アレ
ンジ曲のメロディトラックAMTの演奏データ及び/又
は伴奏用トラックAATの演奏データに対して、適宜の
データ加工処理を施す。データ加工処理例としては、音
符数(イベント数)を減少すること若しくは増加するこ
と、あるいは各音符毎のベロシティ値を変更すること、
あるいは各音符毎の音符長を変更すること、あるいはピ
ッチベンドデータ等の制御データを削除して標準的な演
奏データにすること、などがある。
Returning to FIG. 2, in step S8, the performance data of the arranged melody track AMT and / or the performance data of the accompaniment track AAT stored as primary performance data in the internal memory. And perform appropriate data processing. Examples of data processing include decreasing or increasing the number of notes (number of events), changing the velocity value for each note,
Alternatively, the note length of each note may be changed, or control data such as pitch bend data may be deleted to provide standard performance data.

【0036】別の演奏データ加工例としては、アレンジ
曲の伴奏用トラックAATの演奏データを加工するにあ
たって、オリジナル曲の演奏データのうち所定のドラム
音(例えばバスドラム音)のパートの演奏データの発音
タイミングを利用して、特定の発音イベントの演奏デー
タを選択することである。これは、オリジナル曲のベー
スパートのトラックから取り出した演奏データの1小節
中の音符数が多い場合、そのうち必要なベース音のみを
選択するような場合に有効である。例えば、バスドラム
の発音タイミングに一致するベース音は重要であるか
ら、これを選択して残し、1小節中の残りのベース音の
演奏データは削除する。こうして、精製したベースパー
トの演奏データを、他のトラックから抽出した演奏デー
タに合併(マージ)すれば、低音部(ベース)が邪魔に
ならない程度の必要な音数だけ伴奏データ中に挿入する
ことができる。
As another performance data processing example, in processing the performance data of the accompaniment track AAT of the arranged music, the performance data of the part of the predetermined drum sound (for example, bass drum sound) in the performance data of the original music is processed. This is to select performance data of a specific sounding event using the sounding timing. This is effective when the number of notes in one measure of the performance data extracted from the track of the base part of the original music is large, and only the necessary bass sound is selected among them. For example, since the bass sound corresponding to the bass drum sounding timing is important, this is selected and left, and the performance data of the remaining bass sound in one bar is deleted. If the performance data of the refined bass part is merged with the performance data extracted from another track in this way, the necessary number of notes can be inserted into the accompaniment data so that the bass part (bass) does not interfere. Can be.

【0037】別の演奏データ加工例として、アレンジ曲
のメロディトラックAMTの演奏データ及び/又は伴奏
用トラックAATの演奏データを加工するにあたって、
曲の調又は各区間におけるコード(和音)に応じて付加
音(ハーモニー音や装飾音など)の演奏データを生成
し、生成した付加音の演奏データを、アレンジ曲のメロ
ディパート又は伴奏パートの演奏データに付加するよう
にしてもよい。例えば、メロディパートにおいて一部の
音に3度上の音程の音を追加してデュエット音を作った
り、伴奏パートにおいて和音構成音の一部を追加して伴
奏音に厚みを作ったりするようにしてよい。あるいは、
メロディパート又は伴奏パートにおいて、一部の音に装
飾音を付加するようにしてもよい。すなわち、調音階音
(スケールノート)やその区間でのコード構成音から適
宜に選ばれた音高の音符を装飾音として付加する。ま
た、装飾音ではなく、オリジナル曲における元の音符の
音符長を1/2あるいは1/4の長さに縮め、その残り
の長さ分の1又は複数の音符として、調音階音(スケー
ルノート)やその区間でのコード構成音から適宜に選ば
れた音高の音符を付加して、音符列に躍動感をつける、
若しくは音に動きをつける、ようにしてもよい。これら
の場合、曲の調を示す調データがオリジナル曲の演奏デ
ータに含まれている場合は、それを利用する。また、コ
ード進行に従うコードデータがオリジナル曲の演奏デー
タに含まれている場合は、それを利用する。また、これ
らの調データやコードデータがオリジナル曲の演奏デー
タに含まれていない場合は、オリジナル曲のメロディト
ラックやその他のトラックの演奏データを分析すること
で、調データやコードデータを得るようにしてよい。ま
た、ユーザがこれらのデータを入力してやるようにして
もよい。
As another performance data processing example, in processing the performance data of the melody track AMT and / or the performance data of the accompaniment track AAT of the arranged music,
Performance data of additional sounds (such as harmony sounds and ornamental sounds) is generated according to the key of the music or the chord (chord) in each section, and the generated performance data of the additional sounds is played in the melody part or accompaniment part of the arranged music. It may be added to the data. For example, in the melody part, a third note is added to some sounds to create a duet sound, and in the accompaniment part, a part of chord components is added to make the accompaniment sound thicker. May be. Or,
In the melody part or the accompaniment part, a decorative sound may be added to some sounds. That is, a note of a pitch appropriately selected from the tonic scale note (scale note) and the chord component sound in that section is added as a decorative sound. Also, instead of the grace tone, the note length of the original note in the original song is shortened to あ る い は or の 長, and as one or more notes of the remaining length, an articulatory scale (scale note) ) And the notes of the pitch appropriately selected from the chord constituent notes in that section to add a sense of liveliness to the note sequence,
Alternatively, the sound may be moved. In these cases, if the key data indicating the key of the music is included in the performance data of the original music, it is used. If the chord data according to the chord progression is included in the performance data of the original music, it is used. If these key data and chord data are not included in the performance data of the original song, the performance data of the melody track of the original song and other tracks are analyzed to obtain the key data and chord data. May be. Further, the user may input these data.

【0038】別の演奏データ加工例として、アレンジ曲
のメロディトラックAMTの演奏データ及び/又は伴奏
用トラックAATの演奏データを加工するにあたって、
オリジナル曲から取り出した演奏データから同時演奏数
を考慮して演奏データを減らすようにしてもよい。例え
ば、ピアノでは、右手及び左手共に、一般に同時演奏可
能音数は最大で5であるから、同時演奏音数が6音以上
ある場合は、5音以下になるように演奏データを減ら
す。また、1つの部分的区間内での演奏音数が多すぎた
り、時間的に隣合う音符の間隔が離れすぎていたりし
て、実演奏テクニックの面で演奏困難であるような場合
も、当該区間での演奏データを適宜減らす。その場合、
どの演奏データを減らす(間引きする)かは音楽理論を
考慮して優先順位を設定しておくとよい。例えば、伴奏
用の演奏データを減らす(間引きする)場合は、メロデ
ィ音と響きの悪い音高(例えば2度音程)を優先的に間
引きしたり、メロディ音と響きのよい音高でもメロディ
音に対するその音程によって異なる優先順位をつけたり
(例えば5度音程は3度音程に優先して間引く)、ある
いは当該区間でのコード構成音に該当する音高の演奏デ
ータは他に優先して残すようにしたり、あるいはコード
構成音の中でも優先順位をつけたり(例えば5度音は3
度音に優先して間引く)、するようにしてよい。上述の
各データ加工処理に際して、所定の手順で自動的にデー
タ加工処理を行うようにしてもよいし、ディスプレイに
表示されたアレンジ曲の編集画面を見ながらマウス等に
よる人間の手動操作によってデータ加工処理を行うよう
にしてもよいし、自動処理と手動操作を適宜組み合わせ
てデータ加工処理を行うようにしてもよい。加工対象の
演奏データを発音して確認聴取できるようにしてもよ
い。
As another performance data processing example, in processing the performance data of the melody track AMT and / or the performance data of the accompaniment track AAT of the arranged music,
Performance data may be reduced in consideration of the number of simultaneous performances from the performance data extracted from the original music. For example, in a piano, since the number of simultaneously playable sounds for both the right hand and the left hand is generally a maximum of five, when the number of simultaneously played sounds is six or more, the performance data is reduced to five or less. Also, when the number of performance sounds in one partial section is too large or the interval between adjacent notes is too large in time, and it is difficult to perform in the actual performance technique, The performance data in the section is appropriately reduced. In that case,
It is preferable to set priorities for music data to be reduced (decimated) in consideration of music theory. For example, when the performance data for accompaniment is to be reduced (decimated), a melody sound and a pitch that does not sound well (for example, the second pitch) are preferentially decimated, or a melody sound and a well-pitched sound can be removed from the melody sound. Depending on the pitch, a different priority may be assigned (for example, the fifth interval is thinned out prior to the third interval), or the performance data of the pitch corresponding to the chord constituent sound in the section is left as other priority. Or prioritize the chords (for example, the fifth
May be thinned out in preference to the degree). At the time of each data processing described above, the data processing may be automatically performed according to a predetermined procedure, or the data processing may be performed manually by a mouse or the like while looking at the editing screen of the arranged music displayed on the display. The processing may be performed, or the data processing may be performed by appropriately combining the automatic processing and the manual operation. The performance data to be processed may be pronounced so that it can be checked and heard.

【0039】図2のステップS9では、上述のような加
工若しくは編集処理を終えたアレンジ曲のメロディトラ
ックAMTの演奏データ及び伴奏用トラックAATの演
奏データを、完成したアレンジ曲のメロディパート及び
伴奏パートの演奏データとして内部メモリ又は外部メモ
リの所定の領域に保存する。こうして、メロディをリー
ドする右手演奏パート(メロディパート)の演奏データ
と伴奏を奏でる左手演奏パート(伴奏パート)の演奏デ
ータとがそれぞれピアノ系音色の音色データが付加され
て生成され、ピアノソロタイプのアレンジを容易に行う
ことができる。なお、この第1の実施例は、ピアノソロ
タイプに限らず、ギターソロタイプなど任意の楽器のソ
ロ演奏用アレンジに応用できる。その場合、図2ステッ
プS3,S7でメロディパート及び伴奏パートに対応し
て設定される音色データは、当該ソロ楽器の音色に対応
したものとされる。
In step S9 of FIG. 2, the melody track AMT performance data and the accompaniment track AAT performance data of the arrangement music that has been processed or edited as described above are combined with the melody part and accompaniment part of the completed arrangement music. Is stored in a predetermined area of the internal memory or the external memory as the performance data of. In this way, the performance data of the right-hand performance part (melody part) leading the melody and the performance data of the left-hand performance part (accompaniment part) playing the accompaniment are generated by adding the timbre data of the piano-based timbre, respectively. Can be easily performed. The first embodiment can be applied not only to the piano solo type but also to an arrangement for solo performance of any musical instrument such as a guitar solo type. In this case, the timbre data set corresponding to the melody part and the accompaniment part in steps S3 and S7 in FIG. 2 correspond to the timbre of the solo musical instrument.

【0040】〔第2実施例〕本発明に従う自動アレンジ
の第2の実施例として、「弾き語り」タイプのアレンジ
処理例について説明する。図5は、「弾き語り」タイプ
の自動アレンジ処理を実行するプログラムの一例を略示
するフロー図である。このプログラムはCPU1によっ
て実行される。図6は、本実施例に従って「弾き語り」
タイプの自動アレンジ処理を行い、オリジナル曲の演奏
データからアレンジ曲の演奏データを生成する一例を、
理解しやすくするために示す模式図である。
[Second Embodiment] As a second embodiment of the automatic arrangement according to the present invention, a description will be given of a "playing narration" type arrangement processing example. FIG. 5 is a flowchart schematically illustrating an example of a program for executing a “playing story” type automatic arrangement process. This program is executed by the CPU 1. FIG. 6 shows a “playing story” according to this embodiment.
An example of performing type automatic arrangement processing and generating arrangement music performance data from original music performance data,
It is a schematic diagram shown for easy understanding.

【0041】まず、図6を参照して概要を説明する。ア
レンジ曲のメロディトラックAMTにストアする演奏デ
ータを、オリジナル曲のメロディパートのトラックから
抽出するようにする点は、上記第1の実施例の場合と同
様であってよい。ただし、「弾き語り」タイプのアレン
ジにあっては、メロディはボーカルパートであり、少な
くとも伴奏用パートの音色(例えばピアノ系音色)とは
異なる音色に設定する。アレンジ曲用の伴奏データを1
次的に準備するために1つの伴奏トラックAATが準備
され、ここに、上記第1の実施例の場合と同様に、オリ
ジナル曲のメロディパートに該当するトラック以外のト
ラックから各部分的区間毎に取り出した演奏データを1
次的にストアする。アレンジ曲用の1次的な伴奏用演奏
データの取り出し方は、上記第1の実施例において説明
した種々のやり方を適宜採用してよい。図6では、オリ
ジナル曲の演奏データのうちメロディパートに該当する
トラックTR1とベースパートに該当するトラックTR
2以外のトラックの演奏データから各部分的区間1〜6
毎の演奏データを選択的に取り出す一方で、オリジナル
曲の演奏データのうちベースパートに該当するトラック
TR2の演奏データを少なくとも一部の区間2〜5で取
り出し、取り出した前記各部分的区間1〜6毎の演奏デ
ータの組み合わせに対して前記取り出した一部の区間2
〜5のベースパートの演奏データを付加する(つまり合
併・マージする)ことに基づきアレンジ曲における伴奏
用パートの1次的な演奏データを生成し、1次伴奏トラ
ックAATにストアする例を示している。こうすれば、
1次伴奏トラックAATにストアした演奏データ中にベ
ースパートの演奏データが組み込まれるので、次に、こ
れを音域に応じて2つのパートに分離する場合にベース
の特徴を生かした分離がしやすい。アレンジ曲用の2次
的な伴奏用演奏データをストアするために2つの2次的
伴奏トラック(左手伴奏トラックAAT1と右手伴奏ト
ラックAAT2)が用意される。前述のように1次伴奏
トラックAATにストアされた伴奏用パートの1次的な
演奏データを、音域に応じて低音部と高音部の2つのパ
ートに分離し、低音部パートの演奏データを左手伴奏ト
ラックAAT1にストアし、高音部パートの演奏データ
を右手伴奏トラックAAT2にストアする。これらの2
つの伴奏パートの音色は、共通であってよいし、あるい
は異ならせてもよい。例えば、ピアノ弾き語りタイプで
あれば、これらの2つの伴奏パートの音色は、ピアノ系
音色とする。この第2の実施例では、2パート分の伴奏
パートのアレンジ演奏データを作成するにもかかわら
ず、1次処理でオリジナル曲に基づき作成する伴奏用パ
ートの演奏データは1トラック分だけでよいため、各部
分的区間毎の抽出処理等の手間がかからない、という利
点がある。
First, the outline will be described with reference to FIG. The point that the performance data stored in the melody track AMT of the arranged music is extracted from the track of the melody part of the original music may be the same as in the case of the first embodiment. However, in the arrangement of the "playing narration" type, the melody is a vocal part, and is set to a tone different from at least the tone of the accompaniment part (for example, a piano tone). 1 accompaniment data for the arranged song
Next, one accompaniment track AAT is prepared for the next preparation. Here, similarly to the case of the first embodiment, each accompaniment track AAT is provided for each partial section from a track other than the track corresponding to the melody part of the original music. The extracted performance data is 1
Next store. For the method of extracting the primary accompaniment performance data for the arrangement music, the various methods described in the first embodiment may be appropriately adopted. In FIG. 6, the track TR1 corresponding to the melody part and the track TR corresponding to the base part in the performance data of the original music are shown.
From the performance data of tracks other than 2, each partial section 1-6
While selectively extracting performance data for each of the sections, the performance data of the track TR2 corresponding to the base part of the performance data of the original music is extracted in at least some of the sections 2 to 5, and the extracted partial sections 1 to 5 are extracted. Part 2 of the extracted section 2 for each combination of performance data
An example is shown in which primary performance data of an accompaniment part in an arrangement music piece is generated based on the addition of performance data of base parts No. to No. 5 (that is, merging / merging) and stored in the primary accompaniment track AAT. I have. This way,
Since the performance data of the bass part is incorporated into the performance data stored in the primary accompaniment track AAT, it is easy to perform the separation utilizing the characteristics of the bass when the performance data is then separated into two parts according to the range. Two secondary accompaniment tracks (left-handed accompaniment track AAT1 and right-handed accompaniment track AAT2) are prepared to store secondary accompaniment performance data for the arranged music. As described above, the primary performance data of the accompaniment part stored in the primary accompaniment track AAT is separated into two parts, a bass part and a treble part, according to the range, and the performance data of the bass part is left-handed. The data is stored in the accompaniment track AAT1, and the performance data of the treble part is stored in the right handed accompaniment track AAT2. These two
The tone colors of the two accompaniment parts may be common or may be different. For example, in the case of a piano playing type, the tones of these two accompaniment parts are piano-based tones. In the second embodiment, the performance data of the accompaniment part created on the basis of the original music in the primary processing need be only one track, although the arrangement performance data of the accompaniment part for two parts is created. In addition, there is an advantage that no labor is required for the extraction processing and the like for each partial section.

【0042】次に、図5を参照して具体的処理手順につ
いて説明する。図5において、ステップS1、S2、S
4、S5、S8は、図2における同じ番号のステップで
の処理と同じ内容の処理であるため、これらの詳しい説
明は省略する。ステップS13は図2のステップS3に
対応するもので、該ステップS3での処理と同様にアレ
ンジ曲のメロディパートの演奏データをオリジナル曲の
メロディパートに該当するトラックから取り出すが、ア
レンジ曲のメロディパートの音色として非ピアノ系音色
に設定する点が図2のステップS3での処理と相違して
いる。この理由は上述の通り、この例ではピアノ系弾き
語りタイプのアレンジをすることを意図しているので、
メロディパートはピアノ系以外の音色とするのである。
Next, a specific processing procedure will be described with reference to FIG. In FIG. 5, steps S1, S2, S
Steps S4, S5, and S8 have the same contents as the processing in the steps with the same numbers in FIG. Step S13 corresponds to step S3 in FIG. 2, and the performance data of the melody part of the arranged music piece is extracted from the track corresponding to the melody part of the original music piece, as in the processing in step S3. 2 is different from the processing in step S3 in FIG. The reason for this is, as described above, in this example, we intend to arrange a piano-based narration type,
The melody part is a non-piano tone.

【0043】ステップS16は図2のステップS6に対
応するもので、該ステップS6での処理と同様にオリジ
ナル曲のメロディパートに該当するトラック以外のトラ
ックから各部分的区間毎に特徴的な演奏データを持つト
ラックを抽出するが、後で2パートに分けることを考慮
して、音数を増す若しくは音域を広くするために、各区
間につきに複数のトラックを抽出する点が図2のステッ
プS6での処理と相違している。
Step S16 corresponds to step S6 in FIG. 2, and similarly to the processing in step S6, characteristic performance data for each partial section from tracks other than the track corresponding to the melody part of the original music piece. In order to increase the number of notes or to widen the range in consideration of dividing into two parts later, a plurality of tracks are extracted for each section in step S6 in FIG. Is different from the processing described above.

【0044】ステップS17は図2のステップS7に対
応するもので、該ステップS7での処理と同様に各部分
的区間毎に抽出したトラックから演奏データを取り出し
て伴奏トラックAATにストアするが、この第2の実施
例では、伴奏トラックAATは1次的なトラックであ
り、また、前ステップS16で各部分的区間毎に抽出し
た複数のトラックから取り出した演奏データをマージし
て1トラック分の演奏データを生成し、1次的伴奏用演
奏データとして1次的伴奏トラックAATにストアす
る。なお、この例ではピアノ系弾き語りタイプのアレン
ジをすることを意図しているので、伴奏用パートはピア
ノ系音色に設定する。
Step S17 corresponds to step S7 in FIG. 2. Similar to the processing in step S7, the performance data is extracted from the track extracted for each partial section and stored in the accompaniment track AAT. In the second embodiment, the accompaniment track AAT is a primary track, and the performance data extracted from a plurality of tracks extracted for each partial section in the previous step S16 is merged to perform one track. Data is generated and stored in the primary accompaniment track AAT as primary accompaniment performance data. In this example, since it is intended to arrange a piano-based narration type, the accompaniment part is set to a piano-based tone.

【0045】次のステップS8では、図2のステップS
8と同様に、メロディトラックAMT及び伴奏トラック
AATにストアされた演奏データに対して適宜の加工処
理を施す。次のステップS18は、この第2の実施例に
特有の処理を行うものである。すなわち、1次伴奏トラ
ックAATにストアされた演奏データを音域に応じて低
音部と高音部の2つのパートに分離し、低音部パートの
演奏データを左手伴奏トラックAAT1にストアし、高
音部パートの演奏データを右手伴奏トラックAAT2に
ストアする。こうして、音域に応じた2パートの伴奏用
演奏データを生成する。なお、ピアノ系弾き語りタイプ
の場合、低音部パートとは左手での鍵盤演奏に適したパ
ートという意味であり、高音部パートとは右手での鍵盤
演奏に適したパートという意味である。1トラックの演
奏データを2パートに分離するやり方には種々のやり方
があり、任意のものを採用してよい。
In the next step S8, step S8 in FIG.
As in the case of No. 8, the performance data stored in the melody track AMT and the accompaniment track AAT are appropriately processed. The next step S18 is to perform processing unique to the second embodiment. That is, the performance data stored in the primary accompaniment track AAT is separated into two parts, a bass part and a treble part, according to the range, and the performance data of the bass part is stored in the left-hand accompaniment track AAT1, and the treble part is played. The performance data is stored in the right-hand accompaniment track AAT2. In this way, two-part accompaniment performance data corresponding to the range is generated. In the case of a piano-based narration type, a bass part means a part suitable for playing the keyboard with the left hand, and a treble part means a part suitable for playing the keyboard with the right hand. There are various ways to separate the performance data of one track into two parts, and any one may be adopted.

【0046】その一例として、固定された音高を分割点
として高音部と低音部に振り分けるようにしてもよい。
この場合は、高音部と低音部の音域がそれぞれ固定され
る。別の一例として、所定区間毎の演奏データ中の最低
音(又は最高音)を基準にして、そこから数えて所定数
分の演奏データを低音部(又は高音部)に分類し、残り
を高音部(又は低音部)に分類するようにしてもよい。
この場合は、各所定区間毎に高音部と低音部の音域が実
質的に変動することになり、かつ低音部(又は高音部)
において所定数分の演奏音符を確保することができる。
別の一例として、所定区間毎の演奏データ中の最低音
(又は最高音)を基準にして、そこから所定音域(例え
ば1オクターブ等)以内に存在する演奏データを低音部
(又は高音部)に分類し、残りを高音部(又は低音部)
に分類するようにしてもよい。この場合も、各所定区間
毎に高音部と低音部の音域が実質的に変動することにな
る。別の一例として、所定区間毎の演奏データ中の最低
音と最高音の中間を分割点として高音部と低音部に振り
分けるようにしてもよい。この場合も、各所定区間毎に
高音部と低音部の音域が実質的に変動することになる。
As an example, a fixed pitch may be used as a division point to be divided into a treble section and a bass section.
In this case, the high range and the low range are respectively fixed. As another example, based on the lowest sound (or highest sound) in the performance data of each predetermined section, a predetermined number of pieces of performance data counted therefrom are classified into low-pitched (or high-pitched) sections, and the rest are treble-pitched. Section (or bass section).
In this case, the range of the treble section and the bass section fluctuates substantially in each predetermined section, and the bass section (or the treble section) is changed.
, A predetermined number of performance notes can be secured.
As another example, based on the lowest sound (or highest sound) in the performance data for each predetermined section, performance data existing within a predetermined range (for example, one octave or the like) therefrom is stored in a low-pitched portion (or high-pitched portion). Classify, rest high (or low)
May be classified. Also in this case, the treble and bass ranges fluctuate substantially in each predetermined section. As another example, the midpoint between the lowest sound and the highest sound in the performance data for each predetermined section may be divided into a treble portion and a bass portion as a division point. In this case as well, the treble and bass ranges fluctuate substantially in each predetermined section.

【0047】更に別の一例として、演奏時における右手
と左手の理想的負荷率を、例えば右手70%、左手30
%、というように設定し、この理想的負荷率をできるだ
け満足させるように、分割点を可変的に決定するように
してもよい。そのためには、例えば、所定区間の演奏デ
ータについて暫定的な分割位置で低音部と高音部に暫定
的に分割し、この暫定的低音部と高音部に含まれる演奏
データの音符数などからそれぞれの負荷率を計算し、こ
の負荷率が理想的負荷率にできるだけ近づくように暫定
的な分割位置をずらすことにより、理想的な分割位置を
決定するようにするとよい。なお、負荷率の計算にあた
っては、当該区間における暫定的低音部と高音部に含ま
れる演奏データの音符数のみならず、音符の並び具合
や、運指の困難度などを数値化して計算アルゴリズムに
組み入れるようにするのがよい。
As still another example, the ideal load ratio of the right hand and the left hand during performance is, for example, 70% for the right hand and 30 for the left hand.
%, And the dividing point may be variably determined so as to satisfy the ideal load factor as much as possible. For this purpose, for example, the performance data in a predetermined section is provisionally divided into a bass part and a treble part at a provisional division position, and each is divided based on the number of notes of the performance data included in the provisional bass part and the treble part. It is preferable to calculate the load factor and shift the provisional division position so that the load factor approaches the ideal load factor as much as possible, thereby determining the ideal division position. In calculating the load factor, not only the number of notes in the performance data included in the provisional bass part and the treble part in the section, but also the arrangement of the notes and the degree of difficulty in fingering are quantified and calculated. It is better to incorporate it.

【0048】上記で暫定的な分割位置の決定の仕方とし
ては、当該区間内の全演奏データの各音高をその音符長
で重み付けして、各音高毎の合計音符長の分布図を作成
し、該分布図において、低音域と高音域を理想的負荷率
で分割できる位置を概略定め、その位置を暫定的な分割
位置とするやり方がありうる。また、これにかぎらず、
もっと単純に、例えば、当該区間内の演奏データの最低
音と最高音の中間位置を暫定的な分割位置とするやり方
でもよい。あるいは、当該区間内の演奏データの音高平
均を求め、この平均値に該当する音高位置を暫定的な分
割位置とするやり方でもよい。また、理想的負荷率に応
じた分割点を決定するに際して、暫定的な分割位置を使
用せずに、当該区間内の全演奏データの各音高をそれぞ
れ候補分割位置として、それぞれの場合の負荷率を計算
し、その中で理想的負荷率に最も近い負荷率をもたらす
音高位置を分割点と定めるようにしてもよい。また、上
述した各種の分割位置決定方法を適宜組み合わせて処理
することで、1トラックの伴奏用演奏データを低音部と
高音部の2パートに分離するようにしてもよい。
As a method of determining the provisional division position, each pitch of all the performance data in the section is weighted by its note length, and a distribution diagram of the total note length for each pitch is created. Then, in the distribution diagram, there is a method in which a position where the bass range and the treble range can be divided at an ideal load factor is roughly determined, and the position is set as a provisional division position. In addition to this,
More simply, for example, a method may be adopted in which an intermediate position between the lowest sound and the highest sound of the performance data in the section is set as a temporary division position. Alternatively, a method may be used in which a pitch average of performance data in the section is determined, and a pitch position corresponding to the average value is set as a temporary division position. Also, when determining a division point according to the ideal load factor, a temporary division position is not used, and each pitch of all performance data in the section is set as a candidate division position, and the load in each case is determined. The pitch may be calculated, and the pitch position that provides the load factor closest to the ideal load factor may be determined as the division point. In addition, by appropriately combining and processing the above-described various division position determination methods, the accompaniment performance data of one track may be separated into two parts, a bass part and a treble part.

【0049】図5に戻ると、ステップS19では、上述
のような加工若しくは編集処理及び2パート分離処理を
終えたアレンジ曲のメロディトラックAMTの演奏デー
タ及び左手及び右手伴奏用トラックAAT1,AAT2
の演奏データを、完成したアレンジ曲のメロディパート
及び伴奏パートの演奏データとして内部メモリ又は外部
メモリの所定の領域に保存する。こうして、ボーカルパ
ートに相当するメロディパートの演奏データには非ピア
ノ系音色の音色データが付加され、低音部と高音部の2
パートからなる伴奏用の演奏データにはピアノ系音色の
音色データが付加されて生成され、ピアノ系弾き語りタ
イプのアレンジを容易に行うことができる。なお、この
第2の実施例は、ピアノ系弾き語りタイプに限らず、ギ
ター系弾き語りタイプなど任意の楽器の弾き語り演奏用
アレンジに応用できる。その場合、図5のステップS1
3でメロディパートに対応して設定される音色データは
当該弾き語り楽器の音色に対応していないものとされ、
ステップS17で伴奏パートに対応して設定される音色
データは当該弾き語り楽器の音色に対応したものとされ
る。なお、弾き語りアレンジの変形例として、2パート
の伴奏用演奏データのみをアレンジ作成するようにして
もよい。その場合は、アレンジ曲のメロディパートの演
奏データを生成するための処理(例えば図5のステップ
S13,S4,S5の処理など)を省略してよい。
Returning to FIG. 5, in step S19, the performance data of the melody track AMT and the left and right handed accompaniment tracks AAT1 and AAT2 of the arranged music having undergone the above-described processing or editing processing and two-part separation processing.
Is stored in a predetermined area of the internal memory or the external memory as the performance data of the melody part and the accompaniment part of the completed arrangement music. In this way, the tone data of the non-piano tone is added to the performance data of the melody part corresponding to the vocal part, and the two parts of the low tone part and the high tone part are added.
The performance data for accompaniment composed of parts is generated by adding the tone data of the piano-based timbre, and the arrangement of the piano-based narration type can be easily performed. The second embodiment can be applied not only to a piano-based narration type but also to an arrangement for playing and arranging any musical instrument such as a guitar-based narration type. In that case, step S1 in FIG.
The timbre data set corresponding to the melody part in 3 does not correspond to the timbre of the playing narration instrument,
The timbre data set corresponding to the accompaniment part in step S17 is assumed to correspond to the timbre of the playing and talking instrument. As a modified example of the play-speaking arrangement, an arrangement may be made in which only two-part accompaniment performance data is arranged. In that case, the processing for generating the performance data of the melody part of the arranged music (for example, the processing of steps S13, S4, S5 in FIG. 5) may be omitted.

【0050】〔第3実施例〕本発明に従う自動アレンジ
の第3の実施例として、オリジナル曲以外の伴奏データ
を一部利用してアレンジ曲の伴奏用演奏データを作成す
る例について説明する。この第3の実施例は、上記第1
及び第2の実施例のいずれのケースにおいても、アレン
ジ曲の伴奏用演奏データを作成する際に適用可能であ
る。図7は、第3の実施例の概念図である。複数トラッ
クからなるオリジナル曲の演奏データに基づきアレンジ
曲のメロディパートと伴奏パートの演奏データを生成す
る基本構成は、上記第1又は第2の実施例と同様であ
る。この第3の実施例では、伴奏パターン発生部20を
具備し、オリジナル曲の演奏データとは別に伴奏データ
を提供する。上記第1又は第2の実施例に従って各部分
的区間ごとにオリジナル曲の各トラックの演奏データを
選択するとき、適当な演奏データを持つトラックが検索
できなかった区間に関して、伴奏パターン発生部20か
ら適切な伴奏パターンに基づき発生された伴奏データを
選択し、当該区間についてのアレンジ曲の伴奏用パート
の演奏データとして採用する。伴奏パターン発生部20
から発生する伴奏データは、1乃至数小節程度の短いパ
ターンに基づく伴奏パターン音を和音に応じた音高で発
生させるものであり、公知の伴奏パターン発生手段を採
用してよい。これによって、伴奏アレンジをより豊富な
バリエーションでかつ容易に行うことができる。
[Third Embodiment] As a third embodiment of the automatic arrangement according to the present invention, an example will be described in which accompaniment performance data of an arranged music is created by partially using accompaniment data other than the original music. The third embodiment is similar to the first embodiment.
In any of the cases of the second embodiment and the second embodiment, the present invention can be applied when creating performance data for accompaniment of arranged music. FIG. 7 is a conceptual diagram of the third embodiment. The basic configuration for generating the melody part and the accompaniment part performance data of the arranged music based on the performance data of the original music composed of a plurality of tracks is the same as that of the first or second embodiment. In the third embodiment, an accompaniment pattern generator 20 is provided, and accompaniment data is provided separately from performance data of an original music piece. When the performance data of each track of the original music piece is selected for each partial section according to the first or second embodiment, the accompaniment pattern generation section 20 selects a section in which a track having appropriate performance data could not be searched. The accompaniment data generated based on the appropriate accompaniment pattern is selected and adopted as the performance data of the accompaniment part of the arrangement music for the section. Accompaniment pattern generator 20
The accompaniment data generated from is for generating an accompaniment pattern sound based on a short pattern of about one to several measures at a pitch corresponding to a chord, and a known accompaniment pattern generating means may be employed. As a result, the accompaniment arrangement can be easily performed with a wide variety of variations.

【0051】〔各種の応用形態〕上記各実施例に従う自
動アレンジ装置及び方法における各種の応用形態につい
て以下例示的に説明する。図8は、上記各実施例に従っ
て生成したアレンジ曲の演奏データに基づき、該アレン
ジ曲を実際に演奏して発音する応用形態を示す概念ブロ
ック図である。上記各実施例に従ってオリジナル曲(ブ
ロック30)に基づきアレンジ処理(ブロック31)が
行われ、アレンジ曲のメロディパート及び伴奏用パート
の演奏データが生成される。公知の自動演奏処理手順に
従ってこのアレンジ曲の演奏データに基づく再生演奏処
理(ブロック32)が行われ、再生される演奏データに
対応する楽音信号が音源処理(ブロック33)で発生さ
れ、スピーカ(ブロック34)を介して音響的に発音さ
れる。図1との対応を示せば、例えば、再生演奏処理
(ブロック32)はCPU1によって実行され、音源処
理(ブロック33)は音源回路13で実行され、スピー
カ(ブロック34)はサウンドシステム15に含まれ
る。
[Various Applications] Various applications in the automatic arrangement apparatus and method according to the above embodiments will be illustratively described below. FIG. 8 is a conceptual block diagram showing an application form in which the arranged music is actually played and pronounced based on the performance data of the arranged music generated according to each of the above embodiments. Arrangement processing (block 31) is performed based on the original music piece (block 30) according to each of the above embodiments, and performance data of the melody part and the accompaniment part of the arranged music piece is generated. Playback performance processing based on the performance data of the arranged music piece (block 32) is performed in accordance with a known automatic performance processing procedure. 34) is pronounced acoustically. 1, for example, the reproduction performance processing (block 32) is executed by the CPU 1, the sound source processing (block 33) is executed by the sound source circuit 13, and the speaker (block 34) is included in the sound system 15. .

【0052】図9は、上記各実施例に従って生成したア
レンジ曲の演奏データに基づき、該アレンジ曲の楽譜を
電子的ディスプレイ11(図1)で可視的に表示する、
あるいはプリンタ12(図1)でプリントアウトして可
視的楽譜印刷物を提供する応用形態を示す概念ブロック
図であり、(A)はその基本的応用形態、(B)〜
(E)はその改良的応用形態、を示す。上記各実施例に
従ってオリジナル曲(ブロック30)に基づきアレンジ
処理(ブロック31)が行われ、アレンジ曲のメロディ
パート及び伴奏用パートの演奏データが生成される。こ
のアレンジ曲の演奏データに基づき楽譜化処理(ブロッ
ク35)が行われ、表示ドライバ(ブロック36)を介
してディスプレイ11(図1)の画面にアレンジ曲の楽
譜を表示する。あるいは、プリンタ12(図1)でプリ
ントアウトしてアレンジ曲の楽譜印刷物を提供する。楽
譜化処理(ブロック35)はCPU1によって実行され
る。楽譜の形式は、五線譜形式は勿論のこと、それに限
らず他の任意の形式を採用してよい。
FIG. 9 shows the musical score of the arranged music based on the performance data of the arranged music generated according to each of the above-described embodiments, on the electronic display 11 (FIG. 1).
Alternatively, FIG. 7 is a conceptual block diagram showing an application mode in which a visible score printed matter is provided by printing out by the printer 12 (FIG. 1).
(E) shows an improved application thereof. Arrangement processing (block 31) is performed based on the original music piece (block 30) according to each of the above embodiments, and performance data of the melody part and the accompaniment part of the arranged music piece is generated. The musical score processing (block 35) is performed based on the performance data of the arranged music, and the music score of the arranged music is displayed on the screen of the display 11 (FIG. 1) via the display driver (block 36). Alternatively, the music is printed out by the printer 12 (FIG. 1) to provide a printed musical score of the arranged music. The musical score conversion process (block 35) is executed by the CPU 1. The format of the musical score is not limited to the staff notation format but may be any other format.

【0053】図9(B)では、(A)に示す基本的応用
形態に対して楽譜記号読出及び付加処理(ブロック3
7)が追加されている。この例では、オリジナル曲の演
奏データには各演奏パート毎に楽譜記号を含んでおり、
楽譜記号読出及び付加処理(ブロック37)では、アレ
ンジ処理(ブロック31)においてオリジナル曲から取
り出したトラックの当該部分的区間に対応して楽譜記号
が存在しているならば、該楽譜記号をオリジナル曲のデ
ータから読み出し、読み出した該楽譜記号を該部分的区
間におけるアレンジ曲の楽譜記号として使用するよう
に、楽譜化処理(ブロック35)を制御する。楽譜記号
読出及び付加処理(ブロック37)はCPU1によって
実行される。この楽譜記号とは、例えば、強弱記号、テ
ンポ記号、反復記号、ペダル記号などである。このよう
な楽譜記号の追加表示によって、印刷物等で提供される
アレンジ曲の楽譜表示物の品質が向上する。
In FIG. 9B, the score symbol reading and adding process (block 3) is performed for the basic application shown in FIG. 9A.
7) has been added. In this example, the performance data of the original song includes a score symbol for each performance part,
In the musical notation reading and adding process (block 37), if the musical notation symbol exists corresponding to the partial section of the track extracted from the original music in the arrangement process (block 31), the musical notation symbol is converted to the original music. , And controls the musical score conversion process (block 35) so that the read musical score symbols are used as musical score symbols of the tune arranged in the partial section. The musical score reading and adding process (block 37) is executed by the CPU 1. The musical score symbols are, for example, dynamic symbols, tempo symbols, repetition symbols, pedal symbols, and the like. Such additional display of the music score symbol improves the quality of the music score display material of the arranged music provided in a printed material or the like.

【0054】図9(C)では、(A)に示す基本的応用
形態に対して楽譜記号生成処理(ブロック38)が追加
されている。この例では、オリジナル曲の演奏データに
楽譜記号を含んでいない場合、楽譜記号生成処理(ブロ
ック38)において、アレンジ処理(ブロック31)で
生成したアレンジ曲の演奏データから各種楽譜記号に対
応する音楽的特徴を検出し、該検出した音楽的特徴に対
応して楽譜記号を生成し、生成した楽譜記号を該アレン
ジ曲の楽譜記号として使用するように、楽譜化処理(ブ
ロック35)を制御する。この音楽的特徴の検出は、ア
レンジ曲の特定のパート例えばメロディパートを対象に
して行うようにしてよい。一例として、強弱記号の生成
は、1小節内又は適宜の所定区間内の演奏データに含ま
れる音量ボリューム設定値と各音符毎のベロシティ値及
びエキスプレッションペダル値の総和を求め(例えば実
際は各音符毎にこれらの値を掛算して各音毎のトータル
音量値を求め、各音毎のトータル音量値を合計して当該
区間内の音量総和値を求める)、この当該区間の音量総
和値の大きさに応じて、当該区間が、ppp,pp,
p,mp,mf,f,ff,fffなどの強弱記号のい
ずれに該当するかを判定する。この判定のために適宜の
判定テーブルを参照するようにしてよい。
In FIG. 9C, a score symbol generation process (block 38) is added to the basic application form shown in FIG. 9A. In this example, if the music data of the original music does not include the musical notation symbols, the musical notation generation processing (block 38) uses the music data corresponding to the various musical notation symbols from the music data arranged in the arrangement processing (block 31). The musical notation processing (block 35) is controlled so as to detect a musical feature, generate a musical notation symbol corresponding to the detected musical characteristic, and use the generated musical notation symbol as the musical notation symbol of the arranged music. The detection of the musical feature may be performed on a specific part of the arranged music, for example, a melody part. As an example, the dynamic symbol is generated by calculating the sum of the volume volume set value, the velocity value and the expression pedal value of each note included in the performance data within one measure or an appropriate predetermined section (for example, in actuality, each note) Is multiplied by these values to obtain a total volume value for each sound, and the total volume values for each sound are summed to obtain a total volume value in the section.) , The section is ppp, pp,
It is determined which of the strong and weak symbols such as p, mp, mf, f, ff, and fff corresponds. For this determination, an appropriate determination table may be referred to.

【0055】強弱記号の生成の仕方の別の例として、演
奏データにおける音符の時系列配列(トラジェクトリ)
に対応して、各音符毎に音量ボリューム設定値とベロシ
ティ値とエキスプレッションペダル値を掛算して各音符
毎のトータル音量値を算出し、この各音符毎のトータル
音量値の時系列的配列(トラジェクトリ)を得る。そし
て、この各音符毎のトータル音量値の時系列的配列(ト
ラジェクトリ)を基に、分析を行って、強弱記号を生成
するようにしてもよい。その具体的な手順としては、各
音符毎のトータル音量値の時系列的配列(トラジェクト
リ)において、各音符毎のトータル音量値を個別の強弱
記号にそれぞれ変換し、各音符毎の強弱記号の時系列的
配列(トラジェクトリ)を得る。そして、各音符毎の強
弱記号の時系列的配列(トラジェクトリ)において隣接
する音符間で強弱記号が一致しているものをグループ化
し、グループ化された強弱記号の時系列的配列(トラジ
ェクトリ)を得る。原則的には、グループ化された強弱
記号の時系列的配列(トラジェクトリ)における各グル
ープの先頭の音符の位置に対応して、該グループの強弱
記号を付加する。
As another example of how to generate dynamic marks, a time-series arrangement of notes in performance data (trajectory)
, A total volume value for each note is calculated by multiplying a volume volume setting value, a velocity value, and an expression pedal value for each note, and a time-series arrangement of the total volume value for each note ( Trajectory). Then, analysis may be performed based on the time-series arrangement (trajectory) of the total volume value for each note to generate a dynamic symbol. As a specific procedure, in a chronological arrangement (trajectory) of the total volume value for each note, the total volume value for each note is converted into an individual dynamic symbol, and when the dynamic symbol for each note is used. Obtain a sequential sequence (trajectory). Then, in the time-series arrangement (trajectory) of dynamic symbols for each note, those in which dynamic symbols match between adjacent notes are grouped to obtain a time-series arrangement (trajectory) of grouped dynamic symbols. . In principle, the dynamic symbols of the group are added corresponding to the position of the first note of each group in the time-series arrangement (trajectory) of the grouped dynamic symbols.

【0056】上記例で、mp(メゾピアノ)やpp(ピ
アニシモ)等の記述的強弱記号に代えてアクセント記号
(∨)をつける例について説明する。強弱記号を付与す
る区間の最小分解能に相当する記号付与区間最小値を定
めておき、上記グループ化された強弱記号の時系列的配
列(トラジェクトリ)における1グループの時間幅が記
号付与区間最小値よりも短く、かつ、その両隣のグルー
プの強弱記号が同じであり、かつ、該記号付与区間最小
値よりも短い時間幅のグループの強弱記号がその両隣の
グループの強弱記号よりも強い場合、該記号付与区間最
小値よりも短い時間幅のグループの強弱記号をキャンセ
ルし、その両隣のグループの強弱記号と同じ記号にし、
これらを全て同じグループにすると共に、該記号付与区
間最小値よりも短い時間幅のグループの音符の位置にア
クセント記号(∨)をつける。例えば、各音符毎の強弱
記号の時系列的配列(トラジェクトリ)が、「…pp,
pp,pp,mp,mp,pp,pp,pp,…」であ
るとし、「mp,mp」のグループの時間幅が記号付与
区間最小値よりも短い場合、上記を全てグループとして
「pp」記号を付与し、元の「mp,mp」のグループ
の音符の位置にアクセント記号(∨)をつける。
In the above example, an example will be described in which an accent symbol (∨) is used instead of a descriptive dynamic symbol such as mp (mezzo piano) or pp (pianissimo). The minimum value of the symbol assignment section corresponding to the minimum resolution of the section to which the dynamic symbol is assigned is determined, and the time width of one group in the chronological arrangement (trajectory) of the grouped dynamic symbols is smaller than the symbol assignment section minimum value. Is also shorter, and the dynamic symbols of the groups on both sides thereof are the same, and the dynamic symbols of the group having a time width shorter than the minimum value of the symbol assignment section are stronger than the dynamic symbols of the groups on both sides, the symbol Cancel the dynamic symbol of the group whose time width is shorter than the grant section minimum value, make it the same symbol as the dynamic symbol of the group on both sides,
All of them are in the same group, and an accent symbol (∨) is attached to the position of a note in a group having a time width shorter than the minimum value of the symbol-giving section. For example, the chronological arrangement (trajectory) of dynamic symbols for each note is "... pp,
pp, pp, mp, mp, pp, pp, pp,..., and when the time width of the group of “mp, mp” is shorter than the minimum value of the symbol-giving section, the above are all grouped as “pp” symbols. , And an accent mark (に) is added to the position of the note in the original “mp, mp” group.

【0057】図9に戻り、(D)では、(A)に示す基
本的応用形態に対してマスタ楽譜記号生成処理(ブロッ
ク39)が追加されている。この例では、オリジナル曲
の演奏データに全演奏パートに共通のマスタ楽譜記号
(たとえぱテンポを増/減制御する記号)を含んでいる
場合、マスタ楽譜記号生成処理(ブロック39)では、
該オリジナル曲から読み出した共通のマスタ楽譜記号
を、アレンジ処理(ブロック31)で生成したアレンジ
曲の演奏データでも共通の楽譜記号として使用するよう
に、楽譜化処理(ブロック35)を制御する。また、オ
リジナル曲の演奏データに共通のマスタ楽譜記号が含ま
れていない場合は、マスタ楽譜記号生成処理(ブロック
39)では、アレンジ処理(ブロック31)で生成した
アレンジ曲の演奏データから全パートに共通のマスタ楽
譜記号に対応する音楽的特徴を検出し、該検出した音楽
的特徴に対応してマスタ楽譜記号を生成し、生成したマ
スタ楽譜記号を該アレンジ曲のマスタ楽譜記号として使
用するように、楽譜化処理(ブロック35)を制御す
る。例えば、テンポが徐々に遅くなる(又は速くなる)
区間を検出した場合は、その区間に対応して「リタルダ
ンド記号」(又は「アッチェレランド記号」)を挿入す
る。マスタ楽譜記号生成処理(ブロック39)はCPU
1によって実行される。なお、マスタ楽譜記号生成処理
(ブロック39)では、オリジナル曲からの読出に基づ
くマスタ楽譜記号付与処理のみを行い、アレンジ曲演奏
データに基づくマスタ楽譜記号の生成処理は、(C)の
楽譜記号生成処理(ブロック38)で行うようにしても
よい。
Returning to FIG. 9, in (D), a master score symbol generation process (block 39) is added to the basic application form shown in (A). In this example, if the performance data of the original tune includes a master score symbol common to all performance parts (for example, a symbol for controlling the tempo increase / decrease), the master score symbol generation process (block 39)
The music notation process (block 35) is controlled so that the common master score symbol read from the original song is used as a common score symbol in the arranged song performance data generated in the arrangement process (block 31). If the performance data of the original music does not include a common master music notation symbol, in the master music notation symbol generation processing (block 39), the performance data of the arrangement music generated in the arrangement processing (block 31) is added to all parts. A musical feature corresponding to the common master musical notation symbol is detected, a master musical notation symbol is generated corresponding to the detected musical characteristic, and the generated master musical notation symbol is used as a master musical notation symbol of the arranged music. , The musical score conversion process (block 35). For example, the tempo gradually slows down (or speeds up)
If a section is detected, a "ritardand sign" (or "accelerand sign") is inserted corresponding to the section. The master score symbol generation processing (block 39) is executed by the CPU.
1 is performed. In the master score symbol generation process (block 39), only the master score symbol assignment process based on reading from the original song is performed, and the master score symbol generation process based on the arranged song performance data includes the score symbol generation process (C). The processing (block 38) may be performed.

【0058】図9(E)では、(A)に示す基本的応用
形態に対して演奏支援情報生成処理(ブロック40)が
追加されている。この演奏支援情報生成処理(ブロック
40)では、アレンジ処理(ブロック31)で生成した
アレンジ曲の演奏データから鍵盤演奏の運指情報のよう
な演奏支援情報を生成し、生成した演奏支援情報を楽譜
記号として使用するように、楽譜化処理(ブロック3
5)を制御する。この場合、楽譜に可視表示されるよう
な演奏支援情報(運指情報)には様々なタイプのものが
あってよい。例えば、「ゆっくり」とか「はやめに」と
かの言葉で、弾き方をアドバイスするような情報であっ
てもよい。また、演奏支援情報はアレンジ曲の演奏デー
タに付属させて提供することで、該アレンジ曲の演奏デ
ータを再生するときに該演奏支援情報を一緒に読み出
し、アレンジ曲の演奏ガイドを行うように制御すること
もできる。
In FIG. 9E, a performance support information generation process (block 40) is added to the basic application shown in FIG. 9A. In the performance support information generation process (block 40), performance support information such as fingering information for keyboard performance is generated from the performance data of the arranged music piece generated in the arrangement process (block 31), and the generated performance support information is stored in a musical score. Notation process (Block 3
5) is controlled. In this case, there may be various types of performance support information (fingering information) that is visually displayed on the musical score. For example, information that advises how to play with words such as "slowly" or "stop" may be used. Also, by providing the performance support information attached to the performance data of the arranged music, when the performance data of the arranged music is reproduced, the performance support information is read out together, and control is performed so as to guide the performance of the arranged music. You can also.

【0059】〔通信ネットワークを介在させた自動アレ
ンジシステムへの応用〕上記各実施例に従う自動アレン
ジ装置及び/又は方法を使用して、通信ネットワークを
介在させた自動アレンジシステムを構築することができ
る。このシステムを使用する事業は、有償又は無償の楽
曲自動アレンジビジネス若しくはアレンジ楽譜提供ビジ
ネスとして展開することができる。このシステムは、基
本的には、複数のクライアントコンピュータと少なくと
も1つのサーバーコンピュータが通信ネットワークを介
して接続されてなる。クライアントコンピュータ及びサ
ーバーコンピュータの基本的ハードウェア構成は、図1
に示したものと同様であってよい。なお、ユーザー(ク
ライアント)の依頼を受けてサーバーで自動アレンジ処
理を行う業務形態をとるものとするため、図2及び図5
等を参照して説明した自動アレンジ処理のためのプログ
ラムは、少なくともサーバーコンピュータ側に具備して
いればよい。勿論、クライアントコンピュータの側にそ
のような自動アレンジ処理プログラムを具備する実施形
態を排除するものではない。一方、サーバーコンピュー
タ側では、自動アレンジ処理のために必要なハードウェ
ア及びソフトウェアを具備していればよいので、音源回
路13や効果回路14、サウンドシステム15、演奏操
作子9などは具備していなくてもよい。
[Application to an Automatic Arrangement System with a Communication Network Interposed] An automatic arrangement system with a communication network interposed can be constructed using the automatic arrangement device and / or method according to each of the above embodiments. A business using this system can be developed as a paid or free music automatic arrangement business or an arranged music score providing business. This system basically includes a plurality of client computers and at least one server computer connected via a communication network. The basic hardware configuration of the client computer and the server computer is shown in FIG.
May be the same as that shown in FIG. In order to adopt a business mode in which the server performs an automatic arrangement process in response to a request from a user (client), FIGS.
The program for the automatic arrangement process described with reference to the above may be provided at least on the server computer side. Of course, this does not exclude an embodiment in which such an automatic arrangement processing program is provided on the client computer side. On the other hand, the server computer only needs to have the necessary hardware and software for the automatic arrangement processing. You may.

【0060】図10は、通信ネットワークを介してアレ
ンジを提供するためのシステムの第1の実施形態を示す
概略的なフローチャートである。左側で「クライアント
コンピュータ」と標記されたフローは、クライアントコ
ンピュータにおける処理の流れを略示している。右側で
「サーバーコンピュータ」と標記されたフローは、サー
バーコンピュータにおける処理の流れを略示している。
まず、ステップS31では、クライアント(ユーザー)
がアレンジしたいオリジナル曲の演奏データを用意し、
クライアントコンピュータにロードすることで、クライ
アントコンピュータが該オリジナル曲の演奏データを取
得する。ステップS32では、取得したオリジナル曲の
演奏データをクライアント(ユーザー)の操作に従っ
て、通信ネットワーク18を介してサーバーに送信す
る。サーバーコンピュータでは、通信ネットワーク18
を介して送信されてきたオリジナル曲の演奏データを受
信し内部メモリに取り込む(ステップS41)。これに
よって、クライアントコンピュータは、アレンジすべき
オリジナル曲の演奏データを取得することになる。な
お、この変形例として、クライアント側では、アレンジ
依頼したいオリジナル曲の名称等の情報のみをサーバー
に送信することでオリジナル曲を指定し、該指定された
オリジナル曲の演奏データはサーバー側の処理によって
適宜のデータベースから取得するようにしてもよい。
FIG. 10 is a schematic flowchart showing a first embodiment of a system for providing arrangement via a communication network. The flow labeled “Client Computer” on the left side schematically shows the flow of processing in the client computer. The flow labeled “server computer” on the right side schematically shows the flow of processing in the server computer.
First, in step S31, the client (user)
Prepare the performance data of the original song that you want to arrange,
By loading the data on the client computer, the client computer acquires the performance data of the original music. In step S32, the acquired original music performance data is transmitted to the server via the communication network 18 according to the operation of the client (user). In the server computer, the communication network 18
The performance data of the original tune transmitted via the PC is received and loaded into the internal memory (step S41). As a result, the client computer acquires the performance data of the original music to be arranged. As a modification, the client specifies the original song by transmitting only information such as the name of the original song to be arranged to the server, and the performance data of the specified original song is processed by the server. It may be obtained from an appropriate database.

【0061】次に、サーバーコンピュータでは、上述の
各実施例に従うやり方で、オリジナル曲の演奏データに
基づきアレンジ曲の演奏データを生成し、これに対応す
る楽譜データを生成する(ステップS42,S43)。
そして、生成したアレンジ曲の楽譜データを依頼元のク
ライアントコンピュータに対して通信ネットワーク18
を介してディジタルデータ通信形式で配信する(ステッ
プS44)。依頼元のクライアントコンピュータ側で
は、サーバーからディジタルデータ通信形式で配信され
たアレンジ曲の楽譜データを通信ネットワーク18を介
して受信する(ステップS33)。そして、受信したア
レンジ曲の楽譜データをディスプレイ表示したり、プリ
ンタで印刷出力したりして使用する(ステップS3
4)。なお、サーバーから送信するアレンジ曲の楽譜デ
ータは、可視的に楽譜を表示するための画像データある
いはテキストデータ等のみからなっていて、アレンジ曲
の自動演奏を可能にするMIDIデータ等の演奏データ
を含んでいなくてもよい。勿論、サーバーから送信する
アレンジ曲の楽譜データと共にMIDIデータ等の演奏
データを含むようにしてもよく、その場合は、該演奏デ
ータに基づき自動演奏を行わせることでユーザー(クラ
イアント)はアレンジ曲のできばえを即座に確認でき
る。
Next, the server computer generates the performance data of the arranged music based on the performance data of the original music and generates the corresponding musical score data in a manner according to the above-described embodiments (steps S42 and S43). .
Then, the generated score data of the arranged music is transmitted to the client computer of the request source via the communication network 18.
(Step S44). The requesting client computer receives the music score data of the arranged music distributed from the server in the digital data communication format via the communication network 18 (step S33). Then, the received musical score data of the arranged music is displayed on a display or printed out by a printer for use (step S3).
4). Note that the music score data of the arranged music transmitted from the server includes only image data or text data for visually displaying the music score, and includes performance data such as MIDI data that enables automatic performance of the arranged music. It may not be included. Of course, performance data such as MIDI data may be included together with the music score data of the arranged music transmitted from the server. In this case, the user (client) can perform the automatic performance based on the performance data so that the user (client) can play the arranged music. Can be checked immediately.

【0062】図11は、通信ネットワークを介してアレ
ンジを提供するためのシステムの第2の実施形態を示す
概略的なフローチャートである。この第2の実施形態で
は、クライアントコンピュータからサーバーコンピュー
タに対するアレンジ依頼(オリジナル曲の演奏データの
送付)は通信ネットワーク18を介してディジタルデー
タ通信形式で行うが、サーバーコンピュータで完成した
アレンジ曲の楽譜データは、ファクシミリでユーザー
(クライアント)に電子写真電送される。図11におい
て、図10と同一符号のステップは同一処理を行うので
詳しい説明は省略する。この場合、サーバーコンピュー
タでは完成したアレンジ曲の楽譜をプリンタで印刷出力
し(ステップS45)、この楽譜をファクシミリでユー
ザー(クライアント)に電子写真電送する(ステップS
46)。なお、サーバーコンピュータがアレンジ曲の楽
譜データを印刷出力することなく、ファクシミリ電送で
きる機能を有している場合は、ステップS45は省略で
きる。ユーザー(クライアント)側では、サーバーから
ファクシミリ電送されてきたアレンジ曲の楽譜を自己の
ファクシミリ装置で受信し(ステップS35)、受信し
た楽譜を印刷出力する(ステップS36)。
FIG. 11 is a schematic flowchart showing a second embodiment of a system for providing arrangement via a communication network. In the second embodiment, an arrangement request (sending original music performance data) from a client computer to a server computer is performed in a digital data communication format via the communication network 18, but the music score data of the arranged music completed by the server computer is transmitted. Is electronically transmitted to the user (client) by facsimile. In FIG. 11, the steps denoted by the same reference numerals as those in FIG. In this case, the server computer prints out the completed musical score of the arranged song by a printer (step S45), and transmits the musical score to the user (client) by facsimile (step S45).
46). If the server computer has a function capable of facsimile transmission without printing out the musical score data of the arranged music, step S45 can be omitted. On the user (client) side, the musical score of the arranged song transmitted by facsimile from the server is received by its own facsimile device (step S35), and the received musical score is printed out (step S36).

【0063】図12は、通信ネットワークを介してアレ
ンジを提供するためのシステムの第3の実施形態を示す
概略的なフローチャートである。この第3の実施形態で
は、クライアントコンピュータからサーバーコンピュー
タに対するアレンジ依頼(オリジナル曲の演奏データの
送付)は通信ネットワーク18を介してディジタルデー
タ通信形式で行うが、サーバーコンピュータで完成した
アレンジ曲の楽譜データは、郵便又は宅配便等でユーザ
ー(クライアント)に配達される。図12において、図
10、図11と同一符号のステップは同一処理を行うの
で詳しい説明は省略する。この場合、サーバーコンピュ
ータでは完成したアレンジ曲の楽譜をプリンタで印刷出
力し(ステップS45)、この楽譜印刷物を郵便又は宅
配便等でユーザー(クライアント)宛に送付する(ステ
ップS47)。ユーザー(クライアント)側では、サー
バーから配達されてきたアレンジ曲の楽譜印刷物を受理
する(ステップS37)。
FIG. 12 is a schematic flowchart showing a third embodiment of a system for providing arrangement via a communication network. In the third embodiment, the arrangement request (transmission of the original music performance data) from the client computer to the server computer is performed in a digital data communication format via the communication network 18, but the music score data of the arrangement music completed by the server computer is transmitted. Is delivered to the user (client) by mail or courier service. In FIG. 12, the steps denoted by the same reference numerals as those in FIGS. In this case, the server computer prints out the completed musical score of the arranged music by a printer (step S45), and sends the printed musical score to the user (client) by mail or courier (step S47). The user (client) receives the musical score printout of the arranged music delivered from the server (step S37).

【0064】上記実施例では、アレンジのタイプが「ピ
アノソロ」タイプ(若しくはその他楽器のソロタイプ)
と「弾き語りタイプ」の例について説明したが、これら
のタイプの例示は説明のための便宜的一例にすぎないも
のである。よって、本発明の要旨はこれらのタイプ名や
実施例に限定されるものではない。また、本発明で「演
奏データ」とは、MIDIデータ等の自動演奏データに
限定されるものではなく、楽譜データ等をも含むもので
あり、要するに演奏に関連するデータであればよい。ま
た、「オリジナル曲」及び「アレンジ曲」のいずれにお
ける演奏データの形式も、MIDI規格のものに限定さ
れず、カラオケ曲や携帯通信端末用の着信メロディ等で
使用されているように非MIDI規格のデータであって
もよい。また、「オリジナル曲」及び「アレンジ曲」の
演奏データのデータ形式が相違していてもよい。その場
合は、例えば、上記各実施例に従って、まず、「オリジ
ナル曲」の演奏データと同じデータ形式で「アレンジ
曲」の演奏データを生成し、その後、生成した「アレン
ジ曲」の演奏データを所望のデータ形式に変換すればよ
い。あるいはその逆に、まず「オリジナル曲」の演奏デ
ータを所望のデータ形式に変換し、その後、上記各実施
例に従って、「オリジナル曲」の演奏データから「アレ
ンジ曲」の演奏データを生成するようにしてもよい。ま
た、もちろん、本発明は、図10〜12に示したような
通信ネットワークを介在させたシステム構成に限らず、
図1に示すような単体装置だけでもって構成することも
できるものである。
In the above embodiment, the arrangement type is the “piano solo” type (or other musical instrument solo type).
And the examples of the "playing type" are described, but the illustration of these types is merely an example for convenience of explanation. Therefore, the gist of the present invention is not limited to these type names and examples. In the present invention, "performance data" is not limited to automatic performance data such as MIDI data, but also includes musical score data and the like. Also, the format of the performance data in any of the “original music” and the “arranged music” is not limited to the MIDI standard, but is a non-MIDI standard as used in karaoke music and ringtones for portable communication terminals. Data. Further, the data formats of the performance data of the “original music” and the “arranged music” may be different. In this case, for example, according to the above embodiments, first, the performance data of the “arranged music” is generated in the same data format as the performance data of the “original music”, and then the generated performance data of the “arranged music” is desired. What is necessary is just to convert into the data format of. Or conversely, first, the performance data of the "original song" is converted into a desired data format, and then the performance data of the "arranged song" is generated from the performance data of the "original song" according to the above-described embodiments. You may. Also, of course, the present invention is not limited to a system configuration in which a communication network is interposed as shown in FIGS.
It can also be configured with only a single device as shown in FIG.

【0065】[0065]

【発明の効果】以上の通り、この発明によれば、アレン
ジ曲の伴奏用パートの演奏データは、オリジナル曲の演
奏データのうちメロディパートに該当するトラック以外
のトラックの演奏データから各部分的区間毎の演奏デー
タを選択的に取り出し、取り出した各部分的区間毎の演
奏データの組み合わせに基づき生成されるので、オリジ
ナル曲における各部分的区間毎の伴奏の良い部分を取り
出すことで、比較的簡単に、オリジナル曲の雰囲気を生
かした、良い伴奏アレンジを作成できる。また、オリジ
ナル曲の演奏データのうちメロディパートに該当するト
ラック以外のトラックの演奏データから各部分的区間毎
の演奏データを選択的に取り出し、取り出した各部分的
区間毎の演奏データの組み合わせに基づき1次的な伴奏
用データを生成し、この1次的な伴奏用データを音域に
応じて2つのパートに分けることにより2つの伴奏用パ
ートの演奏データを生成するようにした場合は、2パー
トからなるアレンジを容易に作成できる。
As described above, according to the present invention, the performance data of the accompaniment part of the arrangement music is obtained from the performance data of the tracks other than the track corresponding to the melody part in the performance data of the original music, in each partial section. Each piece of performance data is selectively extracted and generated based on a combination of the extracted pieces of performance data of each partial section. Therefore, it is relatively easy to extract the good accompaniment part of each partial section of the original music. In addition, you can create a good accompaniment arrangement that makes use of the atmosphere of the original song. Also, the performance data of each partial section is selectively extracted from the performance data of the tracks other than the track corresponding to the melody part out of the performance data of the original music, and based on the combination of the extracted performance data of each partial section. When the primary accompaniment data is generated and the primary accompaniment data is divided into two parts according to the range, the performance data of the two accompaniment parts is generated. Can be easily created.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明に係る自動アレンジ装置及び方法を
実施するために使用可能な電子楽器若しくはコンピュー
タのハード構成例を示すブロック図。
FIG. 1 is a block diagram showing an example of a hardware configuration of an electronic musical instrument or a computer that can be used to implement an automatic arrangement device and method according to the present invention.

【図2】 図1のCPUで実行可能な本発明の一実施例
に従う自動アレンジ処理のプログラムの一例を略示する
フロー図。
FIG. 2 is a flowchart schematically illustrating an example of a program for an automatic arrangement process according to an embodiment of the present invention, which can be executed by the CPU of FIG. 1;

【図3】 図2の実施例に従って「ピアノソロ」タイプ
の自動アレンジ処理を行い、オリジナル曲の演奏データ
からアレンジ曲の演奏データを生成する一例を、理解し
やすくするために示す模式図。
FIG. 3 is a schematic diagram showing an example of performing “piano solo” type automatic arrangement processing in accordance with the embodiment of FIG. 2 and generating performance data of an arranged music piece from performance data of an original music piece for easy understanding.

【図4】 図2の実施例においてアレンジ曲のメロディ
パートの演奏データをマージで作成する例を理解しやす
くするために示す模式図。
FIG. 4 is a schematic diagram for easy understanding of an example in which performance data of a melody part of an arrangement music piece is created by merging in the embodiment of FIG. 2;

【図5】 図1のCPUで実行可能な本発明の別の一実
施例に従う自動アレンジ処理のプログラムの一例を略示
するフロー図。
FIG. 5 is a flowchart schematically showing an example of a program for an automatic arrangement process according to another embodiment of the present invention, which can be executed by the CPU of FIG. 1;

【図6】 図5の実施例に従って「弾き語り」タイプの
自動アレンジ処理を行い、オリジナル曲の演奏データか
らアレンジ曲の演奏データを生成する一例を、理解しや
すくするために示す模式図。
FIG. 6 is a schematic diagram showing an example of performing “playing story” type automatic arrangement processing according to the embodiment of FIG. 5 and generating performance data of an arranged music piece from performance data of an original music piece for easy understanding.

【図7】 本発明の更に別の一実施例に従う自動アレン
ジ処理の概念的略図。
FIG. 7 is a conceptual diagram of an automatic arrangement process according to yet another embodiment of the present invention.

【図8】 上記各実施例に従って生成したアレンジ曲の
演奏データに基づき、該アレンジ曲を実際に演奏して発
音する応用形態を示す概念的ブロック図。
FIG. 8 is a conceptual block diagram showing an application form in which the arranged music is actually played and pronounced based on the performance data of the arranged music generated according to each of the embodiments.

【図9】 上記各実施例に従って生成したアレンジ曲の
演奏データに基づき、該アレンジ曲の楽譜を電子的ディ
スプレイで可視的に表示する、あるいはプリンタでプリ
ントアウトして可視的楽譜印刷物を提供する応用形態を
示す概念的ブロック図であり、(A)はその基本的応用
形態、(B)〜(E)はその改良的応用形態、を示す。
FIG. 9 is an application in which a musical score of the arranged music is visually displayed on an electronic display based on performance data of the arranged music generated in accordance with each of the above-described embodiments, or printed out by a printer to provide a visual score printed matter. It is a conceptual block diagram which shows a form, (A) shows the basic applied form, (B)-(E) shows the improved applied form.

【図10】 通信ネットワークを介してアレンジを提供
するためのシステムの第1の実施形態を示す概略的なフ
ローチャート。
FIG. 10 is a schematic flowchart illustrating a first embodiment of a system for providing arrangement via a communication network.

【図11】 通信ネットワークを介してアレンジを提供
するためのシステムの第2の実施形態を示す概略的なフ
ローチャート。
FIG. 11 is a schematic flowchart illustrating a second embodiment of a system for providing an arrangement via a communication network.

【図12】 通信ネットワークを介してアレンジを提供
するためのシステムの第3の実施形態を示す概略的なフ
ローチャート。
FIG. 12 is a schematic flowchart illustrating a third embodiment of a system for providing arrangements via a communication network.

【符号の説明】[Explanation of symbols]

1 CPU 2 リードオンリメモリ(ROM) 3 ランダムアクセスメモリ(RAM) 6 外部記憶装置ドライブ 7 MIDIインタフェース 8 通信インタフェース 9 演奏操作子(鍵盤等) 10 パネル操作子 11 ディスプレイ 12 プリンタ 13 音源回路 20 伴奏パターン発生部 DESCRIPTION OF SYMBOLS 1 CPU 2 Read only memory (ROM) 3 Random access memory (RAM) 6 External storage device drive 7 MIDI interface 8 Communication interface 9 Performance operator (keyboard etc.) 10 Panel operator 11 Display 12 Printer 13 Sound generator circuit 20 Accompaniment pattern generation Department

Claims (29)

【特許請求の範囲】[Claims] 【請求項1】 複数トラックの演奏データからなるオリ
ジナル曲の演奏データを取得する手段と、 前記オリジナル曲の演奏データのうちメロディパートに
該当するトラックの演奏データを取り出し、取り出した
該トラックの演奏データを基にしてアレンジ曲のメロデ
ィパートの演奏データを生成するアレンジメロディ生成
手段と、 前記オリジナル曲の演奏データのうち前記メロディパー
トに該当するトラック以外の複数のトラックの演奏デー
タから各部分的区間毎の演奏データを選択的に取り出
し、取り出した各部分的区間毎の演奏データの組み合わ
せに基づきアレンジ曲における少なくとも1つの伴奏用
パートの演奏データを生成するアレンジ伴奏生成手段と
を具える自動アレンジ装置。
A means for acquiring performance data of an original song composed of performance data of a plurality of tracks; and extracting performance data of a track corresponding to a melody part from the performance data of the original song; Arranging melody generating means for generating performance data of a melody part of the arranged music based on the melody part; And an arrangement accompaniment generating means for generating performance data of at least one accompaniment part in the arranged music piece based on a combination of the performance data of each extracted partial section.
【請求項2】 前記アレンジ伴奏生成手段は、前記取り
出した各部分的区間毎の演奏データの組み合わせに基づ
き1つの伴奏用パートの演奏データを1次的に生成し、
1次的に生成した1つの伴奏用パートの演奏データを音
域に応じて2つのパートに分けることにより2つの伴奏
用パートの演奏データを生成する請求項1に記載の自動
アレンジ装置。
2. An arrangement accompaniment generating means for temporarily generating performance data of one accompaniment part based on a combination of the retrieved performance data for each partial section,
2. The automatic arrangement apparatus according to claim 1, wherein the performance data of two accompaniment parts is generated by dividing the performance data of one accompaniment part that is temporarily generated into two parts according to a range.
【請求項3】 前記アレンジメロディ生成手段は、前記
オリジナル曲の演奏データのうちメロディパートに該当
する1トラックの演奏データを取り出すと共に、前記オ
リジナル曲の演奏データのうち前記1トラック以外の他
のトラックの演奏データから一部の区間の演奏データを
取り出し、取り出した前記1トラックの演奏データに前
記他のトラックの一部の区間の演奏データを追加するこ
とに基づき前記アレンジ曲のメロディパートの演奏デー
タを生成する請求項1又は2に記載の自動アレンジ装
置。
3. The arrangement melody generating means retrieves performance data of one track corresponding to a melody part from the performance data of the original music, and other tracks other than the one track of the performance data of the original music. The performance data of the melody part of the arranged music is obtained by extracting the performance data of a part of the section from the performance data of the track and adding the performance data of the part of the other track to the extracted performance data of the one track. The automatic arrangement device according to claim 1, wherein the automatic arrangement device generates:
【請求項4】 前記アレンジ伴奏生成手段では、前記オ
リジナル曲の演奏データから取り出した前記メロディパ
ートに該当する1トラックの演奏データのうち所定期間
以上の無音区間を検出する手段を含み、検出した無音区
間に対応して前記他のトラックの一部の区間の演奏デー
タを取り出し、取り出した前記1トラックの演奏データ
の前記無音区間に前記他のトラックの一部の区間の演奏
データを追加することに基づき前記アレンジ曲のメロデ
ィパートの演奏データを生成する請求項3に記載の自動
アレンジ装置。
4. The arrangement accompaniment generating means includes means for detecting a silent section for a predetermined period or more in the performance data of one track corresponding to the melody part extracted from the performance data of the original music. Extracting performance data of a part of the other track corresponding to the section, and adding performance data of a part of the other track to the silence section of the extracted performance data of the one track; 4. The automatic arrangement device according to claim 3, wherein performance data of a melody part of the arrangement music is generated based on the arrangement music.
【請求項5】 前記アレンジ伴奏生成手段では、前記ア
レンジメロディ生成手段において前記アレンジ曲のメロ
ディパートの演奏データとして使用された前記他のトラ
ックの前記一部の区間の演奏データは、前記アレンジ曲
の伴奏用パートの演奏データとして使用しないようにす
る請求項3又は4に記載の自動アレンジ装置。
5. The arrangement accompaniment generation means, wherein the performance data of the partial track of the other track used as the performance data of the melody part of the arrangement music piece by the arrangement melody generation means is the music data of the arrangement music piece. 5. The automatic arrangement device according to claim 3, wherein the automatic arrangement device is not used as performance data of an accompaniment part.
【請求項6】 優先させる音色を設定する手段を具備
し、前記アレンジ伴奏生成手段は、前記オリジナル曲の
演奏データのうちメロディパート以外のパートのうち前
記優先させる音色に該当するパートの演奏データを優先
して、前記部分的区間の演奏データを取り出す請求項1
乃至5のいずれかに記載の自動アレンジ装置。
6. An arrangement accompaniment generating means for setting a tone color to be prioritized, wherein the arrangement accompaniment generating means converts performance data of a part corresponding to the priority tone color out of parts other than the melody part in the performance data of the original music. 2. The performance data of the partial section is taken out preferentially.
6. The automatic arrangement device according to any one of claims 1 to 5.
【請求項7】 前記アレンジ曲の伴奏用パートの音色と
して設定される音色を、前記優先させる音色として設定
する請求項6に記載の自動アレンジ装置。
7. The automatic arrangement device according to claim 6, wherein a tone color set as a tone color of an accompaniment part of the arranged music piece is set as the priority tone color.
【請求項8】 前記アレンジ伴奏生成手段は、前記オリ
ジナル曲の演奏データのうちメロディパートに該当する
トラックとベースパートに該当するトラック以外のトラ
ックの演奏データから各部分的区間毎の演奏データを選
択的に取り出すと共に、前記オリジナル曲の演奏データ
のうちベースパートに該当するトラックの演奏データを
少なくとも一部の区間で取り出し、取り出した前記各部
分的区間毎の演奏データの組み合わせに対して前記取り
出した一部の区間のベースパートの演奏データを付加す
ることに基づきアレンジ曲における前記少なくとも1つ
の伴奏用パートの演奏データを生成する請求項1乃至5
のいずれかに記載の自動アレンジ装置。
8. The arrangement accompaniment generation means selects performance data for each partial section from performance data of a track other than a track corresponding to a melody part and a track corresponding to a base part among performance data of the original music. The performance data of the track corresponding to the base part of the performance data of the original music is taken out at least in some sections, and the combination of the taken out performance data of each of the partial sections is taken out. 6. The performance data of the at least one accompaniment part in the arranged music piece is generated based on the addition of the performance data of the base part of some sections.
The automatic arrangement device according to any one of the above.
【請求項9】 前記アレンジ伴奏生成手段は、前記オリ
ジナル曲の演奏データのうちメロディパート、ベースパ
ート及びドラムパート以外のパートに該当する複数のト
ラックの演奏データから、各部分的区間毎に、音楽的に
目立つ演奏データを選択的に取り出す請求項1乃至5の
いずれかに記載の自動アレンジ装置。
9. The arrangement accompaniment generation means, based on performance data of a plurality of tracks corresponding to parts other than a melody part, a bass part, and a drum part in the performance data of the original music, generates music for each partial section. The automatic arrangement device according to any one of claims 1 to 5, wherein performance data that is conspicuous is selectively extracted.
【請求項10】 前記アレンジメロディ生成手段は、前
記オリジナル曲から取り出した演奏データを加工し、加
工した演奏データをアレンジ曲のメロディパートの演奏
データとして使用することを含み、 前記アレンジ伴奏生成手段は、前記オリジナル曲から取
り出した演奏データを加工し、加工した演奏データをア
レンジ曲の伴奏パートの演奏データとして使用すること
を含む請求項1乃至9のいずれかに記載の自動アレンジ
装置。
10. The arrangement melody generating means includes processing performance data extracted from the original music piece, and using the processed performance data as performance data of a melody part of the arranged music piece. 10. The automatic arrangement apparatus according to claim 1, further comprising processing performance data extracted from the original music piece, and using the processed performance data as performance data of an accompaniment part of the arranged music piece.
【請求項11】 前記アレンジ伴奏生成手段における演
奏データの加工は、特定の発音イベントの演奏データを
選択し、選択した演奏データをアレンジ曲の伴奏パート
の演奏データとして使用することを含み、前記オリジナ
ル曲の演奏データのうち所定のドラム音のパートの演奏
データの発音タイミングを利用して該特定の発音イベン
トの演奏データの選択を行なうようにした請求項10に
記載の自動アレンジ装置。
11. The processing of the performance data in the arrangement accompaniment generation means includes selecting performance data of a specific sounding event and using the selected performance data as performance data of an accompaniment part of the arranged music. 11. The automatic arrangement device according to claim 10, wherein the performance data of the specific sounding event is selected by using the sounding timing of the performance data of a predetermined drum sound part among the music performance data.
【請求項12】 前記アレンジメロディ生成手段及び前
記アレンジ伴奏生成手段の少なくとも一方は、曲の調又
はコードに応じて付加音の演奏データを生成する手段を
含み、生成した付加音の演奏データを、アレンジ曲のメ
ロディパート又は伴奏パートの演奏データに付加する請
求項1乃至9のいずれかに記載の自動アレンジ装置。
12. At least one of the arrangement melody generation means and the arrangement accompaniment generation means includes means for generating performance data of an additional sound in accordance with a key or a chord of a music piece. The automatic arrangement device according to any one of claims 1 to 9, wherein the automatic arrangement device is added to performance data of a melody part or an accompaniment part of the arranged music.
【請求項13】 前記アレンジメロディ生成手段及び前
記アレンジ伴奏生成手段の少なくとも一方は、前記オリ
ジナル曲から取り出した演奏データから同時演奏数を考
慮して演奏データを減らすことを含む請求項1乃至9の
いずれかに記載の自動アレンジ装置。
13. The apparatus according to claim 1, wherein at least one of the arrangement melody generating means and the arrangement accompaniment generating means includes reducing performance data in consideration of the number of simultaneous performances from the performance data extracted from the original music. The automatic arrangement device according to any one of the above.
【請求項14】 前記オリジナル曲の演奏データは、該
オリジナル曲の曲構成を音楽的区間で区別するセクショ
ン情報を含んでおり、 前記アレンジ伴奏生成手段は、前記セクション情報が示
す音楽的区間毎に、前記オリジナル曲の演奏データのう
ち前記メロディパートに該当するトラック以外の前記複
数のトラックの演奏データから該区間毎の演奏データを
選択的に取り出すことを含む請求項1乃至13のいずれ
かに記載の自動アレンジ装置。
14. The performance data of the original music piece includes section information for distinguishing the music composition of the original music piece by a music section, and the arrangement accompaniment generation means includes: for each music section shown by the section information; 14. The method according to claim 1, further comprising selectively extracting performance data for each section from the performance data of the plurality of tracks other than the track corresponding to the melody part out of the performance data of the original music. Automatic arrangement equipment.
【請求項15】 更に、前記オリジナル曲の演奏データ
とは別に伴奏データを提供する伴奏データ提供手段を具
備し、 前記アレンジ伴奏生成手段は、前記オリジナル曲の演奏
データのうち前記メロディパートに該当するトラック以
外のトラックの演奏データと前記伴奏データ提供手段か
らの伴奏データとから各部分的区間毎に演奏データまた
は伴奏データを選択的に取り出し、取り出した各部分的
区間毎の演奏データ及び伴奏データの組み合わせに基づ
きアレンジ曲における前記少なくとも1つの伴奏用パー
トの演奏データを生成する請求項1乃至14のいずれか
に記載の自動アレンジ装置。
15. An accompaniment data providing means for providing accompaniment data separately from the performance data of the original music piece, wherein the arrangement accompaniment generation means corresponds to the melody part in the performance data of the original music piece. Performance data or accompaniment data is selectively extracted for each partial section from the performance data of tracks other than the track and the accompaniment data from the accompaniment data providing means, and the performance data and accompaniment data of each extracted partial section are extracted. 15. The automatic arrangement apparatus according to claim 1, wherein performance data of the at least one accompaniment part in the arranged music is generated based on the combination.
【請求項16】 複数トラックの演奏データからなるオ
リジナル曲の演奏データを取得する手段と、 前記オリジナル曲の複数のトラックの演奏データから各
部分的区間毎の演奏データを選択的に取り出し、取り出
した各部分的区間毎の演奏データの組み合わせに基づき
1トラック分のアレンジ曲演奏データを生成する1次的
データ生成手段と、 前記生成した1トラック分のアレンジ曲演奏データを音
域に応じて2つのパートに分けることにより2トラック
からなるアレンジ曲の演奏データを生成する2次的デー
タ生成手段とを具える自動アレンジ装置。
16. A means for acquiring performance data of an original music composed of performance data of a plurality of tracks; and selectively extracting performance data of each partial section from the performance data of a plurality of tracks of the original music. Primary data generating means for generating one-track arrangement music performance data based on a combination of performance data for each partial section; and two-part arrangement of the generated one-track arrangement music performance data in accordance with a range. And a secondary data generating means for generating performance data of an arrangement music composed of two tracks by dividing the data into two.
【請求項17】 前記オリジナル曲の演奏データは、各
演奏パート毎に楽譜記号を含んでおり、 前記オリジナル曲から取り出した演奏データに対応して
楽譜記号が存在しているならば、該楽譜記号をアレンジ
曲の楽譜記号として使用するようにした請求項1乃至1
6のいずれかに記載の自動アレンジ装置。
17. The performance data of the original music piece includes a musical notation symbol for each performance part. Is used as a musical notation symbol of an arrangement music.
7. The automatic arrangement device according to any one of 6.
【請求項18】 生成した前記アレンジ曲の演奏データ
から各種楽譜記号に対応する音楽的特徴を検出する手段
を含み、検出された音楽的特徴に対応して楽譜記号を生
成し、生成した楽譜記号を該アレンジ曲の演奏データに
付属させて提供するようにした請求項1乃至16のいず
れかに記載の自動アレンジ装置。
18. A musical score symbol corresponding to various musical notation symbols is detected from the generated musical performance data of the arranged music, a musical notation symbol is generated corresponding to the detected musical characteristic, and the generated musical notation symbol is generated. 18. The automatic arrangement device according to claim 1, wherein the automatic arrangement device is provided in association with performance data of the arranged music piece.
【請求項19】 前記オリジナル曲の演奏データは、全
演奏パートに共通の楽譜記号を含んでおり、 前記共通の楽譜記号を前記生成したアレンジ曲の演奏デ
ータに共通の楽譜記号として使用する請求項1乃至16
のいずれかに記載の自動アレンジ装置。
19. The performance data of the original music piece includes a music score symbol common to all performance parts, and the common music score symbol is used as a music score symbol common to the performance data of the generated arranged music piece. 1 to 16
The automatic arrangement device according to any one of the above.
【請求項20】 前記生成したアレンジ曲に関連して演
奏支援情報を供給する手段を含み、該演奏支援情報を該
アレンジ曲の演奏データに付属させて提供するようにし
た請求項1乃至19のいずれかに記載の自動アレンジ装
置。
20. The apparatus according to claim 1, further comprising means for supplying performance support information in association with said generated arrangement music, wherein said performance support information is provided in association with performance data of said arrangement music. The automatic arrangement device according to any one of the above.
【請求項21】 生成した前記アレンジ曲の演奏データ
を楽譜形式で可視的に提供する手段を更に具えた請求項
1乃至20のいずれかに記載の自動アレンジ装置。
21. The automatic arrangement apparatus according to claim 1, further comprising means for visually providing the generated performance data of the arranged music in a musical score format.
【請求項22】 前記オリジナル曲の演奏データを取得
する手段では、通信ネットワークを介したクライアント
からの依頼に基づき該オリジナル曲の演奏データを取得
し、 前記生成したアレンジ曲の演奏データを通信ネットワー
クを介して前記クライアント宛に配信する手段を更に具
えた請求項1乃至20のいずれかに記載の自動アレンジ
装置。
22. A means for acquiring the performance data of the original music piece, acquires the performance data of the original music piece based on a request from a client via a communication network, and transmits the generated performance data of the arranged music piece to a communication network. 21. The automatic arranging apparatus according to claim 1, further comprising: means for distributing to the client via a personal computer.
【請求項23】 前記オリジナル曲の演奏データを取得
する手段では、通信ネットワークを介したクライアント
からの依頼に基づき該オリジナル曲の演奏データを取得
し、 前記生成したアレンジ曲の演奏データの楽譜を通信ネッ
トワークを介して前記クライアント宛にファクシミリ配
信する手段を更に具えた請求項1乃至20のいずれかに
記載の自動アレンジ装置。
23. A means for acquiring the performance data of the original music piece, acquires the performance data of the original music piece based on a request from a client via a communication network, and communicates the music score of the generated music data of the arranged music piece. 21. The automatic arranging apparatus according to claim 1, further comprising means for performing facsimile delivery to said client via a network.
【請求項24】 前記オリジナル曲の演奏データを取得
する手段では、通信ネットワークを介したクライアント
からの依頼に基づき該オリジナル曲の演奏データを取得
し、 前記生成したアレンジ曲の演奏データの楽譜を印刷物と
して提供する手段を更に具え、該アレンジ曲の楽譜印刷
物を前記クライアント宛に配達できるようにした請求項
1乃至20のいずれかに記載の自動アレンジ装置。
24. A means for acquiring performance data of the original music piece, acquires performance data of the original music piece based on a request from a client via a communication network, and prints a musical score of the generated music data of the arranged music piece. 21. The automatic arranging apparatus according to claim 1, further comprising: means for providing a printed musical score of the arranged music piece to the client.
【請求項25】 機械読み取り可能な記憶媒体であっ
て、自動アレンジ方法を前記機械に実行させるための命
令群を内容としており、前記自動アレンジ方法は、 複数トラックの演奏データからなるオリジナル曲の演奏
データを取得するステップと、 前記オリジナル曲の演奏データのうちメロディパートに
該当するトラックの演奏データを取り出し、取り出した
該トラックの演奏データを基にしてアレンジ曲のメロデ
ィパートの演奏データを生成するステップと、 前記オリジナル曲の演奏データのうち前記メロディパー
トに該当するトラック以外の複数のトラックの演奏デー
タから各部分的区間毎の演奏データを選択的に取り出
し、取り出した各部分的区間毎の演奏データの組み合わ
せに基づきアレンジ曲における少なくとも1つの伴奏用
パートの演奏データを生成するステップとを具える。
25. A machine readable storage medium containing instructions for causing the machine to execute an automatic arranging method, wherein the automatic arranging method comprises the steps of playing an original music composed of performance data of a plurality of tracks. Obtaining data; and extracting performance data of a track corresponding to the melody part from the performance data of the original song, and generating performance data of a melody part of the arranged music based on the extracted performance data of the track. And selectively extracting performance data of each partial section from the performance data of a plurality of tracks other than the track corresponding to the melody part of the performance data of the original music, and performing the performance data of each extracted partial section. At least one accompaniment par in an arrangement tune based on the combination of And generating performance data of the performance.
【請求項26】 前記アレンジ曲における少なくとも1
つの伴奏用パートの演奏データを生成するステップは、
前記取り出した各部分的区間毎の演奏データの組み合わ
せに基づき1つの伴奏用パートの演奏データを1次的に
生成し、1次的に生成した1つの伴奏用パートの演奏デ
ータを音域に応じて2つのパートに分けることにより2
つの1つの伴奏用パートの演奏データを生成する請求項
25に記載の記憶媒体。
26. At least one of the arranged songs
The step of generating performance data of two accompaniment parts includes:
The performance data of one accompaniment part is primarily generated based on the combination of the performance data for each of the extracted partial sections, and the performance data of the one accompaniment part that is primarily generated is determined according to the range. By dividing it into two parts,
26. The storage medium according to claim 25, wherein performance data of one accompaniment part is generated.
【請求項27】 更に、前記オリジナル曲の演奏データ
とは別に伴奏データを提供する伴奏データ提供ステップ
を具備し、 前記アレンジ曲における少なくとも1つの伴奏用パート
の演奏データを生成するステップは、前記オリジナル曲
の演奏データのうち前記メロディパートに該当するトラ
ック以外のトラックの演奏データと前記伴奏データ提供
手段からの伴奏データとから各部分的区間毎に演奏デー
タまたは伴奏データを選択的に取り出し、取り出した各
部分的区間毎の演奏データ及び伴奏データの組み合わせ
に基づきアレンジ曲における前記少なくとも1つの伴奏
用パートの演奏データを生成する請求項25又は26に
記載の記憶媒体。
27. An accompaniment data providing step of providing accompaniment data separately from the performance data of the original music piece, wherein the step of generating the performance data of at least one accompaniment part in the arranged music piece comprises: Performance data or accompaniment data is selectively extracted for each partial section from the performance data of a track other than the track corresponding to the melody part and the accompaniment data from the accompaniment data providing means in the music performance data. 27. The storage medium according to claim 25, wherein the performance data of the at least one accompaniment part in the arranged music piece is generated based on a combination of the performance data and the accompaniment data for each partial section.
【請求項28】 機械読み取り可能な記憶媒体であっ
て、自動アレンジ方法を前記機械に実行させるための命
令群を内容としており、前記自動アレンジ方法は、 複数トラックの演奏データからなるオリジナル曲の演奏
データを取得するステップと、 前記オリジナル曲の複数のトラックの演奏データから各
部分的区間毎の演奏データを選択的に取り出し、取り出
した各部分的区間毎の演奏データの組み合わせに基づき
1トラック分のアレンジ曲演奏データを生成するステッ
プと、 前記生成した1トラック分のアレンジ曲演奏データを音
域に応じて2つのパートに分けることにより2トラック
からなるアレンジ曲の演奏データを生成するステップと
を具える。
28. A machine-readable storage medium containing instructions for causing the machine to execute an automatic arranging method, wherein the automatic arranging method comprises the steps of: Obtaining data; and selectively extracting performance data for each partial section from the performance data of the plurality of tracks of the original music, and performing one track of data based on a combination of the extracted performance data for each partial section. Generating arrangement music performance data; and generating the two-track arrangement music performance data by dividing the generated one-track arrangement music performance data into two parts in accordance with the range. .
【請求項29】 前記オリジナル曲の演奏データを取得
するステップは、通信ネットワークを介したクライアン
トからの依頼に基づき該オリジナル曲の演奏データの提
供を受ける請求項25乃至28のいずれかに記載の記憶
媒体。
29. The storage according to claim 25, wherein in the step of acquiring the performance data of the original music piece, the performance data of the original music piece is provided based on a request from a client via a communication network. Medium.
JP2001027521A 2001-02-02 2001-02-02 Automatic arrangement apparatus and method Expired - Fee Related JP3698057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001027521A JP3698057B2 (en) 2001-02-02 2001-02-02 Automatic arrangement apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001027521A JP3698057B2 (en) 2001-02-02 2001-02-02 Automatic arrangement apparatus and method

Publications (2)

Publication Number Publication Date
JP2002229561A true JP2002229561A (en) 2002-08-16
JP3698057B2 JP3698057B2 (en) 2005-09-21

Family

ID=18892164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001027521A Expired - Fee Related JP3698057B2 (en) 2001-02-02 2001-02-02 Automatic arrangement apparatus and method

Country Status (1)

Country Link
JP (1) JP3698057B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007040068A1 (en) * 2005-09-30 2007-04-12 Pioneer Corporation Music composition reproducing device and music composition reproducing method
JP2007178697A (en) * 2005-12-27 2007-07-12 Casio Comput Co Ltd Musical performance evaluating device and program
JP2008145564A (en) * 2006-12-07 2008-06-26 Casio Comput Co Ltd Automatic music arranging device and automatic music arranging program
JP2008250047A (en) * 2007-03-30 2008-10-16 Yamaha Corp Music editing device and program
JP2009025402A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program
JP2010186073A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Scale conversion device, method and program
JP2010186063A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Phonetic value changing device, method, and program
WO2011151919A1 (en) * 2010-06-04 2011-12-08 パイオニア株式会社 Performance data presentation system
JP2013076941A (en) * 2011-09-30 2013-04-25 Xing Inc Musical piece playback system and device and musical piece playback method
WO2015141663A1 (en) * 2014-03-20 2015-09-24 威雄 智内 Musical instrument for supporting recovery of finger motor function, and system for generating music notation data for one-handed performance
JP2017058596A (en) * 2015-09-18 2017-03-23 ヤマハ株式会社 Automatic arrangement device and program
KR101753307B1 (en) * 2013-06-03 2017-07-03 가부시키가이샤 카프콤 Game device, music playback device, and recording medium
US11176917B2 (en) 2015-09-18 2021-11-16 Yamaha Corporation Automatic arrangement of music piece based on characteristic of accompaniment

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007040068A1 (en) * 2005-09-30 2009-04-16 パイオニア株式会社 Music playback apparatus and music playback method
JP4658133B2 (en) * 2005-09-30 2011-03-23 パイオニア株式会社 Music playback apparatus and music playback method
WO2007040068A1 (en) * 2005-09-30 2007-04-12 Pioneer Corporation Music composition reproducing device and music composition reproducing method
US7834261B2 (en) 2005-09-30 2010-11-16 Pioneer Corporation Music composition reproducing device and music composition reproducing method
JP2007178697A (en) * 2005-12-27 2007-07-12 Casio Comput Co Ltd Musical performance evaluating device and program
JP4525591B2 (en) * 2005-12-27 2010-08-18 カシオ計算機株式会社 Performance evaluation apparatus and program
JP2008145564A (en) * 2006-12-07 2008-06-26 Casio Comput Co Ltd Automatic music arranging device and automatic music arranging program
JP4613924B2 (en) * 2007-03-30 2011-01-19 ヤマハ株式会社 Song editing apparatus and program
JP2008250047A (en) * 2007-03-30 2008-10-16 Yamaha Corp Music editing device and program
JP2009025402A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program
JP2010186063A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Phonetic value changing device, method, and program
JP2010186073A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Scale conversion device, method and program
WO2011151919A1 (en) * 2010-06-04 2011-12-08 パイオニア株式会社 Performance data presentation system
JP5506002B2 (en) * 2010-06-04 2014-05-28 パイオニア株式会社 Performance data presentation system
JP2013076941A (en) * 2011-09-30 2013-04-25 Xing Inc Musical piece playback system and device and musical piece playback method
KR101753307B1 (en) * 2013-06-03 2017-07-03 가부시키가이샤 카프콤 Game device, music playback device, and recording medium
WO2015141663A1 (en) * 2014-03-20 2015-09-24 威雄 智内 Musical instrument for supporting recovery of finger motor function, and system for generating music notation data for one-handed performance
JP2017058596A (en) * 2015-09-18 2017-03-23 ヤマハ株式会社 Automatic arrangement device and program
US11176917B2 (en) 2015-09-18 2021-11-16 Yamaha Corporation Automatic arrangement of music piece based on characteristic of accompaniment

Also Published As

Publication number Publication date
JP3698057B2 (en) 2005-09-21

Similar Documents

Publication Publication Date Title
US7105734B2 (en) Array of equipment for composing
JP2000514571A (en) Automatic improvisation system and method
JP3807275B2 (en) Code presenting device and code presenting computer program
JP2005530192A (en) Music notation system
JP3698057B2 (en) Automatic arrangement apparatus and method
JP5887293B2 (en) Karaoke device and program
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP2725566B2 (en) Electronic musical instrument
JPH1069273A (en) Playing instruction device
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP2003099033A (en) Information editing device and musical score editing device
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP2004184506A (en) Karaoke machine and program
JP3807333B2 (en) Melody search device and melody search program
JP2002297139A (en) Playing data modification processor
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP3931727B2 (en) Performance information editing apparatus and program
JP3797180B2 (en) Music score display device and music score display program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3738634B2 (en) Automatic accompaniment device and recording medium
JP3632551B2 (en) Performance data creation device and performance data creation method
JP6183002B2 (en) Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090715

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090715

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100715

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100715

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110715

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110715

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120715

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130715

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees