JP2000066666A - Automatic music composing device and recording medium - Google Patents

Automatic music composing device and recording medium

Info

Publication number
JP2000066666A
JP2000066666A JP10251831A JP25183198A JP2000066666A JP 2000066666 A JP2000066666 A JP 2000066666A JP 10251831 A JP10251831 A JP 10251831A JP 25183198 A JP25183198 A JP 25183198A JP 2000066666 A JP2000066666 A JP 2000066666A
Authority
JP
Japan
Prior art keywords
data
music
section
melody
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10251831A
Other languages
Japanese (ja)
Inventor
Eiichiro Aoki
栄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP10251831A priority Critical patent/JP2000066666A/en
Publication of JP2000066666A publication Critical patent/JP2000066666A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the stored data volume in an automatic music composing device for generating music based on stored music composing data. SOLUTION: Pattern data for expressing passage patterns A-A',-B-C-D and melody generating data for passages A, B, C are stored as music composing data in a data base. The melody generating data for the passage A' are generated with the melody generating data for the passage A changed partially by data changing processing 50. The melody generating data for the passage D are read out from a data bank 52 by data reading-out processing 56 based on assignment of a style or the like, to be generated. A music is generated in music generating processing 58 using the melody generating data for the passages A, A', B, C, D as the music generating data. The melody generating data are generated in the generating processing such as the processings 50, 56 in response to user's indication, or in random.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、記憶した作曲用
データに基づいて曲生成を行なう自動作曲装置及び記録
媒体に関し、特に生成すべき曲の一部区間については区
間曲生成用データを記憶すると共に曲の他の区間につい
ては区間曲生成用データを生成することにより記憶デー
タ量の削減を図ったものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic music composition apparatus and a recording medium for performing music composition based on stored music composition data, and particularly stores section music composition data for a partial section of a music composition to be generated. At the same time, for other sections of the tune, data for generation of section tunes is generated to reduce the storage data amount.

【0002】[0002]

【従来の技術】従来、自動作曲装置としては、曲を構成
するすべての楽節について各楽節毎にメロディ生成用デ
ータをメモリに記憶しておき、メモリから読出したメロ
ディ生成用データに基づいて曲(1曲分のメロディ)を
生成するようにしたものが提案されている。
2. Description of the Related Art Conventionally, as an automatic music composition apparatus, melody generation data is stored in a memory for each of all the phrases constituting the music, and the melody is generated based on the melody generation data read from the memory. A melody for one song has been proposed.

【0003】[0003]

【発明が解決しようとする課題】上記した従来技術によ
ると、曲を構成するすべての楽節のメロディ生成用デー
タをメモリに記憶するので、記憶データ量が多くなり、
メモリとしても大容量のものが必要となる不都合があっ
た。
According to the above-mentioned prior art, the melody generation data of all the passages constituting the music is stored in the memory, so that the storage data amount increases.
There is a disadvantage that a large-capacity memory is required as a memory.

【0004】この発明の目的は、記憶データ量を削減す
ることができる新規な自動作曲装置を提供することにあ
る。
An object of the present invention is to provide a new automatic music composition device capable of reducing the amount of stored data.

【0005】[0005]

【課題を解決するための手段】この発明に係る自動作曲
装置は、曲を構成する複数の区間のうち一部区間の曲を
生成するための第1の区間曲生成用データを記憶する記
憶手段と、前記複数の区間のうち前記一部区間以外の区
間の曲を生成するための第2の区間曲生成用データを生
成する生成手段と、前記記憶手段から読出された第1の
区間曲生成用データと前記生成手段により生成された第
2の区間曲生成用データとに基づいて曲を生成する曲生
成手段とを備えたものである。
An automatic music composition apparatus according to the present invention has a storage means for storing first section music generation data for generating a music piece of a partial section among a plurality of sections constituting a music piece. Generating means for generating data for generating a second section music for generating music in a section of the plurality of sections other than the partial section; and generating the first section music read from the storage means Music generating means for generating a music based on the music data and the second section music generating data generated by the generating means.

【0006】この発明の構成によれば、記憶手段には生
成すべき曲の一部区間に関する区間曲生成用データ(例
えば楽節メロディ生成用データ)が記憶され、曲の他の
区間については生成手段により区間曲生成用データが生
成される。そして、記憶手段から読出された区間曲生成
用データと生成手段により生成された区間曲生成用デー
タとに基づいて曲生成が行なわれる。生成手段により生
成される区間曲生成用データは、記憶手段に記憶する必
要がないので、その分だけ記憶データ量が少なくて済
む。
According to the configuration of the present invention, the storage means stores section music generation data (for example, data for generating a melody section) regarding a partial section of a music to be generated, and generates data for other sections of the music. Generates section music data. Then, music generation is performed based on the section music generation data read from the storage means and the section music generation data generated by the generation means. Since the section music generation data generated by the generation means does not need to be stored in the storage means, the storage data amount can be reduced accordingly.

【0007】[0007]

【発明の実施の形態】図1は、この発明の一実施形態に
係る自動作曲装置を備えた電子楽器の回路構成を示すも
ので、この電子楽器は、パーソナルコンピュータ等の小
型コンピュータによって楽音発生、曲生成等が制御され
るようになっている。
FIG. 1 shows a circuit configuration of an electronic musical instrument provided with an automatic music composition apparatus according to an embodiment of the present invention. This electronic musical instrument generates a musical sound by a small computer such as a personal computer. Music generation and the like are controlled.

【0008】バス10には、CPU(中央処理装置)1
2、ROM(リード・オンリィ・メモリ)14、RAM
(ランダム・アクセス・メモリ)16、検出回路18,
20、表示回路22、音源回路24、効果回路26、外
部記憶装置28、MIDI(M usical Instrument Digi
tal Interface)インターフェース30、通信インター
フェース32、タイマ34等が接続されている。
The bus 10 has a CPU (central processing unit) 1
2, ROM (Read Only Memory) 14, RAM
(Random access memory) 16, detection circuit 18,
20, display circuit 22, sound source circuit 24, effect circuit 26, external storage device 28, MIDI (Musical Instrument Digi
tal Interface), a communication interface 32, a timer 34, and the like.

【0009】CPU12は、ROM14にストアされた
プログラムに従って曲生成のための各種処理を実行する
もので、これらの処理については図2〜9を参照して後
述する。
The CPU 12 executes various processes for generating music according to a program stored in the ROM 14, and these processes will be described later with reference to FIGS.

【0010】ROM14には、プログラムの他に、多数
の作曲用データがデータベースとして記憶されている。
各作曲用データは、一例を図2(a)に示すようにA−
A’−B−C−D等の楽節パターンを表わすパターンデ
ータと、楽節パターン中のA,B,C等の一部の楽節の
メロディを生成するためのメロディ生成用データとを含
んでいる。ここで、楽節パターン中のA’,D等の他の
楽節のメロディ生成用データは、データベースには記憶
されず、後述するデータ変更処理50,データ読出処理
56等の生成処理により生成される。従って、データベ
ースに記憶するデータの量を削減することができる。
The ROM 14 stores a large number of music composition data as a database in addition to programs.
As shown in FIG. 2A, an example of each composition data is A-
This includes pattern data representing a phrase pattern such as A'-BCD and melody generation data for generating a melody of some phrases such as A, B and C in the phrase pattern. Here, the melody generation data of other phrases such as A 'and D in the phrase pattern are not stored in the database, but are generated by a generation process such as a data change process 50 and a data read process 56 described later. Therefore, the amount of data stored in the database can be reduced.

【0011】1楽節分のメロディ生成用データは、一例
として、楽節内のピッチパターン(ピッチ変化)を表わ
すピッチパターンデータ等を含むものが用いられる。1
楽節分のメロディ生成用データとしては、楽節内のリズ
ムパターン(音長配列)を表わすリズムパターンデー
タ、楽節内の音符の粗密状態を表わすリズム粗密デー
タ、メロディそのものを表わすメロディデータ等も使用
可能である。
As the melody generation data for one phrase, for example, data including pitch pattern data representing a pitch pattern (pitch change) in a phrase is used. 1
As the melody generation data for a section, rhythm pattern data representing a rhythm pattern (length arrangement) in a section, rhythm coarse / dense data representing a state of notes in a section, melody data representing a melody itself, and the like can be used. is there.

【0012】RAM16は、CPU12による各種処理
に際して使用される種々の記憶部を含むもので、主な記
憶部としては、作曲用データ記憶部16A、曲生成用デ
ータ記憶部16B、曲データ記憶部16C等を含んでい
る。
The RAM 16 includes various storage units used for various processes by the CPU 12. The main storage units include a music composition data storage unit 16A, a music generation data storage unit 16B, and a music data storage unit 16C. Etc. are included.

【0013】検出回路18は、鍵盤36から鍵操作情報
を検出するものである。検出回路20は、スイッチ群3
8から各種スイッチの操作情報を検出するものである。
スイッチ群38は、一例として文字入力及び数値入力が
可能なキーボードからなる。
The detection circuit 18 detects key operation information from the keyboard 36. The detection circuit 20 includes the switch group 3
8 to detect the operation information of various switches.
The switch group 38 includes, for example, a keyboard capable of inputting characters and numerical values.

【0014】表示回路22は、表示器40の表示動作を
制御することにより各種の表示を可能にするものであ
る。
The display circuit 22 enables various displays by controlling the display operation of the display device 40.

【0015】音源回路24は、複数の楽音発生チャンネ
ルを有するものである。楽音発生方式としては、波形メ
モリ方式、FM方式、物理モデル方式、高調波合成方
式、フォルマント合成方式、VCO,VCF,VCA等
を用いるアナログシンセサイザ方式等の任意のものを採
用することができる。また、音源回路24としては、専
用のハードウェアを用いるものに限らず、DSP(ディ
ジタル・シグナル・プロセッサ)とマイクロプログラム
を組合せたもの、CPUとソフトウェアを組合せたもの
であってもよい。さらに、複数の楽音発生チャンネル
は、対応する複数の回路で構成してもよく、あるいは1
つの回路を時分割的に使用することによって形成しても
よい。
The tone generator 24 has a plurality of tone generation channels. As the tone generation method, any method such as a waveform memory method, an FM method, a physical model method, a harmonic synthesis method, a formant synthesis method, an analog synthesizer method using VCO, VCF, VCA, or the like can be adopted. Further, the tone generator circuit 24 is not limited to the one using dedicated hardware, but may be a combination of a DSP (digital signal processor) and a microprogram, or a combination of a CPU and software. Further, the plurality of tone generation channels may be constituted by a plurality of corresponding circuits,
It may be formed by using one circuit in a time-division manner.

【0016】効果回路26は、音源回路24から発生さ
れる楽音信号にコーラス、リバーブ等の効果を付加する
ものである。効果回路26から送出される楽音信号は、
サウンドシステム42に供給され、音響に変換される。
The effect circuit 26 adds effects such as chorus and reverb to the tone signal generated from the tone generator circuit 24. The tone signal sent from the effect circuit 26 is
The sound is supplied to the sound system 42 and converted into sound.

【0017】外部記憶装置28は、HD(ハードディス
ク)、FD(フロッピーディスク)、CD(コンパクト
ディスク)、DVD(ディジタル多目的ディスク)、M
O(光磁気ディスク)等のうち1又は複数種類の記録媒
体を着脱可能なものである。外部記憶装置28に所望の
記録媒体を装着した状態では、記録媒体からRAM16
へデータを転送可能である。また、装着した記録媒体が
HDやFDのように書込可能なものであれば、RAM1
6のデータを記録媒体に転送可能である。
The external storage device 28 includes HD (hard disk), FD (floppy disk), CD (compact disk), DVD (digital versatile disk), M
One or more types of recording media such as O (magneto-optical disk) can be attached and detached. When a desired recording medium is mounted on the external storage device 28, the RAM 16
Data can be transferred to If the mounted recording medium is a writable medium such as HD or FD, the RAM 1
6 can be transferred to a recording medium.

【0018】作曲用データのデータベースとしては、R
OM14の代りに外部記憶装置28の記憶媒体(前述の
HD,FD,CD,DVD,MO等)を用いてもよい。
また、プログラム記録手段としては、ROM14の代り
に外部記憶装置28の記録媒体を用いることができる。
この場合、記録媒体に記録したプログラムは、外部記憶
装置28からRAM16へ転送する。そして、RAM1
6に記憶したプログラムに従ってCPU12を動作させ
る。このようにすると、プログラムの追加やバージョン
アップ等を容易に行なうことができる。
As a database of composition data, R
Instead of the OM 14, a storage medium of the external storage device 28 (HD, FD, CD, DVD, MO, or the like) may be used.
As the program recording means, a recording medium of the external storage device 28 can be used instead of the ROM 14.
In this case, the program recorded on the recording medium is transferred from the external storage device 28 to the RAM 16. And RAM1
The CPU 12 is operated according to the program stored in the CPU 6. By doing so, it is possible to easily add a program, upgrade a version, and the like.

【0019】MIDIインターフェース30は、自動演
奏装置等の他のMIDI機器44との間で演奏情報等の
送受信を行なうために設けられたものである。
The MIDI interface 30 is provided for transmitting and receiving performance information and the like to and from another MIDI device 44 such as an automatic performance device.

【0020】通信インターフェース32は、通信ネット
ワーク46(例えばLAN(ローカル・エリア・ネット
ワーク)、インターネット、電話回線等)を介してサー
バコンピュータ48と情報通信を行なうために設けられ
たものである。この発明の実施に必要なプログラムや各
種データは、サーバコンピュータ48から通信ネットワ
ーク46及び通信インターフェース32を介してRAM
16または外部記憶装置28へダウンロード要求に応じ
て取込むようにしてもよい。
The communication interface 32 is provided for communicating information with a server computer 48 via a communication network 46 (for example, a LAN (local area network), the Internet, a telephone line, etc.). Programs and various data necessary for implementing the present invention are stored in a RAM from a server computer 48 via a communication network 46 and a communication interface 32.
16 or the external storage device 28 in response to a download request.

【0021】タイマ34は、与えられるテンポデータT
Mに対応する周期でテンポクロック信号TCLを発生す
るもので、テンポクロック信号TCLは、割込命令とし
てCPU12に供給される。CPU12は、テンポクロ
ック信号TCLの各クロックパルス毎に割込処理を開始
する。このような割込処理を利用することにより記憶部
16Cの曲データに基づいて自動演奏を行なうことがで
きる。
The timer 34 receives the given tempo data T
The tempo clock signal TCL is generated at a cycle corresponding to M. The tempo clock signal TCL is supplied to the CPU 12 as an interrupt command. The CPU 12 starts an interrupt process for each clock pulse of the tempo clock signal TCL. By utilizing such an interruption process, an automatic performance can be performed based on the music data in the storage section 16C.

【0022】上記した電子楽器において、CPU12
は、鍵盤36で鍵が押されるたびに、押された鍵に対応
する音高情報と発音命令信号とを音源回路24に供給す
る。音源回路24は、音高を有する楽音信号を発生す
る。このようにしてマニュアル演奏音の発生が可能とな
る。
In the electronic musical instrument described above, the CPU 12
Supplies the pitch information and the sounding instruction signal corresponding to the pressed key to the tone generator circuit 24 each time the key is pressed on the keyboard 36. The tone generator 24 generates a tone signal having a pitch. In this way, a manual performance sound can be generated.

【0023】次に、図2を参照してこの発明に係る作曲
方法を説明する。まず、キーボード(スイッチ群38)
の操作に基づいて調、拍子、楽節パターン等の作曲条件
を入力する。CPU12は、入力に係る作曲条件に適合
した作曲用データをデータベースにて検索し、記憶部1
6Aに書込む。一例として、図2[a1]の楽節パター
ンA−A’−B−C−Dを表わすパターンデータと、図
2[a2]の楽節A,B,Cのメロディ生成用データと
を含む作曲用データが記憶部16Aに書込まれたものと
する。
Next, a composition method according to the present invention will be described with reference to FIG. First, the keyboard (switch group 38)
Based on the operation, the user inputs composition conditions such as key, beat, and passage pattern. The CPU 12 searches the database for composition data that meets the composition conditions related to the input, and
Write to 6A. As an example, composition data including pattern data representing the phrase pattern AA′-BCD in FIG. 2 [a1] and melody generation data in phrases A, B, and C in FIG. 2 [a2]. Is written in the storage unit 16A.

【0024】CPU12は、記憶部16Aから楽節Aの
メロディ生成用データを読出して記憶部16Bにロード
した後、楽節Aのメロディ生成用データにデータ変更処
理50を施して楽節A’のメロディ生成用データを生成
し、記憶部16Bに書込む。データ変更処理50の具体
例については、図3〜6を参照して後述する。
The CPU 12 reads the melody generation data of the phrase A from the storage unit 16A and loads it into the storage unit 16B, and then performs data change processing 50 on the melody generation data of the phrase A to perform the melody generation of the phrase A '. Data is generated and written into the storage unit 16B. A specific example of the data change processing 50 will be described later with reference to FIGS.

【0025】次に、CPU12は、記憶部16Aから楽
節B及びCのメロディ生成用データを順次に読出して記
憶部16Bに順次に書込む。この後、CPU12は、楽
節Dのメロディ生成用データの生成を行なう。
Next, the CPU 12 sequentially reads out the melody generating data of the passages B and C from the storage section 16A and sequentially writes them into the storage section 16B. Thereafter, the CPU 12 generates melody generation data for the phrase D.

【0026】楽節メロディ生成用データの生成は、次の
ようにして行なわれる。データバンク52には、スタイ
ル(例えばジャズ風等の曲風)などに対応して楽節メロ
ディ生成用データが記憶されている。データバンク52
としては、ROM14又は外部記憶装置28等を用いる
ことができる。指定処理54では、ユーザがキーボード
(スイッチ群38)を用いてスタイルなどを指定する
と、スタイルなどを指定する指定データが発生される。
データ読出処理56では、指定処理54で発生された指
定データに対応して楽節Dのメロディ生成用データをデ
ータバンク52から読出して記憶部16Bに書込む。他
のスタイルに対応する楽節メロディ生成用データも上記
したと同様にして生成することができる。
The generation of the phrase melody generation data is performed as follows. The data bank 52 stores clause melody generation data corresponding to a style (for example, music style such as jazz style). Data bank 52
For example, the ROM 14 or the external storage device 28 can be used. In the designation process 54, when the user designates a style or the like using the keyboard (switch group 38), designation data for designating the style or the like is generated.
In the data reading process 56, the melody generating data of the passage D is read from the data bank 52 and written into the storage unit 16B in accordance with the specified data generated in the specifying process 54. Section melody generation data corresponding to other styles can also be generated in the same manner as described above.

【0027】上記した処理によれば、記憶部16Bに
は、図2(b)に示すように一連の楽節A,A’,B,
C,Dのメロディ生成用データが曲生成用データとして
記憶される。
According to the above processing, the storage section 16B stores a series of phrases A, A ', B,
The melody generation data of C and D is stored as music generation data.

【0028】曲生成処理58では、図2(b)の曲生成
用データを用いて曲(1曲分のメロディ)を生成し、生
成曲を表わす曲データを記憶部16Cに書込む。曲生成
処理58の具体例については図7〜9を参照して後述す
る。
In the music generation processing 58, a music (one melody for one music) is generated using the music generation data of FIG. 2B, and music data representing the generated music is written in the storage unit 16C. A specific example of the music generation processing 58 will be described later with reference to FIGS.

【0029】データ変更処理50によれば、ある楽節
(例えばA)のメロディ生成用データに基づいてそれに
類似した楽節(例えばA’)のメロディ生成用データを
簡単に生成することができる。しかし、データ変更処理
50の用途は、これに限定されるものではなく、例えば
楽節Aとは非類似の楽節B,C,D等のメロディ生成デ
ータをデータ変更処理50により生成することができ
る。このためには、例えば楽節の前半及び後半における
音符の粗密状態を逆転(楽節の前半で粗密、後半で密粗
であれば楽節の前半で密粗、後半で粗密に)したり、楽
節におけるピッチのなめらかな進行を跳躍進行にしたり
すれば良い。
According to the data change process 50, it is possible to easily generate melody generation data of a phrase (for example, A ') similar to the melody generation data of a phrase (for example, A). However, the application of the data change processing 50 is not limited to this. For example, the melody generation data of the sections B, C, D, etc. which are not similar to the section A can be generated by the data change processing 50. For this purpose, for example, the coarse / fine state of notes in the first and second halves of the passage is reversed (coarse and dense in the first half of the passage, dense / coarse in the first half of the passage if it is dense in the second half), and pitch in the passage. You can make a smooth progress a leap.

【0030】データ読出処理56によれば、図2[a
2]のメロディ生成用データに制約されることなくユニ
ークなメロディ生成用データを生成することができる。
しかし、データ読出処理56の用途は、これに限定され
るものではなく、例えば楽節Aに類似した楽節A’のメ
ロディ生成用データをデータ読出処理56により生成す
ることができる。
According to the data reading process 56, FIG.
The unique melody generation data can be generated without being restricted by the melody generation data of 2).
However, the use of the data reading process 56 is not limited to this. For example, the melody generation data of the phrase A ′ similar to the phrase A can be generated by the data reading process 56.

【0031】データ変更処理50、データ読出処理56
等のデータ生成処理では、楽節メロディ生成用データを
ランダムに生成するようしてもよい。別の生成方法とし
ては、一旦生成された楽節メロディ生成用データをスイ
ッチ群38でのユーザの指示に応じて修正するようにし
てもよい。更に別の生成方法としては、元になる1つの
楽節メロディ生成用データ(例えば楽節Aのメロディ生
成用データ又はデータバンク52から読出した楽節メロ
ディ生成用データ)に基づいて複数の楽節メロディ生成
用データを生成して表示器40等で表示し、スイッチ群
38でのユーザの指示に応じて表示中のいずれかの楽節
メロディ生成用データを選択するようにしてもよい。こ
のように楽節メロディ生成用データをユーザの指示に応
じて生成すると、生成曲のバリエーションが豊富とな
る。
Data change processing 50, data read processing 56
In the data generation processing such as the above, data for phrase melody generation may be randomly generated. As another generation method, the phrase melody generation data once generated may be corrected according to a user's instruction in the switch group 38. As still another generation method, a plurality of phrase melody generation data are generated based on one original phrase melody generation data (for example, the melody generation data of the phrase A or the phrase melody generation data read from the data bank 52). May be generated and displayed on the display 40 or the like, and any of the phrase melody generating data being displayed may be selected in accordance with a user's instruction in the switch group 38. When the phrase melody generation data is generated in accordance with the user's instruction in this manner, the variations of the generated music become rich.

【0032】図3は、データ変更処理の第1の例を示す
ものであり、この例では、楽節メロディ生成用データが
ピッチパターンデータを含むものとする。
FIG. 3 shows a first example of the data change processing. In this example, it is assumed that the phrase melody generating data includes pitch pattern data.

【0033】ステップ60では、記憶部16Aから楽節
Aのメロディ生成用データを読出し、その読出データに
おいてピッチパターンデータを指定する。指定に係る楽
節Aのピッチパターンデータは、ピッチパターンとして
例えば図4のP1のようなピッチカーブを表わすもので
ある。図4において、縦軸は基準音Iからの度数を表わ
し、横軸はテンポクロック信号TCLのカウント値に相
当するクロック数を表わす。度数I 、II 、III ・
・・は、調として例えばC長調が与えられたときは音名
3、D3、E3・・・に変換される。
In step 60, the melody generating data of the phrase A is read from the storage section 16A, and pitch pattern data is specified in the read data. Pitch pattern data sentence A according to the specification is intended to represent the pitch curve such as P 1 in FIG. 4, for example, as a pitch pattern. 4, the vertical axis represents the frequency from the reference sound I, and the horizontal axis represents the number of clocks corresponding to the count value of the tempo clock signal TCL. Frequency I, II, III
Are converted to pitch names C 3 , D 3 , E 3, ... When, for example, a C major key is given as a key.

【0034】次に、ステップ62では、楽節Aのピッチ
カーブの振幅をカーブ形状同一のまま図4のP2のよう
に変更し、変更に係るピッチカーブを楽節A’のピッチ
カーブとする。すなわち、図4のP2のようにピッチカ
ーブの変更を受けた楽節Aのメロディ生成用データを楽
節A’のメロディ生成用データとして記憶部16Bに書
込む。
Next, in step 62, to change the amplitude of the pitch curve of passage A as P 2 curve shape same while FIG. 4, a pitch curve of passage A 'pitch curve of the change. That is, written into the storage unit 16B melody generation data of passage A that received the change of pitch curve as P 2 in FIG. 4 as melody generation data of sentence A '.

【0035】図5は、データ変更処理の第2の例を示す
ものであり、この例では、楽節メロディ生成用データが
リズム粗密データを含み、このリズム粗密データが楽節
の前半及び後半の粗密データからなるものとする。
FIG. 5 shows a second example of the data change processing. In this example, the data for generating a passage melody includes rhythm coarse / dense data, and this rhythm coarse / fine data is the first and second half of the passage. Shall consist of

【0036】ステップ70では、記憶部16Aから楽節
Aのメロディ生成用データを読出し、その読出データに
おいて楽節Aの前半の粗密データを指定する。この粗密
データは、楽節Aの前半の音符の粗密状態を例えば粗密
と表わす。
At step 70, the melody generating data of the phrase A is read from the storage section 16A, and the first half of the phrase A is specified in the read data. The coarse / dense data represents the coarse / dense state of the note in the first half of the phrase A as, for example, coarse / dense.

【0037】次にステップ72では、指定に係る楽節A
の前半の粗密データを変更せず、そのまま楽節A’の前
半の粗密データとして残す。そしてステップ74に移
る。
Next, at step 72, the phrase A related to the designation
Of the first half of the phrase A 'is left unchanged as it is as the first half of the phrase A'. Then, the routine goes to step 74.

【0038】ステップ74では、読出しに係るデータ楽
節Aのメロディ生成用データにおいて楽節Aの後半の粗
密データを指定する。この粗密データは、楽節Aの後半
の音符の粗密状態を例えば粗密と表わす。
At step 74, the second half of the phrase A is specified in the melody generation data of the data phrase A to be read. The coarse / dense data represents the coarse / dense state of the note in the latter half of the phrase A as, for example, coarse / dense.

【0039】この後、ステップ76では、指定に係る楽
節Aの後半の粗密データにおいて粗密を逆転(密粗に)
し、この逆転に係る粗密データを楽節A’の後半の粗密
データとする。すなわち、ステップ72,76の処理を
受けた楽節Aのメロディ生成用データを楽節A’のメロ
ディ生成用データとして記憶部16Bに書込む。楽節
A’の粗密データは、前半がステップ72で粗密とさ
れ、後半がステップ76で密粗とされたものである。
Thereafter, in step 76, the coarse / fine data is reversed (fine / coarse) in the coarse / fine data of the second half of the phrase A specified.
Then, the coarse / dense data relating to the reverse is defined as the coarse / dense data in the latter half of the passage A '. That is, the melody generation data of the phrase A that has undergone the processing of steps 72 and 76 is written to the storage unit 16B as the melody generation data of the phrase A '. The coarse / dense data of the phrase A 'is data in which the first half is made dense in step 72 and the second half is made dense in step 76.

【0040】図6は、データ変更処理の第3の例を示す
ものであり、この例では、楽節メロディ生成用データが
メロディそのものを表わすメロディデータを含み、この
メロディデータが楽節の前半及び後半のメロディデータ
からなるものとする。
FIG. 6 shows a third example of the data change process. In this example, the phrase melody generating data includes melody data representing the melody itself, and the melody data is used in the first half and the second half of the phrase. It shall consist of melody data.

【0041】ステップ80では、記憶部16Aから楽節
Aのメロディ生成用データを読出し、その読出データに
おいて楽節Aの前半のメロディデータを指定する。そし
て、ステップ82に移り、指定に係る楽節Aの前半のメ
ロディデータを変更せず、そのまま楽節A’の前半のメ
ロディデータとして残す。
In step 80, the melody generating data of the phrase A is read from the storage unit 16A, and the first half of the melody data of the phrase A is specified in the read data. Then, the process proceeds to step 82, where the melody data of the first half of the phrase A specified is not changed and is left as it is as the melody data of the first half of the phrase A '.

【0042】次に、ステップ84では、読出しに係る楽
節Aのメロディ生成用データにおいて楽節Aの後半のメ
ロディデータを指定する。そして、ステップ86に移
り、指定に係る楽節Aの後半のメロディデータを例えば
音符の増減、音高の変更等により修正し、この修正に係
るメロディデータを楽節A’の後半のメロディデータと
する。すなわち、ステップ82,86の処理を受けた楽
節Aのメロディ生成用データを楽節A’のメロディ生成
用データとして記憶部16Bに書込む。
Next, in step 84, the second half melody data of the phrase A is specified in the melody generation data of the phrase A to be read. Then, the process proceeds to step 86, where the melody data of the latter half of the phrase A specified is corrected by, for example, increasing or decreasing the musical notes, changing the pitch, etc., and the melody data relating to this correction is used as the melody data of the latter half of the phrase A '. That is, the melody generation data of the phrase A that has undergone the processing of steps 82 and 86 is written into the storage unit 16B as the melody generation data of the phrase A '.

【0043】上記した図3,5,6のデータ変更処理に
よれば、楽節Aのメロディ生成用データに類似した楽節
A’のメロディ生成用データを簡単に得ることができ
る。楽節Aと楽節A’との類似性は、図3の処理ではピ
ッチカーブの形状が同一でピッチカーブの振幅が相違す
る点にあり、図5の処理ではリズムが前半に同一で後半
に相違する点にあり、図6の処理ではメロディが前半に
同一で後半に相違する点にある。
According to the data change processing of FIGS. 3, 5, and 6, the melody generation data of the phrase A 'similar to the melody generation data of the phrase A can be easily obtained. The similarity between the passage A and the passage A 'is that the shape of the pitch curve is the same and the amplitude of the pitch curve is different in the processing of FIG. 3, and the rhythm is the same in the first half and different in the second half in the processing of FIG. 6 is that the melody is the same in the first half and different in the second half.

【0044】図7は、曲生成処理の第1の例を示すもの
であり、この例では、楽節メロディ生成用データがピッ
チパターンデータを含むものとする。
FIG. 7 shows a first example of the music generation processing. In this example, it is assumed that the phrase melody generation data includes pitch pattern data.

【0045】ステップ90では、レジスタnに楽節ナン
バとして1をセットする。レジスタnとしては、RAM
16内の所定の記憶領域が使用される。
At step 90, 1 is set in the register n as a passage number. RAM as the register n
A predetermined storage area in 16 is used.

【0046】次に、ステップ92では、レジスタnの楽
節ナンバを有するピッチパターンデータを図2(b)の
曲生成用データ(記憶部16Bの記憶データ)において
指定する。図2(b)の曲生成用データにおいて、楽節
ナンバは、楽節A,A’,B,C,Dにそれぞれ対応し
て1,2,3,4,5が予め定められているものとす
る。従って、ステップ90の後初めてステップ92にき
たときは、レジスタnの楽節ナンバが1であるから、楽
節Aのメロディ生成用データ中のピッチパターンデータ
が指定される。
Next, in step 92, the pitch pattern data having the phrase number of the register n is specified in the music generation data (the data stored in the storage section 16B) of FIG. 2B. In the music generation data of FIG. 2B, it is assumed that the phrase numbers 1, 2, 3, 4, and 5 are predetermined corresponding to the phrases A, A ', B, C, and D, respectively. . Therefore, when the process reaches step 92 for the first time after step 90, the phrase number in register n is 1, and the pitch pattern data in the melody generation data of phrase A is designated.

【0047】次にステップ94では、音高及び音長をラ
ンダムに発生する。そして、ステップ96に移り、発生
に係る音高が、与えられた調の音階音であるか判定す
る。与えられた調とは、作曲条件の1つとして入力され
た調であり、例えばC長調である。
Next, at step 94, pitch and duration are randomly generated. Then, the process proceeds to step 96, where it is determined whether or not the pitch to be generated is a chromatic note of a given key. The given key is a key input as one of the composition conditions, for example, a C major key.

【0048】ステップ96の判定結果が否定的(N)で
あればステップ94に戻り、再び音高を発生する。ステ
ップ96の判定結果が肯定的(Y)になると、ステップ
98に移る。
If the decision result in the step 96 is negative (N), the process returns to the step 94, and a pitch is generated again. If the determination result of step 96 is affirmative (Y), the process proceeds to step 98.

【0049】ステップ98では、発生に係る音高が、与
えられたピッチパターンに適合するか判定する。与えら
れたピッチパターンとは、ステップ92で指定されたピ
ッチパターンデータが表わすピッチパターンであり、例
えば図4のP1のようなピッチカーブである。なお、適
合の判定においては、ピッチパターン上の音高と同一の
場合に限らず、ピッチパターン上の音高から所定音程
(例えば2度)以内のものであっても適合と判定しても
よい。
In step 98, it is determined whether or not the generated pitch matches the given pitch pattern. The given pitch pattern, the pitch pattern representing pitch pattern data designated in step 92, for example, a pitch curve such as P 1 in FIG. 4. It should be noted that the determination of suitability is not limited to the case where the pitch is the same as the pitch on the pitch pattern, and the suitability may be determined even if the pitch is within a predetermined pitch (for example, twice) from the pitch on the pitch pattern. .

【0050】ステップ98の判定結果が否定的(N)で
あればステップ94に戻り、ステップ94,96を繰返
す。ステップ98の判定結果が肯定的(Y)になると、
ステップ100に移る。
If the decision result in the step 98 is negative (N), the process returns to the step 94, and the steps 94 and 96 are repeated. When the determination result of step 98 is affirmative (Y),
Move to step 100.

【0051】ステップ100では、発生に係る音高をメ
ロディ音として採用する。このメロディ音は、ステップ
96,98を経由したことにより与えられた調の音階音
であり且つ与えられたピッチパターンに適合するもので
ある。メロディ音の音長は、ステップ94で発生された
音長とする。
In step 100, the pitch related to the generation is adopted as the melody sound. This melody sound is a chromatic sound of the key given through steps 96 and 98, and conforms to the given pitch pattern. The tone length of the melody tone is the tone length generated in step 94.

【0052】次に、ステップ102では、メロディ音の
音長をその直前までのメロディ音の音長の合計に加算す
る。最初のメロディ音についてはその直前の音長が存在
しないので、最初のメロディ音の音長を次回の加算のた
めに保存する。ステップ102の後、ステップ104に
移る。
Next, in step 102, the length of the melody sound is added to the total length of the melody sound immediately before. Since there is no pitch immediately before the first melody tone, the duration of the first melody tone is stored for the next addition. After step 102, the process proceeds to step 104.

【0053】ステップ104では、ステップ102で求
めた音長の合計が「1小節当りの拍数×楽節の小節数」
になったか判定する。一例として、1小節当りの拍数が
4(4拍子)であり、楽節Aの小節数が4であるとする
と、4×4=16拍となる。最初のメロディ音について
はステップ104の判定結果が否定的(N)となり、ス
テップ94に戻る。そして、ステップ94以降の処理を
楽節Aの2番目のメロディ音について実行する。このよ
うな処理を繰返すことによりステップ102での音長の
合計が16拍に達すると、ステップ104の判定結果が
肯定的(Y)となり、ステップ106に移る。
In step 104, the total of the sound lengths obtained in step 102 is "beats per measure x number of measures in a measure".
Is determined. As an example, if the number of beats per measure is 4 (4 beats), and the number of measures in passage A is 4, 4 × 4 = 16 beats. For the first melody sound, the determination result of step 104 is negative (N), and the process returns to step 94. Then, the processing after step 94 is executed for the second melody sound of phrase A. By repeating such processing, when the total sound length in step 102 reaches 16 beats, the determination result in step 104 becomes affirmative (Y), and the process proceeds to step 106.

【0054】ステップ106では、レジスタnの楽節ナ
ンバが最後の楽節ナンバkと等しいか判定する。図2
(b)の例では、k=5であり、ステップ90でn=1
とした後初めてステップ106にきたときは、ステップ
106の判定結果が否定的(N)となり、ステップ10
8に移る。
At step 106, it is determined whether or not the phrase number of the register n is equal to the last phrase number k. FIG.
In the example of (b), k = 5, and n = 1 in step 90.
When the procedure first comes to step 106 after the above, the determination result of step 106 is negative (N), and
Move to 8.

【0055】ステップ108では、レジスタnの値を1
だけ増大させる。そして、ステップ92に戻る。n=1
の状態でステップ108にきたときは、n=2となり、
楽節ナンバ2の楽節A’についてステップ92以降の処
理を上記としたと同様に実行する。このような処理を繰
返すことによりステップ106でn=5となると、ステ
ップ106の判定結果が肯定的(Y)となり、処理エン
ドとなる。すなわち、図2(b)の曲生成用データに基
づく1曲の生成が終了したことになる。記憶部16Cに
は、図2(b)の楽節A,A’,B,C,Dのメロディ
生成用データに基づいて生成された1曲分のメロディを
表わす曲データが書込まれる。
In step 108, the value of the register n is set to 1
Only increase. Then, the process returns to step 92. n = 1
When it comes to step 108 in the state of, n = 2,
The processing after step 92 is executed for the phrase A 'of the phrase number 2 in the same manner as described above. When n = 5 in step 106 by repeating such processing, the determination result in step 106 becomes affirmative (Y), and the processing ends. That is, the generation of one music based on the music generation data of FIG. 2B is completed. Music data representing one melody generated based on the melody generating data of the phrases A, A ', B, C, and D in FIG.

【0056】図8は、曲生成処理の第2の例を示すもの
であり、この例では、楽節メロディ生成用データがメロ
ディそのものを表わすメロディデータを含むものとす
る。
FIG. 8 shows a second example of the music generation processing. In this example, it is assumed that the phrase melody generation data includes melody data representing the melody itself.

【0057】ステップ110では、図2(b)の曲生成
用データにおいてメロディ変更区間(メロディを変更し
たい区間)を指定する処理を行なう。例えば図2(b)
のデータを表示器40に表示し、スイッチ群38により
ユーザにメロディ変更区間を指定させる。
In step 110, a process of designating a melody change section (a section in which the melody is desired to be changed) in the music generation data of FIG. 2B is performed. For example, FIG.
Is displayed on the display 40, and the switch group 38 allows the user to designate a melody change section.

【0058】次に、ステップ112では、指定に係るメ
ロディ変更区間についてメロディ変更処理を行なう。メ
ロディ変更処理としては、(イ)メロディの反転、
(ロ)メロディの逆読み、(ハ)発音タイミングの変
更、(ニ)時間軸上での圧縮又は伸張、(ホ)音高軸上
での圧縮又は伸張、(ヘ)一部音高の差し替え、(ト)
音高変化傾向を保存した状態での音高の差し替えなどが
ある。メロディ反転の一例を示すと、CDEGのメロデ
ィが与えられた場合、Dを中心に反転することによりE
DCAのメロディに変更される。
Next, at step 112, a melody change process is performed for the melody change section specified. Melody change processing includes (a) inversion of melody,
(B) reverse reading of the melody, (c) changing the sounding timing, (d) compression or expansion on the time axis, (e) compression or expansion on the pitch axis, (f) replacement of some pitches , (G)
For example, there is replacement of the pitch while the pitch change tendency is stored. As an example of the melody inversion, when a melody of CDEG is given, by inverting around D, E
Changed to DCA melody.

【0059】ステップ112の処理を受けたメロディ変
更区間内のメロディデータは、記憶部16Cに書込まれ
る。また、メロディ変更区間外のメロディデータは、何
の変更も受けずにそのまま記憶部16Cに書込まれる。
従って、記憶部16Cの曲データは、ステップ112の
処理を受けたメロディ変更区間内のメロディデータと、
メロディ変更区間外のメロディデータとからなる。
The melody data in the melody change section that has undergone the processing in step 112 is written to the storage section 16C. The melody data outside the melody change section is written to the storage unit 16C without any change.
Therefore, the music data in the storage unit 16C includes the melody data in the melody change section that has been processed in step 112,
It consists of melody data outside the melody change section.

【0060】図9は、曲生成処理の第3の例を示すもの
であり、この例では、楽節メロディ生成用データがメロ
ディデータの他にメロディ特徴データを含み、このメロ
ディ特徴データが「メロディ変更後に最初と最後の音を
コード構成音にする」旨指示するものとする。
FIG. 9 shows a third example of the music generation processing. In this example, the phrase melody generation data includes melody characteristic data in addition to the melody data, and the melody characteristic data is "melody change". Later, the first and last sounds will be chord constituent sounds. "

【0061】図9のステップ110,112は、図8の
ステップ110,112とそれぞれ同様の処理であり、
簡単のため説明を省略する。上記例で示したようにメロ
ディ反転によりCDEGのメロディをEDCAのメロデ
ィに変更した場合、CDEGはコードCメジャーの感覚
であるのに対し、EDCAはコードAマイナーの感覚に
なってしまい、コード感覚が異常となる不都合がある。
Steps 110 and 112 in FIG. 9 are the same as steps 110 and 112 in FIG.
Description is omitted for simplicity. As shown in the above example, when the melody of the CDEG is changed to the melody of the EDCA by the melody inversion, the CDEG has the sensation of the chord C major, whereas the EDCA has the sensation of the chord A minor. There is an inconvenience.

【0062】このような不都合をなくし、音楽性を高め
るために付加されたのが、前述のメロディ特徴データと
ステップ114である。すなわち、ステップ114で
は、変更後のメロディをメロディ特徴データに応じて修
正することによりコード感覚の正常化を図っている。前
述例のようにステップ112でEDCAのメロディに変
更された場合には、メロディ特徴データの指示に従って
最後の音AをコードCメジャーの構成音であり且つAに
最も近い音であるGに変更することによりEDCGのメ
ロディを得ている。
The above-mentioned melody feature data and step 114 are added in order to eliminate such inconvenience and enhance the musicality. That is, in step 114, the melody after the change is corrected according to the melody feature data, thereby normalizing the sense of chord. When the melody is changed to the melody of EDCA in step 112 as in the above-described example, the last sound A is changed to G which is a sound constituting the chord C major and closest to A according to the instruction of the melody feature data. As a result, the melody of EDCG is obtained.

【0063】ステップ112,114の処理を受けたメ
ロディ変更区間内のメロディデータは、記憶部16Cに
書込まれる。また、メロディ変更区間外のメロディデー
タは、何の変更も受けずそのまま記憶部16Cに書込ま
れる。従って、記憶部16Cの曲データは、ステップ1
12,114の処理を受けたメロディ変更区間内のメロ
ディデータと、メロディ変更区間外のメロディデータと
からなる。
The melody data in the melody change section that has undergone the processing of steps 112 and 114 is written into the storage section 16C. The melody data outside the melody change section is written to the storage unit 16C without any change. Therefore, the music data in the storage unit 16C is stored in step 1
It consists of melody data in the melody change section that has undergone the processing of steps 12 and 114, and melody data outside the melody change section.

【0064】この発明は、上記した実施形態に限定され
るものではなく、種々の改変形態で実施可能なものであ
る。例えば、次のような変更が可能である。
The present invention is not limited to the above embodiment, but can be implemented in various modified forms. For example, the following changes are possible.

【0065】(1)メロディ生成用データは、例示した
ものに限らない。例えば、リズムパターンのみを記憶し
ておき、音高はランダムに決定するか又は別途指定した
ピッチパターンに従って決定するようにしてもよい。ま
た、ピッチパターン及びリズムパターンを共に記憶して
おき、音高及び音長を記憶に係るピッチパターン及びリ
ズムパターンにそれぞれ従って決定するようにしてもよ
い。
(1) The melody generation data is not limited to the illustrated one. For example, only the rhythm pattern may be stored, and the pitch may be determined randomly or according to a separately specified pitch pattern. Alternatively, the pitch pattern and the rhythm pattern may be stored together, and the pitch and the pitch may be determined according to the pitch pattern and the rhythm pattern related to the storage, respectively.

【0066】(2)メロディ生成用データを生成する区
間については、他の区間を参照して生成するか又は他の
区間とは独立に生成するかをユーザが任意に選択できる
ようにしてもよく、あるいはランダムに決定するように
してもよい。
(2) The section for generating the melody generating data may be configured so that the user can arbitrarily select whether to generate the melody generating data with reference to another section or independently of the other section. Alternatively, it may be determined at random.

【0067】(3)この発明は、多数のメロディ生成用
データをデータベースに記憶するものに限らず、ユーザ
がスイッチ群38や表示器40を用いてメロディ生成用
データを作成するものにも適用できる。この場合、すべ
ての区間についてメロディ生成用データを作成するのに
比べて、作成すべき区間が少ないため、容易にメロディ
生成用データを作成することができる。また、このよう
にしてユーザが作成したメロディ生成用データを、デー
タベースに登録するようにしてもよい。
(3) The present invention is not limited to the case where a large number of melody generating data are stored in a database, but can also be applied to a case where a user creates melody generating data using the switch group 38 and the display 40. . In this case, melody generation data can be easily created because there are fewer sections to be created than when melody generation data is created for all sections. Also, the melody generation data created by the user in this way may be registered in the database.

【0068】(4)この発明は、メロディ曲の生成に限
らず、リズムやベース等の伴奏曲の生成にも適用するこ
とができる。
(4) The present invention can be applied not only to the generation of melody music but also to the generation of accompaniment music such as rhythm and bass.

【0069】(5)この発明は、電子楽器の形態に限ら
ず、パーソナルコンピュータとアプリケーションソフト
ウェアとの組合せの形態でも実施することができる。ア
プリケーションソフトウェアは、磁気ディスク、光磁気
ディスク、半導体メモリ等の記録媒体に記憶させてパー
ソナルコンピュータに供給してもよいし、あるいは通信
ネットワークを介してパーソナルコンピュータに供給す
るようにしてもよい。
(5) The present invention is not limited to the form of an electronic musical instrument, but can also be implemented in the form of a combination of a personal computer and application software. The application software may be stored in a recording medium such as a magnetic disk, a magneto-optical disk, or a semiconductor memory and supplied to the personal computer, or may be supplied to the personal computer via a communication network.

【0070】(6)この発明は、電子楽器に限らず、カ
ラオケ装置等に用いる曲データの作成にも適用すること
ができる。
(6) The present invention can be applied not only to electronic musical instruments but also to the creation of music data used in karaoke apparatuses and the like.

【0071】(7)この発明は、鍵盤式電子楽器に限ら
ず、弦楽器式、管楽器式、打楽器式等の電子楽器にも適
用することができる。
(7) The present invention can be applied not only to keyboard-type electronic musical instruments but also to electronic musical instruments of stringed instrument type, wind instrument type, percussion instrument type, and the like.

【0072】(8)この発明は、音源装置、自動演奏装
置等を内蔵した電子楽器に限らず、鍵盤、音源装置、自
動演奏装置等をMIDIや各種ネットワーク等の通信手
段で結合した電子楽器にも適用することができる。
(8) The present invention is not limited to an electronic musical instrument having a built-in tone generator, an automatic musical instrument, and the like, but is also applicable to an electronic musical instrument in which a keyboard, a tone generator, an automatic musical instrument, etc. are connected by communication means such as MIDI or various networks. Can also be applied.

【0073】(9)メロディ、コード等の演奏データの
フォーマットは、イベントの発生時刻を1つ前のイベン
トからの相対時間で表わす「イベント+相対時間」方式
に限らず、イベントの発生時刻を曲や小節内の絶対時間
で表わす「イベント+絶対時間」方式、音符の音高と音
符長及び休符と休符長で曲の内容を表わす「音高(休
符)+符長」方式、イベント発生の最小時間単位毎に記
憶領域を確保し、イベントの発生時刻に対応する記憶領
域にイベントを記憶する方式等の任意の方式を用いるこ
とができる。
(9) The format of performance data such as melodies and chords is not limited to the “event + relative time” system in which the event occurrence time is represented by a relative time from the immediately preceding event. "Event + Absolute time" method that expresses the absolute time within a bar or bar, "Pitch (rest) + note length" method that expresses the content of a song by the pitch and note length of a note, and the rest and rest length, and an event An arbitrary method such as a method of securing a storage area for each minimum time unit of occurrence and storing the event in a storage area corresponding to the time of occurrence of the event can be used.

【0074】(10)複数チャンネル分の曲データを作
成する場合、複数チャンネルのデータを混在させて記録
してもよいし、チャンネル毎に記録トラックを別にして
記録してもよい。
(10) When creating music data for a plurality of channels, data for a plurality of channels may be mixed and recorded, or a recording track may be separately recorded for each channel.

【0075】(11)曲データを記録する場合、メモリ
内の連続する領域に時系列的に記録してもよいし、メモ
リ内の飛び飛びの領域に分散させて記録して連続するデ
ータとして管理するようにしてもよい。
(11) When music data is recorded, it may be recorded in a continuous area in the memory in a time-series manner, or may be dispersedly recorded in discrete areas in the memory and managed as continuous data. You may do so.

【0076】[0076]

【発明の効果】以上のように、この発明によれば、記憶
手段には生成すべき曲の一部区間に関する第1の区間曲
生成用データを記憶すると共に生成手段により曲の他の
区間に関する第2の区間曲生成用データを生成し、第1
及び第2の区間曲生成用データに基づいて曲を生成する
構成にしたので、記憶データ量の削減が可能となり、記
憶手段の記憶容量を低減できる効果が得られる。
As described above, according to the present invention, the storage means stores the first section music generation data relating to a partial section of the music to be generated, and the generation means relates to other sections of the music. The second section music generation data is generated, and the first
In addition, since the music is generated based on the second section music generation data, the amount of storage data can be reduced, and the storage capacity of the storage unit can be reduced.

【0077】また、記憶手段に記憶された第1の区間曲
生成用データに基づいて第2の区間曲生成用データを生
成する構成にした場合は、第1の区間曲生成用データに
類似した第2の区間曲生成用データを簡単に生成できる
効果がある。
When the second section music piece generation data is generated based on the first section piece music generation data stored in the storage means, the data is similar to the first section music piece generation data. There is an effect that the data for generating the second section music can be easily generated.

【0078】さらに、記憶手段に記憶された第1の区間
曲生成用データとは独立に第2の区間曲生成用データを
生成する構成にした場合は、第1の区間曲生成用データ
に制約されずにユニークな第2の区間曲生成用データを
生成できる効果がある。
Further, when the second section music piece generation data is generated independently of the first section piece music generation data stored in the storage means, the first section music piece generation data is restricted. Instead, there is an effect that unique second section music generation data can be generated.

【0079】さらに、第2の区間曲生成用データをユー
ザの指示に応じて生成する構成にした場合は、生成曲の
バリエーションが豊富になる効果がある。
Furthermore, when the second section music piece generation data is generated in accordance with the user's instruction, there is an effect that the variety of generated music pieces is increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態に係る自動作曲装置を
備えた電子楽器の回路構成を示すブロック図である。
FIG. 1 is a block diagram showing a circuit configuration of an electronic musical instrument including an automatic music composition device according to an embodiment of the present invention.

【図2】 この発明に係る作曲方法を説明するための説
明図である。
FIG. 2 is an explanatory diagram for explaining a composition method according to the present invention.

【図3】 データ変更処理の第1の例を示すフローチャ
ートである。
FIG. 3 is a flowchart illustrating a first example of a data change process.

【図4】 ピッチカーブの変更例を示す図である。FIG. 4 is a diagram showing a modified example of a pitch curve.

【図5】 データ変更処理の第2の例を示すフローチャ
ートである。
FIG. 5 is a flowchart illustrating a second example of the data change process.

【図6】 データ変更処理の第3の例を示すフローチャ
ートである。
FIG. 6 is a flowchart illustrating a third example of the data change process.

【図7】 曲生成処理の第1の例を示すフローチャート
である。
FIG. 7 is a flowchart illustrating a first example of a music generation process.

【図8】 曲生成処理の第2の例を示すフローチャート
である。
FIG. 8 is a flowchart showing a second example of the music generation processing.

【図9】 曲生成処理の第3の例を示すフローチャート
である。
FIG. 9 is a flowchart showing a third example of the music generation processing.

【符号の説明】[Explanation of symbols]

10:バス、12:CPU、14:ROM、16:RA
M、16A:作曲用データ記憶部、16B:曲生成用デ
ータ記憶部、16C:曲データ記憶部、18,20:検
出回路、22:表示回路、24:音源回路、26:効果
回路、28:外部記憶装置、30:MIDIインターフ
ェース、32:通信インターフェース、34:タイマ、
36:鍵盤、38:スイッチ群、40:表示器、42:
サウンドシステム、44:MIDI機器、46:通信ネ
ットワーク、48:サーバコンピュータ。
10: bus, 12: CPU, 14: ROM, 16: RA
M, 16A: music composition data storage unit, 16B: music generation data storage unit, 16C: music data storage unit, 18, 20: detection circuit, 22: display circuit, 24: tone generator circuit, 26: effect circuit, 28: External storage device, 30: MIDI interface, 32: communication interface, 34: timer,
36: keyboard, 38: switch group, 40: display, 42:
Sound system, 44: MIDI equipment, 46: Communication network, 48: Server computer.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】曲を構成する複数の区間のうち一部区間の
曲を生成するための第1の区間曲生成用データを記憶す
る記憶手段と、 前記複数の区間のうち前記一部区間以外の区間の曲を生
成するための第2の区間曲生成用データを生成する生成
手段と、 前記記憶手段から読出された第1の区間曲生成用データ
と前記生成手段により生成された第2の区間曲生成用デ
ータとに基づいて曲を生成する曲生成手段とを備えた自
動作曲装置。
1. A storage means for storing first section music generation data for generating music of a partial section of a plurality of sections constituting a music, and a section other than the partial section of the plurality of sections. Generating means for generating second section music generation data for generating music in the section of the first section; first section music generation data read from the storage means; and second data generated by the generating means. An automatic music composition device comprising: music generation means for generating music on the basis of section music generation data.
【請求項2】 前記生成手段は、前記記憶手段に記憶さ
れた第1の区間曲生成用データに基づいて前記第2の区
間曲生成用データを生成するものである請求項1記載の
自動作曲装置。
2. The automatic music composition according to claim 1, wherein said generation means generates said second music piece generation data based on the first music piece generation data stored in said storage means. apparatus.
【請求項3】 前記生成手段は、前記記憶手段に記憶さ
れた第1の区間曲生成用データとは独立に前記第2の区
間曲生成用データを生成するものである請求項1記載の
自動作曲装置。
3. The automatic generating apparatus according to claim 1, wherein said generating means generates said second section music generating data independently of said first section music generating data stored in said storage means. Composer.
【請求項4】 前記第2の区間曲生成用データの生成に
関する指示操作に応じて指示情報を発生する指示手段を
更に備え、前記生成手段は、前記指示手段からの指示情
報に応じて前記第2の区間曲生成用データを生成するも
のである請求項1〜3のいずれかに記載の自動作曲装
置。
4. An apparatus according to claim 1, further comprising an instruction unit configured to generate instruction information in response to an instruction operation relating to generation of the second section music generation data, wherein the generation unit is configured to generate the second section music data in response to the instruction information from the instruction unit. The automatic music composition device according to any one of claims 1 to 3, wherein the automatic music composition device generates section music data for generation of section 2.
【請求項5】曲を構成する複数の区間のうち一部区間の
曲を生成するための第1の区間曲生成用データを記憶す
る記憶手段を備えた自動作曲装置において使用される記
録媒体であって、 前記複数の区間のうち前記一部区間以外の区間の曲を生
成するための第2の区間曲生成用データを生成する生成
ステップと、 前記記憶手段から読出された第1の区間曲生成用データ
と前記生成ステップにより生成された第2の区間曲生成
データとに基づいて曲を生成するステップとを含むプロ
グラムを記録した記録媒体。
5. A recording medium used in an automatic music composition device having a storage means for storing first section music generation data for generating music of a partial section of a plurality of sections constituting a music piece. A generating step of generating data for generating a second section music for generating music in a section of the plurality of sections other than the partial section; and a first section music read from the storage unit. A recording medium recording a program including a step of generating a music piece based on the generation data and the second section music piece generation data generated in the generation step.
JP10251831A 1998-08-21 1998-08-21 Automatic music composing device and recording medium Pending JP2000066666A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10251831A JP2000066666A (en) 1998-08-21 1998-08-21 Automatic music composing device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10251831A JP2000066666A (en) 1998-08-21 1998-08-21 Automatic music composing device and recording medium

Publications (1)

Publication Number Publication Date
JP2000066666A true JP2000066666A (en) 2000-03-03

Family

ID=17228585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10251831A Pending JP2000066666A (en) 1998-08-21 1998-08-21 Automatic music composing device and recording medium

Country Status (1)

Country Link
JP (1) JP2000066666A (en)

Similar Documents

Publication Publication Date Title
US6395970B2 (en) Automatic music composing apparatus that composes melody reflecting motif
JP2000514571A (en) Automatic improvisation system and method
JP3637775B2 (en) Melody generator and recording medium
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
JP2002023747A (en) Automatic musical composition method and device therefor and recording medium
JP2001331175A (en) Device and method for generating submelody and storage medium
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3752859B2 (en) Automatic composer and recording medium
JP2000112472A (en) Automatic music composing device, and recording medium
JP3671788B2 (en) Tone setting device, tone setting method, and computer-readable recording medium having recorded tone setting program
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP3531507B2 (en) Music generating apparatus and computer-readable recording medium storing music generating program
JP3430895B2 (en) Automatic accompaniment apparatus and computer-readable recording medium recording automatic accompaniment control program
JP2000066666A (en) Automatic music composing device and recording medium
JP3775039B2 (en) Melody generator and recording medium
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP3835131B2 (en) Automatic composition apparatus and method, and storage medium
JP3775386B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775390B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3807333B2 (en) Melody search device and melody search program
JP5104414B2 (en) Automatic performance device and program
JP2000155573A (en) Musical data generating device and recording medium for it
JP3821094B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JPH11161267A (en) Automatic music composing device, and recording medium
JP3775388B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium