JP3275854B2 - Sound train forming device - Google Patents

Sound train forming device

Info

Publication number
JP3275854B2
JP3275854B2 JP32879198A JP32879198A JP3275854B2 JP 3275854 B2 JP3275854 B2 JP 3275854B2 JP 32879198 A JP32879198 A JP 32879198A JP 32879198 A JP32879198 A JP 32879198A JP 3275854 B2 JP3275854 B2 JP 3275854B2
Authority
JP
Japan
Prior art keywords
pitch
sequence
sound
generation
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32879198A
Other languages
Japanese (ja)
Other versions
JPH11237884A (en
Inventor
広子 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP32879198A priority Critical patent/JP3275854B2/en
Publication of JPH11237884A publication Critical patent/JPH11237884A/en
Application granted granted Critical
Publication of JP3275854B2 publication Critical patent/JP3275854B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は音楽装置に関し、
特に音楽パート(例えばメロディ)の音列を自動演奏等
のために形成する音列形成装置に関する。
The present invention relates to a music device,
In particular, the present invention relates to a sound string forming apparatus for forming a sound string of a music part (for example, a melody) for automatic performance or the like.

【0002】[0002]

【従来の技術】従来、自動伴奏のための音列形成装置で
は、音楽背景として基準の和音(例えばCメジャー)を
想定し、この基準の和音に対する伴奏パートの音列のデ
ータを予め記憶している。ここに記憶音列データの各音
の音高データ(垂直成分)は和音の根音に対する音程
(音高差)を表わすようになっている。動作において、
所望の和音の情報(根音と和音の種類)が与えられる
と、記憶音高データ(音程データ)をこの所望の和音の
情報に適した音高に変換することにより、所望の和音に
対する伴奏パートの音列を形成する。
2. Description of the Related Art Conventionally, in a sound string forming apparatus for automatic accompaniment, a reference chord (for example, C major) is assumed as a music background, and data of a sound string of an accompaniment part for the reference chord is stored in advance. I have. Here, the pitch data (vertical component) of each tone in the stored tone sequence data represents a pitch (pitch difference) with respect to the root of a chord. In operation,
When given chord information (root and chord types) is given, the stored pitch data (pitch data) is converted into a pitch suitable for the desired chord information, whereby an accompaniment part for the desired chord is converted. Is formed.

【0003】[0003]

【発明が解決しようとする課題】この発明の目的は、従
来とは全く異なる手法により音列を形成する音列形成装
置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a sound string forming apparatus for forming a sound string by a method completely different from the conventional one.

【0004】[0004]

【課題を解決するための手段】上記の目的を達成するた
め、この発明の一構成例によれば、楽音列を形成する各
楽音の垂直成分を抽象的な音の種類(音種)で表現し
種列を与える音種列付与手段と、所望の音楽背景の情
報を与える音楽背景付与手段と、基準音高の情報与え
る基準音高付与手段と、該基準音高付与手段から与えら
れる基準音高を直前の楽音の音高として、前記音種列
与手段から与えられる音種列を前記音楽背景付与手段か
ら与えられる音楽背景と前記基準音高とに基づいて各楽
音の垂直成分を具体的な音高で表現した音高列に変換す
ことにより、前記基準音高に後続する音高列を形成す
音高列変換手段と、を有することを特徴とする音列形
成装置が提供される。 また、他の構成例によれば、楽音
列を形成する各楽音の垂直成分を抽象的な音の種類(音
種)で表現した音種列を順次与える音種列付与手段と、
所望の音楽背景の情報を与える音楽背景付与手段と、基
準音高の情報を与える基準音高付与手段と、前記音種列
付与手段から与えられる音種列を、前記音楽背景付与手
段から与えられる音楽背景と前記基準音高付与手段から
与えられる基準音高とに基づき、各楽音の垂直成分を具
体的な音高で表現した音高列に順次変換する音高列変換
手段とを有し、前記基準音高付与手段は、前記音高列変
換手段にて既に変換済みの音高列における所定の音高を
基準音高として与える、ことを特徴とする音列形成装置
が提供される。これらの構成例によれば、最終的な音高
列の情報(自動演奏される楽音列情報)を得るための原
データとして音種(ノートタイプ)の楽音列、即ち音種
列を使用する。ここに、音種の楽音列における各楽音の
垂直成分(垂直情報)は、「音名(ピッチネーム)」や
「和音の根音に対する音程(ピッチインターバル)」の
ように具体的な音高を表わすのではなく、抽象的な音の
種類つまり「音種」を表現している。ここに「音種」と
は音楽表面の音高(例えばC4、B4など)をその音楽
表面の音楽的背景によって分析した場合に得られる情報
である。更に、この発明によれば、最終的に出力すべき
音高列の情報を得るために、基準音高(例えば既に得ら
れている具体的な音高)のデータと所望の音楽背景(例
えば調と和 音)の情報が与えられる。これに応答し
高列変換手段が動作し、与えられた所望の音楽背景と基
準音高とに基づき、上記音種列(原データ)を音高の楽
音列(各楽音の垂直成分を具体的な音高で表現した音高
列)に変換することにより、基準音高に後続する音高列
を得る。したがって本構成によれば、原データとして特
定の音高列の情報を用いることなく、所望の音楽背景に
適した音高列を形成することができる。
In order to achieve the above object, according to one embodiment of the present invention , a vertical component of each musical tone forming a musical tone sequence is represented by an abstract tone type (tone type). the
A note type sequence providing means for providing the note type column, and music background applying means for applying the information of the desired music background, and <br/> Ru standard pitch providing means provide information of the reference pitch, high applied the reference sound Given by means
The reference pitch is used as the pitch of the immediately preceding musical tone .
The sound type sequence given from the music background giving means
By converting based on the music background given al and said reference pitch in the vertical component of each musical tone pitch sequence expressed in specific pitch, a pitch sequence that follows the standard pitch Form
Sound column shape and having a pitch sequence converting section that, the
An apparatus is provided. According to another configuration example,
The vertical component of each musical tone that forms the sequence is
Sound type sequence giving means for sequentially giving a sound type sequence represented by
A music background providing means for providing desired music background information;
Reference pitch assigning means for giving information of quasi-pitch, and the pitch sequence
The sound type string given by the giving means is added to the music background giving hand.
From the music background given by the step and the reference pitch giving means
Based on the given reference pitch, the vertical component of each tone
Pitch sequence conversion to sequentially convert to pitch sequences expressed by physical pitch
Means, and wherein the reference pitch applying means comprises the pitch sequence changing means.
The predetermined pitch in the pitch sequence already converted by the conversion means
A sound sequence forming device is provided which is provided as a reference pitch . According to the configuration example of these, the tone sequence of the final pitch string information note type as original data for obtaining the (musical string information is automatically played) (note type), i.e. using a note type column I do. Here, the vertical component (vertical information) of each musical tone in the musical tone sequence of the tone type is a specific pitch such as “pitch name (pitch name)” or “pitch to the root of a chord (pitch interval)”. Instead of showing ,
It expresses the type, that is, the “sound type”. Here, the “tone type” is information obtained when the pitch (for example, C4, B4, etc.) of the music surface is analyzed based on the musical background of the music surface. Further, according to the present invention, in order to obtain information of a pitch sequence to be finally output, a reference pitch (for example, already obtained
Specific pitch data and the desired music background (eg
Eba tone and the information of the sum sound) is given. In response to this, the pitch sequence conversion means operates, and converts the above-mentioned tone type sequence (original data) into a pitch tone sequence (vertical component of each tone) based on the given desired music background and reference pitch. By converting the pitch sequence into a pitch sequence expressed by specific pitches.
Get . Therefore, according to this configuration, a pitch sequence suitable for a desired music background can be formed without using information of a specific pitch sequence as original data.

【0005】[0005]

【発明の実施の形態】以下、図面を参照してこの発明の
実施の形態を説明する。以下の説明では、この発明(音
列形成装置)を関連発明に係る自動メロディ生成装置で
ある自動作曲機に適用している。即ち、関連発明に係る
自動メロディ生成装置内の一機能である音列形成機能に
対してこの発明を適用した例である。図面中、特に、図
2、図4、図14−図17がこの発明に直接係っている
図である。図2において、この発明の実施の形態に係る
音列形成装置は、相対音種列度NCD(303)、基準
音高レジスタNOMモーション制御ロジック212、よ
みかえ音種列216、AV304、加算部222を含ん
で構成されている。図4において、この発明の実施の形
態に係る音列形成装置は、音種列テーブルから音種列を
取り出す(4−7)。音列形成装置は、この音種列を、
所望の音楽背景情報(調性和声情報)とモーション制御
用の基準音高データとに従って具体的な音高列(自動演
奏(4−9)用の音高列情報)に変換する(4−8)。
以下、関連発明に係る自動メロディ生成装置の説明を介
してこの発明の実施の形態に係る音列形成装置を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings. In the following description, the present invention (sound train forming device) is applied to an automatic music composition machine which is an automatic melody generating device according to a related invention. That is, this is an example in which the present invention is applied to a sound string forming function, which is one function in the automatic melody generation device according to the related invention. In the drawings, in particular, FIGS. 2, 4, 14 to 17 are diagrams directly related to the present invention. In FIG. 2, the note sequence forming apparatus according to the embodiment of the present invention includes a relative note type sequence degree NCD (303), a reference pitch register NOM motion control logic 212, a read back sound type sequence 216, an AV 304, and an adder 222. It is comprised including. In FIG. 4, the sound sequence forming apparatus according to the embodiment of the present invention extracts a sound type sequence from a sound type sequence table (4-7). The sound sequence forming device converts this sound type sequence into
It is converted into a specific pitch sequence (pitch sequence information for automatic performance (4-9)) according to desired music background information (tonality harmony information) and reference pitch data for motion control (4- 8).
Hereinafter, a sound sequence forming device according to an embodiment of the present invention will be described through an explanation of an automatic melody generating device according to a related invention.

【0006】原理(図1) 図1に関連発明の原理に従う自動メロディ生成装置の機
能ブロック図を示す。本自動メロディ生成装置の第1の
原理はメロディを複雑なメロディ生成アルゴリズムによ
って生成するのではなく、音楽データないし音楽データ
ベースに基づくアプローチでメロディを生成するように
したことである。音楽データをメロディ生成の基礎とす
ることにより、アルゴリズム特有の不自然なメロディの
生成を回避することができる。音楽データをメロディ生
成の基礎とする生成方式(音楽データ駆動メロディ生成
方式)は自然なメロディの生成能力ばかりでなく、高速
のメロディ生成能力をも可能にするものである。問題は
データの記憶容量である。例えば曲のデータベースを用
意し、曲データベースから曲を選択することによってメ
ロディを生成する構造を採用した場合には、メロディ生
成空間(作曲空間)を広くしようとすれば膨大な曲のデ
ータベースが必要となることは明らかである。例えば一
曲分のメロディを表現するのに必要な平均データ量を2
Kビットとすると10万曲の場合で2Mビットが必要で
ある。10万曲は多いようであるが関連発明の第2の原
理からみれば極めて少ない数である。関連発明の第2の
原理は、フレーズ(所定の音楽区間のメロディセグメン
ト)を生成単位として複数の音楽区間にわたるメロディ
を生成するようにしたことである。この生成原理によれ
ば例えば個々の音楽区間に対してフレーズとなりうるメ
ロディセグメントの数(候補数)を10とみて音楽区間
の数を例えば8区間(例えば8小節)とするとこの8区
間に対して生成可能なメロディフレーズの組み合わせは
10の8乗すなわち1千万になる。換言すると1千万の
曲が生成可能ということになる。すなわちフレーズを生
成単位とするメロディ生成方式は膨大な作曲空間を提供
するものである。上記第1の原理と第2の原理とを組み
合わせたものが図1におけるフレーズデータベース30
0である。フレーズを生成単位とするメロディ生成方式
における問題はフレーズ相互間の多様性と統一性のバラ
ンスにある。すなわち音楽的なメロディであるためには
メロディが単なる音の列ではなく有機的な関係ないしは
音楽的に意味をもって結合した音の列でなければならな
い。このことはメロディのセグメント間についても当て
はまる。すなわちメロディを構成するセグメント同士は
(音楽の進行や曲風等にしたがって)音楽的な関係をも
つものでなければならない。言いかえると第1のフレー
ズのあとにそれとはそぐわない第2のフレーズをつない
ではならない。要するに一方でフレーズ間の統一をはか
りながら他方でフレーズを展開、変形する知識が望まれ
る。
Principle (FIG. 1) FIG. 1 shows a functional block diagram of an automatic melody generator according to the principle of the related invention. The first principle of the automatic melody generation device is that a melody is generated not by a complicated melody generation algorithm but by an approach based on music data or a music database. By using music data as a basis for melody generation, generation of an unnatural melody specific to an algorithm can be avoided. The generation method based on music data for generating a melody (music data driven melody generation method) enables not only a natural melody generation capability but also a high-speed melody generation capability. The problem is data storage capacity. For example, if a song database is prepared and a melody is generated by selecting a song from the song database, a huge song database is required to expand the melody generation space (composition space). Obviously. For example, the average amount of data required to express a melody for one song is 2
If K bits are used, 2M bits are required for 100,000 songs. It seems that there are many 100,000 songs, but the number is extremely small in view of the second principle of the related invention. A second principle of the related invention is that a melody over a plurality of music sections is generated using a phrase (a melody segment of a predetermined music section) as a generation unit. According to this generation principle, for example, if the number of melody segments (the number of candidates) that can be a phrase for each music section is assumed to be 10, and the number of music sections is set to, for example, 8 (eg, 8 bars), then The number of melody phrase combinations that can be generated is 10 8 or 10 million. In other words, 10 million songs can be generated. In other words, the melody generation method using a phrase as a generation unit provides an enormous composition space. The combination of the first principle and the second principle is the phrase database 30 in FIG.
0. The problem in the melody generation method using a phrase as a generation unit lies in the balance between diversity and unity between phrases. In other words, in order to be a musical melody, the melody must be not a mere sequence of sounds, but a sequence of sounds that are organically related or musically combined with meaning. This is also true between melody segments. In other words, the segments that make up the melody must have a musical relationship (according to the progress of music, the style of music, etc.). In other words, the first phrase should not be preceded by a second phrase that does not match it. In short, it is desirable to have knowledge that develops and transforms phrases while unifying phrases on the one hand.

【0007】図1においてはこのような知識は主として
生成インデクスデータベース100におかれている。す
なわち生成インデクスデータベース100はさまざまな
曲を構成可能とするメロディ生成インデクスレコードの
集合体である。図1において曲Aの生成インデクスレコ
ードをR#1、曲Bの生成インデクスレコードをR#
2、……で示している。各曲生成インデクスレコードは
複数の音楽区間における個々の音楽区間に対するフレー
ズの生成インデクスによって構成することができる。各
レコードの個々のフレーズ欄(フレーズターム)に書か
れるフレーズ生成インデクス項目I1からInのセットは
確定的である必要はなく、音楽の種々の可能性を考慮し
て複数のインデクス候補をもつフレーズ生成インデクス
セットであることが好ましい。例えば1つのフレーズ欄
におけるフレーズ生成インデクスセットの候補数を平均
3とし、レコードのフレーズ欄の数を平均8とすれば各
レコードは平均として3の8乗の生成インデクスの組み
合わせ、すなわち生成可能な曲の組み合わせを作り出
す。換言すると各レコードは(共通性はあるにしても)
多数の曲群の生成インデクスレコードとなる。これは、
曲数に関して生成情報の圧縮情報を提供するものであ
る。フレーズ生成インデクス項目I1〜Inにはフレーズ
データベース300を検索するための情報が含まれる。
さらにフレーズ生成インデクス項目にはある音楽区間の
フレーズを別の音楽区間のフレーズと似たようなものに
するためのコマンドを含むこともできる。なお、生成イ
ンデクスデータベース100は、多様なメロディ生成の
ためにフレーズターム相互を適当にリンクした構造(フ
レーズタームネットワーク)の集合体の形態をとり得
る。この場合、フレーズタームネットワークが生成イン
デクスレコードとなる。フレーズデータベース300は
フレーズ自体を表わすデータの単なる集合体であっても
よい。しかしこの種のフレーズデータベースはシステム
の構築を容易にする一方で生成可能なメロディ空間を制
限する。というのはそのような集合体はメロディの生成
空間あるいはフレーズの生成空間を広くしようとすれば
曲のメロディ自体を表現するデータベースに比べればは
るかに少ないにしてもそれでもなお膨大なデータ量を必
要とするからである。
In FIG. 1, such knowledge is mainly stored in the generated index database 100. That is, the generation index database 100 is a set of melody generation index records that can compose various songs. In FIG. 1, the generation index record of song A is R # 1, and the generation index record of song B is R #.
2,... Each song generation index record can be configured by a phrase generation index for each music section in a plurality of music sections. Individual phrases column set from the phrase generator index item I 1 written in (phrase term) I n of each record need not be deterministic, having a plurality of indexes candidates in consideration of the various possibilities of music It is preferably a phrase generation index set. For example, if the number of phrase generation index set candidates in one phrase field is 3 on average, and the number of phrase fields in a record is 8 on average, each record is a combination of 3 8 generation indexes on average, that is, songs that can be generated. Create a combination of In other words, each record (even though there is some commonality)
It becomes a generation index record for a number of music groups. this is,
It provides compression information of the generation information regarding the number of songs. The phrase generating index item I 1 ~I n includes information for searching a phrase database 300.
Further, the phrase generation index item may include a command for making a phrase in one music section similar to a phrase in another music section. The generation index database 100 can take the form of an aggregate of a structure (phrase term network) in which phrase terms are appropriately linked to each other for generating various melodies. In this case, the phrase term network is the generated index record. The phrase database 300 may be a mere collection of data representing the phrase itself. However, this kind of phrase database limits the melody space that can be generated while facilitating system construction. This is because such an aggregate would require a huge amount of data, even if it is much smaller than the database that expresses the melody of the song itself, in order to expand the melody generation space or phrase generation space. Because you do.

【0008】広いメロディ生成空間を提供するため、関
連発明の好ましい態様ではフレーズを幾つかのフレーズ
構成要素ないし構成要素(例えばリズム、リズム種、音
種列、高列)に分ける。そして各構成要素のテーブルが
フレーズデータベース300におかれる。図1にはフレ
ーズデータベース300中にフレーズ構成要素Aのテー
ブル31、フレーズ構成要素Bのテーブル32、フレー
ズ構成要素Cのテーブル33を例示している。各テーブ
ル31、32、33は構成要素の集合体である。例えば
テーブル31は多数のフレーズ構成要素Aをもってい
る。各テーブルは基本的にルックアップテーブルメモリ
で実現できる。このような構成のフレーズデータベース
300を使用する場合、あるテーブルのどの要素ないし
要素群が別のテーブルのどの要素ないし要素群にあうか
どうかを定める手段(テーブル間の関連付け手段)を設
けることが望ましい。これはフレーズデータベースのテ
ーブルの要素にあるいは要素群に別のテーブルの要素な
いし要素群を指定する情報をもたせることにより達成で
きる。また、フレーズ生成インデクス項目中に、フレー
ズ構成要素間の関連付けの態様を指定する情報をもたせ
ることも可能である。換言するとそのような指定情報は
あるテーブルから別のテーブルへの写像ないしインデク
ス情報である。例えばテーブル31をフレーズのリズム
テーブルとし、テーブル33をフレーズの音種のテー
ブルだとすると、リズムテーブル31中の所定要素すな
わちリズムないしは要素群(リズム群)が音種列テーブ
ル33中の所定の要素群すなわち音種列群を指すように
する写像情報をリズムテーブル31やフレーズ生成イン
デクス項目中にもたせることができる。このような手段
は、関連付けのない無意味なフレーズ構成要素の組み合
わせを排除しつつ、広大なフレーズ生成空間を提供す
る。図1において解読生成手段200は生成インデクス
データベース100から取り出した曲生成インデクスレ
コード(ここではR#S)に含まれる音楽区間ごとのフ
レーズ生成インデクス情報I1〜Inを用いてフレーズデ
ータベース300を検索し、それによってフレーズ生成
インデクスの解読結果であるフレーズを生成する。例え
ばレコードR#Sが4音楽区間のフレーズ生成インデク
スレコードだとすると解読生成手段200は第1の音楽
区間のフレーズ生成インデクスから第1のフレーズP1
を生成し、第2の音楽区間のフレーズ生成インデクスか
ら第2のフレーズP2を生成し、以下同様に第3区間の
フレーズ生成インデクスから第3フレーズP3を生成
し、第4区間のフレーズ生成インデクスから第4区間の
フレーズを生成する。これにより4フレーズから成るメ
ロディMが得られる。解読生成手段200の内部構成は
種々の形態をとりうるが基本的にはフレーズデータベー
ス300の個々のルックアップテーブルを通すことによ
り、データの写像をとるモジュール群で構成できる。こ
のような構成は、解読生成手段200の動作速度ひいて
は本自動メロディ生成装置の応答を高速化する利点を生
み出すものである。
In order to provide a wide melody generation space, a preferred embodiment of the related invention divides a phrase into several phrase components or components (eg, rhythm, rhythm type, tone sequence, high row). Then, a table of each component is stored in the phrase database 300. FIG. 1 illustrates a table 31 of the phrase component A, a table 32 of the phrase component B, and a table 33 of the phrase component C in the phrase database 300. Each of the tables 31, 32, and 33 is an aggregate of constituent elements. For example, the table 31 has many phrase components A. Each table can be basically realized by a look-up table memory. When the phrase database 300 having such a configuration is used, it is desirable to provide means (associating means between tables) for determining which element or element group of one table corresponds to which element or element group of another table. . This can be achieved by having the elements of the table of the phrase database or the element group have information specifying elements or elements of another table. Further, it is also possible to provide information specifying a mode of association between phrase components in the phrase generation index item. In other words, such designation information is a mapping or index information from one table to another table. For example, assuming that the table 31 is a rhythm table of a phrase and the table 33 is a table of a sound type sequence of a phrase, a predetermined element in the rhythm table 31, that is, a rhythm or an element group (rhythm group) is a predetermined element group in the sound type sequence table 33. That is, mapping information that points to the sound type string group can be provided in the rhythm table 31 or the phrase generation index item. Such means provides a vast phrase generation space while eliminating combinations of meaningless phrase components without association. In FIG. 1, the decryption generation means 200 searches the phrase database 300 using the phrase generation index information I1 to In for each music section included in the music generation index record (here, R # S) extracted from the generation index database 100, As a result, a phrase as a result of decoding the phrase generation index is generated. For example, if the record R # S is a phrase generation index record of four music sections, the decryption generation means 200 calculates the first phrase P1 from the phrase generation index of the first music section.
Is generated, a second phrase P2 is generated from the phrase generation index of the second music section, a third phrase P3 is similarly generated from the phrase generation index of the third section, and a third phrase P3 is generated from the phrase generation index of the fourth section. A phrase for the fourth section is generated. As a result, a melody M composed of four phrases is obtained. Although the internal configuration of the decryption generation means 200 can take various forms, it can be basically configured by a group of modules for mapping data by passing each lookup table of the phrase database 300. Such a configuration produces an advantage of increasing the operation speed of the decryption generation unit 200 and, consequently, the response of the automatic melody generation device.

【0009】例えば解読生成手段200は生成インデク
スデータベース100からの第1のフレーズ生成インデ
クス項目I1を用いてフレーズデータベース300中の
フレーズ構成要素テーブルをアクセス(ルックアップ)
することにより第1フレーズ生成インデクス項目I1の
データ写像(解読結果)を得ることができる。あるいは
解読生成手段200中の写像化モジュール(その1つを
参照番号21で示している。)はフレーズデータベース
から取り出した写像化情報ないしその識別情報を適当な
フレーズ生成インデクス項目と組み合わせてフレーズデ
ータベース300中の別のフレーズ構成要素テーブルを
アクセスすることによりそのテーブルがかかわるフレー
ズ構成要素についての写像化データを得ることができ
る。このような写像化データのうち、音楽表面レベルに
ある情報としてリズムと音高列をそれぞれ参照番号26
と25によって解読生成手段200内に示している。
又、解読生成手段200が過去に生成した写像化データ
として過去のフレーズ22、過去のフレーズのリズム2
3、過去のフレーズの音種列24を解読生成手段200
内に示している。例えば過去のフレーズの音種24を
第1のテーブル引数とし、フレーズ生成インデクス72
中のピッチインデクス項目を第2のテーブル引数とし
フレーズデータベース300中の音種列テーブルを
アクセスすることにより音楽区間内のフレーズ音種列
を表わす写像化データをとることができる。あるいは過
去のフレーズのリズム23を第1引数とし、フレーズ生
成インデクスのうち、リズム変化インデクスを第2の引
数として、フレーズデータベース300中に設けたリズ
ムテーブルをルックアップすることにより、現区間のリ
ズムを表わす写像化データをとることができる。このよ
うな写像化モジュールによって達成される利点は現区間
のフレーズを生成インデクスレコードR#Sとフレーズ
データベース300中のデータとによって指示される形
で過去のフレーズに対して、所望の音楽的類似性ないし
変化を達成できることである。一番簡単な例としてフレ
ーズ生成インデクス項目中に過去のフレーズ22の反復
コマンドを設けておけば解読生成手段は現区間のフレー
ズP3を過去のフレーズ22と同一のものとして形成す
ることによりフレーズの構造的な反復を容易に実現でき
る。そのような構造的反復はフレーズがテーマフレーズ
であるような場合特に有効である。図1には示していな
いがテーマフレーズ(テーマ)を設定する手段を設け、
設定したテーマによって生成インデクスデータベース1
00中のメロディ生成インデクスレコードR#Sを選択
するようにしてもよい。解読生成手段200中の写像化
モジュール群を通して得られた音楽表面情報であるフレ
ーズ音高列25とフレーズリズム26は音楽区間のメロ
ディセグメントすなわちフレーズを表現するものであ
る。図1では音高列25とリズム26とによってフレー
ズP3が表現されることを矢印で示している。
For example, the decryption generation means 200 accesses (looks up) the phrase component table in the phrase database 300 using the first phrase generation index item I 1 from the generation index database 100.
Thus, a data mapping (decoding result) of the first phrase generation index item I1 can be obtained. Alternatively, the mapping module (one of which is indicated by reference numeral 21) in the decryption generation means 200 combines the mapping information extracted from the phrase database or the identification information thereof with an appropriate phrase generation index item to form the phrase database 300. By accessing another phrase component table therein, it is possible to obtain mapping data for the phrase components involved in the table. Among such mapped data, a rhythm and a pitch sequence are referred to as reference information 26 at the music surface level, respectively.
And 25 in the decryption generating means 200.
Also, the past phrase 22 and the rhythm 2 of the past phrase are used as the mapping data generated in the past by the decryption generation means 200.
3. Decoding and generating the tone type sequence 24 of the past phrase 200
Shown in For example, using the tone type sequence 24 of the past phrase as the first table argument , the phrase generation index 72
By accessing the tone type sequence table in the phrase database 300 using the pitch index item in the second as a second table argument , it is possible to obtain mapped data representing a phrase type sequence in the current music section. Alternatively, by using the rhythm 23 of the past phrase as the first argument and the rhythm change index of the phrase generation index as the second argument, the rhythm in the current section is looked up by looking up the rhythm table provided in the phrase database 300. Represented mapped data can be taken. The advantage achieved by such a mapping module is that the desired musical similarity to the previous phrase in the form indicated by the index record R # S and the data in the phrase database 300, which produces the phrase in the current interval. Or to achieve change. As the simplest example, if a repetition command of the past phrase 22 is provided in the phrase generation index item, the decryption generation means forms the phrase P3 in the current section as the same as the past phrase 22, thereby constructing the phrase structure. Repetition can be easily realized. Such a structural repetition is particularly useful when the phrase is a theme phrase. Although not shown in FIG. 1, means for setting a theme phrase (theme) is provided.
Generated index database 1 according to the set theme
The melody generation index record R # S in 00 may be selected. The phrase pitch sequence 25 and the phrase rhythm 26, which are the music surface information obtained through the mapping module group in the decryption generating means 200, represent a melody segment of a music section, that is, a phrase. In FIG. 1, arrows indicate that the phrase P3 is represented by the pitch sequence 25 and the rhythm 26.

【0010】メロディ生成機能(図2) 図2に関連発明の実施形態に係るメロディ生成装置の機
能ブロック図を示す。図2の構成は、図1で述べた関連
発明の原理の実施例を示したものである。図2の諸要素
のうち、200番台の番号がついた要素が全体として解
読生成手段200の具体例であり、300番台がついた
要素全体が図1のフレーズデータベース300の具体例
である。番号400番台の要素は生成されたメロディの
表面情報を表わしている。要素101は図1の選択生成
インデクスレコードR#Sのある音楽区間に対するフレ
ーズの生成インデクスセットを表わしている。したがっ
て図2において、フレーズデータベースはRCL表30
1、RPDリズム表302、NCD相対音種列表303
及びAV表304から構成されている。一方フレーズ生
成インデクスセット101はインデクス項目として調性
インデクスTI、ピッチ変化インデクスPI、リズム変
化インデクスRI及び楽式インデクスFIをもってい
る。調性インデクスTIは生成インデクスセット101
かわる音楽区間の調性情報を表す。ピッチ変化イン
デクスPIは生成インデクスセット101がかかわる音
楽区間のピッチ制御因子である。リズム変化インデクス
RIは生成インデクスセット101がかかわるフレーズ
のリズム制御因子である。ただし実施例の適用におい
て、リズム変化インデクスRIはピッチ制御因子の性格
も有している。楽式インデクスFIは生成インデクスセ
ット101がかかわるフレーズの楽式を表す情報であ
り、この情報はここではリズム群指定因子として使用さ
れている。生成メロディ表面情報のうち401は前区間
(前音楽区間)の音高列であり、402は現区間の音高
列であり、403は前区間のリズム(音長列)であり、
404は現区間のリズムである。したがって現区間のフ
レーズ(メロディセグメント)は現区間の音高列402
と現区間のリズム404とによって構成される。同様に
前区間のフレーズは前区間の高音列401と前区間のリ
ズム403とによって構成される。図2において解読生
成手段は現区間の生成インデクスセット101とフレー
ズデータベース(301、302、303、304)と
を以下述べるようにして用いて現区間のフレーズ(音高
列402、リズム404)を生成する。すなわち解読生
成手段はライン201に示すように楽式インデクスFI
でRCL表301をルックアップして楽式インデクスF
Iの写像データを得る。この写像データは現区間のフレ
ーズが取りうるリズム群を指定する因子として用いられ
る。すなわち解読生成手段はライン202に示すように
RCL表301からルックアップしたデータをRPDリ
ズム表302への第1引数(Argument)として
使用する。さらに解読生成手段200はライン203で
示すようにフレーズ生成インデクスセット101のリズ
ム変化インデクスRIをRPDリズム表302の第2引
数として使用する。さらに解読生成手段はライン207
に示すように前区間のリズム識別子である前TRD2
6をRPDリズム表の第3引数として使用する。これら
の引数の組み合わせ(リズム変化インデクスRIRC
L表出力、前区間のリズム情報206の組み合わせ)に
対してRPDリズム表30は現区間のリズムパターン
情報RPを出力すると共に現区間のリズム404の識別
子を出力する。
Melody Generation Function (FIG. 2) FIG. 2 shows a functional block diagram of a melody generation device according to an embodiment of the present invention. The configuration of FIG. 2 shows an embodiment of the principle of the related invention described in FIG. 2 are specific examples of the decryption generating means 200 as a whole, and the entire elements having the 300s are specific examples of the phrase database 300 of FIG. Elements in the 400s represent surface information of the generated melody. Element 101 represents a phrase generation index set for a certain music section of the selection generation index record R # S of FIG. Therefore, in FIG.
1. RPD rhythm table 302, NCD relative tone type sequence table 303
And an AV table 304. On the other hand, the phrase generation index set 101 has a tonality index TI, a pitch change index PI, a rhythm change index RI, and a musical style index FI as index items. The tonality index TI is generated index set 101
Representing the tonality information of the music section that but replace either. The pitch change index PI is a pitch control factor of a music section to which the generated index set 101 is related. The rhythm change index RI is a rhythm control factor of the phrase related to the generation index set 101. However, in the application of the embodiment, the rhythm change index RI also has the property of a pitch control factor. The musical style index FI is information representing the musical style of the phrase related to the generation index set 101, and this information is used here as a rhythm group designating factor. 401 in the generated melody surface information is pitch string before section (before music section), numeral 402 denotes a pitch <br/> column of the current section, 403 is the rhythm before the section (tone length column) ,
Reference numeral 404 denotes the rhythm of the current section. Therefore, the phrase (melody segment) of the current section is the pitch sequence 402 of the current section.
And the rhythm 404 of the current section. Similarly, the phrase in the preceding section is composed of the treble string 401 in the preceding section and the rhythm 403 in the preceding section. In FIG. 2, the decryption generating means uses the generated index set 101 of the current section and the phrase database (301, 302, 303, 304) in the manner described below to use the phrase ( pitch row 402, rhythm) of the current section. 404). In other words, the decryption generating means performs the musical index FI
Look up the RCL table 301 with
The mapping data of I is obtained. This mapping data is used as a factor for specifying a rhythm group that can be taken by the phrase in the current section. That is, the decryption generation means uses the data looked up from the RCL table 301 as the first argument (Argument) to the RPD rhythm table 302 as shown by the line 202. Further, the decryption generation means 200 uses the rhythm change index RI of the phrase generation index set 101 as the second argument of the RPD rhythm table 302 as shown by the line 203. Further, the decryption generating means is a line 207
TRD2 before a rhythm identifier of the previous section, as shown in 0
6 is used as the third argument of the RPD rhythm table. Combination of these arguments (Rhythm change index RI , RC
L table output, RP D rhythm Table 30 2 for the previous combination of rhythm information 206 of the section) outputs the identifier of the rhythm 404 of the current period and outputs a rhythm pattern data RP of the present interval.

【0011】次に解読生成手段200はライン204に
示すようにリズム表302から取り出した現区間のリズ
ムの識別子を現TRD205に記録する。現TRD20
5に記録された情報は次の音楽区間のフレーズを生成す
る際に前TRD206に移される。解読生成手段200
は現区間のリズムを現区間の音種列をグループ指示す
る因子すなわち現区間のフレーズがとり得る音種列の群
を指定する因子として利用する。このために解読生成
手段200は現TRD205にある現区間リズム識別子
情報をNCD相対音種列表303の第1引数として使用
する。さらに解読生成手段はライン209に示すように
フレーズ生成インデクスセット101のピッチ変化イン
デクスPIをNCD相対音種列表303の第2引数とし
て使用する。このような引数の組み合わせに対し、相対
音種列表303は引数の組み合わせに適した相対音種列
データを出力する。ここに相対音種列とは基準となる音
高が与えられた場合にその基準音高に対して相対的に定
められる音種列のことである。また、音種列とは調性情
報ないし調性和声(Tonal Harmonic、即
ち調と和音)が特定されることによって具体的な音高
(音楽表面としての音高)の列に変換することができる
情報である。一言でいうと音種列は抽象的な音高列であ
る。さらに言い換えれば音種列とは音楽表面の音高(例
えばC4、B4など)の列をその音高列の音楽的背景で
ある調性によって分析した場合に得られる情報である。
メロディ表面の音高列すなわちここでは現区間の音高列
402を生成することが解読生成手段の重要な機能の1
つである。この発明の実施の形態に従い、解読生成手段
は相対音種列表303から取り出した相対音種列を以下
のように処理することによってフレーズ表面の音高列4
02を形成する。すなわち解読生成手段はライン210
に示すように相対音種列表303から取り出した相対音
種列データを区間の境のモーション制御ロジック212
に取り込む。モーション制御ロジック212の目的は基
準音高NOMによって相対音種列を読み替えることであ
る。このためにモーション制御ロジック212はライン
211に示すように基準音高NOMの情報を受け取る。
図2の例では基準音高NOMは前区間の最終音の音高と
して定義される。さらにモーション制御ロジック212
は現区間の生成インデクスセット101の調性インデク
スPIに含まれる基音ピッチクラス(コードルートかキ
ーノート)をライン214に示すようにして受け取る。
モーション制御ロジック212は基準音高NOMを
準音高NOMと特定の音高関係をもつ音種(例えば基準
音高NOMのすぐ上にくる音高を現区間の調性で評価し
たときの音種)を判断するのに使用する。このために
例えばモーション制御ロジック212はPC(ピッチク
ラス)変換表(AV)304をライン213に示すよう
に検索して各音種の検索結果にライン214からの基音
ピッチクラス(ルートかキーノート)をモジュロ加算し
て各音種のピッチクラスを求め、それをNOMのピッチ
クラスと比較することによってNOMと特定の音高関係
を持つ音種を識別する。ここにピッチクラスとはCとか
Dとかいう音名のことである。ピッチクラスの言い方に
したがえば第1オクターブのCすなわちC1と第5オク
ターブのCすなわちC5は同じピッチクラスCに属する
という。
Next, the decryption generation means 200 records the identifier of the rhythm of the current section extracted from the rhythm table 302 in the current TRD 205 as shown by a line 204. Current TRD20
The information recorded in No. 5 is transferred to the previous TRD 206 when a phrase for the next music section is generated. Decryption generation means 200
It is the rhythm of the current period, as a factor that specifies the group of factors that is sound species columns that can be taken by the phrase of the current segment group indicates the note type column of the current section, to use. For this purpose, the decryption generating means 200 uses the current section rhythm identifier information in the current TRD 205 as the first argument of the NCD relative tone type string table 303. Further, the decryption generation means uses the pitch change index PI of the phrase generation index set 101 as the second argument of the NCD relative tone type sequence table 303 as shown by the line 209. For such a combination of arguments, the relative tone type sequence table 303 outputs relative tone type sequence data suitable for the combination of the arguments. Here, the relative pitch sequence refers to a pitch sequence determined relatively to the reference pitch when a reference pitch is given. The tonal sequence can be converted into a sequence of specific pitches (pitch as a music surface) by specifying tonal information or tonal harmonics (Tonals and Chords). Information that can be done. In short, the pitch sequence is an abstract pitch sequence. In other words, the tone type sequence is information obtained when a sequence of pitches (for example, C4, B4, etc.) on the music surface is analyzed by the tonality which is the musical background of the pitch sequence.
The generation of the pitch sequence on the melody surface, ie, the pitch sequence 402 in the current section, is one of the important functions of the decryption generation means.
One. According to the embodiment of the present invention, the decryption generation means processes the relative tone sequence extracted from the relative tone sequence table 303 as follows to obtain the pitch sequence 4 on the phrase surface.
02 is formed. That is, the decryption generation means uses the line 210
The relative sound type sequence data extracted from the relative sound type sequence table 303 as shown in FIG.
Take in. The purpose of the motion control logic 212 is to replace the relative pitch sequence with the reference pitch NOM. To this end, the motion control logic 212 receives the reference pitch NOM information as shown by line 211.
In the example of FIG. 2, the reference pitch NOM is defined as the pitch of the last note in the previous section. Further, motion control logic 212
Receives the fundamental pitch class (chord root or key note) included in the tonality index PI of the generated index set 101 of the current section as indicated by a line 214.
The motion control logic 212 determines the reference pitch NOM as a pitch type having a specific pitch relationship with the reference pitch NOM (for example, a pitch when the pitch immediately above the reference pitch NOM is evaluated based on the tonality of the current section). to determine the species), it is used. For this purpose, for example, the motion control logic 212 searches the PC (pitch class) conversion table (AV) 304 as shown by a line 213 and adds the fundamental pitch class (root or key note) from the line 214 to the search result of each tone type. Is modulo-added to determine the pitch class of each tone type, and compares it with the NOM pitch class to identify a tone type having a specific pitch relationship with the NOM. Here, the pitch class is a pitch name such as C or D. According to the pitch class, C of the first octave, ie, C1, and C of the fifth octave, ie, C5, belong to the same pitch class C.

【0012】次にモーション制御ロジック212は識別
した音種(基準音高NOMと特定の音高関係を持つ音
種)の情報を用いて相対音種列表303からひいた相対
音種列を変換してライン25からボックス216に示
すように読み替え音種列を形成する。さらにモーション
制御ロジック212は基準音高NOMのオクターブ情報
を取り出し、ライン215を介してオクターブを設定す
る。読み替え音種列とオクターブを形成した後、解読生
成手段はPC変換テーブル304を介してフレームの音
高列(ここでは現区間の音高列402)を形成する。こ
のために解読生成手段は読み替え音種列の各要素(音
種)をライン217に示すようにPC変換テーブル30
4の第1引数として使用し、また、調性インデクスPI
からの調性和声(例えばV7thのような情報)をライ
ン218に示すようにPC変換テーブル304への第2
引数として使用する。この引数の組み合わせで指定され
るPC変換テーブル304の項目にはライン217か
らの音種をライン218からの調性和声で評価したとき
の、基音ピッチクラスからの音程を表すデータが書かれ
ている。そこで解読生成手段はライン219、ライン2
20および加算要素222で示すようにPC変換テーブ
ル304から引いた音程データと調性インデクスPIか
らの基音ピッチクラスとをオクターブ(12)モジュロ
加算する。これにより音種はピッチクラスに変換され
る。この変換されたピッチクラスに適当なオクターブ情
報をライン221を介してさらに加えることによりオク
ターブ情報がついた具体的な音高PITが得られる。こ
の音高データPITは現区間の音高列402において着
目している音高402Cを定めるものである。読み替え
音種列216の各要素を上で述べたようにして変換する
ことにより現区間の音高列402が得られる。図2にお
いて、この発明の実施の形態に係るモーション制御ロジ
ック212は主にデータ圧縮を目的として設けられた手
段である。換言すると記憶容量の増大をいとわなければ
モーション制御ロジック212を省略して適当な音高列
表を使用することができる。そのよういな音高列表は例
えば第1の引数として現TRD205、第2の引数とし
てピッチ変化インデクスPI、第3の引数としてNOM
情報(例えばNOMのピッチクラスが現区間の調性イン
デクスの基音ピッチクラスに対してもつ音程)及び第4
の引数として現区間の調性インデクスTIの調性和声情
報を使用し、これら4つの引数の組み合わせに対して適
当な音高列情報(各要素が基音ピッチクラスに対する音
程を示すような情報)を出力するようなものとなろう。
しかしながらこのような音高列表を使用したとすれば相
対音列表303の引数の組み合わせに比べ桁違いの引数
の組み合わせの増大が生じる。例えば調性和声の項目が
20種類、基準音ピッチクラスの種類を12として引数
組み合わせは240倍になる。これは音高列表(ルック
アップテーブルメモリ)に対して広大なアドレス空間が
必要となることを意味する。さらに引数の組み合わせの
1つ1つに対して1対1対応で音高列データを用意しよ
うとすれば音高列表の記憶容量も240倍に相当する大
きさになってしまう。図2の構成は今日の代表的なマイ
クロコンピュータにおいて使用できる記憶容量(特に内
部記憶容量)を考慮しつつ、図1で述べた関連発明の原
理に基づく自動メロディ生成装置の機能の配置実現を示
したものである。したがって図2の構成は最良の実施態
様を表すものではあるが、これに限定されるものではな
いことは勿論である。例えば図2におけるRCL表30
1を省略し、楽式インデクスFIを直接リズム表302
への引数として使用することができる。また、現TR
205は現区間リズムの識別子(固有識別番号)である
必要は必ずしもなく、例えば現区間のリズムの特徴を示
すような情報であってもよい。このことはリズム表30
2にリズムデータRP毎にそのリズムの特徴を示す情報
をもたせてもよいことを意味している。リズム識別子の
代わりにリズム特徴情報を用いるということは現RD
205がとり得る値の数を少なくすることを意味してい
る。したがってその特徴情報を相対音種列表303の引
数として使用する場合に相対音種列表メモリの記憶容量
を少なくすることを意味する。又、図2の構成では前区
間のリズム識別子情報をリズム表302への引数の1つ
として用いているが前区間は必らずしも1つ前の区間で
ある必要はなく、例えば2つ前の区間あるいは3つ前の
区間というようなことでもよい。換言すると、図2の構
成の場合には前区間のリズムの識別子をリズム表302
への引数の1つとすることにより、現区間のリズム40
4を前区間のリズム408に(強く)関係付けている。
しかしながら小さなフレーズが組み合わさって大きなフ
レーズになることは音楽のよく経験するところである。
例えばあるフレーズを2つに分けた時、フレーズ前半の
特徴が後半に現われるのではなく、次のフレーズの前半
に現われ、又フレーズの後半の特徴は次のフレーズの前
半に現われるのではなく、次のフレーズの後半に現われ
るといったようなことが現実のメロディではしばしば生
じる。このような効果を生じさせるために前TRD20
6に現区間より1つ前のリズムの識別子ないし、特徴情
報を記憶させる代わりに現区間より2つ前のリズムの識
別子あるいは、特徴情報を記憶させ、それによってリズ
ム表302をアクセスすることによって現区間のリズム
を生成するようにしてもよい(どの先行区間のリズムを
現区間のリズムに反映させるかを指示する情報を生成イ
ンデクスに含めることができる。)。又、図2ではリズ
ム表302と相対音種列表303との間を現TRD20
5を介して関連づけているが、この代わりに相対音種列
表303の相対音種列項目にその相対音種列を特徴づけ
る情報をもたせ、その特徴情報をリズム表302への引
数として使用する構成も可能である。又、相対音種列表
303に第3の引数として前区間ないし所定の先行区間
の相対音種列を特徴づける情報を用いることも可能であ
る。そのような構成は前区間の音種列と現区間の音種列
との間に強い相関関係(したがって前区間の音高列と現
区間の音高列との間に強い相関関係を与える。)を与え
ることを可能にする。その他図1で述べた関連発明の原
理にしたがい、図2の構成は種々に変形可能である。
Next, the motion control logic 212 uses the information of the identified tone type (the tone type having a specific pitch relationship with the reference pitch NOM) to convert the relative tone type sequence obtained from the relative tone type sequence table 303. As shown in a box 216, a rewritten tone sequence is formed from the line 2 15 . Further, the motion control logic 212 extracts the octave information of the reference pitch NOM, and sets the octave via the line 215. After forming the octave and the substitute tone sequence, the decoding generation means forms the pitch sequence of the frame (here, the pitch sequence 402 of the current section) via the PC conversion table 304. For this purpose, the decryption generating means converts each element (sound type) of the replacement sound type sequence into a PC conversion table 30 as shown by a line 217.
4 as the first argument and the tonality index PI
The tonality harmony (for example, information such as V7th) is input to the PC conversion table 304 as shown in a line 218.
Used as an argument. In the item of PC conversion table 304 that is specified by the combination of this argument, when evaluating the note type from the line 217 in tonal harmony from line 218, data representing the pitch of the fundamental tone pitch classes written ing. Therefore, the decryption generating means is a line 219, a line 2
As indicated by 20 and the addition element 222, the pitch data extracted from the PC conversion table 304 and the fundamental pitch class from the tonality index PI are octave (12) modulo-added. As a result, the sound type is converted to the pitch class. By adding appropriate octave information via the line 221 to the converted pitch class, a specific pitch PIT with octave information is obtained. This pitch data PIT determines the pitch 402C of interest in the pitch sequence 402 of the current section. By converting each element of the replacement sound type sequence 216 as described above, the pitch sequence 402 of the current section is obtained. In FIG. 2, the motion control logic 212 according to the embodiment of the present invention is means provided mainly for data compression. In other words, if there is no need to increase the storage capacity, the motion control logic 212 can be omitted and an appropriate pitch sequence table can be used. Such a pitch sequence table is, for example, the current TRD 205 as the first argument, the pitch change index PI as the second argument, and the NOM as the third argument.
Information (eg, the pitch that the NOM pitch class has for the fundamental pitch class of the tonality index of the current section) and the fourth
Using the tonal harmony information of the tonality index TI of the current section as an argument of, and pitch sequence information appropriate for a combination of these four arguments (information such that each element indicates a pitch for the fundamental pitch class) Will be output.
However, if such a pitch sequence table is used, an increase in the number of combinations of arguments by orders of magnitude occurs as compared with the combinations of the arguments in the relative pitch sequence table 303. For example, assuming that there are 20 types of tonal harmony and 12 types of reference pitch classes, the number of argument combinations is 240 times. This means that a large address space is required for the pitch sequence table (lookup table memory). Further, if pitch sequence data is prepared in a one-to-one correspondence with each of the combinations of arguments, the storage capacity of the pitch sequence table becomes 240 times as large. The configuration of FIG. 2 shows the realization of the functions of the automatic melody generating apparatus based on the principle of the related invention described in FIG. 1 while considering the storage capacity (especially the internal storage capacity) available in a typical microcomputer today. It is a thing. Therefore, although the configuration of FIG. 2 represents the best embodiment, it is needless to say that the configuration is not limited to this. For example, the RCL table 30 in FIG.
1 is omitted and the musical style index FI is directly entered into the rhythm table 302.
Can be used as an argument to Also, the current TR D
Reference numeral 205 does not necessarily need to be the identifier (unique identification number) of the current section rhythm, and may be, for example, information indicating the characteristics of the rhythm of the current section. This is the rhythm table 30
2 means that information indicating the characteristics of the rhythm may be provided for each rhythm data RP. Current T RD is that the use of the rhythm feature information in place of the rhythm identifier
This means that the number of possible values 205 can be reduced. Therefore, when the feature information is used as an argument of the relative tone type sequence table 303, it means that the storage capacity of the relative tone type sequence table memory is reduced. In the configuration of FIG. 2, the rhythm identifier information of the preceding section is used as one of the arguments to the rhythm table 302, but the preceding section is not necessarily required to be the preceding section. The previous section or the section before three may be used. In other words, in the case of the configuration shown in FIG.
To the rhythm 40 of the current section.
4 is (strongly) related to the rhythm 408 of the previous section.
However, combining small phrases into large phrases is a common experience in music.
For example, when a phrase is divided into two parts, the features of the first half of the phrase do not appear in the second half, but appear in the first half of the next phrase, and the features of the second half of the phrase do not appear in the first half of the next phrase. It often happens in a real melody, such as appearing later in the phrase. In order to produce such an effect,
6 stores the identifier of the rhythm immediately before the current section or the characteristic information instead of storing the identifier of the rhythm two times before the current section or the characteristic information, thereby accessing the rhythm table 302. The rhythm of the section may be generated (information indicating which rhythm of the preceding section is to be reflected in the rhythm of the current section can be included in the generation index). Also, in FIG. 2, the current TRD 20 between the rhythm table 302 and the relative tone
5, but instead, the relative tone type column item of the relative tone type sequence table 303 is provided with information characterizing the relative tone type sequence, and the feature information is used as an argument to the rhythm table 302. Is also possible. It is also possible to use information characterizing the relative note type sequence of the preceding section or a predetermined preceding section as the third argument in the relative note type string table 303. Such a configuration provides a strong correlation between the note sequence in the previous section and the note sequence in the current section (hence, a strong correlation between the note series in the previous section and the note series in the current section). ). In addition, in accordance with the principle of the related invention described in FIG. 1, the configuration in FIG. 2 can be variously modified.

【0013】ハードウェア構成(図3) 図2で述べたような自動メロディ生成装置を実現する代
表的なハードウェア構成(コンピュータベースのハード
ウェア構成)を図3に示す。CPU2はROM4に記憶
されるプログラムを実行してシステムの各部を制御す
る。ROM4はプログラムの他に固定データを記憶す
る。特に自動メロディ生成装置を実現するためROM4
には図1や図2で述べたようなフレーズデータベース、
生成インデクスデータベース及びテーマデータベースが
置かれる。RAM6は変数や時データ(例えば生成メ
ロディデータ)を記憶するものでCPUのワーキング
メモリとして使用される。鍵盤8は通常の電子鍵盤楽器
における鍵盤で構成でき、電子楽器の演奏入力装置とし
て用いられる。入力装置10は通常の電子鍵盤楽器で使
用される種々の入力スイッチ、ボリュームを含み得る。
自動メロディ生成装置に対するテーマ指定機能をはたす
ため入力装置10からテーマの選択指示が可能である。
このようなテーマ選択指示は例えば伴奏機能をもつ電
子楽器でよくみられるリズムスタイルないし伴奏スタイ
ルの選択操作子を介して行なうことが可能である。その
場合ROM4におかれるテーマデータベースないしテー
マテーブルはリズムスタイル(伴奏スタイル)毎に適当
な数のテーマを含むように構成される。音源12はCP
の制御のもとに電子的に楽音信号を発生する。サウ
ンドシステム14は音源12からの楽音信号を受け、そ
のサウンドを再生する。表示装置16はLCDディスプ
レイやLED等を含み、システムの状態の表示データの
表示、ユーザーにらせるメッセージの表示を行なう。
クロック発振器18はシステムの定時間プロセス(例え
ば自動生成したメロディの自動演奏処理)を実行可能に
するため、一定時間の経過毎にCPU2に時間割り込み
をかけるクロックパルスを発生する。例えばクロック発
振器18からのクロックパルスの数はタイム割込プログ
ラムによって(CPU2を介して)カウントされ、その
カウント値が音楽分解能時間に相当する値に達する都度
メインプログラムにおいて、発音あるいは消音のタスク
を有無を検査することにより自動演奏処理が行なえる。
Hardware Configuration (FIG. 3) FIG . 3 shows a typical hardware configuration (computer-based hardware configuration) for realizing the automatic melody generation device as described in FIG. The CPU 2 executes programs stored in the ROM 4 to control each part of the system. The ROM 4 stores fixed data in addition to programs. ROM4 especially for realizing automatic melody generation device
Has a phrase database as described in FIG. 1 and FIG. 2,
A generated index database and a theme database are located. RAM6 is used as a working memory of the CPU 2 in which stores variables and temporary data (e.g. generated melody data). The keyboard 8 can be composed of a keyboard of a normal electronic keyboard instrument, and is used as a performance input device of the electronic musical instrument. The input device 10 may include various input switches and volumes used in a conventional electronic keyboard instrument.
The theme selection function can be performed from the input device 10 to perform the theme designation function for the automatic melody generation device.
Such a theme selection instruction can be performed , for example, via a rhythm style or accompaniment style selection operator often found in an electronic musical instrument having an accompaniment function. In that case, the theme database or theme table stored in the ROM 4 is configured to include an appropriate number of themes for each rhythm style (accompaniment style). Sound source 12 is CP
Electronically generating a tone signal under the control of U 2. The sound system 14 receives a tone signal from the sound source 12 and reproduces the sound. Display device 16 includes an LCD display or LED or the like, the display of the display data in the state of the system, and displays a message to inform the user.
The clock oscillator 18 generates a clock pulse for interrupting the CPU 2 every time a predetermined time elapses in order to execute a fixed time process of the system (for example, an automatic performance process of an automatically generated melody). For example, the number of clock pulses from the clock oscillator 18 is counted by the time interruption program (via the CPU 2), and each time the count value reaches a value corresponding to the music resolution time, the main program has a sound generation or mute task. The automatic performance processing can be performed by inspecting.

【0014】詳細(図4〜図19) 以下図4から図19を参照して関連発明の実施例(第1
実施例)の詳細を説明する。図4にメロディ生成プロセ
スの全体の流れを示す。最初の工程4−1でテーマを選
択する。次にテーマを演奏する(4−2)。続いて自動
メロディ生成装置はCEDレコード(フレーズ生成イン
デクスレコード)を選択する。ここにCEDレコードに
は複数のインデクス候補が書かれている。そこで次の生
成インデクス決定プロセス(4−4)で複数の候補の中
からメロディ生成のための候補を選択する。次のプロセ
ス4−5(比較リズムルックアップRLM(i))で決
定インデクスに含まれる楽式インデクス項目をルックア
ップテーブル(後述するRCLテーブル)に通して比較
リズム型をとり出す。プロセス4−6でリズムを生成す
る。プロセス4−7で音種列を生成する。さらにプロセ
ス4−8で音高列を生成する。4−6で生成したリズム
と4−8で生成した音高列とにより生成メロディが構成
される。つまりメロディ生成作業の完了である。そこで
次のプロセス4−9で生成メロディを自動演奏する。以
上が実施例の動作の概要である。以下個々のプロセスの
詳細及び各プロセスがかかわるルックアップテーブル等
について詳細に説明する。テーマの選択プロセス4−1
はユーザーからのテーマ選択指示に応答して実行され
る。このテーマ選択指示は入力装置10に含まれる曲風
指定操作子(例えばリズムスタイルの操作子)の操作に
よって行なうことができる。ROM4にはテーマデータ
ベースがおかれている。テーマデータベースは曲風毎に
複数のテーマをもっている。テーマ選択プロセス4−1
ではこの複数のテーマの中から1つのテーマを選択す
る。プロセス4−1の詳細を図10に示す。まず10−
1でCPU2は0から1の乱数を生成し、次に10−2
で乱数、選択された曲風に割り当てられたテーマバン
クTMBに含まれるテーマ数とを用いてTM=乱数×
(TMBのテーマ数NO−1)によりテーマ番号TMを
決定する。続いて10−3に選択テーマ=TMB(T
M)で示すようにテーマバンクの中からテーマ番号で指
されるテーマを選択テーマとして選択する。TMB(T
M)にはテーマ情報が書かれている。そこでCPU2は
次のプロセス4−2としてTMB(TM)に書かれてい
るテーマを自動演奏する。すなわちCPU2はテーマの
メロディ音の発音タイミングが到来する都度発音コマン
ドを音源12に送り、またテーマメロディ音の消音タイ
ミングが到来する都度消音コマンドを音源12に送って
テーマの各音の発音・消音を制御することにより、テー
マを自動演奏する。続いてCPU2の動作はCEDレコ
ードの選択プロセス4−3に進む。ここでCEDレコー
ドについて説明する。図3のROM4内にはCEDのデ
ータベースがおかれる。CEDデータベース(生成イン
デクステーブル)は複数の(好ましくは多数の)CED
レコードをもっている。
Details (FIGS . 4 to 19) Referring to FIGS. 4 to 19, an embodiment (first embodiment) of the related invention will be described.
Example) will be described in detail. FIG. 4 shows the overall flow of the melody generation process. In the first step 4-1, a theme is selected. Next, the theme is performed (4-2). Subsequently, the automatic melody generation device selects a CED record (phrase generation index record). Here, a plurality of index candidates are written in the CED record. Therefore, a candidate for melody generation is selected from a plurality of candidates in the next generation index determination process (4-4). In the next process 4-5 (comparison rhythm lookup RLM (i)), the comparison rhythm type is extracted by passing the musical expression index items included in the decision index through a lookup table (an RCL table described later). A rhythm is generated in process 4-6. In process 4-7, a tone type sequence is generated. Further, a pitch sequence is generated in process 4-8. A generated melody is composed of the rhythm generated in 4-6 and the pitch sequence generated in 4-8. That is, the melody generation work is completed. Then, in the next process 4-9, the generated melody is automatically played. The above is the outline of the operation of the embodiment. Hereinafter, details of each process and a look-up table related to each process will be described in detail. Theme selection process 4-1
Is executed in response to a theme selection instruction from the user. This theme selection instruction can be performed by operating a music style designation operator (for example, a rhythm style operator) included in the input device 10. The ROM 4 stores a theme database. The theme database has multiple themes for each song style. Theme selection process 4-1
Then, one theme is selected from the plurality of themes. FIG. 10 shows the details of the process 4-1. First, 10-
At 1, the CPU 2 generates a random number from 0 to 1, and then 10-2
Using the random number and the number of themes included in the theme bank TMB assigned to the selected song style , TM = random number ×
The theme number TM is determined by (TMB theme number NO-1). Subsequently, the selected theme = TMB (T
As shown in M), the theme indicated by the theme number is selected from the theme bank as the selected theme. TMB (T
M) describes the theme information. Therefore, the CPU 2 automatically performs the theme described in TMB (TM) as the next process 4-2. That is, the CPU 2 sends a sounding command to the sound source 12 each time the sounding timing of the theme melody sound arrives, and sends a mute command to the sound source 12 each time the sounding timing of the theme melody sound arrives, so that the sounding / muting of each sound of the theme is performed. By controlling, the theme is played automatically. Subsequently, the operation of the CPU 2 proceeds to a CED record selection process 4-3. Here, the CED record will be described. A CED database is stored in the ROM 4 of FIG. The CED database (generation index table) contains a plurality (preferably a large number) of CEDs.
Have a record.

【0015】図5に生成インデクステーブルCEDを示
す。生成インデクステーブルCEDの各レコードは複数
の音楽区間(ここでは小節)についてフレーズ生成イン
デクス情報をもっている。フレーズ生成インデクス項目
として調性インデクス、リズム(変化)インデクス、
ッチ(変化)インデクス、及び楽式インデクスがある。
調性インデクスと楽式インデクスは音楽の進行ないし音
楽の構造にかかわる情報である。リズムインデクスは主
としてフレーズのリズムにかかわる情報である。ピッチ
インデクスはフレーズのピッチにかかわる情報である。
各音楽区間における調性インデクスはその音楽区間で使
用できるピッチクラスセット(PCS)を指示する働き
を有する。各生成インデクスレコードはテーマ(モチー
フ)に後続するメロディ生成指示情報をもつ。したがっ
てテーマは第1小節を占め、続く小節のメロディは選択
したCEDレコードに基づいて生成される。図5にはC
EDレコード中に第1小節(モチーフ)の欄も示してい
るが、実際にはこのモチーフ欄すなわちテーマ欄の情報
は不要である。というのはこの欄の情報はテーマバンク
中のテーマ情報レコードに書かれているからである。図
5のCEDレコードの各小節欄においてリズムインデク
スとピッチインデクスの項目には1以上の要素が書かれ
ている。1以上の要素はこれらのインデクス項目の候補
を表わすものである。例えば第2小節におけるリズムイ
ンデクスには候補として1a、1b、repがある。又
第2小節欄のピッチインデクスには候補として1a、1
bがある。リズムインデクス要素のうち、いくつかの要
素は音楽の構造的な反復コマンドとしての意味をもって
いる。すなわち、インデクス要素repは現小節におい
て前小節のリズムを反復するコマンドである。インデク
ス要素repEは現小節において前小節のリズムと音種
列を反復するコマンドである。インデクス要素1bar
は現小節においてテーマ(モチーフ)小節のリズムを反
復するコマンドである。インデクス要素1barEは現
小節においてテーマ小節のリズムと音種列を反復するコ
マンドである。これらのコマンドインデクスをリズムイ
ンデクス項目の要素(特別なデータ値)として設けた理
由はインデクスの項目数の増加をさけるため、つまりC
EDレコードのデータ量を節約するためである。したが
ってこのような反復コマンドはリズムインデクス項目の
要素としてではなく別のインデクス項目の要素例えば、
楽式インデクス項目の要素として実現するようにしても
よい。要するに重要なことはレコードのデータ量を節約
しつつ多様なフレーズ生成指示が行なえるようにインデ
クス情報を構成することである。生成インデクステーブ
ルCEDは曲風毎あるいはテーマ毎に複数のレコードを
もち得る。そこでCEDレコード選択プロセス4−3
(図4)ではテーマあるいは曲風に割り当てられたCE
Dレコード群の中から1つのレコードを乱数的に選択し
ている。プロセス4−3で選択されたCEDレコード
は、以下のプロセスで生成されるメロディの生成基本情
報として用いられる。ただし、リズムインデクスとピッ
チインデクスの項目は1以上の候補数をもつのでその中
の1つを各音楽区間について決定する必要がある。この
処理を生成インデクス決定4−4で行なっている。プロ
セス4−4の詳細を図11に示す。最初のステップ11
−1で選択したCEDレコードの第2小節(実際にはC
EDレコードの最初の小節欄)をロケートする。ループ
11−2から11−7の最初のステップ11−で現小
節(着目している小節)の欄の調性インデクスをロード
し、キーからコードルートを決定する。ここにキーはシ
ステムの初期化でCに設定され、システムの動作中に入
力装置10におかれるトランスポーズキーのようなキー
指定操作子によって指定されるものである。キーからル
ートへの決定は調性インデクスに含まれる度数情報(例
えばMajorVにおけるV)を利用することで行なえ
る(キーに度数を加えることにより)。11−3で現小
節欄の楽式インデクスをロードする。次に11−4で現
小節欄のリズムインデクスの項目に書かれた候補の中か
ら1つを乱数で決定し、RC(i)にロードする。次に
11−5で現小節欄のピッチインデクス項目に書かれた
候補の中から1つを乱数で決定し、結果をNC(i)に
ロードする。11−6でCEDレコードの終端かどうか
を調べ、終端でなければ11−7で次小節をロケート
し、11−2に戻り生成インデクス決定処理を続ける。
CEDレコードの終端が検出されれば生成すべきメロデ
ィの全ての小節についてフレーズ生成インデクスが決定
されたことになる。
FIG. 5 shows the generated index table CED. Each record of the generation index table CED has phrase generation index information for a plurality of music sections (here, measures). As tonality index phrase generating index item, rhythm (change) index, peak
There is a switch index (change) index and a music style index.
The tonality index and the music style index are information relating to the progress of music or the structure of music. The rhythm index is mainly information relating to the rhythm of the phrase. The pitch index is information related to the pitch of the phrase.
The tonality index in each music section has a function of indicating a pitch class set (PCS) that can be used in the music section. Each generation index record has melody generation instruction information following the theme (motif). Thus, the theme occupies the first bar and the melody of the following bar is generated based on the selected CED record. FIG. 5 shows C
Although the column of the first bar (motif) is also shown in the ED record, the information of this motif column, that is, the theme column is actually unnecessary. This is because the information in this column is written in the theme information record in the theme bank. In each bar column of the CED record in FIG. 5, one or more elements are written in the items of the rhythm index and the pitch index. One or more elements represent these index item candidates. For example, the rhythm index in the second bar includes 1a, 1b, and rep as candidates. In the pitch index of the second bar, 1a, 1
There is b. Some of the rhythm index elements have meaning as structural repetitive commands of music. That is, the index element rep is a command for repeating the rhythm of the previous bar in the current bar. The index element repE is a command for repeating the rhythm and tone sequence of the previous bar in the current bar. Index element 1 bar
Is a command to repeat the rhythm of the theme (motif) bar in the current bar. The index element 1 bar E is a command for repeating the rhythm and tone sequence of the theme bar in the current bar. The reason why these command indexes are provided as elements (special data values) of the rhythm index item is to avoid an increase in the number of index items, that is, C
This is to save the data amount of the ED record. Thus, such a repetition command is not a rhythm index item element, but a separate index item element, for example,
It may be realized as a musical form Indeku scan item elements. In short, what is important is to configure the index information so that various phrase generation instructions can be issued while saving the data amount of the record. The generation index table CED may have a plurality of records for each song style or theme. Therefore, the CED record selection process 4-3
(Figure 4) shows the CE assigned to the theme or song style
One record is randomly selected from the D record group. The CED record selected in the process 4-3 is used as melody generation basic information generated in the following process. However, since the items of the rhythm index and the pitch index have one or more candidates, it is necessary to determine one of them for each music section. This processing is performed in the generation index determination 4-4. FIG. 11 shows the details of the process 4-4. First step 11
The second measure of the CED record selected in -1 (actually, C
Locate the first bar of the ED record). Load the tonality index of the column of the first in Step 11 2 current measures from the loop 11-2 11-7 (attention to that measure), determines a chord root from the key. Here, the key is set to C when the system is initialized, and is designated by a key designating operator such as a transpose key placed on the input device 10 during operation of the system. The determination from the key to the root can be made by using the frequency information (for example, V in MajorV) included in the tonality index (by adding the frequency to the key). At 11-3, the musical index in the current bar is loaded. Next, at 11-4, one of the candidates written in the rhythm index item of the current bar is determined by a random number, and is loaded into RC (i). Next, at step 11-5, one of the candidates written in the pitch index item of the current bar is determined by a random number, and the result is loaded into NC (i). At 11-6, it is checked whether or not the end of the CED record is reached. If not, the next measure is located at 11-7, and the process returns to 11-2 to continue the generation index determination process.
If the end of the CED record is detected, the phrase generation index has been determined for all measures of the melody to be generated.

【0016】次にCPU2は比較リズムルックアップ4
−5(図4)を実行する。プロセス4−5で参照される
比較リズムルックアップテーブルはROM4におかれ
る。図6に比較リズムルックアップテーブルRCLを示
す。テーブルRCLは楽式の入力に対して比較リズム
すテーブルである。したがってプロセス4−5では4
−4で決定した曲生成インデクスの各小節欄に書かれた
楽式インデクスを用いてテーブルRCLをルックアップ
することにより対応する比較リズムデータを得ている。
比較リズムデータは配列RLM(i)に格納される。リ
ズム生成プロセス4−6で参照されるリズムテーブルR
PDを図7に示す。リズムテーブルRPDはROM4に
おかれるリズムテーブルRPDは比較リズム型RLMを
第1引数、前区間のリズム型RLを第2引数とし、リ
ズムインデクスRCを第3引数としてルックアップされ
現音楽区間(現小節)のリズム情報(リズムパターンと
その識別子)をかえす。したがってリズムテーブルRP
Dは比較リズム型RLM、前区間のリズム型RLB及び
リズムインデクスRCから成る3つの引数の組み合わせ
に対応してリズムデータを記憶するものである。しか
し、このことは引数の組み合わせとリズムとが一対一対
応であることを意味するわけではない。好ましくはリズ
ムと引数の組み合わせとは一対多(one−to−ma
ny)の対応関係をとることができ、それによってリズ
ムテーブルRPDの記憶容量を節約することができる。
前区間のリズム型引数RLは前の音楽区間で使用され
たリズムの識別子(そのリズムに固有な識別番号)であ
ってもよいし、あるいは前の区間のリズムを特徴づける
情報(これは例えばリズム識別子の上位ビットによって
表現することができる)であっても良い。後者の場合は
リズムテーブルRPDの記憶容量をさらに節約するのに
有効な手段が提供される。図4のプロセス4−6では図
7に示すリズムテーブルRPDを参照して各小節のリズ
ムを生成している。リズム生成プロセス4−6の詳細を
図12に示す。まず12−1で第2小節をロケートする
(i=2)。ループ12−2から12−8の最初のステ
ップ12−2で現小節について決定したリズムインデク
スRC(i)が1barか1barEであるならばステ
ップ12−3に進み、現小節のリズムRD(i)をモ
チーフ(テーマ)のリズムと等しく決定する。ステップ
12−4で現小節のリズムインデクスRC(i)かre
pかrepEであればステップ12−5に進み、現小節
のリズムRD(i)を前小節のリズムと等しく設定す
る。リズムインデクスがその他の値をとる時はステップ
12−6に進む。ステップ12−6では比較リズム型R
(i)前小節のリズム識別子ないし特徴番号及び
現小節のリズムインデクスRC(i)によってリズムテ
ーブルRDをルックアップしてリズムデータを取り出
し、それによって現小節のリズムTRD(i)を定め
る。12−7で全ての小節を完了してなければ12−8
で次小節をロケートして12−2に戻る。完了ならリズ
ム生成プロセスは終了する。図4の音種列生成プロセス
4−7で参照される音種列テーブルNCDを図8に示
す。音種列テーブルNCDは図3のROM4におかれ
る。音種列テーブルNCDは現区間のリズム識別子ある
いはその特徴識別子TRDを第1引数とし、ピッチイン
デクスNCを第2引数としてこれらの引数の組み合わせ
に応じて音種列データをかえす表である。自動メロディ
生成システムは音種列テーブルNCDから出力される音
種列に相対音種列の意味をもたせる。ここに相対音種列
とは基準音高に対する音種列のことである。表NCDに
おいて音種列データ中のK1、K2、K3、K4はそれ
ぞれ基準音高NOMの位置からみた第1コード構成音、
第2コード構成音、第3コード構成音、第4コード構成
音を表わしている。又st2、st4、st6は基準音
高NOMの位置からみた第2スケール音、第4スケール
音、第6スケール音を表わしている。この言い方はコー
ド構成音もスケール音であるために使用した用語法であ
るがコード構成音とコード音でないスケール音とを
(音種列の変換ないし展開において)別にとり扱う立場
から言えばst2は第1スケール音、st4は第2スケ
ール音、st6は第3スケール音である。さらにテーブ
ルNCDの音種列には+、−の記号が示されている。こ
の記号は音種の「方向」を意味する。すなわち+は音種
が基準音高NOMより高いことを表わし、−は基準音高
NOMより低いことを表わしている。したがって+K1
は基準音高NOMの上にある最初のコード構成音を表わ
し逆に−K4はNOMのすぐ下にあるコード構成音を表
わしている。というのはK1K2K3K4は垂直方向
(音高の上昇方向)に対してK1K2K3K4K1K2
K3K4……と並ぶからである。同様にst2st4s
t6は音高の上昇方向に対しst2st4st6st2
st4st6というように繰り返し並ぶ。したがって+
st2は基準音高NOMのすぐ上にあるスケール音を意
味し、−st6はNOMのすぐ下にあるスケール音を意
味している。音種列生成プロセス4−7では図8で述べ
たような音種列テーブルNCDをルックアップして音種
列を生成する。音種列生成プロセス4−7の詳細を図1
3に示す。まず最初のステップ13−1で第2小節をロ
ケートする(i=2)。ループ13−2から13−7の
最初のステップ13−2で現小節のリズムインデクスR
C(i)が1barEに等しければ13−3に進み現小
節の音種列TND(i)をモチーフ(テーマ)の音種列
と等しく設定する。またステップ13−4でRC(i)
がrepEに等しければステップ13−5に進み、現小
節の音種列TND(i)を小節の音種列と等しく設定
する。現小節のリズムインデクスRC(i)が1bar
E、repE以外の値をとるときにはステップ13−6
に進み現小節のリズム識別子と現小節のピッチインデク
スNC(i)とにより音種列テーブルNCDをルックア
ップし、取り出した音種列データをTND(i)に格納
する。ステップ13−7で全ての小節について処理が完
了してなければ13−2に戻る。13−7で処理の完了
が検出されればリターンする。図14に音高列生成プロ
セス4−8のフローを示す。まず14−1で第2小節を
ロケートする。ループ14−2から14−5の最初のス
テップ14−2で音種列変換処理(図15)を実行す
る。次にステップ14−3で音高列変換処理(図17)
を実行する。14−4で生成インデクスレコードの終端
に達したかどうかを見、達してなければ次小節をロケ
ートし(14−5)て14−2に戻り、そうでなければ
メインにリターンする。図15に音種列変換処理14−
2の詳細フローを示す。音種列変換処理の目的は基準
音高NOMとの関係で定義される相対音種列をコード
ルートによって第1コード構成音を定義する形式の音種
列に変換することである。この変換が必要な音楽的な
理由は基準音高NOMと現区間の音高列との間のモーシ
ョンないしボイスリーディングを制御するためである。
データ処理上の直接の理由は後述するPC変換テーブル
AVがコードルートによって第1コード構成音を定義す
る形式を採用しているからである。言いかえればPC変
換テーブルAVで所望の音高変換が行なわれるようにす
るための前処理が音種列変換処理である。
Next, the CPU 2 executes a comparative rhythm lookup 4
-5 (FIG. 4). The comparison rhythm lookup table referred to in the process 4-5 is stored in the ROM 4. FIG. 6 shows a comparative rhythm lookup table RCL. The table RCL shows the comparison rhythm for the input of the musical style.
Is a return to the table. Therefore, in process 4-5, 4
The corresponding comparison rhythm data is obtained by looking up the table RCL using the musical formula index written in each bar of the music generation index determined in step -4.
The comparative rhythm data is stored in the array RLM (i). Rhythm table R referred to in rhythm generation process 4-6
The PD is shown in FIG. Rhythm table RPD rhythm table RPD first argument compared rhythm type RLM to be placed in ROM 4, the rhythm type RL B prior section as the second argument, the lookup rhythm index RC as the third argument current music section ( Returns the rhythm information (rhythm pattern and its identifier) of the current bar. Therefore, the rhythm table RP
D stores rhythm data corresponding to a combination of three arguments consisting of a comparative rhythm type RLM, a rhythm type RLB of the previous section, and a rhythm index RC. However, this does not mean that there is a one-to-one correspondence between the combination of arguments and the rhythm. Preferably, the combination of the rhythm and the argument is one-to-ma
ny), the storage capacity of the rhythm table RPD can be saved.
It rhythm type argument RL B before section may be an identifier of a rhythm that was used in the previous music section (unique identification number to the rhythm), or characterize the rhythm of the previous section information (which is, for example, (Which can be represented by the upper bits of the rhythm identifier). In the latter case, an effective means for further saving the storage capacity of the rhythm table RPD is provided. In the process 4-6 of FIG. 4, the rhythm of each bar is generated with reference to the rhythm table RPD shown in FIG. FIG. 12 shows details of the rhythm generation process 4-6. First, the second bar is located in step 12-1 (i = 2). If the rhythm index RC (i) determined for the current bar in the first step 12-2 of the loops 12-2 to 12-8 is 1 bar or 1 bar E, the process proceeds to step 12-3, where the rhythm T of the current bar is set. RD (i) is determined to be equal to the rhythm of the motif (theme). In step 12-4, the rhythm index RC (i) of the current bar or re
If p or repE, the process proceeds to step 12-5, where the rhythm T RD (i) of the current bar is set equal to the rhythm of the previous bar. When the rhythm index takes another value, the process proceeds to step 12-6. In step 12-6, the comparative rhythm type R
L M (i), by a previous measure rhythm identifier to feature numbers and the current measure rhythm index RC (i) to look up the rhythm table R P D retrieve the rhythm data, whereby the current measure rhythm TRD (i) Is determined. If all measures are not completed in 12-7, 12-8
To locate the next measure and return to 12-2. If completed, the rhythm generation process ends. FIG. 8 shows a sound type sequence table NCD referred to in the sound type sequence generation process 4-7 in FIG. The tone type sequence table NCD is stored in the ROM 4 of FIG. The tone type sequence table NCD is a table in which the rhythm identifier of the current section or its characteristic identifier TRD is used as a first argument, the pitch index NC is used as a second argument, and the sound type sequence data is returned according to a combination of these arguments. The automatic melody generation system gives the meaning of the relative tone sequence to the tone sequence output from the tone sequence table NCD. Here, the relative tone sequence is a tone sequence for a reference pitch. In the table NCD, K1, K2, K3, and K4 in the tone type string data are the first chord constituent sounds viewed from the position of the reference pitch NOM, respectively.
This represents the second chord constituent sound, the third chord constituent sound, and the fourth chord constituent sound. In addition, st2, st4, and st6 represent the second scale sound, the fourth scale sound, and the sixth scale sound viewed from the position of the reference pitch NOM. This is a terminology used because the chord constituent sounds are also scale sounds, but from the standpoint of treating the chord constituent sounds and the non-chord scale sounds separately (in the conversion or development of tone sequence), st2 Is a first scale sound, st4 is a second scale sound, and st6 is a third scale sound. Further, + and-symbols are shown in the tone type sequence of the table NCD. This sign means the “direction” of the sound type. That is, + represents that the tone type is higher than the reference pitch NOM, and-represents that the tone type is lower than the reference pitch NOM. Therefore + K1
Represents the first chord constituent tone above the reference pitch NOM, and -K4 represents the chord constituent tone immediately below the NOM. This is because K1K2K3K4 is K1K2K3K4K1K2 with respect to the vertical direction (pitch rising direction).
This is because K3K4 is lined up. Similarly, st2st4s
t6 is st2st4st6st2 with respect to the rising direction of the pitch.
It is arranged repeatedly like st4st6. Therefore +
st2 means a scale sound just above the reference pitch NOM, and -st6 means a scale sound just below the NOM. In the sound type sequence generation process 4-7, the sound type sequence is generated by looking up the sound type sequence table NCD as described in FIG. FIG. 1 shows the details of the tone sequence generation process 4-7.
3 is shown. First, in the first step 13-1, the second bar is located (i = 2). In the first step 13-2 of the loops 13-2 to 13-7, the rhythm index R of the current bar is set.
If C (i) is equal to 1 bar E, the process proceeds to 13-3, where the tone type sequence TND (i) of the current bar is set equal to the tone type sequence of the motif (theme). In step 13-4, RC (i)
Is equal to repE, the routine proceeds to step 13-5, where the tone type sequence TND (i) of the current measure is set equal to the tone type sequence of the previous measure. The rhythm index RC (i) of the current bar is 1 bar
When a value other than E and repE is taken, Step 13-6
Then, the tone type sequence table NCD is looked up based on the rhythm identifier of the current bar and the pitch index NC (i) of the current bar, and the extracted voice type sequence data is stored in TND (i). If the processing has not been completed for all measures in step 13-7, the process returns to 13-2. If the completion of the process is detected in 13-7, the process returns. FIG. 14 shows a flow of the pitch sequence generation process 4-8. First, the second bar is located at 14-1. At the first step 14-2 of the loops 14-2 to 14-5, a tone type string conversion process (FIG. 15) is executed. Next, at step 14-3, a pitch sequence conversion process (FIG. 17)
Execute At 14-4, it is checked whether or not the end of the generated index record has been reached. If it has not been reached, the next measure is located (14-5) and the process returns to 14-2; otherwise, the process returns to the main process. FIG. 15 shows a tone type string conversion process 14-.
2 shows a detailed flow. The purpose of the note type string conversion processing, the relative note type sequence defined in relation to the reference pitch NOM, the note type column of the type defining a first chord member by the chord root is to convert. The musical reason why this conversion is necessary is to control the motion or voice reading between the reference pitch NOM and the pitch sequence in the current section.
The direct reason for the data processing is that a PC conversion table AV, which will be described later, employs a format in which the first chord component sound is defined by a chord route. In other words, the pre-processing for performing the desired pitch conversion in the PC conversion table AV is the tone type string conversion processing.

【0017】以上の目的を達成するため音種列変換処理
は最初のステップ15−1で調性インデクスによって定
められる現調性に対するコード構成音のピッチクラスセ
ットX(t)を作成する(t=0〜3まで)。次にステ
ップ15−2でコードピッチクラスセットX(t)の中
で基準音高NOMのすぐ上に位置する要素X(CN)を
みつけCNをストアする。なお、この実施例では基準音
高として前小節(前音楽区間)の最終ピッチを使用して
いる。次にステップ15−3で現調性に対するスケール
音のピッチクラスセットY(t)を作成する。(t=0
〜2)続いて15−4でスケールピッチクラスセットY
(t)の中で基準音高すなわち前区間の最終ピッチNO
Mのすぐ上に位置する要素Y(SN)をみつけSNをス
トアする。最後にステップ15−5で現小節の音種列の
各要素TND(i、j)をCNとSNを用いて展開(変
換)する。図16は音種列変換を説明したものである。
(a)において基準音高NOMのすぐ上に位置するコー
ド構成音はコードルート上から数えて第3のコード構成
音K3となっている。ここに、K1からK4の表現はK
1がコードルートを意味している。すなわち(a)
(b)において音種K1からK4およびst2からst
6は後述するPC変換テーブルAVにおいて定義される
音種(コードルートを第1コード構成音とする表現の音
種セット)である。(a)に示すようにNOMのすぐ上
に(正確にはNOMと同一音高であってもよい)に位置
するコード構成音が第3コード構成音K3である場合に
はCNとして2が設定される。このK3の検出をCNの
値の設定を図15のステップ15−2で行なっている。
(b)ではNOMのすぐ上に位置するスケール音として
スケール音種st6が検出されている。この時SNとし
ては2が設定される。このst6のようなNOMのすぐ
上に位置するスケール音種の検出とSNの設定を行なっ
ているのが図15のステップ15−4である。CN=2
の設定に対しては、図8に示される現小節のコード構成
音種は(c)に示すように変換される。すなわちK1が
K3、K2がK4、K3がK1、K4がK2に変換され
る。ここに変換前のコード構成音種(図8を参照)は基
準音高NOMからみた音種(相対音種)であり、変換後
の音種はPC変換テーブルAVにあわせた音種である。
SNとして2が設定された場合には、図8に示される現
小節のスケール音種は(d)に示すように変換される。
すなわちst2がst6、st4がst2、st6がs
t4に変換される。(e)に変換前の音種列と変換後の
音種列及び変換後の音種列をPC変換テーブルAV
して得られる音高列の例を示している。(e)の変換後
の音種列(K3、st6、K3、K2)において最初の
音種が基準音高NOMのすぐ上にくるコード構成音であ
り、2番目の音種はスケール音種の中でNOMのすぐ上
にくるスケール音種であり、3番目の音種はコード構成
音の中でNOMのすぐ上にくるコード構成音であり、4
番目の音種はNOMのすぐ下にくるコード構成音であ
る。今ここでは変換後の音種列をNOMとの関係で説明
したがまさにこのことが変換前の音種列(+K1、+
st2、+K1、−K4)に記述されているわけであ
る。図16の説明からわかるように図15の音種列変換
処理ではスケール音種とコード音種とを別に取り扱う形
で音種列を変換している。なお、基準音高NOMのルー
トからの音程を第1引数とし、相対音種テーブルからの
音種を第2引数としてPC変換テーブルAVに合う音種
表現に変換するような簡単な音種変換ルックアップテー
ブルを用いることにより図15の音種列変換と似たよう
な結果を得ることができる。そのような変換テーブルは
音種列変換を高速で実行することは明らかである。ま
た、上記音種列変換処理ではコード音数を4つ、スケー
ル音数を3つとして処理したが、コード音数を4つ以外
(例えば3つ)、スケール音数を3つ以外(例えば4
つ)としてコード/スケール別に音種を変換する処理を
1以上、追加し、どの処理を選ぶかを調性インデクスの
調性和声情報によって決めるようにすれば、より好まし
い変換結果が得られる。図14の音高列変換プロセス1
4−3では図9に示すようなPC変換テーブルAVを参
照して音種列(プロセス14−2で変換された音種列)
の各要素を音高に変換している。図9に示すようにPC
変換テーブルAVは調性インデクスに含まれる調性和声
(コード機能)情報を第1引数とし、変換された音種を
第2引数としてルックアップされ変換結果としてコード
ルートをCとした時のピッチクラス(言い換えればコー
ドルートからの音程データ)を出力する。上述したよう
にPC変換テーブルAVは、コード構成音K1をコード
ルートとして定義するので図9のPC変換テーブルAV
のうちK1の欄のデータは実際には不要である。PC変
換テーブルAVがもつデータをキーノートからの音程を
表わすようにすることもできる。その場合にはPC変換
テーブルAVの出力に(現区間の)コードルートのピッ
チクラスではなく、キーノートのピッチクラスをモジュ
ロ12で加算することになる。またその場合にはPC変
テーブルAVのK1の欄にもデータ(コードルートの
キーノートからの音程データ)が必要である。
In order to achieve the above object, the tone type string conversion process creates a pitch class set X (t) of chord constituent sounds for the current tone determined by the tonal index in the first step 15-1 (t = 0 to 3). Next, in step 15-2, an element X (CN) located immediately above the reference pitch NOM in the chord pitch class set X (t) is found, and the CN is stored. In this embodiment, the last pitch of the previous bar (previous music section) is used as the reference pitch. Next, in step 15-3, a pitch class set Y (t) of the scale sound for the current tone is created. (T = 0
2) Then, set the scale pitch class set Y at 15-4.
In (t), the reference pitch, that is, the final pitch NO of the previous section
Find the element Y (SN) immediately above M and store SN. Finally, in step 15-5, each element TND (i, j) of the tone sequence of the current bar is developed (converted) using CN and SN. FIG. 16 illustrates the conversion of the sound type sequence.
In (a), the chord constituent sound located immediately above the reference pitch NOM is the third chord constituent sound K3 counted from the chord root. Here, the expression of K1 to K4 is K
1 means a chord root. That is, (a)
In (b), note types K1 to K4 and st2 to st
Reference numeral 6 denotes a sound type (a sound type set in which a chord root is a first chord constituent sound) defined in a PC conversion table AV described later . As shown in (a), when the chord constituent sound located immediately above the NOM (to be exact, the same pitch as the NOM) is the third chord constituent sound K3, 2 is set as CN. Is done. The detection of K3 is performed by setting the value of CN in step 15-2 in FIG.
In (b), the scale sound type st6 is detected as the scale sound located immediately above the NOM. At this time, 2 is set as SN. Step 15-4 in FIG. 15 performs detection of the scale tone type located immediately above the NOM and setting of the SN as in st6. CN = 2
For the setting of , the chord type tones of the current bar shown in FIG. 8 are converted as shown in FIG. That is, K1 is converted to K3, K2 is converted to K4, K3 is converted to K1, and K4 is converted to K2. Here, the chord constituent tone types before conversion (see FIG. 8) are tone types (relative tone types) viewed from the reference pitch NOM, and the converted tone types are tone types matched to the PC conversion table AV.
When SN is set to 2, the current SN shown in FIG.
The scale sound type of the bar is converted as shown in (d).
That is, st2 is st6, st4 is st2, st6 is s
Converted to t4. The note type sequence after note type column and converted after conversion and note type string before conversion to (e) shows an example of a pitch sequence obtained by passing <br/> to P C conversion table AV. In the converted tone sequence (K3, st6, K3, K2) of (e), the first tone is a chord component sound immediately above the reference pitch NOM, and the second tone is a scale tone. The scale sound type immediately above NOM in the middle, the third sound type is the chord constituent sound just above the NOM in the chord constituent sound, and
The third sound type is a chord component sound immediately below NOM. Now here has been described the note type string after conversion in relation to the NOM is precisely this is before the conversion note type sequence (+ K1, +
st2, + K1, -K4). As can be seen from the description of FIG. 16, in the tone type string conversion process in FIG. 15, the tone type sequence is converted in such a manner that the scale tone type and the chord type are handled separately. It should be noted that a pitch from the root of the reference pitch NOM is used as a first argument, and a tone type from a relative tone type table is used as a second argument, and a simple tone type conversion look that converts the tone type expression to a tone type suitable for the PC conversion table AV. By using the up-table, it is possible to obtain a result similar to the sound type sequence conversion in FIG. Obviously, such a conversion table performs the tone sequence conversion at a high speed. In the above-mentioned tone type string conversion processing, the number of chord sounds is four and the number of scale sounds is three. However, the number of chord sounds is other than four (for example, three), and the number of scale sounds is other than three (for example, four).
If one or more processes for converting tone types for each chord / scale are added, and which process is selected is determined by the tonal harmony information of the tonal index, a more preferable conversion result can be obtained. Pitch train conversion process 1 in FIG.
In 4-3, referring to the PC conversion table AV as shown in FIG. 9, a sound type sequence (a sound type sequence converted in the process 14-2)
Are converted to pitch. As shown in FIG.
The conversion table AV has a tonal harmony (chord function) information included in the tonality index as a first argument, a converted tone type is looked up as a second argument, and a pitch when a chord root is C as a conversion result. Outputs the class (in other words, the pitch data from the chord root). As described above, the PC conversion table AV in FIG. 9 defines the chord constituent sound K1 as a chord root.
Of these, the data in the column K1 is actually unnecessary. The data in the PC conversion table AV may be represented by a pitch from a key note. In this case, the pitch class of the key note, not the pitch class of the chord route (of the current section), is added to the output of the PC conversion table AV by modulo 12. In that case, the PC
Data (pitch data from the key note of the chord root) is also required in the K1 column of the conversion table AV.

【0018】図9で述べたようなPC変換テーブルAV
を参照する音高列変換プロセス14−3の詳細フローを
図17に示す。音高列変換プロセスは最初のステップ1
7−1でNOMのオクターブすなわち前区間の最終音の
オクターブを取り出しOCTにロードする。17−2で
フレーズの音カウンタiを1に設定する。ループ17−
3から17−4の最初のステップ17−3で音種NTに
変換音種配列要素TND(i、j)の音種項目を代入
し、方向FにTND(i、j)の方向項目を設定する。
17−4で音種NTとコード機能(調性和声)とにより
PC変換テーブルAVをルックアップし、結果をPに取
り込む。次に17−5でP=(P+ルート)mod12
+OCTにより音種NTのピッチクラス(音種NTを現
在の調性でみた時のピッチクラス)に基準ピッチNOM
のオクターブを加える。この結果Pを17−6で基準ピ
ッチNOMすなわち前区間の最終音ピッチと比較する。
Pが下であれば17−10で方向Fを調べ、方向Fが下
(−)を示していればPが所望の音高を表わしている。
そこでPを音高配列の現要素P(i、j)に代入する。
方向Fが上になっておればPに1オクターブ(+12)
を加えることにより所望の音高P(i、j)を得る。P
がNOMより高くなっていれば(17−6)、17−7
に進んでFを調べる。音種NTの方向がNOMより上
(+)を指していればPは所望の音高を表わしているの
で17−8に示すようにPを音高は配列の現要素P
(i、j)に代入する。方向Fが下で(−)あればPを
1オクターブ下げて(−12して)所望の音高P(i、
j)を得る。17−13でフレーズの終了かどうかを調
べ、フレーズの終わりに達してなければjをインクリメ
ントし(17−14)、17−3に戻る。フレーズの終
わりまで音種を音高に変換完了した場合には17−15
で現フレーズの最終音高P(i、j)をNOMに代入し
て次の小節での音高列変換に備え、リターンする。図1
8に例示するようなテーマメロディを表わす情報が上述
したテーマバンクのテーマレコードに入っている。図1
9に実施例の動作結果として生成メロディ例を示してい
る。以上のようにしてメロディの生成が完了したら、図
4の4−9に示すように生成メロディの自動演奏を実行
する。
The PC conversion table AV as described in FIG.
FIG. 17 shows a detailed flow of the pitch sequence conversion process 14-3 referring to FIG. The pitch sequence conversion process is the first step 1
At 7-1, the octave of the NOM, that is, the octave of the last sound of the previous section is taken out and loaded into the OCT. At 17-2, the sound counter i of the phrase is set to 1. Loop 17-
In the first step 17-3 from 3 to 17-4, the tone type item of the converted tone type array element TND (i, j) is substituted for the tone type NT, and the direction item of TND (i, j) is set in the direction F. I do.
In step 17-4, the PC conversion table AV is looked up using the tone type NT and the chord function (tonal harmony), and the result is loaded into P. Next, at 17-5, P = (P + root) mod12
By + OCT, the reference pitch NOM is set to the pitch class of the tone type NT (the pitch class when the tone type NT is viewed in the current tonality).
Add an octave. The result P is compared with the reference pitch NOM at 17-6, that is, the final pitch of the preceding section.
If P is lower, the direction F is checked at 17-10, and if the direction F indicates lower (-), P indicates a desired pitch.
Therefore, P is substituted for the current element P (i, j) of the pitch array.
If the direction F is up, one octave to P (+12)
To obtain a desired pitch P (i, j). P
Is higher than NOM (17-6), 17-7
Go to and examine F. If the direction of the tone type NT points upward (+) from the NOM, P indicates a desired pitch, and P indicates the current element P of the array as shown in 17-8.
(I, j). If the direction F is downward (-), P is lowered by one octave (by -12) and the desired pitch P (i,
j) is obtained. At 17-13, it is checked whether or not the end of the phrase has been reached. If the end of the phrase has not been reached, j is incremented (17-14), and the process returns to 17-3. 17-15 when the tone type has been converted to pitch until the end of the phrase
Then, the final pitch P (i, j) of the current phrase is substituted for NOM, and the process returns to prepare for pitch sequence conversion in the next bar. FIG.
The information indicating the theme melody as exemplified in FIG. 8 is included in the theme record of the theme bank described above. FIG.
FIG. 9 shows an example of a generated melody as an operation result of the embodiment. When the generation of the melody is completed as described above, the automatic performance of the generated melody is executed as shown by 4-9 in FIG.

【0019】以上の第1実施例(図3から図19)の説
明から分かるように本自動メロディ生成装置は音楽デー
タベースに基づくアプローチでメロディを生成する。音
楽データベースとしてルックアップテーブルRCL、R
PD、NCD、AVを含むフレーズデータベースと生成
インデクステーブルCEDを用いている。フレーズデー
タベースは1音1音ではなくフレーズを単位とするメロ
ディデータを提供する。フレーズデータベースに関連づ
けられる生成インデクスレコードはフレーズの展開、変
形、反復を指示する。したがって本自動メロディ生成装
置は広いメロディ生成空間を有し、かつ自然なメロディ
の生成能力を有している。さらにROM4におかれるメ
ロディ生成プログラム自体には格別のデータ処理プログ
ラムは不要である。したがって自動メロディ生成装置は
メロディを高速で生成する能力をもっている。したがっ
てユーザーからのメロディ生成の指示要求に対してリア
ルタイムあるいはリアルタイムに近い環境でメロディを
生成し、ユーザーへの応答として生成メロディを自動演
奏することが期待される。しかしながら図4に示すよう
に関連発明の第1実施例の自動メロディ生成装置ではユ
ーザーからのメロディ生成要求に対していったんメロデ
ィの生成を完了したのちに自動演奏を行なっているので
自動メロディ生成装置を実現するコンピュータの性能、
処理速度に依存してユーザーの要求から生成メロディの
演奏開始までの待ち時間(オーバーヘッドタイム)が問
題になりうる。またこの待ち時間は生成インデクスレコ
ードの音楽区間(小節)数にも依存する。例えば64小
節の生成インデクスレコードがあるとすると1小節のメ
ロディの生成にたかだか1秒しかかからない処理能力を
もつコンピュータを用いたとしても64小節分のメロデ
ィを生成完了するのに64秒がかかる。2〜3秒の遅れ
であれば充分リアルタイム(ユーザーにとって)である
が1分の待ち時間はリアルタイムとは言えない。これに
対する1つの解決策は、音楽分解能の時間の経過毎に実
行される自動演奏プロセスに先立ってメロディ生成プロ
セスを実行し、生成した音をただちに演奏プロセスで演
奏することである。しかしながらこの方式だと新しい小
節に移る時にデータ処理の集中が発生する。すなわち新
しい小節に移る時にメロディ生成プロセスはその小節で
のフレーズを決定しさらに新しい小節の最初の拍に演奏
すべき音があるならばその音の音高データも生成しなけ
ればならないからである。このことは結果として小節の
最初の音が遅れて発音される現象をひき起す。これは自
動演奏にとってはなはだ都合が悪い。以下述べる関連発
明の第2実施例では以上の点に鑑みリアルタイムの生
成、演奏の応答が可能なコンピュータベースの自動メロ
ディ生成装置を開示する。
As can be seen from the above description of the first embodiment (FIGS. 3 to 19), the automatic melody generating apparatus generates a melody by an approach based on a music database. Lookup tables RCL, R as music database
A phrase database including PD, NCD, and AV and a generation index table CED are used. The phrase database provides melody data in units of phrases instead of individual sounds. The generated index record associated with the phrase database indicates the expansion, transformation, and repetition of the phrase. Therefore, the present automatic melody generating device has a wide melody generating space and has a natural melody generating capability. Further, the melody generation program itself stored in the ROM 4 does not require a special data processing program. Therefore, the automatic melody generator has a capability of generating a melody at a high speed. Therefore, it is expected that a melody is generated in a real-time or near real-time environment in response to a melody generation instruction request from a user, and the generated melody is automatically played as a response to the user. However, as shown in FIG. 4, in the automatic melody generation device of the first embodiment of the related invention, the automatic melody generation device completes the melody generation in response to the melody generation request from the user, and then performs the automatic performance. Computer performance,
Depending on the processing speed, the waiting time (overhead time) from the user's request to the start of playing the generated melody may be a problem. This waiting time also depends on the number of music sections (bars) in the generated index record. For example, if there is a generation index record of 64 measures, it takes 64 seconds to complete generation of a melody of 64 measures, even if a computer having a processing capability that takes only one second to generate a melody of one measure is used. A delay of a few seconds is sufficiently real-time (for the user), but a one-minute waiting time is not real-time. One solution to this is to perform a melody generation process prior to an automatic performance process that is performed every time the music resolution elapses, and play the generated sound immediately in the performance process. However, with this method, data processing is concentrated when moving to a new bar. That is, when moving to a new bar, the melody generation process must determine the phrase in that bar and also generate the pitch data for that note if there is a note to play on the first beat of the new bar. This results in the first note of a bar being pronounced late. This is inconvenient for automatic performance. In view of the above points, a second embodiment of a related invention described below discloses a computer-based automatic melody generation device capable of real-time generation and performance response.

【0020】ハードウェア構成(図20) 図20に関連発明の第2実施例の自動メロディ生成装置
を実現するのに使用できる代表的なハードウェア構成の
ブロック図を示す。図20においてRAM34、音源3
6、サウンドシステム38、鍵盤26、入力装置20、
表示操作30は、(メロディの生成、演奏について不完
全なリアルタイムの応答特性を有する)第1実施例につ
いて説明した図3のハードウェア構成におけるRAM
6、音源12、サウンドシステム14、表示装置16、
入力装置10とハードウェアレベルで同一構成でありう
る。一方CPU22は後述する制御方式を採用した場合
に完全なリアルタイム応答を保障する処理能力を必要と
する。換言すると第2実施例のシステムは自動演奏系が
1小節の自動演奏を行なう間に1小節分のメロディ生成
能力を保障するようなコンピュータ処理能力を必要とす
る。しかしながらこのコンピュータ処理能力は格別に高
い能力ではなく、代表的なマイクロコンピュータの処理
能力で充分まかなえる程度である。図2のプログラムR
OM20にはCPU22が実行するプログラムが記憶さ
れる。また、データROM32には第1実施例で述べた
ようなテーマテーブル、メロディ生成インデクステーブ
ル、及びフレーズデータベース等の固定データが記憶さ
れる。タイマー24はプログラマブルなタイマーである
(すなわちデータバスを介してタイマーの値を可変に設
定できるタイマーである)。タイマー24はGタイム、
GEタイム及びPタイムの時にCPU22に対して割り
込み(INT)を要求するための信号を与える。本シス
テムは3つの処理系(プロセス)を有している。3つの
系はメイン系(M系)とメロディ生成系(G系)及び自
動演奏系(P系)である。プログラムROM22はこの
3つの処理系を実現するため、M系にかかるプログラム
(メインプログラム)とG系にかかるプログラム(生成
プログラム)及びP系にかかるプログラム(自動演奏プ
ログラム)を有している。又本システムにおいてM系は
(時分割の意味も含めて)常時存在するがG系とP系は
必要な時すなわちメロディを生成する時と自動演奏を行
なう時に存在する。
Hardware Configuration (FIG. 20) FIG. 20 is a block diagram of a typical hardware configuration that can be used to realize the automatic melody generating device according to the second embodiment of the present invention. In FIG. 20, RAM 34, sound source 3
6, sound system 38, keyboard 26, input device 20,
The display operation 30 is performed by the RAM in the hardware configuration of FIG. 3 described in the first embodiment (having imperfect real-time response characteristics for melody generation and performance).
6, sound source 12, sound system 14, display device 16,
It may have the same configuration as the input device 10 at the hardware level. On the other hand, the CPU 22 needs a processing capability to guarantee a complete real-time response when a control method described later is adopted. In other words, the system of the second embodiment requires computer processing capability to guarantee the melody generation capability for one measure while the automatic performance system performs one measure of automatic performance. However, this computer processing capacity is not particularly high, and is only sufficiently covered by the processing capacity of a typical microcomputer. Program R in FIG.
The program executed by the CPU 22 is stored in the OM 20. The data ROM 32 stores fixed data such as a theme table, a melody generation index table, and a phrase database as described in the first embodiment. The timer 24 is a programmable timer (that is, a timer whose value can be variably set via a data bus). Timer 24 is G time,
A signal for requesting an interrupt (INT) to the CPU 22 at the time of the GE time and the P time. This system has three processing systems (processes). The three systems are a main system (M system), a melody generation system (G system), and an automatic performance system (P system). The program ROM 22 has a program related to the M system (main program), a program related to the G system (generation program), and a program related to the P system (automatic performance program) in order to realize these three processing systems. In this system, the M system always exists (including the meaning of time division), while the G system and the P system exist when necessary, that is, when a melody is generated and when an automatic performance is performed.

【0021】リアルタイム制御方式(図21から図24) 次に本システムのリアルタイム制御方式を図21から図
24を参照して説明する。図21にシステムの状態遷移
図を示す。今システムの状態がM系にあるとする。すな
わちM系がCPU22の制御権を握っているとする(メ
インプログラムがCPU22で実行中であるとする)。
M系がアクティブとなるシステム状態はGタイムの到来
によってG系がアクティブになる状態に移行する。すな
わち実行中のメインプログラムはタイマー24からのG
タイムの割り込み要求信号を受けて中断され、メロディ
生成プログラムがG系プロセスのためにCPU22で実
行される。G系プロセスは無制限にCPU22を占有で
きずタイムオーバーでM系に戻る。すなわち実行中のメ
ロディ生成プログラムはタイマー24からのGEタイム
の信号によって中断され、CPU22の制御権は、メイ
ンプログラムに移り、M系プロセスは中断した位置から
メインプログラム命令を続行する。又、G系の状態はP
タイムの到来によってもP系に遷移する。すなわち実行
中の生成プログラムはタイマー24からのPタイムの信
号に応答して中断され、自動演奏プログラムCPU22
を制御する。自動演奏プログラムは時間的制限を受け
ず、最後まで実行される。というのは自動演奏プログラ
ムの実行はごく短時間で終了するからである。システム
の状態がG系からタイムの到来によってP系に遷移し
た場合にはP系の終了に対してシステムの状態はG系に
戻る。一方、M系の状態からPタイムの到来によりシス
テムの状態がP系に遷移した時はP系の終了に対し、シ
ステムの状態はM系に戻る。図22は本システムの制御
方式が単一の処理プロセッサー(CPU22)を用いた
パイプライン制御であることを示している。すなわちG
系は1区間単位(1小節の音楽時間)の間にi区間の作
曲(メロディ生成)を行なう。これに対し、P系はG系
が作曲したi区間のメロディを次の1区間で演奏する。
以下同様にしてG系が1つ前の区間時間内で生成した小
節のメロディを現区間タイムにおいて自動演奏する。こ
のようなG系とP系とによるパイプライン動作に対し、
メイン系(M系)はG系あるいはP系がCPU22を占
有していない間動作する。
Real-time control system (FIGS. 21 to 24) Next, the real-time control system of the present system will be described with reference to FIGS. FIG. 21 shows a state transition diagram of the system. It is assumed that the state of the system is in the M system. That is, it is assumed that the M system has the control right of the CPU 22 (the main program is being executed by the CPU 22).
The system state in which the M system becomes active shifts to a state in which the G system becomes active when the G time arrives. That is, the main program being executed is G
The melody generation program is interrupted by receiving a time interrupt request signal, and the CPU 22 executes the melody generation program for the G-system process. The G system process cannot occupy the CPU 22 indefinitely, and returns to the M system when the time is over. That is, the melody generation program being executed is interrupted by the GE time signal from the timer 24, the control of the CPU 22 is transferred to the main program, and the M-system process continues the main program instruction from the interrupted position. The state of the G system is P
The transition to the P system also occurs when the time arrives. That is, the running generation program is interrupted in response to the P time signal from the timer 24, and the automatic performance program CPU 22
Control. The automatic performance program is not limited in time and runs to the end. This is because the execution of the automatic performance program is completed in a very short time. When the state of the system changes from the G system to the P system due to the arrival of the P time, the system state returns to the G system when the P system ends. On the other hand, when the system state changes to the P system due to the arrival of the P time from the state of the M system, the system state returns to the M system with respect to the termination of the P system. FIG. 22 shows that the control method of this system is pipeline control using a single processing processor (CPU 22). That is, G
The system composes (i.e., generates a melody) for the i-th section in one section unit (one bar of music time). On the other hand, the P system plays the melody of the i section composed by the G system in the next one section.
In the same manner, the melody of the bar generated in the previous section time by the G system is automatically played in the current section time. For such pipeline operation by G system and P system,
The main system (M system) operates while the G system or the P system does not occupy the CPU 22.

【0022】以上の制御方式をさらに図23に示すプロ
セスチャートにしたがって説明する。図23において当
初メインプログラムがCPU22で実行されている。点
P1に相当する時刻でタイマー24からGタイムの信号
が発生する。この信号発生に対し、CPU22はその時
点で動作しているメインプログラムの命令M1までを実
行し点Q1に示すように生成インターラプト(生成プロ
グラム)にCPU22の制御が移る。生成プログラムは
Tの時間の間CPU22を占有してCPU22に生成プ
ログラムを実行させる。ここにTはタイマー24からG
タイムの信号が発生してからGEタイムの信号が発生す
るまでの時間の長さである。点Q2でGEタイムが到来
し、G系(のCPU)はその時点の生成プログラム命令
G2まで実行してからメインプログラムにCPU22の
制御をあけ渡す。ここで(点P2で)CPU22は命令
M1の次の命令からメインプログラムの実行を再開す
る。その後メインプログラムが実行され、点P3で示す
Gタイムが再び到来するとCPU22の制御は再び生成
プログラムに移行する。ここでCPU22は命令G2ま
での実行で中断された生成プログラムを命令G2の次の
命令から再開する。再びTの間生成プログラムは実行さ
れ、その後メインプログラムにCPUの制御が移行す
る。さらに次のGタイムの到来でメインプログラムは点
P5で中断され、生成プログラムが点Q5から再開され
る。ここで生成プログラムの実行中にタイマー24から
Pタイムの信号が発生すると生成プログラムは中断され
る。これを点Q6で示している。すなわち生成プログラ
ムは命令G6まで実行してCPU22の制御を演奏イン
ターラプト(演奏プログラム)に明け渡す。点R1から
点R2までの間で演奏プログラムの実行は終了する。演
奏プログラムの終了に対し、CPU22は生成プログラ
ムを命令G6の次から再開する、これを点Q7で示して
いる。再びGEタイムの到来によりCPUの制御はメイ
ンプログラムに移る。メインプログラムの実行中にタイ
マー24からPタイムの信号が発生するとCPU22は
メインプログラムの実行を中断して演奏プログラムを実
行する。これを図23に点P7点R3点R4で示してい
る。図24は本システムの制御方式が時分割のマルチプ
ロセスであることをタイムチャートで示したものであ
る。タイマー24はGタイムが到来する都度図24に示
すようにGタイムパルスを発生する。さらにタイマー2
4はGEタイムが到来する毎に図示のようなGEタイム
パルスを発生する。さらにタイマー24はPタイムが到
来する毎に図示のようにPタイムパルスを発生する。図
24においてGタイム信号の発生からGEタイムの信号
の発生までの時間Tがメロディ生成プロセス(Gプロセ
ス)に割り当てられた時間である。この生成プロセス割
り当て時間は全体の処理に余裕のあるシステムでは固
定であってもよいが演奏テンポに依存して可変とするこ
とが低速システムの能力をあげる上で望ましい。GEタ
イムから次のGタイムまでの時間がメインプロセス(メ
インプログラム)に割り当てられた時間である。メイン
プログラムは電子楽器の入出力をとり扱うプログラムで
あるので電子楽器としてのリアルタイム応答機能を果た
すために大幅な入出力間の応答遅れは望ましくない。こ
のためにメロディ生成作業が行なわれている時にもメイ
ンプログラムが時分割で実行されるようにしている。た
だしCPU22の処理能力によってはメロディ生成作業
中には充分な入出力処理をメインプログラムがはたせな
いこともある。そのような場合にはメインプログラムの
うち特に重要でない部分はスキップされるように設計す
ることが可能である。Gタイム信号の発生周期は電子楽
器の通常の入出力応答を定めるメインプログラムのフロ
ー1周分の時間を考慮して定めるのがよい。Gプロセス
(とMプロセス)のデータ処理量がPプロセスのデータ
処理量より十分多い環境においてGタイム信号とGEタ
イム信号の発生周期はTタイム信号の発生周期より充分
短い周期とするのが都合よい。タイム信号の発生周期
は自動演奏における音楽分解能時間RESを定める。音
楽分解能時間RESは当然演奏テンポに反比例するもの
である。すなわち例えばテンポが倍になれば音楽分解能
時間は半分になる。
The above control method will be further described with reference to a process chart shown in FIG. In FIG. 23, the main program is initially executed by the CPU 22. At the time corresponding to the point P1, the G time signal is generated from the timer 24. In response to this signal generation, the CPU 22 executes up to the instruction M1 of the main program running at that time, and the control of the CPU 22 shifts to a generation interrupt (generation program) as shown at a point Q1. The generation program occupies the CPU 22 for a time T and causes the CPU 22 to execute the generation program. Where T is G from timer 24
This is the length of time from when the time signal is generated until when the GE time signal is generated. The GE time arrives at the point Q2, and the G system (CPU) executes up to the generation program instruction G2 at that time, and then passes control of the CPU 22 to the main program. At this point (at the point P2), the CPU 22 resumes the execution of the main program from the instruction following the instruction M1. Thereafter, the main program is executed and indicated by a point P3.
Control of CPU22 when G data Im arrives again proceeds to generate the program again. Here, the CPU 22 restarts the generation program interrupted by the execution of the instruction G2 from the instruction following the instruction G2. The generation program is executed again during T, and then the control of the CPU shifts to the main program. Further, when the next G time arrives, the main program is interrupted at the point P5, and the generation program is restarted from the point Q5. Here, when a P-time signal is generated from the timer 24 during execution of the generation program, the generation program is interrupted. This is indicated by point Q6. That is, the generation program executes up to the instruction G6 and gives control of the CPU 22 to the performance interrupt (performance program). The execution of the performance program ends between point R1 and point R2. Upon completion of the performance program, the CPU 22 restarts the generation program from the position following the instruction G6, which is indicated by a point Q7. When the GE time comes again, the control of the CPU shifts to the main program. When a P-time signal is generated from the timer 24 during the execution of the main program, the CPU 22 interrupts the execution of the main program and executes the performance program. This is shown by points P7, R3, and R4 in FIG. FIG. 24 is a time chart showing that the control method of this system is time-division multi-process. The timer 24 generates a G time pulse every time the G time arrives, as shown in FIG. Further timer 2
4 generates a GE time pulse as shown each time the GE time arrives. Further, the timer 24 generates a P time pulse as shown in the figure every time the P time arrives. In FIG. 24, the time T from the generation of the G time signal to the generation of the GE time signal is the time allocated to the melody generation process (G process). The generation process allocation time T may be fixed in a system that has room for the entire process, but is preferably variable depending on the performance tempo in order to increase the performance of a low-speed system. The time from the GE time to the next G time is the time allocated to the main process (main program). Since the main program is a program that handles the input and output of the electronic musical instrument, a large response delay between the input and output is not desirable in order to perform a real-time response function as the electronic musical instrument. For this reason, the main program is executed in a time-division manner even when the melody generating operation is being performed. However, depending on the processing capacity of the CPU 22, the main program may not be able to provide sufficient input / output processing during the melody generation work. In such a case, it is possible to design so that a part that is not particularly important in the main program is skipped. The generation cycle of the G time signal is preferably determined in consideration of the time for one round of the flow of the main program that determines the normal input / output response of the electronic musical instrument. In an environment where the data processing amount of the G process (and the M process) is sufficiently larger than the data processing amount of the P process, it is convenient that the generation period of the G time signal and the GE time signal is sufficiently shorter than the generation period of the T time signal. . The generation period of the P time signal determines the music resolution time RES in the automatic performance. The music resolution time RES is naturally inversely proportional to the performance tempo. That is, for example, if the tempo is doubled, the music resolution time is halved.

【0023】システムの基本性能がメロディ生成プロセ
スに対してクリティカルな(限度いっぱいであるよう
な)場合にはメロディ生成プロセスの割り当て時間Tを
テンポに依存させて変化させることが大変有効である。
すなわちG系にとってメロディを生成する正味の時間は
演奏テンポとは無関係である。しかし本制御方式によれ
ば、図2に示すようにG系が生成したメロディ情報を
パイプライン方式でP系が演奏する。ここにP系の演奏
は当然演奏テンポに依存する。すなわち図2において
1区間タイムは演奏テンポに反比例する。一方G系が1
区間分のメロディを生成するのに要する時間は1区間タ
イムとは関係なくフレーズ生成インデクス情報や生成す
るフレーズの音数等に依存する。一般的にいってシステ
ムの性能がメロディ生成プロセスについてクリティカル
な場合には生成プロセスの割り当て時間Tをテンポが速
いときには長くなるようにして図2に述べたようなパ
イプライン制御が実現できるようにする必要がある。し
たがってメインプログラムを介してCPU2からタイ
マー24に時間データを設定する際に演奏テンポに合わ
せてGタイムのタイムデータを設定するのが望ましい。
G系が1区間のメロディを生成するのに要する時間(最
悪時間は)フレーズ生成インデクス情報がそのかぎを握
っている。したがってフレーズ生成インデクスレコード
にそのレコードにかかるメロディを生成するのに要する
最悪時間の情報を記入しておきそれによって生成プロ
セスの割り当て時間Tを決定するのが最適であろう。ま
た、図22ではシステムが1区間の演奏時間内に1区間
分の作曲(メロディ生成作業)を完了できるものとして
図示のような1区間毎のパイプライン制御を示している
がシステムの性能が一層厳しい場合にはG系によるメロ
ディ生成作業を時分割制御のもとで連続的に行なうよう
にするのが望ましい。つまり音楽区間(小節)によって
その区間のフレーズを生成するのに要する時間は変動す
るのでその変動を吸収する意味でG系を(時分割制御
のもとで)連続的に動作させメロディの作業を連続的に
行なわせるのが望ましい。要するにP系(自動演奏系)
による演奏テンポをキープしなければならない自動演奏
処理にテンポのずれないし音ぎれの問題が生じないよう
に自動演奏系が所望の音を所望のタイミングで発音消音
制御するときまでにG系がそのメロディ音の生成作業を
完了するようにすることが必要である。以上、図21〜
24で述べたような制御方式を採用することにより比較
的限られた性能を有するコンピュータベースのシステム
でも可及的に高速なメロディ生成、演奏を行なうことが
できユーザーに対しリアルタイムの作曲環境を提供す
る。本システムの制御原理は単一のCPUを有するコン
ピュータベースのシステムにおいてマルチプロセス(メ
インプロセス、生成プロセス、演奏プロセス)に対する
時分割制御方式とパイプライン制御方式とをシステムの
リアルタイム応答特性のために組み合わせたものであ
る。
When the basic performance of the system is critical to the melody generation process (it is full), it is very effective to change the melody generation process allocation time T depending on the tempo.
That is, the net time for generating a melody for the G system is independent of the performance tempo. However, according to this control scheme, P system is played pipeline scheme melody information G system is generated as shown in FIG 2. Here, the performance of the P system naturally depends on the performance tempo. That one section Time 2 2 is inversely proportional to the performance tempo. On the other hand, G system is 1
The time required to generate a melody for a section depends on the phrase generation index information, the number of sounds of the generated phrase, etc., regardless of the time of one section. For Generally speaking system performance melody generation process as will be realized assigned time T pipeline control as described in FIG. 2 2 set to be longer when the tempo is fast and the generation process when critical There is a need to. Thus to set the time data of the G-time in accordance with the performance tempo when setting the time data from the CPU 2 2 to the timer 24 through the main program is desired.
The time (worst time) required for the G system to generate a melody for one section is the key to the phrase generation index information. Therefore , it would be optimal to fill in the phrase generation index record with information on the worst time required to generate the melody for the record, and thereby determine the allocation time T of the generation process. FIG. 22 shows the pipeline control for each section as shown in the figure assuming that the system can complete the composition (melody generation work) for one section within the performance time of one section, but the performance of the system is further improved. In severe cases, it is desirable that the melody generation work by the G system be performed continuously under time division control. In other words, since the time required to generate a phrase in a music section (measure) varies depending on the music section (measure), the G system is operated continuously (under time division control) to absorb the variation, and the melody work Is desirably performed continuously. In short, P system (automatic performance system)
By the time the automatic performance system controls the sound extinction of the desired sound at the desired timing so that the problem of the tempo shift or the interruption of the sound does not occur in the automatic performance process in which the performance tempo must be maintained by the G performance, It is necessary to complete the sound generation work. As described above, FIGS.
By adopting the control method described in 24, even a computer-based system with relatively limited performance can perform melody generation and performance as fast as possible, providing a real-time composition environment for the user. I do. The control principle of this system is to combine a time-division control method and a pipeline control method for multi-processes (main process, generation process, performance process) in a computer-based system having a single CPU for real-time response characteristics of the system. It is something.

【0024】詳細(図25〜図47) 以下関連発明の第2実施例の詳細を説明する。図25に
メインプロセスの流れ(メインプログラムの簡略フロ
ー)を示す。25−1でCPU22によって実行される
メインプログラムは入力装置28及び鍵盤26をスキャ
ンする。以下メインプログラムはスキャンした入力装置
28と鍵盤26の状態を検査して対応する処理を実行す
る。それらの処理のうち自動メロディ生成とかかわるメ
イン系の処理を25−2〜25−9に示している。その
他の処理はボックス25−1として示している。すな
わちテンポボリューム28Tの操作によりテンポ変更入
力があった場合には(25−2)テンポボリュームの位
置に対応してRAM34内のテンポレジスタに新しいテ
ンポデータを書き込む(25−3)。テーマ選択入力装
置28Mからテーマ選択の入力があった場合には(25
−4)テーマ選択(図36)処理25−5、CEDレコ
ード選択(図37)処理25−6及びGPプロセス設定
(図38)処理25−7を実行する。本例ではテーマの
選択入力に対してシステムは25−5〜25−7の処理
を介してGPプロセスをイネーブルしてメロディの生成
と演奏の処理系が開始するようにしている。すなわちテ
ーマ選択入力はメロディの生成及び演奏を要求する入力
として使用している。トランスポーズキー28Kからキ
ーの指示入力があった場合には(25−8)キーノート
更新処理25−9を実行し、更新されたキーノートデー
タをRAM34内のキーノートレジスタにストアする。
なおCPU22の処理負担を軽減するため入力装置28
と鍵盤26に対する状態走査用のハードウェア(キース
キャナー回路インターフェース)を設けてもよい。図2
6に生成(G)プロセスの流れ(生成インタラプトプロ
グラムの略式フロー)を示す。生成インタラプトプログ
ラムのエントリーにおいて26−1で示すようにP_B
AR=G_BARかどうかすなわち演奏プロセスが現
在演奏している小節が生成小節(生成プロセスがフレー
ズ生成を完了した小節)に等しいかどうかを調べる。演
奏小節が生成小節より前の小節であれば生成プロセスは
新しい小節に対するフレーズを生成する必要はまだない
ので(図22を参照)そのままリターンする。演奏小節
=生成小節ならば(26−1)Pプロセスが次の小節の
演奏を開始する前にその小節のメロディを生成しなけれ
ばならない。そこで生成プロセスは26−2に示すよう
に生成小節番号G_BARをインクリメントし26−5
に示すようにG_BARについてメロディを生成する
(詳細を図39に示す)。生成すべき小節が残っていな
い場合(生成インデクスレコードの最終小節のメロディ
生成を完了している場合)には26−3でG_BAR>
MLが成立する。この場合生成プロセスは生成プロセス
の活動を停止するため生成インタラプト禁止処理26−
4を実行してリターンする。生成インタラプト禁止処理
によりCPU2はそれ以降タイマー24からGタイム
信号が発生してもその割り込みを受け付けない状態とな
る(メインプログラムが中断されない状態となる)。こ
の割り込み禁止技術は周知であるのでこれ以上の説明は
省略する。
Details (FIGS. 25 to 47) The details of the second embodiment of the related invention will be described below. FIG. 25 shows the flow of the main process (simplified flow of the main program). The main program executed by the CPU 22 in 25-1 scans the input device 28 and the keyboard 26. Hereinafter, the main program inspects the states of the input device 28 and the keyboard 26 that have been scanned and executes the corresponding processing. Processing of the main system involved with automatic Merode I live formation of those processing are shown in 25-2~25-9. Other processing are shown as box 25-1 0. That is, when a tempo change is input by operating the tempo volume 28T (25-2), new tempo data is written to a tempo register in the RAM 34 corresponding to the position of the tempo volume (25-3). When a theme selection is input from the theme selection input device 28M (25
-4) Theme selection (FIG. 36) processing 25-5, CED record selection (FIG. 37) processing 25-6, and GP process setting (FIG. 38) processing 25-7 are executed. In this example, the system enables the GP process in response to a theme selection input through processes 25-5 to 25-7, so that a melody generation and performance processing system is started. That is, the theme selection input is used as an input for requesting generation and performance of a melody. When a key instruction is input from the transpose key 28K (25-8), a key note update process 25-9 is executed, and the updated key note data is stored in a key note register in the RAM 34.
In order to reduce the processing load on the CPU 22, the input device 28
And hardware for scanning the state of the keyboard 26 (key scanner circuit interface). FIG.
6 shows the flow of the generation (G) process (schematic flow of the generation interrupt program). P_B entry odor generated interrupt program Te as indicated by the 2 6-1
It is checked whether AR = G_BAR , that is , whether the measure currently played by the performance process is equal to the generation measure (measure for which the generation process has completed phrase generation). Since the performance measure is the generation process if the previous measure than generating bar is still no need to generate a phrase for the new bar (see Figure 2 2) as they return. If performance bar = generation bar (26-1), the melody of the bar must be generated before the P process starts playing the next bar. Therefore, the generation process increments the generation bar number G_BAR as shown in 26-2, and
As shown in FIG. 39, a melody is generated for G_BAR (details are shown in FIG. 39). If there are no bars to be generated (when the melody generation for the last bar of the generated index record has been completed), the G_BAR is determined in step 26-3.
ML is established. In this case, since the generation process stops the generation process, the generation interrupt prohibition process 26-
Execute 4 and return. Generating interrupt prohibition process by CPU 2 2 in a state where even G time signal is generated from the subsequent timer 24 does not accept the interrupt (a state in which the main program is not interrupted). Since this interrupt prohibition technique is well known, further description is omitted.

【0025】なお上述したように生成プロセスの割り当
て時間は時間T(図24参照)に制限されており、タイ
ムオーバーが発生した時点で中断され図21に示す状態
遷移図にしたがってM系(メインプログラムの実行状
態)に移行する。また生成プログラムの実行中にタイマ
ー24からPタイムの信号が発生した場合にも中断され
CPU22の制御は演奏プログラムに移行するものであ
る。したがって生成プログラムは断片的に実行されるの
であって1回の割り当て時間において図26に示すプロ
セスが全て実行されるわけでないことに留意されたい。
図27に演奏(P)プロセスの流れ(自動演奏プログラ
ムのフロー)を示す。演奏プログラムはCPU22の制
御権を獲得する都度図示のリターン位置まで全て実行さ
れる。演奏プログラムはタイマー24からのPタイム信
号による割り込み要求信号の直後に(中断されるプログ
ラムが現在の命令のオペレーションを完了し再開される
プログラムの命令アドレスが戻り先命令アドレスレジス
タにセーブされた後に)起動される。最初に(27−
1)メロディ音の発音タイミングかどうかがチェックさ
れる。発音タイミングなら音源36に対し発音処理を実
行する(27−2)。次にメロディ音の消音タイミング
かどうかをチェックし(27−3)消音タイミングなら
音源36に対し消音処理27−4を実行する。次に27
−5でRAM34内に置かれるPタイムの信号パルスを
カウントするためのレジスタT(前述した生成プロセス
割当時間Tとは別のもの)をインクリメントする。本例
では1小節当たりの音楽分解能数を16としている。そ
こでT=16なら(27−6)新しい小節の開始を示す
ためを0に戻し(27−7)演奏小節番号P_BAR
をインクリメントする(27−8)。27−9でP_B
AR>MLかどうかすなわち演奏すべき小節が残って
いないかどうかを調べ残っていれば発音バッファの切換
(27−11)を実行し、小節の処理音数Pを0に初期
設定する(27−12)。P_BAR>ML(27−
9)が成立するときは生成インデクスレコードに基づい
て生成された全てのメロディについて演奏が完了してい
るのでPプロセスの活動を停止するため演奏インタラプ
ト禁止処理27−10を実行してリターンする。これ以
降CPU22にはタイマー24からPタイムの信号が与
えられてもその割込み要求を受け付けない。したがって
それ以降演奏プログラムは実行されない状態となる。図
28に自動メロディ生成、演奏にかかわる主なレジスタ
群を示すこれらのレジスタは全てRAM34に置かれ
る。レジスタKEYはキーノートのピッチクラスを記憶
する。レジスタMRはモチーフ(選択されたテーマ)の
リズム識別子を記憶する。レジスタMPはモチーフの音
種列識別子を記憶する。レジスタPRは前小節のリズム
識別子を記憶する。レジスタPPは前小節の音種列識別
子を記憶する。レジスタNOMは前小節の最終ピッチを
記憶する。レジスタRECは選択CEDレコードアドレ
スを記憶する。レジスタMLは選択CEDレコードの小
節数を記憶する。レジスタG_BARは既に述べたよう
に生成小節番号を記憶する。レジスタP_BARは既に
述べたように演奏小節番号を記憶する。レジスタPは処
理音数を記憶する。レジスタの内容はメインプロセスの
25−5、25−6、26−7において初期設定され
る。G系はその活動中に適宜前小節のリズム識別子P
R、前小節の音種列識別子PP、前小節の最終ピッチN
OM、生成小節番号G_BARを書き替える(生成プロ
グラムからのライトアクセス)。P系の活動中にこれら
のレジスタをライトアクセスする他の系は存在しない。
P系はその活動中適宜演奏小節番号P_BAR、処理音
数Pを書き替える。P系の活動中にP_BARとPへの
ライトアクセスは自動演奏プログラムのみが行なう。
As described above, the allocation time of the generation process is limited to the time T (see FIG. 24), and is interrupted when a time over occurs, and is interrupted when the M system (main program of the main program) is executed according to the state transition diagram shown in FIG. Execution state). Also, if a P-time signal is generated from the timer 24 during the execution of the generation program, the control is interrupted and the control of the CPU 22 shifts to the performance program. Therefore, it should be noted that the generation program is executed in a fragmentary manner, and not all the processes shown in FIG. 26 are executed in one allocation time.
FIG. 27 shows the flow of the performance (P) process (the flow of the automatic performance program). The performance program is all executed up to the illustrated return position every time the control right of the CPU 22 is acquired. The performance program immediately follows the interrupt request signal due to the P time signal from the timer 24 (after the interrupted program has completed the operation of the current instruction and the instruction address of the resumed program has been saved in the return instruction address register). Is activated. First (27-
1) It is checked whether or not it is the melody sound generation timing. If it is a sounding timing, sounding processing is executed for the sound source 36 (27-2). Next, it is checked whether or not it is the melody sound silencing timing (27-3). If the melody sound is silencing timing, the sound source 36 is subjected to a silencing process 27-4. Then 27
A register T for counting signal pulses of P time placed in the RAM 34 at -5 (the generation process described above)
(Other than the assigned time T) . In this example, the number of music resolutions per bar is 16. Therefore, if T = 16 (27-6), T is returned to 0 to indicate the start of a new measure (27-7).
Is incremented (27-8). P_B at 27-9
It is checked whether or not AR> ML , that is , whether or not there is a bar to be played. If there is a bar remaining, the sound generation buffer is switched (27-11), and the number of processed sounds P in the bar is initialized to 0 (27). -12). P_BAR> ML (27-
When 9) is satisfied, since the performance has been completed for all the melodies generated based on the generated index record, a performance interrupt prohibition process 27-10 is executed to stop the activity of the P process, and the process returns. Thereafter, even if a signal of P time is given from the timer 24 to the CPU 22, the interrupt request is not accepted. Therefore, the performance program is not executed thereafter. FIG. 28 shows a main register group relating to automatic melody generation and performance . All of these registers are located in the RAM 34. The register KEY stores the pitch class of the key note. The register MR stores the rhythm identifier of the motif (the selected theme). The register MP stores the tone type string identifier of the motif. The register PR stores the rhythm identifier of the previous bar. The register PP stores the note type string identifier of the previous bar. The register NOM stores the last pitch of the previous bar. The register REC stores the selected CED record address. The register ML stores the number of measures in the selected CED record. The register G_BAR stores the generated measure number as described above. The register P_BAR stores the performance bar number as described above. The register P stores the number of processed sounds. The contents of the registers are initialized in the main process 25-5, 25-6, 26-7. During the activity, the G system will use the rhythm identifier P
R, note type string identifier PP of previous bar, final pitch N of previous bar
OM, rewrite generated bar number G_BAR (write access from generated program). There is no other system that has write access to these registers while the P system is active.
The P system rewrites the performance bar number P_BAR and the number P of processed sounds as appropriate during the activity. During the activity of the P system, only the automatic performance program performs write access to P_BAR and P.

【0026】レジスタTONALは調性識別子を記憶す
る。レジスタROOTはコードルートのピッチクラスを
記憶する。レジスタSTRは楽式を記憶する。レジスタ
CMPは比較リズム型を記憶する。レジスタRIは選択
リズムインデクスを記憶する。レジスタPIは選択ピッ
チインデクスを記憶する。レジスタCRはリズム識別子
を記憶する。レジスタCPは音種列識別子を記憶する。
レジスタNOは音数を記憶する。レジスタNT(1)は
第1音種番号を記憶する。レジスタNT(2)は第2音
種番号を記憶する。同様にしてレジスタNT(I)は第
I音種番号を記憶する。レジスタD(1)は第1音種方
向を記憶する。レジスタD(2)は第2音種方向を記憶
する。以下同様にしてレジスタD(I)は第I音種方向
を記憶する。レジスタA(1)は第1音種の臨時記号を
記憶する。レジスタA(2)は第2音種の臨時記号を記
憶する。以下同様にしてA(I)は第I音種の臨時記号
を記憶する。これらのレジスタのうちTONAL、RO
OT、STRは選択生成インデクスレコードの小節欄に
書かれたフレーズインデクス情報の中から取り出される
情報である。RIは選択CEDレコードの小節欄のリズ
ムインデクス候補の中から選ばれたリズムインデクス情
報である。同様にPIは選択CEDレコードの小節欄の
ピッチインデクス候補の中から選ばれたピッチインデク
ス情報である。比較リズム型CMPは楽式STRをルッ
クアップテーブルRCLに通して得られる情報ワードで
ある。リズム識別子CRは現区間(現小節)のリズムを
識別する情報である。音種列識別子CPは現小節の相対
音種列を識別する情報である。音数NOは現小節の音数
を表わす。音種番号、音種方向及び臨時記号は相対音種
列テーブルをひいた音種列の音種データによって初期設
定される。発音バッファはT1とT2の2系統がある。
G系が発音バッファT1に生成したメロディデータを書
き込む間P系は発音バッファT2に書かれたデータを解
読して自動演奏を行なう。1小節の経過後にG系が書き
込む発音バッファとP系が読み出す発音バッファは切替
られる。図29に示すように発音バッファT1は奇数小
節用に使用され発音バッファT2は偶数小節用に使用さ
れる。各発音バッファの構成は1ワードの発音パター
ン、1ワードの消音パターン及び小節の音数分のビット
ワードからなる。16ビット/ワードの場合、発音パタ
ーンKPは図29の下に示すようになる(G系が発音パ
ターンワードレジスタに書き込んだ発音パターンの例で
ある)。16ビットワードKPのット位置が小節を1
6等分したときの各タイミングを表わす。ット位置に
あるビット“1”は発音イベントのタイミングであるこ
とを示している。したがって図示のように100010
0010001000の発音パターンは1拍目、2拍
目、3拍目及び4拍目に発音があることを示している。
消音パターンワードの表現形式も発音パターンワードと
同様である。なおこの例では1小節を16等分している
が(1小節当たりの音楽分解能が16)1小節当たりの
音楽分解能を例えば48にしたければ16ビットワード
の3つで発音パターンを構成すればよい。またワード数
はコンピュータシステムにおけるワードのデータ長(
ット数)、この場合、RAM34のメモリ語長/アドレ
スに依存する事柄である。G系によって発音パターンや
消音パターンワードに設定されたリズム情報はP系(自
動演奏プログラム)において音楽分解能時間の経過毎
すなわちタイマー24からPタイムの信号がCPU
22に与えられて自動演奏プログラムが実行される都度
左に1ビットシフトされる。その結果のキャリーの有無
を調べることで現時刻が発音イベント時刻あるいは消音
イベント時刻かどうかを調べることができる。
The register TOAL stores the tonality identifier. The register ROOT stores the pitch class of the chord route. The register STR stores the musical expression. The register CMP stores the comparison rhythm type. The register RI stores the selected rhythm index. The register PI stores the selected pitch index. The register CR stores a rhythm identifier. The register CP stores a tone type string identifier.
The register NO stores the number of sounds. The register NT (1) stores the first tone type number. The register NT (2) stores the second tone type number. Similarly, the register NT (I) stores the I-th sound type number. The register D (1) stores the first sound type direction. The register D (2) stores the second sound type direction. Similarly, the register D (I) stores the direction of the I-th sound type. The register A (1) stores an accidental symbol of the first tone type. The register A (2) stores an accidental of the second tone type. In the same manner, A (I) stores accidentals of the I-th sound type in the same manner. Of these registers, TONAL and RO
OT and STR are information extracted from the phrase index information written in the bar section of the selection generation index record. RI is rhythm index information selected from rhythm index candidates in the bar section of the selected CED record. Similarly, PI is pitch index information selected from pitch index candidates in the bar section of the selected CED record. The comparative rhythm type CMP is an information word obtained by passing a musical expression STR through a look-up table RCL. The rhythm identifier CR is information for identifying the rhythm of the current section (current bar). The note type string identifier CP is information for identifying the relative note type string of the current bar. The number of notes NO represents the number of notes in the current bar. The sound type number, the sound type direction, and the accidental symbol are initialized by the sound type data of the sound type sequence obtained by drawing the relative sound type sequence table. There are two sounding buffers, T1 and T2.
While the G system writes the generated melody data in the sound generation buffer T1, the P system decodes the data written in the sound generation buffer T2 and performs an automatic performance. The sounding buffer written by the G system and the sounding buffer read by the P system after one bar have elapsed are switched. As shown in FIG. 29, the tone generation buffer T1 is used for odd-numbered measures and the tone generation buffer T2 is used for even-numbered measures. Structure of each sound buffer one word pronunciation patterns, consisting of one word silencer patterns and sounds fraction bits <br/> word measure. In the case of 16 bits / word, the sounding pattern KP is as shown in the lower part of FIG. 29 (an example of the sounding pattern written in the sounding pattern word register by the G system). 16-bit word KP of the bit position is the measure 1
Each timing is shown when it is divided into six equal parts. Bit "1" in the bit position indicates that the timing of the sound event. Therefore, as shown in FIG.
The sounding pattern of 0010001000 indicates that there is sounding at the first beat, the second beat, the third beat, and the fourth beat.
The expression form of the muffling pattern word is the same as the pronunciation pattern word. In this example, one measure is divided into 16 equal parts (the musical resolution per measure is 16). If the musical resolution per measure is to be, for example, 48, the sounding pattern may be constituted by three 16-bit words. . The word count of the data length of a word in a computer system (bi <br/> Wattage), in this case, is a matter which depends on the memory word length / address RAM 34. The rhythm information set in the sound generation pattern or the mute pattern word by the G system is transmitted every time the music resolution time elapses in the P system (automatic performance program) , that is , the signal of the P time is output from the timer 24 to the CPU.
Each time the automatic performance program is executed, the data is shifted left by one bit. By checking the result of the carry, it is possible to check whether the current time is the sounding event time or the mute event time.

【0027】次に、本自動メロディ生成装置のデータベ
ース(テーマバンク、メロディ生成テーブルCED、比
較リズムテーブルRCL、リズムテーブルRD、相対
音種列テーブルNCD、PC変換テーブルAV)を実現
するためのメモリ構成について説明する。データベース
の各テーブルを引くには(アクセスするには)引数を決
定、使用しなければならないが検索されるテーブルメモ
リ側には引数との照合をとる検索キーデータは必らずし
も必要でない。むしろテーブルの記憶容量を減らしかつ
テーブルに対する検索速度を上げるために引数データ
(検索キーデータ)はテーブルには持たせずテーブルか
らルックアップすべき項目のアドレスを引数の入力から
直ちに計算できるようにするのが望ましい。以下に説明
する各種テーブルの記憶形式は以上の原理に従うもので
ある。なお各テーブルのレコードに検索キー項目を設け
る場合には記憶番地に対して検索キーを大小順に並べて
2分(バイナリ)サーチのような高速検索が行なえる
ようにするのが望ましい。図30にテーマテーブルのメ
モリ構成を示す。テーマヘッダメモリHTMは偶数アド
レス(相対アドレス)にテーマテーブル本体メモリTM
におけるテーマレコードのアドレスを記憶し、奇数アド
レスに相性テーブルメモリMATEにおける相性レコー
ドアドレスを記憶する。テーマヘッダメモリHTMの相
対アドレスはテーマ選択入力装置28Mを介して選択さ
れる選択テーマ番号と関連づけられている。すなわち選
択テーマ番号×2で特定されるテーマヘッダメモリHT
Mの相対アドレスに選択テーマについてのテーマレコー
ドアドレスが記憶されその次のアドレスに選択テーマに
関する相性レコードのアドレスが記憶される。テーマテ
ーブル本体メモリTMにおけるテーマレコードは次の項
目からなる。すなわちモチーフリズム識別子(1ワー
ド)、モチーフ音種列識別子(1ワード)、モチーフ発
音パターン(1ワード)、モチーフ消音パターン(1ワ
ード)及びモチーフの音数分のピッチ項目(それぞれ1
バイト)である。相性テーブルメモリMATEの各相性
レコードは次の項目からなる。すなわち選択テーマに適
合するCEDレコード(1ワード)及び適合する各CE
Dレコードのアドレス項目(それぞれ1ワード)であ
る。図31に生成インデクステーブルCEDのメモリ構
成を示す。CEDメモリへのアドレスは相性テーブルメ
モリMATEから読んだCEDレコードアドレスを用い
てただちに行なえる。各CEDレコードは次の項目から
なる。すなわち小節数(1ワード)と各小節に関する生
成インデクスターム(G_BARターム、フレーズター
ム)である。各小節タームは5ワードで構成される。第
1ワードが調性インデクスと楽式インデクスの情報を含
む。調性インデクスは10ビットからなりそのうち6ビ
ットが調性識別子、4ビットが度数に割り当てられる。
第2ワードと第3ワードはリズムインデクスの候補群の
ために用いられる。すなわち第2ワードの最初の4ビッ
トがリズムインデクスの候補数に割り当てられ、以下候
補数に相当する数のリズムインデクス要素RI1、RI
2……がそれぞれ4ビットで割り当てられる。第4ワー
ドと第5ワードはピッチインデクスの候補群に割り当て
られる。記憶フォーマットはリズムインデクスの2ワー
ドと同様であり、第4ワードの最初の4ビットがピッチ
インデクスの候補数に割り当てられ、各ピッチインデク
ス候補PI1、PI2……がそれぞれ4ビットで表現さ
れる。したがって各小節(G_BAR)タームはリズム
インデクスにつき最大7つの候補同じくピッチインデク
スについても最大7つの候補を持つことができる。
Next, a database for the automatic melody generator (theme bank, melody generation table CED, compared rhythm table RCL, rhythm table R P D, the relative note type string table NCD, PC conversion table AV) for implementing the The memory configuration will be described. Arguments must be determined and used in order to access (access) each table in the database, but search key data for matching with the arguments is not necessarily required in the table memory to be searched. Rather, in order to reduce the storage capacity of the table and increase the search speed for the table, argument data (search key data) is not provided in the table, and the address of the item to be looked up from the table can be calculated immediately from the input of the argument. It is desirable. The storage format of various tables described below follows the above principle. Note desirably fast search, such as 2 minutes Toki (binary) search by arranging the search key on the magnitude order of the storage address is the so performed in the case where the search key item in the record of each table. FIG. 30 shows a memory configuration of the theme table. The theme header memory HTM stores the theme table main memory TM at even addresses (relative addresses).
Is stored, and the compatibility record address in the compatibility table memory MATE is stored in the odd address. The relative address of the theme header memory HTM is associated with the selected theme number selected via the theme selection input device 28M. That is, the theme header memory HT specified by the selected theme number × 2
The theme record address for the selected theme is stored in the relative address of M, and the address of the compatibility record for the selected theme is stored in the next address. The theme record in the theme table main body memory TM includes the following items. That is, the motif rhythm identifier (1 word), the motif sound sequence identifier (1 word), the motif pronunciation pattern (1 word), the motif silence pattern (1 word), and the pitch items for each number of motif sounds (1 each)
Bytes). Each compatibility record in the compatibility table memory MATE includes the following items. That is, a CED record (1 word) conforming to the selected theme and each conforming CE
These are address items (each one word) of the D record. FIG. 31 shows a memory configuration of the generation index table CED. The address to the CED memory can be immediately made using the CED record address read from the compatibility table memory MATE. Each CED record consists of the following items. That is, the number of measures (1 word) and the generated index terms (G_BAR terms, phrase terms) for each measure. Each bar term is composed of 5 words. The first word contains information on the tonality index and the music style index. The tonality index is composed of 10 bits, of which 6 bits are assigned to the tonality identifier and 4 bits to the frequency.
The second word and the third word are used for a rhythm index candidate group. That is, the first 4 bits of the second word are assigned to the number of rhythm index candidates, and the rhythm index elements RI1 and RI correspond to the number of candidates below.
.. Are assigned with 4 bits each. The fourth word and the fifth word are allocated to a pitch index candidate group. The storage format is the same as that of the two words of the rhythm index. The first 4 bits of the fourth word are assigned to the number of pitch index candidates, and each pitch index candidate PI1, PI2,... Is represented by 4 bits. Therefore, each bar (G_BAR) term can have up to seven candidates for the rhythm index as well as up to seven candidates for the pitch index.

【0028】図32に比較リズム型テーブルメモリRC
Lを示す。選択された楽式データSPR(図31のG
BARタームから読み取った楽式データ)によってテー
ブルRCLから取り出すべき項目の相対アドレスが定ま
る。その項目には楽式STRに対する比較リズム型のデ
ータが書かれている。図33にリズムテーブルのメモリ
構成を示す。RPDヘッダメモリHPRDは各アドレス
にリズムテーブルの本体メモリRPDに対する相対アド
レスを特定する(メモリRPDのその相対アドレスには
リズムの発音パターンが書かれ次のアドレスに消音パタ
ーンが書かれている)リズム識別子が書かれている。R
PDヘッダメモリHPRDに対する相対アドレスは相対
アドレス=(S1×S2)×RLM+S2×RLB+R
Cによって計算される(ここにS1はリズム型の総数、
S2はリズムインデクスの総数である)。すなわちリズ
ムテーブルへの引数として比較リズム型RLMと前区間
のリズム型RLBとリズムインデクスRCとが与えられ
た場合上の式にしたがって相対アドレスを計算してRP
DヘッダメモリHPRDをアドレッシングすることによ
りその引数の組合わせに対応するリズムの識別子をただ
ちに検索することができ、更にそのリズム識別子をもっ
てリズムテーブルの本体メモリRPDをアドレッシング
することにより目的のリズム発音パターンと消音パター
ンの情報をただちにうることができる。RPDヘッダメ
モリHPRDにおいて異なるアドレスにあるデータ(リ
ズム識別子)が同じ値を取ることがありうる。このこと
は比較リズム型、前区間のリズム型、リズムインデクス
RCからなる引数の組み合わせと目的のリズム(現区間
におけるリズム)とが1対1対応ではないことを意味す
る。すなわち図33に示すリズムテーブルのメモリ構成
はリズムテーブルへの直接検索を可能とするとともに、
メモリの記憶容量の節約を図ったものである。図34に
音種列テーブルNCDのメモリ構成を示す。NCDヘッ
ダメモリHNCDは各アドレスに音種列識別子を記憶す
る。この音種列識別子はNCD本体メモリNCD上の音
種列レコードを特定する。現区間のリズム識別子CRと
現区間のピッチインデクスPIが与えられた場合その組
み合わせに対する現区間の音種列を示す音種列識別子の
相対アドレスは、相対アドレス=PI+(CR×S1)
で計算される(ここにS1はリズム型の総数である)。
したがって現区間のリズム識別子と現区間のピッチイン
デクスとからただちにその組み合わせに対応する音種列
レコードと音種列識別子をうることができる。NCD本
体メモリNCDにおける各音種列レコードは次の項目か
らなる。すなわち音数の項目(1ワード)及び音数分の
音種の項目(それぞれ1バイト)である。したがって1
ワード当たり2つの音種データが納められる。そのワー
ド構成を図34の下方に示す。図示のように各音種項目
は音種の方向のフィールド、臨時記号のフィールド(#
/♭/
FIG. 32 shows a comparative rhythm table memory RC.
L. The selected musical data SPR (G in FIG. 31)
The relative address of the item to be extracted from the table RCL is determined by the musical expression data read from the BAR term). In that item, comparative rhythm type data for the musical style STR is written. FIG. 33 shows the memory configuration of the rhythm table. The RPD header memory HPRD specifies a relative address of the rhythm table with respect to the main memory RPD at each address (a rhythm sounding pattern is written at the relative address of the memory RPD and a mute pattern is written at the next address). Is written. R
The relative address to the PD header memory HPRD is relative address = (S1 × S2) × RLM + S2 × RLB + R
(Where S1 is the total number of rhythm types,
S2 is the total number of rhythm indexes). That is, when the comparative rhythm type RLM, the rhythm type RLB of the previous section, and the rhythm index RC are given as arguments to the rhythm table, the relative address is calculated according to the above equation, and RP
By addressing the D header memory HPRD, a rhythm identifier corresponding to the combination of its arguments can be immediately searched, and furthermore, by addressing the main memory RPD of the rhythm table using the rhythm identifier, a desired rhythm sounding pattern can be obtained. Information on the muffling pattern can be immediately obtained. Data (rhythm identifier) at different addresses in the RPD header memory HPRD may have the same value. This means that the target rhythm (the rhythm in the current section) does not have a one-to-one correspondence between the combination of the arguments including the comparative rhythm type, the rhythm type of the previous section, and the rhythm index RC. That is, the memory configuration of the rhythm table shown in FIG. 33 enables direct search to the rhythm table,
This is to save the storage capacity of the memory. FIG. 34 shows the memory configuration of the tone type sequence table NCD. The NCD header memory HNCD stores a tone type string identifier at each address. This tone type string identifier specifies a tone type string record on the NCD main body memory NCD. Given the rhythm identifier CR of the current section and the pitch index PI of the current section, the relative address of the sound type string identifier indicating the sound type string of the current section for the combination is relative address = PI + (CR × S1)
(Where S1 is the total number of rhythm types).
Therefore, a tone type string record and a tone type string identifier corresponding to the combination can be immediately obtained from the rhythm identifier of the current section and the pitch index of the current section. Each tone type string record in the NCD main body memory NCD includes the following items. That is, there are an item of the number of sounds (one word) and an item of a sound type corresponding to the number of sounds (each one byte). Therefore 1
Two tone type data are stored per word. The word structure is shown in the lower part of FIG. As shown in the figure, each note type field has a note type field and an accidental field (#
/ ♭ /

【外1】 )と、音種番号のフィールドを有する。方向はその音種
が基準音高NOMより上か下かを表わす。音種番号は第
1コード構成音(=0)、第2コード構成音(=1)、
第3コード構成音(=2)、第4コード構成音(=
3)、第2スケール音(=4)、第4スケール音(=
5)、第6スケール音(=6)のいずれかである。臨時
記号のフィールドは生成された音高を半音上げたり下げ
たりするのに用いられる。図35にPC変換テーブルの
メモリ構成を示す。PC変換テーブルAVは連続する7
ワードに各音種のPCデータ(コードルートからの音種
の音程データ)を記憶する。生成インデクスの小節欄に
書かれた調性識別子TONALが取りだされるとその値
に7倍したものがPC変換テーブルメモリAVにおいて
目的のPCレコード(7ワード)が書かれた記憶場所の
相対アドレスを特定する。PC変換テーブルメモリAV
の各PCレコードは第1ワードが第1コード構成音K1
のPCデータ、第2ワードが第2コード構成音K2のP
Cデータ、第3ワードが第3コード構成音K3のPCデ
ータ、第4ワードが第4コード構成音K4のPCデー
タ、第5ワードが第2スケール音st2のPCデータ、
第6ワードが第4スケール音st4のPCデータ、及び
第7ワードが第6スケール音st6のPCデータを記憶
する。
[Outside 1] ) And a sound type number field. The direction indicates whether the tone type is above or below the reference pitch NOM. The tone type numbers are the first chord constituent sound (= 0), the second chord constituent sound (= 1),
Third chord constituent sound (= 2), fourth chord constituent sound (=
3), second scale sound (= 4), fourth scale sound (=
5) or the sixth scale sound (= 6). The accidental field is used to raise or lower the generated pitch by a semitone. FIG. 35 shows the memory configuration of the PC conversion table. PC conversion table AV is continuous 7
The PC data of each tone (the pitch data of the tone from the chord root) is stored in the word. When the tonality identifier TOnal written in the bar of the generated index is taken out, the value obtained by multiplying the value by 7 is the relative address of the storage location where the target PC record (7 words) is written in the PC conversion table memory AV. To identify. PC conversion table memory AV
In each PC record, the first word is the first chord constituent sound K1
PC data, the second word is the P of the second chord constituent sound K2
C data, the third word is PC data of the third chord sound K3, the fourth word is PC data of the fourth chord sound K4, the fifth word is PC data of the second scale sound st2,
The sixth word stores the PC data of the fourth scale sound st4, and the seventh word stores the PC data of the sixth scale sound st6.

【0029】図36〜図47に各処理の詳細なフローを
示している。図36、図37、図38はそれぞれメイン
プロセス(図25)におけるテーマ選択ブロック25−
5、CEDレコード選択ブロック25−6及びGPプロ
セス設定ブロック25−7の詳細フローである。図39
は生成インタラプトプロセス(図26)のブロック26
−5(G BARについてメロディ生成)の詳細であ
る。図39のフローにおける最初のブロック“G BA
Rインデクス決定”の詳細は図40に、2番目のブロッ
ク“G BAR比較リズムルックアップ”は図41に、
3番目のブロック“G BARリズム生成”は図42
に、4番目のブロック“G BAR音種列生成”は図4
3に、5番目のブロック“G BAR音種列変換”は図
44〜図46にそれぞれ詳細を示している。図47は演
奏インタラプトプロセス(図27)の発音タイミングテ
スト27−1、発音処理27−2、及び消音処理27−
4の詳細を示している。これらのフロー(図36〜図4
7のフロー)の動作は図自体の記載から及び第1と第2
実施例について以上述べた明細書の記載から明らかであ
るのでこれ以上の説明は省略する。以上、関連発明の第
1実施例の説明では音楽データベースに基づくメロディ
生成技術に焦点をあてた。第1実施例の説明から明らか
なように本自動メロディ生成装置はフレーズを単位とし
てメロディを生成する。ここのフレーズはフレーズデー
タベースにあるフレーズ構成要素を生成インデクス等に
したがって選択、合成することによって構成される。し
たがって出来上がりのフレーズの自然さが保障される。
また生成インデクス情報にしたがってフレーズの展開、
変形、反復を所望に制御できる。生成インデクス情報の
1つの側面は、テーマが与えられた場合にそのテーマの
展開、変形、反復あるいはテーマのモチーフとは異なる
モチーフの生成指示をフレーズデータベース向けに記述
していることである。したがって第1実施例を通して説
明した関連発明の自動メロディ生成装置の利点、特徴は
従来技術では達し得ないレベルで、音楽性のあるメロデ
ィを豊富に提供できること、及びデータ検索方式のメロ
ディ生成技術なのでリアルタイムの作曲環境に合う短時
間でメロディを生成できることである。関連発明の第2
実施例の説明では単一のCPUを含むコンピュータベー
スのシステムで自動メロディ生成装置のような音楽装置
を実現する場合にユーザーからの要求に対するリアルタ
イム応答を可能にする(あるいは容易にする)システム
制御方式に焦点をあてた。本制御方式は必らずしもデー
タベース指向のメロディ生成装置ないし音楽装置に限ら
ず広い適用範囲を有するものである。自動メロディ生成
装置との関係で言えば例えば1小節のメロディ生成に数
秒程度の処理時間を要するものでも本制御方式を採用す
ることにより任意の小節数のメロディの生成、演奏をリ
アルタイム環境でユーザーに提供することができる。
FIGS. 36 to 47 show detailed flows of the respective processes. FIG. 36, FIG. 37, and FIG. 38 each show a theme selection block 25- in the main process (FIG. 25).
5 is a detailed flow of a CED record selection block 25-6 and a GP process setting block 25-7. FIG.
Is the block 26 of the generation interrupt process (FIG. 26)
-5 (G Details of melody generation for BAR). The first block “G” in the flow of FIG. 39 BA
Details of the “R index determination” are shown in FIG. BAR comparison rhythm lookup ”is shown in FIG.
The third block "G "BAR rhythm generation"
In the fourth block "G BAR sound type sequence generation ”is shown in FIG.
Third, the fifth block “G 44 to 46. Details of the "BAR sound type sequence conversion" are shown in FIGS. 44 to 46. FIG. 47 shows a sound generation timing test 27-1, a sound generation process 27-2, and a mute process 27- in the performance interrupt process (FIG. 27).
4 is shown in detail. These flows (FIGS. 36 to 4)
The operation of (flow 7) is based on the description in the figure itself and the first and second
Since the embodiments are apparent from the above description, further description will be omitted. As described above, the description of the first embodiment of the related invention has focused on the melody generation technology based on the music database. As is clear from the description of the first embodiment, the present automatic melody generating device generates a melody in units of phrases. The phrase here is formed by selecting and synthesizing phrase components in a phrase database according to a generation index or the like. Therefore, the naturalness of the completed phrase is guaranteed.
Expansion of phrases according to the generated index information,
Deformation and repetition can be controlled as desired. One aspect of the generated index information is that, when a theme is given, expansion, deformation, repetition of the theme, or an instruction to generate a motif different from the motif of the theme is described for the phrase database. Therefore, the advantages and features of the automatic melody generating device of the related invention described through the first embodiment are at a level that cannot be achieved by the conventional technology, and a rich melody with musical characteristics can be provided. Is to be able to generate a melody in a short period of time that matches the composition environment. Second related invention
In the description of the embodiment, a system control method that enables (or facilitates) real-time response to a request from a user when a music device such as an automatic melody generating device is realized by a computer-based system including a single CPU. Focused on. This control method is not limited to a database-oriented melody generating device or a music device, and has a wide application range. Speaking of the relationship with the automatic melody generation device, for example, even if a melody of one bar requires several seconds of processing time, the melody of any bar number can be generated and played in a real-time environment by adopting this control method. Can be provided.

【0030】変形例 以上で関連発明の実施例の説明を終えるとともに、実施
例のなかに組み込まれたこの発明の実施の形態の説明を
終える。なお、関連発明の範囲内、またはこの発明の範
囲内で種々の変形、応用が可能である。例えば実施例で
は音楽データベース(生成インデクステーブルテーマバ
ンク、フレーズデータベース)を内部メモリのROM内
に設けたが外部記憶装置(例えばCDROM)に音楽デ
ータベースの情報を置くようにしてもよい。そのような
外部記憶装置は曲風(音楽スタイル)毎に音楽データベ
ースを持つことができる。システムの動作時に所要のデ
ータ群が内部メモリのRAMにロードされ、それに基づ
いてシステムはメロディを自動生成する。例えば装置本
体側で曲風を選択した時にその曲風に属する音楽データ
群(フレーズデータベース等)を内部RAMにロードし
て指定した曲風による所望のメロディ生成を可能な状態
にする。また関連発明の自動メロディ生成装置の簡単な
構成例としてフレーズデータベース中に複数のフレーズ
(それぞれリズムと音高列とで構成される)をいれてお
きメロディ生成インデクスによってフレーズ間の連結な
いし遷移を指示するようにする構成が可能である。この
場合生成インデクステーブルCEDの情報処理単位であ
るフレーズ生成レコードにはそのレコードの識別子、次
のフレーズへの候補群を指示する情報としてフレーズデ
ータベース中の幾つかのフレーズを指示するフレーズ識
別子群と各フレーズ識別子と対になったレコード識別子
が記入される(なお、後述するモニター手段にかえ、次
フレーズなし、すなわちメロディ終了を示すコマンドを
候補群に含ませてもよい。)。動作において自動メロデ
ィ生成装置はCEDテーブルのレコードを1つ取りだし
フレーズ識別子とレコード識別子の対を複数の対情報の
中から乱数的に選択する。次に自動メロディ生成装置は
選択したフレーズ識別子を用いてフレーズデータベース
からそのフレーズ識別子が指すフレーズデータを取りだ
し、自動演奏系に渡す。同時に自動メロディ生成装置は
選択したレコード識別子を用いて生成インデクステーブ
ルCED中から次のレコードを検索して以上の処理を繰
り返す。このような構成を取ることによりフレーズの展
開、変形を所望にコントロールすることができる。更に
このような構成に加え自動メロディ生成装置に順次選択
されていくフレーズ識別子の列をモニターする手段を設
け、モニター手段がメロディの終止形(カデンツ)のパ
ターンと一致したときに自動メロディの生成を終了させ
るようにすることができる。さらにモニター手段に選択
フレーズ識別子の列と音楽の段落点を表わすパターン
(例えば半終止形ないし偽終止形のパターン)等を比較
する手段を設け段落点のパターンとの一致を検出した時
に次の段落(楽節)の開始のフレーズを適当な方法で生
成するようにしてもよい。これは例えば楽節開始テーブ
ルを設けることで実現できる。楽節開始テーブルの各レ
コードには段落終止形を表わすフレーズ識別子のパター
ン(例えば正格終止形あるいは半ないし偽終止形)の項
目(検索キーとして用いる)と、上述したフレーズ生成
レコードに相当する項目(ここでは楽節の開始フレーズ
として用いることのできるフレーズ識別子グループとそ
のグループ中の各フレーズ識別子に付属するフレーズ生
成レコード識別子)等を設ける。モニター手段はメロデ
ィの生成のために選択したフレーズ識別子の列をこのテ
ーブルの検索キーと比較して一致を検出した時にその検
索キーに関連するフレーズ識別子とレコード識別との対
のグループの中から1つの対を選択しその選択対のフレ
ーズ識別子を用いてフレーズデータベースから新楽節の
開始となるフレーズデータを取りだし自動演奏系に渡す
と共にその選択対のレコード識別子を用いて次のフレー
ズ生成レコードにアクセスする。なおこれらの対の中に
は自動メロディ生成を終了させるためのコマンドを持つ
こともできる。したがって、フレーズ生成レコードはネ
ットワーク化され、その(フレーズ生成レコードの)ネ
ットワークがフレーズ列すなわちメロディ生成インデク
スの集合体を表わす。また別の構成例ではフレーズデー
タベース中に音種列とリズムとを表わすフレーズデータ
を複数用意し生成インデクステーブルは上と同様な構成
とし、外部から調性進行が与えられたときに調性に応じ
て音種列を音高列に変換するようにしてもよい。このよ
うな調性進行は例えば鍵盤からコード進行をユーザーか
ら入力することによって行なえる。但しコード進行から
調性進行をうる手段が必要である(この技術に関しては
例えば特願平3−68922号を参照されたい)。この
ような構成をとることにより自動メロディ生成装置はユ
ーザーからリアルタイムで入力されるコード進行に応答
してリアルタイムでメロディの自動生成及び演奏を行な
うことが可能である。また、ユーザーからのテーマ演奏
入力に対してメロディの自動生成を行なうことも関連発
明の範囲内で可能である。これは例えば演奏入力された
テーマとシステムに内蔵されるテーマ群とを比較するマ
ッチング手段を設け演奏入力されたテーマに相当する
(近い)テーマをテーマデータベース中から選択する。
後は実施例に述べた方法で自動的にメロディを生成でき
る。その他種々の変形がこの発明の範囲内で可能であ
る。
Modifications The embodiments of the related invention have been described above, and the embodiments of the invention incorporated in the embodiments have been described. Various modifications and applications are possible within the scope of the related invention or within the scope of the invention. For example, in the embodiment, the music database (generation index table theme bank, phrase database) is provided in the ROM of the internal memory, but information of the music database may be stored in an external storage device (for example, CDROM). Such an external storage device can have a music database for each song style (music style). When the system operates, a required data group is loaded into the RAM of the internal memory, and the system automatically generates a melody based on the loaded data. For example, when a music style is selected on the device main body side, a music data group (phrase database or the like) belonging to the music style is loaded into the internal RAM, and a desired melody can be generated by the specified music style. Also, as a simple configuration example of the automatic melody generation apparatus of the related invention, a plurality of phrases (each composed of a rhythm and a pitch sequence) are put in a phrase database, and the connection or transition between the phrases is designated by a melody generation index. It is possible to adopt a configuration for performing the above. In this case, the phrase generation record, which is an information processing unit of the generation index table CED, includes an identifier of the record, a phrase identifier group indicating some phrases in the phrase database as information indicating a group of candidates for the next phrase, and A record identifier paired with the phrase identifier is entered (a command indicating no next phrase, that is, a command indicating the end of the melody may be included in the candidate group instead of the monitoring means described later). In operation, the automatic melody generating device takes out one record of the CED table and randomly selects a pair of a phrase identifier and a record identifier from a plurality of pairs of information. Next, using the selected phrase identifier, the automatic melody generating device extracts the phrase data indicated by the phrase identifier from the phrase database and passes it to the automatic performance system. At the same time, the automatic melody generating device searches the generated index table CED for the next record using the selected record identifier, and repeats the above processing. By adopting such a configuration, the development and deformation of the phrase can be controlled as desired. Further, in addition to such a configuration, the automatic melody generating device is provided with a means for monitoring a sequence of phrase identifiers that are sequentially selected, and when the monitoring means matches the melody end pattern (cadence), automatic melody generation is performed. It can be terminated. Further, the monitor means is provided with a means for comparing a string of the selected phrase identifier with a pattern (for example, a semi-finished form or a pseudo-finished form) representing a paragraph point of music, and the next paragraph is detected when a match with the pattern of the paragraph point is detected. The phrase for the start of a (phrase) may be generated by an appropriate method. This can be realized, for example, by providing a passage start table. Each record of the passage start table has an item of a phrase identifier pattern (for example, a strict end form or a semi- or false end form) indicating a paragraph end form (used as a search key) and an item corresponding to the above-described phrase generation record (here In this example, a phrase identifier group that can be used as a phrase start phrase and a phrase generation record identifier attached to each phrase identifier in the group are provided. The monitor means compares a row of phrase identifiers selected for the generation of the melody with a search key of this table, and when a match is detected, one of a pair of a pair of a phrase identifier and a record identification associated with the search key. One pair is selected, the phrase data for starting a new phrase is retrieved from the phrase database using the phrase identifier of the selected pair, passed to the automatic performance system, and the next phrase generation record is accessed using the record identifier of the selected pair. . It should be noted that a command for terminating the automatic melody generation may be included in these pairs. Thus, the phrase generation records are networked, and the network (of the phrase generation records) represents a collection of phrase sequences or melody generation indexes. In another configuration example, a plurality of phrase data representing a tone sequence and a rhythm are prepared in a phrase database, and the generated index table has the same configuration as the above, and according to the tonality when the tonality progress is given from the outside. May be converted to a pitch sequence. Such tonality progression can be performed, for example, by inputting a chord progression from a keyboard by a user. However, means for obtaining tonality progression from chord progression is required (for this technique, see, for example, Japanese Patent Application No. 3-68922). With such a configuration, the automatic melody generation device can automatically generate and play a melody in real time in response to a chord progression input in real time from a user. It is also possible to automatically generate a melody in response to a theme performance input from a user within the scope of the related invention. For this, for example, a matching means for comparing the theme inputted in the performance with the theme group built in the system is provided, and a theme corresponding to (close to) the theme inputted in the performance is selected from the theme database.
Thereafter, the melody can be automatically generated by the method described in the embodiment. Various other modifications are possible within the scope of the present invention.

【0031】[0031]

【発明の効果】以上詳細に述べたように、この発明によ
る音列形成装置は従来とは全く異なる手法で自動演奏等
のための音列を形成する。この発明によれば原データと
して音種列(音種の楽音列の情報)を用い、この音種列
データを所望の音楽背景情報と基準音高データとに基づ
いて音高列(具体的な音高の楽音列を表わす情報)に変
換する。したがって、本発明によれば、原データとして
特定の音高列の情報を用いることなく所望の音楽背景
(調や和音)、所望の音楽状況(音域)に合った音高列
を自動演奏等のために提供することができる。
As described in detail above, the sound string forming apparatus according to the present invention forms a sound string for an automatic performance or the like by a method completely different from the conventional one. According to the present invention, a tone sequence (information of a tone sequence of a tone) is used as original data, and the tone sequence data is converted into a pitch sequence (specifically, based on desired music background information and reference pitch data). (Information representing a tone sequence of pitches). Therefore, according to the present invention, a pitch sequence suitable for a desired music background (key and chord) and a desired music situation (tone range) can be automatically reproduced without using information of a specific pitch sequence as original data. Can be provided for.

【図面の簡単な説明】[Brief description of the drawings]

【図1】関連発明の原理を示す自動メロディ生成装置の
機能ブロック図。
FIG. 1 is a functional block diagram of an automatic melody generation device showing the principle of a related invention.

【図2】この発明の実施の形態に係る音列形成装置を組
み込んだ自動メロディ生成装置の主な機能を示す機能ブ
ロック図。
FIG. 2 is a functional block diagram showing main functions of an automatic melody generating device incorporating the sound sequence forming device according to the embodiment of the present invention.

【図3】図2の自動メロディ生成装置を実現するための
代表的なハードウェア構成のブロック図。
FIG. 3 is a block diagram of a typical hardware configuration for realizing the automatic melody generation device of FIG. 2;

【図4】図3の装置のメロディ生成プロセスのジェネラ
ルフローチャート。
FIG. 4 is a general flowchart of a melody generation process of the apparatus of FIG. 3;

【図5】生成インデクステーブルを示す図。FIG. 5 is a diagram showing a generated index table.

【図6】比較リズムテーブルを示す図。FIG. 6 shows a comparative rhythm table.

【図7】リズムテーブルを示す図。FIG. 7 is a diagram showing a rhythm table.

【図8】音種列テーブルを示す図。FIG. 8 is a diagram showing a sound type sequence table.

【図9】PC変換テーブルを示す図。FIG. 9 is a diagram showing a PC conversion table.

【図10】テーマ選択のフローチャート。FIG. 10 is a flowchart of theme selection.

【図11】生成インデクス決定のフローチャート。FIG. 11 is a flowchart for determining a generation index.

【図12】リズム生成のフローチャート。FIG. 12 is a flowchart of rhythm generation.

【図13】音種列生成のフローチャート。FIG. 13 is a flowchart of generating a sound type sequence.

【図14】実施の形態に係る音高列生成のフローチャー
ト。
FIG. 14 is a flowchart of pitch sequence generation according to the embodiment.

【図15】音種列変換のフローチャート。FIG. 15 is a flowchart of sound type sequence conversion.

【図16】実施の形態に係る音種列変換を説明する図。FIG. 16 is a view for explaining sound type string conversion according to the embodiment;

【図17】音高列変換のフローチャート。FIG. 17 is a flowchart of pitch sequence conversion.

【図18】テーマ例を楽譜で示す図。FIG. 18 is a diagram showing an example of a theme in a musical score.

【図19】生成メロディ例を楽譜で示す図。FIG. 19 is a diagram showing an example of a generated melody in a musical score.

【図20】図2の自動メロディ生成装置を実現するため
の代表的なハードウェア構成のブロック図。
FIG. 20 is a block diagram of a typical hardware configuration for realizing the automatic melody generation device of FIG. 2;

【図21】図20の装置のシステム状態遷移図。FIG. 21 is a system state transition diagram of the apparatus in FIG. 20;

【図22】図20の装置におけるパイプライン制御方式
を示すタイムチャート。
FIG. 22 is a time chart showing a pipeline control method in the apparatus shown in FIG. 20;

【図23】図20の装置におけるプログラム間のプロセ
スチャート。
FIG. 23 is a process chart between programs in the apparatus of FIG. 20;

【図24】図20の装置の時分割方式を示すタイムチャ
ート。
FIG. 24 is a time chart showing the time division method of the apparatus shown in FIG. 20;

【図25】メインプロセスのフローチャート。FIG. 25 is a flowchart of a main process.

【図26】生成インタラプトプロセスのフローチャー
ト。
FIG. 26 is a flowchart of a generation interrupt process.

【図27】演奏インタラプトプロセスのフローチャー
ト。
FIG. 27 is a flowchart of a performance interrupt process.

【図28】図20の装置で使用される主な変数を示す
図。
FIG. 28 is a diagram showing main variables used in the apparatus of FIG. 20.

【図29】二重発音バッファを示す図。FIG. 29 is a diagram showing a dual sound generation buffer.

【図30】テーマテーブルのメモリ構成を示す図。FIG. 30 is a diagram showing a memory configuration of a theme table.

【図31】生成インデクステーブルのメモリ構成を示す
図。
FIG. 31 is a diagram showing a memory configuration of a generation index table.

【図32】比較リズムテーブルのメモリ構成を示す図。FIG. 32 is a diagram showing a memory configuration of a comparative rhythm table.

【図33】リズムテーブルのメモリ構成を示す図。FIG. 33 is a diagram showing a memory configuration of a rhythm table.

【図34】音種列テーブルのメモリ構成を示す図。FIG. 34 is a diagram showing a memory configuration of a sound type string table.

【図35】PC変換テーブルのメモリ構成を示す図。FIG. 35 is a diagram showing a memory configuration of a PC conversion table.

【図36】テーマ選択のフローチャート。FIG. 36 is a flowchart of theme selection.

【図37】CEDレコード選択のフローチャート。FIG. 37 is a flowchart of CED record selection.

【図38】G・Pプロセス設定のフローチャート。FIG. 38 is a flowchart of GP process setting.

【図39】1音楽区間のメロディ生成のフローチャー
ト。
FIG. 39 is a flowchart of melody generation for one music section.

【図40】G BARインデクス決定のフローチャー
ト。
FIG. 40 9 is a flowchart of BAR index determination.

【図41】G BAR比較リズムルックアップのフロー
チャート。
FIG. 41 9 is a flowchart of a BAR comparison rhythm lookup.

【図42】G BARリズム生成のフローチャート。FIG. 42 9 is a flowchart of BAR rhythm generation.

【図43】G BAR音種列生成のフローチャート。FIG. 43 9 is a flowchart of BAR sound type sequence generation.

【図44】G BAR音種列変換の第1部分のフローチ
ャート。
FIG. 44 9 is a flowchart of a first part of BAR sound type sequence conversion.

【図45】同じく第2部分のフローチャート。FIG. 45 is a flowchart of the second part.

【図46】同じく第3部分のフローチャート。FIG. 46 is a flowchart of the third part.

【図47】発音タイミング、発音処理、消音処理の各フ
ローを示す図。
FIG. 47 is a diagram showing each flow of sounding timing, sounding processing, and mute processing.

【符号の説明】[Explanation of symbols]

303 相対音種列表 212 モーション制御ロジック 216 よみかえ音種列 304 PC変換テーブル 402 音高列 4−7 音種列生成(音種列付与手段) 4−8 音高列生成(音高列形成手段) NOM 基準音高 NCD 音種列テーブル(音種列記憶手段) TND(i) 音種列 TND(i、j) 音種 P(i、j) 音高(音種を音高に変換したもの) 303 Relative tone type sequence table 212 Motion control logic 216 Read-back tone type sequence 304 PC conversion table 402 Pitch sequence 4-7 Pitch type sequence generation (tone type sequence providing means) 4-8 Pitch sequence generation (pitch sequence forming means) NOM reference pitch NCD tone type table (tone type storage means) TND (i) tone type sequence TND (i, j) tone type P (i, j) pitch (a type converted to a pitch) )

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 101 - 102 G10H 1/36 - 1/42 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G10H 1/00 101-102 G10H 1/36-1/42

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 楽音列を形成する各楽音の垂直成分を
象的な音の種類(音種)で表現した音種列を与える音種
列付与手段と、 所望の音楽背景の情報を与える音楽背景付与手段と、 基準音高の情報与える基準音高付与手段と、該基準音高付与手段から与えられる基準音高を直前の楽
音の音高として、 前記音種列付与手段から与えられる音
種列を前記音楽背景付与手段から与えられる音楽背景と
前記基準音高とに基づいて各楽音の垂直成分を具体的な
音高で表現した音高列に変換することにより、前記基準
音高に後続する音高列を形成する音高列変換手段と、 を有することを特徴とする音列形成装置。
A vertical component of each tone forming a tone sequence is extracted.
Elephant specific and note type sequence providing means for providing the note type string representing the type (sound type) of sound, and music background applying means for applying the information of the desired music background, reference sound Ru gives information of the reference pitch Pitch providing means and the reference pitch given from the reference pitch providing means
The sound given from the tone sequence providing means as the pitch of the sound
A music sequence provided from the music background providing means
By converting based on the said reference pitch to the pitch sequence representing the vertical component of each tone in a concrete <br/> pitch, the reference
A pitch sequence converting means for forming a pitch sequence that follows the pitch, the sound sequence forming apparatus characterized by having a.
【請求項2】 楽音列を形成する各楽音の垂直成分を
象的な音の種類(音種)で表現した音種列を順次与える
音種列付与手段と、 所望の音楽背景の情報を与える音楽背景付与手段と、 基準音高の情報与える基準音高付与手段と、前記音種列付与手段から与えられる 音種列を、前記音楽
背景付与手段から与えられる音楽背景と前記基準音高付
与手段から与えられる基準音高とに基づき、各楽音の垂
直成分を具体的な音高で表現した音高列に順次変換する
音高列変換手段と、を有し、 前記基準音高付与手段は、前記音高列変換手段にて既に
変換済みの音高列における所定の音高を基準音高として
与える、 ことを特徴とする 音列形成装置。
2. The vertical component of each tone forming a tone sequence is extracted.
A note type sequence providing means for providing the note type string representing the type of elephant sounds (sound type) sequentially, Ru gives a music background applying means for applying the information of the desired music background, the information of the reference pitch reference A pitch assigning means, and a tone type sequence given from the tone type sequence assigning means ,
Music background given by the background giving means and the reference pitch
Of each musical tone based on the reference pitch given by the
Pitch sequence conversion means for sequentially converting the direct component into a pitch sequence expressed by a specific pitch , wherein the reference pitch providing means has already been converted by the pitch sequence conversion means.
The specified pitch in the converted pitch sequence is used as the reference pitch.
Giving a sound sequence forming device.
【請求項3】 請求項1または2記載の音列形成装置
複数の異なる音種の各々に対する音高の情報を各音楽背
景別に記憶する 記憶手段を更にし、 前記音高列変換手段は、前記音楽背景付与手段から与え
られる音楽背景と前記基準音高付与手段から与えられる
基準音高と前記記憶手段の記憶内容に従って、前記音種
列付与手段から与えられる音種列を音高列に変換 する ことを特徴とする音列形成装置。
3. The sound sequence forming apparatus according to claim 1, wherein
, Each music back tone pitch information for each of a plurality of different sound type
Further have a storage means for Jing by the storage, the pitch sequence converting means, provided from the musical background providing means
Music background and the reference pitch giving means
According to the reference pitch and the content stored in the storage means,
Converting a note type string given from the column providing means to the pitch column, the sound sequence forming apparatus characterized by.
【請求項4】 請求項1または2記載の音列形成装置に
おいて、 前記音楽背景の情報は調と和音の情報であることを特徴
とする音列形成装置。
4. A sound sequence forming apparatus according to claim 1 or 2, wherein, the information of the music background sound sequence forming apparatus, characterized in that the information of the tone and chord.
JP32879198A 1991-12-30 1998-11-05 Sound train forming device Expired - Fee Related JP3275854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32879198A JP3275854B2 (en) 1991-12-30 1998-11-05 Sound train forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32879198A JP3275854B2 (en) 1991-12-30 1998-11-05 Sound train forming device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP36054791A Division JP3271282B2 (en) 1991-12-30 1991-12-30 Automatic melody generator

Publications (2)

Publication Number Publication Date
JPH11237884A JPH11237884A (en) 1999-08-31
JP3275854B2 true JP3275854B2 (en) 2002-04-22

Family

ID=18214160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32879198A Expired - Fee Related JP3275854B2 (en) 1991-12-30 1998-11-05 Sound train forming device

Country Status (1)

Country Link
JP (1) JP3275854B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100455751B1 (en) 2001-12-18 2004-11-06 어뮤즈텍(주) Apparatus for analyzing music using sound of instruments

Also Published As

Publication number Publication date
JPH11237884A (en) 1999-08-31

Similar Documents

Publication Publication Date Title
JP3271282B2 (en) Automatic melody generator
US5052267A (en) Apparatus for producing a chord progression by connecting chord patterns
US6576828B2 (en) Automatic composition apparatus and method using rhythm pattern characteristics database and setting composition conditions section by section
US20210110802A1 (en) Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
JPH01173099A (en) Automatic accompanying device
US20210110801A1 (en) Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (vmi) library management system
JP3275854B2 (en) Sound train forming device
JP3364941B2 (en) Automatic composer
JPH09244648A (en) Automatic music composing machine
US5854438A (en) Process for the simulation of sympathetic resonances on an electronic musical instrument
JP3013648B2 (en) Automatic arrangement device
JPS62159189A (en) Automatic rhythm performer
JP2003177751A (en) Playing data processing device
JPH01262595A (en) Code proceeding generating device
JP2638816B2 (en) Accompaniment line fundamental tone determination device
JP3364940B2 (en) Automatic composer
JP3528372B2 (en) Automatic composition method
JP3807333B2 (en) Melody search device and melody search program
JP2504320B2 (en) Music synthesizer
JP2929498B2 (en) Electronic musical instrument
JP2541451B2 (en) Rhythm generator and rhythm analyzer
Lyu Transforming Music into Chinese Musical Style based on Nyquist
JP2638818B2 (en) Accompaniment line fundamental tone determination device
JP3088919B2 (en) Tone judgment music device
JP2001350469A (en) Device and method for deciding sounding length and recording medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100208

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees