JP2797317B2 - Automatic composer - Google Patents
Automatic composerInfo
- Publication number
- JP2797317B2 JP2797317B2 JP63125929A JP12592988A JP2797317B2 JP 2797317 B2 JP2797317 B2 JP 2797317B2 JP 63125929 A JP63125929 A JP 63125929A JP 12592988 A JP12592988 A JP 12592988A JP 2797317 B2 JP2797317 B2 JP 2797317B2
- Authority
- JP
- Japan
- Prior art keywords
- melody
- frequency data
- control parameter
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【発明の詳細な説明】 [発明の技術分野] この発明は自動作曲機に関する。Description: TECHNICAL FIELD OF THE INVENTION The present invention relates to an automatic composer.
[背 景] 自動作曲機に要求される1つの課題は、使用者の要求
するような曲を効率よく生成できる能力である。[Background] One of the issues required for an automatic composer is the ability to efficiently generate a song as required by a user.
ここで、メロディの組み合わせの数を考察してみる
と、メロディの各音がとり得る音高の数をx、音符の数
yとすると、音高列だけでも組合せの数はxyという非常
に膨大な数になる。したがって、一様の確率でメロディ
の各音の音高を生成する(乱数形成する)自動作曲機は
容易に実現できるが、使用者の希望するようなメロディ
が得られるまでには気の遠くなるほどの生成を繰り返す
必要があり、実用上使用できない。Here, considering the number of melody combinations, if the number of pitches that can be taken by each sound of the melody is x and the number of notes is y, the number of combinations is very much xy, even in the pitch sequence alone. A huge number. Therefore, an automatic composer that generates the pitch of each sound of the melody with uniform probability (generates a random number) can be easily realized, but it becomes more distant until a melody desired by the user is obtained. Must be repeated, and cannot be used practically.
そこで、本件出願人は、生成するメロディを特徴づけ
るメロディ特徴パラメータ(メロディ制御パラメータ)
の概念を導入し、このメロディ制御パラメータに対し、
ある音楽知識(例えば隣接する音高差は高々1オクター
ブ内等)により制限を加え、この制限されたメロディ制
御パラメータとコード進行とに基づいてメロディを生成
する自動作曲機を提案している(特願昭62−145405
号)。この出願の自動作曲機において、上記メロディ制
御パラメータは音楽知識による制限の範囲内で任意の値
をとり得、生成したメロディに対する使用者の判断結果
が否定的な場合、メロディ制御パラメータを変更してメ
ロディの生成をやり直すようにしている。しかしなが
ら、再度生成されるメロディが前よりも使用者の要求に
近づいたメロディになる保障はなく、使用者の好みに合
うメロディの生成能力の課題は依然として残されてい
る。Therefore, the applicant of the present application has proposed a melody feature parameter (melody control parameter) for characterizing a melody to be generated.
Introducing the concept of
There has been proposed an automatic composer that limits a certain musical knowledge (for example, adjacent pitch difference is within one octave at most) and generates a melody based on the limited melody control parameter and chord progression. No.62-145405
issue). In the automatic music composer of this application, the melody control parameter can take any value within the range of the limitation by music knowledge, and when the judgment result of the user for the generated melody is negative, the melody control parameter is changed. The melody is generated again. However, there is no guarantee that the regenerated melody will be a melody that is closer to the user's request than before, and the problem of the ability to generate a melody that meets the user's preference remains.
[発明の目的] この発明は上述の出願の自動作曲機をさらに改良した
ものであり、その目的は個々の使用者の好みに合うメロ
ディをより効果的に生成することのできる自動作曲機を
提供することである。[Object of the Invention] The present invention is a further improvement of the automatic composer of the above-mentioned application, and an object of the present invention is to provide an automatic composer capable of more effectively generating a melody that suits individual users' preferences. It is to be.
[発明の要点] 上記の目的を達成するため、この発明は使用者の好み
を作曲の基礎情報として自動作曲機に知らせることに着
目したものであり、生成されたメロディに対する判断結
果(使用者の好み)をメロディ制御パラメータと呼ぶ情
報を生成する基になる頻度データとして蓄積するように
したことを特徴とする。[Gist of the Invention] In order to achieve the above object, the present invention focuses on notifying a user's preference to an automatic composer as basic information for composing, and the result of judgment on the generated melody (user's (Preference) is stored as frequency data on which information called a melody control parameter is generated.
[発明の構成、作用、展開] 請求項1はメロディ制御パラメータを生成するメロデ
ィ制御パラメータ生成手段と、これにより生成されたメ
ロディ制御パラメータと与えられたコード進行とに基づ
いてメロディを合成するメロディ合成手段とを備えるタ
イプの自動作曲機にこの発明を適用したものである。請
求項1の構成において、頻度データ記憶手段に記憶され
る頻度データはメロディ制御パラメータ生成手段がメロ
ディ制御パラメータを生成するときの指標となる。具体
的には、頻度データは各メロディ制御パラメータの各値
が生成される頻度を表わす。ここにおいて、この頻度は
メロディ合成生成手段が合成したメロディに対して評価
された使用者の判断結果を反映している。なぜなら、出
力手段により出力された合成メロディに対する使用者の
判断結果が入力されると、その都度、頻度データ変更手
段が作動して、その判断結果に従って、頻度データ記憶
手段内の頻度データのうち出力されたメロディの合成に
用いたメロディ制御パラメータの値に係わる部分が変更
されるからである。具体的には、頻度データ変更手段
は、使用者の判断結果として、「好き」と「嫌い」の2
種類の情報が与えられる場合においても、出力メロディ
に対するメロディ制御パラメータの値を得た後、その値
に対するメロディ制御パラメータに関する頻度データの
値を「好き」に対しては増大させ、「嫌い」に対しては
減少させる。したがって、その後、新たにメロディを生
成する場合に、メロディ制御パラメータ生成手段が生成
する各制御パラメータは頻度データに従って使用者の好
みにより一致するような値を取りやすくなる。このた
め、メロディ合成手段によって生成されるメロディにも
使用者の好みが反映されることになり、所期の目的を達
成することができる。Claim 1 is a melody control parameter generation means for generating a melody control parameter, and a melody synthesis for synthesizing a melody based on the melody control parameter generated thereby and a given chord progression. The present invention is applied to an automatic music composer of the type having means. In the configuration of claim 1, the frequency data stored in the frequency data storage means serves as an index when the melody control parameter generation means generates a melody control parameter. Specifically, the frequency data indicates the frequency at which each value of each melody control parameter is generated. Here, this frequency reflects the user's judgment result evaluated for the melody synthesized by the melody synthesis generating means. The reason is that each time the user's judgment result for the synthesized melody output by the output means is input, the frequency data changing means is activated, and the frequency data in the frequency data storage means is output according to the judgment result. This is because the part related to the value of the melody control parameter used for the synthesis of the melody is changed. More specifically, the frequency data changing means determines whether a user likes or dislikes the result of the user's judgment.
Even when the type information is given, after obtaining the value of the melody control parameter for the output melody, the value of the frequency data relating to the melody control parameter for that value is increased for “likes” and for “dislikes” Decrease. Therefore, when a new melody is subsequently generated, each control parameter generated by the melody control parameter generating means can easily take a value that more closely matches the user's preference according to the frequency data. For this reason, the melody generated by the melody synthesizing means reflects the user's preference, and the intended purpose can be achieved.
請求項2は使用者から入力されたメロディに基づいて
作曲を行う自動作曲機にこの発明を適用したものであ
る。請求項2によれば、メロディ制御パラメータを複数
種生成するメロディ制御パラメータ生成手段と、上記メ
ロディ制御パラメータにより生成されたメロディ制御パ
ラメータと与えられたコード進行とに基づいてメロディ
を合成するメロディ合成手段とを備える自動作曲機にお
いて、各種のメロディ制御パラメータが特定の値で発生
する頻度をコントロールするための頻度データを種類
別、値別に記憶する頻度データ記憶手段と、上記メロデ
ィ合成手段により合成されたメロディを出力する出力手
段と、上記出力手段により出力されたメロディに対する
使用者の判断結果を入力する入力手段と、上記記憶手段
に記憶された頻度データのうち、上記出力手段により出
力されたメロディを合成するのに用いた各種のメロディ
制御パラメータの値に対応づけた頻度データを、上記入
力手段により入力された判断結果に従って変更する頻度
データ変更手段と、を有し、上記メロディ制御パラメー
タ生成手段は上記頻度データ変更手段により変更された
頻度データに基づいて新たに生成するメロディを制御す
るためのメロディ制御パラメータを生成し、上記メロデ
ィ合成手段はこの生成されたメロディ制御パラメータに
よりメロディを合成することを特徴とする自動作曲機、
という構成に加え、曲の一部を成すメロディを入力する
メロディ入力手段と、入力されたメロディを分析する入
力メロディ分析手段とを設け、さらにメロディ制御パラ
メータ生成手段内に入力メロディ分析手段の分析結果に
基づいてメロディ制御パラメータを生成する手段を追加
している。この構成によれば曲全体を複数の区間に分
け、ある区間に対しては頻度データからメロディ制御パ
ラメータを得てメロディを生成し、ある区間に対しては
入力メロディからメロディ制御パラメータを得てメロデ
ィを生成することができ、使用者の好みの直接的な反映
である入力メロディの特徴を生成メロディに組み込むこ
とができるとともに、使用者の好みを取り込んだ頻度デ
ータに基づくメロディの生成も可能となる。Claim 2 applies the present invention to an automatic composer that composes music based on a melody input by a user. According to claim 2, melody control parameter generation means for generating a plurality of types of melody control parameters, and melody synthesis means for synthesizing a melody based on the melody control parameters generated by the melody control parameters and a given chord progression And a frequency data storage means for storing the frequency data for controlling the frequency at which various melody control parameters occur at specific values by type and by value, and the melody synthesizing means. Output means for outputting a melody; input means for inputting a user's judgment result on the melody output by the output means; and melody output by the output means among the frequency data stored in the storage means. For each melody control parameter value used for synthesis, Frequency data changing means for changing the assigned frequency data in accordance with the judgment result input by the input means, wherein the melody control parameter generating means newly generates the melody control parameter based on the frequency data changed by the frequency data changing means. An automatic composer characterized by generating a melody control parameter for controlling a melody to be generated, wherein the melody synthesizing means synthesizes a melody with the generated melody control parameter,
In addition to the above configuration, melody input means for inputting a melody that forms a part of a song, and input melody analysis means for analyzing the input melody are provided, and the analysis result of the input melody analysis means is further included in the melody control parameter generation means. Means for generating a melody control parameter based on the According to this configuration, the entire music is divided into a plurality of sections, a melody is generated by obtaining a melody control parameter from frequency data for a certain section, and a melody is obtained by obtaining a melody control parameter from an input melody for a certain section. Can be generated, and the characteristics of the input melody, which is a direct reflection of the user's preferences, can be incorporated into the generated melody, and the melody can be generated based on the frequency data incorporating the user's preferences. .
請求項3は頻度データを変更する場合に、変更対象を
規定するメロディ制御パラメータの値を得るための構成
例に関している。それによれば、頻度データ変更手段は
出力手段により出力されたメロディを分析するメロディ
分析手段を有する。Claim 3 relates to a configuration example for obtaining a value of a melody control parameter defining a change target when changing frequency data. According to this, the frequency data changing means has melody analysis means for analyzing the melody output by the output means.
この構成は、入力されたメロディに基づいて作曲を行
うために、入力されたメロディを分析する入力メロディ
分析手段を有するタイプの自動作曲機の場合に、特に有
効であり、この入力メロディ分析手段を出力されたメロ
ディの分析手段に兼用することが可能になる。This configuration is particularly effective in the case of an automatic composer of a type having input melody analysis means for analyzing the input melody in order to compose music based on the input melody, and this input melody analysis means The output melody can also be used as analysis means.
もっとも、どの頻度データを変更するかを定めるメロ
ディ制御パラメータの値、すなわち出力されたメロディ
を合成するのに用いたメロディ制御パラメータの値はメ
ロディ分析手段なしでも得ることができる。例えば、メ
ロディ特徴パラメータ生成手段の動作時に、生成したメ
ロディ特徴パラメータの値を一時記憶しておき、その値
を頻度データ変更手段の動作時に参照して頻度データの
変更対象を定めるようにしてもよい。Of course, the value of the melody control parameter that determines which frequency data is to be changed, that is, the value of the melody control parameter used for synthesizing the output melody can be obtained without the melody analysis means. For example, the value of the generated melody feature parameter may be temporarily stored during operation of the melody feature parameter generation unit, and the value may be referred to at the time of operation of the frequency data change unit to determine the frequency data change target. .
[実施例] 以下、図面を参照してこの発明の一実施例を説明す
る。An embodiment of the present invention will be described below with reference to the drawings.
全体構成 本実施例に係る自動作曲機の全体的な機能を第1図に
示す。図中、メロディ生成制御パラメータ生成手段1は
頻度データ記憶手段9に記憶される頻度データに従って
メロディ制御パラメータ(メロディ特徴パラメータ)を
発生する。このメロディ制御パラメータはメロディの生
成を制御するためにメロディ合成手段3に送られる。メ
ロディ合成手段3はメロディ生成制御パラメータ生成手
段1からのメロディ制御パラメータとコード進行記憶手
段2に記憶されるコード進行とに基づいてメロディを合
成し、メロディ記憶手段4に記憶する。メロディ記憶手
段4に記憶されたメロディは必要に応じてモニター手段
5によりモニターされる。モニターされたメロディに対
し、使用者は好き、嫌いの判断を下し、その判断結果を
入力手段6に入力する。これに対し、メロディ分析手段
7が動作して、使用者の判断したメロディを分析してそ
のメロディの合成に使用したメロディ制御パラメータの
値を抽出する。そして、データ変更手段8が動作し、メ
ロディ分析手段7の分析結果であるメロディ制御パラメ
ータの他に対する頻度データを入力手段6から入力され
た判断結果に従って変更する。これによって、頻度デー
タ記憶手段9の内容は更新される。後にメロディを合成
する場合、メロディ生成制御パラメータ生成手段1はこ
の更新された頻度データに従ってメロディ制御パラメー
タを生成するので、生成されるメロディはより使用者の
好みを反映するようになる。Overall Configuration FIG. 1 shows the overall functions of the automatic composer according to the present embodiment. In the figure, a melody generation control parameter generation unit 1 generates a melody control parameter (melody feature parameter) according to frequency data stored in a frequency data storage unit 9. The melody control parameters are sent to the melody synthesizing means 3 to control the generation of the melody. The melody synthesizing unit 3 synthesizes a melody based on the melody control parameter from the melody generation control parameter generating unit 1 and the chord progression stored in the chord progression storage unit 2 and stores the melody in the melody storage unit 4. The melody stored in the melody storage means 4 is monitored by the monitor means 5 as needed. The user makes a judgment as to whether he / she likes or dislikes the monitored melody, and inputs the judgment result to the input means 6. On the other hand, the melody analysis means 7 operates to analyze the melody determined by the user and extract the value of the melody control parameter used for synthesizing the melody. Then, the data changing means 8 operates, and changes the frequency data for the other melody control parameters, which are the analysis results of the melody analyzing means 7, according to the judgment result input from the input means 6. Thus, the content of the frequency data storage means 9 is updated. When a melody is later synthesized, the melody generation control parameter generation means 1 generates a melody control parameter in accordance with the updated frequency data, so that the generated melody reflects the preference of the user more.
第1図に機能ブロック図で示した自動作曲機を実現す
るためのハードウェアの構成例を第2図に示す。FIG. 2 shows a hardware configuration example for realizing the automatic music composition machine shown in the functional block diagram in FIG.
第2図において、CPU10により、メロディの分析、合
成、頻度データの変更機能が実現される。ワークメモリ
20は動作時にCPU10が使用する変数等を一時記憶するた
めのメモリである。頻度データ記憶装置30、入力装置4
0、モニター50はそれぞれ第1図の頻度データ記憶手段
9、モニター手段5、入力手段6に対応している。モニ
ター50はCRT等の表示装置、音源と音声出力装置、楽譜
プリンタ等から構成される。In FIG. 2, the CPU 10 implements melody analysis, synthesis, and frequency data change functions. Work memory
Reference numeral 20 denotes a memory for temporarily storing variables and the like used by the CPU 10 during operation. Frequency data storage device 30, input device 4
The monitor 50 corresponds to the frequency data storage means 9, the monitor means 5, and the input means 6 in FIG. The monitor 50 includes a display device such as a CRT, a sound source and a sound output device, a score printer, and the like.
メインフロー 本実施例の動作のメインフローを第3図に示す。3−
1でワークメモリ20の領域配分等の所期化を行い、3−
2で頻度データ記憶装置30にある頻度データをワークメ
モリ20に読み込み、3−3で使用者からのキー入力を待
つ。そして、それぞれのキー入力がある都度(3−4〜
3−7)、対応する処理(3−8〜3−11)を実行す
る。例えば、作曲の指示があったときは頻度データに基
づいてメロディを生成する。(3−4、3−8)。その
後、モニターの要求があったら、モニターを実行する
(3−9〜3−11)。モニターされたメロディに対する
判断が入力されたときには(3−5、3−6)その判断
結果に応じて頻度データを変更する(3−9、3−1
0)。FIG. 3 shows a main flow of the operation of the present embodiment. 3-
At step 1, the area allocation of the work memory 20, etc. is performed, and
At 2 the frequency data stored in the frequency data storage device 30 is read into the work memory 20, and at 3-3 a key input from the user is waited. Each time there is a key input (3-4 to
3-7) and execute the corresponding processing (3-8 to 3-11). For example, when a composition instruction is given, a melody is generated based on frequency data. (3-4, 3-8). Thereafter, when there is a monitor request, the monitor is executed (3-9 to 3-11). When the judgment on the monitored melody is input (3-5, 3-6), the frequency data is changed according to the judgment result (3-9, 3-1).
0).
変数リスト、データ形式 第4図から第7図に後述するフローチャートで使用す
る主な変数のリストとそのデータ形式を示してある。個
々については後述するフローチャートを説明するときに
参照することとし、ここでは説明を省略する。ただし、
この発明の特徴と関係する頻度データについてはここで
説明することとする。Variable List and Data Format FIGS. 4 to 7 show a list of main variables used in the flowcharts described later and their data formats. Each of them will be referred to when describing a flowchart described later, and the description will be omitted here. However,
The frequency data related to the features of the present invention will be described here.
頻度データDATAijは第7図に示すように頻度データ記
憶装置30に記憶される。ここに、DATAijは最初の添字i
が制御パラメータの種類(例えば和声音の数、非和声音
の数等)を表わし、後の添字jは種類iのパラメータの
値を表わしており、DATAijの値自体は、種類iのパラメ
ータが値iとなる頻度を表わしている。したがって、メ
ロディの合成の際に特徴パラメータを生成するとき、制
御パラメータiの値はDATAij(j=1〜N)のうちで一
番高い値のDATAijが示す値jに最もなりやすい。ここ
に、頻度データの全体{DATAij}はメロディに対する使
用者の良否の判断を反映しているので、より使用者の好
みに合ったメロディ制御パラメータ、したがってメロデ
ィが生成されやすくなる。第7図のフォーマット(内
容)では、頻度データ記憶装置30に記憶されるパラメー
タの種類の総数はアドレス0に置かれ、後続する1以降
のアドレスにDATA1、1、DATA1、e、DATA2、1、DA
TA2、2……のアドレスが記憶される。そして、DATA
i、1のアドレス(種類iのパラメータの値1に対する
データのアドレス)からDATAi、eのアドレス(種類i
のパラメータ値eに対するデータのアドレス)までに
は、DATAi、1、DATAi、2……DATA1、eが続けて記
憶されている。The frequency data DATAij is stored in the frequency data storage device 30 as shown in FIG. Where DATAij is the first subscript i
Represents the type of control parameter (for example, the number of harmony sounds, the number of non-harmonic sounds, etc.), the subscript j represents the value of the parameter of type i, and the value of DATAij itself is the value of the parameter of type i. i represents the frequency. Therefore, when a feature parameter is generated during melody synthesis, the value of the control parameter i is most likely to be the value j indicated by the highest value DATAij among DATAij (j = 1 to N). Here, the entire frequency data {DATAij} reflects the user's judgment on the melody, so that a melody control parameter more suited to the user's preference, that is, a melody is more easily generated. In the format (contents) shown in FIG. 7, the total number of parameter types stored in the frequency data storage device 30 is placed at address 0, and DATA 1 , 1 , DATA 1, e , and DATA 2 are stored at subsequent addresses after 1 . , 1 , DA
The addresses TA 2, 2, ... are stored. And DATA
From the address of i, 1 (address of data corresponding to the value 1 of the parameter of type i) to the address of DATA i, e (type i
, DATA i , DATA i, ... DATA 1, e are successively stored.
以下、メインフロー(第3図)内の個々の処理につい
てより詳細に説明する。Hereinafter, individual processes in the main flow (FIG. 3) will be described in more detail.
頻度データ7読込み メインフローの2−2で実行される頻度データ読込み
フローは第8図に示される。8−1でパラメータの種類
の数を読み込み、Nにセットし、8−2で種類をiにセ
ットし、8−3から8−10のループにおいて、1〜Nま
でのそれぞれの種類iについて、(8−9、8−10)、
その種類の頻度データの先頭アドレスsと最終アドレス
eを読み込み(8−3、8−4)、jを1からe−S+
1まで動かすことにより(8−5、8−7、8−8)、
アドレスを先頭アドレスsから最終アドレスeまで動か
して、各アドレスのデータDATAijを読み込んでいる。
(8−6)。Reading of frequency data 7 FIG. 8 shows a flow of reading frequency data executed in 2-2 of the main flow. At 8-1, the number of parameter types is read and set to N, and at 8-2, the type is set to i. In a loop from 8-3 to 8-10, for each type i from 1 to N, (8-9, 8-10),
The start address s and the end address e of the frequency data of that type are read (8-3, 8-4), and j is changed from 1 to e−S +
By moving to 1 (8-5, 8-7, 8-8)
The address is moved from the start address s to the end address e, and the data DATAij of each address is read.
(8-6).
メロディ生成 メインフロー(第3図)のメロディ生成3−8に対す
るフローを第9図に示す。Melody generation FIG. 9 shows a flow for melody generation 3-8 in the main flow (FIG. 3).
9−1で制御パラメータを生成し、9−2で和声音の
メロディを生成し、9−3で和声音のメロディに非和声
音を付加し、9−4でメロディのデータ形式を交換して
いる。これらの処理は1区間(1小節)単位で行われる
ものとしている。A control parameter is generated in 9-1, a melody of a harmony is generated in 9-2, a non-harmonic is added to a melody of a harmony in 9-3, and a data format of the melody is exchanged in 9-4. I have. These processes are performed in units of one section (one bar).
ここに、9−1の制御パラメータの生成は頻度をデー
タ記憶装置30に記憶される頻度データに基づいて行われ
る。具体的には、例えば(DATAij+ランダム要素)の値
をj=1から所定値まで(パラメータiがとり得るすべ
ての値について)計算し、最大値となったときのjの値
をiを識別されるパラメータの値として採用する。この
処理をすべてのパラメータの種類(i=1〜N)につい
て繰り返す。ランダム要素なしとした場合には、それぞ
れの種類の頻度データのうちに、最高値の頻度データに
対応する値jが各種類のパラメータの値として生成され
ることになる メロディ生成におけるその他の処理9−2〜9−4に
ついて以下説明する。なお、その説明において参照する
図面中、多数のメロディ制御パラメータ(例えばRRAR
P、RRNST、LL……)が現われるが、これらのすべての種
類に関して頻度データを用意する必要は必ずしもなく、
ある種の制御パラメータは基本的な制御パラメータから
得ることができる。例えば、頻度データから直接的に得
たパラメータとして和声音数があれば、この和声音数か
ら和声音の発生タイミング情報RRARTを特許出願昭62−1
21037号に示されるようなパルススケールによる音符分
割・結合手段により生成することができる。Here, the generation of the control parameter 9-1 is performed based on the frequency data stored in the data storage device 30. Specifically, for example, the value of (DATAij + random element) is calculated from j = 1 to a predetermined value (for all possible values of the parameter i), and the value of j at the maximum value is identified as i. Is adopted as the value of the parameter. This process is repeated for all parameter types (i = 1 to N). If there is no random element, a value j corresponding to the highest frequency data is generated as the value of each type of parameter among the frequency data of each type. Other processing in melody generation 9 2-2 to 9-4 will be described below. In the drawings referred to in the description, many melody control parameters (for example, RRAR
P, RRNST, LL ...), but it is not necessary to prepare frequency data for all these types,
Certain control parameters can be derived from basic control parameters. For example, if the number of harmony sounds is directly obtained from the frequency data, the generation timing information RRART of the harmony sound is obtained from the number of harmony sounds according to Patent Application No. 62-1.
It can be generated by a note dividing / combining means using a pulse scale as shown in 21037.
<和声音生成> メロディ生成(第9図)のなかで行われる和声音生成
のフローを第10図に示す。<Generation of harmony> FIG. 10 shows a flow of harmony generation performed in melody generation (FIG. 9).
第10図では、和声音のパターン{LL}生成のために、
和声音パターンの特徴PC2からPC5が使用されている。PC
2はLL1〜LLN(Nは生成和声音数)のなかの最大値(最
高音)、PC3はLL1〜LLNの最小値、PC4は|LL1−LL2|〜|L
LN-1LLN|のなかの最大値PC5は|LL1−LL2|のなかの最小
値を制限する。In Fig. 10, to generate the harmony pattern {LL},
Features of the harmony pattern PC 2 to PC 5 are used. PC
2 is the maximum value (highest tone) among LL 1 to LL N (N is the number of generated chords), PC 3 is the minimum value of LL 1 to LL N , and PC 4 is | LL 1 -LL 2 | ~ | L
The maximum value PC 5 in L N−1 LL N | limits the minimum value in | LL 1 −LL 2 |.
第10図の和声音生成の目的は生成するメロディに含め
る和声音のパターンを生成することである。The purpose of the harmony generation in FIG. 10 is to generate a harmony pattern to be included in the generated melody.
詳細に述べると、10−1で小節内の基本単位長のカウ
ンタiを1に初期化し、生成した和声音(正確にはLL
の)数のカウンタNoを1に初期化する。10−2で注目し
ているタイミングiが和声音の発生タイミングであるか
どうかを和声音の発生タイミング情報RRARRのビットi
を調べることにより判別する。そして10−3で注目して
いる現在位置(小節番号×BEAT)+i(ここにBEATは1
小節を構成する基本単位時間の数を表わす)に対応する
コードの番号をコード進行のコード長の列から求め、コ
ードCDiの構成音数CKNOを得る。構成音数を求めている
のは和声音パターン{LL}のデータ形式として、オクタ
ーブ番号と1オクターブ内のコード構成音の番号を規定
しているためである(第6図参照)。次に、10−4で和
声音パターンの上限と下限をそれぞれ制限するパラメー
タPC2と、PC3及びコード構成音数CKNOとから、和声音パ
ターンの要素の候補LLNOを乱数的に生成する。1番目の
パターン要素はこれにより確定するが(10−5、10−8
参照)、2番目以降のパターン要素については直前のパ
ターン要素との差が制限された範囲内にあることを要す
る。したがって、10−6で、隣り合うパターン要素の差
の最大値と最小値をそれぞれ制限するパラメータPC4とP
C5を用いてLLNOの正当性をチェックする。チェックの結
果、合格(OK)でなければ(10−7)、再度、10−4以
下の処理を繰り返す。なお、PCの値によっては次のLLNO
が決してパラメータPC4、PC5の条件を満たされないこと
が起こり得るので、所定回数、処理を繰り返したら。PC
4、PC5による制限をあきらめてループを抜けるようにす
る必要がある。(図示せず)。More specifically, at 10-1, the counter i of the basic unit length in the bar is initialized to 1, and the generated harmony (precisely, LL
) Is initialized to 1. It is determined whether or not the timing i of interest in 10-2 is the timing of the generation of the harmony sound, by the bit i of the harmony generation timing information RRARR
Is determined by examining. The current position (measure number × BEAT) of interest at 10-3 + i (where BEAT is 1
The number of the chord corresponding to the number of the basic unit time constituting the bar) is obtained from the sequence of the chord length of the chord progression to obtain the number CKNO of constituent notes of the chord CDi. The number of constituent sounds is obtained because the octave number and the number of chord constituent sounds within one octave are defined as the data format of the harmony pattern {LL} (see FIG. 6). Next, a parameter PC 2 that limit the upper and lower limits of harmonic tones pattern respectively 10-4, and a PC 3 and coding scheme number of sounds CKNO, random manner to produce a candidate LL NO element of harmonic tones pattern. The first pattern element is determined by this (10-5, 10-8)
(See Reference.) For the second and subsequent pattern elements, the difference from the immediately preceding pattern element needs to be within a limited range. Therefore, in 10-6, parameters PC 4 and P 4 that limit the maximum value and the minimum value of the difference between adjacent pattern elements, respectively.
To check the authenticity of the LL NO with C 5. If the result of the check is not pass (OK) (10-7), the processing of 10-4 and below is repeated again. Depending on the value of PC, the following LL NO
If the process is repeated a predetermined number of times, it may happen that the conditions of the parameters PC 4 and PC 5 are never satisfied. PC
4. It is necessary to give up the restrictions imposed by PC 5 and break out of the loop. (Not shown).
1つのパターン要素が決定したら、和声音のカウンタ
Noをインクリメントし(10−8)、次の位置にタイミン
グiを進め(10−9)、i=1〜BEATまで10−2以下の
処理を繰り返す。Once one pattern element is determined, the counter for the harmony
No is incremented (10-8), the timing i is advanced to the next position (10-9), and the processing of 10-2 or less is repeated from i = 1 to BEAT.
このように和声音のパターン{LL}生成では、和声音
の発生タイミング情報が示す各発生位置において、制御
パラメータPC2〜PC5からパターン要素を順次形成してい
く。This is a pattern {LL} generation of harmonic sounds as, at each occurrence position indicated by the generation timing information harmonic sounds, successively forming a pattern element from the control parameter PC 2 to PC 5.
これによって得た和声音パターン{LL}音高すなわち
和声音のメロディ{MD}に変換するフローを第11図に示
す。FIG. 11 shows a flow for converting the obtained harmony pattern {LL} pitch, that is, the melody of the harmony {MD}, obtained as described above.
まず、11−1で小節内で何番目に発生した和声音であ
る示すカウンタllcを0に初期化するとともに、小節内
の基本単位長のタイミングiを1にセットする。11−2
で和声音の発生タイミング情報のビットiを参照して、
現在位置が和声音の発生タイミングかどうか判別する。
発生タイミングでなければ現在位置を次に動かして(11
−5)、再び検査を行い、発生位置なら11−3に進んで
和声音のカウンタllcをインクリメントする。そして現
在注目している位置(小節番号×BEAT)+iに対応する
コードCDcをコード進行のコード長の列{CRi}から決定
する(11−4)。次に、そのコードCDcの構成音データC
C(12ビットの各桁が音名の位置を表わしビット“1"は
その音名をコード構成者としてもつことを表わす)を得
(11−5)、コード構成音のカウンタncを0にセットし
(11−6)の、音名のカウンタjをドを示す1にセット
した(11−7)後j=1〜12の範囲で動かし(11−2、
11−3)その間において、CCのビットj=1が見つかる
毎にncをインクリメントし(11−8、11−9)、そのと
きの構成音番号ncが非和声音パターンの対応要素LLllc
の下桁にある構成音名と一致するかどうかをチェックす
る(11−10)。11−10で一致したときには、そのときの
jを音名とし、LLllcの上桁にあるデータをオクターブ
番号とする音高データMDlliを生成する(11−11)。こ
の処理をi=1〜BEATまで繰り返すことにより(11−1
4)、1小節分の和声音パターン{LL}が和声音のメロ
ディ{MD}に交換される。First, in step 11-1, the counter llc, which is the number of the harmony generated in the bar, is initialized to 0, and the timing i of the basic unit length in the bar is set to 1. 11-2
Referring to bit i of the timing information of the generation of the harmony,
It is determined whether or not the current position is the timing at which a harmony occurs.
If not, move the current position to the next (11
-5) The inspection is performed again, and if the position is a generation position, the process goes to 11-3 to increment the harmony counter llc. Then, the code CDc corresponding to the position of interest (measure number × BEAT) + i is determined from the code length sequence {CRi} of the chord progression (11-4). Next, the constituent sound data C of the code CDc
C (each digit of 12 bits indicates the position of the pitch name, and bit “1” indicates that the pitch name is used as a chord constituent) (11-5), and sets the counter nc of the chord configuration sound to 0 (11-6), the note name counter j is set to 1 indicating C (11-7), and then moved in the range of j = 1 to 12 (11-2,
11-3) In the meantime, every time bit j = 1 of CC is found, nc is incremented (11-8, 11-9), and the constituent tone number nc at that time is the corresponding element LLLlc of the non-harmonic tone pattern.
It is checked whether it matches the constituent note name in the lower digit (11-10). If they match in 11-10, pitch data MDlli is generated with j at that time as the pitch name and the data in the upper digit of LLllc as the octave number (11-11). By repeating this process from i = 1 to BEAT, (11-1
4) The harmony pattern {LL} for one bar is exchanged for the melody {MD} of the harmony.
<非和声音付加> メロディ生成(第9図)の9−3で実行される非和声
音生成のフローチャートを第12図に示す。この処理を目
的は、和声音のメロディ{MD}、和声音の発生タイミン
グ情報RRARP及び非和声音の発生タイミング情報RRNCTか
ら非和声音のメロディ{ND}(実際には和声音のメロデ
ィ間に付加される非和声音の音高データ)を生成するこ
とである。MDiとNDiは音高の情報をもっており、MDiとR
RARTとの関係は、RRARTの下の桁からi番目に現われる
“1"のタイミングで小節内のi番目の和声音の音高MDi
が発生するという関係であり、NDiとRRNCTとの関係も同
様である。(第13図参照)。<Addition of non-harmonic sound> FIG. 12 shows a flowchart of non-harmonic sound generation executed in step 9-3 of melody generation (FIG. 9). The purpose of this processing is to use the melody of the harmony {MD}, the harmony generation timing information RRARP and the non-harmony generation timing information RRNCT to add the non-harmony melody ND To generate non-harmonic pitch data. MDi and NDi have pitch information, MDi and R
The relationship with RART is determined by the pitch MDi of the i-th chord in the measure at the timing of "1" that appears i-th from the last digit of the RRART.
And the relationship between NDi and RRNCT is the same. (See FIG. 13).
第12図のフローに従うと、12−1で基本単位音長のカ
ウンタiを“1"にセットし、和声音の発生タイミング情
報RRARPの“1"であるビット数のカウンタarpcを“0"に
セットし、非和声音の発生タイミング情報RRNCTの“1"
であるビットの数のカウンタrscを0にセットする。According to the flow of FIG. 12, the counter i of the basic unit tone length is set to "1" in 12-1, and the counter arpc of the bit number which is "1" of the harmony generation timing information RRARP is set to "0". Set to “1” in the non-harmonic generation timing information RRNCT
The counter rsc of the number of bits is set to 0.
12−2でRRARPのビットiが“1"であるかまたはiが
“1"であるかを判別し、成立すれば前処理として、着目
している位置の前後の状況を調べて、各状況を示す関数
f1、f2を決定し、和声音(または小節線)と和声音(ま
たは小節線)との間に挟まれた非和声音の数inrscを算
出し、各非和声音の位置をスタックJに格納する。12−
3で得た非和声音数が1のときには(12−4)、1つの
非和声音を付加する処理を実行し(12−5)、付加する
ことに成功したら、その音高データmdをNDにプッシュす
る(12−6、12−7)。成功しなかったときは、Jに記
憶しておいた位置を非和声音の発生タイミング情報RRNC
Tから削除する処理を実行する。(12−6、12−8)。
付加すべき数inrscが2のときは2つの非和声音を付加
する処理を実行し(12−4、12−9)、付加に成功した
場合には各音高md1,md2をNDにプッシュする(12−10、1
2−11)。不成立の場合にはJに記憶されている付加し
ようとした位置を非和声音の発生タイミング情報RRNCT
から削除する。(12−10、12−12)。いずれの場合も、
タイミングiを次の位置に動かし(12−3)、i=BEAT
までの間、12−2以下の処理を繰り返す。なお、第12図
では和声音間に高々2つの非和声音が付くことを想定し
てあるが、3つ以上の非和声音を付加も行えるようにフ
ローを変形してもよい。和声音間に高々2つの非和声音
しか付かないようにするには、予め、和声音の発生タイ
ミング情報RRARTと非和声音の発生タイミング情報RRNCT
とを比べて、隣り合う和声音の発生タイミング間に非和
声音の発生タイミングが高々2つしかないようにすれば
よい(非和声音の発生タイミング情報を生成する際
に)。At 12-2, it is determined whether the bit i of the RRARP is "1" or i is "1", and if it is established, as pre-processing, the situation before and after the position of interest is examined. Function indicating
f 1 and f 2 are determined, the number of non-harmonic sounds inrsc sandwiched between the harmonious sounds (or bar lines) is calculated, and the position of each non-harmonic sound is determined as a stack J. To be stored. 12−
When the number of non-harmonic tones obtained in step 3 is 1 (12-4), a process of adding one non-harmonic tone is executed (12-5). (12-6, 12-7). If it is not successful, the position stored in J is used as the non-chord generation timing information RRNC.
Execute the process to delete from T. (12-6, 12-8).
When the number inrsc to be added is 2, a process of adding two non-harmonic tones is executed (12-4, 12-9), and when the addition is successful, each pitch md1, md2 is pushed to the ND. (12-10, 1
2-11). In the case of failure, the position to be added stored in J is used as the non-harmonic generation timing information RRNCT.
Remove from. (12-10, 12-12). In either case,
Move the timing i to the next position (12-3), i = BEAT
Until the above, the processing of 12-2 and below is repeated. In FIG. 12, it is assumed that at most two non-harmonic sounds are added between the harmonic sounds, but the flow may be modified so that three or more non-harmonic sounds can be added. In order to ensure that at most two non-harmonic sounds are attached between harmony sounds, the harmony generation timing information RRART and the non-harmony generation timing information RRNCT must be set in advance.
In comparison with the above, only two non-harmonic sound generation timings may be provided between adjacent harmonic sound generation timings (when generating non-harmonic sound generation timing information).
第12図の12−3、12−5、12−9の詳細をそれぞれ、
第14図、第15図、第16図に示す。Details of 12-3, 12-5, and 12-9 in FIG.
These are shown in FIG. 14, FIG. 15, and FIG.
前処理(第14図)においては、着目している1ないし
2の非和声音を位置の前後の状況を調べて関数f1、f2を
決定するとともに前の和声音(または小節線)と後の和
声音(または小節線)との間に挟まれた非和声音の数in
rscと各非和声音の位置Jを得ている。関数f1は小節内
において、着目している非和声音の位置の前方に和声音
があるとき“1"となり、和声音がないとき、すなわち前
方が小節線であるとき“−1"となる。関数f2は小節内に
おいて、非和声音の位置の後方に和声音があるとき“1"
となり、ないときは“−1"となる。In the preprocessing (FIG. 14), one or two non-harmonic sounds of interest are examined before and after the position to determine the functions f 1 and f 2, and the previous harmonic sound (or bar line) is determined. Number of non-harmonics sandwiched between the following harmonic (or bar line) in
The rsc and the position J of each non-harmonic tone are obtained. The function f 1 becomes “1” when there is a harmony in front of the position of the non-harmonic to be focused in the bar, and becomes “−1” when there is no harmony, that is, when the front is a bar line. . The function f 2 is “1” when there is a harmony behind the position of the non-harmony in the bar.
Otherwise, it is "-1".
第14図のフローに従うと、まず14−1で現在位置が小
節の頭(i=1)でかつ和声音の発生タイミングでない
(RRARPのビットiが“0")かどうかをチェックし、成
立するときには現在位置iの後方に和声音をサーチする
際の開始位置inextをiにセットし、前方の状況を示す
関数f1に小節線であることを示す“−1"をセットし、和
声音間の非和声音数を計数するカウンタinrscを“0"に
セットする(14−2)。14−1の条件が不成立のとき
は、12−2からわかるように、現在位置iは和声音の発
生タイミングなので次の位置(i+1)をサーチ開始位
置inextとし、前方の状況を示す関数f1に和声音である
ことを示す“1"をセットし、非和声音数のカウンタinrs
cは“0"にし、小節内の和声音数のカウンタarpcはイン
クリメントする。(14−3)。14−4で後方の状況を示
す関数f2を小節線であることを示す“−1"と仮定し、14
−5でjをサーチ開始位置にセットする。According to the flow shown in FIG. 14, it is first checked at 14-1 whether the current position is at the beginning of a bar (i = 1) and not at the timing of generation of a harmony sound (bit i of RRARP is "0"). Sometimes, the start position inext at the time of searching for a harmony behind the current position i is set to i, and a function f 1 indicating the situation in front is set to “−1” indicating a bar line, and The counter inrsc for counting the number of non-harmonic tones is set to "0" (14-2). When the condition of 14-1 is not satisfied, as can be seen from 12-2, since the current position i is the timing of generation of a harmony, the next position (i + 1) is set as the search start position inext, and the function f 1 indicating the situation in front is shown. Is set to “1” to indicate that it is a harmony, and the non-harmony number counter inrs
c is set to “0”, and the counter arpc of the number of harmony sounds in the bar is incremented. (14-3). Suppose "-1" indicates that the function f 2 showing the rear situation is barline at 14-4, 14
At -5, j is set to the search start position.
以下、ループ14−6〜14−10においてj=inext〜BEA
Tまで動かし(14−9、14−10参照)、その間におい
て、非和声音の発生タイミングが見つかったときには小
節内の非和声音のカウンタrscと和声音間の非和声音の
カウンタinrscをインクリメントし、対応する非和声音
の識別子RSrscをINRSinrscにセットし、非和声音が見つ
かった位置jをJに一時記憶する(14−7、14−8)。
j=inext〜BEATまで動かしている途中で和声音が見つ
かったときには後方の状況を示す関数f2を“1"(和声音
であることを示す)に書き換える。したがって最後まで
和声音が見つからなかったときはf2=−1となる。Hereinafter, in the loops 14-6 to 14-10, j = inext to BEA
Move to T (see 14-9 and 14-10). In the meantime, when a non-harmonic sound generation timing is found, the counter rsc of the non-harmonic sound in the bar and the counter inrsc of the non-harmonic sound between the harmonic sounds are incremented. , The corresponding non-harmonic identifier RSrsc is set in INRSinrsc, and the position j at which the non-harmonic sound is found is temporarily stored in J (14-7, 14-8).
When the harmonic tone is found in the middle of moving to j = inext~BEAT rewrites the function f 2 showing the rear of the status "1" (indicating a harmonic sound). Therefore, when no harmony is found until the end, f 2 = −1.
14−2で前方の和声音の音高MDarpcをbefにセット
し、14−3で後方の和声音の音高MDarpc+1をaftにセ
ットする。At 14-2, the pitch MDarpc of the front harmony is set to bef, and at 14-3 the pitch MDarpc + 1 of the rear harmony is set to aft.
第15図は1つの非和声音を付加するフローチャートで
ある。この処理では、非和声音の音高の候補を選び、こ
の候補について関数fを計算して前回推論を実行し、そ
の分析結果が前処理の14−8で一時記憶しておいた非和
声音パターン内の要素INRS1と一致するとき成功とみな
している。すべての候補に対する検査が失敗に終ったと
きには非和声音は付加されない。非和声音の候補の音高
は前後の和声音の高温から設定し、j=1のときは前方
の和声音の近傍で試み、j=2のときには後方の和声音
の近傍で試してみる。FIG. 15 is a flowchart for adding one non-harmonic sound. In this process, a pitch candidate of a non-harmonic tone is selected, a function f is calculated for this candidate, the previous inference is executed, and the analysis result is stored in the non-harmonic tone temporarily stored in the preprocessing 14-8. A match is considered successful if it matches the element INRS 1 in the pattern. Non-harmonics are not added when all candidates fail. The pitches of the non-harmonic candidates are set based on the high temperature of the preceding and succeeding harmony. When j = 1, an attempt is made in the vicinity of the forward harmony, and when j = 2, an attempt is made in the vicinity of the rear harmony.
第15図のフローに従うと、最初にjを1にセットする
(15−1)。15−2において、j=1でしかもf1が小節
線を示す−1である場合、あるいは15−3においてj=
2でf2が小節線を示す−1のときには次の処理に進む
(15−15、15−16)。15−4でk=1にセットした後、
15−5から15−14のループにおいて、dを次のように動
かす(15−5参照) k:0 1 2 3 4 5…… d:0 1 −1 2 −2 3…… ここにdは非和声音候補と前方または後方和声音との音
高差を表わす。すなわち、j=1のときには前方和声音
befよりdだけ離れた音を非和声音候補の音高mdとして
選び、j=2のときは後方和声音よりdだけ離れた音を
非和声音候補の音高mdとして選ぶ(15−6〜15−8)。
そして、15−9でmdがスケール音でしかも非和声音であ
るかどうかを調べる。mdが非和声音であるか否かは、対
応するコードCDiから判別され(CDi)現在位置における
コード番号をコード長の列{CRi}を参照することによ
って得られる)、スケール音であるか否かはコードCDi
に対応するスケールデータ(図示せず)から判別され
る。続いて15−10で残りの関数f3、f4、f5について算出
する。関数f3はmdとbefとの差、関数f4はaftとのmdの差
であり、関数f5はf3×f4が正のとき0、そうでないとき
1となる。以上でメロディの状況を表わすすべての関数
f1〜f5が決定されたのでそれに対し、非和声音の分類知
識を適用して非和声音の種類を求める前向推論を実行す
る(15−11)。この推論については特願昭和62−325178
号に示されているので簡単な説明に留める。第17図が非
和声音の分類知識を表現するプロダクションルールデー
タであり、その知識は第18図のツリーのようになってい
る。前向推論ではルールーNo1から開始して、ルールNo
の示すルールの前提部L≦fx≦Uの成立の有無を調べ
(fXはルールデータXの示す種類の関数値)、成立なら
肯定部ルールデータYを不成立なら否定部のルールデー
タNを次にアクセスするルールとし処理を続け、ルール
データYまたはNが負の値なら、その絶対値を非和声音
の識別子(分析結果)として推論を完了する。そしてそ
の分析結果と前処理で得ている非和声音の識別子FNR
S1、すなわち、着目している非和声音発生タイミングで
発生させようとしている非和声音の種類と比較し、一致
すれば成功とする(15−12)。不成功ならばkを進めて
次の音高候補について調べる(15−4)。15−12での不
成功がk=1〜10の間続いたらjを2にインクリメント
し(15−13、15−16)、j=2ときでもk=1〜10の間
15−12での不成功が続いたときには非和声音は付加しな
いものとしてフローを抜ける。(15−15)。According to the flow of FIG. 15, j is first set to 1 (15-1). In 15-2, when j = 1 and moreover f 1 is -1 indicating the measure line, or in 15-3 j =
2 f 2 proceeds to the next processing when the -1 indicating the bar line (15-15,15-16). After setting k = 1 at 15-4,
In the loop from 15-5 to 15-14, move d as follows (see 15-5): k: 0 1 2 3 4 5 ... d: 0 1-1 2-2 3 ... where d is Represents the pitch difference between a non-harmonic candidate and a forward or backward harmonic. That is, when j = 1, the forward chord sound
The sound separated by d from bef is selected as the pitch md of the non-harmonic candidate, and when j = 2, the sound separated by d from the backward chord is selected as the pitch md of the non-harmonic candidate (15-6. 15-8).
Then, it is checked whether or not md is a scale sound and a non-harmonic sound in 15-9. Whether or not md is a non-harmonic tone is determined from the corresponding code CDi (CDi), and the code number at the current position is obtained by referring to the sequence {CRi} of the code length), and whether or not it is a scale sound Kaha Code CDi
Is determined from the scale data (not shown) corresponding to. Then the rest of the function f 3 at 15-10, is calculated for f 4, f 5. The function f 3 is the difference between md and bef, the function f 4 is the difference between md and aft, and the function f 5 is 0 when f 3 × f 4 is positive, and 1 when it is not. All functions representing the melody situation
Since f 1 ~f 5 is determined contrast, performing countercurrent inference before applying the classification knowledge nonharmonic tones determine the type of nonharmonic tones (15-11). Regarding this inference, Japanese Patent Application No. 62-325178
Since it is shown in the issue, only a brief explanation is given. FIG. 17 shows production rule data expressing non-harmonic classification knowledge, and the knowledge is represented by a tree in FIG. In forward-looking inference, start with Rule No. 1
Checked for establishment of preamble L ≦ f x ≦ U rules indicated by the (f X type of function values indicated by the rule data X is), the rule data N is not established if negative part positive portion rule data Y if satisfied If the rule data Y or N is a negative value, the processing is continued, and the inference is completed with the absolute value as the identifier (analysis result) of the non-harmonic tone. The analysis result and the non-harmonic tone identifier FNR obtained in the preprocessing
It is compared with S 1 , that is, the type of non-harmonic sound to be generated at the focused non-harmonic sound generation timing, and if they match, it is determined to be successful (15-12). If unsuccessful, k is advanced to check for the next pitch candidate (15-4). If the failure at 15-12 continues for k = 1 to 10, j is incremented to 2 (15-13, 15-16). Even when j = 2, k is between 1 and 10.
If unsuccessful in 15-12 continues, the flow exits assuming that no non-harmonic sound is added. (15-15).
第16図は2つの非和声音を付加する場合のフローチャ
ートである。この例では、非和声音としての音高候補
は、1つ目md1は前の音高データbefから設定し、2つ目
md2は後の音高データaftから設定している。(16−3〜
16−6)、jは1つ目の音高候補に対する変数であり、
kは2つ目の音高候補に対する変数である。2つの非和
声音候補md1、md2が共に非和声音のパターンの要素IRNS
(IRNS1とIRNS2)に一致したとき成功としている(16−
10、16−14、16−10参照)。FIG. 16 is a flowchart when two non-harmonic sounds are added. In this example, the first md1 is set from the preceding pitch data bef, and the second
md2 is set from the pitch data aft that follows. (16-3 ~
16-6), j is a variable for the first pitch candidate,
k is a variable for the second pitch candidate. Both non-harmonic candidates md1 and md2 are non-harmonic pattern elements IRNS
(IRNS 1 and IRNS 2 ) are regarded as success (16-
10, 16-14, 16-10).
その他の点については上述の説明と第16図の記載から
明らかであるので説明を省略する。The other points are clear from the above description and the description in FIG. 16, and therefore the description is omitted.
<データ形式変換> メロディ生成(第9図)の9−4で実行されるデータ
形式変換のフローを第19図に示す。このフローに入る段
階で、RRARPには小節内の和声音の発生タイミング情報
が、{MD}には各和声音の発生タイミングで発生する和
声音の音高データが、RRNCTには同じ小節内の非和声音
の発生タイミング情報が、{MD}には各非和声音の発生
タイミングで発生する非和声音の音高データが入ってい
る。これにより、1小節内のメロディは完全に表面され
ている。第19図の処理で、これらの情報メロディの音高
列{VMED}と音長列{VMER}の形成にデータ変換してい
る。<Data Format Conversion> FIG. 19 shows a flow of the data format conversion executed in 9-4 of melody generation (FIG. 9). At the stage of entering this flow, RRARP contains information on the timing of the generation of the harmony in the bar, {MD} contains the pitch data of the harmony generated at the timing of the generation of each harmony, and RRNCT contains the pitch data of the The non-harmonic sound generation timing information and the {MD} contain the pitch data of the non-harmonic sound generated at each non-harmonic sound generation timing. Thereby, the melody in one bar is completely exposed. In the processing of FIG. 19, data conversion is performed to form a pitch sequence {VMED} and a pitch sequence {VMER} of these information melodies.
図中、sは各音の音長を得るためのカウンタ、mdcは
和声音のカウンタ、ndcは非和声音のカウンタ、vmedno
はメロディ音のカウンタであり、VMERiはi番目のメロ
ディ音の音長、VMEDiはi番目のメロディの音の音高を
表わす。In the figure, s is a counter for obtaining the duration of each sound, mdc is a counter for harmony, ndc is a counter for non-harmonic, vmedno
Is a melody sound counter, VMERi represents the pitch of the i-th melody sound, and VMEDi represents the pitch of the i-th melody sound.
19−1でs=1、mdc=ndc=0、vmedno=0にセット
し、19−2でi=1にセットする。19−3から19−8の
ループでiを1からBEATまで動かし(19−7、19−
8)、その間において、和声音が見つかったときには
(19−3がYES)、和声音のカウンタmdcをインクリメン
トし、前の音の音長sをVMERvmednoにセットし、vmedno
をインクリメンとして見つけた和声音の音高データMDmd
cをVMERvmednoにセットし、音長カウンタsを“0"に戻
す。(19−4)。また、非和声音が見つかったときには
(19−5がYES)、非和声音のカウンタndcをインクリメ
ントし、前の音の音長sをVMERvmednoにセットし、vmed
noをインクリメントして見つけた非和声音の音高データ
NDndcをVMERvmednoにセットし、sを“0"に戻す。sの
値は和声音または非和声音の発生が検出されたときに
“0"に戻され、19−7でインクリメントされることによ
り、音の検出から次の音の検出までの長さ、すなわち音
の長さを示す。19−8でi>BEATになったときはさ最後
の音の音長sをVMERvmednoにセットして(19−9)フロ
ーを抜ける。At 19-1, s = 1, mdc = ndc = 0, vmedno = 0 are set, and at 19-2, i = 1 is set. Move i from 1 to BEAT in the loop from 19-3 to 19-8 (19-7, 19-
8) During that time, when a harmony is found (19-3: YES), the counter mdc of the harmony is incremented, the duration s of the previous tone is set to VMERvmedno, and vmedno
Pitch data MDmd of the harmony sound found as an increment
c is set to VMERvmedno, and the sound length counter s is returned to “0”. (19-4). When a non-harmonic tone is found (19-5: YES), the counter ndc of the non-harmonic tone is incremented, the duration s of the previous tone is set to VMERvmedno, and vmed
Non-harmonic pitch data found by incrementing no
Set NDndc to VMERvmedno and reset s to “0”. The value of s is returned to “0” when the occurrence of a harmony or non-harmony is detected, and is incremented at 19-7, so that the length from the detection of a sound to the detection of the next sound, that is, Indicates the length of the sound. When i> BEAT is satisfied in 19-8, the length s of the last sound is set to VMERvmedno (19-9), and the flow exits.
頻度変更 メインフロー(第3図)に示すように、生成したメロ
ディに対して使用者から「好き」または「嫌い」の判断
結果が入力されたときにはその判断結果に従って頻度デ
ータ記憶装置30内の頻度データが変更される。この頻度
変更処理3−9、3−10のフローを第20図に示す。Frequency change As shown in the main flow (FIG. 3), when the user inputs a judgment result of “like” or “dislike” to the generated melody, the frequency in the frequency data storage device 30 is determined according to the judgment result. The data changes. FIG. 20 shows the flow of the frequency change processing 3-9 and 3-10.
20−1から20−3は判断された小節のメロディを分析
するところであり、20−1ではメロディに含まれた和声
音を分析し、20−2ではメロディに含まれる非和声音を
分析し、20−3ではメロディに含まれる非和声音を分析
している。このメロディ分析によって得たデータ、すな
わち、判断に係るメロディの生成に用いたメロディ制御
パラメータの値は頻度データ記憶装置30に記憶される頻
度データのうちで変更すべき対象を規定する。この変更
対象の頻度データを入力されら判断結果に従って変更し
ているところが20−4である。20-1 to 20-3 are to analyze the melody of the determined bar, 20-1 is to analyze the harmony included in the melody, 20-2 is to analyze the non-harmonic included in the melody, In 20-3, non-harmonic sounds included in the melody are analyzed. The data obtained by the melody analysis, that is, the values of the melody control parameters used for generating the melody related to the determination define the object to be changed in the frequency data stored in the frequency data storage device 30. 20-4 shows that the frequency data to be changed is changed in accordance with the result of judgment after being input.
この20−4でのデータ変更は例えば次のようにして行
われる。いま、メロディ分析(20−1〜20−3)によ
り、ある種類iの制御パラメータ(Piで表わすことにす
る)の値がkであるという結果が得られたとする。これ
に対し、頻度データ記憶装置30内の同じ種類iに関する
頻度データDATAi、j(j=1〜e)のうち、j=kの
データDATAi、kが読み出され、判断結果が「好き」の
場合には、そのデータDATAi、kをインクリメントし、
判断結果が「嫌い」の場合にはデータDATAi、kをデク
リメントする。この処理を、それぞれの種類に対する頻
度データのうちで、メロディ分析により得た対応する種
類のパラメータの値で指示されるデータに対して行う。This data change in 20-4 is performed, for example, as follows. Now, suppose that the result of the melody analysis (20-1 to 20-3) is that the value of the control parameter of a certain type i (to be represented by Pi) is k. On the other hand, among the frequency data DATA i, j (j = 1 to e) for the same type i in the frequency data storage device 30, the data DATA i, k of j = k is read out, and the judgment result is “like” ", The data DATA i, k are incremented,
If the judgment result is "dislike", the data DATA i, k are decremented. This processing is performed on the data indicated by the value of the parameter of the corresponding type obtained by the melody analysis, out of the frequency data for each type.
したがって、「好き」と判断されたメロディの生成要
因である制御パラメータの値については、対応する頻度
データの値が高くなり、この結果、新たにメロディを生
成する場合には、その生成要因である制御パラメータの
値として、使用者が「好き」と判断するような値が発生
しやすくなる。一方、使用者が「嫌い」と判断したメロ
ディの生成要因である制御パラメータの値については、
その値を発生させる頻度データの値が低くなるため、そ
の後のメロディの生成の際には発生しにくくなる。この
ことは、動作を続けるにつれ、より使用者の好みに合っ
たメロディの生成の可能性が高められていくことを意味
しており、使用者にとって非常に望ましい自動作曲能力
を作曲機に与えているものである。Therefore, as for the value of the control parameter which is the generation factor of the melody determined to be "like", the value of the corresponding frequency data becomes higher, and as a result, when a new melody is generated, this is the generation factor. As the value of the control parameter, a value that the user judges as “like” is likely to occur. On the other hand, regarding the value of the control parameter, which is the cause of the melody that the user has judged as “dislike”,
Since the value of the frequency data at which the value is generated becomes low, the value is less likely to be generated when the melody is subsequently generated. This means that as the operation continues, the possibility of generating a melody that suits the user's preference is increased, giving the composer a self-composing music ability that is highly desirable for the user. Is what it is.
以下、頻度変更における和声音分析20−1、非和声音
分析20−2リズム分析20−3について詳細に説明する。Hereinafter, the harmony analysis 20-1 and the non-harmony analysis 20-2 and the rhythm analysis 20-3 in the frequency change will be described in detail.
<和声音分析> 第21図に和声音分析処理のフローを示す。目的は判断
されたメロディに含まれる和声音についてそのパターン
{LL}を得ることである。<Harmonic Analysis> FIG. 21 shows a flow of the harmony analysis processing. The purpose is to obtain the pattern {LL} for the harmony contained in the determined melody.
最初の21−1で小節内で見つかった和声音の数のカウ
ンタllnoを0に初期化し、21−2で小節内の基本時間長
のカウンタiを小節の頭である1に初期化する。In the first 21-1, the counter llno of the number of harmony sounds found in the bar is initialized to 0, and in 21-2, the counter i of the basic time length in the bar is initialized to 1 which is the head of the bar.
そして、21−3で評価対象の小節内のi番目の位置に
メロディの音符が存在するかどうかを調べる。Then, it is checked at 21-3 whether a melody note exists at the i-th position in the measure to be evaluated.
この検査は、 を満たすようなNの存在の有無を調べることにより実現
される。ここにBEATは1小節の基本単位時間の数であ
り、MRjは曲のj番目のメロディの音長データである。2
1−3の条件が成立するときには、21−4で現在注目し
ている位置(小節番号×BEAT)+1に対応する音符の番
号とコードの番号を求める。This test is This is realized by checking the presence or absence of N that satisfies the condition. Here, BEAT is the number of basic unit times of one bar, and MRj is the duration data of the j-th melody of the music. Two
When the condition of 1-3 is satisfied, the note number and chord number corresponding to the position (measure number × BEAT) +1 of interest at present are obtained in 21-4.
これは、 を満たすようなm(上記Nと同じになる)と、 を満たすようなCを求めることで実行される。ここに
{CRj}はコード進行のコード長の列を表わす。この進
行はコード長が可変であるため、そのコード長の列情報
{CRj}を参照することにより、メロディ発生位置にお
けるコードCDcを求めているのである。this is, M (same as N above) that satisfies This is performed by finding C that satisfies Here, {CRj} represents a sequence of chord lengths of chord progression. Since the code length of this progress is variable, the code CDc at the melody occurrence position is obtained by referring to the column information {CRj} of the code length.
次に、21−5で、このコードCDc(c番目のコードの
根音とタイプのデータ、第4図、第5図参照)の構成音
のなかに着目しているメロディ音MDm(m番目の音高を
表わすデータ)が含まれるかどうか、すなわち、メロデ
ィ音が和声音かどうかを調べる。詳細には、この処理は
コードCDiのデータ形式を構成音のデータ形式(12ビッ
トの各桁が音名を表わすデータ)に交換し、メロディ音
高データMDmを同様のデータ形式に変換し、両者の論理
績をとり結果が0以外の値をとるかどうかをチェックす
ることで行われる。例えば、Cのメジャーコードの構成
音データは10010001で与えられ、Eの音は、10000で与
えられ、論理積をとると10000となるので、Eの音がC
のメジャーコードの構成音(和声音)であることがわか
る。Next, at 21-5, the melody tone MDm (the m-th tone) focusing on the constituent tones of this chord CDc (the root note and type data of the c-th chord, see FIGS. 4 and 5) (Ie, data representing the pitch), that is, whether the melody sound is a harmony sound. In detail, this processing exchanges the data format of the code CDi into the data format of the constituent sounds (data in which each digit of 12 bits represents a pitch name), converts the melody pitch data MDm into a similar data format, Is performed by checking whether the result takes a value other than 0. For example, the constituent sound data of the major chord of C is given by 10010001 and the sound of E is given by 10,000, and when it is ANDed, it becomes 10,000.
It can be seen that this is a constituent sound (harmonic sound) of the major chord.
21−5で和声音であることが判明したときは21−6で
和声音のカウンタllnoをインクリメントし、21−7でコ
ードCDcとメロディ音MDmとから、MDmが示す和声音が何
番目のオクターブにある何番目の高さのコード構成音で
あるかを示すデータを得、それを和声音パラメータの対
応する要素LLllnoに代入する、LLllnoのオクターブ情報
はMDmの上位8ビットから得られ、1オクターブ内の何
番目に位置する和声音であるかはMDmの下位8ビットに
ある音名情報とコードCDcの構成音情報とを比較するこ
とによって得られる。例えば、上述の例で、Eの音は下
から2番目の和声音となる(第6図のLLi参照)。If it is determined in step 21-5 that the harmony is a harmony, the harmony counter llno is incremented in step 21-6, and in step -7, the octave of the harmony indicated by MDm from the code CDc and the melody tone MDm. , The octave information of the LLllno is obtained from the upper 8 bits of the MDm, and is substituted for the octave information of the MDm. The number of the harmony to be located in is obtained by comparing the note name information in the lower 8 bits of MDm with the constituent sound information of the code CDc. For example, in the above example, the sound E is the second harmonic sound from the bottom (see LLi in FIG. 6).
次に、21−8で着目している位置を次の位置にシフト
し、21−3以下の処理をi=1〜BEATまでのくり返し実
行する(21−9)。Next, the position of interest is shifted to the next position in 21-8, and the processing of 21-3 and below is repeatedly executed from i = 1 to BEAT (21-9).
<非和声音分析> 第22図は非和声音の分析20−2の詳細である。<Non-harmonic Analysis> FIG. 22 shows details of the non-harmonic analysis 20-2.
22−1から22−5までは上述の21−1から21−5の処
理に対応している。ただし、21−1のrsnoは小節内でみ
つかった非和声音の数のカウンタである。また、処理の
目的はメロディに含まれる非和声音のパラメータ{RS}
を得ることであるので、22−5の判別で着目している音
が非和声音とされたときに22−6以下の処理に進む。Steps 22-1 to 22-5 correspond to the above-described steps 21-1 to 21-5. Here, rsno 21-1 is a counter for the number of non-harmonic tones found in the bar. The purpose of the processing is the parameter {RS} of the non-harmonic sound included in the melody.
Therefore, when the sound of interest is determined to be a non-harmonic sound in the determination of 22-5, the process proceeds to 22-6 and below.
22−6では着目している非和声音の前後のメロディの
状況を表わす関数の値を計算している。この関数の一例
は上述したように、 f1:1つ前の音符は和声音か否か f2:1つ後の音符は和声音か否か f3:1つ前の音符との音高差 f4:1つ後の音符との音高差 f5:時分は極点であるかどうか (f3×f4<0なら極点) である。In 22-6, the value of the function representing the melody situation before and after the non-harmonic tone of interest is calculated. As described above, an example of this function is f 1 : whether the preceding note is a harmony or not f 2 : whether or not the next note is a harmony f 3 : pitch with the preceding note Difference f 4 : Pitch difference from the next note f 5 : Whether the hour and minute is a pole (if f 3 × f 4 <0, pole).
次に、22−7で非和声音のカウンタrsnoをインクリメ
ントした後、22−8で関数結果に上述の非和声音の分類
知識(プロダクションルールデータ)を適用して、非和
声音の種類を前向推論により求める。この前向推論22−
8の推論結果である非和声音の識別子(番号)は非和声
音のパターン要素のレジスタRSrsnoに代入される(22−
9)。そして小節内の基本時間のカウンタiをインクリ
メントし(22−10)、i=1〜BEATまでの間、22−3以
下の処理をくり返す。Next, after incrementing the non-harmonic counter rsno in 22-7, the above-described non-harmonic classification knowledge (production rule data) is applied to the function result in 22-8, and the type of the non-harmonic is set to the previous value. Calculate by direction inference. This forward-looking inference
The identifier (number) of the non-harmonic sound, which is the inference result of No. 8, is assigned to the register RSrsno of the non-harmonic sound pattern element (22−
9). Then, the counter i of the basic time in the bar is incremented (22-10), and the processing of 22-3 or less is repeated until i = 1 to BEAT.
<リズム分析> リズム分析20−3(第20図)のフローチャートを第23
図に示す。この処理の目的はメロディに含まれる和声音
の発生タイミング情報と非和声音の発生タイミング情報
と休符の発生タイミング情報とを抽出することである。<Rhythm analysis> The flowchart of rhythm analysis 20-3 (Fig. 20) is shown in Fig. 23.
Shown in the figure. The purpose of this processing is to extract the generation timing information of the harmony sound, the generation timing information of the non-harmonic sound, and the generation timing information of the rest included in the melody.
処理23−1、23−2、23−3は和声音分析の21−2、
21−3、21−4に対応しているので説明を省略する。Processing 23-1, 23-2, and 23-3 are harmony analysis 21-2,
Since they correspond to 21-3 and 21-4, the description is omitted.
23−4で注目している音符MDmが和声音である場合
は、23−5でRRARPに2i-1を加える。23−6で音符MDmが
非和声音である場合は23−7てRRNCTに2i-1を加える。
また、MDmが休符のときには(23−6が不成立のときに
は)、RRRSTに2i-1を加える。この処理をi=1〜BEAT
までくり返す(23−9、23−10)。この結果、RRARTに
は入力メロディに含まれる和声音の発生タイミング情報
が得られ、RRNCTには入力メロディに含まれる非和声音
の発生タイミング情報が得られ、RRRSTには休符の発生
タイミング情報が得られる。RRRART、RRNCT、RRRSTの各
ビットは小節内の各タイミングを表わし、ビット“1"は
その位置でそれぞれ、和声音、非和声音、休符が発生す
ることを示している。If the note MDm of interest in 23-4 is a harmony, 2i -1 is added to RRARP in 23-5. If the note MDm is nonharmonic tones in 23-6 adds 2 i-1 to RRNCT Te 23-7.
When MDm is a rest (when 23-6 is not satisfied), 2i -1 is added to RRRST. This processing is performed for i = 1 to BEAT
Repeat (23-9, 23-10). As a result, RRART obtains the timing information of the generation of the harmonies included in the input melody, RRNCT obtains the generation timing information of the non-harmonic sounds included in the input melody, and RRRST obtains the generation timing information of the rest. can get. Each bit of RRRART, RRNCT, and RRRST represents each timing in the bar, and bit “1” indicates that a harmony, a non-harmony, and a rest are generated at that position.
変形例 以上で実施例の説明を終えるが、この発明は上記実施
例に限定されず、種々の変形、変更が可能である。Modifications Although the description of the embodiments has been finished above, the present invention is not limited to the above-described embodiments, and various modifications and changes are possible.
例えば、本件出願人は曲の階層性をもたせるために区
間ごとにメロディ制御パラメータを演算し、その演算結
果に基づいてメロディを生成する自動作曲機を提案して
いるが(特願昭62−121037)。この自動作曲機能を上述
した実施例と組み合わせることができる。この場合、あ
る区間のメロディについては頻度データからメロディが
生成され、別の区間のメロディについては既に生成され
ている他の区間のメロディを参照して生成されることに
なる。例えば、8小節分のメロディを生成する場合に、
第1小節と第5小節は他の区間のメロディを参照するこ
となく頻度データから得たメロディ制御パラメータによ
りメロディを生成し、第2〜第4小節については第1小
節のメロディ(モチーフ)との関係を考慮して、第1小
節のメロディの生成に用いたメロディ制御パラメータ演
算手段により、それぞれ第2小節、第3小節、第4小節
用のメロディ制御パラメータに変換し、各小節用のメロ
ディ制御パラメータからメロディを生成し、第6〜第8
小節については第5小節との関係を考慮して生成する。
実際の動作においては、例えば第1小節目から第4小節
目までの生成メロディに対し、使用者が判断を下したと
すると、これに対し頻度データが更新される。再び第1
小節目からの作曲指示があると、この更新された頻度デ
ータにより第1小節目のメロディが生成され、その生成
に用いたメロディ制御パラメータを第2、第3、第4小
節用に変換した情報により第2、第3、第4小節のメロ
ディが作成し直される。For example, the present applicant has proposed an automatic composer that calculates a melody control parameter for each section in order to provide a hierarchical structure of music and generates a melody based on the calculation result (Japanese Patent Application No. 62-121037). ). This automatic music function can be combined with the embodiment described above. In this case, a melody of a certain section is generated from the frequency data, and a melody of another section is generated with reference to a melody of another section already generated. For example, when generating a melody for 8 bars,
In the first and fifth measures, a melody is generated based on the melody control parameters obtained from the frequency data without referring to the melody of the other section. For the second to fourth measures, the melody (motif) of the first measure is compared with the melody (motif) of the first measure. In consideration of the relationship, the melody control parameter calculation means used for generating the melody of the first bar converts the melody control parameters for the second bar, the third bar, and the fourth bar, respectively, and performs the melody control for each bar. Generate a melody from the parameters,
Measures are generated in consideration of the relationship with the fifth measure.
In an actual operation, for example, if the user makes a decision on the generated melody from the first measure to the fourth measure, the frequency data is updated. Again the first
When a composition instruction is given from a measure, the melody of the first measure is generated based on the updated frequency data, and the melody control parameters used for the generation are converted into information for the second, third, and fourth measures. Thus, the melody of the second, third, and fourth measures is re-created.
この組み合わせによれば、曲に多様性、一貫性をもた
せつつ、使用者の好みに合うメロディの生成が可能とな
り一層望ましい。According to this combination, it is possible to generate a melody that suits the user's taste while giving the music variety and consistency, which is more desirable.
また、本件出願人はメロディ制御パラメータをコード
進行の分析結果によって区間毎に生成する手段をもつ自
動作曲機を提案しているが(特願昭62−325176号)、こ
の作曲機の機能も上述と同様の仕方で上記の実施例と組
み合わせることができる。さらに、本件出願人は区間毎
のメロディ制御パラメータ演算手段が演算する制御パラ
メータ要素の重みを使用者からの入力によって指定可能
にすることにより、メロディ制御パラメータの値を使用
者サイドから制御できるようにした自動作曲機を提案し
ているが(特願昭63−12476号)、これについても同様
にして上記実施例と組み合わせることが可能である。In addition, the present applicant has proposed an automatic composer having means for generating a melody control parameter for each section based on an analysis result of chord progression (Japanese Patent Application No. 62-325176). The function of this composer is also described above. Can be combined with the above embodiment in the same manner as described above. Further, the applicant of the present invention can control the value of the melody control parameter from the user side by enabling the weight of the control parameter element calculated by the melody control parameter calculation means for each section to be specified by an input from the user. An automatic composer is proposed (Japanese Patent Application No. 63-12476), but it can be combined with the above embodiment in the same manner.
さらに、本件出願人は使用者からの曲の一部を成すメ
ロディを受け取り、この入力メロディを分析してメロデ
ィ制御パラメータを抽出し、その抽出結果に基づいてメ
ロディを生成する自動作曲機を提案しているが(特願昭
62−86571号)、本発明はこの種の自動作曲機にも適用
できる。この場合、上記実施例において頻度データ変更
の際に用いたようなメロディ分析手段7を入力メロディ
の分析にも兼用すれば、資源の有効利用が図れる。Further, the applicant has proposed an automatic composer that receives a melody that forms part of a song from a user, analyzes the input melody, extracts melody control parameters, and generates a melody based on the extracted result. Yes
No. 62-86571), the present invention is also applicable to this type of automatic composer. In this case, if the melody analysis means 7 used for changing the frequency data in the above embodiment is also used for analyzing the input melody, the resources can be effectively used.
ただし、頻度データ変更のためのメロディ分析手段7
は必ずしも必要ではなく、メロディ合成の際のメロディ
生成制御パラメータ生成手段1の動作時にその生成結果
を区間別に記憶しておき、ある区間のメロディに対する
判断結果が入力手段6から与えられたときに対応するメ
ロディ制御パラメータを読み出すようにしてもよい。However, the melody analysis means 7 for changing the frequency data
Is not always necessary, and when the melody synthesis control parameter generating means 1 operates during melody synthesis, its generation result is stored for each section, and when the judgment result for the melody of a certain section is given from the input means 6, The melody control parameter to be read may be read.
また、使用者が判断を下すメロディの長さの単位は上
記実施例のようにメロディの生成単位と同じ1小節を単
位にしてもよいし、その他の区間(例えば楽節)を単位
にしてもよい。Also, the unit of the melody length determined by the user may be the same unit as the melody generation unit as in the above embodiment, or may be the unit of another section (for example, a passage). .
また、使用者の判断結果の入力の形態は直接的であっ
ても間接的であってもよい。間接的な1つの例を挙げる
と、メロディの生成の指示の際に、使用者から前と同じ
区間の生成指示があったときには、その区間のメロディ
に対する使用者判断は否(嫌い)であったとみなし、別
の区間の生成指示があったときはその前に生成した区間
のメロディに対する使用者の判断は良(好き)であると
みなす。また、使用者から曲の一部のメロディが入力さ
れる場合には、その区間のメロディは常に好きの判断に
なっているとして処理することができる。Further, the form of input of the user's determination result may be direct or indirect. To give an indirect example, when the user instructs to generate a melody, when the user instructs to generate the same section as before, the user's judgment on the melody in that section was negative (disliked). It is considered that when the generation instruction of another section is given, the user's judgment on the melody of the section generated before that is good (like). Further, when a melody of a part of the music is input from the user, the melody in that section can be processed as if it is always a favorite judgment.
また、特定の区間(例えばサビの区間)に対しては通
常の区間のメロディ生成の基礎情報である頻度データと
は別の頻度データを用いるようにしてもよい。Further, for a specific section (for example, a rust section), frequency data different from frequency data that is basic information for generating a melody in a normal section may be used.
[発明の効果] この発明による自動作曲機はいったん生成したメロデ
ィに対する使用者の好みを「学習」して、頻度データと
呼ぶ情報のなかにその好みを反映して蓄積し、新たにメ
ロディを生成するときに、この頻度データを基にしてメ
ロディ制御パラメータを生成し、さらに生成されたメロ
ディ制御パラメータを基にしてメロディを生成してい
る。したがって、個々の使用者の好みに合うような曲、
あるいは個々の曲に対する使用者の曲想と合致するよう
な曲を効率よく作曲することができ、作曲機に要求され
る重要な能力を達成している。[Effect of the Invention] The automatic music composer according to the present invention "learns" the user's preference for the melody once generated, accumulates the information in the information called frequency data, reflecting the preference, and generates a new melody. At this time, a melody control parameter is generated based on the frequency data, and a melody is generated based on the generated melody control parameter. Therefore, songs that suit individual users' preferences,
Alternatively, it is possible to efficiently compose a song that matches the user's idea of each song, and achieve an important ability required for a composer.
第1図はこの発明の一実施例に係る自動作曲機の機能ブ
ロック図、第2図は上記自動作曲機の全体構成図、第3
図は実施例の全体動作を示すフローチャート、第4図は
変数リストを示す図、第5図は一部の変数データ形式を
示す図、第6図は別の一部の変数データ形式を示す図、
第7図は頻度データ記憶装置に記憶される頻度データの
記憶フォーマットを示す図、第8図は頻度データの読み
込みのフローチャート、第9図はメロディ生成のフロー
チャート、第10図は和声音生成のフローチャート、第11
図はLLからMDへのデータ変換のフローチャート、第12図
は非和声音付加のフローチャート、第13図は和声音発生
タイミング情報RRARPと音高データMDとの対応と非和声
音データの発生タイミング情報RRNCTと音高データNDと
の対応を示す図、第14図は前処理のフローチャート、第
15図は1つの非和声音付加のフローチャート、第16図は
2つの非和声音付加のフローチャート、第17図は非和声
音分類知識を表現するプロダクションルールデータの例
を示す、第18図は第17図に示すプロダクションルールデ
ータの意味を示す図、第19図は音高列と音長列のデータ
に変換するフローチャート、第20図は頻度変更のフロー
チャート、第21図は和声音分析のフローチャート、第22
図は非和声音分析のフローチャート、第23図はリズム分
析のフローチャートである。 1……メロディ生成制御パラメータ生成手段、2……コ
ード進行記憶手段、3……メロディ合成手段、5……モ
ニター手段、6……入力手段、7……メロディ分析手
段、8……データ変更手段、9……頻度データ記憶手
段、10……CUP、20……頻度データ記憶装置、40……入
力装置、50……モニター。FIG. 1 is a functional block diagram of an automatic composer according to an embodiment of the present invention, FIG. 2 is an overall configuration diagram of the automatic composer, and FIG.
Fig. 4 is a flowchart showing the overall operation of the embodiment, Fig. 4 is a diagram showing a variable list, Fig. 5 is a diagram showing a partial variable data format, and Fig. 6 is a diagram showing another partial variable data format. ,
FIG. 7 is a diagram showing a storage format of frequency data stored in the frequency data storage device, FIG. 8 is a flowchart of reading frequency data, FIG. 9 is a flowchart of melody generation, and FIG. 10 is a flowchart of harmony generation. , Eleventh
Fig. 12 is a flowchart of data conversion from LL to MD. Fig. 12 is a flowchart of non-harmonic sound addition. Fig. 13 is correspondence between harmony sound generation timing information RRARP and pitch data MD and non-harmonic sound data generation timing information. FIG. 14 is a diagram showing correspondence between RRNCT and pitch data ND, FIG. 14 is a flowchart of preprocessing, FIG.
FIG. 15 is a flowchart for adding one non-harmonic sound, FIG. 16 is a flowchart for adding two non-harmonic sounds, FIG. 17 shows an example of production rule data expressing non-harmonic classification knowledge, and FIG. FIG. 17 shows the meaning of the production rule data shown in FIG. 17, FIG. 19 is a flowchart for converting into pitch sequence and pitch sequence data, FIG. 20 is a flowchart for frequency change, FIG. 21 is a flowchart for harmony analysis, 22nd
Fig. 23 is a flowchart of non-harmonic analysis, and Fig. 23 is a flowchart of rhythm analysis. 1 ... melody generation control parameter generation means, 2 ... chord progress storage means, 3 ... melody synthesis means, 5 ... monitoring means, 6 ... input means, 7 ... melody analysis means, 8 ... data change means , 9 ... frequency data storage means, 10 ... CUP, 20 ... frequency data storage device, 40 ... input device, 50 ... monitor.
フロントページの続き (56)参考文献 特開 昭62−187876(JP,A) 特開 昭60−107079(JP,A) 高沢,吉川 「コンピュータによる電 子オルガンの自動演奏と作曲」,コンピ ュートピア株式会社コンピュータ・エー ジ社,昭和50年12月1日,1975・12月 号,Vol.9,No.110,P.13− 19 (58)調査した分野(Int.Cl.6,DB名) G10H 1/00 102 G10H 1/36Continuation of the front page (56) References JP-A-62-187876 (JP, A) JP-A-60-107079 (JP, A) Takasawa, Yoshikawa "Automatic performance and composition of electronic organs by computer", Computepia stock Computer Company, December 1, 1975, December 1975, Vol. 9, No. 110, p. 13-19 (58) Field surveyed (Int.Cl. 6 , DB name) G10H 1/00 102 G10H 1/36
Claims (3)
メロディ制御パラメータ生成手段と、上記メロディ制御
パラメータにより生成されたメロディ制御パラメータと
与えられたコード進行とに基づいてメロディを合成する
メロディ合成手段とを備える自動作曲機において、 各種のメロディ制御パラメータが特定の値で発生する頻
度をコントロールするための頻度データを種類別、値別
に記憶する頻度データ記憶手段と、 上記メロディ合成手段により合成されたメロディを出力
する出力手段と、 上記出力手段により出力されたメロディに対する使用者
の判断結果を入力する入力手段と、 上記記憶手段に記憶された頻度データのうち、上記出力
手段により出力されたメロディを合成するのに用いた各
種のメロディ制御パラメータの値に対応づけた頻度デー
タを、上記入力手段により入力された判断結果に従って
変更する頻度データ変更手段と、 を有し、 上記メロディ制御パラメータ生成手段は上記頻度データ
変更手段により変更された頻度データに基づいて新たに
生成するメロディを制御するためのメロディ制御パラメ
ータを生成することを特徴とする自動作曲機。1. A melody control parameter generating means for generating a plurality of types of melody control parameters, and a melody synthesizing means for synthesizing a melody based on a melody control parameter generated by the melody control parameter and a given chord progression. In the automatic composer provided, frequency data storage means for storing frequency data for controlling the frequency at which various melody control parameters occur at specific values by type and value, and a melody synthesized by the melody synthesis means. Output means for outputting; input means for inputting a user's judgment result on the melody output by the output means; and melody output by the output means among frequency data stored in the storage means. Corresponding to the values of the various melody control parameters used for Frequency data changing means for changing the radiated frequency data in accordance with the judgment result input by the input means, wherein the melody control parameter generating means newly generates the melody control parameter based on the frequency data changed by the frequency data changing means. An automatic composer characterized by generating a melody control parameter for controlling a melody to be generated.
メロディ制御パラメータ生成手段と、上記メロディ制御
パラメータにより生成されたメロディ制御パラメータと
与えられたコード進行とに基づいてメロディを合成する
メロディ合成手段とを備える自動作曲機において、 各種のメロディ制御パラメータが特定の値で発生する頻
度をコントロールするための頻度データを種類別、値別
に記憶する頻度データ記憶手段と、 上記メロディ合成手段により合成されたメロディを出力
する出力手段と、 上記出力手段により出力されたメロディに対する使用者
の判断結果を入力する入力手段と、 上記記憶手段に記憶された頻度データのうち、上記出力
手段により出力されたメロディを合成するのに用いた各
種のメロディ制御パラメータの値に対応づけた頻度デー
タを、上記入力手段により入力された判断結果に従って
変更する頻度データ変更手段と、 を有し、 上記メロディ制御パラメータ生成手段は上記頻度データ
変更手段により変更された頻度データに基づいて新たに
生成するメロディを制御するためのメロディ制御パラメ
ータを生成し、上記メロディ合成手段はこの生成された
メロディ制御パラメータによりメロディを合成すること
を特徴とする自動作曲機であって、 曲の一部を成すメロディを入力するメロディ入力手段
と、 上記メロディ入力手段により入力されたメロディを分析
して入力メロディ特徴パラメータを抽出する入力メロデ
ィ分析手段と、 を更に具備し、 上記メロディ制御パラメータ生成手段は上記頻度データ
に基づくメロディ制御パラメータを生成しないメロディ
区間に対しては、上記入力メロディ分析手段の抽出した
入力メロディ特徴パラメータに基づいてメロディ制御パ
ラメータを生成する手段を有することを特徴とする自動
作曲機。2. A melody control parameter generating means for generating a plurality of types of melody control parameters, and a melody synthesizing means for synthesizing a melody based on a melody control parameter generated by the melody control parameter and a given chord progression. In the automatic composer provided, frequency data storage means for storing frequency data for controlling the frequency at which various melody control parameters occur at specific values by type and value, and a melody synthesized by the melody synthesis means. Output means for outputting; input means for inputting a user's judgment result on the melody output by the output means; and melody output by the output means among frequency data stored in the storage means. Corresponding to the values of the various melody control parameters used for Frequency data changing means for changing the radiated frequency data in accordance with the judgment result input by the input means, wherein the melody control parameter generating means newly generates the melody control parameter based on the frequency data changed by the frequency data changing means. A melody control means for generating a melody control parameter for controlling a melody to be generated, wherein the melody synthesizing means synthesizes the melody with the generated melody control parameter; Melody input means for inputting a melody; and input melody analysis means for analyzing a melody input by the melody input means and extracting an input melody feature parameter. Melody that does not generate melody control parameters based on For while an automatic composer which is characterized in that it comprises means for generating a melody control parameters based on the input melody feature parameters extracted in the input melody analysis means.
メロディ制御パラメータ生成手段と、上記メロディ制御
パラメータにより生成されたメロディ制御パラメータと
与えられたコード進行とに基づいてメロディを合成する
メロディ合成手段とを備える自動作曲機において、 各種のメロディ制御パラメータが特定の値で発生する頻
度をコントロールするための頻度データを種類別、値別
に記憶する頻度データ記憶手段と、 上記メロディ合成手段により合成されたメロディを出力
する出力手段と、 上記出力手段により出力されたメロディに対する使用者
の判断結果を入力する入力手段と、 上記記憶手段に記憶された頻度データのうち、上記出力
手段により出力されたメロディを合成するのに用いた各
種のメロディ制御パラメータの値に対応づけた頻度デー
タを、上記入力手段により入力された判断結果に従って
変更する頻度データ変更手段と、 を有し、 上記メロディ制御パラメータ生成手段は上記頻度データ
変更手段により変更された頻度データに基づいて新たに
生成するメロディを制御するためのメロディ制御パラメ
ータを生成し、上記メロディ合成手段はこの生成された
メロディ制御パラメータによりメロディを合成すること
を特徴とする自動作曲機であって、 上記頻度データ変更手段は上記出力手段により出力され
たメロディを合成するのに用いたメロディ制御パラメー
タを得るために、この出力されたメロディを分析するメ
ロディ分析手段を有することを特徴とする自動作曲機。3. A melody control parameter generating means for generating a plurality of types of melody control parameters, and a melody synthesizing means for synthesizing a melody based on the melody control parameters generated by the melody control parameters and a given chord progression. In the automatic composer provided, frequency data storage means for storing frequency data for controlling the frequency at which various melody control parameters occur at specific values by type and value, and a melody synthesized by the melody synthesis means. Output means for outputting; input means for inputting a user's judgment result on the melody output by the output means; and melody output by the output means among frequency data stored in the storage means. Corresponding to the values of the various melody control parameters used for Frequency data changing means for changing the radiated frequency data in accordance with the judgment result input by the input means, wherein the melody control parameter generating means newly generates the melody control parameter based on the frequency data changed by the frequency data changing means. A melody control parameter for controlling a melody to be generated is generated, and the melody synthesizing means is an automatic music machine characterized by synthesizing a melody with the generated melody control parameter. An automatic composer comprising melody analysis means for analyzing the output melody in order to obtain a melody control parameter used for synthesizing the melody output by the output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63125929A JP2797317B2 (en) | 1988-05-25 | 1988-05-25 | Automatic composer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63125929A JP2797317B2 (en) | 1988-05-25 | 1988-05-25 | Automatic composer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01296286A JPH01296286A (en) | 1989-11-29 |
JP2797317B2 true JP2797317B2 (en) | 1998-09-17 |
Family
ID=14922451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63125929A Expired - Lifetime JP2797317B2 (en) | 1988-05-25 | 1988-05-25 | Automatic composer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2797317B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0118448D0 (en) * | 2001-07-27 | 2001-09-19 | Hewlett Packard Co | Apparatus for composing a song and method |
JP7574803B2 (en) * | 2019-11-26 | 2024-10-29 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
-
1988
- 1988-05-25 JP JP63125929A patent/JP2797317B2/en not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
高沢,吉川 「コンピュータによる電子オルガンの自動演奏と作曲」,コンピュートピア株式会社コンピュータ・エージ社,昭和50年12月1日,1975・12月号,Vol.9,No.110,P.13−19 |
Also Published As
Publication number | Publication date |
---|---|
JPH01296286A (en) | 1989-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9818396B2 (en) | Method and device for editing singing voice synthesis data, and method for analyzing singing | |
JP3704980B2 (en) | Automatic composer and recording medium | |
JP2995303B2 (en) | Melody versus chord progression suitability evaluation device and automatic coding device | |
US20160148606A1 (en) | Automatic composition apparatus, automatic composition method and storage medium | |
AU731747B2 (en) | Automatic improvisation system and method | |
JP2797317B2 (en) | Automatic composer | |
Kohonen et al. | A nonheuristic automatic composing method | |
Oliwa | Genetic algorithms and the abc music notation language for rock music composition | |
Harrison et al. | A computational cognitive model for the analysis and generation of voice leadings | |
JPH09244648A (en) | Automatic music composing machine | |
JP6500870B2 (en) | Code analysis apparatus, method, and program | |
de Mantaras | Making music with AI: Some examples | |
JP2689257B2 (en) | Automatic composer | |
US20200312286A1 (en) | Method for music composition embodying a system for teaching the same | |
JPH05181409A (en) | Automatic music composing machine | |
JP3531507B2 (en) | Music generating apparatus and computer-readable recording medium storing music generating program | |
Geis et al. | Creating melodies and baroque harmonies with ant colony optimization | |
Muñoz-Lago et al. | An approach to Beethoven's 10th Symphony | |
JP3591444B2 (en) | Performance data analyzer | |
JP2638816B2 (en) | Accompaniment line fundamental tone determination device | |
Lyu | Transforming Music into Chinese Musical Style based on Nyquist | |
JP2615722B2 (en) | Automatic composer | |
JP2638818B2 (en) | Accompaniment line fundamental tone determination device | |
JP3163654B2 (en) | Automatic accompaniment device | |
US20230326436A1 (en) | Automated Music Composition and Generation System and Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070703 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080703 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term |