JPS63311395A - Melody analyzing machine and automatically composing machine - Google Patents

Melody analyzing machine and automatically composing machine

Info

Publication number
JPS63311395A
JPS63311395A JP62146963A JP14696387A JPS63311395A JP S63311395 A JPS63311395 A JP S63311395A JP 62146963 A JP62146963 A JP 62146963A JP 14696387 A JP14696387 A JP 14696387A JP S63311395 A JPS63311395 A JP S63311395A
Authority
JP
Japan
Prior art keywords
melody
harmonic
motif
sound
chord
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62146963A
Other languages
Japanese (ja)
Other versions
JP2715412B2 (en
Inventor
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP62146963A priority Critical patent/JP2715412B2/en
Priority to US07/177,592 priority patent/US4926737A/en
Publication of JPS63311395A publication Critical patent/JPS63311395A/en
Priority to US07/447,581 priority patent/US5099740A/en
Application granted granted Critical
Publication of JP2715412B2 publication Critical patent/JP2715412B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [発明の技術分野] この発明はメロディ分析機及び自動作曲機に関する。[Detailed description of the invention] [Technical field of invention] The present invention relates to a melody analyzer and an automatic composer.

[背 景] 自動作曲機の良否に関し、考慮すべき重要な要素の1つ
は1人間がこれまで親しんできたよう卒楽曲、換言すれ
ば、純機械的ではなく音楽性に富む曲を生成する潜在能
力をその作曲機がもちあわせているかどうかということ
である。
[Background] Regarding the quality of automatic music composers, one of the important factors to consider is the ability to produce music that is rich in musicality rather than purely mechanical. The question is whether the composing machine has its potential.

例えば、特願昭58−125603号(特公昭60−4
0027号)には、一連の音高データ(例えば、12音
階のデータ)から個々の音高データをランダムにサンプ
ルし、サンプルしたものが限られた条件を満足すれば、
それをメロディノートとして採択し、条件を満たさなけ
ればメロディノートとしては採択せず、再度、サンプル
し直して条件検査をくり返す方式の自動作曲機が開示さ
れている。したがって、この自動作曲機のメロディ生成
プロセスは基本的にトライアンドエラ一方式である。音
高データをランダムにサンプルした段階では完全に無秩
序な音高の列ができあがる。この無秩序な音高の列のま
までは、全くメロディとしては成立し得ない(天文学的
な偶発性によってよいメロディができる可能性はあるカ
リ、そこで、この無秩序になんらかの秩序をもたらすた
めに、条件検査という一種のフィルタリング(選別)を
行っている。この場合、選別の程度が重要な要素になる
0選別がきつすぎれば、生成されるメロディはワンパタ
ーン化するであろうし、ゆるすぎれば1元の無秩序性が
支配的となるであろう。
For example, Japanese Patent Application No. 58-125603 (Special Publication No. 60-4
No. 0027), individual pitch data is randomly sampled from a series of pitch data (for example, 12-tone scale data), and if the sampled data satisfies a limited condition,
An automatic composing machine has been disclosed that adopts it as a melody note, does not adopt it as a melody note unless conditions are met, samples it again, and repeats the condition check. Therefore, the melody generation process of this automatic music composer is basically a trial-and-error process. When pitch data is randomly sampled, a completely disordered sequence of pitches is created. This chaotic sequence of pitches cannot form a melody at all (there is a possibility that a good melody can be created by astronomical contingencies), so in order to bring some order to this disorder, we decided to perform a conditional test. A type of filtering (selection) is performed.In this case, the degree of selection is an important factor.If the selection is too strict, the generated melody will have a single pattern, and if it is too loose, it will be a single pattern. Anarchy will prevail.

上記の自動作曲機は1人間がなれ親しんできたメロディ
というよりは1作風のとらえどころかないメロディを作
曲するのに適しており、主として、聴音訓練や演奏練習
用の曲作成装置として有効である(なじみのない斬新な
曲は採譜や演奏が一般に困難になる)、この意味で冒頭
にあげた能力はもちあわせていない。
The above-mentioned automatic composing machine is suitable for composing elusive melodies of a single piece rather than melodies with which one person is familiar, and is mainly effective as a music composition device for listening training and performance practice (familiar). (In general, it is difficult to transcribe and perform innovative pieces that do not have a unique score.) In this sense, he does not have the abilities listed at the beginning.

このような点に鑑み1本件出願人は、ユーザーより入力
されたモチーフをきっかけとして、そのモチーフを展開
、成長させ、曲−の一貫性、多様性1階層性をコントロ
ールできる自動作Ilh機を出願している(特許出願、
名称「自動作曲機」、昭和62年4月−8日出願および
昭和62年5月20ロ出願)、その基本amとして、ユ
ーザーより与えられたモチーフを評価、分析する手段と
、評価結果であるモチーフ特徴パラメータを基に生成す
べきメロディのアウトライン、スタイルを計画。
In view of these points, the applicant has filed an application for an automatic production machine that can develop and grow a motif based on a motif input by the user, and control the consistency and diversity of a song. (patent application,
Named ``Automatic Composer'', filed April 8, 1985 and May 20, 1988), its basic features are a means to evaluate and analyze motifs given by users, and evaluation results. Plan the outline and style of the melody to be generated based on motif characteristic parameters.

連想するメロディ制御パラメータ発生手段と、計画され
た制御パラメータとコード進行情報に従ってメロディを
具体的に生成すそメロディ生成実行手段と、が開示され
ている。
Disclosed are associated melody control parameter generation means, and melody generation/execution means for specifically generating a melody according to planned control parameters and chord progression information.

これらの出願に係る自動作曲機は、曲の全体的特徴、4
囲気、スタイルをコントロールしており1作曲に計画性
があり、多様性、階層性に富む曲をつくることが可能で
ある。これが大きな利点の1つとなっている。第2の特
徴は、モチーフがユーザーから入力され、そのモチーフ
を基に作曲がなされる点である。この特徴は、ユーザー
の満足度を深め、作曲への参加意識を高める上で有効に
可能する。
The automatic composing machines related to these applications are based on the overall characteristics of the piece, 4.
He controls the atmosphere and style, has a plan in each composition, and is able to create songs that are rich in diversity and hierarchy. This is one of the major advantages. The second feature is that a motif is input by the user and a composition is created based on that motif. This feature effectively deepens the user's satisfaction and increases their sense of participation in the composition.

第3の特徴は、和声音と非和声音とを区別して取り扱う
アプローチを採用していることである。
The third feature is that an approach is adopted in which harmonic sounds and non-harmonic sounds are treated separately.

すなわち、上記モーチフ評価手段(モチーフ特徴パラメ
ータ抽出手段)には、モチーフに含まれる非和声音と和
声音に関する和声的特徴パラメータを抽出するat1@
が含まれており、メロディ生成手段(メロディ制御パラ
メータ発生手段とメロディ生成実行手段)の方にも、抽
出された和声的特徴パラメータ(例えば和声音数1分散
和音の型、各種非和声ff数゛)が反映、される形式で
メロディを生成する機能が含まれている。このような、
和声音/非相和声音区別機能は、生成される曲を機械的
でなく音楽性に富むものにするのに役立つ。
That is, the motif evaluation means (motif feature parameter extraction means) includes at1@ which extracts harmonic feature parameters regarding non-harmonic sounds and harmonic sounds included in the motif.
The melody generation means (melody control parameter generation means and melody generation execution means) also include the extracted harmonic characteristic parameters (for example, the type of harmonic 1 dispersion chord, various non-harmonic ff Contains a function to generate melodies in a format that reflects and reflects the number ゛). like this,
The harmonic/inharmonious tones distinction feature helps to make the generated songs less mechanical and more musical.

さらに、第3の特徴とも関係するが、上記和声特徴パラ
メータ抽山手段は、メロディの和声学的な分析機として
利用することができる。メロディ分析機を通じて、学習
者は、メロディラインにおいて、非和声音がもつa電画
mき、和声音の機能などを容易に習得することができる
Furthermore, related to the third feature, the harmonic feature parameter extracting means can be used as a harmonic analyzer of the melody. Through the melody analyzer, students can easily learn the features of non-harmonic sounds and the functions of harmonic sounds in melody lines.

上述の出願では、メロディ分析に関係するもののとして
、非和声音分類抽出手段が示されている。この非和声音
分類抽出手段の論理は、モチーフ(メロディ)の音高列
を音程進行列に変換し。
In the above-mentioned application, a means for classifying and extracting non-harmonic sounds is shown as being related to melody analysis. The logic of this non-harmonic sound classification extraction means is to convert the pitch sequence of a motif (melody) into a pitch progression sequence.

この音程進行列を各種非和声音の成立条件(パターン)
と比較し、マツチすればモチーフ(メロディ)内の対応
する音がその非和声音であると推定する、というもので
ある、音高列から音程進行列への変換は曲技の音の高さ
の差を演算する手段で実行している。
This interval progression is the condition (pattern) for various non-harmonic tones.
If there is a match, it is estimated that the corresponding note in the motif (melody) is the non-harmonic note.The conversion from a pitch sequence to an interval progression sequence is based on the pitch of an acrobatics. It is executed by means of calculating the difference.

この発明は、上述の論理とは別の新しい論理により非和
声音を抽出ないし分類化を行うことを特徴としている。
The present invention is characterized in that non-harmonic sounds are extracted or classified using a new logic different from the above-mentioned logic.

[発IIの目的] すなわち、この発明の目的は、新規なアプローチにより
、メロディの和声学的な評価を自動的に行うメロディ分
析機を提供することである。もうひとつは、上述したタ
イプの自動作曲機を改良することであり、特に、モチー
フの分析に関して改良を施した自動作曲機を提供するこ
とである。
[Object of Part II] That is, an object of the present invention is to provide a melody analyzer that automatically performs harmonic evaluation of a melody using a novel approach. Another objective is to improve automatic composers of the type described above, and in particular to provide automatic composers that are improved in terms of motif analysis.

[発明の要点] 上記の目的達成のため、本発明によるメロディ分析機は
、メロディ入力手段に加え、メロディコード入力手段を
設け、入力されたメロディのコードを基に、メロディに
含まれる非和声音を識別ないし抽出し、この識別結果で
ある非和声音情報とメロディの音列とから、各非和声音
を分類化するようにしたことを要点とする。
[Summary of the Invention] In order to achieve the above object, the melody analyzer according to the present invention is provided with a melody code input means in addition to the melody input means, and based on the input melody chord, the melody analyzer analyzes non-harmonic sounds included in the melody. The main point is that each non-harmonic sound is classified based on the non-harmonic sound information and the melody sound sequence that are the result of this identification.

ざらに、本発明による自動作曲機は、モチーフ分析の領
域において上述のメロディ分析機の機能を使用すること
を特徴としており、具体的には。
In general, the automatic music composer according to the present invention is characterized by using the functions of the above-mentioned melody analyzer in the area of motif analysis, specifically.

モチーフ入力手段に加えモチーフコード−入力手段を設
け、入力されたモチーフのコードを基に、モチーフに含
まれる非和声音を識別ないし抽出するようにしている0
本自動作曲機にあっては、このような非和声音の抽出結
果からモチーフの和声的特徴パラメータが得られ、この
和声的特徴パラメータが反映される形式にて和声音と非
和声音を含むメロディが生成される構成になっている。
In addition to the motif input means, a motif code input means is provided, and non-harmonic sounds included in the motif are identified or extracted based on the input motif code.
In this automatic composer, the harmonic feature parameters of the motif are obtained from the extraction results of such non-harmonic sounds, and the harmonic and non-harmonic sounds are created in a format that reflects these harmonic feature parameters. The structure is such that a melody containing the song is generated.

[発明の作用、展開] この発明によるメロディ分析機を使って、メロディの和
声学的技術について学習としようとする者は、入力装置
よりメロディを入力するとともに、そのメロディの背景
になっていると思われるコードを入力する。これに対し
1本メロディ分析機は、入力されたコードの構成音を和
声音と想定し、入力メロディのうちでコード構成音以外
の音を非相、is音と推定する。さらに、メロディ分析
機は、推定した非和声音情報(メロディの音列の何番口
と何番IIが非和声音であるかを示す情報)を基にメロ
ディの音列をパターン分析して、どの音がどのタイプの
非和声音であるかを推定する。これにより、非相−5音
が分類化される。
[Operation and development of the invention] A person who intends to use the melody analyzer according to the present invention to learn harmonic techniques of melodies inputs a melody from an input device, and also inputs the background of the melody. Enter the code that appears. On the other hand, the melody analyzer assumes that the constituent tones of the input chord are harmonic tones, and estimates that the sounds in the input melody other than the chord constituent tones are out-of-phase or IS tones. Furthermore, the melody analyzer performs a pattern analysis on the melody note sequence based on the estimated non-harmonic sound information (information indicating which number and number II of the melody note sequence are non-harmonic sounds). Estimate which sound is which type of non-harmonic sound. As a result, the non-phasic -5 tones are classified.

後は、適当な出力手段を通じて、分類化された非和声音
情報やメロディを出力することができる。出力手段の構
成や出力のフォーマットは任意のものが使用できる0例
えば、CRTのような表示装置の画面にメロディを五線
譜表示するとともに1分類化された非和声音を識別表示
し、あるいは、音源とサウンドシステムを通じてメロデ
ィを51として出力させる。コードも出力させてよい。
After that, the classified non-harmonic sound information and melody can be outputted through a suitable output means. Any configuration or output format can be used for the output means.For example, the melody can be displayed on a staff notation on the screen of a display device such as a CRT, and non-harmonic sounds classified into one category can be identified and displayed, or the sound source can be The melody is output as 51 through the sound system. You can also output the code.

ここで学習者は、自分の想像したコードがメロディにマ
ツチするかどうか、さらにはメロディラインにおける各
種非和声音の旋律的特徴や機能、和、41 mの機能な
どについて学ぶことができる0種々のメロディについて
1本メロディ分析機を使用することを通じて、学習者は
次第にパターン認識を深め、どのようなメロディならど
のようなコードが合うかを知得するようになり、また、
メロディラインの類型化能力も身についてくるし、「;
′を電画な耳」も発達する。しかもこのような音電画技
術を習得する上で、従来の音楽教育の場で必要とされる
ようなピアノ等の楽器の演奏能力は要求されない。
Here, students can learn whether the chords they have imagined match the melody, as well as the melodic characteristics and functions of various non-harmonic tones in the melody line, sums, and the functions of 41 m. By using a melody analyzer, students will gradually deepen their pattern recognition and learn what kind of chords go with what kind of melody.
You will also acquire the ability to categorize melody lines.
``Ear for electronic pictures'' is also developed. Moreover, in order to acquire such sound and electrographic techniques, the ability to play musical instruments such as the piano, which is required in conventional music education settings, is not required.

一方、自動作曲機に本発明を適用した場合には、次の・
ような利点が得られる。すなわち、ユーザー、特に音楽
的素養のある人にとっては、同じメロディラインであっ
ても1表現したい音楽世界との関係において、いくつか
の有力なコードの候補のなかから、好きなコードを選択
することができる。これに対し1本自動作曲機はそのモ
チーフ特徴パラメータ抽出手段内に含まれる非和声音抽
出部において、上述したのと同様の仕方でモチーフに含
まれる非和声音を識別ないし抽出する。そして、この抽
出結果から和声的特徴パラメータ(例えば、和声音数、
非和声音数1分散和音の音高パターン)が得られる。こ
の情報は自動作曲機のメロディ生成手段に渡され、この
情報に則したメロディが生成される。ユーザーは出来上
ったメロディが気に入らなければ、次に有力と思われる
コードをモチーフのコードとして入力することができる
。今度、抽出される和声的特徴パラメータは匍とは違っ
たものになり、これらのパラメータは生成されるメロデ
ィに反映されるわけであるから、IQ未来上たメロディ
も当然、荊とは違ったものになる。このようなプロセス
を踏むことにより、ユーザーの希望するメロディがより
効果的にIiIられると期待される。
On the other hand, when the present invention is applied to an automatic music composer, the following
Benefits such as: In other words, for users, especially those with musical background, it is important for users to select their favorite chords from among several promising chord candidates in relation to the musical world they wish to express, even if the melody line is the same. Can be done. On the other hand, an automatic music composer uses a non-harmonic sound extracting section included in its motif feature parameter extracting means to identify or extract non-harmonic sounds included in a motif in the same manner as described above. Then, from this extraction result, harmonic feature parameters (for example, number of harmonic tones,
A pitch pattern of a dispersion chord with one non-harmonic tone is obtained. This information is passed to the melody generation means of the automatic composer, and a melody based on this information is generated. If the user does not like the resulting melody, they can enter the next most likely chord as the motif chord. This time, the extracted harmonic feature parameters will be different from those of 半, and these parameters will be reflected in the generated melody, so naturally the melody that is higher than IQ will also be different from that of 半. Become something. By following such a process, it is expected that the user's desired melody can be reproduced more effectively.

本発明を自動作曲機に適用する場合には、作曲機のメロ
ディ生成手段の構成如何により、非和声音を「分類化」
する手段はなくてよい場合がある。もっとも、後述する
実施例では、メロディ生成手段内に、各種の非和声音を
付加する手段が含まれており、この種類別非和声音付加
手段との関係において、モチーフを分析する側にも、モ
チーフの非和声音を分類化して付加する手段が設けられ
ている。その論理は、メロディ分析機について述べたと
ころと同様でよい、このような非和声音の分類化抽出と
分類化付加の組合せは、生成するメロディをよりきめ細
かく制御するのに有効である。
When the present invention is applied to an automatic music composition machine, it is possible to "classify" non-harmonic sounds depending on the configuration of the melody generation means of the composition machine.
There may be cases where there is no way to do so. However, in the embodiment described later, the melody generating means includes means for adding various non-harmonic sounds, and in relation to this type-specific non-harmonic sound adding means, the motif analyzing side also has the following: A means is provided for classifying and adding non-harmonic sounds of the motif. The logic may be similar to that described for the melody analyzer, and this combination of classification extraction and classification addition of non-harmonic sounds is effective for more finely controlling the generated melody.

【実施例J 以下、この発明の実施例について説明する。[Example J Examples of the present invention will be described below.

本実施例はこの発明の原理を自動作曲機に適用した例で
ある。この発明と関係する実施例の特徴部分は、自動作
曲機の全体の機能のうちで、モチーフからモチーフ特徴
パラメータを抽出する機能部分にある。最も良く、これ
らの部分を表わしている図は、第9図−ン第10図、第
11A図、第11B図、及び第2図の一部である。
This embodiment is an example in which the principle of this invention is applied to an automatic musical composition machine. The characteristic part of the embodiment related to this invention lies in the functional part of extracting motif characteristic parameters from a motif among the overall functions of the automatic musical composition machine. The views that best represent these parts are FIGS. 9-10, 11A, 11B, and a portion of FIG. 2.

本自動作曲機の基本部分は上述した特許出願に開示した
作曲機のタイプに屈している。基本部分の詳細は、第1
2図〜第49図に示されている。
The basic parts of the automatic music composer conform to the type of music composer disclosed in the above-mentioned patent application. For details on the basic parts, see Part 1.
2 to 49.

く全体構成〉 自動作曲機の全体回路構成を第1図に示す0図中、lは
入力装置、2はコードuI成音メモリ、3はコード進行
メモリ、4は根音データメモリ、5は音階の重みデータ
メモリ、6はモチーフメモリ、7はパラメータCメモリ
、8は楽節識別データメモリ、9はCPU、10はワー
クメモリ。
Overall configuration> The overall circuit configuration of the automatic music composer is shown in Figure 1.In Figure 1, l is an input device, 2 is a chord uI tone generation memory, 3 is a chord progression memory, 4 is a root note data memory, and 5 is a scale. , 6 is a motif memory, 7 is a parameter C memory, 8 is a passage identification data memory, 9 is a CPU, and 10 is a work memory.

11はパラメータCメモリ、12は学習データメモリ、
13はメロディデータメモリ、14はモニター、15は
CRT、16は五線譜シリング。
11 is a parameter C memory, 12 is a learning data memory,
13 is a melody data memory, 14 is a monitor, 15 is a CRT, and 16 is a musical staff shilling.

17は楽音形成回路、18はサウンドシステム、19は
外部記憶装置である。
17 is a musical tone forming circuit, 18 is a sound system, and 19 is an external storage device.

上記モチーフメモリ6は、入力波filより入力される
モチーフ(入力メロディ)の情報を格納するところであ
る。モチーフ情報は音高と音長(合価)のデータの列で
構成される。自動作曲に際し、CPU9はこのモチーフ
情報からそのモチーフを特徴づけるパラメータ(モチー
フ特徴パラメータ)を抽出することになる。
The motif memory 6 stores information on a motif (input melody) input from the input wave fil. Motif information consists of a string of pitch and length (total pitch) data. When automatically composing music, the CPU 9 extracts parameters characterizing the motif (motif characteristic parameters) from this motif information.

上記コード進行メモリ3には、コードネームの列で表現
されるコード進行情報が格納される。
The chord progression memory 3 stores chord progression information expressed as a string of chord names.

コード進行情報は、入力波211より、ユーザーが逐次
、コードを指定して入力してもよく、あるいは、大ざっ
ばな指定(例えば楽曲の形式の指定)に応答して、CP
U9がコード進行を自動生成するようにしてもよい、コ
ード進行の自動生成は、例えば、 11本的なコードパ
ターン(多用されるコードパターン)の連結、あるいは
許されるコード相互の連結によって可能であり、連結の
論理としては1例えばマルコフ連鎖のモデルが使用でき
る。ただし、面全体のコード進行がユーザーにより直接
的に指定されるか、マシンにより自動的に生成されるか
は本発明にとって重要なことではない。
The chord progression information may be inputted sequentially by the user specifying chords from the input wave 211, or may be inputted by the user in response to a rough specification (for example, specification of the music format).
U9 may automatically generate chord progressions. Automatic generation of chord progressions is possible, for example, by concatenating 11 chord patterns (frequently used chord patterns) or by concatenating allowed chords. For example, a Markov chain model can be used as the connection logic. However, it is not important to the invention whether the chord progression for the entire surface is specified directly by the user or automatically generated by the machine.

しかし、モチーフのコードに関してはユーザーの指定し
たコードが入力型ff1lより入力され、これは重要な
ポイントである。換言すれば、コード進行メモリ3は少
なくともメロディのコード進行を記憶するものである。
However, regarding the motif code, the code specified by the user is input from the input type ff1l, which is an important point. In other words, the chord progression memory 3 stores at least the chord progression of the melody.

モチーフのコードと、モチーフに後続するメロディのコ
ードないしコード進行との自動連結については上述した
マルコフ連鎖モデルで実現できる。
Automatic linking of the motif chord and the chord or chord progression of the melody that follows the motif can be realized using the Markov chain model described above.

コード構成音メモリ2には各種のコードの構成音(コー
ドメンバーの音高データ)が格納されており、本例の場
合、上記コード進行メモリ3の各アドレスの内容(コー
ドネーム)より、コード構成音メモリ2上の特定のコー
ド構成音データの格納エリアが指定されるようになって
いる。CPU9は、自動作曲の際、コード変更のタイミ
ングごとに(例えば1小節ごとに)、コード進行メモリ
3のアドレスを進め、その内容であるコードネームから
コード構成音メモリ2上のアドレスを算山し、コードを
構成する各音高データを読み出す。
The chord structure note memory 2 stores various chord structure notes (chord member pitch data), and in this example, the chord structure is determined from the contents (chord name) of each address in the chord progression memory 3. A storage area for specific chord constituent sound data on the sound memory 2 is designated. During automatic composition, the CPU 9 advances the address in the chord progression memory 3 at each chord change timing (for example, every measure), and calculates the address in the chord constituent note memory 2 from the chord name that is the content. , reads each pitch data making up the chord.

根音データメモリ4にはコードの根音データが記憶され
、ff階の重みデータメモリ5には音階(ノートスケー
ル)を構成する各音高についてその有効性の度合を示す
重みデータ、すなわち重み付けられたノートスケールデ
ータが記憶されている(ノートスケールデータのセット
を記憶するメモリ)、自動作曲の際、適当な方法により
音階が選択され、この音階の重みデータが読み出される
。根音データメモリ4は読み出しだ音階の重みデータを
根音シフトするのに利用される。
The root note data memory 4 stores the root note data of the chord, and the ff scale weight data memory 5 stores weight data indicating the degree of effectiveness of each pitch that makes up the note scale. When automatically composing music, a scale is selected by an appropriate method, and the weight data of this scale is read out. The root note data memory 4 is used to shift the weight data of the read scale to the root note.

−力、パラメータCメモリ7にはメロディの流れにおけ
る一貫性と多様性をコントロールするためのデータ(パ
ラメータB)が格納されている。
- Power, Parameter C The memory 7 stores data (parameter B) for controlling consistency and diversity in the flow of the melody.

また、より高次の階層性を曲にもたせるために、楽人1
別データメモリ8が使用される。このメモリ7とメモリ
8にはユーザー領域、すなわち。
In addition, in order to bring a higher level of hierarchy to the song, musician 1
A separate data memory 8 is used. This memory 7 and memory 8 have a user area, ie.

ユーザーの指定したパラメータを記憶するリード/ライ
トエリアが用意されている。自動作曲の際、CPU9は
パラメータB、楽式識別データ(デコード後のデータ)
、上記モチーフ特徴パラメータ、楽曲進行区間変数(例
えば小節番号)に依存するパラメータC(メロディ計画
情報)を作成する。パラメータCは生成するメロディを
制御もしくは特徴づける性質をもっている。生成された
パラメータCはパラメータCメモリ11に格納される。
A read/write area is provided to store parameters specified by the user. During automatic composition, the CPU 9 uses parameter B, musical style identification data (data after decoding)
, create a parameter C (melody plan information) that depends on the motif feature parameters and the music progression section variable (eg, bar number). Parameter C has the property of controlling or characterizing the generated melody. The generated parameter C is stored in the parameter C memory 11.

ワークメモリ10には、CPU9が自動作曲するプロセ
スにおいて生成する中間データ(例えば、加工中のメロ
ディデータ)などが記憶される。
The work memory 10 stores intermediate data (for example, melody data being processed) generated by the CPU 9 in the process of automatically composing music.

メロディデータメモリ13には完成された曲を構成する
メロディデータが記憶される。
The melody data memory 13 stores melody data constituting a completed song.

完成された曲は必要に応じて、モニター14に出力する
ことができる0例えば、楽音形成回路17、サウンドシ
ステム18を通して試聴することができる。また、五線
譜プリンタ16より、楽譜の写しを得ることができる。
The completed song can be outputted to the monitor 14, for example, and can be previewed through the musical tone forming circuit 17 and the sound system 18, if necessary. Additionally, a copy of the musical score can be obtained from the staff notation printer 16.

モニター14を通じて使用者は1部分的に曲を修+Hす
ることを望む場合がある6本実施例においては、このよ
うな場合、CRT15と入力型221を介して、ユーザ
ーは修正を要求することができ、インターラクティブな
形式で修−正が実行される。修正されたデータは学習デ
ータメモリ12に知識として蓄植される。後の自動作曲
に際し。
The user may wish to partially modify a piece of music through the monitor 14. In this embodiment, in such a case, the user may request modification through the CRT 15 and the input type 221. Modifications can be made in an interactive manner. The corrected data is stored in the learning data memory 12 as knowledge. For later automatic composition.

CPU9はこの知識を利用して、メロディを生成する。The CPU 9 uses this knowledge to generate a melody.

外部記憶装2119は、完成した曲のバックアップコピ
ーや、学習した知識、その他の写し、あるいは1代りと
なる自動作曲プログラムの資源として利用される。
External storage 2119 is used as a backup copy of completed songs, learned knowledge, other copies, or as a resource for an alternative automatic composition program.

く自動作曲機1敞〉 次に11動作曲機の全体的な機能について、第2図を参
照して説明する。
Automatic music composer 1> Next, the overall function of the 11-move music composer will be explained with reference to FIG.

図に示すように、主な*f#、とじて、モチーフデータ
よりその特徴を評価、抽出するモチーフ特徴パラメータ
抽出手段FIOと、この手段FIOより与えられる情報
(包括的にPAで示しである)からメロディを制御する
ための情報(包括的にPCで示しである)を発生するメ
ロディ制御情報発生手段F20と、この手段F20より
与えられる情報PCに従って具体的にメロディ(単旋律
)を生成するメロディ生成実行手段F30がある。
As shown in the figure, the main *f#, a motif feature parameter extraction means FIO that evaluates and extracts its features from motif data, and information given by this means FIO (inclusively indicated by PA) a melody control information generating means F20 that generates information for controlling the melody (inclusively indicated by PC); and a melody control information generating means F20 that specifically generates a melody (single melody) according to the information PC given from this means F20. There is a generation execution means F30.

後の説明からさらに明らかとなるが、本発明の特徴は1
手段FIOに送り込まれる情報のなかに、モチーフに対
してユーザーが想定した和音情報(コードデータ)が含
まれる点と、手段FIO内において、この和音情報を活
用してモチーフの和声的特徴パラメータ(和声音数、弊
和声音数、分散和音の型など)を抽出する内部構成にあ
る。
As will become clearer from the explanation that follows, the features of the present invention are 1.
The information sent to the means FIO includes chord information (chord data) assumed by the user for the motif, and within the means FIO, this chord information is utilized to calculate the harmonic characteristic parameters of the motif ( It has an internal structure that extracts the number of harmonic tones, the number of harmonic tones, the type of dispersive chords, etc.).

和音情報は第1図において入力装置!を通じて入力され
た情報である。
Chord information is input device in Figure 1! This is the information entered through.

一方、メロディ制御情報発生手段F20はモチーフ特徴
パラメータPAを基にメロディを連想し、計画する能力
をもっており、メロディ生成実行手段F30はこの計画
(PCにより表現される)を解読し、計画に沿ってメロ
ディを生成する規則を備えている。広義には1手段F2
0とF30とによりメロディ生成手段が構成される。
On the other hand, the melody control information generation means F20 has the ability to associate and plan a melody based on the motif characteristic parameter PA, and the melody generation execution means F30 decodes this plan (expressed by the PC) and executes the melody according to the plan. It has rules for generating melodies. In a broad sense, 1 means F2
0 and F30 constitute a melody generating means.

一方、推論の面からはモチーフ特徴パラメータ抽il1
手段FIOとメロディ生成実行手段F30とは基本的に
逆の関係になっており、モチーフ特徴パラメータ抽出手
段FIOが具体的なモチーフ(入力メロディ)からその
エツセンスである4シ徴パラメータPAを導出する推論
能力を備えるのに対し、メロディ生成実行手段F30は
エツセンスであるメロディ特徴パラメータPCから具体
的なメロディを導出する推論能力を備えている。メロデ
ィ制御情報発生手段F20の計画空間は広大であり、F
A、IPcに反映させる度合を自由にそして多様にコン
トロールすることができる。
On the other hand, from the aspect of inference, motif feature parameter extraction1
The means FIO and the melody generation execution means F30 basically have an inverse relationship, and the motif feature parameter extraction means FIO derives the four-character parameter PA, which is the essence, from a specific motif (input melody). In contrast, the melody generation execution means F30 has an inference ability to derive a specific melody from the essence of the melody feature parameter PC. The planning space of the melody control information generating means F20 is vast, and F
A. The degree to which IPc is reflected can be freely and variously controlled.

このF20のセクション内に示すパラメータBと楽人識
別データは、ユーザーが入力装Mlを介して作成したデ
ータであり得る。使用するパラメータBと楽人識別デー
タが変われば、メロディ制御情報発生手段F20が出力
する制御パラメータ(pc)も変化する。
The parameter B and musician identification data shown in this section F20 may be data created by the user via the input device Ml. If the parameter B and musician identification data used change, the control parameter (pc) output by the melody control information generating means F20 also changes.

一般に曲はその進行に従って変化する。しかし、限られ
た時間を見れば、ある特徴は固定的である0本自動作曲
機はこの点をも配慮しており。
Generally, a song changes as it progresses. However, if you look at the limited time, certain characteristics are fixed.The automatic music composer takes this point into consideration.

固定的とみなす「区間」の単位の概念をもっている0例
えば、モチーフ特徴パラメータ抽出手段FIO内の各機
能はある区間を単位としてFAを抽出する。同様に、メ
ロディ制御情報発生手段F20はある区間ごとに割り当
てられたPCの値をメロディ生成実行手段F30に渡し
、メロディ生成実行手段F30はそのPCの値を用いて
その区間のメロディを生成する。もちろん、このことは
、すべてのPCが同じ区間を単位として変化するという
意味ではない(FAについても同様)。
For example, each function in the motif feature parameter extraction means FIO extracts FA using a certain interval as a unit. Similarly, the melody control information generation means F20 passes the PC value assigned to each section to the melody generation execution means F30, and the melody generation execution means F30 generates a melody for that section using the PC value. Of course, this does not mean that all PCs change in the same section (the same applies to FA).

PCの種類により、値が固定化できる区間は一般に等し
くはならない、したがって、原理的には。
Depending on the type of PC, the intervals in which values can be fixed are generally not equal, so in principle.

PCの種類ごとに異なる区間の単位をもたせ1種類別に
、異なる区間で値を発生させるようにすることも可能で
ある。しかし、このことは、処理を複雑化する。そこで
実施例では、PCの種類よりはるかに少ないJ4類の区
間、好ましくはすべてのPCについて共通となり得る単
位の区間(最大公約数の区間)を使用する。モチーフ特
徴パラメータ抽111手PIFIGについても同様であ
る。
It is also possible to have different interval units for each type of PC and generate values in different intervals for each type. However, this complicates the process. Therefore, in the embodiment, an interval of class J4, which is far fewer than the types of PCs, is used, preferably an interval of a unit that can be common to all PCs (an interval of the greatest common divisor). The same applies to the motif feature parameter extraction 111 PIFIG.

第9図から第49図の構成においては、最も単純化され
た例として、各機能FIO,F20、F30が共通の区
間をもつようにしている。この区間として「1小節」を
選んでいる。もちろん、本自動作曲機はこれに限定され
るものではなく、2つ以−1の異なるrK間を各aI能
がもち得る。Nえば、音高列に対する区間と音長列に対
する区間は常に同一である必要はない、また1手fiF
20が小節ごとにPC値を割り当てるのに対し、コード
進行は小節を単位としない区間で進行させることも可能
である。
In the configurations shown in FIGS. 9 to 49, as the most simplified example, each function FIO, F20, and F30 has a common section. "1 bar" is selected as this section. Of course, the present automatic music composer is not limited to this, and each aI function can have two or more different rK ranges. For example, the interval for the pitch sequence and the interval for the note length sequence do not always have to be the same, and one-move fiF
20 assigns a PC value to each measure, whereas chord progressions can also be made to progress in sections that do not have measures as units.

第2図の主機能FIO,F20、F30の詳細について
述べよう。
Let us now discuss the details of the main functions FIO, F20, and F30 in FIG.

FIOのセクシ璽ンには入力情報として、ユーザー入力
に係るモチーフ以外に、そのモチーフに対しユーザーが
指定した和音情報(コードデータ)が送り込まれる。こ
のモチーフのコードはセクションFIO内部のモチーフ
音高パターン抽出手段Fil、特に非和声音抽出手段F
il−IAにおいて使用される。すなわち1手段Fl 
1−IAは、受は取った和音の構成音と同じ音名をもつ
モチーフノートを和声音と推論し、和音構成音と不一致
のモチーフノートは非和声音と推論する。したがって、
非和声音抽出手段Fll−IAのロジック構成は非常に
シンプルであり、いったん和音情報とモチーフが与えら
れれば、モチーフの各音に対する和声音/非和声音の区
−を一義的に行うことができる。にもかかわらず、ユー
ザーが別の和音情報を指定した場合には、別の解釈を行
う、モチーフやメロディのラインに妥当する和音が何で
あるかは1作曲者、J!!曲者あるいは演奏家が表現し
ようとする音楽世界と係っており、一般に一義的に決定
し得ない、逆にいえば1本発明は、ユーザーの表現した
い音楽を、ユーザーからの和り指定のrがかりに推論を
行っており、和音指定が変更されれば、生成されるメロ
ディにもそのことが反映される仕組になっている。
In addition to the motif related to the user input, chord information (chord data) specified by the user for the motif is sent to the FIO sexy code as input information. The code of this motif is stored in the motif pitch pattern extraction means Fil inside the section FIO, especially the non-harmonic sound extraction means F.
Used in il-IA. That is, one means Fl
1-IA, the Uke infers that a motif note with the same note name as a constituent note of the chord taken is a harmonic tone, and a motif note that does not match the chord constituent notes is inferred to be a non-harmonic note. therefore,
The logic configuration of the non-harmonic sound extraction means Fll-IA is very simple, and once chord information and a motif are given, it is possible to uniquely distinguish between harmonic and non-harmonic sounds for each sound of the motif. . Nevertheless, if the user specifies different chord information, a different interpretation will be made, and it is up to one composer, J! ! It is related to the musical world that the composer or performer is trying to express, and it cannot be determined uniquely in general. It makes inferences based on R, and if the chord designation is changed, it is also reflected in the generated melody.

セクションFIGにおいて、非和声音分類手段Fll−
IBは、上記手段Fl 1−IAによる和声2′f/非
和声音の識別結果を基に、モチーフデータのa列を分析
し1個々の非和声音がどのタイプの非和声ηに属するか
を決定しているところである。すなわち、和声音対相和
声音というレベルより、さらに細かいレベルでモチーフ
の和声的解釈を行っている。このことの意味は、自動作
曲機のメロディ生成部(F20、F30)とも係ってお
り、メロディ生成部には、各種の非和声音の特徴様式パ
ラメータ(PCのなかに含まれている)を発生する部分
(F20内にある)と、これらのパラメータに従って非
和声音を和声音の前後あるいは和声音間に付加する部分
(F31−2A)があり、これらの協働作Xにより、メ
ロディラインにおける和声音/非和声音の特徴様式をき
め細か〈制御している。
In section FIG, the non-harmonic sound classification means Fll-
IB analyzes the a column of the motif data based on the identification results of harmonic 2'f/non-harmonic sounds by means Fl 1-IA, and determines to which type of non-harmonic η each non-harmonic sound belongs. We are in the process of deciding what to do. In other words, the motif is interpreted harmonically at a more detailed level than the level of harmonic tones versus relative harmonic tones. The meaning of this is also related to the melody generation section (F20, F30) of the automatic music composer, and the melody generation section has various non-harmonic sound characteristic style parameters (included in the PC). There is a part (inside F20) in which non-harmonic sounds are generated, and a part (F31-2A) in which non-harmonic sounds are added before, after, or between harmonic sounds according to these parameters. Fine-grained control over the characteristic patterns of harmonic/non-harmonic sounds.

分散和音パターン(音高)抽出手段Fl 1−2は、モ
チーフから非和声音を取り除いた音高のパターン、つま
り分散和音のJ!!(後述するLLI)を抽出する部分
である。
The dispersion chord pattern (pitch) extraction means Fl 1-2 extracts a pitch pattern obtained by removing non-harmonic sounds from the motif, that is, a dispersion chord J! ! This is the part that extracts LLI (described later).

一方、モチーフ音長(リズム)パターン抽出手段F12
はモチーフのtfIi列に関する特徴を抽出する機能で
ある。その構成要素である特徴ミニパターン抽出手段F
12−1はモチーフに含まれる特徴的な小さな音長列を
抽出し、分散和音(リズム)パターン抽出手段F12−
2は。
On the other hand, the motif length (rhythm) pattern extraction means F12
is a function that extracts features related to the tfIi sequence of motifs. Feature mini-pattern extraction means F, which is a component thereof
12-1 extracts a characteristic small tone length sequence included in the motif, and extracts a dispersion chord (rhythm) pattern extraction means F12-
2 is.

モチーフに含まれる非和声音の音長を和声音の音長に吸
収させて和声音のみの音長列を形成する。
The tone lengths of non-harmonic tones included in the motif are absorbed into the tone lengths of harmonic tones to form a tone length sequence of only harmonic tones.

上記諸要素のうち、Fil−IB、Fll−2、F12
−2は非和声音抽出手段Fil−IAの結果を受けて動
作する。これらの手段は、第2図の構成において、和声
的特徴パラメータを抽出する機能である。より一般的に
いうと、和声的特徴パラメータはモチーフやメロディラ
インにおける和7h音や非和声音の様式、スタイルを特
徴づけるパラメータである。
Among the above elements, Fil-IB, Fll-2, F12
-2 operates in response to the result of the non-harmonic sound extraction means Fil-IA. These means are functions for extracting harmonic feature parameters in the configuration shown in FIG. More generally, the harmonic characteristic parameter is a parameter that characterizes the mode and style of the harmonic 7h tone and non-harmonic tone in a motif or melody line.

メロディ制御情報発生手段F20のブロック内にはに間
カウンタF23の示す区間番号に依存するパラメータを
発生する進行依存パラメータ発生手段F22が示されて
いる。このようなパラメータのなかには1曲進行により
規則的に変動するパラメータも含まれ、この種のパラメ
ータはF22−1で示す規則変動パラメータ発生手段F
22−1により生成される0手段F22が発生するパラ
メータに1対して、乱数発生手段F24が作用し、パラ
メータによりコントロールされた乱数あるいは変動を同
パラメータに導入することができる。
In the block of the melody control information generating means F20, there is shown a progress dependent parameter generating means F22 which generates a parameter depending on the section number indicated by the interval counter F23. These parameters include those that vary regularly as one song progresses, and these parameters are generated by the regularly varying parameter generating means F indicated by F22-1.
The random number generating means F24 acts on the parameter 1 generated by the zero means F22 generated by the random number generating means F22-1, and can introduce a random number or fluctuation controlled by the parameter into the parameter.

上記F22とF23の要素は、PCのなかに、上述の性
質をもつパラメータが含まれることを示すために図示し
たものであり、また、演算型でない型式(例えばパラメ
ータCのデータベース)でもパラメータC(メロディ制
御情報)を発生できることを明らかにするために示した
ものである。実際には、本実施例では、パラメータCを
演算型で発生させており、この演算を実行する部分がF
21で示す演算手段である。演算手段F21は、−r段
FIOからのモチーフ特徴パラメータFA、11で示す
パラメータBの情報、小節カウンタF23−1の示す小
t1:1番号、楽人識別データ発生手段F25からの楽
式識別データを入力として受け、これらの入力を変数と
してパラメータCを演算する。楽人a別データ発生手段
F25は楽節カウンタF25−1をもっており、これを
使って楽式識別データ■2より特定の楽節に関する情報
を選択する。楽節に関する情報のなかには楽節のタイプ
(反復型、展開5りが含まれている。楽式識別データ発
生手段F25は小節カウンタF23−1の示す小mIR
号を読み、その小節番号と楽節との位置関係を検査し、
その検査結果に基づいて関連する楽式識別データを解読
(デコード)する、解読された楽式識別データが演算子
段F21に渡される。楽式識別データ発生手段F25の
役割は、曲におけるより高次の階層性をケ・えることで
ある。
The above elements F22 and F23 are shown to show that parameters with the above-mentioned properties are included in the PC, and even in a non-arithmetic type (for example, a database of parameter C), the parameters C ( This is shown to clarify that it is possible to generate melody control information). Actually, in this embodiment, the parameter C is generated using a calculation type, and the part that executes this calculation is F.
It is a calculation means indicated by 21. The calculation means F21 calculates the motif characteristic parameter FA from the -r stage FIO, the information on the parameter B indicated by 11, the small t1:1 number indicated by the measure counter F23-1, and the musical style identification data from the musician identification data generation means F25. is received as input, and the parameter C is calculated using these inputs as variables. The musician a-specific data generating means F25 has a passage counter F25-1, which is used to select information regarding a specific passage from the musical style identification data (2). The information regarding the passage includes the type of passage (repetitive type, expansion type).The musical style identification data generating means F25 uses the minor mIR indicated by the measure counter F23-1.
Read the number, check the positional relationship between the measure number and the musical passage,
The decoded musical style identification data is passed to the operator stage F21, which decodes the relevant musical style identification data based on the test result. The role of the musical style identification data generating means F25 is to create a higher level of hierarchy in a piece of music.

以−Lの説明かられかるように、メロディ制御情?41
発生−ト段F20より出力されるPCはさまざまであり
、あるPCは比較的長期にわたって一定であり、あるP
Cは単位区間(ここでは1小節)に匹適する程度のサイ
クルで変動し、あるPCは楽人の影響を受け、特定の区
間、ポイントで別の値に変化する。といった具合である
。パラメータBの値、楽式識別データの値、演算子段F
21が使用する関数のタイプなどにより、同じFAであ
っても、実にさまざまなPCが発生することになる。
As you can see from the explanation of I-L, is it about melody control? 41
There are various PCs output from the generation stage F20, and some PCs are constant over a relatively long period of time, and some PCs are constant over a relatively long period of time, and some
C fluctuates in a cycle suitable for a unit interval (here, one measure), and a certain PC is influenced by the musician and changes to a different value at a particular interval or point. This is how it goes. Value of parameter B, value of musical style identification data, operator stage F
Depending on the type of function used by 21, even in the same FA, various PCs may occur.

換言すれば、パラメータPCは曲の局部的な様式上の特
徴、もう少し広い範囲での様式的な特徴、規則的に現わ
れるような様式的な特徴、メロディの流れにおける階層
的な様式、メロディの流れにおける非和声音の構造的な
特徴様式、メロディの流れにおける規則的もしくは準規
則的な変化の様式1凸金体にわたる特徴などをパラメー
タ表現したものである。
In other words, the parameters PC include local stylistic features of a song, stylistic features over a broader range, stylistic features that appear regularly, hierarchical styles in the flow of the melody, and the flow of the melody. It is a parametric expression of the structural features of non-harmonic sounds, the features of regular or quasi-regular changes in the flow of the melody, etc.

メロディ生成実行手段F30はその主要素として、音高
列生成手段F31と音長列生成手段F32とを有してい
る。IIF高列高利手段F31は、コード進行データ■
3からの進行中のコードとメロディ制御情報発生手段F
20か“らのPCそのものか、乱a発生手段F31−4
により変動が導入されたPCとを使用して分散和音の音
高列を発生する分散和音発生手段F31−1と1発生さ
れた分散和音の前後あるいは間に、PCの計画に沿って
かつ内部の付加ルールに従って非和声音を付加する非和
声音付加手段F31−2とを有している。各非和声音分
類付加手段F31−2Aは手段F31−2の一構成例で
ある。F31−3は使用音高制御手段であり、上記の手
段F31−1またはF31−2においてその生成過程に
おいて得られたメロディノートの候補についてその使用
を側御する機能をもっている。すなわち、使用音高制御
手段F31−3はノコトスケール発生手段F31−3A
により音階の各音高に重みをつけたデータを発生させ、
有効音高検査手段F31−3Bにその屯みに基づいて候
補の音高の有効性を検査させる。検査に合格したメロデ
ィノートは手段F31−1.F31−2に送り返され、
ここで正式のメロディノートとして使用される。
The melody generation execution means F30 has as its main elements a pitch sequence generation means F31 and a tone length sequence generation means F32. IIF high-row usury means F31 is chord progression data■
Current chord and melody control information generation means F from 3
Is it the PC itself from 20, or the random a generation means F31-4?
Dispersed chord generating means F31-1 generates a pitch sequence of a dispersive chord using a PC in which fluctuations are introduced. The non-harmonic sound adding means F31-2 adds a non-harmonic sound according to addition rules. Each non-harmonic sound classification adding means F31-2A is an example of the structure of the means F31-2. F31-3 is pitch control means, which has a function of controlling the use of melody note candidates obtained in the generation process of the means F31-1 or F31-2. That is, the used pitch control means F31-3 is the Nokoto scale generation means F31-3A.
generates data that weights each pitch of the scale,
The effective pitch testing means F31-3B is caused to test the validity of the candidate pitch based on the result. The melody note that passed the test is the means F31-1. Sent back to F31-2,
It is used here as the official melody note.

ff長長月生成段F32は最適結合手段F32−1と最
適分割手段F32−2と特徴パターン組込千FIF32
−3より構成され、PCの計画に従って音長列を生成す
る。最適結合子段F32−1と最適分割手段F32−2
は本実施例の場合1分散a音の音長列を形成するのに使
用される。最適結合手段F32−1は初期の音長列(例
えばFIOの分散和音(リズム)パターン抽出手段F1
2−2により抽出された分散和音パターンまたはこれを
修飾したパターン)を基に、目標とする分散和音の音符
数(PCによって与えられる)になるまで最小の結合回
数で音長を結合する。同様に、最適分割手段F32−2
は初期の音長列を分散和音数PCに達するまで最小の分
割回数で音長を分割する。さらに1両手段F32−1.
F32−2はパルススケールを使用して分割、結合を実
行する。パルススケールはPC(メロディ計画情報)の
一種として手段F20より与えられるようにしてもよい
が、後述の具体例では5両手段の分割、結合ルールのな
かにパルススケールが内在している。一方、特徴パター
ン組込手段F32−3は関連するPCに従って動作し、
メロディの音長列のなかに特徴ミニパターンを組み入れ
る0本例では、メロディの生成の最終過程で特徴ミニパ
ターンを注入するようにしている。
The ff Nagatsuki generation stage F32 includes an optimal combining means F32-1, an optimal dividing means F32-2, and a feature pattern incorporating thousand FIF32.
-3, and generates a tone length sequence according to the PC plan. Optimal connector stage F32-1 and optimal dividing means F32-2
In this embodiment, is used to form a tone length sequence of the unidispersion a-tone. The optimum combination means F32-1 is an initial tone length sequence (for example, FIO's dispersion chord (rhythm) pattern extraction means F1).
2-2), the note lengths are combined using the minimum number of combinations until the target number of notes of the dispersed chord (given by the PC) is reached. Similarly, optimal dividing means F32-2
divides the initial tone length sequence by the minimum number of divisions until the number of distributed chords PC is reached. In addition, one vehicle means F32-1.
F32-2 executes division and combination using a pulse scale. The pulse scale may be given by the means F20 as a type of PC (melody planning information), but in the specific example described later, the pulse scale is included in the division and combination rules of the five means. On the other hand, the feature pattern incorporating means F32-3 operates according to the related PC,
In this example of incorporating feature mini-patterns into the note length sequence of a melody, the feature mini-patterns are injected in the final process of melody generation.

i1J1手段F33は、メロディ生成実行手段F30の
各要素の起動や要素間のデータの転送を制御するための
ものである。メロディ生成実行手段F30の実行結果で
あるメロディデータはメロディデータメモリ13(第1
図)に格納される。
The i1J1 means F33 is for controlling activation of each element of the melody generation execution means F30 and data transfer between elements. The melody data that is the execution result of the melody generation execution means F30 is stored in the melody data memory 13 (first
(Figure).

く詳細事項〉 第3図から第49図までに、各種のデータ、モチーフ特
徴パラメータAの抽出、制御パラメータCの発生、メロ
ディの具体的発生について、詳細を示しである0紙面の
都合上1本発I11の特徴部分を除き、その詳細な説明
は割愛する。当業者には、フローチャ・−ト等の明確な
記述から、実施可能なレベルまでその内容を容易に理解
できよう。
Details> Figures 3 to 49 show details regarding various data, extraction of motif characteristic parameter A, generation of control parameter C, and specific generation of melody. A detailed explanation will be omitted except for the characteristic parts of I11. Those skilled in the art will be able to easily understand the contents to an implementable level from clear descriptions such as flowcharts.

理解の助けとしていくつかを簡単に述べよう。Let me briefly mention some of them to help you understand.

第3図に主変数のリストが示され、第4図にパラメータ
Cのリストが示されている。これらのリストに示す各パ
ラメータの記号は、第9図から第49図までのフローチ
ャートで使用する記号と一致している。これらのフロー
において、音高データの割当は第5図のbに示すように
なっており。
A list of main variables is shown in FIG. 3, and a list of parameters C is shown in FIG. The symbols for each parameter shown in these lists match the symbols used in the flowcharts from FIG. 9 to FIG. 49. In these flows, pitch data is assigned as shown in FIG. 5b.

クロマチックスケール上の連続する音高に連続する整数
値を与えている。また、音長については、1小節を16
等分したときの音長を単位としている。したがって16
分音符の音長は1″であり、8分音符の音長は2″であ
る(第6図のモチーフデータの欄に示した音長データM
Diと音高データMRiを参照されたい)。
Continuous integer values are given to consecutive pitches on the chromatic scale. Also, regarding the note length, one measure is 16
The unit is the length of the tone when divided into equal parts. Therefore 16
The pitch length of a diacritic note is 1", and the pitch length of an eighth note is 2" (note length data M shown in the motif data column in Figure 6).
(Please refer to Di and pitch data MRi).

第6図のモチーフデータ、コード構成音データ、コード
進行データ、楽式識別データ、音階の重みデータ、及び
第7図のパラメータCのデータを入力条件としたときに
得られるメロディを第8図に例示しである。
Figure 8 shows the melody obtained when the motif data, chord composition note data, chord progression data, musical style identification data, scale weight data in Figure 6, and parameter C data in Figure 7 are input conditions. This is an example.

モチーフからメロディを生成するまでの全体的プロセス
は、最初がモチーフの評価すなわちモチーフ特徴パラメ
ータ(PA)の抽出であり。
The entire process of generating a melody from a motif begins with the evaluation of the motif, that is, the extraction of motif characteristic parameters (PA).

FA確定後は、メロディの単位区間(小wJ)の制御パ
ラメータ(PC)の演算であり、PC確定後は具体的な
メロディ生成である。
After the FA is determined, the control parameters (PC) of the unit section (small wJ) of the melody are calculated, and after the PC is determined, the specific melody is generated.

モチーフからモチーフ特徴パラメータAを抽出する処理
関係は第9図から第20図に示されている。
The processing relationship for extracting the motif feature parameter A from the motif is shown in FIGS. 9 to 20.

ここにおいて、第9図、第1θ図、第11A図、第11
B図が本発明の特徴と関係する非和声音抽出1分類の部
分であり、これらについて詳細に説明しよう。
Here, Fig. 9, Fig. 1θ, Fig. 11A, Fig. 11
Figure B shows the first classification of non-harmonic sound extraction that is related to the features of the present invention, and these will be explained in detail.

左1jソL腹声 第9図に非相声音抽出のフローチャートを例示する。そ
のノ^本ロジックは次の通りである。すなわち、モチー
フノートのうち、コードの構成音と一致しないh名をも
つ音は非和声音とする。逆にいえば、コードの構成音は
いずれも和声音とするロジックである。
Left 1j So L Abdominal Voice FIG. 9 illustrates a flowchart for extracting incoherent tones. The basic logic is as follows. That is, among the motif notes, a note having an h name that does not match the constituent notes of the chord is considered a non-harmonic note. In other words, the logic is that all the constituent notes of the chord are harmonic tones.

詳細に述べると、9−1から9−4までの部分で、モチ
ーフメモリ6にあるモチーフデータの音高列(MDi)
を7−クメモリlO上に用意されたエリア(HD i 
)に転送している。つまり、モチーフデータの音高デー
タをすべてHDiに代入している。ついでに述べると、
本例ではモチーフの各ノートは対を成す音高データと音
長データで表現している。ただし、休符には音高の概念
が存在しないので、音高データに特別の値を入れること
でそれを表現している。
To be more specific, in the section from 9-1 to 9-4, the pitch sequence (MDi) of the motif data in the motif memory 6 is
7- Area prepared on the memory IO (HD i
). In other words, all the pitch data of the motif data is assigned to HDi. By the way,
In this example, each note of the motif is expressed by a pair of pitch data and duration data. However, since there is no concept of pitch for rests, this is expressed by inserting a special value into the pitch data.

9−5から9−15で配列(HDi)のi#ilのa符
について、それが和声音か非和声音であるかをコード構
成音と間合することにより識別している、識別結果は、
「非和声音」の場合にHDiに固有の値(図ではマイナ
ス20)を入れることで記憶している。jはコード構成
音の番号を示している。説明の便宜上1本例では、コー
ドは、独立の4声か、オクターブ差の2声を含む独立の
3声の場合のみを考慮している。さらに、このことと適
合させるため、コードaI&音メモリ3(第1図)には
、各コードの構成音データとして4つのデータがある。
From 9-5 to 9-15, for the a note of i#il in the array (HDi), whether it is a harmonic tone or a non-harmonic tone is identified by comparing it with chord constituent notes.The identification results are as follows. ,
In the case of a "non-harmonic sound", a unique value (-20 in the figure) is stored in HDi. j indicates the number of chord constituent notes. For convenience of explanation, this example considers only the case where the chord has four independent voices or three independent voices including two voices with an octave difference. Furthermore, in order to comply with this, the chord aI & tone memory 3 (FIG. 1) has four pieces of data as constituent tone data of each chord.

このフローにおいて、コード構成音の音高データはKD
jで示されている。添字のjは、下からjJt目の高さ
のコード構成音であることを示している。
In this flow, the pitch data of the chord constituent notes is KD
It is indicated by j. The subscript j indicates that the chord component note is at the height jJt from the bottom.

9−7に示すように、着口しているモチーフノートが休
符のときは、非和声音でないので次のモチーフノートの
チェックに移る。9−8と9−9はそれぞれ、モチーフ
の音名とコード構成音の音名を算出しているところであ
る(オクターブ番号の概念の消去)、9−10は音名の
一致、不一致のチェックであり、一致であれば、着目し
ているモチーフノートは「和声音」であるので次の音符
のチェックに移る。不一致のときは、次のコード構、J
&9との照合に進めるため、9−12でjをインクリメ
ントし、9−7以下をくり返す。
As shown in 9-7, when the starting motif note is a rest, it is not a non-harmonic note, and the process moves on to checking the next motif note. 9-8 and 9-9 are calculating the note names of the motif and chord constituent notes, respectively (eliminating the concept of octave numbers), and 9-10 is checking whether the note names match or do not match. If there is a match, the motif note of interest is a "harmonic note" and the process moves on to checking the next note. If there is a mismatch, use the following code structure, J
In order to proceed to the comparison with &9, j is incremented at 9-12, and steps 9-7 and subsequent steps are repeated.

9−11でj≧4が成立するのは、着目しているモチー
フノートをコードのすべての構成音と比較したが、その
いずれとも不一致の場合であり、つまりは「非和声音」
の場合である。したがって、9−13でそのモチーフノ
ートのtf D 7−タHDiに非和声音の識別値を代
入する。9−14のNoはモチーフの音符の総数である
。したがって、I≧Noが成立するとき、モチーフのす
べての音符について、それが非和声音かどうかの識別が
完了している。よって、非和声音抽出処理は終了する。
In 9-11, j≧4 holds true when the motif note we are looking at is compared with all the constituent notes of the chord, but none of them match; in other words, it is a "non-harmonic note".
This is the case. Therefore, in 9-13, the identification value of the non-harmonic tone is substituted into tfD7-taHDi of the motif note. Nos. 9-14 are the total number of notes in the motif. Therefore, when I≧No holds true, the identification of whether or not all notes of the motif are non-harmonic notes has been completed. Therefore, the non-harmonic sound extraction process ends.

L塵Jゴ1矢匁苅 非和声音の分類は、J−述したように非和声音の抽出結
果を基に、モチーフのa列をパターン分析することによ
り行われる。
Classification of non-harmonic sounds is performed by pattern analysis of the a sequence of motifs based on the extraction results of non-harmonic sounds as described above.

分類化のロジックはいくつか考えられる。第1O図は第
1の分類化ロジックによるフロー例であり、第11A図
と第118図は、それぞれ第2と第3の分類化ロジック
によるフロー例である。
There are several possible classification logics. FIG. 1O is a flow example based on the first classification logic, and FIGS. 11A and 118 are flow examples based on the second and third classification logic, respectively.

第1θ図から説明する。10−1において、モチーフ音
符番号lを′l”に初期化し1次に。
This will be explained starting from Fig. 1θ. In step 10-1, the motif note number l is initialized to 'l' and becomes primary.

HDi≧Oになるまでiをインクリメントする(10−
1、I 0−2) 、 I(D i≧0はi番目の音符
が和声音であることを表わす、10−4で五をインクリ
メントしていることから推測されるように、モチーフの
先頭からチェックして最初の和声音までにある非和声音
は他と区別している0図示のフローではこの非和声音の
HDiはマイナス20のまま抜ける(倚音、HDi=−
20)。
Increment i until HDi≧O (10-
1, I 0-2), I (D i≧0 indicates that the i-th note is a harmonic tone. As inferred from the increment of five in 10-4, from the beginning of the motif Check to distinguish the non-harmonic sounds up to the first harmonic sound from others.0 In the flow shown in the figure, the HDi of this non-harmonic sound remains minus 20 (Sound, HDi = -
20).

1O−5は着口している音符が和声音もしくは休符であ
るかどうかのチェックであり、成立するときはそのHD
jを変更する必要はないので次の音符処理に進む、不成
立のとき、2.の音符は非和声f(である、10−6で
は、着口している音符より1つ手市の音符と1つ後の音
符とが同じ高さかどうかを見ており、成シするときはH
Di=−30(刺しゅう音、tO−a)を実行する。つ
まり1着目している音符は刺しゅう音であると結論する
。不成立のときは音高不一致とみてHDi冨−40(経
過音、1O−7)を実行する。つまり、経過音であると
結論する。
1O-5 is a check to see if the starting note is a chord tone or a rest, and if it is true, the HD
There is no need to change j, so proceed to the next note processing.If not established, 2. The note is a non-harmonious f().In 10-6, it is checked whether the note one position below the starting note and the note one note after are at the same height. is H
Execute Di=-30 (embroidery sound, tO-a). In other words, we conclude that the first note we are focusing on is an embroidery note. If this is not the case, it is assumed that the pitch does not match, and HDi-40 (passing tone, 1O-7) is executed. In other words, we conclude that it is a passing sound.

非和声音であり、かつ最後の音符のときは、チェック1
0−9において1=Noが成立する。
If it is a non-harmonic note and it is the last note, check 1.
1=No holds true for 0-9.

この非和声音は通合とみてHDi−−60を実行する(
10−10)、、、10−11?i<Noが成tすると
きは、亥た、すべての音符に対する非和声音分類が完了
していないので、i=L+1(10−4)に戻り1次の
音符の分析に移る。
This non-harmonic tone is treated as a consensus and HDi--60 is executed (
10-10),,,10-11? When i<No, the non-harmonic sound classification for all the notes has not been completed, so the process returns to i=L+1(10-4) and moves on to the analysis of the first-order notes.

なお、第10図の処理の結果書られるHDiの4種類の
非和声音識別値に対して付けた名称、すなわち「倚a」
、「経過音」、「刺しゅう盲」。
In addition, the name given to the four types of non-harmonic sound identification values of HDi written as a result of the processing in FIG. 10, that is, "倚a"
, "passing sound", "embroidery blindness".

「逸n Jは巾に説明の便宜のためである。このことは
第11Aと第118図についても同様である。
"I n J" is for convenience of explanation. This also applies to Figures 11A and 118.

:jSllA図に示す非和声音分類は第1θ図とほとん
ど同じである。相違は、IIA−6と11A−7に示す
処理が加わっている点である・11A−6に示す計算、
すなわち、 a+  = (NDt−+  −MDi ) X (N
Di−N[l+−+ )は、連続する3つの音の間に形
成される音高差同士の乗算である。
:jThe classification of non-harmonic sounds shown in the SllA diagram is almost the same as in Figure 1θ. The difference is that the processing shown in IIA-6 and 11A-7 is added.・The calculation shown in 11A-6,
That is, a+ = (NDt-+ -MDi)
Di-N[l+-+) is a multiplication of pitch differences formed between three consecutive tones.

したがって、alが正となるとき、3つの音は高さが単
調に変化(上昇または下降)していることになる、この
成立の有無はIIA−7でみており、成立すればHDi
にマイナス40を入れて。
Therefore, when al is positive, the pitches of the three tones are monotonically changing (rising or falling). Whether or not this holds true is checked with IIA-7, and if it holds, HDi
Put minus 40 in.

経過音であると結論づけている。It is concluded that it is a passing sound.

第11B図は第3のロジックによる非和声音分類のフロ
ーチャートである。第10図に示す非和声音分類との比
較かられかるように、(イ)経過音に関する知識(チェ
ック項目)が増やされ、(ロ)倚音と結論する条件が若
干変更されている。
FIG. 11B is a flowchart of non-harmonic sound classification according to the third logic. As can be seen from the comparison with the non-harmonic sound classification shown in FIG. 10, (a) the knowledge (check items) regarding transition sounds has been increased, and (b) the conditions for concluding that they are strident sounds have been slightly changed.

すなわち、ある非和声音(HDi)の藺後を含めた3つ
の音(MDト+ 、MDi、NDt−+ )が単調な音
高変化であり(11B−6、IIB−8、IIB−9参
照)、かつ1つ前の音との音高差が半音か全盲のとき(
IIB−10成立のとき)のみ、その非和声音(HDi
)を経過音(HDi=−40)と結論づける。この経過
音の条件が成立しないとき、その非和声音は倚音と結論
される。もう少し詳しく述べると、11B−6に示す刺
しゅう音の条件、11B−8からIIB−11に至るま
での経過音の条件、IIB−12に示す適音の条件、の
いずれにも該当しない非相7i1 R,は倚音と結論さ
れる(HDiはマイナス20のまま抜ける)。
In other words, the three tones (MDt+, MDi, NDt-+) including the end of a certain non-harmonic tone (HDi) have monotonous pitch changes (see 11B-6, IIB-8, IIB-9). ), and the pitch difference from the previous note is a semitone or completely blind (
IIB-10), the non-harmonic tone (HDi
) is concluded to be a passing sound (HDi=-40). When this condition for transitional sounds does not hold true, the non-harmonic sound is concluded to be a soaring sound. To explain in more detail, non-phase 7i1 that does not meet any of the embroidery sound conditions shown in 11B-6, the transition sound conditions from 11B-8 to IIB-11, and the appropriate sound conditions shown in IIB-12. It is concluded that R is a wheezing sound (HDi exits with minus 20).

第12図以降の説明に移る。The explanation will move on to FIG. 12 and subsequent figures.

第12図のリズム評価では、a長比が3対l、1対3.
1対1.2対1対1.1対2対1.1対1対2の各ミニ
パターンが、 fff’価対象であるモチーフにどのく
らい含まれるかを調べており、その結果を各パターンの
カウンタHR1”HI3に設定している。
In the rhythm evaluation shown in Figure 12, the a-length ratio is 3:1, 1:3.
We are investigating how much each mini-pattern of 1:1.2:1:1.1:2:1.1:1:2 is included in the motif that is the fff' valence target, and the results are compared to each pattern. The counter HR1 is set to HI3.

第13図に示すパラメータ抽出は、L述したモチーフの
弄和P音抽出1分類の後に行われる処理であり、ここで
各種のパラメータA (FA)を抽出している。
The parameter extraction shown in FIG. 13 is a process that is performed after the first classification of motif tones and P sounds extracted as described above, and various parameters A (FA) are extracted here.

13−1の詳細は第14図に例示されており。The details of 13-1 are illustrated in FIG.

このフローでは、モチーフの分散和音の合壁を求めてい
る。配列(LLi)に合壁のデータが設定される0例え
ば、(LLi) = (3,2,110,1)のときは
、次を意味する。最初のu 3 sはモチーフの最初に
現われる和声音が、モチーフに含まれるすべての和声音
のうちで下から3番目の高さであること1次の“2”は
、2mUJに現われる和声音が、モチーフの全和声音の
うちで下から2番目の高さであること、以下、同様であ
る。
In this flow, we are looking for a joint wall for the dispersed chords of the motif. For example, when (LLi) = (3, 2, 110, 1), the data of the joint wall is set in the array (LLi), it means the following. The first u 3 s means that the first harmonic sound in the motif is the third highest from the bottom among all the harmonic sounds included in the motif.The first order "2" means that the harmonic sound that appears at 2mUJ is , it is the second highest height from the bottom among all the harmonic tones of the motif, and so on.

ただし、′0”はその音符が休符であることを示してい
る(第14図の例、参N)。
However, '0' indicates that the note is a rest (see example N in Figure 14).

13−2の詳細は第15図に例示されている。The details of 13-2 are illustrated in FIG.

第15図のフローでは、モチーフの音長パターンを和声
音のみの音長パターン(モチーフ分散和音パターン)に
変換している。つまり、モチーフに含まれる非和声音の
音長を和声音に吸収させている。第16図は第15図の
フローに内在するパルススケールであり、このパルスス
ケールを使ってモチーフ分散和音パターンを得ている。
In the flow shown in FIG. 15, the motif tone length pattern is converted into a tone length pattern of only harmonic sounds (motif dispersed chord pattern). In other words, the length of the non-harmonic sound included in the motif is absorbed into the harmonic sound. FIG. 16 shows a pulse scale inherent in the flow shown in FIG. 15, and this pulse scale is used to obtain a motif dispersed chord pattern.

モチーフのオリジナル音長パターンから分散和音パター
ンへの変換は、基本的に次の原理に従っている。すなわ
ち、現音符(非和声音)のパルススケール上の重みと次
ぎ符のパルススケール上の重みを比較し1次音符の開始
位21SUMの方が重いときは、現音符のa長MRIを
その藺にある和声音RHNに吸収させ、現音符の開始位
21SUMHの方が重いときは、その音長MRiを次の
和声音RHN−1に吸収させる。実行結果であるモチー
フ分散和音(音長)パターンは配列(RHi ]に設定
される。
The conversion from the original note length pattern of a motif to a dispersed chord pattern basically follows the following principle. In other words, compare the weight on the pulse scale of the current note (non-harmonic note) with the weight on the pulse scale of the next note, and if the starting position 21SUM of the first note is heavier, then the a-length MRI of the current note is compared to that weight. If the starting position 21SUMH of the current note is heavier, its note length MRi is absorbed by the next chord RHN-1. The motif dispersed chord (tone length) pattern that is the execution result is set in the array (RHi].

第17図は13−3と13−4の詳細なフローの一例で
ある。先の非和声音の抽出と分類の処理を通じて、モチ
ーフの音高列は(HDi)に変換され、各HDi(iは
1番口の音を示す)には。
FIG. 17 is an example of a detailed flow of steps 13-3 and 13-4. Through the above process of extracting and classifying non-harmonic sounds, the pitch sequence of the motif is converted into (HDi), and each HDi (i indicates the first note) has a pitch sequence of (HDi).

その音が和声音であればモの音高データが入っており、
非和声音であれば、非和声音のタイプを示す周有偵(a
別値)が入っている。第17図の各非相声、和声音数の
抽出フローでは、パラメータPAljを初期化した後(
−列目)、HDiの値を検査し、条件の成立の有無に応
じて、各非和声ef)力’>75’ (PAS、2 、
PA2.2.PA4.4、PA3.3 )を動かしてい
る。カウンタPA1.3には和声音の数が入る。
If the sound is a harmonic sound, the pitch data of mo is included.
If it is a non-harmonic sound, Zhou Youdi (a) indicates the type of non-harmonic sound.
(separate value) is included. In the flow for extracting the number of inharmonious tones and harmonic tones in Fig. 17, after initializing the parameter PAlj (
- column), the value of HDi is checked, and depending on whether the condition is met, each nonharmonic ef) force '>75' (PAS, 2,
PA2.2. PA4.4, PA3.3) are running. The counter PA1.3 stores the number of harmonic tones.

第18図は13−5と13−6の詳細フローの一例であ
り、ここで、分散相aの合壁(LLi)(第14図の処
理で得たパターン)を分析することによりなめらかさの
パラメータFA1.2 と同音進行のパラメータFA1
.6を求めている。
Figure 18 is an example of the detailed flow of 13-5 and 13-6, where smoothness can be determined by analyzing the joint wall (LLi) of the dispersed phase a (pattern obtained by the process in Figure 14). Parameter FA1 which is homophone progression with parameter FA1.2
.. I'm looking for 6.

第19図は13−8の詳細フローの一例である。先のリ
ズム評価(第12図)により、モチーフに含まれ得る各
種のミニリズムパターンの数が(HRi)に確保されて
おり、この特徴リズムパラメータの抽出では、どのミニ
パターンが支配的なパターンであるかを決定している0
便宜上、第19図のフローでは、3対lの音長パターン
の数HR+ とl#lの音長パターンの数HR3のみ検
査しており、3対lの音長パターンが多いときはPAh
、+に3″′を、そうでないときはPAi、+に“0″
を入れている。
FIG. 19 is an example of the detailed flow of step 13-8. The above rhythm evaluation (Figure 12) ensures that the number of various mini-rhythm patterns that can be included in a motif is (HRi), and in extracting this characteristic rhythm parameter, which mini-pattern is the dominant pattern. 0 determining whether there is
For convenience, in the flow of Fig. 19, only the number HR+ of 3 to l tone length patterns and the number HR3 of l#l tone length patterns are examined, and when there are many 3 to l tone length patterns, PAh
, 3″′ to +, otherwise PAi, “0” to +
is included.

第20図は13−7の詳細フローの一例であり、モチー
フの音長列(MRi)のなかで最小のrf長を求め、P
A3.3 にセットしている。
Figure 20 is an example of the detailed flow of 13-7, in which the minimum rf length is found in the motif note length sequence (MRi), and P
It is set to A3.3.

以上の具体的な説明かられかるように、モチーフ特徴パ
ラメータ抽出手段FIO(第2図)は。
As can be seen from the above detailed explanation, the motif feature parameter extraction means FIO (FIG. 2) is.

自動作曲機の外部から送られてきたモチーフデータを評
価、分析し、第2図でFA′tsla括的に記すパラメ
ータを抽出する。抽出結果はPCの生成やメロディの生
成のために利用される0例えばモチーフの和声音の音高
型のパラメータ(LLi)は、メロディの音高型の初期
パラメータとして。
The motif data sent from outside the automatic composer is evaluated and analyzed, and the parameters collectively shown in FIG. 2 are extracted. The extraction result is used for PC generation and melody generation. For example, the pitch-type parameter (LLi) of the motif's harmonic tone is used as the initial pitch-type parameter of the melody.

モチーフの和声音の音長パターン(RHi )はメロデ
ィの音長列の初期情報として利用できる。その他のPA
はPCの演算において、例えばDC成分として使用され
る。
The tone length pattern (RHi) of the harmonic tone of the motif can be used as initial information of the tone length sequence of the melody. Other PA
is used, for example, as a DC component in PC calculations.

第2図のパラメータ演算手段F21が実行する処理は第
21図に示されている。第25図は連続してメロディを
発生する場合のフロー例であり。
The processing executed by the parameter calculation means F21 in FIG. 2 is shown in FIG. 21. FIG. 25 is an example of a flow when a melody is generated continuously.

25−9では第21図の21−4.21−5.21−6
の処理が実行される。第21図の21−1.21−2.
21−3は使用する入力パラメータFA、PR,SRを
一括読み出している部分である。第21図の21−4で
行う楽式識別データのデコードについては、第22図、
第23図、第24図を参照されたい、この例では、サビ
(展開部)の直前、開始時におけるピーク(SBP+〜
5BP3)と、展開部全体にわたるホールドデータ(S
BH)をデコードしている。
25-9 is 21-4.21-5.21-6 in Figure 21
processing is executed. 21-1.21-2 in Figure 21.
21-3 is a part that reads out the input parameters FA, PR, and SR to be used all at once. Regarding the decoding of musical style identification data performed at 21-4 in FIG. 21, see FIG.
Please refer to FIGS. 23 and 24. In this example, the peak (SBP+~
5BP3) and hold data (S
BH) is being decoded.

第25図の25−10で、1小節分のメロディを具体的
に生成している。第25図のその他の部分は、モチーフ
データやメロディデータの転送。
At 25-10 in FIG. 25, a melody for one measure is specifically generated. The other parts in Figure 25 are for the transfer of motif data and melody data.

生成する小節のインクリメントなどである。This includes incrementing the number of measures to be generated.

具体的なメロディの生成は、第8図かられかるように、
まず和声音だけのメロディ(分散和音)の生成1次に、
各非和声音の付加、最後に休符と特徴ミニパターンの選
択的注入である。
The specific melody generation is as shown in Figure 8.
First, the first step is to generate a melody consisting only of harmonic sounds (dispersed chords).
The addition of each non-harmonic note, and finally the selective injection of rests and characteristic mini-patterns.

分散和音の発生の全体フローは第26図に示しである。The overall flow of the generation of dispersive chords is shown in FIG.

このフローにおけるコード構成音の読み出し26−1.
音階の重み変更26−2.蔽適転回数算出26−4.コ
ード構成音の転回26−5の詳細は、それぞれ、第28
v4;第30A図、第30B図、第31図:第32図、
第33図に示しである。26−5が完了した時点で、使
用する音階の重みデータ(音階上の各音に割り当てた重
みをもつデータ)、及び進行中のコードとその転回形、
つまり分散和音の発生で使用する各和声音の音高が決ま
っている。音階の重みデータはメロディの生成過程で挙
がったメロディノートの候補の有効性を検査するのに利
用され、有効であれば正式にメロディノートとして採択
される。
Reading of chord constituent sounds in this flow 26-1.
Change of scale weight 26-2. Calculation of number of suitable turns 26-4. The details of the inversion 26-5 of the chord constituent notes are shown in the 28th section.
v4; Figure 30A, Figure 30B, Figure 31: Figure 32,
This is shown in FIG. 26-5 is completed, the weight data of the scale to be used (data with weights assigned to each note on the scale), the chord in progress and its inversion,
In other words, the pitch of each harmonic tone used to generate dispersed chords is determined. The scale weight data is used to check the validity of melody note candidates raised during the melody generation process, and if they are valid, they are officially adopted as melody notes.

26−6から26−42までは、その簡略化フローを第
35図に示してあり1分散和音の音高列を決定している
ところである。このなかに示す26−15の前の音より
決定の詳細は第34図に示す、萌小節の最後の音に最も
近い高さの和声音を今回の小節の最初のメロディノート
にする処理である。
From 26-6 to 26-42, the simplified flow is shown in FIG. 35, and the pitch sequence of the one-dispersion chord is determined. The details of the determination from the note before 26-15 shown in this figure are shown in Figure 34, which is the process of making the harmonic note with the pitch closest to the last note of the Moe measure the first melody note of the current measure. .

26−11より26−12を通って26−29に進むと
きは、a型の維持範囲にあるときで、!l持範囲中は、
前小節と同一または逆の金型(26−31)が作成され
る0例えば、第8図の(イ)分散和音に示す第2小節口
は、第1小節目の金型が上行であり、(LL+ =1.
LL2 =2゜LL3=3、LL4=4)、第2小節目
についてのPC演算部からの置型関係のパラメータは、
維持範囲が最初から4番目までの音符であり(PCl、
a =0.PCl、3 =4)、またP C1,13に
より金型の反転が指示されているので、下行(LL+ 
=4.LL2 =3.LL3=2、LL4=1)となる
When proceeding from 26-11 through 26-12 to 26-29, it is within the range where type A is maintained. During the holding range,
A mold (26-31) that is the same as or opposite to that of the previous measure is created.0 For example, at the beginning of the second measure shown in (A) Dispersed chord in Figure 8, the mold of the first measure is in the ascending line. (LL+=1.
LL2 = 2° LL3 = 3, LL4 = 4), the placement-related parameters from the PC calculation unit for the second measure are:
The sustain range is from the first to the fourth note (PCl,
a=0. PCl,3 = 4), and PCl,13 instructs to reverse the mold, so the downward direction (LL+
=4. LL2=3. LL3=2, LL4=1).

モチーフ小節のように、金型の維持がなされない小節の
ときは、26−16より始まるランダム化による音型形
成が実行される。26−16〜26−28のなかにもパ
ラメータCが含まれており、これらのパラメータはラン
ダム化を制限するように慟〈。
For a measure such as a motif measure in which a mold is not maintained, sound pattern formation is performed by randomization starting from 26-16. Parameters C are also included in 26-16 to 26-28, and these parameters are used to limit randomization.

音高の有効検査は26−35と2.6−36で行ってい
る。
Validity tests for pitch were conducted at 26-35 and 2.6-36.

26−44は分散和音の音長パターンの決定である。生
成すべき小節の和声音数が、モチーフの和声I′f数と
等しいときは、初期パターン(例えば、モチーフの分散
和音パターン)がそのまま分散和音のn riパターン
となる。
26-44 is the determination of the tone length pattern of the dispersed chord. When the number of chord tones in the bar to be generated is equal to the number of chords I'f in the motif, the initial pattern (for example, the dispersed chord pattern of the motif) becomes the nri pattern of the dispersed chords.

和声音数が初期パターンに含まれる和声音数より多いと
きや少ないときはパルススケールにより分;1や結合を
行っている。26−44の詳細については、第36図か
ら第41図を参照されたい。
When the number of harmonic tones is greater or less than the number of harmonic tones included in the initial pattern, the pulse scale is used to perform min;1 or combination. For details of 26-44, please refer to FIGS. 36 to 41.

分割の基本論理は、最小分割回数であるということと、
1つ分割する場合に、パルススケール、すなわち、 ToT+TtT3TsTsTiTITsTv〒+@T+
+T+2T+zTuT+5(ここに、To NT’sは
パルスポイントであり、Toは小節の頭、TsはtjS
3拍目のタイミングを表わし、下に示す数字は対応する
重みである)で示すパルススケール(ルールに内在して
いる)を使用し、現在の音長パターンのうちで、最も重
いパルスポイントをクロスしている音符がそのパルスポ
イントを分割線として分割されるというものである。結
合の基本論理は、目標音符数になるまで最小結合回数で
結合を行うということと、一つの結合において、現在の
音長列のなかで最も軽い重みで開始している音符を前の
音符と結合するという方式である。
The basic logic of division is the minimum number of divisions,
When dividing by one, the pulse scale is ToT+TtT3TsTsTiTITsTv〒+@T+
+T+2T+zTuT+5 (here, To NT's is the pulse point, To is the beginning of the measure, Ts is tjS
Using the pulse scale (intrinsed in the rule) indicated by the timing of the third beat (the number below is the corresponding weight), cross the heaviest pulse point in the current note length pattern. This means that the note being played is divided using the pulse point as a dividing line. The basic logic of combining is that the combination is performed with the minimum number of combinations until the target number of notes is reached, and that in one combination, the note that starts with the lightest weight in the current note length sequence is connected to the previous note. This is a method of combining.

倍音の付加(第42図) ?Jt、 PCfi[fl、
l”り榮えられた倍音の重みPO2,2,付加位置PC
2,3,音階の重みPO2,1、上行、下行PC2,4
、音長制限PCz、1などの値に従い、かつ内部の倚音
付加論理に従って選択的に倍音を付加している。音長に
ついては、倍音の次にある和声音の音長から−・部をと
って倍音の音長にしている。
Addition of overtones (Figure 42)? Jt, PCfi[fl,
l” Weight of overtones enhanced PO2, 2, addition position PC
2, 3, scale weight PO 2, 1, ascending line, descending line PC 2, 4
, the tone length limit PCz, 1, etc., and selectively add overtones according to internal strangulation addition logic. Regarding the tone length, the - part is removed from the tone length of the harmonic tone that follows the overtone to determine the tone length of the overtone.

経過音付加(第431i4)は基本的には和声音と和声
音との間を経過的に結ぶ音が経過音であることから、こ
れらに関係する条件をみる部分や。
The addition of transitional sounds (No. 431i4) is basically a transitional sound that transitions between harmony sounds, so it is a part that looks at the conditions related to these.

PC演算部からのパラメータCの計画を解読する部分(
主として第43図の第1列)や、和声音間に経過汗とし
て使用できる音があるかどうかをサーチ、検査する部分
(主として第2列)や、見つけた経過音のa高変換(音
高パターンへの組込)やg長変換(音長パターンへの組
込)を行う部分(主として第3列)より成っている。
The part that decodes the plan of parameter C from the PC calculation unit (
Mainly the first column in Figure 43), the part that searches and tests whether there is a sound that can be used as a transition note between chord tones (mainly the second column), and the a-high conversion of the found transition note (pitch). It consists of a section (mainly the third column) that performs g-length conversion (incorporation into a tone pattern) and g-length conversion (incorporation into a note length pattern).

刺しゅう音の付加(第44図)は前後の和声音が同じ高
さのときにしか行われない(第1列参照)、その他にも
パラメータCによる各種の制限がある0例えば、PCl
、4は“θ″′のときは刺しゅう音の付加を禁止する意
味をもち、“l”のときは1回は付加でき、“2”のと
きは連続しては付加できず、′3”のときは無制限に付
加できることを意図している。この計画を解読している
ところが44−9〜44−14.44−15である。
Addition of embroidery sound (Fig. 44) is only performed when the preceding and succeeding chord sounds are at the same pitch (see first column), and there are various other restrictions due to parameter C. For example, PCl
, 4 has the meaning of prohibiting the addition of embroidery sound when it is "θ"', when it is "l" it can be added once, when it is "2" it cannot be added continuously, and '3' In the case of , it is intended that it can be added without limit.This plan is deciphered in 44-9 to 44-14.44-15.

m3列■では、有効な刺しゅう音の汗高をサーチにより
求め、音長パターン(MED)に組み込み(44−24
〜44−30)、隣りの和声きより音長の一部をもらい
受け、それを音高パターン(MER)に組み込んでいる
。なお第2列の44−is〜44−20は倚音のデータ
を音長パターン、音高パターンに組み込む準備としての
配列シフトである。
In the m3 column ■, the sweat height of an effective embroidery sound is determined by searching and incorporated into the sound length pattern (MED) (44-24
~44-30), a part of the note length is received from the adjacent chord and incorporated into the pitch pattern (MER). Note that 44-is to 44-20 in the second column are array shifts in preparation for incorporating the data of the stridor into the tone length pattern and pitch pattern.

逸a付加(第45図)でも、同様に各パラメータCを解
読する部分、違法な適音付加を除外または検査する部分
(例えば45−2.45−3及び45−4〜45−18
)、45−17に入る時点で、適音付加に問題がないこ
とが決定している。
Similarly, in the case of addition of ``a'' (Fig. 45), there is a part that decodes each parameter C, and a part that excludes or inspects illegal sound additions (for example, 45-2.45-3 and 45-4 to 45-18).
), 45-17, it has been determined that there is no problem with adding appropriate sound.

45−17〜45−23はフa−の右下に示す区別的な
処理のためにある。−香石の列で、前の音と後の音との
間において適音となり得る音高を求め、音高パターンに
組み込んでいる。なお、適音付加の場合は、音符数は増
加しない、すなわち、適音付加は小節の最後の音の音高
変更である。
45-17 to 45-23 are provided for the differential processing shown at the lower right of F. - In a row of incense stones, we find the pitch that can be the appropriate pitch between the previous note and the following note and incorporate it into the pitch pattern. Note that in the case of adding appropriate notes, the number of notes does not increase; that is, adding appropriate notes is a pitch change of the last note of the bar.

休符付加(第46図)は楽節の最終小節などで最後に付
けられることが多い。
Rests (Figure 46) are often added at the end, such as at the last measure of a passage.

特徴リズム生成(第47図)は、特徴的なミニパターン
をパラメータCの値に従って1選択的に音長パターンに
組み込むところである。本例では、特徴リズム生成はメ
ロディ生成の最終プロセスとなっており、それまでつく
られている音長パターンを変な具合に変えてしまわない
ようにしながら、PCにより許される範囲内で特徴ミニ
パターン、ここでは盲長比が3対lのパターンを音長パ
ターンに組み込んでいる。47−9〜47−12は、連
続する2つの音符のうちで、3対lのパターンに変換可
能なものがあるかどうかを検査しているところである。
Characteristic rhythm generation (FIG. 47) involves selectively incorporating characteristic mini-patterns into note length patterns according to the value of parameter C. In this example, characteristic rhythm generation is the final process of melody generation, and characteristic mini-patterns are created within the range allowed by the PC while avoiding strange changes to the note length patterns that have been created up to that point. , here, a pattern with a blind length ratio of 3 to 1 is incorporated into the tone length pattern. 47-9 to 47-12 are checking to see if there is any one of two consecutive notes that can be converted into a 3-to-1 pattern.

検査に合格のときは、第3列nにて、変換を実行してい
る。
When the test passes, conversion is executed in the third column n.

第48図の修正学習と第49図の学習によるパラメータ
変更は、ユーザー好みのパラメータCをユーザーの選択
した個々の小節で使用するという学習a能と関係するも
のである。修正学習(第48図)は曲完成後、モニター
14を通じてユーザーが気に入らない小節のパラメータ
を間接的に指定し、これに対し学習機能が指定された小
節の指定されたパラメータの種類と値を学習メモリ12
に入れる。学習によるパラメータ変更は第13図に示す
ように、パラメータ演算のなかで行われ、作曲機が内部
生成したパラメータCよりも、ユーザーが選んだパラメ
ータCが優先して使用される。
The modified learning shown in FIG. 48 and the parameter change by learning shown in FIG. 49 are related to the learning ability of using the user's preferred parameter C in each measure selected by the user. In corrective learning (Figure 48), after the song is completed, the user indirectly specifies the parameters of the measure that the user does not like through the monitor 14, and the learning function learns the type and value of the specified parameter of the specified measure. memory 12
Put it in. As shown in FIG. 13, the parameter change due to learning is performed during parameter calculation, and the parameter C selected by the user is used with priority over the parameter C internally generated by the music composer.

くまとめとメロディ分析機への適用〉 以上詳細に説明したところから、本実施例における自動
作曲機の諸特徴は明らかである。特に、モチーフライン
からその和声的特徴パラメータを抽出するために、モチ
ーフに対してユーザーが意図したコード(和音)情報を
利用していることは注[lに値する。このことは、実施
例においては。
Summary and Application to Melody Analyzer> From the detailed explanation above, the various features of the automatic music composer in this embodiment are clear. In particular, it is worth noting that the chord (chord) information intended by the user for the motif is used to extract the harmonic feature parameters from the motif line. This is true in the example.

モチーフの非和声音抽出分類の機能を2つの部分に分け
ることを容易にしている。すなわち、一般に、モチーフ
やメロディラインの和声的評価において、非和声音と和
声音とを区別することと、どの音がどのタイプの非和声
音であるかを識別することとは、必ずしも別個の作!で
はなく、多種多様のメロディラインを想起すれば、むし
ろ両者は不IIf分の関係にあるともいえる。ここにお
いて、この発明では、コード情報を使用することにより
、直接的、合理的に、モチーフまたはメロディラインか
らの非和声音の分離を行っている。また、別の側面より
すれば、この発明は、あるメロディラインに妥当するハ
ーモニーないしは和音が表現者のff楽空間との関係に
おいて、一義的には一般に決定されないという考え方に
機差している。ユーザーからの自由なコード指定を許容
していることは、自動作曲機への適用領域において、ユ
ーザーが意図し1期待する音楽表現(曲)への接近を容
易にする。換言すれば、ユーザーのための選択範囲の拡
大に寄与している。
This makes it easy to divide the function of motif non-harmonic sound extraction and classification into two parts. In other words, in general, in the harmonic evaluation of a motif or melody line, distinguishing between non-harmonic and harmonic sounds is not necessarily separate from identifying which sound is which type of non-harmonic sound. Made! Rather, if we think of a wide variety of melody lines, we can say that the two are closely related. Here, in this invention, non-harmonic sounds are directly and rationally separated from motifs or melody lines by using chord information. From another aspect, this invention is based on the idea that the harmony or chord appropriate to a certain melody line is generally not uniquely determined in relation to the performer's musical space. Allowing the user to freely designate chords makes it easier to approach the musical expression (song) that the user intends and expects in the area of application to automatic music composers. In other words, it contributes to expanding the selection range for users.

L記実施例は、この発明を自動作曲機の分野に適用した
ものであるが、メロディラインの和声学的評価を自動的
に行うメロディ分析機にも適用し得ることは明らかであ
る。メロディ分析機の使用を通して、学習者はメロディ
ラインの類型化を効果的に習得できよう、さらには、メ
ロディにコードを付ける技術も比較的短期間のうちに身
に付くことが期待される。
Embodiment L is an application of the present invention to the field of automatic composing machines, but it is clear that the invention can also be applied to melody analyzers that automatically perform harmonic evaluation of melody lines. Through the use of the melody analyzer, students are expected to be able to effectively learn to categorize melody lines, and also to acquire the skill of adding chords to melodies in a relatively short period of time.

[発明の効果1 以り、詳述したように1本発明によるメロディ分析機で
は、その非和声音抽出手段に入力データとしてメロディ
のデータだけでなくメロディに潜在するハーモニーない
しコード(和音)のデータが渡され、非和声音抽出手段
は、このコードを手がかりにしてメロディのどの音が和
声音でどの音が非和声音であるかを識別し、その識別結
果が非和声音分類化手段に送られ、非和声音分類化手段
は、この送られてきた情報を基に、メロディの音列を分
析し、どの音がどのタイプの非和声音であるかを推定す
る、という構成をとっている。したがって、学習者は1
本メロディ分析機をアシスタントとして利用でき、その
使用を通じて、メロディラインを類型化して把握する能
力、知識を深めることができ、さらに1個々のメロディ
ラインとよく調和するコードないしハーモニーを想定す
る能力も向上する。
[Effect of the Invention 1 As described in detail, the melody analyzer according to the present invention inputs not only melody data but also harmonic or chord data latent in the melody as input data to the non-harmonic sound extraction means. is passed, and the non-harmonic sound extraction means uses this code as a clue to identify which notes in the melody are harmonic sounds and which sounds are non-harmonic sounds, and the identification result is sent to the non-harmonic sound classification means. Based on this sent information, the non-harmonic sound classification means analyzes the sound sequence of the melody and estimates which sound is which type of non-harmonic sound. . Therefore, the learner is 1
This melody analyzer can be used as an assistant, and through its use, you can deepen your knowledge and ability to categorize and understand melody lines, and also improve your ability to envision chords or harmonies that harmonize well with each melody line. do.

また1本発明による自動作曲機は、モチーフの非和声音
抽出に関して上記メロディ分析機における原理を利用し
、それが大きな特徴となっている。そして、自動作曲機
のメロディ生成部では、非和声音抽出部による抽出結果
に依存して、和声音と非和声音とが混在するメロディを
生成している。したがって、ユーザーがどのコードを指
定するかによって、出来上るメロディラインは変化する
。換?tすれば、本自動作曲機は、いくつかの好ましい
メロディラインの候補をユーザーに提供することができ
る。特に、和音付けが自由にできるユーザーに対しては
算常に効果的な曲作りが行える環境を4える。構成上は
、コードを入力情報とすることで、非和声音の抽出部や
分類化部を簡素化できるという利点がある。
Furthermore, the automatic composing machine according to the present invention utilizes the principle of the above-mentioned melody analyzer for extracting non-harmonic sounds of motifs, and this is a major feature. Then, the melody generation section of the automatic music composition machine generates a melody in which harmonic sounds and non-harmonic sounds are mixed, depending on the extraction result by the non-harmonic sound extraction section. Therefore, the resulting melody line changes depending on which chord the user specifies. Exchange? t, the automatic composer can provide the user with several preferred melody line candidates. In particular, for users who can freely create chords, we provide an environment where they can compose songs efficiently and efficiently. In terms of configuration, using chords as input information has the advantage of simplifying the non-harmonic sound extraction section and classification section.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例に係る自動作曲機の全体構成
図、第2図は自動作曲機の機能ブロック図、第3図は自
動作曲機で使用する主変数のリストを示す図、第4図は
自動作曲機で使用するパラメータCのリストを示す図、
第5図は音高データの例を示す図、第6図は動作説明の
ための入力データ例を示す図、第7図はパラメータCの
値の例を示す図、第8図は第6図と第7図のデータに対
するメロディの生成結果を過程ごとに示す図。 第9図は非和声音抽出のフローチャート、第1O図は非
和声音分類のフローチャート、第11A図は別のロジッ
クによる非和声音分類のフローチャート、第11BRは
さらに別のロジ、りによる非和声音分類のフローチャー
ト、第12図はリズム評価のフローチャート、第13図
はパラメータ抽出の概略のフローチャート、第14図は
和声音の型のパラメータを抽出するためのフローチャー
ト、第15図は和声音の音長パターンを抽出するための
フローチャート、第16図は第15図のフローにおいて
使用しているパルススケールを説明するための図、第1
7図は各非和声音の数、和声音の数を抽出するフローチ
ャート、第18図はなめらかさ、同音進行のパラメータ
を抽出するフローチャート、第19図は特徴的リズムの
パラメータを抽出するフローチャート、第20図は最小
の音長を抽出するフローチャート、第21図はパラメー
タC演算の概略フローチャート、第22図は楽式識別デ
ータメモリのデータフォーマットを示す図、第23図は
楽人データの読み出しデコードのフローチャート、第2
4図はデコード例を示す図、第25図はメロディの生成
のフローチャート、第26図は分散和音発生のフローチ
ャート、第27図はコード構成音メモリ。 コード進行メモリ、根音メモリのデータの例を示す図、
第28図はコード構成音の読み出しのフローチャート、
第29図は音階の重みデータの例を示す図、第30A図
は音階の重み変更(1)のフローチャート、第301図
は音階の重みデータの読み出しのフローチャート、第3
1図は音階の重み変更(2)のフローチャート、第32
図は最適転回数の算出のフローチャート、第33図はコ
ード構成音の転回のフローチャート、第34図はMED
+(小節先頭音)を前の音から決定するフローチャート
、第35図は分散和音の音高利発生要部の簡略化フロー
チャート、第36図は分散和音の音長列を決定するフロ
ーチャート、第37図は音長の最適結合処理のフローチ
ャート、第38I54は音長の最適分割処理のフローチ
ャート、第39図は第38図におけるチェックの詳細フ
ローチャート、第40図は第38図におけるシフトの詳
細フローチャート、第41図は第38図における実行の
詳細フローチャート、第42図は倚音付加のフローチャ
ート、第43図は経過音付加のフローチャート、第44
図は刺しゅう音付加のフローチャート、第45図は適音
付加のフローチャート、第46図は休符(プレス)付加
のフローチャート、第47図は特徴リズム生成のフロー
チャート、第48図は修正学習のフローチャート、第4
9図は学習によるパラメータ変更のフロ・−チャートで
ある。 l・・・・・・入力装置、2・・・・・・コード構成音
メモリ、3・・・・・・コード進行メモリ、9・・・・
・・CPU、13・・・・・・メロディデータメモリ、
Flo・・・・・・モチーフ特徴パラメータ抽出手段、
F20・・・・・・メロディ制御情報発生手段(制御パ
ラメータ発生手段)、F30・・・・・・メロディ生成
実行手段、Fil−IA・・・・・・非和声音抽出手段
、Fll−IB・・・・・・弊和声音分類手段。 くメロディ−IvI4にン 1菅在リスト 今釣1畝11アータ  5BN= 2  5B+ = 
IQSB2−51  =−(ABす2郁最宍)第13図 /Yう×−タオ由工 012   3  4  5  6  7   B  
  9  10  11   12   13  14
  15第16図 (−1匁の5すLコ゛す“ス′ム1;山モトj;/轡ビ
スス々−ル)<13−3.4詳細) なむら方ユJ面n51ゴ〒の1マフメーγ(1B−5,
6##) tv−7メータ3’fl’4 A1 ホ曾内許号1艮わ丁 A2¥L’t’i警ヌ1;瓦間!0たつ1にわ1番 B  −−−(9−12+hiFF) 番 A−(13へIIX費〕 第22図 礫式゛!ツリテ゛−タ 第2T図 SCLナシIK−123456789101112(1
)37119首@ 7525  艶 25乃 7525
 父 25  万 2575の〜11香玲9 Cうヨプ号3(1汀ざ 乃 25 75 25  万 
■ 25 75 25  ち 25 (資)(12〜2
3番才〕 t5);tjlE’1.N   7525502575
 75 25 7525 50 2575(2仁躬番七
) ξ26−2の一19ノ (26−2r>−vIり (26−44/)−1FII) (38−8”!#j囲) 中%1vLリス′ム圧νに1
FIG. 1 is an overall configuration diagram of an automatic musical composition machine according to an embodiment of the present invention, FIG. 2 is a functional block diagram of the automatic musical composition machine, and FIG. 3 is a diagram showing a list of main variables used in the automatic musical composition machine. Figure 4 is a diagram showing a list of parameters C used in the automatic music composer.
FIG. 5 is a diagram showing an example of pitch data, FIG. 6 is a diagram showing an example of input data for explaining the operation, FIG. 7 is a diagram showing an example of the value of parameter C, and FIG. FIG. 8 is a diagram showing the melody generation results for each process for the data shown in FIG. Fig. 9 is a flowchart for extracting non-harmonic sounds, Fig. 1O is a flowchart for classifying non-harmonic sounds, Fig. 11A is a flowchart for classifying non-harmonic sounds using another logic, and 11th BR is a non-harmonic sound using another logic. Flowchart of classification, Figure 12 is a flowchart of rhythm evaluation, Figure 13 is a general flowchart of parameter extraction, Figure 14 is a flowchart for extracting parameters of chord type, Figure 15 is length of chord tone. A flowchart for extracting a pattern, Fig. 16 is a diagram for explaining the pulse scale used in the flow of Fig. 15, Fig. 1
Figure 7 is a flowchart for extracting the number of each non-harmonic tone and the number of harmonic tones; Figure 18 is a flowchart for extracting smoothness and homophone progression parameters; Figure 19 is a flowchart for extracting characteristic rhythm parameters; Figure 20 is a flowchart for extracting the minimum note length, Figure 21 is a schematic flowchart for calculating parameter C, Figure 22 is a diagram showing the data format of musical style identification data memory, and Figure 23 is a diagram for reading and decoding musician data. Flowchart, 2nd
FIG. 4 is a diagram showing an example of decoding, FIG. 25 is a flow chart of melody generation, FIG. 26 is a flow chart of dispersed chord generation, and FIG. 27 is a chord constituent note memory. A diagram showing examples of chord progression memory and root note memory data,
FIG. 28 is a flowchart for reading out chord constituent tones.
Fig. 29 is a diagram showing an example of scale weight data, Fig. 30A is a flowchart of changing the scale weight (1), Fig. 301 is a flowchart of reading scale weight data, and Fig. 3
Figure 1 is a flowchart of scale weight change (2), No. 32
The figure is a flowchart for calculating the optimum number of inversions, Fig. 33 is a flowchart for inversions of chord constituent notes, and Fig. 34 is a MED
Flowchart for determining the + (first note of measure) from the previous note, Figure 35 is a simplified flowchart of the important part of generating the pitch of a dispersed chord, Figure 36 is a flowchart for determining the note length sequence of a dispersed chord, Figure 37 38I54 is a flowchart of optimal tone length division processing; FIG. 39 is a detailed flowchart of the check in FIG. 38; FIG. 40 is a detailed flowchart of shift in FIG. 38; The figures are a detailed flowchart of the execution in Fig. 38, Fig. 42 is a flowchart for adding a stridor, Fig. 43 is a flowchart for adding a passing sound, and Fig. 44 is a flowchart for adding a passing sound.
Figure 45 is a flowchart for adding embroidery sounds, Figure 45 is a flowchart for adding appropriate sounds, Figure 46 is a flowchart for adding rests (presses), Figure 47 is a flowchart for generating characteristic rhythms, Figure 48 is a flowchart for corrective learning, Fourth
FIG. 9 is a flowchart of changing parameters by learning. l...Input device, 2...Chord composition note memory, 3...Chord progression memory, 9...
...CPU, 13...melody data memory,
Flo... Motif feature parameter extraction means,
F20... Melody control information generation means (control parameter generation means), F30... Melody generation execution means, Fil-IA... Non-harmonic sound extraction means, Fll-IB.・・・・・・Method for classifying harmonic sounds. Ku melody - IvI 4 N 1 Suga list now fishing 1 ridge 11 arta 5BN= 2 5B+ =
IQSB2-51 =-(ABsu2 Iku Saishi) Figure 13/Y U×-Tao Yuko012 3 4 5 6 7 B
9 10 11 12 13 14
15 Fig. 16 (-1 momme 5 L column sum 1; Yamamoto j; / 轡Bissu-ru) <13-3.4 details) Namura way J side n51 go 1 Mahmeh γ (1B-5,
6##) tv-7 meter 3'fl'4 A1 hosonaikigo1艮wachoA2\L't'ikennu1; Kawarama! 0 Tatsu 1 No. 1 B --- (9-12 + hiFF) No. A- (IIX fee to 13) Fig. 22 Gravel style!
) 37119 neck @ 7525 luster 25no 7525
Father 252,575 ~ 11 Korei 9
■ 25 75 25 Chi 25 (fund) (12~2
3rd year old] t5); tjlE'1. N7525502575
75 25 7525 50 2575 (2 Jinmanbanshichi) ξ26-2 119ノ (26-2r>-vIri(26-44/)-1FII) (38-8"!#j surrounding) Medium %1vL squirrel 'Mu pressure ν to 1

Claims (3)

【特許請求の範囲】[Claims] (1)メロディを入力するメロディ入力手段と、メロデ
ィのコードを入力するコード入力手段と、 入力されたメロディのコードを基に、メロディに含まれ
る非和声音を識別ないし抽出する非和声音抽出手段と、 この非和声音抽出手段により識別された非和声音情報と
、入力されたメロディの音列とから、各非和声音を分類
化する非和声音分類化手段と、を有することを特徴とす
るメロディ分析機。
(1) A melody input means for inputting a melody, a code input means for inputting a melody code, and a non-harmonic sound extraction means for identifying or extracting a non-harmonic sound included in the melody based on the input melody code. and non-harmonic sound classification means for classifying each non-harmonic sound from the non-harmonic sound information identified by the non-harmonic sound extraction means and the input melody sound sequence. Melody analyzer.
(2)モチーフを入力するモチーフ入力手段と、入力さ
れたモチーフに含まれる非和声音と和声音に関する和声
的特徴パラメータを初めとして、モチーフを特徴づける
特徴パラメータを抽出するモチーフ特徴パラメータ抽出
手段と、 生成すべきメロディのコード進行情報を少なくとも記憶
するコード進行記憶手段と、 上記コード進行情報に従い、かつ抽出された特徴パラメ
ータの少なくとも上記和声的特徴パラメータが反映され
る形式にて、和声音と非和声音とを含むメロディを生成
するメロディ生成手段と、 を備える自動作曲機において、 少なくともモチーフのコードを入力するコード入力手段
を設け、 上記モチーフ特徴パラメータ抽出手段は、入力されたモ
チーフのコードを基に、モチーフに含まれる非和声音を
識別ないし抽出する非和声音抽出手段を含む、 ことを特徴とする自動作曲機。
(2) a motif input means for inputting a motif; and a motif feature parameter extraction means for extracting feature parameters characterizing the motif, including harmonic feature parameters regarding non-harmonic sounds and harmonic sounds included in the input motif. , chord progression storage means for storing at least chord progression information of the melody to be generated; and chord progression storage means for storing at least chord progression information of the melody to be generated; melody generation means for generating a melody including non-harmonic sounds; and a code input means for inputting at least a code of a motif; 1. An automatic music composition machine characterized by comprising a non-harmonic sound extraction means for identifying or extracting non-harmonic sounds included in a motif based on the motif.
(3)特許請求の範囲第2項記載の自動作曲機において
、上記モチーフ特徴パラメータ抽出手段は、さらに、上
記非和声音抽出手段により識別された非和声音情報と、
モチーフの音列を基に、各非和声音を分類化する非和声
音分類化手段を含むことを特徴とする自動作曲機。
(3) In the automatic music composition machine according to claim 2, the motif feature parameter extraction means further includes non-harmonic sound information identified by the non-harmonic sound extraction means;
An automatic music composition machine characterized by comprising a non-harmonic sound classification means for classifying each non-harmonic sound based on the sound sequence of a motif.
JP62146963A 1987-04-08 1987-06-15 Music device with melody analysis function and automatic composer Expired - Lifetime JP2715412B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP62146963A JP2715412B2 (en) 1987-06-15 1987-06-15 Music device with melody analysis function and automatic composer
US07/177,592 US4926737A (en) 1987-04-08 1988-04-04 Automatic composer using input motif information
US07/447,581 US5099740A (en) 1987-04-08 1989-12-07 Automatic composer for forming rhythm patterns and entire musical pieces

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62146963A JP2715412B2 (en) 1987-06-15 1987-06-15 Music device with melody analysis function and automatic composer

Publications (2)

Publication Number Publication Date
JPS63311395A true JPS63311395A (en) 1988-12-20
JP2715412B2 JP2715412B2 (en) 1998-02-18

Family

ID=15419541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62146963A Expired - Lifetime JP2715412B2 (en) 1987-04-08 1987-06-15 Music device with melody analysis function and automatic composer

Country Status (1)

Country Link
JP (1) JP2715412B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01179087A (en) * 1988-01-06 1989-07-17 Yamaha Corp Automatic playing device
JPH0394297A (en) * 1989-09-06 1991-04-19 Yamaha Corp Musical sound data processor
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01179087A (en) * 1988-01-06 1989-07-17 Yamaha Corp Automatic playing device
JPH0394297A (en) * 1989-09-06 1991-04-19 Yamaha Corp Musical sound data processor
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information
USRE40543E1 (en) * 1995-08-07 2008-10-21 Yamaha Corporation Method and device for automatic music composition employing music template information

Also Published As

Publication number Publication date
JP2715412B2 (en) 1998-02-18

Similar Documents

Publication Publication Date Title
Brown Explaining tonality: Schenkerian theory and beyond
US6124543A (en) Apparatus and method for automatically composing music according to a user-inputted theme melody
Hanninen A theory of recontextualization in music: Analyzing phenomenal transformations of repetition
JPS63311395A (en) Melody analyzing machine and automatically composing machine
JPH09244648A (en) Automatic music composing machine
Kostka INTERTEXTUALITY IN THE MUSIC OF OUR TIME: PAWEŁ SZYMAŃSKI'S RIDDLES
Cabral et al. Playing along with d’Accord guitar
Taylor Monotonality and scalar modulation in Sibelius’s Tapiola
Skinner Toward a quarter-tone syntax: Analyses of selected works by Blackwood, Haba, Ives, and Wyschnegradsky
Auerbach Tiered Polyphony and Its Determinative Role in the Piano Music of Johannes Brahms
Santa Studies in post-tonal diatonicism: Amod7 perspective
JP2638817B2 (en) Accompaniment line fundamental tone determination device
Mitchell Teaching arranging to classical and contemporary music students in higher education
Martin Harmonic progression in the music of Magnus Lindberg
Romig Twelve-tone rhythmic structure and its application to form: Time-point nesting and rotation in “Spin”
Yi STRAVINSKY’S SYNTHESIS: EXPLORING COHESION BEHIND SERIAL AND NON-SERIAL MOVEMENT IN AGON
Mueller Toward a Theory of Formal Function in Stravinsky's Neoclassical Keyboard Works
JP2638818B2 (en) Accompaniment line fundamental tone determination device
Robinson Circuition: Concerto for Jazz Guitar and Orchestra
JP3088919B2 (en) Tone judgment music device
Reale The process of multivalent thematic transformation
Dillon An Analysis of Melodic Relationships and Phrase Strucutres in Piobaireachd
Small CHANGING CHANGES: A COMPARATIVE HARMONIC ANALYSIS BETWEEN RECORDINGS OF SEVEN POPULAR JAZZ STANDARDS
Alegant et al. Taking Stock of Collections-A Strategy for Teaching The Analysis of Post-Tonal Music
Lanz The Concerti of Carl Nielsen

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 10