JPH01167882A - Automatic musical composition machine - Google Patents

Automatic musical composition machine

Info

Publication number
JPH01167882A
JPH01167882A JP62325180A JP32518087A JPH01167882A JP H01167882 A JPH01167882 A JP H01167882A JP 62325180 A JP62325180 A JP 62325180A JP 32518087 A JP32518087 A JP 32518087A JP H01167882 A JPH01167882 A JP H01167882A
Authority
JP
Japan
Prior art keywords
melody
stage
data
note
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62325180A
Other languages
Japanese (ja)
Other versions
JP2666063B2 (en
Inventor
Jiyunichi Minamidaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP62325180A priority Critical patent/JP2666063B2/en
Publication of JPH01167882A publication Critical patent/JPH01167882A/en
Application granted granted Critical
Publication of JP2666063B2 publication Critical patent/JP2666063B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PURPOSE:To widely execute a musical composition extending from a harmonious melody to an unharmonious melody by forming a framework of a final melody by a melody of a first stage which is generated, decorating this framework by a melody of a second stage, linking and assisting it. CONSTITUTION:From an input device 2, a motif, a compound sound advance, a kind of a pulse scale to be used, and a kind of the musical scale are inputted. Subsequently, in a memory 3, the inputted motif is stored, and in a memory 4, compound sound advance information is stored and by a CPU 1, the first stage memory is extracted, etc. In such a state, a user can select the musical scale to be used from a memory 5, and selects the second stage melody from a production rule data memory 6. Next, at the time of starting a musical composition, the user selects a pulse scale from a memory 7 in order to generate a rhythm of the melody, and completed melody data is stored in a memory 8. In such a state, in monitor 11, a result of musical composition is displayed and outputted through a CRT 12, a staff notation printer 13, a musical sound forming circuit 14 and a sound system 15.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は自動作曲機に関する。[Detailed description of the invention] [Technical field of invention] This invention relates to an automatic music composer.

[背 景] 通常の音楽のメロディラインを構成する音は、和声音と
非和声音に分けることができる。この点に着目して、本
件出願人は、特願昭62−86571号(昭和62年4
月8日出願)において、与えられたモチーフをコード進
行から、モチーフに含まれる分散和音の特徴パラメータ
と非和声音の特徴パラメータを抽出し、その抽出結果に
従って、各メロディ生成区間において、コードの構成音
を用いて分散和音の音列を生成し、しかる後、非和声音
を付加してメロディの音列を完成する自動作曲機を出願
している。
[Background] The sounds that make up the melody line of ordinary music can be divided into harmonic sounds and non-harmonic sounds. Focusing on this point, the applicant filed the patent application No. 86571 (April 1986).
(Application filed on August 8th) extracts the characteristic parameters of dispersive chords and the characteristic parameters of non-harmonic sounds included in the motif from the chord progression of a given motif, and according to the extraction results, constructs the chord in each melody generation section. We have filed an application for an automatic composing machine that uses sounds to generate a sequence of dispersive chords, and then adds non-harmonious tones to complete the sequence of melody notes.

したがって、この自動作曲機は和声的に好ましい曲を作
曲することが可使である0反面、各メロディ生成区間に
対するコードは自動作曲機に組み込まれたコードのセッ
トのなかから選択しなければならない。このことは、生
成されるメロディに和声的な制約を加えることになる。
Therefore, while this automatic composer can be used to compose harmonically pleasing music, the chords for each melody generation section must be selected from a set of chords built into the automatic composer. . This places harmonic constraints on the generated melody.

また、使用者がコード進行を入力するためには、予備知
識として和声学の知識を必要とする。
Further, in order for the user to input a chord progression, knowledge of harmony is required as prior knowledge.

[発明の目的] この発明は上述した背景に鑑みてなされたもので、その
目的は、和声的な曲から和声的でないような曲まで幅広
く作曲が可能であり、使用する上で格別の音楽知識を要
しない自動作曲機を提供することである。
[Purpose of the Invention] This invention was made in view of the above-mentioned background, and its purpose is to enable a wide range of compositions from harmonic to non-harmonic songs, and to create a system that is exceptional in use. To provide an automatic composition machine that does not require musical knowledge.

[発明の構成、作用] この発明は、上記の目的を達成するため、使用者から入
力されるモチーフ(1〜数小節のメロディ)と、一次構
成音(第1段階のメロディに含まれる音の集合)の進行
とに基づいて、第1段階のメロディの特徴パラメータと
第2段階のメロディの特徴パラメータを抽出する特徴パ
ラメータ抽出手段と、各メロディ生成区間における一次
構成音を使用し、かつ上記第1段階のメロディの特徴パ
ラメータに従って第1段階のメロディを生成する第1段
階メロディ生成手段と、生成された第1段階のメロディ
に対し、上記第2段階のメロディ特 ′徴パラメータに
従って第2段階のメロディを付加する第2段階メロディ
付加手段とを有することを特徴とする。
[Structure and operation of the invention] In order to achieve the above object, the present invention uses a motif (one to several bars of melody) input by the user and the primary constituent sounds (the sounds included in the first stage melody). a feature parameter extraction means for extracting the feature parameters of the first stage melody and the feature parameters of the second stage melody based on the progression of the melody generation section; a first stage melody generating means for generating a first stage melody according to the characteristic parameters of the first stage melody; It is characterized by having a second stage melody adding means for adding a melody.

上記一次構成音は1ないし複数の音で構成される。The above-mentioned primary constituent sounds are composed of one or more sounds.

本自動作曲機はメロディの生成を2段階で行っており、
第1段階のメロディは最終的に生成されるメロディの骨
組を構成し、第2段階のメロディは、この骨組を装飾あ
るいはつなぐように働く。
This automatic music composer generates melodies in two stages.
The melody of the first stage constitutes the framework of the melody that is finally generated, and the melody of the second stage serves to decorate or connect this framework.

この2重構造のメロディラインは、一次構成音として、
どのような音を選択するかで、多様に変化し、ある場合
には伝統的な曲が形成され、ある場合には斬新で実験的
な曲が形成される。
This double-structured melody line is the primary constituent sound,
Depending on what kind of sound you choose, the songs change in a variety of ways, sometimes creating traditional songs, and other times creating new, experimental songs.

[実施例] 以下、本発明の実施例について説明する。作曲機モード
において、本自動作曲装置は音を第1段階メロデイ音と
第2段階メロデイ音とに分けて作曲するアプローチを採
用している。作曲の基礎となるデータとして、第1段階
メロデイ音の音高組織を定める一次構成音(以下、複音
と呼ぶ)の進行情報、モチーフ(使用者から入力される
メロディ)、生成するメロディのリズムないし音長列の
制御に用いるパルススケール、基本となる音階の種類が
与えられる。モチーフに含まれる各音は各区間に割り当
てた複音情報を用いることで、第1段階メロデイ音と第
2段階メロデイ音とに識別される。モチーフから第2段
階メロデイ音を除いた部分はモチーフの第1段階メロデ
イ音の音列である。この音列から、第1段階メロディの
置型の特徴が抽出される。また、第1段階メロデイ音と
第2段階メロデイ音との識別がつけられたモチーフに対
しては、第2段階メロデイ音を分類する音楽知識(これ
は後述するプロダクションルールデータメモリに記憶さ
れている)を利用することにより、モチーフに含まれる
各第2段階メロデイ音のタイプ(特徴)を抽出できる。
[Examples] Examples of the present invention will be described below. In composer mode, this automatic composition device adopts an approach of composing sounds by dividing them into first-stage melody sounds and second-stage melody sounds. Data that forms the basis of composition include progression information of primary constituent tones (hereinafter referred to as complex tones) that determine the pitch organization of the first stage melody tones, motifs (melody input by the user), and the rhythm or rhythm of the melody to be generated. The pulse scale used to control the note length sequence and the types of basic scales are given. Each sound included in the motif is distinguished into a first stage melody sound and a second stage melody sound by using the compound sound information assigned to each section. The part obtained by removing the second-stage melody tones from the motif is the tone sequence of the first-stage melody tones of the motif. From this string of notes, the positional features of the first stage melody are extracted. Furthermore, for a motif that has been identified as a first-stage melody sound and a second-stage melody sound, musical knowledge for classifying the second-stage melody sound (this is stored in the production rule data memory described later) is used. ), it is possible to extract the type (characteristic) of each second stage melody sound included in the motif.

すなわち、モチーフのなかに、どのような第2段階メロ
デイ音がどのように分布しているかを示す情報(第2段
階メロディの特徴)が得られる。さらに複音進行からは
、曲の階層構造と調性構造とが抽出される。
That is, information (characteristics of the second stage melody) indicating how the second stage melody sounds are distributed within the motif can be obtained. Furthermore, the hierarchical structure and tonality structure of the song are extracted from the multitone progression.

メロディの生成は、第1段階メロディの生成工程、第2
段階メロディの付加工程、音長列の生成工程から成る。
The generation of the melody consists of the first stage melody generation process, the second stage melody generation process, and the second stage melody generation process.
It consists of a stage melody addition process and a tone length sequence generation process.

第1段階メロディの生成工程では、複音進行情報から抽
出した上記階層構造によって、第1段階メロディの置型
の生成が制御される0階層構造により新しい第1段階メ
ロディの置型の生成が指示される場合、第1段階メロデ
ィの置型の特徴(モチーフから抽出した第1段階メロデ
ィの置型の特徴またはそれを修飾したもの)から第1段
階メロディの置型が生成され、生成された第1段階メロ
ディの置型に対応する複音情報を適用することにより音
高列で表現される第1段階メロディが生成される。この
ようにして生成された第1段階メロディに対して第2段
階メロディが付加される。第2段階メロディを符加する
のに上述した音楽知識が再度利用される。第2段階メロ
デイ音付加の推論において、付加可能な音は第2段階メ
ロディの特徴を満たすものであることと、音階音である
ことを条件とする。ここにおける音階音は、複音進行か
ら抽出した調性構造に従って基本とする音階の主音(キ
ー、調性)を転回した音階上の音である。第2段階メロ
デイ音の分類と第2段階メロデイ音の付加とにおいて、
共通の音楽知識を使って推論が行われるため、本装置に
よるメロディの分析と合成との間には「可逆性」が与え
られる。完全な可逆性とは、あるメロディを分析して、
ある分析結果を得たとし、逆に、その分析結果を基にし
てメロディを生成した場合に、生成されたメロディが当
初のメロディに一致することである。第1段階メロディ
に第2段階メロディを付加することによりメロディの音
高列が完成する。一方、メロディの音長列の方は、次の
ようにして得られる。すなわち、基本となるリズム(音
長列)を目標音符数(例えば和声音と非和声音の合計の
数)になるように、パルススケールを使って最適結合ま
たは最適分割する。どの音符がどの位lで分割または結
合されるかは選択したパルススケールがもつ各パルス点
の重みに依存する。したがって一貫性のあるリズム制御
が可能である。
In the step of generating the first stage melody, the generation of the position type of the first stage melody is controlled by the above-mentioned hierarchical structure extracted from the multitone progression information.When the generation of the position type of the new first stage melody is instructed by the zero layer structure. , the first stage melody position type is generated from the first stage melody position type feature (the first stage melody position type feature extracted from the motif or a modification thereof), and the first stage melody position type is By applying the corresponding polytone information, a first stage melody expressed by a series of pitches is generated. A second stage melody is added to the first stage melody thus generated. The musical knowledge described above is again used to add the second stage melody. In the inference of second-stage melody sound addition, the conditions are that the sounds that can be added satisfy the characteristics of the second-stage melody and are scale sounds. The scale tones here are tones on a scale obtained by inverting the tonic (key, tonality) of the basic scale according to the tonality structure extracted from the multiple-tone progression. In the classification of second stage melody sounds and the addition of second stage melody sounds,
Because inferences are made using common musical knowledge, ``reversibility'' is provided between the analysis and synthesis of melody by the device. Complete reversibility means that by analyzing a certain melody,
If a certain analysis result is obtained, and conversely a melody is generated based on the analysis result, the generated melody will match the original melody. By adding the second stage melody to the first stage melody, the pitch sequence of the melody is completed. On the other hand, the tone length sequence of the melody can be obtained as follows. That is, the basic rhythm (sequence of note lengths) is optimally combined or divided using a pulse scale so that the target number of notes (for example, the total number of harmonic and non-harmonic sounds) is achieved. How many notes are divided or combined depends on the weight of each pulse point of the selected pulse scale. Therefore, consistent rhythm control is possible.

く全体構成〉 第1図に本実施例に係る自動作曲機の全体構成図を示す
、CPUIは本装置における自動作曲機能を実現するた
めの制御装置である。入力装置2からは、モチーフ(メ
ロディ)、複音進行、使用するパルススケールの種類、
使用する音階の種類などが入力される。モチーフメモリ
3には入力されたモチーフが記憶される。複音進行メモ
リ4は複音進行情報を記憶するメモリであり、メモリ4
の情報は複音進行を分析する場合、第1段階メロディを
抽出または生成する場合などにCPUIにより使用され
る。音階データメモリ5はさまざまな種類の音階を表わ
す音階データを記憶するメモリであり、作曲に先立ち、
使用者は曲で使用する音階として特定の音階をこのメモ
リ5の音階セットのなかから選択することができる。プ
ロダクシゴンルールデータメモリ6には、第2段階メロ
デイ音を分類するための音楽知識が記憶される。この音
楽知識はモチーフに含まれる第2段階メロデイ音を分類
する場合、生成した第1段階メロディに第2段階メロデ
ィを付加する場合に利用される。パルススケールメモリ
7は各種のパルススケール(パルススケールのセット)
を記憶スるメモリであり、作曲の開始時、使用者は曲に
もたせるリズムの0徴を考慮して、このパルススケール
のセットのなかから所望のパルススケールを選択するこ
とができる0選択されたパルススケールはメロディのリ
ズム(音長列)の生成に利用される。
Overall Configuration> FIG. 1 shows an overall configuration diagram of the automatic composing machine according to this embodiment. The CPUI is a control device for realizing the automatic composing function in this apparatus. From the input device 2, the motif (melody), multitone progression, type of pulse scale to be used,
The type of scale to be used, etc. is input. The motif memory 3 stores the input motif. The multiple note progression memory 4 is a memory that stores multiple note progression information.
The information is used by the CPUI when analyzing a polyphonic progression, when extracting or generating a first stage melody, etc. The scale data memory 5 is a memory that stores scale data representing various types of scales.
The user can select a specific scale from the set of scales in the memory 5 as a scale to be used in a song. The production rule data memory 6 stores musical knowledge for classifying the second stage melody sounds. This music knowledge is used when classifying the second stage melody sounds included in the motif and when adding the second stage melody to the generated first stage melody. Pulse scale memory 7 stores various pulse scales (set of pulse scales)
When starting a composition, the user can select a desired pulse scale from this set of pulse scales, taking into account the rhythmic signature of the song. The pulse scale is used to generate the rhythm (sequence of note lengths) of a melody.

メロディデータメモリ8には完成したメロディデータが
記憶される。外部記憶装置はメロディデータメモリ8に
記憶したメロディデータの写し、別の音楽知識、別の作
曲プログラムの資源として利用される。ワークメモリl
OにはCPUIが動作中に使用する各種のデータ、例え
ば調性構造、階層構造、各種変数などが記憶される。モ
ニター11はCRT12、五線譜プリンタ13、楽音形
成回路14、サウンドシステム15から構成され、作曲
結果や分析結果をこれらの装置を通して表示、出力でき
る。
The completed melody data is stored in the melody data memory 8. The external storage device is used as a copy of the melody data stored in the melody data memory 8, other music knowledge, and a resource for another composition program. work memory l
O stores various data used by the CPU during operation, such as tonality structure, hierarchical structure, and various variables. The monitor 11 is composed of a CRT 12, a staff notation printer 13, a tone forming circuit 14, and a sound system 15, and can display and output composition results and analysis results through these devices.

く作曲ゼネラルフロー〉 作曲機モードにおける本装置の全体フロー(作曲ゼネラ
ルフロー)を第2図に示す。
General Composition Flow> Figure 2 shows the overall flow (general composition flow) of this device in composer mode.

4−1の初期設定では、使用者より自動作曲機に対して
、作曲のための基本的な情報が入力される。使用者が自
動作曲機に知らせる情報として、(1)BEAT、(2
)パルススケールの種類(3)音階(4)全自動かモチ
ーフ入力が示されている。BEATは基本単位長の音符
(最短の音符)の数で表わされる1小節の長さであり、
したかって曲の拍子を規定するものである。例えば、4
拍子系の曲に対しては、音符の基本単位長を16分音符
とするとBEAT= 16を設定すれば1小節の長さは
4拍となる。4−1で選択するパルススケールは自動作
曲機が作曲する曲のリズムを一次的にv制御する情報で
ある。パルススケールは、基本単位長の間隔をもつ各パ
ルス点に、音符の結合のしやすさまたは音符の分割のし
やすさを表わす東みが付けられたスケールであり(第7
図、第12図参照)、このパルススケールを使用するこ
とによりメロディの音長列が制御される。
In the initial setting 4-1, the user inputs basic information for composing music to the automatic composing machine. The information that the user informs the automatic music composer is (1) BEAT, (2)
) Type of pulse scale (3) Scale (4) Fully automatic or motif input is shown. BEAT is the length of one bar expressed in the number of notes (the shortest note) of the basic unit length,
It is what defines the time signature of the song. For example, 4
For songs with time signatures, if the basic unit length of notes is a 16th note, then if BEAT=16 is set, the length of one bar will be 4 beats. The pulse scale selected in step 4-1 is information that primarily controls the rhythm of the music composed by the automatic music composer. A pulse scale is a scale in which each pulse point, which has an interval of the basic unit length, is given an easterly edge that indicates the ease with which notes can be combined or divided.
12), the tone length sequence of the melody is controlled by using this pulse scale.

したがって、パルススケールの種類を選択するというこ
とは、自動作曲機が作曲する曲のリズムの特徴を選択し
ていることに相当する。4−1で選択される音階の種類
(例えば、ダイアトニックスケール)は、自動作曲機が
作曲において使用する音階である。さらに初期設定4−
1においては、作曲を全自動で行うか、モチーフを基に
行うかが使用者により決定される。全自動のときは、作
曲に必要なデータとして、(1)複音進行、(2)プロ
ダクションルール(3)パルススケールがワークメモリ
lO上に読み込まれ(4−3)、(1)基本とするリズ
ム(音長パターン)、(2)第1段階メロディパターン
の特徴(PCi:第5図参照)、(3)第2段階メロデ
ィの特徴(R5i:第55!J参照)から成るエツセン
スが使用者の指示に従って生成される(4−4)、 −
方、モチーフを利用する作曲モードでは、データ読み込
み4−5として上述のデータ以外にモチーフ(入力メロ
ディ)も読み込まれ、エツセンスとしての(1)リズム
(2)第1段階メロディパターン(3)第1段階メロデ
ィパターンの特徴、(4)m2段階メロディの特徴は、
このモチーフから抽出される(4−5)、全自動、モチ
ーフ利用モードのいずれの場合も、複音進行の評価4−
7が行われ、ここで(1)階層構造(2)調性構造が複
音進行情報から抽出される。この階層構造は複音進行に
内在する曲の一貫性と多様性を表現したもので^る。ま
た、調性構造は各区間において使用する音階のキー(基
音)を規定するものである。この4−7までの処理で、
作曲のための「分析的作業」が完了している0例えば、
第1段階メロディパターンの特徴は、第1段階メロディ
の置型の生成に必要な情報であり、第2段階メロディの
特徴は、第1段階メロディに付加する第2段階メロディ
を特徴づけるものである。また調性構造は、各区間のメ
ロディの音の候補を制約する0階層構造は、新たに第1
段階メロディの置型を生成するか否かを決めるのに利用
できる。またパルススケールはリズムの生成に利用され
る。メロディ生成4−8では、(1)第1段階メロディ
の生成(2)第2段階メロディの付加(3)リズムの生
成が実行される。
Therefore, selecting the type of pulse scale corresponds to selecting the rhythmic characteristics of the piece of music to be composed by the automatic composer. The type of scale selected in step 4-1 (for example, diatonic scale) is a scale used by the automatic composer in composing music. Further initial settings 4-
1, the user decides whether to compose the music fully automatically or based on a motif. When fully automatic, the data necessary for composing (1) multitone progression, (2) production rules, and (3) pulse scale are loaded into the work memory lO (4-3), and (1) the basic rhythm. (note length pattern), (2) characteristics of the first stage melody pattern (PCi: see Figure 5), and (3) characteristics of the second stage melody (R5i: see No. 55!J). Generated according to the instructions (4-4), −
On the other hand, in the composition mode that uses motifs, the motif (input melody) is also read in addition to the above data as data reading 4-5, and the essence of (1) rhythm (2) first stage melody pattern (3) first stage melody pattern is read. Characteristics of the step melody pattern, (4) The characteristics of the m2 step melody are:
(4-5) Extracted from this motif, in both fully automatic and motif usage modes, evaluation of polyphonic progression 4-
7 is performed, where (1) hierarchical structure (2) tonal structure is extracted from the polytone progression information. This hierarchical structure expresses the coherence and diversity of the song inherent in the multitone progression. Further, the tonality structure defines the key (fundamental tone) of the scale used in each section. By processing steps 4-7,
For example, the “analytical work” for composing has been completed.
The characteristics of the first stage melody pattern are information necessary to generate a pattern of the first stage melody, and the characteristics of the second stage melody characterize the second stage melody added to the first stage melody. In addition, the tonality structure has a new 0-layer structure that constrains the candidate notes of the melody for each section.
It can be used to decide whether to generate a stage melody type. The pulse scale is also used to generate rhythm. In the melody generation 4-8, (1) generation of a first stage melody, (2) addition of a second stage melody, and (3) generation of a rhythm are executed.

く変数リスト、データ形式〉 後述するフローで使用される主な変数のリストを第3図
に、データ形式を第4図〜第8図に示す、なおデータ形
式は単なる例示であり、その他の任意の適当なデータ形
式が使用可能である。
Variable list, data format> Figure 3 shows a list of the main variables used in the flow described later, and Figures 4 to 8 show the data formats.The data formats are merely examples, and other arbitrary data formats are shown. Any suitable data format can be used.

以下、本装首の作曲機モードについて詳細に説明する。The composer mode of this headpiece will be explained in detail below.

く初期設定〉 作曲ゼネラルフロー(第2図)における初期設定4−1
の詳細を第9図に例示する。この初期設定で選択するB
EATの意味、パルススケールの種類(PULS)、音
階の種類(ISCALE)の意味、全自動又はモチーフ
入力の意味は第2図に関して説明したのでここでは省略
する。PULSの値は、パルススケールメモリ7(第1
図)に記憶される特定の種類のパルススケールへのポイ
ンタとなり、I 5CALEの値は音階データメモリ5
に記憶される特定の種類の音階データへのポインタとな
る。
Initial settings> Initial settings in the composition general flow (Figure 2) 4-1
The details are illustrated in FIG. Select B with this initial setting.
The meaning of EAT, the pulse scale type (PULS), the scale type (ISCALE), and the meaning of fully automatic or motif input have been explained with reference to FIG. 2, and will therefore be omitted here. The value of PULS is stored in pulse scale memory 7 (first
The value of I5CALE serves as a pointer to a specific type of pulse scale stored in the scale data memory 5.
This is a pointer to a specific type of scale data stored in the .

くデータ読み込み〉 第2図の作曲ゼネラルフローに示すように、初期設定の
後、4−3または4−5においてデータ読み込みが実行
される。全自動の場合は、作曲の基礎データとしてモチ
ーフは使用されないのでモチーフデータの読み込みは行
われない、各データの読み込みについて以下説明する。
Data Reading> As shown in the composition general flow of FIG. 2, after the initial settings, data reading is executed in 4-3 or 4-5. In the case of full automatic mode, motifs are not used as basic data for composition, so motif data is not loaded.The loading of each data will be explained below.

第10図は複音進行メモリ4(第1図)に記憶された複
音進行データ例を示す、第11図は複音進行メモリ4に
記憶された複音進行データをロードするフローチャート
である。第10図に示すメモリマツプでは、複音を構成
する音のデータ(CCi)は偶数アドレスにlかれ、そ
の複音の長さが次のアドレス(奇数アドレス)に置かれ
ている0例えば、16進表示で507の値をもつCCi
は、G、B、D、Fの4つの音を表わし、lOの値をも
つCRiは複音の長さが基本時間長(例えば16分音符
)の16倍であることを表わしている。
FIG. 10 shows an example of the multiple note progression data stored in the multiple note progression memory 4 (FIG. 1), and FIG. 11 is a flowchart for loading the multiple note progression data stored in the multiple note progression memory 4. In the memory map shown in Figure 10, the note data (CCi) constituting a compound note is placed at an even address, and the length of the note is placed at the next address (odd address). CCi with a value of 507
represents the four tones G, B, D, and F, and CRi having a value of 1O represents that the length of the compound tone is 16 times the basic time length (for example, a 16th note).

第ti図において、レジスタCCiには作曲する曲のi
番目に出現する複音データが入り、CRiにはその長さ
が入る。またCDN0には複音の総数が入る。その他の
点については第11図の記載から明らかであるので説明
は省略すや。
In Figure ti, the register CCi contains the i of the song to be composed.
The compound note data that appears the th time is entered, and its length is entered in CRi. CDN0 also contains the total number of double tones. Since other points are clear from the description in FIG. 11, their explanation will be omitted.

第12図にパルススケールメモリ7(第1図)に記憶さ
れるパルススケールデータ例を示す、第13図はパルス
スケールメモリ7から初期設定において選択した種類の
パルススケールをロードするフローチャートである。こ
の例の場合、初期設定において作曲する曲のリズムの特
徴を選択するために選択したパルススケールの[1(P
ULS)は、パルススケールメモリ7における特定のア
ドレス(例えば0)を指しており、そのアドレスには、
選択したパルススケールデータの開始アドレスが入って
いる。この開始アドレスには、パルススケールを構成す
るサブスケール(0と1の重みしかもたないスケール)
の数が記憶され、後続アドレスに各サブスケールのデー
タが記憶されている0例えばノーマルのパルススケール
は、5つのサブスケールFFFF、5555.1111
.0101.0001 (1B進表現)から成り、対応
する2進表現を第7図に示しである。ノーマルのパルス
スケールの場合、最初のパルス点(第7図の一番右側の
位WI)の重みが最大の5となっており、このことは、
ノーマルのパルススケールを選択した場合、生成される
リズムの各区間(小m)の最初の位置に最も音符が存在
しやすいことを表わしている。
FIG. 12 shows an example of pulse scale data stored in the pulse scale memory 7 (FIG. 1), and FIG. 13 is a flowchart for loading the type of pulse scale selected in the initial setting from the pulse scale memory 7. In this example, the pulse scale [1(P
ULS) points to a specific address (e.g. 0) in the pulse scale memory 7, and at that address,
Contains the start address of the selected pulse scale data. This start address contains the subscales that make up the pulse scale (scales that only have weights of 0 and 1).
For example, the normal pulse scale has 5 subscales FFFF, 5555.1111.
.. 0101.0001 (1B representation), and the corresponding binary representation is shown in FIG. In the case of the normal pulse scale, the weight of the first pulse point (the rightmost position WI in Fig. 7) is the maximum, 5, which means that
This indicates that when the normal pulse scale is selected, a note is most likely to exist at the first position of each section (small m) of the generated rhythm.

第14図はプロダクションルールデータメモリ6(第1
図)に記憶されるプロダクションルールデータの例を示
している。第15図はこのメモリ6に記憶されたデータ
を読み込むフローチャートである。プロダクションルー
ルの全体は、メロディに含まれる第2段階メロデイ音を
分類するための音楽知識を表現したものであり、各プロ
ダクションルールデータは、ルールの前提部を規定する
データとして下限データLi、関数の種類を指示する関
数指示データXi、上限データUiを有し、ルールの結
論部としてデータYiとNiを有する。関数は分析する
メロディの状況を数値表現したもので、その例は後述す
る第29図に示される。データXiで示される関数の値
FxiがLi以上でかつUi以下である(Li≦Fxi
≦Ui)というのがプロダクションルールの前提部(命
8)であり、この前提部が成立するときの結論がデータ
Yiで示され、この前提部が不成立のときの結論がデー
タNiで示されている。そして、データYiまたはNi
が正の値をもつときは、その値が前向推論において次に
参照すべきプロダクションルールの番号を示し、負の値
をもつときは、その絶対値によって第2段階メロデイ音
の種類が表現される。前向推論は必ず1つのルールから
開始され、このルールのことをルートと呼ぶ、負の値を
もつ結論YiまたはNiをみつけたときに前向推論は終
了する。
FIG. 14 shows the production rule data memory 6 (first
An example of production rule data stored in Figure 1) is shown. FIG. 15 is a flowchart for reading data stored in this memory 6. The entire production rule is an expression of musical knowledge for classifying the second-stage melody sounds included in the melody, and each production rule data includes lower limit data Li as data that defines the prerequisite part of the rule, and a function It has function instruction data Xi indicating the type, upper limit data Ui, and data Yi and Ni as the conclusion part of the rule. The function is a numerical expression of the state of the melody to be analyzed, and an example thereof is shown in FIG. 29, which will be described later. The value Fxi of the function indicated by data Xi is greater than or equal to Li and less than or equal to Ui (Li≦Fxi
≦Ui) is the premise (life 8) of the production rule, and the conclusion when this premise holds is shown by data Yi, and the conclusion when this premise does not hold is shown by data Ni. There is. And data Yi or Ni
When has a positive value, that value indicates the next production rule number to be referred to in forward inference, and when it has a negative value, the type of second-stage melody sound is expressed by its absolute value. Ru. Forward inference always starts from one rule, and this rule is called a root, and forward inference ends when a conclusion Yi or Ni having a negative value is found.

第14図に示すプロダクションルールデータのアドレス
割当の場合、各プロダクションルールのデータは下限デ
ータLiのアドレスを先頭として5つの連続するアドレ
スに、記憶される。詳細には5で割り切れるアドレスに
Liが、5で割った余り1のアドレスにXiが、余り2
のアドレスにUiが、余り3のアドレスにYiが、余り
4のアドレスにNiのデータが記憶される。
In the case of the address assignment of the production rule data shown in FIG. 14, the data of each production rule is stored in five consecutive addresses starting from the address of the lower limit data Li. In detail, Li is assigned to addresses that are divisible by 5, Xi is assigned to addresses that have a remainder of 1 when divided by 5, and addresses that have a remainder of 2.
Data of Ui is stored at the address of , data of Yi is stored at the address of remainder 3, and data of Ni is stored at the address of remainder 4.

第15図においてRULENOには、プロダクションル
ールの総数がセットされる。その他の点については上述
の説明とフローの記載から明らかである。
In FIG. 15, the total number of production rules is set in RULENO. Other points are clear from the above explanation and flow description.

第16図はモチーフメモリ3に記憶されるモチーフデー
タ(メロディデータ)の例を示す、第17図は作曲の基
になるモチーフデータを読み込むフローチャートである
。第16図の場合、偶数アドレスに音符の音高データM
Diがその次の奇数アドレスに、その音符の音長データ
MRfが記憶されている。第17図のMDNOにはモチ
ーフの音符数がセットされる。
FIG. 16 shows an example of motif data (melody data) stored in the motif memory 3, and FIG. 17 is a flowchart for reading the motif data that is the basis of a composition. In the case of Fig. 16, the pitch data M of the note is at the even address.
The tone length data MRf of that note is stored at the next odd address after Di. The number of notes of the motif is set in MDNO in FIG. 17.

以上でデータ読み込みの説明を終える。This concludes the explanation of data loading.

くエツセンスの生成〉 モチーフを使用しない全自動の作曲モードではデータ読
み込みの後、曲のエツセンスとしてリズム、第1段階メ
ロディパターンの特徴、第2段階メロディの特徴を生成
する(第2図の4−4)。
Generation of Essence> In the fully automatic composition mode that does not use motifs, after reading the data, the rhythm, characteristics of the first stage melody pattern, and characteristics of the second stage melody are generated as the essence of the song (see 4-4 in Figure 2). 4).

第18図にこのエツセンス生成のフローチャートを示す
。これらのエツセンスは、使用者の指定あるいは完全自
動で生成される0例えば、22−1における基準リズム
パターンの設定は、自動リズムパターン生成手段、例え
ば拍子として4/4拍子、パルススケールとしてノーマ
ルが選択されているときにツノ」ノを基準リズムパター
ンとして自動生成するような手段あるいは使用者が好み
のリズムパターンを入力することで行われる。22−2
の第1段階メロディパターンの特徴設定と22−3の第
2段階メロディの特徴設定についても自動または使用者
の入力により行われる。第19図には乱数発生等により
第1段階メロディパターンの特徴を自動設定するフロー
チャートを、第20図には第2段階メロディの特徴を使
用者が入力することにより設定するフローチャートを例
示する。
FIG. 18 shows a flowchart of this essence generation. These essences can be specified by the user or generated completely automatically. For example, the reference rhythm pattern in 22-1 is set by automatic rhythm pattern generation means, for example, 4/4 time as the time signature and normal as the pulse scale. This can be done by automatically generating Tsuno'no as a reference rhythm pattern when the rhythm pattern is being played, or by inputting the user's favorite rhythm pattern. 22-2
The characteristic setting of the first stage melody pattern in 22-3 and the characteristic setting of the second stage melody in 22-3 are also performed automatically or by user input. FIG. 19 illustrates a flowchart for automatically setting the characteristics of the first stage melody pattern by random number generation, etc., and FIG. 20 illustrates a flowchart for setting the characteristics of the second stage melody pattern by input by the user.

第1段階メロディパターンの特徴設定(第19図)にお
けるPCl 〜PCsは所定長の区間(例えば小節)内
の第1段階メロディを構成する音の数、最高音、最低音
、隣り合う第1段階メロデイ音間の差の最大値、隣り合
う第1段階メロデイ音間の差の最小値をそれぞれ表わす
(第5図参照)、各PCは、区間毎に生成可能であり、
そのとりうる値の上限と下限を設定し、その間で乱数を
発生することで得られる。あるいは、曲の進行に対する
PCの系列をデータベースに用意しておき、所望のPC
系列を選択するようにしてもよい。
In the feature setting of the first stage melody pattern (Fig. 19), PCl to PCs are the number of notes constituting the first stage melody within a section of a predetermined length (for example, a measure), the highest note, the lowest note, and the adjacent first stage. Each PC can generate the maximum value of the difference between melody tones and the minimum value of the difference between adjacent first stage melody tones (see Fig. 5) for each section.
It can be obtained by setting the upper and lower limits of the possible values and generating random numbers between them. Alternatively, you can prepare a database of PC series corresponding to the progression of the song, and select the desired PC.
It is also possible to select a series.

第20図の第2段階メロディの特徴設定では、モニター
により、各第2段階メロデイ音の種類aに対応するキー
ワードを表示して、使用者の入力を促している(24−
2)。R5iの配列に使用者の入力した第2段階メロデ
ィ音識別子aの系列が入る(24−3.24−6.24
−7)、入力の終りを示すコードEOIを呼んだとき、
R3N0に第2段階メロデイ音の数を入れてフローを抜
ける(24−8)。
In the second-stage melody feature setting shown in FIG. 20, the monitor displays the keyword corresponding to the type a of each second-stage melody sound to prompt the user to input it (24-
2). The sequence of the second stage melody sound identifier a input by the user is entered in the array of R5i (24-3.24-6.24
-7), when calling the code EOI indicating the end of input,
The number of second stage melody sounds is entered into R3N0 and the flow exits (24-8).

くエツセンスの抽出〉 モチーフを利用する作曲モードではデータ読み込みの後
、モチーフから曲のエツセンス(リズム、第1段階メロ
ディパターン、第1段階メロディパターンの特徴、第2
段階メロデイ音の特徴)が抽出される(第2図、4−6
)。
Extracting the essence of the song> In the composition mode that uses motifs, after reading the data, extracting the essence of the song from the motif (rhythm, first stage melody pattern, characteristics of the first stage melody pattern, second stage melody pattern,
Characteristics of staged melody sounds) are extracted (Fig. 2, 4-6).
).

モチーフのリズム評価を第21図に、第1段階メロディ
パターンの抽出を第25図に、第1段階メロディパター
ン(置型)の特徴抽出を第26図に、第2段階メロディ
の特徴抽出を第27図に例示する。これらのフローでは
、各エツセンスは区間(小節)ごとに抽出している。
The rhythmic evaluation of the motif is shown in Figure 21, the first stage melody pattern extraction is shown in Figure 25, the first stage melody pattern (placed type) feature extraction is shown in Figure 26, and the second stage melody feature extraction is shown in Figure 27. An example is shown in the figure. In these flows, each essence is extracted for each section (measure).

第21図のリズム評価において、25−1におけるPs
には対象の小節の先頭の音符が曲の何番目の音符である
かを示す位置情報が入り、PSSにはPsで示される小
節の先頭の音符が前小節にはみ出している長さ(基本時
間表現)が入り、Peには対象の小節の最後の音符(次
小節の先頭の音符より1つ前の音符)の位置情報が入る
。25−2に示すrrは対象の小節のリズムパターンを
格納する16ビツトのレジスタであり、1小節の長さを
16とすると、レジスタrrの最初のビット位置は、小
節の最初の基本時間を表わし、同様にN番目のビット位
置は小節の頭からN番目の基本時間を表わす、25−3
〜25−9までの処理は、モチーフの音符Psから音符
reまでにある音符の位置をモチーフ音長データMRi
を使って求め、レジスタrrの対応するビット位置に記
入する処理である。例えば、rrとして、ooo i 
ooo i ooo t ooo tの結果が得られた
とすると、このパターンrrは対象の小節の1拍目、2
拍目、3拍目、4拍目に音が発生することを表わしてい
る。
In the rhythm evaluation in Figure 21, Ps at 25-1
contains positional information indicating the number of the first note of the target measure in the song, and PSS contains positional information indicating the number of notes in the song at the beginning of the target measure, and PSS indicates the length of time that the first note of the measure, indicated by Ps, protrudes into the previous measure (basic time expression) is entered, and Pe contains the position information of the last note of the target measure (the note one note before the first note of the next measure). rr shown in 25-2 is a 16-bit register that stores the rhythm pattern of the target measure.If the length of one measure is 16, the first bit position of register rr represents the first basic time of the measure. , similarly, the Nth bit position represents the Nth basic time from the beginning of the measure, 25-3
The processing from 25-9 to 25-9 uses the motif note length data MRi to determine the position of the note from the motif note Ps to the note re.
This is the process of calculating the value using , and writing it into the corresponding bit position of register rr. For example, as rr, ooo i
If the result of ooo i ooo t ooo t is obtained, this pattern rr will be the 1st and 2nd beats of the target measure.
This indicates that the sound is generated on the 3rd, 3rd, and 4th beats.

PS、PSS、Pe、Peeの算出の詳細は第22図〜
第24図に示される。Feeは、Peの次の音符、すな
わち次小節の先頭の音符が対象の小節に割り込んでいる
長さを表わす。
Details of calculation of PS, PSS, Pe, and Pee are shown in Figure 22~
It is shown in FIG. Fee represents the length by which the note following Pe, that is, the first note of the next measure, cuts into the target measure.

第23図のPs、Pssの算出フローにおいて、bea
tは1小節の長さ(基本時間長表現)、barは対象の
小節の番号(ユーザーの指定した小節番号を表わす、指
定した小節の番号が1より小さいが、曲の小節数(mn
o)より大きいときは入力ミスである。指定した小節が
1のときは、Ps=1.Pss冨Oにする(27−4.
27−5)、Ps=1になる理由は、最初の小節の場合
、小節の先頭の音符は曲の最初の音符ないし全モチーフ
データの最初の音符にほかならないからであり、Pss
=Oになる理由は、先行小節が存在しないからである。
In the calculation flow of Ps and Pss in Fig. 23, bea
t is the length of one bar (basic time length expression), bar is the number of the target bar (represents the bar number specified by the user, the specified bar number is smaller than 1, but the number of bars in the song (mn
o) If it is larger than that, it is an input error. When the specified measure is 1, Ps=1. Make Pss Tomi O (27-4.
27-5), the reason why Ps = 1 is that in the case of the first measure, the first note of the measure is the first note of the song or the first note of all motif data, and Pss
=O because there is no preceding measure.

27−2で求めたalは曲の頭から対象の小節の前方小
m線までの長さであり、この長さalをモチーフの音長
データMRiを先頭から累算して得た長さSと比較する
(27−7.27−8.27−10.27−12)、5
=alが成立するときは、Sに最後に累算されたi番目
の音高データの次の音符が対象の小節の頭から開始する
。したがってPs= i +1、Pss=0とする(2
7−9)、一方、S〉alが成立するときは、Sに最後
に加えた音長データをもつ音符、すなわち、i番目の音
符が対象の小節の先頭の音符である。したがってPs=
iとする。またPss=MRi−3+a1 とする(2
7−9)。
The al calculated in 27-2 is the length from the beginning of the song to the front bar m line of the target measure, and this length al is the length S obtained by accumulating the note length data MRi of the motif from the beginning. Compare with (27-7.27-8.27-10.27-12), 5
When =al holds true, the note next to the i-th pitch data accumulated last in S starts from the beginning of the target measure. Therefore, Ps= i +1, Pss=0 (2
7-9), On the other hand, when S>al holds true, the note with the note length data added last to S, that is, the i-th note, is the first note of the target bar. Therefore, Ps=
Let it be i. Also, let Pss=MRi-3+a1 (2
7-9).

第24図に示すPe、Feeの算出フローは第23図と
よく似た処理を行う。ただしalには曲の冒頭から対象
の小節の後方小節線までの長さが入る、その他の点につ
いては説明を省略する。
The calculation flow for Pe and Fee shown in FIG. 24 performs processing very similar to that in FIG. 23. However, al contains the length from the beginning of the song to the bar line after the target bar, and other points will not be explained.

第25図に示す第1段階メロディの音型抽出フローでは
対象の小節のモチーフから第1段階メーロディパターン
(LLi)を抽出している。処理の概要を述べると、P
sとPeで示される対象の小節に対し、複音進行情報に
おける対応する複音情報を使用して、モチーフデータが
第1段階メロデイ音かどうかを判別し、第1段階メロデ
イ音と判別された音に対しては、それが複音のなかで下
から何番目の音であるかを調べてLLの形式のデータを
得る、詳細に述べると、まずモチーフデータのなかから
、評価の対象となる最初の音符(P s)と最後の音符
(Pe)を求める(29−1)8次に、複音データをロ
ードする(29−2)、次に、音符カウンタiと第1段
階メロディ音符ウンタkを初期化する(29−3.29
−4)。29−5の処理はモチーフの音高データMDi
を複音データCCと同じデータ形成に変換する処理であ
る。例えば、′G”の音は、ビット位置7に“l”をも
つデータmmに変換される。
In the first stage melody tone pattern extraction flow shown in FIG. 25, the first stage melody pattern (LLi) is extracted from the motif of the target bar. To outline the process, P
For the target measure indicated by s and Pe, it is determined whether the motif data is a first stage melody note using the corresponding compound note information in the compound note progression information, and the note determined to be a first stage melody note is For this, data in the form of LL is obtained by checking the number of notes from the bottom of the compound notes.To be more specific, first, from the motif data, first note is the first note to be evaluated. (P s) and find the last note (Pe) (29-1) 8 Next, load the compound note data (29-2), then initialize the note counter i and the first stage melody note counter k (29-3.29
-4). The processing of 29-5 is the motif pitch data MDi
This is a process of converting the data into the same data format as the compound tone data CC. For example, the sound 'G' is converted to data mm with 'l' in bit position 7.

29−6でこの音高データmmが複音構成音か否かをチ
エツクしている。これは、音高データmmと複音データ
CCとの論理積(mmΔcc)をとることで判別できる
。29−7〜29−13では、複音データCCのビット
“l”の中で、モチーフの音高データmmのビット“l
”と一致するのは何番目であるかを調べ、その結果Cに
モチーフの音のオクターブ番号(MDiAffoo)を
加えて、第1段階メロディパターンデータLLkとして
いる。29−15で次の音符にカウンタiを進め、音符
番号がPeに達するまで(29−16)、LLを求める
。29−17のLLNOには対象の区間の第1段階メロ
ディの音符数が入る。
At step 29-6, it is checked whether the pitch data mm is a complex note. This can be determined by calculating the logical product (mmΔcc) of the pitch data mm and the compound tone data CC. In 29-7 to 29-13, bit "l" of pitch data mm of the motif is set in bit "l" of compound note data CC.
”, and as a result, the octave number of the note of the motif (MDiAffoo) is added to C to create the first stage melody pattern data LLk. At 29-15, the counter is added to the next note. LL is obtained by advancing i until the note number reaches Pe (29-16).The number of notes of the first stage melody of the target section is entered in LLNO of 29-17.

第26図の第1段階メロディの置型の特徴は、第25図
の第1段階メロディの置型の抽出結果(LL i )、
LLNOから導き出される。
The characteristics of the placement type of the first stage melody in Fig. 26 are the extraction result (LL i ) of the placement type of the first stage melody in Fig. 25,
Derived from LLNO.

第27図の第2段階メロディの特徴抽出では、対象の区
間のモチーフに分布する第2段階メロデイ音の種類のパ
ターンを求めている。第2段階メロデイ音のカウンタと
音符カウンタをセットしく33−2.33−3)、着目
している音符が第2段階メロデイ音の場合(33−4)
、その音符を中心とするモチーフの状況を表わす関数F
を計算し、プロダクションルールによる前向推論を実行
して第2段階メロデイ音の種類を求めR3jに代入する
(33−5〜33−8)。この第2段階メロデイ音の分
類処理をreに達するまで行うことにより、配列(R3
j)には、対象の区間のモチーフの第2段階メロデイ音
の種類の並びがセットされる。33−11のPSNOに
は対象の区間の第2段階メロデイ音の総数が入る。
In the second-stage melody feature extraction shown in FIG. 27, a pattern of types of second-stage melody sounds distributed in the motif of the target section is obtained. Set the counter and note counter for the second stage melody sound (33-2.33-3), and if the note of interest is the second stage melody sound (33-4)
, a function F that represents the situation of the motif centered on that note.
is calculated, and forward inference is performed using production rules to find the type of second stage melody sound and substituted into R3j (33-5 to 33-8). By performing this second stage melody sound classification processing until reaching re, the array (R3
In j), the arrangement of types of second stage melody sounds of the motif of the target section is set. The total number of second stage melody sounds in the target section is entered in PSNO 33-11.

33−4に示すMDiが第2段階メロデイ音かどうかの
判別処理の詳細は第28図に示される。
Details of the process for determining whether MDi shown at 33-4 is a second stage melody tone are shown in FIG.

この判別処理は、第1段階メロディの置型の抽出(第2
5図)において、着目している音符が第1段階メロデイ
音(複音の構成音)か否かを判別する処理と同様であり
、対象の区間の複音の構成音のなかに着目している音符
の音名が含まれるか否かで判別できる。
This discrimination process involves the extraction of the placement type of the first stage melody (the second
In Figure 5), this process is similar to the process of determining whether the note of interest is a first-stage melody note (a constituent note of a compound note), and the note of interest is among the notes of a compound note in the target section. This can be determined by whether or not it includes the note name.

33−6における関数Fの計算では、前向推論において
、第2段階メロデイ音を分類するために必要なモチーフ
(メロディ)の条件ないし要因を計算する。第29図か
ら第37図にその具体例を示す、この例では関数Fとし
て、 Fl :着目している音符(第2段階メロデイ音)の何
個光に第1段階メロデイ音が位置するか(後方第1段階
メロデイ音の位g!1) F2 :着目している音符の何個手前に第1段階メロデ
イ音が位置するか(前方第1段階メロデイ音の位置) F3 :前方第1段階メロデイ音から後方第1段階メロ
デイ音までにある第2段階メロデイ音の数 F4 :前方第1段階メロデイ音と後方第1段階メロデ
イ音との音高差 F5 :前方第1段階メロデイ音と後方第1段階メロデ
イ音との間における第2段階メロデイ音の高さの分布 F6 :前方第1段階メロデイ音から後方第1段階メロ
デイ音までのメロディの音高が単調に変化するか否か Fl :後方第1段階メロデイ音とその1つ前の音との
音高差(後方第1段階メロデイ音への音程進行) F8 :前方第1段階メロデイ音とその1つ後の者との
音高差(前方第1段階メロデイ音からの音程進行) を計算している(第29図)、この他に、弱拍か強拍か
を示す情報、音長を区別する情報を関数Fのセットに加
えてもよい0個々の関数Fの算出のフローチャートはそ
れ自体の記載から明らかであるので説明は省略する。
In the calculation of the function F in step 33-6, conditions or factors of the motif (melody) necessary for classifying the second stage melody sounds are calculated in forward inference. Specific examples are shown in FIGS. 29 to 37. In this example, the function F is: Fl: How many points of the note of interest (second-stage melody sound) the first-stage melody sound is located at ( Position of backward 1st stage melody note g!1) F2: How many positions before the note of interest is the 1st stage melody note located (position of forward 1st stage melody note) F3: Front 1st stage melody note Number of second stage melody sounds between the first stage melody sound and the rear first stage melody sound F4: Pitch difference between the front first stage melody sound and the rear first stage melody sound F5: The front first stage melody sound and the rear first stage melody sound Pitch distribution of the second stage melody sound with respect to the stage melody sound F6: Whether or not the pitch of the melody changes monotonically from the front first stage melody sound to the rear first stage melody sound Fl: Backward stage melody sound Pitch difference between the first stage melody note and the previous note (pitch progression to the backward first stage melody note) F8: Pitch difference between the front first stage melody note and the next note (forward The interval progression from the first stage melody note is calculated (Figure 29).In addition to this, information indicating whether the beat is weak or strong, and information that distinguishes the note length can be added to the set of function F. Since the flowchart for calculating the good 0 individual functions F is clear from the description itself, the explanation will be omitted.

33−7における前向推論の詳細を第38図に示す、ま
ず、ルールナンバーポインタPを、プロダクションルー
ルのなかでルートとなっているルールを指示する“1”
にセットする(44−1)。しかる後、ルールナンバー
ポインタPの示すルールの前提部(Lp≦Fxp≦Up
)が成立するかどうかをチエツクし、成立するときはそ
のルールの肯定結論部のデータYpを次のルールへのポ
インタとして使用し、不成立のときはそのルールの否定
結論部のデータNpを次のルールへのポインタとして使
用する。ただし、データyp、Npが、負の値のときは
、最終結論に達しているので、その絶対値(−Yp、−
Np)を第2段階メロデイ音の種類の識別子として結論
レジスタにセットする。フローに従うと、44−3の条
件L p > F X pか44−5(7)条件Fxp
>Upが成立するとき、ルールPの前提部Lp≦Fxp
≦Upは不成立であるのでそのルールの否定結論部のデ
ータNpをaに代入しく44−4.44−6)、それ以
外の場合は前提部成立なので、aにはルールPの肯定結
論部のデータypが入る(44−2)、このaをPに代
入しく44−7)、Pが正値のときは1次のルールナン
バーポインタとして次のルールの検査に戻り、Pが負の
ときは、−Pを第2段階メロデイ音の分類結果とする(
44−8.44−9)。
The details of the forward inference in 33-7 are shown in FIG. 38. First, the rule number pointer P is set to "1" which indicates the root rule among the production rules.
(44-1). After that, the prerequisite part of the rule indicated by the rule number pointer P (Lp≦Fxp≦Up
) holds, and if it holds, the data Yp of the affirmative conclusion part of that rule is used as a pointer to the next rule, and if it does not hold, the data Np of the negative conclusion part of that rule is used as a pointer to the next rule. Use as a pointer to a rule. However, when the data yp and Np are negative values, the final conclusion has been reached, so the absolute value (-Yp, -
Np) is set in the conclusion register as the identifier of the type of second stage melody sound. According to the flow, 44-3 condition L p > F X p or 44-5 (7) condition Fxp
>Up holds, the premise of rule P Lp≦Fxp
≦Up does not hold, so the data Np of the negative conclusion part of that rule should be substituted into a44-4.44-6); otherwise, the premise holds true, so the data Np of the positive conclusion part of rule P is assigned to a. Data yp is entered (44-2), and this a is assigned to P (44-7). If P is a positive value, return to the next rule inspection as the primary rule number pointer, and if P is negative, , -P is the classification result of the second stage melody sound (
44-8.44-9).

第2段階メロデイ音の分類の一例として、先の関数Fの
計算において、 F+=1:後方第1段階メロデイ音は着目している第2
段階メロデイ音より1つ後 にある F2=−1:前力第1段階メロディ音は着目している第
2段階メロデイ音の1つ 前にある F3=1:前後の第1段階メロデイ音間の音数は1つで
ある Fa−8:前後の第1段階メロデイ音の音高差は8であ
る Fs=2:前後の第1段階メロデイ音間にある第2段階
メロデイ音は前後の第1段 階メロデイ音の音高の中間に分布し ている F6=1:前方第1段階メロデイ音から後方第1段階メ
ロデイ音までのメロディは 音高が単調に変化している F7=1:後方第1段階メロデイ音へはlの音高差で進
行する Fa=7:前方第1段階メロデイ音からは7の音高差で
進行する が得られたとし、プロダクションルールデータとして第
14図に示すデータを使用して推論を行ってみる。
As an example of the classification of second-stage melody sounds, in the calculation of the function F above, F+=1: The backward first-stage melody sound is the second stage melody sound of interest.
F2 = -1, which is one after the stage melody sound. The first stage melody sound is one stage before the focused second stage melody sound. F3 = 1: The sound between the previous and succeeding first stage melody sounds. The number is 1. Fa-8: The pitch difference between the preceding and following 1st stage melody sounds is 8. Fs = 2: The 2nd stage melody sound between the preceding and following 1st stage melody sounds is the 1st stage melody sound before and after. F6 = 1: Distributed in the middle of the pitches of the melody sounds. The melody's pitch changes monotonically from the front first stage melody sound to the rear first stage melody sound. F7 = 1: Backwards first stage melody sound. Assume that Fa = 7, which progresses to the melody sound with a pitch difference of l: From the front first stage melody sound, a pitch difference of 7 is obtained, and the data shown in Figure 14 is used as production rule data. Let's try to make an inference.

まず、P=1(ルート)のときは、その前提部0≦F2
≦0 は、F2=−1であるため不成立である。したがって、
ルートの否定結論部N1;3が次に検査するルールのポ
インタとなる。
First, when P=1 (root), the premise 0≦F2
≦0 does not hold because F2=-1. therefore,
The negative conclusion part N1;3 of the root becomes a pointer to the next rule to be checked.

p=3において、ルール3の前提部 0≦F、≦O は、F1=1であるので不成立である。したがって、N
5=5が次のルールのポインタとなる。
When p=3, the premise 0≦F,≦O of rule 3 does not hold because F1=1. Therefore, N
5=5 becomes the pointer to the next rule.

p=5において、ルール5の前提部 0≦F4≦0 は、F4=8であるので成立しない、したがって、N5
=6がPとなる。
At p=5, the premise 0≦F4≦0 of Rule 5 does not hold because F4=8, so N5
=6 becomes P.

P=6において、ルール6の前提部 l≦Fも≦1 は、F6 =1であるので成立する。したがって、ルー
ル6の肯定結論部のデータY6=7が次にアクセスする
ルールのポインタPとなる。
When P=6, the premise l≦F of Rule 6 also holds true because F6 =1. Therefore, data Y6=7 of the affirmative conclusion part of rule 6 becomes the pointer P of the next rule to be accessed.

P=7において、ルール7の前提部 3≦FB≦(1) はF8=7であるので成立する。ここでY7 ==−2
(負)である。したがって、結論=2(分類された第2
段階メロデイ音の識別子)となる。
When P=7, premise 3≦FB≦(1) of rule 7 holds true because F8=7. Here Y7 ==-2
(negative). Therefore, conclusion = 2 (classified second
(Identifier of step melody sound).

この例からもわかるように、任意の種類の第2段階メロ
デイ音は、有限個の命題が成立(前提部が成立しないと
いうことは、前提部を偽とする題が成立することに等し
い)するという音楽知識で識別可使である。この知識を
表現するために。
As can be seen from this example, for any type of second-stage melody sound, a finite number of propositions hold true (the fact that the premise part does not hold is equivalent to the proposition that the premise part is false) holds true. It is possible to identify it with the knowledge of music. To express this knowledge.

関数Fが計算され、プロダクションルールが作成されて
いる。すなわち、関数Fは、第2段階メロデイ音を分類
するための知識において使用するメロディのチエツク項
目の情報であり、プロダクションルールデータは、各第
2段階メロデイ音の分類結果に至るまでのルールの列を
ポインタで連結したものである。
Function F has been calculated and production rules have been created. That is, the function F is information on melody check items used in the knowledge for classifying the second stage melody sounds, and the production rule data is a sequence of rules leading to the classification result of each second stage melody sound. are connected using pointers.

く複音進行評価〉 本実施例の装置は、作曲のために複音進行を最大限活用
することを1つの特徴としている。すなわち、第2図の
作曲ゼネラルフローの4−7に示す複音進行評価におい
て、与えられた複音進行を手がかりとして曲の階層構造
、調性構造を求めている0階層構造は曲の一貫性と多様
性に係っており、後述するメロディ生成において第1段
階メロディの置型の生成制御に利用される。一方、調性
構造は、曲の進行に伴う調性(キー)の変化を表わして
おり、後述するメロディ生成において各区間で使用する
スケールのキーを選択するのに利用される。
Compound Progression Evaluation> One of the features of the apparatus of this embodiment is that it makes maximum use of multitone progressions for composing music. In other words, in the multitone progression evaluation shown in 4-7 of the composition general flow in Figure 2, the 0-hierarchical structure, which uses the given multitone progression as a clue to determine the hierarchical structure and tonality structure of the piece, evaluates the consistency and diversity of the piece. It is used to control the generation of the first stage melody in melody generation, which will be described later. On the other hand, the tonality structure represents changes in tonality (key) as the song progresses, and is used to select the scale key to be used in each section in melody generation, which will be described later.

以下、第39図〜第41図を参照して階層構造の抽出の
詳細を述べる。
Details of the extraction of the hierarchical structure will be described below with reference to FIGS. 39 to 41.

第39図に示すフローは、楽節等の長さをもつブロック
、を単位として、ブロック相互の複音進行の類似度を算
出するフローである。
The flow shown in FIG. 39 is a flow for calculating the degree of similarity of polyphonic progression between blocks, using blocks each having a length such as a passage as a unit.

まず、曲の長さSUMを複音進行情報の各複音の長さC
Riを累算することで求め(45−1)、barno 
(小y5数)で示されるブC’ −/ りの長さを基本
音長の表現に変換してブロック長を又としく45−2)
、曲技SUMをブロック長文で割って曲に含まれるブロ
ックの数mを計算する(45−3)、比較するブロック
の基準番号のためのカウンタiを“0”に初期化する(
45−4)。
First, the length of the song SUM is the length of each compound note in the compound note progression information C
Obtained by accumulating Ri (45-1), barno
(45-2) Convert the length of block C' −/ ri, which is expressed as (small y5 number), into the expression of basic tone length and make the block length again.45-2)
, Calculate the number m of blocks included in the song by dividing the acrobatics SUM by the block long sentence (45-3), Initialize the counter i for the reference number of the block to be compared to “0” (
45-4).

45−8〜45−18において、i番目のブロックとj
番目のブロック(j≧i)との複音進行の類似度Vij
を算出している。類似度の関数として、 を使用している。ここに文はブロックの長さであり、V
sは、基準音長ごとにi番目のブロックの複音とj番目
のブロックの複音とを比較したときに得られる複音の一
致数を表わす、この類似度関数VijはOから100ま
での値をとり、100のとき、2つのブロックの複音進
行は完全に(100%)一致し、Oのときは完全に不一
致である。
45-8 to 45-18, the i-th block and j
Similarity of diphthong progression with the th block (j≧i) Vij
is being calculated. As a function of similarity, is used. Here the sentence is block length and V
s represents the number of matches of compound tones obtained when comparing the compound tones of the i-th block and the compound tones of the j-th block for each standard tone length. This similarity function Vij takes a value from O to 100. , 100, the polytone progressions of the two blocks match completely (100%), and when O, they completely mismatch.

i番目のブロック対j番目のブロックの類似度の計算は
j=iの位置から開始され(45−6)、類似度が得ら
れるごとに、j=j+1により次のブロックとの類似度
の計算に移り(45−20,45−7)最終ブロックに
なるまで行ったら(45−19)、i=i+1により、
i番目のブロックをシフトしく45−22.45−5)
、iが最終ブロックになるまで処理を繰り返す。
The calculation of the similarity between the i-th block and the j-th block starts from the position j=i (45-6), and each time a similarity is obtained, the similarity with the next block is calculated by j=j+1. (45-20, 45-7) until the final block (45-19), due to i=i+1,
Shift the i-th block 45-22.45-5)
, i repeats the process until it becomes the final block.

この結果、i番目のブロックに対するj番目のブロック
の複音の類似度vijとして、V l l  V ’+
 2  ”” ”” ”” 9.Il+” −0000
,V l nV22自・・………・・・…・―■・−V
2n−ゝv n’n が得られる。なおVij=Vji、すなわち、i番目の
ブロックに対するj番目のブロック複合進行類似度と、
j番目のブロックに対する1番目のブロックの複音進行
類似度は等しい、またvii=100である。
As a result, as the similarity vij of the j-th block to the i-th block, V l l V '+
2 ”” ”” ”” 9. Il+" -0000
,V l nV22self・・・・・・・・・・・・・・――■・−V
2n-'v n'n is obtained. Note that Vij=Vji, that is, the j-th block composite progression similarity for the i-th block,
The polyphonic progression similarity of the first block to the jth block is equal and vii=100.

第39図のブロック間の複音進行一致度の算出結果(V
ij)は、第40図の階層構造データ生成において使用
される。
Calculation result of compound tone progression matching degree between blocks in Fig. 39 (V
ij) is used in the hierarchical structure data generation shown in FIG.

第40図において、Cは階層構造の計算のためのカウン
タであり、Hjにj番目のブロックの階層構造識別子が
セットされる。Hjは値として、0.1.2・・・・・
・の整数値をとる。これは通常の表現におけるa、a’
b、b’・・・・・・に対応している(第6図のHIE
i参照)、第40図のフローでは、ある基準のブロック
に対し、100%複音進行が一致するブロックには基準
ブロックの階層構造識別子と同じ値(偶数値)の階層構
造識別子が付き(46−10,46−11)、70〜1
00%の範囲で一致するブロックは、基準ブロックの複
音進行を修飾した複音進行をもつブロックとして、基準
ブロックの階層構造識別子に1を加えた値の階層構造識
別子が付けられる(46−12.46−13)、また、
70%未満の類似度しかもたないブロックは、基準ブロ
ックとは独立の階層構造をもつブロックとして扱われる
。最初の基準ブロックとして、曲の最初のブロックを選
んでおり(46−2)、この基準ブロックと100%あ
るいは70〜100%で一致するブロックに対してはそ
れぞれ、Hj=0、Hj=1の評価値が付き、評価完了
を示すため、これらのブロックのフラグf立jは“1”
にセットされる。この最初の評価ループ(46−2〜4
6−15)で評価が確定しなかった曲のブロックのうち
、一番若いブロックが次の評価ループにおける基準ブロ
ックとなり(46−3,46−4,46−6)、この基
準ブロックの階層構造識別子は2どなる。以下、同様に
処理がくり返される。結果として、曲のすべてのブロッ
クに階層構造識別子Hjが付くことになる。
In FIG. 40, C is a counter for calculation of the hierarchical structure, and the hierarchical structure identifier of the j-th block is set in Hj. Hj is a value of 0.1.2...
・Takes an integer value. This is a, a' in normal expression.
b, b'... (HIE in Figure 6)
i), in the flow of Fig. 40, a block whose 100% polyphonic progression matches a certain reference block is given a hierarchical structure identifier of the same value (even value) as the hierarchical structure identifier of the reference block (46- 10, 46-11), 70-1
A block that matches within the range of 00% is assigned a hierarchical structure identifier with a value of 1 added to the hierarchical structure identifier of the reference block, as a block with a multitone progression that modifies the multitone progression of the reference block (46-12.46 -13), and
Blocks having a similarity of less than 70% are treated as blocks having a hierarchical structure independent of the reference block. The first block of the song is selected as the first reference block (46-2), and blocks that match this reference block at 100% or 70-100% are assigned Hj = 0 and Hj = 1, respectively. An evaluation value is attached and the flag f of these blocks is set to “1” to indicate the completion of evaluation.
is set to This first evaluation loop (46-2 to 4
Among the song blocks whose evaluation was not determined in step 6-15), the youngest block becomes the reference block for the next evaluation loop (46-3, 46-4, 46-6), and the hierarchical structure of this reference block is The identifier is 2. Thereafter, the process is repeated in the same way. As a result, all blocks of the song are given a hierarchical structure identifier Hj.

第41図の処理は、第40図で求めたブロック単位の階
層構造を小部単位の階層構造データに変換する処理であ
る。すなわち、第41図のHIEaにはa番目の小節に
対する階層構造識別子がセットされる。
The process shown in FIG. 41 is a process for converting the block-based hierarchical structure obtained in FIG. 40 into small-part hierarchical structure data. That is, the hierarchical structure identifier for the a-th measure is set in HIEa in FIG. 41.

次に第42図と第43図を参照して、複音進行から調性
構造を抽出して、各区間の音階の調を設定する処理につ
いて説明する。
Next, with reference to FIGS. 42 and 43, a description will be given of the process of extracting the tonality structure from the compound tone progression and setting the key of the scale for each section.

処理の基礎になっている考え方は次の通りである。The idea underlying the processing is as follows.

(A)調性は曲の進行において頻繁に変化するより同じ
調性を保つ傾向にある。
(A) The tonality tends to stay the same as the song progresses rather than changing frequently.

(B)複音の構成音がそれまでの調の音階音以外の音を
含むときには転調すべきである。
(B) When the constituent tones of a compound tone include tones other than the scale tones of the previous key, the key should be transposed.

(C)転調する場合には、F属調、属調等の近親□調に
変化するのが望ましい。
(C) When changing the key, it is desirable to change to a closely related □ key such as the F key or the subordinate key.

(D)複音の構成音が合計12種類あるいずれの調に対
しても、音階音以外の音を含むときには、複音の構成音
と音階音との一致度が最大になる調を使用する。
(D) For any key that has a total of 12 types of compound tones, when a note other than a scale note is included, the key in which the degree of coincidence between the compound note and the scale note is maximized is used.

第42図において、48−1のSCには、初期設定され
た音階データ(基準の調、例えばCを主音とする音階デ
ータ)がセットされる。このSCは現区間の調を判定す
る場合に、直前の区間の音階データとしで使用される。
In FIG. 42, initially set scale data (standard key, for example, scale data with C as the tonic) is set in SC 48-1. This SC is used as scale data for the immediately preceding section when determining the key of the current section.

48−2で複音のカウンタiを初期化し、48−3で音
階データを転回した回数を示すカウンタCを初期化し、
48−4で、基準の謂に対し、属調側に転m(完全5度
上に転回)していくための初期値としてSCをaに代入
し、基準の調に対し、下属調側に転調していくための初
期化としてSCをbに代入する。
At 48-2, a double note counter i is initialized, at 48-3, a counter C indicating the number of times the scale data has been inverted,
In 48-4, SC is substituted into a as the initial value for inverting m toward the major key (rotating up a perfect fifth) with respect to the so-called standard key, and As initialization for modulation, SC is assigned to b.

48−5で、i番目の複音が、音階aの部分集合かどう
かをチエツクする0例えば、複音データCCと音階デー
タaとの論理積をとったものが複音データCCと一致す
れば、複音CCは音階aの部分集合である。この条件が
成立するときは、aをSCに代入するとともに、現区間
の音階データ5CALE iとしてaを使用する(48
−13)、同様に、4g−6ではi番目の複音が音階す
の部分集合かどうかをチエツクし、成立すれば、48−
7でbをSCと5CALE iに代入する。いず、れの
条件も不成立のときには、aを完全5度上に転回しく4
8−7)、bを完全5度下に転回しく4B−8)、転回
カウンタCをインクリメントして(48−9)、調の判
定をくり返す。
48-5, it is checked whether the i-th compound note is a subset of the scale a. For example, if the logical product of the compound note data CC and the scale data a matches the compound note data CC, then the compound note CC is checked. is a subset of scale a. When this condition is satisfied, a is assigned to SC and a is used as the scale data 5CALE i of the current section (48
-13), similarly, in 4g-6, it is checked whether the i-th compound note is a subset of the scale S, and if it is true, 48-
In step 7, assign b to SC and 5CALE i. If neither of these conditions holds true, turn a a perfect fifth up and turn it into 4.
8-7), invert b a perfect fifth down (4B-8), increment the inversion counter C (48-9), and repeat the key determination.

調は全部で12種類あるので、48−5から48−10
のループは6回くり返せばよい、すなわち、48−10
でC>6が成立するのは、現区間の複音がいずれの調の
音階にも含まれない音を含む場合である。
There are 12 types of keys in total, from 48-5 to 48-10.
The loop only needs to be repeated 6 times, i.e. 48-10
C>6 holds true when the complex tones in the current section include notes that are not included in the scale of any key.

この場合には、48−11の処理、すなわち第43図に
示す処理が実行される。この処理では、12の調の音階
のなかで、音階音と複音の構成音との一致度が最大にな
る調の音階を求めている。
In this case, the process 48-11, that is, the process shown in FIG. 43 is executed. In this process, a scale with the maximum degree of coincidence between the scale tones and the constituent tones of the compound tone is determined among the 12 scales.

すなわち、j=1〜12の各調について、jをキーとす
る音階(スケール)と複音の構成音との一致度Vを算出
しく49−3)、最大の一致度をm a xに置き、最
大の一致度を与えた調jをPとして求めている(49−
6)、、最後に、直前の区間の音階データSCをP回転
回した音階データを現区間の音階データ5CALEiと
して採用し、この音階データを次の区間の調判定のため
にSCにゼットしている(49−9)。
That is, for each key of j = 1 to 12, calculate the degree of coincidence V between the scale with j as the key and the constituent notes of the compound note49-3), and set the maximum degree of coincidence at max, The key j that gives the maximum degree of agreement is determined as P (49-
6).Finally, the scale data obtained by rotating the scale data SC of the previous section by P rotations is adopted as the scale data 5CALEi of the current section, and this scale data is set to SC to determine the key of the next section. There is (49-9).

現区間の調が決定されたときは(48−13,48−1
4,48−11により)、複音のカウンタiをインクリ
メントしく48−12)、fべての複音進行データの終
了(4B−15)まで、調判定処理をくり返す。
When the key of the current section is determined (48-13, 48-1
4, 48-11), the double note counter i is incremented 48-12), and the key determination process is repeated until the completion of all f double note progression data (4B-15).

例えば、音階の種類としてダイアトニックスケール(ド
レミファソラシド)が選択されているとし、前区間の調
がCで、現区間の複音がり、Fであるとしてみる。この
場合、SCには(C,D、E、F、G、A、B)を表わ
すデータが入っている。したがって、第42図において
、48−3゜48−4の処理の後、48−5で、複音が
音階a(これはSCと同じ)の部分集合であることが確
認され、48−13で現区間の音階として、前区間と同
じ調Cのダイアトニックスケールが採用される。この例
かられかるように、現区間の複音の構成音がいずれも前
区間の調の音階上にあるときは、現区間の調は前区間と
同じ調に維持される。
For example, assume that the diatonic scale (do-re-mi-fa-solacido) is selected as the type of scale, and the key of the previous section is C, and the key of the current section is F. In this case, SC contains data representing (C, D, E, F, G, A, B). Therefore, in Figure 42, after the processing at 48-3 and 48-4, it is confirmed at 48-5 that the compound note is a subset of scale a (which is the same as SC), and it is confirmed that the compound tone is a subset of scale a (which is the same as SC), and it is The diatonic scale in key C, which is the same as the previous section, is used as the scale for this section. As can be seen from this example, when all of the constituent tones of the current section are on the scale of the key of the previous section, the key of the current section is maintained in the same key as the previous section.

現区間の複合として上記り、Fの代りに、D、F#が使
用されるときには、48−3.4後の48−5ではaが
キーCのダイアトニックスケールのため、複音はaの部
分集合とならず、このaを48−7で5度上に転回して
、Gのダイアトニックスケールを得た後で、48−5の
チエツクを行ったときに複音がaの部分集合となる。そ
して、Gのダイアトニックスケールが現区間の音階とな
る。この例かられかるように、現区間の複音の構成音の
なかに、前区間の調の音階にない音が含まれるときは、
前区間の調を基準とみて、この基準の調から近親調への
転調をくり返した場合に(例えば、C4G+D−+A・
・・・・・)、複音の構成音をすべて含む音階となる最
初の調が現区間の調として採用される。
As mentioned above as a composite of the current section, when D and F# are used instead of F, in 48-5 after 48-3.4, a is a diatonic scale with the key of C, so the compound note is the part of a. It is not a set, but after turning this a 5 degrees up in 48-7 to obtain the diatonic scale of G, when checking 48-5, the compound note becomes a subset of a. Then, the diatonic scale of G becomes the scale of the current interval. As can be seen from this example, when the constituent tones of the compound tone in the current section include notes that are not in the scale of the key of the previous section,
If we take the key of the previous section as the standard and repeat the modulation from this standard key to closely related keys (for example, C4G+D-+A・
), the first key of the scale that includes all the constituent tones of the compound tone is adopted as the key of the current section.

後述するように、各区間の音階データ5CALEiは対
応する区間で使用するメロディの音高組織を定める。す
なわち、各生成区間のメロデイ音は音階データ5CAL
E iの定める音階音のなかから選択される。
As will be described later, the scale data 5CALEi of each section determines the pitch structure of the melody used in the corresponding section. That is, the melody tone of each generation section is scale data 5CAL.
It is selected from among the scale notes defined by Ei.

くメロディ生成〉 本実施例の装置は、外部から作曲の基礎となるデータが
与えられ、その基礎データを内部で分析、評価した後、
メロディの生成の作業に移る。
Melody generation> The device of this embodiment is given external data that serves as the basis for composing, and after internally analyzing and evaluating the basic data,
Let's move on to melody generation.

作曲ゼネラルフロー(第2図)の4−8に示すメロディ
生成の概略フローを第44図に例示する。第44図にお
いて、HIEiは先の複音進行評価で抽出した複音区間
毎の階層構造データであり、53−2〜53−4に示す
ように、この階層構造データHIEiは第1段階メロデ
ィの置型(LL)の生成制御に利用される。この制御の
詳細については後述する。さらに階層構造データは53
−5’、53−6に示すように置型(LL)の音域を制
御するのにも利用できる。
FIG. 44 illustrates a schematic flow of melody generation shown in 4-8 of the composition general flow (FIG. 2). In FIG. 44, HIEi is the hierarchical structure data for each multitone section extracted in the previous multitone progression evaluation, and as shown in 53-2 to 53-4, this hierarchical structure data HIEi is the placement type ( It is used to control the generation of LL). Details of this control will be described later. Furthermore, the hierarchical structure data is 53
It can also be used to control the sound range of the stationary type (LL) as shown in -5' and 53-6.

第1段階メロディの置型はメロディの音列の基本的な骨
格を形成し、第1段階メロディの音域はメロディの音域
を基本的に規制する。本実施例ではその制御に複音進行
から得た階層構造を利用しており、これも実施例の特徴
の1つとなっている。もっとも、第1段階メロディの置
型の制御要因を複音進行から抽出した階層構造の情報に
のみ限定する必要はなく、例えば、階層構造と乱数のそ
れぞれに重みを付け1両データの荷重和で第1段階メロ
ディの置型を制御するようにし、重みを使用者が指定で
きるようにしてもよい、要するに、使用者の作曲上の意
図が置型の生成に反映されるように変形することができ
る。
The layout of the first stage melody forms the basic framework of the melody's tone sequence, and the range of the first stage melody basically regulates the range of the melody. In this embodiment, the hierarchical structure obtained from the multitone progression is used for the control, and this is also one of the features of the embodiment. However, it is not necessary to limit the control factors for the placement of the first stage melody only to the information on the hierarchical structure extracted from the compound note progression. For example, the hierarchical structure and random numbers are each weighted, and the The layout of the step melody may be controlled and the weight may be specified by the user.In short, the layout can be modified so that the user's compositional intentions are reflected in the generation of the layout.

第1段階メロディの置型(LL)は複音進行データCC
iを用・いることで音高表現の形式、すなわちメロディ
データ形式(第1段階メロディ)に変換される(53−
7)、そしてこの第1段階メロディに対し、第2段階メ
ロデイ音がプロダクションルールに従って付加される(
53−8)、この第2段階メロデイ音の付加で使用する
プロダクションルールはモチーフに含まれる第2段階メ
ロデイ音を分類するのに用いたものと同一であり、した
がって、メロディの分析と合成に関して可逆性が成り立
つ。
The placement type (LL) of the first stage melody is multitone progression data CC
By using i, it is converted into a pitch expression format, that is, a melody data format (first stage melody) (53-
7), and the second stage melody sound is added to this first stage melody according to the production rules (
53-8), the production rules used in the addition of this second-stage melody sound are the same as those used to classify the second-stage melody sounds included in the motif, and therefore are reversible in terms of melody analysis and synthesis. Gender exists.

第1段階メロディに第2段階メロディを付加することに
より、メロディの音高列は完成する。メロディの音高列
り完成後は、メロディの音長列(リズムパターン)の生
成である(53−9)。
By adding the second stage melody to the first stage melody, the pitch sequence of the melody is completed. After the melody pitch sequence is completed, a melody note length sequence (rhythm pattern) is generated (53-9).

ここでは、所定の音符数から成る基本リズムパターン(
エツセンス生成4−4またはエツセンス抽出4−6にお
いて決定した音長列)が、初期設定4−1において選択
されたパルススケールにより変形され、メロディの音高
列と等しい音符数の音長列に変換される。
Here, we will introduce a basic rhythm pattern consisting of a predetermined number of notes (
The note length sequence determined in essence generation 4-4 or essence extraction 4-6) is transformed according to the pulse scale selected in initial setting 4-1, and converted into a note length sequence with the same number of notes as the pitch sequence of the melody. be done.

第1段階メロディの生成、第2段階メロディの付加、音
長データの生成は、第44図のフローの場合、複音区間
毎に実行される。このため、53−10ではある区間で
生成したメロディデータを連続領域に移動している。
Generation of the first stage melody, addition of the second stage melody, and generation of tone length data are executed for each double tone section in the case of the flow shown in FIG. 44. Therefore, in 53-10, the melody data generated in a certain section is moved to a continuous area.

第45図は第1段階メロディの置型の生成、セーブ、ロ
ードの詳細なフローチャートである(第44図の53−
2.53−3.53−4の詳細)0本例では、階層構造
データHIEiによる置型LLの制御を次のようにして
行っている。まず、着目している楽節が、過去の楽節と
構造上人なる区面であるかどうかを着目している楽節の
階層構造データを過去の階層構造データと比較すること
により判別する。異なる構造をもつ区間と認めた楽節に
対してのみ、新たに置型LLを生成する。この生成、上
述した置型の特徴パラメータPCに基づいて行われる。
FIG. 45 is a detailed flowchart of generation, saving, and loading of the first stage melody type (53-5 in FIG. 44).
Details of 2.53-3.53-4) 0 In this example, control of the stationary LL using the hierarchical structure data HIEi is performed as follows. First, it is determined whether the passage of interest is structurally different from the previous passage by comparing the hierarchical structure data of the passage of interest with the past hierarchical structure data. A new LL is generated only for passages recognized as sections with different structures. This generation is performed based on the above-mentioned fixed type feature parameter PC.

同様の構造をもつ区間と認めた楽節については、新たに
置型LLは生成しない0代りに、過去において生成した
置型のうち、着目している区間と同様の構造をもつ区間
において生成した置型を使用する。
For passages that are recognized to have a similar structure, a new positional type LL is not generated.Instead, among the previously generated positional types, a positional type generated in an interval with a similar structure to the section of interest is used. do.

例えば、いま、4つの楽節から成る曲を想定し、これら
4つの楽節の構造がそれぞれa、b、C,aであるとし
てみる。最初の楽節の構造aは過去にみられない構造で
あるので置型の特徴パラメータに従って置型が生成され
る。同様にして第2楽節、第3楽節も過去にない新しい
構造す、  cをもっているので、独立に置型が生成さ
れる。しかし、最終楽節は曲の最初の楽節と同じ構造a
である。したがって、最終楽節の置型としては、最初の
楽節に対して生成した置型をそのまま使用する。
For example, let's assume a piece of music consisting of four passages, and assume that the structures of these four passages are a, b, C, and a, respectively. Since the structure a of the first passage is a structure that has not been seen in the past, a placement pattern is generated according to the feature parameters of the placement pattern. Similarly, the second and third passages have new structures that have never been seen before, so the placement patterns are generated independently. However, the final passage has the same structure as the first passage of the song.
It is. Therefore, as the placement pattern for the final passage, the placement pattern generated for the first passage is used as is.

新しい構造をもつ楽節に対して置型を新たに生成すると
いうことは、この新しい構造の楽節から別のモチーフが
発生することを意味する。いま、楽節の最初の小節に対
して生成した置型をその楽節の後続する小節に対してく
り返し使用したとすると1小節の長さのモチーフが意識
されよう、−般にモチーフの長さは1〜数小節であり1
曲の途中でモチーフの長さが変化することも多い、第4
5図の例ではこのことを考慮して、新しい構造の楽節が
検知されたときに、その楽節におけるモチーフの長さと
してlまたは2小節を使用することができる。2小節の
モチーフが選択されたときは、楽節の最初の小節と2番
目の小節で独立に置型が生成され、後続する奇数番目の
小節は最初の小節の置型を使用し、後続する偶数番目の
小節は2番目の小節の置型を使用する。
Generating a new placement pattern for a passage with a new structure means that a different motif is generated from the passage with this new structure. Now, if we were to use the placement pattern generated for the first measure of a passage repeatedly in the following measures of that passage, we would be aware of a motif that is one measure long. Generally, the motif length is 1 to 1 measure. It is several measures and 1
The length of the motif often changes during the song, the fourth
Taking this into account in the example of Figure 5, when a passage with a new structure is detected, l or 2 bars can be used as the length of the motif in that passage. When a two-bar motif is selected, placement patterns are generated independently for the first and second measures of the passage, with subsequent odd-numbered measures using the placement pattern of the first measure, and subsequent even-numbered measures using the placement pattern of the first measure. The measure uses the placement type of the second measure.

過去の区間における階層構造データへの参照。Reference to hierarchically structured data in past intervals.

過去の区間における置型のくり返しのために置型(LL
)データバッファが用意される。置型データバッファの
例を第46図に示す。
To repeat the position type in the past section, place type (LL
) A data buffer is prepared. An example of a free-standing data buffer is shown in FIG.

第45図に従って説明すると、54−1で楽節(第39
図に示すbarno毎の区間)内の小節カウンタを“l
”にセットする。54−2では現小節の階層構造データ
HIEiを直前の小節の階層構造データHIEi−1と
比較することにより、楽節の開始か否かをチエツクする
0例えば、l HI E i  HI E +   1
 l≧2が成立するときが楽節の開始である。楽節の開
始と判別されたときは楽所内の小節カウンタを“l”に
リセットする(54−3)、続いて置型データバッファ
をサーチして、現楽節が置型を新たに生成すべき楽節か
どうかを調べる(54−4)、置型データバッファのサ
ーチは次のようにして行われる。まず、9 Mデータバ
ッファのアドレス0にあるデータ(既に何組の置型が生
成されているかを示すデータ)を読み、後続するアドレ
スlからNまで示されるデータをアドレスとするところ
のデータ(各置型のヘッダ情報)を順次、読み、その上
位8ビツトに示される階層構造データを現小節の階層構
造データHIEiと比較する。置型データバッフγ内に
現小節の階層構造データHIEiと同様な階層構造デー
タ(例えば、HIEiと同じ値または(HI E r 
  1 )の値をもつデータ)がないとき、現小節は置
型を新たに生成すべき楽節の最初の小節である。同様の
階層構造データをもつヘッダが見つかったときは、後続
する置型のデータを現小節の置型としてロードする。新
しい楽節の場合は、まずモチーフを何小節の構成にする
かを決定する(54−5)、この決定は例えば乱数発生
で実現できる。2小節モチーフとなったときは、フラグ
flを“1″にセットして(54−7,54−8)、次
の小m(楽節の2番目の小m)に対しても置型が新たに
生成されるようにする。そして、置型を生成しく第47
図参照)、置型データバッファにセーブする(54−9
)、詳細には、HIEiXO100+小節カウンタの値
X0OIO+モチーフの小節数によりヘッダを作成し、
置型データバー2ファのアドレス0における置型の組の
数Nをインクリメントし、アドレスNにヘッダのアドレ
スを書き込み、そのアドレスから、ヘッダ、LLNO(
生成した置型の長さ)、LL】、LL2・・・・・・L
LLLNO(生成した置型のデータ)を書き込む、その
後、その他のメロディ生成の処理を′行い(54−10
)、小節カウンタをインクリメントする(54−11)
To explain according to Fig. 45, passage 54-1 (39th
The bar counter in the barno section shown in the figure is set to “l”.
”.In 54-2, it is checked whether or not it is the start of a passage by comparing the hierarchical structure data HIEi of the current measure with the hierarchical structure data HIEi-1 of the immediately preceding measure.0For example, l HI E i HI E+1
The beginning of a passage is when l≧2 holds true. When it is determined that it is the start of a passage, the measure counter in the music place is reset to "l" (54-3), and then the stationary type data buffer is searched to determine whether the current passage is a passage for which a new stationary type should be generated. (54-4), the search of the fixed type data buffer is performed as follows. First, read the data at address 0 of the 9M data buffer (data indicating how many sets of position types have already been generated), and read the data (for each position type) whose addresses are the data indicated from the following addresses l to N. header information) and compares the hierarchical structure data shown in the upper 8 bits with the hierarchical structure data HIEi of the current measure. Hierarchical structure data similar to the hierarchical structure data HIEi of the current measure (for example, the same value as HIEi or (HIE r
If there is no data with a value of 1), the current measure is the first measure of the passage for which a new placement type is to be generated. When a header with similar hierarchical structure data is found, the following position-type data is loaded as the position-type of the current measure. In the case of a new passage, first it is determined how many measures the motif should consist of (54-5). This determination can be realized, for example, by random number generation. When it becomes a 2-bar motif, the flag fl is set to "1" (54-7, 54-8), and the placement type is newly set for the next bar m (the second bar m of the passage). Allow it to be generated. Then, the 47th part should generate a set type.
(see figure), save to a free-standing data buffer (54-9
), in detail, create a header using HIEiXO100 + measure counter value X0OIO + number of measures of the motif,
Increment the number N of sets of fixed types at address 0 of the fixed type data bar 2, write the address of the header to address N, and write the header, LLNO(
length of the generated stationary mold), LL], LL2...L
Write LLLNO (generated positional data), then perform other melody generation processing (54-10
), increment the bar counter (54-11)
.

54−2において楽節が変っていないことが認められた
ときは、フラグflをチエツクする(54−13)、f
文=1のときは、現小節は2小節のモチーフを生成する
楽節の2番目の小節であるので置型を再び生成し置型デ
ータバッファにロードしく54−15)、フラグfJL
を“0”にリセットする(54−16)、f文=0のと
きは、現小節の階層構造データHIEiに対応するへ一
2ダをバッファからサーチし、そのヘッダの示すモチー
フの長さの情報が1小節のときは、そのヘッダに後続す
る置型データをロードし、モチーフの長さが2小節のと
きは小節カウンタの2の剰余とヘッダの小節番号を比較
し、一致すればそのヘッダに後続する置型データを現小
節の置型としてロードする。
If it is recognized in 54-2 that the passage has not changed, check flag fl (54-13), f
When sentence = 1, the current measure is the second measure of a passage that generates a 2-measure motif, so generate a fixed type again and load it into the fixed type data buffer 54-15), and set the flag fJL.
is reset to "0" (54-16). When f statement = 0, the header corresponding to the hierarchical structure data HIEi of the current measure is searched from the buffer, and the length of the motif indicated by the header is searched. When the information is 1 measure, the following position data is loaded into the header, and when the motif length is 2 measures, the remainder of 2 of the measure counter is compared with the measure number of the header, and if they match, the header is loaded. Loads the following position type data as the position type of the current measure.

第45図の54−9.54−15で実行される第1段階
メロディの置型の生成の詳細を第47図に示す、56−
1のcknoは複音の構成音の数を表わす、複音構成音
数は、複音データCCiの16ビツトのうちで“l”で
ある数をカウントすることで得られる。第47図の例で
は、PC,〜PCsを生成する置型の制御パラメータと
しているe  rl は1−cknoの範囲の乱数値を
とり、複音構成音番号を意味する(56−4)、r2は
PC3(置型の最低音)〜PC2(置型の最高音)のオ
クターブ複音の乱数値をとり、生成するLLのオクター
ブ番号を表わす(56−5)。a=r+ +r2 X0
100により生成するLL(7)候補を計算しく56−
7)、この候補aが、pcの条件を満足するとき、候補
aはLLとして採用される(56−8.56−12.5
6−14)、ただし、PCの値によっては、先行するL
L(例えば一番目のLL、)が決定された後、後続する
LL2の候補は永久にPCの条件を満たさなく可能性が
ある0例えば、PC2=501 (音覆の最高音は第5
オクターブの第1複音構成音)、PC3=401 C置
型の最低音は第4オクターブの第1複音構成音)、PC
,=3(隣り合うLLの差の最大値は複音構成音3つ分
)、PCs=3(隣り合うLLの差の最小値は複音構成
音3つ分)のときにLLI として、LLI =403
 (最初のLLは第4オクターブの第1複音構成音)が
得られたとするとPCa 、PCsの条件に合わせるに
は、LL2=503または303(構成音数3のとき)
となり、これはPC2、PC3の条件に合わない。この
ための予防としてループカラン、りLOOPCを用意し
、ループカウンタLOOPCがある値(例えば100)
以上になったら強制的に候補aをLLとして採用してい
る(56−9.56−10.56−11)。
Details of the generation of the first stage melody placement type executed at 54-9 and 54-15 in FIG. 45 are shown in FIG. 47, and 56-
The ckno of 1 represents the number of constituent tones of a complex tone. The number of constituent tones of a complex tone is obtained by counting the number of "l" among the 16 bits of the complex tone data CCi. In the example shown in Fig. 47, erl, which is a fixed type control parameter for generating PC, ~PCs, takes a random value in the range of 1-ckno and means the note number of a compound note (56-4), and r2 is PC3. The random value of the octave compound tones from (the lowest note of the stationary type) to PC2 (the highest note of the stationary type) is taken and represents the octave number of the LL to be generated (56-5). a=r+ +r2 X0
56-
7), When this candidate a satisfies the condition of pc, candidate a is adopted as LL (56-8.56-12.5
6-14), however, depending on the value of PC, the preceding L
After L (for example, the first LL) is determined, subsequent LL2 candidates may not satisfy the PC condition forever. For example, PC2 = 501 (the highest note of the overturn is the fifth
The first compound note of the octave), PC3=401 The lowest note of the C type is the first compound note of the fourth octave), PC
, = 3 (the maximum value of the difference between adjacent LLs is three tones), PCs = 3 (the minimum value of the difference between adjacent LLs is three tones), and LLI = 403.
(If the first LL is the first compound tone of the fourth octave), then to match the conditions of PCa and PCs, LL2 = 503 or 303 (when the number of constituent notes is 3)
This does not meet the conditions of PC2 and PC3. To prevent this, prepare a loop counter LOOPC, and set the loop counter LOOPC to a certain value (for example, 100).
If the result is above, candidate a is forcibly adopted as LL (56-9.56-10.56-11).

第48図は第47図のチエツク56−8の詳細である。FIG. 48 shows details of check 56-8 in FIG. 47.

LLiの候補aがPCの条件を満足するには、 (イ)a≦PC2(最高音以下であること)(ロ)a≧
PC3(最低音以上であること)(ハ)  l a  
LLI −1l≦PCa  (直前(7)LLとの差が
最大値PCa以下で あること) (ニ)’ I a  L Lt   11≧PCs  
(直前)LLとの差が最小値PCs以上で あること) が成立しなければならない、第48図のフローではこれ
らの条件が成立しないとき、フラグOKを“0”にセッ
トしている(図中のoldaは直前のLLを表わす、5
6−13参照)。
For candidate a of LLi to satisfy the PC condition, (a) a≦PC2 (be below the highest note) (b) a≧
PC3 (Must be at least the lowest note) (c) l a
LLI -1l≦PCa (The difference from the previous (7) LL is less than or equal to the maximum value PCa) (d)' I a L Lt 11≧PCs
(The difference from LL (immediately before) is greater than or equal to the minimum value PCs) must hold true.In the flow of Figure 48, when these conditions do not hold, the flag OK is set to "0" (Figure 48). Olda in the middle represents the previous LL, 5
6-13).

第49図は第44図の53−7の詳細である。FIG. 49 shows details of 53-7 in FIG. 44.

目的は、(オクターブ番号十複音構成音番号)で示され
る第1段階メロディの置型LLの形式を、複音データC
Cを使って(オクターブ番号十音名番号)で示されるメ
ロデイ音高データの形式に変換して、MEDiに格納す
ることである。58−5.58−6の処理は、LLiの
複音構成音番号(LUiΔ0Off)が現区間の複音の
複音の構成音数(CKNO)より大きいときに、LLi
の複音構成音番号を現区間の複音構成音のうちで一番高
い複音構成音番号に変更する処理である0図中、Cは複
音の構成音のカウンタ、LLiAffOOはLLiのオ
クターブ番号、jは音名のカウンタである。
The purpose is to convert the format of the LL of the first stage melody indicated by (octave number 10 compound note numbers) into compound note data C.
C to convert it into the format of melody pitch data indicated by (octave number ten syllable name number) and store it in MEDi. 58-5. The processing in 58-6 is performed when the number of constituent tones of LLi (LUiΔ0Off) is larger than the number of constituent tones (CKNO) of the complex tones in the current section.
In the figure, C is the counter of the constituent tones of the complex tone, LLiAffOO is the octave number of LLi, and j is the octave number of LLi. This is a note name counter.

第50図と第51図は第53図の53−8における第2
段階メロデイ音の付与の詳細である。この処理の目的は
第1段階メロディに所望の第2段階メロデイ音を付与し
てメロディの音高列を完成することである。第2段階メ
ロデイ音の付加のために、上述した第2段階メロディの
特徴(R5i ) 、複音進行評価で得た調性をもつ音
階データ(SCALE i)、第2段階メロデイ音を分
類する知識を表現するプロダクションルールが利用され
る。付加される第2段階メロデイ音は次の条件を満足し
なければならない。
Figures 50 and 51 are the second part in 53-8 of Figure 53.
This is the details of adding step melody sounds. The purpose of this processing is to complete the pitch sequence of the melody by adding desired second-stage melody sounds to the first-stage melody. In order to add the second stage melody sounds, we need the characteristics of the second stage melody mentioned above (R5i), scale data with tonality (SCALE i) obtained from the multitone progression evaluation, and knowledge for classifying the second stage melody sounds. Production rules to express are used. The added second stage melody sound must satisfy the following conditions.

(イ)所定の音域内の音であること (ロ)複音進行評価で得た音階データが示す音階音であ
ること (ハ)複音の構成音でないこと (ニ)プロダクションルールで得た結論と計画された第
2段階メロディ音識別子R5iとが一致すること 第50図において、59−4〜59−18の外側のルー
プは計画された第2段階メロディ音識別子R3iの数だ
け繰り返すループであり、59−5〜59−16のルー
プは第1段階メロディの音符の数だけ繰り返す、59−
8〜59−14では、第2段階メロデイ音の候補として
、下限n。
(B) The sound must be within the specified range (B) The scale note must be the one indicated by the scale data obtained from the compound tone progression evaluation (C) The note must not be a component of a compound tone (D) The conclusion and plan obtained from the production rules In FIG. 50, the outer loops 59-4 to 59-18 are loops that repeat as many times as the planned number of second-stage melody sound identifiers R3i, and 59 -5 to 59-16 loops are repeated as many times as there are notes in the first stage melody, 59-
8 to 59-14, the lower limit n is used as a candidate for the second stage melody sound.

から上限upまでの音域内にある各音高データkが順次
検査される(第61図参照)、音高データkが音階音で
あって複音外音であるときは(59−8,59−9)、
関数Fを計算して(59−10)、プロダクションルー
ルによる前向推論を実行しく59−11)、その結論が
計画された第2段階メロディ音識別子R5iと一致する
かどうかチエツクする(59−11)、一致するとき、
音高データには上述した第2段階メロデイ音としての条
件をすべて満足している。したがって、付加される第2
段階メロデイ音数を計数するカウンタnct Ctをイ
ンクリメントし、見つけ出された第2段階メロデイ音の
音高データkQVMnctctに入れ、第2段階メロデ
イ音の付加位1jをPO3Tnctctにセットし、関
連するフラグfijを“l”にセットする(59−19
〜59−22)0本例では、第1段階メロデイ音間に高
々1つの第2段階メロデイ音が付加されるようにしてお
り、ffLj =0は、第1段階メロデイ音MEDj 
、!=MED4.1の間に第2段階メロデイ音がまだ付
加されていないことを示す。
Each pitch data k within the range from up to the upper limit up is sequentially examined (see Figure 61). 9),
Calculate the function F (59-10), perform forward inference using the production rule (59-11), and check whether the conclusion matches the planned second stage melody note identifier R5i (59-11). ), when they match,
The pitch data satisfies all of the conditions for the second stage melody sound mentioned above. Therefore, the second
Increment the counter nct Ct that counts the number of stage melody sounds, enter it into the pitch data kQVMnctct of the found second stage melody sound, set the additional position 1j of the second stage melody sound in PO3Tnctct, and set the related flag fij set to “l” (59-19
~59-22) 0 In this example, at most one second stage melody sound is added between the first stage melody sounds, and ffLj = 0 means that the first stage melody sound MEDj
,! = Indicates that the second stage melody sound has not been added yet during MED4.1.

59−12における結論=R5iの条件が不成立のとき
は、着目している音高データには第2段階メロデイ音と
しての条件を満たさないので。
If the condition of conclusion=R5i in 59-12 is not satisfied, the pitch data of interest does not satisfy the condition as a second stage melody sound.

音高データkをインクリメントして(59−13)、処
理を繰り返す、59−14においてk〉UPが成立する
ときは、第1段階メロデイ音MEDjとMED4−+ 
の間に第2段階メロデイ音が付加されなかったことを意
味する。したがってjをインクリメントして(59−1
5)、次の第1段階メロデイ音間に第2段階メロデイ音
が付加できるかどうかの検査に進む。
The pitch data k is incremented (59-13) and the process is repeated. When k>UP is established in 59-14, the first stage melody tones MEDj and MED4-+
This means that the second stage melody sound was not added during this period. Therefore, by incrementing j, (59-1
5) Proceed to a test to see if a second stage melody sound can be added between the next first stage melody sounds.

59−6における候補音の設定の詳細は第62図に示さ
°れる。この例では1前後の第1段階メロデイ音M E
 D i 、 M E D I4+ の高い方の音より
5半音上から低い方の音より5半音下までをサーチする
音高の範囲としている(62−5〜62−7)、ただし
、i=0のとき、すなわち、着目している区間の最初の
i1段階メロディ音の手前に第2段階メロデイ音を付加
しようとするときには、最初の第1段階メロデイ音の5
半音上〜5半音下までを音高範囲としく62−1.2)
、i =■腸ednoのとき、すなわち着目している区
間の最後の第1段階メロデイ音の後に第2段階メロデイ
音を付加しようとするときには、最後の第1段階メロデ
イ音の5半音上〜5半音下までを音高範囲としている(
62−3.4)。
Details of the setting of candidate sounds in step 59-6 are shown in FIG. In this example, the first stage melody sound around 1 M E
The pitch range to be searched is from 5 semitones above the higher note of D i and MEDI4+ to 5 semitones below the lower note (62-5 to 62-7), where i = 0 , that is, when trying to add the second stage melody sound before the first i1 stage melody sound of the section of interest,
The pitch range is from one semitone above to five semitones below 62-1.2)
, when i = EDNO, that is, when trying to add the second stage melody sound after the last first stage melody sound of the section of interest, add the second stage melody sound 5 to 5 semitones above the last first stage melody sound. The pitch range is up to a semitone below (
62-3.4).

59−10におけるFの計算の詳細を第54図に示す、
本例では、第2段階メロデイ音は前後の第1段階メロデ
ィ間に1つだけ付加する構成であるので、いくつかの関
数(図中、Fl 〜F3)については所定の値にセット
している。
The details of the calculation of F in 59-10 are shown in FIG.
In this example, only one second-stage melody sound is added between the preceding and succeeding first-stage melodies, so some functions (Fl to F3 in the figure) are set to predetermined values. .

59−11の前向推論の詳細は上述した第44図に示さ
れる。
Details of the forward inference of 59-11 are shown in FIG. 44 mentioned above.

第50図の処理が完了したとき、nctctには付加さ
れた第2段階メロデイ音の総数が記憶され、配列(V 
i )のi#r目には、第59図の処理においてi番目
に付加された第2段階メロデイ音の音高データが記憶さ
れ、配列(PO5Ti )のi番目には第59図の処理
においてi番目に付加された第2段階メロデイ音の位置
情報が記憶されている。
When the processing in FIG. 50 is completed, the total number of added second-stage melody sounds is stored in nctct, and the array (V
i), the pitch data of the second stage melody tone added to the i-th in the process of FIG. 59 is stored, and the i-th of the array (PO5Ti) is stored in the i-th in the process of FIG. The position information of the i-th added second stage melody sound is stored.

これらのデータは、第51図の処理によって、メロディ
の音高列(VMEDi)の形式に変換される。なお配列
(VMEDi)は、アルペジオ(MEDi)に初期設定
されている。60−2〜60−9は付加位置の順番に、
配列(PO5Ti)、(VMi)をソートする処理であ
る。6〇−10〜60−19において1位置データPO
5Tiで示される位置に第2段階メロデイ音の音高デー
タVMiを挿入している。
These data are converted into a melody pitch sequence (VMEDi) format by the process shown in FIG. Note that the array (VMEDi) is initially set to arpeggio (MEDi). 60-2 to 60-9 are in order of addition position,
This is a process of sorting the arrays (PO5Ti) and (VMi). 1 position data PO from 60-10 to 60-19
The pitch data VMi of the second stage melody tone is inserted at the position indicated by 5Ti.

なお、本例では第1段階メロデイ音の間に第2段階メロ
デイ音を1つだけ付加可能にしているが、複数の第2段
階メロデイ音が付加できるように処理を変更してもよい
In this example, only one second stage melody sound can be added between the first stage melody sounds, but the process may be changed so that a plurality of second stage melody sounds can be added.

ここまでで、メロディの音高列は完成する。残る処理は
メロディの音長列の生成である。
At this point, the pitch sequence of the melody is complete. The remaining processing is to generate a string of note lengths for the melody.

第55図にメロディの音長列の生成のフローを示す(5
3−9の詳細)、まず、エツセンス生成または抽出で得
た基準のリズムパターンの音符数を1着目している区間
で生成した音符数7層edn。
Figure 55 shows the flow of generating a melody note length sequence (5
(Details of 3-9) First, the number of notes of the standard rhythm pattern obtained by essence generation or extraction is the number of notes generated in the section in focus. 7 layers edn.

(メロディの音高列のデータ数)とを比較して、両者の
差aを算出する(6B−1)、生成音符数の方が基準リ
ズムパターンの音符数より少ないとき(a〉0のとき)
は、パルススケールによる音符の最適結合を、差の数だ
け繰り返し実行する(66−2〜66−6)、生成音符
数の方が基準リズムパターンの音符数より多いとき(a
goのとき)は、音符の最適分割を差の分だけ繰り返し
実行する(66−7〜66−11)、本例ではリズムパ
ターンのデータ形式として、16ビツト長のデータを使
用し、各ビット位置を各タイミングに割り当て、“l”
の値をもつビット位置で音が発生することを表わしてい
るので、最後にMERデータ形式に変換する(66−1
2)。
(the number of data in the pitch sequence of the melody) and calculate the difference a between the two (6B-1). When the number of generated notes is less than the number of notes in the reference rhythm pattern (when a>0) )
The optimal combination of notes using a pulse scale is repeatedly executed by the number of differences (66-2 to 66-6), and when the number of generated notes is greater than the number of notes in the standard rhythm pattern (a
go), the optimum division of notes is repeatedly executed by the difference (66-7 to 66-11). In this example, 16-bit data is used as the data format of the rhythm pattern, and each bit position is Assign “l” to each timing.
Since this indicates that a sound is generated at a bit position with a value of
2).

結合処理の詳細は第56図に示す0図中、PSCALE
jは使用するパルススケールのj番目の成分スケールを
表わし、RRは処理対象のリズムパターンである。RR
のビットが“1″のなかで、パルススケールの重みが最
小のポイントを“0”にすることで音符を結合する0例
えば、基準リズムパターンが ノ  」−コ  ノ  j であるときに、ノーマルノパルススケール(第7図参照
)を使って、音符を1つ結合した場合、結果は、 ツノツノ となる。
The details of the joining process are shown in Figure 56.
j represents the j-th component scale of the pulse scale to be used, and RR is the rhythm pattern to be processed. R.R.
For example, when the standard rhythm pattern is ノ `` - こ ノ j , the normal note is If you combine one note using the pulse scale (see Figure 7), the result is Tsunotsuno.

これは、次のようにして得られる。This can be obtained as follows.

まず、RRは、当初 でアル、一方、ノーマルのパルススケールは1213 
1214 1213.1215である。RRのビット“
1″のうちでノーマルのパルススケールが最小の重みを
もつポイントは、右端から7番目の位置である。この位
置のビットが“0”になる、したがって、結果のRRは
、となり、これは、 ノ  ノ  ノ  ノ を表わしている。
First, RR is initially Al, while the normal pulse scale is 1213
1214 1213.1215. RR bit “
The point where the normal pulse scale has the smallest weight among 1'' is the 7th position from the right end.The bit at this position becomes "0", so the resulting RR is, which is It represents no no no no.

分割処理の詳細は第57図に示す0分割は、RRのビッ
トが“0”のなかでパルススケールの重みが最大のポイ
ントを“l”とすることで実行される0例えば、リズム
パターン ノ  ノーコ  ノ二コ  」〒】 に対し、ノーマルのパルススケールで音符を分割したと
き、結果は。
The details of the division process are shown in FIG. 57. 0 division is executed by setting the point where the weight of the pulse scale is maximum among the bits of RR as "0" to "l". For Noniko 〒】, when we divide the notes using the normal pulse scale, the result is.

nnn となる。nnn becomes.

MERデータ形式への変換86−12の詳細はi58図
に示す0図中、clは音符のカウンタであり、C?は各
音符の音長を計測するカウンタである。この例で、ME
RoにはRRから最初の“1”が現われるまで長さが入
るので、区間の境界線(小節線)をまたぐ音符も処理回
部である(シンコペーション対策)。
The details of the conversion 86-12 to the MER data format are shown in Figure i58. In Figure 0, cl is a note counter and C? is a counter that measures the length of each note. In this example, ME
Since Ro contains the length from RR until the first "1" appears, notes that cross the boundary line (bar line) of the section are also processed parts (to prevent syncopation).

データ移動53−10の詳細を第59図に示す、まず、
MERo(現在の生成区間の頭の空白部分)を生成済の
最後の音符の音長データMELR+5eldnoに加え
る。ここにmeldnoは既に生成されている音符の数
を表わす、今回生成した音高列VMEDI 〜VMED
vmednoをMELDに移動し、今回生成した音長列
M E R+ 〜M E Rvsedn。
The details of the data movement 53-10 are shown in FIG. 59. First,
MERo (blank part at the beginning of the current generated section) is added to the generated note length data MELR+5eldno of the last note. Here meldno represents the number of notes that have already been generated, the pitch sequence VMEDI ~ VMED generated this time
Move vmedno to MELD and generate the tone length sequence M ER+ ~M ER vsedn.

をMELRに移動する(70−2〜7O−6)。is moved to MELR (70-2 to 7O-6).

meldnoを更新して終了する(70−7)。meldno is updated and the process ends (70-7).

く作曲機のまとめ〉 以上の説明から明らかなように、自動作曲機としての本
装置は種々の特徴を備えており、そのいくつかを下記に
示す。
Summary of the Music Composer> As is clear from the above description, this device as an automatic music composer has various features, some of which are listed below.

(A)メロディの骨格を形成する第1段階メロディの音
高の集合を規定するために複音(一次構成音)の進行情
報が入力される。゛ (B)メロディの音高列は、第1段階のメロディ生成後
、第2段階のメロディを付加するという2段階処理で生
成される。
(A) Progress information of multiple tones (primary constituent tones) is input in order to define a set of pitches of the first stage melody forming the skeleton of the melody. (B) The pitch sequence of the melody is generated by a two-stage process in which a melody is generated in the first stage and then a melody in the second stage is added.

(C)メロディの分析と合成において音楽知識を使って
推論を行うプロダクションシステムが組み込まれている
(C) It incorporates a production system that uses musical knowledge to make inferences in melody analysis and synthesis.

(D)メロディに含まれる第2段階メロデイ音を分類す
る処理と、第1段階メロディに第2段階メロディを付加
する処理とが同一の音楽知識を表現するプロダクション
ルールデータに基づいて行われるため、両方の処理に可
逆性がある。
(D) Since the process of classifying the second-stage melody sounds included in the melody and the process of adding the second-stage melody to the first-stage melody are performed based on production rule data that expresses the same musical knowledge, Both processes are reversible.

(E)作曲の材料として与えられる複音進行を分析して
、曲の階層構造、調性構造を抽出することにより、曲が
計画される。
(E) A song is planned by analyzing the multitone progression given as material for composition and extracting the hierarchical structure and tonality structure of the song.

(F)抽出した調性構造は各区間で使用される音階のキ
ーを規定する。この結果、調性上コントロールされた曲
が保証される。
(F) The extracted tonality structure defines the key of the scale used in each section. This ensures a tonally controlled song.

CG’)抽出した階層構造は第1段階メロディの置型の
生成制御に利用される。これにより、生成される曲に多
様性と一貫性を盛り込むことができる。
CG') The extracted hierarchical structure is used to control the generation of the first stage melody. This allows for variety and consistency in the generated songs.

なお、上述した実施例は単なる例示であり、種々の変形
、変更、改良が可能である0例えば、上′ 述した実施
例ではモチーフから抽出した置型の特徴PCを、置型L
Lの生成において制御データとして使用しているが、置
型の特徴PCを曲の進行に伴って変化させてもよい、こ
れは、例えば、曲の進行位置や階層構造を変数とする関
数の演算手段で実現できる。
Note that the above-mentioned embodiment is merely an example, and various modifications, changes, and improvements are possible.
Although it is used as control data in the generation of L, the stationary feature PC may also be changed as the song progresses. This can be achieved with

同様に、第2段階メロディの特徴(R3i)に関しても
、曲の進行に伴って変化させることができる6例えば、
モチーフから抽出した第2段階メロディの特徴のなかの
1つの第2段階メロデイ音識別子を他の第2段階メロデ
イ音識別子に置換する。これは、第2段階メロデイ音の
識別子のセットのなかから、乱数的に1つを選択するこ
とで実現できる。
Similarly, the characteristics of the second stage melody (R3i) can be changed as the song progresses6. For example,
One second-stage melody sound identifier among the characteristics of the second-stage melody extracted from the motif is replaced with another second-stage melody sound identifier. This can be achieved by randomly selecting one from a set of second-stage melody tone identifiers.

また、リズムに関し、上記実施例ではパルススケールに
よる音符の結合1分割により、リズムの制御を行ってい
るが、モチーフに含まれる支配的なミニリズムパターン
を抽出し、これを生成するメロディの音長列のなかに組
み込むようにしてもよい。
Regarding the rhythm, in the above embodiment, the rhythm is controlled by combining notes using a pulse scale into one division, but the dominant mini-rhythm pattern included in the motif is extracted, and the tone length of the melody to generate this pattern is controlled. It may also be included in a column.

[発明の効果] 以上のように、本発明の自動作曲機は、作曲の基礎デー
タとして、モチーフと、生成するメロディラインに含ま
れることになる第1段階のメロディの音として使用され
る音高の種類(一次構成音)の進行情報とを入力手段か
ら入力し、特徴パラメータ抽出手段にて、与えられた一
次構成音の進行情報に従ってモチーフを分析して、第1
段階のメロディの特徴パラメータと第2段階のメロディ
の特徴パラメータを抽出し、第1段階メロディ生成手段
により、各メロディ生成区間における一次構成音のデー
タを用いて、第1段階のメロディの特徴パラメータに従
う第1段階のメロディを生成し、第2段階メロディ付加
手段により、第1段階メロディに対し、第2段階のメロ
ディ特徴パラメータに従う第2段階のメロディを付加し
ている。したがって、第1段階のメロディにより、最終
的なメロディ・の骨組が形成され、第2段階のメロディ
はこの骨組を装飾し、つなぎ、補助するように働く。
[Effects of the Invention] As described above, the automatic composing machine of the present invention uses, as basic data for composing, the motif and the pitch used as the sound of the first stage melody to be included in the melody line to be generated. The type (primary constituent sound) progression information is input from the input means, and the feature parameter extraction means analyzes the motif according to the given progression information of the primary constituent sound.
The characteristic parameters of the melody in each stage and the characteristic parameters of the second stage melody are extracted, and the characteristic parameters of the melody in the first stage are followed by the first stage melody generation means using the data of the primary constituent sounds in each melody generation section. A first stage melody is generated, and a second stage melody according to the second stage melody characteristic parameter is added to the first stage melody by a second stage melody adding means. Therefore, the melodies of the first stage form the framework of the final melody, and the melodies of the second stage serve to decorate, connect, and support this framework.

本自動作曲機は、与えられたモチーフを複音進行の角度
から解釈して、メロディを生成しており、複音進行とし
てどのような進行が与えられるかによって、異なる曲の
計画を行なうことができる。したがって、和声的な曲か
゛ら、和声的でない曲まで輻広く作曲が可能である。ま
た、使用の上からは、コード進行を入力する必要がない
ので、使用者は和声に関する知識を必要としない。
This automatic composing machine generates a melody by interpreting a given motif from the perspective of a multitone progression, and can plan different pieces of music depending on what kind of progression is given as a multitone progression. Therefore, it is possible to compose a wide variety of songs, from harmonic to non-harmonic. Furthermore, since there is no need to input chord progressions, the user does not need to have any knowledge of harmony.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例に係る自動作曲機の全体構成
図、第2図は作曲機モードにおける全体的な動作を示す
フローチャート、第3図は作曲処理において使用される
主な変数のリストを示す図、第4図、第5図、ft56
図、第7図、第8図は使用されるデータの形式を示す図
、第9図は初期設定のフローチャート、第1θ図は複音
(一次構成音)進行メモリに記憶される複音進行データ
の例を示す図、第11図は複音進行データの読み込みの
フローチャート、第12図はパルススケールメモリに記
憶されるパルススケールデータを例示する図、第13図
はパルススケールデータの読み込みのフローチャート、
第14図はプロダクションルールデータメモリに記憶さ
れるプロダクションルールデータを例示する図、第15
図はプロダクションルールデータの読み込みのフローチ
ャート、第16図はモチーフメモリに記憶されるメロデ
ィデータ(モチーフデータ)を例示する図、第17図は
メロディデータの読み込みのフローチャート、第18図
はエツセンス生成のフローチャート、第19図は第1段
階メロデイ音型の特徴を設定するフローチャート、第2
0図は第2段階メロディの特、徴を設定するフローチャ
ート、第21図はモチーフのリズムを区間別に評価する
フローチャート、第22図はPs、re、Pss、Fe
eの算出のフローチャート、第23図はPs、Pssの
算出のフローチャート、第24図はre、Feeの算出
のフローチャート、第25図はモチーフの第1段階メロ
デイ音型を抽出するフローチャート、第26図は第1段
階メロデイ音型の特徴を抽出するフローチャート、第2
7図は第2段階メロディの特徴を抽出するフローチャー
ト、第28図は複音データによりメロデイ音を第1段階
メロデイ音と第2段階メロデイ音とに分類するツーロー
チャート、第29図は分析対象のメロディの状況を表わ
す関数Fを計算するフローチャート、第30図は関数F
1の算出のフローチャート、第31図は関数F2の算出
のフローチャート、第32図は関数F3の算出のフロー
チャート、第33図は関数F4の算出のフローチャート
、第34図は関数F5の算出のフローチャート、第35
図は関数F6の算出のフローチャート、第36図は関数
F7 、Fsの算出のフローチャート、第37図は計算
した関数Fを一時記憶するフローチャート、第38図は
第2段階メロデイ音の種類を推論するフローチャート、
第39図はブロック間の複音進行の一致度を算出するフ
ローチャート、第40図は算出された一致度から階層構
造データを生成するフローチャート、第41図はブロッ
クの階層構造データを複音区間ごとの階層構造データに
変換するフローチャート、第42図と第43図は複音進
行から各−区間の調とスケールを判定するフローチャー
ト、第44図はメロディ生成のフローチャート、第45
図は第1段階メロデイ音型の生成、セーブ、ロードを示
すフローチャート、第46図は置型のデータバッファを
例示する図、第47図は音型生成のフローチャート、第
48図は音型生成におけるチエツクのフローチャート、
第49図は置型をメロディデータ形式に変換するフロー
チャート、第50図と第51図は第1段階メロディに第
2段階メロデイ音を付加するフローチャート、第52図
は第2段階メロデイ音材、加処理の順序を示す図、第5
−3図は第2段階メロデイ音の候補とする音高の範囲を
設定するフローチャート、第54図は関数Fの計算のフ
ローチャート、第55図はメロディの音長データを生成
するフローチャート、第56図は音符の最適結合のフロ
ーチャート、第57図は音符の最適分割のフローチャー
ト、第58図は生成したリズムパターンをMERデータ
形式に変換するフローチャート、第59図は生成したメ
ロディデータを連続領域に移動するフローチャートであ
る。 l・・・・・・CPU、2・・・・・・入力袋δ、3・
・・・・・モチーフメモリ、4・・・・・・複音進行メ
モリ、CCi・・・・・・複音データ、LLi・・・・
・・第1段階メロデイ音型、PSi・・・・・・第2段
階メロディの特徴、PCi・・・・・・第1段階メロデ
イ音型の特徴。 特許出願人  カシオ計算機株式会社 第1図 金体庫仄 HIEi    諧N絹!ILテ°−ダ5CALEi 
iiwγ−ダ P!L五リスリ スメロテン〉 第4図 デーダ豹輝1) くメロテにヰ腎憎帆lでラメ−8〉 才11  メロヲ’4        LLi    
0402PC3(LLiII′)ポー蜘 R51(!寮1崎11メロテンの羽−数〕(イ?Io 
 cl   、I  、に1711番 番 0101(Sex) 第5図 ゴ゛−々烏人 <’Ji 1 fi’tmメD7−J’!M9IL )
?5メー4 >第6図 データを増J3〕 PSCALEi(re)L−ススン7−)L)澄11) 1、ノーマノL  1111  1111  1111
  11112、ηンJ’:  1111  1111
 1111  1111第7図 一Σ゛−ノ?ヲヒシiきJ(4) 第16図 メロテ°(う”−〃伴1 掬ii :      C,E、G MD6冨 OS OOMRs璽4 CC4−0091CRt−10 第8図 テ°−タ汗い砧イ列 第9図 t77朔扱楚 第10図 ネ!I葛姪1樗テテ°−タイ?11 第12図 γシbテ゛−ダ話鏝b> 了Vしス   ラ°−夕 10    5、FFFF、5555,1111,01
01,0001(ノーマル) (勺5Iで) ノV几スス乃−九テ゛−jを11 第13図 ノψノLスフノフリLテ1ノア0噛し降−−チ3≧、−
叛)”l”j”(−L       x   −U  
     Y     N          7ドc
’LI     Q2023      02    
 Q    8   0  −1  −2      
53     Q     1    0    4 
   5      104    0    7  
 0   −3   −4      1s5    
0     t、     0    9    6 
     207    3     B    @−
−2B       309   −as     8
   −3   −3   −6      3510
    1   ’  5   ’  1   −7 
   It   、   4511    4    
5    4   −7   −8       S。 第14図 アロダク己ヨシルー几ザータイ列 プログηジョ5ノL−ルO郭
FIG. 1 is an overall configuration diagram of an automatic music composer according to an embodiment of the present invention, FIG. 2 is a flowchart showing the overall operation in music composer mode, and FIG. 3 is a diagram of the main variables used in the music composition process. Diagram showing the list, Figure 4, Figure 5, ft56
Figures 7 and 8 are diagrams showing the format of the data used, Figure 9 is a flowchart of initial settings, and Figure 1θ is an example of compound tone progression data stored in the compound tone (primary constituent tone) progression memory. , FIG. 11 is a flowchart for reading multitone progression data, FIG. 12 is a diagram illustrating pulse scale data stored in the pulse scale memory, FIG. 13 is a flowchart for reading pulse scale data,
FIG. 14 is a diagram illustrating production rule data stored in the production rule data memory, and FIG.
Figure 16 is a flowchart for reading production rule data, Figure 16 is a diagram illustrating melody data (motif data) stored in the motif memory, Figure 17 is a flowchart for loading melody data, and Figure 18 is a flowchart for essence generation. , FIG. 19 is a flowchart for setting the characteristics of the melody sound type in the first stage,
Figure 0 is a flowchart for setting the characteristics and characteristics of the second stage melody, Figure 21 is a flowchart for evaluating the motif rhythm by section, and Figure 22 is a flowchart for setting the characteristics and characteristics of the second stage melody.
Fig. 23 is a flowchart for calculating Ps and Pss; Fig. 24 is a flowchart for calculating re and Fee; Fig. 25 is a flowchart for extracting the first stage melody note type of the motif; Fig. 26 is a flowchart for extracting the characteristics of the melody sound type in the first stage,
Figure 7 is a flowchart for extracting the characteristics of the second stage melody, Figure 28 is a two-row chart for classifying melody sounds into first stage melody sounds and second stage melody sounds based on compound note data, and Figure 29 is a flowchart for extracting the characteristics of the second stage melody. A flowchart for calculating the function F that represents the state of the melody, Fig. 30 is the function F
31 is a flowchart for calculating function F2, FIG. 32 is a flowchart for calculating function F3, FIG. 33 is a flowchart for calculating function F4, FIG. 34 is a flowchart for calculating function F5, 35th
The figure is a flowchart for calculating function F6, Figure 36 is a flowchart for calculating function F7 and Fs, Figure 37 is a flowchart for temporarily storing the calculated function F, and Figure 38 is for inferring the type of second stage melody sound. flowchart,
Figure 39 is a flowchart for calculating the degree of coincidence of compound note progressions between blocks, Figure 40 is a flowchart for generating hierarchical structure data from the calculated degree of coincidence, and Figure 41 is a flowchart for calculating the degree of coincidence of compound note progressions between blocks. Flowchart for converting into structural data, Figures 42 and 43 are flowcharts for determining the key and scale of each section from a compound note progression, Figure 44 is a flowchart for melody generation, and Figure 45
The figure is a flowchart showing the generation, saving, and loading of the first-stage melody sound type, Figure 46 is a diagram illustrating a fixed-type data buffer, Figure 47 is a flowchart of sound type generation, and Figure 48 is a check in sound type generation. flow chart,
Figure 49 is a flowchart for converting a fixed type into melody data format, Figures 50 and 51 are flowcharts for adding second stage melody sounds to first stage melody, and Figure 52 is a flowchart for adding second stage melody sound materials and processing. Figure 5 showing the order of
Figure 3 is a flowchart for setting the range of pitches that are candidates for the second stage melody sound, Figure 54 is a flowchart for calculating function F, Figure 55 is a flowchart for generating melody note length data, and Figure 56. is a flowchart for optimal combination of notes, Figure 57 is a flowchart for optimal division of notes, Figure 58 is a flowchart for converting the generated rhythm pattern into MER data format, and Figure 59 is for moving generated melody data to a continuous area. It is a flowchart. l...CPU, 2...Input bag δ, 3.
...Motif memory, 4...Multiple note progression memory, CCi...Multiple note data, LLi...
...First stage melody sound type, PSi...Features of second stage melody, PCi...Characteristics of first stage melody sound type. Patent applicant: Casio Computer Co., Ltd. IL reader 5CALEi
iiwγ-daP! L 5 Lis Lis Melo Ten〉 Fig. 4 Deda Hyouki 1) Ku Merote ni Kiki Hataiho l Lame-8〉 Sai 11 Melwo'4 LLi
0402PC3 (LLiII') Poegum R51 (! Dormitory 1 Saki 11 Meloten's feathers - number) (I? Io
cl, I, No. 1711 0101 (Sex) Figure 5 Goji Karasuto <'Ji 1 fi'tm D7-J'! M9IL)
? 5 Me 4 > Figure 6 data added J3] PSCALEi (re) L-Susun 7-) L) Sumi 11) 1, Normano L 1111 1111 1111
11112, η J': 1111 1111
1111 1111 Fig. 7 1Σ゛-ノ? Wohishiki J (4) Fig. 16 Merote°(U”-〃Ban 1) ii: C, E, G MD6 Tomi OS OOMRs Seal 4 CC4-0091CRt-10 Fig. 8 °-Tata sweaty Kinuta row Figure 9 t77 Handling Figure 10 Ne! ,1111,01
01,0001 (Normal) (With 5I) ノV几susuno-9 te ゛-j 11 Figure 13 ψ ノL sufunofuri L te 1 noa 0 bite down--chi 3≧,-
treason) "l"j" (-L x -U
Y N 7 do c
'LI Q2023 02
Q 8 0 -1 -2
53 Q 1 0 4
5 104 0 7
0 -3 -4 1s5
0 t, 0 9 6
207 3 B @-
-2B 309 -as 8
-3 -3 -6 3510
1 ' 5 ' 1 -7
It, 4511 4
5 4 -7 -8 S. Figure 14 Arodaku Himself Yoshiru 几zartai string program η Jo 5 no L-ru O Guo

【々込δ 第17図 ノロテ゛イラ゛−ダを艷おl野ヰ 第18図 エラ1−5又)i3父 第191!! すに1鏝司畠メロ了イIa at:r、詩徹第20図 ン寥2峠」1メ0了1のキ弁6阪 リス°乙惠〒イ色 1・  IJJI    b=−2 1、I    JIJ   、II       ””
(A−1jlJξJbar−2 第22図 Ps、Pe、 Pss、 Pee )’jlL’を陶1
3 日階雪0 〜口3 8時−〇 Pss2  P2H4 Pe−3Pee−4(J  ON:ン 第23図 Ps、Pss(Oす1巴 第24図 Pe、 Pee 6’) 薄出 第26図 蔗1殴隋ズロテ゛イの1型の斤卸吟東 事1段J官メロYxV隼2IJ普メ〇シ1の≠1馴第3
0図 Fl:大の1ξ1桓隋メロテ1布1】イ町薗月シテ第3
1図 F2−1iAf)’41PtN:An”f4Ts12f
laM’b’第32図 F3:@後宵1ぢi春ヌロテ1も九飄01眉を丈F41
病1隻築1ト乏司テメロアイちり1高1(−夫か&ハx
1め)か乙で) 第37図 F1〜Fn(n−8)の−鴎目1 第38図 前箇椎論 第41図 陥1茅λ江、テ゛−タを巴迦 第42図 調・ス汀−九手り犯 n17’T−JLIPIl’F’yt廷【l)N   
グN           (AN)☆へ・ンタ゛°の
イ?11 F  F F F  (Hex) 第46図 右”1L(LL)う°−タへ゛フフ7 第48図 ÷エソク 第52図 e%040a 40 b 040o中4・0502 プ“−g木ヤ勤 手続補正書(方式) %式% 1、事件の表示 昭和62年特許願第325180号 住所 東京都新宿区西新宿2丁目6番1号名称 (14
4)カシオ計算機株式会社代表者  樫  尾  忠 
 雄 4、代理人 住所 東京都港区西新橋1丁目13番4号T−Sビル3
階、5゛二′−− 氏名 弁理士(77,34)町 1)俊 正。 −1コ 5、拒絶理由通知の日付 昭和63年3月29日(発進口) 6、補正の対象 図面。 7、補正の内容 図面中、第1〜9、ll−41,43〜59図を別紙の
通り訂正する。 第 1 図 &体a〜 4乍曲v3う几フロー ト11Ei    11警−taxテ′タ5CALEi
  1司1テ゛−タ 棄牧リスト 〈ノ[コテλ碍岬を咋窄χlマ゛ヲメータ〉’m  メ
ロチー     LLi   0402R5i C*2
凶隋ズロテンの確〕 會 D10+(Hex) くIロチ°イン 1兆γ−ターーー16bit唸」匁 下位8bi を 首長テーダー−−1長の底本琳イ立長0!1マに4缶τ
裏わ(第4図 コシ゛−夕1り噌q(1) 0124Q相飄)1)1与え3 雪ダ°イアト=qクス汀−ノL(ドレミ)ソ″5%7 
K )Li−5FxilUi 第6図 テ゛−タyr4式゛(3) PSCALEi (lY7Lス’;zh−Jt)(1v
11) 1、ンーマル 1111  1111  1111  
 tilloooo  oooi   oooo   
oooloooo  0000 0000  0001
2.9シバ’  till   1111   111
1   1111第7図 テ゛°−タi知K(4) No      1!+tv   1#WL     
 MDi           MRi       
 コVレスIC4」040020 2D4」040222 3  E4J’0404 2  t。 4F4111)o4o526 5     G4  −  0407     4  
    86     csJosoo       
4      10MC1+冨0400       
 MR+=2     (tへ716道表了)MD2−
0402        MR2−2MD3=0404
         MR3= 2MD4雪0405  
       MR4=2MDs=0407     
   MRs−4MD6エ0500       MR
6= 4CC+雪0000        CR+=I
OLL+雪0401        p(1−4LL2
=0402        PC2= 0501LL3
 =0403        PC3=0401LL4
=0501        PC4=1テ°°−夕對式
゛仔11 +hf)ri(i)           CCi  
         CRi            C
Ri           VVレス (16”    (16m)    (161L)  
  (10血)′Trレス   テーク 10   5、FFFF、5555,1111,010
1,000?第12 図 ノWiしススカ°−几テ゛−タイダ11第13図 バILススモ几アー79f>lb刊ム井ルール ヶ>t<−L      X      U     
 Y      N      了ドレス第14図 70り゛クジョ)几−ルテ°=タイ2f11第15図 フ゛ロタηジョンルーJLo論4と メロテーテ°−91トみ込瀝 ’1lffxロチ’4 ’fjA’I O岸竪6!第2
0  図 一1PzaPm!r)mイtW リス°ム葛〒イ0 Ps、PePssPeeり薫比 第24 図 Fe、Pee’) II lt3 第26図 了ノL#シ大lマター′/QMF稼 第28  図 案1#ii階メロテア謙/92凶楚メロフλ1の判3−
1F1:πf)顎声昔1フ何個先力\ 第36図 F7:イ訃方り和声1y−7珀り育の萱高笈F8:JI
I+     ’        <1し;     
や第37図 F1〜Fn(n−8)の−日前T胤 薊薗推論 第43図 諭ス’7−/L手+1定jj量(2) 了にシス       テ゛−夕(1撮)O何龜9普!
か7))か(N組) 1   狼1の自1Lテ゛−タリ7ド°レス(A1)2
   $2           (A2)N  弊N
            (AN )A1   ヘシタ
1 A1ヤ11型Ω叢文 へiり゛の4クリ も“ツ、(L L)テゝグ八゛ツファ ckno−4 第48図 りコク 第52図 (末) MEDW4T太0刀A箪 6口)   040a 40 b oso。 040a啼4−0502 第53図 41授ネ宥の岐艷 第54図 Ff)%−を薄 MERff−夕WS%’E変中央
[Include δ Figure 17 Riding the Norote Rider Figure 18 Ella 1-5 again) i3 Father No. 191! ! Suni 1 Kouji Hatake Melo Ia at:r, Shitetsu 20th Figure 2 Toge” 1 Me 0 Ry 1 Kiben 6 Han Risu ° Otsue〒Iiro 1・ IJJI b=-2 1, I JIJ, II ””
(A-1jlJξJbar-2 Fig. 22 Ps, Pe, Pss, Pee) 'jlL'
3rd floor snow 0 ~ Exit 3 8:00-〇Pss2 P2H4 Pe-3Pee-4 (J ON: N Figure 23 Ps, Pss (Osu1 Tomoe Figure 24 Pe, Pee 6') Usude Figure 26 1st blow, 1st round, 1st class, 1st class, 1st grade, J official, YxV, Hayabusa, 2IJ, 1st class, ≠ 1st class.
0 Figure Fl: Large 1 ξ 1 Hansui Merote 1 Cloth 1] I-cho Sonozuki City No. 3
1 Figure F2-1iAf)'41PtN:An"f4Ts12f
laM'b' Figure 32 F3: @Later night 1jii Haru Nurote 1 also nine lengths 01 eyebrows length F41
1 illness built 1
Figure 37: F1 to Fn (n-8) - Kamome 1 Figure 38 Maegashiron Figure 41: 1 Kaya, data to Tomoe 42nd scale Su-Ten-Nine-handed criminal n17'T-JLIPIl'F'yt court [l)N
Gun N (AN) ☆ to the key? 11 F F F F (Hex) Fig. 46 right "1L (LL) u° - Fufu 7 Fig. 48 ÷ Esoku Fig. 52 e%040a 40 b 040o 4.0502 P" - g Written amendment (method) % formula % 1. Indication of the case 1985 Patent Application No. 325180 Address 2-6-1 Nishi-Shinjuku, Shinjuku-ku, Tokyo Name (14
4) Tadashi Kashio, Representative of Casio Computer Co., Ltd.
Male 4, agent address: T-S Building 3, 1-13-4 Nishi-Shinbashi, Minato-ku, Tokyo
Floor, 5'2' -- Name Patent Attorney (77, 34) Town 1) Masa Toshi. -1 Co. 5. Date of notice of reasons for refusal: March 29, 1985 (starting gate) 6. Drawings subject to amendment. 7. Contents of corrections Figures 1 to 9, 11-41, and 43 to 59 of the drawings will be corrected as shown in the attached sheet. 1st figure & body a ~ 4 songs v3 floating float 11 Ei 11 police tax data 5 CALEi
1 Tsukasa 1 data list
[Kusui Zloten's confirmation] Meeting D10 + (Hex) Ku Irochi °in 1 trillion γ-ter - 16 bit growl" Momme lower 8 bits is the chief tader - 1 chief's Somoto Rin's Tachicho 0! 4 cans in 1 ma
Urawa (Fig. 4 Koshi-Yu 1 Risoq (1) 0124Q Aigawa) 1) 1 give 3 Snow day = q Kusu-Tai-no L (doremi) so'' 5% 7
K ) Li-5FxilUi Figure 6 Type yr4 formula (3) PSCALEi (lY7L'; zh-Jt) (1v
11) 1, Numaru 1111 1111 1111
tilloooo ooooi oooo
ooooooooo 0000 0000 0001
2.9 Shiba' till 1111 111
1 1111 Figure 7 - Typical knowledge (4) No 1! +tv 1#WL
MDi MRi
KO Vless IC4" 040020 2D4" 040222 3 E4J'0404 2 t. 4F4111) o4o526 5 G4-0407 4
86 csJosoo
4 10MC1+Tomi 0400
MR+=2 (716 way to t) MD2-
0402 MR2-2MD3=0404
MR3= 2MD4 Snow 0405
MR4=2MDs=0407
MRs-4MD6e0500 MR
6= 4CC+Snow 0000 CR+=I
OLL+Snow 0401 p(1-4LL2
=0402 PC2=0501LL3
=0403 PC3=0401LL4
=0501 PC4=1 te°°-Yuanshiki゛子11 +hf)ri(i) CCi
CRi C
Ri VVless (16” (16m) (161L)
(10 blood)'Trless take 10 5, FFFF, 5555,1111,010
1,000? Fig. 12 Wiss Scanner 11 Fig. 13 Bar IL Susmo Arr 79f > lb publication Mui Rule >t<-L X U
Y N Finished dress Figure 14 70 Rikujo) 几-lute°=Tie 2f11 Figure 15 Frota η John Lu JLo theory 4 and Merotete °-91 Tokomi Sei'1lffx Lochi'4 'fj A'I Okishi vertical 6 ! Second
0 Figure 1 PzaPm! r)mtW Rism katsu〒I0 Ps, PePssPeeri Kaoru ratio No. 24 Fig. Fe, Pee') II lt3 Fig. 26 Completion of L #shi big l matter'/QMF operation No. 28 Design 1 #ii floor Melothea Ken/92 Atrocious Melof λ1's version 3-
1F1: πf) Jaw voice old 1f number first \ Fig. 36 F7: I death direction harmony 1y-7 group education Kaya Takashi F8: JI
I+'<1;
and Fig. 37 F1 to Fn (n-8) - day before Tanezono reasoning Fig. 43 Lesson '7-/L hand + 1 constant jj amount (2) After the system゛-evening (1 shot) O what? Ku9pu!
(7)) (Group N) 1 Wolf 1's own 1L category 7 dress (A1) 2
$2 (A2)N Our company N
(AN) A1 Heshita 1 A1 Ya 11 type Ω series 4 chestnuts are also "tsu, (L L) tegu 8 tsufa ckno-4 48th figure 52 (end) MEDW4T thick 0 040a 40 b oso. 040a 4-0502 Fig. 53 41 Gift of the gift Fig. 54 Ff) % - thin MERff - evening WS %'E change center

Claims (1)

【特許請求の範囲】 モチーフを入力するモチーフ入力手段と、 メロディのラインにおける第1段階のメロディに含ませ
る音を規定する一次構成音の進行を入力する一次構成音
進行入力手段と、 モチーフの区間における上記一次構成音の進行に従って
、上記モチーフを分析して第1段階のメロディと第2段
階のメロディの特徴パラメータを抽出する特徴パラメー
タ抽出手段と、 各メロディ生成区間における上記一次構成音と上記第1
段階のメロディの特徴パラメータに従って第1段階のメ
ロディを生成する第1段階メロディ生成手段と、 上記第2段階のメロディの特徴パラメータに従い、各メ
ロディ生成区間において生成された第1段階のメロディ
に第2段階のメロディを付加する第2段階メロディ付加
手段と、 を有することを特徴とする自動作曲機。
[Scope of Claims] Motif input means for inputting a motif; primary constituent note progression input means for inputting a progression of primary constituent notes that defines the notes to be included in the first stage melody in a melody line; and a section of the motif. feature parameter extraction means for analyzing the motif and extracting characteristic parameters of the first stage melody and the second stage melody according to the progression of the primary constituent sounds in each melody generation section; 1
a first stage melody generating means for generating a first stage melody according to the characteristic parameters of the stage melody; An automatic music composition machine comprising: second stage melody adding means for adding a stage melody.
JP62325180A 1987-12-24 1987-12-24 Automatic composer Expired - Fee Related JP2666063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62325180A JP2666063B2 (en) 1987-12-24 1987-12-24 Automatic composer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62325180A JP2666063B2 (en) 1987-12-24 1987-12-24 Automatic composer

Publications (2)

Publication Number Publication Date
JPH01167882A true JPH01167882A (en) 1989-07-03
JP2666063B2 JP2666063B2 (en) 1997-10-22

Family

ID=18173901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62325180A Expired - Fee Related JP2666063B2 (en) 1987-12-24 1987-12-24 Automatic composer

Country Status (1)

Country Link
JP (1) JP2666063B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information
USRE40543E1 (en) * 1995-08-07 2008-10-21 Yamaha Corporation Method and device for automatic music composition employing music template information

Also Published As

Publication number Publication date
JP2666063B2 (en) 1997-10-22

Similar Documents

Publication Publication Date Title
US4982643A (en) Automatic composer
Pachet et al. Musical harmonization with constraints: A survey
Anders et al. Constraint programming systems for modeling music theories and composition
Arcos et al. An interactive case-based reasoning approach for generating expressive music
JP2000148141A (en) Automatic composing device and storage medium
JP2671495B2 (en) Melody analyzer
Bergomi Dynamical and topological tools for (modern) music analysis
Illescas et al. Harmonic, melodic, and functional automatic analysis
Truchet et al. Musical constraint satisfaction problems solved with adaptive search
JPH01167882A (en) Automatic musical composition machine
Cope The well-programmed clavier: Style in computer music composition
Yust Periodicity-based descriptions of rhythms and Steve Reich's rhythmic style
Dias et al. Komposer–automated musical note generation based on lyrics with recurrent neural networks
JP2615722B2 (en) Automatic composer
Anders On modelling harmony with constraint programming for algorithmic composition including a model of Schoenberg’s theory of harmony
JP3088919B2 (en) Tone judgment music device
Phon-Amnuaisuk Control language for harmonisation process
JP2615720B2 (en) Automatic composer
JP2615721B2 (en) Automatic composer
Hamanaka et al. Time-span tree analyzer for polyphonic music
JP2621266B2 (en) Automatic composer
Hadimlioglu et al. Automated musical transitions through rule-based synthesis using musical properties
JPH049893A (en) Melody analyzer
Lyu Transforming Music into Chinese Musical Style based on Nyquist
JP3610017B2 (en) Arrangement processing method based on case, arrangement processing program based on case, and recording medium for arrangement processing program based on case

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees