JP2958795B2 - Melody analyzer - Google Patents

Melody analyzer

Info

Publication number
JP2958795B2
JP2958795B2 JP2110426A JP11042690A JP2958795B2 JP 2958795 B2 JP2958795 B2 JP 2958795B2 JP 2110426 A JP2110426 A JP 2110426A JP 11042690 A JP11042690 A JP 11042690A JP 2958795 B2 JP2958795 B2 JP 2958795B2
Authority
JP
Japan
Prior art keywords
melody
pitch
sound
note
pitch class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2110426A
Other languages
Japanese (ja)
Other versions
JPH049893A (en
Inventor
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KASHIO KEISANKI KK
Original Assignee
KASHIO KEISANKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KASHIO KEISANKI KK filed Critical KASHIO KEISANKI KK
Priority to JP2110426A priority Critical patent/JP2958795B2/en
Publication of JPH049893A publication Critical patent/JPH049893A/en
Application granted granted Critical
Publication of JP2958795B2 publication Critical patent/JP2958795B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 [発明の技術分野] この発明は音楽装置に関し、特に与えられたメロディ
を自動的に分析するメロディ分析機に関する。
Description: TECHNICAL FIELD [0001] The present invention relates to a music apparatus, and more particularly, to a melody analyzer that automatically analyzes a given melody.

[背景] 本件出願人は特願平1−126705号において、メロディ
を自動的に分析するメロディ分析機を提案している。こ
のメロディ分析機はメロディ以外にトーナリティとコー
ド進行を入力情報として受け、装置に組み込まれた音楽
知識に基づいてメロディの個々の音の機能、性格を識別
することができる。
[Background] The present applicant has proposed a melody analyzer that automatically analyzes a melody in Japanese Patent Application No. 1-126705. This melody analyzer receives tonality and chord progression as input information in addition to the melody, and can identify the function and character of each sound of the melody based on the music knowledge incorporated in the device.

残念ながら、この種のメロディ分析機は基本的に「プ
ログラム駆動型」の構成であり、メロディのの各音を分
類するための音楽知識がプログラムの一部として表現さ
れている。このため、音楽知識の表現化(装置化)が容
易でなく、開発に時間とコストを要し、処理も複雑で、
構成が大きくなるという問題があった。また、この種の
メロディ分析機はメロディに適合する音楽スタイルが何
であるかを表示することはできない。
Unfortunately, this type of melody analyzer is basically a "program driven" configuration, in which musical knowledge for classifying each sound of the melody is expressed as part of the program. For this reason, it is not easy to express music knowledge (device), it takes time and cost for development, processing is complicated,
There was a problem that the configuration became large. Also, this type of melody analyzer cannot display what music style matches the melody.

[発明の目的] したがって、この発明の目的は上述したようなメロデ
ィ分析機を改良し、より簡単な構成で効率よく楽曲スタ
イルに応じたメロディ分析が可能なメロディ分析機を提
供することである。
[Object of the Invention] Accordingly, an object of the present invention is to improve the melody analyzer as described above and to provide a melody analyzer capable of efficiently performing a melody analysis according to a music style with a simpler configuration.

[発明の構成、作用] この発明の1つの側面によれば、メロディを表わすデ
ータを付与するメロディ付与手段と、コードを表わすデ
ータを付与するコード付与手段と、トーナリティを表わ
すデータを付与するトーナリティ付与手段と、上記コー
ドと上記トーナリティとに基づいて、複数の音種の夫々
に関する複数の異なるピッチクラスセットを生成する音
種別ピッチクラスセット生成手段と、上記メロディの各
音のピッチクラスと上記複数の異なるピッチクラスセッ
トの各々との関係を判別することにより、上記メロディ
の各音の音種を識別して音種の並びを形成するメロディ
音分類手段と、上記メロディの隣り合う音の間に形成さ
れる音程を評価して音程の並びを形成する音程評価手段
と、複数の異なる楽曲のスタイルのそれぞれについて、
少なくとも1つの音の並びで構成される各メロディパタ
ーンの特徴を定義するメロディパターンルールのセット
を記憶するメロディパターンルールデータベース手段
と、上記複数の異なる楽曲のスタイルのなかから1つの
スタイルを可変に指定するスタイル指定手段と、上記ス
タイル指定手段により指定されたスタイルに係るメロデ
ィパターンルールのセットを上記メロディパターンルー
ルデータベース手段から選択するルールセット選択手段
と、上記メロディ音分類手段からの上記音種の並びと上
記音程評価手段からの上記音程の並びとに適合するメロ
ディパターンルールを上記ルールセット選択手段により
選択されたメロディパターンルールのセットのなかから
検索することにより、上記メロディを指定されたスタイ
ルに基づいて分析する分析手段とを有することを特徴と
するメロディ分析機が提供される。
According to one aspect of the present invention, a melody providing means for providing data representing a melody, a code providing means for providing data representing a code, and a tonality providing means for providing data representing a tonality Means, a sound type pitch class set generating means for generating a plurality of different pitch class sets for each of a plurality of sound types based on the chord and the tonality, a pitch class of each sound of the melody and the plurality of A melody sound classifying means for identifying a sound type of each sound of the melody to form a sequence of sound types by determining a relationship with each of the different pitch class sets, and a melody sound classifying means formed between adjacent sounds of the melody. Pitch evaluation means for evaluating a pitch to be formed to form a sequence of pitches, and for each of a plurality of different music styles ,
Melody pattern rule database means for storing a set of melody pattern rules defining characteristics of each melody pattern composed of at least one sound sequence; and variably designating one style from among the plurality of different music styles Style designating means, a set of melody pattern rules relating to the style designated by the style designating means from the melody pattern rule database means, and a list of the sound types from the melody sound classifying means. And searching for a melody pattern rule that matches the arrangement of the pitches from the pitch evaluation means from the set of melody pattern rules selected by the rule set selection means, based on the specified style. Analyze Melody analyzer, characterized in that it comprises an analysis means.

この構成によれば、メロディ分析に必要な音楽知識が
メロディパターンルールデータベース手段によりデータ
ベース化して装置に組み込まれるので、「データ駆動
型」のメロディ分析機を実現することができ、メロディ
分析機の構成を簡単なものにすることができる。更に、
本構成によれば、与えられたメロディがどのような楽曲
スタイル(ジャンル)に属するかといったスタイル分析
の観点からメロディを分析することができる。
According to this configuration, the music knowledge necessary for the melody analysis is made into a database by the melody pattern rule database means and incorporated in the apparatus, so that a "data-driven" melody analyzer can be realized, and the configuration of the melody analyzer Can be simplified. Furthermore,
According to this configuration, it is possible to analyze the melody from the viewpoint of style analysis such as to what kind of music style (genre) the given melody belongs.

上記コード付与手段、トーナリティ付与手段、音種別
ピッチクラス生成手段の代りに、複数の音種の夫々に関
する複数の異なるピッチクラスセットを付与(入力)す
る音種別ピッチクラスセット付与手段を用いてもよい。
この場合、ピッチクラスセットを装置内部で生成する必
要がなくなり、メロディ分析機の構成が一層簡略化され
る。
Instead of the chord assignment unit, the tonality assignment unit, and the tone type pitch class generation unit, a tone type pitch class set assignment unit that assigns (inputs) a plurality of different pitch class sets for each of a plurality of tone types may be used. .
In this case, there is no need to generate a pitch class set inside the apparatus, and the configuration of the melody analyzer is further simplified.

更に、この発明のもう1つの側面によれば、メロディ
を表わすデータを付与するメロディ付与手段と、コード
を表わすデータを付与するコード付与手段と、トーナリ
ティを表わすデータを付与するトーナリティ付与手段
と、上記コードと上記トーナリティとに基づいて、複数
の音種の夫々に関する複数の異なるピッチクラスセット
を生成する音種別ピッチクラスセット生成手段と、上記
メロディの各音のピッチクラスと上記複数の異なるピッ
チクラスセットの各々との関係を判別することにより、
上記メロディの各音の音種を識別して音種の並びを形成
するメロディ音分類手段と、上記メロディの隣り合う音
の間に形成される音程を評価して音程の並びを形成する
音程評価手段と、複数の異なる楽曲のスタイルのそれぞ
れについて、少なくとも1つの音の並びで構成される各
メロディパターンの特徴を定義するメロディパターンル
ールのセットを記憶するメロディパターンルールデータ
ベース手段と、上記メロディ音分類手段からの上記音種
の並びと上記音程評価手段からの上記音程の並びとに適
合するメロディパターンルールを上記メロディパターン
ルールデータベース手段から検索する適合ルール検索手
段と、上記適合ルール検索手段からの各適合メロディパ
ターンルールに関連する楽曲のスタイルを出力する分析
結果出力手段とを有することを特徴とするメロディ分析
機が提供される。
Further, according to another aspect of the present invention, a melody providing means for providing data representing a melody, a code providing means for providing data representing a code, a tonality providing means for providing data representing tonality, Sound type pitch class set generating means for generating a plurality of different pitch class sets for each of a plurality of tone types based on the chord and the tonality, a pitch class of each sound of the melody and the plurality of different pitch class sets By determining the relationship with each of the
A melody sound classification means for identifying a sound type of each sound of the melody and forming a sequence of sound types; and a pitch evaluation for forming a sequence of pitches by evaluating a pitch formed between adjacent sounds of the melody. Means, melody pattern rule database means for storing a set of melody pattern rules defining characteristics of each melody pattern composed of at least one sound sequence for each of a plurality of different music styles, and the melody sound classification A matching rule search means for searching the melody pattern rule database means for a melody pattern rule that matches the arrangement of the tone types from the means and the arrangement of the pitches from the pitch evaluation means; Analysis result output means for outputting the style of the music related to the conforming melody pattern rule Melody analyzer is provided which is characterized in that.

この構成の場合、上述したようなスタイル指示手段は
不要となり、しかもメロディを種々のスタイルの観点か
ら分析でき、メロディの楽曲スタイルの特徴を判定する
のに有効である。
In the case of this configuration, the style instructing means as described above becomes unnecessary, and the melody can be analyzed from various viewpoints, which is effective for determining the characteristics of the music style of the melody.

[実施例] 以下、図面を参照してこの発明の実施例を説明する。Embodiment An embodiment of the present invention will be described below with reference to the drawings.

〈全体構成〉 第1図に実施例に係るメロディ分析機のハードウェア
構成のブロック図を示す。CPU2はメロディを分析するた
めにROM4に記憶されるプログラムに従って動作して装置
全体を制御する。ROM4にはプログラム以外に各種のデー
タベース(コードトーンデータベース、テンションノー
トデータベース、ダイアトニックスケール、メロディパ
ターンルールデータベース)が記憶される。RAM6は動作
中、CPU2のワーキングメモリとして使用され、メロデ
ィ、キー、コード進行、メロディ分析結果その他の変数
データを記憶する。入力装置8はメロディ、コード進
行、キー(トーナリティ)等の入力及び楽曲のスタイル
の指定に使用され、メロディ付与手段、コード付与手
段、トーナリティ付与手段、及びスタイル指示手段を構
成する。メロディ、コード進行のリアルタイム入力のた
め、入力装置8は鍵盤を含み得る。モニター10はCRT
(またはLCD)のような表示装置、プリンタ及びオーデ
ィオシステムに接続される音源を含み、分析結果の表
示、出力に使用される。
<Overall Configuration> FIG. 1 shows a block diagram of a hardware configuration of a melody analyzer according to the embodiment. The CPU 2 operates according to a program stored in the ROM 4 to analyze the melody and controls the entire apparatus. The ROM 4 stores various databases (code tone database, tension note database, diatonic scale, melody pattern rule database) in addition to the programs. The RAM 6 is used as a working memory of the CPU 2 during operation, and stores melody, key, chord progression, melody analysis result and other variable data. The input device 8 is used for inputting a melody, chord progression, key (tonality) and the like and designating a style of music, and constitutes a melody adding unit, a chord adding unit, a tonality adding unit, and a style instruction unit. For real-time input of melody, chord progression, the input device 8 may include a keyboard. Monitor 10 is a CRT
(Or LCD), including a sound source connected to a display device, a printer, and an audio system, used for displaying and outputting analysis results.

〈メロディ分析機の機能〉 本メロディ分析機の機能を第2図に示す。メロディメ
モリF1(第1図のRAM6に置かれる)は入力装置8から入
力されたメロディデータ(各音がピッチクラスとオクタ
ーブと長さで表現される)を記憶する。キーメモリF2
(RAM6に置かれる)は入力装置8が入力された特定のピ
ッチクラスを表わすキー(トーナリティ)データを記憶
する。コード進行メモリF3(RAM6に置かれる)は入力装
置8から入力されたコード進行(各コードが特定の根音
ピッチクラスとタイプで表現される)を表わすデータを
記憶する。
<Function of Melody Analyzer> The function of the melody analyzer is shown in FIG. The melody memory F1 (located in the RAM 6 in FIG. 1) stores melody data (each sound is represented by a pitch class, an octave, and a length) input from the input device 8. Key memory F2
(Placed in the RAM 6) stores key (tonality) data representing a specific pitch class input by the input device 8. The chord progression memory F3 (located in the RAM 6) stores data representing the chord progression (each chord is represented by a specific root pitch class and type) input from the input device 8.

音程評価部F4(音程評価手段)はメロディメモリF1か
らのメロディデータを受け、メロディの隣り合う音(ノ
ート)の間に形成される音程をスケール度数の形式で評
価する。スケール生成部F5はキーメモリF2からのキーデ
ータを受け、このキーにおけるスケール(例えばダイア
トニックスケール)のピッチクラスセットを生成する。
The pitch evaluation unit F4 (pitch evaluation means) receives the melody data from the melody memory F1, and evaluates the pitch formed between adjacent sounds (notes) of the melody in the form of scale frequency. The scale generation unit F5 receives the key data from the key memory F2 and generates a pitch class set of a scale (for example, a diatonic scale) of the key.

コードトーン生成部F7はコード進行メモリF3からのコ
ード進行データを受け、基準のピッチクラスの根音を想
定した各コードタイプに対するコードトーンピッチクラ
スセットを記憶するコードトーンデータベースF6を参照
してコード進行における個々のコードに対するコードト
ーン(コード構成音)のピッチクラスセットを生成す
る。テンションノート生成部F9はコード進行メモリF3か
らのコード進行データを受け、基準のピッチクラスの根
音を想定した各コードタイプについてテンションノート
のピッチクラスセットを記憶するテンションノートデー
タベースを参照してコード進行における個々のコードに
対するテンションノートのピッチクラスセットを生成す
る。アヴェイラブルノート生成部F10はスケール生成部F
5からのスケールピッチクラスセットとテンションノー
ト生成部F9からのテンションノートピッチクラスセット
を受け、両ピッチクラスセットに共通なピッチクラス内
容をアヴェイラブルノートピッチクラスセットとして生
成する。要素F5〜F10は音種別ピッチクラス生成手段を
構成する。
The chord tone generation unit F7 receives the chord progression data from the chord progression memory F3, and refers to the chord tone database F6 that stores a chord tone pitch class set for each chord type assuming the root of the reference pitch class, and performs chord progression. , A pitch class set of chord tones (chord constituent sounds) for individual chords is generated. The tension note generation unit F9 receives the chord progression data from the chord progression memory F3, and refers to a tension note database that stores a tension note pitch class set for each chord type assuming a root pitch of a reference pitch class, and performs chord progression. Generate a pitch class set of tension notes for each chord in. Available note generator F10 is scale generator F
It receives the scale pitch class set from 5 and the tension note pitch class set from the tension note generation unit F9, and generates pitch class contents common to both pitch class sets as an available note pitch class set. Elements F5 to F10 constitute a tone type pitch class generating means.

音種分類部F11はスケール生成部F5からのスケールピ
ッチクラスセット、コードトーン生成部F7からのコード
トーンピッチクラスセット、テンションノート生成部F9
からのテンションノートピッチクラスセット、アヴェイ
ラブルノート生成部F10からのアヴェイラブルノートピ
ッチクラスセットに基づいて、メロディメモリF1からの
メロディの各音を分類して各音に対する音種(ノートタ
イプ)を識別する。
The tone type classification unit F11 includes a scale pitch class set from the scale generation unit F5, a chord tone pitch class set from the chord tone generation unit F7, and a tension note generation unit F9.
Based on the tension note pitch class set from the melody memory F1 based on the tension note pitch class set from the available note generation unit F10 and the note type for each sound Identify.

メロディパターンルールデータベースF12には複数の
楽曲スタイルのそれぞれについて(音楽的に許容され
る)複数の異なるメロディパターンのそれぞれを定義す
るメロディパターンルールのセットが記憶される。各メ
ロディパターンは少なくとも1つの音の並びから成る。
各メロディパターンルールはメロディパターンにおける
音の並びの特徴を定義する。詳細には、1つの音から成
るメロディパターンは、その音の音種によって特徴付け
られる(ルール化される)。2つの音の並びから成るメ
ロディパターンは各音の音種の並びと2つの音の間に形
成される音種の種類によって特徴付けられる。同様に、
3つ以上の音の並びから成るメロディパターンは各音の
音種の並びと、音の並びにおける隣り合う音の間に形成
される音程の種類の並びとによって特徴付けられる。ス
タイル指定部F14(スタイル指定手段)は上記複数の楽
曲スタイルのなかから1つの楽曲スタイルを可変に指定
する。データベース選択部F15(ルールセット選択手
段)はメロディパターンデータベースF12からスタイル
指定部F14によって指定された楽曲スタイルについての
メロディパターンルールセットを選択する。
The melody pattern rule database F12 stores a set of melody pattern rules that define each of a plurality of (musically acceptable) different melody patterns for each of a plurality of music styles. Each melody pattern consists of at least one sequence of sounds.
Each melody pattern rule defines the characteristics of the arrangement of sounds in the melody pattern. In particular, a melody pattern consisting of one sound is characterized (ruled) by the type of the sound. A melody pattern composed of a sequence of two sounds is characterized by a sequence of sound types of each sound and a type of a sound type formed between the two sounds. Similarly,
A melody pattern composed of a sequence of three or more sounds is characterized by a sequence of sound types of each sound and a sequence of pitch types formed between adjacent sounds in the sequence of sounds. The style designating unit F14 (style designating means) variably designates one music style from among the plurality of music styles. The database selecting unit F15 (rule set selecting means) selects a melody pattern rule set for the music style specified by the style specifying unit F14 from the melody pattern database F12.

パターン検査部F13(分析手段)は音程評価部F4から
のメロディに関する音程の並びと音種分類部F11からの
音種の並びとを受け、これらの並びに適合するメロディ
パターンルールをデータベース選択部F15の選択したメ
ロディパターンルールデータベースから検索してメロデ
ィを分析する。
The pattern inspection unit F13 (analysis means) receives the arrangement of the pitches relating to the melody from the interval evaluation unit F4 and the arrangement of the tone types from the tone type classification unit F11, and determines these and the corresponding melody pattern rules in the database selection unit F15. Search the selected melody pattern rule database and analyze the melody.

第2図の構成の場合、メロディ分析に必要な音楽知識
がプログラムの一部として組み込まれるのではなくメロ
ディパターンルールデータベースF12で示すようなデー
タベースにデータとして記憶されるのでメロディ分析知
識の表現、変更が容易となり、“データ駆動型”のメロ
ディ分析機が実現できる。更に、本構成は与えられたメ
ロディがどのようなメロディパターンで構成されている
かを示す分析結果を提供することができる。
In the case of the configuration shown in FIG. 2, the music knowledge necessary for the melody analysis is not incorporated as a part of the program but is stored as data in a database such as the melody pattern rule database F12, so that the expression and change of the melody analysis knowledge are performed. And a “data-driven” melody analyzer can be realized. Further, the present configuration can provide an analysis result indicating what melody pattern the given melody is composed of.

更に、本構成は分析しようとするメロディがもつ様々
な楽曲スタイルの可能性も考慮してメロディを分析で
き、メロディのスタイルを判定するのにも有効である。
Further, the present configuration can analyze the melody in consideration of the possibility of various music styles of the melody to be analyzed, and is also effective in determining the style of the melody.

〈詳細〉 以下、実施例に係るメロディ分析機の詳細を述べる。<Details> Hereinafter, details of the melody analyzer according to the embodiment will be described.

第3図は本メロディ分析機で使用したピッチクラス識
別データのフォーマットを示す。“C"のピッチクラスは
数値データ“0"で表現され、C#のピッチクラスが数値
データ“1"、以下同様にして半音差を数値の差“1"とし
てBのピッチクラスが数値データ“11"で表現される。
メロディにおける各ノートのピッチクラスデータ、コー
ドの根音のピッチクラスデータ、キーのピッチクラスデ
ータが第2図のフォーマットに従って表現される。
FIG. 3 shows a format of pitch class identification data used in the melody analyzer. The pitch class of “C” is represented by numerical data “0”, the pitch class of C # is numerical data “1”, and similarly, the pitch class of B is numerical data “1” with a semitone difference of “1”. Expressed as 11 ".
The pitch class data of each note, the pitch class data of the root of a chord, and the pitch class data of a key in the melody are expressed in accordance with the format shown in FIG.

第4図はピッチクラスセットデータのフォーマットを
示す。CからBまで計12種類のピッチクラスがあるの
で、図示のように12ビットデータの各桁(各ビット位
置)に各々のピッチクラスを、最下位の桁(ビット0)
をピッチクラス“C"、その次の桁をピッチクラス“C
#”、以下同様にして最上位の桁をピッチクラス“B"と
いうように割り当て、値“1"をもつ桁によってその桁に
割り当てたピッチクラスをもつノートの存在を表わすこ
とにより、任意のピッチクラスセットを表現することが
できる。例えば、ピッチクラスセット=(C、D、E、
F、G、A、B)は、 101010110101(2進) で表現される。コードトーンピッチクラスセット、テン
ションノートピッチクラスセット、スケールノートピッ
チクラスセット、アヴェイラブルノートピッチクラスセ
ットの各データが第4図のフォーマットに従う。
FIG. 4 shows the format of the pitch class set data. Since there are a total of 12 pitch classes from C to B, each pitch class is assigned to each digit (each bit position) of the 12-bit data, and the least significant digit (bit 0) as shown in the figure.
Is the pitch class “C”, and the next digit is the pitch class “C”.
# ", And so on, the highest digit is assigned as pitch class" B ", and the digit having the value" 1 "indicates the existence of a note having the pitch class assigned to that digit, thereby giving an arbitrary pitch. A class set can be represented, for example, pitch class set = (C, D, E,
F, G, A, and B) are represented by 101010110101 (binary). Each data of the chord tone pitch class set, the tension note pitch class set, the scale note pitch class set, and the available note pitch class set follows the format shown in FIG.

第5図はコードタイプ識別データのフォーマットを示
す。図示のフォーマットに従うと、メジャーのタイプの
コードは数値“0"で表わされ、マイナーコードは数値
“1"で表わされ、セブンス(7th)コードは数値“2"で
表現される。その他のコードタイプも含まれるようにコ
ードタイプセットを拡張してもよい。
FIG. 5 shows the format of the code type identification data. According to the illustrated format, the major type code is represented by a numerical value “0”, the minor code is represented by a numerical value “1”, and the seventh (7th) code is represented by a numerical value “2”. The code type set may be extended to include other code types.

第6図はメロディメモリ42(第2図のメロディメモリ
F1に相当する)に記憶されるメロディデータの構造を示
す。メロディデータはノートデータの連結リスト(一次
元配列)で表現される。各ノートデータは、ピッチクラ
スとオクターブと長さと次のノートのアドレスのデータ
から成る。ピッチクラスは第3図のフォーマットに従っ
て表現され、オクターブは中央のCから始まるオクター
ブを数値“4"とし、オクターブ順に連続する数値を割り
当てるフォーマットに従って表現され、長さは1小節の
長さを数値“16"とするフォーマットに従って表現され
る。第6図においてMelodyはメロディメモリ42のベース
(先頭)アドレスを表わす。メロディの最終ノートデー
タエリアにおける次ノートアドレス部にはメロディデー
タリストの終端を示すメロディ終了識別マーク“0"が記
憶される。
FIG. 6 shows the melody memory 42 (the melody memory shown in FIG. 2).
2 shows the structure of the melody data stored in F1). Melody data is represented by a linked list (one-dimensional array) of note data. Each note data includes pitch class, octave, length, and address data of the next note. The pitch class is represented according to the format shown in FIG. 3, the octave is represented according to a format in which the octave starting from the center C is set to a numerical value “4”, and consecutive numerical values are assigned in octave order, and the length is set to the numerical value “1 bar length”. It is expressed according to the format of 16 ". In FIG. 6, Melody represents a base (head) address of the melody memory 42. A melody end identification mark "0" indicating the end of the melody data list is stored in the next note address portion in the last note data area of the melody.

第7図はコード進行メモリ44(第2図のコード進行メ
モリF3に相当する)に記憶されるコード進行データの構
造を示す。コード進行データはコードデータの連結リス
ト(一次元配列)で表現される。各コードデータは根音
のピッチクラス、タイプ、長さ及び次のコードのアドレ
スの情報をもつ。根音のピッチクラスデータは第3図の
フォーマットに従い、タイプデータは第5図のフォーマ
ットに従い、長さデータはメロディノートの長さデータ
と同じフォーマットに従う。次コードアドレス部は次の
コードがない場合、コード進行リストの終端を表わすマ
ーク“0"となる。第7図に示すCprocはコード進行メモ
リ44のベース(先頭)アドレスを表わす。
FIG. 7 shows the structure of chord progression data stored in chord progression memory 44 (corresponding to chord progression memory F3 in FIG. 2). The chord progress data is represented by a linked list (one-dimensional array) of chord data. Each chord data has information on the pitch class, type, length of the root note and the address of the next chord. The pitch class data of the root note follows the format of FIG. 3, the type data follows the format of FIG. 5, and the length data follows the same format as the melody note length data. When there is no next code, the next code address portion is a mark “0” indicating the end of the code progress list. Cproc shown in FIG. 7 represents the base (head) address of the chord progression memory 44.

第8図はキーメモリ46(第2図のキーメモリF2に相当
する)の構成を示す。キーメモリ46には入力装置8から
入力されたキー(トーナリティ)のピッチクラスを示す
データが記憶される。キーのピッチクラスデータは第3
図のフォーマットに従う。キーメモリ46のアドレスはKe
yで与えられる。
FIG. 8 shows the configuration of the key memory 46 (corresponding to the key memory F2 in FIG. 2). The key memory 46 stores data indicating the pitch class of the key (tonality) input from the input device 8. Key pitch class data is 3rd
Follow the format shown in the figure. The address of the key memory 46 is Ke
given by y.

第6図、第7図及び第8図に示す各メモリの内容を第
9図に楽譜で示す。
The contents of each memory shown in FIGS. 6, 7 and 8 are shown in musical scores in FIG.

第10図はROM4に置かれるコードトーンデータベースメ
モリ62(第2図のコードトーンデータベースF6に相当す
る)の構成を示す。コードトーンデータベースメモリ62
には根音を基準のピッチクラスCとする各コードのタイ
プに対するコードトーン(コード構成音)のピッチクラ
スセットデータが記憶される。コードトーンデータベー
スメモリ62のベースアドレスはCTdBで与えられる。コー
ドタイプ識別データの値(第5図参照)が、コードトー
ンデータベースメモリ62の相対アドレス(ベースアドレ
スからのアドレス距離)を定める。コードトーンデータ
ベースメモリ62の各アドレスに記憶されるコードトーン
ピッチクラスセットデータは第4図のフォーマットに従
う。
FIG. 10 shows the structure of a code tone database memory 62 (corresponding to the code tone database F6 in FIG. 2) stored in the ROM 4. Code tone database memory 62
Stores pitch class set data of chord tones (chord constituent sounds) for each chord type having a root pitch as a reference pitch class C. The base address of the code tone database memory 62 is given by CTdB. The value of the code type identification data (see FIG. 5) determines the relative address (address distance from the base address) of the code tone database memory 62. The code tone pitch class set data stored at each address of the code tone database memory 62 follows the format shown in FIG.

第11図はROM4に置かれるテンションノートデータベー
スメモリ64(第2図のテンションノートデータベースF8
に相当する)の構成を示す。テンションノートデータベ
ースメモリ64にはコード根音のピッチクラスをCとした
各コードタイプに対するテンションノートピッチクラス
セットデータが記憶される。テンションノートデータベ
ースメモリ64のベースアドレスはTNdBで与えられる。コ
ードタイプ識別データの値がテンションノートデータベ
ースメモリ64の相対アドレスを定める。
FIG. 11 shows the tension note database memory 64 (the tension note database F8 in FIG. 2) stored in the ROM 4.
) Is shown. The tension note database 64 stores tension note pitch class set data for each chord type, where the pitch class of the chord root is C. The base address of the tension note database memory 64 is given in TNdB. The value of the code type identification data determines the relative address of the tension note database memory 64.

第12図にROM4に置かれるダイアトニックスケールメモ
リ66の構成を示す。ダイアトニックスケールメモリ66の
アドレスはDiatonicで与えられ、このアドレスにキーノ
ートのピッチクラスをCとしたダイアトニックメジャー
スケールのピッチクラスセット(C、D、E、F、G、
A、B)を表わすデータが記憶される。
FIG. 12 shows the configuration of the diatonic scale memory 66 stored in the ROM 4. The address of the diatonic scale memory 66 is given by Diatonic, and the pitch class set of the diatonic major scale (C, D, E, F, G,
A, B) are stored.

第13図はROM4に置かれるメロディパターンルールデー
タベースメモリ68(第2図のメロディパターンデータベ
ースF12の一部に相当する)の構成を示すものである。
メロディパターンルールデータベースメモリ68は音楽的
に許容されるメロディパターンルールのリスト(一次元
配列)で構成される。各メロディパターンルールは抽象
化されたノート(FNOTE)データのリストで表現され
る。各FNOTEデータはノートと音種識別データ、次のノ
ートに対する音程の条件を表わすための音程方向識別デ
ータと音程距離識別データ、及び次のノートのアドレス
値から成る。音種識別データは第14図に示すフォーマッ
トに従い、音種が“スケールノート”のときには“1"、
“テンションノート”のときには“2"、“アヴェイラブ
ルノート”のときには“3"、“アヴォイドノート”のと
きには“4"、“任意のノート”のときには“5"の数値を
とる。音程方向識別データは第15図に示すフォーマット
に従い、現ノートからの次ノートへピッチが上昇すると
き(“+”)には数値“0"をとり、ピッチが下降すると
き(“−”)には数値“1"をとり、同じピッチのときは
数値“2"をとり、“任意の方向”でよい場合には数値
“3"をとる。音程距離識別データは第16図のフォーマッ
トに従い現ノートと次ノートとの間の音程距離がゼロ
(同音)のときには数値“0"をとり、音程距離が半音の
ときは数値“1"をとり、現ノートから次ノートへ順次進
行(半音または全音)のときは数値“2"をとり、音程距
離が全音のときは数値“3"をとり、現ノートから次ノー
トへ跳躍進行(全音より大きな音程距離)のときは数値
“4"をとり、任意の音程距離でよいときには数値“5"を
とる。メロディパターンルールデータベースメモリ68の
ベースアドレスはPRdBで与えられる。音程方向エリアに
おける値“FH"は1つのパターンの終端を表わす。次パ
ターンルールアドレスエリアにおける値“0"はメロディ
パターンルールデータベースの終端を表わす。
FIG. 13 shows the configuration of the melody pattern rule database memory 68 (corresponding to a part of the melody pattern database F12 in FIG. 2) stored in the ROM 4.
The melody pattern rule database memory 68 is composed of a list (one-dimensional array) of musically acceptable melody pattern rules. Each melody pattern rule is represented by a list of abstracted note (FNOTE) data. Each FNOTE data is composed of a note and note type identification data, pitch direction identification data and pitch distance identification data for indicating a pitch condition for the next note, and an address value of the next note. The sound type identification data follows the format shown in Fig. 14, and is "1" when the sound type is "scale note",
The value is “2” for “tension note”, “3” for “available note”, “4” for “avoid note”, and “5” for “any note”. The pitch direction identification data follows the format shown in FIG. 15 and takes a numerical value “0” when the pitch increases from the current note to the next note (“+”), and when the pitch decreases (“−”). Takes a numerical value "1", takes the numerical value "2" at the same pitch, and takes the numerical value "3" when "arbitrary direction" is acceptable. According to the format shown in FIG. 16, the pitch distance identification data takes a numerical value “0” when the pitch distance between the current note and the next note is zero (same tone), and takes a numerical value “1” when the pitch distance is a semitone, Takes a numerical value "2" when progressing sequentially from the current note to the next note (semitone or whole note), takes a numerical value "3" when the pitch distance is a whole note, and jumps from the current note to the next note (a pitch larger than the whole note) In the case of "distance", a numerical value "4" is taken, and when an arbitrary pitch distance is sufficient, a numerical value "5" is taken. The base address of the melody pattern rule database memory 68 is given by PRdB. The value “FH” in the pitch direction area indicates the end of one pattern. The value “0” in the next pattern rule address area indicates the end of the melody pattern rule database.

第25図にメロディパターンルールデータベース全体
(第2図のメロディパターンルールデータベースF12に
相当する)の構成を示す。図示のように、データベース
全体は4つの楽曲スタイルのそれぞれについてメロディ
パターンルールセットを記憶する。ベースアドレスDoyo
をもつ童謡データベース682は楽曲スタイル“童謡”に
おいて許容されるメロディパターンルールのセットを記
憶し、ベースアドレスEnkaをもつ演歌データベース684
は楽曲スタイル“演歌”において許容されるメロディパ
ターンルールのセットを記憶し、ベースアドレスPopsを
もつポップスデータベース686は楽曲スタイル“ポップ
ス”において許容されるメロディパターンルールセット
を記憶し、ベースアドレスBluesをもつブルースデータ
ベース688は楽曲スタイル“ブルース”において許容さ
れるメロディパターンルールセットを記憶する。第25図
の構成において演歌データベース684の表の右下にはDoy
o:で示す童謡データベース682のリンカー(ポインタ)
が示されている。したがって、実際の演歌データベース
684は童謡データベース682の内容をその一部分として含
んでいる。同様にして実際のポップスデータベース686
はリンカーEnkaにより、演歌データベース684(と童謡
データベース682)をその一部として含み、ブルースデ
ータベース688はリンカーPops:によりポップスデータベ
ース686(と演歌と童謡のデータベース684、682)を含
んでいる。
FIG. 25 shows the configuration of the entire melody pattern rule database (corresponding to the melody pattern rule database F12 in FIG. 2). As shown, the entire database stores a melody pattern rule set for each of the four music styles. Base address Doyo
A nursery rhyme database 682 having a set of melody pattern rules permitted in the music style "nursery rhyme", and an enka database 684 having a base address Enka
Stores a set of melody pattern rules allowed in the music style "enka", a pops database 686 having a base address Pops stores a set of melody pattern rules allowed in the music style "pops", and has a base address Blues The blues database 688 stores a set of melody pattern rules allowed in the music style “blues”. In the configuration of FIG. 25, the lower right of the table of the enka database 684 is Doy.
Linker (pointer) of the nursery rhyme database 682 indicated by o:
It is shown. Therefore, the actual enka database
684 includes the contents of the nursery rhyme database 682 as a part thereof. In the same way, the actual pops database 686
Includes, by Linker Enka, an enka database 684 (and nursery rhymes database 682) as part of it, and the blues database 688 includes a pops database 686 (and enka and nursery rhymes databases 684, 682) by Linker Pops :.

これらの4種類のデータベース682、684、686、688の
いずれをメロディ分析処理において使用するかが第23図
に例示するようなスタイル指示部81(入力装置8の一
部)のスタイル指示に応じて選択される。“DOYO"のス
イッチを押すと楽曲スタイル“童謡”が選択され、スタ
イル変数STYLEが“0"の値をとる。同様に、“ENKA"、
“POPS"、“BLUES"の各スイッチの押圧に対し、それぞ
れ、楽曲スタイル“演歌”、“ポップス”、“ブルー
ス”が選択されてスタイル変数STYLEが“1"、“2"、
“3"の各値にセットされる。メロディ分析処理の際、第
24図に示すようなベースアドレスHeader:をもつヘッダ
ーメモリ69を参照して、アドレス(Header+STYLE)に
あるヘッダデータ(指定したスタイルについてのメロデ
ィパターンデータベースのベースアドレス値)を読み、
このヘッダデータで指される(指定したスタイルの)デ
ータベースを使用する。
Which of these four types of databases 682, 684, 686, and 688 is used in the melody analysis processing depends on the style instruction of the style instruction section 81 (part of the input device 8) as illustrated in FIG. Selected. Pressing the "DOYO" switch selects the song style "Dr. Rhymes", and the style variable STYLE takes a value of "0". Similarly, “ENKA”,
Pressing each of the "POPS" and "BLUES" switches selects the song styles "Enka", "pops", and "blues", respectively, and sets the style variables STYLE to "1", "2",
Set to each value of “3”. During the melody analysis process,
Referring to the header memory 69 having the base address Header: as shown in FIG. 24, the header data (the base address value of the melody pattern database for the specified style) at the address (Header + STYLE) is read,
Use the database (of the specified style) pointed to by this header data.

第17図に主な変数のリストを示す。変数DTSは第2図
のスケール生成部F5の出力に相当するものであり、キー
ノートメモリ46に記憶されるピッチクラスをキーとして
もつダイアトニックスケール(のピッチクラスセット)
を表わす。変数DTSはダイアトニックスケールメモリ66
の内容である12ビットのピッチクラスセットデータをキ
ーノートメモリ46のデータの値だけ、左に転回(ローテ
ート)することにより得られる。例として、キーCのダ
イアトニックスケールピッチクラスセットデータとキー
Eのダイアトニックスケールピッチクラスセットデータ
とを示すと、 101010110101(キーC) 101101011010(キーE) となる。キーEのダイアトニックスケールピッチクラス
セット(12ビット)データは、キーCのダイアトニック
スケールピッチクラスセット(12ビット)データをキー
Eのデータの値“4"だけ左に転回することにより得られ
る。変数TENは第2図のテンションノート生成部F9の出
力に相当するものであり、与えられたコードに対するテ
ンションノートのピッチクラスセットを表わす。変数CH
T(第2図のコードトーン生成部F7の出力に相当する)
は与えられたコードに対するコードトーンのピッチクラ
スセットを表わす。変数AVN(第2図のアヴェイラブル
ノート生成部F10の出力に相当する)はアヴェイラブル
ノートのピッチクラスセットを表わす。アヴェイラブル
ノートピッチクラスセットデータAVNは変数TENとDTSの
ビット毎の理論積をとることで得られる。
Figure 17 shows a list of the main variables. The variable DTS is equivalent to the output of the scale generation unit F5 in FIG. 2, and (a pitch class set of) a diatonic scale having the pitch class stored in the key note memory 46 as a key.
Represents Variable DTS is diatonic scale memory 66
Is obtained by inverting (rotating) the 12-bit pitch class set data, which is the content of the data, to the left by the value of the data in the key note memory 46. As an example, the diatonic scale pitch class set data of key C and the diatonic scale pitch class set data of key E are shown as 101010110101 (key C) and 101101011010 (key E). The diatonic scale pitch class set (12 bits) data of the key E is obtained by turning the diatonic scale pitch class set (12 bits) data of the key C to the left by the value “4” of the key E data. The variable TEN corresponds to the output of the tension note generation unit F9 in FIG. 2, and represents the pitch class set of the tension note for a given chord. Variable CH
T (corresponding to the output of the code tone generation unit F7 in FIG. 2)
Represents a pitch class set of chord tones for a given chord. The variable AVN (corresponding to the output of the available note generation unit F10 in FIG. 2) represents the pitch class set of the available note. The available note pitch class set data AVN is obtained by taking the logical product of the variables TEN and DTS for each bit.

変数NOTETYPE(音種分類部F11の出力に相当する)は
与えられたメロディノートの音種を表わす。変数INTERV
ALは(音程評価部F4の出力に相当する)与えられた
(現)メロディノートとその次のメロディノートとの間
の音程のスケール度数を表わす。INTERVALは、次のよう
にして得られる。
The variable NOTETYPE (corresponding to the output of the note type classification unit F11) represents the note type of the given melody note. Variable INTERV
AL represents the scale frequency of the pitch between the given (current) melody note (corresponding to the output of the pitch evaluation unit F4) and the next melody note. INTERVAL is obtained as follows.

INTERVAL=NOTE(Next)(OctNO)×12+NOTE(Nex
t) (PC)−{NOTE(OctNO)×12+NOTE(PC)} ここに、NOTE(Next)(OctNO)は次のノートのオクタ
ーブを表し、NOTE(Next)(PC)は次のノートのピッチ
クラスを表わし、NOTE(OctNO)は現ノートのオクター
ブを表わし、NOTE(PC)は現ノートのピッチクラスを表
わす。
INTERVAL = NOTE (Next) (OctNO) x 12 + NOTE (Nex
t) (PC)-{NOTE (OctNO) x 12 + NOTE (PC)} where NOTE (Next) (OctNO) represents the octave of the next note, and NOTE (Next) (PC) is the pitch class of the next note. , And NOTE (OctNO) represents the octave of the current note, and NOTE (PC) represents the pitch class of the current note.

その他の変数は第17図から明らかなのでここでは説明
を省略する。
Other variables are apparent from FIG. 17 and will not be described here.

第18図は実施例の動作のメインフローを示す。18−1
でCPU2は入力装置8からのユーザー入力を待機する。デ
ータ入力(メロディ、キー、コード進行)があった場合
は(18−2)、データ入力処理ルーチン18−3で入力さ
れたデータをRAM6に記憶する。入力装置8のスタイル指
示部81からのスタイル指示があった場合は(18−4)、
スタイル設定処理18−5を実行してスタイル変数STYLE
を指示されたスタイルを示す値にセットする(18−
5)。メロディに対する分析指示がなされた場合は(98
−6)、メロディメモリ42に記憶される各メロディノー
トを分類して音種を識別する。音種分類処理18−7はメ
ロディメモリ42における個々のメロディノートの時間に
存在するコート進行メモリ44上のコードを判別する時間
対応サブルーチン(図示せず)を含む。メロディメモリ
42上のあるノートに時間的に対応するコード進行メモリ
44上のコードは次のようにして得られる。メロディノー
トの水平位置(メロディの先頭から直前ノートまでの累
算長)を求め、求めたノート位置を越えるまでコード進
行上のコード長を先頭から累算する。越えたときのコー
ドがメロディノートに対応するコードCHORDである。更
に、音種分類処理18−7はコードトーンのピッチクラス
セットCHT、ダイアトニックスケールピッチクラスセッ
トDTS、テンションノートピッチクラスセットTEN、アヴ
ェイラブルノートピッチクラスセットAVNを得る音種別
ピッチクラスセット生成サブルーチンを含む。ここに、
CHT、DTS、TEN、AVNは、ローテート関数ROTATE(a、
b)(ピッチクラスセットデータaをbだけ左に転回す
る)を用いて、 CHT=ROTATE(*[CTdB+CHORD(Type)]、 CHORD(RootPC)) DTS=ROTATE(*[Diatonic]、KEY)、 TEN=ROTATE(*[TNdB+CHORD(Type)]、 CHORD(RootPC)) AVN=TENとDTSのビット毎の論理積 で与えられる。ここに*[a]はアドレスaに記憶され
るデータを表わす。更に音種分類処理18−7は4つのピ
ッチクラスセットCHT、DTS、TEN、AVNとノートのピッチ
クラスNOTE(PC)との包含関係を調べてノートの音種を
識別する第19図に示すようなサブルーチンを含む。19−
1で、メロディノートのピッチクラスNOTE(PC)がコー
ドトーンピッチクラスセットCHTに含まれるかどうかを
調べる。詳細には、メロディノートのピッチクラスデー
タは、第3図に示すフォーマットから第4図に示すフォ
ーマットに変換され(12ビットデータのうちNOTE(PC)
番目の桁が“1"となる)、フォーマット変換後のノート
ピッチクラス12ビットデータとコードトーンピッチクラ
スセット12ビットデータCHTとの間で各ビットについて
論理積をとる。結果が“0"でなければ、メロディノート
のピッチクラスはコードノートのピッチクラスセットに
含まれ、結果が“0"であればメロディノートのピッチク
ラスはコードノートのピッチクラスセットに含まれな
い。前者の場合、変数NOTETYPEにコードトーンの識別値
をセットしてノートの音種が“コードトーン”であるこ
とを示す(19−2)。同様にして、メロディノートのピ
ッチクラスがアヴェイラブルノートピッチクラスセット
AVNに含まれれば、そのメロディノートは音種“アヴェ
イラブル”として分類され(19−2、19−3)、メロデ
ィノートのピッチクラスがダイアトニックスケールピッ
チクラスセットDTSに含まれれば、そのメロディノート
は音種“スケールノート”として分類され(19−4、19
−5)、メロディノートのピッチクラスセットがテンシ
ョンノートピッチクラスセットTENに含まれれば、その
メロディノートは音種“テンションノート”として分類
され(19−6、19−7)、メロディノートのピッチクラ
スがCHT、AVN、DTS、TENのいずれのピッチクラスセット
にも含まれない場合はそのメロディノートは音種“アヴ
ェイドノート”として分類される(19−8)。音種の識
別フロー(第19図)は、分析しようとするメロディの各
ノートについて繰り返し実行され、その結果、分析対象
メロディのノートの並びに対応する音種の並び(一次元
配列)が得られる。
FIG. 18 shows a main flow of the operation of the embodiment. 18-1
The CPU 2 waits for a user input from the input device 8. If there is a data input (melody, key, chord progression) (18-2), the data input in the data input processing routine 18-3 is stored in the RAM 6. When there is a style instruction from the style instruction section 81 of the input device 8 (18-4),
Execute style setting processing 18-5 to execute style variable STYLE
Is set to a value indicating the indicated style (18-
5). When analysis instructions are given to the melody (98
-6) Classify each melody note stored in the melody memory 42 to identify a sound type. The tone type classification processing 18-7 includes a time corresponding subroutine (not shown) for determining the chord on the court progress memory 44 existing at the time of each melody note in the melody memory 42. Melody memory
Chord progression memory corresponding to a certain note on 42
The code on 44 is obtained as follows. The horizontal position of the melody note (accumulated length from the beginning of the melody to the immediately preceding note) is determined, and the chord length in the chord progression is accumulated from the beginning until the note position is exceeded. The code at the time of exceeding is CHORD corresponding to the melody note. Further, the tone type classification processing 18-7 includes a tone type pitch class set generation subroutine for obtaining a chord tone pitch class set CHT, a diatonic scale pitch class set DTS, a tension note pitch class set TEN, and an available note pitch class set AVN. including. here,
CHT, DTS, TEN, and AVN use the rotation function ROTATE (a,
b) CHT = ROTATE (* [CTdB + CHORD (Type)], CHORD (RootPC)) DTS = ROTATE (* [Diatonic], KEY) using TEN (rotates pitch class set data a to the left by b) = ROTATE (* [TNdB + CHORD (Type)], CHORD (RootPC)) AVN = It is given by the bitwise AND of TEN and DTS. Here, * [a] represents data stored at address a. Further, the note type classification processing 18-7 examines the inclusion relationship between the four pitch class sets CHT, DTS, TEN, and AVN and the note pitch class NOTE (PC) to identify note note types as shown in FIG. Including various subroutines. 19−
In step 1, it is checked whether the pitch class NOTE (PC) of the melody note is included in the chord tone pitch class set CHT. More specifically, the pitch class data of the melody note is converted from the format shown in FIG. 3 to the format shown in FIG. 4 (NOTE (PC) of the 12-bit data).
The first digit becomes “1”), and logical AND is performed for each bit between the format-converted note pitch class 12-bit data and the code tone pitch class set 12-bit data CHT. If the result is not "0", the pitch class of the melody note is included in the pitch class set of the chord note, and if the result is "0", the pitch class of the melody note is not included in the pitch class set of the chord note. In the former case, the identification value of the chord tone is set in the variable NOTETYPE to indicate that the note type is "chord tone" (19-2). Similarly, the melody note pitch class is set to the available note pitch class set.
If it is included in the AVN, the melody note is classified as “Available” (19-2, 19-3), and if the melody note's pitch class is included in the diatonic scale pitch class set DTS, the melody note is Classified as note type "scale note" (19-4, 19
-5) If the pitch class set of the melody note is included in the tension note pitch class set TEN, the melody note is classified as the tone type “tension note” (19-6, 19-7), and the pitch class of the melody note If is not included in any of the pitch class sets of CHT, AVN, DTS, and TEN, the melody note is classified as a note type "Avaid note" (19-8). The tone type identification flow (FIG. 19) is repeatedly executed for each note of the melody to be analyzed, and as a result, an arrangement (one-dimensional array) of notes of the melody to be analyzed and corresponding tone types is obtained.

第18図に戻って、音種分類処理18−7の後、音程評価
ルーチン18−8が実行される。このルーチン18−8では
分析対象メロディの隣り合うノート間の音種のスケール
度数を評価して、メロディに関連する音程の並び(一次
元配列)を生成する。
Referring back to FIG. 18, after the tone type classification processing 18-7, a pitch evaluation routine 18-8 is executed. In this routine 18-8, the scale degree of the tone type between the adjacent notes of the analysis target melody is evaluated, and a sequence (one-dimensional array) of intervals related to the melody is generated.

最後にCPU2はパターン検査ルーチン18−9を実行し
て、メロディから得た音種の並びと音程の並びについ
て、メロディパターンルールデータベースメモリ68から
適合するパターンルールを検索する。
Finally, the CPU 2 executes the pattern inspection routine 18-9, and searches the melody pattern rule database memory 68 for a suitable pattern rule for the arrangement of tone types and the arrangement of pitches obtained from the melody.

パターン検査ルーチン18−9の詳細を第20図に示す。
20−1で初期化が行われる。初期化の詳細を第21図に示
す。メロディメモリ42のベースアドレスMelodyをノート
ポインタ変数NOTEにセットし(21−1)、パターン検査
合否配列のベースアドレスDECを合否ポインタ変数DECN
にセットする(21−2)。次に21−3から21−6のルー
プを実行してメロディメモリ42におけるノートの数だけ
パターン検査合否配列の各要素DECN(DEC)に不合格
(適合するメロディパターンなし)を示す“0"をセット
する。最後(21−7)に変数NOTEに再びメロディメモリ
42のベースアドレスMelodyをセットする。
The details of the pattern inspection routine 18-9 are shown in FIG.
At 20-1, initialization is performed. The details of the initialization are shown in FIG. The base address Melody of the melody memory 42 is set to the note pointer variable NOTE (21-1), and the base address DEC of the pattern inspection pass / fail array is set to the pass / fail pointer variable DECN.
(21-2). Next, the loop from 21-3 to 21-6 is executed, and "0" indicating rejection (no matching melody pattern) for each element DECN (DEC) of the pattern inspection pass / fail array by the number of notes in the melody memory 42 is obtained. set. At last (21-7), melody memory is again stored in the variable NOTE
Set 42 base addresses Melody.

第20図に戻って、20−2でルールポインタ変数RULEを
指定スタイルに係るメロディパターンルールデータメモ
リのベースアドレス*[Header:+style]に初期化す
る。20−3で着目しているメロディパターンルールの最
初の音のアドレスRULE(FNOTE)をパターンノートポイ
ンタ変数FNOYEにセットし、20−4でノートポインタ変
数NOTE0にNOTEをセットする。20−5で、メロディノー
トポインタNOTE0が指すメロディノートに対する音種NOT
ETYPEと音程INTERVALを音種配列と音程配列とからそれ
ぞれとり出し、これらとパターンノートポインタFNOTE
の指すパターンノートの対応する要素(音種、音程の方
向、音程の距離)との論理関係を調べてメロディノート
がメロディパターンルールのパターンノートの条件を満
たすかどうかを判定する。音種条件は、パターンノート
の音種FNOTE(TYPE)が“任意の音種”の場合、そうで
なければメロディノートの音種NOTE(Type)がパターン
ノートの音種FNOTE(Type)に等しいときに成立する。
また、アヴェイラブルノートのピッチクラスセットはダ
イアトニックスケールピッチクラスセットとテンション
ノートのピッチクラスセットとの共通部分として定めて
いるのでパターンノートの音種FNOTE(TYPE)が“スケ
ールノート”または“テンションノート”でメロディノ
ートの音種NOTE(Type)が“アヴェイラブルノート”の
ときにも音種条件を成立させてもよい。音程の検査につ
いては、パターンノートの音程方向FNOTE(Dir)と音程
距離FNOTE(Moti)から、許容される音程のスケール度
数の範囲を求め、この範囲内にメロディノートの音程IN
TERVALが入っている場合に音程条件成立とする。
Returning to FIG. 20, in step 20-2, the rule pointer variable RULE is initialized to the base address * [Header: + style] of the melody pattern rule data memory relating to the specified style. At 20-3, the address RULE (FNOTE) of the first sound of the melody pattern rule of interest is set in the pattern note pointer variable FNOYE, and at 20-4, NOTE is set in the note pointer variable NOTE0. 20-5, note type NOT for melody note pointed by melody note pointer NOTE0
The ETYPE and interval INTERVAL are extracted from the tone type array and interval array, respectively, and these and the pattern note pointer FNOTE
The logical relationship between the melody note and the corresponding element (tone type, pitch direction, pitch distance) of the pattern note pointed to by is checked to determine whether the melody note satisfies the condition of the pattern note of the melody pattern rule. If the note type FNOTE (TYPE) of the pattern note is "arbitrary note type", otherwise the note type (NOTE) of the melody note is equal to the note type FNOTE (Type) of the pattern note Holds.
In addition, the pitch class set of available notes is defined as a common part between the diatonic scale pitch class set and the pitch class set of tension notes, so that the note type FNOTE (TYPE) of the pattern note is “scale note” or “tension”. The note type may also be satisfied when the note type (Note) of the melody note is “Available Note” in “Note”. For the pitch inspection, the range of the allowable scale frequency of the pitch is determined from the pitch direction FNOTE (Dir) and the pitch distance FNOTE (Moti) of the pattern note, and within this range the melody note interval IN
When TERVAL is set, the pitch condition is satisfied.

チェック20−5が不成立の場合はチェックしたメロデ
ィノートが着目しているメロディパターンルールのパタ
ーンノートの条件を満足していないので、次のメロディ
パターンルールを選び(20−11、20−3、20−4)、次
のメロディパターンルールについてメロディノートの並
びを再び検査する。
If the check 20-5 is not satisfied, the checked melody note does not satisfy the condition of the pattern note of the melody pattern rule of interest, so the next melody pattern rule is selected (20-11, 20-3, 20-20). -4), the arrangement of the melody notes is checked again for the next melody pattern rule.

チェック20−5が成立した場合は、メロディパターン
ルールの次の要素とメロディの次の要素とを次のチェッ
ク20−5の実行時での検査対象とするため、FNOTE(NEX
T)をFNOTEにセットし(20−6)、NOTE0(NEXT)をNOT
E0にセットする(20−7)。20−8で*[NOTE0]=0
(1つ前に検査したメロディノートがメロディの終り)
かつ*[FNOTE]≠FH(1つ前に検査したパターンノー
トが着目しているメロディパターンルールの終りでな
い)ときは、着目しているメロディパターンルールは適
合しないとして、次のメロディパターンルールを選択す
る(20−11)。20−9で*[FNOTE]=FHのときは、着
目しているメロディパターンルールが、メロディにおけ
るNOTEの指すノートからNOTE0の1つ前までのノートに
適合したので、これらのメロディノートについて合格処
理20−10を実行する。合格処理の詳細を第22図に示す。
変数NOTE1にメロディメモリ42のベースアドレスMelody
をセットし(22−1)、変数DECNに合否配列のベースア
ドレスDECをセットし(22−2)、ループ22−3から22
−5により、メロディノートポインタNOTEに対応する合
否配列の要素のアドレスDECNを得る。続いて、ループ22
−6から22−7を実行して、メロディノートポインタNO
TEの指すノートからメロディノートポインタNOTE0の指
すノートの1つの前のノートまでに対応する合否配列の
各要素DECN(DEC)に合格(適合パターンルールの存
在)を表わす“1"をセットする。なお、所望であれば、
合格処理ルーチン20−10のなかで、モニター10を通じて
合格したメロディノートを表示してもよい(更に、合格
したメロディノートとともに、該当したメロディパター
ンルールも表示可能である)。
If the check 20-5 is satisfied, the next element of the melody pattern rule and the next element of the melody are to be inspected when the next check 20-5 is executed, so that FNOTE (NEX
T) is set to FNOTE (20-6), and NOTE0 (NEXT) is NOT
Set to E0 (20-7). * [NOTE0] = 0 at 20-8
(The last melody note checked is the end of the melody)
And if * [FNOTE] ≠ FH (the pattern note inspected immediately before is not the end of the melody pattern rule of interest), the melody pattern rule of interest is not matched and the next melody pattern rule is selected. (20-11). If * [FNOTE] = FH in 20-9, the melody pattern rule of interest matches the notes from the note indicated by NOTE to the note immediately before NOTE0 in the melody, so pass processing for these melody notes Perform 20-10. Details of the pass process are shown in FIG.
Base address Melody of melody memory 42 in variable NOTE1
Is set (22-1), the base address DEC of the pass / fail array is set in the variable DECN (22-2), and the loops 22-3 to 22-2 are set.
By -5, the address DECN of the element of the pass / fail array corresponding to the melody note pointer NOTE is obtained. Then loop 22
-6 to 22-7 are executed and the melody note pointer NO
Each element DECN (DEC) of the pass / fail array corresponding to the note pointed by the TE to the note immediately preceding the note pointed by the melody note pointer NOTE0 is set to "1" indicating success (the existence of a matching pattern rule). If desired,
In the pass processing routine 20-10, the passed melody note may be displayed through the monitor 10 (further, the corresponding melody pattern rule can be displayed together with the passed melody note).

合格処理20−10の次に、RULE(NEXT)にRULEをセット
して次のメロディパターンルールを選択する(20−1
1)、メロディパターンルールデータベース68の終端に
達してなければ(20−12で*[RULE]=0が不成立)、
24−3以下の処理を繰り返して新たに選択したメロディ
パターンルールがメロディノートの並びに適合するかど
うかを調べる。メロディパターンルールデータベース68
の終端に達したならばNOTE=NOTE(Next)により次のメ
ロディノートを選択し(20−13)、前のノートがメロデ
ィの終端でなければ(20−14で*[NOTE]=0が不成
立)、20−2以下の処理を行って、新たに選択したメロ
ディノートを最初のノートとするノートの並びに適合す
るメロディパターンルールをメロディパターンルールデ
ータメモリ68から検索する。チェック20−14の成立によ
り、パターン検査ルーチンは終了する。
After the pass processing 20-10, RULE is set in RULE (NEXT) and the next melody pattern rule is selected (20-1).
1) If the end of the melody pattern rule database 68 has not been reached (* [RULE] = 0 is not established in 20-12),
It is checked whether the newly selected melody pattern rule matches the arrangement of the melody notes by repeating the processing of 24-3 and below. Melody pattern rule database 68
If the end of the melody is reached, the next melody note is selected by NOTE = NOTE (Next) (20-13), and if the previous note is not the end of the melody (* [NOTE] = 0 is not established in 20-14) ) And 20-2 and below, the melody pattern rule data memory 68 searches for a melody pattern rule that matches the newly selected melody note as the first note. When the check 20-14 is satisfied, the pattern inspection routine ends.

以上のように、本実施例では、楽曲スタイル別のメロ
ディパターンルールデータベース(682、684、686、68
8)により、メロディ分析に必要な知識をデータとして
プログラムから完全に独立させているので、メロディ分
析機の構築が容易であり、かつスタイルと関連づけてメ
ロディを分析することができる。
As described above, in the present embodiment, the melody pattern rule database (682, 684, 686, 68
According to 8), since the knowledge required for melody analysis is completely independent of the program as data, it is easy to construct a melody analyzer, and the melody can be analyzed in association with the style.

[変形例] 以上で実施例の説明を終えるが、この発明の範囲内で
種々の変形、変更が容易である。
[Modifications] Although the description of the embodiments has been finished above, various modifications and changes are easy within the scope of the present invention.

例えば、上記実施例ではスタイル指示部81により楽曲
スタイルを指示し、分析処理の際、スタイル別のメロデ
ィパターンデータベースメモリから指定されたスタイル
に係るデータベースを選んで使用しているが、この代り
に、スタイルの指示入力はなしとし、分析処理の際にす
べてのスタイルのメロディパターンルールデータベース
についてメロディを分析し、結果を出力するようにして
もよい。具体的には、スタイル別のルールデータベース
数をSRDBNとし、第20図のパターン検査ルーチンをSRDBN
回繰り返す(20−2でのSTLYEを0からSRDBN−1まで動
かしながら)。初期化20−1(第21図)において、DF
C、DFCNの記憶領域をSRDBNだけ確保し、STYLEの値に対
応する領域のデータを初期化する。合格処理21−20(第
22図)において初期化するときと同様にSTYLEに対応す
る領域のデータを変更する。更に、合格処理の実行の都
度、あるいは、すべてのスタイルについてのパターン検
査の終了後に、合格したメロディノートとともに、適合
したメロディパターンに関連する楽曲スタイルをモニタ
ー表示する。
For example, in the above embodiment, the music style is instructed by the style instructing unit 81, and at the time of analysis processing, a database relating to the specified style is selected and used from the melody pattern database memory for each style. There may be no style instruction input, and the melody may be analyzed for the melody pattern rule database of all styles at the time of the analysis processing, and the result may be output. Specifically, the number of rule databases for each style is SRDBN, and the pattern inspection routine in FIG.
Repeat 20 times (moving STLYE at 20-2 from 0 to SRDBN-1). In initialization 20-1 (Fig. 21), the DF
The storage area of C and DFCN is reserved only for SRDBN, and the data of the area corresponding to the value of STYLE is initialized. Passing process 21-20 (No.
Change the data in the area corresponding to STYLE in the same way as when initializing in (Fig. 22). Further, each time the pass processing is executed or after the pattern inspection for all styles is completed, the music style associated with the matched melody pattern is displayed on the monitor together with the passed melody note.

また、例えば、実施例ではメロディパターンルールデ
ータベース68をROM4内に永久的なデータ源として確保し
ているが、メロディパターンルールデータベースをRAM
のようなリードライトメモリ上で編集可能な構成として
もよい。
For example, in the embodiment, the melody pattern rule database 68 is secured as a permanent data source in the ROM 4, but the melody pattern rule database is stored in the RAM 4.
Such a configuration that can be edited on a read / write memory may be adopted.

また、入力装置8等から各音種に関するピッチクラス
セットを入力するようにして第2図に示すF2、F3、F5〜
F10の要素を不要にしてもよい。
Also, a pitch class set for each sound type is input from the input device 8 or the like so that F2, F3, F5 to F5 to F5 shown in FIG.
The element of F10 may be unnecessary.

[発明の効果] 以上、詳細に述べたように、この発明によれば、様々
なスタイルの可能性をもつ得るメロディに対しその分析
に必要な音楽知識をスタイル別のメロディパターンルー
ルベース手段によってデータベース化したので、簡単な
構成でよく、メロディをスタイルと関連づけて分析する
ことができる。
[Effects of the Invention] As described above in detail, according to the present invention, for a melody having various style possibilities, music knowledge necessary for the analysis is stored in a database by the melody pattern rule base means for each style. Because of this, a simple configuration is sufficient, and the melody can be analyzed in association with the style.

【図面の簡単な説明】 第1図はこの発明の実施例に係るメロディ分析機のシス
テムブロック図、 第2図は第1図のメロディ分析機の機能を示す機能ブロ
ック図、 第3図はピッチクラス識別データのフォーマットを例示
する図、 第4図はピッチクラスセットデータのフォーマットを例
示する図、 第5図はコードタイプ識別データのフォーマットを例示
する図、 第6図はメロディメモリの構成を示す図、 第7図はコード進行メモリの構成を示す図、 第8図はキー(トーナリティ)メモリの構成を示す図、 第9図は第6図〜第8図のメモリに記憶される入力音楽
データ例を楽譜で表現した図、 第10図はコードトーン(構成音)データベースメモリの
構成を示す図、 第11図はテンションノートデータベースメモリの構成を
示す図、 第12図はダイアトニックスケールメモリの構成を示す
図、 第13図はメロディパターンルールデータベースメモリの
構成を示す図、 第14図は音種識別データのフォーマットを示す図、 第15図は音程方向識別データのフォーマットを示す図、 第16図は音程距離識別データのフォーマットを示す図、 第17図は変数のリストを示す図、 第18図は第1図のCPUにより実行されるメインのフロー
チャート、 第19図は音種分類のフローチャート、 第20図はメロディパターン検査のフローチャート、 第21図は初期化のフローチャート、 第22図はメロディパターンルールの合格処理のフローチ
ャート、 第23図は楽曲のスタイル指示部の構成を示す図、 第24図は図はスタイル別メロディパターンルールデータ
ベースメモリに対するヘッダメモリの構成を示す図、 第25図はスタイル別メロディパターンルールデータベー
スメモリの構成を示す図である。 F1、F2……メロディメモリ F3、44……コード進行メモリ F2、46……キーメモリ F6、62……コードトーンデータベース F7……コードトーン生成部 F8、64……テンションノートデータベース 66……ダイアトニックメモリ F5……ダイアトニックスケール生成部 F9……テンションノート生成部 F10……アヴェイラブルノート生成部 F11……音種分類部 F4……音程分類部 F12、68……パターンルールデータベース F13……パターン検査部 F14、81……スタイル指定部 F15……データベース選択部 682……童謡データベース 684……演歌データベース 686……ポップスデータベース 688……ブルースデータベース
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a system block diagram of a melody analyzer according to an embodiment of the present invention, FIG. 2 is a functional block diagram showing functions of the melody analyzer of FIG. 1, and FIG. FIG. 4 illustrates a format of class identification data, FIG. 4 illustrates a format of pitch class set data, FIG. 5 illustrates a format of code type identification data, and FIG. 6 illustrates a configuration of a melody memory. FIG. 7, FIG. 7 shows a configuration of a chord progression memory, FIG. 8 shows a configuration of a key (tonality) memory, and FIG. 9 shows input music data stored in the memories of FIGS. FIG. 10 is a diagram showing an example of a musical score, FIG. 10 is a diagram showing a configuration of a chord tone (constituent sound) database memory, FIG. 11 is a diagram showing a configuration of a tension note database memory, and FIG. FIG. 13 shows a configuration of a melody pattern rule database memory, FIG. 13 shows a format of tone type identification data, and FIG. 15 shows a format of pitch direction identification data. Fig. 16, Fig. 16 shows a format of interval distance identification data, Fig. 17 shows a list of variables, Fig. 18 shows a main flowchart executed by the CPU of Fig. 1, and Fig. 19 shows a tone type. Classification flowchart, FIG. 20 is a melody pattern inspection flowchart, FIG. 21 is an initialization flowchart, FIG. 22 is a melody pattern rule passing process flowchart, and FIG. 23 is a diagram showing a configuration of a music style instructing unit. FIG. 24 is a diagram showing a configuration of a header memory for a melody pattern rule database memory for each style, and FIG. 25 is a style. It is a diagram showing a melody pattern of the rule database memory configuration. F1, F2: Melody memory F3, 44: Chord progression memory F2, 46: Key memory F6, 62: Chord tone database F7: Chord tone generator F8, 64: Tension note database 66: Diatonic Memory F5: Diatonic scale generation unit F9: Tension note generation unit F10: Available note generation unit F11: Sound type classification unit F4: Interval classification unit F12, 68 ... Pattern rule database F13: Pattern Inspection unit F14, 81… Style designation unit F15 …… Database selection unit 682 …… Nursery rhyme database 684 …… Enka database 686 …… Pops database 688 …… Blues database

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】メロディを表わすデータを付与するメロデ
ィ付与手段と、 コードを表わすデータを付与するコード付与手段と、 トーナリティを表わすデータを付与するトーナリティ付
与手段と、 上記コードと上記トーナリティとに基づいて、複数の音
種の夫々に関する複数の異なるピッチクラスセットを生
成する音種別ピッチクラスセット生成手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記複数の異なる楽曲のスタイルのなかから1つのスタ
イルを可変に指定するスタイル指定手段と、 上記スタイル指定手段により指定されたスタイルに係る
メロディパターンルールのセットを上記メロディパター
ンルールデータベース手段から選択するルールセット選
択手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記ルールセット選択手段により選択
されたメロディパターンルールのセットのなかから検索
することにより、上記メロディを指定されたスタイルに
基づいて分析する分析手段と、 を有することを特徴とするメロディ分析機。
1. A melody providing means for providing data representing a melody, a code providing means for providing data representing a code, a tonality providing means for providing data representing a tonality, and based on the code and the tonality. Sound type pitch class set generating means for generating a plurality of different pitch class sets for each of a plurality of tone types, and determining a relationship between a pitch class of each sound of the melody and each of the plurality of different pitch class sets. By this, a melody sound classification means for identifying a sound type of each sound of the melody and forming a sequence of sound types, and forming a sequence of pitches by evaluating a pitch formed between adjacent sounds of the melody Pitch evaluation means, and at least one sound sequence for each of a plurality of different music styles. Melody pattern rule database means for storing a set of melody pattern rules that define the characteristics of each melody pattern to be played; style designating means for variably designating one style from among the plurality of different music styles; Means for selecting a set of melody pattern rules relating to the style specified by the means from the melody pattern rule database means; the arrangement of the tone types from the melody sound classification means; and the pitch from the pitch evaluation means. Analyzing means for analyzing the melody based on a specified style by searching a melody pattern rule selected by the rule set selecting means for a melody pattern rule that matches the arrangement of Specially Melody analyzer to.
【請求項2】メロディを表わすデータを付与するメロデ
ィ付与手段と、 複数の音種の夫々に関する複数の異なるピッチクラスセ
ットを付与する音種別ピッチクラスセット付与手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記複数の異なる楽曲のスタイルのなかから1つのスタ
イルを可変に指定するスタイル指定手段と、 上記スタイル指定手段により指定されたスタイルに係る
メロディパターンルールのセットを上記メロディパター
ンルールデータベース手段から選択するルールセット選
択手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記ルールセット選択手段により選択
されたメロディパターンルールのセットのなかから検索
することにより、上記メロディを指定されたスタイルに
基づいて分析する分析手段と、 を有することを特徴とするメロディ分析機。
2. A melody assigning means for assigning data representing a melody, a tone type pitch class set assigning means for assigning a plurality of different pitch class sets for each of a plurality of tone types, and a pitch class of each sound of the melody. Melody sound classification means for identifying a sound type of each sound of the melody to form a sequence of sound types by determining a relationship between the melody and each of the plurality of different pitch class sets; and adjacent sounds of the melody. Pitch evaluation means for evaluating a pitch formed between the melody patterns to define a pitch sequence, and defining a feature of each melody pattern composed of at least one tone sequence for each of a plurality of different music styles. Melody pattern rule database means for storing a set of melody pattern rules, and a plurality of different music styles Style designating means for variably designating one of the styles; rule set selecting means for selecting a set of melody pattern rules relating to the style designated by the style designating means from the melody pattern rule database means; By searching a melody pattern rule that matches the arrangement of the pitches from the classification means and the arrangement of the pitches from the pitch evaluation means from the set of melody pattern rules selected by the rule set selection means, Analyzing means for analyzing the melody based on a designated style; and a melody analyzer.
【請求項3】メロディを表わすデータを付与するメロデ
ィ付与手段と、 コードを表わすデータを付与するコード付与付手段と、 トーナリティを表わすデータを付与するトーナリティ付
与手段と、 上記コードと上記トーナリティとに基づいて、複数の音
種の夫々に関する複数の異なるピッチクラスセットを生
成する音種別ピッチクラスセット生成手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記メロディパターンルールデータベ
ース手段から検索する適合ルール検索手段と、 上記適合ルール検索手段からの各適合メロディパターン
ルールに関連する楽曲のスタイルを出力する分析結果出
力手段と、 を有することを特徴とするメロディ分析機。
3. A melody providing means for providing data representing a melody, a code providing means for providing data representing a code, a tonality providing means for providing data representing a tonality, and based on the code and the tonality. Sound type pitch class set generating means for generating a plurality of different pitch class sets for each of a plurality of tone types; and determining a relationship between a pitch class of each sound of the melody and each of the plurality of different pitch class sets. A melody sound classifying means for identifying a sound type of each sound of the melody and forming a sequence of the sound types, and evaluating a pitch formed between adjacent sounds of the melody to form a sequence of the pitches. A pitch evaluation means to be formed, and a sequence of at least one sound for each of a plurality of different music styles Melody pattern rule database means for storing a set of melody pattern rules that define the characteristics of each melody pattern to be used, and the arrangement of the tone types from the melody sound classification means and the arrangement of the pitches from the pitch evaluation means. A matching rule searching means for searching the melody pattern rule database means for performing a melody pattern rule to be performed, and an analysis result outputting means for outputting a style of music related to each matching melody pattern rule from the matching rule searching means. Melody analyzer.
【請求項4】メロディを表わすデータを付与するメロデ
ィ付与手段と、 複数の音種の夫々に関する複数の異なるピッチクラスセ
ットを付与する音種別ピッチクラスセット付与手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記メロディパターンルールデータベ
ース手段から検索する適合ルール検索手段と、 上記適合ルール検索手段からの各適合メロディパターン
ルールに関連する楽曲のスタイルを出力する分析結果出
力手段と、 を有することを特徴とするメロディ分析機。
4. A melody assigning means for assigning data representing a melody; a tone type pitch class set assigning means for assigning a plurality of different pitch class sets for each of a plurality of tone types; and a pitch class of each sound of the melody. Melody sound classification means for identifying a sound type of each sound of the melody to form a sequence of sound types by determining a relationship between the melody and each of the plurality of different pitch class sets; and adjacent sounds of the melody. Pitch evaluation means for evaluating a pitch formed between the melody patterns to define a pitch sequence, and defining a feature of each melody pattern composed of at least one tone sequence for each of a plurality of different music styles. A melody pattern rule database means for storing a set of melody pattern rules; A matching rule searching means for searching the melody pattern rule database means for a melody pattern rule matching the arrangement of the tone types and the arrangement of the pitches from the pitch evaluation means; and each of the matching melody pattern rules from the matching rule searching means. An analysis result output means for outputting a style of music related to the melody analysis device.
JP2110426A 1990-04-27 1990-04-27 Melody analyzer Expired - Fee Related JP2958795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2110426A JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2110426A JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Publications (2)

Publication Number Publication Date
JPH049893A JPH049893A (en) 1992-01-14
JP2958795B2 true JP2958795B2 (en) 1999-10-06

Family

ID=14535455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2110426A Expired - Fee Related JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Country Status (1)

Country Link
JP (1) JP2958795B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9263013B2 (en) 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510572A (en) * 1992-01-12 1996-04-23 Casio Computer Co., Ltd. Apparatus for analyzing and harmonizing melody using results of melody analysis
JP3303617B2 (en) * 1995-08-07 2002-07-22 ヤマハ株式会社 Automatic composer
CN113096619B (en) * 2021-03-24 2024-01-19 平安科技(深圳)有限公司 Music similarity calculation method, device, equipment and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9263013B2 (en) 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
US9454948B2 (en) 2014-04-30 2016-09-27 Skiptune, LLC Systems and methods for analyzing melodies

Also Published As

Publication number Publication date
JPH049893A (en) 1992-01-14

Similar Documents

Publication Publication Date Title
Roads Research in music and artificial intelligence
US5496962A (en) System for real-time music composition and synthesis
AU749235B2 (en) Method and apparatus for composing original musical works
Cope An expert system for computer-assisted composition
JP2671495B2 (en) Melody analyzer
Ferretti On the modeling of musical solos as complex networks
US20040025671A1 (en) Automated music arranger
McVicar et al. Autorhythmguitar: Computer-aided composition for rhythm guitar in the tab space
JP2958795B2 (en) Melody analyzer
Baggi Neurswing: An intelligent workbench for the investigation of swing in jazz
Meek et al. Automatic thematic extractor
JP2958794B2 (en) Melody analyzer
Dostál Genetic Algorithms As a Model of Musical Creativity--on Generating of a Human-Like Rhythmic Accompaniment
Wang et al. Context-aware hidden Markov models of jazz music with variable Markov oracle
Camurri et al. An experiment on analysis and synthesis of musical expressivity
Maršík Music harmony analysis: towards a harmonic complexity of musical pieces
Chardon et al. Melodizer 2.0: a constraint programming tool for computer-aided musical composition
Sulyok et al. On the impact of domain-specific knowledge in evolutionary music composition
JP3316547B2 (en) Chording device
Eibensteiner et al. Temporal-scope grammars for polyphonic music generation
Maršík Cover Song Identification using Music Harmony Features, Model and Complexity Analysis
Dias Interfacing jazz: A study in computer-mediated jazz music creation and performance
JP2666063B2 (en) Automatic composer
Suzuki Kagurame phase-II
Norowi Human-Centred Artificial Intelligence in Concatenative Sound Synthesis

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070730

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090730

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees