JPH049893A - Melody analyzer - Google Patents

Melody analyzer

Info

Publication number
JPH049893A
JPH049893A JP2110426A JP11042690A JPH049893A JP H049893 A JPH049893 A JP H049893A JP 2110426 A JP2110426 A JP 2110426A JP 11042690 A JP11042690 A JP 11042690A JP H049893 A JPH049893 A JP H049893A
Authority
JP
Japan
Prior art keywords
melody
note
style
assigning
melody pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2110426A
Other languages
Japanese (ja)
Other versions
JP2958795B2 (en
Inventor
Jiyunichi Minamidaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2110426A priority Critical patent/JP2958795B2/en
Publication of JPH049893A publication Critical patent/JPH049893A/en
Application granted granted Critical
Publication of JP2958795B2 publication Critical patent/JP2958795B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PURPOSE:To take a melody analysis corresponding to a music style efficiently by simple constitution by providing a means which retrieves a matching melody pattern rule in a set selected by a rule set selecting means and analyzes the melody according to the specified style. CONSTITUTION:A melody pattern rule data base F12 is stored with sets of melody pattern rules defining respective different melody patterns as to respectively music styles. A pattern inspection part F13 (analyzing means) receives a sequence of intervals regarding the melody from an interval evaluation part F3 and a sequence of the kinds of sounds from a sound kind classification part F11 and retrieves the melody pattern rule matching those sequences in the melody pattern rule data base F12 selected by a data base selection part F15 to analyze the melody. Consequently, the melody is analyzed by the simple relation in relation with the style.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は音楽装置に関し、特に与えられたメロディを
自動的に分析するメロディ分析機に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a music device, and more particularly to a melody analyzer that automatically analyzes a given melody.

[背 景] 本件出願人は特願平1−126705号において、メロ
ディを自動的に分析するメロディ分析機を提案している
。このメロディ分析機はメロディ以外にトーナリティと
コード進行を入力情報として受け、装置に組み込まれた
音楽知識に基づいてメロディの個々の音の機能、性格を
識別することができる。
[Background] In Japanese Patent Application No. 1-126705, the applicant has proposed a melody analyzer that automatically analyzes melodies. This melody analyzer receives tonality and chord progression as input information in addition to the melody, and can identify the function and character of each note in the melody based on the musical knowledge built into the device.

残念ながら、この種のメロディ分析機は基本的に「プロ
グラム駆動型」の構成であり2メロディのの各音を分類
するための音楽知識がプログラムの一部として表現され
ている。このため、音楽知識の表現化(装置化)が容易
でなく、開発に時間とコストを要し、処理も複雑で、構
成が大きくなるという問題があった。また、この種のメ
ロディ分析機はメロディに適合する音楽スタイルが何で
あるかを表示することはできない。
Unfortunately, this type of melody analyzer is basically a "program-driven" structure, and the musical knowledge for classifying each note of the two melodies is expressed as part of the program. For this reason, it is not easy to express musical knowledge (device), and development requires time and cost, processing is complicated, and the configuration becomes large. Also, this type of melody analyzer cannot indicate what musical style fits the melody.

[発明の目的J したがって、この発明の目的は上述したようなメロディ
分析機を改良し、より簡単な構成で効率よく楽曲スタイ
ルに応じたメロディ分析が可能なメロディ分析機を提供
することである。
[Object of the Invention J] Therefore, the object of the present invention is to improve the melody analyzer as described above, and to provide a melody analyzer that can efficiently perform melody analysis according to music styles with a simpler configuration.

[発明の構成、作用] この発明の1つの側面によれば、メロディを表わすデー
タを付与するメロディ付与手段と、コードを表わすデー
タを付与するコード付与手段と、トーナリティを表わす
データを付与するトーナリティ付与手段と、上記コード
と上記トーナリティとに基づいて、複数の音種の夫々に
関する複数の異なるピッチクラスセットを生成する音種
別ピッチクラスセット生成手段と、上記メロディの各音
のピッチクラスと上記複数の異なるピッチクラスセット
の各々との関係を判別することにより、上記メロディの
各音の音種を識別して音種の並びを形成するメロディ音
分類手段と、上記メロディの隣り合う音の間に形成され
る音程を評価して音程の並びを形成する音程評価手段と
、複数の異なる楽曲のスタイルのそれぞれについて、少
なくとも1つの音の並びで構成される各メロディパター
ンの特徴を定義するメロディパターンルールのセットを
記憶するメロディパターンルールデータベース手段と、
上記複数の異なる楽曲のスタイルのなかから1つのスタ
イルを可変に指定するスタイル指定手段と、上記スタイ
ル指定手段により指定されたスタイルに係るメロディパ
ターンルールのセットを上記メロディパターンルールデ
ータベース手段から選択するルールセット選択手段と、
上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記ルールセット選択手段により選択
されたメロディパターンルールのセットのなかから検索
することにより、上記メロディを指定されたスタイルに
基づいて分析する分析手段とを有することを特徴とする
メロディ分析機が提供される。
[Structure and operation of the invention] According to one aspect of the present invention, a melody imparting means for imparting data representing a melody, a chord imparting means for imparting data representing a chord, and a tonality imparting means for imparting data representing a tonality. means for generating a plurality of different pitch class sets for each of the plurality of note types based on the chord and the tonality; melody sound classification means for identifying the sound type of each note of the melody and forming a sequence of note types by determining the relationship with each of the different pitch class sets; and a melody pattern rule that defines characteristics of each melody pattern composed of at least one sequence of notes for each of a plurality of different music styles. melody pattern rule database means for storing the set;
a style specifying means for variably specifying one style from among the plurality of different music styles; and a rule for selecting a set of melody pattern rules related to the style specified by the style specifying means from the melody pattern rule database means. set selection means;
Searching for a melody pattern rule that matches the arrangement of note types from the melody sound classification means and the arrangement of intervals from the interval evaluation means from the set of melody pattern rules selected by the rule set selection means. This provides a melody analyzer characterized by having an analysis means for analyzing the melody based on a specified style.

この構成によれば、メロディ分析に必要な音楽知識がメ
ロディパターンルールデータベース手段によりデータベ
ース化して装置に組み込まれるので、「データ駆動型」
のメロディ分析機を実現することができ、メロディ分析
機の構成をm単なものにすることができる。更に、本構
成によれば、与えられたメロディがどのような楽曲スタ
イル(ジャンル)に属するかといったスタイル分析の観
点からメロディを分析することができる。
According to this configuration, the musical knowledge necessary for melody analysis is converted into a database by the melody pattern rule database means and incorporated into the device, so it is a "data-driven type".
It is possible to realize a melody analyzer of 1, and the configuration of the melody analyzer can be made simple. Furthermore, according to the present configuration, it is possible to analyze a melody from the viewpoint of style analysis, such as what music style (genre) a given melody belongs to.

上記コード付与手段、トーナリティ付与手段、音種別ピ
ッチクラス生成手段の代りに、複数の音種の夫々に関す
る複数の異なるピッチクラスセットを付与(入力)する
音種別ピッチクラスセット付与手段を用いてもよい、こ
の場合、ピッチクラスセットを装置内部で生成する必要
がなくなり、メロディ分析機の構成が一層簡略化される
Instead of the code assigning means, tonality assigning means, and note type pitch class generating means, note type pitch class set assigning means for assigning (inputting) a plurality of different pitch class sets for each of a plurality of note types may be used. In this case, there is no need to generate a pitch class set within the device, and the configuration of the melody analyzer is further simplified.

更に、この発明のもう1つの側面によれば、メロディを
表わすデータを付与するメロディ付与手段と、コードを
表わすデータを付与するコード付与手段と、トーナリテ
イを表わすデータを付与するトーナリティ付与手段と、
上記コードと上記トーナリティとに基づいて、複数の音
程の夫々に関する複数の異なるピッチクラスセットを生
成する音種別ピッチクラスセット生成手段と、上記メロ
ディの各音のピッチクラスと上記#i数の異なるピッチ
クラスセットの各々との関係を判別することにより、上
記メロディの各音の音種を識別して音種の並びを形成す
るメロディ音分類手段と、上記メロディの隣り合う音の
間に形成される音程を評価して音程の並びを形成する音
程評価手段と、複数の異なる楽曲のスタイルのそれぞれ
について、少なくとも1つの音の並びで構成される各メ
ロディパターンの特徴を定義するメロディパターンルー
ルのセ−/ )を記憶するメロディパターンルールデー
タベース手段と、上記メロディ音分類手段からの上記音
種の並びと上記音程評価手段からの上記音程の並びとに
適合するメロディパターンルー/l/ t 上記メロデ
ィパターンルールデータベース手段から検索する適合ル
ール検索手段と、上記適合ルール検索手段からの各適合
メロディパターンルールに関連する楽曲のスタイルを出
力する分析結果出力手段とを有することを特徴とするメ
ロディ分析機が提供される。
Furthermore, according to another aspect of the present invention, a melody assigning means for assigning data representing a melody, a code assigning means for assigning data representing a chord, a tonality assigning means for assigning data representing a tonality,
tone type pitch class set generation means for generating a plurality of different pitch class sets for each of a plurality of pitches based on the chord and the tonality; melody sound classification means for identifying the sound type of each note of the melody and forming a sequence of note types by determining the relationship with each of the class sets; A pitch evaluation means that evaluates pitches to form a pitch sequence, and a melody pattern rule that defines the characteristics of each melody pattern composed of at least one note sequence for each of a plurality of different music styles. /) melody pattern rule database means for storing the melody pattern rule /l/t that matches the arrangement of note types from the melody sound classification means and the arrangement of intervals from the pitch evaluation means; There is provided a melody analyzer characterized by comprising: a matching rule search means for searching from a database means; and an analysis result output means for outputting a music style related to each matching melody pattern rule from the matching rule search means. Ru.

この構成の場合、上述したようなスタイル指示手段は不
要となり、しかもメロディを種々のスタイルの観点から
分析でき、メロディの楽曲スタイルの特徴を判定するの
に有効である。
In the case of this configuration, the above-mentioned style instruction means is not required, and the melody can be analyzed from the viewpoint of various styles, which is effective in determining the characteristics of the music style of the melody.

[実施例1 以下、図面を参照してこの発明の詳細な説明する。[Example 1 Hereinafter, the present invention will be described in detail with reference to the drawings.

く全体構成〉 第1図に実施例に係るメロディ分析機のハードウェア構
成のブロック図を示す、CPU2はメロディを分析する
ためにROM4に記憶されるプログラムに従って動作し
て装置全体を制御する。ROM4にはプログラム以外に
各種のデータベース(コードトーンデータベース、テン
ションノートデータベース、ダイアトニックスケール、
メロディパターンルールデータベース)が記憶される。
Overall Configuration> FIG. 1 shows a block diagram of the hardware configuration of a melody analyzer according to an embodiment. A CPU 2 operates according to a program stored in a ROM 4 to analyze a melody, and controls the entire apparatus. In addition to programs, ROM4 contains various databases (chord tone database, tension note database, diatonic scale,
A melody pattern rule database) is stored.

RAM6は動作中、CPU2のワーキングメモリとして
使用され、メロディ、キー、コード進行、メロディ分析
結果その他の変数データを記憶する。入力装置8はメロ
ディ、コード進行、キー(トーナリティ)等の入力及び
楽曲のスタイルの指定に使用され、メロディ付与手段、
コード付与手段、トーナリティ付与手段、及びスタイル
指示手段を構成する。メロディ、コード進行のリアルタ
イム入力のため、入力装M8は鍵盤を含み得る。モニタ
ーlOはCRT (またはLCD)のような表示装置、
プリンタ及びオーディオシステムに接続される音源を含
み、分析結果の表示、出力に使用される。
During operation, the RAM 6 is used as a working memory for the CPU 2, and stores melodies, keys, chord progressions, melody analysis results, and other variable data. The input device 8 is used to input the melody, chord progression, key (tonality), etc., and to specify the style of the music, and includes a melody imparting means,
It constitutes a code assigning means, a tonality assigning means, and a style indicating means. Input device M8 may include a keyboard for real-time input of melodies and chord progressions. The monitor IO is a display device such as a CRT (or LCD),
It includes a sound source connected to a printer and an audio system, and is used to display and output analysis results.

くメロディ分析機の機能〉 本メロディ分析機の機能を第2図に示す、メロディメモ
リFl(第1図のRAM6に置かれる)は入力装置8か
ら入力されたメロディデータ(各音がピッチクラスとオ
クターブと長さで表現される)を記憶する。キーメモリ
F2 (RAM6に置かれる)は入力装置8が入力され
た特定のピッチクラスを表わすキー(トーナリティ)デ
ータを記憶する。コード進行メモリF3 (RAM6に
置かれる)は入力装置8かも入力されたコード進行(各
コードが特定の根音ピッチクラスとタイプで表現される
)を表わすデータを記憶する。
Functions of the melody analyzer> The functions of the melody analyzer are shown in Figure 2.The melody memory Fl (located in the RAM 6 in Figure 1) stores the melody data input from the input device 8 (each note has a pitch class). (expressed in octaves and lengths). Key memory F2 (located in RAM 6) stores key (tonality) data representative of the particular pitch class entered by input device 8. A chord progression memory F3 (located in RAM 6) stores data representing the chord progressions (each chord being represented by a particular root pitch class and type) that have also been input to the input device 8.

音程評価部F4(音程評価手段)はメロディメモリF1
からのメロディデータを受け、メロディの隣り合う音(
ノート)の間に形成される音程をスケール度数の形式で
評価する。スケール生成部F5はキーメモリF2からの
キーデータを受け。
The pitch evaluation section F4 (pitch evaluation means) is the melody memory F1.
receives the melody data from
The interval formed between notes) is evaluated in the form of scale degrees. The scale generation unit F5 receives key data from the key memory F2.

このキーにおけるスケール(例えばダイアトニックスケ
ール)のピッチクラスセットを生成する。
Generate a pitch class set of scales (eg diatonic scales) in this key.

コードトーン生成部F7はコード進行メモリF3からの
コード進行データを受け、基準のピッチクラスの根音を
想定した各コードタイプに対するコードトーンピッチク
ラスセットを記憶するコードトーンデータベースF6を
参照してコード進行における個々のコードに対するコー
ドトーン(コード構成音)のピッチクラスセットを生成
する。
The chord tone generation unit F7 receives the chord progression data from the chord progression memory F3, and refers to the chord tone database F6 that stores chord tone pitch class sets for each chord type assuming the root tone of the reference pitch class. A pitch class set of chord tones (chord constituent notes) for each chord is generated.

テンションノート生成部F9はコード進行メモリF3か
らのコード進行データを受け、基準のピッチクラスの根
音を想定した各コードタイプについてテンションノート
のピッチクラスセットを記憶するテンシ璽ンノートデー
タベースを参照してコード進行における個々のコードに
対するテンションノートのピッチクラスセットを生成す
る。アヴエイラブルノート生成部FIOはスケール生成
部F5からのスケールピッチクラスセットとテンション
ノート生成部F9からのテンションノートピッチクラス
セットを受け、両ピッチクラスセットに共通なピッチク
ラス内容をアヴエイラブルノートピッチクラスセットと
して生成する。要素F5〜FIOは音種別ピッチクラス
生成手段を構成する。
The tension note generation unit F9 receives the chord progression data from the chord progression memory F3, and refers to the tension note database that stores pitch class sets of tension notes for each chord type assuming the root note of the standard pitch class. Generate a pitch class set of tension notes for each chord in a chord progression. The available note generation unit FIO receives the scale pitch class set from the scale generation unit F5 and the tension note pitch class set from the tension note generation unit F9, and converts the pitch class contents common to both pitch class sets into an available note pitch. Generate as a class set. Elements F5 to FIO constitute tone type pitch class generation means.

音種分類部Filはスケール生成部F5からのスケール
ピッチクラスセット、コードトーン生成部F7からのフ
ードトーンピッチクラスセット。
The tone type classification section Fil is a scale pitch class set from the scale generation section F5 and a food tone pitch class set from the chord tone generation section F7.

テンションノート生成部F9からのテンシ璽ンノートビ
ッチクラスセット、アヴエイラブルノート生成部FIO
からの7ヴエイラブルノートビツチクラスセツトに基づ
いて、メロディメモリFlからのメロディの各音を分類
して各音に対する音種(ノートタイプ)を識別する。
Tension note bitch class set from tension note generation unit F9, available note generation unit FIO
Based on the seven available note bitch class sets from melody memory Fl, each note of the melody is classified to identify the note type for each note.

メロディパターンルールデータベースF12には複数の
楽曲スタイルのそれぞれについて(音楽的に許容される
)複数の異なるメロディパターンのそれぞれを定義する
メロディパターンルールのセットが記憶される。各メロ
ディパターンは少なくとも1つの音の並びから成る。各
メロディパターンルールはメロディパターンにおける音
の並びの特徴を定義する。詳細には、1つの音から成る
メロディパターンは、その音の音種によって特徴付けら
れる(ルール化される)、2つの音の並びから成るメロ
ディパターンは各音の音種の並びと2つの音の間に形成
される音種の種類によって特徴付けられる。同様に、3
つ以上の音の並びから成るメロディパターンは各音の音
種の並びと、音の並びにおける隣り合う音の間に形成さ
れる音程の種類の並びとによって特徴付けられる。スタ
イル指定部F14(スタイル指定手段)は上記複数の楽
曲スタイルのなかから1つの楽曲スタイルを可変に指定
する。データベース選択部F15 (ルールセット選択
手段)はメロディパターンデータベースF12からスタ
イル指定部F14によって指定された楽曲スタイルにつ
いてのメロディパターンルールセ)トを選択する。
The melody pattern rule database F12 stores a set of melody pattern rules that define each of a plurality of different (musically permissible) melody patterns for each of a plurality of music styles. Each melody pattern consists of at least one sequence of notes. Each melody pattern rule defines the characteristics of the sequence of notes in the melody pattern. In detail, a melody pattern consisting of one note is characterized (ruled) by the tone type of that note, and a melody pattern consisting of a sequence of two notes is characterized by the sequence of the tone type of each note and the two tones. It is characterized by the type of sound formed during the process. Similarly, 3
A melody pattern consisting of a sequence of three or more notes is characterized by a sequence of tones of each note and a sequence of types of pitches formed between adjacent tones in the sequence of notes. The style designation unit F14 (style designation means) variably designates one music style from among the plurality of music styles. A database selection section F15 (rule set selection means) selects a melody pattern rule set for the music style specified by the style specification section F14 from the melody pattern database F12.

パターン検査部F13(分析手段)は音程評価部F4か
らのメロディに関する音程の並びと音種分類部Filか
らの音種の並びとを受け、これらの並びに適合するメロ
ディパターンルールをデータベース選択部F15の選択
したメロディパターンルールデータベースから検索して
メロディを分析する。
The pattern inspection unit F13 (analysis means) receives the sequence of intervals related to the melody from the pitch evaluation unit F4 and the sequence of note types from the note type classification unit Fil, and selects melody pattern rules that match these sequences from the database selection unit F15. Search and analyze melodies from the selected melody pattern rule database.

第2図の構成の場合、メロディ分析に必要な音楽知識が
ズaグラムの一部として組み込まれるのではなくメロデ
ィパターンルールデータベースF12で示すようなデー
タベースにデータとして記憶されるのでメロディ分析知
識の表現、変更が容易となり、′データ駆動型”のメロ
ディ分析機が実現できる。更に、本構成は与えられたメ
ロディがどのようなメロディパターンで構成されている
かを示す分析結果を提供することができる。
In the case of the configuration shown in Figure 2, the musical knowledge necessary for melody analysis is not incorporated as part of the ZA-gram, but is stored as data in a database such as the melody pattern rule database F12, so the melody analysis knowledge is expressed. , changes can be made easily, and a ``data-driven'' melody analyzer can be realized.Furthermore, this configuration can provide an analysis result showing what kind of melody pattern a given melody is composed of.

更に、本構成は分析しようとするメロディがもつ様々な
楽曲スタイルの可能性も考慮してメロディを分析でき、
メロディのスタイルを判定するのにも有効である。
Furthermore, this configuration can analyze a melody by taking into account the possibility of various musical styles that the melody is trying to analyze.
It is also effective for determining the style of a melody.

く詳 細〉 以下、実施例に係るメロディ分析機の詳細を述べる。Details The details of the melody analyzer according to the embodiment will be described below.

第3図は本メロディ分析機で使用したピッチクラス識別
データのフォーマットを示す、“C″のピッチクラスは
数値データ“θ″で表現され、C#のピッチクラスが数
値データ“1”、以下同様にして半音差を数値の差“1
′としてBのピッチクラスが数値データ“11”で表現
される。メロディにおける各ノートのピッチクラスデー
タ、コードの根音のピッチクラスデータ、キーのピッチ
クラスデータが第2図のフォーマットに従って表現され
る。
Figure 3 shows the format of the pitch class identification data used in this melody analyzer.The pitch class of "C" is represented by numerical data "θ", the pitch class of C# is represented by numerical data "1", and so on. The semitone difference is the numerical difference “1”
', the pitch class of B is expressed as numerical data "11". The pitch class data of each note in the melody, the pitch class data of the root note of the chord, and the pitch class data of the key are expressed according to the format shown in FIG.

第4図はピッチクラスセットデータのフォーマットを示
す、CからBまで計12種類のピッチクラスがあるので
、図示のように12ビツトデータの各桁(各ビット位!
i)に各々のピッチクラスを、最下位の桁(ビット0)
をピッチクラス“c”、その次の桁をピッチクラス“C
#”、以下同様にして最上位の桁をピッチクラス“B″
というように割り当て、値“l”をもつ桁によってその
桁に割り当てたピッチクラスをもつノートの存在を表わ
すことにより、任意のピッチクラスセットを表現するこ
とができる0例えば、ピッチクラスセット= (C,D
、E、F、G、A、B)は、 101010110101   (2進)で表現される
。コートトーンピッチクラスセット、テンションノート
ピッチクラスセット、スケールノートピッチクラスセッ
ト、アヴエイラブルノートピッチクラスセットの各デー
タが第4図のフォーマットに従う。
Figure 4 shows the format of the pitch class set data. Since there are a total of 12 pitch classes from C to B, each digit (each bit position!) of the 12-bit data is shown in the figure.
i) each pitch class, the least significant digit (bit 0)
is pitch class “c”, and the next digit is pitch class “C”.
#”, and the same goes for the highest digit as pitch class “B”
For example, pitch class set = (C ,D
, E, F, G, A, B) are expressed as 101010110101 (binary). Each data of the court tone pitch class set, tension note pitch class set, scale note pitch class set, and available note pitch class set follows the format shown in FIG.

第5図はコードタイプ識別データのフォーマットを示す
0図示のフォーマットに従うと、メジャーのタイプのコ
ードは数値“0”で表わされ、マイナーコードは数値“
l”で表わされ、セブンス(7th)コードは数値“2
”で表現される。その他のフードタイプも含まれるよう
にコードタイプセットを拡張してもよい。
Figure 5 shows the format of chord type identification data.0 According to the format shown in the figure, major type chords are represented by the numerical value "0", and minor chords are represented by the numerical value "0".
The seventh (7th) chord is represented by the number “2”.
”. The code type set may be extended to include other food types.

第6図はメロディメモリ42(第2図のメロディメモリ
F]に相当する)に記憶されるメロディデータの構造を
示す、メロディデータはノートデータの連結リスト(−
次元配列)で表現される。
FIG. 6 shows the structure of melody data stored in the melody memory 42 (corresponding to melody memory F in FIG. 2).The melody data is a linked list of note data (-
dimensional array).

各ノートデータは、ピッチクラスとオクターブと長さと
次のノートのアドレスのデータから成る。
Each note data consists of pitch class, octave, length, and next note address data.

ピッチクラスは!$3図のフォーマットに従って表現さ
れ、オクターブは中央のCから始まるオクターブを数値
“4”とし、オクターブ順に連続する数値を割り当てる
フォーマットに従って表現され、長さは1小節の長さを
数値“16″″とするフォーマットに従って表現される
。第6図においてMelodyはメロディメモリ42の
ベース(先頭)アドレスを表わす、メロディの最終ノー
トデータエリアにおける次ノートアドレス部にはメロデ
ィデータリストの終端を示すメロディ終了識別マーク“
0”が記憶される。
Pitch class! The octave is expressed according to the format shown in the figure 3, with the octave starting from the middle C being the number "4", and the octave being assigned consecutive numbers in the order of the octave, and the length being the length of one bar being the number "16". In FIG. 6, Melody represents the base (start) address of the melody memory 42, and the next note address field in the last note data area of the melody contains a melody end identification mark indicating the end of the melody data list. “
0'' is stored.

第7図はコード進行メモリ44(第2図のコード進行メ
モリF3に相当する)に記憶されるコード進行データの
構造を示す、コード進行データはコードデータの連結リ
スト(−次元配列)で表現される。各コードデータは根
音のピッチクラス。
FIG. 7 shows the structure of chord progression data stored in the chord progression memory 44 (corresponding to chord progression memory F3 in FIG. 2).The chord progression data is expressed as a linked list (-dimensional array) of chord data. Ru. Each chord data is the pitch class of the root note.

タイプ、長さ及び次のコードのアドレスの情報をもつ、
根音のピッチクラスデータは第3図のフォーマットに従
い、タイプデータは第5図のフォーマットに従い、長さ
データはメロディノートの長さデータと同じフォーマッ
トに従う0次コードアドレス部は次のコードがない場合
、コード進行リストの終端を表わすマーク“0″となる
。第7図に示すCprocはコード進行メモリ44のベ
ース(先頭)アドレスを表わす。
with information on the type, length and address of the next code,
The root note pitch class data follows the format shown in Figure 3, the type data follows the format shown in Figure 5, and the length data follows the same format as the melody note length data. , becomes the mark "0" indicating the end of the chord progression list. Cproc shown in FIG. 7 represents the base (start) address of the chord progression memory 44.

第8図はキーメモリ46(第2図のキーメモリF2に相
当する)の構成を示す、キーメモリ46には入力装置1
8から入力されたキー(トーナリティ)のピッチクラス
を示すデータが記憶される。
FIG. 8 shows the configuration of the key memory 46 (corresponding to key memory F2 in FIG. 2).
Data indicating the pitch class of the key (tonality) input from 8 is stored.

キーのピッチクラスデータは第3図のフォーマットに従
う、キーメモリ46のアドレスはKeyで与えられる。
The key pitch class data follows the format shown in FIG. 3, and the address of the key memory 46 is given by Key.

第6図、第7図及び!s8図に示す各メモリの内容を第
9図に楽譜で示す。
Figure 6, Figure 7 and! The contents of each memory shown in Figure s8 are shown in musical notation in Figure 9.

第1θ図はROM4に置かれるコードトーンデータベー
スメモリ62(第2図のコードトーンデータベースF6
に相当する)の構成を示す、コートトーンデータベース
メモリ62には根音を基準のピッチクラスCとする各コ
ードのタイプに対するコードトーン(コード構成音)の
ピッチクラスセットデータが記憶される。コードトーン
データベースメモリ62のベースアドレスはCTdBで
与えられる。コードタイプ識別データの値(1″5図参
照)が、コードトーンデータベースメモリ62の相対ア
ドレス(ベースアドレスからのアドレス距離)を定める
。コードトーンデータベースメモリ62の各アドレスに
記憶されるコードトーンピッチクラスセットデータは第
4図のフォーマットに従う。
FIG. 1θ shows the code tone database memory 62 (code tone database F6 in FIG. 2) located in the ROM4.
In the court tone database memory 62, pitch class set data of chord tones (chord constituent notes) for each chord type whose root tone is a reference pitch class C is stored. The base address of code tone database memory 62 is given in CTdB. The value of the code type identification data (see Figure 1''5) determines the relative address (address distance from the base address) of the code tone database memory 62.The code tone pitch class stored at each address of the code tone database memory 62. The set data follows the format shown in FIG.

第11図はROM4に置かれるテンションノートデータ
ベースメモリ64(第2図のテンシ、ンノートデータベ
ースF8に相当する)の構成を示ス、テンシ厘ンノート
データベースメモリ64にはコード根音のピッチクラス
をCとした各コードタイプに対するテンションノートピ
ッチクラスセットデータが記憶される。テンションノー
トデータベースメモリ64のベースアドレスはTNdB
で与えられる。コードタイプ識別データの値がテンショ
ンノートデータベースメモリ64の相対アドレスを定め
る。
FIG. 11 shows the configuration of the tension note database memory 64 (corresponding to the tension note database F8 in FIG. 2) located in the ROM 4. The tension note database memory 64 stores pitch classes of chord root notes. Tension note pitch class set data for each chord type C is stored. The base address of the tension note database memory 64 is TNdB.
is given by The value of the chord type identification data defines the relative address of the tension note database memory 64.

第12図にROM4に置かれるダイアトニックスケール
メモリ66の構成を示す、ダイアトニックスケールメモ
リ66のアドレスはpi at onicで与えられ、
このアドレスにキーノートのピッチクラスをCとしたダ
イアトニックメジャースケールのピッチクラスセット(
C,D、E、FG、A、B)を表わすデータが記憶され
る。
FIG. 12 shows the configuration of the diatonic scale memory 66 placed in the ROM 4. The address of the diatonic scale memory 66 is given by pi atonic,
This address has a diatonic major scale pitch class set with keynote pitch class C (
C, D, E, FG, A, B) are stored.

1$13図はROM4に置かれる1つの楽曲スタイルに
ついてのメロディパターンルールデータベースメモリ6
8(82図のメロディパターンデータベースF12の一
部に相当する)の構成を示すものである。メロディパタ
ーンルールデータベースメモリ68は音楽的に許容され
るメロディパターンルールのリスト(−次元配列)で構
成されル、各メロディパターンルールは抽象化されたノ
ート(FNOTE)データのリストで表現される。各F
NOTEデータはノートの音種識別データ、次のノート
に対する音程の条件を表わすための音程方向識別データ
と音程距離識別データ、及び次のノートのアドレス値か
ら成る。音種識別データは第14FgJに示すフォーマ
ットに従い、音種が“スケールノート”のときは“l”
、“テンションノート”のときには2″、′アヴエイラ
ブルノート”のときには“3″′、“アヴオイドノート
”のときには“4”、″任意のノート”のときには“5
”の数値をとる。音程方向識別データは第15図に示す
フォーマットに従い、現ノートからの次ノートへピッチ
が上昇するとき(“十″)には数値″0”をとり、ピッ
チが下降するとき(“−”)には数値″1″をとり、同
じピッチのときは数値“2”をとり、“任意の方向”で
よい場合には数値“3”をとる、音程距離識別データは
第16図のフォーマットに従い現ノートと次ノートとの
間の音程距離がゼロ(同音)のときには数値“0″をと
り、音程距離が半音のときは数値“1”をとり、現ノー
トから次ノートへ順次進行(半音または全音)のときは
数値“2”をとり、音程距離が全音のときは数値″3″
をとり、現ノートから次ノートへ跳躍進行(全盲より大
きな音程距離)のときは数値“4”をとり、任意の音程
距離でよいときには数値“5”をとる、メロディパター
ンルールデータベースメモリ68のベースアドレスはP
RdBで与えられる。音程方向エリアにおける値″FH
″は1つのパターンの終端を表わす1次パターンルール
アドレスエリアにおけ6[“0′はメロディパターンル
ールデータベースの終端を表わす。
1$13 The figure shows a melody pattern rule database memory 6 for one music style stored in ROM4.
8 (corresponding to a part of the melody pattern database F12 in FIG. 82). The melody pattern rule database memory 68 is composed of a list (-dimensional array) of musically permissible melody pattern rules, and each melody pattern rule is expressed as a list of abstracted note (FNOTE) data. Each F
The NOTE data consists of note type identification data, pitch direction identification data and pitch distance identification data for representing pitch conditions for the next note, and the address value of the next note. The note type identification data follows the format shown in No. 14FgJ, and when the note type is “scale note”, it is “l”.
, 2'' for “Tension Note”, “3” for “Available Note”, “4” for “Avoid Note”, “5” for “Any Note”
The pitch direction identification data follows the format shown in Figure 15, and takes the value "0" when the pitch increases from the current note to the next note ("10"), and when the pitch decreases. (“-”) takes the numerical value “1”, when the pitch is the same, the numerical value “2” is taken, and when “any direction” is acceptable, the numerical value “3” is taken.The pitch distance identification data is the 16th According to the format shown in the figure, when the pitch distance between the current note and the next note is zero (same note), the number is "0", and when the pitch distance is a semitone, the number is "1", and from the current note to the next note. When the pitch is a progression (semitone or whole tone), the value is “2”, and when the pitch distance is a whole tone, the value is “3”.
The base of the melody pattern rule database memory 68 takes the value "4" when jumping from the current note to the next note (a pitch distance greater than total blindness), and takes the value "5" when an arbitrary pitch distance is acceptable. The address is P
It is given in RdB. Value “FH” in pitch direction area
'' represents the end of one pattern in the primary pattern rule address area. 6 ['0' represents the end of the melody pattern rule database.

第25Eiiffにメロディパターンルールデータベー
ス全体(第2fl!ffのメロディパターンルールデー
タベースF12に相当する)の構成を示す0図示のよう
に、データベース全体は4つの楽曲スタイルのそれぞれ
についてメロディパターンルールセットを記憶する。ベ
ースアドレスDoyoをもつ童謡データベース682は
楽曲スタイル“劃「において許容されるメロディパター
ンルールのセットを記憶し、ベースアドレスEnkaを
もツ演歌データベース684は楽曲スタイル″演歌”に
おいて許容されるメロディパターンルールのセットを記
憶し、ベースアドレスPopsをもつホップスデータベ
ース686は楽曲スタイル“ホップス”において許容さ
れるメロディパターンルールセットを記憶し、ベースア
ドレス、gluesをもつブルースデータベース688
は楽曲スタイル“ブルース”において許容されるメロデ
ィパターンルールセットを記憶する。第25図の構成に
お゛いて演歌データベース684の表の右下にはDoy
O:で示す童謡データベース682のリンカ−(ポイン
タ)が示されている。したがって、実際の演歌データベ
ース684は童謡データベース682の内容をその一部
分として含んでいる。同様にして実際のホップスデータ
ベース686はリンカ−Enkaにより、演歌データベ
ース684(と童謡データベース682)をその一部と
して含み、ブル−スデータベース688はリンカ−Po
ps:によりホップスデータベース686(と演歌と童
謡のデータベース684.682)を含んでいる。
The 25th Eiiff shows the structure of the entire melody pattern rule database (corresponding to the melody pattern rule database F12 of the 2nd fl!ff). As shown in the figure, the entire database stores melody pattern rule sets for each of the four music styles. . The nursery rhyme database 682 with the base address Doyo stores a set of melody pattern rules that are allowed in the music style "劃", and the enka database 684 with the base address Enka stores the set of melody pattern rules that are allowed in the music style "Enka". A hops database 686 that stores a set and has a base address Pops is a blues database 688 that stores a set of melody pattern rules allowed in the music style "Hops" and has a base address and glues.
stores a set of melody pattern rules that are allowed in the music style "Blues". In the configuration shown in Figure 25, the bottom right of the table of the enka database 684 is
A linker (pointer) of the nursery rhyme database 682 indicated by O: is shown. Therefore, the actual enka database 684 includes the contents of the nursery rhyme database 682 as a part thereof. Similarly, the actual hops database 686 includes the enka database 684 (and nursery rhyme database 682) as part of it, and the blues database 688 is created by the linker-Enka.
ps: contains the hops database 686 (and enka and nursery rhyme databases 684 and 682).

これらの4種類のデータベース682.684.686
.688のいずれをメロディ分析処理において使用する
かが第23図に例示するようなスタイル指示部81.(
入力装置8の一部)のスタイル指示に応じて選択される
。“DOYO“のスイッチを押すと楽曲スタイル“童!
!”が選択され、スタイル変@5TYLEが0”の値を
とる。同様に、“ENKA″、”POPS” 、  “
BLUES”の各スイッチの押圧に対し、それぞれ、楽
曲スタイル“演歌”、“ホップス”、“ブルース”が選
択されてスタイル変数5TYLEが1″、2″、3″の
各値にセットされる。
These four types of databases 682.684.686
.. 688 to be used in the melody analysis process is determined by the style instruction section 81.688 as illustrated in FIG. (
(a part of the input device 8) is selected according to a style instruction. When you press the “DOYO” switch, the song style “DOYO!”
! ” is selected, and the style change @5TYLE takes the value 0. Similarly, “ENKA”, “POPS”, “
In response to the press of each switch "BLUES", the music styles "Enka", "Hops", and "Blues" are selected, and the style variable 5TYLE is set to the values of 1'', 2'', and 3''.

メロディ分析処理の際、第24図に示すようなベースア
ドレスHeader:をもつヘッダーメモリ69を参照
して、アドレス(Header+5TYLE)にあるヘ
ッダデータ(指定したスタイルについてのメロディパタ
ーンデータベースのベースアドレス値)を読み、このヘ
ッダデータで指される(指定したスタイルの)データベ
ースを使用する。
During the melody analysis process, the header memory 69 having the base address Header: as shown in FIG. Read and use the database (of the specified style) pointed to by this header data.

第17図に主な変数のリストを示す、変数DTSは第2
図のスケール生成部F5の出力に相当するものであり、
キーノートメモリ46に記憶されるピッチクラスをキー
としてもつダイアトニックスケール(のピッチクラスセ
ット)を表わす、変数DTSはダイアトニックスケール
メモリ66の内容である12ビツトのピッチクラスセッ
トデータをキーノートメモリ46のデータの値だけ、左
に転回(ローテート)することにより得られる。
Figure 17 shows a list of the main variables. The variable DTS is the second
This corresponds to the output of the scale generator F5 in the figure,
The variable DTS represents a diatonic scale (pitch class set of) having the pitch class stored in the keynote memory 46 as a key. It is obtained by rotating (rotating) to the left by the value of the data.

例として、キーCのタイ7トニツクスケールピツチクラ
スセツトデータとキーEのダイアトニックスケールピッ
チクラスセットデータとを示すと、 101010110101    (キーC)1011
01011010   (キーE)となる、キーEのダ
イアトニックスケールピッチクラスセッ)(12ビツト
)データは、キーCのダイアトニックスケールピッチク
ラスセット(12ビツト)データを+−Hのデータの値
“4”だけ左に転回することにより得られる。変数TE
Nは第2図のテンションノート生成部F9の出力に相当
するものであり、与えられたコードに対するテンション
ノートのピッチクラスセットを表わす6変数CRT (
第2図のコードトーン生成部F7の出力に相当する)は
与えられたコードに対するコードトーンのピッチクラス
セットを表わす。
As an example, the tie 7 tonic scale pitch class set data for key C and the diatonic scale pitch class set data for key E are shown as follows: 101010110101 (key C) 1011
01011010 (Key E) The key E diatonic scale pitch class set (12 bits) data is the key C diatonic scale pitch class set (12 bits) data +-H data value "4" obtained by rotating to the left. variable TE
N corresponds to the output of the tension note generator F9 in FIG. 2, and is a 6-variable CRT (
2) represents the pitch class set of code tones for a given code.

変数AVN (第2図のアヴエイラブルノート生成部F
IOの出力に相当する)はアヴエイラブルノートのピッ
チクラスセットを表わす、アヴエイラブルノートピッチ
クラスセ−7トデータAVNは変数TENとDTSのビ
ット毎の論理積をとることで得られる。
Variable AVN (Available note generator F in Figure 2)
The available note pitch class set data AVN (corresponding to the output of IO) represents the pitch class set of the available notes.The available note pitch class set data AVN is obtained by performing a bitwise logical product of the variables TEN and DTS.

変数N0TETYPE (音種分類部FIZの出力に相
当する)は与えられたメロディノートの音種を表わす、
変数INTERVALは(音程評価部F4の出力に相当
する)与えられた(現)メロディノートとその次のメロ
ディノートとの間の音程のスケール度数を表わす、IN
TERVALは1次のようにして得られる。
The variable N0TETYPE (corresponding to the output of the note type classification unit FIZ) represents the note type of the given melody note.
The variable INTERVAL represents the scale degree of the interval between a given (current) melody note and the next melody note (corresponding to the output of the interval evaluation unit F4).
TERVAL is obtained in a first-order manner.

INTERVAL=NOTE(Next)(OctNO
)  X12+N0TE(Next)(PC:)iNO
TE(OctNO) X12+N0TE(PC))ココ
に、N0TE(Next)(OctNO)は次ノートの
オクターブを表わし、N0TE(Next) (PC)
は次ツートノピッチクラスを表わし、N0TE(Oct
NO)は現ノートのオクターブを表わし、N0TE(P
C)は現ノートのピッチクラスを表わす。
INTERVAL=NOTE(Next)(OctNO
) X12+N0TE(Next)(PC:)iNO
TE (OctNO)
represents the next two-tone pitch class, N0TE(Oct
NO) represents the octave of the current note, N0TE(P
C) represents the pitch class of the current note.

その他の変数は第17図から明らかなのでここでは説明
を省略する。
Since the other variables are clear from FIG. 17, their explanation will be omitted here.

第18図は実施例の動作のメインフローを示す、18−
1でCPU2は入力装置8からのユーザー人力を待機す
る。データ入力(メロディ、キ、コード進行)があった
場合は(18−2)、データ入力処理ルーチン18−3
でλカされたデータをRAM6に記憶する。入力装W8
のスタイル指示部81からスタイル指示があった場合は
(18−4)、スタイル設定処理18−5を実行してス
タイル変数5TYLEを指示されたスタイルを示す値に
セットする(1g−5)、メロディに対する分析指示が
なされた場合は(98−6〕、メロディメモリ42に記
憶される各メロディノートを分類して音種を識別する。
FIG. 18 shows the main flow of the operation of the embodiment, 18-
1, the CPU 2 waits for user input from the input device 8. If there is data input (melody, key, chord progression) (18-2), data input processing routine 18-3
The data obtained by λ is stored in the RAM 6. Input device W8
When there is a style instruction from the style instruction section 81 (18-4), the style setting process 18-5 is executed and the style variable 5TYLE is set to a value indicating the instructed style (1g-5). If an analysis instruction is given (98-6), each melody note stored in the melody memory 42 is classified to identify the note type.

音種分類処理18−7はメロディメモリ42における個
々のメロディノートの時間に存在するコード進行メモリ
44上のコードを判別する時間対応サブルーチン(図示
せず)を含む、メロディメモリ42上のあるノートに時
間的に対応するコード進行メモリ44上のコードは次の
ようにして得られる。メロディノートの水平位置(メロ
ディの先頭から直前ノートまでの累算長)を求め、求め
たノート位置を越えるまでコード進行上のコード長を先
頭から累算する。越えたときのコードがメロディノート
に対応するコードCHORDである。更に、音種分類処
理18−7はコードトーンのピッチクラスセ−/)CH
T、ダイアトニックスケールピッチクラスセットDTS
、テンションノートピッチクラスセットTEN、アヴエ
イラブルノートピッチクラスセットAVNを得る音種別
ピッチクラスセット生成サブルーチンを含む、ここに、
CHT、DTS、TEN、AVNは、ローテート関数R
OTATE (a、b)(ピッチクラスセットデータa
をbだけ左に転回する)を用いて、 CHT−ROTATE(” (CTdB+CHQRD(
Type)I 。
The note type classification process 18-7 includes a time-based subroutine (not shown) for determining the chord in the chord progression memory 44 that exists at the time of each melody note in the melody memory 42. The temporally corresponding chords on the chord progression memory 44 are obtained as follows. The horizontal position of the melody note (accumulated length from the beginning of the melody to the immediately preceding note) is determined, and the chord length on the chord progression is accumulated from the beginning until the determined note position is exceeded. The chord that is exceeded is the chord CHORD that corresponds to the melody note. Furthermore, the tone type classification process 18-7 is performed based on the pitch class of the chord tone.
T, diatonic scale pitch class set DTS
, a tone type pitch class set generation subroutine for obtaining a tension note pitch class set TEN, and an available note pitch class set AVN.
CHT, DTS, TEN, AVN are rotation functions R
OTATE (a, b) (pitch class set data a
Rotate left by b) and CHT-ROTATE(” (CTdB+CHQRD(
Type)I.

CWORD(RootPC)) DTS=ROTATE(”rDiatoniclJEY
)TEN−ROTATE(t [TNdB◆GHOR[
1(Type) ICWORD (Roo tPc) 
) AVN−T E NとDTSのビット毎の論理積で与え
られる。ここに本[alはアドレスaに記憶されるデー
タを表わす、更に音種分類処理18−7は4つのピッチ
クラスセラ(CHT、DTS、TEN、AVNとノート
のピッチクラスN0TE CPC)  との包含関係を
調べてノートの音種を識別する第19図に示すようなサ
ブルーチンを含む、19−1で、メロディノートのピッ
チクラスN0TE (PC)がコードトーンビラチクラ
スセラ)CHTに含まれるかどうかを調べる。詳細には
、メロディノートのピッチクラスデータは、第3図に示
すフォーマットから第4図に示すフォーマットに変換さ
れ(12ビツトデータのうちN0TE (PC)8目の
桁が“1″となる)、フォーマット変換後のノートピッ
チクラス12ビツトデータとコードトーンピッチクラス
セット12ビツトデータCHTとの間で各ビットについ
て論理積をとる。結果が“0”でなければ、メロディノ
ートのピッチクラスはコードノートのピッチクラスセッ
トに含まれ、結果が0″であればメロディノートのピッ
チクラスはコードノートのピッチクラスセットに含まれ
ない、前者の場合、変数N0TETYPEにコードトー
ンの識別値をセッ卜してノートの音種が“コードトーン
”であることを示す(19−2)、同様にして、メロデ
ィノートのピッチクラスが7ヴエイラブルノートビツチ
クラスセツトAVNに含まれれば、そのメロディノート
は音種“アヴエイラブル”として分類され(19−2、
!9−3)、メロディノートのピッチクラスがダイアト
ニックスケールピッチクラスセットDTSに含まれれば
、そのメロディノートは音種“スケールノート”として
分類され(工9−4.19−5)、  メロディノート
のピッチクラスセットがテンションノートピッチクラス
セー。
CWORD(RootPC)) DTS=ROTATE(”rDiatoniclJEY
)TEN-ROTATE(t [TNdB◆GHOR[
1 (Type) ICWORD (RootPc)
) AVN-TE is given by bitwise logical product of N and DTS. Here, [al] represents the data stored at address a, and note type classification processing 18-7 shows the inclusion relationship between the four pitch classes (CHT, DTS, TEN, AVN and note pitch class N0TE CPC). In step 19-1, it is determined whether the pitch class N0TE (PC) of the melody note is included in the chord tone Virachi Class Sera) CHT. investigate. Specifically, the pitch class data of the melody note is converted from the format shown in Fig. 3 to the format shown in Fig. 4 (the 8th digit of N0TE (PC) of the 12-bit data becomes "1"), A logical product is performed for each bit between the note pitch class 12-bit data after format conversion and the code tone pitch class set 12-bit data CHT. If the result is not "0", the melody note's pitch class is included in the chord note's pitch class set; if the result is 0", the melody note's pitch class is not included in the chord note's pitch class set; the former In this case, set the chord tone identification value in the variable N0TETYPE to indicate that the note type is a "chord tone" (19-2).Similarly, if the pitch class of the melody note is 7V available. If it is included in the note bit class set AVN, the melody note is classified as the note type “Available” (19-2,
! 9-3), if the pitch class of a melody note is included in the diatonic scale pitch class set DTS, that melody note is classified as a note type "scale note" (Eng. 9-4.19-5), Pitch Class Set is Tension Note Pitch Class Set.

トTENに含まれれば、そのメロディノートは音種“テ
ンションノート”として分類され(19−6,19−7
)、メロディノートのピッチクラスがCHT、AVN、
DTS、TEN(71’ずレノピッチクラスセットにも
含まれない場合はそのメロディノートは音種“アヴオイ
ドノート”として分類される(19−8)、音種の識別
フロー(8819図)は、分析しようとするメロディの
各ノートについて繰り返し実行され、その結果1分析対
象メロディのノートの並びに対応する音種の並び(−次
元配列)が得られる。
If it is included in TEN, the melody note is classified as a note type “tension note” (19-6, 19-7).
), the pitch class of the melody note is CHT, AVN,
DTS, TEN (71') If it is not included in the reno pitch class set, the melody note is classified as the note type "avoid note" (19-8). Let's analyze the note type identification flow (Figure 8819). The process is repeated for each note of the melody, and as a result, a sequence (-dimensional array) of note types corresponding to the sequence of notes of the melody to be analyzed is obtained.

第18図に戻って、音種分類処理18−7の後、音程評
価ルーチン18−8が実行される。このルーチン18−
8では分析対象メロディの隣り合うノート間の音種のス
ケール度数を評価してメロディに関連する音程の並び(
−次元配列)を生成する。
Returning to FIG. 18, after the note type classification process 18-7, a pitch evaluation routine 18-8 is executed. This routine 18-
In step 8, the scale frequency of the tones between adjacent notes of the melody to be analyzed is evaluated, and the sequence of intervals related to the melody (
−-dimensional array).

最後にCPU2はパターン検査ルーチン18−9を実行
して、メロディから得た音種の並びと音程の並びについ
て、 メロディパターンルールデータベースメモリ68
から適合スルパターンルールを検索する。
Finally, the CPU 2 executes a pattern inspection routine 18-9 to check the melody pattern rule database memory 68 for the arrangement of note types and pitches obtained from the melody.
Search for matching pattern rules from .

パターン検査ルーチン18−9の詳細を第20図に示す
、20−1で初期化が行われる。初期化の詳細を第21
図に示す、メロディメモリ42のベースアドレスMel
odyをノートポインタ変数N0TEにセットしく2l
−1)、パターン検査合否配列のベースアドレスDEC
を合否ポインタ変数DECNにセットする(21−2)
、次に21−3から21−6のループを実行してメロデ
ィメモリ42におけるノートの数だけパターン検査合否
配列の各要素DECN (DEC)に不合格(適合する
メロディパターンなし)を示す“0”をセットする。最
後(21−7)に変数N0TEに再びメロディメモリ4
2のベースアドレスMeladyをセットする。
Details of the pattern inspection routine 18-9 are shown in FIG. 20, and initialization is performed at 20-1. The details of initialization are explained in the 21st
The base address Mel of the melody memory 42 shown in the figure
Set ody to note pointer variable N0TE.2l
-1), base address DEC of pattern inspection pass/fail array
is set in the pass/fail pointer variable DECN (21-2)
, Next, the loop from 21-3 to 21-6 is executed, and each element DECN (DEC) of the pattern test pass/fail array is set to "0" indicating failure (no matching melody pattern) for the number of notes in the melody memory 42. Set. At the end (21-7), melody memory 4 is returned to variable N0TE.
2 base address Melady is set.

第205Jに戻って、20−2でルールポインタ変数R
ULEを指定スタイルに係るメロディパターンルールデ
ータメモリのベースアドレス本[Header:+5t
yleゴに初期化する。20−3で着目しているメロデ
ィパターンルールの最初の音のアドレスRULE (F
NOTE)をパターンノートポインタ変数FNOVHに
セットし、20−4でノートポインタ変数N0TEOに
N0TEをセットする。20−5で、メロディノートポ
インタN0TEOが指すメロディノートに対する音種N
0TETYPEと音程I NTERVALを音種配列と
音程配列とからそれぞれとり出し。
Returning to No. 205J, in 20-2 the rule pointer variable R
Base address book of melody pattern rule data memory related to ULE designation style [Header: +5t
Initialize to ylego. Address RULE (F
NOTE) is set to pattern note pointer variable FNOVH, and note pointer variable N0TEO is set to N0TE at 20-4. 20-5, the note type N for the melody note pointed to by the melody note pointer N0TEO.
0TETYPE and pitch I NTERVAL are extracted from the note type array and pitch array, respectively.

これらとパターンノートポインタFNOTHの指すパタ
ーンノートの対応する要素(音種、音程の方向、音程の
距離)との論理関係を調べてメロディノートがメロディ
パターンルールのパターンノートの条件を満たすかどう
かを判定する。音種条件は、パターンノートの音4FN
OTE (TYPE)が“任意の音種”の場合、そうで
なければメロディノートの音種N0TE (T y p
 e)がパターンノートの音種FNOTE (Type
)に等しいときに成立する。また、アヴエイラブルノー
トのピッチクラスセットはダイアトニックスケールピッ
チクラスセットとテンションノートのピッチクラスセッ
トとの共通部分として定めているのでパターンノートの
音種FNOTE (TYPE)が“スケールノート”ま
たは6テンシヨンノート”でメロディノートの音種N0
TE (Ty p e)が“アヴエイラブルノート”の
ときにも音種条件を成立させてもよい、音程の検査につ
いては、パターンノートの音程方向FNOTE (D 
i r)と音程距離FNOTE (Mo t i)から
、許容される音程のスケール度数の範囲を求め、この範
囲内にメロディノートの音程I NTERVALが入っ
ている場合に音程条件成立とする。
Check the logical relationship between these and the corresponding elements (note type, pitch direction, pitch distance) of the pattern note pointed to by the pattern note pointer FNOTH to determine whether the melody note satisfies the pattern note conditions of the melody pattern rule. do. The note type condition is pattern note note 4FN.
If OTE (TYPE) is “any note type”, otherwise the note type of melody note is N0TE (T y p
e) is the pattern note type FNOTE (Type
) holds true when it is equal to Also, since the pitch class set of available notes is defined as a common part of the diatonic scale pitch class set and the pitch class set of tension notes, the tone type FNOTE (TYPE) of the pattern note is "scale note" or 6-ten. melody note type No. 0
The note type condition may also be established when TE (Type) is an “Available Note”.For pitch inspection, the pitch direction FNOTE (D
i r) and the pitch distance FNOTE (Mo t i), the range of allowable pitch scale frequencies is determined, and if the pitch I NTERVAL of the melody note is within this range, the pitch condition is satisfied.

チエツク20−5が不成立の場合はチエツクしたメロデ
ィノートが着目しているメロディパターンルールのパタ
ーンノートの条件を満足していないので、次のメロディ
パターンルールを選び(20−1120−3,2O−4
)、次のメロディパターンルールについてメロディノー
トの並びを再び検査する。
If check 20-5 is not satisfied, the checked melody note does not satisfy the pattern note conditions of the melody pattern rule of interest, so the next melody pattern rule is selected (20-1120-3, 2O-4).
), the sequence of melody notes is checked again for the next melody pattern rule.

チエツク20−5が成立した場合は、メロディパターン
ルールの次の要素とメロディの次の要素とを次のチエツ
ク20−5の実行時での検査対象とすルタメ、FNOT
E (NEXT) をFNOTEにセy ) L (2
0−6)、N0TEO(NEXT)t−NOTEOf、
:セー/ )する(20−7)。
If check 20-5 is satisfied, the next element of the melody pattern rule and the next element of the melody are to be inspected when the next check 20-5 is executed.
Set E (NEXT) to FNOTE) L (2
0-6), N0TEO(NEXT)t-NOTEOf,
:Se/ ) to do (20-7).

20−8で本[N0TEO] =O(1つ前に検査した
メロディノートがメロディの終り)かつ本[FNOTE
] sFH(1つ前に検査したパターンノー)[着1f
lしているメロディパターンルールの終りでない)とき
は、着目しているメロディパターンルールは適合しない
として、次のメロディパターンルールを選択する(20
−11)、20−9で本[FNOTE] =FHのとき
は、着目しているメロディパターンルールが、メロディ
におけるNOTEの指すノートからNOTEOの1つ前
までのノートに適合したので、これらのメロディノート
について合格処理20−10を実行する.合格処理の詳
細を第22図に示す.変数N。
At 20-8, book [N0TEO] = O (the melody note checked before is the end of the melody) and book [FNOTE
] sFH (pattern no tested before) [arrival 1f
(This is not the end of the current melody pattern rule), the melody pattern rule of interest is deemed not to match, and the next melody pattern rule is selected (20
-11), 20-9, when [FNOTE] = FH, the melody pattern rule that is being focused on matches the notes from the note indicated by NOTE to the note before NOTEO in the melody, so these melodies Execute the pass process 20-10 for the note. Figure 22 shows the details of the passing process. Variable N.

置にメロディメモリ42のベースアドレスM e 1 
o d yをセットしく22−1)、変数DECNに合
否配列のベースアドレスDECをセットしく22−2)
、ループ22−3から22−5により、メロディノート
ポインタNOTEに対応する合否配列の要素のアドレス
DECNを得る.続いて、ループ22−6から22−7
を実行して、メロディノートポインタNOTEの指すノ
ートからメロディノートポインタNOTEOの指すノー
トの1つの前のノートまでに対応する合否配列の各要素
DECN (DEC)に合格(適合パターンルールの存
在)を表わす“l”をセットする.なお、所望であれば
、合格処理ルーチン20−10のなかで、モニター10
を通じて合格したメロディノートを表示してもよい(更
に、合格したメロディ/−トとともに、該当したメロデ
ィパターンルールも表示可能である)。
The base address M e 1 of the melody memory 42 is
Set o dy 22-1), and set the base address DEC of the pass/fail array to variable DECN 22-2)
, through loops 22-3 to 22-5, the address DECN of the element of the pass/fail array corresponding to the melody note pointer NOTE is obtained. Then, loops 22-6 to 22-7
is executed, and each element DECN (DEC) of the pass/fail array corresponding to the note pointed to by the melody note pointer NOTE to the note one before the note pointed to by the melody note pointer NOTEO is passed (existence of a matching pattern rule). Set “l”. If desired, the monitor 10 may be
(Furthermore, it is also possible to display the corresponding melody pattern rule along with the melodies/notes that passed).

合格処理20−10(i’)次に、RULE (NEX
T)にRULEをセットして次のメロディパターンルー
ルヲ選択スる(20−1 1)、メロディパターンルー
ルデータベース68の終端に達してなければ(20−1
2で本[RULE] =Oが不成立)、24−3以下の
処理を繰り返して新たに選択したメロディパターンルー
ルがメロディノートの並びに適合するかどうかを調べる
.メロディパターンルールデータベース68の終端に達
したならばNOTE=NOTE (Next)により次
のメロディノートを選択しく20−13)、前のノート
がメロディの終端でなければ(20−14で本[NOT
E] =0が不成立)、20−2以下の処理を行って、
新たに選択したメロディノートを最初のノートとするノ
ートの並びに適合するメロディパターンルールをメロデ
ィパターンルールアータメモリ68から検索する.チエ
ツク20−14の成立により、パターン検査ルーチンは
終了する。
Passing process 20-10 (i') Next, RULE (NEX
T) to select the next melody pattern rule (20-1 1), if the end of the melody pattern rule database 68 has not been reached (20-1
In step 2, [RULE] = O does not hold), repeat the process from step 24-3 to check whether the newly selected melody pattern rule matches the arrangement of the melody notes. When the end of the melody pattern rule database 68 is reached, select the next melody note with NOTE=NOTE (Next 20-13), and if the previous note is not the end of the melody (20-14, select the next melody note).
E] = 0 does not hold), perform the processing below 20-2,
A melody pattern rule matching the sequence of notes with the newly selected melody note as the first note is searched from the melody pattern rule arter memory 68. If check 20-14 is satisfied, the pattern inspection routine ends.

以上のように、本実施例では、楽曲スタイル別のメロデ
ィパターンルールデータベース(682、684.68
6、688)により、メロディ分析に必要な知識をデー
タとしてプログラムから完全に独立させているので、メ
ロディ分析機の構築が容易であり、かつスタイルと関連
づけてメロディを分析することができる。
As described above, in this embodiment, the melody pattern rule database (682, 684, 68
6, 688), the knowledge necessary for melody analysis is made completely independent of the program as data, so it is easy to construct a melody analyzer and it is possible to analyze melodies in relation to styles.

[変形例] 以上で実施例の説明を終えるが,この発明の範囲内で種
々の変形,変更が容易である。
[Modifications] This concludes the description of the embodiments, but various modifications and changes can be easily made within the scope of the present invention.

例えば、上記実施例ではスタイル指示部81により楽曲
スタイルを指示し,分析処理の際、スタイル別のメロデ
ィパターンデータベースメモリから指定されたスタイル
に係るデータベースを選んで使用しているが、この代り
に、スタイルの指示入力はなしとし、分析処理の際にす
べてのスタイルのメロディパターンルールデータベース
についてメロディを分析し、結果を出力するようにして
もよい、具体的には、スタイル別のルールデータベース
数を5RDBNとし、第20図のパターン検査ルーチン
を5RDBN回繰り返す(20−2での5TLYEをO
から5RDBN−1まで動がしながら)、初期化20−
1 (第21図)において、DFC,DFCNの記憶領
域を5RDBNだけ確保し、5TYLEの値に対応する
領域のデータを初期化する0合格処理21−20 (第
22図)において初期化するときと同様に5TYLEに
対応する領域のデータを変更する。更に、合格処理の実
行の都度、あるいは、すべてのスタイルについてのパタ
ーン検査の終了後に1合格したメロディノートとともに
、適合したメロディパターンに関連する楽曲スタイルを
モニター表示する。
For example, in the embodiment described above, a music style is specified by the style instruction section 81, and during analysis processing, a database related to the specified style is selected from the melody pattern database memory for each style, but instead of this, There may be no style instruction input, and the melody may be analyzed for all style melody pattern rule databases during analysis processing and the results output. Specifically, the number of rule databases for each style may be set to 5RDBN. , repeat the pattern inspection routine in Figure 20 5RDBN times (5TLYE in 20-2 is
to 5RDBN-1), initialize 20-
1 (Figure 21), when initializing in 0 pass processing 21-20 (Figure 22), which secures the storage area of DFC and DFCN by 5RDBN and initializes the data in the area corresponding to the value of 5TYLE. Similarly, data in the area corresponding to 5TYLE is changed. Furthermore, each time the passing process is executed, or after pattern inspection for all styles is completed, the music style related to the matched melody pattern is displayed on the monitor along with the melody note that passed once.

また、例えば、実施例ではメロディパターンルールデー
タベース68をROM4内に永久的なデータ源として確
保しているが、メロディパターンルールデータベースを
RAMのようなリードライトメモリ上で編集可能な構成
としてもよい。
Further, for example, in the embodiment, the melody pattern rule database 68 is secured in the ROM 4 as a permanent data source, but the melody pattern rule database may be configured to be editable on a read/write memory such as a RAM.

また、入力装置8等から各音種に関するピッチクラスセ
ットを入力するようにして第2図に示すF2.F3、F
5〜FIOの要素を不要にしてもよい。
In addition, the pitch class set for each note type is inputted from the input device 8 or the like, and the F2. F3, F
The elements 5 to FIO may be unnecessary.

[発明の効果] 以上、詳細に述べたように、この発明によれば、様々な
スタイルの可能性をもつ得るメロディに対しその分析に
必要な音楽知施をスタイル別のメロディパターンルール
ベース手段によってデータベース化したので、簡単な構
成でよく、メロディをスタイルと関連づけて分析するこ
とができる。
[Effects of the Invention] As described above in detail, according to the present invention, the musical knowledge necessary for analyzing melodies that have the possibility of various styles can be acquired using melody pattern rule-based means for each style. Since it has been created as a database, it can be easily structured and analyzed by associating melodies with styles.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例に係るメロディ分析機のシス
テムブロック図、 第2図は第1図のメロディ分析機の機能を示す機能ブロ
ック図 第3図はピッチクラス識別データのフォーマットを例示
する図、 第4図はピッチクラスセットデータのフォーマットを例
示する図、 第5図はコードタイプ識別データのフォーマットを例示
する図、 第6図はメロディメモリの構成を示す図、第7図はコー
ド進行メモリの構成を示す図、第8図はキー(トーナリ
ティ)メモリの構成を示す図、 第9図は第6図〜第8図のメモリに記憶される入力音楽
データ例を楽譜で表現した図、第1θ図はコートトーン
(構成音)データベースメモリの構成を示す図、 第11図はテンションノートデータベースメモリの構成
を示す図、 第12図はダイアトニックスケールメモリの構成を示す
図、 第13図はメロディパターンルールデータベースメモリ
の構成を示す図。 第14図は音sm別データのフォーマットを示す図、 第15図は音程方向識別データのフォーマットを示す図
、 第16図は音程距離識別データのフォーマットを示す図 第17図は変数のリストを示す図、 第18図は第1図のCPUにより実行されるメインのフ
ローチャート、 第19図は音種分類のフローチャート 第20図はメロディパターン検査のフローチャート 第21図は初期化のフローチャート、 第22図はメロディパターンルールの合格処理のフロー
チャート、 第23図は楽曲のスタイル指示部の構成を示す図、 第24図は図はスタイル別メロディパターンル−ルデー
タベースメモリに対するヘッダメモリの構成を示す図、 第25図はスタイル別メロディパターンルールデータベ
ースメモリの構成を示す図である。 Fl、F2・・・・・・メロディメモリF3.44・・
・・・・コード進行メモリF246・・・・・・キーメ
モリ F6.62・・・・・・コードトーンデータベースF7
・・・・・・コードトーン生成部 F8,64・・・・・・テンションノートデータベース
66・・・・・・ダイアトニー7クメモリF5・・・・
・・ダイアトニックスケール生成部F9・・・・・・テ
ンションノート生成部FIO・・・・・・アヴエイラブ
ルノート生成部Fll・・・・・・音種分類部 F4・・・・・・音程分類部 Fl2.68・・・・・・パターンルールデータベース
FI3・・・・・・パターン検査部 F14.8工・・・・・・スタイル指定部F15・・・
・・・データヘース選択部682・・・・・・童謡デー
タベース 684・・・・・・演歌データベース
FIG. 1 is a system block diagram of a melody analyzer according to an embodiment of the present invention. FIG. 2 is a functional block diagram showing the functions of the melody analyzer of FIG. 1. FIG. 3 is an example of the format of pitch class identification data. Figure 4 is a diagram illustrating the format of pitch class set data, Figure 5 is a diagram illustrating the format of chord type identification data, Figure 6 is a diagram showing the configuration of melody memory, and Figure 7 is a diagram illustrating the chord progression. FIG. 8 is a diagram showing the structure of the key (tonality) memory; FIG. 9 is a diagram representing examples of input music data stored in the memories of FIGS. 6 to 8 in musical scores; Figure 1θ is a diagram showing the configuration of the court tone (constituent note) database memory, Figure 11 is a diagram showing the configuration of the tension note database memory, Figure 12 is a diagram showing the configuration of the diatonic scale memory, and Figure 13 is a diagram showing the configuration of the diatonic scale memory. The figure which shows the structure of the melody pattern rule database memory. Figure 14 shows the format of data for each note sm. Figure 15 shows the format of pitch direction identification data. Figure 16 shows the format of pitch distance identification data. Figure 17 shows a list of variables. Figure 18 is a main flowchart executed by the CPU in Figure 1, Figure 19 is a flowchart for note type classification, Figure 20 is a flowchart for melody pattern inspection, Figure 21 is a flowchart for initialization, and Figure 22 is a flowchart for initialization. 23 is a diagram showing the configuration of the music style instruction section; FIG. 24 is a diagram showing the configuration of the header memory for the melody pattern rule database memory by style; The figure is a diagram showing the configuration of a style-specific melody pattern rule database memory. Fl, F2...Melody memory F3.44...
...Chord progression memory F246...Key memory F6.62...Chord tone database F7
...Chord tone generation section F8, 64...Tension note database 66...Diatony 7 memory F5...
...Diatonic scale generation section F9...Tension note generation section FIO...Available note generation section Fll...Tone type classification section F4...Pitch Classification section Fl2.68... Pattern rule database FI3... Pattern inspection section F14.8... Style specification section F15...
... Data selection section 682 ... Nursery rhyme database 684 ... Enka database

Claims (4)

【特許請求の範囲】[Claims] (1)メロディを表わすデータを付与するメロディ付与
手段と、 コードを表わすデータを付与するコード付与手段と、 トーナリティを表わすデータを付与するトーナリティ付
与手段と、 上記コードと上記トーナリティとに基づいて、複数の音
種の夫々に関する複数の異なるピッチクラスセットを生
成する音種別ピッチクラスセット生成手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記複数の異なる楽曲のスタイルのなかから1つのスタ
イルを可変に指定するスタイル指定手段と、 上記スタイル指定手段により指定されたスタイルに係る
メロディパターンルールのセットを上記メロディパター
ンルールデータベース手段から選択するルールセット選
択手段と、上記メロディ音分類手段からの上記音種の並
びと上記音程評価手段からの上記音程の並びとに適合す
るメロディパターンルールを上記ルールセット選択手段
により選択されたメロディパターンルールのセットのな
かから検索することにより、上記メロディを指定された
スタイルに基づいて分析する分析手段と、 を有することを特徴とするメロディ分析機。
(1) A melody assigning means for assigning data representing a melody, a code assigning means for assigning data representing a chord, a tonality assigning means for assigning data representing a tonality, and a plurality of melody assigning means for assigning data representing a melody; by determining the relationship between the pitch class of each note of the melody and each of the plurality of different pitch class sets; , a melody sound classification means for identifying the note type of each note of the melody and forming a sequence of note types; and an interval for forming a sequence of intervals by evaluating intervals formed between adjacent notes of the melody. an evaluation means; a melody pattern rule database means for storing a set of melody pattern rules defining characteristics of each melody pattern composed of at least one note sequence for each of a plurality of different music styles; Style specifying means for variably specifying one style from among different music styles; and rule set selecting means for selecting a set of melody pattern rules related to the style specified by the style specifying means from the melody pattern rule database means. and a melody pattern rule that matches the arrangement of note types from the melody sound classification means and the arrangement of intervals from the interval evaluation means from the set of melody pattern rules selected by the rule set selection means. A melody analysis machine comprising: analysis means for analyzing the melody based on a specified style by searching;
(2)メロディを表わすデータを付与するメロディ付与
手段と、 複数の音種の夫々に関する複数の異なるピッチクラスセ
ットを付与する音種別ピッチクラスセット付与手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記複数の異なる楽曲のスタイルのなかから1つのスタ
イルを可変に指定するスタイル指定手段と、 上記スタイル指定手段により指定されたスタイルに係る
メロディパターンルールのセットを上記メロディパター
ンルールデータベース手段から選択するルールセット選
択手段と、上記メロディ音分類手段からの上記音種の並
びと上記音程評価手段からの上記音程の並びとに適合す
るメロディパターンルールを上記ルールセット選択手段
により選択されたメロディパターンルールのセットのな
かから検索することにより、上記メロディを指定された
スタイルに基づいて分析する分析手段と、 を有することを特徴とするメロディ分析機。
(2) melody assigning means for assigning data representing a melody; note type pitch class set assigning means for assigning a plurality of different pitch class sets for each of a plurality of note types; pitch classes for each note of the melody and the above. melody sound classification means for identifying the sound type of each note of the melody and forming a sequence of note types by determining the relationship between each note of a plurality of different pitch class sets; and a melody pattern that defines characteristics of each melody pattern composed of at least one sequence of notes for each of a plurality of different music styles. melody pattern rule database means for storing a set of rules; style specifying means for variably specifying one style from among the plurality of different music styles; and melody pattern rules related to the style specified by the style specifying means. a rule set selection means for selecting a set of melody pattern rules from the melody pattern rule database means; A melody analyzer comprising: analysis means for analyzing the melody based on a designated style by searching from a set of melody pattern rules selected by the rule set selection means.
(3)メロディを表わすデータを付与するメロディ付与
手段と、 コードを表わすデータを付与するコード付与手段と、 トーナリティを表わすデータを付与するトーナリティ付
与手段と、 上記コードと上記トーナリティとに基づいて、複数の音
種の夫々に関する複数の異なるピッチクラスセットを生
成する音種別ピッチクラスセット生成手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記メロディパターンルールデータベ
ース手段から検索する適合ルール検索手段と、 上記適合ルール検索手段からの各適合メロディパターン
ルールに関連する楽曲のスタイルを出力する分析結果出
力手段と、 を有することを特徴とするメロディ分析機。
(3) a melody assigning means for assigning data representing a melody; a code assigning means for assigning data representing a chord; a tonality assigning means for assigning data representing a tonality; by determining the relationship between the pitch class of each note of the melody and each of the plurality of different pitch class sets; , a melody sound classification means for identifying the note type of each note of the melody and forming a sequence of note types; and an interval for forming a sequence of intervals by evaluating intervals formed between adjacent notes of the melody. an evaluation means; a melody pattern rule database means for storing a set of melody pattern rules defining characteristics of each melody pattern composed of at least one sequence of notes for each of a plurality of different music styles; a matching rule search means for searching the melody pattern rule database means for a melody pattern rule that matches the note type arrangement from the classification means and the pitch arrangement from the pitch evaluation means; A melody analyzer comprising: analysis result output means for outputting a music style related to each compatible melody pattern rule.
(4)メロディを表わすデータを付与するメロディ付与
手段と、 複数の音種の夫々に関する複数の異なるピッチクラスセ
ットを付与する音種別ピッチクラスセット付与手段と、 上記メロディの各音のピッチクラスと上記複数の異なる
ピッチクラスセットの各々との関係を判別することによ
り、上記メロディの各音の音種を識別して音種の並びを
形成するメロディ音分類手段と、 上記メロディの隣り合う音の間に形成される音程を評価
して音程の並びを形成する音程評価手段と、 複数の異なる楽曲のスタイルのそれぞれについて、少な
くとも1つの音の並びで構成される各メロディパターン
の特徴を定義するメロディパターンルールのセットを記
憶するメロディパターンルールデータベース手段と、 上記メロディ音分類手段からの上記音種の並びと上記音
程評価手段からの上記音程の並びとに適合するメロディ
パターンルールを上記メロディパターンルールデータベ
ース手段から検索する適合ルール検索手段と、 上記適合ルール検索手段からの各適合メロディパターン
ルールに関連する楽曲のスタイルを出力する分析結果出
力手段と、 を有することを特徴とするメロディ分析機。
(4) melody assigning means for assigning data representing a melody; note type pitch class set assigning means for assigning a plurality of different pitch class sets for each of a plurality of note types; pitch classes for each note of the melody and the above. melody sound classification means for identifying the sound type of each note of the melody and forming a sequence of note types by determining the relationship between each note of a plurality of different pitch class sets; and a melody pattern that defines characteristics of each melody pattern composed of at least one sequence of notes for each of a plurality of different music styles. melody pattern rule database means for storing a set of rules; and melody pattern rule database means for storing melody pattern rules that match the arrangement of note types from the melody sound classification means and the arrangement of intervals from the pitch evaluation means. A melody analyzer comprising: a matching rule searching means for searching from the matching rule searching means; and an analysis result outputting means for outputting a music style related to each matching melody pattern rule from the matching rule searching means.
JP2110426A 1990-04-27 1990-04-27 Melody analyzer Expired - Fee Related JP2958795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2110426A JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2110426A JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Publications (2)

Publication Number Publication Date
JPH049893A true JPH049893A (en) 1992-01-14
JP2958795B2 JP2958795B2 (en) 1999-10-06

Family

ID=14535455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2110426A Expired - Fee Related JP2958795B2 (en) 1990-04-27 1990-04-27 Melody analyzer

Country Status (1)

Country Link
JP (1) JP2958795B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510572A (en) * 1992-01-12 1996-04-23 Casio Computer Co., Ltd. Apparatus for analyzing and harmonizing melody using results of melody analysis
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information
US9263013B2 (en) 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
CN113096619A (en) * 2021-03-24 2021-07-09 平安科技(深圳)有限公司 Music similarity calculation method, device, equipment and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510572A (en) * 1992-01-12 1996-04-23 Casio Computer Co., Ltd. Apparatus for analyzing and harmonizing melody using results of melody analysis
US5736663A (en) * 1995-08-07 1998-04-07 Yamaha Corporation Method and device for automatic music composition employing music template information
USRE40543E1 (en) * 1995-08-07 2008-10-21 Yamaha Corporation Method and device for automatic music composition employing music template information
US9263013B2 (en) 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
US9454948B2 (en) 2014-04-30 2016-09-27 Skiptune, LLC Systems and methods for analyzing melodies
CN113096619A (en) * 2021-03-24 2021-07-09 平安科技(深圳)有限公司 Music similarity calculation method, device, equipment and storage medium
CN113096619B (en) * 2021-03-24 2024-01-19 平安科技(深圳)有限公司 Music similarity calculation method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2958795B2 (en) 1999-10-06

Similar Documents

Publication Publication Date Title
US5496962A (en) System for real-time music composition and synthesis
Cope An expert system for computer-assisted composition
US6747201B2 (en) Method and system for extracting melodic patterns in a musical piece and computer-readable storage medium having a program for executing the method
JP2671495B2 (en) Melody analyzer
Quick et al. Grammar-based automated music composition in Haskell
US6100462A (en) Apparatus and method for generating melody
US20040025671A1 (en) Automated music arranger
Cope Recombinant music: using the computer to explore musical style
JPH049893A (en) Melody analyzer
JP2958794B2 (en) Melody analyzer
JP3364941B2 (en) Automatic composer
Chardon et al. Melodizer 2.0: a constraint programming tool for computer-aided musical composition
Sutcliffe et al. The C@ merata task at MediaEval 2016: Natural Language Queries Derived from Exam Papers, Articles and Other Sources against Classical Music Scores in MusicXML.
Sulyok et al. On the impact of domain-specific knowledge in evolutionary music composition
JP3088919B2 (en) Tone judgment music device
JP2615720B2 (en) Automatic composer
AU2002213685B2 (en) An Automated Music Harmonizer
Židek Controlled music generation with deep learning
Wafflard et al. FuxCP: a constraint programming based tool formalizing Fux’s musical theory of counterpoint
JP3364940B2 (en) Automatic composer
Eibensteiner Procedural music generation with grammars
JP2615721B2 (en) Automatic composer
JPH01255880A (en) Automatic code adding device
Maršík Cover Song Identification using Music Harmony Features, Model and Complexity Analysis
JPH01167783A (en) Automatic musical composing and analyzing machine

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070730

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090730

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees