JP2894178B2 - Performance detection method in performance information - Google Patents

Performance detection method in performance information

Info

Publication number
JP2894178B2
JP2894178B2 JP5253412A JP25341293A JP2894178B2 JP 2894178 B2 JP2894178 B2 JP 2894178B2 JP 5253412 A JP5253412 A JP 5253412A JP 25341293 A JP25341293 A JP 25341293A JP 2894178 B2 JP2894178 B2 JP 2894178B2
Authority
JP
Japan
Prior art keywords
sound
chord
satisfied
analysis
bass
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5253412A
Other languages
Japanese (ja)
Other versions
JPH07110686A (en
Inventor
温 東儀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP5253412A priority Critical patent/JP2894178B2/en
Priority to EP94115846A priority patent/EP0647934B1/en
Priority to DE69426588T priority patent/DE69426588T2/en
Publication of JPH07110686A publication Critical patent/JPH07110686A/en
Priority to US08/798,611 priority patent/US5796026A/en
Application granted granted Critical
Publication of JP2894178B2 publication Critical patent/JP2894178B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、楽曲の音高情報を含む
演奏情報から、この演奏情報における奏法を検出する奏
法検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a rendition style detection method for detecting a rendition style in performance information from performance information including pitch information of music.

【0002】[0002]

【従来の技術】従来、電子楽器において、鍵盤で弾かれ
る演奏に合わせて自動伴奏を行う所謂自動伴奏機能を備
えたものがある。この種の電子楽器は伴奏音で和音演奏
を行うために、鍵盤から入力される演奏情報すなわち弾
かれた鍵のキーコードに基づいて次のような和音検出を
行っている。
2. Description of the Related Art Conventionally, some electronic musical instruments have a so-called automatic accompaniment function for performing an automatic accompaniment in accordance with a performance played on a keyboard. This type of electronic musical instrument performs the following chord detection based on performance information input from the keyboard, that is, a key code of a played key, in order to perform a chord performance with an accompaniment sound.

【0003】複数の鍵が同時に押鍵された時のみ和音
を検出する(特公昭62−33594号)。 強く押鍵された時のみ和音を検出する(特公昭62−
33595号)。 1つの鍵盤を低音側の左鍵域と高音側の右鍵域とに仮
想的に分割し、左鍵域で押鍵された鍵のキーコードに基
づいて和音を検出する。 複数のパートにそれぞれ対応する鍵盤を複数用い、複
数のパートを演奏して入力されたパート毎に異なる処理
を行い、伴奏パートから和音を検出する。
A chord is detected only when a plurality of keys are depressed simultaneously (Japanese Patent Publication No. 62-33594). Chords are detected only when the key is strongly pressed (Japanese Patent Publication Sho 62-
No. 33595). One key is virtually divided into a left key range on the low note side and a right key area on the high note side, and a chord is detected based on a key code of a key pressed in the left key range. Using a plurality of keys respectively corresponding to a plurality of parts, performing a plurality of parts and performing different processing for each input part, and detecting a chord from the accompaniment part.

【0004】しかし、の場合は、ごく単純な演奏から
であれば和音が検出可能であるが、通常の演奏からは正
確な和音の検出が困難である。また、の場合は、和音
検出用に強押鍵で演奏しなければならず、不自然な演奏
となることがある。さらに、の場合は、各パートを演
奏する鍵域が限られてしまい、演奏自体が制限されると
いう問題がある。また、の場合は鍵盤が多くなるので
演奏が難しくなり、また、複数の鍵盤を要するので楽器
自体が高価なものとなってしまう。
However, in this case, a chord can be detected from a very simple performance, but it is difficult to accurately detect a chord from a normal performance. In the case of, the performance must be performed with a strong depressing key for detecting a chord, which may result in an unnatural performance. Further, in the case of (1), there is a problem that the key range in which each part is played is limited, and the performance itself is limited. In this case, the number of keyboards increases, making it difficult to perform. In addition, since a plurality of keys are required, the musical instrument itself becomes expensive.

【0005】[0005]

【発明が解決しようとする課題】このように、従来は、
自然な演奏から正確な和音を検出することが困難であっ
た。しかし、演奏情報から演奏の奏法を検出できると、
この奏法に応じた和音検出を行うことができ、和音検出
の検出精度を高めることができる。また、奏法を検出で
きると、例えば、自動編曲などを行う場合にも演奏情報
を適切にパートに分解することが可能となる。本発明
は、演奏情報からその演奏情報の奏法を検出できるよう
にすることを課題とする。
As described above, conventionally,
It has been difficult to accurately detect chords from natural performances. However, if the performance style can be detected from the performance information,
Chord detection according to this playing style can be performed, and the detection accuracy of chord detection can be increased. In addition, if the playing style can be detected, the performance information can be appropriately decomposed into parts even when performing automatic arrangement or the like. An object of the present invention is to make it possible to detect a playing style of performance information from performance information.

【0006】[0006]

【課題を解決するための手段】上記の課題を解決するた
めになした本発明の演奏情報における奏法検出方法は、
複数の音高情報を含む演奏情報を入力し、上記演奏情報
の小節における強拍および弱拍と、該演奏情報中の前後
のタイミングの音高情報の音高差と、同一タイミングで
の音高情報の数と、同一タイミングでの音高情報の音高
差と、に基づいて前記演奏情報の奏法を検出するように
したことを特徴とする。
Means for Solving the Problems A method for detecting a playing style in performance information according to the present invention, which has been made to solve the above-mentioned problems, comprises:
Performance information including a plurality of pitch information is input, and a strong beat and a weak beat in a bar of the performance information, a pitch difference between pitch information before and after in the performance information, and a pitch at the same timing. The performance style of the performance information is detected based on the number of pieces of information and the pitch difference of the pitch information at the same timing.

【0007】[0007]

【作用】演奏情報における奏法は、演奏情報の小節にお
ける強拍および弱拍、演奏情報中の前後のタイミングの
音高情報の音高差、同一タイミングでの音高情報の数、
同一タイミングでの音高情報の音高差などに特徴が現れ
る。本発明の演奏情報における奏法検出方法は、これら
の情報に基づいて奏法を検出する。
[Function] The playing method in the performance information includes a strong beat and a weak beat in a bar of the performance information, a pitch difference between pitch information before and after in the performance information, the number of pitch information at the same timing,
A characteristic appears in the pitch difference of the pitch information at the same timing. The performance style detection method for performance information according to the present invention detects a performance style based on such information.

【0008】[0008]

【実施例】図1は本発明実施例の演奏情報における奏法
検出方法を適用した電子楽器のブロック図であり、CP
U1はプログラムメモリ2に格納されている制御プログ
ラムに基づいてワーキングメモリ3のワーキングエリア
を使用して電子楽器全体の制御を行い、鍵盤4の操作に
よる鍵盤演奏、鍵盤4から入力される演奏情報をパート
に分解してこのパートに基づいて和音を検出し、伴奏パ
ターンメモリ5に記憶されている伴奏パターンと検出和
音とに基づく自動伴奏を行う。なお、伴奏パターンメモ
リ5には曲のスタイルおよび奏法(モード)に応じた複
数の伴奏パターンが記憶されている。
FIG. 1 is a block diagram of an electronic musical instrument to which a playing style detection method in performance information according to an embodiment of the present invention is applied.
U1 controls the entire electronic musical instrument using the working area of the working memory 3 based on the control program stored in the program memory 2, and performs keyboard performance by operating the keyboard 4 and performance information input from the keyboard 4. The chords are divided into parts, chords are detected based on the parts, and automatic accompaniment is performed based on the accompaniment patterns stored in the accompaniment pattern memory 5 and the detected chords. The accompaniment pattern memory 5 stores a plurality of accompaniment patterns according to the style of the music and the playing style (mode).

【0009】CPU1は鍵盤4のキーイベントを検出
し、キーイベントのあった鍵に対応するキーコードをキ
ーオン信号またはキーオフ信号とともに取り込み、音源
6にキーコードとノートオンまたはノートオフを出力し
て鍵盤演奏に対応する発音処理と消音処理を行う。な
お、音源6は入力されるキーコードに応じた楽音信号を
発生し、この楽音信号はサウンドシステム7に出力さ
れ、サウンドシステム7はこの楽音信号のD/A変換、
増幅等を行って楽音を発生する。
The CPU 1 detects a key event of the keyboard 4, captures a key code corresponding to the key having the key event together with a key-on signal or a key-off signal, and outputs the key code and a note-on or note-off to the sound source 6 to generate a keyboard. Performs sound generation processing and mute processing corresponding to the performance. Note that the sound source 6 generates a tone signal corresponding to the input key code, and the tone signal is output to the sound system 7. The sound system 7 performs D / A conversion of the tone signal.
Performs amplification and generates musical tones.

【0010】操作スイッチ8は、自動伴奏のスタート/
ストップを指定するスタート/ストップスイッチ、調性
を指定する調設定スイッチ、自動伴奏のスタイル選択や
テンポ設定を行うスイッチ、音源6の音色設定を行うス
イッチなどの各種のスイッチを備えており、これらのス
イッチの操作イベントはCPU1に取り込まれ、CPU
1は各スイッチイベントに応じた処理を行う。
The operation switch 8 is used for starting / accompaniment of automatic accompaniment.
There are provided various switches such as a start / stop switch for specifying a stop, a key setting switch for specifying a tonality, a switch for selecting a style and a tempo of an automatic accompaniment, and a switch for setting a tone color of the sound source 6. The switch operation event is captured by the CPU 1,
1 performs processing corresponding to each switch event.

【0011】また、CPU1は操作スイッチ8で設定さ
れたテンポをタイマ9に設定し、タイマ9は設定された
テンポに応じて1小節当り96個のテンポクロックをC
PU1に発生する。CPU1はこのテンポクロックによ
って割込み処理を行い、鍵盤4から入力されるキーコー
ドに基づいて奏法を検出しながら、鍵盤4で発生してい
るキーコードをこの奏法に応じたパートに割り当てるグ
ループ解析を行う。
The CPU 1 sets the tempo set by the operation switch 8 in the timer 9, and the timer 9 outputs 96 tempo clocks per bar according to the set tempo.
Occurs in PU1. The CPU 1 performs an interrupt process based on the tempo clock, and performs a group analysis in which a key code generated on the keyboard 4 is assigned to a part corresponding to the performance method while detecting a rendition style based on a key code input from the keyboard 4. .

【0012】そして、CPU1は割込み処理毎のグルー
プ解析の結果に基づいて和音を検出し、伴奏パターンメ
モリ5から読み出した伴奏パターンのキーコードを検出
和音に応じて音高変換し、音源6に音高変換したキーコ
ードとノートオンまたはノートオフを出力して自動伴奏
を行う。なお、CPU1は、自動伴奏のスタート時から
テンポクロックをカウントすることにより小節中の強拍
または弱拍のタイミングや小節線(小節頭)のタイミン
グを検出する。
The CPU 1 detects a chord based on the result of the group analysis for each interruption process, converts the key code of the accompaniment pattern read from the accompaniment pattern memory 5 into a pitch according to the detected chord, and outputs a tone to the sound source 6. Automatically accompaniment by outputting the key code and note-on or note-off with high conversion. The CPU 1 counts the tempo clock from the start of the automatic accompaniment to detect the timing of a strong beat or a weak beat in a measure and the timing of a measure line (measure head).

【0013】ここで、この実施例のグループ解析では、
鍵盤4における押鍵音を、上声部で旋律をとるメロディ
声部、メロディに和声を加えるメロディコード声部、下
声部でベースをとるベース声部、ベースに和声付けする
ベースコード声部の4つのパートに分解する。
Here, in the group analysis of this embodiment,
A melody voice part that takes a melody in the upper voice part, a melody chord voice part that adds a harmony to the melody, a bass voice part that takes a bass in the lower voice part, and a bass chord voice that gives a harmony to the bass. Disassembled into four parts.

【0014】また、このグループ解析で4つのパートに
分解する判断条件は、同時押鍵数、現在のタイミングが
小節の頭であるか否か、現在のタイミングが強拍音か弱
拍音か、前のベース声部音との音程など、アルペジオ、
コードおよびノーマルの各奏法に対応する複数の条件の
組合せであり、これらの条件に応じて現在のキーコード
がどのパートに属するかを決定する。したがって、この
4つのパートは、その音域が固定の音域ではなく演奏情
報に応じて変化するものである。
[0014] The judgment conditions for decomposing into four parts in this group analysis include the number of simultaneous key presses, whether or not the current timing is the beginning of a bar, whether the current timing is a strong beat or a weak beat, Arpeggios, such as the pitch with the previous bass voice,
This is a combination of a plurality of conditions corresponding to each of the chord and normal playing styles, and determines to which part the current key code belongs according to these conditions. Therefore, these four parts are not fixed in range but change in accordance with performance information.

【0015】図2は奏法の一例を示す図である。同図
(A) はアルペジオ奏法、同図(B) はコード奏法を示して
おり、例えば、アルペジオ奏法では和音構成音が時間的
に分散して弾かれ、コード奏法では和音構成音が同時に
弾かれる傾向にある。そこで、このコード奏法のように
同時に多数の音が押鍵された和音(ブロックコードとい
おう。)であるか否かを判定して奏法の検出に利用す
る。
FIG. 2 is a diagram showing an example of a playing style. Same figure
(A) shows the arpeggio playing style, and (B) shows the chord playing style.For example, in the arpeggio playing style, the chord constituent sounds tend to be dispersed in time, and in the chord playing style, the chord constituent sounds tend to be played simultaneously. is there. Therefore, it is determined whether or not a large number of tones are depressed chords (referred to as block chords) at the same time as in this chord playing style and used for detecting the playing style.

【0016】また、ベース音については、アルペジオ奏
法では和音の根音に限らずベース声部となりやすい強拍
の音をベース音とし、コード奏法では和音の根音をベー
ス音とすることが音楽的に適しているので、この実施例
ではこの奏法に応じてベース音の選択方法も切り替える
ようにしている。なお、この実施例では、例えば強拍で
ベース音を弾いて弱拍でブロックコードを演奏する所謂
スライド奏法はアルペジオ奏法としている。
In the arpeggio method, the base sound is not limited to the root of a chord, but a strong beat sound that tends to be a bass voice portion is used as a base sound, and the root sound of a chord is used as a base sound in a chord method. In this embodiment, the method of selecting a bass sound is also switched in accordance with this playing style. In this embodiment, for example, a so-called slide playing method in which a bass sound is played on a strong beat and a block chord is played on a weak beat is an arpeggio playing method.

【0017】この実施例では、キーコードを前記4つの
パートに分解するにあたって、各パートとキーコードの
関係を次式(1)のリスト構造で表すようにしている。 [[a1]. [b1.b2.…].[c1.c2.…].[d1.d2.…]] …(1) ここで、“[”,“]”はリストの各要素を括る記号、
“.”はリストの各要素を区切る記号、a1はベース声部
のキーコード(ベース声部は1音)、b1,b2等はベース
コード声部のキーコード、c1,c2等はメロディコード声
部のキーコード、d1,d2等はメロディ声部のキーコード
であり、上式(1)全体は各パート毎のキーコードのリ
ストをそれぞれ要素とする全体のリスト(以後、「全解
析リスト」という。)を示している。
In this embodiment, when the key code is decomposed into the four parts, the relationship between each part and the key code is represented by a list structure of the following equation (1). [[A 1]. [B 1 .b 2. ...]. [C 1 .c 2 ...]. [D 1 .d 2 ...]] (1) where “[” and “]” are symbols that enclose each element of the list,
"." Symbols to separate each element of the list, a 1 key code (bass part is one tone) of bass part, b 1, b 2, etc. bass chord part keycode, c 1, c 2 Etc. are the key codes of the melody voice part, d 1 , d 2, etc. are the key codes of the melody voice part. Hereinafter, it is referred to as “all analysis list”).

【0018】そして、このように演奏の進行に応じてグ
ループ解析でキーコードを各パートに割り当てながら、
ベースコード声部にキーコードがあればこのベースコー
ド声部に基づく和音検出を行い、ベースコード声部にキ
ーコードがなければメロディコード声部のキーコードに
基づく和音検出を行い、メロディコード声部にキーコー
ドがなければさらにメロディ声部のキーコードに基づく
和音検出を行う。
While assigning key codes to each part by group analysis according to the progress of the performance,
If there is a key code in the base code voice part, chord detection based on the base code voice part is performed, and if there is no key code in the base code voice part, chord detection based on the key code of the melody code voice part is performed, and the melody code voice part is detected. If there is no key code, a chord is detected based on the key code of the melody voice part.

【0019】図3は制御プログラムのメインルーチンの
フローチャート、図4〜図11は割込み処理ルーチンお
よびサブルーチンのフローチャートであり、各フローチ
ャートに基づいて実施例の動作を説明する。なお、以下
の説明では、鍵盤から入力されるキーコードを「入力
音」、各パートのリストの要素となったキーコードを
「検出音」と、必要に応じて適宜呼び代えて説明する。
FIG. 3 is a flowchart of a main routine of the control program, and FIGS. 4 to 11 are flowcharts of an interrupt processing routine and a subroutine. The operation of the embodiment will be described based on each flowchart. In the following description, the key code input from the keyboard will be referred to as "input sound", and the key code which has become an element of the list of each part will be referred to as "detection sound", as appropriate, as necessary.

【0020】また、フローチャートにおいて、「ベース
声部」を「B部」、「ベースコード声部」を「BC
部」、「メロディコード声部」を「MC部」および「メ
ロディ声部」を「M部」と表記する。さらに、以下の説
明および各フローチャートにおいて各レジスタ、フラグ
およびリスト等を下記のラベルで表記し、それらの内容
は特に断らない限り同一のラベルで表す。
In the flowchart, "bass voice" is "B" and "bass chord voice" is "BC".
The "melody chord voice" is referred to as "MC" and the "melody voice" is referred to as "M". Further, in the following description and each flowchart, each register, flag, list, and the like are represented by the following labels, and their contents are represented by the same label unless otherwise specified.

【0021】BCB:前回の入力音 BS:ベース音 BF:ブロックフラグ CLK:テンポクロック mode:モード(奏法)を示すフラグ(A=アルペジ
オ、C=コード、N=ノーマル) NT:入力音 NT:1音解析時の解析の対象となる入力音 NTL:3音解析時の押鍵下音 NTM:3音解析時の押鍵中音 NTH:3音解析時の押鍵上音 PB:前回のベース声部 PBC:前回のベースコード声部 PMC:前回のメロディコード声部 PM:前回のメロディ声部 PBCTP:前回のベースコード声部の最高音 PMBT:前回のメロディコード声部およびメロディ声
部の最低音 RUN:自動伴奏のスタート/ストップを示すフラグ
BCB: previous input sound BS: base sound BF: block flag CLK: tempo clock mode: flag indicating mode (playing style) (A = arpeggio, C = chord, N = normal) NT: input sound NT: 1 Input sound to be analyzed at the time of sound analysis NTL: Key press lower sound at the time of analysis of three sounds NTM: Key press middle sound at the time of analysis of three sounds NTH: Key press upper sound at the time of analysis of three sounds PB: Previous bass voice Part PBC: Previous bass chord voice PMC: Previous melody chord voice PM: Previous melody chord PBCTP: Highest tone of previous bass chord voice PMBT: Last tone of last melody chord voice and melody voice RUN: Flag indicating start / stop of automatic accompaniment

【0022】電源の投入によって図3のメインルーチン
の処理を開始すると、ステップA1で各フラグおよびレ
ジスタのリセット等の初期設定を行い、ステップA2で
鍵盤4におけるキーイベントの有無を判定し、キーイベ
ントが無ければステップA8に進み、キーイベントが有
ればステップA3でキーオンイベントであるか否かを判
定する。キーオンイベントであればステップA4で発音
処理行い、ステップA5でキーコードリストにキーコー
ドを追加してステップA8に進む。また、キーオンイベ
ントでなければステップA6で消音処理を行い、ステッ
プA7でキーコードリストからキーコードを削除してス
テップA8に進む。
When the process of the main routine shown in FIG. 3 is started by turning on the power, initial settings such as resetting of flags and registers are performed in step A1, and the presence or absence of a key event on the keyboard 4 is determined in step A2. If there is no key event, the process proceeds to step A8, and if there is a key event, it is determined in step A3 whether or not it is a key-on event. If it is a key-on event, a sound generation process is performed in step A4, and a key code is added to the key code list in step A5, and the process proceeds to step A8. If the event is not a key-on event, the mute process is performed in step A6, the key code is deleted from the key code list in step A7, and the process proceeds to step A8.

【0023】ステップA8では、操作スイッチ8におけ
るスタート/ストップスイッチの操作イベントの有無を
判定し、イベントが無ければステップA13に進み、操
作イベントが有ればステップA9でフラグRUNを反転
し、ステップA10で「RUN=1」であるか否かを判
定する。そして、「RUN=1」であればステップA1
1で伴奏パターンの読み出しポインタをセットするとと
もに、テンポクロックCLKおよびブロックフラグBF
をリセットしてステップA13に進む。また、「RUN
=0」であればステップA12で伴奏音を消音してステ
ップA13に進む。
In step A8, it is determined whether or not there is an operation event of the start / stop switch of the operation switch 8. If there is no event, the process proceeds to step A13. If there is an operation event, the flag RUN is inverted in step A9, and step A10 is executed. It is determined whether or not “RUN = 1”. Then, if "RUN = 1", step A1
1 to set the read pointer of the accompaniment pattern, the tempo clock CLK and the block flag BF.
Is reset and the process proceeds to step A13. Also, "RUN
If "= 0", the accompaniment sound is muted in step A12, and the process proceeds to step A13.

【0024】ステップA13では、操作スイッチ8にお
ける調設定スイッチ、スタイル選択スイッチ、テンポ設
定スイッチ等の操作イベントを検出し、操作イベントが
あればステップA14で各操作イベントに応じた設定処
理を行い、ステップA15でその他の処理を行ってステ
ップA2に戻る。
In step A13, operation events such as a key setting switch, a style selection switch, and a tempo setting switch of the operation switches 8 are detected, and if there is an operation event, a setting process corresponding to each operation event is performed in step A14. Other processing is performed in A15, and the process returns to step A2.

【0025】以上の処理により、鍵盤演奏における発音
と消音が行われるとともに、操作スイッチ8におけるス
タート/ストップスイッチの操作による自動伴奏の開始
と停止、および調性の設定、スタイルの選択、テンポの
設定等が行われる。
With the above processing, the sounding and silencing of the keyboard performance is performed, the start / stop of the automatic accompaniment by operating the start / stop switch of the operation switch 8, the setting of the tonality, the selection of the style, and the setting of the tempo. Etc. are performed.

【0026】図4の割込み処理はタイマ9からのテンポ
クロックによって96分の1小節毎に起動され、先ず、
ステップB1で、「RUN=1」であるか否かを判定
し、「RUN=1」でなければ元のルーチンに復帰し、
「RUN=1」であれば、ステップB2で「CLK m
od 12=0」であるか否かを判定し、「CLK m
od 12=0」でなければステップB14に進み、
「CLK mod 12=0」であればステップB3で
図5のグループ解析の処理を行ってステップB4以降で
グループ解析の結果に基づいて和音検出を行う。すなわ
ち、グループ解析および和音検出の処理は8分音符毎に
行われる。
The interrupt process shown in FIG. 4 is started every 1/96 bar by the tempo clock from the timer 9.
In step B1, it is determined whether or not "RUN = 1". If "RUN = 1", the process returns to the original routine.
If "RUN = 1", then in step B2, "CLK m
od 12 = 0 ”is determined, and“ CLK m
od 12 = 0 ”, the process proceeds to step B14,
If “CLK mod 12 = 0”, the group analysis processing of FIG. 5 is performed in step B3, and chord detection is performed based on the group analysis result in step B4 and subsequent steps. That is, the group analysis and chord detection processing are performed for each eighth note.

【0027】ステップB3でグループ解析が終了する
と、ステップB4ベースコード声部の検出音の有無を判
定し、ベースコード声部に検出音があればステップB5
でベースコード声部のキーコードにより和音を検出す
る。ベースコード声部に検出音が無ければステップB6
でメロディコード声部の検出音の有無を判定し、メロデ
ィコード声部に検出音があればステップB7でメロディ
コード声部のキーコードにより和音を検出する。
When the group analysis is completed in step B3, it is determined in step B4 whether or not a detected sound is present in the base chord voice portion.
The chord is detected by the key code of the bass chord voice part. If there is no detected sound in the bass chord voice, step B6
Is used to determine the presence or absence of a detected sound in the melody chord voice portion, and if there is a detection sound in the melody chord voice portion, a chord is detected from the key code of the melody chord voice portion in step B7.

【0028】さらにメロディコード声部に検出音が無け
ればステップB8でメロディ声部の検出音の有無を判定
し、メロディ声部に検出音があればステップB9でメロ
ディ声部のキーコードにより和音を検出する。そして、
メロディ声部にも検出音が無ければ前回の和音を継続す
ることにしてステップB14に進む。
Further, if there is no detected sound in the melody chord voice part, it is determined in step B8 whether or not there is a detection sound in the melody voice part. To detect. And
If there is no detected sound in the melody voice part, the previous chord is continued and the process proceeds to step B14.

【0029】ステップB5でベースコード声部による和
音検出を行うと、ステップB10でベースコード声部に
3音以上あるか否かを判定し、3音以上であればステッ
プB11で「mode=A」であるか否か、すなわち、
モードがアルペジオであるか否かを判定し、「mode
=A」であればステップB12でベース声部のキーコー
ドをレジスタBSに格納してステップB14に進む。
When a chord is detected by the bass chord voice portion in step B5, it is determined in step B10 whether or not the bass chord voice portion has three or more sounds. If the chord is three or more, "mode = A" is determined in step B11. Or not, that is,
It is determined whether the mode is arpeggio or not.
= A ", the key code of the bass voice is stored in the register BS in step B12, and the flow advances to step B14.

【0030】また、ベースコード声部に3音以上無い場
合(ステップB10)、モードがアルペジオでない場合
(ステップB11)、ステップB7でメロディコード声
部による和音検出を行った場合、およびステップB9で
メロディ声部による和音検出を行った場合は、それぞれ
ステップB13で検出和音の根音をレジスタBSに格納
してステップB14に進む。
When there are no more than three tones in the bass chord voice (step B10), when the mode is not arpeggio (step B11), when a chord is detected by the melody chord voice in step B7, and when the melody is detected in step B9. When the chord is detected by the voice part, the root of the detected chord is stored in the register BS in step B13, and the process proceeds to step B14.

【0031】以上の処理により、グループ解析で得られ
た全解析リストに基づいてベースコード声部とメロディ
コード声部の検出音が和音検出に用いられ、ベースコー
ド声部、メロディコード声部およびメロディ声部の順に
優先順位を持たせて和音検出が行われる。
With the above processing, the detected sounds of the base chord voice and the melody chord voice are used for chord detection based on the entire analysis list obtained by the group analysis, and the base chord voice, the melody chord voice and the melody chord are used. Chord detection is performed by giving priority to voice parts.

【0032】また、ベースコード声部の検出音が3音以
上でモードがアルペジオであった場合にはベース音BS
としてベース声部のキーコードが用いられ、それ以外の
場合はベース音として検出和音の根音が用いられる。す
なわち、図2で説明したように、アルペジオ奏法の場合
は最初の音をベース音とし、コード奏法の場合は和音の
根音をベース音とされる。
If the detected sound of the bass chord voice is three or more and the mode is arpeggio, the bass sound BS
, The key code of the bass voice is used, otherwise the root of the detected chord is used as the bass sound. That is, as described with reference to FIG. 2, in the case of the arpeggio playing method, the first sound is used as the base sound, and in the case of the chord playing method, the root sound of the chord is used as the base sound.

【0033】ステップB14では、スタイル、mode
およびCLKに基づいて伴奏パターンを読み出して再生
する。伴奏パターンはスタイル、モード毎にあり、その
時のスタイル、modeに応じて選択され、CLKに基
づいて読み出される。読み出された伴奏パターンのキー
コードは調および検出和音により音高変換して再生す
る。また、ベースパターンはベース音BSに応じて音高
変換して再生する。そして、ステップB15でテンポク
ロックCLKをインクリメントして元のルーチンに復帰
する。
In step B14, the style, mode
And CLK are read and reproduced based on and CLK. The accompaniment pattern is provided for each style and mode. The accompaniment pattern is selected according to the style and mode at that time, and is read out based on CLK. The read keycode of the accompaniment pattern is reproduced by converting the pitch according to the key and the detected chord. Further, the bass pattern is reproduced after converting the pitch according to the bass sound BS. Then, in step B15, the tempo clock CLK is incremented and the process returns to the original routine.

【0034】図5のグループ解析では、ステップC1で
「BF=1」であるか否かを判定し、「BF=1」であ
ればステップC2で「入力音数が0またはBCBに入力
音が含まれている」という条件を満足するか否かを判定
し、条件を満足すればステップC9に進み、条件を満足
しなければステップC3でブロックフラグBFをクリア
してステップC9に進む。すなわち、前回までがブロッ
クコードで現在の入力音が無いか前回の入力音に含まれ
ている場合はブロックフラグBFを現在のまま“1”に
し、入力音が新たな音の場合にはブロックフラグBFを
“0”にする。
In the group analysis of FIG. 5, it is determined in step C1 whether or not "BF = 1". If "BF = 1", then in step C2, "the number of input sounds is 0 or the input sound is It is determined whether or not the condition "included" is satisfied. If the condition is satisfied, the process proceeds to step C9. If the condition is not satisfied, the block flag BF is cleared in step C3 and the process proceeds to step C9. That is, if there is no current input sound or the current input sound is included in the previous input sound, the block flag BF is set to “1” as it is, and if the input sound is a new sound, the block flag BF is set to “1”. BF is set to “0”.

【0035】ステップC1でBF=1でなければステッ
プC4で入力音が4音以上であるか否かを判定し、4音
以上であればステップC7に進み、4音以上でなければ
ステップC5で入力音が3音であるかを判定する。3音
でなければステップC9に進み、3音であれば、ステッ
プC6で「上2音の音程(音高差)が8度または6度」
という条件を満足するか否かを判定し、条件を満足すれ
ばステップC9に進み、条件を満足しなければステップ
C7でブロックフラグBFを“1”にセットし、ステッ
プC8で現在の入力音をレジスタBCBに格納してステ
ップC9に進む。
If it is not BF = 1 at step C1, it is determined at step C4 whether or not the input sound is four or more. If it is four or more, the process proceeds to step C7. If not, the process proceeds to step C5. It is determined whether there are three input sounds. If it is not three, proceed to step C9. If it is three, in step C6, "the upper two pitches (pitch difference) are 8 or 6".
It is determined whether or not the condition is satisfied. If the condition is satisfied, the process proceeds to step C9. If the condition is not satisfied, the block flag BF is set to “1” in step C7. The value is stored in the register BCB, and the process proceeds to Step C9.

【0036】以上の処理により、入力音が4音以上の場
合はブロックコードと判定し、3音の場合は条件付きで
ブロックコードと判定される。例えば、ベース単音とメ
ロディ2音が同時に弾かれた場合などのように3音でも
ブロックコードといえない場合(上2音の音程が8度ま
たは6度のとき)はブロックコードと判定しないように
なっている。
According to the above processing, if the number of input sounds is four or more, it is determined to be a block code, and if the number of input sounds is three, it is determined to be a block code with a condition. For example, when three notes are not a block chord, such as when a single bass note and two melody notes are played at the same time (when the pitch of the upper two notes is 8th or 6th), do not judge it as a block chord. Has become.

【0037】ステップC9では、前回のメロディ声部の
検出音(メロディ音)をリストPMに、前回のメロディ
コード声部の検出音(メロディコード音)をリストPM
Cに、前回のベースコード声部の検出音(ベースコード
音)をリストPBCに、前回のベース声部の検出音(ベ
ース音)をレジスタPBにそれぞれ格納して前回の解析
結果を各リストおよびレジスタに記憶し、ステップC1
0に進む。
In step C9, the detected sound (melody sound) of the previous melody voice part is put on the list PM, and the detected sound (melody chord sound) of the previous melody chord voice part is put on the list PM.
C, the last detected sound of the base chord voice (base chord sound) is stored in a list PBC, and the last detected sound of the base chord voice (bass sound) is stored in a register PB. Step C1
Go to 0.

【0038】ステップC10では、入力音の数を判定し
て、0音の場合(入力音無しの場合)はステップC11
以降の処理を行い、1音の場合はステップC15で(入
力音)をNt に格納してステップC16で図6の1音解
析の処理を行い、3音の場合はステップC17で図10
の3音解析の処理を行い、その他の場合はステップC1
8で2音または4音以上の場合の解析をそれぞれ行って
元のルーチンに復帰する。
In step C10, the number of input sounds is determined, and if there is no sound (no input sound), step C11 is executed.
The following processing is performed. If there is one sound, the (input sound) is stored in Nt in step C15, the one-sound analysis processing of FIG. 6 is performed in step C16, and if there are three sounds, the processing in FIG.
Is performed, and otherwise, step C1 is performed.
In step 8, analysis is performed for two or four or more sounds, and the process returns to the original routine.

【0039】ステップC11では現在のタイミングが小
節頭であるか否かを判定し、小節頭であればステップC
12で全解析リストを[[PB].[].[].[]]
にして前回のベース音だけを有効にして元のルーチンに
復帰する。また、小節頭でなければステップC13で現
在のタイミングが弱拍であるか否かを判定し、弱拍であ
れば元のルーチンに復帰し、弱拍でなければ、すなわ
ち、強拍であればステップC14で全解析リスト
を[[].[].[].[]](全て空リスト)にして
元のルーチンに復帰する。
In step C11, it is determined whether or not the current timing is a bar head.
12, the entire analysis list is changed to [[PB]. []. []. []]
To enable only the previous bass sound and return to the original routine. If it is not the bar, it is determined in step C13 whether or not the current timing is a weak beat. If it is a weak beat, the process returns to the original routine. If it is not a weak beat, that is, if it is a strong beat, In step C14, all the analysis lists are changed to [[]. []. []. []] (All empty list) and return to the original routine.

【0040】図6の1音解析では、ステップD1で前回
解析結果をリストPNSQに格納するとともにベースコ
ード声部の最高音をレジスタPBCTPに格納し、ステ
ップD2で前回のベース音PBの有無を判定し、前回の
ベース音PBが無ければステップD3で「Nt ≦G3コ
ード(キーコード)」であるか否か、すなわち、入力音
NTが「一点ト(ソ)」またはそれより下の音であるか
否かを判定する。
In the one-sound analysis of FIG. 6, the result of the previous analysis is stored in the list PNSQ in step D1, the highest sound of the bass chord voice part is stored in the register PBCTP, and the presence or absence of the previous base sound PB is determined in step D2. If there is no previous bass sound PB, it is determined in step D3 whether or not "Nt ≤ G3 code (key code)", that is, the input sound NT is a "one-point sound" or lower. It is determined whether or not.

【0041】「NT≦G3コード」であれば、NTをベ
ース音とみなしてステップD10で全解析リストを
[[NT].[].[].[]]とするとともにmod
eをノーマル(N)にして元のルーチンに復帰する。ま
た、「NT≦G3コード」でなければNTをメロディ音
とみなしてステップD4で全解析リスト
を[[].[].[].[NT]]として元のルーチン
に復帰する。
If "NT≤G3 code", NT is regarded as a bass sound, and all analysis lists are set to [[NT]. []. []. []] And mod
Set e to normal (N) and return to the original routine. If “NT ≦ G3 code” is not satisfied, NT is regarded as a melody sound, and the entire analysis list is set to [[]. []. []. [NT]] and returns to the original routine.

【0042】ステップD2で前回のベース音PBが有れ
ば、ステップD5で現在のタイミングが小節頭であるか
否かを判定し、小節頭であればステップD9以降の処理
を行い、小節頭でなければステップD6で現在のタイミ
ングが強拍か否かを判定して、強拍であればステップD
7で図7の強拍解析の処理を行って元のルーチンに復帰
し、強拍でなければステップD8で図8の弱拍解析の処
理を行って元のルーチンに復帰する。
If there is a previous bass sound PB in step D2, it is determined in step D5 whether or not the current timing is the beginning of a measure. If the present timing is the beginning of a measure, the processing after step D9 is performed. If not, it is determined in step D6 whether or not the current timing is a strong beat.
In step 7, the processing of the strong beat analysis of FIG. 7 is performed, and the process returns to the original routine. If it is not a strong beat, in step D8, the process of the weak beat analysis of FIG. 8 is performed, and the process returns to the original routine.

【0043】ステップD9以降は、現在のタイミングが
小節頭であった場合の処理であり、先ずステップD9
で、「NT=PB」であるか否かすなわち入力音が前回
のベース音と同じであるか否かを判定し、同じであれば
ステップD10の処理を行い、同じでなければステップ
D11で「Nt ≦C4コードかつNt <PB+12」の
条件を満足するか否かを判定する。
Step D9 and subsequent steps are processing when the current timing is at the beginning of a bar.
Then, it is determined whether or not “NT = PB”, that is, whether or not the input sound is the same as the previous bass sound. If it is the same, the process of step D10 is performed. It is determined whether the condition of Nt ≦ C4 code and Nt <PB + 12 is satisfied.

【0044】ステップD11で条件を満足すればステッ
プD10に進み、条件を満足しなければステップD12
で「Nt >C4コードかつNt <PBS+完全5度」の
条件を満足するか否かを判定する。ステップD12で条
件を満足すればステップD10に進み、条件を満足しな
ければ入力音NTをメロディ音と判定して、ステップD
13で全解析リストを[[].[].[].[NT]]
とするとともにmodeをノーマル(N)にして元のル
ーチンに復帰する。
If the condition is satisfied in step D11, the process proceeds to step D10. If the condition is not satisfied, step D12 is performed.
It is determined whether or not the condition of "Nt> C4 code and Nt <PBS + complete 5 degrees" is satisfied. If the condition is satisfied in step D12, the process proceeds to step D10. If the condition is not satisfied, the input sound NT is determined to be a melody sound.
13, the entire analysis list is [[]. []. []. [NT]]
And set the mode to normal (N) and return to the original routine.

【0045】以上のように、1音解析では、前回ベース
音がない場合はG3コードを基準にしてベース声部かメ
ロディ声部に割り当て、前回ベース音がある場合は現在
のタイミングが小節頭であるか否かによって異なる条件
で解析を行う。小節頭の場合は前回ベース音PBSとC
4コードに応じた条件で解析を行い、ベース声部または
メロディ声部に割り当てられる。また、前回ベース音が
あり、現在のタイミングが小節頭でない場合は、現在の
タイミングが強拍のタイミングか弱拍のタイミングかに
応じて解析を行う。
As described above, in the one-sound analysis, if there is no previous bass sound, it is assigned to the bass voice or melody voice based on the G3 code. Analysis is performed under different conditions depending on whether or not there is. At the beginning of the measure, the previous bass sounds PBS and C
The analysis is performed under the conditions corresponding to the four codes, and is assigned to the bass voice or the melody voice. If there is a previous bass sound and the current timing is not the beginning of a bar, the analysis is performed according to whether the current timing is a strong beat timing or a weak beat timing.

【0046】図7の強拍解析の処理では、ステップE1
で入力音NTが前回のベース音PBと同じであるか否か
を判定し、同じであればステップE2で全解析リストを
[[PB].PBC.[].[]]として元のルーチン
に復帰する。すなわち、同じ音であればベース音とベー
スコード音は前回のままにする。
In the processing of the strong beat analysis of FIG.
To determine whether or not the input sound NT is the same as the previous bass sound PB. If the input sound NT is the same, the entire analysis list is set to [[PB]. PBC. []. []] Is returned to the original routine. In other words, if the sound is the same, the bass sound and the bass chord sound are left as they were last time.

【0047】また、同じでなければステップE3で「P
B−長2度≦NT<PB+長2度」の条件を満足するか
否かを判定し、条件を満足すればすなわち前回ベース音
の近傍の範囲内にあれば、入力音NTをベース音とみな
してステップE4で全解析リストを[[NT].[].
[].[]]として元のルーチンに復帰する。
If they are not the same, "P
It is determined whether or not the condition of B−second major ≦ NT <PB + second major is satisfied. If the condition is satisfied, that is, if the condition is within the vicinity of the previous bass sound, the input sound NT is regarded as the base sound. Considering all the analysis lists in step E4 as [[NT]. [].
[]. []] Is returned to the original routine.

【0048】また、「PB−長2度≦NT<PB+長2
度」の条件を満足しなければステップE5で「NT<P
B−長2度」の条件を満足するか否かを判定し、条件を
満足すればステップE6に進み、条件を満足しなければ
ステップE10に進む。
Also, "PB-length 2 degrees≤NT <PB + length 2
If the condition of “degree” is not satisfied, “NT <P” is determined in step E5.
It is determined whether or not the condition of "B-2 degrees" is satisfied. If the condition is satisfied, the process proceeds to step E6, and if not, the process proceeds to step E10.

【0049】ステップE6では「BF=1」であるか否
かを判定し、「BF=1」であれば入力音NTをベース
音とみなしてステップE7で全解析リストを[[N
T].[].[].[]]とするとともにmodeをア
ルペジオ(A)にして元のルーチンに復帰する。また、
「BF=1」でなければステップE8で前回のベースコ
ード声部PBCに前回のベース音PBを加入してリスト
CBCNTに格納し、ステップE9で全解析リストを
[[NT].CBCNT.[].[]]とするとともに
modeをコード(C)にして元のルーチンに復帰す
る。
At step E6, it is determined whether or not "BF = 1". If "BF = 1", the input sound NT is regarded as a base sound, and at step E7 the entire analysis list is changed to [[N
T]. []. []. []] And mode is changed to arpeggio (A), and the process returns to the original routine. Also,
If not "BF = 1", the previous bass sound PB is added to the previous bass chord voice part PBC in step E8 and stored in the list CBCNT. In step E9, the entire analysis list is [[NT]. CBCNT. []. []] And change the mode to code (C) and return to the original routine.

【0050】ステップE10以降の処理は、ステップE
5で、「NT<PB−長2度」の条件を満足しない場合
であり、先ず、「NT≦PBCTP」の条件を満足する
か否かを判定し、条件を満足すればステップE12に進
み、満足しなければ、すなわち、入力音NTが前回のベ
ースコード声部の最高音より高い場合はステップE11
で図9のアルペジオ拡張の処理を行って元のルーチンに
復帰する。
The processing after step E10 is performed at step E10.
5 is a case where the condition of “NT <PB−2 degrees of length” is not satisfied. First, it is determined whether or not the condition of “NT ≦ PBCTP” is satisfied. If the condition is satisfied, the process proceeds to step E12. If it is not satisfied, that is, if the input sound NT is higher than the highest tone of the previous bass chord voice, step E11 is executed.
Then, the arpeggio expansion process shown in FIG. 9 is performed, and the process returns to the original routine.

【0051】ステップE12では「mode=C」であ
るか否かを判定し、「mode=C」であれば、NTを
メロディ音とみなして、ステップE13で前回のベース
コード声部からNT以上高い音を除去してリストCBC
NTに格納し、ステップE14で全解析リストを[[P
B].CBCNT.[].[NT]]として元のルーチ
ンに復帰する。
In step E12, it is determined whether or not "mode = C". If "mode = C", NT is regarded as a melody sound, and in step E13, NT is higher than the previous bass chord voice by NT or more. Remove sound and list CBC
NT and stores all the analysis lists in [E
B]. CBCNT. []. [NT]] and returns to the original routine.

【0052】また、ステップE12で「mode=C」
でなければ、ステップE15でNTがPBCに含まれて
いるか否かを判定し、含まれていればステップE16で
全解析リストを[[PB].PBC.[].[]]とし
て元のルーチンに復帰し、NTがPBCに含まれていな
ければ、NTをベース音とみなしてステップE17で全
解析リストを[[NT].[].[].[]]とすると
ともにmodeをコード(C)にして元のルーチンに復
帰する。
In step E12, "mode = C"
If not, it is determined in step E15 whether or not NT is included in the PBC, and if it is included, the entire analysis list is set to [[PB]. PBC. []. []] And returns to the original routine. If NT is not included in the PBC, NT is regarded as a bass sound and the entire analysis list is set to [[NT]. []. []. []] And change the mode to code (C) and return to the original routine.

【0053】以上の強拍解析の処理において、ステップ
E10で入力音NTが前回のベースコード声部の最高音
PBCTPより高い場合はステップE11でアルペジオ
拡張が行われ、入力音NTがベースコード声部のリスト
に加入されてベースコード声部のリストが拡張される傾
向になる。
In the above-mentioned processing of the strong beat analysis, if the input sound NT is higher than the highest tone PBCTP of the previous bass chord voice portion at step E10, arpeggio expansion is performed at step E11, and the input sound NT becomes the base chord voice portion. And the list of base chord voices tends to be expanded.

【0054】また、この強拍解析の場合は、ステップE
15で入力音NTが前回のベースコード声部に含まれて
いない場合は、ステップE17で入力音NTがベース声
部とされる傾向になる。
In the case of this strong beat analysis, step E
If the input sound NT is not included in the previous bass chord voice part at 15, the input sound NT tends to be the bass voice part at step E17.

【0055】図8の弱拍解析の処理では、ステップF1
で入力音NTが前回のベース音PBと同じであるか否か
を判定し、同じであればステップF2で全解析リストを
[[PB].PBC.[].[]]として元のルーチン
に復帰する。また、同じでなければステップF3で「N
T<PB」であるか否かを判定し、「NT<PB」であ
ればステップF4に進み、「NT<PB」でなければス
テップF10に進む。
In the processing of the weak beat analysis of FIG.
To determine whether or not the input sound NT is the same as the previous bass sound PB. If the same, the entire analysis list is set to [[PB]. PBC. []. []] Is returned to the original routine. If they are not the same, "N"
It is determined whether or not T <PB. If “NT <PB”, the process proceeds to step F4, and if “NT <PB”, the process proceeds to step F10.

【0056】ステップF4では「BF=1」であるか否
かを判定し、「BF=1」であれば入力音NTをベース
音とみなしてステップF5で全解析リストを[[N
T].[].[].[]]とするとともにmodeをア
ルペジオ(A)にして元のルーチンに復帰する。また、
「BF=1」でなければステップF6で前回のベースコ
ード声部PBCに前回のベース音PBを加入してリスト
CBCNTに格納し、ステップF7で全解析リストを
[[NT].CBCNT.[].[]]としてステップ
F8に進む。
In step F4, it is determined whether or not "BF = 1". If "BF = 1", the input sound NT is regarded as a base sound, and in step F5 the entire analysis list is changed to [[N
T]. []. []. []] And mode is changed to arpeggio (A), and the process returns to the original routine. Also,
If not "BF = 1", the previous bass sound PB is added to the previous bass chord voice part PBC in step F6 and stored in the list CBCNT. In step F7, the entire analysis list is set to [[NT]. CBCNT. []. []] And proceeds to step F8.

【0057】ステップF8では「mode=A」である
か否かを判定し、「mode=A」であれば元のルーチ
ンに復帰し、「mode=A」でなければステップF9
でmodeをコード(C)にして元のルーチンに復帰す
る。
In step F8, it is determined whether or not "mode = A". If "mode = A", the process returns to the original routine. If "mode = A", the process returns to step F9.
To change the mode to code (C) and return to the original routine.

【0058】ステップF10以降は、ステップF3で
「NT<PB」でない場合の処理であり、先ず、「PB
<NT≦PB+長2度」の条件を満足するか否かを判定
し、条件を満足しなければステップF12に進み、満足
すればれば、すなわち、入力音NTが前回のベース音の
上長2度以内であれば入力音NTをベース音とみなして
ステップF11で全解析リストを[[N
T].[].[].[]]とするとともにmodeをノ
ーマル(N)にして元のルーチンに復帰する。
Step F10 and subsequent steps are processing in the case where "NT <PB" is not satisfied in step F3.
It is determined whether or not the condition of <NT ≦ PB + second major ”is satisfied. If the condition is not satisfied, the process proceeds to step F12. If it is within the degree, the input sound NT is regarded as the base sound, and the whole analysis list is changed to [[N
T]. []. []. []] And the mode is set to normal (N), and the process returns to the original routine.

【0059】ステップF12では「NT≦PBCTP」
の条件を満足するか否かを判定し、条件を満足すればス
テップF14に進み、満足しなければ、すなわち、入力
NTが前回のベースコード声部の最高音より高い場合は
ステップF13で図9のアルペジオ拡張の処理を行って
元のルーチンに復帰する。
In step F12, "NT≤PBCTP"
It is determined whether or not the condition is satisfied. If the condition is satisfied, the process proceeds to step F14. If the condition is not satisfied, that is, if the input NT is higher than the highest tone of the previous bass chord voice, the process proceeds to step F13. And then returns to the original routine.

【0060】ステップF14では「mode=C」であ
るか否かを判定し、「mode=C」であれば、NTを
メロディ音とみなして、ステップF15で前回のベース
コード声部からNT以上高い音を除去してリストCBC
NTに格納し、ステップF16で全解析リストを[[P
B].CBCNT.[].[NT]]として元のルーチ
ンに復帰する。
In step F14, it is determined whether or not "mode = C". If "mode = C", NT is regarded as a melody sound, and in step F15, NT is higher than the previous bass chord voice by NT or more. Remove sound and list CBC
NT, and in step F16, the entire analysis list is set to [[P
B]. CBCNT. []. [NT]] and returns to the original routine.

【0061】また、ステップF14で「mode=C」
でなければ、ステップF17でNTがPBCに含まれて
いるか否かを判定し、含まれていればステップF18で
全解析リストを[[PB].PBC.[].[]]とし
て元のルーチンに復帰する。NTがPBCに含まれてい
なければ、NTをベース音とみなしてステップF19で
前回のベースコード声部PBCに入力音NTを加入して
リストCBCNTに格納し、ステップF20で全解析リ
ストを[[NT].CBCNT.[].[]]とすると
ともにmodeをアルペジオ(A)にして元のルーチン
に復帰する。
In step F14, "mode = C"
If not, it is determined in step F17 whether or not NT is included in the PBC, and if it is, the entire analysis list is set to [[PB]. PBC. []. []] Is returned to the original routine. If NT is not included in the PBC, the input sound NT is added to the previous bass chord voice part PBC in step F19 and stored in the list CBCNT in step F19. NT]. CBCNT. []. []] And mode is changed to arpeggio (A), and the process returns to the original routine.

【0062】以上の弱拍解析の処理において、ステップ
F12で入力音NTが前回のベースコード声部の最高音
PBCTPより高い場合はステップF13でアルペジオ
拡張が行われ、入力音NTがベースコード声部のリスト
に加入されてベースコード声部のリストが拡張される傾
向になる。
In the above weak beat analysis processing, if the input sound NT is higher than the highest tone PBCTP of the previous bass chord voice portion in step F12, arpeggio expansion is performed in step F13, and the input sound NT becomes the base chord voice portion. And the list of base chord voices tends to be expanded.

【0063】また、この弱拍解析の場合は、ステップF
17で入力音NTが前回のベースコード声部に含まれて
いない場合でも、ステップF19およびステップF20
により、入力音NTがベースコード声部のリストに加入
されてベースコード声部のリストが拡張され、モードが
アルペジオとなる傾向になる。
In the case of this weak beat analysis, step F
Even if the input sound NT is not included in the previous bass chord voice part in Step 17, even if Step F19 and Step F20
As a result, the input sound NT is added to the list of bass chord voices, the list of bass chord voices is expanded, and the mode tends to be arpeggio.

【0064】さらに、前記強拍解析のステップE17の
処理により入力音NTがベース音とされる傾向がある
が、弱拍解析のステップF20ではベース音は前回のベ
ース音PBとされ、この弱拍解析は強拍解析よりもベー
ス音が変化しにくいようになっている。
Further, the input sound NT tends to be the base sound by the processing of the step E17 of the strong beat analysis, but in the weak beat analysis step F20, the base sound is set to the previous base sound PB. The analysis is such that the bass sound is harder to change than the strong beat analysis.

【0065】図9のアルペジオ拡張の処理では、ステッ
プG1で前回のメロディコード声部と前回のメロディ声
部の中の最低音をレジスタPMBTに格納し、ステップ
G2で入力音NTが前回の押鍵音に含まれているか否か
を判定する。含まれていれば入力音NTをメロディ音と
みなしてステップG3で全解析リストを[[PB].P
BC.[].[NT]]とし、元のルーチンに復帰す
る。
In the arpeggio expansion process shown in FIG. 9, the previous melody chord voice part and the lowest tone in the previous melody voice part are stored in the register PMBT in step G1, and the input sound NT is changed to the previous key depression in step G2. It is determined whether or not the sound is included. If it is included, the input sound NT is regarded as a melody sound, and the entire analysis list is set to [[PB]. P
BC. []. [NT]], and returns to the original routine.

【0066】また、入力音NTが前回の押鍵音に含まれ
ていなければ、ステップG4で「mode=C」である
か否かを判定し、「mode=C」であればステップG
3に進み、「mode=C」でなければステップG5で
「前回のメロディ声部PMがあり、かつ、PMBT−N
T≦NT−PBCTP」の条件を満足するか否かを判定
する。
If the input sound NT is not included in the previous key depression sound, it is determined in step G4 whether or not "mode = C". If "mode = C", step G4 is executed.
3 and if not "mode = C", then in step G5, "there is a previous melody voice part PM and PMBT-N
It is determined whether or not the condition of “T ≦ NT-PBCTP” is satisfied.

【0067】ステップG5で条件を満足すればステップ
G3に進み、条件を満足しなければステップG6で「0
<NT−PBCTP≦長6度」の条件を満足するか否か
を判定し、条件を満足すれば入力音NTがベースコード
声部(その最高音PBCTP)に近いので、ステップG
7で前回のベースコード声部PBCに入力音NTを加入
してリストCBCNTに格納し、ステップG8で全解析
リストを[[PB].CBCNT.[].[]]とする
とともにmodeをアルペジオ(A)にして元のルーチ
ンに復帰する。このステップG7,G8の処理により、
アルペジオ拡張が行われる。
If the condition is satisfied in step G5, the process proceeds to step G3. If the condition is not satisfied, "0" is determined in step G6.
It is determined whether or not the condition of <NT-PBCTP ≦ Large 6th ”is satisfied. If the condition is satisfied, the input sound NT is close to the bass chord voice (its highest sound PBCTP).
7, the input sound NT is added to the previous base chord voice part PBC and stored in the list CBCNT. In step G8, the entire analysis list is set to [[PB]. CBCNT. []. []] And mode is changed to arpeggio (A), and the process returns to the original routine. By the processing of steps G7 and G8,
Arpeggio expansion is performed.

【0068】なお、ステップG6で条件を満足しなけれ
ば、ステップG9で全解析リストを[[PB].PB
C.[].[NT]]として元のルーチンに復帰する。
If the condition is not satisfied in step G6, the whole analysis list is changed to [[PB]. PB
C. []. [NT]] and returns to the original routine.

【0069】図10の3音解析の処理では、ステップH
1で、3つの入力音の上音をNTHに、中音をNTM
に、下音をNTLにそれぞれ格納し、ステップH2で下
音NTLをレジスタNTに入れてステップH3で図6の
1音解析を行う。
In the three-tone analysis process of FIG.
1, the upper sound of three input sounds is set to NTH, and the middle sound is set to NTM.
Then, the lower tone is stored in the NTL, the lower tone NTL is stored in the register NT in step H2, and the single tone analysis of FIG. 6 is performed in step H3.

【0070】下音NTLについての1音解析が終了する
と、ステップH4で1音解析の結果が[[NT].*.
[].[]](記号「*」は何でもよい場合を示してい
る。)の条件を満足するか否かを判定し、条件を満足す
れば、すなわち、3音の下音がベース音で、メロディコ
ード音とメロディ音が無い場合はステップH6に進み、
条件を満足しなければステップH5で図11の3音解析
の処理を行って元のルーチンに復帰する。
When the one-tone analysis for the lower tone NTL is completed, the result of the one-tone analysis is [[NT]. *.
[]. []] (Symbol “*” indicates a case where anything is acceptable). It is determined whether or not the condition is satisfied. If the condition is satisfied, that is, the lower note of three sounds is a bass sound and the melody code If there is no sound and melody sound, proceed to step H6,
If the conditions are not satisfied, the processing of the three-sound analysis of FIG. 11 is performed in step H5, and the process returns to the original routine.

【0071】ステップH6では、「3音の間隔が各々5
度以内」という条件を満足するか否かを判定し、条件を
満足しなければステップH8に進み、条件を満足すれば
ステップH7で全解析リストを[[NTL].[NT
M.NTH].[].[]]とするとともにmodeを
コード(C)にして元のルーチンに復帰する。
In step H6, "the interval between three sounds is 5
It is determined whether or not the condition of “within degrees” is satisfied. If the condition is not satisfied, the process proceeds to step H8. If the condition is satisfied, the entire analysis list is set to [[NTL]. [NT
M. NTH]. []. []] And change the mode to code (C) and return to the original routine.

【0072】ステップH8では、「3音の下2音の間隔
が5度以内」という条件を満足するか否かを判定し、条
件を満足しなければステップH10に進み、条件を満足
すればステップH9で全解析リストを[[NTL].
[NTM].[].[NTH]]とするとともにmod
eをコード(C)にして元のルーチンに復帰する。
At step H8, it is determined whether or not the condition that "the interval between the lower two sounds of three sounds is within 5 degrees" is satisfied. If the condition is not satisfied, the process proceeds to step H10. H9, the entire analysis list was changed to [[NTL].
[NTM]. []. [NTH]] and mod
e is changed to code (C) and the process returns to the original routine.

【0073】ステップH10では、「3音の上2音の間
隔が5度以内」という条件を満足するか否かを判定し、
条件を満足しなければステップH12に進み、条件を満
足すればステップH11で全解析リストを[[NT
L].[].[NTM.NTH].[]]とするととも
にmodeをノーマル(N)にして元のルーチンに復帰
する。
In step H10, it is determined whether or not the condition that "the interval between the three sounds and the two sounds is within 5 degrees" is satisfied.
If the condition is not satisfied, the process proceeds to step H12. If the condition is satisfied, the entire analysis list is changed to [[NT] in step H11.
L]. []. [NTM. NTH]. []] And the mode is set to normal (N), and the process returns to the original routine.

【0074】ステップH12では、「3音の上2音の間
隔が6度または8度」であるという条件を満足するか否
かを判定し、条件を満足しなければステップH13で全
解析リストを[[NTL].[].[].[NTM.N
TH]]とするとともにmodeをノーマル(N)にし
て元のルーチンに復帰する。また、ステップH12で条
件を満足しなければ、ステップH14で全解析リストを
[[NTL].[NTM].[].[NTH]]とする
とともにmodeをコード(C)にして元のルーチンに
復帰する。
In step H12, it is determined whether or not the condition that "the interval between the three sounds and the two sounds is 6 or 8 degrees" is satisfied. If the condition is not satisfied, the entire analysis list is checked in step H13. [[NTL]. []. []. [NTM. N
TH]], mode is set to normal (N), and the process returns to the original routine. If the condition is not satisfied in step H12, the entire analysis list is set to [[NTL]. [NTM]. []. [NTH]] and mode is changed to code (C), and the process returns to the original routine.

【0075】図11の3音解析では、ステップh1で
「3音の間隔が各々5度以内」という条件を満足するか
否かを判定し、条件を満足しなければステップh3に進
み、条件を満足すればステップh2で全解析リストを
[[PB].[].[NTL.NTM.NT
H].[]]として元のルーチンに復帰する。
In the three-tone analysis of FIG. 11, it is determined in step h1 whether or not the condition that "the interval between three tones is within 5 degrees" is satisfied. If the condition is not satisfied, the process proceeds to step h3, where the condition is changed. If satisfied, the entire analysis list is set to [[PB]. []. [NTL. NTM. NT
H]. []] Is returned to the original routine.

【0076】ステップh3では、「3音の下2音の間隔
が5度以内」という条件を満足するか否かを判定し、条
件を満足しなければステップh5に進み、条件を満足す
ればステップh4で全解析リストを[[PB].[NT
L.NTM].[].[NTH]]として元のルーチン
に復帰する。
In step h3, it is determined whether or not the condition that "the interval between the lower two sounds of three sounds is within 5 degrees" is satisfied. If the condition is not satisfied, the process proceeds to step h5. h4, the entire analysis list is changed to [[PB]. [NT
L. NTM]. []. [NTH]] and returns to the original routine.

【0077】ステップh5では、「3音の上2音の間隔
が5度以内」という条件を満足するか否かを判定し、条
件を満足しなければステップh7に進み、条件を満足す
ればステップh6で全解析リストを[[PB].[NT
L].[NTM.NTH].[]]として元のルーチン
に復帰する。
In step h5, it is determined whether or not the condition that "the interval between three sounds and two sounds is within 5 degrees" is satisfied. If the condition is not satisfied, the process proceeds to step h7. h6, the entire analysis list is changed to [[PB]. [NT
L]. [NTM. NTH]. []] Is returned to the original routine.

【0078】ステップh7では、「3音の下2音の間隔
が8度以内」であるという条件を満足するか否かを判定
し、条件を満足しなければステップh11に進み、条件
を満足すればステップh8で「3音の上2音の間隔が6
度または8度」であるという条件を満足するか否かを判
定し、条件を満足しなければステップh9で全解析リス
トを[[PB].[NTL.NTM].[].[NT
H]]として元のルーチンに復帰する。また、条件を満
足すればステップh10で全解析リストを[[PB].
[NTL].[].[NTM.NTH]]として元のル
ーチンに復帰する。
In step h7, it is determined whether or not the condition that "the interval between the lower two sounds of the three sounds is within 8 degrees" is satisfied. If the condition is not satisfied, the process proceeds to step h11, where the condition is satisfied. In step h8, if the interval between the upper three sounds is 6
Degree or 8 degrees ”is satisfied, and if not, the entire analysis list is set to [[PB]. [NTL. NTM]. []. [NT
H]], and returns to the original routine. If the condition is satisfied, the entire analysis list is set to [[PB].
[NTL]. []. [NTM. NTH]] and returns to the original routine.

【0079】ステップh11では、「3音の上2音の間
隔が6度または8度」であるという条件を満足するか否
かを判定し、条件を満足しなければステップh12で全
解析リストを[[PB].[NTL.NTM].[].
[NTH]]として元のルーチンに復帰する。また、条
件を満足すればステップh10で全解析リストを[[P
B].[NTL].[].[NTM.NTH]]として
元のルーチンに復帰する。
In step h11, it is determined whether or not the condition that "the interval between the three sounds and the two sounds is 6 or 8 degrees" is satisfied. If the condition is not satisfied, the entire analysis list is checked in step h12. [[PB]. [NTL. NTM]. [].
[NTH]] and returns to the original routine. If the condition is satisfied, the entire analysis list is changed to [[P
B]. [NTL]. []. [NTM. NTH]] and returns to the original routine.

【0080】上記3音解析および3音解析では、3音
の相互の音程(音高差)に応じて各音を各パートに割り
当て、この割り当て方に応じてモードが設定される。ま
た、2音および4音以上の解析についても同様に音楽的
な条件に応じてパートに割り当てられる。
In the three-tone analysis and the three-tone analysis, each tone is assigned to each part according to the mutual pitch (pitch difference) of the three tones, and a mode is set according to the assignment method. Similarly, analysis of two or more tones is assigned to a part according to musical conditions.

【0081】以上のように、鍵盤4から入力される演奏
情報の同時押鍵数、現在のタイミングが小節の頭である
か否か、現在のタイミングが強拍音か弱拍音か、前のベ
ース声部音との音程、3音解析のように同時に押鍵され
た音の音程などに基づいて奏法が検出される。
As described above, the number of simultaneous key presses of the performance information input from the keyboard 4, whether or not the current timing is the beginning of a bar, whether the current timing is a strong beat or a weak beat, The playing style is detected based on the pitch between the bass voice and the pitch of the keys that are simultaneously depressed as in the case of three-tone analysis.

【0082】そして、この実施例では検出した奏法に応
じて演奏情報をグループ分けするようにしているので、
演奏に適したパートに分解することができる。また、こ
のように分解されたパートのキーコードに基づいて和音
を検出するようにしているので、和音構成音を奏法に応
じて抽出することができ、和音検出の精度を高めること
ができる。
In this embodiment, the performance information is grouped according to the detected playing style.
It can be decomposed into parts suitable for playing. In addition, since chords are detected based on the key codes of the parts that have been decomposed in this way, chord constituent sounds can be extracted according to the playing style, and the accuracy of chord detection can be improved.

【0083】なお、上記実施例では、8分長毎に演奏情
報の分析を行うようにしているが、キーイベントが発生
する毎に分析を行うようにしてもよい。また、鍵盤から
の演奏情報に限らず、MIDI情報などで供給される演
奏情報についても同様の処理を行うことができる。さら
に、リアルタイムの演奏情報に限らず、既に演奏されて
メモリに記憶されている演奏情報について同様の処理を
行ってもよい。また、符長を考慮して奏法を検出するよ
うにしてもよい。
In the above embodiment, the performance information is analyzed every eight minutes, but the analysis may be performed every time a key event occurs. The same processing can be performed not only for performance information from the keyboard, but also for performance information supplied as MIDI information or the like. Furthermore, the same processing may be performed not only on the real-time performance information but also on performance information that has already been played and stored in the memory. Further, the playing style may be detected in consideration of the note length.

【0084】[0084]

【発明の効果】以上説明したように本発明の演奏情報に
おける奏法検出方法によれば、複数の音高情報を含む演
奏情報を入力し、上記演奏情報の小節における強拍およ
び弱拍と、該演奏情報中の前後のタイミングの音高情報
の音高差と、同一タイミングでの音高情報の数と、同一
タイミングでの音高情報の音高差と、に基づいて前記演
奏情報の奏法を検出するようにしたので、演奏情報から
その演奏情報の奏法を検出することができる。
As described above, according to the performance information detecting method for performance information of the present invention, performance information including a plurality of pitch information is input, and the strong beat and the weak beat in the bar of the performance information are determined. The playing style of the performance information is determined based on the pitch difference of the pitch information at the preceding and following timings in the performance information, the number of the pitch information at the same timing, and the pitch difference of the pitch information at the same timing. Since the detection is performed, the playing style of the performance information can be detected from the performance information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例の演奏情報における奏法検出方
法を適用した電子楽器のブロック図である。
FIG. 1 is a block diagram of an electronic musical instrument to which a performance style detection method in performance information according to an embodiment of the present invention is applied.

【図2】実施例におけるアルペジオ奏法とコード奏法の
一例を示す図である。
FIG. 2 is a diagram showing an example of an arpeggio playing method and a chord playing method in the embodiment.

【図3】実施例におけるメインルーチンのフローチャー
トである。
FIG. 3 is a flowchart of a main routine in the embodiment.

【図4】実施例における割込み処理のフローチャートで
ある。
FIG. 4 is a flowchart of an interrupt process in the embodiment.

【図5】実施例におけるグループ解析処理のフローチャ
ートである。
FIG. 5 is a flowchart of a group analysis process in the embodiment.

【図6】実施例における1音解析処理のフローチャート
である。
FIG. 6 is a flowchart of one sound analysis processing in the embodiment.

【図7】実施例における強拍解析処理のフローチャート
である。
FIG. 7 is a flowchart of a strong beat analysis process in the embodiment.

【図8】実施例における弱拍解析処理のフローチャート
である。
FIG. 8 is a flowchart of a weak beat analysis process in the embodiment.

【図9】実施例におけるアルペジオ拡張処理のフローチ
ャートである。
FIG. 9 is a flowchart of an arpeggio expansion process in the embodiment.

【図10】実施例における3音解析処理のフローチャー
トである。
FIG. 10 is a flowchart of a three-tone analysis process in the embodiment.

【図11】実施例における3音解析処理のフローチャ
ートである。
FIG. 11 is a flowchart of a three-tone analysis process in the embodiment.

【符号の説明】[Explanation of symbols]

1…CPU、2…プログラムメモリ、3…ワーキングメ
モリ、4…鍵盤、5…伴奏パターンメモリ、6…音源、
7…サウンドシステム、8…操作スイッチ、9…タイ
マ。
DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... program memory, 3 ... working memory, 4 ... keyboard, 5 ... accompaniment pattern memory, 6 ... sound source,
7 ... Sound system, 8 ... Operation switch, 9 ... Timer.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の音高情報を含む演奏情報を入力
し、 上記演奏情報の小節における強拍および弱拍と、該演奏
情報中の前後のタイミングの音高情報の音高差と、同一
タイミングでの音高情報の数と、同一タイミングでの音
高情報の音高差と、に基づいて前記演奏情報の奏法を検
出するようにしたことを特徴とする演奏情報における奏
法検出方法。
A performance information including a plurality of pitch information is inputted, and a strong beat and a weak beat in a bar of the performance information are equal to a pitch difference between pitch information at timings before and after in the performance information. A rendition style detection method for performance information, wherein the rendition style of the performance information is detected based on the number of pitch information at the timing and the pitch difference of the pitch information at the same timing.
JP5253412A 1993-10-08 1993-10-08 Performance detection method in performance information Expired - Fee Related JP2894178B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5253412A JP2894178B2 (en) 1993-10-08 1993-10-08 Performance detection method in performance information
EP94115846A EP0647934B1 (en) 1993-10-08 1994-10-07 Electronic musical apparatus
DE69426588T DE69426588T2 (en) 1993-10-08 1994-10-07 Electronic music device
US08/798,611 US5796026A (en) 1993-10-08 1997-02-11 Electronic musical apparatus capable of automatically analyzing performance information of a musical tune

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5253412A JP2894178B2 (en) 1993-10-08 1993-10-08 Performance detection method in performance information

Publications (2)

Publication Number Publication Date
JPH07110686A JPH07110686A (en) 1995-04-25
JP2894178B2 true JP2894178B2 (en) 1999-05-24

Family

ID=17251032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5253412A Expired - Fee Related JP2894178B2 (en) 1993-10-08 1993-10-08 Performance detection method in performance information

Country Status (1)

Country Link
JP (1) JP2894178B2 (en)

Also Published As

Publication number Publication date
JPH07110686A (en) 1995-04-25

Similar Documents

Publication Publication Date Title
US6816833B1 (en) Audio signal processor with pitch and effect control
US8017850B2 (en) Electronic musical instrument having ad-lib performance function and program for ad-lib performance function
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
USRE37041E1 (en) Voice processor
US20130305907A1 (en) Accompaniment data generating apparatus
US8791350B2 (en) Accompaniment data generating apparatus
JPH06295179A (en) Musical performance information analyzing device and chord detecting device
US6750390B2 (en) Automatic performing apparatus and electronic instrument
JP2894177B2 (en) Performance information analyzer
JP2894178B2 (en) Performance detection method in performance information
EP0647934B1 (en) Electronic musical apparatus
JP2768233B2 (en) Electronic musical instrument
JP2894176B2 (en) Chord detector
JPH0627960A (en) Automatic accompaniment playing device
US5942711A (en) Roll-sound performance device and method
JP4253997B2 (en) Musical sound information conversion apparatus, control method therefor, and storage medium storing program for realizing the control method
JP3319390B2 (en) Automatic accompaniment device
JP2504260B2 (en) Musical tone frequency information generator
JP4025440B2 (en) Electronic keyboard instrument
JPH04335398A (en) Automatic accompaniment device
JP3738634B2 (en) Automatic accompaniment device and recording medium
JP3189837B2 (en) Performance information analyzer and performance information analysis method
JP2513341B2 (en) Electronic musical instrument
JP3978277B2 (en) Automatic accompaniment device
JP2833229B2 (en) Automatic accompaniment device for electronic musical instruments

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990202

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090305

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090305

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100305

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110305

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110305

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120305

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees