JPH04110895A - Musical sound data processing system - Google Patents

Musical sound data processing system

Info

Publication number
JPH04110895A
JPH04110895A JP2229644A JP22964490A JPH04110895A JP H04110895 A JPH04110895 A JP H04110895A JP 2229644 A JP2229644 A JP 2229644A JP 22964490 A JP22964490 A JP 22964490A JP H04110895 A JPH04110895 A JP H04110895A
Authority
JP
Japan
Prior art keywords
data
common
musical tone
musical sound
part data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2229644A
Other languages
Japanese (ja)
Other versions
JP3017260B2 (en
Inventor
Tsutomu Saito
勉 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2229644A priority Critical patent/JP3017260B2/en
Publication of JPH04110895A publication Critical patent/JPH04110895A/en
Application granted granted Critical
Publication of JP3017260B2 publication Critical patent/JP3017260B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To make individual data lengths short by outputting characteristic part data, extracted by a characteristic extracting means, as many as musical sound data, and outputting common part data, extracted by a common extracting means, by less than the musical sound data. CONSTITUTION:As shown in figures (1), (2), and (3), respective data in sound generation data which are characteristic part data are compressed, and expanded according to mode data shown in a figure (4) to obtain original velocity data, key number data, step-time data, and gate time data. The mode data is stored only in places of the sound generation data. Consequently, the respective musical sound data can be compressed into up to characteristic part data and the individual data length is made short. Further, the common part data are less in number than the musical sound data, so the total amount of a musical sound group can be decreased.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、楽音データ処理方式に関し、特に楽音データ
のデータ長を短くする点の改良に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a musical tone data processing method, and particularly to an improvement in reducing the data length of musical tone data.

[発明の概要] 本発明は、各楽音から、各楽音データに共通する共通部
分データと、共通部分以外の特有部分データとを抽出し
、特有部分データを楽音データと同じ個数分とし、共通
部分データを楽音データより少ない個数分とした。これ
により、楽音データのデータ長を短くすることができる
[Summary of the Invention] The present invention extracts common part data common to each musical tone data and unique part data other than the common part from each musical tone, sets the unique part data to the same number as musical tone data, and extracts the common part data. The number of pieces of data was smaller than the musical tone data. Thereby, the data length of musical tone data can be shortened.

[従来技術] 楽音データには、代表的なものは、第13図に示すよう
に、キーナンバ、ゲートタイム、ヘロシティ、ステップ
タイムがある。このうち、キーナンバを例にとると、従
来ては、例えば、キーナンバデータのデータ長を7ビツ
トとし、」−位3ヒツトをオクターブデータとし、7つ
のオクターブを示すようにし、下位4ヒソ]・を音名デ
ータとし、12個の音名を示すようにして、最高84個
の名高を表わすことができるようになっていた。
[Prior Art] Typical musical tone data includes a key number, gate time, herocity, and step time, as shown in FIG. Taking the key number as an example, conventionally, for example, the data length of the key number data is 7 bits, and the 3-digit hits are used as octave data to indicate the 7 octaves, and the lower 4 hits are set as octave data. was used as pitch name data to indicate 12 pitch names, making it possible to represent up to 84 famous pitches.

[発明か解決しようとする課題] しかしながら、実際の演奏では、かなり高い音や、かな
り低い音は、頻繁には演奏されず、中音域の2〜3オク
ターブの範囲で演奏されることか多く、7ビツトのデー
タ長のキーナンバを常時使うことは無駄か多かった。
[Invention or Problem to be Solved] However, in actual performances, fairly high notes and fairly low notes are not often played, but are often played in the middle range of 2 to 3 octaves. Constantly using a key number with a data length of 7 bits was often wasteful.

また、コード(和音)伴奏では、メロディ演奏に比べ、
押鍵の速さ又は強さには、それはと変化はなく、ベロシ
ティデータに8ビツト長も使うことは無駄か多かった。
Also, with chord accompaniment, compared to melody performance,
There was no significant change in the speed or strength of the key presses, and it was wasteful to use an 8-bit length for velocity data.

そして、コート演奏では、メロディ演奏に比べ、音長や
演奏タイミンクにそれはと細かい表現か必要とされるこ
とが少なく、ゲートタイム、ステップタイムの精度は粗
くてもよかった。
Also, in court performance, compared to melody performance, there is less need for detailed expressions in note length and performance timing, and the precision of gate time and step time can be coarse.

さらに、リズム演奏では、メロディ演奏に比べ、パーカ
ッンブ音であるため、ゲートタイムは一律であり、ケー
トタイムデータは不要となる。その反面、メロディ演奏
より高い精度のステップタイムとベロシティか必要とな
る。
Furthermore, in rhythm performance, compared to melody performance, since the percussion sound is used, the gate time is uniform, and gate time data is not required. On the other hand, it requires more precise step time and velocity than melody playing.

このように、第13図に示すデータ形式は、メロディ演
奏に合わせたものであり、他のコード伴奏、リズム演奏
には無駄となったり、不十分となったりする部分かあっ
た。
In this way, the data format shown in FIG. 13 is suitable for melody performance, and some parts are wasted or insufficient for other chord accompaniment and rhythm performance.

本発明は、上述した課題を解決するためになされたもの
であり、楽音データ個々のデータ長を短くするとともに
、楽音データ群全体としてのデータ量も少なくてき、し
かもメロディ、コート、リスム等のいずれの演奏パート
のデータ処理においても、無駄なくデータ処理を行うこ
とのできる楽音データ処理方式を提供することを目的と
している。
The present invention has been made in order to solve the above-mentioned problems, and it reduces the data length of each piece of musical tone data, reduces the amount of data as a whole group of musical tone data, and also reduces the data length of each piece of musical tone data. It is an object of the present invention to provide a musical tone data processing method that can perform data processing without waste even in data processing of musical performance parts.

[課題を解決するための手段] 上記目的を達成するために、本発明においては、各楽音
から、各楽音データに共通する共通部分データと、共通
部分以外の特有部分データとを抽出し、特有部分データ
を楽音データと同じ個数分とし、共通部分データを楽音
データより少ない個数分とした。
[Means for Solving the Problem] In order to achieve the above object, in the present invention, common part data common to each musical tone data and unique part data other than the common part are extracted from each musical tone, and unique part data is extracted from each musical tone. The number of partial data is the same as the number of musical tone data, and the number of common partial data is less than the number of musical tone data.

[作用] これにより、各楽音データを特有部分データにまで圧縮
できて、個々のデータ長を短くてきる。
[Operation] As a result, each tone data can be compressed into unique partial data, and the length of each piece of data can be shortened.

また、共通部分データは、楽音データの個数より少なく
しているから、楽音データ群全体としてのデータ量も少
なくすることかできる。
Furthermore, since the number of common portion data is smaller than the number of musical tone data, the amount of data for the entire musical tone data group can also be reduced.

[実施例] 以下、本発明を具体化した一実施例を図面を参照して説
明する。
[Example] Hereinafter, an example embodying the present invention will be described with reference to the drawings.

本発明は、第1図(1)(2)(3)に示すように、特
有部分データである発音データ内の各データを圧縮し、
この各データを第1図(4)に示すモードデータに基づ
いて伸長し、元のへロシティデータ、キーナンバデータ
、ステップタイムデータ、ゲートタイムデータにする。
As shown in FIG. 1 (1), (2), and (3), the present invention compresses each data in pronunciation data that is unique partial data,
Each of these data is expanded based on the mode data shown in FIG. 1 (4) to become the original herocity data, key number data, step time data, and gate time data.

このモードデータは、第3図(1)(2)(3)に示す
ように、発音データのところところに記憶されているた
けである。
This mode data is only stored in place of the sound production data, as shown in FIGS. 3(1), (2), and (3).

上記データの伸長は、第11図のステップ404.40
6.408.412.4]5.420て行われ、この後
アサインメントメモリ8に書き込まれて発音される。ま
た上記データの圧縮記憶は、キーナンバデータについて
は第12図のステップ508〜514て行われ、ベロン
ティデータについては第12図のステップ517〜51
8及び520〜525及び513〜5]4て行われる。
The above data is expanded at step 404.40 in FIG.
6.408.412.4] 5.420, and then written into the assignment memory 8 and sounded. Further, the compressed storage of the data is performed in steps 508 to 514 in FIG. 12 for key number data, and in steps 517 to 51 in FIG. 12 for veronti data.
8 and 520-525 and 513-5]4 is performed.

1、全体回路 第2図は、電子楽器の全体回路を示すものである。キー
ボード]の各キーは、キースキャン回路2によってスキ
ャンされ、キーオン、キーオフか検出される。この検出
結果は、CPU6によって、楽音発生回路7内のアサイ
ンメントメモリ8に書き込まれる。アサインメントメモ
リ8は、RA Mllと一体構成としてもよい。
1. Overall circuit Figure 2 shows the overall circuit of the electronic musical instrument. Each key on the keyboard is scanned by a key scan circuit 2 to detect whether it is key-on or key-off. This detection result is written into the assignment memory 8 in the tone generation circuit 7 by the CPU 6. The assignment memory 8 may be configured integrally with the RA Mll.

タブレットスイッチマトリックス3の各スイッチは、キ
ーホード1の音色、リズム等の選択を行うもので、各ス
イッチは、タブレットスキャン回路4によってスキャン
される。このスキャン結果、すなわち選択指定された音
色、リズム等に関するデータは、CPU6によって、楽
音発生回路7に送られる。
Each switch of the tablet switch matrix 3 is used to select the tone, rhythm, etc. of the keyboard 1, and each switch is scanned by the tablet scan circuit 4. The scan result, that is, data regarding the selected tone, rhythm, etc., is sent to the tone generation circuit 7 by the CPU 6.

なお、上記キーボード1は、電子キター等の電子弦楽器
、電子吹奏(管)楽器、電子打楽器等で代用してもよく
、楽音の発音指示かできれは伺でもよい。
Note that the keyboard 1 may be replaced by an electronic stringed instrument such as an electronic guitar, an electronic wind (wind) instrument, an electronic percussion instrument, etc., and may also be used to instruct the production of musical tones.

楽音発生回路7ては、送られてきた各種データや、アサ
インメントメモリ8にセットされたデータに応した楽音
信号か生成され、D/A変換器9を介し、サウンドシス
テム10へ送られて、楽音か生成発音される。ROMl
 2には、CPU6か各種処理を行うためのプログラム
や、演奏情報、後述するベロシティリスト、ステップリ
スト、ケートリスト、コートルートリスト、音色リスト
、場合によっては楽音波形データやエンベロープ波形デ
ータが記憶されている。RA〜111には、演奏情報の
他、各種処理データ等の値の変わる変更データがt己億
されるイ也、ワーキングRA M 1.1. aも形成
されている。
The musical tone generation circuit 7 generates a musical tone signal corresponding to the various data sent and the data set in the assignment memory 8, and sends it to the sound system 10 via the D/A converter 9. A musical sound is produced or pronounced. ROMl
2 stores programs for the CPU 6 to perform various processes, performance information, velocity lists, step lists, catto lists, court route lists, tone lists, and in some cases musical waveform data and envelope waveform data. There is. In addition to performance information, change data such as various processing data whose values change are stored in the working RAM 1.1.RA~111. a is also formed.

プログラマブルタイマ5は、プロクラマブルカウンタ等
から構成され、入力されたデータに応した周期のインク
ラブド信号INTをCPU6に出力する。このプログラ
マブルタイマ5ては、設定テンポに応したカウント、す
なわち4分音符の時間長当り、48クロック分のカウン
トか行われ、後述するステップタイムデータ、ゲートタ
イムデータ等のカウントに使用される。
The programmable timer 5 is composed of a programmable counter and the like, and outputs an included signal INT having a period corresponding to the input data to the CPU 6. This programmable timer 5 counts according to the set tempo, that is, counts 48 clocks per quarter note time length, and is used for counting step time data, gate time data, etc., which will be described later.

2、演奏情報 第3図は、RAMII及びROM12に記憶されている
。演奏情報の記憶フォーマットを示すものである。第3
図(1)はメロディ演奏情報であり、第3図(2)は和
音(コード)演奏情報であり、第3図(3)はリズム演
奏情報である。
2. Performance information FIG. 3 is stored in RAM II and ROM 12. This shows the storage format of performance information. Third
FIG. 3 (1) is melody performance information, FIG. 3 (2) is chord performance information, and FIG. 3 (3) is rhythm performance information.

演奏情報の中の個々の楽音データは、2ハイド構成であ
り各楽音データは、小節データ、モードデータ、音色デ
ータ、発音データ、終了データ等を示している。
Each musical tone data in the performance information has a two-hide configuration, and each musical tone data indicates measure data, mode data, timbre data, sound data, end data, etc.

このうち、発音データは、第1図(1)〜(3)に示す
ように、メロディ、和音、リズムて異なる構成となって
いる。
Among these, the pronunciation data has different structures for melody, chord, and rhythm, as shown in FIG. 1 (1) to (3).

2−1.メロディ発音データ 第1図(1)に示すメロディ発音データは、3ビツトの
アクセントデータ及び5ビットのノートナンバデータ、
4ビツトのステップデータ及び4ビツトのゲートタイム
データからなっている。
2-1. Melody pronunciation data The melody pronunciation data shown in Figure 1 (1) consists of 3-bit accent data, 5-bit note number data,
It consists of 4-bit step data and 4-bit gate time data.

アクセントデータは、押鍵の速さ又は強さを示すデータ
である。このデータは、3ビットであるため、「O」〜
「7」の値しかとることかできないが、後述するモート
データの中のへロシティリストデータr00 (0)J
  rol (]、)J  r]0(2)J  rl 
1 (3)Jに基ついて、より広い範囲の値に拡張変換
される。
Accent data is data indicating the speed or strength of key depression. Since this data is 3 bits, "O" ~
Although it can only take the value "7", the herocity list data r00 (0)J in the mote data described later
rol (],)J r]0(2)J rl
1 (3) Extend conversion to a wider range of values based on J.

この拡張は、第4図(1)〜(4)に示すとうりでアリ
、この4つのベロシティリストに基つき、「0」〜「7
」のアクセントデータか、「0」〜「64」、「0」〜
「88」、「34」〜「127」、「68」〜r127
Jの本来のへロンティデータにそれぞれ変換合成される
。この場合、第4図(1)〜(4)に示すアクセントデ
ータは「0」〜「15」であり、アクセントデータは実
際には2倍又は2倍+コされる。このヘロシテイノスト
のデータは、上述のROM 12に記憶されている。
This expansion is possible as shown in Figure 4 (1) to (4), and based on these four velocity lists, "0" to "7"
” accent data, “0” ~ “64”, “0” ~
"88", "34" ~ "127", "68" ~ r127
Each is converted and synthesized with the original heronti data of J. In this case, the accent data shown in FIGS. 4(1) to (4) are "0" to "15", and the accent data is actually doubled or doubled+co. The data of this Helosite Nost is stored in the ROM 12 mentioned above.

ヘロシティリストデータr00 (0)J  rol(
]、) J  rl、 0 (2) J  rl、 1
 (3) Jは、ベロシティデータの変動の範囲を示す
変動率データと同義であり、アクセントデータ「0」〜
「15」は、上記変動範囲の中における位置を示す偏差
率データと同義である。
Herocity list data r00 (0) J rol (
],) J rl, 0 (2) J rl, 1
(3) J is synonymous with fluctuation rate data indicating the range of fluctuation of velocity data, and accent data "0" to
"15" is synonymous with deviation rate data indicating the position within the above fluctuation range.

第4図(1)〜(4)に示ずヘロシティリストは、これ
以外のデータ形式でもよい。また、ベロシティリス!・
データは、演算式で代用してもよい。
The herocity list, which is not shown in FIGS. 4(1) to (4), may be in other data formats. Also, Velocityris!・
Data may be substituted with an arithmetic expression.

例えば、第4図(1)のへロンティリストであれば、4
×(アクセントデータ+1)(但しアクセントデーター
Oのときへロンティデーター〇)となり、第4図(3)
のへロンティリストであれは、6×(アクセントデータ
) +34 <但しアクセントデーター15のときへロ
ンティデーター127)となる。
For example, for the Heronti list in Figure 4 (1), 4
× (accent data + 1) (however, when accent data is O, Ronti data is ○), and Fig. 4 (3)
The heronti list is 6×(accent data) +34 <However, when the accent data is 15, the heronti data is 127).

ノートナン1<データは、音高を示すデータである。こ
のデータは、5ビツトであるため、[Oj〜「3]」の
値しかとることかできないか、後述するモートデータの
中の4ビ・ノドのツートノ1イアスデータに基ついて、
より広い範囲の値をとることか可能となる。ノートナン
/<データは、2オクタ一ブ強の範囲のキーナンノ1を
示しており、ノドバイアスデータは、半オクターブ11
位の値を示すデータであり、ツートノ1イアスデータを
6倍してノートナンバデータを加算し、本来のキーナン
バデータか加算合成される。
The note number 1<data is data indicating the pitch. Since this data is 5 bits, it can only take values from [Oj to "3]".
It becomes possible to take a wider range of values. The note number/< data indicates a key number 1 with a range of just over two octaves, and the node bias data indicates a range of half an octave 11.
This is data indicating the value of the key number, and the two-tone one-earth data is multiplied by six and the note number data is added to add and synthesize the original key number data.

ノートバイアスデータは、ro O00JてCo1r0
010Jてc、  rolooJてC1「01、1 o
 jてC、rlooojてC,rlo10」てC、rl
looJてC、rl、 1. ]、 CMてC7を示し
ている。ツートノ1イアスデータは、へ−ス演奏では、
C2の音高で十分であり、和音伴奏では、C3の音高て
十分であり、メロディ演奏では、メロデイ音の音高が、
上記ノートナレノ1データのとりうる2オクタ一ブ強の
範囲を越えるごとに、C1C4、C5・・・と変えられ
ていく。
Note bias data is ro O00J and Co1r0
010Jtec, rolooJteC1 "01, 1 o
jteC, rlooojteC, rlo10''teC, rl
looJteC, rl, 1. ], CM shows C7. The two-tone first ear data is played by Hess,
The pitch of C2 is sufficient, the pitch of C3 is sufficient for chord accompaniment, and the pitch of melody note is sufficient for melody performance.
Each time it exceeds the two-octave range that the Notenareno 1 data can take, it is changed to C1C4, C5, and so on.

このノートバイアスデータは、]オクターブη1位の値
を示すものとしてもよい。ノートバイアスデータは、キ
ーナンバデータの変動範囲に対し、一定の値のデータで
あり、ノートナンバデータは、キーナンバデータからバ
イアスデータを差し引いた偏差データと同義である。
This note bias data may indicate the value of the first octave η. The note bias data is data that has a constant value with respect to the variation range of the key number data, and the note number data is synonymous with deviation data obtained by subtracting the bias data from the key number data.

ステップレベルデータは、小節の先頭から発音タイミン
グまでの時間長を示すデータである。ゲートレベルデー
タは、楽音の音長(音符長)を示すデータである。これ
らのデータは、4ビツトであるため、「0」〜「15」
の値しかとることかてきないか、第4図(5)(6)(
7)に示す、ステップリスト、ゲートリストに基づいて
拡張され、本来のステップタイムデータ、ゲートタイム
データに変換合成される。
The step level data is data indicating the length of time from the beginning of a measure to the timing of sound generation. The gate level data is data indicating the tone length (note length) of a musical tone. Since these data are 4 bits, they are "0" to "15".
Is it possible to take only the values of ? Figure 4 (5) (6) (
7) is expanded based on the step list and gate list, and converted and synthesized into original step time data and gate time data.

このステップレベルデータ、ケートレベルデータにおい
ては、上述したベロシティデータ、キーナンバデータの
ように、モートデータの中のデータに基ついて変換範囲
か変えられることはなく、固定的なものである。この場
合、ステ・ノブレベルリスト及びゲートレベルデータも
、ROM12に記憶されている。ステップレベルリスト
は、第4図(5)(6)の2種類記憶されているか、第
4図(5)はメロデイ音用であり、第4図(6)は和音
用である。リスム音用のものもROM12に記憶されて
いるか、図示しない。
In this step level data and Kate level data, unlike the velocity data and key number data mentioned above, the conversion range is not changed based on the data in the mote data and is fixed. In this case, the steering knob level list and gate level data are also stored in the ROM 12. Two types of step level lists are stored as shown in FIG. 4 (5) and (6). FIG. 4 (5) is for melody tones, and FIG. 4 (6) is for chord tones. Whether rhythm sounds are also stored in the ROM 12 is not shown.

なお、このステップタイムデータ、ケートタイムデータ
においても、ベロシティのようにリストを選択できるよ
うにしてもよいし、ノ1イアスデタとこれ以外のデータ
に分離してもよい。
Note that this step time data and Kate time data may also be made selectable from a list like velocity, or may be separated into noise data and other data.

2−2.和音発音データ 第1図(2)に示す和音発音データは、4ビツトのコー
ドデータ及び4ビツトのルートデータ、4ビツトステツ
プレヘルデータ及びケートレへルデータからなっている
2-2. Chord Pronunciation Data The chord pronunciation data shown in FIG. 1(2) consists of 4-bit chord data, 4-bit root data, 4-bit step help data, and key level data.

コートデータに基つき、ROM1.2内のコートルート
リストから、各構成音のノートナンバか読み出され、ル
ートデータに応して展開される。このコートルートリス
トは、自動伴奏装置等に広く用いられているものである
。」二記展開された各構成音のノートナンバは、上述し
たメロディ発音データのノートナンバと同じデータフォ
ーマットのものであり、上述したようにモードデータの
中のノートバイアスデータに基づいて、本来のキーナン
バデータに加算合成される。むろん、上記コードルート
リストから直接本来のキーナンバデータを変換してもよ
い。
Based on the court data, the note number of each constituent note is read from the court route list in the ROM 1.2, and expanded according to the root data. This court route list is widely used in automatic accompaniment devices and the like. The note number of each expanded component note has the same data format as the note number of the melody pronunciation data described above, and as described above, the note number of each component note is determined by the original key based on the note bias data in the mode data. It is added and combined with the number data. Of course, the original key number data may be converted directly from the code route list.

スキップレベルデータ及びケートレベルデータは、上述
したメロディ発音データのものと同じである。
The skip level data and the Kate level data are the same as the melody sound data described above.

この和音発音データでは、ベロシティデータは記憶され
ず、発音時には、一定のベロシティデータかCPU6に
よりアサインメントメモリ8に書き込まれる。
In this chord pronunciation data, velocity data is not stored, but constant velocity data is written into the assignment memory 8 by the CPU 6 at the time of pronunciation.

2−3.リスム発音データ 第1図(3)に示すリスム発音データは、2ヒントのア
クセントデータ及び6ビツトのパーカスナンバデータ、
5ヒツトのステップレベルデータ及び3ビツトのアクセ
ントデータからブ、っている。
2-3. Rhythm pronunciation data The rhythm pronunciation data shown in Figure 1 (3) consists of 2-hint accent data, 6-bit percussion number data,
It is extracted from 5 bits of step level data and 3 bits of accent data.

アクセントデータは、2ビツトのものと゛3ビットのも
のちを合わせて5ビットとされ、より細かく粘度の高い
ベロシティデータか変換C7成される。
The accent data is 5 bits, including 2 bits and 3 bits, and is converted into finer and more viscous velocity data by conversion C7.

このリスム発音データのベロシティリストデータは、図
示しないか、メロディ発音データと同様に、ff14図
(1)〜(4)のような4つのへロンティリストかRO
M 1.2に記憶され、5ビットの「0」〜「31」の
アクセントデータか変換される。
The velocity list data of this rhythm pronunciation data is either not shown or, like the melody pronunciation data, there are four heronty lists as shown in Figures (1) to (4) of FF14, or RO.
It is stored in M1.2 and converted into 5-bit accent data of "0" to "31".

パーカスナンバデータは、リスム演奏のドラム、ハツト
、シンバル等の音色を示すデータである。
Percussion number data is data indicating the tones of drums, hats, cymbals, etc. in rhythm performance.

このリスム音色音の発音周波数は、モートデータの中の
ノートハイ1スデータたけに基いている。
The sounding frequency of this rhythm timbre tone is based on only the note high 1st data in the mote data.

例えば、ノートバイアスデータに03のキーナンバデー
タを加算したものか、読出周波数を示すことになる。
For example, it indicates the note bias data plus the key number data of 03, or the read frequency.

ステップレベルデータは、5ビツトであるため、より細
かく精度の高いステップタイムデータが合成出力される
。このリスム発音データのステップリストは図示しない
か、メロディ発音データ及び和音発音データと同様に、
第4図(5)(6)と同様のステップリストがROM1
2に記憶され、5ビツト「0」〜「31」のステップレ
ベルデータか変換される。
Since the step level data is 5 bits, finer and more accurate step time data is synthesized and output. The step list for this rhythm pronunciation data is not shown, or it is similar to the melody pronunciation data and chord pronunciation data.
A step list similar to Fig. 4 (5) and (6) is stored in ROM1.
2 and is converted into step level data of 5 bits "0" to "31".

このリズム発音データでは、ケートレベルデータは記憶
されず、発音時には、一定のゲートタイムデータがCP
U6によりアサインメントメモリ8に書き込まれる。
In this rhythm sounding data, gate level data is not stored, and when sounding, constant gate time data is used as the CP.
It is written into the assignment memory 8 by U6.

このように楽音データは、2バイト構成であるため、第
13図に示す従来の4バイト構成の半分で済む。
Since the musical tone data has a 2-byte structure in this way, it only requires half of the conventional 4-byte structure shown in FIG.

2−4.モードデータ 第1図(4)はモードデータを示すものである。2-4. mode data FIG. 1(4) shows mode data.

このモートデータは、上述のアクセントデータの変換合
成に使用されるベロシティリストデータか演奏の途中で
変わるとき、またはノートナンバデータに加算合成され
るノートバイアスデータか演奏の途中で変わるときに、
演奏情報の中に挿入されるものである。このモートデー
タも2ハイド構成であり、1ハイド目はr ]、 1.
 ]、 1 1.101 jの識別コードであり、2ハ
イド目は、2ビットのモードコード、2ビツトのベロシ
ティリストデータ、4ビットのノーI・バイアスデータ
からなっている。
This mote data is used when the velocity list data used to convert and synthesize the accent data described above changes during the performance, or when the note bias data that is added and synthesized with the note number data changes during the performance.
This is inserted into the performance information. This mote data also has a two-hide configuration, and the first hide is r], 1.
], 1 1.101 j, and the second hide consists of a 2-bit mode code, 2-bit velocity list data, and 4-bit no-I/bias data.

モードコートは、このモートデータ以降の演奏情報かメ
ロディ演奏のものか(roO(0)J )和音演奏のも
のか(roll、)J)  リスム演奏のものか(rl
O(2)j )を示している。ベロシティリストデータ
は、ベロシティデータの合成出力にあたり、上述したよ
うに、第4図(1)〜(4)に示すような、いずれのり
ストを使用するかを示すものである。ノートバイアスデ
ータは、キーナンバデータの合成出力にあたり、上述し
たように、ノートナンバデータに加算されるデータを示
している。リスム演奏の場合は、二のノートバイアスデ
ータか直接、発音周波数を示している。
The mode code is the performance information after this mote data, or whether it is a melody performance (roO(0)J) or a chord performance (roll, )J) or a rhythm performance (rl).
O(2)j). As described above, the velocity list data indicates which list, as shown in FIG. 4 (1) to (4), is to be used when outputting the composite velocity data. The note bias data indicates the data that is added to the note number data, as described above, in the composite output of the key number data. In the case of rhythm performance, the second note bias data or directly indicates the sound frequency.

このモートデータは、発音データのアクセントデータの
変換合成に使用されるへロンティリストデータまたはノ
ートナンバデータに加算合成されるノートバイアスデー
タに変更かなけれは、演奏情報の中に挿入されることは
なく、発音データの個数より少なくて済む。従って、発
音データそれぞれに対し、モードデータを個々記憶しな
くても済み、演奏情報全体としてのデータ量も少なくて
きる。
This mote data will not be inserted into the performance information unless it is changed to heronti list data, which is used to convert and synthesize accent data of pronunciation data, or note bias data, which is added and synthesized with note number data. , the number of pronunciation data may be smaller than the number of pronunciation data. Therefore, it is no longer necessary to individually store mode data for each sound generation data, and the amount of data for the performance information as a whole can be reduced.

2−5 その他の演奏情報 第1図(5)は演奏終了データを示すものであり、この
データは演奏の終了を示している。この終了データも2
ハイド構成であり、1ハイド目及び2ハイド目はr 1
 ]、 1 ]、  1.1 ]、 I Jの識別コド
となっている。
2-5 Other performance information Figure 1 (5) shows performance end data, which indicates the end of the performance. This end data is also 2
It has a hide configuration, and the first and second hides are r 1
], 1], 1.1], IJ identification code.

第1図(6)は小節データを示すものであり、このデー
タはl寅奏の中の小節のスタート地τ、+天を示してい
る。二の小節データも2ハイド構成であり、]ハイド[
」かr 1 ]、 11 1111. Jの識別コトと
なっており、2ハイド[]か基準クロック数デタとなっ
ている。この基準クロック数データは、1小節内の語学
クロック数を示している。例えば、4分音符長か48ク
ロツク数で、4/4拍了ならば48X4=192クロツ
ク数、3/4拍子ならば48X3=144クロツク数と
なる。
FIG. 1 (6) shows measure data, and this data indicates the starting point τ, +heaven of the measure in the l-tora performance. The second measure data also has a 2-hide structure, ]hide[
” or r 1 ], 11 1111. The identification information for J is 2 Hyde [ ] or the reference clock number data. This reference clock number data indicates the number of language clocks within one measure. For example, if the length is a quarter note or the number of clocks is 48, and the length is 4/4, then the number of clocks is 48X4 = 192, and if it is in 3/4 time, the number of clocks is 48X3 = 144.

第1図(7)は音色データを示すものであり、このデー
タは演奏楽音の音色を示している。この音色データも2
ハイド構成であり、1ハイド目かrl、111 111
0jの識別コートとなっており、2ハイド目か、音色を
示す音色ナンバデータとなっている。
FIG. 1 (7) shows timbre data, and this data shows the timbre of the performance musical sound. This tone data is also 2
Hyde configuration, 1st hide or rl, 111 111
It has an identification code of 0j, and is the second hide or tone color number data indicating the tone.

3、楽音データ例 第5図(1)(2)(3)は、演奏情報として記憶され
るメロディ演奏、和音演奏、リスム演奏の例を示すもの
である。これを、演奏情報の形て記憶すると、第3図(
1)(2)(3)に示すようになる。これに対し、従来
の記憶方式では、第14図(1)(2)(3)に示すよ
うになる。
3. Examples of Musical Sound Data Figures 5 (1), (2), and (3) show examples of melody performances, chord performances, and rhythm performances that are stored as performance information. If this is stored in the form of performance information, Figure 3 (
1) It becomes as shown in (2) and (3). On the other hand, in the conventional storage method, the data is as shown in FIG. 14 (1), (2), and (3).

このように、1つの発音データで、従来は4ハイド必要
であったのが、2バイトで済むため、第14図の従来の
記憶方式に対し、第3図の本願の記憶方式では、かなり
データ量は少なくなる。なお、本願では、別に2ハイド
のモートデータか必要となるか、発音データの個数分ま
では必要とされないので、演奏情報全体のデータ量は少
なくなる。
In this way, one pronunciation data requires 2 bytes instead of 4 in the past, so compared to the conventional storage method shown in FIG. 14, the storage method of the present invention shown in FIG. The quantity will be less. Note that in the present application, 2-hide mote data is separately required, or the amount of sound data is not required, so the amount of data for the entire performance information is reduced.

4 ワーキングRAM1]、a 第6図はワーキングRAli11..aを示すものであ
る。このワーキングRA M 1.1 a内には、アド
レスポインタ、小節カウンタ、クロックカウンタ、モー
トレジスタ、クロックレジスタ、トーンナンバレジスタ
、ステップタイムレジスタ、ヘロシティレ/スタ、発音
レジスタか設けられている。
4 working RAM1], a FIG. 6 shows working RAM11. .. It shows a. This working RAM 1.1a is provided with an address pointer, a bar counter, a clock counter, a mote register, a clock register, a tone number register, a step time register, a herocity register, and a sound register.

アドレスポインタは、ROtvi 12内の演奏情報の
読出アドレスまたはRAM1l内の演奏情報の書込アド
レスかセットされる。
The address pointer is set to the performance information read address in the ROtvi 12 or the performance information write address in the RAM 11.

小節カウンタては、上記読み出された演奏情報又は、書
き込まれた演奏情報の小節数かカウントされる。
The bar counter counts the number of bars of the read performance information or the written performance information.

クロックカウンタでは、上記プロクラマブルタイマ5か
らインタラブド信号INTか出力されることに+1され
、1小節分のカウントか行われて、後述するクロックレ
ジスタの値に一致すると、クリアされる。
The clock counter is incremented by 1 when the interwoven signal INT is output from the programmable timer 5, counts for one bar, and is cleared when it matches the value of the clock register, which will be described later.

モートレジスタには、上述のモートデータの2ハイド目
のモートコート、ヘロシティリストデタ、ノートバイア
スデータかセットされる。
In the moat register, the second moat code of the above-mentioned mote data, herocity list data, and note bias data are set.

クロックレジスタには、上述の小節データの2ハイド目
の1小節分の基準クロック数データかセットされる。
The reference clock number data for the first measure of the second hide of the above-mentioned measure data is set in the clock register.

トーンナンバレジスタには、上述の音色データの2ハイ
ド目の音色ナンバデータかセットされる。
The second tone color number data of the tone color data mentioned above is set in the tone number register.

ステップタイムレジスタには、発音データのステップレ
ベルデータが変換合成されたステップタイムデータかセ
ットされる。
Step time data obtained by converting and synthesizing the step level data of the sound generation data is set in the step time register.

へロンティレンスタには、演奏情報の書き込みにあたり
、記憶する人力ベロシティデータかセットされる。
When writing performance information, the manual velocity data to be stored is set in the Herontirensuta.

発音レジスタには、演奏情報の書き込みにあたり、記憶
する入力発音データかセットされたり、演奏情報の読み
出17にあたり、再生する読出発音データかセットされ
たりする。
In the sound generation register, input sound data to be stored is set when performance information is written, and reading sound data to be reproduced is set when performance information is read 17.

5、アサインメントメモリ8 第7図は、アサインメントメモリ8を示すものである。5. Assignment memory 8 FIG. 7 shows the assignment memory 8.

このアサインメントメモリ8には、楽音発生回路7に形
成される。複数チャンネル各々に割り当てられる楽音デ
ータか記憶される。各チャンネルエリアには、オン/オ
フデータ及びキーナンバデータ、ゲートタイムデータ、
ヘロンティデータ、音色ナンバデータか記憶される。
This assignment memory 8 is formed in the tone generation circuit 7. Musical tone data assigned to each of a plurality of channels is stored. Each channel area contains on/off data, key number data, gate time data,
Heronty data and tone number data are stored.

オン/オフデータは、割り当てられている楽音がキーオ
ン状態(rl、J)か、キーオフ状態(「0」)かを示
している。
The on/off data indicates whether the assigned musical tone is in a key-on state (rl, J) or in a key-off state (“0”).

キーナンバデータは、割り当てられている楽音のキーナ
ンバデータを示しており、このデータは上述の発音デー
タのノートナンバデータとモートデータのノートバイア
スデータとから加算合成される。
The key number data indicates the key number data of the assigned musical tone, and this data is added and synthesized from the note number data of the above-mentioned sound generation data and the note bias data of the mote data.

ヘロンティデータは、割り当てられている楽音のキーオ
ンの速さ又は強さを示しており、このデータは上述の発
音データのアクセントデータとモードデータのへロンテ
ィリストデータとから変換合成される。
The heronti data indicates the key-on speed or strength of the assigned musical tone, and this data is converted and synthesized from the accent data of the above-mentioned pronunciation data and the heronti list data of the mode data.

音色ナンバデータは、割り当てられている楽音の音色を
示しており、このデータは上述の演奏情報の中の音色デ
ータの音色ナンバデータかそのまま使用される。
The timbre number data indicates the timbre of the assigned musical tone, and this data is used directly as the timbre number data of the timbre data in the performance information described above.

6、演奏情報再生処理 第8図〜第10図は、演奏情報再生処理のフロチャート
を示すものである。第8図は再生スタト処理を示し、こ
の処理は上述のタブレットスイッチマトリックスB内の
再生スタートスイッチのオンによってスタートされ、第
9図は再生中のインタラブド処理を示し、第10図は再
生エンド処理を示し、この処理は再生ストップキーのオ
フによってスタートされる。
6. Performance information reproduction processing FIGS. 8 to 10 show flowcharts of performance information reproduction processing. FIG. 8 shows playback start processing, which is started by turning on the playback start switch in the tablet switch matrix B described above, FIG. 9 shows interactive processing during playback, and FIG. 10 shows playback end processing. This process is started by turning off the playback stop key.

6−1 、再生スタート処理 第8図の再生スタート処理は、タブレットスイッチマト
リックス3内の各スイッチの走査処理及びスイッチイベ
ント処理の中の再生スタートスイッチのオンイベント処
理である。
6-1. Reproduction start processing The reproduction start processing shown in FIG. 8 is the on-event processing of the reproduction start switch among the scanning processing of each switch in the tablet switch matrix 3 and the switch event processing.

この処理では、CPU6は、再生スタートスイッチがオ
ン状態になったことを判別すると(ステップ100)、
ワーキンクRAM11a内の小節カウンタ、クロックカ
ウンタをクリアし、アドレスポインタを設定する(ステ
ップ10])。このアドレスポインタには、ROM12
またはRA M]]内の演奏情報の中のメロディ、和音
、リスムのいずれかの一曲の先頭アドレスデータがセッ
トされる。
In this process, when the CPU 6 determines that the playback start switch is turned on (step 100),
The measure counter and clock counter in the working RAM 11a are cleared, and an address pointer is set (step 10). This address pointer has ROM12
The start address data of one of the melody, chord, and rhythm songs in the performance information in [or RAM]] is set.

次に、この先頭アドレスから2バイト分のデータを読み
出す。先頭アドレスから2ハイド分のデータは、第3図
(1)〜(3)に示すように、小節データであるから、
読み出した2ハイド分のデータのうち、2ハイド目の1
小節分のハ準クロック数データをワーキングRAM11
−aのクロックレジスタにセットする(ステップ]o2
)。
Next, 2 bytes of data are read from this starting address. Since the data for two hides from the first address is measure data, as shown in Figure 3 (1) to (3),
Of the 2 hides of data read out, 1 of the 2nd hide
Working RAM 11 stores quasi-clock count data for each measure.
-Set in the clock register of a (step) o2
).

そして、次の2ハイド分のデータを読み出す。Then, data for the next two hides is read out.

小節データの次の2ハイド分のデータは、第3図(1)
〜(3)に示すように、モードデータであるから、読み
出した2ハイド分のデータのうち、2バイト目のモート
コート、ヘロンティリストデタ、ノートバイアスデータ
をワーキングRA M]、]、aのモートレジスタにセ
ットする(ステップ103)。
The data for the next two hides after the measure data is shown in Figure 3 (1).
As shown in ~(3), since it is mode data, the second byte of the read data for 2 hides, the mort code, herontile list data, and note bias data are stored in the working RAM], ], a. Set in the remote register (step 103).

次いで、上記モードコードがrOJまたは「1」、すな
わち読み出しデータがメロディまたは和音の演奏情報で
あれば(ステップ]o4)さらに次の2ハイド分のデー
タを読み出す。モートデータの次の2バイト分のデータ
は、第3図(1)(2)に示すように、音色データであ
るがら、読み出した2ハイ1−6jのデータのうち、2
ハイl−[−1の音色ナンバデータをワーキングRA 
M ]]aの音色ナンハレ/スタにセットする(ステッ
プ105)。
Next, if the mode code is rOJ or "1", that is, the read data is melody or chord performance information (step o4), data for the next two hides is further read out. The next 2 bytes of data after the mote data are timbre data, as shown in Figure 3 (1) and (2), but 2 out of the read 2 high 1-6j data.
Working RA of high l-[-1 tone number data
Set the tone of M]]a to Nanhare/Star (step 105).

このステップ]05の処理は、リスムの演奏情報につい
ては、音色データかないので、行われない。
The process of step]05 is not performed for the rhythm performance information since there is no timbre data.

さらに、その次の2ハイド分のデータを読み出す。この
データは、第3図(1)〜(3)に示すように、発音デ
ータであるから、この発音データを発音レジスタにセッ
トする(ステップ106)。
Furthermore, data for the next two hides is read out. Since this data is sound generation data as shown in FIG. 3 (1) to (3), this sound generation data is set in the sound generation register (step 106).

発音データ内のステップレベルデータを、第4図(5)
または(6)に示す、RO〜112内のステップリスト
に基つき変換合成を行い、ワーキングRA M 1 ]
、 a内のステップタイムレジスタにセットする(ステ
ップ107)。
The step level data in the pronunciation data is shown in Figure 4 (5).
Or perform conversion synthesis based on the step list in RO~112 shown in (6), and convert the working RAM 1 ]
, a (step 107).

最後に、プログラマブルタイマ5をイネーブル状態とし
て、一定周期ことにインタラブド信号かCPU6に出力
可能として(ステップ108)リターンする。この一定
周期は、4分音符の時間長当り、48周期である。
Finally, the programmable timer 5 is enabled and an interlaced signal can be output to the CPU 6 at regular intervals (step 108), and the process returns. This constant cycle is 48 cycles per quarter note time length.

6−2.再生中インタラブド処理 第9図の再生中インタラブド処理は、上記プログラマブ
ルタイマ5からCPU6にインタラブド信号か入力され
ることに実行される。
6-2. Interwoven Processing During Reproduction The interwoven processing during reproduction shown in FIG. 9 is executed when an interwoven signal is input from the programmable timer 5 to the CPU 6.

この処理では、CPU6は、まずワーキングRAM11
aのクロックカウンタを+1シ(ステップ200)、ク
ロックカウンタの値かクロックレジスタ内の1小節分の
基準クロック数データまで達していれは(ステップ20
1.)、小節カウンタを+1してクロックカウンタをク
リアする(ステップ202)。もし、クロックカウンタ
の値かクロックレジスタ内の1小節分の基準クロック数
デタまて達していなければ(ステップ201)、クロッ
クカウンタの値かステップタイムレジスタ内のステップ
タイムデータまて達している場合(ステップ203)、
このステップタイムデータに係る発音データに応した楽
音の発音をスタートさせる(ステップ204)。この発
音データは、」−記ワーキンクRAM1]、aのアドレ
スポインタで指定される番地のものである。このステッ
プ204の発音処理の詳しい内容は後述する。
In this process, the CPU 6 first stores the working RAM 11
Increase the clock counter of a by 1 (step 200), and if the value of the clock counter reaches the reference clock number data for one measure in the clock register (step 20
1. ), the bar counter is incremented by 1 and the clock counter is cleared (step 202). If the value of the clock counter or the reference clock number data for one measure in the clock register has not reached (step 201), if the value of the clock counter or the step time data in the step time register has reached (step 201), step 203),
The generation of musical tones corresponding to the tone generation data related to this step time data is started (step 204). This sound generation data is at the address specified by the address pointer of the working RAM 1] and a. The detailed contents of the sound generation processing in step 204 will be described later.

また、」二を己ステップ203て、クロックカウンタの
値かステップタイムレジスタ内のステップタイムデータ
まで達していない場合、アサインメントメモリ8内のオ
ン/オフデータか「1」のキオン状態中のチャンネルエ
リアの各ケートタイムデータを一1シ(ステップ215
) ケートタイムデータか「0」になったものについて
は(ステップ216)、オン/オフデータを10」のキ
オフ状態としくステップ217)、リターンする。
In addition, if the value of the clock counter or the step time data in the step time register has not reached the value of the clock counter or the step time data in the step time register, the on/off data in the assignment memory 8 or the channel area in the state of "1" (Step 215)
) If the key time data becomes "0" (step 216), the on/off data is set to the key off state of "10" (step 217), and the process returns.

一方、CPtJ6は、次の2ハイド分のデータを読み出
しくステップ205)、このデータか演奏終了データか
(ステップ206)、小節データか(ステップ207)
、音色データか(ステップ209) モートデータか(
ステップ211)、発音データか(ステップ213)を
判別する。
On the other hand, CPtJ6 reads out the data for the next two hides (step 205), whether this data is the performance end data (step 206), or whether it is measure data (step 207).
, tone data (step 209), mote data (
Step 211), it is determined whether it is pronunciation data (Step 213).

小節データであれば(ステップ207) この小節デー
タ内の1小節分の基準クロック数データをワーキングR
A〜111aのクロックカンタにセットし直して(ステ
ップ208)、上記ステップ205に戻る。
If it is measure data (step 207), the reference clock number data for one measure in this measure data is
The clock counters of A to 111a are reset (step 208), and the process returns to step 205.

音色データであれば(ステップ209) この音色デー
タ内の音色ナンバデータをワーキングRAM1laの音
色ナンバレジスタにセットし直して(ステップ2]0)
。上記ステップ205に戻る。
If it is timbre data (step 209), reset the timbre number data in this timbre data to the timbre number register of the working RAM 1la (step 2] 0).
. Return to step 205 above.

モートデータであれば(ステップ2]1) このモート
データ内のモートコート、ベロシティリストデータ、ノ
ートバイアスデータをワーキングRA Ml 1 aの
モートレジスタにセットし直して(ステップ212)、
上記ステップ205に戻る。
If it is mote data (Step 2) 1), reset the mote code, velocity list data, and note bias data in this mote data to the mote register of working RAM Ml 1 a (step 212),
Return to step 205 above.

発音データであれば(ステップ213)、この発音デー
タ内のステップレベルデータをROMI2内のステップ
リストに基づき、変換合成を行い、ワーキングRAM1
1aのステップタイムレジスタにセットし直して(ステ
ップ214)、上記ステップ203に戻って、ステップ
タイムデータの判別処理を行う。
If it is pronunciation data (step 213), the step level data in this pronunciation data is converted and synthesized based on the step list in ROMI2, and is stored in working RAM1.
The step time register 1a is reset (step 214), and the process returns to step 203 to perform step time data discrimination processing.

結局、ステップ205〜212の演奏情報の2ハイド分
ずつのデータの読み出しは、」−記ステップ213.2
14の発音データの読み出しまで続けられることになる
In the end, the reading of data for each two hides of performance information in steps 205 to 212 is as follows: Step 213.2
This continues until the 14th sound generation data is read.

また、上記ステップ206て、読み出したデータか演奏
終了データであれは、上記ステップ215〜2]7のケ
ートタイムデータのデクリメント処理に進む。
Further, if the data is the read data or the performance end data in step 206, the process proceeds to steps 215 to 2]7 to decrement the Kate time data.

6−3.再生エンド処理 第10図の再生エンド処理は、タブレットスイッチマト
リックス3内の各スイッチの走査処理及びスイッチイベ
ント処理の中の再生ストップスイッチのオンイベント処
理である。
6-3. Playback End Processing The playback end process shown in FIG. 10 is the scanning process of each switch in the tablet switch matrix 3 and the on-event process of the playback stop switch in the switch event process.

この処理では、CPU6は、再生ストップスイッチかオ
ン状態になったことを判別すると(ステップ300)、
プロクラマブルタイマ5を非イネーブル状態として、イ
ンタラブ!−信号の出力をストップさせ(ステップ30
1)、アサインメントメモリ8内の演奏情報の書き込ま
れているすべてのチャノ不ルエリアのオン/オフデータ
を1のオフ状曹として(ステップ3 n 2 )   
リターレする。
In this process, when the CPU 6 determines that the playback stop switch is turned on (step 300),
Interlab! with programmable timer 5 in a non-enabled state. - Stop signal output (step 30)
1) Assign the on/off data of all the channel areas in which performance information is written in the assignment memory 8 to the off state of 1 (step 3 n 2 ).
Retalle.

7 発音処理(ステップ2 o 4 )第1]図は、上
記ステップ204の発音処理の詳しい内容を示すフロー
チャー1・である。
7. Pronunciation Processing (Step 2 o 4) 1] Figure 1 is a flowchart 1 showing the detailed contents of the pronunciation processing in step 204.

この処理では、CPU6は、アサインメントメモリ8内
の空チャンネルをサーチする(ステ・ノブ400)。こ
の空チヤンネルサーチ処理は、スイッチオフチャンネル
をまずサーチし、スイッチオフチャンネルかなければ、
最先に発音開始された楽音に係るチャンネルをサーチす
るというように、所定の優先順位に従ってサーチされる
In this process, the CPU 6 searches for an empty channel in the assignment memory 8 (step knob 400). This empty channel search process first searches for a switch-off channel, and if there is no switch-off channel,
The search is performed in accordance with a predetermined priority order, such as searching for the channel associated with the musical tone that started being played first.

空チャンネルかサーチされると、CPU6は、上記ステ
ップ103で読み出した、ワーキングRA M 1 :
+−aのモードレジスタのモードコートか「0」 (メ
ロディ)か(ステップ401)、「1」(和音)か(ス
テップ402)、「2」 (リズム)か(ステップ40
3)を判別する。
When an empty channel is searched, the CPU 6 reads out the working RAM 1 in step 103 above:
The mode code of the +-a mode register is "0" (melody) (step 401), "1" (chord) (step 402), "2" (rhythm) (step 40).
3) Determine.

メロディの「0」であれば、第4図(7)に示す、RO
M12内のゲートリストに基つき、ケトレベルデータを
変換して、本来のケートタイムを合成する(ステップ4
04)。このケートレベルデータは、上記ステップ10
6で読み出された発音データの中のものであり、このと
きのワーキングRAM1.12のアドレ、スポインタの
内容は、ステップ106のときと同じである。そして、
このケートタイムデータを上記サーチ空チヤンネルエリ
アに書き込む(ステップ405)。
If the melody is "0", the RO shown in Figure 4 (7)
Based on the gate list in M12, convert the keto level data and synthesize the original keto time (step 4)
04). This Kate level data is stored in step 10 above.
The address of the working RAM 1.12 and the content of the pointer at this time are the same as those at step 106. and,
This network time data is written into the search empty channel area (step 405).

次いで、CPU6は、上記ステップ103で読み出した
、ワーキングRAMI 1 aのモートレジスタのベロ
シティリストデータに応した、第4図(1)〜(4)に
示す、ROM12のベロシティリストに基づき、アクセ
ントデータを変換して、本来のベロシティデータを合成
する(ステップ406)。このアクセントデータも、上
記ステップ106で読み出された発音データの中のもの
である。そして、このベロシティデータを上記サーチ空
チヤンネルエリアに書き込む(ステップ407 ) 。
Next, the CPU 6 reads the accent data based on the velocity list in the ROM 12 shown in FIG. The data is converted and the original velocity data is synthesized (step 406). This accent data is also included in the pronunciation data read out in step 106 above. This velocity data is then written into the search empty channel area (step 407).

さらに、CPU6は、上記ステップ103で読み出した
、ワーキングRA M 11. aのモー1へレジスタ
のノートバイアスを6倍して、ノートナン1<データを
加算して、本来のキーナンノ・データを合成する(ステ
ップ408)。このノートナンノ\デタも、上記ステッ
プ106て読み出された発音データの中のものである。
Further, the CPU 6 reads the working RAM 11. which was read out in step 103 above. The note bias of the register is multiplied by 6 to the mode 1 of a, and note number 1<data is added to synthesize the original key number data (step 408). This note nano\data is also included in the pronunciation data read out in step 106 above.

そして、このキーナンバデータを上記サーチ空チヤンネ
ルエリアに書き込んで(ステップ409)、オン/オフ
データを「1」のオン状態にする(ステップ410)。
Then, this key number data is written in the search empty channel area (step 409), and the on/off data is set to "1" (step 410).

この後、CPU6は、ワーキングRA M]−1,aの
音色ナンバレジスタ内の音色ナン/<データを上記サー
チ空チヤンネルエリアに書き込んで(ステップ411)
、上記ステップ205に進む。
After this, the CPU 6 writes the tone number/< data in the tone number register of working RAM]-1,a to the search empty channel area (step 411).
, proceed to step 205 above.

こうして、メロディの発音データに基づいて、メロデイ
音の発音か開始される。
In this way, the generation of melody sounds is started based on the melody generation data.

また、上記ステップ402て、モードコートか和音の「
1」であれば、第4図(7)に示す、ROM12内のゲ
ートリストに基づき、ゲートレヘルデータを変換して、
本来のケートタイムを合成する(ステップ412)。こ
のケートレベルデータは、上記ステップ106で読み出
された発音データの中のものであり、このときのワーキ
ングRA M 1−1 aのアドレスポインタの内容は
、ステップ106のときと同じである。そして、このゲ
ートタイムデータを上記サーチ空チヤンネルエリアに書
き込む(ステップ413)。
Also, in step 402 above, mode coat or chord “
1", convert the gate level data based on the gate list in the ROM 12 shown in FIG. 4 (7),
The original Kate time is synthesized (step 412). This cell level data is included in the sound generation data read out in step 106, and the contents of the address pointer of the working RAM 1-1a at this time are the same as in step 106. This gate time data is then written into the search empty channel area (step 413).

次いて、CPU6は、ROM 12のコードルトリスト
に基づき、上記ステップ106で読み出された発音デー
タの中のコートルートデータを、各構成音のノートナン
バデータに変換する(ステップ414)。そして上記ス
テップ103で読み出した、ワーキングRAM11aの
モートレジスタのノートバイアスデータを6倍して、上
記各構成音のノートナンバデータを加算して、本来のキ
ナンバデータを合成する(ステップ415)。
Next, the CPU 6 converts the court route data in the pronunciation data read out in step 106 into note number data for each constituent note based on the chord route list in the ROM 12 (step 414). Then, the note bias data of the mote register of the working RAM 11a read out in step 103 is multiplied by six, and the note number data of each constituent note is added to synthesize the original kin number data (step 415).

さらに、このキーナンバデータを上記サーチ空チヤンネ
ルエリアに書き込んで(ステップ416)オン/オフデ
ータを「]」のオン状態にする(ステップ4]7)。
Furthermore, this key number data is written in the search empty channel area (step 416), and the on/off data is set to the on state of "]" (step 4]7).

この後、CPU6は、あらかしめ定められfニー −一
定の値のへロンティデータを上記サーチ空チヤンネルエ
リアに書き込み(ステップ418) ワキンクRAM1
1aの音色レジスタ内の音色ナンバデータを上記サーチ
空チヤンネルエリアに書き込んで(ステップ419)、
上記ステップ205に進む。
Thereafter, the CPU 6 writes the heronty data of a predetermined f-nee constant value into the search empty channel area (step 418).
Write the tone number data in the tone color register 1a to the search empty channel area (step 419),
Proceed to step 205 above.

こうして、和音の発音データに基づいて、和音の発音か
開始される。
In this way, chord pronunciation is started based on the chord pronunciation data.

さらに、上記ステップ403で、モートコートがリズム
の「2」であれば、上記ステップ103で読み出した、
ワーキングRAMI 1 aのモードレジスタのベロシ
ティリストデータ(図示せず)に基づき、アクセントデ
ータを変換して、本来のベロシティデータを合成する(
ステップ420)。
Furthermore, in step 403 above, if the morte coat is rhythm "2", the
Based on the velocity list data (not shown) in the mode register of working RAMI 1a, the accent data is converted and the original velocity data is synthesized (
step 420).

このアクセントデータも上記ステップ106て読み出さ
れた発音データの中のものである。そして、このベロシ
ティデータを上記サーチ空チヤンネルエリアに書き込(
ステップ421)。次いて、CPU6は、上記ステップ
106て読み出された発音データの中のパーカスナンバ
を、上記サーチ空チヤンネルエリアの音色ナンバの番地
に書き込む(ステップ422)。
This accent data is also included in the pronunciation data read out in step 106 above. Then, write this velocity data to the search empty channel area (
Step 421). Next, the CPU 6 writes the percussion number in the sound generation data read out in step 106 to the tone color number address in the search empty channel area (step 422).

さらに、CPU6は、あらかしめ定められた一定の値の
ゲートタイムデータを上記サーチ空チヤンネルエリアに
書き込み(ステップ423)、上記ステップ103で読
み出した、ワーキングRAM 1.1 aのモードレジ
スタのノートバイアスデータをそのまま、又はこのノー
トバイアスデータに08のキーナンバデータを加算した
データを、キーナンバデータとして上記サーチ空チヤン
ネルエリアに書き込んで(ステップ424)、オン/オ
フデータを「1」のオン状態とする(ステップ425)
Further, the CPU 6 writes gate time data having a predetermined constant value into the search empty channel area (step 423), and writes the note bias data in the mode register of the working RAM 1.1a read out in step 103 above. is written as is, or the data obtained by adding the key number data of 08 to this note bias data is written as key number data in the search empty channel area (step 424), and the on/off data is set to the on state of "1". (Step 425)
.

こうして、リズムの発音データに基づいて、リズムの発
音か開始される。
In this way, rhythm sounding is started based on the rhythm sounding data.

8、演奏情報記録処理 第12図は、演奏情報記録処理のフローチャトを示すも
のである。この処理は、タブレットスイッチマトリック
ス3内の記録スタートスイッチのオンで開始されるイン
タラブド処理である。この処理は記録ストップスイッチ
のオンで強制的にリターンされる。
8. Performance Information Recording Process FIG. 12 shows a flowchart of the performance information recording process. This process is an interwoven process that starts when the recording start switch in the tablet switch matrix 3 is turned on. This process is forcibly returned when the recording stop switch is turned on.

この処理ては、CPU6は、ワーキングRA Pvll
 1、 aのモードレジスタ及び発音レジスタをクリア
しくステップ500)、モードレジスタ内のモトコード
及びベロシティリストデータをセ・ン卜する(ステップ
501)。このモードコート及びベロシティリストデー
タは、タブレットスイッチマトリックス3内のスイッチ
操作によって入力される。このスイッチは、メロディ、
和音及びリズムの切換スイッチと、ベロシティ1.2.
3及び4の切換スイッチである。むろん後述するモート
切換スイッチと値スイッチとて人力してもよい。
In this process, the CPU 6 uses the working RA Pvll
1. Clear the mode register and sound register of a (step 500), and set the moto code and velocity list data in the mode register (step 501). This mode code and velocity list data are input by operating switches in the tablet switch matrix 3. This switch is for melody,
Chord and rhythm selector switch, velocity 1.2.
3 and 4 changeover switch. Of course, the mote changeover switch and value switch, which will be described later, may be manually operated.

次いて、CPU6は、データ入力かあれば(ステップ5
02)、この入力データがキーナンバデータか(ステッ
プ503)、ヘロシテイリストデタか(ステップ504
) 、ヘロンテイデータか(ステップ505)、その他
のデータか(ステップ506)を判別する。このデータ
入力は、タブレットスイッチマトリックス3内のモード
切換スイッチと値スイッチとて人力される。モート切換
スイッチは、入力するデータを小節、モード、音色、発
音、演奏終了に切り換え、発音データは、さらにキーナ
ンバ、ベロシティ、ステップタイム、ケートタイムに切
り換えられる。値スイッチは、人力するデータ値を設定
するもので、つまみまたはアップスイッチ及びダウンス
イッチか用いられる。
Next, the CPU 6 inputs data (step 5).
02), whether this input data is key number data (step 503) or heroic list data (step 504).
), herontei data (step 505), or other data (step 506). This data input is performed manually using the mode changeover switch and value switch in the tablet switch matrix 3. The mote changeover switch switches the input data to measure, mode, tone, sound, and end of performance, and the sound data can be further switched to key number, velocity, step time, and Kate time. The value switch is used to manually set a data value, and can be a knob or an up switch and a down switch.

なお、キーナンバ、ベロシティのデータ人力にあたって
は、キーホード1の各スイッチを用いてもよい。このデ
ータ人力は、]スステラずつデータを入力していくもの
であるか、リアルタイムに入力するようにしてもよい。
Note that each switch on the keychain 1 may be used to input the key number and velocity data manually. This data input may be performed by inputting data one by one, or may be input in real time.

上記ステップ503で、入力データかキーナンバであれ
ば、このキーナンバを発音レジスタにセットし、キーナ
ンバからモードレジスタ内のノドバイアスデータを差し
引いた値が「0」以上、「28」以下かを判別する(ス
テップ507 )。
In step 503, if the input data is a key number, this key number is set in the sound register, and it is determined whether the value obtained by subtracting the throat bias data in the mode register from the key number is "0" or more and "28" or less ( step 507).

Yesてあれば、ノートバイアスデータをA更する必要
かなく、NOであれは、ノートバイアスデータを変更す
る必要かある。モートレジスタ内のノートバイアスデー
タの値は、発音データの書き込みか1つも行われていな
いときは「0」であるか、すてに1つでも書き込みか行
われていれは、何らかの値となっている。
If YES, there is no need to change the note bias data; if NO, is it necessary to change the note bias data? The value of the note bias data in the mote register is "0" if no sound data has been written, or it is some value if at least one sound data has been written. There is.

上記ステップ506で、NOであれは、ノートバイアス
データを変更するため、モートレジスタ内のノートバイ
アスデータを「0」としくステップ508)、発音レジ
スタ内のキーナンバデータか「6」未満すなわち半オク
ターブ分のデータ値未満となるまで(ステップ509)
、キーナンバデータからこの「6」を差し引き(ステッ
プ510)、その都度ノートバイアスデータを+1して
いく (ステップ511)。
If NO in step 506, the note bias data in the mote register is set to "0" in order to change the note bias data (step 508), and the key number data in the sound register is less than "6", that is, half an octave. until it becomes less than the data value of minutes (step 509).
, this "6" is subtracted from the key number data (step 510), and the note bias data is incremented by 1 each time (step 511).

キーナンバデータが16」未満になれば、モトレジスタ
のモードコード、へロンティリストデータ、ノートバイ
アスデータを、モートデータとして、RA〜111内の
演奏情報エリアに書き込む(ステップ512)。続いて
、発音レジスタ内に、アクセントデータ、ノートナンバ
データ、ステップレベルデータ、ゲートレベルデータ等
のすべてのデータの書き込みか終了したか否かを判別す
る(ステップ513)。すべて書き込んでいれば、発音
レジスタ内の全データを、発音データとして、RAMI
I内の演奏情報エリアに書き込んで(ステップ514)
、発音レジスタをクリアしくステップ515)、上記ス
テップ502に戻る。この場合、発音レジスタ内のキー
ナンバデータがノートナンバデータとして記憶される。
If the key number data is less than 16'', the mode code, heronty list data, and note bias data of the moto register are written as mote data into the performance information area in RA~111 (step 512). Next, it is determined whether writing of all data such as accent data, note number data, step level data, gate level data, etc. into the sound generation register has been completed (step 513). If all data has been written, all data in the sound register will be stored in the RAMI as sound data.
Write it in the performance information area in I (step 514).
, clear the sound generation register (step 515), and return to step 502 above. In this case, the key number data in the sound register is stored as note number data.

こうして、ノートバイアスデータに変更か生した場合に
は、発音データとともにモートデータの書き込みも行わ
れる。
In this way, when the note bias data is changed, the mote data is also written together with the sound generation data.

上記ステップ506て、Yesてあれば、ノドバイアス
データを変更する必要がなく、キーナンバデータからノ
ートバイアスデータを差し引いた値をノートナンバとし
て(ステップ516)、発音レジスタの全データの書き
込みが終了してぃれば(ステップ51.3)、発音レジ
スタ内の他のデータとともに、RAMII内の演奏情報
エリアに書き込んで(ステップ51.4)、発音レジス
タをクリアしくステップ5 ]、、 5 ) 、上記ス
テップ502に戻る。
If Yes in step 506, there is no need to change the throat bias data, and the value obtained by subtracting the note bias data from the key number data is set as the note number (step 516), and writing of all data in the sound register is completed. If so (step 51.3), write it to the performance information area in RAM II along with other data in the sound register (step 51.4) to clear the sound register. Return to step 502.

上記ステップ514て、メロディ、和音、リスムの切換
スイッチか、和音のときは、同時押鍵のキーナンバから
、コートとルートとを判別して、このコートルートデー
タを書き込むことになる。
In step 514, if the melody, chord, or rhythm changeover switch is selected, or if it is a chord, court and root are determined from the key numbers of the keys pressed at the same time, and this court root data is written.

むろん、各構成音のままで記憶してもよい。Of course, each constituent sound may be memorized as is.

上記ステップ504で、入力データがベロシティリスト
データてあれば、このへロンティリストデータをモード
レジスタに書き込み(ステップ517) このモードレ
ジスタの全データをモードデータとして、RAMII内
の演奏情報エリアに書き込んで(ステップ51.8)、
上記ステップ502に戻る。
In step 504, if the input data is velocity list data, this heronty list data is written to the mode register (step 517). All data in this mode register is written as mode data to the performance information area in RAMII ( step 51.8),
Return to step 502 above.

こうして、ベロシティリストデータに変更か生じた場合
にも、モードデータの書き込みが行われる。
In this way, mode data is written even if the velocity list data is changed.

上記ステップ505て、人力データがヘロシティデータ
であれば、このヘロンティデータをワキンクRAM11
a内のへロンティレジスタにセットし、発音レジスタ内
のアクセントデータを「0」としくステップ520)、
ベロンティデタか、ベロシティリストデータの上記アク
セントデータに応したヘロシティデータを越えなくなる
まで(ステップ521)、ヘロシティデータから、この
ベロシティリストデータの上記アクセントデータに応し
たベロンティデータを差し引き(ステップ522)、そ
の都度アクセントデータを+1していく (ステップ5
23)。
In step 505, if the human data is heronicity data, this heronicity data is stored in the working RAM 11.
Set the heronti register in a, and set the accent data in the pronunciation register to "0" (step 520),
The veronti data corresponding to the accent data of this velocity list data is subtracted from the herocity data (step 522) until the veronti data no longer exceeds the herocity data corresponding to the accent data of the velocity list data (step 521). , add 1 to the accent data each time (Step 5
23).

ヘロンティデータか、ベロシティリストデータの上記ア
クセントデータに応したヘロシティデタを越えなくなれ
ば、アクセントデータが「15」以上になっている場合
のみ(ステップ524)このアクセントデータを「15
」に戻しくステップ525)、発音レジスタの全データ
の書き込みか終了していれば(ステップ51B)、この
アクセントデータを発音レジスタ内の他のデータととち
に、RAli]]内の演奏情報エリアに書き込んで(ス
テップ5]4)、発音レジスタをクリアしくステップ5
1.5)、上記ステップ502に戻る。
If the heronicity data does not exceed the heronicity data corresponding to the accent data of the velocity list data, only if the accent data is "15" or more (step 524), change this accent data to "15".
” (step 525), and if all data in the sound register has been written (step 51B), this accent data is added to the performance information area in RAli] along with other data in the sound register. (Step 5) 4) to clear the sound register.
1.5), return to step 502 above.

上記ステップ506で、入力データかその他のデータで
あれば、そのデータのRAM1.1内のl寅奏情報エリ
アへの書き込み処理を行う。この場合、人力データかス
テップタイムデータやゲートタイムデータのとき、上述
のステップ520〜525.513〜515と同様の処
理か行われていくことになる。
In the above step 506, if the data is input data or other data, the data is written into the first performance information area in the RAM 1.1. In this case, when the data is manual data, step time data, or gate time data, the same processing as steps 520 to 525 and 513 to 515 described above will be performed.

本発明は上記実施例に限定されず、本発明の趣旨を逸脱
しない範囲で種々変更可能である。例えば、本発明の楽
音データ処理方式は、共通部分データとして倍率データ
とし、特有部分データとして楽音データを倍率データて
除したものてもよいし、第4図の各リストにつき、共通
部分データをいくつおきに読み出すかを示すデータとし
たり、偶数番目のデータと奇数番目のデータのいずれを
読み出すかを示すデータとしてもよいし、共通部分デー
タとして演算式データとし、特有部分データとして演算
式データから楽音データを導出する代入データとしても
よい。また、共通部分データであるモートデータは、特
有部分データである発音データに対し、共通する発音デ
ータ群ことでなく、一定例数おきに挿入してもよい。こ
のほか、本発明の楽音データ処理方式は、キーナンハデ
タ、ベロシティデータ以外の楽音データに適用してもよ
い。
The present invention is not limited to the above embodiments, and various changes can be made without departing from the spirit of the present invention. For example, the musical tone data processing method of the present invention may use magnification data as the common part data and divide the musical tone data by the magnification data as the unique part data, or how many common part data are used for each list in FIG. It may be data that indicates whether to read every other data, data that indicates whether to read out even-numbered data or odd-numbered data, or it may be data that indicates whether to read out even-numbered data or odd-numbered data. It may also be data that indicates whether to read out even-numbered data or odd-numbered data. It may also be data that indicates whether to read out even-numbered data or odd-numbered data. It may also be substituted data for deriving data. Moreover, the mote data, which is the common part data, may be inserted into the pronunciation data, which is the unique part data, not only in a common pronunciation data group, but also at regular intervals. In addition, the musical tone data processing method of the present invention may be applied to musical tone data other than Keenan data and velocity data.

[発明の効果コ 以上詳述したように、本発明によれば、各楽音から、各
楽音データに共通する共通部分データと、共通部分以外
の特有部分データとを抽出し、特有部分データを楽音デ
ータと同じ個数分とし、共通部分データを楽音データよ
り少ない個数分とした。
[Effects of the Invention] As described in detail above, according to the present invention, common part data that is common to each musical tone data and unique part data other than the common part are extracted from each musical tone, and the unique part data is added to the musical tone. The number of pieces of data is the same as that of the data, and the number of common portion data is smaller than the number of pieces of musical tone data.

従って、各楽音データを特有部分データにまで圧縮でき
て、個々のデータ長を短くてきる。また、共通部分デー
タは、楽音データの個数より少なくしているから、楽音
データ群全体としてのデータ量も少なくすることかでき
る。
Therefore, each tone data can be compressed into unique partial data, and the length of each piece of data can be shortened. Furthermore, since the number of common portion data is smaller than the number of musical tone data, the amount of data for the entire musical tone data group can also be reduced.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図乃至第12図は本発明の実施例を示すもので、第
1図は楽音データの記憶フォーマットを示す図であり、
第2図は電子楽器の全体回路図であり、第3図は楽音デ
ータ群よりなる演奏情報を示す図であり、第4図はRO
Ml 2に記憶される各楽音データを変換合成するため
のリストを示す図であり、第5図は演奏情報として記憶
される演奏例を示す図であり、第6図はワーキングRA
 Mllaを示す図であり、第7図はアサインメントメ
モリ8を示す図であり、第8図〜第10図は演奏情報再
生処理のフローチャート図であり、第11図は第9図の
ステップ204の発音処理のフローチャート図であり、
第12図は演奏情報記録処理のフローチャート図であり
、第13図及び第14図は従来例を示す図である。 1・・・キーボード、3・・タブレットスイッチマトリ
ックス、5・・プログラマブルタイマ、6・・・CPU
、 11−RAM、 11 a−ワーキングRAM。 12・・・ROM 第]A図 楽音データフォーマット (])メロディ発音デ タ (2)和音発音デ タ ノズム発音デ 夕 (4)モ トデ タ ベロ/ティリスト 第1B図 楽音データフォーマット (5)演奏終了データ (6)小節デ 夕 (5)音色データ メロディ演奏情報 (2)和音演奏情報 ノスム演奏情報 第5図 濱 ノート−イタhj (1)メロディ演奏、 勅者廣昼 (3) リズム7f4ト ワ 第6図 キンクRAM  1 a 第8図 第7図 アサインメントメモリ 第10図 7両−生エンド郊す里 第13図 従来の楽音データ (1)メロディ演奏情報 小 節 音 色 発音 (ド) 発音 (し) 発音 (ミ) 発音( ファ) 小 節 発音 (ソ) 発音 (う) 発音 (ン) 発音 (ト) 演奏 終了 (2)和音演奏情報 小 節 音 色 発音 (ト) 発音 (ミ) 発音 (ソ) 発音 (ト) 宛名 ファ) 発音 (う) 小 節 発音 (ン) 発音 (し) 発音 (ソ) ノスム演秦情報
1 to 12 show embodiments of the present invention, and FIG. 1 is a diagram showing a storage format of musical tone data,
Fig. 2 is an overall circuit diagram of the electronic musical instrument, Fig. 3 is a diagram showing performance information consisting of a group of musical tone data, and Fig. 4 is a diagram showing the RO
FIG. 5 is a diagram showing a list for converting and synthesizing each musical tone data stored in Ml 2, FIG. 5 is a diagram showing a performance example stored as performance information, and FIG.
FIG. 7 is a diagram showing the assignment memory 8, FIGS. 8 to 10 are flowcharts of performance information reproduction processing, and FIG. 11 is a diagram showing step 204 of FIG. 9. It is a flowchart diagram of pronunciation processing,
FIG. 12 is a flowchart of performance information recording processing, and FIGS. 13 and 14 are diagrams showing a conventional example. 1...Keyboard, 3...Tablet switch matrix, 5...Programmable timer, 6...CPU
, 11-RAM, 11 a-Working RAM. 12...ROM No.] Figure A Musical tone data format (]) Melody pronunciation data (2) Chord pronunciation data Nosm pronunciation data (4) Moto data Bello/Tirist Figure 1B musical tone data format (5) Performance end data (6) Measures Date evening (5) Tone data Melody performance information (2) Chord performance information Nosum performance information Figure 5 Hama Note - Ita hj (1) Melody performance, Chosha Hirohiru (3) Rhythm 7f4 Towa Figure 6 Kink RAM 1 a Fig. 8 Fig. 7 Assignment memory Fig. 10 Fig. 7 Ryo - live end Kuasato Fig. 13 Conventional musical sound data (1) Melody performance information Bar tone Pronunciation (C) Pronunciation (Shi) Pronunciation (Mi) Pronunciation (F ) Measure pronunciation (G) Pronunciation (U) Pronunciation (N) Pronunciation (G) End of performance (2) Chord performance information Measure tone pronunciation (G) Pronunciation (E) Pronunciation (G) Pronunciation (G) Address F) Pronunciation (U) ) Measure pronunciation (n) Pronunciation (shi) Pronunciation (so) Nosum enqin information

Claims (5)

【特許請求の範囲】[Claims] (1)複数個の楽音データのうち、それぞれに共通する
部分を示す共通部分データを抽出する共通抽出手段と、 この共通抽出手段で抽出された、共通部分データ以外の
特有部分データを抽出する特有抽出手段と、 この特有抽出手段で抽出された特有部分データを上記楽
音データと同じ個数分出力する特有出力手段と、 上記共通抽出手段で抽出された共通部分データを上記楽
音データより少ない個数分出力する共通出力手段とを備
えたことを特徴とする楽音データ処理方式。
(1) A common extraction means for extracting common part data indicating parts common to each of a plurality of pieces of musical tone data, and a unique part data for extracting unique part data other than the common part data extracted by this common extraction means. Extracting means; Unique output means for outputting the same number of unique part data extracted by the unique extracting means as the musical sound data; and outputting a smaller number of common part data extracted by the common extracting means than the musical sound data. A musical tone data processing method characterized by comprising a common output means for
(2)複数個の楽音データを、上記特有出力手段より出
力された特有部分データ及び共通出力手段より出力され
た共通部分データの形式で記憶したことを特徴とする請
求項1記載の楽音データ処理方式。
(2) Musical sound data processing according to claim 1, characterized in that a plurality of pieces of musical sound data are stored in the form of specific part data outputted from the specific output means and common part data outputted from the common output means. method.
(3)請求項2記載の楽音データ記憶方式の形式で記憶
されたデータのうち、上記共通部分データを読み出す共
通読み出し手段と、 当該データのうち、上記特有部分データを読み出す特有
読み出し手段と、 これら共通読み出し手段によって読み出された共通部分
データと、特有読み出し手段によって読み出された特有
部分データとを、合成する合成手段とを備えたことを特
徴とする楽音データ処理方式。
(3) common reading means for reading out the common part data out of the data stored in the format of the musical sound data storage method according to claim 2; and unique reading means for reading out the unique part data out of the data; 1. A musical tone data processing method comprising a synthesis means for synthesizing common part data read by a common reading means and unique part data read by a specific reading means.
(4)上記共通部分データは、上記楽音データの変動範
囲に対し、一定の値のバイアスデータであり、上記特有
部分データは、各楽音データからバイアスデータを除い
た残りの偏差データであることを特徴とする請求項1、
2または3記載の楽音データ処理方式。
(4) The above-mentioned common part data is bias data with a constant value for the variation range of the above-mentioned musical tone data, and the above-mentioned unique part data is the residual deviation data after removing the bias data from each musical tone data. Claim 1 characterized in:
The musical sound data processing method described in 2 or 3.
(5)上記共通部分データは、上記楽音データの変動範
囲に対し、変動の範囲を示す変動率データであり、上記
特有部分データは、各楽音データの変動範囲の中の位置
を示す偏差率データであることを特徴とする請求項1、
2または3記載の楽音データ処理方式。
(5) The above-mentioned common part data is variation rate data indicating the range of variation with respect to the variation range of the above-mentioned musical tone data, and the above-mentioned unique part data is deviation rate data indicating the position within the variation range of each musical tone data. Claim 1 characterized in that
The musical sound data processing method described in 2 or 3.
JP2229644A 1990-08-30 1990-08-30 Music data processing apparatus and music data processing method Expired - Fee Related JP3017260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2229644A JP3017260B2 (en) 1990-08-30 1990-08-30 Music data processing apparatus and music data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2229644A JP3017260B2 (en) 1990-08-30 1990-08-30 Music data processing apparatus and music data processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP9230345A Division JP2859870B2 (en) 1997-08-11 1997-08-11 Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method

Publications (2)

Publication Number Publication Date
JPH04110895A true JPH04110895A (en) 1992-04-13
JP3017260B2 JP3017260B2 (en) 2000-03-06

Family

ID=16895432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2229644A Expired - Fee Related JP3017260B2 (en) 1990-08-30 1990-08-30 Music data processing apparatus and music data processing method

Country Status (1)

Country Link
JP (1) JP3017260B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5736486A (en) * 1980-08-13 1982-02-27 Nippon Gakki Seizo Kk Automatic playing device
JPS5764782A (en) * 1980-10-08 1982-04-20 Nippon Musical Instruments Mfg Automatic performance device
JPS5786890A (en) * 1980-11-19 1982-05-31 Nippon Musical Instruments Mfg Automatic performer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5736486A (en) * 1980-08-13 1982-02-27 Nippon Gakki Seizo Kk Automatic playing device
JPS5764782A (en) * 1980-10-08 1982-04-20 Nippon Musical Instruments Mfg Automatic performance device
JPS5786890A (en) * 1980-11-19 1982-05-31 Nippon Musical Instruments Mfg Automatic performer

Also Published As

Publication number Publication date
JP3017260B2 (en) 2000-03-06

Similar Documents

Publication Publication Date Title
US4708046A (en) Electronic musical instrument equipped with memorized randomly modifiable accompaniment patterns
US4327622A (en) Electronic musical instrument realizing automatic performance by memorized progression
JPH03126996A (en) Motif player
JPH06295179A (en) Musical performance information analyzing device and chord detecting device
US5478967A (en) Automatic performing system for repeating and performing an accompaniment pattern
JPH04110895A (en) Musical sound data processing system
JP2859870B2 (en) Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method
KR930007833B1 (en) Electronic music instrument
JP2522337B2 (en) Automatic playing device
US5824932A (en) Automatic performing apparatus with sequence data modification
US5070758A (en) Electronic musical instrument with automatic music performance system
JP3413842B2 (en) Automatic accompaniment device
US5436404A (en) Auto-play apparatus for generation of accompaniment tones with a controllable tone-up level
JPH02173698A (en) Electronic musical instrument
JP3324154B2 (en) Automatic accompaniment device
JP2619237B2 (en) Automatic accompaniment device for electronic musical instruments
JPH05188961A (en) Automatic accompaniment device
JP2623175B2 (en) Automatic performance device
JPS63193199A (en) Automatically accompanying apparatus for electronic musical instrument
JP3171436B2 (en) Automatic accompaniment device
JP3521561B2 (en) Melody converter
JPH06274170A (en) Automatic playing device
JPH0736114B2 (en) Automatic accompaniment device
JP2546272B2 (en) Automatic musical instrument accompaniment device
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees