JP2859870B2 - Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method - Google Patents

Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method

Info

Publication number
JP2859870B2
JP2859870B2 JP9230345A JP23034597A JP2859870B2 JP 2859870 B2 JP2859870 B2 JP 2859870B2 JP 9230345 A JP9230345 A JP 9230345A JP 23034597 A JP23034597 A JP 23034597A JP 2859870 B2 JP2859870 B2 JP 2859870B2
Authority
JP
Japan
Prior art keywords
data
control data
tone control
performance
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP9230345A
Other languages
Japanese (ja)
Other versions
JPH10143150A (en
Inventor
勉 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP9230345A priority Critical patent/JP2859870B2/en
Publication of JPH10143150A publication Critical patent/JPH10143150A/en
Application granted granted Critical
Publication of JP2859870B2 publication Critical patent/JP2859870B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、楽音制御データ圧
縮装置、楽音制御データ圧縮方法、楽音制御データ伸長
装置及び楽音制御データ伸長方法に関し、特に楽音制御
データの圧縮・伸長の改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tone control data compression device, a tone control data compression method, a tone control data decompression device and a tone control data decompression method, and more particularly to an improvement in compression / decompression of tone control data.

【0002】[0002]

【従来技術】楽音データには、代表的なものは、図16
に示すように、キーナンバ、ゲートタイム、ベロシテ
ィ、ステップタイムがある。このうち、キーナンバを例
にとると、従来では、例えば、キーナンバデータのデー
タ長を7ビットとし、上位3ビットをオクターブデータ
とし、7つのオクターブを示すようにし、下位4ビット
を音名データとし、12個の音名を示すようにして、最
高84個の音高を表わすことができるようになってい
た。
2. Description of the Related Art A typical musical tone data is shown in FIG.
As shown in (1), there are a key number, a gate time, a velocity, and a step time. Taking the key number as an example, conventionally, for example, the data length of the key number data is 7 bits, the upper 3 bits are octave data, the 7 octaves are indicated, and the lower 4 bits are sound name data. , And 12 pitch names, so that a maximum of 84 pitches can be represented.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、実際の
演奏では、かなり高い音や、かなり低い音は、頻繁には
演奏されず、中音域の2〜3オクターブの範囲で演奏さ
れることが多く、7ビットのデータ長のキーナンバを常
時使うことは無駄が多かった。
However, in an actual performance, a considerably high sound and a considerably low sound are not frequently performed, but are often performed in a range of two to three octaves in the middle range. It was wasteful to always use a key number having a data length of 7 bits.

【0004】また、コード(和音)伴奏では、メロディ
演奏に比べ、押鍵の速さ又は強さには、それほど変化は
なく、ベロシティデータに8ビット長も使うことは無駄
が多かった。そして、コード演奏では、メロディ演奏に
比べ、音長や演奏タイミングにそれほど細かい表現が必
要とされることが少なく、ゲートタイム、ステップタイ
ムの精度は粗くてもよかった。
[0004] Further, in chord (chord) accompaniment, the speed or strength of key depression does not change much compared to melody performance, and it is wasteful to use an 8-bit length for velocity data. Compared with melody performance, chord performance requires less detailed expression of pitch and performance timing, and gate time and step time accuracy may be coarse.

【0005】さらに、リズム演奏では、メロディ演奏に
比べ、パーカッシブ音であるため、ゲートタイムは一律
であり、ゲートタイムデータは不要となる。その反面、
メロディ演奏より高い精度のステップタイムとベロシテ
ィが必要となる。
[0005] Furthermore, in rhythm performance, since the percussive sound is used as compared with melody performance, the gate time is uniform, and gate time data is not required. On the other hand,
Requires a higher precision step time and velocity than the melody performance.

【0006】このように、図16に示すデータ形式は、
メロディ演奏に合わせたものであり、他のコード伴奏、
リズム演奏には無駄となったり、不十分となったりする
部分があった。
As described above, the data format shown in FIG.
It is matched to the melody performance, and other chord accompaniment,
Some parts of the rhythm performance were wasted or inadequate.

【0007】本発明は、上述した課題を解決するために
なされたものであり、楽音データ個々のデータ長を短く
するとともに、楽音データ群全体としてのデータ量も少
なくでき、しかもメロディ、コード、リズム等のいずれ
の演奏パートのデータ処理においても、無駄なくデータ
処理を行うことのできる楽音データ処理方式を提供する
ことを目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and can reduce the data length of each musical tone data, reduce the data amount of the entire musical tone data group, and further improve the melody, chord, and rhythm. It is an object of the present invention to provide a musical tone data processing system capable of performing data processing without waste in data processing of any performance part.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明においては、特定の演奏種類に対応する楽音
制御データと、この特定の演奏種類以外の演奏種類に対
応する楽音制御データとを圧縮、伸長または記憶し、こ
の圧縮前または伸長後の両データのビット数は同じであ
り、この圧縮後または伸長前のデータのビット数は互い
に異なるようにした。これにより、各楽音制御データを
各演奏種類に応じた最適な圧縮記憶状態にすることがで
き、効率の良い楽音制御データの圧縮または記憶を実現
することができる。
In order to achieve the above-mentioned object, according to the present invention, tone control data corresponding to a specific performance type and tone control data corresponding to a performance type other than the specific performance type are provided. Are compressed, decompressed or stored, and the bit numbers of the data before and after the compression are the same, and the bit numbers of the data before and after the compression are different from each other. As a result, each tone control data can be set to an optimal compression storage state according to each performance type, and efficient compression or storage of the tone control data can be realized.

【0009】また、上記目的を達成するために、本発明
においては、各楽音から、各楽音データに共通する共通
部分データと、共通部分以外の特有部分データとを抽出
し、特有部分データを楽音データと同じ個数分とし、共
通部分データを楽音データより少ない個数分とした。
これにより、各楽音データを特有部分データにまで圧縮
できて、個々のデータ長を短くできる。また、共通部分
データは、楽音データの個数より少なくしているから、
楽音データ群全体としてのデータ量も少なくすることが
できる。
In order to achieve the above object, according to the present invention, common portion data common to each tone data and unique portion data other than the common portion are extracted from each tone, and the unique portion data is extracted from the tone. The same number of pieces of data were used, and the number of common part data was smaller than that of musical sound data.
As a result, each tone data can be compressed to specific partial data, and the length of each data can be shortened. Also, since the common part data is smaller than the number of music data,
The data amount of the entire musical tone data group can also be reduced.

【0010】[0010]

【発明の実施の形態】本発明は、図1(1)(2)
(3)に示すように、特有部分データである発音データ
内の各データを圧縮し、この各データを図1(4)に示
すモードデータに基づいて伸長し、元のベロシティデー
タ、キーナンバデータ、ステップタイムデータ、ゲート
タイムデータにする。このモードデータは、図4(1)
(2)(3)に示すように、発音データのところどころ
に記憶されているだけである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described with reference to FIGS.
As shown in (3), each data in the sound data, which is unique partial data, is compressed, and each data is decompressed based on the mode data shown in FIG. 1 (4), and the original velocity data, key number data , Step time data, and gate time data. This mode data is shown in FIG.
(2) As shown in (3), the sound data is only stored in some places.

【0011】上記データの伸長は、図13のステップ4
04、406、408、412、415、420で行わ
れ、この後アサインメントメモリ8に書き込まれて発音
される。また上記データの圧縮記憶は、キーナンバデー
タについては図14のステップ508〜514で行わ
れ、ベロシティデータについては図14のステップ51
7〜518及び図15の520〜525及び図14の5
13〜514で行われる。
The above data decompression is performed in step 4 in FIG.
04, 406, 408, 412, 415 and 420, and thereafter, the data is written to the assignment memory 8 and the sound is generated. The compression storage of the data is performed in steps 508 to 514 in FIG. 14 for key number data, and in step 51 in FIG. 14 for velocity data.
7 to 518, 520 to 525 in FIG. 15, and 5 in FIG.
13 to 514.

【0012】1.全体回路 図3は、電子楽器の全体回路を示すものである。キーボ
ード1の各キーは、キースキャン回路2によってスキャ
ンされ、キーオン、キーオフが検出される。この検出結
果は、CPU6によって、楽音発生回路7内のアサイン
メントメモリ8に書き込まれる。アサインメントメモリ
8は、RAM11と一体構成としてもよい。
1. Overall Circuit FIG. 3 shows the overall circuit of the electronic musical instrument. Each key of the keyboard 1 is scanned by the key scan circuit 2 to detect key-on and key-off. This detection result is written by the CPU 6 into the assignment memory 8 in the musical sound generation circuit 7. The assignment memory 8 may be integrated with the RAM 11.

【0013】タブレットスイッチマトリックス3の各ス
イッチは、キーボード1の音色、リズム等の選択を行う
もので、各スイッチは、タブレットスキャン回路4によ
ってスキャンされる。このスキャン結果、すなわち選択
指定された音色、リズム等に関するデータは、CPU6
によって、楽音発生回路7に送られる。
Each switch of the tablet switch matrix 3 selects a tone color, a rhythm and the like of the keyboard 1, and each switch is scanned by the tablet scan circuit 4. The scan result, that is, data relating to the tone and rhythm selected and designated,
Is sent to the musical tone generation circuit 7.

【0014】なお、上記キーボード1は、電子ギター等
の電子弦楽器、電子吹奏(管)楽器、電子打楽器等で代
用してもよく、楽音の発音指示ができれば何でもよい。
The keyboard 1 may be replaced by an electronic stringed instrument such as an electronic guitar, an electronic wind (wind) instrument, an electronic percussion instrument, or the like, and may be anything as long as it can give an instruction to generate a musical tone.

【0015】楽音発生回路7では、送られてきた各種デ
ータや、アサインメントメモリ8にセットされたデータ
に応じた楽音信号が生成され、D/A変換器9を介し、
サウンドシステム10へ送られて、楽音が生成発音され
る。ROM12には、CPU6が各種処理を行うための
プログラムや、演奏情報、後述するベロシティリスト、
ステップリスト、ゲートリスト、コードルートリスト、
音色リスト、場合によっては楽音波形データやエンベロ
ープ波形データが記憶されている。RAM11には、演
奏情報の他、各種処理データ等の値の変わる変更データ
が記憶される他、ワーキングRAM11aも形成されて
いる。
The tone generator 7 generates a tone signal in accordance with the various data sent and the data set in the assignment memory 8, and outputs the tone signal through the D / A converter 9.
The sound is sent to the sound system 10 to generate and generate a musical tone. The ROM 12 stores programs for the CPU 6 to perform various processes, performance information, a velocity list described later,
Step list, gate list, chord route list,
A tone color list, and in some cases, musical tone waveform data and envelope waveform data are stored. The RAM 11 stores, in addition to performance information, change data such as various kinds of processing data and the like, whose values change, and also includes a working RAM 11a.

【0016】プログラマブルタイマ5は、プログラマブ
ルカウンタ等から構成され、入力されたデータに応じた
周期のインタラプト信号INTをCPU6に出力する。
このプログラマブルタイマ5では、設定テンポに応じた
カウント、すなわち4分音符の時間長当り、48クロッ
ク分のカウントが行われ、後述するステップタイムデー
タ、ゲートタイムデータ等のカウントに使用される。
The programmable timer 5 includes a programmable counter or the like, and outputs an interrupt signal INT having a cycle corresponding to the input data to the CPU 6.
The programmable timer 5 counts according to the set tempo, that is, counts for 48 clocks per quarter note time length, and is used for counting step time data, gate time data, and the like described later.

【0017】2.演奏情報 図4は、RAM11及びROM12に記憶されている。
演奏情報の記憶フォーマットを示すものである。図4
(1)はメロディ演奏情報であり、図4(2)は和音
(コード)演奏情報であり、図4(3)はリズム演奏情
報である。 演奏情報の中の個々の楽音データは、2バ
イト構成であり各楽音データは、小節データ、モードデ
ータ、音色データ、発音データ、終了データ等を示して
いる。 このうち、発音データは、図1(1)〜(3)
に示すように、メロディ、和音、リズムで異なる構成と
なっている。
2. Performance information FIG. 4 is stored in the RAM 11 and the ROM 12.
It shows a storage format of performance information. FIG.
(1) is melody performance information, FIG. 4 (2) is chord (chord) performance information, and FIG. 4 (3) is rhythm performance information. Each tone data in the performance information has a 2-byte configuration, and each tone data indicates bar data, mode data, tone color data, tone data, end data, and the like. Of these, the pronunciation data is shown in FIGS.
As shown in the figure, the melody, chord, and rhythm have different configurations.

【0018】2−1.メロディ発音データ 図1(1)に示すメロディ発音データは、3ビットのア
クセントデータ及び5ビットのノートナンバデータ、4
ビットのステップデータ及び4ビットのゲートレベルデ
ータからなっている。
2-1. Melody pronunciation data The melody pronunciation data shown in FIG. 1A is composed of 3-bit accent data, 5-bit note number data,
It consists of bit step data and 4-bit gate level data.

【0019】アクセントデータは、押鍵の速さ又は強さ
を示すデータである。このデータは、3ビットであるた
め、「0」〜「7」の値しかとることができないが、後
述するモードデータの中のベロシティリストデータ「0
0(0)」「01(1)」「10(2)」「11
(3)」に基づいて、より広い範囲の値に拡張変換され
る。
The accent data is data indicating the speed or strength of key depression. Since this data is 3 bits, it can take only values of “0” to “7”, but the velocity list data “0” in the mode data to be described later.
0 (0), "01 (1),""10(2),""11
(3) ", is expanded and converted into a wider range of values.

【0020】この拡張は、図5(1)〜(4)に示すと
うりであり、この4つのベロシティリストに基づき、
「0」〜「7」のアクセントデータが、「0」〜「6
4」、「0」〜「88」、「34」〜「127」、「6
8」〜「127」の本来のベロシティデータにそれぞれ
変換合成される。この場合、図5(1)〜(4)に示す
アクセントデータは「0」〜「15」であり、アクセン
トデータは実際には2倍又は2倍+1される。このベロ
シティリストのデータは、上述のROM12に記憶され
ている。
This extension is as shown in FIGS. 5A to 5D. Based on these four velocity lists,
The accent data of “0” to “7” is “0” to “6”.
4 "," 0 "to" 88 "," 34 "to" 127 "," 6 "
8 "to" 127 ". In this case, the accent data shown in FIGS. 5A to 5D is “0” to “15”, and the accent data is actually doubled or doubled + 1. The data of the velocity list is stored in the ROM 12 described above.

【0021】ベロシティリストデータ「00(0)」
「01(1)」「10(2)」「11(3)」は、ベロ
シティデータの変動の範囲を示す変動率データと同義で
あり、アクセントデータ「0」〜「15」は、上記変動
範囲の中における位置を示す偏差率データと同義であ
る。
Velocity list data "00 (0)"
“01 (1)”, “10 (2)”, and “11 (3)” are synonymous with the fluctuation rate data indicating the range of fluctuation of the velocity data, and the accent data “0” to “15” indicate the fluctuation range. This is synonymous with the deviation rate data indicating the position in.

【0022】図5(1)〜(4)に示すベロシティリス
トは、これ以外のデータ形式でもよい。また、ベロシテ
ィリストデータは、演算式で代用してもよい。例えば、
図5(1)のベロシティリストであれば、4×(アクセ
ントデータ+1)(但しアクセントデータ=0のときベ
ロシティデータ=0)となり、図5(3)のベロシティ
リストであれば、6×(アクセントデータ)+34(但
しアクセントデータ=15のときベロシティデータ=1
27)となる。
The velocity lists shown in FIGS. 5A to 5D may have other data formats. Further, the velocity list data may be substituted by an arithmetic expression. For example,
In the case of the velocity list of FIG. 5A, 4 × (accent data + 1) (note that when the accent data = 0, the velocity data = 0), and in the case of the velocity list of FIG. Data) +34 (However, when accent data = 15, velocity data = 1
27).

【0023】ノートナンバデータは、音高を示すデータ
である。このデータは、5ビットであるため、「0」〜
「31」の値しかとることができないが、後述するモー
トデータの中の4ビットのノートバイアスデータに基づ
いて、より広い範囲の値をとることが可能となる。ノー
トナンバデータは、2オクターブ強の範囲のキーナンバ
を示しており、ノートバイアスデータは、半オクターブ
単位の値を示すデータであり、ノートバイアスデータを
6倍してノートナンバデータを加算し、本来のキーナン
バデータが加算合成される。
The note number data is data indicating a pitch. Since this data is 5 bits, “0” to
Although it can only take the value of "31", it is possible to take a wider range of values based on the 4-bit note bias data in the moat data described later. The note number data indicates a key number in the range of slightly more than two octaves, and the note bias data is data indicating a value in half-octave units. The note bias data is multiplied by 6 and the note number data is added. The key number data is added and synthesized.

【0024】ノートバイアスデータは、「0000」で
C0 、「0010」でC1 、「0100」でC2 、「0
110」でC3 、「1000」でC4 、「1010」で
C5、「1100」でC6 、「1110」でC7 を示し
ている。ノートバイアスデータは、ベース演奏では、C
2 の音高で十分であり、和音伴奏では、C3 の音高で十
分であり、メロディ演奏では、メロディ音の音高が、上
記ノートナンバデータのとりうる2オクターブ強の範囲
を越えるごとに、C3 、C4 、C5 …と変えられてい
く。 このノートバイアスデータは、1オクターブ単位
の値を示すものとしてもよい。ノートバイアスデータ
は、キーナンバデータの変動範囲に対し、一定の値のデ
ータであり、ノートナンバデータは、キーナンバデータ
からバイアスデータを差し引いた偏差データと同義であ
る。
The note bias data is C0 at "0000", C1 at "0010", C2 at "0100" and "0".
"110" indicates C3, "1000" indicates C4, "1010" indicates C5, "1100" indicates C6, and "1110" indicates C7. The note bias data is C
The pitch of C2 is sufficient for the chord accompaniment, the pitch of C3 is sufficient for the chord accompaniment, and in the melody performance, every time the pitch of the melody exceeds the range of slightly more than two octaves that the note number data can take, C3, C4, C5, etc. The note bias data may indicate a value in units of one octave. The note bias data is data having a constant value with respect to the range of variation of the key number data, and the note number data is synonymous with the deviation data obtained by subtracting the bias data from the key number data.

【0025】ステップレベルデータは、小節の先頭から
発音タイミングまでの時間長を示すデータである。ゲー
トレベルデータは、楽音の音長(音符長)を示すデータ
である。これらのデータは、4ビットであるため、
「0」〜「15」の値しかとることができないが、図6
(5)(6)(7)に示す、ステップリスト、ゲートリ
ストに基づいて拡張され、本来のステップタイムデー
タ、ゲートタイムデータに変換合成される。
The step level data is data indicating the time length from the beginning of a bar to the sound generation timing. The gate level data is data indicating the musical note length (note length). Since these data are 4 bits,
Although only values of “0” to “15” can be taken, FIG.
(5) Extended based on the step list and the gate list shown in (6) and (7), and converted into original step time data and gate time data.

【0026】このステップレベルデータ、ゲートレベル
データにおいては、上述したベロシティデータ、キーナ
ンバデータのように、モードデータの中のデータに基づ
いて変換範囲が変えられることはなく、固定的なもので
ある。この場合、ステップレベルリスト及びゲートレベ
ルリストも、ROM12に記憶されている。ステップレ
ベルリストは、図6(5)(6)の2種類記憶されてい
るが、図6(5)はメロディ音用であり、図6(6)は
和音用である。リズム音用のものもROM12に記憶さ
れているが、図示しない。
The step-level data and the gate-level data are fixed, such as the above-described velocity data and key number data, without changing the conversion range based on the data in the mode data. . In this case, the step level list and the gate level list are also stored in the ROM 12. 6 (5) and (6) are stored in the step level list. FIG. 6 (5) is for a melody sound and FIG. 6 (6) is for a chord. A rhythm sound is also stored in the ROM 12, but is not shown.

【0027】なお、このステップタイムデータ、ゲート
タイムデータにおいても、ベロシティのようにリストを
選択できるようにしてもよいし、バイアスデータとこれ
以外のデータに分離してもよい。
In the step time data and the gate time data, a list may be selected like velocity, or the data may be separated into bias data and other data.

【0028】2−2.和音発音データ 図1(2)に示す和音発音データは、4ビットのコード
データ及び4ビットのルートデータ、4ビットステップ
レベルデータ及びゲートレベルデータからなっている。
コードデータに基づき、ROM12内のコードルート
リストから、各構成音のノートナンバが読み出され、ル
ートデータに応じて展開される。このコードルートリス
トは、自動伴奏装置等に広く用いられているものであ
る。上記展開された各構成音のノートナンバは、上述し
たメロディ発音データのノートナンバと同じデータフォ
ーマットのものであり、上述したようにモードデータの
中のノートバイアスデータに基づいて、本来のキーナン
バデータに加算合成される。むろん、上記コードルート
リストから直接本来のキーナンバデータを変換してもよ
い。
2-2. Chord sounding data The chord sounding data shown in FIG. 1 (2) is composed of 4-bit code data, 4-bit root data, 4-bit step level data, and gate level data.
Based on the chord data, the note number of each constituent sound is read from the chord root list in the ROM 12, and is expanded according to the root data. This chord route list is widely used in automatic accompaniment devices and the like. The note number of each of the expanded constituent sounds has the same data format as the note number of the melody sounding data described above, and the original key number data is generated based on the note bias data in the mode data as described above. Are added and synthesized. Of course, the original key number data may be directly converted from the code route list.

【0029】ステップレベルデータ及びゲートレベルデ
ータは、上述したメロディ発音データのものと同じであ
る。 この和音発音データでは、ベロシティデータは記
憶されず、発音時には、一定のベロシティデータがCP
U6によりアサインメントメモリ8に書き込まれる。
The step level data and the gate level data are the same as those of the melody sounding data described above. In this chord pronunciation data, velocity data is not stored, and at the time of tone generation, certain velocity data is stored in CP.
It is written to the assignment memory 8 by U6.

【0030】2−3.リズム発音データ 図1(3)に示すリズム発音データは、2ビットのアク
セントデータ及び6ビットのパーカスナンバデータ、5
ビットのステップレベルデータ及び3ビットのアクセン
トデータからなっている。 アクセントデータは、2ビ
ットのものと3ビットのものもを合わせて5ビットとさ
れ、より細かく精度の高いベロシティデータが変換成さ
れる。このリズム発音データのベロシティリストデータ
は、図示しないが、メロディ発音データと同様に、図5
(1)〜(4)のような4つのベロシティリストがRO
M12に記憶され、5ビットの「0」〜「31」のアク
セントデータが変換される。
2-3. Rhythm sound data The rhythm sound data shown in FIG. 1 (3) is 2-bit accent data, 6-bit percussion number data,
It consists of bit step level data and 3-bit accent data. The accent data is made up of 5 bits including the 2-bit data and the 3-bit data, and converted into finer and more accurate velocity data. The velocity list data of the rhythm sound data is not shown, but is similar to the melody sound data in FIG.
Four velocity lists like (1) to (4) are RO
It is stored in M12, and 5-bit accent data of "0" to "31" is converted.

【0031】パーカスナンバデータは、リズム演奏のド
ラム、ハット、シンバル等の音色を示すデータである。
このリズム音色音の発音周波数は、モードデータの中の
ノートバイアスデータだけに基いている。例えば、ノー
トバイアスデータにC3 のキーナンバデータを加算した
ものが、読出周波数を示すことになる。
The percussion number data is data indicating timbres such as drums, hats and cymbals of rhythm performance.
The sounding frequency of the rhythm timbre tone is based only on the note bias data in the mode data. For example, the sum of the note bias data and the key number data of C3 indicates the read frequency.

【0032】ステップレベルデータは、5ビットである
ため、より細かく精度の高いステップタイムデータが合
成出力される。このリズム発音データのステップリスト
は図示しないが、メロディ発音データ及び和音発音デー
タと同様に、図6(5)(6)と同様のステップリスト
がROM12に記憶され、5ビット「0」〜「31」の
ステップレベルデータが変換される。
Since the step level data is 5 bits, finer and more accurate step time data is synthesized and output. Although a step list of the rhythm pronunciation data is not shown, a step list similar to that shown in FIGS. 6 (5) and (6) is stored in the ROM 12 in the same manner as the melody pronunciation data and the chord pronunciation data, and has five bits "0" to "31". Is converted.

【0033】このリズム発音データでは、ゲートレベル
データは記憶されず、発音時には、一定のゲートタイム
データがCPU6によりアサインメントメモリ8に書き
込まれる。このように楽音データは、2バイト構成であ
るため、図16に示す従来の4バイト構成の半分で済
む。
In the rhythm sound data, the gate level data is not stored, and at the time of sound generation, constant gate time data is written into the assignment memory 8 by the CPU 6. As described above, the tone data has a 2-byte configuration, and therefore, requires only half of the conventional 4-byte configuration shown in FIG.

【0034】2−4.モードデータ 図1(4)はモードデータを示すものである。このモー
ドデータは、上述のアクセントデータの変換合成に使用
されるベロシティリストデータが演奏の途中で変わると
き、またはノートナンバデータに加算合成されるノート
バイアスデータが演奏の途中で変わるときに、演奏情報
の中に挿入されるものである。このモードデータも2バ
イト構成であり、1バイト目は「1111 1101」
の識別コードであり、2バイト目は、2ビットのモード
コード、2ビットのベロシティリストデータ、4ビット
のノートバイアスデータからなっている。
2-4. Mode data FIG. 1 (4) shows mode data. This mode data is used when the velocity list data used for converting and synthesizing the accent data changes during the performance, or when the note bias data added and synthesized with the note number data changes during the performance. Is inserted into the This mode data also has a 2-byte structure, and the first byte is “1111 1101”
The second byte is composed of a 2-bit mode code, 2-bit velocity list data, and 4-bit note bias data.

【0035】モードコードは、このモードデータ以降の
演奏情報がメロディ演奏のものか(「00(0)」)、
和音演奏のものか(「01(1)」)、リズム演奏のも
のか(「10(2)」)を示している。ベロシティリス
トデータは、ベロシティデータの合成出力にあたり、上
述したように、図5(1)〜(4)に示すような、いず
れのリストを使用するかを示すものである。ノートバイ
アスデータは、キーナンバデータの合成出力にあたり、
上述したように、ノートナンバデータに加算されるデー
タを示している。リズム演奏の場合は、このノートバイ
アスデータが直接、発音周波数を示している。 このモ
ードデータは、発音データのアクセントデータの変換合
成に使用されるベロシティリストデータまたはノートナ
ンバデータに加算合成されるノートバイアスデータに変
更がなければ、演奏情報の中に挿入されることはなく、
発音データの個数より少なくて済む。従って、発音デー
タそれぞれに対し、モードデータを個々記憶しなくても
済み、演奏情報全体としてのデータ量も少なくできる。
The mode code indicates whether the performance information following the mode data is for a melody performance ("00 (0)").
It indicates whether it is a chord performance (“01 (1)”) or a rhythm performance (“10 (2)”). The velocity list data indicates which list is to be used as shown in FIGS. 5A to 5D when the velocity data is synthesized and output, as described above. Note bias data is a composite output of key number data,
As described above, the data added to the note number data is shown. In the case of a rhythm performance, this note bias data directly indicates the sounding frequency. This mode data will not be inserted into the performance information unless there is a change in the note bias data added and synthesized to the velocity list data or the note number data used for the conversion synthesis of the accent data of the pronunciation data.
Less than the number of pronunciation data. Therefore, it is not necessary to individually store the mode data for each of the sound data, and the data amount of the entire performance information can be reduced.

【0036】2−5.その他の演奏情報 図2(5)は演奏終了データを示すものであり、このデ
ータは演奏の終了を示している。この終了データも2バ
イト構成であり、1バイト目及び2バイト目は「111
1 1111」の識別コードとなっている。
2-5. Other Performance Information FIG. 2 (5) shows performance end data, which indicates the end of the performance. This end data also has a 2-byte structure, and the first and second bytes are “111”.
1 1111 ".

【0037】図2(6)は小節データを示すものであ
り、このデータは演奏の中の小節のスタート地点を示し
ている。この小節データも2バイト構成であり、1バイ
ト目が「1111 1111」の識別コードとなってお
り、2バイト目が基準クロック数データとなっている。
この基準クロック数データは、1小節内の基準クロック
数を示している。例えば、4分音符長が48クロック数
で、4/4拍子ならば48×4=192クロック数、3
/4拍子ならば48×3=144クロック数となる。
FIG. 2 (6) shows bar data, which indicates the start point of a bar in the performance. This measure data also has a 2-byte structure, the first byte is an identification code of "1111 1111", and the second byte is reference clock number data.
This reference clock number data indicates the number of reference clocks in one bar. For example, if the quarter note length is 48 clocks and the time is 4/4, 48 × 4 = 192 clocks, 3
In the case of / 4 time, 48 × 3 = 144 clocks.

【0038】図2(7)は音色データを示すものであ
り、このデータは演奏楽音の音色を示している。この音
色データも2バイト構成であり、1バイト目が「111
1 1110」の識別コードとなっており、2バイト目
が、音色を示す音色ナンバデータとなっている。
FIG. 2 (7) shows timbre data, and this data shows the timbre of a musical performance tone. This tone data also has a 2-byte configuration, and the first byte is "111".
1 1110 ", and the second byte is timbre number data indicating a timbre.

【0039】3.楽音データ例 図7(1)(2)(3)は、演奏情報として記憶される
メロディ演奏、和音演奏、リズム演奏の例を示すもので
ある。これを、演奏情報の形で記憶すると、図4(1)
(2)(3)に示すようになる。これに対し、従来の記
憶方式では、図17(1)(2)(3)に示すようにな
る。
3. Example of Music Data FIGS. 7 (1), (2), and (3) show examples of melody performance, chord performance, and rhythm performance stored as performance information. When this is stored in the form of performance information, FIG.
(2) As shown in (3). On the other hand, in the conventional storage method, the results are as shown in FIGS. 17 (1), (2) and (3).

【0040】このように、1つの発音データで、従来は
4バイト必要であったのが、2バイトで済むため、図1
7の従来の記憶方式に対し、図4の本願の記憶方式で
は、かなりデータ量は少なくなる。なお、本願では、別
に2バイトのモードデータが必要となるが、発音データ
の個数分までは必要とされないので、演奏情報全体のデ
ータ量は少なくなる。
As described above, one sounding data conventionally requires four bytes, but requires only two bytes.
Compared with the conventional storage system of FIG. 7, the storage system of the present invention in FIG. In the present application, mode data of 2 bytes is separately required. However, since the number of pieces of sound data is not required, the data amount of the entire performance information is reduced.

【0041】4.ワーキングRAM11a 図8はワーキングRAM11aを示すものである。この
ワーキングRAM11a内には、アドレスポインタ、小
節カウンタ、クロックカウンタ、モードレジスタ、クロ
ックレジスタ、トーンナンバレジスタ、ステップタイム
レジスタ、ベロシティレジスタ、発音レジスタが設けら
れている。
4. Working RAM 11a FIG. 8 shows the working RAM 11a. The working RAM 11a includes an address pointer, a bar counter, a clock counter, a mode register, a clock register, a tone number register, a step time register, a velocity register, and a tone generation register.

【0042】アドレスポインタは、ROM12内の演奏
情報の読出アドレスまたはRAM11内の演奏情報の書
込アドレスがセットされる。
As the address pointer, a read address of performance information in the ROM 12 or a write address of performance information in the RAM 11 is set.

【0043】小節カウンタでは、上記読み出された演奏
情報又は、書き込まれた演奏情報の小節数がカウントさ
れる。
The measure counter counts the number of measures in the read performance information or written performance information.

【0044】クロックカウンタでは、上記プログラマブ
ルタイマ5からインタラプト信号INTが出力されるご
とに+1され、1小節分のカウントが行われて、後述す
るクロックレジスタの値に一致すると、クリアされる。
The clock counter is incremented by one every time the interrupt signal INT is output from the programmable timer 5 and counts for one bar. When the count matches a value of a clock register described later, it is cleared.

【0045】モードレジスタには、上述のモードデータ
の2バイト目のモードコード、ベロシティリストデー
タ、ノートバイアスデータがセットされる。クロックレ
ジスタには、上述の小節データの2バイト目の1小節分
の基準クロック数データがセットされる。
In the mode register, the mode code, velocity list data, and note bias data in the second byte of the above-described mode data are set. In the clock register, the reference clock number data of one measure in the second byte of the above-described measure data is set.

【0046】トーンナンバレジスタには、上述の音色デ
ータの2バイト目の音色ナンバデータがセットされる。
ステップタイムレジスタには、発音データのステップ
レベルデータが変換合成されたステップタイムデータが
セットされる。
The tone number register of the second byte of the above tone color data is set in the tone number register.
In the step time register, step time data obtained by converting and synthesizing the step level data of the sound data is set.

【0047】ベロシティレジスタには、演奏情報の書き
込みにあたり、記憶する入力ベロシティデータがセット
される。 発音レジスタには、演奏情報の書き込みにあ
たり、記憶する入力発音データがセットされたり、演奏
情報の読み出しにあたり、再生する読出発音データがセ
ットされたりする。
In the velocity register, input velocity data to be stored upon writing performance information is set. In the sound register, input sound data to be stored is set when the performance information is written, and read sound data to be reproduced is set when the performance information is read.

【0048】5.アサインメントメモリ8 図9は、アサインメントメモリ8を示すものである。こ
のアサインメントメモリ8には、楽音発生回路7に形成
される。複数チャンネル各々に割り当てられる楽音デー
タが記憶される。各チャンネルエリアには、オン/オフ
データ及びキーナンバデータ、ゲートタイムデータ、ベ
ロシティデータ、音色ナンバデータが記憶される。
5. Assignment Memory 8 FIG. 9 shows the assignment memory 8. The assignment memory 8 is formed in the tone generation circuit 7. Music tone data assigned to each of the plurality of channels is stored. Each channel area stores on / off data, key number data, gate time data, velocity data, and timbre number data.

【0049】オン/オフデータは、割り当てられている
楽音がキーオン状態(「1」)か、キーオフ状態
(「0」)かを示している。キーナンバデータは、割り
当てられている楽音のキーナンバデータを示しており、
このデータは上述の発音データのノートナンバデータと
モードデータのノートバイアスデータとから加算合成さ
れる。
The on / off data indicates whether the assigned tone is in a key-on state ("1") or a key-off state ("0"). The key number data indicates the key number data of the assigned musical tone.
This data is added and synthesized from the note number data of the sound data and the note bias data of the mode data.

【0050】ベロシティデータは、割り当てられている
楽音のキーオンの速さ又は強さを示しており、このデー
タは上述の発音データのアクセントデータとモードデー
タのベロシティリストデータとから変換合成される。
The velocity data indicates the key-on speed or strength of the assigned musical tone. This data is converted and synthesized from the above-mentioned accent data of the sound data and the velocity list data of the mode data.

【0051】音色ナンバデータは、割り当てられている
楽音の音色を示しており、このデータは上述の演奏情報
の中の音色データの音色ナンバデータがそのまま使用さ
れる。
The timbre number data indicates the timbre of the assigned tone. The timbre number data of the timbre data in the above-mentioned performance information is used as it is.

【0052】6.演奏情報再生処理 図10〜図12は、演奏情報再生処理のフローチャート
を示すものである。図10は再生スタート処理を示し、
この処理は上述のタブレットスイッチマトリックス3内
の再生スタートスイッチのオンによってスタートされ、
図11は再生中のインタラプト処理を示し、図12は再
生エンド処理を示し、この処理は再生ストップキーのオ
フによってスタートされる。
6. Performance Information Reproduction Processing FIGS. 10 to 12 show flowcharts of the performance information reproduction processing. FIG. 10 shows a reproduction start process.
This process is started by turning on the reproduction start switch in the tablet switch matrix 3 described above.
FIG. 11 shows an interrupt process during playback, and FIG. 12 shows a playback end process, which is started by turning off a playback stop key.

【0053】6−1.再生スタート処理図10の再生ス
タート処理は、タブレットスイッチマトリックス3内の
各スイッチの走査処理及びスイッチイベント処理の中の
再生スタートスイッチのオンイベント処理である。 こ
の処理では、CPU6は、再生スタートスイッチがオン
状態になったことを判別すると(ステップ100)、ワ
ーキングRAM11a内の小節カウンタ、クロックカウ
ンタをクリアし、アドレスポインタを設定する(ステッ
プ101)。このアドレスポインタには、ROM12ま
たはRAM11内の演奏情報の中のメロディ、和音、リ
ズムのいずれかの一曲の先頭アドレスデータがセットさ
れる。
6-1. Playback Start Process The playback start process in FIG. 10 is a scanning process of each switch in the tablet switch matrix 3 and an ON event process of the playback start switch in the switch event process. In this process, when the CPU 6 determines that the reproduction start switch has been turned on (step 100), it clears the bar counter and the clock counter in the working RAM 11a and sets an address pointer (step 101). In this address pointer, the head address data of any one of melody, chord, and rhythm in the performance information in the ROM 12 or the RAM 11 is set.

【0054】次に、この先頭アドレスから2バイト分の
データを読み出す。先頭アドレスから2バイト分のデー
タは、図4(1)〜(3)に示すように、小節データで
あるから、読み出した2バイト分のデータのうち、2バ
イト目の1小節分の基準クロック数データをワーキング
RAM11aのクロックレジスタにセットする(ステッ
プ102)。
Next, two bytes of data are read from the start address. As shown in FIGS. 4 (1) to 4 (3), the data of two bytes from the start address is bar data. Therefore, of the read data of two bytes, the reference clock of one bar of the second byte is read out. The numerical data is set in the clock register of the working RAM 11a (step 102).

【0055】そして、次の2バイト分のデータを読み出
す。小節データの次の2バイト分のデータは、図4
(1)〜(3)に示すように、モードデータであるか
ら、読み出した2バイト分のデータのうち、2バイト目
のモードコード、ベロシティリストデータ、ノートバイ
アスデータをワーキングRAM11aのモードレジスタ
にセットする(ステップ103)。
Then, the next two bytes of data are read. The next two bytes of measure data are shown in FIG.
As shown in (1) to (3), since the data is mode data, the mode code, velocity list data, and note bias data of the second byte of the read 2-byte data are set in the mode register of the working RAM 11a. (Step 103).

【0056】次いで、上記モードコードが「0」または
「1」、すなわち読み出しデータがメロディまたは
和音の演奏情報であれば(ステップ104)、さらに次
の2バイト分のデータを読み出す。モードデータの次の
2バイト分のデータは、図4(1)(2)に示すよう
に、音色データであるから、読み出した2バイト分のデ
ータのうち、2バイト目の音色ナンバデータをワーキン
グRAM11aの音色ナンバレジスタにセットする(ス
テップ105)。
Next, if the mode code is "0" or "1", that is, if the read data is melody or chord performance information (step 104), the next two bytes of data are read. As shown in FIGS. 4 (1) and 4 (2), the next two bytes of mode data are timbre data. Therefore, the timbre number data of the second byte of the read two bytes of data is worked. It is set in the tone number register of the RAM 11a (step 105).

【0057】このステップ105の処理は、リズムの演
奏情報については、音色データがないので、行われな
い。さらに、その次の2バイト分のデータを読み出す。
このデータは、図4(1)〜(3)に示すように、発音
データであるから、この発音データを発音レジスタにセ
ットする(ステップ106)。発音データ内のステップ
レベルデータを、図6(5)または(6)に示す、RO
M12内のステップリストに基づき変換合成を行い、ワ
ーキングRAM11a内のステップタイムレジスタにセ
ットする(ステップ107)。
The processing in step 105 is not performed for the rhythm performance information because there is no timbre data. Further, the next two bytes of data are read.
Since this data is sound generation data as shown in FIGS. 4 (1) to (3), the sound generation data is set in a sound generation register (step 106). The step level data in the sound data is represented by RO shown in FIG. 6 (5) or (6).
Conversion synthesis is performed based on the step list in M12, and the result is set in the step time register in the working RAM 11a (step 107).

【0058】最後に、プログラマブルタイマ5をイネー
ブル状態として、一定周期ごとにインタラプト信号がC
PU6に出力可能として(ステップ108)、リターン
する。この一定周期は、4分音符の時間長当り、48周
期である。
Finally, the programmable timer 5 is enabled, and the interrupt signal is output at every fixed period.
The output is made possible to the PU 6 (step 108), and the process returns. This fixed period is 48 periods per quarter note time length.

【0059】6−2.再生中インタラプト処理 図11の再生中インタラプト処理は、上記プログラマブ
ルタイマ5からCPU6にインタラプト信号が入力され
るごとに実行される。
6-2. Playback Interrupt Process The playback interrupt process shown in FIG. 11 is executed every time an interrupt signal is input from the programmable timer 5 to the CPU 6.

【0060】この処理では、CPU6は、まずワーキン
グRAM11aのクロックカウンタを+1し(ステップ
200)、クロックカウンタの値がクロックレジスタ内
の1小節分の基準クロック数データまで達していれば
(ステップ201)、小節カウンタを+1してクロック
カウンタをクリアする(ステップ202)。もし、クロ
ックカウンタの値がクロックレジスタ内の1小節分の基
準クロック数データまで達していなければ(ステップ2
01)、クロックカウンタの値がステップタイムレジス
タ内のステップタイムデータまで達している場合(ステ
ップ203)、このステップタイムデータに係る発音デ
ータに応じた楽音の発音をスタートさせる(ステップ2
04)。この発音データは、上記ワーキングRAM11
aのアドレスポインタで指定される番地のものである。
このステップ204の発音処理の詳しい内容は後述す
る。
In this process, the CPU 6 first increments the clock counter of the working RAM 11a by 1 (step 200). If the value of the clock counter has reached the reference clock number data for one measure in the clock register (step 201). Then, the bar counter is incremented by 1 to clear the clock counter (step 202). If the value of the clock counter has not reached the reference clock number data for one measure in the clock register (step 2).
01), when the value of the clock counter has reached the step time data in the step time register (step 203), the tone generation corresponding to the tone generation data related to the step time data is started (step 2).
04). The sound data is stored in the working RAM 11
The address is specified by the address pointer a.
The details of the sound generation processing in step 204 will be described later.

【0061】また、上記ステップ203で、クロックカ
ウンタの値がステップタイムレジスタ内のステップタイ
ムデータまで達していない場合、アサインメントメモリ
8内のオン/オフデータが「1」のキーオン状態中のチ
ャンネルエリアの各ゲートタイムデータを−1し(ステ
ップ215)、ゲートタイムデータが「0」になったも
のについては(ステップ216)、オン/オフデータを
「0」のキーオフ状態とし(ステップ217)、リター
ンする。 一方、CPU6は、次の2バイト分のデータ
を読み出し(ステップ205)、このデータが演奏終了
データか(ステップ206)、小節データか(ステップ
207)、音色データか(ステップ209)、モードデ
ータか(ステップ211)、発音データか(ステップ2
13)を判別する。
If the value of the clock counter has not reached the step time data in the step time register in step 203, the channel area in the key-on state where the on / off data in the assignment memory 8 is "1". Is decremented by 1 (step 215), and when the gate time data becomes "0" (step 216), the on / off data is set to a key-off state of "0" (step 217), and the program returns. I do. On the other hand, the CPU 6 reads the next two bytes of data (step 205) and determines whether the data is performance end data (step 206), bar data (step 207), timbre data (step 209), or mode data. (Step 211) or pronunciation data (step 2)
13) is determined.

【0062】小節データであれば(ステップ207)、
この小節データ内の1小節分の基準クロック数データを
ワーキングRAM11aのクロックレジスタにセットし
直して(ステップ208)、上記ステップ205に戻
る。
If it is bar data (step 207),
The reference clock number data for one measure in the measure data is reset in the clock register of the working RAM 11a (step 208), and the process returns to step 205.

【0063】音色データであれば(ステップ209)、
この音色データ内の音色ナンバデータをワーキングRA
M11aの音色ナンバレジスタにセットし直して(ステ
ップ210)。上記ステップ205に戻る。
If it is timbre data (step 209),
The timbre number data in this timbre data is
The tone number register of M11a is reset (step 210). The process returns to step 205.

【0064】モードデータであれば(ステップ21
1)、このモードデータ内のモードコード、ベロシティ
リストデータ、ノートバイアスデータをワーキングRA
M11aのモードレジスタにセットし直して(ステップ
212)、上記ステップ205に戻る。 発音データで
あれば(ステップ213)、この発音データ内のステッ
プレベルデータをROM12内のステップリストに基づ
き、変換合成を行い、ワーキングRAM11aのステッ
プタイムレジスタにセットし直して(ステップ21
4)、上記ステップ203に戻って、ステップタイムデ
ータの判別処理を行う。
If it is mode data (step 21)
1) The working code in this mode data, velocity list data, and note bias data
The mode is reset in the mode register of M11a (step 212), and the process returns to step 205. If the data is sound data (step 213), the step level data in the sound data is converted and synthesized based on the step list in the ROM 12, and is reset in the step time register of the working RAM 11a (step 21).
4) Returning to step 203, a process of determining step time data is performed.

【0065】結局、ステップ205〜212の演奏情報
の2バイト分ずつのデータの読み出しは、上記ステップ
213、214の発音データの読み出しまで続けられる
ことになる。また、上記ステップ206で、読み出した
データが演奏終了データであれば、上記ステップ215
〜217のゲートタイムデータのデクリメント処理に進
む。
As a result, the reading of the data for each two bytes of the performance information in steps 205 to 212 is continued until the reading of the sound data in steps 213 and 214 described above. If it is determined in step 206 that the read data is performance end data, the process proceeds to step 215.
The process proceeds to decrement processing of the gate time data of .about.217.

【0066】6−3.再生エンド処理 図12の再生エンド処理は、タブレットスイッチマトリ
ックス3内の各スイッチの走査処理及びスイッチイベン
ト処理の中の再生ストップスイッチのオンイベント処理
である。
6-3. Playback End Process The playback end process in FIG. 12 is a scanning process of each switch in the tablet switch matrix 3 and an ON event process of a playback stop switch in the switch event process.

【0067】この処理では、CPU6は、再生ストップ
スイッチがオン状態になったことを判別すると(ステッ
プ300)、プログラマブルタイマ5を非イネーブル状
態として、インタラプト信号の出力をストップさせ(ス
テップ301)、アサインメントメモリ8内の演奏情報
の書き込まれているすべてのチャンネルエリアのオン/
オフデータを「0」のオフ状態として(ステップ30
2)、リターンする。
In this process, when the CPU 6 determines that the reproduction stop switch has been turned on (step 300), the CPU 6 sets the programmable timer 5 to the non-enable state, stops outputting the interrupt signal (step 301), and assigns the signal. ON / OFF of all the channel areas in the performance memory 8 where the performance information is written.
The off data is set to the off state of "0" (step 30).
2) Return.

【0068】7.発音処理(ステップ204) 図13は、上記ステップ204の発音処理の詳しい内容
を示すフローチャートである。 この処理では、CPU
6は、アサインメントメモリ8内の空チャンネルをサー
チする(ステップ400)。この空チャンネルサーチ処
理は、スイッチオフチャンネルをまずサーチし、スイッ
チオフチャンネルがなければ、最先に発音開始された楽
音に係るチャンネルをサーチするというように、所定の
優先順位に従ってサーチされる。
7. FIG. 13 is a flowchart showing the detailed contents of the sound generation processing in step 204 described above. In this process, the CPU
6 searches for an empty channel in the assignment memory 8 (step 400). In this empty channel search process, the switch-off channel is searched first, and if there is no switch-off channel, the search is performed in accordance with a predetermined priority order, such as searching for the channel related to the musical tone whose sound has started first.

【0069】空チャンネルがサーチされると、CPU6
は、上記ステップ103で読み出した、ワーキングRA
M11aのモードレジスタのモードコードが「0」(メ
ロディ)か(ステップ401)、「1」(和音)か(ス
テップ402)、「2」(リズム)か(ステップ40
3)を判別する。
When an empty channel is searched, the CPU 6
Is the working RA read in step 103 above.
Whether the mode code in the mode register of M11a is “0” (melody) (step 401), “1” (chord) (step 402), or “2” (rhythm) (step 40)
3) is determined.

【0070】メロディの「0」であれば、図6(7)に
示す、ROM12内のゲートリストに基づき、ゲートレ
ベルデータを変換して、本来のゲートタイムを合成する
(ステップ404)。このゲートレベルデータは、上記
ステップ106で読み出された発音データの中のもので
あり、このときのワーキングRAM11aのアドレスポ
インタの内容は、ステップ106のときと同じである。
そして、このゲートタイムデータを上記サーチ空チャン
ネルエリアに書き込む(ステップ405)。
If the melody is "0", the gate level data is converted based on the gate list in the ROM 12 shown in FIG. 6 (7) to synthesize the original gate time (step 404). The gate level data is included in the sound data read out in step 106, and the contents of the address pointer in the working RAM 11a at this time are the same as those in step 106.
Then, this gate time data is written in the search empty channel area (step 405).

【0071】次いで、CPU6は、上記ステップ103
で読み出した、ワーキングRAM11aのモードレジス
タのベロシティリストデータに応じた、図5(1)〜
(4)に示す、ROM12のベロシティリストに基づ
き、アクセントデータを変換して、本来のベロシティデ
ータを合成する(ステップ406)。このアクセントデ
ータも、上記ステップ106で読み出された発音データ
の中のものである。そして、このベロシティデータを上
記サーチ空チャンネルエリアに書き込む(ステップ40
7)。
Next, the CPU 6 proceeds to step 103
5 (1) through 5 (b) according to the velocity list data of the mode register of the working RAM 11a read out at step (1).
Based on the velocity list in the ROM 12 shown in (4), the accent data is converted to synthesize the original velocity data (step 406). This accent data is also included in the pronunciation data read in step 106. Then, the velocity data is written to the search empty channel area (step 40).
7).

【0072】さらに、CPU6は、上記ステップ103
で読み出した、ワーキングRAM11aのモードレジス
タのノートバイアスを6倍して、ノートナンバデータを
加算して、本来のキーナンバデータを合成する(ステッ
プ408)。このノートナンバデータも、上記ステップ
106で読み出された発音データの中のものである。そ
して、このキーナンバデータを上記サーチ空チャンネル
エリアに書き込んで(ステップ409)、オン/オフデ
ータを「1」のオン状態にする(ステップ410)。
Further, the CPU 6 determines in step 103
Then, the note bias of the mode register of the working RAM 11a read out at step (6) is multiplied by 6, the note number data is added, and the original key number data is synthesized (step 408). The note number data is also included in the sound data read in step 106. Then, the key number data is written in the search empty channel area (step 409), and the on / off data is turned on at "1" (step 410).

【0073】この後、CPU6は、ワーキングRAM1
1aの音色ナンバレジスタ内の音色ナンバデータを上記
サーチ空チャンネルエリアに書き込んで(ステップ41
1)、上記ステップ205に進む。こうして、メロディ
の発音データに基づいて、メロディ音の発音が開始され
る。
Thereafter, the CPU 6 sets the working RAM 1
The timbre number data in the timbre number register 1a is written in the search empty channel area (step 41).
1), proceed to step 205 described above. In this way, the melody sound is started to be generated based on the melody sounding data.

【0074】また、上記ステップ402で、モードコー
ドが和音の「1」であれば、図6(7)に示す、ROM
12内のゲートリストに基づき、ゲートレベルデータを
変換して、本来のゲートタイムを合成する(ステップ4
12)。このゲートレベルデータは、上記ステップ10
6で読み出された発音データの中のものであり、このと
きのワーキングRAM11aのアドレスポインタの内容
は、ステップ106のときと同じである。そして、この
ゲートタイムデータを上記サーチ空チャンネルエリアに
書き込む(ステップ413)。
If it is determined in step 402 that the mode code is a chord "1", the ROM shown in FIG.
12, the gate level data is converted to synthesize the original gate time (step 4).
12). This gate level data is stored in step 10
The content of the address pointer in the working RAM 11a at this time is the same as that in step 106. Then, the gate time data is written into the search empty channel area (step 413).

【0075】次いで、CPU6は、ROM12のコード
ルートリストに基づき、上記ステップ106で読み出さ
れた発音データの中のコードルートデータを、各構成音
のノートナンバデータに変換する(ステップ414)。
そして上記ステップ103で読み出した、ワーキングR
AM11aのモードレジスタのノートバイアスデータを
6倍して、上記各構成音のノートナンバデータを加算し
て、本来のキーナンバデータを合成する(ステップ41
5)。さらに、このキーナンバデータを上記サーチ空チ
ャンネルエリアに書き込んで(ステップ416)、オン
/オフデータを「1」のオン状態にする(ステップ41
7)。
Next, the CPU 6 converts the chord root data in the sound data read out in step 106 into note number data of each constituent sound based on the chord root list in the ROM 12 (step 414).
Then, the working R read in the above step 103
The note bias data in the mode register of the AM 11a is multiplied by 6, and the note number data of each of the constituent sounds is added to synthesize the original key number data (step 41)
5). Further, the key number data is written in the search empty channel area (step 416), and the on / off data is turned on at "1" (step 41).
7).

【0076】この後、CPU6は、あらかじめ定められ
た一定の値のベロシティデータを上記サーチ空チャンネ
ルエリアに書き込み(ステップ418)、ワーキングR
AM11aの音色レジスタ内の音色ナンバデータを上記
サーチ空チャンネルエリアに書き込んで(ステップ41
9)、上記ステップ205に進む。
Thereafter, the CPU 6 writes velocity data of a predetermined constant value into the above-mentioned search empty channel area (step 418).
The timbre number data in the timbre register of the AM 11a is written in the search empty channel area (step 41).
9), proceed to step 205 described above.

【0077】こうして、和音の発音データに基づいて、
和音の発音が開始される。 さらに、上記ステップ40
3で、モードコードがリズムの「2」であれば、上記ス
テップ103で読み出した、ワーキングRAM11aの
モードレジスタのベロシティリストデータ(図示せず)
に基づき、アクセントデータを変換して、本来のベロシ
ティデータを合成する(ステップ420)。このアクセ
ントデータも上記ステップ106で読み出された発音デ
ータの中のものである。そして、このベロシティデータ
を上記サーチ空チャンネルエリアに書き込(ステップ4
21)。次いで、CPU6は、上記ステップ106で読
み出された発音データの中のパーカスナンバを、上記サ
ーチ空チャンネルエリアの音色ナンバの番地に書き込む
(ステップ422)。
Thus, based on the chord pronunciation data,
Chord sounding starts. Further, the above step 40
In step 3, if the mode code is "2" in the rhythm, the velocity list data (not shown) in the mode register of the working RAM 11a read out in step 103 described above.
, The accent data is converted to synthesize the original velocity data (step 420). This accent data is also included in the pronunciation data read in step 106. Then, the velocity data is written into the search empty channel area (step 4).
21). Next, the CPU 6 writes the percussion number in the sound data read out in step 106 into the address of the tone color number in the search empty channel area (step 422).

【0078】さらに、CPU6は、あらかじめ定められ
た一定の値のゲートタイムデータを上記サーチ空チャン
ネルエリアに書き込み(ステップ423)、上記ステッ
プ103で読み出した、ワーキングRAM11aのモー
ドレジスタのノートバイアスデータをそのまま、又はこ
のノートバイアスデータにC3 のキーナンバデータを加
算したデータを、キーナンバデータとして上記サーチ空
チャンネルエリアに書き込んで(ステップ424)、オ
ン/オフデータを「1」のオン状態とする(ステップ4
25)。こうして、リズムの発音データに基づいて、リ
ズムの発音が開始される。
Further, the CPU 6 writes gate time data of a predetermined constant value in the search empty channel area (step 423), and uses the note bias data of the mode register of the working RAM 11a read in step 103 as it is. Alternatively, the data obtained by adding the key bias data of C3 to the note bias data is written as the key number data in the search empty channel area (step 424), and the on / off data is turned on at "1" (step 424). 4
25). Thus, rhythm sound generation is started based on the rhythm sound data.

【0079】8.演奏情報記録処理 図14及び図15は、演奏情報記録処理のフローチャー
トを示すものである。この処理は、タブレットスイッチ
マトリックス3内の記録スタートスイッチのオンで開始
されるインタラプト処理である。この処理は記録ストッ
プスイッチのオンで強制的にリターンされる。
8. Performance Information Recording Process FIGS. 14 and 15 show a flowchart of the performance information recording process. This process is an interrupt process started when the recording start switch in the tablet switch matrix 3 is turned on. This process is forcibly returned when the recording stop switch is turned on.

【0080】この処理では、CPU6は、ワーキングR
AM11aのモードレジスタ及び発音レジスタをクリア
し(ステップ500)、モードレジスタ内のモードコー
ド及びベロシティリストデータをセットする(ステップ
501)。このモードコード及びベロシティリストデー
タは、タブレットスイッチマトリックス3内のスイッチ
操作によって入力される。このスイッチは、メロディ、
和音及びリズムの切換スイッチと、ベロシティ1、2、
3及び4の切換スイッチである。むろん後述するモード
切換スイッチと値スイッチとで入力してもよい。
In this processing, the CPU 6
The mode register and tone generation register of the AM 11a are cleared (step 500), and the mode code and velocity list data in the mode register are set (step 501). The mode code and the velocity list data are input by operating a switch in the tablet switch matrix 3. This switch is a melody,
Chord and rhythm changeover switches, velocity 1, 2,
3 and 4 changeover switches. Of course, it may be input by a mode switch and a value switch, which will be described later.

【0081】次いで、CPU6は、データ入力があれば
(ステップ502)、この入力データがキーナンバデー
タか(ステップ503)、ベロシティリストデータか
(ステップ504)、ベロシティデータか(ステップ5
05)、その他のデータか(ステップ506)を判別す
る。このデータ入力は、タブレットスイッチマトリック
ス3内のモード切換スイッチと値スイッチとで入力され
る。モード切換スイッチは、入力するデータを小節、モ
ード、音色、発音、演奏終了に切り換え、発音データ
は、さらにキーナンバ、ベロシティ、ステップタイム、
ゲートタイムに切り換えられる。値スイッチは、入力す
るデータ値を設定するもので、つまみまたはアップスイ
ッチ及びダウンスイッチが用いられる。
Next, if there is a data input (step 502), the CPU 6 determines whether the input data is key number data (step 503), velocity list data (step 504), or velocity data (step 5).
05), it is determined whether the data is other data (step 506). This data input is input by a mode switch and a value switch in the tablet switch matrix 3. The mode switch switches input data to measures, modes, timbres, sounds, and end of performance. The sound data also includes key numbers, velocities, step times,
Switch to gate time. The value switch sets a data value to be input, and a knob or an up switch and a down switch are used.

【0082】なお、キーナンバ、ベロシティのデータ入
力にあたっては、キーボード1の各スイッチを用いても
よい。このデータ入力は、1ステップずつデータを入力
していくものであるが、リアルタイムに入力するように
してもよい。
Note that when inputting the key number and velocity data, each switch of the keyboard 1 may be used. In this data input, data is input step by step, but may be input in real time.

【0083】上記ステップ503で、入力データがキー
ナンバであれば、このキーナンバを発音レジスタにセッ
トし、キーナンバからモードレジスタ内のノートバイア
スデータを差し引いた値が「0」以上、「28」以下か
を判別する(ステップ507)。Yesであれば、ノー
トバイアスデータを変更する必要がなく、Noであれ
ば、ノートバイアスデータを変更する必要がある。モー
ドレジスタ内のノートバイアスデータの値は、発音デー
タの書き込みが1つも行われていないときは「0」であ
るが、すでに1つでも書き込みが行われていれば、何ら
かの値となっている。
In step 503, if the input data is a key number, the key number is set in the tone generation register, and it is determined whether the value obtained by subtracting the note bias data in the mode register from the key number is "0" or more and "28" or less. A determination is made (step 507). If Yes, there is no need to change note bias data; if No, then note bias data needs to be changed. The value of the note bias data in the mode register is “0” when no sound data has been written, but has a certain value if at least one sound data has already been written.

【0084】上記ステップ506で、Noであれば、ノ
ートバイアスデータを変更するため、モードレジスタ内
のノートバイアスデータを「0」とし(ステップ50
8)、発音レジスタ内のキーナンバデータが「6」未満
すなわち半オクターブ分のデータ値未満となるまで(ス
テップ509)、キーナンバデータからこの「6」を差
し引き(ステップ510)、その都度ノートバイアスデ
ータを+1していく(ステップ511)。
If No in step 506, the note bias data in the mode register is set to "0" to change the note bias data (step 50).
8) Until the key number data in the sound register is less than "6", that is, less than a half octave data value (step 509), this "6" is subtracted from the key number data (step 510). The data is incremented by one (step 511).

【0085】キーナンバデータが「6」未満になれば、
モードレジスタのモードコード、ベロシティリストデー
タ、ノートバイアスデータを、モードデータとして、R
AM11内の演奏情報エリアに書き込む(ステップ51
2)。続いて、発音レジスタ内に、アクセントデータ、
ノートナンバデータ、ステップレベルデータ、ゲートレ
ベルデータ等のすべてのデータの書き込みが終了したか
否かを判別する(ステップ513)。すべて書き込んで
いれば、発音レジスタ内の全データを、発音データとし
て、RAM11内の演奏情報エリアに書き込んで(ステ
ップ514)、発音レジスタをクリアし(ステップ51
5)、上記ステップ502に戻る。この場合、発音レジ
スタ内のキーナンバデータがノートナンバデータとして
記憶される。こうして、ノートバイアスデータに変更が
生じた場合には、発音データとともにモードデータの書
き込みも行われる。
If the key number data is less than “6”,
The mode code, velocity list data, and note bias data of the mode register are used as mode data as R
Write to the performance information area in AM 11 (step 51)
2). Then, in the pronunciation register, accent data,
It is determined whether or not writing of all data such as note number data, step level data, gate level data and the like has been completed (step 513). If all the data have been written, all the data in the sound register is written as sound data in the performance information area in the RAM 11 (step 514), and the sound register is cleared (step 51).
5) Return to step 502 above. In this case, the key number data in the tone generation register is stored as note number data. Thus, when the note bias data is changed, the mode data is written together with the sound data.

【0086】上記ステップ506で、Yesであれば、
ノートバイアスデータを変更する必要がなく、キーナン
バデータからノートバイアスデータを差し引いた値をノ
ートナンバとして(ステップ516)、発音レジスタの
全データの書き込みが終了していれば(ステップ51
3)、発音レジスタ内の他のデータとともに、RAM1
1内の演奏情報エリアに書き込んで(ステップ51
4)、発音レジスタをクリアし(ステップ515)、上
記ステップ502に戻る。
If the result of step 506 is Yes,
It is not necessary to change the note bias data, and the value obtained by subtracting the note bias data from the key number data is used as the note number (step 516). If the writing of all the data in the tone generation register has been completed (step 51).
3), along with other data in the sound register, RAM1
1 in the performance information area (step 51).
4), the sound register is cleared (step 515), and the process returns to step 502.

【0087】上記ステップ514で、メロディ、和音、
リズムの切換スイッチが、和音のときは、同時押鍵のキ
ーナンバから、コードとルートとを判別して、このコー
ドルートデータを書き込むことになる。むろん、各構成
音のままで記憶してもよい。
In step 514, the melody, chord,
When the rhythm switch is a chord, the chord and the root are determined from the key number of the simultaneous key depression, and the chord root data is written. Of course, each component sound may be stored as it is.

【0088】上記ステップ504で、入力データがベロ
シティリストデータであれば、このベロシティリストデ
ータをモードレジスタに書き込み(ステップ517)、
このモードレジスタの全データをモードデータとして、
RAM11内の演奏情報エリアに書き込んで(ステップ
518)、上記ステップ502に戻る。こうして、ベロ
シティリストデータに変更が生じた場合にも、モードデ
ータの書き込みが行われる。
At step 504, if the input data is velocity list data, the velocity list data is written to the mode register (step 517).
All data in this mode register is used as mode data.
The data is written in the performance information area in the RAM 11 (Step 518), and the process returns to Step 502. Thus, even when the velocity list data is changed, the mode data is written.

【0089】上記ステップ505で、入力データがベロ
シティデータであれば、このベロシティデータをワーキ
ングRAM11a内のベロシティレジスタにセットし、
発音レジスタ内のアクセントデータを「0」とし(ステ
ップ520)、ベロシティデータが、ベロシティリスト
データの上記アクセントデータに応じたベロシティデー
タを越えなくなるまで(ステップ521)、ベロシティ
データから、このベロシティリストデータの上記アクセ
ントデータに応じたベロシティデータを差し引き(ステ
ップ522)、その都度アクセントデータを+1してい
く(ステップ523)。
In step 505, if the input data is velocity data, the velocity data is set in a velocity register in the working RAM 11a.
The accent data in the sound register is set to "0" (step 520). The velocity data corresponding to the accent data is subtracted (step 522), and the accent data is incremented by one each time (step 523).

【0090】ベロシティデータが、ベロシティリストデ
ータの上記アクセントデータに応じたベロシティデータ
を越えなくなれば、アクセントデータが「15」以上に
なっている場合のみ(ステップ524)、このアクセン
トデータを「15」に戻し(ステップ525)、発音レ
ジスタの全データの書き込みが終了していれば(ステッ
プ513)、このアクセントデータを発音レジスタ内の
他のデータとともに、RAM11内の演奏情報エリアに
書き込んで(ステップ514)、発音レジスタをクリア
し(ステップ515)、上記ステップ502に戻る。
If the velocity data does not exceed the velocity data corresponding to the accent data in the velocity list data, the accent data is changed to "15" only when the accent data is "15" or more (step 524). Returning (step 525), if writing of all data in the tone generation register has been completed (step 513), this accent data is written into the performance information area in the RAM 11 together with other data in the tone generation register (step 514). Then, the tone generation register is cleared (step 515), and the process returns to step 502.

【0091】上記ステップ506で、入力データがその
他のデータであれば、そのデータのRAM11内の演奏
情報エリアへの書き込み処理を行う。この場合、入力デ
ータがステップタイムデータやゲートタイムデータのと
き、上述のステップ520〜525、513〜515と
同様の処理が行われていくことになる。
In step 506, if the input data is any other data, the data is written into the performance information area in the RAM 11. In this case, when the input data is the step time data or the gate time data, the same processing as in the above steps 520 to 525 and 513 to 515 is performed.

【0092】本発明は上記実施例に限定されず、本発明
の趣旨を逸脱しない範囲で種々変更可能である。例え
ば、本発明の楽音データ処理方式は、共通部分データと
して倍率データとし、特有部分データとして楽音データ
を倍率データで除したものでもよいし、図5及び図6の
各リストにつき、共通部分データをいくつおきに読み出
すかを示すデータとしたり、偶数番目のデタと奇数番目
のデータのいずれを読み出すかを示すデータとしてもよ
いし、共通部分データとして演算式データとし、特有部
分データとして演算式データから楽音データを導出する
代入データとしてもよい。また、共通部分データである
モードデータは、特有部分データである発音データに対
し、共通する発音データ群ごとでなく、一定個数おきに
挿入してもよい。このほか、本発明の楽音データ処理方
式は、キーナンバデータ、ベロシティデータ以外の楽音
データに適用してもよい。
The present invention is not limited to the above embodiments, but can be variously modified without departing from the spirit of the present invention. For example, in the tone data processing method of the present invention, magnification data may be used as common portion data, and tone data may be divided by magnification data as specific portion data. For each of the lists shown in FIGS. It may be data indicating how many times to read, data indicating whether to read even-numbered data or odd-numbered data, or arithmetic expression data as common partial data, and arithmetic expression data as specific partial data. Substitution data for deriving musical sound data may be used. In addition, the mode data that is the common partial data may be inserted into the sound data that is the specific partial data not every common sound data group but every certain number. In addition, the tone data processing method of the present invention may be applied to tone data other than key number data and velocity data.

【0093】(A)複数個の楽音データのうち、それぞ
れに共通する部分を示す共通部分データを抽出する共通
抽出手段と、この共通抽出手段で抽出された、共通部分
データ以外の特有部分データを抽出する特有抽出手段
と、この特有抽出手段で抽出された特有部分データを上
記楽音データと同じ個数分出力する特有出力手段と、上
記共通抽出手段で抽出された共通部分データを上記楽音
データより少ない個数分出力する共通出力手段とを備え
たことを特徴とする楽音データ処理方式。
(A) Common extraction means for extracting common part data indicating a part common to each of a plurality of tone data, and unique partial data other than the common part data extracted by the common extraction means. Unique extraction means for extracting, unique output means for outputting the same number of pieces of unique part data extracted by the unique extraction means as the tone data, and less common piece data extracted by the common extraction means than the tone data A tone data processing method, comprising: common output means for outputting the same number of pieces.

【0094】(B)複数個の楽音データを、上記特有出
力手段より出力された特有部分データ及び共通出力手段
より出力された共通部分データの形式で記憶したことを
特徴とする上記A記載の楽音データ処理方式。
(B) A plurality of musical tone data are stored in the form of specific partial data output from the specific output means and common partial data output from the common output means. Data processing method.

【0095】(C)請求項2記載の楽音データ記憶方式
の形式で記憶されたデータのうち、上記共通部分データ
を読み出す共通読み出し手段と、当該データのうち、上
記特有部分データを読み出す特有読み出し手段と、これ
ら共通読み出し手段によって読み出された共通部分デー
タと、特有読み出し手段によって読み出された特有部分
データとを、合成する合成手段とを備えたことを特徴と
する楽音データ処理方式。
(C) Common reading means for reading the common part data from the data stored in the musical tone data storage format according to claim 2, and special reading means for reading the special part data among the data. And a synthesizing means for synthesizing the common part data read by the common reading means and the unique part data read by the unique reading means.

【0096】(D)上記共通部分データは、上記楽音デ
ータの変動範囲に対し、一定の値のバイアスデータであ
り、上記特有部分データは、各楽音データからバイアス
データを除いた残りの偏差データであることを特徴とす
る上記A、BまたはC記載の楽音データ処理方式。
(E)上記共通部分データは、上記楽音データの変動範
囲に対し、変動の範囲を示す変動率データであり、上記
特有部分データは、各楽音データの変動範囲の中の位置
を示す偏差率データであることを特徴とする上記A、B
またはC記載の楽音データ処理方式。
(D) The common portion data is bias data having a constant value with respect to the variation range of the tone data, and the unique portion data is residual data obtained by removing bias data from each tone data. The tone data processing method according to the above A, B or C, wherein:
(E) The common part data is fluctuation rate data indicating a fluctuation range with respect to the fluctuation range of the musical tone data, and the unique partial data is deviation rate data indicating a position in the fluctuation range of each musical sound data. A and B described above,
Or, the tone data processing method described in C.

【0097】(F)複数の演奏種類に対応する楽音制御
データを圧縮する楽音制御データ圧縮装置であって、第
1の圧縮モードでは、上記複数の演奏種類の中の特定の
演奏種類に対応する上記楽音制御データを圧縮し、第2
の圧縮モードでは、上記第1の圧縮モードで圧縮された
上記特定の演奏種類以外の演奏種類に対応する上記楽音
制御データを圧縮し、上記第1及び第2の各圧縮モード
では、上記圧縮される前の上記各楽音制御データのビッ
ト数は同じであって も、上記第1の圧縮モードで圧縮
された後の上記楽音制御データのビット数と上記第2の
圧縮モードで圧縮された後の上記楽音制御データのビッ
ト数とは互いに異なることを特徴とする楽音制御データ
圧縮装置。 (G)複数の演奏種類に対応する楽音制御
データを伸長する楽音制御データ伸長装置であって、上
記複数の演奏種類の中の特定の演奏種類に対応する上記
楽音制御データが圧縮されて記憶された第1の記憶手段
と、上記特定の演奏種類以外の演奏種類に対応する上記
楽音制御データが圧縮されて記憶された第2の記憶手段
と、上記第1の記憶手段から上記圧縮されて記憶された
上記楽音制御データを読み出して元の本来の楽音制御デ
ータに伸長し、上記第2の記憶手段から上記圧縮されて
記憶された上記楽音制御データを読み出して元の本来の
楽音制御データに伸長し、上記第1及び第2の各記憶手
段に圧縮されて記憶された上記伸長される前の上記各楽
音制御データのビット数は互いに異なっていても、上記
第1の記憶手段から伸長された後の上記楽音制御データ
のビット数と上記第2の記憶手段から伸長された後の上
記楽音制御データのビット数は同じであることを特徴と
する楽音制御データ伸長装置。 (H)上記特定の演奏
種類に対応する上記圧縮されたデータは他のデータと組
み合わされて記憶され、上記特定の演奏種類以外の演奏
種類に対応する上記圧縮されたデータも他のデータと組
み合わされて記憶され、これら組み合わされた各組の合
計ビット数は互いに同じであり、上記複数の演奏種類
は、メロディ、和音及びリズムの演奏パートであり、上
記特定の演奏種類に対応する上記データの圧縮内容と、
上記特定の演奏種類以外の演奏種類に対応する上記デー
タの圧縮内容とは異なっており、圧縮される各データに
共通して、この圧縮内容を示すデータを記憶することを
特徴とする請求項F記載の楽音制御データ圧縮装置また
は上記G記載の楽音制御データ伸長装置。 (I)上記
特定の演奏種類に対応する上記楽音制御データの圧縮内
容と、上記特定の演奏種類以外の演奏種類に対応する上
記楽音制御データの圧縮内容とは異なっており、この圧
縮内容を示すモードデータが記憶され、このモードデー
タは上記演奏種類を示し、このモードデータに基づいて
上記楽音制御データの圧縮または伸長が行われ、このモ
ードデータは、上記楽音制御データを圧縮または伸長す
るための変換テーブルを選択する情報及び/または演算
により上記圧縮された楽音制御データを伸長するバイア
スデータを含み、上記楽音制御データは、音高に関する
データ、楽音のアクセントのデータまたは発音タイミン
グを示すデータである上記F記載の楽音制御データ圧縮
装置または上記G記載の楽音制御データ伸長装置。
(F) A tone control data compression device for compressing tone control data corresponding to a plurality of performance types, wherein the first compression mode corresponds to a specific performance type among the plurality of performance types. Compressing the tone control data,
In the compression mode, the tone control data corresponding to performance types other than the specific performance type compressed in the first compression mode is compressed. In the first and second compression modes, the compressed The number of bits of the tone control data after compression in the first compression mode and the number of bits in the tone control data after compression in the second compression mode are the same even though the number of bits of each tone control data before the compression is the same. A tone control data compression device, wherein the number of bits of the tone control data is different from each other. (G) A tone control data expansion device for expanding tone control data corresponding to a plurality of performance types, wherein the tone control data corresponding to a specific performance type among the plurality of performance types is compressed and stored. A first storage unit, a second storage unit in which the tone control data corresponding to a performance type other than the specific performance type is stored in a compressed state, and the compressed storage unit in the first storage unit. The read tone control data is read and expanded to the original original tone control data, and the compressed and stored tone control data is read from the second storage means and expanded to the original original tone control data. Even if the number of bits of the tone control data before compression and stored in the first and second storage units before compression is different from each other, the bit numbers of the tone control data expanded from the first storage unit are different from each other. Musical tone control data decompression apparatus, characterized in that the number of bits of the tone control data after being extended from the number of bits of the tone control data and the second storage means are the same. (H) The compressed data corresponding to the specific performance type is stored in combination with other data, and the compressed data corresponding to a performance type other than the specific performance type is also combined with other data. The total number of bits of each of the combined sets is the same, and the plurality of performance types are melody, chord and rhythm performance parts, and the data of the data corresponding to the specific performance type is stored. Compressed content,
The method according to claim F, wherein the compression content of the data corresponding to a performance type other than the specific performance type is different, and data indicating the compression content is stored in common with each data to be compressed. The tone control data compression device described in G or the tone control data decompression device described in G above. (I) The compressed content of the tone control data corresponding to the specific performance type is different from the compressed content of the tone control data corresponding to a performance type other than the specific performance type, and indicates the compressed content. Mode data is stored. The mode data indicates the performance type. The tone control data is compressed or decompressed based on the mode data. The mode data is used to compress or decompress the tone control data. The musical tone control data includes information for selecting a conversion table and / or bias data for expanding the compressed musical tone control data by calculation, and the musical tone control data is data relating to a pitch, data of an accent of a musical tone, or data indicating a sounding timing. The tone control data compression device described in F or the tone control data decompression device described in G.

【0098】[0098]

【発明の効果】以上詳述したように、本発明によれば、
特定の演奏種類に対応する楽音制御データと、この特定
の演奏種類以外の演奏種類に対応する楽音制御データと
を圧縮、伸長または記憶し、この圧縮前または伸長後の
両データのビット数は同じであり、この圧縮後または伸
長前のデータのビット数は互いに異なるようにした。従
って、各楽音制御データを各演奏種類に応じた最適な圧
縮記憶状態にすることができ効率の良い楽音制御データ
の圧縮または記憶を実現することができる。また、各楽
音から、各楽音データに共通する共通部分データと、共
通部分以外の特有部分データとを抽出し、特有部分デー
タを楽音データと同じ個数分とし、共通部分データを楽
音データより少ない個数分とした。従って、各楽音デー
タを特有部分データにまで圧縮できて、個々のデータ長
を短くできる。また、共通部分データは、楽音データの
個数より少なくしているから、楽音データ群全体として
のデータ量も少なくすることができる。
As described in detail above, according to the present invention,
The tone control data corresponding to a specific performance type and the tone control data corresponding to a performance type other than the specific performance type are compressed, decompressed or stored, and the bit numbers of both data before and after compression are the same. The bit numbers of the data after compression or before decompression are different from each other. Therefore, each tone control data can be set in an optimal compression storage state corresponding to each performance type, and efficient compression or storage of the tone control data can be realized. Also, common part data common to each piece of tone data and unique part data other than the common part are extracted from each tone, and the number of unique part data is equal to the number of tone data, and the number of common part data is smaller than the number of tone data. Minutes. Therefore, each tone data can be compressed to specific partial data, and the length of each data can be shortened. Further, since the number of the common part data is smaller than the number of the tone data, the data amount of the entire tone data group can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】楽音データの記憶フォーマットを示す図であ
る。
FIG. 1 is a diagram showing a storage format of musical sound data.

【図2】楽音データの記憶フォーマットを示す図であ
る。
FIG. 2 is a diagram showing a storage format of musical sound data.

【図3】電子楽器の全体回路図である。FIG. 3 is an overall circuit diagram of the electronic musical instrument.

【図4】楽音データ群よりなる演奏情報を示す図であ
る。
FIG. 4 is a diagram showing performance information composed of musical tone data groups.

【図5】ROM12に記憶される各楽音データを変換合
成するためのリストを示す図である。
FIG. 5 is a diagram showing a list for converting and synthesizing each tone data stored in a ROM 12;

【図6】ROM12に記憶される各楽音データを変換合
成するためのリストを示す図である。
FIG. 6 is a diagram showing a list for converting and synthesizing each tone data stored in a ROM 12;

【図7】演奏情報として記憶される演奏例を示す図であ
る。
FIG. 7 is a diagram showing a performance example stored as performance information.

【図8】ワーキングRAM11aを示す図である。FIG. 8 is a diagram showing a working RAM 11a.

【図9】アサインメントメモリ8を示す図である。FIG. 9 is a diagram showing an assignment memory 8;

【図10】演奏情報再生処理のフローチャート図であ
る。
FIG. 10 is a flowchart of a performance information reproducing process.

【図11】演奏情報再生処理のフローチャート図であ
る。
FIG. 11 is a flowchart of a performance information reproduction process.

【図12】演奏情報再生処理のフローチャート図であ
る。
FIG. 12 is a flowchart of a performance information reproducing process.

【図13】図11のステップ204の発音処理のフロー
チャート図である。
FIG. 13 is a flowchart of a tone generation process in step 204 of FIG. 11;

【図14】演奏情報記録処理のフローチャート図であ
る。
FIG. 14 is a flowchart of a performance information recording process.

【図15】演奏情報記録処理のフローチャート図であ
る。
FIG. 15 is a flowchart of a performance information recording process.

【図16】従来例を示す図である。FIG. 16 is a diagram showing a conventional example.

【図17】従来例を示す図である。FIG. 17 is a diagram showing a conventional example.

【符号の説明】[Explanation of symbols]

1…キーボード、3…タブレットスイッチマトリック
ス、5…プログラマブルタイマ、6…CPU、11…R
AM、11a…ワーキングRAM、12…ROM。
DESCRIPTION OF SYMBOLS 1 ... Keyboard, 3 ... Tablet switch matrix, 5 ... Programmable timer, 6 ... CPU, 11 ... R
AM, 11a working RAM, 12 ROM.

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の演奏種類に対応する楽音制御デー
を圧縮する楽音制御データ圧縮装置であって、 第1の圧縮モードでは、上記複数の演奏種類の中の特定
の演奏種類に対応する上記楽音制御データを圧縮し、 第2の圧縮モードでは、上記第1の圧縮モードで圧縮さ
れた上記特定の演奏種類以外の演奏種類に対応する上記
楽音制御データを圧縮し、 上記第1及び第2の各圧縮モードでは、上記圧縮される
前の上記各楽音制御データのビット数は同じであって
も、上記第1の圧縮モードで圧縮された後の上記楽音制
御データのビット数と上記第2の圧縮モードで圧縮され
た後の上記楽音制御データのビット数とは互いに異なる
ことを特徴とする楽音制御データ圧縮装置。
A tone control data corresponding to a plurality of performance types.
A musical tone control data compression apparatus for compressing data, in the first compression mode, particular among the plurality of play types
Playing kinds compresses the tone control data corresponding to, in the second compression mode, is compressed in the first compression mode
Corresponding to a performance type other than the specified performance type
Compressing the tone control data, in the first and second respective compression mode, the number of bits before the respective musical tone control data the compression is the same
The tone control after being compressed in the first compression mode.
The number of bits of the control data and the
A tone control data compression device, wherein the number of bits of the tone control data after the compression is different from each other.
【請求項2】 複数の演奏種類に対応する楽音制御デー
を伸長する楽音制御データ伸長装置であって、 上記複数の演奏種類の中の特定の演奏種類に対応する上
楽音制御データが圧縮されて記憶された第1の記憶手
段と、上記特定の演奏種類以外の演奏種類に対応する上
楽音制御データが圧縮されて記憶された第2の記憶手
段と、 上記圧縮されて記憶された上記楽音制御データを上記第
1の記憶手段から読み出して元の本来の楽音制御データ
に伸長し、 上記圧縮されて記憶された上記楽音制御データを上記第
2の記憶手段から読み出して元の本来の楽音制御データ
に伸長し、上記第1及び第2の各記憶手段に圧縮されて記憶された
上記伸長される前の上記各楽音制御データのビット数は
互いに異なっていても、上記第1の記憶手段から伸長さ
れた後の上記楽音制御データのビット数と上記第2の記
憶手段から伸長された後の上記楽音制御データのビット
は同じであることを特徴とする楽音制御データ伸長装
置。
2. A tone control data corresponding to a plurality of performance types.
A musical tone control data decompression apparatus for decompressing the data, a first storage means the tone control data corresponding to a particular performance type among the plurality of play types is stored is compressed, the specific performance said second storage means the tone control data are stored is compressed corresponding to the performance category other than, the musical tone control data stored is the compressed first
Is read from the first storage means extends the original original musical tone control data, said musical tone control data stored is the compressed said first
2 and expanded to the original original tone control data and compressed and stored in the first and second storage means.
The bit number of each tone control data before decompression is
Even if they are different from each other,
The number of bits of the tone control data after
Bits of the above tone control data after being decompressed from storage means
A tone control data decompression device characterized in that the numbers are the same.
【請求項3】 複数の演奏種類に対応する楽音制御デー
を圧縮させる楽音制御データ圧縮方法であって、 第1の圧縮モードでは、上記複数の演奏種類の中の特定
の演奏種類に対応する上記楽音制御データを圧縮させ、 第2の圧縮モードでは、上記第1の圧縮モードで圧縮さ
れた上記特定の演奏種類以外の演奏種類に対応する上記
楽音制御データを圧縮させ、 上記第1及び第2の各圧縮モードでは、上記圧縮される
前の上記各楽音制御データのビット数は同じであって
も、上記第1の圧縮モードで圧縮された後の上記楽音制
御データのビット数と上記第2の圧縮モードで圧縮され
た後の上記楽音制御データのビット数とは互いに異なる
ことを特徴とする楽音制御データ圧縮方法。
3. A tone control data corresponding to a plurality of performance types.
A musical tone control data compression method for compressing the data, in the first compression mode, particular among the plurality of play types
In the second compression mode, the musical tone control data corresponding to the type of performance is compressed in the first compression mode.
Corresponding to a performance type other than the specified performance type
Compressing the musical tone control data, in the first and second respective compression mode, the number of bits before the respective musical tone control data the compression is the same
The tone control after being compressed in the first compression mode.
The number of bits of the control data and the
A tone control data compression method, wherein the number of bits of the tone control data after the compression is different from each other.
【請求項4】 複数の演奏種類に対応する楽音制御デー
を伸長させる楽音制御データ伸長方法であって、 上記複数の演奏種類の中の特定の演奏種類に対応する上
楽音制御データが圧縮されて記憶された第1の記憶手
段と、上記特定の演奏種類以外の演奏種類に対応する上
楽音制御データが圧縮されて記憶された第2の記憶手
段とに対し、 上記圧縮されて記憶された上記楽音制御データを上記第
1の記憶手段から読み出して元の本来の楽音制御データ
に伸長させ、 上記圧縮されて記憶された上記楽音制御データを上記第
2の記憶手段から読み出して元の本来の楽音制御データ
に伸長させ、上記第1及び第2の各記憶手段に圧縮されて記憶された
上記伸長される前の上記各楽音制御データのビット数は
互いに異なっていても、上記第1の記憶手段から伸長さ
れた後の上記楽音制御データのビット数と上記第2の記
憶手段から伸長された後の上記楽音制御データのビット
は同じであることを特徴とする楽音制御データ伸長方
法。
4. A tone control data corresponding to a plurality of performance types.
A musical tone control data decompression method for decompressing the data, a first storage means the tone control data corresponding to a particular performance type among the plurality of play types is stored is compressed, the specific performance to the second storage means the tone control data are stored is compressed corresponding to the performance category other than said first to said musical tone control data stored is the compressed
1 is expanded from the storage means to the original original tone control data, and the compressed tone control data is stored in the
2 and expanded to the original original tone control data and compressed and stored in the first and second storage means.
The bit number of each tone control data before decompression is
Even if they are different from each other,
The number of bits of the tone control data after
Bits of the above tone control data after being decompressed from storage means
A tone control data decompression method characterized in that the numbers are the same.
JP9230345A 1997-08-11 1997-08-11 Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method Expired - Fee Related JP2859870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9230345A JP2859870B2 (en) 1997-08-11 1997-08-11 Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9230345A JP2859870B2 (en) 1997-08-11 1997-08-11 Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2229644A Division JP3017260B2 (en) 1990-08-30 1990-08-30 Music data processing apparatus and music data processing method

Publications (2)

Publication Number Publication Date
JPH10143150A JPH10143150A (en) 1998-05-29
JP2859870B2 true JP2859870B2 (en) 1999-02-24

Family

ID=16906402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9230345A Expired - Fee Related JP2859870B2 (en) 1997-08-11 1997-08-11 Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method

Country Status (1)

Country Link
JP (1) JP2859870B2 (en)

Also Published As

Publication number Publication date
JPH10143150A (en) 1998-05-29

Similar Documents

Publication Publication Date Title
JP3718919B2 (en) Karaoke equipment
US5852252A (en) Chord progression input/modification device
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
US5563361A (en) Automatic accompaniment apparatus
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
US5517892A (en) Electonic musical instrument having memory for storing tone waveform and its file name
JPH09179559A (en) Device and method for automatic accompaniment
JP2859870B2 (en) Tone control data compression device, tone control data compression method, tone control data decompression device, and tone control data decompression method
JP3017260B2 (en) Music data processing apparatus and music data processing method
JP2522337B2 (en) Automatic playing device
JP3413842B2 (en) Automatic accompaniment device
JP2660462B2 (en) Automatic performance device
JPS6335038B2 (en)
JP2619237B2 (en) Automatic accompaniment device for electronic musical instruments
JP3407563B2 (en) Automatic performance device and automatic performance method
JPH05188961A (en) Automatic accompaniment device
JP3324154B2 (en) Automatic accompaniment device
JPH10133661A (en) Automatic playing device
JP2541513B2 (en) Pitch data generator
JPH0553582A (en) Automatic accompaniment device
JPH05108074A (en) Automatic accompaniment device of electronic musical instrument
JP2003241751A (en) Device and method for automatic music playing, and recording medium
JPH07121172A (en) Accompaniment contents detecting device and automatic accompaniment device
JPH11249658A (en) Waveform generator
JPH0744177A (en) Automatic playing device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees