JP2858314B2 - Tone characteristic control device - Google Patents

Tone characteristic control device

Info

Publication number
JP2858314B2
JP2858314B2 JP1010661A JP1066189A JP2858314B2 JP 2858314 B2 JP2858314 B2 JP 2858314B2 JP 1010661 A JP1010661 A JP 1010661A JP 1066189 A JP1066189 A JP 1066189A JP 2858314 B2 JP2858314 B2 JP 2858314B2
Authority
JP
Japan
Prior art keywords
data
control
control data
mode
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1010661A
Other languages
Japanese (ja)
Other versions
JPH02189593A (en
Inventor
仁嗣 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KASHIO KEISANKI KK
Original Assignee
KASHIO KEISANKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KASHIO KEISANKI KK filed Critical KASHIO KEISANKI KK
Priority to JP1010661A priority Critical patent/JP2858314B2/en
Priority to US07/465,038 priority patent/US5119712A/en
Publication of JPH02189593A publication Critical patent/JPH02189593A/en
Application granted granted Critical
Publication of JP2858314B2 publication Critical patent/JP2858314B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 [発明の技術分野] この発明は楽音特性制御装置に関し、特に、アフター
タッチ入力を、音源の生成する楽音に反映させるための
制御技術に関する。
Description: TECHNICAL FIELD [0001] The present invention relates to a tone characteristic control device, and more particularly to a control technique for reflecting an after touch input in a tone generated by a sound source.

[従来技術とその問題点] 歴史的に電子楽器は鍵盤タイプのものを中心として発
展してきた。必然的に、鍵盤タイプの電子楽器の制御装
置(代表的にはマイクロコンピュータ)は、楽器の操作
子が鍵盤タイプ(鍵盤、ベンダー、モジューレーション
ホイール、ペダル等)であることを考慮して、それに適
した音源制御を行うことが、常に課題であり、そのため
努力が続けられてきた。また、電子楽器間の通信技術、
例えばMIDI(Musical Instrument Digital Interface)
についても、鍵盤タイプの電子楽器に対する考慮が払わ
れてきた。
[Prior art and its problems] Historically, electronic musical instruments have mainly been developed of keyboard type. Inevitably, the control device (typically, a microcomputer) of a keyboard-type electronic musical instrument considers that the controls of the musical instrument are of the keyboard type (keyboard, bender, modulation wheel, pedals, etc.). Proper sound source control has always been a challenge, and efforts have been made. In addition, communication technology between electronic musical instruments,
For example, MIDI (Musical Instrument Digital Interface)
Also, attention has been paid to keyboard-type electronic musical instruments.

しかしながら、近年、鍵盤タイプ以外の電子楽器も普
及しつつあり、例えばギタータイプの電子弦楽器、リー
ドタイプの電子管楽器などが実用化され、その人気も高
まりつつある。更に、音楽システムの柔軟性の観点か
ら、各種の電子楽器(シーケンサを含む)を相互に接続
し、それらをサウンドモジュール等に対する外部の演奏
コントローラとして使用することにより、種々の演奏形
態におけるバラエティに富む音楽表現の可能性を高める
ことが期待されている。
However, in recent years, electronic musical instruments other than the keyboard type have become widespread. For example, electronic string instruments of the guitar type, electronic wind instruments of the lead type, and the like have been put into practical use, and their popularity has been increasing. Further, from the viewpoint of the flexibility of the music system, various electronic musical instruments (including a sequencer) are interconnected and used as an external performance controller for a sound module or the like, thereby providing a variety of various playing modes. It is expected to increase the possibility of musical expression.

残念ながら、現状の電子楽器の制御装置の能力は、特
定の演奏コントローラ(代表的には鍵盤)向けに制限さ
れており、任意の演奏コントローラに対して十分な楽音
制御を行うことはできない。例えば、この発明の処理対
象であるアフタータッチデータを例にとると、このデー
タが示す情報は、演奏コントローラが鍵盤であるときは
押鍵後の鍵圧であるのに対し、演奏コントローラが管楽
器のブレスコントローラであるときには空気の流れない
し息圧となる。前者つまり鍵盤楽器を使用した場合、演
奏コントローラは鍵盤操作の制限された自由度等に依
り、比較的ゆるやかな鍵圧の変動をアフタータッチデー
タとして検出するため、アフタータッチ効果の付加は鍵
盤向けの制御装置では比較的問題なく行える。これに対
し、後者つまり管楽器を使用した場合には、そのブレス
コントローラからは、奏者からの鋭敏なブレス制御に伴
い、高い自由度で変化するアフタータッチデータが発生
することになる。ここにおいて、ブレス検出素子の精度
やA/D変換器の分解能、制御装置で受信して処理するア
フタータッチデータの精度等のデジタル系の問題のため
に、奏者が意図する通りのアフタータッチデータを制御
装置で受けて処理し、期待通りに楽音を制御するという
ことが困難になる。特に、奏者が固定のブレスコントロ
ール、すなわち一定の息圧を与えようとしているとき
に、アフタータッチデータ上で、こきざみな変動が頻繁
に発生し、これが、アフタータッチ効果のための制御デ
ータにそのまま反映し、楽音の特性が頻繁な変動を繰り
返し、コロコロとした不自然な音が生じるという問題
(リミットサイクル的な問題)があった。
Unfortunately, the capabilities of current electronic musical instrument controllers are limited to specific performance controllers (typically keyboards), and it is not possible to perform sufficient tone control on any performance controller. For example, taking as an example the aftertouch data to be processed according to the present invention, the information indicated by this data is the key pressure after a key is depressed when the performance controller is a keyboard. When it is a breath controller, it becomes air flow or breath pressure. When using the former, that is, a keyboard instrument, the performance controller detects relatively gradual fluctuations in key pressure as aftertouch data depending on the limited degree of freedom of keyboard operation, etc., so the aftertouch effect is added to the keyboard. The control device can do this without any problems. On the other hand, when the latter, that is, a wind instrument, is used, the breath controller generates aftertouch data that changes with a high degree of freedom due to the sharp breath control from the player. Here, due to digital problems such as the accuracy of the breath detection element, the resolution of the A / D converter, and the accuracy of the aftertouch data received and processed by the controller, the aftertouch data as intended by the player is It becomes difficult to receive and process by the control device and control the musical sound as expected. In particular, when the player is trying to give a fixed breath control, that is, constant breath pressure, frequent fluctuations occur in the aftertouch data, and this is directly included in the control data for the aftertouch effect. There is a problem (a limit cycle-like problem) in that the characteristics of the musical tone are reflected frequently and fluctuate frequently, and an unnatural sound is produced.

[発明の目的] したがって、この発明の目的は、種々のタイプの演奏
コントローラが接続され、使用状況によって全く異なる
演奏操作の形態を表現するアフタータッチデータが入力
される楽音特性制御装置において、アフタータッチデー
タが意味する演奏操作情報にかかわらず、奏者の意図す
るようなアフタータッチ効果を楽音に表現することので
きる楽音特性制御装置を提供することである。更に、こ
の発明の目的は、管楽器のブレスコントローラやリップ
コントローラが使用される場合でも、これらの演奏コン
トローラから与えられるアフタータッチデータのサイク
リックな小変動(ふらつき)に起因する楽音のリミット
サイクル的な特性の変動現象を抑制し、本来的に奏者の
息圧コントロールが意図するようなアフタータッチ効果
を実現することのできる楽音特性制御装置を提供するこ
とである。
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an after-touch characteristic control apparatus in which various types of performance controllers are connected and after-touch data expressing a completely different form of performance operation is input depending on a use situation. It is an object of the present invention to provide a musical sound characteristic control device capable of expressing an after touch effect intended by a player into musical sounds irrespective of performance operation information implied by data. Further, an object of the present invention is to provide a limit cycle of musical tones caused by cyclic small fluctuations (wandering) of aftertouch data provided from these performance controllers even when a breath controller or a lip controller of a wind instrument is used. It is an object of the present invention to provide a tone characteristic control device capable of suppressing a characteristic variation phenomenon and realizing an after touch effect originally intended by a player's breath pressure control.

[発明の構成、作用] この発明は、上記の目的を達成するため、少なくとも
第1の制御モードと第2の制御モードとを切り換えて選
択可能とし、選択されているモードが上記第1の制御モ
ードであり、かつアフタータッチデータ受信手段で受信
した現在のアフタータッチデータと以前のアフタータッ
チデータとの変化の幅が小さいときには、現在と以前の
両アフタータッチデータに基づいて、楽音の特性の変化
の割合が抑制されるように制御データを生成して発生す
るようにしたことを特徴とする。
[Structure and operation of the invention] In order to achieve the above object, the present invention switches at least a first control mode and a second control mode so as to be selectable, and the selected mode is the first control. When the mode is a mode and the range of change between the current after-touch data received by the after-touch data receiving means and the previous after-touch data is small, the change in the characteristic of the musical tone is performed based on both the current and previous after-touch data. The control data is generated and generated such that the ratio is controlled.

この構成によれば、第1の制御モードにおいて、アフ
タータッチデータの変化の幅が大きいときには、奏者の
意図がその変化に表れているとして、そのまま現在のア
フタータッチデータに応じた制御データが発生される
が、アフタータッチデータの変化の幅が小さいときに
は、その変化は奏者の意図しないものであるとして、現
在と以前の両アフタータッチデータに基づいて、楽音の
特性の変化の割合が抑制されるような制御データが生成
されて発生される。この結果、コロコロとした耳障りな
楽音の特性変化がなくなり、常に奏者の期待するような
アフタータッチ効果が得られることになる。また、アフ
タータッチデータの変化の幅が小さいときには、以前の
アフタータッチデータに応じた制御データをそのまま保
持するようなことはせず、現在と以前の両方のアフター
タッチデータに基づいて新たに制御データを生成するの
で、小さな変化幅で徐々にアフタータッチデータが変化
した場合に、ある時点で急激に楽音の特性が変化するこ
とがなくなる。また、第1の制御モード以外のときに
は、制御データ発生手段における演算処理は簡単になる
(短時間で完了する)ので、その他の演奏コントロール
データ(ノートオン/オフ等)に対する楽音制御を制御
装置内の他の手段において十分に行うことができ、実時
間処理の制約下において制御装置の音源を有効に利用す
ることが可能となる。なお、第1の制御モードのときに
は、アフタータッチから制御データを得るまでの処理量
は若干多くなり得るが、管楽器は一般的にモノフォニッ
クであるので、鍵盤楽器のようにポリフォニックである
ことに起因する処理は不要である。
According to this configuration, in the first control mode, when the range of the change of the aftertouch data is large, it is determined that the player's intention is reflected in the change, and the control data corresponding to the current aftertouch data is generated as it is. However, when the range of change of the aftertouch data is small, it is determined that the change is unintended by the player, and based on both the current and previous aftertouch data, the change rate of the characteristic of the musical tone is suppressed. Control data is generated and generated. As a result, the characteristic change of the unpleasant and unpleasant musical tone is eliminated, and the after touch effect always expected by the player can be obtained. In addition, when the range of change of the aftertouch data is small, the control data corresponding to the previous aftertouch data is not held as it is, and the control data based on both the current and previous aftertouch data is newly added. Is generated, when the after-touch data gradually changes with a small change width, the characteristic of the musical tone does not suddenly change at a certain point in time. When the control mode is other than the first control mode, the arithmetic processing in the control data generating means is simplified (completed in a short time), so that tone control for other performance control data (note on / off, etc.) is performed in the control device. This can be performed sufficiently by other means, and the sound source of the control device can be effectively used under the restriction of the real-time processing. In the first control mode, the amount of processing from aftertouch to the acquisition of control data may be slightly larger, but since the wind instrument is generally monophonic, it is caused by the fact that it is polyphonic like a keyboard instrument. No processing is required.

一構成例では、上記制御データ発生手段は、上記第1
の制御モードにおいて、所定のサイクル毎に上記受信手
段で受信したアフタータッチデータ群の中から代表的な
アフタータッチデータを抽出して、この抽出したアフタ
ータッチデータに応じた制御データを生成するものであ
り、現在のサイクルにおいて生成した制御データと以前
のサイクルにおいて生成した制御データとの差分を算出
することにより、上記現在のアフタータッチデータと以
前のアフタータッチデータとの変化の幅を検出し、上記
算出した差分が所定の値より大きいときは、現在のサイ
クルにおける制御データを発生し、上記算出した差分が
所定の値より小さいときは、現在のサイクルにおける制
御データを発生せず、現在のサイクルにおける制御デー
タと以前のサイクルにおける制御データとから新たに制
御データを生成し直して、この新たに生成した制御デー
タを現在のサイクルにおける制御データとして発生す
る。
In one configuration example, the control data generating means includes the first control data generating means.
In the control mode, the representative aftertouch data is extracted from the aftertouch data group received by the receiving means at every predetermined cycle, and control data corresponding to the extracted aftertouch data is generated. Yes, by calculating the difference between the control data generated in the current cycle and the control data generated in the previous cycle, to detect the width of change between the current after touch data and the previous after touch data, If the calculated difference is larger than a predetermined value, control data in the current cycle is generated.If the calculated difference is smaller than a predetermined value, control data in the current cycle is not generated. New control data is generated from the control data and the control data in the previous cycle. And, generating this newly generated control data as control data in the current cycle.

この構成によれば、制御データ発生手段は、上記受信
手段において1つのアフタータッチデータを受信する度
に制御データを生成する処理を行わずに済み、実時間処
理上の遅れの発生がより一層防止される。
According to this configuration, the control data generating unit does not need to perform the process of generating the control data each time one of the after-touch data is received by the receiving unit, and the occurrence of the delay in the real-time processing is further prevented. Is done.

また、さらなる一構成例では、上記制御データ発生手
段は、上記差分が所定の値より小さいときは、その小さ
さの度合に応じた態様で、現在のサイクルにおける制御
データと以前のサイクルにおける制御データとを演算処
理して新たに制御データを生成し直す。
In a further configuration example, when the difference is smaller than a predetermined value, the control data generating means may control the control data in the current cycle and the control data in a previous cycle in a manner corresponding to the degree of the difference. And newly generate control data.

この構成によれば、差分の小ささに応じた態様で演算
処理を施すので、例えば、差分が極めて小さいときには
以前のサイクルの制御データに十分近くなるように現在
のサイクルの制御データを生成し、差分が大きなるにつ
れて以前のサイクルの制御データから離れた値となるよ
うに現在のサイクルの制御データを生成することが可能
となり、奏者の意図しない楽音特性の変化の抑制と急激
な楽音特性の変化の防止とがより高い精度で行われる。
According to this configuration, since the arithmetic processing is performed in a mode corresponding to the small difference, for example, when the difference is extremely small, the control data of the current cycle is generated so as to be sufficiently close to the control data of the previous cycle, As the difference increases, the control data of the current cycle can be generated so that the control data of the current cycle becomes more distant from the control data of the previous cycle, thereby suppressing a change in the tone characteristics unintended by the player and a sudden change in the tone characteristics. Is performed with higher accuracy.

[実施例] 以下、図面を参照してこの発明の実施例について説明
する。
Embodiment An embodiment of the present invention will be described below with reference to the drawings.

<全体構成> この発明の特徴を組み込んだ電子楽器1の全体構成を
第1図に示す。鍵盤1−1では、操作された鍵の情報と
して、キーコードを始めとして押鍵速度、離鍵速度デー
タ及び押鍵後の鍵圧データ(鍵盤におけるアフタータッ
チデータ)を検出し、本電子楽器1の制御装置としての
マイクロコンピュータ(CPU)1−2に送出する。スイ
ッチ1−3は一連の機能スイッチから成り、各スイッチ
の状態はマイクロコンピュータ1−2に送られて処理さ
れる。コントローラ1−4は鍵盤1以外の演奏用操作子
を構成するものであり、演奏中と楽音のピッチを変更す
るためのベンダーホイール、トレモロの深さを変更する
ためのモジュレーションホイール、予め設定された1な
いし複数の楽音構成要素に対して作用するためのデファ
イナブルホイール等の操作子を含み、各操作子データは
マイクロコンピュータ1−2に送られる。表示部1−5
はLEDやLCD(液晶)ディスプレイ等から成り、マイクロ
コンピュータ1−2の制御の下に、現在の演奏状態、電
子楽器1の動作状態(システム状態)、設定データ等を
表示する。MIDI1−6はマイクロコンピュータ1−2が
外部の電子楽器、シーケンサ等との間でデータの通信を
行うのに用いられる外部インターフェースである。もう
1つの外部インターフェース1−7はマイクロコンピュ
ータ1−2とICカードとのインターフェースであり、マ
イクロコンピュータ1−2はこの外部インターフェース
1−7を介してICカードからデータまたはプログラム等
を取り込んだり、ICカードにデータまたはプログラムを
書き込んだりする。マイクロコンピュータ1−2はROM1
−8とRAM1−9を有し、ROM1−8には本電子楽器1を動
作させるためのプログラムや、音色データ、演奏データ
などが記憶され、RAM1−9にはプログラムの実行中に使
用するデータ、例えば音色データ、音色制御用データ、
演奏データ、演奏状態データなどが一時的に記憶され
る。
<Overall Configuration> FIG. 1 shows the overall configuration of an electronic musical instrument 1 incorporating the features of the present invention. The key 1-1 detects key depression speed, key release speed data, and key pressure data (after touch data on the keyboard) after key depression, including key codes, as information of operated keys. Is sent to a microcomputer (CPU) 1-2 as a control device. The switch 1-3 comprises a series of function switches, and the state of each switch is sent to the microcomputer 1-2 for processing. The controller 1-4 constitutes a control for performance other than the keyboard 1, and includes a bender wheel for changing the pitch of the musical tone during the performance and a modulation wheel for changing the depth of the tremolo. An operator such as a definable wheel for operating on one or a plurality of musical sound components is sent to the microcomputer 1-2. Display section 1-5
Is composed of an LED or an LCD (liquid crystal) display, and displays the current playing state, the operating state (system state) of the electronic musical instrument 1, setting data, and the like under the control of the microcomputer 1-2. MIDI 1-6 is an external interface used by the microcomputer 1-2 to communicate data with an external electronic musical instrument, sequencer, or the like. Another external interface 1-7 is an interface between the microcomputer 1-2 and the IC card. The microcomputer 1-2 takes in data or programs from the IC card via the external interface 1-7, Write data or programs to the card. Microcomputer 1-2 is ROM1
-8 and a RAM 1-9. A ROM 1-8 stores a program for operating the electronic musical instrument 1, timbre data, performance data, and the like. A RAM 1-9 stores data used during execution of the program. For example, timbre data, timbre control data,
Performance data, performance state data, and the like are temporarily stored.

音源1−10はマイクロコンピュータ1−2の制御の下
に複数のヴォイスの楽音信号を発生する。音源1−10と
しては、例えば、特願昭62−249467号に示すようなiPD
(インターラクティブ位相歪み方式)の音源が使用でき
る。音源1−10の生成したデジタル楽音信号は系統別
(ここでは2系統)にD/A変換器1−11に送られ、各系
統のアナログ楽音信号に変換される。D/A変換器1−11
からの各系統のアナログ楽音信号はマイクロコンピュー
タ1−2によって制御されるパンニング効果発生器1−
12に入力される。パンニング効果発生器1−12は、入力
される各系統のアナログ楽音信号を相補的に振幅制御す
る対のVCAを2組(2系統分)有しており、計4つのVCA
のうち、2つずつのVCA出力をミックスしてステレオの
右チャンネルと左チャンネルの信号を形成する。これに
より、系統別に音像の定位が制御される。パンニング効
果発生器1−12からの各ステレオチャンネル信号はフィ
ルター1−13で不要周波数成分が除去され、アンプ1−
14で増幅された後、左右のスピーカ1−15から放音され
る。
The sound source 1-10 generates tone signals of a plurality of voices under the control of the microcomputer 1-2. The sound source 1-10 may be, for example, an iPD as disclosed in Japanese Patent Application No. 62-249467.
(Interactive phase distortion type) sound source can be used. The digital tone signal generated by the sound source 1-10 is sent to the D / A converter 1-11 for each system (here, two systems), and is converted into an analog tone signal of each system. D / A converter 1-11
The analog tone signal of each system from the panning effect generator 1 controlled by the microcomputer 1-2.
Entered in 12. The panning effect generator 1-12 has two pairs (two systems) of VCAs for controlling the amplitude of the analog tone signal of each system in a complementary manner, for a total of four VCAs.
Among them, two VCA outputs are mixed to form a stereo right channel and left channel signal. Thereby, the localization of the sound image is controlled for each system. Unnecessary frequency components are removed from each stereo channel signal from the panning effect generator 1-12 by the filter 1-13, and the
After being amplified at 14, sound is emitted from the left and right speakers 1-15.

<基本動作> 次に、電子楽器1の基本的な動作について、第2A図〜
第2F図を参照して説明する。
<Basic Operation> Next, the basic operation of the electronic musical instrument 1 will be described with reference to FIGS.
This will be described with reference to FIG. 2F.

第2A図は一定周期ごとに起動される第1のタイマー割
込ルーチンであり、このルーチン2−1−1において、
鍵盤1−1の状態と、スイッチ1−3の各スイッチ状態
がマイクロコンピュータ1−2に取り込まれる。
FIG. 2A shows a first timer interrupt routine started at regular intervals. In this routine 2-1-1,
The state of the keyboard 1-1 and the state of each switch of the switch 1-3 are taken into the microcomputer 1-2.

第2B図は第2のタイマー割込ルーチンであり、ステッ
プ2−2−1でコントローラ1−4のデータがマイクロ
コンピュータ1−2に取り込まれ、前回のコントロール
データとの比較から、コントロールデータの変化の有無
が調べられ、変化した場合にはコントロールデータ変化
処理2−2−2が実行される。次のステップ2−2−3
では、LFOビブラートを実現するための演算が実行され
る。すなわち、ビブラートに作用するデータ(基準レー
ト、基準デプス、ビブラートパラメータ変調用のコント
ロールデータやMIDIデータ)から、現在のビブラートデ
ータを生成する。次にステップ2−2−4ではシステム
のピッチ変更設定状態に従いLFOビブラート、MIDIデー
タ、コントロールデータにより、楽音のピッチを変更す
ることを実現するための演算を行い、結果を音源1−10
に送って、ピッチの制御を行う。次にステップ2−2−
5ではLFOトレモロ(グロール)を実現するためのデー
タの演算(コントロールデータまたはMIDIデータがトレ
モロあるいはグロールに対して変調をかけている場合に
必要な演算処理も含まれる)を行う。次にステップ2−
2−6ではLFOトレモロ、MIDIデータ(例えばアフター
タッチデータ)、コントロールデータが実際に楽音の音
色、音量を変更することを実現するための演算を行い、
結果を音源1−10に送って楽音の音色、音量を制御す
る。最後のステップ2−2−7ではパンニング効果を発
生させるためのパンデータ作成処理が行われる。
FIG. 2B shows a second timer interrupt routine. In step 2-2-1, the data of the controller 1-4 is fetched into the microcomputer 1-2. Is checked, and if it has changed, control data change processing 2-2-2 is executed. Next step 2-2-3
In, an operation for realizing the LFO vibrato is executed. That is, the current vibrato data is generated from the data (reference rate, reference depth, control data for modulating the vibrato parameter and MIDI data) acting on the vibrato. Next, in step 2-2-4, an operation for changing the pitch of the musical tone is performed by using the LFO vibrato, MIDI data, and control data according to the pitch change setting state of the system, and the result is output to the sound source 1-10.
To control the pitch. Next, step 2-2
In step 5, data calculation for realizing LFO tremolo (growl) is performed (including calculation processing necessary when control data or MIDI data modulates tremolo or growl). Next, step 2-
In 2-6, LFO tremolo, MIDI data (for example, after touch data), and control data perform calculations for realizing that the tone and volume of the musical tone are actually changed.
The result is sent to the sound source 1-10 to control the tone and volume of the musical tone. In the last step 2-2-7, a pan data creation process for generating a panning effect is performed.

第2C図は第3のタイマー割込ルーチンであり、このル
ーチン2−3−1で、第1図のパンニング効果発生器1
−12に対し、実際に効果を実現させるためにマイクロコ
ンピュータ1−2から制御信号が送られる。
FIG. 2C shows a third timer interrupt routine. In this routine 2-3-1, the panning effect generator 1 shown in FIG.
For -12, a control signal is sent from the microcomputer 1-2 to actually realize the effect.

第2D図はMIDIデータが送られてきたときに、MIDIイン
ターフェース1−6からの割込によって起動されるMIDI
受信処理ルーチン2−4−1であり、ここでは受信のた
めの処理(RAM1−9上のMIDI関係バッファ上へのデータ
セット等)を行うのみである。第2E図はMIDIデータを外
部の電子楽器等に対して送ったときにMIDIインターフェ
ース1−6からの割込によって起動されるMIDI送信処理
ルーチン2−5−1であり、これにより、MIDIデータの
伝送速度が維持される。
FIG. 2D shows the case where the MIDI data is transmitted, and the MIDI is activated by an interrupt from the MIDI interface 1-6.
This is a reception processing routine 2-4-1. Here, only reception processing (such as data setting to a MIDI-related buffer on the RAM 1-9) is performed. FIG. 2E shows a MIDI transmission processing routine 2-5-1 activated by interruption from the MIDI interface 1-6 when MIDI data is sent to an external electronic musical instrument or the like. Transmission speed is maintained.

第2F図は、マイクロコンピュータ1−2のジェネラル
フロー(メインプログラム)を示したものである。始め
に、電源が入ると、イニシャライズルーチン2−6−1
に入り、ここで、音源1−6に対する初期設定や、表示
部1−5への初期表示データの設定、各制御データ、演
算用データ等の初期設定が行われる。ステップ2−6−
2においては、鍵盤/スイッチのデータ取込の割込ルー
チン(第2A図)の結果を参照してスイッチの状態変化を
判別し、変化有りの場合にはスイッチ変化処理ルーチン
2−6−3を実行する。このルーチン2−6−3では、
演奏モードの設定、音色データの設定、MIDI制御データ
の設定、パン制御データの設定、音源1−10に対する楽
音制御用データの設定、表示部1−5への表示データの
設定、コントロールデータの初期設定、パンニング効果
発生器1−12に対する制御、ICカードの外部インターフ
ェース1−7とのデータまたはプログラムの授受、MIDI
インターフェース1−6の制御などがシステムの状態
(以下、メニューという)に従って実行される。
FIG. 2F shows a general flow (main program) of the microcomputer 1-2. First, when the power is turned on, an initialization routine 2-6-1 is performed.
Here, initial settings for the sound source 1-6, setting of initial display data on the display unit 1-5, and initial settings of control data, calculation data, and the like are performed. Step 2-6
In step 2, a change in the state of the switch is determined with reference to the result of the interrupt routine (FIG. 2A) for keyboard / switch data acquisition. If there is a change, the switch change processing routine 2-6-3 is executed. Execute. In this routine 2-6-3,
Setting of performance mode, setting of tone data, setting of MIDI control data, setting of pan control data, setting of tone control data for tone generator 1-10, setting of display data on display section 1-5, initializing control data Setting, control of panning effect generator 1-12, transfer of data or program with external interface 1-7 of IC card, MIDI
Control of the interface 1-6 is executed according to the state of the system (hereinafter, referred to as a menu).

次にステップ2−6−4で、MIDIインターフェース1
−6からMIDIデータの入力があったかどうかを、MIDI受
信ルーチン2−4−1(第2D図)で設定される検査フラ
グを参照して判別し、入力有りの場合はMIDI IN処理ル
ーチン2−6−5を実行する。この入力処理ルーチン2
−6−5では、MIDI入力データを識別し、その結果に従
い対応する内部演奏モードの変更、音色データの変更、
パン制御データの変更、楽音制御データの変更、楽音の
制御(ノートオン/オフ等)、表示データの制御、MIDI
インターフェース1−6の制御などがメニューや設定デ
ータに従って実行される。
Next, in step 2-6-4, the MIDI interface 1
-6, it is determined whether or not MIDI data has been input by referring to the inspection flag set in the MIDI reception routine 2-4-1 (FIG. 2D). Perform -5. This input processing routine 2
In -6-5, the MIDI input data is identified, the corresponding internal performance mode is changed, the tone data is changed,
Pan control data change, tone control data change, tone control (note on / off, etc.), display data control, MIDI
Control of the interface 1-6 and the like are executed according to menus and setting data.

次に、ステップ2−6−6では鍵盤1−1の状態変
化、すなわち押鍵の有無、離鍵の有無等が割込ルーチン
2−1−1(第2A図)の処理結果から判別され、変化有
りの場合には、鍵変化処理ルーチン2−6−7において
押、離鍵に伴うデータの変更、発音の割当、発音処理、
消音処理、MIDIインターフェース1−6の制御などが行
われる。
Next, in step 2-6-6, the state change of the keyboard 1-1, that is, the presence / absence of key depression, the presence / absence of key release, and the like are determined from the processing result of the interruption routine 2-1-1 (FIG. 2A). If there is a change, in the key change processing routine 2-6-7, the key is changed by depressing and releasing the key, the sound is assigned, the sound is processed,
The mute processing, control of the MIDI interface 1-6, and the like are performed.

<楽音制御用データ設定> 第3図は楽音制御用データの設定例を示したものであ
る。この設定はスイッチ1−3の操作または、外部から
のMIDIデータを通して行われる。図において、センスは
0〜99の値をとる感度データであり、アンプバイアスは
楽音の音量、音色を制御するパラメータ(iPD音源の場
合、1つのヴォイス即ち発音チャンネルは複数のモジュ
ールのプログラマブルな接続形態(発音アルゴリズム)
によって構成され、楽音の出力として使用されるモジュ
ールにとっては、アンプバイアスはそのモジュールの楽
音の振幅、すなわち音量に対するバイアス成分であり、
他のモジュールの入力に使用される楽音成分を出力する
モジュールにとってはアンプバイアスは発音チャンネル
の最終出力楽音の音色を変化させるバイアス成分として
働く)、ビブラートデプスはLFOのビブラートの深さ、
すなわち周波数の変動幅を意味する。アフタータッチ、
モジュレーションホイール、デファイナブルコントロー
ラ、フットボリウムはコントローラ(操作子)の項目で
あり、各コントローラが楽音パラメータ(ここではアン
プバイアス、ビブラートデプス)に作用するか否か、す
なわち、楽音パラメータを変調するか否かが図示の各ま
す内のON、OFFに従って定められる。図の例では、例え
ば、アフタータッチはアンプバイアスを最大の感度99で
変調するコントローラ(コントロールデータ)になって
いる。ここに、アフタータッチデータは、電子楽器1本
体の鍵盤1−1の操作時の鍵圧に基づくデータ、外部の
電子鍵盤楽器からMIDIフォーマットで送られている同様
のデータ、外部の電子管楽器に対するブレス操作に基づ
いて発生し、MIDIフォーマットで送られてくるデータ、
あるいは外部の電子弦楽器に対する弦操作に基づいて発
生し、MIDIフォーマットで送られてくるデータであり得
る。
<Setting of Tone Control Data> FIG. 3 shows an example of setting tone control data. This setting is performed by operating the switch 1-3 or through external MIDI data. In the figure, the sense is sensitivity data having a value of 0 to 99, and the amplifier bias is a parameter for controlling the volume and tone of a musical tone (in the case of an iPD sound source, one voice, that is, a sounding channel is a programmable connection form of a plurality of modules. (Pronunciation algorithm)
For a module that is used as an output of a musical tone, the amplifier bias is a bias component for the amplitude of the musical tone of the module, that is, the volume.
For a module that outputs a tone component used as an input to another module, the amplifier bias acts as a bias component to change the tone of the final output tone of the sounding channel), the vibrato depth is the LFO vibrato depth,
That is, it means the frequency fluctuation range. Aftertouch,
The modulation wheel, the definable controller, and the foot volume are items of controllers (operators), and whether or not each controller affects tone parameters (here, amplifier bias, vibrato depth), that is, whether or not to modulate tone parameters. Is determined according to ON and OFF in each of the illustrated squares. In the illustrated example, for example, aftertouch is a controller (control data) that modulates the amplifier bias with the maximum sensitivity of 99. Here, the after touch data is data based on the key pressure at the time of operation of the keyboard 1-1 of the electronic musical instrument 1, similar data transmitted in a MIDI format from an external electronic keyboard musical instrument, and a breath for an external electronic wind instrument. Data generated based on operations and sent in MIDI format,
Alternatively, the data may be data generated based on a string operation on an external electronic stringed instrument and transmitted in a MIDI format.

通信インターフェースとしてのMIDIインターフェース
1−6を介して接続される外部電子楽器(コントロー
ラ)は任意である。アフタータッチはある場合には、息
の強さを表わす情報であり、ある場合には鍵圧を表わす
情報であり、更にある場合にはその他の演奏操作状態を
表わす情報である。この発明では、これらの点に鑑み、
電子楽器に楽器演奏モードを切り換える機能を組み込む
とともに、アフタータッチに関し、楽器演奏モードに応
じて、特に管楽器演奏モードを配慮して最適な制御が行
われるようにしている。
An external electronic musical instrument (controller) connected via a MIDI interface 1-6 as a communication interface is optional. In some cases, aftertouch is information representing the strength of breath, in some cases information representing key pressure, and in other cases information representing other performance operation states. In the present invention, in view of these points,
The electronic musical instrument is provided with a function of switching the musical instrument playing mode, and the after-touch is optimally controlled according to the musical instrument playing mode, particularly considering the wind instrument playing mode.

以下、実施例についてこれらの点がどのようにして実
現されているかを詳細に説明する。
Hereinafter, how these points are realized in the embodiment will be described in detail.

<楽器演奏モード設定> まず、第4図〜第6図を参照して楽器演奏モードの設
定、変更について説明する。
<Musical Instrument Performance Mode Setting> First, setting and changing of the musical instrument performance mode will be described with reference to FIGS.

第4図はスイッチ1−3に含まれる全てのスイッチを
示したものである。楽器演奏モードの設定はノーマルの
メニュー下で行われる。まず、第4図のスイッチのうち
ノーマル(NORMAL)スイッチ3−1を押すことにより、
電子楽器1はその表示部1−5のLCDディスプレイ上に
第5図に示すような音色(図ではEPがエレクトリックピ
アノを示している)を表示する状態になる。次に、カー
ソル(CURSOR)キー35−2を押して、ディスプレイ上の
カーソルを第5図に示すような楽器演奏モード表示位置
に運ぶ。続いて、バリュー(VALUE)キー3−3を操作
することにより、表示データがK→G→Wというように
変化する。ここに、Kは鍵盤演奏モード、Gはギター演
奏モード、Wは管楽器演奏モードを示す。このとき、RA
M1−9上の演奏モード判別用のレジスタMに記憶される
内部データは第6図に示すように上位3ビットが、100
→010→001というように変化する。以上の楽器演奏モー
ドの設定処理はジェネラルフロー(第2図)のスイッチ
変化処理ルーチン2−6−3内で実行されるようになっ
ている。したがって、使用者は例えば、外部電子楽器と
して電子楽器を使用する場合には上述の手続に従い管楽
器モードを設定し、電子弦楽器を使用する場合には弦楽
器モードを設定し、電子鍵盤楽器を使用する場合には鍵
盤モードを設定することになる。
FIG. 4 shows all the switches included in the switches 1-3. The setting of the musical instrument playing mode is performed under the normal menu. First, by pressing a normal (NORMAL) switch 3-1 of the switches shown in FIG.
The electronic musical instrument 1 is in a state of displaying a tone (EP in the figure indicates an electric piano) as shown in FIG. 5 on the LCD display of the display section 1-5. Next, the cursor (CURSOR) key 35-2 is pressed to move the cursor on the display to the musical instrument performance mode display position as shown in FIG. Subsequently, by operating the value (VALUE) key 3-3, the display data changes as K → G → W. Here, K indicates a keyboard performance mode, G indicates a guitar performance mode, and W indicates a wind instrument performance mode. At this time, RA
As shown in FIG. 6, the internal data stored in the performance mode discriminating register M on M1-9 has upper three bits of 100 bits.
→ 010 → 001 and so on. The above-described musical instrument performance mode setting processing is executed in the switch change processing routine 2-6-3 of the general flow (FIG. 2). Therefore, for example, when using an electronic musical instrument as an external electronic musical instrument, the user sets the wind instrument mode according to the above-described procedure, when using an electronic stringed instrument, sets the stringed musical instrument mode, and when using an electronic keyboard musical instrument, Will set the keyboard mode.

<アフタータッチ入力処理> 上述したようにMIDIの受信は1バイト分のMIDIデータ
がMIDIインターフェース1−6に入力される都度、割込
ルーチン(第2D図)に従い、マイクロコンピュータ1−
2に取り込まれ、RAM1−9上のMIDI関係のバッファに記
録される。バッファに格納されたMIDIデータに対する処
理はジェネラルフローの2−6−5で実行される。アフ
タータッチデータがMIDIで与えられる場合において、外
部楽器として電子管楽器が使用され、そのマウスピース
に対する息圧によってアフタータッチデータが生成され
る場合には、息圧の微妙なコントロールのため、頻繁に
MIDIのアフタータッチデータがMIDIインターフェース1
−6を介して電子楽器1に入力されることになる。これ
らのMIDIアフタータッチデータを全て逐次処理しようと
すると、処理の時間のために、アフタータッチ効果の発
生が奏者の演奏操作に対して遅れてしまい、奏者の期待
する効果が得られなくなってしまう。このため、この実
施例では、最悪の状況でも効果に遅れがないようにする
ため、MIDI入力処理ルーチン2−6−5のなかで現サイ
クルにおいて得られているアフタータッチデータのなか
で最大値のものを処理対象のアフタータッチデータとし
て選択するようにしている。すなわち第7図に示すよう
に、ステップ7−1でアフタータッチデータが受信され
ているかどうかを調べ、受信されている場合にはステッ
プ7−2に示すように、MIDIチャンネル毎に最大アフタ
ー値を捜し出して、それをセーブし、他はクリアする。
<Aftertouch Input Processing> As described above, every time 1 byte of MIDI data is input to the MIDI interface 1-6, the microcomputer receives the MIDI data according to the interrupt routine (FIG. 2D).
2 and recorded in a MIDI buffer on the RAM 1-9. Processing for the MIDI data stored in the buffer is executed in 2-6-5 of the general flow. When the aftertouch data is given by MIDI, an electronic wind instrument is used as an external instrument, and when the aftertouch data is generated by the breath pressure for the mouthpiece, it is frequently used for delicate control of the breath pressure.
MIDI after touch data is MIDI interface 1
-6 to the electronic musical instrument 1. If it is attempted to sequentially process all of these MIDI after touch data, the after touch effect is delayed with respect to the player's performance operation due to the processing time, and the effect expected by the player cannot be obtained. Therefore, in this embodiment, in order to ensure that the effect is not delayed even in the worst case, the maximum value of the after touch data obtained in the current cycle in the MIDI input processing routine 2-6-5 is used. An object is selected as aftertouch data to be processed. That is, as shown in FIG. 7, it is checked in step 7-1 whether or not after-touch data has been received. If it has been received, the maximum after-value is set for each MIDI channel as shown in step 7-2. Find out, save it, clear others.

<アフタータッチ効果の形態> 本実施例の場合、アフタータッチデータを楽音のどの
要素に作用するかは上述した第3図の範囲内で行える。
すなわち、アフタータッチでアンプバイアスおよび/ま
たはビブラートデプスを変調可能である。ただし、以下
の説明では、アフタータッチによるアンプバイアスの制
御を想定する。一方、アンプバイアスは、アフタータッ
チ以外にLFOトレモロ(グロール)、モジュレーション
ホイール、デファイナブルコントローラ、フットボリウ
ムによっても制御されるが、アフタータッチ以外の制御
については必要最小限の説明に留める。
<Form of Aftertouch Effect> In the case of the present embodiment, it is possible to determine which element of the musical tone the aftertouch data acts on within the range of FIG. 3 described above.
That is, the amplifier bias and / or the vibrato depth can be modulated by aftertouch. However, in the following description, it is assumed that amplifier bias is controlled by aftertouch. On the other hand, the amplifier bias is also controlled by the LFO tremolo (growl), modulation wheel, definable controller, and foot volume in addition to aftertouch, but control other than aftertouch will be described only as necessary.

<楽音制御データ作成処理> 上述した、アフタータッチ入力処理で選択した各サイ
クルにおける最大値のアフタータッチデータは第8図に
示す楽音制御データ(この場合、アンプバイアスデー
タ)の作成処理ルーチンにおいて処理される。このルー
チンは、タイマー割込ルーチン(第2B図)におけるコン
トロールデータ変化処理2−2−2内のサブルーチンと
なっている。第8図の楽音制御データ作成処理ではアン
プバイアスに作用する要素のうち操作子データすなわ
ち、MIDIのアフタータッチデータ、モジュレーションホ
イールデータ、デファイナブルコントローラーデータ、
フットボリウムデータからのアンプバイアス成分をセン
スデータを考慮して作成する(残るアンプバイアス成分
はルーチン2−2−5で得られるLFOトレモロ(グロー
ル)による成分である)。このアンプバイアス成分を作
成する上で、楽器演奏モードが参照され、管楽器演奏モ
ードか否かによって異なる仕方でアンプバイアス成分が
生成されるようにしている。特に実施例の場合、管楽器
演奏モードにおける息圧を表わすアフタータッチデータ
によるアンプバイアスへの作用の仕方が奏者の意図に沿
うように、非線形で加えられるようにするため、ROM1−
8上にその作用の特性を示すデータ変換テーブルを用意
している。ただし、センスデータの全範囲に対して変換
テーブルを用意することは記憶容量の面から望ましくな
いので、一部の変換は直接的な計算によって実行してい
る。
<Tone Control Data Creation Process> The aftertouch data of the maximum value in each cycle selected in the aftertouch input process is processed in the tone control data (in this case, amplifier bias data) creation process routine shown in FIG. You. This routine is a subroutine of the control data change process 2-2-2 in the timer interrupt routine (FIG. 2B). In the tone control data creation process shown in FIG. 8, among the elements acting on the amplifier bias, the manipulator data, ie, MIDI after touch data, modulation wheel data, definable controller data,
An amplifier bias component from the foot volume data is created in consideration of the sense data (the remaining amplifier bias component is a component based on the LFO tremolo (growl) obtained in the routine 2-2-5). In creating the amplifier bias component, the musical instrument performance mode is referred to, and the amplifier bias component is generated in a different manner depending on whether or not the wind instrument performance mode. In particular, in the case of the embodiment, the ROM 1-1 is applied in a non-linear manner so that the manner in which the aftertouch data representing the breath pressure in the wind instrument playing mode acts on the amplifier bias is applied in a non-linear manner in accordance with the player's intention.
8, a data conversion table indicating the characteristics of the operation is prepared. However, since it is not desirable to prepare a conversion table for the entire range of sense data from the viewpoint of storage capacity, some conversions are performed by direct calculation.

第8図のフローに沿って述べると、まず、ステップ8
−1で、アンプバイアスへの変調ONになっているセンス
の総和が計算される。例えば第3図の設定内容に対して
は、アフタータッチのセンス99が計算結果A0となる。な
お、第3図の設定データは音色に付属するデータであり
得、音色切換で自動的に変更(設定)され得る。次に、
ステップ8−2では変調がオンになっている各操作子デ
ータ(0〜127)とセンス(0〜99)との乗算を行い、
そのデータを0〜99に圧縮するために、127で除算し、
その結果のデータの総和を計算し、B0にセットする。例
えば、設定内容が第3図のようであり、MIDIのアフター
タッチデータとして06FHが与えられたときには、結果は
86となる。次に、ステップ8−3に移り、ここで管モー
ドかどうかが判別される。すなわち、第5図に示すモー
ドレジスタMのビット5がテストされ、“1"なら管モー
ド、“0"なら管モード以外となりステップ8−4に進
む。
Referring to the flow of FIG. 8, first, step 8
At -1, the sum of the senses that are modulation ON to the amplifier bias is calculated. For example, for the setting contents of FIG. 3, the after touch sense 99 is the calculation result A0. Note that the setting data in FIG. 3 can be data attached to a tone color, and can be automatically changed (set) by tone color switching. next,
In step 8-2, each operator data (0 to 127) whose modulation is on is multiplied by the sense (0 to 99).
Divide by 127 to compress that data to 0-99,
The sum of the resulting data is calculated and set to B0. For example, if the settings are as shown in Fig. 3 and 06FH is given as MIDI after touch data, the result is
It becomes 86. Next, the process proceeds to step 8-3, where it is determined whether or not the mode is the tube mode. That is, bit 5 of the mode register M shown in FIG. 5 is tested, and if "1", the mode is other than the tube mode.

ステップ8−4では基準化されたセンスA0から基準化
された操作子データB0を減算して、アンプバイアスデー
タABDを得る。この結果、管モード以外の楽器演奏モー
ドでは、操作子データ(アフタータッチデータであり得
る)に対し、直線的に音量、音色が変化することにな
る。
In step 8-4, the standardized operator data B0 is subtracted from the standardized sense A0 to obtain amplifier bias data ABD. As a result, in the musical instrument performance mode other than the tube mode, the volume and timbre change linearly with respect to the operator data (which may be after touch data).

一方、管モードのときにはステップ8−5に進み、基
準のセンスA0が92以上か否かが判別される。基準のセン
スA0が91以下のときはステップ8−6に進み、0〜91の
範囲のセンスデータを0〜99までの再基準化されたセン
スデータA2に伸張し、ステップ8−7に進んでセンスデ
ータA2から基準の操作子データB0を減算してアンプバイ
アスデータABDを得る。
On the other hand, in the tube mode, the process proceeds to step 8-5, where it is determined whether or not the reference sense A0 is 92 or more. If the reference sense A0 is 91 or less, the process proceeds to step 8-6, where the sense data in the range of 0 to 91 is expanded to the re-standardized sense data A2 of 0 to 99, and the process proceeds to step 8-7. Subtract reference operator data B0 from sense data A2 to obtain amplifier bias data ABD.

センスデータA0が92以上のときは、ステップ8−8で
99から、基準の操作子データB0を引いてデータA1(最小
0〜99)を得、それを最小0〜127に伸張して変換テー
ブル(楽音制御用データ変換テーブル)内の要素番号B1
を得る。更に、ステップ8−9でセンスデータA0から92
を減算して、センスデータごとの変換テーブルの番号No
(0〜7)を得、ステップ8−10でそのテーブルのB1番
目のデータを読み出してアンプバイアスデータABDとす
る。この結果として、第9図に示すような音量、音色の
変化が管モードのセンスデータA0≧92の範囲において、
操作子データ(MIDIのアフタータッチデータ)の大きさ
に従って発生することになる。
If the sense data A0 is equal to or greater than 92, the process proceeds to step 8-8.
The data A1 (minimum 0 to 99) is obtained by subtracting the reference operator data B0 from 99, and is expanded to a minimum 0 to 127 to obtain the element number B1 in the conversion table (music conversion data conversion table).
Get. Further, in step 8-9, the sense data A0 to 92
Is subtracted, and the conversion table number No.
(0-7) is obtained, and in step 8-10, the B1st data of the table is read out and set as the amplifier bias data ABD. As a result, as shown in FIG. 9, changes in volume and timbre are in the range of the sense data A0 ≧ 92 in the tube mode.
It occurs according to the size of the operation data (MIDI after touch data).

<最終アンプバイアスデータ作成・転送> 第8図の処理で生成したアンプバイアスデータはある
区間(サイクル)における操作子データ(MIDIのアフタ
ータッチデータを含み得る)から作成したアンプバイア
スデータであり、他のサイクルにおける操作子データと
は処理の上で完全に独立したデータである。したがっ
て、このアンプバイアスデータをそのまま音源1−10に
送ったとしたら、操作子データ、特に管楽器演奏モード
において問題となる息の強さを示すアフタータッチデー
タのサイクルごとの小変動が、楽音の音量、音色に現わ
れることになり、コロコロとした音が発生してしまうこ
とになる。したがってこの発生を防止し、なめらかな特
性変化になるようにアンプバイアスデータを加工する処
理を行うのが望ましい。その上でLFOトレモロ(グロー
ル)によるアンプバイアス成分を加えて最終的なアンプ
バイアスとして音源1−10に転送するようにする。実施
例の場合、これらの処理は、タイマー割込ルーチン(第
2B図)における楽音の音量音色変更処理2−2−6のな
かで行っている。詳細を第10図に示す。
<Creation and transfer of final amplifier bias data> The amplifier bias data generated in the process of FIG. 8 is amplifier bias data generated from the operator data (which may include MIDI after touch data) in a certain section (cycle). The operator data in the cycle (1) is data completely independent in processing. Therefore, if this amplifier bias data is sent to the sound source 1-10 as it is, small fluctuations in each cycle of the operator data, especially aftertouch data indicating the strength of breath, which is a problem in the wind instrument playing mode, will cause the volume of the musical tone It will appear in the timbre, and a crunchy sound will be generated. Therefore, it is desirable to prevent this from occurring and perform a process of processing the amplifier bias data so that the characteristics change smoothly. Then, an amplifier bias component based on the LFO tremolo (growl) is added, and the resultant is transferred to the sound source 1-10 as a final amplifier bias. In the case of the embodiment, these processes are performed by the timer interrupt routine (the
This is performed in the tone volume change processing 2-2-6 in FIG. 2B). Details are shown in FIG.

まず、ステップ10−1でデータ更新のため、ABDNEWに
入っている前回のアンプバイアスデータをABDOLDに移
し、第8図の処理結果である今回の操作子データから作
成したアンプバイアスデータABDをABDNEWにセットす
る。次に、ステップ10−2に進んで管モードかどうかを
判別する。管モードでないときは、コロコロ音の問題は
ないので、今回の操作子データから作成したアンプバイ
アスデータ(ABDNEWのデータ)をBに移し、その値Bに
LFOトレモロ(グロール)によるアンプバイアス成分
(ルーチン2−2−5の処理結果)を加えて、最終的な
アンプバイアスデータCとし、音源1−10に転送する
(ステップ10−3、10−10)。
First, in step 10-1, the previous amplifier bias data contained in ABDNEW is moved to ABDOLD to update the data, and the amplifier bias data ABD created from the current operation data, which is the processing result in FIG. 8, is stored in ABDNEW. set. Next, the routine proceeds to step 10-2, where it is determined whether or not the mode is the tube mode. When the mode is not the tube mode, there is no problem of the squealing sound, so the amplifier bias data (ABDNEW data) created from the current controller data is moved to B, and the value B
An amplifier bias component (processing result of the routine 2-2-5) based on the LFO tremolo (growl) is added to obtain final amplifier bias data C and transferred to the sound source 1-10 (steps 10-3 and 10-10). .

しかし、管モードのときには、息の強さを示すアフタ
ータッチデータが奏者は一定の息圧を意図しているにも
かかわらず、サイクルごとにランダムな小変動を続ける
状態を呈することがあり、その場合、その小変動がアン
プバイアスデータABDに直接的に反映されてしまうの
で、管モードでないときと同様な処理10−3、10−7を
したのでは、コロコロした変化が楽音に生じることにな
る。そこで、10−4〜10−9に示すように、本実施例で
は、アフタータッチデータのサイクルごとの変動を評価
し、大きな変動の場合には、奏者の意図が示されている
として忠実な処理を行うが、小変動の場合には、アンプ
バイアスデータABDを平滑化する処理を2段階を分けて
行っている。フローに従うと、アフタータッチデータの
サイクルごとの変動は、前回のアンプバイアスデータAB
DOLDと今回のサイクルのアンプバイアスデータABDNEWと
の差によって評価できることから、ステップ10−4でこ
の差A0を求めている。続いて、ステップ10−5で差A0が
しきい値X0未満かどうかを判別し、未満であれば、アン
プバイアスデータが小変動していると考えられるので、
差A0を小さくする処理10−6を行い(ここでは1/4の大
きさにしている)、また、X0以上ではあるが、第2のし
きい値X1(>X0)未満の場合には1/4A0+1/8A0に変更す
る(ステップ10−7、10−8)。なお、ステップ10−
6、10−9の演算処理は他の任意の適当な圧縮データ処
理が使用でき、ステップ10−4に関しても、図示以外の
処理でアフタータッチデータ、あるいはアンプバイアス
データの変動を評価することができる。変動の大きさA0
に従って選択的に圧縮された差A0はステップ10−9にお
いて、前回のアンプバイアスデータABDOLDに加減算さ
れ、その結果Bは操作子に係る今回のアンプバイアスデ
ータとしてABDNEWにセーブされる。このデータBは、サ
イクルごとのアフタータッチデータの変動を平滑化した
ものとなっている。この平滑化された操作子のアンプバ
イアスデータBにLFOトレモロ(グロール)に係るアン
プバイアスデータAを加え、最終アンプバイアスデータ
Cとして音源1−10に転送する点(ステップ10−10)は
他の楽器演奏モードの場合と同様である。この結果、管
楽器演奏モードにおいて、息圧を表わすアフタータッチ
データを本電子楽器1に入力した場合、従来の電子楽器
に見られるようなこきざみで不自然な楽音特性変化はな
くなり、奏者の要求を満たし得ることになる。
However, in the case of the tube mode, the after touch data indicating the strength of the breath may exhibit a state in which the player continues random small fluctuations in each cycle even though the player intends a constant breath pressure. In such a case, the small fluctuation is directly reflected on the amplifier bias data ABD. Therefore, if the same processing 10-3 and 10-7 as those in the non-tube mode are performed, a change in the state of the sound will occur in the musical tone. . Accordingly, as shown in 10-4 to 10-9, in the present embodiment, the variation of the after touch data in each cycle is evaluated, and in the case of a large variation, the faithful processing is assumed to indicate the intention of the player. However, in the case of small fluctuations, the process of smoothing the amplifier bias data ABD is performed in two stages. According to the flow, the variation of the after touch data in each cycle is the same as the previous amplifier bias data AB
Since the difference can be evaluated by the difference between DOLD and the amplifier bias data ABDNEW of the current cycle, the difference A0 is obtained in step 10-4. Subsequently, in step 10-5, it is determined whether the difference A0 is less than the threshold value X0. If the difference A0 is less than the threshold value X0, it is considered that the amplifier bias data is slightly fluctuated.
A process 10-6 for reducing the difference A0 is performed (here, the size is set to 1/4). When the difference is equal to or larger than X0 but smaller than the second threshold value X1 (> X0), 1 is set. Change to / 4A0 + 1 / 8A0 (steps 10-7 and 10-8). Step 10-
6. Any other suitable compressed data processing can be used for the arithmetic processing in steps 6 and 10-9. In step 10-4, a change in after touch data or amplifier bias data can be evaluated by processing other than that shown in the figure. . Fluctuation magnitude A0
In step 10-9, the difference A0 selectively compressed is added to or subtracted from the previous amplifier bias data ABDOLD, and the result B is saved in ABDNEW as the current amplifier bias data for the operator. The data B is obtained by smoothing the variation of the after touch data for each cycle. The point at which the amplifier bias data A relating to the LFO tremolo (growl) is added to the smoothed amplifier bias data B of the manipulator and is transferred to the sound source 1-10 as final amplifier bias data C (step 10-10) is another point. This is the same as in the musical instrument playing mode. As a result, when aftertouch data representing breath pressure is input to the present electronic musical instrument 1 in the wind instrument playing mode, the musical tone characteristic change that is unnatural and inconsistent as in a conventional electronic musical instrument is eliminated, and the demand of the player is satisfied. You will get.

以上で実施例の説明を終えるが、この発明の範囲を逸
脱することなく種々の変形、変更が可能である。例え
ば、上記実施例では、アフタータッチが作用する楽音の
構成結果として音量、音色、音高のみを挙げたが、エフ
ェクタの類の要素にも作用させることが可能である。ま
た、音源1−10としてiPD音源を例示したが他の任意の
適当なデジタル音源が使用できる。また、管楽器モード
におけるアフタータッチデータは息圧を示すデータとし
て説明したが、他の吹奏情報、例えば、唇をかむ強さの
情報であってもよい。
The description of the embodiment is finished above, but various modifications and changes can be made without departing from the scope of the present invention. For example, in the above embodiment, only the volume, timbre, and pitch are described as the configuration results of the musical tone to which the aftertouch acts, but it is also possible to apply it to elements such as an effector. Although the iPD sound source has been exemplified as the sound source 1-10, any other suitable digital sound source can be used. Also, the aftertouch data in the wind instrument mode has been described as data indicating breath pressure, but may be other blowing information, for example, information on the strength of biting the lips.

[発明の効果] 以上の説明から明らかなように、この発明では、少な
くとも第1の制御モードと第2の制御モードとを切り換
えて選択可能とし、選択されているモードが上記第1の
制御モードであり、かつアフタータッチデータ受信手段
で受信した現在のアフタータッチデータと以前のアフタ
ータッチデータとの変化の幅が小さいときには、現在と
以前の両アフタータッチデータに基づいて、楽音の特性
の変化の割合が抑制されるように制御データを生成して
発生するようにしたので、アフタータッチデータの変化
の幅が小さいときには、その変化は奏者の意図しないも
のであるとして、現在と以前の両アフタータッチデータ
に基づいて、楽音の特性の変化の割合が抑制されるよう
な制御データが生成されて発生されるようになり、コロ
コロとした耳障りな楽音の特性変化がなくなると共に、
小さな変化幅が徐々にアフタータッチデータが変化した
場合に、ある時点で急激に楽音の特性が変化することが
なくなり、常に奏者の期待するようなアフタータッチ効
果が得られることになる。
[Effects of the Invention] As is apparent from the above description, according to the present invention, at least the first control mode and the second control mode can be switched and selected, and the selected mode is the first control mode. And when the range of change between the current after-touch data received by the after-touch data receiving means and the previous after-touch data is small, based on both the current and previous after-touch data, the change in the characteristic of the musical tone Since the control data is generated so that the ratio is suppressed, when the range of the change of the aftertouch data is small, the change is unintended by the player and the current and previous aftertouch data are determined. Based on the data, control data is generated and generated so that the rate of change in the characteristic of the musical tone is suppressed. The characteristic change of the unpleasant musical tone disappears,
When the after-touch data gradually changes with a small change width, the characteristics of the musical tone do not suddenly change at a certain point in time, and the after-touch effect always expected by the player can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明を適用した電子楽器の全体構成図、第
2A図は第1図の鍵盤1−1とスイッチ1−3の状態をマ
イクロコンピュータ1−2に取り込むためのタイマー割
込処理のフローチャート、第2B図は各種の楽音特性制御
のための処理が行われるタイマー割込ルーチンのフロー
チャート、第2C図は第1図のパンニング効果発生器1−
12への制御を実行するフローチャート、第2D図はMIDI受
信処理のフローチャート、第2E図はMIDI送信処理のフロ
ーチャート、第2F図は全体の動作のフローチャート、第
3図は楽音制御用データの設定例を示す図、第4図は第
1図のスイッチ1−3に置かれるスイッチの配列図、第
5図は楽器演奏モードの切換の際、第1図の表示部1−
5に表示される内容を示す図、第6図は楽器演奏モード
を切り換えたときの内部のモードデータの変化を示す
図、第7図はアフタータッチデータの最大値選択に関す
るフローチャート、第8図はアフタータッチデータ等か
ら楽音制御データ(アンプバイアスデータ成分)を作成
するためのフローチャート、第9図は管楽器演奏モード
において楽音制御用データ作成テーブルが選ばれたとき
にアフタータッチに基づいて生じる楽音の音量、音色の
変化を示す図、第10図は第1図の音源1−10に送る最終
的なアンプバイアスデータの作成に関し、管楽器演奏モ
ードにおいてアンプバイアスデータの平滑化処理を行う
ためのフローチャートである。 1−2……マイクロコンピュータ、1−3……スイッ
チ、1−8……ROM、1−9……RAM、3−1……ノーマ
ルスイッチ、3−2……カーソルキー、3−3……バリ
ューキー、M……モードレジスタ。
FIG. 1 is an overall configuration diagram of an electronic musical instrument to which the present invention is applied.
FIG. 2A is a flowchart of a timer interrupt process for taking the states of the keyboard 1-1 and the switch 1-3 of FIG. 1 into the microcomputer 1-2, and FIG. 2B is a process for controlling various tone characteristics. FIG. 2C is a flow chart of the timer interrupt routine shown in FIG.
12 is a flowchart for executing MIDI control, FIG. 2D is a flowchart for MIDI reception processing, FIG. 2E is a flowchart for MIDI transmission processing, FIG. 2F is a flowchart for overall operation, and FIG. 3 is an example of setting tone control data. FIG. 4 is an arrangement diagram of switches placed on the switches 1-3 in FIG. 1, and FIG. 5 is a display unit 1--1 in FIG.
5 is a diagram showing the contents displayed in FIG. 5, FIG. 6 is a diagram showing a change in internal mode data when the musical instrument playing mode is switched, FIG. 7 is a flowchart relating to selection of the maximum value of after touch data, and FIG. FIG. 9 is a flowchart for creating tone control data (amplifier bias data component) from aftertouch data and the like. FIG. 9 shows the volume of a tone generated based on aftertouch when a tone control data creation table is selected in the wind instrument playing mode. FIG. 10 is a flow chart for performing a smoothing process of the amplifier bias data in the wind instrument playing mode with respect to the generation of the final amplifier bias data to be sent to the sound source 1-10 in FIG. . 1-2 microcomputer, 1-3 switch, 1-8 ROM, 1-9 RAM, 3-1 normal switch, 3-2 cursor key, 3-3 ... Value key, M: Mode register.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】少なくとも第1の制御モードと第2の制御
モードとを切り換えて選択するモード選択手段と、 このモード選択手段で選択されたモードを記憶するモー
ド記憶手段と、 アフタータッチデータを受信するアフタータッチデータ
受信手段と、 この受信手段で受信したアフタータッチデータに基づい
て、楽音の特性を制御する制御データを発生するもので
あって、上記モード記憶手段の示す選択されたモードが
上記第1の制御モードであるときにおいて、現在のアフ
タータッチデータと以前のアフタータッチデータとの変
化の幅が小さいときには、上記両アフタータッチデータ
に基づいて、楽音の特性の変化の割合が抑制されるよう
に上記制御データを生成して発生する制御データ発生手
段と、 を有することを特徴とする楽音特性制御装置。
1. Mode selection means for switching and selecting at least a first control mode and a second control mode, mode storage means for storing a mode selected by the mode selection means, and receiving after touch data And after-touch data receiving means for generating control data for controlling the characteristics of musical sounds based on the after-touch data received by the receiving means. In the first control mode, when the range of change between the current after-touch data and the previous after-touch data is small, the rate of change in the characteristic of the musical tone is suppressed based on the two after-touch data. Control data generating means for generating and generating the control data described above. apparatus.
【請求項2】請求項1に記載の楽音特性制御装置におい
て、 上記制御データ発生手段は、上記第1の制御モードにお
いて、所定のサイクル毎に上記受信手段で受信したアフ
タータッチデータ群の中から代表的なアフタータッチデ
ータを抽出して、この抽出したアフタータッチデータに
応じた制御データを生成するものであり、現在のサイク
ルにおいて生成した制御データと以前のサイクルにおい
て生成した制御データとの差分を算出することにより、
上記現在のアフタータッチデータと以前のアフタータッ
チデータとの変化の幅を検出し、上記算出した差分が所
定の値より大きいときは、現在のサイクルにおける制御
データを発生し、上記算出した差分が所定の値より小さ
いときは、現在のサイクルにおける制御データを発生せ
ず、現在のサイクルにおける制御データと以前のサイク
ルにおける制御データとから新たに制御データを生成し
直して、この新たに生成した制御データを現在のサイク
ルにおける制御データとして発生することを特徴とする
楽音特性制御装置。
2. The musical tone characteristic control device according to claim 1, wherein the control data generating means is configured to select, from the after-touch data group received by the receiving means every predetermined cycle in the first control mode. A representative aftertouch data is extracted, and control data corresponding to the extracted aftertouch data is generated.A difference between the control data generated in the current cycle and the control data generated in the previous cycle is calculated. By calculating
The width of change between the current aftertouch data and the previous aftertouch data is detected, and when the calculated difference is larger than a predetermined value, control data in the current cycle is generated and the calculated difference is When the value is smaller than the value of, the control data in the current cycle is not generated, the control data is newly generated from the control data in the current cycle and the control data in the previous cycle, and the newly generated control data is generated. Is generated as control data in the current cycle.
【請求項3】請求項2に記載の楽音特性制御装置におい
て、 上記制御データ発生手段は、上記差分が所定の値より小
さいときは、その小ささの度合に応じた態様で、現在の
サイクルにおける制御データと以前のサイクルにおける
制御データとを演算処理して新たに制御データを生成し
直すことを特徴とする楽音特性制御装置。
3. The tone characteristic control device according to claim 2, wherein said control data generating means, when said difference is smaller than a predetermined value, in a mode corresponding to a degree of said small value in a current cycle. A tone characteristic control device, wherein control data and control data in a previous cycle are arithmetically processed to newly generate control data.
JP1010661A 1989-01-19 1989-01-19 Tone characteristic control device Expired - Lifetime JP2858314B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1010661A JP2858314B2 (en) 1989-01-19 1989-01-19 Tone characteristic control device
US07/465,038 US5119712A (en) 1989-01-19 1990-01-16 Control apparatus for electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1010661A JP2858314B2 (en) 1989-01-19 1989-01-19 Tone characteristic control device

Publications (2)

Publication Number Publication Date
JPH02189593A JPH02189593A (en) 1990-07-25
JP2858314B2 true JP2858314B2 (en) 1999-02-17

Family

ID=11756421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1010661A Expired - Lifetime JP2858314B2 (en) 1989-01-19 1989-01-19 Tone characteristic control device

Country Status (1)

Country Link
JP (1) JP2858314B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538580A (en) * 1978-09-13 1980-03-18 Nippon Musical Instruments Mfg Key touch data generating circuit in electronic musical instrument
JPS58207084A (en) * 1982-05-27 1983-12-02 ヤマハ株式会社 Processing of touch data for keyed instrument
JPS62187393A (en) * 1986-02-13 1987-08-15 ヤマハ株式会社 Touch response unit for electronic musical apparatus
JPS63195397A (en) * 1987-02-06 1988-08-12 Matsushita Electric Ind Co Ltd Commutator motor-driven blower

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538580A (en) * 1978-09-13 1980-03-18 Nippon Musical Instruments Mfg Key touch data generating circuit in electronic musical instrument
JPS58207084A (en) * 1982-05-27 1983-12-02 ヤマハ株式会社 Processing of touch data for keyed instrument
JPS62187393A (en) * 1986-02-13 1987-08-15 ヤマハ株式会社 Touch response unit for electronic musical apparatus
JPS63195397A (en) * 1987-02-06 1988-08-12 Matsushita Electric Ind Co Ltd Commutator motor-driven blower

Also Published As

Publication number Publication date
JPH02189593A (en) 1990-07-25

Similar Documents

Publication Publication Date Title
US6018118A (en) System and method for controlling a music synthesizer
JPH0944150A (en) Electronic keyboard musical instrument
JP3296518B2 (en) Electronic musical instrument
US5428183A (en) Tone signal generating apparatus for performing a timbre change by storing a full frequency band in a wave memory
US5119712A (en) Control apparatus for electronic musical instrument
JP2858314B2 (en) Tone characteristic control device
US6646194B2 (en) Method and apparatus for waveform reproduction
JP3141789B2 (en) Sound source system using computer software
JP2570819B2 (en) Electronic musical instrument
JPH0749519Y2 (en) Pitch control device for electronic musical instruments
JP3581763B2 (en) Electronic musical instrument
JPH10124050A (en) Electronic musical instrument
JP3394626B2 (en) Electronic musical instrument
JP3493838B2 (en) Electronic musical instrument
JP3105132B2 (en) Tone generator for electronic musical instruments
JPH0749520Y2 (en) Pitch control device for electronic musical instruments
JP2679443B2 (en) Touch response device for electronic musical instruments
JP2797363B2 (en) Electronic musical instrument
JP3455976B2 (en) Music generator
JP2972364B2 (en) Musical information processing apparatus and musical information processing method
JP3190473B2 (en) Music control device
JPH02189594A (en) Controller for electronic musical instrument
JPH06250650A (en) Electronic musical instrument
JP3343956B2 (en) Music control device
JPH02189595A (en) Controller for electronic musical instrument

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11