JPH02189595A - Controller for electronic musical instrument - Google Patents

Controller for electronic musical instrument

Info

Publication number
JPH02189595A
JPH02189595A JP1010663A JP1066389A JPH02189595A JP H02189595 A JPH02189595 A JP H02189595A JP 1010663 A JP1010663 A JP 1010663A JP 1066389 A JP1066389 A JP 1066389A JP H02189595 A JPH02189595 A JP H02189595A
Authority
JP
Japan
Prior art keywords
data
aftertouch
processing
touch
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1010663A
Other languages
Japanese (ja)
Inventor
Hitotsugu Kato
仁嗣 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP1010663A priority Critical patent/JPH02189595A/en
Priority to US07/465,038 priority patent/US5119712A/en
Publication of JPH02189595A publication Critical patent/JPH02189595A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To reflect after-touch effect, which has substantially no delay behind the playing operation of a player, on a musical sound even when an optional after-touch play controller is connected by inspecting the reception state of after-touch data periodically and generating control data for controlling the characteristics of the musical sound. CONSTITUTION:The data reception state of an after-touch data receiving means 1-6 is inspected periodically and an after-touch evaluating means 1-2 evaluates one after-touch data for processing for one or plural received after-touch data; and a control data generating means 1-2 processes the after-touch data for processing to generate the control data for controlling the characteristics of the musical sound. Consequently, an optional type play controller is used sufficiently as an after-touch controller and specially, when the play controller of a wind instrument is used, the after-touch effect that the player intends can be represented in the musical sound substantially without delay.

Description

【発明の詳細な説明】 [発明の技術分野] この発明は電子楽器のル制御装置に関し、特に。[Detailed description of the invention] [Technical field of invention] The present invention relates to a control device for an electronic musical instrument, and more particularly to a control device for an electronic musical instrument.

アフタータッチ入力を音源の生成する楽音に反映させる
ための制御技術に関する。
This invention relates to a control technology for reflecting aftertouch input in musical sounds generated by a sound source.

[従来技術とその問題点] 歴史的に電子楽器は鍵盤タイプのものを中心として発展
してきた。必然的に、鍵盤タイプの電子楽器の制御装a
(代表的にはマイクロコンピュータ)は、楽器の操作子
が鍵盤タイプ(鍵盤、ペングー、モジュレーションホイ
ール、ペダル等)であることを考慮して、それに適した
音源制御を行うことが2常に課題であり、そのため努力
が統けられてきた、また、電子楽器間の通信技術。
[Prior art and its problems] Historically, electronic musical instruments have developed mainly around keyboard-type instruments. Inevitably, a control device for a keyboard-type electronic musical instrument a
(Typically, a microcomputer) takes into account that the instrument's operators are keyboard types (keyboard, penguin, modulation wheel, pedal, etc.), and it is always a challenge to control the sound source appropriately. ,Therefore, efforts have been concentrated on communication technology between electronic musical instruments.

例えばM I D I (Musical Instr
ument DigitalInterface)につ
いても、鍵盤タイプの電子楽器に対する考慮が払われて
きた。
For example, MID I (Musical Instr.
Consideration has also been given to keyboard-type electronic musical instruments (Digital Interface).

しかしながら、近年、t11!!11タイプ以外の電子
楽器も普及しつつあり、特にギタータイプの電子弦楽器
やリードタイプの電子管楽器などについては人気も高ま
りつつある。このような多種、多様の電子楽器の出現に
伴い、ユーザーサイドではそれらの楽器同士をMIDI
等で接続して種々の演奏形態における音楽を楽しむよう
になってきた。
However, in recent years, t11! ! Electronic musical instruments other than the 11 types are becoming popular, and guitar-type electronic stringed instruments and reed-type electronic wind instruments are becoming increasingly popular. With the emergence of such a wide variety of electronic musical instruments, users are now using MIDI to connect these instruments.
etc., and have come to enjoy music in a variety of performance formats.

残念ながら、現状では電子楽器の制御装置は、任意の演
奏コントローラ(91!盤、管、ギターコントローラ等
々)からの入力を個々の演奏コントローラの特性あるい
は種々の楽器に対する奏法の形態間の基本的相異等に十
分に対応するだけの能力をもちあわせていない0例えば
、[アフタータッチデータ」という情報は、演奏コント
ローラが鍵盤であるときには押!!後の社用を表わすも
のであるが、演奏コントローラが管楽器のブレスセンサ
ーであるときには急用を表わす、前者の場合は、アフタ
ータッチデータの生成される速さは。
Unfortunately, at present, control devices for electronic musical instruments cannot process input from any performance controller (91! board, wind, guitar controller, etc.) based on the characteristics of the individual performance controller or the basic correlation between the playing styles for various instruments. For example, when the performance controller is a keyboard, the information "aftertouch data" cannot be pressed. ! In the former case, the speed at which aftertouch data is generated is as follows.

比較的にゆっくりしているが、後者の場合には奏者によ
り急用の微妙なコントロールがなされるため、頻繁にア
フタータッチデータが生成されることになり、大量のア
フタータッチデータが制御装置に入力されることになる
。ここにおいて、制御装置が、鍵盤の場合のように、受
信したアフタータッチデータを1つ残らず処理しようと
すると。
Although it is relatively slow, in the latter case, the player performs urgent and delicate controls, so aftertouch data is generated frequently, and a large amount of aftertouch data is input to the control device. That will happen. Here, if the control device attempts to process all received aftertouch data, as in the case of a keyboard.

処理に要する時間のために、実際に音源でアフタータッ
チ効果の付いた楽音が発生するのが奏者の演奏操作に対
して遅れてしまう、しかも、巾に遅れるだけでなく、ア
フタータッチデータの生成速度の変動に依存して遅れの
量が変動する。この結果、奏者の期待する効果とは大き
くはずれたものになってしまう。
Due to the time required for processing, there is a delay in the actual generation of musical tones with aftertouch effects in the sound source compared to the player's performance operations.Furthermore, not only is there a delay in width, but also the generation speed of aftertouch data is delayed. The amount of delay varies depending on the variation of . As a result, the effect deviates greatly from the player's expectations.

[発明の目的] したがって、この発明の目的はアフタータッチコントロ
ーラとして任意のタイプの演奏コントローラの使用に上
方対応でき、特に管楽器の演奏コントローラが使用され
る場合でも、奏者の意図しているアフタータッチ効果を
実質ト遅れなしに’IJ!音に表現することができる電
子楽器の制御装置を提供することである。
[Object of the Invention] Therefore, it is an object of the present invention to be able to accommodate the use of any type of performance controller as an aftertouch controller, and in particular, even when a performance controller for a wind instrument is used, the aftertouch effect intended by the player is not affected. 'IJ!' without any real delay! An object of the present invention is to provide a control device for an electronic musical instrument that can express sound.

[発明の構成、作用] この発明は、上記の目的を達成するため、アフタータッ
チデータ受信手段のデータ受信状態を定期的に検査し、
受信されている1乃至複数のアフタータッチデータに対
し、1つの処理用アフタータッチデータをアフタータッ
チデータ評価手段にて評価し、制御データ発生手段にお
いて、この処理用アフタータッチデータを処理して楽音
の特性を制御する制御データを発生するようにしたこと
を特徴とする。
[Structure and operation of the invention] In order to achieve the above object, the present invention periodically inspects the data reception state of the aftertouch data reception means,
The aftertouch data evaluation means evaluates one processing aftertouch data for one or more received aftertouch data, and the control data generation means processes this processing aftertouch data to generate a musical tone. The present invention is characterized in that control data for controlling characteristics is generated.

この構成によれば、制御データ発生手段は動作ザイクル
の都度、アフタータッチデータとして1個のアフタータ
ッチデータを処理すればよいので、処理の遅れは実質上
なくなり、電子管楽器のように大量のアフタータッチデ
ータを与える演奏コントローラが使用される場合でも、
奏者の演奏に対して遅延のない楽音のアフタータッチ効
果を得ることができる。
According to this configuration, the control data generation means only needs to process one piece of aftertouch data as aftertouch data for each operation cycle, so there is virtually no processing delay, and a large amount of aftertouch data, such as in an electronic wind instrument, is generated. Even if a performance controller is used that provides data,
It is possible to obtain an aftertouch effect of a musical tone without delay in response to a player's performance.

上記アフタータッチデータ評価手段が検査時において評
価する1つの処理用アフタータッチデータは受信されて
いるl乃至複数のアフタータッチデータに依存する値を
有する。典型的には受信されているアフタータッチデー
タの代表値が処理用アフタータッチデータとなる。好ま
しいa成例では、アフタータッチデータ評価手段は、複
数のアフタータッチデータが受信されている場合に、そ
のなかの最大値を処理用アフタータッチデータとして選
択する。この評価論理は、楽音の流れにおいて注目され
るアタック部ないしは音圧上昇部を形成しようとして、
奏者が行う演奏操作、管楽器の場合でいえば、タンギン
グ直後のように急用をマウスピースに加えるような操作
に対して、−層、即時的な77タータツチ効果をもたら
すことを容易にする。もっとも、アフタータッチデータ
評価手段が処理用のアフタータッチデータを評価する時
間間隔は、使用する電子楽器の謝方に応じて、聴覚レベ
ルでは問題にならない程度に短くできるので、最大値選
択以外の評価論理を採用してもよい8例えば、最小値選
択、平均化処理などが挙げられる。
One piece of processing aftertouch data that the aftertouch data evaluation means evaluates at the time of inspection has a value that depends on one or more received aftertouch data. Typically, a representative value of the received aftertouch data becomes the aftertouch data for processing. In a preferred example, when a plurality of aftertouch data are received, the aftertouch data evaluation means selects the maximum value among them as the aftertouch data for processing. This evaluation logic attempts to form the attack part or sound pressure rising part that is noteworthy in the flow of musical tones.
This makes it easy to bring about an instant 77 touch effect for a performance operation performed by a player, such as an operation that applies an urgent action to the mouthpiece immediately after tonguing in the case of a wind instrument. However, the time interval at which the aftertouch data evaluation means evaluates the aftertouch data for processing can be shortened to the extent that it does not cause a problem at the auditory level, depending on the configuration of the electronic musical instrument used, so evaluations other than maximum value selection are possible. For example, minimum value selection, averaging processing, etc. may be employed.

なお、本明細書において使用する「アフタータッチデー
タ受信手段のデータ受信状態を定期的に検査し」におけ
る「定期的」の意味は、検査(評価)間隔が時間的に完
全に一定であることには限定されず、電子楽器の制御装
置をプログラノ・制御されるマイクロコンピュータで実
現した場合において、アフタータッチ以外の処理系にお
ける処理量等に依存する間隔の長さの変動を含むもので
ある。
In addition, as used in this specification, "regularly" in "regularly inspecting the data reception state of the aftertouch data receiving means" means that the inspection (evaluation) interval is completely constant in time. is not limited, and includes fluctuations in the length of the interval depending on the amount of processing in the processing system other than aftertouch when the control device for the electronic musical instrument is realized by a microcomputer controlled by a program program.

[実施例] 以下、図面を参照してこの発明の実施例について説明す
る。
[Example] Hereinafter, an example of the present invention will be described with reference to the drawings.

く全体構成〉 この発明の特徴を組み込んだ電子楽器lの全体構成を第
1図に示す、鍵盤1−1では、操作された鍵の情報とし
て、キーコードを始めとして押鍵速度、離鍵速度データ
及び押鍵後の社用データcMg1におけるアフタータッ
チデータ)を検出し、本電子楽器lの制御装置としての
マイクロコンピュータ(CPU)1−2に送出する。ス
イッチ1−3は一連の機f走スイッチから成り、各スイ
ッチの状態はマイクロコンピュータ1−2に送られて処
理される。コントローラ1−4は鍵i1以外の演奏用操
作子を構成するものであり、演奏中の楽音のピッチを変
更するためのペングーホイール、トレモロの深さを変更
するためのモジュレーシ1ンホイール、予め設定された
1ないし:41aの楽皆構成要素に対して作用するため
のデフアイナブルホイール等の操作子を含み、各操作子
データはマイクロコンピュータ1−2に送られる3表示
部1−5はLEDやLCD (液晶)デイスプレィ等か
ら成り、マイクロコンピュータ1−2の制御の下に、現
在の演奏状態、電子楽器1の動作状慝(システム状態)
、設定データ等を表示する。
Overall Configuration> The overall configuration of an electronic musical instrument incorporating the features of the present invention is shown in FIG. data and aftertouch data in corporate data cMg1 after a key press) are detected and sent to a microcomputer (CPU) 1-2 as a control device of the electronic musical instrument I. Switches 1-3 consist of a series of operational switches, the status of each switch being sent to microcomputer 1-2 for processing. The controller 1-4 constitutes performance operators other than the key i1, and includes a pengu wheel for changing the pitch of the musical tone being played, a modulation wheel for changing the depth of the tremolo, and a preset controller. The display unit 1-5 includes operators such as a definable wheel for acting on the set components 1 to 41a, and each operator data is sent to the microcomputer 1-2. It consists of an LED, LCD (liquid crystal) display, etc., and under the control of a microcomputer 1-2 displays the current performance status and operating status of the electronic musical instrument 1 (system status).
, display setting data, etc.

MIDII−6はマイクロコンピュータ1−2が外部の
電子楽器、シーケンサ等との間でデータの通信を行うの
に用いられる外部インターフェースである。もう1つの
外部インターフェース1−7はマイクロコンピュータ1
−2とICカードとのインターフェースであり、マイク
ロコンピュータ1−2はこの外部インターフェース1−
7を介してICカードからデータまたはプログラム等を
取り込んだり、ICカードにデータまたはプログラムを
書き込んだりする。マイクロコンピュータ1−2はRO
Ml−8とRAMl−9を有し、ROMl−8には本電
子楽器lを動作させるためのプログラムや、音色データ
、演奏データなどが記憶され、RAMl−9にはプログ
ラムの実行中に使用するデータ、例えば音色データ、音
色rfIi御用データ、演奏データ、演奏状態データな
どが一時的に記憶される。
MIDII-6 is an external interface used by the microcomputer 1-2 to communicate data with external electronic musical instruments, sequencers, etc. Another external interface 1-7 is the microcomputer 1
-2 and an IC card, and the microcomputer 1-2 is an interface between this external interface 1-2 and an IC card.
7, data or programs are taken in from the IC card, and data or programs are written to the IC card. Microcomputer 1-2 is RO
It has Ml-8 and RAMl-9, and ROMl-8 stores programs for operating this electronic musical instrument, tone data, performance data, etc., and RAMl-9 is used while executing the program. Data such as timbre data, timbre rfIi data, performance data, and performance status data are temporarily stored.

「源1−1Oはマイクロコンピュータl−2の制御の下
に複数のヴオイスの楽音信号を発生する。音源1−10
としては、例えば、特願昭62−249467号に示す
ような1PD(インターラクティブ位相歪み方式)の音
源が使用できる。音源1−10の生成1.たデジタル楽
音信号は系統別(ここでは2系統)にD/A変換器1−
11に送られ、各系統のアナログ楽音信号に変換される
。D/A変換器1−11からの各系統のアナログ楽音信
号はマイクロコンピュータ1−2によって制御されるパ
ンニング効果発生器1−12に入力される。パンニング
効果発生器1〜12は、入力される各系統のアナログ楽
音信号を相補的に振幅制御する対のVCAを2組(2系
統分)有しており、計4つのVCAのうち、2つずつの
VCA出力をミックスしてステレオの右チャンネルと左
チャンネルの信号を形成する。これにより、系統別にa
像の定位が制御される。パンニング効果発生器1−12
からの各ステレオチャンネル信号はフィルター1−13
で不要周波数成分が除去され、アンプ1−14で増幅さ
れた後、左右のスピーカ1−15から放音される。
"The source 1-1O generates musical tone signals of a plurality of voices under the control of the microcomputer l-2. The sound source 1-10
For example, a 1PD (interactive phase distortion system) sound source as shown in Japanese Patent Application No. 62-249467 can be used. Generation of sound source 1-10 1. The digital musical tone signals are sent to the D/A converter 1- for each system (here, two systems).
11, and converted into analog musical tone signals of each system. Each system of analog musical tone signal from the D/A converter 1-11 is input to a panning effect generator 1-12 controlled by a microcomputer 1-2. The panning effect generators 1 to 12 have two pairs of VCAs (for two systems) that complementarily control the amplitude of input analog musical tone signals of each system, and out of a total of four VCAs, two The outputs of each VCA are mixed to form stereo right and left channel signals. As a result, a
The localization of the image is controlled. Panning effect generator 1-12
Each stereo channel signal from
After unnecessary frequency components are removed from the signal and the signal is amplified by an amplifier 1-14, the sound is emitted from left and right speakers 1-15.

く基本動作〉 次に、電子楽器lの基本的な動作について、第2A図〜
第2F図を参照して説明する。
Basic operations〉 Next, we will explain the basic operations of electronic musical instruments as shown in Figure 2A~
This will be explained with reference to FIG. 2F.

第2A図は一定周期ごとに起動される第1のタイマー割
込ルーチンであり、このルーチン2−1−1において、
鍵盤1−1の状態と、スイッチ1−3の各スイッチ状態
がマイクロコンピュータ1−2に取り込まれる。
FIG. 2A shows the first timer interrupt routine that is started at regular intervals, and in this routine 2-1-1,
The state of the keyboard 1-1 and the state of each switch 1-3 are taken into the microcomputer 1-2.

第2B図は第2のタイマー割込ルーチンであり、ステッ
プ2−2−1でコントローラ!−4のデータがマイクロ
コンピュータ1−2に取り込まれ、前回のコントロール
データとの比較から、コントロールデータの変化の有無
が調べられ、変化した場合にはコントロールデータ変化
処理2−2−2が実行される0次のステップ2−2−3
では、LFOビブラートを実現するための演算が実行さ
れる。すなわち、ビブラートに作用するデータ(基準レ
ート、基準デプス、ビブラートパラメータ変調用のフン
トロールデータやMIDIデータ)から、現在のビブラ
ートデータを生成する。
FIG. 2B shows the second timer interrupt routine, in which the controller! -4 data is taken into the microcomputer 1-2, and from the comparison with the previous control data, it is checked whether or not the control data has changed, and if it has changed, control data change processing 2-2-2 is executed. 0th step 2-2-3
Now, calculations for realizing LFO vibrato are executed. That is, current vibrato data is generated from data that affects vibrato (reference rate, reference depth, mount roll data and MIDI data for vibrato parameter modulation).

次にステップ2−2−4ではシステムのピッチ変更設定
状態に従いLFOビブラート、MIDIデータ、コント
ロールデータにより、楽音のピッチを変更することを実
現するための演算を行い、結果を電源1−XOに送って
、ピッチの制御を行う1次にステップ2−2−5ではL
FO)レモロ(グロール)を実現するためのデータの演
!(コントロールデータまたはMIDIデータがトレモ
ロあるいはグロールに対して変調をかけている場合に必
要な演算処理も含まれる)を行う。次にステップ2−2
−6ではLFOトレモロ、MIDIデータ(例えばアフ
タータッチデータ)、コントロールデータが実際に楽音
の音色、音量を変更することを実現するための演算を行
い、結果を音源1−10に送って楽音の音色、音量を制
御する。
Next, in step 2-2-4, calculations are performed to change the pitch of musical tones using the LFO vibrato, MIDI data, and control data according to the pitch change setting state of the system, and the results are sent to the power source 1-XO. In the first step 2-2-5, which controls the pitch, L
FO) Data performance to realize Remoro (Groll)! (This also includes arithmetic processing necessary when control data or MIDI data modulates tremolo or growl.) Next step 2-2
-6 performs calculations to make the LFO tremolo, MIDI data (for example, aftertouch data), and control data actually change the timbre and volume of the musical sound, and sends the results to sound sources 1-10 to change the timbre of the musical sound. , control the volume.

最後のステップ2−2−7ではパンニング効果を発生さ
せるためのパンデータ作成処理が行われる。
In the final step 2-2-7, panning data creation processing is performed to generate a panning effect.

第2C図は第3のタイマー割込ルーチンであり、このル
ーチン2−3−1で、第1図のノくンニング効果発生器
1−12に対し、実際に効果を実現させるためにマイク
ロコンピュータ!−2から制御信号が送られる。
FIG. 2C shows the third timer interrupt routine, and in this routine 2-3-1, the microcomputer is used to actually realize the effect in the knock-down effect generator 1-12 of FIG. A control signal is sent from -2.

第2D図はMIDIデータが送られてきたときに、MI
DIインターフェース1−6からの割込によって起動さ
れるMIDIID外理ルーチン2−4−1であり、ここ
では受信のための処理(RAMI−91のMIDI関係
バ関係バッフアダータセット等)を行うのみである。第
2E図はMIDIデータを外部の電子楽器等に対して送
ったときにMIDIインターフェースl−6からの割込
によって起動されるMIDI送信処理ルーチン2−5−
1であり、これにより、MIDIデータの伝送速度が維
持される。
Figure 2D shows that when MIDI data is sent,
This is a MIDIID external routine 2-4-1 that is activated by an interrupt from the DI interface 1-6, and here only performs processing for reception (such as setting MIDI-related buffer related buffer adapters of RAMI-91). It is. FIG. 2E shows a MIDI transmission processing routine 2-5- activated by an interrupt from the MIDI interface l-6 when MIDI data is sent to an external electronic musical instrument, etc.
1, thereby maintaining the MIDI data transmission rate.

第2F図は、マイクロコンピュータ1−2のジェネラル
フロー(メインプログラム)を示したものである。始め
に、電源が入ると、イニシャライズルーチン2−6−1
に入り、ここで、* 1;(1−6に対する初期設定や
、表示部1−5への初期表示データの設定、各制御デー
タ、演算用データ等の初期設定が行われる。ステップ2
−6−2においては、鍵盤/スイッチのデータ取込の割
込ルーチン(第2A図)の結果を参照してスイッチの状
態変化を判別し、変化有りの場合にはスイッチ変化処理
ルーチン2−6−3を実行する。このルーチン2−6−
3では、演奏モードの設定、音色データの設定、MID
I制御データの設定、パン晶御データの設定、音源1−
10に対する楽音制御用データの設定、表示部1−5へ
の表示データの設定、コントロールデータの初期設定、
パンニング効果発生器1−12に対する制御、ICカー
ドの外部インターフェース1−7とのデータまたはプロ
グラムの授受、MIDIインターフェース1−6の制御
などがシステムの状態(以下、メニューという)に従っ
て実行される。
FIG. 2F shows the general flow (main program) of the microcomputer 1-2. First, when the power is turned on, the initialization routine 2-6-1
Here, *1; (initial settings for 1-6, initial display data settings for display section 1-5, initial settings for each control data, calculation data, etc. are performed. Step 2
-6-2, the switch state change is determined by referring to the result of the keyboard/switch data acquisition interrupt routine (Fig. 2A), and if there is a change, the switch change processing routine 2-6 - Execute 3. This routine 2-6-
3, set the performance mode, set the tone data, and set the MID.
I control data settings, pan crystal control data settings, sound source 1-
setting of musical tone control data for 10, setting of display data for display section 1-5, initial setting of control data,
Control of the panning effect generator 1-12, exchange of data or programs with the external interface 1-7 of the IC card, control of the MIDI interface 1-6, etc. are executed according to the system status (hereinafter referred to as menu).

次にステップ2−6−4で、MIDIインターフェース
1−6からMIDIデータの入力があったかどうかを、
MIDI受信ルーチン2−4−1(第2D図)で設定さ
れる検査フラグを参照して判別し、入力有りの場合はM
IDI  IN処理ルーチン2−6−5を実行する。こ
の入力処理ルーチン2−6−5では、MIDI入力デー
タを識別し、その結果に従い対応する内部演奏モードの
変更、音色データの変更、パン制御データの変更、楽音
制御データの変更、楽音の制御(ノートオン/オフ等)
、表示データのig御、MIDIインターフェース1−
6の制御などがメニューや設定データに従って実行され
る。
Next, in step 2-6-4, it is determined whether or not there is MIDI data input from the MIDI interface 1-6.
It is determined by referring to the inspection flag set in MIDI reception routine 2-4-1 (Figure 2D), and if there is an input, M
Execute IDI IN processing routine 2-6-5. In this input processing routine 2-6-5, MIDI input data is identified, and according to the results, the corresponding internal performance mode is changed, tone data is changed, pan control data is changed, musical tone control data is changed, musical tone control ( note on/off, etc.)
, ig control of display data, MIDI interface 1-
Controls 6 and the like are executed according to the menu and setting data.

次に、ステップ2−6−6では鍵fit−1の状態変化
、すなわち押鍵の有無、離鍵の有無等が割込ルーチン2
−1−1 (第2A図)の処理結果から判別され、変化
有りの場合には、社交化処理ルーチン2−6−7におい
て押、離鍵に伴うデータの変更、発音の割当、発音処理
、消音処理、MIDIインターフェース1−6の制御な
どが行われる。
Next, in step 2-6-6, the state change of the key fit-1, that is, the presence or absence of a key press, the presence or absence of a key release, etc. is determined by the interrupt routine 2.
-1-1 (Fig. 2A) is determined from the processing result, and if there is a change, the socialization processing routine 2-6-7 changes data in response to key presses and key releases, assigns pronunciation, performs pronunciation processing, Mute processing, control of the MIDI interface 1-6, etc. are performed.

く楽音制御用データ設定〉 第3図は楽音制御用データの設定例を示したものである
。この設定はスイッチ1−3の操作または、外部からの
MIDIデータを通して行われる0図において、センス
は0〜99の値をとる感度データであり、アンプバイア
スは楽音の音砥、音色を制御するパラメータ(iPD音
源の場合、1つのヴオイス即ち発音チャンネルは複数の
モジュールのプログラマブルな接続形態(発音アルゴリ
ズム)によって構成され、楽音の出力として使用される
モジュールにとっては、アンプバイアスはそのモジュー
ルの楽音の振幅、すなわち音量に対するバイアス成分で
あり、他のモジュールの入力に使用される楽音成分を出
力するモジュールにとってはアンプバイアスは発音チャ
ンネルの最終出力楽音の音色を変化させるバイアス成分
として働く)、ビブラートデプスはLFOのビブラート
の深さ、すなわち周波数の変動幅を意味する。アフター
タッチ、モジュレーションホイール、デフアイナブルコ
ントローラ、フットポリウムはコントローラ(操作子)
の項目であり、各コントローラが楽音パラメータ(ここ
ではアンプバイアス、ビブラートデプス)に作用するか
否か、すなわち、楽音パラメータを変調するか否かが図
示の各ます内のON、OFFに従って定められる0図の
例では1例えば、アフタータッチはアンプバイアスを最
大の感度99で変調するコントローラ(コントロールデ
ータ)になっている、ここに、アフタータッチデータは
、電子楽器1本体の鍵511−1の操作時の社用に基づ
くデータ、外部の電子鍵盤楽器からMIDIID−マッ
トで送られている同様のデータ、外部の電子管楽器に対
するプレス操作に基づいて発生し、MIDIID−マッ
トで送られてくるデータ、あるいは外部の電子弦楽器に
対する弦操作に基づいて発生し、MIDIID−マット
で送られてくるデータであり得る。
Musical tone control data setting> FIG. 3 shows an example of setting of musical tone control data. This setting is performed by operating switches 1-3 or through external MIDI data. In the figure, sense is sensitivity data that takes a value from 0 to 99, and amplifier bias is a parameter that controls the tone and timbre of the musical sound. (In the case of an iPD sound source, one voice, or sound generation channel, is configured by a programmable connection form (sound generation algorithm) of multiple modules. For a module used as a musical tone output, the amplifier bias is the amplitude of the musical tone of that module, In other words, it is a bias component for the volume, and for modules that output musical tone components that are used as inputs for other modules, the amplifier bias acts as a bias component that changes the timbre of the final output musical sound of the sound generation channel), and the vibrato depth is a bias component for the LFO. It means the depth of vibrato, that is, the width of frequency fluctuation. Aftertouch, modulation wheel, definable controller, footpolium are controllers (operators)
, and whether or not each controller acts on musical tone parameters (amplifier bias and vibrato depth here), that is, whether or not it modulates musical tone parameters, is determined according to ON and OFF in each box shown in the diagram. In the example shown in Figure 1, for example, aftertouch is a controller (control data) that modulates the amplifier bias with the maximum sensitivity of 99.Here, aftertouch data is when the key 511-1 on the main body of electronic musical instrument 1 is operated. similar data sent via MIDIID-MAT from an external electronic keyboard instrument, data generated based on a press operation on an external electronic wind instrument and sent via MIDIID-MAT, or data sent via MIDIID-MAT from an external electronic keyboard instrument. It can be data generated based on string operations on an electronic stringed instrument and sent in MIDIID-MAT.

通信インターフェースとしてのMIDIインターフェー
ス1−6を介して接続される外部電子楽器(コントロー
ラ)は任意である。アフタータッチはある場合には、息
の強さを表わす情報であり、ある場合には社用を表わす
情報であり、更にある場合にはその他の演奏操作状態を
表わす情報である。この発明の実施例では、これらの点
に鑑み、電子楽器に楽器演奏モードを切り換える機能を
組み込むとともに、アフタータッチに関し、楽器演奏モ
ードに応じて、特に管楽器演奏モードを配慮して最適な
制御が行われるようにしている。
Any external electronic musical instrument (controller) can be connected via the MIDI interface 1-6 as a communication interface. In some cases, aftertouch is information representing the strength of the breath, in other cases, it is information representing corporate use, and in other cases, it is information representing other performance operation states. In view of these points, the embodiment of the present invention incorporates a function to switch the musical instrument performance mode into an electronic musical instrument, and performs optimal control regarding aftertouch according to the musical instrument performance mode, with particular consideration given to the wind instrument performance mode. I'm trying to make it happen.

以下、実施例についてこれらの点がどのようにして実現
されているかを詳細に説明する。
Hereinafter, how these points are realized will be explained in detail with regard to the embodiments.

く楽器演奏モード設定〉 まず、第4図〜第6図を参照して楽器演奏モードのJ9
定、変更について説明する。
Instrument performance mode setting> First, with reference to Figures 4 to 6, set J9 in the instrument performance mode.
This section explains the settings and changes.

第4図はスイッチl−3に含まれる全てのスイッチを示
したものである。楽器演奏モードの設定はノーマルのメ
ニュー下で行われる。まず、第4図のスイッチのうちノ
ーマル(NORMAL)スイッチ3−1を押すことによ
り、電子楽器1はその表示部!−5のLCDデイスプレ
ィ上に第5図に示すような音色(図ではEPがエレクト
リックピアノを示している)を表示する状態になる0次
に、カーソル(CU RS OR)キー32−2を押し
て、デイスプレィ上のカーソルを第4図に示すような楽
器演奏モード表示位置に運ぶ、続J/)て、バリュー(
VALUE)キー3−3を操作することにより、表示デ
ータかに4G−+Wというように変化する。ここに、K
は鍵盤演奏モード、Gはギター演奏モード、Wは管楽器
演奏モードを示す。
FIG. 4 shows all the switches included in switch 1-3. The instrument performance mode is set under the normal menu. First, by pressing the NORMAL switch 3-1 of the switches shown in FIG. 4, the electronic musical instrument 1 displays its display section! -5's LCD display will display tones as shown in Figure 5 (EP in the figure represents an electric piano).Next, press the cursor (CU RS OR) key 32-2. Move the cursor on the display to the instrument performance mode display position as shown in Figure 4, then press J/) to select the value (
By operating the VALUE) key 3-3, the displayed data changes to 4G-+W. Here, K
indicates the keyboard performance mode, G indicates the guitar performance mode, and W indicates the wind instrument performance mode.

このとき、RAMl−9上の演奏モード判別用のレジス
タMに記憶される内部データは第6図に示すようにL位
3ビットが、100→010→001というように変化
する。以りの楽器演奏モードの設定処理はジェネラルフ
ロー(第2図)のスイッチ変化処理ルーチン2−6−3
内で実行されるようになっている。したがって、使用者
は例えば、外部電子楽器として電子管楽器を使用する場
合には上述の手続に従い管楽器モードを設定し、電子弦
楽器を使用する場合には弦楽器モードを設定し、電子鍵
盤楽器を使用する場合には鍵盤モードを設定することに
なる。
At this time, the L-order 3 bits of the internal data stored in the register M for performance mode determination in the RAM 1-9 change as shown in FIG. 6 in the order of 100→010→001. The following instrument performance mode setting processing is performed in switch change processing routine 2-6-3 of the general flow (Figure 2).
It is designed to be executed within. Therefore, for example, when using an electronic wind instrument as an external electronic instrument, the user sets the wind instrument mode according to the procedure described above, when using an electronic string instrument, the user sets the string instrument mode, and when using an electronic keyboard instrument, the user sets the wind instrument mode according to the procedure described above. You will need to set the keyboard mode.

くアフタータッチ入力処理〉 上述したようにMIDIの受信は1バイト分のMIDI
データがMIDIインターフェース1−6に入力される
都度、割込ルーチン(第2D図)に従い、マイクロコン
ピュータl−2に取り込まれ、RAMl−9上のMID
I関係のバッファに記録される。バッファに格納された
MIDIデータに対する処理はジェネラルフローの2−
6−5で実行される。アフタータッチデータがMIDI
で与えられる場合において、外部楽器として電子管楽器
が使用され、そのマウスピースに対する急用によってア
フタータッチデータが生成される場合には、急用の微妙
なコントロールのため、頻繁にMIDIのアフタータッ
チデータがMIDIインターフェース1−6を介して電
子楽器1に入力されることになる。これらのMIDIア
フターター2チデータを全て逐次処理しようとすると、
処理の時間のために、アフタータッチ効果の発生が奏者
の演奏操作に対して遅れてしまい、奏者の期待する効果
が得られなくなってしまう、このため、この実施例では
、最悪の状況でも効果に遅れがないようにするため、M
IDI入力処理ルーチン2−6−5のなかで現サイクル
において得られているアフタータッチデータのなかで最
大値のものを処理対象のアフタータッチデータとして選
択するようにしている。すなわち第7図に示すように、
ステップ7−1でアフタータッチデータが受信されてい
るかどうかを調べ、受信されている場合にはステップ7
−2に示すように、MIDIチャンネル毎に最大アフタ
ー値を捜し出して、それをセーブし、他はクリアする。
Aftertouch input processing> As mentioned above, MIDI reception is performed using one byte worth of MIDI.
Each time data is input to the MIDI interface 1-6, it is taken into the microcomputer l-2 according to the interrupt routine (Fig. 2D), and the MID
It is recorded in the I-related buffer. Processing for MIDI data stored in the buffer is performed in 2-2 of the general flow.
Executed at 6-5. Aftertouch data is MIDI
In the case given below, when an electronic wind instrument is used as the external instrument and the aftertouch data is generated by an emergency on its mouthpiece, MIDI aftertouch data is often transferred to the MIDI interface due to the delicate control of the emergency. The signal is input to the electronic musical instrument 1 via 1-6. If you try to process all of these MIDI after-second data sequentially,
Due to the processing time, the generation of the aftertouch effect is delayed relative to the player's performance operations, making it impossible to obtain the effect expected by the player.For this reason, in this embodiment, the aftertouch effect is not effective even in the worst situation. To avoid delays, M.
In the IDI input processing routine 2-6-5, the maximum value of the aftertouch data obtained in the current cycle is selected as the aftertouch data to be processed. That is, as shown in Figure 7,
Check whether aftertouch data has been received in step 7-1, and if so, step 7
-2, find the maximum after value for each MIDI channel, save it, and clear the others.

くアフタータッチ効果の形態〉 本実施例の場合、アフタータッチデータを楽音のどの要
素に作用するかは上述した第3図の範囲内で行える。す
なわち、アフタータッチでアンプバイアスおよび/また
はビブラートデプスを変調可能である。ただし、以下の
説明では、アフタータッチによるアンプバイアスの制御
を想定する。
Form of aftertouch effect> In this embodiment, which element of the musical tone is affected by the aftertouch data can be determined within the range shown in FIG. 3 described above. That is, the amplifier bias and/or vibrato depth can be modulated by aftertouch. However, in the following description, it is assumed that amplifier bias is controlled by aftertouch.

一方、アンプバイアスは、アフタータッチ以外にLFO
)レモロ(クロール)、モジュレーションホイール、デ
フアイナブルコントローラ、ツー2トポリウムによって
も制御されるが、アフタータッチ以外の制御については
必要最小限の説明に留める。
On the other hand, the amplifier bias is set by LFO in addition to aftertouch.
) It is also controlled by remolo (crawl), modulation wheel, definable controller, and two-two topolium, but we will keep the explanation of controls other than aftertouch to the bare minimum.

く楽音制御データ作成処理〉 上述した、アフタータッチ入力処理で選択した各サイク
ルにお【する最大値のアフタータッチデータは第8図に
示す楽音制御データ(この場合、アンプバイアスデータ
)の作成処理ルーチンにおいて処理される。このルーチ
ンは、タイマー割込ルーチン(第2B図)におけるコン
トロールデータ変化処理2−2−2内のサブルーチンと
なっている。第8図の楽音制御データ作成処理ではアン
プバイアスに作用する要素のうち操作子データすなわち
、MIDIのアフタータッチデータ、モジュレーション
ホイールデータ、デファイナブルコントローラ−データ
、フットポリウムデータからのアンプバイアス成分をセ
ンスデータを考慮して作成する(残るアンプバイアス成
分はルーチン2−2−5で得られるLFO)レモロ(グ
ロール)による成分である)、このアンプバイアス成分
を作成する上で、楽器演奏モードが参照され、管楽器演
奏モードか否かによって異なる仕方でアンプバイアス成
分が生成されるようにしている。特に実施例の場合、管
楽器演奏モードにおける急用を表わすアフタータッチデ
ータによるアンプバイアスへの作用の仕方が奏者の意図
に沿うように、非線形で加えられるようにするため、R
OMl−8上にその作用の特性を示すデータ変換テーブ
ルを用意している。ただし、センスデータの全範囲に対
して変換テーブルを用意することは記憶容量の面から望
ましくないので、一部の変換は直接的な計算によって実
行している。
Musical tone control data creation process> The maximum value of aftertouch data for each cycle selected in the aftertouch input process described above is determined by the musical tone control data (in this case, amplifier bias data) creation process routine shown in Figure 8. Processed in This routine is a subroutine within the control data change process 2-2-2 in the timer interrupt routine (FIG. 2B). In the musical tone control data creation process shown in Figure 8, the amplifier bias components from the control data of the elements that affect amplifier bias, that is, MIDI aftertouch data, modulation wheel data, definable controller data, and footpolium data are sensed. The instrument performance mode is referenced when creating this amplifier bias component. , amplifier bias components are generated in different ways depending on whether or not the wind instrument performance mode is selected. In particular, in the case of the embodiment, R
A data conversion table is prepared on OMl-8 that shows the characteristics of its action. However, since it is not desirable to prepare a conversion table for the entire range of sense data in terms of storage capacity, some conversions are performed by direct calculation.

第8図のフローに沿って述べると、まず、ステー2ブ8
−1で、アンプバイアスへの変調ONになっているセン
スの総和が計算される0例えば第3図の設定内容に対し
ては、アフタータッチのセンス99が計算結果AOとな
る。なお、第3図の設定データは音色に付属するデータ
であり得、音色切換で自動的に変更(設定)され得る0
次に、ステップ8−2では変調がオンになっている各操
作子データ(θ〜127)とセンス(0〜99)との乗
算を行い、そのデータをO〜99に圧縮するために、i
27で除算し、その結果のデータの総和を計算し、BO
にセットする0例えば、設定内容が第3図のようであり
、MIDIのアフタータッチデータとして06FHが与
えられたときには、結果は86となる0次に、ステップ
8−3に移り、ここで管モードかどうかが判別される。
According to the flow shown in Fig. 8, first, the stave 8
-1, the sum of the senses whose modulation to the amplifier bias is ON is calculated as 0. For example, for the settings shown in FIG. 3, the aftertouch sense 99 becomes the calculation result AO. Note that the setting data in Fig. 3 may be data attached to the tone, and may be automatically changed (set) by changing the tone.
Next, in step 8-2, each controller data (θ~127) whose modulation is on is multiplied by the sense (0~99), and in order to compress the data into O~99, i
Divide by 27, calculate the sum of the resulting data, and calculate the BO
For example, if the settings are as shown in Figure 3 and 06FH is given as MIDI aftertouch data, the result will be 86.0 Next, proceed to step 8-3, where the tube mode is set. It is determined whether

すなわち、第5図に示すモードレジスタMのビット5が
テストされ、41″なら管モード、′0”なら管モード
以外となりステップ8−4に進む。
That is, bit 5 of the mode register M shown in FIG. 5 is tested, and if it is 41'', it is the tube mode, and if it is '0'', it is other than the tube mode, and the process proceeds to step 8-4.

ステップ8−4では基準化されたセンスAOから基準化
された操作子データBOを減算して、アンプバイアスデ
ータABDを得る。この結果、管モード以外の楽器演奏
モードでは、操作子データ(アフタータッチデータであ
り得る)に対し、直線的に音量、音色が変化することに
なる。
In step 8-4, the standardized operator data BO is subtracted from the standardized sense AO to obtain amplifier bias data ABD. As a result, in musical instrument performance modes other than the wind mode, the volume and tone change linearly with respect to operator data (which may be aftertouch data).

一方、管モードのときにはステップ8−5に進み、基準
のセンスAOが92以上か否かが判別される。基準のセ
ンスAOが91以下のときはステップ8−6に進み、O
〜91の範囲のセンスデータをO〜99までの再基準化
されたセンスデータA2に伸張し、ステップ8−7に進
んでセンスデータA2から基準の操作子データBOを減
算してアンプバイアスデータABDを得る。
On the other hand, in the tube mode, the process proceeds to step 8-5, where it is determined whether the reference sense AO is 92 or more. If the standard sense AO is 91 or less, proceed to step 8-6 and
Expand the sense data in the range of ~91 to re-standardized sense data A2 up to O~99, proceed to step 8-7, and subtract the standard operator data BO from the sense data A2 to create amplifier bias data ABD. get.

センスデータAOが92以上のときは、ステップ8−8
で99から、基準の操作子データBOを引いてデータA
I(最小θ〜99)を得、それを最小O〜127に伸張
して変換テーブル(楽音制御用データ変換テーブル)内
の要素番号Blを得る。更に、ステップ8−9でセンス
データAOから92を減算して、センスデータごとの変
換テーブルの番号No(0〜7)を得、ステップ8−1
OでそのテーブルのB1番目のデータを読み出してアン
プバイアスデータABDとする。この結果として、第9
図に示すような音量、音色の変化が管モードのセンスデ
ータAO≧92の範囲において、操作子データ(MID
Iのアフタータッチデータ)の大きさに従って発生する
ことになる。
When the sense data AO is 92 or more, step 8-8
Then, subtract the standard operator data BO from 99 to get data A.
I (minimum θ~99) is obtained and expanded to the minimum value O~127 to obtain the element number Bl in the conversion table (music tone control data conversion table). Furthermore, in step 8-9, 92 is subtracted from the sense data AO to obtain the conversion table number No. (0 to 7) for each sense data, and step 8-1
At step O, the B1-th data of the table is read out and used as amplifier bias data ABD. As a result of this, the 9th
Changes in volume and timbre as shown in the figure are within the range of tube mode sense data AO≧92, and the operator data (MID
This will occur according to the size of the aftertouch data of I).

く最終アンプバイアスデータ作成費転送〉第8図の処理
で生成したアンプバイアスデータはある区間(サイクル
)における操作子データ(MIDIのアフタータッチデ
ータを含み得る)から作成したアンプバイアスデータで
あり、他のサイクルにおける操作子データとは処理の上
で完全に独立したデータである。したがって、このアン
プバイアスデータをそのまま音源1−10に送ったとし
たら、操作子データ、特に管楽器演奏モードにおいて問
題となる息の強さを示すアフタータッチデータのサイク
ルごとの小変動が、楽音の音量、音色に現われることに
なり、コロコロとした音が発生してしまうことになる。
Final amplifier bias data creation fee transfer> The amplifier bias data generated by the process shown in Figure 8 is amplifier bias data created from controller data (which may include MIDI aftertouch data) in a certain section (cycle), and other The operator data in the cycle is completely independent data in terms of processing. Therefore, if this amplifier bias data were sent as is to the sound sources 1-10, small fluctuations in each cycle of the controller data, especially the aftertouch data that indicates the strength of the breath, which is a problem in the wind instrument performance mode, would cause the volume of the musical tone to change. This will appear in the tone, resulting in a shaky sound.

したがってこの発生を防止し、なめらかな特性変化にな
るようにアンプバイアスデータを加工する処理を行ラの
が望ましい、その上でLFO)レモロ(グロール)によ
るアンプバイアス成分を加えて最終的なアンプバイアス
として音源1−10に転送するようにする。実施例の場
合、これらの処理は、タイマー割込ルーチン(第2B図
)における楽音の音量音色変更処理2−2−6のなかで
行っている。詳細を第10図に示す。
Therefore, it is desirable to prevent this occurrence and process the amplifier bias data so that the characteristics change smoothly.Then, add the amplifier bias component from LFO) remolo (growl) to create the final amplifier bias. The data is transferred to the sound source 1-10 as follows. In the case of the embodiment, these processes are performed in the tone volume change process 2-2-6 of the timer interrupt routine (FIG. 2B). Details are shown in FIG.

まず、ステップ10−1でデータ更新のため。First, in step 10-1, data is updated.

ABDNEWに入っている前回のアンプバイアスデータ
をABDOLDに移し、第8図の処理結果である今回の
操作子データから作成したアンプバイアスデータABD
をABDNEWにセットする0次に、ステップ1O−2
に進んで管モードかどうかを判別する。管モードでない
ときは、コロコロ汗の問題はないので、今回の操作子デ
ータから作成したアンプバイアスデータ(ABDNEW
のデータ)をBに移し、その値BにLFO)レモロ(グ
ロール)によるアンプバイアス成分(ルーチン2−2−
5の処理結果)を加えて、最終的なアンプバイアスデー
タCとし、音源1−10に転送する(ステップ1O−3
,1O−10)。
Move the previous amplifier bias data stored in ABDNEW to ABDOLD, and create amplifier bias data ABD from the current control data, which is the processing result shown in Figure 8.
Set ABDNEW to 0 Next, step 1O-2
Proceed to determine whether it is in tube mode. When not in tube mode, there is no problem of rolling sweat, so the amplifier bias data (ABDNEW) created from this controller data.
data) to B, and add the amplifier bias component (Routine 2-2-
5 processing result) to obtain the final amplifier bias data C, which is transferred to the sound source 1-10 (step 1O-3).
, 1O-10).

しかし、管モードのときには、息の強さを示すアフター
タッチデータが奏者は一定の急用を意図しているにもか
かわらず、サイクルごとにランダムな小変動を続ける状
態を呈することがあり、その場合、その小変動がアンプ
バイアスデータABDに直接的に反映されてしまうので
、管モードでないときと同様な処理1O−3,10−7
をしたのでは、コロコロした変化が楽音に生じることに
なる。そこで、10−4〜10−9に示すように、本実
施例では、アフタータッチデータのサイクルごとの変動
を評価し、大きな変動の場合には、奏者の意図が示され
ているとして忠実な処理を行うが、小変動の場合には、
アンプバイアスデータABDを平滑化する処理を2段階
に分けて行っている。フローに従うと、アフタータッチ
データのサイクルごとの変動は、前回のアンプバイアス
データABDOLDと今回のサイクルのアンプバイアス
データABDNEWとの差によって評価できることから
、ステップ10−4でこの差AOを求めている。続いて
、ステップ10−5で差AOがしきい値xO未満かどう
かを判別し、未満であれば、アンプバイアスデータが小
変動していると考えられるので、差AOを小さくする処
理10−6を行い(ここではl/4の大きさにしている
)を行う、また、xou、hではあるが、第2のしきい
値Xi (>XO)未満の場合には1/4A O+ 1
 / 8 A Oに変更する(ステップ1o−7,1O
−8)、なお、ステップ10−6.10−9の演算処理
は他の任意の適当な圧縮データ処理が使用でき、ステッ
プ10−4に関しても、図示以外の処理でアフタータッ
チデータ、あるいはアンプバイアスデータの変動を評価
することができる。変動の大きさAOに従って選択的に
圧縮された差AOはステップ1O−9において、前回の
アンプバイアスデータABDOLDに加減算され、その
結果Bは操作子に係る今回のアンプバイアスデータとし
てABDNEWにセーブされる。このデータBは、サイ
クルごとの77タータツチデータの変動を平滑化したも
のとなっている。この平滑化された操作子のアンプバイ
アスデータBにLFOトレモロ(グロール)に係るアン
プバイアスデータAを加え、最終アンプバイアスデータ
Cとして音源1−10に転送する点(ステップ1O−1
0)は他の楽器演奏モードの場合と同様である。この結
果、管楽器演奏モードにおいて、急用を表わすアフター
タッチデータを本電子楽器lに入力した場合、従来の電
子楽器に見られるようなこきざみで不自然な楽音特性変
化はなくなり、奏者の要求を満たし得ることになる。
However, when in tube mode, the aftertouch data indicating the strength of the breath may continue to fluctuate randomly from cycle to cycle, even though the player intends to perform certain urgent tasks. , the small fluctuations are directly reflected in the amplifier bias data ABD, so the same processing as when not in tube mode 1O-3, 10-7 is performed.
If you do this, you will end up with gradual changes in the musical tone. Therefore, as shown in 10-4 to 10-9, in this embodiment, the fluctuation of aftertouch data for each cycle is evaluated, and in the case of a large fluctuation, it is assumed that the player's intention is indicated and faithful processing is performed. However, in the case of small fluctuations,
The process of smoothing the amplifier bias data ABD is performed in two stages. According to the flow, cycle-by-cycle fluctuations in aftertouch data can be evaluated by the difference between the previous amplifier bias data ABDOLD and the current cycle's amplifier bias data ABDNEW, so this difference AO is obtained in step 10-4. Subsequently, in step 10-5, it is determined whether the difference AO is less than the threshold value xO, and if it is, it is considered that the amplifier bias data is slightly fluctuating, so a process 10-6 is performed to reduce the difference AO. (in this case, the size is 1/4), and if xou and h are less than the second threshold value Xi (>XO), then 1/4A O+ 1
/ 8 Change to AO (steps 1o-7, 1O
-8), Note that any other suitable compressed data processing can be used for the arithmetic processing in steps 10-6 and 10-9, and in step 10-4, aftertouch data or amplifier bias can be Data fluctuations can be evaluated. The difference AO selectively compressed according to the magnitude of fluctuation AO is added to or subtracted from the previous amplifier bias data ABDOLD in step 1O-9, and the result B is saved in ABDNEW as the current amplifier bias data related to the controller. . This data B is obtained by smoothing fluctuations in the 77 touch data for each cycle. A point where amplifier bias data A related to LFO tremolo (growl) is added to this smoothed amplifier bias data B of the controller and transferred to the sound source 1-10 as final amplifier bias data C (step 1O-1
0) is the same as in other musical instrument performance modes. As a result, when in the wind instrument performance mode, when aftertouch data indicating an emergency is input to this electronic musical instrument, the choppy and unnatural changes in musical tone characteristics seen in conventional electronic musical instruments are eliminated, and the player's needs can be met. It turns out.

以上で実施例の説明を終えるが、この発明の範囲を逸脱
することなく種々の変形、変更が可俺である0例えば、
上記実施例では、アフタータッチが作用する楽音の構成
要素として音量、音色、音高のみを挙げたが、エフェク
タの類の要素にも作用させることが可能である。また、
音源1−10としてiPD音源を例示したが他の任意の
適当なデジタル音源が使用できる。また、管楽器モード
におけるアフタータッチデータは急用を示すデータとし
て説明したが、他の吹奏情報、例えば、唇をかむ強さの
情報であってもよい、また、上記実施例では、MIDI
で受信したアフタータッチデータのうち、最大値を処理
用のアフタータッチデータとして選択しているが、この
代りに最小値、あるいは中心値、あるいは平均値を処理
用のアフタータッチデータとしてもよい。
This concludes the description of the embodiments, but various modifications and changes may be made without departing from the scope of the invention.For example,
In the above embodiment, only the volume, timbre, and pitch are mentioned as the components of the musical sound on which aftertouch acts, but it is also possible to make it act on elements such as effectors. Also,
Although an iPD sound source is illustrated as the sound source 1-10, any other suitable digital sound source can be used. Although the aftertouch data in the wind instrument mode has been described as data indicating an emergency, it may also be other blowing information, such as information on the strength of biting the lip.
Among the aftertouch data received in , the maximum value is selected as the aftertouch data for processing, but instead, the minimum value, the center value, or the average value may be used as the aftertouch data for processing.

[発明の効果] 以上の説明から明らかなように、請求項1ではアフター
タッチデータ受信手段のデータ受信状態を定期的に検査
し、受信されているl乃至複数のアフタータッチデータ
に対し、1つの処理用アフタータッチデータを評価し、
制御データ発生手段において、この処理用アフタータッ
チデータを処理して楽音の特性を制御する制御データを
発生するようにしたので任意のアフタータッチ演奏コン
トローラが接続される場合でも1例えば管楽器における
プレスコントローラが使用される場合でも、奏者の演奏
操作に対して実質上遅れのないアフタータッチ効果を楽
音に反映させることができる。
[Effects of the Invention] As is clear from the above description, in claim 1, the data reception state of the aftertouch data receiving means is periodically inspected, and one or more aftertouch data is received. Evaluate aftertouch data for processing,
In the control data generation means, the aftertouch data for processing is processed to generate control data for controlling the characteristics of musical tones, so even when any aftertouch performance controller is connected, for example, a press controller for a wind instrument can be connected. Even when used, the aftertouch effect can be reflected in musical sounds with virtually no delay in response to the player's performance operations.

また、請求項2では、検査時において受信されている複
数のアフタータッチデータのなかで最大値を処理用のア
フタータッチデータとして選択しているので、楽音の流
れにおける音圧上昇部等の強調表現部について、その楽
音の特性の変化を奏者の演奏操作に対し一層少ない遅れ
で追従制御することが容易になる。
Further, in claim 2, since the maximum value is selected as the aftertouch data for processing among the plurality of aftertouch data received at the time of inspection, it is possible to emphasize the sound pressure rising part in the flow of musical tones, etc. This makes it easy to control changes in the characteristics of musical tones in response to the player's performance operations with less delay.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発11を適用した電子楽器の全体構成図、
第2A図は第1図の鍵盤l−1とスイッチ!−3の状態
をマイクロコンピュータ1−2に取り込むためのタイマ
ー割込処理のフローチャート、第2B図は各種の楽沓特
性制御のための処理が行われるタイマー割込ルーチンの
フローチャート、第2C図は第1図のバンニング効果発
生器1−12への制御を実行するフローチャート、第2
D図はMIDI受信処理のフローチャート、第2E図は
MIDI通信処理のフローチャート、第2Ffflは全
体の動作の7r:1−チャート、第3図は楽音制御用デ
ータの設定例を示す図、第4図は第1図のスイッチ1−
3に置かれるスイッチの配列図、第5図は楽器演奏モー
ドの切換の際、第1図の表示部1−5に表示される内容
を示す図、第6図は楽器演奏モードを切り換えたときの
内部のモードデータの変化を示す図、第7図はアフター
タッチデータの最大値選択に関するフローチャート、第
8図はアフタータッチデータ等から楽音制御データ(ア
ンプバイアスデータ成分)を作成するためのフローチャ
ート、第9図は管楽器演奏モードにおいて楽音制御用デ
ータ作成テーブルが選ばれたときにアフタータッチに基
づいて生じる楽音の音量、音色の変化を示す図、第1θ
図は第1図の音源1−10に送る最終的なアンプバイア
スデータの作成に関し、管楽器演奏モードにおいてアン
プバイアスデータの平滑化処理を行うためのフローチャ
ートである。 スイッチ、1−8・・・・・・ROM、1−9・・・・
・・RAM、3−1・・・・・・ノーマルスイッチ、3
−2・・・・・・カーソルキー、3−3・・・・・・バ
リューキー、M・・・・・・モードレジスタ。
Figure 1 is an overall configuration diagram of an electronic musical instrument to which this development 11 is applied.
Figure 2A shows the keyboard l-1 and switch in Figure 1! FIG. 2B is a flowchart of a timer interrupt routine in which processing for controlling various shoe characteristics is carried out, and FIG. Flowchart for controlling the vanning effect generator 1-12 of FIG.
Fig. D is a flowchart of MIDI reception processing, Fig. 2E is a flowchart of MIDI communication processing, Fig. 2Fffl is a 7r:1-chart of the overall operation, Fig. 3 is a diagram showing an example of setting data for musical tone control, Fig. 4 is switch 1- in Figure 1.
Figure 5 is a diagram showing the contents displayed on display section 1-5 in Figure 1 when changing the musical instrument performance mode, Figure 6 is a diagram showing the arrangement of switches placed in the instrument performance mode. Figure 7 is a flowchart for selecting the maximum value of aftertouch data, Figure 8 is a flowchart for creating musical tone control data (amplifier bias data component) from aftertouch data, etc. FIG. 9 is a diagram showing changes in the volume and timbre of musical tones that occur based on aftertouch when the musical tone control data creation table is selected in the wind instrument performance mode, the first θ
The figure is a flowchart for smoothing the amplifier bias data in the wind instrument performance mode regarding the creation of the final amplifier bias data to be sent to the sound source 1-10 in FIG. Switch, 1-8...ROM, 1-9...
...RAM, 3-1...Normal switch, 3
-2...Cursor key, 3-3...Value key, M...Mode register.

Claims (2)

【特許請求の範囲】[Claims] (1)アフタータッチデータを受信するアフタータッチ
データ受信手段と、上記アフタータッチデータを生成す
る楽音に反映させるべく楽音の特性を制御する制御デー
タを発生する制御データ発生手段とを有する電子楽器の
制御装置において、上記アフタータッチデータ受信手段
のデータ受信状態を定期的に検査し、受信されている1
乃至複数のアフタータッチデータから1つの処理用アフ
タータッチデータを評価するアフタータッチデータ評価
手段を設け、上記制御データ発生手段は上記処理用アフ
タータッチデータを処理して上記制御データを発生する
ことを特徴とする電子楽器の制御装置。
(1) Control of an electronic musical instrument having aftertouch data receiving means for receiving aftertouch data, and control data generating means for generating control data for controlling the characteristics of musical tones so as to reflect the aftertouch data in the generated musical tones. In the device, the data receiving state of the aftertouch data receiving means is periodically inspected, and the data receiving state of the aftertouch data receiving means is checked,
or aftertouch data evaluation means for evaluating one aftertouch data for processing from a plurality of aftertouch data, and the control data generation means generates the control data by processing the aftertouch data for processing. A control device for an electronic musical instrument.
(2)請求項1記載の電子楽器の制御装置において、上
記アフタータッチデータ評価手段は、複数のアフタータ
ッチデータが受信されている場合に、そのなかの最大値
のアフタータッチデータを上記処理用アフタータッチデ
ータとして選択することを特徴とする電子楽器の制御装
置。
(2) In the control device for an electronic musical instrument according to claim 1, when a plurality of aftertouch data are received, the aftertouch data evaluation means selects the aftertouch data of the maximum value among the aftertouch data for the processing. A control device for an electronic musical instrument characterized by selection as touch data.
JP1010663A 1989-01-19 1989-01-19 Controller for electronic musical instrument Pending JPH02189595A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1010663A JPH02189595A (en) 1989-01-19 1989-01-19 Controller for electronic musical instrument
US07/465,038 US5119712A (en) 1989-01-19 1990-01-16 Control apparatus for electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1010663A JPH02189595A (en) 1989-01-19 1989-01-19 Controller for electronic musical instrument

Publications (1)

Publication Number Publication Date
JPH02189595A true JPH02189595A (en) 1990-07-25

Family

ID=11756480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1010663A Pending JPH02189595A (en) 1989-01-19 1989-01-19 Controller for electronic musical instrument

Country Status (1)

Country Link
JP (1) JPH02189595A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58184195A (en) * 1982-04-02 1983-10-27 株式会社河合楽器製作所 Touch responsive electronic keyed instrument
JPS6266296A (en) * 1985-09-19 1987-03-25 カシオ計算機株式会社 Electronic musical apparatus
JPS6271995A (en) * 1985-09-25 1987-04-02 ロ−ランド株式会社 Electronic musical instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58184195A (en) * 1982-04-02 1983-10-27 株式会社河合楽器製作所 Touch responsive electronic keyed instrument
JPS6266296A (en) * 1985-09-19 1987-03-25 カシオ計算機株式会社 Electronic musical apparatus
JPS6271995A (en) * 1985-09-25 1987-04-02 ロ−ランド株式会社 Electronic musical instrument

Similar Documents

Publication Publication Date Title
JPH0816169A (en) Sound formation, sound formation device and sound formation controller
JPH04195196A (en) Midi chord forming device
JPH09127941A (en) Electronic musical instrument
JPH0413717B2 (en)
US5428183A (en) Tone signal generating apparatus for performing a timbre change by storing a full frequency band in a wave memory
US6180866B1 (en) Reverberating/resonating apparatus and method
JP3296518B2 (en) Electronic musical instrument
JP4258991B2 (en) Musical sound generator and musical sound generation processing program
US5119712A (en) Control apparatus for electronic musical instrument
JPH02189595A (en) Controller for electronic musical instrument
JP3613944B2 (en) Sound field effect imparting device
JP2858314B2 (en) Tone characteristic control device
JP3141789B2 (en) Sound source system using computer software
JP2889841B2 (en) Chord change processing method for electronic musical instrument automatic accompaniment
JPH02189594A (en) Controller for electronic musical instrument
JP2961867B2 (en) Music signal generator
JPH0219469B2 (en)
JP3455976B2 (en) Music generator
JPH0749519Y2 (en) Pitch control device for electronic musical instruments
JP2961675B2 (en) Electronic musical instrument
JP3190473B2 (en) Music control device
EP1017039B1 (en) Musical instrument digital interface with speech capability
JP3296248B2 (en) Musical performance equipment
JP2797363B2 (en) Electronic musical instrument
JPH10116079A (en) Electronic musical instrument