JPH06289860A - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JPH06289860A
JPH06289860A JP5095101A JP9510193A JPH06289860A JP H06289860 A JPH06289860 A JP H06289860A JP 5095101 A JP5095101 A JP 5095101A JP 9510193 A JP9510193 A JP 9510193A JP H06289860 A JPH06289860 A JP H06289860A
Authority
JP
Japan
Prior art keywords
data
automatic performance
sound
musical
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5095101A
Other languages
Japanese (ja)
Other versions
JP2983122B2 (en
Inventor
Sadasuke Wakuta
定資 和久田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP5095101A priority Critical patent/JP2983122B2/en
Publication of JPH06289860A publication Critical patent/JPH06289860A/en
Application granted granted Critical
Publication of JP2983122B2 publication Critical patent/JP2983122B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the electronic musical instrument generating a sound image which gives a three-dimensional feeling and swing close to a live performance and is rich in presence as to an electronic musical instrument which has plural output systems. CONSTITUTION:The electronic musical instrument is equipped with four sound emitting means 26-29 which emit a musical sound, a specifying means which specifies one of the four sound emitting means, a storage means 17 which is stored with automatic musical performance data, a musical sound signal generating means 19 which generates the musical sound signal according to the automatic musical performance data stored in the storage means, and a control means 10 which supplies the musical sound signal generated by the musical sound signal generating means to the sound emitting means specified by the specifying means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の出力系統を有す
る電子楽器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument having a plurality of output systems.

【0002】[0002]

【従来の技術】従来、電子キーボードと呼ばれる電子楽
器が開発され実用に供されている。かかる電子キーボー
ドは、1チャンネル又は2チャンネルの出力系統を有す
る。即ち、音源からスピーカ(又は出力端子)に至るま
でのハードウエア、及びこのハードウエアを駆動して所
定の楽音を発生させるためのソフトウエアは、最大2チ
ャンネルの発音を行うべく構成されている。
2. Description of the Related Art Conventionally, an electronic musical instrument called an electronic keyboard has been developed and put into practical use. Such an electronic keyboard has a 1-channel or 2-channel output system. That is, the hardware from the sound source to the speaker (or the output terminal), and the software for driving this hardware to generate a predetermined musical sound are configured to produce sound of up to two channels.

【0003】上記1チャンネルの出力系統しか持たない
電子キーボードはモノラル演奏しか実現できないが、2
チャンネルの出力系統を有する電子キーボードは、ステ
レオ再生による演奏が可能となっている。
The above-mentioned electronic keyboard having only one channel output system can realize only monaural performance.
An electronic keyboard having a channel output system can be played by stereo reproduction.

【0004】一方、上記のような電子キーボードは、一
般に、自動演奏機能を備えており、この自動演奏機能を
用いることにより、所定のパートの演奏を自動演奏に任
せ、特定パートを演奏者が弾くという演奏形態ができる
ようになっている。例えば、ドラム、ベース、ピアノと
いった各パートの楽音を自動伴奏させながら、例えばト
ランペットの音色でメロディを演奏するという演奏形態
や、オーケストラの自動伴奏をバックに特定楽器の音色
でメロディを演奏するという演奏形態をとることができ
る。
On the other hand, the electronic keyboard as described above is generally provided with an automatic performance function, and by using this automatic performance function, the performance of a predetermined part is left to the automatic performance, and the player plays the specific part. You can play the form. For example, playing a melody with the tone of a trumpet while automatically playing the musical sounds of each part such as a drum, bass, or piano, or playing a melody with the tone of a specific instrument with the automatic accompaniment of an orchestra as a background. It can take the form.

【0005】上記のような自動演奏機能は、例えばマル
チ音源を用いて実現されている。即ち、各パートに対し
て音源を割り当て、予め自動演奏データ用のメモリ(又
はシーケンサ)に記憶された各パートの自動演奏データ
を順次読み出し、これを上記割り当てられた音源に送っ
て同時発音させることにより実現されている。
The automatic performance function as described above is realized by using, for example, a multi-tone sound source. That is, a sound source is assigned to each part, the automatic performance data of each part stored in advance in the memory (or sequencer) for automatic performance data is sequentially read, and this is sent to the assigned sound source for simultaneous sound generation. It is realized by.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、出力系
統が1チャンネルしかない電子キーボードは、モノラル
演奏しかできないので音の立体感に乏しいという欠点が
ある。そこで、最近は2チャンネルの出力系統を有する
電子キーボードが主流となっている。
However, an electronic keyboard having an output system of only one channel has a drawback that the stereoscopic effect of the sound is poor because it can only perform monaural performance. Therefore, recently, electronic keyboards having a two-channel output system have become mainstream.

【0007】2チャンネルの出力系統を有する電子キー
ボードでは、ステレオ再生により音像定位を制御するこ
とができるので、臨場感に溢れた演奏が可能となってい
る。しかしながら、例えばオーケストラ等のように、複
数の楽器音が含まれる自動演奏データを再生する場合に
は、2チャンネルの出力系統で形成される音像は、生の
演奏における音像に比べ、立体感や躍動感に乏しく平面
的に聞こえてしまうという問題があった。
With an electronic keyboard having a two-channel output system, the sound image localization can be controlled by stereo reproduction, so that a performance with a sense of realism is possible. However, when reproducing automatic performance data including a plurality of musical instrument sounds such as in an orchestra, the sound image formed by the output system of 2 channels has a stereoscopic effect and a dynamic feeling compared to the sound image in the live performance. There was a problem that it didn't feel good and sounded flat.

【0008】本発明は、かかる事情に鑑みてなされたも
のであり、生の演奏に近い立体感や躍動感を有し、臨場
感に溢れた音像を得ることのできる電子楽器を提供する
ことを目的とする。
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an electronic musical instrument having a stereoscopic effect and a dynamic feeling similar to a live performance, and capable of obtaining a realistic sound image. To aim.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の電子楽器は、楽音を放音する少な
くとも4つの放音手段と、該4つの放音手段の何れかを
指定する指定手段と、自動演奏データが記憶された記憶
手段と、該記憶手段に記憶された自動演奏データに従っ
て楽音信号を生成する楽音信号生成手段と、該楽音信号
生成手段で生成された楽音信号を、前記指定手段で指定
された放音手段に与える制御手段、とを具備したことを
特徴とする。
In order to achieve the above object, an electronic musical instrument according to claim 1 has at least four sound emitting means for emitting a musical sound, and any one of the four sound emitting means. Designating means for designating, storage means in which automatic performance data is stored, tone signal generation means for generating a tone signal in accordance with the automatic performance data stored in the storage means, and tone signal generated by the tone signal generation means And a control means for giving the sound emitting means designated by the designating means.

【0010】また、同様の目的で、請求項2に記載の電
子楽器は、2個が1対となって楽音をステレオ再生する
スピーカ対を少なくとも2組有する電子楽器であって、
前記少なくとも2組のスピーカ対の何れかを指定する指
定手段と、自動演奏データが記憶された記憶手段と、該
記憶手段に記憶された自動演奏データに従って1対のス
テレオ楽音信号を生成する楽音信号生成手段と、該楽音
信号生成手段で生成された1対のステレオ楽音信号を、
前記指定手段で指定されたスピーカ対に与える制御手
段、とを具備したことを特徴とする。
Further, for the same purpose, the electronic musical instrument according to claim 2 is an electronic musical instrument having at least two speaker pairs in which two musical instruments are paired for stereo reproduction.
Designating means for designating any one of the at least two pairs of speakers, storage means for storing automatic performance data, and a tone signal for generating a pair of stereo musical tone signals according to the automatic performance data stored in the storage means. Generating means and a pair of stereo tone signals generated by the tone signal generating means,
And a control means for giving to the speaker pair designated by the designation means.

【0011】[0011]

【作用】請求項1に記載の発明においては、少なくとも
4つ備えられた放音手段の何れかを指定手段で指定し、
この指定された放音手段により、記憶手段に記憶された
自動演奏データに従って生成された楽音信号に基づく楽
音を放音するようにしている。上記指定手段としては、
例えば記憶手段に自動演奏データの一種として記憶され
た特別のデータ、或いは操作パネル等に設けられた操作
子を用いることができる。
In the invention described in claim 1, any one of at least four sound emitting means is designated by the designating means,
The designated sound emitting means emits a musical tone based on the musical tone signal generated according to the automatic performance data stored in the storage means. As the designation means,
For example, special data stored as a kind of automatic performance data in the storage means, or an operator provided on an operation panel or the like can be used.

【0012】これにより、例えば放音手段としてのスピ
ーカを、例えば聴者の前後左右上下等の少なくとも4点
に配置し、このスピーカの配置に合わせて作成された自
動演奏データに基づいて放音されることになるので、任
意の音像空間を作り出すことができ、生の演奏に近い立
体感や躍動感を有する音像を得ることができる。
Thus, for example, speakers as sound emitting means are arranged at at least four points such as front, rear, left, right, top and bottom of the listener, and sound is emitted based on the automatic performance data created in accordance with the arrangement of the speakers. Therefore, it is possible to create an arbitrary sound image space and obtain a sound image having a stereoscopic effect and a feeling of dynamism similar to a live performance.

【0013】請求項2に記載の発明においては、少なく
とも2組備えられたスピーカ対の何れか1組のスピーカ
対を指定手段で指定し、この指定されたスピーカ対によ
り、記憶手段に記憶された自動演奏データに従って生成
されたステレオ楽音信号に基づく楽音をステレオで放音
するようにしている。この場合も、上記指定手段として
は、例えば記憶手段に自動演奏データの一種として記憶
された特別のデータ、或いは操作パネル等に設けられた
操作子を用いることができる。
According to the second aspect of the invention, any one speaker pair out of at least two speaker pairs is designated by the designating means, and the designated speaker pair is stored in the storage means. A musical tone based on a stereo musical tone signal generated according to automatic performance data is emitted in stereo. Also in this case, as the designation means, for example, special data stored as a kind of automatic performance data in the storage means, or an operator provided on the operation panel or the like can be used.

【0014】従って、各スピーカ対のステレオ効果によ
り音像定位が異なるように作成された自動演奏データに
基づいて放音されることになるので、生の演奏に近い立
体感や躍動感を有する音像空間を作り出すことができ
る。
Therefore, since sound is emitted based on the automatic performance data created so that the sound image localization is different due to the stereo effect of each speaker pair, a sound image space having a stereoscopic effect and a lively feeling similar to a live performance. Can be produced.

【0015】[0015]

【実施例】以下、本発明の電子楽器の実施例につき、本
発明の特徴に関係する出力系統に係る部分の構成及び動
作を中心に図面を参照しながら詳細に説明する。なお、
本実施例では、「16」のパート(1つの楽音を発生さ
せるための制御単位であり、16個のMIDIチャンネ
ルに対応している)と、「4」の出力チャンネル(放音
するチャンネル)を有するものとして説明するが、これ
に限定されるものではない。
Embodiments of the electronic musical instrument of the present invention will now be described in detail with reference to the drawings, centering on the configuration and operation of the portion related to the output system relating to the features of the present invention. In addition,
In the present embodiment, a "16" part (a control unit for generating one musical sound, corresponding to 16 MIDI channels) and an "4" output channel (sound emitting channel) are provided. However, the present invention is not limited to this.

【0016】図1は、本発明の電子楽器の実施例の概略
構成を示すブロック図である。本電子楽器の主要構成要
素である、中央処理装置(以下、「CPU」という)1
0、プログラムメモリ11、RAM12、パネルインタ
フェース回路13、鍵盤インタフェース回路15、自動
演奏データメモリ17、楽音波形メモリ19及び音源
(トーンジェネレータ)18は、システムバス30を介
して相互に接続されている。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an electronic musical instrument of the present invention. Central processing unit (hereinafter referred to as "CPU") 1 which is a main component of the electronic musical instrument
0, a program memory 11, a RAM 12, a panel interface circuit 13, a keyboard interface circuit 15, an automatic performance data memory 17, a musical tone waveform memory 19 and a tone generator (tone generator) 18 are interconnected via a system bus 30.

【0017】システムバス30は、例えばアドレス線、
データ線及び制御信号線等で成るバスラインであり、上
記各構成要素間において各種データの送受を行うために
使用されるものである。このシステムバス30は、CP
U10と音源19とにより時分割で使用される。
The system bus 30 is, for example, an address line,
A bus line including a data line, a control signal line, and the like, which is used for transmitting and receiving various data between the above-mentioned constituent elements. This system bus 30 is a CP
It is used by U10 and the sound source 19 in a time division manner.

【0018】上記CPU10は、プログラムメモリ11
に格納されている制御プログラムに従って、本電子楽器
の全体を制御するものである。例えば、CPU10は、
操作パネル14からパネルインタフェース回路13を経
由して音色ナンバを取り込み、また、鍵盤装置16から
鍵盤インタフェース回路15を経由してキーナンバ、イ
ニシャルタッチデータ等を取り込み、これら各データに
基づいて、例えば波形アドレス、周波数データ、エンベ
ロープデータ、フィルタ係数等を生成して音源19に送
ることにより所定の楽音を発生させる処理等を行う。
The CPU 10 has a program memory 11
According to the control program stored in, the entire electronic musical instrument is controlled. For example, the CPU 10
A tone color number is fetched from the operation panel 14 via the panel interface circuit 13, and a key number, initial touch data, etc. are fetched from the keyboard device 16 via the keyboard interface circuit 15, and, for example, a waveform address , Frequency data, envelope data, filter coefficients, etc. are generated and sent to the sound source 19 to generate a predetermined musical sound.

【0019】また、CPU10は、システムバス30を
介して自動演奏データメモリ17から自動演奏データを
読み出し、これに所定の変換を施してシステムバス30
を介して音源19に送ることにより、所定の自動演奏を
行わせる処理を行う。
Further, the CPU 10 reads out the automatic performance data from the automatic performance data memory 17 via the system bus 30, subjects the automatic performance data to a predetermined conversion, and performs system conversion on the system bus 30.
A predetermined automatic performance is performed by sending the sound to the sound source 19 via.

【0020】このCPU10には、自動演奏用のタイム
カウンタが内蔵されている。このタイムカウンタは、所
定のスタート指令により動作が開始され、以降は一定周
期でカウントアップ動作を行うものである。このタイム
カウンタは、後述する自動演奏処理において発音又は消
音のタイミングを検出するために使用される。
The CPU 10 has a built-in time counter for automatic performance. The time counter starts its operation by a predetermined start command, and thereafter, counts up in a constant cycle. This time counter is used to detect the timing of sound generation or mute in the automatic performance processing described later.

【0021】また、このCPU10には、専用線を介し
てMIDIインタフェース回路40が接続されている。
MIDIインタフェース回路40は、本電子楽器と外部
装置との間のMIDIデータの受け渡しを制御するもの
である。外部装置としては、例えばMIDIデータを処
理するパーソナルコンピュータ、シーケンサ或いは他の
電子楽器等を挙げることができる。
A MIDI interface circuit 40 is connected to the CPU 10 via a dedicated line.
The MIDI interface circuit 40 controls the transfer of MIDI data between the electronic musical instrument and an external device. The external device may be, for example, a personal computer that processes MIDI data, a sequencer, or another electronic musical instrument.

【0022】上記プログラムメモリ11は、例えばRO
Mで構成されるものであり、上述したCPU10を動作
させるための制御プログラムが記憶されている他、CP
U10が各種処理に用いる種々の固定データが記憶され
ている。
The program memory 11 is, for example, RO
The control program for operating the CPU 10 is stored in addition to the CP.
Various types of fixed data used by U10 for various processes are stored.

【0023】このプログラムメモリ11の記憶内容は、
システムバス30を介してCPU10により読み出され
る。即ち、CPU10は、システムバス30を介してプ
ログラムメモリ11から制御プログラム(命令)を読み
出して解釈・実行すると共に、所定の固定データを読み
出して各種処理に使用する。
The stored contents of the program memory 11 are
It is read by the CPU 10 via the system bus 30. That is, the CPU 10 reads a control program (command) from the program memory 11 via the system bus 30, interprets and executes the program, and reads predetermined fixed data for use in various processes.

【0024】上記RAM12は、制御プログラムの実行
に用いる種々のデータを一時記憶するものであり、例え
ばデータバッファ、レジスタ、フラグ等の各領域が定義
されている。このRAM12は、システムバス30を介
してCPU10によりアクセスされる。
The RAM 12 temporarily stores various data used for execution of the control program, and defines areas such as a data buffer, a register, and a flag. The RAM 12 is accessed by the CPU 10 via the system bus 30.

【0025】上記パネルインタフェース回路13には、
操作パネル14が接続されている。この操作パネル14
は、本電子楽器に各種動作を指示するために用いられる
ものであり、例えば図2の外観平面図に示すように、本
電子楽器の略中央に配置されている。この操作パネル1
4には、例えば各種スイッチ及び表示器等が設けられて
いる。
The panel interface circuit 13 includes:
The operation panel 14 is connected. This operation panel 14
Are used for instructing the electronic musical instrument to perform various operations. For example, as shown in the external plan view of FIG. This operation panel 1
The switch 4 is provided with, for example, various switches and indicators.

【0026】上記各種スイッチには、詳細は図示しない
が、本電子楽器を制御するための種々のスイッチ、例え
ば、音色選択スイッチ、音量制御スイッチ、リズム選択
スイッチ、リバーブスイッチ等の音響効果スイッチ、自
動演奏スイッチ等が含まれている。
Although not shown in detail in the various switches, various switches for controlling the electronic musical instrument, for example, sound effect switches such as a tone color selection switch, a volume control switch, a rhythm selection switch, a reverb switch, and an automatic switch are provided. Performance switches etc. are included.

【0027】上記音色選択スイッチは本電子楽器に用意
されている複数音色の中から1つの音色を選択するため
に使用され、音量制御スイッチは音量を制御するために
使用され、リズム選択スイッチは複数リズムの中から1
つのリズムを選択するために使用され、音響効果スイッ
チは音響効果の種類(例えばリバーブ)を指定するため
に使用され、自動演奏スイッチは自動演奏の開始又は停
止を制御するために使用されるものである。
The tone color selection switch is used to select one tone color from a plurality of tones prepared for the electronic musical instrument, the volume control switch is used to control the volume, and the rhythm selection switch is used. From the rhythm 1
One is used to select one rhythm, the sound effect switch is used to specify the type of sound effect (for example, reverb), and the automatic performance switch is used to control the start or stop of automatic performance. is there.

【0028】また、表示器は、例えば電子楽器の状態や
各種メッセージを文字等で表示するLCD表示器、各ス
イッチの設定状態を示すLED表示器等が含まれる。こ
れら表示器の表示制御はCPU10によって行われる。
Further, the display includes, for example, an LCD display for displaying the state of the electronic musical instrument and various messages by characters and the like, an LED display for indicating the setting state of each switch, and the like. The display control of these display devices is performed by the CPU 10.

【0029】なお、後述するように、各パートの自動演
奏データに基づく楽音を放音するスピーカを操作パネル
14から指定する構成の場合は、この操作パネル14に
スピーカを指定するための指定手段としてのスイッチが
設けられる。
As will be described later, in the case of a configuration in which a speaker for emitting a musical sound based on the automatic performance data of each part is designated from the operation panel 14, as a designation means for designating the speaker on the operation panel 14. Switch is provided.

【0030】上記パネルインタフェース回路13は、操
作パネル14とCPU10との間のデータの送受を制御
するものである。即ち、パネルインタフェース回路13
は操作パネル14に対してスキャン信号を送出し、この
スキャン信号に応答して操作パネル14から返送される
各スイッチのオン/オフを示す信号を入力する。
The panel interface circuit 13 controls transmission / reception of data between the operation panel 14 and the CPU 10. That is, the panel interface circuit 13
Sends a scan signal to the operation panel 14, and inputs a signal returned from the operation panel 14 indicating ON / OFF of each switch in response to the scan signal.

【0031】そして、この信号から各スイッチのオン/
オフをビットに対応させて成るパネルデータを生成し、
システムバス30を介してCPU10に送る。このパネ
ルデータは、CPU10の制御の下にRAM12に格納
され、パネルイベントの有無の判断に使用される(詳細
は後述する)。
Then, from this signal, each switch is turned on / off.
Generates panel data consisting of offs corresponding to bits,
It is sent to the CPU 10 via the system bus 30. This panel data is stored in the RAM 12 under the control of the CPU 10 and is used to determine the presence / absence of a panel event (details will be described later).

【0032】また、パネルインタフェース回路13は、
CPU10からシステムバス30を介して送られてきた
表示用データを操作パネル14に送る。これにより、操
作パネル14に設けられたLCD表示器の表示内容の変
更等、又はLED表示器の点灯又は消灯制御が行われ
る。
Further, the panel interface circuit 13 is
The display data sent from the CPU 10 via the system bus 30 is sent to the operation panel 14. As a result, the display contents of the LCD display provided on the operation panel 14 are changed, and the LED display is turned on or off.

【0033】上記鍵盤インタフェース回路15には鍵盤
装置16が接続されている。鍵盤装置16は、音高を指
示するための複数の鍵を有する。この鍵盤装置16とし
ては、例えば2接点方式の鍵盤装置が用いられ、鍵のオ
ン/オフと共に、イニシャルタッチデータを検出するこ
とができるようになっている。即ち、鍵盤装置16の各
鍵は、押鍵又は離鍵動作によってオン/オフする2個の
キースイッチを有し、それぞれのキースイッチは異なる
押圧深さでオン/オフされる。
A keyboard device 16 is connected to the keyboard interface circuit 15. The keyboard device 16 has a plurality of keys for designating a pitch. As the keyboard device 16, for example, a two-contact type keyboard device is used, and it is possible to detect the initial touch data as well as turning the key on / off. That is, each key of the keyboard device 16 has two key switches that are turned on / off by a key pressing operation or a key releasing operation, and each key switch is turned on / off at different pressing depths.

【0034】鍵盤インタフェース回路15は、鍵盤装置
16とCPU10との間のデータの送受を制御するもの
である。具体的には、鍵盤インタフェース回路15は、
鍵盤装置16に対してスキャン信号を送出し、このスキ
ャン信号に応答して鍵盤装置16から返送される各キー
の2個のキースイッチのオン/オフ状態示す信号を受け
取る。
The keyboard interface circuit 15 controls transmission / reception of data between the keyboard device 16 and the CPU 10. Specifically, the keyboard interface circuit 15
A scan signal is sent to the keyboard device 16, and a signal indicating the on / off state of the two key switches of each key is sent back from the keyboard device 16 in response to the scan signal.

【0035】そして、この受け取った信号から、各鍵の
オン/オフをビットに対応させて成るキーデータ及びイ
ニシャルタッチデータを生成し、システムバス30を介
してCPU10に送る。このキーデータ及びイニシャル
タッチデータは、CPU10の制御の下にRAM12に
格納されて鍵盤イベントの有無の判断に使用される。そ
して、この判断結果に基づき鍵盤装置16の押鍵又は離
鍵に伴う発音/消音処理が行われることになる。
Then, from the received signal, key data and initial touch data in which ON / OFF of each key is associated with a bit are generated and sent to the CPU 10 via the system bus 30. The key data and the initial touch data are stored in the RAM 12 under the control of the CPU 10 and used to judge the presence / absence of a keyboard event. Then, based on the result of this determination, sounding / silence processing is performed in response to the key depression or key release of the keyboard device 16.

【0036】上記自動演奏データメモリ17は記憶手段
に対応するものであり、例えばROMで構成される。こ
の自動演奏データメモリ17には、複数の自動演奏曲に
対応した自動演奏データが記憶されている。
The automatic performance data memory 17 corresponds to a storage means, and is composed of, for example, a ROM. The automatic performance data memory 17 stores automatic performance data corresponding to a plurality of automatic performance songs.

【0037】上記自動演奏データは、自動演奏曲のパー
ト毎に、4つの出力チャンネルによる自動演奏(2組の
ステレオ演奏)ができるように構成されている。図7
(A)に、本発明の特徴に係る自動演奏データである
「スピーカセレクト」及び「パンポットセレクト」のデ
ータ形式の一例を示す。
The above-mentioned automatic performance data is constructed so that automatic performance (two sets of stereo performances) can be performed by four output channels for each part of the automatic performance music. Figure 7
FIG. 9A shows an example of the data format of "speaker select" and "panpot select" which are automatic performance data according to the features of the present invention.

【0038】「スピーカセレクト」の自動演奏データは
指定手段に対応するものであり、4バイトで構成されて
いる。このスピーカセレクトの自動演奏データは、発音
に使用するスピーカを指定するために使用される。この
スピーカセレクトデータの1バイト目は、データの種類
を示すステータス「BH」(`H´は16進数であるこ
とを示す。以下、同じ)とパート(16個のMIDIチ
ャンネルに対応する)を指示するチャンネルナンバ「n
H」とで構成される。2バイト目は、本自動演奏データ
の実行タイミングを示すステップタイムである。
The automatic performance data of "speaker select" corresponds to the designating means and is composed of 4 bytes. The speaker select automatic performance data is used to specify the speaker used for sound generation. The first byte of the speaker select data indicates a status "BH"("H'is a hexadecimal number. The same applies hereinafter) indicating a data type and a part (corresponding to 16 MIDI channels). Channel number "n
H ". The second byte is a step time indicating the execution timing of the automatic performance data.

【0039】3バイト目は、ステータスの一部であり、
ドラムの音色であるかドラム以外の音色であるかを指示
するものである。この3バイト目のデータと上記1バイ
ト目のデータの上位4ビットで「スピーカセレクト」で
あることが認識されることになる。4バイト目は、放音
に使用するスピーカを指定するスピーカ指定情報として
使用される。本実施例の場合、4バイト目の値が「00
H〜3FH」の場合Aグループのスピーカ(スピーカ2
6及び27の1対)、「40H〜FFH」の場合Bグル
ープのスピーカ(スピーカ28及び29)を指定するも
のとする。
The third byte is a part of the status,
This is to instruct whether the tone is a drum tone or a tone other than the drum tone. It is recognized that "speaker select" is made by the upper 4 bits of the data of the third byte and the data of the first byte. The fourth byte is used as speaker designation information that designates a speaker used for sound emission. In the case of this embodiment, the value of the 4th byte is "00".
H ~ 3FH "A group speaker (speaker 2
6 and 27), and in the case of “40H to FFH”, the speaker of group B (speakers 28 and 29) is designated.

【0040】「パンポットセレクト」の自動演奏データ
は4バイトで構成され、1対のスピーカの音像定位を決
定するために使用される。このパンポットセレクトデー
タの1及び2バイト目は、上記スピーカセレクトと同じ
である。3バイト目は、ステータスの一部である。この
3バイト目のデータと上記1バイト目のデータの上位4
ビットで「パンポットセレクト」であることが認識され
ることになる。
The automatic performance data of "Panpot Select" is composed of 4 bytes and is used for determining the sound image localization of a pair of speakers. The 1st and 2nd bytes of the panpot select data are the same as the speaker select. The third byte is a part of the status. The upper 4 of the data of the 3rd byte and the data of the 1st byte
It will be recognized that it is a "panpot select" with a bit.

【0041】4バイト目は、パンポットの位置を指定す
るパンポット指定情報であり、上位4ビットのみが使用
される。従って、パート毎に16通りの音像定位を指定
できるようになっている。
The fourth byte is panpot designating information for designating the position of the panpot, and only the upper 4 bits are used. Therefore, 16 types of sound image localization can be designated for each part.

【0042】上記スピーカセレクト、パンポットセレク
トの各自動演奏データが実行されることにより、スピー
カ指定情報、パンポット指定情報はプレイバッファにセ
ットされる。ここでプレイバッファは、パート毎に設け
られたバッファであり、パート即ち楽音毎の各種制御情
報、例えば上記スピーカ指定情報、パンポット指定情報
の他、音色情報、音量情報等を記憶するものである。
The speaker designation information and the panpot designation information are set in the play buffer by executing the respective automatic performance data of the speaker selection and the panpot selection. Here, the play buffer is a buffer provided for each part, and stores various control information for each part, that is, each musical sound, such as the above-mentioned speaker designation information and panpot designation information, as well as tone color information and volume information. .

【0043】何れのプレイバッファにセットするかは、
自動演奏データ中に含まれるチャンネルナンバ「n」で
指定される。このプレイバッファの内容は、発音指示の
自動演奏データが実行される場合に参照される。
Which play buffer to set is
It is designated by the channel number "n" included in the automatic performance data. The contents of this play buffer are referred to when the automatic performance data of the sounding instruction is executed.

【0044】この自動演奏データメモリ17に記憶され
た自動演奏データは、後述する自動演奏処理において音
源19が処理することができる形式のデータに変換さ
れ、音源19に送られる。
The automatic performance data stored in the automatic performance data memory 17 is converted into data in a format that can be processed by the tone generator 19 in the automatic performance processing described later, and sent to the tone generator 19.

【0045】なお、上記自動演奏データは、上記自動演
奏データメモリ17に代えて、上述したRAM12に記
憶するように構成しても良い。この場合、システムバス
30に例えばフロッピーディスク装置を接続すると共
に、フロッピーディスクに自動演奏データを記憶せしめ
ておき、例えば本電子楽器の電源投入時にフロッピーデ
ィスク装置に装着されたフロッピーディスクから自動演
奏データをRAM12にロードするように構成すれば良
い。
The automatic performance data may be stored in the RAM 12 instead of the automatic performance data memory 17. In this case, for example, a floppy disk device is connected to the system bus 30 and automatic performance data is stored in the floppy disk so that the automatic performance data can be transferred from the floppy disk mounted in the floppy disk device when the electronic musical instrument is powered on. It may be configured to be loaded in the RAM 12.

【0046】上記楽音波形メモリ18は、パルスコード
変調(PCM)された楽音波形データを記憶するもので
ある。この楽音波形メモリ18には、複数種類の音色を
実現するべく、各鍵域と各音色に対応した複数種類の楽
音波形データが記憶されている。各音色に対応する楽音
波形データは、ステレオ再生を可能にするべく、左チャ
ンネル用と右チャンネル用とに分けて記憶されている。
The tone waveform memory 18 stores tone code data that has been pulse code modulated (PCM). The musical tone waveform memory 18 stores a plurality of types of musical tone waveform data corresponding to each key range and each tone color in order to realize a plurality of tone colors. The musical tone waveform data corresponding to each tone color is separately stored for the left channel and the right channel in order to enable stereo reproduction.

【0047】音源19は楽音信号生成手段に対応するも
のであり、例えば複数のオシレータ(例えば48個のオ
シレータ)を備え、各オシレータが1つの発音チャンネ
ルを構成している。そして、1つの楽音を発生するに際
しては、1つのパートに対して1個乃至数個の発音チャ
ンネル(オシレータ)が割り当てられる。
The sound source 19 corresponds to a tone signal generating means, and is provided with, for example, a plurality of oscillators (for example, 48 oscillators), and each oscillator constitutes one sounding channel. When one musical tone is generated, one to several tone generation channels (oscillators) are assigned to one part.

【0048】発音が割り当てられたオシレータは、楽音
波形メモリ18に記憶された左右両チャンネル用の楽音
波形データを時分割で読み出し、これにプレイバッファ
に格納されているパンポット情報に従ったエンベロープ
を付加して左右両チャンネル用のデジタル楽音信号を時
分割で生成する。
The oscillator to which the sound is assigned reads the tone waveform data for the left and right channels stored in the tone waveform memory 18 in a time-division manner, and an envelope according to the panpot information stored in the play buffer is read into this. In addition, digital tone signals for the left and right channels are generated in a time division manner.

【0049】この音源19で時分割で生成された左右両
チャンネル用のデジタル楽音信号は、プレイバッファに
記憶されたスピーカ指定情報に従って、D/A変換器2
0又は21の何れかに送られる。
The digital tone signals for the left and right channels, which are time-divided by the sound source 19, are generated by the D / A converter 2 according to the speaker designation information stored in the play buffer.
Sent to either 0 or 21.

【0050】D/A変換器20は、入力されたデジタル
楽音信号をアナログ楽音信号に変換すると共に、右チャ
ンネルのアナログ楽音信号と左チャンネル用のアナログ
楽音信号に分離して出力するものである。このD/A変
換器20で変換・分離された右チャンネル用のアナログ
楽音信号は増幅器22に、左チャンネル用のアナログ楽
音信号は増幅器23に、それぞれ送られる。
The D / A converter 20 converts the input digital musical tone signal into an analog musical tone signal, separates it into a right channel analog musical tone signal and a left channel analog musical tone signal, and outputs the analog musical tone signal. The analog tone signal for the right channel converted and separated by the D / A converter 20 is sent to the amplifier 22, and the analog tone signal for the left channel is sent to the amplifier 23.

【0051】増幅器22は、入力された右チャンネル用
のアナログ楽音信号を所定の増幅率で増幅して出力する
ものである。この増幅器22で所定の増幅が行われた右
チャンネル用のアナログ楽音信号はスピーカ26に送ら
れる。同様に、増幅器23は、入力された左チャンネル
用のアナログ楽音信号を所定の増幅率で増幅して出力す
るものである。この増幅器23で所定の増幅が行われた
左チャンネル用のアナログ楽音信号はスピーカ27に送
られる。
The amplifier 22 amplifies the input right channel analog tone signal by a predetermined amplification factor and outputs it. The analog tone signal for the right channel, which has been subjected to predetermined amplification by the amplifier 22, is sent to the speaker 26. Similarly, the amplifier 23 amplifies the input analog tone signal for the left channel at a predetermined amplification rate and outputs it. The analog tone signal for the left channel, which has been subjected to predetermined amplification by the amplifier 23, is sent to the speaker 27.

【0052】D/A変換器21は、入力されたデジタル
楽音信号をアナログ楽音信号に変換すると共に、右チャ
ンネルのアナログ楽音信号と左チャンネル用のアナログ
楽音信号に分離して出力するものである。このD/A変
換器21で変換・分離された右チャンネル用のアナログ
楽音信号は増幅器24に、左チャンネル用のアナログ楽
音信号は増幅器25に、それぞれ送られる。
The D / A converter 21 converts the input digital musical tone signal into an analog musical tone signal, and separates it into a right channel analog musical tone signal and a left channel analog musical tone signal for output. The right channel analog tone signal converted and separated by the D / A converter 21 is sent to the amplifier 24, and the left channel analog tone signal is sent to the amplifier 25.

【0053】増幅器24は、入力された右チャンネル用
のアナログ楽音信号を所定の増幅率で増幅して出力する
ものである。この増幅器24で所定の増幅が行われた右
チャンネル用のアナログ楽音信号はスピーカ28に送ら
れる。同様に、増幅器25は、入力された左チャンネル
用のアナログ楽音信号を所定の増幅率で増幅して出力す
るものである。この増幅器25で所定の増幅が行われた
左チャンネル用のアナログ楽音信号はスピーカ29に送
られる。
The amplifier 24 amplifies the input right channel analog tone signal by a predetermined amplification factor and outputs it. The analog tone signal for the right channel, which has been amplified by the amplifier 24, is sent to the speaker 28. Similarly, the amplifier 25 amplifies the input analog tone signal for the left channel at a predetermined amplification rate and outputs it. The analog tone signal for the left channel, which has been amplified by the amplifier 25, is sent to the speaker 29.

【0054】スピーカ26〜29は放音手段に対応する
ものであり、電気信号としてのアナログ楽音信号を音響
信号に変換する周知のものである。このスピーカ26〜
29により、鍵盤装置16の鍵の押下又は自動演奏デー
タメモリ17から読み出された自動演奏データに応じた
楽音が放音されることになる。
The speakers 26 to 29 correspond to sound emitting means, and are well known ones for converting an analog musical tone signal as an electric signal into an acoustic signal. This speaker 26 ~
By 29, a tone corresponding to the depression of a key of the keyboard device 16 or the automatic performance data read from the automatic performance data memory 17 is emitted.

【0055】図2は、上記スピーカ26〜29の配置例
を示す図であり、同図(A)は平面図、同図(B)は側
面図である。Aグループを形成するスピーカ26及び2
7は、本電子楽器のほぼ中央に設けられた操作パネル1
4の両端に、図中手前側に傾斜せしめて設けられてい
る。このスピーカ26及び27としては、例えば8cm
スピーカが用いられる。これらスピーカ26及び27に
よる音像は、両スピーカ26及び27を結ぶ線より図中
手前側に定位が決まる。
FIG. 2 is a diagram showing an arrangement example of the speakers 26 to 29. FIG. 2A is a plan view and FIG. 2B is a side view. Speakers 26 and 2 forming group A
The reference numeral 7 designates an operation panel 1 provided at substantially the center of the electronic musical instrument.
It is provided at both ends of 4 inclining to the front side in the figure. As the speakers 26 and 27, for example, 8 cm
A speaker is used. The sound images from the speakers 26 and 27 are localized on the front side in the figure with respect to the line connecting the speakers 26 and 27.

【0056】Bグループを形成するスピーカ28及び2
9は、本電子楽器の操作パネル14より図中奥側の本体
ケースの両端に設けられている。このスピーカ28及び
29としては、例えば12cmスピーカが用いられる。
これらスピーカ28及び29の開口面と反対側の本体ケ
ースには開口部50が形成されており、この開口部50
からも楽音が放出されるようになっている。これらスピ
ーカ28及び29による音像は、両スピーカ28及び2
9を結ぶ線より図中手前側に定位が決まる。
Speakers 28 and 2 forming a B group
9 are provided at both ends of the main body case on the back side of the operation panel 14 of the present electronic musical instrument in the figure. As the speakers 28 and 29, for example, 12 cm speakers are used.
An opening 50 is formed in the main body case on the side opposite to the opening surface of the speakers 28 and 29.
Music sounds are also emitted from. The sound images from these speakers 28 and 29 are
The localization is determined on the front side of the figure from the line connecting 9.

【0057】かかるスピーカの配置により、Aグループ
のスピーカによるステレオ再生で形成される音像定位と
Bグループのスピーカによるステレオ再生で形成される
音像定位とが前後に分かれ、奥行き感のある音場を実現
できるものとなっている。
With the arrangement of the speakers, the sound image localization formed by the stereo reproduction by the speakers of the A group and the sound image localization formed by the stereo reproduction by the speakers of the B group are separated into front and rear, and a sound field with a sense of depth is realized. It is possible.

【0058】次に、上記の構成において、本発明に係る
電子楽器が適用された電子楽器の動作につき、図3〜図
6のフローチャートを参照しながら自動演奏を行う場合
の動作を中心に説明する。
Next, the operation of the electronic musical instrument to which the electronic musical instrument of the present invention is applied in the above configuration will be described with reference to the flow charts of FIGS. .

【0059】図3は、本電子楽器のメインルーチンを示
すフローチャートであり、電源投入により起動される。
即ち、電源が投入されると、先ず、初期化処理が行われ
る(ステップS10)。
FIG. 3 is a flow chart showing the main routine of this electronic musical instrument, which is started by turning on the power.
That is, when the power is turned on, first, initialization processing is performed (step S10).

【0060】この初期化処理は、CPU10の内部状態
を初期状態に設定するとともに、RAM12に定義され
ているレジスタ、カウンタ或いはフラグ等に初期値を設
定する処理である。また、この初期化処理では、音源1
9に所定のデータを送り、電源投入時に不要な音が発生
されるのを防止する処理も行われる。
This initialization process is a process of setting the internal state of the CPU 10 to the initial state and setting the initial values to the registers, counters or flags defined in the RAM 12. In addition, in this initialization process, the sound source 1
A process of sending predetermined data to 9 and preventing an unnecessary sound from being generated when the power is turned on is also performed.

【0061】この初期化処理が終了すると、スイッチイ
ベント処理が行われる(ステップS11)。このスイッ
チイベント処理の詳細につき図4のフローチャートを参
照しながら説明する。
When this initialization processing is completed, switch event processing is performed (step S11). Details of the switch event process will be described with reference to the flowchart of FIG.

【0062】スイッチイベント処理では、先ず、スイッ
チイベントの有無が調べられる(ステップS20)。こ
れは、次のようにして行われる。即ち、先ずパネルイン
タフェース回路13で操作パネル14をスキャンするこ
とにより、各スイッチの現在のオン/オフ状態を示すパ
ネルデータ(以下、「新パネルデータ」という)を各ス
イッチに対応したビット列として取り込む。
In the switch event process, the presence or absence of a switch event is first checked (step S20). This is done as follows. That is, first, the panel interface circuit 13 scans the operation panel 14 to capture panel data (hereinafter referred to as “new panel data”) indicating the current on / off state of each switch as a bit string corresponding to each switch.

【0063】次いで、前回読み込んで既にRAM12に
記憶されているパネルデータ(以下、「旧パネルデー
タ」という)と、上記新パネルデータとを比較して相違
するビットが存在するか否かを調べ、相違するビットを
オンにしたパネルイベントマップを作成する。スイッチ
イベントの有無の判断は、このパネルイベントマップを
参照することにより行われ、オンになっているビットが
1つでも存在するとスイッチイベントがあった旨が判断
されることになる。
Then, the panel data (hereinafter referred to as "old panel data") which has been previously read and already stored in the RAM 12 is compared with the above new panel data to check whether or not there is a different bit. Create a panel event map with the different bits turned on. The presence / absence of a switch event is determined by referring to this panel event map, and if there is even one bit that is turned on, it is determined that a switch event has occurred.

【0064】上記ステップS20でスイッチイベントが
なかったことが判断されると、何等の処理も行わずにこ
のスイッチイベント処理ルーチンからリターンしてメイ
ンルーチンのステップS12に戻る。
If it is determined in step S20 that there is no switch event, no processing is performed and the process returns from this switch event processing routine to return to step S12 of the main routine.

【0065】一方、上記ステップS20でスイッチイベ
ントがあったことが判断されると、そのスイッチイベン
トは自動演奏スイッチのイベントであるか否かが調べら
れる(ステップS21)。これは、上述のようにして作
成されたパネルイベントマップ中の自動演奏スイッチに
対応するビットがオンになっているか否かを調べること
により行われる。
On the other hand, when it is determined that there is a switch event in step S20, it is checked whether or not the switch event is an automatic performance switch event (step S21). This is performed by checking whether or not the bit corresponding to the automatic performance switch in the panel event map created as described above is turned on.

【0066】ここで、自動演奏スイッチのイベントがあ
ったことが判断されると、そのイベントはオンイベント
であるか否かが調べられる(ステップS22)。これ
は、新パネルデータ中の自動演奏スイッチに対応するビ
ットがオンになっているか否かを調べることにより行わ
れる。
If it is determined that there is an event of the automatic performance switch, it is checked whether or not the event is an on event (step S22). This is done by checking whether the bit corresponding to the automatic performance switch in the new panel data is on.

【0067】ここで、オンイベントであることが判断さ
れると、先ず、自動演奏フラグが「1」にセットされる
(ステップS23)。自動演奏フラグは、RAM12に
定義されるフラグであり、本電子楽器が自動演奏モード
にされているか否かを記憶するために使用されるもので
ある。この自動演奏フラグが「1」にセットされること
により、本電子楽器は自動演奏モードに移行される。
If it is determined that the event is an on event, the automatic performance flag is first set to "1" (step S23). The automatic performance flag is a flag defined in the RAM 12 and is used to store whether or not the electronic musical instrument is in the automatic performance mode. When this automatic performance flag is set to "1", the electronic musical instrument is switched to the automatic performance mode.

【0068】次いで、タイムカウンタのスタート処理が
行われる(ステップS24)。これは、CPU10に内
蔵される図示しないタイムカウンタのカウントアップ動
作を開始させる処理である。以降、このタイムカウンタ
は一定時間間隔でカウントアップされることになる。
Next, the start processing of the time counter is performed (step S24). This is a process of starting the count-up operation of a time counter (not shown) built in the CPU 10. After that, the time counter is incremented at regular time intervals.

【0069】次いで、自動演奏スタート処理が行われる
(ステップS25)。この自動演奏スタート処理は、操
作パネル14で指定された曲の自動演奏データが記憶さ
れている自動演奏データメモリ17のアドレス(スター
トアドレスSA)をRAM12に設けられたカレントポ
インタにセットする処理である。
Then, an automatic performance start process is performed (step S25). This automatic performance start process is a process of setting the address (start address SA) of the automatic performance data memory 17 in which the automatic performance data of the music designated by the operation panel 14 is stored in the current pointer provided in the RAM 12. .

【0070】ここで、上記カレントポインタは、自動演
奏データの現在位置を記憶するものであり、初期値とし
てスタートアドレスSAがセットされ、1つの自動演奏
データに対する処理が完了する度にインクリメントされ
るものである。以上のようにして、自動演奏スタート処
理が終了するとステップS28に進む。
Here, the current pointer stores the current position of the automatic performance data, and is incremented each time the start address SA is set as an initial value and the processing for one automatic performance data is completed. Is. When the automatic performance start process is completed as described above, the process proceeds to step S28.

【0071】上記ステップS22で、自動演奏スイッチ
のイベントがオンイベントでないことが判断されると、
自動演奏フラグが「0」にクリアされる(ステップS2
6)。この自動演奏フラグを「0」にクリアすることに
より、本電子楽器は自動演奏モードから通常演奏モード
に移行される。
When it is determined in step S22 that the event of the automatic performance switch is not the on event,
The automatic performance flag is cleared to "0" (step S2)
6). By clearing this automatic performance flag to "0", the electronic musical instrument is switched from the automatic performance mode to the normal performance mode.

【0072】次いで、タイムカウンタのストップ処理が
行われる(ステップS27)。これは、CPU10に内
蔵される図示しないタイムカウンタのカウントアップ動
作が停止される。
Then, the stop processing of the time counter is performed (step S27). This stops the count-up operation of the time counter (not shown) incorporated in the CPU 10.

【0073】以上の自動演奏スイッチに対する処理(ス
テップS22〜S27)が終了し、又は上記ステップS
21で自動演奏スイッチのイベントがなかったことが判
断されると、その他のスイッチに対する処理が行われる
(ステップS28)。
The above processing (steps S22 to S27) for the automatic performance switch is completed, or the above-mentioned step S22 is completed.
When it is determined in 21 that there is no event of the automatic performance switch, processing for other switches is performed (step S28).

【0074】この「その他のスイッチ処理」により、例
えば、音色選択スイッチ、音量制御スイッチ、リズム選
択スイッチ、リバーブスイッチ等の音響効果スイッチ等
の各スイッチイベントに対する処理が行われることにな
るが、これらの各処理は本発明の要旨とは直接関係しな
いので詳細な説明は省略する。この「その他のスイッチ
処理」が終了すると、スイッチイベント処理ルーチンか
らリターンしてメインルーチンのステップS12に戻
る。
By this "other switch processing", for example, processing for each switch event such as a tone color selection switch, a volume control switch, a rhythm selection switch, a sound effect switch such as a reverb switch, etc. will be performed. Since each processing is not directly related to the gist of the present invention, detailed description will be omitted. When this "other switch process" is completed, the process returns from the switch event process routine and returns to step S12 of the main routine.

【0075】メインルーチンでは、次いで、鍵盤イベン
ト処理が行われる(ステップS12)。この鍵盤イベン
ト処理では、先ず、鍵盤イベントの有無が調べられる。
これは、次のようにして行われる。即ち、鍵盤インタフ
ェース回路15で鍵盤装置16をスキャンすることによ
り、各鍵の押下状態を示すキーデータ(以下、「新キー
データ」という)を各鍵に対応したビット列として取り
込む。
In the main routine, keyboard event processing is then performed (step S12). In this keyboard event process, the presence or absence of a keyboard event is first checked.
This is done as follows. That is, by scanning the keyboard device 16 with the keyboard interface circuit 15, key data (hereinafter referred to as “new key data”) indicating the pressed state of each key is fetched as a bit string corresponding to each key.

【0076】次いで、前回読み込んで既にRAM12に
記憶されているキーデータ(以下、「旧キーデータ」と
いう)と、新キーデータとを比較して相違するビットが
存在するか否かを調べ、相違するビットをオンにした鍵
イベントマップを作成する。鍵盤イベントの有無の判断
はこの鍵イベントマップを参照することにより行われ
る。即ち、鍵イベントマップ中にオンになっているビッ
トが1つでも存在すると鍵盤イベントがあった旨が判断
されることになる。
Then, the key data (hereinafter referred to as "old key data") that has been read last time and already stored in the RAM 12 is compared with the new key data, and it is checked whether or not there is a different bit. Create a key event map with the bit you want to turn on. The presence / absence of a keyboard event is determined by referring to this key event map. That is, if there is even one bit that is turned on in the key event map, it is determined that there is a keyboard event.

【0077】上記で作成した鍵イベントマップを参照す
ることにより鍵盤イベントがあったことが判断される
と、鍵盤イベント処理が行われる。鍵盤イベント処理で
は、鍵盤のオンイベントの場合は、鍵盤イベント用に定
められたパートに音源19中の所定のオシレータが割り
当てられる。
When it is determined that there is a keyboard event by referring to the key event map created above, keyboard event processing is performed. In the keyboard event process, in the case of a keyboard on event, a predetermined oscillator in the sound source 19 is assigned to the part defined for the keyboard event.

【0078】次いで、そのオンイベントのあった鍵を示
すキーナンバ、鍵の押下の強さ(速度)を示すイニシャ
ルタッチデータ、及び音色ナンバ等に基づいて、例えば
波形アドレス、周波数データ、エンベロープデータ、フ
ィルタ係数等が生成され、音源19に送られる。これに
より、上述したような動作により、音源19の割り当て
られたオシレータで、上記各データに基づいた楽音の発
音が行われる。
Then, based on the key number indicating the key having the on event, the initial touch data indicating the key pressing strength (speed), the tone color number, etc., for example, the waveform address, frequency data, envelope data, filter, etc. Coefficients and the like are generated and sent to the sound source 19. As a result, according to the above-described operation, the oscillator to which the sound source 19 is assigned emits a musical sound based on the above-mentioned data.

【0079】一方、オフイベントがあった場合は、その
オフイベントがあった鍵に割り当てられている音源19
中のオシレータが検索され、リリースのエンベロープデ
ータが送られることにより消音が行われる。
On the other hand, when there is an off event, the sound source 19 assigned to the key for which the off event occurred.
The internal oscillator is searched, and the sound is muted by sending the envelope data of the release.

【0080】この鍵盤イベント処理が終了すると、次い
で、自動演奏処理が行われる(ステップS13)。この
自動演奏処理の詳細については後述する。
When this keyboard event process is completed, an automatic performance process is then carried out (step S13). Details of this automatic performance process will be described later.

【0081】次いで、その他の処理が行われる(ステッ
プS14)。この「その他の処理」には、MIDIデー
タの送受信処理等が含まれる。その後ステップS11に
戻り、以下同様の処理を繰り返す。上記ステップS11
〜S14の繰り返し実行の過程で、パネル操作又は鍵盤
操作に基づくイベントが発生すると、そのイベントに対
応する処理が行われることにより電子楽器としての各種
機能が発揮される。
Next, other processing is performed (step S14). This “other processing” includes MIDI data transmission / reception processing and the like. After that, the process returns to step S11, and the same processing is repeated thereafter. Step S11
When an event based on a panel operation or a keyboard operation occurs in the process of repeatedly executing S14 to S14, various functions as an electronic musical instrument are exerted by performing a process corresponding to the event.

【0082】次に、上記自動演奏処理の詳細につき、図
5に示したフローチャートを参照しながら説明する。
Next, details of the automatic performance process will be described with reference to the flowchart shown in FIG.

【0083】自動演奏処理では、先ず、自動演奏フラグ
が「1」であるか否かが調べられる(ステップS3
0)。そして、自動演奏フラグが「0」、即ち通常演奏
モードであることが判断されると、何等の処理を行うこ
となくこの自動演奏処理ルーチンからリターンしてメイ
ンルーチンのステップS14に戻る。
In the automatic performance process, it is first checked whether or not the automatic performance flag is "1" (step S3).
0). When it is determined that the automatic performance flag is "0", that is, in the normal performance mode, the process returns from this automatic performance processing routine without performing any processing and returns to step S14 of the main routine.

【0084】一方、自動演奏フラグが「1」、即ち、自
動演奏モードであることが判断されると、自動演奏デー
タの読み込みが行われる(ステップS31)。即ち、C
PU10は、カレントポインタで示される自動演奏デー
タメモリ17中の自動演奏データを1つだけ取り出す。
次いで、自動演奏イベントの有無が調べられる(ステッ
プS32)。これは、自動演奏データに含まれているス
テップタイムと図示しないタイムカウンタでカウントア
ップされているタイム値とを比較することにより行われ
る。
On the other hand, when it is determined that the automatic performance flag is "1", that is, the automatic performance mode is set, the automatic performance data is read (step S31). That is, C
The PU 10 retrieves only one piece of automatic performance data in the automatic performance data memory 17 indicated by the current pointer.
Then, it is checked whether or not there is an automatic performance event (step S32). This is done by comparing the step time included in the automatic performance data with the time value counted up by a time counter (not shown).

【0085】ここで、自動演奏イベントが無い、即ち上
記比較の結果が一致しないことが判断されると、未だ発
音又は消音タイミングに至っていない旨が認識され、以
下の処理を行うことなくこの自動演奏処理ルーチンから
リターンしてメインルーチンのステップS14に戻る。
この場合、カレントポインタはインクリメントされずに
元の状態を維持する。従って、ステップS31では次回
も同じ自動演奏データが読み出されることになる。
If it is determined that there is no automatic performance event, that is, the results of the comparison do not match, it is recognized that the timing of sounding or mute has not yet come, and this automatic performance is performed without performing the following processing. The process returns from the processing routine and returns to step S14 of the main routine.
In this case, the current pointer is not incremented and maintains its original state. Therefore, in step S31, the same automatic performance data will be read next time.

【0086】一方、自動演奏イベントが有る、即ち上記
の比較結果が一致することが判断されると、発音又は消
音タイミングが到来した旨が認識され、次いで、自動演
奏データはスピーカセレクトデータであるか否かが調べ
られる(ステップS33)。この場合、カレントポイン
タがインクリメントされる。従って、ステップS31で
は次回は次の自動演奏データが読み出されることにな
る。
On the other hand, when it is determined that there is an automatic performance event, that is, the comparison results are the same, it is recognized that the sounding or mute timing has come, and then the automatic performance data is speaker select data. Whether or not it is checked (step S33). In this case, the current pointer is incremented. Therefore, in step S31, the next automatic performance data will be read next time.

【0087】ここで、スピーカセレクトデータであるこ
とが判断されると、スピーカデータセーブが行われる
(ステップS34)。即ち、スピーカセレクトデータの
1バイト目に含まれるチャンネルナンバ「nH」に対応
するプレイバッファに、4バイト目に含まれるスピーカ
指定情報がセットされる。
If it is determined that the data is speaker select data, the speaker data is saved (step S34). That is, the speaker designation information contained in the 4th byte is set in the play buffer corresponding to the channel number "nH" contained in the 1st byte of the speaker select data.

【0088】これにより、当該チャンネルナンバを有す
る自動演奏データが実行される場合は、使用するスピー
カとして、Aグループのスピーカ又はBグループのスピ
ーカの何れかが選択されることになる。このスピーカデ
ータセーブ処理が終了すると、この自動演奏処理ルーチ
ンからリターンしてメインルーチンのステップS14に
戻る。
As a result, when the automatic performance data having the channel number is executed, either the speaker of the group A or the speaker of the group B is selected as the speaker to be used. When the speaker data save process is completed, the process returns from the automatic performance process routine and returns to step S14 of the main routine.

【0089】上記ステップS33で自動演奏データがス
ピーカセレクトデータでないことが判断されると、次い
で、パンポットセレクトデータであるか否かが調べられ
る(ステップS35)。ここで、パンポットセレクトデ
ータであることが判断されると、パンポットデータセー
ブが行われる(ステップS36)。即ち、パンポットセ
レクトデータの1バイト目に含まれるチャンネルナンバ
「nH」に対応するプレイバッファに、4バイト目に含
まれるパンポット指定情報がセットされる。
If it is determined in step S33 that the automatic performance data is not speaker select data, it is then checked whether or not it is panpot select data (step S35). Here, if it is determined that the data is panpot select data, panpot data save is performed (step S36). That is, the panpot designation information contained in the 4th byte is set in the play buffer corresponding to the channel number "nH" contained in the 1st byte of the panpot select data.

【0090】これにより、当該チャンネルナンバを有す
る自動演奏データが実行される場合は、プレイバッファ
にセットされたパンポット指定情報に従って左右両出力
チャンネルの音量バランスが制御され、音像はパンポッ
ト指定情報で指定された位置に定位が決まる。このパン
ポットデータセーブ処理が終了すると、この自動演奏処
理ルーチンからリターンしてメインルーチンのステップ
S14に戻る。
Thus, when the automatic performance data having the channel number is executed, the volume balance of the left and right output channels is controlled according to the panpot designating information set in the play buffer, and the sound image is the panpot designating information. The localization is determined at the specified position. When this panpot data save processing is completed, the routine returns from this automatic performance processing routine and returns to step S14 of the main routine.

【0091】上記ステップS35で自動演奏データがパ
ンポットセレクトデータでないことが判断されると、次
いで、ノートオンデータであるか否かが調べられる(ス
テップS37)。
When it is determined in step S35 that the automatic performance data is not the panpot select data, it is then checked whether or not it is the note-on data (step S37).

【0092】ここで、ノートオンデータであることが判
断されると、発音処理が行われる(ステップS38)。
この発音処理の詳細は図6のフローチャートに示されて
いる。
If it is determined that the data is note-on data, sound generation processing is performed (step S38).
The details of this tone generation processing are shown in the flowchart of FIG.

【0093】発音処理では、先ず、波形情報のセットが
行われる(ステップS50)。即ち、ノートオンデータ
の1バイト目に含まれるチャンネルナンバ「nH」に対
応するプレイバッファにセットされている音色情報、音
量情報等、及びノートオンデータで指定されたキーナン
バ及びベロシティデータ等に基づいて、読み出すべき楽
音波形データが記憶されている楽音波形メモリ18の波
形アドレス、読み出す速度を指定する周波数データ、読
み出した楽音波形データに付加すべきエンベロープデー
タ、フィルタ係数等を生成し、音源19に送る。
In the tone generation processing, first, the waveform information is set (step S50). That is, based on the tone color information, the volume information, etc. set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data, and the key number and velocity data etc. specified by the note-on data. , The waveform address of the musical tone waveform memory 18 in which the musical tone waveform data to be read out is stored, the frequency data designating the reading speed, the envelope data to be added to the read musical tone waveform data, the filter coefficient, etc. are generated and sent to the sound source 19. .

【0094】次いで、スピーカ決定処理を行う(ステッ
プS51)。即ち、ノートオンデータの1バイト目に含
まれるチャンネルナンバ「nH」に対応するプレイバッ
ファにセットされているスピーカ指定情報を音源19に
送る。これにより、音源19は、生成したデジタル楽音
信号の出力先、即ち、D/A変換器20に送るかD/A
変換器21に送るかを決定する。
Next, speaker determination processing is performed (step S51). That is, the speaker designation information set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data is sent to the sound source 19. As a result, the sound source 19 sends the generated digital musical tone signal to the output destination, that is, the D / A converter 20 or the D / A converter 20.
It is decided whether to send to the converter 21.

【0095】次いで、パンポット決定処理を行う(ステ
ップS52)。即ち、ノートオンデータの1バイト目に
含まれるチャンネルナンバ「nH」に対応するプレイバ
ッファにセットされているパンポット指定情報を音源1
9に送る。これにより、左右両チャンネル用のデジタル
楽音信号に付すべきエンベロープの大きさがそれぞれ加
工され、音像定位が決定される。
Then, a pan pot determination process is performed (step S52). That is, the sound source 1 outputs the panpot designation information set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data.
Send to 9. As a result, the size of the envelope to be added to the digital tone signals for both the left and right channels is processed, and the sound image localization is determined.

【0096】次いで、その他の情報セット処理が行われ
る(ステップS53)。このその他の情報としては、例
えばリバーブ等の音響効果を指定する処理等が含まれ
る。
Next, other information setting processing is performed (step S53). The other information includes, for example, a process of designating a sound effect such as reverb.

【0097】次いで、発音処理を行う(ステップS5
4)。この発音処理は、音源19を駆動することによ
り、先にセットした各情報に基づき所定の楽音を発生さ
せる処理である。即ち、発音が割り当てられたオシレー
タは、楽音波形メモリ18から楽音波形データを読み出
し、これにエンベロープを付加してデジタル楽音信号を
生成する。この音源19で発生されたデジタル楽音信号
は、スピーカセレクトデータに従ってD/A変換器20
又はD/A変換器21に送られる。
Next, a tone generation process is performed (step S5).
4). This tone generation process is a process of driving the sound source 19 to generate a predetermined musical tone based on the previously set information. That is, the oscillator to which the sound is assigned reads the musical tone waveform data from the musical tone waveform memory 18 and adds an envelope to this to generate a digital musical tone signal. The digital tone signal generated by the sound source 19 is converted into the D / A converter 20 according to the speaker select data.
Alternatively, it is sent to the D / A converter 21.

【0098】D/A変換器20又は21では、入力され
たアナログ楽音信号をデジタル楽音信号に変換して増幅
器22及び23又は増幅器24及び25に送る。増幅器
22〜25では所定の増幅が行われたアナログ楽音信号
はスピーカ26〜29に送られる。これによりスピーカ
26〜29から自動演奏データに対応する楽音が放音さ
れる。この発音処理が終了すると、自動演奏処理ルーチ
ンからリターンしてメインルーチンのステップS14に
戻る。
The D / A converter 20 or 21 converts the input analog musical tone signal into a digital musical tone signal and sends it to the amplifiers 22 and 23 or the amplifiers 24 and 25. The analog tone signals, which have been amplified by the amplifiers 22 to 25, are sent to the speakers 26 to 29. As a result, musical tones corresponding to the automatic performance data are emitted from the speakers 26 to 29. When this tone generation process ends, the automatic performance process routine returns and the process returns to step S14 of the main routine.

【0099】自動演奏処理ルーチンでは、上記ステップ
S37でノートオンデータでないことが判断されると、
次いで、ノートオフデータであるか否かが調べられる
(ステップS39)。そして、ノートオフデータである
ことが判断されると、消音処理が行われる(ステップS
40)。
In the automatic performance processing routine, if it is determined in step S37 that it is not note-on data,
Then, it is checked whether or not it is note-off data (step S39). Then, when it is determined that the data is note-off data, the muffling process is performed (step S
40).

【0100】この消音処理は、上述した鍵盤イベント処
理におけるキーオフイベントの場合と同様に、ノートオ
フが指示された楽音に割り当てられているオシレータを
検索し、リリースのエンベロープデータを送る処理であ
る。これにより消音が行われる。その後、この自動演奏
処理ルーチンからリターンしてメインルーチンのステッ
プS14に戻る。
This mute processing is processing for searching the oscillator assigned to the musical sound for which note-off is instructed and sending release envelope data, as in the case of the key-off event in the above-mentioned keyboard event processing. This mutes the sound. Thereafter, the process returns from this automatic performance processing routine and returns to step S14 of the main routine.

【0101】上記ステップS39でノートオフデータで
ないことが判断されると、その他の処理が行われる(ス
テップS41)。この「その他の処理」には、上述した
自動演奏データ以外の自動演奏データに対する処理、例
えば音色変更処理、音量変更処理等が含まれるが、本発
明とは直接関係しないので説明は省略する。この「その
他の処理」が終了するとこの自動演奏処理ルーチンから
リターンしてメインルーチンのステップS14に戻る。
If it is determined in step S39 that the data is not note-off data, other processing is performed (step S41). This "other processing" includes processing for automatic performance data other than the above-described automatic performance data, for example, tone color changing processing, volume changing processing, etc., but since it is not directly related to the present invention, description thereof is omitted. When this "other processing" ends, the routine returns from this automatic performance processing routine and returns to step S14 of the main routine.

【0102】以上説明したように、本実施例によれば、
Aグループ又はBグループのスピーカの何れかをスピー
カ指定情報で指定し、この指定されたグループにより、
自動演奏データメモリ17に記憶された自動演奏データ
に従って生成されたステレオ楽音信号に基づく楽音をス
テレオで放音するようにしている。
As described above, according to this embodiment,
Either the speaker of the A group or the speaker of the B group is designated by the speaker designation information, and by the designated group,
A musical tone based on the stereo musical tone signal generated according to the automatic musical performance data stored in the automatic musical performance data memory 17 is emitted in stereo.

【0103】従って、各グループのスピーカ対のステレ
オ効果により音像定位が異なるように作成された自動演
奏データに基づいて放音されることになるので、生の演
奏に近い立体感や躍動感を有する音像空間を作り出すこ
とができる。
Therefore, the sound is emitted based on the automatic performance data created so that the sound image localization is different due to the stereo effect of the speaker pair of each group, so that a stereoscopic effect and a dynamic feeling similar to a live performance are provided. A sound image space can be created.

【0104】なお、上記実施例では、自動演奏データメ
モリ17に記憶された自動演奏データに基づいてスピー
カの指定やパンポットの制御を行うように構成したが、
外部装置からMIDIインタフェース回路40を介して
送られてくるMIDIデータに基づいてスピーカの指定
やパンポットの制御を行って演奏を行わせるように構成
することもできる。
In the above embodiment, the speaker is designated and the pan pot is controlled based on the automatic performance data stored in the automatic performance data memory 17.
It is also possible to perform the performance by designating the speaker and controlling the panpot based on the MIDI data sent from the external device through the MIDI interface circuit 40.

【0105】この場合、MIDIデータの1つとしてス
ピーカセレクト及びパンポットセレクトのデータを定義
し、これをパート毎に設けられたプレイバッファにセッ
トして発音に用いるスピーカの選択及びパンポットの設
定を行うように構成する。MIDIデータの形式は、例
えば図7(B)に示したような構成とすることができ
る。
In this case, speaker select and panpot select data is defined as one of the MIDI data, and this is set in the play buffer provided for each part to select the speaker used for sound generation and the panpot setting. Configure to do. The format of MIDI data can be configured as shown in FIG. 7B, for example.

【0106】同図(A)に示した自動演奏データの形式
とは、ステップタイム情報を有していない点で異なって
いるが、これは、受信したMIDIデータは順次実行さ
れるのでステップタイムは不要であるためである。その
他のデータは上述した自動演奏データと同じである。
It differs from the format of the automatic performance data shown in FIG. 9A in that it does not have step time information. However, this is because the received MIDI data is sequentially executed and the step time is This is because it is unnecessary. Other data is the same as the above-mentioned automatic performance data.

【0107】また、上記実施例では、自動演奏データ又
はMIDIデータの1つとしてスピーカセレクト及びパ
ンポットセレクトのデータを定義し、これらのデータが
出現する度にプレイバッファの内容を変更してスピーカ
の選択やパンポットの制御を行うように構成したが、ス
ピーカの選択やパンポットの制御は次のようにして行う
こともできる。
In the above embodiment, the speaker select and panpot select data are defined as one of the automatic performance data or MIDI data, and the contents of the play buffer are changed every time these data appear. Although the configuration is such that selection and panpot control are performed, speaker selection and panpot control can also be performed as follows.

【0108】即ち、各自動演奏曲に対応付けて各パート
(チャンネルナンバ)のスピーカセレクトデータ及びパ
ンポットセレクトデータを例えばテーブルとして自動演
奏データメモリ17に記憶せしめておき、演奏開始時
に、これらを読み出してプレイバッファにセットするよ
うに構成する。かかる構成によれば、自動演奏データや
MIDIデータ中にスピーカセレクト又はパンポットセ
レクトのためのデータが出現しないので、処理が容易に
なるという利点がある。
That is, the speaker select data and panpot select data of each part (channel number) are stored as a table in the automatic performance data memory 17 in association with each automatic performance tune, and these are read at the start of the performance. And set it in the play buffer. According to such a configuration, data for speaker selection or panpot selection does not appear in the automatic performance data or MIDI data, so that there is an advantage that the processing becomes easy.

【0109】更に、上記実施例では、スピーカセレクト
データを用いて発音に使用するスピーカを決定するよう
に構成したが、操作パネル14のスイッチを操作するこ
とにより発音に使用するスピーカを決定するように構成
しても良い。これは、スイッチ操作に伴ってプレイバッ
ファのスピーカ指定情報を書き換えるように構成するこ
とにより実現される。かかる構成によれば、自動演奏デ
ータとは無関係に、演奏者の好みのタイミングで音像を
変化させることができる。
Further, in the above embodiment, the speaker used for sounding is determined by using the speaker select data, but the speaker used for sounding is determined by operating the switch of the operation panel 14. It may be configured. This is realized by rewriting the speaker designation information in the play buffer in accordance with the switch operation. With such a configuration, the sound image can be changed at the timing desired by the performer, regardless of the automatic performance data.

【0110】また、図1に示した構成で、音源19とD
/A変換器20、21との間にデジタルシグナルプロセ
ッサ(DSP)を設けたり、或いはD/A変換器20、
21と増幅器22〜25との間にアナログフィルターを
設け、種々の音楽的効果を発揮させるように構成しても
良い。
Further, with the configuration shown in FIG.
A digital signal processor (DSP) is provided between the A / A converters 20 and 21, or the D / A converters 20,
An analog filter may be provided between the amplifier 21 and the amplifiers 22 to 25 so as to exert various musical effects.

【0111】この場合、上述したAグループのスピーカ
でステレオ再生される楽音と、Bグループのスピーカで
ステレオ再生される楽音とを別の楽器音にし、それぞれ
所定の周波数特性を有するアナログフィルターを用いる
ことにより、音像が明瞭になり、よりリアルな演奏が可
能となる。
In this case, the musical tones reproduced in stereo by the speakers of the group A and the musical tones reproduced in stereo by the speakers of the group B should be different musical instrument sounds, and analog filters each having a predetermined frequency characteristic should be used. As a result, the sound image becomes clear and a more realistic performance becomes possible.

【0112】次に、各スピーカに対するパートの割り当
ての一例を以下に示す。基本的には、Aグループのスピ
ーカには高い音域を有する楽器音が、Bグループのスピ
ーカには低い音域を有する楽器音が割り当てられる。 <パート> <グループ> ドラム(メイン) Bグループ ベース Bグループ オーケストラ1、2 Bグループ コード1、2 A+Bグループ ドラム(サブ) Aグループ
Next, an example of part allocation to each speaker will be shown below. Basically, an instrumental sound having a high range is assigned to the speaker of the A group, and an instrumental sound having a low range is assigned to the speaker of the B group. <Part><Group> Drum (main) B group B group B orchestra 1, 2 B group chords 1, 2 A + B group drum (sub) A group

【0113】上述したように、Aグループのスピーカ2
6及び27による音像は、両スピーカ26及び27を結
ぶ線より図中手前側に定位が決まる。Bグループのスピ
ーカ28及び29による音像は、両スピーカ28及び2
9を結ぶ線より図中手前側に定位が決まる。
As described above, the speaker 2 of the A group
The sound images of 6 and 27 are localized on the front side in the figure with respect to the line connecting both speakers 26 and 27. The sound images from the speakers 28 and 29 of the B group are both speakers 28 and 2
The localization is determined on the front side of the figure from the line connecting 9.

【0114】従って、A、Bグループに同一音色データ
を割り当てた場合は、各グループの定位と音量レベルに
より二次元的な定位を決定することができる。また、各
データの混合割合によって音像を前後方向へ移動させ、
ピッチを相違せしめることによりコーラス効果を発生さ
せることにより、図8に示すように、斜め奥方向への広
がりを作ることができる。
Therefore, when the same tone color data is assigned to the A and B groups, the two-dimensional localization can be determined by the localization and volume level of each group. In addition, the sound image is moved forward and backward according to the mixing ratio of each data,
By generating a chorus effect by making the pitches different, it is possible to create a spread in the diagonal back direction as shown in FIG.

【0115】また、上記実施例では、Aグループ及びB
グループといった2組のステレオ再生系により音像を制
御するように構成したが、3組或いはそれ以上のステレ
オ再生系により音像を制御するように構成しても良い。
かかる構成によれば、更に複雑な音場を形成することが
できるので、よりリアルな演奏を行わせることができ
る。
Further, in the above embodiment, the A group and the B group are
Although the sound image is controlled by two sets of stereo reproduction systems such as groups, the sound image may be controlled by three sets or more of stereo reproduction systems.
With such a configuration, a more complicated sound field can be formed, so that a more realistic performance can be performed.

【0116】以上説明した実施例では、2個のスピーカ
26及び27で成るAグループ、2個のスピーカ28及
び29で成るBグループといった2組のステレオ再系生
により音像を制御するようにしたが、上記4個の各スピ
ーカ26〜29を演奏者の前後左右上下の所定の4箇所
に配置し、各スピーカ26〜29で独立の楽音を発生さ
せることにより1つの音像を制御するように構成しても
良い。
In the embodiment described above, the sound image is controlled by two sets of stereo reproduction such as the A group consisting of the two speakers 26 and 27 and the B group consisting of the two speakers 28 and 29. The four speakers 26 to 29 are arranged at predetermined four positions on the front, rear, left, right, and top and bottom of the player, and each speaker 26 to 29 generates an independent musical sound to control one sound image. May be.

【0117】この場合、スピーカセレクトデータのスピ
ーカ指定情報は、4個のスピーカ26〜29の何れかを
独立して指定するように定義し、パンポットセレクトデ
ータのパンポット指定情報は、三次元空間におけるパン
ポット位置を指定するように定義する。
In this case, the speaker specifying information of the speaker select data is defined so as to specify any one of the four speakers 26 to 29 independently, and the panpot specifying information of the panpot select data is the three-dimensional space. Define to specify the panpot position in.

【0118】かかる構成によれば、任意の音像空間を作
り出すことができ、生の演奏に近い立体感や躍動感を有
する迫力に富んだ音像を得ることができる。
According to such a configuration, an arbitrary sound image space can be created, and a powerful sound image having a three-dimensional effect and a dynamic feeling similar to a live performance can be obtained.

【0119】[0119]

【発明の効果】以上詳述したように、本発明によれば、
生の演奏に近い立体感や躍動感を有し、臨場感に溢れた
音像を得ることのできる電子楽器を提供できる。
As described in detail above, according to the present invention,
It is possible to provide an electronic musical instrument that has a stereoscopic effect and a dynamic feeling similar to a live performance, and can obtain a realistic sound image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の電子楽器の実施例の概略的な構成を示
すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an electronic musical instrument of the present invention.

【図2】本発明に係る電子楽器の外観を示す平面図及び
側面図である。
FIG. 2 is a plan view and a side view showing an external appearance of an electronic musical instrument according to the present invention.

【図3】本発明の実施例の動作を示すフローチャート
(メインルーチン)である。
FIG. 3 is a flowchart (main routine) showing the operation of the embodiment of the present invention.

【図4】本発明の実施例の動作を示すフローチャート
(スイッチイベント処理ルーチン)である。
FIG. 4 is a flowchart (switch event processing routine) showing the operation of the embodiment of the present invention.

【図5】本発明の実施例の動作を示すフローチャート
(自動演奏処理ルーチン)である。
FIG. 5 is a flowchart (automatic performance processing routine) showing the operation of the embodiment of the present invention.

【図6】本発明の実施例の動作を示すフローチャート
(発音処理ルーチン)である。
FIG. 6 is a flowchart (sound generation processing routine) showing the operation of the embodiment of the present invention.

【図7】本発明の実施例で使用される自動演奏データ及
びMIDIデータの形式の一例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of formats of automatic performance data and MIDI data used in an embodiment of the present invention.

【図8】本発明の実施例を適用した場合の音場の一例を
説明するための図である。
FIG. 8 is a diagram for explaining an example of a sound field when the embodiment of the present invention is applied.

【符号の説明】[Explanation of symbols]

10 CPU 11 プログラムメモリ 12 RAM 13 パネルインタフェース回路 14 操作パネル 15 鍵盤インタフェース回路 16 鍵盤装置 17 自動演奏データメモリ 18 楽音波形メモリ 19 音源 20、21 D/A変換器 22〜25 増幅器 26〜29 スピーカ 30 システムバス 40 MIDIインタフェース回路 50 開口部 10 CPU 11 Program Memory 12 RAM 13 Panel Interface Circuit 14 Operation Panel 15 Keyboard Interface Circuit 16 Keyboard Device 17 Automatic Performance Data Memory 18 Musical Sound Waveform Memory 19 Sound Source 20, 21 D / A Converter 22-25 Amplifier 26-29 Speaker 30 System Bus 40 MIDI interface circuit 50 Opening

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 楽音を放音する少なくとも4つの放音手
段と、 該4つの放音手段の何れかを指定する指定手段と、 自動演奏データが記憶された記憶手段と、 該記憶手段に記憶された自動演奏データに従って楽音信
号を生成する楽音信号生成手段と、 該楽音信号生成手段で生成された楽音信号を、前記指定
手段で指定された放音手段に与える制御手段、 とを具備したことを特徴とする電子楽器。
1. At least four sound emitting means for emitting a musical sound, designating means for designating any one of the four sound emitting means, storage means for storing automatic performance data, and storage in the storage means. Music tone signal generating means for generating a tone signal in accordance with the generated automatic performance data, and control means for giving the tone signal generated by the tone signal generating means to the sound emitting means designated by the designating means. An electronic musical instrument characterized by.
【請求項2】 2個が1対となって楽音をステレオ再生
するスピーカ対を少なくとも2組有する電子楽器であっ
て、 前記少なくとも2組のスピーカ対の何れかを指定する指
定手段と、 自動演奏データが記憶された記憶手段と、 該記憶手段に記憶された自動演奏データに従って1対の
ステレオ楽音信号を生成する楽音信号生成手段と、 該楽音信号生成手段で生成された1対のステレオ楽音信
号を、前記指定手段で指定されたスピーカ対に与える制
御手段、 とを具備したことを特徴とする電子楽器。
2. An electronic musical instrument having at least two speaker pairs for stereo reproduction of a musical sound, two of which are a pair, and a specifying means for specifying any one of the at least two speaker pairs, and an automatic performance. Data storing means, musical tone signal generating means for generating a pair of stereo musical tone signals according to the automatic performance data stored in the storing means, and a pair of stereo musical tone signals generated by the musical tone signal generating means. And a control means for giving the speaker pair designated by the designation means to the electronic musical instrument.
JP5095101A 1993-03-31 1993-03-31 Electronic musical instrument Expired - Fee Related JP2983122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5095101A JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5095101A JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH06289860A true JPH06289860A (en) 1994-10-18
JP2983122B2 JP2983122B2 (en) 1999-11-29

Family

ID=14128491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5095101A Expired - Fee Related JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2983122B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009501463A (en) * 2005-07-15 2009-01-15 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. Apparatus and method for controlling a plurality of speakers by a DSP
JP2009198947A (en) * 2008-02-25 2009-09-03 Yamaha Corp Music signal output device
JP2009244339A (en) * 2008-03-28 2009-10-22 Kawai Musical Instr Mfg Co Ltd Electronic musical tone generation device and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009501463A (en) * 2005-07-15 2009-01-15 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. Apparatus and method for controlling a plurality of speakers by a DSP
US8160280B2 (en) 2005-07-15 2012-04-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for controlling a plurality of speakers by means of a DSP
JP2009198947A (en) * 2008-02-25 2009-09-03 Yamaha Corp Music signal output device
JP2009244339A (en) * 2008-03-28 2009-10-22 Kawai Musical Instr Mfg Co Ltd Electronic musical tone generation device and computer program

Also Published As

Publication number Publication date
JP2983122B2 (en) 1999-11-29

Similar Documents

Publication Publication Date Title
JPH0744183A (en) Karaoke playing device
JP3353595B2 (en) Automatic performance equipment and karaoke equipment
JP3259846B2 (en) Music signal generator
JPH06259065A (en) Electronic musical instrument
JP2983122B2 (en) Electronic musical instrument
JP2605885B2 (en) Tone generator
JPH06332449A (en) Singing voice reproducing device for electronic musical instrument
JP3312939B2 (en) Electronic musical instrument
JPH06348258A (en) Automatic playing device of electronic musical instrument
JP3112633B2 (en) Electronic keyboard instrument
JP2888712B2 (en) Music generator
JPH06242781A (en) Electronic musical instrument
JP3048206B2 (en) Sound equipment for electronic musical instruments
JP3136701B2 (en) Music signal generator
JPH10274985A (en) Automatic arpeggio performance device and arpeggio performance system
JP3753087B2 (en) Electronic musical instrument, differential sound output device, program, and recording medium
JP2730549B2 (en) Electronic musical instrument
JP3105132B2 (en) Tone generator for electronic musical instruments
JPH10319949A (en) Electronic musical instrument
JP2953937B2 (en) Electronic musical instrument volume control device
JP3385515B2 (en) Composite piano
JP3375220B2 (en) Electronic musical instrument
JPH06250657A (en) Electronic musical instrument
JPH07181963A (en) Musical sound signal generating device for electronic musical instrument
JPH06250650A (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990913

LAPS Cancellation because of no payment of annual fees