JP2983122B2 - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JP2983122B2
JP2983122B2 JP5095101A JP9510193A JP2983122B2 JP 2983122 B2 JP2983122 B2 JP 2983122B2 JP 5095101 A JP5095101 A JP 5095101A JP 9510193 A JP9510193 A JP 9510193A JP 2983122 B2 JP2983122 B2 JP 2983122B2
Authority
JP
Japan
Prior art keywords
speaker
data
automatic performance
tone
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5095101A
Other languages
Japanese (ja)
Other versions
JPH06289860A (en
Inventor
定資 和久田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP5095101A priority Critical patent/JP2983122B2/en
Publication of JPH06289860A publication Critical patent/JPH06289860A/en
Application granted granted Critical
Publication of JP2983122B2 publication Critical patent/JP2983122B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、複数の出力系統を有す
る電子楽器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument having a plurality of output systems.

【0002】[0002]

【従来の技術】従来、電子キーボードと呼ばれる電子楽
器が開発され実用に供されている。かかる電子キーボー
ドは、1チャンネル又は2チャンネルの出力系統を有す
る。即ち、音源からスピーカ(又は出力端子)に至るま
でのハードウエア、及びこのハードウエアを駆動して所
定の楽音を発生させるためのソフトウエアは、最大2チ
ャンネルの発音を行うべく構成されている。
2. Description of the Related Art Conventionally, electronic musical instruments called electronic keyboards have been developed and put to practical use. Such an electronic keyboard has a one-channel or two-channel output system. That is, hardware from a sound source to a speaker (or an output terminal) and software for driving this hardware to generate a predetermined musical sound are configured to generate a maximum of two channels.

【0003】上記1チャンネルの出力系統しか持たない
電子キーボードはモノラル演奏しか実現できないが、2
チャンネルの出力系統を有する電子キーボードは、ステ
レオ再生による演奏が可能となっている。
The above-mentioned electronic keyboard having only one channel output system can realize only monaural performance.
An electronic keyboard having a channel output system can perform performance by stereo reproduction.

【0004】一方、上記のような電子キーボードは、一
般に、自動演奏機能を備えており、この自動演奏機能を
用いることにより、所定のパートの演奏を自動演奏に任
せ、特定パートを演奏者が弾くという演奏形態ができる
ようになっている。例えば、ドラム、ベース、ピアノと
いった各パートの楽音を自動伴奏させながら、例えばト
ランペットの音色でメロディを演奏するという演奏形態
や、オーケストラの自動伴奏をバックに特定楽器の音色
でメロディを演奏するという演奏形態をとることができ
る。
On the other hand, the above-mentioned electronic keyboard generally has an automatic performance function. By using this automatic performance function, the performance of a predetermined part is left to the automatic performance, and the player plays a specific part. It is possible to have a performance form called. For example, a performance mode in which a melody is played with the sound of a trumpet while automatically playing the musical tones of each part, such as a drum, bass, and piano, or a performance in which a melody is played with the sound of a specific instrument with the automatic accompaniment of an orchestra It can take the form.

【0005】上記のような自動演奏機能は、例えばマル
チ音源を用いて実現されている。即ち、各パートに対し
て音源を割り当て、予め自動演奏データ用のメモリ(又
はシーケンサ)に記憶された各パートの自動演奏データ
を順次読み出し、これを上記割り当てられた音源に送っ
て同時発音させることにより実現されている。
[0005] The automatic performance function as described above is realized by using, for example, a multi sound source. That is, a sound source is assigned to each part, and the automatic performance data of each part stored in advance in a memory (or a sequencer) for automatic performance data is sequentially read out, and is sent to the allocated sound source to simultaneously generate sounds. Has been realized.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、出力系
統が1チャンネルしかない電子キーボードは、モノラル
演奏しかできないので音の立体感に乏しいという欠点が
ある。そこで、最近は2チャンネルの出力系統を有する
電子キーボードが主流となっている。
However, an electronic keyboard having only one output channel has a drawback that the stereoscopic effect of sound is poor because it can only play monaural. Therefore, recently, an electronic keyboard having a two-channel output system has become mainstream.

【0007】2チャンネルの出力系統を有する電子キー
ボードでは、ステレオ再生により音像定位を制御するこ
とができるので、臨場感に溢れた演奏が可能となってい
る。しかしながら、例えばオーケストラ等のように、複
数の楽器音が含まれる自動演奏データを再生する場合に
は、2チャンネルの出力系統で形成される音像は、生の
演奏における音像に比べ、立体感や躍動感に乏しく平面
的に聞こえてしまうという問題があった。
[0007] In an electronic keyboard having a two-channel output system, sound image localization can be controlled by stereo reproduction, so that a performance full of a sense of reality can be performed. However, when playing back automatic performance data including a plurality of instrument sounds, such as in an orchestra, the sound image formed by the two-channel output system has a three-dimensional effect and a dynamic effect compared to a sound image in a live performance. There was a problem that the sound was poor and the sound seemed flat.

【0008】本発明は、かかる事情に鑑みてなされたも
のであり、生の演奏に近い立体感や躍動感を有し、臨場
感に溢れた音像を得ることのできる電子楽器を提供する
ことを目的とする。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an electronic musical instrument having a three-dimensional feeling and a dynamism similar to a live performance and capable of obtaining a sound image full of a sense of reality. Aim.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様に係る電子楽器は、楽音を放音
する少なくとも4つの放音手段と、該4つの放音手段の
何れかを指定する指定手段と、自動演奏データが記憶さ
れた記憶手段と、該記憶手段に記憶された自動演奏デー
タに従って楽音信号を生成する楽音信号生成手段と、該
楽音信号生成手段で生成された楽音信号を、前記指定手
段で指定された放音手段に与える制御手段、とを具備し
たことを特徴とする。
To achieve the above object, an electronic musical instrument according to a first aspect of the present invention comprises at least four sound emitting means for emitting musical tones, and at least four of the four sound emitting means. Designation means for designating any one of them, storage means for storing automatic performance data, tone signal generation means for generating a tone signal according to the automatic performance data stored in the storage means, and tone signal generation means for Control means for supplying the generated tone signal to the sound emitting means specified by the specifying means.

【0010】また、同様の目的で、本発明の第2の態様
に係る電子楽器は、2個が1対となって楽音をステレオ
再生するスピーカ対を少なくとも2組有する電子楽器で
あって、前記少なくとも2組のスピーカ対の何れかを指
定する指定手段と、自動演奏データが記憶された記憶手
段と、該記憶手段に記憶された自動演奏データに従って
1対のステレオ楽音信号を生成する楽音信号生成手段
と、該楽音信号生成手段で生成された1対のステレオ楽
音信号を、前記指定手段で指定されたスピーカ対に与え
る制御手段、とを具備したことを特徴とする。
[0010] For the same purpose, the second aspect of the present invention.
A designation unit electronic musical instrument, two is an electronic musical instrument having at least two sets of speaker pair stereo playback tone becomes a pair, to specify one of said at least two sets of speaker pairs according to an automatic Storage means for storing performance data, tone signal generation means for generating a pair of stereo tone signals in accordance with the automatic performance data stored in the storage means, and a pair of stereo tones generated by the tone signal generation means; Control means for providing a signal to the speaker pair designated by the designation means.

【0011】[0011]

【作用】本発明の第1の態様に係る電子楽器において
は、少なくとも4つ備えられた放音手段の何れかを指定
手段で指定し、この指定された放音手段により、記憶手
段に記憶された自動演奏データに従って生成された楽音
信号に基づく楽音を放音するようにしている。上記指定
手段としては、例えば記憶手段に自動演奏データの一種
として記憶された特別のデータ、或いは操作パネル等に
設けられた操作子を用いることができる。
In the electronic musical instrument according to the first aspect of the present invention, one of at least four sound emitting means is designated by the designating means, and the designated sound emitting means stores the sound in the storage means. The musical tone based on the musical tone signal generated according to the automatic performance data is emitted. As the designation means, for example, special data stored as one type of automatic performance data in the storage means, or an operation element provided on an operation panel or the like can be used.

【0012】これにより、例えば放音手段としてのスピ
ーカを、例えば聴者の前後左右上下等の少なくとも4点
に配置し、このスピーカの配置に合わせて作成された自
動演奏データに基づいて放音されることになるので、任
意の音像空間を作り出すことができ、生の演奏に近い立
体感や躍動感を有する音像を得ることができる。
Thus, for example, speakers as sound emitting means are arranged at at least four points, for example, front, rear, left, right, up, down, etc., and sound is emitted based on automatic performance data created according to the arrangement of the speakers. Therefore, an arbitrary sound image space can be created, and a sound image having a three-dimensional feeling and a sense of dynamism similar to a live performance can be obtained.

【0013】本発明の第2の態様に係る電子楽器におい
ては、少なくとも2組備えられたスピーカ対の何れか1
組のスピーカ対を指定手段で指定し、この指定されたス
ピーカ対により、記憶手段に記憶された自動演奏データ
に従って生成されたステレオ楽音信号に基づく楽音をス
テレオで放音するようにしている。この場合も、上記指
定手段としては、例えば記憶手段に自動演奏データの一
種として記憶された特別のデータ、或いは操作パネル等
に設けられた操作子を用いることができる。
[0013] In the electronic musical instrument according to the second aspect of the present invention , any one of at least two pairs of speakers is provided.
A set of speaker pairs is designated by a designation unit, and the designated speaker pair emits in stereo a tone based on a stereo tone signal generated according to the automatic performance data stored in the storage unit. Also in this case, as the designation means, for example, special data stored as one type of automatic performance data in the storage means, or an operator provided on an operation panel or the like can be used.

【0014】従って、各スピーカ対のステレオ効果によ
り音像定位が異なるように作成された自動演奏データに
基づいて放音されることになるので、生の演奏に近い立
体感や躍動感を有する音像空間を作り出すことができ
る。
Accordingly, since sound is emitted based on the automatic performance data created so that the sound image localization is different due to the stereo effect of each speaker pair, a sound image space having a three-dimensional feeling and a lively feeling similar to a live performance. Can be produced.

【0015】[0015]

【実施例】以下、本発明の電子楽器の実施例につき、本
発明の特徴に関係する出力系統に係る部分の構成及び動
作を中心に図面を参照しながら詳細に説明する。なお、
本実施例では、「16」のパート(1つの楽音を発生さ
せるための制御単位であり、16個のMIDIチャンネ
ルに対応している)と、「4」の出力チャンネル(放音
するチャンネル)を有するものとして説明するが、これ
に限定されるものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an electronic musical instrument according to the present invention will be described below in detail with reference to the drawings, focusing on the configuration and operation of a portion related to an output system related to the features of the present invention. In addition,
In the present embodiment, the part of “16” (a control unit for generating one musical tone, corresponding to 16 MIDI channels) and the output channel of “4” (channel for emitting sound) Although it is described as having, it is not limited to this.

【0016】図1は、本発明の電子楽器の実施例の概略
構成を示すブロック図である。本電子楽器の主要構成要
素である、中央処理装置(以下、「CPU」という)1
0、プログラムメモリ11、RAM12、パネルインタ
フェース回路13、鍵盤インタフェース回路15、自動
演奏データメモリ17、楽音波形メモリ19及び音源
(トーンジェネレータ)18は、システムバス30を介
して相互に接続されている。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an electronic musical instrument according to the present invention. Central processing unit (hereinafter referred to as “CPU”) 1 which is a main component of the electronic musical instrument
0, a program memory 11, a RAM 12, a panel interface circuit 13, a keyboard interface circuit 15, an automatic performance data memory 17, a musical tone waveform memory 19, and a tone generator (tone generator) 18 are interconnected via a system bus 30.

【0017】システムバス30は、例えばアドレス線、
データ線及び制御信号線等で成るバスラインであり、上
記各構成要素間において各種データの送受を行うために
使用されるものである。このシステムバス30は、CP
U10と音源19とにより時分割で使用される。
The system bus 30 includes, for example, an address line,
A bus line composed of a data line, a control signal line, and the like, which is used for transmitting and receiving various data between the above-described components. This system bus 30 has a CP
U10 and the sound source 19 are used in time division.

【0018】上記CPU10は、プログラムメモリ11
に格納されている制御プログラムに従って、本電子楽器
の全体を制御するものである。例えば、CPU10は、
操作パネル14からパネルインタフェース回路13を経
由して音色ナンバを取り込み、また、鍵盤装置16から
鍵盤インタフェース回路15を経由してキーナンバ、イ
ニシャルタッチデータ等を取り込み、これら各データに
基づいて、例えば波形アドレス、周波数データ、エンベ
ロープデータ、フィルタ係数等を生成して音源19に送
ることにより所定の楽音を発生させる処理等を行う。
The CPU 10 includes a program memory 11
In accordance with a control program stored in the electronic musical instrument. For example, the CPU 10
A tone number is fetched from the operation panel 14 via the panel interface circuit 13, and a key number, initial touch data, etc. are fetched from the keyboard device 16 via the keyboard interface circuit 15. , Frequency data, envelope data, filter coefficients, and the like are generated and sent to the sound source 19 to generate a predetermined tone.

【0019】また、CPU10は、システムバス30を
介して自動演奏データメモリ17から自動演奏データを
読み出し、これに所定の変換を施してシステムバス30
を介して音源19に送ることにより、所定の自動演奏を
行わせる処理を行う。
The CPU 10 reads out automatic performance data from the automatic performance data memory 17 via the system bus 30, performs a predetermined conversion on the automatic performance data, and
To perform a predetermined automatic performance by sending the sound to the sound source 19 via the.

【0020】このCPU10には、自動演奏用のタイム
カウンタが内蔵されている。このタイムカウンタは、所
定のスタート指令により動作が開始され、以降は一定周
期でカウントアップ動作を行うものである。このタイム
カウンタは、後述する自動演奏処理において発音又は消
音のタイミングを検出するために使用される。
The CPU 10 has a built-in time counter for automatic performance. The operation of the time counter is started by a predetermined start command, and thereafter, the time counter performs a count-up operation at a constant cycle. This time counter is used for detecting the timing of sound generation or mute in the automatic performance processing described later.

【0021】また、このCPU10には、専用線を介し
てMIDIインタフェース回路40が接続されている。
MIDIインタフェース回路40は、本電子楽器と外部
装置との間のMIDIデータの受け渡しを制御するもの
である。外部装置としては、例えばMIDIデータを処
理するパーソナルコンピュータ、シーケンサ或いは他の
電子楽器等を挙げることができる。
A MIDI interface circuit 40 is connected to the CPU 10 via a dedicated line.
The MIDI interface circuit 40 controls the transfer of MIDI data between the electronic musical instrument and an external device. Examples of the external device include a personal computer, a sequencer, and other electronic musical instruments that process MIDI data.

【0022】上記プログラムメモリ11は、例えばRO
Mで構成されるものであり、上述したCPU10を動作
させるための制御プログラムが記憶されている他、CP
U10が各種処理に用いる種々の固定データが記憶され
ている。
The program memory 11 has, for example, an RO
M, in which a control program for operating the above-described CPU 10 is stored.
Various fixed data used by U10 for various processes are stored.

【0023】このプログラムメモリ11の記憶内容は、
システムバス30を介してCPU10により読み出され
る。即ち、CPU10は、システムバス30を介してプ
ログラムメモリ11から制御プログラム(命令)を読み
出して解釈・実行すると共に、所定の固定データを読み
出して各種処理に使用する。
The contents stored in the program memory 11 are as follows:
It is read by the CPU 10 via the system bus 30. That is, the CPU 10 reads out and interprets and executes a control program (instruction) from the program memory 11 via the system bus 30, and reads out predetermined fixed data to use for various processes.

【0024】上記RAM12は、制御プログラムの実行
に用いる種々のデータを一時記憶するものであり、例え
ばデータバッファ、レジスタ、フラグ等の各領域が定義
されている。このRAM12は、システムバス30を介
してCPU10によりアクセスされる。
The RAM 12 temporarily stores various data used for executing the control program, and defines areas such as a data buffer, a register, and a flag. The RAM 12 is accessed by the CPU 10 via the system bus 30.

【0025】上記パネルインタフェース回路13には、
操作パネル14が接続されている。この操作パネル14
は、本電子楽器に各種動作を指示するために用いられる
ものであり、例えば図2の外観平面図に示すように、本
電子楽器の略中央に配置されている。この操作パネル1
4には、例えば各種スイッチ及び表示器等が設けられて
いる。
The panel interface circuit 13 includes:
The operation panel 14 is connected. This operation panel 14
Is used to instruct the electronic musical instrument to perform various operations. For example, as shown in an external plan view of FIG. 2, the electronic musical instrument is disposed substantially at the center of the electronic musical instrument. This operation panel 1
4 is provided with, for example, various switches and a display.

【0026】上記各種スイッチには、詳細は図示しない
が、本電子楽器を制御するための種々のスイッチ、例え
ば、音色選択スイッチ、音量制御スイッチ、リズム選択
スイッチ、リバーブスイッチ等の音響効果スイッチ、自
動演奏スイッチ等が含まれている。
Although not shown in detail, various switches for controlling the electronic musical instrument, such as a sound effect switch such as a tone selection switch, a volume control switch, a rhythm selection switch, a reverb switch, an automatic switch, etc. A performance switch and the like are included.

【0027】上記音色選択スイッチは本電子楽器に用意
されている複数音色の中から1つの音色を選択するため
に使用され、音量制御スイッチは音量を制御するために
使用され、リズム選択スイッチは複数リズムの中から1
つのリズムを選択するために使用され、音響効果スイッ
チは音響効果の種類(例えばリバーブ)を指定するため
に使用され、自動演奏スイッチは自動演奏の開始又は停
止を制御するために使用されるものである。
The tone selection switch is used to select one tone from a plurality of tones prepared in the electronic musical instrument. The volume control switch is used to control the volume. 1 out of the rhythm
The sound effect switch is used to specify the type of sound effect (eg, reverb), and the automatic performance switch is used to control the start or stop of automatic performance. is there.

【0028】また、表示器は、例えば電子楽器の状態や
各種メッセージを文字等で表示するLCD表示器、各ス
イッチの設定状態を示すLED表示器等が含まれる。こ
れら表示器の表示制御はCPU10によって行われる。
The display includes, for example, an LCD display for displaying the state of the electronic musical instrument and various messages in characters and the like, an LED display for indicating the setting state of each switch, and the like. The display of these displays is controlled by the CPU 10.

【0029】なお、後述するように、各パートの自動演
奏データに基づく楽音を放音するスピーカを操作パネル
14から指定する構成の場合は、この操作パネル14に
スピーカを指定するための指定手段としてのスイッチが
設けられる。
As will be described later, in the case where a speaker for emitting a musical tone based on the automatic performance data of each part is designated from the operation panel 14, the operation panel 14 is used as designation means for designating a speaker. Is provided.

【0030】上記パネルインタフェース回路13は、操
作パネル14とCPU10との間のデータの送受を制御
するものである。即ち、パネルインタフェース回路13
は操作パネル14に対してスキャン信号を送出し、この
スキャン信号に応答して操作パネル14から返送される
各スイッチのオン/オフを示す信号を入力する。
The panel interface circuit 13 controls transmission and reception of data between the operation panel 14 and the CPU 10. That is, the panel interface circuit 13
Sends a scan signal to the operation panel 14 and inputs a signal indicating ON / OFF of each switch returned from the operation panel 14 in response to the scan signal.

【0031】そして、この信号から各スイッチのオン/
オフをビットに対応させて成るパネルデータを生成し、
システムバス30を介してCPU10に送る。このパネ
ルデータは、CPU10の制御の下にRAM12に格納
され、パネルイベントの有無の判断に使用される(詳細
は後述する)。
Then, based on this signal, each switch is turned on / off.
Generate panel data that corresponds to OFF bits,
It is sent to the CPU 10 via the system bus 30. This panel data is stored in the RAM 12 under the control of the CPU 10, and is used to determine the presence or absence of a panel event (details will be described later).

【0032】また、パネルインタフェース回路13は、
CPU10からシステムバス30を介して送られてきた
表示用データを操作パネル14に送る。これにより、操
作パネル14に設けられたLCD表示器の表示内容の変
更等、又はLED表示器の点灯又は消灯制御が行われ
る。
Further, the panel interface circuit 13 includes:
The display data sent from the CPU 10 via the system bus 30 is sent to the operation panel 14. As a result, a change of the display content of the LCD display provided on the operation panel 14 or the turning on / off of the LED display is performed.

【0033】上記鍵盤インタフェース回路15には鍵盤
装置16が接続されている。鍵盤装置16は、音高を指
示するための複数の鍵を有する。この鍵盤装置16とし
ては、例えば2接点方式の鍵盤装置が用いられ、鍵のオ
ン/オフと共に、イニシャルタッチデータを検出するこ
とができるようになっている。即ち、鍵盤装置16の各
鍵は、押鍵又は離鍵動作によってオン/オフする2個の
キースイッチを有し、それぞれのキースイッチは異なる
押圧深さでオン/オフされる。
A keyboard device 16 is connected to the keyboard interface circuit 15. The keyboard device 16 has a plurality of keys for indicating a pitch. As the keyboard device 16, for example, a two-contact keyboard device is used, and it is possible to detect initial touch data as well as turning on / off a key. That is, each key of the keyboard device 16 has two key switches that are turned on / off by a key press or key release operation, and each key switch is turned on / off at a different pressing depth.

【0034】鍵盤インタフェース回路15は、鍵盤装置
16とCPU10との間のデータの送受を制御するもの
である。具体的には、鍵盤インタフェース回路15は、
鍵盤装置16に対してスキャン信号を送出し、このスキ
ャン信号に応答して鍵盤装置16から返送される各キー
の2個のキースイッチのオン/オフ状態示す信号を受け
取る。
The keyboard interface circuit 15 controls transmission and reception of data between the keyboard device 16 and the CPU 10. Specifically, the keyboard interface circuit 15
A scan signal is transmitted to the keyboard device 16, and a signal indicating the on / off state of two key switches of each key returned from the keyboard device 16 in response to the scan signal is received.

【0035】そして、この受け取った信号から、各鍵の
オン/オフをビットに対応させて成るキーデータ及びイ
ニシャルタッチデータを生成し、システムバス30を介
してCPU10に送る。このキーデータ及びイニシャル
タッチデータは、CPU10の制御の下にRAM12に
格納されて鍵盤イベントの有無の判断に使用される。そ
して、この判断結果に基づき鍵盤装置16の押鍵又は離
鍵に伴う発音/消音処理が行われることになる。
Then, from the received signal, key data and initial touch data in which each key is turned on / off in correspondence with a bit are generated and sent to the CPU 10 via the system bus 30. The key data and the initial touch data are stored in the RAM 12 under the control of the CPU 10, and are used to determine the presence or absence of a keyboard event. Then, on the basis of the result of this determination, a sounding / silencing process is performed in response to a key press or a key release of the keyboard device 16.

【0036】上記自動演奏データメモリ17は記憶手段
に対応するものであり、例えばROMで構成される。こ
の自動演奏データメモリ17には、複数の自動演奏曲に
対応した自動演奏データが記憶されている。
The automatic performance data memory 17 corresponds to a storage means and is constituted by, for example, a ROM. The automatic performance data memory 17 stores automatic performance data corresponding to a plurality of automatic performance songs.

【0037】上記自動演奏データは、自動演奏曲のパー
ト毎に、4つの出力チャンネルによる自動演奏(2組の
ステレオ演奏)ができるように構成されている。図7
(A)に、本発明の特徴に係る自動演奏データである
「スピーカセレクト」及び「パンポットセレクト」のデ
ータ形式の一例を示す。
The automatic performance data is configured so that automatic performance (two sets of stereo performances) can be performed by four output channels for each part of the automatic performance music. FIG.
(A) shows an example of the data format of “speaker select” and “panpot select” which are the automatic performance data according to the feature of the present invention.

【0038】「スピーカセレクト」の自動演奏データは
指定手段に対応するものであり、4バイトで構成されて
いる。このスピーカセレクトの自動演奏データは、発音
に使用するスピーカを指定するために使用される。この
スピーカセレクトデータの1バイト目は、データの種類
を示すステータス「BH」(`H´は16進数であるこ
とを示す。以下、同じ)とパート(16個のMIDIチ
ャンネルに対応する)を指示するチャンネルナンバ「n
H」とで構成される。2バイト目は、本自動演奏データ
の実行タイミングを示すステップタイムである。
The automatic performance data of "speaker select" corresponds to the designating means and is composed of 4 bytes. The automatic performance data of the speaker select is used to specify a speaker to be used for sound generation. The first byte of the speaker select data indicates a status “BH” (` H ′ indicates a hexadecimal number; the same applies hereinafter) indicating a data type and a part (corresponding to 16 MIDI channels). Channel number "n
H ". The second byte is a step time indicating the execution timing of the automatic performance data.

【0039】3バイト目は、ステータスの一部であり、
ドラムの音色であるかドラム以外の音色であるかを指示
するものである。この3バイト目のデータと上記1バイ
ト目のデータの上位4ビットで「スピーカセレクト」で
あることが認識されることになる。4バイト目は、放音
に使用するスピーカを指定するスピーカ指定情報として
使用される。本実施例の場合、4バイト目の値が「00
H〜3FH」の場合Aグループのスピーカ(スピーカ2
6及び27の1対)、「40H〜FFH」の場合Bグル
ープのスピーカ(スピーカ28及び29)を指定するも
のとする。
The third byte is a part of the status.
This indicates whether the tone is a drum tone or a tone other than a drum tone. It is recognized that “speaker select” is performed by the upper byte of the data of the third byte and the data of the first byte. The fourth byte is used as speaker designation information for designating a speaker to be used for sound emission. In the case of the present embodiment, the value of the fourth byte is “00”.
H-3FH ”, the speaker of group A (speaker 2
6 and 27), and in the case of “40H to FFH”, the speakers of the B group (speakers 28 and 29) are specified.

【0040】「パンポットセレクト」の自動演奏データ
は4バイトで構成され、1対のスピーカの音像定位を決
定するために使用される。このパンポットセレクトデー
タの1及び2バイト目は、上記スピーカセレクトと同じ
である。3バイト目は、ステータスの一部である。この
3バイト目のデータと上記1バイト目のデータの上位4
ビットで「パンポットセレクト」であることが認識され
ることになる。
The automatic performance data of "Panpot Select" is composed of 4 bytes and is used to determine the sound image localization of a pair of speakers. The first and second bytes of the panpot select data are the same as those of the speaker select. The third byte is a part of the status. The third byte data and the upper 4 bytes of the first byte data
The bit is recognized as “pan pot select”.

【0041】4バイト目は、パンポットの位置を指定す
るパンポット指定情報であり、上位4ビットのみが使用
される。従って、パート毎に16通りの音像定位を指定
できるようになっている。
The fourth byte is panpot designation information for designating the position of the panpot, and only the upper four bits are used. Accordingly, 16 sound image localizations can be designated for each part.

【0042】上記スピーカセレクト、パンポットセレク
トの各自動演奏データが実行されることにより、スピー
カ指定情報、パンポット指定情報はプレイバッファにセ
ットされる。ここでプレイバッファは、パート毎に設け
られたバッファであり、パート即ち楽音毎の各種制御情
報、例えば上記スピーカ指定情報、パンポット指定情報
の他、音色情報、音量情報等を記憶するものである。
By executing the automatic performance data of the speaker select and the pan pot select, the speaker designation information and the pan pot designation information are set in the play buffer. Here, the play buffer is a buffer provided for each part, and stores various kinds of control information for each part, that is, for each tone, such as timbre information, volume information, etc., in addition to the speaker designation information and panpot designation information. .

【0043】何れのプレイバッファにセットするかは、
自動演奏データ中に含まれるチャンネルナンバ「n」で
指定される。このプレイバッファの内容は、発音指示の
自動演奏データが実行される場合に参照される。
Which play buffer to set is determined by
It is designated by the channel number “n” included in the automatic performance data. The contents of the play buffer are referred to when the automatic performance data of the sounding instruction is executed.

【0044】この自動演奏データメモリ17に記憶され
た自動演奏データは、後述する自動演奏処理において音
源19が処理することができる形式のデータに変換さ
れ、音源19に送られる。
The automatic performance data stored in the automatic performance data memory 17 is converted into data in a format that can be processed by the sound source 19 in an automatic performance process described later, and sent to the sound source 19.

【0045】なお、上記自動演奏データは、上記自動演
奏データメモリ17に代えて、上述したRAM12に記
憶するように構成しても良い。この場合、システムバス
30に例えばフロッピーディスク装置を接続すると共
に、フロッピーディスクに自動演奏データを記憶せしめ
ておき、例えば本電子楽器の電源投入時にフロッピーデ
ィスク装置に装着されたフロッピーディスクから自動演
奏データをRAM12にロードするように構成すれば良
い。
It should be noted that the automatic performance data may be stored in the RAM 12 instead of the automatic performance data memory 17. In this case, for example, a floppy disk device is connected to the system bus 30 and automatic performance data is stored in the floppy disk. For example, when the power of the electronic musical instrument is turned on, the automatic performance data is read from a floppy disk mounted in the floppy disk device. What is necessary is just to comprise so that it may load into RAM12.

【0046】上記楽音波形メモリ18は、パルスコード
変調(PCM)された楽音波形データを記憶するもので
ある。この楽音波形メモリ18には、複数種類の音色を
実現するべく、各鍵域と各音色に対応した複数種類の楽
音波形データが記憶されている。各音色に対応する楽音
波形データは、ステレオ再生を可能にするべく、左チャ
ンネル用と右チャンネル用とに分けて記憶されている。
The tone waveform memory 18 stores pulse code modulated (PCM) tone waveform data. The tone waveform memory 18 stores a plurality of tone waveform data corresponding to each key range and each tone in order to realize a plurality of tone colors. The tone waveform data corresponding to each tone is stored separately for the left channel and for the right channel in order to enable stereo reproduction.

【0047】音源19は楽音信号生成手段に対応するも
のであり、例えば複数のオシレータ(例えば48個のオ
シレータ)を備え、各オシレータが1つの発音チャンネ
ルを構成している。そして、1つの楽音を発生するに際
しては、1つのパートに対して1個乃至数個の発音チャ
ンネル(オシレータ)が割り当てられる。
The sound source 19 corresponds to a tone signal generating means, and includes, for example, a plurality of oscillators (for example, 48 oscillators), and each oscillator constitutes one sounding channel. When one musical tone is generated, one to several sounding channels (oscillators) are assigned to one part.

【0048】発音が割り当てられたオシレータは、楽音
波形メモリ18に記憶された左右両チャンネル用の楽音
波形データを時分割で読み出し、これにプレイバッファ
に格納されているパンポット情報に従ったエンベロープ
を付加して左右両チャンネル用のデジタル楽音信号を時
分割で生成する。
The oscillator to which the tone is assigned reads out the tone waveform data for both the left and right channels stored in the tone waveform memory 18 in a time-division manner, and stores the envelope in accordance with the panpot information stored in the play buffer. In addition, digital tone signals for both the left and right channels are generated in a time-division manner.

【0049】この音源19で時分割で生成された左右両
チャンネル用のデジタル楽音信号は、プレイバッファに
記憶されたスピーカ指定情報に従って、D/A変換器2
0又は21の何れかに送られる。
The digital tone signal for both the left and right channels generated in a time-division manner by the sound source 19 is supplied to the D / A converter 2 according to the speaker designation information stored in the play buffer.
Sent to either 0 or 21.

【0050】D/A変換器20は、入力されたデジタル
楽音信号をアナログ楽音信号に変換すると共に、右チャ
ンネルのアナログ楽音信号と左チャンネル用のアナログ
楽音信号に分離して出力するものである。このD/A変
換器20で変換・分離された右チャンネル用のアナログ
楽音信号は増幅器22に、左チャンネル用のアナログ楽
音信号は増幅器23に、それぞれ送られる。
The D / A converter 20 converts the input digital tone signal into an analog tone signal, and separates and outputs the right channel analog tone signal and the left channel analog tone signal. The analog tone signal for the right channel converted and separated by the D / A converter 20 is sent to the amplifier 22, and the analog tone signal for the left channel is sent to the amplifier 23.

【0051】増幅器22は、入力された右チャンネル用
のアナログ楽音信号を所定の増幅率で増幅して出力する
ものである。この増幅器22で所定の増幅が行われた右
チャンネル用のアナログ楽音信号はスピーカ26に送ら
れる。同様に、増幅器23は、入力された左チャンネル
用のアナログ楽音信号を所定の増幅率で増幅して出力す
るものである。この増幅器23で所定の増幅が行われた
左チャンネル用のアナログ楽音信号はスピーカ27に送
られる。
The amplifier 22 amplifies the input analog tone signal for the right channel at a predetermined amplification factor and outputs the amplified signal. The analog tone signal for the right channel, which has been subjected to predetermined amplification by the amplifier 22, is sent to the speaker 26. Similarly, the amplifier 23 amplifies the input analog tone signal for the left channel at a predetermined amplification factor and outputs the amplified signal. The analog tone signal for the left channel, which has been subjected to predetermined amplification by the amplifier 23, is sent to the speaker 27.

【0052】D/A変換器21は、入力されたデジタル
楽音信号をアナログ楽音信号に変換すると共に、右チャ
ンネルのアナログ楽音信号と左チャンネル用のアナログ
楽音信号に分離して出力するものである。このD/A変
換器21で変換・分離された右チャンネル用のアナログ
楽音信号は増幅器24に、左チャンネル用のアナログ楽
音信号は増幅器25に、それぞれ送られる。
The D / A converter 21 converts the input digital tone signal into an analog tone signal, and separates and outputs a right channel analog tone signal and a left channel analog tone signal. The analog tone signal for the right channel converted and separated by the D / A converter 21 is sent to the amplifier 24, and the analog tone signal for the left channel is sent to the amplifier 25.

【0053】増幅器24は、入力された右チャンネル用
のアナログ楽音信号を所定の増幅率で増幅して出力する
ものである。この増幅器24で所定の増幅が行われた右
チャンネル用のアナログ楽音信号はスピーカ28に送ら
れる。同様に、増幅器25は、入力された左チャンネル
用のアナログ楽音信号を所定の増幅率で増幅して出力す
るものである。この増幅器25で所定の増幅が行われた
左チャンネル用のアナログ楽音信号はスピーカ29に送
られる。
The amplifier 24 amplifies the input analog tone signal for the right channel at a predetermined amplification rate and outputs the amplified signal. The analog tone signal for the right channel, which has been amplified by the amplifier 24, is sent to a speaker 28. Similarly, the amplifier 25 amplifies the input analog tone signal for the left channel at a predetermined amplification factor and outputs the amplified signal. The analog tone signal for the left channel, which has been subjected to predetermined amplification by the amplifier 25, is sent to the speaker 29.

【0054】スピーカ26〜29は放音手段に対応する
ものであり、電気信号としてのアナログ楽音信号を音響
信号に変換する周知のものである。このスピーカ26〜
29により、鍵盤装置16の鍵の押下又は自動演奏デー
タメモリ17から読み出された自動演奏データに応じた
楽音が放音されることになる。
The loudspeakers 26 to 29 correspond to sound emitting means, and are well known for converting an analog musical tone signal as an electric signal into an acoustic signal. This speaker 26 ~
As a result, a tone corresponding to the depression of the key of the keyboard device 16 or the automatic performance data read from the automatic performance data memory 17 is emitted.

【0055】図2は、上記スピーカ26〜29の配置例
を示す図であり、同図(A)は平面図、同図(B)は側
面図である。Aグループを形成するスピーカ26及び2
7は、本電子楽器のほぼ中央に設けられた操作パネル1
4の両端に、図中手前側に傾斜せしめて設けられてい
る。このスピーカ26及び27としては、例えば8cm
スピーカが用いられる。これらスピーカ26及び27に
よる音像は、両スピーカ26及び27を結ぶ線より図中
手前側に定位が決まる。
FIG. 2 is a view showing an example of the arrangement of the speakers 26 to 29. FIG. 2A is a plan view, and FIG. 2B is a side view. Speakers 26 and 2 forming group A
Reference numeral 7 denotes an operation panel 1 provided substantially at the center of the electronic musical instrument.
4 are provided at both ends in such a manner as to be inclined forward in the figure. As the speakers 26 and 27, for example, 8 cm
A speaker is used. The sound images from the speakers 26 and 27 are localized on the near side in the figure with respect to the line connecting the speakers 26 and 27.

【0056】Bグループを形成するスピーカ28及び2
9は、本電子楽器の操作パネル14より図中奥側の本体
ケースの両端に設けられている。このスピーカ28及び
29としては、例えば12cmスピーカが用いられる。
これらスピーカ28及び29の開口面と反対側の本体ケ
ースには開口部50が形成されており、この開口部50
からも楽音が放出されるようになっている。これらスピ
ーカ28及び29による音像は、両スピーカ28及び2
9を結ぶ線より図中手前側に定位が決まる。
The speakers 28 and 2 forming the B group
Reference numerals 9 are provided at both ends of the main body case on the far side in the figure from the operation panel 14 of the electronic musical instrument. As the speakers 28 and 29, for example, 12 cm speakers are used.
An opening 50 is formed in the main body case opposite to the opening surfaces of the speakers 28 and 29.
Musical sounds are also emitted from. The sound images from these speakers 28 and 29 are
The localization is determined on the near side in the figure from the line connecting 9.

【0057】かかるスピーカの配置により、Aグループ
のスピーカによるステレオ再生で形成される音像定位と
Bグループのスピーカによるステレオ再生で形成される
音像定位とが前後に分かれ、奥行き感のある音場を実現
できるものとなっている。
With such a speaker arrangement, the sound image localization formed by the stereo reproduction by the speakers of Group A and the sound image localization formed by the stereo reproduction by the speakers of Group B are separated back and forth, thereby realizing a sound field with a sense of depth. It can be done.

【0058】次に、上記の構成において、本発明に係る
電子楽器が適用された電子楽器の動作につき、図3〜図
6のフローチャートを参照しながら自動演奏を行う場合
の動作を中心に説明する。
Next, the operation of the electronic musical instrument to which the electronic musical instrument according to the present invention is applied in the above configuration will be described with reference to the flowcharts of FIGS. .

【0059】図3は、本電子楽器のメインルーチンを示
すフローチャートであり、電源投入により起動される。
即ち、電源が投入されると、先ず、初期化処理が行われ
る(ステップS10)。
FIG. 3 is a flowchart showing a main routine of the electronic musical instrument, which is started when the power is turned on.
That is, when the power is turned on, first, an initialization process is performed (step S10).

【0060】この初期化処理は、CPU10の内部状態
を初期状態に設定するとともに、RAM12に定義され
ているレジスタ、カウンタ或いはフラグ等に初期値を設
定する処理である。また、この初期化処理では、音源1
9に所定のデータを送り、電源投入時に不要な音が発生
されるのを防止する処理も行われる。
This initialization process is a process of setting the internal state of the CPU 10 to the initial state and setting initial values to registers, counters, flags, and the like defined in the RAM 12. In this initialization process, the sound source 1
A predetermined data is transmitted to the power supply 9 to prevent unnecessary sound from being generated when the power is turned on.

【0061】この初期化処理が終了すると、スイッチイ
ベント処理が行われる(ステップS11)。このスイッ
チイベント処理の詳細につき図4のフローチャートを参
照しながら説明する。
When the initialization process is completed, a switch event process is performed (step S11). The details of the switch event process will be described with reference to the flowchart of FIG.

【0062】スイッチイベント処理では、先ず、スイッ
チイベントの有無が調べられる(ステップS20)。こ
れは、次のようにして行われる。即ち、先ずパネルイン
タフェース回路13で操作パネル14をスキャンするこ
とにより、各スイッチの現在のオン/オフ状態を示すパ
ネルデータ(以下、「新パネルデータ」という)を各ス
イッチに対応したビット列として取り込む。
In the switch event processing, first, the presence or absence of a switch event is checked (step S20). This is performed as follows. That is, first, the operation panel 14 is scanned by the panel interface circuit 13 to acquire panel data (hereinafter, referred to as “new panel data”) indicating the current on / off state of each switch as a bit string corresponding to each switch.

【0063】次いで、前回読み込んで既にRAM12に
記憶されているパネルデータ(以下、「旧パネルデー
タ」という)と、上記新パネルデータとを比較して相違
するビットが存在するか否かを調べ、相違するビットを
オンにしたパネルイベントマップを作成する。スイッチ
イベントの有無の判断は、このパネルイベントマップを
参照することにより行われ、オンになっているビットが
1つでも存在するとスイッチイベントがあった旨が判断
されることになる。
Next, panel data previously read and stored in the RAM 12 (hereinafter referred to as "old panel data") is compared with the new panel data to determine whether or not there is a different bit. Create a panel event map with different bits turned on. The presence / absence of a switch event is determined by referring to the panel event map. If at least one bit is ON, it is determined that a switch event has occurred.

【0064】上記ステップS20でスイッチイベントが
なかったことが判断されると、何等の処理も行わずにこ
のスイッチイベント処理ルーチンからリターンしてメイ
ンルーチンのステップS12に戻る。
If it is determined in step S20 that there is no switch event, the process returns from the switch event processing routine without any processing and returns to step S12 of the main routine.

【0065】一方、上記ステップS20でスイッチイベ
ントがあったことが判断されると、そのスイッチイベン
トは自動演奏スイッチのイベントであるか否かが調べら
れる(ステップS21)。これは、上述のようにして作
成されたパネルイベントマップ中の自動演奏スイッチに
対応するビットがオンになっているか否かを調べること
により行われる。
On the other hand, if it is determined in step S20 that a switch event has occurred, it is checked whether the switch event is an event of an automatic performance switch (step S21). This is performed by checking whether or not the bit corresponding to the automatic performance switch in the panel event map created as described above is on.

【0066】ここで、自動演奏スイッチのイベントがあ
ったことが判断されると、そのイベントはオンイベント
であるか否かが調べられる(ステップS22)。これ
は、新パネルデータ中の自動演奏スイッチに対応するビ
ットがオンになっているか否かを調べることにより行わ
れる。
Here, when it is determined that there is an event of the automatic performance switch, it is checked whether or not the event is an ON event (step S22). This is done by checking whether the bit corresponding to the automatic performance switch in the new panel data is on.

【0067】ここで、オンイベントであることが判断さ
れると、先ず、自動演奏フラグが「1」にセットされる
(ステップS23)。自動演奏フラグは、RAM12に
定義されるフラグであり、本電子楽器が自動演奏モード
にされているか否かを記憶するために使用されるもので
ある。この自動演奏フラグが「1」にセットされること
により、本電子楽器は自動演奏モードに移行される。
If it is determined that the event is an ON event, first, the automatic performance flag is set to "1" (step S23). The automatic performance flag is a flag defined in the RAM 12, and is used to store whether or not the electronic musical instrument is in the automatic performance mode. When the automatic performance flag is set to "1", the electronic musical instrument is shifted to the automatic performance mode.

【0068】次いで、タイムカウンタのスタート処理が
行われる(ステップS24)。これは、CPU10に内
蔵される図示しないタイムカウンタのカウントアップ動
作を開始させる処理である。以降、このタイムカウンタ
は一定時間間隔でカウントアップされることになる。
Next, start processing of the time counter is performed (step S24). This is a process for starting a count-up operation of a time counter (not shown) built in the CPU 10. Thereafter, the time counter is counted up at regular time intervals.

【0069】次いで、自動演奏スタート処理が行われる
(ステップS25)。この自動演奏スタート処理は、操
作パネル14で指定された曲の自動演奏データが記憶さ
れている自動演奏データメモリ17のアドレス(スター
トアドレスSA)をRAM12に設けられたカレントポ
インタにセットする処理である。
Next, automatic performance start processing is performed (step S25). This automatic performance start process is a process of setting the address (start address SA) of the automatic performance data memory 17 in which the automatic performance data of the music designated by the operation panel 14 is stored in the current pointer provided in the RAM 12. .

【0070】ここで、上記カレントポインタは、自動演
奏データの現在位置を記憶するものであり、初期値とし
てスタートアドレスSAがセットされ、1つの自動演奏
データに対する処理が完了する度にインクリメントされ
るものである。以上のようにして、自動演奏スタート処
理が終了するとステップS28に進む。
The current pointer stores the current position of the automatic performance data. The current pointer is set to a start address SA as an initial value, and is incremented each time processing of one automatic performance data is completed. It is. When the automatic performance start process is completed as described above, the process proceeds to step S28.

【0071】上記ステップS22で、自動演奏スイッチ
のイベントがオンイベントでないことが判断されると、
自動演奏フラグが「0」にクリアされる(ステップS2
6)。この自動演奏フラグを「0」にクリアすることに
より、本電子楽器は自動演奏モードから通常演奏モード
に移行される。
If it is determined in step S22 that the event of the automatic performance switch is not the ON event,
The automatic performance flag is cleared to "0" (step S2
6). By clearing the automatic performance flag to "0", the electronic musical instrument is shifted from the automatic performance mode to the normal performance mode.

【0072】次いで、タイムカウンタのストップ処理が
行われる(ステップS27)。これは、CPU10に内
蔵される図示しないタイムカウンタのカウントアップ動
作が停止される。
Next, stop processing of the time counter is performed (step S27). This means that the count-up operation of a time counter (not shown) built in the CPU 10 is stopped.

【0073】以上の自動演奏スイッチに対する処理(ス
テップS22〜S27)が終了し、又は上記ステップS
21で自動演奏スイッチのイベントがなかったことが判
断されると、その他のスイッチに対する処理が行われる
(ステップS28)。
The processing for the automatic performance switch (steps S22 to S27) is completed, or
If it is determined at 21 that there is no event of the automatic performance switch, processing for the other switches is performed (step S28).

【0074】この「その他のスイッチ処理」により、例
えば、音色選択スイッチ、音量制御スイッチ、リズム選
択スイッチ、リバーブスイッチ等の音響効果スイッチ等
の各スイッチイベントに対する処理が行われることにな
るが、これらの各処理は本発明の要旨とは直接関係しな
いので詳細な説明は省略する。この「その他のスイッチ
処理」が終了すると、スイッチイベント処理ルーチンか
らリターンしてメインルーチンのステップS12に戻
る。
By this "other switch processing", processing for each switch event such as a sound effect switch such as a tone color selection switch, a volume control switch, a rhythm selection switch, a reverb switch, etc. is performed. Since each process is not directly related to the gist of the present invention, detailed description will be omitted. When the "other switch process" is completed, the process returns from the switch event process routine and returns to step S12 of the main routine.

【0075】メインルーチンでは、次いで、鍵盤イベン
ト処理が行われる(ステップS12)。この鍵盤イベン
ト処理では、先ず、鍵盤イベントの有無が調べられる。
これは、次のようにして行われる。即ち、鍵盤インタフ
ェース回路15で鍵盤装置16をスキャンすることによ
り、各鍵の押下状態を示すキーデータ(以下、「新キー
データ」という)を各鍵に対応したビット列として取り
込む。
Next, in the main routine, a keyboard event process is performed (step S12). In this keyboard event processing, first, the presence or absence of a keyboard event is checked.
This is performed as follows. That is, by scanning the keyboard device 16 with the keyboard interface circuit 15, key data indicating the pressed state of each key (hereinafter, referred to as "new key data") is fetched as a bit string corresponding to each key.

【0076】次いで、前回読み込んで既にRAM12に
記憶されているキーデータ(以下、「旧キーデータ」と
いう)と、新キーデータとを比較して相違するビットが
存在するか否かを調べ、相違するビットをオンにした鍵
イベントマップを作成する。鍵盤イベントの有無の判断
はこの鍵イベントマップを参照することにより行われ
る。即ち、鍵イベントマップ中にオンになっているビッ
トが1つでも存在すると鍵盤イベントがあった旨が判断
されることになる。
Next, the key data previously read and stored in the RAM 12 (hereinafter referred to as "old key data") is compared with the new key data to determine whether or not there is a different bit. Create a key event map with the bit to turn on. The determination of the presence / absence of a keyboard event is made by referring to this key event map. That is, if there is at least one bit that is on in the key event map, it is determined that a keyboard event has occurred.

【0077】上記で作成した鍵イベントマップを参照す
ることにより鍵盤イベントがあったことが判断される
と、鍵盤イベント処理が行われる。鍵盤イベント処理で
は、鍵盤のオンイベントの場合は、鍵盤イベント用に定
められたパートに音源19中の所定のオシレータが割り
当てられる。
When it is determined that a keyboard event has occurred by referring to the key event map created above, keyboard event processing is performed. In the keyboard event processing, in the case of a keyboard on event, a predetermined oscillator in the sound source 19 is assigned to a part determined for the keyboard event.

【0078】次いで、そのオンイベントのあった鍵を示
すキーナンバ、鍵の押下の強さ(速度)を示すイニシャ
ルタッチデータ、及び音色ナンバ等に基づいて、例えば
波形アドレス、周波数データ、エンベロープデータ、フ
ィルタ係数等が生成され、音源19に送られる。これに
より、上述したような動作により、音源19の割り当て
られたオシレータで、上記各データに基づいた楽音の発
音が行われる。
Next, based on the key number indicating the key having the ON event, the initial touch data indicating the strength (speed) of pressing the key, the tone number, and the like, for example, waveform address, frequency data, envelope data, filter Coefficients and the like are generated and sent to the sound source 19. Thus, by the above-described operation, the tone assigned to the tone generator 19 is generated based on the data.

【0079】一方、オフイベントがあった場合は、その
オフイベントがあった鍵に割り当てられている音源19
中のオシレータが検索され、リリースのエンベロープデ
ータが送られることにより消音が行われる。
On the other hand, if there is an off event, the sound source 19 assigned to the key having the off event
The oscillator inside is searched, and silence is performed by sending the envelope data of the release.

【0080】この鍵盤イベント処理が終了すると、次い
で、自動演奏処理が行われる(ステップS13)。この
自動演奏処理の詳細については後述する。
When the keyboard event process is completed, an automatic performance process is performed (step S13). Details of the automatic performance processing will be described later.

【0081】次いで、その他の処理が行われる(ステッ
プS14)。この「その他の処理」には、MIDIデー
タの送受信処理等が含まれる。その後ステップS11に
戻り、以下同様の処理を繰り返す。上記ステップS11
〜S14の繰り返し実行の過程で、パネル操作又は鍵盤
操作に基づくイベントが発生すると、そのイベントに対
応する処理が行われることにより電子楽器としての各種
機能が発揮される。
Next, other processing is performed (step S14). The “other processing” includes MIDI data transmission / reception processing and the like. Thereafter, the process returns to step S11, and the same processing is repeated thereafter. Step S11 above
When an event based on a panel operation or a keyboard operation occurs in the process of repeatedly executing steps S14 to S14, various functions as an electronic musical instrument are exhibited by performing processing corresponding to the event.

【0082】次に、上記自動演奏処理の詳細につき、図
5に示したフローチャートを参照しながら説明する。
Next, the details of the automatic performance processing will be described with reference to the flowchart shown in FIG.

【0083】自動演奏処理では、先ず、自動演奏フラグ
が「1」であるか否かが調べられる(ステップS3
0)。そして、自動演奏フラグが「0」、即ち通常演奏
モードであることが判断されると、何等の処理を行うこ
となくこの自動演奏処理ルーチンからリターンしてメイ
ンルーチンのステップS14に戻る。
In the automatic performance processing, first, it is checked whether or not the automatic performance flag is "1" (step S3).
0). When it is determined that the automatic performance flag is "0", that is, the normal performance mode is set, the process returns from the automatic performance processing routine without any processing and returns to step S14 of the main routine.

【0084】一方、自動演奏フラグが「1」、即ち、自
動演奏モードであることが判断されると、自動演奏デー
タの読み込みが行われる(ステップS31)。即ち、C
PU10は、カレントポインタで示される自動演奏デー
タメモリ17中の自動演奏データを1つだけ取り出す。
次いで、自動演奏イベントの有無が調べられる(ステッ
プS32)。これは、自動演奏データに含まれているス
テップタイムと図示しないタイムカウンタでカウントア
ップされているタイム値とを比較することにより行われ
る。
On the other hand, when it is determined that the automatic performance flag is "1", that is, the automatic performance mode is set, the automatic performance data is read (step S31). That is, C
The PU 10 extracts only one piece of automatic performance data from the automatic performance data memory 17 indicated by the current pointer.
Next, the presence or absence of an automatic performance event is checked (step S32). This is performed by comparing a step time included in the automatic performance data with a time value counted up by a time counter (not shown).

【0085】ここで、自動演奏イベントが無い、即ち上
記比較の結果が一致しないことが判断されると、未だ発
音又は消音タイミングに至っていない旨が認識され、以
下の処理を行うことなくこの自動演奏処理ルーチンから
リターンしてメインルーチンのステップS14に戻る。
この場合、カレントポインタはインクリメントされずに
元の状態を維持する。従って、ステップS31では次回
も同じ自動演奏データが読み出されることになる。
Here, if it is determined that there is no automatic performance event, that is, the result of the comparison does not match, it is recognized that the sounding or silencing timing has not yet been reached, and this automatic performance event is performed without performing the following processing. It returns from the processing routine and returns to step S14 of the main routine.
In this case, the current pointer maintains the original state without being incremented. Therefore, in step S31, the same automatic performance data is read out next time.

【0086】一方、自動演奏イベントが有る、即ち上記
の比較結果が一致することが判断されると、発音又は消
音タイミングが到来した旨が認識され、次いで、自動演
奏データはスピーカセレクトデータであるか否かが調べ
られる(ステップS33)。この場合、カレントポイン
タがインクリメントされる。従って、ステップS31で
は次回は次の自動演奏データが読み出されることにな
る。
On the other hand, if it is determined that there is an automatic performance event, that is, it is determined that the above-mentioned comparison results match, it is recognized that the sound generation or mute timing has arrived, and then whether the automatic performance data is the speaker select data or not. It is checked whether it is (Step S33). In this case, the current pointer is incremented. Therefore, in step S31, the next automatic performance data is read next time.

【0087】ここで、スピーカセレクトデータであるこ
とが判断されると、スピーカデータセーブが行われる
(ステップS34)。即ち、スピーカセレクトデータの
1バイト目に含まれるチャンネルナンバ「nH」に対応
するプレイバッファに、4バイト目に含まれるスピーカ
指定情報がセットされる。
If it is determined that the data is speaker select data, speaker data saving is performed (step S34). That is, the speaker designation information included in the fourth byte is set in the play buffer corresponding to the channel number “nH” included in the first byte of the speaker select data.

【0088】これにより、当該チャンネルナンバを有す
る自動演奏データが実行される場合は、使用するスピー
カとして、Aグループのスピーカ又はBグループのスピ
ーカの何れかが選択されることになる。このスピーカデ
ータセーブ処理が終了すると、この自動演奏処理ルーチ
ンからリターンしてメインルーチンのステップS14に
戻る。
As a result, when the automatic performance data having the channel number is executed, one of the speakers in the group A and the speakers in the group B is selected as the speaker to be used. When the speaker data saving process is completed, the process returns from the automatic performance process routine and returns to step S14 of the main routine.

【0089】上記ステップS33で自動演奏データがス
ピーカセレクトデータでないことが判断されると、次い
で、パンポットセレクトデータであるか否かが調べられ
る(ステップS35)。ここで、パンポットセレクトデ
ータであることが判断されると、パンポットデータセー
ブが行われる(ステップS36)。即ち、パンポットセ
レクトデータの1バイト目に含まれるチャンネルナンバ
「nH」に対応するプレイバッファに、4バイト目に含
まれるパンポット指定情報がセットされる。
If it is determined in step S33 that the automatic performance data is not speaker select data, then it is checked whether or not the automatic performance data is panpot select data (step S35). If it is determined that the data is panpot select data, panpot data saving is performed (step S36). That is, the panpot designation information included in the fourth byte is set in the play buffer corresponding to the channel number “nH” included in the first byte of the panpot select data.

【0090】これにより、当該チャンネルナンバを有す
る自動演奏データが実行される場合は、プレイバッファ
にセットされたパンポット指定情報に従って左右両出力
チャンネルの音量バランスが制御され、音像はパンポッ
ト指定情報で指定された位置に定位が決まる。このパン
ポットデータセーブ処理が終了すると、この自動演奏処
理ルーチンからリターンしてメインルーチンのステップ
S14に戻る。
Thus, when the automatic performance data having the channel number is executed, the volume balance of the left and right output channels is controlled according to the panpot designation information set in the play buffer, and the sound image is represented by the panpot designation information. The localization is determined at the specified position. When the panpot data save processing is completed, the process returns from the automatic performance processing routine and returns to step S14 of the main routine.

【0091】上記ステップS35で自動演奏データがパ
ンポットセレクトデータでないことが判断されると、次
いで、ノートオンデータであるか否かが調べられる(ス
テップS37)。
If it is determined in step S35 that the automatic performance data is not panpot select data, then it is checked whether it is note-on data (step S37).

【0092】ここで、ノートオンデータであることが判
断されると、発音処理が行われる(ステップS38)。
この発音処理の詳細は図6のフローチャートに示されて
いる。
Here, when it is determined that the data is note-on data, a tone generation process is performed (step S38).
Details of the sound generation process are shown in the flowchart of FIG.

【0093】発音処理では、先ず、波形情報のセットが
行われる(ステップS50)。即ち、ノートオンデータ
の1バイト目に含まれるチャンネルナンバ「nH」に対
応するプレイバッファにセットされている音色情報、音
量情報等、及びノートオンデータで指定されたキーナン
バ及びベロシティデータ等に基づいて、読み出すべき楽
音波形データが記憶されている楽音波形メモリ18の波
形アドレス、読み出す速度を指定する周波数データ、読
み出した楽音波形データに付加すべきエンベロープデー
タ、フィルタ係数等を生成し、音源19に送る。
In the sound generation process, first, waveform information is set (step S50). That is, based on tone color information, volume information, and the like set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data, key number and velocity data specified by the note-on data, and the like. A waveform address of the tone waveform memory 18 storing tone waveform data to be read, frequency data designating a reading speed, envelope data to be added to the read tone waveform data, a filter coefficient, and the like are generated and sent to the sound source 19. .

【0094】次いで、スピーカ決定処理を行う(ステッ
プS51)。即ち、ノートオンデータの1バイト目に含
まれるチャンネルナンバ「nH」に対応するプレイバッ
ファにセットされているスピーカ指定情報を音源19に
送る。これにより、音源19は、生成したデジタル楽音
信号の出力先、即ち、D/A変換器20に送るかD/A
変換器21に送るかを決定する。
Next, speaker determination processing is performed (step S51). That is, the speaker designation information set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data is sent to the sound source 19. As a result, the sound source 19 sends the generated digital tone signal to the output destination, that is, the D / A converter 20 or the D / A converter 20.
It is determined whether to send to the converter 21.

【0095】次いで、パンポット決定処理を行う(ステ
ップS52)。即ち、ノートオンデータの1バイト目に
含まれるチャンネルナンバ「nH」に対応するプレイバ
ッファにセットされているパンポット指定情報を音源1
9に送る。これにより、左右両チャンネル用のデジタル
楽音信号に付すべきエンベロープの大きさがそれぞれ加
工され、音像定位が決定される。
Next, a pan pot determination process is performed (step S52). That is, the panpot designation information set in the play buffer corresponding to the channel number “nH” included in the first byte of the note-on data is transmitted to the sound source 1
Send to 9. As a result, the size of the envelope to be attached to the digital tone signal for both the left and right channels is processed, and the sound image localization is determined.

【0096】次いで、その他の情報セット処理が行われ
る(ステップS53)。このその他の情報としては、例
えばリバーブ等の音響効果を指定する処理等が含まれ
る。
Next, other information setting processing is performed (step S53). The other information includes, for example, processing for designating a sound effect such as reverb.

【0097】次いで、発音処理を行う(ステップS5
4)。この発音処理は、音源19を駆動することによ
り、先にセットした各情報に基づき所定の楽音を発生さ
せる処理である。即ち、発音が割り当てられたオシレー
タは、楽音波形メモリ18から楽音波形データを読み出
し、これにエンベロープを付加してデジタル楽音信号を
生成する。この音源19で発生されたデジタル楽音信号
は、スピーカセレクトデータに従ってD/A変換器20
又はD/A変換器21に送られる。
Next, a tone generation process is performed (step S5).
4). This tone generation process is a process of generating a predetermined musical tone based on each information set previously by driving the sound source 19. That is, the oscillator to which the sound is assigned reads out the musical tone waveform data from the musical tone waveform memory 18 and adds an envelope thereto to generate a digital musical tone signal. The digital tone signal generated by the sound source 19 is converted into a D / A converter 20 according to the speaker select data.
Alternatively, it is sent to the D / A converter 21.

【0098】D/A変換器20又は21では、入力され
たアナログ楽音信号をデジタル楽音信号に変換して増幅
器22及び23又は増幅器24及び25に送る。増幅器
22〜25では所定の増幅が行われたアナログ楽音信号
はスピーカ26〜29に送られる。これによりスピーカ
26〜29から自動演奏データに対応する楽音が放音さ
れる。この発音処理が終了すると、自動演奏処理ルーチ
ンからリターンしてメインルーチンのステップS14に
戻る。
The D / A converter 20 or 21 converts the input analog tone signal into a digital tone signal and sends it to the amplifiers 22 and 23 or the amplifiers 24 and 25. In the amplifiers 22 to 25, the analog tone signals subjected to predetermined amplification are sent to speakers 26 to 29. As a result, a tone corresponding to the automatic performance data is emitted from the speakers 26 to 29. When the sound generation process is completed, the process returns from the automatic performance process routine and returns to step S14 of the main routine.

【0099】自動演奏処理ルーチンでは、上記ステップ
S37でノートオンデータでないことが判断されると、
次いで、ノートオフデータであるか否かが調べられる
(ステップS39)。そして、ノートオフデータである
ことが判断されると、消音処理が行われる(ステップS
40)。
In the automatic performance processing routine, if it is determined in step S37 that the data is not note-on data,
Next, it is checked whether the data is note-off data (step S39). When it is determined that the data is note-off data, a mute process is performed (step S).
40).

【0100】この消音処理は、上述した鍵盤イベント処
理におけるキーオフイベントの場合と同様に、ノートオ
フが指示された楽音に割り当てられているオシレータを
検索し、リリースのエンベロープデータを送る処理であ
る。これにより消音が行われる。その後、この自動演奏
処理ルーチンからリターンしてメインルーチンのステッ
プS14に戻る。
This silencing process is a process of searching for the oscillator assigned to the musical tone for which note-off has been instructed, and transmitting the release envelope data, as in the case of the key-off event in the keyboard event process described above. Thereby, the sound is muted. Thereafter, the process returns from the automatic performance processing routine and returns to step S14 of the main routine.

【0101】上記ステップS39でノートオフデータで
ないことが判断されると、その他の処理が行われる(ス
テップS41)。この「その他の処理」には、上述した
自動演奏データ以外の自動演奏データに対する処理、例
えば音色変更処理、音量変更処理等が含まれるが、本発
明とは直接関係しないので説明は省略する。この「その
他の処理」が終了するとこの自動演奏処理ルーチンから
リターンしてメインルーチンのステップS14に戻る。
If it is determined in step S39 that the data is not note-off data, other processing is performed (step S41). The “other processing” includes processing for automatic performance data other than the above-described automatic performance data, for example, tone color change processing, volume change processing, and the like, but is not directly related to the present invention, and a description thereof will be omitted. When the "other processing" is completed, the routine returns from the automatic performance processing routine and returns to step S14 of the main routine.

【0102】以上説明したように、本実施例によれば、
Aグループ又はBグループのスピーカの何れかをスピー
カ指定情報で指定し、この指定されたグループにより、
自動演奏データメモリ17に記憶された自動演奏データ
に従って生成されたステレオ楽音信号に基づく楽音をス
テレオで放音するようにしている。
As described above, according to this embodiment,
Either the speaker of the group A or the group B is designated by the speaker designation information, and by the designated group,
A tone based on a stereo tone signal generated according to the automatic performance data stored in the automatic performance data memory 17 is emitted in stereo.

【0103】従って、各グループのスピーカ対のステレ
オ効果により音像定位が異なるように作成された自動演
奏データに基づいて放音されることになるので、生の演
奏に近い立体感や躍動感を有する音像空間を作り出すこ
とができる。
Accordingly, since sound is emitted based on the automatic performance data created so that the sound image localization is different due to the stereo effect of the speaker pair of each group, it has a three-dimensional feeling and dynamism close to that of a live performance. A sound image space can be created.

【0104】なお、上記実施例では、自動演奏データメ
モリ17に記憶された自動演奏データに基づいてスピー
カの指定やパンポットの制御を行うように構成したが、
外部装置からMIDIインタフェース回路40を介して
送られてくるMIDIデータに基づいてスピーカの指定
やパンポットの制御を行って演奏を行わせるように構成
することもできる。
In the above embodiment, the speaker is specified and the pan pot is controlled based on the automatic performance data stored in the automatic performance data memory 17.
It is also possible to adopt a configuration in which a performance is performed by designating a speaker or controlling a pan pot based on MIDI data sent from an external device via the MIDI interface circuit 40.

【0105】この場合、MIDIデータの1つとしてス
ピーカセレクト及びパンポットセレクトのデータを定義
し、これをパート毎に設けられたプレイバッファにセッ
トして発音に用いるスピーカの選択及びパンポットの設
定を行うように構成する。MIDIデータの形式は、例
えば図7(B)に示したような構成とすることができ
る。
In this case, speaker select and panpot select data are defined as one of the MIDI data, and the data is set in a play buffer provided for each part to select a speaker to be used for sound generation and to set a panpot. Configure to do so. The format of the MIDI data can be, for example, a configuration as shown in FIG.

【0106】同図(A)に示した自動演奏データの形式
とは、ステップタイム情報を有していない点で異なって
いるが、これは、受信したMIDIデータは順次実行さ
れるのでステップタイムは不要であるためである。その
他のデータは上述した自動演奏データと同じである。
The format of the automatic performance data shown in FIG. 11A is different in that it does not have the step time information. However, since the received MIDI data is executed sequentially, the step time is different. This is because it is unnecessary. The other data is the same as the automatic performance data described above.

【0107】また、上記実施例では、自動演奏データ又
はMIDIデータの1つとしてスピーカセレクト及びパ
ンポットセレクトのデータを定義し、これらのデータが
出現する度にプレイバッファの内容を変更してスピーカ
の選択やパンポットの制御を行うように構成したが、ス
ピーカの選択やパンポットの制御は次のようにして行う
こともできる。
In the above embodiment, speaker select data and panpot select data are defined as one of the automatic performance data and the MIDI data, and the contents of the play buffer are changed each time these data appear to change the contents of the play buffer. Although selection and panpot control are performed, speaker selection and panpot control can also be performed as follows.

【0108】即ち、各自動演奏曲に対応付けて各パート
(チャンネルナンバ)のスピーカセレクトデータ及びパ
ンポットセレクトデータを例えばテーブルとして自動演
奏データメモリ17に記憶せしめておき、演奏開始時
に、これらを読み出してプレイバッファにセットするよ
うに構成する。かかる構成によれば、自動演奏データや
MIDIデータ中にスピーカセレクト又はパンポットセ
レクトのためのデータが出現しないので、処理が容易に
なるという利点がある。
That is, speaker select data and panpot select data of each part (channel number) are stored in the automatic performance data memory 17 as a table, for example, in association with each automatic performance music, and are read out at the start of the performance. To be set in the play buffer. According to such a configuration, since data for speaker selection or panpot selection does not appear in the automatic performance data or MIDI data, there is an advantage that processing is facilitated.

【0109】更に、上記実施例では、スピーカセレクト
データを用いて発音に使用するスピーカを決定するよう
に構成したが、操作パネル14のスイッチを操作するこ
とにより発音に使用するスピーカを決定するように構成
しても良い。これは、スイッチ操作に伴ってプレイバッ
ファのスピーカ指定情報を書き換えるように構成するこ
とにより実現される。かかる構成によれば、自動演奏デ
ータとは無関係に、演奏者の好みのタイミングで音像を
変化させることができる。
Further, in the above embodiment, the speaker to be used for sound generation is determined by using the speaker select data. However, the speaker to be used for sound generation is determined by operating the switch on the operation panel 14. You may comprise. This is realized by a configuration in which the speaker designation information in the play buffer is rewritten in accordance with a switch operation. According to such a configuration, the sound image can be changed at a timing desired by the player regardless of the automatic performance data.

【0110】また、図1に示した構成で、音源19とD
/A変換器20、21との間にデジタルシグナルプロセ
ッサ(DSP)を設けたり、或いはD/A変換器20、
21と増幅器22〜25との間にアナログフィルターを
設け、種々の音楽的効果を発揮させるように構成しても
良い。
Further, in the configuration shown in FIG.
A digital signal processor (DSP) is provided between the D / A converters 20 and 21;
An analog filter may be provided between the amplifier 21 and the amplifiers 22 to 25 so as to exert various musical effects.

【0111】この場合、上述したAグループのスピーカ
でステレオ再生される楽音と、Bグループのスピーカで
ステレオ再生される楽音とを別の楽器音にし、それぞれ
所定の周波数特性を有するアナログフィルターを用いる
ことにより、音像が明瞭になり、よりリアルな演奏が可
能となる。
In this case, the musical sound reproduced in stereo by the speakers of Group A and the musical sound reproduced in stereo by the speakers of Group B are converted into different musical instrument sounds, and analog filters having predetermined frequency characteristics are used. As a result, the sound image becomes clear, and a more realistic performance can be performed.

【0112】次に、各スピーカに対するパートの割り当
ての一例を以下に示す。基本的には、Aグループのスピ
ーカには高い音域を有する楽器音が、Bグループのスピ
ーカには低い音域を有する楽器音が割り当てられる。 <パート> <グループ> ドラム(メイン) Bグループ ベース Bグループ オーケストラ1、2 Bグループ コード1、2 A+Bグループ ドラム(サブ) Aグループ
Next, an example of part assignment to each speaker will be described below. Basically, a musical instrument sound having a high frequency range is allocated to the speakers of Group A, and a musical instrument sound having a low frequency range is allocated to the speakers of Group B. <Part><Group> Drum (Main) B Group Bass B Group Orchestra 1, 2 B Group Code 1, 2 A + B Group Drum (Sub) A Group

【0113】上述したように、Aグループのスピーカ2
6及び27による音像は、両スピーカ26及び27を結
ぶ線より図中手前側に定位が決まる。Bグループのスピ
ーカ28及び29による音像は、両スピーカ28及び2
9を結ぶ線より図中手前側に定位が決まる。
As described above, the speaker 2 of group A
The localization of the sound images 6 and 27 is determined on the near side in the figure from the line connecting the speakers 26 and 27. The sound image by the speakers 28 and 29 of the B group is
The localization is determined on the near side in the figure from the line connecting 9.

【0114】従って、A、Bグループに同一音色データ
を割り当てた場合は、各グループの定位と音量レベルに
より二次元的な定位を決定することができる。また、各
データの混合割合によって音像を前後方向へ移動させ、
ピッチを相違せしめることによりコーラス効果を発生さ
せることにより、図8に示すように、斜め奥方向への広
がりを作ることができる。
Therefore, when the same timbre data is assigned to the groups A and B, a two-dimensional localization can be determined by the localization and the volume level of each group. Also, the sound image is moved in the front-back direction according to the mixing ratio of each data,
By generating the chorus effect by making the pitch different, it is possible to create a diagonal extension in the depth direction as shown in FIG.

【0115】また、上記実施例では、Aグループ及びB
グループといった2組のステレオ再生系により音像を制
御するように構成したが、3組或いはそれ以上のステレ
オ再生系により音像を制御するように構成しても良い。
かかる構成によれば、更に複雑な音場を形成することが
できるので、よりリアルな演奏を行わせることができ
る。
In the above embodiment, the A group and the B group
Although the sound image is controlled by two sets of stereo reproduction systems such as groups, the sound image may be controlled by three or more sets of stereo reproduction systems.
According to such a configuration, a more complex sound field can be formed, so that a more realistic performance can be performed.

【0116】以上説明した実施例では、2個のスピーカ
26及び27で成るAグループ、2個のスピーカ28及
び29で成るBグループといった2組のステレオ再系生
により音像を制御するようにしたが、上記4個の各スピ
ーカ26〜29を演奏者の前後左右上下の所定の4箇所
に配置し、各スピーカ26〜29で独立の楽音を発生さ
せることにより1つの音像を制御するように構成しても
良い。
In the embodiment described above, the sound image is controlled by two sets of stereo regenerating systems, such as an A group including two speakers 26 and 27 and a B group including two speakers 28 and 29. The four loudspeakers 26 to 29 are arranged at predetermined four positions in front, back, left, right and up and down of the player, and each loudspeaker 26 to 29 generates an independent musical sound to control one sound image. May be.

【0117】この場合、スピーカセレクトデータのスピ
ーカ指定情報は、4個のスピーカ26〜29の何れかを
独立して指定するように定義し、パンポットセレクトデ
ータのパンポット指定情報は、三次元空間におけるパン
ポット位置を指定するように定義する。
In this case, the speaker designation information of the speaker select data is defined so as to independently designate any one of the four speakers 26 to 29, and the panpot designation information of the panpot select data is a three-dimensional space. Is defined to specify the panpot position in.

【0118】かかる構成によれば、任意の音像空間を作
り出すことができ、生の演奏に近い立体感や躍動感を有
する迫力に富んだ音像を得ることができる。
According to such a configuration, an arbitrary sound image space can be created, and a powerful sound image having a three-dimensional feeling and a lively feeling similar to a live performance can be obtained.

【0119】[0119]

【発明の効果】以上詳述したように、本発明によれば、
生の演奏に近い立体感や躍動感を有し、臨場感に溢れた
音像を得ることのできる電子楽器を提供できる。
As described in detail above, according to the present invention,
It is possible to provide an electronic musical instrument having a three-dimensional feeling and a lively feeling similar to a live performance and capable of obtaining a sound image full of a sense of reality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の電子楽器の実施例の概略的な構成を示
すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an electronic musical instrument of the present invention.

【図2】本発明に係る電子楽器の外観を示す平面図及び
側面図である。
FIGS. 2A and 2B are a plan view and a side view showing an external appearance of an electronic musical instrument according to the present invention.

【図3】本発明の実施例の動作を示すフローチャート
(メインルーチン)である。
FIG. 3 is a flowchart (main routine) showing the operation of the embodiment of the present invention.

【図4】本発明の実施例の動作を示すフローチャート
(スイッチイベント処理ルーチン)である。
FIG. 4 is a flowchart (switch event processing routine) illustrating the operation of the embodiment of the present invention.

【図5】本発明の実施例の動作を示すフローチャート
(自動演奏処理ルーチン)である。
FIG. 5 is a flowchart (automatic performance processing routine) showing the operation of the embodiment of the present invention.

【図6】本発明の実施例の動作を示すフローチャート
(発音処理ルーチン)である。
FIG. 6 is a flowchart (sound generation processing routine) illustrating the operation of the embodiment of the present invention.

【図7】本発明の実施例で使用される自動演奏データ及
びMIDIデータの形式の一例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of a format of automatic performance data and MIDI data used in the embodiment of the present invention.

【図8】本発明の実施例を適用した場合の音場の一例を
説明するための図である。
FIG. 8 is a diagram for explaining an example of a sound field when the embodiment of the present invention is applied.

【符号の説明】[Explanation of symbols]

10 CPU 11 プログラムメモリ 12 RAM 13 パネルインタフェース回路 14 操作パネル 15 鍵盤インタフェース回路 16 鍵盤装置 17 自動演奏データメモリ 18 楽音波形メモリ 19 音源 20、21 D/A変換器 22〜25 増幅器 26〜29 スピーカ 30 システムバス 40 MIDIインタフェース回路 50 開口部 Reference Signs List 10 CPU 11 Program memory 12 RAM 13 Panel interface circuit 14 Operation panel 15 Keyboard interface circuit 16 Keyboard device 17 Automatic performance data memory 18 Musical sound waveform memory 19 Sound source 20, 21 D / A converter 22-25 Amplifier 26-29 Speaker 30 System Bus 40 MIDI interface circuit 50 opening

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 楽音を放音するための少なくとも4つの
スピーカと、スピーカを選択するためのスピーカセレクトデータを含
む自動演奏データをパート毎に記憶する 記憶手段と、該記憶手段から読み出されたスピーカセレクトデータに
対応するパートの楽音を発生するためのスピーカを、前
記少なくとも4つのスピーカの中から、前記スピーカセ
レクトデータに基づいて指定する 指定手段と、前記記憶手段から読み出された自動演奏データに基づい
て楽音信号をパート毎に生成する 楽音信号生成手段と、 該楽音信号生成手段で生成された各パートの楽音信号を
前記指定手段で指定されたスピーカに供給する制御手
段、 とを具備したことを特徴とする電子楽器。
Claims: 1. At least four sounds for emitting musical sounds
Speaker and speaker select data for selecting the speaker.
Storage means for storing automatic performance data for each part ; and speaker selection data read from the storage means.
A speaker for generating the tone of the corresponding part
The speaker set is selected from at least four speakers.
Designation means for designating on the basis of the automatic performance data read from the storage means;
Signal generating means for generating a tone signal for each part , and control means for supplying the tone signal of each part generated by the tone signal generating means to a speaker designated by the designation means. An electronic musical instrument, comprising:
【請求項2】 2個が1対となって楽音をステレオ再生
するための少なくとも2組のスピーカ対と、 スピーカ対を選択するためのスピーカセレクトデータを
含む自動演奏データをパート毎に記憶する 記憶手段と、該記憶手段から読み出されたスピーカセレクトデータに
対応するパートの楽音を発生するためのスピーカ対を、
前記少なくとも2組のスピーカ対の中から、前記スピー
カセレクトデータに基づいて指定する 指定手段と、前記記憶手段から読み出された自動演奏データに基づい
て楽音信号をパート毎に生成する 楽音信号生成手段と、該楽音信号生成手段で生成された各パートの楽音信号を
前記指定手段で指定されたスピーカ対に供給する 制御手
段、 とを具備したことを特徴とする電子楽器。
2. A musical tone is stereo-reproduced as a pair of two.
DoAt least two speaker pairs for Speaker select data for selecting a speaker pair
Automatic performance data including each part Storage means;The speaker select data read from the storage means
A speaker pair for generating the musical sound of the corresponding part,
From the at least two speaker pairs,
Specify based on current data Designation means;Based on the automatic performance data read from the storage means
The tone signal for each part Music signal generating means;The tone signal of each part generated by the tone signal generating means is
Supply to the speaker pair specified by the specifying means Control hand
An electronic musical instrument comprising: a step;
JP5095101A 1993-03-31 1993-03-31 Electronic musical instrument Expired - Fee Related JP2983122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5095101A JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5095101A JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH06289860A JPH06289860A (en) 1994-10-18
JP2983122B2 true JP2983122B2 (en) 1999-11-29

Family

ID=14128491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5095101A Expired - Fee Related JP2983122B2 (en) 1993-03-31 1993-03-31 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2983122B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033238A1 (en) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for driving a plurality of loudspeakers by means of a DSP
JP5169300B2 (en) * 2008-02-25 2013-03-27 ヤマハ株式会社 Music signal output device
JP2009244339A (en) * 2008-03-28 2009-10-22 Kawai Musical Instr Mfg Co Ltd Electronic musical tone generation device and computer program

Also Published As

Publication number Publication date
JPH06289860A (en) 1994-10-18

Similar Documents

Publication Publication Date Title
JPH0744183A (en) Karaoke playing device
JP3353595B2 (en) Automatic performance equipment and karaoke equipment
JP3259846B2 (en) Music signal generator
JPH06259065A (en) Electronic musical instrument
JP3568326B2 (en) Electronic musical instrument
JP2983122B2 (en) Electronic musical instrument
JP2605885B2 (en) Tone generator
JPH08146957A (en) Sound device of electronic keyboard musical instrument
JP3312939B2 (en) Electronic musical instrument
JPH06259064A (en) Electronic musical instrument
JP2888712B2 (en) Music generator
JPH06348258A (en) Automatic playing device of electronic musical instrument
JPH06242781A (en) Electronic musical instrument
JP3136701B2 (en) Music signal generator
JP3105132B2 (en) Tone generator for electronic musical instruments
JP3650526B2 (en) Automatic performance device and storage medium
JP3048206B2 (en) Sound equipment for electronic musical instruments
JPH10274985A (en) Automatic arpeggio performance device and arpeggio performance system
JPH1049159A (en) Musical tone generator of electronic musical instrument
JPH1078783A (en) Karaoke sing-along machine
JP3753087B2 (en) Electronic musical instrument, differential sound output device, program, and recording medium
JP2953937B2 (en) Electronic musical instrument volume control device
JP3026479B2 (en) Music signal generator
JPH10319949A (en) Electronic musical instrument
JP3375220B2 (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990913

LAPS Cancellation because of no payment of annual fees