JPH0844356A - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JPH0844356A
JPH0844356A JP6178591A JP17859194A JPH0844356A JP H0844356 A JPH0844356 A JP H0844356A JP 6178591 A JP6178591 A JP 6178591A JP 17859194 A JP17859194 A JP 17859194A JP H0844356 A JPH0844356 A JP H0844356A
Authority
JP
Japan
Prior art keywords
tone color
sound
volume
performance
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6178591A
Other languages
Japanese (ja)
Other versions
JP2842232B2 (en
Inventor
Tetsuo Nishimoto
哲夫 西元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP6178591A priority Critical patent/JP2842232B2/en
Publication of JPH0844356A publication Critical patent/JPH0844356A/en
Application granted granted Critical
Publication of JP2842232B2 publication Critical patent/JP2842232B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To generate a sound with an original sound image fixed position or a sound volume of each element which constitutes a timbre during a test hearing to select the timbre. CONSTITUTION:For the case of a voice selection mode, signals are circulated in the loop constituted by steps SPg5, SPg6, SPg8, Spg9, SPg10 and SPg5. In this case, an element pan information EPANiPT and an element volume information EVOLiPT are transmitted to an assigned channel in the step SPg6. Therefore, a sound is generated with an original sound image fixed position and a sound volume of each element which constitutes a voice. On the other hand, in the case of other modes (including an automatic performance), a step Sdg7 processing replaces the step SPg6 of the loop and both sound image fixed position and a sound volume are affected by the data set for the parts.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、パート毎に設定され
た音色を変更する際に、変更される音色の音像定位や音
量を聞き易いものとすることができる電子楽器に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument which, when changing a tone color set for each part, makes it easy to hear the sound image localization and volume of the tone color to be changed.

【0002】[0002]

【従来の技術】電子楽器においては、複数の発音チャン
ネルを時分割に駆動して、複音発音するものが一般的で
あるが、さらに、発音チャンネルの音色等を指定する情
報をエレメントとして定義し、このエレメントを複数用
いて一つの楽音を構成するようにしたものがある。ここ
で、複数エレメントで構成される楽音は、ボイスと呼ば
れ、キーのオン/オフに基づく、アタック、ディケイ、
サステイン等の発音処理は、ボイス単位で行われる。
2. Description of the Related Art In an electronic musical instrument, it is common to drive a plurality of sound generation channels in a time-division manner to produce a polyphonic sound. In addition, information designating the tone color of the sound generation channel is defined as an element. There is one in which a plurality of these elements are used to compose one musical tone. Here, a musical tone composed of a plurality of elements is called a voice, and an attack, decay,
Sound generation processing such as sustain is performed in units of voice.

【0003】ところで、音像定位(パン)や基準となる
音量は、エレメント毎に設定されるようになっており、
例えば、エレメント1は中央でボリューム値がa、エレ
メント2は左寄りでボリューム値b、エレメント3は右
寄りでボリューム値cというように各々設定される。例
えば、ピアノ音のボイスの場合などは、構成エレメント
の高音側が右に、低音側が左に定位するように設定する
と、低音から高音に向かってキーをオンしていくと、音
が順次左から右に移行するように聞こえ、臨場感を高め
ることができる。
By the way, the sound image localization (pan) and the reference volume are set for each element.
For example, the element 1 has a volume value a at the center, the element 2 has a volume value b toward the left, and the element 3 has a volume value c toward the right. For example, in the case of a piano voice, if the treble side of the component is set to the right and the bass side is set to the left, the keys are turned on from the bass to the treble. Sounds like a transition to and can enhance the sense of presence.

【0004】ところで、近年の電子楽器においては、複
数のパートに分割された演奏情報を、パート毎に別のボ
イスで演奏するようにしたものが開発されている。この
場合、音の定位やボリュームについてもパート毎に設定
するようになっている。したがって、例えば、中央に定
位されていたエレメントによって構成されボイスが、あ
るパートに割り当てられ、そのパートの音像が左に定位
するように設定されていた場合は、当該ボイスは左に寄
った位置から発音される。また、音量についても同様の
処理がなされる。
In recent years, electronic musical instruments have been developed in which performance information divided into a plurality of parts is played by a different voice for each part. In this case, the sound localization and volume are also set for each part. Therefore, for example, if a voice composed of an element that was localized in the center is assigned to a part and the sound image of that part is localized to the left, the voice will be moved from the leftward position. Is pronounced. The same process is performed for the volume.

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した電
子楽器においては、各パートの音色や音量を適宜変更し
ながら、アンサンブル全体としての音作りを行うことが
しばしば行われ、また、一旦決定したボイス(音色)で
あっても後に変更する要求が生じることがある。
By the way, in the above-described electronic musical instrument, the sound of the entire ensemble is often created while appropriately changing the tone color and volume of each part, and the voice once determined. Even with (timbre), a request may be made to change it later.

【0006】そこで、この種の電子楽器においては、指
定されたパートの音色、すなわち、ボイスが変更できる
ようになっている。このボイス変更の際に、操作者は、
候補となるボイスを順次選択し、その音を聞きながら適
否を判断する。
Therefore, in this type of electronic musical instrument, the tone color of the designated part, that is, the voice, can be changed. When changing this voice, the operator
The candidate voices are sequentially selected, and the suitability is judged while listening to the sound.

【0007】しかしながら、従来の電子楽器にあって
は、パートを指定すると、音像の定位や音量はパートに
ついての設定値の影響を受けてしまう。このため、パー
トによっては、音量が小さかったり、あるいは、聞き難
い位置から発音されることがあり、その音色本来の定位
や音量で試聴することができず、音色選択(ボイス選
択)が行い難いという問題があった。
However, in the conventional electronic musical instrument, when the part is designated, the localization and volume of the sound image are influenced by the set value of the part. For this reason, depending on the part, the volume may be low or sound may be produced from a position where it is difficult to hear, and it is not possible to audition with the original localization and volume of that tone, making it difficult to select a tone (voice selection). There was a problem.

【0008】この発明は、上述した事情に鑑みてなされ
たもので、音色を選択するときの試聴では、その音色を
構成する各エレメントの本来の音像定位で発音させ、こ
れにより、音色の選択を行い易くした電子楽器を提供す
ることを目的としている。
The present invention has been made in view of the above-mentioned circumstances, and in the audition when selecting a tone color, each element constituting the tone color is caused to sound in the original sound image localization, whereby the tone color is selected. The purpose is to provide an electronic musical instrument that is easy to perform.

【0009】また、この発明の他の目的は、音色を選択
するときの試聴では、その音色を構成する各エレメント
の本来の音量で発音させ、これにより、音色の選択を行
い易くした電子楽器を提供することを目的としている。
Another object of the present invention is to provide an electronic musical instrument which makes it easy to select a tone color by making a sound at the original volume of each element constituting the tone color in a trial listening when selecting a tone color. It is intended to be provided.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、発音チャンネルに音量および音色を指示するエレメ
ント情報を複数組み合わせ、これにより、複数の発音チ
ャンネルによる複合音色を設定する音色設定手段と、複
数のパートの演奏データを記憶する演奏データ記憶手段
と、前記各パートに対し、パート毎の音量とともに、前
記音色設定手段が設定した複合音色を割り当てる音色割
当手段とを有し、前記演奏データ記憶手段内の演奏デー
タに基づき、前記音色割当手段が割り当てた複合音色を
用いて前記各パートの同時演奏を行い、かつ、この同時
演奏において前記音色割当手段が割り当てたパート毎の
音量を反映させる自動演奏手段とを有する電子楽器にお
いて、前記パートのいずれかを指定するパート指定手段
と、前記パート指定手段によって指定されたパートの複
合音色により、当該パートの音量を反映させて、演奏操
作子の操作に応じた楽音発生を行う手動演奏音発生手段
と、前記割当手段による複合音色の変更が可能になる変
更モードを指定する変更もモード指定手段と、前記モー
ド指定手段が変更モードを指定している間は、前記手動
演奏音発生手段に対し、前記音色割当手段が割り当てた
パート毎の音量を無視し、前記エレメント情報内の音量
を用いるように指示するエレメント音量指示手段とを具
備することを特徴とする。
In order to solve the above-mentioned problems, a tone color setting means for combining a plurality of element information for instructing sound volume and tone color to a tone generation channel, thereby setting a compound tone color by a plurality of tone generation channels, Performance data storage means for storing performance data of a plurality of parts, and tone color allocation means for allocating a composite tone color set by the tone color setting means to each part together with the volume of each part, and the performance data storage means Automatically reflecting the volume of each part assigned by the tone color assigning means at the same time by using the complex tone color assigned by the tone color assigning means based on the performance data in the means. In an electronic musical instrument having a playing means, a part designating means for designating one of the parts, and the part finger. It is possible to change the composite tone color by the assigning means and the manual performance sound generating means for generating the musical tone according to the operation of the performance operator by reflecting the volume of the part by the composite tone color of the part specified by the means. When the change mode is specified by the change mode designating means and while the mode designating means is designating the change mode, the volume of each part assigned by the tone color assigning means to the manual performance sound generating means is ignored. However, an element volume instructing means for instructing to use the volume in the element information is provided.

【0011】また、請求項2に記載の発明においては、
発音チャンネルに音像定位および音色を指示するエレメ
ント情報を複数組み合わせ、これにより、複数の発音チ
ャンネルによる複合音色を設定する音色設定手段と、複
数のパートの演奏データを記憶する演奏データ記憶手段
と、前記各パートに対し、パート毎の音像定位ととも
に、前記音色設定手段が設定した複合音色を割り当てる
音色割当手段とを有し、前記演奏データ記憶手段内の演
奏データに基づき、前記音色割当手段が割り当てた複合
音色を用いて前記各パートの同時演奏を行い、かつ、こ
の同時演奏において前記音色割当手段が割り当てたパー
ト毎の音像定位を反映させる自動演奏手段とを有する電
子楽器において、前記パートのいずれかを指定するパー
ト指定手段と、前記パート指定手段によって指定された
パートの複合音色により、当該パートの音像定位を反映
させて、演奏操作子の操作に応じた楽音発生を行う手動
演奏音発生手段と、前記割当手段による複合音色の変更
が可能になる変更モードを指定する変更もモード指定手
段と、前記モード指定手段が変更モードを指定している
間は、前記手動演奏音発生手段に対し、前記音色割当手
段が割り当てたパート毎の音像定位を無視し、前記エレ
メント情報内の音像定位を用いるように指示するエレメ
ント音像指示手段とを具備することを特徴とする。
According to the second aspect of the invention,
A plurality of pieces of element information for instructing sound image localization and timbre to the tone generation channels, thereby setting tone color setting means for setting a composite tone color by a plurality of tone generation channels, and performance data storage means for storing performance data of a plurality of parts; For each part, there is a tone image localization for each part, and a tone color assigning unit for assigning a composite tone color set by the tone color setting unit, and the tone color assigning unit assigns based on the performance data in the performance data storage unit. In an electronic musical instrument having a simultaneous performance of each part using a composite tone color, and an automatic performance means for reflecting the sound image localization of each part assigned by the tone color assignment means in the simultaneous performance, one of the parts To the composite sound color of the part specified by the part specifying means and the part specifying means. Also, a change can be made by designating a manual performance sound generating means for generating a musical sound according to the operation of the performance operator by reflecting the sound image localization of the relevant part, and a change mode by which the assigning means can change the composite tone color. While the mode designating means and the mode designating means are designating the change mode, the sound image localization for each part assigned by the tone color assigning means to the manual performance sound producing means is ignored, and Element sound image instruction means for instructing to use the sound image localization.

【0012】[0012]

【作用】請求項1に記載の発明においては、モード指定
手段が変更モードを指定すると、割当手段による音色変
更が可能になり、かつ、エレメント音量指示手段によっ
てエレメント情報内の音量を用いて発音が行われ、音色
割当手段が割り当てたパート毎の音量が無視される。す
なわち、エレメントについて設定されていた本来の音量
に基づいて発音が行われる。
According to the first aspect of the invention, when the mode designating means designates the change mode, the timbre can be changed by the assigning means, and the sound is produced by the element sound volume instructing means using the sound volume in the element information. The volume of each part assigned by the tone color assigning means is ignored. That is, the sound is produced based on the original volume set for the element.

【0013】請求項2に記載の発明においては、モード
指定手段が変更モードを指定すると、割当手段による音
色変更が可能になり、かつ、エレメント指示手段によっ
てエレメント情報内の音像定位を用いて発音が行われ、
音色割当手段が割り当てたパート毎の音像定位が無視さ
れる。すなわち、エレメントについて設定されていた本
来の音像定位に基づいて発音が行われる。
According to the second aspect of the present invention, when the mode designating means designates the change mode, the timbre can be changed by the assigning means, and the sound is produced by the sound image localization in the element information by the element designating means. Done,
The sound image localization for each part assigned by the tone color assigning means is ignored. That is, the sound is generated based on the original sound image localization set for the element.

【0014】[0014]

【実施例】【Example】

A:実施例の構成 以下、図面を参照してこの発明の実施例について説明す
る。図1は、この発明の一実施例の構成を示すブロック
図である。図において、1は、装置各部を制御するCP
Uであり、ROM2内のプログラムに基づいて動作す
る。ROM2は、図2(a)に示すようなメモリマップ
になっており、図に示すE2aがプログラムエリアであ
る。また、E2bはプリセットボイスデータPV0〜P
V127が記憶されるプリセットボイスエリア、E2c
はその他のデータが記憶されるエリアである。
A: Configuration of Embodiments Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. In the figure, 1 is a CP that controls each part of the device.
U, which operates based on the program in the ROM 2. The ROM 2 has a memory map as shown in FIG. 2A, and E2a shown in the drawing is a program area. E2b is preset voice data PV0-P
Preset voice area where V127 is stored, E2c
Is an area where other data is stored.

【0015】プリセットボイスデータとは、製造時に予
め設定されるボイスデータであり、この実施例の場合
は、プリセットボイスPV0〜PV127の128個の
プリセットボイスが用意されている。ここで、図3はボ
イスデータ(複合音色)の構造を示す図であり、図示の
ようにボイスコモン情報VCとエレメント情報VE1、
VE2……を有している。ボイスコモン情報VCは、ボ
イスの名称を示すボイス名、ボイスを構成するエレメン
トの数を示すエレメント数、ベンド操作に対する設定、
その他各種制御情報等、全てのエレメントに共通する情
報である。エレメント情報VE1、VE2……は、同時
に発音する複数の発音チャンネル(後述)の各々に対す
る音色等を指示する情報であり、各々次に示すデータを
有している。すなわち、波形データを特定するための波
形番号、エンベロープ特性を決定するエンベロープジェ
ネレータについての制御情報、発生楽音の周波数特性を
決定するフィルタの制御情報、音の定位を決定するパン
情報(以下、エレメントパン情報EPANiと記す:i
はエレメントの番号)、音量を示す情報(以下、エレメ
ントボリューム情報EVOLiと記す:iはエレメント
の番号)等の情報を有している。
The preset voice data is voice data preset at the time of manufacture. In the case of this embodiment, 128 preset voices PV0 to PV127 are prepared. Here, FIG. 3 is a diagram showing the structure of voice data (composite tone color). As shown in the figure, the voice common information VC and the element information VE1,
It has VE2 .... The voice common information VC includes a voice name indicating the name of the voice, the number of elements indicating the number of elements forming the voice, a setting for the bend operation,
It is information that is common to all elements, such as various other control information. The element information VE1, VE2 ... Is information for instructing a tone color or the like for each of a plurality of sounding channels (described later) that sound at the same time, and has the following data. That is, the waveform number for specifying the waveform data, the control information about the envelope generator that determines the envelope characteristic, the control information of the filter that determines the frequency characteristic of the generated tone, and the pan information that determines the sound localization (hereinafter referred to as element pan). Information is written as EPANi: i
Indicates an element number), information indicating volume (hereinafter referred to as element volume information EVOLi: i is an element number), and the like.

【0016】この場合、波形データは、図1に示すトー
ンジェネレータ5内の波形メモリに記憶されており、ま
た、エンベロープジェネレータやフィルタもトーンジェ
ネレータ5内に設けられている。すなわち、トーンジェ
ネレータ5は、各エレメントについて設定された楽音を
発生する時分割多重の発音チャンネルを有している。こ
のトーンジェネレータ5が出力する楽音信号は、サウン
ドシステム6に供給され、楽音として発せられる。
In this case, the waveform data is stored in the waveform memory in the tone generator 5 shown in FIG. 1, and the envelope generator and the filter are also provided in the tone generator 5. That is, the tone generator 5 has time-division multiplexed tone generation channels that generate musical tones set for each element. The tone signal output by the tone generator 5 is supplied to the sound system 6 and emitted as a tone.

【0017】また、ボイスデータVDには、上述したプ
リセットボイスデータPV0〜PV127の他、ユーザ
ーが任意に設定する128個のユーザーボイスUV0〜
UV127がある。ユーザーボイスUV0〜UV127
は、フロッピーディスクFD内に適宜登録され、ディス
クドライブ10によって読み出されるようになってい
る。さらに、フロッピーディスクFDには、最大16の
パートからなる楽曲を示すソングデータSD(図5参
照)が記憶されている。
In addition to the preset voice data PV0 to PV127 described above, the voice data VD includes 128 user voices UV0 to UV0 arbitrarily set by the user.
There is UV127. User voice UV0 to UV127
Are properly registered in the floppy disk FD and read by the disk drive 10. Further, the floppy disk FD stores song data SD (see FIG. 5) indicating a music piece having a maximum of 16 parts.

【0018】次に、図1に示す3はRAMであり、その
メモリマップは図2(b)に示すようになっている。こ
の図において、エリアE3aは、種々のデータが一時記
憶されるとともに、各種レジスタやバッファが設定され
るワーキングエリアである。また、エリアE3bはボイ
スデータが一時記憶されるボイスバッファVB1〜VB
16として使用される。トーンジェネレータ5に対する
発音制御は、このボイスバッファVB1〜VB16内の
ボイスデータに基づいて行われるようになっている。ま
た、エリアE3cは、各パートについてのデータが記憶
されるマルチバッファMBとして使用される。マルチバ
ッファMBに記憶されるマルチデータMDは、図4に示
すようになっており、エフェクトについての制御情報が
記述されるマルチコモン情報MCおよび各パートについ
ての情報が記憶されるマルチボイスデータMV1〜MV
16を有している。マルチコモン情報MCは、16パー
ト全てについてのエフェクト制御情報である。すなわ
ち、この実施例の場合、エフェクトについては全パート
共通に制御するようになっている。
Next, reference numeral 3 shown in FIG. 1 is a RAM, and its memory map is as shown in FIG. 2 (b). In this figure, an area E3a is a working area in which various data are temporarily stored and various registers and buffers are set. The area E3b has voice buffers VB1 to VB for temporarily storing voice data.
Used as 16. The tone generation control for the tone generator 5 is performed based on the voice data in the voice buffers VB1 to VB16. Also, the area E3c is used as a multi-buffer MB in which data for each part is stored. The multi-data MD stored in the multi-buffer MB is as shown in FIG. 4, and the multi-common information MC in which the control information about the effect is described and the multi-voice data MV1 to MV1 in which the information about each part is stored. MV
It has 16. The multi-common information MC is effect control information for all 16 parts. That is, in the case of this embodiment, the effects are controlled commonly to all parts.

【0019】次に、マルチボイスデータMV1〜MV1
6には、そのパートに適用されるボイスの番号を示すボ
イス番号VNPTPTはパート番号を示す。以下同様)、
そのパートのボリュームを示すパートボリュームデータ
VOLPT(以下、マルチボリューム情報という)、その
パートの音像定位を示すパン情報PANPT(以下、マル
チパン情報という)およびそのパートのチューニング、
エフェクト量を示すデータ等が記憶される。チューニン
グは、各パートのチューニングを調整するための情報で
あり、エフェクト量は、マルチコモン情報MCにおいて
指定されたエフェクトについて、各パートにおいてどの
程度効かせるかを指定する情報である。
Next, multi-voice data MV1 to MV1
6 is a voice number VN PT ( PT is a part number. The same applies hereinafter) indicating a voice number applied to the part.
Part volume data VOL PT (hereinafter referred to as multi-volume information) indicating the volume of the part, pan information PAN PT (hereinafter referred to as multi-pan information) indicating the sound image localization of the part, and tuning of the part,
Data indicating the effect amount and the like are stored. The tuning is information for adjusting the tuning of each part, and the effect amount is information specifying how much the effect specified in the multi-common information MC is effective in each part.

【0020】次に、図2(b)に示すエリアE3eに
は、ソングデータSD0、SD1……が記憶され、エリ
アE3fにはその他のデータが記憶される。ソングデー
タSD0、SD1……は、各々が一つの曲に対応し、フ
ロッピーディスクFDから読み出されてエリアE3eに
転送されるようになっている。各ソングデータは、図5
に示すデータ構造を有している。
Next, area E3e shown in FIG. 2B stores song data SD0, SD1 ... And other data is stored in area E3f. Each of the song data SD0, SD1 ... Corresponds to one song, and is read from the floppy disk FD and transferred to the area E3e. Figure 5 shows each song data.
It has the data structure shown in.

【0021】図5において、SCはソングコモン情報で
あり、ソング名、初期テンポ、初期リズムなどのデータ
を有している。ソングマルチデータSMは、前述した図
4に示すマルチデータMDと同様である。すなわち、ソ
ングデータSD0、SD1……のいずれかが選択される
と、選択されたソングデータSD中のソングマルチデー
タSMがマルチバッファMBに転送され、マルチデータ
MDとして用いられる。
In FIG. 5, SC is song common information, which has data such as song name, initial tempo, and initial rhythm. The song multi-data SM is similar to the multi-data MD shown in FIG. 4 described above. That is, when any one of the song data SD0, SD1 ... Is selected, the song multi-data SM in the selected song data SD is transferred to the multi-buffer MB and used as the multi-data MD.

【0022】これは、ソングマルチデータSMは、曲の
再生を開始する際の各種状態を規定するデータである
が、曲の進行に伴ってその内容が適宜書き換えられるよ
うになっており、このため、元のデータであるソングマ
ルチデータSMは変更せずに残し、マルチバッファMB
内のデータを適宜書き換えて演奏制御に用いるためであ
る。この場合、図5に示すソングデータSD中の演奏デ
ータSPは、各パートについてのノートオン、ノートオ
フ等のイベントデータとともに、マルチデータを書き換
えるイベントデータを有しており、この書き換えデータ
に基づいてマルチバッファMB内のマルチデータが書き
換えられるようになっている。
The song multi-data SM is data that defines various states when the reproduction of a song is started, but its contents are appropriately rewritten as the song progresses. , The original data, Song Multi Data SM, remains unchanged and multi buffer MB
This is to rewrite the data in the table as appropriate for use in performance control. In this case, the performance data SP in the song data SD shown in FIG. 5 has event data such as note-on and note-off for each part, as well as event data for rewriting the multi-data, and based on this rewriting data. The multi data in the multi buffer MB can be rewritten.

【0023】次に、図1に示す15は鍵盤であり、各キ
ーのキーコード(キーを識別するコード、ノートナン
バ)、キーのオン/オフ(ノートオン/ノートオフ)お
よびベロシティを示す信号がCPU1に供給されるよう
になっている。また、16はパネルであり、CPU1の
制御の下に各種案内表示等を行う表示部16aと、操作
者が各種操作を行う操作部16bとを有している。操作
部16bから出力される操作信号はCPU1に供給され
るようになっている。
Next, reference numeral 15 shown in FIG. 1 is a keyboard, which has a key code (a code for identifying a key, a note number) of each key, a signal indicating a key on / off (note on / note off) and a velocity. It is supplied to the CPU 1. Reference numeral 16 denotes a panel, which has a display unit 16a for displaying various guides under the control of the CPU 1 and an operation unit 16b for the operator to perform various operations. The operation signal output from the operation unit 16b is supplied to the CPU 1.

【0024】B:実施例の動作 次に、上記構成によるこの実施例の動作について説明す
る。図7は、この実施例のメインルーチンを示すフロー
チャートである。まず、ステップSPa1において、初
期設定が行われ、各種レジスタ等に初期値が設定され
る。そして、ステップSPa2に進み、鍵盤処理が行わ
れる。鍵盤処理においては、鍵盤の各キーをスキャン
し、各キーの状態に応じた発音、消音等の処理が行われ
る。次に、ステップSPa3に進むと、モードスイッチ
処理およびパートスイッチ処理が行われる。これらのス
イッチは、操作部16bに設けられているスイッチであ
り、そのスイッチ信号は、後述するモードにかかわらず
常に有効である。
B: Operation of Embodiment Next, the operation of this embodiment having the above-mentioned configuration will be described. FIG. 7 is a flow chart showing the main routine of this embodiment. First, in step SPa1, initialization is performed and initial values are set in various registers and the like. Then, in step SPa2, keyboard processing is performed. In the keyboard processing, each key of the keyboard is scanned, and processing such as sounding and muting according to the state of each key is performed. Next, when proceeding to step SPa3, a mode switch process and a part switch process are performed. These switches are switches provided in the operation unit 16b, and the switch signals are always valid regardless of the mode described later.

【0025】そして、モードスイッチは、モード0〜モ
ード3のいずれかを選択するスイッチであり、次のステ
ップSPa4において、いずれのモードが選択されてい
るかが判定される。この判定結果に応じて、ステップS
Pa5のボイス選択処理、ステップSPa6のソング処
理、ステップSPa7のボイスエディット処理およびス
テップSP8のその他の処理のいずれかが行われる。こ
れらステップSP5〜SPa8の処理が行われると、ス
テップSPa2に戻り、以後は上述の処理を循環する。
The mode switch is a switch for selecting any one of modes 0 to 3, and in the next step SPa4, it is determined which mode is selected. Depending on this determination result, step S
One of the voice selection process of Pa5, the song process of step SPa6, the voice edit process of step SPa7, and the other processes of step SP8 is performed. When the processing of these steps SP5 to SPa8 is performed, the processing returns to step SPa2, and the above processing is repeated thereafter.

【0026】また、ステップSPa3においては、パー
トスイッチ信号に基づいていずれかのパートが選択され
る。ここで、パートを選択するのは、以下の理由によ
る。
In step SPa3, one of the parts is selected based on the part switch signal. Here, the reason for selecting the part is as follows.

【0027】すなわち、自動演奏用の演奏パートが最大
16存在するが、これらのパートに演奏データを記録さ
せる際には、いずれかのパートを指定して行う必要があ
る。また、各パートのボイスの指定や編集においてもパ
ートを指定する必要がある。そこで前述したパートスイ
ッチにより、いずれかのパートを選択するようにしてい
る。また、鍵盤のキーが操作されると、選択されたパー
トの音色および音量で発音処理がなされるようになって
いる。
That is, there are a maximum of 16 performance parts for automatic performance, but when recording performance data in these parts, it is necessary to specify one of the parts. Also, it is necessary to specify a part when specifying or editing the voice of each part. Therefore, one of the parts is selected by the part switch described above. When a key on the keyboard is operated, sound generation processing is performed with the tone color and volume of the selected part.

【0028】ここで、ステップSPa3におけるスイッ
チ処理の動作を図8に示す。モードスイッチのオンイベ
ントが検出されると、図8(a)に示すステップSPb
1において、操作されたスイッチに対応するモード番号
がレジスタMDに格納され、次いでステップSPb2に
おいて、レジスタMD内のモード番号に対応した表示が
表示部16aで行われる。したがって、操作者はいずれ
のモードが選択されたかを知ることができ、また、表示
内容からそのモードにおける操作方法などを知ることが
できる。
Here, the operation of the switch processing in step SPa3 is shown in FIG. When the ON event of the mode switch is detected, step SPb shown in FIG.
In 1, the mode number corresponding to the operated switch is stored in the register MD, and then in step SPb2, the display corresponding to the mode number in the register MD is displayed on the display unit 16a. Therefore, the operator can know which mode has been selected, and also can know the operation method in that mode from the displayed contents.

【0029】また、パートスイッチオンイベントが検出
されると、図8(b)に示すステップSPc1におい
て、操作されたパートスイッチに対応するパート番号が
レジスタPTに格納され、次いで、ステップSPc2に
おいて、レジスタPT内のパート番号に対応する表示が
表示部16aにおいてなされる。したがって、モードが
選択された場合と同様にして、操作者は選択されている
パート番号を知ることができる。
When the part switch on event is detected, the part number corresponding to the operated part switch is stored in the register PT in step SPc1 shown in FIG. 8B, and then the register is registered in step SPc2. The display corresponding to the part number in the PT is displayed on the display unit 16a. Therefore, the operator can know the selected part number in the same manner as when the mode is selected.

【0030】次に、ステップSPa5〜SPa8の各処
理について説明する。 (1)ソング処理 ソング処理は、フロッピーディスクFDからRAM3の
エリアE3eに転送されたソングデータのいずれかを選
択する等のソングに関する処理であり、モードスイッチ
によってソングモードが選択されると、ステップSPa
6のソング処理が行われる。ここで、図9は、このソン
グモードにおける1つの処理を示すサブルーチンであ
る。
Next, each processing of steps SPa5 to SPa8 will be described. (1) Song Processing The song processing is processing relating to a song, such as selecting one of the song data transferred from the floppy disk FD to the area E3e of the RAM 3, and when the song mode is selected by the mode switch, step SPa
Song processing of No. 6 is performed. Here, FIG. 9 is a subroutine showing one process in this song mode.

【0031】まず、図9に示すステップSPd1におい
ては、指定されたソング番号がレジスタSNに転送さ
れ、次いで、ステップSPd2においては、ソングデー
タSDSNSNはレジスタSN内のソング番号)中のマル
チデータMDがマルチバッファMBに転送される。すな
わち、フロッピーディスクFDから選択的に読み出され
た複数のソングデータは、RAM3内のエリアE3e
(図2(b)参照)に転送されるが、この場合に、レジ
スタSN内のソング番号に対応するソングデータ中のマ
ルチデータMD(図4参照)だけは、さらにマルチバッ
ファMB(図2(b)のエリア3c)に転送される。
First, in step SPd1 shown in FIG. 9, the designated song number is transferred to the register SN. Then, in step SPd2, the multi-number in the song data SD SN ( SN is the song number in the register SN). The data MD is transferred to the multi-buffer MB. That is, the plurality of song data selectively read from the floppy disk FD is stored in the area E3e in the RAM3.
(See FIG. 2B), but in this case, only the multi-data MD (see FIG. 4) in the song data corresponding to the song number in the register SN is further added to the multi-buffer MB (see FIG. 2 ( It is transferred to area 3c) of b).

【0032】そして、ステップSPd3に進み、マルチ
バッファMB内のマルチボイスデータMV1〜MV16
が示すボイス番号に対応するボイスデータを、ボイスバ
ッファVB1〜VB16に転送する。この場合に転送さ
れるボイスデータは、ソングデータ中のマルチデータに
より指定されたものであり、プリセットボイスおよびユ
ーザーボイスの中から適宜選択されたものである。
Then, the process proceeds to step SPd3, and multi-voice data MV1 to MV16 in the multi-buffer MB.
The voice data corresponding to the voice number indicated by is transferred to the voice buffers VB1 to VB16. The voice data transferred in this case is designated by the multi data in the song data, and is appropriately selected from the preset voice and the user voice.

【0033】次に、ステップSPd4に進み、ソングデ
ータSDSN中のその他の設定情報に応じてワーキングエ
リアE3aの内容を書き換え、さらに、ステップSPd
5に進んで、表示部16aの表示内容をソングデータS
SNに関する表示に切り換えてリターンする。以上のよ
うにして、任意のソングデータを選択することができ、
図示しないソング処理中のプレイスイッチオンイベント
に応じて、選択されたソングデータに基づく自動演奏を
スタートできる。
Next, in step SPd4, the contents of the working area E3a are rewritten according to the other setting information in the song data SD SN , and then in step SPd.
5, the display contents of the display section 16a is changed to the song data S
Switch to the display for D SN and return. As described above, you can select any song data,
In response to a play switch-on event during song processing (not shown), automatic performance based on the selected song data can be started.

【0034】(2)ボイス選択処理 モードスイッチによってボイス選択処理が指定される
と、ステップSPa5のボイス処理が実行される。ボイ
ス処理中でボイス選択の操作が検出されると、図6に示
すサブルーチンが起動され、指定されたボイス番号がバ
ッファbufに代入される(ステップSPe1)。この
場合のボイス番号は、ユーザーボイスがUV0〜UV1
27、プリセットボイスがPV0〜PV127である。
次いで、マルチバッファMB内のボイス番号VNPTにバ
ッファbufの値を設定する(ステップSPe2)。こ
の場合、ボイス番号VNPTPTは、パートスイッチによ
って選択されたパート番号である。
(2) Voice selection processing When the voice selection processing is designated by the mode switch, the voice processing of step SPa5 is executed. When a voice selection operation is detected during voice processing, the subroutine shown in FIG. 6 is activated, and the designated voice number is assigned to the buffer buf (step SPe1). In this case, the voice number of the user voice is UV0 to UV1.
27 and preset voices are PV0 to PV127.
Then, set the value of the buffer buf to the voice number VN PT in multi-buffer MB (step SPe2). In this case, PT of the voice number VN PT is a part number that has been selected by the part switch.

【0035】そして、ステップSPe3に進み、バッフ
ァbufが指定するボイスデータVDbufをボイスバッ
ファVBPTPTは、上述の場合と同様にパートスイッチ
によって選択されたパート番号)に転送する。以上の処
理によって、マルチバッファMB内のボイスデータの変
更が行われる。ただし、このサブルーチンで書き換える
のは、マルチバッファMB内のデータであり、ソングデ
ータ内のボイスデータについては変更されない。
Then, in step SPe3, the voice data VD buf designated by the buffer buf is transferred to the voice buffer VB PT (where PT is the part number selected by the part switch as in the above case). Through the above processing, the voice data in the multi-buffer MB is changed. However, what is rewritten in this subroutine is the data in the multi-buffer MB, and the voice data in the song data is not changed.

【0036】次に、ステップSPe4に進み、バッファ
bufが示すボイスデータ(音色)を、選択されている
パートの音色として表示部16aに表示させる。そし
て、この処理の後は、リターンする。
Next, in step SPe4, the voice data (tone color) indicated by the buffer buf is displayed on the display unit 16a as the tone color of the selected part. Then, after this processing, the process returns.

【0037】(3)マルチストアイベント この処理は、パネルスイッチの指示に応じて、マルチバ
ッファMB内のマルチデータMDを指定されたソングデ
ータに書き込む処理であり、例えば、マルチバッファM
Bを用いてマルチデータMDの編集や変更を行った後に
行われる。
(3) Multi-store event This process is a process for writing the multi-data MD in the multi-buffer MB to the designated song data in accordance with the instruction of the panel switch. For example, the multi-buffer M
It is performed after editing or changing the multi-data MD using B.

【0038】この処理は、まず、図10に示すステップ
SPf1において、指定されたソング番号をレジスタS
Nに格納し、次いで、ステップSPf2において、マル
チバッファMB内のマルチデータを、ソングデータSD
SNSNはレジスタSNの値)内に転送し、書き換えを行
う。
In this process, first, in step SPf1 shown in FIG. 10, the designated song number is stored in the register S.
Then, in step SPf2, the multi data in the multi buffer MB is stored in the song data SD.
It is transferred to SN ( SN is the value of register SN) and rewritten.

【0039】このように、マルチストアイベント処理が
行われた場合だけ、ソングデータSD内のマルチデータ
の書き換えが行われる。また、マルチバッファMB内の
マルチボイスデータMVは、パート毎に書き換え処理が
行われるから、所望のパートを順次指定して書き換えを
行った後に、図10に示すマルチストアイベント処理を
行えば、ソングデータ中のそれらのパートについてのデ
ータが一斉に書き換えられる。
As described above, the multi-data in the song data SD is rewritten only when the multi-store event process is performed. Since the multi-voice data MV in the multi-buffer MB is rewritten for each part, if desired parts are sequentially designated and rewritten, the multi-store event process shown in FIG. The data for those parts in the data are rewritten all at once.

【0040】(4)キーオンイベント 次に、鍵盤処理(ステップSPa2)中のキーオンイベ
ントについて図11を参照して説明する。まず、キーオ
ンされたキーのノートナンバをステップSPg1におい
てレジスタNNに代入する。そして、図2(b)に示す
ボイスバッファVBPTPTは選択されたパート番号)に
書き込まれているエレメント数をレジスタnに代入する
(ステップSPg2)。すなわち、ボイスバッファVB
PT内のボイスデータには、図3に示すように、ボイスを
構成するエレメント数が書き込まれているから、その数
が代入される。
(4) Key-on event Next, the key-on event in the keyboard processing (step SPa2) will be described with reference to FIG. First, the note number of the key that has been keyed on is substituted into the register NN in step SPg1. Then, the number of elements written in the voice buffer VB PT (where PT is the selected part number) shown in FIG. 2B is substituted into the register n (step SPg2). That is, the voice buffer VB
As shown in FIG. 3, the number of elements forming a voice is written in the voice data in the PT , so that number is substituted.

【0041】次に、ステップSPg3に進み、n個分の
発音チャンネル割当処理を行う。すなわち、図5に示す
トーンジェネレータ5内の発音チャンネルを、ステップ
SPg2で設定したエレメントの数だけ割り付ける。そ
して、ステップSPg4に進み、レジスタiに1を設定
する。このレジスタiは、後述するループ処理の処理回
数をカウントするとともに、割り当てた発音チャンネル
の番号を指示するレジスタである。
Next, in step SPg3, n tone generation channel allocation processing is performed. That is, the tone generation channels in the tone generator 5 shown in FIG. 5 are allocated by the number of elements set in step SPg2. Then, in step SPg4, 1 is set in the register i. The register i is a register that counts the number of times of loop processing described later and indicates the number of the assigned sounding channel.

【0042】そして、ステップSPg5に進み、レジス
タMDが0か否かが判定される。レジスタMDは、図7
に示すステップSPa3のモードスイッチ処理によって
その内容が設定されており、モード0,1,2,3に対
応した値「0」、「1」、「2」、「3」を保持してい
る。ステップSPg5の判定が「NO」の場合、すなわ
ち、ボイス選択処理以外のモードが選択されている場合
は、ステップSPg7に進み、エレメントパン情報EP
ANiPTとマルチパン情報PANPTを合成するととも
に、エレメントボリューム情報EVOLiPTとマルチボ
リューム情報VOLPTを合成し、これらの情報をi番目
の割当チャンネルに送出する。
Then, in step SPg5, it is determined whether the register MD is 0 or not. The register MD is shown in FIG.
The contents are set by the mode switch process of step SPa3 shown in (1), and the values “0”, “1”, “2”, and “3” corresponding to the modes 0, 1, 2, and 3 are held. If the determination in step SPg5 is "NO", that is, if a mode other than the voice selection process is selected, the process proceeds to step SPg7 and the element pan information EP
AN iPT and multi-pan information PAN PT are combined, element volume information EVOL iPT and multi-volume information VOL PT are combined, and these pieces of information are sent to the i-th assigned channel.

【0043】この場合、ボリューム情報の合成は、エレ
メントボリューム情報と、マルチボリューム情報(パー
トについてのボリューム)の乗算値を算出する処理とな
る。また、パン情報の合成は、エレメントパン情報EP
ANiPTとマルチパン情報PANPTを乗算することによ
って行われる。ここで、この乗算処理について図12〜
図14を参照して説明する。まず、図12に示すマルチ
パン用テーブル20およびエレメントパン用テーブル2
1は、各々ROM2のエリアE2cに設けられているテ
ーブルである。そして、マルチパンテーブル20は、マ
ルチパン情報PANPTを左右の音量データ(対数値)に
変換し、また、エレメントパン用テーブル21は、エレ
メントパン情報EPANPTを左右の音量データ(対数
値)に変換する。図13は、マルチパン用テーブル20
の左側音量データの変換特性を示すグラフであり、図示
のように、マルチパン情報PANPTが左(L)を示す場
合は音量値が最大になり、中央(C)を示す場合は最大
値に対して−3dB下がった値になる。そして、マルチ
パン情報PTが右(R)を示す場合には、音量値は0にな
る。また、マルチパン用テーブル20の右側音量データ
の変換特性は、図13に示す特性とは反対になり、すな
わち、横軸のLとRを入れ換えた特性になる。
In this case, the synthesis of the volume information is a process of calculating the multiplication value of the element volume information and the multi-volume information (volume for part). In addition, the composition of the pan information is performed by the element pan information EP
This is done by multiplying the AN iPT and the multi-pan information PAN PT . Here, FIG. 12 to FIG.
This will be described with reference to FIG. First, the multi-pan table 20 and the element pan table 2 shown in FIG.
Reference numeral 1 is a table provided in the area E2c of the ROM 2, respectively. The multi-pan table 20 converts the multi-pan information PAN PT into left and right volume data (logarithmic value), and the element pan table 21 converts the element pan information EPAN PT into left and right volume data (logarithmic value). Convert. FIG. 13 shows a multi-pan table 20.
Is a graph showing the conversion characteristics of the left side volume data, the volume value is maximum when the multi-pan information PAN PT indicates left (L), and the maximum value when the center (C) is indicated. On the other hand, the value is -3 dB lower. When the multi-pan information PT indicates the right (R), the volume value becomes 0. Further, the conversion characteristic of the right side volume data of the multi-pan table 20 is opposite to the characteristic shown in FIG. 13, that is, the characteristic in which L and R on the horizontal axis are exchanged.

【0044】また、図14はエレメントパン用テーブル
21の左側音量データの変換特性を示すグラフであり、
左(L)から中央(C)の間は最大値が保持され、中央
(C)から右(R)にかけて音量値が減少する特性にな
っている。そして、右側の音量データは、図14に示す
横軸のLとRを入れ換えた特性になっている。そして、
マルチパン用テーブル20およびエレメントパン用テー
ブル21からは、以上説明した特性に応じて右側および
左側の音量値(対数値)が出力され、各々の左側音量値
が加算器22で加算され、各々の右側音量値が加算器2
3で加算される。各加算器22、23の出力信号は、対
数値の加算値であるから、パン情報PANPT,EPAN
PTに基づく音量の乗算に対応した値になる。そして、各
加算器22、23の出力信号がi番目の発音チェンネル
に送出される。
FIG. 14 is a graph showing the conversion characteristic of the left side volume data of the element pan table 21.
The maximum value is held between the left (L) and the center (C), and the volume value decreases from the center (C) to the right (R). The volume data on the right side has a characteristic in which L and R on the horizontal axis shown in FIG. 14 are interchanged. And
From the multi-pan table 20 and the element pan table 21, right-side and left-side volume values (logarithmic values) are output according to the characteristics described above, and the respective left-side volume values are added by the adder 22, and the respective volume values are added. Right side volume value is adder 2
It is added by 3. Since the output signals of the adders 22 and 23 are logarithmic value added values, the pan information PAN PT , EPAN
The value corresponds to the volume multiplication based on PT . The output signals of the adders 22 and 23 are sent to the i-th sounding channel.

【0045】次に、ステップSPg8に進み、レジスタ
NN内のノートナンバとボイスエレメントVEiPT内の
波形番号、EG制御情報、フィルタ制御情報などのデー
タをi番目の割当チャンネルに送出する。そして、ステ
ップSPg9において、レジスタiの値がレジスタn内
のエレメント数に達したか否かが判断され、「NO」で
あれば、ステップSPg10においてレジスタiの値を
1インクリメントした後、ステップSPg5に戻る。以
後同様にして、ステップSPg5,SPg7,SPg
8,SPg9,SPg10,SPg5を循環し、全ての
エレメントについての処理が終了すると、ステップSP
g9の判定が「YES」となり、ステップSPg10に
移って、n個の割り当てチャンネルにノートオン信号を
送出する。これにより、トーンジェネレータ5からはキ
ーオンされたキーに対応する音高で、かつ、選択された
パートの音色、音量、音像定位による楽音信号が発生さ
れ、サウンドシステム6から発音される。なお、このキ
ーオンイベントルーチンでは、演奏データの録音に関す
るルーチンが省かれているが、録音時においては、押鍵
された鍵のノートナンバを検出するステップSPg1に
おいて、ノートオンイベントを演奏データに書き込むよ
うにすればよい。
Next, in step SPg8, data such as the note number in the register NN, the waveform number in the voice element VEi PT , the EG control information, and the filter control information is sent to the i-th assigned channel. Then, in step SPg9, it is determined whether or not the value of the register i has reached the number of elements in the register n. If "NO", the value of the register i is incremented by 1 in step SPg10, and then the process proceeds to step SPg5. Return. Thereafter, similarly, steps SPg5, SPg7, SPg
When the processing for all the elements is completed by cycling through 8, SPg9, SPg10, SPg5, step SP
The determination of g9 is "YES", the process proceeds to step SPg10, and note-on signals are sent to the n allocated channels. As a result, the tone generator 5 generates a musical tone signal having a pitch corresponding to a key-on key, and a tone color, a volume, and a sound image localization of the selected part, and the tone system 6 emits the tone signal. In the key-on event routine, a routine relating to recording of performance data is omitted. However, at the time of recording, note-on event is written in the performance data in step SPg1 for detecting the note number of the depressed key. You can do this.

【0046】一方、ボイス選択モードが選択されていた
場合には、ステップSPg5の判定が「YES」とな
り、レジスタiの値がレジスタn内のエレメント数に等
しくなるまで、ステップSPg5、SPg6、SPg
8、SPg9、SPg10、SPg5なるループを循環
する。すなわち、前述のループにおけるステップSPg
7に換えてステップSPg6の処理を行うループ処理と
なる。そして、ステップSPg6においては、エレメン
トパン情報EPANiPTとエレメントボリューム情報E
VOLiPTが割当チャンネルに送出される。このため、
ループ処理が終了してステップSPg11の処理が行わ
れると、ボイスを構成する各エレメントの音像定位およ
び音量による発音が行われる。したがって、操作者は、
ボイス(音色)選択する際の試聴においては、ボイスを
構成する各エレメントの本来の音像定位および音量によ
って楽音を聞くことができる。
On the other hand, if the voice selection mode is selected, the determination at step SPg5 becomes "YES", and steps SPg5, SPg6, SPg are repeated until the value of register i becomes equal to the number of elements in register n.
It circulates through a loop of 8, SPg9, SPg10, and SPg5. That is, step SPg in the above loop
It becomes a loop process of performing the process of step SPg6 instead of 7. Then, in step SPg6, the element pan information EPANi PT and the element volume information E
VOLi PT is sent to the assigned channel. For this reason,
When the loop process is completed and the process of step SPg11 is performed, sound is localized by the sound image localization of each element forming the voice and sound is generated. Therefore, the operator
In trial listening when selecting a voice (tone), a musical tone can be heard by the original sound image localization and volume of each element forming the voice.

【0047】(5)その他の処理 ステップSPa8のその他の処理には、自動演奏処理も
含まれており、自動演奏処理においては、全てのパート
の演奏データが読み出され、各パートについて設定され
たボイスによって同時演奏される。
(5) Other Processing The other processing of step SPa8 also includes automatic performance processing. In the automatic performance processing, the performance data of all parts are read and set for each part. Simultaneous performance by voice.

【0048】C:変形例 上述したステップSPg7においては、音像定位や音
量情報を合成したが、各パートについては、マルチデー
タに記述された音像定位や音量によって制御してもよ
い。 また、上述した実施例においては、音量とパン情報の
双方について制御を行ったが、パン情報または音量情報
のいずれか一方を省略した制御を行っても良い。
C: Modified Example In the above-mentioned step SPg7, the sound image localization and volume information are combined, but each part may be controlled by the sound image localization and volume described in the multi-data. Further, in the above-described embodiment, both the volume information and the pan information are controlled, but the control may be performed by omitting either the pan information or the volume information.

【0049】[0049]

【発明の効果】以上説明したように、この発明によれ
ば、音色を選択するときの試聴においては、その音色を
構成する各エレメントの本来の音像定位で発音させるこ
とができ、これにより、音色選択を行い易くすることが
できる。(請求項1) また、音色を選択するときの試聴において、その音色を
構成する各エレメントの本来の音量で発音させ、これに
より、音色選択を行い易くすることができる。(請求項
2)
As described above, according to the present invention, in the audition when selecting a tone color, it is possible to produce the sound with the original sound image localization of each element constituting the tone color. The selection can be facilitated. (Claim 1) Also, in the trial listening when selecting a tone color, the sound is produced at the original volume of each element constituting the tone color, thereby facilitating the tone color selection. (Claim 2)

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の一実施例の構成を示すブロック図
である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.

【図2】 同実施例におけるROM2およびRAM3の
メモリマップを示す図である。
FIG. 2 is a diagram showing a memory map of a ROM 2 and a RAM 3 in the embodiment.

【図3】 同実施例におけるボイスデータVDの構造を
示す図である。
FIG. 3 is a diagram showing a structure of voice data VD in the embodiment.

【図4】 同実施例におけるマルチデータMDの構造を
示す図である。
FIG. 4 is a diagram showing a structure of multi-data MD in the embodiment.

【図5】 同実施例におけるソングデータSDの構造を
示す図である。
FIG. 5 is a diagram showing a structure of song data SD in the embodiment.

【図6】 同実施例におけるボイスセレクトイベントの
処理内容を示すフローチャートである。
FIG. 6 is a flowchart showing the processing contents of a voice select event in the embodiment.

【図7】 同実施例におけるメインルーチンを示すフロ
ーチャートである。
FIG. 7 is a flowchart showing a main routine in the embodiment.

【図8】 同実施例におけるモードスイッチおよびパー
トスイッチのオンイベント処理を示すフローチャートで
ある。
FIG. 8 is a flowchart showing on-event processing of a mode switch and a part switch in the embodiment.

【図9】 同実施例におけるソングセレクトイベントの
処理内容を示すフローチャートである。
FIG. 9 is a flowchart showing the processing contents of a song select event in the embodiment.

【図10】 同実施例におけるマルチストアイベント処
理を示すフローチャートである。
FIG. 10 is a flowchart showing a multi-store event process in the embodiment.

【図11】 同実施例におけるキーオンイベント処理の
内容を示すフローチャートである。
FIG. 11 is a flowchart showing the contents of key-on event processing in the embodiment.

【図12】 パン情報の合成回路の構成例を示すブロッ
ク図である。
FIG. 12 is a block diagram showing a configuration example of a pan information synthesizing circuit.

【図13】 図12に示すマルチパン用テーブル20の
変換特性を示す図である。
13 is a diagram showing conversion characteristics of the multi-pan table 20 shown in FIG.

【図14】 図12に示すエレメントパン用テーブルの
変換特性を示す図である。
FIG. 14 is a diagram showing conversion characteristics of the element pan table shown in FIG.

【符号の説明】[Explanation of symbols]

1……CPU(音色設定手段、音色割当手段、自動演奏
手段、エレメント音量指示手段、エレメント音像指示手
段)、2……ROM、3……RAM(演奏データ記憶手
段)、5……トーンジェネレータ(発音チャンネル)、
6……サウンドシステム、10……ディスクドライブ、
15……鍵盤、16a……表示部、16b……操作部
(音色設定手段、変更モード指定手段、モード指定手
段、パート指定手段)
1 ... CPU (tone color setting means, tone color assigning means, automatic performance means, element volume instruction means, element sound image instruction means), 2 ... ROM, 3 ... RAM (performance data storage means), 5 ... Tone generator ( Pronunciation channel),
6 ... Sound system, 10 ... Disk drive,
15 ... keyboard, 16a ... display section, 16b ... operation section (tone setting means, change mode designating means, mode designating means, part designating means)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 発音チャンネルに音量および音色を指示
するエレメント情報を複数組み合わせ、これにより、複
数の発音チャンネルによる複合音色を設定する音色設定
手段と、 複数のパートの演奏データを記憶する演奏データ記憶手
段と、 前記各パートに対し、パート毎の音量とともに、前記音
色設定手段が設定した複合音色を割り当てる音色割当手
段とを有し、 前記演奏データ記憶手段内の演奏データに基づき、前記
音色割当手段が割り当てた複合音色を用いて前記各パー
トの同時演奏を行い、かつ、この同時演奏において前記
音色割当手段が割り当てたパート毎の音量を反映させる
自動演奏手段とを有する電子楽器において、 前記パートのいずれかを指定するパート指定手段と、 前記パート指定手段によって指定されたパートの複合音
色により、当該パートの音量を反映させて、演奏操作子
の操作に応じた楽音発生を行う手動演奏音発生手段と、 前記割当手段による複合音色の変更が可能になる変更モ
ードを指定する変更もモード指定手段と、 前記モード指定手段が変更モードを指定している間は、
前記手動演奏音発生手段に対し、前記音色割当手段が割
り当てたパート毎の音量を無視し、前記エレメント情報
内の音量を用いるように指示するエレメント音量指示手
段とを具備することを特徴とする電子楽器。
1. A tone color setting means for setting a plurality of element information indicating volume and tone color to a tone generation channel, thereby setting a compound tone color by a plurality of tone generation channels, and performance data storage for storing performance data of a plurality of parts. Means, and a tone color assigning means for assigning to each part a volume of each part and a complex tone color set by the tone color setting means, based on the performance data in the performance data storage means, the tone color assigning means In the electronic musical instrument having an automatic playing means for simultaneously playing the respective parts using the composite tone color assigned by, and reflecting the volume of each part assigned by the tone color assigning means in the simultaneous performance, Part specifying means for specifying either, and the composite sound of the part specified by the part specifying means According to the above, the volume of the relevant part is reflected and the manual performance sound generating means for generating a musical sound according to the operation of the performance operation element, and the change mode for designating the change mode by which the composite tone color can be changed by the assigning means are also set. While the designating means and the mode designating means designate the change mode,
And an element volume instructing means for instructing the manual performance sound generating means to ignore the volume of each part assigned by the tone color assigning means and use the volume in the element information. Musical instrument.
【請求項2】 発音チャンネルに音像定位および音色を
指示するエレメント情報を複数組み合わせ、これによ
り、複数の発音チャンネルによる複合音色を設定する音
色設定手段と、 複数のパートの演奏データを記憶する演奏データ記憶手
段と、 前記各パートに対し、パート毎の音像定位とともに、前
記音色設定手段が設定した複合音色を割り当てる音色割
当手段とを有し、 前記演奏データ記憶手段内の演奏データに基づき、前記
音色割当手段が割り当てた複合音色を用いて前記各パー
トの同時演奏を行い、かつ、この同時演奏において前記
音色割当手段が割り当てたパート毎の音像定位を反映さ
せる自動演奏手段とを有する電子楽器において、 前記パートのいずれかを指定するパート指定手段と、 前記パート指定手段によって指定されたパートの複合音
色により、当該パートの音像定位を反映させて、演奏操
作子の操作に応じた楽音発生を行う手動演奏音発生手段
と、 前記割当手段による複合音色の変更が可能になる変更モ
ードを指定する変更もモード指定手段と、 前記モード指定手段が変更モードを指定している間は、
前記手動演奏音発生手段に対し、前記音色割当手段が割
り当てたパート毎の音像定位を無視し、前記エレメント
情報内の音像定位を用いるように指示するエレメント音
像指示手段とを具備することを特徴とする電子楽器。
2. A tone color setting means for setting a compound tone color by a plurality of tone generation channels by combining a plurality of element information indicating sound image localization and tone color to a tone generation channel, and performance data for storing performance data of a plurality of parts. And a tone color assigning unit for assigning a composite tone color set by the tone color setting unit to each part, together with a sound image localization for each part, and based on the performance data in the performance data storage unit, the tone color In an electronic musical instrument having an automatic performance means for performing the simultaneous performance of each of the parts using the composite tone color assigned by the assigning means, and for reflecting the sound image localization of each part assigned by the tone color assigning means in the simultaneous performance, A part designating means for designating one of the parts, and a part designating means designated by the part designating means. A manual performance sound generating means for generating a musical sound according to the operation of the performance operator by reflecting the sound image localization of the relevant part by a tone composite tone color, and a change mode capable of changing the composite tone color by the assigning means. The change to be specified is also mode specifying means, while the mode specifying means is specifying the change mode,
Element manual image generating means for instructing the manual performance sound generating means to ignore the sound image localization for each part allocated by the tone color allocating means and use the sound image localization in the element information. An electronic musical instrument.
JP6178591A 1994-07-29 1994-07-29 Electronic musical instrument Expired - Fee Related JP2842232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6178591A JP2842232B2 (en) 1994-07-29 1994-07-29 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6178591A JP2842232B2 (en) 1994-07-29 1994-07-29 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH0844356A true JPH0844356A (en) 1996-02-16
JP2842232B2 JP2842232B2 (en) 1998-12-24

Family

ID=16051145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6178591A Expired - Fee Related JP2842232B2 (en) 1994-07-29 1994-07-29 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2842232B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133660A (en) * 1996-10-25 1998-05-22 Kawai Musical Instr Mfg Co Ltd Musical factor controller
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133660A (en) * 1996-10-25 1998-05-22 Kawai Musical Instr Mfg Co Ltd Musical factor controller
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program

Also Published As

Publication number Publication date
JP2842232B2 (en) 1998-12-24

Similar Documents

Publication Publication Date Title
US6307140B1 (en) Music apparatus with pitch shift of input voice dependently on timbre change
JP2812222B2 (en) Electronic musical instrument and method of replacing sound source means
JPH04306697A (en) Stereo system
JP3551086B2 (en) Musical sound synthesizer and method
US5074183A (en) Musical-tone-signal-generating apparatus having mixed tone color designation states
US7026538B2 (en) Tone generation apparatus to which plug-in board is removably attachable and tone generation method therefor
JP2842232B2 (en) Electronic musical instrument
JPH0720866A (en) Electronic musical instrument
JPH08234731A (en) Electronic musical instrument
JP3204147B2 (en) Music generator
JPH10149164A (en) Automatic arpeggio playing device
JPH09244647A (en) Electronic musical instrument
JP2698942B2 (en) Tone generator
JP3312939B2 (en) Electronic musical instrument
JP3334165B2 (en) Music synthesizer
JP3387179B2 (en) Electronic musical instrument
JP3439312B2 (en) Electronic musical instrument pitch controller
JPH0313994A (en) Electronic musical instrument
JP2888712B2 (en) Music generator
JPH07104672B2 (en) Effect control device for electronic musical instruments
JP3285984B2 (en) Minus one playing device
JPH10149166A (en) Musical sound synthesizer device
JP3141380B2 (en) Music generator
JP3094802B2 (en) Sampling device
JP4097325B2 (en) Music information setting device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071023

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081023

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091023

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees