JP4867940B2 - Musical sound generating apparatus and program - Google Patents

Musical sound generating apparatus and program Download PDF

Info

Publication number
JP4867940B2
JP4867940B2 JP2008073168A JP2008073168A JP4867940B2 JP 4867940 B2 JP4867940 B2 JP 4867940B2 JP 2008073168 A JP2008073168 A JP 2008073168A JP 2008073168 A JP2008073168 A JP 2008073168A JP 4867940 B2 JP4867940 B2 JP 4867940B2
Authority
JP
Japan
Prior art keywords
sound
data
note
event
legato
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008073168A
Other languages
Japanese (ja)
Other versions
JP2008191680A (en
Inventor
紘一 柏崎
岳彦 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008073168A priority Critical patent/JP4867940B2/en
Publication of JP2008191680A publication Critical patent/JP2008191680A/en
Application granted granted Critical
Publication of JP4867940B2 publication Critical patent/JP4867940B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、複数のエレメントデータに基づいて複数のエレメント音を生成し、その生成された複数のエレメント音を合成して1つの楽音を生成する楽音生成装置及び、コンピュータをこのような楽音生成装置として機能させるためのプログラムに関する。   The present invention generates a plurality of element sounds based on a plurality of element data, synthesizes the generated plurality of element sounds to generate one musical sound, and a computer using such a musical sound generation apparatus. Related to the program to function as.

従来から、1つの音色を規定するボイスデータ(音色データ)として、それぞれ波形やエンベロープ等の内容を示すエレメントデータを複数用意し、発音する際には、各エレメントデータに基づいてエレメント音を生成し、その各エレメント音を合成して、ボイスデータにより規定される音色の音として出力する楽音生成装置が知られている。
このような装置については、例えば特許文献1に記載がある。
特許第2842232号公報
Conventionally, as voice data (tone data) that defines one timbre, a plurality of element data indicating the contents of waveforms, envelopes, etc. are prepared, and when sounding, element sounds are generated based on each element data. There is known a musical tone generating apparatus that synthesizes each element sound and outputs it as a tone color defined by voice data.
Such an apparatus is described in Patent Document 1, for example.
Japanese Patent No. 2842232

また、上記のような複数のエレメントデータを使用可能な楽音生成装置において、各エレメント毎に、どの範囲のノートナンバ及びベロシティを持つノートオンイベントが発生した場合に発音に用いる(有効にする)かを規定しておき、ノートオンイベントが発生した場合に、そのノートナンバ及びベロシティに応じて楽音の生成に使用するエレメントデータを決定することも行われている。   In addition, in the tone generator capable of using a plurality of element data as described above, in which range of note numbers and velocities a note-on event having a velocity is used for each element (used) for sound generation. In the event that a note-on event occurs, element data used to generate a musical tone is determined according to the note number and velocity.

そして、特許文献2には、このような機能を利用し、エレメントデータを有効にする範囲及び、そのエレメントデータによって指定される波形データの内容を適切に定めることにより、複数の奏法の波形データを、ノートナンバを横軸とし、ベロシティを縦軸として形成されるNV平面にマッピングすることが記載されている。このようなマッピングを行っておけば、1回の押鍵操作に応じて、その押鍵操作に係るノートナンバとベロシティにより、自動的に奏法を選択し、所望の奏法で演奏を行った場合の楽音を出力させることができる。
特開2005−107029号公報
In Patent Document 2, by utilizing such a function, by appropriately determining the range in which element data is valid and the content of waveform data specified by the element data, waveform data of a plurality of rendition styles can be obtained. In addition, it is described that mapping is performed on an NV plane formed with a note number as a horizontal axis and a velocity as a vertical axis. If such a mapping is performed, the performance method is automatically selected according to the note number and velocity related to the key pressing operation in response to a single key pressing operation, and the performance is performed with the desired performance method. Musical sound can be output.
Japanese Patent Laying-Open No. 2005-107029

また、電子オルガンやキーボード等の電子楽器においては、演奏内容や設定に応じて、見かけ上同じ音色が選択されている場合でも発生させる楽音の内容を変化させる機能を設けることも行われている。
このような機能としては、例えば、レガートの設定がなされている場合に、前後の押鍵のノートオン期間を一部重ねるレガート演奏が行われた場合、前のノートオンと対応する楽音から後のノートオンと対応する楽音に対し、ピッチをなめらかにつなぐポルタメント処理を行うと共に、後のノートオンと対応する楽音を、アタック感の少ないレガート音用のデータを用いて発生させる、レガート機能が知られている。
In addition, electronic musical instruments such as an electronic organ and a keyboard are provided with a function of changing the contents of musical sounds to be generated even when the same tone color is apparently selected according to the performance contents and settings.
As such a function, for example, when a legato setting is made, and a legato performance that partially overlaps the note-on periods of the preceding and following key presses, A legato function that performs portamento processing that smoothly connects pitches to musical notes corresponding to note-on and generates musical sounds corresponding to subsequent note-on using legato sound data with a low attack feeling is known. ing.

また、ノートオンに応じてノートオン音の発音を開始すると共に、ノートオフに応じて別のノートオフ音の発音を開始するノートオフ発音機能も知られている。この機能は、チェンバロの引っかき音等を再現するために用いられる。このようなノートオフ発音機能については、例えば特許文献3に記載されている。
また、ノートオンの度に、ランダム値に応じて周波数特性やピッチなどの特性が異なる楽音を生成する差替(ランダム)発音機能も知られている。この機能は、弾き損ない音等を再現するために用いられる。このような差替発音機能については、例えば特許文献4に記載されている。
また、奏法スイッチを設け、ノートオンに応じて、その時操作されていた奏法スイッチに応じた奏法の楽音を生成する奏法切換機能も知られている。このような奏法スイッチについては、例えば特許文献5に記載されている。
特公平05−46955号公報号公報 特許第2722665号公報 特許第3407610号公報
There is also known a note-off sound generation function that starts sound generation of a note-on sound in response to note-on and starts sound generation of another note-off sound in response to note-off. This function is used to reproduce the harpsichord's scratching sound. Such a note-off sound generation function is described in Patent Document 3, for example.
There is also known a replacement (random) sound generation function for generating musical tones having different characteristics such as frequency characteristics and pitch according to random values each time a note is turned on. This function is used to reproduce sounds that cannot be played. Such a replacement sound generation function is described in Patent Document 4, for example.
There is also a rendition style switching function that provides a rendition style switch and generates a musical tone of a rendition style according to the rendition style switch operated at that time in response to note-on. Such a rendition style switch is described in Patent Document 5, for example.
Japanese Examined Patent Publication No. 05-46955 Japanese Patent No. 2722665 Japanese Patent No. 3407610

ところで、上述したような、演奏内容や設定に応じて、見かけ上同じ音色が選択されている場合でも発生させる楽音の内容を変化させる機能は、従来は、メーカーが作成した音色データを用いる場合にのみ利用できるものだった。そして、ユーザに音色データを作成させる場合に、その音色データを用いてレガート機能等を実現するための設定を行う機能を提供することは行われていなかった。   By the way, as described above, the function of changing the content of a musical sound to be generated even when the same timbre is seemingly selected according to the performance content and settings is conventionally used when using timbre data created by the manufacturer. It was only available. And when making a user produce timbre data, the function which performs the setting for implement | achieving a legato function etc. using the timbre data was not performed.

なお、特許文献2に記載の技術によれば、1つの音色データを用いて、異なる奏法に対応する波形を選択的に発音に使用させることができる。しかし、この技術では、奏法に対応する波形のマッピングを行うため、特定のノートナンバとベロシティの組み合わせには、1つの奏法しか対応させられず、音色作成の自由度が低いという問題があった。また、上記のレガート機能のように、複数のノートオンの関係に応じて波形を選択する動作や、ノートオフ発音機能のように、イベントの種類に応じて波形を選択する動作、そして、差替発音機能や奏法切換機能のように、ノートオンのノートナンバとベロシティが同じであっても場合によって波形を切り換える動作については、特許文献2に記載の技術では対応できないという問題があった。   According to the technique described in Patent Document 2, waveforms corresponding to different performance methods can be selectively used for sound generation using one timbre data. However, in this technique, since waveform mapping corresponding to a performance style is performed, there is a problem that only one performance style can be associated with a specific combination of note number and velocity, and the degree of freedom in creating a timbre is low. In addition, the operation to select a waveform according to the relationship between multiple note-ons as in the above-mentioned legato function, the operation to select a waveform according to the type of event, such as the note-off sound generation function, and replacement Even if the note-on note number and the velocity are the same as in the sound generation function and the rendition style switching function, there is a problem that the technique described in Patent Document 2 cannot cope with the operation of switching the waveform depending on the case.

また、音色データの編集ができるシンセサイザでは、音色データは、一般に複数エレメントで構成されていたが、何れのエレメントもノートオンに応じて発音開始されるようになっており、レガート発音、ランダム発音、ノートオフ発音のような、条件付きの発音制御ができるようにはなっていなかった。すなわち、複数のエレメントは、互いに独立して発音をするものであり、あるエレメントの発音を、他のエレメントの発音状態によって制御することはできなかった。   In addition, in a synthesizer that can edit timbre data, the timbre data is generally composed of a plurality of elements, but each element starts to sound in response to note-on, legato sound generation, random sound generation, Conditional pronunciation control, such as note-off pronunciation, was not possible. That is, a plurality of elements sound independently of each other, and the sound of one element cannot be controlled by the sound state of another element.

本発明は、このような背景に基づいてなされたものであり、複数のエレメント音を規定する複数のエレメントデータを有する音色データを編集可能な楽音生成装置において、各発音毎にダイナミックに音色の変化する、変化に富んだ楽音を生成することができるようにすることを目的とする。 The present invention has been made based on such a background, and in a tone generator capable of editing timbre data having a plurality of element data defining a plurality of element sounds , the timbre changes dynamically for each pronunciation. The purpose is to be able to generate a variety of musical sounds .

この発明は、上記の目的を達成するため、複数のエレメントデータに基づいて複数のエレメント音を生成し、その生成された複数のエレメント音を合成して1つの楽音を生成する楽音生成装置において、1つの音色の楽音を構成する複数のエレメント音に対応する複数のエレメントデータであって、それぞれ、対応するエレメント音の楽音特性を制御するための特性制御データと、各々エレメントデータの選択規則と対応する複数の発音タイプのうち1の発音タイプを示す発音タイプデータとを含む複数のエレメントデータを記憶する記憶手段と、ユーザからの指示に応じて、上記記憶手段の記憶する上記複数のエレメントデータのそれぞれについて、上記複数の発音タイプのうち所望の1の発音タイプを示す発音タイプデータの設定を変更する編集手段と、1つの楽音の発音制御を指示する発音制御イベントであって該1つの楽音の特性を制御するパラメータを含む発音制御イベントの発生に応じて、その発生した発音制御イベントと、上記複数のエレメントデータそれぞれの発音タイプデータが示す発音タイプとに基づいて、上記複数のエレメントデータの中から、エレメント音の生成に使用する1又は複数のエレメントデータを選択するエレメント選択手段と、上記エレメント選択手段が選択した1又は複数のエレメントデータに基づいて、その各エレメントデータ毎に、エレメントデータに含まれる特性制御データと、上記発生した発音制御イベントに含まれる上記パラメータとに応じた楽音特性を有するエレメント音を生成するエレメント音生成手段とを設けたものである。
このような楽音生成装置において、前記編集手段が、ユーザからの指示に応じて、前記複数のエレメントデータそれぞれについて、前記特性制御データをも編集する手段であるとよい。
In order to achieve the above object, the present invention provides a musical sound generating apparatus that generates a plurality of element sounds based on a plurality of element data and generates one musical sound by synthesizing the generated plurality of element sounds. A plurality of element data corresponding to a plurality of element sounds constituting a musical tone of one tone color, each corresponding to a characteristic control data for controlling a musical sound characteristic of the corresponding element sound, and a selection rule for each element data Storage means for storing a plurality of element data including pronunciation type data indicating one pronunciation type among the plurality of pronunciation types, and the plurality of element data stored in the storage means in response to an instruction from the user for each, modify the settings of the sound type data indicating the pronunciation type desired one of said plurality of sound types The sound generation control event generated in response to the generation of a sound generation control event that instructs the sound generation control of one musical sound and includes a parameter that controls the characteristics of the one musical sound; Element selection means for selecting one or more element data used for generating an element sound from the plurality of element data based on the pronunciation type indicated by the pronunciation type data of each of the plurality of element data, and the element Based on one or a plurality of element data selected by the selection means, for each element data, a musical tone characteristic corresponding to the characteristic control data included in the element data and the parameter included in the generated sound generation control event is obtained. Element sound generating means for generating element sounds .
In such a musical sound generating apparatus, the editing means may be means for editing the characteristic control data for each of the plurality of element data in accordance with an instruction from a user.

また、上記の楽音生成装置において、上記発音制御イベントをノートオンイベントとし、上記複数の発音タイプに非差替音と差替音とを含め、上記エレメント選択手段に、第1のエレメント選択手段及び第2のエレメント選択手段を設け、上記第1のエレメント選択手段が、上記ノートオンイベントの発生に応じて、上記複数のエレメントデータのうち、上記発音タイプデータが上記非差替音を示すエレメントデータを上記エレメント音の生成に使用するエレメントデータとして選択し、上記第2のエレメント選択手段が、上記ノートオンイベントの発生に応じて、上記複数のエレメントデータのうち上記発音タイプデータが上記差替音を示すエレメントデータの中から、所定の規則に従って又はランダムで、いずれか1のエレメントデータを上記エレメント音の生成に使用するエレメントデータとして選択するようにするとよい。
さらに、上記非差替音を、ノーマル音、レガート音、スイッチオン音、またはスイッチオフ音とするとよい。
Further, in the above-described musical sound generation device, the sound generation control event is a note-on event, the non-replacement sound and the replacement sound are included in the plurality of sound generation types, the element selection means includes a first element selection means, Second element selection means is provided, and the first element selection means is element data in which the pronunciation type data indicates the non-replacement sound among the plurality of element data in response to the occurrence of the note-on event. Is selected as element data to be used for generating the element sound, and the second element selecting means determines that the pronunciation type data is the replacement sound among the plurality of element data in response to the occurrence of the note-on event. Any one of the element data indicating the element according to a predetermined rule or at random It may be so selected as element data used to generate the element tone.
Furthermore, the non-replacement sound may be a normal sound, a legato sound, a switch-on sound, or a switch-off sound.

また、上記の楽音生成装置において、上記発音制御イベントをノートオンイベントとし、上記複数の発音タイプにレガート音と非レガート音とを含め、上記エレメント選択手段が、上記ノートオンイベントの発生に応じて、前回発生したノートオンイベントに応じて上記非レガート音又は上記レガート音のエレメントデータに基づいて生成されたエレメント音がまだノートオン状態であるか否か判断し、(1)まだノートオン状態であれば、上記複数のエレメントデータのうち上記発音タイプデータが上記レガート音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択し、(2)もうノートオン状態でなければ、上記複数のエレメントデータのうち上記発音タイプデータが上記非レガート音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択するようにしてもよい。Further, in the above-described musical sound generation device, the sound generation control event is a note-on event, and the element selection means includes a legato sound and a non-legato sound in the plurality of sound generation types, and the element selection means responds to the occurrence of the note-on event Determining whether the non-legato sound or the element sound generated based on the element data of the legato sound is still in the note-on state according to the note-on event that occurred last time. If there is, select the element data in which the pronunciation type data indicates the legato sound among the plurality of element data as the element data used for generating the element sound. Among the plurality of element data, the element in which the pronunciation type data indicates the non-legato sound The chromatography data, may be selected as the element data to be used to generate the above element tones.
さらに、上記非レガート音を、ノーマル音、スイッチオン音、またはスイッチオフ音とするとよい。Further, the non-legato sound may be a normal sound, a switch-on sound, or a switch-off sound.

また、上記の楽音生成装置において、上記発音制御イベントをノートオンイベントとノートオフイベントとし、上記複数の発音タイプにノートオン音とノートオフ音とを含め、上記エレメント選択手段に、第1のエレメント選択手段及び第2のエレメント選択手段を設け、上記エレメント音生成手段に、第1のエレメント音生成手段、エレメント音特定手段及び第2のエレメント音生成手段を設け、上記第1のエレメント選択手段が、上記ノートオンイベントの発生に応じて、上記複数のエレメントデータのうち、上記発音タイプデータが上記ノートオン音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択し、上記第1のエレメント音生成手段が、上記第1のエレメント選択手段が選択したエレメントデータに含まれる特性制御データに応じた楽音特性を有する上記エレメント音を生成し、上記第2のエレメント選択手段が、上記ノートオフイベントの発生に応じて、上記複数のエレメントデータのうち、上記発音タイプデータが上記ノートオフ音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択し、上記エレメント音特定手段が、上記第1のエレメント音生成手段が生成しているエレメント音のうちから、特性引継ぎ元として1つのエレメント音を特定し、上記第2のエレメント音生成手段が、上記エレメント音特定手段が特定したエレメント音の一部の楽音特性を引き継ぎ、かつ、上記第2のエレメント選択手段が選択したエレメントデータに含まれる特性制御データに応じた楽音特性を有する上記エレメント音を生成するようにしてもよい。
さらに、上記ノートオン音を、ノーマル音、レガート音、ランダム音、サイクル音、スイッチオン音、またはスイッチオフ音とするとよい。
In the above musical tone generation apparatus, the sound generation control event is a note-on event and a note-off event, the note-on sound and the note-off sound are included in the plurality of sound generation types, and the element selection means includes a first element. A selection means and a second element selection means; the element sound generation means is provided with a first element sound generation means, an element sound identification means and a second element sound generation means; and the first element selection means is In response to the occurrence of the note-on event, element data in which the pronunciation type data indicates the note-on sound is selected from among the plurality of element data as element data used for generating the element sound, and 1 element sound generating means is the element selected by the first element selecting means. Generating the element sound having a musical tone characteristic according to the characteristic control data included in the data, and the second element selecting means generates the sound of the plurality of element data in response to the occurrence of the note-off event. Element data whose type data indicates the note-off sound is selected as element data to be used for generating the element sound, and the element sound specifying means selects the element sound generated by the first element sound generating means. Among them, one element sound is specified as a characteristic takeover source, the second element sound generating means takes over some of the musical sound characteristics of the element sound specified by the element sound specifying means, and the second element sound generating means The musical tone characteristics according to the characteristic control data included in the element data selected by the element selection means It may generate the element sounds.
Further, the note-on sound may be a normal sound, legato sound, random sound, cycle sound, switch-on sound, or switch-off sound .

また、上記の楽音生成装置において、ユーザの操作によりオフ状態とオン状態を切り替え可能なスイッチを設け、上記発音制御イベントをノートオンイベントとし、上記複数の発音タイプにスイッチオフ音、スイッチオン音及び常時音を含め、上記エレメント選択手段が、上記ノートオンイベントの発生に応じて、(1)そのノートオンイベントの発生時に上記スイッチがオフ状態であった場合には、上記複数のエレメントデータのうち、上記発音タイプデータが上記スイッチオフ音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択し、(2)上記ノートオンイベントの発生時に上記スイッチがオン状態であった場合には、上記複数のエレメントデータのうちの上記発音タイプデータがスイッチオン音を示すエレメントデータを、上記エレメント音の生成に使用するエレメントデータとして選択し、さらに、(3) 上記スイッチのオンオフ状態に関わりなく、上記複数のエレメントデータのうち、上記発音タイプデータが上記常時音を示すエレメントデータも、上記エレメント音の生成に使用するエレメントデータとして選択するようにするとよい。
さらに、上記常時音を、ノーマル音、レガート音、ランダム音又はサイクル音とするとよい。
また、この発明のプログラムは、コンピュータを上記のいずれかの楽音生成装置として機能させるためのプログラムである。
Further, in the above-described musical sound generation device, a switch that can be switched between an off state and an on state by a user operation is provided, the sound generation control event is a note-on event, and the switch-off sound, the switch-on sound, The element selection means, including a constant sound, in response to the occurrence of the note-on event, (1) if the switch is off when the note-on event occurs, The element data indicating that the sound generation type data indicates the switch-off sound is selected as element data used to generate the element sound, and (2) the switch is on when the note-on event occurs. Indicates that the pronunciation type data of the plurality of element data indicates a switch-on sound. Element data is selected as element data to be used for generating the element sound, and (3) among the plurality of element data, the pronunciation type data indicates the constant sound regardless of the on / off state of the switch. Element data may also be selected as element data used for generating the element sound.
Further, the continuous sound may be a normal sound, legato sound, random sound or cycle sound.
The program of the present invention is a program for causing a computer to function as any one of the above-described musical tone generation apparatuses.

以上のようなこの発明の楽音生成装置によれば、複数のエレメント音を規定する複数のエレメントデータを有する音色データを編集可能な楽音生成装置において、各発音毎にダイナミックに音色の変化する、変化に富んだ楽音を生成することができる。
また、この発明のプログラムによれば、コンピュータを上記のような楽音生成装置として機能させてその特徴を実現し、同様な効果を得ることができる。
According to the musical tone generating apparatus of the present invention as described above, in the musical tone generating apparatus capable of editing timbre data having a plurality of element data defining a plurality of element sounds, a change in which the timbre changes dynamically for each pronunciation. It is possible to generate rich musical sounds.
Further, according to the program of the present invention, the computer can function as the above-described musical tone generating apparatus to realize the characteristics thereof, and the same effect can be obtained.

以下、この発明を実施するための最良の形態を図面に基づいて具体的に説明する。
まず、図1に、この発明の楽音生成装置の実施形態であるシンセサイザのハードウェア構成を示す。
図1に示すように、シンセサイザ10は、CPU11,ROM12,RAM13,MIDI(Musical Instruments Digital Interface:登録商標)I/F(インタフフェース)14,演奏操作子15,タイマ16,表示器17,パネル操作子18,記憶装置19,楽音信号生成回路20を備え、これらがシステムバス34により接続されている。また、この他に、波形メモリ31,DAC(デジタル・アナログ・コンバータ)32,サウンドシステム33も備えている。
Hereinafter, the best mode for carrying out the present invention will be specifically described with reference to the drawings.
First, FIG. 1 shows a hardware configuration of a synthesizer that is an embodiment of a musical tone generating apparatus according to the present invention.
As shown in FIG. 1, a synthesizer 10 includes a CPU 11, a ROM 12, a RAM 13, a MIDI (Musical Instruments Digital Interface: registered trademark) I / F (interface) 14, a performance operator 15, a timer 16, a display unit 17, and a panel operation. A child 18, a storage device 19, and a musical tone signal generation circuit 20 are provided, and these are connected by a system bus 34. In addition, a waveform memory 31, a DAC (digital / analog converter) 32, and a sound system 33 are also provided.

そして、CPU11は、シンセサイザ10を統括制御する制御手段であり、ROM12又は記憶装置19に記憶された所要の制御プログラムを実行することにより、演奏操作子15及びパネル操作子18の操作内容検出、表示器17の表示制御、MIDI_I/F14を介したMIDIデータの送受信制御、楽音信号生成回路20における楽音信号生成処理の制御等の制御動作を行う。   The CPU 11 is a control unit that performs overall control of the synthesizer 10, and detects and displays operation contents of the performance operator 15 and the panel operator 18 by executing a required control program stored in the ROM 12 or the storage device 19. Control operations such as display control of the device 17, MIDI data transmission / reception control via the MIDI_I / F 14, and control of musical tone signal generation processing in the musical tone signal generation circuit 20 are performed.

ROM12は、CPU11が実行する制御プログラムや、変更する必要のないデータ等を記憶する記憶手段である。このROM12をフラッシュメモリ等の書き換え可能な不揮発性記憶手段によって構成し、これらのデータを更新できるようにすることも考えられる。
RAM13は、CPU11のワークメモリとして使用したり、一時的に使用するパラメータの値等を記憶したりする記憶手段である。
The ROM 12 is a storage unit that stores a control program executed by the CPU 11, data that does not need to be changed, and the like. It is conceivable that the ROM 12 is constituted by rewritable nonvolatile storage means such as a flash memory so that these data can be updated.
The RAM 13 is a storage unit that is used as a work memory for the CPU 11 or that temporarily stores parameter values and the like.

MIDI_I/F14は、外部装置との間でMIDIデータを送受信するためのインタフェースである。
演奏操作子15は、鍵盤やペダル等、ユーザによる演奏操作を受け付けるための操作子である。
タイマ16は、割り込み処理のタイミング制御等に使用する時間を計測するための計時手段である。
表示器17は、液晶ディスプレイ(LCD)や発光ダイオード(LED)ランプ等によって構成され、シンセサイザ10の動作状態や設定内容あるいはユーザへのメッセージ、ユーザからの指示を受け付けるためのグラフィカル・ユーザ・インタフェース(GUI)等を表示するための表示手段である。
The MIDI_I / F 14 is an interface for transmitting / receiving MIDI data to / from an external device.
The performance operator 15 is an operator for accepting a performance operation by the user, such as a keyboard or a pedal.
The timer 16 is a time measuring means for measuring the time used for interrupt control timing control and the like.
The display unit 17 is configured by a liquid crystal display (LCD), a light emitting diode (LED) lamp, or the like, and a graphical user interface (for receiving an operation state and setting contents of the synthesizer 10, a message to the user, an instruction from the user) (GUI) and the like.

パネル操作子18は、キー、つまみ、スライダ、ピッチベンド等、ユーザからの、シンセサイザ10の動作に関する設定の操作を受け付けるための操作子である。また、このパネル操作子18には、後述するエレメント選択のためのスイッチA,B(不図示)が含まれる。
記憶装置19は、HDD(ハードディスクドライブ)、CD−ROMドライブ、光磁気(MO)ディスクドライブ等によって構成され、CPU11が実行する制御プログラムや、編集により変更されるボイスデータや楽曲データ等のデータを記憶する不揮発性記憶手段である。
The panel operation element 18 is an operation element for receiving a setting operation related to the operation of the synthesizer 10 such as a key, a knob, a slider, and a pitch bend. Further, the panel operator 18 includes switches A and B (not shown) for element selection which will be described later.
The storage device 19 includes an HDD (hard disk drive), a CD-ROM drive, a magneto-optical (MO) disk drive, and the like. The storage device 19 stores control programs executed by the CPU 11 and data such as voice data and music data changed by editing. Nonvolatile storage means for storing.

楽音信号生成回路20は、演奏操作子15の操作に従ってCPU11が発生させたり、楽曲の自動演奏時に楽曲データの内容に従ってCPU11が発生させたりしたMIDIイベント(楽音の生成を制御するための演奏イベント)に応じて楽音の波形を生成する波形生成手段である。
より具体的には、音源レジスタ21,波形データ読出処理部22,フィルタ処理部23,エンベロープ処理部24,ch(チャンネル)累算部25,エフェクト処理部26を備えている。
The musical sound signal generation circuit 20 is a MIDI event (performance event for controlling the generation of musical sound) generated by the CPU 11 according to the operation of the performance operator 15 or generated by the CPU 11 according to the contents of the music data during automatic performance of music. Waveform generating means for generating a musical tone waveform according to
More specifically, a sound source register 21, a waveform data read processing unit 22, a filter processing unit 23, an envelope processing unit 24, a ch (channel) accumulation unit 25, and an effect processing unit 26 are provided.

そして、音源レジスタ21は、複数の発音chにそれぞれ対応した複数組のレジスタを有し、その各レジスタは、システムバス34を介してCPU11により書き込まれた、楽音信号生成回路20の各構成要素22〜26を制御するための各種のデータを一時的に記憶する。このデータには、読み出すべき波形データの格納アドレス、フィルタやエンベロープを生成するためのパラメータ、波形データに施すエフェクト処理の内容等を指定するデータが含まれる。   The tone generator register 21 has a plurality of sets of registers corresponding to a plurality of sound generation channels, and each of the registers 22 is a component 22 of the tone signal generation circuit 20 written by the CPU 11 via the system bus 34. Various data for controlling .about.26 are temporarily stored. This data includes data for designating the storage address of the waveform data to be read, parameters for generating filters and envelopes, the contents of effect processing applied to the waveform data, and the like.

波形データ読出処理部22は、波形メモリ31に記憶されている複数の波形データのうち、音源レジスタ21に設定されているアドレスから、発音に使用する波形データを読み出してフィルタ処理部23に出力する機能を有する。その際の読出アドレスは、発音すべき楽音のピッチに応じて指定された速度で進行し、さらに、折り返しノイズを抑えるために、サンプル間の補間が行われている。
なお、波形メモリ31には、後述するエレメントと対応する波形データを、複数記憶させておく。1つのエレメントに対して、所定の音域毎(各音高毎でもよい)や、ベロシティ範囲毎に、異なる波形データを用意しておいてもよい。また、波形データは、楽器等の音をサンプリングして得たり、計算により生成したりすることができる。また、波形メモリ31は、ROMによって構成しても、RAMによって構成してもよい。後者の場合、電源投入時等に、記憶装置19等に記憶させておいた波形データセットを読み出して波形メモリ31に記憶させる。
The waveform data read processing unit 22 reads waveform data used for sound generation from an address set in the sound source register 21 among a plurality of waveform data stored in the waveform memory 31, and outputs the waveform data to the filter processing unit 23. It has a function. The read address at that time advances at a speed specified according to the pitch of the musical sound to be generated, and interpolation between samples is performed in order to suppress aliasing noise.
The waveform memory 31 stores a plurality of waveform data corresponding to elements to be described later. Different waveform data may be prepared for each element for each predetermined pitch range (may be for each pitch) or for each velocity range. The waveform data can be obtained by sampling a sound of a musical instrument or the like, or can be generated by calculation. Further, the waveform memory 31 may be constituted by a ROM or a RAM. In the latter case, the waveform data set stored in the storage device 19 or the like is read out and stored in the waveform memory 31 when the power is turned on.

フィルタ処理部23は、波形データ読出処理部22が出力した波形データに対し、音源レジスタ21に設定されているパラメータの値に従って周波数特性を調整するためのフィルタ処理を行い、その結果をエンベロープ処理部24に出力する機能を有する。
エンベロープ処理部24は、音源レジスタ21に設定されているパラメータの値に基づいて、音量(Amplitude)の時間変化を示すエンベロープ波形を生成し、フィルタ処理部23が出力した波形データに対し、そのエンベロープ波形に従った、音量の調整処理を行う機能を有する。この処理後の波形データは、ch累算部25に出力する。
The filter processing unit 23 performs filter processing for adjusting the frequency characteristics according to the parameter values set in the sound source register 21 on the waveform data output from the waveform data reading processing unit 22, and the result is used as an envelope processing unit. 24.
The envelope processing unit 24 generates an envelope waveform indicating a temporal change in volume (Amplitude) based on the parameter value set in the sound source register 21, and the waveform data output from the filter processing unit 23 is subjected to the envelope. It has a function of adjusting the volume according to the waveform. The waveform data after this processing is output to the ch accumulation unit 25.

なお、波形データ読出処理部22,フィルタ処理部23,エンベロープ処理部24は、1つのサンプリング周期内に、複数の各発音chと対応する複数のタイミングで、時分割に各処理を実行する。シンセサイザ10においては、発音chを128ch設けており、この数だけの処理タイミングを設けている。また、後述するように、シンセサイザ10においては、1つの音色について複数のエレメントデータを用意しておき、各エレメントデータに基づいて発音させるエレメント音を合成して、ある音色の楽音を生成する。そして、1つのエレメントデータを用いた発音に1つの発音chを使用し、例えば4つのエレメント音を合成して1つの音色の音を発音させる場合、その音色の音を発音するための4つの発音chを使用する。   The waveform data read processing unit 22, the filter processing unit 23, and the envelope processing unit 24 execute each process in a time division manner at a plurality of timings corresponding to a plurality of sound generation channels within one sampling period. In the synthesizer 10, 128 sound generation channels are provided, and this number of processing timings is provided. Further, as will be described later, the synthesizer 10 prepares a plurality of element data for one tone color, synthesizes element sounds to be generated based on each element data, and generates a musical tone of a certain tone color. For example, when one sound generation channel is used for sound generation using one element data and, for example, four element sounds are synthesized to generate a sound of one tone color, four sound generations for generating the sound of that sound color are generated. ch is used.

ch累算部25は、エンベロープ処理部24から、複数の発音chと対応するタイミングでそれぞれ出力される波形データを、1サンプリング周期分累算し、エフェクト処理部26に出力する機能を有する。
エフェクト処理部26は、ch累算部25から出力される波形データに、音源レジスタ21に設定されているパラメータの値に従って、コーラスやリバーブ等の音楽的効果を付与し、サンプリング周期毎にDAC32に出力する機能を有する。
The channel accumulation unit 25 has a function of accumulating waveform data output from the envelope processing unit 24 at a timing corresponding to a plurality of sound generation channels for one sampling period, and outputting the result to the effect processing unit 26.
The effect processing unit 26 gives a musical effect such as chorus or reverb to the waveform data output from the channel accumulation unit 25 according to the parameter value set in the sound source register 21, and supplies it to the DAC 32 at every sampling period. Has a function to output.

DAC32は、楽音信号生成回路20(エフェクト処理部26)から出力されるデジタルの波形データを、アナログの楽音信号に変換し、サウンドシステム33に供給する機能を有する。
サウンドシステム33は、スピーカ等により構成され、DAC32から供給される楽音信号に従った音声を出力する音声出力手段である。
The DAC 32 has a function of converting digital waveform data output from the tone signal generation circuit 20 (effect processing unit 26) into an analog tone signal and supplying the analog tone signal to the sound system 33.
The sound system 33 is constituted by a speaker or the like, and is an audio output unit that outputs sound according to a musical sound signal supplied from the DAC 32.

以上のようなシンセサイザ10は、ユーザの演奏操作に従い、ユーザが指定した音色の楽音を生成して出力することができる。自動演奏に従った楽音についても、同様に出力することができる。そして、この場合において、1つの音色の楽音を、複数のエレメント音を合成して生成することができる。   The synthesizer 10 as described above can generate and output musical tones specified by the user in accordance with the user's performance operation. Musical sounds according to automatic performance can be output in the same way. In this case, one tone color tone can be generated by synthesizing a plurality of element sounds.

この場合、ノートオンイベント(楽音の発音開始を指示する発音制御イベント)の発生に応じて、CPU11が楽音信号生成回路20に対して所要のエレメント音の発音開始の指示を行い、そのエレメント音の生成を開始させる。そして、そのノートオンイベントと対応するノートオフイベント(楽音の減衰開始を指示する発音制御イベント)の発生に応じて、CPU11が楽音信号生成回路20に対して、ノートオンイベント時に発音開始したエレメント音の減衰開始(リリース開始)の指示を行い、そのエレメント音の減衰を開始させる。   In this case, in response to the occurrence of a note-on event (a sound generation control event for instructing the start of sound generation), the CPU 11 instructs the sound signal generation circuit 20 to start sounding a required element sound, and Start generation. Then, in response to the occurrence of a note-off event corresponding to the note-on event (a sound generation control event for instructing the start of musical sound attenuation), the CPU 11 causes the element sound that has started sounding to the music signal generation circuit 20 during the note-on event. Is instructed to start attenuation (release start), and the attenuation of the element sound is started.

そして、各エレメント音について、ノートオンイベントに応じて発音開始された後、ノートオフイベントに応じて減衰開始されるまでの期間を、そのエレメント音の「ノートオン状態」と呼ぶ。また、減衰開始された後、音が小さくなり消滅するまでの期間を、そのエレメント音の「リリース期間」と呼ぶ。なお、後述するように、ノートオフイベントの発生に応じてエレメント音の発音を開始させる場合もある。   For each element sound, a period from when the sound generation starts in response to the note-on event to when the sound begins to decay in response to the note-off event is referred to as the “note-on state” of the element sound. The period from when attenuation starts until the sound becomes smaller and disappears is called the “release period” of the element sound. As will be described later, the sound of the element sound may be started in response to the occurrence of a note-off event.

また、シンセサイザ10においては、エレメント音の生成に用いるエレメントデータを複数有し、かつ、種々の規則に従って楽音生成に使用するエレメントデータを自動的に決定する規則の指定を含む音色データ(ボイスデータ)を、ユーザが容易に編集することができる。
以下、このボイスデータの構成及び、そのボイスデータに従った発音制御処理につき、詳細に説明する。なお、以下の説明において、ボイスデータを構成するある一部分としての「エレメントデータ」のことを、単に「エレメント」と呼ぶことにする。
The synthesizer 10 has a plurality of element data used for generating element sounds, and tone color data (voice data) including specification of rules for automatically determining element data used for tone generation according to various rules. Can be easily edited by the user.
Hereinafter, the configuration of the voice data and the sound generation control process according to the voice data will be described in detail. In the following description, “element data” as a part constituting voice data is simply referred to as “element”.

まず、図2に、1音色分のボイスデータの構成を、データマップとして示す。
この図に示すボイスデータは、予め、複数音色分、ROM12又は記憶装置19に記憶させておく。そして、ユーザ(演奏者)の操作や自動演奏データの指定により、いずれかのボイスデータが発音に使用するものとして選択されると、CPU11は、そのボイスデータを読み出して、RAM13に確保した各パート毎のボイスバッファ領域に格納し、発音処理時に参照する。また、この格納により、後述するエレメントのグループ分けや発音タイプが設定され、この処理において、CPU11がグループ設定手段及びタイプ設定手段として機能する。
First, FIG. 2 shows the configuration of voice data for one tone color as a data map.
The voice data shown in this figure is stored in advance in the ROM 12 or the storage device 19 for a plurality of timbres. Then, when any voice data is selected for use in pronunciation by the operation of the user (performer) or the specification of automatic performance data, the CPU 11 reads the voice data and stores each part secured in the RAM 13. It is stored in each voice buffer area and referred to during sound generation processing. This storage also sets element grouping and sound generation type, which will be described later. In this process, the CPU 11 functions as a group setting means and a type setting means.

そして、ボイスデータは、図2に示すように、複数のエレメントデータと、ボイス全体の情報を示すコモンデータとによって構成される。ここでは、エレメントデータの数は8としている。
このうち、コモンデータには、ボイス名,ボイスセレクト番号,プログラムチェンジ番号,音律指定データ,エフェクトパラメータ,ポリ/モノデータ,その他データが含まれる。
As shown in FIG. 2, the voice data is composed of a plurality of element data and common data indicating information on the entire voice. Here, the number of element data is eight.
Among these, the common data includes a voice name, a voice select number, a program change number, a temperament designation data, an effect parameter, poly / mono data, and other data.

そして、ボイス名は、ボイスの名称を示すデータである。
ボイスセレクト番号及びプログラムチェンジ番号は、ボイスを選択する際に、操作子又はMIDIプログラムチェンジイベントにより指定すべき番号を示すデータである。
音律指定データは、ボイスに固有の音律を指定するデータである。
エフェクトパラメータは、全てのエレメント音に対して付与する共通のエフェクトの内容を示すデータである。
The voice name is data indicating the name of the voice.
The voice select number and the program change number are data indicating numbers to be specified by an operator or a MIDI program change event when selecting a voice.
The temperament designation data is data that designates a temperament specific to the voice.
The effect parameter is data indicating the content of a common effect to be given to all element sounds.

ポリ/モノデータは、ボイスの発音を、複数音程の同時発音を許可するポリモードで行うか、許可しないモノモードで行うかを指定するためのデータである。ポリモードでは、鍵盤で複数の鍵が同時に(重なるタイミングで)押鍵された場合、それら全ての鍵と対応する音を発音するが、モノモードでは、ある鍵の押鍵後、次の鍵が押鍵された場合、前の鍵が離鍵前であっても、前の押鍵に対応する音は減衰開始(ノートオフ)する。
なお、あるボイスをポリ/モノの両方のモードに対応可能とし、演奏中にユーザの操作によりモードを切り替えられるようにしてもよい。
The poly / mono data is data for designating whether the voice is sounded in a poly mode that allows simultaneous sound generation of a plurality of pitches or in a mono mode that does not allow sound. In poly mode, when multiple keys are pressed on the keyboard at the same time (with overlapping timing), a sound corresponding to all the keys is sounded, but in mono mode, after pressing one key, the next key is pressed. When the key is played, the sound corresponding to the previous key press starts to be attenuated (note-off) even if the previous key is not released.
A voice may be compatible with both poly / mono modes, and the mode may be switched by a user operation during performance.

また、各エレメントデータは、エレメントオンオフ,発音タイプ,グループ番号,波形セット番号,ノートレンジ,ベロシティレンジ,ベロシティカーブ,フィルタパラメータ,EGパラメータ,その他データを含む。
そして、エレメントオンオフは、エレメントの有効(オン)/無効(オフ)を指定するデータである。これがオンのエレメントのみが、発音に使用される。
発音タイプは、エレメントを発音に使用するか否かを定める際に用いる規則を、エレメントのタイプとして指定するデータである。指定可能な発音タイプとしては、以下の表1に示すものを用意している。具体的な発音タイプ名の他に示したカッコ書きは、発音タイプの機能に応じた区分である。
Each element data includes element on / off, sound generation type, group number, waveform set number, note range, velocity range, velocity curve, filter parameter, EG parameter, and other data.
The element on / off is data for designating valid (on) / invalid (off) of the element. Only elements with this on will be used for pronunciation.
The pronunciation type is data specifying a rule used when determining whether or not an element is used for pronunciation as an element type. The sound generation types that can be specified are shown in Table 1 below. The parenthesis written in addition to the specific pronunciation type name is a classification according to the function of the pronunciation type.

Figure 0004867940
Figure 0004867940

グループ番号は、エレメントのグループ分けを示すデータであり、発音タイプが示す規則は、そのグループ毎に適用する。ここでは、グループは1から8までの8グループを設定可能であり、1ボイス中の全てのエレメントを別々のグループにすることが可能である。   The group number is data indicating grouping of elements, and the rule indicated by the pronunciation type is applied to each group. Here, eight groups from 1 to 8 can be set, and all elements in one voice can be made into separate groups.

また、波形セット番号は、対応するエレメントを用いたエレメント音の生成に使用する波形セットデータの番号を示す。波形セットデータは、複数セットのデータにそれぞれ番号を付して波形メモリ31に格納しておき、エレメント音を生成する場合には、波形セット番号により指定された波形セットデータに含まれる複数の波形データの何れか1つを、ノートオン/オフイベントのノート(音高)に応じて選択し、波形データ読出処理部21に読み出させる。この波形セットデータを、ユーザが自由に編集できるようにしてもよい。また、波形データを選択する際に、ノートに加えて、またはこれに代えて、ノートオン/オフイベントのベロシティ(強度)も利用するようにしてもよい。   The waveform set number indicates the number of waveform set data used for generating an element sound using the corresponding element. In the waveform set data, a plurality of sets of data are numbered and stored in the waveform memory 31. When an element sound is generated, a plurality of waveforms included in the waveform set data designated by the waveform set number are stored. Any one of the data is selected according to the note (pitch) of the note on / off event, and is read out by the waveform data reading processing unit 21. The waveform set data may be freely edited by the user. Further, when selecting waveform data, the velocity (intensity) of the note on / off event may be used in addition to or instead of the note.

なお、波形セットデータには、複数の波形データを含め、ノートオン/オフイベントのレンジ範囲やベロシティ範囲に応じて、異なる波形データを使用するようにすることもできる。また、エレメントデータ中で、波形セット番号に代えて、波形メモリ31から波形データを読み出すアドレスを直接指定するようにしてもよい。   The waveform set data may include a plurality of waveform data, and different waveform data may be used according to the range range or velocity range of the note on / off event. Further, in the element data, an address for reading waveform data from the waveform memory 31 may be directly specified instead of the waveform set number.

ノートレンジ及びベロシティレンジはそれぞれ、リミットデータであり、発生したノートオンイベント(発音タイプがキーオフ発音の場合にはノートオフイベント)のノートナンバ及びベロシティがどの範囲にある場合にエレメントを発音に使用するかを指定するデータである。そして、ノートナンバ又はベロシティが、これらのレンジから外れる場合には、レンジを設定したエレメントを発音に使用しない。   Each of the note range and velocity range is limit data, and the element is used for sound generation when the note number and velocity of the generated note-on event (note-off event when the sound type is key-off sound) is in any range. It is data that specifies. If the note number or velocity is out of these ranges, the element for which the range is set is not used for sound generation.

ベロシティカーブは、エレメント音の生成に使用するベロシティカーブを規定するデータである。
フィルタパラメータは、エレメント音の生成時にフィルタ処理部23で行うフィルタ処理の種類やその特性値を規定するデータである。
EGパラメータは、エレメント音の生成時にエンベロープ処理部24で施す各種処理に使用するエンベロープの特性を規定するデータである。
The velocity curve is data defining a velocity curve used for generating the element sound.
The filter parameter is data defining the type of filter processing performed by the filter processing unit 23 and the characteristic value thereof when generating element sounds.
The EG parameter is data defining characteristics of an envelope used for various processes performed by the envelope processing unit 24 when generating an element sound.

以上のうち、波形セット番号,ベロシティカーブ,フィルタパラメータ,EGパラメータは、エレメント音の楽音特性(振幅変化、ピッチ変化、波形形状等)を制御するための特性制御データである。
以上のようなボイスデータは、CPU11を編集手段として機能させ、シンセサイザ10のパネル操作子18を用いて編集したり、外部のPC(パーソナルコンピュータ)等で所要のアプリケーションを用いて編集し、その結果を記憶装置19に記憶させたりすることができる。
Among the above, the waveform set number, velocity curve, filter parameter, and EG parameter are characteristic control data for controlling the musical tone characteristics (amplitude change, pitch change, waveform shape, etc.) of the element sound.
The voice data as described above is edited by the CPU 11 functioning as an editing means, using the panel operator 18 of the synthesizer 10, or by using a required application on an external PC (personal computer) or the like. Can be stored in the storage device 19.

次に、図3に、CPU11が以上のようなボイスデータを用いて楽音信号生成回路20に発音を指示する際に使用する発音管理用データの構成を示す。
この図に示す発音管理用データは、CPU11が、RAM13に記憶領域を確保して記憶させ、発音に使用するボイスデータの内容や、発生したノートオン/オフイベントの内容に基づいて随時書き換え、これらの演奏イベントと対応する発音に使用するエレメントを決定(ボイスデータに含まれる複数のエレメントから選択)する際に参照するものである。
Next, FIG. 3 shows a configuration of sound generation management data used when the CPU 11 instructs the musical tone signal generation circuit 20 to generate sound using the above voice data.
The sound management data shown in this figure is stored in the RAM 13 by securing a storage area in the RAM 13, and is rewritten as needed based on the contents of the voice data used for sound generation and the contents of the generated note on / off event. This element is referred to when an element to be used for pronunciation corresponding to the performance event is selected (selected from a plurality of elements included in the voice data).

そして、シンセサイザ10は、複数パートでの発音を可能としているため、各パート毎に、そのパートで発生したイベントや、そのパートでの発音に使用するボイスデータに関する管理用データを記憶できるようにしている。なお、パートは、例えば、上鍵盤、下鍵盤、足鍵盤等の演奏操作子毎のパートとしたり、各鍵盤を複数の鍵域に分け、その鍵域毎のパートとしたり、自動演奏の各演奏トラック毎のパートとしたりすることが考えられる。そして、シンセサイザ10では、パート毎に、音色を設定することができる。また、あるパートの演奏イベント(MIDIイベント)が発生した場合、そのパートに設定されている音色を示すボイスデータ(音色データ)を用いて、生成する楽音を制御する。   Since the synthesizer 10 is capable of sound generation in a plurality of parts, it is possible to store, for each part, management data related to events that have occurred in that part and voice data used for sound generation in that part. Yes. For example, the part can be a part for each performance operator such as an upper keyboard, a lower keyboard, a foot keyboard, etc., each key is divided into a plurality of key ranges, and each part of the automatic performance. It can be considered to be a part for each track. The synthesizer 10 can set a timbre for each part. Also, when a performance event (MIDI event) of a part occurs, a musical tone to be generated is controlled using voice data (tone color data) indicating a timbre set for that part.

また、各パートについての発音管理データは、ボイス番号,グループ発音状態フラグGS,有効エレメントフラグEE,レガート状態フラグLS,各グループに関するデータ,その他データを含む。
そして、ボイス番号は、対応するパートの発音に使用するボイスデータを示す番号である。
The sound management data for each part includes a voice number, a group sound status flag GS, a valid element flag EE, a legato status flag LS, data regarding each group, and other data.
The voice number is a number indicating voice data used for pronunciation of the corresponding part.

グループ発音状態フラグGSは、各グループにおいて、過去のノートオンイベントに応じて発音している非レガート又はレガートのエレメント音の中に、未だノートオン状態であるエレメント音があるか否かを記載するためのフラグデータである。また、GSは8ビットのデータであり、その各ビットがそれぞれ、1〜8番目のグループに対応し、そのグループに関する情報を示す。   The group sounding state flag GS describes whether or not there is an element sound that is still in a note-on state among non-legato or legato element sounds that are sounded in response to a past note-on event in each group. Flag data for GS is 8-bit data, and each bit corresponds to the 1st to 8th groups, and indicates information related to the group.

有効エレメントフラグEEは、ノートオンイベントを検出した場合に、そのイベントに応じた発音に使用し得るエレメントがどれであるかを判定して一時的に記載するためのフラグデータである。この判定は、各エレメントのオンオフ及びリミットデータを参照し、また、発音タイプがスイッチ対応(全スイッチオフ、スイッチAオン又はスイッチBオンの発音タイプ)である場合には、発音タイプ及びそのスイッチの状態も参照して行う。また、EEも8ビットのデータであり、その各ビットがそれぞれ、1〜8番目のエレメントに対応し、そのエレメントに関する情報を示す。   The valid element flag EE is flag data for temporarily determining and describing which element can be used for sound generation according to the event when a note-on event is detected. This determination refers to the on / off and limit data of each element. If the sound generation type is switch-compatible (all switch off, switch A on or switch B on sound generation type), the sound generation type and the switch Also refer to the state. EE is also 8-bit data, and each bit corresponds to the 1st to 8th elements and indicates information related to the element.

レガート状態フラグLSは、ノートオンイベントを検出した場合に、そのイベントがレガート奏法に係るノートオンイベントか否か判定し、その結果を一時的に記載するためのフラグデータである。LSは、1ビットのデータでよい。
これらのGS,EE,LSの値は、ノートオンイベントがある度に更新される。
The legato state flag LS is flag data for determining whether or not the event is a note-on event related to a legato performance when a note-on event is detected, and temporarily describing the result. The LS may be 1-bit data.
These values of GS, EE, and LS are updated every time there is a note-on event.

また、各グループに関するデータは、非レガートエレメントフラグNLE,レガートエレメントフラグLE,サイクルエレメントフラグCE,ランダムエレメントフラグRE,キーオフ発音エレメントフラグOSE,サイクル発音レジスタCXを含む。
これらのうち、サイクル発音レジスタCXを除く5つのフラグデータはそれぞれ、非レガート,レガート,サイクル,ランダム,キーオフ発音の5つの発音タイプに対応しており、ボイスデータの8つのエレメントのうちの、該当するグループに属し、かつ対応する発音タイプに設定されているエレメントを示す。なおここでは、ノーマル,全スイッチオフ,スイッチAオン,スイッチBオンの4つの発音タイプに設定されたエレメントは、ひとまとめにして非レガートのエレメントとして、非レガートエレメントフラグNLEにより示すようにしている。
The data relating to each group includes a non-legato element flag NLE, a legato element flag LE, a cycle element flag CE, a random element flag RE, a key-off sounding element flag OSE, and a cycle sounding register CX.
Of these, the five flag data excluding the cycle sound register CX correspond to the five sound types of non-legato, legato, cycle, random, and key-off sound, respectively. Elements that belong to a group and are set to the corresponding pronunciation type. Here, the elements set to the four sound generation types of normal, all switch off, switch A on, and switch B on are collectively indicated by a non-legato element flag NLE as a non-legato element.

そして、各フラグデータは8ビットのデータであり、その各ビットが、ボイスデータ中の各エレメントに対応する。そして、各グループの各フラグデータでは、該当グループに属し、かつフラグデータと対応する発音タイプに設定されているエレメントのビットが「1」に設定され、残りのビットは「0」に設定される。各エレメントは、1つのグループにしか属することができず、また、1つの発音タイプしか設定できないので、全グループの全フラグを通して、各ビットは1つのフラグデータでしか「1」にならない。ただし、1つのフラグデータで複数のビットが「1」になることはある。   Each flag data is 8-bit data, and each bit corresponds to each element in the voice data. In each flag data of each group, the bits of the elements belonging to the corresponding group and set to the sound generation type corresponding to the flag data are set to “1”, and the remaining bits are set to “0”. . Since each element can belong to only one group and only one sound generation type can be set, each bit can be set to “1” only by one flag data through all flags of all groups. However, a plurality of bits may be “1” with one flag data.

すなわち、あるグループに、e番目のエレメントが属しており、そのエレメントがレガートのエレメントだとすると、そのグループのレガートエレメントフラグLEは、e番目のビットが「1」になるが、他のグループのものも含め、他の全てのフラグデータのe番目のビットは「0」になる。また、あるグループに、1番目と2番目のエレメントが属しており、その両方がサイクルのエレメントだとすると、そのグループのサイクルエレメントフラグCEは、1番目と2番目のビットが「1」になる。
これらのNLE,LE,CE,RE,OSEの各フラグは、各パートでボイスデータが選択された際に設定され、その後は、ボイスデータが変更されない限り変更されない。
That is, if an e-th element belongs to a certain group and that element is a legato element, the legato element flag LE of that group is set to “1” in the e-th bit. In addition, the e-th bit of all other flag data is “0”. Further, if the first and second elements belong to a certain group and both of them belong to the cycle, the first and second bits of the cycle element flag CE of that group are “1”.
These NLE, LE, CE, RE, and OSE flags are set when voice data is selected in each part, and are not changed unless the voice data is changed thereafter.

また、サイクル発音レジスタCXは、最新のノートオンイベントに対応する発音に用いたサイクルのエレメントを記録するレジスタであり、次のノートオンイベントに対応する発音に使用するサイクルのエレメントを決定する際に参照する。サイクル発音レジスタCXの値は、ノートオンイベントがある度に更新される。また、CXは、1〜8番目のグループのグループデータ全てに設けても、サイクルのエレメントを含むグループのグループデータのみに設けてもよい。
以上が、発音管理用データの構成である。
The cycle sound generation register CX is a register that records the element of the cycle used for sound generation corresponding to the latest note-on event, and determines the cycle element used for sound generation corresponding to the next note-on event. refer. The value of the cycle sound register CX is updated every time there is a note-on event. Further, CX may be provided for all the group data of the first to eighth groups, or may be provided only for the group data of the group including the cycle element.
The above is the configuration of the pronunciation management data.

次に、図4に、CPU11がノートオンイベントの検出時に実行する、そのイベントに応じた発音指示処理のフローチャートを示す。この処理は、図3に示した各データを参照したり、書き換えたりしながら進行するものである。
CPU11は、ユーザの演奏操作に応じて生成されたり、自動演奏処理により生成されたりしてノートオンイベントが発生したことを検出すると、図4のフローチャートに示す処理を開始する。
Next, FIG. 4 shows a flowchart of the sound generation instruction process corresponding to the event, which is executed when the CPU 11 detects the note-on event. This process proceeds while referring to and rewriting each data shown in FIG.
When the CPU 11 detects that a note-on event has occurred by being generated in response to a user's performance operation or by automatic performance processing, the CPU 11 starts the processing shown in the flowchart of FIG.

そしてまず、検出したノートオンイベントが持つ、パートp,ノートナンバn,ベロシティvのデータを取得する(S11)。ノートナンバは、基本的には発音させる音の音高と対応し、ベロシティは、基本的には演奏操作の強度と対応するが、必ずしもこれらに限られない。
次に、ステップS11で取得したパートpと対応するボイス番号を参照して、そのパートに設定されているボイスデータを選択し、以後の処理に使用することを決定する(S12)。
そして、有効性判定処理(S13)及びモノモード処理(S14)を実行して、有効エレメントフラグEE及びレガート状態フラグLSを設定する。
First, data of part p, note number n, velocity v possessed by the detected note-on event is acquired (S11). The note number basically corresponds to the pitch of the sound to be generated, and the velocity basically corresponds to the intensity of the performance operation, but is not necessarily limited thereto.
Next, referring to the voice number corresponding to the part p acquired in step S11, the voice data set in the part is selected and determined to be used for the subsequent processing (S12).
Then, the validity determination process (S13) and the mono mode process (S14) are executed to set the valid element flag EE and the legato state flag LS.

その後、グループ番号レジスタgを1から8まで順次増加させて、1〜8番目の各グループにつき、非レガート&レガート発音処理(S16),サイクル発音処理(S17),ランダム発音処理(S18)を実行し、そのグループに属するエレメントの発音タイプに応じて、発音に使用するエレメントを決定し、楽音信号生成回路20の発音chを割り当て、音源レジスタ21の割り当てた発音chのレジスタに対し発音に必要な設定を行う(S15〜S21)。   Thereafter, the group number register g is sequentially increased from 1 to 8, and the non-legato & legato sound generation processing (S16), cycle sound generation processing (S17), and random sound generation processing (S18) are executed for each of the first to eighth groups. Then, the element used for sound generation is determined according to the sound generation type of the elements belonging to the group, the sound generation channel of the tone signal generation circuit 20 is assigned, and the sound generation channel register assigned to the sound source register 21 is required for sound generation. Settings are made (S15 to S21).

また、発音を設定したエレメントのうち1つを選択し、対応するノートオフ時の発音にエンベロープ情報を引き継がせるエレメントとして、今回のノートナンバnと、選択したエレメントが割り当てられた発音chとを示す引き継ぎ情報を、処理中のグループの引き継ぎリストHL(g)に追加する(S19)。このステップS19の処理において、CPU11はエレメント音特定手段として機能する。   Also, the current note number n and the sound channel to which the selected element is assigned are shown as elements for selecting one of the elements for which sound is set and passing the envelope information to the sound at the corresponding note-off time. The takeover information is added to the takeover list HL (g) of the group being processed (S19). In the process of step S19, the CPU 11 functions as element sound specifying means.

引き継ぎリストHL(g)は、図3に示したグループデータ中に設けてもよいが、登録する引き継ぎ情報は1つとは限らず、基本的には同時にノートオンされている数だけ記憶し、データ量が変動するので、グループデータとは別に記憶するようにすることが好ましい。
また、引き継ぎ情報は、記載した発音chに減衰(リリース)開始が指示されたり、発音音量が下がりその発音chが開放されたりしたときに引き継ぎリストHL(g)から削除される。そして、エンベロープ情報を引き継がせるエレメントの選択は、エレメント番号の若い順等により自動的に行うようにしてもよいし、ユーザがエレメント選択の順番を指定できるようにしてもよい。なお、ここで選択されるエレメントは、ノートオンイベントに応じて同時に発音開始される複数のエレメント音のうち、発音持続時間が最も長いエレメント音とするのが好適である。
エンベロープ情報の引継ぎについては、後述する。
The takeover list HL (g) may be provided in the group data shown in FIG. 3, but the number of takeover information to be registered is not limited to one. Since the amount varies, it is preferable to store the amount separately from the group data.
In addition, the takeover information is deleted from the takeover list HL (g) when the described sounding channel is instructed to start attenuation (release) or the sounding volume is lowered and the sounding channel is released. Then, the selection of the element to carry over the envelope information may be automatically performed according to the element number in ascending order, or the user may be able to specify the element selection order. The element selected here is preferably an element sound having the longest sound generation duration among a plurality of element sounds that start sounding simultaneously in response to a note-on event.
The handover of envelope information will be described later.

また、ステップS21でYESになると、楽音信号生成回路20に対しステップS16〜S18の各発音処理で発音を設定した全発音chの発音開始を指示し(S22)、処理を終了する。そして、この発音開始の指示に応じて、楽音信号生成回路20が、これらの発音chのレジスタに設定された各エレメントのエレメントデータに基づいて、ノートナンバnに対応した音高かつベロシティvに対応した音量のエレメント音を生成し、これらを合成することにより、検出したノートオンイベントに応じた楽音を生成することができる。この場合において、CPU11と楽音信号生成回路20がエレメント音生成手段として機能する。   When YES is determined in the step S21, the musical sound signal generation circuit 20 is instructed to start sounding of all sounding channels set to sounding in the sounding processes in the steps S16 to S18 (S22), and the process is ended. In response to the sounding start instruction, the musical tone signal generation circuit 20 corresponds to the pitch and velocity v corresponding to the note number n based on the element data of each element set in the register of these sounding channels. By generating element sounds having the same volume and synthesizing them, a musical sound corresponding to the detected note-on event can be generated. In this case, the CPU 11 and the tone signal generation circuit 20 function as element sound generation means.

次に、図4に示した各処理について、内容をより詳細に説明する。
まず、図5に、ステップS13の有効性判定処理のフローチャートを示す。
この処理においては、CPU11は、エレメント番号レジスタeの値を1ずつ増加させ、1〜8番目の各エレメントにつき、ステップS32〜S37の処理を順次実行する(S31,S38,S39)。
Next, the contents of each process shown in FIG. 4 will be described in more detail.
First, FIG. 5 shows a flowchart of the effectiveness determination process in step S13.
In this process, the CPU 11 increments the value of the element number register e by 1, and sequentially executes the processes of steps S32 to S37 for each of the first to eighth elements (S31, S38, S39).

そして、この部分の処理においては、e番目のエレメントのエレメントオンオフがオンであるか(S32)、及び、図4のステップS11で取得したノートナンバnとベロシティvが、エレメントデータ中のノートレンジ及びベロシティレンジで規定される有効範囲に入っているか(S33)、を順次判定する。また、e番目のエレメントがスイッチ対応(全スイッチオフ、スイッチAオン又はスイッチBオンの発音タイプ)のエレメントである場合には(S34)、エレメント選択スイッチの押下状態(オンオフ状態)が、e番目のエレメントの要求を満たすものであるか否かも判定する(S35)。
そして、これらの判定が全てYESである場合(ステップS34でNOの場合も)、有効エレメントフラグEEのe番目のビットを「1」に設定し、e番目のエレメントが、今回検出されたノートオンイベントと対応する発音に使用され得ることを示す(S36)。
In this part of the processing, whether the element on / off of the e-th element is on (S32), and the note number n and velocity v acquired in step S11 of FIG. It is sequentially determined whether it is within the effective range defined by the velocity range (S33). If the e-th element is a switch-compatible element (all switch-off, switch A-on or switch-B-on sound generation type) (S34), the element selection switch is depressed (on-off state) when the e-th element It is also determined whether or not the element requirement is satisfied (S35).
If all these determinations are YES (even if NO in step S34), the e-th bit of the valid element flag EE is set to “1”, and the e-th element is detected as a note-on detected this time. It shows that it can be used for the pronunciation corresponding to an event (S36).

また、ステップS32,S33,S35のいずれかでNOの場合には、有効エレメントフラグEEのe番目のビットを「0」に設定し、e番目のエレメントを、今回検出されたノートオンイベントと対応する発音に使用しないことを示す(S37)。
そして、以上の処理を繰り返し、ステップS39でYESになると、元の処理に戻る。
以上の処理により、パートpの発音に使用するボイスデータに含まれるエレメントのうち、今回の発音に使用し得るエレメントがどれであるかを、有効エレメントフラグEEに記録することができる。
If NO in any of steps S32, S33, and S35, the e-th bit of the valid element flag EE is set to “0”, and the e-th element corresponds to the note-on event detected this time. It indicates that it is not used for the pronunciation to be performed (S37).
Then, the above process is repeated, and when YES is determined in the step S39, the process returns to the original process.
With the above processing, it is possible to record in the valid element flag EE which element can be used for the current pronunciation among the elements included in the voice data used for the pronunciation of the part p.

次に、図6に、ステップS14のモノモード処理のフローチャートを示す。
この処理においては、CPU11はまず、使用するボイスのポリ/モノデータを参照し、そのボイスがモノモードか否か判断する(S41)。そして、モノモードであれば、レガート機能を使えるため、パートpで前のノートオンが行われている間に今回のノートオンイベントがあったか否か判断する(S42)。
Next, FIG. 6 shows a flowchart of the mono-mode process in step S14.
In this process, the CPU 11 first refers to the poly / mono data of the voice to be used, and determines whether or not the voice is in the mono mode (S41). If it is the mono mode, the legato function can be used, so it is determined whether or not there is a current note-on event while the previous note-on is being performed in part p (S42).

ここであれば、前の鍵が離される前に次の鍵が押下されたレガート奏法であることがわかるため、前のノートオンと対応する(同じパートで同じノートナンバの)ノートオフイベントを発生させ、楽音信号生成回路20において前のノートオンにより生成開始されていたエレメント音の減衰を開始させると共に(S43)、レガート状態フラグLSに「1」をセットしてレガート奏法が行われたことを示し(S44)、元の処理に戻る。   In this case, since it is known that the next key is pressed before the previous key is released, a note-off event corresponding to the previous note-on (same note number in the same part) is generated. The musical tone signal generation circuit 20 starts attenuation of the element sound that has been generated by the previous note-on (S43), and sets the legato state flag LS to “1” to confirm that the legato performance has been performed. In step S44, the process returns to the original process.

また、ステップS41でNOの場合には、ポリモードであり、レガート機能は使えないため、ステップS42でNOの場合には、レガート奏法は行われていないため、それぞれレガート状態フラグLSに「0」をセットして、レガート奏法が行われていないことを示し、元の処理に戻る。
以上の処理により、レガート機能が有効なモノモードの場合に、レガート奏法が行われたか否かをレガート状態フラグLSに記録することができる。
If NO in step S41, it is a poly mode and the legato function cannot be used. If NO in step S42, the legato performance is not performed, so that each legato state flag LS is set to “0”. Set to indicate that no legato performance has been performed, and return to the original process.
With the above processing, whether or not the legato playing method has been performed can be recorded in the legato state flag LS in the mono mode in which the legato function is valid.

次に、図7に、ステップS16でg番目のグループに関して実行される、非レガート&レガート発音処理のフローチャートを示す。
この処理においては、CPU11はまず、図6に示した処理でセットしたレガート状態フラグLSが「0」であるか否か判断する(S51)。ここで「0」であれば、今回のノートオンがレガート奏法で行われていないことがわかるため、ステップS52以下の、非レガート音の発音に係る処理に進む。
Next, FIG. 7 shows a flowchart of the non-legato & legato sound generation process executed for the g-th group in step S16.
In this process, the CPU 11 first determines whether or not the legato state flag LS set in the process shown in FIG. 6 is “0” (S51). If it is “0” here, it can be seen that the current note-on has not been performed with the legato playing method, and therefore, the process proceeds to the processing related to the pronunciation of the non-legato sound in step S52 and subsequent steps.

そしてまず、ビット毎に、有効エレメントフラグEEと、処理中のg番目のグループに存在する非レガートエレメントフラグNLE(g)の論理積を取る(S52)。この論理積により結果が「1」になるビットが示すエレメントデータは、g番目のグループの非レガートエレメントのうち、発音に使用する条件が満たされているものである。
このフローで処理されるのはg番目のグループのエレメントであり、非レガートエレメントフラグNLE(g)のうち「1」のビットは、対応するエレメントが非レガートであることを示し、また、有効エレメントフラグEEのうち「1」のビットは、対応するエレメントがノートレンジ及びベロシティレンジ(及びスイッチ対応)の要求を満たした、今回の発音に使用し得るエレメントであることを示すためである。
First, for each bit, the logical product of the valid element flag EE and the non-legato element flag NLE (g) existing in the g-th group being processed is calculated (S52). The element data indicated by the bit whose result is “1” due to this logical product is one in which the condition used for pronunciation is satisfied among the non-legato elements of the g-th group.
In this flow, the elements of the g-th group are processed, and the bit “1” in the non-legato element flag NLE (g) indicates that the corresponding element is non-legato, and the valid element The bit “1” in the flag EE indicates that the corresponding element satisfies the requirements for the note range and velocity range (and switch correspondence) and is an element that can be used for the current sound generation.

そこで、結果が「1」になるビットがあれば(S53)、その各ビットと対応するエレメントを用いた発音を、楽音信号生成回路20の発音chに割り当て、各エレメント音を生成するための発音chを確保する(S54)と共に、割り当てた発音chに、その各エレメントのエレメントデータが規定する楽音の情報(発音用パラメータ)を設定する(S55)。   Therefore, if there is a bit whose result is “1” (S53), the sound generation using the element corresponding to each bit is assigned to the sound generation channel of the musical sound signal generation circuit 20 to generate the sound for generating each element sound. Ch is secured (S54), and at the same time the tone information (sounding parameters) defined by the element data of each element is set for the assigned sounding channel (S55).

また、楽音の情報の設定は、波形セット番号が示す波形セットデータから、ノートナンバn等に対応した波形データを選んで、その読出開始アドレスやループの開始/終了アドレス、およびその波形データをノートナンバnに対応する音高にピッチシフトするための読出速度などを、音源レジスタ21のうち割り当てた発音chのレジスタの波形データ読出処理部22用の領域に設定したり、フィルタパラメータやEGパラメータに対しノートナンバnやベロシティvに応じた一部変更(エンベロープ波形の値をベロシティvに応じた音量を示す値とするためのEGパラメータの変更を含む)を施して、同発音chのレジスタのフィルタ処理部23用やエンベロープ処理部24用の領域に設定したりする処理である。そして、結果が「1」になるビットが複数あれば、その各々と対応する複数のエレメントについて、発音chの割り当てとレジスタの設定を行う。発音の開始自体は、後に図4のステップS22で行う。   The musical tone information is set by selecting the waveform data corresponding to the note number n from the waveform set data indicated by the waveform set number, and taking note of the read start address, the loop start / end address, and the waveform data. The reading speed for shifting the pitch to the pitch corresponding to the number n is set in the area for the waveform data reading processing unit 22 of the assigned sounding channel register in the tone generator register 21, or the filter parameter or EG parameter is set. The filter of the register of the same sound channel is applied to the note number n and the velocity v in part (including the change of the EG parameter for changing the envelope waveform value to the value indicating the volume corresponding to the velocity v). This is processing for setting the area for the processing unit 23 and the envelope processing unit 24. If there are a plurality of bits with a result of “1”, the sound generation channel is assigned and the register is set for a plurality of elements corresponding to each bit. The start of pronunciation itself is performed later in step S22 of FIG.

その後、グループ発音状態フラグGSのgビット目であるGS(g)に「1」をセットして、g番目のグループで非レガート又はレガートのエレメントを用いた発音があったことを示し(S56)、元の処理に戻る。
一方、ステップS53で「1」のビットがなければ、g番目のグループには、発音に使用すべき非レガートエレメントがないことがわかるので、GS(g)に「0」をセットして、g番目のグループで非レガート又はレガートのエレメントを用いた発音がなかったことを示し(S57)、元の処理に戻る。
グループ発音状態フラグGSが使われるのはモノモードの場合のみであり、モノモードにおいてステップS53でNOと判断された場合は、非レガート音もレガート音もノートオン状態でなくなるので、それを示すためにGS(g)を「0」に設定している。
Thereafter, GS (g), which is the g-th bit of the group sounding state flag GS, is set to “1” to indicate that there is sounding using a non-legato or legato element in the gth group (S56). Return to the original process.
On the other hand, if there is no bit of “1” in step S53, it is found that there is no non-legato element to be used for sound generation in the g-th group, so that “0” is set to GS (g) and g It is indicated that there is no pronunciation using a non-legato or legato element in the th group (S57), and the processing returns to the original processing.
The group sounding state flag GS is used only in the mono mode. If NO is determined in step S53 in the mono mode, the non-legato sound and the legato sound are not in the note-on state. GS (g) is set to “0”.

また、ステップS51でLS=0でなければ、今回のノートオンがレガート奏法で行われているので、ステップS58以下のレガート音の発音に係る処理に進む。
そしてまず、ビット毎に、有効エレメントフラグEEと、処理中のg番目のグループのレガートエレメントフラグLE(g)の論理積を取る(S58)。この論理積により結果が「1」になるビットが示すエレメントは、g番目のグループに存在するレガートのエレメントのうち、そのエレメントのノートレンジ及びベロシティレンジの要求を満たしたものである。
If LS = 0 is not satisfied in step S51, the current note-on is performed by the legato playing method, and the process proceeds to the processing relating to the legato sound generation in step S58 and subsequent steps.
First, the logical product of the valid element flag EE and the legato element flag LE (g) of the g-th group being processed is calculated for each bit (S58). The element indicated by the bit whose result is “1” due to the logical product is one that satisfies the requirements of the note range and velocity range of the legato elements in the g-th group.

ここで、シンセサイザ10においては、レガートのエレメントは、同じグループで前のノートオンイベントと対応する発音が非レガート又はレガートのエレメントを用いて行われた場合のみ発音に使用し、これらのエレメントを用いた発音が、ノートナンバやベロシティの制限等により行われていなかった場合には、レガート奏法がなされた場合でも、非レガートのエレメントを発音に使用するようにしている。   Here, in the synthesizer 10, the legato elements are used for sound generation only when the sound corresponding to the previous note-on event in the same group is performed using the non-legato or legato elements, and these elements are used. If the sound was not played due to a note number or velocity limitation, a non-legato element is used for sounding even when a legato performance is performed.

そこで、ステップS58の論理積の結果が「1」のビットがあり、かつGS(g)=1の場合のみ(S59)、ステップS60以下に進んでレガートのエレメントを用いた発音を設定する処理を行う(S60,S61)。ここで行う処理は、ステップS54,S55と同様であるが、使用するエレメントは、レガートのエレメントとなる。
また、一般に、レガートのエレメントでは、アタックの弱い波形データを集めた波形セット番号を設定したり、ファーストディケイが小さいEGパラメータを設定したりすることにより、生成されるエレメント音のアタック感が小さくなるようにされている。また、ここでのGS(g)=1は、モノモードにおいて、g番目のグループに関して、非レガート音又はレガート音がノートオン状態を継続中であることを示す。
Therefore, only when there is a bit of “1” as the result of the logical product in step S58 and GS (g) = 1 (S59), the process proceeds to step S60 and subsequent steps to set the sound generation using the legato element. It performs (S60, S61). The processing performed here is the same as in steps S54 and S55, but the elements to be used are legato elements.
In general, in a legato element, by setting a waveform set number that collects weakly attacked waveform data, or by setting an EG parameter with a small first decay, the sense of attack of the generated element sound is reduced. Has been. Further, GS (g) = 1 here indicates that in the mono mode, the non-legato sound or the legato sound is continuing the note-on state for the g-th group.

ステップS61の後は、元の処理に戻る。この場合、GS(g)は既に「1」であるから、改めて「1」を設定する処理は設けていないが、この処理を加えてもよい。
また、ステップS59でNOの場合には、非レガートのエレメントを用いた発音について検討すべく、ステップS52に進んで元の処理に戻る。
以上の処理により、g番目のグループに非レガート及び/又はレガートのエレメントがあれば、その中で発音に使用する条件を満たすものを検索し、そのエレメントを用いた発音に必要な設定を行うことができる。この場合において、レガート奏法が行われたか否かが、非レガートのエレメントとレガートのエレメントのいずれを発音に用いるかにつき、1つの基準となる。
After step S61, the process returns to the original process. In this case, since GS (g) is already “1”, there is no process for setting “1” again, but this process may be added.
If NO in step S59, the process proceeds to step S52 to return to the original process in order to examine the pronunciation using a non-legato element.
By the above processing, if there is a non-legato and / or legato element in the g-th group, search for one that satisfies the conditions used for pronunciation, and make settings necessary for pronunciation using that element. Can do. In this case, whether or not the legato performance is performed is one criterion for whether to use a non-legato element or a legato element for pronunciation.

次に、図8に、ステップS17のg番目のグループに関して実行される、サイクル発音処理のフローチャートを示す。
この処理においては、CPU11はまず、ビット毎に、有効エレメントフラグEEと、処理中のg番目のグループのサイクルエレメントフラグCE(g)の論理積を取る(S71)。この論理積により結果が「1」になるビットが示すエレメントデータは、g番目のグループに存在するサイクルのエレメントのうち、そのエレメントのノートレンジ及びベロシティレンジの要求を満たしたものである。
そこで、結果が「1」になるビットがあれば(S72)、g番目のグループのサイクル発音レジスタCX(g)を参照し、そこに記録されている、前回のノートオンイベントに対応する発音に用いたサイクルのエレメントが何であるかを示す値に基づいて、論理積の結果が「1」のエレメントから、今回の発音に用いるエレメントを選択する(S73)。
Next, FIG. 8 shows a flowchart of the cycle sound generation process executed for the g-th group in step S17.
In this process, the CPU 11 first performs a logical product of the valid element flag EE and the cycle element flag CE (g) of the g-th group being processed for each bit (S71). The element data indicated by the bit whose result is “1” due to the logical product satisfies the requirements of the note range and velocity range of the element among the elements of the cycle existing in the g-th group.
Therefore, if there is a bit whose result is “1” (S72), the cycle sound register CX (g) of the g-th group is referred to and the sound corresponding to the previous note-on event recorded therein is recorded. Based on the value indicating what the element of the used cycle is, the element used for the current pronunciation is selected from the elements whose logical product is “1” (S73).

この選択の規則は、例えば、候補の中で、CX(g)の次に番号が若いものを選択し、それがない場合には最も番号が若いものを選択する、というものが考えられる。この場合、例えば1〜3番目の3つのエレメントが選択候補であれば、1→2→3→1というように、ノートオンがある度に各候補を順に周期的に選択していくことになる。また、あるノートオンの際にあるエレメントについてノートナンバやベロシティの制限等によりEEが「0」になった場合には、そのエレメントは、そのノートオンの際の選択候補からは除かれるため、そのエレメントを飛ばして次を選択することになる。
もちろん、選択の規則はこれに限られるものではなく、番号が小さくなる順に選択したり、選択回数をカウントするレジスタも設け、順に複数回ずつ選択したりすることも考えられる。あるいは、ユーザがエレメントの選択順を設定して、その順番に従って選択されるようにしてもよい。
The selection rule may be, for example, to select the candidate with the next smallest number after CX (g) and select the candidate with the smallest number when there is no candidate. In this case, for example, if the first to third elements are selection candidates, each candidate is periodically selected in sequence every time there is a note-on, such as 1 → 2 → 3 → 1. . In addition, when an EE is “0” due to a note number or velocity restriction for an element at a certain note-on, that element is excluded from the selection candidates at the time of the note-on, and therefore You will skip the element and select the next.
Of course, the selection rule is not limited to this, and it is conceivable that the selection is made in the order of decreasing numbers, or a register for counting the number of selections is provided, and the selection is made a plurality of times in order. Alternatively, the user may set the selection order of elements and select according to the order.

そして、以上のような選択を行った後、選択したエレメントの番号を、次回ノートオンイベント検出時に参照するため、CX(g)に記録すると共に(S74)、図7のステップS54,S55の場合と同様に、選択したエレメントを用いた発音を行うための発音chの割り当て及び楽音の情報の設定を行う(S75,S76)。その後、元の処理に戻る。
以上の処理により、g番目のグループにサイクルのエレメントがあれば、その中から発音に使用するものを選択し、そのエレメントを用いた発音に必要な設定を行うことができる。
Then, after performing the selection as described above, the number of the selected element is recorded in CX (g) for reference at the next note-on event detection (S74), and in the case of steps S54 and S55 in FIG. In the same manner as described above, assignment of sounding channels for sounding using the selected element and setting of musical tone information are performed (S75, S76). Thereafter, the process returns to the original process.
With the above processing, if there is a cycle element in the g-th group, one to be used for sound generation can be selected from the elements and settings necessary for sound generation using that element can be made.

次に、図9に、ステップS18でg番目のグループに関して実行される、ランダム発音処理のフローチャートを示す。
この処理においては、CPU11はまず、ビット毎に、有効エレメントフラグEEと、処理中のg番目のグループのランダムエレメントフラグRE(g)の論理積を取る(S81)。この論理積により結果が「1」になるビットが示すエレメントデータは、g番目のグループに存在するランダムのエレメントのうち、そのエレメントのノートレンジ及びベロシティレンジの要求を満たしたものである。
Next, FIG. 9 shows a flowchart of the random sound generation process executed for the g-th group in step S18.
In this process, the CPU 11 first ANDs the valid element flag EE and the random element flag RE (g) of the g-th group being processed for each bit (S81). The element data indicated by the bit whose result is “1” due to the logical product satisfies the requirements of the note range and velocity range of the random element in the g-th group.

そこで、結果が「1」になるビットがあれば(S82)、それらのエレメントから、今回の発音に用いるエレメントをランダムに選択する(S83)。この時、完全にランダムでなく、各選択候補が選択される比率を設定できるようにしてもよい。
そして、この選択の後、図7のステップS54,S55の場合と同様に、選択したエレメントを用いた発音を行うための発音chの割り当て及び楽音の情報の設定を行い(S85,S86)、元の処理に戻る。
以上の処理により、g番目のグループにランダムのエレメントがあれば、その中から発音に使用するものを選択し、そのエレメントを用いた発音に必要な設定を行うことができる。なお、ランダム及びサイクルの発音タイプが、選択音の発音タイプである。
Therefore, if there is a bit whose result is “1” (S82), an element used for the current sound generation is randomly selected from these elements (S83). At this time, it may be possible to set a ratio at which each selection candidate is selected instead of being completely random.
After this selection, as in the case of steps S54 and S55 of FIG. 7, assignment of sounding channels and sound information for sounding using the selected element are performed (S85, S86). Return to the process.
As a result of the above processing, if there is a random element in the g-th group, one to be used for sound generation can be selected from the random elements, and settings necessary for sound generation using that element can be made. Note that the random and cycle sound types are the sound types of the selected sound.

以上で、ノートオンイベントの検出時に実行する処理の説明を終了するが、これらの処理により、各エレメントの発音タイプが示す規則に従い、検出したノートオンイベントと対応する楽音の生成に使用するエレメントデータを決定し、楽音信号生成回路20に対してそのエレメントデータに基づくエレメント音の波形の生成を指示することができる。この場合において、発音タイプが示す規則は、エレメントのグループ毎に適用する。そして、これらの処理において、CPU11がエレメント決定手段として機能する。   This is the end of the description of the processing executed when a note-on event is detected. By these processing, the element data used to generate the musical sound corresponding to the detected note-on event according to the rules indicated by the pronunciation type of each element. The musical tone signal generation circuit 20 can be instructed to generate an element sound waveform based on the element data. In this case, the rule indicated by the pronunciation type is applied to each group of elements. In these processes, the CPU 11 functions as an element determination unit.

次に、図10に、CPU11がノートオフイベント(楽音の減衰開始を指示するイベント)の検出時に実行する、そのイベントに応じた発音指示処理のフローチャートを示す。この処理も、図3に示した各データを参照したり、書き換えたりしながら進行するものである。
CPU11は、ユーザの演奏操作に応じて生成されたり、自動演奏処理により生成されたりしてノートオフイベントが発生したことを検出すると、図10のフローチャートに示す処理を開始する。
Next, FIG. 10 shows a flowchart of a sound generation instruction process corresponding to the event, which is executed when the CPU 11 detects a note-off event (an event instructing the start of decay of a musical sound). This process also proceeds while referring to and rewriting each data shown in FIG.
When the CPU 11 detects that a note-off event has occurred by being generated according to a user's performance operation or generated by automatic performance processing, the CPU 11 starts the processing shown in the flowchart of FIG.

そしてまず、検出したノートオフイベントが持つ、パートp及びノートナンバnのデータを取得する(S91)。そして、そのパートp及びノートナンバnと対応する発音を行っている発音ch及び、そのchで発音に使用しているエレメントの情報を取得する(S92)。この発音は、検出したノートオフイベントと対応するノートオンイベント(検出したノートオフイベントと同じパートで同じノートナンバの直前のノートオンイベント)に応じた発音であり、ステップS92で複数の発音ch及びエレメントが発見される場合もある。また、ノートオンイベントに応じた発音が既に全て停止されており、発音chが一つも発見されない場合もある。   First, data of part p and note number n which the detected note-off event has is acquired (S91). Then, information on the sound generation channel that produces the sound corresponding to the part p and the note number n and the element that is used for the sound on that channel are acquired (S92). This pronunciation is a pronunciation corresponding to the note-on event (note-on event immediately before the same note number in the same part as the detected note-off event) corresponding to the detected note-off event. An element may be discovered. In addition, all the pronunciations corresponding to the note-on event have already been stopped, and there is a case where no pronunciation channel is found.

ステップS92の後は、グループ番号レジスタgを1から8まで順次増加させて、1〜8番目の各グループにつき、キーオフ発音処理(S94)を実行してノートオフイベントに応じた発音に使用するエレメントを決定し、楽音信号生成回路20の発音chを割り当て、音源レジスタ21の割り当てた発音chのレジスタに対し発音に必要な設定を行う(S93〜S96)。   After step S92, the group number register g is sequentially increased from 1 to 8, and the key-off sound generation process (S94) is executed for each of the first to eighth groups to use the sound corresponding to the note-off event. The tone generation channel of the tone signal generation circuit 20 is assigned, and settings necessary for tone generation are made in the register of the tone generation channel assigned by the tone generator register 21 (S93 to S96).

また、ステップS96でYESになると、楽音信号生成回路20に対しステップS94で発音を設定した全発音chの発音開始を指示する(S97)。この場合において、CPU11と楽音信号生成回路20がエレメント音生成手段として機能する。
そして、ステップS92で発音chが発見されていた場合には(S98)、楽音信号生成回路20に対しその発音chの減衰開始(リリース開始)を指示し(S99)、処理を終了する。
以上の処理により、楽音信号生成回路20に、ノートオフイベントに応じた楽音の生成を開始させると共に、対応するノートオンイベントに応じて生成中の楽音の、EGパラメータ中のリリースの設定に従う減衰を開始させることができる。
If YES is determined in the step S96, the musical sound signal generation circuit 20 is instructed to start the sound generation of all sounding channels set to sound in the step S94 (S97). In this case, the CPU 11 and the tone signal generation circuit 20 function as element sound generation means.
If a sound generation channel is found in step S92 (S98), the musical sound signal generation circuit 20 is instructed to start attenuation (release start) of the sound generation channel (S99), and the process is terminated.
Through the above processing, the tone signal generation circuit 20 starts to generate a tone corresponding to the note-off event, and attenuates the tone being generated according to the corresponding note-on event according to the release setting in the EG parameter. Can be started.

次に、図11に、ステップS94のキーオフ発音処理のフローチャートを示す。
この処理においては、CPU11はまず、g番目のグループのキーオフ発音エレメントフラグOSE(g)に「1」のビットがあるか否か判断する(S101)。すなわち、g番目のグループにキーオフ発音のエレメントがあるか否か判断する。
そして、あった場合には、その各エレメントの有効性を判定する(S102)。この判定基準は、対象エレメントのエレメントオンオフが「オン」であり、かつ、ノートナンバnがノートレンジに入っている場合に、有効であると判定するものである。ここでは、ベロシティについては考慮しないが、対応するノートオンイベントのベロシティvを記憶しておき、その値がベロシティレンジに入っていることも、有効の条件にしてもよい。
ここまでの処理において、CPU11がエレメント決定手段として機能する。
Next, FIG. 11 shows a flowchart of the key-off sound generation process in step S94.
In this process, the CPU 11 first determines whether or not there is a bit of “1” in the key-off sounding element flag OSE (g) of the g-th group (S101). That is, it is determined whether or not the g-th group has an element for key-off pronunciation.
If there is, the validity of each element is determined (S102). This criterion is determined to be valid when the element on / off of the target element is “ON” and the note number n is in the note range. Here, the velocity is not considered, but the velocity v of the corresponding note-on event may be stored, and the value may be within the velocity range or may be an effective condition.
In the processing so far, the CPU 11 functions as an element determination unit.

また、以上の判定後、有効なエレメントがあったか否か判断し(S103)、あった場合には、その各エレメントを順次処理対象として(S104,S112,S113)、ステップS105〜S111の発音設定に関する処理を実行する。
そして、この部分では、まず処理対象のエレメントを用いた発音を発音chに割り当てる(S105)。
Further, after the above determination, it is determined whether or not there is an effective element (S103). If there is, each element is sequentially processed (S104, S112, S113), and the sound generation setting in steps S105 to S111 is performed. Execute the process.
In this part, first, the sound generation using the element to be processed is assigned to the sound generation channel (S105).

その後、図4のステップS19で記憶した、g番目のグループの引き継ぎリストHL(g)の中に1以上の引き継ぎ情報があるか否か判断する(S106)。そして、これがない場合には、エンベロープ情報を引き継がずに、ステップS105で割り当てた発音chに、ノートナンバn、および処理対象のエレメントに基づく楽音の情報を設定する(S107)。この場合、ノートオフイベントに応じて、キーオフ発音のエレメントを用いた発音を独立して行うことになる。ノートオンイベントに対応する発音がない場合にも、ノートオフイベントに応じた発音は可能である。   Thereafter, it is determined whether there is one or more handover information in the handover list HL (g) of the g-th group stored in step S19 of FIG. 4 (S106). If this is not the case, the note information n and the musical tone information based on the element to be processed are set in the sound generation channel assigned in step S105 without taking over the envelope information (S107). In this case, according to the note-off event, sound generation using the key-off sound generation element is performed independently. Even when there is no pronunciation corresponding to the note-on event, the pronunciation according to the note-off event is possible.

一方、ステップS106で引き継ぎ情報があった場合には、さらに、その引き継ぎ情報の中にノートナンバnを示す引き継ぎ情報があるか否かを判定し(S108)、なければ処理対象のエレメントを用いた発音を中止するが(S109)、あればその引き継ぎ情報が示す発音chから現在のエンベロープ波形の値を取得し(S110)、ステップS105で割り当てた発音chに、取得したエンベロープ値、ノートナンバn及び、処理対象のエレメントに基づく楽音の情報を設定する(S111)。
そして、いずれの場合もステップS112に進み、ここでNOとなった場合に、元の処理に戻る。
On the other hand, if there is takeover information in step S106, it is further determined whether or not there is takeover information indicating the note number n in the takeover information (S108). If not, the element to be processed is used. If the sound generation is stopped (S109), the current envelope waveform value is acquired from the sound generation channel indicated by the inheritance information (S110), and the acquired envelope value, the note number n, and the sound generation channel assigned in step S105 are acquired. The tone information based on the element to be processed is set (S111).
In either case, the process proceeds to step S112. If NO is determined here, the process returns to the original process.

以上の処理により、g番目のグループにキーオフ発音のエレメントがあれば、その中で発音に使用する条件を満たすものを検索し、そのエレメントを用いた発音に必要な設定を行うことができる。また、この場合において、ノートオンイベントに応じて発音されたg番目のグループのエレメント音のうちの、特定のエレメント音のエンベロープ波形の値を引き継ぐことができる。さらに、キーオフ発音に用いるエレメントが複数ある場合であっても、引き継ぎ元と引き継ぎ先との対応関係を、エレメントのグループ分けにより容易に設定することができる。   As a result of the above processing, if there is an element for key-off pronunciation in the g-th group, it is possible to search for an element satisfying the conditions used for pronunciation and to make settings necessary for pronunciation using that element. In this case, the envelope waveform value of a specific element sound among the g-th group element sounds generated in response to the note-on event can be taken over. Furthermore, even when there are a plurality of elements used for key-off sounding, the correspondence between the takeover source and the takeover destination can be easily set by grouping the elements.

なお、ノートオフイベントに応じて発音させるキーオフ音は、一般に、発音時間が短いエレメント音であるので、減衰開始の指示がなくても、発音から所定時間後には自動的に消滅して発音chが開放される。
以上のようなキーオフ発音は、電子ピアノにおいてキーオフ時にダンパーを振動子に当てて振動を減衰させる際の、ダンパーが振動子に当たる音等、楽器演奏時に発音停止動作に応じて音が発生する場合があることから、これを再現するために設けた機能である。しかし、用途がこれに限られることはない。また、引き継ぐ楽音特性も、エンベロープ波形の値に限られることはない。
Note that the key-off sound that is sounded in response to the note-off event is generally an element sound with a short sounding time, so even if there is no instruction to start attenuation, it automatically disappears after a predetermined time from sounding and the sounding ch Opened.
Key-off sounds like the ones mentioned above may occur when playing a musical instrument, such as the sound of a damper hitting a vibrator when a damper is applied to the vibrator at the time of key-off to attenuate the vibration. This is a function provided to reproduce this. However, the application is not limited to this. Further, the inherited musical sound characteristic is not limited to the value of the envelope waveform.

ここで、図12を用いて、エンベロープ情報の引継ぎについて説明する。
なお、この図におけるエンベロープの値は、デシベルスケール(13ビット〜16ビット:10000段階程度)のエンベロープ波形を、MIDIの音量パラメータのスケール(7ビット:128段階)に換算(スケールダウン)したものである。また、この図はエンベロープ波形の特徴的な部分を模式的に示したものであり、実際にキーオフ発音の長さは、キーオン発音より大分短く、各エンベロープ波形ももう少し複雑である。
Here, taking over of envelope information will be described with reference to FIG.
Note that the envelope values in this figure are obtained by converting (scaling down) an envelope waveform of a decibel scale (13 bits to 16 bits: about 10000 steps) into a MIDI volume parameter scale (7 bits: 128 steps). is there. This figure schematically shows the characteristic part of the envelope waveform. Actually, the length of the key-off sound is much shorter than that of the key-on sound, and each envelope waveform is a little more complicated.

まず、エンベロープ情報の引継ぎとは、発音中の音について、エンベロープ処理部24での処理に用いられているエンベロープ波形の値を、新たに発音する音についてエンベロープ処理部24での処理に用いるエンベロープ波形の値に反映させることである。
このためには、単純には、発音中の発音chから取得したエンベロープ波形の値(ノートオフイベント発生時の値)を、そのまま新たに発音する音の音量パラメータにしてもよい。この音量パラメータは、EGパラメータに含まれており、生成されるエンベロープ波形の最大値を制御する。また、取得したエンベロープ波形の値に所定の係数(0以上1以下)を乗算し、その乗算結果を音量パラメータとしてもよい。もちろん、これら以外の手法を用いてもよい。
図12に示したのは、前者の例、あるいは、後者で所定の係数が「1」の場合の例である。
First, the handover of envelope information refers to the value of the envelope waveform used for the processing in the envelope processing unit 24 for the sound being sounded, and the envelope waveform used for the processing in the envelope processing unit 24 for the newly sounded sound. Is reflected in the value of.
For this purpose, the value of the envelope waveform (value at the time of occurrence of the note-off event) acquired from the sounding channel that is sounding may be simply used as the volume parameter of the sound that is newly generated as it is. This volume parameter is included in the EG parameter and controls the maximum value of the generated envelope waveform. Alternatively, the obtained envelope waveform value may be multiplied by a predetermined coefficient (0 or more and 1 or less), and the multiplication result may be used as a volume parameter. Of course, other methods may be used.
FIG. 12 shows an example of the former case or an example of the latter case where the predetermined coefficient is “1”.

(a)に示すのは、ノートオンイベントに応じた発音につき、実線41に示すように、エンベロープ値がノートオフまで最大値127(換算値)に保たれている場合の例である。この場合は、図11のステップS111において、最大値が127(換算値)のエンベロープ波形を生成するためのEGパラメータが設定される。太線42が示すのが、この場合のエンベロープの値の時間変化である。   (A) shows an example of the case where the envelope value is kept at the maximum value 127 (converted value) until note-off, as indicated by the solid line 41, for the sound generation corresponding to the note-on event. In this case, in step S111 in FIG. 11, an EG parameter for generating an envelope waveform having a maximum value of 127 (converted value) is set. The thick line 42 shows the time change of the envelope value in this case.

一方、(b)に示すのは、ノートオンイベントに応じた発音につき、実線43に示すように、エンベロープ値がノートオフまでに最大値127(換算値)から64(換算値)まで減衰する場合の例である。この場合は、ステップS111において、最大値が64(換算値)のエンベロープ波形を生成するためのEGパラメータが設定される。太線44が示すのが、この場合のエンベロープの値の時間変化である。また、比較のため、破線45により、(a)の太線42と同じ時間変化を示した。
これらの図からわかるように、このような引継ぎを行うことにより、ノートオンイベントに応じて発音された音と、これと対応するノートオフイベントに応じて発音する音とで、特性を連続的なものにすることができ、自然な発音が実現できる。
On the other hand, (b) shows a case where the envelope value attenuates from the maximum value 127 (converted value) to 64 (converted value) by note-off as shown by the solid line 43 for the sound generation corresponding to the note-on event. It is an example. In this case, in step S111, an EG parameter for generating an envelope waveform having a maximum value of 64 (converted value) is set. The thick line 44 shows the time change of the envelope value in this case. For comparison, the same time change as the thick line 42 in FIG.
As can be seen from these figures, by performing such a takeover, the characteristics of the sound produced in response to the note-on event and the sound produced in response to the corresponding note-off event are continuously changed. It can be made into a natural sound.

また、以上説明してきた処理を行うことにより、シンセサイザ10においては、ボイスデータが有する複数のエレメントのうち、同一グループに属する一部のエレメント毎に、発音タイプに基づく発音制御を行い、異なる2以上のエレメントを相互に関連付けて発音の制御を行うことができる。特に、複数のエレメントのうちの、どの非レガート音のエレメントからどのレガート音のエレメントにレガートさせるか、どのノートオン音からどのノートオフ音に楽音特性を引き継ぐか、どのエレメントについて順番やランダムで選択して発音に用いるかを、グループの設定により容易に設定することができる。   Further, by performing the processing described above, the synthesizer 10 performs sound generation control based on the sound generation type for each of the elements belonging to the same group among a plurality of elements included in the voice data, so that two or more different These elements can be associated with each other to control pronunciation. In particular, select which non-legato element from multiple elements to which legato element to legato, which note-on sound to which note-off sound will carry over the musical sound characteristics, in order or randomly. It can be easily set by group setting whether to use for pronunciation.

また、エレメント毎にノートレンジやベロシティレンジを設定できるようにしたことにより、サイクル発音やランダム発音(差替発音)時に、発音候補になるエレメント音の数を、発音指示イベント(ノートオンイベント)の音高(ノートナンバ)や演奏強度(ベロシティ)の範囲に応じて異なるものとすることができる。また、非レガート発音させるエレメント音及びレガート発音させるエレメント音を、相互に独立に、発音指示イベントの音高や演奏強度の範囲に応じて切り換えることもできる上、数も自由に選択できる。エレメント選択スイッチの操作時に発音されるエレメントと、非操作時に発音されるエレメント音についても、同様である。従って、多様な音色変化を容易に得ることができる。
また、ノーマル音(非差替音)の発音タイプを用意しておけば、複数のエレメントのうち任意のエレメントのみについて、差替発音やスイッチ対応発音をさせることができる。
In addition, by making it possible to set the note range and velocity range for each element, the number of element sounds that can be pronounced during cycle pronunciation and random pronunciation (replacement pronunciation) is set as the sound generation instruction event (note-on event). It can be different depending on the range of pitch (note number) and performance intensity (velocity). The element sound for non-legato sound generation and the element sound for legato sound generation can be switched independently of each other according to the pitch of the sound generation instruction event and the range of performance intensity, and the number can be freely selected. The same applies to the element sounded when the element selection switch is operated and the element sound sounded when the element selection switch is not operated. Therefore, various timbre changes can be easily obtained.
If a normal sound (non-replacement sound) sound generation type is prepared, a replacement sound or switch-corresponding sound can be generated for only an arbitrary element among a plurality of elements.

また、レガート奏法に係るノートオンイベントの発生時に、以前のノートオンイベントに応じたエレメント音がノートオン状態を継続しているか否かに応じて、発生したノートオンイベントに応じた発音をレガート発音と非レガート発音とするかを決定するようにしているため、ノートオンイベントがレガート奏法に係るものか否かだけでレガート発音の有無を決定する従来の方法に比べ、より自然なレガート発音を行わせることができる。   In addition, when a note-on event related to a legato performance occurs, depending on whether the element sound corresponding to the previous note-on event continues in the note-on state, the pronunciation corresponding to the generated note-on event is legato-sounded. And non-legato sound generation, so that it produces a more natural legato sound than the conventional method of determining whether or not a legato sound is generated only by whether or not the note-on event is related to legato performance. Can be made.

次に、図13乃至図16を用いて、図4に示した処理に従った、発音に使用するエレメントの選択の具体例について説明する。
これらの図において、「eleNO」はエレメントの番号、「GID」はグループID、「Type」はエレメントの発音タイプを示す。また、これらの列の右側に記載したボックスの並びは、ノートナンバ60(C3)から78(F#4)までの各ノートを示し、塗りつぶしたボックスは、そのノートの発音にエレメントが使用されることを示す。ハッチングを付したボックスは、その範囲を含まないようなノートレンジの設定が行われ、その範囲でエレメントが無効化されていることを示す。
また、これらの図においては、全てノートナンバの低い順に演奏操作を行う例を示しているが、実際の演奏操作においてノートの演奏順が任意であることは、もちろんである。
Next, a specific example of selecting an element to be used for sound generation according to the process shown in FIG. 4 will be described with reference to FIGS.
In these figures, “eleNO” indicates an element number, “GID” indicates a group ID, and “Type” indicates an element pronunciation type. In addition, the arrangement of the boxes described on the right side of these columns indicates the respective notes from note numbers 60 (C3) to 78 (F # 4), and the filled boxes use elements for the pronunciation of the notes. It shows that. The hatched box indicates that the note range is set so as not to include the range, and the element is invalidated within the range.
Further, these drawings show examples in which performance operations are performed in ascending order of note numbers, but it goes without saying that the order of performance of notes is arbitrary in the actual performance operation.

まず、図13及び図14に、レガートのエレメントが存在する場合の例を示した。これらの図には、A(64),B(71),C(76)の3つの位置のノート(E3,B3,E4)に、この順でレガート奏法のノートオンイベントが発生した場合のエレメント選択例を示している。
図13(a)に示すのは、最も典型的な例であり、1つのグループ内に、ノーマル(非レガート)とレガートのエレメントを1つずつ設けた例である。この場合、始めのノートオンイベント時には、ノーマルのエレメント1を用いて発音し、その後は、レガート奏法が行われたため、ノーマルに代えてレガートのエレメント2を用いて発音する。
First, FIG. 13 and FIG. 14 show examples in the case where legato elements exist. In these figures, elements when a note-on event of legato performance occurs in this order on notes (E3, B3, E4) at three positions A (64), B (71), and C (76). An example of selection is shown.
FIG. 13A shows the most typical example, in which one normal (non-legato) element and one legato element are provided in one group. In this case, at the first note-on event, the normal element 1 is used for sound generation, and after that, the legato performance is performed, so that the normal element is used and the legato element 2 is used for sound generation.

(b)に示すのは、ノーマルのエレメントにノートレンジによる制限をかけた場合である。この場合でも、ノートオンイベントB,Cの時点でレガートのエレメントは使用可能であるし、前回ノートオンイベント時に非レガート又はレガートのエレメントを使用、という条件は満たされるので、(a)の場合と同様なエレメントを用いた発音となる。
(c)に示すのは、逆にレガートのエレメントにノートレンジによる制限をかけた場合である。この場合、ノートオンイベントB,Cの時点では、グループ内に有効なレガートのエレメントがなく、図7のステップS59の判断がNOとなるので、ノーマルのエレメントを用いた発音を行うことになる。
(B) shows a case where a normal element is restricted by a note range. Even in this case, the legato element can be used at the time of the note-on events B and C, and the condition that the non-legato or legato element is used at the time of the previous note-on event is satisfied. The sound is produced using similar elements.
(C) shows a case where a legato element is constrained by a note range. In this case, there is no valid legato element in the group at the time of the note-on events B and C, and the determination in step S59 in FIG. 7 is NO, so that sound generation using normal elements is performed.

(d)に示すのは、ノーマルのエレメントとレガートのエレメントとでグループが違う場合である。エレメント選択の規則は、グループ毎に適用するため、グループ0には、有効なレガートのエレメントがないことになる。従って、(c)の場合と同様、レガート奏法が行われたとしても、全てノーマルのエレメントを用いて発音を行う。また、グループ1には、レガートのエレメント2しかない。従って、前回ノートオンイベント時に非レガート又はレガートのエレメントを使用、という条件が満たされることはないので、エレメント2を発音に使用することはない。   (D) shows a case where the group is different between the normal element and the legato element. Since the element selection rule is applied to each group, there is no valid legato element in group 0. Therefore, as in the case of (c), even when the legato performance is performed, all the normal elements are used for sound generation. Group 1 has only legato element 2. Therefore, since the condition that a non-legato or legato element is used at the time of the previous note-on event is not satisfied, the element 2 is not used for sound generation.

図14(a)には、グループ0に、ノーマルとレガートのエレメントを各2つずつ設けた例を、同(b)には、ノーマルのエレメント2つとレガートのエレメント3つを設けた例を示した。このように、グループ内のエレメントの数が変わっても、最初のノートオンイベントAに応じた発音にノーマルのエレメントを用い、レガート奏法によるノートオンイベントB,Cに応じた発音にレガートのエレメントを用いることに変わりはない。
そして、これらの(a),(b)の場合には、通常演奏時とレガート演奏時に、それぞれ複数のエレメント音を合成した異なる音色の楽音を生成可能である。また、各エレメントについてグループと発音タイプの設定を変更するだけで、通常演奏時とレガート演奏時について個別に、合成するエレメント音の数を変更することができ、ボイスデータの編集を、容易かつ高い自由度で行うことができると言える。
FIG. 14A shows an example in which two normal and legato elements are provided in group 0, and FIG. 14B shows an example in which two normal elements and three legato elements are provided. It was. In this way, even if the number of elements in the group changes, the normal element is used for the sound corresponding to the first note-on event A, and the legato element is used for the sound corresponding to the note-on events B and C by the legato playing technique. There is no change in using.
In these cases (a) and (b), it is possible to generate musical tones having different timbres by synthesizing a plurality of element sounds during normal performance and legato performance. Also, by simply changing the group and pronunciation type settings for each element, the number of element sounds to be synthesized can be changed individually for normal performance and legato performance, making editing voice data easy and high It can be said that it can be done with a degree of freedom.

例えば、
エレメント1(グループ1、ノーマル):第1フルート ノーマル発音
エレメント2(グループ1、レガート):第1フルート レガート発音
のようなフルートの音色データがあった場合、これにエレメントを追加して、
エレメント1(グループ1、ノーマル):第1フルート ノーマル発音
エレメント2(グループ1、レガート):第1フルート レガート発音
エレメント3(グループ2、ノーマル):第2フルート ノーマル発音
エレメント4(グループ2、レガート):第2フルート レガート発音
のようなフルート2本の音色データに改変するような設定を、容易に行うことができる。
なお、この図には示していないが、キーオフ発音の発音タイプについても、各エレメントについてグループと発音タイプの設定を変更するだけで、ノートオン時とノートオフ時の発音について個別に合成するエレメント音の数を変更することができ、同様に、ボイスデータの編集を、容易かつ高い自由度で行うことができると言える。
For example,
Element 1 (group 1, normal): 1st flute normal sound Element 2 (group 1, legato): 1st flute If there is flute tone data like legato sound, add an element to this,
Element 1 (Group 1, Normal): First Flute Normal Sound Element 2 (Group 1, Legato): First Flute Legato Sound Element 3 (Group 2, Normal): Second Flute Normal Sound Element 4 (Group 2, Legato) : 2nd flute It is possible to easily make a setting for changing to two flute tone data like legato pronunciation.
Although not shown in this figure, element sounds that are synthesized separately for note-on and note-off pronunciations can also be obtained for key-off pronunciation types by simply changing the group and pronunciation type settings for each element. Similarly, it can be said that voice data can be easily edited with a high degree of freedom.

(c)には、レガートのエレメントの一部にノートレンジによる制限をかけた例を示した。この場合には、レガート演奏時の発音には、ノートレンジ内に入るレガートのエレメントのみを用いることになる。従って、音域によってレガート演奏時に発音させる音の音色を変えるといった対応が可能である。   (C) shows an example in which a part of the legato element is restricted by the note range. In this case, only legato elements that fall within the note range are used for pronunciation during legato performance. Therefore, it is possible to cope with changing the tone color of the sound to be generated during legato performance depending on the sound range.

(d)には、グループ0とグループ1に、それぞれノーマルとレガートのエレメントを設けると共に、グループ1についてはノーマルのエレメントにノートレンジによる制限をかけた例を示した。エレメント選択の規則は、グループ毎に適用するため、この場合でも、グループ0に関する発音は、(a)の場合と同様に行われる。しかし、グループ1については、まず、初めのノートオンイベントAの際には、有効なノーマルのエレメントがないため、発音は行わない。そして、次のノートオンイベントBの際には、レガート演奏であっても、前回ノートオンイベント時に非レガート又はレガートのエレメントを使用、という条件が満たされていないため、ノーマルのエレメントを使用する。   (D) shows an example in which normal and legato elements are provided for group 0 and group 1, respectively, and for group 1, normal elements are restricted by the note range. Since the element selection rule is applied to each group, the pronunciation related to group 0 is performed in the same manner as in (a). However, for group 1, at the first note-on event A, there is no valid normal element, so no sound is generated. Then, at the next note-on event B, even if it is a legato performance, the condition that the non-legato or legato element is used at the time of the previous note-on event is not satisfied, so the normal element is used.

次に、図15に、差替音であるサイクル及びランダムのエレメントが存在する場合の例を示した。これらの図には、A(61)〜H(77)の9つの位置のノート(C#3,D#3,F3,G3,A3,B3,C#4,D#4,F4)に、この順でノートオンイベントが発生した場合のエレメント選択例を示している。
(a)には、グループ0の4つのエレメントに、サイクルの発音タイプを設定した例を示した。この場合、ノートオンイベントが発生するたびに、グループ内で番号の若い方から順に、発音に使用するエレメントを選択し、番号が最大のエレメントを選択すると、番号が最小のエレメントに戻る。エレメントの番号が連続していなくても、動作には全く問題ない。
Next, FIG. 15 shows an example in the case where there are cycles and random elements as replacement sounds. In these figures, notes (C # 3, D # 3, F3, G3, A3, B3, C # 4, D # 4, F4) at nine positions A (61) to H (77) An example of element selection when note-on events occur in this order is shown.
(A) shows an example in which the sound generation type of the cycle is set for the four elements of group 0. In this case, each time a note-on event occurs, the elements used for pronunciation are selected in order from the smallest number in the group, and when the element with the largest number is selected, the element with the smallest number is returned. Even if the element numbers are not consecutive, there is no problem in operation.

(b)には、グループ0にサイクルのエレメントを2つ設け、グループ1にはサイクルのエレメントを3つと、非差替音であるノーマルのエレメント1つを設けた例を示した。この場合、ノートオンイベントが発生するたびに、グループ毎に番号順に発音に使用するエレメントを選択する。サイクルのエレメントの数はグループ毎に異なるため、選択の周期もグループ毎に異なる。また、ノーマルのエレメントは、サイクルのエレメントとは無関係に、常に発音に使用する。   (B) shows an example in which two cycle elements are provided in group 0, three cycle elements are provided in group 1, and one normal element that is a non-replacement sound is provided. In this case, every time a note-on event occurs, an element used for sound generation is selected for each group in numerical order. Since the number of elements in the cycle is different for each group, the selection cycle is also different for each group. The normal element is always used for sound generation regardless of the cycle element.

このように、シンセサイザ10では、単にエレメントに発音特性としてサイクルを指定するだけで、周期的に音色の変化する、新規性の高い音色での発音が可能となる。また、グループ内でサイクルのエレメントを設ける数を変えるだけで、エレメントの選択周期を変更することができる。さらに、グループ0による発音とグループ1による発音との組み合わせを考えると、5つのエレメントで、実質6つの音色を周期的に切り替えて発音させることができ、少ないデータ量で変化に富んだ発音が可能であると言える。   In this way, the synthesizer 10 can generate a sound with a highly novel timbre in which the timbre changes periodically by simply specifying a cycle as a sound generation characteristic for the element. In addition, the element selection cycle can be changed simply by changing the number of cycle elements in the group. Furthermore, considering the combination of pronunciation by group 0 and pronunciation by group 1, it is possible to generate sounds by switching between six timbres with five elements periodically, allowing for a variety of pronunciations with a small amount of data. It can be said that.

(c)には、サイクルのエレメントの一部にノートレンジによる制限をかけた例を示している。この場合、ノートレンジの設定によりエレメントが無効化されている範囲では、そのエレメントは存在しないものとしてエレメントの選択が行われている。従って、ノートオンイベントのノートナンバにより、選択候補が変化することになる。   (C) shows an example in which a part of a cycle element is restricted by a note range. In this case, in the range where the element is invalidated by the setting of the note range, the element is selected on the assumption that the element does not exist. Therefore, the selection candidate changes depending on the note number of the note-on event.

(d)には、ランダムのエレメントを設けた例を示している。この場合には、動作としては、発音に用いるエレメントをランダムに選択する点以外は、サイクルの場合と同様である。しかし、このランダム性により、サイクルの場合よりも変化と意外性に富んだ発音を行うことができる。
なお、同一グループ内にサイクルのエレメントとランダムのエレメントを両方とも設けることは可能だが、この場合、サイクルはサイクル、ランダムはランダムで、同じ発音タイプが設定されているエレメントの中から、それぞれ1つずつ、発音に使用するエレメントを選択する。
(D) shows an example in which random elements are provided. In this case, the operation is the same as in the case of the cycle except that an element used for sound generation is randomly selected. However, this randomness can produce pronunciations that are more varied and surprising than in the case of cycles.
It is possible to have both a cycle element and a random element in the same group, but in this case, the cycle is a cycle, the random is random, and one element is selected from each of the elements with the same pronunciation type. Select the elements to be used for pronunciation.

次に、図16に、スイッチ対応のエレメントが存在する場合の例を示した。これらの図には、A(61)〜D(75)の4つの位置のノート(D#3,G3,B3,D#4)に、この順でノートオンイベントが発生した場合のエレメント選択例を示している。また、そのイベント発生時のエレメント選択スイッチA,Bの状態は、「SW_A」及び「SW_B」で示す通りであるとする。
(a)に示す例の場合、エレメント1〜6には、スイッチ対応の発音タイプを設定している。そして、これらのエレメントを発音に使用するか否かは、エレメント選択スイッチの状態に応じて決定する。また、ノーマルのエレメントについては、エレメント選択スイッチの状態は関係ない。もちろん、ノートレンジやベロシティレンジによる制約は反映させる。
Next, FIG. 16 shows an example when there is an element corresponding to the switch. These figures show an example of element selection when note-on events occur in this order in the notes (D # 3, G3, B3, D # 4) at four positions A (61) to D (75). Is shown. Further, it is assumed that the state of the element selection switches A and B when the event occurs is as shown by “SW_A” and “SW_B”.
In the case of the example shown in (a), a sound generation type corresponding to a switch is set for the elements 1 to 6. Whether these elements are used for sound generation is determined according to the state of the element selection switch. For normal elements, the state of the element selection switch is not relevant. Of course, the restrictions by the note range and velocity range are reflected.

(b)には、エレメント7,8にレガートの発音タイプを設定し、ノートオンイベントがレガート奏法によるものである場合の例を示した。スイッチ対応の発音タイプも、「非レガート」であるので、同じグループ内にレガートのエレメントがあり、その使用条件が満たされる場合には、スイッチ対応のエレメントに代えて、レガートのエレメントを発音に使用する。レガートの使用有無の決定には、エレメント選択スイッチの状態は関係ないが、ノートレンジやベロシティレンジによる制約は反映させる。   (B) shows an example in which the legato sound type is set in the elements 7 and 8 and the note-on event is based on the legato playing technique. The switch-compatible pronunciation type is also “non-legato”, so if there are legato elements in the same group and the usage conditions are met, the legato elements are used for pronunciation instead of the switch-compatible elements. To do. Whether or not legato is used is irrelevant to the state of the element selection switch, but the restrictions due to the note range and velocity range are reflected.

このようなスイッチ対応のエレメントを用いれば、奏法の弾き分け、コーラス効果のオン/オフ、演奏セクションへの楽器の追加等を、容易に再現できる。
例えば、ギター音色について、
エレメント1(グループ1、全スイッチオフ):アタックノイズ
エレメント2(グループ1、全スイッチオフ):ノーマル発音
エレメント3(グループ1、スイッチAオン):ハーモニクス発音
エレメント4(グループ1、スイッチBオン):ミュート発音
を設ければ、エレメント選択スイッチA,Bの操作により、ノーマル奏法,ハーモニクス奏法,ミュート奏法を、容易に切り替えて演奏可能な音色とすることができる。
Using such switch-compatible elements, it is possible to easily reproduce playing styles, turning on / off the chorus effect, adding instruments to the performance section, and the like.
For example, for guitar sounds
Element 1 (Group 1, all switches off): Attack noise Element 2 (Group 1, all switches off): Normal sounding Element 3 (Group 1, switch A on): Harmonics sounding Element 4 (Group 1, switch B on): If a mute tone is provided, the normal selection method, the harmonics performance method, and the mute performance method can be easily switched by the operation of the element selection switches A and B to obtain a tone that can be played.

また、オルガン音色において、
エレメント1(グループ1、ノーマル):パーカッション発音
エレメント2(グループ1、全スイッチオフ):コーラスオフ発音
エレメント3(グループ1、スイッチAオン):コーラスオン発音
を設ければ、パーカッション発音を基本としつつ、エレメント選択スイッチAのオンオフでコーラスのオンオフを切換え可能な音色とすることができる。
In the organ tone,
Element 1 (Group 1, Normal): Percussion sound Element 2 (Group 1, all switches off): Chorus off sound Element 3 (Group 1, Switch A on): Chorus on sound is provided, while percussion sound is based The chorus can be switched to ON / OFF by turning ON / OFF the element selection switch A.

また、弦楽器セクション音色において、
エレメント1(グループ1、ノーマル):バイオリン音色
エレメント2(グループ1、スイッチAオン):チェロ音色
エレメント3(グループ1、スイッチBオン):コントラバス音色
を設ければ、バイオリン演奏を基本としつつ、エレメント選択スイッチA,Bの押下により、チェロやコントラバスを追加可能な音色とすることができる。
In the string instrument section tone,
Element 1 (Group 1, Normal): Violin Tone Element 2 (Group 1, Switch A On): Cello Tone Element 3 (Group 1, Switch B On): If a contrabass tone is provided, the violin performance is the basis. By pressing the element selection switches A and B, it is possible to obtain a tone color to which a cello or a contrabass can be added.

また、オケセクション音色において、
エレメント1(グループ1、ノーマル):弦楽器音色
エレメント2(グループ1、スイッチAオン):管楽器音色
エレメント3(グループ1、スイッチBオン):ティンパニ音色
を設ければ、弦楽器パートを基本としつつ、エレメント選択スイッチA,Bの押下により、管楽器パートやティンパニパートを追加可能な音色とすることができる。
In the orchestra section tone,
Element 1 (Group 1, Normal): String instrument timbre Element 2 (Group 1, switch A on): Wind instrument timbre Element 3 (Group 1, switch B on): Timpani timbre provides a base for the string instrument part. By pressing the selection switches A and B, it is possible to obtain a tone color that can add wind instrument parts and timpani parts.

また、いずれの場合にも、上記の例で1つのエレメントとした部分を、複数エレメントにより構成することができ、このようにすれば、1つの奏法、楽器、パート等と対応する発音を、複数のエレメント音を合成して行うことができる。
また、例えば上記の弦楽器セクション音色において、各楽器についてレガート音の発音を可能としたい場合には、エレメントのグループ分けを利用して、
エレメント1(グループ1、ノーマル):バイオリン音色(ノーマル)
エレメント2(グループ2、スイッチAオン):チェロ音色(ノーマル)
エレメント3(グループ3、スイッチBオン):コントラバス音色(ノーマル)
エレメント4(グループ1、レガート):バイオリン音色(レガート)
エレメント5(グループ2、レガート):チェロ音色(レガート)
エレメント6(グループ3、レガート):コントラバス音色(レガート)
を設ければ、エレメント選択スイッチの押下による楽器の追加を維持しつつ、レガート音の発音を実現できる。
このような設定変更も、単なるエレメントの追加や発音タイプ及びグループの変更により可能であり、この点でも、シンセサイザ10においては、ボイスデータの編集を、容易かつ高い自由度で行うことができると言える。
Also, in any case, the part which is one element in the above example can be constituted by a plurality of elements, and in this way, a plurality of pronunciations corresponding to one rendition, instrument, part, etc. It is possible to synthesize element sounds.
For example, in the above string instrument section timbre, if you want to be able to pronounce legato for each instrument, use element grouping,
Element 1 (Group 1, Normal): Violin tone (Normal)
Element 2 (group 2, switch A on): Cello tone (normal)
Element 3 (group 3, switch B on): Contrabass tone (normal)
Element 4 (Group 1, Legato): Violin tone (legato)
Element 5 (Group 2, Legato): Cello tone (Legato)
Element 6 (Group 3, legato): Contrabass tone (legato)
With this, the legato sound can be generated while maintaining the addition of the musical instrument by pressing the element selection switch.
Such a setting change can also be made by simply adding an element or changing the pronunciation type and group. In this respect, too, it can be said that the synthesizer 10 can edit voice data easily and with a high degree of freedom. .

以上で実施形態の説明を終了するが、装置の構成、データの構成、ボイスデータやエレメントデータの内容、具体的な処理内容等が上述の実施形態で説明したものに限られないことはもちろんである。
例えば、上述した実施形態では、エンベロープの値の引継ぎは、キーオフ発音のエレメントを発音に用いる場合のみ行うようにしたが、他のエレメントを発音に用いる場合(ノートオンイベントに応じた発音を行う場合)にも行うようにしてもよい。特に、レガート音を発音させる場合、ポルタメントが設定されている場合、モノモードのエレメントを用いた発音である場合に、エンベロープの値の引継ぎを行えるようにするとよい。
This is the end of the description of the embodiment, but it goes without saying that the configuration of the apparatus, the configuration of data, the contents of voice data and element data, specific processing contents, etc. are not limited to those described in the above-described embodiment. is there.
For example, in the above-described embodiment, the envelope value is inherited only when the key-off sounding element is used for sounding. However, when other elements are used for sounding (when sounding according to the note-on event is performed). ) May also be performed. In particular, when a legato sound is generated, when a portamento is set, or when a sound is generated using a monomode element, it is preferable that the envelope value can be taken over.

また、1つのボイスデータに含まれるエレメントの数や、設定可能なグループの数も、8に限られない。また、ボイスデータ毎にエレメントの数が可変であってもよい。グループ分け自体も、必須ではない。
さらに、エレメントの発音タイプ、すなわち、演奏イベントと対応する楽音の生成にそのエレメントデータを使用するか否かを決定する際に使用する規則も、上述したものに限られない。逆に、上述した全ての発音タイプを用意しなくてもよい。この場合でも、発音タイプ毎の効果を得ることができる。
Further, the number of elements included in one voice data and the number of groups that can be set are not limited to eight. Further, the number of elements may be variable for each voice data. The grouping itself is not essential.
Furthermore, the rules used when determining whether or not to use the element data to generate the musical sound corresponding to the performance event, that is, the musical sound corresponding to the performance event, are not limited to those described above. On the contrary, it is not necessary to prepare all the pronunciation types described above. Even in this case, the effect for each pronunciation type can be obtained.

また、リミットデータについて、必ずしもノートレンジとベロシティレンジの両方を用いる必要はなく、いずれか一方のみを用いるようにしてもよい。
また、ノートオン(オフ)イベントに、ノートナンバやベロシティ以外のパラメータ、例えばアタックレートデータ(立ち上がり速度を制御するためのデータ)、ブリリアンスデータ(明るさを制御するためのデータ)、デプスデータ(ゆらぎの深さを制御するデータ)を含めるようにしてもよい。そして、この場合、ノートとベロシティ以外のパラメータの値に基づきエレメントを発音に使用する範囲を制限するようにしてもよい。
Further, it is not always necessary to use both the note range and the velocity range for the limit data, and only one of them may be used.
Also, note on (off) events include parameters other than note number and velocity, such as attack rate data (data for controlling the rising speed), brilliance data (data for controlling brightness), depth data (fluctuation) Data for controlling the depth of the image may be included. In this case, the range in which the element is used for sound generation may be limited based on parameter values other than the note and velocity.

あるいは、逆に、リミットデータを全く用いない、すなわち発音に使用するエレメントをリミットデータにより制限しない構成も可能である。
どの場合であっても、1音色分のボイスデータに含まれる複数のエレメントのうちどのエレメントを発音に使用するかを、発音毎に、発音タイプに応じた規則で、必要に応じて発音制御イベントの内容も参照して選択することにより、各発音毎にダイナミックに音色の変化する、変化に富んだ楽音を生成することができる。また、このため必要な設定や制御も、比較的簡単なものにすることができる。
Or, conversely, a configuration in which no limit data is used, that is, an element used for sound generation is not limited by the limit data is also possible.
Regardless of the case, a sound generation control event is performed according to the rules according to the sound generation type for each sound generation, which element is used for sound generation among the multiple elements included in the voice data for one tone color. By selecting and referring to the contents of the above, it is possible to generate a richly varied musical tone in which the tone changes dynamically for each pronunciation. For this reason, necessary settings and control can be made relatively simple.

また、上述した実施形態では、ノーマル及びスイッチ対応の発音タイプを非レガートとする一方、ランダムやサイクルの発音タイプは非レガートともレガートともしていない。しかし、どの発音タイプを非レガートとして、レガート音を発音させる際に発音を止めるか、あるいは、どの発音タイプをレガートとして、レガート奏法の際に発音させるかは、ここで説明したものに限らず、任意に定めることができる。
ユーザが、各発音タイプを非レガート、レガート、あるいはレガート奏法に無関係のいずれにするかを設定できるようにしてもよい。また、各発音タイプに対して設定する代わりに、各エレメントに対して非レガート、レガート、無関係のいずれかを設定できるようにしてもよい。
In the above-described embodiment, the normal and switch sound generation types are set to non-legato, while the random and cycle sound generation types are neither non-legato nor legato. However, which pronunciation type is non-legato and whether or not the pronunciation is stopped when the legato sound is pronounced, or which pronunciation type is legato and is pronounced when the legato is played, is not limited to that described here. It can be arbitrarily determined.
The user may be able to set whether each sound generation type is non-legato, legato, or irrelevant to the legato playing style. Further, instead of setting for each sound generation type, each element may be set to non-legato, legato, or unrelated.

また、レガート音の発音につき、上述した実施形態では、レガート音のエレメントが存在しかつGS(g)=1であっても、ノートオンイベントに係るノートナンバがレガート音のエレメントに関するノートレンジの範囲外の場合(図7のステップS59でNOの場合)には、レガート音の代わりに非レガート音を発音させるようにしていた。しかし、この場合にレガート音も非レガート音も発音させないようにしてもよい。   In addition, regarding the legato sound generation, in the above-described embodiment, even if the legato sound element exists and GS (g) = 1, the note number related to the note-on event is the range of the note range related to the legato sound element. In the other case (NO in step S59 in FIG. 7), a non-legato sound is generated instead of a legato sound. However, in this case, neither legato sound nor non-legato sound may be generated.

また、発生したノートオンイベントがモノモードでのレガート演奏に係るものであった場合(図4のステップS42でYESの場合)、無条件で前の音をリリース開始させるようにしていた。しかし、リリース開始に代えて、ダンプ(急速減衰)させるようにしてもよい。また、レガート演奏であっても、ノートオンに応じた発音に使用すべきエレメントがなく、新たな発音を行わない場合(図7のステップS53及びS59,図8のステップS72,図9のステップS82の全てがNOの場合)には、前の音をリリース開始しないようにしてもよい。   Further, if the generated note-on event is related to legato performance in the mono mode (YES in step S42 in FIG. 4), the previous sound is started unconditionally. However, instead of starting the release, dumping (rapid decay) may be performed. Even in legato performance, when there is no element to be used for sound generation in response to note-on and no new sound is generated (steps S53 and S59 in FIG. 7, step S72 in FIG. 8, step S82 in FIG. 9). If all of the above are NO), the previous sound may not be released.

また、上述した実施形態では、エレメント切替スイッチとして、スイッチA,Bの2つを設ける例について説明したが、スイッチの数は、1以上の任意の数であってよい。また、複数のスイッチが同時にオンされた場合には、発音タイプがそのいずれかのスイッチに関する「スイッチオン」である全てのエレメントを発音に用いるようにしていたが、オンされたスイッチの組み合わせに応じた「スイッチオン」の発音タイプを用意し、オンされたスイッチの組み合わせが発音タイプに完全一致するエレメントのみを、発音に用いるようにしてもよい。   In the above-described embodiment, an example in which two switches A and B are provided as the element selector switch has been described. However, the number of switches may be an arbitrary number of one or more. In addition, when multiple switches are turned on at the same time, all elements whose sound generation type is “switch on” for any one of the switches are used for sound generation, but depending on the combination of switches that are turned on Alternatively, a “switch-on” pronunciation type may be prepared, and only elements for which the combination of the turned on switches completely matches the pronunciation type may be used for pronunciation.

また、発音タイプの分類につき、上述した実施形態では、非差替音(発音時に差替をしない音)は、サイクル発音やランダム発音の対象とならないノーマル音、レガート音、スイッチオン音(スイッチAオン音及びスイッチBオン音)、スイッチオフ音がこれに該当する。しかし、これらの発音タイプ全てを楽音生成装置に実装する必要はなく、これらのうち少なくとも1つが実装されていればよい。
非レガート音については、上述した実施形態では、ノーマル音、スイッチオン音、スイッチオフ音をひとまとめにして非レガート音としていた。しかし、非レガート音としては、これらのうち少なくとも1つが実装されていればよい。
In the above-mentioned embodiment, the non-replacement sound (the sound that is not replaced during sound generation) is a normal sound, legato sound, switch-on sound (switch A) that is not subject to cycle sound generation or random sound generation. ON sound and switch B ON sound) and switch OFF sound correspond to this. However, it is not necessary to mount all of these pronunciation types in the musical tone generation device, and it is sufficient that at least one of them is mounted.
Regarding the non-legato sound, in the above-described embodiment, the normal sound, the switch-on sound, and the switch-off sound are collectively used as the non-legato sound. However, at least one of these may be implemented as the non-legato sound.

また、ノートオン音は、ノートオフ音への特性(振幅エンベロープ等)の引き継ぎ元となる音であり、上述した実施形態では、ノーマル音、スイッチオン音、スイッチオフ音、レガート音、サイクル音、ランダム音がこれに該当する。しかし、これら全てを実装する必要はなく、これらのうち少なくとも1つが実装されていればよい。
また、常時音は、エレメント選択スイッチの操作状態に関係なく発音処理される音であり、上述した実施形態では、図5のステップS34でNOに分岐する発音タイプ、すなわちノーマル音、レガート音、サイクル音、ランダム音がこれに該当する。しかし、これら全てを実装する必要はなく、これらのうち少なくとも1つが実装されていればよい。
The note-on sound is a sound that is a source of the characteristic (amplitude envelope, etc.) to the note-off sound. In the above-described embodiment, the normal sound, the switch-on sound, the switch-off sound, the legato sound, the cycle sound, Random sounds fall under this category. However, it is not necessary to mount all of them, and it is sufficient that at least one of them is mounted.
In addition, the continuous sound is a sound that is generated regardless of the operation state of the element selection switch. In the above-described embodiment, the sound generation type that branches to NO in step S34 in FIG. 5, that is, a normal sound, a legato sound, and a cycle. Sounds and random sounds fall under this category. However, it is not necessary to mount all of them, and it is sufficient that at least one of them is mounted.

また、上述した実施形態では、ノートオフ時の発音にエンベロープ情報を引き継がせるエレメントの選択は、ノートオンイベント発生に応じた処理である図4のステップS19で行うようにしていた。しかし、その時点での選択は行わず、ノートオフイベント発生に応じた処理である図11のステップS106において、エレメントのグループ毎に、対応するノートオンイベント時に発音開始させたエレメント音のうちその時点でエンベロープ波形の値が最も大きいものを選択し、その値を引き継ぐようにしてもよい。   Further, in the above-described embodiment, the selection of the element that inherits the envelope information in the sound generation at the time of note-off is performed in step S19 in FIG. However, no selection is made at that time, and in step S106 of FIG. 11, which is processing in response to the occurrence of the note-off event, for each element group, the time of the element sound that has been started to sound at the corresponding note-on event. It is also possible to select the one having the largest envelope waveform value and take over the value.

また、上述した実施形態では、鍵盤を有するシンセサイザ10を例に取って説明したが、この発明が、鍵盤以外の演奏操作子を有する電子楽器や、演奏操作子を有しない音源装置、あるいは楽音生成用の拡張ボードやチップ等の、他の楽音生成装置にも適用可能であることはもちろんである。また、楽音信号生成回路20を駆動するための演奏イベントとして、MIDI形式以外のデータを使用する装置であってもよい。   In the above-described embodiment, the synthesizer 10 having a keyboard has been described as an example. However, the present invention is not limited to an electronic musical instrument having a performance operator other than a keyboard, a sound source device having no performance operator, or musical tone generation. Needless to say, the present invention can be applied to other musical tone generation apparatuses such as expansion boards and chips for use. Further, a device that uses data other than the MIDI format as a performance event for driving the musical tone signal generation circuit 20 may be used.

また、この発明のプログラムは、コンピュータを楽音生成装置として機能させて上述したような機能を実現させるためのプログラムであり、予めROMやHDD等に記憶させておくほか、CD−ROMあるいはフレキシブルディスク等の不揮発性記録媒体(メモリ)に記録して提供し、そのメモリからこのプログラムをRAMに読み出させてCPUに実行させたり、プログラムを記録した記録媒体を備える外部機器あるいはプログラムをHDD等の記憶手段に記憶した外部機器からダウンロードして実行させたりしても、同様の効果を得ることができる。
また、以上述べてきた構成及び変形例は、矛盾しない範囲で適宜組み合わせて適用することも可能である。
Further, the program of the present invention is a program for causing a computer to function as a musical sound generation device and realizing the above-described functions, and is stored in advance in a ROM, an HDD, etc., a CD-ROM, a flexible disk, etc. This program is recorded on a non-volatile recording medium (memory) and provided, and the program is read from the memory to the RAM and executed by the CPU, or an external device or a program including the recording medium storing the program is stored in an HDD or the like. The same effect can be obtained even when downloaded from an external device stored in the means and executed.
In addition, the configurations and modifications described above can be applied in appropriate combinations within a consistent range.

以上の説明から明らかなように、この発明の楽音生成装置又はプログラムによれば、複数のエレメント音を規定する複数のエレメントデータを有する音色データを編集可能な楽音生成装置において、各発音毎にダイナミックに音色の変化する、変化に富んだ楽音を生成することができる。
従って、この発明を適用することにより、変化に富んだ音色を生成可能な楽音生成装置を提供することができる。
As is apparent from the above description, according to the musical tone generating apparatus or program of the present invention, in the musical tone generating apparatus capable of editing timbre data having a plurality of element data that defines a plurality of element sounds , a dynamic sound is generated for each pronunciation. It is possible to generate a variety of musical tones that vary in tone.
Therefore, by applying the present invention, it is possible to provide a musical tone generating apparatus that can generate a variety of timbres .

この発明の楽音生成装置の実施形態であるシンセサイザの概略を示す図である。It is a figure which shows the outline of the synthesizer which is embodiment of the musical sound production | generation apparatus of this invention. 図1に示したシンセサイザにおける1音色分のボイスデータの構成を示す図である。It is a figure which shows the structure of the voice data for 1 tone color in the synthesizer shown in FIG. 同じく発音管理用データの構成を示す図である。It is a figure which similarly shows the structure of the data for pronunciation management. 図1に示したCPUが実行する、ノートオンイベントに応じた発音指示処理のフローチャートである。It is a flowchart of the sound generation instruction | indication process according to the note on event which CPU shown in FIG. 1 performs. 図4に示した有効性判定処理のフローチャートである。5 is a flowchart of validity determination processing shown in FIG. 4.

同じくモノモード処理のフローチャートである。It is a flowchart of a mono mode process similarly. 同じく非レガート&レガート発音処理のフローチャートである。It is a non-legato & legato pronunciation processing flowchart. 同じくサイクル発音処理のフローチャートである。It is also a flowchart of cycle sound generation processing. 同じくランダム発音処理のフローチャートである。It is also a flowchart of a random sound generation process. 図1に示したCPUが実行する、ノートオフイベントに応じた発音指示処理のフローチャートである。It is a flowchart of the sound generation instruction | indication process according to the note-off event which CPU shown in FIG. 1 performs.

図10に示したキーオフ発音処理のフローチャートである。It is a flowchart of the key-off sound generation process shown in FIG. エンベロープ情報の引継ぎについての説明図である。It is explanatory drawing about taking over of envelope information. 図4に示した処理に従った、発音に使用するエレメントの選択の具体例を示す図である。It is a figure which shows the specific example of selection of the element used for pronunciation according to the process shown in FIG. その別の例を示す図である。It is a figure which shows the other example. そのさらに別の例を示す図である。It is a figure which shows another example. そのさらに別の例を示す図である。It is a figure which shows another example.

符号の説明Explanation of symbols

10…シンセサイザ、11…CPU、12…ROM、13…RAM、14…MIDI_I/F、15…演奏操作子、16…タイマ、17…表示器、18…パネル操作子、19…記憶装置、20…楽音信号生成回路、21…音源レジスタ、22…波形データ読出処理部、23…フィルタ処理部、24…エンベロープ処理部、25…ch累算部、26…エフェクト処理部、31…波形メモリ、32…DAC、33…サウンドシステム DESCRIPTION OF SYMBOLS 10 ... Synthesizer, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... MIDI_I / F, 15 ... Performance operator, 16 ... Timer, 17 ... Display, 18 ... Panel operator, 19 ... Storage device, 20 ... Music signal generation circuit, 21 ... sound source register, 22 ... waveform data read processing unit, 23 ... filter processing unit, 24 ... envelope processing unit, 25 ... ch accumulation unit, 26 ... effect processing unit, 31 ... waveform memory, 32 ... DAC, 33 ... Sound system

Claims (11)

複数のエレメントデータに基づいて複数のエレメント音を生成し、該生成された複数のエレメント音を合成して1つの楽音を生成する楽音生成装置であって、
1つの音色の楽音を構成する複数のエレメント音に対応する複数のエレメントデータであって、それぞれ、対応するエレメント音の楽音特性を制御するための特性制御データと、各々エレメントデータの選択規則と対応する複数の発音タイプのうち1の発音タイプを示す発音タイプデータとを含む複数のエレメントデータを記憶する記憶手段と、
ユーザからの指示に応じて、前記記憶手段の記憶する前記複数のエレメントデータのそれぞれについて、前記複数の発音タイプのうち所望の1の発音タイプを示す発音タイプデータの設定を変更する編集手段と、
1つの楽音の発音制御を指示する発音制御イベントであって該1つの楽音の特性を制御するパラメータを含む発音制御イベントの発生に応じて、該発生した発音制御イベントと、前記複数のエレメントデータそれぞれの発音タイプデータが示す発音タイプとに基づいて、前記複数のエレメントデータの中から、エレメント音の生成に使用する1又は複数のエレメントデータを選択するエレメント選択手段と、
前記エレメント選択手段が選択した1又は複数のエレメントデータに基づいて、その各エレメントデータ毎に、エレメントデータに含まれる特性制御データと、前記発生した発音制御イベントに含まれる前記パラメータとに応じた楽音特性を有するエレメント音を生成するエレメント音生成手段とを設けたことを特徴とする楽音生成装置。
A musical sound generating device that generates a plurality of element sounds based on a plurality of element data, and synthesizes the plurality of generated element sounds to generate one musical sound,
A plurality of element data corresponding to a plurality of element sounds constituting a musical tone of one tone color, each corresponding to a characteristic control data for controlling a musical sound characteristic of the corresponding element sound, and a selection rule for each element data Storage means for storing a plurality of element data including pronunciation type data indicating one of the plurality of pronunciation types
Editing means for changing a setting of pronunciation type data indicating a desired one of the plurality of pronunciation types for each of the plurality of element data stored in the storage means in response to an instruction from a user;
In response to the generation of a sound generation control event that instructs the sound generation control of one musical sound and includes a parameter that controls the characteristics of the one musical sound, the generated sound control event and each of the plurality of element data Element selection means for selecting one or more element data to be used for generating an element sound from the plurality of element data based on the pronunciation type indicated by the pronunciation type data of
Based on one or a plurality of element data selected by the element selection means, for each element data, a musical tone corresponding to the characteristic control data included in the element data and the parameter included in the generated sound generation control event A musical sound generating apparatus comprising element sound generating means for generating an element sound having characteristics.
請求項1に記載の楽音生成装置であって、
前記編集手段は、ユーザからの指示に応じて、前記複数のエレメントデータそれぞれについて、前記特性制御データをも編集する手段であることを特徴とする楽音生成装置。
The musical sound generating device according to claim 1,
The musical sound generating apparatus according to claim 1, wherein the editing means is means for editing the characteristic control data for each of the plurality of element data in accordance with an instruction from a user.
請求項1又は2に記載の楽音生成装置であって、
前記発音制御イベントはノートオンイベントであり、
前記複数の発音タイプには非差替音と差替音とが含まれており、
前記エレメント選択手段は、第1のエレメント選択手段及び第2のエレメント選択手段を有し、
前記第1のエレメント選択手段は、前記ノートオンイベントの発生に応じて、前記複数のエレメントデータのうち、前記発音タイプデータが前記非差替音を示すエレメントデータを前記エレメント音の生成に使用するエレメントデータとして選択し、
前記第2のエレメント選択手段は、前記ノートオンイベントの発生に応じて、前記複数のエレメントデータのうち前記発音タイプデータが前記差替音を示すエレメントデータの中から、所定の規則に従って又はランダムで、いずれか1のエレメントデータを前記エレメント音の生成に使用するエレメントデータとして選択することを特徴とする楽音生成装置。
The musical sound generating device according to claim 1 or 2,
The pronunciation control event is a note-on event,
The plurality of pronunciation types include non-replacement sounds and replacement sounds,
The element selection means has a first element selection means and a second element selection means,
The first element selection means uses element data in which the pronunciation type data indicates the non-replacement sound among the plurality of element data for generating the element sound in response to the occurrence of the note-on event. Select as element data,
The second element selection means is configured according to a predetermined rule or at random from element data in which the pronunciation type data indicates the replacement sound among the plurality of element data in response to the occurrence of the note-on event. Any one of the element data is selected as element data to be used for generating the element sound.
請求項3に記載の楽音生成装置であって、
前記非差替音が、ノーマル音、レガート音、スイッチオン音、またはスイッチオフ音であることを特徴とする楽音生成装置。
A musical sound generating device according to claim 3,
The musical sound generating apparatus, wherein the non-replacement sound is a normal sound, a legato sound, a switch-on sound, or a switch-off sound.
請求項1又は2に記載の楽音生成装置であって、
前記発音制御イベントはノートオンイベントであり、
前記複数の発音タイプにはレガート音と非レガート音とが含まれており、
前記エレメント選択手段は、前記ノートオンイベントの発生に応じて、前回発生したノートオンイベントに応じて前記非レガート音又は前記レガート音のエレメントデータに基づいて生成されたエレメント音がまだノートオン状態であるか否か判断し、(1)まだノートオン状態であれば、前記複数のエレメントデータのうち前記発音タイプデータが前記レガート音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択し、(2)もうノートオン状態でなければ、前記複数のエレメントデータのうち前記発音タイプデータが前記非レガート音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択することを特徴とする楽音生成装置。
The musical sound generating device according to claim 1 or 2,
The pronunciation control event is a note-on event,
The plurality of pronunciation types include legato and non-legato sounds,
In response to the occurrence of the note-on event, the element selection means may be configured that the element sound generated based on the element data of the non-legato sound or the legato sound according to the note-on event that occurred last time is still in the note-on state. (1) If the note-on state is still present, element data in which the pronunciation type data indicates the legato sound among the plurality of element data is used as element data used for generating the element sound. (2) If the note-on state is no longer present, the element data in which the pronunciation type data indicates the non-legato sound among the plurality of element data is selected as element data used to generate the element sound. A musical sound generator characterized by.
請求項5に記載の楽音生成装置であって、
前記非レガート音が、ノーマル音、スイッチオン音、またはスイッチオフ音であることを特徴とする楽音生成装置。
The musical sound generating device according to claim 5,
The musical sound generating apparatus, wherein the non-legato sound is a normal sound, a switch-on sound, or a switch-off sound.
請求項1又は2に記載の楽音生成装置であって、
前記発音制御イベントはノートオンイベントとノートオフイベントであり、
前記複数の発音タイプにはノートオン音とノートオフ音とが含まれており、
前記エレメント選択手段は、第1のエレメント選択手段及び第2のエレメント選択手段を有し、
前記エレメント音生成手段は、第1のエレメント音生成手段、エレメント音特定手段及び第2のエレメント音生成手段を有し、
前記第1のエレメント選択手段は、前記ノートオンイベントの発生に応じて、前記複数のエレメントデータのうち、前記発音タイプデータが前記ノートオン音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択し、
前記第1のエレメント音生成手段は、前記第1のエレメント選択手段が選択したエレメントデータに含まれる特性制御データに応じた楽音特性を有する前記エレメント音を生成し、
前記第2のエレメント選択手段は、前記ノートオフイベントの発生に応じて、前記複数のエレメントデータのうち、前記発音タイプデータが前記ノートオフ音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択し、
前記エレメント音特定手段は、前記第1のエレメント音生成手段が生成しているエレメント音のうちから、特性引継ぎ元として1つのエレメント音を特定し、
前記第2のエレメント音生成手段は、前記エレメント音特定手段が特定したエレメント音の一部の楽音特性を引き継ぎ、かつ、前記第2のエレメント選択手段が選択したエレメントデータに含まれる特性制御データに応じた楽音特性を有する前記エレメント音を生成することを特徴とする楽音生成装置。
The musical sound generating device according to claim 1 or 2,
The pronunciation control events are a note-on event and a note-off event,
The plurality of pronunciation types include a note-on sound and a note-off sound,
The element selection means has a first element selection means and a second element selection means,
The element sound generating means includes first element sound generating means, element sound specifying means, and second element sound generating means,
The first element selection means uses element data in which the pronunciation type data indicates the note-on sound among the plurality of element data for generating the element sound in response to the occurrence of the note-on event. Select as element data,
The first element sound generating means generates the element sound having a musical sound characteristic according to characteristic control data included in the element data selected by the first element selecting means,
The second element selection means uses, in the generation of the element sound, element data in which the pronunciation type data indicates the note-off sound among the plurality of element data in response to the occurrence of the note-off event. Select as element data,
The element sound specifying means specifies one element sound as a characteristic takeover source from among the element sounds generated by the first element sound generating means,
The second element sound generation means takes over the musical sound characteristics of a part of the element sound specified by the element sound specification means, and includes characteristic control data included in the element data selected by the second element selection means. A musical sound generating apparatus characterized by generating the element sound having a corresponding musical sound characteristic.
請求項7に記載の楽音生成装置であって、
前記ノートオン音が、ノーマル音、レガート音、ランダム音、サイクル音、スイッチオン音、またはスイッチオフ音であることを特徴とする楽音生成装置。
It is a musical sound production | generation apparatus of Claim 7, Comprising:
A musical sound generating apparatus, wherein the note-on sound is a normal sound, legato sound, random sound, cycle sound, switch-on sound, or switch-off sound.
請求項1又は2に記載の楽音生成装置であって、
ユーザの操作によりオフ状態とオン状態を切り替え可能なスイッチを有し、
前記発音制御イベントはノートオンイベントであり、
前記複数の発音タイプにはスイッチオフ音、スイッチオン音及び常時音が含まれており、
前記エレメント選択手段は、前記ノートオンイベントの発生に応じて、(1)該ノートオンイベントの発生時に前記スイッチがオフ状態であった場合には、前記複数のエレメントデータのうち、前記発音タイプデータが前記スイッチオフ音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択し、(2)前記ノートオンイベントの発生時に前記スイッチがオン状態であった場合には、前記複数のエレメントデータのうちの前記発音タイプデータがスイッチオン音を示すエレメントデータを、前記エレメント音の生成に使用するエレメントデータとして選択し、さらに、(3) 前記スイッチのオンオフ状態に関わりなく、前記複数のエレメントデータのうち、前記発音タイプデータが前記常時音を示すエレメントデータも、前記エレメント音の生成に使用するエレメントデータとして選択することを特徴とすることを特徴とする楽音生成装置。
The musical sound generating device according to claim 1 or 2,
It has a switch that can be switched between the off state and the on state by user operation,
The pronunciation control event is a note-on event,
The plurality of pronunciation types include a switch-off sound, a switch-on sound and a constant sound,
In response to the occurrence of the note-on event, the element selection means (1) if the switch is in an off state at the time of occurrence of the note-on event, the sound generation type data among the plurality of element data Selecting element data indicating the switch-off sound as element data to be used for generating the element sound, and (2) when the switch is on when the note-on event occurs, The element data in which the pronunciation type data of the element data indicates a switch-on sound is selected as element data used for generating the element sound, and (3) regardless of the on / off state of the switch. Among the element data, the sound type data indicates the element data indicating the continuous sound. The musical tone generating apparatus is also characterized in that data is also selected as element data used for generating the element sound.
請求項9に記載の楽音生成装置であって、
前記常時音が、ノーマル音、レガート音、ランダム音又はサイクル音であることを特徴とする楽音生成装置。
The musical sound generating device according to claim 9, wherein
A musical sound generating apparatus, wherein the continuous sound is a normal sound, a legato sound, a random sound, or a cycle sound.
コンピュータを請求項1乃至10のいずれか一項記載の楽音生成装置として機能させるためのプログラム。   The program for functioning a computer as a musical sound production | generation apparatus as described in any one of Claims 1 thru | or 10.
JP2008073168A 2007-01-09 2008-03-21 Musical sound generating apparatus and program Expired - Fee Related JP4867940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073168A JP4867940B2 (en) 2007-01-09 2008-03-21 Musical sound generating apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007001804 2007-01-09
JP2007001804 2007-01-09
JP2008073168A JP4867940B2 (en) 2007-01-09 2008-03-21 Musical sound generating apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008001575A Division JP5217443B2 (en) 2007-01-09 2008-01-08 Musical sound generating apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011148402A Division JP5152373B2 (en) 2007-01-09 2011-07-04 Musical sound generating apparatus and program

Publications (2)

Publication Number Publication Date
JP2008191680A JP2008191680A (en) 2008-08-21
JP4867940B2 true JP4867940B2 (en) 2012-02-01

Family

ID=39751763

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2008001575A Expired - Fee Related JP5217443B2 (en) 2007-01-09 2008-01-08 Musical sound generating apparatus and program
JP2008073168A Expired - Fee Related JP4867940B2 (en) 2007-01-09 2008-03-21 Musical sound generating apparatus and program
JP2011148402A Expired - Fee Related JP5152373B2 (en) 2007-01-09 2011-07-04 Musical sound generating apparatus and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008001575A Expired - Fee Related JP5217443B2 (en) 2007-01-09 2008-01-08 Musical sound generating apparatus and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011148402A Expired - Fee Related JP5152373B2 (en) 2007-01-09 2011-07-04 Musical sound generating apparatus and program

Country Status (1)

Country Link
JP (3) JP5217443B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990912B2 (en) 2015-08-11 2018-06-05 Samsung Electronics Co., Ltd. Electronic device and method for reproducing sound in the electronic device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203582A (en) * 2010-03-26 2011-10-13 Yamaha Corp Musical sound generator and program
JP5509982B2 (en) * 2010-03-26 2014-06-04 ヤマハ株式会社 Music generator
JP5509983B2 (en) * 2010-03-26 2014-06-04 ヤマハ株式会社 Musical sound generating apparatus and program
JP2016177277A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Sound generating device, sound generating method, and sound generating program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61120199A (en) * 1984-11-16 1986-06-07 ヤマハ株式会社 Musical sound generator
JP2722665B2 (en) * 1989-05-18 1998-03-04 ヤマハ株式会社 Tone generator
JPH04159599A (en) * 1990-10-23 1992-06-02 Roland Corp Electronic music instrument
JP2747949B2 (en) * 1991-07-10 1998-05-06 株式会社河合楽器製作所 Electronic musical instrument
JPH07271372A (en) * 1994-04-01 1995-10-20 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP3518716B2 (en) * 1996-11-16 2004-04-12 ヤマハ株式会社 Music synthesizer
JP3407610B2 (en) * 1996-11-27 2003-05-19 ヤマハ株式会社 Musical sound generation method and storage medium
JP3347284B2 (en) * 1998-03-09 2002-11-20 株式会社河合楽器製作所 Tone frequency modulation device and tone frequency modulation method
JP3719144B2 (en) * 2001-01-19 2005-11-24 ヤマハ株式会社 Electronic musical instruments
JP3705144B2 (en) * 2001-03-29 2005-10-12 ヤマハ株式会社 Performance data change processing device
JP3873790B2 (en) * 2002-03-19 2007-01-24 ヤマハ株式会社 Rendition style display editing apparatus and method
JP3835443B2 (en) * 2003-09-29 2006-10-18 ヤマハ株式会社 Music generator
JP4407473B2 (en) * 2004-11-01 2010-02-03 ヤマハ株式会社 Performance method determining device and program
JP4552769B2 (en) * 2005-06-17 2010-09-29 ヤマハ株式会社 Musical sound waveform synthesizer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990912B2 (en) 2015-08-11 2018-06-05 Samsung Electronics Co., Ltd. Electronic device and method for reproducing sound in the electronic device

Also Published As

Publication number Publication date
JP2008191657A (en) 2008-08-21
JP2011191794A (en) 2011-09-29
JP5152373B2 (en) 2013-02-27
JP2008191680A (en) 2008-08-21
JP5217443B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP4107107B2 (en) Keyboard instrument
JP4321476B2 (en) Electronic musical instruments
JP5152373B2 (en) Musical sound generating apparatus and program
JP2007011217A (en) Musical sound synthesizer and program
JP3838353B2 (en) Musical sound generation apparatus and computer program for musical sound generation
US20130125734A1 (en) Musical sound generator and method for generating musical sound based on element data
JPH10214083A (en) Musical sound generating method and storage medium
JP5897805B2 (en) Music control device
EP1391873B1 (en) Rendition style determination apparatus and method
JP3835443B2 (en) Music generator
JPWO2007015321A1 (en) Music output switching device, musical output switching method, computer program for switching musical output
JP4803042B2 (en) Musical sound generating apparatus and program
JP4803043B2 (en) Musical sound generating apparatus and program
JP5070842B2 (en) Musical sound generating apparatus and program
JP6417663B2 (en) Electronic musical instrument, electronic musical instrument control method and program
JP3613062B2 (en) Musical sound data creation method and storage medium
JP2002297139A (en) Playing data modification processor
JP5104414B2 (en) Automatic performance device and program
JPH06195071A (en) Part information recording device
JP3861886B2 (en) Musical sound waveform data creation method and storage medium
JP2007065471A (en) Electronic musical sound generator
JP2003233374A (en) Automatic expression imparting device and program for music data
JP2008003222A (en) Musical sound synthesizer and program
JP2009244339A (en) Electronic musical tone generation device and computer program
JP2007147748A (en) Music data processor, and music effect processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110704

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

R150 Certificate of patent or registration of utility model

Ref document number: 4867940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees