JP3039311B2 - Electronic musical instrument - Google Patents
Electronic musical instrumentInfo
- Publication number
- JP3039311B2 JP3039311B2 JP7040499A JP4049995A JP3039311B2 JP 3039311 B2 JP3039311 B2 JP 3039311B2 JP 7040499 A JP7040499 A JP 7040499A JP 4049995 A JP4049995 A JP 4049995A JP 3039311 B2 JP3039311 B2 JP 3039311B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- tone
- pitch
- delay
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、弦などの発音体を同
じタイミングで打撃しても、実際に楽音として認識され
るタイミングが音高により異なることを考慮した電子楽
器に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument taking into account that even when a sounding body such as a string is struck at the same timing, the timing at which the tone is actually recognized as a musical tone differs depending on the pitch.
【0002】[0002]
【従来の技術】周知のように、アコースティックピアノ
においては、鍵が押下されると、この動きが打弦機構を
介してハンマに伝達され、これによりハンマが慣性によ
り回動して、当該鍵に対応した弦が打撃されるようにな
っているので、通常の奏法では、押下時の速度(押鍵速
度)と打弦による実際の楽音の大きさとの間には相関関
係がある。このため、鍵盤を有する電子楽器において
は、押鍵速度を検出し、この検出結果によって、発生す
べき楽音の音量を制御することが行なわれている。ここ
で、押鍵速度の検出は、押下に伴う鍵位置を浅い位置と
深い位置とでそれぞれ検出して、鍵の押下においてこれ
ら位置間を要する時間を測定することにより行なわれ
る。2. Description of the Related Art As is well known, in an acoustic piano, when a key is depressed, this movement is transmitted to a hammer via a string striking mechanism, whereby the hammer is rotated by inertia and applied to the key. Since the corresponding string is struck, in a normal playing style, there is a correlation between the speed at the time of pressing (key pressing speed) and the actual tone volume of the struck string. For this reason, in an electronic musical instrument having a keyboard, a key depression speed is detected, and the volume of a musical tone to be generated is controlled based on the detection result. Here, the key depression speed is detected by detecting a key position associated with the depression at a shallow position and a deep position, respectively, and measuring the time required between these positions when the key is depressed.
【0003】ところで、かかる電子楽器は、一般には、
複数の楽音発生用チャンネル(楽音合成チャンネル)を
有しており、鍵盤の複数の鍵による同時押鍵を受け付
け、複数同時発音(複音で発音)するように構成されて
いる。が、楽音合成チャンネルには限りがあるので、例
えば、すべての楽音合成チャンネルが発音中である場合
には、すべての楽音合成チャンネルのうちの最も減衰が
進行している楽音合成チャンネルを検出し、当該楽音合
成チャンネルに、新たに押鍵された鍵に対応した楽音を
割り当てる処理(トランケート処理)を実行する必要が
ある。このため、押鍵されてから実際に発音されるまで
時間がかかるので、これを防止すべく、従来の電子楽器
では、浅い位置での押鍵の検出に応答して、予め複数の
楽音合成チャンネルのいずれかに割り当てられるように
構成されている(例えば、特開平2−161380号公
報の記載参照)。[0003] In general, such electronic musical instruments generally include:
It has a plurality of musical tone generating channels (tone synthesizing channels), is configured to receive simultaneous key presses by a plurality of keys on the keyboard and to produce a plurality of simultaneous sounds (pronounced in multiple sounds). However, since the tone synthesis channels are limited, for example, if all tone synthesis channels are sounding, the tone synthesis channel with the most attenuated progress of all tone synthesis channels is detected. It is necessary to execute a process of assigning a tone corresponding to a newly depressed key to the tone synthesis channel (a truncation process). For this reason, it takes time from when the key is pressed to when the sound is actually generated. In order to prevent this, in a conventional electronic musical instrument, a plurality of tone synthesis channels are prepared in advance in response to the detection of the key depression at a shallow position. (For example, see the description in Japanese Patent Application Laid-Open No. 2-161380).
【0004】さらに、アコースティックピアノにおいて
押鍵速度が異なる場合、ハンマの回動に要する時間も相
違する。このため、ハンマがある地点を通過した時点か
らみれば、ハンマの打弦タイミングも当然に異なるもの
となる。これを電子楽器について考えてみると、鍵が深
い位置を通過した時点からみれば、押鍵速度に応じて実
際に発音タイミングが異なるようにしなければならない
ことになる。そこで、従来の電子楽器では、押鍵速度が
求まった時点から実際に発音を開始するまでの時間を、
押鍵速度が速いほど短くなるように制御して、アコース
ティックピアノの鍵の操作に対応したタイミングで発音
が行なわれるようになっている(例えば、特開平6−9
5676号公報の記載参照)。[0004] Further, when the key pressing speed is different in the acoustic piano, the time required for turning the hammer is also different. For this reason, when the hammer passes through a certain point, the hammer striking timing naturally differs. Considering this for an electronic musical instrument, it is necessary to make the tone generation timing actually different according to the key-depression speed, when viewed from the point in time when the key passes through a deep position. Therefore, in a conventional electronic musical instrument, the time from when the key pressing speed is obtained to when the sound is actually started is calculated as:
The sound is produced at a timing corresponding to the operation of the keys of the acoustic piano by controlling so as to be shorter as the key pressing speed is higher (for example, Japanese Patent Laid-Open No. 6-9).
No. 5676).
【0005】[0005]
【発明が解決しようとする課題】ここで、アコースティ
ックピアノにおいて、ハンマの打弦から実際に楽音とし
て認識されるまでのメカニズムについて考えてみると、
ハンマの打弦による衝撃は、打弦地点である弦の一端か
ら他端へ伝達した後、少なくとも両端を節とする振動が
定常的に形成されてはじめて、かかる振動が楽音として
認識されるものである。さて、弦の長さは音高によって
異なるので、ハンマによる衝撃が弦全体に伝達する時間
も音高により相違する。このため、音高が異なれば、ハ
ンマの打弦タイミングが同一であっても、実際に楽音と
認識されるタイミングは相違するのである。しかしなが
ら、上述した従来の電子楽器にあっては、押鍵速度は考
慮していても、音高の相違による楽音の認識タイミング
のズレについては考慮していないために、アコースティ
ックピアノの鍵の操作に対応したタイミングでの発音を
厳密に言えば行なうことができなかった。Here, in an acoustic piano, a mechanism from the hammer striking to the actual recognition as a musical tone is considered.
The impact of the hammer striking is transmitted only from one end of the string, which is the striking point, to the other end, and only when vibrations having nodes at both ends are steadily formed, such vibrations are recognized as musical sounds. is there. Now, since the length of the string varies depending on the pitch, the time required for the impact of the hammer to be transmitted to the entire string also varies depending on the pitch. For this reason, if the pitch differs, even when the hammer striking timing is the same, the timing at which it is actually recognized as a musical tone is different. However, in the above-mentioned conventional electronic musical instruments, the key operation speed is taken into consideration, but the deviation of the musical tone recognition timing due to the difference in pitch is not taken into account. Strictly speaking, it could not be performed at the corresponding timing.
【0006】一方、電子楽器では、鍵盤操作によるもの
ばかりでなく、例えば、MIDI規格のような外部から
の情報によっても発音すべき場合がある。このような場
合、指定された音色は、必ずしもピアノ音であるとは限
らず、例えば、ギター音であるときもある。ギターは、
ピアノと同じ撥弦楽器であるが、弦の材質の相違や、撥
弦メカニズムの相違(ピアノはハンマによる衝撃である
のに対し、ギターは指による弾き)などにより、弦への
撥弦操作とほぼ同時に楽音として認識され、また、音高
の相違による楽音の認識タイミングについてはピアノの
ほどズレない。さらに、外部からの情報には、押鍵速度
や、音高の相違による楽音の認識タイミングのズレなど
をすでに補償している場合もあり得る。したがって、電
子楽器においては、指定された音色や、情報の供給元な
どに応じて発音タイミングを適切に制御しなければなら
ないが、上述した従来の電子楽器では、このような制御
は行なわれておらず、この意味でも、鍵の操作に対応し
たタイミングでの発音を行なうことができなかった。[0006] On the other hand, in an electronic musical instrument, there is a case where the sound should be generated not only by the keyboard operation but also by external information such as the MIDI standard. In such a case, the specified timbre is not always a piano sound, but may be, for example, a guitar sound. The guitar is
Although it is the same plucked instrument as the piano, the difference in the material of the strings and the difference in the plucking mechanism (piano is impacted by hammer, guitar is played by finger, etc.) At the same time, it is recognized as a musical tone, and the timing of recognizing the musical tone due to the difference in pitch does not shift as much as a piano. Further, the information from the outside may already compensate for a deviation in the timing of recognizing a musical tone due to a key pressing speed or a difference in pitch. Therefore, in an electronic musical instrument, the sounding timing must be appropriately controlled according to a designated tone color, a source of information, and the like. However, such control is not performed in the above-described conventional electronic musical instrument. In this sense, too, it was not possible to produce a sound at a timing corresponding to the key operation.
【0007】この発明は上述した問題に鑑みてなされた
もので、その目的とするところは、音高や、音色、およ
びこれらの情報の供給元に応じたタイミングで発音を行
なう電子楽器を提供することにある。SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its object to provide an electronic musical instrument that produces a tone at a timing corresponding to a pitch, a timbre, and a source of such information. It is in.
【0008】[0008]
【課題を解決するための手段】上述した課題を解決する
ために請求項1に記載の発明にあっては、発生すべき楽
音の音高を示す音高情報、および発音を指示する発音指
示情報を生成し、これら情報に基づいて楽音信号を生成
する電子楽器において、前記発音指示情報を検出した
後、実際に楽音を生成させるまでの時間を遅延させる遅
延手段を具備し、前記遅延手段での遅延時間を、前記音
高情報で示される音高が高くなるにつれて短くしたこと
を特徴としている。請求項2に記載の発明にあっては、
発生すべき楽音の音高を示す音高情報、発生すべき楽音
の音色を示す音色情報、および発音を指示する発音指示
情報を生成し、これら情報に基づいて複数の音色の楽音
信号を生成する電子楽器において、前記発音指示情報を
検出した後、実際に楽音を生成させるまでの時間を遅延
させる遅延手段を具備し、前記遅延手段での遅延時間
を、前記音高情報および前記音色情報により設定し、か
つ、少なくとも1つの音色について当該遅延時間を、当
該音高情報で示される音高が高くなるにつれて短くした
ことを特徴としている。請求項3に記載の発明にあって
は、発生すべき楽音の音高を示す音高情報、および発音
を指示する発音指示情報を生成し、これら情報に基づい
て楽音信号を生成する電子楽器において、前記発音情報
を検出した後、実際に楽音を生成させるまでの時間を遅
延させる遅延手段と、前記発音指示情報の供給元に応じ
て、前記遅延手段での遅延を行なうか否かを判別する判
別手段と、前記判別手段による判別結果が否定的であれ
ば、前記遅延手段の遅延が行なわれないようにする一
方、前記判別結果が肯定的であれば、前記遅延手段での
遅延時間を、前記音高情報により変化させる制御手段と
を具備することを特徴としている。請求項4に記載の発
明にあっては、発生すべき楽音の音高を示す音高情報、
発生すべき楽音の音色を示す音色情報、および発音を指
示する発音情報を生成し、これら情報に基づいて楽音信
号を生成する電子楽器において、前記発音指示情報を検
出した後、実際に楽音を生成させるまでの時間を遅延さ
せる遅延手段と、前記発音指示情報の供給元に応じて、
前記遅延手段での遅延を行なうか否かを判別する判別手
段と、前記判別手段による判別結果が否定的であれば、
前記遅延手段 の遅延が行なわれないようにする一方、前
記判別結果が肯定的であれば、前記遅延手段での遅延時
間を、前記音高情報、および前記音色情報により変化さ
せる制御手段とを具備することを特徴としている。 In order to solve the above-mentioned problems, according to the first aspect of the present invention, pitch information indicating a pitch of a musical tone to be generated, and a sounding finger for instructing sound generation.
Generates indicates information, an electronic musical instrument to generate the musical tone signal based on these information, after detecting the sounding instruction information, actually comprises a delay means for delaying the time until to generate musical tones, the delay means The delay time in the sound
It is characterized in that the pitch is shortened as the pitch indicated by the high information increases . In the invention according to claim 2,
Pitch information indicating the pitch of a tone to be generated, tone information indicating the tone of the tone to be generated, and pronunciation instruction information for instructing sound generation are generated, and based on the information, musical tones of a plurality of tones are generated. an electronic musical instrument for generating a signal, after detecting the sounding instruction information, actually comprises a delay means for delaying the time until to generate musical tones, the delay time in said delay means, said pitch data and said Set according to the tone information
The delay time for at least one tone.
The pitch is shortened as the pitch indicated by the pitch information increases . According to the third aspect of the present invention, pitch information indicating the pitch of a musical tone to be generated, and sound generation
Generates pronunciation instruction information that instructs
An electronic musical instrument for generating a musical tone signal by using
After detecting a delay, the time until the music is actually generated is delayed.
Delay means for delaying, and according to the source of the pronunciation instruction information
To determine whether or not to delay by the delay means.
If the determination result by the different means and the determination means is negative
For example, it is possible to prevent the delay means from delaying.
On the other hand, if the determination result is positive,
Control means for changing the delay time based on the pitch information . Claim 4
In the clear, pitch information indicating the pitch of the musical tone to be generated,
Tone information indicating the tone of the musical tone to be generated, and the pronunciation
Generates pronunciation information to indicate
In the electronic musical instrument that generates the signal, the pronunciation instruction information is detected.
After the sound is output, the time until the music is actually generated is delayed.
Delaying means, depending on the source of the pronunciation instruction information,
Determining means for determining whether or not to delay by the delay means
And if the result of the determination by the determination means is negative,
While the delay means does not delay,
If the determination result is affirmative, the delay at the delay means
Is changed by the pitch information and the timbre information.
And control means for causing
【0009】[0009]
【作用】請求項1に記載の発明によれば、発音指示情報
があっても、この情報に基づく実際の発音は、音高情報
に対応した遅延時間だけ遅延して行なわれることにな
る。ここで、遅延時間を、音高が高いほど短くし、音高
が低いほど長くなるように設定すれば、ピアノなどの撥
弦楽器等において見られる、各弦を同じタイミングで打
撃しても実際に楽音として認識されるタイミングが音高
によって異なることを模倣することができる。請求項2
に記載の発明によれば、発音指示情報があっても、この
情報に基づく実際の発音は、音高情報および音色情報に
対応した遅延時間だけ遅延して行なわれることになる。
ここで、遅延時間を、音高が高いほど短くし、音高が低
いほど長くなるように設定するとともに、ピアノでは長
くし、またギターでは比較的短く設定すれば、各弦を同
じタイミングで打撃しても実際に楽音として認識される
タイミングが音高によって異なる点とともに、この相違
が音色によって異なる点を模倣することができる。請求
項3または4に記載の発明によれば、判別手段が、遅延
を行なうか否かを、発音指示情報の供給元によって判別
し、この判別結果が否定的であれば、制御手段は、遅延
手段の遅延が行なわれないようにする。発音指示情報
が、演奏者による演奏操作によるものでなく外部装置か
ら供給されたものである場合や、音高による発音の相違
を考慮したものである場合などでは、遅延手段による遅
延を行なう必要はないが、これらの場合に該当するか
は、発音を指示すべき情報の供給元で判別がつく。According to the first aspect of the invention, even if there is sound generation instruction information, actual sound generation based on this information is performed with a delay time corresponding to the pitch information. Here, if the delay time is set to be shorter as the pitch is higher and longer as the pitch is lower, even if each string is struck at the same timing as seen in a plucked string instrument such as a piano, it is actually It is possible to imitate that the timing recognized as a musical tone differs depending on the pitch. Claim 2
According to the invention described in (1), even if there is sound generation instruction information, actual sound generation based on this information is performed with a delay time corresponding to the pitch information and the tone color information.
Here, if the delay time is set to be shorter for higher pitches and longer for lower pitches, it is set longer for pianos and relatively shorter for guitars so that each string is struck at the same timing. However, it is possible to imitate that the timing at which the tone is actually recognized as a tone differs depending on the pitch, and that the difference differs depending on the timbre. According to the third or fourth aspect of the present invention, the determining means determines whether or not to perform the delay based on the supply source of the sounding instruction information , and if the determination result is negative, the control means determines whether or not to perform the delay. it like the delay means is not performed. When the pronunciation instruction information is supplied not from the performance operation by the player but from an external device, or considering the difference in pronunciation due to the pitch, it is not necessary to delay by the delay means. However, whether or not this is the case can be determined by the source of the information to be instructed to sound.
【0010】[0010]
1:実施例の構成 以下、この発明の実施例について図面を参照して説明す
る。図1は、この発明による実施例の構成を示すブロッ
ク図である。この図において、符号10はCPUであ
り、バスを介して各部を制御する。符号20はROMで
あり、CPU10において用いられる各種プログラム
や、音高、音色および押鍵速度に対応した待ち時間のテ
ーブル(後述する)を記憶する。符号30はRAMであ
り、各種レジスタや変数などが一時的に記憶する。1: Configuration of Embodiment Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an embodiment according to the present invention. In this figure, reference numeral 10 denotes a CPU, which controls each unit via a bus. Reference numeral 20 denotes a ROM, which stores various programs used in the CPU 10 and a table (described later) of waiting times corresponding to pitches, timbres, and key pressing speeds. Reference numeral 30 denotes a RAM, which temporarily stores various registers and variables.
【0011】符号40は、88鍵からなる鍵盤であり、
各鍵Kには、図2に示すように、それぞれタッチ検出回
路41が設けられる。このタッチ検出回路41は、当該
鍵Kの押下に伴って順次オンとなるスイッチ42、43
の状態から、当該鍵Kの押鍵速度を検出する。より具体
的には、鍵Kの押下に伴って、まず、スイッチ42がオ
ンとなり、次に、スイッチ43がオンとなるように構成
されるとともに、タッチ検出回路41は、スイッチ42
のオンから、スイッチ43がオンとなるまでの時間を測
定することにより、当該鍵の押鍵速度を検出し、その情
報とともに、当該鍵Kの押下に伴う楽音の発生を指示す
る情報(ノートオン)を、当該鍵の音高を示す音高情報
と併せて押鍵情報としてCPU10に供給するようにな
っている。Reference numeral 40 denotes a keyboard composed of 88 keys.
Each key K is provided with a touch detection circuit 41, as shown in FIG. The touch detection circuit 41 includes switches 42 and 43 that are sequentially turned on when the key K is pressed.
From the state, the key pressing speed of the key K is detected. More specifically, when the key K is depressed, the switch 42 is turned on first, then the switch 43 is turned on, and the touch detection circuit 41
By measuring the time from when the switch 43 is turned on to when the switch 43 is turned on, the key pressing speed of the key is detected, and the information (note on ) Is supplied to the CPU 10 as key press information together with pitch information indicating the pitch of the key.
【0012】符号50は音色設定操作子であり、鍵盤4
0への押鍵操作あるいは外部からの情報により発生させ
る楽音の音色を設定し、設定された音色を示す音色情報
TCをCPU10に供給する。符号60は楽音合成回路
であり、複数の楽音合成チャンネルを有し、CPU10
の制御のもと、前述のトランケート処理も行なって、楽
音を合成する。そして、この楽音信号は、アンプや、ス
ピーカ等からなるサウンドシステム70により外部に発
音するようになっている。また、符号80はMIDIイ
ンターフェイスであり、外部から供給されるMIDI演
奏情報を受信し、この情報をCPU10に供給する。Reference numeral 50 denotes a tone color setting operator,
A tone color of a tone generated by a key-depressing operation to 0 or external information is set, and tone color information TC indicating the set tone color is supplied to the CPU 10. Reference numeral 60 denotes a tone synthesis circuit, which has a plurality of tone synthesis channels.
Under the above control, the above-described truncation processing is also performed to synthesize a musical tone. The musical sound signal is output to the outside by a sound system 70 including an amplifier, a speaker, and the like. Reference numeral 80 denotes a MIDI interface, which receives MIDI performance information supplied from the outside and supplies this information to the CPU 10.
【0013】2:実施例の動作 次に、上述した実施例の動作について図3〜図5を参照
して説明する。 2−1:メインルーチン 図3は、この実施例のメインルーチンを示すフローチャ
ートである。はじめに、この実施例に電源が投入される
と、ステップSa1において、各種レジスタのクリア
や、初期値セットなどの初期設定が行なわれる。この初
期設定が終了すると、以降は、次に説明するステップS
a2〜Sa11のループ処理が、電源が遮断されるま
で、所定の周期(例えば1msec毎)で繰り返し実行
される。2: Operation of Embodiment Next, the operation of the above-described embodiment will be described with reference to FIGS. 2-1: Main Routine FIG. 3 is a flowchart showing a main routine of this embodiment. First, when power is turned on in this embodiment, in step Sa1, various registers are cleared and initial settings such as initial value setting are performed. When this initial setting is completed, the following step S will be described.
The loop processing of a2 to Sa11 is repeatedly executed at a predetermined cycle (for example, every 1 msec) until the power is turned off.
【0014】まず、このループ処理のステップSa2お
よびSa3において、押鍵のイベントが検出されると、
すなわち、発音指示を示す情報がタッチ検出回路41に
より生成され、CPU10がこの情報を受信すると、ス
テップSa4において当該情報に伴う各種データと、こ
の情報の入力源(供給元)が鍵盤40である旨を示すデ
ータとが発音バッファに追加される。なお、ステップS
a2およびSa3において、押鍵のイベントが検出され
なければ、次のステップSa5に直接スキップする。First, in steps Sa2 and Sa3 of this loop processing, when an event of key depression is detected,
That is, when information indicating a sounding instruction is generated by the touch detection circuit 41 and the CPU 10 receives this information, in step Sa4, various data associated with the information and the input source (supply source) of the information are the keyboard 40. Is added to the sound generation buffer. Step S
If no key press event is detected in a2 and Sa3, the process directly skips to the next step Sa5.
【0015】次に、ステップSa5およびSa6におい
て、MIDIデータが入力され、当該MIDIデータに
イベントが検出されると、ステップSa7において当該
イベントに伴うデータと、このデータの入力源がMID
Iである旨を示すデータとが発音バッファに追加され
る。ここで、かかる発音バッファの内容の一例を図6
(a)に示す。この図に示すように、1行には、1つの
イベントを示す情報が、音色、音高、音量および入力源
を示すデータに分けられてそれぞれ記憶される。この例
では、2行ともノートオンイベントに対応する情報であ
り、入力源が鍵盤40であるならば、音量を示すデータ
は、タッチ検出回路41により検出された押鍵速度と同
義である。なお、ノートオフイベント情報は、これの前
提となるノートオンイベント情報により生じた楽音を消
音させる旨の情報である。一方、ステップSa5および
Sa6において、MIDIデータのイベントが検出され
なければ、次のステップSa8に直接スキップする。Next, in steps Sa5 and Sa6, MIDI data is input, and when an event is detected in the MIDI data, in step Sa7, the data accompanying the event and the input source of this data are set to MID.
The data indicating that it is I is added to the sound generation buffer. Here, an example of the contents of the sound generation buffer is shown in FIG.
(A). As shown in this drawing, information indicating one event is stored in one row, divided into data indicating a timbre, a pitch, a volume, and an input source. In this example, both lines are information corresponding to a note-on event, and if the input source is the keyboard 40, data indicating the volume is synonymous with the key pressing speed detected by the touch detection circuit 41. Note that the note-off event information is information indicating that a tone generated by the note-on event information on which the note-off event information is based is muted. On the other hand, if no MIDI data event is detected in steps Sa5 and Sa6, the process directly skips to the next step Sa8.
【0016】ステップSa8において発音バッファのイ
ベントが検出されると、すなわち、発音バッファに、ス
テップSa4あるいはSa7における追加や、後述する
ステップSb7における削除が生じると、ステップSa
9において後述する発音処理が実行され、発音バッファ
の内容に基づいて時差発音バッファが作成される。発音
バッファにイベントが検出されなければ、ステップSa
10に直接スキップする。ステップSa10においては
後述する時差発音処理が実行され、時差発音バッファの
内容に基づいて(条件が揃えば)実際の発音を行なわせ
るための処理が行なわれるようになっている。If an event of the sound generation buffer is detected in step Sa8, that is, if the sound generation buffer is added in step Sa4 or Sa7 or deleted in step Sb7 described later, step Sa is executed.
At 9, a sound generation process described later is executed, and a time difference sound generation buffer is created based on the contents of the sound generation buffer. If no event is detected in the sound buffer, step Sa
Skip directly to 10. In step Sa10, a time difference sound generation process described later is executed, and a process for causing actual sound generation to be performed based on the contents of the time difference sound generation buffer (if the conditions are met).
【0017】この時差発音処理が終了すると、ステップ
Sa11において、その他の処理、例えば、音色設定操
作子50による設定状態の読取処理や、各イベントを検
出すべく今回ループ時における各部の状態を記憶するた
めの処理などが実行される。そして、その他の処理が終
了すると、処理がステップSa2に再び戻る。When the time difference sound generation process is completed, in step Sa11, other processes, for example, a process of reading the setting state by the tone color setting operator 50, and a state of each unit in the current loop to detect each event are stored. And the like are executed. Then, when the other processes are completed, the process returns to step Sa2 again.
【0018】2−1−1:発音処理 次に、上述したメインルーチンのステップSa9におい
て行なわれる発音処理について図4を参照して説明す
る。図4は、発音処理を示すフローチャートである。2-1-1: Sound Generation Processing Next, the sound generation processing performed in step Sa9 of the main routine will be described with reference to FIG. FIG. 4 is a flowchart showing the sound generation process.
【0019】まず、ステップSb1では、発音バッファ
(図6(a)参照)に登録された情報が上から順に1行
分取り出される。そして、ステップSb2において、取
り出された情報がノートオンイベントに対応するものか
否かが判別される。もし、ノートオンイベントに対応す
るものでなければ、当該情報はノートオフを示すものな
ので、ステップSb9において対応するノートオン情報
が割り当てられている楽音合成チャンネルにノートオフ
情報が送出される。これにより、当該楽音合成チャンネ
ルによる楽音の生成が終了させられる。一方、取り出さ
れた情報がノートオンイベントに対応するものであるな
らば、ステップSb3において、対応する音色情報、音
高情報、および音高情報をそれぞれ時差発音バッファに
登録する。ここで、かかる時差発音バッファの内容の一
例を図6(b)に示す。この図に示すように、1行に
は、1つのノートオンイベントを示す情報が、音色、音
高、音量および待ち時間を示すデータに分けられてそれ
ぞれ記憶される。ここで、待ち時間を示すデータは、後
述する時差発音処理の実行により「1」ずつデクリメン
トされるものであり、この内容が「0」となった場合
に、同処理により実際の発音が許可されるものである。
したがって、この待ち時間を示すデータの内容は、ステ
ップSa2〜Sa11からなるループ処理がどれだけ実
行された後に、当該情報に基づく発音が行なわれるかを
示すことになる。この実施例では、ループ処理の実行周
期を「1msec」に設定してあるから、待ち時間のデ
ータは、実際の発音が行なわれるまで時間をミリ秒単位
で示したものとなる。First, in step Sb1, information registered in a sound generation buffer (see FIG. 6A) is fetched one line at a time from the top. Then, in step Sb2, it is determined whether or not the extracted information corresponds to a note-on event. If it does not correspond to a note-on event, the information indicates note-off, and note-off information is sent to the tone synthesis channel to which the corresponding note-on information is assigned in step Sb9. Thus, the generation of the musical sound by the musical sound synthesis channel is terminated. On the other hand, if the extracted information corresponds to the note-on event, in step Sb3, the corresponding timbre information, pitch information, and pitch information are registered in the time difference sound generation buffer. Here, FIG. 6B shows an example of the contents of the time difference sound generation buffer. As shown in this figure, information indicating one note-on event is stored in one row, divided into data indicating a timbre, a pitch, a volume, and a waiting time. Here, the data indicating the waiting time is decremented by "1" by the execution of the later-described time difference sound generation processing, and when the content becomes "0", the actual sound generation is permitted by the processing. Things.
Therefore, the content of the data indicating the waiting time indicates how long the loop process including steps Sa2 to Sa11 is executed and then the sound is generated based on the information. In this embodiment, since the execution cycle of the loop processing is set to "1 msec", the wait time data indicates the time in milliseconds until the actual sound is generated.
【0020】次に、ステップSb4において、発音バッ
ファから取り出された情報のうちの入力源を示す情報か
ら、当該情報が鍵盤40による操作によって発生したも
のであるか否か、すなわち当該情報がタッチ検出回路4
1が実際の鍵の押鍵を検出することにより得られたもの
であるか否かが判別される。ステップSb4において取
り出された情報が鍵盤40により入力されたものでない
と判別されたならば、当該情報に基づく発音を直ちに実
行すべく、ステップSb10において待ち時間が「0」
に設定される。ここで、当該情報が鍵盤40により入力
されたものでない場合とは、MIDIインターフェイス
80を介して外部から供給される場合等が該当する。こ
の場合、当該情報が音高によって生じる発音のタイミン
グの相違を補償したものであることも考えられ、また、
MIDI規格においては、当該情報の入力源が何である
かを示す情報が存在しないため、この実施例では、外部
からデータが供給された場合には、発音タイミングの調
整を一律に行なわない構成とした。このため、ステップ
Sb10により待ち時間が「0」に設定されるようにし
た。Next, in step Sb4, from the information indicating the input source among the information extracted from the sound generation buffer, it is determined whether or not the information is generated by the operation of the keyboard 40, that is, the information is detected by the touch detection. Circuit 4
It is determined whether 1 is obtained by detecting the actual key depression. If it is determined in step Sb4 that the extracted information is not input by the keyboard 40, the waiting time is set to "0" in step Sb10 in order to immediately execute sound generation based on the information.
Is set to Here, the case where the information is not inputted from the keyboard 40 corresponds to the case where the information is supplied from outside through the MIDI interface 80 or the like. In this case, it is conceivable that the information compensates for the difference in pronunciation timing caused by the pitch.
In the MIDI standard, since there is no information indicating the input source of the information, in this embodiment, the adjustment of the tone generation timing is not uniformly performed when data is supplied from the outside. . Therefore, the waiting time is set to “0” in step Sb10.
【0021】一方、当該情報が鍵盤40により入力され
たものであると判別されたならば、当該情報に基づく発
音を基本的には音高によって遅延させるべく、待ち時間
が次のステップSb5において設定される。すなわち、
ステップSb5においては、待ち時間が、ROM20に
おいて予め記憶されているテーブルから、音色、音高、
および押鍵速度のデータに対応して求められる。このテ
ーブルにおける待ち時間は、音高が高いほど短く、ま
た、押鍵速度が速いほど短くなるように設定される。ま
た、音色、例えば、ピアノにあっては音高および押鍵速
度の時間範囲が広く、ギターにあってはその範囲を狭く
などして、その音色個々の特徴に応じて設定されてい
る。なお、待ち時間は、音高のみにより決定しても良
い。この電子楽器は、基本的には鍵盤40への押鍵操作
にしたがってピアノ音を発生させるものであり、また、
音高と押鍵速度とは別個独立の関係にあるのがその理由
である。On the other hand, if it is determined that the information is inputted by the keyboard 40, the waiting time is set in the next step Sb5 so that the sound generation based on the information is basically delayed by the pitch. Is done. That is,
In step Sb5, the waiting time is set based on the timbre, pitch,
And the key pressing speed data. The waiting time in this table is set to be shorter as the pitch is higher and shorter as the key pressing speed is higher. In addition, the time range of the tone and the key pressing speed in the case of the piano is wide, and the range of the time is narrow in the case of the guitar, and the range is set in accordance with the individual characteristics of the tone. Note that the waiting time may be determined only by the pitch. This electronic musical instrument basically generates a piano sound in accordance with a key depression operation on the keyboard 40.
The reason is that the pitch and the key pressing speed are independent and independent.
【0022】次に、ステップSb5あるいはSb10に
より設定された待ち時間は、登録された情報に対応する
待ち時間として時差発音バッファに登録される(ステッ
プSb6)。このステップSb6の処理が終了すると、
あるいはステップSb9のノートオフ処理が終了する
と、発音バッファの当該行に対応する情報は不要となる
ので、ステップSb7において削除される。そして、ス
テップSb8において、発音バッファにおいて未処理の
データがあるか否かが判別され、あるならばステップS
b1に戻って、発音バッファにおける次の行の情報に対
してステップSb1〜Sb7の処理が同様に実行される
一方、ないならば、この発音処理は終了する。Next, the waiting time set in step Sb5 or Sb10 is registered in the time difference sound generation buffer as a waiting time corresponding to the registered information (step Sb6). When the process of step Sb6 ends,
Alternatively, when the note-off processing in step Sb9 is completed, the information corresponding to the line in the sound generation buffer becomes unnecessary, and is deleted in step Sb7. Then, in step Sb8, it is determined whether or not there is unprocessed data in the tone generation buffer.
Returning to b1, the processing of steps Sb1 to Sb7 is similarly performed on the information of the next line in the sound generation buffer, while if there is no information, the sound generation processing ends.
【0023】このように、発音処理では、発音バッファ
の内容を、入力源に対応して待ち時間を設定するととも
に、他の音色情報、音高情報および音量情報について
は、そのまま時差発音バッファに移し替える処理が行な
われる。実際の発音処理は、次に説明する時差発音処理
により実行される。As described above, in the sound generation processing, the contents of the sound generation buffer are set with the waiting time corresponding to the input source, and the other tone color information, pitch information and volume information are transferred to the time difference sound generation buffer as they are. A replacement process is performed. The actual sound generation process is executed by a time difference sound generation process described below.
【0024】2−1−2:時差発音処理 次に、上述したメインルーチンのステップSa10にお
いて行なわれる時差発音処理について図5を参照して説
明する。図5は、時差発音処理を示すフローチャートで
ある。2-1-2: Time difference sound generation process Next, the time difference sound generation process performed in step Sa10 of the main routine will be described with reference to FIG. FIG. 5 is a flowchart showing the time difference sound generation process.
【0025】まず、この時差発音処理が起動すると、ス
テップSc1において、時差発音バッファに登録された
情報が上から1行分取り出される。そして、ステップS
b2において、取り出された情報のうち、待ち時間が
「0」であるか否かが判別される。「0」でなければ、
実際に発音すべきタイミングではないので、ステップS
b7においてこの待ち時間を「1」だけ減算して書き換
える一方、「0」であれば、実際に発音すべきタイミン
グであることを示しているので、次のステップSc3〜
Sc5の処理が実行される。すなわち、CPU10は、
ステップSc3においては、当該情報に基づく楽音を発
生させるための楽音合成チャンネルを楽音合成回路60
に確保し、次に、ステップSc4において、確保した楽
音合成チャンネルに対し、取り出された情報に対応する
音色、音高、音量、および実際の発音を指示するノート
オンのデータを送出する。これにより、取り出された情
報が鍵盤40によって発生したものならば、押鍵情報を
受信した時点から、音高等を考慮した待ち時間だけ経過
した時点において、発音が実際に行なわれる一方、取り
出された情報がMIDIインターフェイス80を介して
供給されたものならば、直ちに発音が行なわれるように
なっている。さらにCPU10は、ステップSc5にお
いては、時差発音バッファで処理した行の情報を削除す
る。かかる行の情報は、以降の処理では不要となるから
である。First, when the time difference sound generation process is started, in step Sc1, information registered in the time difference sound generation buffer for one line is extracted from the top. And step S
In b2, it is determined whether or not the waiting time is “0” among the extracted information. If not "0",
Since it is not the timing to actually sound, step S
In b7, this waiting time is rewritten by subtracting "1", while "0" indicates that it is the timing to actually sound, so the following steps Sc3 to Sc3 are performed.
The process of Sc5 is executed. That is, the CPU 10
In step Sc3, a tone synthesis channel for generating a tone based on the information is set to a tone synthesis circuit 60.
Then, in step Sc4, note-on data indicating the timbre, pitch, volume, and actual tone corresponding to the extracted information is transmitted to the secured tone synthesis channel. Thus, if the extracted information is generated by the keyboard 40, the sound is actually produced at the time when the waiting time in consideration of the pitch and the like has elapsed from the time when the key depression information is received, and the extracted sound is extracted. If the information is supplied via the MIDI interface 80, the sound is immediately generated. Further, in step Sc5, the CPU 10 deletes the information of the line processed in the time difference sound generation buffer. This is because such row information becomes unnecessary in the subsequent processing.
【0026】そして、ステップSc5あるいはSc7の
処理が終了したならば、ステップSc6において、時差
発音バッファに未処理のデータがあるか否かが判別され
る。あるならば、ステップSc1〜Sc7において取り
出された行の次行に対応する情報について同様な処理を
行なうべく手順がステップSc1に戻る一方、未処理の
データがないならば、この時差発音処理は終了する。こ
のように、時差発音処理では、時差発音バッファに登録
された各行の待ち時間に応じた処理、すなわち、待ち時
間がゼロであれば実際の発音を行ない、そうでなけれ
ば、待ち時間を「1」だけデクリメントする処理が、時
差発音バッファに登録された各行について行なわれる。When the processing in step Sc5 or Sc7 is completed, it is determined in step Sc6 whether there is any unprocessed data in the time difference sound generation buffer. If there is, the procedure returns to step Sc1 to perform the same processing for the information corresponding to the row next to the row fetched in steps Sc1 to Sc7, while if there is no unprocessed data, this time difference sound generation processing ends. I do. As described above, in the time difference sound generation process, the process according to the waiting time of each line registered in the time difference sound generation buffer, that is, if the waiting time is zero, the actual sound is generated. Is performed for each row registered in the time difference sound generation buffer.
【0027】かかる実施例によれば、楽音の発生を指示
する情報が、鍵盤40への実際の押鍵操作により発生し
たものであるならば、当該操作による情報はメインルー
チンのステップSa4において発音バッファに登録さ
れ、さらにステップSa9の発音処理におけるステップ
Sb5およびSb6により、待ち時間が求められて時差
発音バッファに登録されて、以降はメインルーチンが循
環することにより、当該待ち時間がダウンカウントされ
る。そして、待ち時間が「0」となってはじめて、当該
押鍵情報による発音が実際に開始される。一方、楽音の
発生を指示する情報が、MIDIデータとして外部から
供給されたものならば、当該操作による情報はメインル
ーチンのステップSa7において発音バッファに登録さ
れ、さらにステップSa9の発音処理におけるステップ
Sb10により、待ち時間が「0」として時差発音バッ
ファに登録されて、次のステップSa10の時差発音処
理により、当該押鍵情報による発音が直ちに開始され
る。したがって、この実施例によれば、アコースティッ
クピアノの鍵の操作に対応したタイミングでの発音を、
音高の相違による楽音の認識タイミングのズレについて
も考慮しつつ行なうことができるとともに、情報の供給
元に応じて発音タイミングを適切に制御することもでき
ることとなる。According to this embodiment, if the information instructing the generation of a musical tone is generated by an actual key depression operation on the keyboard 40, the information by the operation is stored in the tone generation buffer in step Sa4 of the main routine. The waiting time is calculated in steps Sb5 and Sb6 in the sound generation process in step Sa9 and registered in the time difference sound generation buffer. Thereafter, the main routine circulates, and the waiting time is counted down. Only when the waiting time becomes “0”, the sound generation based on the key press information actually starts. On the other hand, if the information for instructing the generation of the musical tone is supplied from outside as MIDI data, the information by the operation is registered in the tone generation buffer in step Sa7 of the main routine, and further, by the step Sb10 in the tone generation process of step Sa9. The waiting time is registered as "0" in the time difference sound generation buffer, and the sound generation based on the key depression information is immediately started by the next time difference sound generation process in step Sa10. Therefore, according to this embodiment, the sound is generated at the timing corresponding to the operation of the keys of the acoustic piano,
This can be performed while also taking into consideration the shift in the recognition timing of the musical tone due to the difference in pitch, and the tone generation timing can be appropriately controlled according to the information supply source.
【0028】4:変形例 本願では、上述した実施例を以下のように変形すること
が可能である。4: Modified Example In the present application, the above-described embodiment can be modified as follows.
【0029】4−1:実施例では、待ち時間を、音色、
音高および押鍵速度に対応するテーブルから求めるよう
にしたが、次数が高く、テーブルとしてのROM20に
記憶容量が多いものが要求されるので、低次数のテーブ
ルと演算とにより求めるように構成しても良い。すなわ
ち、待ち時間の基本的数値を音色毎に記憶するテーブル
用意し、この基本的数値をベースにして、音高および押
鍵速度に応じた待ち時間を演算により求めるようにして
も良い。この際の演算は、音高が高いほど、また押鍵速
度が速いほど、待ち時間が短くなるように基本的数値を
補正するものとなるが、実際には、音色の対応する弦の
線密度などを考慮して、弦に伝達する衝撃の速度を求め
るようなのとなる。4-1: In the embodiment, the waiting time is set to the tone color,
Although the table is obtained from the table corresponding to the pitch and the key pressing speed, a table having a high order and a large storage capacity in the ROM 20 is required. May be. That is, a table for storing the basic values of the waiting time for each tone color may be prepared, and the waiting time corresponding to the pitch and the key pressing speed may be calculated based on the basic values. The calculation at this time is to correct the basic numerical value so that the higher the pitch and the faster the key-pressing speed, the shorter the waiting time, but actually, the linear density of the string corresponding to the tone color The speed of the impact transmitted to the strings is determined in consideration of such factors.
【0030】4−2:実施例では、押鍵速度は、スイッ
チ42、43がオンとなる時間間隔によって求められた
が、これは単なる例示であり、本願はこれにとらわれな
い。例えば、押鍵過程を3段階以上で検出し、各過程間
の状態変化から得られた押鍵速度を2つ以上求め、これ
ら押鍵速度から、アコースティックピアノであったなら
ば実際にハンマが打弦するであろうタイミングとその速
度を予想して、かかるタイミングにおいて発音を指示す
る情報と押鍵速度とを送出する構成としても良い。4-2: In the embodiment, the key pressing speed is determined by the time interval when the switches 42 and 43 are turned on, but this is merely an example and the present invention is not limited to this. For example, a key-pressing process is detected in three or more stages, and two or more key-pressing speeds obtained from state changes between processes are obtained. From these key-pressing speeds, if an acoustic piano is used, a hammer is actually struck. A configuration may be adopted in which the timing at which the string is to be stringed and the speed of the string are predicted, and at that timing, information for instructing sound generation and the key pressing speed are transmitted.
【0031】4−3:実施例では、MIDIインターフ
ェイス80から入力した情報に対しては、一律に待ち時
間を「0」として音高による発音タイミングの相違を考
慮しない構成としたが、当該MIDIデータの音色を判
別して、音色がピアノやギターなどの撥弦楽器ならば、
ステップSb4における判別結果を「Yes」として、
任意に設定できる構成としても良い。また、ノートオン
イベント情報の供給元に対応して、それぞれ音高の相違
による楽音の認識タイミングのズレについても考慮する
か否かを個別に設定する構成としても良い。4-3: In the embodiment, the information input from the MIDI interface 80 is configured such that the waiting time is uniformly set to "0" and the difference in the sounding timing due to the pitch is not considered. If the tone is a plucked string instrument such as a piano or guitar,
Assuming that the determination result in step Sb4 is “Yes”,
It is good also as a structure which can be set arbitrarily. In addition, it may be configured to individually set whether or not to consider a shift in musical sound recognition timing due to a difference in pitch, depending on the supply source of the note-on event information.
【0032】4−4:実施例では、音高によって楽音の
発生タイミングが異なるような構成としたが、楽音の発
生タイミングを音高では同一として、発生楽音のエンベ
ロープを音高によって異なるようにする構成としても良
い。この場合のエンベロープは、音高が高いほど立ち上
がりが鋭くする一方、音高が低いほど立ち上がりが鈍る
ように設定される。4-4: In the embodiment, the configuration is such that the generation timing of musical tones differs depending on the pitch. However, the generation timing of musical tones is the same at pitches, and the envelope of generated musical tones is made different depending on the pitch. It is good also as composition. In this case, the envelope is set such that the higher the pitch, the sharper the rise, while the lower the pitch, the slower the rise.
【0033】[0033]
【発明の効果】以上説明したように、この発明によれば
次のような効果がある。ピアノなどの撥弦楽器等におい
て見られる、各弦を同じタイミングで打撃しても実際に
楽音として認識されるタイミングが音高によって異なる
ことを模倣することが可能となる(請求項1、2)。発
音指示情報が、演奏者による演奏操作によるものでなく
外部装置から供給されたものである場合や、音高による
発音の相違を考慮したものである場合などでは、遅延手
段による遅延を行なわせないことが可能となる(請求項
3、4)。As described above, the present invention has the following effects. Even if each string is struck at the same timing as seen in a plucked string instrument such as a piano, it is possible to imitate that the timing actually recognized as a musical tone differs depending on the pitch. Departure
In the case where the sound instruction information is supplied not from the performance operation by the player but supplied from an external device, or if the difference in sound generation due to the pitch is considered, the delay by the delay means is not performed. (Claims 3 and 4 ).
【図1】 この発明による実施例の構成を示すブロック
図である。FIG. 1 is a block diagram showing a configuration of an embodiment according to the present invention.
【図2】 同実施例におけるタッチ検出回路の構成を示
すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a touch detection circuit in the embodiment.
【図3】 同実施例におけるメインルーチンの動作を示
すフローチャートである。FIG. 3 is a flowchart showing an operation of a main routine in the embodiment.
【図4】 メインルーチンにおける発音処理の動作を示
すフローチャートである。FIG. 4 is a flowchart showing an operation of a sound generation process in a main routine.
【図5】 メインルーチンにおける時差発音処理の動作
を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the time difference sound generation process in the main routine.
【図6】 (a)は発音バッファの内容の一例を示す図
表であり、(b)は時差発音バッファの内容の一例を示
す図表である。6A is a chart showing an example of the contents of a sound generation buffer, and FIG. 6B is a chart showing an example of the contents of a time difference sound generation buffer.
10……CPU(遅延手段、判別手段、制御手段)10 CPU (delay means, determination means, control means)
Claims (4)
および発音を指示する発音指示情報を生成し、これら情
報に基づいて楽音信号を生成する電子楽器において、 前記発音指示情報を検出した後、実際に楽音を生成させ
るまでの時間を遅延させる遅延手段を具備し、 前記遅延手段での遅延時間を、前記音高情報で示される
音高が高くなるにつれて短くしたことを特徴とする電子
楽器。1. pitch information indicating a pitch of a musical tone to be generated;
And generates sounding instruction information for instructing the sound, an electronic musical instrument to generate the musical tone signal based on these information, after detecting the sounding instruction information, actually a delay means for delaying the time until generate musical tones A delay time in the delay means is indicated by the pitch information.
An electronic musical instrument characterized by being shortened as the pitch increases .
発生すべき楽音の音色を示す音色情報、および発音を指
示する発音指示情報を生成し、これら情報に基づいて複
数の音色の楽音信号を生成する電子楽器において、 前記発音指示情報を検出した後、実際に楽音を生成させ
るまでの時間を遅延させる遅延手段を具備し、 前記遅延手段での遅延時間を、前記音高情報および前記
音色情報により設定し、かつ、少なくとも1つの音色に
ついて当該遅延時間を、当該音高情報で示される音高が
高くなるにつれて短くしたことを特徴とする電子楽器。2. Pitch information indicating a pitch of a musical tone to be generated;
Tone color information indicating a tone of a tone to be generated, and generates sounding instruction information for instructing the sound, double on the basis of these information
An electronic musical instrument for generating a musical tone signal having the tone color, after detecting the sounding instruction information, actually comprises a delay means for delaying the time until to generate musical tones, the delay time in said delay means, said Pitch information and the above
Set based on timbre information and at least one timbre
The delay time, and the pitch indicated by the pitch information
An electronic musical instrument characterized by being shortened as it gets higher .
および発音を指示する発音指示情報を生成し、これら情
報に基づいて楽音信号を生成する電子楽器において、 前記発音情報を検出した後、実際に楽音を生成させるま
での時間を遅延させる遅延手段と、 前記発音指示情報の供給元に応じて、前記遅延手段での
遅延を行なうか否かを判別する判別手段と、 前記判別手段による判別結果が否定的であれば、前記遅
延手段の遅延が行なわれないようにする一方、 前記判別結果が肯定的であれば、前記遅延手段での遅延
時間を、前記音高情報により変化させる制御手段と を具
備すること を特徴とする電子楽器。3. Pitch information indicating a pitch of a musical tone to be generated;
And pronunciation instruction information for instructing pronunciation,
In an electronic musical instrument that generates a tone signal based on a tone signal, after the sound information is detected, the tone is not generated until a tone is actually generated.
Delaying means for delaying the time in step ( a), determining means for determining whether or not to delay by the delaying means in accordance with the source of the sounding instruction information; and a determination result by the determining means is negative. lever, while as the delay of the delay means is not performed, the determination result is affirmative, the delay in the delay means
Time, ingredients and a control means for changing by the pitch data
Electronic musical instrument which is characterized in that Bei.
発生すべき楽音の音 色を示す音色情報、および発音を指
示する発音情報を生成し、これら情報に基づいて楽音信
号を生成する電子楽器において、 前記発音指示情報を検出した後、実際に楽音を生成させ
るまでの時間を遅延させる遅延手段と、 前記発音指示情報の供給元に応じて、前記遅延手段での
遅延を行なうか否かを判別する判別手段と、 前記判別手段による判別結果が否定的であれば、前記遅
延手段の遅延が行なわれないようにする一方、 前記判別結果が肯定的であれば、前記遅延手段での遅延
時間を、前記音高情報、および前記音色情報により変化
させる制御手段と を具備すること を特徴とする電子楽
器。4. Pitch information indicating a pitch of a musical tone to be generated;
Finger tone color information, and a sound that indicates the sound color of a tone to be generated
Generates pronunciation information to indicate
In the electronic musical instrument for generating a tone, after detecting the pronunciation instruction information, the musical tone is actually generated.
Delaying means for delaying the time until the delay, a determining means for determining whether or not to delay by the delaying means in accordance with a supply source of the sounding instruction information, and a determination result by the determining means is negative. Oh lever, while as the delay of the delay means is not performed, the determination result is affirmative, the delay in the delay means
Time is changed by the pitch information and the timbre information
An electronic musical instrument , comprising: control means for causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7040499A JP3039311B2 (en) | 1995-02-28 | 1995-02-28 | Electronic musical instrument |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7040499A JP3039311B2 (en) | 1995-02-28 | 1995-02-28 | Electronic musical instrument |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08234733A JPH08234733A (en) | 1996-09-13 |
JP3039311B2 true JP3039311B2 (en) | 2000-05-08 |
Family
ID=12582263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7040499A Expired - Fee Related JP3039311B2 (en) | 1995-02-28 | 1995-02-28 | Electronic musical instrument |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3039311B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011064728A (en) * | 2009-09-15 | 2011-03-31 | Yamaha Corp | Electronic keyboard instrument |
JP5652415B2 (en) * | 2012-03-19 | 2015-01-14 | カシオ計算機株式会社 | Touch detection device, touch detection method, and electronic musical instrument |
JP6149354B2 (en) * | 2012-06-27 | 2017-06-21 | カシオ計算機株式会社 | Electronic keyboard instrument, method and program |
JP6232850B2 (en) * | 2013-08-29 | 2017-11-22 | カシオ計算機株式会社 | Touch detection device, touch detection method, electronic musical instrument, and program |
-
1995
- 1995-02-28 JP JP7040499A patent/JP3039311B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08234733A (en) | 1996-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3117754B2 (en) | Automatic accompaniment device | |
JPH03174590A (en) | Electronic musical instrument | |
JP2792368B2 (en) | Electronic musical instrument | |
JPH0784574A (en) | Electronic musical instrument | |
JP3039311B2 (en) | Electronic musical instrument | |
JP4259532B2 (en) | Performance control device and program | |
JPH07111629B2 (en) | Electronic musical instrument | |
JP3800778B2 (en) | Performance device and recording medium | |
JP3235160B2 (en) | Music control device | |
JP7332002B2 (en) | Electronic musical instrument, method and program | |
JP3667387B2 (en) | Electronic musical instruments | |
JP7124370B2 (en) | Electronic musical instrument, method and program | |
JP2738217B2 (en) | Electronic musical instrument | |
JPH0786754B2 (en) | Electronic keyboard instrument | |
JP2757659B2 (en) | Music control device | |
JP3424989B2 (en) | Automatic accompaniment device for electronic musical instruments | |
JP2694788B2 (en) | Electronic musical instrument | |
JP4095475B2 (en) | Musical sound control device, musical sound control method, and computer program for musical sound control | |
JP2578327B2 (en) | Automatic performance device | |
JP2947620B2 (en) | Automatic accompaniment device | |
JP2555060Y2 (en) | Electronic musical instrument | |
JPH10171475A (en) | Karaoke (accompaniment to recorded music) device | |
JP3329030B2 (en) | Music signal generator | |
JP3577852B2 (en) | Automatic performance device | |
JP3669066B2 (en) | Electronic musical instruments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090303 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |