JPH08185183A - Electronic musical instrument - Google Patents
Electronic musical instrumentInfo
- Publication number
- JPH08185183A JPH08185183A JP6337439A JP33743994A JPH08185183A JP H08185183 A JPH08185183 A JP H08185183A JP 6337439 A JP6337439 A JP 6337439A JP 33743994 A JP33743994 A JP 33743994A JP H08185183 A JPH08185183 A JP H08185183A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- channel
- interpolation
- tone
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、発音中の楽音の楽音特
性に変化を付与することのできる電子楽器に関するもの
である。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument capable of changing the musical tone characteristics of a musical tone being sounded.
【0002】[0002]
【従来の技術】従来、鍵盤等の演奏操作子からの発音指
示に応じて発生された楽音に、さらに、ピッチベンドホ
イール等のホイール、ジョイスティック、エクスプレッ
ションペダル等の各種ペダル等の操作子の操作量に応じ
て、音量、音色、トレモロ、ビブラート、ピッチベンド
等の楽音特性に変化を付与することが可能な電子楽器が
知られている。2. Description of the Related Art Conventionally, a musical tone generated in response to a sounding instruction from a performance operator such as a keyboard, and further, an operation amount of an operator such as a wheel such as a pitch bend wheel, a joystick, various pedals such as an expression pedal, and the like. Accordingly, there is known an electronic musical instrument capable of imparting changes to musical tone characteristics such as volume, tone color, tremolo, vibrato, and pitch bend.
【0003】このような電子楽器においては、楽音特性
を制御するためのパラメータを、各種操作子の操作量の
検出結果に応じて発生しているが、このパラメータに基
づいて楽音特性に変化を付与すると、急激に楽音特性が
変化するようになり、不自然な楽音となる場合があっ
た。そこで、操作子の操作量の検出結果に対し時間的に
急激な変化を防止するために、検出結果に補間処理を施
した補間値に基づいてパラメータを発生するようになさ
れている。このようなパラメータの補間処理において
は、前回検出されたパラメータ値から今回検出されたパ
ラメータ値に向かって変化するパラメータ値を生成する
ことにより補間処理を行うようにしている。そして、一
般に補間の速さ(ステップの大きさ)や補間処理のオン
/オフが指定できるようにされている。In such an electronic musical instrument, a parameter for controlling the tone characteristic is generated according to the detection result of the operation amount of various operators, and the tone characteristic is changed based on this parameter. Then, the musical tone characteristics suddenly change, which may result in an unnatural musical tone. Therefore, in order to prevent a rapid change with time in the detection result of the operation amount of the manipulator, a parameter is generated based on an interpolation value obtained by performing interpolation processing on the detection result. In such parameter interpolation processing, interpolation processing is performed by generating a parameter value that changes from the previously detected parameter value toward the currently detected parameter value. In general, the speed of interpolation (size of step) and ON / OFF of interpolation processing can be designated.
【0004】[0004]
【発明が解決しようとする課題】ところで、発音開始の
時点においては操作子の現在値をダイレクトに反映した
パラメータ値を使用して楽音を生成することが望まれる
が、前記したような補間処理を行うことによりパラメー
タ値を発生するようにすると、前回のパラメータ値が補
間処理手段に記憶されていることから、操作子の現在値
をダイレクトに反映したパラメータ値が出力されないと
いう問題点がある。これを解決して、発音開始時に操作
子の現在値制御を行いたい場合は、補間処理がオフされ
るよう指定するか、あるいは補間の速さを最大に設定し
てから発音を開始し、発音開始後は補間処理を元の設定
に戻すようにすればよい。しかしながら、このような操
作は煩雑であり、演奏中に設定変更を行うことは極めて
困難であるという問題点があった。By the way, it is desired to generate a musical tone using a parameter value that directly reflects the current value of the operator at the start of sounding. If the parameter value is generated by performing the operation, there is a problem that the previous parameter value is stored in the interpolation processing means, and therefore the parameter value that directly reflects the current value of the operator is not output. To solve this, if you want to control the current value of the controller at the start of sounding, either specify that the interpolation process be turned off, or set the interpolation speed to the maximum and then start sounding After the start, the interpolation process may be returned to the original setting. However, such an operation is complicated and it is extremely difficult to change the setting during the performance.
【0005】そこで、本発明は補間処理を行っていて
も、発音開始時に操作子の現在値制御を自動的に行うこ
とのできる電子楽器を提供することを目的としている。Therefore, it is an object of the present invention to provide an electronic musical instrument capable of automatically controlling the current value of an operator at the start of sounding even if interpolation processing is performed.
【0006】[0006]
【課題を解決するための手段】前記目的を達成するため
に、本発明の電子楽器は、発音指示を発生する発音指示
手段と、操作子の操作量に基づいたパラメータを発生す
るパラメータ発生手段と、該パラメータ発生手段よりの
前記パラメータを受け取り、補間処理を施して補間パラ
メータを発生する補間手段と、前記発音指示手段よりの
前記発音指示に応じて、前記補間パラメータに基づいた
楽音の発生を開始する楽音発生手段とを備え、前記補間
手段における補間処理において、前記発音指示の発生時
に前記パラメータをそのまま前記補間パラメータとして
出力すると共に、それ以降は、前記パラメータに基づい
て緩やかに変化する時間的に補間された補間値を生成し
て、前記補間パラメータとして出力するようにしたもの
である。In order to achieve the above object, an electronic musical instrument of the present invention comprises a sounding instructing means for generating a sounding instruction, and a parameter generating means for generating a parameter based on an operation amount of an operator. , Receiving the parameter from the parameter generating means, performing interpolation processing to generate an interpolation parameter, and starting the generation of a musical tone based on the interpolation parameter in response to the sounding instruction from the sounding instructing means. In the interpolation processing in the interpolation means, the parameter is directly output as the interpolation parameter when the sounding instruction is generated, and thereafter, the parameter gradually changes based on the parameter. The interpolated interpolation value is generated and output as the interpolation parameter.
【0007】[0007]
【作用】本発明によれば、発音開始時に補間処理を自動
的にオフして補間手段の入力値をそのまま出力し、その
後は自動的に補間処理を復活させるようにしたので、発
音開始時には操作子の現在値をダイレクトに反映したパ
ラメータ値を使用して楽音を生成することができると共
に、発音開始後は操作子の操作に従って楽音特性に滑ら
かな変化を付与した楽音を生成することができるように
なる。According to the present invention, the interpolation processing is automatically turned off at the start of sound generation, the input value of the interpolation means is output as it is, and the interpolation processing is automatically restored thereafter. It is possible to generate musical tones by using the parameter values that directly reflect the child's current value, and to generate musical tones with a smooth change in musical tone characteristics according to the operation of the operator after the start of sound generation. become.
【0008】[0008]
【実施例】本発明の電子楽器の一実施例の構成を示すブ
ロック図の概要を図1に示す。この図において、1は発
音制御等の電子楽器全体の制御を行うマイコン、2は発
音される楽音の楽音特性を変化させるための操作子の一
つであるジョイスティック、3は発音指示を行う鍵盤、
4は音色等のパラメータを設定する場合にパラメータ情
報等が表示される表示器、5は音色等のパラメータを設
定する場合に操作されてパラメータ情報等を設定するパ
ネルスイッチ、6は発音指示に応じて指示された音色の
楽音信号を発生する音源部、7は音源部6により生成さ
れた楽音信号を発音するサウンドシステムである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an outline of a block diagram showing the configuration of an embodiment of an electronic musical instrument of the present invention. In this figure, 1 is a microcomputer for controlling the entire electronic musical instrument such as sound generation control, 2 is a joystick which is one of the operators for changing the musical sound characteristics of the musical sound to be generated, and 3 is a keyboard for giving a sounding instruction,
4 is a display for displaying parameter information and the like when setting parameters such as timbre, 5 is a panel switch which is operated when setting parameters such as timbre and is for setting parameter information, and 6 is a sounding instruction. The tone generator section 7 generates a tone signal of the designated tone color, and 7 is a sound system for generating the tone signal generated by the tone generator section 6.
【0009】また、音源部6において、11はマイコン
1より送られるパラメータ値や制御情報等が一時記憶さ
れる制御レジスタ、12は制御レジスタ11より与えら
れた波形形状制御パラメータ、ピッチデータ、およびノ
ートオン信号等に基づいて楽音波形データを発生する波
形発生器、13は制御レジスタ11より与えられたエン
ベロープパラメータおよびノートオン信号に基づいて音
量エンベロープデータを発生するエンベロープ発生器、
14は発音開始時に補間処理をオフして補間手段に入力
されるパンや音量のパラメータ値をそのまま出力し、そ
の後は補間したパンや音量のパラメータ値を出力する補
間器、15はエンベロープ発生器13により発生された
音量エンベロープデータと、補間器14により発生され
たパラメータ値とを合成して音量データを生成する合成
部である。In the tone generator section 11, 11 is a control register for temporarily storing parameter values and control information sent from the microcomputer 1, and 12 is a waveform shape control parameter given by the control register 11, pitch data, and a note. A waveform generator for generating musical tone waveform data based on an ON signal or the like, an envelope generator 13 for generating volume envelope data based on an envelope parameter given from the control register 11 and a note-on signal,
Reference numeral 14 denotes an interpolator for turning off the interpolation processing at the start of sound generation and outputting the pan and volume parameter values input to the interpolating means as they are, and thereafter outputting the interpolated pan and volume parameter values, and 15 an envelope generator 13. Is a synthesizing unit for synthesizing the volume envelope data generated by and the parameter value generated by the interpolator 14 to generate volume data.
【0010】また、16は波形発生器12により発生さ
れた楽音波形データに、音量データを乗算して楽音デー
タ信号を生成する乗算器、17は乗算器16より時分割
されて出力される各発音チャンネルの楽音データ信号を
累算するチャンネル累算器(CH累算器)、18は各発
音チャンネルの楽音データ信号がチャンネル累算器17
により累算されてサンプリングクロック毎のタイミング
で出力される楽音データ信号を、アナログ信号に変換す
るディジタル・アナログ変換器である。Reference numeral 16 is a multiplier for multiplying the tone waveform data generated by the waveform generator 12 by tone volume data to generate a tone data signal, and 17 is a sound output output from the multiplier 16 in a time division manner. The channel accumulator (CH accumulator) for accumulating the tone data signals of the channels, 18 is the channel accumulator for the tone data signals of each sounding channel.
Is a digital-analog converter that converts the musical tone data signal accumulated by the above and output at the timing of each sampling clock into an analog signal.
【0011】このように構成されている電子楽器におい
て、発音チャンネルは例えば16チャンネルあるいは3
2チャンネルとされており、各発音チャンネルの楽音デ
ータ信号の生成処理は時分割により行われている。さら
に、各チャンネルはLチャンネルとRチャンネルからな
るステレオ方式とされて、各チャンネルに割り当てられ
た処理時間がさらに分割されてL,Rチャンネルが時分
割処理されている。このように、時分割処理により楽音
の発生を行う電子楽器の動作を以下に説明する。In the electronic musical instrument thus constructed, the sound generation channels are, for example, 16 channels or 3 channels.
The number of channels is two, and the tone data signal generation processing for each tone generation channel is performed by time division. Further, each channel is of a stereo system composed of L channel and R channel, and the processing time assigned to each channel is further divided so that the L and R channels are subjected to time division processing. The operation of the electronic musical instrument that generates musical tones by the time division processing will be described below.
【0012】ジョイスティック2は、例えば楽音の音像
位置を左右に移動させるための操作子、すなわちパン制
御用の操作子とされており、ジョイスティック2を操作
すると、その操作量がマイコン1により検出されて、操
作量に応じたパラメータ値が制御レジスタ11に転送さ
れる。また、演奏操作子である鍵盤3の押鍵等の操作を
マイコン1が検出して、ノートオン信号等が制御レジス
タ11に転送される。さらに、鍵盤3のアフタータッチ
等がマイコン1により検出されて音量パラメータ値が制
御レジスタ11に転送される。さらに、各発音チャンネ
ルの音色情報等は、表示器4を観察しながらパネルスイ
ッチ5を操作して設定されており、設定された情報はマ
イコン1から制御レジスタ11に転送される。The joystick 2 is, for example, an operator for moving a sound image position of a musical sound to the left or right, that is, an operator for pan control. When the joystick 2 is operated, the operation amount is detected by the microcomputer 1. A parameter value corresponding to the manipulated variable is transferred to the control register 11. Further, the microcomputer 1 detects an operation such as a key depression on the keyboard 3 which is a performance operator, and a note-on signal or the like is transferred to the control register 11. Further, aftertouch of the keyboard 3 or the like is detected by the microcomputer 1 and the volume parameter value is transferred to the control register 11. Further, the tone color information and the like of each sound generation channel is set by operating the panel switch 5 while observing the display 4, and the set information is transferred from the microcomputer 1 to the control register 11.
【0013】このようにして、制御レジスタ11には各
発音チャンネルの波形制御パラメータ、ピッチデータ、
ノートオン信号、エンベロープパラメータ、パン制御用
パラメータ、音量パラメータ等の情報が蓄積されてい
る。そして、各発音チャンネルに割り当てられたタイミ
ングになると制御レジスタ11から、処理すべき発音チ
ャンネルの波形制御パラメータ、ピッチデータ、ノート
オン信号等が波形発生器12に転送されて、波形発生器
12は与えられた情報に基づいて楽音波形データを発生
して乗算器16に供給する。また、エンベロープ発生器
13には処理すべき発音チャンネルのエンベロープパラ
メータ、およびノートオン信号が転送されて、転送され
た情報に基づいて音量エンベロープデータが発生され
て、合成部15に供給される。In this way, the control register 11 stores the waveform control parameters, pitch data,
Information such as a note-on signal, an envelope parameter, a pan control parameter, and a volume parameter is stored. Then, at the timing assigned to each sound generation channel, the waveform control parameters, pitch data, note-on signal, etc. of the sound generation channel to be processed are transferred from the control register 11 to the waveform generator 12, and the waveform generator 12 supplies the waveform control parameter. Musical tone waveform data is generated based on the obtained information and supplied to the multiplier 16. The envelope parameter of the tone generation channel to be processed and the note-on signal are transferred to the envelope generator 13, volume envelope data is generated based on the transferred information, and the volume envelope data is supplied to the synthesizer 15.
【0014】さらに、制御レジスタ11は処理すべき発
音チャンネルのパンのパラメータ値、音量パラメータ
値、およびノートオン信号等を補間器14に転送し、補
間器14は転送された情報に基づいて、ノートオン時に
は補間処理をオフして入力されたパンのパラメータ値お
よび音量パラメータ値が発音チャンネル毎に時分割され
て合成部15にそのまま出力され、その後は補間処理し
たパンのパラメータ値および音量パラメータ値が発音チ
ャンネル毎に時分割されて出力される。合成部15にお
いては、エンベロープ発生器13よりの音量エンベロー
プデータと補間器14よりのパラメータ値が合成され
て、音量データが生成されるが、パンのパラメータには
LチャンネルとRチャンネルとのパラメータがあること
から、合成部15からはLチャンネルの音量データとR
チャンネルの音量データとが、1発音チャンネルの割当
処理時間の中で時分割されて出力されるようになる。Further, the control register 11 transfers the pan parameter value of the tone generation channel to be processed, the volume parameter value, the note-on signal, etc. to the interpolator 14, and the interpolator 14 outputs a note based on the transferred information. When turned on, the interpolation parameter is turned off, and the input pan parameter value and volume parameter value are time-divided for each sound channel and output as they are to the synthesizing unit 15. After that, the interpolated pan parameter value and volume parameter value are output. It is time-divided and output for each sound channel. In the synthesizing unit 15, the volume envelope data from the envelope generator 13 and the parameter value from the interpolator 14 are synthesized to generate the volume data, but the pan parameter includes the parameters of the L channel and the R channel. Therefore, the synthesizing unit 15 outputs the volume data of the L channel and the R data.
The channel volume data and the sound volume data are output in a time-divided manner within the allocation processing time of one sound generation channel.
【0015】また、波形発生器12から1発音チャンネ
ルの割当処理時間毎に、各発音チャンネルの楽音波形デ
ータが時分割されて出力されているため、乗算器16に
おいて、楽音波形データと合成部15から出力された音
量データとが乗算された楽音データ信号も、発音チャン
ネル毎に時分割されて出力される。さらに、該音量デー
タは、1発音チャンネルの割当処理時間の中でLチャン
ネル音量データ,Rチャンネルの音量データと切り替わ
るので、Lチャンネルの楽音データ信号とRチャンネル
の楽音データ信号とが時分割されて出力されるようにな
る。この時分割されて乗算器16から出力される各発音
チャンネルのLチャンネルとRチャンネルの楽音データ
信号は、チャンネル累算器(CH累算器)17に供給さ
れて、Lチャンネル毎の楽音データ信号と、Rチャンネ
ル毎の楽音データ信号とが全発音チャンネルにわたり別
々に累算される。Further, since the tone waveform data of each tone generation channel is time-divided and outputted from the waveform generator 12 for each processing time of one tone generation channel allocation, the multiplier 16 in the multiplier 16 combines the tone waveform data with the tone waveform data. The tone data signal multiplied by the sound volume data output from is also time-divided and output for each sounding channel. Further, since the volume data is switched between the L channel volume data and the R channel volume data in the allocation processing time of one sound generation channel, the L channel tone data signal and the R channel tone data signal are time-divided. It will be output. The L-channel and R-channel tone data signals of each tone generation channel, which are time-divided and output from the multiplier 16, are supplied to a channel accumulator (CH accumulator) 17 to generate a tone data signal for each L channel. And the tone data signal for each R channel are separately accumulated over all tone generation channels.
【0016】ところで、時分割処理を行うことにより各
発音チャンネルの楽音を発生させるようにする電子楽器
においては、ディジタル・アナログ変換器のサンプリン
グクロックが基準タイミングとされて、このサンプリン
グクロック周期を発音チャンネル数で除算した時間が各
発音チャンネルの割当処理時間とされる。従って、CH
累算器17により累算された全チャンネルのLチャンネ
ルおよびRチャンネルの楽音データ信号は、ディジタル
・アナログ変換器(DAC)18のサンプリングクロッ
ク毎に出力されて、DAC18に入力されるようにな
る。ただし、CH累算器17からは累算されたLチャン
ネルの楽音データ信号と、Rチャンネルの楽音データ信
号とが時分割されて出力されることから、正確には1サ
ンプリングクロック内で累算された楽音データ信号が2
系統CH累算器17からDAC18へ出力される。By the way, in an electronic musical instrument which generates a tone of each tone generation channel by performing time division processing, the sampling clock of the digital-analog converter is used as a reference timing, and this sampling clock cycle is used as the tone generation channel The time divided by the number is the allocation processing time of each sound generation channel. Therefore, CH
The L channel and R channel tone data signals of all the channels accumulated by the accumulator 17 are output for each sampling clock of the digital-analog converter (DAC) 18 and input to the DAC 18. However, since the CH accumulator 17 outputs the accumulated L channel musical tone data signal and R channel musical tone data signal in a time-divisional manner, they are accurately accumulated within one sampling clock. 2 tone data signals
It is output from the system CH accumulator 17 to the DAC 18.
【0017】DAC18へ入力した楽音データ信号はL
チャンネルとRチャンネルとで別々にアナログ信号に変
換されて、サウンドシステム7へ出力され、サウンドシ
ステム7に接続されている図示しないLチャンネル用ス
ピーカおよびRチャンネル用スピーカから発音される。
この場合、DAC18内にディジタル・アナログ変換手
段が1つ設けられる場合は、時分割処理によりLチャン
ネルおよびRチャンネルの楽音データ信号がアナログ信
号に変換され、2つディジタル・アナログ変換手段が設
けられる場合は、それぞれ独立してアナログ信号に変換
される。なお、合成部15に入力される音量エンベロー
プデータ、パンおよび音量のパラメータ値はデシベル
(dB)を単位とする対数データとされていることか
ら、合成部15を加算器により構成することができる。The tone data signal input to the DAC 18 is L
The channels and the R channels are separately converted into analog signals, output to the sound system 7, and sounded from the L channel speaker and the R channel speaker (not shown) connected to the sound system 7.
In this case, when one digital / analog converting means is provided in the DAC 18, the tone data signals of the L channel and the R channel are converted into analog signals by time division processing, and two digital / analog converting means are provided. Are converted into analog signals independently of each other. Since the volume envelope data and the pan and volume parameter values input to the synthesizing unit 15 are logarithmic data in units of decibel (dB), the synthesizing unit 15 can be configured by an adder.
【0018】次に、補間器14の構成の詳細を示すブロ
ック図を図2に示すが、入力されているレート制御値、
パンおよび音量のパラメータ値、ノートオンパルスは制
御レジスタ11から各発音チャンネル毎に時分割されて
与えられている。レート制御値は、補間処理の速さ(ス
テップ幅)を決定するパラメータであり、レート制御値
が大きい場合は急速に新しいパラメータ値へ向かって変
化するよう補間処理が行われ、レート制御値が小さい場
合は緩やかに新しいパラメータ値へ向かって変化するよ
う補間処理が行われる。Next, FIG. 2 is a block diagram showing the details of the configuration of the interpolator 14, in which the input rate control value,
The pan and volume parameter values and the note-on pulse are time-divided from the control register 11 for each sound generation channel. The rate control value is a parameter that determines the speed (step width) of the interpolation process. When the rate control value is large, the interpolation process is performed so as to rapidly change to a new parameter value, and the rate control value is small. In this case, the interpolation process is performed so as to gradually change toward the new parameter value.
【0019】このレート制御値はレート発生器20に供
給されて、入力されたレート制御値に基づいて所定のス
テップ幅データが発生され加算器22へ供給される。な
お、補間制御部24から変化の方向がレート発生器20
に供給されて、レート発生器20は変化の方向に応じた
正または負のステップ幅データを出力している。また、
パンのパラメータ値および音量のパラメータ値は時分割
されて交互に目標値選択器21に入力され、所定のタイ
ミングとなった時に目標値としてセレクタ25および比
較器23に供給される。さらに、ノートオンパルスは補
間制御部24に入力され、補間制御部24はノートオン
パルスが入力された時に、セレクタ25を制御して目標
値選択器21からのパラメータ値を選択してセレクタ2
5から出力させる。この制御は、発音チャンネル毎に時
分割されて行われる。This rate control value is supplied to the rate generator 20, and predetermined step width data is generated based on the input rate control value and is supplied to the adder 22. It should be noted that the direction of change from the interpolation control section 24 is the rate generator 20.
And the rate generator 20 outputs positive or negative step width data depending on the direction of change. Also,
The pan parameter value and the volume parameter value are time-divided and alternately input to the target value selector 21, and are supplied to the selector 25 and the comparator 23 as target values at a predetermined timing. Further, the note-on pulse is input to the interpolation control unit 24, and when the note-on pulse is input, the interpolation control unit 24 controls the selector 25 to select the parameter value from the target value selector 21 to select the selector 2.
Output from 5. This control is time-divided for each sound generation channel.
【0020】セレクタ25により選択されたパラメータ
値は複数段ディレイ手段26に入力されて遅延される
が、このディレイ手段26の段数は発音チャンネル数の
2倍の段数とされている。2倍とされるのはパンのパラ
メータ用と音量のパラメータ用とが1発音チャンネルに
必要なためである。従って、複数段ディレイ手段26か
らは前記した1サンプルクロック周期遅延されて出力さ
れるが、この出力は次段へ出力されると共に加算器2
2、および比較器23へフィードバックされる。そし
て、加算器22によりレート発生器20よりのステップ
幅データが加算されてセレクタ25に入力されている。The parameter value selected by the selector 25 is input to and delayed by the multistage delay means 26. The number of stages of the delay means 26 is twice the number of sounding channels. The reason for being doubled is that one sound channel requires both the pan parameter and the volume parameter. Therefore, the multi-stage delay means 26 delays and outputs one sample clock cycle as described above. This output is output to the next stage and the adder 2
2 and is fed back to the comparator 23. Then, the step width data from the rate generator 20 is added by the adder 22 and input to the selector 25.
【0021】このセレクタ25を制御する補間制御部2
4はノートオンパルスが入力された時、および比較器2
3が一致出力を出力した時に、セレクタ25の入力
「1」を選択し、他の場合にはセレクタ25の入力
「0」を選択するよう制御している。そこで、新たなパ
ラメータ値がマイコン1から制御レジスタ11を介して
目標値選択器21に入力された時は、比較器23に入力
される2つの入力データ値が一致しないため、補間制御
部24はセレクタ25の入力「0」、すなわち加算器2
2よりのパラメータ値を選択して複数段ディレイ手段2
6へ供給する。そして、複数段ディレイ手段26から1
サンプルクロック周期遅延されて再び加算器22に供給
され、加算器22によりステップ幅データが加算される
ことにより補間されたパラメータ値が、セレクタ25を
介して複数段ディレイ26に再度入力される。Interpolation control unit 2 for controlling the selector 25
4 is when the note-on pulse is input, and the comparator 2
When 3 outputs the coincidence output, the input “1” of the selector 25 is selected, and in other cases, the input “0” of the selector 25 is selected. Therefore, when a new parameter value is input from the microcomputer 1 to the target value selector 21 via the control register 11, the two input data values input to the comparator 23 do not match, so the interpolation control unit 24 Input “0” of selector 25, that is, adder 2
The parameter value from 2 is selected and the multi-stage delay means 2 is selected.
Supply to 6. Then, the multistage delay means 26 to 1
The sample value is delayed by the sample clock period and supplied again to the adder 22, and the parameter value interpolated by adding the step width data by the adder 22 is input again to the multistage delay 26 via the selector 25.
【0022】このセレクタ25、複数段ディレイ手段2
6、および加算器22からなるループにより、目標値に
次第に近づいていく補間されたパラメータ値が生成さ
れ、複数段ディレイ手段26から順次出力されていく。
この場合の補間の速さはレート発生器20に入力される
レート制御値により決定されており、補間の方向は比較
器23よりの比較結果に応じて補間制御部24が判断し
てレート発生器20に指示している。そして、補間され
たパラメータ値が目標値選択器21からの目標値と一致
すると、これが比較器23により検出されて補間制御部
24に一致信号を与えるため、補間制御部24はセレク
タ25の入力「1」を選択するようになる。これによ
り、目標値とされたパラメータ値がそのまま複数段ディ
レイ手段26から出力されるようになる。This selector 25, the multistage delay means 2
By the loop composed of 6 and the adder 22, the interpolated parameter value gradually approaching the target value is generated and sequentially output from the multistage delay means 26.
The interpolation speed in this case is determined by the rate control value input to the rate generator 20, and the interpolation direction is determined by the interpolation control unit 24 according to the comparison result from the comparator 23. I'm telling 20. When the interpolated parameter value matches the target value from the target value selector 21, this is detected by the comparator 23 and a matching signal is given to the interpolation controller 24. 1 ”will be selected. As a result, the target parameter value is directly output from the multi-stage delay means 26.
【0023】前記した補間処理は、発音チャンネル毎に
時分割されて行われるが、1発音チャンネルに割り当て
られたタイミングがさらに分割されて、パンのパラメー
タの補間処理および音量のパラメータの補間処理が時分
割されて行われている。従って、複数段ディレイ手段2
6からは、発音チャンネル毎の補間されたパンのパラメ
ータ値および音量パラメータ値が、LチャンネルとRチ
ャンネル毎に時分割されて出力されるようになる。この
補間されたパラメータ値は、前記したように合成部15
において音量エンベロープデータと合成される。なお、
セレクタ25、複数段ディレイ手段26、および加算器
22からなるループにより、1ステップづつ加算された
パラメータ値を発生することができることから、この時
分割処理をさらに高速かつ多重化することにより、この
ループを用いて音量エンベロープデータを発生すること
もできる。The above-described interpolation processing is performed by time division for each sound generation channel, but the timing assigned to one sound generation channel is further divided, and the interpolation processing of the pan parameter and the interpolation processing of the volume parameter are performed in time. It is divided and done. Therefore, the multi-stage delay means 2
From 6, the interpolated pan parameter value and volume parameter value for each sound generation channel are output in a time-divided manner for each L channel and R channel. This interpolated parameter value is used by the synthesizing unit 15 as described above.
Is combined with volume envelope data at. In addition,
Since the parameter value added step by step can be generated by the loop including the selector 25, the multistage delay means 26, and the adder 22, the time division processing is further speeded up and multiplexed to make the loop. Can also be used to generate volume envelope data.
【0024】次に、本発明の電子楽器のマイコン1が実
行するメインルーチンのフローチャートを図3に示す。
電子楽器の電源等が投入されると、メインルーチンが開
始されステップS10にて各種レジスタのリセット等の
初期設定が行われ、次いでステップS20にてキーイベ
ントの検出等の鍵処理が行われる。さらに、ステップS
30にてパネルスイッチ(パネルSW)の操作等の検出
が行われるパネルSW処理が行われて、ステップS20
の鍵処理に戻り、鍵処理とパネルSW処理とが循環して
行われるようになる。Next, a flow chart of the main routine executed by the microcomputer 1 of the electronic musical instrument of the present invention is shown in FIG.
When the power source of the electronic musical instrument is turned on, the main routine is started, initialization of various registers is performed in step S10, and then key processing such as detection of a key event is performed in step S20. Furthermore, step S
A panel SW process for detecting an operation of a panel switch (panel SW) or the like is performed at 30, and step S20 is performed.
Then, the key processing and the panel SW processing are cyclically performed.
【0025】また、例えば10ms毎に行われるタイマ
割込イベント処理のフローチャートを図4に示す。タイ
マ割込タイミングとなるとタイマ割込イベント処理がス
タートされ、ステップS100にて鍵盤3のアフタタッ
チの値がATに取り込まれ、ジョイスティック2のステ
ィック値がJSに取り込まれる。次いで、ステップS1
10にてiが「1」とされてステップS120に進み、
TCi,NNi,ITi,ATに基づいて、音量パラメ
ータが発生されて、音源6のiチャンネル(ch)に送
出される。ここで、iは発音チャンネル番号を示してお
り、TCは発音音色情報、NNはノートナンバ、ITは
イニシャルタッチを示している。Further, FIG. 4 shows a flowchart of timer interrupt event processing which is performed, for example, every 10 ms. When the timer interrupt timing comes, the timer interrupt event process is started, and the value of the after-touch of the keyboard 3 is taken into AT and the stick value of the joystick 2 is taken into JS in step S100. Then, step S1
At step 10, i is set to "1" and the process proceeds to step S120.
Based on TCi, NNi, ITi, AT, a volume parameter is generated and sent to the i channel (ch) of the sound source 6. Here, i indicates a tone generation channel number, TC indicates tone color information, NN indicates a note number, and IT indicates an initial touch.
【0026】そして、ステップS130にてTCi,N
Ni,JSに基づいて、パンのパラメータが発生され
て、音源6のiチャンネルに送出され、次いでステップ
S140にてiが「16」とされているか否かが判断さ
れ、iが「16」に達していないと判断されると、ステ
ップS150にてiが1つインクリメントされてステッ
プS120に戻される。これにより、ステップS120
ないしステップS130の処理が再度行われて、次のチ
ャンネルの音量パラメータおよびパンのパラメータが音
源6に送出されることになる。このように、ステップS
120ないしステップS150の処理が循環して行われ
ることにより、iが順次インクリメントされて、ステッ
プS140にてiが「16」になったと判断されると、
リターンされてタイマ割込イベント処理は終了する。Then, in step S130, TCi, N
Based on Ni and JS, a pan parameter is generated and sent to the i channel of the sound source 6, and then it is determined in step S140 whether i is "16" and i is set to "16". If it is determined that it has not reached, i is incremented by 1 in step S150, and the process returns to step S120. Thereby, step S120
The process of step S130 is performed again, and the volume parameter and the pan parameter of the next channel are sent to the sound source 6. In this way, step S
When the processing of 120 to step S150 is cyclically performed, i is sequentially incremented, and when it is determined that i has become “16” in step S140,
After returning, the timer interrupt event processing ends.
【0027】次に、メインルーチンの鍵処理にて押鍵操
作が検出されたタイミングで行われるノートオンイベン
ト処理のフローチャートを図5に示す。ノートオンイベ
ント処理が開始されると、ステップS200にてノート
オンされた鍵のノートナンバがNNに取り込まれ、鍵の
ベロシティがIT(イニシャルタッチ)に取り込まれ、
ジョイスティック2のスティック値がJSに取り込ま
れ、指定されている発音音色がTCに取り込まれる。次
いで、発音割当がステップS210にて行われ、割当チ
ャンネル(割当ch)がiとされる。Next, FIG. 5 shows a flowchart of the note-on event process which is performed at the timing when the key depression operation is detected in the key process of the main routine. When the note-on event processing is started, the note number of the note-on key is fetched into NN in step S200, and the velocity of the key is fetched into IT (initial touch),
The stick value of the joystick 2 is loaded into JS, and the designated tone color is loaded into TC. Next, sound generation assignment is performed in step S210, and the assigned channel (assigned ch) is set to i.
【0028】さらに、ステップS220にてTC,N
N,ITに基づいて、各種パラメータを発生して音源6
のiチャンネル(ch)に送出し、続いてステップS2
30にてTC,NN,ITに基づいて、音量パラメータ
を発生して音源6のiチャンネル(ch)に送出する。
さらに、TC,NN,JSに基づいて、ステップS24
0にてパンのパラメータを発生して音源6のiチャンネ
ルに送出する。そして、ノートオンパルスを音源6のi
チャンネルにステップS250にて送出する。次いで、
ステップS260にて発音音色TCをTCiに取り込
み、ノートナンバNNをNNiに取り込み、イニシャル
タッチITをITiに取り込み、前記したタイマ割込イ
ベント処理に備えるようにする。Further, in step S220, TC, N
Sound source 6 by generating various parameters based on N and IT
, I channel (ch), and then step S2
At 30, a sound volume parameter is generated based on TC, NN, and IT and is sent to the i channel (ch) of the sound source 6.
Further, based on TC, NN, JS, step S24
At 0, a pan parameter is generated and sent to the i channel of the sound source 6. Then, the note-on pulse is sent to the sound source 6 i.
It is sent to the channel in step S250. Then
In step S260, the tone color TC is loaded into TCi, the note number NN is loaded into NNi, the initial touch IT is loaded into ITi, and the timer interrupt event process described above is prepared.
【0029】そして、ステップS250にてマイコン1
から音源6のiチャンネルに送られたノートオンに応じ
て、音源6の波形発生器12ではiチャンネルの波形デ
ータの発生を開始すると共に、エンベロープ発生器13
ではiチャンネルの音量エンベロープの発生を開始す
る。ここで、波形発生器12で発生する該波形データの
ピッチと波形形状、およびエンベロープ発生器13で発
生する該エンベロープの形状は、それぞれステップS2
20にて音源6に設定されたiチャンネルの各種パラメ
ータにより制御されている。一方、補間器14はステッ
プS250におけるノートオンに応じてセレクタ25が
入力「1」を選択するため、補間器14からのiチャン
ネルの音量パラメータ値出力として、ステップS230
でマイコン1の送出した音量のパラメータが初期値設定
されると共に、iチャンネルのパンのパラメータ値出力
としてステップS240でマイコン1の送出したパンの
パラメータが初期値設定される。Then, in step S250, the microcomputer 1
In response to the note-on sent from the sound source 6 to the i-channel, the waveform generator 12 of the sound source 6 starts the generation of the i-channel waveform data, and the envelope generator 13
Then, the generation of the volume envelope of the i channel is started. Here, the pitch and waveform shape of the waveform data generated by the waveform generator 12 and the shape of the envelope generated by the envelope generator 13 are respectively determined in step S2.
It is controlled by various parameters of the i channel set in the sound source 6 at 20. On the other hand, in the interpolator 14, since the selector 25 selects the input “1” in response to the note-on in step S250, the volume parameter value output of the i-channel from the interpolator 14 is set in step S230.
In step S240, the volume parameter sent by the microcomputer 1 is set to an initial value, and in step S240, the pan parameter sent by the microcomputer 1 is set as an initial value as a parameter value output of the i channel.
【0030】以上のようにして、音源6の各ブロックで
iチャンネルの動作がスタートし、発生した該波形デー
タに対し、該音量エンベロープと該音量パラメータ値出
力と該パンパラメータ値出力を合成して得られたLチャ
ンネルの音量データとRチャンネルの音量データが、乗
算器16により時分割で順次乗算され、Lチャンネルの
楽音データ信号とRチャンネルの楽音データ信号が形成
されている。As described above, the operation of the i channel is started in each block of the sound source 6, and the volume envelope, the volume parameter value output and the pan parameter value output are combined with the generated waveform data. The obtained volume data of the L channel and the volume data of the R channel are time-divisionally multiplied by the multiplier 16 to form a tone data signal of the L channel and a tone data signal of the R channel.
【0031】ところで、前記図4に示すタイマ割込イベ
ント処理は一定時間間隔毎で実行され、ステップS12
0、ステップS130において各発音チャンネルの音量
パラメータ、パンパラメータが作成されて、音源6に送
出されるような働きがされている。従って、iチャンネ
ル楽音データ信号の形成開始後、前記図4に示すタイマ
割込イベント処理のルーチンが実行される毎に、iチャ
ンネルについても音量パラメータ、パンパラメータの新
たな値がマイコン1から音源レジスタ11に送出され、
補間器14に供給される。この補間器14においては、
供給されたiチャンネルの音量パラメータ、パンパラメ
ータを目標値として補間動作が行われ、出力する音量パ
ラメータ値出力、パンパラメータ値出力は、現在の値か
ら該目標値に向かって徐々に変化するようになる。By the way, the timer interrupt event process shown in FIG. 4 is executed at regular time intervals, and step S12 is performed.
0, in step S130, volume parameters and pan parameters of each sound generation channel are created and sent to the sound source 6. Therefore, every time the timer interrupt event processing routine shown in FIG. 4 is executed after the formation of the i-channel tone data signal, new values of the volume parameter and the pan parameter for the i-channel are sent from the microcomputer 1 to the tone register. Sent to 11,
It is supplied to the interpolator 14. In this interpolator 14,
An interpolation operation is performed using the supplied volume parameter and pan parameter of the i-channel as target values, and the output volume parameter value output and pan parameter value output are gradually changed from the current value toward the target value. Become.
【0032】また、合成部15においては、この音量パ
ラメータ値出力とパンパラメータ値出力が、iチャンネ
ルのエンベロープデータに合成されることにより、Lチ
ャンネルの音量データ、Rチャンネルの音量データが順
次出力される。この2つの音量データは、波形発生器1
2の出力するiチャンネルの波形データに順次乗ぜられ
て、Lチャンネルの楽音データ信号、Rチャンネルの楽
音データ信号が生成されている。このように、各発音チ
ャンネルで生成される楽音データ信号の音量とパンの楽
音特性は、発音開始時に前記図5に示すルーチンで初期
設定され、かつ、その後に実行される前記図4に示すル
ーチンにより供給される新たな値に追従する、補間器1
4の音量パラメータ値出力、パンパラメータ値出力によ
ってそれぞれ制御される。In the synthesizing section 15, the volume parameter value output and the pan parameter value output are synthesized with the i-channel envelope data, so that the L-channel volume data and the R-channel volume data are sequentially output. It These two volume data are the waveform generator 1
The waveform data of the i-channel output by 2 are sequentially multiplied to generate the tone data signal of the L channel and the tone data signal of the R channel. As described above, the tone volume characteristic of the tone data signal generated in each tone generation channel and the tone characteristic of the pan are initialized by the routine shown in FIG. 5 at the start of the tone generation, and then executed by the routine shown in FIG. Interpolator 1 that follows the new value supplied by
The volume parameter value output 4 and the pan parameter value output 4 are respectively controlled.
【0033】また、前記したように、パンのパラメータ
はジョイスティック2の操作に応じて発生するようにし
ているが、各発音チャンネル毎に異なる操作子を割り当
ててパンのパラメータを発生するようにしても良い。な
お、ジョイスティック2は1つしか設けられていないの
で、制御する発音チャンネルと制御しない発音チャンネ
ルとに分けて設定するようにしても良い。さらに、発音
チャンネル毎にジョイスティック2による制御の割合を
変えるように設定しても良い。この場合の設定は、表示
器4を見ながらパネルスイッチ5を操作して行うように
する。As described above, the pan parameter is generated according to the operation of the joystick 2. However, the pan parameter may be generated by assigning a different operator to each sounding channel. good. Since only one joystick 2 is provided, it may be set separately for the tone generation channel to be controlled and the tone generation channel not to be controlled. Further, the ratio of control by the joystick 2 may be changed for each sounding channel. The setting in this case is performed by operating the panel switch 5 while looking at the display 4.
【0034】[0034]
【発明の効果】本発明は、以上のように構成されている
ので、発音開始時に自動的に補間処理をオフして補間手
段の入力値をそのまま出力できると共に、その後は補間
処理を自動的に復活させるようにできるため、発音開始
時には操作子の現在値をダイレクトに反映したパラメー
タ値を使用して楽音を生成することができると共に、発
音開始後は操作子の操作に従って楽音特性に滑らかな変
化を付与した楽音を生成することができるようになる。Since the present invention is configured as described above, the interpolation processing can be automatically turned off at the start of sound generation and the input value of the interpolation means can be output as it is, and thereafter the interpolation processing is automatically performed. Since it can be restored, it is possible to generate a musical sound by using the parameter value that directly reflects the current value of the control at the start of sound generation, and after the start of sounding, the tone characteristics change smoothly according to the operation of the control. It becomes possible to generate a musical sound to which is added.
【図1】 本発明の電子楽器の一実施例の構成を示すブ
ロック図である。FIG. 1 is a block diagram showing the configuration of an embodiment of an electronic musical instrument of the present invention.
【図2】 本発明の電子楽器における音源部のブロック
図である。FIG. 2 is a block diagram of a sound source section in the electronic musical instrument of the present invention.
【図3】 本発明の電子楽器のメインルーチンのフロー
チャートである。FIG. 3 is a flowchart of a main routine of the electronic musical instrument of the present invention.
【図4】 本発明の電子楽器のタイマ割込イベント処理
のフローチャートである。FIG. 4 is a flow chart of timer interrupt event processing of the electronic musical instrument of the present invention.
【図5】 本発明の電子楽器のノートオンイベント処理
のフローチャートである。FIG. 5 is a flowchart of note-on event processing of the electronic musical instrument of the present invention.
1 マイコン、2 ジョイスティック、3 鍵盤、4
表示器、5 パネルスイッチ(SW)、6 音源部、7
サウンドシステム、11 制御レジスタ、12波形発
生器、13 エンベロープ発生器、14 補間器、15
合成部、16乗算器、17 チャンネル(CH)累算
器、18 ディジタル・アナログ変換器(DAC)1 microcomputer, 2 joystick, 3 keyboard, 4
Display, 5 panel switch (SW), 6 sound source, 7
Sound system, 11 control register, 12 waveform generator, 13 envelope generator, 14 interpolator, 15
Combiner, 16 multiplier, 17 channel (CH) accumulator, 18 digital-to-analog converter (DAC)
Claims (1)
ータ発生手段と、 該パラメータ発生手段よりの前記パラメータを受け取
り、補間処理を施して補間パラメータを発生する補間手
段と、 前記発音指示手段よりの前記発音指示に応じて、前記補
間パラメータに基づいた楽音の発生を開始する楽音発生
手段とを備え、 前記補間手段における補間処理において、前記発音指示
の発生時に前記パラメータをそのまま前記補間パラメー
タとして出力すると共に、それ以降は、前記パラメータ
に基づいて緩やかに変化する時間的に補間された補間値
を生成して、前記補間パラメータとして出力することを
特徴とする電子楽器。1. A sound generation instruction means for generating a sound generation instruction, a parameter generation means for generating a parameter based on an operation amount of a manipulator, and an interpolation parameter for receiving the parameter from the parameter generation means and performing an interpolation process. And a musical sound generating means for starting the generation of a musical sound based on the interpolation parameter in response to the sounding instruction from the sounding instructing means. When the above occurs, the parameter is output as it is as the interpolation parameter, and thereafter, a temporally interpolated interpolation value that gradually changes based on the parameter is generated and output as the interpolation parameter. And electronic musical instruments.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6337439A JP2790069B2 (en) | 1994-12-28 | 1994-12-28 | Electronic musical instrument |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6337439A JP2790069B2 (en) | 1994-12-28 | 1994-12-28 | Electronic musical instrument |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08185183A true JPH08185183A (en) | 1996-07-16 |
JP2790069B2 JP2790069B2 (en) | 1998-08-27 |
Family
ID=18308649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6337439A Expired - Fee Related JP2790069B2 (en) | 1994-12-28 | 1994-12-28 | Electronic musical instrument |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2790069B2 (en) |
-
1994
- 1994-12-28 JP JP6337439A patent/JP2790069B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2790069B2 (en) | 1998-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5354948A (en) | Tone signal generation device for generating complex tones by combining different tone sources | |
US5272274A (en) | Electronic musical instrument with reverberation effect | |
JPH0883066A (en) | Electronic musical instrument | |
JP2790069B2 (en) | Electronic musical instrument | |
JPH0968980A (en) | Timbre controller for electronic keyboard musical instrument | |
JP2689646B2 (en) | Electronic musical instrument | |
US5241124A (en) | Electronic musical instrument capable of controlling touch response based on a reference value | |
JP2671690B2 (en) | Electronic musical instrument | |
JP3094759B2 (en) | Music signal distribution processor | |
JP2933186B2 (en) | Music synthesizer | |
JP2677149B2 (en) | Effect applying device | |
JP3129119B2 (en) | Envelope waveform generator | |
JP3022170B2 (en) | Control device | |
JP2679443B2 (en) | Touch response device for electronic musical instruments | |
JP3104873B2 (en) | Sound source device | |
JP2970570B2 (en) | Tone generator | |
JP3405170B2 (en) | Music synthesizer | |
JP3100293B2 (en) | Switching apparatus and switching method of musical sound data | |
JP2580795B2 (en) | Electronic musical instrument | |
JPS6352399B2 (en) | ||
JP2546464B2 (en) | Electronic musical instrument | |
JPH0926787A (en) | Timbre control device | |
JPH07104670B2 (en) | Electronic musical instrument | |
JPH08146961A (en) | Waveform memory type musical sound generating device | |
JPH0588671A (en) | Electronic musical instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980512 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080612 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090612 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100612 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100612 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110612 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 14 |
|
LAPS | Cancellation because of no payment of annual fees |