JPH08185174A - Voice generating device - Google Patents

Voice generating device

Info

Publication number
JPH08185174A
JPH08185174A JP6339356A JP33935694A JPH08185174A JP H08185174 A JPH08185174 A JP H08185174A JP 6339356 A JP6339356 A JP 6339356A JP 33935694 A JP33935694 A JP 33935694A JP H08185174 A JPH08185174 A JP H08185174A
Authority
JP
Japan
Prior art keywords
sound
key
voice
waveform data
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6339356A
Other languages
Japanese (ja)
Other versions
JP3567294B2 (en
Inventor
Hiroshi Tomita
尋 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP33935694A priority Critical patent/JP3567294B2/en
Publication of JPH08185174A publication Critical patent/JPH08185174A/en
Application granted granted Critical
Publication of JP3567294B2 publication Critical patent/JP3567294B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To voice an expressive voice according to strength and brightness to be voiced in a voice generating device capable of voicing the voice. CONSTITUTION: The brightness of the voice is decided by a voice brightness switch, and the strength of the voice is decided by the strength of a touch of a key board 1. Then, the consonant waveform data corresponding to the brightness of the voice decided by the voice brightness switch and the vowel waveform data corresponding to the strength of the voice decided by the strength of the touch of the key board 1 are read out respectively, and these consonant and vowel waveform data are converted based on a key code and the velocity data, and voicing is instructed to a sound source 6 based on the result. Thus, the strength and the brightness such as a sound constituting language are expressed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声を楽音として発生
可能な音声発生装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice generating device capable of generating voice as a musical sound.

【0002】[0002]

【従来の技術】従来より、電子楽器等に設けられる音声
発生装置には、音声(例えばコーラスの”アー”という
声)を楽音として発音できるものがある。
2. Description of the Related Art Conventionally, there is a voice generating device provided in an electronic musical instrument or the like, which can produce a voice (for example, a chorus "Ah") as a musical sound.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した従
来の音声発生装置にあっては、音声を音色の一部として
捕えているのみであり、発音される音声には言葉を構成
する各音声の性格や、奏法による表現の違いについてま
では考慮されておらず、人が曲を口ずさむ(ハミングす
る)ような発音ができず、このためより表現力の高い演
奏ができないという問題点があった。
By the way, in the above-mentioned conventional voice generating device, the voice is only captured as a part of the timbre, and the voice to be pronounced is composed of the voices constituting the words. There was a problem in that it was not possible to give a pronunciation that would make a person hum the song (humming) because the character and the difference in the expression depending on the playing method were not taken into consideration, and thus it was not possible to perform with a higher expressiveness.

【0004】そこで本発明は、言葉を構成する各音声に
はそれぞれ強さや明るさがあることに注目し、発音させ
ようとする強さや明るさに応じた表情を持つ音声を発音
することができる音声発生装置を提供することを目的と
している。
Therefore, according to the present invention, it is possible to pronounce a voice having a facial expression according to the strength and the brightness to be pronounced, paying attention to the strength and the brightness of each of the sounds constituting the word. It is intended to provide a sound generation device.

【0005】[0005]

【課題を解決するための手段】上記目的達成のため、請
求項1記載の発明による音声発生装置は、複数の音声波
形データを記憶している記憶手段と、音の強さを指定す
る強さ指定手段と、音の明るさを指定する明るさ指定手
段と、この明るさ指定手段により指定された音の明るさ
と前記強さ指定手段により指定された音の強さに応じた
表情を持つ音声に対応する音声波形データを前記記憶手
段より選択し、この選択した音声波形データに基づいて
発音を指定する発音制御手段とを備えたことを特徴とす
る。また、好ましい態様として例えば請求項2記載の発
明のように、前記発音制御手段は、操作子の操作状態に
より選択する波形データを変化させるようにしても良
い。
In order to achieve the above object, a voice generating apparatus according to the invention of claim 1 has a storage means for storing a plurality of voice waveform data and a strength for designating a sound intensity. A designating means, a brightness designating means for designating the brightness of the sound, and a voice having a facial expression according to the brightness of the sound designated by the brightness designating means and the strength of the sound designated by the strength designating means. And sound generation control means for selecting sound waveform data corresponding to the above from the storage means and designating sound generation based on the selected sound waveform data. Further, as a preferred mode, for example, as in the invention described in claim 2, the sound generation control means may change the waveform data to be selected according to the operation state of the operator.

【0006】請求項3記載の発明による音声発生装置
は、母音波形データと子音波形データとを複数記憶して
いる記憶手段と、発音を指示する操作子に対する操作の
強さを検出する操作強さ検出手段と、発生される音声の
明るさを指定する明るさ指定手段と、この明るさ指定手
段で指定されている音声の明るさに対応して前記記憶手
段に記憶されている子音波形データを選択し、前記操作
強さ検出手段で検出される操作子に対する操作の強さに
対応して前記記憶手段に記憶されている母音波形データ
を選択し、この選択した子音及び母音波形データに基づ
き、前記操作子の操作に応答して発音を指示する発音制
御手段とを備えたことを特徴とする。また、好ましい態
様として例えば請求項4記載の発明のように、前記操作
子は鍵としても良い。
According to a third aspect of the present invention, there is provided a voice generating device, which has a storage means for storing a plurality of vowel sound waveform data and a consonant sound waveform data, and an operation strength for detecting an operation strength of an operator for instructing sounding. Detecting means, brightness designating means for designating the brightness of the generated sound, and consonant sound waveform data stored in the storage means in correspondence with the brightness of the sound designated by the brightness designating means. Select, select the vowel sound waveform data stored in the storage means corresponding to the strength of the operation on the operator detected by the operation strength detection means, based on the selected consonant and vowel sound waveform data, A sounding control means for instructing sounding in response to an operation of the operation element is provided. In a preferred embodiment, the manipulator may be a key as in the invention according to claim 4.

【0007】例えば請求項5記載の発明のように、前記
発音制御手段に、前記操作子に対する操作解除時にその
操作時間が第1の所定時間であれば特定の子音波形デー
タを前記記憶手段から選択し、前記操作解除時から次の
操作開始時までの時間が第2の所定時間以上であれば前
記選択した子音波形データに基づく発音を指示し、第2
の所定時間以下であれば前記選択した子音波形データに
基づく発音の指示を行なわないような機能を持たせても
良い。
For example, as in the invention described in claim 5, the sound generation control means selects specific consonant sound waveform data from the storage means if the operation time is a first predetermined time when the operation on the operation element is released. However, if the time from the release of the operation to the start of the next operation is the second predetermined time or more, the sounding based on the selected consonant waveform data is instructed, and the second
If it is less than or equal to the predetermined time, a function of not instructing sound generation based on the selected consonant waveform data may be provided.

【0008】[0008]

【作用】本発明では、強さ指定手段により音の強さが指
定され、また、明るさ指定手段により音の明るさが指定
される。そして、指定された音の強さ及び明るさに応じ
た表情を持つ音声に対応する音声波形データが記憶手段
に記憶された複数の音声波形データのなかから選択さ
れ、この選択された音声波形データに基づいて発音が指
定される。したがって、言葉を構成する各音声のように
強さや明るさを表現することができ、更に奏法(操作子
の操作状態)に応じた感情を持つ音声が発音できること
から、より表現力の高い演奏が可能になる。
In the present invention, the sound intensity is designated by the intensity designating means, and the brightness of the sound is designated by the brightness designating means. Then, the voice waveform data corresponding to the voice having the expression corresponding to the designated sound intensity and brightness is selected from the plurality of voice waveform data stored in the storage means, and the selected voice waveform data is selected. The pronunciation is specified based on. Therefore, strength and brightness can be expressed like each voice that constitutes a word, and a voice having an emotion according to a performance style (operation state of an operator) can be pronounced, so that a more expressive performance can be achieved. It will be possible.

【0009】[0009]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。 (I)実施例1 A.実施例1の構成 図1は、本発明の実施例1による音声発生装置を具備し
た電子楽器の構成を示すブロック図である。この図にお
いて、1は鍵盤であり、各鍵毎の押離鍵操作および押離
鍵速度(強さ)を検出してキーオン信号、キーナンバ、
キーオフ信号、あるいは押離タッチを表すベロシティ等
の演奏情報を出力する。2はこの電子楽器のコンソール
パネルであり、各種操作スイッチと、これらスイッチ設
定状態などを表示する液晶表示部とから構成される。コ
ンソールパネル2に配設される操作スイッチの内には、
図4に示す音声モードスイッチ20と音声明るさスイッ
チ21がある。音声モードスイッチ20は音声モードを
設定するためのものであり、押す毎に音声モードと通常
演奏モードが繰り返し設定される。音声モードスイッチ
20の直上にはLED22が設けられており、音声モー
ドを選択している間は点灯するようになっている。音声
明るさスイッチ21は音声の明るさを3段階で設定する
ものであり、ツマミ21aを右側へ移動させると明るく
なり、左側へ移動させると暗くなる。
Embodiments of the present invention will be described below with reference to the drawings. (I) Example 1 A. First Embodiment Structure of Embodiment 1 FIG. 1 is a block diagram showing the structure of an electronic musical instrument equipped with a sound generation device according to a first embodiment of the present invention. In this figure, reference numeral 1 denotes a keyboard, which detects a key release operation and key release speed (strength) for each key to detect a key-on signal, a key number,
A key-off signal or performance information such as velocity indicating a touch and release is output. Reference numeral 2 denotes a console panel of this electronic musical instrument, which is composed of various operation switches and a liquid crystal display section for displaying the setting states of these switches. Among the operation switches arranged on the console panel 2,
There is a voice mode switch 20 and a voice brightness switch 21 shown in FIG. The voice mode switch 20 is for setting the voice mode, and the voice mode and the normal performance mode are repeatedly set each time the switch is pressed. An LED 22 is provided immediately above the voice mode switch 20 and is lit while the voice mode is selected. The voice brightness switch 21 sets the brightness of voice in three steps. When the knob 21a is moved to the right, it becomes bright, and when it is moved to the left, it becomes dark.

【0010】図1に戻り、3は楽器各部を制御する機能
を具備するCPUであり、その動作については後述す
る。4はCPU3にロードされる各種制御プログラム
や、これらプログラムで用いられる各種データなどが記
憶されるROMである。また、このROM4には後述す
る音声グループテーブルが記憶されている。5はCPU
3のワークエリアとして使用されるRAMであり、各種
レジスタ/フラグデータが一時記憶される。RAM5に
は例えば以下に示すフラグ及びレジスタが設定される。 VF:音声モードフラグであり、音声モードスイッチ2
0が押される毎に反転する。 VF=1:音声モード VF=0:通常演奏モード KC:キーコードレジスタであり、キーコードデータの
記憶に使用される。 VL:ベロシティレジスタであり、ベロシティデータの
記憶に使用される。
Returning to FIG. 1, reference numeral 3 is a CPU having a function of controlling each part of the musical instrument, and its operation will be described later. Reference numeral 4 denotes a ROM that stores various control programs loaded into the CPU 3 and various data used in these programs. The ROM 4 also stores a voice group table described later. 5 is CPU
A RAM used as a work area 3 for temporarily storing various register / flag data. The following flags and registers are set in the RAM 5, for example. VF: Voice mode flag, voice mode switch 2
It is inverted every time 0 is pressed. VF = 1: voice mode VF = 0: normal performance mode KC: key code register used to store key code data. VL: Velocity register, used for storing velocity data.

【0011】6は周知の波形メモリ読み出し方式で構成
される音源であり、通常のメロディ演奏に応じた楽音を
発生するノーマル音源と伴奏音源とを備えている。7は
例えばADPCM方式により各種音色の波形データを記
憶する波形メモリである。この波形メモリ7には、音声
の子音に対応する子音波形データと、母音に対応する母
音波形データも記憶されている。10は音源6から出力
される楽音信号Wに効果音を付与するフィルタリングを
施した後にD/A変換して出力するD/A変換部であ
る。11はこのD/A変換部10から供給されるアナロ
グの楽音信号を増幅してスピーカSPより楽音として発
音させるアンプである。上記CPU3は、コンソールパ
ネル2の各種スイッチの操作状態をサーチし、音声モー
ドに設定されたことを検出すると、音声明るさスイッチ
21の設定値より子音波形データを波形メモリ7から読
み出し、更に鍵盤1のタッチ(ベロシティ)の強さによ
り母音波形データを波形メモリ7から読み出す。そし
て、波形メモリ7から読み出した子音及び母音波形デー
タをキーコードとベロシティデータに基づいて周波数及
び振幅変換し、その結果に基づいて音源6に発音指示を
行なう。
Reference numeral 6 is a sound source constituted by a well-known waveform memory reading method, and is provided with a normal sound source and an accompaniment sound source for generating a musical sound according to a normal melody performance. Reference numeral 7 is a waveform memory for storing waveform data of various tones by the ADPCM system, for example. The waveform memory 7 also stores consonant sound waveform data corresponding to a consonant sound and vowel sound waveform data corresponding to a vowel sound. Reference numeral 10 denotes a D / A conversion unit for performing D / A conversion and outputting the musical sound signal W output from the sound source 6 after performing filtering for imparting a sound effect. An amplifier 11 amplifies the analog musical tone signal supplied from the D / A conversion unit 10 and causes the speaker SP to generate a musical tone. When the CPU 3 searches the operating states of various switches on the console panel 2 and detects that the voice mode is set, the consonant waveform data is read from the waveform memory 7 based on the set value of the voice brightness switch 21, and further the keyboard 1 The vowel waveform data is read from the waveform memory 7 according to the strength of the touch (velocity) of. Then, the consonant and vowel sound waveform data read from the waveform memory 7 are frequency- and amplitude-converted based on the key code and velocity data, and the sound source 6 is instructed to sound based on the result.

【0012】子音波形データと母音波形データの選択
は、図2に示す音声グループテーブルにしたがって行な
われる。この音声グループテーブルは、「DI、TI、
PI、DA、TA、PA、DU、TU、PU」の9つの
音声情報から成り、音声明るさスイッチ21の設定によ
り「D、T、P」のそれぞれに対応する子音波形データ
が選択され、鍵盤1を弾いたときのタッチ(ベロシテ
ィ)の強さにより「I、A、U」のそれぞれに対応する
母音波形データが選択される。なお、この図において、
「ピ、パ、プ」が明るい音であり、「ディ、ダ、ドゥ」
が暗い音である。
The selection of the consonant sound waveform data and the mother sound waveform data is performed according to the voice group table shown in FIG. This voice group table is "DI, TI,
PI, DA, TA, PA, DU, TU, PU ”, and the sound waveform data corresponding to each of“ D, T, P ”is selected by the setting of the sound brightness switch 21, and the keyboard is selected. The vowel waveform data corresponding to each of "I, A, U" is selected according to the strength of the touch (velocity) when 1 is played. In addition, in this figure,
"Pi, Pa, Pu" is a bright sound, and "Di, Da, Do"
Is a dark sound.

【0013】この音声グループテーブルは次のようにし
て作成したものである。すなわち、声には明るさ暗さが
あって、例えば「ハ」に濁点を付けると「バ」になって
暗くなり、半濁点を付けると「パ」になり明るくなる。
一方、「タ」の場合は、濁点を付けると「ダ」になる
が、半濁点は付けられないのでこれを「パ」とする。然
して、例えば音声明るさスイッチ21を中央に設定した
状態で、鍵盤1を弾いたときのタッチの強さが中レベル
であったときには「T」に対応する子音波形データが選
択されると共に「A」に対応する母音波形データが選択
される。この結果、「タ」の音声が発音される。なお、
図3は上述のようにして得られる音声の信号を示す波形
図である。子音部は上記音声グループテーブルの「D、
T、P」にあたり、母音部は「I、A、U」にあたる。
また、母音部の後半部分は通常の鍵盤楽器のように減衰
されるようになっている。
This voice group table is created as follows. That is, the voice has lightness and darkness. For example, if a dakuten is added to "ha", it becomes "ba" and becomes dark, and if a dakuten is added, it becomes "pa" and becomes bright.
On the other hand, in the case of “ta”, adding a dakuten gives a “da”, but since a semi-voiced mark cannot be given, this is “pa”. However, for example, when the sound brightness switch 21 is set to the center and the strength of the touch when the keyboard 1 is played is at a medium level, the consonant sound waveform data corresponding to "T" is selected and "A" is selected. The vowel waveform data corresponding to "" is selected. As a result, the sound of "ta" is pronounced. In addition,
FIG. 3 is a waveform diagram showing a voice signal obtained as described above. The consonant part is “D,
In "T, P", the vowel part corresponds to "I, A, U".
The latter half of the vowel part is attenuated like a normal keyboard instrument.

【0014】B.実施例1の動作 次に、上記構成による実施例1の動作について図5〜図
7を参照して説明する。ここでは、概略動作としてメイ
ンルーチンの動作について説明した後、同メインルーチ
ンにおいてコールされる各種処理ルーチンの動作につい
て順次説明する。 (a)メインルーチンの動作 まず、本実施例による電子楽器に電源が投入されると、
CPU3はROM4から所定の制御プログラムをロード
し、図5に示すメインルーチンを実行してステップSA
2に処理を進める。ステップSA2では、RAM5に設
定される各種レジスタやフラグ類をリセットすると共
に、音源6に対して発音チャンネルレジスタをゼロクリ
アするよう指示する。発音チャンネルレジスタとは、音
源6内部に設けられるレジスタであって、CPU3の指
示の下に各発音チャンネル毎に割り当てられる楽音パラ
メータを一時記憶する。
B. Operation of First Embodiment Next, the operation of the first embodiment having the above configuration will be described with reference to FIGS. Here, the operation of the main routine will be described as a general operation, and then the operations of various processing routines called in the main routine will be sequentially described. (A) Operation of Main Routine First, when the electronic musical instrument according to the present embodiment is powered on,
The CPU 3 loads a predetermined control program from the ROM 4 and executes the main routine shown in FIG.
The process proceeds to 2. In step SA2, various registers and flags set in the RAM 5 are reset and the sound source 6 is instructed to clear the tone generation channel register to zero. The tone generation channel register is a register provided inside the tone generator 6 and temporarily stores the tone parameter assigned to each tone generation channel under the instruction of the CPU 3.

【0015】各種レジスタ類を初期化するイニシャライ
ズが完了すると、CPU3は次のステップSA4に処理
を進め、コンソールパネル2の各種スイッチ操作に応じ
たスイッチ処理を行い、続いてステップSA6に進む
と、鍵盤処理を行なう。次いで、ステップSA8に進む
と、液晶表示部を更新表示する等、その他の処理を行
う。この後、CPU3はステップSA4に処理を戻し、
以後ステップSA4〜SA8を繰り返してスイッチ操作
及び鍵盤操作の内容に従って音源6に楽音発生を指示す
る。
When the initialization for initializing the various registers is completed, the CPU 3 advances the processing to the next step SA4, performs the switch processing according to the various switch operations of the console panel 2, and then advances to step SA6, whereupon the keyboard Perform processing. Next, when proceeding to step SA8, other processing such as updating display of the liquid crystal display unit is performed. After that, the CPU 3 returns the process to step SA4,
Thereafter, steps SA4 to SA8 are repeated to instruct the sound source 6 to generate a musical sound according to the contents of the switch operation and the keyboard operation.

【0016】(b)スイッチ処理ルーチンの動作 まず、CPU3はステップSB2で音声モードスイッチ
20が押されたか否かを判定する。この判定において、
音声モードスイッチ20が押されていないと判断すると
ステップSB6に進む。これに対して、音声モードスイ
ッチ20が押されたと判断するとステップSB4に進
み、音声モードフラグVFの値を反転させる。この処理
を行なった後、ステップSB6に進む。ステップSB6
に進むと、音声明るさスイッチ21の設定位置を検出す
る。次いでステップSB8で音声明るさスイッチ21の
設定位置の検出結果に対応する子音波形データを選択す
る。例えば、音声明るさスイッチ21の設定が中レベル
であれば「T」に対応する子音波形データを選択する。
子音波形データを選択した後、ステップSB10でその
他のスイッチ処理を行ない、その後処理を抜ける。
(B) Operation of Switch Processing Routine First, the CPU 3 determines in step SB2 whether or not the voice mode switch 20 has been pressed. In this decision,
If it is determined that the voice mode switch 20 is not pressed, the process proceeds to step SB6. On the other hand, if it is determined that the voice mode switch 20 has been pressed, the process proceeds to step SB4 and the value of the voice mode flag VF is inverted. After performing this process, the process proceeds to step SB6. Step SB6
When the process proceeds to step S1, the set position of the voice brightness switch 21 is detected. Then, in step SB8, the consonant waveform data corresponding to the detection result of the set position of the voice brightness switch 21 is selected. For example, if the sound brightness switch 21 is set to the middle level, the consonant waveform data corresponding to "T" is selected.
After selecting the consonant sound waveform data, other switch processing is performed in step SB10, and then the processing ends.

【0017】(c)鍵盤処理ルーチン 上記スイッチ処理が終了した後、鍵盤処理に移行する。
まず、ステップSC2で鍵盤1の状態が変化したか否か
の判定を行なう。この判定において、何も変化がないと
判断するとそのまま処理を抜ける。これに対して、押鍵
から離鍵に変化したと判断するとステップSC4に進
み、キーコード(音高)に対応する音の消音を指示し、
処理を抜ける。なお、押鍵から離鍵した際には自然に音
が減衰していくので、必ずしも強制的に消音しなくても
良い。他方、離鍵から押鍵であると判断するとステップ
SC6に進み、押鍵された鍵のキーコードをキーコード
レジスタKCに格納し、またそのときのタッチの強さを
表すベロシティデータをベロシティレジスタVLに格納
する。
(C) Keyboard processing routine After the above switch processing is completed, the keyboard processing is started.
First, in step SC2, it is determined whether or not the state of the keyboard 1 has changed. In this determination, if it is determined that there is no change, the process directly ends. On the other hand, if it is determined that the key has been released, the process proceeds to step SC4 to instruct the mute of the sound corresponding to the key code (pitch).
Exit the process. Note that the sound is naturally attenuated when the key is released, so it is not always necessary to forcibly silence the sound. On the other hand, if it is determined that the key is released after the key is released, the process proceeds to step SC6, the key code of the depressed key is stored in the key code register KC, and the velocity data indicating the touch strength at that time is stored in the velocity register VL. To store.

【0018】キーコード及びベロシティデータの各レジ
スタへの格納を行なった後、ステップSC8に進み、音
声モードフラグVFの値が「1」であるか否か、すなわ
ち音声モードであるか否かの判定を行なう。この判定に
おいて音声モードでない、すなわち通常演奏モードであ
ると判断するとステップSC10に進み、キーコードレ
ジスタKC及びベロシティレジスタVLの内容に基づい
た発音処理、すなわち単に鍵盤1の鍵を弾くことによる
発音処理を行なう。この発音処理を行なった後、処理を
抜ける。一方、上記ステップSC8の判定において、音
声モードであると判断するとステップSC12に進み、
ベロシティレジスタVLの内容に基づいて母音波形デー
タを選択する。例えばタッチが強ければ「I」に対応す
る母音波形データを選択する。母音波形データの選択
後、ステップSC14に進み、既に選択している子音波
形データ及び母音波形データをキーコードレジスタKC
の内容とベロシティレジスタVLの内容に基づいて変換
して発音指示を行なう。この処理を行なった後、処理を
抜ける。
After the key code and the velocity data are stored in the respective registers, the process proceeds to step SC8 and it is determined whether or not the value of the voice mode flag VF is "1", that is, whether or not the voice mode is set. Do. If it is determined in this determination that the mode is not the voice mode, that is, the normal performance mode, the process proceeds to step SC10 to perform a sounding process based on the contents of the key code register KC and the velocity register VL, that is, a sounding process by simply playing a key on the keyboard 1. To do. After performing this tone generation processing, the processing is exited. On the other hand, if it is determined that the voice mode is set in the determination in step SC8, the process proceeds to step SC12,
The vowel waveform data is selected based on the contents of the velocity register VL. For example, if the touch is strong, the vowel waveform data corresponding to "I" is selected. After selecting the vowel sound waveform data, the process proceeds to step SC14, and the already selected child vowel sound wave data and vowel sound wave data are stored in the key code register KC.
And the velocity register VL are converted to give a sounding instruction. After performing this process, the process is exited.

【0019】このように、この実施例1によれば、音声
明るさスイッチ21によって子音波形データを選択し、
鍵盤1の鍵を弾くことによるタッチの強さによって母音
波形データを選択し、そしてこれら選択した子音波形デ
ータと母音波形データをキーコード及びベロシティデー
タに基づいて周波数及び振幅変換し、発音指示を行な
う。したがって、言葉を構成する各音声のように強さや
明るさを表現することができる。
As described above, according to the first embodiment, the consonant sound waveform data is selected by the sound brightness switch 21,
The vowel sound waveform data is selected according to the strength of touch by playing a key on the keyboard 1, and the selected sub-vowel sound waveform data and the vowel sound waveform data are converted in frequency and amplitude based on the key code and velocity data to give a sounding instruction. . Therefore, strength and brightness can be expressed like each voice constituting a word.

【0020】(II)実施例2 A.実施例2の構成 実施例2の構成は上述した実施例1の構成と同様である
ので図1に代えるものとする。但し、RAM5には例え
ば以下に示すフラグ、レジスタ及びカウンタが設定され
る。 VF:音声モードフラグであり、音声モードスイッチ2
0が押される毎に反転する。 VF=1:音声モード VF=0:通常演奏モード
(II) Example 2 A. Configuration of Second Embodiment Since the configuration of the second embodiment is similar to the configuration of the first embodiment described above, it will be replaced with FIG. However, the following flags, registers and counters are set in the RAM 5, for example. VF: Voice mode flag, voice mode switch 2
It is inverted every time 0 is pressed. VF = 1: voice mode VF = 0: normal performance mode

【0021】KC:キーコードレジスタであり、キーコ
ードデータの記憶に使用される。 VL:ベロシティレジスタであり、ベロシティデータの
記憶に使用される。 T:最後の押鍵から今回の離鍵までの時間をカウントす
るカウンタ t:最後の離鍵から今回の押鍵までの時間をカウントす
るカウンタ また、Aは4分音符長に対応するデータであり、bはス
ラー判別時間に対応するデータである。
KC: A key code register used to store key code data. VL: Velocity register, used for storing velocity data. T: Counter for counting time from last key release to current key release t: Counter for counting time from last key release to current key release In addition, A is data corresponding to a quarter note length. , B are data corresponding to the slur discrimination time.

【0022】上記実施例1では、音声明るさスイッチ2
1と鍵盤1の鍵のタッチ(ベロシティ)の強さによって
発音させる音声を指定するようにしたが、この実施例2
では更に奏法によって発音させる音を変えるようにした
ものである。ここで、図8は音声グループテーブルを示
す図であり、この図に示すように「DI、TI、PI、
RI、DA、TA、PA、RA、DU、TU、PU、R
U」の12の音声情報から成る。この音声グループテー
ブルはROM4に記憶されている。この音声グループテ
ーブルに基づいて、音声明るさスイッチ21の設定によ
り「D、T、P、R」のそれぞれに対応する子音波形デ
ータが選択され、また鍵盤1を弾いたときのタッチの強
さにより「I、A、U」のそれぞれに対応する母音波形
データが選択される。更に、奏法によって子音波形デー
タのいずれか一方が選択される。すなわち、「D」か
「R」、「T」か「R」又は「P」か「R」のいずれか
一方が選択される。
In the first embodiment, the voice brightness switch 2
The voice to be generated is specified according to the strength of the touch (velocity) of the keys of 1 and the keyboard 1.
Then, the sound to be pronounced is changed according to the playing method. Here, FIG. 8 is a diagram showing a voice group table. As shown in FIG. 8, “DI, TI, PI,
RI, DA, TA, PA, RA, DU, TU, PU, R
It consists of 12 voice information of "U". This voice group table is stored in the ROM 4. Based on this voice group table, the consonant sound waveform data corresponding to each of “D, T, P, R” is selected by the setting of the voice brightness switch 21, and the strength of the touch when the keyboard 1 is played is selected. The vowel waveform data corresponding to each of "I, A, U" is selected. Further, one of the consonant sound waveform data is selected depending on the rendition style. That is, either "D" or "R", "T", "R", or "P" or "R" is selected.

【0023】ここで、例えば、音声明るさスイッチ21
の設定が中レベルで「T及びR」の子音波形データを選
択している状態で、最初に押鍵したときのタッチの強さ
が中レベルであれば「A」の母音波形データが選択され
る。このとき「TA」となり、「タ」が発音される。そ
して、離鍵された後、次にスラー判別時間bを超えて再
び押鍵されると「TA」となり、「タ」が発音される。
この場合、前の押鍵からその後の離鍵までの時間が4分
音符長以下例えば8分音符や16分音符の場合はそのま
ま「タ」になるが、前の押鍵からその後の離鍵までの時
間が4分音符長以上の場合は「タ」の後に「ン」の発音
が付加えられる。また、和音のような離鍵が介在しない
連続打鍵の場合は、例えば「TA、TA、TA」とな
り、略同時に「タタタ」と発音される。一方、一回離鍵
されて次に押鍵されるまでの時間がスラー判別時間b以
内であれば「T」の子音波形データが選択されるのでは
なく、「R」の子音波形データが選択されて「RA」と
なり、「ラ」が発音される。
Here, for example, the voice brightness switch 21
When the setting of is medium level and the consonant waveform data of “T and R” is selected, if the touch strength when the key is first pressed is at the medium level, the mother waveform data of “A” is selected. It At this time, it becomes "TA" and "TA" is pronounced. Then, after the key is released, when the key is again pressed for more than the slur discrimination time b, "TA" is generated and "TA" is pronounced.
In this case, if the time from the previous key press to the subsequent key release is a quarter note length or less, for example, if it is an eighth note or a sixteenth note, it will be “ta” as it is, but from the previous key press to the subsequent key release. If the time is longer than a quarter note, the pronunciation of "n" is added after "ta". Further, in the case of continuous keystrokes such as chords without key release, for example, "TA, TA, TA" is sounded, and "tatata" is pronounced substantially at the same time. On the other hand, if the time from one key release to the next key depression is within the slur discrimination time b, the "T" consonant waveform data is not selected, but the "R" consonant waveform data is selected. The result is "RA" and "LA" is pronounced.

【0024】図9に示すように、前の押鍵から離鍵まで
の時間が8分音符長で、次の押鍵までの時間がスラー判
別時間bを超え、次の押鍵から離鍵までの時間が8分音
符長の場合は「タタ」と発音される。また、前の押鍵か
ら離鍵までの時間が4分音符長で、次の押鍵までの時間
がスラー判別時間bを超え、次の押鍵から離鍵までの時
間が4分音符長の場合は「タンタン」と発音される。ま
た、前の押鍵から離鍵までの時間が2分音符長で、次の
押鍵までの時間がスラー判別時間bを超え、次の押鍵か
ら離鍵までの時間が4分音符長の場合は「タ〜ンタン」
と発音される。
As shown in FIG. 9, the time from the previous key press to the key release is an eighth note length, the time to the next key press exceeds the slur discrimination time b, and the time from the next key press to the key release. If the time is 8th note length, it is pronounced as "Tata". Further, the time from the previous key depression to the key release is a quarter note length, the time to the next key depression exceeds the slur discrimination time b, and the time from the next key depression to the key release is a quarter note length. When pronounced as "tantan". Also, the time from the previous key press to the key release is a half note length, the time to the next key press exceeds the slur discrimination time b, and the time from the next key press to the key release is a quarter note length. In case of
Is pronounced.

【0025】また、前の押鍵から離鍵までの時間が4分
音符長で、次の押鍵までの時間がスラー判別時間bを超
え、次の押鍵から離鍵までの時間が2分音符長の場合は
「タンタ〜ン」と発音される。また、押鍵から離鍵まで
の時間が8分音符長で、離鍵が介在しない略同時の連続
打鍵の場合は略同時に「タタタ」と発音される。また、
前の押鍵から離鍵までの時間が8分音符長で、次の押鍵
までの時間がスラー判別時間b以内で、次の押鍵から離
鍵までの時間が8分音符長の場合は「タラ」と発音され
る。また、前の押鍵から離鍵までの時間が4分音符長
で、次の押鍵までの時間がスラー判別時間b以内で、次
の押鍵から離鍵までの時間が4分音符長の場合は「タラ
ン」と発音される。
Further, the time from the previous key depression to the key release is a quarter note length, the time to the next key depression exceeds the slur discrimination time b, and the time from the next key depression to the key release is 2 minutes. In the case of note length, it is pronounced as "tanta-n". Also, the time from key depression to key release is an eighth note length, and in the case of substantially simultaneous continuous keying without key release, "tata" is pronounced at substantially the same time. Also,
If the time from the previous key press to the key release is the eighth note length, the time to the next key press is within the slur determination time b, and the time from the next key release to the key release is the eighth note length. Pronounced "cod". Also, the time from the previous key depression to the key release is a quarter note length, the time to the next key depression is within the slur discrimination time b, and the time from the next key depression to the key release is a quarter note length. The case is pronounced "Taran".

【0026】また、前の押鍵から離鍵までの時間が4分
音符長で、次の押鍵までの時間がスラー判別時間b以内
で、次の押鍵から離鍵までの時間が8分音符長の場合は
「タ〜ラ」と発音される。また、前の押鍵から離鍵まで
の時間が8分音符長で、次の押鍵までの時間がスラー判
別時間b以内で、次の押鍵から離鍵までの時間が4分音
符長の場合は「タラン」と発音される。また、前の押鍵
から離鍵までの時間が2分音符長で、次の押鍵までの時
間がスラー判別時間b以内で、次の押鍵から離鍵までの
時間が4分音符長の場合は「タ〜ラン」と発音される。
また、前の押鍵から離鍵までの時間が4分音符長で、次
の押鍵までの時間がスラー判別時間b以内で、次の押鍵
から離鍵までの時間が2分音符長の場合は「タラ〜ン」
と発音される。
Further, the time from the previous key depression to the key release is a quarter note length, the time to the next key depression is within the slur discrimination time b, and the time from the next key depression to the key release is 8 minutes. In case of note length, it is pronounced "ta-la". Also, the time from the previous key press to the key release is an eighth note length, the time to the next key press is within the slur discrimination time b, and the time from the next key press to the key release is a quarter note length. The case is pronounced "Taran". Also, the time from the previous key depression to the key release is a half note length, the time to the next key depression is within the slur discrimination time b, and the time from the next key depression to the key release is a quarter note length. The case is pronounced "ta-ran".
Also, the time from the previous key depression to the key release is a quarter note length, the time to the next key depression is within the slur determination time b, and the time from the next key depression to the key release is a half note length. In the case, "Tara"
Is pronounced.

【0027】B.実施例2の動作 次に、本実施例2の動作について図11〜図13を参照
して説明する。ここでは、メインルーチンの概略動作に
ついては実施例1と同様であるので実施例1での説明に
代えるものとし、実施例1と異なる処理ルーチンすなわ
ちスイッチ処理ルーチン、鍵盤処理ルーチン及びインタ
ラプト処理ルーチンの動作について順次説明する。
B. Operation of Second Embodiment Next, the operation of the second embodiment will be described with reference to FIGS. 11 to 13. Here, since the general operation of the main routine is similar to that of the first embodiment, it will be replaced with the description of the first embodiment, and the operations of the processing routines different from the first embodiment, that is, the switch processing routine, the keyboard processing routine, and the interrupt processing routine. Will be sequentially described.

【0028】(a)スイッチ処理ルーチンの動作 まず、CPU3はステップSD2で音声モードスイッチ
20が押されたか否かを判定する。この判定において、
音声モードスイッチ20が押されていないと判断すると
ステップSD6に進む。これに対して、音声モードスイ
ッチ20が押されたと判断するとステップSD4に進
み、音声モードフラグVFの値を反転させる。この処理
を行なった後、ステップSD6に進む。ステップSD6
に進むと、音声明るさスイッチ21の設定位置を検出す
る。次いでステップSD8で音声明るさスイッチ21の
設定位置の検出結果に対応する1組の子音波形データを
選択する。例えば、音声明るさスイッチ21の設定が中
レベルであれば「TとR」に対応する子音波形データを
それぞれ選択する。子音波形データを選択した後、ステ
ップSD10でその他のスイッチ処理を行ない、その後
処理を抜ける。
(A) Operation of Switch Processing Routine First, the CPU 3 determines in step SD2 whether or not the voice mode switch 20 has been pressed. In this decision,
If it is determined that the voice mode switch 20 is not pressed, the process proceeds to step SD6. On the other hand, if it is determined that the voice mode switch 20 is pressed, the process proceeds to step SD4 and the value of the voice mode flag VF is inverted. After performing this processing, the process proceeds to step SD6. Step SD6
When the process proceeds to step S1, the set position of the voice brightness switch 21 is detected. Next, at step SD8, a set of consonant sound waveform data corresponding to the detection result of the set position of the sound brightness switch 21 is selected. For example, when the sound brightness switch 21 is set to the middle level, the consonant sound waveform data corresponding to "T and R" are selected. After selecting the consonant sound waveform data, other switch processing is performed in step SD10, and then the processing ends.

【0029】(b)鍵盤処理ルーチン 上記スイッチ処理が終了した後、鍵盤処理に移行する。
まず、ステップSE2で鍵盤1の状態が変化したか否か
の判定を行なう。この判定において、何も変化がないと
判断するとそのまま処理を抜ける。これに対して、押鍵
から離鍵に変化したと判断するとステップSE4に進
み、音声モードフラグVFの値が「1」であるか否か、
すなわち音声モードであるか否かの判定を行なう。この
判定において、音声モードでないすなわち通常演奏モー
ドであると判断すると、ステップSE6に進み、キーコ
ードに対応する音の消音を指示する。すなわち、今まで
発音している音を消音させる。この処理を行なった後、
処理を抜ける。なお、押鍵から離鍵した際には自然に音
が減衰していくので、必ずしも強制的に消音しなくても
良い。
(B) Keyboard processing routine After the above switch processing is completed, the keyboard processing is started.
First, in step SE2, it is determined whether or not the state of the keyboard 1 has changed. In this determination, if it is determined that there is no change, the process directly ends. On the other hand, if it is determined that the key has been released, the process proceeds to step SE4, where it is determined whether the value of the voice mode flag VF is "1".
That is, it is determined whether or not the voice mode is set. If it is determined in this determination that the mode is not the voice mode, that is, the normal performance mode, the process proceeds to step SE6 to instruct to mute the sound corresponding to the key code. That is, the sound that has been produced so far is muted. After doing this process,
Exit the process. Note that the sound is naturally attenuated when the key is released, so it is not always necessary to forcibly silence the sound.

【0030】上記ステップSE4の判定において、音声
モードであると判断すると、ステップSE8に進み、最
後に行なわれた押鍵から今回の離鍵までの時間Tが4分
音符長よりも長いか否かの判定を行なう。この判定にお
いて、最後の押鍵から今回の離鍵までの時間Tが4分音
符長よりも長くない場合、例えば8分音符や16分音符
長であると判断すると、ステップSE6に進む。これに
対して、最後の押鍵から今回の離鍵までの時間Tが4分
音符長よりも長いと判断すると、ステップSE10に進
み、「ン(N)」の波形データを選択する。この処理を
行なった後、ステップSE6に進む。
If it is determined in the above-mentioned step SE4 that the voice mode is set, the process proceeds to step SE8 and whether or not the time T from the last key depression to the current key release is longer than the quarter note length. Is determined. In this determination, if the time T from the last key depression to the current key release is not longer than the quarter note length, for example, if it is determined that it is the eighth note or 16th note length, the process proceeds to step SE6. On the other hand, when it is determined that the time T from the last key depression to the current key release is longer than the quarter note length, the flow proceeds to step SE10, and the waveform data of "N (N)" is selected. After performing this process, the process proceeds to step SE6.

【0031】上記ステップSE2の判定において、新た
に押鍵された判断するとステップSE12に進み、押さ
れた鍵のキーコードをキーコードレジスタKCに格納す
ると共に、ベロシティデータをベロシティレジスタVL
に格納する。この処理を行なった後、ステップSE14
に進み、音声モードであるか否かの判定を行なう。この
判定において、音声モードでない、すなわち通常演奏モ
ードであると判断するとステップSE16に進み、キー
コードレジスタKC及びベロシティレジスタVLの内容
に基づいた発音処理、すなわち、単に鍵盤1のキーを弾
くことによる発音処理を行なう。この発音処理を行なっ
た後、処理を抜ける。
When it is determined in step SE2 that a new key has been pressed, the process proceeds to step SE12, the key code of the pressed key is stored in the key code register KC, and the velocity data is stored in the velocity register VL.
To be stored. After performing this processing, step SE14
Then, it is determined whether or not the voice mode is set. In this determination, if it is determined that the mode is not the voice mode, that is, the normal performance mode, the process proceeds to step SE16, and a tone generation process based on the contents of the key code register KC and the velocity register VL, that is, a tone generated by simply playing a key of the keyboard 1. Perform processing. After performing this tone generation processing, the processing is exited.

【0032】ステップSE14の判定において音声モー
ドであると判断すると、ステップSE18に進み、ベロ
シティレジスタVLの内容に基づいて母音波形データを
選択する。例えば押鍵の強さが中レベルであれば「A」
に対応する母音波形データを選択する。この処理を行な
った後、ステップSE20に進み、最後に行なわれた離
鍵から今回の押鍵までの時間tがスラー判別時間bより
も長いか否かの判定を行なう。この判定において、離鍵
から押鍵までの時間tがスラー判別時間bよりも長いと
判断すると、ステップSE22に進み、ステップSE1
8で選択した母音波形データと、スイッチ処理ルーチン
にて選択した子音波形データの一方とをキーコードレジ
スタKC及びベロシティレジスタVLの内容に基づいて
変換し、発音指示を行なう。これにより、例えば「T
A」が発音される。この処理を行なった後、処理を抜け
る。
If it is determined in the step SE14 that the mode is the voice mode, the process proceeds to step SE18 to select the vowel waveform data based on the contents of the velocity register VL. For example, if the strength of key depression is medium level, "A"
The vowel sound waveform data corresponding to is selected. After performing this process, the process proceeds to step SE20, and it is determined whether or not the time t from the last key release to the current key depression is longer than the slur determination time b. In this determination, when it is determined that the time t from key release to key depression is longer than the slur determination time b, the process proceeds to step SE22 and step SE1.
The vowel sound waveform data selected in step 8 and one of the consonant sound waveform data selected in the switch processing routine are converted based on the contents of the key code register KC and the velocity register VL to give a sounding instruction. As a result, for example, "T
A "is pronounced. After performing this process, the process is exited.

【0033】上記ステップSE20の判定において、離
鍵から押鍵までの時間tがスラー判別時間bよりも短い
と判断すると、ステップSE24に進み、「ン」の波形
データの選択を解除する。すなわち、スラーであれば
「ン」の発音を行なわないようにする。この処理を行な
った後、ステップSE26に進み、ステップSE18で
選択した母音波形データと、スイッチ処理ルーチンにて
選択した子音波形データの他方とをキーコードレジスタ
KC及びベロシティレジスタVLの内容に基づいて変換
し、発音指示を行なう。これにより、例えば「RA」が
発音される。この処理を行なった後、処理を抜ける。
If it is determined in step SE20 that the time t from the key release to the key depression is shorter than the slur determination time b, the process proceeds to step SE24 to cancel the selection of the waveform data "n". That is, if it is a slur, do not pronounce "n". After performing this processing, the flow proceeds to step SE26, and the mother sound waveform data selected in step SE18 and the other one of the child sound waveform data selected in the switch processing routine are converted based on the contents of the key code register KC and the velocity register VL. And give pronunciation instructions. As a result, for example, "RA" is pronounced. After performing this process, the process is exited.

【0034】(c)インタラプト処理ルーチン メインルーチンが1回行なわれている最中に複数回この
インタラプト処理ルーチンが行なわれる。まず、ステッ
プSF2で音声モードであるか否かの判定を行なう。こ
の判定において音声モードでないと判断するとそのまま
処理を抜ける。これに対して、音声モードであると判断
するとステップSF4に進み、鍵の状態を判定する。こ
の判定において、鍵の状態が初期状態、すなわちどの鍵
も押されていないと判断するとそのまま処理を抜ける。
これに対して、新たなキーオンであると判断するとステ
ップSF6に進み、押鍵から離鍵までの時間Tのカウン
ト値を「0」にする。その後処理を抜ける。
(C) Interrupt processing routine This interrupt processing routine is executed a plurality of times while the main routine is being executed once. First, in step SF2, it is determined whether or not the voice mode is set. If it is determined in this determination that the mode is not the voice mode, the process directly ends. On the other hand, if it is determined that the mode is the voice mode, the process proceeds to step SF4 to determine the key state. In this determination, if it is determined that the state of the key is the initial state, that is, no key has been pressed, the process directly ends.
On the other hand, if it is determined that the key is new, the process proceeds to step SF6, and the count value of the time T from key depression to key release is set to "0". After that, the processing is exited.

【0035】また、ステップSF4の判定において、新
たなキーオフであると判断するとステップSF8に進
み、離鍵から押鍵までの時間tのカウント値を「0」に
する。その後処理を抜ける。また、ステップSF4の判
定において、キーオン中であると判断すると、ステップ
SF10に進み、押鍵から離鍵までの時間Tのカウント
値を「1」増加させて処理を抜ける。
If it is determined in step SF4 that the key is a new key-off, the process proceeds to step SF8, and the count value of the time t from key release to key depression is set to "0". After that, the processing is exited. If it is determined in step SF4 that the key is on, the process proceeds to step SF10, the count value of the time T from key depression to key release is incremented by "1", and the process exits.

【0036】また、ステップSF4の判定において、キ
ーオフ中であると判断すると、ステップSF12に進
み、離鍵から押鍵までの時間tのカウント値を「1」増
加させる。次いで、ステップSF14に進み、離鍵から
押鍵までの時間tのカウント値とスラー判別時間bの値
が等しいか否かの判定を行なう。この判定において、離
鍵から押鍵までの時間tのカウント値とスラー判別時間
bの値が等しくないと判断するとそのまま処理を抜け
る。これに対して、離鍵から押鍵までの時間tのカウン
ト値とスラー判別時間bの値が等しいと判断するとステ
ップSF16に進み、「ン」の波形データが選択されて
いるか否かの判定を行なう。この判定において、「ン」
の波形データが選択されていないと判断するとそのまま
処理を抜ける。これに対して、「ン」の波形データが選
択されていると判断すると、ステップSF18に進み、
「ン」の波形データに基づいて発音指示を行なう。
If it is determined in step SF4 that the key is off, the process proceeds to step SF12 and the count value of the time t from key release to key depression is increased by "1". Next, in step SF14, it is determined whether the count value of the time t from key release to key depression is equal to the slur determination time b. In this determination, if it is determined that the count value of the time t from the key release to the key depression is not equal to the value of the slur determination time b, the process directly ends. On the other hand, if it is determined that the count value of the time t from the key release to the key depression is equal to the value of the slur determination time b, the process proceeds to step SF16 to determine whether or not the waveform data of "n" is selected. To do. In this judgment, "n"
If it is determined that the waveform data of is not selected, the process is exited. On the other hand, when it is determined that the waveform data of "n" is selected, the process proceeds to step SF18,
The pronunciation instruction is given based on the waveform data of "n".

【0037】ここで、更に図10を参照しながら、この
実施例の動作について説明する。なお、この場合、音声
明るさスイッチ21は中レベルに設定されているものと
する。 (イ)鍵盤1の各鍵が単発的に押された場合 まず、弱い力で押鍵されると「トゥ」が発音される。そ
して、4分音符長以下の時間で離鍵されると「ン」の選
択は行なわれず、次の押鍵まで待機する。離鍵されたと
きからスラー判別時間bに達するまでに新たな押鍵がな
く、その後、強い力で押鍵されると「ティ」が発音され
る。この押鍵状態が4分音符長を超えて離鍵されると
「ン」が選択される。
The operation of this embodiment will now be described with further reference to FIG. In this case, it is assumed that the voice brightness switch 21 is set to the middle level. (B) When each key on the keyboard 1 is pressed one by one First, when a key is pressed with a weak force, "to" is pronounced. When the key is released within the time of the quarter note length or less, "n" is not selected and the operation waits until the next key is pressed. There is no new key depression from the time the key is released until the slur discrimination time b is reached, and when the key is depressed with a strong force thereafter, a "Tee" is sounded. When this key-depressed state is released for more than the quarter note length, "n" is selected.

【0038】そして、離鍵された時点からスラー判定時
間bに達するまでに新たな押鍵がなければスラー判定時
間bに達した時で「ン」が発音される。次いで、スラー
判定時間bを超えた後、中位の力で押鍵されると「タ」
が発音される。この押鍵状態が4分音符長を超えて離鍵
されると「ン」が選択される。そして、離鍵された時点
からスラー判定時間bに達するまでに新たな押鍵がなけ
れば、スラー判定時間bに達した時で「ン」が発音され
る。次いで、スラー判定時間bを超えた後、中位の力で
押鍵されると「タ」が発音される。この押鍵状態が4分
音符長を超えて離鍵されると「ン」が選択される。そし
て、離鍵された時点からスラー判定時間bに達するまで
に新たな押鍵がなければ、スラー判定時間bに達した時
で「ン」が発音される。
If there is no new key depression from the time the key is released until the slur determination time b is reached, "n" is sounded when the slur determination time b is reached. Next, after the slur determination time b has been exceeded, when the key is pressed with a medium force, "ta"
Is pronounced. When this key-depressed state is released for more than the quarter note length, "n" is selected. If there is no new key depression from the time the key is released until the slur determination time b is reached, "n" is sounded when the slur determination time b is reached. Next, after the slur determination time b has been exceeded, when a key is pressed with a medium force, "ta" is sounded. When this key-depressed state is released for more than the quarter note length, "n" is selected. If there is no new key depression from the time the key is released until the slur determination time b is reached, "n" is sounded when the slur determination time b is reached.

【0039】(ロ)鍵盤1を各鍵が連続して押された場
合 まず、中位の力で押鍵されると「タ」が発音される。そ
して、離鍵の判定が行なわれる以前に、連続して中位の
力で2回押鍵されると「タ、タ」が発音される。この場
合、最後の押鍵から離鍵までの時間が略8分音符長であ
るので、「ン」の選択は行なわれない。そして、スラー
判定時間bを超えた後、中位の力で略同時に3回押鍵さ
れると「タ、タ、タ」が略同時に発音される。この場
合、押鍵から最後の離鍵までの時間が4分音符長を超え
るので「ン」の選択が行なわれる。したがって、離鍵さ
れたときからスラー判定時間bに達したときに「ン」が
発音される。
(B) When each key is continuously pressed on the keyboard 1. First, when a key is pressed with a medium force, "ta" is pronounced. Then, before the determination of the key release is made, when the key is continuously depressed twice with a medium force, "ta, ta" is sounded. In this case, since the time from the last key depression to key release is approximately eighth note length, "n" is not selected. Then, after the slur determination time b has been exceeded, if the keys are pressed three times at the same time with a medium force, "ta, ta, ta" is sounded at substantially the same time. In this case, since the time from the key depression to the last key release exceeds the quarter note length, "n" is selected. Therefore, when the slur determination time b is reached after the key is released, "n" is pronounced.

【0040】「ン」の発音が行なわれた後、強い力で押
鍵されると「ティ」が発音される。「ティ」が発音され
てから、続いて中位の力で押鍵されると「タ」が発音さ
れる。そして、「タ」が発音されてから、更に続いて弱
いタッチで押鍵されると「トゥ」が発音される。その後
に、「ティ」を発音させた鍵が離鍵されると、これは最
後の押鍵がなされてから4分音符長を超えているので、
スラー判別時間bが経過すると「ン」が発音される。続
いて、「タ」と「トゥ」を発音させた押鍵が同時に離鍵
されると、最後の押鍵から離鍵までの時間が共に4分音
符長を超えるので、離鍵されたときからスラー判定時間
bに達したときに「ン」が発音される。
After the "n" is pronounced, when the key is pressed with a strong force, the "ti" is pronounced. After the "ti" is pronounced, when the key is subsequently pressed with a medium force, the "ta" is pronounced. Then, after the "ta" is pronounced, if a key is subsequently pressed with a weak touch, "to" is pronounced. After that, when the key that pronounced "Ti" is released, it exceeds the quarter note length since the last key was pressed.
When the slur determination time b has elapsed, "n" is pronounced. Then, when the keys released with "ta" and "to" are released at the same time, the time from the last key release to the key release exceeds the quarter note length. When the slur determination time b is reached, "n" is pronounced.

【0041】(ハ)鍵盤1の各鍵が滑らかに押された場
合 まず、中位の力で押鍵されると「タ」が発音される。そ
して、4分音符長を超えて離鍵されると「ン」が選択さ
れる。そして、離鍵されたときからスラー判定時間b以
内に新たに中位の力で押鍵されると「ラ」が発音され、
「ン」が破棄される。この押鍵状態が4分音符長を超え
て離鍵されると「ン」が選択される。「ラ」を発音させ
た押鍵が離鍵される前に、弱い力で押鍵されると、「ト
ゥ」が発音される。その後、4分音符長を超えて離鍵さ
れると同時に新たに弱い力で押鍵されると「ル」が発音
され、「ン」が破棄される。この場合、新たな押鍵が前
回の押鍵の離鍵よりも少しでも早ければ「トゥ」が発音
される。弱い力で押鍵された後、4分音符長以下の時間
で離鍵されると「ン」の選択は行なわれない。その後、
新たに強い力で押鍵されると「ティ」が発音され、この
押鍵状態が4分音符長を超えて離鍵されると「ン」が選
択されて離鍵からスラー判定時間bに達したときに
「ン」が発音される。
(C) When each key on the keyboard 1 is pressed smoothly First, when the key is pressed with a medium force, "ta" is pronounced. When the key is released for more than the quarter note length, "n" is selected. Then, when the key is newly pressed with the medium force within the slurring determination time b after the key is released, "LA" is pronounced,
"N" is destroyed. When this key-depressed state is released for more than the quarter note length, "n" is selected. When a key is pressed with a weak force before the key that has pronounced "la" is released, "to" is pronounced. After that, when the key is released for more than the quarter note length and at the same time, the key is newly pressed with a weak force, "le" is pronounced and "n" is discarded. In this case, if the new key depression is a little earlier than the previous key depression, "to" is sounded. If the key is pressed with a weak force and then released in a time shorter than the quarter note length, "n" is not selected. afterwards,
When the key is newly pressed with a strong force, a "ti" is pronounced, and when the key is released for more than a quarter note length, "n" is selected and the slur judgment time b is reached from the key release. "N" is pronounced when you do.

【0042】このように、この実施例2によれば次のよ
うに処理するようにしたので、音符の長さ、スラー、ス
タッカート、和音等の奏法の違いにより発音音声を変化
させることが可能になる。 (イ)スラー奏法又は和音以外で、最後の押鍵から今回
の離鍵までの時間が4分音符以上のときは離鍵時に
「ン」を発音させる。 (ロ)離鍵から次の押鍵までの時間がスラー判別時間b
以内あれば次に「ラ、リ又はル(押鍵の強さによって変
わる)」を発音させる。 (ハ)離鍵から次の押鍵までの時間がスラー判別時間b
より長ければ、「ン」の発音は通常通り行なわれる。
As described above, according to the second embodiment, since the processing is performed as described below, it is possible to change the sounding voice depending on the difference in playing style such as note length, slur, staccato, and chord. Become. (B) If the time from the last key depression to the current key release is a quarter note or more, other than the slur playing style or chord, "n" is sounded when releasing the key. (B) The time from key release to the next key depression is the slur discrimination time b
If it is within the range, then "LA, LI or LE (depending on the strength of key depression)" is pronounced. (C) The time from key release to the next key depression is the slur discrimination time b
If it is longer, the pronunciation of "n" is performed normally.

【0043】なお、上記各実施例の音声グループテーブ
ルの内容はあくまでも一例であって、これに限定される
ものではない。また、音声情報の数もこれに限定される
ものではない。更に、1つの音声グループテーブルでは
なく、内容の異なる複数の音声グループテーブルを持た
せ、所望のものを自由に選択できるようにしても良い。
また、実施例2では、離鍵時に「ン」を発音させる条件
として前回の押鍵から今回の離鍵までの時間が4分音符
以上とし、更に「ラ、リ又はル」を発音させる条件とし
て離鍵から次の押鍵までの時間がスラー判別時間b以内
としたが、これら条件も限定されるものではなく任意に
決定して良い。好ましくは、これらの条件を任意に設定
できるようにすると良い。また、上記各実施例では電子
楽器に適用した例であったが、この他にミュージックソ
フトによるコンピュータミュージックに適用しても良
い。
The contents of the voice group table in each of the above embodiments are merely examples, and the present invention is not limited to this. Also, the number of audio information is not limited to this. Further, instead of one voice group table, a plurality of voice group tables having different contents may be provided so that a desired one can be freely selected.
Further, in the second embodiment, as a condition for sounding "n" at the time of releasing the key, the time from the previous key depression to the current key release is equal to or more than a quarter note, and further as a condition for causing "La, Li or Le" to be pronounced. Although the time from the key release to the next key depression is within the slur determination time b, these conditions are not limited and may be arbitrarily determined. Preferably, these conditions may be set arbitrarily. Further, in each of the above-described embodiments, the example is applied to the electronic musical instrument, but other than this, the invention may be applied to computer music by music software.

【0044】[0044]

【発明の効果】本発明によれば、音の強さ及び明るさに
応じた表情を持つ音声を発音できるようにし、更に音符
の長さ、スラー、スタッカート又は和音等の奏法の違い
によって発音する音声を変化させることもできるように
したので、言葉を構成する各音声のように強さや明るさ
を表現することができると共に、奏法(操作子の操作状
態)に応じた感情を持つ音声が発音できる。この結果、
より表現力の高い演奏が可能になる。
According to the present invention, it is possible to generate a voice having a facial expression according to the strength and brightness of the sound, and further, it is pronounced according to the difference in playing style such as note length, slur, staccato or chord. Since it is also possible to change the voice, it is possible to express strength and brightness like each voice that composes a word, and a voice with emotion according to the performance style (operation state of the operator) is pronounced. it can. As a result,
A more expressive performance is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1による音声発生装置を具備し
た電子楽器の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an electronic musical instrument including a voice generation device according to a first embodiment of the present invention.

【図2】同実施例1における音声情報グループテーブル
を説明する図である。
FIG. 2 is a diagram illustrating a voice information group table according to the first embodiment.

【図3】同実施例1における音声信号を示す波形図であ
る。
FIG. 3 is a waveform diagram showing an audio signal according to the first embodiment.

【図4】同実施例1における音声モードスイッチと音声
明るさスイッチの外観を示す図である。
FIG. 4 is a diagram showing appearances of a voice mode switch and a voice brightness switch in the first embodiment.

【図5】同実施例1におけるメインルーチンの動作を説
明するためのフローチャートである。
FIG. 5 is a flowchart for explaining the operation of the main routine in the first embodiment.

【図6】同実施例1におけるスイッチ処理ルーチンの動
作を説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining the operation of a switch processing routine in the first embodiment.

【図7】同実施例1における鍵盤処理ルーチンの動作を
説明するためのフローチャートである。
FIG. 7 is a flowchart illustrating an operation of a keyboard processing routine according to the first embodiment.

【図8】本発明の実施例2による音声発生装置を具備し
た電子楽器における音声情報グループテーブルを説明す
る図である。
FIG. 8 is a diagram illustrating a voice information group table in an electronic musical instrument including a voice generating device according to a second embodiment of the present invention.

【図9】同実施例2における動作を説明する図である。FIG. 9 is a diagram illustrating an operation in the second embodiment.

【図10】同実施例2における動作を説明する図であ
る。
FIG. 10 is a diagram illustrating an operation in the second embodiment.

【図11】同実施例2におけるスイッチ処理ルーチンの
動作を説明するためのフローチャートである。
FIG. 11 is a flowchart illustrating an operation of a switch processing routine according to the second embodiment.

【図12】同実施例2における鍵盤処理ルーチンの動作
を説明するためのフローチャートである。
FIG. 12 is a flowchart illustrating an operation of a keyboard processing routine according to the second embodiment.

【図13】同実施例2におけるインタラプト処理ルーチ
ンの動作を説明するためのフローチャートである。
FIG. 13 is a flowchart for explaining the operation of the interrupt processing routine in the second embodiment.

【符号の説明】[Explanation of symbols]

1 鍵盤 2 コンソールパネル 3 CPU 4 ROM 5 RAM 6 音源 7 波形メモリ 10 D/A変換器 11 アンプ 1 keyboard 2 console panel 3 CPU 4 ROM 5 RAM 6 sound source 7 waveform memory 10 D / A converter 11 amplifier

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数の音声波形データを記憶している記
憶手段と、 音の強さを指定する強さ指定手段と、 音の明るさを指定する明るさ指定手段と、 この明るさ指定手段により指定された音の明るさと前記
強さ指定手段により指定された音の強さに応じた表情を
持つ音声に対応する音声波形データを前記記憶手段より
選択し、この選択した音声波形データに基づいて発音を
指定する発音制御手段と、を備えたことを特徴とする音
声発生装置。
1. A storage unit for storing a plurality of voice waveform data, a strength designating unit for designating a sound intensity, a brightness designating unit for designating a brightness of a sound, and the brightness designating unit. Voice waveform data corresponding to a voice having a facial expression according to the brightness of the sound designated by and the strength designated by the strength designating means is selected from the storage means, and based on the selected voice waveform data A sound generation device comprising: a sound generation control unit that specifies a sound generation.
【請求項2】 前記発音制御手段は、操作子の操作状態
により選択する波形データを変化させることを特徴とす
る請求項1記載の音声発生装置。
2. The sound generation device according to claim 1, wherein the sound generation control means changes the selected waveform data according to the operation state of the operation element.
【請求項3】 母音波形データと子音波形データとを複
数記憶している記憶手段と、 発音を指示する操作子に対する操作の強さを検出する操
作強さ検出手段と、 発生される音声の明るさを指定する明るさ指定手段と、 この明るさ指定手段で指定されている音声の明るさに対
応して前記記憶手段に記憶されている子音波形データを
選択し、前記操作強さ検出手段で検出される操作子に対
する操作の強さに対応して前記記憶手段に記憶されてい
る母音波形データを選択し、この選択した子音及び母音
波形データに基づき、前記操作子の操作に応答して発音
を指示する発音制御手段と、を備えたことを特徴とする
音声発生装置。
3. A storage means for storing a plurality of vowel sound waveform data and a consonant sound waveform data, an operation strength detecting means for detecting an operation strength with respect to an operator instructing sounding, and a brightness of a generated sound. Brightness specifying means for specifying the brightness, and the consonant waveform data stored in the storage means corresponding to the brightness of the sound specified by the brightness specifying means, and the operation strength detecting means selects the consonant waveform data. The vowel sound waveform data stored in the storage means is selected according to the detected strength of the operation on the manipulator, and the sound is generated in response to the operation of the manipulator based on the selected consonant and vowel sound waveform data. A sound generation device, comprising:
【請求項4】 前記操作子とは鍵であることを特徴とす
る請求項3記載の音声発生装置。
4. The voice generating device according to claim 3, wherein the operator is a key.
【請求項5】 前記発音制御手段は、前記操作子に対す
る操作解除時にその操作時間が第1の所定時間であれば
特定の子音波形データを前記記憶手段から選択し、前記
操作解除時から次の操作開始時までの時間が第2の所定
時間以上であれば前記選択した子音波形データに基づく
発音を指示し、第2の所定時間以下であれば前記選択し
た子音波形データに基づく発音の指示を行なわないこと
を特徴とする請求項3乃至4記載の音声発生装置。
5. The sound generation control means selects specific consonant sound waveform data from the storage means if the operation time is a first predetermined time at the time of releasing the operation on the operator, and the If the time until the start of the operation is equal to or longer than the second predetermined time, the sounding based on the selected consonant sound waveform data is instructed. 5. The voice generating device according to claim 3, wherein the voice generating device is not performed.
JP33935694A 1994-12-31 1994-12-31 Sound generator Expired - Fee Related JP3567294B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33935694A JP3567294B2 (en) 1994-12-31 1994-12-31 Sound generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33935694A JP3567294B2 (en) 1994-12-31 1994-12-31 Sound generator

Publications (2)

Publication Number Publication Date
JPH08185174A true JPH08185174A (en) 1996-07-16
JP3567294B2 JP3567294B2 (en) 2004-09-22

Family

ID=18326694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33935694A Expired - Fee Related JP3567294B2 (en) 1994-12-31 1994-12-31 Sound generator

Country Status (1)

Country Link
JP (1) JP3567294B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2006258904A (en) * 2005-03-15 2006-09-28 Kawai Musical Instr Mfg Co Ltd Rhythm practice system and program rhythm practice system
JP2016177277A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Sound generating device, sound generating method, and sound generating program
WO2018198381A1 (en) * 2017-04-27 2018-11-01 ヤマハ株式会社 Sound-generating device, method, and musical instrument

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
US7189915B2 (en) 2003-03-20 2007-03-13 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2006258904A (en) * 2005-03-15 2006-09-28 Kawai Musical Instr Mfg Co Ltd Rhythm practice system and program rhythm practice system
JP4666591B2 (en) * 2005-03-15 2011-04-06 株式会社河合楽器製作所 Rhythm practice system and program for rhythm practice system
JP2016177277A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Sound generating device, sound generating method, and sound generating program
WO2018198381A1 (en) * 2017-04-27 2018-11-01 ヤマハ株式会社 Sound-generating device, method, and musical instrument

Also Published As

Publication number Publication date
JP3567294B2 (en) 2004-09-22

Similar Documents

Publication Publication Date Title
US7288711B2 (en) Chord presenting apparatus and storage device storing a chord presenting computer program
JP2602458B2 (en) Automatic performance device
JP7347479B2 (en) Electronic musical instrument, control method for electronic musical instrument, and its program
JP2800465B2 (en) Electronic musical instrument
JPH06301332A (en) Electronic musical instrument
JP3567294B2 (en) Sound generator
JP2591121B2 (en) Chord setting device and electronic wind instrument
JP2583809B2 (en) Electronic musical instrument
JP2002189466A (en) Performance training apparatus and performance training method
JPH07191668A (en) Electronic musical instrument
JP3620366B2 (en) Electronic keyboard instrument
JP2001184063A (en) Electronic musical instrument
JP3543159B2 (en) Automatic accompaniment device
JP3554770B2 (en) Tone generator
JP3385543B2 (en) Automatic performance device
JP3674469B2 (en) Performance guide method and apparatus and recording medium
JP2578327B2 (en) Automatic performance device
JP2827953B2 (en) Electronic musical instrument
JPH09198048A (en) Tuning device
JPH06342288A (en) Musical sound generating device
JP2739244B2 (en) Electronic musical instrument
JP3108494B2 (en) Automatic accompaniment device
JPH07181972A (en) Electronic musical instrument
JPH08211872A (en) Musical instrument
JP2000322058A (en) Performance guide device and performance guide method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees