JPH1031496A - Musical sound generating device - Google Patents

Musical sound generating device

Info

Publication number
JPH1031496A
JPH1031496A JP8184679A JP18467996A JPH1031496A JP H1031496 A JPH1031496 A JP H1031496A JP 8184679 A JP8184679 A JP 8184679A JP 18467996 A JP18467996 A JP 18467996A JP H1031496 A JPH1031496 A JP H1031496A
Authority
JP
Japan
Prior art keywords
voice
musical sound
parameter
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8184679A
Other languages
Japanese (ja)
Inventor
Takeshi Terao
健 寺尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP8184679A priority Critical patent/JPH1031496A/en
Publication of JPH1031496A publication Critical patent/JPH1031496A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/471General musical sound synthesis principles, i.e. sound category-independent synthesis methods
    • G10H2250/505Parcor synthesis, i.e. music synthesis using partial autocorrelation techniques, e.g. in which the impulse response of the digital filter in a parcor speech synthesizer is used as a musical signal

Abstract

PROBLEM TO BE SOLVED: To provide a musical sound generating device which can generates a musical sound so that synthesized human voice is like a natural singing voice. SOLUTION: A CPU 4 sets musical sound information consisting of note-ON and note-OFF information a pitch frequency, and a velocity in a DSP 9 according to externally supplied MIDI data, and reads voice synthesis parameters of a syllable corresponding to a text (one word) made to correspond to a musical sound to be noted ON out of a data base in a data ROM 8 and sets them in a RAM 10. Oonsequently, the DSP 9 vocalizes a human voice, which is subjected to PARCOR(partial auto-correlation) synthesis according to given speech synthesis parameters, as natural singing according to the musical sound information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声合成する装置
に関し、特に、自然な歌声を発生することができる楽音
発生装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice synthesizing device, and more particularly to a tone generating device capable of generating a natural singing voice.

【0002】[0002]

【従来の技術】従来より、音声分析して抽出した特徴パ
ラメータに基づき人声音を合成する手法として、チャネ
ルボコーダや、線形予測、PARCOR(パーコール)
と呼ばれる技術が知られている。これら音声合成技術
は、分析した音声を如何に少ない情報量に変換するか、
つまり音声を分析して特徴パラメータの形に変換して言
葉の意味内容に関係の無い冗長成分を除いて情報量を圧
縮することに着目したものであって、高音質で音声合成
したり、合成した人声音を楽音形成に応用することを考
えたものではなかった。
2. Description of the Related Art Conventionally, as a method of synthesizing a human voice based on feature parameters extracted by voice analysis, channel vocoder, linear prediction, PARCOR (Percall)
A technique called is known. These speech synthesis techniques can convert the analyzed speech into a smaller amount of information,
In other words, it focuses on analyzing speech, converting it into the form of feature parameters, and compressing the amount of information excluding redundant components not related to the meaning of words. He did not consider applying the human voice to the formation of musical sounds.

【0003】そうした中にあって、チャネルボコーダは
構成が単純でリアルタイムの分析合成に向いているた
め、フィルタバンクにより抽出される音声のパワースペ
クトル包絡に基づき楽音合成する楽音発生装置に適用さ
れていた。しかしながら、チャネルボコーダでは、フィ
ルタバンクを構成するバンドパスフィルタ段数の限界
や、子音を合成できない等の問題により高音質の音声合
成が叶わず、やがて淘汰されて行った。
In such a situation, the channel vocoder has a simple structure and is suitable for real-time analysis and synthesis. Therefore, the channel vocoder has been applied to a tone generator which synthesizes a tone based on the power spectrum envelope of speech extracted by a filter bank. . However, in the channel vocoder, high-quality sound synthesis was not achieved due to the limitation of the number of band-pass filter stages constituting the filter bank and problems such as inability to synthesize consonants.

【0004】[0004]

【発明が解決しようとする課題】一方、従来の波形メモ
リ読み出し方式による楽音発生装置では、サンプリング
した人声音を波形メモリに記憶しておき、これをサンプ
リング時のピッチで読み出し再生すれば、最も単純な形
で高品位な人声音を発生させることが可能になるもの
の、サンプリング時のピッチとは異なるピッチで読み出
し再生しようとすると、人声音のフォルマント周波数が
変換ピッチ量に応じて変化してしまう為、自然な歌声を
発生することができないという問題がある。
On the other hand, in the conventional tone generator using the waveform memory reading method, the simplest method is to store the sampled human voice in the waveform memory and read and reproduce it at the sampling pitch. Although it is possible to generate a high-quality human voice in a simple form, if you try to read and play it at a pitch different from the pitch at the time of sampling, the formant frequency of the human voice will change according to the conversion pitch amount However, there is a problem that a natural singing voice cannot be generated.

【0005】そこで、本発明は、音声合成された人声音
を自然な歌声として楽音形成することができる楽音発生
装置を提供することを目的としている。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a musical sound generator capable of forming a human voice sound synthesized as a natural singing voice.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の発明では、複数の音節毎の音声合
成パラメータを記憶するパラメータ記憶手段と、楽曲の
各楽音を表わす楽音情報および各楽音に対応付けられた
歌詞を表わす発声情報を発生する楽曲情報発生手段と、
この楽曲情報発生手段が発生する発声情報に従って前記
パラメータ記憶手段から歌詞に合致する音節の音声合成
パラメータを読み出して出力するパラメータ発生手段
と、このパラメータ発生手段が出力する音声合成パラメ
ータに基づき合成した人声音を、前記楽音情報に従って
歌声として発音する音声合成手段とを具備することを特
徴としている。
In order to achieve the above object, according to the first aspect of the present invention, parameter storage means for storing speech synthesis parameters for each of a plurality of syllables, musical tone information representing each musical tone of a music piece, Music information generating means for generating utterance information representing lyrics associated with each musical tone;
Parameter generating means for reading out and outputting speech synthesis parameters of syllables matching the lyrics from the parameter storage means in accordance with the utterance information generated by the music information generating means; and a person synthesizing based on the speech synthesis parameters output by the parameter generating means. Voice synthesizing means for generating a vocal sound as a singing voice according to the musical tone information.

【0007】上記請求項1に従属する請求項2に記載の
発明によれば、前記パラメータ記憶手段は、各音節毎の
音声合成パラメータ中にデータ終端を表わす識別子を備
え、前記音声合成手段は、この識別子を検出して音声合
成パラメータがデータ終端に達したと判断した場合、合
成中の歌声を持続発音することを特徴とする。
According to the second aspect of the present invention, the parameter storage means includes an identifier indicating the end of data in a speech synthesis parameter for each syllable, and the speech synthesis means comprises: When this identifier is detected and it is determined that the voice synthesis parameter has reached the end of the data, the singing voice being synthesized is continuously pronounced.

【0008】同様に、上記請求項1に従属する請求項3
に記載の発明によれば、前記音声合成手段は、合成した
人声音の音質を前記楽音情報に含まれるベロシティに応
じて可変制御することを特徴としている。
[0008] Similarly, claim 3 is dependent on claim 1.
According to the invention described in (1), the voice synthesizer variably controls the sound quality of the synthesized human voice in accordance with the velocity included in the musical sound information.

【0009】また、上記請求項1に従属する請求項4に
記載の発明によれば、前記パラメータ発生手段は、前記
発声情報をMIDIデータのエクスクルーシブ・メッセ
ージで表現することを特徴とする。
According to the fourth aspect of the present invention, the parameter generating means expresses the utterance information by an exclusive message of MIDI data.

【0010】さらに、上記請求項1に従属する請求項5
に記載の発明によれば、前記音声合成手段は、前記楽音
情報に含まれるノートオン・ノートオフにより歌声の発
音・消音を制御することを特徴としている。
[0010] Further, claim 5 is dependent on claim 1 above.
According to the invention described in (1), the voice synthesizing means controls the pronunciation and mute of the singing voice by note-on note-off included in the musical tone information.

【0011】本発明では、パラメータ記憶手段に複数の
音節毎の音声合成パラメータを記憶しておき、楽曲情報
発生手段が楽曲の各楽音を表わす楽音情報および各楽音
に対応付けられた歌詞を表わす発声情報を発生すると、
パラメータ発生手段が発声情報に従って前記パラメータ
記憶手段から歌詞に合致する音節の音声合成パラメータ
を読み出す。そして、音声合成手段は、パラメータ発生
手段から出力される音声合成パラメータに基づき人声音
を合成し、これを前記楽音情報に従って歌声として発音
する。これにより、音声合成された人声音を自然な歌声
として楽音形成することが可能になる。
According to the present invention, the parameter storing means stores voice synthesis parameters for each of a plurality of syllables, and the music information generating means generates musical sound information representing each musical sound of the musical composition and utterance representing the lyrics associated with each musical sound. When information is generated,
The parameter generating means reads out voice synthesis parameters of syllables matching the lyrics from the parameter storage means according to the utterance information. Then, the voice synthesizing unit synthesizes a human voice based on the voice synthesizing parameter output from the parameter generating unit, and sounds this as a singing voice according to the musical tone information. As a result, it is possible to form a musical tone as a natural singing voice using the synthesized voice.

【0012】[0012]

【発明の実施の形態】本発明による楽音発生装置は、電
子楽器の他、人声音で音声案内する装置などに適用され
得る。以下では、本発明の実施の形態による楽音発生装
置を実施例として図面を参照して説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The musical sound generating apparatus according to the present invention can be applied to an electronic musical instrument as well as an apparatus for providing voice guidance using human voices. Hereinafter, a tone generator according to an embodiment of the present invention will be described as an example with reference to the drawings.

【0013】A.実施例の構成 (1)全体構成 図1は、本発明の一実施例による楽音発生装置の全体構
成を示すブロック図である。この図において、1は鍵盤
部であり、押離鍵操作に応じたキーオン/キーオフ信
号、キーコードおよびベロシティ信号からなる演奏情報
を発生する。2は操作パネル面に配設されるパネルスイ
ッチ群である。パネルスイッチ群2の内には、電源をオ
ンオフ操作する電源スイッチや、動作モードを選択する
モードスイッチ等が設けられており、これらスイッチ操
作に応じた操作信号を発生する。
A. 1. Configuration of Embodiment (1) Overall Configuration FIG. 1 is a block diagram showing the overall configuration of a musical sound generating device according to an embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a keyboard section, which generates performance information including a key-on / key-off signal, a key code, and a velocity signal according to a key press / release operation. Reference numeral 2 denotes a panel switch group provided on the operation panel surface. The panel switch group 2 includes a power switch for turning on and off the power, a mode switch for selecting an operation mode, and the like, and generates an operation signal in accordance with the operation of these switches.

【0014】なお、ここで言う動作モードとは、音声合
成された人声音を、押離鍵操作に対応して鍵盤部1から
出力される演奏情報に応じて歌声として発音させる鍵盤
モード、あるいはMIDIインタフェース回路7(後述
する)を介して外部MIDI機器から供給されるMID
Iデータに応じて歌声を発音させるMIDIモードを指
す。本実施例では、このMIDIモードについて言及す
る。
The operation mode referred to here is a keyboard mode in which a synthesized voice is produced as a singing voice according to performance information output from the keyboard unit 1 in response to a key press or release operation, or MIDI. MID supplied from an external MIDI device via an interface circuit 7 (described later)
This refers to a MIDI mode in which a singing voice is generated according to the I data. In this embodiment, the MIDI mode will be described.

【0015】次に、3は液晶パネル等から構成される表
示部であり、上記パネルスイッチ群2の操作に対応した
設定状況や動作状態が表示される。4は装置各部を制御
するCPUであり、その特徴的な動作については追って
詳述する。このCPU4は、ROM5に格納される音声
合成プログラムをDSP9(後述する)に転送したり、
MIDIインタフェース回路7を介して外部から供給さ
れるMIDIデータに対応する音声合成パラメータを後
述のデータROM8から読み出してRAM10に転送す
る。
Next, reference numeral 3 denotes a display unit composed of a liquid crystal panel or the like, which displays a setting state and an operation state corresponding to the operation of the panel switch group 2. Reference numeral 4 denotes a CPU for controlling each unit of the apparatus, and its characteristic operation will be described later in detail. The CPU 4 transfers the speech synthesis program stored in the ROM 5 to the DSP 9 (described later),
A voice synthesis parameter corresponding to MIDI data supplied from the outside via the MIDI interface circuit 7 is read from a data ROM 8 described later and transferred to the RAM 10.

【0016】ROM5は、上記CPU4にロードされる
各種の制御プログラムや制御データの他、後述するDS
P9において実行される音声合成プログラムを記憶して
いる。また、このROM5には、MIDIデータ中のノ
ートナンバを音高周波数に変換する変換テーブルTBL
が記憶されている。この変換テーブルTBLは、図2に
示す通り、ノートナンバを読み出しアドレスとして対応
する音高周波数PFを発生するものである。
The ROM 5 stores various control programs and control data loaded into the CPU 4 and a DS (described later).
A speech synthesis program executed in P9 is stored. The ROM 5 also has a conversion table TBL for converting note numbers in MIDI data to pitch frequencies.
Is stored. As shown in FIG. 2, this conversion table TBL generates a corresponding pitch frequency PF using a note number as a read address.

【0017】6はCPU4のワークエリアとして各種レ
ジスタやフラグデータが一時記憶されるRAMである。
また、このRAM6には、バッファエリアが設けられて
おり、MIDIインタフェース回路7を介して外部から
供給されるシリアル形式のMIDIデータを一時記憶す
るようになっている。MIDIインタフェース回路7で
は、CPU4の指示の下に、外部MIDI機器から供給
されるMIDIデータを取込み、バスBを介して上記R
AM6のバッファエリアにストアする。また、このMI
DIインタフェース回路7は、RAM6のバッファエリ
アにストアされたMIDIデータをシリアル形式でデー
タ送出する。
Reference numeral 6 denotes a RAM for temporarily storing various registers and flag data as a work area of the CPU 4.
The RAM 6 has a buffer area for temporarily storing serial MIDI data supplied from the outside via the MIDI interface circuit 7. The MIDI interface circuit 7 fetches MIDI data supplied from an external MIDI device under the instruction of the CPU 4, and receives the MIDI data via the bus B.
Store in the buffer area of AM6. Also, this MI
The DI interface circuit 7 sends out the MIDI data stored in the buffer area of the RAM 6 in a serial format.

【0018】データROM8には、音節毎の音声合成パ
ラメータがデータベース登録されている。音声合成パラ
メータとは、パーコール(PARCOR)分析によって
得られる残差Zおよびパーコール係数K1〜Knからな
るものであり、このデータROM8では各音節、つま
り、かな一文字毎の音声合成パラメータがテーブル記憶
されている。
In the data ROM 8, speech synthesis parameters for each syllable are registered in a database. The speech synthesis parameter is composed of a residual Z obtained by a Parcol analysis (PARCOR) analysis and Percoll coefficients K1 to Kn. In the data ROM 8, speech synthesis parameters for each syllable, that is, for each kana character, are stored in a table. I have.

【0019】ここで、図3を参照してデータROM8に
記憶される音声合成パラメータのデータ構造について述
べる。この図において、DB[m,n]は音番号mと係
数セト数nとを表わすヘッダである。このヘッダDB
[m,n]により所望の音節の残差Zおよびパーコール
係数K1〜Knを検索し得るようになっている。ヘッダ
DB[m,n]の音番号mは、音節(一語)を指定す
る。一方、係数セット数nは、音番号mで指定された音
節を合成する際に使用されるパーコール係数K1〜Kn
および残差Zを指定する。
Here, the data structure of the speech synthesis parameters stored in the data ROM 8 will be described with reference to FIG. In this figure, DB [m, n] is a header representing a tone number m and a coefficient set number n. This header DB
[M, n] can be used to search for the residual Z of the desired syllable and the Percoll coefficients K1 to Kn. The sound number m of the header DB [m, n] specifies a syllable (one word). On the other hand, the number of coefficient sets n is the number of Percoll coefficients K1 to Kn used when synthesizing the syllable specified by the sound number m.
And the residual Z.

【0020】例えば、図3に示すDB[0,0]〜DB
[0,n−1]は、音番号0で規定された”音節
「あ」”をパーコール分析して得た残差Zおよびパーコ
ール係数K1〜Knの値を時系列に並べたものである。
通常、係数セット数nは5〜20msec程度の時間間
隔でパーコール分析した値であり、この時間間隔で係数
セット数nが指定するパーコール係数K1〜Knおよび
残差Zを合成フィルタ(後述する)にセットすれば、パ
ーコール分析した時と同じフォルマント音が合成され
る。このようにデータベース化された音声合成パラメー
タの特長は、各音番号mの終端となるDB[0〜m,
n]に、残差Zを「−1」としたデータ終了を表わす識
別子を設けたことにあり、これが意図するところについ
ては追って述べる。
For example, DB [0,0] to DB shown in FIG.
[0, n-1] is a time series of values of the residual Z and the values of the Percoll coefficients K1 to Kn obtained by Percoll analysis of "syllable" A "" specified by the note number 0.
Normally, the coefficient set number n is a value obtained by Percoll analysis at a time interval of about 5 to 20 msec. At this time interval, the Percoll coefficients K1 to Kn and the residual Z specified by the coefficient set number n are applied to a synthesis filter (described later). If set, the same formant sound as when Percoll analysis was performed is synthesized. The feature of the speech synthesis parameters compiled in the database is that DB [0 to m,
n] is provided with an identifier indicating the end of data with the residual Z set to “−1”, and the intended purpose will be described later.

【0021】次に、再び図1に戻り、実施例の構成につ
いて説明を進める。図1において、DSP9は、CPU
4から転送セットされる音声合成プログラムおよび音声
合成パラメータに基づきパーコール合成演算を行って人
声音を発生するものであり、このパーコール合成アルゴ
リズムについては後述する。10は、DSP9のワーク
エリアとして用いられるRAM10であり、CPU4に
よって上述したデータROM8から読み出された音声合
成パラメータ(残差Zおよびパーコール係数K1〜K
n)がセットされる。
Next, returning to FIG. 1, the configuration of the embodiment will be described. In FIG. 1, a DSP 9 is a CPU
4 is to generate a human voice by performing a Percoll synthesis operation based on a voice synthesis program and a voice synthesis parameter transferred and set from Step 4. The Percoll synthesis algorithm will be described later. Reference numeral 10 denotes a RAM 10 used as a work area of the DSP 9, and a speech synthesis parameter (residual Z and Percoll coefficients K1 to K1) read from the data ROM 8 by the CPU 4.
n) is set.

【0022】DSP9にて合成された音声データは、次
段のD/A変換器11を介してアナログの音声信号に変
換される。D/A変換器11から出力される音声信号
は、アンプ12にて不要ノイズ除去等のフィルタリング
が施された後に増幅されて、スピーカSPより自然な歌
声として放音される。
The audio data synthesized by the DSP 9 is converted into an analog audio signal via the D / A converter 11 at the next stage. The audio signal output from the D / A converter 11 is subjected to filtering such as unnecessary noise removal by the amplifier 12 and then amplified, and is emitted as a natural singing voice from the speaker SP.

【0023】(2)DSP9のパーコール合成アルゴリ
ズム(機能構成) 次に、図4を参照し、CPU4から供給される楽音情報
に従って人声音による歌声を形成するDSP9のパーコ
ール合成アルゴリズム(機能構成)について説明する。
なお、ここで言う楽音情報とは、CPU4がMIDIデ
ータから抽出するノートオンNON、ノートオフNOF
およびベロシティデータVELの他、ノートナンバを前
述の変換テーブルTBLによって変換した音高周波数P
Fである。
(2) Parcall synthesis algorithm (functional configuration) of DSP 9 Next, with reference to FIG. 4, a percall synthesis algorithm (functional configuration) of the DSP 9 that forms a singing voice based on a human voice according to the musical tone information supplied from the CPU 4 will be described. I do.
Note that the tone information referred to here is a note-on NON and a note-off NOF extracted from the MIDI data by the CPU 4.
And the pitch frequency P obtained by converting the note number in addition to the velocity data VEL using the conversion table TBL.
F.

【0024】図4において、20はパルス発生器であ
り、音高周波数PFに対応した周期でパルス波形PWを
出力する。21はホワイトノイズWNを発生するノイズ
発生器である。SELは、合成する音声が「有声音」か
「無声音」かに応じてパルス波形PWもしくはホワイト
ノイズWNを選択するセレクタである。すなわち、この
セレクタSELは、与えられたパーコール係数K1が所
定の定数J(約0.3)以上の場合に「有声音」を合成
すべくパルス波形PW側を選択し、一方、パーコール係
数K1が定数Jより小さい時には「無声音」を合成すべ
くホワイトノイズWN側を選択する。
In FIG. 4, reference numeral 20 denotes a pulse generator which outputs a pulse waveform PW at a period corresponding to the pitch frequency PF. Reference numeral 21 denotes a noise generator that generates white noise WN. SEL is a selector for selecting the pulse waveform PW or the white noise WN depending on whether the voice to be synthesized is “voiced sound” or “unvoiced sound”. That is, the selector SEL selects the pulse waveform PW side to synthesize the "voiced sound" when the given Percoll coefficient K1 is equal to or larger than the predetermined constant J (about 0.3), while the Percoll coefficient K1 is When it is smaller than the constant J, the white noise WN side is selected to synthesize "unvoiced sound".

【0025】22はエンベロープジェネレータであり、
ノートオンNON、ノートオフNOFおよびベロシティ
データVELに応じてアタック部、リリース部および振
幅が制御されたエンベロープ波形ENVを発生する。2
3は係数乗算器であり、上記セレクタSELを介して供
給されるパルス波形PWあるいはホワイトノイズWNの
いずれかにエンベロープ波形ENVを乗算して出力す
る。
Reference numeral 22 denotes an envelope generator.
An envelope waveform ENV whose attack part, release part, and amplitude are controlled in accordance with note-on NON, note-off NOF, and velocity data VEL is generated. 2
A coefficient multiplier 3 multiplies either the pulse waveform PW or the white noise WN supplied via the selector SEL by the envelope waveform ENV and outputs the result.

【0026】ところで、上述したセレクタSELでは、
有声音・無声音に応じてパルス波形PWあるいはホワイ
トノイズWNに切換えるが、これに限らず、有声音・無
声音に応じてパルス波形PWとホワイトノイズWNとを
クロスフェードさせる態様としても良く、そのようにす
ると、有声音から無声音への変化、あるいは無声音から
有声音への変化がより自然なものとなる。
By the way, in the selector SEL described above,
Switching to the pulse waveform PW or the white noise WN according to the voiced / unvoiced sound is not limited to this, and the pulse waveform PW and the white noise WN may be cross-fade according to the voiced / unvoiced sound. Then, the change from voiced sound to unvoiced sound or the change from unvoiced sound to voiced sound becomes more natural.

【0027】24は係数乗算器であり、上記係数乗算器
23の出力に残差Zを乗算して出力する。25−1〜2
5−nは、それぞれパーコール係数K1〜Knに基づき
パーコール分析過程の逆過程で音声合成する格子型フィ
ルタである。これら縦続接続される格子型フィルタは、
声道特性をシミュレートするもので、遅延回路25a、
係数乗算器25b,25c、加算器25dおよび減算器
25eから構成される。遅延回路25aは、パーコール
分析過程と同じサンプリング遅延とすれば、分析した音
声信号と同じフォルマントとなる。したがって、音声合
成時の特殊効果として故意にフォルマントを異ならせる
ような場合には、パーコール分析時とは異なるサンプリ
ング遅延量とすれば良い。
A coefficient multiplier 24 multiplies the output of the coefficient multiplier 23 by a residual Z and outputs the result. 25-1 to 2
Reference numeral 5-n denotes a lattice filter that synthesizes speech in the reverse process of the Percoll analysis process based on the Percoll coefficients K1 to Kn, respectively. These cascaded grating filters are:
It simulates the vocal tract characteristics, and includes a delay circuit 25a,
It comprises coefficient multipliers 25b and 25c, adder 25d and subtractor 25e. The delay circuit 25a has the same formant as the analyzed voice signal if the sampling delay is the same as in the Percoll analysis process. Therefore, when the formant is intentionally made different as a special effect at the time of speech synthesis, the sampling delay amount may be different from that at the time of Percoll analysis.

【0028】このようなパーコール合成アルゴリズムに
よれば、RAM10に格納された音声合成パラメータ
(残差Zおよびパーコール係数K1〜Kn)、つまり、
MIDIデータに対応してCPU4が前述のデータRO
M8から読み出した音声合成パラメータに従って音節を
合成してなる人声音を歌声として生成する。
According to such a Percoll synthesis algorithm, the speech synthesis parameters (residual Z and Percoll coefficients K1 to Kn) stored in the RAM 10, that is,
The CPU 4 responds to the MIDI data by
A human voice generated by synthesizing syllables according to the voice synthesis parameters read from M8 is generated as a singing voice.

【0029】B.実施例の動作 次に、図5〜図7を参照し、上記構成による実施例の動
作について説明する。以下では、最初に全体動作として
メインルーチンの処理を説明した後、このメインルーチ
ンにおいてコールされるMIDI処理ルーチンやタイマ
インタラプトルーチンの処理について述べる。
B. Next, the operation of the embodiment having the above configuration will be described with reference to FIGS. Hereinafter, the processing of the main routine will be described first as an overall operation, and then the processing of the MIDI processing routine and the timer interrupt routine called in the main routine will be described.

【0030】(1)メインルーチンの動作 まず、本実施例による楽音発生装置に電源が投入される
と、CPU4はROM5より所定の制御プログラムを読
み出して自身にロードした後、図5に示すメインルーチ
ンを実行してステップSA1に処理を進め、RAM6や
RAM10に設けられている各種レジスタ・フラグを初
期化する一方、DSP9に対して内部レジスタ類をゼロ
リセットするよう指示を出す。
(1) Operation of Main Routine When the power of the tone generator according to the present embodiment is turned on, the CPU 4 reads a predetermined control program from the ROM 5 and loads it into itself, and then executes the main routine shown in FIG. Is executed, and the process proceeds to step SA1 to initialize various register flags provided in the RAM 6 and the RAM 10, while instructing the DSP 9 to reset the internal registers to zero.

【0031】こうして初期化がなされると、CPU4は
次のステップSA2に処理を進め、ROM5に格納され
る音声合成プログラムをDSP9に転送する。これによ
り、DSP9では音声合成の準備が整う。次いで、ステ
ップSA3に進むと、カウンタレジスタiの値をゼロリ
セットする。このカウンタレジスタiの値は、音声合成
パラメータ(残差Zおよびパーコール係数K1〜Kn)
をデータROM8から読み出してRAM10にセットす
る場合や、RAM10に格納された音声合成パラメータ
をDSP9にセットする場合に参照される。
After the initialization, the CPU 4 proceeds to the next step SA2, and transfers the speech synthesis program stored in the ROM 5 to the DSP 9. Thus, the DSP 9 is ready for speech synthesis. Next, in step SA3, the value of the counter register i is reset to zero. The value of the counter register i is determined by the speech synthesis parameters (residual Z and Percoll coefficients K1 to Kn).
Is read from the data ROM 8 and set in the RAM 10 or when the speech synthesis parameters stored in the RAM 10 are set in the DSP 9.

【0032】そして、ステップSA4では、MIDIイ
ンタフェース回路7を介して入力されるMIDIデータ
の内容に応じた音声合成パラメータをデータROM8か
ら読み出してRAM10にセットしたり、入力されるM
IDIデータに対応した楽音情報(ノートオンNON、
ノートオフNOF、ベロシティデータVELおよび音高
周波数PF)を生成してDSP9に供給するMIDI処
理(後述する)を行う。次に、ステップSA5に進む
と、パネルスイッチ群2を走査してスイッチ操作を検出
し、検出したスイッチ操作に応じた処理を行う。以後、
電源スイッチがオフ操作される迄、ステップSA4〜S
A5を繰り返す。
In step SA4, the speech synthesis parameters corresponding to the contents of the MIDI data input via the MIDI interface circuit 7 are read from the data ROM 8 and set in the RAM 10 or the input M
Tone information corresponding to IDI data (note-on NON,
A MIDI process (described later) that generates a note-off NOF, velocity data VEL, and pitch frequency PF) and supplies it to the DSP 9 is performed. Next, in step SA5, the panel switch group 2 is scanned to detect a switch operation, and processing corresponding to the detected switch operation is performed. Since then
Steps SA4 to SA4 until the power switch is turned off.
Repeat A5.

【0033】(2)MIDI処理ルーチンの動作 さて、上述したメインルーチンのステップSA4を介し
てMIDI処理ルーチンが実行されると、CPU4は図
6に示すステップSB1に処理を進め、MIDI入力の
有無を判断する。ここで、MIDI入力が無ければ、判
断結果が「NO」となり、本ルーチンを終了させて処理
をメインルーチンに復帰させる。一方、MIDI入力が
有ると、判断結果が「YES」となり、次のステップS
B2に処理を進める。ステップSB2では、入力された
MIDIデータのステータスが「ノートオン」であるか
否かを判断する。
(2) Operation of the MIDI Processing Routine When the MIDI processing routine is executed through step SA4 of the main routine, the CPU 4 advances the processing to step SB1 shown in FIG. to decide. Here, if there is no MIDI input, the determination result is “NO”, and this routine is terminated, and the process returns to the main routine. On the other hand, if there is a MIDI input, the determination result is “YES”, and the next step S
The process proceeds to B2. In step SB2, it is determined whether or not the status of the input MIDI data is "note on".

【0034】ところで、本実施例の場合、入力されるM
IDIデータのステータスは、「エクスクルーシブ」、
「ノートオン」および「ノートオフ」のいずれかにな
る。「エクスクルーシブ」は、楽曲中の各音に対応付け
られた歌詞を、前述した音声合成パラメータ中の音番号
mで指定する。つまり、「エクスクルーシブ」によって
先ず歌声の音節を音番号mで指定し、続いてその歌声の
音高および音量を「ノートオン」によって指定し、「ノ
ートオフ」で消音することになる。
By the way, in the case of this embodiment, the input M
The status of IDI data is "Exclusive",
Either "Note On" or "Note Off". “Exclusive” designates the lyrics associated with each sound in the music by the sound number m in the above-described voice synthesis parameter. In other words, the syllable of the singing voice is first designated by the note number m by "exclusive", then the pitch and volume of the singing voice are designated by "note on", and the sound is muted by "note off".

【0035】したがって、いま最初にMIDI入力があ
ると、そのMIDIデータは「エクスクルーシブ」とな
るから、上記ステップSB2の判断結果は「NO」とな
り、ステップSB3に進む。ステップSB3では、MI
DIデータが「エクスクルーシブ」である否かを判断
し、この場合、判断結果が「YES」となり、ステップ
SB4に進む。ステップSB4に進むと、CPU4は、
MIDIデータ中のエクスクルーシブ・メッセージから
歌詞(一語)に対応付けられた音番号mを抽出してレジ
スタexcにセットして一旦、このルーチンの処理を完
了する。
Therefore, if there is a MIDI input for the first time, the MIDI data becomes "exclusive", and the result of the determination at step SB2 is "NO", and the routine proceeds to step SB3. In step SB3, MI
It is determined whether or not the DI data is “exclusive”. In this case, the determination result is “YES”, and the process proceeds to Step SB4. When proceeding to step SB4, the CPU 4
The tone number m associated with the lyrics (one word) is extracted from the exclusive message in the MIDI data, set in the register exc, and the processing of this routine is completed once.

【0036】なお、こうしてレジスタexcに音番号m
がセットされると、CPU4では、後述のタイマインタ
ラプトルーチンの処理によってデータROM8から音番
号mに対応する音声合成パラメータ(残差Zおよびパー
コール係数K1〜Kn)を読み出し、これをRAM10
にセットする。
In this way, note number m is stored in register exc.
Is set, the CPU 4 reads the speech synthesis parameters (residual Z and Percoll coefficients K1 to Kn) corresponding to the tone number m from the data ROM 8 by the processing of a timer interrupt routine described later,
Set to.

【0037】次に、「ノートオン」のMIDI入力があ
ると、上述したステップSB2の判断結果が「YES」
となり、ステップSB5に処理を進める。ステップSB
5では、「ノートオン」のMIDIデータ中に含まれる
ノートナンバを、前述した変換テーブルTBL(図2参
照)により音高周波数PFに変換してDSP9にセット
する。次いで、ステップSB6に進むと、CPU4はM
IDIデータから上記ノートナンバに続いて付与されて
いるベロシティ値を抽出し、これをベロシティデータV
ELとしてDSP9にセットする。これにより、DSP
9では、パルス発生器20に音高周波数PFがセットさ
れ、エンベロープジェネレータ22にベロシティデータ
VELがセットされる。
Next, when there is a MIDI input of "note on", the result of the determination in step SB2 is "YES".
, And the process proceeds to Step SB5. Step SB
In step 5, the note number included in the MIDI data of "note on" is converted into a pitch frequency PF by the above-described conversion table TBL (see FIG. 2) and set in the DSP 9. Next, when the process proceeds to step SB6, the CPU 4
The velocity value assigned after the note number is extracted from the IDI data, and is extracted from the velocity data V.
EL is set to DSP9. This allows the DSP
At 9, the pitch frequency PF is set in the pulse generator 20, and the velocity data VEL is set in the envelope generator 22.

【0038】そして、ステップSB7では、カウンタレ
ジスタiをゼロリセットし、続くステップSB8にてエ
ンベロープジェネレータ22にアタック形成するよう指
示する。この結果、DSP9では、RAM10にセット
されている楽音合成パラメータ、つまり、ヘッダDB
[exc,i]にて指定される音節の残差Zおよびパー
コール係数K1〜Knに基づきパーコール合成を行い、
ノートナンバに対応した音高周波数PFによるピッチの
人声音を、ベロシティデータVELの音量で生成する。
Then, in step SB7, the counter register i is reset to zero, and in the following step SB8, the envelope generator 22 is instructed to form an attack. As a result, in the DSP 9, the tone synthesis parameters set in the RAM 10, that is, the header DB
Percall synthesis is performed based on the syllable residual Z specified by [exc, i] and the Percoll coefficients K1 to Kn,
A human voice with a pitch based on the pitch frequency PF corresponding to the note number is generated at the volume of the velocity data VEL.

【0039】以上のようにして、歌詞一語分の人声音が
歌声として発音された後には、「ノートオフ」のMID
I入力がなされる。「ノートオフ」のMIDIデータが
供給された場合には、上記ステップSB3を介してステ
ップSB9に進み、「ノートオフ」の時にはステップS
B9の判断結果が「YES」となってステップSB10
に処理を進める。ステップSB10では、エンベロープ
ジェネレータ22にリリース形成するよう指示し、発声
中の歌詞を消音させる。
As described above, after the human voice for one word of the lyrics is pronounced as a singing voice, the MID of "note off"
An I input is made. When the MIDI data of "note off" is supplied, the process proceeds to step SB9 via the above-described step SB3, and when the MIDI data of "note off" is supplied, the process proceeds to step SB9.
The result of determination in B9 becomes "YES", and step SB10
Processing proceeds to In step SB10, the CPU instructs the envelope generator 22 to release the sound, and silences the lyrics being uttered.

【0040】このように、MIDI処理ルーチンでは、
「エクスクルーシブ」のMIDIデータが入力される
と、MIDIデータ中のエクスクルーシブ・メッセージ
から歌詞(一語)に対応付けられた音番号mを抽出して
レジスタexcにセットして、後述のタイマインタラプ
トルーチンに対して音番号mを引渡す。そして、「ノー
トオン」のMIDIデータが入力された時には、ノート
ナンバに対応した音高周波数PFをDSP9のパルス発
生器20にセットすると共に、ベロシティデータVEL
をDSP9のエンベロープジェネレータ22にセットし
て歌詞を歌声として発音させる。続いて、「ノートオ
フ」のMIDIデータが入力されると、その歌声をリリ
ースさせる。
As described above, in the MIDI processing routine,
When the MIDI data of "exclusive" is input, a note number m associated with the lyrics (one word) is extracted from the exclusive message in the MIDI data and set in the register exc. Hand over note number m. When MIDI data of "note on" is input, the pitch frequency PF corresponding to the note number is set in the pulse generator 20 of the DSP 9 and the velocity data VEL
Is set in the envelope generator 22 of the DSP 9 and the lyrics are pronounced as a singing voice. Subsequently, when MIDI data of "Note Off" is input, the singing voice is released.

【0041】(3)タイマインタラプトルーチンの動作 CPU4では、例えば、20msec毎に割込みマスク
を解除して図7に示すタイマインタラプトルーチンを実
行してステップSC1に処理を進め、ヘッダDB[ex
c,i]が示す残差Zが「0」より小さいか、つまり、
音番号mで指定される音節の音声合成パラメータが終了
しているか否かを判断する。
(3) Operation of Timer Interrupt Routine The CPU 4 releases the interrupt mask, for example, every 20 msec, executes the timer interrupt routine shown in FIG. 7, advances the process to step SC1, and proceeds with the header DB [ex
c, i] is smaller than “0”, that is,
It is determined whether or not the speech synthesis parameters of the syllable specified by the phone number m have been completed.

【0042】ここで、残差Zが「−1」でない場合に
は、判断結果が「NO」となり、ステプSC2に進む。
ステップSC2では、ヘッダDB[exc,i]に対応
する音声合成パラメータ(残差Zおよびパーコール係数
K1〜Kn)をデータROM8から読み出しRAM10
にセットする。これにより、DSP9側では、RAM1
0にセットされる残差Zおよびパーコール係数K1〜K
nに基づきパーコール合成する。
Here, if the residual Z is not "-1", the determination result is "NO" and the process proceeds to Step SC2.
In step SC2, the speech synthesis parameters (residual Z and Percoll coefficients K1 to Kn) corresponding to the header DB [exc, i] are read from the data ROM 8 and read from the RAM 10
Set to. As a result, on the DSP 9 side, the RAM 1
Residual Z and Percoll coefficients K1-K set to 0
Percoll synthesis based on n.

【0043】次いで、ステップSC3では、カウンタレ
ジスタiをインクリメントして歩進させ、一旦、この割
り込み処理を終了させる。そして、次の割り込みタイミ
ング下においてステップSC1が実行され、この時、ヘ
ッダDB[exc,i]に対応して読み出した残差Zが
「−1」、つまり、データ終端になると、上記ステップ
SC1の判断結果が「YES」となり、この場合、何も
処理せずに終了させる。したがって、このような場合に
は、DSP9側では音声合成パラメータが更新されない
為、パーコール合成する格子型フィルタ25−1〜25
−n(図4参照)の時間変化が止り、合成される歌声は
サスティーン状態となる。
Next, at step SC3, the counter register i is incremented to advance, and this interrupt processing is temporarily terminated. Then, at the next interrupt timing, step SC1 is executed. At this time, when the residual Z read out corresponding to the header DB [exc, i] is “−1”, that is, when the end of data is reached, the above-described step SC1 is executed. The result of the determination is "YES", and in this case, the processing is terminated without performing any processing. Therefore, in such a case, since the voice synthesis parameters are not updated on the DSP 9 side, the lattice type filters 25-1 to 25-25 for performing percall synthesis are used.
The time change of −n (see FIG. 4) stops, and the synthesized singing voice enters the sustain state.

【0044】以上説明したように、本実施例では、外部
から供給されるMIDIデータに基づきノートオン・ノ
ートオフ、音高周波数およびベロシティからなる楽音情
報をDSP9にセットすると共に、ノートオンする楽音
に対応付けられた歌詞(一語)に相当する音節の音声合
成パラメータを、データROM8中のデータベースから
読み出してRAM10にセットする。この結果、DSP
9では与えられた音声合成パラメータに従ってパーコー
ル合成した人声音を、楽音情報に従って歌声として発声
させる。
As described above, in the present embodiment, the tone information including note-on / note-off, pitch frequency and velocity is set in the DSP 9 based on the MIDI data supplied from the outside, and the tone to be note-on is also set. The voice synthesis parameters of the syllable corresponding to the associated lyrics (one word) are read from the database in the data ROM 8 and set in the RAM 10. As a result, the DSP
In step 9, the human voice which is percall-synthesized according to the given voice synthesis parameter is uttered as a singing voice according to the musical tone information.

【0045】特に、この実施例では、各音節の音声合成
パラメータ中に残差Zを「−1」としてデータ終端を表
わす識別子を設けたので、このデータ終端に至った時に
はパーコール係数K1〜Knが経時変化せずに保持され
るから、合成される歌声はサスティーン状態となり、音
が伸ばされた歌声(例えば、「あー」)となる。この
為、より一層自然な歌声として楽音形成することができ
る。
In particular, in this embodiment, since the residual Z is set to "-1" in the speech synthesizing parameters of each syllable and an identifier indicating the end of data is provided, the percall coefficients K1 to Kn are set when the end of data is reached. Since the synthesized singing voice is maintained without change with time, the synthesized singing voice becomes a sustained state, and becomes a singing voice with an extended sound (for example, “Ah”). Therefore, a musical tone can be formed as a more natural singing voice.

【0046】また、本実施例では、ベロシティデータV
ELにより励振波形の振幅を制御し得るように乗算器2
3(図4参照)を設けたので、格子型フィルタ25−1
〜25−nで得られるフォルマント以外に、音質(口調
の強弱)を可変制御することも可能になる。
In this embodiment, the velocity data V
Multiplier 2 so that the amplitude of the excitation waveform can be controlled by EL
3 (see FIG. 4), the lattice type filter 25-1 is provided.
In addition to the formants obtained in 音 25-n, it is also possible to variably control the sound quality (tone intensity).

【0047】さらに、上述の実施例においては、ノート
オンする楽音に対応付けられた歌詞(一語)をMIDI
データのエクスクルーシブ・メッセージで定義するよう
にしたので、リアルタイムに歌声を発生させることが可
能になっている。
Further, in the above-described embodiment, the lyrics (one word) associated with the musical sound to be turned on are defined by MIDI.
Since it is defined by an exclusive message of data, it is possible to generate a singing voice in real time.

【0048】加えて、この実施例では、乗算器23によ
ってエンベロープ重畳させる構成としたので、残差Zが
係数乗算される以外に、ノートオン/オフで音量制御す
ることが可能になる。したがって、歌詞に対応させた歌
声の発音/消音を容易に制御できる。
In addition, in this embodiment, since the envelope is superimposed by the multiplier 23, the volume can be controlled by note-on / off in addition to the coefficient multiplication of the residual Z. Therefore, it is possible to easily control the pronunciation / silence of the singing voice corresponding to the lyrics.

【0049】なお、上述した実施例では、有声音をパー
コール合成するための励振源として音高周波数PFに対
応した周期のパルス列を出力するパルス発生器20を用
いたが、これに替えて、例えば図8に示す波形発生態様
としても良い。この図に示す波形発生態様は、音高周波
数PFに対応したピッチで、互いに波形が異なる波形
a,bを発生する波形発生器30,31と、乗算器3
2,33および加算器34からなり、波形a,bをベロ
シティデータVELに応じて内挿補間する補間器35と
から構成される。
In the above-described embodiment, the pulse generator 20 that outputs a pulse train having a period corresponding to the pitch frequency PF is used as an excitation source for percall-synthesizing a voiced sound. The waveform generation mode shown in FIG. 8 may be used. The waveform generation mode shown in the figure includes waveform generators 30 and 31 for generating waveforms a and b having different waveforms at a pitch corresponding to the pitch frequency PF, and a multiplier 3.
2 and 33 and an adder 34, and an interpolator 35 for interpolating the waveforms a and b according to the velocity data VEL.

【0050】こうした構成によれば、ベロシティデータ
VELに応じて波形aと波形bとを内挿補間するので、
ベロシティ値に応じて音色変化を与えることが可能にな
る。波形a,bの種類としては、三角波や異なるパルス
幅を持った波形等、倍音成分を多く含んだものが効果的
であり、上記以外では、例えば、ノートオンに対してデ
ィチューンを施した複数の波形信号を同時発生させて混
合することによって、コーラスにような音声合成も可能
になる。
According to such a configuration, the waveform a and the waveform b are interpolated according to the velocity data VEL.
It becomes possible to change the timbre according to the velocity value. As the types of the waveforms a and b, those containing many overtone components, such as a triangular wave and waveforms having different pulse widths, are effective. In addition to the above, for example, a plurality of detuned note-ons are used. By simultaneously generating and mixing these waveform signals, voice synthesis such as a chorus can be performed.

【0051】[0051]

【発明の効果】請求項1に記載の発明によれば、パラメ
ータ記憶手段に複数の音節毎の音声合成パラメータを記
憶しておき、楽曲情報発生手段が楽曲の各楽音を表わす
楽音情報および各楽音に対応付けられた歌詞を表わす発
声情報を発生すると、パラメータ発生手段が発声情報に
従って前記パラメータ記憶手段から歌詞に合致する音節
の音声合成パラメータを読み出す。そして、音声合成手
段は、パラメータ発生手段から出力される音声合成パラ
メータに基づき人声音を合成し、これを前記楽音情報に
従って歌声として発音するので、音声合成された人声音
を自然な歌声として楽音形成することができる。請求項
2に記載の発明によれば、前記パラメータ記憶手段は、
各音節毎の音声合成パラメータ中にデータ終端を表わす
識別子を備え、前記音声合成手段は、この識別子を検出
して音声合成パラメータがデータ終端に達したと判断し
た場合、合成中の歌声を持続発音するので、より一層自
然な歌声として楽音形成することができる。請求項3に
記載の発明によれば、前記音声合成手段は、合成した人
声音の音質を前記楽音情報に含まれるベロシティに応じ
て可変制御するので、口調の強弱などを表現することが
できる。請求項4に記載の発明によれば、前記パラメー
タ発生手段は、前記発声情報をMIDIデータのエクス
クルーシブ・メッセージで表現するため、極めて容易に
リアルタイムで歌声を発生させることができる。請求項
5に記載の発明によれば、前記音声合成手段は、前記楽
音情報に含まれるノートオン・ノートオフにより歌声の
発音・消音を制御するので、歌詞に対応させた歌声の発
音/消音を容易に制御することができる。
According to the first aspect of the present invention, the parameter storage means stores the speech synthesis parameters for each of a plurality of syllables, and the music information generating means stores the musical tone information representing each musical tone of the musical composition and each musical tone. When the utterance information indicating the lyrics associated with the lyric is generated, the parameter generating means reads out the speech synthesis parameters of the syllables matching the lyrics from the parameter storage means in accordance with the utterance information. The voice synthesis means synthesizes a human voice based on the voice synthesis parameter output from the parameter generation means and pronounces the voice as a singing voice in accordance with the musical tone information, so that the voice synthesized human voice is formed as a natural singing voice. can do. According to the second aspect of the present invention, the parameter storage means includes:
The speech synthesis parameter for each syllable is provided with an identifier indicating the end of the data. When the speech synthesis means detects this identifier and determines that the speech synthesis parameter has reached the end of the data, the singing voice being synthesized is continuously pronounced. Therefore, a musical tone can be formed as a more natural singing voice. According to the third aspect of the present invention, the voice synthesizer variably controls the sound quality of the synthesized human voice according to the velocity included in the musical tone information, so that it is possible to express the tone of the tone. According to the fourth aspect of the present invention, since the parameter generating means expresses the utterance information by an exclusive message of MIDI data, it is possible to extremely easily generate a singing voice in real time. According to the fifth aspect of the present invention, the voice synthesizing unit controls the singing / sounding of the singing voice according to the note-on / note-off included in the musical sound information. Can be easily controlled.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による楽音発生装置の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of a tone generator according to the present invention.

【図2】ノートナンバを音高周波数PFに変換する変換
テーブルTBLの内容を説明するための図である。
FIG. 2 is a diagram for explaining the contents of a conversion table TBL for converting a note number into a pitch frequency PF.

【図3】データROM8にデータベース登録される音声
合成パラメータのデータ構造を説明するための図であ
る。
FIG. 3 is a diagram for explaining a data structure of speech synthesis parameters registered in a database in a data ROM 8;

【図4】DSP9のパーコール合成アルゴリズムを示す
機能ブロック図である。
FIG. 4 is a functional block diagram showing a Parcall synthesis algorithm of the DSP 9;

【図5】メインルーチンの動作を示すフローチャートで
ある。
FIG. 5 is a flowchart showing an operation of a main routine.

【図6】MIDI処理ルーチンの動作を示すフローチャ
ートである。
FIG. 6 is a flowchart showing the operation of a MIDI processing routine.

【図7】タイマインタラプトルーチンの動作を示すフロ
ーチャートである。
FIG. 7 is a flowchart showing the operation of a timer interrupt routine.

【図8】パルス発生器20の変形例を示すブロック図で
ある。
FIG. 8 is a block diagram showing a modification of the pulse generator 20.

【符号の説明】 1 鍵盤部 2 パネルスイッチ群 3 表示部 4 CPU(パラメータ発生手段、音声合成手段) 5 ROM 6 RAM 7 MIDIインタフェース回路(楽曲情報発生手段) 8 データROM(パラメータ記憶手段) 9 DSP(音声合成手段) 10 RAM(音声合成手段) 11 D/A変換器 12 アンプ[Description of Signs] 1 keyboard unit 2 panel switch group 3 display unit 4 CPU (parameter generation unit, voice synthesis unit) 5 ROM 6 RAM 7 MIDI interface circuit (song information generation unit) 8 data ROM (parameter storage unit) 9 DSP (Speech synthesis means) 10 RAM (speech synthesis means) 11 D / A converter 12 Amplifier

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 5/04 G10H 7/00 513Z ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code Agency reference number FI Technical display location G10L 5/04 G10H 7/00 513Z

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数の音節毎の音声合成パラメータを記
憶するパラメータ記憶手段と、 楽曲の各楽音を表わす楽音情報および各楽音に対応付け
られた歌詞を表わす発声情報を発生する楽曲情報発生手
段と、 この楽曲情報発生手段が発生する発声情報に従って前記
パラメータ記憶手段から歌詞に合致する音節の音声合成
パラメータを読み出して出力するパラメータ発生手段
と、 このパラメータ発生手段が出力する音声合成パラメータ
に基づき合成した人声音を、前記楽音情報に従って歌声
として発音する音声合成手段とを具備することを特徴と
する楽音発生装置。
1. Parameter storage means for storing speech synthesis parameters for each of a plurality of syllables, music information generation means for generating musical tone information representing each musical tone of a musical composition and utterance information representing lyrics associated with each musical tone. A parameter generating means for reading out and outputting a voice synthesizing parameter of a syllable matching the lyrics from the parameter storage means in accordance with the utterance information generated by the music information generating means; A musical sound generating device comprising: a voice synthesizing unit that generates a human voice as a singing voice according to the musical sound information.
【請求項2】 前記パラメータ記憶手段は、各音節毎の
音声合成パラメータ中にデータ終端を表わす識別子を備
え、 前記音声合成手段は、この識別子を検出して音声合成パ
ラメータがデータ終端に達したと判断した場合、合成中
の歌声を持続発音することを特徴とする請求項1記載の
楽音発生装置。
2. The parameter storage means includes an identifier indicating the end of data in a speech synthesis parameter for each syllable. The speech synthesis means detects the identifier and determines that the speech synthesis parameter has reached the end of data. 2. The musical sound generator according to claim 1, wherein when it is determined, the singing voice being synthesized is continuously generated.
【請求項3】 前記音声合成手段は、合成した人声音の
音質を前記楽音情報に含まれるベロシティに応じて可変
制御することを特徴とする請求項1記載の楽音発生装
置。
3. The musical sound generating apparatus according to claim 1, wherein said voice synthesizing means variably controls the sound quality of the synthesized human voice according to the velocity included in the musical sound information.
【請求項4】 前記パラメータ発生手段は、前記発声情
報をMIDIデータのエクスクルーシブ・メッセージで
表現することを特徴とする請求項1記載の楽音発声装
置。
4. The musical sound uttering device according to claim 1, wherein said parameter generating means expresses said utterance information by an exclusive message of MIDI data.
【請求項5】 前記音声合成手段は、前記楽音情報に含
まれるノートオン・ノートオフにより歌声の発音・消音
を制御することを特徴とする請求項1記載の楽音発声装
置。
5. The musical sound producing apparatus according to claim 1, wherein said voice synthesizing means controls the pronunciation and mute of a singing voice by note-on note-off included in said musical sound information.
JP8184679A 1996-07-15 1996-07-15 Musical sound generating device Pending JPH1031496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8184679A JPH1031496A (en) 1996-07-15 1996-07-15 Musical sound generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8184679A JPH1031496A (en) 1996-07-15 1996-07-15 Musical sound generating device

Publications (1)

Publication Number Publication Date
JPH1031496A true JPH1031496A (en) 1998-02-03

Family

ID=16157476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8184679A Pending JPH1031496A (en) 1996-07-15 1996-07-15 Musical sound generating device

Country Status (1)

Country Link
JP (1) JPH1031496A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001097209A1 (en) * 2000-06-12 2001-12-20 Yamaha Corporation Terminal device, guide voice reproducing method and storage medium
JP2014164131A (en) * 2013-02-25 2014-09-08 Yamaha Corp Acoustic synthesizer
WO2016152715A1 (en) * 2015-03-20 2016-09-29 ヤマハ株式会社 Sound control device, sound control method, and sound control program
JP2017173606A (en) * 2016-03-24 2017-09-28 カシオ計算機株式会社 Electronic musical instrument, musical sound generation device, musical sound generation method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS638795A (en) * 1986-06-30 1988-01-14 松下電器産業株式会社 Electronic musical instrument
JPH04349497A (en) * 1991-05-27 1992-12-03 Yamaha Corp Electronic musical instrument
JPH07152386A (en) * 1993-11-29 1995-06-16 Sanyo Electric Co Ltd 'karaoke' device
JPH0895588A (en) * 1994-09-27 1996-04-12 Victor Co Of Japan Ltd Speech synthesizing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS638795A (en) * 1986-06-30 1988-01-14 松下電器産業株式会社 Electronic musical instrument
JPH04349497A (en) * 1991-05-27 1992-12-03 Yamaha Corp Electronic musical instrument
JPH07152386A (en) * 1993-11-29 1995-06-16 Sanyo Electric Co Ltd 'karaoke' device
JPH0895588A (en) * 1994-09-27 1996-04-12 Victor Co Of Japan Ltd Speech synthesizing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001097209A1 (en) * 2000-06-12 2001-12-20 Yamaha Corporation Terminal device, guide voice reproducing method and storage medium
JP2014164131A (en) * 2013-02-25 2014-09-08 Yamaha Corp Acoustic synthesizer
WO2016152715A1 (en) * 2015-03-20 2016-09-29 ヤマハ株式会社 Sound control device, sound control method, and sound control program
JP2016177276A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Pronunciation device, pronunciation method, and pronunciation program
US10354629B2 (en) 2015-03-20 2019-07-16 Yamaha Corporation Sound control device, sound control method, and sound control program
JP2017173606A (en) * 2016-03-24 2017-09-28 カシオ計算機株式会社 Electronic musical instrument, musical sound generation device, musical sound generation method and program

Similar Documents

Publication Publication Date Title
JP3985814B2 (en) Singing synthesis device
US5895449A (en) Singing sound-synthesizing apparatus and method
JP6569712B2 (en) Electronic musical instrument, musical sound generation method and program for electronic musical instrument
EP1701336B1 (en) Sound processing apparatus and method, and program therefor
JP2006215204A (en) Voice synthesizer and program
JP6733644B2 (en) Speech synthesis method, speech synthesis system and program
JP2879948B2 (en) Audio processing device
CN111696498A (en) Keyboard musical instrument and computer-implemented method of keyboard musical instrument
JP2564641B2 (en) Speech synthesizer
JPH10319947A (en) Pitch extent controller
JP2003345400A (en) Method, device, and program for pitch conversion
JP4757971B2 (en) Harmony sound adding device
JPH1031496A (en) Musical sound generating device
JP5360489B2 (en) Phoneme code converter and speech synthesizer
JPH10319993A (en) Data editing device
JP6801766B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP6835182B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP6819732B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP3233036B2 (en) Singing sound synthesizer
JP3265995B2 (en) Singing voice synthesis apparatus and method
JP2000010597A (en) Speech transforming device and method therefor
JPH04146473A (en) Electronic sound musical instrument
WO2022080395A1 (en) Audio synthesizing method and program
JP3540609B2 (en) Voice conversion device and voice conversion method
JP3294192B2 (en) Voice conversion device and voice conversion method