JPH1049192A - Singing sound synthesizer - Google Patents
Singing sound synthesizerInfo
- Publication number
- JPH1049192A JPH1049192A JP8215930A JP21593096A JPH1049192A JP H1049192 A JPH1049192 A JP H1049192A JP 8215930 A JP8215930 A JP 8215930A JP 21593096 A JP21593096 A JP 21593096A JP H1049192 A JPH1049192 A JP H1049192A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- phoneme
- sound source
- unvoiced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/471—General musical sound synthesis principles, i.e. sound category-independent synthesis methods
- G10H2250/481—Formant synthesis, i.e. simulating the human speech production mechanism by exciting formant resonators, e.g. mimicking vocal tract filtering as in LPC synthesis vocoders, wherein musical instruments may be used as excitation signal to the time-varying filter estimated from a singer's speech
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、歌詞データに基づ
いて対応する音素を発音し、当該歌詞を人声音で歌唱す
るようになされた歌唱音合成装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a singing sound synthesizing apparatus which generates corresponding phonemes based on lyrics data and sings the lyrics with human voices.
【0002】[0002]
【従来の技術】音声合成技術の一つとして、任意の語彙
の音声を合成することができる規則合成法が知られてい
る。この方法は、音素など短い長さの音声を単位として
その分析パラメータを蓄積しておき、該蓄積した音声デ
ータと規則によって音声合成器を駆動するのに必要な制
御信号を生成する方法である。2. Description of the Related Art As one of speech synthesis techniques, a rule synthesis method capable of synthesizing a speech of an arbitrary vocabulary is known. In this method, analysis parameters are stored in units of short-length sounds such as phonemes, and a control signal necessary for driving a voice synthesizer is generated based on the stored voice data and rules.
【0003】この規則合成法においては、PCM波形を
用いた方法がよく使用されている。一般に音声合成にお
いては、音素間の調音結合の実現と合成される音声の自
然さが大きな問題であるが、これらは、波形重畳法など
で使用される音素片を編集することによりうまく調音結
合ができるように処理をし、また、多くの波形を準備す
ることにより実現されている。In this rule synthesis method, a method using a PCM waveform is often used. Generally speaking, in speech synthesis, the realization of articulation coupling between phonemes and the naturalness of synthesized speech are major problems.However, these problems can be solved by editing the phonemic segments used in the waveform superposition method, etc. It is realized by processing as much as possible and preparing many waveforms.
【0004】また、フォルマント合成による音声合成方
式も知られている(特開平4−251297号公報など
を参照されたい)。この方式は、時系列的に変化するフ
ォルマントに関するパラメータデータを複数ステップに
わたって予め記憶している記憶手段と、音声を発声すべ
きときに前記記憶手段から前記パラメータデータを前記
複数ステップにわたって時系列的に読み出す読出手段
と、読み出された前記パラメータデータが入力され、該
パラメータデータに応じて決定されるフォルマント特性
を持つ楽音信号を合成するフォルマント合成手段とを備
え、音声信号のフォルマントを時系列的に変化させるも
のである。[0004] A speech synthesis method using formant synthesis is also known (see Japanese Patent Application Laid-Open No. Hei 4-251297). This method includes a storage unit that previously stores parameter data relating to a formant that changes in a time series over a plurality of steps, and the parameter data from the storage unit when a voice is to be uttered in a time series over the plurality of steps. Reading means for reading, and formant synthesizing means for receiving the read-out parameter data and synthesizing a tone signal having a formant characteristic determined according to the parameter data. To change it.
【0005】一方、最近では、このような規則合成法を
音楽に適用し、歌詞データに基づいて自然な歌唱音を合
成出力する歌唱音合成装置(シンギングシンセサイザ)
も提案されている(特願平7−218241号)。On the other hand, recently, such a rule synthesis method is applied to music, and a singing sound synthesizer (singing synthesizer) that synthesizes and outputs a natural singing sound based on lyrics data.
Has also been proposed (Japanese Patent Application No. 7-218241).
【0006】[0006]
【発明が解決しようとする課題】前述のような歌唱音合
成装置(シンギングシンセサイザ)に、PCM波形を使
用した規則合成法を採用する場合には、使用するデータ
量が多くなること、声質変換が容易ではないこと、ピッ
チの変化幅が大きい場合にそれに追従することが困難な
ことなどの問題点がある。When a singing sound synthesizer (singing synthesizer) as described above employs a rule synthesizing method using a PCM waveform, a large amount of data is used, and voice quality conversion is not performed. It is not easy, and it is difficult to follow a large change in pitch.
【0007】また、フォルマント合成による場合には、
スムーズな調音結合が可能であること、使用するデータ
量が少ないこと、ピッチの変化幅を大きくとることがで
きることなど、前記PCM波形を用いる場合よりも利点
があるものの、認識率すなわち合成音の自然さでは前述
したPCM方式よりも劣っている。特に、自然な無声子
音をフォルマント合成により発声させることは困難であ
った。In the case of formant synthesis,
Although smooth articulation is possible, the amount of data used is small, and the width of change in pitch can be made large, there are advantages over the case of using the PCM waveform, but the recognition rate, that is, the naturalness of synthesized speech This is inferior to the PCM method described above. In particular, it has been difficult to produce natural unvoiced consonants by formant synthesis.
【0008】そこで、本発明は、より自然な歌声を発声
することができる歌唱音合成装置を提供することを目的
としている。Accordingly, it is an object of the present invention to provide a singing sound synthesizing apparatus capable of producing a more natural singing voice.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するため
に、本発明の歌唱音合成装置は、有声音を生成する有声
音成分音源グループと無声音を生成する無声音成分音源
グループとを有するフォルマント合成音源部と、無声子
音に対応する音声波形が格納された波形メモリを有する
PCM音源部と、当該楽曲の歌詞に対応した歌唱データ
を記憶する記憶部と、各音韻を発声するための音韻パラ
メータと先行音韻と後続音韻との調音結合のための調音
結合パラメータとが記憶された音韻データベースと、制
御部とを有する歌唱音合成装置であって、前記制御部
は、前記歌唱データに基づいて前記音韻データベースか
ら対応する音韻パラメータと調音結合パラメータとを読
み出し、該読み出した音韻パラメータおよび調音結合パ
ラメータに基づいて前記フォルマント合成音源部および
前記PCM音源部に対し制御信号を供給するものとされ
ている。In order to achieve the above object, a singing sound synthesizer according to the present invention comprises a formant synthesis having a voiced component sound source group for generating voiced sound and an unvoiced component sound source group for generating unvoiced sound. A sound source unit, a PCM sound source unit having a waveform memory in which a speech waveform corresponding to an unvoiced consonant is stored, a storage unit for storing singing data corresponding to the lyrics of the music, and a phonological parameter for uttering each phoneme. A singing sound synthesizing device, comprising: a phonological database in which an articulation combination parameter for articulation coupling of a preceding phonology and a succeeding phonology is stored; and Reading corresponding phonological parameters and articulation coupling parameters from the database, based on the read phonological parameters and articulation coupling parameters; It is intended to supply a control signal to the serial formant synthesis sound source unit and the PCM tone generator.
【0010】また、前記歌唱データあるいは前記音韻パ
ラメータ中に、当該音韻を生成すべき音源部を指定する
音源指定データが格納されており、前記制御部は前記制
御信号を該音源指定データにより指定された音源部に供
給するようになされているものである。さらに、前記波
形メモリに格納された音声波形を分析することにより得
られた音韻パラメータおよび調音結合パラメータが前記
音韻データベースに記憶されており、発声すべき音韻が
無声子音であるとき、前記PCM音源部と前記無声音成
分音源グループの両者において該無声子音の発声処理を
実行させるとともに、前記無声音成分音源グループから
の合成出力は外部に出力させないようにして、該無声子
音から後続する有声音への調音結合をスムーズに行なう
ようになされているものである。さらにまた、有声音と
同時に出力される無声音は前記無声音成分音源グループ
を用いて発声させるようになされているものである。In the singing data or the phonological parameters, sound source specifying data for specifying a sound source unit for generating the phoneme is stored, and the control unit specifies the control signal by the sound source specifying data. This is supplied to the sound source section. Further, phoneme parameters and articulation combination parameters obtained by analyzing the speech waveform stored in the waveform memory are stored in the phoneme database. When the phoneme to be uttered is an unvoiced consonant, the PCM sound source section And the unvoiced consonant sound source group performs voicing processing of the unvoiced consonant, and the synthesized output from the unvoiced consonant sound source group is not output to the outside, so that articulation coupling from the unvoiced consonant to the subsequent voiced sound is performed. Is performed smoothly. Still further, the unvoiced sound output simultaneously with the voiced sound is uttered using the unvoiced sound source group.
【0011】[0011]
【発明の実施の形態】図1は、本発明の歌唱音合成装置
のシステム構成の一例を示す図である。この図におい
て、10は装置全体の制御を行う中央処理装置(CP
U)、11は制御プログラムや後述する音韻データベー
スなど各種のデータなどが格納されているROM、12
はワーク領域および各種のバッファなどとして使用され
るRAM、13は歌唱データや伴奏データなどからなる
ソングデータが格納されるデータメモリであり、半導体
メモリのほか、フロッピーディスク装置、ハードディス
ク装置、MOディスク装置、ICメモリカードなどの各
種メディアをこのデータメモリとして使用することがで
きる。また、14は機器の動作状態や入力データおよび
操作者に対するメッセージなどを表示するための表示
部、15は鍵盤などからなる演奏操作子、16は操作つ
まみや操作ボタンなどの各種設定操作子である。FIG. 1 is a diagram showing an example of the system configuration of a singing sound synthesizer according to the present invention. In this figure, reference numeral 10 denotes a central processing unit (CP) for controlling the entire apparatus.
U) and 11 are ROMs storing various data such as a control program and a phonological database described later.
RAM is used as a work area and various buffers, and 13 is a data memory for storing song data including singing data and accompaniment data. In addition to a semiconductor memory, a floppy disk device, a hard disk device, an MO disk device And various media such as an IC memory card can be used as the data memory. Reference numeral 14 denotes a display unit for displaying the operating state of the device, input data, a message to the operator, and the like. Reference numeral 15 denotes a performance operator including a keyboard. Reference numeral 16 denotes various setting operators such as operation knobs and operation buttons. .
【0012】20は音源部であり、図示するようにフォ
ルマント合成音源部(FORMANT TG)とPCM音源部23
(PCM TG)とが設けられている。このフォルマント合成
音源部は図示するように、ピッチを持つ有声音フォルマ
ント成分を生成する複数の音源VTG1〜nからなる有
声音成分音源(VTG)グループ21と、母音に含まれ
るノイズ的成分や無声音フォルマント成分を生成する複
数の音源UTG1〜nからなる無声音成分音源(UT
G)グループ22とからなっている。そして、生成する
音韻にそれぞれ対応するフォルマント数分のVTGおよ
びUTGを組み合わせて、各成分を生成させるようにな
されている。なお、前記各音源は楽音の発生も行うこと
ができ、音声のための発音チャンネルとして割り当てら
れていない音源は、楽音の発生に割り当てることができ
るものである。Reference numeral 20 denotes a sound source section, as shown in the figure, a formant synthesis sound source section (FORMANT TG) and a PCM sound source section 23.
(PCM TG). As shown, the formant synthesis sound source unit includes a voiced component sound source (VTG) group 21 including a plurality of sound sources VTG1 to VTGn that generate voiced sound formant components having a pitch, a noise component included in a vowel, and an unvoiced sound formant. Unvoiced sound component sound source (UT) composed of a plurality of sound sources UTG1 to UTG for generating components
G) Group 22. Then, each component is generated by combining VTGs and UTGs corresponding to the number of formants corresponding to the respective phonemes to be generated. Each of the sound sources can also generate a tone, and a sound source that is not assigned as a sound channel for sound can be assigned to generate a tone.
【0013】18は音源部20から出力されるデータを
デジタルアナログ変換するD/A変換器であり、この出
力は、図示しないサウンドシステムにおいて増幅され、
放音されることとなる。また、19は装置内各部の間の
データ転送を行うためのバスである。Reference numeral 18 denotes a D / A converter for converting the data output from the sound source section 20 into a digital-to-analog signal. This output is amplified by a sound system (not shown).
Sound will be emitted. Reference numeral 19 denotes a bus for performing data transfer between each unit in the apparatus.
【0014】図2に前記音源部20の構成を示す。ここ
では、前記有声音成分音源(VTG)グループ21はj
個の音源VTG1〜jからなっており、前記無声音成分
音源(UTG)グループ22はk個の音源UTG1〜k
からなっているものとしてある。なお、このようなフォ
ルマント合成音源部は本出願人により既に提案されてい
る(特開平3−200300号公報)。また、この音源
部は、CPUによって音源プログラムを実行させるこ
と、即ち、ソフトウエアで置き換えることも可能であ
る。なお、前記VTGグループ21の各音源の具体的構
成は例えば特開平2−254497号公報に記載されて
いるように構成されており、また、前記UTGグループ
22の各音源の具体的構成例は例えば特開平4−346
502号公報に記載されているように構成されている。FIG. 2 shows the configuration of the sound source section 20. Here, the voiced sound component sound source (VTG) group 21 is j
The unvoiced sound component sound source (UTG) group 22 includes k sound sources UTG1 to KTG.
It is made up of Note that such a formant synthesis sound source section has already been proposed by the present applicant (Japanese Patent Laid-Open No. 3-200300). Further, this sound source section can be executed by a CPU to execute a sound source program, that is, it can be replaced by software. The specific configuration of each sound source of the VTG group 21 is configured, for example, as described in JP-A-2-254497, and a specific configuration example of each sound source of the UTG group 22 is, for example, JP-A-4-346
No. 502 is configured.
【0015】このように構成されたフォルマント合成音
源部において、有声音フォルマントを生成するVTGグ
ループ21の各音源VTG1〜jは、当該有声音フォル
マントの特徴的なj個の部分をそれぞれ分担して発生す
る。すなわち、各音源VTG1〜jは、CPU10から
印加されるフォルマント発音開始指示信号FKONによ
りその動作が開始され、CPU10から有声音フォルマ
ントデータVOICED FORMANT DATA として供給される、フ
ォルマント中心周波数データ、フォルマント形状デー
タ、フォルマントレベルデータなどにより、各音源VT
Gが担当しているフォルマントの構成と特性(主に振幅
と周波数)が制御されるものであり、これら各VTG1
〜jからのフォルマント出力を合成することにより、当
該音韻の有声音部分が生成されるものである。また、各
音源VTG1〜4のピッチ周波数を制御することによ
り、発生される音韻の音高が制御される。In the formant synthesized sound source section configured as described above, the sound sources VTG1 to VTGj of the VTG group 21 for generating voiced sound formants are generated by sharing j characteristic parts of the voiced sound formants. I do. That is, each of the sound sources VTG1 to j starts its operation in response to a formant sounding start instruction signal FKON applied from the CPU 10, and supplies formant center frequency data and formant shape data supplied as voiced formant data VOICED FORMANT DATA from the CPU 10. Each sound source VT by formant level data
The configuration and characteristics (mainly, amplitude and frequency) of the formant in charge of G are controlled.
The voiced portion of the phoneme is generated by synthesizing the formant outputs from ~ j. Also, by controlling the pitch frequency of each of the sound sources VTG1 to VTG4, the pitch of the generated phoneme is controlled.
【0016】一方、無声音フォルマントを生成するUT
Gグループ22の各音源UTG1〜kは、当該音韻のノ
イズ的成分や無声音フォルマント成分などを分担して発
音する。すなわち、各音源UTG1〜kは、前記フォル
マント発音開始指示信号FKONによりその動作が開始
され、CPU10から供給される無声音フォルマントデ
ータUNVOICED FORMANT DATA に含まれている各パラメー
タにより、音源により発音したホワイトノイズにそれぞ
れが分担している帯域通過特性あるいはフォルマント特
性を付加して出力する。そして、これら各UTG1〜k
からの出力を合成することにより、当該音声のノイズ的
成分や無声音フォルマント成分が生成されるものであ
る。On the other hand, a UT for generating an unvoiced sound formant
Each of the sound sources UTG1 to UTG of the G group 22 emits a noise component or an unvoiced sound formant component of the phoneme. That is, each of the sound sources UTG1 to Uk starts its operation by the formant sounding start instruction signal FKON, and generates white noise generated by the sound source according to each parameter included in the unvoiced sound formant data UNVOICED FORMANT DATA supplied from the CPU 10. The band pass characteristic or formant characteristic assigned to each is added and output. And each of these UTG1 to k
By synthesizing the outputs from the above, a noise-like component and an unvoiced sound formant component of the voice are generated.
【0017】また、前記PCM音源23は波形メモリ2
4を有しており、該波形メモリ24には特定歌唱者の各
種無声子音の音声波形が格納されている。そして、前記
CPU10から供給されるPCM発音開始指示信号PCMK
ONによりその動作が開始され、CPU10から供給され
るPCMフォルマントデータPCM FORMANT DATAにより指
定された無声子音の波形を波形メモリ24から順次指定
されたタイミングで読み出し、無声子音の波形が再生さ
れる。The PCM sound source 23 has a waveform memory 2
The waveform memory 24 stores the voice waveforms of various unvoiced consonants of a specific singer. Then, the PCM tone generation start instruction signal PCMK supplied from the CPU 10
When the signal is turned on, the operation is started. The waveform of the unvoiced consonant specified by the PCM formant data PCM FORMANT DATA supplied from the CPU 10 is sequentially read from the waveform memory 24 at the specified timing, and the waveform of the unvoiced consonant is reproduced.
【0018】このように構成されたVTGグループ2
1、UTGグループ22およびPCM音源23からの出
力は、混合器25において加算されて出力される。The VTG group 2 configured as described above
1. The outputs from the UTG group 22 and the PCM sound source 23 are added in the mixer 25 and output.
【0019】一般に、前記フォルマント合成音源部のV
TGグループ21およびUTGグループ22の各音源に
供給されるパラメータ(VOICED FORMANT DATA およびUN
VOICED FORMANT DATA )は、いずれも、実際に人間によ
り発声された自然音声波形を分析することにより得てい
る。そこで、本発明においては、無声子音については前
記PCMTG23中の波形メモリ24に自然音声波形を
そのまま記憶し、それを分析することにより得られたパ
ラメータを辞書(後述する音韻データベース)中に格納
しておく。また、その他の音韻(母音および有声子音)
に対しては、自然波形を記憶することなく分析して得ら
れたパラメータを辞書中に格納するようにしている。Generally, the V of the formant synthesis sound source section
Parameters supplied to each sound source of the TG group 21 and the UTG group 22 (VOICED FORMANT DATA and UN
VOICED FORMANT DATA) is obtained by analyzing a natural voice waveform actually uttered by a human. Therefore, in the present invention, for unvoiced consonants, the natural voice waveform is stored as it is in the waveform memory 24 in the PCMTG 23, and the parameters obtained by analyzing it are stored in a dictionary (a phoneme database described later). deep. Other phonemes (vowels and voiced consonants)
For, parameters obtained by analysis without storing natural waveforms are stored in a dictionary.
【0020】また、発音時間中、子音から母音に変化す
るときなどに、発生するフォルマントを連続的に変化さ
せることが自然な音声として聞こえるために重要であ
る。したがって、前述したフォルマント中心周波数、フ
ォルマントレベル、フォルマント帯域幅およびピッチ周
波数などの各パラメータを、所定時間間隔で(例えば、
数ミリ秒程度の間隔で)、制御部であるCPU10から
逐次送出して制御すること、あるいは、各音源に含まれ
ているエンベロープジェネレータにより前記各パラメー
タを逐次制御させることが行われる。It is important to continuously change the formants that occur when a consonant changes to a vowel during a sounding time so that the sound can be heard as a natural sound. Therefore, each parameter such as the above-described formant center frequency, formant level, formant bandwidth, and pitch frequency is changed at predetermined time intervals (for example,
At intervals of about several milliseconds), control is performed by sequentially transmitting the parameters from the CPU 10 serving as a control unit, or the parameters are sequentially controlled by an envelope generator included in each sound source.
【0021】本発明においては、前述のように無声子音
についてはその自然音声波形を波形メモリ24中に格納
しているため、無声子音を発声するときには該波形メモ
リ24内に格納されている波形サンプルを読み出してP
CMTG23からそのまま出力するとともに、該波形サ
ンプルから分析されたパラメータを使用して前記無声音
成分音源グループ(UTGグループ)22においても、
該無声子音を同時に発生させている。ただし、このUT
Gグループ22において発声された無声子音については
その出力レベルを0として実際に出力されないようにし
ている。そして、この無声子音から後続する有声音(母
音)へのフォルマント周波数の遷移に従って有声音フォ
ルマントを生成するVTGグループ21の発音を開始さ
せるようにしている。したがって、先行音韻と後続音韻
との結合部において、前記PCMTG23から発声され
る無声子音とVTGグループ21において発声される後
続の母音とが重なり合って出力され、スムーズな子音か
ら母音への遷移を実現することができるとともに、高品
質の無声子音の発声を行なうことが可能となる。In the present invention, the natural voice waveform of an unvoiced consonant is stored in the waveform memory 24, as described above. Therefore, when an unvoiced consonant is uttered, the waveform sample stored in the waveform memory 24 is used. And read P
The unvoiced sound component sound source group (UTG group) 22 directly outputs from the CMTG 23 and uses the parameters analyzed from the waveform sample.
The unvoiced consonants are simultaneously generated. However, this UT
The output level of the unvoiced consonant uttered in the G group 22 is set to 0 so that it is not actually output. Then, according to the transition of the formant frequency from the unvoiced consonant to the following voiced sound (vowel), the VTG group 21 that generates the voiced sound formant starts to sound. Therefore, at the connection between the preceding phoneme and the subsequent phoneme, the unvoiced consonant uttered from the PCMTG 23 and the subsequent vowel uttered in the VTG group 21 are output in an overlapping manner, and a smooth transition from the consonant to the vowel is realized. And high-quality unvoiced consonants can be uttered.
【0022】このような楽音の発生時における各フォル
マントの推移について、図3を参照して説明する。図3
において横軸は時間を示しており、この図に示したの
は、一つの音符、この場合には2分音符に対応して、
「sagai」という音声を発声させる場合の各フォル
マント周波数の推移およびフォルマント出力レベルの推
移を示している。ここでは、有声音発声部および無声音
発声部ともに4つのフォルマント周波数f1〜f4を有
しているものとしている。The transition of each formant when such a musical tone is generated will be described with reference to FIG. FIG.
, The horizontal axis indicates time, and this figure shows one note, in this case, a half note,
The transition of each formant frequency and the transition of the formant output level when the voice “sagai” is uttered are shown. Here, it is assumed that both the voiced sound utterance part and the unvoiced sound utterance part have four formant frequencies f1 to f4.
【0023】図中(1)は前記2分音符に対応する期間
を示し、(2)は前記生成される各音韻の発声期間を示
している。(3)は前記有声音フォルマントおよび無声
音フォルマントのそれぞれ4つのフォルマント周波数f
1〜f4の推移を示しており、図中vは有声音フォルマ
ント、uは無声音フォルマントであることを表わしてい
る。また、(4)は前記無声音フォルマントの出力レベ
ルを示しており、(5)は前記有声音フォルマントの出
力レベルを示している。さらに、(6)は前記PCM音
源23から出力される音韻波形を示している。さらにま
た、(7)は前記VTGグループ21およびUTGグル
ープ22に対して発音開始を指示するFKON信号を示
し、(8)は前記PCMTG23に対して供給されるP
CM発音開始指示信号PCMKONを示している。なお、この
図においては、前記PCM発音開始指示信号PCMKONは当
該無声子音の発音期間中継続する信号とされているが、
この信号を波形メモリの読み出しを開始させるためのト
リガとなる短パルス信号とし、該トリガ信号が入力され
たときに当該波形サンプルを最後まで読み出すように構
成することもできる。In the figure, (1) shows a period corresponding to the half note, and (2) shows a utterance period of each generated phoneme. (3) shows four formant frequencies f of the voiced sound formant and the unvoiced sound formant, respectively.
The transition from 1 to f4 is shown, in which v represents a voiced sound formant and u represents an unvoiced sound formant. (4) indicates the output level of the unvoiced sound formant, and (5) indicates the output level of the voiced sound formant. (6) shows a phoneme waveform output from the PCM sound source 23. Further, (7) shows an FKON signal for instructing the VTG group 21 and the UTG group 22 to start sounding, and (8) shows a PKON signal supplied to the PCMTG 23.
The CM sounding start instruction signal PCMKON is shown. In this figure, the PCM sounding start instruction signal PCMKON is a signal that continues during the sounding period of the unvoiced consonant.
This signal may be configured as a short pulse signal serving as a trigger for starting reading of the waveform memory, and the waveform sample may be read to the end when the trigger signal is input.
【0024】さて、前記2分音符に対応して「saga
i」という音声を発声させるときには、図示するよう
に、まず、キーオン信号(KON)に基づいて、(7)
のFKON信号と(8)のPCMKON信号が立ち上がる。こ
れに基づいて、前記VTGグループ21、UTGグルー
プ22およびPCMTG23が起動される。最初に発音
されるのは、無声子音の「s」であるため、前記PCM
TG23から該「s」に対応する波形サンプルが読み出
され、(6)に示すように出力される。このとき、前記
UTGグループ22においても、図示するように、その
第1フォルマントf1〜第4フォルマントf4がそれぞ
れ所定の周波数とされ発音処理が実行されるが、このと
きのuレベルは(4)に示すように0とされているた
め、このUTGグループ22からの音韻は出力されな
い。また、この期間においてはVTGグループ21の各
TGからはフォルマント周波数が発生されず、また、
(5)に示すようにvレベルも0とされている。Now, corresponding to the half note, "saga
When the voice "i" is uttered, first, as shown in the figure, based on the key-on signal (KON), (7)
Signal FKON and PCMKON signal (8) rise. Based on this, the VTG group 21, UTG group 22, and PCMTG 23 are activated. The first to be pronounced is the unvoiced consonant "s", so the PCM
The waveform sample corresponding to the "s" is read from the TG 23 and output as shown in (6). At this time, also in the UTG group 22, as shown in the figure, the first formant f1 to the fourth formant f4 are set to predetermined frequencies, respectively, and sound generation processing is executed. At this time, the u level becomes (4). As shown, the phoneme from the UTG group 22 is not output. In this period, no formant frequency is generated from each TG of the VTG group 21.
The v level is also set to 0 as shown in (5).
【0025】次に、前記「s」の発音が終了に近づき、
つぎに発音する「a」との遷移部になると、(1)に示
すように、VTGグループ21の各フォルマント周波数
f1〜f4が「s」から「a」への変化に対応するよう
に発生され始め、これに伴い、(5)に示すように、v
レベルが徐々に立ち上がってくる。Next, the pronunciation of the "s" approaches the end,
At the next transition to the pronounced "a", as shown in (1), each formant frequency f1 to f4 of the VTG group 21 is generated so as to correspond to a change from "s" to "a". At first, along with this, as shown in (5), v
The level gradually rises.
【0026】そして、前記「s」の発音が終了し、
「a」のみが発音される時間となると、(8)のPCMKON
がローレベルレベルとなり、前記PCMTG23の動作
が終了される。また、前記(3)に示すように、UTG
グループ22における各UTGのフォルマントの発生は
停止され、VTGグループ21における各VTGによる
第1〜第4フォルマント周波数が発生される。このと
き、(5)に示すように、vレベルが大きな値とされて
いる。なお、このときに発生される音韻がノイズ的成分
を含むような音韻である場合には、(4)に破線で示す
ようにUTGグループ22からもフォルマント成分を発
生させ、前記VTGグループ21により発生される音韻
と重畳して出力させることもできる。Then, the pronunciation of the "s" ends,
When it is time to pronounce only "a", (8) PCMKON
Goes to a low level, and the operation of the PCMTG 23 ends. Also, as shown in the above (3), UTG
The generation of the formants of each UTG in the group 22 is stopped, and the first to fourth formant frequencies by the respective VTGs in the VTG group 21 are generated. At this time, as shown in (5), the v level is set to a large value. If the phoneme generated at this time is a phoneme containing a noise component, a formant component is also generated from the UTG group 22 as shown by the broken line in (4), and the VTG group 21 generates the formant component. The output can be superimposed on the phoneme to be output.
【0027】次に前記「a」の発音が終了に近づくと、
「g」への遷移に対応するように前記UTGグループ2
2の発音が開始される。そして、これに伴い(4)に示
すようにuレベルが立ち上がり始める。また、これに対
応して(5)に示すようにvレベルは徐々に低下する。Next, when the pronunciation of "a" approaches the end,
UTG group 2 to correspond to the transition to “g”
The pronunciation of No. 2 is started. Then, the u level starts to rise as shown in (4). In addition, the v level gradually decreases as shown in (5).
【0028】次に、前記「a」から「g」への過渡期が
終了して、「g」が発音される期間になると、前記UT
Gグループ22は該「g」を発音するためのフォルマン
ト周波数となる。また、「g」は無声音成分だけではな
く有声音成分も含む音韻であるため、前記VTGグルー
プ21も該「g」に対応するフォルマントとされる。す
なわち、図示するようにこの期間においては、VTGグ
ループ21およびUTGグループ22の両方から有声音
成分と無声音成分とが発生される。このとき、(4)に
示すようにuレベルは大きな値とされ、また、(5)に
示すvレベルも所定の値とされている。Next, when the transition period from “a” to “g” ends and a period in which “g” is generated is reached, the UT
The G group 22 is a formant frequency for generating the “g”. Since “g” is a phoneme that includes not only unvoiced sound components but also voiced sound components, the VTG group 21 is also a formant corresponding to the “g”. That is, as shown, in this period, both the VTG group 21 and the UTG group 22 generate a voiced sound component and an unvoiced sound component. At this time, the u level is a large value as shown in (4), and the v level is also a predetermined value as shown in (5).
【0029】次に、「g」の発音が終了に近づくと、
(3)に示すように、前記VTGグループ21のフォル
マント周波数f1〜f4は「g」から「a」への遷移に
対応するように変化され、(4)のuレベルは徐々に低
下し、(5)のvレベルは徐々に大きくなる。Next, when the pronunciation of "g" approaches the end,
As shown in (3), the formant frequencies f1 to f4 of the VTG group 21 are changed so as to correspond to the transition from “g” to “a”, the u level in (4) gradually decreases, and The v level in 5) gradually increases.
【0030】次に、「g」の発音が終了し、「a」が発
音される期間になると、前記UTGグループ22におけ
るフォルマント周波数の発生は停止され、前記VTGグ
ループ21の各音源が「a」に対応する第1〜第4のフ
ォルマント周波数を発生する状態となる。これに応じ
て、前記(4)のuレベルは減衰され、(5)のvレベ
ルは大きなレベルとされる。Next, when the sounding of "g" is finished and the period of sounding of "a" comes, the generation of the formant frequency in the UTG group 22 is stopped, and each sound source of the VTG group 21 is set to "a". (1) to (4) are generated. Accordingly, the u level in (4) is attenuated, and the v level in (5) is increased.
【0031】続いて、「a」から「i」への接続部にな
ると、前記VTGグループ21の各フォルマント周波数
f1〜f4は「a」のフォルマント周波数から「i」の
フォルマント周波数にスムーズに結合されるように変化
される。また、(5)のvレベルも同様に「a」に対応
するレベルから「i」のレベルに変化される。Subsequently, at the connection from "a" to "i", the formant frequencies f1 to f4 of the VTG group 21 are smoothly coupled from the "a" formant frequency to the "i" formant frequency. Is changed as follows. Similarly, the v level in (5) is changed from the level corresponding to “a” to the level of “i”.
【0032】次いで、「i」の期間となり、図示するよ
うに前記VTGグループ21の各音源により「i」に対
応する第1〜第4のフォルマント周波数が安定して発生
される。また、(5)のvレベルも一定の状態とされ
る。Next, the period of "i" is reached, and as shown in the figure, the first to fourth formant frequencies corresponding to "i" are stably generated by each sound source of the VTG group 21. Further, the v level in (5) is also kept constant.
【0033】続いて、前記(1)の音符の発音期間が終
了すると、前記(7)のFKON信号がローレベルとな
り、前記(5)のvレベルが所定の減衰曲線をもって0
レベルとされる。これにより、この音符に対応する音韻
の発生が終了される。このようにして、有線音フォルマ
ント合成VTGグループ21、無声音フォルマント合成
UTGグループおよびPCMTGを用いて、一つの音符
に対応する音韻の発生が行なわれる。Subsequently, when the sounding period of the note of (1) ends, the FKON signal of (7) goes low, and the v level of (5) becomes 0 with a predetermined attenuation curve.
Level. Thus, the generation of the phoneme corresponding to the note ends. In this manner, using the wired sound formant synthesis VTG group 21, the unvoiced sound formant synthesis UTG group, and the PCMTG, a phoneme corresponding to one note is generated.
【0034】次に、本発明の歌唱音合成装置において上
述したような動作を実行させるために使用される各種デ
ータについて説明する。図4の(a)は、前記ROM1
1のメモリマップの一例を示す図であり、図示するよう
に、このROM11内にはCPUプログラムと音韻デー
タベースPHDBとが格納されている。CPUプログラ
ム部には、この装置全体の制御を行なうための制御プロ
グラムや後述する歌唱発生処理を実行するためのプログ
ラムなど各種の処理プログラムが格納されている。Next, various data used to execute the above-described operation in the singing sound synthesizer of the present invention will be described. FIG. 4A shows the ROM 1
1 is a diagram showing an example of a memory map of FIG. 1, and a ROM 11 stores a CPU program and a phoneme database PHDB as shown in FIG. The CPU program section stores various processing programs such as a control program for controlling the entire apparatus and a program for executing a singing generation process described later.
【0035】また、音韻データベースPHDBは、音韻
データ部と調音結合データ部とからなり、音韻データ部
には各音韻(母音および子音)を合成するための各種パ
ラメータPHPAR[*]が各音韻別に格納されており、調音結
合データ部には無声音から有声音あるいは有声音から無
声音に移行する際の調音結合(特に、フォルマント周波
数遷移)を行なうための各種パラメータPHCOMB[1-2] が
先行音韻と後続音韻の組ごとに格納されている。The phoneme database PHDB comprises a phoneme data section and an articulation combination data section. In the phoneme data section, various parameters PHPAR [*] for synthesizing each phoneme (vowel and consonant) are stored for each phoneme. In the articulation combination data section, various parameters PHCOMB [1-2] for performing articulation combination (particularly, formant frequency transition) when transitioning from unvoiced sound to voiced sound or from voiced sound to unvoiced sound are included in the preceding and succeeding phonemes. Stored for each phoneme set.
【0036】図4の(b)に前記音韻データPHPAR[*]の
構成を示す。この図に示すように、音韻データPHPAR[*]
は、その音韻を発生するためにPCMTGを用いて発声
するかフォルマント合成により発声するかを指定する音
源指定データTGSEL 、PCM音源による場合にその音韻
に対応する波形サンプルを指定するための波形指定デー
タPCMWAVE 、PCM音源による場合におけるその出力レ
ベルを指定するためのPCMレベルデータPCMLEVEL、こ
の音韻を発生するための各フォルマントの形状を指定す
るFSHAPE、第1〜第4の各有声音フォルマントの中心周
波数をそれぞれ指定するVF FREQ1〜VF FREQ4、第1〜第
4の各無声音フォルマントの中心周波数をそれぞれ指定
するUF FREQ1〜UF FREQ4、第1〜第4の各有声音フォル
マントの出力レベルVF LEVEL1 〜VF LEVEL4 、第1〜第
4の各無声音フォルマントの出力レベルUF LEVEL1 〜UF
LEVEL4 の各データからなっており、この音韻データPH
PAR[*]がそれぞれの音韻別に格納されている。FIG. 4B shows the structure of the phoneme data PHPAR [*]. As shown in this figure, phoneme data PHPAR [*]
Is sound source specification data TGSEL for specifying whether to utter using PCMTG or formant synthesis to generate the phoneme, and waveform specification data for specifying a waveform sample corresponding to the phoneme when a PCM sound source is used. PCMWAVE, PCM level data PCMLEVEL for specifying the output level in the case of a PCM sound source, FSHAPE for specifying the form of each formant for generating this phoneme, and the center frequency of each of the first to fourth voiced sound formants VF FREQ1 to VF FREQ4 to specify respectively, UF FREQ1 to UF FREQ4 to specify the center frequency of each of the first to fourth unvoiced sound formants, and output levels VF LEVEL1 to VF LEVEL4 of each of the first to fourth voiced sound formants, Output levels UF LEVEL1 to UF of first to fourth unvoiced sound formants
It is composed of LEVEL4 data.
PAR [*] is stored for each phoneme.
【0037】図4の(c)は前記調音結合データPHCOMB
[1-2] の構成を示す図である。この調音結合データPHCO
MB[1-2] は1で示す先行音韻から2で示す後続音韻への
わたりの部分のフォルマントの変化を示すデータであ
り、図に示すように、先行音韻の有声音の振幅の下降特
性を指定するVF LEVEL CURVE1 、先行音韻の無声音の振
幅下降特性を指定するUF LEVEL CURVE1 、わたりの期間
における後続音韻の有声フォルマントの周波数変化特性
を指定するVF FREQ CURVE2、わたりの期間における後続
音韻の無声フォルマントの周波数変化特性を指定するUF
FREQ CURVE2、後続音韻の有声音の出力レベルの立上り
特性を指定するVF LEVEL CURVE2 、後続音韻の無声音の
出力レベルの立上り特性を指定するUF LEVEL CURVE2 、
先行音韻がなく、いきなり後続音韻から立ち上がる場合
における後続音韻の各フォルマント周波数の初期値であ
るVF INIT FREQ1 〜VF INIT FREQ4 およびUF FREQ1〜UF
FREQ4の各データが格納されている。FIG. 4C shows the articulation combination data PHCOMB.
FIG. 2 is a diagram showing a configuration of [1-2]. This articulation combined data PHCO
MB [1-2] is data indicating a change in formant in a portion extending from a preceding phoneme indicated by 1 to a subsequent phoneme indicated by 2, and as shown in FIG. VF LEVEL CURVE1 to specify, UF LEVEL CURVE1 to specify the amplitude lowering characteristic of the unvoiced sound of the preceding phoneme, VF FREQ CURVE2 to specify the frequency change characteristic of the voiced formant of the subsequent phoneme during the transit period, unvoiced formant of the subsequent phoneme during the transit period UF to specify the frequency change characteristics of
FREQ CURVE2, VF LEVEL CURVE2 specifying the rising characteristic of the output level of the voiced sound of the subsequent phoneme, UF LEVEL CURVE2 specifying the rising characteristic of the output level of the unvoiced sound of the subsequent phoneme,
VF INIT FREQ1 to VF INIT FREQ4 and UF FREQ1 to UF, which are the initial values of each formant frequency of the succeeding phoneme when there is no preceding phoneme and suddenly rises from the succeeding phoneme.
Each data of FREQ4 is stored.
【0038】調音結合データがPHCOMB[-a]のように[]
内のハイフンの前に音韻が記載されていないときは、先
行音韻がなく、この音韻「a」がいきなり発音されるこ
とを示している。このような場合には、前記VF INIT FR
EQ1 〜VF INIT FREQ4 およびUF INIT FREQ1 〜UF INIT
FREQ4 にデータが設定されており、前記先行音韻振幅下
降特性データVF LEVEL CURVE1 〜VF LEVEL CURVE4 およ
びUF LEVEL CURVE1 〜UF LEVEL CURVE4 のデータは無視
されることとなる。When the articulation combination data is [] like PHCOMB [-a]
When the phoneme is not described before the hyphen in, there is no preceding phoneme, and this means that the phoneme "a" is immediately pronounced. In such a case, the VF INIT FR
EQ1 to VF INIT FREQ4 and UF INIT FREQ1 to UF INIT
Data is set in FREQ4, and the preceding phonological amplitude lowering characteristic data VF LEVEL CURVE1 to VF LEVEL CURVE4 and UF LEVEL CURVE1 to UF LEVEL CURVE4 are ignored.
【0039】図5は、先行音韻から後続音韻へのわたり
の期間に、この調音結合データPHCOMB[1-2] がどのよう
に使用されるのかを説明するための図である。この図に
おいて(a)は先行音韻であり、その有声音の4つのフ
ォルマントは、VF FREQ1〜VFFREQ4によりそれぞれ指定
される中心周波数を有し、それぞれVF LEVEL1 〜VF LEV
EL4 により指定されるレベルで出力されており、また、
無声音の4つのフォルマントはそれぞれUF FREQ1〜UF F
REQ4により指定される中心周波数を有し、それぞれUF L
EVEL1 〜UF LEVEL4 により指定されるレベルで出力され
ている。FIG. 5 is a diagram for explaining how the articulated combined data PHCOMB [1-2] is used during the period from the preceding phoneme to the succeeding phoneme. In this figure, (a) is the preceding phoneme, and the four formants of the voiced sound have center frequencies specified by VF FREQ1 to VFFREQ4, respectively, and VF LEVEL1 to VF LEV, respectively.
It is output at the level specified by EL4, and
The four unvoiced formants are UF FREQ1 to UF F
With a center frequency specified by REQ4,
It is output at the level specified by EVEL1 to UF LEVEL4.
【0040】そして、前記先行音韻から(b)に示す後
続音韻に変化されるときに、前記先行音韻の有声音の各
フォルマントは、前記PHCOMB[1-2] に格納されている前
記VFFREQ CURVE2に従って、前記先行音韻の有声音のフ
ォルマント中心周波数VF FREQ1〜VF FREQ4から後続音韻
の有声音のフォルマント中心周波数VF FREQ1〜VF FREQ4
に変更される。同様に、先行音韻の無声音の各フォルマ
ントは、前記UF FREQCURVE2に従って、前記先行音韻の
無声音のフォルマント中心周波数から後続音韻の無声音
のフォルマント中心周波数に変更される。When the preceding phoneme is changed to the following phoneme shown in (b), each formant of the voiced sound of the preceding phoneme is determined according to the VFFREQ CURVE2 stored in PHCOMB [1-2]. The formant center frequencies VF FREQ1 to VF FREQ4 of the voiced sound of the preceding phoneme are converted from the formant center frequencies VF FREQ1 to VF FREQ4 of the voiced sound of the succeeding phoneme.
Is changed to Similarly, each formant of the unvoiced sound of the preceding phoneme is changed from the formant center frequency of the unvoiced sound of the preceding phoneme to the formant center frequency of the unvoiced sound of the following phoneme according to the UF FREQCURVE2.
【0041】また、前記先行音韻の有声フォルマントの
各出力レベルVF LEVEL1 〜VF LEVEL4 は前記調音結合デ
ータPHCOMB[1-2] に含まれるVF LEVEL CURVE1 に従って
下降し、同様に、先行音韻の無声フォルマントの各出力
レベルUF LEVEL1 〜UF LEVEL4 は前記UF LEVEL CURVE1
に従って下降する。さらに、前記後続音韻の有声フォル
マントの出力レベルは、前記調音結合データPHCOMB[1-
2] に含まれるVF LEVEL CURVE2 に従って、後続音韻の
各有声音フォルマントレベルVF LEVEL1 〜VF LEVEL4 ま
で立ち上がる。同様に、後続音韻の無声フォルマントの
出力レベルは前記UF LEVEL CURVE2 により指定される立
上り特性に従って、後続音韻の各無声音フォルマントレ
ベルUF LEVEL1 〜UF LEVEL4 まで上昇する。このように
して、調音結合データPHCOMB[1-2] により1で示される
先行音韻と2で示される後続音韻との結合がスムーズに
行なわれる。The output levels VF LEVEL1 to VF LEVEL4 of the voiced formant of the preceding phoneme fall in accordance with VF LEVEL CURVE1 included in the articulation combined data PHCOMB [1-2], and similarly, the output level of the unvoiced formant of the preceding phoneme. Each output level UF LEVEL1 to UF LEVEL4 is the UF LEVEL CURVE1
Descend according to. Further, the output level of the voiced formant of the succeeding phoneme is determined by the articulation combined data PHCOMB [1-
2], each voiced sound formant level of the following phoneme rises to VF LEVEL1 to VF LEVEL4. Similarly, the output level of the unvoiced formant of the succeeding phoneme rises to each unvoiced formant level of the following phoneme UF LEVEL1 to UF LEVEL4 according to the rising characteristic specified by the UF LEVEL CURVE2. In this manner, the preceding phoneme indicated by 1 and the subsequent phoneme indicated by 2 are smoothly combined by the articulation combination data PHCOMB [1-2].
【0042】図6の(a)は前記RAM12のメモリマ
ップの一例を示す図である。この図に示すように、RA
M12内にはCPUワーキングエリア、ソングデータが
格納されるソングバッファ、一音符に対応する音韻を発
生するための音韻データが展開されるPHバッファの各
領域が設定される。同図(b)は前記PHバッファへの
音韻データの展開例を示す図であり、この例において
は、「sagai」という音韻を発生させる場合を示し
ている。この図に示すように、PHバッファには、一つ
の音符に対応する期間において発生すべき音韻に対応す
る調音結合データPHCOMB[1-2] および音韻データPHPAR
[*]が交互に格納される。FIG. 6A shows an example of a memory map of the RAM 12. As shown in FIG. As shown in this figure, RA
In the M12, areas of a CPU working area, a song buffer storing song data, and a PH buffer in which phoneme data for generating a phoneme corresponding to one note are expanded are set. FIG. 3B is a diagram showing an example of expanding the phoneme data in the PH buffer. In this example, a case where a phoneme “sagai” is generated is shown. As shown in this figure, the PH buffer stores articulated combined data PHCOMB [1-2] and phonemic data PHPAR corresponding to a phoneme to be generated in a period corresponding to one note.
[*] Are stored alternately.
【0043】この前記PHバッファ内に格納されている
調音結合データおよび音韻データは、前記VTGグルー
プ21およびUTGグループ22の各音源VTG1〜V
TG4およびUTG1〜UTG4に印加され、当該デー
タに対応する音声が発音されることとなる。The articulation combination data and the phoneme data stored in the PH buffer correspond to the sound sources VTG1 to VTG1 of the VTG group 21 and the UTG group 22, respectively.
The data is applied to the TG4 and the UTG1 to UTG4, and a sound corresponding to the data is generated.
【0044】図7(a)は前記データメモリ13のメモ
リマップの一例を示すもので、図示するように、複数の
ソングデータSONG1〜SONGnがこのデータメモ
リ13に格納されている。図7の(b)は該ソングデー
タの構成を示す図である。図示するように、ソングデー
タは、その曲の曲名を示すSONGNAME、その曲の演奏テン
ポを示すTEMPO 、その曲の拍子や音色指定データなどを
示すMISC DATA 、歌唱音合成のために用いられる歌唱デ
ータLYRIC SEQ DATA、および、伴奏を演奏するための伴
奏データACCOMP DATA からなっている。FIG. 7A shows an example of a memory map of the data memory 13. As shown, a plurality of song data SONG1 to SONGn are stored in the data memory 13. FIG. 7B shows the structure of the song data. As shown in the figure, the song data includes SONGNAME indicating the name of the song, TEMPO indicating the performance tempo of the song, MISC DATA indicating the time signature and tone color designation data of the song, and singing data used for singing sound synthesis. It consists of LYRIC SEQ DATA and accomp data ACCOMP DATA for playing accompaniment.
【0045】図8(a)に前記歌唱データLYRIC SEQ DA
TAの構成を示す。図示するように、歌唱データLYRIC SE
Q DATAは、当該楽曲の各音符に対応した歌詞データLYRI
C DATA1 〜LYRIC DATAm からなっている。各歌詞データ
LYRIC DATAi は、その音符に対応する時間に発生すべき
歌詞がある場合とない場合とで異なる内容のデータとさ
れており、発声すべき歌詞がある場合には、その音符の
期間に発音すべき音素データLYPH DATA 、音高などを指
定するKEYON データ、その音符の長さに等しい発音時間
を指定するNOTE DURATION データなどにより構成されて
おり、また、発声すべき歌詞がないときには、発音の合
間の時間を指定するデュレイションデータDURATIONのみ
とされている。FIG. 8A shows the singing data LYRIC SEQ DA.
3 shows the configuration of a TA. As shown, singing data LYRIC SE
Q DATA is the lyrics data LYRI corresponding to each note of the song.
It consists of C DATA1 to LYRIC DATAm. Lyrics data
LYRIC DATAi has different data depending on whether there is a lyrics to be generated at the time corresponding to the note or not, and if there is a lyrics to be uttered, it should be pronounced during the note period It consists of phoneme data LYPH DATA, KEYON data that specifies the pitch, etc., NOTE DURATION data that specifies the duration of the note equal to the length of the note, etc. It is only duration data DURATION that specifies time.
【0046】図示するように、その音符に対応する時間
に発声すべき歌詞があるときの歌詞データLYRIC DATAh
は、その音符の期間に発音すべき歌詞の音素の数(hma
x)だけ配列された音素を示すデータPHDATAとその発音
時間を示すデータPHTIMEとの組(PHDATA1,PHTIME1 〜PH
DATAhmax,PHTIMEhmax )と、その音符のキーコードおよ
びベロシティデータ(図の例においては、それぞれC3
および64とされている)を有するキーオンデータKEYO
N と、発音時間データNOTEDUR 、および、その音符にお
いて最後に発音される音素と後続する音符において最初
に発音される音素とを結合して発音させるか否かを指定
する結合フラグCOMBIFLGを有するキーオフデータKEYOFF
とから構成されている。As shown in the figure, lyrics data LYRIC DATAh when there is a lyrics to be uttered at the time corresponding to the note
Is the number of phonemes in the lyrics that should be pronounced during that note (hma
x), which is a set of data PHDATA indicating phonemes arranged in an array of only PH) and data PHTIME indicating the sound generation time (PHDATA1, PHTIME1 to PH
DATAhmax, PHTIMEhmax), the key code and velocity data of the note (in the example of the figure, C3
And key-on data KEYO
N, key-off data having a note duration data NOTEDUR, and a combination flag COMBIFLG for specifying whether or not to combine the phoneme that is pronounced last in the note with the phoneme that is pronounced first in the subsequent note to produce sound. KEYOFF
It is composed of
【0047】ここで、前記データPHTIMEは、その値が
「1」以上の値とされているときは演奏のテンポなどに
より変化することのない絶対時間を単位としてその音素
の発音時間を指定するものであり、「0」であるときに
は、前記NOTEDUR により指定された当該音符全体の時間
に合わせて、PHTIMEが「0」とされた音素(通常は母音
とされている)の発音時間が適宜調整されることを示し
ている。なお、全ての音素のPHTIMEが1以上の数値とさ
れているときは、各音素はその値により指定された絶対
時間の期間発音されることとなる。Here, the data PHTIME designates the sounding time of the phoneme in units of absolute time which does not change due to the tempo of the performance when the value is set to a value of "1" or more. When it is "0", the sounding time of the phoneme whose PHTIME is "0" (usually a vowel) is appropriately adjusted in accordance with the time of the entire note specified by the NOTEDUR. Which indicates that. When the PHTIME of all phonemes is set to a numerical value of 1 or more, each phoneme is sounded for the absolute time specified by the value.
【0048】また、その音符において発音すべき音素が
ないときには、前述したように歌詞データLYRIC DATAi
はその音符に対応する時間間隔を示すデータDURATIONと
そのLYRIC DATAi の終了を示す終了コードEND とから構
成されている。When there is no phoneme to be pronounced in the note, as described above, the lyrics data LYRIC DATAi
Is composed of data DURATION indicating a time interval corresponding to the note and an end code END indicating the end of the LYRIC DATAi.
【0049】図8の(b)は、前記LYRIC DATAi の一例
を示す図であり、この例は「h」、「i」および「t」
の3つの音素を発声させる(hmax=3)場合を示してい
る。図示するように、この音符の音高はC3、ベロシテ
ィは64であり、また音符の発音時間の長さは96単位
時間とされている。また、「h」と「t」のPHTIMEはい
ずれも5単位時間とされており、「i」のPHTIMEは
「0」とされている。従って、この例の場合には、まず
「h」が5単位時間の間発音され、続いて「i」が86
(=(DUR の96)−(「h」の5)−(「t」の
5))単位時間発音され、最後に「t」が5単位時間発
音されることとなる。また、この「t」と後続するLYRI
C DATAi=1 の最初の音素とを結合して発音するときに
は、KEYOFF中のCOMBIFLGがセットされている。FIG. 8B is a diagram showing an example of the LYRIC DATAi, which is composed of "h", "i" and "t".
Are uttered (hmax = 3). As shown in the figure, the pitch of the note is C3, the velocity is 64, and the duration of the note is 96 units. Further, the PHTIME of “h” and “t” are each set to 5 unit times, and the PHTIME of “i” is set to “0”. Therefore, in this example, "h" is first pronounced for 5 unit times, and then "i" is played for 86 hours.
(= (96 of DUR)-(5 of "h")-(5 of "t")) The unit time is pronounced, and finally "t" is pronounced for 5 unit times. Also, this "t" and the following LYRI
When combining the first phoneme of C DATAi = 1 and sounding, COMBIFLG in KEYOFF is set.
【0050】図8の(c)に前記LYRIC DATAi の他の例
を示す。この図に示す例は、「s」、「a」、「g」、
「a」、「i」の5つの音素を発生させる場合を示して
いる。また、この音符の音高はA5であり、ベロシティ
は85、長さは127単位時間とされている。したがっ
て、この場合には、「s]を5単位時間、「a」を32
単位時間(=(DUR の127)−(「s」の5)−
(「g」の5)−(「a」の35)−(「i」の5
0))、「g]を5単位時間、「a」を35単位時間、
「i」を50単位時間、それぞれ発音することとなる。FIG. 8C shows another example of the LYRIC DATAi. Examples shown in this figure are "s", "a", "g",
The case where five phonemes “a” and “i” are generated is shown. The pitch of the note is A5, the velocity is 85, and the length is 127 unit time. Therefore, in this case, “s” is 5 unit times, and “a” is 32
Unit time (= (127 of DUR)-(5 of "s")-
(5 of “g”) − (35 of “a”) − (5 of “i”
0)), “g” is 5 unit time, “a” is 35 unit time,
"I" is pronounced for 50 unit times.
【0051】このように構成された歌唱音合成装置にお
いて、操作者が再生すべき楽曲の選択を行い、その動作
を開始させると、前記データメモリ13中に格納されて
いるソングデータの中から指定された楽曲に対応するソ
ングデータが選択され前記RAM12に転送される。そ
して、CPU10は当該ソングデータ中に含まれている
TEMPO データに基づいて演奏の速度を決定し、また、MI
SC DATA に基づいて使用する音色の指定等を行う。そし
て、前記伴奏データACCOMP DATA 部に格納されている自
動演奏データに基づいて伴奏音を発声する処理を実行す
るとともに、歌唱データLYRIC SEQ DATAに基づいて歌唱
発声処理を実行する。In the singing sound synthesizing apparatus configured as described above, when the operator selects a music piece to be reproduced and starts the operation, the user selects a song from the song data stored in the data memory 13. The song data corresponding to the selected music is selected and transferred to the RAM 12. The CPU 10 is included in the song data.
Determines the performance speed based on the TEMPO data, and
Specify the tone to be used based on SC DATA. Then, a process of producing an accompaniment sound based on the automatic performance data stored in the accompaniment data ACCOMP DATA section is executed, and a singing utterance process is executed based on the singing data LYRIC SEQ DATA.
【0052】図9は、この歌唱発声処理のフローチャー
トである。この処理が開始されると、まず、ステップS
11において前記歌唱データLYRIC SEQ DATA部から各音
符に対応する音素データLYRIC DATAを読み出すためのポ
インタiを「1」にリセットする。これにより、当該LY
RIC SEQ DATA中の第1番目の音符に対応する音素データ
LYRIC DATAが指定されることとなる。次に、ステップS
12に進み、該第1番目のLYRIC DATA1 が読み込まれ
る。そして、この読み込んだLYRIC DATAが音素データの
最後であることを示すLYRIC END 以外のデータであるか
否かを判定し(S13)、その判定の結果がYES、す
なわち、LYRIC END ではないときは、ステップS14に
進む。FIG. 9 is a flowchart of the singing voice production process. When this processing is started, first, in step S
At 11, the pointer i for reading the phoneme data LYRIC DATA corresponding to each note from the singing data LYRIC SEQ DATA section is reset to "1". As a result, the LY
Phoneme data corresponding to the first note in RIC SEQ DATA
LYRIC DATA will be specified. Next, step S
Proceeding to 12, the first LYRIC DATA1 is read. Then, it is determined whether or not the read LYRIC DATA is data other than LYRIC END indicating the end of the phoneme data (S13). If the result of the determination is YES, that is, if it is not LYRIC END, Proceed to step S14.
【0053】今の場合はi=1でLYRIC DATA1 が読み込
まれたため、前記ステップS13の判定の結果はYES
となる。したがって、ステップS14に進み、読み込ま
れたデータがDURARTION DATAであるか否かが判定され
る。この判定の結果がYESのときは、該デュレイショ
ンデータの値をタイマーにセットし(S15)、その時
間が経過するまで待機する(S16)。そして、その時
間が経過したとき、前記ポインタiをi+1にインクリ
メントして(S17)、前記S12にもどり、次の音素
データLYRIC DATAi+1 を読み込む。In this case, since LYRIC DATA1 is read with i = 1, the result of the determination in step S13 is YES.
Becomes Therefore, the process proceeds to step S14, and it is determined whether the read data is DURARTION DATA. If the result of this determination is YES, the value of the duration data is set in the timer (S15) and the process waits until the time has elapsed (S16). When the time has elapsed, the pointer i is incremented to i + 1 (S17), and the process returns to S12 to read the next phoneme data LYRIC DATAi + 1.
【0054】一方、読み込んだLYRIC DATAがDURATION D
ATA ではなく、前記S14の判定結果がNOのときはス
テップS19に進む。このステップS19では、このLY
RICDATA中のLYPH DATA を指定するためのポインタhを
「1」にセットする。これにより、このLYRIC DATA中の
第1番目のLYPH DATA が指定される。On the other hand, the read LYRIC DATA is DURATION D
If the result of the determination in S14 is NO instead of ATA, the process proceeds to step S19. In this step S19, this LY
The pointer h for specifying LYPH DATA in RICDATA is set to "1". As a result, the first LYPH DATA in the LYRIC DATA is specified.
【0055】次に、ステップS20に進み、直前に読み
込んで処理したLYRIC DATAのKEYOFFコード中のCOMBIFLG
に対応する調音結合データPHCOMBy をROM11中の音
韻データベースPHDBから読み出して、前記音韻バッ
ファPHBUFFに書き込む。すなわち、直前のLYRIC
DATAのKEYOFFコード中のCOMBIFLGがセットされていた場
合には、該直前のLYRIC DATAの最後に発音した音素デー
タPHDATA hmax と今回のLYRIC DATAの第1番目のPHDATA
1 に対応する調音結合データPHCOMBy を前記ROM11
中の音韻データベースPHDBから読み出して、前記音
韻バッファPHBUFFに書き込む。また、直前のLYRI
C DATAのKEYOFFコード中のCOMBIFLGがセットされていな
かった場合には、今回のLYRIC DATAのPHDATA1 の音素を
いきなり発生する調音結合データPHCOMBy を読み出して
PHBUFFに書き込む。Next, the process proceeds to step S20, in which the COMBIFLG in the KEYOFF code of the LYRIC DATA read and processed immediately before.
Is read from the phoneme database PHDB in the ROM 11 and written into the phoneme buffer PHBUFF. That is, the last LYRIC
If COMBIFLG in the KEYOFF code of DATA is set, the last phoneme data PHDATA hmax of the last LYRIC DATA and the first PHDATA of the current LYRIC DATA
1 is stored in the ROM 11
It is read from the phoneme database PHDB in the middle and written into the phoneme buffer PHBUFF. Also, LYRI just before
If COMBIFLG in the KEYOFF code of C DATA is not set, the articulatory combination data PHCOMBy which immediately generates the phoneme of PHDATA1 of this LYRIC DATA is read out and written to PHBUFF.
【0056】例えば、今回読み込んだLYRIC DATAが前記
図8の(c)に示した「sagai」を発声するデータ
であり、直前のLYRIC DATAのCOMBIFLGがセットされてい
なかった場合には、このステップS20により、前記図
6の(b)に示したように、PHCOMB[-s]がPHBUFF
の先頭に書き込まれることとなる。For example, if the LYRIC DATA read this time is the data for uttering “sagai” shown in FIG. 8C and the COMBIFLG of the immediately preceding LYRIC DATA has not been set, this step S 20 As a result, PHCOMB [-s] is changed to PHBUFF as shown in FIG.
Is written at the head of
【0057】次に、ステップS21に進み、前記ポイン
タhにより指定されるPHDATAh を参照して、それに対応
する音韻データPHPARhを前記音韻データベースPHDB
から読み出して前記PHBUFFに書き込む。前記例の
場合には、図6(b)に示すように、PHPAR[s]が読み出
されてPHBUFFの第2番目のアドレスに書き込まれ
ることとなる。Next, the process proceeds to step S21, referring to PHDATAh designated by the pointer h, and storing the corresponding phoneme data PHPARh in the phoneme database PHDB.
And writes it to the PHBUFF. In the case of the above example, as shown in FIG. 6B, PHPAR [s] is read and written to the second address of PHBUFF.
【0058】次にステップS22に進み、前記ポインタ
hの値がhmaxに達していないか否かが判定される。
hがhmaxに達しておらず、この判定の結果がYES
のときは、ステップS23に進み、このPHDATAh とその
次のPHDATAh+1 との調音結合データPHCOMBy が音韻デー
タベースPHDBに存在するか否かを判定する。この結
果がNOのときはそのままステップS25に進み、ま
た、この調音結合データPHCOMBy がPHDB中に存在す
るときにはこれを読み出して、前記PHBUFFに書き
並べる。前述の例の場合には、図6(b)に示すように
PHCOMB[s-a] が書き込まれる。Then, the process proceeds to a step S22, wherein it is determined whether or not the value of the pointer h has not reached hmax.
h has not reached hmax, and the result of this determination is YES
In step S23, the process proceeds to step S23, where it is determined whether or not articulation combination data PHCOMBy of this PHDATAh and the next PHDATAh + 1 exists in the phoneme database PHDB. If the result is NO, the process directly proceeds to step S25, and if the articulation combination data PHCOMBy exists in the PHDB, it is read out and written in the PHBUFF. In the case of the above example, as shown in FIG.
PHCOMB [sa] is written.
【0059】次にステップS25に進み、前記ポインタ
の値hをh+1にインクリメントして、前記ステップS
21に戻る。そして、前述したように、その次の音素デ
ータPHDATAh に対応する音韻データPHPARhを読み出して
PHBUFFに書き並べる。このようにして、hがhm
axに達するまで、前記ステップS21〜S25が繰り
返され、当該LYPH DATA 中のPHDATA1 〜PHDATAh に対応
するPHCOMBy とPHPARyとが交互にPHBUFFに書き並
べられることとなる。このようにして、前記図6の
(b)に示すように、PHBUFFに音韻データが展開
される。なお、hがhmaxに達したか否かの判定は、
h+1の位置のデータを読み出してその内容がKEYON コ
ードであるときにh=hmaxであると判定することな
どにより、行なうことができる。Then, the process proceeds to a step S25, wherein the value h of the pointer is incremented to h + 1, and
Return to 21. Then, as described above, the phoneme data PHPARh corresponding to the next phoneme data PHDATAh is read out and written in PHBUFF. Thus, h is hm
Steps S21 to S25 are repeated until ax is reached, and PHCOMBy and PHPARy corresponding to PHDATA1 to PHDATAh in the LYPH DATA are alternately written and arranged in PHBUFF. In this way, as shown in FIG. 6B, the phoneme data is developed in PHBUFF. Note that whether or not h has reached hmax is determined by:
This can be performed by reading the data at the position of h + 1 and determining that h = hmax when the content is a KEYON code.
【0060】hがhmaxに達して、前記ステップS2
2の判定結果がNOとなったときは、ステップS26に
進み、前記PHBUFFにENDコードが書き込まれ
る。続いて、ステップS27に進み、PHBUFFをそ
の先頭から読み出し、該読み出した調音結合データPHCO
MBおよび音韻データPHPAR に基づき、該データにより指
定された前記VTGグループ、UTGグループあるいは
PCMTGを用いて発声させる。なお、このときに、有
声音のピッチは当該キーオンコード中のキーコードKC
に対応させ、各音韻の発音時間は、前述したように、NO
TE DURおよびPHTIMEにより制御する。When h reaches hmax, step S2
If the result of the determination in step 2 is NO, the process proceeds to step S26, where an END code is written in the PHBUFF. Then, the process proceeds to a step S27, in which the PHBUFF is read from the head thereof, and the read articulated combined data PHCO
Based on the MB and the phoneme data PHPAR, the voice is uttered using the VTG group, UTG group or PCMTG specified by the data. At this time, the pitch of the voiced sound is determined by the key code KC in the key-on code.
And the pronunciation time of each phoneme is NO, as described above.
Controlled by TE DUR and PHTIME.
【0061】そして、この第i番目の音素データLYRIC
DATAi に対応する音韻列の発音が全て終了するまでこの
ステップS27を繰り返す(S28)。そして、前記P
HBUFFのENDコードまで達したら、ステップS2
9において、前記LYRIC DATA読み出し用ポインタiをi
+1にインクリメントして、再び、前記ステップS12
に戻る。このようにして順次LYRIC SEQ DATAの読み込み
および発音処理を繰り返し、当該LYRIC SEQ DATAの読み
込みがその最後(LYRIC END) に達したとき、S13の判
定の結果がNOとなりこの歌唱発生処理が終了される
(S18)。Then, the i-th phoneme data LYRIC
This step S27 is repeated until all the phonemes corresponding to DATAi have been sounded (S28). And the P
When reaching the HBUFF END code, step S2
9, the LYRIC DATA read pointer i is set to i
The value is incremented to +1 and again in step S12
Return to In this manner, the reading of the LYRIC SEQ DATA and the sound generation processing are sequentially repeated, and when the reading of the LYRIC SEQ DATA reaches the end (LYRIC END), the result of the determination in S13 becomes NO, and the singing generation processing ends. (S18).
【0062】なお、前記無声音部で使用するPCM波形
の分析データを当該PCM波形と組にして、このような
PCM波形と分析データの組を複数、例えば歌唱者別に
用意しておいてそれらを切り替えるようにすることによ
り音質変換を容易に行うことが可能となる。また、全て
の無声子音をPCM波形とする必要はなく、フォルマン
ト合成によりある程度の水準の音声合成を実現すること
ができるものは、そのままフォルマント合成により生成
するようにしてもよい。有声破裂音は有声無声分離した
無声PCM波形を使用することが望ましいが、子音部に
は全てPCM波形を使用するようにしてもよい。さら
に、有声部のノイズ成分はフォルマントの変化があまり
ない場合、PCM波形をループさせたものを使用しても
よい。さらにまた、PCM音源により発音する子音に後
続する有声音の種類、ピッチあるいは音量などによっ
て、子音PCM波形を変えるようにしてもよい。The analysis data of the PCM waveform used in the unvoiced sound part is combined with the PCM waveform, and a plurality of such sets of the PCM waveform and the analysis data are prepared for each singer, for example, and are switched. By doing so, sound quality conversion can be easily performed. Also, it is not necessary that all unvoiced consonants have a PCM waveform, and those capable of realizing a certain level of speech synthesis by formant synthesis may be directly generated by formant synthesis. For voiced plosives, it is desirable to use unvoiced PCM waveforms separated by voice and unvoiced, but all consonants may use PCM waveforms. Further, when there is little change in the formant, the noise component of the voiced portion may use a looped PCM waveform. Furthermore, the consonant PCM waveform may be changed according to the type, pitch, volume or the like of the voiced sound following the consonant produced by the PCM sound source.
【0063】本発明の歌唱音合成装置の適用分野として
特に好適な例を挙げれば、歌唱音が出力可能な電子楽器
やコンピュータシステム、音声応答装置、あるいはゲー
ムマシンやカラオケなどのアミューズメント機器などが
考えられる。また、本発明の歌唱音合成装置は、パソコ
ンに代表されるコンピュータシステムのソフトウエアと
いう形態で実施することも可能である。その際、音声波
形合成までCPUにより実行するようにしてもよいし、
あるいは図1に示したように別途音源を設けてもよい。
さらに、前記図1の構成に各種ネットワークインターフ
ェースあるいはモデムを加えて設け、音韻データなど必
要なデータ、パラメータ類をネットワークや電話回線を
通じてダウンロードしたり、また、合成した歌唱音をネ
ットワークを通して転送するようにしてもよい。Particularly suitable examples of the application field of the singing sound synthesizing device of the present invention include an electronic musical instrument, a computer system, a voice response device, a game machine and an amusement device such as a karaoke capable of outputting a singing sound. Can be Further, the singing sound synthesizer of the present invention can be implemented in the form of software of a computer system represented by a personal computer. At that time, the processing up to the synthesis of the audio waveform may be executed by the CPU,
Alternatively, a separate sound source may be provided as shown in FIG.
Further, various types of network interfaces or modems are added to the configuration of FIG. 1 to download necessary data and parameters such as phonological data through a network or a telephone line, and to transfer synthesized singing sounds through a network. You may.
【0064】[0064]
【発明の効果】無声子音についてはPCM音源(波形合
成処理)を用いて発声させるようにしたため、高品質の
歌唱音を合成出力することができる。また、無声子音に
対応するPCM波形の分析データを当該音韻のパラメー
タとして使用しているため、スムーズな調音結合を実現
することができる。さらに、歌唱者に応じた音韻データ
ベースを準備することが可能となるため、多種の歌唱音
を容易に発声させることが可能となる。Since unvoiced consonants are uttered using a PCM sound source (waveform synthesis processing), a high quality singing sound can be synthesized and output. Further, since the analysis data of the PCM waveform corresponding to the unvoiced consonant is used as the parameter of the phoneme, smooth articulation can be realized. Further, since it is possible to prepare a phoneme database corresponding to a singer, it is possible to easily produce various singing sounds.
【図1】 本発明の歌唱音合成装置のシステム構成の一
例を示す図である。FIG. 1 is a diagram showing an example of a system configuration of a singing sound synthesizing apparatus according to the present invention.
【図2】 本発明の歌唱音合成装置の音源部の構成の一
例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a sound source unit of the singing sound synthesizer of the present invention.
【図3】 本発明の歌唱音合成装置の動作を説明するた
めの図である。FIG. 3 is a diagram for explaining the operation of the singing sound synthesizing device of the present invention.
【図4】 本発明の歌唱音合成装置に用いられる音韻デ
ータベースに格納されているデータを説明するための図
である。FIG. 4 is a diagram for explaining data stored in a phoneme database used in the singing sound synthesizer of the present invention.
【図5】 先行音韻から後続音韻への遷移を説明するた
めの図である。FIG. 5 is a diagram for explaining a transition from a preceding phoneme to a subsequent phoneme.
【図6】 RAM12中のデータを説明するための図で
ある。FIG. 6 is a diagram for explaining data in a RAM 12;
【図7】 データメモリ中のソングデータの構造を示す
図である。FIG. 7 is a diagram showing a structure of song data in a data memory.
【図8】 歌唱データ(LYRIC SEQ DATA)の構造を示す
図である。FIG. 8 is a diagram showing the structure of singing data (LYRIC SEQ DATA).
【図9】 歌唱発声処理を説明するためのフローチャー
トである。FIG. 9 is a flowchart illustrating a singing voice production process.
10 CPU、11 ROM、12 RAM、13 デ
ータメモリ、14 表示部、15 演奏操作子、16
設定操作子、18 D/A変換器、19 バス、20
音源部、21 有声音グループ、22 無声音グルー
プ、23 PCM音源、24 波形メモリ、25 混合
器10 CPU, 11 ROM, 12 RAM, 13 data memory, 14 display unit, 15 performance operator, 16
Setting operator, 18 D / A converter, 19 bus, 20
Sound source section, 21 voiced sound group, 22 unvoiced sound group, 23 PCM sound source, 24 waveform memory, 25 mixer
Claims (4)
ープと無声音を生成する無声音成分音源グループとを有
するフォルマント合成音源部と、 無声子音に対応する音声波形が格納された波形メモリを
有するPCM音源部と、 当該楽曲の歌詞に対応した歌唱データを記憶する記憶部
と、 各音韻を発声するための音韻パラメータと先行音韻と後
続音韻との調音結合のための調音結合パラメータとが記
憶された音韻データベースと、 制御部とを有する歌唱音合成装置であって、 前記制御部は、前記歌唱データに基づいて前記音韻デー
タベースから対応する音韻パラメータと調音結合パラメ
ータとを読み出し、該読み出した音韻パラメータおよび
調音結合パラメータに基づいて前記フォルマント合成音
源部および前記PCM音源部に対し制御信号を供給する
ことを特徴とする歌唱音合成装置。1. A PCM sound source having a formant synthesis sound source section having a voiced sound component sound source group for generating a voiced sound and an unvoiced sound component sound source group for generating an unvoiced sound, and a waveform memory storing a sound waveform corresponding to an unvoiced consonant. Unit, a storage unit for storing singing data corresponding to the lyrics of the song, and a phoneme storing a phoneme parameter for producing each phoneme and an articulation combination parameter for articulating a preceding phoneme and a subsequent phoneme. A singing sound synthesizer having a database and a control unit, wherein the control unit reads a corresponding phonological parameter and an articulation combination parameter from the phonological database based on the singing data, and reads the read phonological parameter and articulation. A control signal is sent to the formant synthesis sound source unit and the PCM sound source unit based on the coupling parameter. Singing sound synthesizing apparatus characterized by feeding.
メータ中に、当該音韻を生成すべき音源部を指定する音
源指定データが格納されており、前記制御部は前記制御
信号を該音源指定データにより指定された音源部に供給
することを特徴とする前記請求項1記載の歌唱音合成装
置。2. The singing data or the phonological parameter stores sound source specifying data for specifying a sound source unit to generate the phoneme. The control unit specifies the control signal by the sound source specifying data. The singing sound synthesizing apparatus according to claim 1, wherein the singing sound synthesizing apparatus supplies the singing sound to a sound source.
を分析することにより得られた音韻パラメータおよび調
音結合パラメータが前記音韻データベースに記憶されて
おり、発声すべき音韻が無声子音であるとき、前記PC
M音源部と前記無声音成分音源グループの両者において
該無声子音の発声処理を実行させるとともに、前記無声
音成分音源グループからの合成出力は外部に出力させな
いようにして、該無声子音から後続する有声音への調音
結合をスムーズに行なうようになされていることを特徴
とする前記請求項1記載の歌唱音合成装置。3. The phoneme parameter and articulation combination parameter obtained by analyzing the speech waveform stored in the waveform memory are stored in the phoneme database, and when the phoneme to be uttered is an unvoiced consonant, PC
In both the M sound source unit and the unvoiced component sound source group, the unvoiced consonant utterance process is executed, and the synthesized output from the unvoiced sound component sound source group is not output to the outside, so that the unvoiced consonant is converted to a subsequent voiced sound. 2. The singing sound synthesizing apparatus according to claim 1, wherein the articulation is smoothly performed.
記無声音成分音源グループを用いて発声させることを特
徴とする前記請求項1記載の歌唱音合成装置。4. The singing sound synthesizer according to claim 1, wherein the unvoiced sound output simultaneously with the voiced sound is uttered using the unvoiced sound component group.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21593096A JP3233036B2 (en) | 1996-07-30 | 1996-07-30 | Singing sound synthesizer |
US08/898,591 US5895449A (en) | 1996-07-24 | 1997-07-22 | Singing sound-synthesizing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21593096A JP3233036B2 (en) | 1996-07-30 | 1996-07-30 | Singing sound synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1049192A true JPH1049192A (en) | 1998-02-20 |
JP3233036B2 JP3233036B2 (en) | 2001-11-26 |
Family
ID=16680622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21593096A Expired - Fee Related JP3233036B2 (en) | 1996-07-24 | 1996-07-30 | Singing sound synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3233036B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE1006921A3 (en) * | 1993-03-16 | 1995-01-24 | Koninkl Philips Electronics Nv | Device for writing information. |
US7169998B2 (en) | 2002-08-28 | 2007-01-30 | Nintendo Co., Ltd. | Sound generation device and sound generation program |
CN110720122A (en) * | 2017-06-28 | 2020-01-21 | 雅马哈株式会社 | Sound generating device and method |
JP2022145465A (en) * | 2021-03-18 | 2022-10-04 | カシオ計算機株式会社 | Information processing device, electronic musical instrument, information processing system, information processing method, and program |
-
1996
- 1996-07-30 JP JP21593096A patent/JP3233036B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE1006921A3 (en) * | 1993-03-16 | 1995-01-24 | Koninkl Philips Electronics Nv | Device for writing information. |
US7169998B2 (en) | 2002-08-28 | 2007-01-30 | Nintendo Co., Ltd. | Sound generation device and sound generation program |
CN110720122A (en) * | 2017-06-28 | 2020-01-21 | 雅马哈株式会社 | Sound generating device and method |
CN110720122B (en) * | 2017-06-28 | 2023-06-27 | 雅马哈株式会社 | Sound generating device and method |
JP2022145465A (en) * | 2021-03-18 | 2022-10-04 | カシオ計算機株式会社 | Information processing device, electronic musical instrument, information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3233036B2 (en) | 2001-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10629179B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
US11854518B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
US11468870B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
US10789922B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
US10825434B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
JP3144273B2 (en) | Automatic singing device | |
US5895449A (en) | Singing sound-synthesizing apparatus and method | |
US11417312B2 (en) | Keyboard instrument and method performed by computer of keyboard instrument | |
JPH11184490A (en) | Singing synthesizing method by rule voice synthesis | |
JP4277697B2 (en) | SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION | |
JP5360489B2 (en) | Phoneme code converter and speech synthesizer | |
JP3307283B2 (en) | Singing sound synthesizer | |
JP3233036B2 (en) | Singing sound synthesizer | |
JP7276292B2 (en) | Electronic musical instrument, electronic musical instrument control method, and program | |
WO2020217801A1 (en) | Audio information playback method and device, audio information generation method and device, and program | |
JP4300764B2 (en) | Method and apparatus for synthesizing singing voice | |
JPH04146473A (en) | Electronic sound musical instrument | |
JP3265995B2 (en) | Singing voice synthesis apparatus and method | |
KR20040015605A (en) | Method and apparatus for synthesizing virtual song | |
JPH0895588A (en) | Speech synthesizing device | |
EP0396141A2 (en) | System for and method of synthesizing singing in real time | |
JPH1031496A (en) | Musical sound generating device | |
JPH03203800A (en) | Voice synthesis system | |
JPH0553595A (en) | Speech synthesizing device | |
Macon et al. | E. Bryan George** School of Electrical and Computer Engineering, Georgia Institute of Technology, Atlanta, GA 30332-0250 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010821 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070921 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080921 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090921 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |