JP3265995B2 - Singing voice synthesis apparatus and method - Google Patents

Singing voice synthesis apparatus and method

Info

Publication number
JP3265995B2
JP3265995B2 JP21220896A JP21220896A JP3265995B2 JP 3265995 B2 JP3265995 B2 JP 3265995B2 JP 21220896 A JP21220896 A JP 21220896A JP 21220896 A JP21220896 A JP 21220896A JP 3265995 B2 JP3265995 B2 JP 3265995B2
Authority
JP
Japan
Prior art keywords
data
phoneme
time
lyrics
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21220896A
Other languages
Japanese (ja)
Other versions
JPH1039896A (en
Inventor
康善 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP21220896A priority Critical patent/JP3265995B2/en
Priority to US08/898,591 priority patent/US5895449A/en
Publication of JPH1039896A publication Critical patent/JPH1039896A/en
Application granted granted Critical
Publication of JP3265995B2 publication Critical patent/JP3265995B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人の声で歌を歌わ
せるための歌唱音声合成装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a singing voice synthesizing apparatus and method for causing a person to sing a song.

【0002】[0002]

【従来の技術】音声を合成する手法は従来より種々の手
法が提案されており、例えば特開平3−200300号
公報に示されるようなフォルマント合成方式による音声
合成装置が知られている。
2. Description of the Related Art Various techniques for synthesizing speech have been conventionally proposed. For example, a speech synthesizer using a formant synthesis method as disclosed in Japanese Patent Application Laid-Open No. 3-200300 is known.

【0003】また、フォルマント特性が実際の楽器音や
人声音と同様に変化するようにパラメータデータを複数
ステップに亘って予め記憶し、該記憶したパラメータデ
ータを順次読み出してフォルマント合成を行うことによ
り、自然な楽音又は人声音の合成を行うようにした楽音
合成装置も従来より知られている(特開平4−2512
97号公報)。
In addition, parameter data is stored in advance over a plurality of steps so that the formant characteristics change in the same manner as actual instrument sounds or human voice sounds, and the stored parameter data is sequentially read out to formant. A musical sound synthesizer which synthesizes a natural musical sound or a human voice sound has also been known (Japanese Patent Laid-Open No. Hei 4-2512).
No. 97).

【0004】上述した従来公知の手法を用いて歌唱音声
合成を行う場合、例えば英語の歌詞”hit”を1つの
4分音符に対応させて発音する場合には、”h”,”
i”,”t”のそれぞれに発音時間T(h),T
(i),T(t)を絶対時間で割り当て、T(h)+T
(i)+T(t)が、4分音符の発音時間となるように
パラメータデータを予め記憶しておく手法(以下「第1
の従来手法」という)、あるいはT(h)+T(i)+
T(t)を4分音符の発音時間より短い時間に設定して
おき、最後の”t”の発音時間が終了した時点で発音を
終了するか、その最後の”t”の音を4分音符の発音終
了時点までホールドする手法(以下「第2の従来手法」
という)が採用されている。
[0004] When singing voice synthesis is performed by using the above-mentioned conventionally known technique, for example, when the English lyrics "hit" is pronounced in correspondence with one quarter note, "h", "
i ”and“ t ”each have a sound generation time T (h), T
(I), T (t) are assigned in absolute time, and T (h) + T
A method of storing parameter data in advance so that (i) + T (t) becomes the sounding time of a quarter note (hereinafter referred to as “first
Or T (h) + T (i) +
T (t) is set to a time shorter than the sounding time of the quarter note, and when the sounding time of the last "t" ends, the sounding ends, or the sound of the last "t" is played for four minutes. A method of holding notes until the end of note generation (hereinafter referred to as "second conventional method")
Has been adopted.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記第
1の従来手法では、予め決まったテンポでの歌唱しか行
うことができないという問題がある。そこで、各音素の
発音時間を相対時間で規定しておくという手法も考えら
れるが、特に”h”や”t”などの無声音(子音)の発
音時間をテンポに応じて変更すると歌唱が不自然なもの
となってしまう。
However, the first conventional method has a problem that it can only sing at a predetermined tempo. Therefore, a method of defining the pronunciation time of each phoneme as a relative time is also conceivable, but in particular, if the pronunciation time of unvoiced sounds (consonants) such as “h” and “t” is changed according to the tempo, the singing becomes unnatural. It will be something.

【0006】一方、上記第2の従来手法では、”t”の
発音終了時点で発音を終了する場合、あるいは”t”の
音をホールドする場合のいずれ場合も歌唱が不自然で違
和感があるという問題がある。
On the other hand, in the second conventional method, the singing is unnatural and uncomfortable when the sound is ended at the end of the sounding of "t" or when the sound of "t" is held. There's a problem.

【0007】本発明は上述した点に鑑みなされたもので
あり、曲のテンポを変更しても自然な歌唱を行うことが
できる歌唱音声合成装置及び方法を提供することを目的
とする。
The present invention has been made in view of the above points, and has as its object to provide a singing voice synthesizing apparatus and method capable of performing natural singing even if the tempo of a song is changed.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
請求項1に記載の歌唱音声合成装置は、発音すべき歌詞
を示す複数の歌詞データと、該歌詞データに対応し、該
歌詞データが示す歌詞の発音時間を相対時間で示す歌詞
発音時間データとを含む歌唱データに基づいて、発音制
御手段を制御することにより、音声を順次合成する歌唱
音声合成装置であって、前記各歌詞データは、それぞ
れ、当該歌詞の音素を示す音素記号データと、該音素の
発音時間を指定する音素発音時間データとからなり、前
記音素発音時間データは、当該音素が有声音である場合
には、当該音素の発音時間を絶対時間で指定する第1の
データ、または、該有声音に対応する前記歌詞発音時間
データが示す発音時間の終了まで発音することを指定す
る第2のデータのいずれかからなる一方、当該音素が有
声音でない場合には、前記第1のデータのみからなり、
前記発音制御手段は、前記音素発音時間データが前記第
1のデータからなるときには、該第1のデータが絶対時
間で指定する発音時間だけ当該音素を発音させるように
制御する一方、前記音素発音時間データが前記第2のデ
ータからなるときには、当該有声音の音素を、該有声音
に対応する前記歌詞発音時間データが示す発音時間の終
了まで発音させるように制御することを特徴とする。
According to a first aspect of the present invention, there is provided a singing voice synthesizing apparatus, comprising: a plurality of lyrics data indicating lyrics to be pronounced; and a plurality of lyrics data corresponding to the lyrics data. A singing voice synthesizer for sequentially synthesizing voices by controlling the pronunciation control means based on singing data including lyric pronunciation time data indicating the pronunciation time of the indicated lyrics in relative time. , Each consisting of phoneme symbol data indicating the phoneme of the lyrics and phoneme sounding time data designating the sounding time of the phoneme, wherein the phoneme sounding time data indicates that the phoneme is a voiced sound.
The first data that specifies the sounding time of the phoneme in absolute time, or the second data which specifies that the sound until the end of the lyrics sounding time data is sounding time indicated corresponding to the voiced while that such scolded either the phoneme is Yes
If it is not a voice sound, it consists of only the first data,
The sound control means, when the phoneme sounding time data is composed of the first data when the first data is absolute
While the phoneme is controlled to sound only for the sounding time specified between the phonemes, when the phoneme sounding time data is composed of the second data, the phoneme of the voiced sound is replaced with the lyrics sounding time corresponding to the voiced sound. It is characterized in that the sound is controlled until the sounding time indicated by the data ends.

【0009】また請求項2に記載の歌唱音声合成装置
は、請求項1の歌唱音声合成装置において、前記発音制
御手段は、前記歌詞データ中の前記音素発音時間データ
が前記第2のデータからなる有声音の音素に続く音素
は、当該有声音に対応する前記歌詞発音時間データが示
す発音時間の終了後に発音するように制御することを特
徴とする。
The singing voice synthesizing device according to claim 2 is the singing voice synthesizing device according to claim 1, wherein the pronunciation control means is configured to generate the phoneme pronunciation time data in the lyrics data.
Is controlled so that a phoneme following a phoneme of a voiced sound composed of the second data is pronounced after the end of the sounding time indicated by the lyrics sounding time data corresponding to the voiced sound.

【0010】請求項3に記載の歌唱音声合成方法は、発
音すべき歌詞を示す複数の歌詞データと、該歌詞データ
に対応し、該歌詞データが示す歌詞の発音時間を相対時
間で示す歌詞発音時間データとを含む歌唱データに基づ
いて、発音制御手段を制御することにより、音声を順次
合成する歌唱音声合成方法であって、前記各歌詞データ
は、それぞれ、当該歌詞の音素を示す音素記号データ
と、該音素の発音時間を指定する音素発音時間データと
からなり、前記音素発音時間データは、当該音素が有声
音である場合には、当該音素の発音時間を絶対時間で
定する第1のデータ、または、該有声音に対応する前記
歌詞発音時間データが示す発音時間の終了まで発音する
ことを指定する第2のデータのいずれかからなる一方、
当該音素が有声音でない場合には、前記第1のデータの
みからなり、前記発音制御手段に対しては、前記音素発
音時間データが前記第1のデータからなるときには、該
第1のデータが絶対時間で指定する発音時間だけ当該音
素を発音させるように制御する一方、前記音素発音時間
データが前記第2のデータからなるときには、当該有声
音の音素を、該有声音に対応する前記歌詞発音時間デー
タが示す発音時間の終了まで発音させるように制御する
ことを特徴とする。また請求項4に記載の歌唱音声合成
方法は、請求項3の歌唱音声合成方法において、前記発
音制御手段に対しては、前記歌詞データ中の前記音素発
音時間データが前記第2のデータからなる有声音の音素
に続く音素は、当該有声音に対応する前記歌詞発音時間
データが示す発音時間の終了後に発音するように制御す
ることを特徴とする。
According to a third aspect of the present invention, there is provided a singing voice synthesizing method, wherein a plurality of lyric data indicating lyric to be pronounced and a lyric time indicated by the lyric data corresponding to the lyric data are set in relative time.
A singing voice synthesizing method for sequentially synthesizing voices by controlling the pronunciation control means based on singing data including lyric pronunciation time data indicated between the lyric data, wherein each of the lyric data is a phoneme of the lyrics. And phoneme sounding time data designating the sounding time of the phoneme, wherein the phoneme sounding time data indicates that the phoneme is voiced.
If it is sound, first the finger <br/> constant pronunciation time of the phoneme in absolute time data or the <br/> lyric sounding time data pronunciation time indicated corresponding to the voiced while that such scolded or a second data specifying that sound to the end,
If the phoneme is not voiced, the first data
Consists only, for the sound control unit, when the phoneme sounding time data is from said first data, said
While the first data controls the phoneme to sound only for the sounding time specified by the absolute time, when the phoneme sounding time data consists of the second data, the phoneme of the voiced sound is changed to the voiced sound. It is characterized in that control is performed so that the sound is generated until the end of the sounding time indicated by the corresponding lyrics sounding time data. In a singing voice synthesis method according to a fourth aspect of the present invention, in the singing voice synthesis method according to the third aspect, the phoneme generation in the lyrics data is transmitted to the pronunciation control means.
A phoneme whose sound time data follows a voiced phoneme composed of the second data is controlled so as to sound after the end of the sounding time indicated by the lyrics sounding time data corresponding to the voiced sound.

【0011】請求項1に記載の歌唱音声合成装置又は請
求項3に記載の歌唱音声合成方法によれば、音素発音時
間データが第2のデータ、すなわち当該音素が有声音で
ある場合に、該有声音に対応する歌詞発音時間データが
示す発音時間の終了まで発音することを指定するデータ
からなるときには、当該有声音の音素を、該有声音に対
応する音素発音時間データが示す発音時間の終了まで発
音させるように、発音制御手段が制御される
According to the singing voice synthesizing apparatus according to the first aspect or the singing voice synthesizing method according to the third aspect, when the phoneme is pronounced,
The interim data is the second data, that is, the phoneme is a voiced sound.
In some cases, the lyrics pronunciation time data corresponding to the voiced sound is
Data that specifies sounding until the end of the indicated sounding time
, The phoneme of the voiced sound is associated with the voiced sound.
Sounds until the end of the sounding time indicated by the corresponding phoneme sounding time data
The sound control means is controlled so as to make a sound .

【0012】[0012]

【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は本発明の実施の一形態にかかる歌唱
電子装置の構成を示すブロック図であり、この装置は、
装置全体の制御を行うCPU1と、CPU1で実行され
るプログラムやプログラムの実行に必要なテーブル等及
び音色合成のためのフォルマントデータが記憶されるR
OM2と、CPU1のワーキングエリアとして使用さ
れ、演算途中のデータ等を記憶するRAM3と、音声合
成のための歌唱データ及び伴奏データを記憶するデータ
メモリ4と、各種パラメータや装置の動作モード等を表
示する表示部5と、演奏者が演奏操作を行う、例えば鍵
盤のような演奏操作子6と、演奏モードの指定等を行う
ための設定操作子7と、フォルマントデータに基づいて
音声又は楽音の合成を行うフォルマント音源8と、フォ
ルマント音源8から出力されるデジタル信号をアナログ
信号に変換するDA変換器9と、DA変換器の出力信号
を増幅してスピーカから出力するサウンドシステム10
と、上記構成要素1〜8を相互に接続するバス11とを
備えている。
FIG. 1 is a block diagram showing a configuration of a singing electronic device according to an embodiment of the present invention.
And CPU1 which controls the entire apparatus, R the formant data for programs, tables, etc. necessary for the execution of the program and the tone synthesis is performed by CPU1 is stored
OM2, a RAM 3 used as a working area of the CPU 1 and stores data in the middle of calculation, a data memory 4 storing singing data and accompaniment data for voice synthesis, and displays various parameters and operation modes of the apparatus. A display unit 5 for performing a performance operation by a player, for example, a performance operator 6 such as a keyboard, a setting operator 7 for designating a performance mode, and the like, and synthesizing voice or musical sound based on formant data. Sound source 8 for performing digital audio, a DA converter 9 for converting a digital signal output from the formant sound source 8 into an analog signal, and a sound system 10 for amplifying an output signal of the DA converter and outputting the amplified signal from a speaker.
And a bus 11 for interconnecting the above components 1 to 8.

【0014】フォルマント音源8は、複数の音源チャン
ネル80を有し、音源チャンネル80は、4つの母音フ
ォルマント発生部VTG1〜VTG4と、4つの子音フ
ォルマント発生部UTG1〜UTG4とから構成されて
いる。このように、母音及び子音についてぞれぞれ4個
ずつのフォルマント発生部を設け、これらのフォルマン
ト発生部の出力を加算して音声を合成する手法は、例え
ば前記特開平3−200300号公報に示されるように
公知である。
The formant sound source 8 has a plurality of sound source channels 80. The sound source channel 80 is composed of four vowel formant generators VTG1 to VTG4 and four consonant formant generators UTG1 to UTG4. As described above, a method of providing four formant generators for vowels and consonants, respectively, and adding the outputs of these formant generators to synthesize a voice is described in, for example, Japanese Patent Application Laid-Open No. 3-200300. Known as shown.

【0015】図2は、ROM2、RAM3及びデータメ
モリ4に記憶されるデータの構成を示す図である。
FIG. 2 is a diagram showing the structure of data stored in the ROM 2, RAM 3, and data memory 4.

【0016】ROM2は、CPU1が実行するプログラ
ム及びフォルマントデータPHDATAを記憶している
(同図(a))。フォルマントデータPHDATAは、
日本語及び英語の各音素(母音(有声音)及び子音)に
対応したデータPHDATA[a],PHDATA
[e],……PHDATA[z]から成り、各フォルマ
ントデータPHDATAは、フォルマント中心周波数、
フォルマントレベル、フォルマント帯域幅等のパラメー
タから成る。これらのパラメータは、時系列データとし
て構成されており、所定のタイミング毎に順次読み出す
ことにより、時変動フォルマントが再生される。
The ROM 2 stores a program executed by the CPU 1 and formant data PHDATA (FIG. 1A). Formant data PHDATA is
Data PHDATA [a], PHDATA corresponding to Japanese and English phonemes (vowels (voiced sounds) and consonants)
[E],... PHDATA [z], each formant data PHDATA is a formant center frequency,
It consists of parameters such as formant level and formant bandwidth. These parameters are configured as time-series data, and the time-varying formants are reproduced by sequentially reading them at predetermined timing.

【0017】RAM3は、CPU1が演算に使用するワ
ーキングエリアと、演奏シーケンスデータがロードされ
るソングバッファとしての機能を有するエリアとを構成
する(同図(b))。
The RAM 3 constitutes a working area used by the CPU 1 for calculation and an area having a function as a song buffer into which the performance sequence data is loaded (FIG. 2B).

【0018】データメモリ4には、n個のソングデータ
SONG1、SONG2、…、SONGnが記憶されて
おり(同図(c))、各ソングデータSONGは、同図
(d)に示すように、曲名を示す曲名データSONGN
AME、曲のテンポを示すテンポデータTEMPO、拍
子、音色などを指定するデータMISCDATA、歌詞
データ、音高データ、ベロシティデータ、デュレーショ
ンデータ等からなる歌唱データLYRICSEQDAT
A、及び伴奏の演奏データを示す伴奏データACCOM
PDATAから構成される。
The data memory 4 stores n song data SONG1, SONG2,..., SONGn (FIG. 4C). Each song data SONG is stored in the data memory 4 as shown in FIG. Song name data SOGN indicating song title
AME, tempo data TEMPO indicating the tempo of the song, data MISCDATA specifying the beat, timbre, etc., singing data LYRICSEQDAT including lyrics data, pitch data, velocity data, duration data, etc.
A and accompaniment data ACCOM indicating performance data of accompaniment
It is composed of PDATA.

【0019】各歌唱データLYRICSEQDATA
は、m個の歌詞ノートデータLYRICNOTE及び歌
唱データの終了を示すエンドデータLYRICENDか
ら成り、各歌詞ノートデータLYRICNOTEは、歌
詞音素データLYPHDATA、キーオンデータKEY
ON、デュレーションデータDURATION、及びキ
ーオフデータKEYOFFから成る。歌詞音素データL
YPHDATAは、歌詞の各音素(例えば歌詞”hi
t”の例では、”h”,”i”,”t”)を示す音素記
号データLYPHONEとその音素の発音時間を指定す
る音素発音時間データPHONETIMEが発音順に並
べられて構成されている。キーオンデータKEYON
は、音高データ(例えばC3)及びベロシティデータV
(例えば64)からなり、これにより音高及び立ち上り
のエンベロープが決定される。デュレーションデータD
URATION(例えばDUR 96)は、発音時間
(相対時間)を示すデータであり、テンポデータTEM
PO及び割り込みクロック時間に応じて絶対時間に対応
したデータに変換される。キーオフデータKEYOFF
は、発音の終了を示すデータである。
Each singing data LYRICSEQDATA
Consists of m pieces of lyric note data LYRICNOTE and end data LYRICEND indicating the end of singing data. Each piece of lyric note data LYRICNOTE is composed of lyric phoneme data LYPHDATA and key-on data KEY.
ON, duration data DURATION, and key-off data KEYOFF. Lyric phoneme data L
YPHDATA indicates each phoneme of the lyrics (for example, lyrics "hi
In the example of "t", phoneme symbol data LYPHONE indicating "h", "i", "t") and phoneme sounding time data PHONETIME specifying the sounding time of the phoneme are arranged in order of sounding. Data KEYON
Represents pitch data (for example, C3) and velocity data V
(For example, 64), which determines the pitch and the rising envelope. Duration data D
URATION (for example, DUR 96) is data indicating a sound generation time (relative time), and includes tempo data TEM.
The data is converted into data corresponding to the absolute time according to the PO and the interrupt clock time. Key-off data KEYOFF
Is data indicating the end of sound generation.

【0020】図2(f)には、歌詞”hit”及び”y
uki”に対応する歌詞ノートデータLYRICNOT
Eの例を示している。ここで、音素発音時間データPH
ONETIMEは原則として、絶対時間で発音時間を指
定するものであるが(同図においてPHONETIME
1は「5」に設定されており、これは例えば基本時間単
位を8msecとすると、8msec×5=40mse
cに相当する)、「0」に指定された場合(”hit”
の”i”,”yuki”の”u”、以下「ゼロ指定」と
いう)は、後で詳述するようにこの母音をデュレーショ
ンの終了時点まで発音することを意味する。そして、そ
の後に続く音素(”hit”の”t”,”yuki”
の”ki”)は、デュレーションの終了後に発音するよ
うに制御される。
FIG. 2F shows the lyrics "hit" and "y".
lyrics note data LYRICNOT corresponding to "uki"
An example of E is shown. Here, the phoneme sounding time data PH
In principle, ONETIME specifies the sound production time in absolute time (in FIG.
1 is set to “5”. For example, if the basic time unit is 8 msec, 8 msec × 5 = 40 msec
c), if specified as “0” (“hit”
"I" and "u" of "yuki" (hereinafter referred to as "zero designation") mean that the vowel is pronounced until the end of the duration, as will be described in detail later. Then, the following phonemes (“t” and “yuki” of “hit”)
“Ki”) is controlled so that it is pronounced after the end of the duration.

【0021】図3は、CPU1で実行されるメインプロ
グラムのフローチャートであり、このプログラムは本装
置の電源がオンされると実行が開始される。
FIG. 3 is a flowchart of a main program executed by the CPU 1, and the execution of this program is started when the power of the apparatus is turned on.

【0022】先ずステップS1では、各種パラメータの
処理設定を行い、次いで演奏操作子6及び設定操作子7
における操作イベントの検出を行う(ステップS2)。
続くステップS3では、ソングデータSONGに基づく
演奏処理の実行中でないか否かを判別し、演奏を開始し
ていないときは、ソングデータSONGの選択イベント
が有るか否かを判別する(ステップS4)。選択イベン
トが無ければ直ちに、また選択イベントがあったときは
選択されたソングデータSONGをデータメモリ4から
RAM3のソングバッファに転送して(ステップS
5)、ステップS6に進む。
First, in step S1, processing settings of various parameters are performed, and then the performance operator 6 and the setting operator 7
(Step S2).
In the following step S3, it is determined whether or not the performance process based on the song data SONG is being executed, and if the performance has not been started, it is determined whether or not there is a selection event of the song data SONG (step S4). . Immediately if there is no selection event, or if there is a selection event, the selected song data SONG is transferred from the data memory 4 to the song buffer of the RAM 3 (step S
5) Go to step S6.

【0023】ステップS6では、RAM3のソングバッ
ファにソングデータSONGがあるか否かを判別し、無
ければステップS2に戻り、あるときは歌唱演奏開始操
作イベントが有ったか否かを判別する(ステップS
7)。そして該操作イベントがなければ直ちにステップ
S2に戻り、あったときは歌唱演奏処理を開始し、各種
フラグ(歌詞ノートデータLYRICNOTEに基づい
た発音処理実行中であることを「1」で示すキーオンフ
ラグKEYONFLG、デュレーションデータDURA
TIONで指定された発音時間(以下「デュレーション
時間」という)中であることを「1」で示すノートオン
フラグNOTEONFLG、音素発音時間データPHO
NETIMEで指定された発音時間中であることを
「1」で示すフォルマントタイマフラグFTIMERF
LG、ゼロ指定がされたことを「1」で示すゼロ指定フ
ラグPHTIMEZEROFLG及びゼロ指定された場
合のデュレーション時間終了後の処理中であることを
「1」で示す残り処理フラグRESTFLG)及びポイ
ンタiを初期化して(ステップS8)、ステップS2に
戻る。
In step S6, it is determined whether or not there is song data SONG in the song buffer of the RAM 3. If not, the process returns to step S2, and if so, it is determined whether or not a singing performance start operation event is present (step S6). S
7). If there is no operation event, the process immediately returns to step S2. If there is, the singing performance process is started, and various flags (key-on flag KEYONFLG indicating "1" indicating that sound generation processing is being executed based on lyrics note data LYRICNOTE). , Duration data DURA
A note-on flag NOTEONFLG indicating "1" indicates that the sounding time (hereinafter, referred to as "duration time") specified by TION is present, and phoneme sounding time data PHO.
A formant timer flag FTIMER which indicates by "1" that the sounding time is being specified by NETTIME.
LG, a zero designation flag PHTIMEZEROFLG indicating “0” has been designated, a remaining process flag RESTFLG designated “1” indicating that the process is being performed after the end of the duration time when zero is designated, and a pointer i. Initialize (step S8) and return to step S2.

【0024】歌唱演奏処理が開始されると、ステップS
3からステップS9に進み、RAM3のソングバッファ
にロードされたソングデータSONGに基づく演奏処理
(SONG演奏処理、図4)を実行する。そして、歌唱
演奏処理のストップ操作イベントが有ったか否かを判別
し(ステップS10)、該操作イベントが無ければ直ち
に、また該操作イベントがあったときは歌唱演奏の中止
処理を実行して、ステップS2に戻る。
When the singing performance process starts, step S
Then, the process proceeds from step 3 to step S9 to execute a performance process (SONG performance process, FIG. 4) based on the song data SONG loaded into the song buffer of the RAM 3. Then, it is determined whether or not there is a stop operation event of the singing performance processing (step S10). Immediately if there is no such operation event, and if there is such an operation event, a singing performance stop processing is executed. It returns to step S2.

【0025】図4は、図3のステップS9におけるSO
NG演奏処理のフローチャートであり、この処理は歌唱
データLYRICSEQDATAに基づく演奏処理(L
YRICSEQDATA演奏処理、ステップS21)
と、伴奏データACCOMPDATAの基づく演奏処理
(ACCOMPDATA演奏処理、ステップS22)と
から成る。
FIG. 4 is a graph showing the relationship between SO and SO in step S9 in FIG.
It is a flowchart of an NG performance process, which is a performance process (L) based on the singing data LYRICSEQDATA.
YRICSEQDATA performance processing, step S21)
And performance processing based on the accompaniment data ACCOMPDATA (ACCOMPDATA performance processing, step S22).

【0026】図5、6及び7は、図4のステップS21
におけるLYRICSEQDATA演奏処理のフローチ
ャートである。
FIGS. 5, 6, and 7 show steps S21 in FIG.
6 is a flowchart of LYRICSEQDATA performance processing in FIG.

【0027】ステップS31では、キーオンフラグKE
YONFLGが「0」か否かを判別し、当初はKEYO
NFLG=0であるので、i番目の歌詞ノートデータL
YRICNOTEiを読み込み(ステップS32)、そ
の読み込んだデータがエンドデータLYRICENDで
ないか否かを判別する(ステップS33)。エンドデー
タLYRICENDであれば歌唱演奏終了処理を実行し
て(ステップS36)、本処理を終了する。エンドデー
タLYRICENDでなければ、デュレーションデータ
DURATIONを、テンポデータTEMPO及び割り
込みクロック時間(具体的には、図8に示すTIMER
割り込み処理の実行間隔)に応じた時間データに変換し
てノートタイマNOTETIMERに設定する(ステッ
プS34)。このタイマの値は、図8の処理が実行され
る毎に「1」ずつデクリメントされる。
In step S31, the key-on flag KE
It is determined whether or not YONFLG is "0".
Since NFLG = 0, the i-th lyrics note data L
YRICNOTEi is read (step S32), and it is determined whether or not the read data is end data LYRICEND (step S33). If the end data is LYRICEND, singing performance end processing is executed (step S36), and this processing ends. If the end data is not LYRICEND, the duration data DURATION is converted to the tempo data TEMPO and the interrupt clock time (specifically, TIMER shown in FIG. 8).
The time data is converted into time data corresponding to the interrupt processing execution interval) and set in the note timer NOTETIMER (step
Step S34) . The value of this timer is decremented by “1” each time the processing in FIG. 8 is executed.

【0028】続くステップS35では、ポインタkを
「1」に設定するとともに、キーオンフラグKEYON
FLG及びノートオンフラグNOTEONFLGをとも
に「1」に設定し、図6のステップS41に進む。ステ
ップS41では、残り処理フラグRESTFLGが
「0」か否かを判別する。当初はRESTFLG=0で
あるので、ステップS42に進み、ノートオンフラグN
OTEONFLGが「1」か否かを判別する。ノートオ
ンフラグNOTEONFLGは、デュレーション時間が
経過しノートタイマNOTETIMERの値が「0」に
なると、「1」から「0」に戻される(図8、ステップ
S73、S74)が、当初はNOTEONFLG=1で
あるので、ステップS43に進む。
In the following step S35, the pointer k is set to "1" and the key-on flag KEYON is set.
The FLG and the note-on flag NOTEONFLG are both set to "1", and the process proceeds to step S41 in FIG. In the step S41, it is determined whether or not the remaining processing flag RESTFLG is “0”. Initially, RESTFLG = 0, so the process proceeds to step S42, where the note-on flag N
It is determined whether or not OTEONFLG is “1”. When the duration time elapses and the value of the note timer NOTETIMER becomes "0", the note-on flag NOTEONFLG is returned from "1" to "0" (FIG. 8, steps S73 and S74). Since there is, the process proceeds to step S43.

【0029】ステップS43では、ゼロ指定フラグPH
TIMEZEROFLGが「0」か否かを判別し、当初
はPHTIMEZEROFLG=0であるので、ステッ
プS44に進んで、フォルマントタイマフラグFTIM
ERFLGが「0」であるか否かを判別する。当初はF
TIMERFLG=0であるので、図7のステップS5
1に進み、ポインタkが示す音素記号データLYPHO
NEを読み込む。次いで、読み込んだ音素記号データL
YPHONEが母音か否かを判別し(ステップS5
2)、母音でないときは子音であるか否かを判別する
(ステップS53)。
In step S43, a zero designation flag PH
It is determined whether or not TIMEZEROFLG is "0". Since PHTIMEZEROFLG is initially 0, the process proceeds to step S44, where the formant timer flag FTIM is set.
It is determined whether or not ERFLG is “0”. Initially F
Since TIMERFLG = 0, step S5 in FIG.
1 and the phoneme symbol data LYPHO indicated by the pointer k.
Read NE. Next, the read phoneme symbol data L
It is determined whether or not YPHONE is a vowel (step S5).
2) If it is not a vowel, it is determined whether or not it is a consonant (step S53).

【0030】例えば音素記号データLYPHONEが”
h”であるときは、ステップS52、S53を経由して
ステップS54に進む。なお、ステップS52及びS5
3の答がともに否定(NO)のときは、1つの歌詞ノー
トデータLYRICNOTEの発音が完了したと判断し
て、図6のステップS48に進む。
For example, if the phoneme symbol data LYPHONE is "
If h ", the process proceeds to step S54 via steps S52 and S53. Incidentally, steps S52 and S5
If the answer to 3 is both negative (NO), it is determined that the sounding of one piece of lyric note data LYRICNOTE has been completed, and the process proceeds to step S48 in FIG.

【0031】ステップS54では、フォルマントタイマ
FTIMERを、ポインタkが示す音素発音時間データ
PHONETIMEに設定するとともにフォルマントタ
イマフラグFTIMERFLGを「1」に設定して、フ
ォルマントタイマFTIMERをスタートさせる(ステ
ップS54)。フォルマントタイマFTIMERは、ノ
ートタイマNOTETIMERと同様に、図8の処理で
デクリメントされ、その値が「0」になるとフォルマン
トタイマフラグFTIMERFLGが「0」に設定され
る(ステップS76からS78)。
In step S54, the formant timer FTIMER is set to the phoneme sounding time data PHONETIME indicated by the pointer k, the formant timer flag FTIMERLG is set to "1", and the formant timer FTIMER is started (step S54). Like the note timer NOTETIMER, the formant timer FTIMER is decremented in the process of FIG. 8, and when its value becomes "0", the formant timer flag FTIMERLG is set to "0" (steps S76 to S78).

【0032】続くステップS55では、音素記号データ
LYPHONEkを子音フォルマント発生部UTGへ転
送し、次いでキーオンデータKEYONで指定されたベ
ロシティで発音を開始し(ステップS56)、ポインタ
kを「1」だけインクリメントして(ステップS5
7)、本処理を終了する。
In the following step S55, the phoneme symbol data LYPHONEk is transferred to the consonant formant generating unit UTG, and then sound generation is started at the velocity specified by the key-on data KEYON (step S56), and the pointer k is incremented by "1". (Step S5
7), end this processing.

【0033】以後は図8の処理でフォルマントタイマF
TIMERの値が「0」となり、フォルマントタイマフ
ラグFTIMERFLGが「0」となるまで、ステップ
S44から直ちに本処理を終了する動作を繰り返す。
Thereafter, in the process of FIG.
Until the value of TIMER becomes “0” and the formant timer flag FTIMERLG becomes “0”, the operation of immediately ending this processing from step S44 is repeated.

【0034】図8の処理は所定時間(例えば、8mse
c)毎に実行される。この処理では、先ずステップS7
1でキーオンフラグKEYONFLGが「1」か否かを
判別し、KEYONFLG=0であるときは直ちにステ
ップS75に進み、KEYONFLG=1であるときは
ノートタイマNOTETIMERの値を「1」だけデク
リメントし(ステップS72)、該タイマの値が「0」
か否かを判別する(ステップS73)。そして、NOT
ETIMER>0である間は直ちにステップS75に進
み、NOTETIMER=0となると、ノートオンフラ
グNOTEONFLGを「0」に設定して(ステップS
74)、ステップS75に進む。
The processing in FIG. 8 is performed for a predetermined time (for example, 8 msec).
c) is executed every time. In this process, first, in step S7
It is determined at 1 whether or not the key-on flag KEYONFLG is "1". If KEYONFLG = 0, the process immediately proceeds to step S75. If KEYONFLG = 1, the value of the note timer NOTETIMER is decremented by "1" (step S72), the value of the timer is “0”
It is determined whether or not this is the case (step S73). And NOT
While ETIMER> 0, the process immediately proceeds to step S75, and when NOTETIMER = 0, the note-on flag NOTEONFLG is set to “0” (step S75).
74), and proceeds to step S75.

【0035】ステップS75では、フォルマントタイマ
フラグFTIMERFLGが「1」か否かを判別し、F
TIMERFLG=0であるときは直ちにステップS7
9に進み、FTIMERFLG=1であるときはフォル
マントタイマFTIMERの値を「1」だけデクリメン
トして(ステップS76)、該タイマの値が「0」か否
かを判別する(ステップS77)。そして、FTIME
R>0である間は直ちにステップS79に進み、FTI
MER=0となると、フォルマントタイマフラグFTI
MERFLGを「0」に設定して(ステップS78)、
ステップS79に進む。
In step S75, it is determined whether or not the formant timer flag FTIMERLG is "1".
If TIMERFLG = 0, immediately step S7
Then, if FTIMERLG = 1, the value of the formant timer FTIMER is decremented by "1" (step S76), and it is determined whether or not the value of the timer is "0" (step S77). And FTIME
While R> 0, the process immediately proceeds to step S79, and the FTI
When MER = 0, the formant timer flag FTI
MERFLG is set to "0" (step S78),
Proceed to step S79.

【0036】ステップS79では他の割り込み処理を実
行して本処理を終了する。
In step S79, another interrupt process is executed, and the process ends.

【0037】以上のようにして図8の処理により、デュ
レーション時間の管理及び各音素の発音時間の管理が行
われる。
As described above, the duration time and the sounding time of each phoneme are managed by the processing of FIG.

【0038】図6に戻り、フォルマントタイマフラグF
TIMERFLGが「0」になると、ステップS44か
らステップS51に進んで、次の音素記号データLYP
HONEkを読み込む。
Referring back to FIG. 6, the formant timer flag F
When TIMERFLG becomes "0", the process proceeds from step S44 to step S51, where the next phoneme symbol data LYP
Read HONEk.

【0039】続くステップS52で音素記号データLY
PHONEkが母音である場合(例えば”hit”の”
i”である場合)には、音素発音時間データPHONE
TIMEkが「0」でないか否か、すなわちゼロ指定が
なされていないか否かを判別する(ステップS61)。
ゼロ指定されている場合(例えば図2(f)に示す音
素”i”の場合)には、ステップS63に進み、ゼロ指
定フラグPHTIMEZEROFLGが「0」か否かを
判別し、当初はPHTIMEZEROFLG=0である
ので、該フラグPHTIMEZEROFLGを「1」に
設定して、ステップS67に進む。ゼロ指定がなされた
母音は、デュレーション時間の終了時点まで発音を継続
するので、フォルマントタイマFTIMERの設定は行
わない。
In the following step S52, phoneme symbol data LY
When PHONEk is a vowel (for example, "hit"
i "), the phoneme sounding time data PHONE
It is determined whether or not TIMEk is not "0", that is, whether or not zero is specified (step S61).
If zero is specified (for example, in the case of the phoneme "i" shown in FIG. 2 (f)), the process proceeds to step S63, where it is determined whether or not a zero specification flag PHTIMEZEROFLG is "0". Initially, PHTIMEZEROFLG = 0. Therefore, the flag PHTIMEZEROFLG is set to “1”, and the process proceeds to step S67. Since the vowel designated as zero continues sounding until the end of the duration time, the formant timer FTIMER is not set.

【0040】一方、ゼロ指定がなされていないときは、
フォルマントタイマFTIMERを、ポインタkが示す
音素発音時間データPHONETIMEkに設定すると
ともにフォルマントタイマフラグFTIMERFLGを
「1」に設定して、フォルマントタイマFTIMERを
スタートさせ(ステップS62)、ステップS67に進
む。
On the other hand, when zero is not specified,
The formant timer FTIMER is set to the phoneme sounding time data PHONETIMEk indicated by the pointer k, the formant timer flag FTIMERLG is set to "1", the formant timer FTIMER is started (step S62), and the process proceeds to step S67.

【0041】ステップS67では、音素記号データLY
PHONEkを母音フォルマント発生部VTGへ転送
し、次いでキーオンデータKEYONで指定された音高
及びベロシティで発音を開始し(ステップS68)、ポ
インタkを「1」だけインクリメントして(ステップS
69)、本処理を終了する。
In step S67, the phoneme symbol data LY
PHONEk is transferred to the vowel formant generation unit VTG, and then sound generation is started at the pitch and velocity designated by the key-on data KEYON (step S68), and the pointer k is incremented by "1" (step S68).
69), end the present process.

【0042】図2(f)に示す歌詞”hit”の例で
は、”i”がゼロ指定されているので、以後はステップ
S43から直ちに処理を終了する動作を繰り返す。そし
て、デュレーション時間が終了してノートタイマNOT
ETIMERの値が「0」となり、ノートオンフラグN
OTEONFLGが「0」となるとステップS42から
ステップS45に進み、ゼロ指定フラグPHTIMEZ
EROFLGが「1」か否かを判別する。この例ではP
HTIMEZERO=1であるので、発音中の母音(”
i”)を消音し、残り処理フラグRESTFLGを
「1」に設定して(ステップS46)、ステップS51
に進む。
In the example of the lyrics "hit" shown in FIG. 2 (f), since "i" is specified as zero, the operation of immediately terminating the process from step S43 is repeated. Then, the duration time ends and the note timer NOT
The value of ETIMER becomes “0” and the note-on flag N
When OTEONFLG becomes "0", the process proceeds from step S42 to step S45, and the zero designation flag PHTIMEZ
It is determined whether or not EROFLG is “1”. In this example, P
Since HTIMEZERO = 1, the vowel (“”
i ") is silenced, and the remaining process flag RESTFLG is set to" 1 "(step S46), and step S51 is performed.
Proceed to.

【0043】ステップS51では、次に音素記号データ
LYPHONE(”t”)を読み込み、ステップS52
からS57を実行する。以後は、ステップS41からス
テップS44に直接進む処理を繰り返し、フォルマント
タイマFTIMERの値が「0」となり、フォルマント
タイマフラグFTIMERFLG=0となると、ステッ
プS51、S52、S53を経由してステップS48に
進み、キーオンフラグKEYONFLG、フォルマント
タイマフラグFTIMERFLG、ノートオンフラグN
OTEONFLG、ゼロ設定フラグPHTIMEZER
OFLG及び残り処理フラグRESTFLGを「0」に
設定するとともに、ポインタiを「1」だけインクリメ
ントして、本処理を終了する。
In step S51, the phoneme symbol data LYPHONE ("t") is read next, and step S52 is executed.
To S57. Thereafter, the process of directly proceeding from step S41 to step S44 is repeated. When the value of the formant timer FTIMER becomes “0” and the formant timer flag FTIMERLG becomes 0, the process proceeds to step S48 via steps S51, S52, and S53, Key-on flag KEYONFLG, formant timer flag FTIMERLG, note-on flag N
OTEONFLG, zero setting flag PHTIMEZEER
The OFLG and the remaining process flag RESTFLG are set to “0”, the pointer i is incremented by “1”, and the process ends.

【0044】なお、歌詞ノートデータLYRICNOT
Eの中にゼロ指定された音素がない場合は、デュレーシ
ョン時間が終了すると、ステップS45からステップS
47に進み、発音中の母音又は子音の消音を行って、ス
テップS48に進む。
The lyrics note data LYRICNOT
If there is no phoneme designated as zero in E, when the duration time ends, the process proceeds from step S45 to step S45.
Proceeding to 47, mute the vowel or consonant being pronounced, and proceed to step S48.

【0045】また、1つの歌詞ノートデータLYRIC
NOTEの中に2つ以上のゼロ指定がなされた場合は、
図7のステップS63の答が否定(NO)となり、ステ
ップS65に進んで、ポインタkの値を「1」だけイン
クリメントし、次いでフォルマントタイマフラグFTI
MERFLGを「0」に設定して(ステップS66)、
ステップS51に戻る。これにより、1つの歌詞ノート
データの中でゼロ指定された2つ目以降の母音は、発音
しないように制御される。
One piece of lyrics note data LYRIC
If two or more zeros are specified in NOTE,
The answer to step S63 in FIG. 7 is negative (NO), the process proceeds to step S65, the value of the pointer k is incremented by "1", and then the formant timer flag FTI
MERFLG is set to "0" (step S66),
It returns to step S51. As a result, the second and subsequent vowels designated as zero in one piece of lyric note data are controlled so as not to sound.

【0046】図9は、図2(f)に示すように音素発音
時間データPHONETIMEが設定された歌詞”hi
t”を音高C3の4分音符に対応して発音する処理を説
明するための図である。キーオンのタイミング(時刻t
1)から音素”h”の発音を開始し、音素発音時間デー
タPHONETIME1により指定された発音時間が経
過すると(時刻t2)、音素”i”の発音が開始され
る。このとき、音素”h”の発音レベルは所定の減衰特
性にしたがって減衰する。音素”i”はゼロ指定がされ
ているので、デュレーション時間の終了時点(時刻t
3)まで発音され、その後音素”t”が指定された発音
時間だけ発音される。
FIG. 9 shows the lyrics "hi" in which the phoneme sounding time data PHONETIME is set as shown in FIG. 2 (f).
12 is a diagram for explaining a process of generating “t” corresponding to a quarter note at pitch C3. Key-on timing (time t
The sounding of the phoneme "h" starts from 1), and when the sounding time specified by the phoneme sounding time data PHONETIME1 has elapsed (time t2), the sounding of the phoneme "i" is started. At this time, the sound level of the phoneme "h" is attenuated according to a predetermined attenuation characteristic. Since the phoneme “i” is specified as zero, the end time of the duration time (time t
3) is pronounced, and then the phoneme "t" is pronounced for the designated pronunciation time.

【0047】また歌詞が”yuki”の例(図2
(f)、下側)では、音素”u”がゼロ指定されている
ので、この母音がデュレーション時間の終了時点まで発
音され、音素”k”及び”i”はその後に発音される。
An example in which the lyrics are "yuki" (FIG. 2)
In (f), lower side, since the phoneme "u" is designated as zero, this vowel is pronounced until the end of the duration time, and the phonemes "k" and "i" are emitted thereafter.

【0048】このように本実施形態では、歌詞ノートデ
ータLYRICNOTE中においてゼロ指定された母音
の音素は、デュレーション時間の終了時点まで発音する
ようにしたので、曲のテンポを変更しても自然な歌唱を
行うことができる。
As described above, in the present embodiment, the vowel phonemes designated as zero in the lyric note data LYRICNOTE are pronounced until the end of the duration time, so that natural singing can be performed even if the tempo of the music is changed. It can be performed.

【0049】また一音に長い歌詞を割り当てる場合に
は、ゼロ指定する母音を変える(例えば「こーんにち
は」を「こんにちーわ」というように変える)ことによ
り、歌唱の感じを変えることができ、歌唱表現力を向上
させることができる。
When a long lyrics is assigned to one note, the vocal sound to be specified by zero is changed (for example, "konnichi" is changed to "konnichiwa") so that the feeling of singing is changed. Can be changed, and the singing expression can be improved.

【0050】なお本発明は、上述した実施の形態に限ら
れるものではなく、種々の形態で実施することができ
る。例えば、上述した実施形態ではソングデータSON
Gは、データメモリ4に格納されているが、MIDIイ
ンターフェースを設けて外部の機器から供給するように
してもよい。
The present invention is not limited to the above-described embodiments, but can be implemented in various forms. For example, in the above embodiment, the song data SON
G is stored in the data memory 4, but may be supplied from an external device by providing a MIDI interface.

【0051】また、音声合成の方法はフォルマント合成
方式に限らず、他の方式を採用してもよい。また、CP
Uに音声合成処理まで実行させてもよい。
The method of speech synthesis is not limited to the formant synthesis method, and other methods may be employed. Also, CP
U may execute up to the speech synthesis process.

【0052】[0052]

【発明の効果】以上詳述したように請求項1に記載の歌
唱音声合成装置又は請求項3に記載の歌唱音声合成方法
によれば、音素発音時間データが第2のデータ、すなわ
ち当該音素が有声音である場合に、該有声音に対応する
歌詞発音時間データが示す発音時間の終了まで発音する
ことを指定するデータからなるときには、当該有声音の
音素を、該有声音に対応する音素発音時間データが示す
発音時間の終了まで発音させるように、発音制御手段が
制御されるので、曲のテンポを変更しても自然な歌唱を
行うことができるとともに、歌唱表現力を向上させるこ
とができる。
As described above in detail, according to the singing voice synthesizing apparatus according to the first aspect or the singing voice synthesizing method according to the third aspect, the phoneme sounding time data is the second data, that is, the second data.
If the phoneme is a voiced sound, it corresponds to the voiced sound
Produces until the end of the pronunciation time indicated by the lyrics pronunciation time data
Data that specifies that voiced sound
A phoneme is indicated by phoneme sounding time data corresponding to the voiced sound.
The sound control means is used to sound until the end of the sounding time.
Since the control is performed, natural singing can be performed even when the tempo of the music is changed, and singing expression can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態にかかる歌唱電子装置の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a singing electronic device according to an embodiment of the present invention.

【図2】図1の各メモリに記憶されるデータの構成を示
す図である。
FIG. 2 is a diagram showing a configuration of data stored in each memory of FIG. 1;

【図3】図1のCPUで実行されるメインプログラムの
フローチャートである。
FIG. 3 is a flowchart of a main program executed by a CPU of FIG. 1;

【図4】歌唱演奏処理のフローチャートである。FIG. 4 is a flowchart of a singing performance process.

【図5】図4の歌唱データ(LYRICSEQDAT
A)演奏処理を詳細に示すフローチャートである。
FIG. 5 shows the singing data (LYRICSEQDAT) of FIG.
A) It is a flowchart which shows a performance process in detail.

【図6】図4の歌唱データ(LYRICSEQDAT
A)演奏処理を詳細に示すフローチャートである。
FIG. 6 shows the singing data (LYRICSEQDAT) of FIG.
A) It is a flowchart which shows a performance process in detail.

【図7】図4の歌唱データ(LYRICSEQDAT
A)演奏処理を詳細に示すフローチャートである。
FIG. 7 shows the singing data (LYRICSEQDAT) of FIG.
A) It is a flowchart which shows a performance process in detail.

【図8】タイマー割り込み処理のフローチャートであ
る。
FIG. 8 is a flowchart of a timer interrupt process.

【図9】歌唱データ演奏処理を説明するための図であ
る。
FIG. 9 is a diagram for explaining singing data performance processing;

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 4 データメモリ 8 フォルマント音源 9 DA変換器 10 サウンドシステム DESCRIPTION OF SYMBOLS 1 CPU 2 ROM 3 RAM 4 Data memory 8 Formant sound source 9 DA converter 10 Sound system

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10L 13/06 G10H 7/02 G10K 15/04 302 G10L 13/00 JICSTファイル(JOIS)Continued on the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G10L 13/06 G10H 7/02 G10K 15/04 302 G10L 13/00 JICST file (JOIS)

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 発音すべき歌詞を示す複数の歌詞データ
と、該歌詞データに対応し、該歌詞データが示す歌詞の
発音時間を相対時間で示す歌詞発音時間データとを含む
歌唱データに基づいて、発音制御手段を制御することに
より、音声を順次合成する歌唱音声合成装置であって、 前記各歌詞データは、それぞれ、当該歌詞の音素を示す
音素記号データと、該音素の発音時間を指定する音素発
音時間データとからなり、 前記音素発音時間データは、当該音素が有声音である場
合には、当該音素の発音時間を絶対時間で指定する第1
のデータ、または、該有声音に対応する前記歌詞発音時
間データが示す発音時間の終了まで発音することを指定
する第2のデータのいずれかからなる一方、当該音素が
有声音でない場合には、前記第1のデータのみからな
り、 前記発音制御手段は、前記音素発音時間データが前記第
1のデータからなるときには、該第1のデータが絶対時
間で指定する発音時間だけ当該音素を発音させるように
制御する一方、前記音素発音時間データが前記第2のデ
ータからなるときには、当該有声音の音素を、該有声音
に対応する前記歌詞発音時間データが示す発音時間の終
了まで発音させるように制御することを特徴とする歌唱
音声合成装置。
1. Based on singing data including a plurality of lyrics data indicating lyrics to be pronounced, and lyrics pronunciation time data corresponding to the lyrics data and indicating the pronunciation time of the lyrics indicated by the lyrics data in relative time. A singing voice synthesizer that sequentially synthesizes voices by controlling pronunciation control means, wherein each of the lyrics data specifies phoneme symbol data indicating a phoneme of the lyrics and a sounding time of the phoneme, respectively. Phoneme sounding time data, wherein the phoneme sounding time data indicates that the phoneme is a voiced sound.
In this case, the first time to specify the sounding time of the phoneme in absolute time
Data, or the lyrics sounding time second one that such scolded any data that specifies that the sound until the end of the data is sounding time indicated corresponding to the voiced speech is the phoneme
If it is not a voiced sound, only the first data is used.
Ri, the sound control means, when the phoneme sounding time data is composed of the first data when the first data is absolute
While the phoneme is controlled so as to sound the phoneme only for a specified sounding time, when the phoneme sounding time data is composed of the second data, the phoneme of the voiced sound is replaced with the lyrics sounding time corresponding to the voiced sound. A singing voice synthesizing device that controls sound generation until the end of a sounding time indicated by data.
【請求項2】 前記発音制御手段は、前記歌詞データ中
の前記音素発音時間データが前記第2のデータからなる
有声音の音素に続く音素は、当該有声音に対応する前記
歌詞発音時間データが示す発音時間の終了後に発音する
ように制御することを特徴とする請求項1記載の歌唱音
声合成装置。
2. The phonemic control means according to claim 1, wherein said phoneme sounding time data in said lyrics data is composed of said second data. A phoneme following a voiced phoneme is said phoneme corresponding to said voiced sound. 2. The singing voice synthesizing apparatus according to claim 1, wherein the singing voice synthesizing device is controlled so as to generate a sound after the utterance time indicated by the utterance time data.
【請求項3】 発音すべき歌詞を示す複数の歌詞データ
と、該歌詞データに対応し、該歌詞データが示す歌詞の
発音時間を相対時間で示す歌詞発音時間データとを含む
歌唱データに基づいて、発音制御手段を制御することに
より、音声を順次合成する歌唱音声合成方法であって、 前記各歌詞データは、それぞれ、当該歌詞の音素を示す
音素記号データと、該音素の発音時間を指定する音素発
音時間データとからなり、 前記音素発音時間データは、当該音素が有声音である場
合には、当該音素の発音時間を絶対時間で指定する第1
のデータ、または、該有声音に対応する前記歌詞発音時
間データが示す発音時間の終了まで発音することを指定
する第2のデータのいずれかからなる一方、当該音素が
有声音でない場合には、前記第1のデータのみからな
り、 前記発音制御手段に対しては、前記音素発音時間データ
が前記第1のデータからなるときには、該第1のデータ
絶対時間で指定する発音時間だけ当該音素を発音させ
るように制御する一方、前記音素発音時間データが前記
第2のデータからなるときには、当該有声音の音素を、
該有声音に対応する前記歌詞発音時間データが示す発音
時間の終了まで発音させるように制御することを特徴と
する歌唱音声合成方法。
3. Based on singing data including a plurality of lyrics data indicating lyrics to be pronounced, and lyrics pronunciation time data corresponding to the lyrics data and indicating the pronunciation time of the lyrics indicated by the lyrics data in relative time. A singing voice synthesizing method for sequentially synthesizing voices by controlling pronunciation control means, wherein each of the lyrics data specifies phoneme symbol data indicating a phoneme of the lyrics and a sounding time of the phoneme, respectively. Phoneme sounding time data, wherein the phoneme sounding time data indicates that the phoneme is a voiced sound.
In this case, the first time to specify the sounding time of the phoneme in absolute time
Data, or the lyrics sounding time second one that such scolded any data that specifies that the sound until the end of the data is sounding time indicated corresponding to the voiced speech is the phoneme
If it is not a voiced sound, only the first data is used.
Ri, for the sound control unit, when the phoneme sounding time data is composed of the first data, while the first data is controlled so as to sound the sounding time only the phonemes specified in absolute time , When the phoneme sounding time data is composed of the second data, the phoneme of the voiced sound is
A singing voice synthesizing method, wherein the singing voice synthesizing method is controlled so that sound is generated until the end of the sounding time indicated by the lyrics sounding time data corresponding to the voiced sound.
【請求項4】 前記発音制御手段に対しては、前記歌詞
データ中の前記音素発音時間データが前記第2のデータ
からなる有声音の音素に続く音素は、当該有声音に対応
する前記歌詞発音時間データが示す発音時間の終了後に
発音するように制御することを特徴とする請求項3記載
の歌唱音声合成方法。
4. A method according to claim 1, wherein said phoneme sounding time data in said lyrics data is said second data.
Followed phoneme voiced consisting phonemes corresponding to the voiced
4. The singing voice synthesizing method according to claim 3, wherein the singing voice synthesis is controlled so that the singing voice is generated after the utterance time indicated by the lyric sound generation time data ends.
JP21220896A 1996-07-24 1996-07-24 Singing voice synthesis apparatus and method Expired - Fee Related JP3265995B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP21220896A JP3265995B2 (en) 1996-07-24 1996-07-24 Singing voice synthesis apparatus and method
US08/898,591 US5895449A (en) 1996-07-24 1997-07-22 Singing sound-synthesizing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21220896A JP3265995B2 (en) 1996-07-24 1996-07-24 Singing voice synthesis apparatus and method

Publications (2)

Publication Number Publication Date
JPH1039896A JPH1039896A (en) 1998-02-13
JP3265995B2 true JP3265995B2 (en) 2002-03-18

Family

ID=16618724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21220896A Expired - Fee Related JP3265995B2 (en) 1996-07-24 1996-07-24 Singing voice synthesis apparatus and method

Country Status (1)

Country Link
JP (1) JP3265995B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3646703B2 (en) * 2002-02-01 2005-05-11 ヤマハ株式会社 Voice melody music generation device and portable terminal device using the same
JP6060869B2 (en) * 2013-10-04 2017-01-18 ブラザー工業株式会社 Karaoke device, program
CN111583894B (en) * 2020-04-29 2023-08-29 长沙市回音科技有限公司 Method, device, terminal equipment and computer storage medium for correcting tone color in real time

Also Published As

Publication number Publication date
JPH1039896A (en) 1998-02-13

Similar Documents

Publication Publication Date Title
JP6610715B1 (en) Electronic musical instrument, electronic musical instrument control method, and program
US6191349B1 (en) Musical instrument digital interface with speech capability
JP3144273B2 (en) Automatic singing device
US5895449A (en) Singing sound-synthesizing apparatus and method
CN107430849B (en) Sound control device, sound control method, and computer-readable recording medium storing sound control program
JP7036141B2 (en) Electronic musical instruments, methods and programs
JP2879948B2 (en) Audio processing device
JP4277697B2 (en) SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION
JP3518253B2 (en) Data editing device
JP3265995B2 (en) Singing voice synthesis apparatus and method
JP3307283B2 (en) Singing sound synthesizer
US20220301530A1 (en) Information processing device, electronic musical instrument, and information processing method
JP6819732B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP3233036B2 (en) Singing sound synthesizer
JP5106437B2 (en) Karaoke apparatus, control method therefor, and control program therefor
JP6828530B2 (en) Pronunciation device and pronunciation control method
JPH04146473A (en) Electronic sound musical instrument
JP2020024456A (en) Electronic musical instrument, method of controlling electronic musical instrument, and program
JP3239706B2 (en) Singing voice synthesizer
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
WO2022080395A1 (en) Audio synthesizing method and program
JP7276292B2 (en) Electronic musical instrument, electronic musical instrument control method, and program
JPH1031496A (en) Musical sound generating device
WO2023171522A1 (en) Sound generation method, sound generation system, and program
JPH0895588A (en) Speech synthesizing device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100111

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees