JP2002221978A - Vocal data forming device, vocal data forming method and singing tone synthesizer - Google Patents

Vocal data forming device, vocal data forming method and singing tone synthesizer

Info

Publication number
JP2002221978A
JP2002221978A JP2001019141A JP2001019141A JP2002221978A JP 2002221978 A JP2002221978 A JP 2002221978A JP 2001019141 A JP2001019141 A JP 2001019141A JP 2001019141 A JP2001019141 A JP 2001019141A JP 2002221978 A JP2002221978 A JP 2002221978A
Authority
JP
Japan
Prior art keywords
data
syllable
vocal
generating
lyrics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001019141A
Other languages
Japanese (ja)
Inventor
Hidenori Kenmochi
秀紀 劔持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001019141A priority Critical patent/JP2002221978A/en
Publication of JP2002221978A publication Critical patent/JP2002221978A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To realize natural singing by a virtual singer made to meet accompani ment by uttering phonemes for consonants among the phonemes constituting syllables so as to meet the timing to generate notes. SOLUTION: The vocal data including the timing data to generate the notes by each of the syllables corresponding to lyrics is previously stored. When reproduction processing is started, the timing to generate the vowel 'a', the operation to utter the consonant 's' is started before the timing to generate the note in having the syllable 'sa' corresponding to the note 'doh' uttered and the timing to generate the vowel 'a' is made to meet the timing to generate the note 'doh'. As a result, the natural singing by the virtual singer is made possible without delaying in the accompaniment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばパソコンに
よるコンピュータ・ミュージックに用いて好適なボーカ
ルデータ生成装置、ボーカルデータ生成方法および歌唱
音合成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vocal data generating apparatus, a vocal data generating method, and a singing sound synthesizing apparatus suitable for use in, for example, computer music by a personal computer.

【0002】[0002]

【従来の技術】昨今のコンピュータ・ミュージックは、
その発達により業務用のカラオケ、テレビのCM、さら
にポップスの伴奏等、多くの分野に利用されており、そ
の演奏レベルはオーケストラや生バンドに近いレベルに
達している。コンピュータ・ミュージックは、DTM
(デスクトップミュージック)とも呼ばれている。この
DTMは、MIDI音源を備え、このMIDI音源を利
用して、ヒット曲を模倣したり、ユーザが制作者やアレ
ンジャーとなって、音色やメロディを変えて自分だけの
楽曲を作って演奏を楽しむことも可能になっている。さ
らに、DTMには、メロディパートの音符に対して歌詞
の音節を割り当てたボーカルデータを用いてバーチャル
シンガ(架空の歌手)に歌詞を唄わせることのできる音
楽システムもある。
2. Description of the Related Art Recent computer music is
Due to its development, it has been used in many fields such as commercial karaoke, television commercials, and accompaniment of pops, and its performance level has reached a level close to that of an orchestra or a live band. Computer Music is DTM
(Desktop music). This DTM has a MIDI sound source, and uses this MIDI sound source to imitate a hit song, or to create a personalized song by changing the tone and melody as a creator or arranger, and enjoy playing. It is also possible. Further, the DTM includes a music system that allows a virtual singer (fictional singer) to sing lyrics using vocal data in which syllables of lyrics are assigned to notes of a melody part.

【0003】このDTMシステムでは、MIDIデータ
が用いられ、このMIDIデータはノートオン信号およ
びノートオフ信号というデータ列からなる。そして、こ
のMIDIデータは、ノートオン信号によってある高さ
の音(ノートナンバ)を発生し、ノートオフ信号によっ
てその音を停止する。ノートナンバとはMIDI規格で
決められたものであり、例えばノートナンバ=「C3」
が「ド」、ノートナンバ=「D3」が「レ」・・・とな
っている。一方、DTMは、歌唱音源等により擬似的に
音節を生成し、この音節をノートオン信号に対応付けて
音声を発声させる。これにより、DTMシステムでは、
ボーカルデータに基づいてバーチャルシンガに歌詞を唄
わせることが可能となる。
In this DTM system, MIDI data is used, and the MIDI data is composed of a data string of a note-on signal and a note-off signal. The MIDI data generates a note of a certain pitch (note number) by a note-on signal, and stops the note by a note-off signal. The note number is determined by the MIDI standard, for example, note number = “C3”
Is “do” and note number = “D3” is “re”. On the other hand, the DTM generates a syllable in a simulated manner from a singing sound source or the like, and associates the syllable with a note-on signal to produce a voice. Thus, in the DTM system,
It becomes possible to make the virtual singers sing the lyrics based on the vocal data.

【0004】[0004]

【発明が解決しようとする課題】ところで、人間が歌を
唄うとき、歌唱者は、一定の高さと長さを持つ音符に付
加された歌詞を声にする。この際、音符のタイミング通
りに歌詞に相当する音声を発生させるのではなく、音符
のタイミングよりも前に、その歌詞を唄おうとする準備
を無意識のうちに始めている。また、子音で始まる音節
では、その子音を出す位置を無意識のうちに前にずら
し、実際に音として聞こえる母音を音符のタイミングに
合わせて発生している。
When a human sings a song, the singer speaks a lyric attached to a note having a certain pitch and length. At this time, instead of generating a voice corresponding to the lyrics at the timing of the note, preparations for singing the lyrics are started unconsciously before the timing of the note. In a syllable that starts with a consonant, the position at which the consonant is emitted is unintentionally shifted forward, and a vowel that is actually heard as a sound is generated at the timing of the note.

【0005】しかし、上記従来によるDTMでは、バー
チャルシンガが歌詞の音節を発声する場合には、音符に
音節を割り当てたボーカルデータを用いているので、音
符を基準にして音節を発声するようになる。このため、
音節が母音のみの場合には、音符から若干遅れてこの音
節が聞こえるが、子音で始まる音節の場合には、母音を
発声するときに音として聞こえるため、音符に対応した
発音タイミングからかなり遅れて音節が聞こえることに
なる。
However, in the conventional DTM, when a virtual singer utters a syllable of a lyric, vocal data in which a syllable is assigned to a note is used, so that the syllable is uttered based on the note. . For this reason,
If the syllable consists only of vowels, this syllable will be heard slightly after the note, but if it is a syllable that starts with a consonant, it will be heard as a sound when the vowel is uttered. You will hear the syllables.

【0006】ここで、伴奏に対する歌詞の遅れについ
て、図10および図11に示した「チューリップ」の歌
い始めの「咲いた咲いた」の部分を例示して説明する。
図10は音符に対応したMIDIデータおよび音節の発
声を示したものであり、ノートオン信号をKON1、K
ON2、KON3・・・とし、ノートオフ信号をKOF
F1、KOFF2、KOFF3・・・として表してい
る。図11は音符の長さに対する音節の発声を示した図
である。なお、図10および図11では、音節の発声時
についてのみ図示し、音節の発声停止については省略し
ている。
Here, the delay of the lyrics with respect to the accompaniment will be described by exemplifying the part of "tumorous blooming" at the beginning of the singing of "tulip" shown in FIGS.
FIG. 10 shows MIDI data and syllable utterance corresponding to a note.
ON2, KON3 ... and note-off signal is KOF
F1, KOFF2, KOFF3,... FIG. 11 is a diagram showing the utterance of syllables with respect to the length of a note. FIGS. 10 and 11 show only the case where the syllable is uttered, and omit the stop of the syllable.

【0007】ここで、人は、前述した如く、「咲いた」
を歌唱する場合、第1拍目の「ド」が発生したときに
「さ」を発声するためには、音節としての「さ」を構成
する音素「s」を予め「ド」の発生位置よりも前にずら
し、音節「さ」を構成する音素である母音「a」が発声
する位置を音符「ド」の位置に合わせるようにしてい
る。ところが、DTMシステムは、第1拍目の「ド」を
発生させるためのノートオンKON1に基づいて「さ」
の音節を発声させるための処理を開始する。このため、
子音「s」の発音タイミングが「ド」の発音タイミング
よりも時間Δt1だけ遅れ、さらに母音「a」の発音タ
イミングが「ド」の発生タイミングよりも時間Δt2だ
け遅れることになる(図11参照)。ここで、子音で始
まる音節の子音から母音に変化するまでの時間は便宜上
一定時間t0とする。次に、DTMシステムは、第2拍
目の「レ」を発生させるためのノートオンKON2に基
づいて「い」の音節を発声させるための処理を開始す
る。このため、母音「i」の発音タイミングが「レ」の
発音タイミングよりも時間Δt1だけ遅れる(図11参
照)。さらに、DTMシステムは、第3拍目の「ミ」を
発生させるためのノートオンKON3に基づいて「た」
の音節を発声させるための処理を開始する。このため、
音素としての子音「t」の発音タイミングが「ミ」の発
音タイミングよりも時間Δt1だけ遅れ、さらに音素と
しての母音「a」の発音タイミングが「ミ」の発音タイ
ミングよりも時間Δt2だけ遅れることになる(図11
参照)。
[0007] Here, as described above, the person "blossomed".
In order to utter “sa” when the first beat “do” occurs, the phoneme “s” that constitutes “sa” as a syllable must be set in advance from the position where “do” occurs. The vowel “a”, which is a phoneme constituting the syllable “sa”, is also shifted forward to match the position of the note “do”. However, the DTM system uses “note” based on note-on KON1 for generating “do” on the first beat.
The process for producing the syllable is started. For this reason,
The sounding timing of the consonant "s" is delayed by the time .DELTA.t1 from the sounding timing of "do", and the sounding timing of the vowel "a" is further delayed by the time .DELTA.t2 from the occurrence timing of "do" (see FIG. 11). . Here, the time from a consonant of a syllable starting with a consonant to a change to a vowel is set to a fixed time t0 for convenience. Next, the DTM system starts processing for producing a syllable of “I” based on the note-on KON2 for generating “RE” of the second beat. Therefore, the sounding timing of the vowel “i” is delayed by the time Δt1 from the sounding timing of “の” (see FIG. 11). Further, the DTM system uses the note-on KON3 for generating the third beat “mi” based on “ta”.
The process for producing the syllable is started. For this reason,
The sounding timing of the consonant "t" as a phoneme is delayed by a time? T1 from the sounding timing of "mi", and the sounding timing of a vowel "a" as a phoneme is delayed by a time? T2 from the sounding timing of "mi". (Fig. 11
reference).

【0008】このように、従来のDTMシステムでは、
伴奏に合わせてバーチャルシンガに歌詞を唄わせと、メ
ロディパートの音符から遅れて歌詞の音節が発声するこ
とになり、特に子音で始まる音節でその遅れが顕著に現
れ、歌詞が伴奏に合わなくなってしまう、という問題が
あった。
As described above, in the conventional DTM system,
If you sing the lyrics to the virtual singer along with the accompaniment, the syllables of the lyrics will be uttered later than the melody part note, especially the syllables that begin with consonants will appear noticeably, and the lyrics will not match the accompaniment There was a problem that.

【0009】また、伴奏に歌詞を合わせる場合には、歌
詞の音節を発音タイミングを調整すればよいことが分か
る。しかし、発音タイミングを、子音で始まる音節に合
わせた場合、母音のみである音節を再生すると、この音
節が音符の発生タイミングよりも早くなってしまう。こ
のように、発音タイミングを一様に調整するだけでは、
バーチャルシンガによる自然な歌唱は得ることができな
かった。
In addition, when the lyrics are matched with the accompaniment, it can be understood that the syllables of the lyrics need only be adjusted in sounding timing. However, if the pronunciation timing is set to a syllable that starts with a consonant, when a syllable consisting of only vowels is reproduced, this syllable will be earlier than the timing of generation of a note. Thus, simply adjusting the tone generation timing uniformly requires
Natural singing by virtual singer could not be obtained.

【0010】本発明は、以上の問題に鑑みてなされたも
のであり、伴奏に合わせたバーチャルシンガによる自然
な歌唱を実現することのできるボーカルデータを生成す
るボーカルデータ生成装置、ボーカルデータ生成方法お
よび歌唱音合成装置を提供することを目的としている。
[0010] The present invention has been made in view of the above problems, and has a vocal data generating apparatus, a vocal data generating method, and a vocal data generating method for generating vocal data capable of realizing a natural singing by a virtual singer according to accompaniment. It is an object of the present invention to provide a singing sound synthesizer.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、メロディおよび歌詞に対応
するボーカルデータを生成するボーカルデータ生成装置
であって、歌詞の音節を前記メロディに対応する音符に
割り当てる歌詞割当手段と、前記音節を音素に分け、各
音節を構成する音素のうち、母音の音素の発音タイミン
グを前記音符に対応する発音タイミングに合わせるべく
各音節に対応する発音タイミングデータを生成する発音
タイミングデータ生成手段と、前記音節の音素列デー
タ、前記発音タイミングデータおよび前記音節に対応し
た音高データをボーカルデータとして生成し、このボー
カルデータを出力するデータ出力手段と、を備えたこと
を特徴としている。
According to one aspect of the present invention, there is provided a vocal data generating apparatus for generating vocal data corresponding to a melody and lyrics. Lyric allocating means for allocating to a note corresponding to the syllable, and a pronunciation corresponding to each syllable in order to match the pronunciation timing of a vowel phoneme to the pronunciation timing corresponding to the note among the phonemes constituting each syllable. Sounding timing data generating means for generating timing data; data output means for generating phoneme string data of the syllables, the sounding timing data and pitch data corresponding to the syllables as vocal data, and outputting the vocal data; It is characterized by having.

【0012】請求項2記載の発明は、メロディおよび歌
詞に対応するボーカルデータを生成するボーカルデータ
生成装置であって、歌詞の音節を前記メロディに対応す
る音符に割り当てる歌詞割当手段と、前記音節を音素に
分け、各音節を構成する音素のうち、母音の音素の発音
タイミングを前記音符に対応する発音タイミングに合わ
せるべく各音節に対応する発音タイミングデータを生成
する発音タイミングデータ生成手段と、前記音節の音素
列データ、前記発音タイミングデータおよび前記音節に
対応した音高データをボーカルデータとして生成し、こ
のボーカルデータをシステムエクスクルーシブメッセー
ジに含ませて出力するデータ出力手段と、を備えたこと
を特徴としている。
According to a second aspect of the present invention, there is provided a vocal data generating apparatus for generating vocal data corresponding to a melody and lyrics, wherein the lyrics allocating means assigns a syllable of the lyrics to a note corresponding to the melody; Sounding timing data generating means for generating sounding timing data corresponding to each syllable in order to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note, out of the phonemes constituting each syllable, divided into phonemes; Data output means for generating pitch data corresponding to the phoneme string data, the tone generation timing data and the syllables as vocal data, and outputting the vocal data included in the system exclusive message. I have.

【0013】請求項3記載の発明は、請求項1または2
記載のボーカルデータ生成装置において、前記データ出
力手段は、前記ボーカルデータをコーラス毎に分けて出
力することを特徴としている。
[0013] The invention according to claim 3 is the invention according to claim 1 or 2.
In the vocal data generation device described above, the data output means outputs the vocal data separately for each chorus.

【0014】請求項4記載の発明は、請求項1または2
記載のボーカルデータ生成装置において、前記データ出
力手段は、前記ボーカルデータをフレーズ毎に分けて出
力することを特徴としている。
The invention described in claim 4 is the first or second invention.
In the vocal data generation device described above, the data output means outputs the vocal data divided for each phrase.

【0015】請求項5記載の発明は、請求項1または2
記載のボーカルデータ生成装置において、前記データ出
力手段は、前記ボーカルデータを各息継ぎ区間毎に分け
て出力することを特徴としている。
The invention according to claim 5 is the first or second invention.
In the vocal data generation device described above, the data output means outputs the vocal data separately for each breathing section.

【0016】請求項6記載の発明は、請求項1または2
記載のボーカルデータ生成装置において、前記データ出
力手段は、前記ボーカルデータを小節毎に出力すること
を特徴としている。
The invention according to claim 6 is the first or second invention.
In the vocal data generation device described above, the data output means outputs the vocal data for each bar.

【0017】請求項7記載の発明は、メロディおよび歌
詞に対応するボーカルデータを生成するボーカルデータ
生成方法であって、歌詞の音節を前記メロディに対応す
る音符に割り当てる歌詞割当工程と、前記音節を音素に
分け、各音声を構成する音素のうち、母音の音素の発音
タイミングを前記音符に対応する発音タイミングに合わ
せるべく各音節に対応する発音タイミングデータを生成
する発音タイミングデータ生成工程と、前記音節の音素
列データ、前記発音タイミングデータおよび前記音節に
対応した音高データをボーカルデータとして生成し、こ
のボーカルデータを出力するデータ出力工程と、を備え
たことを特徴としている。
The invention according to claim 7 is a vocal data generating method for generating vocal data corresponding to a melody and lyrics, wherein a lyric allocating step of assigning a syllable of the lyrics to a note corresponding to the melody, and A sounding timing data generating step of generating sounding timing data corresponding to each syllable in order to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note, out of the phonemes constituting each voice by dividing into phonemes; And generating pitch data corresponding to the syllable, the phoneme sequence data, and the syllable timing data, and outputting the vocal data.

【0018】請求項8記載の発明は、メロディおよび歌
詞に対応するボーカルデータを生成するボーカルデータ
生成方法であって、歌詞の音節を前記メロディに対応す
る音符に割り当てる歌詞割当工程と、前記音節を音素に
分け、各音声を構成する音素のうち、母音の音素の発音
タイミングを前記音符に対応する発音タイミングに合わ
せるべく各音節に対応する発音タイミングデータを生成
する発音タイミングデータ生成工程と、前記音節の音素
列データ、前記発音タイミングデータおよび前記音節に
対応した音高データをボーカルデータとして生成し、こ
のボーカルデータをシステムエクスクルーシブメッセー
ジに含ませて出力するデータ出力工程と、を備えたこと
を特徴としている。
The invention according to claim 8 is a vocal data generating method for generating vocal data corresponding to a melody and lyrics, wherein a lyric allocating step of allocating a syllable of the lyrics to a note corresponding to the melody, and A sounding timing data generating step of generating sounding timing data corresponding to each syllable in order to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note, out of the phonemes constituting each voice by dividing into phonemes; A data output step of generating pitch data corresponding to the phoneme string data, the sounding timing data and the syllables as vocal data, and outputting the vocal data included in a system exclusive message. I have.

【0019】請求項9記載の発明は、伴奏に合わせてバ
ーチャルシンガに歌詞を唄わせる歌唱音合成装置であっ
て、伴奏データと、メロディデータの音符に歌詞を割り
当て、該音符の発音タイミングに前記音節毎の母音の発
音タイミングを対応させた発音タイミングデータ、音節
の音素列データおよび前記音節に対応した音高データを
含むボーカルデータを出力するデータ出力手段と、再生
時にこれらのデータを送信するデータ制御手段と、前記
データ制御手段によって送信された前記伴奏データを受
けて伴奏音を発生させる伴奏音源と、前記データ制御手
段によって送信された前記ボーカルデータを受け、該ボ
ーカルデータに基づいて前記音符に対応する音程で音節
を発音させる歌唱音源と、を具備したことを特徴として
いる。
The invention according to claim 9 is a singing sound synthesizing apparatus for singing lyrics to a virtual singer in accordance with an accompaniment, wherein lyrics are assigned to notes of accompaniment data and melody data, and the sound timing of the notes is set at the sounding timing of the notes. Data output means for outputting vocal data including sounding timing data corresponding to the vowel sounding timing for each syllable, syllable phoneme string data and pitch data corresponding to the syllable, and data for transmitting these data during reproduction Control means, an accompaniment sound source that generates the accompaniment sound by receiving the accompaniment data transmitted by the data control means, and receives the vocal data transmitted by the data control means, and generates a note based on the vocal data. And a singing sound source for producing syllables at corresponding intervals.

【0020】請求項10記載の発明は、伴奏に合わせて
バーチャルシンガに歌詞を唄わせる歌唱音合成装置であ
って、伴奏データと、メロディデータの音符に歌詞を割
り当て、該音符の発音タイミングに前記音節毎の母音の
発音タイミングを対応させた発音タイミングデータ、音
節の音素列データおよび前記音節に対応した音高データ
を含むボーカルデータをシステムエクスクルーシブメッ
セージに含ませて出力するデータ出力手段と、再生時に
これらのデータを送信するデータ制御手段と、前記デー
タ制御手段によって送信された前記伴奏データを受けて
伴奏音を発生させる伴奏音源と、前記データ制御手段に
よって送信された前記システムエクスクルーシブメッセ
ージ中のボーカルデータを受け、該ボーカルデータに基
づいて前記音符に対応する音程で音節を発音させる歌唱
音源と、を具備したことを特徴としている。
According to a tenth aspect of the present invention, there is provided a singing sound synthesizing apparatus for singing lyrics to a virtual singer along with an accompaniment, wherein lyrics are assigned to musical notes of accompaniment data and melody data, and the sounding timing of the musical notes is set. Data output means for outputting vocal data including vocal data including vocal data including vowel sound timing corresponding to vowels for each syllable, phoneme string data of syllables and pitch data corresponding to the syllables in a system exclusive message, A data control means for transmitting these data, an accompaniment sound source for generating an accompaniment tone upon receiving the accompaniment data transmitted by the data control means, and vocal data in the system exclusive message transmitted by the data control means To the note based on the vocal data. It is characterized by comprising a singing sound source to sound the syllables in pitch to respond, the.

【0021】[0021]

【発明の実施の形態】以下、図面を参照し、本発明の実
施形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0022】A.歌唱音合成装置の構成 図1は、本発明による歌唱音合成装置(以下、DTMと
いう)のシステム構成の一例を示す図である。このDT
Mシステムは、パーソナルコンピュータ1(以下、パソ
コン1という)と、トーンジェネレータ31と、スピー
カ50と、MIDIキーボード60とによって大略構成
されている。図2は、パソコン1およびトーンジェネレ
ータ31の構成、さらに接続状態を示す図である。パソ
コン1はシーケンサでもよく、トーンジェネレータ31
は音声発音装置を含むものである。
A. FIG. 1 is a diagram showing an example of a system configuration of a singing sound synthesizer (hereinafter, referred to as DTM) according to the present invention. This DT
The M system generally includes a personal computer 1 (hereinafter, referred to as a personal computer 1), a tone generator 31, a speaker 50, and a MIDI keyboard 60. FIG. 2 is a diagram showing the configuration of the personal computer 1 and the tone generator 31, and further shows the connection state. The personal computer 1 may be a sequencer, and the tone generator 31
Includes a voice pronunciation device.

【0023】A−1.パソコン1の構成 パソコン1は、CPU13、RAM11、ROM12お
よびハードディスク14(図2参照)を備えたパソコン
本体10と、このパソコン本体10からの画像信号を受
けて各種表示を行うモニタ27と、パソコン本体10に
歌詞、指令情報等の各種情報を入力するキーボード28
およびマウス29とを具備している。
A-1. 1. Configuration of the Personal Computer 1 The personal computer 1 includes a personal computer body 10 having a CPU 13, a RAM 11, a ROM 12, and a hard disk 14 (see FIG. 2), a monitor 27 that receives image signals from the personal computer body 10 and performs various displays, and a personal computer body. Keyboard 28 for inputting various information such as lyrics and command information to 10
And a mouse 29.

【0024】パソコン本体10のバス15には、図2に
示す如く、検出回路16、検出回路17及び表示回路1
8の他、インターフェース19、ハードディスク14、
RAM11、ROM12、CPU13等が接続される。
As shown in FIG. 2, a detection circuit 16, a detection circuit 17, and a display circuit 1 are connected to a bus 15 of the personal computer body 10.
8, the interface 19, the hard disk 14,
The RAM 11, the ROM 12, the CPU 13, and the like are connected.

【0025】検出回路16は、キーボード28上のキー
(数字キーや文字キー等)入力を検出し、キー信号を生
成する。検出回路17は、マウス29の移動操作やスイ
ッチ操作を検出し、マウス信号を生成する。作業者は、
キーボード28またはマウス29を用いて、伴奏データ
の生成およびボーカルデータの編集を行う。
The detection circuit 16 detects an input of a key (numerical key, character key, or the like) on the keyboard 28 and generates a key signal. The detection circuit 17 detects a moving operation and a switch operation of the mouse 29 and generates a mouse signal. The worker
Using the keyboard 28 or the mouse 29, accompaniment data is generated and vocal data is edited.

【0026】表示回路18はモニタ27に接続される。
モニタ27には、編集画面等を表示することができ、作
業者は、モニタ27上の編集画面を参照しながら伴奏デ
ータの生成およびボーカルデータの編集を行う。
The display circuit 18 is connected to a monitor 27.
An edit screen or the like can be displayed on the monitor 27, and the operator generates the accompaniment data and edits the vocal data while referring to the edit screen on the monitor 27.

【0027】ROM12は、伴奏データ、ボーカルデー
タ等の各種パラメータ及び制御プログラムを記憶する。
RAM11は、フラグ、バッファ等を記憶するもので、
ハードディスク14から供給された制御プログラム等を
記憶することも可能となる。CPU13は、RAM11
又はROM12に記憶されている制御プログラムに従っ
て、ボーカルデータの編集等のための演算または制御を
行うものである。ROM12等に記憶される制御プログ
ラムは、後述する伴奏データ生成処理、楽器音生成
処理、ボーカルデータ生成処理、曲再生処理、表
示処理等を行わせるものである。CPU13にはタイマ
20が接続され、CPU13はこのタイマ20の時間情
報に応じて、所定時間間隔に割り込み処理を行う。
The ROM 12 stores various parameters such as accompaniment data and vocal data and a control program.
The RAM 11 stores flags, buffers, and the like.
It is also possible to store the control program and the like supplied from the hard disk 14. The CPU 13 is a RAM 11
Alternatively, according to a control program stored in the ROM 12, calculation or control for editing vocal data or the like is performed. The control program stored in the ROM 12 or the like performs an accompaniment data generation process, a musical instrument sound generation process, a vocal data generation process, a music reproduction process, a display process, and the like, which will be described later. A timer 20 is connected to the CPU 13, and the CPU 13 performs an interrupt process at predetermined time intervals according to the time information of the timer 20.

【0028】インターフェース19は、MIDIインタ
ーフェースからなる。インターフェース19は、トーン
ジェネレータ31のインターフェース38とMIDIケ
ーブルで接続される。これにより、パソコン1は、イン
ターフェース8を介して、伴奏データおよびボーカルデ
ータ等をトーンジェネレータ31に送信する。
The interface 19 comprises a MIDI interface. The interface 19 is connected to the interface 38 of the tone generator 31 via a MIDI cable. Thereby, the personal computer 1 transmits the accompaniment data and the vocal data to the tone generator 31 via the interface 8.

【0029】A−2.トーンジェネレータ31の構成 トーンジェネレータ31は、MIDI音源32および歌
唱音源33とを有する。バス34には、MIDI音源3
2、効果回路37、歌唱音源33、検出回路35、表示
回路36、インターフェース38、RAM39、ROM
40、CPU41等が接続される。
A-2. Configuration of Tone Generator 31 The tone generator 31 has a MIDI sound source 32 and a singing sound source 33. The bus 34 has a MIDI sound source 3
2. Effect circuit 37, singing sound source 33, detection circuit 35, display circuit 36, interface 38, RAM 39, ROM
40, a CPU 41 and the like are connected.

【0030】検出回路35は、操作子42或いはMID
Iキーボード60の操作を検出し、操作子信号を生成す
る。操作子42は、例えばスイッチ等の演奏操作子であ
る。表示回路36は、トーンジェネレータ31の動作状
態等を表示パネル43に表示させるものである。
The detection circuit 35 is provided with an operation element 42 or MID
An operation of the I keyboard 60 is detected, and an operation signal is generated. The operation element 42 is a performance operation element such as a switch. The display circuit 36 displays the operation state of the tone generator 31 on the display panel 43.

【0031】ROM40は、音声を合成するためのフォ
ルマントデータ、その他の各種データ及び制御プログラ
ムを記憶している。RAM39は、パソコン1から送信
される伴奏データおよびボーカルデータ等を記憶する。
制御プログラムは、ROM40に記憶させる代わりに、
RAM39に記憶させてもよい。CPU41は、ROM
40に記憶されている制御プログラムに従い、演算また
は制御を行うことにより曲を再生させる。
The ROM 40 stores formant data for synthesizing voice, various other data, and a control program. The RAM 39 stores accompaniment data and vocal data transmitted from the personal computer 1.
Instead of storing the control program in the ROM 40,
The information may be stored in the RAM 39. CPU 41 is a ROM
According to the control program stored in 40, the music is reproduced by performing calculation or control.

【0032】CPU41は、接続されたタイマ44から
時間情報を得て、この時間情報に従って、伴奏データ又
はボーカルデータの再生を行う。CPU41は、ノート
オン信号等に基づいて楽音パラメータおよび効果パラメ
ータを生成し、それぞれMIDI音源32および効果回
路37に供給する。MIDI音源32は、供給される楽
音パラメータに応じて楽音信号を生成するものである。
効果回路37は、供給される効果パラメータに応じて、
MIDI音源32で生成される楽音信号に例えばディレ
イやリバーブ等の効果を付与し、DA変換回路45に供
給する。DA変換回路45は供給されるデジタル形式の
楽音信号をアナログ形式に変換し、スピーカ50から伴
奏を発生させる。なお、MIDI音源32は、波形メモ
リ方式、FM方式、物理モデル方式、高調波合成方式、
VCO+VCF+VCAのアナログシンセサイザ方式
等、どのような方式であってもよい。
The CPU 41 obtains time information from the connected timer 44, and reproduces accompaniment data or vocal data according to the time information. The CPU 41 generates a tone parameter and an effect parameter based on the note-on signal and the like, and supplies them to the MIDI tone generator 32 and the effect circuit 37, respectively. The MIDI tone generator 32 generates a tone signal in accordance with a supplied tone parameter.
The effect circuit 37, depending on the effect parameter supplied,
The tone signal generated by the MIDI tone generator 32 is given an effect such as delay or reverb, and is supplied to the DA conversion circuit 45. The DA conversion circuit 45 converts the supplied digital musical tone signal into an analog musical signal, and generates an accompaniment from the speaker 50. The MIDI sound source 32 has a waveform memory system, an FM system, a physical model system, a harmonic synthesis system,
Any system such as an analog synthesizer system of VCO + VCF + VCA may be used.

【0033】インターフェース38は、MIDIインタ
ーフェースからなる。例えば、トーンジェネレータ31
のインターフェース38とパソコン1のインターフェー
ス19とがMIDIケーブルで接続される場合、トーン
ジェネレータ31およびパソコン1との間はMIDI通
信を行う。
The interface 38 comprises a MIDI interface. For example, the tone generator 31
When the interface 38 of the personal computer 1 and the interface 19 of the personal computer 1 are connected by a MIDI cable, MIDI communication is performed between the tone generator 31 and the personal computer 1.

【0034】また、CPU41は、インターフェース3
8を介して、パソコン1からボーカルデータを受け取
り、RAM39に格納する。ボーカルデータは、ノート
データ、音素列データおよび発音タイミングデータを含
むもので、詳細ついては後に説明する。
The CPU 41 is provided with the interface 3
The vocal data is received from the personal computer 1 through the PC 8 and stored in the RAM 39. The vocal data includes note data, phoneme string data, and sounding timing data, and will be described later in detail.

【0035】さらに、CPU41は、RAM39に記憶
されているボーカルデータを読み出し、ROM40に記
憶されているフォルマントデータに基づき、このフォル
マントデータを歌唱音源33に供給する。フォルマント
データは、例えば各音素に対応したフォルマントを形成
するために必要とされるフォルマント中心周波数(フォ
ルマントを形成する山の中心周波数)データ、フォルマ
ントバンド幅(フォルマントを形成する山のバンド幅)
データ、フォルマントレベル(フォルマントを形成する
山のピークレベル)データ等からなる。歌唱音源33
は、供給されるフォルマントデータに応じて音声信号を
生成する。音声信号は、所定の音高を有した歌声に相当
する。歌唱音源33は、フォルマント合成方式(歌唱音
源)でもよいし、その他の方式でもよい。フォルマント
合成方式については、例えば特開平3−200299号
公報に記載されている。
Further, the CPU 41 reads the vocal data stored in the RAM 39 and supplies the vocal data to the singing sound source 33 based on the formant data stored in the ROM 40. The formant data includes, for example, formant center frequency (center frequency of a mountain forming a formant) data required to form a formant corresponding to each phoneme, and formant band width (bandwidth of a mountain forming a formant)
Data, formant level (peak level of a mountain forming a formant) data, and the like. Singing sound source 33
Generates an audio signal according to the supplied formant data. The audio signal corresponds to a singing voice having a predetermined pitch. The singing sound source 33 may be a formant synthesis method (singing sound source) or another method. The formant synthesis method is described in, for example, JP-A-3-200299.

【0036】効果回路37は、供給される効果パラメー
タに応じて、歌唱音源33で生成される音声信号に、例
えばディレイ等の効果を付与し、DA変換回路45に供
給する。DA変換回路45は、供給されるデジタル形式
の音声信号をアナログ形式に変換し、スピーカ50から
歌唱を発音させる。
The effect circuit 37 applies an effect such as a delay to the audio signal generated by the singing sound source 33 in accordance with the supplied effect parameter, and supplies the result to the DA conversion circuit 45. The DA conversion circuit 45 converts the supplied digital audio signal into an analog audio signal and causes the speaker 50 to produce a singing voice.

【0037】なお、歌唱音源33およびMIDI音源3
2は、専用のハードウエアを用いて構成するものに限ら
ず、DSP+マイクロプログラムを用いて構成してもよ
いし、CPU+ソフトウェアのプログラムで構成するよ
うにしてもよい。さらに、1つの歌唱音源又は音源回路
を時分割で使用することにより複数の発音チャンネルを
形成するようにしてもよいし、複数の歌唱音源又は音源
回路を用い、1つの発音チャンネルにつき1つの歌唱音
源又は音源回路で複数の発音チャンネルを構成するよう
にしてもよい。
The singing sound source 33 and the MIDI sound source 3
2 is not limited to a configuration using dedicated hardware, but may be configured using a DSP + microprogram, or may be configured using a CPU + software program. Further, a plurality of sounding channels may be formed by using one singing sound source or sound source circuit in a time-division manner, or one singing sound source for one sounding channel using a plurality of singing sound sources or sound source circuits. Alternatively, a plurality of tone generation channels may be constituted by a tone generator circuit.

【0038】B.制御処理 次に、DTMの制御処理について説明する。この制御プ
ログラムは、伴奏データ生成処理、楽器音生成処
理、ボーカルデータ生成処理、曲再生処理、表示
処理等をCPU13またはCPU41に行わせるもので
ある。
B. Control Processing Next, DTM control processing will be described. This control program causes the CPU 13 or the CPU 41 to perform accompaniment data generation processing, musical instrument sound generation processing, vocal data generation processing, music reproduction processing, display processing, and the like.

【0039】ここで、前述した各処理の概略を説明す
る。 伴奏データ生成処理 モニタ27上に表示された音符入力ウィンドウの五線譜
に、ユーザがキーボード28(マウス29)或いはMI
DIキーボード60を用いて音符を書き込み、この音符
をMIDI形式の伴奏データとしてハードディスク14
に記憶させる。この際、伴奏データは、パート(例え
ば、楽器)毎に個々に記憶させる。 楽器音生成処理 ユーザが曲作成処理によって書き込んだ各パートデータ
に対して楽器(例えば、ドラム、ギター、エレクトーン
等)の選択、さらにアレンジおよびエフェクト処理等を
設定し、この設定状態が設定データとしてハードディス
ク14に記憶される。 ボーカルデータ生成処理 メロディおよび歌詞に対応するボーカルデータを生成
し、このボーカルデータがハードディスク14に記憶さ
れる。 曲再生処理 トーンジェネレータ31のMIDI音源32および歌唱
音源33とを用いて、ボーカルデータおよび伴奏データ
による楽音をスピーカ50から発生させる。 表示処理 モニタ27上に各種画面を表示させる。
Here, the outline of each process described above will be described. Accompaniment data generation processing The user enters a musical score in the musical notation input window displayed on the monitor 27 with the keyboard 28 (mouse 29) or MI
The musical note is written using the DI keyboard 60, and the musical note is converted to MIDI format accompaniment data on the hard disk 14.
To memorize. At this time, the accompaniment data is stored individually for each part (for example, musical instrument). Musical instrument sound generation processing The user selects a musical instrument (for example, a drum, a guitar, an electric tone, etc.) for each part data written by the music creation processing, and further arranges and effects processing. 14 is stored. Vocal Data Generation Processing Vocal data corresponding to a melody and lyrics is generated, and the vocal data is stored in the hard disk 14. Music Playback Processing Using the MIDI sound source 32 and the singing sound source 33 of the tone generator 31, a musical tone based on vocal data and accompaniment data is generated from the speaker 50. Display Processing Various screens are displayed on the monitor 27.

【0040】これらの処理のうち、伴奏データ生成処
理、楽器音生成処理、表示処理は、従来からDTM
で行われていた技術であり、その詳細説明を省略する
が、ボーカルデータ生成処理および曲再生処理につ
いては、後に詳述するものとする。
Among these processes, the accompaniment data generation process, the musical instrument sound generation process, and the display process are conventionally performed by DTM.
Although the detailed description is omitted, the vocal data generation processing and the music reproduction processing will be described later in detail.

【0041】B−1.ボーカルデータ生成処理 まず、前述したボーカルデータ生成処理について、図3
のフローチャートに基づいて説明する。まず、CPU1
3は、ボーカルデータを生成する制御プログラムに基づ
いて、歌詞割当処理を行う(ステップS1)。
B-1. Vocal Data Generation Process First, the vocal data generation process described above is described with reference to FIG.
A description will be given based on the flowchart of FIG. First, CPU1
No. 3 performs a lyrics assignment process based on a control program for generating vocal data (step S1).

【0042】ここで、歌詞割当処理とは、歌詞の音節を
メロディデータの音符に割り当てる処理のことであり、
例えば、音節のデータ数と音符のデータ数とを合わせ
て、初めから割り振る等の処理を行う。
Here, the lyrics assignment process is a process of assigning the syllables of the lyrics to the notes of the melody data.
For example, processing such as assigning the syllable data number and the note data number together from the beginning is performed.

【0043】この歌詞割当処理によって、生成されたボ
ーカルデータのテーブル(図4参照)がハードディスク
14に記憶される。図4は、例えば「チューリップ」の
歌詞「咲いた咲いた」の部分のテーブルを示している。
このデータテーブルは、ノート(音符)データ、発生タ
イミングデータ、歌詞および音素列データとを含む。ノ
ートデータとはノートナンバ(音高を示す)のことであ
る。音素列データは、各音素に関するデータと呼気(即
ち、人が音声を発音する際の息継ぎ)を表現するデータ
を含む。前記音素列データは、「歌詞」の各音節(本実
施形態における仮名文字)に対応している。
The vocal data table (see FIG. 4) generated by the lyrics assigning process is stored in the hard disk 14. FIG. 4 shows, for example, a table of a portion of the lyrics “flower bloomed” of “tulip”.
This data table includes note (note) data, generation timing data, lyrics, and phoneme string data. The note data is a note number (indicating a pitch). The phoneme string data includes data relating to each phoneme and data expressing exhalation (that is, breathing when a person pronounces a voice). The phoneme string data corresponds to each syllable of “lyrics” (a kana character in the present embodiment).

【0044】例えば、第1行目の歌詞「さ」を構成する
音節は、音素列データ「s+a」に置き換えられ、C3
の音高(ノート)で発音されることを意味し、第2行目
の歌詞「い」は、音素列データ「i」に置き換えられ、
D3の音高で発音されることを意味している。
For example, the syllables constituting the lyrics “sa” on the first line are replaced with phoneme string data “s + a”,
Means that the word "i" is pronounced at the pitch (note) of the second line, and the lyrics "i" on the second line are replaced with phoneme string data "i".
It means that it is pronounced at the pitch of D3.

【0045】発音タイミングデータは、初めの音素の発
音タイミングを示したもので、図9に示すように、音符
に割り当てられた音節について、音素列データのうち母
音を発音するときの発音タイミングと、音符を発音する
ときの発音タイミングとを合わせるタイミングを示した
ものである。母音のみで表される音節の場合には、音節
の発音タイミングは音符の発音タイミングにほぼ一致
し、子音で始まる音節の場合には、音節の発音タイミン
グは音符の発音タイミングよりも前になる。
The sounding timing data indicates the sounding timing of the first phoneme. As shown in FIG. 9, for the syllable assigned to the note, the sounding timing when the vowel of the phoneme string data is sounded, This shows the timing to match the sounding timing when a note is sounded. In the case of a syllable represented only by a vowel, the sounding timing of the syllable almost coincides with the sounding timing of the note, and in the case of a syllable starting with a consonant, the sounding timing of the syllable is earlier than the sounding timing of the note.

【0046】再び、図3に戻って、CPU13は、図4
のボーカルデータを含むシステムエクスクルーシブメッ
セージを作成する(ステップS3)。一般に、このシス
テムエクスクルーシブメッセージは、MIDI音源固有
の機能を操作するために使う情報であり、メーカが自社
製のMIDI楽器等に独自に設定している送受信メッセ
ージのことである。このメッセージは、曲データの1番
最初に音源に送ることにより、MIDI音源が持つ独自
の機能を用いて音色やエフェクトを設定する。このシス
テムエクスクルーシブメッセージを用いることにより、
MIDI音源により高度な楽音表現を実現する。
Returning to FIG. 3, the CPU 13 returns to FIG.
Then, a system exclusive message including the vocal data is created (step S3). Generally, this system exclusive message is information used for operating a function unique to a MIDI sound source, and is a transmission / reception message that is set uniquely by a manufacturer for a MIDI instrument or the like manufactured by the manufacturer. This message is sent to the sound source at the very beginning of the music data, so that the tone color and effects are set using the unique functions of the MIDI sound source. By using this system exclusive message,
Advanced musical tone expression is realized by MIDI sound source.

【0047】本実施形態によるシステムエクスクルーシ
ブメッセージは、図5に示すように構成されている。即
ち、先頭にシステムエクスクルーシブメッセージである
ことを示すエクスクルーシブ・ステータス「F0」、次
の位置がメーカID、3つ目の位置がエクスクルーシブ
メッセージを送受信するための識別番号(デバイスI
D)、次が音素列データメッセージ、次が発音タイミン
グメッセージさらに音節のピッチメッセージとなり、こ
の音素列データメッセージ、発音タイミングメッセー
ジ、ピッチメッセージがそれぞれ1つの音節を示してい
る。そして、この3つのデータを各音節毎に繰り返して
1曲分のボーカルデータを構成し、最後の位置にエンド
オブエクスクルーシブ「F7」が割り付けられる。
The system exclusive message according to the present embodiment is configured as shown in FIG. That is, at the beginning, an exclusive status “F0” indicating a system exclusive message, the next position is a manufacturer ID, and the third position is an identification number for transmitting / receiving an exclusive message (device I).
D), next is a phoneme string data message, next is a sounding timing message, and a syllable pitch message. The phoneme string data message, sounding timing message, and pitch message each indicate one syllable. Then, these three data are repeated for each syllable to form vocal data for one song, and the end of exclusive "F7" is assigned to the last position.

【0048】さらに、CPU13は、ステップS3で生
成されたシステムエクスクルーシブメッセージをハード
ディスク14に記憶し、この処理を終了する。
Further, the CPU 13 stores the system exclusive message generated in step S3 on the hard disk 14, and ends this processing.

【0049】B−2.曲再生処理 次に、曲再生処理について、図6のフローチャートに基
づいて説明する。まず、パソコン1のCPU13は、キ
ーボード28またはマウス29からの信号を受けて、ハ
ードディスク14に記憶された伴奏データおよびシステ
ムエクスクルーシブメッセージとして表現されたボーカ
ルデータをインターフェース19,37を介してトーン
ジェネレータ31に送信する。トーンジェネレータ31
のCPU41は、この伴奏データおよびシステムエクス
クルーシブメッセージを受信すると、曲再生処理を開始
する(ステップS11)。
B-2. Music Playback Processing Next, music playback processing will be described based on the flowchart of FIG. First, the CPU 13 of the personal computer 1 receives a signal from the keyboard 28 or the mouse 29 and sends the accompaniment data stored on the hard disk 14 and the vocal data expressed as a system exclusive message to the tone generator 31 via the interfaces 19 and 37. Send. Tone generator 31
CPU 41 starts music playback processing upon receiving the accompaniment data and the system exclusive message (step S11).

【0050】CPU41は、制御プログラムに基づい
て、受信した伴奏データおよびシステムエクスクルーシ
ブメッセージをRAM39に格納すると共に、格納した
システムエクスクルーシブメッセージからボーカルデー
タを生成する(ステップS12)。この際、システムエ
クスクルーシブメッセージの各部に書き込まれたメッセ
ージから、ノートデータ、発音タイミングデータ、歌詞
および音素列データを、各音節毎に読出し、図4に示す
ようなボーカルデータのテーブルを作成する。
The CPU 41 stores the received accompaniment data and the system exclusive message in the RAM 39 based on the control program, and generates vocal data from the stored system exclusive message (step S12). At this time, note data, tone generation timing data, lyrics and phoneme string data are read from each message written in each part of the system exclusive message for each syllable, and a vocal data table as shown in FIG. 4 is created.

【0051】次に、CPU41は、伴奏データに基づい
て伴奏再生処理を開始する(ステップS13)。この伴
奏再生処理は、各パート毎の楽器による再生を行うもの
である。この処理は、従来技術と変わるところがないの
で、その詳細は省略する。さらに、CPU41は、ボー
カルデータのテーブルからバーチャルシンガによる歌詞
の再生処理を開始する(ステップS14)。そして、演
奏に合わせてバーチャルシンガに歌詞を唄わせる。
Next, the CPU 41 starts an accompaniment reproduction process based on the accompaniment data (step S13). In this accompaniment reproduction process, reproduction is performed with a musical instrument for each part. Since this processing is the same as that of the conventional technique, its details are omitted. Further, the CPU 41 starts the playback processing of the lyrics by the virtual singer from the vocal data table (step S14). Then, let the virtual singers sing the lyrics along with the performance.

【0052】ここで、歌詞再生処理の流れを、図7のフ
ローチャートを基づいて説明する。即ち、CPU41
は、タイマ44をスタートさせ(ステップS21)、デ
ータテーブルの発音タイミングtにタイマのカウント値
が達したか否かを監視し、発音タイミングに達する毎
に、音節を順番に発音させる(ステップS22)。そし
て、CPU41は、全てのボーカルデータが発音したか
否かを監視し(ステップS23)、全てのボーカルデー
タが発音するまで、この処理を繰り返す。
Here, the flow of the lyrics reproduction process will be described with reference to the flowchart of FIG. That is, the CPU 41
Starts the timer 44 (step S21), monitors whether or not the count value of the timer has reached the sound generation timing t in the data table, and sounds the syllables in order each time the sound generation timing is reached (step S22). . Then, the CPU 41 monitors whether or not all the vocal data is generated (step S23), and repeats this process until all the vocal data is generated.

【0053】音符と音節との発音タイミングについて、
図8および図9に具体例を挙げて説明する。この具体例
は、「チューリップ」の歌い始めの「咲いた咲いた」の
部分を示したものである。前述した如く、発音タイミン
グデータは、音符に割り当てられた音節について、音素
列データのうち母音を発声するときの発音タイミング
と、音符を発生するときの発音タイミングとを合わせた
データである。このため、CPU41は、第1拍目の
「ド」を発音させるためのノートオンKON1に対応し
た音節「さ」を発音させるためには、音符の発音タイミ
ングよりも時間t0だけ前、即ちタイマ44のスタート
からt1後に音節「さ」を構成する音素である子音
「s」の発音動作を始めている。これにより、音節
「さ」を構成する音素である母音「a」の発音タイミン
グが「ド」の発音タイミングにほぼ一致する。
Regarding the sounding timing of notes and syllables,
A specific example will be described with reference to FIGS. This specific example shows the part of "tulips bloomed" at the beginning of the singing of "tulips". As described above, the sounding timing data is data obtained by combining the sounding timing when a vowel is uttered and the sounding timing when a note is generated in the syllable assigned to the note. Therefore, the CPU 41 generates the syllable “sa” corresponding to the note-on KON1 for generating the first beat “do” by the time t0 before the note generation timing, that is, the timer 44. After t1 from the start, the sounding operation of the consonant "s" which is a phoneme constituting the syllable "sa" has begun. Thus, the sounding timing of the vowel "a", which is a phoneme constituting the syllable "sa", substantially matches the sounding timing of "do".

【0054】また、CPU41は、第2拍目の「レ」を
発音させるためのノートオンKON2に対応した音節
「い」を発音させるためには、タイマ44のスタートか
らt2後に母音「i」の発音動作を始めている。これに
より、母音「i」の発音タイミングが「レ」の発音タイ
ミングにほぼ一致する。
Further, the CPU 41 generates the syllable “i” corresponding to the note-on KON2 for generating the second beat “re” by outputting the vowel “i” after t2 from the start of the timer 44. He has begun sounding. Thus, the sounding timing of the vowel "i" substantially coincides with the sounding timing of "RE".

【0055】さらに、CPU41は、第3拍目の「ミ」
を発音させるためのノートオンKON3に対応した音節
「た」を発音させるためには、音符の発音タイミングよ
りも時間t0だけ前、即ちタイマ44のスタートからt
3後に音節「た」を構成する音素である子音「t」の発
音動作を始めている。これにより、音節「た」を構成す
る音素である母音「a」の発音タイミングが「ミ」の発
音タイミングにほぼ一致する。
Further, the CPU 41 sets the third beat of "mi"
In order to sound a syllable "ta" corresponding to the note-on KON3 for sounding a note, a time t0 before the sounding timing of the note, that is, t from the start of the timer 44,
Three seconds later, a sounding operation of a consonant "t" which is a phoneme constituting the syllable "ta" has begun. Thus, the sounding timing of the vowel "a", which is a phoneme constituting the syllable "ta", substantially coincides with the sounding timing of "mi".

【0056】このように、本実施形態によるDTMシス
テムでは、メロディの音符に対して歌詞の音節を遅らせ
ることなく再生でき、バーチャルシンガに歌詞を唄わせ
ることができる。これにより、伴奏に合わせて歌詞を唄
わせることが可能となる。
As described above, in the DTM system according to the present embodiment, the syllables of the lyrics can be reproduced without delaying the notes of the melody, and the virtual singers can sing the lyrics. This makes it possible to make the lyrics sing along with the accompaniment.

【0057】C.実施形態の効果 本実施形態では、メロディの音符の発音タイミングと歌
詞に対応した音節の母音の発音タイミングとが一致する
ように設定した発音タイミングデータを、曲の再生に際
して予めトーンジェネレータ31に送信するようにした
から、バーチャルシンガによってリアルタイムに歌唱さ
れることができる。この結果、DTMシステムでは、自
然の歌唱に近い歌い出しのタイミングを実現することが
可能となる。
C. Effects of the Embodiment In the present embodiment, the sounding timing data set so that the sounding timing of the melody note and the sounding timing of the vowel of the syllable corresponding to the lyrics are transmitted to the tone generator 31 in advance when the music is reproduced. By doing so, it is possible to sing in real time by the virtual singer. As a result, in the DTM system, it is possible to realize a timing of starting singing close to natural singing.

【0058】D.変形例 (1)前記実施形態では、1曲分のボーカルデータをシ
ステムエクスクルーシブメッセージに含んだ場合を例示
したが、本発明はこれに限らず、1コーラス、1フレー
ズ、息継ぎ間、1小節としてもよく、音符の発生タイミ
ングよりも前に予めトーンジェネレータ31にある単位
で送信するようにすればよい。
D. Modifications (1) In the above-described embodiment, the case where vocal data for one song is included in the system exclusive message has been exemplified. However, the present invention is not limited to this. It is good enough to transmit the tone generator 31 in a certain unit in advance of the note generation timing.

【0059】(2)演奏データは、インターネット等か
ら配信を受けたデータであってもよく、この場合、演奏
データのうちメロディパートに対して、既成の歌詞或い
はオリジナルの歌詞を割り当て、ボーカル情報によって
設定したバーチャルシンガに歌唱させることも可能とな
る。
(2) The performance data may be data distributed from the Internet or the like. In this case, existing lyrics or original lyrics are assigned to the melody part of the performance data, and the vocal information is used. It is also possible to make the set virtual singers sing.

【0060】(3)システムエクスクルーシブメッセー
ジのメッセージにノートナンバ等を記憶するようにして
もよく、歌詞を再生するときの音程は、システムエクス
クルーシブメッセージに書き込んでも、ノートオン信号
に含まれる音高を用いるようにしてもよい。
(3) The note number or the like may be stored in the message of the system exclusive message. The pitch at the time of reproducing the lyrics uses the pitch included in the note-on signal even if the pitch is written in the system exclusive message. You may do so.

【0061】(4)前記実施形態では、歌唱装置をDT
Mに適用した場合について述べたが、本発明はこれに限
らず、歌唱音が出力可能な電子楽器や音声応答装置、或
いはゲームマシンやカラオケなどのアミューズメント機
器などに用いてもよい。
(4) In the above embodiment, the singing device is DT
Although the case of application to M has been described, the present invention is not limited to this, and may be used for an electronic musical instrument or voice response device capable of outputting a singing sound, or an amusement device such as a game machine or karaoke.

【0062】[0062]

【発明の効果】以上説明したように、本発明によれば、
音節を構成する音素のうち、子音に対向する音素を音符
の発生タイミングにあわせて発声するので、伴奏に合わ
せたバーチャルシンガによる自然な歌唱を実現すること
ができる。
As described above, according to the present invention,
Of the phonemes that make up the syllable, the phoneme that faces the consonant is uttered in time with the note generation timing, so that a natural singing can be realized by the virtual singer that matches the accompaniment.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態によるDTMシステムの構
成を示す構成図である。
FIG. 1 is a configuration diagram showing a configuration of a DTM system according to an embodiment of the present invention.

【図2】 同実施形態のDTMシステムの電気的な構成
をブロック図である。
FIG. 2 is a block diagram showing an electrical configuration of the DTM system according to the embodiment.

【図3】 同実施形態によるボーカルデータ生成処理を
示す流れ図である。
FIG. 3 is a flowchart showing vocal data generation processing according to the embodiment.

【図4】 同実施形態に用いられるボーカルデータのテ
ーブルを示す図である。
FIG. 4 is a diagram showing a table of vocal data used in the embodiment.

【図5】 同実施形態に用いられるシステムエクスクル
ーシブメッセージの構成を示す図である。
FIG. 5 is a diagram showing a configuration of a system exclusive message used in the embodiment.

【図6】 同実施形態による曲再生処理を示す流れ図で
ある。
FIG. 6 is a flowchart showing a music reproduction process according to the embodiment;

【図7】 同実施形態による歌詞再生処理を示す流れ図
である。
FIG. 7 is a flowchart showing lyrics reproduction processing according to the embodiment;

【図8】 具体例による音符に対応したMIDIデータ
および音節の発声を示した図である。
FIG. 8 is a diagram showing MIDI data and syllable utterances corresponding to notes according to a specific example.

【図9】 具体例による音符の長さに対する音節の発声
を示した図である。
FIG. 9 is a diagram illustrating utterance of syllables with respect to a note length according to a specific example.

【図10】 従来技術による音符に対応したMIDIデ
ータおよび音節の発声を示した図である。
FIG. 10 is a diagram showing MIDI data and syllable utterances corresponding to notes according to the related art.

【図11】 従来技術による音符の長さに対する音節の
発声を示した図である。
FIG. 11 is a diagram illustrating utterance of syllables with respect to a note length according to the related art.

【符号の説明】[Explanation of symbols]

1・・・パソコン,28・・・キーボード,29・・・
マウス,31・・・トーンジェネレータ,32・・・M
IDI音源,33・・・歌唱音源,50・・・スピー
カ,60・・・MIDIキーボード
1 ... PC, 28 ... Keyboard, 29 ...
Mouse, 31 ... tone generator, 32 ... M
IDI sound source, 33 ... singing sound source, 50 ... speaker, 60 ... MIDI keyboard

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 メロディおよび歌詞に対応するボーカル
データを生成するボーカルデータ生成装置であって、 歌詞の音節を前記メロディに対応する音符に割り当てる
歌詞割当手段と、 前記音節を音素に分け、各音節を構成する音素のうち、
母音の音素の発音タイミングを前記音符に対応する発音
タイミングに合わせるべく各音節に対応する発音タイミ
ングデータを生成する発音タイミングデータ生成手段
と、 前記音節の音素列データ、前記発音タイミングデータお
よび前記音節に対応した音高データをボーカルデータと
して生成し、このボーカルデータを出力するデータ出力
手段と、を備えたことを特徴とするボーカルデータ生成
装置。
1. A vocal data generating apparatus for generating vocal data corresponding to a melody and lyrics, a lyrics assigning means for assigning a syllable of the lyrics to a note corresponding to the melody, dividing the syllable into phonemes, Of the phonemes that make up
Sounding timing data generating means for generating sounding timing data corresponding to each syllable so as to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note; and the phoneme string data of the syllable, the sounding timing data and the syllable. A vocal data generating device, comprising: data output means for generating corresponding pitch data as vocal data and outputting the vocal data.
【請求項2】 メロディおよび歌詞に対応するボーカル
データを生成するボーカルデータ生成装置であって、 歌詞の音節を前記メロディに対応する音符に割り当てる
歌詞割当手段と、 前記音節を音素に分け、各音節を構成する音素のうち、
母音の音素の発音タイミングを前記音符に対応する発音
タイミングに合わせるべく各音節に対応する発音タイミ
ングデータを生成する発音タイミングデータ生成手段
と、 前記音節の音素列データ、前記発音タイミングデータお
よび前記音節に対応した音高データをボーカルデータと
して生成し、このボーカルデータをシステムエクスクル
ーシブメッセージに含ませて出力するデータ出力手段
と、を備えたことを特徴とするボーカルデータ生成装
置。
2. A vocal data generating apparatus for generating vocal data corresponding to a melody and lyrics, a lyrics assigning means for assigning a syllable of the lyrics to a note corresponding to the melody, dividing the syllable into phonemes, and Of the phonemes that make up
Sounding timing data generating means for generating sounding timing data corresponding to each syllable so as to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note; and the phoneme string data of the syllable, the sounding timing data and the syllable. A vocal data generation device comprising: data output means for generating corresponding pitch data as vocal data, and outputting the vocal data included in a system exclusive message.
【請求項3】 請求項1または2記載のボーカルデータ
生成装置において、 前記データ出力手段は、前記ボーカルデータをコーラス
毎に分けて出力することを特徴とするボーカルデータ生
成装置。
3. The vocal data generation device according to claim 1, wherein said data output means outputs said vocal data separately for each chorus.
【請求項4】 請求項1または2記載のボーカルデータ
生成装置において、 前記データ出力手段は、前記ボーカルデータをフレーズ
毎に分けて出力することを特徴とするボーカルデータ生
成装置。
4. The vocal data generation device according to claim 1, wherein said data output means outputs said vocal data divided for each phrase.
【請求項5】 請求項1または2記載のボーカルデータ
生成装置において、 前記データ出力手段は、前記ボーカルデータを各息継ぎ
区間毎に分けて出力することを特徴とするボーカルデー
タ生成装置。
5. The vocal data generation device according to claim 1, wherein said data output means outputs said vocal data separately for each breathing section.
【請求項6】 請求項1または2記載のボーカルデータ
生成装置において、 前記データ出力手段は、前記ボーカルデータを小節毎に
出力することを特徴とするボーカルデータ生成装置。
6. The vocal data generating device according to claim 1, wherein said data output means outputs said vocal data for each bar.
【請求項7】 メロディおよび歌詞に対応するボーカル
データを生成するボーカルデータ生成方法であって、 歌詞の音節を前記メロディに対応する音符に割り当てる
歌詞割当工程と、 前記音節を音素に分け、各音声を構成する音素のうち、
母音の音素の発音タイミングを前記音符に対応する発音
タイミングに合わせるべく各音節に対応する発音タイミ
ングデータを生成する発音タイミングデータ生成工程
と、 前記音節の音素列データ、前記発音タイミングデータお
よび前記音節に対応した音高データをボーカルデータと
して生成し、このボーカルデータを出力するデータ出力
工程と、を備えたことを特徴とするボーカルデータ生成
方法。
7. A vocal data generating method for generating vocal data corresponding to a melody and lyrics, a lyrics assigning step of assigning a syllable of the lyrics to a note corresponding to the melody, dividing the syllable into phonemes, and Of the phonemes that make up
A sounding timing data generating step of generating sounding timing data corresponding to each syllable in order to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note; and the phoneme string data of the syllable, the sounding timing data and the syllable. A vocal data generating method, comprising: generating corresponding vocal data as vocal data; and outputting the vocal data.
【請求項8】 メロディおよび歌詞に対応するボーカル
データを生成するボーカルデータ生成方法であって、 歌詞の音節を前記メロディに対応する音符に割り当てる
歌詞割当工程と、 前記音節を音素に分け、各音声を構成する音素のうち、
母音の音素の発音タイミングを前記音符に対応する発音
タイミングに合わせるべく各音節に対応する発音タイミ
ングデータを生成する発音タイミングデータ生成工程
と、 前記音節の音素列データ、前記発音タイミングデータお
よび前記音節に対応した音高データをボーカルデータと
して生成し、このボーカルデータをシステムエクスクル
ーシブメッセージに含ませて出力するデータ出力工程
と、を備えたことを特徴とするボーカルデータ生成方
法。
8. A vocal data generating method for generating vocal data corresponding to a melody and lyrics, a lyrics assigning step of assigning a syllable of the lyrics to a note corresponding to the melody, dividing the syllable into phonemes, and Of the phonemes that make up
A sounding timing data generating step of generating sounding timing data corresponding to each syllable in order to match the sounding timing of the vowel phoneme to the sounding timing corresponding to the note; and the phoneme string data of the syllable, the sounding timing data and the syllable. A vocal data generating method, comprising: generating corresponding pitch data as vocal data; and outputting the vocal data included in a system exclusive message.
【請求項9】 伴奏に合わせてバーチャルシンガに歌詞
を唄わせる歌唱音合成装置であって、 伴奏データと、メロディデータの音符に歌詞を割り当
て、該音符の発音タイミングに前記音節毎の母音の発音
タイミングを対応させた発音タイミングデータ、音節の
音素列データおよび前記音節に対応した音高データを含
むボーカルデータを出力するデータ出力手段と、 再生時にこれらのデータを送信するデータ制御手段と、 前記データ制御手段によって送信された前記伴奏データ
を受けて伴奏音を発生させる伴奏音源と、 前記データ制御手段によって送信された前記ボーカルデ
ータを受け、該ボーカルデータに基づいて前記音符に対
応する音程で音節を発音させる歌唱音源と、を具備した
ことを特徴とする歌唱音合成装置。
9. A singing sound synthesizer for singing lyrics to a virtual singer in accordance with an accompaniment, wherein lyrics are assigned to musical notes of accompaniment data and melody data, and the vowel of each syllable is pronounced at the timing of the musical note. Data output means for outputting vocal data including pronunciation timing data, syllable phoneme string data, and pitch data corresponding to the syllable, data control means for transmitting these data during reproduction; and the data An accompaniment sound source for generating an accompaniment sound by receiving the accompaniment data transmitted by the control means; and receiving the vocal data transmitted by the data control means, and forming a syllable at a pitch corresponding to the note based on the vocal data. A singing sound synthesizer comprising: a singing sound source to be pronounced.
【請求項10】 伴奏に合わせてバーチャルシンガに歌
詞を唄わせる歌唱音合成装置であって、 伴奏データと、メロディデータの音符に歌詞を割り当
て、該音符の発音タイミングに前記音節毎の母音の発音
タイミングを対応させた発音タイミングデータ、音節の
音素列データおよび前記音節に対応した音高データを含
むボーカルデータをシステムエクスクルーシブメッセー
ジに含ませて出力するデータ出力手段と、 再生時にこれらのデータを送信するデータ制御手段と、 前記データ制御手段によって送信された前記伴奏データ
を受けて伴奏音を発生させる伴奏音源と、 前記データ制御手段によって送信された前記システムエ
クスクルーシブメッセージ中のボーカルデータを受け、
該ボーカルデータに基づいて前記音符に対応する音程で
音節を発音させる歌唱音源と、を具備したことを特徴と
する歌唱音合成装置。
10. A singing sound synthesizer for singing lyrics to a virtual singer in accordance with an accompaniment, wherein lyrics are assigned to musical notes of accompaniment data and melody data, and the vowel of each syllable is pronounced at the musical note timing. Data output means for outputting the vocal data including the sounding timing data, syllable phoneme string data and pitch data corresponding to the syllable in a system exclusive message, and transmitting these data during reproduction Data control means, an accompaniment sound source for generating an accompaniment sound upon receiving the accompaniment data transmitted by the data control means, and receiving vocal data in the system exclusive message transmitted by the data control means;
A singing sound source for producing a syllable at a pitch corresponding to the note based on the vocal data.
JP2001019141A 2001-01-26 2001-01-26 Vocal data forming device, vocal data forming method and singing tone synthesizer Pending JP2002221978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001019141A JP2002221978A (en) 2001-01-26 2001-01-26 Vocal data forming device, vocal data forming method and singing tone synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001019141A JP2002221978A (en) 2001-01-26 2001-01-26 Vocal data forming device, vocal data forming method and singing tone synthesizer

Publications (1)

Publication Number Publication Date
JP2002221978A true JP2002221978A (en) 2002-08-09

Family

ID=18885073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001019141A Pending JP2002221978A (en) 2001-01-26 2001-01-26 Vocal data forming device, vocal data forming method and singing tone synthesizer

Country Status (1)

Country Link
JP (1) JP2002221978A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240564A (en) * 2006-03-04 2007-09-20 Yamaha Corp Singing synthesis device and program
CN100342426C (en) * 2004-01-23 2007-10-10 雅马哈株式会社 Singing generator and portable communication terminal having singing generation function
JP2014095856A (en) * 2012-11-12 2014-05-22 Yamaha Corp Speech processing device
US9711123B2 (en) 2014-11-10 2017-07-18 Yamaha Corporation Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program recorded thereon
JP2022017561A (en) * 2017-06-14 2022-01-25 ヤマハ株式会社 Information processing unit, output method for singing voice, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10319993A (en) * 1997-05-22 1998-12-04 Yamaha Corp Data editing device
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10319993A (en) * 1997-05-22 1998-12-04 Yamaha Corp Data editing device
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100342426C (en) * 2004-01-23 2007-10-10 雅马哈株式会社 Singing generator and portable communication terminal having singing generation function
JP2007240564A (en) * 2006-03-04 2007-09-20 Yamaha Corp Singing synthesis device and program
JP2014095856A (en) * 2012-11-12 2014-05-22 Yamaha Corp Speech processing device
US9711123B2 (en) 2014-11-10 2017-07-18 Yamaha Corporation Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program recorded thereon
JP2022017561A (en) * 2017-06-14 2022-01-25 ヤマハ株式会社 Information processing unit, output method for singing voice, and program
JP7424359B2 (en) 2017-06-14 2024-01-30 ヤマハ株式会社 Information processing device, singing voice output method, and program

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
JPH08234771A (en) Karaoke device
JP2838977B2 (en) Karaoke equipment
JP2011048335A (en) Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
CN114155822A (en) Electronic musical instrument, method and program
JP2001215979A (en) Karaoke device
CN113160780A (en) Electronic musical instrument, method and storage medium
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
JP4038836B2 (en) Karaoke equipment
JP3518253B2 (en) Data editing device
JP4304934B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
WO2023058173A1 (en) Sound control device, control method for same, electronic instrument, program
JPH11282483A (en) Karaoke device
JPH10268895A (en) Voice signal processing device
JP5106437B2 (en) Karaoke apparatus, control method therefor, and control program therefor
JP2001042879A (en) Karaoke device
JP2002041074A (en) Device for vocal data generation and singing
JPWO2019240042A1 (en) Display control method, display control device and program
JP3265995B2 (en) Singing voice synthesis apparatus and method
WO2022190502A1 (en) Sound generation device, control method therefor, program, and electronic musical instrument
JP7456430B2 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
WO2023233856A1 (en) Sound control device, method for controlling said device, program, and electronic musical instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050117

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050120

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050225