JP2002202788A - 歌唱合成方法と装置及び記録媒体 - Google Patents
歌唱合成方法と装置及び記録媒体Info
- Publication number
- JP2002202788A JP2002202788A JP2000402880A JP2000402880A JP2002202788A JP 2002202788 A JP2002202788 A JP 2002202788A JP 2000402880 A JP2000402880 A JP 2000402880A JP 2000402880 A JP2000402880 A JP 2000402880A JP 2002202788 A JP2002202788 A JP 2002202788A
- Authority
- JP
- Japan
- Prior art keywords
- singing
- information
- phoneme
- length
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 59
- 230000002194 synthesizing effect Effects 0.000 title claims description 42
- 230000007704 transition Effects 0.000 claims abstract description 255
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 107
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 100
- 230000000694 effects Effects 0.000 claims abstract description 34
- 238000012937 correction Methods 0.000 claims description 9
- 230000000630 rising effect Effects 0.000 claims description 7
- 238000001308 synthesis method Methods 0.000 claims description 5
- 239000011295 pitch Substances 0.000 description 43
- 238000012545 processing Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 29
- 230000008602 contraction Effects 0.000 description 21
- 230000002730 additional effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 208000003251 Pruritus Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002844 continuous effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
- G10H2210/201—Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
いて人歌唱(A)に近似した自然な歌唱合成(B)を可
能にする。 【解決手段】 演奏データとしては、歌詞を構成する
「sa」等の音韻毎に音韻情報、歌唱時刻情報、歌唱長
情報、歌唱音高情報、アタック等の状態遷移制御情報、
ビブラート等の効果制御情報等を入力する。歌唱時刻情
報は、T1等の実歌唱開始時刻を表わすもので、各演奏
データは、実歌唱開始時刻より早く入力する。演奏デー
タ毎に音韻情報に基づいてデータベースから音韻遷移時
間長を獲得し、この音韻遷移時間長と歌唱開始時刻情報
と歌唱長情報とに基づいて「s」等の音素毎に歌唱開始
時刻と歌唱継続時間とを決定する。「s」の歌唱開始時
刻は、T1より早くできる。歌唱合成では、音素毎に歌
唱音声を歌唱開始時刻に発生開始し、歌唱継続時間中発
生する。遷移状態特性や効果特性を入力に係る制御情報
に応じて制御してもよい。
Description
入力される演奏データに基づいて歌唱音声を合成する歌
唱合成方法と装置及び記録媒体に関するものである。
演奏データのノートオン信号に伴って発生される先頭音
素の立上り時間を、この先頭音素がノートオン期間中に
他の音素に引き続いて発音される場合の立上り時間より
短くする(速く立上らせる)ようにしたものが知られて
いる(例えば、特開平10−49169号公報参照)。
開始時刻及び母音歌唱開始時刻を示すもので、この例で
は、音高「C3(ド)」、「D3(レ)」、「E
3(ミ)」にそれぞれ対応して歌詞「さ(sa)」、
「い(i)」、「た(ta)」と歌った場合を示してい
る。図40(A)によれば、「sa」、「ta」のよう
に子音と母音との組合せからなる音韻は、子音が母音に
先行して発音開始されているのがわかる。
唱合成における歌唱開始時刻を示すもので、歌唱内容
は、図40(A)の場合と同様である。実歌唱開始時刻
T1〜T3は、いずれもノートオン信号による歌唱音声
の発生開始時刻に相当する。上記した従来の歌唱合成で
は、例えば「sa」の歌唱音声を発生する場合、子音
「s」の歌唱開始時刻を時刻T1に合わせ、時刻T1か
ら子音「s」の振幅レベルを急速に上昇させることによ
り楽器音(伴奏音)に対して歌唱音声が遅れた感じとな
る事態を回避するようにしている。
成技術によると、次のよな問題点がある。
歌唱開始時刻は、図40(B)の歌唱合成における実歌
唱開始時刻(ノートオン時刻)にほぼ対応する。図40
(B)の場合は、子音歌唱開始時刻をノートオン時刻に
一致させると共に子音(先頭音素)の立上り時間を短縮
しているので、図40(A)の場合に比べて歌唱開始時
刻や歌唱継続時間が不自然となる。
送信し、ノートオン時刻に音韻情報対応の歌唱音声の発
生を開始するようにしているので、ノートオン時刻より
早く歌唱音声を発生開始することができない。 (3)歌唱音声についてアタック(立上り)部、リリー
ス(立下り)部等の状態遷移を制御するようになってい
ないので、より自然な歌唱合成を行なうことができな
い。
果を制御するようになっていないので、より自然な歌唱
合成を行なうことができない。
解決した新規な歌唱合成方法と装置を提供することにあ
る。
唱合成方法は、順次の第1及び第2の音素を含む歌唱音
韻について音韻を表わす音韻情報と歌唱開始時刻を表わ
す時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開
始時刻より早く入力するステップと、入力された音韻情
報に基づいて前記第1の音素の発生時間長と前記第2の
音素の発生時間長とからなる音韻遷移時間長を生成する
ステップと、生成された音韻遷移時間長と入力された時
刻情報及び歌唱長情報とに基づいて前記第1及び第2の
音素の歌唱開始時刻と歌唱継続時間とを決定するステッ
プと、決定された前記第1及び第2の音素の歌唱開始時
刻にそれぞれ前記第1及び第2の音素からなる第1及び
第2の歌唱音声を発生開始し、該第1及び第2の歌唱音
声を決定された前記第1及び第2の音素の歌唱継続時間
中それぞれ発生するステップとを含むものである。
表わされる歌唱開始時刻より早く音韻情報、時刻情報及
び歌唱長情報を入力すると共に、音韻情報に基づいて音
韻遷移時間長を生成し、音韻遷移時間長と時刻情報と歌
唱長情報とに基づいて第1及び第2の音素の歌唱開始時
刻と歌唱継続時間とを決定するようにしたので、第1及
び第2の音素については、時刻情報で表わされる歌唱開
始時刻の前後で所望の歌唱開始時刻を決定したり、歌唱
長情報で表わされる歌唱長とは異なる歌唱継続時間を決
定したりすることができ、第1及び第2の歌唱音声とし
て自然な歌唱音声を発生することができる。例えば、第
1の音素の歌唱開始時刻として、時刻情報で表わされる
歌唱開始時刻より早い時刻を決定すると、子音の立上り
を母音の立上りより十分に早くして人歌唱に近似した歌
唱合成を行なうことができる。
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを入力す
るステップと、入力された音韻情報に基づいて前記歌唱
音韻の立上り部、ノート遷移部又は立下り部のいずれか
に対応した状態遷移時間長を生成するステップと、入力
された音韻情報、時刻情報及び歌唱長情報に基づいて前
記音韻からなる歌唱音声を発生するステップであって、
生成された状態遷移時間長に対応する期間中前記歌唱音
声に対して音高及び振幅のうち少なくとも一方の変化を
付加するものとを含むものである。
音韻情報に基づいて状態遷移時間長を生成すると共に、
この状態遷移時間長に対応する期間中歌唱音声に対して
音高及び振幅のうち少なくとも一方の変化を付加するよ
うにしたので、アタック感、ノート遷移感又はリリース
感のある自然な歌唱合成が可能となる。
次の第1及び第2の音素を含む歌唱音韻について音韻を
表わす音韻情報と歌唱開始時刻を表わす時刻情報と歌唱
長を表わす歌唱長情報とを前記歌唱開始時刻より早く入
力する入力手段と、前記第1の音素の発生時間長と前記
第2の音素の発生時間長とからなる音韻遷移時間長を記
憶する記憶手段と、前記入力手段で入力された音韻情報
に基づいて前記記憶手段から音韻遷移時間長を読出す読
出手段と、この読出手段で読出された音韻遷移時間長と
前記入力手段で入力された時刻情報及び歌唱長情報とに
基づいて前記第1及び第2の音素の歌唱開始時刻と歌唱
継続時間とを算出する計算手段と、この計算手段で算出
された前記第1及び第2の音素の歌唱開始時刻にそれぞ
れ前記第1及び第2の音素からなる第1及び第2の歌唱
音声を発生開始し、該第1及び第2の歌唱音声を前記計
算手段で算出された前記第1及び第2の音素の歌唱継続
時間中それぞれ発生する歌唱音声合成手段とを備えたも
のである。
歌唱合成方法を実施するものであり、第1の歌唱合成方
法に関して前述したと同様の作用効果が得られる。ま
た、音韻遷移時間長を記憶手段から読出して利用するよ
うにしたので、歌唱音韻数が増大しても、構成乃至処理
が簡単である。
段では、前記第1の音素の発生時間長を修正するための
修正情報を入力し、前記計算手段では、前記読出手段で
読出された音韻遷移時間長中の第1の音素の発生時間長
を前記入力手段で入力された修正情報に応じて修正した
後該音韻遷移時間長に基づいて前記第1及び第2の音素
の歌唱開始時刻と歌唱継続時間とを算出するようにして
もよい。このようにすると、第1及び第2の音素の歌唱
開始時刻及び歌唱継続時間に入力側の意志を反映させる
ことができ、一層自然な歌唱合成が可能となる。
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを入力す
る入力手段と、前記歌唱音韻の立上り部、ノート遷移部
又は立下り部のいずれかに対応した状態遷移時間長を記
憶した記憶手段と、前記入力手段で入力された音韻情報
に基づいて前記記憶手段から状態遷移時間長を読出す読
出手段と、前記入力手段で入力された音韻情報、時刻情
報及び歌唱長情報に基づいて前記音韻からなる歌唱音声
を発生する歌唱音声合成手段であって、前記読出手段で
読出された状態遷移時間長に対応する期間中前記歌唱音
声に対して音高及び振幅のうち少なくとも一方の変化を
付加するものとを備えたものである。
歌唱合成方法を実施するものであり、第2の歌唱合成方
法に関して前述したと同様の作用効果が得られる。ま
た、状態遷移時間長を記憶手段から読出して利用するよ
うにしたので、歌唱音韻数が増大しても、構成乃至処理
が簡単である。
段では、前記状態遷移時間長を修正するための修正情報
を入力し、前記読出手段で読出された状態遷移時間長を
前記入力手段で入力された修正情報に応じて修正する修
正手段を更に設け、前記歌唱音声合成手段では、前記修
正手段で修正された状態遷移時間長に対応する期間中前
記歌唱音声に対して音高及び振幅のうち少なくとも一方
の変化を付加するようにしてもよい。このようにする
と、状態遷移時間長に入力側の意志を反映させることが
でき、一層自然な歌唱合成が可能となる。
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報と効果の付
加を表わす効果付加情報とを入力する入力手段と、この
入力手段で入力された音韻情報、時刻情報及び歌唱長情
報に基づいて前記音韻からなる歌唱音声を発生する歌唱
音声合成手段であって、前記入力手段で入力された効果
付加情報に基づいて前記歌唱音声に対して効果を付加す
るものとを備えたものである。
対して効果として例えばビブラート効果のような音高、
振幅等の微小変化を付加することができ、自然な歌唱合
成が可能となる。
段で入力される効果付加情報を効果の付加期間を表わす
ものとし、入力された効果付加情報で表わされる効果の
付加期間が前記歌唱音韻に先行する歌唱音韻の効果の付
加期間に連続するときに連続する2つの付加期間に対応
する新たな効果の付加期間を設定する設定手段を更に設
け、前記歌唱音声合成手段では、前記設定手段で設定さ
れた効果の付加期間中前記歌唱音声に対して効果を付加
するようにしてもよい。このようにすると、連続する効
果の付加期間に対応する新たな効果の付加期間を設定し
て効果付加を行なうので、効果が途切れたりすることが
なく、効果の連続性が良好となる。
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを前記歌
唱開始時刻より早く入力する入力手段と、この入力手段
で入力された時刻情報に基づいて前記歌唱開始時刻の前
後に及ぶ所定の時間範囲内でランダムに新たな歌唱開始
時刻を設定する設定手段と、前記入力手段で入力された
音韻情報及び歌唱長情報と前記設定手段で設定された歌
唱開始時刻とに基づいて前記音韻からなる歌唱音声を発
生する歌唱音声合成手段であって、前記設定手段で設定
された歌唱開始時刻に前記歌唱音声を発生開始するもの
とを備えたものである。
表わされる歌唱開始時刻の前後に及ぶ所定時間範囲内で
ランダムに新たな歌唱開始時刻を設定し、設定された歌
唱開始時刻に歌唱音声を発生するようにしたので、歌唱
開始タイミングに変化がある自然な歌唱合成が可能とな
る。
成の概要を説明する。図1(A)は、図40(A)と同
様に人歌唱における子音歌唱開始時刻及び母音歌唱開始
時刻を示すものであり、図1(B)は、この発明の歌唱
合成における歌唱開始時刻を示すものである。
する「sa」等の音韻毎に音韻情報、歌唱開始時刻情
報、歌唱長情報等を入力する。歌唱開始時刻情報は、T
1等の実歌唱開始時刻(例えば拍頭タイミング)を表わ
す。各演奏データは、実歌唱開始時刻より早く入力し、
各演奏データ毎に音韻情報を音韻遷移時間長に変換す
る。音韻遷移時間長は、例えば第1の音素「s」及び第
2の音素「a」からなる音韻「sa」については第1の
音素の発生時間長と第2の音素の発生時間長とからなる
もので、この音韻遷移時間長と歌唱開始時刻情報と歌唱
長情報とを用いて第1及び第2の音素の歌唱開始時刻と
歌唱継続時間とを決定する。このとき、子音「s」の歌
唱開始時刻は、実歌唱開始時刻T1より前とし、母音
「a」の歌唱開始時刻は、実歌唱開始時刻T1と同一あ
るいはその前又は後とすることができる。このことは、
「i」及び「ta」についても同様である。図1(B)
の例では、「sa」について「s」の歌唱開始時刻を
(A)の人歌唱に合わせてT1より前とし、「a」の歌
唱開始時刻をT1とし、「i」の歌唱開始時刻をT2と
し、「ta」について「t」の歌唱開始時刻を(A)の
人歌唱に合わせてT3より前とし、「a」の歌唱開始時
刻をT3としている。
歌唱開始時刻で発生開始し、決定に係る歌唱継続期間中
発生する。また、「a」を決定に係る歌唱開始時刻で発
生開始し、決定に係る歌唱継続期間中発生する。このこ
とは、「i」及び「ta」についても同様である。この
結果、図1(A)の人歌唱の場合と歌唱開始時刻や歌唱
継続時間が近似した自然性豊かな歌唱合成が可能とな
る。
合成装置の回路構成を示すものである。この歌唱合成装
置は、小型コンピュータによって動作が制御されるもの
である。
2、ROM(リード・オンリィ・メモリ)14、RAM
(ランダム・アクセス・メモリ)16、検出回路20、
表示回路22、外部記憶装置24、タイマ26、音源回
路28、MIDI(MusicalInstrument Digital Inte
rface)インターフェース30等が接続されている。
プログラムに従って楽音発生、歌唱合成等に関する各種
処理を実行するもので、歌唱合成に関する処理について
は図17等を参照して後述する。
してワーキングエリアとして使用される種々の記憶部を
含むもので、この発明の実施に関係する記憶部として
は、受信した演奏データを書込むための受信バッファ等
が設けられている。
ら各種操作子の操作情報を検出するものである。
制御することにより各種の表示を可能にするものであ
る。
ク)、FD(フロッピー(登録商標)ディスク)、CD
(コンパクトディスク)、DVD(ディジタル多目的デ
ィスク)、MO(光磁気ディスク)等のうち1又は複数
種類の記録媒体を着脱可能なものである。外部記憶装置
24に所望の記録媒体を装着した状態では、記録媒体か
らRAM16へデータを転送可能である。また、装着した
記録媒体がHDやFDのように書込み可能なものであれ
ば、RAM16のデータを記録媒体に転送可能である。
の代わりに外部記憶装置24の記録媒体を用いることが
できる。この場合、記録媒体に記録したプログラムは、
外部記憶装置24からRAM16へ転送する。そして、
RAM16に記憶したプログラムに従ってCPU12を
動作させる。このようにすると、プログラムの追加やバ
ージョンアップ等を容易に行なうことができる。
るテンポに対応した周期でテンポクロック信号TCLを
発生するもので、テンポクロック信号TCLは、CPU
12に割り込み命令信号として供給される。CPU12
は、テンポクロック信号TCLに基づく割り込み処理に
より歌唱合成を行なう。テンポデータTMの指示するテ
ンポは、操作子群34中のテンポ設定操作子の操作に応
じて可変設定することができる。テンポクロック信号T
CLの発生周期は、一例として5[ms]とすることが
できる。
ル及び多数の歌唱合成チャンネルを含むもので、歌唱合
成チャンネルは、フォルマント合成方式により歌唱音声
を合成するようになっている。後述する歌唱合成処理で
は、歌唱合成チャンネルから歌唱音声信号が発生され
る。発生に係る楽音信号及び/または歌唱音声信号は、
サウンドシステム38により音響に変換される。
唱合成装置とは別体のMIDI機器39との間でMID
I通信を行なうために設けられたもので、この発明で
は、MIDI機器39から歌唱合成用の演奏データを受
信するために用いられる。MIDI機器39からは、歌
唱合成用の演奏データと共に歌唱伴奏用の演奏データを
受信し、歌唱伴奏用の演奏データに基づいて音源回路2
8で伴奏用の楽音信号を発生し、サウンドシステム38
から伴奏音を発生させるようにしてもよい。
合成処理を概略的に説明する。ステップ40では、演奏
データを入力する。すなわち、MIDI機器39からM
IDIインターフェース30を介して演奏データを受信
する。演奏データの詳細については、図4を参照して後
述する。
に該演奏データに基づいて歌唱合成DB(データベー
ス)14A内の音韻遷移DB14b及び状態遷移DB1
4cからそれぞれ音韻遷移時間長及び状態遷移時間長を
獲得し、これらの音韻遷移時間長及び状態遷移時間長と
演奏データとに基づいて歌唱合成スコアを形成する。歌
唱合成スコアは、音韻トラックと、遷移トラックと、ビ
ブラートトラックとの3トラックを有するもので、音韻
トラックは、歌唱開始時刻及び歌唱継続時間等の情報を
含み、遷移トラックは、アタック等の遷移状態の開始時
刻及び継続時間等の情報を含み、ビブラートトラック
は、ビブラート付加状態の開始時刻及び継続時間等の情
報を含む。
る歌唱合成を行なう。すなわち、ステップ40で入力し
た演奏データとステップ42で形成した歌唱合成スコア
と歌唱合成DB14A内の音韻DB14a、音韻遷移D
B14b、状態遷移DB14c及びビブラートDB14
dから獲得した音源制御情報とに基づいて歌唱合成を行
ない、歌唱順に歌唱音声信号を発生する。歌唱合成処理
では、音韻トラックの指示する単一音韻(例えば
「a」)又は遷移する音韻(例えば「s」から「a」に
遷移する「sa」)からなり且つ演奏データの指示する
音高を有する歌唱音声を音韻トラックの指示する歌唱開
始時刻に発生開始し、音韻トラックの指示する歌唱継続
時間中発生する。
遷移トラックの指示するアタック等の遷移状態の開始時
刻から音高、振幅等の微小変化を付加し、この付加状態
を遷移トラックの指示するアタック等の遷移状態の継続
時間中継続させることができる。また、歌唱音声には、
ビブラートトラックの指示する開始時刻からビブラート
を付加し、この付加状態をビブラートトラックの指示す
る継続時間中継続させることができる。
処理を示したもので、ステップ46では、歌唱音声信号
をD/A(ディジタル/アナログ)変換し、ステップ4
8では、D/A変換された歌唱音声信号をサウンドシス
テム38に出力し、歌唱音として発音させる。
ある。演奏データは、1音節を歌唱するために必要な演
奏情報を含んでおり、演奏情報は、ノート情報と、音韻
トラック情報と、遷移トラック情報と、ビブラートトラ
ック情報とを含んでいる。
ノートオン(Note On)情報、実歌唱長を表わすデュレ
ーション(Duration)情報、歌唱音高を表わすピッチ
(Pitch)情報等が含まれる。音韻トラック情報には、
歌唱音韻を表わす音韻(PhUと表記する)情報、歌唱子
音伸縮率を表わす子音修正(Consonant Modificatio
n)情報等が含まれる。この実施形態では、日本語の歌
唱合成を行なうことを前提としているので、出現する音
素は、子音と母音であり、音韻状態(PhU State)と
しては、子音と母音との組合せ、母音のみ又は有声子音
(鼻音、半母音)のみのいずれかとなる。ここで、有声
子音のみの場合は、有声子音の歌唱開始タイミングが母
音のみの場合と類似しているので、母音のみの場合とし
て扱うこととする。
プを表わすアタックタイプ(AttackType)情報、歌唱ア
タック伸縮率を表わすアタックレート(Attack Rate)
情報、歌唱リリースタイプを表わすリリースタイプ(Re
lease Type)情報、歌唱リリース伸縮率を表わすリリ
ースレート(Release Rate)情報、歌唱ノート遷移タ
イプを表わすノート遷移タイプ(Note Transition Ty
pe)情報等が含まれる。アタックタイプ情報により指定
されるアタックタイプとしては、「ノーマル(Norma
l)」、「セクシー(Sexy)」、「シャープ(Shar
p)」、「ソフト(Soft)」等がある。リリースタイプ
情報及びノート遷移タイプ情報も、アタックタイプと同
様の複数のタイプのうちのいずれかを指定可能である。
ノート遷移(Note Transition)は、本演奏データ(演
奏イベント)から次の演奏データ(演奏イベント)への
遷移を意味する。歌唱アタック伸縮率、歌唱リリース伸
縮率及びノート遷移伸縮率は、状態遷移時間長を伸長し
たい場合は1より大きな値とし、状態遷移時間長を短縮
したい場合は1より小さな値とする。歌唱アタック伸縮
率、歌唱リリース伸縮率及びノート遷移伸縮率は、0と
することもでき、この場合はそれぞれアタック、リリー
ス及びノート遷移に伴う音高、振幅等の微小変化の付加
は行なわれない。
タ中のビブラートイベント数を表わすビブラートナンバ
(Vibrato Number)情報、1番目のビブラートの遅延
時間を表わすビブラート遅延1(Vibrato Delay 1)
の情報、1番目のビブラートの継続時間を表わすビブラ
ートデュレーション1(Vibrato Duration 1)の情
報、1番目のビブラートのタイプを表わすビブラートタ
イプ1(Vibrato Type 1)の情報…K(2以上の整
数)番目のビブラートの遅延時間を表わすビブラート遅
延K(Vibrato Delay K)の情報、K番目のビブラー
トの継続時間を表わすビブラートデュレーションK(Vi
brato Duration K)の情報、K番目のビブラートの
タイプを表わすビブラートタイプK(Vibrato Type
K)の情報等が含まれる。ビブラートイベント数が0の
場合は、ビブラート遅延1の情報以下の情報は含まれな
い。ビブラートタイプ1〜Kの情報によって指定される
ビブラートタイプとしては、「ノーマル(Normal)」、
「セクシー(Sexy)」、「エンカ(Enka)」等がある。
M14内に含まれるものであるが、外部記憶装置24に
設けたものをRAM16に転送して利用するようにして
もよい。歌唱合成DB14A内には、音韻DB14a、
音韻遷移DB14b、状態遷移DB14c、ビブラート
DB14d…その他のDB14nが設けられている。
a、音韻遷移DB14b、状態遷移DB14c及びビブ
ラートDB14d内の記憶情報について説明する。音韻
DB14a及びビブラートDB14dには、それぞれ図
5及び図8に示すように音源制御情報が記憶される。音
韻遷移DB14bには、図6(B)に示すように音韻遷
移時間長及び音源制御情報が記憶されると共に、状態遷
移DB14cには、図7に示したように状態遷移時間長
及び音源制御情報が記憶される。これらの記憶情報を作
成する際には、歌唱者による歌唱音声を分析して音源制
御情報、音韻遷移時間長及び状態遷移時間長を決定し
た。また、「(Normal)」、「(Sexy)」、「Soft」、
「Enka」等のタイプについては、歌唱者に同意の教示
(例えば「セクシーなアタックを付けて歌って下さ
い」、「演歌調のビブラートを付けて歌って下さい」
等)を与えて歌唱してもらい、その歌唱音声を分析して
音源制御情報、音韻遷移時間長及び状態遷移時間長を決
定した。音源制御情報は、音源回路28において所望の
歌唱音声を合成するために必要なフォルマント周波数及
びフォルマントレベルの制御パラメータからなるもので
ある。
「i」、「M」、「Sil」等の音韻毎に且つ1音韻内で
「P1」、「P2」…等の音高毎に音源制御情報が記憶
される。図5〜8及び以下の説明において、「M」は、
音韻「u」を表わし、「Sil」は、無音(Silence)を表
わす。歌唱合成の際には、合成すべき歌唱音声の音韻と
音高とに適合した音源制御情報が音韻DB14aから選
択される。
される音韻遷移時間長(a)〜(f)を示すものであ
る。図6(A)及び以下の説明において、「V−Sil」
等の記号の意味は次の通りである。
無音(Silence)への音韻遷移を表わし、図6(B)で
は、例えば先行音韻「a」と後続音韻「Sil」との組合
せに対応する。
ら子音(Consonant)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「Sil」と後続音韻「s」
(図示せず)との組合せに対応する。
から母音(Vowel)への音韻遷移を表わし、図6(B)
では、例えば先行音韻「s」(図示せず)と後続音韻
「a」(図示せず)との組合せに対応する。
ら母音(Vowel)への音韻遷移を表わし、、図6(B)
では、例えば先行音韻「Sil」と後続音韻「a」との組
合せに対応する。
l)から子音(Consonant)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「a」と後続音韻「s」
(図示せず)との組合せに対応する。
l)から母音(Vowel)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「a」と後続音韻「i」と
の組合せに対応する。
は、「a」_「i」等の音韻組合せ(遷移する音韻)毎
に且つ1つの音韻組合せ内で「P1」、「P2」…等の
音高毎に音韻遷移時間長及び音源制御情報が記憶され
る。図6(B)において、「Aspiration」は、呼気音を
示す。音韻遷移時間長は、先行音韻の時間長と後続音韻
の時間長との組合せからなるものであり、両時間長の境
界を時間区切り情報として保持している。歌唱合成スコ
アを形成する際には、音韻トラックを形成すべき音韻組
合せと音高とに適合した音韻遷移時間長が音韻遷移DB
14bから選択される。また、歌唱合成の際には、合成
すべき歌唱音声の音韻組合わせと音高とに適合した音源
制御情報が音韻遷移DB14bから選択される。
ック(Attack)、ノート遷移(NoteTransition、「Nt
N」と表記する)及びリリース(Release)の各遷移状態
毎に且つ1つの遷移状態内で「Normal」、「Sexy」、
「Sharp」及び「Soft」の各状態タイプ毎に状態遷移時
間長及び音源制御情報が記憶され、しかも1つの状態タ
イプ内で「a」、「i」等の音韻毎に且つ1音韻内で
「P1」、「P2」等の音高毎に状態遷移時間長及び音
源制御情報が記憶される。状態遷移時間長は、アタッ
ク、ノート遷移又はリリースの遷移状態の継続時間に相
当するものである。歌唱合成スコアを形成する際には、
遷移トラックを形成すべき遷移状態と状態タイプと音韻
と音高とに適合した状態遷移時間長が状態遷移DB14
cから選択される。また、歌唱合成の際には、合成すべ
き歌唱音声の遷移状態と状態タイプと音韻と音高とに適
合した音源制御情報が状態遷移DB14cから選択され
る。
「Normal」、「Sexy」…「Enka」等の各ビブラートタイ
プ毎に音源制御情報が記憶されると共に、1つのビブラ
ートタイプ内で「a」、「i」等の音韻毎に且つ1音韻
内で「P1」、「P2」等の音高毎に音源制御情報が記
憶される。歌唱合成の際には、合成すべき歌唱音声のビ
ブラートタイプと音韻と音高とに適合した音源制御情報
がビブラートDB14dから選択される。
すものである。演奏データS1、S 2、S3が図1
(B)で示したと同様に「さ(sa):C3:T1
…」、「い(i):D3:T2…」、「た(ta):E
3:T3…」をそれぞれ指示するものとすると、演奏デ
ータS1、S2、S3は、実歌唱開始時刻T1、T2、
T3よりそれぞれ早い時刻t1、t2、t3に送信さ
れ、MIDIインターフェース30を介して受信され
る。演奏データの送受信処理は、ステップ40の演奏デ
ータ入力処理に相当する。演奏データが受信されると、
ステップ42で演奏データ毎に歌唱合成スコアが形成さ
れる。そして、ステップ44では、形成された歌唱合成
スコアに従って歌声音声SS1、SS2、SS3が合成
される。歌唱合成では、歌唱音声SS1の子音「s」を
T1より早い時刻T11に発生開始させると共に、SS
1の母音「a」をT1に発生開始させることができる。
また、歌唱音声SS2の母音「i」をT2に発生開始さ
せることができる。さらに、歌唱音声SS3の子音
「t」をT3より早く時刻T31に発生開始させると共
にSS3の母音「a」をT3に発生開始させることがで
きる。所望により、「さ」の母音「a」又は「い」の母
音「i」をT1又はT2よりそれぞれ早く発生開始させ
ることも可能である。
ア及び歌唱合成スコアの形成状況を示すものである。こ
の実施形態では、歌唱合成スコア形成処理の前処理とし
て、参照スコア形成処理を行なう。すなわち、時刻
t1、t2、t3でそれぞれ送信された演奏データは、
順次に受信されてRAM16内の受信バッファに書込ま
れる。RAM16内の参照スコアと称する記憶部には、
受信バッファから演奏データの指示する実歌唱開始時刻
順に演奏データが転送され、順次に書込まれる。例え
ば、演奏データS1、S2、S3の順に書込まれる。そ
して、参照スコアの演奏データに基づいて実歌唱開始時
刻順に歌唱合成スコアが形成される。例えば、演奏デー
タS1に基づいて歌唱合成スコアSC1が形成され、演
奏データS2に基づいて歌唱合成スコアSC2が形成さ
れる。この後、図9で述べたように歌唱合成スコアSC
1、SC2…に従って歌唱合成が行なわれる。
唱開始時刻順に行なわれた場合の参照スコア及び歌唱合
成スコアの形成処理であるが、演奏データの送受信が実
歌唱開始時刻順に行なわれなかった場合の参照スコア及
び歌唱合成スコアの形成処理は、図11、12に示すよ
うになる。すなわち、演奏データS1、S3、S4が時
刻t1、t2、t3にそれぞれ送信され、順次に受信さ
れたものとすると、参照スコアには、図11に示すよう
に演奏データS1が書込まれた後、演奏データS3、S
4が順次に書込まれ、演奏データS1、S3にそれぞれ
基づいて歌唱合成スコアSC1、SC3aが形成され
る。参照スコアにおける2回目以降の演奏データの書込
みについて、図10,11に示したように単に追加的に
書込むのを「追加」と称し、図12に示したように演奏
データ間に挿入するように書込むのを「挿入」と称す
る。この後、時刻t4に演奏データS2が送信され、受
信されたものとすると、図12に示すように参照スコア
において演奏データS1及びS 3の間に演奏データS2
が挿入される。このとき、演奏データの挿入が起きた実
歌唱開始時刻より後の歌唱合成スコアが破棄され、演奏
データの挿入が起きた実歌唱開始時刻以降の演奏データ
に基づいて歌唱合成スコアが形成される。例えば、歌唱
合成スコアSC3aが破棄され、演奏データS2、S3
にそれぞれ基づいて歌唱合成スコアSC2、SC3bが
形成される。
タに基づく歌唱合成スコアの形成例及びステップ44に
おける歌唱音声の合成例を示すものである。歌唱合成ス
コアSCは、RAM16内に形成されるもので、音韻ト
ラックTPと、遷移トラックTRと、ビブラートトラッ
クTBとからなっている。歌唱合成スコアSCについて
は、演奏データを受信するたびにデータの更新や追加が
行なわれる。
が図1(B)で示したと同様に「さ(sa):C3:T
1…」、「い(i):D3:T2…」、「た(ta):
E3:T3…」を示すものとすると、音韻トラックTP
には、図13,14に示すような情報が記憶される。す
なわち、歌唱順に無音(Sil)、無音から子音「s」へ
の遷移(Sil_s)、子音「s」から母音「a」への遷移
(s_a)、母音(a)…等の情報が配置される。Silの
情報は、開始時刻(Bigin Time=T11)、継続時間
(Duration=D11)及び音韻(PhU=Sil)を表わす情
報からなる。Sil_sの情報は、開始時刻(Bigin Time
=T12)、継続時間(Duration=D12)先行音韻(P
hU1=Sil)及び後続音韻(PhU2=s)を表わす情報か
らなる。s_aの情報は、開始時刻(Bigin Time=T1
3)、継続時間(Duration=D13)、先行音韻(PhU
1=s)及び後続音韻(PhU2=a)を表わす情報から
なる。aの情報は、開始時刻(Bigin Time=T1
4)、継続時間(Duration=D14)及び音韻(PhU=
a)を表わす情報からなる。
表わす情報は、先行音韻の時間長と後続音韻の時間長と
の組合せからなり、両時間長の境界を時間区切り情報と
して保持している。従って、この時間区切り情報を利用
することにより音源回路28に対して先行音韻の継続時
間と後続音韻の開始時刻及び継続時間とを指示可能であ
る。例えば、Sil_sの継続時間情報に基づいて無音の継
続時間と子音「s」の歌唱開始時刻T11及び歌唱継続
時間とを指示可能であり、s_a継続時間に基づいて子
音「s」の継続時間と母音「a」の歌唱開始時刻T1及
び歌唱継続時間とを指示可能である。
すような情報が記憶される。すなわち、遷移状態の進行
順に遷移状態なし(NONEと表記する)、アタック遷移状
態(Attack)、NONE、ノート遷移状態(NtN)、NONE、
リリース遷移状態(Release)、NONE…等の状態情報が
配置される。遷移トラックTRの状態情報は、演奏デー
タ及び音韻トラックTPの情報に基づいて形成されるも
ので、Attackの状態情報は、音韻トラックTPの「s」
から「a」への音韻遷移の情報に対応し、NtNの状態情
報は、音韻トラックTPの「a」から「i」への音韻遷
移の情報に対応し、Releaseの状態情報は、音韻トラッ
クTPの「a」から「Sil」への音韻遷移の情報に対応
する。各状態情報は、対応する音韻遷移の情報に基づい
て合成される歌唱音声に対して音高、振幅等の微小変化
を付加するために用いられる。なお、図13の例では、
音韻トラックTPの「t」から「a」への音韻遷移に対
応するNtNの状態情報を配置しないようにした。
情報は、開始時刻(Bigin Time=T21)、継続時間
(Duration=D21)及び遷移インデックス(Index=N
ONE)を表わす情報からなる。Attackの状態情報は、開
始時刻(Bigin Time=T22)、継続時間(Duration
=D22)、遷移インデックス(Index=Attack)及び
遷移インデックスのタイプ(例えば「Normal」、Type=
Type22)を表わす情報からなる。2番目のNONEの状態
情報は、開始時刻及び継続時間がそれぞれT23及びD
23となる点を除き1番目のNONEの状態情報と同様であ
る。NtNの状態情報は、開始時刻(Bigin Time=T2
4)、継続時間(Duration=D24)、遷移インデック
ス(Index=NtN)及び遷移インデックスのタイプ(例え
ば「Normal」、Type=Type24)を表わす情報からな
る。3番目のNONEの状態情報は、開始時刻及び継続時時
間がそれぞれT25及びD25となる点を除き1番目の
NONEの状態情報と同様である。Releaseの状態情報は、
開始時刻(Bigin Time=T26)、継続時間(Duratio
n=D26)、遷移インデックス(Index=Release)及
び遷移インデックスのタイプ(例えば「Normal」、Type
=Type26)を表わす情報からなる。
6に示すような情報が記憶される。すなわち、ビブラー
トイベントの進行順にビブラートオフ(Vibrato OF
F)、ビブラートオン(Vibrato ON)、ビブラートオフ
(Vibrato OFF)…等の情報が配置される。1番目のビ
ブラートオフの情報は、開始時刻(Bigin Time=T3
1)、継続時間(Duration=D31)及び遷移インデッ
クス(Index=OFF)を表わす情報からなる。ビブラート
オンの情報は、開始時刻(Bigin Time=T32)、継
続時間(Duration=D32)、遷移インデックス(Inde
x=ON)及びビブラートのタイプ(例えば「Normal」、T
ype=Type32)を表わす情報からなる。2番目のビブ
ラートオフの情報は、開始時刻及び継続時間がそれぞれ
T33及びD33となる点を除き1番目のビブラートオ
フ情報と同様である。
Pにおける「た」の母音「a」の情報に対応するもの
で、「a」の情報に基づいて合成される歌唱音声に音
高、振幅等のビブラート的変化を付加するために用いら
れる。ビブラートオンの情報において、開始時刻を歌唱
音声「a」の発生開始時刻T3から遅延時間DLだけ遅
く設定することにより遅延ビブラートを実現することが
できる。なお、図14〜16に示したT11〜14,T
21〜T26,T31〜T33等の開始時刻やD11〜
D14,D21〜D26,D31〜D33等の継続時間
は、テンポクロック信号TCLのクロック数で適宜設定
することができる。
データS1〜S3を用いると、ステップ44の歌唱合成
処理において、図13に示すような歌唱音声の合成が可
能となる。音韻トラックTPのSilの情報に基づいて歌
唱開始前の無音時間を実現した後、TPのSil_sの情報
と演奏データS1中のC3の音高情報とに対応する音源
制御情報を図6(B)の音韻遷移DB14bから読出し
て音源回路28を制御することにより時刻T11で子音
「s」の発生を開始させる。このときの制御期間は、T
PのSil_sの情報の指示する継続時間に対応する。次
に、TPのs_aの情報とS1中のC3の音高情報とに
対応する音源制御情報をDB14bから読出して音源回
路28を制御することにより時刻T1で母音「a」の発
生を開始させる。このときの制御期間は、TPのs_a
の情報の指示する継続時間に対応する。この結果、歌唱
音声SS1として「さ(sa)」が発生される。
報とに対応する音源制御情報を図5の音韻DB14aか
ら読出して音源回路28を制御することにより母音
「a」の発生を継続する。このときの制御期間は、TP
のaの情報の指示する継続時間に対応する。次に、TP
のa_iの情報とS2中のD3の音高情報とに対応する
音源制御情報をDB14bから読出して音源回路28を
制御することにより時刻T2で母音「a」の発生を終了
させると共に母音「i」の発生を開始させる。このとき
の制御期間は、TPのa_iの情報の指示する継続時間
に対応する。
びD3に対応する音源制御情報とT Pのi_t及びD3
に対応する音源制御情報とを順次に読出して音源回路2
8を制御することにより母音「i」の発音を時刻T31
まで継続し、時刻T31から子音「t」の発生を開始さ
せる。そして、TPのt_a及びE3に対応する音源制
御情報に応じて音源回路28を制御することにより時刻
T3から母音「a」の発生を開始させた後、TPのa及
びE3に対応する音源制御情報と、TPのa_Sil及びE
3に対応する音源制御情報とを順次に読出して音源回路
28を制御することにより母音「a」の発生を時刻T4
まで継続し、時刻T4から無音状態とする。この結果、
歌唱音声SS2,SS3として、「い(i)」、「た
(ta)」が順次に発生されることになる。
データS1〜S3中の情報と遷移トラックTRの情報と
に基づいて歌唱音声制御が行なわれる。すなわち、時刻
T1の前後には、TRのAttackの状態情報とTPのs_
aの情報とS1中のC3の音高情報とに対応する音源制
御情報を図7の状態遷移DB14cから読出して音源回
路28を制御することにより歌唱音声「s_a」に対し
て音高、振幅等の微小変化を付加する。このときの制御
期間は、Attackの状態情報の指示する継続時間に対応す
る。また、時刻T2の前後にはTRのNtNの状態情報と
TPのa_iの情報と、S2中のD3の音高情報とに対
応する音源制御情報をDB14cから読出して音源回路
28を制御することにより歌唱音声「a_i」に対して
音高、振幅等の微小変化を付加する。このときの制御期
間は、NtNの状態情報の指示する継続時間に対応する。
さらに、時刻T4の直前には、TRのReleaseの状態情
報とTPのaの情報とS3中のE3の音高情報とに対応
する音源制御情報をDB14cから読出して音源回路2
8を制御することにより歌唱音声「a」に対して音高、
振幅等の微小変化を付加する。このときの制御期間は、
Releaseの状態情報の指示する継続時間に対応する。上
記のような歌唱音声制御によれば、アタック感、ノート
遷移感又はリリース感のある自然な歌唱合成が可能とな
る。
て演奏データS1〜S3中の情報及びビブラートトラッ
クTBの情報とに基づいて歌唱音声制御が行われる。す
なわち、時刻T3から遅延時間DLだけ遅れた時刻にな
ると、TBのビブラートオンの情報とTPのaの情報と
S3中のE3の音高情報とに対応した音源制御情報を図
8のビブラートDB14dから読出して音源回路28を
制御することにより歌唱音声「a」に対して音高、振幅
等のビブラート的変化を付加し、このような付加を時刻
T4まで続ける。このときの制御期間は、ビブラートオ
ンの情報の指示する継続期間に対応する。また、ビブラ
ートの深さや速さは、S3中のビブラートタイプの情報
に応じて決定される。上記のような歌唱音声制御によれ
ば、所望の歌唱個所にビブラートを付加して自然な歌唱
合成を行なうことができる。
歌唱合成スコア形成処理を説明する。ステップ50で
は、初期化処理を行ない、例えばRAM16内の受信回
数カウンタnに0をセットする。
増加(n+1)する。そして、ステップ54で変数mを
カウンタnの値nとし、m=n番目の演奏データを受信
してRAM16内の受信バッファに書込む。
タがデータエンドか判定する。ステップ54でm=1番
目の演奏データを受信したときは、ステップ56の判定
結果が否定的(N)となり、ステップ58に移る。ステ
ップ58では、m=n番目の演奏データを受信バッファ
から読出してRAM16内の参照スコアに書込む。参照
スコアにm=1番目の演奏データを書込んだ後は、図1
0〜12で前述したように参照スコアに演奏データを
「追加」又は「挿入」の形で書込むことになる。
る。m=1番目の演奏データを受信したときは、ステッ
プ60の判定結果が否定的(N)となり、ステップ52
に戻る。ステップ52では、n=2とし、ステップ54
では、m=2番目の演奏データを受信し、受信バッファ
に書込む。そして、ステップ56を経てステップ58に
来ると、m=2番目の演奏データを参照スコアに追加す
る。
と、n=2であるので、判定結果が肯定的(Y)とな
り、ステップ61の歌唱合成スコア形成処理を行なう。
ステップ61の処理については、図18を参照して後述
するが、概略的に説明すると、次のようになる。すなわ
ち、ステップ62では、m=n−1番目の演奏データを
参照スコアに挿入したか判定する。例えば、m=1番目
の演奏データについては、挿入ではないので、ステップ
62の判定結果が否定的(N)となり、ステップ64に
移る。ステップ64では、m=n−1番目の演奏データ
について歌唱合成スコアを形成する。例えば、ステップ
54でm=2番目の演奏データを受信したときは、ステ
ップ64でm=1番目の演奏データについて歌唱合成ス
コアが形成される。
52に戻り、上記したと同様にして演奏データの受信及
び参照スコアへの演奏データの書込みを行なう。例え
ば、ステップ64でm=1番目の演奏データについて歌
唱合成スコアを形成した後は、ステップ54でm=3番
目の演奏データを受信し、ステップ58でm=3番目の
演奏データを参照スコアに追加又は挿入する。
あったときは、参照スコアにm=n−1番目の演奏デー
タを挿入した場合であり、ステップ66に移る。ステッ
プ66ではm=n−1番目の演奏データより実歌唱開始
時刻が後の歌唱合成スコアを破棄し、m=n−1番目の
演奏データ以降の演奏データについて歌唱合成スコアを
形成する。例えば、図11,12に示すように演奏デー
タS1,S3,S4を受信した後、演奏データS2を受
信すると、ステップ58では、m=4番目の演奏データ
S2を参照スコアに挿入する。そして、ステップ60を
経てステップ62に来ると、m=4−1=3番目の演奏
でデ―タS4は、参照スコアに追加されたものであるの
で、ステップ62の判定結果が否定的(N)となり、ス
テップ64を経てステップ52に戻る。そして、ステッ
プ54でm=5番目の演奏データを受信した後、ステッ
プ56,58,60を経てステップ62に来ると、m=
4番目の演奏データS2は、参照スコアに挿入されたも
のであるので、ステップ62の判定結果が肯定的(Y)
となり、ステップ66において、m=4番目の演奏デー
タS2より実歌唱開始時刻が後の歌唱合成スコア(図1
2のSC3a等)を破棄し、m=4番目の演奏データS
2以降の演奏データ(図12のS2,S3,S4)につ
いて歌唱合成スコアを形成する。
52に戻り、上記したと同様の処理を繰返す。m=n番
目の演奏データがデータエンドになると、ステップ56
の判定結果が肯定的(Y)となり、ステップ68で終端
処理(例えばエンド情報の付加等)を行なう。ステップ
68の後は、図3のステップ44の歌唱合成処理を行な
う。
ものである。ステップ70では、参照スコアから図4に
示したような演奏情報を含む演奏データを取得する。ス
テップ72では、取得した演奏データに含まれる演奏情
報を分析する。ステップ74では、分析された演奏情報
及び保存された管理データ(先行演奏データの管理デー
タ)に基づいて歌唱合成スコア形成のための管理データ
を作成する。ステップ74の処理については、図19を
参照して後述する。
データが参照ストアに書き込まれた際に挿入されたか判
定する。この判定の結果が肯定的(Y)であれば、ステ
ップ78において、取得に係る演奏データより実歌唱開
始時刻が後の歌唱合成スコアを破棄する。
テップ76の判定結果が否定的(N)であったときは、
ステップ80で音韻トラック形成処理を行なう。ステッ
プ80の処理では、演奏情報と、ステップ74で作成さ
れた管理データと、保存されたスコアデータと(先行演
奏データのスコアデータ)とに基づいて音韻トラックT
Pを形成するが、このような処理の詳細については、図
22を参照して後述する。
74で作成された管理データと、保存されたスコアデー
タと音韻トラックTPとに基づいて遷移トラックTRを
形成する。ステップ82の処理の詳細については、図3
4を参照して後述する。
74で作成された管理データと、保存されたスコアデー
タと音韻トラックTPとに基づいてビブラートトラック
TBを形成する。ステップ84の処理の詳細について
は、図37を参照して後述する。
74で作成された管理データと、音韻トラックTPと、
遷移トラックTRと、ビブラートトラックTBとに基づ
いて次の演奏データのためのスコアデータを形成し、保
存する。スコアデータには、先行母音からのNtN遷移時
間長が含まれる。このNtN遷移時間長は、図36に示す
ように先行ノート(先行母音)にかかる時間長T1と後
続ノート(本演奏データ)にかかる時間長T2との組合
せからなるもので、両時間長の境界を時間区切り情報と
して保持している。NtN遷移時間長を算出するには、演
奏情報中の歌唱音韻と歌唱音高と歌唱ノート遷移タイプ
(例えば「Normal」)とに対応するNtNの状態遷移時間
長を図7の状態遷移DB14cから読出し、この状態遷
移時間長に対して演奏情報中の歌唱ノート遷移伸縮率を
乗算すればよい。この乗算の結果として得られるNtN遷
移時間長は、図13,15に示したNtNの状態情報中の
継続時間情報として用いられる。
である。管理データとしては、図20,21に示すよう
に音韻状態(PhU State)、音素(Phoneme)、音高(P
itch)、現ノートオン(Current Note On)、現ノー
トデュレーション(CurrentNote Duration)、現ノー
トオフ(Current Note Off)、フルデュレーション
(Full Duration)、イベント状態(Event State)
等の情報がある。
ステップ92では、演奏データ中の歌唱音韻を分析す
る。音韻状態情報は、子音と母音との組合せ、母音のみ
又は有声のみのいずれかを表わす。以下では、便宜上、
子音と母音との組合せの場合をPhU State = Conson
ant Vowelとし、母音のみ又は有声子音のみの場合をPh
U State = Vowelとする。音素情報は,音素名(子
音名及び/又は母音名)、子音のカテゴリ(鼻音、破裂
音、半母音、その他)、子音の有声又は無声等を表わ
す。
高を分析し、この歌唱音高を音高情報とする。ステップ
96では、演奏データ中の実歌唱時刻を分析し、実歌唱
開始時刻を現ノートオン情報とする。また、実歌唱長を
現ノートデュレーション情報とし、実歌唱開始時刻から
実歌唱長だけ経過した時刻を現ノートオフ情報とする。
刻を修正した時刻を採用してもよい。例えば、乱数発生
処理等により実歌唱開始時刻(実線で示す)の前後に及
ぶ所定の時間範囲(2本の破線で示す)内でΔtだけラ
ンダムに変更した時刻(実歌唱開始時刻をt0とする
と、t0±Δtの時刻)を現ノートオン情報としてもよ
い。
データを用いて先行歌唱イベントとの関係で本演奏デー
タの歌唱時刻を分析する。先行演奏データの管理データ
において、先行イベントナンバ(Event Number)情報
は、先行演奏データの並べ替えを済ませた受信ナンバを
表わし、先行スコアデータ(Score Data)は、先行演
奏データについて歌唱合成スコアを形成した際にステッ
プ86で形成し、保存されたスコアデータであり、先行
ノートオフ(Note Off)情報は、先行実歌唱終了時刻
を表わす。イベントステート情報は、先行ノートオフ情
報及び現ノートオン情報に基づいて決定された先行歌唱
イベントと現歌唱イベントの接続状況(無音の有無)を
表わす。以下では、便宜上、図20に示すように先行歌
唱イベントと現歌唱イベントとが連続する場合(無音な
しの場合)をEvent State =Transitionとし、図21
に示すように先行歌唱イベントと現歌唱イベントとの間
に無音が入る場合をEvent State = Attackとする。
フルデュレーション情報は、先行ノートオフ情報の指示
する先行実歌唱終了時刻から現ノートオフ情報の指示す
る実歌唱終了時刻までの時間長を表わす。
処理を説明する。ステップ100では、演奏情報(演奏
データの内容)、管理データ及びスコアデータを取得す
る。ステップ102では、取得データに基づいて図6
(B)の音韻遷移DB14bから音韻遷移時間長を獲得
する(読出す)。ステップ102の処理については、図
23を参照して後述する。
てEvent State = Attackか判定する。この判定の結
果が肯定的(Y)であれば、前に無音(Silence)が存
在することになり、ステップ106でSilence歌唱長を
算出する。ステップ106の処理については、図24を
参照して後述する。
であったときは、Event State =Transitionで前に母
音が存在することになり、ステップ108で先行Vowel
(母音)歌唱長を算出する。ステップ108の処理につ
いては、図28を参照して後述する。
たときは、ステップ110でVowel歌唱長を算出する。
ステップ110の処理については、図32を参照して後
述する。
長獲得処理を示すもので、ステップ112では,管理デ
ータ及びスコアデータを取得する。そして、ステップ1
14では、すべての音韻遷移時間長(後述のステップ1
16,122,124,126,130,132,13
4で獲得される音韻遷移時間長)を初期化する。
てV_Sil(母音から無音へ)の音韻遷移時間長をDB1
4bから獲得する。一例として、母音が「a」であり、
その音高が「P1」であるとすると、DB14bから
は、「a_Sil 」と「P1」とに対応した音韻遷移時間
長が獲得される。ステップ116の処理は、日本語が母
音で終わることと関連している。
てEvent State = Attackか判定する。この判定の結
果が肯定的(Y)であれば、ステップ120で管理デー
タに基づいてPhU State = Consonant Vowel か判
定する。この判定の結果が肯定的(Y)であれば、ステ
ップ122で管理データに基づいてDB14bからSil_
C(無音から子音へ)の音韻遷移時間長を獲得する。こ
の後、ステップ124では、管理データに基づいてDB
14bからC_V(子音から母音へ)の音韻遷移時間長
を獲得する。
であったときは、PhU State =Vowelであったことに
なり、ステップ126で管理データに基づいてDB14
bからSil_V(無音から母音へ)の音韻遷移時間長を獲
得する。なお、ステップ122〜126における音韻遷
移時間長の具体的な獲得法は、ステップ116で述べた
と同様である。
であったときは、ステップ120と同様にしてステップ
128でPhU State = Consonant Vowel か判定す
る。この判定の結果が肯定的(Y)であれば、ステップ
130で管理データ及びスコアデータに基づいてpV_
C(先行母音から子音へ)の音韻遷移時間長をDB14
bから獲得する。一例として、スコアデータにより先行
母音が「a」であり、管理データにより子音が「s」
で、その音高が「P2」であるとすると、DB14bか
らは、「a_s 」及び「P2」に対応した音韻遷移時間
長が獲得される。この後、ステップ132では、ステッ
プ116で述べたと同様にして管理データに基づいてD
B14bからC_V(子音から母音へ)の音韻遷移時間
長を獲得する。
であったときは、ステップ134に移る。ステップ13
4では、ステップ130で述べたと同様にして管理デー
タ及びスコアデータに基づいてDB14bからpV_V
(先行母音から母音へ)の音韻遷移時間長を獲得する。
長算出処理を示すもので、ステップ136では、演奏情
報、管理データ及びスコアデータを獲得する。
nsonant Vowel か判定する。この判定の結果が肯定的
(Y)であれば、ステップ140でConsonant歌唱長を
算出する。この場合、図25に示すように、子音歌唱時
間は、無音から子音への音韻遷移時間長内の子音部と、
Consonant歌唱長と、子音から母音への音韻遷移時間長
内の子音部の加算によって決まる。従って、Consonant
歌唱長は、子音歌唱時間の一部となる。
伸縮率が1より大きい場合においてConsonant歌唱長を
決定する例を示す。この場合、Sil_Cの子音長とC_Vの子
音長とを加算したものを基本単位とし、これに歌唱子音
伸縮率を乗算したものをConsonant歌唱長Cとする。そ
して、Sil_C とC_Vとの間にConsonant歌唱長Cを介在さ
せることによって子音歌唱時間を伸長する。
い場合においてConsonant歌唱長を決定する例を示す。
この場合、Sil_Cの子音長とC_Vの子音長とにそれぞれ歌
唱子音伸縮率を乗算して各々子音長を短縮する。この結
果、Sil_Cの子音長とC_Vの子音長とからなる子音歌唱時
間が短縮される。
長を算出する。図27に示すように、無音時間は、先行
母音から無音への音韻遷移時間長の無音部と、Silence
歌唱長と、無音から子音への音韻遷移時間長の無音部
と、子音歌唱時間との加算、あるいは先行母音から無音
への音韻遷移時間長の無音部と、Silence歌唱長と、無
音から母音への音韻遷移時間長の無音部との加算によっ
て決まる。従って、Silence歌唱長は、無音時間の一部
となる。ステップ142では、歌唱の順に従い、C_V内
の子音部と母音部との境界又はSil_V内の無音部と母音
部との境界が実歌唱開始時刻(Current Note On)と
なるようにSilence歌唱長を算出する。すなわち、本演
奏データの母音の歌唱開始時刻が実歌唱開始時刻と一致
するようにSilence歌唱長を算出する。
音韻接続パターンを示す。(A)のパターンは、例えば
先行母音「あ」−無音−「さ(sa)」に対応し、子音
「s」を伸長するためにConsonant歌唱長Cが挿入され
ている。(B)のパターンは、例えば先行母音「あ」−
無音−「ぱ(pa)」に対応する。(C)のパターン
は、例えば先行母音「あ」−無音−「い(i)」に対応
する。
唱長算出処理を示すもので、ステップ146では、演奏
情報、管理データ及びスコアデータを取得する。
nsonant Vowel か判定する。この判定の結果が肯定的
(Y)であれば、ステップ150でConsonant歌唱長を
算出する。この場合、図29に示すように、子音歌唱時
間は、先行母音から子音への音韻遷移時間長内の子音部
と、Consonant歌唱長と、子音から母音への音韻遷移時
間長内の子音部の加算によって決まる。従って、Conson
ant歌唱長は、子音歌唱時間の一部となる。
伸縮率が1より大きい場合においてConsonant歌唱長を
決定する例を示す。この場合、pV_Cの子音長とC_Vの子
音長とを加算したものを基本単位とし、これに歌唱子音
伸縮率を乗算したものとの間にConsonant歌唱長Cを介
在させることによって子音歌唱時間を伸長する。
合においてConsonant歌唱長を決定する例を示す。この
場合、pV_Cの子音長とC_Vの子音長とにそれぞれ歌唱伸
縮率を乗算して各々の子音長を短縮する。この結果、p
V_Cの子音長とC_Vの子音長とからなる子音歌唱時間が短
縮される。
唱長を算出する。図31に示すように、先行母音歌唱時
間は、X(Sil、子音又は母音)から先行母音への音韻
遷移時間長の母音部と、先行Vowel歌唱長と、先行母音
から子音又は母音への音韻遷移時間長の母音部との加算
によって決まる。従って、先行Vowel歌唱長は、先行母
音歌唱時間の一部となる。また、本演奏データを受信し
たことにより先行演奏データと本演奏データとの接続が
明確になったので、先行演奏データに基づいて形成され
たVowel歌唱長及びV_Silは破棄する。すなわち、後述す
る図32のVowel歌唱長算出処理で用いられる「次の演
奏データとの間に無音が挿入される」という仮定は破棄
される。ステップ152では、歌唱の順に従い、C_V内
の子音部と母音部との境界又はpV_V内の先行母音部と
母音部との境界が実歌唱開始時刻(Current Note O
n)となるように先行Vowel歌唱長を算出する。すなわ
ち、本演奏データの母音の歌唱開始時刻が実歌唱開始時
刻と一致するように先行Vowel歌唱長を算出する。
音韻接続パターンを示す、(A)のパターンは、例えば
先行母音「あ」−「さ(sa)」に対応し、子音「s」
を伸長するためにConsonant歌唱長Cが挿入されてい
る。(B)のパターンは、例えば、先行母音「あ」−
「ぱ(pa)」に対応する。(C)のパターンは、例え
ば、先行母音「あ」−「い(i)」に対応する。
算出処理を示すもので、ステップ154では、演奏情
報、管理データ及びスコアデータを取得する。
する。この場合、次の演奏データを受信しないと、母音
の接続部が明確にならないため、「次の演奏データとの
間に無音が挿入される」と仮定し、図33に示すように
母音部にV_Silを接続してVowel歌唱長を算出する。この
時点において、母音歌唱時間は、Xから母音への音韻遷
移時間長の母音部と、Vowel歌唱長と、母音から無音へ
の音韻遷移時間長の母音部との加算によって一時的に決
まる。従って、Vowel歌唱長は、母音歌唱時間の一部と
なる。ステップ156では、歌唱の順に従い、V_Sil内
の母音部と無音部との境界が実歌唱終了時刻(Current
Note Off)となるようにVowel歌唱長を決定する。
データとの接続状態(Event State)が明確になり、次
の演奏データのEvent State = Attackの場合には本
演奏データのVowel歌唱長が更新されず、次の演奏デー
タのEvent State = Transitionの場合には前述のス
テップ152の処理によって本演奏データのVowel歌唱
長が更新される。
ので、ステップ160では、演奏情報、管理データ、ス
コアデータ及び音韻トラックのデータを取得する。
算出する。このためには、演奏情報及び管理データに基
づいて歌唱アタックタイプと音韻と音高とに対応したAt
tack状態の状態遷移時間長を図7の状態遷移DB14c
から獲得する。そして、獲得した状態遷移時間長に対し
て演奏情報中の歌唱アタック伸縮率を乗算したものをAt
tack遷移時間長(アタック部の継続時間)とする。
を算出する。このためには、演奏情報及び管理データに
基づいて歌唱リリースタイプと音韻と音高とに対応した
Release状態の状態遷移時間長をDB14cから獲得す
る。そして、獲得した状態遷移時間長に対して演奏情報
中の歌唱リリース伸縮率を乗算したものをRelease遷移
時間長(リリース部の継続時間)とする。
得する。すなわち、図18のステップ86で保存された
スコアデータ中から、先行母音からのNtN遷移時間長
(ノート遷移部の継続時間)を獲得する。
Attackか判定する。この判定の結果が肯定的(Y)であ
れば、ステップ170で無音部に対応するNONE遷移時間
長(「NONEn遷移時間長」と称する)を算出する。すな
わち、PhU State = Consonant Vowel の場合は、
図35(A)、(B)に示すように子音の歌唱開始時刻
とAttack遷移開始時刻(Attack遷移時間長の先端位置)
とが一致するようにNONEn遷移時間長を算出する。図3
5において、(A)の例が(B)の例と異なるのは、子
音歌唱時間にConsonant歌唱長Cを挿入した点である。P
hU State =Vowelの場合は、図35(C)に示すよう
に母音の歌唱開始時刻とAttack遷移開始時刻とが一致す
るようにNONEn遷移時間長を算出する。
NE遷移時間長(「NONEs遷移時間長」と称する)を算出
する。この場合、次の演奏データを受信しないと、NONE
s遷移時間長に続く接続状態が明確にならないため、
「次の演奏データとの間に無音が挿入される」と仮定
し、図35に示すようにRelease遷移を接続した状態でN
ONEs遷移時間長を算出する。すなわち、Release遷移終
了時刻(Release遷移時間長の終端位置)がV_Silの終了
時刻と一致するように先行演奏データの終了時刻とV_Si
lの終了時刻とAttack遷移時間長とRelease時間長とNONE
n遷移時間長とに基づいてNONEs遷移時間長を算出する。
であったときは、ステップ174で先行演奏データの定
常部に対応するNONE遷移時間長(「pNONEs遷移時間長」
と称する)を算出する。本演奏データを受信したことに
より先行演奏データとの接続状態が明確になったので、
先行演奏データに基づいて形成されたNONEs遷移時間長
及び先行Release遷移時間長は破棄する。すなわち、後
述するステップ176の処理で用いられる「次の演奏デ
ータのと間に無音が挿入される」という仮定は破棄され
る。ステップ174では、図36(A)〜(C)に示す
ようにPhU State = Consonant Vowel又はPhU Sta
te = Vowelのいずれの場合にも、先行母音からのNtN
遷移時間長のT1及びT2の境界と本演奏データの実歌
唱開始(Current Note On)とが一致するように本演
奏データの実歌唱開始時刻及び実歌唱終了時刻とNtN遷
移時間長とに基づいてpNONEs遷移時間長を算出する。図
36において、(A)の例が(B)の例と異なるのは、
子音歌唱時間にConsonant歌唱長Cを挿入した点であ
る。
NE遷移時間長(NONEs遷移時間長)を算出する。この場
合、次の演奏データを受信しないと、NONEs遷移時間長
に続く接続状態が明確にならないため、「次の演奏デー
タとの間に無音が挿入される」と仮定し、図36に示す
ようにRelease遷移を接続した状態でNONEs遷移時間長を
算出する。すなわち、先行母音からのNtN遷移時間長T
1及びT2の境界と本演奏データの実歌唱開始時刻(Cu
rrent Note On)とが一致し且つRelease遷移終了時刻
(Release遷移時間長の終端位置)とV_Silの終了時刻と
が一致するように本演奏データの実歌唱開始時刻とV_Si
lの終了時刻と先行母音からのNtN遷移時間長とRelease
遷移時間長とに基づいてNONEs遷移時間長を算出する。
示すもので、ステップ180では、演奏情報、管理デー
タ、スコアデータ及び音韻トラックのデータを取得す
る。
てビブラートイベント継続か判定する。本演奏データの
実歌唱開始時刻からビブラートが開始され、先行演奏デ
ータからビブラート付加状態が継続する場合は、ステッ
プ182の判定結果が肯定的(Y)となり、ステップ1
84に移る。また、本演奏データの実歌唱開始時刻から
ビブラートが開始されるが、先行演奏データからビブラ
ート付加状態が継続しない場合、あるいは本演奏データ
からビブラートが開始されない場合は、ステップ182
の判定結果が否定的(N)となり、ステップ188に移
る。
ト)にまたがって歌唱されることが多い。本演奏データ
の実歌唱開始時刻からビブラートが開始されていても、
図38(A)に示すように先行ノートからビブラート付
加状態が継続する場合と、図38(D)、(E)に示す
ように現ノートの実歌唱開始時刻からビブラートが追加
的に開始される場合とがありうる。同様に、無ビブラー
ト(ビブラート非付加状態)についても、本演奏データ
の実歌唱開始時刻から無ビブラートが開始されていて
も、図38(B)に示すように先行ノートから無ビブラ
ートが継続する場合と、図38(C)に示すように現ノ
ートの実歌唱開始時刻から無ビブラートが開始される場
合とがありうる。
て無ビブラートイベント継続か判定する。先行ノートか
ら無ビブラート状態が継続する図38(B)のような場
合は、ステップ188の判定結果が肯定的(Y)とな
り、ステップ190に移る。また、現ノートの実歌唱開
始時刻から無ビブラートが開始されているが、先行ノー
トから無ビブラート状態が継続しない図38(C)のよ
うな場合、あるいは現ノートの実歌唱開始時刻から無ビ
ブラートが開始されない場合は、ステップ188の判定
結果が否定的(N)となり、ステップ194に移る。
184では、先行ビブラート時間長を破棄する。そし
て、ステップ186で先行ビブラート時間長と現ノート
の実歌唱開始時刻から開始されるビブラートのビブラー
ト時間長とを接続(加算)して新たなビブラート時間長
を算出する。そして、ステップ194に移る。
プ190では、先行無ビブラート時間長を破棄する。そ
して、ステップ192で先行無ビブラート時間長と現ノ
ートの実歌唱開始時刻から開始される無ビブラートの無
ビブラート時間長とを接続(加算)して新たな無ビブラ
ート時間長を算出する。そして、ステップ194に移
る。
追加ありか判定する。この判定の結果が肯定的(Y)で
あれば、ステップ196で追加無ビブラート時間長を算
出する。すなわち、ステップ186で算出されたビブラ
ート時間長の終端から追加するビブラート時間長までの
無ビブラート時間長を追加無ビブラート時間長として算
出する。
長を算出する。そして、ステップ194に戻り、それ以
降の処理を上記したと同様に繰返す。この結果、複数の
追加ビブラート時間長を算出可能となる。
であったときは、ステップ200で無ビブラート時間長
を算出する。すなわち、実歌唱時間長(Current Note
OnからCurrent Note Offまでの時間長)内で最終の
ビブラートイベントの最終時刻からV_Silの終了時刻ま
でを無ビブラート時間長として算出する。
本演奏データの母音の歌唱開始時刻が実歌唱開始時刻と
一致するようにSilence歌唱長又は先行Vowel歌唱長を算
出したが、より自然な歌唱合成を行なうことを目的とし
て、次の(1)〜(11)で述べるようにしてSilence
歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出しても
よい。
音、無声/有声摩擦音、鼻音、半母音等)毎にSilence
歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出する。
図39には、子音のカテゴリが鼻音又は半母音である場
合に他の場合とはSilence歌唱長の決定の仕方を変えた
例を示す。
パターンとしては、先行母音「あ」−無音−「さ(s
a)」に対応したもので、子音及び母音からなる音韻に
ついて子音(この例では「s」)を伸ばすためにConson
ant歌唱長を挿入した状態でSilence歌唱長を算出した例
である。(B)の例は、音韻接続パターンとしては、先
行音韻「あ」−無音−「ぱ(pa)」に対応したもの
で、子音及び母音からなる音韻についてConsonant歌唱
長を挿入せずにSilence歌唱長を算出した例である。
(C)の例は、音韻接続パターンとしては、先行母音
「あ」−無音−「な(na)」に対応したもので、子音
(鼻音又は半母音)及び母音からなる音韻について子音
(この例では「n」)を伸ばすためにConsonant歌唱長
Cを挿入した状態でSilence歌唱長を算出した例であ
る。(D)の例は、Consonant歌唱長を挿入しない点を
除き(C)と同様の例である。(E)の例は、音韻接続
パターンとしては、先行音韻「あ」−無音−「い
(i)」に対応したもので、母音のみからなる音韻につ
いてSilence歌唱長を算出した(子音(鼻音)のみから
なる音韻についても同様とする)例である。
データの母音の歌唱開始時刻が実歌唱開始時刻と一致す
るようにSilence歌唱長を算出した例である。(C)及
び(D)の例は、本演奏データの子音の歌唱開始時刻が
実歌唱開始時刻と一致するようにSilence歌唱長を算出
した例である。
「z」、「n」、「w」等)毎にSilence歌唱長、先行V
owel歌唱長及びVowel歌唱長を算出する。
「e」、「o」等)毎にSilence歌唱長、先行Vowel歌唱
長及びVowel歌唱長を算出する。
音、無声/有声摩擦音、鼻音、半母音等)毎に且つ子音
に続く母音(「a」、「i」、「u」、「e」、「o」
等)毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌
唱長を算出する。すなわち、子音のカテゴリと母音との
組合せ毎にSilence歌唱長、先行Vowel歌唱長及びVowel
歌唱長を算出する。
「z」、「n」、「w」等)毎に且つ子音に続く母音毎
にSilence歌唱長、先行Vowel歌唱長及びVowel歌唱長を
算出する。すなわち、子音と母音との組合せ毎にSilenc
e歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出す
る。
「u」、「e」、「o」等)毎にSilence歌唱長、先行V
owel歌唱長及びVowel歌唱長を算出する。
「u」、「e」、「o」等)毎に且つ先行母音に続く子
音のカテゴリ(無声/有声破裂音、無声/有声摩擦音、
鼻音、半母音等)毎にSilence歌唱長、先行Vowel歌唱長
及びVowel歌唱長を算出する。すなわち、先行母音と子
音のカテゴリとの組合せ毎にSilence歌唱長、先行Vowel
歌唱長及びVowel歌唱長を算出する。
「u」、「e」、「o」等)毎に且つ先行母音に続く子
音(「p」、「b」、「s」、「z」、「n」、「w」
等)毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌
唱長を算出する。すなわち、先行母音と子音との組合せ
毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌唱長
を算出する。
「u」、「e」、「o」等)毎に且つ先行母音に続く母
音(「a」、「i」、「u」、「e」、「o」等)毎に
Silence歌唱長、先行Vowel歌唱長及びVowel歌唱長を算
出する。すなわち、先行母音と母音との組合せ毎にSile
nce歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出す
る。
「u」、「e」、「o」等)毎、先行母音に続く子音の
カテゴリ(無声/有声破裂音、無声/有声摩擦音、鼻
音、半母音等)毎及び子音に続く母音(「a」、
「i」、「u」、「e」、「o」等)毎にSilence歌唱
長、先行Vowel歌唱長及びVowel歌唱長を算出する。すな
わち、先行母音と子音のカテゴリと母音との組合せ毎に
Silence歌唱長、先行Vowel歌唱長及びVowel歌唱長を算
出する。
「u」、「e」、「o」等)毎、先行母音に続く子音
(「p」、「b」、「s」、「z」、「n」、「w」
等)毎及び子音に続く母音(「a」、「i」、「u」、
「e」、「o」等)毎にSilence歌唱長、先行Vowel歌唱
長及びVowel歌唱長を算出する。すなわち、先行母音と
子音と母音との組合せ毎にSilence歌唱長、先行Vowel歌
唱長及びVowel歌唱長を算出する。
るものではなく、種々の改変形態で実施可能なものであ
る。例えば、次のような変更が可能である。
コアの形成が完了した後、歌唱合成スコアに従って歌唱
音声を合成するようにしたが、歌唱合成スコアを形成し
つつ形成済みの歌唱合成スコアに従って歌唱音声を合成
するようにしてもよい。このためには、例えば、演奏デ
ータの受信を割り込み処理により優先的に行ないつつ受
信済みの演奏データに基づいて歌唱合成スコアを形成す
ればよい。
してフォルマント合成方式を用いたが、波形処理方式等
の他の方式を用いてもよい。
コアを音韻トラック、遷移トラック及びビブラートトラ
ックの3トラックで構成したが、1トラック構成として
もよい。このためには、例えば、音韻トラックに遷移ト
ラック及びビブラートトラックの情報を適宜挿入すれば
よい。
から母音に遷移する音韻について子音の立上りを母音の
立上りより十分に早くすることができるので、人歌唱に
近似した自然な歌唱合成が可能となる効果が得られる。
刻や歌唱継続時間を決定するようにしたので、遷移する
音韻について自然な歌唱合成が可能となる効果も得られ
る。
の立上り部、立下り部、ノート遷移部に音高、振幅等の
微小変化を付加したり、歌唱音声にビブラート効果等の
効果を付加したり、歌唱開始時刻をランダムに決定した
りしたので、一層自然な歌唱合成が可能となる効果も得
られる。
時刻を対比して示す図である。
回路構成を示すブロック図である。
するためのフローチャートである。
の図である。
を示す図である。
歌唱合成スコアの形成状況を示す図である。
歌唱合成スコアの形成状況を示す図である。
状況及び歌唱音声の合成状況を示す図である。
テムを説明するための図である。
テムを説明するための図である。
のアイテムを説明するための図である。
を示すフローチャートである。
ートである。
である。
ータ作成処理を説明するための図である。
作成処理を説明するための図である。
トである。
ートである。
ートである。
1より大きい場合のConsonant歌唱長算出処理を説明す
るための図である。
1より小さい場合のConsonant歌唱長算出処理を説明す
るための図である。
ャートである。
1より大きい場合のConsonant歌唱長算出処理を説明す
るための図である。
1より小さい場合のConsonant歌唱長算出処理を説明す
るための図である。
トである。
トである。
である。
図である。
チャートである。
る。
る。
刻を対比して示す図である。
M、20:検出回路、22:表示回路、24:外部記憶
装置、26:タイマ、28:音源回路、30:MIDI
インターフェース、34:操作子群、36:表示器、3
8:サウンドシステム、39:MIDI機器。
Claims (12)
- 【請求項1】順次の第1及び第2の音素を含む歌唱音韻
について音韻を表わす音韻情報と歌唱開始時刻を表わす
時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開始
時刻より早く入力するステップと、 入力された音韻情報に基づいて前記第1の音素の発生時
間長と前記第2の音素の発生時間長とからなる音韻遷移
時間長を生成するステップと、 生成された音韻遷移時間長と入力された時刻情報及び歌
唱長情報とに基づいて前記第1及び第2の音素の歌唱開
始時刻と歌唱継続時間とを決定するステップと、 決定された前記第1及び第2の音素の歌唱開始時刻にそ
れぞれ前記第1及び第2の音素からなる第1及び第2の
歌唱音声を発生開始し、該第1及び第2の歌唱音声を決
定された前記第1及び第2の音素の歌唱継続時間中それ
ぞれ発生するステップとを含む歌唱合成方法。 - 【請求項2】 前記決定するステップでは、前記第1の
音素の歌唱開始時刻として、前記時刻情報で表わされる
歌唱開始時刻より早い時刻を決定する請求項1記載の歌
唱合成方法。 - 【請求項3】順次の第1及び第2の音素を含む歌唱音韻
について音韻を表わす音韻情報と歌唱開始時刻を表わす
時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開始
時刻より早く入力する入力手段と、 前記第1の音素の発生時間長と前記第2の音素の発生時
間長とからなる音韻遷移時間長を記憶する記憶手段と、 前記入力手段で入力された音韻情報に基づいて前記記憶
手段から音韻遷移時間長を読出す読出手段と、 この読出手段で読出された音韻遷移時間長と前記入力手
段で入力された時刻情報及び歌唱長情報とに基づいて前
記第1及び第2の音素の歌唱開始時刻と歌唱継続時間と
を算出する計算手段と、 この計算手段で算出された前記第1及び第2の音素の歌
唱開始時刻にそれぞれ前記第1及び第2の音素からなる
第1及び第2の歌唱音声を発生開始し、該第1及び第2
の歌唱音声を前記計算手段で算出された前記第1及び第
2の音素の歌唱継続時間中それぞれ発生する歌唱音声合
成手段とを備えた歌唱合成装置。 - 【請求項4】 前記入力手段では、前記第1の音素の発
生時間長を修正するための修正情報を入力し、前記計算
手段では、前記読出手段で読出された音韻遷移時間長中
の第1の音素の発生時間長を前記入力手段で入力された
修正情報に応じて修正した後該音韻遷移時間長に基づい
て前記第1及び第2の音素の歌唱開始時刻と歌唱継続時
間とを算出する請求項3記載の歌唱合成装置。 - 【請求項5】歌唱音韻について音韻を表わす音韻情報と
歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
情報とを入力するステップと、 入力された音韻情報に基づいて前記歌唱音韻の立上り
部、ノート遷移部又は立下り部のいずれかに対応した状
態遷移時間長を生成するステップと、 入力された音韻情報、時刻情報及び歌唱長情報に基づい
て前記音韻からなる歌唱音声を発生するステップであっ
て、生成された状態遷移時間長に対応する期間中前記歌
唱音声に対して音高及び振幅のうち少なくとも一方の変
化を付加するものとを含む歌唱合成方法。 - 【請求項6】歌唱音韻について音韻を表わす音韻情報と
歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
情報とを入力する入力手段と、 前記歌唱音韻の立上り部、ノート遷移部又は立下り部の
いずれかに対応した状態遷移時間長を記憶した記憶手段
と、 前記入力手段で入力された音韻情報に基づいて前記記憶
手段から状態遷移時間長を読出す読出手段と、 前記入力手段で入力された音韻情報、時刻情報及び歌唱
長情報に基づいて前記音韻からなる歌唱音声を発生する
歌唱音声合成手段であって、前記読出手段で読出された
状態遷移時間長に対応する期間中前記歌唱音声に対して
音高及び振幅のうち少なくとも一方の変化を付加するも
のとを備えた歌唱合成装置。 - 【請求項7】 前記入力手段では、前記状態遷移時間長
を修正するための修正情報を入力し、前記読出手段で読
出された状態遷移時間長を前記入力手段で入力された修
正情報に応じて修正する修正手段を更に設け、前記歌唱
音声合成手段では、前記修正手段で修正された状態遷移
時間長に対応する期間中前記歌唱音声に対して音高及び
振幅のうち少なくとも一方の変化を付加する請求項6記
載の歌唱合成装置。 - 【請求項8】歌唱音韻について音韻を表わす音韻情報と
歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
情報と効果の付加を表わす効果付加情報とを入力する入
力手段と、 この入力手段で入力された音韻情報、時刻情報及び歌唱
長情報に基づいて前記音韻からなる歌唱音声を発生する
歌唱音声合成手段であって、前記入力手段で入力された
効果付加情報に基づいて前記歌唱音声に対して効果を付
加するものとを備えた歌唱合成装置。 - 【請求項9】 前記入力手段で入力される効果付加情報
を効果の付加期間を表わすものとし、入力された効果付
加情報で表わされる効果の付加期間が前記歌唱音韻に先
行する歌唱音韻の効果の付加期間に連続するときに連続
する2つの付加期間に対応する新たな効果の付加期間を
設定する設定手段を更に設け、前記歌唱音声合成手段で
は、前記設定手段で設定された効果の付加期間中前記歌
唱音声に対して効果を付加する請求項8記載の歌唱合成
装置。 - 【請求項10】歌唱音韻について音韻を表わす音韻情報
と歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱
長情報とを前記歌唱開始時刻より早く入力する入力手段
と、 この入力手段で入力された時刻情報に基づいて前記歌唱
開始時刻の前後に及ぶ所定の時間範囲内でランダムに新
たな歌唱開始時刻を設定する設定手段と、 前記入力手段で入力された音韻情報及び歌唱長情報と前
記設定手段で設定された歌唱開始時刻とに基づいて前記
音韻からなる歌唱音声を発生する歌唱音声合成手段であ
って、前記設定手段で設定された歌唱開始時刻に前記歌
唱音声を発生開始するものとを備えた歌唱合成装置。 - 【請求項11】順次の第1及び第2の音素を含む歌唱音
韻について音韻を表わす音韻情報と歌唱開始時刻を表わ
す時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開
始時刻より早く入力するステップと、 入力された音韻情報に基づいて前記第1の音素の発生時
間長と前記第2の音素の発生時間長とからなる音韻遷移
時間長を生成するステップと、 生成された音韻遷移時間長と入力された時刻情報及び歌
唱長情報とに基づいて前記第1及び第2の音素の歌唱開
始時刻と歌唱継続時間とを決定するステップと、 決定された前記第1及び第2の音素の歌唱開始時刻にそ
れぞれ前記第1及び第2の音素からなる第1及び第2の
歌唱音声を発生開始し、該第1及び第2の歌唱音声を決
定された前記第1及び第2の音素の歌唱継続時間中それ
ぞれ発生するステップとを含むプログラムを記録した記
録媒体。 - 【請求項12】歌唱音韻について音韻を表わす音韻情報
と歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱
長情報とを入力するステップと、 入力された音韻情報に基づいて前記歌唱音韻の立上り
部、ノート遷移部又は立下り部のいずれかに対応した状
態遷移時間長を生成するステップと、 入力された音韻情報、時刻情報及び歌唱長情報に基づい
て前記音韻からなる歌唱音声を発生するステップであっ
て、生成された状態遷移時間長に対応する期間中前記歌
唱音声に対して音高及び振幅のうち少なくとも一方の変
化を付加するものとを含むプログラムを記録した記録媒
体。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000402880A JP3879402B2 (ja) | 2000-12-28 | 2000-12-28 | 歌唱合成方法と装置及び記録媒体 |
US10/034,352 US7124084B2 (en) | 2000-12-28 | 2001-12-27 | Singing voice-synthesizing method and apparatus and storage medium |
DE60135039T DE60135039D1 (de) | 2000-12-28 | 2001-12-28 | Verfahren und Vorrichtung zur Synthesierung einer Gesangsstimme und Speichermedium |
EP01131011A EP1220194A3 (en) | 2000-12-28 | 2001-12-28 | Singing voice synthesis |
EP06004731A EP1675101B1 (en) | 2000-12-28 | 2001-12-28 | Singing voice-synthesizing method and apparatus and storage medium |
US11/292,036 US20060085197A1 (en) | 2000-12-28 | 2005-12-01 | Singing voice-synthesizing method and apparatus and storage medium |
US11/292,165 US20060085198A1 (en) | 2000-12-28 | 2005-12-01 | Singing voice-synthesizing method and apparatus and storage medium |
US11/292,035 US7249022B2 (en) | 2000-12-28 | 2005-12-01 | Singing voice-synthesizing method and apparatus and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000402880A JP3879402B2 (ja) | 2000-12-28 | 2000-12-28 | 歌唱合成方法と装置及び記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006020087A Division JP4631726B2 (ja) | 2006-01-30 | 2006-01-30 | 歌唱合成装置及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002202788A true JP2002202788A (ja) | 2002-07-19 |
JP2002202788A5 JP2002202788A5 (ja) | 2004-10-28 |
JP3879402B2 JP3879402B2 (ja) | 2007-02-14 |
Family
ID=18867095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000402880A Expired - Fee Related JP3879402B2 (ja) | 2000-12-28 | 2000-12-28 | 歌唱合成方法と装置及び記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (4) | US7124084B2 (ja) |
EP (2) | EP1220194A3 (ja) |
JP (1) | JP3879402B2 (ja) |
DE (1) | DE60135039D1 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004004440A (ja) * | 2002-03-22 | 2004-01-08 | Yamaha Corp | 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体 |
JP2011180194A (ja) * | 2010-02-26 | 2011-09-15 | Dainippon Printing Co Ltd | 音素符号変換装置、音素符号データベース、および音声合成装置 |
JP2014098801A (ja) * | 2012-11-14 | 2014-05-29 | Yamaha Corp | 音声合成装置 |
JP2014170251A (ja) * | 2014-06-23 | 2014-09-18 | Yamaha Corp | 音声合成装置、音声合成方法およびプログラム |
JP2014186307A (ja) * | 2013-02-22 | 2014-10-02 | Yamaha Corp | 音声合成装置 |
WO2015060340A1 (ja) * | 2013-10-23 | 2015-04-30 | ヤマハ株式会社 | 歌唱音声の合成 |
JP2016090966A (ja) * | 2014-11-11 | 2016-05-23 | ヤマハ株式会社 | 表示制御装置 |
JP2016090916A (ja) * | 2014-11-10 | 2016-05-23 | ヤマハ株式会社 | 音声合成装置 |
JP2016161898A (ja) * | 2015-03-05 | 2016-09-05 | ヤマハ株式会社 | 音声合成用データ編集装置 |
JP2016177276A (ja) * | 2015-03-20 | 2016-10-06 | ヤマハ株式会社 | 発音装置、発音方法および発音プログラム |
JP2016184158A (ja) * | 2015-03-25 | 2016-10-20 | ヤマハ株式会社 | 歌唱音発音装置 |
JP2017041213A (ja) * | 2015-08-21 | 2017-02-23 | ヤマハ株式会社 | 合成音声編集装置 |
JPWO2020217801A1 (ja) * | 2019-04-26 | 2020-10-29 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3879402B2 (ja) * | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
JP4153220B2 (ja) * | 2002-02-28 | 2008-09-24 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム |
JP3823930B2 (ja) * | 2003-03-03 | 2006-09-20 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成プログラム |
JP4265501B2 (ja) * | 2004-07-15 | 2009-05-20 | ヤマハ株式会社 | 音声合成装置およびプログラム |
JP2006127367A (ja) * | 2004-11-01 | 2006-05-18 | Sony Corp | 情報管理方法、情報管理プログラムおよび情報管理装置 |
EP1734508B1 (en) * | 2005-06-17 | 2007-09-19 | Yamaha Corporation | Musical sound waveform synthesizer |
JP5471858B2 (ja) * | 2009-07-02 | 2014-04-16 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
JP5479823B2 (ja) * | 2009-08-31 | 2014-04-23 | ローランド株式会社 | 効果装置 |
JP5482042B2 (ja) * | 2009-09-10 | 2014-04-23 | 富士通株式会社 | 合成音声テキスト入力装置及びプログラム |
US8321209B2 (en) | 2009-11-10 | 2012-11-27 | Research In Motion Limited | System and method for low overhead frequency domain voice authentication |
US8326625B2 (en) * | 2009-11-10 | 2012-12-04 | Research In Motion Limited | System and method for low overhead time domain voice authentication |
US20110219940A1 (en) * | 2010-03-11 | 2011-09-15 | Hubin Jiang | System and method for generating custom songs |
US20110313762A1 (en) * | 2010-06-20 | 2011-12-22 | International Business Machines Corporation | Speech output with confidence indication |
JP5728913B2 (ja) * | 2010-12-02 | 2015-06-03 | ヤマハ株式会社 | 音声合成情報編集装置およびプログラム |
KR20140009461A (ko) | 2011-03-28 | 2014-01-22 | 도레이 카부시키가이샤 | 도전 적층체 및 터치 패널 |
JP6024191B2 (ja) | 2011-05-30 | 2016-11-09 | ヤマハ株式会社 | 音声合成装置および音声合成方法 |
JP6047922B2 (ja) * | 2011-06-01 | 2016-12-21 | ヤマハ株式会社 | 音声合成装置および音声合成方法 |
JP5895740B2 (ja) * | 2012-06-27 | 2016-03-30 | ヤマハ株式会社 | 歌唱合成を行うための装置およびプログラム |
US8847056B2 (en) | 2012-10-19 | 2014-09-30 | Sing Trix Llc | Vocal processing with accompaniment music input |
JP6024403B2 (ja) * | 2012-11-13 | 2016-11-16 | ヤマハ株式会社 | 電子音楽装置、パラメータ設定方法および当該パラメータ設定方法を実現するためのプログラム |
US9123315B1 (en) * | 2014-06-30 | 2015-09-01 | William R Bachand | Systems and methods for transcoding music notation |
CN106970771B (zh) | 2016-01-14 | 2020-01-14 | 腾讯科技(深圳)有限公司 | 音频数据处理方法和装置 |
CN106652997B (zh) * | 2016-12-29 | 2020-07-28 | 腾讯音乐娱乐(深圳)有限公司 | 一种音频合成的方法及终端 |
JP6992612B2 (ja) * | 2018-03-09 | 2022-01-13 | ヤマハ株式会社 | 音声処理方法および音声処理装置 |
JP6587008B1 (ja) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6587007B1 (ja) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610715B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610714B1 (ja) * | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6547878B1 (ja) | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
CN109147783B (zh) * | 2018-09-05 | 2022-04-01 | 厦门巨嗨科技有限公司 | 基于k歌系统的语音识别方法、介质及系统 |
JP7059972B2 (ja) | 2019-03-14 | 2022-04-26 | カシオ計算機株式会社 | 電子楽器、鍵盤楽器、方法、プログラム |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4771671A (en) * | 1987-01-08 | 1988-09-20 | Breakaway Technologies, Inc. | Entertainment and creative expression device for easily playing along to background music |
US5536902A (en) * | 1993-04-14 | 1996-07-16 | Yamaha Corporation | Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter |
JP3333022B2 (ja) * | 1993-11-26 | 2002-10-07 | 富士通株式会社 | 歌声合成装置 |
JP2897659B2 (ja) * | 1994-10-31 | 1999-05-31 | ヤマハ株式会社 | カラオケ装置 |
JP2921428B2 (ja) * | 1995-02-27 | 1999-07-19 | ヤマハ株式会社 | カラオケ装置 |
JPH08248993A (ja) | 1995-03-13 | 1996-09-27 | Matsushita Electric Ind Co Ltd | 音韻時間長制御方法 |
JP3598598B2 (ja) * | 1995-07-31 | 2004-12-08 | ヤマハ株式会社 | カラオケ装置 |
US5703311A (en) * | 1995-08-03 | 1997-12-30 | Yamaha Corporation | Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques |
US5878213A (en) * | 1996-02-15 | 1999-03-02 | International Business Machines Corporation | Methods, systems and computer program products for the synchronization of time coherent caching system |
JP3132392B2 (ja) | 1996-07-31 | 2001-02-05 | ヤマハ株式会社 | 歌唱音合成装置および歌唱音の発生方法 |
US5998725A (en) | 1996-07-23 | 1999-12-07 | Yamaha Corporation | Musical sound synthesizer and storage medium therefor |
US5895449A (en) | 1996-07-24 | 1999-04-20 | Yamaha Corporation | Singing sound-synthesizing apparatus and method |
JP3518253B2 (ja) | 1997-05-22 | 2004-04-12 | ヤマハ株式会社 | データ編集装置 |
JP4038836B2 (ja) * | 1997-07-02 | 2008-01-30 | ヤマハ株式会社 | カラオケ装置 |
US6304846B1 (en) * | 1997-10-22 | 2001-10-16 | Texas Instruments Incorporated | Singing voice synthesis |
JP3502247B2 (ja) * | 1997-10-28 | 2004-03-02 | ヤマハ株式会社 | 音声変換装置 |
US6462264B1 (en) * | 1999-07-26 | 2002-10-08 | Carl Elam | Method and apparatus for audio broadcast of enhanced musical instrument digital interface (MIDI) data formats for control of a sound generator to create music, lyrics, and speech |
US6836761B1 (en) * | 1999-10-21 | 2004-12-28 | Yamaha Corporation | Voice converter for assimilation by frame synthesis with temporal alignment |
JP2002063209A (ja) * | 2000-08-22 | 2002-02-28 | Sony Corp | 情報処理装置および方法、情報システム、並びに記録媒体 |
WO2002052565A1 (en) * | 2000-12-22 | 2002-07-04 | Muvee Technologies Pte Ltd | System and method for media production |
JP4067762B2 (ja) * | 2000-12-28 | 2008-03-26 | ヤマハ株式会社 | 歌唱合成装置 |
JP3879402B2 (ja) * | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
US6740804B2 (en) * | 2001-02-05 | 2004-05-25 | Yamaha Corporation | Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus |
JP3838039B2 (ja) * | 2001-03-09 | 2006-10-25 | ヤマハ株式会社 | 音声合成装置 |
JP3711880B2 (ja) * | 2001-03-09 | 2005-11-02 | ヤマハ株式会社 | 音声分析及び合成装置、方法、プログラム |
JP3709817B2 (ja) * | 2001-09-03 | 2005-10-26 | ヤマハ株式会社 | 音声合成装置、方法、及びプログラム |
JP3815347B2 (ja) * | 2002-02-27 | 2006-08-30 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
JP4153220B2 (ja) * | 2002-02-28 | 2008-09-24 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム |
JP3941611B2 (ja) * | 2002-07-08 | 2007-07-04 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム |
JP2004205605A (ja) * | 2002-12-24 | 2004-07-22 | Yamaha Corp | 音声および楽曲再生装置およびシーケンスデータフォーマット |
JP3823930B2 (ja) * | 2003-03-03 | 2006-09-20 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成プログラム |
JP3858842B2 (ja) * | 2003-03-20 | 2006-12-20 | ソニー株式会社 | 歌声合成方法及び装置 |
-
2000
- 2000-12-28 JP JP2000402880A patent/JP3879402B2/ja not_active Expired - Fee Related
-
2001
- 2001-12-27 US US10/034,352 patent/US7124084B2/en not_active Expired - Fee Related
- 2001-12-28 EP EP01131011A patent/EP1220194A3/en not_active Withdrawn
- 2001-12-28 EP EP06004731A patent/EP1675101B1/en not_active Expired - Lifetime
- 2001-12-28 DE DE60135039T patent/DE60135039D1/de not_active Expired - Lifetime
-
2005
- 2005-12-01 US US11/292,165 patent/US20060085198A1/en not_active Abandoned
- 2005-12-01 US US11/292,035 patent/US7249022B2/en not_active Expired - Fee Related
- 2005-12-01 US US11/292,036 patent/US20060085197A1/en not_active Abandoned
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004004440A (ja) * | 2002-03-22 | 2004-01-08 | Yamaha Corp | 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体 |
JP2011180194A (ja) * | 2010-02-26 | 2011-09-15 | Dainippon Printing Co Ltd | 音素符号変換装置、音素符号データベース、および音声合成装置 |
JP2014098801A (ja) * | 2012-11-14 | 2014-05-29 | Yamaha Corp | 音声合成装置 |
US9424831B2 (en) | 2013-02-22 | 2016-08-23 | Yamaha Corporation | Voice synthesizing having vocalization according to user manipulation |
JP2014186307A (ja) * | 2013-02-22 | 2014-10-02 | Yamaha Corp | 音声合成装置 |
WO2015060340A1 (ja) * | 2013-10-23 | 2015-04-30 | ヤマハ株式会社 | 歌唱音声の合成 |
JP2014170251A (ja) * | 2014-06-23 | 2014-09-18 | Yamaha Corp | 音声合成装置、音声合成方法およびプログラム |
JP2016090916A (ja) * | 2014-11-10 | 2016-05-23 | ヤマハ株式会社 | 音声合成装置 |
JP2016090966A (ja) * | 2014-11-11 | 2016-05-23 | ヤマハ株式会社 | 表示制御装置 |
JP2016161898A (ja) * | 2015-03-05 | 2016-09-05 | ヤマハ株式会社 | 音声合成用データ編集装置 |
JP2016177276A (ja) * | 2015-03-20 | 2016-10-06 | ヤマハ株式会社 | 発音装置、発音方法および発音プログラム |
US10354629B2 (en) | 2015-03-20 | 2019-07-16 | Yamaha Corporation | Sound control device, sound control method, and sound control program |
JP2016184158A (ja) * | 2015-03-25 | 2016-10-20 | ヤマハ株式会社 | 歌唱音発音装置 |
US10504502B2 (en) | 2015-03-25 | 2019-12-10 | Yamaha Corporation | Sound control device, sound control method, and sound control program |
JP2017041213A (ja) * | 2015-08-21 | 2017-02-23 | ヤマハ株式会社 | 合成音声編集装置 |
JPWO2020217801A1 (ja) * | 2019-04-26 | 2020-10-29 | ||
WO2020217801A1 (ja) * | 2019-04-26 | 2020-10-29 | ヤマハ株式会社 | オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム |
US20220044662A1 (en) * | 2019-04-26 | 2022-02-10 | Yamaha Corporation | Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device |
JP7226532B2 (ja) | 2019-04-26 | 2023-02-21 | ヤマハ株式会社 | オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7124084B2 (en) | 2006-10-17 |
EP1675101A2 (en) | 2006-06-28 |
EP1220194A3 (en) | 2004-04-28 |
US20030009344A1 (en) | 2003-01-09 |
DE60135039D1 (de) | 2008-09-04 |
EP1220194A2 (en) | 2002-07-03 |
EP1675101B1 (en) | 2008-07-23 |
US20060085196A1 (en) | 2006-04-20 |
EP1675101A3 (en) | 2007-05-23 |
US20060085197A1 (en) | 2006-04-20 |
US7249022B2 (en) | 2007-07-24 |
JP3879402B2 (ja) | 2007-02-14 |
US20060085198A1 (en) | 2006-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3879402B2 (ja) | 歌唱合成方法と装置及び記録媒体 | |
JP6587007B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP3333022B2 (ja) | 歌声合成装置 | |
JP5293460B2 (ja) | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 | |
JP5471858B2 (ja) | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 | |
CN110634464A (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
JPH0944171A (ja) | カラオケ装置 | |
US7718885B2 (en) | Expressive music synthesizer with control sequence look ahead capability | |
JP6760457B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2023100776A (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP4631726B2 (ja) | 歌唱合成装置及び記録媒体 | |
JP4026446B2 (ja) | 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム | |
JP6044284B2 (ja) | 音声合成装置 | |
WO2020217801A1 (ja) | オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム | |
JP3132392B2 (ja) | 歌唱音合成装置および歌唱音の発生方法 | |
JP3963141B2 (ja) | 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体 | |
JP5106437B2 (ja) | カラオケ装置及びその制御方法並びにその制御プログラム | |
WO2022208627A1 (ja) | 歌唱音出力システムおよび方法 | |
EP0396141A2 (en) | System for and method of synthesizing singing in real time | |
JP3173310B2 (ja) | ハーモニー生成装置 | |
JPH04331990A (ja) | 音声電子楽器 | |
JP2005077763A (ja) | 自動伴奏生成装置及びプログラム | |
JP2001215971A (ja) | 楽音信号発生装置及び楽音信号発生方法 | |
JP2001022349A (ja) | 曲データ加工方法 | |
JP2004287463A (ja) | 波形生成方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060330 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061030 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101117 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101117 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111117 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111117 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131117 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |