JP2002202788A - 歌唱合成方法と装置及び記録媒体 - Google Patents

歌唱合成方法と装置及び記録媒体

Info

Publication number
JP2002202788A
JP2002202788A JP2000402880A JP2000402880A JP2002202788A JP 2002202788 A JP2002202788 A JP 2002202788A JP 2000402880 A JP2000402880 A JP 2000402880A JP 2000402880 A JP2000402880 A JP 2000402880A JP 2002202788 A JP2002202788 A JP 2002202788A
Authority
JP
Japan
Prior art keywords
singing
information
phoneme
length
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000402880A
Other languages
English (en)
Other versions
JP2002202788A5 (ja
JP3879402B2 (ja
Inventor
Hiroshi Kayama
啓 嘉山
Oscar Celma
セルマン オスカル
Jaume Ortola
オルトラ ジャウメ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000402880A priority Critical patent/JP3879402B2/ja
Priority to US10/034,352 priority patent/US7124084B2/en
Priority to EP06004731A priority patent/EP1675101B1/en
Priority to DE60135039T priority patent/DE60135039D1/de
Priority to EP01131011A priority patent/EP1220194A3/en
Publication of JP2002202788A publication Critical patent/JP2002202788A/ja
Publication of JP2002202788A5 publication Critical patent/JP2002202788A5/ja
Priority to US11/292,036 priority patent/US20060085197A1/en
Priority to US11/292,165 priority patent/US20060085198A1/en
Priority to US11/292,035 priority patent/US7249022B2/en
Application granted granted Critical
Publication of JP3879402B2 publication Critical patent/JP3879402B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
    • G10H2210/201Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】 リアルタイムに入力される演奏データに基づ
いて人歌唱(A)に近似した自然な歌唱合成(B)を可
能にする。 【解決手段】 演奏データとしては、歌詞を構成する
「sa」等の音韻毎に音韻情報、歌唱時刻情報、歌唱長
情報、歌唱音高情報、アタック等の状態遷移制御情報、
ビブラート等の効果制御情報等を入力する。歌唱時刻情
報は、T1等の実歌唱開始時刻を表わすもので、各演奏
データは、実歌唱開始時刻より早く入力する。演奏デー
タ毎に音韻情報に基づいてデータベースから音韻遷移時
間長を獲得し、この音韻遷移時間長と歌唱開始時刻情報
と歌唱長情報とに基づいて「s」等の音素毎に歌唱開始
時刻と歌唱継続時間とを決定する。「s」の歌唱開始時
刻は、T1より早くできる。歌唱合成では、音素毎に歌
唱音声を歌唱開始時刻に発生開始し、歌唱継続時間中発
生する。遷移状態特性や効果特性を入力に係る制御情報
に応じて制御してもよい。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、リアルタイムに
入力される演奏データに基づいて歌唱音声を合成する歌
唱合成方法と装置及び記録媒体に関するものである。
【0002】
【従来の技術】従来、この種の歌唱合成装置としては、
演奏データのノートオン信号に伴って発生される先頭音
素の立上り時間を、この先頭音素がノートオン期間中に
他の音素に引き続いて発音される場合の立上り時間より
短くする(速く立上らせる)ようにしたものが知られて
いる(例えば、特開平10−49169号公報参照)。
【0003】図40(A)は、人歌唱における子音歌唱
開始時刻及び母音歌唱開始時刻を示すもので、この例で
は、音高「C(ド)」、「D(レ)」、「E
(ミ)」にそれぞれ対応して歌詞「さ(sa)」、
「い(i)」、「た(ta)」と歌った場合を示してい
る。図40(A)によれば、「sa」、「ta」のよう
に子音と母音との組合せからなる音韻は、子音が母音に
先行して発音開始されているのがわかる。
【0004】一方、図40(B)は、上記した従来の歌
唱合成における歌唱開始時刻を示すもので、歌唱内容
は、図40(A)の場合と同様である。実歌唱開始時刻
T1〜T3は、いずれもノートオン信号による歌唱音声
の発生開始時刻に相当する。上記した従来の歌唱合成で
は、例えば「sa」の歌唱音声を発生する場合、子音
「s」の歌唱開始時刻を時刻T1に合わせ、時刻T1か
ら子音「s」の振幅レベルを急速に上昇させることによ
り楽器音(伴奏音)に対して歌唱音声が遅れた感じとな
る事態を回避するようにしている。
【0005】
【発明が解決しようとする課題】上記した従来の歌唱合
成技術によると、次のよな問題点がある。
【0006】(1)図40(A)の人歌唱において母音
歌唱開始時刻は、図40(B)の歌唱合成における実歌
唱開始時刻(ノートオン時刻)にほぼ対応する。図40
(B)の場合は、子音歌唱開始時刻をノートオン時刻に
一致させると共に子音(先頭音素)の立上り時間を短縮
しているので、図40(A)の場合に比べて歌唱開始時
刻や歌唱継続時間が不自然となる。
【0007】(2)ノートオン時刻の直前に音韻情報を
送信し、ノートオン時刻に音韻情報対応の歌唱音声の発
生を開始するようにしているので、ノートオン時刻より
早く歌唱音声を発生開始することができない。 (3)歌唱音声についてアタック(立上り)部、リリー
ス(立下り)部等の状態遷移を制御するようになってい
ないので、より自然な歌唱合成を行なうことができな
い。
【0008】(4)歌唱音声についてビブラート等の効
果を制御するようになっていないので、より自然な歌唱
合成を行なうことができない。
【0009】この発明の目的は、上記のような問題点を
解決した新規な歌唱合成方法と装置を提供することにあ
る。
【0010】
【課題を解決するための手段】この発明に係る第1の歌
唱合成方法は、順次の第1及び第2の音素を含む歌唱音
韻について音韻を表わす音韻情報と歌唱開始時刻を表わ
す時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開
始時刻より早く入力するステップと、入力された音韻情
報に基づいて前記第1の音素の発生時間長と前記第2の
音素の発生時間長とからなる音韻遷移時間長を生成する
ステップと、生成された音韻遷移時間長と入力された時
刻情報及び歌唱長情報とに基づいて前記第1及び第2の
音素の歌唱開始時刻と歌唱継続時間とを決定するステッ
プと、決定された前記第1及び第2の音素の歌唱開始時
刻にそれぞれ前記第1及び第2の音素からなる第1及び
第2の歌唱音声を発生開始し、該第1及び第2の歌唱音
声を決定された前記第1及び第2の音素の歌唱継続時間
中それぞれ発生するステップとを含むものである。
【0011】第1の歌唱合成方法によれば、時刻情報で
表わされる歌唱開始時刻より早く音韻情報、時刻情報及
び歌唱長情報を入力すると共に、音韻情報に基づいて音
韻遷移時間長を生成し、音韻遷移時間長と時刻情報と歌
唱長情報とに基づいて第1及び第2の音素の歌唱開始時
刻と歌唱継続時間とを決定するようにしたので、第1及
び第2の音素については、時刻情報で表わされる歌唱開
始時刻の前後で所望の歌唱開始時刻を決定したり、歌唱
長情報で表わされる歌唱長とは異なる歌唱継続時間を決
定したりすることができ、第1及び第2の歌唱音声とし
て自然な歌唱音声を発生することができる。例えば、第
1の音素の歌唱開始時刻として、時刻情報で表わされる
歌唱開始時刻より早い時刻を決定すると、子音の立上り
を母音の立上りより十分に早くして人歌唱に近似した歌
唱合成を行なうことができる。
【0012】この発明に係る第2の歌唱合成方法は、歌
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを入力す
るステップと、入力された音韻情報に基づいて前記歌唱
音韻の立上り部、ノート遷移部又は立下り部のいずれか
に対応した状態遷移時間長を生成するステップと、入力
された音韻情報、時刻情報及び歌唱長情報に基づいて前
記音韻からなる歌唱音声を発生するステップであって、
生成された状態遷移時間長に対応する期間中前記歌唱音
声に対して音高及び振幅のうち少なくとも一方の変化を
付加するものとを含むものである。
【0013】第2の歌唱合成方法によれば、入力された
音韻情報に基づいて状態遷移時間長を生成すると共に、
この状態遷移時間長に対応する期間中歌唱音声に対して
音高及び振幅のうち少なくとも一方の変化を付加するよ
うにしたので、アタック感、ノート遷移感又はリリース
感のある自然な歌唱合成が可能となる。
【0014】この発明に係る第1の歌唱合成装置は、順
次の第1及び第2の音素を含む歌唱音韻について音韻を
表わす音韻情報と歌唱開始時刻を表わす時刻情報と歌唱
長を表わす歌唱長情報とを前記歌唱開始時刻より早く入
力する入力手段と、前記第1の音素の発生時間長と前記
第2の音素の発生時間長とからなる音韻遷移時間長を記
憶する記憶手段と、前記入力手段で入力された音韻情報
に基づいて前記記憶手段から音韻遷移時間長を読出す読
出手段と、この読出手段で読出された音韻遷移時間長と
前記入力手段で入力された時刻情報及び歌唱長情報とに
基づいて前記第1及び第2の音素の歌唱開始時刻と歌唱
継続時間とを算出する計算手段と、この計算手段で算出
された前記第1及び第2の音素の歌唱開始時刻にそれぞ
れ前記第1及び第2の音素からなる第1及び第2の歌唱
音声を発生開始し、該第1及び第2の歌唱音声を前記計
算手段で算出された前記第1及び第2の音素の歌唱継続
時間中それぞれ発生する歌唱音声合成手段とを備えたも
のである。
【0015】第1の歌唱合成装置は、この発明の第1の
歌唱合成方法を実施するものであり、第1の歌唱合成方
法に関して前述したと同様の作用効果が得られる。ま
た、音韻遷移時間長を記憶手段から読出して利用するよ
うにしたので、歌唱音韻数が増大しても、構成乃至処理
が簡単である。
【0016】第1の歌唱合成装置において、前記入力手
段では、前記第1の音素の発生時間長を修正するための
修正情報を入力し、前記計算手段では、前記読出手段で
読出された音韻遷移時間長中の第1の音素の発生時間長
を前記入力手段で入力された修正情報に応じて修正した
後該音韻遷移時間長に基づいて前記第1及び第2の音素
の歌唱開始時刻と歌唱継続時間とを算出するようにして
もよい。このようにすると、第1及び第2の音素の歌唱
開始時刻及び歌唱継続時間に入力側の意志を反映させる
ことができ、一層自然な歌唱合成が可能となる。
【0017】この発明に係る第2の歌唱合成装置は、歌
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを入力す
る入力手段と、前記歌唱音韻の立上り部、ノート遷移部
又は立下り部のいずれかに対応した状態遷移時間長を記
憶した記憶手段と、前記入力手段で入力された音韻情報
に基づいて前記記憶手段から状態遷移時間長を読出す読
出手段と、前記入力手段で入力された音韻情報、時刻情
報及び歌唱長情報に基づいて前記音韻からなる歌唱音声
を発生する歌唱音声合成手段であって、前記読出手段で
読出された状態遷移時間長に対応する期間中前記歌唱音
声に対して音高及び振幅のうち少なくとも一方の変化を
付加するものとを備えたものである。
【0018】第2の歌唱合成装置は、この発明の第2の
歌唱合成方法を実施するものであり、第2の歌唱合成方
法に関して前述したと同様の作用効果が得られる。ま
た、状態遷移時間長を記憶手段から読出して利用するよ
うにしたので、歌唱音韻数が増大しても、構成乃至処理
が簡単である。
【0019】第2の歌唱合成装置において、前記入力手
段では、前記状態遷移時間長を修正するための修正情報
を入力し、前記読出手段で読出された状態遷移時間長を
前記入力手段で入力された修正情報に応じて修正する修
正手段を更に設け、前記歌唱音声合成手段では、前記修
正手段で修正された状態遷移時間長に対応する期間中前
記歌唱音声に対して音高及び振幅のうち少なくとも一方
の変化を付加するようにしてもよい。このようにする
と、状態遷移時間長に入力側の意志を反映させることが
でき、一層自然な歌唱合成が可能となる。
【0020】この発明に係る第3の歌唱合成装置は、歌
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報と効果の付
加を表わす効果付加情報とを入力する入力手段と、この
入力手段で入力された音韻情報、時刻情報及び歌唱長情
報に基づいて前記音韻からなる歌唱音声を発生する歌唱
音声合成手段であって、前記入力手段で入力された効果
付加情報に基づいて前記歌唱音声に対して効果を付加す
るものとを備えたものである。
【0021】第3の歌唱合成装置によれば、歌唱音声に
対して効果として例えばビブラート効果のような音高、
振幅等の微小変化を付加することができ、自然な歌唱合
成が可能となる。
【0022】第3の歌唱合成装置において、前記入力手
段で入力される効果付加情報を効果の付加期間を表わす
ものとし、入力された効果付加情報で表わされる効果の
付加期間が前記歌唱音韻に先行する歌唱音韻の効果の付
加期間に連続するときに連続する2つの付加期間に対応
する新たな効果の付加期間を設定する設定手段を更に設
け、前記歌唱音声合成手段では、前記設定手段で設定さ
れた効果の付加期間中前記歌唱音声に対して効果を付加
するようにしてもよい。このようにすると、連続する効
果の付加期間に対応する新たな効果の付加期間を設定し
て効果付加を行なうので、効果が途切れたりすることが
なく、効果の連続性が良好となる。
【0023】この発明に係る第4の歌唱合成装置は、歌
唱音韻について音韻を表わす音韻情報と歌唱開始時刻を
表わす時刻情報と歌唱長を表わす歌唱長情報とを前記歌
唱開始時刻より早く入力する入力手段と、この入力手段
で入力された時刻情報に基づいて前記歌唱開始時刻の前
後に及ぶ所定の時間範囲内でランダムに新たな歌唱開始
時刻を設定する設定手段と、前記入力手段で入力された
音韻情報及び歌唱長情報と前記設定手段で設定された歌
唱開始時刻とに基づいて前記音韻からなる歌唱音声を発
生する歌唱音声合成手段であって、前記設定手段で設定
された歌唱開始時刻に前記歌唱音声を発生開始するもの
とを備えたものである。
【0024】第4の歌唱合成装置によれば、時刻情報で
表わされる歌唱開始時刻の前後に及ぶ所定時間範囲内で
ランダムに新たな歌唱開始時刻を設定し、設定された歌
唱開始時刻に歌唱音声を発生するようにしたので、歌唱
開始タイミングに変化がある自然な歌唱合成が可能とな
る。
【0025】
【発明の実施の形態】図1を参照してこの発明の歌唱合
成の概要を説明する。図1(A)は、図40(A)と同
様に人歌唱における子音歌唱開始時刻及び母音歌唱開始
時刻を示すものであり、図1(B)は、この発明の歌唱
合成における歌唱開始時刻を示すものである。
【0026】この発明では、演奏データは、歌詞を構成
する「sa」等の音韻毎に音韻情報、歌唱開始時刻情
報、歌唱長情報等を入力する。歌唱開始時刻情報は、T
1等の実歌唱開始時刻(例えば拍頭タイミング)を表わ
す。各演奏データは、実歌唱開始時刻より早く入力し、
各演奏データ毎に音韻情報を音韻遷移時間長に変換す
る。音韻遷移時間長は、例えば第1の音素「s」及び第
2の音素「a」からなる音韻「sa」については第1の
音素の発生時間長と第2の音素の発生時間長とからなる
もので、この音韻遷移時間長と歌唱開始時刻情報と歌唱
長情報とを用いて第1及び第2の音素の歌唱開始時刻と
歌唱継続時間とを決定する。このとき、子音「s」の歌
唱開始時刻は、実歌唱開始時刻T1より前とし、母音
「a」の歌唱開始時刻は、実歌唱開始時刻T1と同一あ
るいはその前又は後とすることができる。このことは、
「i」及び「ta」についても同様である。図1(B)
の例では、「sa」について「s」の歌唱開始時刻を
(A)の人歌唱に合わせてT1より前とし、「a」の歌
唱開始時刻をT1とし、「i」の歌唱開始時刻をT2と
し、「ta」について「t」の歌唱開始時刻を(A)の
人歌唱に合わせてT3より前とし、「a」の歌唱開始時
刻をT3としている。
【0027】歌唱合成では、例えば「s」を決定に係る
歌唱開始時刻で発生開始し、決定に係る歌唱継続期間中
発生する。また、「a」を決定に係る歌唱開始時刻で発
生開始し、決定に係る歌唱継続期間中発生する。このこ
とは、「i」及び「ta」についても同様である。この
結果、図1(A)の人歌唱の場合と歌唱開始時刻や歌唱
継続時間が近似した自然性豊かな歌唱合成が可能とな
る。
【0028】図2は、この発明の一実施形態に係る歌唱
合成装置の回路構成を示すものである。この歌唱合成装
置は、小型コンピュータによって動作が制御されるもの
である。
【0029】バス10には、CPU(中央処理装置)1
2、ROM(リード・オンリィ・メモリ)14、RAM
(ランダム・アクセス・メモリ)16、検出回路20、
表示回路22、外部記憶装置24、タイマ26、音源回
路28、MIDI(MusicalInstrument Digital Inte
rface)インターフェース30等が接続されている。
【0030】CPU12は、ROM14にストアされた
プログラムに従って楽音発生、歌唱合成等に関する各種
処理を実行するもので、歌唱合成に関する処理について
は図17等を参照して後述する。
【0031】RAM16は、CPU12の各種処理に際
してワーキングエリアとして使用される種々の記憶部を
含むもので、この発明の実施に関係する記憶部として
は、受信した演奏データを書込むための受信バッファ等
が設けられている。
【0032】検出回路20は、パネルの操作子群34か
ら各種操作子の操作情報を検出するものである。
【0033】表示回路22は、表示器36の表示動作を
制御することにより各種の表示を可能にするものであ
る。
【0034】外部記憶装置24は、HD(ハードディス
ク)、FD(フロッピー(登録商標)ディスク)、CD
(コンパクトディスク)、DVD(ディジタル多目的デ
ィスク)、MO(光磁気ディスク)等のうち1又は複数
種類の記録媒体を着脱可能なものである。外部記憶装置
24に所望の記録媒体を装着した状態では、記録媒体か
らRAM16へデータを転送可能である。また、装着した
記録媒体がHDやFDのように書込み可能なものであれ
ば、RAM16のデータを記録媒体に転送可能である。
【0035】プログラム記録手段としては、ROM14
の代わりに外部記憶装置24の記録媒体を用いることが
できる。この場合、記録媒体に記録したプログラムは、
外部記憶装置24からRAM16へ転送する。そして、
RAM16に記憶したプログラムに従ってCPU12を
動作させる。このようにすると、プログラムの追加やバ
ージョンアップ等を容易に行なうことができる。
【0036】タイマ26は、テンポデータTMの指示す
るテンポに対応した周期でテンポクロック信号TCLを
発生するもので、テンポクロック信号TCLは、CPU
12に割り込み命令信号として供給される。CPU12
は、テンポクロック信号TCLに基づく割り込み処理に
より歌唱合成を行なう。テンポデータTMの指示するテ
ンポは、操作子群34中のテンポ設定操作子の操作に応
じて可変設定することができる。テンポクロック信号T
CLの発生周期は、一例として5[ms]とすることが
できる。
【0037】音源回路28は、多数の楽音発生チャンネ
ル及び多数の歌唱合成チャンネルを含むもので、歌唱合
成チャンネルは、フォルマント合成方式により歌唱音声
を合成するようになっている。後述する歌唱合成処理で
は、歌唱合成チャンネルから歌唱音声信号が発生され
る。発生に係る楽音信号及び/または歌唱音声信号は、
サウンドシステム38により音響に変換される。
【0038】MIDIインターフェース30は、この歌
唱合成装置とは別体のMIDI機器39との間でMID
I通信を行なうために設けられたもので、この発明で
は、MIDI機器39から歌唱合成用の演奏データを受
信するために用いられる。MIDI機器39からは、歌
唱合成用の演奏データと共に歌唱伴奏用の演奏データを
受信し、歌唱伴奏用の演奏データに基づいて音源回路2
8で伴奏用の楽音信号を発生し、サウンドシステム38
から伴奏音を発生させるようにしてもよい。
【0039】次に、図3を参照して実施形態に係る歌唱
合成処理を概略的に説明する。ステップ40では、演奏
データを入力する。すなわち、MIDI機器39からM
IDIインターフェース30を介して演奏データを受信
する。演奏データの詳細については、図4を参照して後
述する。
【0040】ステップ42では、受信した演奏データ毎
に該演奏データに基づいて歌唱合成DB(データベー
ス)14A内の音韻遷移DB14b及び状態遷移DB1
4cからそれぞれ音韻遷移時間長及び状態遷移時間長を
獲得し、これらの音韻遷移時間長及び状態遷移時間長と
演奏データとに基づいて歌唱合成スコアを形成する。歌
唱合成スコアは、音韻トラックと、遷移トラックと、ビ
ブラートトラックとの3トラックを有するもので、音韻
トラックは、歌唱開始時刻及び歌唱継続時間等の情報を
含み、遷移トラックは、アタック等の遷移状態の開始時
刻及び継続時間等の情報を含み、ビブラートトラック
は、ビブラート付加状態の開始時刻及び継続時間等の情
報を含む。
【0041】ステップ44では、歌唱合成エンジンによ
る歌唱合成を行なう。すなわち、ステップ40で入力し
た演奏データとステップ42で形成した歌唱合成スコア
と歌唱合成DB14A内の音韻DB14a、音韻遷移D
B14b、状態遷移DB14c及びビブラートDB14
dから獲得した音源制御情報とに基づいて歌唱合成を行
ない、歌唱順に歌唱音声信号を発生する。歌唱合成処理
では、音韻トラックの指示する単一音韻(例えば
「a」)又は遷移する音韻(例えば「s」から「a」に
遷移する「sa」)からなり且つ演奏データの指示する
音高を有する歌唱音声を音韻トラックの指示する歌唱開
始時刻に発生開始し、音韻トラックの指示する歌唱継続
時間中発生する。
【0042】このようにして発生される歌唱音声には、
遷移トラックの指示するアタック等の遷移状態の開始時
刻から音高、振幅等の微小変化を付加し、この付加状態
を遷移トラックの指示するアタック等の遷移状態の継続
時間中継続させることができる。また、歌唱音声には、
ビブラートトラックの指示する開始時刻からビブラート
を付加し、この付加状態をビブラートトラックの指示す
る継続時間中継続させることができる。
【0043】ステップ46,48は、音源回路28内の
処理を示したもので、ステップ46では、歌唱音声信号
をD/A(ディジタル/アナログ)変換し、ステップ4
8では、D/A変換された歌唱音声信号をサウンドシス
テム38に出力し、歌唱音として発音させる。
【0044】図4は、演奏データ内の情報を示すもので
ある。演奏データは、1音節を歌唱するために必要な演
奏情報を含んでおり、演奏情報は、ノート情報と、音韻
トラック情報と、遷移トラック情報と、ビブラートトラ
ック情報とを含んでいる。
【0045】ノート情報には、実歌唱開始時刻を表わす
ノートオン(Note On)情報、実歌唱長を表わすデュレ
ーション(Duration)情報、歌唱音高を表わすピッチ
(Pitch)情報等が含まれる。音韻トラック情報には、
歌唱音韻を表わす音韻(PhUと表記する)情報、歌唱子
音伸縮率を表わす子音修正(Consonant Modificatio
n)情報等が含まれる。この実施形態では、日本語の歌
唱合成を行なうことを前提としているので、出現する音
素は、子音と母音であり、音韻状態(PhU State)と
しては、子音と母音との組合せ、母音のみ又は有声子音
(鼻音、半母音)のみのいずれかとなる。ここで、有声
子音のみの場合は、有声子音の歌唱開始タイミングが母
音のみの場合と類似しているので、母音のみの場合とし
て扱うこととする。
【0046】遷移トラック情報には、歌唱アタックタイ
プを表わすアタックタイプ(AttackType)情報、歌唱ア
タック伸縮率を表わすアタックレート(Attack Rate)
情報、歌唱リリースタイプを表わすリリースタイプ(Re
lease Type)情報、歌唱リリース伸縮率を表わすリリ
ースレート(Release Rate)情報、歌唱ノート遷移タ
イプを表わすノート遷移タイプ(Note Transition Ty
pe)情報等が含まれる。アタックタイプ情報により指定
されるアタックタイプとしては、「ノーマル(Norma
l)」、「セクシー(Sexy)」、「シャープ(Shar
p)」、「ソフト(Soft)」等がある。リリースタイプ
情報及びノート遷移タイプ情報も、アタックタイプと同
様の複数のタイプのうちのいずれかを指定可能である。
ノート遷移(Note Transition)は、本演奏データ(演
奏イベント)から次の演奏データ(演奏イベント)への
遷移を意味する。歌唱アタック伸縮率、歌唱リリース伸
縮率及びノート遷移伸縮率は、状態遷移時間長を伸長し
たい場合は1より大きな値とし、状態遷移時間長を短縮
したい場合は1より小さな値とする。歌唱アタック伸縮
率、歌唱リリース伸縮率及びノート遷移伸縮率は、0と
することもでき、この場合はそれぞれアタック、リリー
ス及びノート遷移に伴う音高、振幅等の微小変化の付加
は行なわれない。
【0047】ビブラートトラック情報には,本演奏デー
タ中のビブラートイベント数を表わすビブラートナンバ
(Vibrato Number)情報、1番目のビブラートの遅延
時間を表わすビブラート遅延1(Vibrato Delay 1)
の情報、1番目のビブラートの継続時間を表わすビブラ
ートデュレーション1(Vibrato Duration 1)の情
報、1番目のビブラートのタイプを表わすビブラートタ
イプ1(Vibrato Type 1)の情報…K(2以上の整
数)番目のビブラートの遅延時間を表わすビブラート遅
延K(Vibrato Delay K)の情報、K番目のビブラー
トの継続時間を表わすビブラートデュレーションK(Vi
brato Duration K)の情報、K番目のビブラートの
タイプを表わすビブラートタイプK(Vibrato Type
K)の情報等が含まれる。ビブラートイベント数が0の
場合は、ビブラート遅延1の情報以下の情報は含まれな
い。ビブラートタイプ1〜Kの情報によって指定される
ビブラートタイプとしては、「ノーマル(Normal)」、
「セクシー(Sexy)」、「エンカ(Enka)」等がある。
【0048】図3に示した歌唱合成DB14Aは、RO
M14内に含まれるものであるが、外部記憶装置24に
設けたものをRAM16に転送して利用するようにして
もよい。歌唱合成DB14A内には、音韻DB14a、
音韻遷移DB14b、状態遷移DB14c、ビブラート
DB14d…その他のDB14nが設けられている。
【0049】次に、図5〜8を参照して音韻DB14
a、音韻遷移DB14b、状態遷移DB14c及びビブ
ラートDB14d内の記憶情報について説明する。音韻
DB14a及びビブラートDB14dには、それぞれ図
5及び図8に示すように音源制御情報が記憶される。音
韻遷移DB14bには、図6(B)に示すように音韻遷
移時間長及び音源制御情報が記憶されると共に、状態遷
移DB14cには、図7に示したように状態遷移時間長
及び音源制御情報が記憶される。これらの記憶情報を作
成する際には、歌唱者による歌唱音声を分析して音源制
御情報、音韻遷移時間長及び状態遷移時間長を決定し
た。また、「(Normal)」、「(Sexy)」、「Soft」、
「Enka」等のタイプについては、歌唱者に同意の教示
(例えば「セクシーなアタックを付けて歌って下さ
い」、「演歌調のビブラートを付けて歌って下さい」
等)を与えて歌唱してもらい、その歌唱音声を分析して
音源制御情報、音韻遷移時間長及び状態遷移時間長を決
定した。音源制御情報は、音源回路28において所望の
歌唱音声を合成するために必要なフォルマント周波数及
びフォルマントレベルの制御パラメータからなるもので
ある。
【0050】図5に示す音韻DB14aでは、「a」、
「i」、「M」、「Sil」等の音韻毎に且つ1音韻内で
「P1」、「P2」…等の音高毎に音源制御情報が記憶
される。図5〜8及び以下の説明において、「M」は、
音韻「u」を表わし、「Sil」は、無音(Silence)を表
わす。歌唱合成の際には、合成すべき歌唱音声の音韻と
音高とに適合した音源制御情報が音韻DB14aから選
択される。
【0051】図6(A)は、音韻遷移DB14bに記憶
される音韻遷移時間長(a)〜(f)を示すものであ
る。図6(A)及び以下の説明において、「V−Sil」
等の記号の意味は次の通りである。
【0052】(a)「V−Sil」は、母音(Vowel)から
無音(Silence)への音韻遷移を表わし、図6(B)で
は、例えば先行音韻「a」と後続音韻「Sil」との組合
せに対応する。
【0053】(b)「Sil−C」は、無音(Silence)か
ら子音(Consonant)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「Sil」と後続音韻「s」
(図示せず)との組合せに対応する。
【0054】(c)「C−V」は、子音(Consonant)
から母音(Vowel)への音韻遷移を表わし、図6(B)
では、例えば先行音韻「s」(図示せず)と後続音韻
「a」(図示せず)との組合せに対応する。
【0055】(d)「Sil−V」は、無音(Silence)か
ら母音(Vowel)への音韻遷移を表わし、、図6(B)
では、例えば先行音韻「Sil」と後続音韻「a」との組
合せに対応する。
【0056】(e)「pV−C」は、先行母音(Vowe
l)から子音(Consonant)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「a」と後続音韻「s」
(図示せず)との組合せに対応する。
【0057】(f)「pV−V」は、先行母音(Vowe
l)から母音(Vowel)への音韻遷移を表わし、図6
(B)では、例えば先行音韻「a」と後続音韻「i」と
の組合せに対応する。
【0058】図6(B)に示す音韻遷移DB14bで
は、「a」_「i」等の音韻組合せ(遷移する音韻)毎
に且つ1つの音韻組合せ内で「P1」、「P2」…等の
音高毎に音韻遷移時間長及び音源制御情報が記憶され
る。図6(B)において、「Aspiration」は、呼気音を
示す。音韻遷移時間長は、先行音韻の時間長と後続音韻
の時間長との組合せからなるものであり、両時間長の境
界を時間区切り情報として保持している。歌唱合成スコ
アを形成する際には、音韻トラックを形成すべき音韻組
合せと音高とに適合した音韻遷移時間長が音韻遷移DB
14bから選択される。また、歌唱合成の際には、合成
すべき歌唱音声の音韻組合わせと音高とに適合した音源
制御情報が音韻遷移DB14bから選択される。
【0059】図7に示す状態遷移DB14cでは、アタ
ック(Attack)、ノート遷移(NoteTransition、「Nt
N」と表記する)及びリリース(Release)の各遷移状態
毎に且つ1つの遷移状態内で「Normal」、「Sexy」、
「Sharp」及び「Soft」の各状態タイプ毎に状態遷移時
間長及び音源制御情報が記憶され、しかも1つの状態タ
イプ内で「a」、「i」等の音韻毎に且つ1音韻内で
「P1」、「P2」等の音高毎に状態遷移時間長及び音
源制御情報が記憶される。状態遷移時間長は、アタッ
ク、ノート遷移又はリリースの遷移状態の継続時間に相
当するものである。歌唱合成スコアを形成する際には、
遷移トラックを形成すべき遷移状態と状態タイプと音韻
と音高とに適合した状態遷移時間長が状態遷移DB14
cから選択される。また、歌唱合成の際には、合成すべ
き歌唱音声の遷移状態と状態タイプと音韻と音高とに適
合した音源制御情報が状態遷移DB14cから選択され
る。
【0060】図8に示すビブラートDB14dでは、
「Normal」、「Sexy」…「Enka」等の各ビブラートタイ
プ毎に音源制御情報が記憶されると共に、1つのビブラ
ートタイプ内で「a」、「i」等の音韻毎に且つ1音韻
内で「P1」、「P2」等の音高毎に音源制御情報が記
憶される。歌唱合成の際には、合成すべき歌唱音声のビ
ブラートタイプと音韻と音高とに適合した音源制御情報
がビブラートDB14dから選択される。
【0061】図9は、演奏データに基づく歌唱合成を示
すものである。演奏データS、S 、Sが図1
(B)で示したと同様に「さ(sa):C:T1
…」、「い(i):D:T2…」、「た(ta):E
:T3…」をそれぞれ指示するものとすると、演奏デ
ータS、S、Sは、実歌唱開始時刻T1、T2、
T3よりそれぞれ早い時刻t、t、tに送信さ
れ、MIDIインターフェース30を介して受信され
る。演奏データの送受信処理は、ステップ40の演奏デ
ータ入力処理に相当する。演奏データが受信されると、
ステップ42で演奏データ毎に歌唱合成スコアが形成さ
れる。そして、ステップ44では、形成された歌唱合成
スコアに従って歌声音声SS、SS、SSが合成
される。歌唱合成では、歌唱音声SSの子音「s」を
T1より早い時刻T11に発生開始させると共に、SS
の母音「a」をT1に発生開始させることができる。
また、歌唱音声SSの母音「i」をT2に発生開始さ
せることができる。さらに、歌唱音声SSの子音
「t」をT3より早く時刻T31に発生開始させると共
にSSの母音「a」をT3に発生開始させることがで
きる。所望により、「さ」の母音「a」又は「い」の母
音「i」をT1又はT2よりそれぞれ早く発生開始させ
ることも可能である。
【0062】図10は、ステップ42における参照スコ
ア及び歌唱合成スコアの形成状況を示すものである。こ
の実施形態では、歌唱合成スコア形成処理の前処理とし
て、参照スコア形成処理を行なう。すなわち、時刻
、t、tでそれぞれ送信された演奏データは、
順次に受信されてRAM16内の受信バッファに書込ま
れる。RAM16内の参照スコアと称する記憶部には、
受信バッファから演奏データの指示する実歌唱開始時刻
順に演奏データが転送され、順次に書込まれる。例え
ば、演奏データS、S、Sの順に書込まれる。そ
して、参照スコアの演奏データに基づいて実歌唱開始時
刻順に歌唱合成スコアが形成される。例えば、演奏デー
タSに基づいて歌唱合成スコアSCが形成され、演
奏データSに基づいて歌唱合成スコアSCが形成さ
れる。この後、図9で述べたように歌唱合成スコアSC
、SC…に従って歌唱合成が行なわれる。
【0063】上記したのは、演奏データの送受信が実歌
唱開始時刻順に行なわれた場合の参照スコア及び歌唱合
成スコアの形成処理であるが、演奏データの送受信が実
歌唱開始時刻順に行なわれなかった場合の参照スコア及
び歌唱合成スコアの形成処理は、図11、12に示すよ
うになる。すなわち、演奏データS、S、Sが時
刻t、t、tにそれぞれ送信され、順次に受信さ
れたものとすると、参照スコアには、図11に示すよう
に演奏データSが書込まれた後、演奏データS、S
が順次に書込まれ、演奏データS、Sにそれぞれ
基づいて歌唱合成スコアSC、SC3aが形成され
る。参照スコアにおける2回目以降の演奏データの書込
みについて、図10,11に示したように単に追加的に
書込むのを「追加」と称し、図12に示したように演奏
データ間に挿入するように書込むのを「挿入」と称す
る。この後、時刻tに演奏データSが送信され、受
信されたものとすると、図12に示すように参照スコア
において演奏データS及びS の間に演奏データS
が挿入される。このとき、演奏データの挿入が起きた実
歌唱開始時刻より後の歌唱合成スコアが破棄され、演奏
データの挿入が起きた実歌唱開始時刻以降の演奏データ
に基づいて歌唱合成スコアが形成される。例えば、歌唱
合成スコアSC3aが破棄され、演奏データS、S
にそれぞれ基づいて歌唱合成スコアSC、SC3b
形成される。
【0064】図13は、ステップ42における演奏デー
タに基づく歌唱合成スコアの形成例及びステップ44に
おける歌唱音声の合成例を示すものである。歌唱合成ス
コアSCは、RAM16内に形成されるもので、音韻ト
ラックTと、遷移トラックTと、ビブラートトラッ
クTとからなっている。歌唱合成スコアSCについて
は、演奏データを受信するたびにデータの更新や追加が
行なわれる。
【0065】一例として、演奏データS、S、S
が図1(B)で示したと同様に「さ(sa):C:T
1…」、「い(i):D:T2…」、「た(ta):
:T3…」を示すものとすると、音韻トラックT
には、図13,14に示すような情報が記憶される。す
なわち、歌唱順に無音(Sil)、無音から子音「s」へ
の遷移(Sil_s)、子音「s」から母音「a」への遷移
(s_a)、母音(a)…等の情報が配置される。Silの
情報は、開始時刻(Bigin Time=T11)、継続時間
(Duration=D11)及び音韻(PhU=Sil)を表わす情
報からなる。Sil_sの情報は、開始時刻(Bigin Time
=T12)、継続時間(Duration=D12)先行音韻(P
hU1=Sil)及び後続音韻(PhU2=s)を表わす情報か
らなる。s_aの情報は、開始時刻(Bigin Time=T1
3)、継続時間(Duration=D13)、先行音韻(PhU
1=s)及び後続音韻(PhU2=a)を表わす情報から
なる。aの情報は、開始時刻(Bigin Time=T1
4)、継続時間(Duration=D14)及び音韻(PhU=
a)を表わす情報からなる。
【0066】Sil_s,s_a等の音韻遷移の継続時間を
表わす情報は、先行音韻の時間長と後続音韻の時間長と
の組合せからなり、両時間長の境界を時間区切り情報と
して保持している。従って、この時間区切り情報を利用
することにより音源回路28に対して先行音韻の継続時
間と後続音韻の開始時刻及び継続時間とを指示可能であ
る。例えば、Sil_sの継続時間情報に基づいて無音の継
続時間と子音「s」の歌唱開始時刻T11及び歌唱継続
時間とを指示可能であり、s_a継続時間に基づいて子
音「s」の継続時間と母音「a」の歌唱開始時刻T1及
び歌唱継続時間とを指示可能である。
【0067】遷移トラックTには,図13,15に示
すような情報が記憶される。すなわち、遷移状態の進行
順に遷移状態なし(NONEと表記する)、アタック遷移状
態(Attack)、NONE、ノート遷移状態(NtN)、NONE、
リリース遷移状態(Release)、NONE…等の状態情報が
配置される。遷移トラックTの状態情報は、演奏デー
タ及び音韻トラックTの情報に基づいて形成されるも
ので、Attackの状態情報は、音韻トラックTの「s」
から「a」への音韻遷移の情報に対応し、NtNの状態情
報は、音韻トラックTの「a」から「i」への音韻遷
移の情報に対応し、Releaseの状態情報は、音韻トラッ
クTの「a」から「Sil」への音韻遷移の情報に対応
する。各状態情報は、対応する音韻遷移の情報に基づい
て合成される歌唱音声に対して音高、振幅等の微小変化
を付加するために用いられる。なお、図13の例では、
音韻トラックTの「t」から「a」への音韻遷移に対
応するNtNの状態情報を配置しないようにした。
【0068】図15に示すように、1番目のNONEの状態
情報は、開始時刻(Bigin Time=T21)、継続時間
(Duration=D21)及び遷移インデックス(Index=N
ONE)を表わす情報からなる。Attackの状態情報は、開
始時刻(Bigin Time=T22)、継続時間(Duration
=D22)、遷移インデックス(Index=Attack)及び
遷移インデックスのタイプ(例えば「Normal」、Type=
Type22)を表わす情報からなる。2番目のNONEの状態
情報は、開始時刻及び継続時間がそれぞれT23及びD
23となる点を除き1番目のNONEの状態情報と同様であ
る。NtNの状態情報は、開始時刻(Bigin Time=T2
4)、継続時間(Duration=D24)、遷移インデック
ス(Index=NtN)及び遷移インデックスのタイプ(例え
ば「Normal」、Type=Type24)を表わす情報からな
る。3番目のNONEの状態情報は、開始時刻及び継続時時
間がそれぞれT25及びD25となる点を除き1番目の
NONEの状態情報と同様である。Releaseの状態情報は、
開始時刻(Bigin Time=T26)、継続時間(Duratio
n=D26)、遷移インデックス(Index=Release)及
び遷移インデックスのタイプ(例えば「Normal」、Type
=Type26)を表わす情報からなる。
【0069】ビブラートトラックTには、図13,1
6に示すような情報が記憶される。すなわち、ビブラー
トイベントの進行順にビブラートオフ(Vibrato OF
F)、ビブラートオン(Vibrato ON)、ビブラートオフ
(Vibrato OFF)…等の情報が配置される。1番目のビ
ブラートオフの情報は、開始時刻(Bigin Time=T3
1)、継続時間(Duration=D31)及び遷移インデッ
クス(Index=OFF)を表わす情報からなる。ビブラート
オンの情報は、開始時刻(Bigin Time=T32)、継
続時間(Duration=D32)、遷移インデックス(Inde
x=ON)及びビブラートのタイプ(例えば「Normal」、T
ype=Type32)を表わす情報からなる。2番目のビブ
ラートオフの情報は、開始時刻及び継続時間がそれぞれ
T33及びD33となる点を除き1番目のビブラートオ
フ情報と同様である。
【0070】ビブラートオンの情報は、音韻トラックT
における「た」の母音「a」の情報に対応するもの
で、「a」の情報に基づいて合成される歌唱音声に音
高、振幅等のビブラート的変化を付加するために用いら
れる。ビブラートオンの情報において、開始時刻を歌唱
音声「a」の発生開始時刻T3から遅延時間DLだけ遅
く設定することにより遅延ビブラートを実現することが
できる。なお、図14〜16に示したT11〜14,T
21〜T26,T31〜T33等の開始時刻やD11〜
D14,D21〜D26,D31〜D33等の継続時間
は、テンポクロック信号TCLのクロック数で適宜設定
することができる。
【0071】上記したような歌唱合成スコアSCと演奏
データS〜Sを用いると、ステップ44の歌唱合成
処理において、図13に示すような歌唱音声の合成が可
能となる。音韻トラックTのSilの情報に基づいて歌
唱開始前の無音時間を実現した後、TのSil_sの情報
と演奏データS中のCの音高情報とに対応する音源
制御情報を図6(B)の音韻遷移DB14bから読出し
て音源回路28を制御することにより時刻T11で子音
「s」の発生を開始させる。このときの制御期間は、T
のSil_sの情報の指示する継続時間に対応する。次
に、Tのs_aの情報とS中のCの音高情報とに
対応する音源制御情報をDB14bから読出して音源回
路28を制御することにより時刻T1で母音「a」の発
生を開始させる。このときの制御期間は、Tのs_a
の情報の指示する継続時間に対応する。この結果、歌唱
音声SSとして「さ(sa)」が発生される。
【0072】この後、Tの情報とSのCの音高情
報とに対応する音源制御情報を図5の音韻DB14aか
ら読出して音源回路28を制御することにより母音
「a」の発生を継続する。このときの制御期間は、T
のaの情報の指示する継続時間に対応する。次に、T
のa_iの情報とS中のDの音高情報とに対応する
音源制御情報をDB14bから読出して音源回路28を
制御することにより時刻T2で母音「a」の発生を終了
させると共に母音「i」の発生を開始させる。このとき
の制御期間は、Tのa_iの情報の指示する継続時間
に対応する。
【0073】この後、上記したと同様にしてTのi及
びDに対応する音源制御情報とT のi_t及びD
に対応する音源制御情報とを順次に読出して音源回路2
8を制御することにより母音「i」の発音を時刻T31
まで継続し、時刻T31から子音「t」の発生を開始さ
せる。そして、Tのt_a及びEに対応する音源制
御情報に応じて音源回路28を制御することにより時刻
T3から母音「a」の発生を開始させた後、Tのa及
びEに対応する音源制御情報と、Tのa_Sil及びE
に対応する音源制御情報とを順次に読出して音源回路
28を制御することにより母音「a」の発生を時刻T4
まで継続し、時刻T4から無音状態とする。この結果、
歌唱音声SS,SSとして、「い(i)」、「た
(ta)」が順次に発生されることになる。
【0074】上記のような歌唱音声の発生に伴って演奏
データS〜S中の情報と遷移トラックTの情報と
に基づいて歌唱音声制御が行なわれる。すなわち、時刻
T1の前後には、TのAttackの状態情報とTのs_
aの情報とS中のCの音高情報とに対応する音源制
御情報を図7の状態遷移DB14cから読出して音源回
路28を制御することにより歌唱音声「s_a」に対し
て音高、振幅等の微小変化を付加する。このときの制御
期間は、Attackの状態情報の指示する継続時間に対応す
る。また、時刻T2の前後にはTのNtNの状態情報と
のa_iの情報と、S中のDの音高情報とに対
応する音源制御情報をDB14cから読出して音源回路
28を制御することにより歌唱音声「a_i」に対して
音高、振幅等の微小変化を付加する。このときの制御期
間は、NtNの状態情報の指示する継続時間に対応する。
さらに、時刻T4の直前には、TのReleaseの状態情
報とTのaの情報とS中のEの音高情報とに対応
する音源制御情報をDB14cから読出して音源回路2
8を制御することにより歌唱音声「a」に対して音高、
振幅等の微小変化を付加する。このときの制御期間は、
Releaseの状態情報の指示する継続時間に対応する。上
記のような歌唱音声制御によれば、アタック感、ノート
遷移感又はリリース感のある自然な歌唱合成が可能とな
る。
【0075】また、上記のような歌唱音声の発生に伴っ
て演奏データS〜S中の情報及びビブラートトラッ
クTの情報とに基づいて歌唱音声制御が行われる。す
なわち、時刻T3から遅延時間DLだけ遅れた時刻にな
ると、Tのビブラートオンの情報とTのaの情報と
中のEの音高情報とに対応した音源制御情報を図
8のビブラートDB14dから読出して音源回路28を
制御することにより歌唱音声「a」に対して音高、振幅
等のビブラート的変化を付加し、このような付加を時刻
T4まで続ける。このときの制御期間は、ビブラートオ
ンの情報の指示する継続期間に対応する。また、ビブラ
ートの深さや速さは、S中のビブラートタイプの情報
に応じて決定される。上記のような歌唱音声制御によれ
ば、所望の歌唱個所にビブラートを付加して自然な歌唱
合成を行なうことができる。
【0076】次に、図17を参照して演奏データ受信・
歌唱合成スコア形成処理を説明する。ステップ50で
は、初期化処理を行ない、例えばRAM16内の受信回
数カウンタnに0をセットする。
【0077】ステップ52では、カウンタnの値nを1
増加(n+1)する。そして、ステップ54で変数mを
カウンタnの値nとし、m=n番目の演奏データを受信
してRAM16内の受信バッファに書込む。
【0078】ステップ56では、m=n番目の演奏デー
タがデータエンドか判定する。ステップ54でm=1番
目の演奏データを受信したときは、ステップ56の判定
結果が否定的(N)となり、ステップ58に移る。ステ
ップ58では、m=n番目の演奏データを受信バッファ
から読出してRAM16内の参照スコアに書込む。参照
スコアにm=1番目の演奏データを書込んだ後は、図1
0〜12で前述したように参照スコアに演奏データを
「追加」又は「挿入」の形で書込むことになる。
【0079】次に、ステップ60では、n>1か判定す
る。m=1番目の演奏データを受信したときは、ステッ
プ60の判定結果が否定的(N)となり、ステップ52
に戻る。ステップ52では、n=2とし、ステップ54
では、m=2番目の演奏データを受信し、受信バッファ
に書込む。そして、ステップ56を経てステップ58に
来ると、m=2番目の演奏データを参照スコアに追加す
る。
【0080】次に、ステップ60でn>1か判定する
と、n=2であるので、判定結果が肯定的(Y)とな
り、ステップ61の歌唱合成スコア形成処理を行なう。
ステップ61の処理については、図18を参照して後述
するが、概略的に説明すると、次のようになる。すなわ
ち、ステップ62では、m=n−1番目の演奏データを
参照スコアに挿入したか判定する。例えば、m=1番目
の演奏データについては、挿入ではないので、ステップ
62の判定結果が否定的(N)となり、ステップ64に
移る。ステップ64では、m=n−1番目の演奏データ
について歌唱合成スコアを形成する。例えば、ステップ
54でm=2番目の演奏データを受信したときは、ステ
ップ64でm=1番目の演奏データについて歌唱合成ス
コアが形成される。
【0081】ステップ64の処理が終わると、ステップ
52に戻り、上記したと同様にして演奏データの受信及
び参照スコアへの演奏データの書込みを行なう。例え
ば、ステップ64でm=1番目の演奏データについて歌
唱合成スコアを形成した後は、ステップ54でm=3番
目の演奏データを受信し、ステップ58でm=3番目の
演奏データを参照スコアに追加又は挿入する。
【0082】ステップ62の判定結果が肯定的(Y)で
あったときは、参照スコアにm=n−1番目の演奏デー
タを挿入した場合であり、ステップ66に移る。ステッ
プ66ではm=n−1番目の演奏データより実歌唱開始
時刻が後の歌唱合成スコアを破棄し、m=n−1番目の
演奏データ以降の演奏データについて歌唱合成スコアを
形成する。例えば、図11,12に示すように演奏デー
タS,S,Sを受信した後、演奏データSを受
信すると、ステップ58では、m=4番目の演奏データ
を参照スコアに挿入する。そして、ステップ60を
経てステップ62に来ると、m=4−1=3番目の演奏
でデ―タSは、参照スコアに追加されたものであるの
で、ステップ62の判定結果が否定的(N)となり、ス
テップ64を経てステップ52に戻る。そして、ステッ
プ54でm=5番目の演奏データを受信した後、ステッ
プ56,58,60を経てステップ62に来ると、m=
4番目の演奏データSは、参照スコアに挿入されたも
のであるので、ステップ62の判定結果が肯定的(Y)
となり、ステップ66において、m=4番目の演奏デー
タSより実歌唱開始時刻が後の歌唱合成スコア(図1
2のSC3a等)を破棄し、m=4番目の演奏データS
以降の演奏データ(図12のS,S,S)につ
いて歌唱合成スコアを形成する。
【0083】ステップ66の処理が終わると、ステップ
52に戻り、上記したと同様の処理を繰返す。m=n番
目の演奏データがデータエンドになると、ステップ56
の判定結果が肯定的(Y)となり、ステップ68で終端
処理(例えばエンド情報の付加等)を行なう。ステップ
68の後は、図3のステップ44の歌唱合成処理を行な
う。
【0084】図18は、歌唱合成スコア形成処理を示す
ものである。ステップ70では、参照スコアから図4に
示したような演奏情報を含む演奏データを取得する。ス
テップ72では、取得した演奏データに含まれる演奏情
報を分析する。ステップ74では、分析された演奏情報
及び保存された管理データ(先行演奏データの管理デー
タ)に基づいて歌唱合成スコア形成のための管理データ
を作成する。ステップ74の処理については、図19を
参照して後述する。
【0085】次に,ステップ76では、取得に係る演奏
データが参照ストアに書き込まれた際に挿入されたか判
定する。この判定の結果が肯定的(Y)であれば、ステ
ップ78において、取得に係る演奏データより実歌唱開
始時刻が後の歌唱合成スコアを破棄する。
【0086】ステップ78の処理が終わったとき又はス
テップ76の判定結果が否定的(N)であったときは、
ステップ80で音韻トラック形成処理を行なう。ステッ
プ80の処理では、演奏情報と、ステップ74で作成さ
れた管理データと、保存されたスコアデータと(先行演
奏データのスコアデータ)とに基づいて音韻トラックT
を形成するが、このような処理の詳細については、図
22を参照して後述する。
【0087】ステップ82では、演奏情報と、ステップ
74で作成された管理データと、保存されたスコアデー
タと音韻トラックTとに基づいて遷移トラックT
形成する。ステップ82の処理の詳細については、図3
4を参照して後述する。
【0088】ステップ84では、演奏情報と、ステップ
74で作成された管理データと、保存されたスコアデー
タと音韻トラックTとに基づいてビブラートトラック
を形成する。ステップ84の処理の詳細について
は、図37を参照して後述する。
【0089】ステップ86では、演奏情報と、ステップ
74で作成された管理データと、音韻トラックTと、
遷移トラックTと、ビブラートトラックTとに基づ
いて次の演奏データのためのスコアデータを形成し、保
存する。スコアデータには、先行母音からのNtN遷移時
間長が含まれる。このNtN遷移時間長は、図36に示す
ように先行ノート(先行母音)にかかる時間長Tと後
続ノート(本演奏データ)にかかる時間長Tとの組合
せからなるもので、両時間長の境界を時間区切り情報と
して保持している。NtN遷移時間長を算出するには、演
奏情報中の歌唱音韻と歌唱音高と歌唱ノート遷移タイプ
(例えば「Normal」)とに対応するNtNの状態遷移時間
長を図7の状態遷移DB14cから読出し、この状態遷
移時間長に対して演奏情報中の歌唱ノート遷移伸縮率を
乗算すればよい。この乗算の結果として得られるNtN遷
移時間長は、図13,15に示したNtNの状態情報中の
継続時間情報として用いられる。
【0090】図19は、管理データ作成処理を示すもの
である。管理データとしては、図20,21に示すよう
に音韻状態(PhU State)、音素(Phoneme)、音高(P
itch)、現ノートオン(Current Note On)、現ノー
トデュレーション(CurrentNote Duration)、現ノー
トオフ(Current Note Off)、フルデュレーション
(Full Duration)、イベント状態(Event State)
等の情報がある。
【0091】ステップ90で演奏データを取得した後、
ステップ92では、演奏データ中の歌唱音韻を分析す
る。音韻状態情報は、子音と母音との組合せ、母音のみ
又は有声のみのいずれかを表わす。以下では、便宜上、
子音と母音との組合せの場合をPhU State = Conson
ant Vowelとし、母音のみ又は有声子音のみの場合をPh
U State = Vowelとする。音素情報は,音素名(子
音名及び/又は母音名)、子音のカテゴリ(鼻音、破裂
音、半母音、その他)、子音の有声又は無声等を表わ
す。
【0092】ステップ94では、演奏データ中の歌唱音
高を分析し、この歌唱音高を音高情報とする。ステップ
96では、演奏データ中の実歌唱時刻を分析し、実歌唱
開始時刻を現ノートオン情報とする。また、実歌唱長を
現ノートデュレーション情報とし、実歌唱開始時刻から
実歌唱長だけ経過した時刻を現ノートオフ情報とする。
【0093】現ノートオン情報としては、実歌唱開始時
刻を修正した時刻を採用してもよい。例えば、乱数発生
処理等により実歌唱開始時刻(実線で示す)の前後に及
ぶ所定の時間範囲(2本の破線で示す)内でΔtだけラ
ンダムに変更した時刻(実歌唱開始時刻をtとする
と、t±Δtの時刻)を現ノートオン情報としてもよ
い。
【0094】ステップ98では、先行演奏データの管理
データを用いて先行歌唱イベントとの関係で本演奏デー
タの歌唱時刻を分析する。先行演奏データの管理データ
において、先行イベントナンバ(Event Number)情報
は、先行演奏データの並べ替えを済ませた受信ナンバを
表わし、先行スコアデータ(Score Data)は、先行演
奏データについて歌唱合成スコアを形成した際にステッ
プ86で形成し、保存されたスコアデータであり、先行
ノートオフ(Note Off)情報は、先行実歌唱終了時刻
を表わす。イベントステート情報は、先行ノートオフ情
報及び現ノートオン情報に基づいて決定された先行歌唱
イベントと現歌唱イベントの接続状況(無音の有無)を
表わす。以下では、便宜上、図20に示すように先行歌
唱イベントと現歌唱イベントとが連続する場合(無音な
しの場合)をEvent State =Transitionとし、図21
に示すように先行歌唱イベントと現歌唱イベントとの間
に無音が入る場合をEvent State = Attackとする。
フルデュレーション情報は、先行ノートオフ情報の指示
する先行実歌唱終了時刻から現ノートオフ情報の指示す
る実歌唱終了時刻までの時間長を表わす。
【0095】次に、図22を参照して音韻トラック形成
処理を説明する。ステップ100では、演奏情報(演奏
データの内容)、管理データ及びスコアデータを取得す
る。ステップ102では、取得データに基づいて図6
(B)の音韻遷移DB14bから音韻遷移時間長を獲得
する(読出す)。ステップ102の処理については、図
23を参照して後述する。
【0096】ステップ104では、管理データに基づい
てEvent State = Attackか判定する。この判定の結
果が肯定的(Y)であれば、前に無音(Silence)が存
在することになり、ステップ106でSilence歌唱長を
算出する。ステップ106の処理については、図24を
参照して後述する。
【0097】ステップ104の判定結果が否定的(N)
であったときは、Event State =Transitionで前に母
音が存在することになり、ステップ108で先行Vowel
(母音)歌唱長を算出する。ステップ108の処理につ
いては、図28を参照して後述する。
【0098】ステップ106又は108の処理が終わっ
たときは、ステップ110でVowel歌唱長を算出する。
ステップ110の処理については、図32を参照して後
述する。
【0099】図23は、ステップ102の音韻遷移時間
長獲得処理を示すもので、ステップ112では,管理デ
ータ及びスコアデータを取得する。そして、ステップ1
14では、すべての音韻遷移時間長(後述のステップ1
16,122,124,126,130,132,13
4で獲得される音韻遷移時間長)を初期化する。
【0100】ステップ116では、管理データに基づい
てV_Sil(母音から無音へ)の音韻遷移時間長をDB1
4bから獲得する。一例として、母音が「a」であり、
その音高が「P1」であるとすると、DB14bから
は、「a_Sil 」と「P1」とに対応した音韻遷移時間
長が獲得される。ステップ116の処理は、日本語が母
音で終わることと関連している。
【0101】ステップ118では、管理データに基づい
てEvent State = Attackか判定する。この判定の結
果が肯定的(Y)であれば、ステップ120で管理デー
タに基づいてPhU State = Consonant Vowel か判
定する。この判定の結果が肯定的(Y)であれば、ステ
ップ122で管理データに基づいてDB14bからSil_
C(無音から子音へ)の音韻遷移時間長を獲得する。こ
の後、ステップ124では、管理データに基づいてDB
14bからC_V(子音から母音へ)の音韻遷移時間長
を獲得する。
【0102】ステップ120の判定結果が否定的(N)
であったときは、PhU State =Vowelであったことに
なり、ステップ126で管理データに基づいてDB14
bからSil_V(無音から母音へ)の音韻遷移時間長を獲
得する。なお、ステップ122〜126における音韻遷
移時間長の具体的な獲得法は、ステップ116で述べた
と同様である。
【0103】ステップ118の判定結果が否定的(N)
であったときは、ステップ120と同様にしてステップ
128でPhU State = Consonant Vowel か判定す
る。この判定の結果が肯定的(Y)であれば、ステップ
130で管理データ及びスコアデータに基づいてpV_
C(先行母音から子音へ)の音韻遷移時間長をDB14
bから獲得する。一例として、スコアデータにより先行
母音が「a」であり、管理データにより子音が「s」
で、その音高が「P2」であるとすると、DB14bか
らは、「a_s 」及び「P2」に対応した音韻遷移時間
長が獲得される。この後、ステップ132では、ステッ
プ116で述べたと同様にして管理データに基づいてD
B14bからC_V(子音から母音へ)の音韻遷移時間
長を獲得する。
【0104】ステップ128の判定結果が否定的(N)
であったときは、ステップ134に移る。ステップ13
4では、ステップ130で述べたと同様にして管理デー
タ及びスコアデータに基づいてDB14bからpV_V
(先行母音から母音へ)の音韻遷移時間長を獲得する。
【0105】図24は、ステップ106のSilence歌唱
長算出処理を示すもので、ステップ136では、演奏情
報、管理データ及びスコアデータを獲得する。
【0106】ステップ138では、PhU State = Co
nsonant Vowel か判定する。この判定の結果が肯定的
(Y)であれば、ステップ140でConsonant歌唱長を
算出する。この場合、図25に示すように、子音歌唱時
間は、無音から子音への音韻遷移時間長内の子音部と、
Consonant歌唱長と、子音から母音への音韻遷移時間長
内の子音部の加算によって決まる。従って、Consonant
歌唱長は、子音歌唱時間の一部となる。
【0107】図25には、演奏情報に含まれる歌唱子音
伸縮率が1より大きい場合においてConsonant歌唱長を
決定する例を示す。この場合、Sil_Cの子音長とC_Vの子
音長とを加算したものを基本単位とし、これに歌唱子音
伸縮率を乗算したものをConsonant歌唱長Cとする。そ
して、Sil_C とC_Vとの間にConsonant歌唱長Cを介在さ
せることによって子音歌唱時間を伸長する。
【0108】図26には、歌唱子音伸縮率が1より小さ
い場合においてConsonant歌唱長を決定する例を示す。
この場合、Sil_Cの子音長とC_Vの子音長とにそれぞれ歌
唱子音伸縮率を乗算して各々子音長を短縮する。この結
果、Sil_Cの子音長とC_Vの子音長とからなる子音歌唱時
間が短縮される。
【0109】次に、ステップ142では、Silence歌唱
長を算出する。図27に示すように、無音時間は、先行
母音から無音への音韻遷移時間長の無音部と、Silence
歌唱長と、無音から子音への音韻遷移時間長の無音部
と、子音歌唱時間との加算、あるいは先行母音から無音
への音韻遷移時間長の無音部と、Silence歌唱長と、無
音から母音への音韻遷移時間長の無音部との加算によっ
て決まる。従って、Silence歌唱長は、無音時間の一部
となる。ステップ142では、歌唱の順に従い、C_V内
の子音部と母音部との境界又はSil_V内の無音部と母音
部との境界が実歌唱開始時刻(Current Note On)と
なるようにSilence歌唱長を算出する。すなわち、本演
奏データの母音の歌唱開始時刻が実歌唱開始時刻と一致
するようにSilence歌唱長を算出する。
【0110】図27(A)〜(C)には、互いに異なる
音韻接続パターンを示す。(A)のパターンは、例えば
先行母音「あ」−無音−「さ(sa)」に対応し、子音
「s」を伸長するためにConsonant歌唱長Cが挿入され
ている。(B)のパターンは、例えば先行母音「あ」−
無音−「ぱ(pa)」に対応する。(C)のパターン
は、例えば先行母音「あ」−無音−「い(i)」に対応
する。
【0111】図28は、ステップ108の先行Vowel歌
唱長算出処理を示すもので、ステップ146では、演奏
情報、管理データ及びスコアデータを取得する。
【0112】ステップ148では、PhU State = Co
nsonant Vowel か判定する。この判定の結果が肯定的
(Y)であれば、ステップ150でConsonant歌唱長を
算出する。この場合、図29に示すように、子音歌唱時
間は、先行母音から子音への音韻遷移時間長内の子音部
と、Consonant歌唱長と、子音から母音への音韻遷移時
間長内の子音部の加算によって決まる。従って、Conson
ant歌唱長は、子音歌唱時間の一部となる。
【0113】図29には、演奏情報に含まれる歌唱子音
伸縮率が1より大きい場合においてConsonant歌唱長を
決定する例を示す。この場合、pV_Cの子音長とC_Vの子
音長とを加算したものを基本単位とし、これに歌唱子音
伸縮率を乗算したものとの間にConsonant歌唱長Cを介
在させることによって子音歌唱時間を伸長する。
【0114】図30には、歌唱伸縮率が1より小さい場
合においてConsonant歌唱長を決定する例を示す。この
場合、pV_Cの子音長とC_Vの子音長とにそれぞれ歌唱伸
縮率を乗算して各々の子音長を短縮する。この結果、p
V_Cの子音長とC_Vの子音長とからなる子音歌唱時間が短
縮される。
【0115】次に、ステップ152では、先行Vowel歌
唱長を算出する。図31に示すように、先行母音歌唱時
間は、X(Sil、子音又は母音)から先行母音への音韻
遷移時間長の母音部と、先行Vowel歌唱長と、先行母音
から子音又は母音への音韻遷移時間長の母音部との加算
によって決まる。従って、先行Vowel歌唱長は、先行母
音歌唱時間の一部となる。また、本演奏データを受信し
たことにより先行演奏データと本演奏データとの接続が
明確になったので、先行演奏データに基づいて形成され
たVowel歌唱長及びV_Silは破棄する。すなわち、後述す
る図32のVowel歌唱長算出処理で用いられる「次の演
奏データとの間に無音が挿入される」という仮定は破棄
される。ステップ152では、歌唱の順に従い、C_V内
の子音部と母音部との境界又はpV_V内の先行母音部と
母音部との境界が実歌唱開始時刻(Current Note O
n)となるように先行Vowel歌唱長を算出する。すなわ
ち、本演奏データの母音の歌唱開始時刻が実歌唱開始時
刻と一致するように先行Vowel歌唱長を算出する。
【0116】図31(A)〜(C)には、互いに異なる
音韻接続パターンを示す、(A)のパターンは、例えば
先行母音「あ」−「さ(sa)」に対応し、子音「s」
を伸長するためにConsonant歌唱長Cが挿入されてい
る。(B)のパターンは、例えば、先行母音「あ」−
「ぱ(pa)」に対応する。(C)のパターンは、例え
ば、先行母音「あ」−「い(i)」に対応する。
【0117】図32は、ステップ110のVowel歌唱長
算出処理を示すもので、ステップ154では、演奏情
報、管理データ及びスコアデータを取得する。
【0118】ステップ156では、Vowel歌唱長を算出
する。この場合、次の演奏データを受信しないと、母音
の接続部が明確にならないため、「次の演奏データとの
間に無音が挿入される」と仮定し、図33に示すように
母音部にV_Silを接続してVowel歌唱長を算出する。この
時点において、母音歌唱時間は、Xから母音への音韻遷
移時間長の母音部と、Vowel歌唱長と、母音から無音へ
の音韻遷移時間長の母音部との加算によって一時的に決
まる。従って、Vowel歌唱長は、母音歌唱時間の一部と
なる。ステップ156では、歌唱の順に従い、V_Sil内
の母音部と無音部との境界が実歌唱終了時刻(Current
Note Off)となるようにVowel歌唱長を決定する。
【0119】次の演奏データを受信したときは、本演奏
データとの接続状態(Event State)が明確になり、次
の演奏データのEvent State = Attackの場合には本
演奏データのVowel歌唱長が更新されず、次の演奏デー
タのEvent State = Transitionの場合には前述のス
テップ152の処理によって本演奏データのVowel歌唱
長が更新される。
【0120】図34は、遷移トラック形成処理を示すも
ので、ステップ160では、演奏情報、管理データ、ス
コアデータ及び音韻トラックのデータを取得する。
【0121】ステップ162では、Attack遷移時間長を
算出する。このためには、演奏情報及び管理データに基
づいて歌唱アタックタイプと音韻と音高とに対応したAt
tack状態の状態遷移時間長を図7の状態遷移DB14c
から獲得する。そして、獲得した状態遷移時間長に対し
て演奏情報中の歌唱アタック伸縮率を乗算したものをAt
tack遷移時間長(アタック部の継続時間)とする。
【0122】ステップ164では、Release遷移時間長
を算出する。このためには、演奏情報及び管理データに
基づいて歌唱リリースタイプと音韻と音高とに対応した
Release状態の状態遷移時間長をDB14cから獲得す
る。そして、獲得した状態遷移時間長に対して演奏情報
中の歌唱リリース伸縮率を乗算したものをRelease遷移
時間長(リリース部の継続時間)とする。
【0123】ステップ166では、NtN遷移時間長を獲
得する。すなわち、図18のステップ86で保存された
スコアデータ中から、先行母音からのNtN遷移時間長
(ノート遷移部の継続時間)を獲得する。
【0124】ステップ168では、Event State =
Attackか判定する。この判定の結果が肯定的(Y)であ
れば、ステップ170で無音部に対応するNONE遷移時間
長(「NONEn遷移時間長」と称する)を算出する。すな
わち、PhU State = Consonant Vowel の場合は、
図35(A)、(B)に示すように子音の歌唱開始時刻
とAttack遷移開始時刻(Attack遷移時間長の先端位置)
とが一致するようにNONEn遷移時間長を算出する。図3
5において、(A)の例が(B)の例と異なるのは、子
音歌唱時間にConsonant歌唱長Cを挿入した点である。P
hU State =Vowelの場合は、図35(C)に示すよう
に母音の歌唱開始時刻とAttack遷移開始時刻とが一致す
るようにNONEn遷移時間長を算出する。
【0125】ステップ170では、定常部に対応するNO
NE遷移時間長(「NONEs遷移時間長」と称する)を算出
する。この場合、次の演奏データを受信しないと、NONE
s遷移時間長に続く接続状態が明確にならないため、
「次の演奏データとの間に無音が挿入される」と仮定
し、図35に示すようにRelease遷移を接続した状態でN
ONEs遷移時間長を算出する。すなわち、Release遷移終
了時刻(Release遷移時間長の終端位置)がV_Silの終了
時刻と一致するように先行演奏データの終了時刻とV_Si
lの終了時刻とAttack遷移時間長とRelease時間長とNONE
n遷移時間長とに基づいてNONEs遷移時間長を算出する。
【0126】ステップ168の判定結果が否定的(N)
であったときは、ステップ174で先行演奏データの定
常部に対応するNONE遷移時間長(「pNONEs遷移時間長」
と称する)を算出する。本演奏データを受信したことに
より先行演奏データとの接続状態が明確になったので、
先行演奏データに基づいて形成されたNONEs遷移時間長
及び先行Release遷移時間長は破棄する。すなわち、後
述するステップ176の処理で用いられる「次の演奏デ
ータのと間に無音が挿入される」という仮定は破棄され
る。ステップ174では、図36(A)〜(C)に示す
ようにPhU State = Consonant Vowel又はPhU Sta
te = Vowelのいずれの場合にも、先行母音からのNtN
遷移時間長のT及びTの境界と本演奏データの実歌
唱開始(Current Note On)とが一致するように本演
奏データの実歌唱開始時刻及び実歌唱終了時刻とNtN遷
移時間長とに基づいてpNONEs遷移時間長を算出する。図
36において、(A)の例が(B)の例と異なるのは、
子音歌唱時間にConsonant歌唱長Cを挿入した点であ
る。
【0127】ステップ176では、定常部に対応するNO
NE遷移時間長(NONEs遷移時間長)を算出する。この場
合、次の演奏データを受信しないと、NONEs遷移時間長
に続く接続状態が明確にならないため、「次の演奏デー
タとの間に無音が挿入される」と仮定し、図36に示す
ようにRelease遷移を接続した状態でNONEs遷移時間長を
算出する。すなわち、先行母音からのNtN遷移時間長T
及びTの境界と本演奏データの実歌唱開始時刻(Cu
rrent Note On)とが一致し且つRelease遷移終了時刻
(Release遷移時間長の終端位置)とV_Silの終了時刻と
が一致するように本演奏データの実歌唱開始時刻とV_Si
lの終了時刻と先行母音からのNtN遷移時間長とRelease
遷移時間長とに基づいてNONEs遷移時間長を算出する。
【0128】図37は、ビブラートトラック形成処理を
示すもので、ステップ180では、演奏情報、管理デー
タ、スコアデータ及び音韻トラックのデータを取得す
る。
【0129】ステップ182では、取得データに基づい
てビブラートイベント継続か判定する。本演奏データの
実歌唱開始時刻からビブラートが開始され、先行演奏デ
ータからビブラート付加状態が継続する場合は、ステッ
プ182の判定結果が肯定的(Y)となり、ステップ1
84に移る。また、本演奏データの実歌唱開始時刻から
ビブラートが開始されるが、先行演奏データからビブラ
ート付加状態が継続しない場合、あるいは本演奏データ
からビブラートが開始されない場合は、ステップ182
の判定結果が否定的(N)となり、ステップ188に移
る。
【0130】ビブラートは、複数の演奏データ(ノー
ト)にまたがって歌唱されることが多い。本演奏データ
の実歌唱開始時刻からビブラートが開始されていても、
図38(A)に示すように先行ノートからビブラート付
加状態が継続する場合と、図38(D)、(E)に示す
ように現ノートの実歌唱開始時刻からビブラートが追加
的に開始される場合とがありうる。同様に、無ビブラー
ト(ビブラート非付加状態)についても、本演奏データ
の実歌唱開始時刻から無ビブラートが開始されていて
も、図38(B)に示すように先行ノートから無ビブラ
ートが継続する場合と、図38(C)に示すように現ノ
ートの実歌唱開始時刻から無ビブラートが開始される場
合とがありうる。
【0131】ステップ188では、取得データに基づい
て無ビブラートイベント継続か判定する。先行ノートか
ら無ビブラート状態が継続する図38(B)のような場
合は、ステップ188の判定結果が肯定的(Y)とな
り、ステップ190に移る。また、現ノートの実歌唱開
始時刻から無ビブラートが開始されているが、先行ノー
トから無ビブラート状態が継続しない図38(C)のよ
うな場合、あるいは現ノートの実歌唱開始時刻から無ビ
ブラートが開始されない場合は、ステップ188の判定
結果が否定的(N)となり、ステップ194に移る。
【0132】ビブラートイベント継続の場合、ステップ
184では、先行ビブラート時間長を破棄する。そし
て、ステップ186で先行ビブラート時間長と現ノート
の実歌唱開始時刻から開始されるビブラートのビブラー
ト時間長とを接続(加算)して新たなビブラート時間長
を算出する。そして、ステップ194に移る。
【0133】無ビブラートイベント継続の場合、ステッ
プ190では、先行無ビブラート時間長を破棄する。そ
して、ステップ192で先行無ビブラート時間長と現ノ
ートの実歌唱開始時刻から開始される無ビブラートの無
ビブラート時間長とを接続(加算)して新たな無ビブラ
ート時間長を算出する。そして、ステップ194に移
る。
【0134】ステップ194では、ビブラート時間長の
追加ありか判定する。この判定の結果が肯定的(Y)で
あれば、ステップ196で追加無ビブラート時間長を算
出する。すなわち、ステップ186で算出されたビブラ
ート時間長の終端から追加するビブラート時間長までの
無ビブラート時間長を追加無ビブラート時間長として算
出する。
【0135】ステップ198では、追加ビブラート時間
長を算出する。そして、ステップ194に戻り、それ以
降の処理を上記したと同様に繰返す。この結果、複数の
追加ビブラート時間長を算出可能となる。
【0136】ステップ194の判定結果が否定的(N)
であったときは、ステップ200で無ビブラート時間長
を算出する。すなわち、実歌唱時間長(Current Note
OnからCurrent Note Offまでの時間長)内で最終の
ビブラートイベントの最終時刻からV_Silの終了時刻ま
でを無ビブラート時間長として算出する。
【0137】上記したステップ142又は152では、
本演奏データの母音の歌唱開始時刻が実歌唱開始時刻と
一致するようにSilence歌唱長又は先行Vowel歌唱長を算
出したが、より自然な歌唱合成を行なうことを目的とし
て、次の(1)〜(11)で述べるようにしてSilence
歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出しても
よい。
【0138】(1)子音のカテゴリ(無声/有声破裂
音、無声/有声摩擦音、鼻音、半母音等)毎にSilence
歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出する。
図39には、子音のカテゴリが鼻音又は半母音である場
合に他の場合とはSilence歌唱長の決定の仕方を変えた
例を示す。
【0139】図39において、(A)の例は、音韻接続
パターンとしては、先行母音「あ」−無音−「さ(s
a)」に対応したもので、子音及び母音からなる音韻に
ついて子音(この例では「s」)を伸ばすためにConson
ant歌唱長を挿入した状態でSilence歌唱長を算出した例
である。(B)の例は、音韻接続パターンとしては、先
行音韻「あ」−無音−「ぱ(pa)」に対応したもの
で、子音及び母音からなる音韻についてConsonant歌唱
長を挿入せずにSilence歌唱長を算出した例である。
(C)の例は、音韻接続パターンとしては、先行母音
「あ」−無音−「な(na)」に対応したもので、子音
(鼻音又は半母音)及び母音からなる音韻について子音
(この例では「n」)を伸ばすためにConsonant歌唱長
Cを挿入した状態でSilence歌唱長を算出した例であ
る。(D)の例は、Consonant歌唱長を挿入しない点を
除き(C)と同様の例である。(E)の例は、音韻接続
パターンとしては、先行音韻「あ」−無音−「い
(i)」に対応したもので、母音のみからなる音韻につ
いてSilence歌唱長を算出した(子音(鼻音)のみから
なる音韻についても同様とする)例である。
【0140】(A)、(B)及び(E)の例は、本演奏
データの母音の歌唱開始時刻が実歌唱開始時刻と一致す
るようにSilence歌唱長を算出した例である。(C)及
び(D)の例は、本演奏データの子音の歌唱開始時刻が
実歌唱開始時刻と一致するようにSilence歌唱長を算出
した例である。
【0141】(2)子音(「p」、「b」、「s」、
「z」、「n」、「w」等)毎にSilence歌唱長、先行V
owel歌唱長及びVowel歌唱長を算出する。
【0142】(3)母音(「a」、「i」、「u」、
「e」、「o」等)毎にSilence歌唱長、先行Vowel歌唱
長及びVowel歌唱長を算出する。
【0143】(4)子音のカテゴリ(無声/有声破裂
音、無声/有声摩擦音、鼻音、半母音等)毎に且つ子音
に続く母音(「a」、「i」、「u」、「e」、「o」
等)毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌
唱長を算出する。すなわち、子音のカテゴリと母音との
組合せ毎にSilence歌唱長、先行Vowel歌唱長及びVowel
歌唱長を算出する。
【0144】(5)子音(「p」、「b」、「s」、
「z」、「n」、「w」等)毎に且つ子音に続く母音毎
にSilence歌唱長、先行Vowel歌唱長及びVowel歌唱長を
算出する。すなわち、子音と母音との組合せ毎にSilenc
e歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出す
る。
【0145】(6)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎にSilence歌唱長、先行V
owel歌唱長及びVowel歌唱長を算出する。
【0146】(7)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎に且つ先行母音に続く子
音のカテゴリ(無声/有声破裂音、無声/有声摩擦音、
鼻音、半母音等)毎にSilence歌唱長、先行Vowel歌唱長
及びVowel歌唱長を算出する。すなわち、先行母音と子
音のカテゴリとの組合せ毎にSilence歌唱長、先行Vowel
歌唱長及びVowel歌唱長を算出する。
【0147】(8)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎に且つ先行母音に続く子
音(「p」、「b」、「s」、「z」、「n」、「w」
等)毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌
唱長を算出する。すなわち、先行母音と子音との組合せ
毎にSilence歌唱長、先行Vowel歌唱長及びVowel歌唱長
を算出する。
【0148】(9)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎に且つ先行母音に続く母
音(「a」、「i」、「u」、「e」、「o」等)毎に
Silence歌唱長、先行Vowel歌唱長及びVowel歌唱長を算
出する。すなわち、先行母音と母音との組合せ毎にSile
nce歌唱長、先行Vowel歌唱長及びVowel歌唱長を算出す
る。
【0149】(10)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎、先行母音に続く子音の
カテゴリ(無声/有声破裂音、無声/有声摩擦音、鼻
音、半母音等)毎及び子音に続く母音(「a」、
「i」、「u」、「e」、「o」等)毎にSilence歌唱
長、先行Vowel歌唱長及びVowel歌唱長を算出する。すな
わち、先行母音と子音のカテゴリと母音との組合せ毎に
Silence歌唱長、先行Vowel歌唱長及びVowel歌唱長を算
出する。
【0150】(11)先行母音(「a」、「i」、
「u」、「e」、「o」等)毎、先行母音に続く子音
(「p」、「b」、「s」、「z」、「n」、「w」
等)毎及び子音に続く母音(「a」、「i」、「u」、
「e」、「o」等)毎にSilence歌唱長、先行Vowel歌唱
長及びVowel歌唱長を算出する。すなわち、先行母音と
子音と母音との組合せ毎にSilence歌唱長、先行Vowel歌
唱長及びVowel歌唱長を算出する。
【0151】この発明は、上記した実施形態に限定され
るものではなく、種々の改変形態で実施可能なものであ
る。例えば、次のような変更が可能である。
【0152】(1)上記した実施形態では、歌唱合成ス
コアの形成が完了した後、歌唱合成スコアに従って歌唱
音声を合成するようにしたが、歌唱合成スコアを形成し
つつ形成済みの歌唱合成スコアに従って歌唱音声を合成
するようにしてもよい。このためには、例えば、演奏デ
ータの受信を割り込み処理により優先的に行ないつつ受
信済みの演奏データに基づいて歌唱合成スコアを形成す
ればよい。
【0153】(2)上記した実施形態では、音源方式と
してフォルマント合成方式を用いたが、波形処理方式等
の他の方式を用いてもよい。
【0154】(3)上記した実施形態では、歌唱合成ス
コアを音韻トラック、遷移トラック及びビブラートトラ
ックの3トラックで構成したが、1トラック構成として
もよい。このためには、例えば、音韻トラックに遷移ト
ラック及びビブラートトラックの情報を適宜挿入すれば
よい。
【0155】
【発明の効果】以上のように、この発明によれば、子音
から母音に遷移する音韻について子音の立上りを母音の
立上りより十分に早くすることができるので、人歌唱に
近似した自然な歌唱合成が可能となる効果が得られる。
【0156】また、音韻遷移時間長を用いて歌唱開始時
刻や歌唱継続時間を決定するようにしたので、遷移する
音韻について自然な歌唱合成が可能となる効果も得られ
る。
【0157】さらに、状態遷移時間長を用いて歌唱音声
の立上り部、立下り部、ノート遷移部に音高、振幅等の
微小変化を付加したり、歌唱音声にビブラート効果等の
効果を付加したり、歌唱開始時刻をランダムに決定した
りしたので、一層自然な歌唱合成が可能となる効果も得
られる。
【図面の簡単な説明】
【図1】 人歌唱と、この発明の歌唱合成とで歌唱開始
時刻を対比して示す図である。
【図2】 この発明の一実施形態に係る歌唱合成装置の
回路構成を示すブロック図である。
【図3】 実施形態に係る歌唱合成処理を概略的に説明
するためのフローチャートである。
【図4】 演奏データ内の情報を示す図である。
【図5】 音韻DB内の情報を示す図である。
【図6】 音韻遷移DB内の情報を示す図である。
【図7】 状態遷移DB内の情報を示す図である。
【図8】 ビブラートDB内の情報を示す図である。
【図9】 演奏データに基づく歌唱合成を説明するため
の図である。
【図10】 参照スコア及び歌唱合成スコアの形成状況
を示す図である。
【図11】 参照スコアに演奏データを追加した場合の
歌唱合成スコアの形成状況を示す図である。
【図12】 参照スコアに演奏データを挿入した場合の
歌唱合成スコアの形成状況を示す図である。
【図13】 演奏データに基づく歌唱合成スコアの形成
状況及び歌唱音声の合成状況を示す図である。
【図14】 図13の音韻トラックにおける種々のアイ
テムを説明するための図である。
【図15】 図13の遷移トラックにおける種々のアイ
テムを説明するための図である。
【図16】 図13のビブラートトラックにおける種々
のアイテムを説明するための図である。
【図17】 演奏データ受信・歌唱合成スコア形成処理
を示すフローチャートである。
【図18】 歌唱合成スコア形成処理を示すフローチャ
ートである。
【図19】 管理データ作成処理を示すフローチャート
である。
【図20】 Event State=Transitionの場合の管理デ
ータ作成処理を説明するための図である。
【図21】 Event State=Attackの場合の管理データ
作成処理を説明するための図である。
【図22】 音韻トラック形成処理を示すフローチャー
トである。
【図23】 音韻遷移時間長獲得処理を示すフローチャ
ートである。
【図24】 Silence歌唱長算出処理を示すフローチャ
ートである。
【図25】 図24の処理においてConsonant伸縮率が
1より大きい場合のConsonant歌唱長算出処理を説明す
るための図である。
【図26】 図24の処理においてConsonant伸縮率が
1より小さい場合のConsonant歌唱長算出処理を説明す
るための図である。
【図27】 Silence歌唱長の算出例を示す図である。
【図28】 先行Vowel歌唱長算出処理を示すフローチ
ャートである。
【図29】 図28の処理においてConsonant伸縮率が
1より大きい場合のConsonant歌唱長算出処理を説明す
るための図である。
【図30】 図28の処理においてConsonant伸縮率が
1より小さい場合のConsonant歌唱長算出処理を説明す
るための図である。
【図31】 先行Vowel歌唱長算出例を示す図である。
【図32】 Vowel歌唱長算出処理を示すフローチャー
トである。
【図33】 Vowel歌唱長算出例を示す図である。
【図34】 遷移トラック形成処理を示すフローチャー
トである。
【図35】 NONEn,NONEs遷移時間長の算出例を示す図
である。
【図36】 pNONEs,NONEs遷移時間長の算出例を示す
図である。
【図37】 ビブラートトラック形成処理を示すフロー
チャートである。
【図38】 ビブラートトラックの形成例を示す図であ
る。
【図39】 Silence歌唱長算出の変形例を示す図であ
る。
【図40】 人歌唱と、従来の歌唱合成とで歌唱開始時
刻を対比して示す図である。
【符号の説明】
10:バス、12:CPU、14:ROM、16:RA
M、20:検出回路、22:表示回路、24:外部記憶
装置、26:タイマ、28:音源回路、30:MIDI
インターフェース、34:操作子群、36:表示器、3
8:サウンドシステム、39:MIDI機器。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ジャウメ オルトラ スペイン バルセロナ 08002 メルセ 12 Fターム(参考) 5D045 AA20 5D378 MM05 MM38 MM94

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】順次の第1及び第2の音素を含む歌唱音韻
    について音韻を表わす音韻情報と歌唱開始時刻を表わす
    時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開始
    時刻より早く入力するステップと、 入力された音韻情報に基づいて前記第1の音素の発生時
    間長と前記第2の音素の発生時間長とからなる音韻遷移
    時間長を生成するステップと、 生成された音韻遷移時間長と入力された時刻情報及び歌
    唱長情報とに基づいて前記第1及び第2の音素の歌唱開
    始時刻と歌唱継続時間とを決定するステップと、 決定された前記第1及び第2の音素の歌唱開始時刻にそ
    れぞれ前記第1及び第2の音素からなる第1及び第2の
    歌唱音声を発生開始し、該第1及び第2の歌唱音声を決
    定された前記第1及び第2の音素の歌唱継続時間中それ
    ぞれ発生するステップとを含む歌唱合成方法。
  2. 【請求項2】 前記決定するステップでは、前記第1の
    音素の歌唱開始時刻として、前記時刻情報で表わされる
    歌唱開始時刻より早い時刻を決定する請求項1記載の歌
    唱合成方法。
  3. 【請求項3】順次の第1及び第2の音素を含む歌唱音韻
    について音韻を表わす音韻情報と歌唱開始時刻を表わす
    時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開始
    時刻より早く入力する入力手段と、 前記第1の音素の発生時間長と前記第2の音素の発生時
    間長とからなる音韻遷移時間長を記憶する記憶手段と、 前記入力手段で入力された音韻情報に基づいて前記記憶
    手段から音韻遷移時間長を読出す読出手段と、 この読出手段で読出された音韻遷移時間長と前記入力手
    段で入力された時刻情報及び歌唱長情報とに基づいて前
    記第1及び第2の音素の歌唱開始時刻と歌唱継続時間と
    を算出する計算手段と、 この計算手段で算出された前記第1及び第2の音素の歌
    唱開始時刻にそれぞれ前記第1及び第2の音素からなる
    第1及び第2の歌唱音声を発生開始し、該第1及び第2
    の歌唱音声を前記計算手段で算出された前記第1及び第
    2の音素の歌唱継続時間中それぞれ発生する歌唱音声合
    成手段とを備えた歌唱合成装置。
  4. 【請求項4】 前記入力手段では、前記第1の音素の発
    生時間長を修正するための修正情報を入力し、前記計算
    手段では、前記読出手段で読出された音韻遷移時間長中
    の第1の音素の発生時間長を前記入力手段で入力された
    修正情報に応じて修正した後該音韻遷移時間長に基づい
    て前記第1及び第2の音素の歌唱開始時刻と歌唱継続時
    間とを算出する請求項3記載の歌唱合成装置。
  5. 【請求項5】歌唱音韻について音韻を表わす音韻情報と
    歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
    情報とを入力するステップと、 入力された音韻情報に基づいて前記歌唱音韻の立上り
    部、ノート遷移部又は立下り部のいずれかに対応した状
    態遷移時間長を生成するステップと、 入力された音韻情報、時刻情報及び歌唱長情報に基づい
    て前記音韻からなる歌唱音声を発生するステップであっ
    て、生成された状態遷移時間長に対応する期間中前記歌
    唱音声に対して音高及び振幅のうち少なくとも一方の変
    化を付加するものとを含む歌唱合成方法。
  6. 【請求項6】歌唱音韻について音韻を表わす音韻情報と
    歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
    情報とを入力する入力手段と、 前記歌唱音韻の立上り部、ノート遷移部又は立下り部の
    いずれかに対応した状態遷移時間長を記憶した記憶手段
    と、 前記入力手段で入力された音韻情報に基づいて前記記憶
    手段から状態遷移時間長を読出す読出手段と、 前記入力手段で入力された音韻情報、時刻情報及び歌唱
    長情報に基づいて前記音韻からなる歌唱音声を発生する
    歌唱音声合成手段であって、前記読出手段で読出された
    状態遷移時間長に対応する期間中前記歌唱音声に対して
    音高及び振幅のうち少なくとも一方の変化を付加するも
    のとを備えた歌唱合成装置。
  7. 【請求項7】 前記入力手段では、前記状態遷移時間長
    を修正するための修正情報を入力し、前記読出手段で読
    出された状態遷移時間長を前記入力手段で入力された修
    正情報に応じて修正する修正手段を更に設け、前記歌唱
    音声合成手段では、前記修正手段で修正された状態遷移
    時間長に対応する期間中前記歌唱音声に対して音高及び
    振幅のうち少なくとも一方の変化を付加する請求項6記
    載の歌唱合成装置。
  8. 【請求項8】歌唱音韻について音韻を表わす音韻情報と
    歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱長
    情報と効果の付加を表わす効果付加情報とを入力する入
    力手段と、 この入力手段で入力された音韻情報、時刻情報及び歌唱
    長情報に基づいて前記音韻からなる歌唱音声を発生する
    歌唱音声合成手段であって、前記入力手段で入力された
    効果付加情報に基づいて前記歌唱音声に対して効果を付
    加するものとを備えた歌唱合成装置。
  9. 【請求項9】 前記入力手段で入力される効果付加情報
    を効果の付加期間を表わすものとし、入力された効果付
    加情報で表わされる効果の付加期間が前記歌唱音韻に先
    行する歌唱音韻の効果の付加期間に連続するときに連続
    する2つの付加期間に対応する新たな効果の付加期間を
    設定する設定手段を更に設け、前記歌唱音声合成手段で
    は、前記設定手段で設定された効果の付加期間中前記歌
    唱音声に対して効果を付加する請求項8記載の歌唱合成
    装置。
  10. 【請求項10】歌唱音韻について音韻を表わす音韻情報
    と歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱
    長情報とを前記歌唱開始時刻より早く入力する入力手段
    と、 この入力手段で入力された時刻情報に基づいて前記歌唱
    開始時刻の前後に及ぶ所定の時間範囲内でランダムに新
    たな歌唱開始時刻を設定する設定手段と、 前記入力手段で入力された音韻情報及び歌唱長情報と前
    記設定手段で設定された歌唱開始時刻とに基づいて前記
    音韻からなる歌唱音声を発生する歌唱音声合成手段であ
    って、前記設定手段で設定された歌唱開始時刻に前記歌
    唱音声を発生開始するものとを備えた歌唱合成装置。
  11. 【請求項11】順次の第1及び第2の音素を含む歌唱音
    韻について音韻を表わす音韻情報と歌唱開始時刻を表わ
    す時刻情報と歌唱長を表わす歌唱長情報とを前記歌唱開
    始時刻より早く入力するステップと、 入力された音韻情報に基づいて前記第1の音素の発生時
    間長と前記第2の音素の発生時間長とからなる音韻遷移
    時間長を生成するステップと、 生成された音韻遷移時間長と入力された時刻情報及び歌
    唱長情報とに基づいて前記第1及び第2の音素の歌唱開
    始時刻と歌唱継続時間とを決定するステップと、 決定された前記第1及び第2の音素の歌唱開始時刻にそ
    れぞれ前記第1及び第2の音素からなる第1及び第2の
    歌唱音声を発生開始し、該第1及び第2の歌唱音声を決
    定された前記第1及び第2の音素の歌唱継続時間中それ
    ぞれ発生するステップとを含むプログラムを記録した記
    録媒体。
  12. 【請求項12】歌唱音韻について音韻を表わす音韻情報
    と歌唱開始時刻を表わす時刻情報と歌唱長を表わす歌唱
    長情報とを入力するステップと、 入力された音韻情報に基づいて前記歌唱音韻の立上り
    部、ノート遷移部又は立下り部のいずれかに対応した状
    態遷移時間長を生成するステップと、 入力された音韻情報、時刻情報及び歌唱長情報に基づい
    て前記音韻からなる歌唱音声を発生するステップであっ
    て、生成された状態遷移時間長に対応する期間中前記歌
    唱音声に対して音高及び振幅のうち少なくとも一方の変
    化を付加するものとを含むプログラムを記録した記録媒
    体。
JP2000402880A 2000-12-28 2000-12-28 歌唱合成方法と装置及び記録媒体 Expired - Fee Related JP3879402B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2000402880A JP3879402B2 (ja) 2000-12-28 2000-12-28 歌唱合成方法と装置及び記録媒体
US10/034,352 US7124084B2 (en) 2000-12-28 2001-12-27 Singing voice-synthesizing method and apparatus and storage medium
DE60135039T DE60135039D1 (de) 2000-12-28 2001-12-28 Verfahren und Vorrichtung zur Synthesierung einer Gesangsstimme und Speichermedium
EP01131011A EP1220194A3 (en) 2000-12-28 2001-12-28 Singing voice synthesis
EP06004731A EP1675101B1 (en) 2000-12-28 2001-12-28 Singing voice-synthesizing method and apparatus and storage medium
US11/292,036 US20060085197A1 (en) 2000-12-28 2005-12-01 Singing voice-synthesizing method and apparatus and storage medium
US11/292,165 US20060085198A1 (en) 2000-12-28 2005-12-01 Singing voice-synthesizing method and apparatus and storage medium
US11/292,035 US7249022B2 (en) 2000-12-28 2005-12-01 Singing voice-synthesizing method and apparatus and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000402880A JP3879402B2 (ja) 2000-12-28 2000-12-28 歌唱合成方法と装置及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006020087A Division JP4631726B2 (ja) 2006-01-30 2006-01-30 歌唱合成装置及び記録媒体

Publications (3)

Publication Number Publication Date
JP2002202788A true JP2002202788A (ja) 2002-07-19
JP2002202788A5 JP2002202788A5 (ja) 2004-10-28
JP3879402B2 JP3879402B2 (ja) 2007-02-14

Family

ID=18867095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000402880A Expired - Fee Related JP3879402B2 (ja) 2000-12-28 2000-12-28 歌唱合成方法と装置及び記録媒体

Country Status (4)

Country Link
US (4) US7124084B2 (ja)
EP (2) EP1220194A3 (ja)
JP (1) JP3879402B2 (ja)
DE (1) DE60135039D1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004440A (ja) * 2002-03-22 2004-01-08 Yamaha Corp 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体
JP2011180194A (ja) * 2010-02-26 2011-09-15 Dainippon Printing Co Ltd 音素符号変換装置、音素符号データベース、および音声合成装置
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2014170251A (ja) * 2014-06-23 2014-09-18 Yamaha Corp 音声合成装置、音声合成方法およびプログラム
JP2014186307A (ja) * 2013-02-22 2014-10-02 Yamaha Corp 音声合成装置
WO2015060340A1 (ja) * 2013-10-23 2015-04-30 ヤマハ株式会社 歌唱音声の合成
JP2016090966A (ja) * 2014-11-11 2016-05-23 ヤマハ株式会社 表示制御装置
JP2016090916A (ja) * 2014-11-10 2016-05-23 ヤマハ株式会社 音声合成装置
JP2016161898A (ja) * 2015-03-05 2016-09-05 ヤマハ株式会社 音声合成用データ編集装置
JP2016177276A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP2016184158A (ja) * 2015-03-25 2016-10-20 ヤマハ株式会社 歌唱音発音装置
JP2017041213A (ja) * 2015-08-21 2017-02-23 ヤマハ株式会社 合成音声編集装置
JPWO2020217801A1 (ja) * 2019-04-26 2020-10-29

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP4153220B2 (ja) * 2002-02-28 2008-09-24 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP4265501B2 (ja) * 2004-07-15 2009-05-20 ヤマハ株式会社 音声合成装置およびプログラム
JP2006127367A (ja) * 2004-11-01 2006-05-18 Sony Corp 情報管理方法、情報管理プログラムおよび情報管理装置
EP1734508B1 (en) * 2005-06-17 2007-09-19 Yamaha Corporation Musical sound waveform synthesizer
JP5471858B2 (ja) * 2009-07-02 2014-04-16 ヤマハ株式会社 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
JP5479823B2 (ja) * 2009-08-31 2014-04-23 ローランド株式会社 効果装置
JP5482042B2 (ja) * 2009-09-10 2014-04-23 富士通株式会社 合成音声テキスト入力装置及びプログラム
US8321209B2 (en) 2009-11-10 2012-11-27 Research In Motion Limited System and method for low overhead frequency domain voice authentication
US8326625B2 (en) * 2009-11-10 2012-12-04 Research In Motion Limited System and method for low overhead time domain voice authentication
US20110219940A1 (en) * 2010-03-11 2011-09-15 Hubin Jiang System and method for generating custom songs
US20110313762A1 (en) * 2010-06-20 2011-12-22 International Business Machines Corporation Speech output with confidence indication
JP5728913B2 (ja) * 2010-12-02 2015-06-03 ヤマハ株式会社 音声合成情報編集装置およびプログラム
KR20140009461A (ko) 2011-03-28 2014-01-22 도레이 카부시키가이샤 도전 적층체 및 터치 패널
JP6024191B2 (ja) 2011-05-30 2016-11-09 ヤマハ株式会社 音声合成装置および音声合成方法
JP6047922B2 (ja) * 2011-06-01 2016-12-21 ヤマハ株式会社 音声合成装置および音声合成方法
JP5895740B2 (ja) * 2012-06-27 2016-03-30 ヤマハ株式会社 歌唱合成を行うための装置およびプログラム
US8847056B2 (en) 2012-10-19 2014-09-30 Sing Trix Llc Vocal processing with accompaniment music input
JP6024403B2 (ja) * 2012-11-13 2016-11-16 ヤマハ株式会社 電子音楽装置、パラメータ設定方法および当該パラメータ設定方法を実現するためのプログラム
US9123315B1 (en) * 2014-06-30 2015-09-01 William R Bachand Systems and methods for transcoding music notation
CN106970771B (zh) 2016-01-14 2020-01-14 腾讯科技(深圳)有限公司 音频数据处理方法和装置
CN106652997B (zh) * 2016-12-29 2020-07-28 腾讯音乐娱乐(深圳)有限公司 一种音频合成的方法及终端
JP6992612B2 (ja) * 2018-03-09 2022-01-13 ヤマハ株式会社 音声処理方法および音声処理装置
JP6587008B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610715B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610714B1 (ja) * 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6547878B1 (ja) 2018-06-21 2019-07-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
CN109147783B (zh) * 2018-09-05 2022-04-01 厦门巨嗨科技有限公司 基于k歌系统的语音识别方法、介质及系统
JP7059972B2 (ja) 2019-03-14 2022-04-26 カシオ計算機株式会社 電子楽器、鍵盤楽器、方法、プログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4771671A (en) * 1987-01-08 1988-09-20 Breakaway Technologies, Inc. Entertainment and creative expression device for easily playing along to background music
US5536902A (en) * 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
JP3333022B2 (ja) * 1993-11-26 2002-10-07 富士通株式会社 歌声合成装置
JP2897659B2 (ja) * 1994-10-31 1999-05-31 ヤマハ株式会社 カラオケ装置
JP2921428B2 (ja) * 1995-02-27 1999-07-19 ヤマハ株式会社 カラオケ装置
JPH08248993A (ja) 1995-03-13 1996-09-27 Matsushita Electric Ind Co Ltd 音韻時間長制御方法
JP3598598B2 (ja) * 1995-07-31 2004-12-08 ヤマハ株式会社 カラオケ装置
US5703311A (en) * 1995-08-03 1997-12-30 Yamaha Corporation Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
US5878213A (en) * 1996-02-15 1999-03-02 International Business Machines Corporation Methods, systems and computer program products for the synchronization of time coherent caching system
JP3132392B2 (ja) 1996-07-31 2001-02-05 ヤマハ株式会社 歌唱音合成装置および歌唱音の発生方法
US5998725A (en) 1996-07-23 1999-12-07 Yamaha Corporation Musical sound synthesizer and storage medium therefor
US5895449A (en) 1996-07-24 1999-04-20 Yamaha Corporation Singing sound-synthesizing apparatus and method
JP3518253B2 (ja) 1997-05-22 2004-04-12 ヤマハ株式会社 データ編集装置
JP4038836B2 (ja) * 1997-07-02 2008-01-30 ヤマハ株式会社 カラオケ装置
US6304846B1 (en) * 1997-10-22 2001-10-16 Texas Instruments Incorporated Singing voice synthesis
JP3502247B2 (ja) * 1997-10-28 2004-03-02 ヤマハ株式会社 音声変換装置
US6462264B1 (en) * 1999-07-26 2002-10-08 Carl Elam Method and apparatus for audio broadcast of enhanced musical instrument digital interface (MIDI) data formats for control of a sound generator to create music, lyrics, and speech
US6836761B1 (en) * 1999-10-21 2004-12-28 Yamaha Corporation Voice converter for assimilation by frame synthesis with temporal alignment
JP2002063209A (ja) * 2000-08-22 2002-02-28 Sony Corp 情報処理装置および方法、情報システム、並びに記録媒体
WO2002052565A1 (en) * 2000-12-22 2002-07-04 Muvee Technologies Pte Ltd System and method for media production
JP4067762B2 (ja) * 2000-12-28 2008-03-26 ヤマハ株式会社 歌唱合成装置
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
US6740804B2 (en) * 2001-02-05 2004-05-25 Yamaha Corporation Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus
JP3838039B2 (ja) * 2001-03-09 2006-10-25 ヤマハ株式会社 音声合成装置
JP3711880B2 (ja) * 2001-03-09 2005-11-02 ヤマハ株式会社 音声分析及び合成装置、方法、プログラム
JP3709817B2 (ja) * 2001-09-03 2005-10-26 ヤマハ株式会社 音声合成装置、方法、及びプログラム
JP3815347B2 (ja) * 2002-02-27 2006-08-30 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP4153220B2 (ja) * 2002-02-28 2008-09-24 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP3941611B2 (ja) * 2002-07-08 2007-07-04 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP2004205605A (ja) * 2002-12-24 2004-07-22 Yamaha Corp 音声および楽曲再生装置およびシーケンスデータフォーマット
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP3858842B2 (ja) * 2003-03-20 2006-12-20 ソニー株式会社 歌声合成方法及び装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004440A (ja) * 2002-03-22 2004-01-08 Yamaha Corp 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体
JP2011180194A (ja) * 2010-02-26 2011-09-15 Dainippon Printing Co Ltd 音素符号変換装置、音素符号データベース、および音声合成装置
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
US9424831B2 (en) 2013-02-22 2016-08-23 Yamaha Corporation Voice synthesizing having vocalization according to user manipulation
JP2014186307A (ja) * 2013-02-22 2014-10-02 Yamaha Corp 音声合成装置
WO2015060340A1 (ja) * 2013-10-23 2015-04-30 ヤマハ株式会社 歌唱音声の合成
JP2014170251A (ja) * 2014-06-23 2014-09-18 Yamaha Corp 音声合成装置、音声合成方法およびプログラム
JP2016090916A (ja) * 2014-11-10 2016-05-23 ヤマハ株式会社 音声合成装置
JP2016090966A (ja) * 2014-11-11 2016-05-23 ヤマハ株式会社 表示制御装置
JP2016161898A (ja) * 2015-03-05 2016-09-05 ヤマハ株式会社 音声合成用データ編集装置
JP2016177276A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 発音装置、発音方法および発音プログラム
US10354629B2 (en) 2015-03-20 2019-07-16 Yamaha Corporation Sound control device, sound control method, and sound control program
JP2016184158A (ja) * 2015-03-25 2016-10-20 ヤマハ株式会社 歌唱音発音装置
US10504502B2 (en) 2015-03-25 2019-12-10 Yamaha Corporation Sound control device, sound control method, and sound control program
JP2017041213A (ja) * 2015-08-21 2017-02-23 ヤマハ株式会社 合成音声編集装置
JPWO2020217801A1 (ja) * 2019-04-26 2020-10-29
WO2020217801A1 (ja) * 2019-04-26 2020-10-29 ヤマハ株式会社 オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
US20220044662A1 (en) * 2019-04-26 2022-02-10 Yamaha Corporation Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP7226532B2 (ja) 2019-04-26 2023-02-21 ヤマハ株式会社 オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム

Also Published As

Publication number Publication date
US7124084B2 (en) 2006-10-17
EP1675101A2 (en) 2006-06-28
EP1220194A3 (en) 2004-04-28
US20030009344A1 (en) 2003-01-09
DE60135039D1 (de) 2008-09-04
EP1220194A2 (en) 2002-07-03
EP1675101B1 (en) 2008-07-23
US20060085196A1 (en) 2006-04-20
EP1675101A3 (en) 2007-05-23
US20060085197A1 (en) 2006-04-20
US7249022B2 (en) 2007-07-24
JP3879402B2 (ja) 2007-02-14
US20060085198A1 (en) 2006-04-20

Similar Documents

Publication Publication Date Title
JP3879402B2 (ja) 歌唱合成方法と装置及び記録媒体
JP6587007B1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP3333022B2 (ja) 歌声合成装置
JP5293460B2 (ja) 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
JP5471858B2 (ja) 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
CN110634464A (zh) 电子乐器、电子乐器的控制方法以及存储介质
JPH0944171A (ja) カラオケ装置
US7718885B2 (en) Expressive music synthesizer with control sequence look ahead capability
JP6760457B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP2023100776A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP4631726B2 (ja) 歌唱合成装置及び記録媒体
JP4026446B2 (ja) 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム
JP6044284B2 (ja) 音声合成装置
WO2020217801A1 (ja) オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
JP3132392B2 (ja) 歌唱音合成装置および歌唱音の発生方法
JP3963141B2 (ja) 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
WO2022208627A1 (ja) 歌唱音出力システムおよび方法
EP0396141A2 (en) System for and method of synthesizing singing in real time
JP3173310B2 (ja) ハーモニー生成装置
JPH04331990A (ja) 音声電子楽器
JP2005077763A (ja) 自動伴奏生成装置及びプログラム
JP2001215971A (ja) 楽音信号発生装置及び楽音信号発生方法
JP2001022349A (ja) 曲データ加工方法
JP2004287463A (ja) 波形生成方法及び装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060330

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131117

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees