JP2003323188A - 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム - Google Patents

歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム

Info

Publication number
JP2003323188A
JP2003323188A JP2002244241A JP2002244241A JP2003323188A JP 2003323188 A JP2003323188 A JP 2003323188A JP 2002244241 A JP2002244241 A JP 2002244241A JP 2002244241 A JP2002244241 A JP 2002244241A JP 2003323188 A JP2003323188 A JP 2003323188A
Authority
JP
Japan
Prior art keywords
pitch
phoneme
singing
information
inclination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002244241A
Other languages
English (en)
Other versions
JP4026446B2 (ja
Inventor
Hiroshi Kayama
啓 嘉山
Oscar Celma
セルマ オスカー
Jaume Ortola
オルトラ シャウメ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002244241A priority Critical patent/JP4026446B2/ja
Publication of JP2003323188A publication Critical patent/JP2003323188A/ja
Application granted granted Critical
Publication of JP4026446B2 publication Critical patent/JP4026446B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 自然性の高い歌唱音声を合成する。 【解決手段】 音韻情報、音高(ピッチ)情報、時刻情
報等を含む演奏データを入力し、この演奏データを、歌
唱合成データベースに基づき、歌唱合成エンジンが理解
可能な形式のデータ(歌唱合成スコア)に変換する。音
韻の変化する時点の前後における音高の情報を取得し、
この情報に基づき、音韻の変化する時点における音高変
化曲線に傾きを加え、これにより出力される歌唱音声の
自然性を高める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、リアルタイムに
入力される演奏データに基づいて歌唱を合成する歌唱合
成装置、方法及びプログラムに係るものである。
【0002】
【従来の技術】従来の歌唱合成装置においては、人間の
実際の歌声から取得したデータを、例えばテンプレート
データとしてデータベースとして保存しておき、入力さ
れた演奏データ(音符、歌詞、表情等)の内容に合致し
たデータをデータベースより読み出す。そして、この演
奏データとテンプレートデータに基づいて、歌唱合成ス
コアと呼ばれるデータを作成する。この歌唱合成スコア
とは、歌唱音声のデータを、音韻、音高(ピッチ)、音
韻遷移(無音から有声音へ、或いはその逆への遷移、伸
ばし音など)、状態遷移などのパラメータごとに時系列
的に記憶させたものである。例えば、音韻データは音韻
トラックに、音高データは音高トラックに記憶される。
この歌唱合成スコアに、さらに各種の音源制御情報を付
加することにより、本物の人の歌声に近い歌唱音声を合
成している。
【0003】
【発明が解決しようとする課題】従来の歌唱合成装置
は、音高トラックを形成する場合、受信したMIDIデ
ータをそのまま音高トラックの形式に変換するものであ
った。このため、音韻が変化する前後において音高が階
段状に、不連続に変化し、このため合成される歌唱音声
が不自然なものとして聞こえてしまう。この不自然さを
解消するためには、ピッチベンダを使用して音高の変化
を逐一調整するなどの作業が必要となっていた。
【0004】本発明は、この点に鑑み、自然な歌唱音声
を簡易に合成することのできる歌唱合成方法、歌唱合成
装置及びプログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】上記目的の達成のため、
本出願に係る第1発明は、少なくとも音韻を表わす音韻
情報と音高を表わす音高情報と歌唱開始時刻を表わす時
刻情報とを含む演奏データを入力する入力ステップと、
前記音韻情報が切り替わる音韻変化時点における音韻の
変化のしかたに関する音韻変化情報を取得する音韻変化
情報取得ステップと、該音韻変化時点に先行する時点又
は後続する時点における音高情報を取得する音高情報取
得ステップと、前記音韻変化情報取得ステップ及び前記
音高情報取得ステップで取得された情報に基づき、前記
音韻変化時点における音高変化曲線に有限の傾きを付与
する傾き付与ステップとを備えたことを特徴とする。
【0006】この第1発明によれば、音韻情報が切り替
わる音韻変化時点における音韻の変化のしかたに関する
音韻変化情報と、該音韻変化時点に先行する時点又は後
続する時点における音高情報とが取得される。傾き付与
ステップにおいて、これらの情報に基づき、前記音韻変
化時点における音高変化曲線に有限の傾きが付与され
る。音韻変化時点における音高の状態に応じた傾きが付
与されるので、出力される合成歌唱音声の自然性が高ま
る。
【0007】前記傾き付与ステップは、前音韻変化情報
に基づいて、付与する前記傾きの位置を変化させるよう
にするのが好適である。
【0008】前記傾き付与ステップは、前記音高情報の
大きさに応じて付与する前記傾きの大きさを変化させる
のが好適である。
【0009】上記第1発明において、母音部分の歌唱開
始時刻を、前記演奏データのノートオン信号の発生時刻
と一致させて合成歌唱音声として出力するステップを更
に備えるようにすることができる。
【0010】上記第1発明において前記音韻変化時点に
先行する時点又は後続する時点における歌唱音速さ情報
を取得する歌唱音速さ情報取得ステップを更に備え、前
記傾き付与ステップは、前記歌唱音速さ情報をも参照し
て前記傾きを付与するようにすることができる。
【0011】また、上記第1発明において、前記傾き付
与ステップにより傾きを付与された音高変化曲線にゆら
ぎを付加するゆらぎ付加ステップを更に備えるようにす
ることもできる。
【0012】前記傾き付与ステップは、前記音韻変化情
報及び前記音高情報の大きさが異なる毎に異なるパラメ
ータを対応させて記憶するテーブルに基づき前記傾きを
付与するようにすることもできる。前記テーブルをユー
ザが編集することを可能としてもよい。
【0013】また、上記の各歌唱合成方法のステップを
コンピュータプログラムにより実行させるようにしても
よい。
【0014】上記目的達成のため、本出願に係る第2発
明は、少なくとも音韻を表わす音韻情報と音高を表わす
音高情報と歌唱開始時刻を表わす時刻情報とを含む演奏
データを入力する入力手段と、前記音韻情報が切り替わ
る音韻変化時点における音韻の変化のしかたに関する音
韻変化情報を取得する音韻変化情報取得手段と、該音韻
変化時点に先行する時点又は後続する時点における音高
情報を取得する音高情報取得手段と、前記音韻変化情報
取得手段及び前記音高情報取得手段で取得された情報に
基づき、前記音韻変化時点における音高変化曲線に有限
の傾きを付与する傾き付与手段とを備えたことを特徴と
する。
【0015】前記傾き付与手段は、前記音韻変化情報取
得手段により取得された音韻の変化のしかたに関する情
報に基づいて、付与する前記傾きの位置を変化させるよ
うにしてもよい。また、前記傾き付与手段は、前記音高
情報取得手段により取得された前記音高情報の大きさに
応じて付与する前記傾きの大きさを変化させるようにし
てもよい。
【0016】前記第2発明において、母音部分の歌唱開
始時刻を、前記演奏データのノートオン信号の発生時刻
と一致させて合成歌唱音声として出力する出力手段を更
に備えることができる。
【0017】前記第2発明において、前記音韻変化時点
に先行する時点又は後続する時点における歌唱音速さ情
報を取得する歌唱音速さ情報取得手段を更に備え、前記
傾き付与手段は、前記歌唱音速さ情報をも参照して前記
傾きを付与するようにすることもできる。
【0018】前記第2発明において、前記傾き付与手段
により傾きを付与された音高変化曲線にゆらぎを付加す
るゆらぎ付加手段を更に備えるようにしてもよい。ま
た、前記第2発明において、前記傾き付与手段は、前記
音韻変化情報及び前記音高情報の大きさが異なる毎に異
なるパラメータを対応させて記憶するテーブルに基づき
前記傾きを付与するようにするのが好適である。また、
前記テーブルをユーザが編集可能としてもよい。
【0019】
【発明の実施の形態】以下、本発明の実施の形態を説明
する。以下では、日本語の歌唱音声を合成するものとし
て説明する。一般に日本語の場合、出現する音素は、
子音と母音の組み合わせ、母音のみ、有声子音(鼻
音、半母音)のみ、のいずれかとなる。ただし、有声
子音のみの場合は、有声子音の歌唱開始タイミングが
母音のみの場合と類似しているので、以下に説明する本
実施の形態では、はとみなしてと同一の処理を受
けるものとする。
【0020】〔第1の実施の形態〕図1は、この発明の
実施の形態に係る歌唱合成装置の全体構成を示すもので
ある。MIDI(Musical Instrument Digital Inte
rface)機器39と、このMIDI機器39にMIDI
インターフェース30を介して接続されたコンピュータ
システムCSと、音源回路28と、サウンドシステム3
8とから構成されている。コンピュータシステムCS
は、CPU12、ROM14,RAM16、検出回路2
0、操作子群34、表示回路22、表示器36、外部記
憶装置24、タイマ26等を備えている。
【0021】CPU12は、コンピュータシステムCS
全体の制御を司る部分である。ROM14は、楽音発
生、歌唱合成等の各種プログラムを記憶している。CP
U12は、これらのプログラムをROM14から適宜読
み込んで各種処理を実行する。RAM16は、CPU1
2の各種処理に際して作業領域を提供するための記憶部
であり、例えばMIDI機器39から読み込まれた演奏
データを書き込むための受信バッファとして機能する。
【0022】検出回路20は、パネル等の操作子群34
からの操作情報を検出するものであり、また、表示回路
22は、表示器36の表示動作を制御することにより各
種の表示を可能にするものである。外部記憶装置24
は、ハードディスク、フロッピー(登録商標)ディス
ク、CD、DVD、光磁気ディスクドライブなどの記録
媒体をドライブするためコンピュータシステムCSに外
付けされた記憶装置であり、その記憶内容をRAM16
へ転送する他、ハードディスクなどの書き込み可能な記
録媒体の場合には、逆にRAM16からデータの転送を
受けることもできる。この外部記憶装置は、ROM14
の代わりにプログラム記録手段として使用することも出
来る。
【0023】タイマ26は、テンポデータTMの指示す
るテンポに対応した周期でテンポクロック信号TCLを
発生するものである。テンポクロック信号TCLは、C
PU12に割込み命令信号として供給される。CPU1
2は、テンポクロック信号TCLに基づく割込み処理に
より歌唱合成を行う。テンポデータTMにより指示され
るテンポは、操作子群34を操作するなどにより変更す
ることができる。なお、テンポクロック信号TCLの周
期は、一例としては1ms程度である。
【0024】音源回路28は、多数の楽音発生チャンネ
ル及び多数の歌唱合成チャンネルを含んでいる。歌唱合
成チャンネルは、フォルマント合成方式により歌唱音声
を合成するようになっている。後述する歌唱合成処理で
は、歌唱合成チャンネルから歌唱音声信号が発生され
る。発生に係る楽音信号及び歌唱音声信号は、サウンド
システム38により音響に変換される。フォルマント合
成方式の代わりに、波形処理方式等の他の方式を用いて
もよい。
【0025】MIDIインターフェース30は、この歌
唱合成装置とは別体のMIDI機器39との間でMID
Iデータを送受信するためのインターフェースである。
【0026】次に、図2を用いて、上記の歌唱合成装置
の構成において、本実施の形態に係る歌唱合成処理を実
行する手順の概略を説明する。図2において、左側のブ
ロック40−48は歌唱合成処理の手順を示しており、
また、右側に示された歌唱合成DB14Aは、ROM1
4などにより構成され、MIDI機器39等により入力
された演奏データの内容に応じたデータ変換を行うため
の各種のテンプレートデータを記憶する部分を示す。歌
唱合成DB14Aは、例えば音韻に関するデータを記憶
する音韻DB14a、先行音韻から後続音韻への音韻遷
移に関する情報を記憶する音韻遷移DB14b、状態遷
移(アタック、リリース等)に関するデータを記憶する
状態遷移DB14c、ビブラート情報を記憶するビブラ
ートDB14d等を備えている。
【0027】また、複数の矢印は、どのようなデータが
どの手順において歌唱合成DBから読み出されるのかを
示している。
【0028】この歌唱合成処理の手順(ステップ40−
48)を、順に説明する。最初に、演奏データがMID
I機器39より入力され、受信バッファとしてのRAM
16がこれを受信する(ステップ40)。演奏データの
内容については後述する。図3に示すように、演奏デー
タS1−S3は、実歌唱時刻T1、T2、T3よりも早い
時刻t1、t2、t3において送信される。
【0029】続くステップ42では、歌唱合成スコアを
形成する。歌唱合成スコアとは、受信された演奏データ
を、音韻、音高などのパラメータごとのトラックにより
時系列的に表現したデータ配列である。歌唱合成スコア
の内容については後述する。歌唱合成スコアを形成する
には、歌唱合成DB中の音韻DB14a、音韻遷移DB
14b等より、受信した演奏データに対応した音韻デー
タ、音韻遷移時間長データ等を獲得する。ここで音韻遷
移時間長データとは、複数の音韻間の遷移時間の長さを
示すデータである。
【0030】ステップ44では、歌唱合成エンジンによ
る歌唱合成を行う。このステップでは、まず、音源制御
情報を音韻DB14a、音韻遷移DB14b、状態遷移
DB14c及びビブラートDB14dから獲得する。こ
こで音源制御情報とは、音源回路28において所望の歌
唱音声を合成するために必要なフォルマント周波数の情
報、及びフォルマントレベルの制御パラメータの情報等
を含むものである。そして、この獲得した音源制御情報
と、歌唱合成スコア、演奏データに基づき、歌唱合成を
行い、歌唱順に歌唱音声信号を出力する。
【0031】この歌唱音声信号は音源回路28によりD
A変換され(ステップ46)、サウンドシステム38に
おいて歌唱音声として出力される(ステップ48)。こ
のとき、歌唱音声SS1の子音「s」を実歌唱時刻T1
より早い時刻T11に発生開始させ、SS1の母音
「a」を実歌唱時刻T1に発生開始させる。また、歌唱
音声SS3の子音「t」を実歌唱時刻T3より早い時刻
T31に発生開始させ、その母音「a」を実歌唱時刻T
3に発生開始させる。また、歌唱音声SS2の母音
「i」は実歌唱時刻T2に発生開始させる。このよう
に、歌唱音声が子音と母音の組合せからなる場合、その
子音を実歌唱時刻に先行させて発音させる。これによ
り、歌唱音声が伴奏に対し遅れて発音される感じがなく
なり、自然な歌唱音声が発生される。
【0032】次に、ステップ40で入力される演奏デー
タ内に含まれる情報の内容を図4を用いて説明する。演
奏データは、1音節を歌唱するために必要な演奏情報、
具体的には、ノート情報、歌唱音速さ情報、音韻トラッ
ク情報等を含んでいる。ノート情報には、実歌唱開始時
刻を表わすノートオン(Note on)情報、実歌唱長を表
わすデュレーション(Duration)情報、歌唱音高を表わ
す歌唱音高情報(Note、ピッチ(pitch)情報とも呼ば
れる)等が含まれる。音韻トラック情報には、後述する
音韻トラックTpを形成するための情報、例えば、歌唱
音韻を表わす音韻(PhUState)情報、歌唱子音伸縮率を
表わす子音修正(Consonant Modification)情報等が
含まれる。上述の通り、本実施の形態では、有声子音
(鼻音、半母音)のみからなる音韻を、母音のみから
なる音韻とみなして処理を行う。音韻(PhUState)情報
としては、母音のみからなる音韻の場合には、PhUSta
te=Vowelという情報が、子音と母音の組合せからなる
音韻の場合には、PhUState =Consonant_Vowel という
情報が与えられるものとする。演奏データには、この
他、遷移トラックTrを形成するための遷移トラック情
報、ビブラートトラックTbを形成するためのビブラー
トトラック情報等を含めることもできる。
【0033】次に、図5を参照して、音韻DB14aの
記憶情報について説明する。音韻DB14aには、図5
に示すように、音韻(PhU)と音高(Pitch)の組合せご
とに異なる値の音源制御情報Control11、Control12・・
・が記憶されており、処理中の演奏データ(以下、現演
奏データという)に合致するものが適宜読み出されるよ
うになっている。例えば、現演奏データの音韻がaで、
音高(ピッチ)がP11の場合には、音源制御情報とし
てControl11が読み出され、後述する音韻トラックTp
の形成に使用される。
【0034】次に、図6を参照して、音韻遷移DB14
bの記憶情報について説明する。音韻遷移DB14bに
は、例えば図6に示すように、先行音韻PhU1、後続音
韻PhU2及び音高Pitchの組合せに対応して、異なる音韻
遷移時間長(Duration11、12・・・)及び音源制御情報(C
ontrol11、Control12・・・)が記憶されている。例えば、
先行音韻がa、後続音韻がi、音高pitchがP11の場合に
は、音韻遷移時間長としてそれぞれDuration11、Contro
l11という値が読み出される。なお、図6中のPhU2の欄
において、Mとは母音の「う」を、Aspirationとは呼気
音を表わしている。
【0035】次に、図7を参照して、状態遷移DB14
cの記憶内容を説明する。状態遷移DB14cは、遷移
状態、状態タイプ、音韻、音高の組合せに対応して、異
なる状態遷移時間長、音源制御情報が記憶されている。
遷移状態としては、アタック(Attack)、ノート遷移
(Note Transition、以下「NtN」と称す)及びリリー
ス(Release)があり、状態タイプとしては、「Norma
l」「Sexy」「Sharp」「Soft」等がある。状態遷移時間
長とは、これらアタック、ノート遷移又はリリース遷移
状態の継続時間の長さを示すものである。このDB14
cの内容は、後述する歌唱合成スコアの遷移トラックT
rの形成に使用される。
【0036】次に、図8を参照して、ビブラートDB1
4dの記憶内容について説明する。ビブラートトラック
14dでは、「Normal」「Sexy」「Enka」等の各ビブラ
ートタイプ、音韻、音高の組合せごとに異なる音源制御
情報が記憶されており、後述する歌唱合成スコアのビブ
ラートトラックTbの形成に使用される。
【0037】図9は、ステップ42において形成される
歌唱合成スコアの形成例、及びステップ44における歌
唱音声の合成例を示すものである。歌唱合成スコアSC
は、RAM16内に形成されるもので、音韻トラックT
p、音高トラックTiを備えている。この他、図9に示
すように、状態の遷移データを有する遷移トラックTr
と、ビブラート情報を有するビブラートトラックTbな
どを備える。
【0038】例えば、・・・・「さ(sa):C3:T
1・・・」「い(i):D3:T2・・・」「た(t
a):E3:t3・・・」を演奏データとして入力する
ものとすると、音韻トラックTpには、図9、10に示
すように、音韻の種類を示す音韻情報として、Sil、Sil
_s、s_a、a・・・a_Sil、Sil等のアイテムが保持され
る。Silは無音を、Sil_sは無音から子音sへの音素遷
移を示している。図10に示すように、各音韻情報Si
l、Sil_s、s_a、a・・・は、開始時刻情報(Begin Tim
e)、継続時間情報(Duration)、音韻情報(PhU)から
構成される。ただし、音韻遷移部を示すアイテムは、音
韻情報として、先行音韻情報(PhU1)と後続音韻情報
(PhU2)との2種類を有する。
【0039】音高トラックTiには、図9に示すような
音高変化曲線90が記憶される。音高変化曲線は、演奏
データからの歌唱音高情報(C3,D3,E3等)、に
基づき形成される定常部91と、後述するピッチモデル
により形成される傾き部92とを備えている。また、歌
唱合成スコアSCには、この音韻トラックTp、音高ト
ラックTiの他、図9に示すように、状態の遷移データ
を有する遷移トラックTrと、ビブラート情報を有する
ビブラートトラックTbなどを備える。
【0040】次に、図2に示す各ステップ40−48の
詳細な処理内容を説明する。〔ステップ40(演奏デー
タ入力)〕まず、ステップ40における演奏データ入力
の詳細な手順を図11により説明する。
【0041】ステップ40−1では初期化処理を行う。
ここでは、RAM16内の受信回数カウンタNをゼロに
セットする。
【0042】ステップ40−2では、n=N番目の演奏
データを受信し、受信バッファとしてのRAM16内に
書き込む。ステップ40−3では、このn=N番目の演
奏データがデータエンド(データの終端)であるか否か
が判定される。データエンドである場合(YES)に
は、ステップ40−6に移動して終端処理を実行する。
データエンドでない場合(NO)には、ステップ40−
4に移行する。
【0043】ステップ40−4では、受信されたn=N
番目の演奏データに基づいて歌唱合成スコアを形成す
る。ステップ40−5では、カウンタNの値を1増加さ
せてN+1としてステップ40−2に戻り、次の演奏デ
ータを受信する。このようにして演奏データがデータエ
ンドとなるまで繰り返すことにより、すべての演奏デー
タについての歌唱合成スコアSCがRAM16の受信バ
ッファに入力される。
【0044】[ステップ42(歌唱合成スコア形成)]
次に、ステップ42の歌唱合成スコアの形成手順の詳細
を図12を用いて説明する。まず、ステップ42−1
で、CPU12がRAM16の受信バッファより演奏デ
ータを受信する。ステップ42−2では、受信された演
奏データのうち、歌唱合成スコア形成に必要なものを抽
出する。ステップ42−3では、管理データを作成す
る。管理データは、後続の演奏データを処理する際、先
行する演奏データの内容に合わせたデータ処理をするた
めに使用される各種のデータであり、後述するように、
例えば音韻状態(PhUState)、音素(phoneme)、音高
(pitch)、現ノートオン(Current Note On)、現ノ
ートデュレーション(Current NoteDuration)、フル
デュレーション(Full Duration)、イベント状態(Ev
entState)などの情報を含んでいる。情報の内容、管理
データの作成の詳細な手順については次で述べる。
【0045】次に、ステップ42−4では、演奏デー
タ、前ステップで作成された管理データ、及び先行演奏
データについて形成され保存された歌唱合成スコアに基
づいて音韻トラックTpを形成する。続くステップ42
−5では、演奏データ、前ステップで作成された管理デ
ータ、及び先行演奏データについて形成され保存された
歌唱合成スコアに基づいて音高トラックTiを形成す
る。同様にして、続くステップ42−6、7では、演奏
データ、前ステップで作成された管理データ、及び先行
演奏データについて形成され保存された歌唱合成スコア
に基づいて遷移トラックTr、ビブラートトラックTb
を形成する。そして、ステップ42−8では、後続の演
奏データのためのスコアデータを形成し保存する。これ
を全演奏データについて完了させると、歌唱合成スコア
が完成する。
【0046】〔ステップ42−3(管理データ作成)〕
次に、図12のステップ42−3に示す管理データの作
成の詳細な手順を、図13に基づいて説明する。最初
に、ステップ42−3.1において、演奏データを受信
し、続くステップ42−3.2においてこの演奏データ
に含まれる音韻の特性を分析する。具体的には、演奏デ
ータに含まれる音韻が子音+母音か、又は母音のみ
(鼻音のみ)かを分析し、その結果PhUStateを保存す
る。の場合はPhUState=Consonant_Vowelと、の場
合はPhUState=Vowelとする。
【0047】次に、ステップ42−3.3で、演奏デー
タ中の音高を分析し、その結果Pitchを保存する。続く
ステップ42−3.4で、演奏データの速さを分析し、
その結果Velocityを保存する。続くステップ42−3.
5で、演奏データに含まれる実歌唱時刻を分析し、得ら
れた実歌唱開始時刻Current Note Onを保存する(図1
4参照)。このとき、図14に示すように、乱数等によ
って与えられるΔtだけCurrent Note Onを更新するこ
とで、歌唱開始時刻にゆらぎを与えることができる。
【0048】また、実歌唱長を現ノートデュレーション
(Current Note Duration)とし、実歌唱開始時刻から
実歌唱長だけ経過した時間を、現ノートオフCurrent N
ote Offとする(図14参照)。
【0049】続くステップ42−3.6では、管理デー
タに基づき現演奏データの実歌唱時刻を分析する。ま
ず、先行演奏データの並び替えを済ませた受信ナンバー
Previous Event Number、先行演奏データについて形
成され保存された歌唱合成スコアのデータPrevious Sco
re Data、先行演奏データの実歌唱終了時刻を表わす先
行ノートオフ情報等を取得する。これらの情報に基づ
き、先行演奏データ、現演奏データの接続状況を分析
し、その結果Event Stateを保存する。図14(a)に示
すcase1のように、無音が挿入されず先行演奏データと
現演奏データが連続する場合にはEvent State=Transit
ionとする。一方、図14(b)のcase2のように、先
行演奏データと現演奏データとの間に無音が挿入される
場合には、Event State=Attackとする。
【0050】次に、歌唱合成スコアSCを構成する各ト
ラックを形成するための詳細な手順を説明する。ただ
し、状態遷移トラックTr、ビブラートトラックTbの
形成処理については、本発明との関連が薄いため、説明
を省略し、音韻トラックTp、音高トラックTiの形成
処理のみについて説明する。
【0051】[ステップ42−4(音韻トラックTp形
成)]次に、図12のステップ42−4に示す音韻トラ
ックTpの形成処理の詳細な手順を、図15に示すフロ
ーチャートにより説明する。最初に、ステップ42−
4.1において、演奏データ、管理データ、歌唱合成ス
コアを受信する。続くステップ42−4.2では、管理
データに基づき、音韻遷移DB14bより音韻遷移時間
長データを獲得する。この音韻遷移時間長データの獲得
方法の詳細手順については次項で述べる。
【0052】次に、ステップ42−4.3において、管
理データ中のEvent StateがAttackであるか否かが判定
される。判定が肯定的(YES)である場合には、ステッ
プ44−4.4のSilence歌唱長算出の手順に移行す
る。Silence歌唱長の意義については後述する。一方、
判定が否定的(NO)、すなわち、EventState=Transiti
onである場合には、ステップ44−4.5の先行Vowel
歌唱長算出の手順に移行する。先行Vowel歌唱長の意義
については後述する。
【0053】ステップ44−4.4又は5の処理が完了
すると、ステップ42−4.6のVowel歌唱長を算出す
る処理に移行する。詳細は後述する。
【0054】次に、上述したステップ42−4.2(音
韻遷移時間長の獲得)の詳細な手順を図16に示すフロ
ーチャートにより説明する。最初に、ステップ4−2.
1で管理データ及び歌唱合成スコアのデータを受信す
る。続くステップ4−2.2で、RAM16に記憶され
ている全ての遷移時間長データ(後述のステップ4−
2.6、7、9〜12で獲得される音韻遷移時間長)を
初期化する。
【0055】次に、ステップ4−2.3では、管理デー
タに基づいてV_Sil(母音から無音へ)の音韻遷移時間
長をDB14bから獲得する。この手順は、一般に日本
語が母音で終わることから必要となるものである。一例
として、管理データの音韻が母音「a」であり、その音
高がP1であったとすると、音韻遷移DB14bから
は、「a_Sil」と「P1」に対応した音韻遷移時間長が獲
得される。
【0056】次に、ステップ4−2.4において、管理
データに基づいてEventState=Attackであるか否かが判
定される。判定が肯定的(YES)であれば、ステップ
4−2.5へ移行し、否定的(NO)であればステップ
4−2.8へ移行する。ステップ4−2.5では、管理
データに基づいて、PhUState=Consonant_Vowelか否か
が判定される。この判定結果が肯定的(YES)であれ
ば、ステップ4−2.6に移行し、否定的(NO)であ
ればステップ4−2.11へ移行する。同様にステップ
4−2.8では、管理データに基づいて、PhUState=Co
nsonant_Vowelか否かが判定される。この判定結果が肯
定的(YES)であれば、ステップ4−2.9に移行
し、否定的(NO)であればステップ4−2.12へ移
行する。
【0057】要するに、このステップ4−2.4、4−
2.5、4−2.8では、受信された管理データに係る
音韻が、 (a)その音韻が立ち上がり部分(attack)にあり、その
音韻が子音と母音の組合せである場合 (b)その音韻が立ち上がり部分(attack)にあり、その
音韻が母音のみ(又は有声子音のみ)である場合 (c)その音韻が遷移部分(transition)にあり、その音
韻が子音と母音の組合せである場合 (d)その音韻が遷移部分(transition)にあり、その音
韻が母音である場合 の4つの場合に分け、それぞれに必要なデータを獲得さ
せるようにしているものである。
【0058】上記(a)の場合には、ステップ4−2.
6へ移行する。ステップ4−2.6では、管理データに
基づいてDB14bから無音から子音への音韻遷移時間
長Silence_Consonantを獲得する。獲得の具体的な方法
は、ステップ4−2.3における方法と同様である。続
くステップ4−2.7では、管理データに基づいてDB
14bから子音から母音への音韻遷移時間長Consonant_
Vowelを獲得する。獲得の具体的な方法は、ステップ4
−2.3における方法と同様である。これにより(a)
の場合の音韻遷移長データの獲得が完了する。
【0059】上記(b)の場合には、ステップ4−2.
11へ移行して、管理データに基づいて、無音から母音
への音韻遷移時間長Silence_Vowelを獲得する。獲得の
具体的な方法は、ステップ4−2.3における方法と同
様である。上記(c)の場合には、ステップ4−2.9
に移行する。一般に日本語の場合、遷移部分の直前の音
素は母音であるので、ステップ4−2.9では、管理デ
ータ及び歌唱合成スコアに基づいて、先行母音から子音
への音韻遷移長pVowel_Consonantを獲得する。獲得の
具体的な方法は、ステップ4−2.3における方法と同
様である。続いて、ステップ4−2.10において、管
理データ及び子音データに基づいて、子音から母音への
音韻遷移長Consonant_Vowelを獲得して、必要なデータ
の獲得が完了する。
【0060】上記(d)の場合には、ステップ4.2−
12に移行し、管理データに基づいて、先行母音から母
音への音韻遷移時間長pVowel_Vowelを獲得する。獲得の
具体的な方法は、ステップ4−2.3における方法と同
様である。
【0061】次に、図15に示すステップ42−4.4
のSilence歌唱長を算出する手法を図17〜18により
説明する。図17はSilence歌唱長の算出の手順を示す
フローチャートであり、図18は、Silence歌唱長の概
念を説明するものである。Silence歌唱長とは、図18
に示すように、EventState=Attackにおいて、無音部の
一部をなす部分の長さを示している。すなわち、無音時
間は、 先行母音から無音への音韻遷移時間長の無音部 Silence歌唱長 無音から子音又は母音への音韻遷移時間長の無音部 の3つの合計からなる。
【0062】従って、Silence歌唱長は、演奏データ、
管理データ、歌唱合成スコアから得られる無音時間の長
さ、及び上記、の情報に基づき演算することができ
る。図18に示すように、Silence歌唱長の大きさは、
接続される先行音韻と後続音韻の音韻の種類によって異
なる。
【0063】次に、Silence歌唱長の算出の手順を図1
7に基づいて説明する。最初に、ステップ4.4−1に
おいて演奏データ、管理データ、歌唱合成スコアのデー
タを受信する。続くステップ4.4−2では、管理デー
タの音韻状態PhUStateがConsonant_Vowelか否かが判定
される。判定結果が肯定的(YES)であればステップ
4.4−3に移行する。判定結果が否定的(NO)であ
れば、ステップ4.4−3はスキップしてステップ4.
4−4に移行する。
【0064】ステップ4.4−3では、子音歌唱時間を
算出する。子音歌唱時間とは、この後続の音韻中に子音
が含まれる場合において、その子音の発音が継続される
時間を意味する。この子音歌唱時間は、後続音韻の種類
によって異なる。これを図18に基づいて説明する。図
18(A)は、先行母音(「あ」)−無音−子音「さ」と
発音させる場合の音韻トラックTpの状態を、同図
(B)は、先行母音(「あ」)−無音−子音「ぱ」と発音
させる場合の音韻トラックTpの状態を、同図(C)
は、先行母音(「あ」)−無音−後続母音「い」と発音さ
せる場合の音韻トラックTpの状態を示している。図1
8からわかるように、(B)の場合は子音歌唱時間が短
く、(C)の場合には当然ながら子音歌唱時間は無い。
従って、後続音韻が母音のみの場合には、ステップ4.
4−2によりステップ4.4−3がスキップされる。
【0065】次に、ステップ4.4−4において、Sile
nce歌唱長の大きさを算出する。なお、子音歌唱時間
は、演奏データに含まれる歌唱子音伸縮率(Consonant
Modulation)によって変化する。図19は、このこと
を説明するための図である。図19(A)は、歌唱子音
伸縮率が1より大きい場合である。この場合、無音から
子音への音韻遷移Sil_Cの子音長と、子音から母音への
音韻遷移C_Vの子音長との和に歌唱子音伸縮率を掛け合
わせたものをConsonant歌唱長として加算することによ
り、子音歌唱時間を伸長する。
【0066】一方、図19(B)は、歌唱子音伸縮率が
1より小さい場合である。この場合、Sil_Cの子音長と、
子音から母音への音韻遷移C_Vの子音長との双方に歌唱
子音伸縮率を掛け合わせることにより、子音歌唱時間を
短縮する。
【0067】〔ステップ42−4−5(先行Vowel歌唱
長算出)〕次に、ステップ42−4−5における先行Vo
wel歌唱長の算出の手法を、図20及び図21を用いて
詳細に説明する。この先行Vowel歌唱長とは、先行音韻
と後続音韻が無音を挟まず連続している状態(EventSta
te=Transition)の場合において、その先行音韻の母音
部分の歌唱時間(以下、先行母音歌唱時間と称す)を伸
縮するために設定される時間の長さを意味する。
【0068】先行音韻と後続音韻との間の時間から、後
続音韻の子音部分が歌唱される時間(以下、子音歌唱時
間と称す)を差し引いた部分が先行母音歌唱時間である
(図21参照)。従って、設定されるべき先行母音歌唱
時間の長さは、子音歌唱時間に基づいて決定される。な
お、本実施の形態では、この先行母音歌唱時間の長さの
決定は、この先行母音歌唱時間の一部としての先行Vowe
l歌唱長を伸縮することにより行われる。
【0069】例えば、図21(A)は、先行音韻pV
「a」に続いて、後続音韻として「sa」(子音と母音
の組合せ)が発音された場合を、同(B)は先行音韻p
V「a」に続いて、後続音韻「pa」(子音と母音の組
合せ)が発音された場合を、同(C)は先行音韻pV
「a」に続いて、後続音韻「i」(母音のみ)が発音さ
れた場合を示している。前2者の場合には、子音歌唱時
間が存在するが、(A)のそれのほうが(B)のそれよ
りも長い。このため、先行母音歌唱時間も、(A)の場
合の方が(B)の場合に比して短くなる。(C)の場合
には、子音歌唱時間が存在しないので、先行母音歌唱時
間は最大となる。
【0070】なお、子音歌唱時間は、演奏データに含ま
れる歌唱子音伸縮率(Consonant Modulation)によっ
て変化する。図22は、このことを説明するための図で
ある。図22(A)は、歌唱子音伸縮率が1より大きい
場合である。この場合、先行音韻から後続音韻(この図
では子音と母音の組合せ)への音韻遷移pV_Cの子音長
と、子音から母音への音韻遷移C_Vの子音長との和に歌
唱子音伸縮率を掛け合わせたものをConsonant歌唱長と
して加算することにより、子音歌唱時間を伸長する。一
方、図22(B)は、歌唱子音伸縮率が1より小さい場
合である。この場合、pV_Cの子音長と、子音から母音へ
の音韻遷移C_Vの子音長との双方に歌唱子音伸縮率を掛
け合わせることにより、子音歌唱時間を短縮する。
【0071】ステップ42−4.6のVowel歌唱長算出
の処理を図23及び図24を用いて説明する。Vowel歌
唱長は、「次の演奏データとの間に無音が挿入される」
という仮定の下、仮定が真実であった場合に後続音韻の
母音の後に接続され、真実でなかった場合には破棄され
るものである。Vowel歌唱長を算出するには、まず、演
奏データ、管理データ、歌唱合成スコアのデータを受信
し(ステップ4.6−1)、これらの受信データに基づ
いてVowel歌唱長を算出する(ステップ4.6−2)。
この算出方法を図24により説明する。最初に、現演奏
データ(X_V、なお、Xは無音、子音、先行母音のいずれ
でも可)と次の演奏データ(図示せず)との間に無音
(Sil)が挿入される、と仮定する。
【0072】この仮定の下では、X_Vから無音Silまでの
間の母音Vの歌唱時間(母音歌唱時間)は、X_Vの母音
Vの歌唱時間長、Vowel歌唱長、V_Silの母音Vの歌唱
時間長の和となる。V_Sil内のVとSilの境界が実歌唱終
了時刻(Current Note Off)と一致させた後、これによ
り決定した母音歌唱時間に基づき、Vowel歌唱長が算出
される。
【0073】次の演奏データを受信したとき、現演奏デ
ータとの間の接続状態(EventState)が判明し、上記の
仮定が真実であったか否かが明らかになる。真実であっ
た場合(EventState=Attack)には、算出されたVowel
歌唱長は更新されずそのまま使用される。真実でなかっ
た場合(EventState=Transition)には、前述のステッ
プ4.5−4によって先行Vowel歌唱長が算出される。
【0074】〔ピッチモデル形成〕次に、ピッチモデル
を形成する手順について、図25〜41を用いて説明す
る。本実施の形態においてピッチモデルとは、音高トラ
ックTiにおいて、音高の不連続な変化を連続的な変化
に変換するための連続曲線モデルのことである。音韻の
変化の前後においては音高変化曲線が不連続となってい
るので、この音韻変化点においてピッチモデルを音高ト
ラックTiに付与することにより、音高の変化が滑らか
となり、合成される歌唱音声の自然性が高められる。
【0075】本実施の形態のピッチモデルは、その付与
される位置との関係により、立ち上がり部ピッチモデ
ル、遷移部ピッチモデル、立下り部ピッチモデルの3つ
に大別される。
【0076】立ち上がり部ピッチモデルとは、音韻が無
音から有声音に遷移するAttack部分において、音高をあ
る値から該有声音の音高(以下、これをカレントピッチ
(Current Pitch)という)へ緩やかに移行させる曲線
であり、基本的には正の傾きを有する。
【0077】遷移部ピッチモデルとは、音韻がある有声
音から別の有声音へ遷移するtransition部分において、
音高を先行音韻の音高から後続音韻の音高へと緩やかに
移行させる曲線モデルである。
【0078】立下がり部ピッチモデルとは、音韻がある
有声音から無音に遷移するrelease部分において、音高
をカレントピッチからある値へ緩やかに移行させる曲線
である。
【0079】図25は、このピッチモデルの形成手順を
示すフローチャートである。演奏データ、管理データ及
び歌唱合成スコアを取得した後、ステップ50におい
て、その取得されたデータ部分のEventState=Attackで
あるか否かが判断される。判定が肯定的(YES)であれ
ばステップ51へ、否定的(NO)であればステップ52
へ移行する。ステップ51では、立ち上がり部ピッチモ
デルを算出する。ステップ52では、遷移部ピッチモデ
ルを算出する。
【0080】このステップ51又は52が終了すると、
次にステップ53において立下り部ピッチモデルを形成
する。なお、処理中の現演奏データに係る音韻と、後続
の演奏データに係る音韻との間に無音が存在しない場合
には、この立下り部ピッチモデルは不要となり破棄され
る。
【0081】ステップ51−53が完了すると、ステッ
プ54により、作成されたピッチモデルが音高トラック
Tiに記憶されている音高変化曲線に付与され、これに
より音韻の変化する時点における音高の変化が自然なも
のとなる。
【0082】以下、ステップ51、52,53での処理
の詳細を説明する。
【0083】〔ステップ51(立ち上がり部ピッチモデ
ル形成)〕このステップ51では、無音(Sil)に続く
音素が、無声子音か、有声子音か、母音のみか、3音素
連鎖かにより、ピッチモデルを付与する位置を変化させ
ている。これを図26−29により説明する。ここで、
図26−29において、103は音韻データ列を示して
おり、Silは無音、Cは子音、Vは母音を表わしている。S
il、C、Vを囲む実線は音韻の境界を、点線は音素の境界
を示している。例えば、左から2番目のSilと左から3番
目のCとは、実線の長方形で囲われ、1つの音韻遷移
(無音から無声子音への遷移)を構成していることを示
しており、また、SilとCの間の点線は、無音と無声子音
の境界を示している。
【0084】図26は、無音から無声子音と母音の組合
せ(例:sa)に遷移する場合に付与される立ち上がり
部ピッチモデルの例である。この場合、無声子音C_Vの
子音部Cが終了した時点をピッチモデルの始点とし、所
定の傾きを付与してカレントピッチへ接続させる。な
お、ピッチモデルには、その始端部と終端部にそれぞれ
オーバーシュート部101、102が付加されている。
オーバーシュート部101、102の高さはvalue1、va
lue2により規定される。また、オーバーシュート部1
01,102の幅は、それぞれDuration1、Duration2に
より規定される。また、オーバーシュート部102の始
端部からオーバーシュート部101の始端部までの長さ
をSlope Durationと称する。この点は、遷移部ピッチ
モデル、立下り部ピッチモデルでも同様である。
【0085】図27は、無音から有声子音と母音の組合
せ(例:ga)に遷移する場合に付与される立ち上がり
部ピッチモデルの例である。この場合、無声から有声子
音への遷移部Sil_Cの子音部Cの発音が開始された時点
をピッチモデルの始点とし、所定の傾きを付与してカレ
ントピッチへ接続させる。
【0086】図28は無音から母音(例:a)に遷移す
る場合に付与される立ち上がり部ピッチモデルの例であ
る。この場合、母音V(例えばa)の発音が開始された
時点をピッチモデルの始点とし、所定の傾きを付与して
カレントピッチへ接続させる
【0087】図29は無音Silから3音素連鎖Sil_CVに
遷移する場合に付与される立ち上がり部ピッチモデルの
例である。この場合には、オーバーシュート部102の
始端部を3音素連鎖のSilとCVの境界位置に合わせ、
オーバーシュート部101の始端部を3音素連鎖の終端
部に合わせる。
【0088】このように、本実施の形態では、音韻が変
化する時点において、前後の音韻がどのように変化する
かによって、ピッチモデルを付与する位置を変化させて
いる。これにより、合成される歌唱音声の自然性が高め
られる。
【0089】また、このステップ51では、カレントピ
ッチの大きさにより、付与するピッチモデルの形状を変
化させている。基本的には、カレントピッチが小さい場
合には緩いカーブのピッチモデルを、カレントピッチが
大きい場合には比較的急なカーブのピッチモデルを付与
するようにする。このため、例えば、図30に示すよう
に、ピッチモデル付与用のパラメータ群を記憶したテー
ブルを、異なるカレントピッチごとに予めROM14等
に保存しておく。すなわち、このパラメータ群は、図3
0に示すように、現演奏データの音高(カレントピッチ
(Current Pitch))がP0(最小),・・・PN(最
大)と異なる毎に異なる値のValue1、Value2、Duration
1、Duration2、Slope Durationを保持している。
【0090】また、Slope Durationの部分を所定の間隔
(例:0.00、0.10、0.25、・・・1.00)で分割し、各分割
点での縦軸方向の大きさをPositionで示している。この
Positionも、カレントピッチの値が異なる毎に異なる値
を与えられている。Positionの値P0(0),P0
(1)・・・P0(j)(又はPN(0),PN(1),・
・・PN(j))は、図31に示すように、各分割点にお
ける音高と、カレントピッチP0(又はPN)との差を
示している。
【0091】なお、図30に示すパラメータを、外部記
憶装置24等に記憶させておくこともできる。例えば、
ユーザが任意に編集したテ−ブルをCD−ROM等に記
憶させて、これを外部記憶装置24から読み込むことに
よりピッチモデルを形成するようにしてもよい。また、
ユーザが編集したテーブルをMIDIインターフェース
30により、外部から取得してもよい。
【0092】次に、このステップ51の具体的な手順を
説明する。まず、現演奏データの音韻状態PhUStateに基
づき、ピッチモデルの付与を開始する位置を決定する。
次に、現演奏データに基づきカレントピッチのデータを
読み出して、このカレントピッチに合致するパラメータ
をROM14に記憶されたテーブル(図30)から読み
出す。
【0093】カレントピッチの大きさがROM14に記
憶されたテーブル(図30)の最大値PNよりも大きい
場合には、カレントピッチはPNであるとみなして、対
応するパラメータを読み出してピッチモデルを作成す
る。逆に、カレントピッチの大きさがテーブル(図3
0)の最小値P0よりも小さい場合には、カレントピッ
チはP0であるとみなして対応するパラメータを読出
し、ピッチモデルを作成する。
【0094】また、カレントピッチの大きさが、テーブ
ル(図30)の飛び飛びの値PMとPM−1との間の大きさ
である場合には、これらPMに関するパラメータと、PM
−1に関するパラメータを補完して新しいパラメータを
生成した後、生成したパラメータに基づいてピッチモデ
ルを作成する。
【0095】こうしてピッチモデルの形状が決定する
と、このピッチモデルをすでに決定された開始位置に当
てはめ、これにより音高変化曲線になだらかな変化を加
える。
【0096】〔ステップ52(遷移部ピッチモデル形
成)〕次に、ステップ52の遷移部ピッチモデルの形成
の具体的な処理を説明する。ステップ51の立ち上がり
部ピッチモデルの形成では、現演奏データのカレントピ
ッチのみに基づきピッチモデルを決定していた。これに
対し、このステップ52では、遷移部に先行する先行演
奏データの音高(Previous Pitch)と、後続の現演奏
データの音高(Current Pitch)との差に基づき、ピッ
チモデルの形成を行う。
【0097】また、このステップ52でも、現演奏デー
タの音韻の種類(無声子音、有声子音、母音のみ、3音
素連鎖など)に応じて、ピッチモデルの付与を開始する
位置を変化させている。例えば、現演奏データが無声子
音と母音の組合せである場合には、図32に示すよう
に、その無声子音の開始時間をピッチモデルの開始時間
とする。すなわち、オーバーシュート部102の終端部
が、無声子音の開始時間に合致するように、遷移部ピッ
チモデルの位置を合わせこむ。
【0098】また、現演奏データが有声子音と母音の組
合せである場合には、さらに当該有声子音部分の長さC_
V.Fromが十分な長さを有している場合(図33)と、十
分な長さを有していない場合(図34)とで処理を異な
らせている。前者の場合には、図33に示すようにオー
バーシュート部102の終端部を後続音韻(C_V)の子
音Cの開始位置に合わせるとともに、オーバーシュート
部101の始端部を後続音韻(C_V)の子音Cと母音V
の境界位置に合わせる。
【0099】一方、後者の場合には、図34に示すよう
に、オーバーシュート部101の始端部を後続音韻(C_
V)の子音Cと母音Vの境界位置に合わせるが、オーバ
ーシュート部102の終端部の位置は、ROM14に記
憶されたテ−ブル内のSlopeDurationに基づいて決定す
る。すなわち、オーバーシュート部101の始端部から
Slope Durationの長さの分だけ左方向へ移動した位置を
オーバーシュート部102の終端部とする。
【0100】また、現演奏データが母音のみからなる場
合には、図35に示すように、先行音韻の母音pVと後
続音韻の母音Vへの音韻遷移部のpVとVの境界位置を
オーバーシュート部101の始端部とする。オーバーシ
ュート部102の終端位置はテ−ブル内のSlope Durati
onにより決定する。
【0101】また、先行演奏データの音高と、後続の現
演奏データの音高とが同一である場合には、図36に示
すように、オーバーシュート部102のデータvalue
2、Duration2のデータのみを利用し、オーバーシュー
ト部102のみを付加する。図36において、(a)は
現演奏データが子音と母音の組合せである場合を示し、
(b)は現演奏データが母音のみである場合を示してい
るが、どちらも処理の内容は同一である。
【0102】また、3音素連鎖の場合には、図37に示
すように、オーバーシュート部101の始端部を3音素
連鎖(VCV)のVとCVの境界位置に合わせる。
【0103】図38は、上述のような遷移部ピッチモデ
ル付与用のパラメータ群を記憶したテーブルであり、図
30に示す立ち上がり部ピッチモデル付与用のパラメー
タ群を記憶したテーブルと同様、異なるカレントピッチ
ごとに予めROM14等に保存される。前述したよう
に、遷移部ピッチモデルは、前述のように先行演奏デー
タの音高Previous pitchとカレントピッチ(CurrentPi
tch)の差ΔNによって決定される。ΔNがROM14に
パラメータ群として保存されている最大値ΔNmaxよりも
大きい場合には、ΔN=ΔNmaxであるとみなして、対応
するパラメータを読み出してピッチモデルを作成する。
逆に、ΔNが最小値ΔNminよりも小さい場合には、ΔN=
ΔNminであるとみなして対応するパラメータを読出し、
ピッチモデルを作成する。
【0104】また、ΔNが、保存されている飛び飛びの
値ΔNmとΔNm-1との間の大きさである場合には、これ
らΔNmに関するパラメータと、ΔNm-1に関するパラメ
ータを補間して新しいパラメータを生成した後、生成し
たパラメータに基づいてピッチモデルを作成する。
【0105】遷移部ピッチモデル付与用のテーブルは
(図38)は、異なるΔN毎に異なる値のValue1、Value
2、Duration1、Duration2、Slope Durationを保持して
いる。また、Slope Durationの部分を所定の間隔
(例:0.00、0.10、0.25、・・・1.00)で分割し、各分割
点での縦軸方向の大きさをPositionで示している。この
Positionも、差ΔNの値が異なる毎に異なる値を与えら
れている。図39は、テーブル(図38)で与えられる
パラメータの意義を表わしている。
【0106】〔ステップ53(立下り部ピッチモデル形
成)〕このステップ53では、ステップ51とは逆に、
有声音から無音へ音韻が変化する場合の立下り部におけ
るピッチモデルを形成する。ステップ51の立ち上がり
ピッチモデル形成の場合には、無音に続く音韻の種類に
よりピッチモデルの形成位置を変化させていた。これに
対し、このステップ53では、母音と無音の接続のみを
考慮すれば十分である。一般に日本語の場合、無音の前
には母音が存在するためである。
【0107】図40は無音から母音(例:a)に遷移す
る場合に付与される立ち下がり部ピッチモデルの例であ
る。この場合、図40(a)に示すように、母音(例え
ばa)の発音が終了し無音部に移行した時点をピッチモ
デルの終点とし、所定の傾きを付与してカレントピッチ
へ接続させる。
【0108】このステップ53では、ステップ51と同
様に、カレントピッチの大きさにより、付与するピッチ
モデルの形状を変化させる。このため、図40(b)に
示すような立下がりピッチモデル付与用のパラメータ群
を記憶したテーブルを、異なるカレントピッチごとに予
めROM14等に保存しておく。内容は図30の立ち上
がり部ピッチモデル付与用のパラメータ群と同様であ
る。
【0109】次に、このステップ53の具体的な手順を
説明する。まず、現演奏データに基づきカレントピッチ
のデータを読み出して、このカレントピッチに合致する
パラメータをROM14から読み出す。カレントピッチ
の大きさがROM14に保存されている最大値PNより
も大きい場合には、カレントピッチはPNであるとみな
して、対応するパラメータを読み出してピッチモデルを
作成する。
【0110】逆に、カレントピッチの大きさが最小値P
0よりも小さい場合には、カレントピッチはP0である
とみなして対応するパラメータを読出し、ピッチモデル
を作成する。
【0111】また、カレントピッチの大きさが、保存さ
れている飛び飛びの値PMとPM−1との間の大きさである
場合には、これらPMに関するパラメータと、PM−1に
関するパラメータを補間して新しいパラメータを生成し
た後、生成したパラメータに基づいてピッチモデルを作
成する。こうしてピッチモデルの形状が決定すると、こ
のピッチモデルをすでに決定された開始位置に当ては
め、これにより音高変化曲線になだらかな変化を加え
る。
【0112】(第2の実施の形態)次に、本発明の第2
の実施の形態を図42、43により説明する。装置全体
の構成、処理の概略等は、図1,2等に示すのと同一で
ある。第1の実施の形態では、カレントピッチの大きさ
の変化に応じてピッチモデルの形状を変化させていた
が、この変形例では、カレントピッチに加えて歌唱音速
さ(MIDIのベロシティ(Velocity)と同義)を参照
してピッチモデルを形成してもよい。この第2の実施の
形態のピッチモデルを形成するためのパラメータ群の一
例を図42に示す。図42に示すように、この第2の実
施の形態では、カレントピッチ(P0、・・・PN)及び歌
唱音速さVelocity(Ve0、・・・Vej)の組合せによりValue
1、Value2、Duration1、Duration2、Slope Duration、P
osition等のパラメータの値を変化させている。
【0113】この第2の実施の形態によると、例えばカ
レントピッチが等しくても歌唱音速さVelocityが異なれ
ば、付与されるピッチモデルの形状が変化することにな
る。図43は、カレントピッチがP0で歌唱音速さVeloc
ityがVe0の場合において付与されるピッチモデル104
と、カレントピッチが同じくP0で歌唱音速さがVej(>
Ve0)の場合において付与されるピッチモデル105と
を示している。図43に示すように、歌唱音速さVeloci
tyが大きい場合には、より傾きの大きいピッチモデルが
付与される。これにより、より自然な歌唱音を合成する
ことができる。
【0114】(変形例)この発明は、上記した実施の形態
に限定されるものではなく、種々の改変形態で実施可能
なものである。例えば、次のような変更が可能である。 (1)上記実施の形態では、カレントピッチ又は歌唱音
速さに合致したパラメータ群をROM14から読出し、
この読出し値に基づきピッチモデルを形成していた。こ
のため、カレントピッチ等が等しい限り、付与されるピ
ッチモデルの形状は、歌唱位置の如何に拘わらず一定と
なる。この読出し値に、乱数等によって与えられる値を
加算して、ピッチモデルの形状にゆらぎを与えることが
できる。
【0115】例えば、図44に示すように、読み出され
たValue1、Value2、Duration1、Duration2、Slope Dur
ationの値V1-n、V2-n、D1-n、D2-n等に、乱数等によっ
て与えられる値ΔV1、ΔV2、ΔD1、ΔD2等を加算するこ
とにより、同じ条件の下でも異なる形状のピッチモデル
を形成させることができる。これにより、より自然な歌
唱合成が可能になる。
【0116】(2)上記した実施の形態では、歌唱合成
スコアの形成が完了した後、歌唱合成スコアに従って歌
唱音声を合成するようにしたが、歌唱合成スコアを形成
しつつ形成済みの歌唱合成スコアに従って歌唱音声を合
成するようにしてもよい。このためには、例えば演奏デ
ータの受信を割込み処理により優先的に行いつつ受信済
みの演奏データに基づいて歌唱合成スコアを形成すれば
よい。
【0117】(3)上記した実施の形態では、歌唱合成
スコアを音韻トラックTp、音高トラックTi、遷移ト
ラックTr、ビブラートトラックTbの4トラックで構
成したが、トラック数はこれに限られない。例えば、音
韻トラックTpに音高情報も記憶させて音韻トラックT
pと音高トラックTiとを合体させてもよいし、全ての
トラックを統合して1トラックとしてもよい。
【0118】
【発明の効果】以上説明したように、本発明によれば、
音韻変化時点における音高の変化曲線に適当な傾きを簡
易に付与することができ、自然な歌唱音声を簡易に合成
することができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態に係る歌唱合成シ
ステムの全体構成を示す。
【図2】 図1に示す歌唱合成システムにおける歌唱合
成手順の概略を示す。
【図3】 図2に示す歌唱合成の結果を時系列的に表現
したものである。
【図4】 演奏データに含まれる情報の内容を示す。
【図5】 音韻DB14a内に含まれる情報の内容を示
す。
【図6】 音韻遷移DB14b内の情報の内容を示す。
【図7】 状態遷移DB14c内の情報の内容を示す。
【図8】 ビブラートDB14d内の情報の内容を示
す。
【図9】 図1に示す歌唱合成システムにより形成され
る歌唱合成スコアSCの構成の一例を示す。
【図10】 歌唱合成スコアSC内の音韻トラックTp
のアイテムを説明する表である。
【図11】 図2に示すフローチャートのステップ40
の詳細な手順を示すフローチャートである。
【図12】 図2に示すフローチャートのステップ42
の詳細な手順を示すフローチャートである。
【図13】 図12に示すフローチャートのステップ4
2−3(管理データ作成)の詳細な手順を示すフローチ
ャートである。
【図14】 管理データ作成の方法を示す説明図であ
る。
【図15】 図12に示すフローチャートのステップ4
2−4(音韻トラックTpの形成)の詳細な手順を示す
フローチャートである。
【図16】 図15に示すフローチャートのステップ4
2−4.2(音韻遷移時間長獲得)の詳細な手順を示す
フローチャートである。
【図17】 図15に示すフローチャートのステップ4
2−4.4(Silence歌唱長算出)の詳細な手順を示す
フローチャートである。
【図18】 Silence歌唱長算出の手法を示す説明図で
ある。
【図19】 子音歌唱時間の決定方法を示す説明図であ
る。
【図20】 図15に示すフローチャートのステップ
42−4.5(先行Vowel歌唱長の算出)の詳細な手順
を示すフローチャートである。
【図21】 先行Vowel歌唱長の算出の手法を示す説明
図である。
【図22】 図20に示すフローチャートのステップ
4.5−3(子音歌唱時間算出)の手法を示す説明図で
ある。
【図23】 図15に示すフローチャートのステップ4
2−4.6(Vowel歌唱長の算出)の詳細な手順を示す
フローチャートである。
【図24】 Vowel歌唱長の算出の手法を説明するため
の説明図である。
【図25】 ピッチモデル形成の手順を示すフローチャ
ートである。
【図26】 立ち上がり部ピッチモデルを形成する手法
を示す説明図の1つである。
【図27】 立ち上がり部ピッチモデルを形成する手法
を示す説明図の1つである。
【図28】 立ち上がり部ピッチモデルを形成する手法
を示す説明図の1つである。
【図29】 立ち上がり部ピッチモデルを形成する手法
を示す説明図の1つである。
【図30】 立ち上がり部ピッチモデルを形成するため
のパラメータ群の構成を示す。
【図31】 図30に示す各パラメータの意義を説明す
る説明図である。
【図32】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図33】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図34】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図35】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図36】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図37】 遷移部ピッチモデルを形成する手法を示す
説明図の1つである。
【図38】 遷移部ピッチモデルを形成するためのパラ
メータ群を記憶したテーブルの構成を示す。
【図39】 図38に示す各パラメータの意義を説明す
る説明図である。
【図40】 立下りピッチモデルの説明図、及び立ち下
がり部ピッチモデルを形成するためのパラメータ群の構
成を示す表である。
【図41】 図40(b)の各パラメータの意義を説明
する説明図である。
【図42】 第2の実施の形態によるピッチモデル付与
のためのパラメータ群を記憶したテーブルの構成を示す
表である。
【図43】 第2の実施の形態によるピッチモデルの付
与のされかたを説明する説明図である。
【図44】 本実施の形態の変形例を示す。
【符号の説明】
10・・・バス、 12・・・CPU、 14・・・ROM、 1
4A・・・歌唱合成DB、16・・・RAM、20・・・検出回
路、 22・・・表示回路、 24・・・外部記憶装置、 2
6・・・タイマ、 28・・・音源回路、 30・・・MIDI
インターフェース、34・・・操作子群、 36・・・表示
器、 38・・・サウンドシステム、39・・・MIDI機
器、 Tp・・・音韻トラック、 Ti・・・音高トラック、
Tr・・・遷移トラック、 Tb・・・ビブラートトラッ
ク、101、102…オーバーシュート部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 シャウメ オルトラ スペイン バルセロナ パセイ デ シル コンバルーラシオ、8.08003 Fターム(参考) 5D045 AA07

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】 少なくとも音韻を表わす音韻情報と音高
    を表わす音高情報と歌唱開始時刻を表わす時刻情報とを
    含む演奏データを入力する入力ステップと、 前記音韻情報が切り替わる音韻変化時点における音韻の
    変化のしかたに関する音韻変化情報を取得する音韻変化
    情報取得ステップと、 該音韻変化時点に先行する時点又は後続する時点におけ
    る音高情報を取得する音高情報取得ステップと、 前記音韻変化情報取得ステップ及び前記音高情報取得ス
    テップで取得された情報に基づき、前記音韻変化時点に
    おける音高変化曲線に有限の傾きを付与する傾き付与ス
    テップとを備えたことを特徴とする歌唱合成方法。
  2. 【請求項2】 前記傾き付与ステップは、前記音韻変化
    情報に基づいて、付与する前記傾きの位置を変化させる
    請求項1に記載の歌唱合成方法。
  3. 【請求項3】 前記傾き付与ステップは、前記音高情報
    の大きさに応じて付与する前記傾きの大きさを変化させ
    る請求項1又は2に記載の歌唱合成方法。
  4. 【請求項4】 母音部分の歌唱開始時刻を、前記演奏デ
    ータのノートオン信号の発生時刻と一致させて合成歌唱
    音声として出力するステップを備えた請求項1乃至3の
    いずれか1項に記載の歌唱合成方法。
  5. 【請求項5】 前記音韻変化時点に先行する時点又は後
    続する時点における歌唱音速さ情報を取得する歌唱音速
    さ情報取得ステップを備え、 前記傾き付与ステップは、前記歌唱音速さ情報をも参照
    して前記傾きを付与する請求項1乃至4のいずれか1項
    に記載の歌唱合成方法。
  6. 【請求項6】 前記傾き付与ステップにより傾きを付与
    された音高変化曲線にゆらぎを付加するゆらぎ付加ステ
    ップを更に備えた請求項1乃至5のいずれか1項に記載
    の歌唱合成方法。
  7. 【請求項7】 前記傾き付与ステップは、前記音韻変化
    情報及び前記音高情報の大きさが異なる毎に異なるパラ
    メータを対応させて記憶するテーブルに基づき前記傾き
    を付与する請求項1乃至5のいずれか1項に記載の歌唱
    合成方法。
  8. 【請求項8】 前記テーブルをユーザが編集可能とした
    請求項7に記載の歌唱合成方法。
  9. 【請求項9】 少なくとも音韻を表わす音韻情報と音高
    を表わす音高情報と歌唱開始時刻を表わす時刻情報とを
    含む演奏データを入力する入力ステップと、 前記音韻情報が切り替わる音韻変化時点における音韻の
    変化のしかたに関する音韻変化情報を取得する音韻変化
    情報取得ステップと、 該音韻変化時点に先行する時点又は後続する時点におけ
    る音高情報を取得する音高情報取得ステップと、 前記音韻変化情報取得ステップ及び前記音高情報取得ス
    テップで取得された情報に基づき、前記音韻変化時点に
    おける音高変化曲線に有限の傾きを付与する傾き付与ス
    テップとをコンピュータに実行させるように構成された
    ことを特徴とする歌唱合成用プログラム。
  10. 【請求項10】 前記傾き付与ステップは、前記音韻変
    化情報に基づいて、付与する前記傾きの位置を変化させ
    る請求項9に記載の歌唱合成用プログラム。
  11. 【請求項11】 前記傾き付与ステップは、前記音高情
    報の大きさに応じて付与する前記傾きの大きさを変化さ
    せる請求項9又は10に記載の歌唱合成用プログラム。
  12. 【請求項12】 母音部分の歌唱開始時刻を、前記演奏
    データのノートオン信号の発生時刻と一致させて合成歌
    唱音声として出力するステップを更に実行させるように
    された請求項9乃至11のいずれか1項に記載の歌唱合
    成用プログラム。
  13. 【請求項13】 前記音韻変化時点に先行する時点又は
    後続する時点における歌唱音速さ情報を取得する歌唱音
    速さ情報取得ステップを更に実行させるように構成さ
    れ、 前記傾き付与ステップは、前記歌唱音速さ情報をも参照
    して前記傾きを付与する請求項9乃至12のいずれか1
    項に記載の歌唱合成用プログラム。
  14. 【請求項14】 前記傾き付与ステップにより傾きを付
    与された音高変化曲線にゆらぎを付加するゆらぎ付加ス
    テップを更に実行させるように構成された請求項9乃至
    13のいずれか1項に記載の歌唱合成用プログラム。
  15. 【請求項15】 前記傾き付与ステップは、前記音韻変
    化情報及び前記音高情報の大きさが異なる毎に異なるパ
    ラメータを対応させて記憶するテーブルに基づき前記傾
    きを付与する請求項9乃至13に記載の歌唱合成用プロ
    グラム。
  16. 【請求項16】 少なくとも音韻を表わす音韻情報と音
    高を表わす音高情報と歌唱開始時刻を表わす時刻情報と
    を含む演奏データを入力する入力手段と、 前記音韻情報が切り替わる音韻変化時点における音韻の
    変化のしかたに関する音韻変化情報を取得する音韻変化
    情報取得手段と、 該音韻変化時点に先行する時点又は後続する時点におけ
    る音高情報を取得する音高情報取得手段と、 前記音韻変化情報取得手段及び前記音高情報取得手段で
    取得された情報に基づき、前記音韻変化時点における音
    高変化曲線に有限の傾きを付与する傾き付与手段とを備
    えたことを特徴とする歌唱合成装置。
  17. 【請求項17】 前記傾き付与手段は、前記音韻変化情
    報取得手段により取得された音韻の変化のしかたに関す
    る情報に基づいて、付与する前記傾きの位置を変化させ
    る請求項16に記載の歌唱合成装置。
  18. 【請求項18】 前記傾き付与手段は、前記音高情報取
    得手段により取得された前記音高情報の大きさに応じて
    付与する前記傾きの大きさを変化させる請求項16又は
    17に記載の歌唱合成装置。
  19. 【請求項19】 母音部分の歌唱開始時刻を、前記演奏
    データのノートオン信号の発生時刻と一致させて合成歌
    唱音声として出力する出力手段を備えた請求項16乃至
    18のいずれか1項に記載の歌唱合成装置。
  20. 【請求項20】 前記音韻変化時点に先行する時点又は
    後続する時点における歌唱音速さ情報を取得する歌唱音
    速さ情報取得手段を備え、 前記傾き付与手段は、前記歌唱音速さ情報をも参照して
    前記傾きを付与する請求項16乃至19のいずれか1項
    に記載の歌唱合成装置。
  21. 【請求項21】 前記傾き付与手段により傾きを付与さ
    れた音高変化曲線にゆらぎを付加するゆらぎ付加手段を
    更に備えた請求項16乃至20のいずれか1項に記載の
    歌唱合成装置。
  22. 【請求項22】 前記傾き付与手段は、前記音韻変化情
    報及び前記音高情報の大きさが異なる毎に異なるパラメ
    ータを対応させて記憶するテーブルに基づき前記傾きを
    付与する請求項16乃至20のいずれか1項に記載の歌
    唱合成装置。
  23. 【請求項23】 前記テーブルをユーザが編集可能とし
    た請求項22に記載の歌唱合成装置。
JP2002244241A 2002-02-28 2002-08-23 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム Expired - Fee Related JP4026446B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002244241A JP4026446B2 (ja) 2002-02-28 2002-08-23 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-54486 2002-02-28
JP2002054486 2002-02-28
JP2002244241A JP4026446B2 (ja) 2002-02-28 2002-08-23 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム

Publications (2)

Publication Number Publication Date
JP2003323188A true JP2003323188A (ja) 2003-11-14
JP4026446B2 JP4026446B2 (ja) 2007-12-26

Family

ID=29552148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002244241A Expired - Fee Related JP4026446B2 (ja) 2002-02-28 2002-08-23 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム

Country Status (1)

Country Link
JP (1) JP4026446B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240564A (ja) * 2006-03-04 2007-09-20 Yamaha Corp 歌唱合成装置および歌唱合成プログラム
JP2011013454A (ja) * 2009-07-02 2011-01-20 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
JP2012103654A (ja) * 2010-10-12 2012-05-31 Yamaha Corp 音声合成装置及びプログラム
JP2013164609A (ja) * 2013-04-15 2013-08-22 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
EP2838082A1 (en) 2013-08-09 2015-02-18 Yamaha Corporation Voice analysis method and device, voice synthesis method and device, and medium storing voice analysis program
JP2016183998A (ja) * 2015-03-25 2016-10-20 ブラザー工業株式会社 音声合成装置、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240564A (ja) * 2006-03-04 2007-09-20 Yamaha Corp 歌唱合成装置および歌唱合成プログラム
JP2011013454A (ja) * 2009-07-02 2011-01-20 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
JP2012103654A (ja) * 2010-10-12 2012-05-31 Yamaha Corp 音声合成装置及びプログラム
JP2013164609A (ja) * 2013-04-15 2013-08-22 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
EP2838082A1 (en) 2013-08-09 2015-02-18 Yamaha Corporation Voice analysis method and device, voice synthesis method and device, and medium storing voice analysis program
EP2980786A1 (en) 2013-08-09 2016-02-03 Yamaha Corporation Voice analysis method and device, voice synthesis method and device and medium storing voice analysis program
EP2983168A1 (en) 2013-08-09 2016-02-10 Yamaha Corporation Voice analysis method and device, voice synthesis method and device and medium storing voice analysis program
US9355628B2 (en) 2013-08-09 2016-05-31 Yamaha Corporation Voice analysis method and device, voice synthesis method and device, and medium storing voice analysis program
JP2016183998A (ja) * 2015-03-25 2016-10-20 ブラザー工業株式会社 音声合成装置、及びプログラム

Also Published As

Publication number Publication date
JP4026446B2 (ja) 2007-12-26

Similar Documents

Publication Publication Date Title
JP3879402B2 (ja) 歌唱合成方法と装置及び記録媒体
JP5293460B2 (ja) 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
US10825434B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
JP5471858B2 (ja) 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
CN111696498B (zh) 键盘乐器以及键盘乐器的计算机执行的方法
JP2011048335A (ja) 歌声合成システム、歌声合成方法及び歌声合成装置
JP4026446B2 (ja) 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム
JP3963141B2 (ja) 歌唱合成装置、歌唱合成用プログラム及び歌唱合成用プログラムを記録したコンピュータで読み取り可能な記録媒体
JP6044284B2 (ja) 音声合成装置
JP7226532B2 (ja) オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
JP4631726B2 (ja) 歌唱合成装置及び記録媒体
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
JP3233036B2 (ja) 歌唱音合成装置
JP7276292B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP6406182B2 (ja) カラオケ装置、及びカラオケシステム
WO2023171497A1 (ja) 音響生成方法、音響生成システムおよびプログラム
JP7158331B2 (ja) カラオケ装置
JPH04331990A (ja) 音声電子楽器
JP4305022B2 (ja) データ作成装置、プログラム及び楽音合成装置
JPH03203800A (ja) 音声合成方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070614

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131019

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees