JP2002304187A - 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 - Google Patents
音声合成装置および音声合成方法、並びにプログラムおよび記録媒体Info
- Publication number
- JP2002304187A JP2002304187A JP2001104326A JP2001104326A JP2002304187A JP 2002304187 A JP2002304187 A JP 2002304187A JP 2001104326 A JP2001104326 A JP 2001104326A JP 2001104326 A JP2001104326 A JP 2001104326A JP 2002304187 A JP2002304187 A JP 2002304187A
- Authority
- JP
- Japan
- Prior art keywords
- information
- prosody
- prosody information
- generating
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Toys (AREA)
Abstract
きる合成音を、容易に生成する。 【解決手段】 音声韻律情報生成部25は、言語解析部
21が出力する音声記号に基づいて、合成音の韻律を制
御する音声韻律情報を生成し、音楽韻律情報生成部26
は、音楽的要素により韻律を制御し、ロボットの感情を
表現するパラ言語情報を付与する音楽韻律情報を生成す
る。韻律情報調整部27は、音声韻律情報と音楽韻律情
報を調整することにより、最終的な韻律情報を生成す
る。そして、波形合成部28は、その最終的な韻律情報
により韻律を制御した合成音を生成する。
Description
び音声合成方法、並びにプログラムおよび記録媒体に関
し、特に、例えば、パラ言語情報を、効果的に伝達する
ことのできる合成音を、容易に生成することができるよ
うにする音声合成装置および音声合成方法、並びにプロ
グラムおよび記録媒体に関する。
の意味を伝達する言語情報の他に、その発話者の個性
(個人性)や、意志(意図)、感情等を表現するパラ言
語情報が含まれる。
トから合成音を生成する音声合成処理(TTS(Text-To
-Speech)処理)の際に、自然音声により近い合成音を生
成するために、合成音に対して、パラ言語情報が付与さ
れる。
ピッチ周波数の時間変化であるピッチパターンや、合成
音のパワーの時間変化であるパワーパターン、合成音を
構成する各音韻の継続時間長(音韻継続時間長)といっ
た韻律を制御することにより、感情等を表現するパラ言
語情報が、合成音に付与される。
により、合成音による声の高さが規定される。また、パ
ワーパターンによるパワーにより、合成音による声の強
弱が規定される。さらに、音韻継続時間長により、合成
音の発話速度やリズム等が規定される。
音声に含まれるのと同様のパラ言語情報を付与すること
ができれば、自然音声に近い合成音を得ることが可能と
なる。
うに、ある規則にしたがって音声合成を行う場合等にお
いては、自然音声に含まれるのと同様のパラ言語情報を
付与する規則を記述することは容易ではなく、従って、
パラ言語情報を、効果的に伝達することのできる合成音
を、容易に生成することのできる手法の提案が要請され
ている。
たものであり、パラ言語情報を、効果的に伝達すること
のできる合成音を、容易に生成することができるように
するものである。
は、入力データに基づいて、合成音の韻律を制御する第
1の韻律情報を生成する第1の韻律情報生成手段と、音
楽的要素により韻律を制御し、合成音に対してパラ言語
情報を付与する第2の韻律情報を生成する第2の韻律情
報生成手段と、第1と第2の韻律情報を調整し、最終的
な韻律情報を生成する韻律情報調整手段と、最終的な韻
律情報により韻律を制御した合成音を生成する音声合成
手段とを備えることを特徴とする。
づいて、合成音の韻律を制御する第1の韻律情報を生成
する第1の韻律情報生成ステップと、音楽的要素により
韻律を制御し、合成音に対してパラ言語情報を付与する
第2の韻律情報を生成する第2の韻律情報生成ステップ
と、第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整ステップと、最終的な韻律情報
により韻律を制御した合成音を生成する音声合成ステッ
プとを備えることを特徴とする。
いて、合成音の韻律を制御する第1の韻律情報を生成す
る第1の韻律情報生成ステップと、音楽的要素により韻
律を制御し、合成音に対してパラ言語情報を付与する第
2の韻律情報を生成する第2の韻律情報生成ステップ
と、第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整ステップと、最終的な韻律情報
により韻律を制御した合成音を生成する音声合成ステッ
プとを備えることを特徴とする。
て、合成音の韻律を制御する第1の韻律情報を生成する
第1の韻律情報生成ステップと、音楽的要素により韻律
を制御し、合成音に対してパラ言語情報を付与する第2
の韻律情報を生成する第2の韻律情報生成ステップと、
第1と第2の韻律情報を調整し、最終的な韻律情報を生
成する韻律情報調整ステップと、最終的な韻律情報によ
り韻律を制御した合成音を生成する音声合成ステップと
を備えるプログラムが記録されていることを特徴とす
る。
法、並びにプログラムにおいては、入力データに基づい
て、合成音の韻律を制御する第1の韻律情報が生成され
るとともに、音楽的要素により韻律を制御し、合成音に
対してパラ言語情報を付与する第2の韻律情報が生成さ
れる。さらに、第1と第2の韻律情報が調整され、最終
的な韻律情報が生成される。そして、その最終的な韻律
情報により韻律を制御した合成音が生成される。
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
犬等の四つ足の動物の形状のものとなっており、胴体部
ユニット2の前後左右に、それぞれ脚部ユニット3A,
3B,3C,3Dが連結されるとともに、胴体部ユニッ
ト2の前端部と後端部に、それぞれ頭部ユニット4と尻
尾部ユニット5が連結されることにより構成されてい
る。
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
御を行うコントローラ10、ロボットの動力源となるバ
ッテリ11、並びにバッテリセンサ12および熱センサ
13からなる内部センサ部14などが収納されている。
イク(マイクロフォン)15、「目」に相当するCCD
(Charge Coupled Device)カメラ16、触覚に相当する
タッチセンサ17、「口」に相当するスピーカ18など
が、それぞれ所定位置に配設されている。また、頭部ユ
ニット4には、口の下顎に相当する下顎部4Aが1自由
度をもって可動に取り付けられており、この下顎部4A
が動くことにより、ロボットの口の開閉動作が実現され
るようになっている。
部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユ
ニット2の連結部分、頭部ユニット4と胴体部ユニット
2の連結部分、頭部ユニット4と下顎部4Aの連結部
分、並びに尻尾部ユニット5と胴体部ユニット2の連結
部分などには、図2に示すように、それぞれアクチュエ
ータ3AA1乃至3AAK、3BA1乃至3BAK、3CA
1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、
5A1および5A2が配設されている。
ーザからの発話を含む周囲の音声(音)を集音し、得ら
れた音声信号を、コントローラ10に送出する。CCD
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に送出する。
ト4の上部に設けられており、ユーザからの「なでる」
や「たたく」といった物理的な働きかけにより受けた圧
力を検出し、その検出結果を圧力検出信号としてコント
ローラ10に送出する。
12は、バッテリ11の残量を検出し、その検出結果
を、バッテリ残量検出信号としてコントローラ10に送
出する。熱センサ13は、ロボット内部の熱を検出し、
その検出結果を、熱検出信号としてコントローラ10に
送出する。
cessing Unit)10Aやメモリ10B等を内蔵してお
り、CPU10Aにおいて、メモリ10Bに記憶された
制御プログラムが実行されることにより、各種の処理を
行う。
や、CCDカメラ16、タッチセンサ17、バッテリセ
ンサ12、熱センサ13から与えられる音声信号、画像
信号、圧力検出信号、バッテリ残量検出信号、熱検出信
号に基づいて、周囲の状況や、ユーザからの指令、ユー
ザからの働きかけなどの有無を判断する。
果等に基づいて、続く行動を決定し、その決定結果に基
づいて、アクチュエータ3AA1乃至3AAK、3BA1
乃至3BAK、3CA1乃至3CAK、3DA1乃至3DA
K、4A1乃至4AL、5A1、5A2のうちの必要なもの
を駆動させる。これにより、頭部ユニット4を上下左右
に振らせたり、下顎部4Aを開閉させる。さらには、尻
尾部ユニット5を動かせたり、各脚部ユニット3A乃至
3Dを駆動して、ロボットを歩行させるなどの行動を行
わせる。
て、合成音を生成し、スピーカ18に供給して出力させ
たり、ロボットの「目」の位置に設けられた図示しない
LED(Light Emitting Diode)を点灯、消灯または点
滅させる。
況等に基づいて自律的に行動をとるようになっている。
ティック(商標)等の、容易に着脱が可能なメモリカー
ドで構成することが可能である。
機能的構成例を示している。なお、図3に示す機能的構
成は、CPU10Aが、メモリ10Bに記憶された制御
プログラムを実行することで実現されるようになってい
る。
識するセンサ入力処理部50、センサ入力処理部50の
認識結果を累積して、感情や、本能、成長の状態を表現
するモデル記憶部51、センサ入力処理部50の認識結
果等に基づいて、続く行動を決定する行動決定機構部5
2、行動決定機構部52の決定結果に基づいて、実際に
ロボットに行動を起こさせる姿勢遷移機構部53、各ア
クチュエータ3AA1乃至5A1および5A2を駆動制御
する制御機構部54、並びに合成音を生成する音声合成
部55から構成されている。
CCDカメラ16、タッチセンサ17等から与えられる
音声信号、画像信号、圧力検出信号等に基づいて、特定
の外部状態や、ユーザからの特定の働きかけ、ユーザか
らの指示等を認識し、その認識結果を表す状態認識情報
を、モデル記憶部51および行動決定機構部52に通知
する。
部50Aを有しており、音声認識部50Aは、マイク1
5から与えられる音声信号について音声認識を行う。そ
して、音声認識部50Aは、その音声認識結果として
の、例えば、「歩け」、「伏せ」、「ボールを追いかけ
ろ」等の指令その他を、状態認識情報として、モデル記
憶部51および行動決定機構部52に通知する。
部50Bを有しており、画像認識部50Bは、CCDカ
メラ16から与えられる画像信号を用いて、画像認識処
理を行う。そして、画像認識部50Bは、その処理の結
果、例えば、「赤い丸いもの」や、「地面に対して垂直
なかつ所定高さ以上の平面」等を検出したときには、
「ボールがある」や、「壁がある」等の画像認識結果
を、状態認識情報として、モデル記憶部51および行動
決定機構部52に通知する。
理部50Cを有しており、圧力処理部50Cは、タッチ
センサ17から与えられる圧力検出信号を処理する。そ
して、圧力処理部50Cは、その処理の結果、所定の閾
値以上で、かつ短時間の圧力を検出したときには、「た
たかれた(しかられた)」と認識し、所定の閾値未満
で、かつ長時間の圧力を検出したときには、「なでられ
た(ほめられた)」と認識して、その認識結果を、状態
認識情報として、モデル記憶部51および行動決定機構
部52に通知する。
能、成長の状態を表現する感情モデル、本能モデル、成
長モデルをそれぞれ記憶、管理している。
び」、「悲しさ」、「怒り」、「驚き」、「恐れ」、
「落胆」、「平静」等の感情の状態(度合い)を、所定
の範囲(例えば、−1.0乃至1.0等)の値によって
それぞれ表し、センサ入力処理部50からの状態認識情
報や時間経過等に基づいて、その値を変化させる。本能
モデルは、例えば、「食欲」、「睡眠欲」、「運動欲」
等の本能による欲求の状態(度合い)を、所定の範囲の
値によってそれぞれ表し、センサ入力処理部50からの
状態認識情報や時間経過等に基づいて、その値を変化さ
せる。成長モデルは、例えば、「幼年期」、「青年
期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、センサ
入力処理部50からの状態認識情報や時間経過等に基づ
いて、その値を変化させる。
情モデル、本能モデル、成長モデルの値で表される感
情、本能、成長の状態を、状態情報として、行動決定機
構部52に送出する。
処理部50から状態認識情報が供給される他、行動決定
機構部52から、ロボットの現在または過去の行動、具
体的には、例えば、「長時間歩いた」などの行動の内容
を示す行動情報が供給されるようになっており、モデル
記憶部51は、同一の状態認識情報が与えられても、行
動情報が示すロボットの行動に応じて、異なる状態情報
を生成するようになっている。
をし、ユーザに頭を撫でられた場合には、ユーザに挨拶
をしたという行動情報と、頭を撫でられたという状態認
識情報とが、モデル記憶部51に与えられ、この場合、
モデル記憶部51では、「うれしさ」を表す感情モデル
の値が増加される。
に頭を撫でられた場合には、仕事を実行中であるという
行動情報と、頭を撫でられたという状態認識情報とが、
モデル記憶部51に与えられ、この場合、モデル記憶部
51では、「うれしさ」を表す感情モデルの値は変化さ
れない。
識情報だけでなく、現在または過去のロボットの行動を
示す行動情報も参照しながら、感情モデルの値を設定す
る。これにより、例えば、何らかのタスクを実行中に、
ユーザが、いたずらするつもりで頭を撫でたときに、
「うれしさ」を表す感情モデルの値を増加させるよう
な、不自然な感情の変化が生じることを回避することが
できる。
よび成長モデルについても、感情モデルにおける場合と
同様に、状態認識情報および行動情報の両方に基づい
て、その値を増減させるようになっている。また、モデ
ル記憶部51は、感情モデル、本能モデル、成長モデル
それぞれの値を、他のモデルの値にも基づいて増減させ
るようになっている。
50からの状態認識情報や、モデル記憶部51からの状
態情報、時間経過等に基づいて、次の行動を決定し、決
定された行動の内容を、行動指令情報として、姿勢遷移
機構部53に送出する。
とり得る行動をステート(状態)(state)に対応させた
有限オートマトンを、ロボットの行動を規定する行動モ
デルとして管理しており、この行動モデルとしての有限
オートマトンにおけるステートを、センサ入力処理部5
0からの状態認識情報や、モデル記憶部51における感
情モデル、本能モデル、または成長モデルの値、時間経
過等に基づいて遷移させ、遷移後のステートに対応する
行動を、次にとるべき行動として決定する。
リガ(trigger)があったことを検出すると、ステートを
遷移させる。即ち、行動決定機構部52は、例えば、現
在のステートに対応する行動を実行している時間が所定
時間に達したときや、特定の状態認識情報を受信したと
き、モデル記憶部51から供給される状態情報が示す感
情や、本能、成長の状態の値が所定の閾値以下または以
上になったとき等に、ステートを遷移させる。
うに、センサ入力処理部50からの状態認識情報だけで
なく、モデル記憶部51における感情モデルや、本能モ
デル、成長モデルの値等にも基づいて、行動モデルにお
けるステートを遷移させることから、同一の状態認識情
報が入力されても、感情モデルや、本能モデル、成長モ
デルの値(状態情報)によっては、ステートの遷移先は
異なるものとなる。
ば、状態情報が、「怒っていない」こと、および「お腹
がすいていない」ことを表している場合において、状態
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「お手」という行動をとらせる行動指
令情報を生成し、これを、姿勢遷移機構部53に送出す
る。
態情報が、「怒っていない」こと、および「お腹がすい
ている」ことを表している場合において、状態認識情報
が、「目の前に手のひらが差し出された」ことを表して
いるときには、目の前に手のひらが差し出されたことに
応じて、「手のひらをぺろぺろなめる」ような行動を行
わせるための行動指令情報を生成し、これを、姿勢遷移
機構部53に送出する。
態情報が、「怒っている」ことを表している場合におい
て、状態認識情報が、「目の前に手のひらが差し出され
た」ことを表しているときには、状態情報が、「お腹が
すいている」ことを表していても、また、「お腹がすい
ていない」ことを表していても、「ぷいと横を向く」よ
うな行動を行わせるための行動指令情報を生成し、これ
を、姿勢遷移機構部53に送出する。
ように、ロボットの頭部や手足等を動作させる行動指令
情報の他、ロボットに発話を行わせる行動指令情報も生
成される。ロボットに発話を行わせる行動指令情報は、
音声合成部55に供給されるようになっており、音声合
成部55に供給される行動指令情報には、音声合成部5
5に生成させる合成音に対応する漢字仮名混じり等のテ
キスト、あるいは音韻情報(読み)と、アクセントやポ
ーズの位置を示すタグからなる音声記号等の言語情報が
含まれる。そして、音声合成部55は、行動決定部52
から行動指令情報を受信すると、その行動指令情報に含
まれる言語情報に基づき、合成音を生成し、スピーカ1
8に供給して出力させる。これにより、スピーカ18か
らは、例えば、ロボットの鳴き声、さらには、「お腹が
すいた」等のユーザへの各種の要求、「何?」等のユー
ザの呼びかけに対する応答その他の音声出力が行われ
る。
部51から状態情報も供給されるようになっており、音
声合成部55は、この状態情報における感情モデルの値
(感情モデル値)に基づいて韻律を制御した合成音を生
成することが可能となっている。
能や本能の状態に基づいて韻律を制御した合成音を生成
することも可能である。また、行動決定機構部52は、
合成音を出力する場合には、下顎部4Aを開閉させる行
動指令情報を、必要に応じて生成し、姿勢遷移機構部5
3に出力する。この場合、合成音の出力に同期して、下
顎部4Aが開閉し、ユーザに、ロボットがしゃべってい
るかのような印象を与えることができる。
2から供給される行動指令情報に基づいて、ロボットの
姿勢を、現在の姿勢から次の姿勢に遷移させるための姿
勢遷移情報を生成し、これを制御機構部54に送出す
る。
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなロボットの物理的形状と、関節が曲がる方
向や角度のようなアクチュエータ3AA1乃至5A1およ
び5A2の機構とによって決定される。
らの姿勢遷移情報にしたがって、アクチュエータ3AA
1乃至5A1および5A2を駆動するための制御信号を生
成し、これを、アクチュエータ3AA1乃至5A1および
5A2に送出する。これにより、アクチュエータ3AA1
乃至5A1および5A2は、制御信号にしたがって駆動
し、ロボットは、自律的に行動を起こす。
成例を示している。
が出力する、音声合成の対象とする言語情報を含む行動
指令情報が供給されるようになっており、言語解析部2
1は、辞書記憶部22や文法記憶部23を参照しなが
ら、その行動指令情報に含まれる言語情報を解析する。
情報や、読み、アクセント等の情報が記述された単語辞
書が記憶されており、また、文法記憶部23には、辞書
記憶部22の単語辞書に記述された単語について、単語
連鎖に関する制約等の文法規則が記憶されている。そし
て、言語解析部21は、この単語辞書および文法規則に
基づいて、そこに入力される言語情報の形態素解析や構
文解析等の言語解析を行うことにより、後段の韻律制御
部24および波形合成部28で行われる規則音声合成に
必要な情報を抽出する。ここで、規則音声合成に必要な
情報としては、例えば、ポーズの位置や、アクセントお
よびイントネーションを表す情報や、各単語の発音等の
音韻情報などがある。言語解析部21は、言語解析が終
了すると、その言語解析の結果得られた情報から、音声
記号を生成して出力する。
ストである場合に、上述のような言語解析を行う。即
ち、言語情報が音声記号である場合には、一般に、音声
記号には、音韻情報と、ポーズの位置やアクセントを表
す情報(タグ)とが含まれているため、言語解析部21
は、そのような音声記号については、特に処理を行わ
ず、そのまま出力する。
律制御部24に供給される。韻律制御部24には、さら
に、モデル記憶部51(図3)に記憶された感情モデル
値が、パラ言語情報として供給されるようになってお
り、韻律制御部24は、言語解析部21からの音声記号
に基づいて、韻律情報を生成するとともに、音楽的要素
により韻律を制御し、合成音に対して、モデル記憶部5
1からの感情モデル値が表す感情を表現する韻律情報を
生成する。さらに、韻律制御部24は、その2つの韻律
情報から、最終的に合成音の韻律制御に用いる韻律情報
を生成する。
成部25、音楽韻律情報生成部26,および韻律情報調
整部27から構成されている。
1が出力する音声記号に基づいて、例えば、従来の音声
合成装置と同様にして、合成音におけるピッチ周波数の
時間変化であるピッチパターンや、合成音のパワーの時
間変化であるパワーパターン、合成音を構成する各音韻
の継続時間長(音韻継続時間長)等の韻律情報を生成
し、韻律情報調整部27に供給する。ここで、音声韻律
情報生成部25が生成する韻律情報を、以下、適宜、音
声韻律情報という。
1が出力する音声記号から、合成音の音韻や、ポーズの
位置、アクセントの位置等の言語的な情報を認識し、そ
れらの情報と、モデル記憶部51からの感情モデル値に
基づいて、旋律(メロディ)、音階(スケール)、和音
(ハーモニ)、または拍子(ビート)(もしくは律動
(リズム))等の音楽的要素による韻律情報を生成す
る。
析部21が出力する音声記号から認識される音韻につい
て、感情モデル値が表す感情とその状態に対応する所定
の旋律、音階、和音、または拍子(もしくは律動)のう
ちの1以上を与えるピッチパターンや、パワーパター
ン、音韻継続時間長等の韻律情報を生成し、韻律情報調
整部27に供給する。
「喜び」の感情が大きいことを表している場合には、音
楽韻律情報生成部26は、長調の和音(例えば、「ドミ
ソ」など)や、速い拍子等を与えるピッチパターン、パ
ワーパターン、音韻継続時間長等の韻律情報を生成す
る。さらに、「喜び」の感情が、より大きい場合には、
音楽韻律情報生成部26は、より高い音による和音や、
より速い拍子等を与える韻律情報を生成する。
み」の感情が大きいことを表している場合には、音楽韻
律情報生成部26は、短調の和音(例えば、ミを半音下
げた「ド♭ミソ」など)や、遅い拍子等を与えるピッチ
パターン、パワーパターン、音韻継続時間長等の韻律情
報を生成する。
る韻律情報を、音声韻律情報生成部25が生成する韻律
情報(音声韻律情報)と区別するために、以下、適宜、
音楽韻律情報という。
部25からの音声韻律情報と、音楽韻律情報生成部26
からの音楽韻律情報を調整し、最終的に、合成音の韻律
を制御する韻律情報(以下、適宜、最終韻律情報とい
う)を生成する。
楽韻律情報が、ある特定の旋律を与えるものである場合
には、音楽韻律情報を、そのまま最終韻律情報とする。
律情報が、例えば、図5(A)と図5(B)にそれぞれ
示すようなものであるときには、韻律情報調整部27
は、図5(C)に示すように、図5(B)に示した音楽
韻律情報を、そのまま、最終韻律情報とする。
至図8においても同様)、テキスト「楽しいな」に対す
る韻律情報としてのピッチパターン、パワーパターン、
および音韻継続時間長を示してある。即ち、図5におい
て、太線で示す線(直線または曲線)は、ピッチパター
ンを表す。また、アルファベットで示してある各音韻
(音素)上に配置してある長方形の縦方向の長さ(高
さ)が、パワーを表し、その横方向の長さが、音韻継続
時間長を表す。
音楽韻律情報が、ある特定の音階を与えるものである場
合には、音声韻律情報におけるピッチパターンを、音楽
韻律情報におけるピッチパターンを利用したものに置き
換え、そのピッチパターンの置き換え後の音声韻律情報
を、最終韻律情報とする。
律情報が、例えば、図6(A)と図6(B)にそれぞれ
示すようなものであるときには、韻律情報調整部27
は、図6(C)に示すような韻律情報を、最終韻律情報
とする。
6(A)の音声韻律情報における各音韻(音節)のピッ
チ周波数を、そのピッチ周波数に対し、図6(B)の音
楽韻律情報のピッチ周波数の中で最も近いものに置き換
えたものとなっている。
声韻律情報の一部を、その一部に対応する音楽韻律情報
の一部と置き換え、その置き換え後の音声韻律情報を、
最終韻律情報とする。
律情報が、例えば、図7(A)と図7(B)にそれぞれ
示すようなものであるときには、韻律情報調整部27
は、図7(C)に示すような韻律情報を、最終韻律情報
とする。
7(A)の音声韻律情報における最後の音節(na)の部
分を、図7(B)の音楽韻律情報における最後の音節の
部分に置き換えたものとなっている。
音楽韻律情報が、ある特定の律動(あるいは拍子)を与
えるものである場合には、音声韻律情報における音韻継
続時間長を、音楽韻律情報における音韻継続時間長に置
き換え、その音韻継続時間長の置き換え後の音声韻律情
報を、最終韻律情報とする。
律情報が、例えば、図8(A)と図8(B)にそれぞれ
示すようなものであるときには、韻律情報調整部27
は、図8(C)に示すような韻律情報を、最終韻律情報
とする。
8(A)の音声韻律情報における各音韻の音韻継続時間
長を、図8(B)の音楽韻律情報における各音韻の音韻
継続時間長に置き換えたものとなっている。さらに、音
韻継続時間長の置き換えにより、合成音の発話時間(音
声区間)が変化することから、図8(C)の最終韻律情
報は、そのような発話時間の変化に伴い、図8(A)の
音声韻律情報におけるピッチパターンが時間軸伸縮され
たものとなっている。
て、音声韻律情報と音楽韻律情報を調整することによ
り、最終韻律情報を生成し、言語解析部21から供給さ
れる音声記号とともに、波形合成部28に出力する。
して最終韻律情報を生成する方法は、上述した方法に限
定されるものではない。
照し、韻律情報調整部27からの最終韻律情報により韻
律を制御した、同じく韻律情報調整部27からの音声記
号における音韻情報に対応する合成音データ(ディジタ
ルデータ)を生成する。
V(Consonant, Vowel)や、VCV、CVC等の形で音素
片データが記憶されており、波形合成部28は、韻律情
報調整部27からの音声記号における音韻情報に基づい
て、必要な音素片データを接続し、さらに、ポーズ、ア
クセント、イントネーション等を、韻律情報調整部27
からの最終韻律情報にしたがって付加することで、言語
解析部21に入力された言語情報に対応する合成音デー
タを生成する。
og)変換部30に供給される。D/A変換部30は、デ
ィジタル信号としての合成音データを、アナログ信号と
しての音声信号にD/A変換し、スピーカ18に供給す
る。これにより、言語解析部21に入力された言語情報
に対応し、かつ、音楽的要素によるパラ言語情報であっ
て、ロボットの感情を表現するものが付与された合成音
が出力される。
図4の音声合成部55による音声合成処理について説明
する。
の対象とする言語情報を含む行動指令情報を、音声合成
部55に出力すると、言語解析部21は、その行動指令
情報を受信する。そして、言語解析部21は、その行動
指令情報に含まれる言語情報について、言語解析を行
い、その結果得られる音声記号を、韻律制御部24の音
声韻律情報生成部25、音楽韻律情報生成部26、およ
び韻律情報調整部27に供給する。
報生成部25と音楽韻律情報生成部26は、韻律情報を
生成する。
析部21が出力する音声記号に基づいて、例えば、標準
的な音声韻律情報を生成し、韻律情報調整部27に供給
する。
記憶部51(図3)から感情モデル値を、パラ言語情報
として読み出す。さらに、音楽韻律情報生成部26は、
言語解析部21が出力する音声記号から認識される音韻
について、感情モデル値が表す感情とその状態に対応す
る所定の旋律、音階、和音、または拍子(もしくは律
動)を与える音楽韻律情報を生成し、韻律情報調整部2
7に供給する。
部25から供給される音声韻律情報と、音楽韻律情報生
成部26から供給される音楽韻律情報を受信すると、ス
テップS3において、その音声韻律情報と音楽韻律情報
とを調整することで、最終韻律情報を生成し、言語解析
部21から供給される音声記号とともに、波形合成部2
8に出力する。
らの最終韻律情報と音声記号を受信し、ステップS4に
おいて、その最終韻律情報と音声記号に基づき、合成音
データを生成し、D/A変換部30に出力して処理を終
了する。
部30でD/A変換され、スピーカ18に供給されて出
力される。
により韻律が制御され、ロボットの感情を表現するパラ
言語情報が付与された合成音が出力される。その結果、
ユーザに対して、感情の状態を、合成音によって認識さ
せる、エンタテイメント性の高いロボットを提供するこ
とが可能となる。
音の韻律を制御する音声韻律情報を生成するとともに、
音楽的要素により韻律を制御することによって、合成音
に対してパラ言語情報を付与する音楽韻律情報を生成
し、その音声韻律情報と音楽韻律情報を調整して最終韻
律情報を生成するようにしたので、パラ言語情報を、和
音や拍子等によって、効果的に伝達することのできる合
成音を、容易に生成することができる。
ロボット(疑似ペットとしてのロボット)に適用した場
合について説明したが、本発明は、これに限らず、例え
ば、システムに感情等の内部状態が導入された対話シス
テムその他に広く適用することが可能である。
でなく、例えば、液晶ディスプレイ等の表示装置に表示
される仮想的なロボットにも適用可能である。
一連の処理を、CPU10Aにプログラムを実行させる
ことにより行うようにしたが、一連の処理は、それ専用
のハードウェアによって行うことも可能である。
10B(図2)に記憶させておく他、フロッピー(登録
商標)ディスク、CD-ROM(Compact Disc Read Only Memo
ry),MO(Magnetooptical)ディスク,DVD(Digital Versa
tile Disc)、磁気ディスク、半導体メモリなどのリムー
バブル記録媒体に、一時的あるいは永続的に格納(記
録)しておくことができる。そして、このようなリムー
バブル記録媒体は、いわゆるパッケージソフトウエアと
して提供し、ロボット(メモリ10B)にインストール
するようにすることができる。
から、ディジタル衛星放送用の人工衛星を介して、無線
で転送したり、LAN(Local Area Network)、インターネ
ットといったネットワークを介して、有線で転送し、メ
モリ10Bにインストールすることができる。
されたとき等に、そのバージョンアップされたプログラ
ムを、メモリ10Bに、容易にインストールすることが
できる。
各種の処理を行わせるためのプログラムを記述する処理
ステップは、必ずしもフローチャートとして記載された
順序に沿って時系列に処理する必要はなく、並列的ある
いは個別に実行される処理(例えば、並列処理あるいは
オブジェクトによる処理)も含むものである。
理されるものであっても良いし、複数のCPUによって
分散処理されるものであっても良い。
ードウェアにより実現することもできるし、ソフトウェ
アにより実現することもできる。音声合成部55をソフ
トウェアによって実現する場合には、そのソフトウェア
を構成するプログラムが、汎用のコンピュータ等にイン
ストールされる。
するためのプログラムがインストールされるコンピュー
タの一実施の形態の構成例を示している。
いる記録媒体としてのハードディスク105やROM1
03に予め記録しておくことができる。
ディスク、CD-ROM,MOディスク,DVD、磁気ディスク、
半導体メモリなどのリムーバブル記録媒体111に、一
時的あるいは永続的に格納(記録)しておくことができ
る。このようなリムーバブル記録媒体111は、いわゆ
るパッケージソフトウエアとして提供することができ
る。
ーバブル記録媒体111からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN、インターネットといったネットワークを介
して、コンピュータに有線で転送し、コンピュータで
は、そのようにして転送されてくるプログラムを、通信
部108で受信し、内蔵するハードディスク105にイ
ンストールすることができる。
Unit)102を内蔵している。CPU102には、バス1
01を介して、入出力インタフェース110が接続され
ており、CPU102は、入出力インタフェース110を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部107が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)103に格納されているプログラムを実行
する。あるいは、また、CPU102は、ハードディスク
105に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部108で受信されてハー
ドディスク105にインストールされたプログラム、ま
たはドライブ109に装着されたリムーバブル記録媒体
111から読み出されてハードディスク105にインス
トールされたプログラムを、RAM(Random Access Memor
y)104にロードして実行する。これにより、CPU10
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU102は、その処理結果を、必要に応
じて、例えば、入出力インタフェース110を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部106から出力、あるいは、通信部108から
送信、さらには、ハードディスク105に記録等させ
る。
52が生成するテキスト等の言語情報から合成音を生成
するようにしたが、本発明は、あからじめ用意されたテ
キスト等から合成音を生成する場合にも適用可能であ
る。
を、感情モデル値に基づいて生成するようにしたが、音
楽韻律情報の生成は、感情モデル値以外に、例えば、本
能や成長その他のペットロボットの内部状態に基づいて
行うことが可能である。
同様の記述方法で記述する他、例えば、MIDI(Musical
Instrument Digital Interface)の規格に準拠して記述
することも可能である。
び音声合成方法、並びにプログラムによれば、入力デー
タに基づいて、合成音の韻律を制御する第1の韻律情報
が生成されるとともに、音楽的要素により韻律を制御
し、合成音に対してパラ言語情報を付与する第2の韻律
情報が生成される。そして、第1と第2の韻律情報か
ら、最終的な韻律情報が生成され、その最終的な韻律情
報により韻律を制御した合成音が生成される。従って、
パラ言語情報を、効果的に伝達することのできる合成音
を、容易に生成することが可能となる。
観構成例を示す斜視図である。
る。
ク図である。
る。
する図である。
する図である。
する図である。
する図である。
トである。
態の構成例を示すブロック図である。
ーラ, 10A CPU, 10B メモリ, 15
マイク, 16 CCDカメラ, 17 タッチセン
サ, 18 スピーカ, 21 言語解析部, 22
辞書記憶部, 23 文法記憶部, 24 韻律制御
部, 25 音声韻律情報生成部, 26音楽韻律情報
生成部, 27 韻律情報調整部, 28 波形合成
部, 29音素片記憶部, 30 D/A変換部, 5
0 センサ入力処理部, 50A音声認識部, 50B
画像認識部, 50C 圧力処理部, 51 モデル
記憶部, 52 行動決定機構部, 53 姿勢遷移機
構部, 54 制御機構部, 55 音声合成部, 1
01 バス, 102 CPU, 103 ROM, 104
RAM, 105 ハードディスク, 106 出力
部, 107 入力部, 108 通信部, 109
ドライブ, 110 入出力インタフェース,111
リムーバブル記録媒体
Claims (11)
- 【請求項1】 入力データに対応する合成音を生成する
音声合成装置であって、 前記入力データに基づいて、前記合成音の韻律を制御す
る第1の韻律情報を生成する第1の韻律情報生成手段
と、 音楽的要素により韻律を制御し、前記合成音に対してパ
ラ言語情報を付与する第2の韻律情報を生成する第2の
韻律情報生成手段と、 前記第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整手段と、 前記最終的な韻律情報により韻律を制御した合成音を生
成する音声合成手段とを備えることを特徴とする音声合
成装置。 - 【請求項2】 前記第2の韻律情報生成手段は、旋律、
音階、和音、または拍子もしくは律動のうちの1以上の
音楽的要素により韻律を制御し、前記合成音に対してパ
ラ言語情報を付与する第2の韻律情報を生成することを
特徴とする請求項1に記載の音声合成装置。 - 【請求項3】 前記第2の韻律情報生成手段は、前記合
成音に対して、感情を表現する前記パラ言語情報を付与
する第2の韻律情報を生成することを特徴とする請求項
1に記載の音声合成装置。 - 【請求項4】 前記第2の韻律情報生成手段は、前記第
2の韻律情報として、MIDI(Musical Instrument Digiga
l Interface)の規格に準拠した情報を生成することを特
徴とする請求項1に記載の音声合成装置。 - 【請求項5】 前記韻律情報調整手段は、前記第2の韻
律情報を、前記最終的な韻律情報とすることを特徴とす
る請求項1に記載の音声合成装置。 - 【請求項6】 前記韻律情報調整手段は、前記第1の韻
律情報におけるピッチに関する情報を、前記第2の韻律
情報を利用したものに置き換えることにより、前記最終
的な韻律情報を生成することを特徴とする請求項1に記
載の音声合成装置。 - 【請求項7】 前記韻律情報調整手段は、前記第1の韻
律情報の一部を、対応する前記第2の韻律情報の一部と
置き換えることにより、前記最終的な韻律情報を生成す
ることを特徴とする請求項1に記載の音声合成装置。 - 【請求項8】 前記韻律情報調整手段は、前記第1の韻
律情報における音韻継続時間長を、前記第2の韻律情報
を利用したものに置き換えることにより、前記最終的な
韻律情報を生成することを特徴とする請求項1に記載の
音声合成装置。 - 【請求項9】 入力データに対応する合成音を生成する
音声合成方法であって、 前記入力データに基づいて、前記合成音の韻律を制御す
る第1の韻律情報を生成する第1の韻律情報生成ステッ
プと、 音楽的要素により韻律を制御し、前記合成音に対してパ
ラ言語情報を付与する第2の韻律情報を生成する第2の
韻律情報生成ステップと、 前記第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整ステップと、 前記最終的な韻律情報により韻律を制御した合成音を生
成する音声合成ステップとを備えることを特徴とする音
声合成方法。 - 【請求項10】 入力データに対応する合成音を生成す
る音声合成処理を、コンピュータに行わせるプログラム
であって、 前記入力データに基づいて、前記合成音の韻律を制御す
る第1の韻律情報を生成する第1の韻律情報生成ステッ
プと、 音楽的要素により韻律を制御し、前記合成音に対してパ
ラ言語情報を付与する第2の韻律情報を生成する第2の
韻律情報生成ステップと、 前記第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整ステップと、 前記最終的な韻律情報により韻律を制御した合成音を生
成する音声合成ステップとを備えることを特徴とするプ
ログラム。 - 【請求項11】 入力データに対応する合成音を生成す
る音声合成処理を、コンピュータに行わせるプログラム
が記録されている記録媒体であって、 前記入力データに基づいて、前記合成音の韻律を制御す
る第1の韻律情報を生成する第1の韻律情報生成ステッ
プと、 音楽的要素により韻律を制御し、前記合成音に対してパ
ラ言語情報を付与する第2の韻律情報を生成する第2の
韻律情報生成ステップと、 前記第1と第2の韻律情報を調整し、最終的な韻律情報
を生成する韻律情報調整ステップと、 前記最終的な韻律情報により韻律を制御した合成音を生
成する音声合成ステップとを備えるプログラムが記録さ
れていることを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001104326A JP2002304187A (ja) | 2001-04-03 | 2001-04-03 | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001104326A JP2002304187A (ja) | 2001-04-03 | 2001-04-03 | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002304187A true JP2002304187A (ja) | 2002-10-18 |
JP2002304187A5 JP2002304187A5 (ja) | 2008-04-10 |
Family
ID=18957199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001104326A Pending JP2002304187A (ja) | 2001-04-03 | 2001-04-03 | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002304187A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040052110A (ko) * | 2002-12-13 | 2004-06-19 | 에스케이 텔레콤주식회사 | Tts를 이용한 코러스 및 아카펠라 구현방법 |
US7241947B2 (en) | 2003-03-20 | 2007-07-10 | Sony Corporation | Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus |
US7656276B2 (en) | 2003-12-24 | 2010-02-02 | Pioneer Corporation | Notification control device, its system, its method, its program, recording medium storing the program, and travel support device |
WO2023037609A1 (ja) * | 2021-09-10 | 2023-03-16 | ソニーグループ株式会社 | 自律移動体、情報処理方法、及び、プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59192294A (ja) * | 1983-04-16 | 1984-10-31 | 富士通株式会社 | 会話音声歌声発生装置 |
JP2000105595A (ja) * | 1998-09-30 | 2000-04-11 | Victor Co Of Japan Ltd | 歌唱装置及び記録媒体 |
-
2001
- 2001-04-03 JP JP2001104326A patent/JP2002304187A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59192294A (ja) * | 1983-04-16 | 1984-10-31 | 富士通株式会社 | 会話音声歌声発生装置 |
JP2000105595A (ja) * | 1998-09-30 | 2000-04-11 | Victor Co Of Japan Ltd | 歌唱装置及び記録媒体 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040052110A (ko) * | 2002-12-13 | 2004-06-19 | 에스케이 텔레콤주식회사 | Tts를 이용한 코러스 및 아카펠라 구현방법 |
US7241947B2 (en) | 2003-03-20 | 2007-07-10 | Sony Corporation | Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus |
US7656276B2 (en) | 2003-12-24 | 2010-02-02 | Pioneer Corporation | Notification control device, its system, its method, its program, recording medium storing the program, and travel support device |
WO2023037609A1 (ja) * | 2021-09-10 | 2023-03-16 | ソニーグループ株式会社 | 自律移動体、情報処理方法、及び、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4296714B2 (ja) | ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム | |
JP4150198B2 (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
JP2002268699A (ja) | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 | |
JP4687936B2 (ja) | 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体 | |
JP2001154681A (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
JP2003271174A (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置 | |
JP2002304188A (ja) | 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 | |
JP2002318594A (ja) | 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体 | |
JP2002268663A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2002258886A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2002304187A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2002311981A (ja) | 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体 | |
JP2003271172A (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
JP4016316B2 (ja) | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム | |
JP4656354B2 (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
JP2002318590A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2004170756A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2002189497A (ja) | ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム | |
JP2002318593A (ja) | 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体 | |
JP4742415B2 (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP2002120177A (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP2001212779A (ja) | 行動制御装置および行動制御方法、並びに記録媒体 | |
JP2004258290A (ja) | 音声処理装置および方法、記録媒体、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110203 |