JP2001188553A - 音声合成装置および方法、並びに記録媒体 - Google Patents
音声合成装置および方法、並びに記録媒体Info
- Publication number
- JP2001188553A JP2001188553A JP37378099A JP37378099A JP2001188553A JP 2001188553 A JP2001188553 A JP 2001188553A JP 37378099 A JP37378099 A JP 37378099A JP 37378099 A JP37378099 A JP 37378099A JP 2001188553 A JP2001188553 A JP 2001188553A
- Authority
- JP
- Japan
- Prior art keywords
- control information
- speech
- emotion
- robot
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 80
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title description 7
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 230000008451 emotion Effects 0.000 claims description 65
- 238000006243 chemical reaction Methods 0.000 claims description 38
- 230000007704 transition Effects 0.000 claims description 31
- 230000002194 synthesizing effect Effects 0.000 claims description 24
- 230000002996 emotional effect Effects 0.000 claims description 3
- 230000005236 sound signal Effects 0.000 claims description 3
- 238000001308 synthesis method Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 12
- 238000013507 mapping Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101100116283 Arabidopsis thaliana DD11 gene Proteins 0.000 description 1
- 206010008531 Chills Diseases 0.000 description 1
- 206010013952 Dysphonia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 208000027498 hoarse voice Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
ボットを実現する。 【解決手段】 各種センサ1は、外部の状況やロボット
に対する作用を検出して、検出結果をロボット運動系制
御部10に出力する。ロボット運動系制御部10は、動
作モデル32に基づき、動作ステートを決定する。ロボ
ット思考系制御部11は、感情モデルに基づき、感情ス
テートを決定する。音声合成コントロール情報選択部1
2は、動作ステート、および感情ステートに基づいて、
音声合成コントロール情報テーブル13上のフィールド
を決定する。言語処理部14は、ロボット思考系制御部
11からの音声合成対象文を文法的に解析した後、音声
合成コントロール情報に基づいて所定の箇所を変換し、
規則音声合成部15に出力する。規則音声合成部15
は、音声合成対象文に対応する音声信号を合成する。
Description
び方法、並びに記録媒体に関し、例えば、ロボットに搭
載して、当該ロボットの感情や動作等に対応して合成す
る音声信号を変化させる場合に用いて好適な音声合成装
置および方法、並びに記録媒体に関する。
る。例えば、言葉を発声するロボットが、自己の感情を
変化させて、感情に応じて話し方を変えるようになった
り、例えばまた、ロボットに、種別、性別、年齢、出身
地、性格、体格などの個性を設定し、個性に対応して話
し方を変化させるようになれば、よりリアルに生命体を
模擬したものとなる。
対してユーザは、あたかも生きたペットに対するような
親しみや愛情をもって接することができるようになる
が、そのようなロボットは実現されていない課題があっ
た。
ものであり、感情や動作等に対応して話し方を変化させ
るようにすることにより、よりリアルに生命体を模擬し
たロボットを実現することを目的とする。
は、動作モデルに従って動作状態を遷移する動作状態遷
移手段と、感情モデルに従って感情状態を遷移する感情
状態遷移手段と、動作状態および感情状態のうち、少な
くとも一方に基づいて制御情報を選択する選択手段と、
選択手段が選択した制御情報に含まれる音声合成情報に
基づき、対象文に対応して音声信号を合成する合成手段
とを含むことを特徴とする。
出する検出手段をさらに含むことができ、前記選択手段
は、検出手段の検出結果にも基づいて制御情報を選択す
るようにすることができる。
する保持手段をさらに含むことができ、前記選択手段
は、保持手段が保持する個体情報にも基づいて制御情報
を選択するようにすることができる。
時間をカウントするカウント手段をさらに含むことがで
き、前記選択手段は、カウント手段がカウントした経過
時間にも基づいて制御情報を選択するようにすることが
できる。
段が動作状態を遷移した回数、および感情状態遷移手段
が感情状態を遷移した回数のうち、少なくとも一方を累
積する累積手段をさらに含むことができ、前記選択手段
は、累積手段が累積した回数にも基づいて制御情報を選
択するようにすることができる。
した制御情報に含まれる選択情報に対応する単語置換辞
書を用いて、対象文に含まれる単語を置換する置換手段
をさらに含むことができる。
した制御情報に含まれる選択情報に対応する文体変換規
則に従って、対象文の文体を変換する変換手段をさらに
含むことができる。
って動作状態を遷移する動作状態遷移ステップと、感情
モデルに従って感情状態を遷移する感情状態遷移ステッ
プと、動作状態および感情状態のうち、少なくとも一方
に基づいて制御情報を選択する選択ステップと、選択ス
テップの処理で選択された制御情報に含まれる音声合成
情報に基づき、対象文に対応して音声信号を合成する合
成ステップとを含むことを特徴とする。
デルに従って動作状態を遷移する動作状態遷移ステップ
と、感情モデルに従って感情状態を遷移する感情状態遷
移ステップと、動作状態および感情状態のうち、少なく
とも一方に基づいて制御情報を選択する選択ステップ
と、選択ステップの処理で選択された制御情報に含まれ
る音声合成情報に基づき、対象文に対応して音声信号を
合成する合成ステップとを含むことを特徴とする。
よび記録媒体のプログラムにおいては、動作モデルに従
って動作状態が遷移され、感情モデルに従って感情状態
が遷移される。また、動作状態および感情状態のうち、
少なくとも一方に基づいて制御情報が選択され、選択さ
れた制御情報に含まれる音声合成情報に基づき、対象文
に対応して音声信号が合成される。
トの音声合成に関わる部分の構成例を示している。この
ロボットは、発話機能を有し、かつ、感情と動作を変化
させて、感情や動作の変化に応じて話し方を変化するよ
うになされている。
ボットに対する作用を検出して、検出結果をロボット運
動系制御部10に出力する。例えば、外気温センサ2
は、ロボットの外気温を検出する。温度センサ3と接触
センサ4は、対をなして近傍に設けられており、接触セ
ンサ4がロボットに対する物体の接触を検知し、温度セ
ンサ3が接触した物体の温度を検出する。感圧センサ5
は、ロボットに加えられる外力(例えば、叩かれる力や
撫でられる力など)の強さを検出する。風速センサ6
は、ロボット外部の風速を検出する。照度センサ7は、
ロボット外部の照度を検出する。画像センサ8は、例え
ばCCDなどからなり、ロボット外部の景色を画像信号と
して検出する。音声センサ9は、例えばマイクロフォン
からなり、音声を検出する。
ように、運動系処理部31と動作モデル32から構成さ
れており、当該ロボットの動作を管理する。運動系処理
部31は、各種センサ1から入力される検出結果、自己
の内部で生成する内部イベント、および、ロボット思考
系制御部11から入力される指令を動作モデル32に照
らし合わせてロボットの動作を遷移させ、現在の動作の
状態を動作ステートとして音声合成コントロール情報選
択部12に出力する。運動系処理部31はまた、例え
ば、感圧センサ5の検知結果が所定の閾値以上の力であ
ったとき、動作イベントとして「頭を叩かれた」と判定
するように、各種センサ1から入力される検出結果に基
づき、動作イベントを判定してロボット思考系制御部1
1に出力する。運動系処理部31はさらに、各種センサ
1からの検出結果をロボット思考系制御部11に中継す
る。なお、各種センサ1から思考系処理部41に検出結
果を直接入力するようにしてもよい。
標準状態から各種の動作に遷移するときの条件が記述さ
れている。例えば、標準状態において、指令「歩く」が
命令された場合、動作「歩く」に遷移することや、例え
ばまた、指令「起き上がる」が命令された場合、動作
「起き上がる」に遷移し、その動作が終了したことに対
応して発せられる内部イベント「動作終了」に対応して
標準の状態に遷移することなどが記述されている。
は、図2に示すように、思考系処理部41と感情モデル
42から構成されており、当該ロボットの感情を管理す
る。思考系処理部41は、運動系処理部31から入力さ
れる動作イベントや各種センサ1の検出結果、自己の内
部で生成する内部イベント(一定の時間毎、周期的に発
生させるイベント等)を感情モデル42に照らし合わせ
てロボットの感情を遷移させ、現在の感情を感情ステー
トとして音声合成コントロール情報選択部12に出力す
る。思考系処理部41はまた、各種センサ1の検出結果
などに対応して、運動系処理31に動作に関する指令を
出力する。思考系処理部41はさらに、例えば、動作イ
ベント「頭を叩かれた」に対応して音声合成対象文「痛
い」を生成するように、動作イベントや各種センサ1の
検出結果などに対応し、当該ロボットが発声する音声合
成対象文を生成して言語処理部14に出力する。
標準の状態から各種の感情に遷移するときの条件が記述
されている。例えば、標準状態において、動作イベント
「頭と叩かれた」が発生した場合、感情「怒り」に遷移
することや、動作イベント「頭を撫でられた」が発生し
た場合、感情「嬉しい」に遷移し、その後、所定の時間
以上動作イベントが発生されないことに対応して発せら
れる内部イベントに対応して標準の状態に遷移すること
などが記述されている。
択部12は、ロボット運動系制御部10から入力される
動作ステート、および、ロボット思考系制御部11から
入力される感情ステートに基づいて、音声合成コントロ
ール情報テーブル13に多数用意されているフィールド
の中から、最も適切な音声合成コントロール情報が格納
されているフィールドを選択する。なお、この選択に際
しては、動作ステートおよび感情ステート以外のパラメ
ータを追加して、選択するフィールドを決定するように
してもよい(詳細は、図8乃至図10を参照して後述す
る)。
は、動作ステートおよび感情ステート、その他のパラメ
ータ(後述)のあらゆる組み合わせに対応した多数のフ
ィールドが設けられており、音声合成コントロール情報
選択部12に選択されたフィールドに格納している選択
情報を言語処理部14に出力し、音声合成コントロール
情報を規則音声合成部15に出力する。
して選択情報と音声合成コントロール情報が格納されて
いる。選択情報は、単語マッピング辞書IDと文体変換
ルールIDからなる。音声合成コントロール情報は、素
片データID、音節セットID、声の高さパラメータ、
アクセントの強さパラメータ、声立ての強さパラメー
タ、および、発話スピードパラメータからなる。
グ辞書データベース54(図6)に予め用意されてい
る、幼児語の単語マッピング辞書、大阪弁の単語マッピ
ング辞書、女子高生言葉の単語マッピング辞書、猫の単
語マッピング辞書などの複数の辞書のなかで、単語変換
部53(図6)で使用される辞書を特定するための情報
である。単語マッピング辞書は、後述するロボットの個
性情報などに対応して切り替えられるものであり、標準
語で表記されている音声合成対象文に含まれる単語を、
別の単語に置換するための辞書である。例えば、幼児語
の単語マッピング辞書は、音声合成対象文に含まれる単
語「車」を「ブーブ」に置換する。
データベース56(図6)に予め用意されている、女性
言葉への変換ルール、男性言葉への変換ルール、幼児語
への変換ルール、大阪弁への変換ルール、女子高生言葉
への変換ルール、猫語への変換ルールなどの複数のルー
ルなかで、文体変換部55(図6)で使用されるルール
を特定するための情報である。文体変換ルールは、後述
するロボットの個性情報などに対応して切り替えられる
ものであり、音声合成対象文に含まれる文字列を、別の
文字列に変換するためのルールである。例えば、猫語へ
の文体変換ルールは、音声合成対象文中の語尾「**で
す」を「**ニャ」に変換する。
データIDは、規則音声合成部15で使用される音声素
片を特定するための情報である。音声素片としては、女
性の声、男性の声、子供の声、嗄れている声、機械的な
声、その他の声のデータが、規則音声合成部15の内部
に予め用意されている。
使用される音節セットを特定するための情報である。音
節セットとしては、例えば、基本266音節セットと簡
略180音節セットが用意されている。簡略180音節
セットでは、基本266音節セットよりも発声可能な音
韻の数が制限されており、例えば、言語処理部14から
入力される音声合成対象文「リンゴ」を「にんご」と発
声する。このように、発声する音韻を制限することによ
り、幼児のような舌足らずな発声を表現することができ
る。
5で合成される音声のピッチ周波数を指定するための情
報である。アクセントの強さパラメータは、規則音声合
成部15で合成される音声のアクセントの強度を指定す
るための情報である。この値が大きければ、アクセント
の起伏が激しい発声が行われ、値が小さければ、平坦な
アクセントで発声が行われる。
部15で合成される音声の声立ての強度を指定するため
の情報である。この値が大きければ、声立てが多くな
り、値が小さければ、声立てが少なくなる。発話スピー
ドパラメータは、規則音声合成部15で合成される音声
の発話スピードを指定するための情報である。
思考系制御部11から入力される音声合成対象文を文法
的に解析した後、音声合成コントロール情報に基づいて
所定の箇所を変換し、規則音声合成部15に出力する。
いる。ロボット思考系制御部11からの音声合成対象文
は、文体解析部51に入力される。また、音声合成コン
トロール情報テーブル13からの選択情報は単語変換部
53および文体変換部55に入力される。文体解析部5
1は、音声合成対象文を解析用辞書52を用いて形態素
解析し、単語変換部53に出力する。解析用辞書52に
は、規則音声合成に必要となる情報、例えば、単語(形
態素)の読み、アクセント型、および品詞などの他、各
単語の固有の単語IDが記述されている。
語マッピング辞書IDに対応する辞書を単語マッピング
辞書データベース54から読み出し、文体解析部51か
らの形態素解析された音声合成対象文に含まれる単語の
うち、読み出した単語マッピング辞書に変換する単語が
記述されているものだけを置換して文体変換部55に出
力する。
体変換ルールIDに対応するルールを文体変換ルールデ
ータベース56から読み出し、読み出した文体変換ルー
ルに従って、単語変換部53からの単語変換が施された
音声合成対象文を変換し、規則音声合成部15に出力す
る。
合成コントロール情報テーブル13から入力される音声
合成コントロール情報に従って、言語処理部14から入
力される音声合成対象文に対応する音声信号を合成す
る。合成された音声信号は、スピーカ16から放音され
る。
磁気ディスク19、光ディスク20、光磁気ディスク2
1、または半導体メモリ22に記憶されている制御用プ
ログラムを読み出し、読み出した制御用プログラムに基
づいて各部を制御する。
ついて、図7のフローチャートを参照して説明する。こ
の処理は、例えば、ユーザに頭を叩かれたことを、各種
センサ1の感圧センサ5が検出し、検出結果がロボット
運動系制御部10の運動系処理部31に入力されたとき
に開始される。
は、感圧センサ5の検知結果が所定の閾値以上の力であ
ることに対応して、動作イベント「頭を叩かれた」の発
生を判定し、ロボット思考系制御部11の思考系処理部
41に通知する。運動系処理部31はまた、動作イベン
ト「頭を叩かれた」を動作モデル32に照らし合わせて
ロボットの動作「起き上がる」を決定し、動作ステート
として音声合成コントロール情報選択部12に出力す
る。
御部11の思考系処理部41は、運動系処理部31から
入力された動作イベント「頭を叩かれた」を感情モデル
42に照らし合わせて、感情を「怒り」に遷移させ、現
在の感情を感情ステートとして音声合成コントロール情
報選択部12に出力する。思考系処理部41はまた、動
作イベント「頭を叩かれた」に対応して音声合成対象文
「痛い」を発生して言語処理部14の文体解析部51に
出力する。
ール情報選択部12は、運動系処理部31から入力され
た動作ステート、および、思考系処理部41から入力さ
れた感情ステートに基づいて、音声合成コントロール情
報テーブル13に多数用意されているフィールドの中か
ら、最も適切な音声合成コントロール情報が格納されて
いるフィールドを選択する。音声合成コントロール情報
テーブル13は、選択されたフィールドに格納している
選択情報を音声処理部14に出力し、音声合成コントロ
ール情報を規則音声合成部15に出力する。
文体解析部51は、音声合成対象文を解析用辞書52を
用いて形態素解析し、単語変換部53に出力する。ステ
ップS5において、単語変換部53は、選択情報に含ま
れる単語マッピング辞書IDに対応する辞書を単語マッ
ピング辞書データベース54から読み出し、文体解析部
51からの形態素解析された音声合成対象文に含まれる
単語のうち、読み出した単語マッピング辞書に変換する
単語が記述されているものだけを置換して文体変換部5
5に出力する。ステップS6において、文体変換部55
は、選択情報に含まれる文体変換ルールIDに対応する
ルールを文体変換ルールデータベース56から読み出
し、読み出した文体変換ルールに従って、単語変換部5
3からの単語変換が施された音声合成対象文を変換し、
規則音声合成部15に出力する。
5は、音声合成コントロール情報テーブル13から入力
された音声合成コントロール情報に従って、言語処理部
14から入力された音声合成対象文に対応する音声信号
を合成し、スピーカ16から放音させる。
かも感情を有するかのように動作し、また、感情の変化
や動作に応じて話し方を変化するようになる。
2の選択処理に際し、動作ステートおよび感情ステート
以外のパラメータを追加する方法について、図8乃至図
10を参照して説明する。
に個性を設定するための構成として、通信ポート61乃
至個体情報メモリ63を追加した構成例を示している。
通信ポート61は、外部装置(パーソナルコンピュータ
など)と個性情報を通信するインタフェースであり、例
えば、RS-232C、USB、IEEE1394等の通信規格に適合した
ものが考えられる。通信制御部62は、通信ポート61
を介した外部との情報通信を所定のプロトコルに従って
制御し、受信する個性情報をロボット思考系制御部11
に出力する。個性情報メモリ13は、フラッシュメモリ
などの書き換え可能な不発揮性メモリを用い、記憶した
個性情報を音声合成コントロール情報選択部12に出力
する。
ば、次のような項目が考えられる。 種別 犬/猫 性別 雄/雌 年齢 子供/大人 気性 激しい/おとなしい 体格 痩せている/太っている
れて個性情報メモリ63に記憶される。また、各項目を
2値化するのではなく、さらに細分化して設定するよう
にしてもよい。
抑止するために、書き換えの回数を制限するようにして
もよいし、書き換えに際してパスワードを設けるように
してもよい。また、通信ポート61および通信制御部6
2を設けずに、個性情報を予め書き込んだROMから成る
個性情報メモリ63を製造時に組み込むようにしてもよ
い。
れた個性に応じて、個体毎に異なる音声を出力するロボ
ットを実現することが可能となる。
1を追加した構成例を示している。タイマ71は、ロボ
ットが最初に起動されたとき以降の経過時間をカウント
して音声合成コントロール情報選択部12に出力する。
なお、タイマ71は、最初に起動されたとき以降の稼働
中の時間だけをカウントするようにしてもよい。
る音声を経年変化させるロボットを実現することが可能
となる。
計算部81および経験値メモリ82を追加した構成例を
示している。経験値計算部81は、思考系処理部41が
感情を標準から他の状態に遷移させる毎、遷移した感情
ステート毎に遷移回数をカウントアップして経験値メモ
リ82に記録する。例えば、図4に示した感情モデル4
2のように感情ステートが4種類で有れば、4項目の遷
移回数が経験値メモリ82に記録される。音声合成コン
トロール情報選択部12には、各感情ステートへの遷移
回数を通知するようにしてもよいし、最も遷移回数の多
い感情ステートを通知するようにしてもよい。
ば、頻繁に叩かれていて、感情ステート「怒り」への遷
移回数が多いロボットは、怒りっぽい話し方をするよう
にすることができ、頻繁に撫でられていて、感情ステー
ト「嬉しい」への遷移回数が多いロボットは、楽しそう
な話し方をするようにすることができる。
適宜組み合わせることが可能である。
タ化して、音声合成コントロール情報選択部12に供給
することにより、外部の状況に応じて話し方を変化させ
るようにしてもよい。例えば、外気温センサ2が検出し
た外気温が所定の温度以下である場合、寒そうな震えた
声を発声するようにしてもよい。
ータ化して、履歴として記録し、その履歴を音声合成コ
ントロール情報選択部12に供給するようにしてもよ
い。これにより、例えば、外気温が所定の温度以下であ
る履歴が多いロボットは、東北弁を話すようになるよう
にしてもよい。
ウェアにより実行させることもできるが、ソフトウェア
により実行させることもできる。一連の処理をソフトウ
ェアにより実行させる場合には、そのソフトウェアを構
成するプログラムが、専用のハードウェアに組み込まれ
ているコンピュータ、または、各種のプログラムをイン
ストールすることで、各種の機能を実行することが可能
な、例えば汎用のパーソナルコンピュータなどに、記録
媒体からインストールされる。
ピュータとは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク19(フロッピディスクを含む)、光ディスク20
(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digit
al Versatile Disc)を含む)、光磁気ディスク21(M
D(Mini Disc)を含む)、もしくは半導体メモリ22な
どよりなるパッケージメディアにより構成されるだけで
なく、コンピュータに予め組み込まれた状態でユーザに
提供される、プログラムが記録されているROMやハード
ディスクなどで構成される。
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
音声合成方法、および記録媒体のプログラムによれば、
動作状態および感情状態のうち、少なくとも一方に基づ
いて制御情報を選択し、選択した制御情報に含まれる音
声合成情報に基づき、対象文に対応して音声信号を合成
するようにしたので、感情や動作等に対応して話し方を
変化させることができて、よりリアルに生命体を模擬し
たロボットを実現することが可能となる。
部分の構成例を示すブロック図である。
ト思考系制御部11の構成例を示すブロック図である。
る。
る。
である。
図である。
ローチャートである。
部分の他の構成例を示すブロック図である。
部分のさらに他の構成例を示すブロック図である。
る部分のさらに他の構成例を示すブロック図である。
1 ロボット思考系制御部, 12 音声合成コントロ
ール情報選択部, 13 音声合成コントロール情報テ
ーブル, 14 言語処理部, 15 規則音声合成
部, 17 制御部, 31 運動系処理部, 32
動作モデル, 41 思考系処理部, 42 感情モデ
ル, 51 文体解析部, 53 単語変換部, 55
文体変換部, 61 通信ポート, 62 通信制御
部, 63 個体情報メモリ, 71 タイマ, 81
経験値計算部, 82 経験値メモリ
Claims (11)
- 【請求項1】 対象文に対応して音声信号を合成する音
声合成装置において、 動作モデルに従って動作状態を遷移する動作状態遷移手
段と、 感情モデルに従って感情状態を遷移する感情状態遷移手
段と、 前記動作状態および前記感情状態のうち、少なくとも一
方に基づいて制御情報を選択する選択手段と、 前記選択手段が選択した前記制御情報に含まれる音声合
成情報に基づき、前記対象文に対応して音声信号を合成
する合成手段とを含むことを特徴とする音声合成装置。 - 【請求項2】 前記音声合成情報には、素片データI
D、音節セットID、声の高さパラメータ、アクセント
の強さパラメータ、声立ての強さパラメータ、および発
話スピードパラメータのうち、少なくとも1つが含まれ
ることを特徴とする請求項1に記載の音声合成装置。 - 【請求項3】 外部の状況を検出する検出手段をさらに
含み、 前記選択手段は、前記検出手段の検出結果にも基づいて
前記制御情報を選択することを特徴とする請求項1に記
載の音声合成装置。 - 【請求項4】 個体情報を保持する保持手段をさらに含
み、 前記選択手段は、前記保持手段が保持する前記個体情報
にも基づいて前記制御情報を選択することを特徴とする
請求項1に記載の音声合成装置。 - 【請求項5】 起動以降の経過時間をカウントするカウ
ント手段をさらに含み、 前記選択手段は、前記カウント手段がカウントした前記
経過時間にも基づいて前記制御情報を選択することを特
徴とする請求項1に記載の音声合成装置。 - 【請求項6】 前記動作状態遷移手段が前記動作状態を
遷移した回数、および前記感情状態遷移手段が前記感情
状態を遷移した回数のうち、少なくとも一方を累積する
累積手段をさらに含み、 前記選択手段は、前記累積手段が累積した回数にも基づ
いて前記制御情報を選択することを特徴とする請求項1
に記載の音声合成装置。 - 【請求項7】 前記選択手段が選択した前記制御情報に
含まれる選択情報に対応する単語置換辞書を用いて、前
記対象文に含まれる単語を置換する置換手段をさらに含
むことを特徴とする請求項1に記載の音声合成装置。 - 【請求項8】 前記選択手段が選択した前記制御情報に
含まれる選択情報に対応する文体変換規則に従って、前
記対象文の文体を変換する変換手段をさらに含むことを
特徴とする請求項1に記載の音声合成装置。 - 【請求項9】 前記音声合成装置はロボットであること
を特徴とする請求項1に記載の音声合成装置。 - 【請求項10】 対象文に対応して音声信号を合成する
音声合成装置の音声合成方法において、 動作モデルに従って動作状態を遷移する動作状態遷移ス
テップと、 感情モデルに従って感情状態を遷移する感情状態遷移ス
テップと、 前記動作状態および前記感情状態のうち、少なくとも一
方に基づいて制御情報を選択する選択ステップと、 前記選択ステップの処理で選択された前記制御情報に含
まれる音声合成情報に基づき、前記対象文に対応して音
声信号を合成する合成ステップとを含むことを特徴とす
る音声合成方法。 - 【請求項11】 対象文に対応して音声信号を合成する
音声合成用のプログラムであって、 動作モデルに従って動作状態を遷移する動作状態遷移ス
テップと、 感情モデルに従って感情状態を遷移する感情状態遷移ス
テップと、 前記動作状態および前記感情状態のうち、少なくとも一
方に基づいて制御情報を選択する選択ステップと、 前記選択ステップの処理で選択された前記制御情報に含
まれる音声合成情報に基づき、前記対象文に対応して音
声信号を合成する合成ステップとを含むことを特徴とす
るコンピュータが読み取り可能なプログラムが記録され
ている記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37378099A JP4465768B2 (ja) | 1999-12-28 | 1999-12-28 | 音声合成装置および方法、並びに記録媒体 |
US09/749,345 US7379871B2 (en) | 1999-12-28 | 2000-12-27 | Speech synthesizing apparatus, speech synthesizing method, and recording medium using a plurality of substitute dictionaries corresponding to pre-programmed personality information |
EP00311701A EP1113417B1 (en) | 1999-12-28 | 2000-12-27 | Apparatus, method and recording medium for speech synthesis |
DE60035848T DE60035848T2 (de) | 1999-12-28 | 2000-12-27 | Sprachsynthesevorrichtung und Verfahren, sowie Aufzeichnungsmedium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37378099A JP4465768B2 (ja) | 1999-12-28 | 1999-12-28 | 音声合成装置および方法、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001188553A true JP2001188553A (ja) | 2001-07-10 |
JP4465768B2 JP4465768B2 (ja) | 2010-05-19 |
Family
ID=18502748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP37378099A Expired - Lifetime JP4465768B2 (ja) | 1999-12-28 | 1999-12-28 | 音声合成装置および方法、並びに記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7379871B2 (ja) |
EP (1) | EP1113417B1 (ja) |
JP (1) | JP4465768B2 (ja) |
DE (1) | DE60035848T2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002082423A1 (fr) * | 2001-04-05 | 2002-10-17 | Sony Corporation | Dispositif d'elaboration de suites de mots |
US7241947B2 (en) | 2003-03-20 | 2007-07-10 | Sony Corporation | Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus |
JP2012198277A (ja) * | 2011-03-18 | 2012-10-18 | Toshiba Corp | 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム |
JP2013246742A (ja) * | 2012-05-29 | 2013-12-09 | Azone Co Ltd | 受動型出力装置及び出力データ生成システム |
JP2019168623A (ja) * | 2018-03-26 | 2019-10-03 | カシオ計算機株式会社 | 対話装置、ロボット、対話制御方法及びプログラム |
JP2023021878A (ja) * | 2021-08-02 | 2023-02-14 | ベアー ロボティックス,インコーポレイテッド | サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
JP7463789B2 (ja) | 2020-03-23 | 2024-04-09 | 株式会社リコー | 体温計測用耳標及び体温データ管理システム |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049385A (ja) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | 音声合成装置、疑似感情表現装置及び音声合成方法 |
AU2002232928A1 (en) * | 2000-11-03 | 2002-05-15 | Zoesis, Inc. | Interactive character system |
EP1256931A1 (en) * | 2001-05-11 | 2002-11-13 | Sony France S.A. | Method and apparatus for voice synthesis and robot apparatus |
US20030093280A1 (en) * | 2001-07-13 | 2003-05-15 | Pierre-Yves Oudeyer | Method and apparatus for synthesising an emotion conveyed on a sound |
DE60215296T2 (de) * | 2002-03-15 | 2007-04-05 | Sony France S.A. | Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung |
DE10237951A1 (de) * | 2002-08-20 | 2004-03-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum Betrieb eines Roboters zu laufender Musik |
US7275032B2 (en) | 2003-04-25 | 2007-09-25 | Bvoice Corporation | Telephone call handling center where operators utilize synthesized voices generated or modified to exhibit or omit prescribed speech characteristics |
FR2859592A1 (fr) * | 2003-09-05 | 2005-03-11 | France Telecom | Procede de commande d'un terminal multimodal, plate-forme de traitement et terminal multimodal |
JP4661074B2 (ja) * | 2004-04-07 | 2011-03-30 | ソニー株式会社 | 情報処理システム、情報処理方法、並びにロボット装置 |
CN1918628A (zh) * | 2004-12-28 | 2007-02-21 | 松下电器产业株式会社 | 声音合成方法和信息提供装置 |
JP2006309162A (ja) * | 2005-03-29 | 2006-11-09 | Toshiba Corp | ピッチパターン生成方法、ピッチパターン生成装置及びプログラム |
GB2427109B (en) * | 2005-05-30 | 2007-08-01 | Kyocera Corp | Audio output apparatus, document reading method, and mobile terminal |
TWI340660B (en) * | 2006-12-29 | 2011-04-21 | Ind Tech Res Inst | Emotion abreaction device and using method of emotion abreaction device |
CA2674614C (en) | 2007-01-25 | 2017-02-28 | Eliza Corporation | Systems and techniques for producing spoken voice prompts |
AU2008100836B4 (en) * | 2007-08-30 | 2009-07-16 | Machinima Pty Ltd | Real-time realistic natural voice(s) for simulated electronic games |
US20090234638A1 (en) * | 2008-03-14 | 2009-09-17 | Microsoft Corporation | Use of a Speech Grammar to Recognize Instant Message Input |
US8374873B2 (en) | 2008-08-12 | 2013-02-12 | Morphism, Llc | Training and applying prosody models |
JP5398295B2 (ja) * | 2009-02-16 | 2014-01-29 | 株式会社東芝 | 音声処理装置、音声処理方法及び音声処理プログラム |
FR2947923B1 (fr) * | 2009-07-10 | 2016-02-05 | Aldebaran Robotics | Systeme et procede pour generer des comportements contextuels d'un robot mobile |
KR101678018B1 (ko) | 2010-01-22 | 2016-11-22 | 삼성전자주식회사 | 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법 |
US9788777B1 (en) * | 2013-08-12 | 2017-10-17 | The Neilsen Company (US), LLC | Methods and apparatus to identify a mood of media |
AU2015315225A1 (en) * | 2014-09-09 | 2017-04-27 | Botanic Technologies, Inc. | Systems and methods for cinematic direction and dynamic character control via natural language output |
JP6124306B2 (ja) * | 2014-12-17 | 2017-05-10 | 日本電信電話株式会社 | データ構造及び育児語使用傾向測定装置 |
JP6729424B2 (ja) * | 2017-01-30 | 2020-07-22 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
CN108447470A (zh) * | 2017-12-28 | 2018-08-24 | 中南大学 | 一种基于声道和韵律特征的情感语音转换方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
US5559927A (en) * | 1992-08-19 | 1996-09-24 | Clynes; Manfred | Computer system producing emotionally-expressive speech messages |
US5860064A (en) * | 1993-05-13 | 1999-01-12 | Apple Computer, Inc. | Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system |
JP3439840B2 (ja) * | 1994-09-19 | 2003-08-25 | 富士通株式会社 | 音声規則合成装置 |
US5615301A (en) * | 1994-09-28 | 1997-03-25 | Rivers; W. L. | Automated language translation system |
JP3254994B2 (ja) * | 1995-03-01 | 2002-02-12 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
US5918222A (en) * | 1995-03-17 | 1999-06-29 | Kabushiki Kaisha Toshiba | Information disclosing apparatus and multi-modal information input/output system |
JPH08279054A (ja) * | 1995-04-07 | 1996-10-22 | Hitachi Ltd | 映像生成/表示システム |
JP3741156B2 (ja) * | 1995-04-07 | 2006-02-01 | ソニー株式会社 | 音声認識装置および音声認識方法並びに音声翻訳装置 |
JPH1078952A (ja) * | 1996-07-29 | 1998-03-24 | Internatl Business Mach Corp <Ibm> | 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置 |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
KR100240637B1 (ko) * | 1997-05-08 | 2000-01-15 | 정선종 | 다중매체와의 연동을 위한 텍스트/음성변환 구현방법 및 그 장치 |
EP0878790A1 (en) * | 1997-05-15 | 1998-11-18 | Hewlett-Packard Company | Voice coding system and method |
US6363301B1 (en) * | 1997-06-04 | 2002-03-26 | Nativeminds, Inc. | System and method for automatically focusing the attention of a virtual robot interacting with users |
IL121642A0 (en) * | 1997-08-27 | 1998-02-08 | Creator Ltd | Interactive talking toy |
US6112181A (en) * | 1997-11-06 | 2000-08-29 | Intertrust Technologies Corporation | Systems and methods for matching, selecting, narrowcasting, and/or classifying based on rights management and/or other information |
US6160986A (en) * | 1998-04-16 | 2000-12-12 | Creator Ltd | Interactive toy |
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US6243680B1 (en) * | 1998-06-15 | 2001-06-05 | Nortel Networks Limited | Method and apparatus for obtaining a transcription of phrases through text and spoken utterances |
US6260016B1 (en) * | 1998-11-25 | 2001-07-10 | Matsushita Electric Industrial Co., Ltd. | Speech synthesis employing prosody templates |
US6598020B1 (en) * | 1999-09-10 | 2003-07-22 | International Business Machines Corporation | Adaptive emotion and initiative generator for conversational systems |
US6446056B1 (en) * | 1999-09-10 | 2002-09-03 | Yamaha Hatsudoki Kabushiki Kaisha | Interactive artificial intelligence |
JP2001154681A (ja) * | 1999-11-30 | 2001-06-08 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
-
1999
- 1999-12-28 JP JP37378099A patent/JP4465768B2/ja not_active Expired - Lifetime
-
2000
- 2000-12-27 DE DE60035848T patent/DE60035848T2/de not_active Expired - Lifetime
- 2000-12-27 EP EP00311701A patent/EP1113417B1/en not_active Expired - Lifetime
- 2000-12-27 US US09/749,345 patent/US7379871B2/en not_active Expired - Lifetime
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002082423A1 (fr) * | 2001-04-05 | 2002-10-17 | Sony Corporation | Dispositif d'elaboration de suites de mots |
US7233900B2 (en) | 2001-04-05 | 2007-06-19 | Sony Corporation | Word sequence output device |
US7241947B2 (en) | 2003-03-20 | 2007-07-10 | Sony Corporation | Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus |
JP2012198277A (ja) * | 2011-03-18 | 2012-10-18 | Toshiba Corp | 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム |
US9280967B2 (en) | 2011-03-18 | 2016-03-08 | Kabushiki Kaisha Toshiba | Apparatus and method for estimating utterance style of each sentence in documents, and non-transitory computer readable medium thereof |
JP2013246742A (ja) * | 2012-05-29 | 2013-12-09 | Azone Co Ltd | 受動型出力装置及び出力データ生成システム |
JP2019168623A (ja) * | 2018-03-26 | 2019-10-03 | カシオ計算機株式会社 | 対話装置、ロボット、対話制御方法及びプログラム |
JP7463789B2 (ja) | 2020-03-23 | 2024-04-09 | 株式会社リコー | 体温計測用耳標及び体温データ管理システム |
JP2023021878A (ja) * | 2021-08-02 | 2023-02-14 | ベアー ロボティックス,インコーポレイテッド | サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
JP7382991B2 (ja) | 2021-08-02 | 2023-11-17 | ベアー ロボティックス,インコーポレイテッド | サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP1113417A2 (en) | 2001-07-04 |
EP1113417B1 (en) | 2007-08-08 |
US20010021907A1 (en) | 2001-09-13 |
JP4465768B2 (ja) | 2010-05-19 |
DE60035848D1 (de) | 2007-09-20 |
US7379871B2 (en) | 2008-05-27 |
EP1113417A3 (en) | 2001-12-05 |
DE60035848T2 (de) | 2008-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001188553A (ja) | 音声合成装置および方法、並びに記録媒体 | |
US7065490B1 (en) | Voice processing method based on the emotion and instinct states of a robot | |
TW586056B (en) | Robot control device, robot control method, and recording medium | |
JP4150198B2 (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
US7412390B2 (en) | Method and apparatus for speech synthesis, program, recording medium, method and apparatus for generating constraint information and robot apparatus | |
US20020198717A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
JP2002358095A (ja) | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 | |
JP2002268699A (ja) | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 | |
JP3273550B2 (ja) | 自動応答玩具 | |
JP4687936B2 (ja) | 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体 | |
KR20030007866A (ko) | 단어열 출력 장치 | |
WO1999032203A1 (en) | A standalone interactive toy | |
JP4905522B2 (ja) | 機器制御装置、機器制御方法及びプログラム | |
KR20030010736A (ko) | 언어 처리 장치 | |
JP2003271172A (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
JP2002268663A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2002258886A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP2001188788A (ja) | 会話処理装置および方法、並びに記録媒体 | |
JP2002311981A (ja) | 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体 | |
JP4656354B2 (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
JP2002304187A (ja) | 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体 | |
JP4178777B2 (ja) | ロボット装置、記録媒体、並びにプログラム | |
JP2018159777A (ja) | 音声再生装置、および音声再生プログラム | |
JP2020190587A (ja) | ロボットの制御装置、ロボット、ロボットの制御方法及びプログラム | |
JP2019168623A (ja) | 対話装置、ロボット、対話制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4465768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |