JP2001188553A - 音声合成装置および方法、並びに記録媒体 - Google Patents

音声合成装置および方法、並びに記録媒体

Info

Publication number
JP2001188553A
JP2001188553A JP37378099A JP37378099A JP2001188553A JP 2001188553 A JP2001188553 A JP 2001188553A JP 37378099 A JP37378099 A JP 37378099A JP 37378099 A JP37378099 A JP 37378099A JP 2001188553 A JP2001188553 A JP 2001188553A
Authority
JP
Japan
Prior art keywords
control information
speech
emotion
robot
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP37378099A
Other languages
English (en)
Other versions
JP4465768B2 (ja
Inventor
Masato Shimakawa
真人 島川
Nobuhide Yamazaki
信英 山崎
Erika Kobayashi
恵理香 小林
Makoto Akaha
誠 赤羽
Kenichiro Kobayashi
賢一郎 小林
Keiichi Yamada
敬一 山田
Tomoaki Nitsuta
朋晃 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37378099A priority Critical patent/JP4465768B2/ja
Priority to US09/749,345 priority patent/US7379871B2/en
Priority to EP00311701A priority patent/EP1113417B1/en
Priority to DE60035848T priority patent/DE60035848T2/de
Publication of JP2001188553A publication Critical patent/JP2001188553A/ja
Application granted granted Critical
Publication of JP4465768B2 publication Critical patent/JP4465768B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 感情や動作等に対応して話し方を変化するロ
ボットを実現する。 【解決手段】 各種センサ1は、外部の状況やロボット
に対する作用を検出して、検出結果をロボット運動系制
御部10に出力する。ロボット運動系制御部10は、動
作モデル32に基づき、動作ステートを決定する。ロボ
ット思考系制御部11は、感情モデルに基づき、感情ス
テートを決定する。音声合成コントロール情報選択部1
2は、動作ステート、および感情ステートに基づいて、
音声合成コントロール情報テーブル13上のフィールド
を決定する。言語処理部14は、ロボット思考系制御部
11からの音声合成対象文を文法的に解析した後、音声
合成コントロール情報に基づいて所定の箇所を変換し、
規則音声合成部15に出力する。規則音声合成部15
は、音声合成対象文に対応する音声信号を合成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声合成装置およ
び方法、並びに記録媒体に関し、例えば、ロボットに搭
載して、当該ロボットの感情や動作等に対応して合成す
る音声信号を変化させる場合に用いて好適な音声合成装
置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】従来、言葉を発声するロボットは存在す
る。例えば、言葉を発声するロボットが、自己の感情を
変化させて、感情に応じて話し方を変えるようになった
り、例えばまた、ロボットに、種別、性別、年齢、出身
地、性格、体格などの個性を設定し、個性に対応して話
し方を変化させるようになれば、よりリアルに生命体を
模擬したものとなる。
【0003】
【発明が解決しようとする課題】そのようなロボットに
対してユーザは、あたかも生きたペットに対するような
親しみや愛情をもって接することができるようになる
が、そのようなロボットは実現されていない課題があっ
た。
【0004】本発明はこのような状況に鑑みてなされた
ものであり、感情や動作等に対応して話し方を変化させ
るようにすることにより、よりリアルに生命体を模擬し
たロボットを実現することを目的とする。
【0005】
【課題を解決するための手段】本発明の音声合成装置
は、動作モデルに従って動作状態を遷移する動作状態遷
移手段と、感情モデルに従って感情状態を遷移する感情
状態遷移手段と、動作状態および感情状態のうち、少な
くとも一方に基づいて制御情報を選択する選択手段と、
選択手段が選択した制御情報に含まれる音声合成情報に
基づき、対象文に対応して音声信号を合成する合成手段
とを含むことを特徴とする。
【0006】本発明の音声合成装置は、外部の状況を検
出する検出手段をさらに含むことができ、前記選択手段
は、検出手段の検出結果にも基づいて制御情報を選択す
るようにすることができる。
【0007】本発明の音声合成装置は、個体情報を保持
する保持手段をさらに含むことができ、前記選択手段
は、保持手段が保持する個体情報にも基づいて制御情報
を選択するようにすることができる。
【0008】本発明の音声合成装置は、起動以降の経過
時間をカウントするカウント手段をさらに含むことがで
き、前記選択手段は、カウント手段がカウントした経過
時間にも基づいて制御情報を選択するようにすることが
できる。
【0009】本発明の音声合成装置は、動作状態遷移手
段が動作状態を遷移した回数、および感情状態遷移手段
が感情状態を遷移した回数のうち、少なくとも一方を累
積する累積手段をさらに含むことができ、前記選択手段
は、累積手段が累積した回数にも基づいて制御情報を選
択するようにすることができる。
【0010】本発明の音声合成装置は、選択手段が選択
した制御情報に含まれる選択情報に対応する単語置換辞
書を用いて、対象文に含まれる単語を置換する置換手段
をさらに含むことができる。
【0011】本発明の音声合成装置は、選択手段が選択
した制御情報に含まれる選択情報に対応する文体変換規
則に従って、対象文の文体を変換する変換手段をさらに
含むことができる。
【0012】本発明の音声合成方法は、動作モデルに従
って動作状態を遷移する動作状態遷移ステップと、感情
モデルに従って感情状態を遷移する感情状態遷移ステッ
プと、動作状態および感情状態のうち、少なくとも一方
に基づいて制御情報を選択する選択ステップと、選択ス
テップの処理で選択された制御情報に含まれる音声合成
情報に基づき、対象文に対応して音声信号を合成する合
成ステップとを含むことを特徴とする。
【0013】本発明の記録媒体のプログラムは、動作モ
デルに従って動作状態を遷移する動作状態遷移ステップ
と、感情モデルに従って感情状態を遷移する感情状態遷
移ステップと、動作状態および感情状態のうち、少なく
とも一方に基づいて制御情報を選択する選択ステップ
と、選択ステップの処理で選択された制御情報に含まれ
る音声合成情報に基づき、対象文に対応して音声信号を
合成する合成ステップとを含むことを特徴とする。
【0014】本発明の音声合成装置、音声合成方法、お
よび記録媒体のプログラムにおいては、動作モデルに従
って動作状態が遷移され、感情モデルに従って感情状態
が遷移される。また、動作状態および感情状態のうち、
少なくとも一方に基づいて制御情報が選択され、選択さ
れた制御情報に含まれる音声合成情報に基づき、対象文
に対応して音声信号が合成される。
【0015】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの音声合成に関わる部分の構成例を示している。この
ロボットは、発話機能を有し、かつ、感情と動作を変化
させて、感情や動作の変化に応じて話し方を変化するよ
うになされている。
【0016】各種センサ1は、ロボット外部の状況やロ
ボットに対する作用を検出して、検出結果をロボット運
動系制御部10に出力する。例えば、外気温センサ2
は、ロボットの外気温を検出する。温度センサ3と接触
センサ4は、対をなして近傍に設けられており、接触セ
ンサ4がロボットに対する物体の接触を検知し、温度セ
ンサ3が接触した物体の温度を検出する。感圧センサ5
は、ロボットに加えられる外力(例えば、叩かれる力や
撫でられる力など)の強さを検出する。風速センサ6
は、ロボット外部の風速を検出する。照度センサ7は、
ロボット外部の照度を検出する。画像センサ8は、例え
ばCCDなどからなり、ロボット外部の景色を画像信号と
して検出する。音声センサ9は、例えばマイクロフォン
からなり、音声を検出する。
【0017】ロボット運動系制御部10は、図2に示す
ように、運動系処理部31と動作モデル32から構成さ
れており、当該ロボットの動作を管理する。運動系処理
部31は、各種センサ1から入力される検出結果、自己
の内部で生成する内部イベント、および、ロボット思考
系制御部11から入力される指令を動作モデル32に照
らし合わせてロボットの動作を遷移させ、現在の動作の
状態を動作ステートとして音声合成コントロール情報選
択部12に出力する。運動系処理部31はまた、例え
ば、感圧センサ5の検知結果が所定の閾値以上の力であ
ったとき、動作イベントとして「頭を叩かれた」と判定
するように、各種センサ1から入力される検出結果に基
づき、動作イベントを判定してロボット思考系制御部1
1に出力する。運動系処理部31はさらに、各種センサ
1からの検出結果をロボット思考系制御部11に中継す
る。なお、各種センサ1から思考系処理部41に検出結
果を直接入力するようにしてもよい。
【0018】動作モデル32には、図3に示すように、
標準状態から各種の動作に遷移するときの条件が記述さ
れている。例えば、標準状態において、指令「歩く」が
命令された場合、動作「歩く」に遷移することや、例え
ばまた、指令「起き上がる」が命令された場合、動作
「起き上がる」に遷移し、その動作が終了したことに対
応して発せられる内部イベント「動作終了」に対応して
標準の状態に遷移することなどが記述されている。
【0019】図1に戻り、ロボット思考系制御部11
は、図2に示すように、思考系処理部41と感情モデル
42から構成されており、当該ロボットの感情を管理す
る。思考系処理部41は、運動系処理部31から入力さ
れる動作イベントや各種センサ1の検出結果、自己の内
部で生成する内部イベント(一定の時間毎、周期的に発
生させるイベント等)を感情モデル42に照らし合わせ
てロボットの感情を遷移させ、現在の感情を感情ステー
トとして音声合成コントロール情報選択部12に出力す
る。思考系処理部41はまた、各種センサ1の検出結果
などに対応して、運動系処理31に動作に関する指令を
出力する。思考系処理部41はさらに、例えば、動作イ
ベント「頭を叩かれた」に対応して音声合成対象文「痛
い」を生成するように、動作イベントや各種センサ1の
検出結果などに対応し、当該ロボットが発声する音声合
成対象文を生成して言語処理部14に出力する。
【0020】感情モデル42には、図4に示すように、
標準の状態から各種の感情に遷移するときの条件が記述
されている。例えば、標準状態において、動作イベント
「頭と叩かれた」が発生した場合、感情「怒り」に遷移
することや、動作イベント「頭を撫でられた」が発生し
た場合、感情「嬉しい」に遷移し、その後、所定の時間
以上動作イベントが発生されないことに対応して発せら
れる内部イベントに対応して標準の状態に遷移すること
などが記述されている。
【0021】図1に戻り、音声合成コントロール情報選
択部12は、ロボット運動系制御部10から入力される
動作ステート、および、ロボット思考系制御部11から
入力される感情ステートに基づいて、音声合成コントロ
ール情報テーブル13に多数用意されているフィールド
の中から、最も適切な音声合成コントロール情報が格納
されているフィールドを選択する。なお、この選択に際
しては、動作ステートおよび感情ステート以外のパラメ
ータを追加して、選択するフィールドを決定するように
してもよい(詳細は、図8乃至図10を参照して後述す
る)。
【0022】音声合成コントロール情報テーブル13に
は、動作ステートおよび感情ステート、その他のパラメ
ータ(後述)のあらゆる組み合わせに対応した多数のフ
ィールドが設けられており、音声合成コントロール情報
選択部12に選択されたフィールドに格納している選択
情報を言語処理部14に出力し、音声合成コントロール
情報を規則音声合成部15に出力する。
【0023】フィールドには、図5に示すように、大別
して選択情報と音声合成コントロール情報が格納されて
いる。選択情報は、単語マッピング辞書IDと文体変換
ルールIDからなる。音声合成コントロール情報は、素
片データID、音節セットID、声の高さパラメータ、
アクセントの強さパラメータ、声立ての強さパラメー
タ、および、発話スピードパラメータからなる。
【0024】単語マッピング辞書IDは、単語マッピン
グ辞書データベース54(図6)に予め用意されてい
る、幼児語の単語マッピング辞書、大阪弁の単語マッピ
ング辞書、女子高生言葉の単語マッピング辞書、猫の単
語マッピング辞書などの複数の辞書のなかで、単語変換
部53(図6)で使用される辞書を特定するための情報
である。単語マッピング辞書は、後述するロボットの個
性情報などに対応して切り替えられるものであり、標準
語で表記されている音声合成対象文に含まれる単語を、
別の単語に置換するための辞書である。例えば、幼児語
の単語マッピング辞書は、音声合成対象文に含まれる単
語「車」を「ブーブ」に置換する。
【0025】文体変換ルールIDとは、文体変換ルール
データベース56(図6)に予め用意されている、女性
言葉への変換ルール、男性言葉への変換ルール、幼児語
への変換ルール、大阪弁への変換ルール、女子高生言葉
への変換ルール、猫語への変換ルールなどの複数のルー
ルなかで、文体変換部55(図6)で使用されるルール
を特定するための情報である。文体変換ルールは、後述
するロボットの個性情報などに対応して切り替えられる
ものであり、音声合成対象文に含まれる文字列を、別の
文字列に変換するためのルールである。例えば、猫語へ
の文体変換ルールは、音声合成対象文中の語尾「**で
す」を「**ニャ」に変換する。
【0026】音声合成コントロール情報に含まれる素片
データIDは、規則音声合成部15で使用される音声素
片を特定するための情報である。音声素片としては、女
性の声、男性の声、子供の声、嗄れている声、機械的な
声、その他の声のデータが、規則音声合成部15の内部
に予め用意されている。
【0027】音節セットIDは、規則音声合成部15で
使用される音節セットを特定するための情報である。音
節セットとしては、例えば、基本266音節セットと簡
略180音節セットが用意されている。簡略180音節
セットでは、基本266音節セットよりも発声可能な音
韻の数が制限されており、例えば、言語処理部14から
入力される音声合成対象文「リンゴ」を「にんご」と発
声する。このように、発声する音韻を制限することによ
り、幼児のような舌足らずな発声を表現することができ
る。
【0028】声の高さパラメータは、規則音声合成部1
5で合成される音声のピッチ周波数を指定するための情
報である。アクセントの強さパラメータは、規則音声合
成部15で合成される音声のアクセントの強度を指定す
るための情報である。この値が大きければ、アクセント
の起伏が激しい発声が行われ、値が小さければ、平坦な
アクセントで発声が行われる。
【0029】声立ての強さパラメータは、規則音声合成
部15で合成される音声の声立ての強度を指定するため
の情報である。この値が大きければ、声立てが多くな
り、値が小さければ、声立てが少なくなる。発話スピー
ドパラメータは、規則音声合成部15で合成される音声
の発話スピードを指定するための情報である。
【0030】図1に戻り、言語処理部14は、ロボット
思考系制御部11から入力される音声合成対象文を文法
的に解析した後、音声合成コントロール情報に基づいて
所定の箇所を変換し、規則音声合成部15に出力する。
【0031】図6は、言語処理部14の構成例を示して
いる。ロボット思考系制御部11からの音声合成対象文
は、文体解析部51に入力される。また、音声合成コン
トロール情報テーブル13からの選択情報は単語変換部
53および文体変換部55に入力される。文体解析部5
1は、音声合成対象文を解析用辞書52を用いて形態素
解析し、単語変換部53に出力する。解析用辞書52に
は、規則音声合成に必要となる情報、例えば、単語(形
態素)の読み、アクセント型、および品詞などの他、各
単語の固有の単語IDが記述されている。
【0032】単語変換部53は、選択情報に含まれる単
語マッピング辞書IDに対応する辞書を単語マッピング
辞書データベース54から読み出し、文体解析部51か
らの形態素解析された音声合成対象文に含まれる単語の
うち、読み出した単語マッピング辞書に変換する単語が
記述されているものだけを置換して文体変換部55に出
力する。
【0033】文体変換部55は、選択情報に含まれる文
体変換ルールIDに対応するルールを文体変換ルールデ
ータベース56から読み出し、読み出した文体変換ルー
ルに従って、単語変換部53からの単語変換が施された
音声合成対象文を変換し、規則音声合成部15に出力す
る。
【0034】図1に戻り、規則音声合成部15は、音声
合成コントロール情報テーブル13から入力される音声
合成コントロール情報に従って、言語処理部14から入
力される音声合成対象文に対応する音声信号を合成す
る。合成された音声信号は、スピーカ16から放音され
る。
【0035】制御部17は、ドライブ18を制御して、
磁気ディスク19、光ディスク20、光磁気ディスク2
1、または半導体メモリ22に記憶されている制御用プ
ログラムを読み出し、読み出した制御用プログラムに基
づいて各部を制御する。
【0036】次に、本発明を適用したロボットの処理に
ついて、図7のフローチャートを参照して説明する。こ
の処理は、例えば、ユーザに頭を叩かれたことを、各種
センサ1の感圧センサ5が検出し、検出結果がロボット
運動系制御部10の運動系処理部31に入力されたとき
に開始される。
【0037】ステップS1において、運動系処理部31
は、感圧センサ5の検知結果が所定の閾値以上の力であ
ることに対応して、動作イベント「頭を叩かれた」の発
生を判定し、ロボット思考系制御部11の思考系処理部
41に通知する。運動系処理部31はまた、動作イベン
ト「頭を叩かれた」を動作モデル32に照らし合わせて
ロボットの動作「起き上がる」を決定し、動作ステート
として音声合成コントロール情報選択部12に出力す
る。
【0038】ステップS2において、ロボット思考系制
御部11の思考系処理部41は、運動系処理部31から
入力された動作イベント「頭を叩かれた」を感情モデル
42に照らし合わせて、感情を「怒り」に遷移させ、現
在の感情を感情ステートとして音声合成コントロール情
報選択部12に出力する。思考系処理部41はまた、動
作イベント「頭を叩かれた」に対応して音声合成対象文
「痛い」を発生して言語処理部14の文体解析部51に
出力する。
【0039】ステップS3において、音声合成コントロ
ール情報選択部12は、運動系処理部31から入力され
た動作ステート、および、思考系処理部41から入力さ
れた感情ステートに基づいて、音声合成コントロール情
報テーブル13に多数用意されているフィールドの中か
ら、最も適切な音声合成コントロール情報が格納されて
いるフィールドを選択する。音声合成コントロール情報
テーブル13は、選択されたフィールドに格納している
選択情報を音声処理部14に出力し、音声合成コントロ
ール情報を規則音声合成部15に出力する。
【0040】ステップS4において、言語処理部14の
文体解析部51は、音声合成対象文を解析用辞書52を
用いて形態素解析し、単語変換部53に出力する。ステ
ップS5において、単語変換部53は、選択情報に含ま
れる単語マッピング辞書IDに対応する辞書を単語マッ
ピング辞書データベース54から読み出し、文体解析部
51からの形態素解析された音声合成対象文に含まれる
単語のうち、読み出した単語マッピング辞書に変換する
単語が記述されているものだけを置換して文体変換部5
5に出力する。ステップS6において、文体変換部55
は、選択情報に含まれる文体変換ルールIDに対応する
ルールを文体変換ルールデータベース56から読み出
し、読み出した文体変換ルールに従って、単語変換部5
3からの単語変換が施された音声合成対象文を変換し、
規則音声合成部15に出力する。
【0041】ステップS7において、規則音声合成部1
5は、音声合成コントロール情報テーブル13から入力
された音声合成コントロール情報に従って、言語処理部
14から入力された音声合成対象文に対応する音声信号
を合成し、スピーカ16から放音させる。
【0042】以上のような処理により、ロボットはあた
かも感情を有するかのように動作し、また、感情の変化
や動作に応じて話し方を変化するようになる。
【0043】次に、音声合成コントロール情報選択部1
2の選択処理に際し、動作ステートおよび感情ステート
以外のパラメータを追加する方法について、図8乃至図
10を参照して説明する。
【0044】図8は、図1の構成例に対して、ロボット
に個性を設定するための構成として、通信ポート61乃
至個体情報メモリ63を追加した構成例を示している。
通信ポート61は、外部装置(パーソナルコンピュータ
など)と個性情報を通信するインタフェースであり、例
えば、RS-232C、USB、IEEE1394等の通信規格に適合した
ものが考えられる。通信制御部62は、通信ポート61
を介した外部との情報通信を所定のプロトコルに従って
制御し、受信する個性情報をロボット思考系制御部11
に出力する。個性情報メモリ13は、フラッシュメモリ
などの書き換え可能な不発揮性メモリを用い、記憶した
個性情報を音声合成コントロール情報選択部12に出力
する。
【0045】外部から供給する個性情報としては、例え
ば、次のような項目が考えられる。 種別 犬/猫 性別 雄/雌 年齢 子供/大人 気性 激しい/おとなしい 体格 痩せている/太っている
【0046】これらの各項目は、0または1に2値化さ
れて個性情報メモリ63に記憶される。また、各項目を
2値化するのではなく、さらに細分化して設定するよう
にしてもよい。
【0047】個性情報がむやみに書き換えられることを
抑止するために、書き換えの回数を制限するようにして
もよいし、書き換えに際してパスワードを設けるように
してもよい。また、通信ポート61および通信制御部6
2を設けずに、個性情報を予め書き込んだROMから成る
個性情報メモリ63を製造時に組み込むようにしてもよ
い。
【0048】このような構成とすることにより、設定さ
れた個性に応じて、個体毎に異なる音声を出力するロボ
ットを実現することが可能となる。
【0049】図9は、図1の構成例に対して、タイマ7
1を追加した構成例を示している。タイマ71は、ロボ
ットが最初に起動されたとき以降の経過時間をカウント
して音声合成コントロール情報選択部12に出力する。
なお、タイマ71は、最初に起動されたとき以降の稼働
中の時間だけをカウントするようにしてもよい。
【0050】このような構成とすることにより、出力す
る音声を経年変化させるロボットを実現することが可能
となる。
【0051】図10は、図1の構成例に対して、経験値
計算部81および経験値メモリ82を追加した構成例を
示している。経験値計算部81は、思考系処理部41が
感情を標準から他の状態に遷移させる毎、遷移した感情
ステート毎に遷移回数をカウントアップして経験値メモ
リ82に記録する。例えば、図4に示した感情モデル4
2のように感情ステートが4種類で有れば、4項目の遷
移回数が経験値メモリ82に記録される。音声合成コン
トロール情報選択部12には、各感情ステートへの遷移
回数を通知するようにしてもよいし、最も遷移回数の多
い感情ステートを通知するようにしてもよい。
【0052】このような構成とすることにより、例え
ば、頻繁に叩かれていて、感情ステート「怒り」への遷
移回数が多いロボットは、怒りっぽい話し方をするよう
にすることができ、頻繁に撫でられていて、感情ステー
ト「嬉しい」への遷移回数が多いロボットは、楽しそう
な話し方をするようにすることができる。
【0053】なお、図8乃至図10に示した構成例は、
適宜組み合わせることが可能である。
【0054】また、各種センサ1の検出結果をパラメー
タ化して、音声合成コントロール情報選択部12に供給
することにより、外部の状況に応じて話し方を変化させ
るようにしてもよい。例えば、外気温センサ2が検出し
た外気温が所定の温度以下である場合、寒そうな震えた
声を発声するようにしてもよい。
【0055】さらに、各種センサ1の検出結果をパラメ
ータ化して、履歴として記録し、その履歴を音声合成コ
ントロール情報選択部12に供給するようにしてもよ
い。これにより、例えば、外気温が所定の温度以下であ
る履歴が多いロボットは、東北弁を話すようになるよう
にしてもよい。
【0056】ところで、上述した一連の処理は、ハード
ウェアにより実行させることもできるが、ソフトウェア
により実行させることもできる。一連の処理をソフトウ
ェアにより実行させる場合には、そのソフトウェアを構
成するプログラムが、専用のハードウェアに組み込まれ
ているコンピュータ、または、各種のプログラムをイン
ストールすることで、各種の機能を実行することが可能
な、例えば汎用のパーソナルコンピュータなどに、記録
媒体からインストールされる。
【0057】この記録媒体は、図1に示すように、コン
ピュータとは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク19(フロッピディスクを含む)、光ディスク20
(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digit
al Versatile Disc)を含む)、光磁気ディスク21(M
D(Mini Disc)を含む)、もしくは半導体メモリ22な
どよりなるパッケージメディアにより構成されるだけで
なく、コンピュータに予め組み込まれた状態でユーザに
提供される、プログラムが記録されているROMやハード
ディスクなどで構成される。
【0058】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
【0059】
【発明の効果】以上のように、本発明の音声合成装置、
音声合成方法、および記録媒体のプログラムによれば、
動作状態および感情状態のうち、少なくとも一方に基づ
いて制御情報を選択し、選択した制御情報に含まれる音
声合成情報に基づき、対象文に対応して音声信号を合成
するようにしたので、感情や動作等に対応して話し方を
変化させることができて、よりリアルに生命体を模擬し
たロボットを実現することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの音声合成に関わる
部分の構成例を示すブロック図である。
【図2】図1のロボット運動系制御部10およびロボッ
ト思考系制御部11の構成例を示すブロック図である。
【図3】図2の動作モデル32を説明するための図であ
る。
【図4】図2の感情モデル42を説明するための図であ
る。
【図5】音声合成コントロール情報を説明するための図
である。
【図6】言語処理部14の詳細な構成例を示すブロック
図である。
【図7】本発明を適用したロボットの動作を説明するフ
ローチャートである。
【図8】本発明を適用したロボットの音声合成に関わる
部分の他の構成例を示すブロック図である。
【図9】本発明を適用したロボットの音声合成に関わる
部分のさらに他の構成例を示すブロック図である。
【図10】本発明を適用したロボットの音声合成に関わ
る部分のさらに他の構成例を示すブロック図である。
【符号の説明】
1 各種センサ, 10 ロボット運動系制御部, 1
1 ロボット思考系制御部, 12 音声合成コントロ
ール情報選択部, 13 音声合成コントロール情報テ
ーブル, 14 言語処理部, 15 規則音声合成
部, 17 制御部, 31 運動系処理部, 32
動作モデル, 41 思考系処理部, 42 感情モデ
ル, 51 文体解析部, 53 単語変換部, 55
文体変換部, 61 通信ポート, 62 通信制御
部, 63 個体情報メモリ, 71 タイマ, 81
経験値計算部, 82 経験値メモリ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小林 恵理香 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 赤羽 誠 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小林 賢一郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 山田 敬一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 新田 朋晃 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5D045 AA09 AB30 9A001 DD11 HH18 HH19 KZ46

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 対象文に対応して音声信号を合成する音
    声合成装置において、 動作モデルに従って動作状態を遷移する動作状態遷移手
    段と、 感情モデルに従って感情状態を遷移する感情状態遷移手
    段と、 前記動作状態および前記感情状態のうち、少なくとも一
    方に基づいて制御情報を選択する選択手段と、 前記選択手段が選択した前記制御情報に含まれる音声合
    成情報に基づき、前記対象文に対応して音声信号を合成
    する合成手段とを含むことを特徴とする音声合成装置。
  2. 【請求項2】 前記音声合成情報には、素片データI
    D、音節セットID、声の高さパラメータ、アクセント
    の強さパラメータ、声立ての強さパラメータ、および発
    話スピードパラメータのうち、少なくとも1つが含まれ
    ることを特徴とする請求項1に記載の音声合成装置。
  3. 【請求項3】 外部の状況を検出する検出手段をさらに
    含み、 前記選択手段は、前記検出手段の検出結果にも基づいて
    前記制御情報を選択することを特徴とする請求項1に記
    載の音声合成装置。
  4. 【請求項4】 個体情報を保持する保持手段をさらに含
    み、 前記選択手段は、前記保持手段が保持する前記個体情報
    にも基づいて前記制御情報を選択することを特徴とする
    請求項1に記載の音声合成装置。
  5. 【請求項5】 起動以降の経過時間をカウントするカウ
    ント手段をさらに含み、 前記選択手段は、前記カウント手段がカウントした前記
    経過時間にも基づいて前記制御情報を選択することを特
    徴とする請求項1に記載の音声合成装置。
  6. 【請求項6】 前記動作状態遷移手段が前記動作状態を
    遷移した回数、および前記感情状態遷移手段が前記感情
    状態を遷移した回数のうち、少なくとも一方を累積する
    累積手段をさらに含み、 前記選択手段は、前記累積手段が累積した回数にも基づ
    いて前記制御情報を選択することを特徴とする請求項1
    に記載の音声合成装置。
  7. 【請求項7】 前記選択手段が選択した前記制御情報に
    含まれる選択情報に対応する単語置換辞書を用いて、前
    記対象文に含まれる単語を置換する置換手段をさらに含
    むことを特徴とする請求項1に記載の音声合成装置。
  8. 【請求項8】 前記選択手段が選択した前記制御情報に
    含まれる選択情報に対応する文体変換規則に従って、前
    記対象文の文体を変換する変換手段をさらに含むことを
    特徴とする請求項1に記載の音声合成装置。
  9. 【請求項9】 前記音声合成装置はロボットであること
    を特徴とする請求項1に記載の音声合成装置。
  10. 【請求項10】 対象文に対応して音声信号を合成する
    音声合成装置の音声合成方法において、 動作モデルに従って動作状態を遷移する動作状態遷移ス
    テップと、 感情モデルに従って感情状態を遷移する感情状態遷移ス
    テップと、 前記動作状態および前記感情状態のうち、少なくとも一
    方に基づいて制御情報を選択する選択ステップと、 前記選択ステップの処理で選択された前記制御情報に含
    まれる音声合成情報に基づき、前記対象文に対応して音
    声信号を合成する合成ステップとを含むことを特徴とす
    る音声合成方法。
  11. 【請求項11】 対象文に対応して音声信号を合成する
    音声合成用のプログラムであって、 動作モデルに従って動作状態を遷移する動作状態遷移ス
    テップと、 感情モデルに従って感情状態を遷移する感情状態遷移ス
    テップと、 前記動作状態および前記感情状態のうち、少なくとも一
    方に基づいて制御情報を選択する選択ステップと、 前記選択ステップの処理で選択された前記制御情報に含
    まれる音声合成情報に基づき、前記対象文に対応して音
    声信号を合成する合成ステップとを含むことを特徴とす
    るコンピュータが読み取り可能なプログラムが記録され
    ている記録媒体。
JP37378099A 1999-12-28 1999-12-28 音声合成装置および方法、並びに記録媒体 Expired - Lifetime JP4465768B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP37378099A JP4465768B2 (ja) 1999-12-28 1999-12-28 音声合成装置および方法、並びに記録媒体
US09/749,345 US7379871B2 (en) 1999-12-28 2000-12-27 Speech synthesizing apparatus, speech synthesizing method, and recording medium using a plurality of substitute dictionaries corresponding to pre-programmed personality information
EP00311701A EP1113417B1 (en) 1999-12-28 2000-12-27 Apparatus, method and recording medium for speech synthesis
DE60035848T DE60035848T2 (de) 1999-12-28 2000-12-27 Sprachsynthesevorrichtung und Verfahren, sowie Aufzeichnungsmedium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37378099A JP4465768B2 (ja) 1999-12-28 1999-12-28 音声合成装置および方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001188553A true JP2001188553A (ja) 2001-07-10
JP4465768B2 JP4465768B2 (ja) 2010-05-19

Family

ID=18502748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37378099A Expired - Lifetime JP4465768B2 (ja) 1999-12-28 1999-12-28 音声合成装置および方法、並びに記録媒体

Country Status (4)

Country Link
US (1) US7379871B2 (ja)
EP (1) EP1113417B1 (ja)
JP (1) JP4465768B2 (ja)
DE (1) DE60035848T2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
US7241947B2 (en) 2003-03-20 2007-07-10 Sony Corporation Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
JP2013246742A (ja) * 2012-05-29 2013-12-09 Azone Co Ltd 受動型出力装置及び出力データ生成システム
JP2019168623A (ja) * 2018-03-26 2019-10-03 カシオ計算機株式会社 対話装置、ロボット、対話制御方法及びプログラム
JP2023021878A (ja) * 2021-08-02 2023-02-14 ベアー ロボティックス,インコーポレイテッド サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
JP7463789B2 (ja) 2020-03-23 2024-04-09 株式会社リコー 体温計測用耳標及び体温データ管理システム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
AU2002232928A1 (en) * 2000-11-03 2002-05-15 Zoesis, Inc. Interactive character system
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
US20030093280A1 (en) * 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
DE10237951A1 (de) * 2002-08-20 2004-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum Betrieb eines Roboters zu laufender Musik
US7275032B2 (en) 2003-04-25 2007-09-25 Bvoice Corporation Telephone call handling center where operators utilize synthesized voices generated or modified to exhibit or omit prescribed speech characteristics
FR2859592A1 (fr) * 2003-09-05 2005-03-11 France Telecom Procede de commande d'un terminal multimodal, plate-forme de traitement et terminal multimodal
JP4661074B2 (ja) * 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
CN1918628A (zh) * 2004-12-28 2007-02-21 松下电器产业株式会社 声音合成方法和信息提供装置
JP2006309162A (ja) * 2005-03-29 2006-11-09 Toshiba Corp ピッチパターン生成方法、ピッチパターン生成装置及びプログラム
GB2427109B (en) * 2005-05-30 2007-08-01 Kyocera Corp Audio output apparatus, document reading method, and mobile terminal
TWI340660B (en) * 2006-12-29 2011-04-21 Ind Tech Res Inst Emotion abreaction device and using method of emotion abreaction device
CA2674614C (en) 2007-01-25 2017-02-28 Eliza Corporation Systems and techniques for producing spoken voice prompts
AU2008100836B4 (en) * 2007-08-30 2009-07-16 Machinima Pty Ltd Real-time realistic natural voice(s) for simulated electronic games
US20090234638A1 (en) * 2008-03-14 2009-09-17 Microsoft Corporation Use of a Speech Grammar to Recognize Instant Message Input
US8374873B2 (en) 2008-08-12 2013-02-12 Morphism, Llc Training and applying prosody models
JP5398295B2 (ja) * 2009-02-16 2014-01-29 株式会社東芝 音声処理装置、音声処理方法及び音声処理プログラム
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
KR101678018B1 (ko) 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US9788777B1 (en) * 2013-08-12 2017-10-17 The Neilsen Company (US), LLC Methods and apparatus to identify a mood of media
AU2015315225A1 (en) * 2014-09-09 2017-04-27 Botanic Technologies, Inc. Systems and methods for cinematic direction and dynamic character control via natural language output
JP6124306B2 (ja) * 2014-12-17 2017-05-10 日本電信電話株式会社 データ構造及び育児語使用傾向測定装置
JP6729424B2 (ja) * 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
CN108447470A (zh) * 2017-12-28 2018-08-24 中南大学 一种基于声道和韵律特征的情感语音转换方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
US5559927A (en) * 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
JP3439840B2 (ja) * 1994-09-19 2003-08-25 富士通株式会社 音声規則合成装置
US5615301A (en) * 1994-09-28 1997-03-25 Rivers; W. L. Automated language translation system
JP3254994B2 (ja) * 1995-03-01 2002-02-12 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
JPH08279054A (ja) * 1995-04-07 1996-10-22 Hitachi Ltd 映像生成/表示システム
JP3741156B2 (ja) * 1995-04-07 2006-02-01 ソニー株式会社 音声認識装置および音声認識方法並びに音声翻訳装置
JPH1078952A (ja) * 1996-07-29 1998-03-24 Internatl Business Mach Corp <Ibm> 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
KR100240637B1 (ko) * 1997-05-08 2000-01-15 정선종 다중매체와의 연동을 위한 텍스트/음성변환 구현방법 및 그 장치
EP0878790A1 (en) * 1997-05-15 1998-11-18 Hewlett-Packard Company Voice coding system and method
US6363301B1 (en) * 1997-06-04 2002-03-26 Nativeminds, Inc. System and method for automatically focusing the attention of a virtual robot interacting with users
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy
US6112181A (en) * 1997-11-06 2000-08-29 Intertrust Technologies Corporation Systems and methods for matching, selecting, narrowcasting, and/or classifying based on rights management and/or other information
US6160986A (en) * 1998-04-16 2000-12-12 Creator Ltd Interactive toy
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6243680B1 (en) * 1998-06-15 2001-06-05 Nortel Networks Limited Method and apparatus for obtaining a transcription of phrases through text and spoken utterances
US6260016B1 (en) * 1998-11-25 2001-07-10 Matsushita Electric Industrial Co., Ltd. Speech synthesis employing prosody templates
US6598020B1 (en) * 1999-09-10 2003-07-22 International Business Machines Corporation Adaptive emotion and initiative generator for conversational systems
US6446056B1 (en) * 1999-09-10 2002-09-03 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
US7233900B2 (en) 2001-04-05 2007-06-19 Sony Corporation Word sequence output device
US7241947B2 (en) 2003-03-20 2007-07-10 Sony Corporation Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
US9280967B2 (en) 2011-03-18 2016-03-08 Kabushiki Kaisha Toshiba Apparatus and method for estimating utterance style of each sentence in documents, and non-transitory computer readable medium thereof
JP2013246742A (ja) * 2012-05-29 2013-12-09 Azone Co Ltd 受動型出力装置及び出力データ生成システム
JP2019168623A (ja) * 2018-03-26 2019-10-03 カシオ計算機株式会社 対話装置、ロボット、対話制御方法及びプログラム
JP7463789B2 (ja) 2020-03-23 2024-04-09 株式会社リコー 体温計測用耳標及び体温データ管理システム
JP2023021878A (ja) * 2021-08-02 2023-02-14 ベアー ロボティックス,インコーポレイテッド サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
JP7382991B2 (ja) 2021-08-02 2023-11-17 ベアー ロボティックス,インコーポレイテッド サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
EP1113417A2 (en) 2001-07-04
EP1113417B1 (en) 2007-08-08
US20010021907A1 (en) 2001-09-13
JP4465768B2 (ja) 2010-05-19
DE60035848D1 (de) 2007-09-20
US7379871B2 (en) 2008-05-27
EP1113417A3 (en) 2001-12-05
DE60035848T2 (de) 2008-05-21

Similar Documents

Publication Publication Date Title
JP2001188553A (ja) 音声合成装置および方法、並びに記録媒体
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
TW586056B (en) Robot control device, robot control method, and recording medium
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
US7412390B2 (en) Method and apparatus for speech synthesis, program, recording medium, method and apparatus for generating constraint information and robot apparatus
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
JP2002358095A (ja) 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP3273550B2 (ja) 自動応答玩具
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
KR20030007866A (ko) 단어열 출력 장치
WO1999032203A1 (en) A standalone interactive toy
JP4905522B2 (ja) 機器制御装置、機器制御方法及びプログラム
KR20030010736A (ko) 언어 처리 장치
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2001188788A (ja) 会話処理装置および方法、並びに記録媒体
JP2002311981A (ja) 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2002304187A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4178777B2 (ja) ロボット装置、記録媒体、並びにプログラム
JP2018159777A (ja) 音声再生装置、および音声再生プログラム
JP2020190587A (ja) ロボットの制御装置、ロボット、ロボットの制御方法及びプログラム
JP2019168623A (ja) 対話装置、ロボット、対話制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

R151 Written notification of patent or utility model registration

Ref document number: 4465768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term