JP2002304188A - 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 - Google Patents

単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体

Info

Publication number
JP2002304188A
JP2002304188A JP2001107476A JP2001107476A JP2002304188A JP 2002304188 A JP2002304188 A JP 2002304188A JP 2001107476 A JP2001107476 A JP 2001107476A JP 2001107476 A JP2001107476 A JP 2001107476A JP 2002304188 A JP2002304188 A JP 2002304188A
Authority
JP
Japan
Prior art keywords
word string
output
unit
word
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001107476A
Other languages
English (en)
Inventor
Shinichi Kariya
真一 狩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001107476A priority Critical patent/JP2002304188A/ja
Priority to KR1020027016525A priority patent/KR20030007866A/ko
Priority to PCT/JP2002/003423 priority patent/WO2002082423A1/ja
Priority to CNB028017552A priority patent/CN1221936C/zh
Priority to EP02714487A priority patent/EP1376535A4/en
Priority to US10/297,374 priority patent/US7233900B2/en
Publication of JP2002304188A publication Critical patent/JP2002304188A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Abstract

(57)【要約】 【課題】 感情豊かな合成音等の出力を行う。 【解決手段】 テキスト生成部31は、行動指令情報に
したがい、そこに含まれる単語列としてのテキストか
ら、合成音にする発話テキストを生成する。一方、感情
チェック部39は、ペットロボットの感情モデル値をチ
ェックし、その感情モデル値に基づいて、ペットロボッ
トの感情が高ぶっているかどうかを判断する。さらに、
感情チェック部39は、ペットロボットの感情が高ぶっ
ている場合には、語順の入れ替えを、テキスト生成部3
1に指示する。テキスト生成部31は、感情チェック部
39の指示にしたがい、発話テキストの語順を入れ替え
る。即ち、これにより、例えば、発話テキストが、「君
はきれいだ。」であった場合には、「きれいだ、君
は。」に、語順が入れ替えられる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、単語列出力装置お
よび単語列出力方法、並びにプログラムおよび記録媒体
に関し、特に、例えば、エンタテイメント用のロボット
の感情等の状態に基づいて、音声合成装置により合成音
で出力される文等を構成する単語列の語順を入れ替える
ようにすることで、感情豊かな発話を行うロボットを実
現すること等ができるようにする音声合成装置および音
声合成方法、並びにプログラムおよび記録媒体に関す
る。
【0002】
【従来の技術】例えば、従来の音声合成装置において
は、テキスト、またはそのテキストを解析して得られる
発音記号に基づいて、合成音が生成される。
【0003】
【発明が解決しようとする課題】ところで、最近、例え
ば、ペット型のペットロボット等として、音声合成装置
を搭載し、ユーザに話しかけたり、ユーザと会話(対
話)を行うものが提案されている。
【0004】さらに、ペットロボットとしては、感情の
状態を表す感情モデルを取り入れ、その感情モデルが表
す感情の状態に応じて、ユーザの命令に従ったり、従わ
なかったりするものも提案されている。
【0005】従って、感情モデルに応じて、合成音を変
化させることができれば、感情に応じた合成音が出力さ
れることから、ペットロボットのエンタテイメント性を
向上させることができると考えられる。
【0006】本発明は、このような状況に鑑みてなされ
たものであり、感情豊かな合成音等を出力することがで
きるようにするものである。
【0007】
【課題を解決するための手段】本発明の単語列出力装置
は、情報処理装置の制御にしたがって、単語列を出力す
る出力手段と、情報処理装置の内部状態に基づいて、出
力手段において出力される単語列の語順を入れ替える入
れ替え手段とを備えることを特徴とする。
【0008】本発明の単語列出力方法は、情報処理装置
の制御にしたがって、単語列を出力する出力ステップ
と、情報処理装置の内部状態に基づいて、出力ステップ
において出力される単語列の語順を入れ替える入れ替え
ステップとを備えることを特徴とする。
【0009】本発明のプログラムは、情報処理装置の制
御にしたがって、単語列を出力する出力ステップと、情
報処理装置の内部状態に基づいて、出力ステップにおい
て出力される単語列の語順を入れ替える入れ替えステッ
プとを備えることを特徴とする。
【0010】本発明の記録媒体は、情報処理装置の制御
にしたがって、単語列を出力する出力ステップと、情報
処理装置の内部状態に基づいて、出力ステップにおいて
出力される単語列の語順を入れ替える入れ替えステップ
とを備えるプログラムが記録されていることを特徴とす
る。
【0011】本発明の単語列出力装置および単語列出力
方法、並びにプログラムにおいては、情報処理装置の制
御にしたがって、単語列が出力される一方、情報処理装
置の内部状態に基づいて、出力される単語列の語順が入
れ替えられる。
【0012】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
【0013】本実施の形態では、ロボットは、例えば、
犬等の四つ足の動物の形状のものとなっており、胴体部
ユニット2の前後左右に、それぞれ脚部ユニット3A,
3B,3C,3Dが連結されるとともに、胴体部ユニッ
ト2の前端部と後端部に、それぞれ頭部ユニット4と尻
尾部ユニット5が連結されることにより構成されてい
る。
【0014】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
【0015】胴体部ユニット2には、ロボット全体の制
御を行うコントローラ10、ロボットの動力源となるバ
ッテリ11、並びにバッテリセンサ12および熱センサ
13からなる内部センサ部14などが収納されている。
【0016】頭部ユニット4には、「耳」に相当するマ
イク(マイクロフォン)15、「目」に相当するCCD
(Charge Coupled Device)カメラ16、触覚に相当する
タッチセンサ17、「口」に相当するスピーカ18など
が、それぞれ所定位置に配設されている。また、頭部ユ
ニット4には、口の下顎に相当する下顎部4Aが1自由
度をもって可動に取り付けられており、この下顎部4A
が動くことにより、ロボットの口の開閉動作が実現され
るようになっている。
【0017】脚部ユニット3A乃至3Dそれぞれの関節
部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユ
ニット2の連結部分、頭部ユニット4と胴体部ユニット
2の連結部分、頭部ユニット4と下顎部4Aの連結部
分、並びに尻尾部ユニット5と胴体部ユニット2の連結
部分などには、図2に示すように、それぞれアクチュエ
ータ3AA1乃至3AAK、3BA1乃至3BAK、3CA
1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL
5A1および5A2が配設されている。
【0018】頭部ユニット4におけるマイク15は、ユ
ーザからの発話を含む周囲の音声(音)を集音し、得ら
れた音声信号を、コントローラ10に送出する。CCD
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に送出する。
【0019】タッチセンサ17は、例えば、頭部ユニッ
ト4の上部に設けられており、ユーザからの「なでる」
や「たたく」といった物理的な働きかけにより受けた圧
力を検出し、その検出結果を圧力検出信号としてコント
ローラ10に送出する。
【0020】胴体部ユニット2におけるバッテリセンサ
12は、バッテリ11の残量を検出し、その検出結果
を、バッテリ残量検出信号としてコントローラ10に送
出する。熱センサ13は、ロボット内部の熱を検出し、
その検出結果を、熱検出信号としてコントローラ10に
送出する。
【0021】コントローラ10は、CPU(Central Pro
cessing Unit)10Aやメモリ10B等を内蔵してお
り、CPU10Aにおいて、メモリ10Bに記憶された
制御プログラムが実行されることにより、各種の処理を
行う。
【0022】即ち、コントローラ10は、マイク15
や、CCDカメラ16、タッチセンサ17、バッテリセ
ンサ12、熱センサ13から与えられる音声信号、画像
信号、圧力検出信号、バッテリ残量検出信号、熱検出信
号に基づいて、周囲の状況や、ユーザからの指令、ユー
ザからの働きかけなどの有無を判断する。
【0023】さらに、コントローラ10は、この判断結
果等に基づいて、続く行動を決定し、その決定結果に基
づいて、アクチュエータ3AA1乃至3AAK、3BA1
乃至3BAK、3CA1乃至3CAK、3DA1乃至3DA
K、4A1乃至4AL、5A1、5A2のうちの必要なもの
を駆動させる。これにより、頭部ユニット4を上下左右
に振らせたり、下顎部4Aを開閉させる。さらには、尻
尾部ユニット5を動かせたり、各脚部ユニット3A乃至
3Dを駆動して、ロボットを歩行させるなどの行動を行
わせる。
【0024】また、コントローラ10は、必要に応じ
て、合成音を生成し、スピーカ18に供給して出力させ
たり、ロボットの「目」の位置に設けられた図示しない
LED(Light Emitting Diode)を点灯、消灯または点
滅させる。
【0025】以上のようにして、ロボットは、周囲の状
況等に基づいて自律的に行動をとるようになっている。
【0026】なお、メモリ10Bは、例えば、メモリス
ティック(商標)等の、容易に着脱が可能なメモリカー
ドで構成することが可能である。
【0027】次に、図3は、図2のコントローラ10の
機能的構成例を示している。なお、図3に示す機能的構
成は、CPU10Aが、メモリ10Bに記憶された制御
プログラムを実行することで実現されるようになってい
る。
【0028】コントローラ10は、特定の外部状態を認
識するセンサ入力処理部50、センサ入力処理部50の
認識結果を累積して、感情や、本能、成長の状態を表現
するモデル記憶部51、センサ入力処理部50の認識結
果等に基づいて、続く行動を決定する行動決定機構部5
2、行動決定機構部52の決定結果に基づいて、実際に
ロボットに行動を起こさせる姿勢遷移機構部53、各ア
クチュエータ3AA1乃至5A1および5A2を駆動制御
する制御機構部54、並びに合成音を生成する音声合成
部55から構成されている。
【0029】センサ入力処理部50は、マイク15や、
CCDカメラ16、タッチセンサ17等から与えられる
音声信号、画像信号、圧力検出信号等に基づいて、特定
の外部状態や、ユーザからの特定の働きかけ、ユーザか
らの指示等を認識し、その認識結果を表す状態認識情報
を、モデル記憶部51および行動決定機構部52に通知
する。
【0030】即ち、センサ入力処理部50は、音声認識
部50Aを有しており、音声認識部50Aは、マイク1
5から与えられる音声信号について音声認識を行う。そ
して、音声認識部50Aは、その音声認識結果として
の、例えば、「歩け」、「伏せ」、「ボールを追いかけ
ろ」等の指令その他を、状態認識情報として、モデル記
憶部51および行動決定機構部52に通知する。
【0031】また、センサ入力処理部50は、画像認識
部50Bを有しており、画像認識部50Bは、CCDカ
メラ16から与えられる画像信号を用いて、画像認識処
理を行う。そして、画像認識部50Bは、その処理の結
果、例えば、「赤い丸いもの」や、「地面に対して垂直
なかつ所定高さ以上の平面」等を検出したときには、
「ボールがある」や、「壁がある」等の画像認識結果
を、状態認識情報として、モデル記憶部51および行動
決定機構部52に通知する。
【0032】さらに、センサ入力処理部50は、圧力処
理部50Cを有しており、圧力処理部50Cは、タッチ
センサ17から与えられる圧力検出信号を処理する。そ
して、圧力処理部50Cは、その処理の結果、所定の閾
値以上で、かつ短時間の圧力を検出したときには、「た
たかれた(しかられた)」と認識し、所定の閾値未満
で、かつ長時間の圧力を検出したときには、「なでられ
た(ほめられた)」と認識して、その認識結果を、状態
認識情報として、モデル記憶部51および行動決定機構
部52に通知する。
【0033】モデル記憶部51は、ロボットの感情、本
能、成長の状態を表現する感情モデル、本能モデル、成
長モデルをそれぞれ記憶、管理している。
【0034】ここで、感情モデルは、例えば、「うれし
さ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状
態(度合い)を、所定の範囲(例えば、−1.0乃至
1.0等)の値によってそれぞれ表し、センサ入力処理
部50からの状態認識情報や時間経過等に基づいて、そ
の値を変化させる。本能モデルは、例えば、「食欲」、
「睡眠欲」、「運動欲」等の本能による欲求の状態(度
合い)を、所定の範囲の値によってそれぞれ表し、セン
サ入力処理部50からの状態認識情報や時間経過等に基
づいて、その値を変化させる。成長モデルは、例えば、
「幼年期」、「青年期」、「熟年期」、「老年期」等の
成長の状態(度合い)を、所定の範囲の値によってそれ
ぞれ表し、センサ入力処理部50からの状態認識情報や
時間経過等に基づいて、その値を変化させる。
【0035】モデル記憶部51は、上述のようにして感
情モデル、本能モデル、成長モデルの値で表される感
情、本能、成長の状態を、状態情報として、行動決定機
構部52に送出する。
【0036】なお、モデル記憶部51には、センサ入力
処理部50から状態認識情報が供給される他、行動決定
機構部52から、ロボットの現在または過去の行動、具
体的には、例えば、「長時間歩いた」などの行動の内容
を示す行動情報が供給されるようになっており、モデル
記憶部51は、同一の状態認識情報が与えられても、行
動情報が示すロボットの行動に応じて、異なる状態情報
を生成するようになっている。
【0037】即ち、例えば、ロボットが、ユーザに挨拶
をし、ユーザに頭を撫でられた場合には、ユーザに挨拶
をしたという行動情報と、頭を撫でられたという状態認
識情報とが、モデル記憶部51に与えられ、この場合、
モデル記憶部51では、「うれしさ」を表す感情モデル
の値が増加される。
【0038】一方、ロボットが、何らかの仕事を実行中
に頭を撫でられた場合には、仕事を実行中であるという
行動情報と、頭を撫でられたという状態認識情報とが、
モデル記憶部51に与えられ、この場合、モデル記憶部
51では、「うれしさ」を表す感情モデルの値は変化さ
れない。
【0039】このように、モデル記憶部51は、状態認
識情報だけでなく、現在または過去のロボットの行動を
示す行動情報も参照しながら、感情モデルの値を設定す
る。これにより、例えば、何らかのタスクを実行中に、
ユーザが、いたずらするつもりで頭を撫でたときに、
「うれしさ」を表す感情モデルの値を増加させるよう
な、不自然な感情の変化が生じることを回避することが
できる。
【0040】なお、モデル記憶部51は、本能モデルお
よび成長モデルについても、感情モデルにおける場合と
同様に、状態認識情報および行動情報の両方に基づい
て、その値を増減させるようになっている。また、モデ
ル記憶部51は、感情モデル、本能モデル、成長モデル
それぞれの値を、他のモデルの値にも基づいて増減させ
るようになっている。
【0041】行動決定機構部52は、センサ入力処理部
50からの状態認識情報や、モデル記憶部51からの状
態情報、時間経過等に基づいて、次の行動を決定し、決
定された行動の内容を、行動指令情報として、姿勢遷移
機構部53に送出する。
【0042】即ち、行動決定機構部52は、ロボットが
とり得る行動をステート(状態)(state)に対応させた
有限オートマトンを、ロボットの行動を規定する行動モ
デルとして管理しており、この行動モデルとしての有限
オートマトンにおけるステートを、センサ入力処理部5
0からの状態認識情報や、モデル記憶部51における感
情モデル、本能モデル、または成長モデルの値、時間経
過等に基づいて遷移させ、遷移後のステートに対応する
行動を、次にとるべき行動として決定する。
【0043】ここで、行動決定機構部52は、所定のト
リガ(trigger)があったことを検出すると、ステートを
遷移させる。即ち、行動決定機構部52は、例えば、現
在のステートに対応する行動を実行している時間が所定
時間に達したときや、特定の状態認識情報を受信したと
き、モデル記憶部51から供給される状態情報が示す感
情や、本能、成長の状態の値が所定の閾値以下または以
上になったとき等に、ステートを遷移させる。
【0044】なお、行動決定機構部52は、上述したよ
うに、センサ入力処理部50からの状態認識情報だけで
なく、モデル記憶部51における感情モデルや、本能モ
デル、成長モデルの値等にも基づいて、行動モデルにお
けるステートを遷移させることから、同一の状態認識情
報が入力されても、感情モデルや、本能モデル、成長モ
デルの値(状態情報)によっては、ステートの遷移先は
異なるものとなる。
【0045】その結果、行動決定機構部52は、例え
ば、状態情報が、「怒っていない」こと、および「お腹
がすいていない」ことを表している場合において、状態
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「お手」という行動をとらせる行動指
令情報を生成し、これを、姿勢遷移機構部53に送出す
る。
【0046】また、行動決定機構部52は、例えば、状
態情報が、「怒っていない」こと、および「お腹がすい
ている」ことを表している場合において、状態認識情報
が、「目の前に手のひらが差し出された」ことを表して
いるときには、目の前に手のひらが差し出されたことに
応じて、「手のひらをぺろぺろなめる」ような行動を行
わせるための行動指令情報を生成し、これを、姿勢遷移
機構部53に送出する。
【0047】また、行動決定機構部52は、例えば、状
態情報が、「怒っている」ことを表している場合におい
て、状態認識情報が、「目の前に手のひらが差し出され
た」ことを表しているときには、状態情報が、「お腹が
すいている」ことを表していても、また、「お腹がすい
ていない」ことを表していても、「ぷいと横を向く」よ
うな行動を行わせるための行動指令情報を生成し、これ
を、姿勢遷移機構部53に送出する。
【0048】なお、行動決定機構部52には、モデル記
憶部51から供給される状態情報が示す感情や、本能、
成長の状態に基づいて、遷移先のステートに対応する行
動のパラメータとしての、例えば、歩行の速度や、手足
を動かす際の動きの大きさおよび速度などを決定させる
ことができ、この場合、それらのパラメータを含む行動
指令情報が、姿勢遷移機構部53に送出される。
【0049】また、行動決定機構部52では、上述した
ように、ロボットの頭部や手足等を動作させる行動指令
情報の他、ロボットに発話を行わせる行動指令情報も生
成される。ロボットに発話を行わせる行動指令情報は、
音声合成部55に供給されるようになっており、音声合
成部55に供給される行動指令情報には、音声合成部5
5に生成させる合成音に対応するテキスト等が含まれ
る。そして、音声合成部55は、行動決定部52から行
動指令情報を受信すると、その行動指令情報に含まれる
テキストに基づき、合成音を生成し、スピーカ18に供
給して出力させる。これにより、スピーカ18からは、
例えば、ロボットの鳴き声、さらには、「お腹がすい
た」等のユーザへの各種の要求、「何?」等のユーザの
呼びかけに対する応答その他の音声出力が行われる。こ
こで、音声合成部55には、モデル記憶部51から状態
情報も供給されるようになっており、音声合成部55
は、この状態情報が示す感情の状態に基づいて各種の制
御を行った合成音を生成することが可能となっている。
【0050】なお、音声合成部55では、感情の他、本
能や本能の状態に基づいて各種の制御した合成音を生成
することも可能である。また、行動決定機構部52は、
合成音を出力する場合には、下顎部4Aを開閉させる行
動指令情報を、必要に応じて生成し、姿勢遷移機構部5
3に出力する。この場合、合成音の出力に同期して、下
顎部4Aが開閉し、ユーザに、ロボットがしゃべってい
るかのような印象を与えることができる。
【0051】姿勢遷移機構部53は、行動決定機構部5
2から供給される行動指令情報に基づいて、ロボットの
姿勢を、現在の姿勢から次の姿勢に遷移させるための姿
勢遷移情報を生成し、これを制御機構部54に送出す
る。
【0052】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなロボットの物理的形状と、関節が曲がる方
向や角度のようなアクチュエータ3AA1乃至5A1およ
び5A2の機構とによって決定される。
【0053】また、次の姿勢としては、現在の姿勢から
直接遷移可能な姿勢と、直接には遷移できない姿勢とが
ある。例えば、4本足のロボットは、手足を大きく投げ
出して寝転んでいる状態から、伏せた状態へ直接遷移す
ることはできるが、立った状態へ直接遷移することはで
きず、一旦、手足を胴体近くに引き寄せて伏せた姿勢に
なり、それから立ち上がるという2段階の動作が必要で
ある。また、安全に実行できない姿勢も存在する。例え
ば、4本足のロボットは、その4本足で立っている姿勢
から、両前足を挙げてバンザイをしようとすると、簡単
に転倒してしまう。
【0054】このため、姿勢遷移機構部53は、直接遷
移可能な姿勢をあらかじめ登録しておき、行動決定機構
部52から供給される行動指令情報が、直接遷移可能な
姿勢を示す場合には、その行動指令情報を、そのまま姿
勢遷移情報として、制御機構部54に送出する。一方、
行動指令情報が、直接遷移不可能な姿勢を示す場合に
は、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦
遷移した後に、目的の姿勢まで遷移させるような姿勢遷
移情報を生成し、制御機構部54に送出する。これによ
りロボットが、遷移不可能な姿勢を無理に実行しようと
する事態や、転倒するような事態を回避することができ
るようになっている。
【0055】制御機構部54は、姿勢遷移機構部53か
らの姿勢遷移情報にしたがって、アクチュエータ3AA
1乃至5A1および5A2を駆動するための制御信号を生
成し、これを、アクチュエータ3AA1乃至5A1および
5A2に送出する。これにより、アクチュエータ3AA1
乃至5A1および5A2は、制御信号にしたがって駆動
し、ロボットは、自律的に行動を起こす。
【0056】次に、図4は、図3の音声合成部55の構
成例を示している。
【0057】テキスト生成部31には、行動決定機構部
52が出力する、音声合成の対象とするテキストを含む
行動指令情報が供給されるようになっており、テキスト
生成部31は、辞書記憶部36や生成用文法記憶部37
を参照しながら、その行動指令情報に含まれるテキスト
を解析する。
【0058】即ち、辞書記憶部36には、各単語の品詞
情報や、読み、アクセント等の情報が記述された単語辞
書が記憶されており、また、生成用文法記憶部37に
は、辞書記憶部36の単語辞書に記述された単語につい
て、単語連鎖に関する制約等の文法規則が記憶されてい
る。そして、テキスト生成部31は、この単語辞書およ
び文法規則に基づいて、そこに入力されるテキストの形
態素解析や構文解析等の解析を行い、後段の規則合成部
32で行われる規則音声合成に必要な情報を抽出する。
ここで、規則音声合成に必要な情報としては、例えば、
ポーズの位置や、アクセントおよびイントネーションを
制御するための情報その他の韻律情報や、各単語の発音
等の音韻情報などがある。
【0059】テキスト生成部31で得られた情報は、規
則合成部32に供給され、規則合成部32は、音素片記
憶部38を用いて、テキスト生成部31に入力されたテ
キストに対応する合成音の音声データ(ディジタルデー
タ)を生成する。
【0060】即ち、音素片記憶部38には、例えば、C
V(Consonant, Vowel)や、VCV、CVC等の形で音素
片データが記憶されており、規則合成部32は、テキス
ト生成部31からの情報に基づいて、必要な音素片デー
タを接続し、さらに、ポーズ、アクセント、イントネー
ション等を適切に付加することで、テキスト生成部31
に入力されたテキストに対応する合成音データを生成す
る。
【0061】この音声データは、データバッファ33に
供給される。データバッファ33は、規則合成部32か
ら供給される合成音データを記憶する。
【0062】出力制御部34は、データバッファ33に
記憶された合成音データの読み出しを制御する。
【0063】即ち、出力制御部34は、後段のDA(Di
gital Analogue)変換部35に同期して、データバッフ
ァ33から合成音データを読み出し、DA変換部35に
供給する。DA変換部35は、ディジタル信号としての
合成音データを、アナログ信号としての音声信号にD/
A変換し、スピーカ18に供給する。これにより、テキ
スト生成部31に入力されたテキストに対応する合成音
が出力される。
【0064】感情チェック部39は、モデル記憶部51
に記憶された感情モデルの値(感情モデル値)を、定期
的に、または不定期にチェックし、テキスト生成部31
および規則合成部32に供給する。そして、テキスト生
成部31および規則合成部32は、感情チェック部39
から供給される感情モデル値を考慮して処理を行う。
【0065】次に、図5のフローチャートを参照して、
図4の音声合成部55による音声合成処理について説明
する。
【0066】行動決定機構部52が、音声合成の対象と
するテキストを含む行動指令情報を、音声合成部55に
出力すると、テキスト生成部31は、ステップS1にお
いて、その行動指令情報を受信し、ステップS2に進
む。ステップS2では、感情チェック部39において、
モデル記憶部51を参照することで、感情モデル値が認
識(チェック)される。この感情モデル値は、感情チェ
ック部39から、テキスト生成部31および規則合成部
32に供給され、ステップS3に進む。
【0067】ステップS3では、テキスト生成部31に
おいて、行動決定機構部52からの行動指令情報に含ま
れるテキストから、実際に合成音として出力するテキス
ト(以下、適宜、発話テキストという)を生成する際に
用いる語彙(発話語彙)が、感情モデル値に基づいて設
定され、ステップS4に進む。ステップS4では、テキ
スト生成部31において、ステップS3で設定された発
話語彙を用いて、行動指令情報に含まれるテキストに対
応する発話テキストが生成される。
【0068】即ち、行動決定機構部52からの行動指令
情報に含まれるテキストは、例えば、標準的な感情の状
態における発話を前提としたものとなっており、ステッ
プS4では、そのテキストが、ロボットの感情の状態を
考慮して修正され、これにより、発話テキストが生成さ
れる。
【0069】具体的には、例えば、行動指令情報に含ま
れるテキストが、「何ですか」である場合において、ロ
ボットの感情の状態が「怒っている」ことを表している
ときには、その怒りを表現する「何だよ!」が、発話テ
キストとして生成される。あるいは、また、例えば、行
動指令情報に含まれるテキストが、「やめて下さい」で
ある場合において、ロボットの感情の状態が「怒ってい
る」ことを表しているときには、その怒りを表現する
「やめろ!」が、発話テキストとして生成される。
【0070】そして、ステップS5に進み、感情チェッ
ク部39は、ステップS2で認識した感情モデル値に基
づいて、ロボットの感情が高ぶっているかどうかを判定
する。
【0071】即ち、感情モデル値は、上述したように、
「うれしさ」や、「悲しさ」、「怒り」、「楽しさ」等
の感情の状態(度合い)を、所定の範囲の数値で表すも
のであるから、例えば、そのうちのいずれかが大きい場
合には、感情が高ぶっていると考えることができる。そ
こで、ステップS5では、各感情の感情モデル値を所定
の閾値と比較することで、ロボットの感情が高ぶってい
るかどうかが判定される。
【0072】ステップS5において、感情が高ぶってい
ると判定された場合、ステップS6に進み、感情チェッ
ク部39は、発話テキストを構成する単語の語順の入れ
替えを指示する入れ替え指示信号を、テキスト生成部3
1に出力する。
【0073】この場合、テキスト生成部31は、感情チ
ェック部39からの入れ替え信号にしたがい、例えば、
発話テキストにおける述語の部分が、先頭に配置される
ように、その発話テキストを構成する単語列の語順を入
れ替える。
【0074】即ち、発話テキストが、例えば、否定を表
す「私はやっていません。」であった場合には、テキス
ト生成部31は、その語順を入れ替え、「やってませ
ん、私は。」に変換する。また、発話テキストが、例え
ば、怒りを表す「あなたはなんということをするのです
か。」であった場合には、テキスト生成部31は、その
語順を入れ替え、「なんということをするのですか、あ
なたは。」に変換する。さらに、発話テキストが、例え
ば、同意を表す「私もそれに賛成です。」であった場合
には、テキスト生成部31は、その語順を入れ替え、
「賛成です、私もそれに。」に変換する。また、発話テ
キストが、例えば、賛美を表す「君はきれいだ。」であ
った場合には、テキスト生成部31は、その語順を入れ
替え、「きれいだ、君は。」に変換する。
【0075】以上のように、発話テキストにおいて、述
語の部分を、文頭に配置するように、その語順を入れ替
える場合には、その述語部分が強調され、入れ替え前の
発話テキストに比較して、強い感情がこめられているか
のような印象を与える発話テキストを得ることができ
る。
【0076】なお、語順の入れ替え方法は、上述したも
のに限定されるものではない。
【0077】ステップS6において、以上のように、発
話テキストの語順が入れ替えられた後は、ステップS7
に進む。
【0078】一方、ステップS5において、感情が高ぶ
っていないと判定された場合は、ステップS6をスキッ
プして、ステップS7に進む。従って、この場合は、発
話テキストの語順が入れ替えられず、そのままとされ
る。
【0079】ステップS7では、テキスト生成部31
は、(語順が入れ替えられた、または語順が入れ替えら
れていない)発話テキストを対象に、形態素解析や構文
解析等のテキスト解析を行い、その発話テキストについ
て規則音声合成を行うのに必要な情報としての、ピッチ
周波数や、パワー、継続時間長等の韻律情報を生成す
る。さらに、テキスト生成部31は、発話テキストを構
成する各単語の発音等の音韻情報も生成する。ここで、
ステップS7では、発話テキストの韻律情報として、標
準的な韻律情報が生成される。
【0080】その後、テキスト生成部31は、ステップ
S8に進み、ステップS7で生成した発話テキストの韻
律情報を、感情チェック部39から供給された感情モデ
ル値に基づいて修正し、これにより、発話テキストが合
成音で出力されるときの感情表現が高められる。
【0081】テキスト生成部31で得られた発話テキス
トの音韻情報および韻律情報は、規則合成部32に供給
され、規則合成部32では、ステップS9において、そ
の音韻情報および韻律情報にしたがい、規則音声合成が
行われることにより、発話テキストの合成音のディジタ
ルデータ(合成音データ)が生成される。ここで、規則
合成部32でも、規則音声合成の際、感情チェック部3
9から供給される感情モデル値に基づいて、ロボットの
感情の状態を適切に表現するように、合成音のポーズの
位置や、アクセントの位置、イントネーション等の韻律
を変更するようにすることができる。
【0082】規則合成部32で得られた合成音データ
は、ステップS10において、データバッファ33に供
給され、データバッファ33は、規則合成部32からの
合成音データを記憶する。そして、出力制御部34は、
ステップS11において、データバッファ33からの合
成音データを読み出し、DA変換部35に供給して、処
理を終了する。これにより、発話テキストに対応する合
成音が、スピーカ18から出力される。
【0083】以上のように、ペットロボットの感情の状
態に基づいて、発話テキストの語順を入れ替えるように
したので、感情豊かな合成音を出力することが可能とな
り、その結果、例えば、感情が高ぶっていることをユー
ザに印象づけること等が可能となる。
【0084】以上、本発明を、エンターテイメント用の
ロボット(疑似ペットとしてのロボット)に適用した場
合について説明したが、本発明は、これに限らず、例え
ば、システムに感情等の内部状態が導入された対話シス
テムその他に広く適用することが可能である。
【0085】また、本発明は、現実世界のロボットだけ
でなく、例えば、液晶ディスプレイ等の表示装置に表示
される仮想的なロボットにも適用可能である。そして、
本発明を、仮想的なロボットに適用する場合(その他、
例えば、表示装置を有する実際のロボットに適用する場
合)においては、語順の入れ替えた発話テキストは、合
成音で出力するのではなく、または合成音で出力すると
ともに、表示装置で表示することが可能である。
【0086】なお、本実施の形態においては、上述した
一連の処理を、CPU10Aにプログラムを実行させる
ことにより行うようにしたが、一連の処理は、それ専用
のハードウェアによって行うことも可能である。
【0087】ここで、プログラムは、あらかじめメモリ
10B(図2)に記憶させておく他、フロッピー(登録
商標)ディスク、CD-ROM(Compact Disc Read Only Memo
ry),MO(Magnetooptical)ディスク,DVD(Digital Versa
tile Disc)、磁気ディスク、半導体メモリなどのリムー
バブル記録媒体に、一時的あるいは永続的に格納(記
録)しておくことができる。そして、このようなリムー
バブル記録媒体を、いわゆるパッケージソフトウエアと
して提供し、ロボット(メモリ10B)にインストール
するようにすることができる。
【0088】また、プログラムは、ダウンロードサイト
から、ディジタル衛星放送用の人工衛星を介して、無線
で転送したり、LAN(Local Area Network)、インターネ
ットといったネットワークを介して、有線で転送し、メ
モリ10Bにインストールすることができる。
【0089】この場合、プログラムがバージョンアップ
されたとき等に、そのバージョンアップされたプログラ
ムを、メモリ10Bに、容易にインストールすることが
できる。
【0090】なお、本明細書において、CPU10Aに
各種の処理を行わせるためのプログラムを記述する処理
ステップは、必ずしもフローチャートとして記載された
順序に沿って時系列に処理する必要はなく、並列的ある
いは個別に実行される処理(例えば、並列処理あるいは
オブジェクトによる処理)も含むものである。
【0091】また、プログラムは、1のCPUにより処
理されるものであっても良いし、複数のCPUによって
分散処理されるものであっても良い。
【0092】次に、図4の音声合成部55は、専用のハ
ードウェアにより実現することもできるし、ソフトウェ
アにより実現することもできる。音声合成部55をソフ
トウェアによって実現する場合には、そのソフトウェア
を構成するプログラムが、汎用のコンピュータ等にイン
ストールされる。
【0093】そこで、図6は、音声合成部55を実現す
るためのプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0094】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク105やROM1
03に予め記録しておくことができる。
【0095】あるいはまた、プログラムは、フロッピー
ディスク、CD-ROM,MOディスク,DVD、磁気ディスク、
半導体メモリなどのリムーバブル記録媒体111に、一
時的あるいは永続的に格納(記録)しておくことができ
る。このようなリムーバブル記録媒体111は、いわゆ
るパッケージソフトウエアとして提供することができ
る。
【0096】なお、プログラムは、上述したようなリム
ーバブル記録媒体111からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN、インターネットといったネットワークを介
して、コンピュータに有線で転送し、コンピュータで
は、そのようにして転送されてくるプログラムを、通信
部108で受信し、内蔵するハードディスク105にイ
ンストールすることができる。
【0097】コンピュータは、CPU(Central Processing
Unit)102を内蔵している。CPU102には、バス1
01を介して、入出力インタフェース110が接続され
ており、CPU102は、入出力インタフェース110を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部107が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)103に格納されているプログラムを実行
する。あるいは、また、CPU102は、ハードディスク
105に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部108で受信されてハー
ドディスク105にインストールされたプログラム、ま
たはドライブ109に装着されたリムーバブル記録媒体
111から読み出されてハードディスク105にインス
トールされたプログラムを、RAM(Random Access Memor
y)104にロードして実行する。これにより、CPU10
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU102は、その処理結果を、必要に応
じて、例えば、入出力インタフェース110を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部106から出力、あるいは、通信部108から
送信、さらには、ハードディスク105に記録等させ
る。
【0098】なお、本実施の形態では、行動決定機構部
52が生成するテキストから合成音を生成するようにし
たが、本発明は、あからじめ用意されたテキストから合
成音を生成する場合にも適用可能である。さらに、本発
明は、あらかじめ録音してある音声データを編集して、
目的とする合成音を生成する場合にも適用可能である。
【0099】また、本実施の形態では、発話テキストを
対象に、語順を入れ替え、その語順を入れ替えた後に、
合成音データを生成するようにしたが、語順を入れ替え
る前の発話テキストから合成音データを生成し、合成音
データを操作することにより、語順を入れ替えるように
することも可能である。なお、合成音データの操作は、
図4の規則合成部32に行わせても良いし、また、図4
において点線で示すように、感情チェック部39から出
力制御部34に、感情モデル値を供給し、出力制御部3
4に行わせるようにすることも可能である。
【0100】さらに、語順の入れ替えは、感情モデル値
の他、本能や成長その他のペットロボットの内部状態に
基づいて行うことが可能である。
【0101】
【発明の効果】以上の如く、本発明の単語列出力装置お
よび単語列出力方法、並びにプログラムによれば、情報
処理装置の制御にしたがって、単語列が出力される一
方、情報処理装置の内部状態に基づいて、出力される単
語列の語順が入れ替えられる。従って、感情豊かな合成
音等の出力が可能となる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの一実施の形態の外
観構成例を示す斜視図である。
【図2】ロボットの内部構成例を示すブロック図であ
る。
【図3】コントローラ10の機能的構成例を示すブロッ
ク図である。
【図4】音声合成部55の構成例を示すブロック図であ
る。
【図5】音声合成部55による音声合成処理を説明する
フローチャートである。
【図6】本発明を適用したコンピュータの一実施の形態
の構成例を示すブロック図である。
【符号の説明】
1 頭部ユニット, 4A 下顎部, 10 コントロ
ーラ, 10A CPU, 10B メモリ, 15
マイク, 16 CCDカメラ, 17 タッチセン
サ, 18 スピーカ, 31 テキスト生成部, 3
2 規則合成部,33 データバッファ, 34 出力
制御部, 35 DA変換部, 36辞書記憶部, 3
7 生成用文法記憶部, 38 音素片記憶部, 39
感情チェック部, 50 センサ入力処理部, 50
A 音声認識部, 50B 画像認識部, 50C 圧
力処理部, 51 モデル記憶部, 52 行動決定機
構部, 53 姿勢遷移機構部, 54 制御機構部,
55 音声合成部,101 バス, 102 CPU,
103 ROM, 104 RAM, 105 ハードディ
スク, 106 出力部, 107 入力部, 108
通信部, 109 ドライブ, 110 入出力イン
タフェース, 111 リムーバブル記録媒体
フロントページの続き Fターム(参考) 2C150 CA02 DA05 DF33 DG02 DG13 EC37 EC38 ED39 ED43 ED56 EF13 EF16 EF23 EF27 EF28 EF29 EF33 FA04 5D015 KK01 5D045 AA07 AB11

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 情報処理装置の制御にしたがって、単語
    列を出力する単語列出力装置であって、 前記情報処理装置の制御にしたがって、前記単語列を出
    力する出力手段と、 前記情報処理装置の内部状態に基づいて、前記出力手段
    において出力される単語列の語順を入れ替える入れ替え
    手段とを備えることを特徴とする単語列出力装置。
  2. 【請求項2】 前記情報処理装置は、実際の、または仮
    想的なロボットであることを特徴とする請求項1に記載
    の単語列出力装置。
  3. 【請求項3】 前記情報処理装置は、その内部状態とし
    て、感情の状態を有しており、 前記入れ替え手段は、前記感情の状態に基づいて、前記
    単語列の語順を入れ替えることを特徴とする請求項2に
    記載の単語列出力装置。
  4. 【請求項4】 前記出力手段は、前記単語列を、音声ま
    たはテキストで出力することを特徴とする請求項1に記
    載の単語列出力装置。
  5. 【請求項5】 前記入れ替え手段は、前記単語列によっ
    て構成される文の述語の部分が先頭に配置されるよう
    に、前記単語列の語順を入れ替えることを特徴とする請
    求項1に記載の単語列出力装置。
  6. 【請求項6】 情報処理装置の制御にしたがって、単語
    列を出力する単語列出力方法であって、 前記情報処理装置の制御にしたがって、前記単語列を出
    力する出力ステップと、 前記情報処理装置の内部状態に基づいて、前記出力ステ
    ップにおいて出力される単語列の語順を入れ替える入れ
    替えステップとを備えることを特徴とする単語列出力方
    法。
  7. 【請求項7】 情報処理装置の制御にしたがって、単語
    列を出力する単語列出力処理を、コンピュータに行わせ
    るプログラムであって、 前記情報処理装置の制御にしたがって、前記単語列を出
    力する出力ステップと、 前記情報処理装置の内部状態に基づいて、前記出力ステ
    ップにおいて出力される単語列の語順を入れ替える入れ
    替えステップとを備えることを特徴とするプログラム。
  8. 【請求項8】 情報処理装置の制御にしたがって、単語
    列を出力する単語列出力処理を、コンピュータに行わせ
    るプログラムが記録されている記録媒体であって、 前記情報処理装置の制御にしたがって、前記単語列を出
    力する出力ステップと、 前記情報処理装置の内部状態に基づいて、前記出力ステ
    ップにおいて出力される単語列の語順を入れ替える入れ
    替えステップとを備えるプログラムが記録されているこ
    とを特徴とする記録媒体。
JP2001107476A 2001-04-05 2001-04-05 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 Withdrawn JP2002304188A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001107476A JP2002304188A (ja) 2001-04-05 2001-04-05 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
KR1020027016525A KR20030007866A (ko) 2001-04-05 2002-04-05 단어열 출력 장치
PCT/JP2002/003423 WO2002082423A1 (fr) 2001-04-05 2002-04-05 Dispositif d'elaboration de suites de mots
CNB028017552A CN1221936C (zh) 2001-04-05 2002-04-05 词序列输出设备
EP02714487A EP1376535A4 (en) 2001-04-05 2002-04-05 WORD SEQUENCE OUTPUT MEANS
US10/297,374 US7233900B2 (en) 2001-04-05 2002-04-05 Word sequence output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001107476A JP2002304188A (ja) 2001-04-05 2001-04-05 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
JP2002304188A true JP2002304188A (ja) 2002-10-18

Family

ID=18959795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001107476A Withdrawn JP2002304188A (ja) 2001-04-05 2001-04-05 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体

Country Status (6)

Country Link
US (1) US7233900B2 (ja)
EP (1) EP1376535A4 (ja)
JP (1) JP2002304188A (ja)
KR (1) KR20030007866A (ja)
CN (1) CN1221936C (ja)
WO (1) WO2002082423A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207777A (ja) * 2017-08-07 2017-11-24 シャープ株式会社 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019188528A (ja) * 2018-04-25 2019-10-31 富士通株式会社 制御プログラム、データ構造、制御方法及び制御装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
GB2427109B (en) * 2005-05-30 2007-08-01 Kyocera Corp Audio output apparatus, document reading method, and mobile terminal
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
US8150692B2 (en) * 2006-05-18 2012-04-03 Nuance Communications, Inc. Method and apparatus for recognizing a user personality trait based on a number of compound words used by the user
US8340956B2 (en) * 2006-05-26 2012-12-25 Nec Corporation Information provision system, information provision method, information provision program, and information provision program recording medium
US20080243510A1 (en) * 2007-03-28 2008-10-02 Smith Lawrence C Overlapping screen reading of non-sequential text
US9261952B2 (en) * 2013-02-05 2016-02-16 Spectrum Alliance, Llc Shifting and recharging of emotional states with word sequencing
US9786299B2 (en) 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
JP6729424B2 (ja) * 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
US10621983B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
WO2020081630A2 (en) 2018-10-17 2020-04-23 Petoi, Llc Robotic animal puzzle

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JPS56161600A (en) * 1980-05-16 1981-12-11 Matsushita Electric Ind Co Ltd Voice synthesizer
US4400787A (en) * 1980-12-12 1983-08-23 Westinghouse Electric Corp. Elevator system with speech synthesizer for repetition of messages
DE4306508A1 (de) * 1993-03-03 1994-09-08 Philips Patentverwaltung Verfahren und Anordnung zum Ermitteln von Wörtern in einem Sprachsignal
JP3018865B2 (ja) * 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
US5746602A (en) * 1996-02-27 1998-05-05 Kikinis; Dan PC peripheral interactive doll
JPH10260976A (ja) 1997-03-18 1998-09-29 Ricoh Co Ltd 音声対話方法
JPH11259271A (ja) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk エージェント装置
US6249720B1 (en) 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
JP3681145B2 (ja) * 1997-12-11 2005-08-10 株式会社東芝 発話装置及び発話方法
CA2354871A1 (en) * 1998-11-13 2000-05-25 Lernout & Hauspie Speech Products N.V. Speech synthesis using concatenation of speech waveforms
JP3879299B2 (ja) 1999-01-26 2007-02-07 松下電工株式会社 無電極放電灯装置
JP2000267687A (ja) * 1999-03-19 2000-09-29 Mitsubishi Electric Corp 音声応答装置
EP1112822A4 (en) * 1999-05-10 2005-07-20 Sony Corp ROBOTS AND CONTROL PROCESSES THEREOF
JP2001154681A (ja) 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP4465768B2 (ja) 1999-12-28 2010-05-19 ソニー株式会社 音声合成装置および方法、並びに記録媒体
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207777A (ja) * 2017-08-07 2017-11-24 シャープ株式会社 ロボット装置、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019188528A (ja) * 2018-04-25 2019-10-31 富士通株式会社 制御プログラム、データ構造、制御方法及び制御装置
JP7035765B2 (ja) 2018-04-25 2022-03-15 富士通株式会社 制御プログラム、制御方法及び制御装置

Also Published As

Publication number Publication date
CN1463420A (zh) 2003-12-24
KR20030007866A (ko) 2003-01-23
US7233900B2 (en) 2007-06-19
CN1221936C (zh) 2005-10-05
EP1376535A4 (en) 2006-05-03
US20040024602A1 (en) 2004-02-05
EP1376535A1 (en) 2004-01-02
WO2002082423A1 (fr) 2002-10-17

Similar Documents

Publication Publication Date Title
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2002304188A (ja) 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
JP2002318594A (ja) 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002311981A (ja) 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2002304187A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4016316B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2002318590A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP4742415B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002189497A (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002318593A (ja) 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
JP2002120177A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001212779A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2004258290A (ja) 音声処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701