JP2003036090A - 音声合成方法及び装置、並びにロボット装置 - Google Patents

音声合成方法及び装置、並びにロボット装置

Info

Publication number
JP2003036090A
JP2003036090A JP2002135962A JP2002135962A JP2003036090A JP 2003036090 A JP2003036090 A JP 2003036090A JP 2002135962 A JP2002135962 A JP 2002135962A JP 2002135962 A JP2002135962 A JP 2002135962A JP 2003036090 A JP2003036090 A JP 2003036090A
Authority
JP
Japan
Prior art keywords
utterance sentence
voice
emotion
utterance
emotion model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002135962A
Other languages
English (en)
Inventor
Pierre Yves Oudeyer
イブス オードイェ ピエール
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony France SA
Sony Corp
Original Assignee
Sony France SA
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony France SA, Sony Corp filed Critical Sony France SA
Publication of JP2003036090A publication Critical patent/JP2003036090A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 生物等の感情表現により近いような聴覚的な
感情表現をする。 【解決手段】 ロボット装置は、感情モデルの感情状態
を判別する感情判別工程(ステップS1)と、音声とし
て発する内容を表す発話文を出力する発話文出力工程
(ステップS2)と、感情判別工程により判別された感
情状態に応じて音声合成のためのパラメータを制御する
パラメータ制御工程(ステップS3)と、発話文出力工
程により出力された発話文を音声合成部に入力して制御
されたパラメータに基づいて音声合成する音声合成工程
(ステップS4)とにより、音声合成による発話文の生
成を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、発話主体が出力す
る音声を生成するための音声合成方法及び音声合成装
置、並びに音声を出力するロボット装置に関する。
【0002】
【従来の技術】近年、外観形状が犬や猫等の動物に模し
て形成された例えばペット型のロボット装置が提供され
ている。そのようなロボット装置には、外部からの情報
や内部の状態に応じて自律的に動作するものがある。
【0003】そのような、ロボット装置に用いられる人
工知能(AI:artificial intelligence)は、推論・
判断等の知的な機能を人工的に実現したものであり、さ
らに感情や本能等の機能をも人工的に実現することが試
みられている。このような人工知能の外部への表現手段
としての視覚的な表現手段や聴覚的な表現手段等の内
で、聴覚的なものの一例として、音声を用いることが挙
げられる。
【0004】そのようなロボット装置においては、その
発声を使って人間(飼い主等)に自身の感情を訴える機
能は有効である。これは、人間は実際の犬や猫等のペッ
トが何を言っているのか直接理解することはできない
が、経験から愛犬、愛猫が今どのような機嫌なのか知る
ことができるのであり、そのひとつの要素がペットの発
声により判断しているからである。
【0005】
【発明が解決しようとする課題】ところで、現在市場に
供給されているロボット装置として、聴覚的な感情表現
を電子的な音(電子音)で行っているものが知られてい
る。具体的には、例えば、短く高い音が喜びを表し、ゆ
っくりとした低い音が悲しみを表すなどである。そし
て、これらの電子音は予め作曲されており、人間の主観
によってそれぞれの感情クラスに振り分けられ、再生に
用いられる。ここで、感情クラスとは、喜び、怒り等と
して分類される情動のクラスである。従来よりなされて
いる電子音を用いた聴覚的な感情表現においては、
(i)機械的である、(ii)常に同じ表現を繰り返す、
(iii)表現力が適切であるか不明である、などの点が
犬や猫等の生物のペットの感情表現と大きく異なる点と
して挙げられ、さらなる改善が望まれているのが実情で
ある。
【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、生物等の感情表現により近いような
聴覚的な感情表現を可能とする音声合成方法及び音声合
成装置、並びにロボット装置の提供を目的とする。
【0007】
【課題を解決するための手段】本発明に係る音声合成方
法は、上述の課題を解決するために、発音主体の感情モ
デルの感情状態を判別する感情判別工程と、音声として
発する内容を表す発話文を出力する発話文出力工程と、
感情判別工程により判別された感情状態に応じて音声合
成のためのパラメータを制御するパラメータ制御工程
と、発話文出力工程により出力された発話文を音声合成
部に入力して制御されたパラメータに基づいて音声合成
する音声合成工程とを有する。
【0008】このような音声合成方法は、発声主体の感
情モデルの感情状態に応じて制御した音声合成のための
パラメータに基づいて発音主体の発話文を生成する。
【0009】また、本発明に係る音声合成装置は、上述
の課題を解決するために、発音主体の感情モデルの感情
状態を判別する感情判別手段と、音声として発する内容
を表す発話文を出力する発話文出力手段と、感情判別手
段により判別された感情状態に応じて音声合成のための
パラメータを制御するパラメータ制御手段と、発話文出
力手段により出力された発話文が供給され、制御された
パラメータに基づいて音声合成する音声合成手段とを備
える。
【0010】このような構成を備える音声合成装置は、
発音主体の感情モデルの感情状態を判別する感情判別手
段により判別された感情状態に応じて音声合成のための
パラメータをパラメータ制御手段により制御して、発話
文出力手段により出力された発話文が供給され、制御さ
れたパラメータに基づいて音声合成手段により音声合成
する。これにより、音声合成装置は、発声主体の感情モ
デルの感情状態に応じて制御した音声合成のためのパラ
メータに基づいて発音主体の発話文を生成する。
【0011】また、本発明に係るロボット装置は、上述
の課題を解決するために、動作に起因する感情モデル
と、感情モデルの感情状態を判別する感情判別手段と、
音声として発する内容を表す発話文を出力する発話文出
力手段と、感情判別手段により判別された感情状態に応
じて音声合成のためのパラメータを制御するパラメータ
制御手段と、発話文出力手段により出力された発話文が
供給され、制御されたパラメータに基づいて音声合成す
る音声合成手段とを備える。
【0012】このような構成を備えるロボット装置は、
動作に起因する感情モデルの感情状態を判別する感情判
別手段により判別された感情状態に応じて音声合成のた
めのパラメータをパラメータ制御手段により制御して、
発話文出力手段により出力された発話文が供給され、制
御されたパラメータに基づいて音声合成手段により音声
合成する。これにより、ロボット装置は、発声主体の感
情モデルの感情状態に応じて制御した音声合成のための
パラメータに基づいて発音主体の発話文を生成する。
【0013】
【発明の実施の形態】先ず、本発明に係る音声合成方法
及び装置、並びにロボット装置の好ましい実施の形態の
説明に先立って、音声による感情表現をペット型のロボ
ット装置等の機能として採用することの意味、及び適切
な音声による感情表現について説明する。
【0014】(1)音声による感情表現 ロボット装置等における機能として発話に感情表現を加
えることは、人間との親密性を高めるために非常に有効
に働く。また、単に社交性の向上だけではなく、自身の
満足や不満足を示すことで人間に対して刺激を要求する
ことができる。このような機能は、学習機能を持つロボ
ット装置においては有効に作用する機能になる。
【0015】一方、人間の持つ感情と発せられる音声の
音響特性に相関があるかどうかについて、Fairbanksの
報告(Fairbanks G.(1940), Recent experimental inve
stigations of vocal pitch in speech, Journal of th
e Acoustical Society of America,(11):457-466.)やB
urkhardtらの報告(Burkhardt F. and Sendlmeier W.
F., Verification of Acoustic Correlates of Emotion
al Speech unsing Formant Synthesis, ISCA Workshop
on Speech and Emotion, Belfast 2000.)等があり、こ
のように多くの研究者による報告が知られている。
【0016】これらの報告によると、発話は心理学的な
条件や幾つかの基本的な情動クラスとの相関があること
が判っている。また逆に驚きと怖れ、退屈と悲しみなど
のある特定の感情に関しては違いを見つけることが難し
いことなども報告されている。ある情動についてはある
身体的な状態と結びついており、容易に予想可能な物理
的な影響を発話に対してもたらす。
【0017】例えば、ある人が怒りや怖れや喜びを覚え
たときは交感神経系が奮起し、心拍数や血圧が上昇す
る。口内は乾き、時には筋肉に震えが起こる。こうした
ときには発話は大きく速くなり、高周波成分に強いエネ
ルギーを持つことになる。またある人が退屈や悲しみを
感じているとき、副交感神経系が奮起する。心拍数や血
圧は減少し、唾液が多く分泌される。この結果発話はゆ
っくりとしたピッチの遅いものになる。そして、これら
身体的特徴は万国共通であるために、基本的な情動と発
話の音響的な特性の間には民族や文化に寄らない相関関
係が存在すると考えられている。
【0018】また、日本人とアメリカ人に意味の無い単
語の羅列を色々な感情で発話させてお互いの感情がどの
程度認識されるかの実験を行った結果がAbelinらの報告
(Abelin A., Allwood J., Cross Linguistic Interp
retation of Emotional Prosody, Workshop on Emotion
s in Speech, ISCA Workshop on Speech and Emotion,
Belfast 2000.)や、Tickleの報告(Tickle A., Englis
h and Japanese Speaker’s Emotion Vocalizations an
d Recognition : A Comparison HighlightingVowel Qua
lity, SCAWorkshop on Speech and Emotion, Belfast 2
000.)にある。このような報告にある結果から、(i)
言語の違いによって感情の認識率は変わらない、(ii)
認識結果はあまり芳しくなく60%程度である、とい
う、2つの点が明らかにされている。
【0019】これらの研究結果を考慮すると、人間と例
えばロボット装置との間に、意味の伝達を必要としない
無意味語による感情の伝達が、非常にあいまいではある
が、可能であることがわかる。例えば、その感情の認識
率は60%程度とされている。また、情動と音響特性の
相関をモデル化することでそうした発話を合成すること
が可能であることも示している。
【0020】本発明の実施の形態では、このような音響
特性に基づいた発話をすることにより、感情を表出させ
て発話をするようにしている。さらに、本発明の実施の
形態では、(i)スピーチのような、(ii)意味を持た
ない、(iii)毎回違う、発声を実現している。
【0021】ここで、図1は、本発明に係る音声合成方
法の実施の形態の基本構成を示すフローチャートであ
り、発音主体としては、少なくとも感情モデル、音声合
成手段及び発音手段を有する例えばロボット装置を想定
しているが、これに限定されず、各種ロボット装置や、
ロボット以外の各種コンピュータAI(artificial int
elligence) 等への適用も可能であることは勿論であ
る。なお、感情モデルについては後で詳述する。
【0022】この図1において、最初のステップS1で
は、発音主体の感情モデルの感情状態を判別する。具体
的には、例えば、周囲の環境(外的要因)や内部の状態
(内的要因)に応じて感情モデルの状態(感情状態)が
変化し、この感情状態について、例えば平静、怒り、悲
しみ、喜び、落ち着き、のいずれかであるかを判別す
る。
【0023】ここで、ロボット装置の場合には、行動モ
デルとして、内部に確率状態遷移モデル(例えば、後述
するように、状態遷移表を有するモデル)を有してお
り、各状態が認識結果や感情や本能の値によって異なる
遷移確率テーブルを持ち、その確率に従って次の状態へ
遷移し、この遷移に関連づけられた行動を出力する。
【0024】感情による喜びや悲しみの表現行動がこの
確率状態遷移モデル(或いは確率遷移表)に記述されて
おり、この表現行動の1つとして、音声による(発話に
よる)感情表現が含まれている。従って、この具体例で
は、感情モデルの感情状態を表すパラメータを行動モデ
ルが参照することにより決定される行動の1つの要素と
して感情表現があり、行動決定部の一部機能として、感
情状態の判別が行われることになる。
【0025】なお、本発明は、この具体例に限定される
ものではなく、ステップS1では少なくとも感情モデル
の感情状態の判別が行われればよく、後のステップで
は、判別された感情状態を音声で表現するような音声合
成が行われるものである。
【0026】次のステップS2では、音声として発する
内容を表す発話文を出力する。このステップS2は、ス
テップS1の前、あるいは後述するステップS3の後で
もよい。また、毎回新たな発話文を生成してもよく、予
め生成されて用意された複数の発話文のいずれかをラン
ダムに選択するようにしてもよい。ただし、本発明の実
施の形態においては、無意味な発話文であることが必要
とされる。これは、特にロボット装置に適用する場合に
おいて、実際に意味を持った対話を実現することは困難
であるが、無意味語の発話であれば簡単な構成で実現で
き、しかも感情表現が伴うことにより、無意味語でも充
分に対話しているように感じさせることができ、また、
無意味語の方が聞き手の側の想像の余地が広がって、不
適切な意味のある発話内容よりも親近感、親密感が高ま
ること等を考慮したものである。また、発話文の生成あ
るいは選択をランダムに行うことにより、音声合成され
て再生される発声が毎回違うようになり、常に新鮮に感
じることになる。
【0027】このようにこのステップS2において出力
される発話文は、ランダムな単語で構成される文であ
り、具体的には、それぞれの単語をランダムな音節にす
ることによって実現している。ここでいう音節とは、音
素である子音Cと母音Vとを組み合わせて、例えばCV
若しくはCCVとしたものである。実施の形態では、音
素を予め用意しており、その全ての音素は、最初は固定
されたパラメータとしての持続時間やピッチを有してい
るが、感情状態の判別結果に応じて制御される。感情状
態の判別結果に応じたそのようなパラメータの制御によ
り、感情表現がなされた発話になる。このような感情表
現の判別結果に応じたパラメータの制御については後で
詳述する。
【0028】なお、本実施の形態においては、出力され
る発話文は、感情モデルの感情状態やその判別結果とは
無関係であるが、感情状態等に応じて、出力される発話
文をある程度調整したり、発話文の生成あるいは選択処
理自体を制御するようにしてもよい。
【0029】次に、ステップS3では、上述のステップ
S1での感情状態の判別結果に応じて、音声合成のため
のパラメータを制御する。音声合成のためのパラメータ
とは、例えば上述の音素の持続時間やピッチ、あるいは
音量等のことであり、感情状態の判別結果、例えば、平
静、怒り、悲しみ、喜び、落ち着き等に応じてこれらの
パラメータを変えることで感情表現を行わせる。具体的
には、上述の判別結果としての各感情(平静、怒り、悲
しみ、喜び、落ち着き等)に対応するパラメータの組合
せテーブルを予め作成しておき、実際に判別された感情
に応じてこれらのテーブルを切り換えることが挙げられ
る。各感情に応じて用意するテーブルについては後で具
体例を示している。
【0030】次のステップS4では、上述のステップS
2で出力された発話文を音声合成器(スピーチシンセサ
イザ:speech synthesizer)に送り、上述のステップS
3で制御されたパラメータに従って音声合成する。音声
合成されて得られた音声時系列データは、D/A変換器
やアンプ等を介してスピーカに送られることにより、実
際の音声として発せられる。例えば、ロボット装置であ
る場合には、このような処理が、いわゆるバーチャルロ
ボットにおいてなされてスピーカから、そのときの感情
を表現するような発話がなされるようになる。
【0031】以上説明した本発明の基本的な実施の形態
によれば、身体的状態に関連する感情に応じて、音声合
成のためのパラメータ(音素の持続期間、ピッチ、音量
等)を制御することで、感情表現をともなった発話がで
き、音素をランダムに選ぶために単語や文自体に意味を
持たせる必要がなく、それでいて発話のように聞こえ、
また、前述パラメータの一部をランダムに変更したり、
音素の組合せや、単語、文の長さをランダムに決定する
ことで合成する度に違う発話を作り出すことができると
共に、制御するパラメータが少ないために実装が簡便で
ある。
【0032】(2)感情と無意味語の合成アルゴリズム 感情と発話文となる無意味語との合成アルゴリズムにつ
いて詳細に説明する。実施の形態において、合成アルゴ
リズムの目標とするところは、スピーチのような、意味
を持たない、毎回違う、発話文を生成することである。
そして、そのような発話文に感情表現を伴わせることで
ある。
【0033】このような発話文の生成のために音声合成
器(スピーチシンセサイザ:speechsynthesizer)、あ
るいは音声合成システムを利用する。音声合成器(スピ
ーチシンセサイザ:speech synthesizer)、あるいは音
声合成システムヘの入力は、音素のリストとそれぞれの
音素に対する、持続期間、目標とするピッチと到達時刻
(持続期間に対するパーセンテージで表現)等である。
このような音声合成を実現するアルゴリズムの概略は、
以下のようになっている。
【0034】(2−2)発話文の生成 無意味語の発話文の生成は、ランダムな単語により構成
することに実現している。さらに、それぞれの単語をラ
ンダムな音節によって構成している。ここで、音節は、
音素である子音Cと母音Vとを組み合わせてなり、CV
もしくはCCVとして表されるものとしている。ここ
で、音素は、リストとして有している。そして、リスト
として有するすべての音素は、固定された持続期間やピ
ッチをもって先ず登録されている。
【0035】例えば、ある音素「b」は「448 10 150 8
0 158」といった値によって表現されて、リストに登録
されている。ここで、”448”は、音素「b」の持続期間
が448msであることを示している。また、次の”10”及
びその次の”150”は、持続時間448msの10%で150Hzに
到達することを示している。また、その次の”80”及び
その次の”158”は、持続時間448msの80%には158Hzに
到達することを示している。このようにしてリストのす
べての音素が表現される。
【0036】図2には、「131 80 179」により与えられ
る音素「b」と、「77 20 200 80 229」により与えられ
る音素「@」と、「405 80 169」により与えられる音素
「b」との結合によって表現される音節を示している。
この例では、実際には不連続の関係にある各音素を連続
となるように結合した音節として示している。
【0037】このような音節を構成するものとなる音素
が各感情表現にあわせて変更を加えられることで、発話
文に感情表現がなされるようになる。具体的には、上述
したような音素の個性或いは特性を示す情報でもある持
続期間やピッチが感情表現のために変更される。
【0038】このような音素から構成する発話文は、大
別して、単語の組合せであり、また、その単語が、音節
の組合せとされ、さらに、その音節が音素の組合せとさ
れて構成されるものである。以下にそのような発話文を
構成する各段階毎<1>〜<5>における処理について
詳しく説明する。 <1> 先ず、文の中の単語の数を決める。例えば、2
0〜MAXWORDSの間の乱数として決定する。MAXWORDSは、
文章を構成する単語の最大数であり、音声合成のための
パラメータである。 <2> 各単語を生成する。具体的には、先ず、文章中
において単語にアクセントがあるかどうかを確率(PROB
ACCENT)で決定する。
【0039】以下の<3−1>〜<3−7>の手続きに
より単語の音節及びその音素を決定し、単語を決定す
る。 <3−1> 各単語の中の音節の数を決める。例えば、
2〜MAXSYLLの間の乱数として決定する。MAXSYLLは、単
語を構成する音節の最大数であり、音声合成のためのパ
ラメータである。 <3−2> ここで、アクセントがある単語であるな
ら、音節のうちの一つをランダムに選んでアクセントを
マークする。 <3−3> 各音節をCV表現かCCV表現のものとし
て決定する。例えば、CV表現の音節が0.8%の確率で
選択されるように決定する。 <3−4> そのように選んだCV或いはCCVのC及
びVに割り当てる子音と母音を音素データベース(或い
は音素リスト)からランダムに読み出す。 <3−5> 各音素の持続期間を、MEANDUR+random(DU
RVAR)で計算する。ここで、MEANDURは固定の持続時間で
あり、random(DURVAR)は乱数に決定される値である。こ
こで、MEANDUR及びDURVARは、音声合成のためのパラメ
ータである。 <3−6−1> 音素のピッチの計算を、e=MEANPITCH
+random(PITCHVAR)で計算する。ここで、MEANPITCHは
固定のピッチであり、random(PITCHVAR)は乱数に決定さ
れる値である。ここで、MEANPITCH及びPITCHVARは、例
えば感情に応じて決定されるパラメータにしている。 <3−6−2> ここで、音素が子音なら、e−PITCHVA
Rとして子音のピッチを得る。また、音素が母音なら、
e+PITCHVARとして母音のピッチを得る。 <3−7−1> もし、音節にアクセントがあるなら、
持続期間にDURVARを追加する。 <3−7−2> そして、アクセントがある場合におい
て、DEFAULTCONTOUR=risingであるときには、子音のピ
ッチを、MAXPITCH−PITCHVARとし、母音のピッチを、MA
XPITCH+PITCHVARとする。また、DEFAULTCONTOUR=fall
ingであるときには、子音のピッチを、MAXPITCH+PITCH
VARとし、母音のピッチを、MAXPITCH−PITCHVARとす
る。さらに、DEFAULTCONTOUR= stableであるときに
は、子音及び母音のピッチを、MAXPITCHとする。DEFAUL
TCONTOURは、音節の特性(CONTOUR)を示すものとな
る。また、MAXPITCHは、音声合成のためのパラメータで
ある。
【0040】以上のような<3−1>〜<3−7>の手
続きにより単語の音節及びその音素が決定される。そし
て、最後に発話文の最後にくる単語のcontour(輪郭)
を変更する処理を行う。 <4−1> 文章の最後の単語にアクセントか無けれ
ば、e=PITCHVAR/2にする。ここで、CONTOURLASTWORD=
falingであるときには、各音節について、-(I+1)*eを加
え、e=e+eとする。Iは音素のインデックスを示すもの
となる。また、パラメータCONTOURLASTWORD=risingで
あるときには、各音節について、+(I+1)*eを加え、e=e
+eとする。 <4−2> 一方、最後の単語にアクセントかあれば、
CONTOURLASTWORD=fallingであるときには、各音節の持
続期間に、DURVARを加える。そして、子音のピッチを、
MAXPITCH+PITCHVARとし、母音のピッチを、MAXPITCH−
PITCHVARとする。もし、パラメータCONTOURLASTWORD=r
isingであるときには、各音節の持続期間に、DURVARを
加える。そして、子音のピッチを、MAXPITCH−PITCHVAR
とし、母音のピッチを、MAXPITCH+PITCHVARとする。 <5> 最後に文全体のボリュームをVOLUMEに設定す
る。ここで、VOLUMEは、音声合成のためのパラメータで
ある。
【0041】以上のような各段階毎における処理によ
り、発話文が生成されるようになる。そして、発話文の
決定に使用する幾つかのパラメータを乱数によって与え
ているので、意味を持たない、毎回違う、無意味語を生
成することができるようになる。そして、上述したよう
な各種パラメータを感情に応じて与えることにより、そ
のような発話文に感情表現がなされるようになる。
【0042】なお、図3及び図4には、上述したような
処理をハードウェアによって実現するためのプログラム
(ソースコード)の記述を示している。図3にはプログ
ラムの前段部分、図4には後段部分を示している。
【0043】(2−2)各感情に応じて与えられるパラ
メータ 上述したような文章生成のアルゴリズムにおいて使用し
たパラメータを感情に応じて制御することで発話文に感
情表現をもたせることができる。ここで、例えば、その
ように発話文の表出される感情としては、平静、怒り、
悲しみ、喜び或いは落ち着き(calm,anger,sadness,
happiness,comfort)等が挙げられる。なお、ここで列
記する感情に限定されないことはいうまでもない。
【0044】例えば、このような情動はそれぞれ、奮起
(Arousal)と力価(valence)とを要素とする特徴空間
上にて表現できる。例えば、図5に示すように、奮起
(Arousal)と力価(valence)とを要素とする特徴空間
上において、怒り、悲しみ、喜び或いは落ち着き(ange
r,sadness,happiness,comfort)の領域が構成され、
その中心に平静(calm)の領域が構成されるというよう
にである。例えば、「怒り(anger)」は奮起とネガテ
ィブとして表され、「悲しみ(sadness)」は「奮起で
ないとネガティブ」として表される。
【0045】以下の表には、怒り、悲しみ、喜び及び落
ち着き等の各感情に対応して予め決定されているパラメ
ータ(少なくとも音素の持続期間(DUR)、ピッチ(PIT
CH)及び音量(VOLUME)等)の組合せテーブルを示して
いる。このようなテーブルを各感情の特質に基づいて予
め生成しておく。
【0046】
【表1】
【0047】
【表2】
【0048】
【表3】
【0049】
【表4】
【0050】
【表5】
【0051】このようにして予め用意しておいた各感情
に対応されるパラメータからなるテーブルを、実際に判
別された感情に応じて切り換えることにより、音声合成
に使用するパラメータの感情に応じた制御を実現してい
る。
【0052】そして、そのように感情に応じて選択され
たテーブルのパラメータを使用した音声合成がなされる
ことにより、感情表現がなされた発話文が生成されるよ
うになる。そしてこのように生成された感情表現がなさ
れた無意味語の発話文をロボット装置が発話することに
より、人間は、ロボット装置の発話内容自体はわからな
いが、ロボット装置の感情を知ることができるようにな
る。そして、そのような発話が、さらに毎回異なるもの
となるので、人間は、ロボット装置との対話を常に新鮮
に感じることができる。次に、本発明の実施の形態であ
るロボット装置について説明し、その後、そのようなロ
ボット装置への上述の発話のアルゴリズムの実装形態を
具体的に説明する。
【0053】なお、実施の形態では、感情に応じたパラ
メータの制御を、感情に対応して予め用意しているパラ
メータからなるテーブルを実際の感情により切り換える
ことにより実現しているが、感情に応じたパラメータの
制御がこの実施の形態に限定されないことはいうまでも
ない。
【0054】(3)本実施の形態によるロボット装置の
具体例 (3−1)ロボット装置の構成 以下、本発明のより具体的な実施の形態として、4本足
の自律型ペットロボットに本発明を適用した例につい
て、図面を参照しながら詳細に説明する。このペット型
ロボット装置のソフトウェアに感情・本能モデルを導入
し、より生物に近い行動を得ることかできるようにして
いる。本実施の形態では実際に動作をするロボットを用
いているが、無意味語による発話はスピーカを持つコン
ピュータ・システムであれば容易に実現可能であり、人
間と機械とのインタラクション(或いは対話)の場で有
効な機能である。従って本発明の適用範囲はロボットシ
ステムに限られるものでは無い。
【0055】具体例としてのロボット装置は、図6に示
すように、「犬」を模した形状のいわゆるペットロボッ
トとされ、胴体部ユニット2の前後左右にそれぞれ脚部
ユニット3A,3B,3C,3Dが連結されると共に、
胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユ
ニット4及び尻尾部ユニット5が連結されて構成されて
いる。
【0056】胴体部ユニット2には、図7に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
【0057】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
【0058】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。
【0059】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
〜26などの各種センサ並びにLED及び各アク
チュエータ25 〜25は、それぞれ対応するハブ
27〜27を介してコントロール部16の信号処理
回路14と接続され、CCDカメラ20及びバッテリ1
7は、それぞれ信号処理回路14と直接接続されてい
る。
【0060】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0061】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0062】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
【0063】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0064】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
【0065】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
【0066】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0067】(3−2)制御プログラムのソフトウェア
構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図8に示すようになる。この図
8において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図7)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスするごと
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0068】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
【0069】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図7)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
【0070】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0071】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図9に示す。
【0072】ミドル・ウェア・レイヤ40は、図9に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
【0073】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図7)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
【0074】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図7)に出力する。
【0075】アプリケーション・レイヤ4lは、図10
に示すように、行動モデルライブラリ70、行動切換え
モジュール71、学習モジュール72、感情モデル73
及び本能モデル74の5つのモジュールから構成されて
いる。ここで、感情モデル73が、外部からの刺激等に
より状態が変化される感情の状態を変化させるモデルで
あって、このような感情モデルにより決定される感情に
応じて上述したような発話文への感情表現の重畳がなさ
れる。また、このような感情モデル73や本能モデル7
4等の状態の監視、すなわちその状態の判別等は、CP
U10等の制御手段によってなされる。
【0076】行動モデルライブラリ70には、図11に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデル70〜70が設け
られている。
【0077】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換えモジ
ュール71に出力する。
【0078】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図12に示すような1つのノード(状態)NODE
NODEから他のどのノードNODE〜NODE
に遷移するかを各ノードNODE〜NODEに間を
接続するアークARC〜ARCに対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
【0079】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図13
に示すような状態遷移表80を有している。
【0080】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
【0081】したがって、図13の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0082】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
【0083】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0084】したがって、図13の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0085】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換えモジュ
ール71に出力するようになされている。
【0086】図10に示す行動切換えモジュール71
は、行動モデルライブラリ70の各行動モデル70
70からそれぞれ出力される行動のうち、予め定めら
れた優先順位の高い行動モデル70〜70から出力
された行動を選択し、当該行動を実行すべき旨のコマン
ド(以下、これを行動コマンドという。)をミドル・ウ
ェア・レイヤ40の出力セマンティクスコンバータモジ
ュール68に送出する。なお、この実施の形態において
は、図11において下側に表記された行動モデル70
〜70ほど優先順位が高く設定されている。
【0087】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
【0088】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0089】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
【0090】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
【0091】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0092】
【数1】
【0093】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0094】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
【0095】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。
【0096】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。
【0097】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0098】
【数2】
【0099】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0100】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
【0101】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図9に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0102】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図7)に与えるべきサーボ指令値
や、スピーカ24(図7)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図7)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
【0103】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
【0104】(3−3)ロボット装置への発話のアルゴ
リズムの実装 上述したようにロボット装置を構成することができる。
上述の発話のアルゴリスムは、このようなロボット装置
1の図9中の音再生モジュール67として実装される。
【0105】音再生モジュール67では、上位の部分
(例えば、行動モデル)にて決定された音出力コマンド
(例えば、「喜びで発話せよ」など)を受け、実際の音
声時系列データを生成し、順にバーチャルロボット33
のスピーカデバイスに対してデータを送信する。これに
よりロボット装置において、図7に示すスピーカ24か
ら感情表現がなされた無意味語からなる発話文が発せら
れる。
【0106】感情に合わせた発話コマンドを生成する行
動モデル(以下、発話行動モデルという。)について説
明する。発話行動モデルは、図10に示した行動モデル
ライブラリ70にて一の行動モデルとして用意されてい
る。
【0107】発話行動モデルでは、感情モデル73や本
能モデル74から常に最新のパラメータ値を参照して、
そのような各パラメータ値に基づいて図10に示すよう
な状態遷移表80を利用して、発話内容を決定してい
る。すなわち、ある状態からの遷移条件として感情の値
を用い、その感情に即した発話行動を遷移時に実行する
ようにしている。
【0108】発話行動モデルが使用する状態遷移表は、
例えば、図14に示すように表現することができる。な
お、図14に示す発話行動モデルに使用する状態遷移表
は、上述の図13に示した状態遷移表80の表記形成が
異なっているが、実質的には異なるものではない。図1
4のように示される状態遷移表について説明する。
【0109】この例では、ノードが“node XXX” から
他のノードへの遷移条件として喜び(HAPPY)、悲しみ
(SAD)、怒り(ANGER)及びタイムアウト(TIMEOUT)
が与えられている。そして、喜び(HAPPY)、悲しみ(S
AD)、怒り(ANGER)及びタイムアウト(TIMEOUT)への
遷移条件としての具体的な数値が、それぞれ HAPPY>7
0、SAD>70、ANGER>70及びTIMEOUT=timout.1とし
て与えられている。ここで、timout.1は数値であり、例
えば所定時間を示す値である。
【0110】また、ノードが“node XXX”から遷移可能
なノードとして、nodeYYY、nodeZZZ、nodeWW
W、nodeVVVが用意されており、そのような各ノード
に対して実行される行動がそれぞれ「バンザイ(BANZA
I)」、「落ち込む(OTIKOMU)」、「ぶるぶる(BURUBU
RU)」及び「あくび(AKUBI)」として割り当てられて
いる。
【0111】ここで、「万歳(BANZAI)」の表現行動
は、「喜び」が感情表現される発話(talk_happy)を
し、また前脚等による万歳の動作(motion_banzai)を
し、さらに尻尾を振る動作(motion_swingtail)をする
ものとして定義している。ここで「喜び」の感情表現を
した発話をするために、上述したような予め用意されて
いる喜びの感情表現のためのパラメータを使用する。す
なわち、先に説明している発話のアルゴリズムに基づい
て喜びの発話を行う。
【0112】また、「落ち込む(OTIKOMU)」の表現行
動は、「悲しみ」が感情表現される発話(talk_sad)を
し、またいわゆるいじけた動作(motion_Ijiiji)をす
るものとして定義している。ここで「悲しみ」の感情表
現をした発話をするために、上述したような予め用意さ
れている悲しみの感情表現のためのパラメータを使用す
る。すなわち、先に説明している発話のアルゴリズムに
基づいて悲しみの発話を行う。
【0113】また、「ぶるぶる(BURUBURU)」の表現行
動は、「怒り」が感情表現される発話(talk_anger)を
し、また怒りのために震えている動作(motion_burubur
u)をするものとして定義している。ここで「怒り」の
感情表現をした発話をするために、上述したような予め
用意されている怒りの感情表現のためのパラメータを使
用する。すなわち、先に説明している発話のアルゴリズ
ムに基づいて怒りの発話を行う。
【0114】また、「あくび(AKUBI)」の表現行動
は、何もなく退屈なのであくびをする動作(motion_aku
bi)として定義している。
【0115】このように遷移可能な各ノードにおいて実
行される各行動が定義されており、そのような各ノード
への遷移については、確率テーブルによって決定されて
いる。すなわち、遷移条件に合致した場合の行動確率が
記述された確率テーブルにて、各ノードへの遷移を決定
している。
【0116】図14に示す例では、喜び(HAPPY)の場
合、すなわちHAPPYの値が所定の閾値とされる70を超
えた場合には100%の確率で「万歳(BANZAI)」の表現
行動で選択される。また、悲しみ(SAD)の場合、すな
わちSADの値が所定の閾値とされる70を超えた場合に
は、100%の確率で「落ち込む(OTIKOMU)」の表現行動
で選択される。また、怒り(ANGER)の場合、すなわりA
NGERの値が所定の閾値とされる70を超えた場合には、
100%の確率で「ぶるぶる(BURUBURU)」の表現行動が
選択される。そして、タイムアウト(TIMEOUT)の場
合、すなわちTIMEOUTの値が所定の閾値とされるtimout.
1となった場合には、100%の確率で「あくび(AKUB
I)」の表現行動が選択される。なお、本例では、全て1
00%の確率で行動を選択される場合を示しており、すな
わち必ず行動が発言される場合を例にしているが、これ
に限定さなることはない。すなわち例えば、喜び(HAPP
Y)の場合に、「万歳(BANZAI)」の行動を70%で選択
するようにしてもよい。
【0117】以上のように発話行動モデルの状態遷移表
を定義することにより、ロボット装置に感情に見合った
発話をその他のセンサの入力やロボットの状態に合わせ
て自由に制御することかできるようになる。
【0118】なお、上述の実施の形態では、感情によっ
て制御されるパラメータとして、持続時間、ピッチ及び
音量を例に挙げて説明した。しかし、これに限定される
ことなく、感情によって影響される文章構成因子をパラ
メータとして用いることもできる。
【0119】また、上述の実施の形態の説明では、ロボ
ット装置の感情モデルが喜び、怒り等の感情によって構
成される場合を説明した。しかし、このような例に挙げ
た感情によって感情モデルが構成されることに限定され
るものではなく、感情に影響を与える他の因子によって
構成することもできる。そして、この場合、このような
他の因子によって、文章を構成するパラメータの制御を
行う。
【0120】
【発明の効果】本発明に係る音声合成方法は、発音主体
の感情モデルの感情状態を判別する感情判別工程と、音
声として発する内容を表す発話文を出力する発話文出力
工程と、感情判別工程により判別された感情状態に応じ
て音声合成のためのパラメータを制御するパラメータ制
御工程と、発話文出力工程により出力された発話文を音
声合成部に入力して制御されたパラメータに基づいて音
声合成する音声合成工程とを有することにより、発声主
体の感情モデルの感情状態に応じて制御した音声合成の
ためのパラメータに基づいて発音主体の発話文を生成す
ることができる。
【0121】また、本発明に係る音声合成装置は、発音
主体の感情モデルの感情状態を判別する感情判別手段
と、音声として発する内容を表す発話文を出力する発話
文出力手段と、感情判別手段により判別された感情状態
に応じて音声合成のためのパラメータを制御するパラメ
ータ制御手段と、発話文出力手段により出力された発話
文が供給され、制御されたパラメータに基づいて音声合
成する音声合成手段とを備えることにより、発音主体の
感情モデルの感情状態を判別する感情判別手段により判
別された感情状態に応じて音声合成のためのパラメータ
をパラメータ制御手段により制御して、発話文出力手段
により出力された発話文が供給され、制御されたパラメ
ータに基づいて音声合成手段により音声合成することが
できる。これにより、音声合成装置は、発声主体の感情
モデルの感情状態に応じて制御した音声合成のためのパ
ラメータに基づいて発音主体の発話文を生成することが
できる。
【0122】また、本発明に係るロボット装置は、動作
に起因する感情モデルと、感情モデルの感情状態を判別
する感情判別手段と、音声として発する内容を表す発話
文を出力する発話文出力手段と、感情判別手段により判
別された感情状態に応じて音声合成のためのパラメータ
を制御するパラメータ制御手段と、発話文出力手段によ
り出力された発話文が供給され、制御されたパラメータ
に基づいて音声合成する音声合成手段とを備えることに
より、動作に起因する感情モデルの感情状態を判別する
感情判別手段により判別された感情状態に応じて音声合
成のためのパラメータをパラメータ制御手段により制御
して、発話文出力手段により出力された発話文が供給さ
れ、制御されたパラメータに基づいて音声合成手段によ
り音声合成することができる。これにより、ロボット装
置は、発声主体の感情モデルの感情状態に応じて制御し
た音声合成のためのパラメータに基づいて発音主体の発
話文を生成することができる。
【図面の簡単な説明】
【図1】本発明に係る音声合成方法の実施の形態の基本
構成を示すフローチャートである。
【図2】各音素の持続時間とピッチとの関係を示す図で
ある。
【図3】音声合成による発話文の作成のためのプログラ
ムであって、その前半部分を示す図である。
【図4】音声合成による発話文の作成のためのプログラ
ムであって、その後半部分を示す図である。
【図5】特徴空間或いは作用平面における各感情のクラ
スの関係を示す図である。
【図6】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図7】上述のロボット装置の回路構成を示すブロック
図である。
【図8】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
【図9】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
【図10】上述のロボット装置のソフトウェア構成にお
けるアプリケーション・レイヤの構成を示すブロック図
である。
【図11】上述のアプリケーション・レイヤの行動モデ
ルライブラリの構成を示すブロック図である。
【図12】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明するために使用した図であ
る。
【図13】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【図14】発話行動モデルの状態遷移表を示す図であ
る。
【符号の説明】
1 ロボット装置、10 CPU、14 信号処理回
路、24 スピーカ、70 行動モデル、73 感情モ
デル
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/06 G10L 3/00 Q (72)発明者 ピエール イブス オードイェ フランス国、75005 パリ市 アミヨ通り 6番地 ソニーコンピュータサイエンス 研究所 パリオフィス内 (72)発明者 佐部 浩太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 BA11 CA01 CA02 CA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED10 ED42 ED47 ED52 EF03 EF07 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 MT14 WA04 WA14 WB13 WB16 WB27 WC07 5D045 AB11

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 少なくとも感情モデルを有する発音主体
    からの情報に基づいて音声を合成する音声合成方法であ
    って、 上記発音主体の上記感情モデルの感情状態を判別する感
    情判別工程と、 音声として発する内容を表す発話文を出力する発話文出
    力工程と、 上記感情判別工程により判別された感情状態に応じて音
    声合成のためのパラメータを制御するパラメータ制御工
    程と、 上記発話文出力工程により出力された発話文を音声合成
    部に入力して上記制御されたパラメータに基づいて音声
    合成する音声合成工程とを有することを特徴とする音声
    合成方法。
  2. 【請求項2】 上記発話文は、無意味な内容の文である
    ことを特徴とする請求項1記載の音声合成方法。
  3. 【請求項3】 上記発話文出力工程は、上記感情モデル
    の感情状態が所定の閾値を超えたときに上記発話文を出
    力して上記音声合成部に供給することを特徴とする請求
    項1記載の音声合成方法。
  4. 【請求項4】 上記発話文出力工程は、発話毎にランダ
    ムに得られた上記発話文を出力して上記音声合成部に供
    給することを特徴とする請求項1記載の音声合成方法。
  5. 【請求項5】 上記発話文は、複数の音素を有して成
    り、上記パラメータは、上記音素の持続時間、ピッチ、
    音量を含むことを特徴とする請求項1記載の音声合成方
    法。
  6. 【請求項6】 上記発音主体は、供給された入力情報に
    基づいて動作を行う自律型ロボット装置であり、上記感
    情モデルとして、上記動作に起因する感情モデルを有
    し、上記入力情報に基づいて上記感情モデルの状態を変
    化させることにより上記動作を決定する感情モデル変化
    工程を有することを特徴とする請求項1記載の音声合成
    方法。
  7. 【請求項7】 少なくとも感情モデルを有する発音主体
    からの情報に基づいて音声を合成する音声合成装置であ
    って、 上記発音主体の上記感情モデルの感情状態を判別する感
    情判別手段と、 音声として発する内容を表す発話文を出力する発話文出
    力手段と、 上記感情判別手段により判別された感情状態に応じて音
    声合成のためのパラメータを制御するパラメータ制御手
    段と、 上記発話文出力手段により出力された発話文が供給さ
    れ、上記制御されたパラメータに基づいて音声合成する
    音声合成手段とを有することを特徴とする音声合成装
    置。
  8. 【請求項8】 上記発話文は、無意味な内容の文である
    ことを特徴とする請求項7記載の音声合成装置。
  9. 【請求項9】 上記発話文出力手段は、上記感情モデル
    の感情状態が所定の閾値を超えたときに上記発話文を出
    力して上記音声合成手段に供給することを特徴とする請
    求項7記載の音声合成装置。
  10. 【請求項10】 上記発話文出力手段は、発話毎にラン
    ダムに得られた上記発話文を出力して上記音声合成手段
    に供給することを特徴とする請求項7記載の音声合成装
    置。
  11. 【請求項11】 上記発話文は、複数の音素を有して成
    り、上記パラメータは、上記音素の持続時間、ピッチ、
    音量を含むことを特徴とする請求項7記載の音声合成装
    置。
  12. 【請求項12】 上記発音主体は、供給された入力情報
    に応じた動作を行う自律型ロボット装置であり、上記感
    情モデルとして、上記動作に起因する感情モデルを有
    し、上記入力情報に基づいて上記感情モデルの状態を変
    化させることにより上記動作を決定する感情モデル変化
    手段を備えることを特徴とする請求項7記載の音声合成
    装置。
  13. 【請求項13】 供給された入力情報に基づいて動作を
    行う自律型のロボット装置であって、 上記動作に起因する感情モデルと、 上記感情モデルの感情状態を判別する感情判別手段と、 音声として発する内容を表す発話文を出力する発話文出
    力手段と、 上記感情判別手段により判別された感情状態に応じて音
    声合成のためのパラメータを制御するパラメータ制御手
    段と、 上記発話文出力手段により出力された発話文が供給さ
    れ、上記制御されたパラメータに基づいて音声合成する
    音声合成手段とを備えることを特徴とするロボット装
    置。
  14. 【請求項14】 上記発話文は、無意味な内容の文であ
    ることを特徴とする請求項13記載のロボット装置。
  15. 【請求項15】 上記発話文出力手段は、上記感情モデ
    ルの感情状態が所定の閾値を超えたときに上記発話文を
    出力して上記音声合成手段に供給することを特徴とする
    請求項13記載のロボット装置。
  16. 【請求項16】 上記発話文出力手段は、発話毎にラン
    ダムに得られた上記発話文を出力して上記音声合成手段
    に供給することを特徴とする請求項13記載のロボット
    装置。
  17. 【請求項17】 上記発話文は、複数の音素を有して成
    り、上記パラメータは、上記音素の持続時間、ピッチ、
    音量を含むことを特徴とする請求項13記載のロボット
    装置。
  18. 【請求項18】 上記入力情報に基づいて上記感情モデ
    ルの状態を変化させることにより上記動作を決定する感
    情モデル変化手段を備えることを特徴とする請求項13
    記載のロボット装置。
JP2002135962A 2001-05-11 2002-05-10 音声合成方法及び装置、並びにロボット装置 Withdrawn JP2003036090A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP01401203A EP1256931A1 (en) 2001-05-11 2001-05-11 Method and apparatus for voice synthesis and robot apparatus
EP01401203.3 2001-05-11

Publications (1)

Publication Number Publication Date
JP2003036090A true JP2003036090A (ja) 2003-02-07

Family

ID=8182722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002135962A Withdrawn JP2003036090A (ja) 2001-05-11 2002-05-10 音声合成方法及び装置、並びにロボット装置

Country Status (4)

Country Link
US (1) US20020198717A1 (ja)
EP (1) EP1256931A1 (ja)
JP (1) JP2003036090A (ja)
DE (2) DE60124225T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005169567A (ja) * 2003-12-11 2005-06-30 Sony Corp コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2018060246A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 移動体用出力生成装置、移動体用出力生成プログラム、移動体用出力生成方法及び移動体
WO2019195779A1 (en) * 2018-04-06 2019-10-10 Anki, Inc. Condition-based robot audio techniques

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7478047B2 (en) * 2000-11-03 2009-01-13 Zoesis, Inc. Interactive character system
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
US7360151B1 (en) * 2003-05-27 2008-04-15 Walt Froloff System and method for creating custom specific text and emotive content message response templates for textual communications
JP4085926B2 (ja) * 2003-08-14 2008-05-14 ソニー株式会社 情報処理端末及び通信システム
WO2006030529A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 擬似感情形成手段を備えた模擬生物装置
KR20060127452A (ko) * 2005-06-07 2006-12-13 엘지전자 주식회사 로봇청소기 상태알림장치 및 방법
US8036902B1 (en) * 2006-06-21 2011-10-11 Tellme Networks, Inc. Audio human verification
US8195460B2 (en) * 2008-06-17 2012-06-05 Voicesense Ltd. Speaker characterization through speech analysis
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
TWI430189B (zh) * 2009-11-10 2014-03-11 Inst Information Industry 訊息擬真處理系統、裝置及方法
ES2374008B1 (es) 2009-12-21 2012-12-28 Telefónica, S.A. Codificación, modificación y síntesis de segmentos de voz.
JP5978027B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
US9202352B2 (en) 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
KR102222122B1 (ko) * 2014-01-21 2021-03-03 엘지전자 주식회사 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
US9761222B1 (en) * 2014-06-11 2017-09-12 Albert Scarasso Intelligent conversational messaging
US10350763B2 (en) * 2014-07-01 2019-07-16 Sharp Kabushiki Kaisha Posture control device, robot, and posture control method
CN105139848B (zh) * 2015-07-23 2019-01-04 小米科技有限责任公司 数据转换方法和装置
JP6483578B2 (ja) * 2015-09-14 2019-03-13 株式会社東芝 音声合成装置、音声合成方法およびプログラム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
US10235989B2 (en) * 2016-03-24 2019-03-19 Oracle International Corporation Sonification of words and phrases by text mining based on frequency of occurrence
CN106126502B (zh) * 2016-07-07 2018-10-30 四川长虹电器股份有限公司 一种基于支持向量机的情感分类系统及方法
CN108197115B (zh) * 2018-01-26 2022-04-22 上海智臻智能网络科技股份有限公司 智能交互方法、装置、计算机设备和计算机可读存储介质
CN111048062B (zh) * 2018-10-10 2022-10-04 华为技术有限公司 语音合成方法及设备
CN110600002B (zh) * 2019-09-18 2022-04-22 北京声智科技有限公司 语音合成方法、装置及电子设备
CN113689530B (zh) * 2020-05-18 2023-10-20 北京搜狗科技发展有限公司 一种驱动数字人的方法、装置及电子设备
US11651764B2 (en) * 2020-07-02 2023-05-16 Tobrox Computing Limited Methods and systems for synthesizing speech audio
CN115640323B (zh) * 2022-12-22 2023-03-17 浙江大学 一种基于转移概率的情绪预测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
US5700178A (en) * 1996-08-14 1997-12-23 Fisher-Price, Inc. Emotional expression character
EP1092458A1 (en) * 1999-04-30 2001-04-18 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP4465768B2 (ja) * 1999-12-28 2010-05-19 ソニー株式会社 音声合成装置および方法、並びに記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005169567A (ja) * 2003-12-11 2005-06-30 Sony Corp コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP4556425B2 (ja) * 2003-12-11 2010-10-06 ソニー株式会社 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2018060246A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 移動体用出力生成装置、移動体用出力生成プログラム、移動体用出力生成方法及び移動体
WO2019195779A1 (en) * 2018-04-06 2019-10-10 Anki, Inc. Condition-based robot audio techniques

Also Published As

Publication number Publication date
DE60119496T2 (de) 2007-04-26
EP1256931A1 (en) 2002-11-13
US20020198717A1 (en) 2002-12-26
DE60124225D1 (de) 2006-12-14
DE60119496D1 (de) 2006-06-14
DE60124225T2 (de) 2007-09-06

Similar Documents

Publication Publication Date Title
JP2003036090A (ja) 音声合成方法及び装置、並びにロボット装置
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
KR100843822B1 (ko) 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
US6519506B2 (en) Robot and control method for controlling the robot's emotions
JP4465768B2 (ja) 音声合成装置および方法、並びに記録媒体
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
WO2001039932A1 (fr) Robot, son procede de commande et procede d'appreciation du caractere du robot
KR20020067697A (ko) 로봇 제어 장치
KR20060107329A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP2004287097A (ja) 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
JP2024040159A (ja) ロボット及び音声生成プログラム
JP2002278575A (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
JP2024108175A (ja) ロボット、音声合成プログラム、及び音声出力方法
WO1999032203A1 (en) A standalone interactive toy
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2002175091A (ja) 音声合成方法及び装置、並びにロボット装置
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP7414735B2 (ja) 複数のロボットエフェクターを制御するための方法
JP4016316B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002311981A (ja) 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802