JP4266552B2 - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法 Download PDFInfo
- Publication number
- JP4266552B2 JP4266552B2 JP2001318362A JP2001318362A JP4266552B2 JP 4266552 B2 JP4266552 B2 JP 4266552B2 JP 2001318362 A JP2001318362 A JP 2001318362A JP 2001318362 A JP2001318362 A JP 2001318362A JP 4266552 B2 JP4266552 B2 JP 4266552B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- robot
- emotion
- emotion value
- operation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
【発明の属する技術分野】
本発明は、人物を特定し、内部感情にしたがって動作するロボット装置及びその制御方法に関する。
【0002】
【従来の技術】
昨今のペット型ロボットに代表されるロボット装置は、エンターテイメント用途ということもあり、ロボット装置自身が感情あるいは性格を持つように構成されている。このロボット装置の性格や感情は、撫でる/叩くなどの操作結果や言葉の音声認識の結果、あるいは照明などの外部環境の結果に基づき、連続的に変化する。図19は従来のロボット装置における感情値の遷移を示したものであり、ある点t1におけるロボット感情値801は時間や操作などに伴い感情値802(t2)、803(t3)と変化している。
【0003】
したがって、人物Aが操作を行った結果、ロボット感情値が感情値801の状態から感情値802の状態へ遷移すると、次の人物がロボット装置を操作する場合のロボット感情値は感情値802の状態から始まることになる。例えば、特開2001−154707号公報に記載されたロボット装置においては、怒り、悲しみや喜びといった感情を確率状態遷移モデルで形成し、各感情モデルから他の感情モデルへこの確率状態遷移モデルに従って遷移する方式が提案されている。しかし、この確率遷移を用いた感情モデルにおいても人物を特定する機構がないため、過去の操作者に関係なく現在の感情モデルに従って感情遷移が行われていた。
【0004】
このように、従来のロボット装置では、以前誰が操作したのかにかかわらず、単純に過去のロボットの操作や対話の履歴結果や外部環境によってのみロボット装置の感情を決定し、遷移させていた。
【0005】
【発明が解決しようとする課題】
このように従来のロボット装置では、以前誰が操作したのかに関わらず、単純に過去のロボット装置の操作や対話の履歴結果や外部環境によってのみロボット装置の感情を決定し、遷移させていた。そこで、以下に示すような課題が生じていた。
【0006】
第1の課題は、特に複数人が操作する環境においてパーソナル性が低いということである。その理由は、従来のロボット装置では単純に操作履歴や対話履歴に基づいて感情や性格、あるいはこれらに基づく行動を決定しているため、人物ごとの操作履歴や対話履歴がロボット装置の行動や感情へ反映されていないからである。
【0007】
第2の課題は、ファミリー的な要素に欠けるということである。その理由は、一般的に家庭で使用されるロボット装置においては、ロボット装置と家族の中に一定の関係が存在し、その関係の中でロボット装置の行動や感情が決定されたり制限されるべきであるが、従来のロボット装置ではこの関係が全く考慮されていないからである。
【0008】
本発明は上記事情に鑑みてなされたものであり、人物の過去の操作履歴や対話履歴、あるいは過去の感情や対人度(好感度や親密度など)に基づいて感情を決定し、動作することができるロボット装置およびその制御方法を提供することを目的とする。例えば、ロボットが悲しんでいる状態でよく遊んでくれる人物と遭遇すると、「泣いている子が笑った」という状態が実現される。
【0009】
また、本発明の他の目的は、家族(人物)とロボット装置との相関関係を定義しておくことにより、ロボット装置が人物と遭遇すると、その相関関係に基づいた感情変化や行動をとらせることができるロボット装置およびその制御方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
係る目的を達成するために請求項1記載の発明は、人物を特定する人物特定手段と、利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報を記憶する第1の記憶手段と、直前の利用者に関する情報を記憶する第2の記憶手段と、人物遭遇時に、第2の記憶手段に記憶されている直前の利用者に関する情報と、前記人物特定手段により特定された現在の利用者を示す情報と、利用者情報とに基づいた発話を行う発話手段、及び、人物遭遇時に、第2の記憶手段に記憶されている直前の利用者に関する情報と、人物特定手段により特定された現在の利用者を示す情報と、利用者情報に基づいた行動を行う行動手段の少なくとも一方と、を有することを特徴とする。
【0011】
請求項2記載の発明は、人物を特定する人物特定手段と、人物の発話内容を解釈する音声認識手段と、人物より入力された操作情報を取得する操作情報取得手段と、音声認識手段により解釈した人物の発話内容、及び操作情報取得手段により取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する感情・性格制御手段と、感情・性格制御手段により生成されたロボット感情値を人物毎に記憶した記憶手段と、を有し、性格・感情制御手段は、人物に遭遇した際に、記憶手段に記憶された該当人物に対する過去のロボット感情値と、該当人物と遭遇する直前の利用者に対するロボット感情値とから新たなロボット感情値を生成することを特徴とする。
【0012】
請求項3記載の発明は請求項2記載の発明において、感情・性格制御手段は、過去のロボット感情値と直前のロボット感情値とに所定の重みを付けて新たなロボット感情値を生成することを特徴とする。
【0013】
請求項4記載の発明は請求項3記載の発明において、感情・性格制御手段は、過去に操作された操作日時と現在日時との差分、過去に操作された操作時間、操作や対話の統計情報から導かれる親密度・好感度からなる対人度、ロボット装置の起動時間からの経過時間の何れか一つまたは複数の条件を基にして過去のロボット感情値と直前のロボット感情値とに所定の重みを付けることを特徴とする。
【0014】
請求項5記載の発明は請求項4記載の発明において、感情・性格制御手段は、過去のロボット感情値と直前のロボット感情値とに付ける重みの基準となる条件を利用者毎に変更して新たなロボット感情値を生成することを特徴とする。
【0015】
請求項6記載の発明は請求項2から5の何れか一項に記載の発明において、感情・性格制御手段は、人物特定手段による人物の認識率、または音声認識手段による音声の認識率によって生成した新たなロボット感情値を補正することを特徴とする。
【0016】
請求項7記載の発明は請求項2から6の何れか一項に記載の発明において、利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報を記憶手段は記憶し、感情・性格制御手段は、生成した新たなロボット感情値を利用者情報によって補正することを特徴とする。
【0018】
請求項9記載の発明は請求項2から8の何れか一項に記載の発明において、記憶手段は、ロボット装置の感情毎に、ロボット装置の感情を逆なでする用語、操作を登録した感情処理テーブルを記憶し、感情・性格制御手段は、人物遭遇後の一定期間内に操作情報取得手段もしくは音声認識手段によって感情処理テーブル記載の対話や操作が行われたことを検知すると、ロボット感情値を人物遭遇前の状態に戻す制御を行うことを特徴とする。
【0019】
請求項10記載の発明は、人物を特定する人物特定工程と、人物特定工程において特定された直前の利用者及び現在の利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報に基づいた発話を特定した人物と行う発話工程、並びに人物特定工程において特定された直前の利用者及び現在の利用者に関する情報、利用者間の相関関係、及び利用者情報に基づいた行動を行う行動工程の少なくとも一方と、を有することを特徴とする。
【0020】
請求項11記載の発明は、人物を特定する人物特定工程と、人物の発話内容を解釈する音声認識工程と、人物より入力された操作情報を取得する操作情報取得工程と、音声認識工程において解釈された人物の発話内容、及び操作情報取得工程において取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する第1のロボット感情値生成工程と、人物に遭遇した際に、該当人物に対する過去のロボット感情値と、該当人物と遭遇する直前の利用者に対するロボット感情値とから新たなロボット感情値を生成する第2のロボット感情値生成工程と、を有することを特徴とする。
【0021】
請求項12記載の発明は請求項11記載の発明において、第2のロボット感情値生成工程は、過去のロボット感情値と直前のロボット感情値とに所定の重みを付けて新たなロボット感情値を生成することを特徴とする。
【0022】
請求項13記載の発明は請求項12記載の発明において、第2のロボット感情値生成工程は、過去に操作された操作日時と現在日時との差分、過去に操作された操作時間、操作や対話の統計情報から導かれる親密度・好感度からなる対人度、ロボット装置の起動時間からの経過時間の何れか一つまたは複数の条件を基にして過去のロボット感情値と直前のロボット感情値とに所定の重みを付けることを特徴とする。
【0023】
請求項14記載の発明は請求項13記載の発明において、第2のロボット感情値生成工程は、過去のロボット感情値と直線のロボット感情値とに付ける重みの基準となる条件を利用者毎に変更して新たなロボット感情値を生成することを特徴とする。
【0024】
請求項15記載の発明は請求項11から14の何れか一項に記載の発明において、第2のロボット感情値生成工程は、人物特定工程による人物の認識率、または音声認識工程による音声の認識率によって生成した新たなロボット感情値を補正することを特徴とする。
【0025】
請求項16記載の発明は請求項11から15の何れか一項に記載の発明において、第2のロボット感情生成工程は、利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報によって、生成した新たなロボット感情値を補正することを特徴とする。
【0027】
請求項18記載の発明は請求項11から17の何れか一項に記載の発明において、第2のロボット感情値生成工程は、ロボット装置の感情毎に、ロボット装置の感情を逆なでする用語、操作を登録した感情処理テーブルを参照して、人物遭遇後の一定期間内に操作情報取得工程もしくは音声認識工程によって感情処理テーブル記載の対話や操作が行われたことを検知すると、ロボット感情値を人物遭遇前の状態に戻す制御を行うことを特徴とする。
【0028】
本発明に係る第1のものは、マイクなどの音声入力部からの音声を認識する音声認識手段、人物からロボットへの操作をセンサ等を使って検知する操作情報取得手段、人物を特定する人物特定手段、ロボット装置の感情を制御する感情・性格制御手段を備える。また、感情・性格制御手段は、人物と遭遇した際に、過去のその人物とロボットとの操作・対話による感情値と現在のロボット感情値とから新たなロボット感情値を生成するように動作する。
【0029】
また、本発明に係る第2のものは、上記の感情・性格制御手段が人物と遭遇した際に、過去のその人物とロボットとの対話・操作による感情値と現在の感情値から目標となる感情値を生成し、現在のロボット感情値から目標感情値へ一定時間内に推移させるように動作する。
【0030】
さらに、本発明に係る第3のものは、感情・性格制御手段が生成した新たなロボット感情値を、過去の人物による音声認識率や画像認識率などの認識結果、あるいは利用者の家族属性(続柄)を参照して、補正するように動作する。
【0031】
最後に、本発明に係る第4のものは、あらかじめ利用者情報に記載されたロボットと利用者の相関関係を定義しておき、ロボットが人物遭遇時に定義された相関関係に基づいて行動する。
【0032】
【発明の実施の形態】
次に、添付図面を参照しながら本発明のロボット装置およびその制御方法に係る実施形態を詳細に説明する。図1〜図18を参照すると本発明のロボット装置およびその制御方法に係る実施形態が示されている。
【0033】
[第1の実施形態]
まず、本発明のロボット装置の動作状態の遷移について、図2を用いて説明する。ロボット装置の動作状態は、自分で障害物などを避けながら自立的に行動する自律動作状態201と、人物との対話や操作状態(対人物状態と呼ぶ)202の2つの状態に分類することができる。同図には3人の人物A,B,Cが存在する場合が示されており、このため対人物状態202は人物A,人物B,人物Cのそれぞれと操作・対話を行っている状態202a(対人物A状態)、202b(対人物B状態)、202c(対人物C状態)から構成される。
【0034】
ロボット装置は、音声認識や画像認識の結果、あるいは人物の操作結果や対話結果により、状態201、202a、202b、202cに遷移する。例えば、ロボット装置が自律動作状態201で人物Aを特定すると、状態202aへ遷移する(アーク203)。また、対人物A状態202aから人物Aが「ばいばい」と発話すれば、自律動作状態201へ遷移する(アーク204)。あるいは対人物A状態202aで人物Cが「お〜い」と声をかけ、ロボット装置が人物Cを特定すると、対人物C状態202cへ遷移する(アーク205)。
【0035】
以下では、自律行動状態と各対人物状態を合わせて、ロボット状態と呼ぶ。したがって、ロボット状態が遷移(変化)したというのは、図2に記載のような状態遷移が発生したことを示す。
【0036】
次に、ロボット装置の感情モデルを図3を用いて説明する。同図に記載のように、ロボット装置は感情の種類として「怒り」、「悲しみ」、「喜び」を保持している。本実施形態の特徴は、現在のロボット感情値31と、遭遇した人物に対する過去のロボット感情値32を参照して、新たなロボット感情値33を生成することである(CASE1)。なお、同図記載のCASE2については、後の実施形態にて説明する。
【0037】
[構成の説明]
図1には、本発明のロボット装置に係る第1の実施形態の構成が示されている。
図1を参照すると、本発明の第1の実施形態は、ロボット装置からの音声合成発話を行う発話手段101、前進・回転あるいは首振りなどロボット装置の駆動部を制御する行動手段102、ロボット装置の発話内容や行動を制御するロボット制御手段103、人物の発話語句を解釈する音声認識手段104、撫でる/叩くなどセンサからの操作情報を取得する操作取得手段105、ロボット装置内部の感情や性格を制御する感情・性格制御手段106、カメラからの画像により障害物や人物を識別する画像認識手段107、人物を特定する人物特定手段108、及び記憶部120から構成されている。
【0038】
記憶部120には、音声認識語句を登録した音声認識辞書121、現在のロボット感情値を保持しているロボット感情値122、過去の各ロボット状態及び現在のロボット状態における操作履歴や対話履歴や動作時間情報、及びロボット装置の感情値や対人度を保持している状態管理テーブル123、ロボット装置の動作や状態遷移を定義している動作制御テーブル(群)124、ロボット装置からの発話内容を定義している発話テーブル125、障害物を識別するための背景や人物の顔情報などを保持している画像認識辞書126、及び利用する人物を定義した利用者情報127を保持している。
【0039】
利用者情報127は本ロボット装置を使用する際に事前に登録しておくものであり、図4にその一例を示す。同図記載のように、利用者情報127は利用者番号601、利用者氏名602、利用者愛称603、利用者の顔を登録した画像認識辞書のファイル名604、利用者の属性605(この例では続柄)から構成されている。利用者情報127は人物特定手段108が利用者を特定するために使用したり、あるいは利用者を特定した後に発話手段101が愛称603を発話する場合に使用する。
【0040】
これらの手段による概略動作を説明するために、本ロボット装置の行動モデル及び行動を制御する動作制御テーブル(群)124について説明する。図5は行動モデルを示す概念図であり、自律動作状態における行動モデル210と対人物状態における行動モデル211に分類することができる。なお、この例では対人物状態における行動モデル211は1種類だけであるが、メモリなどに余裕があれば人物ごとに行動モデルを用意してもよい。
【0041】
同図において、各ノードはロボット装置の姿勢など動作の状態を示し、各アークは次の姿勢へ遷移する条件と遷移確率を保持している。つまり、一種の確率オートマトンとして行動モデルが定義されている。例えば、ノードA2は足も首も止まった状態を表す。A2から出ている1つのアークは、「前進と発話すると100%の確率でノードA4へ遷移する」ことを示す。あるいは別のアークは「頭を叩くと50%の確率で、首を上下に振りながら、ノードA5へ遷移する」ことを示す。
【0042】
各ノードにおける状態遷移の条件や遷移確率及び遷移先を定義したものが、図6記載の動作制御テーブル124である。動作制御テーブル124は遷移条件として感情条件220とイベント条件221を保持している。イベント条件221としては操作内容、音声認識結果や画像認識の結果、あるいは時間に関する条件が記載されており、感情条件とイベント条件の両方の条件が成立した場合に、同じ行に記載されている遷移先に遷移する。遷移先の情報としては、遷移確率と、遷移時のアクション(動作や発話)と遷移先のノードが記載されている。例えば同図に示す222は、「怒り>80かつ、その状態で頭を叩かれる」と、確率30%でノードA3へ遷移することを示す。さらに、ノードが遷移する際に、アクション1を実行する。
【0043】
このように、本ロボット装置は行動モデルに基づく動作制御テーブル124にしたがって、確率的な状態遷移を行いながら、動作や発話を実行していく。明らかに、動作制御テーブル124は行動モデルにおけるノードの数だけ存在することになる。つまり、本ロボット装置のロボット制御手段103は、音声認識手段103や画像認識手段107や操作取得手段105、あるいは感情・性格制御手段106や経過時間などにより、図6記載の動作制御テーブル124の遷移条件が満足されているかどうかを調べる。満足されていると、所定の遷移確率で次の動作状態へ遷移する。この際、ロボット制御手段103は、動作制御テーブル124に定義されている処理動作(アクション)を、行動手段102や発話手段101を用いて実行する。
【0044】
一方、感情・性格制御手段106は、動作制御テーブル124とは独立して、操作取得手段105や音声認識手段104、あるいは時間情報などを用いてロボット感情値122を更新していく。このように、行動モデルと感情モデルとはそれぞれが独立のモデルとして動作する。例えば動作制御テーブル124には「時間による状態遷移」は定義されていないが、感情モデルでは時間の経過と共に感情値がおさまっていくケースなどがある。但し、行動モデルと感情モデルとは、一般的にはお互いに影響を及ぼしあうような構成となる(例:動き出すと喜びが増える、悲しみが大きい場合にはあまり動きたくない)。
【0045】
さらに、操作情報や音声認識結果にしたがって、現在のロボット状態における履歴情報である状態管理テーブル123を更新していく。状態管理テーブル123の構成については、動作の説明の部分で説明する。
【0046】
さて、本ロボット装置が自律動作状態201から人物と遭遇すると、人物特定手段108は利用者情報127を参照して人物を特定する。人物を特定するには3種類の方法が考えられる。第1の方法は、人物の顔画像を画像認識辞書126に登録しておき、画像認識手段108を用いて画像認識辞書126に登録された顔画像との照合を行う方法である。第2の方法は、音声認識手段104と音声認識辞書121とを用いて、利用者の名前や愛称の発話から判断する方法である。第3の方法は、ロボット装置にスイッチやボタンを設けて、押下されたスイッチやボタン情報を操作取得手段105で検知し、検知結果から利用者情報127を参照して人物を特定する方法である。
【0047】
人物を特定するなど、図2のようなロボット状態の変化が生じた場合には、過去及び現在のロボット状態における履歴情報を保持している状態管理テーブル123を更新する。また、人物を特定した後は、感情・性格制御手段106はその人物が過去にロボット装置を操作した際のロボット感情値を状態管理テーブル123から取得し、取得した過去の感情と現在のロボット感情値122から新たなロボット感情値を生成し、それをロボット感情値122に上書きする。
【0048】
一方、ロボット装置の行動という観点では、ロボット状態が変化すると動作制御テーブル124に記載されている人物遭遇後の動作状態(ノード)へ遷移する。以後、新しいロボット感情値122を参照しつつ、遷移先の動作制御テーブル124の内容にしたがって、ロボット装置の動作・発話などを制御していく。
【0049】
[動作の説明]
まず、第1の実施形態における感情変化モデルを図7を用いて説明する。同図は、自律動作状態201あるいは対人物A状態202aにおいて、本ロボット装置が人物Bと遭遇した場合の感情値の変化を示したものである。人物Bと遭遇する直前のロボット感情値が感情値301であり、過去の人物Bに対するロボット感情値が感情値304である。人物Bと遭遇した場合には両者の感情値を用いて、新たなロボット感情値302を生成し、以降人物Bの操作や対話結果に基づいてロボット感情値303へと遷移していくものとする。
【0050】
例えば、過去に人物Bからいじめられたことが多いと、過去のロボット感情値304は「怒り」や「悲しみ」が多い。従って、仮に現在のロボット感情値301が「喜んでいる」状態であっても、人物Bと遭遇することで喜びが半減する状態(新しいロボット感情値302)になる。
【0051】
次に、図8に示されたフローチャートを参照しながら図1に示された本実施形態の全体の動作について詳細に説明する。
【0052】
まず、ステップS51では、ロボット制御手段103が音声認識手段101や操作取得手段105を用いて、人物との対話結果や操作結果を取得する。ステップS52では、取得結果に基づき、動作制御テーブル124に定義されている状態遷移や動作を実行すると共に、感情・性格制御手段105がロボット感情値122を更新する。さらに、取得した対話結果や操作結果に基づき、状態管理テーブル123に記載されている履歴情報を更新する。
【0053】
図9には、状態管理テーブル123の構成が示されており、図2に示した各ロボット状態(3名の利用者)における履歴情報を保持したものである。すなわち、状態管理テーブル123は、対人物状態202a、202b、202cでの履歴情報405,406,407と、自律動作状態201での履歴情報408と、現在のロボット状態における履歴情報409とから構成されている。また、状態管理テーブル123は、各ロボット状態における過去のロボット感情値401、対人度(好感度や親密度)402、行動・対話の回数403、及び動作時間などの時間情報404を記録している。
【0054】
感情値401は、人物によりロボット装置が操作され、その人物と別れた(=別のロボット状態へ遷移した)際の、その人物に対するロボット感情値を保持している。対人度402の好感度や親密度は、過去のほめられた(しかられた)回数や操作時間などによって感情・性格制御手段106が決定するものであり、別のロボット状態へ遷移した際に、その人物への対人度情報として保存される。行動・対話回数403は過去の対話回数や行動回数の累計を示したものであり、時間情報404は累計の操作時間以外に、前回動作の日時や時間を保持している。
【0055】
また、状態管理テーブル123は、現在のロボット状態(自律動作状態201、または対人物状態202a、202b、202c)での各種履歴情報を保持しており、ロボット状態の遷移が起こった場合に、該当するロボット状態の履歴情報を更新するために使用される。なお、現在のロボット装置の感情値409もこの状態管理テーブル123には記録されているが、これはロボット感情値122と同じものであり、便宜上このテーブルにも記載している。
【0056】
ステップS52における状態管理テーブル123の更新とは、操作内容や発話内容にしたがって、現在ロボット状態における行動・対話の回数409cや対人度409bを更新することを意味する。
【0057】
次に、ステップS53では、以下に示す3種類のロボット状態の遷移があったかどうかをロボット制御手段103や人物特定手段108を用いて判断する。なお、動作制御テーブル124には、ロボット状態の変化(人物と別れたり、人物と遭遇する)に対する所定条件と遷移先が定義されているものとする。ロボット状態の変更がない場合には、ステップS52〜S53の処理を繰り返す。
【0058】
ステップS53の分類:
(A)対人物状態から別の対人物状態への遷移
(B)自律行動状態から対人物状態への遷移
(C)対人物状態から自律行動状態への遷移
そこで、以下では、この3つのケースにつき、ステップS54、S55の処理について説明する。
【0059】
(A)対人物状態から別の対人物状態
ステップS53で直前の人物と異なる人物と遭遇した場合には、ステップS54で現在までのロボット状態における履歴情報を元に、状態管理テーブル123の内容を更新する。具体的には以下の処理を行う。
・現在ロボット感情値409aを状態管理テーブル123の直前の該当人物の欄の感情値401へ上書きする。
・対人度409bについても、該当の欄の対人度402へ上書きする。
・行動・対話回数409cは該当人物欄の行動・対話回数403の数字に加算する。
・時間情報409dは、累計時間は合計するが、前回完了日時や前回操作時間は現在の数値をそのまま該当人物欄へ上書きする。
・現在ロボット状態の欄409に、遭遇した人物の履歴情報(感情値401、対人度402)を書き込む(なお、現在ロボット状態の行動・対話409cはゼロクリアされる)。
【0060】
ステップS55では、遭遇した人物に対する過去のロボット感情値を状態管理テーブル123から取得し、現在のロボット感情値122とあわせて新たにロボット感情値を計算し、ロボット感情値122、409aを更新する。
【0061】
ここで、ロボット感情値を算出する計算式を以下に示す。
E2=kE0+(1−k)E1・・・・(1)
この式(1)は、人物遭遇直前の現在感情値E0と過去のロボット感情値E1を重み係数k(0〜1)を用いて線形計算するものである。kの値をどのようにとるかによって、図10に示される新ロボット感情値332を現在感情値331に近い(kが大きい)ようにするか、あるいは過去のロボット感情値に近い(kが小さい)ようにするのかを制御することができる。
【0062】
重み係数kの制御方法としては、図11記載の係数制御ルール340がある。同ルールはどの場合に重み係数kを大きくして、新ロボット感情値を現在ロボット感情値に近づけるかを記載したものである。以下に、各ルールについて説明する。
ルール1:前回の同一人物による操作日時が古いほど、現在感情値に近くするものである。時間がたてばたつほど、ロボット装置のその人に対する印象が薄くなるようなモデルとして想定できる。
ルール2:前回の同一人物による操作時間が短い場合に、現在ロボット感情値に近くするものである。短い時間なので印象が深まっていないというモデルが想定できる。
ルール3:ルール2に近いが、好感度・親密度が小さい場合には、遭遇した人物による現在のロボット感情への影響度が小さいと考えたモデルである。
ルール4:起動後間もない場合には、まだロボット装置が完全に目覚めていないため、過去の状況に対する記憶力(影響度)がすこし弱くなっているモデルである。
以上記載のルールにしたがって、重み係数kを制御する。各ルールは1種類のみを使用してもよいし、各ルールを組み合わせて重み係数kを決定しても良い。あるいは、利用者ごとに使用するルールを設定することも可能である。
【0063】
また、対象となるロボット装置の感情の種類としては、怒り、悲しみ、喜びのすべての感情種類を想定しているが、感情を抑える(なだめる)という意味で、最大あるいは最小の感情値を持つ感情種類を対象としたり、ある閾値以上あるいは以下の感情種類を対象とする場合も考えられる。さらに、感情の種類に応じて異なる重み係数を導入したり、その適用ルールを変更しても良い。
【0064】
また、上記の式(1)は、簡単のために線形モデルを採用したが、現在ロボット感情値と過去ロボット感情値に対する2個の感情値に対する重みづけを行うことが主旨であるため、本主旨に合致する他の計算モデルを採用しても良い。
【0065】
上記の方法によってステップS55でロボット感情値122を変更し、新しいロボット状態における操作・対話を行っていく。
【0066】
(B)自律動作状態から対人物状態への遷移
自律動作状態から対人物状態へ遷移する場合では、ステップS54での状態管理テーブル123の更新は対人物状態の欄ではなく、自律動作状態の欄(408)の履歴情報を更新する。また、ステップS55での新しいロボット感情値の再計算方法は上記(A)の場合とほぼ同様である。
【0067】
一般的には自律動作状態では感情の大幅な起伏は発生しないが、エンターテイメント性を高めるために、遭遇人物との過去のロボット感情値をより強く反映させる方法がある。一方で、感情の連続性という観点から、現在のロボット感情値に近い新たなロボット感情値にするという方法も考えられる。つまり、重み係数kの値は上記(A)のルールによる値を、ロボット装置の性格付けの方向で補正して用いる。
【0068】
(C)対人物状態から自律動作状態への遷移
対人物状態から自律動作状態へ遷移する場合は、ステップS54の処理は(A)の場合と同様である。次に、ステップS55のロボット装置の感情値の再計算は、対人物状態で感情の起伏があったとしても、一般的に自律状態では操作や話しかけが少ないために、時間と共に一定の感情範囲内におさまる場合が多い。その場合には、状態遷移時に特別な感情生成を行う必要がないため、ステップS55をスキップすることになる。
【0069】
一方で、直前の対人物状態との対話、操作時間で、現在のロボット感情の「引きづり度」を制御したいという要望もある。この場合には、前記(A)記載のルール2に準拠したモデルが考えられる。例えば、次のようなルールを採用する。
ルール5:重み係数kは0.8〜1.0の間とする(現ロボット感情に近い)。kは直前の対人物状態での操作時間が長いほど大きく設定する。なお、式(1)におけるE1は前回の自律動作時のロボット感情値を採用する。
【0070】
以上説明したように、第1の実施の形態では、ロボット状態が変化した場合に、現在のロボット感情値と過去の同一ロボット状態におけるロボット感情値を重み付け係数kを用いて、新しいロボット感情値を生成する。重み係数kの値は、ロボット状態変化のパターン、過去の操作・対話の履歴や時間、あるいは性格付けなどに基づく係数設定則(ルール)を用いて決定する。その結果、エンターテイメント性の高い感情変化を実現することができる。
【0071】
[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。上述した第1の実施形態では、人物と遭遇した際のロボット感情値を直ちに計算して置き換えを行っていたが、第2の実施形態では、一定の時間をかけて目標となる感情値へ移行するように構成する。以降では、人物遭遇後の一定時間内の処理を過渡的処理、一定時間後の処理を通常処理と呼ぶ。
【0072】
図12は、第2の実施形態におけるロボット感情値の遷移を概念的に示す図である。図12に示されるように、現在のロボット感情値311と過去のロボット感情値314とから目標となるロボット感情値312を生成する。ロボット装置の感情値は現在感情値311から目標ロボット感情値312へ徐々に移行することが期待されるが、実際には途中の対話や操作結果により、目標感情値312と異なるロボット感情値315へ遷移していく。
【0073】
第2の実施形態による動作手順について、図13に示されたフローチャートを参照しながら説明する。第2の実施形態の処理手順は、上述した第1の実施形態の処理手順に、ステップS61の過渡的感情処理が加わると共に、ステップS66のロボット感情値の再計算の処理が一部変更になる。
【0074】
第2の実施形態は、ロボット状態が変化した場合に、ステップS66で新ロボット感情値(第1の実施形態のステップS55で算出したもの)を算出する。この新ロボット感情値を目標感情値として使用し、現在ロボット感情値自体は変更しない。また、ステップS66において、単位時間当たりの感情変化量を計算する(詳細については後述)。そして、図12に示された過渡的処理期間内だけステップS61の感情処理を行い、現在のロボット感情値をステップS66で算出した目標感情値に近づける。なお、図14には、図13に示されたフローチャートのステップS61の詳細な処理手順が示されている。
【0075】
この感情値を遷移させる最も簡単な方法は、ステップS66で、現ロボット感情値と算出した目標ロボット感情値との変化分を過渡的処理期間(t1)で割り、1単位時間における感情変化分を算出する。そして、図14のフローチャートに示されるように、過渡的処理期間内においては(ステップS71/YES)、時間の推移分と上記1単位間における感情変化分の乗算を行い、現在ロボット感情値に加算(ステップS72)していく方法である。
【0076】
図15には、過渡的処理期間における2種類の感情遷移方法が示されている。上述の方法は、現在ロボット感情値350から目標感情値351に線形的に近づくモデル352を示している。一方、同図353記載のように、感情変化量を時間とともに減少させる方法もある。これは、人物遭遇直後には過去の印象による感情変化が大きいが、時間がたつほどに感情変化量はおさまってくるモデルと言える。この場合も、各時間推移における感情変化量をステップS66で計算しておき、ステップS61では現在の推移時間における前記感情変化量を現在のロボット感情値に合算して、新しいロボット感情値を生成する。
【0077】
以上のような手順により過渡的処理期間におけるロボット感情値を計算し、記憶部120内のロボット感情値122を更新する。その後、ロボット状態が変更となるまで、ステップS62,S63により通常の操作・対話による履歴更新や感情更新処理を行う。ステップS63による感情更新処理が入るために、図12記載のような感情遷移モデルが実現されることになる。
【0078】
第2の実施形態のような構成をとれば、感情値の連続性を損なうことなく、一定時間内に過去の人物の感情値を反映させた目標感情値へ遷移することが期待されるとともに、新たな操作結果や対話結果もロボット感情値に反映させることができる。
【0079】
なお、第2の実施形態の変形例として、ステップS61において過渡的処理期間(t1)以内に、図16記載の操作や発話が行われた場合に、人物遭遇前の直前のロボット感情値に戻す方法も考えられる。これは、怒りが高いなど一定の感情値以上のところ(701の感情種類)から、感情がおさまる方向に遷移しているのに、特定の操作や対話(702の操作・対話)により、いわゆる「元のもくあみ」となることを示している。図7及び12の感情変化モデルにおける、逆戻り305や316はこの際の感情遷移を示している。
【0080】
[第3の実施形態]
第3の実施形態は、図17のフローチャートのステップS86に記載しているように、ロボット状態の遷移により計算された新たなロボット感情値に対して補正を行うものである。補正を行う方法を以下に示す。
A)人物単位の音声認識率や画像認識率の統計情報を状態管理テーブル123に保持しておき、認識率が悪い人物と遭遇した場合に、例えば喜びの度合いを減少させる。
B)利用者情報127の中の、属性情報605を参照し、例えば母親であれば悲しみの度合いを減少させる。あるいは、甘えという感情を保持しているロボット装置であれば、甘えの感情を増大させる。
【0081】
上述した各実施形態では、新たなロボット感情値を計算する場合に、過去のロボット感情値を参照していたが、過去のロボット感情値の代わりにロボット装置の対人度(好感度や親密度)という尺度を用いても良い。前述のように好感度や親密度は、過去の操作結果や操作時間累計に関する一種の統計情報であるため、対人関係という意味では過去の感情値よりも正確度が高い。この方法では、例えば好感度が高いと怒りを抑えるとともに喜びを向上させ、親密度が高いと悲しみを抑えるような計算を行って、新しいロボット感情値を生成させる。図3の感情モデルにおけるCASE2がこれにあたる。
【0082】
この場合も、対人度を現在のロボット感情値にどの程度影響させるかという係数を設定し、この係数に対しても前述した重み係数kの設定ルールと同様なルールを導入して制御する。さらに、新たな感情値を計算する別な方法として、対人度ではなく、過去の操作・対話の累計情報(状態管理テーブル123の行動・対話403)を参照する方法も考えられる。
【0083】
以上の実施の形態においては、新しいロボット感情値の計算モデルや遷移モデルを記載したが、ロボット感情値は直接ロボット装置の行動に反映される。例えば、怒りの感情がおさまるような新たな感情値が生成されれば、「ふ〜。気持ちが落ち着いてきた」と発話したり、じたばたするような動作からスムーズに動くような動作に変わる。したがって、ロボット装置の感情値の変化・遷移に伴う行動も本発明の特徴の一つである。
【0084】
[第4の実施形態]
第4の実施形態としては、図17のステップS86において、感情値の補正を行うのではなく、利用者情報を用いてロボット装置の行動を特徴づけるものである。例えば、図4の利用者情報127において、各利用者とロボット装置との関係を606のように定義しておく。606の例では、ロボット装置の上位者(親)とロボット装置の中位者(仲間・友人)と下位者(弟・妹、あるいは後輩)の3種類に分類しておき、各利用者がロボット装置と遭遇した場合のふるまいを変更するものである。
【0085】
図18のフローチャートは図17のステップS86の処理の具体例である。まず、ステップS91では直前のロボット感情値が一定値未満の場合には、特別な行動はせずに戻る。感情がたかぶっている場合などロボット感情値が一定値以上の場合には(ステップS91/YES)、ステップS92で利用者とロボット装置の関係を調べる。親などの上位利用者の場合には(ステップS92/YES)、直前の人物による操作や発話を訴える行動を起こす(ステップS93)。中位または下位の利用者の場合には、現在のロボット装置の心情を話しかけるような行動を起こす(ステップS94)。
【0086】
前述の例は、ロボット装置の感情値が一定値以上の場合のふるまいを記載したものであるが、感情値にかかわらず利用者との関係情報により人物遭遇時のふるまいを変更しても良い。例えば、中位(友人・仲間)の利用者と会うと「おっす。たまには一緒に遊ぼうか? 」と発話し、下位(弟・妹、後輩)の利用者に会うと「ちゃんと勉強しているか? 」などお兄さんぶった発話を行う場合などが考えられる。
【0087】
さらに、人物とロボット装置との関係ではなく、遭遇した人物間の相関情報を用いて行動を変化させても良い。例えば、直前にロボット装置を操作した人物より、新たに遭遇した人物の方が「弱い」という関係があれば、新たな人物に対して「(直前の人物にほめられたよ/かわいがってくれたよ」と誇らしげに発話・行動するケースが相当する。
【0088】
なお、上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施が可能である。例えば、上記説明では、第2〜第4の実施形態をそれぞれ別々の実施例として説明してきたが、これらを組み合わせることも可能である。
【0089】
【発明の効果】
以上の説明より明らかなように本発明によれば、よりパーソナルなロボット装置を実現できる。その理由は、人物単位での操作履歴や対話履歴及びその際のロボット感情値を保存しておき、次回人物と遭遇した場合には過去の履歴情報や感情情報に基づいて新たな感情を生成するからである。したがって、本ロボット装置がやさしく操作・対話を行ってくれる人に遭遇すれば、怒りや悲しみがうすらぎ、喜びの感情が増えた感情になる。逆に、いつも頭を叩くような人に遭遇すれば、たとえ本ロボット装置が喜んでいる状態であっても怒りが増えてくる。したがって、自分だけのロボットというような、パーソナル性能を向上させたロボット装置を実現することが可能である。
【0090】
また、エンターテイメント性を高めることが可能となる。その理由は、人間社会でも発生するような感情変化を実現しているからである。本構成のロボット装置を用いることにより、「泣いた子がすぐ笑った」や「時間とともに、気持ちが落ち着いてきた」とか「元のもくあみになる」という状況を実現することができるからである。さらに、過去の感情の影響度をさまざまな形で提供・選択することにより、ロボット装置の性格づけによるエンターテイメント性をさらに高めるという効果もある。
【0091】
また、ファミリー性を高めることができる。その理由は、家族などの利用者とロボットとの関係を定義し、その関係に基づいてロボット装置が動作・対話を行うため、利用者がロボット装置をあたかも家族の一員のような形で利用できるからである。
【図面の簡単な説明】
【図1】本発明に係る実施形態の構成を示すブロック構成図である。
【図2】ロボット装置の状態遷移図である。
【図3】感情モデル及び感情変化のモデル図である。
【図4】利用者情報に登録されるテーブルの一例を示す図である。
【図5】ロボット装置の状態遷移を表す図である。
【図6】動作制御テーブルの構成を示す図である。
【図7】感情モデル及び感情変化のモデル図である。
【図8】第1の実施形態の動作手順を示すフローチャートである。
【図9】状態管理テーブルの構成を示す図である。
【図10】感情モデル及び感情変化のモデル図である。
【図11】重み係数を制御するための適用ルールを説明するための図である。
【図12】感情モデル及び感情変化のモデル図である。
【図13】第2の実施形態の動作手順を表すフローチャートである。
【図14】第2の実施形態の動作手順を表すフローチャートである。
【図15】感情モデル及び感情変化のモデル図である。
【図16】第2の実施形態における感情感情処理テーブルの構成を表す図である。
【図17】第3、第4の実施形態の動作手順を表すフローチャートである。
【図18】第4の実施形態の動作手順を表すフローチャートである。
【図19】従来技術における感情値の変化を表す図である。
【符号の説明】
101 発話手段
102 行動手段
103 ロボット制御手段
104 音声認識手段
105 操作取得手段
106 感情・性格制御手段
107 画像認識手段
108 人物判定手段
120 記憶部
121 音声認識辞書
122 ロボット感情値
123 状態管理テーブル
124 動作制御テーブル(群)
125 発話テーブル
126 画像認識辞書
127 利用者情報
Claims (6)
- 人物を特定する人物特定手段と、
人物の発話内容を解釈する音声認識手段と、
人物より入力された操作情報を取得する操作情報取得手段と、
前記音声認識手段により解釈した人物の発話内容、及び前記操作情報取得手段により取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する感情・性格制御手段と、
前記感情・性格制御手段により生成されたロボット感情値を人物毎に記憶した記憶手段と、を有し、
前記性格・感情制御手段は、直前の人物と異なる人物と遭遇した場合に、前記記憶手段に記憶された該当人物に対する過去のロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成し、
前記過去のロボット感情値と前記直前のロボット感情値とに所定の重みを付けて新たなロボット感情値を生成し、
過去に操作された操作日時と現在日時との差分、過去に操作された操作時間、操作や対話の統計情報から導かれる親密度・好感度からなる対人度、前記ロボット装置の起動時間からの経過時間の何れか一つまたは複数の条件を基にして前記過去のロボット感情値と前記直前のロボット感情値とに所定の重みを付け、 前記過去のロボット感情値と前記直前のロボット感情値とに付ける重みの基準となる前記条件を利用者毎に変更して新たなロボット感情値を生成することを特徴とするロボット装置。 - 人物を特定する人物特定手段と、
人物の発話内容を解釈する音声認識手段と、
人物より入力された操作情報を取得する操作情報取得手段と、
前記音声認識手段により解釈した人物の発話内容、及び前記操作情報取得手段により取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する感情・性格制御手段と、
前記感情・性格制御手段により生成されたロボット感情値を人物毎に記憶した記憶手段と、を有し、
前記記憶手段は、利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報を記憶し、
前記性格・感情制御手段は、直前の人物と異なる人物と遭遇した場合に、前記記憶手段に記憶された該当人物に対する過去のロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成し、生成した前記新たなロボット感情値を前記利用者情報によって補正することを特徴とするロボット装置。 - 人物を特定する人物特定手段と、
人物の発話内容を解釈する音声認識手段と、
人物より入力された操作情報を取得する操作情報取得手段と、
前記音声認識手段により解釈した人物の発話内容、及び前記操作情報取得手段により取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する感情・性格制御手段と、
前記感情・性格制御手段により生成されたロボット感情値を人物毎に記憶した記憶手段と、を有し、
前記記憶手段は、ロボット装置の感情毎に、前記ロボット装置の感情を逆なでする用語、操作を登録した感情処理テーブルを記憶し、
前記性格・感情制御手段は、直前の人物と異なる人物と遭遇した場合に、前記記憶手段に記憶された該当人物に対する過去のロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成し、人物遭遇後の一定期間内に操作情報取得手段もしくは前記音声認識手段によって前記感情処理テーブル記載の対話や操作が行われたことを検知すると、ロボット感情値を人物遭遇前の状態に戻す制御を行うことを特徴とするロボット装置。 - 人物を特定する人物特定工程と、
人物の発話内容を解釈する音声認識工程と、
人物より入力された操作情報を取得する操作情報取得工程と、
前記音声認識工程において解釈された人物の発話内容、及び操作情報取得工程において取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する第1のロボット感情値生成工程と、
直前の人物と異なる人物と遭遇した場合に、該当人物に対する過去の前記ロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成する第2のロボット感情値生成工程と、を有し、
前記第2のロボット感情値生成工程は、
前記過去のロボット感情値と前記直前のロボット感情値とに所定の重みを付けて新たなロボット感情値を生成し、 過去に操作された操作日時と現在日時との差分、過去に操作された操作時間、操作や対話の統計情報から導かれる親密度・好感度からなる対人度、前記ロボット装置の起動時間からの経過時間の何れか一つまたは複数の条件を基にして前記過去のロボット感情値と前記直前のロボット感情値とに所定の重みを付け、 前記過去のロボット感情値と前記直線のロボット感情値とに付ける重みの基準となる前記条件を利用者毎に変更して新たなロボット感情値を生成することを特徴とするロボット装置の制御方法。 - 人物を特定する人物特定工程と、
人物の発話内容を解釈する音声認識工程と、
人物より入力された操作情報を取得する操作情報取得工程と、
前記音声認識工程において解釈された人物の発話内容、及び操作情報取得工程において取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する第1のロボット感情値生成工程と、
直前の人物と異なる人物と遭遇した場合に、該当人物に対する過去の前記ロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成する第2のロボット感情値生成工程とを有し、
前記第2のロボット感情生成工程は、
利用者に関する情報、利用者間の相関関係、及びロボット装置と利用者との関係を定義した利用者情報によって、生成した前記新たなロボット感情値を補正することを特徴とするロボット装置の制御方法。 - 人物を特定する人物特定工程と、
人物の発話内容を解釈する音声認識工程と、
人物より入力された操作情報を取得する操作情報取得工程と、
前記音声認識工程において解釈された人物の発話内容、及び操作情報取得工程において取得した操作情報の少なくとも一方からロボット装置の感情であるロボット感情値を人物毎に生成する第1のロボット感情値生成工程と、
直前の人物と異なる人物と遭遇した場合に、該当人物に対する過去の前記ロボット感情値と、該当人物と遭遇する直前のロボット感情値とから新たなロボット感情値を生成する第2のロボット感情値生成工程とを有し、
前記第2のロボット感情値生成工程は、
ロボット装置の感情毎に、前記ロボット装置の感情を逆なでする用語、操作を登録した感情処理テーブルを参照して、人物遭遇後の一定期間内に操作情報取得工程もしくは前記音声認識工程によって前記感情処理テーブル記載の対話や操作が行われたことを検知すると、ロボット感情値を人物遭遇前の状態に戻す制御を行うことを特徴とするロボット装置の制御方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001318362A JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001318362A JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008325131A Division JP2009072910A (ja) | 2008-12-22 | 2008-12-22 | ロボット装置及びその制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003117866A JP2003117866A (ja) | 2003-04-23 |
| JP4266552B2 true JP4266552B2 (ja) | 2009-05-20 |
Family
ID=19136073
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001318362A Expired - Fee Related JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4266552B2 (ja) |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8060389B2 (en) | 2000-06-07 | 2011-11-15 | Apple Inc. | System and method for anonymous location based services |
| US6456234B1 (en) | 2000-06-07 | 2002-09-24 | William J. Johnson | System and method for proactive content delivery by situation location |
| WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
| JP4473849B2 (ja) * | 2003-06-02 | 2010-06-02 | パナソニック株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
| JP3919726B2 (ja) * | 2003-10-02 | 2007-05-30 | 株式会社東芝 | 学習装置及びその方法 |
| US7822614B2 (en) | 2003-12-05 | 2010-10-26 | Kabushikikaisha Kenwood | Device control, speech recognition device, agent device, control method |
| JP4516918B2 (ja) * | 2003-12-05 | 2010-08-04 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、機器制御方法及びプログラム |
| KR100681919B1 (ko) | 2005-10-17 | 2007-02-12 | 에스케이 텔레콤주식회사 | 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치 |
| WO2009107185A1 (ja) * | 2008-02-25 | 2009-09-03 | パイオニア株式会社 | 車載ロボット |
| KR100953407B1 (ko) | 2008-04-24 | 2010-04-19 | 한국과학기술원 | 로봇의 호감도 형성장치 및 그 방법 |
| TWI413938B (zh) * | 2009-12-02 | 2013-11-01 | Phison Electronics Corp | 情感引擎、情感引擎系統及電子裝置的控制方法 |
| JP6166234B2 (ja) * | 2014-08-08 | 2017-07-19 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
| EP3217349A4 (en) * | 2014-11-07 | 2018-03-28 | Sony Corporation | Information processing device, control method, and storage medium |
| JP6230560B2 (ja) * | 2015-03-19 | 2017-11-15 | ヤフー株式会社 | 情報処理装置及び方法 |
| JP6159357B2 (ja) * | 2015-03-19 | 2017-07-05 | ヤフー株式会社 | 情報処理装置及び方法 |
| JP6467710B2 (ja) * | 2015-04-06 | 2019-02-13 | 信太郎 本多 | 環境に適応する、汎用性を意識した人工知能システム |
| JP6468258B2 (ja) * | 2016-08-01 | 2019-02-13 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
| JP6707671B2 (ja) * | 2017-01-19 | 2020-06-10 | シャープ株式会社 | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 |
| JP6814089B2 (ja) | 2017-05-02 | 2021-01-13 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
| JP2019005842A (ja) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
| WO2019066110A1 (ko) * | 2017-09-29 | 2019-04-04 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
| KR102715879B1 (ko) * | 2019-03-07 | 2024-10-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| JP7273566B2 (ja) * | 2019-03-19 | 2023-05-15 | パナソニックホールディングス株式会社 | ロボット、ロボットの制御方法及びプログラム |
| JP7622758B2 (ja) | 2023-01-25 | 2025-01-28 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
-
2001
- 2001-10-16 JP JP2001318362A patent/JP4266552B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2003117866A (ja) | 2003-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4266552B2 (ja) | ロボット装置及びその制御方法 | |
| JP2009072910A (ja) | ロボット装置及びその制御方法 | |
| JP5598331B2 (ja) | 言語モデル作成装置 | |
| US10242666B2 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
| US20130325482A1 (en) | Estimating congnitive-load in human-machine interaction | |
| KR20040061659A (ko) | 음성인식방법 및 장치 | |
| WO2006054724A1 (ja) | 音声認識装置及び方法ならびにプログラム | |
| JPWO2014073612A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
| KR101959292B1 (ko) | 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 | |
| US7313524B1 (en) | Voice recognition based on a growth state of a robot | |
| WO2010128560A1 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
| JPWO2019160090A1 (ja) | 非言語情報生成装置、方法、及びプログラム | |
| JPWO2014073613A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
| JP2004086001A (ja) | 会話処理装置、および会話処理方法、並びにコンピュータ・プログラム | |
| JP2009026125A (ja) | 感情分析デバイス、感情分析方法およびプログラム | |
| JP2002358097A (ja) | 音声認識装置 | |
| US12327562B1 (en) | Speech processing using user satisfaction data | |
| Meszaros et al. | Speech-based natural language interface for UAV trajectory generation | |
| JP4706893B2 (ja) | 音声認識装置および方法、並びに、プログラムおよび記録媒体 | |
| JPWO2020066019A1 (ja) | 対話装置、対話方法及び対話プログラム | |
| JP4174217B2 (ja) | ロボット制御装置、制御方法、制御プログラム | |
| JP7010193B2 (ja) | 対話装置および対話装置の制御プログラム | |
| JP3894767B2 (ja) | 対話装置 | |
| Pittermann et al. | An" Emo-Statistical" Model for Flexible Dialogue Management | |
| JP6988680B2 (ja) | 音声対話装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040914 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060621 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060725 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060925 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070220 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070322 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070329 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070322 |
|
| A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070501 |
|
| A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070608 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080604 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080922 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081222 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090217 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |