JP2003117866A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法Info
- Publication number
- JP2003117866A JP2003117866A JP2001318362A JP2001318362A JP2003117866A JP 2003117866 A JP2003117866 A JP 2003117866A JP 2001318362 A JP2001318362 A JP 2001318362A JP 2001318362 A JP2001318362 A JP 2001318362A JP 2003117866 A JP2003117866 A JP 2003117866A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- person
- emotion
- emotion value
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
置を提供する。 【解決手段】 過去における各利用者による操作履歴や
対話履歴、及びロボット感情値を状態管理テーブル12
3に保持する。本ロボット装置の人物特定手段108は
新たに遭遇した人物が過去の利用者であることが判明す
ると、感情・性格性格手段106は現在のロボット感情
値122と状態管理テーブル123に保存された該当人
物の過去のロボット感情値を参照して、新たなロボット
感情値を生成する。
Description
部感情にしたがって動作するロボット装置及びその制御
方法に関する。
ボット装置は、エンターテイメント用途ということもあ
り、ロボット装置自身が感情あるいは性格を持つように
構成されている。このロボット装置の性格や感情は、撫
でる/叩くなどの操作結果や言葉の音声認識の結果、あ
るいは照明などの外部環境の結果に基づき、連続的に変
化する。図19は従来のロボット装置における感情値の
遷移を示したものであり、ある点t1におけるロボット
感情値801は時間や操作などに伴い感情値802(t
2)、803(t3)と変化している。
果、ロボット感情値が感情値801の状態から感情値8
02の状態へ遷移すると、次の人物がロボット装置を操
作する場合のロボット感情値は感情値802の状態から
始まることになる。例えば、特開2001−15470
7号公報に記載されたロボット装置においては、怒り、
悲しみや喜びといった感情を確率状態遷移モデルで形成
し、各感情モデルから他の感情モデルへこの確率状態遷
移モデルに従って遷移する方式が提案されている。しか
し、この確率遷移を用いた感情モデルにおいても人物を
特定する機構がないため、過去の操作者に関係なく現在
の感情モデルに従って感情遷移が行なわれていた。
前誰が操作したのかにかかわらず、単純に過去のロボッ
トの操作や対話の履歴結果や外部環境によってのみロボ
ット装置の感情を決定し、遷移させていた。
ット装置では、以前誰が操作したのかに関わらず、単純
に過去のロボット装置の操作や対話の履歴結果や外部環
境によってのみロボット装置の感情を決定し、遷移させ
ていた。そこで、以下に示すような課題が生じていた。
においてパーソナル性が低いということである。その理
由は、従来のロボット装置では単純に操作履歴や対話履
歴に基づいて感情や性格、あるいはこれらに基づく行動
を決定しているため、人物ごとの操作履歴や対話履歴が
ロボット装置の行動や感情へ反映されていないからであ
る。
るということである。その理由は、一般的に家庭で使用
されるロボット装置においては、ロボット装置と家族の
中に一定の関係が存在し、その関係の中でロボット装置
の行動や感情が決定されたり制限されるべきであるが、
従来のロボット装置ではこの関係が全く考慮されていな
いからである。
あり、人物の過去の操作履歴や対話履歴、あるいは過去
の感情や対人度(好感度や親密度など)に基づいて感情
を決定し、動作することができるロボット装置およびそ
の制御方法を提供することを目的とする。例えば、ロボ
ットが悲しんでいる状態でよく遊んでくれる人物と遭遇
すると、「泣いている子が笑った」という状態が実現さ
れる。
とロボット装置との相関関係を定義しておくことによ
り、ロボット装置が人物と遭遇すると、その相関関係に
基づいた感情変化や行動をとらせることができるロボッ
ト装置およびその制御方法を提供することを目的とす
る。
に請求項1記載の発明は、人物を特定する人物特定手段
と、利用者に関する情報、利用者間の相関関係、及びロ
ボット装置と利用者との関係を定義した利用者情報を記
憶する記憶手段と、人物遭遇時に、人物特定手段により
人物を特定し、該特定した人物と利用者情報に基づいた
発話を行なう発話手段、及び/または利用者情報に基づ
た行動を行なう行動手段と、を有することを特徴とす
る。
物特定手段と、人物の発話内容を解釈する音声認識手段
と、人物より入力された操作情報を取得する操作情報取
得手段と、音声認識手段による人物の発話内容、および
/または操作情報取得手段により取得した操作情報から
ロボット装置の感情であるロボット感情値を人物毎に生
成する感情・性格制御手段と、感情・性格制御手段によ
り生成されたロボット感情値を人物毎に記憶した記憶手
段と、を有し、性格・感情制御手段は、人物に遭遇した
際に、記憶手段に記憶された該当人物に対する過去のロ
ボット感情値と、該当人物と遭遇する直前のロボット感
情値とから新たなロボット感情値を生成することを特徴
とする。
において、感情・性格制御手段は、過去のロボット感情
値と直前のロボット感情値とに所定の重みを付けて新た
なロボット感情値を生成することを特徴とする。
において、感情・性格制御手段は、過去に操作された操
作日時と現在日時との差分、過去に操作された操作時
間、操作や対話の統計情報から導かれる親密度・好感度
からなる対人度、ロボット装置の起動時間からの経過時
間の何れか一つまたは複数の条件を基にして過去のロボ
ット感情値と直前のロボット感情値とに所定の重みを付
けることを特徴とする。
において、感情・性格制御手段は、過去のロボット感情
値と直前のロボット感情値とに付ける重みの基準となる
条件を利用者毎に変更して新たなロボット感情値を生成
することを特徴とする。
れか一項に記載の発明において、感情・性格制御手段
は、人物特定手段による人物の認識率、または音声認識
手段による音声の認識率によって生成した新たなロボッ
ト感情値を補正することを特徴とする。
れか一項に記載の発明において、利用者に関する情報、
利用者間の相関関係、及びロボット装置と利用者との関
係を定義した利用者情報を記憶手段は記憶し、感情・性
格制御手段は、生成した新たなロボット感情値を利用者
情報によって補正することを特徴とする。
れか一項に記載の発明において、感情・性格制御手段
は、人物と遭遇し新たなロボット感情値を生成すると、
ロボット感情値が時間の推移と共に該作成したロボット
感情値に近づくように制御することを特徴とする。
れか一項に記載の発明において、記憶手段は、ロボット
装置の感情毎に、ロボット装置の感情を逆なでする用
語、操作を登録した感情処理テーブルを記憶し、感情・
性格制御手段は、人物遭遇後の一定期間内に操作情報取
得手段もしくは音声認識手段によって感情処理テーブル
記載の対話や操作が行なわれたことを検知すると、ロボ
ット感情値を人物遭遇前の状態に戻す制御を行なうこと
を特徴とする。
人物特定工程と、利用者に関する情報、利用者間の相関
関係、及びロボット装置と利用者との関係を定義した利
用者情報に基づいた発話を特定した人物と行なう発話工
程、及び/または利用者情報に基づいた行動を行なう行
動工程と、を有することを特徴とする。
人物特定工程と、人物の発話内容を解釈する音声認識工
程と、人物より入力された操作情報を取得する操作情報
取得工程と、音声認識工程による人物の発話内容、およ
び/または操作情報取得工程により取得した操作情報か
らロボット装置の感情であるロボット感情値を人物毎に
生成する第1のロボット感情値生成工程と、人物に遭遇
した際に、該当人物に対する過去のロボット感情値と、
該当人物と遭遇する直前のロボット感情値とから新たな
ロボット感情値を生成する第2のロボット感情値生成工
程と、を有することを特徴とする。
発明において、第2のロボット感情値生成工程は、過去
のロボット感情値と直前のロボット感情値とに所定の重
みを付けて新たなロボット感情値を生成することを特徴
とする。
発明において、第2のロボット感情値生成工程は、過去
に操作された操作日時と現在日時との差分、過去に操作
された操作時間、操作や対話の統計情報から導かれる親
密度・好感度からなる対人度、ロボット装置の起動時間
からの経過時間の何れか一つまたは複数の条件を基にし
て過去のロボット感情値と直前のロボット感情値とに所
定の重みを付けることを特徴とする。
発明において、第2のロボット感情値生成工程は、過去
のロボット感情値と直線のロボット感情値とに付ける重
みの基準となる条件を利用者毎に変更して新たなロボッ
ト感情値を生成することを特徴とする。
4の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、人物特定工程による人物の認識率、
または音声認識工程による音声の認識率によって生成し
た新たなロボット感情値を補正することを特徴とする。
5の何れか一項に記載の発明において、第2のロボット
感情生成工程は、利用者に関する情報、利用者間の相関
関係、及びロボット装置と利用者との関係を定義した利
用者情報によって、生成した新たなロボット感情値を補
正することを特徴とする。
6の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、人物と遭遇し新たなロボット感情値
を生成すると、ロボット感情値が時間の推移と共に該作
成したロボット感情値に近づくように制御する工程であ
ることを特徴とする。
7の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、ロボット装置の感情毎に、ロボット
装置の感情を逆なでする用語、操作を登録した感情処理
テーブルを参照して、人物遭遇後の一定期間内に操作情
報取得工程もしくは音声認識工程によって感情処理テー
ブル記載の対話や操作が行なわれたことを検知すると、
ロボト感情値を人物遭遇前の状態に戻す制御を行なうこ
とを特徴とする。
音声入力部からの音声を認識する音声認識手段、人物か
らロボットへの操作をセンサ等を使って検知する操作情
報取得手段、人物を特定する人物特定手段、ロボット装
置の感情を制御する感情・性格制御手段を備える。ま
た、感情・性格制御手段は、人物と遭遇した際に、過去
のその人物とロボットとの操作・対話による感情値と現
在のロボット感情値とから新たなロボット感情値を生成
するように動作する。
感情・性格制御手段が人物と遭遇した際に、過去のその
人物とロボットとの対話・操作による感情値と現在の感
情値から目標となる感情値を生成し、現在のロボット感
情値から目標感情値へ一定時間内に推移させるように動
作する。
・性格制御手段が生成した新たなロボット感情値を、過
去の人物による音声認識率や画像認識率などの認識結
果、あるいは利用者の家族属性(続柄)を参照して、補
正するように動作する。
かじめ利用者情報に記載されたロボットと利用者の相関
関係を定義しておき、ロボットが人物遭遇時に定義され
た相関関係に基づいて行動する。
発明のロボット装置およびその制御方法に係る実施形態
を詳細に説明する。図1〜図18を参照すると本発明の
ロボット装置およびその制御方法に係る実施形態が示さ
れている。
ト装置の動作状態の遷移について、図2を用いて説明す
る。ロボット装置の動作状態は、自分で障害物などを避
けながら自立的に行動する自律動作状態201と、人物
との対話や操作状態(対人物状態と呼ぶ)202の2つ
の状態に分類することができる。同図には3人の人物
A,B,Cが存在する場合が示されており、このため対
人物状態202は人物A,人物B,人物Cのそれぞれと
操作・対話を行っている状態202a(対人物A状
態)、202b(対人物B状態)、202c(対人物C
状態)から構成される。
果、あるいは人物の操作結果や対話結果により、状態2
01、202a、202b、202cに遷移する。例え
ば、ロボット装置が自律動作状態201で人物Aを特定
すると、状態202aへ遷移する(アーク203)。ま
た、対人物A状態202aから人物Aが「ばいばい」と
発話すれば、自律動作状態201へ遷移する(アーク2
04)。あるいは対人物A状態202aで人物Cが「お
〜い」と声をかけ、ロボット装置が人物Cを特定する
と、対人物C状態202cへ遷移する(アーク20
5)。
合わせて、ロボット状態と呼ぶ。したがって、ロボット
状態が遷移(変化)したというのは、図2に記載のよう
な状態遷移が発生したことを示す。
用いて説明する。同図に記載のように、ロボット装置は
感情の種類として「怒り」、「悲しみ」、「喜び」を保
持している。本実施形態の特徴は、現在のロボット感情
値31と、遭遇した人物に対する過去のロボット感情値
32を参照して、新たなロボット感情値33を生成する
ことである(CASE1)。なお、同図記載のCASE
2については、後の実施形態にて説明する。
ト装置に係る第1の実施形態の構成が示されている。図
1を参照すると、本発明の第1の実施形態は、ロボット
装置からの音声合成発話を行う発話手段101、前進・
回転あるいは首振りなどロボット装置の駆動部を制御す
る行動手段102、ロボット装置の発話内容や行動を制
御するロボット制御手段103、人物の発話語句を解釈
する音声認識手段104、撫でる/叩くなどセンサから
の操作情報を取得する操作取得手段105、ロボット装
置内部の感情や性格を制御する感情・性格制御手段10
6、カメラからの画像により障害物や人物を識別する画
像認識手段107、人物を特定する人物特定手段10
8、及び記憶部120から構成されている。
た音声認識辞書121、現在のロボット感情値を保持し
ているロボット感情値122、過去の各ロボット状態及
び現在のロボット状態における操作履歴や対話履歴や動
作時間情報、及びロボット装置の感情値や対人度を保持
している状態管理テーブル123、ロボット装置の動作
や状態遷移を定義している動作制御テーブル(群)12
4、ロボット装置からの発話内容を定義している発話テ
ーブル125、障害物を識別するための背景や人物の顔
情報などを保持している画像認識辞書126、及び利用
する人物を定義した利用者情報127を保持している。
する際に事前に登録しておくものであり、図4にその一
例を示す。同図記載のように、利用者情報127は利用
者番号601、利用者氏名602、利用者愛称603、
利用者の顔を登録した画像認識辞書のファイル名60
4、利用者の属性605(この例では続柄)から構成さ
れている。利用者情報127は人物特定手段108が利
用者を特定するために使用したり、あるいは利用者を特
定した後に発話手段101が愛称603を発話する場合
に使用する。
めに、本ロボット装置の行動モデル及び行動を制御する
動作制御テーブル(群)124について説明する。図5
は行動モデルを示す概念図であり、自律動作状態におけ
る行動モデル210と対人物状態における行動モデル2
11に分類することができる。なお、この例では対人物
状態における行動モデル211は1種類だけであるが、
メモリなどに余裕があれば人物ごとに行動モデルを用意
してもよい。
姿勢など動作の状態を示し、各アークは次の姿勢へ遷移
する条件と遷移確率を保持している。つまり、一種の確
率オートマトンとして行動モデルが定義されている。例
えば、ノードA2は足も首も止まった状態を表す。A2
から出ている1つのアークは、「前進と発話すると10
0%の確率でノードA4へ遷移する」ことを示す。ある
いは別のアークは「頭を叩くと50%の確率で、首を上
下に振りながら、ノードA5へ遷移する」ことを示す。
率及び遷移先を定義したものが、図6記載の動作制御テ
ーブル124である。動作制御テーブル124は遷移条
件として感情条件220とイベント条件221を保持し
ている。イベント条件221としては操作内容、音声認
識結果や画像認識の結果、あるいは時間に関する条件が
記載されており、感情条件とイベント条件の両方の条件
が成立した場合に、同じ行に記載されている遷移先に遷
移する。遷移先の情報としては、遷移確率と、遷移時の
アクション(動作や発話)と遷移先のノードが記載され
ている。例えば同図に示す222は、「怒り>80か
つ、その状態で頭を叩かれる」と、確率30%でノード
A3へ遷移することを示す。さらに、ノードが遷移する
際に、アクション1を実行する。
に基づく動作制御テーブル124にしたがって、確率的
な状態遷移を行いながら、動作や発話を実行していく。
明らかに、動作制御テーブル124は行動モデルにおけ
るノードの数だけ存在することになる。つまり、本ロボ
ット装置のロボット制御手段103は、音声認識手段1
03や画像認識手段107や操作取得手段105、ある
いは感情・性格制御手段106や経過時間などにより、
図6記載の動作制御テーブル124の遷移条件が満足さ
れているかどうかを調べる。満足されていると、所定の
遷移確率で次の動作状態へ遷移する。この際、ロボット
制御手段103は、動作制御テーブル124に定義され
ている処理動作(アクション)を、行動手段102や発
話手段101を用いて実行する。
制御テーブル124とは独立して、操作取得手段105
や音声認識手段104、あるいは時間情報などを用いて
ロボット感情値122を更新していく。このように、行
動モデルと感情モデルとはそれぞれが独立のモデルとし
て動作する。例えば動作制御テーブル124には「時間
による状態遷移」は定義されていないが、感情モデルで
は時間の経過と共に感情値がおさまっていくケースなど
がある。但し、行動モデルと感情モデルとは、一般的に
はお互いに影響を及ぼしあうような構成となる(例:動
き出すと喜びが増える、悲しみが大きい場合にはあまり
動きたくない)。
って、現在のロボット状態における履歴情報である状態
管理テーブル123を更新していく。状態管理テーブル
123の構成については、動作の説明の部分で説明す
る。
1から人物と遭遇すると、人物特定手段108は利用者
情報127を参照して人物を特定する。人物を特定する
には3種類の方法が考えられる。第1の方法は、人物の
顔画像を画像認識辞書126に登録しておき、画像認識
手段108を用いて画像認識辞書126に登録された顔
画像との照合を行なう方法である。第2の方法は、音声
認識手段104と音声認識辞書121とを用いて、利用
者の名前や愛称の発話から判断する方法である。第3の
方法は、ロボット装置にスイッチやボタンを設けて、押
下されたスイッチやボタン情報を操作取得手段105で
検知し、検知結果から利用者情報127を参照して人物
を特定する方法である。
ト状態の変化が生じた場合には、過去及び現在のロボッ
ト状態における履歴情報を保持している状態管理テーブ
ル123を更新する。また、人物を特定した後は、感情
・性格制御手段106はその人物が過去にロボット装置
を操作した際のロボット感情値を状態管理テーブル12
3から取得し、取得した過去の感情と現在のロボット感
情値122から新たなロボット感情値を生成し、それを
ロボット感情値122に上書きする。
は、ロボット状態が変化すると動作制御テーブル124
に記載されている人物遭遇後の動作状態(ノード)へ遷
移する。以後、新しいロボット感情値122を参照しつ
つ、遷移先の動作制御テーブル124の内容にしたがっ
て、ロボット装置の動作・発話などを制御していく。
ける感情変化モデルを図7を用いて説明する。同図は、
自律動作状態201あるいは対人物A状態202aにお
いて、本ロボット装置が人物Bと遭遇した場合の感情値
の変化を示したものである。人物Bと遭遇する直前のロ
ボット感情値が感情値301であり、過去の人物Bに対
するロボット感情値が感情値304である。人物Bと遭
遇した場合には両者の感情値を用いて、新たなロボット
感情値302を生成し、以降人物Bの操作や対話結果に
基づいてロボット感情値303へと遷移していくものと
する。
とが多いと、過去のロボット感情値304は「怒り」や
「悲しみ」が多い。従って、仮に現在のロボット感情値
301が「喜んでいる」状態であっても、人物Bと遭遇
することで喜びが半減する状態(新しいロボット感情値
302)になる。
照しながら図1に示された本実施形態の全体の動作につ
いて詳細に説明する。
手段103が音声認識手段101や操作取得手段105
を用いて、人物との対話結果や操作結果を取得する。ス
テップS52では、取得結果に基づき、動作制御テーブ
ル124に定義されている状態遷移や動作を実行すると
共に、感情・性格制御手段105がロボット感情値12
2を更新する。さらに、取得した対話結果や操作結果に
基づき、状態管理テーブル123に記載されている履歴
情報を更新する。
が示されており、図2に示した各ロボット状態(3名の
利用者)における履歴情報を保持したものである。すな
わち、状態管理テーブル123は、対人物状態202
a、202b、202cでの履歴情報405,406,
407と、自律動作状態201での履歴情報408と、
現在のロボット状態における履歴情報409とから構成
されている。また、状態管理テーブル123は、各ロボ
ット状態における過去のロボット感情値401、対人度
(好感度や親密度)402、行動・対話の回数403、
及び動作時間などの時間情報404を記録している。
が操作され、その人物と別れた(=別のロボット状態へ
遷移した)際の、その人物に対するロボット感情値を保
持している。対人度402の好感度や親密度は、過去の
ほめられた(しかられた)回数や操作時間などによって
感情・性格制御手段106が決定するものであり、別の
ロボット状態へ遷移した際に、その人物への対人度情報
として保存される。行動・対話回数403は過去の対話
回数や行動回数の累計を示したものであり、時間情報4
04は累計の操作時間以外に、前回動作の日時や時間を
保持している。
ロボット状態(自律動作状態201、または対人物状態
202a、202b、202c)での各種履歴情報を保
持しており、ロボット状態の遷移が起こった場合に、該
当するロボット状態の履歴情報を更新するために使用さ
れる。なお、現在のロボット装置の感情値409もこの
状態管理テーブル123には記録されているが、これは
ロボット感情値122と同じものであり、便宜上このテ
ーブルにも記載している。
123の更新とは、操作内容や発話内容にしたがって、
現在ロボット状態における行動・対話の回数409cや
対人度409bを更新することを意味する。
種類のロボット状態の遷移があったかどうかをロボット
制御手段103や人物特定手段108を用いて判断す
る。なお、動作制御テーブル124には、ロボット状態
の変化(人物と別れたり、人物と遭遇する)に対する所
定条件と遷移先が定義されているものとする。ロボット
状態の変更がない場合には、ステップS52〜S53の
処理を繰り返す。
S54、S55の処理について説明する。
合には、ステップS54で現在までのロボット状態にお
ける履歴情報を元に、状態管理テーブル123の内容を
更新する。具体的には以下の処理を行う。 ・現在ロボット感情値409aを状態管理テーブル12
3の直前の該当人物の欄の感情値401へ上書きする。 ・対人度409bについても、該当の欄の対人度402
へ上書きする。 ・行動・対話回数409cは該当人物欄の行動・対話回
数403の数字に加算する。 ・時間情報409dは、累計時間は合計するが、前回完
了日時や前回操作時間は現在の数値をそのまま該当人物
欄へ上書きする。 ・現在ロボット状態の欄409に、遭遇した人物の履歴
情報(感情値401、対人度402)を書き込む(な
お、現在ロボット状態の行動・対話409cはゼロクリ
アされる)。
る過去のロボット感情値を状態管理テーブル123から
取得し、現在のロボット感情値122とあわせて新たに
ロボット感情値を計算し、ロボット感情値122、40
9aを更新する。
を以下に示す。 E2=kE0+(1−k)E1・・・・(1) この式(1)は、人物遭遇直前の現在感情値E0と過去
のロボット感情値E1を重み係数k(0〜1)を用いて
線形計算するものである。kの値をどのようにとるかに
よって、図10に示される新ロボット感情値332を現
在感情値331に近い(kが大きい)ようにするか、あ
るいは過去のロボット感情値に近い(kが小さい)よう
にするのかを制御することができる。
載の係数制御ルール340がある。同ルールはどの場合
に重み係数kを大きくして、新ロボット感情値を現在ロ
ボット感情値に近づけるかを記載したものである。以下
に、各ルールについて説明する。 ルール1:前回の同一人物による操作日時が古いほど、
現在感情値に近くするものである。時間がたてばたつほ
ど、ロボット装置のその人に対する印象が薄くなるよう
なモデルとして想定できる。 ルール2:前回の同一人物による操作時間が短い場合
に、現在ロボット感情値に近くするものである。短い時
間なので印象が深まっていないというモデルが想定でき
る。 ルール3:ルール2に近いが、好感度・親密度が小さい
場合には、遭遇した人物による現在のロボット感情への
影響度が小さいと考えたモデルである。 ルール4:起動後間もない場合には、まだロボット装置
が完全に目覚めていないため、過去の状況に対する記憶
力(影響度)がすこし弱くなっているモデルである。 以上記載のルールにしたがって、重み係数kを制御す
る。各ルールは1種類のみを使用してもよいし、各ルー
ルを組み合わせて重み係数kを決定しても良い。あるい
は、利用者ごとに使用するルールを設定することも可能
である。
類としては、怒り、悲しみ、喜びのすべての感情種類を
想定しているが、感情を抑える(なだめる)という意味
で、最大あるいは最小の感情値を持つ感情種類を対象と
したり、ある閾値以上あるいは以下の感情種類を対象と
する場合も考えられる。さらに、感情の種類に応じて異
なる重み係数を導入したり、その適用ルールを変更して
も良い。
形モデルを採用したが、現在ロボット感情値と過去ロボ
ット感情値に対する2個の感情値に対する重みづけを行
うことが主旨であるため、本主旨に合致する他の計算モ
デルを採用しても良い。
ット感情値122を変更し、新しいロボット状態におけ
る操作・対話を行っていく。
移 自律動作状態から対人物状態へ遷移する場合では、ステ
ップS54での状態管理テーブル123の更新は対人物
状態の欄ではなく、自律動作状態の欄(408)の履歴
情報を更新する。また、ステップS55での新しいロボ
ット感情値の再計算方法は上記(A)の場合とほぼ同様
である。
起伏は発生しないが、エンターテイメント性を高めるた
めに、遭遇人物との過去のロボット感情値をより強く反
映させる方法がある。一方で、感情の連続性という観点
から、現在のロボット感情値に近い新たなロボット感情
値にするという方法も考えられる。つまり、重み係数k
の値は上記(A)のルールによる値を、ロボット装置の
性格付けの方向で補正して用いる。
移 対人物状態から自律動作状態へ遷移する場合は、ステッ
プS54の処理は(A)の場合と同様である。次に、ス
テップS55のロボット装置の感情値の再計算は、対人
物状態で感情の起伏があったとしても、一般的に自律状
態では操作や話しかけが少ないために、時間と共に一定
の感情範囲内におさまる場合が多い。その場合には、状
態遷移時に特別な感情生成を行なう必要がないため、ス
テップS55をスキップすることになる。
時間で、現在のロボット感情の「引きづり度」を制御し
たいという要望もある。この場合には、前記(A)記載
のルール2に準拠したモデルが考えられる。例えば、次
のようなルールを採用する。 ルール5:重み係数kは0.8〜1.0の間とする(現
ロボット感情に近い)。kは直前の対人物状態での操作
時間が長いほど大きく設定する。なお、式(1)におけ
るE1は前回の自律動作時のロボット感情値を採用す
る。
は、ロボット状態が変化した場合に、現在のロボット感
情値と過去の同一ロボット状態におけるロボット感情値
を重み付け係数kを用いて、新しいロボット感情値を生
成する。重み係数kの値は、ロボット状態変化のパター
ン、過去の操作・対話の履歴や時間、あるいは性格付け
などに基づく係数設定則(ルール)を用いて決定する。
その結果、エンターテイメント性の高い感情変化を実現
することができる。
実施形態について図面を参照して詳細に説明する。上述
した第1の実施形態では、人物と遭遇した際のロボット
感情値を直ちに計算して置き換えを行なっていたが、第
2の実施形態では、一定の時間をかけて目標となる感情
値へ移行するように構成する。以降では、人物遭遇後の
一定時間内の処理を過渡的処理、一定時間後の処理を通
常処理と呼ぶ。
ト感情値の遷移を概念的に示す図である。図12に示さ
れるように、現在のロボット感情値311と過去のロボ
ット感情値314とから目標となるロボット感情値31
2を生成する。ロボット装置の感情値は現在感情値31
1から目標ロボット感情値312へ徐々に移行すること
が期待されるが、実際には途中の対話や操作結果によ
り、目標感情値312と異なるロボット感情値315へ
遷移していく。
図13に示されたフローチャートを参照しながら説明す
る。第2の実施形態の処理手順は、上述した第1の実施
形態の処理手順に、ステップS61の過渡的感情処理が
加わると共に、ステップS66のロボット感情値の再計
算の処理が一部変更になる。
た場合に、ステップS66で新ロボット感情値(第1の
実施形態のステップS55で算出したもの)を算出す
る。この新ロボット感情値を目標感情値として使用し、
現在ロボット感情値自体は変更しない。また、ステップ
S66において、単位時間当たりの感情変化量を計算す
る(詳細については後述)。そして、図12に示された
過渡的処理期間内だけステップS61の感情処理を行
い、現在のロボット感情値をステップS66で算出した
目標感情値に近づける。なお、図14には、図13に示
されたフローチャートのステップS61の詳細な処理手
順が示されている。
は、ステップS66で、現ロボット感情値と算出した目
標ロボット感情値との変化分を過渡的処理期間(t1)
で割り、1単位時間における感情変化分を算出する。そ
して、図14のフローチャートに示されるように、過渡
的処理期間内においては(ステップS71/YES)、
時間の推移分と上記1単位間における感情変化分の乗算
を行い、現在ロボット感情値に加算(ステップS72)
していく方法である。
類の感情遷移方法が示されている。上述の方法は、現在
ロボット感情値350から目標感情値351に線形的に
近づくモデル352を示している。一方、同図353記
載のように、感情変化量を時間とともに減少させる方法
もある。これは、人物遭遇直後には過去の印象による感
情変化が大きいが、時間がたつほどに感情変化量はおさ
まってくるモデルと言える。この場合も、各時間推移に
おける感情変化量をステップS66で計算しておき、ス
テップS61では現在の推移時間における前記感情変化
量を現在のロボット感情値に合算して、新しいロボット
感情値を生成する。
おけるロボット感情値を計算し、記憶部120内のロボ
ット感情値122を更新する。その後、ロボット状態が
変更となるまで、ステップS62,S63により通常の
操作・対話による履歴更新や感情更新処理を行う。ステ
ップS63による感情更新処理が入るために、図12記
載のような感情遷移モデルが実現されることになる。
情値の連続性を損なうことなく、一定時間内に過去の人
物の感情値を反映させた目標感情値へ遷移することが期
待されるとともに、新たな操作結果や対話結果もロボッ
ト感情値に反映させることができる。
テップS61において過渡的処理期間(t1)以内に、
図16記載の操作や発話が行われた場合に、人物遭遇前
の直前のロボット感情値に戻す方法も考えられる。これ
は、怒りが高いなど一定の感情値以上のところ(701
の感情種類)から、感情がおさまる方向に遷移している
のに、特定の操作や対話(702の操作・対話)によ
り、いわゆる「元のもくあみ」となることを示してい
る。図7及び12の感情変化モデルにおける、逆戻り3
05や316はこの際の感情遷移を示している。
17のフローチャートのステップS86に記載している
ように、ロボット状態の遷移により計算された新たなロ
ボット感情値に対して補正を行うものである。補正を行
う方法を以下に示す。 A)人物単位の音声認識率や画像認識率の統計情報を状
態管理テーブル123に保持しておき、認識率が悪い人
物と遭遇した場合に、例えば喜びの度合いを減少させ
る。 B)利用者情報127の中の、属性情報605を参照
し、例えば母親であれば悲しみの度合いを減少させる。
あるいは、甘えという感情を保持しているロボット装置
であれば、甘えの感情を増大させる。
感情値を計算する場合に、過去のロボット感情値を参照
していたが、過去のロボット感情値の代わりにロボット
装置の対人度(好感度や親密度)という尺度を用いても
良い。前述のように好感度や親密度は、過去の操作結果
や操作時間累計に関する一種の統計情報であるため、対
人関係という意味では過去の感情値よりも正確度が高
い。この方法では、例えば好感度が高いと怒りを抑える
とともに喜びを向上させ、親密度が高いと悲しみを抑え
るような計算を行って、新しいロボット感情値を生成さ
せる。図3の感情モデルにおけるCASE2がこれにあ
たる。
値にどの程度影響させるかという係数を設定し、この係
数に対しても前述した重み係数kの設定ルールと同様な
ルールを導入して制御する。さらに、新たな感情値を計
算する別な方法として、対人度ではなく、過去の操作・
対話の累計情報(状態管理テーブル123の行動・対話
403)を参照する方法も考えられる。
ット感情値の計算モデルや遷移モデルを記載したが、ロ
ボット感情値は直接ロボット装置の行動に反映される。
例えば、怒りの感情がおさまるような新たな感情値が生
成されれば、「ふ〜。気持ちが落ち着いてきた」と発話
したり、じたばたするような動作からスムーズに動くよ
うな動作に変わる。したがって、ロボット装置の感情値
の変化・遷移に伴う行動も本発明の特徴の一つである。
は、図17のステップS86において、感情値の補正を
行うのではなく、利用者情報を用いてロボット装置の行
動を特徴づけるものである。例えば、図4の利用者情報
127において、各利用者とロボット装置との関係を6
06のように定義しておく。606の例では、ロボット
装置の上位者(親)とロボット装置の中位者(仲間・友
人)と下位者(弟・妹、あるいは後輩)の3種類に分類
しておき、各利用者がロボット装置と遭遇した場合のふ
るまいを変更するものである。
プS86の処理の具体例である。まず、ステップS91
では直前のロボット感情値が一定値未満の場合には、特
別な行動はせずに戻る。感情がたかぶっている場合など
ロボット感情値が一定値以上の場合には(ステップS9
1/YES)、ステップS92で利用者とロボット装置
の関係を調べる。親などの上位利用者の場合には(ステ
ップS92/YES)、直前の人物による操作や発話を
訴える行動を起こす(ステップS93)。中位または下
位の利用者の場合には、現在のロボット装置の心情を話
しかけるような行動を起こす(ステップS94)。
値以上の場合のふるまいを記載したものであるが、感情
値にかかわらず利用者との関係情報により人物遭遇時の
ふるまいを変更しても良い。例えば、中位(友人・仲
間)の利用者と会うと「おっす。たまには一緒に遊ぼう
か?」と発話し、下位(弟・妹、後輩)の利用者に会う
と「ちゃんと勉強しているか?」などお兄さんぶった発
話を行う場合などが考えられる。
なく、遭遇した人物間の相関情報を用いて行動を変化さ
せても良い。例えば、直前にロボット装置を操作した人
物より、新たに遭遇した人物の方が「弱い」という関係
があれば、新たな人物に対して「(直前の人物ににほめ
られたよ/かわいがってくれたよ」と誇らしげに発話・
行動するケースが相当する。
実施の形態である。但し、これに限定されるものではな
く、本発明の要旨を逸脱しない範囲内において種々変形
実施が可能である。例えば、上記説明では、第2〜第4
の実施形態をそれぞれ別々の実施例として説明してきた
が、これらを組み合わせることも可能である。
よれば、よりパーソナルなロボット装置を実現できる。
その理由は、人物単位での操作履歴や対話履歴及びその
際のロボット感情値を保存しておき、次回人物と遭遇し
た場合には過去の履歴情報や感情情報に基づいて新たな
感情を生成するからである。したがって、本ロボット装
置がやさしく操作・対話を行ってくれる人に遭遇すれ
ば、怒りや悲しみがうすらぎ、喜びの感情が増えた感情
になる。逆に、いつも頭を叩くような人に遭遇すれば、
たとえ本ロボット装置が喜んでいる状態であっても怒り
が増えてくる。したがって、自分だけのロボットという
ような、パーソナル性能を向上させたロボット装置を実
現することが可能である。
が可能となる。その理由は、人間社会でも発生するよう
な感情変化を実現しているからである。本構成のロボッ
ト装置を用いることにより、「泣いた子がすぐ笑った」
や「時間とともに、気持ちが落ち着いてきた」とか「元
のもくあみになる」という状況を実現することができる
からである。さらに、過去の感情の影響度をさまざまな
形で提供・選択することにより、ロボット装置の性格づ
けによるエンターテイメント性をさらに高めるという効
果もある。
る。その理由は、家族などの利用者とロボットとの関係
を定義し、その関係に基づいてロボット装置が動作・対
話を行うため、利用者がロボット装置をあたかも家族の
一員のような形で利用できるからである。
成図である。
図である。
トである。
するための図である。
ートである。
ートである。
ルの構成を表す図である。
ーチャートである。
ートである。
る。
Claims (18)
- 【請求項1】 人物を特定する人物特定手段と、 利用者に関する情報、利用者間の相関関係、及びロボッ
ト装置と利用者との関係を定義した利用者情報を記憶す
る記憶手段と、 人物遭遇時に、前記人物特定手段により人物を特定し、
該特定した人物と前記利用者情報に基づいた発話を行な
う発話手段、及び/または前記利用者情報に基づた行動
を行なう行動手段と、 を有することを特徴とするロボット装置。 - 【請求項2】 人物を特定する人物特定手段と、 人物の発話内容を解釈する音声認識手段と、 人物より入力された操作情報を取得する操作情報取得手
段と、 前記音声認識手段による人物の発話内容、および/また
は操作情報取得手段により取得した操作情報からロボッ
ト装置の感情であるロボット感情値を人物毎に生成する
感情・性格制御手段と、 前記感情・性格制御手段により生成されたロボット感情
値を人物毎に記憶した記憶手段と、を有し、 前記性格・感情制御手段は、人物に遭遇した際に、前記
記憶手段に記憶された該当人物に対する過去のロボット
感情値と、該当人物と遭遇する直前のロボット感情値と
から新たなロボット感情値を生成することを特徴とする
ロボット装置。 - 【請求項3】 前記感情・性格制御手段は、 前記過去のロボット感情値と前記直前のロボット感情値
とに所定の重みを付けて新たなロボット感情値を生成す
ることを特徴とする請求項2記載のロボット装置。 - 【請求項4】 前記感情・性格制御手段は、 過去に操作された操作日時と現在日時との差分、過去に
操作された操作時間、操作や対話の統計情報から導かれ
る親密度・好感度からなる対人度、前記ロボット装置の
起動時間からの経過時間の何れか一つまたは複数の条件
を基にして前記過去のロボット感情値と前記直前のロボ
ット感情値とに所定の重みを付けることを特徴とする請
求項3記載のロボット装置。 - 【請求項5】 前記感情・性格制御手段は、 前記過去のロボット感情値と前記直前のロボット感情値
とに付ける重みの基準となる前記条件を利用者毎に変更
して新たなロボット感情値を生成することを特徴とする
請求項4記載のロボット装置。 - 【請求項6】 前記感情・性格制御手段は、 前記人物特定手段による人物の認識率、または前記音声
認識手段による音声の認識率によって生成した前記新た
なロボット感情値を補正することを特徴とする請求項2
から5の何れか一項に記載のロボット装置。 - 【請求項7】 利用者に関する情報、利用者間の相関関
係、及びロボット装置と利用者との関係を定義した利用
者情報を前記記憶手段は記憶し、 前記感情・性格制御手段は、生成した前記新たなロボッ
ト感情値を前記利用者情報によって補正することを特徴
とする請求項2から6の何れか一項に記載のロボット装
置。 - 【請求項8】 前記感情・性格制御手段は、 人物と遭遇し新たなロボット感情値を生成すると、ロボ
ット感情値が時間の推移と共に該作成したロボット感情
値に近づくように制御することを特徴とする請求項2か
ら7の何れか一項に記載のロボット装置。 - 【請求項9】 前記記憶手段は、ロボット装置の感情毎
に、前記ロボット装置の感情を逆なでする用語、操作を
登録した感情処理テーブルを記憶し、 前記感情・性格制御手段は、人物遭遇後の一定期間内に
操作情報取得手段もしくは前記音声認識手段によって前
記感情処理テーブル記載の対話や操作が行なわれたこと
を検知すると、ロボット感情値を人物遭遇前の状態に戻
す制御を行なうことを特徴とする請求項2から8の何れ
か一項に記載のロボット装置。 - 【請求項10】 人物を特定する人物特定工程と、 利用者に関する情報、利用者間の相関関係、及びロボッ
ト装置と利用者との関係を定義した利用者情報に基づい
た発話を前記特定した人物と行なう発話工程、及び/ま
たは前記利用者情報に基づいた行動を行なう行動工程
と、 を有することを特徴とするロボット装置の制御方法。 - 【請求項11】 人物を特定する人物特定工程と、 人物の発話内容を解釈する音声認識工程と、 人物より入力された操作情報を取得する操作情報取得工
程と、 前記音声認識工程による人物の発話内容、および/また
は操作情報取得工程により取得した操作情報からロボッ
ト装置の感情であるロボット感情値を人物毎に生成する
第1のロボット感情値生成工程と、 人物に遭遇した際に、該当人物に対する過去の前記ロボ
ット感情値と、該当人物と遭遇する直前のロボット感情
値とから新たなロボット感情値を生成する第2のロボッ
ト感情値生成工程と、を有することを特徴とするロボッ
ト装置の制御方法。 - 【請求項12】 前記第2のロボット感情値生成工程
は、 前記過去のロボット感情値と前記直前のロボット感情値
とに所定の重みを付けて新たなロボット感情値を生成す
ることを特徴とする請求項11記載のロボット装置の制
御方法。 - 【請求項13】 前記第2のロボット感情値生成工程
は、 過去に操作された操作日時と現在日時との差分、過去に
操作された操作時間、操作や対話の統計情報から導かれ
る親密度・好感度からなる対人度、前記ロボット装置の
起動時間からの経過時間の何れか一つまたは複数の条件
を基にして前記過去のロボット感情値と前記直前のロボ
ット感情値とに所定の重みを付けることを特徴とする請
求項12記載のロボット装置の制御方法。 - 【請求項14】 前記第2のロボット感情値生成工程
は、 前記過去のロボット感情値と前記直線のロボット感情値
とに付ける重みの基準となる前記条件を利用者毎に変更
して新たなロボット感情値を生成することを特徴とする
請求項13記載のロボット装置の制御方法。 - 【請求項15】 前記第2のロボット感情値生成工程
は、 前記人物特定工程による人物の認識率、または前記音声
認識工程による音声の認識率によって生成した前記新た
なロボット感情値を補正することを特徴とする請求項1
1から14の何れか一項に記載のロボット装置の制御方
法。 - 【請求項16】 前記第2のロボット感情生成工程は、 利用者に関する情報、利用者間の相関関係、及びロボッ
ト装置と利用者との関係を定義した利用者情報によっ
て、生成した前記新たなロボット感情値を補正すること
を特徴とする請求項11から15の何れか一項に記載の
ロボット装置の制御方法。 - 【請求項17】 前記第2のロボット感情値生成工程
は、 人物と遭遇し新たなロボット感情値を生成すると、ロボ
ット感情値が時間の推移と共に該作成したロボット感情
値に近づくように制御する工程であることを特徴とする
請求項11から16の何れか一項に記載のロボット装置
の制御方法。 - 【請求項18】 前記第2のロボット感情値生成工程
は、 ロボット装置の感情毎に、前記ロボット装置の感情を逆
なでする用語、操作を登録した感情処理テーブルを参照
して、人物遭遇後の一定期間内に操作情報取得工程もし
くは前記音声認識工程によって前記感情処理テーブル記
載の対話や操作が行なわれたことを検知すると、ロボト
感情値を人物遭遇前の状態に戻す制御を行なうことを特
徴とする請求項11から17の何れか一項に記載のロボ
ット装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001318362A JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001318362A JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008325131A Division JP2009072910A (ja) | 2008-12-22 | 2008-12-22 | ロボット装置及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003117866A true JP2003117866A (ja) | 2003-04-23 |
JP4266552B2 JP4266552B2 (ja) | 2009-05-20 |
Family
ID=19136073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001318362A Expired - Fee Related JP4266552B2 (ja) | 2001-10-16 | 2001-10-16 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4266552B2 (ja) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
JP2005110726A (ja) * | 2003-10-02 | 2005-04-28 | Toshiba Corp | 学習装置及びその方法 |
KR100681919B1 (ko) | 2005-10-17 | 2007-02-12 | 에스케이 텔레콤주식회사 | 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치 |
JP2007111854A (ja) * | 2003-06-02 | 2007-05-10 | Matsushita Electric Ind Co Ltd | 物品取扱いシステムおよび物品取扱いサーバ |
JPWO2005062294A1 (ja) * | 2003-12-05 | 2007-07-19 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法 |
JPWO2005062295A1 (ja) * | 2003-12-05 | 2007-07-19 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置及び機器制御方法 |
WO2009107185A1 (ja) * | 2008-02-25 | 2009-09-03 | パイオニア株式会社 | 車載ロボット |
KR100953407B1 (ko) | 2008-04-24 | 2010-04-19 | 한국과학기술원 | 로봇의 호감도 형성장치 및 그 방법 |
JP2011115932A (ja) * | 2009-12-02 | 2011-06-16 | Phison Electronics Corp | エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 |
US8060389B2 (en) | 2000-06-07 | 2011-11-15 | Apple Inc. | System and method for anonymous location based services |
US8538685B2 (en) | 2000-06-07 | 2013-09-17 | Apple Inc. | System and method for internet connected service providing heterogeneous mobile systems with situational location relevant content |
JP2016036883A (ja) * | 2014-08-08 | 2016-03-22 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP2016177441A (ja) * | 2015-03-19 | 2016-10-06 | ヤフー株式会社 | 情報処理装置及び方法 |
JP2016177440A (ja) * | 2015-03-19 | 2016-10-06 | ヤフー株式会社 | 情報処理装置及び方法 |
JP2016197386A (ja) * | 2015-04-06 | 2016-11-24 | 信太郎 本多 | 環境に適応する、汎用性を意識した人工知能システム |
JP2018021953A (ja) * | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
WO2018135276A1 (ja) * | 2017-01-19 | 2018-07-26 | シャープ株式会社 | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 |
WO2018203501A1 (ja) * | 2017-05-02 | 2018-11-08 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
CN109108960A (zh) * | 2017-06-23 | 2019-01-01 | 卡西欧计算机株式会社 | 机器人、机器人的控制方法以及存储介质 |
WO2019066110A1 (ko) * | 2017-09-29 | 2019-04-04 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
WO2020180051A1 (en) * | 2019-03-07 | 2020-09-10 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
JP2020151070A (ja) * | 2019-03-19 | 2020-09-24 | パナソニック株式会社 | ロボット及びロボットの制御方法 |
CN114461062A (zh) * | 2014-11-07 | 2022-05-10 | 索尼公司 | 信息处理系统、控制方法和计算机可读存储介质 |
EP4407513A1 (en) | 2023-01-25 | 2024-07-31 | Casio Computer Co., Ltd. | Robot, robot control method, and program |
-
2001
- 2001-10-16 JP JP2001318362A patent/JP4266552B2/ja not_active Expired - Fee Related
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8538685B2 (en) | 2000-06-07 | 2013-09-17 | Apple Inc. | System and method for internet connected service providing heterogeneous mobile systems with situational location relevant content |
US8060389B2 (en) | 2000-06-07 | 2011-11-15 | Apple Inc. | System and method for anonymous location based services |
US7209803B2 (en) | 2003-02-17 | 2007-04-24 | Matsushita Electric Industrial Co., Ltd. | Article handling system and method and article management system and method |
US7187998B2 (en) | 2003-02-17 | 2007-03-06 | Matsushita Electric Industrial Co., Ltd. | Article handling system and method and article management system and method |
WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
US7191035B2 (en) | 2003-06-02 | 2007-03-13 | Matsushita Electric Industrial Co., Ltd. | Article handling system and method and article management system and method |
US7206668B2 (en) | 2003-06-02 | 2007-04-17 | Matsushita Electric Industrial Co., Ltd. | Article handling system and method and article management system and method |
US7187999B2 (en) | 2003-06-02 | 2007-03-06 | Matsushita Electric Industrial Co., Ltd. | Article handling system and method and article management system and method |
JP2007111854A (ja) * | 2003-06-02 | 2007-05-10 | Matsushita Electric Ind Co Ltd | 物品取扱いシステムおよび物品取扱いサーバ |
JP2005110726A (ja) * | 2003-10-02 | 2005-04-28 | Toshiba Corp | 学習装置及びその方法 |
JPWO2005062295A1 (ja) * | 2003-12-05 | 2007-07-19 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置及び機器制御方法 |
JPWO2005062294A1 (ja) * | 2003-12-05 | 2007-07-19 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法 |
JP2009288815A (ja) * | 2003-12-05 | 2009-12-10 | Kenwood Corp | 機器制御装置、音声認識装置、エージェント装置、機器制御方法及びプログラム |
JP4516919B2 (ja) * | 2003-12-05 | 2010-08-04 | 株式会社ケンウッド | 機器制御装置、機器制御方法及びプログラム |
JP4516918B2 (ja) * | 2003-12-05 | 2010-08-04 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、機器制御方法及びプログラム |
US7822614B2 (en) | 2003-12-05 | 2010-10-26 | Kabushikikaisha Kenwood | Device control, speech recognition device, agent device, control method |
KR100681919B1 (ko) | 2005-10-17 | 2007-02-12 | 에스케이 텔레콤주식회사 | 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치 |
WO2007046613A1 (en) * | 2005-10-17 | 2007-04-26 | Sk Telecom Co., Ltd. | Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor |
WO2009107185A1 (ja) * | 2008-02-25 | 2009-09-03 | パイオニア株式会社 | 車載ロボット |
JPWO2009107185A1 (ja) * | 2008-02-25 | 2011-06-30 | パイオニア株式会社 | 車載ロボット |
KR100953407B1 (ko) | 2008-04-24 | 2010-04-19 | 한국과학기술원 | 로봇의 호감도 형성장치 및 그 방법 |
JP2011115932A (ja) * | 2009-12-02 | 2011-06-16 | Phison Electronics Corp | エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 |
JP2016036883A (ja) * | 2014-08-08 | 2016-03-22 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
CN114461062A (zh) * | 2014-11-07 | 2022-05-10 | 索尼公司 | 信息处理系统、控制方法和计算机可读存储介质 |
JP2016177440A (ja) * | 2015-03-19 | 2016-10-06 | ヤフー株式会社 | 情報処理装置及び方法 |
JP2016177441A (ja) * | 2015-03-19 | 2016-10-06 | ヤフー株式会社 | 情報処理装置及び方法 |
JP2016197386A (ja) * | 2015-04-06 | 2016-11-24 | 信太郎 本多 | 環境に適応する、汎用性を意識した人工知能システム |
JP2018021953A (ja) * | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
US10269349B2 (en) | 2016-08-01 | 2019-04-23 | Toyota Jidosha Kabushiki Kaisha | Voice interactive device and voice interaction method |
WO2018135276A1 (ja) * | 2017-01-19 | 2018-07-26 | シャープ株式会社 | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 |
US11400601B2 (en) | 2017-01-19 | 2022-08-02 | Sharp Kabushiki Kaisha | Speech and behavior control device, robot, storage medium storing control program, and control method for speech and behavior control device |
JPWO2018135276A1 (ja) * | 2017-01-19 | 2019-11-07 | シャープ株式会社 | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 |
WO2018203501A1 (ja) * | 2017-05-02 | 2018-11-08 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
JP2018187712A (ja) * | 2017-05-02 | 2018-11-29 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
US11759959B2 (en) | 2017-05-02 | 2023-09-19 | Sony Interactive Entertainment Inc. | Object control system and object control method |
CN109108960B (zh) * | 2017-06-23 | 2022-03-01 | 卡西欧计算机株式会社 | 机器人、机器人的控制方法以及存储介质 |
US10836041B2 (en) | 2017-06-23 | 2020-11-17 | Casio Computer Co., Ltd. | More endearing robot, robot control method, and non-transitory recording medium |
JP2019005842A (ja) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN109108960A (zh) * | 2017-06-23 | 2019-01-01 | 卡西欧计算机株式会社 | 机器人、机器人的控制方法以及存储介质 |
WO2019066110A1 (ko) * | 2017-09-29 | 2019-04-04 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
CN113543939A (zh) * | 2019-03-07 | 2021-10-22 | 三星电子株式会社 | 电子装置及其控制方法 |
WO2020180051A1 (en) * | 2019-03-07 | 2020-09-10 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
US11899467B2 (en) | 2019-03-07 | 2024-02-13 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
JP2020151070A (ja) * | 2019-03-19 | 2020-09-24 | パナソニック株式会社 | ロボット及びロボットの制御方法 |
CN111736585A (zh) * | 2019-03-19 | 2020-10-02 | 松下知识产权经营株式会社 | 机器人以及机器人的控制方法 |
JP7273566B2 (ja) | 2019-03-19 | 2023-05-15 | パナソニックホールディングス株式会社 | ロボット、ロボットの制御方法及びプログラム |
US11969876B2 (en) | 2019-03-19 | 2024-04-30 | Panasonic Intellectual Property Management Co., Ltd. | Robot and control method of robot |
EP4407513A1 (en) | 2023-01-25 | 2024-07-31 | Casio Computer Co., Ltd. | Robot, robot control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4266552B2 (ja) | 2009-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003117866A (ja) | ロボット装置及びその制御方法 | |
JP7317529B2 (ja) | サウンドデータを処理するシステム、及びシステムの制御方法 | |
JP6601069B2 (ja) | 対話制御装置、対話制御方法及びプログラム | |
JP5852930B2 (ja) | 入力文字推定装置およびプログラム | |
US7065711B2 (en) | Information processing device and method, and recording medium | |
WO2017168870A1 (ja) | 情報処理装置及び情報処理方法 | |
CN111368609A (zh) | 基于情绪引擎技术的语音交互方法、智能终端及存储介质 | |
JP3678421B2 (ja) | 音声認識装置及び音声認識方法 | |
CN107825429B (zh) | 对话装置和方法 | |
JP7352115B2 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム | |
US20160004299A1 (en) | Systems and methods for assessing, verifying and adjusting the affective state of a user | |
CN110265021A (zh) | 个性化语音交互方法、机器人终端、装置及可读存储介质 | |
CN111831798A (zh) | 信息处理方法、装置、电子设备及计算机可读存储介质 | |
JP2009072910A (ja) | ロボット装置及びその制御方法 | |
US10836044B2 (en) | Robot control device and robot control method | |
JPWO2019160105A1 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム | |
JP6201212B2 (ja) | キャラクタ生成装置およびプログラム | |
WO2019160090A1 (ja) | 非言語情報生成装置、方法、及びプログラム | |
KR20200059112A (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
JP2008125815A (ja) | 会話ロボットシステム | |
JP2016090775A (ja) | 応答生成装置、応答生成方法およびプログラム | |
JP7063230B2 (ja) | コミュニケーション装置およびコミュニケーション装置の制御プログラム | |
JP2009026125A (ja) | 感情分析デバイス、感情分析方法およびプログラム | |
CN113539261A (zh) | 人机语音交互方法、装置、计算机设备和存储介质 | |
JP2021113835A (ja) | 音声処理装置および音声処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060725 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070220 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070322 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070322 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070501 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070608 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080922 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090217 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |