JP2003117866A - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法

Info

Publication number
JP2003117866A
JP2003117866A JP2001318362A JP2001318362A JP2003117866A JP 2003117866 A JP2003117866 A JP 2003117866A JP 2001318362 A JP2001318362 A JP 2001318362A JP 2001318362 A JP2001318362 A JP 2001318362A JP 2003117866 A JP2003117866 A JP 2003117866A
Authority
JP
Japan
Prior art keywords
robot
person
emotion
emotion value
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001318362A
Other languages
English (en)
Other versions
JP4266552B2 (ja
Inventor
Kiyohito Kubota
清仁 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001318362A priority Critical patent/JP4266552B2/ja
Publication of JP2003117866A publication Critical patent/JP2003117866A/ja
Application granted granted Critical
Publication of JP4266552B2 publication Critical patent/JP4266552B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 利用者に対してよりパーソナルなロボット装
置を提供する。 【解決手段】 過去における各利用者による操作履歴や
対話履歴、及びロボット感情値を状態管理テーブル12
3に保持する。本ロボット装置の人物特定手段108は
新たに遭遇した人物が過去の利用者であることが判明す
ると、感情・性格性格手段106は現在のロボット感情
値122と状態管理テーブル123に保存された該当人
物の過去のロボット感情値を参照して、新たなロボット
感情値を生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人物を特定し、内
部感情にしたがって動作するロボット装置及びその制御
方法に関する。
【0002】
【従来の技術】昨今のペット型ロボットに代表されるロ
ボット装置は、エンターテイメント用途ということもあ
り、ロボット装置自身が感情あるいは性格を持つように
構成されている。このロボット装置の性格や感情は、撫
でる/叩くなどの操作結果や言葉の音声認識の結果、あ
るいは照明などの外部環境の結果に基づき、連続的に変
化する。図19は従来のロボット装置における感情値の
遷移を示したものであり、ある点t1におけるロボット
感情値801は時間や操作などに伴い感情値802(t
2)、803(t3)と変化している。
【0003】したがって、人物Aが操作を行なった結
果、ロボット感情値が感情値801の状態から感情値8
02の状態へ遷移すると、次の人物がロボット装置を操
作する場合のロボット感情値は感情値802の状態から
始まることになる。例えば、特開2001−15470
7号公報に記載されたロボット装置においては、怒り、
悲しみや喜びといった感情を確率状態遷移モデルで形成
し、各感情モデルから他の感情モデルへこの確率状態遷
移モデルに従って遷移する方式が提案されている。しか
し、この確率遷移を用いた感情モデルにおいても人物を
特定する機構がないため、過去の操作者に関係なく現在
の感情モデルに従って感情遷移が行なわれていた。
【0004】このように、従来のロボット装置では、以
前誰が操作したのかにかかわらず、単純に過去のロボッ
トの操作や対話の履歴結果や外部環境によってのみロボ
ット装置の感情を決定し、遷移させていた。
【0005】
【発明が解決しようとする課題】このように従来のロボ
ット装置では、以前誰が操作したのかに関わらず、単純
に過去のロボット装置の操作や対話の履歴結果や外部環
境によってのみロボット装置の感情を決定し、遷移させ
ていた。そこで、以下に示すような課題が生じていた。
【0006】第1の課題は、特に複数人が操作する環境
においてパーソナル性が低いということである。その理
由は、従来のロボット装置では単純に操作履歴や対話履
歴に基づいて感情や性格、あるいはこれらに基づく行動
を決定しているため、人物ごとの操作履歴や対話履歴が
ロボット装置の行動や感情へ反映されていないからであ
る。
【0007】第2の課題は、ファミリー的な要素に欠け
るということである。その理由は、一般的に家庭で使用
されるロボット装置においては、ロボット装置と家族の
中に一定の関係が存在し、その関係の中でロボット装置
の行動や感情が決定されたり制限されるべきであるが、
従来のロボット装置ではこの関係が全く考慮されていな
いからである。
【0008】本発明は上記事情に鑑みてなされたもので
あり、人物の過去の操作履歴や対話履歴、あるいは過去
の感情や対人度(好感度や親密度など)に基づいて感情
を決定し、動作することができるロボット装置およびそ
の制御方法を提供することを目的とする。例えば、ロボ
ットが悲しんでいる状態でよく遊んでくれる人物と遭遇
すると、「泣いている子が笑った」という状態が実現さ
れる。
【0009】また、本発明の他の目的は、家族(人物)
とロボット装置との相関関係を定義しておくことによ
り、ロボット装置が人物と遭遇すると、その相関関係に
基づいた感情変化や行動をとらせることができるロボッ
ト装置およびその制御方法を提供することを目的とす
る。
【0010】
【課題を解決するための手段】係る目的を達成するため
に請求項1記載の発明は、人物を特定する人物特定手段
と、利用者に関する情報、利用者間の相関関係、及びロ
ボット装置と利用者との関係を定義した利用者情報を記
憶する記憶手段と、人物遭遇時に、人物特定手段により
人物を特定し、該特定した人物と利用者情報に基づいた
発話を行なう発話手段、及び/または利用者情報に基づ
た行動を行なう行動手段と、を有することを特徴とす
る。
【0011】請求項2記載の発明は、人物を特定する人
物特定手段と、人物の発話内容を解釈する音声認識手段
と、人物より入力された操作情報を取得する操作情報取
得手段と、音声認識手段による人物の発話内容、および
/または操作情報取得手段により取得した操作情報から
ロボット装置の感情であるロボット感情値を人物毎に生
成する感情・性格制御手段と、感情・性格制御手段によ
り生成されたロボット感情値を人物毎に記憶した記憶手
段と、を有し、性格・感情制御手段は、人物に遭遇した
際に、記憶手段に記憶された該当人物に対する過去のロ
ボット感情値と、該当人物と遭遇する直前のロボット感
情値とから新たなロボット感情値を生成することを特徴
とする。
【0012】請求項3記載の発明は請求項2記載の発明
において、感情・性格制御手段は、過去のロボット感情
値と直前のロボット感情値とに所定の重みを付けて新た
なロボット感情値を生成することを特徴とする。
【0013】請求項4記載の発明は請求項3記載の発明
において、感情・性格制御手段は、過去に操作された操
作日時と現在日時との差分、過去に操作された操作時
間、操作や対話の統計情報から導かれる親密度・好感度
からなる対人度、ロボット装置の起動時間からの経過時
間の何れか一つまたは複数の条件を基にして過去のロボ
ット感情値と直前のロボット感情値とに所定の重みを付
けることを特徴とする。
【0014】請求項5記載の発明は請求項4記載の発明
において、感情・性格制御手段は、過去のロボット感情
値と直前のロボット感情値とに付ける重みの基準となる
条件を利用者毎に変更して新たなロボット感情値を生成
することを特徴とする。
【0015】請求項6記載の発明は請求項2から5の何
れか一項に記載の発明において、感情・性格制御手段
は、人物特定手段による人物の認識率、または音声認識
手段による音声の認識率によって生成した新たなロボッ
ト感情値を補正することを特徴とする。
【0016】請求項7記載の発明は請求項2から6の何
れか一項に記載の発明において、利用者に関する情報、
利用者間の相関関係、及びロボット装置と利用者との関
係を定義した利用者情報を記憶手段は記憶し、感情・性
格制御手段は、生成した新たなロボット感情値を利用者
情報によって補正することを特徴とする。
【0017】請求項8記載の発明は請求項2から7の何
れか一項に記載の発明において、感情・性格制御手段
は、人物と遭遇し新たなロボット感情値を生成すると、
ロボット感情値が時間の推移と共に該作成したロボット
感情値に近づくように制御することを特徴とする。
【0018】請求項9記載の発明は請求項2から8の何
れか一項に記載の発明において、記憶手段は、ロボット
装置の感情毎に、ロボット装置の感情を逆なでする用
語、操作を登録した感情処理テーブルを記憶し、感情・
性格制御手段は、人物遭遇後の一定期間内に操作情報取
得手段もしくは音声認識手段によって感情処理テーブル
記載の対話や操作が行なわれたことを検知すると、ロボ
ット感情値を人物遭遇前の状態に戻す制御を行なうこと
を特徴とする。
【0019】請求項10記載の発明は、人物を特定する
人物特定工程と、利用者に関する情報、利用者間の相関
関係、及びロボット装置と利用者との関係を定義した利
用者情報に基づいた発話を特定した人物と行なう発話工
程、及び/または利用者情報に基づいた行動を行なう行
動工程と、を有することを特徴とする。
【0020】請求項11記載の発明は、人物を特定する
人物特定工程と、人物の発話内容を解釈する音声認識工
程と、人物より入力された操作情報を取得する操作情報
取得工程と、音声認識工程による人物の発話内容、およ
び/または操作情報取得工程により取得した操作情報か
らロボット装置の感情であるロボット感情値を人物毎に
生成する第1のロボット感情値生成工程と、人物に遭遇
した際に、該当人物に対する過去のロボット感情値と、
該当人物と遭遇する直前のロボット感情値とから新たな
ロボット感情値を生成する第2のロボット感情値生成工
程と、を有することを特徴とする。
【0021】請求項12記載の発明は請求項11記載の
発明において、第2のロボット感情値生成工程は、過去
のロボット感情値と直前のロボット感情値とに所定の重
みを付けて新たなロボット感情値を生成することを特徴
とする。
【0022】請求項13記載の発明は請求項12記載の
発明において、第2のロボット感情値生成工程は、過去
に操作された操作日時と現在日時との差分、過去に操作
された操作時間、操作や対話の統計情報から導かれる親
密度・好感度からなる対人度、ロボット装置の起動時間
からの経過時間の何れか一つまたは複数の条件を基にし
て過去のロボット感情値と直前のロボット感情値とに所
定の重みを付けることを特徴とする。
【0023】請求項14記載の発明は請求項13記載の
発明において、第2のロボット感情値生成工程は、過去
のロボット感情値と直線のロボット感情値とに付ける重
みの基準となる条件を利用者毎に変更して新たなロボッ
ト感情値を生成することを特徴とする。
【0024】請求項15記載の発明は請求項11から1
4の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、人物特定工程による人物の認識率、
または音声認識工程による音声の認識率によって生成し
た新たなロボット感情値を補正することを特徴とする。
【0025】請求項16記載の発明は請求項11から1
5の何れか一項に記載の発明において、第2のロボット
感情生成工程は、利用者に関する情報、利用者間の相関
関係、及びロボット装置と利用者との関係を定義した利
用者情報によって、生成した新たなロボット感情値を補
正することを特徴とする。
【0026】請求項17記載の発明は請求項11から1
6の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、人物と遭遇し新たなロボット感情値
を生成すると、ロボット感情値が時間の推移と共に該作
成したロボット感情値に近づくように制御する工程であ
ることを特徴とする。
【0027】請求項18記載の発明は請求項11から1
7の何れか一項に記載の発明において、第2のロボット
感情値生成工程は、ロボット装置の感情毎に、ロボット
装置の感情を逆なでする用語、操作を登録した感情処理
テーブルを参照して、人物遭遇後の一定期間内に操作情
報取得工程もしくは音声認識工程によって感情処理テー
ブル記載の対話や操作が行なわれたことを検知すると、
ロボト感情値を人物遭遇前の状態に戻す制御を行なうこ
とを特徴とする。
【0028】本発明に係る第1のものは、マイクなどの
音声入力部からの音声を認識する音声認識手段、人物か
らロボットへの操作をセンサ等を使って検知する操作情
報取得手段、人物を特定する人物特定手段、ロボット装
置の感情を制御する感情・性格制御手段を備える。ま
た、感情・性格制御手段は、人物と遭遇した際に、過去
のその人物とロボットとの操作・対話による感情値と現
在のロボット感情値とから新たなロボット感情値を生成
するように動作する。
【0029】また、本発明に係る第2のものは、上記の
感情・性格制御手段が人物と遭遇した際に、過去のその
人物とロボットとの対話・操作による感情値と現在の感
情値から目標となる感情値を生成し、現在のロボット感
情値から目標感情値へ一定時間内に推移させるように動
作する。
【0030】さらに、本発明に係る第3のものは、感情
・性格制御手段が生成した新たなロボット感情値を、過
去の人物による音声認識率や画像認識率などの認識結
果、あるいは利用者の家族属性(続柄)を参照して、補
正するように動作する。
【0031】最後に、本発明に係る第4のものは、あら
かじめ利用者情報に記載されたロボットと利用者の相関
関係を定義しておき、ロボットが人物遭遇時に定義され
た相関関係に基づいて行動する。
【0032】
【発明の実施の形態】次に、添付図面を参照しながら本
発明のロボット装置およびその制御方法に係る実施形態
を詳細に説明する。図1〜図18を参照すると本発明の
ロボット装置およびその制御方法に係る実施形態が示さ
れている。
【0033】[第1の実施形態]まず、本発明のロボッ
ト装置の動作状態の遷移について、図2を用いて説明す
る。ロボット装置の動作状態は、自分で障害物などを避
けながら自立的に行動する自律動作状態201と、人物
との対話や操作状態(対人物状態と呼ぶ)202の2つ
の状態に分類することができる。同図には3人の人物
A,B,Cが存在する場合が示されており、このため対
人物状態202は人物A,人物B,人物Cのそれぞれと
操作・対話を行っている状態202a(対人物A状
態)、202b(対人物B状態)、202c(対人物C
状態)から構成される。
【0034】ロボット装置は、音声認識や画像認識の結
果、あるいは人物の操作結果や対話結果により、状態2
01、202a、202b、202cに遷移する。例え
ば、ロボット装置が自律動作状態201で人物Aを特定
すると、状態202aへ遷移する(アーク203)。ま
た、対人物A状態202aから人物Aが「ばいばい」と
発話すれば、自律動作状態201へ遷移する(アーク2
04)。あるいは対人物A状態202aで人物Cが「お
〜い」と声をかけ、ロボット装置が人物Cを特定する
と、対人物C状態202cへ遷移する(アーク20
5)。
【0035】以下では、自律行動状態と各対人物状態を
合わせて、ロボット状態と呼ぶ。したがって、ロボット
状態が遷移(変化)したというのは、図2に記載のよう
な状態遷移が発生したことを示す。
【0036】次に、ロボット装置の感情モデルを図3を
用いて説明する。同図に記載のように、ロボット装置は
感情の種類として「怒り」、「悲しみ」、「喜び」を保
持している。本実施形態の特徴は、現在のロボット感情
値31と、遭遇した人物に対する過去のロボット感情値
32を参照して、新たなロボット感情値33を生成する
ことである(CASE1)。なお、同図記載のCASE
2については、後の実施形態にて説明する。
【0037】[構成の説明]図1には、本発明のロボッ
ト装置に係る第1の実施形態の構成が示されている。図
1を参照すると、本発明の第1の実施形態は、ロボット
装置からの音声合成発話を行う発話手段101、前進・
回転あるいは首振りなどロボット装置の駆動部を制御す
る行動手段102、ロボット装置の発話内容や行動を制
御するロボット制御手段103、人物の発話語句を解釈
する音声認識手段104、撫でる/叩くなどセンサから
の操作情報を取得する操作取得手段105、ロボット装
置内部の感情や性格を制御する感情・性格制御手段10
6、カメラからの画像により障害物や人物を識別する画
像認識手段107、人物を特定する人物特定手段10
8、及び記憶部120から構成されている。
【0038】記憶部120には、音声認識語句を登録し
た音声認識辞書121、現在のロボット感情値を保持し
ているロボット感情値122、過去の各ロボット状態及
び現在のロボット状態における操作履歴や対話履歴や動
作時間情報、及びロボット装置の感情値や対人度を保持
している状態管理テーブル123、ロボット装置の動作
や状態遷移を定義している動作制御テーブル(群)12
4、ロボット装置からの発話内容を定義している発話テ
ーブル125、障害物を識別するための背景や人物の顔
情報などを保持している画像認識辞書126、及び利用
する人物を定義した利用者情報127を保持している。
【0039】利用者情報127は本ロボット装置を使用
する際に事前に登録しておくものであり、図4にその一
例を示す。同図記載のように、利用者情報127は利用
者番号601、利用者氏名602、利用者愛称603、
利用者の顔を登録した画像認識辞書のファイル名60
4、利用者の属性605(この例では続柄)から構成さ
れている。利用者情報127は人物特定手段108が利
用者を特定するために使用したり、あるいは利用者を特
定した後に発話手段101が愛称603を発話する場合
に使用する。
【0040】これらの手段による概略動作を説明するた
めに、本ロボット装置の行動モデル及び行動を制御する
動作制御テーブル(群)124について説明する。図5
は行動モデルを示す概念図であり、自律動作状態におけ
る行動モデル210と対人物状態における行動モデル2
11に分類することができる。なお、この例では対人物
状態における行動モデル211は1種類だけであるが、
メモリなどに余裕があれば人物ごとに行動モデルを用意
してもよい。
【0041】同図において、各ノードはロボット装置の
姿勢など動作の状態を示し、各アークは次の姿勢へ遷移
する条件と遷移確率を保持している。つまり、一種の確
率オートマトンとして行動モデルが定義されている。例
えば、ノードA2は足も首も止まった状態を表す。A2
から出ている1つのアークは、「前進と発話すると10
0%の確率でノードA4へ遷移する」ことを示す。ある
いは別のアークは「頭を叩くと50%の確率で、首を上
下に振りながら、ノードA5へ遷移する」ことを示す。
【0042】各ノードにおける状態遷移の条件や遷移確
率及び遷移先を定義したものが、図6記載の動作制御テ
ーブル124である。動作制御テーブル124は遷移条
件として感情条件220とイベント条件221を保持し
ている。イベント条件221としては操作内容、音声認
識結果や画像認識の結果、あるいは時間に関する条件が
記載されており、感情条件とイベント条件の両方の条件
が成立した場合に、同じ行に記載されている遷移先に遷
移する。遷移先の情報としては、遷移確率と、遷移時の
アクション(動作や発話)と遷移先のノードが記載され
ている。例えば同図に示す222は、「怒り>80か
つ、その状態で頭を叩かれる」と、確率30%でノード
A3へ遷移することを示す。さらに、ノードが遷移する
際に、アクション1を実行する。
【0043】このように、本ロボット装置は行動モデル
に基づく動作制御テーブル124にしたがって、確率的
な状態遷移を行いながら、動作や発話を実行していく。
明らかに、動作制御テーブル124は行動モデルにおけ
るノードの数だけ存在することになる。つまり、本ロボ
ット装置のロボット制御手段103は、音声認識手段1
03や画像認識手段107や操作取得手段105、ある
いは感情・性格制御手段106や経過時間などにより、
図6記載の動作制御テーブル124の遷移条件が満足さ
れているかどうかを調べる。満足されていると、所定の
遷移確率で次の動作状態へ遷移する。この際、ロボット
制御手段103は、動作制御テーブル124に定義され
ている処理動作(アクション)を、行動手段102や発
話手段101を用いて実行する。
【0044】一方、感情・性格制御手段106は、動作
制御テーブル124とは独立して、操作取得手段105
や音声認識手段104、あるいは時間情報などを用いて
ロボット感情値122を更新していく。このように、行
動モデルと感情モデルとはそれぞれが独立のモデルとし
て動作する。例えば動作制御テーブル124には「時間
による状態遷移」は定義されていないが、感情モデルで
は時間の経過と共に感情値がおさまっていくケースなど
がある。但し、行動モデルと感情モデルとは、一般的に
はお互いに影響を及ぼしあうような構成となる(例:動
き出すと喜びが増える、悲しみが大きい場合にはあまり
動きたくない)。
【0045】さらに、操作情報や音声認識結果にしたが
って、現在のロボット状態における履歴情報である状態
管理テーブル123を更新していく。状態管理テーブル
123の構成については、動作の説明の部分で説明す
る。
【0046】さて、本ロボット装置が自律動作状態20
1から人物と遭遇すると、人物特定手段108は利用者
情報127を参照して人物を特定する。人物を特定する
には3種類の方法が考えられる。第1の方法は、人物の
顔画像を画像認識辞書126に登録しておき、画像認識
手段108を用いて画像認識辞書126に登録された顔
画像との照合を行なう方法である。第2の方法は、音声
認識手段104と音声認識辞書121とを用いて、利用
者の名前や愛称の発話から判断する方法である。第3の
方法は、ロボット装置にスイッチやボタンを設けて、押
下されたスイッチやボタン情報を操作取得手段105で
検知し、検知結果から利用者情報127を参照して人物
を特定する方法である。
【0047】人物を特定するなど、図2のようなロボッ
ト状態の変化が生じた場合には、過去及び現在のロボッ
ト状態における履歴情報を保持している状態管理テーブ
ル123を更新する。また、人物を特定した後は、感情
・性格制御手段106はその人物が過去にロボット装置
を操作した際のロボット感情値を状態管理テーブル12
3から取得し、取得した過去の感情と現在のロボット感
情値122から新たなロボット感情値を生成し、それを
ロボット感情値122に上書きする。
【0048】一方、ロボット装置の行動という観点で
は、ロボット状態が変化すると動作制御テーブル124
に記載されている人物遭遇後の動作状態(ノード)へ遷
移する。以後、新しいロボット感情値122を参照しつ
つ、遷移先の動作制御テーブル124の内容にしたがっ
て、ロボット装置の動作・発話などを制御していく。
【0049】[動作の説明]まず、第1の実施形態にお
ける感情変化モデルを図7を用いて説明する。同図は、
自律動作状態201あるいは対人物A状態202aにお
いて、本ロボット装置が人物Bと遭遇した場合の感情値
の変化を示したものである。人物Bと遭遇する直前のロ
ボット感情値が感情値301であり、過去の人物Bに対
するロボット感情値が感情値304である。人物Bと遭
遇した場合には両者の感情値を用いて、新たなロボット
感情値302を生成し、以降人物Bの操作や対話結果に
基づいてロボット感情値303へと遷移していくものと
する。
【0050】例えば、過去に人物Bからいじめられたこ
とが多いと、過去のロボット感情値304は「怒り」や
「悲しみ」が多い。従って、仮に現在のロボット感情値
301が「喜んでいる」状態であっても、人物Bと遭遇
することで喜びが半減する状態(新しいロボット感情値
302)になる。
【0051】次に、図8に示されたフローチャートを参
照しながら図1に示された本実施形態の全体の動作につ
いて詳細に説明する。
【0052】まず、ステップS51では、ロボット制御
手段103が音声認識手段101や操作取得手段105
を用いて、人物との対話結果や操作結果を取得する。ス
テップS52では、取得結果に基づき、動作制御テーブ
ル124に定義されている状態遷移や動作を実行すると
共に、感情・性格制御手段105がロボット感情値12
2を更新する。さらに、取得した対話結果や操作結果に
基づき、状態管理テーブル123に記載されている履歴
情報を更新する。
【0053】図9には、状態管理テーブル123の構成
が示されており、図2に示した各ロボット状態(3名の
利用者)における履歴情報を保持したものである。すな
わち、状態管理テーブル123は、対人物状態202
a、202b、202cでの履歴情報405,406,
407と、自律動作状態201での履歴情報408と、
現在のロボット状態における履歴情報409とから構成
されている。また、状態管理テーブル123は、各ロボ
ット状態における過去のロボット感情値401、対人度
(好感度や親密度)402、行動・対話の回数403、
及び動作時間などの時間情報404を記録している。
【0054】感情値401は、人物によりロボット装置
が操作され、その人物と別れた(=別のロボット状態へ
遷移した)際の、その人物に対するロボット感情値を保
持している。対人度402の好感度や親密度は、過去の
ほめられた(しかられた)回数や操作時間などによって
感情・性格制御手段106が決定するものであり、別の
ロボット状態へ遷移した際に、その人物への対人度情報
として保存される。行動・対話回数403は過去の対話
回数や行動回数の累計を示したものであり、時間情報4
04は累計の操作時間以外に、前回動作の日時や時間を
保持している。
【0055】また、状態管理テーブル123は、現在の
ロボット状態(自律動作状態201、または対人物状態
202a、202b、202c)での各種履歴情報を保
持しており、ロボット状態の遷移が起こった場合に、該
当するロボット状態の履歴情報を更新するために使用さ
れる。なお、現在のロボット装置の感情値409もこの
状態管理テーブル123には記録されているが、これは
ロボット感情値122と同じものであり、便宜上このテ
ーブルにも記載している。
【0056】ステップS52における状態管理テーブル
123の更新とは、操作内容や発話内容にしたがって、
現在ロボット状態における行動・対話の回数409cや
対人度409bを更新することを意味する。
【0057】次に、ステップS53では、以下に示す3
種類のロボット状態の遷移があったかどうかをロボット
制御手段103や人物特定手段108を用いて判断す
る。なお、動作制御テーブル124には、ロボット状態
の変化(人物と別れたり、人物と遭遇する)に対する所
定条件と遷移先が定義されているものとする。ロボット
状態の変更がない場合には、ステップS52〜S53の
処理を繰り返す。
【0058】ステップS53の分類: (A)対人物状態から別の対人物状態への遷移 (B)自律行動状態から対人物状態への遷移 (C)対人物状態から自律行動状態への遷移 そこで、以下では、この3つのケースにつき、ステップ
S54、S55の処理について説明する。
【0059】(A)対人物状態から別の対人物状態 ステップS53で直前の人物と異なる人物と遭遇した場
合には、ステップS54で現在までのロボット状態にお
ける履歴情報を元に、状態管理テーブル123の内容を
更新する。具体的には以下の処理を行う。 ・現在ロボット感情値409aを状態管理テーブル12
3の直前の該当人物の欄の感情値401へ上書きする。 ・対人度409bについても、該当の欄の対人度402
へ上書きする。 ・行動・対話回数409cは該当人物欄の行動・対話回
数403の数字に加算する。 ・時間情報409dは、累計時間は合計するが、前回完
了日時や前回操作時間は現在の数値をそのまま該当人物
欄へ上書きする。 ・現在ロボット状態の欄409に、遭遇した人物の履歴
情報(感情値401、対人度402)を書き込む(な
お、現在ロボット状態の行動・対話409cはゼロクリ
アされる)。
【0060】ステップS55では、遭遇した人物に対す
る過去のロボット感情値を状態管理テーブル123から
取得し、現在のロボット感情値122とあわせて新たに
ロボット感情値を計算し、ロボット感情値122、40
9aを更新する。
【0061】ここで、ロボット感情値を算出する計算式
を以下に示す。 E2=kE0+(1−k)E1・・・・(1) この式(1)は、人物遭遇直前の現在感情値E0と過去
のロボット感情値E1を重み係数k(0〜1)を用いて
線形計算するものである。kの値をどのようにとるかに
よって、図10に示される新ロボット感情値332を現
在感情値331に近い(kが大きい)ようにするか、あ
るいは過去のロボット感情値に近い(kが小さい)よう
にするのかを制御することができる。
【0062】重み係数kの制御方法としては、図11記
載の係数制御ルール340がある。同ルールはどの場合
に重み係数kを大きくして、新ロボット感情値を現在ロ
ボット感情値に近づけるかを記載したものである。以下
に、各ルールについて説明する。 ルール1:前回の同一人物による操作日時が古いほど、
現在感情値に近くするものである。時間がたてばたつほ
ど、ロボット装置のその人に対する印象が薄くなるよう
なモデルとして想定できる。 ルール2:前回の同一人物による操作時間が短い場合
に、現在ロボット感情値に近くするものである。短い時
間なので印象が深まっていないというモデルが想定でき
る。 ルール3:ルール2に近いが、好感度・親密度が小さい
場合には、遭遇した人物による現在のロボット感情への
影響度が小さいと考えたモデルである。 ルール4:起動後間もない場合には、まだロボット装置
が完全に目覚めていないため、過去の状況に対する記憶
力(影響度)がすこし弱くなっているモデルである。 以上記載のルールにしたがって、重み係数kを制御す
る。各ルールは1種類のみを使用してもよいし、各ルー
ルを組み合わせて重み係数kを決定しても良い。あるい
は、利用者ごとに使用するルールを設定することも可能
である。
【0063】また、対象となるロボット装置の感情の種
類としては、怒り、悲しみ、喜びのすべての感情種類を
想定しているが、感情を抑える(なだめる)という意味
で、最大あるいは最小の感情値を持つ感情種類を対象と
したり、ある閾値以上あるいは以下の感情種類を対象と
する場合も考えられる。さらに、感情の種類に応じて異
なる重み係数を導入したり、その適用ルールを変更して
も良い。
【0064】また、上記の式(1)は、簡単のために線
形モデルを採用したが、現在ロボット感情値と過去ロボ
ット感情値に対する2個の感情値に対する重みづけを行
うことが主旨であるため、本主旨に合致する他の計算モ
デルを採用しても良い。
【0065】上記の方法によってステップS55でロボ
ット感情値122を変更し、新しいロボット状態におけ
る操作・対話を行っていく。
【0066】(B)自律動作状態から対人物状態への遷
移 自律動作状態から対人物状態へ遷移する場合では、ステ
ップS54での状態管理テーブル123の更新は対人物
状態の欄ではなく、自律動作状態の欄(408)の履歴
情報を更新する。また、ステップS55での新しいロボ
ット感情値の再計算方法は上記(A)の場合とほぼ同様
である。
【0067】一般的には自律動作状態では感情の大幅な
起伏は発生しないが、エンターテイメント性を高めるた
めに、遭遇人物との過去のロボット感情値をより強く反
映させる方法がある。一方で、感情の連続性という観点
から、現在のロボット感情値に近い新たなロボット感情
値にするという方法も考えられる。つまり、重み係数k
の値は上記(A)のルールによる値を、ロボット装置の
性格付けの方向で補正して用いる。
【0068】(C)対人物状態から自律動作状態への遷
移 対人物状態から自律動作状態へ遷移する場合は、ステッ
プS54の処理は(A)の場合と同様である。次に、ス
テップS55のロボット装置の感情値の再計算は、対人
物状態で感情の起伏があったとしても、一般的に自律状
態では操作や話しかけが少ないために、時間と共に一定
の感情範囲内におさまる場合が多い。その場合には、状
態遷移時に特別な感情生成を行なう必要がないため、ス
テップS55をスキップすることになる。
【0069】一方で、直前の対人物状態との対話、操作
時間で、現在のロボット感情の「引きづり度」を制御し
たいという要望もある。この場合には、前記(A)記載
のルール2に準拠したモデルが考えられる。例えば、次
のようなルールを採用する。 ルール5:重み係数kは0.8〜1.0の間とする(現
ロボット感情に近い)。kは直前の対人物状態での操作
時間が長いほど大きく設定する。なお、式(1)におけ
るE1は前回の自律動作時のロボット感情値を採用す
る。
【0070】以上説明したように、第1の実施の形態で
は、ロボット状態が変化した場合に、現在のロボット感
情値と過去の同一ロボット状態におけるロボット感情値
を重み付け係数kを用いて、新しいロボット感情値を生
成する。重み係数kの値は、ロボット状態変化のパター
ン、過去の操作・対話の履歴や時間、あるいは性格付け
などに基づく係数設定則(ルール)を用いて決定する。
その結果、エンターテイメント性の高い感情変化を実現
することができる。
【0071】[第2の実施形態]次に、本発明の第2の
実施形態について図面を参照して詳細に説明する。上述
した第1の実施形態では、人物と遭遇した際のロボット
感情値を直ちに計算して置き換えを行なっていたが、第
2の実施形態では、一定の時間をかけて目標となる感情
値へ移行するように構成する。以降では、人物遭遇後の
一定時間内の処理を過渡的処理、一定時間後の処理を通
常処理と呼ぶ。
【0072】図12は、第2の実施形態におけるロボッ
ト感情値の遷移を概念的に示す図である。図12に示さ
れるように、現在のロボット感情値311と過去のロボ
ット感情値314とから目標となるロボット感情値31
2を生成する。ロボット装置の感情値は現在感情値31
1から目標ロボット感情値312へ徐々に移行すること
が期待されるが、実際には途中の対話や操作結果によ
り、目標感情値312と異なるロボット感情値315へ
遷移していく。
【0073】第2の実施形態による動作手順について、
図13に示されたフローチャートを参照しながら説明す
る。第2の実施形態の処理手順は、上述した第1の実施
形態の処理手順に、ステップS61の過渡的感情処理が
加わると共に、ステップS66のロボット感情値の再計
算の処理が一部変更になる。
【0074】第2の実施形態は、ロボット状態が変化し
た場合に、ステップS66で新ロボット感情値(第1の
実施形態のステップS55で算出したもの)を算出す
る。この新ロボット感情値を目標感情値として使用し、
現在ロボット感情値自体は変更しない。また、ステップ
S66において、単位時間当たりの感情変化量を計算す
る(詳細については後述)。そして、図12に示された
過渡的処理期間内だけステップS61の感情処理を行
い、現在のロボット感情値をステップS66で算出した
目標感情値に近づける。なお、図14には、図13に示
されたフローチャートのステップS61の詳細な処理手
順が示されている。
【0075】この感情値を遷移させる最も簡単な方法
は、ステップS66で、現ロボット感情値と算出した目
標ロボット感情値との変化分を過渡的処理期間(t1)
で割り、1単位時間における感情変化分を算出する。そ
して、図14のフローチャートに示されるように、過渡
的処理期間内においては(ステップS71/YES)、
時間の推移分と上記1単位間における感情変化分の乗算
を行い、現在ロボット感情値に加算(ステップS72)
していく方法である。
【0076】図15には、過渡的処理期間における2種
類の感情遷移方法が示されている。上述の方法は、現在
ロボット感情値350から目標感情値351に線形的に
近づくモデル352を示している。一方、同図353記
載のように、感情変化量を時間とともに減少させる方法
もある。これは、人物遭遇直後には過去の印象による感
情変化が大きいが、時間がたつほどに感情変化量はおさ
まってくるモデルと言える。この場合も、各時間推移に
おける感情変化量をステップS66で計算しておき、ス
テップS61では現在の推移時間における前記感情変化
量を現在のロボット感情値に合算して、新しいロボット
感情値を生成する。
【0077】以上のような手順により過渡的処理期間に
おけるロボット感情値を計算し、記憶部120内のロボ
ット感情値122を更新する。その後、ロボット状態が
変更となるまで、ステップS62,S63により通常の
操作・対話による履歴更新や感情更新処理を行う。ステ
ップS63による感情更新処理が入るために、図12記
載のような感情遷移モデルが実現されることになる。
【0078】第2の実施形態のような構成をとれば、感
情値の連続性を損なうことなく、一定時間内に過去の人
物の感情値を反映させた目標感情値へ遷移することが期
待されるとともに、新たな操作結果や対話結果もロボッ
ト感情値に反映させることができる。
【0079】なお、第2の実施形態の変形例として、ス
テップS61において過渡的処理期間(t1)以内に、
図16記載の操作や発話が行われた場合に、人物遭遇前
の直前のロボット感情値に戻す方法も考えられる。これ
は、怒りが高いなど一定の感情値以上のところ(701
の感情種類)から、感情がおさまる方向に遷移している
のに、特定の操作や対話(702の操作・対話)によ
り、いわゆる「元のもくあみ」となることを示してい
る。図7及び12の感情変化モデルにおける、逆戻り3
05や316はこの際の感情遷移を示している。
【0080】[第3の実施形態]第3の実施形態は、図
17のフローチャートのステップS86に記載している
ように、ロボット状態の遷移により計算された新たなロ
ボット感情値に対して補正を行うものである。補正を行
う方法を以下に示す。 A)人物単位の音声認識率や画像認識率の統計情報を状
態管理テーブル123に保持しておき、認識率が悪い人
物と遭遇した場合に、例えば喜びの度合いを減少させ
る。 B)利用者情報127の中の、属性情報605を参照
し、例えば母親であれば悲しみの度合いを減少させる。
あるいは、甘えという感情を保持しているロボット装置
であれば、甘えの感情を増大させる。
【0081】上述した各実施形態では、新たなロボット
感情値を計算する場合に、過去のロボット感情値を参照
していたが、過去のロボット感情値の代わりにロボット
装置の対人度(好感度や親密度)という尺度を用いても
良い。前述のように好感度や親密度は、過去の操作結果
や操作時間累計に関する一種の統計情報であるため、対
人関係という意味では過去の感情値よりも正確度が高
い。この方法では、例えば好感度が高いと怒りを抑える
とともに喜びを向上させ、親密度が高いと悲しみを抑え
るような計算を行って、新しいロボット感情値を生成さ
せる。図3の感情モデルにおけるCASE2がこれにあ
たる。
【0082】この場合も、対人度を現在のロボット感情
値にどの程度影響させるかという係数を設定し、この係
数に対しても前述した重み係数kの設定ルールと同様な
ルールを導入して制御する。さらに、新たな感情値を計
算する別な方法として、対人度ではなく、過去の操作・
対話の累計情報(状態管理テーブル123の行動・対話
403)を参照する方法も考えられる。
【0083】以上の実施の形態においては、新しいロボ
ット感情値の計算モデルや遷移モデルを記載したが、ロ
ボット感情値は直接ロボット装置の行動に反映される。
例えば、怒りの感情がおさまるような新たな感情値が生
成されれば、「ふ〜。気持ちが落ち着いてきた」と発話
したり、じたばたするような動作からスムーズに動くよ
うな動作に変わる。したがって、ロボット装置の感情値
の変化・遷移に伴う行動も本発明の特徴の一つである。
【0084】[第4の実施形態]第4の実施形態として
は、図17のステップS86において、感情値の補正を
行うのではなく、利用者情報を用いてロボット装置の行
動を特徴づけるものである。例えば、図4の利用者情報
127において、各利用者とロボット装置との関係を6
06のように定義しておく。606の例では、ロボット
装置の上位者(親)とロボット装置の中位者(仲間・友
人)と下位者(弟・妹、あるいは後輩)の3種類に分類
しておき、各利用者がロボット装置と遭遇した場合のふ
るまいを変更するものである。
【0085】図18のフローチャートは図17のステッ
プS86の処理の具体例である。まず、ステップS91
では直前のロボット感情値が一定値未満の場合には、特
別な行動はせずに戻る。感情がたかぶっている場合など
ロボット感情値が一定値以上の場合には(ステップS9
1/YES)、ステップS92で利用者とロボット装置
の関係を調べる。親などの上位利用者の場合には(ステ
ップS92/YES)、直前の人物による操作や発話を
訴える行動を起こす(ステップS93)。中位または下
位の利用者の場合には、現在のロボット装置の心情を話
しかけるような行動を起こす(ステップS94)。
【0086】前述の例は、ロボット装置の感情値が一定
値以上の場合のふるまいを記載したものであるが、感情
値にかかわらず利用者との関係情報により人物遭遇時の
ふるまいを変更しても良い。例えば、中位(友人・仲
間)の利用者と会うと「おっす。たまには一緒に遊ぼう
か?」と発話し、下位(弟・妹、後輩)の利用者に会う
と「ちゃんと勉強しているか?」などお兄さんぶった発
話を行う場合などが考えられる。
【0087】さらに、人物とロボット装置との関係では
なく、遭遇した人物間の相関情報を用いて行動を変化さ
せても良い。例えば、直前にロボット装置を操作した人
物より、新たに遭遇した人物の方が「弱い」という関係
があれば、新たな人物に対して「(直前の人物ににほめ
られたよ/かわいがってくれたよ」と誇らしげに発話・
行動するケースが相当する。
【0088】なお、上述した実施形態は本発明の好適な
実施の形態である。但し、これに限定されるものではな
く、本発明の要旨を逸脱しない範囲内において種々変形
実施が可能である。例えば、上記説明では、第2〜第4
の実施形態をそれぞれ別々の実施例として説明してきた
が、これらを組み合わせることも可能である。
【0089】
【発明の効果】以上の説明より明らかなように本発明に
よれば、よりパーソナルなロボット装置を実現できる。
その理由は、人物単位での操作履歴や対話履歴及びその
際のロボット感情値を保存しておき、次回人物と遭遇し
た場合には過去の履歴情報や感情情報に基づいて新たな
感情を生成するからである。したがって、本ロボット装
置がやさしく操作・対話を行ってくれる人に遭遇すれ
ば、怒りや悲しみがうすらぎ、喜びの感情が増えた感情
になる。逆に、いつも頭を叩くような人に遭遇すれば、
たとえ本ロボット装置が喜んでいる状態であっても怒り
が増えてくる。したがって、自分だけのロボットという
ような、パーソナル性能を向上させたロボット装置を実
現することが可能である。
【0090】また、エンターテイメント性を高めること
が可能となる。その理由は、人間社会でも発生するよう
な感情変化を実現しているからである。本構成のロボッ
ト装置を用いることにより、「泣いた子がすぐ笑った」
や「時間とともに、気持ちが落ち着いてきた」とか「元
のもくあみになる」という状況を実現することができる
からである。さらに、過去の感情の影響度をさまざまな
形で提供・選択することにより、ロボット装置の性格づ
けによるエンターテイメント性をさらに高めるという効
果もある。
【0091】また、ファミリー性を高めることができ
る。その理由は、家族などの利用者とロボットとの関係
を定義し、その関係に基づいてロボット装置が動作・対
話を行うため、利用者がロボット装置をあたかも家族の
一員のような形で利用できるからである。
【図面の簡単な説明】
【図1】本発明に係る実施形態の構成を示すブロック構
成図である。
【図2】ロボット装置の状態遷移図である。
【図3】感情モデル及び感情変化のモデル図である。
【図4】利用者情報に登録されるテーブルの一例を示す
図である。
【図5】ロボット装置の状態遷移を表す図である。
【図6】動作制御テーブルの構成を示す図である。
【図7】感情モデル及び感情変化のモデル図である。
【図8】第1の実施形態の動作手順を示すフローチャー
トである。
【図9】状態管理テーブルの構成を示す図である。
【図10】感情モデル及び感情変化のモデル図である。
【図11】重み係数を制御するための適用ルールを説明
するための図である。
【図12】感情モデル及び感情変化のモデル図である。
【図13】第2の実施形態の動作手順を表すフローチャ
ートである。
【図14】第2の実施形態の動作手順を表すフローチャ
ートである。
【図15】感情モデル及び感情変化のモデル図である。
【図16】第2の実施形態における感情感情処理テーブ
ルの構成を表す図である。
【図17】第3、第4の実施形態の動作手順を表すフロ
ーチャートである。
【図18】第4の実施形態の動作手順を表すフローチャ
ートである。
【図19】従来技術における感情値の変化を表す図であ
る。
【符号の説明】
101 発話手段 102 行動手段 103 ロボット制御手段 104 音声認識手段 105 操作取得手段 106 感情・性格制御手段 107 画像認識手段 108 人物判定手段 120 記憶部 121 音声認識辞書 122 ロボット感情値 123 状態管理テーブル 124 動作制御テーブル(群) 125 発話テーブル 126 画像認識辞書 127 利用者情報
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA02 DC28 DF03 DF33 EB00 ED01 ED37 ED47 ED52 EF16 EF23 EF29 EF50 3C007 AS36 KS33 KS39 KT01 KX02 MT14 WB14 WB19 WB24 WB25 WC07

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 人物を特定する人物特定手段と、 利用者に関する情報、利用者間の相関関係、及びロボッ
    ト装置と利用者との関係を定義した利用者情報を記憶す
    る記憶手段と、 人物遭遇時に、前記人物特定手段により人物を特定し、
    該特定した人物と前記利用者情報に基づいた発話を行な
    う発話手段、及び/または前記利用者情報に基づた行動
    を行なう行動手段と、 を有することを特徴とするロボット装置。
  2. 【請求項2】 人物を特定する人物特定手段と、 人物の発話内容を解釈する音声認識手段と、 人物より入力された操作情報を取得する操作情報取得手
    段と、 前記音声認識手段による人物の発話内容、および/また
    は操作情報取得手段により取得した操作情報からロボッ
    ト装置の感情であるロボット感情値を人物毎に生成する
    感情・性格制御手段と、 前記感情・性格制御手段により生成されたロボット感情
    値を人物毎に記憶した記憶手段と、を有し、 前記性格・感情制御手段は、人物に遭遇した際に、前記
    記憶手段に記憶された該当人物に対する過去のロボット
    感情値と、該当人物と遭遇する直前のロボット感情値と
    から新たなロボット感情値を生成することを特徴とする
    ロボット装置。
  3. 【請求項3】 前記感情・性格制御手段は、 前記過去のロボット感情値と前記直前のロボット感情値
    とに所定の重みを付けて新たなロボット感情値を生成す
    ることを特徴とする請求項2記載のロボット装置。
  4. 【請求項4】 前記感情・性格制御手段は、 過去に操作された操作日時と現在日時との差分、過去に
    操作された操作時間、操作や対話の統計情報から導かれ
    る親密度・好感度からなる対人度、前記ロボット装置の
    起動時間からの経過時間の何れか一つまたは複数の条件
    を基にして前記過去のロボット感情値と前記直前のロボ
    ット感情値とに所定の重みを付けることを特徴とする請
    求項3記載のロボット装置。
  5. 【請求項5】 前記感情・性格制御手段は、 前記過去のロボット感情値と前記直前のロボット感情値
    とに付ける重みの基準となる前記条件を利用者毎に変更
    して新たなロボット感情値を生成することを特徴とする
    請求項4記載のロボット装置。
  6. 【請求項6】 前記感情・性格制御手段は、 前記人物特定手段による人物の認識率、または前記音声
    認識手段による音声の認識率によって生成した前記新た
    なロボット感情値を補正することを特徴とする請求項2
    から5の何れか一項に記載のロボット装置。
  7. 【請求項7】 利用者に関する情報、利用者間の相関関
    係、及びロボット装置と利用者との関係を定義した利用
    者情報を前記記憶手段は記憶し、 前記感情・性格制御手段は、生成した前記新たなロボッ
    ト感情値を前記利用者情報によって補正することを特徴
    とする請求項2から6の何れか一項に記載のロボット装
    置。
  8. 【請求項8】 前記感情・性格制御手段は、 人物と遭遇し新たなロボット感情値を生成すると、ロボ
    ット感情値が時間の推移と共に該作成したロボット感情
    値に近づくように制御することを特徴とする請求項2か
    ら7の何れか一項に記載のロボット装置。
  9. 【請求項9】 前記記憶手段は、ロボット装置の感情毎
    に、前記ロボット装置の感情を逆なでする用語、操作を
    登録した感情処理テーブルを記憶し、 前記感情・性格制御手段は、人物遭遇後の一定期間内に
    操作情報取得手段もしくは前記音声認識手段によって前
    記感情処理テーブル記載の対話や操作が行なわれたこと
    を検知すると、ロボット感情値を人物遭遇前の状態に戻
    す制御を行なうことを特徴とする請求項2から8の何れ
    か一項に記載のロボット装置。
  10. 【請求項10】 人物を特定する人物特定工程と、 利用者に関する情報、利用者間の相関関係、及びロボッ
    ト装置と利用者との関係を定義した利用者情報に基づい
    た発話を前記特定した人物と行なう発話工程、及び/ま
    たは前記利用者情報に基づいた行動を行なう行動工程
    と、 を有することを特徴とするロボット装置の制御方法。
  11. 【請求項11】 人物を特定する人物特定工程と、 人物の発話内容を解釈する音声認識工程と、 人物より入力された操作情報を取得する操作情報取得工
    程と、 前記音声認識工程による人物の発話内容、および/また
    は操作情報取得工程により取得した操作情報からロボッ
    ト装置の感情であるロボット感情値を人物毎に生成する
    第1のロボット感情値生成工程と、 人物に遭遇した際に、該当人物に対する過去の前記ロボ
    ット感情値と、該当人物と遭遇する直前のロボット感情
    値とから新たなロボット感情値を生成する第2のロボッ
    ト感情値生成工程と、を有することを特徴とするロボッ
    ト装置の制御方法。
  12. 【請求項12】 前記第2のロボット感情値生成工程
    は、 前記過去のロボット感情値と前記直前のロボット感情値
    とに所定の重みを付けて新たなロボット感情値を生成す
    ることを特徴とする請求項11記載のロボット装置の制
    御方法。
  13. 【請求項13】 前記第2のロボット感情値生成工程
    は、 過去に操作された操作日時と現在日時との差分、過去に
    操作された操作時間、操作や対話の統計情報から導かれ
    る親密度・好感度からなる対人度、前記ロボット装置の
    起動時間からの経過時間の何れか一つまたは複数の条件
    を基にして前記過去のロボット感情値と前記直前のロボ
    ット感情値とに所定の重みを付けることを特徴とする請
    求項12記載のロボット装置の制御方法。
  14. 【請求項14】 前記第2のロボット感情値生成工程
    は、 前記過去のロボット感情値と前記直線のロボット感情値
    とに付ける重みの基準となる前記条件を利用者毎に変更
    して新たなロボット感情値を生成することを特徴とする
    請求項13記載のロボット装置の制御方法。
  15. 【請求項15】 前記第2のロボット感情値生成工程
    は、 前記人物特定工程による人物の認識率、または前記音声
    認識工程による音声の認識率によって生成した前記新た
    なロボット感情値を補正することを特徴とする請求項1
    1から14の何れか一項に記載のロボット装置の制御方
    法。
  16. 【請求項16】 前記第2のロボット感情生成工程は、 利用者に関する情報、利用者間の相関関係、及びロボッ
    ト装置と利用者との関係を定義した利用者情報によっ
    て、生成した前記新たなロボット感情値を補正すること
    を特徴とする請求項11から15の何れか一項に記載の
    ロボット装置の制御方法。
  17. 【請求項17】 前記第2のロボット感情値生成工程
    は、 人物と遭遇し新たなロボット感情値を生成すると、ロボ
    ット感情値が時間の推移と共に該作成したロボット感情
    値に近づくように制御する工程であることを特徴とする
    請求項11から16の何れか一項に記載のロボット装置
    の制御方法。
  18. 【請求項18】 前記第2のロボット感情値生成工程
    は、 ロボット装置の感情毎に、前記ロボット装置の感情を逆
    なでする用語、操作を登録した感情処理テーブルを参照
    して、人物遭遇後の一定期間内に操作情報取得工程もし
    くは前記音声認識工程によって前記感情処理テーブル記
    載の対話や操作が行なわれたことを検知すると、ロボト
    感情値を人物遭遇前の状態に戻す制御を行なうことを特
    徴とする請求項11から17の何れか一項に記載のロボ
    ット装置の制御方法。
JP2001318362A 2001-10-16 2001-10-16 ロボット装置及びその制御方法 Expired - Fee Related JP4266552B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001318362A JP4266552B2 (ja) 2001-10-16 2001-10-16 ロボット装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001318362A JP4266552B2 (ja) 2001-10-16 2001-10-16 ロボット装置及びその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008325131A Division JP2009072910A (ja) 2008-12-22 2008-12-22 ロボット装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2003117866A true JP2003117866A (ja) 2003-04-23
JP4266552B2 JP4266552B2 (ja) 2009-05-20

Family

ID=19136073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001318362A Expired - Fee Related JP4266552B2 (ja) 2001-10-16 2001-10-16 ロボット装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP4266552B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP2005110726A (ja) * 2003-10-02 2005-04-28 Toshiba Corp 学習装置及びその方法
KR100681919B1 (ko) 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JPWO2005062294A1 (ja) * 2003-12-05 2007-07-19 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法
JPWO2005062295A1 (ja) * 2003-12-05 2007-07-19 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置及び機器制御方法
WO2009107185A1 (ja) * 2008-02-25 2009-09-03 パイオニア株式会社 車載ロボット
KR100953407B1 (ko) 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2011115932A (ja) * 2009-12-02 2011-06-16 Phison Electronics Corp エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
US8060389B2 (en) 2000-06-07 2011-11-15 Apple Inc. System and method for anonymous location based services
US8538685B2 (en) 2000-06-07 2013-09-17 Apple Inc. System and method for internet connected service providing heterogeneous mobile systems with situational location relevant content
JP2016036883A (ja) * 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016177441A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177440A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016197386A (ja) * 2015-04-06 2016-11-24 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
JP2018021953A (ja) * 2016-08-01 2018-02-08 トヨタ自動車株式会社 音声対話装置および音声対話方法
WO2018135276A1 (ja) * 2017-01-19 2018-07-26 シャープ株式会社 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
WO2018203501A1 (ja) * 2017-05-02 2018-11-08 株式会社ソニー・インタラクティブエンタテインメント オブジェクト制御システムおよびオブジェクト制御方法
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
WO2019066110A1 (ko) * 2017-09-29 2019-04-04 주식회사 토룩 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2020180051A1 (en) * 2019-03-07 2020-09-10 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
JP2020151070A (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 ロボット及びロボットの制御方法
CN114461062A (zh) * 2014-11-07 2022-05-10 索尼公司 信息处理系统、控制方法和计算机可读存储介质
EP4407513A1 (en) 2023-01-25 2024-07-31 Casio Computer Co., Ltd. Robot, robot control method, and program

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538685B2 (en) 2000-06-07 2013-09-17 Apple Inc. System and method for internet connected service providing heterogeneous mobile systems with situational location relevant content
US8060389B2 (en) 2000-06-07 2011-11-15 Apple Inc. System and method for anonymous location based services
US7209803B2 (en) 2003-02-17 2007-04-24 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7187998B2 (en) 2003-02-17 2007-03-06 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
US7191035B2 (en) 2003-06-02 2007-03-13 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7206668B2 (en) 2003-06-02 2007-04-17 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
US7187999B2 (en) 2003-06-02 2007-03-06 Matsushita Electric Industrial Co., Ltd. Article handling system and method and article management system and method
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2005110726A (ja) * 2003-10-02 2005-04-28 Toshiba Corp 学習装置及びその方法
JPWO2005062295A1 (ja) * 2003-12-05 2007-07-19 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置及び機器制御方法
JPWO2005062294A1 (ja) * 2003-12-05 2007-07-19 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置、データ構造及び機器制御方法
JP2009288815A (ja) * 2003-12-05 2009-12-10 Kenwood Corp 機器制御装置、音声認識装置、エージェント装置、機器制御方法及びプログラム
JP4516919B2 (ja) * 2003-12-05 2010-08-04 株式会社ケンウッド 機器制御装置、機器制御方法及びプログラム
JP4516918B2 (ja) * 2003-12-05 2010-08-04 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置、機器制御方法及びプログラム
US7822614B2 (en) 2003-12-05 2010-10-26 Kabushikikaisha Kenwood Device control, speech recognition device, agent device, control method
KR100681919B1 (ko) 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 주행로그 기반의 모바일 로봇 성격 표현 방법과 이를 위한모바일 로봇 장치
WO2007046613A1 (en) * 2005-10-17 2007-04-26 Sk Telecom Co., Ltd. Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor
WO2009107185A1 (ja) * 2008-02-25 2009-09-03 パイオニア株式会社 車載ロボット
JPWO2009107185A1 (ja) * 2008-02-25 2011-06-30 パイオニア株式会社 車載ロボット
KR100953407B1 (ko) 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2011115932A (ja) * 2009-12-02 2011-06-16 Phison Electronics Corp エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
JP2016036883A (ja) * 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN114461062A (zh) * 2014-11-07 2022-05-10 索尼公司 信息处理系统、控制方法和计算机可读存储介质
JP2016177440A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016177441A (ja) * 2015-03-19 2016-10-06 ヤフー株式会社 情報処理装置及び方法
JP2016197386A (ja) * 2015-04-06 2016-11-24 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
JP2018021953A (ja) * 2016-08-01 2018-02-08 トヨタ自動車株式会社 音声対話装置および音声対話方法
US10269349B2 (en) 2016-08-01 2019-04-23 Toyota Jidosha Kabushiki Kaisha Voice interactive device and voice interaction method
WO2018135276A1 (ja) * 2017-01-19 2018-07-26 シャープ株式会社 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
US11400601B2 (en) 2017-01-19 2022-08-02 Sharp Kabushiki Kaisha Speech and behavior control device, robot, storage medium storing control program, and control method for speech and behavior control device
JPWO2018135276A1 (ja) * 2017-01-19 2019-11-07 シャープ株式会社 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
WO2018203501A1 (ja) * 2017-05-02 2018-11-08 株式会社ソニー・インタラクティブエンタテインメント オブジェクト制御システムおよびオブジェクト制御方法
JP2018187712A (ja) * 2017-05-02 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント オブジェクト制御システムおよびオブジェクト制御方法
US11759959B2 (en) 2017-05-02 2023-09-19 Sony Interactive Entertainment Inc. Object control system and object control method
CN109108960B (zh) * 2017-06-23 2022-03-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US10836041B2 (en) 2017-06-23 2020-11-17 Casio Computer Co., Ltd. More endearing robot, robot control method, and non-transitory recording medium
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
WO2019066110A1 (ko) * 2017-09-29 2019-04-04 주식회사 토룩 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN113543939A (zh) * 2019-03-07 2021-10-22 三星电子株式会社 电子装置及其控制方法
WO2020180051A1 (en) * 2019-03-07 2020-09-10 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11899467B2 (en) 2019-03-07 2024-02-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
JP2020151070A (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 ロボット及びロボットの制御方法
CN111736585A (zh) * 2019-03-19 2020-10-02 松下知识产权经营株式会社 机器人以及机器人的控制方法
JP7273566B2 (ja) 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
US11969876B2 (en) 2019-03-19 2024-04-30 Panasonic Intellectual Property Management Co., Ltd. Robot and control method of robot
EP4407513A1 (en) 2023-01-25 2024-07-31 Casio Computer Co., Ltd. Robot, robot control method, and program

Also Published As

Publication number Publication date
JP4266552B2 (ja) 2009-05-20

Similar Documents

Publication Publication Date Title
JP2003117866A (ja) ロボット装置及びその制御方法
JP7317529B2 (ja) サウンドデータを処理するシステム、及びシステムの制御方法
JP6601069B2 (ja) 対話制御装置、対話制御方法及びプログラム
JP5852930B2 (ja) 入力文字推定装置およびプログラム
US7065711B2 (en) Information processing device and method, and recording medium
WO2017168870A1 (ja) 情報処理装置及び情報処理方法
CN111368609A (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
JP3678421B2 (ja) 音声認識装置及び音声認識方法
CN107825429B (zh) 对话装置和方法
JP7352115B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム
US20160004299A1 (en) Systems and methods for assessing, verifying and adjusting the affective state of a user
CN110265021A (zh) 个性化语音交互方法、机器人终端、装置及可读存储介质
CN111831798A (zh) 信息处理方法、装置、电子设备及计算机可读存储介质
JP2009072910A (ja) ロボット装置及びその制御方法
US10836044B2 (en) Robot control device and robot control method
JPWO2019160105A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
WO2019160090A1 (ja) 非言語情報生成装置、方法、及びプログラム
KR20200059112A (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
JP2008125815A (ja) 会話ロボットシステム
JP2016090775A (ja) 応答生成装置、応答生成方法およびプログラム
JP7063230B2 (ja) コミュニケーション装置およびコミュニケーション装置の制御プログラム
JP2009026125A (ja) 感情分析デバイス、感情分析方法およびプログラム
CN113539261A (zh) 人机语音交互方法、装置、计算机设备和存储介质
JP2021113835A (ja) 音声処理装置および音声処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070220

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070322

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070501

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070608

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080922

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees