JP2001212783A - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法

Info

Publication number
JP2001212783A
JP2001212783A JP2000028947A JP2000028947A JP2001212783A JP 2001212783 A JP2001212783 A JP 2001212783A JP 2000028947 A JP2000028947 A JP 2000028947A JP 2000028947 A JP2000028947 A JP 2000028947A JP 2001212783 A JP2001212783 A JP 2001212783A
Authority
JP
Japan
Prior art keywords
emotion
impression
pet robot
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000028947A
Other languages
English (en)
Inventor
Atsuo Hiroe
厚夫 廣江
Hironaga Tsutsumi
洪長 包
Hideki Kishi
秀樹 岸
Masanori Omote
雅則 表
Kazuhiko Tajima
和彦 田島
Masatoshi Takeda
正資 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000028947A priority Critical patent/JP2001212783A/ja
Publication of JP2001212783A publication Critical patent/JP2001212783A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】本発明は、アミューズメント性を格段と向上し
得るロボット装置及びその制御方法を実現しようとする
ものである。 【解決手段】外部状況に応じて変化させる感情を有し、
当該感情の状態に応じた行動を生成するロボット装置及
びその制御方法において、外部状況を検出した後、当該
検出結果に基づいて、外部状況に対する印象を生成し、
さらに当該生成された印象に基づいて感情を変化させる
ようにしたことにより、外部状況に対する印象に基づい
て、新たな感情をあたかも本物の動物や人間がもつ感情
のように変化させることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
【0002】
【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願特
許出願人から提案及び開発されている。かかるペットロ
ボットは、一般家庭において飼育される犬や猫に似た形
状を有し、ユーザからの指令や周囲の環境に応じて自律
的に行動するものである。なお以下においては、動作の
集合を行動と定義して使用するものとする。
【0003】またかかるペットロボットに対して、ユー
ザの発話及び表情どからユーザの感情を抽出又は推定し
(図13)、それに応じてあたかも本物の動物や人間が
「感情」をもっているかのごとくペットロボットの感情
や応答を変化させる(図14)ような機能(以下、これ
を対話機能と呼ぶ)を搭載し、ユーザに親近感や満足感
を与え、ペットロボットとしてのアミューズメント性を
向上させることなども本願特許出願人により提案されて
いる。
【0004】例えばユーザが「ダメッ」と発話すると共
に怖そうな表情をすることによってペットロボットを叱
りつけると、ペットロボットは落ち込んで首をうなだれ
るといった動作を発現することが実現されている。
【0005】
【発明が解決しようとする課題】ところが、上述のよう
な対話機能の実行中において、従来のペットロボット
は、その応答が人間の場合と比較して不自然な点があっ
た。その一つは、人間の場合は同一の入力情報に対し
て、それをどのように受け取るかによって応答が変化す
るのに対し、ペットロボットの場合にはそのような応答
の変化がないことである。
【0006】例えば「叱りつける」という動作を人間に
対して行った場合、人間は同一の人物から全く同様に叱
りつけられても、「叱咤激励された」と受け取るときも
あれば、「人間性を否定された」と受け取るときもあ
り、どう受け取るかは、そのときの気分や状況などによ
って異なり、またそれぞれによって応答は異なる。
【0007】すなわち人間の場合、「どのような入力情
報があるか」よりも「その入力情報をどのようなもので
あると受け取ったか」の方が応答を決定するにあたって
重要である。
【0008】しかしながら、ユーザの表情や発話などに
基づいて抽出又は推定したユーザの感情に応じて予め複
数の応答パターンを用意しておき、ユーザの感情に対応
する応答パターンを実行する方法しかなく、ユーザの感
情を「どのようなものであると受け取ったか」という機
能を搭載したペットロボットは未だ提案されていなかっ
た。
【0009】本発明は以上の点を考慮してなされたもの
で、アミューズメント性を格段と向上し得るロボット装
置及びその制御方法を提案しようとするものである。
【0010】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、外部状況に応じて変化させる感情
を有し、当該感情の状態に応じた行動を生成するロボッ
ト装置において、外部状況を検出する外部状況検出手段
と、外部状況検出手段の検出結果に基づいて、外部状況
に対する印象を生成する印象生成手段と、印象生成手段
により生成された印象に基づいて感情を変化させる感情
変化手段とを設けるようにした。
【0011】この結果このロボット装置では、外部状況
に対する印象に基づいて、新たな感情をあたかも本物の
動物や人間がもつ感情のように変化させることができ
る。
【0012】また本発明においては、外部状況に応じて
変化させる感情を有し、当該感情の状態に応じた行動を
生成するロボット方法において、外部状況を検出した
後、当該検出結果に基づいて、外部状況に対する印象を
生成し、さらに当該生成された印象に基づいて感情を変
化させるようにした。
【0013】この結果このロボット装置の制御方法で
は、外部状況に対する印象に基づいて、新たな感情をあ
たかも本物の動物や人間がもつ感情のように変化させる
ことができる。
【0014】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0015】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
【0016】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
なるのバッテリ11と、バッテリセンサ12及び熱セン
サ13からなる内部センサ部14となどが収納されてい
る。
【0017】また頭部ユニット4には、このペットロボ
ット1の「耳」に相当するマイクロホン15と、「目」
に相当するCCD(Charge Coupled Device )カメラ1
6と、タッチセンサ17と、「口」に相当するスピーカ
18となどがそれぞれ所定位置に配設されている。
【0018】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などにはそれぞれアクチュエータ19A〜
19Nが配設されている。
【0019】そして頭部ユニット4のマイクロホン15
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」等の指令音を集音し、得られた音声信号S
1をコントローラ10に送出する。またCCDカメラ1
6は、周囲の状況を撮像し、得られた画像信号S2をコ
ントローラ10に送出する。
【0020】さらにタッチセンサ17は、図1において
明らかなように頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S3としてコントローラ10に送出する。
【0021】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11の残量を検出し、検出結果をバッ
テリ残量検出信号S4としてコントローラ10に送出
し、熱センサ13は、ペットロボット1内部の熱を検出
して検出結果を熱検出信号S5としてコントローラ10
に送出する。
【0022】コントローラ10は、マイクロホン16、
CCDカメラ17、タッチセンサ18、バッテリセンサ
12及び熱センサ13から与えられる音声信号S1、画
像信号S2及び圧力検出信号S3、バッテリ残量検出信
号S4及び熱検出信号S5などに基づいて、周囲の状況
や、ユーザからの指令及びユーザからの働きかけの有無
などを判断する。
【0023】そしてコントローラ10は、この判断結果
と予めメモリ10Aに格納されている制御プログラムと
に基づいて続く行動を決定し、決定結果に基づいて必要
なアクチュエータ19A〜19Nを駆動させることによ
り、頭部ユニット4を上下左右に振らしたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動して歩行させるなどの行動を行わせる。
【0024】またこの際コントローラ10は、必要に応
じて音声信号S6を生成してこれをスピーカ18に与え
ることにより、当該音声信号S6に基づく音声を外部に
出力させたり、このペットロボット1の「目」の位置に
配設された図示しないLED(Light Emitting Diode)
を点灯、消灯又は点滅させる。
【0025】このようにしてこのペットロボット1にお
いては、周囲の状況及び制御プログラム等に基づいて自
律的に行動することができるようになされている。
【0026】かかる構成に加えてこのペットロボット1
の場合、ユーザの発話及び表情に基づいてユーザの感情
を抽出又は推定した後、当該ユーザの感情にペットロボ
ット1の感情を反映させて当該ペットロボット1が受け
た印象を生成することにより、当該印象に基づいて、あ
たかも本物の動物や人間が「感情」をもっているかのご
とくペットロボット1の感情及び応答を生成するように
なされている。
【0027】なお以下においては、「印象」を次のよう
に定義する。すなわち「印象」とは、当該ユーザの感情
に一種のフィルタを作用させたものであり、そのフィル
タにはペットロボット1の現在の感情が反映される。
【0028】ここでこのようなペットロボットの対話機
能に関するコントローラ10の処理について説明する。
図3に示すように、ペットロボット1の対話機能に関す
るコントローラ10の処理の内容を機能的に分類する
と、制御部20、入力処理部21、音声認識解析部2
2、画像認識部23、ユーザ識別部24、対話管理部2
5、出力生成部26、音声出力部27、動作制御部2
8、印象モデル部29及び感情モデル部30に分けるこ
とができる。
【0029】この場合制御部20は、CPU、RAM、
ROM及び記憶部などから構成され、ペットロボット1
全体の制御を行うようになされている。また入力処理部
21は、マイクロホン15、CCDカメラ16及びタッ
チセンサ17(共に図2)から与えられる音声信号S
1、画像信号S2及び圧力検出信号S3に基づいて、特
定の状態や、ユーザからの特定の働きかけ及びユーザか
らの指示を検出及び認識し、認識結果を制御部20に通
知する。
【0030】音声認識解析部22は、マイクロホン15
から与えられる音声信号S1をA/D(アナログ/ディ
ジタル)変換処理及び特徴抽出処理を行った後、音響モ
デル、辞書及び文法等の情報に基づいて、ユーザの発話
における特徴量とのマッチングを行うことによって音声
認識結果を生成した後、必要に応じて当該音声認識結果
を所定の処理形式(例えばテキスト、構文解析木、対話
用フレームなど)に変換する。
【0031】さらに音声認識解析部22は、音声認識結
果の中にユーザの感情を表す言葉(文末の助詞や助動詞
などで表現されることが多い)が含まれている場合、当
該言葉を検出した後、この言語認識結果を感情モデル部
30に通知する。
【0032】画像認識部23は、マイクロホン15から
与えられる音声信号S1に基づく声紋を抽出すると共
に、CCDカメラ16から与えられる画像信号S2に基
づく顔画像を抽出することにより、当該抽出した声紋や
顔画像の特徴量に基づいてユーザを識別した後、当該識
別結果を制御部20に通知する。
【0033】対話管理部25は、音声認識解析部22か
ら得られた音声認識結果や、感情モデル部30で得られ
た現在のペットロボット1の感情や、印象モデル部29
で得られたユーザ感情や、その時点までの対話履歴など
から、ロボットの発話や動作を生成する。そして、生成
した行動の内容を行動指令情報として制御部20に通知
する。また対話管理部25は、対話規則テーブル25A
を有し、これによって各種入力に対応した応答を決定す
る。
【0034】出力生成部26は、対話管理部25から得
られる行動指令情報のうち「応答文を発話する」という
指令情報が含まれている場合、当該応答文に対応する合
成音を生成した後、これを音声出力部27に送出する。
また出力生成部26は、対話管理部25から得られる行
動指令情報に基づいて動作パターンを生成した後、当該
動作パターンを動作制御部28に送出する。
【0035】音声出力部27は、出力生成部26から送
出された合成音を音声信号S6としてスピーカ18(図
2)を介して出力させると共に、必要に応じて音声以外
の様々な効果音(例えばペットロボットが精神的にショ
ックを受けた場合に「ガーン」という効果音)も音声信
号S6としてスピーカ18を介して出力させる。
【0036】動作制御部28は、出力生成部26から得
られた動作パターンに基づいて必要なアクチュエータ1
9A〜19Nに対する制御信号S7A〜S7Nを生成
し、これら制御信号S7A〜S7Nに基づいて対応する
アクチュエータ19A〜19Nを駆動制御する。
【0037】印象モデル29は、ユーザ感情抽出部29
A及び感情フィルタ29Bの2つのモジュールを有し、
ペットロボット1が受けた印象を表す印象データを生成
する。ユーザ感情抽出部29Aは、音声認識解析部22
から受け取った発話に含まれる感情情報(発話のイント
ネーションや語調、又は文末の表現で感情に関するも
の)と、画像認識部23から受け取ったユーザの表情で
感情に関係する情報とに基づいて、ユーザの感情を抽出
又は推定する。
【0038】感情フィルタ29Bは、ペットロボット1
の感情をパラメータ化するフィルタであり、ユーザ感情
抽出部29Aから抽出又は推定されたユーザの感情を、
感情モデル部30から得られるペットロボット1の現在
の感情と共にフィルタをかけることによって、ペットロ
ボット1が受けた印象を生成した後、これを上述の印象
データとして感情モデル部30に送出する。
【0039】感情モデル部30は、印象−感情・行動テ
ーブル30Aを有し、入力された印象データ、現在の感
情及び過去の履歴などに基づいて対応する新たな感情及
び行動パターンを決定することにより、ペットロボット
1の感情の内部表現を行うと共に印象モデルから与えら
れる印象データやその他外界情報に基づきペットロボッ
ト1の感情を変化させる。
【0040】かかる感情モデル部30は、図4に示すよ
うな階層型ニューラルネットワーク50を用いて、ペッ
トロボット1の感情の内部表現及び感情の変化を行うよ
うになされている。この階層型ニューラルネットワーク
50は、入力層50A、中間層50B及び出力層50C
の3層からなり、各層50A〜50Cはそれぞれ所定数
のニューロンにより形成されている。
【0041】入力層50Aは印象モデル部29において
ペットロボット1が受けた印象を複数種類のニューロン
NRI1 〜NRIn で表したものであり、n種類の「印
象」に対応してn種類のニューロンNRI1 〜NRIn
が設定される。この場合、ニューロンNRI1 〜NRI
n は−∞から+∞までの数値として表現される。
【0042】入力層50Aにおいて、ニューロンNRI
1 〜NRIn の内部状態は、そのニューロン(NRI1
〜NRIn )に対応した「印象」が存在する場合には
「1」にセットし、それ以外は全て「0」にセットす
る。例えば、印象モデル部29から出力される印象デー
タに基づく印象のうち「怒り」という印象が含まれてい
る場合(すなわち、ペットロボット1はユーザの発話や
表情などから「ユーザは怒っている」という印象をもっ
た場合)、入力層50AのニューロンNRI1 〜NRI
n のうち「怒り」に対応するニューロンNRI2 の内部
状態のみを「1」にセットする。
【0043】入力層50Aの各ニューロンNRI1 〜N
RIn は、中間層50Bの各ニューロンNRM1 〜NR
k とそれぞれ結線を介して接続されている。すなわち
中間層50BのニューロンNRM1 〜NRMk の数をk
とすると、入力層50Aと中間層50Bとの間にはn×
k本の結線がある。各結線には、それぞれ独立した所定
の重み係数が設定されており、これら各結線を通過する
データには対応する重み係数が乗じられるようになされ
ている。
【0044】中間層50BのニューロンNRM1 〜NR
k の内部状態は、接続している入力層50Aの各ニュ
ーロンNRI1 〜NRIn の内部状態に対応する重み係
数をそれぞれ乗じ、それらの総和をとったものである。
また、中間層50BのニューロンNRM1 〜NRMk
出力は、内部状態に例えばシグモイド関数のような所定
の関数を作用させたものである。
【0045】出力層50Cにはm個のニューロンNRE
1 〜NREm があり、これらはペットロボット1の各感
情とそれぞれ対応している。例えば、1番目のニューロ
ンNRE1 は「喜び」に対応し、2番目のニューロンN
RE2 は「怒り」に対応し、3番目のニューロンNRE
3 は「悲しみ」に対応している。また出力層50Cの各
ニューロンNRE1 〜NREm は、中間層50Bの各ニ
ューロンNRM1 〜NRMk とそれぞれ結線を介して接
続されており、当該各結線にはそれぞれ独立した所定の
重み係数が設定されている。
【0046】なお入力層50A及び中間層50B間と、
中間層50B及び出力層50C間とにおいて、各ニュー
ロンNRI1 〜NRIn 、NRM1 〜NRMk 、NRE
1 〜NREm 間の重み係数は、ペットロボット1が受け
た印象とペットロボット1の感情との対応パターンから
事前に学習させておくようにする。
【0047】実際に感情モデル部30は、印象モデル部
29からペットロボット1が受けた印象を受け取ると、
上述した階層型ニューラルネットワーク50を用いて、
当該印象に対応した入力層50Aの各ニューロン(NR
1 〜NRIn )の内部状態を「1」にセットすると共
に、それ以外の他のニューロン(NRI1 〜NRIn
の内部状態を「0」にセットする。そして入力層50A
から中間層50B及び続く出力層50Cへと各ニューロ
ン(NRI1 〜NRIn 、NRM1 〜NRMk、NRE
1 〜NREm )の内部状態を伝播させていくことによ
り、当該出力層50Cの各ニューロンNRE1 〜NRE
m の出力値を比較し、最も大きな値をもつニューロン
(NRE1 〜NREm )に対応した感情をペットロボッ
ト1の新たな感情とする。
【0048】さらに感情の変化を上述のようにして行う
と、ユーザからの入力がない場合(ユーザが何も発声し
なかったり、CCDカメラ16の視界内に存在しなかっ
たりする場合)には、何も変化が起こらなくなる。その
ため時間の経過や過失の履歴などによっても感情の変化
が起こるような機構を設けるようにしても良い。例えば
所定時間入力がない場合は、感情を「ニュートラル」に
戻すといったようなことを行う。この機構は、感情を階
層型ニューラルネットワーク以外の手段で表現した場合
にも適用可能である。
【0049】なおこの階層型ニューラルネットワーク5
0では、出力層50Cの各ニューロンNRE1 〜NRE
m の出力値を要素とするm次元のベクトルで表すことに
よって、これらm次元のベクトルに対応した感情をペッ
トロボット1の新たな感情とするようにしても良い。
【0050】印象モデル部29は、図5に示すような階
層型ニューラルネットワーク60を用いてペットロボッ
ト1が受けた印象を生成するようになされている。この
階層型ニューラルネットワーク60は、上述したように
入力層60A、中間層60B及び出力層60Cの3層か
らなり、各層60A〜60Cはそれぞれ所定数のニュー
ロンにより構成されている。
【0051】入力層60Aは(i+j)個のニューロン
NRUE1 〜NRUEi 、NRPE1 〜NRPEj を有
し、そのうちi個は「ユーザの感情」に対応した数のニ
ューロンNRUE1 〜NRUEi であり、他のj個は
「ペットロボット1の現在の感情」に対応した数のニュ
ーロンNRPE1 〜NRPEj である。入力層60Aに
おいて、ニューロンNRUE1 〜NRUEi 、NRPE
1 〜NRPEj の内部状態は、そのニューロン(NRU
1 〜NRUEi 、NRPE1 〜NRPEj )に対応し
た「ユーザの感情」及び「ペットロボット1の感情」が
存在する場合にはそれぞれ「1」にセットし、それ以外
は全て「0」にセットする。
【0052】入力層60Aの各ニューロンNRUE1
NRUEi 、NRPE1 〜NRPEj は、中間層60B
の各ニューロンNRM1 〜NRMk とそれぞれ結線を介
して接続されている。すなわち中間層60Bのニューロ
ンNRM1 〜NRMk の数をkとすると、入力層60A
と中間層60Bとの間には(i×k+j×k)本の結線
がある。各結線には、それぞれ独立した所定の重み係数
が設定されており、これら各結線を通過するデータには
対応する重み係数が乗じられるようになされている。
【0053】中間層60BのニューロンNRM1 〜NR
k の内部状態は、接続している入力層60Aの各ニュ
ーロンNRUE1 〜NRUEi 、NRPE1 〜NRPE
j の内部状態に対応する重み係数をそれぞれ乗じ、それ
らの総和をとったものである。また、中間層60Bのニ
ューロンNRM1 〜NRMk の出力は、内部状態に例え
ばシグモイド関数のような所定の関数をかけたものであ
る。
【0054】出力層60Cにはn個のニューロンNRI
1 〜NRIn があり、これらはペットロボット1が受け
た印象に対応している。また出力層60Cの各ニューロ
ンNRI1 〜NRIn は、中間層60Bの各ニューロン
NRM1 〜NRMk とそれぞれ結線を介して接続されて
おり、当該各結線にはそれぞれ独立した所定の重み係数
が設定されている。この場合、出力層60Cの各ニュー
ロンNRI1 〜NRIn は、上述した図4に示す階層型
ニューラルネットワーク50における入力層50Aの各
ニューロンNRI1 〜NRIn に対応している。
【0055】実際に印象モデル部29は、ユーザ感情抽
出部29Aにおいて抽出したユーザの感情とペットロボ
ット1の現在の感情とを得ると、階層型ニューラルネッ
トワーク60を用いて、当該両方の感情に対応した入力
層60Aの各ニューロンNRUE1 〜NRUEi 、NR
PE1 〜NRPEj の内部状態を「1」にセットすると
共に、それ以外の他のニューロンの内部状態を「0」に
セットする。
【0056】そして入力層60Aから中間層60B及び
続く出力層60Cへと各ニューロンNRUE1 〜NRU
i 、NRPE1 〜NRPEj 、NRM1 〜NRMk
NRI1 〜NRIn の内部状態を伝播させていくことに
より、当該出力層60Cの各ニューロンNRI1 〜NR
n の出力値を比較し、最も大きな値をもつニューロン
(NRI1 〜NRIn )に対応した印象をペットロボッ
ト1が受けた印象とする。
【0057】なおこの階層型ニューラルネットワーク6
0では、出力層60Cの各ニューロンNRE1 〜NRE
n の出力値を要素とするn次元のベクトルで表すことに
よって、これらn次元のベクトルに対応した印象をペッ
トロボット1が受けた印象とするようにしても良い。
【0058】(2)対話機能処理手順RT1 ここでコントローラ10の制御部20は、図6に示す対
話機能処理手順RT1に従ってユーザの感情にペットロ
ボット1の感情を反映させて当該ペットロボット1が受
けた印象を生成した後、当該印象に基づいてペットロボ
ット1の感情及び応答を生成する。
【0059】すなわち制御部20は、この一番始めの電
源投入後にこの対話機能処理手順RT1をステップSP
1において開始し、続くステップSP2においてユーザ
の表情及び発話が入力されたか否かを判断する。
【0060】このステップSP2において肯定結果を得
ると、このことはマイクロホン15から入力処理部21
を介して音声認識解析部22がユーザの発話を取り込
み、又はCCDカメラ16を介して画像認識部23がユ
ーザの顔画像を取り込んだことを表しており、このとき
制御部20は、ステップSP3に進んで、印象モデル部
29のユーザ感情抽出部29Aにおいて、ユーザの発話
に含まれる感情情報と、ユーザの顔画像のうち感情に関
する表情情報とに基づいて、ユーザの感情を抽出又は推
定する。
【0061】一方ステップSP2において否定結果を得
ると、制御部20は、再度ステップSP2に戻り、この
後ステップSP2において肯定結果を得るまでステップ
SP2のループを繰り返す。
【0062】やがて制御部20は、ステップSP4に進
んで、印象モデル部29のユーザ感情抽出部29Aから
抽出又は推定したユーザの感情を、ペットロボット1の
現在の感情と共に、印象モデル部29の感情フィルタ2
9Bをかけることにより、ペットロボット1が受けた印
象を生成させた後、ステップSP5に進む。
【0063】次いで制御部20は、このステップSP5
において、ペットロボット1が受けた印象及び過去の対
話履歴や時間等に基づいて、対話管理部25の対話規則
テーブル25Aを参照することにより、当該対話管理部
25からペットロボット1の新たな感情及び応答を行動
指令情報として受け取った後、ステップSP6に進む。
【0064】そして制御部20は、ステップSP6にお
いて、行動指令情報に基づいて、出力生成部26にペッ
トロボット1の応答分に対応する合成音や動作パターン
を生成させた後、音声出力部27を介して当該合成音を
出力させると共に、出力生成部26を介して当該動作パ
ターンに基づいて必要なアクチュエータ19A〜19N
を駆動制御させることにより、ペットロボット1を新た
な感情及び応答に応じた動作又は行動を行わせる。
【0065】続いて制御部20は、ステップSP7に進
んで、所定時間対話が中断したか否かを判断し、肯定結
果が得られたとき、そのままステップSP8に進んで当
該対話機能処理手順RT1を終了する。一方ステップS
P7において否定結果が得られると、制御部20は、対
話が継続するものと判断して、再度ステップSP2に戻
って上述と同様の処理を繰り返す。
【0066】(3)具体的な対話機能実行例 実際に例えばユーザがペットロボット1に対してニコニ
コとした表情をしながら「かわいいね」と発話した場
合、上述の対話機能処理手順RT1を実行することによ
り、ペットロボット1が受ける印象が変化し、これに応
じてペットロボット1の感情及び応答も変化する。
【0067】この場合、「ユーザの感情」を喜怒度で表
し、「ペットロボット1の感情」を躁鬱度及び喜怒度で
表し、「ペットロボットが受けた印象」を称賛度で表す
こととする。これら喜怒度、躁鬱度及び称賛度の度合い
はいずれも正負の値をとるようになされ、例えばペット
ロボットが受けた印象の値である「称賛度」は、正の値
のときは「誉められた」という印象を表し、負の値のと
きは「けなされた」(又は「馬鹿にされた」や「嫌味を
言われた」)という印象を表す。またユーザ及びペット
ロボット1の感情の値である「喜怒度」は、正の値のと
きは「喜んでいる」という感情を表し、負の値のときに
は「怒っている」という感情を表す。
【0068】ユーザがニコニコした表情をしながら「か
わいいね」という音声を発すると、ペットロボット1
は、頭部ユニット4に設けられたCCDカメラ16を介
してユーザの顔画像を撮像し、その撮像画像を印象モデ
ル部29のユーザ感情抽出部29Aにおいて処理するこ
とにより、「(表情からすると)ユーザは喜んでいる」
という情報(ユーザの感情)を得る。
【0069】これと共に、ユーザが発した音声を頭部ユ
ニット4に設けられたマイクロホン15を介して集音
し、それを音声認識解析部22において処理することに
より、「かわいいね」という認識結果を得る。その一方
で、音声のイントネーション等の情報を印象モデル部2
9のユーザ感情抽出部29Aにおいて処理することによ
り、「(音声からすると)ユーザは喜んでいる」とうい
う情報(ユーザの感情)も得る。その結果、ユーザの感
情である「喜怒度」を正の値にセットする。
【0070】このように正の値の「喜怒度」として抽出
されたユーザの感情に対して印象モデル部29の感情フ
ィルタ29Bをかけることにより、ペットロボット1が
受けた印象を「称賛度」として生成する。このときのペ
ットロボット1が受けた印象は、ペットロボット1の躁
鬱度によって異なるものとする。
【0071】すなわちペットロボット1が躁状態のとき
には、「称賛度」は正の値をとることにより、ペットロ
ボット1は、「ユーザが誉めている」という印象をも
つ。これに対してペットロボット1が鬱状態のときに
は、「称賛度」は負の値をとることにより、ペットロボ
ット1は、「ユーザが嫌味を言っている」という印象を
もつ。
【0072】このようにしてペットロボット1が受けた
印象が「称賛度」として生成されると、当該印象と上述
の「(表情及び音声からすると)ユーザは喜んでいる」
というユーザの感情とに基づいて、ペットロボット1は
感情及び応答を生成する。このとき生成される応答は、
「称賛度」によって(すなわち、ペットロボット1がど
のような印象をもったかによって)相違がある。
【0073】ここで対話管理部25の対話規則テーブル
26Aは、図7に示すような入力とこれに対応する応答
(出力)がテーブルとして記述されている。すなわち入
力として「ユーザの発話」と「(ペットロボット1がも
つ)印象」とが記述され、これに対応した応答(出力)
として「(ペットロボット1の)動作」と「(ペットロ
ボット1の)感情変化」(どのような感情に遷移する
か)と「(ペットロボット1の)発話」とが記述されて
いる。
【0074】この場合、入力側の「称賛度+/称賛度
−」は、称賛度が正の値/負の値であることをそれぞれ
表す。応答側の「喜怒度+/喜怒度−」は、喜怒度を正
の値/負の値にセットすることをそれぞれ表す。かくし
て対話規則テーブル25Aに従って、ペットロボット1
は、ユーザの発話が同じ「かわいいね」であっても、称
賛度が正か負かによって以下の通り2通りの応答をす
る。
【0075】まず「称賛度」が正の場合、ペットロボッ
ト1は、「喜んでいる」ことを表す仕種を行うと共に、
「ありがとう」という音声を合成し、「喜怒度」を正の
値にセットし又は現在値から増加させる。これに対して
「称賛度」が負の場合、ペットロボット1は、「怒って
いる」ことを表す仕種を行うと共に、「どうせ嘘でし
ょ」という音声を合成し、「喜怒度」を負の値にセット
し又は現在値から減少させる。この結果、応答時の感情
変化の際にペットロボット1の現在の感情を反映させる
ことができる。
【0076】以上のようにしてユーザから同一の入力
(ユーザの発話及び又は表情)があっても、そのときの
ペットロボット1の感情によって異なる印象が生成さ
れ、結果として異なる応答をするペットロボット1を実
現することができる。
【0077】(4)本実施の形態による動作及び効果 以上の構成において、このペットロボット1では、図8
に示すように、ユーザの発話及び表情からユーザの感情
を抽出又は推定した後、当該ユーザの感情及びペットロ
ボット1の現在の感情に基づいて、ペットロボット1が
受けた印象を生成することにより、当該印象にペットロ
ボット1の現在の感情を反映させることができる。
【0078】この結果、図9に示すように、ペットロボ
ット1が受けた印象及び必要に応じて過去の対話履歴や
時間に基づいて、ペットロボット1の新たな感情及び応
答を生成することにより、当該新たな感情及び応答をあ
たかも本物の動物と対話しているかのごとく変化させる
ことができる。
【0079】以上の構成によれば、このペットロボット
1において、ユーザの発話及び表情に基づくユーザの感
情のみならず、ペットロボット1の現在の感情をも反映
させて、ペットロボット1が受けた印象を生成するよう
にしたことにより、当該ユーザの感情が同一であって
も、ペットロボット1の現在の感情に応じてペットロボ
ット1は異なった印象を生成し、この結果、当該印象に
基づいて生成される新たな感情及び応答をあたかも本物
の動物と対話しているかのごとく変化させることがで
き、かくしてアミューズメント性を格段と向上し得るペ
ットロボット1を実現できる。
【0080】(5)他の実施の形態 なお上述の実施の形態においては、ペットロボット1の
感情の内部表現及び感情の変化を図4における階層型ニ
ューロネットワーク50を適用して行うようにした場合
について述べたが、本発明はこれに限らず、この他にも
状態遷移モデルやイメージスケール等の種々の手法を用
いて行うようにしても良い。
【0081】まず状態遷移モデルを用いて感情を表現す
る場合、かかる状態遷移モデル70は、図10に示すよ
うに、例えば3つの状態はペットロボットの感情に対応
しており、各状態ごとに入力である「ペットロボット1
が受けた印象」と遷移先、さらに遷移確率が定義されて
いる。例えば現在の状態が「感情1」であり、そのとき
の入力が「印象3」であるとき、p1,3 の遷移確率で
「感情3」という状態に遷移する。図10において、
「感情m」から「感情n」へpm,n の遷移確率で遷移す
ることを表している。
【0082】このように状態遷移モデル70において、
各感情を状態として表しておき、入力された印象に応じ
て対応する遷移確率で他の状態に遷移するにして、ペッ
トロボット1の感情の内部表現及び感情の変化を行うよ
うにしても良い。なおこの遷移確率は、ペットロボット
1が受けた印象とペットロボット1の感情との対応パタ
ーンから統計的に計算したり、又は人間が演繹的に決定
するようにしても良い。
【0083】さらにイメージスケールを用いて感情を表
現する場合、かかるイメージスケールは、感情や感性と
いった概念は、その中に例えば「明るい/暗い」、「躁
/鬱」、「外向的/内向的」などの様々な尺度を含むこ
とから、これらの尺度のうちのn個を座標軸としてn次
元空間(軸が2本なら平面)を構成したものであり、感
情や感性は当該n次元空間の中のある領域を占めること
になる。
【0084】図11に示すようなイメージスケール80
は、縦軸を内向的及び外向的で表すと共に横軸を躁状態
及び鬱状態で表した2本の座標軸で構成される平面の上
で各感情を表現したものであり、この座標軸を用いて、
ペットロボット1の現在の感情も同じ平面上の点として
表わすことができる。図11においてペットロボット1
の現在の感情を表すポイントPA は、「感情3」の領域
内部にあることから、ペットロボット1の現在の感情は
「感情3」となる。
【0085】一方、印象モデル部29によって生成され
た「印象」からは、イメージスケール80に用いた尺度
と同じものを成分とするベクトル(以下、これを印象ベ
クトルと呼ぶ)BI を生成することができる。ペットロ
ボット1の感情の変化は、現在の感情を表すポイントP
A に対応してk×BI (kは適当な正の数)分だけ移動
させたポイントPB となり、当該ポイントPB が新たに
変化した感情を表すこととなる。
【0086】このポイントPB は、「感情5」の領域内
部にあることから、ペットロボット1の感情は、印象ベ
クトルBI に応じて「感情3」から「感情5」へと変化
したことを表している。
【0087】このように特定の軸(内外向的、躁鬱状
態)から構成されるイメージスケール80上で感情の分
布を示しておき、入力された印象ベクトルBI に応じて
現在の感情から新たな感情へと移動させるようにして、
ペットロボット1の感情の内部表現及び感情の変化を行
うようにしても良い。
【0088】また上述の実施の形態においては、ペット
ロボット1が受けた印象を図12における階層型ニュー
ロネットワークを適用して生成するようにした場合につ
いて述べたが、本発明はこれに限らず、いわゆるif−
thenルール等の種々の手法を用いて生成するように
しても良い。
【0089】この場合、if−thenルールは、各感
情や各印象の度合いを、例えば「躁鬱の度合い」、「叱
咤の度合い」及び「励ましの度合い」などのように表現
し、これらの度合いを正負両方の値をもつような変数で
表しておき、これら変数を用いて記述されるものであ
る。
【0090】例えば「叱咤の度合い」をユーザの感情を
表す変数とし、「躁鬱の度合い」をペットロボット1の
感情を表す変数とし、「励ましの度合い」をペットロボ
ット1が受けた印象を表す変数とし、kを変数としたと
き、if−thenルールは、図13に示すように記述
される。これは、ユーザがペットロボット1を叱りつけ
た場合、ペットロボット1が躁状態のときはそれを「励
まし」という印象を受けるが、鬱状態のときは「やる気
を削ぐもの」という印象を受ける、といったことを記述
したルールである。
【0091】具体的にかかるif−thenルールを説
明すると、まず「叱咤の度合い>0」は、ユーザの発話
や表情に「叱っている」ことを表す要素が含まれている
ことを表している。例えば、文末が「〜しろ」、「〜す
るな」のような強い命令形になっていたり、いわゆる
「語調を強めた言い方」になっていたり、表情が「厳し
く」なっている場合が該当する。
【0092】また「躁鬱の度合い>0」は、ペットロボ
ットは躁状態である(うきうきしている)ことを表して
いる。さらに「励ましの度合い=k×叱咤の度合い」
は、ペットロボットは「励まされた」という印象を受け
たことを表しており、この場合、「励ましの度合い>
0」である。さらに「躁鬱の度合い<0」は、ペットロ
ボットは鬱状態である(落ち込んでいる)ことを表して
いる。さらに「励ましの度合い=−k×叱咤の度合い」
は、ペットロボット1は「やる気を削がれた」という印
象を受けた(ユーザがした叱咤を「やる気を削ぐための
もの」だと言った)ことを表しており、この場合、「励
ましの度合い<0」である。
【0093】なお「励ましの度合い=k×叱咤の度合
い」の代わりに、「励ましの度合い=励ましの度合い+
k×叱咤の度合い」のように記述すると、新たな印象の
度合い(「励まし合い」)は今までの度合いをある程度
反映したものになる。こうすると、「一度持った印象
は、そう簡単には変化しない」といったことも表現する
ことができる。
【0094】このようにif−thenルールを用い
て、ユーザの感情とペットロボット1の感情とに基づい
て、ペットロボット1が受けた印象を生成するようにし
ても良い。
【0095】さらに上述の実施の形態においては、外部
状況に応じて変化させる感情を有し、当該感情の状態に
応じた行動を生成するロボット装置として、図1のよう
に構成された4足歩行型のロボットを適用するようにし
た場合について述べたが、本発明はこれに限らず、この
他種々の構成のロボット装置に広く適用することができ
る。例えばヒューマノイド型ロボットに応用すること
で、人間らしい感情変化や応答をする対話ロボットを作
ることができる。
【0096】この場合において上述の実施の形態では、
外部状況を検出する外部状況検出手段として、頭部ユニ
ット4に設けられたマイクロホン15、CCDカメラ1
6及びタッチパネル17並びにコントローラ10内の入
力処理部21、音声認識解析部22及び画像認識部23
を適用した場合について述べたが、本発明はこれに限ら
ず、外部状況検出手段としては本発明を適用するロボッ
ト装置の形態に応じてこの他種々の構成を適用すること
ができる。
【0097】またこの場合においては、外部状況に対す
る印象を生成する印象生成手段として、コントローラ1
0内の印象モデル部29(ユーザ感情抽出部29A及び
感情フィルタ29B)を適用した場合について述べた
が、本発明はこれに限らず、要は、外部状況に対する印
象を生成することができれば、現在の感情を外部状況に
反映させるようにしても良く、印象生成手段としては本
発明を適用するロボット装置の形態に応じてこの他種々
の構成を適用することができる。
【0098】また印象モデル部29の感情フィルタ29
Bをユーザの感情に対してかけるようにしたが、それ以
外の外界情報に対してもかけるようにしても良い。例え
ばCCDカメラ16から得られる撮像結果に感情フィル
タ29Bをかけて、感情変化手段において画像の明度及
び又は色相等を変化させることにより、「落ち込んでい
るときは、周囲の風景まで暗く見える」、「うきうきし
ているときは周囲がバラ色に見える」といったことを表
現するようにしても良い。またマイクロホン15のゲイ
ンに感情フィルタ29Bをかけて、感情変化手段におい
て「ペットロボット1が何かに熱中しているときは、ユ
ーザが呼びかけてもなかなか反応しない」といったこと
も表現できる。
【0099】さらにこの場合においては、印象に基づい
て感情を変化させる感情変化手段として、コントローラ
10内の感情モデル部30を適用した場合について述べ
たが、本発明はこれに限らず、印象に加えて過去の履歴
及び又は時間に基づいて感情変化させるようにしても良
く、感情変化手段としては本発明を適用するロボット装
置の形態に応じてこの他種々の構成を適用することがで
きる。
【0100】
【発明の効果】上述のように本発明によれば、外部状況
に応じて変化させる感情を有し、当該感情の状態に応じ
た行動を生成するロボット装置において、外部状況を検
出する外部状況検出手段と、外部状況検出手段の検出結
果に基づいて、外部状況に対する印象を生成する印象生
成手段と、印象生成手段により生成された印象に基づい
て感情を変化させる感情変化手段とを設けるようにした
ことにより、外部状況に対する印象に基づいて、新たな
感情をあたかも本物の動物や人間がもつ感情のように変
化させることができ、かくしてアミューズメント性を格
段と向上し得るロボット装置を実現することができる。
【0101】また本発明によれば、外部状況に応じて変
化させる感情を有し、当該感情の状態に応じた行動を生
成するロボット方法において、外部状況を検出した後、
当該検出結果に基づいて、外部状況に対する印象を生成
し、さらに当該生成された印象に基づいて感情を変化さ
せるようにしたことにより、外部状況に対する印象に基
づいて、新たな感情をあたかも本物の動物や人間がもつ
感情のように変化させることができ、かくしてアミュー
ズメント性を格段と向上し得るロボット装置の制御方法
を実現することができる。
【図面の簡単な説明】
【図1】本実施の形態によるペットロボットの外観構成
を示す斜視図である。
【図2】本実施の形態によるペットロボットの回路構成
を示すブロック図である。
【図3】対話機能に関するコントローラの処理の説明に
供するブロック図である。
【図4】ニューラルネットワークによる感情表現及び感
情遷移の説明に供する略線図である。
【図5】ニューラルネットワークによる感情フィルタの
説明に供する略線図である。
【図6】対話機能処理手順の説明に供するフローチャー
トである。
【図7】対話規則テーブルを示す図表である。
【図8】ペットロボットが受けた印象生成の説明に供す
る略線図である。
【図9】印象を反映した応答・感情生成の説明に供する
略線図である。
【図10】他の実施の形態による状態遷移モデルによる
感情表現及び感情遷移の説明に供する略線図である。
【図11】他の実施の形態によるイメージスケールによ
る感情表現及び感情遷移の説明に供する略線図である。
【図12】他の実施の形態によるif−thenルール
の説明に供する略線図である。
【図13】従来の感情抽出の説明に供する略線図であ
る。
【図14】従来の応答・感情生成の説明に供する略線図
である。
【符号の説明】
1……ペットロボット、2……胴体部ユニット、3A〜
3D……脚部ユニット、4……頭部ユニット、5……尻
尾部ユニット、10……コントローラ、15……マイク
ロホン、16……CCDカメラ、17……タッチセン
サ、18……スピーカ、19A〜19N……アクチュエ
ータ、20……制御部、21……入力処理部、22……
音声認識解析部、23……画像認識部、25……対話管
理部、29……印象モデル部、29A……ユーザ感情抽
出部、29B……感情フィルタ、30……感情モデル
部、50、60……階層型ニューラルネットワーク。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岸 秀樹 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 表 雅則 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 田島 和彦 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 武田 正資 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 2C150 BA06 CA01 CA02 DA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF03 EF13 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BB06 DA05 DA07 DB04 DC00 DC01 FC00 3F060 AA00 BA10 CA14 5B049 AA00 BB07 DD03 EE01 EE03 EE07 FF06

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】外部状況に応じて変化させる感情を有し、
    当該感情の状態に応じた行動を生成するロボット装置に
    おいて、 上記外部状況を検出する外部状況検出手段と、 上記外部状況検出手段の検出結果に基づいて、上記外部
    状況に対する印象を生成する印象生成手段と、 上記印象生成手段により生成された上記印象に基づいて
    上記感情を変化させる感情変化手段とを具えることを特
    徴とするロボット装置。
  2. 【請求項2】上記印象生成手段は、 上記外部状況検出手段の検出結果に加えて、現在の感情
    に基づいて上記印象を生成することを特徴とする請求項
    1に記載のロボット装置。
  3. 【請求項3】上記感情変化手段は、 上記印象に加えて、過去の履歴及び又は時間に基づいて
    上記感情変化させることを特徴とする請求項1に記載の
    ロボット装置。
  4. 【請求項4】外部状況に応じて変化させる感情を有し、
    当該感情の状態に応じた行動を生成するロボット方法に
    おいて、 上記外部状況を検出する第1のステップと、 上記検出結果に基づいて、上記外部状況に対する印象を
    生成する第2のステップと、 上記生成された上記印象に基づいて上記感情を変化させ
    る第3のステップとを具えることを特徴とするロボット
    装置の制御方法。
  5. 【請求項5】上記第2のステップでは、 上記外部状況の検出結果に加えて、現在の感情に基づい
    て上記印象を生成することを特徴とする請求項4に記載
    のロボット装置の制御方法。
  6. 【請求項6】上記第3のステップでは、 上記印象に加えて、過去の履歴及び又は時間に基づいて
    上記感情変化させることを特徴とする請求項4に記載の
    ロボット装置の制御方法。
JP2000028947A 2000-02-01 2000-02-01 ロボット装置及びその制御方法 Pending JP2001212783A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000028947A JP2001212783A (ja) 2000-02-01 2000-02-01 ロボット装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000028947A JP2001212783A (ja) 2000-02-01 2000-02-01 ロボット装置及びその制御方法

Publications (1)

Publication Number Publication Date
JP2001212783A true JP2001212783A (ja) 2001-08-07

Family

ID=18554278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000028947A Pending JP2001212783A (ja) 2000-02-01 2000-02-01 ロボット装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP2001212783A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002076687A1 (en) * 2001-03-27 2002-10-03 Sony Corporation Robot device and control method therefor, and storage medium
JP2003271923A (ja) * 2002-03-15 2003-09-26 Sony Corp 記憶装置及び方法並びにロボット装置
WO2004032045A1 (ja) * 2002-10-04 2004-04-15 A.G.I.Inc. 発想モデル装置、自発感情モデル装置、その方法、およびプログラム
KR100825719B1 (ko) 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
KR100843802B1 (ko) * 2005-12-12 2008-07-04 혼다 기켄 고교 가부시키가이샤 각식 이동 로봇의 제어장치
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
JP2015173857A (ja) * 2014-03-17 2015-10-05 株式会社東芝 電子機器及び情報処理方法
JP2016012342A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2016036883A (ja) * 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016197386A (ja) * 2015-04-06 2016-11-24 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
CN106985137A (zh) * 2017-03-09 2017-07-28 北京光年无限科技有限公司 用于智能机器人的多模态交互方法及系统
WO2020166371A1 (ja) * 2019-02-15 2020-08-20 ソニー株式会社 移動体、移動方法
JP2020530932A (ja) * 2017-06-12 2020-10-29 アカ インテリジェンス インコーポレイテッドAKA Intelligence Inc. コンピューターの感情を決定する方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251606B2 (en) 2001-03-27 2007-07-31 Sony Corporation Robot device with changing dialogue and control method therefor and storage medium
WO2002076687A1 (en) * 2001-03-27 2002-10-03 Sony Corporation Robot device and control method therefor, and storage medium
JP2003271923A (ja) * 2002-03-15 2003-09-26 Sony Corp 記憶装置及び方法並びにロボット装置
US7664627B2 (en) 2002-10-04 2010-02-16 A.G.I. Inc. Inspirational model device, spontaneous emotion model device, and related methods and programs
WO2004032045A1 (ja) * 2002-10-04 2004-04-15 A.G.I.Inc. 発想モデル装置、自発感情モデル装置、その方法、およびプログラム
JP2004127126A (ja) * 2002-10-04 2004-04-22 Agi:Kk 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
KR100719654B1 (ko) * 2002-10-04 2007-05-17 가부시키가이샤 에이.지.아이 발상 모델장치, 자발감정 모델장치, 그 방법 및 그 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
CN100375118C (zh) * 2002-10-04 2008-03-12 A.G.I.株式会社 思想表达模型装置、自发感情模型装置其方法及程序
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
US7778730B2 (en) 2005-12-09 2010-08-17 Electronics And Telecommunications Research Institute Robot for generating multiple emotions and method of generating multiple emotions in robot
KR100825719B1 (ko) 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
KR100843802B1 (ko) * 2005-12-12 2008-07-04 혼다 기켄 고교 가부시키가이샤 각식 이동 로봇의 제어장치
US7778731B2 (en) 2005-12-12 2010-08-17 Honda Motor Co., Ltd Legged mobile robot control system
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP2015173857A (ja) * 2014-03-17 2015-10-05 株式会社東芝 電子機器及び情報処理方法
JP2016012342A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2016036883A (ja) * 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016197386A (ja) * 2015-04-06 2016-11-24 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
CN106985137A (zh) * 2017-03-09 2017-07-28 北京光年无限科技有限公司 用于智能机器人的多模态交互方法及系统
JP2020530932A (ja) * 2017-06-12 2020-10-29 アカ インテリジェンス インコーポレイテッドAKA Intelligence Inc. コンピューターの感情を決定する方法
JP7078714B2 (ja) 2017-06-12 2022-05-31 アカ インテリジェンス インコーポレイテッド コンピューターの感情を決定する方法
WO2020166371A1 (ja) * 2019-02-15 2020-08-20 ソニー株式会社 移動体、移動方法
CN113474065A (zh) * 2019-02-15 2021-10-01 索尼集团公司 移动体、移动方法
CN113474065B (zh) * 2019-02-15 2023-06-23 索尼集团公司 移动体、移动方法
JP7468367B2 (ja) 2019-02-15 2024-04-16 ソニーグループ株式会社 移動体、移動方法

Similar Documents

Publication Publication Date Title
US10242666B2 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP2001212783A (ja) ロボット装置及びその制御方法
KR100988708B1 (ko) 학습 장치, 학습 방법 및 로봇 장치
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
US7133744B2 (en) Information processing apparatus and method, program storage medium, and program
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
JPWO2002099545A1 (ja) マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
US20070198444A1 (en) Interaction device
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
JP2010094799A (ja) 人型ロボット
JP3178393B2 (ja) 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
KR102095089B1 (ko) 디지털 에이전트 이동 매니퓰레이터 및 그 동작 방법
CN114995657B (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
CN115169507A (zh) 类脑多模态情感识别网络、识别方法及情感机器人
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
JP3792882B2 (ja) 感情生成装置及び感情生成方法
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
KR102576788B1 (ko) 로봇 인터랙션 행위 생성 장치 및 방법
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP3848076B2 (ja) 仮想生物システム及び仮想生物システムにおけるパタン学習方法