JP2005193331A - ロボット装置及びその情動表出方法 - Google Patents

ロボット装置及びその情動表出方法 Download PDF

Info

Publication number
JP2005193331A
JP2005193331A JP2004001368A JP2004001368A JP2005193331A JP 2005193331 A JP2005193331 A JP 2005193331A JP 2004001368 A JP2004001368 A JP 2004001368A JP 2004001368 A JP2004001368 A JP 2004001368A JP 2005193331 A JP2005193331 A JP 2005193331A
Authority
JP
Japan
Prior art keywords
emotion
action
behavior
internal state
robot apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004001368A
Other languages
English (en)
Inventor
Tsutomu Sawada
務 澤田
Hiroaki Ogawa
浩明 小川
Osamu Hanagata
理 花形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004001368A priority Critical patent/JP2005193331A/ja
Priority to US11/029,866 priority patent/US7515992B2/en
Publication of JP2005193331A publication Critical patent/JP2005193331A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】 身体リソースを使ったモーションにより情動を表出する場合に、モーションデータを保持するために必要な記憶容量を削減する。
【解決手段】 ロボット装置は、各要素行動を発現する際に、その要素行動を構成する一又は複数の動作の開始時点の姿勢である基本姿勢を変化させることにより、情動を表現する。具体的に、ロボット装置は、基本姿勢に情動を表現するバリエーション(情動基本姿勢)を用意しており、この情動基本姿勢から各リソースを動作させ、再び情動基本姿勢に戻ることにより情動を表出する。この際、ロボット装置は、動作途中の関節角等のデータを相対角度として保持する。
【選択図】 図20

Description

本発明は、本能や感情といった情動をモデル化した情動モデルを有し、自らの情動を表出することが可能な自律型のロボット装置及びその情動表出方法に関する。
近年、産業用ロボット装置に代わり、新しいロボット装置の分野として人間共存型ロボット装置やエンターテインメントロボット装置の研究が進められている。
従来の玩具機械的な位置付けのロボット装置は、外部刺激のみを行動選択のトリガとしているものが多く、ユーザ操作と応答動作との関係が固定的であった。その結果、ユーザは、同じ外部刺激に対して同じ動作しか繰り返さない玩具に対して容易に飽きを感じてしまうことが多かった。
これに対して近年では、本能や感情といった情動をモデル化した情動モデルを有するロボット装置が提案されている。これらのロボット装置は、人間を含む環境とのインタラクションからその情動を変化させ、その情動を表出することができるため、よりエンターテインメント性の高いものとなっている。
ところで、このような情動モデルを有するロボット装置の情動をユーザが認識するためには、ロボット装置がどのように情動を表出するかが重要となる。従来、ロボット装置がユーザに対して情動を表出する方法としては、以下のようなものが提案されている。
(1)情動表出専用の身体リソース(デバイス)を持つ。
(1−1)LED(Light Emission Diode)の色で情動表出を行う。
例えば「赤」により「怒り」の情動を表し、「青」により「悲しみ」の情動を表す。
(1−2)犬や猫などを模した「尻尾」により情動を表す。
例えば「尻尾を上げる」ことにより「怒り」の情動を表し、「尻尾を下げる」ことにより「悲しみ」の情動を表す。
(1−3)人の顔を模した「眉毛」により情動を表す。
例えば「眉尻を上げる」ことにより「怒り」の情動を表し、「眉尻を下げる」ことにより「悲しみ」の情動を表す。
(2)情動により音声にモジュレーションをかける。
例えば「音声の高さ、速さ、大きさを大きくする」ことにより「怒り」の情動を表し、「音声の高さ、速さ、大きさを小さくする」ことにより「悲しみ」の情動を表す。
これらの情動表出方法は、情動表出に用いる身体リソースがその他の身体リソース(生物を模したロボット装置の場合には手、足、頭、腰など)と切り離されているため、全体的に制御が容易であるという利点がある反面、情動表出に用いることができる身体リソースが限られてしまうため、情動表現力に欠けるという欠点がある。
ここで、上述した情動表出方法に代えて、或いは上述した情動表出方法に加えて、身体リソースを使ったモーションによる情動表出が可能になれば、さらに豊かな情動表出が可能となり、ロボット装置のエンターテインメント性をより高めることができると考えられる。従来、身体リソースを使ったモーションにより情動を表出する方法としては、以下のようなものが提案されている。なお、(3−2)の方法は、下記特許文献1に記載されている。
(3)情動表出に身体リソースを使ったモーションを使う。
(3−1)各情動に対応したモーションを作成する。
例えば「お辞儀をする」、「キックする」といったモーションに対し、情動を付加したバリエーションを作成する。
(3−2)モーションを実行する際に、情動に応じたモジュレーションをかける。
例えば「お辞儀をする」、「キックする」といったモーションを再生する際に、適当な身体リソースに適当な周波数を重ね合わせることで、情動を付加したモーションをリアルタイムに生成する。
特開2003−89085号公報
しかしながら、上述した(3−1)の方法は、情動表出専用の身体リソースが必要ないという利点がある反面、各モーションに対して情動を付加したモーションデータを情動の数だけ予め作成しておく負担があり、また、モーションデータを保持するために必要な記憶容量が大きくなるという欠点がある。
一方、上述した(3−2)の方法は、各モーションに対して情動を付加したモーションデータを予め作成しておく負担がなく、モーションデータを保持するための記憶容量も必要ないという利点がある反面、モーションのリアルタイム生成に伴い、計算量が増加するという欠点がある。
本発明は、このような従来の実情に鑑みて提案されたものであり、身体リソースを使ったモーションにより情動を表出する場合に、情動が付加されたモーションをリアルタイムに生成することなく、且つモーションデータを保持するために必要な記憶容量を削減することが可能なロボット装置及びその情動表出方法を提供することを目的とする。
上述した目的を達成するために、本発明に係るロボット装置は、情動をモデル化した情動モデルを有し、自らの情動を表出することが可能な自律型のロボット装置において、上記ロボット装置の情動を検出して管理する情動管理手段と、それぞれ所定の行動が記述された複数の行動記述モジュールと、一又は複数の上記行動記述モジュールを選択し、選択した行動記述モジュールに記述された行動を発現させる行動選択手段とを備え、上記行動選択手段によって一の行動記述モジュールが選択された場合、該一の行動記述モジュールは、上記情動管理手段によって検出された現在の情動に応じて、自身に記述された行動を構成する一又は複数の動作の各開始時点における姿勢である基本姿勢を変化させるものである。
また、上述した目的を達成するために、本発明に係る情動表出方法は、情動をモデル化した情動モデルを有し、自らの情動を表出することが可能な自律型のロボット装置の情動表出方法において、上記ロボット装置の情動を検出して管理する情動管理工程と、それぞれ所定の行動が記述された複数の行動記述モジュールのうち一又は複数の行動記述モジュールを選択し、選択した行動記述モジュールに記述された行動を発現させる行動選択工程とを有し、上記行動選択工程にて一の行動記述モジュールが選択された場合、該一の行動記述モジュールは、上記情動管理工程にて検出された現在の情動に応じて、自身に記述された行動を構成する一又は複数の動作の各開始時点における姿勢である基本姿勢を変化させるものである。
このようなロボット装置及びその情動表出方法では、複数の行動記述モジュールのうち一又は複数の行動記述モジュールを選択されると、選択された行動記述モジュールは、現在の情動に応じて、自身に記述された行動を構成する一又は複数の動作の基本姿勢を変化させる。
本発明に係るロボット装置及びその情動表出方法によれば、行動により情動を表出するため、情動表出の表現力が豊かであり、且つ情動表出専用のアクチュエータ等が不要である。特に、本ロボット装置及びその情動表出方法では、各行動を構成する動作の基本姿勢により情動を表出するため、モーションデータを保持するために必要な記憶容量を削減することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、ペット型エージェントや人間型エージェントなど、生物を模擬し、ユーザとのインタラクションを可能とするロボット装置に適用したものである。以下では先ず、このようなロボット装置の構成について説明し、次にロボット装置の制御システムのうち、行動選択を行う行動選択制御システムについて説明し、最後にそのような行動選択制御システムを含むロボット装置の制御システムについて説明する。
(A)ロボット装置の構成
図1は、本実施の形態のロボット装置の外観を示す斜視図である。図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
図2は、本実施の形態におけるロボット装置1の機能構成を模式的に示すブロック図である。図2に示すように、ロボット装置1は、全体の動作の統括的制御及びその他のデータ処理を行う制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。
入出力部40は、入力部として、人間の「目」に相当し外部の状況を撮影するCCD(Charge Coupled Device)カメラ15、及び「耳」に相当するマイクロフォン16や、頭部や背中等の部位に配設され、所定の押圧を受けるとこれを電気的に検出することでユーザの接触を感知するタッチセンサ18、前方に位置する物体までの距離を測定するための距離センサ、五感に相当するその他ジャイロセンサ等、各種のセンサを装備している。また、入出力部40は、出力部として、頭部ユニット3に備えられ、人間の「口」に相当するスピーカ17、及び人間の目の位置に設けられ、視覚認識状態等を表現する例えばLED(Light Emission Diode)19等を装備している。これらの出力部は、音声やLED19の点滅など、腕部ユニット4R/Lや脚部ユニット5R/L等を用いたモーション以外の形式によっても、ロボット装置1からのユーザ・フィードバックを実現することができる。
例えば、頭部ユニット3の頭頂部の所定箇所に複数のタッチセンサ18を設け、各タッチセンサ18における接触検出を複合的に活用することで、例えばロボット装置1の頭部を「撫でる」、「叩く」、「軽く叩く」等のユーザからの働きかけを検出することができる。具体的には、例えばタッチセンサ18のうちの幾つかが所定時間をおいて順次接触したことを検出した場合、これを「撫でられた」と判別し、短時間のうちに接触を検出した場合、これを「叩かれた」と判別するなど場合分けすることができる。ロボット装置1は、この検出結果に応じて内部状態を変化させ、この内部状態の変化を上述の出力部等により表現することができる。
駆動部50は、制御ユニット20が指令する所定の運動パターンに従ってロボット装置1の機体動作を実現する機能ブロックであり、行動制御による制御対象である。駆動部50は、ロボット装置1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール軸、ピッチ軸、ヨー軸等の各軸毎に設けられた複数の駆動ユニット54〜54で構成される。各駆動ユニット54〜54は、所定軸回りの回転動作を行うモータ51〜51と、モータ51〜51の回転位置を検出するエンコーダ52〜52と、エンコーダ52〜52の出力に基づいてモータ51〜51の回転位置や回転速度を適応的に制御するドライバ53〜53との組み合わせで構成される。
なお、本実施の形態におけるロボット装置1は、2足歩行としたが、駆動ユニット54〜54の組み合わせ方によって、ロボット装置1を例えば4足歩行等の脚式移動ロボット装置として構成することも可能である。
電源部60は、その字義通り、ロボット装置1内の各電気回路等に対して給電を行う機能モジュールである。本実施の形態におけるロボット装置1は、バッテリを用いた自律駆動式であり、電源部60は、充電バッテリ61と、充電バッテリ61の充放電状態を管理する充放電制御部62とで構成される。
充電バッテリ61は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。
また、充放電制御部62は、充電バッテリ61の端子電圧や充電/放電電流量、充電バッテリ61の周囲温度等を測定することで充電バッテリ61の残存容量を把握し、充電の開始時期や終了時期等を決定する。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、ロボット装置1が充電オペレーションを開始及び終了するためのトリガとなる。
制御ユニット20は、人間の「頭脳」に相当し、例えばロボット装置1の頭部ユニット3或いは体幹部ユニット2に搭載されている。
図3は、制御ユニット20の構成をさらに詳細に示すブロック図である。図3に示すように、制御ユニット20は、メイン・コントローラとしてのCPU(Central Processing Unit)21が、メモリ及びその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス28は、データ・バス、アドレス・バス、コントロール・バス等を含む共通信号伝送路である。バス28上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス28上の特定の装置と通信することができる。
RAM(Random Access Memory)22は、DRAM(Dynamic RAM)等の揮発性メモリで構成された書き込み可能なメモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的に保存したりするために使用される。
ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードとしては、ロボット装置1の電源投入時に実行する自己診断テスト・プログラムや、ロボット装置1の動作を規定する動作制御プログラム等が挙げられる。なお、ロボット装置1の制御プログラムには、CCDカメラ15やマイクロフォン16等のセンサ入力を処理してシンボルとして認識する「センサ入力・認識処理プログラム」、短期記憶や長期記憶等の記憶動作(後述)を司りながらセンサ入力と所定の行動制御モデルとに基づいてロボット装置1の行動を制御する「行動制御プログラム」、行動制御モデルに従って各関節モータの駆動やスピーカ17の音声出力等を制御する「駆動制御プログラム」等が含まれる。
不揮発性メモリ24は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータとしては、暗号鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラム等が挙げられる。
インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、CCDカメラ15、マイクロフォン16、又はスピーカ17等との間でデータ入出力を行う。また、インターフェース25は、駆動部50内の各ドライバ53〜53との間でデータやコマンドの入出力を行う。
また、インターフェース25は、RS(Recommended Standard)−232C等のシリアル・インターフェース、IEEE(Institute of Electrical and electronics Engineers)1284等のパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、PCカードやメモリカードを受容するメモリカード・インターフェース(カード・スロット)等のような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行うようにしてもよい。
また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行うようにしてもよい。
さらに、制御ユニット20は、無線通信インターフェース26やネットワーク・インターフェース・カード(NIC)27等を含み、Bluetoothのような近接無線データ通信や、IEEE 802.11bのような無線ネットワーク、或いはインターネット等の広域ネットワークを経由して、外部の様々なホスト・コンピュータとデータ通信を行うことができる。
このようなロボット装置1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、ロボット装置1の複雑な動作制御を演算したり、リモート・コントロールしたりすることができる。
(B)ロボット装置の行動制御方法
次に、本実施の形態におけるロボット装置の行動制御方法について詳細に説明する。上述したロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。すなわち、ロボット装置1は、外部刺激及び内部状態に応じて自律的に行動を選択して発現することができる。詳細は後述するが、ロボット装置1は、各要素行動に対する行動価値AL(Activation Level)に基づいて一又は複数の要素行動を選択し、選択した要素行動を出力することにより、行動を発現する。以下では特に、ロボット装置1の行動制御のうち、内部状態及び外部刺激に基づいて発現する要素行動を選択して出力するまでの行動選択制御について説明するが、先ず、行動選択の基準となる行動価値ALの算出方法について説明する。なお、ロボット装置1の制御システムの全体構成についての詳細は後述する。
(1)ロボット装置の行動選択制御
図4は、ロボット装置1の制御システムにおいて、各要素行動に対応する行動価値ALに基づいて行動出力する処理を行う行動選択制御システム部分を示す模式図である。図4に示すように、行動選択制御システム100は、外部環境におけるセンサ入力等の外部刺激を認識する外部刺激認識部80と、ロボット装置1の本能や感情といった数種類の内部状態を数式モデル化して管理する内部状態管理部91と、ロボット装置1の情動を管理する情動管理部92と、内部状態及び外部刺激に基づき選択されるとそれぞれ所定の行動を出力するモジュールである複数の要素行動(要素行動A乃至Dのみ図示)131と、内部状態及び外部刺激に関わらず選択されると情動に応じた所定の行動(後述)を出力するモジュールである要素行動(要素行動E)132と、各要素行動131の行動価値ALを算出する行動価値算出部120と、行動価値ALに基づき、発現する要素行動131,132を選択する行動選択部130とを有し、選択された要素行動131,132が行動を出力することでロボット装置1が行動を発現するようになされている。
外部刺激認識部80は、ロボット装置1の知覚情報等を外部刺激として認識する。外部刺激としては、例えばCCDカメラ15から入力された画像に対して処理された色情報、形情報、顔情報等の対象物情報等が挙げられる。具体的には、例えば、色、形、顔、3D一般物体、及びハンドジェスチャー、その他、動き、音声、接触、距離、場所、時間、及びユーザとのインタラクション回数等が挙げられる。
内部状態管理部91は、ロボット装置1の本能や感情といった内部の状態を管理する。内部状態としては、例えば疲れ(FATIGUE)、痛み(PAIN)、栄養状態(NOURISHMENT)、乾き(THURST)、愛情(AFFECTION)、好奇心(CURIOSITY)等が挙げられる。内部状態管理部91は、外部刺激並びに例えば自身のバッテリ残量及びモータの回転角等の情報を入力とし、上述のような複数の内部状態に対応した内部状態の値(内部状態ベクトルIntV)を算出、管理する。具体的には、例えば、内部状態「栄養状態」は、充電バッテリ61の残量に基づいて決定し、内部状態「疲れ」は、駆動部50の消費電力に基づいて決定することができる。
情動管理部92は、内部状態に基づいてロボット装置1の情動を管理し、現在の情動を行動選択部130に通知する。ここで、ロボット装置1の情動は、快度(PLEASANTNESS:P)、覚醒度(AROUSAL:A)、確信度(CERTAINTY:C)を3軸とした情動空間上で表現され、その値によって情動の種類及び大きさが決定される。このうち、快度Pは内部状態の増減に伴って増減し、確信度Cは外部刺激認識部80におけるロボット装置1の認識の確信度に伴って増減する。また、覚醒度Aはロボット装置1のバイオリズムによって決定される。このバイオリズムは、例えば下記式(1)のように表現される。なお、下記式(1)におけるtは時間であり、a,w(i=1,2,3)は定数である。
Figure 2005193331
ここで、情動の種類としては、例えば、喜び(JOY)、悲しみ(SADNESS)、怒り(ANGER)、驚き(SURPRISE)、嫌悪(DISGUST)、恐れ(FEAR)、中立(NEUTRAL)等が挙げられ、図5に示すように情動空間内の領域に対応している。但し、各軸の0付近は「中立(NEUTRAL)」の情動を表すものとする。例えば、−100<P<0,−100<A<0の場合、情動は「悲しみ(SADNESS)」となる。また、情動の大きさは、情動空間を構成する各軸上の大きさに対応している。例えば、快度Pの値が大きいほど、「喜び(JOY)」の情動が大きくなり、快度Pの値が小さいほど、「悲しみ(SADNESS)」、「恐れ(FEAR)」の情動が大きくなる。その他の情動の大きさは、各軸上の大きさによらず一定である。
要素行動131(要素行動A〜D)は、内部状態及び外部刺激から行動出力を決定するモジュールであり、各モジュール毎にステートマシンを用意しており、それ以前の行動(動作)や状況に依存して、センサ入力された外部情報の認識結果を分類し、動作を機体上で発現する。このモジュール(行動記述モジュール)は、外部刺激や内部状態に応じた状況判断を行い、行動価値ALを算出するMonitor機能と、行動実行に伴う状態遷移(ステートマシン)を実現するAction機能とを備えたスキーマ(Schema)として記述されるが、スキーマの詳細については後述する。各要素行動131には、自身に記述された行動に応じて所定の内部状態及び外部刺激が定義されている。特に、各要素行動131には、数種類の内部状態のうち、自身に記述された行動を発現することによってある範囲に保つことができるような内部状態が対応付けられる。言い換えれば、各要素行動131に記述された行動は、自身に対応付けられた内部状態をある範囲内に保つための行動(「ホメオスタシス行動」とも呼ぶ)として捉えられる。
要素行動131の一例として、例えば行動出力が「食べる」である要素行動Aは、外部刺激として対象物の種類(OBJECT_ID)、対象物の大きさ(OBJECT_SIZE)、対象物の距離(OBJECT_DISTANCE)等を扱い、内部状態として「栄養状態(NOURISHMENT)」、「疲れ(FATIGUE)」等を扱う。このように、各要素行動131毎に扱う外部刺激及び内部状態の種類が定義され、該当する外部刺激及び内部状態に対応する行動(要素行動)に対する行動価値ALが算出される。このとき、内部状態としての「栄養状態」、「疲れ」が指定の範囲内を越えてしまう場合には、その内部状態を指定の範囲内に保つために、要素行動Aが選択されやすくなるような行動価値ALが算出される。これにより、ロボット装置1のホメオスタシスが実現される。なお、1つの内部状態又は外部刺激は、1つの要素行動131だけでなく、複数の要素行動131に対応付けられていてもよいことは勿論である。
一方、要素行動132(要素行動E)は、内部状態及び外部刺激に関わらず行動出力を決定するモジュールであり、このモジュール(行動記述モジュール)は、常に一定の行動価値ALを算出するスキーマとして記述される。上述した要素行動131とは異なり、この要素行動132には、ロボット装置1の内部状態が対応付けられていないため、要素行動132に記述された行動は、ロボット装置1の内部状態をある範囲内に保つという目的のない行動(「ノンホメオスタシス行動」とも呼ぶ)として捉えられる。なお、この要素行動132は、情動管理部92で管理されるロボット装置1の情動に応じた行動を出力するが、この点については後述する。
ここで、上述した要素行動131,132で算出される行動価値ALとは、その要素行動をロボット装置1がどれくらい実行したいか(実行優先度)を示すものであり、行動選択部130がこの行動価値ALに基づいて要素行動を選択すると、選択された要素行動は、自身に記述された行動を出力する。このとき、要素行動132は、常に一定の行動価値ALを差出するが、要素行動131は、自身に対応付けられた内部状態及び外部刺激に基づいて、行動価値算出部120により行動価値ALを算出する。
行動価値算出部120は、入力される外部刺激と、行動発現後に変化すると予想される予想内部状態変化とが対応付けられた後述する行動価値算出データベース121を参照し、ある時刻での外部刺激と内部状態とからその時刻での各要素行動A〜Dにおける行動価値ALを算出する。この行動価値算出部120は、本実施の形態においては各要素行動A〜D毎に個別に設けられるものとするが、行動価値算出部120により要素行動A〜D全てについての行動価値を算出するようにしてもよい。
各要素行動A〜Dに対する行動価値ALは、現在の各内部状態に対応する各行動に対する欲求値と、現在の各内部状態に基づく満足度と、外部刺激により変化すると予想される内部状態の変化量、すなわち外部刺激が入力され行動を発現した結果、変化すると予想される内部状態の変化量を示す予想内部状態変化に基づく予想満足度変化とに基づき、算出される。
以下では、ある「種類」、「大きさ」の対象物がある「距離」に存在するとき、行動出力が「食べる」である要素行動Aの行動価値ALを要素行動Aに定義された内部状態「栄養状態」、「疲れ」とから算出する場合を例にとって、要素行動Aにおける行動価値ALの算出方法について具体的に説明する。
(2)行動価値算出部
図6は、行動価値算出部120が内部状態及び外部刺激から行動価値ALを算出する処理の流れを示す模式図である。本実施の形態においては、各要素行動A〜D毎に、1以上の内部状態の値を成分として有する内部状態ベクトルIntV(Internal Variable)が定義されており、内部状態管理部91から各要素行動に応じた内部状態ベクトルIntVを得る。すなわち、内部状態ベクトルIntVの各成分は、例えば上述した本能や感情等を示す1つの内部状態の値(内部状態パラメータ)を示すもので、内部状態ベクトルIntVが有する各成分に応じた要素行動の行動価値ALの算出に使用される。具体的には、上記行動出力「食べる」を有する要素行動Aには、例えば内部状態ベクトルIntV{IntV_NOURISHMENT「栄養状態」,IntV_FATIGUE「疲れ」}が定義される。
また、各内部状態毎に、1以上の外部刺激の値を成分として有する外部刺激ベクトルExStml(External Stimulus)が定義されており、外部刺激認識部80から各内部状態、すなわち各要素行動に応じた外部刺激ベクトルExStmlを得る。すなわち、外部刺激ベクトルExStmlの各成分は、例えば上述した対象物の大きさ、対象物の種類、対象物までの距離等の認識情報を示すもので、外部刺激ベクトルExStmlが有する各成分に応じた内部状態値の算出に使用される。具体的には、内部状態IntV_NOURISHMENT「栄養状態」には、例えば、外部刺激ベクトルExStml{OBJECT_ID「対象物の種類」,OBJECT_SIZE「対象物の大きさ」}が定義され、内部状態IntV_FATIGUE「疲れ」には、例えば外部刺激ベクトルExStml{OBJECT_DISTANCE「対象物までの距離」}が定義される。
行動価値算出部120は、この内部状態ベクトルIntV及び外部刺激ベクトルExStmlを入力とし、行動価値ALを算出する。具体的には、行動価値算出部120は、内部状態ベクトルIntVから、該当する要素行動について、どれだけ実行したいかを示すモチベーションベクトル(MotivationVector)を求める第1の算出部MVと、内部状態ベクトルIntV及び外部刺激ベクトルExStmlから、該当する要素行動を実行できるか否かを示すリリーシングベクトル(ReleasingVector)を求める第2の算出部RVとを有し、これら2つのベクトルから行動価値ALを算出する。
(2−1)モチベーションベクトルの算出
行動価値ALを算出する一方の要素であるモチベーションベクトルは、要素行動に定義されている内部状態ベクトルIntVから、その要素行動に対する欲求を示す欲求値ベクトルInsV(Instinct Variable)として求められる。例えば、行動出力「食べる」を有する要素行動Aは、内部状態ベクトルIntV{IntV_NOURISHMENT,IntV_FATIGUE}を有し、これより、欲求値ベクトルInsV{InsV_NOURISHMENT,InsV_FATIGUE}をモチベーションベクトルとして求める。すなわち、欲求値ベクトルInsVは、行動価値ALを算出するためのモチベーションベクトルとなる。
欲求値ベクトルInsVの計算方法としては、例えば内部状態ベクトルIntVの値が大きいほど欲求が満たされているものと判断され欲求値は小さくなり、内部状態ベクトルIntVがある値より大きくなると欲求値は負になるような関数を用いることができる。
具体的には、下記式(2)及び図7に示すような関数が挙げられる。図7は、横軸に内部状態ベクトルIntVの各成分をとり、縦軸に欲求値ベクトルInsVの各成分をとって、下記式(2)で示される内部状態と欲求値との関係を示すグラフ図である。
Figure 2005193331
欲求値ベクトルInsVは、上記式(2)及び図7に示すように、内部状態ベクトルIntVの値のみで決まる。ここでは、内部状態の大きさを0乃至100とし、そのときの欲求値の大きさが−1乃至1となるような関数を示す。例えば内部状態が8割満たされているときに欲求値が0となるような内部状態−欲求値曲線L1を設定することで、ロボット装置は、常に内部状態が8割の状態を維持するように行動を選択するようになる。これにより、例えば、内部状態「栄養状態」(IntV_NORISHMENT)に対応する欲求が「食欲」(InsV_NORISFMENT)である場合、お腹が減っていれば食欲が大きくなり、腹八分目以上では食欲がなくなることを示し、これを利用すればそのような情動を表出するような行動を発現させるようにすることができる。
上記式(2)における定数A乃至Fを種々変更することで、各内部状態毎に異なる欲求値が求まる。例えば、内部状態が0乃至100の間において、欲求値が1乃至0に変化するようにしてもよいし、また、各内部状態毎に上記式(2)とは異なる内部状態−欲求値関数を用意してもよい。
(2−2)リリーシングベクトルの算出
一方、行動価値ALを算出する他方の要素であるリリーシングベクトルは、内部状態ベクトルIntVから求められる満足度ベクトルS(Satisfaction)と、外部刺激ベクトルExStmlから求められる予想満足度変化ベクトルとから算出される。
先ず、各要素行動に定義されている内部状態と、この内部状態に定義されている外部刺激とから、行動発現後に得られるであろう内部状態と現在の内部状態との差を示す下記式(3)に示す予想内部状態変化ベクトルを求める。
Figure 2005193331
予想内部状態変化ベクトルとは、現在の内部状態ベクトルからの、行動発現後に変化すると予想される変化量を示すもので、行動価値算出部120が参照可能な行動価値算出データベース121の行動価値算出データを参照して求めることができる。行動価値算出データは、外部刺激ベクトルと行動発現後に変化すると予想される予想内部状態変化ベクトルとの対応が記述されたものであり、この行動価値算出データベース121を参照することで、行動価値算出部120は、入力された外部刺激ベクトルに応じた予想内部状態変化ベクトルを取得することができる。
なお、行動価値算出データベース121の構成についての詳細は後述する。ここでは、先ず、行動価値算出データベースから予想内部状態変化、予想欲求値変化を求める方法について説明する。
行動価値算出データベース121に登録される行動価値算出データとしては、図8(a)及び図8(b)に示すものが考えられる。すなわち、図8(a)に示すように、内部状態「栄養状態」(「NOURISHMENT」)に関しては、その要素行動の行動出力である「食べる」を発現した結果、対象物の大きさ(OBJECT_SIZE)が大きいほど、また対象物の種類(OBJECT_ID)がOBJECT_ID=0に対応する対象物M1より、OBJECT_ID=1に対応する対象物M2が、また、OBJECT_ID=1に対応する対象物M2より、OBJECT_ID=2に対応する対象物M3の方が内部状態「栄養状態」が満たされる量が大きく、栄養を満たすであろうと予想される場合を示している。
また、図8(b)に示すように、内部状態「疲れ」(「FATIGUE」)に関しては、その要素行動の行動出力である「食べる」を発現した結果、対象物の距離「OBJECT_DISTANCE」が大きいほど、内部状態「FATIGUE」が満たされる量が大きく、疲れるであろうと予想される場合を示している。
すなわち、上述したように、各要素行動に対して内部状態ベクトルIntV及び外部刺激ベクトルExStmlが定義されているため、外部刺激ベクトルExStmlの各成分として対象物の大きさ及び対象物の種類を有するベクトルが供給された場合、この外部刺激ベクトルExStmlが定義されている内部状態IntV_NOURISHMENT(「栄養状態」)を有する内部状態ベクトルが定義されている要素行動Aの行動結果に対する予想内部状態変化が求められ、対象物の距離を有するベクトルが供給された場合、この外部刺激ベクトルExStmlが定義されている内部状態IntV_FATIGUE(「疲れ」)を有する内部状態ベクトルが定義されている要素行動Aの行動結果に対する予想内部状態変化が求められる。
次に、内部状態ベクトルIntVから下記式(4)に示す満足度ベクトルSを算出し、上記式(3)に示す予想内部状態変化ベクトルから、下記式(5)に示す予想満足度変化ベクトルを求める。
Figure 2005193331
Figure 2005193331
内部状態ベクトルIntVに対する満足度ベクトルSの計算法としては、要素行動Aに定義されている内部状態ベクトル{IntV_NOURISHMENT,IntV_FATIGUE}の各成分IntV_NOURISHMENT「栄養状態」及びIntV_FATIGUE「疲れ」に対して、それぞれ下記式(6−1)及び式(6−2)に示すような関数が考えられる。
Figure 2005193331
図9及び図10は、それぞれ上記式(6−1)及び式(6−2)に示す関数の一例を示すグラフ図である。図9は、横軸にIntV_NOURISHMENT「栄養状態」、縦軸に内部状態「栄養状態」に対する満足度S_NOURISHMENTをとり、図10は、横軸にIntV_FATIGUE「疲れ」、縦軸に内部状態「疲れ」に対する満足度S_FATIGUEをとって、内部状態と満足度との関係を示すグラフ図である。
図9に示す関数は、内部状態「栄養状態」の値IntV_NOURISHMENTが0乃至100の値を有し、これに対応する満足度S_NOURISHMENTが0乃至1で全て正の値を有するものであって、内部状態の値が0から80近傍までは満足度が0から増加し、それ以降は減少して内部状態の値が100で再び満足度0になるような曲線L2を示す。すなわち、内部状態「栄養状態」に関しては、現在(ある時刻)の内部状態「栄養状態」の値(IntV_NOURISHMENT=40)から計算される満足度S_NOURISHMENT、図8(a)によって得られる内部状態「栄養状態」の予想内部状態変化(40から60までの20)に対応する予想満足度変化は、共に正である。
また、上述の図6には関数L2のみを示しているが、図10に示すような関数を用いることもできる。この図10に示す関数は、内部状態「疲れ」の値IntV_FATIGUEが0乃至100の値を有し、これに対応する満足度S_FATIGUEが0乃至−1で全て負の値をするものであって、内部状態が大きくなるほど満足度が小さくなるような曲線L3を示す。現在の内部状態「疲れ」の内部状態の値から計算される満足度S_FATIGUEは負であり、図8(a)によって得られる内部状態「疲れ」の予想内部状態変化が正であれば、予想満足度変化ベクトルは負になる。
上記式(6−1)、式(6−2)に示される関数において、各定数A〜Fを可変に設定することで、種々の内部状態に対応して異なる満足度を得るための関数を設定することができる。
そして、下記式(7)によって、外部刺激により行動発現後にどのくらい内部状態を満足させるかの値を決定することで、行動価値ALを算出するための他方の要素であるリリーシングベクトルを求めることができる。
Figure 2005193331
ここで、上記式(7)におけるαが大きいと、リリーシングベクトルは行動を発現した結果、どれくらいの満足度が得られるかを示す予想満足度変化、すなわちどれくらい満足度が増えるかを示す値に強く依存し、αが小さいと、予想満足度、すなわち行動を発現した結果、満足度がどのくらいになるかを示す値に強く依存するという傾向を示すことになる。
(2−3)行動価値ALの算出
以上のようにして求められたモチベーションベクトルとリリーシングベクトルとから、最終的に行動価値ALが下記式(8)のように算出される。
Figure 2005193331
ここで、βが大きいと、行動価値ALは内部状態(欲求値)に強く依存し、βが小さいと外部刺激(予想満足度変化及び予想満足度)に強く依存する傾向を有する。このようにして、内部状態の値(内部状態ベクトルIntV)と外部刺激の値(外部刺激ベクトルExStml)とから欲求値、満足度、予想満足度を計算し、これら欲求値、満足度、予想満足度に基づいて行動価値ALを算出することができる。
そして、この行動価値ALに基づいて、行動選択部130が行動を選択することにより、例えば同じ外部刺激が入力された場合であっても、そのときの内部状態の値によって異なる行動が選択される。
(2−4)行動価値算出データベース
次に、行動価値算出データベース121の行動価値算出データの構造及び、データベースの参照方法(予想内部状態変化の求め方)について説明する。上述したように、行動価値算出データは、入力された外部刺激に対して予想内部状態変化ベクトルを求めるためのデータであり、各要素行動に定義された内部状態に対して、外部刺激ベクトル空間上に代表点(外部刺激の値)が定義されている。そして、その代表点上に予想される内部状態の変化量を示す予想内部状態変化が定義されている。そして、入力された外部刺激が、定義された外部刺激ベクトル空間の代表点上の値であった場合、予想内部状態変化はその代表点上に定義された値となる。
図11(a)及び図11(b)は、行動価値算出データ構造の一例を示すグラフ図である。図11(a)に示すように、内部状態「栄養状態」(「NOURISHMENT」)の予想内部状態変化を求める場合、外部刺激ベクトル空間上の代表点{OBJECT_ID,OBJECT_SIZE}及びこの代表点に対応する予想内部状態変化を例えば下記表1のように定義しておく。
Figure 2005193331
また、図11(b)に示すように、内部状態「疲れ」(「FATIGUE」)の予想内部状態変化ベクトルを求める場合、外部刺激ベクトル空間上の代表点{OBJECT_DISTANCE}及びこの代表点に対応する予想内部状態変化を例えば下記表2のように定義しておく。
Figure 2005193331
このように、予想内部状態変化は、外部刺激ベクトル空間上の代表点にのみ定義されているため、外部刺激の種類(例えば、OBJECT_DISTANCEやOBJECT_SIZE等)によっては、定義された外部刺激ベクトル空間の代表点以外の値が入力されることが考えられる。その場合、予想内部状態変化は、入力された外部刺激の近傍の代表点から線形補間により求めることができる。
図12及び図13は、それぞれ1次元及び2次元の外部刺激の線形補間方法を説明する図である。上述の図11(b)に示すように1つの外部刺激(OBJECT_DISTANCE)から予想内部状態変化を求める場合、すなわち、内部状態に対して1つの外部刺激が定義されている場合、図12に示すように、横軸に外部刺激をとり、縦軸にこの外部刺激に対する予想内部状態変化をとって、外部刺激(OBJECT_DISTANCE)のパラメータである代表点D1及び代表点D2に定義された予想内部状態変化となるような直線L4により、入力される外部刺激Dnによる予想内部状態変化量Inを求めることができる。
また、図13に示すように、内部状態に対して2つの外部刺激が定義されている場合、例えば図12に示すOBJECT_DISTANCEに加え、OBJECT_WEIGHTが定義されている場合、以下のようにして入力される外部刺激ベクトルEnmによる内部状態変化量Inmを求めることができる。ここで、各外部刺激の所定のパラメータである代表点(D1,W1),(D1,W2),(D2,W1),(D2,W2)が定義され、これに対応する予想内部状態変化を有しているものとする。上記の代表点とは異なる外部刺激Enm(Dn,Wn)が入力された場合、例えば先ず、OBJECT_DISTANCE=D1において、OBJECT_WEIGHTの代表点W1,W2に定義された予想内部状態変化を通る直線L5を求め、同じく、OBJECT_DISTANCE=D2において、OBJECT_WEIGHTの代表点W1,W2に定義された予想内部状態変化を通る直線L6を求める。そして、入力される外部刺激Enmの2つの入力のうち、例えばWnに対応する2つの直線L5及びL6における予想内部状態変化を求め、さらにこの2つの予想内部状態変化を結んだ直線L7を求め、この直線L7において入力される外部刺激Enmの他方の外部刺激Dnに対応する予想内部状態変化量Inmを求めることで、外部刺激Enmに対応した予想内部状態変化を線形補間により求めることができる。
(3)ロボット装置の制御システム
次に、上述した行動価値ALを算出して行動を出力する処理を行う行動選択制御システム100をロボット装置1の制御システムに適用した具体例について詳細に説明する。図14は、上述の行動選択制御システム100を含む制御システム10の機能構成を示す模式図である。本ロボット装置1は、上述したように、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うことができる。さらに、ロボット装置1は、長期記憶機能を備え、外部刺激から内部状態の変化を連想記憶することにより、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うことができる。
上述した行動選択制御システム100は、オブジェクト指向プログラミングを採り入れて制御システム10に実装することができる。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeとを行うことができる。
行動制御システム10は、外部環境70を認識するために、視覚認識機能部81、聴覚認識機能部82、及び接触認識機能部83等からなる機能モジュールである上述の図4に示す外部刺激認識部80を備えている。
視覚認識機能部81は、例えばCCDカメラ15のような画像入力装置を介して入力された撮影画像を基に、顔認識や色認識等の画像認識処理や特徴抽出を行う。
また、聴覚認識機能部82は、マイクロフォン16等の音声入力装置を介して入力される音声データを音声認識して、特徴抽出したり、単語セット(テキスト)認識を行ったりする。
さらに、接触認識機能部83は、例えば機体の頭部ユニット3等に内蔵されたタッチセンサ18によるセンサ信号を認識して、「撫でられた」とか「叩かれた」という外部刺激を認識する。
内部状態管理部91は、本能や感情といった数種類の情動を数式モデル化して管理する感情・本能モデルを有しており、上述の視覚認識機能部81、聴覚認識機能部82、及び接触認識機能部83によって認識された外部刺激(ES:External Stimula)に応じてロボット装置1の本能や感情といった内部状態を管理する。この感情・本能モデルは、それぞれ認識結果と行動履歴とを入力に持ち、それぞれ感情値と本能値とを管理している。行動モデルは、これらの感情値や本能値を参照することができる。
情動管理部92は、内部状態に基づいてロボット装置1の情動を例えば、喜び(JOY)、悲しみ(SADNESS)、怒り(ANGER)、驚き(SURPRISE)、嫌悪(DISGUST)、恐れ(FEAR)、中立(NEUTRAL)等に分類し、管理する。
また、行動制御システム10は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行うために、時間経過に従って失われる短期的な記憶を行う短期記憶部93と、情報を比較的長期間保持するための長期記憶部94とを備えている。短期記憶と長期記憶という記憶メカニズムの分類は神経心理学に依拠する。
短期記憶部93は、上述の視覚認識機能部81、聴覚認識機能部82及び接触認識機能部83によって外部環境から認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、図2に示すCCDカメラ15からの入力画像を約15秒程度の短い期間だけ記憶する。
長期記憶部94は、物の名前など学習により得られた情報を長期間保持するために使用される。長期記憶部94は、例えばある行動記述モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。
また、ロボット装置1の行動制御は、反射行動部103によって実現される「反射行動」と、状況依存行動階層102によって実現される「状況依存行動」と、熟考行動階層101によって実現される「熟考行動」とに大別される。
反射行動部103は、上述の視覚認識機能部81、聴覚認識機能部82、及び接触認識機能部83によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。反射行動とは、基本的に、センサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する行動のことである。例えば、人間の顔を追いかけたり、頷いたりといった振る舞いは反射行動として実装することが好ましい。
状況依存行動階層102は、図4に示す行動選択制御システム100における要素行動131,132、行動価値算出部120、及び行動選択部130に相当し、上述したように、内部状態と外部刺激とから行動価値ALを算出し、これに基づき行動出力を行う。具体的に、状況依存行動階層102は、短期記憶部93及び長期記憶部94の記憶内容や、内部状態管理部91によって管理されるロボット装置1の内部状態、或いは情動管理部92によって管理されるロボット装置1の情動を基に、ロボット装置1が現在置かれている状況に即応した行動を制御する。
この状況依存行動階層102は、上述した各要素行動131(要素行動A〜D)毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層102は、内部状態をある範囲に保つためのホメオスタシス行動も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出現し易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動に比し、反応時間が遅い。
熟考行動階層101は、短期記憶部93及び長期記憶部94の記憶内容に基づいて、ロボット装置1の比較的長期にわたる行動計画等を行う。熟考行動とは、与えられた状況或いは人間からの命令により、推論やそれを実現するための計画を立てて行われる行動のことである。例えば、ロボット装置1の位置と目標の位置から経路を探索することは熟考行動に相当する。このような推論や計画は、ロボット装置1がインタラクションを保つための反応時間よりも処理時間や計算負荷を要する(すなわち処理時間がかかる)可能性があるため、上記の反射行動や状況依存行動がリアルタイムで反応を返しながら、熟考行動は推論や計画を行う。
熟考行動階層101、状況依存行動階層102、及び反射行動部103は、ロボット装置1のハードウェア構成に非依存の上位のアプリケーション・プログラムとして記述することができる。これに対し、ハードウェア依存行動制御部104は、これら上位アプリケーション、すなわち行動記述モジュール(スキーマ)からの命令に応じて、関節アクチュエータの駆動等の機体のハードウェア(外部環境)を直接操作する。このような構成により、ロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、使用者からの指示及び働きかけに応じて自律的に行動できる。
次に、行動制御システム10についてさらに詳細に説明する。図15は、行動制御システム10のオブジェクト構成を示す模式図である。
図15に示すように、視覚認識機能部81は、Face Detector114、Multi Color Tracker113、Face Identify115という3つのオブジェクトで構成される。
Face Detector114は、画像フレーム中から顔領域を検出するオブジェクトであり、検出結果をFace Identify115に出力する。Multi Color Tracker113は、色認識を行うオブジェクトであり、認識結果をFace Identify115及びShort Term Memory(STM)93に出力する。また、Face Identify115は、検出された顔画像を手持ちの人物辞書で検索する等して人物の識別を行い、顔画像領域の位置、大きさ情報と共に人物のID情報をShort Term Memory93に出力する。また、Face Identify115は、人物識別の確信度を情動を管理するEmotion Manager92に出力する。
聴覚認識機能部82は、Audio Recog111とSpeech Recog112という2つのオブジェクトで構成される。Audio Recog111は、マイクロフォン16等の音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行うオブジェクトであり、音声区間の音声データの特徴量及び音源方向をSpeech Recog112やShort Term Memory93に出力する。Speech Recog112は、Audio Recog111から受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行うオブジェクトであり、認識された単語のセットをShort Term Memory93に出力する。また、Speech Recog112は、音声認識の確信度をEmotion Manager92に出力する。
触覚認識記憶部83は、タッチセンサ18からのセンサ入力を認識するTactile Sensor119というオブジェクトで構成され、認識結果はShort Term Memory93や内部状態を管理するオブジェクトであるInternal Status Manager(ISM)91に出力する。
Short Term Memory93は、短期記憶部を構成するオブジェクトであり、上述の認識系の各オブジェクトによって外部環境から認識されたターゲットやイベントを短期間保持(例えばCCDカメラ15からの入力画像を約15秒程度の短い期間だけ記憶する)する機能モジュールであり、Short Term Memory93のクライアント(STMクライアント)であるSituated Behaviors Layer(SBL)102に対して外部刺激の通知(Notify)を定期的に行う。
Long Term Memory(LTM)94は、長期記憶部を構成するオブジェクトであり、物の名前など学習により得られた情報を長期間保持するために使用される。Long Term Memory94は、例えばある行動記述モジュール(スキーマ)において外部刺激から内部状態の変化を連想記憶することができる。
Internal Status Manager91は、内部状態管理部を構成するオブジェクトであり、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の認識系の各オブジェクトによって認識された外部刺激(ES:External Stimula)に応じてロボット装置1の本能や感情といった内部状態を管理する。
Emotion Manager92は、情動管理部を構成するオブジェクトであり、Internal Status Manager91によって管理されている内部状態や上述の認識系の各オブジェクトによって認識された外部刺激等に基づいて、ロボット装置1の情動を管理する。
Situated Behaviors Layer102は、状況依存行動階層を構成するオブジェクトである。Situated Behaviors Layer102は、STMクライアントとなるオブジェクトであり、Short Term Memory93からは定期的に外部刺激(ターゲットやイベント)に関する情報の通知を受け取ると、スキーマすなわち実行すべき行動記述モジュールを決定する(後述)。
ReflexiveSBL103は、反射行動部を構成するオブジェクトであり、上述した認識系の各オブジェクトによって認識された外部刺激に応じて反射的・直接的な機体動作を実行する。例えば、人間の顔を追いかけたり、頷く、障害物の検出により咄嗟に避けるといった振る舞いを行う。
Situated Behaviors Layer102は、外部刺激や内部状態の変化等の状況に応じた動作を選択する。これに対し、ReflexiveSBL103は、外部刺激に応じて反射的な動作を選択する。これら2つのオブジェクトによる行動選択は独立して行われるため、互いに選択された行動記述モジュール(スキーマ)を機体上で実行する場合に、ロボット装置1のハードウェア・リソースが競合して実現不可能なこともある。Resource Manager(RM)116というオブジェクトは、Situated Behaviors Layer102とReflexiveSBL103とによる行動選択時のハードウェアの競合を調停する。そして、調停結果に基づいて機体動作を実現する各オブジェクトに通知することにより機体が駆動する。
Sound Performer172、Motion Controller173、LED Controller174は、機体動作を実現するオブジェクトである。Sound Performer172は、音声出力を行うためのオブジェクトであり、Resource Manager116経由でSituated Behaviors Layer102から与えられたテキスト・コマンドに応じて音声合成を行い、ロボット装置1の機体上のスピーカ17から音声出力を行う。また、Motion Controller173は、機体上の各関節アクチュエータの動作を行うためのオブジェクトであり、Resource Manager116経由でSituated Behaviors Layer102から手や脚等を動かすコマンドを受けたことに応答して、該当する関節角を計算する。また、LED Controller174は、LED19の点滅動作を行うためのオブジェクトであり、Resource Manager116経由でSituated Behaviors Layer102からコマンドを受けたことに応答してLED19の点滅駆動を行う。
(3−1)状況依存行動制御
次に、上述の具体例において説明したように、行動価値ALを算出し、発現する行動を選択する状況依存行動階層についてさらに詳細に説明する。図16には、状況依存行動階層(SBL)(但し、反射行動部を含む)による状況依存行動制御の形態を模式的に示している。視覚認識機能部81、聴覚認識機能部82、及び接触認識機能部83からなる外部刺激認識部80における外部環境70の認識結果(センサ情報)182は、外部刺激183として状況依存行動階層(反射行動部103を含む)102aに与えられる。また、外部刺激認識部80による外部環境70の認識結果に応じた内部状態の変化184も状況依存行動階層102aに与えられる。そして、状況依存行動階層102aでは、外部刺激183や内部状態の変化184に応じて状況を判断して、行動選択を実現することができる。状況依存行動階層102aでは、上述したように、外部刺激183や内部状態の変化184によって、要素行動131が記述された行動記述モジュール(スキーマ)の行動価値ALを算出して、行動価値ALの大きさに応じてスキーマを選択して行動(動作)を実行する。行動価値ALの算出には、例えばライブラリを利用することにより、全てのスキーマについて統一的な計算処理を行うことができる。ライブラリには、例えば上述したように、内部状態ベクトルから欲求値ベクトルを算出する関数、内部状態ベクトルから満足度ベクトルを算出する関数、及び外部刺激から予想内部状態変化ベクトルを予想するための行動評価データベース等が保存されている。
(3−2)スキーマ
図17には、状況依存行動階層102が複数のスキーマ(要素行動)131,132によって構成されている様子を模式的に示している。状況依存行動階層102は、上述した要素行動131として、行動記述モジュールを有し、各行動記述モジュール毎にステートマシンを用意しており、それ以前の行動(動作)や状況に依存して、センサ入力された外部情報の認識結果を分類し、動作を機体上で発現する。要素行動131となる行動記述モジュールは、外部刺激や内部状態に応じた状況判断を行うMonitor機能と、行動実行に伴う状態遷移(ステートマシン)を実現するAction機能とを備えたスキーマとして記述される。一方、要素行動132となる行動記述モジュールは、内部状態及び外部刺激に関わらず行動出力を決定するスキーマとして記述される。
状況依存行動階層102b(より厳密には、状況依存行動階層102のうち、通常の状況依存行動を制御する階層)は、複数のスキーマ131,132が階層的に連結されたツリー構造として構成され、外部刺激や内部状態の変化に応じてより最適なスキーマ131,132を統合的に判断して行動制御を行うようになっている。このツリー133は、例えば動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するためのサブツリー等、複数のサブツリー(又は枝)を含んでいる。
図18には、状況依存行動階層102におけるスキーマのツリー構造を模式的に示している。同図に示すように、状況依存行動階層102は、短期記憶部93からの外部刺激の通知を受けるルート・スキーマ201を先頭に、抽象的な行動カテゴリから具体的な行動カテゴリに向かうように、各階層毎にスキーマが配設されている。例えば、ルート・スキーマ201の直近下位の階層では、「サッカーをする(Soccer)」、「会話をする(Dialogue)」というスキーマ202,203が配設される。そして、スキーマ202「サッカーをする(Soccer)」の下位には、「Soccer Search」、「Soccer Approach」、「Shot」という具体的なサッカーに関連する行動を記述した複数のスキーマ202が配設されている。さらに、スキーマ202「Shot」の下位には、「Left Kick」、「Right Kick」というより具体的なボールを蹴る行動に関連する行動を記述した複数のスキーマ202が配設されている。同様に、スキーマ203「会話をする(Dialogue)」の下位には、「Dialogue Search」、「Dialogue Approach」、「Chat」というより具体的な会話に関連する行動を記述した複数のスキーマ203が配設されている。
これらの各スキーマは、上述した要素行動131に対応するものであり、外部刺激や内部状態に応じた状況判断を行うMonitor機能と、行動実行に伴う状態遷移(ステートマシン)を実現するAction機能とを備えている。
ここで、Monitor関数とは、外部刺激と内部状態とに応じて当該スキーマの行動価値ALを算出する関数であり、各スキーマは、このような行動価値算出手段としてのMonitor機能を有する。図18に示すようなツリー構造を構成する場合、上位(親)のスキーマは外部刺激及び内部状態を引数として下位(子供)のスキーマのMonitor関数をコールすることができ、子供のスキーマは行動価値ALを返り値とする。また、スキーマは自分の行動価値ALを算出するために、さらに子供のスキーマのMonitor関数をコールすることができる。そして、ルート・スキーマには各サブツリーからの行動価値ALが返されるので、外部刺激及び内部状態の変化に応じた最適なスキーマ、すなわち行動を統合的に判断することができる。ここで、ルート・スキーマを上述の行動選択部130とし、これにより、スキーマを選択するようにしてもよい。なお、例えば後述するリソース・マネージャRM116や、別に設けた行動選択部により、各スキーマの行動価値ALを観察し、各行動価値ALの値に基づき行動を選択してもよいことは勿論である。
行動選択部130では、上述したように、例えば行動価値ALが最も高いスキーマを選択したり、行動価値ALが所定の閾値を越えた2以上のスキーマを選択して並列的に行動実行するようにしてもよい。但し、並列実行するときは各スキーマ同士でハードウェア・リソースの競合がないことを前提とする。
また、Action関数は、スキーマ自身が持つ行動を記述したステートマシンを備えている。図18に示すようなツリー構造を構成する場合、親スキーマは、Action関数をコールして、子供スキーマの実行を開始したり中断させたりすることができる。本具体例では、ActionのステートマシンはReadyにならないと初期化されない。言い換えれば、中断しても状態はリセットされず、スキーマが実行中の作業データを保存することから、中断再実行が可能である。
ところで、このような要素行動131に対応するスキーマのみでツリー構造が構成される場合、これらのスキーマは、自身に対応付けられた内部状態を指定の範囲内に保つためのホメオスタシス行動を実現するためのものであるため、ロボット装置1の内部状態が十分に満たされていると、各スキーマで算出される行動価値ALは、低いものになってしまう。
しかしながら、行動選択部130では、行動価値ALの大きさに応じてスキーマが選択されるため、絶対的な行動価値ALが低くても、相対的に最も高い行動価値ALを有するスキーマが選択され、そのスキーマに記述された行動が発現されることになる。
そこで、本実施の形態では、図4に示したように、要素行動131とは別に、内部状態及び外部刺激に関わらず常に一定の行動価値ALを算出する要素行動132を設けている。この要素行動132には、ロボット装置1の内部状態をある範囲に保つという目的のないノンホメオスタシス行動(音源方向に振り向く、腕をブラブラさせる等)が記述される。
図18に示すツリー構造におけるスキーマ204「non-homeostasis」は、この要素行動132に対応するものであり、ルート・スキーマ201の直近下位の階層に配設されている。
行動選択部130は、上述したように、例えば行動価値ALが最も高いスキーマを選択するため、要素行動131に対応するスキーマで算出された行動価値ALが要素行動132に対応するスキーマ204で算出された行動価値ALよりも低い場合には、スキーマ204に記述された行動が出力されることとなる。
具体的に、ルート・スキーマ201の直近下位の階層で選択された要素行動の推移例を図19に示す。スキーマ「Soccer」、「Dialogue」、「non-homeostasis」の行動価値ALが時間経過に従って図示のように推移したとする。図19において、期間T1では、「Soccer」の行動価値ALが最も高いため、行動選択部130によってこのスキーマ「Soccer」が選択され、ロボット装置1は、サッカーをする行動を出力する。同様にして、期間T2、T3では、それぞれスキーマ「Dialogue」、「Soccer」が選択され、そのスキーマに記述された行動が出力される。期間T4では、スキーマ「Dialogue」、「Soccer」の行動価値ALが共にスキーマ「non-homeostasis」の行動価値ALよりも低くなっている。したがって、この期間T4では、ロボット装置1の内部状態を指定の範囲内に保つといったような目的のない行動(ノンホメオスタシス行動)が出力されることになる。そして、期間T5では、再びスキーマ「Dialogue」の行動価値ALが高くなり、当該スキーマが行動選択部130によって選択される。
ロボット装置1は、例えば図19に示したように、発現する行動を推移させて環境とのインタラクションを行うが、特にロボット装置1は、各要素行動を発現する際に、その要素行動を構成する一又は複数の動作(モーション)の開始時点の姿勢である基本姿勢により、情動を表現する。
ここで、各動作は、動作開始時点での基本姿勢(立ち姿勢、座り姿勢、寝姿勢)からリソースをどのように動作させて動作終了時にどの基本姿勢に遷移するかという形で表現される。なお、動作終了時での基本姿勢は、一般的には動作開始時点での基本姿勢と同じである。
ロボット装置1は、このような基本姿勢に情動を表現するバリエーション(情動基本姿勢)を用意しており、この情動基本姿勢から各リソースを動作させ、再び情動基本姿勢に戻ることにより情動を表出する。この際、ロボット装置1は、動作途中の関節角等のデータを相対角度として保持する。これにより、情動毎に情動基本姿勢を保持するのみで、情動を表出する動作を発現できるようになる。
図20に基本姿勢を立ち姿勢とした場合における情動基本姿勢の一例を示す。この図20において、(a)〜(f)は、それぞれ「喜び(JOY)」、「悲しみ(SADNESS)」、「怒り(ANGER)」、「驚き(SURPRISE)」、「嫌悪(DISGUST)」、「恐れ(FEAR)」の情動における情動基本姿勢を示したものである。
例えば「中立(NEUTRAL)」の情動でお辞儀動作を行う場合、図21に示すように、立ち姿勢の基本姿勢から開始し、腰を前に屈めて再び基本姿勢に戻る。一方、「悲しみ(SADNESS)」の情動でお辞儀動作を行う場合、図22に示すように、「悲しみ(SADNESS)」の情動基本姿勢から開始し、腰を前に屈めて再び「悲しみ(SADNESS)」の情動基本姿勢に戻る。
また、「喜び(JOY)」、「悲しみ(SADNESS)」、「恐れ(FEAR)」のように、情動が大きさを持つ場合には、その情動の大きさに依存した情動基本姿勢を出力させることができる。例えば「悲しみ(SADNESS)」の情動の場合には、図23に示すように情動の大きさが反映された情動基本姿勢とすることができる。すなわち、「悲しみ(SADNESS)」の情動が大きくなるに従って、より肩を落とした姿勢を情動基本姿勢とする。この場合、情動の大きさをレベル分けし、それぞれに応じた情動基本姿勢を用意するようにしてもよく、最も情動が大きい場合と小さい場合とにおける情動基本姿勢での各関節角を線形補間し、情動の大きさから情動基本姿勢を生成するようにしても構わない。
このように、本ロボット装置1は、自身の行動により情動を表出するため、情動表出の表現力が豊かであり、且つ情動表出専用のアクチュエータ等が不要である。また、LED19等を用いた情動表出と併存させることも可能であり、この場合には、情動表出の表現力をさらに高めることができる。特に、本ロボット装置1は、動作開始時点の姿勢である基本姿勢により情動を表現するため、モーションデータを保持するために必要な記憶容量を削減することができる。
本実施の形態におけるロボット装置の外観を示す斜視図である。 同ロボット装置の機能構成を模式的に示すブロック図である。 同ロボット装置の制御ユニットの構成を詳細に示すブロック図である。 同ロボット装置の制御システムにおいて、各行動に対応する行動価値を算出してこれに基づき行動出力する処理を行う行動選択制御システム部分を示す模式図である。 同ロボット装置の情動を表現するための情動空間を示す図である。 行動価値算出部が内部状態及び外部刺激から行動価値ALを算出する処理の流れを示す模式図である。 内部状態と欲求値との関係の一例を示すグラフ図である。 行動価値算出データベースにおける行動価値算出データを示す図である。 内部状態と満足度との関係の一例を示すグラフ図である。 内部状態と満足度との関係の他の例を示すグラフ図である。 外部刺激から予想内部状態変化を求める行動価値算出データ構造の一例を示す図である。 1次元の外部刺激の線形補間方法を説明する図である。 2次元の外部刺激の線形補間方法を説明する図である。 同ロボット装置の制御システムの機能構成を示す模式図である。 同制御システムのオブジェクト構成を示す模式図である。 同制御システムの状況依存行動階層における状況依存行動制御の形態を示す模式図である。 同状況依存行動階層が複数のスキーマによって構成されている様子を示す模式図である。 同状況依存行動階層におけるスキーマのツリー構造の具体例を示す模式図である。 ルート・スキーマの直近下位の階層で選択された要素行動の推移例を示す図である。 各情動における情動基本姿勢の一例を示す図である。 「中立」の情動におけるお辞儀動作を示す図である。 「悲しみ」の情動におけるお辞儀動作を示す図である。 「悲しみ」の情動の大きさと基本姿勢との関係の一例を示す図である。
符号の説明
1 ロボット装置、10 制御システム、15 CCDカメラ、16 マイクロフォン、17 スピーカ、18 タッチセンサ、19 LED、20 制御部、40 入出力部、50 駆動部、80 外部刺激認識部、91 内部状態管理部、92 情動管理部、100 行動選択制御システム、102 状況依存行動階層、120 行動価値算出部、130 行動選択部、131,132 要素行動

Claims (10)

  1. 情動をモデル化した情動モデルを有し、自らの情動を表出することが可能な自律型のロボット装置において、
    上記ロボット装置の情動を検出して管理する情動管理手段と、
    それぞれ所定の行動が記述された複数の行動記述モジュールと、
    一又は複数の上記行動記述モジュールを選択し、選択した行動記述モジュールに記述された行動を発現させる行動選択手段とを備え、
    上記行動選択手段によって一の行動記述モジュールが選択された場合、該一の行動記述モジュールは、上記情動管理手段によって検出された現在の情動に応じて、自身に記述された行動を構成する一又は複数の動作の各開始時点における姿勢である基本姿勢を変化させる
    ことを特徴とするロボット装置。
  2. 上記行動記述モジュールは、各情動に応じた基本姿勢を有しており、上記行動選択手段によって選択された場合、上記情動管理手段によって検出された現在の情動に応じた基本姿勢を選択することを特徴とする請求項1記載のロボット装置。
  3. 上記行動記述モジュールは、現在の情動の大きさに応じて、該情動に応じた基本姿勢を変化させることを特徴とする請求項1記載のロボット装置。
  4. 上記行動記述モジュールには、各情動が最小及び最大の場合における基本姿勢が情動毎に記述されており、
    上記行動記述モジュールは、上記情動管理手段によって検出された現在の情動の大きさに応じて当該情動が最小及び最大の場合における基本姿勢を線形補間することにより、出力する基本姿勢を生成する
    ことを特徴とする請求項3記載のロボット装置。
  5. 上記情動は、喜び、悲しみ、怒り、驚き、嫌悪、恐れ及び中立を少なくとも含むことを特徴とする請求項1記載のロボット装置。
  6. 情動をモデル化した情動モデルを有し、自らの情動を表出することが可能な自律型のロボット装置の情動表出方法において、
    上記ロボット装置の情動を検出して管理する情動管理工程と、
    それぞれ所定の行動が記述された複数の行動記述モジュールのうち一又は複数の行動記述モジュールを選択し、選択した行動記述モジュールに記述された行動を発現させる行動選択工程とを有し、
    上記行動選択工程にて一の行動記述モジュールが選択された場合、該一の行動記述モジュールは、上記情動管理工程にて検出された現在の情動に応じて、自身に記述された行動を構成する一又は複数の動作の各開始時点における姿勢である基本姿勢を変化させる
    ことを特徴とする情動表出方法。
  7. 上記行動記述モジュールは、各情動に応じた基本姿勢を有しており、上記行動選択工程にて選択された場合、上記情動管理工程にて検出された現在の情動に応じた基本姿勢を選択することを特徴とする請求項6記載の情動表出方法。
  8. 上記行動記述モジュールは、現在の情動の大きさに応じて、該情動に応じた基本姿勢を変化させることを特徴とする請求項6記載の情動表出方法。
  9. 上記行動記述モジュールには、各情動が最小及び最大の場合における基本姿勢が情動毎に記述されており、
    上記行動記述モジュールは、上記情動管理工程にて検出された現在の情動の大きさに応じて当該情動が最小及び最大の場合における基本姿勢を線形補間することにより、出力する基本姿勢を生成する
    ことを特徴とする請求項8記載の情動表出方法。
  10. 上記情動は、喜び、悲しみ、怒り、驚き、嫌悪、恐れ及び中立を少なくとも含むことを特徴とする請求項6記載の情動表出方法。
JP2004001368A 2004-01-06 2004-01-06 ロボット装置及びその情動表出方法 Withdrawn JP2005193331A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004001368A JP2005193331A (ja) 2004-01-06 2004-01-06 ロボット装置及びその情動表出方法
US11/029,866 US7515992B2 (en) 2004-01-06 2005-01-05 Robot apparatus and emotion representing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004001368A JP2005193331A (ja) 2004-01-06 2004-01-06 ロボット装置及びその情動表出方法

Publications (1)

Publication Number Publication Date
JP2005193331A true JP2005193331A (ja) 2005-07-21

Family

ID=34816901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004001368A Withdrawn JP2005193331A (ja) 2004-01-06 2004-01-06 ロボット装置及びその情動表出方法

Country Status (2)

Country Link
US (1) US7515992B2 (ja)
JP (1) JP2005193331A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008023604A (ja) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2012111038A (ja) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International アンドロイド制御システム
WO2016206647A1 (zh) * 2015-06-26 2016-12-29 北京贝虎机器人技术有限公司 用于控制机器装置产生动作的系统
JP2017056504A (ja) * 2015-09-15 2017-03-23 株式会社日本自動車部品総合研究所 動作体の感情動作制御装置及び感情動作制御方法
WO2017199585A1 (ja) * 2016-05-19 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
WO2017199565A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
JP2005333211A (ja) * 2004-05-18 2005-12-02 Sony Corp 音響収録方法、音響収録再生方法、音響収録装置および音響再生装置
JP4086024B2 (ja) * 2004-09-14 2008-05-14 ソニー株式会社 ロボット装置及びその行動制御方法
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US20070072511A1 (en) * 2005-09-26 2007-03-29 M-Systems Flash Disk Pioneers Ltd. USB desktop toy
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US20070288898A1 (en) * 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
KR100833512B1 (ko) * 2006-12-08 2008-05-29 한국전자통신연구원 태그의 센싱 데이터 저장 장치 및 그 방법
KR100833511B1 (ko) * 2006-12-08 2008-05-29 한국전자통신연구원 휘발성 메모리를 구비한 패시브 태그
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
ES2358139B1 (es) * 2009-10-21 2012-02-09 Thecorpora, S.L. Robot social.
KR101019655B1 (ko) * 2009-12-04 2011-03-07 (주) 퓨처로봇 사용 유도 장치 및 방법
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US20120059781A1 (en) * 2010-07-11 2012-03-08 Nam Kim Systems and Methods for Creating or Simulating Self-Awareness in a Machine
US10157342B1 (en) * 2010-07-11 2018-12-18 Nam Kim Systems and methods for transforming sensory input into actions by a machine having self-awareness
US9431027B2 (en) 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US9146559B2 (en) * 2011-03-18 2015-09-29 The Raymond Corporation System and method for gathering video data related to operation of an autonomous industrial vehicle
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US9573276B2 (en) * 2012-02-15 2017-02-21 Kenneth Dean Stephens, Jr. Space exploration with human proxy robots
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP6500867B2 (ja) * 2016-09-23 2019-04-17 カシオ計算機株式会社 ロボット、故障診断システム、故障診断方法及びプログラム
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
US11439346B2 (en) 2019-01-03 2022-09-13 Jacob T. Boyle Robotic device for assisting individuals with a mental illness

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP3731118B2 (ja) * 2002-02-18 2006-01-05 独立行政法人科学技術振興機構 二脚歩行式人型ロボット
AU2003267126A1 (en) * 2002-09-09 2004-03-29 Ingeeni Studios, Inc. Artificial intelligence platform

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008023604A (ja) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2012111038A (ja) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International アンドロイド制御システム
WO2016206647A1 (zh) * 2015-06-26 2016-12-29 北京贝虎机器人技术有限公司 用于控制机器装置产生动作的系统
JP2017056504A (ja) * 2015-09-15 2017-03-23 株式会社日本自動車部品総合研究所 動作体の感情動作制御装置及び感情動作制御方法
WO2017199585A1 (ja) * 2016-05-19 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
WO2017199565A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JPWO2017199565A1 (ja) * 2016-05-20 2019-01-10 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
CN109195754A (zh) * 2016-05-20 2019-01-11 夏普株式会社 机器人、机器人的动作方法以及程序
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source

Also Published As

Publication number Publication date
US7515992B2 (en) 2009-04-07
US20050216121A1 (en) 2005-09-29

Similar Documents

Publication Publication Date Title
JP2005193331A (ja) ロボット装置及びその情動表出方法
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
JP4244812B2 (ja) 行動制御システム及びロボット装置の行動制御方法
CN100364731C (zh) 机器人装置、其行为控制方法及程序
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
US7363108B2 (en) Robot and control method for controlling robot expressions
JP2006110707A (ja) ロボット装置
JP2007125631A (ja) ロボット装置及びその行動制御方法
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP2004283958A (ja) ロボット装置、その行動制御方法及びプログラム
JP4296736B2 (ja) ロボット装置
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP4552465B2 (ja) 情報処理装置、ロボット装置の行動制御方法、ロボット装置及びコンピュータ・プログラム
JP2005193330A (ja) ロボット装置及びその情動表出方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP4147960B2 (ja) ロボット装置、及びロボット装置の動作制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP2005321954A (ja) ロボット装置、情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2004283957A (ja) ロボット装置、その制御方法、及びプログラム
JP2004209599A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動生成方法
JP2004283960A (ja) ロボット装置、その行動制御方法、及びプログラム
JP2007125630A (ja) ロボット装置及びその行動制御方法
Lee et al. Building adaptive emotion-based pet robots
JP2003136451A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070306