JPWO2002099545A1 - マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法 - Google Patents

マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法 Download PDF

Info

Publication number
JPWO2002099545A1
JPWO2002099545A1 JP2003502598A JP2003502598A JPWO2002099545A1 JP WO2002099545 A1 JPWO2002099545 A1 JP WO2002099545A1 JP 2003502598 A JP2003502598 A JP 2003502598A JP 2003502598 A JP2003502598 A JP 2003502598A JP WO2002099545 A1 JPWO2002099545 A1 JP WO2002099545A1
Authority
JP
Japan
Prior art keywords
state
user
action
target
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003502598A
Other languages
English (en)
Inventor
トーマス ケムプ
トーマス ケムプ
ラルフ コンペ
ラルフ コンペ
ラッケル タト
ラッケル タト
藤田 雅博
雅博 藤田
活樹 南野
活樹 南野
河本 献太
献太 河本
里香 堀中
里香 堀中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2002099545A1 publication Critical patent/JPWO2002099545A1/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明では、マン・マシン・インタフェースユニットを制御する汎用性のある方法が提案されており、少なくとも実行すべき目標行動(t)を導出及び/又は初期設定し、ユーザを任意の現在状態(ec)から最終状態(ef)としての任意の所望の目標状態(et)へと導くために、学習サンプル(l)が使用される。この学習サンプル(l)は、任意のユーザが実行した行動(a)の前の初期状態(ei)、当該行動後の最終状態(ef)及び当該実行した行動(a)を表すデータトリプルから構成される。

Description

技術分野
本発明は、マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法に関し、特に動作及び/又はエンターテイメント能力を学習するステップを有するマン・マシン・インターフェースユニットの制御方法、並びにそのようなマン・マシン・インターフェースユニットの制御方法が適用されるロボット装置及びその行動制御方法に関する。
背景技術
今日では、装置或いは機器を容易且つ信頼性よく使用可能とし、ユーザの便宜を図るため、多くの装置或いは機器にマン・マシン・インターフェース技術やマン・マシン対話システムが採用されている。
従来、このような装置或いは機器に組み込まれたマン・マシン・インターフェースユニットを制御するシステムにおいては、ユーザの行動或いは期待に対して最適な動作を生成するために、共通の知識及び/又はユーザ研究から得られた所定のルールが使用されていた。
しかしながら、これらの所定のルールは、固定化されたものであり、マン・マシン・インターフェースユニットを制御する上述のシステムにおける動作可能性は、一般ルール及び/又はユーザ独立ルールと動作とを組み合わせるに留まっていた。これは、多くの場合、すなわち殆どのユーザにとって、平均的には最善の解決法であるが、最適な解決法とはいえなかった。
発明の開示
本発明は、上述の実情に鑑みて提案されるものであって、柔軟且つ信頼性よく、ユーザの動作、期待、或いは質問に対応することを可能とするマン・マシン・インターフェースユニットの制御方法を提供することを目的とする。
この目的は、請求の範囲第1項に記載するマン・マシン・インターフェースユニットの制御方法によって達成される。マン・マシン・インターフェースユニットの制御方法についての好ましい実施例は、従属項の範囲内にある。また、この目的は、請求の範囲第19項に記載するマン・マシン・インターフェースユニットの制御システム、及び請求の範囲第20項に記載するコンピュータプログラム製品によって達成される。
マン・マシン・インタフェースユニットを制御する本発明の方法においては、少なくとも1人のユーザに関して、ある行動を実行する前の初期状態とその行動を実行した後の最終状態とが検出される。また、初期状態、最終状態及び実行した行動を示すデータトリプルが学習サンプルとして収集される。この学習サンプルは、実行すべき目標行動を少なくとも導出及び/又は初期設定し、ユーザを任意の現在状態から所望の目標状態へと導くために使用される。
したがって、本発明の基本概念は、少なくとも1人のユーザについて実行される行動に関して、特にマン・マシン・インタフェースユニット自体或いはそれに結合された実行ユニットによって、ある行動を実行する前のユーザの初期状態及びその行動を実行した後の最終状態、又はユーザの初期状態及び/又は最終状態に対応し、若しくは表示するデータを導出することにある。そして、初期状態、最終状態、及び初期状態と最終状態との間に実行された行動を表すデータトリプルとして学習サンプルが生成される。さらに、この学習サンプルは収集されて、実行すべき目標行動を少なくとも導出及び/又は初期設定するために使用される。ユーザは、この目標行動によって任意の現在状態から任意の所望の目標状態へと導かれる。
従来におけるマン・マシン・インタフェースユニットの制御方法とは対照的に、本発明の方法には特に柔軟性があるが、それはこの方法が、結果的にユーザ独立となっている固定化された所定のルールに依存していないためである。本発明の方法では、起こっている状況及びユーザとマン・マシン・インタフェースユニットとの間のインタラクションから選択的(alternatively)又は追加的(additionally)にデータを獲得する。つまり、実行された行動前後のユーザの状態を測定し、対応するデータを得る。したがって、実行された行動により、行動前のユーザの初期状態と行動後のユーザの最終状態とが対応付けられる。
何れの場合にも異なる状態を表示するためには、現在状態データ若しくは初期状態データを受取り、及び/又は生成することが好ましい。これらの現在状態データ又は初期状態データは、ユーザの現在状態及び/又は初期状態にそれぞれ対応し、及び/又はそれらの状態を示している。
さらに、何れの場合も、最終状態データ又は目標状態データが受取られ、及び/又は生成される。これらの最終状態データ又は目標状態データは、ユーザの最終状態及び目標状態にそれぞれ対応し、及び/又はそれらの状態を示している。
それに加えて、行動データ及び目標行動データを受取り、及び/又は生成することもできる。これらの行動データ及び目標行動データは、実行した行動及び本発明の方法の他の好ましい実施例により導出された目標行動に対応し、及び/又はそれらの行動を示している。
本発明の好ましい、効果的な実施例によれば、異なる状態を自然且つ標準的に記述し、表示することができる。この実施例では、現在状態、初期状態、最終状態及び/又は目標状態、そして特にそれらの表示データ及び/又は対応データを、何れの場合にも、埋込み位相多様体(embedding topological manifold)によって、特に2次元の埋込み位相多様体によって表示し、及び/又はその埋込み位相多様体の形でモデル化する。
選択的又は追加的に、実行した行動、目標行動、及び/又はそれらの対応データ及び/又は表示データは、何れの場合にも、埋込み位相多様体により表示し、及び/又はその埋込み位相多様体の形でモデル化することができる。
もちろん、この埋め込み位相多様体は、ユーザ毎に別個の多様体として形成し、導出し、及び/又は使用することもできる。選択的又は追加的に、複数のユーザを等価なユーザからなるいくつかのクラスに分割し、このクラスの各々について別個の多様体を形成し、導出し、及び/又は使用することもできる。また、選択的に、全てのユーザ用に共通又は全体的な多様体を導出し、及び/又は使用することもできる。なお、これは追加的に実施することもできる。
ここで、異なる状態を記述するためにユーザのいくつかの特性を用いることができるが、本発明のもう1つの効果的な実施例によれば、上述したユーザの現在状態、初期状態、最終状態、そして目標状態として、感情状態を使用することが好ましい。
実行した又は実行すべき各行動は、ユーザの少なくとも1つの初期状態を少なくとも1つの最終状態又は目標状態と対応付けるものとして捉えることができる。したがって、ある意味においては、初期状態及び特定の行動の数対が1つの最終状態と対応付けられる。また、全ての状態及び行動を位相多様体として理解することもできるため、全ての学習サンプルに基づき、トランスモーションマッピングTと呼ばれるマッピングを各ユーザ別に定義することもできる。このトランスモーションマッピングTは、以下の式1、
Figure 2002099545
により示すことができる。ここで、Eは感情多様体を意味し、ユーザ状態又はその状態データについての位相多様体の1つである。また、Aは行動多様体を意味し、行動又は行動データについての位相多様体の1つであり、e,e,aは多様体E及びAの各要素をそれぞれ意味する。
Figure 2002099545
の別の要素T(e,a)が割当てられている。したがって、トランスモーションマッピングT及び行動多様体Aにより、EからEへのマッピングTaの一群が定義される。
もちろん、トランスモーションマッピングTは一般的にはユーザ依存であるが、ユーザ独立及び/又は一般的な部分或いはコンポーネントを含めることもできる。
ユーザを現在状態から所望の最終状態へと導くために特定の目標行動を選択する方法は多種多様である。本発明の好ましい実施例によれば、任意のユーザの任意の初期状態及び/又は目標状態について、任意の現在状態、最終状態及び実行済みの行動を含む既にサンプリングされた学習サンプルから、初期状態及び現在状態及び/又は最終状態及び目標状態及び/又はそれらのデータが近隣の位相にある行動が、目標行動として選択される。
この措置が特に効果的であるのは、上述した状態の少なくとも1つ及び/又は行動が正確に適合しない場合である。この近傍(vicinity)又は近隣(neighbourhood)位相の概念に基づいて、隣接サンプルを任意の学習サンプルに関して等価のサンプルとして使用することができる。
この近傍及び/又は近隣を導出及び/又は記述するために、状態及び/又は行動の距離測定、計量(metric)、連続性、方向、ベクトル特性等を相互に使用することが特に効果的である。
任意のユーザの所望の初期状態若しくは現在状態と最終状態若しくは目標状態とを相互に変換すること、又は別の状態と直接対応付けることができない場合もあり得る。したがって、本発明の好ましい実施例によれば、任意のユーザを目標状態へと導き、ユーザの所望の最終状態に最も適合するようにするために、実行すべき一連の行動を目標行動として実行すべきものとして、導出又は初期設定することが効果的である。その結果、上述した一連の行動により、感情多様体を通る経路が特徴付けられ、定義される。
例えば、既に得られている学習サンプルからの任意の行動を目標行動として使用したとしても、ユーザを初期状態から最終状態に導こうとした際に良好な結果を得るには不十分であるかもしれない。したがって、良好な結果を達成するために、導出された目標行動及び/又はそのデータに修正を含めること、及び/又は修正を行うこともできる。
この修正は、位相、距離、計量、連続性、方向、ベクトル特性等に基づき、確率測定によりランダムに導入することもできる。
学習サンプルは、例えば1日に数個というゆっくりとしたペース又は低率にしか得られないと考えられるため、学習サンプル、特に位相多様体を導出するために用いた学習サンプルを一般化することが特に効果的である。したがって、得られた学習サンプルは、位相多様体E及びAにおける基準点及び/又は測定点の役割を果たし、その一般化は、測定点間における補間の役割を果たす。
一般化のステップは、特に共通の及び/又は全体的な位相多様体を導出するために、異なるユーザからの学習サンプルを平均化及び/又は重み付けするステップとすることもできる。この際、異なるユーザは、その典型的な状態及び/又は行動に基づいて、特に感情に基づいて集団化することもできる。
追加的又は選択的に、上述した学習サンプルの一般化ステップに、特に射影等により行動多様体Aの次元を減らすステップを少なくとも含ませることもできる。これにより、自由度が低下させられ、いくつかのクラスの行動が識別され、相互に等価とされる。
さらに、この学習サンプルの一般化ステップは、任意の学習サンプルの近傍又は近隣の範囲を拡大及び/又は縮小するステップを含むこともでき、任意の学習サンプルの内部では、初期状態、最終状態及び目標行動の全てのデータトリプル又はデータトリプレットがこの任意の学習サンプルと等価であると分類される。これが特に実行されるのは、目標行動及び/又は最終状態が全ての初期状態について妥当である地点までである。追加的又は選択的に、最終状態が無関係となり、状態の変化の方向だけが考慮される地点まで、この措置が実行される。
何れの場合もマン・マシン・インタフェースユニットを制御する本発明の方法及び/又はそのステップを実行及び/又は実現することが可能なマン・マシン・インタフェースユニットの制御システム、装置、デバイス等を提供することが、本発明の別の実施の形態である。
それに加えて、コンピュータ、デジタル処理手段等により実行された際にマン・マシン・インタフェースユニットを制御する本発明の方法及び/又はそのステップを実行及び/又は実現するのに適したコンピュータプログラム手段からなるコンピュータプログラム製品を提供することが、本発明の別の実施の形態である。
本発明の上記形態及びその他の形態は、以下の説明を考慮に入れることにより、さらに明瞭になるであろう。
マン・マシン・インタフェースの実行、及び/又はユーザを楽しませユーザに応答するという目標は、エンターテイメントロボット等のような人工システムによっても達成することができる。特にこの目標は、ユーザの感情又は感情変化の位相マップ若しくは位相多様体を推定することにより達成することができる。簡単な例においては、この位相マップ又は位相多様体は、2次元感情平面により形成することができる。位相マップ又は位相多様体は、可能なシステム動作の多次元空間全体に亘って定義される。このようなマップ或いは多様体が与えられることにより、本発明のシステム又は方法によれば、任意の初期感情から任意の所望の感情へとユーザを導くことができる。マップ機能は、いくつかの発見的関係(heuristic relationships)、又は現在までに公知の任意の従来技術により初期設定することができる。この方法及びシステムは、使用中にユーザの感情を測定することにより、その性能を自動的に改善する。これにより、この方法及びシステムは、マップの粗さを改善し、及び/又はユーザ依存マップ若しくは多様体を作成することができる。
公知の技術のマン・マシン・インタフェースユニット又はデバイス及び特にエンターテイメントロボットは、ユーザ研究及び/又は共通の知識から導出される所定のルールを使用している。これらの所定のルールは固定化されたものであり、例えばユーザを楽しませるという目標のために実行すべき行動のタイプと、潜在的にはユーザの現在の感情とを決定する際に使用される。しかしながら、この固定化されたルールは、静的なものであり、ユーザに依存するものではない。この決定過程を簡素化するために提案されている従来技術の方法の中には、ユーザを楽しませ、適切な行動を行うために、ユーザ依存戦略の学習を組込むことができるものがある。しかしながら、個々の観測を任意に一般化することができ、これにより、システムがユーザ独立モードとユーザ依存モードとの両方の性能を漸増的に改善することを可能にする優れたアルゴリズムは未だ提案されていない。
人間の状態、特に人間の感情の多様性は、位相多様体として、特に2次元マップとして示すことができる。この2次元マップにおいては、2つの軸は快楽(pleasure)及び覚醒(arousal)を表している。このような平面において、右上の領域は、喜び(delighted)、幸福(blissful)、興奮(excited)等の感情状態を表している。また、左上の領域は、例えば、恐怖(terrified)、怒り(angry)、嫌悪(disgusted)の感情状態を表している。また、右下の領域は、例えば、満足(content)及びリラックス(relaxed)の感情を含み、左下の領域は悲しみ(sadness)、憂鬱(depression)、退屈(boredom)等の感情を表している。
この多様体又は平面状で相互に近接している感情は、類似の感情である。感情を感情多様体又は感情平面上の1地点から近接した別の地点へと変える方が、遠く離れた地点へと変えるよりは簡単である。感情多様体又は感情平面のこの位相特性が本発明の根拠となっている。
適切な行動を行う、又はユーザを楽しませるという課題における適切な行動は、ユーザの現在の感情及び状況、及び所望の状況又は感情の変化に加えて、ユーザのアイデンティティに大きく依存している。しかしながら、マン・マシン・インタフェースユニットにおいては、特に、大量販売しなければならないエンターテイメントロボットにおいては、ユーザのアイデンティティは事前には不明である。したがって、システムのエンターテイメント能力は、必然的に一般的なユーザ独立行動の集合に限定されることになる。これは平均的には最善の解決法ではあるが、殆ど全ての個々のユーザにとっては次善の解決法である。したがって、性能及びエンタテイメント能力は、各オーナを最適化目標として、エンターテイメントロボットの各ユニット又はマン・マシン・インタフェースユニットが独立して学習すべきである。
もしシステムがシステムによる何らかの行動前後のユーザの感情を検出することができれば、この測定結果を学習サンプルとして利用することができ、学習サンプルから、類似の状況における将来の決定を導出することができる。しかしながら、学習サンプルは、1日に数個という低い割合でしか得られない。これまでのところ、学習サンプルが事前には未知の頻度で漸増的に送り込まれた場合に、エンターテイメントロボット又はマン・マシン・インタフェースユニットがどのようにして個々の学習サンプルを利用することができるのかについて、技術的に公知の方法はない。
ここで、サンプルの集合、すなわち学習サンプルが与えられたと仮定し、各サンプルが、(a)初期ユーザ感情を示した感情多様体又は感情平面上の初期地点、(b)デバイスの行動、例えばエンタテイメントロボットの行動又は対話手段(chatter box)の対話戦略を記述した多次元ベクトル、及び(c)デバイスの行動が知覚された後の最終ユーザ感情を示した感情多様体又は感情平面上の最終地点、からなるものとする。この場合、各学習サンプルは、マップ又は多様体上に置くことができ、感情多様体又は感情平面上の初期地点から始まって最終地点を指し示し、上記(b)に記述された行動多様体の多次元行動ベクトルの属性を有するベクトルとして記述することができる。各サンプルは、相互に独立して感情平面内に置くことができる。あらゆるユーザは、一般的には固有の感情マップ又は感情多様体を有しており、そこでは、そのユーザの学習サンプルだけが追加され、記述され、及び/又は一般化される。
このような感情多様体又は感情マップが存在しているか、又は任意のユーザ用に導出された場合、ユーザの何らかの初期状態又は感情と、所望の目標状態又は感情とが与えられれば、適切な行動を見つけることは簡単であり、煩わしさもない。これは、初期状態又は感情に対応する地点の少なくとも近傍又は近隣から始まり、各ユーザの感情多様体又は感情マップの内部の任意の目標感情又は状態に対応する地点の近隣又は近傍への正確な方向を指し示す適切な行動ベクトルを選択することにより実現される。次に、ユーザの初期状態を目標状態又は最終状態へと導くために、明確な行動ベクトルにより記述された行動が実行され、実施される。ここで、古い任意の行動を繰り返すのではなく、その古い行動を若干或いはランダムに修正することは有益であり、一般化性能を高めることにもなる。この措置は、戦略のさらなる改善の余地をもたらす展開的方法(evolutionary way)で好結果を収めた戦略を繰返すことと等価である。
通常、感情マップには、学習サンプル又はサンプルベクトルが散在しているため、サンプルベクトルの集合を一般化することが本発明の方法及びアルゴリズムの性能レベルにとって極めて重要である。これは、学習サンプルが典型的には1日に数個という非常にゆっくりと低率でしか入ってこないにもかかわらず、この方法及びシステムは最初のサンプルから直ちに学習を始める必要があるためであり、また、一般的且つユーザ独立である開始ルールの集合を考慮に入れることもあるためである。
この一般化は、いくつかの技術を使用して実現することができる。まず第1に、異なるユーザのサンプルベクトルの学習サンプルを1つのユーザ独立サンプルに加えることにより、ユーザの感情多様体又は感情マップを簡単に平均化することができる。追加的に、ユーザのクラス別、又は全てのユーザについての全体的若しくは共通の感情多様体若しくはマップを導出することもできる。
第2に、行動次元を減らすために多次元行動ベクトル又は行動データの射影を求めることができ、これにより、行動多様体又は行動空間の次元の数が減らされる。
第3に、サンプルベクトル又は学習サンプルが任意の初期感情に対して妥当であると考えられる領域を、単一の例が全ての初期感情に対して典型的であると考えることができる地点まで広げることができる。
第4に、完全に無関係であると見なされ、感情変化ベクトルの方向だけが考慮される地点まで、目標領域を同様の方法で広げることができる。
これらの一般化は、相互に独立して使用することもでき、また、組み合わせることもできる。特に、入手可能なサンプルが殆どない場合には、サンプル行動を見つけられるまで一般化の度合いを高めることにより、システムは、常に適当な行動を見つけることができる。これにより、システムは、たった1つの観測又は学習サンプルでさえ利用することになる。また、感情マップに含まれる有益な学習サンプルが次第に増加するにつれて、一般化、すなわち制約条件の緩和の度合いを次第に低くし、次の行動を演繹的に求めることを可能にすることにより、あらゆる追加学習サンプルによって非常に自然且つ漸増的にシステム性能が高められる。
この新しい方法及びアルゴリズムによれば、最初のサンプルの観測から始めてシステム性能が漸増的に改善されるともに、感情変化の非常に精密なモデルをも可能とされる。同様のアルゴリズムは、コア及び精密モデルの両方に使用することができる。
本発明の更に他の目的、本発明によって得られる具体的な利点は、以下に説明される実施例から一層明らかにされるであろう。
発明を実施するための最良の形態
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。以下の実施の形態では、先ず、ユーザの動作、期待、或いは感情等に対応してマン・マシン・インタフェースユニットを動作させる、本発明の基本原理となるマン・マシン・インタフェースユニットの制御方法及びシステムについて説明し、次いでこの制御方法及びシステムを、少なくとも感情モデルを有し、感情に応じて表出する行動を変化させることのできる自律型のエンターテイメントロボットに適用した具体例について説明する。
(1)マン・マシン・インタフェースユニットの制御方法
マン・マシン・インタフェースユニットを制御する本発明の方法及びシステムの好ましい実施の形態を図1のフローチャートに示す。この図1では、ステップS0〜ステップS12により実施の形態を記述している。
先ずステップS0において、この方法及びシステムは、実行開始に際して初期化され、次にステップS1において、一般情報、及び/又は一般的(general)及び/又は包括的(generic)行動モデルが、予め定義されたデータベースDBから読み出される。このデータベースDBから得られた1次情報に基づき、本実施例の方法及びシステムの初期動作が構築される。
続いてステップS2において、任意のユーザの初期状態e、すなわち感情が現在状態e:e=eとして検出される。検出された初期状態eは、特定の初期状態データISD(Initial Status Data)の形で内部表示される。
ステップS3では、ユーザを導くべき所望の目標状態及び/又は個々の目標状態データTSD(Target Status Data)が受け取られ、獲得され、及び/又は生成される。なお、上述したデータベースDBから明瞭なサンプルデータを得ることができ、また、ユーザから直接得ることや外部制御ユニットから得ることもできる。
ステップS4では、ある任意のデータトリプル<e,a,e>に近似した適切な学習サンプルl=<e’,a,e’>が入手可能か否かが判別される。すなわち、l=<e’,a,e’>がl=<e,a,e>の状態でデータベースDB内に存在するか否かが判別される。
もし存在する場合には、ステップS5において学習サンプルlがデータベースDBから読み出され、その後、ステップS6において、学習サンプルlにおける行動aが抽出され、導出すべき目標行動として、すなわちt:=aとして定義される。一方、任意のデータトリプル<e,a,e>に近似した適切な学習サンプルl=<e′,a,e′>が、特に本実施の形態における方法又はシステムの実行開始時に発見できない場合には、ステップS7において最も近い他の学習サンプルl又は一般ルールがデータベースDBから読み出される。
ステップS8では、適切な目標行動tが、所与の情報から、包括的情報を一般化する過程から、及び/又は最も近い学習サンプルから導出され生成される。
なお、ステップS6及び/又はステップS8の後に、すなわちステップS9の前に、目標行動tを何らかの修正ルールに従って、及び/又はランダムに修正することもできる。
続いてステップS9において、導出された目標行動tを設定し、実行する。
ステップS10では、実行した目標行動tの結果としてのユーザの最終状態eが検出され、続くステップS11において、データトリプル<e,a,e>が再び呼び出され、新しい学習サンプルlとして評価される。
ステップS12では、ユーザの最終状態eが所望の目標状態eと比較される。そして、評価データ(比較データ)が得られ、新しい学習サンプル<e,a,e>と共にデータベースDBに記録される。外部制御装置又はユーザが本実施の形態の方法及びシステムの実行を終了するまで、ステップS2以降のステップが繰り返される。
ここで、感情多様体EM(Emotion Manifolds)、感情データ多様体EDM(Emotion Data Manifolds)、行動多様体AM(Action Manifolds)及び行動データ多様体ADM(Action Data Manifolds)間の対応関係を概略的に図2に示す。
図2の上部において、マン・マシン・インタフェースユニットを特徴付けるユーザの感情多様体EM及び行動多様体AMにより構成された直積演算又はテンソ
Figure 2002099545
ョンマッピングTにより、感情多様体(マップ)EMと対応付けられている。各
Figure 2002099545
T(e,a)として、ユーザの少なくとも1つの最終状態(感情)e:∈EMにマッピングされる。ここで、eはユーザの任意の初期状態(感情)であり、aはシステムが実行することのできる行動である。定義Ta(e):=T(e,a)により、行動多様体AMは、EからEへの一群のマッピングTaを生成する。
射影演算子又は射影過程Pにより、感情多様体EM及び行動多様態AMの下部又は内部表示部、すなわち対応する感情データ多様体(マップ)EDM及び対応する行動データ多様体(マップ)ADMが得られる。なお、これらの多様体(マップ)は、この例においてはデカルト座標系により表示されている。
したがって、初期状態データISDは、測定、検出及び表示生成過程により、すなわち射影過程Pにより、ISD:=P(e)として、生成される。また、追加的に適切なトランスモーションマッピングPT及びPTが定義される。ここで、最終状態e:は、FSD:=P(e)により感情データ多様体EDMに射影される。また、最終状態データFSDは、FSD:=PT(ISD)により初期状態データISDと対応付けられる。
なお、本実施の形態の制御方法の実行効率を多ユーザ機器用に発展させるために、ユーザ識別過程を含めることもできる。この場合、ユーザ識別は、音声認識及び/又は聴覚感情検出システム若しくは過程に基づくものとすることができる。
(2)ロボット装置への応用
以上説明したマン・マシン・インタフェースユニットの制御方法及びシステムは、例えば、少なくとも感情モデルを有し、感情に応じて実行する行動を変化させることのできる自律型のエンターテイメントロボットに適用することができる。
このエンターテイメントロボット等のロボット装置に必要な機能のうち、最も重要且つ基本的なものの1つとして、人間の感情を捉えることが挙げられ(Picard R.(1997)Affective Computing,MIT Press.)、特に人間の感情を認識すると共に自身の感情を表現することが必要となる。
ここで、ロボット装置が例えばユーザである人間の感情に応じて行動を変化させることができれば、人間との親密性を高めるために非常に有効に働く。また、単に社交性の向上だけではなく、上述したマン・マシン・インタフェースユニットの制御方法を応用し、ロボット装置の行動によって人間の感情をロボット装置が望む感情に導くことができれば、ロボット装置の側からの人間とのインタラクションの幅を広げることができる。このような機能は、学習機能を持つロボット装置においては特に有効に作用する。
そこで、以下では、先ず、感情モデルを有し、感情に応じて表出させる行動を変化させることのできる自律型のロボット装置の構成について説明し、次いで、このロボット装置において、上述したマン・マシン・インタフェースユニットの制御方法及びシステムが適用された要部を説明する。なお、以下の説明では、ロボット装置の一例として、4足歩行型のいわゆるペット型ロボットを用いて説明するが、ロボット装置は、感情モデルに応じて動作するものであれば適用可能であり、移動手段も、4足歩行、さらには脚式移動方式に限定されない。
(2−1)ロボット装置の構成
図3に示すように、本実施の形態におけるロボット装置1は、「犬」等の動物を模した形状のいわゆるペット型ロボットとされ、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されて構成されている。
胴体部ユニット2には、図4に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェース回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための角速度センサ18及び加速度センサ19なども収納されている。
また、頭部ユニット4には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラ20と、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイクロホン23と、鳴き声等の音声を出力するためのスピーカ24と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示せず)などがそれぞれ所定位置に配置されている。
さらに、各脚部ユニット3A〜3Dの関節部分や各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部分などにはそれぞれ自由度数分のアクチュエータ25〜25及びポテンショメータ26〜26が配設されている。例えば、アクチュエータ25〜25はサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて、目標の姿勢或いは動作に遷移する。
そして、これら角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイクロホン23、スピーカ24及び各ポテンショメータ26〜26などの各種センサ並びにLED及び各アクチュエータ25〜25は、それぞれ対応するハブ27〜27を介してコントロール部16の信号処理回路14と接続され、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
信号処理回路14は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これと共にバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM11内の所定位置に格納する。
このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、この後CPU10がこのロボット装置1の動作制御を行う際に利用される。
実際上CPU10は、ロボット装置1の電源が投入された初期時、胴体部ユニット2の図示しないPCカードスロットに装填されたメモリカード28又はフラッシュROM12に格納された制御プログラムをPCカードインターフェース回路13を介して又は直接読み出し、これをDRAM11に格納する。
また、CPU10は、この後上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
さらに、CPU10は、この判断結果及びDRAM11に格納した制御プログラムに基づいて続く行動を決定すると共に、当該決定結果に基づいて必要なアクチュエータ25〜25を駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニット3A〜3Dを駆動させて歩行させるなどの行動を行わせる。
また、この際CPU10は、必要に応じて音声データを生成し、これを信号処理回路14を介して音声信号としてスピーカ24に与えることにより当該音声信号に基づく音声を外部に出力させたり、上述のLEDを点灯、消灯又は点滅させる。
このようにしてこのロボット装置1においては、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。
(2−2)制御プログラムのソフトウェア構成
ここで、ロボット装置1における上述の制御プログラムのソフトウェア構成は、図5に示すようになる。この図5において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図4)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサやアクチュエータ25〜25等のハードウェアにアクセスするためのインターフェースを提供するソフトウェア群でなるバーチャル・ロボット33と、電源の切換えなどを管理するソフトウェア群でなるバワーマネージャ34と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット36とから構成されている。
マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ39は、メモリカード28(図4)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
なお、ミドル・ウェア・レイヤ40及びアプリケーション・レイヤ41の具体なソフトウェア構成をそれぞれ図6に示す。
ミドル・ウェア・レイヤ40は、図6に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール50〜58並びに入力セマンティクスコンバータモジュール59などを有する認識系60と、出力セマンティクスコンバータモジュール68並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール61〜67などを有する出力系69とから構成されている。
認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット33によりDRAM11(図4)から読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット33は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
入力セマンティクスコンバータモジュール59は、これら各信号処理モジュール50〜58から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ41(図4)に出力する。
アプリケーション・レイヤ41は、図7に示すように、行動モデルライブラリ70、行動切換モジュール71、学習モジュール72、感情モデル73及び本能モデル74の5つのモジュールから構成されている。
行動モデルライブラリ70には、図8に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデル70〜70が設けられている。
そして、これら行動モデル70〜70は、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル73に保持されている対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール71に出力する。
なお、この実施の形態の場合、各行動モデル70〜70は、次の行動を決定する手法として、図9に示すような1つのノード(状態)NODE〜NODEから他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODEに間を接続するアークARC〜ARCに対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
具体的に、各行動モデル70〜70は、それぞれ自己の行動モデル70〜70を形成するノードNODE〜NODEにそれぞれ対応させて、これらノードNODE〜NODEごとに図10に示すような状態遷移表80を有している。
この状態遷移表80では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。
したがって、図10の状態遷移表80で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデル70〜70が周期的に参照する感情モデル73及び本能モデル74にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(JOY)」、「驚き(SURPRISE)」若しくは「悲しみ(SUDNESS)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
また、状態遷移表80では、「他のノードへの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE〜NODEから遷移できるノード名が列記されていると共に、「入力イベント名」、「データ値」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できる他の各ノードNODE〜NODEへの遷移確率が「他のノードへの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE〜NODEに遷移する際に出力すべき行動が「他のノードへの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードへの遷移確率」の欄における各行の確率の和は100[%]となっている。
したがって、図10の状態遷移表80で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
各行動モデル70〜70は、それぞれこのような状態遷移表80として記述されたノードNODE〜NODEがいくつも繋がるようにして構成されており、入力セマンティクスコンバータモジュール59から認識結果が与えられたときなどに、対応するノードNODE〜NODEの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール71に出力するようになされている。
図7に示す行動切換モジュール71は、行動モデルライブラリ70の各行動モデル70〜70からそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデル70〜70から出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、この実施の形態においては、図8において下側に表記された行動モデル70〜70ほど優先順位が高く設定されている。
また、行動切換モジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。
一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
そして、学習モジュール72は、この認識結果及び行動切換モジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデル70〜70の対応する遷移確率を変更する。
他方、感情モデル73は、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間などに基づいて所定の演算式により算出されるそのときのその情動の変動量をΔE[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkとして、以下の式2、
Figure 2002099545
によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量ΔE[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与えるようになっている。
ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル73は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデル70〜70の対応する遷移確率を変更する。
なお、行動結果のフィードバックは、行動切換モジュール71の出力(感情が付加された行動)によりなされるものであってもよい。
一方、本能モデル74は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして、本能モデル74は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる認識結果や、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kとして、所定周期で以下の式3、
Figure 2002099545
を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知などが各欲求のパラメータ値の変動量ΔI[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量ΔI[k]に大きな影響を与えるようになっている。
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求ごとに個別に設定されている。
一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図6に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換モジュール71から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系69の対応する信号処理モジュール61〜67に与える。
そしてこれら信号処理モジュール61〜67は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ25〜25(図4)に与えるべきサーボ指令値や、スピーカ24(図4)から出力する音の音声データ及び又は「目」のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処理回路14(図4)を順次介して対応するアクチュエータ25〜25又はスピーカ24又はLEDに順次送出する。
このようにしてロボット装置1においては、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになされている。
(2−3)ロボット装置における適用部分
上述のロボット装置1において、上述したマン・マシン・インタフェースユニットの制御方法及びシステムが適用された要部を説明する。
ここで、言葉によるものを除けば、人間は主として2つの方法で感情を表現することができる。すなわち、顔の表情の変化(Ekman,P.(1982)Emotions in the human face,Cambridge University Press,Cambridge)と、声のイントネーションの変化(Banse,R.and Sherer,K.R.,(1996)Acoustic Profiles in Vocal Emotion Expression,Journal of Personality and Social Psychology,70(3):614−636)とである。
そこで、本実施の形態におけるロボット装置1は、ユーザについて得られた画像信号及び/又は音声信号によりユーザの感情を推定し、この推定結果に応じて行動を変化させるものとする。
具体的にロボット装置1は、図11に示すように、入力部101と、内部状態モデル102と、ユーザ音声認識部103と、ユーザ画像認識部104と、短期記憶部(STM:Short Term Memory)105と、感情推定部106と、長期記憶部(LTM:Long Term Memory)107と、行動選択部108とを備えている。
入力部101は、例えば図4に示したCCDカメラ20からの画像信号や、マイクロホン23からの音声信号(音響信号)の他、タッチセンサ21等の各種センサからのセンサ情報を入力する。
内部状態モデル102は、図7に示した感情モデル73及び本能モデル74に対応し、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の何れかを表す情動パラメータと、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の何れかを表す欲求パラメータとを感情推定部106に供給する。
ユーザ音声認識部103は、入力部101からユーザが発した声に基づく音声データが供給されると、この音声の強さ及び基本周波数(ピッチ)に基づいて、後述するようにして感情を検出し、検出された情動の種類とその尤度とを短期記憶部105に供給する。
ユーザ画像認識部104は、入力部101からユーザの画像信号が供給されると、この画像から後述するようにして顔領域を抽出し、抽出された顔画像の表情からユーザの感情を検出し、検出された情動の種類とその尤度とを短期記憶部105に供給する。
短期記憶部105は、ロボット装置1の短期記憶を司る部分であり、ユーザ音声認識部103及び/又はユーザ画像認識部104から供給された情動の種類とその尤度とを一時的に保持し、これを感情推定部106に供給する。ここで、ユーザ音声認識部103とユーザ画像認識部104との双方から情動の種類とその尤度が供給されるとは限らず、一方のみから供給された場合には、その供給された情動の種類及び尤度を一時的に保持する。例えば、ユーザがロボット装置1の背後から声をかけたような場合、ロボット装置1は、ユーザの顔の表情を認識することができないため、短期記憶部105には、ユーザの声から検出した情動の種類及びその尤度のみがユーザ音声認識部103から供給される。
感情推定部106は、ユーザ音声認識部103及び/又はユーザ画像認識部104で検出され、短期記憶部105から供給された情動の種類及びその尤度に基づいて、上述した感情多様体におけるユーザの現在状態eを求め、このデータを行動選択部108に供給する。また、感情推定部106は、内部状態モデル102から供給されたロボット装置1の情動パラメータ及び本能パラメータに基づいて、上述した感情多様体におけるロボット装置1の現在状態を求め、このデータを行動選択部108に供給する。
長期記憶部107は、ロボット装置1の長期記憶を司る部分であり、予め学習された複数のデータトリプル<e,a,e>が上述した学習サンプルlとして記憶されている。
行動選択部108は、図7に示した行動モデルライブラリ70及び行動切換モジュール71に対応する。この行動選択部108は、感情推定部106から供給されたユーザの現在状態eを初期状態eとし、この初期状態eと所望の目標状態eとに基づいて、データトリプル<e,*,e>に近似する学習サンプルl=<e’,a,e’>を長期記憶部107から読み出す。そして、行動選択部108は、学習サンプルlにおける行動aを目標行動tとして、すなわちt:=aとして設定し、この目標行動tを行動モデル70〜70から選択して出力する。なお、本実施の形態では、この目標状態eとして、感情推定部106から供給されたロボット装置1の現在状態を用いるものとする。これにより、ロボット装置1は、ユーザの感情状態を自身の現在の情動と近似する感情状態に導くように、自身の行動を切り換えることができるようになる。
このように、ロボット装置1は、ユーザの声の調子やユーザの顔の表情からユーザの感情を推定し、この推定結果に応じて、ユーザの感情状態を自身の現在の情動と近似する感情状態に導くように、行動を変化させることができる。
以下、上述したユーザ音声認識部103及びユーザ画像認識部104における感情認識処理とその感情に基づく行動選択処理とについて詳細に説明する。
(2−3−1)音声に基づく感情認識
ユーザ音声認識部103は、ユーザが発した音声の強さ及び基本周波数(ピッチ)に基づいて、例えば「喜び(joy/pleasure)」、「悲しみ(sorrow/sadness/grief)」、「怒り(angry)」及び「平静(calm/neutral)」の合計4つの情動を検出する。なお、検出する情動の種類がこの4つに限定されるものではないことは勿論である。ここで、入力音声を各感情に分類するアルゴリズムとしては、例えばPierre−yves Oudeyerによる報告(Pierre−yves Oudeyer(2001)Algorithm and Features,Proceedings of the Humanoids Conference)にあるように、各種考えられるが、以下では一例として、ナイーブ・ベイズ・クラス分類アルゴリズム(Naive Bayes classification algorithm)を用いるものとする。
具体的にユーザ音声認識部103は、図12に示すように、音声入力部111と、特徴量抽出部112と、感情検出部113と、分類部(classifier)114と、感情音声データベース115と、結果出力部116とを有している。ここで、分類部114は、上述した4つの情動にそれぞれ対応する喜び分類器(classifier)114、悲しみ分類器114、怒り分類器114及び平静分類器114を有している。
音声入力部111は、図4に示したマイクロホン23からの音声信号(音響信号)のうちユーザの発した声がA/D変換されたデジタル音声信号を入力する。音声入力部111は、このデジタル音声信号を特徴量抽出部112に供給する。
特徴量抽出部112は、音声入力部111から供給されたデジタル音声信号から、声の強さ(intensity)及び声の高さ(pitch)を特徴量として抽出する。ここで、声の強さは信号のパワーとして与えられ、声の高さは信号の基本周波数として与えられる。なお、この基本周波数を求める手法としては種々提案されており、例えば音声波形の自己相関関数を用いる手法や、スペクトルを用いる手法などがある。
特徴量抽出部112は、デジタル音声信号に対して微小時間間隔毎に、例えば10ms毎に声の強さ及び高さを抽出する。この際、声の強さは、ローパス・フィルタ及びハイパス・フィルタを通した信号からそれぞれ求められる。この結果、声の強さと声の高さに関する3次元ベクトルの系列が1つのデジタル音声信号に対して得られる。そして、特徴量抽出部112は、この3次元ベクトル系列に対して、各次元毎に、平均値、最大値、最小値、最大値と最小値との差、分散、中央値を求める。この結果、3×6=18個の特徴量が得られ、特徴量抽出部112は、この18次元ベクトルを感情検出部113に供給する。
感情検出部113は、特徴量抽出部112から供給された18次元ベクトルについて、ナイーブ・ベイズ・クラス分類アルゴリズムに従い、分類部114の各分類器(classifier)114〜114を用いて、上述した「喜び(joy/pleasure)」、「悲しみ(sorrow/sadness/grief)」、「怒り(angry)」及び「平静(calm/neutral)」の何れかに分類する。
このナイーブ・ベイズ・クラス分類アルゴリズムについて簡単に説明する。n次元の入力ベクトル(a_1,a_2,...,a_n)に対してクラスc_jの生起確率P(c_j|a_1,a_2,...,a_n)を最大化するc_jを求めるという問題は、ベイズ(Bayes)の定理より、以下の式4、
Figure 2002099545
を最大化するc_jを求めるという問題に定式化される。ここで、各次元の独立性を仮定すると、この問題は、以下の式5、
Figure 2002099545
を最大化するクラスc_jを求める問題に帰着される。
そして、P(a_i|c_j)を例えば正規分布で与えられる確率密度関数を用いてモデル化することにより、入力ベクトル(a_1,a_2,...,a_n)に対して、クラスc_jの生起確率が求められる。
すなわち、上述した18次元ベクトルの各次元について各情動に対応する確率密度関数を用いて尤度を計算することにより、各情動に対応する18次元ベクトルの尤度が計算される。
なお、この確率密度関数は、各情動に対応する音声データが多数記憶された感情音声データベース115を用いて推定することができる。例えば、ある感情に対応する音声データが1000発話分ある場合、それぞれの音声データについての特徴量(上述の18次元ベクトル)を抽出し、その特徴量ベクトルの各次元に対応したデータから平均μと分散σとを求めることで、以下の式6、
Figure 2002099545
で示される確率密度関数が推定される。
感情検出部113は、特徴量抽出部112から供給された18次元ベクトルについて、喜び分類器(classifier)114、悲しみ分類器114、怒り分類器114及び平静分類器114における確率密度関数から各情動の尤度を求める。そして、感情検出部113は、この尤度を比較し、最も尤度の高い情動の種類とその尤度とを、検出結果として結果出力部116に供給する。
結果出力部116は、感情検出部113から供給された情動の種類とその尤度とを、上述の図11に示した短期記憶部105に出力する。
(2−3−2)顔の表情に基づく感情認識
ユーザ画像認識部104は、ユーザの顔画像の表情に基づいて、例えば「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の合計6つの情動を検出する。なお、検出する情動の種類がこの6つに限定されるものではないことは勿論であり、この6つの情動の何れでもない場合には、「平静(calm/neutral)」として検出される。
ここで、顔の表情を記述するために、本実施の形態では、Ekman及びFriesenによって提案されたFACS(Facial Action Coding System)と呼ばれる表情記述方法を用いる。このFACSとは、表情をアクションユニット(AU:Action Unit)と呼ばれる、(a)解剖学的に独立し(表情筋)、(b)視覚的に識別可能な、(c)表情動作の最小単位、に従って分類し、このAUの強度の組み合わせによって、人間の表情を定量的に記述するものである。但し、FACSは本来、心理学の分野で表情を記述し分析することを目的に提案されたものであり、図13に抜粋を示すように、各AUの定義自体には定性的な表現が用いられている。
上述した6つの情動のそれぞれが生起したときに表出する表情を基本6表情といい、Ekman及びFriesenによって、この基本6表情とAUとの関連性が明らかにされている。なお、この関連性は、基本的に文化・性別・年齢等の個人差に影響されないものとされている。すなわち、人間の表情をAUによって表現(認識)できれば、これを上述した6つの情動にマッピングすることができる。
そこで、本実施の形態におけるユーザ画像認識部104は、画像信号を入力として各AUの強度を出力とするデータ変換操作であるFACSコーディングを利用し、入力された画像信号から各AUによって特徴付けられた上述の6つの情動を検出する。
具体的にユーザ画像認識部104は、図14に示すように、画像入力部121と、顔検出部122と、アラインメント部123と、差分画像生成部124と、顔画像データベース125と、データ変換部126と、HMM(Hidden Markov Model)部127と、結果出力部128とを有している。
画像入力部121は、図4に示したCCDカメラ20からの画像信号を入力し、この画像信号を顔検出部122に供給する。
顔検出部122は、先ず画像入力部121から供給された画像信号に基づくフレーム画像を縮小率が異なる複数のスケール画像に変換する。例えば、顔検出部122は、フレーム画像を0.8倍ずつ順次縮小して5段階(1.0倍、0.8倍、0.64倍、0.51倍、0.41倍)のスケール画像に変換する。そして、顔検出部122は、各スケール画像について、画像左上を起点として順に右下まで、適当な画素分を右側又は下側にずらしながらスキャンするようにして、400(=20×20)画素の矩形領域を切り出し、テンプレート画像とのマッチングをとって、顔画像か否かを判断する。但し、この時点で顔画像であると判断された矩形領域(以下、スコア画像という。)には、実際には顔画像以外の判断誤りの画像が多数含まれるため、顔検出部122は、サポートベクターマシン(SVM)により、顔、非顔の識別を行う。
このような技術としては、B.Sholkophらの報告(B.Sholkoph,C.Burges,A.Smola(1999)Advance in Kernel Methods Support Vector Learning,The MIT Press)やV.Vapnicの報告(V.Vapnic(1999)The Nature of Statistical Learning Theory Second Edition,Springer)に開示されている技術が挙げられる。
上述のSVMは、識別関数に線形識別器(パーセプトロン)を用いた学習機械であり、カーネル関数を使うことで非線形区間に拡張することができる。また、識別関数の学習では、クラス間分離のマージンを最大にとるように行われ、その解は2次数理計画法を解くことで得られるため、グローバル解に到達できることを理論的に保証できる。この処理の詳細は次の通りである。
先ず、上述したスコア画像から顔以外の背景部分を除くため、画像の4隅を切り取ったマスクを用いて、400(=20×20)画素あるスコア画像から360画素分を抽出する。次に、照明による撮像対象物の輝度が変化することを前提として、照明による輝度の勾配を補正して、ヒストグラム平滑化或いはコントラストノーマライゼーションを施す。続いて、顔検出に利用する識別関数の学習を行う。学習用のデータとして最初に顔データ、非顔データそれぞれ所定の枚数を用いて、暫定的な識別関数を得る。それから、暫定的に得られた識別関数を様々なデータベース上の画像に試して顔の検出を行い、その結果、検出に成功したものを顔データ、失敗したものを非顔データとして学習データに追加し、さらに学習をし直す。
顔検出部122は、以上のようにしてスコア画像内に顔データが存在するか否かを判断し、存在する場合には、そのスコア画像を顔画像として、アラインメント部123に供給する。
アラインメント部123は、顔検出部122から供給された顔画像について、アラインメント処理を行う。つまり、後述する差分画像生成部124で2枚の顔画像の差分を正しく得るためには顔の位置を制度よく求める必要があり、また、顔の中の眼、鼻の位置は人によって異なるため、これらの位置を正規化する必要もある。そこで、アラインメント部123は、得られた顔画像に対して、目尻、鼻腔、唇端などの特徴点を抽出して眼と鼻の位置同定を行い、検出された眼と鼻が定められた位置になるようにアフィン変換で回転・伸縮(モーフィング処理)を行うことにより、アラインメント処理を行う。アラインメント部123は、このアラインメント後の顔画像を差分画像生成部124に供給する。
差分画像生成部124は、アラインメント部123から供給されたアラインメント後の顔画像と、顔画像データベース125に記憶されているアラインメント後の無表情(ニュートラル)顔画像との差分を計算し、差分画像を生成する。差分画像生成部124は、生成した差分画像をデータ変換部126に供給する。
データ変換部126は、ガボア(Gabor)・フィルタを用いて360画素分のスコア画像をベクトル変換し、得られたベクトル群をさらに1本の特徴ベクトルに変換する。
ここで、人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判っている。これは、垂直の線に対して反応する細胞と、水平の線に対して反応する細胞で構成される。上述のガボア・フィルタは、これと同様に、方位選択性を持つ複数のフィルタで構成される空間フィルタである。
なお、低周波でのフィルタリングでは、フィルタリング後のイメージ全てをベクトルとして保持しておくのは冗長であるため、ダウンサンプリングして、ベクトルの次元を落とすようにしてもよい。この場合、ダウンサンプリングされた複数のベクトル群が並べられて、1本の特徴ベクトルが生成される。
そして、データ変換部126は、ガボア・フィルタリングによって得られた特徴ベクトルをベクトル量子化し、ベクトル量子化後の特徴ベクトルをHMM部127に供給する。
HMM部127は、データ変換部126から供給されたベクトル量子化後の特徴ベクトルについて、隠れマルコフモデルを用いて、上述した「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の何れかに分類する。ここで、HMM部127は、予め各情動を表す顔画像でトレーニングされており、供給された特徴ベクトルについて、各情動の尤度を求める。なお、各情動とAUとの対応付けとしては、例えば以下のようなものが挙げられる。
「喜び(joy)」 ・・・・・AU6+12
「悲しみ(sadness)」・・AU1及びAU1+4
「怒り(anger)」 ・・・・AU4
「驚き(surprise)」・・AU1+2
「嫌悪(disgust)」・・・AU2+4
「恐れ(fear)」 ・・・・AU1+2+4
HMM部127は、得られた各情動の尤度を比較し、最も尤度の高い情動の種類とその尤度とを、検出結果として結果出力部128に供給する。
結果出力部128は、HMM部127から供給された情動の種類とその尤度とを、上述の図11に示した短期記憶部105に出力する。
なお、上述した例では、HMM部127の入力として、ガボア・フィルタリングによって得られ、ベクトル量子化された特徴ベクトルを用いるものとして説明したが、これに限定されるものではなく、例えばJames J.Lienらの報告(James J.Lien et al.(1998)Automated Facial Expression Recognition Based on FACS Action Units,Proceedings of FG’98,April 14−16)に開示されているように、特徴点のトラッキング結果や、顔面各部位の動きベクトル(optical flow)を用いるようにしても構わない。
(2−3−3)感情に基づく行動選択
上述したように、ロボット装置1は、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」という合計6つの情動を有するが、これらの各情動は、複数次元の位相空間、例えば図15に示すように、快度(pleasantness)、覚醒度(activation)及び確信度(certainty)を3軸とする3次元位相空間中の空間領域に対応付けられる。
ここで、「快度」は、ロボット装置1の本能がどれだけ満たされているかの度合い、「覚醒度」は、生物のバイオリズムによって決定される、起きているか寝ているかの度合い、「確信度」は、現在ロボット装置1が注目しているものを確信をもって認識できる度合いをそれぞれ示すパラメータである。
図11に示した感情推定部106は、ユーザ音声認識部103及び/又はユーザ画像認識部104で検出され、短期記憶部105から供給された情動の種類及びその尤度に基づいて、ユーザの現在感情を、先ず位相空間中の一点にマッピングする。具体的には、例えば検出された情動が「喜び(joy)」であり、その尤度が0.8である場合、感情推定部106は、図16に示すように、位相空間の原点から検出された喜びの情動に対応する空間領域の中心へと向かうベクトルjに尤度0.8を乗算し、得られたベクトルによって示される座標J(p,a,c)を暫定的にユーザの現在感情を示す座標とする。
なお、ユーザ音声認識部103で検出された情動の尤度とユーザ画像認識部104で検出された情動の尤度とが異なる場合、感情推定部106は、例えば両者の平均尤度を用いて位相空間中にマッピングすることができる。また、ユーザ音声認識部103で検出された情動とユーザ画像認識部104で検出された情動とが異なる場合、感情推定部106は、例えば予め定めた一方の情動のみを用いて位相空間中にマッピングすることができる。
そして、感情推定部106は、ユーザの現在感情を表す位相空間中の座標を、例えば「快度」及び「覚醒度」を2軸とする位相平面上に投影し、これにより得られた座標をユーザの現在状態eとして設定する。同様に、感情推定部106は、ロボット装置1の現在状態(感情)を表す位相空間上の点を、「快度」及び「覚醒度」を2軸とする位相平面上に投影し、これにより得られた座標をユーザの目標状態eとして設定する。
行動選択部108は、感情推定部106から供給されたユーザの現在状態eを初期状態eとし、ユーザをこの初期状態eから目標状態eに導くような理想的な目標行動として行動*を仮定する。すなわち、図17に示すように、「快度」及び「覚醒度」を2軸とする位相平面上の座標として与えられる初期状態eは、行動*によって、位相平面上の他の座標として与えられる目標状態eに変換される。そして、行動選択部108は、データトリプル<e,*,e>に近似する学習サンプルl=<e’,a,e’>を長期記憶部107から読み出す。行動選択部108は、学習サンプルlにおける行動aを目標行動tとして、すなわちt:=aとして設定し、この目標行動tを行動モデル70〜70から選択して出力する。
以上のようにして、ロボット装置1は、ユーザの感情状態を自身の現在の情動と近似する感情状態に導くように、自身の行動を切り換える。
以下、上述したロボット装置1の行動制御方法について、図18のフローチャートを用いて説明する。
先ずステップS20において、ロボット装置1は、行動制御の実行開始に際して初期化され、次にステップS21において、初期状態e、すなわちユーザの現在の感情が現在状態e:e=eとして検出される。
続いてステップS22では、ロボット装置1の現在の感情を、ユーザを導くべき目標状態eとして設定する。
ステップS23では、長期記憶部107に記憶されている学習サンプルl=<e’,a,e’>の中に、<e,*,e>に近似したものがあるか否かが判別される。具体的には、以下の式7、
Figure 2002099545
で表される距離Distと閾値Thとを比較し、距離Distが閾値Thよりも小さいか否かが判別される。ここで、上式においてα、βは、所定の定数である。
もし距離Distが閾値Thよりも小さい場合には、<e’,a,e’>と<e,*,e>とが近似しているとして、ステップS24において学習サンプルlが長期記憶部107から読み出され、導出すべき行動が目標行動t:=aとして設定される。一方、距離Distが閾値Th以上である場合には、ステップS25において最も近い他の学習サンプルl=<e’,a,e’>が長期記憶部107から読み出される。ステップS26では、導出すべき行動が目標行動t:=a’として設定される。
続いてステップS27において、導出された目標行動tが実行される。
ステップS28では、実行した目標行動tの結果としてのユーザの最終状態eが検出され、続くステップS29において、データトリプル<e,t,e>が一時的に記憶される。
ステップS30では、学習サンプルlが修正され、又は新たなデータトリプル<e,t,e>が長期記憶部107に記憶される。例えば、データトリプル<e,*,e>とデータトリプル<e,t,e>との距離Distと、データトリプル<e,*,e>とデータトリプル<e’,a,e’>との距離Distとが比較され、距離Distが距離Distよりも小さければ、以下の式8、
Figure 2002099545
によって定義されるデータトリプル<e″,a,e″>によって、学習サンプルl中のデータトリプル<e’,a,e’>が置き換えられて修正される。ここで、上式においてkは、|k|<1を満たす所定の定数である。一方、距離Distが距離Dist以上であれば、データトリプル<e,t,e>が学習サンプルlに追加され、長期記憶部107に記憶される。
そして、外部制御装置又はユーザによって実行終了されるまで、ステップS21以降のステップが繰り返される。
以上のように、本実施の形態におけるロボット装置1は、上述したマン・マシン・インタフェースユニットの制御方法及びシステムを適用することにより、ユーザの声の調子やユーザの顔の表情からユーザの感情を推定し、この推定結果に応じて、ユーザの感情状態を自身の現在の情動と近似する感情状態に導くように行動を変化させることができる。
なお、本発明は、上述した実施の形態のみに限定されるものではなく、本発明の要旨を変更しない範囲において種々の変更が可能であることは勿論である。
例えば、上述した実施の形態では、ロボット装置1の現在感情をユーザを導くための目標感情eとして説明したが、これに限定されるものではなく、所望の感情状態を目標状態eとして設定することが可能である。
また、上述した実施の形態では、ユーザ或いはロボット装置1の状態を位相平面上の一点として表現したが、これに限定されるものではなく、例えば図15に示したような位相空間上の一点として表現するようにしても構わない。
産業上の利用可能性
上述したような本発明に係るマン・マシン・インタフェースユニットの制御方法及びシステムによれば、ある行動を実行する前の初期状態(感情)、その行動を実行した後の最終状態(感情)、及び実行した行動を示すデータトリプルを学習サンプルとして予め収集しておくことにより、ユーザを任意の現在状態から所望の目標状態へと導くような行動が設定可能となる。また、このマン・マシン・インタフェースユニットの制御方法及びシステムを、例えば、少なくとも感情モデルを有し、感情に応じて表出する行動を変化させることのできる自律型のロボット装置に適用することにより、ロボット装置は、例えばユーザの感情の推定結果に応じて、ユーザの感情状態を自身の現在の情動と近似する感情状態に導くように行動を変化させることができ、エンターテイメント性が向上する。
【図面の簡単な説明】
図1は、本実施の形態におけるマン・マシン・インタフェースユニットの制御方法及びシステムを説明するフローチャートである。
図2は、感情多様体、感情データ多様体、行動多様体及び行動データ多様体間の対応関係を説明する図である。
図3は、本実施の形態におけるロボット装置の外観構成を示す斜視図である。
図4は、同ロボット装置の回路構成を示すブロック図である。
図5は、同ロボット装置のソフトウェア構成を示すブロック図である。
図6は、同ロボット装置のソフトウェア構成におけるミドル・ウェア・レイヤの構成を示すブロック図である。
図7は、同ロボット装置のソフトウェア構成におけるアプリケーション・レイヤの構成を示すブロック図である。
図8は、同アプリケーション・レイヤの行動モデルライブラリの構成を示すブロック図である。
図9は、同ロボット装置の行動決定のための情報となる有限確率オートマトンを説明する図である。
図10は、同有限確率オートマトンの各ノードに用意された状態遷移表を示す図である。
図11は、同ロボット装置において、マン・マシン・インタフェースユニットの制御方法が適用された要部を説明する図である。
図12は、同ロボット装置のユーザ音声認識部の内部構成を説明する図である。
図13は、ユーザの顔の表情認識に用いられる顔の動作単位(AU)を説明する図である。
図14は、同ロボット装置のユーザ画像認識部の内部構成を説明する図である。
図15は、同ロボット装置の情動を表す3次元位相空間を説明する図である。
図16は、同3次元位相空間中の一点に感情状態がマッピングされる一例を説明する図である。
図17は、位相平面上の初期状態が目標状態に変換される様子を説明する図である。
図18は、同ロボット装置の行動制御方法を説明するフローチャートである。

Claims (36)

  1. マン・マシン・インタフェースユニットを制御する方法において、
    少なくとも1人のユーザに関して、実行した行動(a)の前の初期状態(e)及び当該行動後の最終状態(e)を検出し、
    上記初期状態(e)、上記最終状態(e)及び上記実行した行動(a)を表すデータトリプルを学習サンプル(l)として収集し、
    上記学習サンプル(l)が、実行すべき目標行動を少なくとも導出及び/又は初期設定することによりユーザを任意の現在状態(e)から任意の所望の目標状態(e)へと導くために使用されること
    を特徴とする前記方法。
  2. 請求の範囲第1項記載の方法であって、
    いずれの場合も、上記ユーザの上記現在状態(e)及び上記初期状態(e)にそれぞれ対応し、及び/又はそれらの状態を表示する現在状態データ若しくは初期状態データ(CSD、ISD)が受け取られ、及び/又は生成されることを特徴とする前記方法。
  3. 請求の範囲第1項又は第2項記載の方法であって、
    いずれの場合も、上記ユーザの上記最終状態(e)及び上記目標状態(e)にそれぞれ対応し、及び/又はそれらの状態を表示する最終状態データ若しくは目標状態データ(FSD、TSD)が受け取られ、及び/又は生成されることを特徴とする前記方法。
  4. 請求の範囲第1項乃至第3項のいずれか1項記載の方法であって、
    上記実行した行動(a)及び上記導出された目標行動(t)にそれぞれ対応し、及び/又はそれらの行動を表示する行動データ(AD)及び目標行動データ(TAD)が受け取られ、及び/又は生成されることを特徴とする前記方法。
  5. 請求の範囲第1項乃至第4項のいずれか1項記載の方法であって、
    上記現在状態、上記初期状態、上記最終状態及び/又は上記目標状態(e、e、e、e)、並びにその表示データ及び/又は対応データ(CSD、ISD、FSD、TSD)がいずれの場合も特に2次元である埋込み位相多様体(EM、DM)により表示され、及び/又はその埋込み位相多様体の形でモデル化されることを特徴とする前記方法。
  6. 請求の範囲第5項記載の方法であって、
    別個の多様体が個別のユーザ及び/又はユーザのクラス用に導出及び/又は使用され、及び/又は、
    全てのユーザ用に共通の又は全体的な多様体が導出及び/又は使用されること を特徴とする前記方法。
  7. 請求の範囲第1項乃至第6項のいずれか1項記載の方法であって、
    上記実行した行動(a)、上記導出された目標行動(t)及び/又は上記表示データ及び/又は対応データ(AD、TAD)がいずれの場合も特に2次元である埋込み位相多様体(AM、ADM)により表示され、及び/又はその埋込み位相多様体の形でモデル化されることを特徴とする前記方法。
  8. 請求の範囲第1項乃至第7項のいずれか1項記載の方法であって、
    上記現在状態、上記初期状態、上記最終状態及び/又は上記目標状態(e、e、e、e)として感情状態が使用されることを特徴とする前記方法。
  9. 請求の範囲第1項乃至第8項のいずれか1項記載の方法であって、
    各ユーザについて、学習サンプル(l)の集合(L)に基づき、トランスモーションマッピング(T)
    Figure 2002099545
    が導出され、
    Eが状態又はその状態データについての位相多様体(EM、EDM)の1つである感情多様体を意味し、Aが行動又は行動データについての位相多様体(AM、ADM)の1つである行動多様体を意味し、e,e,aが感情多様体E及び行動多様体Aの各要素をそれぞれ意味すること
    を特徴とする前記方法。
  10. 請求の範囲第1項乃至第9項のいずれか1項記載の方法であって、
    任意のユーザの任意の所望の初期状態及び/又は目標状態(e、e)について、任意の現在状態(e)、最終状態(e)及び実行済みの行動(a)を含む既にサンプリングされた学習サンプルから、初期状態及び現在状態(e、e)及び/又は最終状態及び目標状態(e、e)及び/又はそれらのデータ(ISD、CSD、FSD、TSD)が近傍の位相にある行動(a)が、目標行動(t)として選択されることを特徴とする前記方法。
  11. 請求の範囲第10項記載の方法であって、
    上記近傍を導出及び/又は記述するために、上記状態(e、e、e、e)及び/又は行動(a、t)の距離測定、計量、連続性、方向及び/又はベクトル特性が使用されることを特徴とする前記方法。
  12. 請求の範囲第1項乃至第11項のいずれか1項記載の方法であって、
    任意のユーザを目標状態(e)へと導き、上記ユーザにとっての任意の所望の最終状態(e)に最も適合するようにするために、実行すべき一連の行動(a)が上記目標行動(t)として実行すべきものとして導出又は初期設定されることを特徴とする前記方法。
  13. 請求の範囲第1項乃至第12項のいずれか1項記載の方法であって、
    導出された目標行動(t)及び/又はそのデータ(TAD)に修正が含められ、及び/又は修正が行われることを特徴とする前記方法。
  14. 請求の範囲第13項記載の方法であって、
    上記修正が、位相、距離、計量、連続性、方向及び/又はベクトル特性に基づき、確率測定によりランダムに導入されることを特徴とする前記方法。
  15. 請求の範囲第1項乃至第14項のいずれか1項記載の方法であって、
    得られた学習サンプル(l)が、特に上記位相多様体(EM、EDM、AM、ADM)を導出するために生成されることを特徴とする前記方法。
  16. 請求の範囲第15項記載の方法であって、
    特に共通の及び/又は全体的な位相多様体を導出するために、上記学習サンプル(l)を一般化するステップが、少なくとも、異なるユーザからの学習サンプル(l)を平均化及び/又は加重するステップからなり、上記異なるユーザが、その典型的な状態及び/又は行動に応じて、特に感情に基づき集団化されることを特徴とする前記方法。
  17. 請求の範囲第15項又は第16項記載の方法であって、
    上記学習サンプル(l)を一般化するステップが、少なくとも、特に射影により行動多様体(AM、ADM)の次元を減らすステップからなることを特徴とする前記方法。
  18. 請求の範囲第15項乃至第17項のいずれか1項記載の方法であって、
    上記学習サンプル(l)を一般化するステップが、少なくとも、任意の学習サンプル(l)の近傍の範囲を拡大及び/又は縮小するステップからなり、特に、最終状態(e)及び/又は目標行動(t)が全ての初期状態(e)について有効である地点まで、及び/又は最終状態(e)が無関係となり、状態の変化の方向だけが考慮される地点まで、上記任意の学習サンプル(l)の内部において、初期状態(e)、最終状態(e)及び目標行動(t)の全てのトリプルが上記任意の学習サンプル(l)と等価であると分類されることを特徴とする前記方法。
  19. 請求の範囲第1項乃至第18項のいずれか1項記載のマン・マシン・インタフェースユニットの制御方法及び/又はそのステップを実行及び/又は実現することが可能なマン・マシン・インタフェースユニットの制御システム。
  20. コンピュータ又はデジタル信号処理手段により実行された際に請求の範囲第1項乃至第18項のいずれか1項記載のマン・マシン・インタフェースユニットの制御方法及び/又はそのステップを実行及び/又は実現するのに適したコンピュータプログラム手段からなるコンピュータプログラム製品。
  21. 内部及び外部の状況に応じて行動するロボット装置であって、
    上記ロボット装置のユーザの状態を検出する状態検出手段と、
    上記ユーザの所望の目標状態を設定する目標状態設定手段と、
    上記状態検出手段によって検出された上記ユーザの状態を、上記目標状態に導くために実行すべき行動を決定する行動決定手段と、
    上記決定された行動を実行する制御手段と
    を備えることを特徴とするロボット装置。
  22. 請求の範囲第21項記載のロボット装置であって、
    さらに学習手段を備え、
    上記状態検出手段によって検出された上記ユーザの状態を、上記目標状態に導くために実行すべき行動は、上記学習手段によって更新されること
    を特徴とするロボット装置。
  23. 請求の範囲第22項記載のロボット装置であって、
    上記学習手段は、上記ユーザに関して、実行した行動の前の初期状態、当該行動後の最終状態及び当該実行した行動を表すデータトリプルを学習サンプルとして収集し、
    上記行動決定手段は、上記学習サンプルに基づいて上記実行すべき行動を決定すること
    を特徴とするロボット装置。
  24. 請求の範囲第21項記載のロボット装置であって、
    上記ユーザの状態及び上記目標状態は、上記ユーザの感情状態であることを特徴とするロボット装置。
  25. 請求の範囲第24項記載のロボット装置であって、
    上記目標状態設定手段は、上記目標状態として、上記ロボット装置の感情状態を用いることを特徴とするロボット装置。
  26. 請求の範囲第24項記載のロボット装置であって、
    さらに音声認識手段及び画像認識手段を備え、
    上記状態検出手段は、上記ユーザの音声及び顔画像から上記ユーザの上記ユーザの状態として感情状態を検出すること
    を特徴とするロボット装置。
  27. 請求の範囲第24項記載のロボット装置であって、
    上記感情状態は、複数次元からなる位相空間中の座標として表現でき、
    上記ユーザの状態及び上記目標状態は、上記位相空間中の座標として与えられること
    を特徴とするロボット装置。
  28. 請求の範囲第24項記載のロボット装置であって、
    上記感情状態は、複数次元からなる位相空間中の座標として表現でき、
    上記ユーザの状態及び上記目標状態は、上記位相空間中の座標を上記複数次元のうちの2次元からなる位相平面に投影した座標として与えられること
    を特徴とするロボット装置。
  29. 内部及び外部の状況に応じて自律的に行動するロボット装置の行動制御方法であって、
    上記ロボット装置のユーザの状態を検出する状態検出工程と、
    上記ユーザの所望の目標状態を設定する目標状態設定工程と、
    上記状態検出工程にて検出された上記ユーザの状態を、上記目標状態に導くために実行すべき行動を決定する行動決定工程と、
    当該決定された行動を実行する制御工程と
    を有することを特徴とする前記方法。
  30. 請求の範囲第29項記載の方法であって、
    さらに学習工程を有し、
    上記状態検出工程にて検出された上記ユーザの状態を、上記目標状態に導くために実行すべき行動は、上記学習工程にて更新されることを特徴とする前記方法。
  31. 請求の範囲第30項記載の方法であって、
    上記学習工程では、上記ユーザに関して、実行した行動の前の初期状態、当該行動後の最終状態及び当該実行した行動を表すデータトリプルが学習サンプルとして収集され、
    上記行動決定工程では、上記学習サンプルに基づいて上記実行すべき行動が決定されること
    を特徴とする前記方法。
  32. 請求の範囲第29項記載の方法であって、
    上記ユーザの状態及び上記目標状態は、上記ユーザの感情状態であることを特徴とする前記方法。
  33. 請求の範囲第32項記載の方法であって、
    上記目標状態設定工程では、上記目標状態として、上記ロボット装置の感情状態が用いられることを特徴とする前記方法。
  34. 請求の範囲第32項記載の方法であって、
    さらに音声認識工程及び画像認識工程を有し、
    上記状態検出工程では、上記ユーザの音声及び顔画像から上記ユーザの状態として感情状態が検出されること
    を特徴とする前記方法。
  35. 請求の範囲第32項記載の方法であって、
    上記感情状態は、複数次元からなる位相空間中の座標として表現でき、
    上記ユーザの状態及び上記目標状態は、上記位相空間中の座標として与えられること
    を特徴とする前記方法。
  36. 請求の範囲第32項記載の方法であって、
    上記感情状態は、複数次元からなる位相空間中の座標として表現でき、
    上記ユーザの状態及び上記目標状態は、上記位相空間中の座標を上記複数次元のうちの2次元からなる位相平面に投影した座標として与えられること
    を特徴とする前記方法。
JP2003502598A 2001-06-01 2002-06-03 マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法 Withdrawn JPWO2002099545A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP01113422.8 2001-06-01
EP01113422A EP1262844A1 (en) 2001-06-01 2001-06-01 Method for controlling a man-machine-interface unit
PCT/JP2002/005441 WO2002099545A1 (en) 2001-06-01 2002-06-03 Man-machine interface unit control method, robot apparatus, and its action control method

Publications (1)

Publication Number Publication Date
JPWO2002099545A1 true JPWO2002099545A1 (ja) 2004-09-16

Family

ID=8177622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003502598A Withdrawn JPWO2002099545A1 (ja) 2001-06-01 2002-06-03 マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法

Country Status (4)

Country Link
US (1) US6862497B2 (ja)
EP (2) EP1262844A1 (ja)
JP (1) JPWO2002099545A1 (ja)
WO (1) WO2002099545A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087344A (ja) * 2015-11-10 2017-05-25 株式会社国際電気通信基礎技術研究所 アンドロイドロボットの制御システム、装置、プログラムおよび方法

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US7170252B2 (en) * 2003-07-23 2007-01-30 Renesas Technology Corporation Location aware automata
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP4179230B2 (ja) * 2004-06-07 2008-11-12 ソニー株式会社 ロボット装置及びその動作制御方法
JP4086024B2 (ja) 2004-09-14 2008-05-14 ソニー株式会社 ロボット装置及びその行動制御方法
WO2006030529A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 擬似感情形成手段を備えた模擬生物装置
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US7725418B2 (en) * 2005-01-28 2010-05-25 Honda Motor Co., Ltd. Responding to situations using multidimensional semantic net and Bayes inference
JP4663484B2 (ja) * 2005-04-25 2011-04-06 株式会社日立製作所 システムセキュリティ設計・評価支援ツール、システムセキュリティ設計支援ツール、システムセキュリティ設計・評価支援プログラム、およびシステムセキュリティ設計支援プログラム
WO2006132159A1 (ja) * 2005-06-09 2006-12-14 A.G.I. Inc. ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
US8249344B2 (en) 2005-07-01 2012-08-21 Microsoft Corporation Grammatical parsing of document visual structures
US8019713B2 (en) * 2005-07-08 2011-09-13 Honda Motor Co., Ltd. Commonsense reasoning about task instructions
US7370022B2 (en) * 2005-07-08 2008-05-06 Honda Motor Co. Building plans for household tasks from distributed knowledge
WO2007102053A2 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
US7603330B2 (en) 2006-02-01 2009-10-13 Honda Motor Co., Ltd. Meta learning for question classification
US8200354B2 (en) * 2006-04-21 2012-06-12 The Boeing Company Assembly task verification system and method
US20070288898A1 (en) * 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
WO2010018459A2 (en) 2008-08-15 2010-02-18 Imotions - Emotion Technology A/S System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text
US8798374B2 (en) * 2008-08-26 2014-08-05 The Regents Of The University Of California Automated facial action coding system
TW201019242A (en) * 2008-11-11 2010-05-16 Ind Tech Res Inst Personality-sensitive emotion representation system and method thereof
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
CN101618280B (zh) * 2009-06-30 2011-03-23 哈尔滨工业大学 具有人机交互功能的仿人头像机器人装置及行为控制方法
US8793119B2 (en) 2009-07-13 2014-07-29 At&T Intellectual Property I, L.P. System and method for generating manually designed and automatically optimized spoken dialog systems
TWI413938B (zh) 2009-12-02 2013-11-01 Phison Electronics Corp 情感引擎、情感引擎系統及電子裝置的控制方法
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
KR101678018B1 (ko) * 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US10897650B2 (en) * 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US20180144649A1 (en) * 2010-06-07 2018-05-24 Affectiva, Inc. Smart toy interaction using image analysis
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US8955004B2 (en) 2011-09-27 2015-02-10 Adobe Systems Incorporated Random generation of beacons for video analytics
US8782175B2 (en) * 2011-09-27 2014-07-15 Adobe Systems Incorporated Beacon updating for video analytics
US9002768B2 (en) * 2012-05-12 2015-04-07 Mikhail Fedorov Human-computer interface system
JP5605661B2 (ja) * 2012-12-25 2014-10-15 コリア インスティチュート オブ インダストリアル テクノロジー 人工情緒発生装置及び方法
NO336991B1 (no) * 2014-01-10 2015-12-14 Vibsim Fremgangsmåte og innretning for vibrasjonsanalyse
US9679380B2 (en) * 2014-01-30 2017-06-13 Futurewei Technologies, Inc. Emotion modification for image and video content
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9409294B1 (en) 2015-03-05 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Hierarchical geometric plan composition (HGPC) framework for robot task planning
FR3041326B1 (fr) * 2015-09-18 2019-05-10 Safran Aircraft Engines Systeme et procede d'aide a la decision pour la maintenance d'une machine avec apprentissage d'un modele de decision supervise par avis d'experts
CN107103269A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种表情反馈方法及智能机器人
CN107293292A (zh) * 2016-03-31 2017-10-24 深圳光启合众科技有限公司 基于云端的设备及其操作方法
US11000953B2 (en) * 2016-08-17 2021-05-11 Locus Robotics Corp. Robot gamification for improvement of operator performance
WO2019100319A1 (en) * 2017-11-24 2019-05-31 Microsoft Technology Licensing, Llc Providing a response in a session
WO2020056353A1 (en) * 2018-09-13 2020-03-19 The Charles Stark Draper Laboratory, Inc. Food-safe, washable, thermally-conductive robot cover
EP3864575A4 (en) 2018-10-09 2021-12-01 Magic Leap, Inc. VIRTUAL AND AUGMENTED REALITY SYSTEMS AND PROCESSES
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
CN109961054A (zh) * 2019-03-29 2019-07-02 山东大学 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法
CN112947069B (zh) * 2021-01-28 2022-10-28 内蒙古大学 一种移动两轮机器人的控制方法
CN114842399B (zh) * 2022-05-23 2023-07-25 马上消费金融股份有限公司 视频检测方法、视频检测模型的训练方法及装置
CN116352727B (zh) * 2023-06-01 2023-10-24 安徽淘云科技股份有限公司 一种仿生机器人的控制方法及相关设备
CN118260407B (zh) * 2024-05-30 2024-08-06 青岛网信信息科技有限公司 一种知识库问答机器人的情绪模拟方法、介质及系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE68925559T2 (de) * 1988-10-31 1996-09-05 Texas Instruments Inc Hierarchisches Leitsystem für automatisch gesteuerte Fahrzeuge
SE463338B (sv) * 1989-06-14 1990-11-05 Ludwik Liszka Saett att oevervaka och/eller diagnosticera aktuella drifttillstaand hos komplicerade maskiner
JP3058968B2 (ja) 1991-12-12 2000-07-04 マツダ株式会社 学習制御自動車
US5228854A (en) * 1992-07-21 1993-07-20 Teledyne, Inc. Combat training system and method
US5378155A (en) * 1992-07-21 1995-01-03 Teledyne, Inc. Combat training system and method including jamming
CA2081519C (en) * 1992-10-27 2000-09-05 The University Of Toronto Parametric control device
US5486998A (en) * 1993-06-14 1996-01-23 Amax Coal West, Inc. Process stabilizing process controller
SE9304246L (sv) * 1993-12-22 1995-06-23 Asea Brown Boveri Förfarande vid övervakning av multivariata processer
DE59812696D1 (de) * 1997-12-06 2005-05-04 Elan Schaltelemente Gmbh & Co Verfahren zur Überwachung einer Bremseinrichtung, insbesondere eines Handhabungsgerätes, sowie Überwachungs- und Steuergerät
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
JPH11259129A (ja) * 1998-03-09 1999-09-24 Yamaha Motor Co Ltd 自律移動体の制御方法
US6199030B1 (en) * 1998-06-19 2001-03-06 Microsoft Corporation Heightened realism for computer-controlled units in real-time activity simulation
US6763325B1 (en) * 1998-06-19 2004-07-13 Microsoft Corporation Heightened realism for computer-controlled units in real-time activity simulation
US5960381A (en) * 1998-07-07 1999-09-28 Johnson Controls Technology Company Starfield display of control system diagnostic information
JP3544477B2 (ja) * 1998-10-02 2004-07-21 本田技研工業株式会社 内燃機関の制御装置
JP2000181896A (ja) * 1998-12-11 2000-06-30 Atr Media Integration & Communications Res Lab 学習型相互作用装置
WO2000067961A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Robot et commande de ce robot
JP2000038658A (ja) 1999-07-30 2000-02-08 Sumitomo Heavy Ind Ltd テフロン薄膜作製装置
JP2001038658A (ja) * 1999-08-04 2001-02-13 Yamaha Motor Co Ltd ロボットにおける触覚表現システム
JP2001100888A (ja) 1999-09-30 2001-04-13 Sony Corp 情動入力装置及び方法、情動駆動型の情報処理システム、ならびに、プログラム記録媒体
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087344A (ja) * 2015-11-10 2017-05-25 株式会社国際電気通信基礎技術研究所 アンドロイドロボットの制御システム、装置、プログラムおよび方法

Also Published As

Publication number Publication date
EP1406135A4 (en) 2009-05-27
WO2002099545A1 (en) 2002-12-12
EP1262844A1 (en) 2002-12-04
EP1406135B8 (en) 2012-10-17
US20040039483A1 (en) 2004-02-26
EP1406135A1 (en) 2004-04-07
EP1406135B1 (en) 2012-08-15
US6862497B2 (en) 2005-03-01

Similar Documents

Publication Publication Date Title
JPWO2002099545A1 (ja) マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法
JP4590717B2 (ja) 顔識別装置及び顔識別方法
US11937929B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
JP4333364B2 (ja) ロボット装置、顔認識方法及び顔認識装置
US7532743B2 (en) Object detector, object detecting method and robot
US7133744B2 (en) Information processing apparatus and method, program storage medium, and program
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
JP7520123B2 (ja) 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法
JP2004133637A (ja) 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
KR101567995B1 (ko) 인터랙션을 지원하는 사용자 인터페이스를 제공하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP2005238422A (ja) ロボット装置、並びにその状態遷移モデル構築方法及び行動制御方法
JP4296736B2 (ja) ロボット装置
JP6887035B1 (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置
US12011828B2 (en) Method for controlling a plurality of robot effectors
JP2001157980A (ja) ロボット装置及びその制御方法
Hommel et al. Attention and emotion based adaption of dialog systems
US20230373088A1 (en) Control device, robot system, control method, and storage medium
Hoey et al. Decision Theoretic Learning of Human Facial Displays and Gestures
Chakraborty et al. Applications and Future Directions of Emotional Intelligence

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906