JP2010149277A - ロボット装置及び動作制御方法 - Google Patents

ロボット装置及び動作制御方法 Download PDF

Info

Publication number
JP2010149277A
JP2010149277A JP2010061642A JP2010061642A JP2010149277A JP 2010149277 A JP2010149277 A JP 2010149277A JP 2010061642 A JP2010061642 A JP 2010061642A JP 2010061642 A JP2010061642 A JP 2010061642A JP 2010149277 A JP2010149277 A JP 2010149277A
Authority
JP
Japan
Prior art keywords
posture
information
target
robot apparatus
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010061642A
Other languages
English (en)
Other versions
JP4985805B2 (ja
Inventor
Makoto Inoue
真 井上
Migaku Yokoyama
琢 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010061642A priority Critical patent/JP4985805B2/ja
Publication of JP2010149277A publication Critical patent/JP2010149277A/ja
Application granted granted Critical
Publication of JP4985805B2 publication Critical patent/JP4985805B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】 表現の豊富化を可能にするとともに、遷移する際の姿勢や動作が最適化されたロボット装置及び動作制御方法を提供する。
【解決手段】 ロボット装置1は、コントローラ32により、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報S16に基づいて、姿勢及び動作が登録されて構成され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフ上において探索し、探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させることにより、ロボット装置1やコンピュータグラフィックスで動くキャラクターの表現の豊富化が可能になる。
【選択図】 図2

Description

本発明はロボット装置及び動作制御方法に関し、例えば四足動物のように動作するロボット装置に適用して好適なものである。
従来、ユーザからの指令や周囲の環境に応じて動作する四足歩行型のロボット装置、多関節ロボット或いはコンピュータグラフィックスで動くキャラクターを用いたアニメーション等が提案及び開発されている。このようなロボット装置或いはアニメーション(以下、まとめてロボット装置等という。)は、ユーザからの指令に基づいて一連の動作を行う。
例えば、犬のように四足動物によく似た形状からなるロボット装置であるいわゆるペットロボットは、ユーザから「伏せ」という命令を受けると、伏せの姿勢をとったり、自分の口の前にユーザが手を差し出すと必ず「おて」をしたりする。
従来技術として、下記の特許文献1及び非特許文献1、2が知られている。
特開昭62−024988号公報
大角雅治、工藤敏巳、斎藤幸弘、田島年浩,感情を持ったインタラクティブ・ペットロボット,OMRON TECHNICS,日本,オムロン株式会社,1998年12月22日,Vol.38, No.4,pp.54-61 藤田雅博、福村直博,ROBOT Entertainment,第6回ソニーリサーチフォーラム論文集,日本,ソニー株式会社,1997年 2月28日,pp.234-239
ところで、動物を模したロボット装置等の動作はできるだけ本物の動物がする動作に近いことが望ましい。
しかし、これまでのロボット装置等は、ユーザからの指令や環境に基づいて予め決められた動作を行うだけであった。このように従来のロボット装置等は本物の動物と同じように自律的に動作を行うものではないことから、できるだけ本物の動物に近く、自律的に行動を決定するようなロボット装置等を得たいというユーザの要求を満足させることはできなかった。
さらに、ロボット装置等は、目標とされる姿勢や目標とされる動作を所定の姿勢や動作を経由して実行しているが、目標とされる姿勢や動作までに遷移する間に実行される姿勢や動作を複数用意しておくことはロボット装置等の動 作表現の豊富化につながる。
また、ロボット装置等が目的とされる姿勢や動作に到達されるまでに経由する姿勢や動作として複数通り用意した場合、経由する姿勢や動作が最適に選択されて、当該目的とされる姿勢や動作に遷移できることが好ましいといえる。
本発明は、上述の実情に鑑みてなされたものであり、自然な動作を自律的に行うロボット装置及び動作制御方法の提案を目的としている。
また、本発明は、上述の実情に鑑みてなされたものであり、表現の豊富化を可能にするとともに、遷移する際の姿勢や動作が最適化されたロボット装置及び動作制御方法の提供を目的としている。
本発明に係るロボット装置は、姿勢及び動作が登録されているグラフであって、姿勢とこの姿勢を遷移させる動作とを結んで構成されたものを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいて、グラフ上において探索して、その探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備えることにより、制御手段により、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいてグラフ上において探索して、その探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させることができる。これによりロボット装置は表現の豊富化が可能になる。
また、本発明に係る動作制御方法は、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいて、姿勢及び動作が登録されて構成され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフ上において探索し、探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させることにより、ロボット装置やコンピュータグラフィックスで動くキャラクターの表現の豊富化が可能になる。
本発明によれば、姿勢とこの姿勢を遷移させる動作とを結んで構成されたものに基づいて、行動指令情報により指示された目標とされる姿勢又は目標とされる姿勢まで遷移させることにより、表現の豊富化を可能にするとともに、遷移する際の姿勢や動作を最適化できる。
本発明によるロボット装置の一実施の形態を示す斜視図である。 ロボット装置の回路構成を示すブロック図である。 コントローラにおけるデータ処理を示す略線図である。 感情・本能モデル部によるデータ処理を示す略線図である。 感情・本能モデル部によるデータ処理を示す略線図である。 感情・本能モデル部によるデータ処理を示す略線図である。 行動決定機構部における有限オートマトンの状態遷移図である。 行動指令情報の生成について説明するために使用した行動決定機構部等の構成を示すブロック図である。 ステートが確率により決定される場合の説明に使用した図である。 感情モデルと本能モデルとの関係について説明するために使用した図である。 姿勢遷移機構部における姿勢遷移のグラフを示す図である。 姿勢遷移のグラフの具体例を示す図である。 現在の姿勢を把握できない場合に一旦遷移させるニュートラルの姿勢を備えること、さらに転倒復帰を可能にすることを説明するために使用した状態遷移図である。 距離を指標とした経路探索を説明するために使用した図である。 分類分けにより経路探索をを行う場合を説明するために使用した図である。 距離を具体的に設定した場合の経路探索を説明するために使用した図である。 歩行方向をパラメータとする場合を説明するために使用したロボット装置の上面図である。 パラメータと動作の内容を示す図である。 姿勢間を遷移する間の動作に他の動作を同期させる場合の説明をするために使用した図である。 異なる姿勢において同様な動作を実行させる場合の説明に使用した図である。 ロボット装置を示す斜視図である。 基本姿勢を取り入れて、全体と部位との間で姿勢を遷移させる場合の説明をするために使用した図である。 現在の姿勢が全体にあり、目標の動作が部位にある場合において、基本姿勢に一旦遷移させてから目標とする動作を実行する場合の説明に使用した図である。 現在の姿勢が部位にあり、目標の動作が全体にある場合において、基本姿勢に一旦遷移させてから目標とする動作を実行する場合の説明に使用した図である。 指令の挿入処理を説明するために使用した図である。 全体及び各構成部分に対応した指令を保存可能とする指令保存部を示す図である。 全体及び各構成部分に対応した指令を保存可能とする指令保存部による処理形態の一例を説明するために使用したを図である。 経路探索をする動作経路探索部を示すブロック図である。 指令により動作が実行されるまでの一連の処理を示すフローチャートである。 頭のグラフ上において、現在の姿勢から目標の動作まで複数の有向アークが経由されることを説明するために使用した図である。 本発明が適用される他の例であって、コンピュータグラフィックスで動くキャラクターを示す図である。 本発明によるロボット装置の他の実施の形態を示す斜視図である。
以下、本発明の実施の形態について図面を用いて詳しく説明する。
(1)ロボット装置の構成
図1に示すように、ロボット装置1は全体が構成されており、頭に相当する頭部2と、胴体に相当する本体部3と、足に相当する足部4A,4B,4C,4Dと、尻尾に相当する尻尾部5とを連結されて構成されている。ロボット装置1は、本体部3に対して頭部2、足部4A〜4D、尻尾部5を動かすことによって本物の四足動物のように動作する。
頭部2には、目に相当し、画像を撮像する例えばCCD(Charge Coupled Device)カメラでなる画像認識部10と、耳に相当し、音声を集音するマイク11と、口に相当し、音声を発するスピーカ12とがそれぞれ所定位置に取り付けられている。また、頭部2には、ユーザからリモートコントローラ(図示せず)を介して送信される指令を受信するリモートコントローラ受信部13と、ユーザの手などが接触されたことを検出するためのタッチセンサ14と、発光手段でなるLED(Light Emitting Diode)15とが取り付けられている。
本体部3には、腹に相当する位置にバッテリ21が取り付けられると共に、その内部にロボット装置1全体の動作を制御するための電子回路(図示せず)等が収納されている。
足部4A〜4Dの関節部分、足部4A〜4Dと本体部3の連結部分、本体部3と頭部2の連結部分、本体部3と尻尾部5の連結部分などは、それぞれのアクチュエータ23A〜23Nによって連結されており、本体部3内部に収納される電子回路の制御に基づいて駆動するようになされている。このようにロボット装置1は、各アクチュエータ23A〜23Nを駆動させることにより、頭部2を上下左右に振らせたり、尻尾部5を振らせたり、足部4A〜4Dを動かして歩かせたり走らせたりして、本物の四足動物のような動作を行わせる。
このように構成されているロボット装置1は、後に詳述するが、概略として例えば次のような特徴がある。
ロボット装置がある姿勢(第1の姿勢)から他の姿勢(第2の姿勢)へ遷移するように指示されたとき、第1の姿勢から第2の姿勢に直接に遷移しないで、予め用意された無理のない姿勢をたどって遷移する。
また、ロボット装置1の姿勢遷移で任意の姿勢に到達したときに通知を受け取れる。
ロボット装置1は、頭、足、尻尾の部分から構成され、これらの各部分の姿勢を独立に管理できる。従って、例えば、頭と足はそれぞれ独立に姿勢制御が可能になる。また、頭、足、尻尾の全てを含む全体の姿勢を部分とは別に管理できる。
また、ロボット装置1の動作命令に動作の詳細を示すためのパラメータを渡すことができる。
ロボット装置1には以上のような特徴があり、以下にこのような特徴を含めた多くの特徴を説明する。
(2)ロボット装置の回路構成
ロボット装置1の回路構成は、例えば図2に示すような構成となっている。頭部2は、マイク11及びリモートコントローラ受信部13でなるコマンド受信部30と、画像認識部10及びタッチセンサ14からなる外部センサ31と、スピーカ12と、LED15とを有している。また、本体部3は、バッテリ21を有すると共に、その内部にロボット装置1全体の動作を制御するためのコントローラ32と、バッテリ21の残量を検出するためのバッテリセンサ33及びロボット装置1内部で発生する熱を検出する熱センサ34でなる内部センサ35とを有している。さらに、ロボット装置1の所定位置にはアクチュエータ23A〜23Nがそれぞれ設けられている。
コマンド受信部30は、ユーザからロボット装置1に与えられる指令、例えば「歩け」、「伏せ」、「ボールを追いかけろ」等の指令を受信するためのものであり、リモートコントローラ受信部13及びマイク11によって構成されている。
リモートコントローラ受信部13は、リモートコントローラ(図示せず)がユーザによって操作されて入力された所望の指令を受信する。例えば、リモートコントローラからの指令の送信は、赤外線光により行われる。リモートコントローラ受信部13は、この赤外線光を受信して受信信号S1Aを生成し、これをコントローラ32に送出する。
なお、リモートコントローラについては、赤外線光により行う場合に限定されるものはなく、音階によってロボット装置1に命令を与えるようなものとすることもできる。この場合には、ロボット装置1は、例えば、マイク11から入力されたリモートコントローラからの音階に応じた処理を行うようにする。
マイク11は、ユーザが所望の指令に応じた音声を発すると、当該ユーザの発した音声を集音して音声信号S1Bを生成し、これをコントローラ32に送出する。
コマンド受信部30は、このようにユーザからロボット装置1に与えられる指令に応じて受信信号S1A及び音声信号S1Bでなる指令信号S1を生成し、これをコントローラ32に供給する。
外部センサ31のタッチセンサ14は、ユーザからロボット装置1への働きかけ、例えば「なでる」、「たたく」等の働きかけを検出するためのものである。例えば、ユーザによりタッチセンサ14が触れられて所望の働きかけがなされると、その働きかけに応じた接触検出信号S2Aを生成し、これをコントローラ32に送出する。
外部センサ31の画像認識部10は、ロボット装置1の周囲の環境を識別した結果、例えば「暗い」、「お気に入りのおもちゃがある」等の周囲の環境情報又は例えば「他のロボットが走っている」等の他のロボット装置の動きを検出するためのものである。この画像認識部10は、周囲の画像を撮影した結果得られる画像信号S2Bを、コントローラ32に送出する。
外部センサ31は、このようにロボット装置1の外部から与えられる外部情報に応じて接触検出信号S2A及び画像信号S2Bでなる外部情報信号S2を生成し、これをコントローラ32に送出する。
内部センサ35は、ロボット装置1自身の内部状態、例えばバッテリ容量が低下したを意味する「お腹がすいた」、「熱がある」等の内部状態を検出するためのものであり、バッテリセンサ33及び熱センサ34から構成されている。
バッテリセンサ33は、ロボット装置1の各回路に電源を供給するバッテリ21の残量を検出するためのものである。このバッテリセンサ33は、その検出した結果であるバッテリ容量検出信号S3Aをコントローラ32に送出する。熱センサ34は、ロボット装置1内部の熱を検出するためのものである。この熱センサ34は、その検出した結果である熱検出信号S3Bをコントローラ32に送出する。
内部センサ35は、このようにロボット装置1の内部の情報に応じてバッテリ容量検出信号S3A及び熱検出信号S3Bでなる内部情報信号S3を生成し、これをコントローラ32に送出する。
コントローラ32は、コマンド受信部30から供給される指令信号S1と、外部センサ3lから供給される外部情報信号S2と、内部センサ35から供給される内部情報信号S3とに基づいて、各アクチュエータ23A〜23Nを駆動させるための制御信号S5A〜S5Nを生成し、これらをアクチュエータ23A〜23Nにそれぞれ送出して駆動させることによりロボット装置1を動作させる。
その際コントローラ32は、外部に出力するための音声信号S10や発光信号S11を必要に応じて生成し、このうち音声信号S10をスピーカl2を介して外部に出力したり、発光信号S11をLED15に送出して所望の発光出力(例えば、点滅にする、色を変化させる)をすることにより、ユーザに必要な情報を知らせるようになされている。例えば、発光出力により、ユーザに自己の感情を知らせるようにする。なお、LED15に替えて画像を表示する画像表示部を備えることもできる。これにより、所望の画像表示により、ユーザに必要な情報、例えば感情等を知らせることができる。
(3)コントローラにおける処理
コントローラ32は、コマンド受信部30から供給される指令信号S1と、外部センサ31から供給される外部情報信号S2と、内部センサ35から供給される内部情報信号S3とを、所定の記憶領域に予め格納されているプログラムに基づいてソフトウェア的にデータ処理を施し、その結果得られる制御信号S5をアクチュエータ23に供給する。
この際のアクチュエータ23の動作がロボット装置1の行動として表現されることになり、本発明はそのような表現の豊富化の実現を目的とするものである。
図3に示すように、コントローラ32は、そのデータ処理の内容を機能的に分類すると、感情本能モデル変化手段としての感情・本能モデル部40と動作決定手段としての行動決定機構部41と姿勢遷移手段としての姿勢遷移機構部42と制御機構部43とに分けられ、外部から供給される指令信号S1と外部情報信号S2と内部情報信号S3とを感情・本能モデル部40及び行動決定機構部41に入力する。概略としては以下のように機能する。
感情・本能モデル部40において指令信号S1、外部情報信号S2及び内部情報信号S3に基づいて感情や本能の状態を決定する。そして、行動決定機構部41において指令信号S1、外部情報信号S2及び内部情報信号S3に加え感情・本能モデル部40により得た感情・本能状態情報S10に基づいて次の動作(行動)を決定し、後段の姿勢遷移機構部42において行動決定機構部41により決定された次の動作(行動)に遷移するための姿勢の遷移計画を立てる。なお、行動決定機構部41が決定した動作(行動)の情報は、感情・本能モデル部40にフィードバックされて、感情・本能モデル部40では、決定された動作(行動)を参照して感情や本能の状態を決定するようにもなされている。すなわち、感情・本能モデル部40では、動作(行動)結果をも参照して本能及び感情を決定している。
制御機構部43では、姿勢遷移機構部42から姿勢遷移計画に基づいて送られてくる姿勢遷移情報S18に基づいて各動作部を制御し、実際に姿勢を遷移させてから、行動決定機構部41にて決定された次の動作(行動)を実際に実行する。
すなわち、ロボット装置1は、上述したようなコントローラ32における機構により、感情・本能に基づいて次の動作(行動)を決定して、そのような動作(行動)を実行できる姿勢までの遷移計画を立てて、その遷移計画に基づいて姿勢を遷移させてから、そのような感情・本能に基づいて決定した動作(行動)を実際に実行する。以下、上述のコントローラ32の各構成部について説明する。
(3−1)感情・本能モデル部における処理
感情・本能モデル部40は、図4に示すように、大別して、感情モデルを構成する情動群50と、感情モデルとは属性の異なるモデルとして用意された本能モデルを構成する欲求群51とを備えている。
ここで、感情モデルは、ある値を有する感情パラメータによって構成され、ロボット装置に規定された感情を感情パラメータの値に応じた動作を介して表出させるためのモデルである。感情パラメータは、主に、圧力センサや視覚センサ等のセンサによって検出された「叩かれた」、「怒られた」といった外部入力信号(外的要因)に基づいて、値が上下する。むろん、感情パラメータはバッテリー残量、体内温度等の内部入力信号(内的要因)に基づいても変化する場合もある。
また、本能モデルは、ある値を有する本能パラメータによって構成され、ロボット装置に規定された本能(欲求)を本能パラメータの値に応じた動作を介して表出させるためのモデルである。本能パラメータは、主に、行動履歴に基づいた「運動がしたい」あるいは、バッテリー残量に基づく「充電がしたい(お腹がすいた)」といった内部入力信号に基づいて、値が上下する。むろん、本能パラメータも、感情パラメータ同様、外部入力信号(外的要因)に基づいて変化してもよい。
これら感情モデル及び本能モデルは、それぞれ同一属性とされる複数種類のモデルによって構成されている。すなわち、情動群50が同一属性からなる独立した感情モデルとしての情動ユニット50A〜50Fを有し、欲求群51が同一属性からなる独立した欲求モデルとしての欲求ユニット51A〜51Dを有している。
情動群50としては、「うれしさ」の感情を示す情動ユニット50A、「悲しさ」の感情を示す情動ユニット50B、「怒り」の感情を示す情動ユニット50C、「驚き」の感情を示す情動ユニット50D、「恐れ」の感情を示す情動ユニット50E及び「嫌悪」の感情を示す情動ユニット50F等が挙げられる。欲求群51としては、「運動欲(Movement Instinct)」の欲求を示す欲求ユニット51A、「愛情欲(Love Instinct)」の欲求を示す欲求ユニット51B、「食欲(Recharge Instinct)」の欲求を示す欲求ユニット51C及び「好奇心(Search Instinct)」の欲求を示す欲求ユニット51D等が挙げられる。
情動ユニット50A〜50Fは、情動の度合いを例えば0〜100レベルまでの強度(感情パラメータ)によってそれぞれ表し、供給される指令信号S1、外部情報信号S2及び内部情報信号S3に基づいて情動の強度をそれぞれ時々刻々と変化させる。かくして感情・本能モデル部40は、時々刻々と変化する情動ユニット50A〜50Dの強度を組み合わせることによりロボット装置1の感情の状態を表現し、感情の時間変化をモデル化している。
さらに、所望の情動ユニット同士が相互に影響し合って強度が変化するようにもなされている。例えば、情動ユニット同士を相互抑制的又は相互刺激的に結合し、相互に影響し合って強度が変化するようにしている。
具体的には、図5に示すように、「うれしさ」の情動ユニット50Aと「悲しさ」の情動ユニット50Bとを相互抑制的に結合することにより、ユーザにほめてもらったときには、「うれしさ」の情動ユニット50Aの強度を大きくすると共に、その際「悲しさ」の情動ユニット50Bの強度を変化させるような入力情報S1〜S3が供給されていなくても、「うれしさ」の情動ユニット50Aの強度が大きくなることに応じて「悲しさ」の情動ユニット50Bの強度を低下させる。同様に「悲しさ」の情動ユニット50Bの強度が大きくなると、当該「悲しさ」の情動ユニット50Bの強度が大きくなることに応じて「うれしさ」の情動ユニット50Aの強度を低下させる。
また、「悲しさ」の情動ユニット50Bと「怒り」の情動ユニット50Cとを相互刺激的に結合することにより、ユーザに叩かれたときには、「怒り」の情動ユニット50Cの強度を大きくすると共に、その際「悲しさ」の情動ユニット50Bの強度を変化させるような入力情報S1〜S3が供給されていなくても、「怒り」の情動ユニット50Cの強度が大きくなることに応じて「悲しさ」の情動ユニット50Bの強度を増大させる。同様に、「悲しさ」の情動ユニット50Bの強度が大きくなると、当該「悲しさ」の情動ユニット50Bの強度が大きくなることに応じて「怒り」の情動ユニット50Cの強度を増大させる。
このように所望の情動ユニット同士が相互に影響し合って強度が変化するようにすることにより、当該結合した情動ユニットのうち一方の情動ユニットの強度を変化させると、これに応じて他方の情動ユニットの強度が変化することになり、自然な感情を有するロボット装置1が実現される。
一方、欲求ユニット51A〜51Dは、情動ユニット50A〜50Fと同様に、欲求の度合いを例えば0〜l00レベルまでの強度(本能パラメータ)によってそれぞれ表し、供給される指令信号S1と外部情報信号S2と内部情報信号S3とに基づいて欲求の強度をそれぞれ時々刻々と変化させる。かくして感情・本能モデル部40は、時々刻々と変化する欲求ユニット5lA〜51Dの強度を組み合わせることによりロボット装置1の本能の状態を表現し、本能の時間変化をモデル化している。
さらに、情動ユニット同士を結合した場合と同様に、所望の欲求ユニット同士が相互に影響し合って強度が変化するようにもなされている。例えば、欲求ユニット同士を相互抑制的又は相互刺激的に結合し、相互に影響し合って強度が変化するようにしている。これにより、結合した欲求ユニットのうち一方の欲求ユニットの強度を変化させると、これに応じて他方の欲求ユニットの強度が変化することになり、自然な本能を有するロボット装置1が実現される。
さらに、情動群50と欲求群51との間で各ユニットが互いに影響し合い、その強度を変化させるようにもなされている。例えば、欲求群51の「愛情欲」の欲求ユニット51Bや「食欲」の欲求ユニット51Cの強度の変化が、情動群50の「悲しさ」の情動ユニット50Bや「怒り」の情動ユニット50Cの強度の変化に影響したり、「食欲」の欲求ユニット51Cの強度の変化が「悲しさ」の情動ユニット50Bや「怒り」の情動ユニット50Cの強度の変化に影響するようにである。これにより、「愛情欲」が満たされると「怒り」の感情や「悲しさ」の感情がおさえられ、また、「食欲」が満たされないと「怒り」の感情や「悲しさ」の感情が高まるといったような状態を表現することができるようになる。このように、感情と欲求との相互作用により、感情と本能とが複雑に影響し合った状態を表現することができる。
以上述べたように、感情・本能モデル部40は、指令信号S1と外部情報信号S2と内部情報信号S3とでなる入力情報S1〜S3、或いは情動群50内及び欲求群51内における情動ユニット同士及び欲求ユニット同士の相互作用や情動群50と欲求群51との間のユニット同士の相互作用等により情動ユニット50A〜50F及び欲求ユニット5lA〜51Dの強度をそれぞれ変化させる。
そして、感情・本能モデル部40は、この変化した情動ユニット50A〜50Fの強度を組み合わせることにより感情の状態を決定すると共に、変化した欲求ユニット51A〜51Dの強度を組み合わせることにより本能の状態を決定し、当該決定された感情及び本能の状態を感情・本能状態情報S10として行動決定機構部41に送出する。
また、感情・本能モデル部40には、後段の行動決定機構部41からロボット装置1自身の現在又は過去の行動の内容を示す行動情報S12が供給されている。例えば、後述する行動決定機構部41において歩行の行動が決定された場合には、「長時間歩いた」とされた情報として行動情報Sl2が供給されるといったようにである。
このように行動情報S12をフィードバックさせることで、同一の入力情報S1〜S3が与えられても、当該行動情報S12が示すロボット装置1の行動に応じて異なる感情・本能状態情報S10を生成することができるようになる。具体的には、次のような構成により、フィードバックされる行動情報S12が感情や行動の状態の決定に参照される。
図6に示すように、感情・本能モデル部40は、各情動ユニット50A〜50Cの前段に、ロボット装置1の行動を示す行動情報S12と入力情報S1〜S3とに基づいて各情動ユニット50A〜50Cの強度を増減させるための強度情報S14A〜S14Cを生成する強度増減手段55A〜55Cをそれぞれ設け、当該強度増減手段55A〜55Cから出力される強度情報S14A〜S14Cに応じて各情動ユニット50A〜50Cの強度をそれぞれ増減させる。
例えば、感情・本能モデル部40は、ユーザに挨拶をしたときに頭をなでられれば、すなわちユーザに挨拶をしたという行動情報S12と頭をなでられたという入力情報Sl〜S3とが強度増減手段55Aに与えられると、「うれしさ」の情動ユニット50Aの強度を増加させる。一方、感情・本能モデル部40は、何らかの仕事を実行中に頭をなでられても、すなわち仕事を実行中であるという行動情報S12と頭をなでられたという入力情報S1〜S3とが強度増減手段55Aに与えられても、「うれしさ」の情動ユニット50Aの強度を変化させない。例えば、強度増減手段55Aは、行動情報S12と入力情報S1〜S3とに基づいて強度情報S14A〜S14Cを生成するような関数やテーブルとして構成されている。例えば、他の強度増減手段55B,55Cについても同様である。
このように、感情・本能モデル部40は、強度増減手段55A〜55Cを備えて、入力情報S1〜S3だけでなく現在又は過去のロボット装置1の行動を示す行動情報S12も参照しながら各情動ユニット50A〜50Cの強度を決定することにより、例えば何らかのタスクを実行中にユーザがいたずらするつもりで頭をなでたとき、「うれしさ」の情動ユニット50Aの強度を増加させるような不自然な感情を起こさせることを回避することができる。因みに、感情・本能モデル部40は、欲求ユニット51A〜5lCの場合も同様にして、供給される入力情報S1〜S3及び行動情報S12に基づいて各欲求ユニット51A〜51Cの強度をそれぞれ増減させるようになされている。
なお、本実施の形態では、「うれしさ」、「悲しさ」及び「怒り」の情動ユニット50A〜50Cに強度増減手段55A〜55Cを備えた例について説明した。しかし、これに限定されるものではなく、他の「驚き」、「恐れ」及び「嫌悪」の情動ユニット50D〜50Fに強度増減手段を備えることもできることはいうまでもない。
以上述べたように、強度増減手段55A〜55Cは、入力情報S1〜S3及び行動情報S12が入力されると、予め設定されているパラメータに応じて強度情報S14A〜S14Cを生成して出力するので、当該パラメータをロボット装置1毎に異なる値に設定することにより、例えば怒りっぽいロボット装置や明るい性格のロボット装置のように、当該ロボット装置に個性を持たせることができる。
(3−2)行動決定機構部における処理
行動決定機構部41は、各種情報に基づいて次の動作(行動)を決定する部分である。行動決定機構部41は、具体的には、図3に示すように、指令信号S1と外部情報信号S2と内部情報信号S3と感情・本能状態情報S10と行動情報S12とでなる入力情報S14に基づいて、次の動作(行動)を決定し、当該決定された動作(行動)の内容を行動指令情報Sl6として姿勢遷移機構部42に送出する。
具体的には、図7に示すように、行動決定機構部41は、過去に供給された入力情報S14の履歴を動作状態(以下、これをステートという。)で表し、現在供給された入力情報S14とそのときのステートとに基づいて当該ステートを別のステートに遷移させることにより、次の動作を決定するような有限個のステートを有する確率有限オートマトン57と呼ばれるアルゴリズムを用いている。
このように行動決定機構部41は、入力情報S14が供給される毎にステートを遷移させ、当該遷移したステートに応じて行動を決定することにより、現在の入力情報S14だけでなく過去の入力情報S14も参照して動作を決定することができるようになる。
これにより、例えば「ボールを追いかけている」というステートST1において、「ボールが見えなくなった」という入力情報S14が供給されると、「立っている」というステートST5に遷移する。一方で、「寝ている」というステートST2において、「起きろ」という入力情報S14が供給されると、「立っている」というステートST4に遷移するようになる。よって、ステートST4及びステートST5は、行動が同一であっても過去の入力情報S14の履歴が異なっていることから、ステートも異なっていることがわかる。
実際上、行動決定機構部41は、所定のトリガーがあったことを検出すると、現在のステートを次のステートに遷移させる。トリガーの具体例としては、例えば現在のステートの行動を実行している時間が一定値に達したこと、又は特定の入力情報S14が入力された、又は感情・本能モデル部40から供給される感情・本能状態情報S10が示す情動ユニット50A〜50F及び欲求ユニット51A〜51Dの強度のうち、所望のユニットの強度が所定の閾値を超えたこと等が挙げられる。
例えば、行動決定機構部41は、感情・本能モデル部40から供給された感情・本能状態情報S10が示す情動ユニット50A〜50F及び欲求ユニット51A〜51Dの強度のうち、所望のユニットの強度が所定の閾値を超えているか否かに基づいて遷移先のステートを選択する。これにより、例えば同一の指令信号S1が入力されても、情動ユニット50A〜50F及び欲求ユニット51A〜51Dの強度に応じて異なるステートに遷移するようになされている。
したがって、行動決定機構部41は、供給される外部情報信号S2を基に例えば目の前に手のひらが差し出されたことを検出し、かつ感情・本能状態情報S10を基に「怒り」の情動ユニット50Cの強度が所定の閾値以下であることを検出し、かつ内部情報信号S3を基に「お腹がすいていない」、すなわち電池電圧が所定の閾値以上であることを検出すると、目の前に手のひらが差し出されたことに応じて「おて」の動作を行わせるための行動指令情報S16を生成し、これを姿勢遷移機構部42に送出する。
また、行動決定機構部41は、例えば目の前に手のひらが差し出され、かつ「怒り」の情動ユニット50Cの強度が所定の閾値以下であり、かつ「お腹がすいている」すなわち電池電圧が所定の閾値未満であることを検出すると、「手のひらをぺろぺろなめる」ような動作を行わせるための行動指令情報S16を生成し、これを姿勢遷移機構部42に送出する。
また、行動決定機構部41は、例えば目の前に手のひらが差し出され、かつ「怒り」の情動ユニット50Cの強度が所定の閾値以上であることを検出すると、「お腹がすいていない」すなわち電池電圧が所定の閾値以上であるか否かにかかわらず、「ぷいと横を向く」ような動作を行わせるための行動指令情報S16を生成し、これを姿勢遷移機構部42に送出する。
上述のように行動決定機構部41は、次の行動を入力情報S14に基づいて決定しているが、例えば図8に示すように、決定される行動の内容を、「行動1」、「行動2」、「行動3」、「行動4」、・・・「行動n」といった行動内容を示す情報として複数保持している。例えば、「行動1」はボールを蹴る行動を行う動作内容からなり、「行動2」は感情を表出させる動作内容からなり、「行動3」は自律探索をする動作内容からなり、「行動4」は障害物回避をするための動作内容からなり、「行動n」はバッテリー残量が少ないことを知らせるための動作内容からなる、といったようにである。
このように予め用意されている行動内容を示す複数の情報の中から、入力情報S14に基づいて確率有限オートマトン57による選択がなされて、次の行動が決定される。
行動の選択(決定)については、具体的には図8に示すように、選択モジュール44によってなされる。そして、選択モジュール44は、その選択結果を、行動指令情報Sl6として姿勢遷移機構部42に出力し、行動情報S12として感情・本能モデル部40や行動決定機構部41に出力する。例えば、選択モジュール44は、決定した行動にフラグを立て、その情報を行動情報S12や行動指令情報S16として行動決定機構部41や姿勢遷移機構部42に出力している。
行動決定機構部41では、外部情報等(指令信号S1、外部情報信号S2)S21や内部情報等(内部情報信号S3、感情・本能状態情報S10)S22に加えて行動情報S12に基づいて行動を決定することにより、前の行動が考慮された次の行動を決定することができるようになる。
また、感情・本能モデル部40では、上述したように、同一の入力情報S1〜S3に加えて行動情報S12に基づいて、感情及び本能の状態を変化させる。これにより、感情・本能モデル部40は、上述したように、同一の入力情報S1〜S3が与えられても異なる感情・本能状態情報S10を生成することができるようになる。
なお、行動決定機構部41の「行動1」、「行動2」、「行動3」、「行動4」、・・・「行動n」の動作内容を示す情報にグループIDを付しておくこともできる。グループIDは、同一カテゴリーの行動において同一の情報を示すものであって、例えば、「ボールを蹴る」の行動について複数パターンの行動を有している場合には、当該複数の行動に同一のグループIDが付されるといったような関係にある。このように同一のカテゴリーの行動に同一のグループIDを付すことにより、同一カテゴリーの行動をグループとして処理できるようになる。
例えば、選択モジュール44における行動の選択では、同じカテゴリー内ではどの行動が選択されても、同一のグループIDが発行される。そして、当該選択された行動に付されていたグループIDが感情・本能モデル部40に送られることにより、感情・本能モデル部40は、グループIDに基づいて、感情や本能の状態を決定することができるようになる。
また、行動決定機構部41は、感情・本能モデル部40から供給された感情・本能状態情報S10が示す情動ユニット50A〜50F及び欲求ユニット51A〜51Dの強度のうち所望のユニットの強度に基づいて、遷移先のステートで行われる行動のパラメータ、例えば歩行の速度、手足を動かす際の動きの大きさや速度、音を出す際の音の高さや大きさなどを決定し、当該行動のパラメータに応じた行動指令情報S16を生成して姿勢遷移機構部42に送出するようになされている。
また、指令信号S1と外部情報信号S2と内部情報信号S3とでなる入力情報S1〜S3は、感情・本能モデル部40及び行動決定機構部41に入力されるタイミングに応じて情報の内容が異なるため、感情・本能モデル部40と共に行動決定機構部41にも入力されるようになされている。
例えば、コントローラ32は、「頭をなでられた」という外部情報信号S2が供給されると、感情・本能モデル部40によって「うれしい」という感情・本能状態情報S10を生成し、当該感情・本能状態情報S10を行動決定機構部41に供給するが、この状態において、「手が目の前にある」という外部情報信号S2が供給されると、行動決定機構部41において上述の「うれしい」という感情・本能状態情報S10と「手が目の前にある」という外部情報信号S2とに基づいて「喜んでおてをする」という行動指令情報S16を生成させ、これを姿勢遷移機構部42に送出させるようになされている。
また、動作状態(ステート(或いはノードともいう。))の遷移先は、確率有限オートマトン57において、ある確率により決定されるようにもしている。例えば、外部からの入力があった場合に、その入力により、ある動作状態(行動状態)に20%の確率(遷移確率)で遷移するといったようにである。具体的には、図9に示すように、「あるいている」のステートST10から、「はしっている」のステートST11や「寝ている」のステートST12に遷移可能である場合において、「はしっている」のステートST11への遷移確率がPとされ、「寝ている」のステートST12への遷移確率がPとされ、そのような確率に基づいて遷移先が決定される。なお、確率により遷移先を決定する技術としては、特開平9−114514公開公報に開示されている技術が挙げられる。
また、ロボット装置1は、あるステートに遷移する確率の情報を、テーブルとして保持している。例えば、図10に示すようなテーブルとしてである。図10に示すテーブルは、現在の行動状態を示すノード(node)名、入力されたイベント名、入力されたイベント(以下、入力イベントという。)のデータ名、入力イベントのデータの範囲、あるステートへの遷移確率等の情報によって構成されている。
このようなテーブルにより、入力されたイベントに応じてあるステートへの遷移確率が決定され、その遷移確率に基づいた遷移先のステートの決定がなされる。
ここで、現在の行動状態を示すノード名とは、このような現在のロボット装置1の行動状態(ステート)を示すもので、現在どのような行動が実行されているかを示す。
また、入力イベントとは、ロボット装置1に入力された情報であって、このテーブルは、このような入力イベントによって整理されている。例えば、入力イベント名の「BALL」は、入力イベントがボールを発見したことをいい、「PAT」は、軽く叩かれたことを示すことをいい、「HIT」は殴られたことをいい、「MOTION」は動いているものを発見したことをいい、「OBSTACLE」は障害物を見つけたことをいう。
なお、テーブルは、実際には多くの入力イベントによって整理されており、本実施の形態では、「BALL」、「PAT」、「HIT」、「MOTION」、及び「OBSTACLE」の入力イベントによりテーブルが整理されている場合について説明する。
入力イベントのデータの範囲は、そのような入力イベントがパラメータを必要する場合のそのようなデータの範囲をいい、入力イベントのデータ名は、そのようなパラメータ名をいっている。すなわち、入力イベントが「BALL」であれば、データ名はそのボールの大きさ「SIZE」をいい、データの範囲はそのような大きさの範囲が0〜1000であることをいう。同様に、入力イベントが「OBSTACLE」であれば、データ名はその距離「DISTANCE」をいい、データの範囲はそのような距離の範囲が0〜100であることをいう。
そして、あるステートへの遷移確率は、入力イベントの性質に応じて選択可能とされる複数のステートについて割り当てられている。すなわち、一つの入力イベントにおいて、選択可能とされるステートに付された遷移確率の合計が100%になるように各アークに遷移確率が付されている。具体的にいえば、「BALL」の入力イベントでみた場合、当該入力イベントの性質により選択可能とされる「ACTION1」、「ACTION3」、・・・に付されている遷移確率である30%、20%、・・・の合計が、100%になるようになされている。
なお、ここで「ノード」及び「アーク」は、いわゆる確率有限オートマトンにおいて一般的に定義されているもので、「ノード」は状態(本例では、行動状態)とされ、「アーク」は「ノード」間をある確率をもってして結ぶ有向線(本例では、遷移動作)とされている。
以上のような情報からなるテーブルにより、次のようにして、入力イベント、入力イベントにおいて取得されたデータの範囲及び遷移確率が参照されて、遷移先のステートが選択される。
例えば、ロボット装置1がボールを発見した場合(入力イベントが「BALL」である場合)において、そのボールの大きさが0〜1000であるときには、現在の状態であるnode(ノード)3から30%の確率でnode120へ遷移する。その遷移の際に「ACTION1」が付されたアークが選択され、「ACTION1」に対応する動作または表現が実行される。または、現在の状態であるnode3から20%の確率でnode500へ遷移する。その遷移の際に「ACTION3」が付されたアークが選択され、「ACTION3」に対応する動作または表現が実行される。「ACTION1」、「ACTION3」としては、例えば、「吠える」、「ボールを蹴る」といった行動が挙げられる。一方、ボールの大きさが1000以上のときには、「node120」や「node500」が遷移先として選択される確率はない。
また、ロボット装置1が障害物を見つけた場合(入力イベントが「OBSTACLE」である場合)において、その障害物までの距離が0〜100であるときには、後退り行動としての「node1000」のノード(ステート)が100%の確率で選択される。すなわち、100%の確率で「MOVE_BACK」が付されたアークが選択され、「MOVE_BACK」が実行されるようになる。
以上述べたように、テーブル等を用いて、確率により、ステート(ノード)又はアークの選択、すなわち行動モデルの決定をすることができる。このように、確率をも考慮に入れて遷移先のステートを決定することにより、遷移先が常に同じものとして選択されるようなことを防止することができるようになる。すなわち、ロボット装置1の行動の表現の豊富化を可能にする。
また、上述のようなステートの選択、すなわち行動モデルの決定については、感情モデルの状態に基づいてできるようにもなされている。例えば、上述のステート間の遷移確率を感情モデルの状態に基づいて変化させることにより、行動モデルを決定するといったようにである。具体的には、次のようにである。
例えば、上述したようなステートへの遷移を確率により決定することを利用する。すなわち、感情モデルの状態(例えば、レベル)を参照し、その感情モデルの状態に応じて遷移確率を変化させる。これにより、感情モデルに基づいて行動モデルの決定がなされるようになり、結果として行動モデルが感情モデルの状態に影響されるようになる。具体的に、これを、図10に示すテーブルを用いて説明する。
例えば、遷移確率を決定するデータとして、「JOY(うれしさ)」、「SURPRISE(驚き)」や「SADNESS(悲しさ)」を用意する。この「JOY(うれしさ)」、「SURPRISE(驚き)」や「SADNESS(悲しさ)」は、感情モデルの情動ユニット50A,50D,50Bに対応されるものである。そして、データの範囲は、例えば、0〜50とする。このデータの範囲は、上述した情動ユニットのレベルに対応される。
これにより、「JOY(うれしさ)」、「SURPRISE(驚き)」や「SADNESS(悲しさ)」が所定のレベル、本実施の形態では0〜50にある場合には、所定のステートへの遷移確率が決定されることになる。例えば、そのデータ範囲が0〜50である「JOY(うれしさ)」の実際のレベルが30であれば、「ACTION1」、「ACTION2」、「MOVE_BACK」、「ACTION4」が付されたアークが10%、10%、10%、70%の確率で選択され、所定のステートへ遷移するようになる。
また、図10に示すように、「JOY(うれしさ)」、「SURPRISE(驚き)」や「SADNESS(悲しさ)」を入力イベントに関係なく遷移確率の決定に参照することにより、すなわちいわゆる空イベント状態において、これらを参照することにより、例えば、外部から入力がない状態においても、遷移確率を決定することができる。これにより、例えば、一定時間入力イベントの検出がなされないとき、遷移確率の決定に感情モデルが参照されるようになる。
さらに、このような場合において、参照を、「JOY(うれしさ)」、「SURPRISE(驚き)」、「SADNESS(悲しさ)」の順番ですることにより、「JOY(うれしさ)」、「SURPRISE(驚き)」、「SADNESS(悲しさ)」の順番で、その実際のレベルが参照されるようになる。これにより例えば、「SADNESS(悲しさ)」の実際のレベルが60である場合には、そのデータ範囲が0〜50とされていることから、次の「JOY(うれしさ)」の実際のレベルが参照されることになる。そして、例えば、そのデータ範囲が0〜50である「JOY(うれしさ)」の実際のレベルが20であるとした場合、「ACTION2」が付されたアークが30%の確率で、また、「MOVE_BACK」の付されたアークが60%の確率で選択され所定のステートへ遷移するようになる。
以上のように、感情モデルの状態に基づいて行動モデルを決定できるようにもなされている。このように、行動モデルが感情モデルの状態に影響されることにより、ロボット装置1の表現の豊富化が可能になる。
以上述べたような種々の手段により、行動決定機構部41による行動指令情報S16の決定がなされる。
(3−3)姿勢遷移機構部における処理
姿勢遷移機構部42は、目標とされる姿勢や目標とされる動作に遷移するための情報を生成する部分である。具体的には、姿勢遷移機構部42は、図3に示すように、行動決定機構部41から供給される行動指令情報S16に基づいて現在の姿勢又は動作から次の姿勢又は動作(目的とされる姿勢又は目的とされる動作)に遷移させるための姿勢遷移情報S18を生成し、これを制御機構部43に送出する。例えば、現在の姿勢から次に遷移可能な姿勢は、胴体や手や足の形状、重さ、各部の結合状態のようなロボット装置1の物理的形状と、例えば関節が曲がる方向や角度のようなアクチュエータ23A〜23Nの機構とによって決定され、姿勢遷移情報S18は、そのようなことが考慮された、遷移させるための情報とされる。
制御機構部43は、このように姿勢遷移機構部42から送られてくる姿勢遷移情報S18に基づいて、ロボット装置1を実際に動作させている。
姿勢遷移機構部42は、ロボット装置1が遷移可能な姿勢及び遷移する際の動作を予め登録しており、例えばグラフとして保持しており、行動決定機構部41から供給された行動指令情報S16を姿勢遷移情報S18として制御機構部43に送出する。制御機構部43は、姿勢遷移情報S18に応じて動作して目標とされる姿勢或いは目標とされる動作に遷移する。以下、姿勢遷移機構部42にて行う処理について詳しく説明する。
例えば、ロボット装置1は、指令(行動指令情報S16)の内容にしたがった姿勢に、直接遷移できない場合がある。すなわち、ロボット装置1の姿勢は、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できなく、ある動作や姿勢を経由して可能となる姿勢と、に分類されるからである。
例えば、4本足のロボット装置1は、手足を大きく投げ出して寝転んでいる状態から伏せた状態へ直接遷移することはできるが、立った姿勢へ直接遷移することはできず、一旦手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ちあがるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボット装置1は、立っている姿勢で両前足を挙げてバンザイをしようとすると、転倒してしまう場合である。或いは、現在の姿勢が寝転び姿勢(寝姿勢)にある場合において、指令の内容として座り姿勢でしかできないような「足をばたばたさせる」といった内容が送られてとき、そのまま足をばたばたばたさせる命令を出してしまうと、寝姿勢から座り姿勢への遷移と足をばたばたさせる動作とが実行されてしまうことになり、ロボット装置1はバランスを崩して転倒してしまう場合がある。
したがって、姿勢遷移機構部42は、行動決定機構部41から供給された行動指令情報S16が直接遷移可能な姿勢を示す場合には、当該行動指令情報S16をそのまま姿勢遷移情報S18として制御機構部43に送出する一方、直接遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢や動作を経由して目標とされる姿勢(行動指令情報S16により指示された姿勢)まで遷移させるような姿勢遷移情報S18を生成し、これを制御機構部43に送出する。これにより、ロボット装置1は、遷移不可能な姿勢を無理に実行しようとする事態や転倒するようなことを回避することができる。或いは、目標とされる姿勢或いは動作に遷移するまで複数の動作を用意しておくことは表現の豊富化に結びつく。
具体的には、姿勢遷移機構部42は、ロボット装置1がとり得る姿勢及び動作が登録されているグラフであって、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフを保持して、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、指令情報とされる行動指令情報S16に基づいてグラフ上において探索して、その探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる。すなわち、姿勢遷移機構部42は、ロボット装置1がとり得る姿勢を予め登録すると共に、遷移可能な2つの姿勢の間を記録しておくようになされており、このグラフと行動決定機構部41から出力された行動指令情報S16とに基づいて目標とされる姿勢或いは動作まで遷移させる。
具体的には、姿勢遷移機構部42は、上述のようなグラフとして、図11に示すような有向グラフ60と呼ばれるアルゴリズムを用いている。有向グラフ60では、ロボット装置1がとり得る姿勢を示すノードと、遷移可能な2つの姿勢(ノード)の間を結ぶ有向アーク(動作アーク)と、場合によっては一つのノードから当該一つのノードに戻る動作のアーク、すなわち一つのノード内で動作を完結する動作を示す自己動作アークとが結合されて構成されている。すなわち、姿勢遷移機構部42は、ロボット装置1の姿勢(静止姿勢)を示す情報とされるノードと、ロボット装置1の動作を示す情報とされる有向アーク及び自己動作アークとから構成される有向グラフ60を保持し、姿勢を点の情報として、さらに動作の情報を有向線の情報として把握している。
ここで、有向アークや自己動作アークは複数とされていてもよく、すなわち、遷移可能なノード(姿勢)の間に有向アークが複数接合されてあってもよく、一つのノードにおいて複数の自己動作アークが結合されていてもよい。
姿勢遷移機構部42は、行動決定機構部41から行動指令情報S16が供給されると、現在の姿勢に対応したノードと、行動指令情報S16が示す次に採るべき姿勢に対応するノードとを結ぶように、有向アークaの向きに従いながら現在のノードから次のノードに至る経路を探索し、当該探索した経路上にあるノードを順番に記録することにより、姿勢遷移の計画を立てるようになされている。以下、このような現在の姿勢から目標とされるノード(指令により指示されたノード)、或いは目標とされるアーク(指令により指示されたアーク)の探索を、経路探索という。ここで、目標とするアークとは、有向アークであってもよく、自己動作アークであってもよい。例えば、自己動作アークが目標とされるアークとなる場合とは、自己動作が目標とされた(指示された)場合であって、例えば、所定の芸(動作)が指示された場合等が挙げられる。
姿勢遷移機構部42は、経路探索により得た目標とされる姿勢(ノード)或いは目標とさえる動作(有向アーク或いは自己動作アーク)までの姿勢遷移計画に基づいて、遷移のための制御命令(姿勢遷移情報S18)を後段の制御機構部43に出力する。
例えば、図12に示すように、現在の姿勢が「ふせる」という姿勢を示すノードNDにある場合には、「すわれ」という行動指令情報S16が供給されると、「ふせる」の姿勢を示すノードNDから「すわる」の姿勢を示すノードNDへは有向アークaが存在しており、直接遷移が可能であり、これにより、姿勢遷移機構部42は、「すわれ」という内容の姿勢遷移情報S18を制御機構部43に与える。
また、姿勢遷移機構部42は、現在の姿勢が「ふせる」という姿勢を示すノードNDにある場合において「歩け」という行動指令情報S16が供給されると、「ふせる」から「歩く」まで直接的に遷移ができないので、「ふせる」の姿勢を示すノードNDから「あるく」の姿勢を示すノードNDに至る経路を探索することにより姿勢遷移計画を立てる。すなわち、「ふせる」の姿勢を示すノードNDから有向アークaを経由して、「たつ」の姿勢を示すノードNDを選択し、さらに、「たつ」の姿勢を示すノードNDから有向アークaを経由して「あるく」の姿勢を示すノードNDに至るといった姿勢遷移計画を立てる。このような姿勢遷移計画の結果として、姿勢遷移機構部42は、「たて」という内容の姿勢遷移情報S18を出し、その後に「歩け」という内容の姿勢遷移情報S18を制御機構部43に出力する。
なお、図12に示すようなノードからグラフが構成されている場合における各ノードへの自己動作アークの貼り付けとしては、「たつ」の姿勢を示す姿勢を示すノードNDに「ダンスをする」の動作を示す自己動作アークを貼り付けたり、「すわる」の姿勢を示すノードNDに「バンザイをする」の動作を示す自己動作アークを貼り付けたり、或いは「ねそべる」の姿勢を示すノードNDに「いびきをする」の動作を示す自己動作アークを貼り付けたりすることが挙げられる。
また、ロボット装置1は、通常、現在どの姿勢にあるかを把握しているように構成されている。しかし、現在の姿勢がわからなくなる場合も生じる。例えば、ロボット装置1は、ユーザ等に抱きかかえられたり、転倒時、或いは電源起動時において、現在の姿勢を把握できない。例えば、このような現在の姿勢が把握不可能なときの姿勢を不定姿勢という。例えば、このように現在の姿勢が把握できずに不定姿勢とされると、いわゆる出発の姿勢を特定できないことから、目標とされる姿勢或いは動作までの姿勢遷移計画を立てることができなくなる。
このようなことから、ノードとしてニュートラル(中立)の姿勢を示すノードを設け、現在の姿勢が不明のときにはニュートラルの姿勢に遷移させて、姿勢遷移計画を立てるようにしている。すなわち、例えば、現在の姿勢が不明のときには、図13に示すように、ニュートラルの姿勢をノードNDntに一旦遷移させてから、「たっている」の姿勢を示すノードND、「すわっている」の姿勢を示すノードND、或いは「ねそべっている」の姿勢を示すノードNDといった基本的な姿勢を示すノードに遷移させるようにする。そして、このような基本的な姿勢に遷移させてから、本来の姿勢遷移計画を立てる。
なお、本実施の形態では、ニュートラルの姿勢から遷移する基本的な姿勢として、「たっている」、「すわっている」、「ねそべっている」を挙げて説明したがこれに限定されるものではなく他の姿勢であってもよいことはいうまでもない。
また、不定姿勢からニュートラルの姿勢(ノード)への遷移については、具体的には、低トルクあるは低速度で動作部(例えばアクチュエータ)を駆動して行うことにする。これにより、サーボの負担を減らして、さらに例えば、通常の動作と同様に動作部を動作させてしまい動作部が破損していまうといったことを防止することができる。例えば、尻尾部5は、通常振り回すような動作をしているのであるが、そのような尻尾部5の動作をニュートラルの姿勢(ノード)への遷移の際に行うと、ロボット装置1が不定姿勢として寝ているような状態にある場合に、尻尾部5が破損してしまうようなことがあるからである。
また、ロボット装置は転倒を把握して、転倒状態から上述したような基本的な姿勢を示すノードに遷移させることもできる。例えば、ロボット装置1には、加速度センサが備えられ、自己が転倒したことを検出する。
具体的には、ロボット装置1は加速度センサにより自己が転倒したことを検出すると、転倒復帰のための所定の動作を行い、その後、上述したような基本的な姿勢を示すノードに遷移する。
また、ロボット装置1は、転倒方向について把握するようにも構成されている。具体的には、加速度センサにより、前後、左右の4方向について転倒方向を把握可能とされている。これにより、ロボット装置は、転倒方向に応じた転倒復帰の動作が可能になり、速やかに基本的な姿勢への遷移が可能になる。
また、転倒を検出した際には、所定の表現を出力するようにしてもよい。例えば、所定の表現として、自己動作アークa11により足をばたばたさせる動作を行う。これにより、ロボット装置1が転んでもがいている様子を表現することができるようになる。
さらに、「ふせる」のノードNDと「立つ」のノードNDとの間に図示しない複数の有向アークがある場合には、最適な一の有向アークを選択して、「立つ」のノードNDに遷移するような姿勢遷移計画を立てることもできる。
上述したように、ノードとノードとの間には、複数の有向アークが存在し、また、一つのノードに複数のノードが有向アークにより結合されている場合もある。よって、現在のノードから目標とされるノード或いはアーク(有向アーク又は自己動作アーク)を結ぶ経路については複数存在する。
このようなことから、現在のノードと目標とするノードとの距離を短くするといったことを指標として、すなわち最短距離として経路を探索するいわゆる最短距離探索により、姿勢遷移計画を立てるようにする。
図14に示すように、ノード(○印)とノード(○印)との間を結ぶ有向アーク(矢印)に距離という概念を用いて、最短距離探索を行う。このような経路探索手法としては、ダイキストラのパスサーチの理論等がある。距離は、後述するように、重み付けや、時間等といった概念に代替えすることも可能である。図14には、距離が「1」の有向アークによって遷移可能なノードを結んだ結果を示している。
よって、このような距離を経路探索の指標として用いることで、現在の姿勢(ノード)から目標とするノードへ最短距離の経路を選択できるようになる。
具体的には、現在のノードから目標とされるノードへの経路が4通りある場合において、第1の経路の距離が「12」、第2の経路の距離が「10」、第3の経路の距離が「15」、第4の経路の距離が「18」であるようなときには、距離が「10」の第2の経路により遷移していき、目標とされる姿勢までの姿勢遷移計画を立てる。
最短距離の検索の手法についてはこのような手法によることに限定されるものではない。
上述の例では、目標とするノードへの最短距離の経路を、複数の経路を探索してその結果の中から一の経路として選び出している。換言すれば、上述の経路探索では、現在のノードから目標とするノードに遷移できる経路を可能な限り探索して複数の経路を得て、その中から距離を指標として最短距離の経路を特定している。しかし、最短距離の経路探索では、このような手法により最短距離の経路を探索することに限定されるものではなく、目標とするノードへの最短距離の経路を検出した時点で、その経路探索の処理を終了することもできる。
例えば、現在の姿勢から探索指標とする距離を徐々に延ばしてノードを次々に探索していき、その都度最短の距離にあるノード(目標とされるノードではないノード)を決定して、最終的に目標とするノードを検出した時点で当該最短距離の経路探索の処理を終了するといったようにである。すなわち例えば「等高線」といったような概念で考えられるような「等しい距離」といった概念を用い、現在のノードから距離を延ばしてその「等しい距離」上のノードを次々に検出し、目標とするノードを最終的に検出できた時点で、その経路探索の処理を終了する。このような経路探索の手法として、ダイキストラのパスサーチが挙げられる。
このような最短距離の経路探索の手法によれば、目標とするノードまでに存在する全ての経路を探索することなく最短距離の経路を探索することができるので、最短距離の経路を短時間で検出することができるようになり、結果としてこのような探索処理を行うためのCPU等の負担を少なくすることができる。よって、全ての経路を探索することなく目標とするノードまでの最短距離の経路を検出することができるので、ネットワーク全体を検索することによる負担をなくすことができるようになり、例えば、このようなグラフを構築するネットワークが大規模となる場合でも、負担を少なくして経路を探索することができるようになる。
また、経路探索の手法としては、図15に示すように、ノードを行動或いは姿勢に基づき大まかに分類分け(クラスタリング)しておき、最初に分類による大まかな検索(予備検索)を行い、その後、詳細検索をするようにしてもよい。例えば、「右前足けり」という姿勢をとらせる際に、経路探索範囲として最初に「ボールをける」という分類のエリアを選択し、次に、そのエリアの中のみでパスを検索する。
例えば、大まかな分類とそれを構成するものとの関連付け、すなわち「ボールをける」と「右前足けり」との関連付けは、このようなシステムを設計する際にID情報等を付しおくことによりなされている。
なお、ノード間には、当該ノード間の両方向に向かう有向アークも存在するので、一旦遷移したノードから戻ってしまうような有向アークも存在する。このような場合、経路探索において何ら制約がなければ、戻る有向アークを選択してしまい、元のノードに戻ってしまう場合がある。これを防止するように、一度通過した(ノード)にならないような有向アークを選択するようにすることもできる。
また、目標とするノードにたどり着けることができなかった場合、最終的な姿勢になれないといった結果を上位の制御手段や下位の制御手段等に出すようにする。
また、上述の例では、目標を姿勢(ノード)として説明しているが、目標を動作すなわち有向アークや自己動作アークとすることもできる。目標とされるアークが自己動作アークとは、例えば、足部4にばたばたさせる動作をさせること等が挙げられる。
また、経路探索における指標として、有向アークに付した重みや有向アークの動作時間を参照するようにすることもできる。有向アークに重み付けした場合は例えば次のようになる。
現在のノードから目標とされるノードへの間の候補となる経路の途中にある有向アークの重みの総和を算出して、そのような候補とされている経路毎の総和を比較することにより、最適な経路(最小費用の経路)を選択する。
また、有向アークの動作時間(実行時間)についてみた場合は例えば次のようになる。
例えば、現在のノードから目標とするノードへ2つの有向アークを経由していく場合において、動作時間が1秒と2秒の2本の有向アークを経由した場合には、遷移時間は3秒かかる。よって、図16に示すようなグラフにおいて、現在のノードNDから目標のノードNDに遷移しようとした場合において、ノードNDを経由して目標とするノードNDに遷移する場合と、有向アークaのみにより目標とするノードNDに遷移した場合とでは、動作時間を指標とすることにより、ノードNDを経由した方が動作時間が1秒の有向アークaと動作時間が2秒の有向アークaとを経由しているので、現在のノードNDと目標のノードNDとを直接結ぶ動作時間が5秒の有向アークaを遷移経路として選択するよりも、遷移時間を短くして目標のノードNDに到達することができる。よって、動作時間を指標としてみた場合には、2つの有向アークを経由した方が最短時間として目標のノードに到達できる姿勢遷移計画を立てることができる。
また、有向アークに付す重み或いは距離を動作の難易度としてもよい。例えば、難易度が低いということを、距離が短いということとして設定する。また、有向アークの1本をデフォルトとすることもできる。有向アークの1本をデフォルトとしておくことにより、通常は、当該デフォルトの有向アークが選択されるようにして、指示があった場合に、デフォルトでない他の有向アークが選択されるようにすることもできる。
以上のように、経路探索のための指標となるものを有向アークに付加しておくことにより、すなわち、有向アークに動作時間や、バランスの保持が困難な難易度を付加しておくことにより、大きい動作を避けて通るなどして最適な経路を選択した姿勢遷移計画を立てることができる。また、有向アークにエネルギー消費率を付加しておくことにより、最適効率の経路を選択した姿勢遷移計画を立てることができる。
また、ノードとノードとの間には、複数の有向アークが存在する場合もあるので、このような場合には、選択される確率を有向アーク毎に振ることもできる。すなわち、例えば異なる確率を各アークに割り当てる。これにより、確率によるばらつきによって、同じノード間の遷移でも様々な動作が選択されるようになって、一連の動作が変化に富んだものとすることができる。例えば、座っている姿勢から立ちあがる姿勢に遷移させる際に、座っている足を後ろに伸ばしてから4足で立ちあがったり、前の足を前に伸ばしてから立ちあがる等の動作を確率で選択することで、どちらの動作で立ちあがるか再生されるまで(実際に実行されるまで)予測できない効果をもたらすことができる。
具体的には、各有向アークの距離又は重みをm,m,m・・・として、その総和(m+m+m+・・・)をMとするとき、距離又は重みがmの有向アークに割り当てる確率Pは、(1)式として表せる。
Figure 2010149277
これにより、重みが大の有向アークは通過経路として選択される確率が低く、重みが小の有向アークは通過経路として選択される確率が高くなる。
また、経路探索をする領域を限定することもできる。例えば、所定の範囲内の経路のみに限定して経路探索することもできる。これにより、より短時間で、最適な経路を探索することができるようになる。
また、これに重みを付け等して最適な経路を選択させることにより、離れた姿勢間を補間する動作の単調さを回避したり、危険度の高い経路を通る確率を減らすことができるようになる。
また、アーク(有向アーク又は自己動作アーク)については、以下のようにグラフに登録することもできる。
例えば、「歩く」といった動作について複数の実行態様が考えられる。例えば、図17に示すように、0°方向に歩く、30°方向に歩く、60°方向に歩くといった動作は「歩く」について複数の実行態様となる。このような同一の動作について複数の実行態様を持たせること、すなわち、同一動作に対するパラメータを多くすることにより、ロボット装置1の表現の豊富化につながる。このような動作は、そのようなパラメータが異なるアークを複数存在させることにより可能になる。
一方、このように、複数の実行態様に応じてパラメータが異なるアークを複数存在させることは、ネットワークの資源の有効利用といった面では好ましくない。すなわち、0°から90°まで、1°毎に異なる方向に歩く動作を実行させようとした場合、91個のアークが必要になるからである。
そこで、「歩く」を一つのパスとして、歩行方向についてはパラメータにする。例えば、自己動作アークにおいて、「歩く」を命令して、その際にパラメータとして歩行方向を別に与えることにより、動きを再生するときに、その与えられたパラメータの方向に、「歩く」を実行することができるようになる。これにより、複数の自己動作アークを必要とせずに、1個の「歩く」の自己動作アークと、歩行方向のパラメータを有するだけで、同じ歩行の指示でも細かく方向を設定して実行させることが可能になる。これによりシナリオが多彩になってもなおグラフが簡素で済み、構築されているネットワーク資源を有効に使用することができるようになる。
具体的には、行動指令情報S16に付加情報として、動作のパラメータの情報を付加して、例えば、歩行方向を付加して、姿勢遷移機構部42では、「歩く」という内容の姿勢遷移情報S16にそのようなパラメータを添付して、制御機構部43に送る。
なお、上述の実施の形態では、自己動作アークにパラメータを付す場合について説明しているが、これに限定されず、有向アークにパラメータを付すこともできる。これにより、ノード間に「歩く」といった動作そのものは同じであるが、そのパラメータとされる「歩行方向」が異なる有向アークを複数用意する必要がなくなる。
また、同じ動作を繰り返す場合には、繰り返す回数を示す情報を与えることで、繰り返しの動作を実行させることができる。例えば、「歩く」動作を実行させておき、別に繰り返す回数として「3回」の情報をパラメータとして与えることにより、命令形態を簡素にすることができる。これにより、例えば、3歩歩かせるような場合、「歩け」といった指示を3度出したり、「3歩歩け」といった指示としてではなく、「歩け」と「3回(3歩)」といった指示形態で実行させることができるようになる。これにより、そのような指示形態からなるアーク、或いはノードの情報量を少なくして保持することができるようになる。また、繰り返しの回数を指定できるようにすることで、指示を出す回数と指示が伝達されるまでの時間を短縮することができる。
例えば、図18に示すように、一歩ずつ歩く動作の指示として「ワンステップウォーク」の情報を制御機構部43に出力し、そのパラメータとして「3」を指示することにより、3歩だけ歩く動作をさせたり、また、パラメータとして「7」を指示することにより、7歩だけ歩く動作をさせたり、さらに、パラメータとして「−1」を指示することにより、足に対して他の指示があるまでずっと歩き続ける動作をさせたりすることができる。
また、繰り返し動作をさせておき、後で、制御機構部43に繰り返し動作の停止命令を与えてやることにより、上述したように、同じ動作を繰り返して実行させることもできる。
また、所定のアークに対してある表現を貼り付けて実行させることもできる。すなわち、所定の動作(アーク)が実行された場合、その動作に同期させて別の表現とされる動作を実行させることもできる。例えば、図19に示すように、座り姿勢のノードNDから立ち姿勢のノードNDに遷移する際の有向アークaが設定されている場合に、有向アークaに所定の音声や動作を対応付けしておくこともできる。これにより、座り姿勢から立ち姿勢へ遷移する動作に、他の動作として笑っている目の表情や、”う〜ん”といった音声を同期して再生することができるようになる。このように異なる部位の組合せで、厚みのある表現が可能になり、シナリオが豊かになる効果も生まれる。
また、各ノードに結合されている自己動作アークが重複している場合がある。例えば、図20に示すように、寝姿勢のノード、座り姿勢のノードや立ち姿勢のノードそれぞれにおいて怒る動作をするような場合である。
このような場合、「怒る」という名前の動作を、寝姿勢から寝姿勢への自己動作アーク、座り姿勢から座り姿勢への自己動作アーク、立ち姿勢から立ち姿勢への自己動作アークとなる怒りを表現する動作に命名しておけば、「怒る」という指示を与えるだけで、最短経路探索により、一番近い「怒る」の動作(自己動作アーク)を検索することもできる。すなわち、目標とされる動作(自己動作アーク)のうち最短で実行可能な一の動作までの経路を、姿勢遷移計画として立てる。これにより、例えば、現在の姿勢が寝姿勢に一番近い場合において、「怒る」の行動指令情報S16が送られてきたとき、寝姿勢のノードの自己動作アークとして結合されている怒る動作として、例えば寝た状態でガリガリと地面をひっかく動作が実行されるようになる。
このように複数のノードにおいて同一の動作を実行する自己動作アークが存在するような場合において、そのような所定の動作の指令がなされた場合、最短距離探索により最適な姿勢(最短距離にある姿勢)における動作が実行可能になり、これにより、上位制御手段は、各部の状態或いは動作について常に把握しておく必要なく、指示された動作を実行させることができるようになる。すなわち、例えば、上位制御手段(姿勢遷移機構部42)は、「怒る」と指令があった場合に、現在のノードを把握するだけでよく、実際の「寝た状態で怒る」といったノードを探索することなく、単に「怒る」の自己動作アークを探索するだけで、最短距離の寝姿勢において怒る動作までの姿勢遷移計画を立てることができる。
また、上述したように、同じ系統の動作を同じ名前で指示した場合、予め登録したグラフ上で現在の姿勢から最適な動作を探索して選択するようにしているので、例えば「怒る」等の抽象的でかつ豊富なパターンを持つ動作指示が簡潔に指示できるようになる。
また、ロボット装置1は、各構成部分を別個に動作させることが可能とされている。すなわち、各構成部分それぞれについての指令を実行させることができる。ここで、ロボット装置(全体)1のそのような構成部分として、図21に示すように、大別して頭部2、足部4、尻尾部5が挙げられる。
このように構成されているロボット装置1において、尻尾部5と頭部2とを個別に動作させることができる。つまり、リソースが競合しないので個別に動作させることができる。一方、ロボット装置1の全体と頭部2とを別個に動作させることはできない。つまり、リソースが競合するので個別に動作させることはできない。例えば、指令の内容の中に頭部2の動作が含まれているような全体の動作が実行されている間は、頭部2についての指令の内容を実行することはできない。例えば、頭部2を振りながら尻尾部5を振ることは可能であり、全身(全体)を使った芸をしている最中に頭部2を振ることは不可能であるといったようにである。
表1には、行動決定機構部41から送られてくる行動指令情報S16に、リソースが競合する場合と、リソースが競合しない場合の組合せを示している。
Figure 2010149277
このように、リソースが競合するような指令が送られてきた場合、全体1の動作についての指令又は頭部2の動作についての指令のいずれか一方を先行して実行しなければならなくなる。以下に、そのような指令がなされている場合における処理について説明する。
リソースが競合するため、一方の指令を先行して実行する場合、例えば、全体1の動作を終了させてから、頭部2についての命令を実行するような場合、全体1の動作により至った最後の姿勢から頭部2の動作が開始されることになる。しかし、全体1の動作後の最後の姿勢が、頭部2を振るといった動作を開始するのにふさわしい姿勢になっているとは限らない。全体1の動作後の最後の姿勢が、頭部2の動作開始にふさわしい姿勢になっていない状態で、すなわち、異なる指令により遷移する前後の姿勢が不連続となるような場合において、頭部2の動作を開始してしまうと、頭部2が急激な動作を示し、不自然な動作となってしまう場合がある。この問題は、現在の姿勢(或いは動作)から目標とする姿勢(或いは動作)がロボット装置1の全体と各構成部分にまたいでおり、ロボット装置1の全体を制御するために構築されているノード及びアークからなるネットワーク(グラフ)と、ロボット装置1の各構成部分を制御するために構築されているノード及びアークからなるネットワーク(グラフ)とが何らつながりを持たずに別個に構築されている場合に生じる問題である。
上述のように遷移する前後の姿勢が不連続であることに起因してロボット装置1がなす不自然な動きは、グラフ上において遷移動作を滑らかにつなげるように姿勢遷移計画を立てることにより、解消される。具体的には、全体及び構成部分のグラフ上において共有する基本姿勢を取り入れて、姿勢遷移計画を立てることによりこれを解消している。
ロボット装置1の姿勢遷移計画に使用するためのネットワークの情報を、図22Aに示すように、全体のネットワークの情報(グラフ)と、各構成部分のネットワークの情報(グラフ)とから、全体として階層的構造として構成している場合について以下に説明する。例えば、全体のネットワークの情報(グラフ)と、各構成部分のネットワークの情報(グラフ)とからなる姿勢遷移計画に使用する情報は、上述の図8に示すように、姿勢遷移機構部42内において構築されている。
基本姿勢は、全体の動作と各構成部分の動作との間で状態を移行するために一旦遷移される姿勢であって、基本姿勢としては、例えば、図22Bに示すように、座り姿勢が挙げられる。基本姿勢を座り姿勢とした場合について、遷移動作を滑らかにつなげる手順を説明する。
具体的に、図23に示すように、現在の姿勢が全体のグラフの姿勢NDa0として把握され、目標として頭部の動作aを実行させる場合について説明する。
全体のグラフ上において、ロボット装置1の全体の姿勢を、現在の姿勢NDa0から基本姿勢NDabに遷移させる有向アークaを選択する。ここで、全体が基本姿勢になる場合には、頭部、足部、及び尻尾部のグラフ上においても基本姿勢の状態(ノード)として把握されることとなる。
頭部のグラフでは、基本姿勢NDhbの状態から最適な有向アークaが選択され、目標とする頭部2の動作(自己動作アーク)aまでの経路が決定される。
ここで、全体のグラフにおける現在の姿勢NDa0から基本姿勢NDabまでの経路や、頭部のグラフにおける基本姿勢NDhbの状態から目標の動作a2までの経路の探索については、上述したような最短距離探索により行う。
このような手順により、全体と各構成部分との間の動作を滑らかにつなげるような遷移経路の選択(姿勢遷移計画)が、全体のグラフと頭部のグラフとにおいてなされる。そして、制御機構部43は、姿勢遷移情報S19を姿勢遷移計画に基づいて制御機構部43に出力する。
上述した例は、全体の動作から各構成部の動作を滑らかにつなげる具体例である。次に、各構成部分の動作から全体の動作を滑らかにつなげる具体例について説明する。具体的には、図24に示すように、頭部のグラフにおいて頭部2が姿勢NDh0として把握され、足部のグラフにおいて足部4が姿勢NDf0として把握され、目標として全体の動作aを実行させる場合について説明する。
頭部のグラフ上において、頭部2の姿勢を、現在の姿勢NDh0から基本姿勢NDabに遷移させる有向アークaを選択する。また、足部のグラフ上において、足部4の姿勢を、現在の姿勢NDf0から基本姿勢NDfbに、姿勢NDf1を経由して遷移させる有向アークa,aを選択する。なお、尻尾部5についてはもともと基本姿勢にあるものとする。このように各構成部分が基本姿勢になる場合には、全体のグラフ上においても基本姿勢として把握されることになる。
そして、全体のグラフ上では、基本姿勢NDhbの状態から最適な有向アークaが選択され、目標とする全体の動作(自己動作アーク)aまでの経路が決定される。
例えば、構成部分それぞれにおいての動作については、基本姿勢に遷移するときの他の構成部分の動作と同時に実行することでもよく、制限を付けて各構成部分の動作を実行するようにすることもできる。例えば、あるタイミングにより行うようにすることでもよい。
具体的には、頭部2を使って芸をしている最中に全体1の動作についての指令がなされた場合には、頭部2については芸を実行している最中なので基本姿勢NDhbへの遷移はできないので、先ず、足部4を先に基本姿勢NDfbの状態にしてから、芸を終了した頭部2を基本姿勢NDhbの状態に遷移させるようにするといったようにである。
また、全体1の姿勢のバランス等を考慮に入れて、各構成部分を動作させるようにすることもできる。例えば、頭部2と足部4とを同時に移動してしまうと、或いは頭部2を最初に基本姿勢NDhbの状態にしてしまうと、バランスを失って、転倒してしまうような場合、先に足部4を基本姿勢NDfbの状態にしてから、頭部2を基本姿勢NDhbの状態に遷移させるようにする。
以上のように一旦基本姿勢に遷移されるような姿勢遷移計画を立てることにより、動作を滑らかにつなげることができる。
また、使用しない部位のリソースを開放することで他の目的に使うことができるようになる。例えば、歩いているときに頭部2のリソースを開放することで、頭部2を動くボールにトラッキング(追従)させることができる。
なお、基本姿勢は一つにすることに限定されるものではない。例えば、座り姿勢や寝姿勢等の複数の姿勢を基本姿勢として設定することもできる。これにより、最短の動作により、全体の動作から各構成部分の動作への移行、或いは各構成部分の動作から全体の動作への移行を、最短距離(最短時間)として行うことができる。また、このように複数の基本姿勢を設定しておくことは、ロボット装置1の表現の豊富化につながる。
また、上述したような姿勢遷移機構部42における姿勢や動作の遷移経路の決定等は、行動決定機構部41からの行動指令情報S16に基づいてなされるものである。そして、行動決定機構部41では、行動決定指示情報S16を、通常、制限なく姿勢遷移機構部42に送ってくる。すなわち、動作が実行されている間にも他の動作に関する指令は発生し、姿勢遷移機構部42にはそのようにして発生した行動指令情報S16が送られてくる。これに対応して、姿勢遷移制御部42から送られてくる行動指令情報S16が蓄積される指令保存部を備えている。この指令保持部では、行動決定機構部41が生成する行動指令情報S16を蓄積して、さらに、いわゆるリスト操作が可能とされている。指令保存部としては例えばバッファが挙げられる。
これにより、行動決定機構部41から送られてきた指令が、現時点で実行不可能である場合、例えば芸(所定の動作)をしている最中には、そのような送られてきた指令がバッファに蓄積されることになる。例えば、バッファに、図25Aに示すように、新たに送られてきた指令Dが新たにリストとして加えられる。そして、芸を終了してから、通常は、一番古い命令がバッファから取り出されて経路探索が実行されていく。例えば、図25Aのように指令が蓄積されている場合、一番古い指令Aが先ず実行される。
このようにバッファに指令が蓄積されて、古い指令から順次実行されていくが、指令を挿入(インサート)したり、指令を取り消し(キャンセル)したりするリスト操作をすることもできる。
指令の挿入では、図25Bに示すように、既に蓄積されている指令群に指令Dを挿入する。これにより、実行待ちにある指令A、B、Cより優先させて指令Dについての経路探索を実行させることができるようになる。
また、指令の取消しでは、バッファに蓄積されている指令を取り消す。これにより、何らかの理由により不要となった指令を実行されないようにすることができる。
また、バッファは、上述したように、ロボット装置1の全体と各構成部分とに対応して、複数の指令保存領域を有することもできる。この場合、全体、各構成部分毎についての動作の指令が、図26に示すように、蓄積されていく。このように、全体と各構成部分とに対応した指令をそれぞれ保存する領域を備えることにより次のような操作が可能になる。
異なる構成部分、例えば頭部と足部との動作を同期して再生させる同期情報を添付しておくこともできる。例えば、図27に示すように、頭部2と足部4との指令保存領域にそれぞれ保存された指令に再生を開始する順番の情報を付し、同期情報として、同じ順番の情報、例えば5番目に再生開始される情報を割り当てるなどする。
これにより、仮にその2つ前に実行開始されている3番目の頭部2の動作が、一つ前に実行開始された4番目の足部4の動作より先に終了したような場合でも、頭部2について5番目の指令だけ先に実行開始されないように、同じ5番目の情報のついた足部4の4番目の動作の再生が終了を待ってから、5番目の情報の付いた頭部2と足部4の動作の再生要求を同時に出すことが可能になる。これにより例えば頭部2を横に振る動作の開始と、足部4を左右に傾ける動作の開始を同じタイミングで出すことにより、よりインパクトの大きいロボット装置1の表現が可能になる。
また、リスト操作により、実行前や実行中の一連の動作の計画を途中で中止したり、優先度の高い指令を後から早い順番に割り込ませることができるので、柔軟性に富んだシナリオを組み立てることができる。
以上のように行動決定機構部41から送られてきた行動指令情報S16に基づいてなされる目標とされる姿勢或いは動作までの最適経路の検索、及び姿勢遷移計画の決定は、例えば、姿勢遷移機構部42が図28に示すような動作経路探索装置60を備えることにより実現される。
動作経路探索部60は、指令保持部61、経路探索部62及びグラフ保存部63を備えている。
行動決定機構部41から全体或いは各構成部分についての指令がこの動作経路探索部60に与えられるが、例えば、目標の姿勢或いは動作の部位(例えば頭部)、現在の指令と過去に出した一連の指令に対してのリスト操作の命令、或いは指令そのものの特徴の情報等が行動指令情報S16に添付されてくる。以下、添付されくる情報を添付情報という。
ここで、現在の指示と過去に出した一連の指示に対してのリスト操作の命令とは、例えば図25Bを用いて説明した新たに発生した指令を未実行の指示郡の一番先頭に挿入するための命令である。また、指令そのものの特徴の情報(以下、指令特徴情報という。)とは、図17において説明した歩行方向のパラメータ、図18において説明した指令のパラメータ、例えば動作が「前に歩く」なら「3歩」といったパラメータ、或いは図19において説明した別の動作を同期させるための情報である。
指令保存部61は、上述したように、行動決定機構部41から送られてくる行動指令情報S16を保存するものであって、例えば、バッファである。指令保存部61は、行動指令情報S16に添付情報がある場合には、その添付情報の内容に基づいた処理をする。例えば、添付情報にリスト操作の情報として指令の挿入命令がある場合、その内容に応じて、届いたばかりの行動指令情報S16を、指令保存部61で待ち状態になっている指令列の先頭に挿入する操作も合わせて行う。
また、指令保存部61は、添付情報として指令特徴情報がある場合には、それもその指令と一緒に保存する。
この指令保存部61は、現在どの指令が実行中でどの指令が何番目の順番待ち状態になっているかを把握している。これを実現するには例えば指令に順番を付けて保存している。
また、指令保存部61は、上述したように、例えば全体1、頭部2、足部4、尻尾部5に対応して4つ保存領域を持っている。そして、指令保存部61は、頭部2を動作させる指令が実行中のときは全体を動作させる指令が実行できないとか、頭部2を動作させている指令と、足部4を動作させる指令とを関係なく出すことができるとかの判断をくだすこともできる。すなわち、全体と各構成部分とのリソースが競合するような指令の出力を防止するような処理、いわゆるリソースの競合の解決を行うことができる。
また、指令保存部61は、異なる部位間にまたいで指令が出された順番も覚えており、例えば全体1、足部4、頭部2、全体1の順番で指令が送られてきたときは、指令保存部61の全体1についての指令を1番目と4番目とになされた指令として保存し、足部4についての指令を2番目になされた指令として保存し、頭部2についての指令を3番目の指令として保存して、その順番を覚えている。これにより、指令保存部61は、先ず、1番目になされた全体1の指令を経路探索部62に送り、その指令の内容が再生終了次第、2番目になされた足部4の指令と3番目になされた頭部2の指令とを送り、各構成部がその指令の内容を再生終了したら、4番になされた全体1の指令を経路探索部62に送る。
経路探索部62は、指令保存部61から送られてきた指令により上述したようないわゆる経路探索を開始する。グラフ保存部63には、指令保存部61で区分されたのと同様の部位毎に対応してグラフが保存されている。すなわち、図22Aに示したような全体1、頭部2、足部4、及び尻尾部5それぞれに対応されるグラフが保存されている。経路探索部62は、このグラフ保存部63に保存されている各グラフに基づいて、指令の内容である目標とされる姿勢或いは動作までの最適経路を、上述したような距離や重み等を指標として探索し、姿勢遷移計画を立てる。
そして、経路探索部62は、経路探索により取得した姿勢遷移計画に基づいて、目標の姿勢或いは動作が実行されるまで、制御機構部43に姿勢遷移情報S18を送出していく。
以上のように姿勢遷移機構部42は、行動決定機構部41から送られてきた行動指令情報S16に基づいて、指令により目標とされる姿勢或いは動作までの最適経路を検索をして姿勢遷移計画を立て、その姿勢遷移計画に従って、姿勢遷移情報S18を制御機構部43に出力する。
(3−5)制御機構部における処理
図3に戻って、制御機構部43は、姿勢遷移情報S18を基にアクチュエータ23を駆動させるための制御信号S5を生成し、これをアクチュエータ23に送出して当該アクチュエータ23を駆動させることにより、ロボット装置1に所望の動作を行わせるようになされている。
また、制御機構部43は、目標とされる姿勢或いは動作に到達するまで、姿勢遷移情報S18に基づいてなされた動作の終了通知(再生結果)を経路探索部62に返す。終了通知を受け取った経路探索部62はグラフ保存部63に対して動作の終了を通知する。グラフ保存部63はグラフ上の情報を更新する。すなわち例えば、姿勢遷移情報S18が、足部2を座り姿勢の状態から座り姿勢の状態への遷移動作をさせるものであった場合、終了通知を受けたグラフ保存部63は、寝姿勢の状態に対応された足部2のノードのグラフ位置を、座り姿勢のグラフ位置に移動させる。
例えば、目標とされる動作が、座り姿勢において「足をばたばたさせる」(自己動作アーク)というようなものであった場合には、さらに、経路探索部62は、「足をばたばたさせる」を姿勢遷移情報S18として制御機構部43に送り、制御機構部43では姿勢遷移情報S18に基づいて、足部4をばたばたさせるための制御情報を生成し、これをアクチュエータ23に送出して足部4をばたばたさせる動作を実行させる。制御機構部43は、所望の動作を再生したら、その終了通知を再び経路探索部62に送る。経路探索部62は足部4をばたばたさせる動作が終了したことをグラフ保存部63に伝える。しかし、自己動作アークの場合には、グラフ上の情報を更新する必要がないので、現在の足部4の姿勢が座り姿勢まで進んでいるが、足部4をばたばたさせた終了姿勢がその動作開始前の姿勢と同じ足部の座り姿勢なので、グラフ保存部63は足部4の現在の姿勢位置を変更しない。
一方、経路探索部62は、目標とされる姿勢或いは動作の再生が終了した旨を指令保存部61に通知する。指令保存部61では、目標とされる姿勢或いは動作が無事完了したので、すなわち、指令の内容が無事遂行されたので、当該指令を消去する。例えば、目標とされる動作として、上述したように足をばたばたさせるを与えていた場合には、足部4の指令保存領域からからその指令を消去する。
以上のように、行動決定機構41、動作経路探索部60、及び制御機構部43が情報を授受することによりそれら行動決定機構41、動作経路探索部60、及び制御機構部43の基本的な機能が実現されている。
なお、図29には、行動決定機構部41にて生成された指令(行動指令情報S16)に基づいて行う動作経路探索部60の経路探索、及び経路探索結果に基づいて行われる動作の一連の処理手順を示している。
先ず、ステップSP1において、行動決定機構部41から動作経路探索部60に指令が与えられ、続くステップSP2において、動作経路探索部60の指令保存部61では、その指令に指令群に加える。
例えば、図26に示すように、尻尾部の指令が加えられる。また、指令にリスト操作としてインサートをする命令情報が付加されている場合には、それに応じて指令が指令列内に挿入される。
続くステップSP3において、指令保存部61は、開始できる指令があるかどうかを判別する。
例えば、指令保存部61が、図26に示すように、全体についての指令を1番目の指令(現在再生中の指令)として、頭部についての蓄積された指令を2番目と3番目の指令として、足部についての指令を4番目の指令として、そして尻尾部5について蓄積された指令を5番面と6番面の指令として、それぞれ把握している場合には、全体についての1番目の指令が実行中である場合には、開始できる指令がないと判別される。
開始できる指令がない場合には、ステップSP4に進み、開始できる指令がある場合には、ステップSP5に進む。ステップSP3に進んだ時点で、ロボット装置1の全体が動作をしている最中では、各構成部分についての指令を実行することができないので、ステップSP4に進むことになり、一方、ステップSP3に進んだ時点で、動作が終了している場合には、ステップSP5に進むことになる。
ステップSP4では、所定時間の経過を待つ。例えば、0.1秒経過するのを待って、再び、ステップSP3において、開始できる指令があるか否かを判別する。
例えば、ステップSP4において0.1秒経過するのを待ったことにより、図26に示す全体について実行中であった指令(1番目の指令)が終了した場合には、ステップSP3において、頭部についての2便目の指令、足部についての4番目になされた指令、そして、尻尾部についての5番目の命令が開始できる指令として同時に把握されるようになる。
なお、頭部についての3番目の指令については、頭部についての2番目の指令の実行が終了次第、開始できる指令として把握され、また、尻尾部についての6番目に指令については、頭部についての5番目の指令の実行が終了次第、開始できる指令として把握されるようになる。
このように、ステップSP3においてすぐに開始できる指令がない場合に、ステップSP4に進み、所定時間経過するのを待つことにより、全体或いは各構成部分において所定の動作が終了するまで待ち、適切なタイミングにより次の指令を実行することができるようになる。
ステップSP5では、経路探索部62が指令保存部61から送られてきた次の指令の内容に基づいて、グラフ保存部63に保存されているその指令に対応するグラフ上の現在の姿勢から目標の姿勢までの動作経路が見つかるか否かを判別する。
例えば、頭部2の動作についての指令である場合には、図30に示すように、頭部のグラフ上において、現在の姿勢(状態)から目標とする状態或いは動作まで到達できる経路があるか否かを判別する。経路が見つかる場合とは、指令の目標とされる状態或いは動作までパス(アーク)が存在する場合であり、図30に示すように、現在の姿勢から目標の姿勢に到達できる複数の有向アークa,aが存在する場合であり、経路が見つからない場合とは、指示された状態或いは動作までのパスが存在しない場合である。
ここで、現在の姿勢から目標の姿勢までの遷移経路が見つからない場合には、ステップSP6に進み、見つかった場合には、ステップSP7に進む。また、目標の姿勢(或いは動作)までの遷移経路が見つかった場合、その経路(アーク)a(kは、0を含めたnまでの整数である。)を記憶し、これが姿勢遷移計画の情報となる。
ステップSP6では、動作経路が見つからなかったとして、指令保存部61がその指令をリストから消去する。このように動作経路が見つからなかった場合に当該指令を消去することにより、後に続く指令が取り出せるようになる。このような指令の消去をした後、再び、ステップSP3において、指令保存部61は、開始できる指令があるか否かを判別する。
ステップSP7では、i=0を設定する。その後のステップSP8において、iがn以下か否かについて判別がなされる。ここで、iがnである場合とは、目標とされる姿勢或いは動作が完了したことをいう。すなわち、n番目のアークが、目標とされるノードに直接遷移する有向アークan或いは目標とされた自己動作アークanとなる。なお、i=0である場合には、少なくともこのステップSP8で、iがn以下であると確認されることになる。
iがn以下である場合には、ステップSP10に進み、iがnよりも大きい場合には、ステップSP9に進む。
ステップSP10では、制御機構部43は、経路探索部62から送られてくる姿勢遷移情報S18に基づいて、アークaの再生を行う。例えば、図30に示すように、現在の姿勢(最初の姿勢)にあった場合には、最初の一つ目の有向アークaの動作をする。
ステップSP11では、経路探索部62が動作の終了の通知を受けて、ステップSP12では、グラフ保存部63がグラフ上の姿勢の位置を更新させる。
続く、ステップSP13において、次のアークを実行するために、iをi=i+1とし、インクリメントする。続いて、ステップSP8に戻って、再びiがn以下か否かについて判別がなされる。
iがnより大きい場合、すなわち、目標とされる姿勢までの動作が実行された場合、或いは目標とされる動作としてのアーク(有向アーク又は自己動作アーク)が実行された場合に実行されるステップSP9において、指令保存部61は、保存されている指令から終了したばかりの指令を消去する。そして、ステップSP3に戻って、指令保存部61は再び、開始できる指令があるかどうかを判別する。
なお、目標とされる姿勢或いは動作が、全体と各構成部分にまたいでいるような場合、ステップSP5及びステップSP6では、図23及び図24を用いて説明したように、それぞれに対応されるグラフ上において最適な経路を検索をして、ステップSP7以降の処理においては、それに応じた処理を行う。すなわち、基本姿勢に遷移させて、目標とする姿勢或いは動作までの有向アークの内容を実行する。
また、指令は上述のように指令保存部61に蓄積されていき、ロボット装置1の各構成部分は、リソースが競合しないので、そのような指令に基づいて同時進行的な動作が可能となる。このようなことから、上述したような処理手順(フロー)については、各構成部分についてのフローも並存することになり、同時進行的に複数のフローが実行されていくこともある。よって、例えば、全体の指令についてのフローが処理されている場合にあっては各構成部分の指令についてのフローの処理を行わないで、待ち状態になる。
(4)動作及び効果
以上の構成において、コントローラ32の感情・本能モデル部40は、供給される入力情報S1〜S3に基づいて、ロボット装置1の感情及び本能の状態を変化させ、この感情及び本能の状態の変化をロボット装置1の行動に反映させることにより、自分の感情や本能の状態に基づいて自律的に行動させる。
そして、ノード及びアークを登録したグラフに基づいて多種の姿勢及び動作を遷移させていくことにより、ロボット装置1による多彩な表現が可能になる。
すなわち、予め登録したグラフを用いることで、動作の組合せによる表現のパターンが多く持てるようになる。また、現在の姿勢から目標とする姿勢或いは動作までの無理のない滑らかな姿勢の遷移が可能になり、動きの途中でバランスを不用意に崩してしまうこともない。
(5)他の実施の形態
なお、上述の実施の形態では、リモートコントローラから赤外線光によって送られてきたユーザの指令を受信するようにした場合について述べたが、本発明はこれに限らず、例えば電波や音波によって送られてきたユーザの指令を受信するようにしてもよい。
また、上述の実施の形態では、ユーザからの指令をリモートコントローラ受信部13及びマイク11でなるコマンド受信部30を介して入力するようにした場合について述べたが、本発明はこれに限らず、例えばロボット装置1にコンピュータを接続し、当該接続されたコンピュータを介してユーザの指令を入力するようにしてもよい。
また、上述の実施の形態では、図4に示したように、「うれしさ」、「悲しさ」、「怒り」等という情動を示す情動ユニット50A〜50Fと、「運動欲」、「愛情欲」等という欲求を示す欲求ユニット51A〜51Dとを用いて感情及び本能の状態を決定するようにした場合について述べたが、本発明はこれに限らず、例えば情動ユニットに「寂しさ」という情動を示す情動ユニットを追加したり、欲求ユニット51に「睡眠欲」という欲求を示す欲求ユニットを追加してもよく、この他種々の種類や個数の組合せでなる情動ユニットや欲求ユニットを使って感情や本能の状態を決定するようにしてもよい。
また、上述の実施の形態では、ロボット装置1が感情モデルと本能モデルとを有している構成について述べたが、本発明はこれに限らず、感情モデルのみ、或いは本能モデルのみ有した構成とすることもでき、さらに、動物の行動を決定付けるような他のモデルを有してもよい。
また、上述の実施の形態では、指令信号S1と外部情報信号S2と内部情報信号S3と感情・本能状態情報S10と行動情報S12とに基づいて次の行動を行動決定機構部41によって決定した場合について述べたが、本発明はこれに限らず、指令信号S1と外部情報信号S2と内部情報信号S3と感情・本能状態情報S10と行動情報S12とのうち一部の情報に基づいて次の行動を決定するようにしてもよい。
また、上述の実施の形態では、有限オートマトン57と呼ばれるアルゴリズムを用いて次の行動を決定した場合について述べたが、本発明はこれに限らず、ステートの数が有限でないステートマシンと呼ばれるアルゴリズムを用いて行動を決定するようにしてもよく、この場合、入力情報Sl4が供給される毎に新たにステートを生成し、当該生成したステートに応じて行動を決定すればよい。
また、上述の実施の形態では、有限オートマトン57と呼ばれるアルゴリズムを用いて次の行動を決定した場合について述べたが、本発明はこれに限らず、現在供給された入力情報S14とそのときのステートとに基づいて複数のステートを遷移先の候補として選定し、当該選定された複数のステートのうち遷移先のステートを乱数によってランダムに決定するような確率有限オートマトンと呼ばれるアルゴリズムを用いて行動を決定するようにしてもよい。
また、上述の実施の形態では、行動指令情報S16が直接遷移可能な姿勢を示す場合には、当該行動指令情報S16をそのまま姿勢遷移情報S18として制御機構部43に送出する一方、直接遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢に一旦遷移した後に目的の姿勢まで遷移させるような姿勢遷移情報S18を生成して制御機構部43に送出した場合について述べたが、本発明はこれに限らず、行動指令情報S16が直接遷移可能な姿勢を示す場合にのみ当該行動指令情報S16を受け付けて制御機構部43に送出する一方、直接遷移不可能な姿勢を示す場合には、当該行動指令情報S16を拒否するようにしてもよい。
また、上述の実施の形態では、本発明をロボット装置1に適用した場合について述べたが、本発明はこれに限らず、例えばゲームや展示等のエンタテインメント分野で用いられるロボット装置のように、他の種々のロボット装置に本発明を適用し得る。図31に示すように、コンピュータグラフィックスで動くキャラクター、例えば多関節により構成されるキャラクターを用いたアニメーション等に適用することもできる。
また、本発明が適用されるロボット装置1の外観は、図1に示すような構成をとることに限定されず、図32に示すように、より現実の犬に類似の構成とすることも、人間型のヒューマノイドロボットとすることもできる。
本発明に係るロボット装置は、供給される入力情報に応じた動作を行うロボット装置であって、動作に起因するモデルを有し、入力情報に基づいてモデルを変化させることにより動作を決定するモデル変化手段を備えることにより、入力情報に基づいてモデルを変化させて動作を決定することで、ロボット装置自身の感情や本能等の状態に基づいて自律的に行動することができる。
また、本発明に係る動作制御方法は、供給される入力情報に応じて動作させる動作制御方法であって、入力情報に基づいて動作に起因するモデルを変化させることにより動作を決定することにより、例えばロボット装置を自身の感情や本能等の状態に基づいて自律的に行動させることができる。
また、本発明に係るロボット装置は、供給される入力情報に応じた動作を行うロボット装置であって、順次供給される入力情報の履歴に応じた現在の動作及び次に供給される入力情報に基づいて、現在の動作に続く次の動作を決定する動作決定手段を備えることにより、順次供給される入力情報の履歴に応じた現在の動作及び次に供給される入力情報に基づいて現在の動作に続く次の動作を決定することで、ロボット装置自身の感情や本能等の状態に基づいて自律的に行動することができる。
また、本発明に係る動作制御方法は、供給される入力情報に応じて動作させる動作制御方法であって、順次供給される入力情報の履歴に応じた現在の動作及び次に供給される入力情報に基づいて、現在の動作に続く次の動作を決定することにより、例えばロボット装置を自身の感情や本能等の状態に基づいて自律的に行動させることができる。
また、本発明に係るロボット装置は、姿勢及び動作が登録されているグラフであって、姿勢とこの姿勢を遷移させる動作とを結んで構成されたものを記憶するグラフ記憶手段と、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいて、グラフ上において探索して、その探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させる制御手段とを備えることにより、制御手段により、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいてグラフ上において探索して、その探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させることができる。これによりロボット装置は表現の豊富化が可能になる。
また、本発明に係る動作制御方法は、現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、行動指令情報に基づいて、姿勢及び動作が登録されて構成され、姿勢とこの姿勢を遷移させる動作とを結んで構成されたグラフ上において探索し、探索結果に基づいて動作させて、現在の姿勢から目標とされる姿勢又は目標とされる動作に遷移させることにより、ロボット装置やコンピュータグラフィックスで動くキャラクターの表現の豊富化が可能になる。

Claims (24)

  1. 行動指令情報に基づいて動作させて、複数の姿勢の間を遷移するロボット装置であって、
    上記姿勢及び上記動作が登録されているグラフであって、上記姿勢と上記姿勢を遷移させる上記動作とを結んで構成されたものを記憶するグラフ記憶手段と、
    現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて上記グラフ上において探索して、その探索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる制御手段と
    を備えたロボット装置。
  2. 上記行動指令情報を一時的に記憶する行動指令情報記憶手段を備え、
    上記制御手段は、上記行動指令情報記憶手段から順次送られてくる上記行動指令情報に基づいて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作までの経路を、上記グラフ上において探索する
    請求項1記載のロボット装置。
  3. 上記行動指令情報には当該行動指令情報についての付加情報が付加されていること
    請求項2記載のロボット装置。
  4. 上記付加情報が、上記指令操作情報であって、
    上記行動指令情報記憶手段は、上記指令操作情報に基づいて、新たに送られてきた行動指令情報と既に記憶されている行動指令情報とに対する操作をする
    請求項3記載のロボット装置。
  5. 上記付加情報が、動作の内容を細かく指令する細部入力情報であって、
    上記制御手段は、上記細部入力情報に基づいて、上記目標とされる動作を細かく制御する
    請求項3記載のロボット装置。
  6. 上記細部入力情報が、動作のパラメータの情報であって、
    上記制御手段は、上記目標とされる動作を上記パラメータに従って実行させる
    請求項5記載のロボット装置。
  7. 上記細部入力情報が、動作の繰り返し回数の情報であって、
    上記制御手段は、上記目標とされる動作を、上記繰り返し回数の情報に基づいて繰り返して実行させる
    請求項5記載のロボット装置。
  8. 上記細部入力情報が、繰り返し動作であることの情報であって、
    上記制御手段は、繰り返しの終了の情報が入力されるまで、上記目標とされる動作を実行させる
    請求項5記載のロボット装置。
  9. 上記グラフ上における動作に重みが付されており、
    上記制御手段は、上記重みを参照して経路を探索する
    請求項1記載のロボット装置。
  10. 上記制御手段は、上記重みの和が最小値となる経路を探索する請求項9記載のロボット装置。
  11. 上記制御手段は、物理的形状及び機構に応じて経路を探索する
    請求項1記載のロボット装置。
  12. 全体が複数の構成部分からなり、
    上記グラフ記憶手段は、上記全体及び上記構成部分それぞれに対応させて複数のグラフを記憶し、
    上記制御手段は、それぞれのグラフ上において上記全体及び構成部分についての上記経路を探索して、それぞれの探索結果に基づいて、上記全体及び構成部分を動作させる
    請求項1記載のロボット装置。
  13. 上記複数のグラフには上記全体及び構成部分が共有する基本姿勢が登録されており、
    上記制御手段は、上記現在の姿勢と上記目標とされる姿勢又は上記目標とされる動作とが上記全体と上記各構成部分とでまたいでいるときには、上記現在の姿勢から上記目標とされる姿勢又は上記目標とされる動作までの経路を、上記基本姿勢を介して上記グラフ間において探索する
    請求項12記載のロボット装置。
  14. 上記行動指令情報には異なる構成部分と動作を同期させるための同期情報が付加されており、
    上記制御手段は、上記同期情報に基づいて、異なる構成部分を同期させて実行させる
    請求項12記載のロボット装置。
  15. 上記制御手段は、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる動作を、表現を付加して実行させる
    請求項1記載のロボット装置。
  16. 上記グラフ上には、同一の動作が複数登録されており、
    上記制御手段は、上記行動指令情報により上記複数ある動作が指令されたときには、少なくとも現在の姿勢を参照して、目標とされる上記複数ある動作のうちの一の動作までの経路を探索する
    請求項1記載のロボット装置。
  17. 上記制御手段は、目標とされる上記複数ある動作のうち最短で実行可能な一の動作までの経路を探索する
    請求項16記載のロボット装置。
  18. 上記グラフには、中立の姿勢が登録されており、
    上記制御手段は、現実の姿勢が不明のときには一旦、上記中立の姿勢にしてから上記目標とされる姿勢又は目標とされる動作に遷移させる
    請求項1記載のロボット装置。
  19. 上記制御手段は、通常の遷移のための通常の動作速度よりも遅い動作により上記中立の姿勢にする
    請求項18記載のロボット装置。
  20. 行動指令情報に基づいて動作させて、複数の姿勢の間を制御する動作制御方法であって、
    現在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、上記行動指令情報に基づいて、上記姿勢及び上記動作が登録されて構成され、上記姿勢と上記姿勢を遷移させる動作とを結んで構成されたグラフ上において探索し、
    探索結果に基づいて動作させて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作に遷移させる
    動作制御方法。
  21. 上記行動指令情報が行動指令情報記憶手段に一時的に記憶されるものであって、
    上記行動指令情報記憶手段から順次送られてくる上記行動指令情報に基づいて、上記現在の姿勢から上記目標とされる姿勢又は目標とされる動作までの経路を、上記グラフ上において探索する
    請求項20記載の動作制御方法。
  22. 上記グラフ上における動作に重みが付されており、
    上記重みを参照して経路を探索する
    請求項20記載の動作制御方法。
  23. 複数の姿勢に遷移可能なロボット装置の動作を制御する
    請求項20記載の動作制御方法。
  24. 上記ロボット装置が、全体が複数の構成部分からなるロボット装置であって、
    上記全体及び上記構成部分それぞれに対応される複数のグラフ上において、上記全体及び構成部分についての上記経路を探索して、それぞれの探索結果に基づいて、上記全体及び構成部分を動作させる
    請求項23記載の動作制御方法。
JP2010061642A 1999-01-20 2010-03-17 ロボット装置及び動作制御方法 Expired - Fee Related JP4985805B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010061642A JP4985805B2 (ja) 1999-01-20 2010-03-17 ロボット装置及び動作制御方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP1229299 1999-01-20
JP1999012292 1999-01-20
JP1999341374 1999-11-30
JP34137499 1999-11-30
JP2010061642A JP4985805B2 (ja) 1999-01-20 2010-03-17 ロボット装置及び動作制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000594613A Division JP4696361B2 (ja) 1999-01-20 2000-01-20 ロボット装置及び動作制御方法

Publications (2)

Publication Number Publication Date
JP2010149277A true JP2010149277A (ja) 2010-07-08
JP4985805B2 JP4985805B2 (ja) 2012-07-25

Family

ID=26347871

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2000594613A Expired - Fee Related JP4696361B2 (ja) 1999-01-20 2000-01-20 ロボット装置及び動作制御方法
JP2010061642A Expired - Fee Related JP4985805B2 (ja) 1999-01-20 2010-03-17 ロボット装置及び動作制御方法
JP2010061641A Pending JP2010149276A (ja) 1999-01-20 2010-03-17 ロボット装置及び動作制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2000594613A Expired - Fee Related JP4696361B2 (ja) 1999-01-20 2000-01-20 ロボット装置及び動作制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2010061641A Pending JP2010149276A (ja) 1999-01-20 2010-03-17 ロボット装置及び動作制御方法

Country Status (6)

Country Link
US (4) US6337552B1 (ja)
EP (1) EP1088629A4 (ja)
JP (3) JP4696361B2 (ja)
KR (1) KR100721694B1 (ja)
CN (1) CN1246126C (ja)
WO (1) WO2000043167A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014504959A (ja) * 2011-01-26 2014-02-27 本田技研工業株式会社 人間型ロボットのジェスチャと音声の同期
WO2017199566A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 情報処理装置、ロボット、および制御プログラム
JP2018175627A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
JP2021516630A (ja) * 2018-03-21 2021-07-08 北京猟戸星空科技有限公司Beijing Orion Star Technology Co.,Ltd. ロボット動作シーケンスの生成方法及び装置

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US20020156872A1 (en) 2001-01-04 2002-10-24 Brown David W. Systems and methods for transmitting motion control data
EP1092458A1 (en) * 1999-04-30 2001-04-18 Sony Corporation Electronic pet system, network system, robot, and storage medium
KR20010071833A (ko) 1999-05-10 2001-07-31 이데이 노부유끼 로봇 장치 및 그 제어 방법 및 기록 매체
GB2350696A (en) * 1999-05-28 2000-12-06 Notetry Ltd Visual status indicator for a robotic machine, eg a vacuum cleaner
US6663393B1 (en) * 1999-07-10 2003-12-16 Nabil N. Ghaly Interactive play device and method
US7442107B1 (en) * 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
US6697708B2 (en) * 2000-10-11 2004-02-24 Sony Corporation Robot apparatus and robot apparatus motion control method
JP3645848B2 (ja) * 2000-11-17 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 情報処理プログラム、情報処理プログラムが記録された記録媒体、情報処理装置及び方法
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
DE60029976T2 (de) * 2000-12-12 2007-04-05 Sony France S.A. Selbsttätiges System mit heterogenen Körpern
JP2002304188A (ja) * 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
WO2002081156A2 (en) * 2001-04-06 2002-10-17 Vanderbilt University Architecture for robot intelligence
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US20030045947A1 (en) * 2001-08-30 2003-03-06 The Boeing Company System, method and computer program product for controlling the operation of motion devices by directly implementing electronic simulation information
JP3837479B2 (ja) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
GB2380847A (en) * 2001-10-10 2003-04-16 Ncr Int Inc Self-service terminal having a personality controller
JP2003133200A (ja) * 2001-10-19 2003-05-09 Canon Inc シミュレーション装置及びシミュレーション方法
US7257630B2 (en) * 2002-01-15 2007-08-14 Mcafee, Inc. System and method for network vulnerability detection and reporting
US7543056B2 (en) * 2002-01-15 2009-06-02 Mcafee, Inc. System and method for network vulnerability detection and reporting
CN100509308C (zh) * 2002-03-15 2009-07-08 索尼公司 用于机器人的行为控制系统和行为控制方法及机器人装置
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US7118443B2 (en) * 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
GB2393803A (en) * 2002-10-01 2004-04-07 Hewlett Packard Co Two mode creature simulaton
US7401057B2 (en) 2002-12-10 2008-07-15 Asset Trust, Inc. Entity centric computer system
US7238079B2 (en) * 2003-01-14 2007-07-03 Disney Enterprise, Inc. Animatronic supported walking system
US7248170B2 (en) * 2003-01-22 2007-07-24 Deome Dennis E Interactive personal security system
DE10302800A1 (de) * 2003-01-24 2004-08-12 Epcos Ag Verfahren zur Herstellung eines Bauelements
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
US7624422B2 (en) * 2003-02-14 2009-11-24 Preventsys, Inc. System and method for security information normalization
US8027349B2 (en) * 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
EP1530138A1 (en) * 2003-11-10 2005-05-11 Robert Bosch Gmbh Generic measurement and calibration interface for development of control software
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
US20050234592A1 (en) * 2004-01-15 2005-10-20 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
EP1727605B1 (en) * 2004-03-12 2007-09-26 Koninklijke Philips Electronics N.V. Electronic device and method of enabling to animate an object
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
US8713025B2 (en) 2005-03-31 2014-04-29 Square Halt Solutions, Limited Liability Company Complete context search system
US20070016029A1 (en) * 2005-07-15 2007-01-18 General Electric Company Physiology workstation with real-time fluoroscopy and ultrasound imaging
JP4237737B2 (ja) * 2005-08-04 2009-03-11 株式会社日本自動車部品総合研究所 車両搭載機器の自動制御装置、およびその装置を搭載した車両
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
DE112006002892B4 (de) 2005-10-21 2022-01-27 Deere & Company Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
KR100745720B1 (ko) * 2005-11-30 2007-08-03 한국전자통신연구원 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
KR100746300B1 (ko) * 2005-12-28 2007-08-03 엘지전자 주식회사 로봇의 이동방향 결정 방법
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP4316630B2 (ja) 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
CN101127152B (zh) * 2007-09-30 2012-02-01 山东科技大学 用于机器人动物控制的编码信号发生器与无线遥控装置
CN101406756A (zh) * 2007-10-12 2009-04-15 鹏智科技(深圳)有限公司 表达情感的电子玩具及其情感表达方法、发光单元控制装置
KR100893758B1 (ko) * 2007-10-16 2009-04-20 한국전자통신연구원 로봇의 감성 표현 제어 시스템 및 방법
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8452448B2 (en) * 2008-04-02 2013-05-28 Irobot Corporation Robotics systems
KR101631496B1 (ko) * 2008-06-03 2016-06-17 삼성전자주식회사 로봇 장치 및 그 단축 명령 등록 방법
CN101596368A (zh) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 互动式玩具系统及其方法
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653662A (zh) * 2008-08-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 机器人
CN101653660A (zh) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 讲故事自动做动作的类生物装置及其方法
CN101727074B (zh) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 具有生物时钟的类生物装置及其行为控制方法
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US8539359B2 (en) 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP4947073B2 (ja) * 2009-03-11 2012-06-06 トヨタ自動車株式会社 ロボット装置及びその制御方法
BRPI1006383A2 (pt) * 2009-04-17 2019-09-24 Koninl Philips Electronics Nv sistema de telecomunicação ambiente e método para operar um sistema de telecomunicação ambiente
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
JP5447811B2 (ja) * 2009-09-10 2014-03-19 国立大学法人 奈良先端科学技術大学院大学 経路計画生成装置および該方法ならびにロボット制御装置およびロボットシステム
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120042263A1 (en) 2010-08-10 2012-02-16 Seymour Rapaport Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
WO2012097834A2 (en) * 2011-01-21 2012-07-26 Abb Ag System for commanding a robot
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US20130343640A1 (en) 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP6162736B2 (ja) * 2015-03-19 2017-07-12 ファナック株式会社 機械と可搬式無線操作盤との間の距離に応じて通信品質基準を変化させる機能を備えたロボット制御システム
JP6467710B2 (ja) * 2015-04-06 2019-02-13 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
US10500716B2 (en) * 2015-04-08 2019-12-10 Beijing Evolver Robotics Co., Ltd. Multi-functional home service robot
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
CN105573490A (zh) * 2015-11-12 2016-05-11 于明 一种人机交互系统、穿佩设备和方法
WO2017118001A1 (zh) * 2016-01-04 2017-07-13 杭州亚美利嘉科技有限公司 用于机器人场地回流的方法和装置
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
CN107346107A (zh) * 2016-05-04 2017-11-14 深圳光启合众科技有限公司 多样化运动控制方法和系统及具有该系统的机器人
WO2018008323A1 (ja) * 2016-07-08 2018-01-11 Groove X株式会社 服を着る自律行動型ロボット
JP6571618B2 (ja) * 2016-09-08 2019-09-04 ファナック株式会社 人間協調型ロボット
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
CN108229640B (zh) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 情绪表达的方法、装置和机器人
JP6729424B2 (ja) 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
US10250532B2 (en) * 2017-04-28 2019-04-02 Microsoft Technology Licensing, Llc Systems and methods for a personality consistent chat bot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US20190111565A1 (en) * 2017-10-17 2019-04-18 True Systems, LLC Robot trainer
CN111565897A (zh) * 2018-01-10 2020-08-21 索尼公司 动物形状的自主移动对象、使动物形状的自主移动对象执行动作的方法以及程序
JP7139643B2 (ja) * 2018-03-23 2022-09-21 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN108382488A (zh) * 2018-04-27 2018-08-10 梧州学院 一种机器猫
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
JP7247560B2 (ja) * 2018-12-04 2023-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
JP7437910B2 (ja) * 2019-10-29 2024-02-26 株式会社東芝 制御システム、制御方法、ロボットシステム、プログラム、及び記憶媒体
CN111846004A (zh) * 2020-07-21 2020-10-30 李荣仲 一种设有重心调节机制的四足机器犬
US11670156B2 (en) 2020-10-30 2023-06-06 Honda Research Institute Europe Gmbh Interactive reminder companion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114514A (ja) * 1995-10-17 1997-05-02 Sony Corp ロボット制御方法およびその装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US3888023A (en) * 1974-08-21 1975-06-10 Jardine Ind Inc Physical training robot
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
US5182557A (en) * 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
JPH0573143A (ja) * 1991-05-27 1993-03-26 Shinko Electric Co Ltd 移動ロボツトシステム
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JP3018865B2 (ja) * 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JPH0876810A (ja) 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
JPH0934698A (ja) 1995-07-20 1997-02-07 Hitachi Ltd ソフトウェア生成方法及び開発支援方法
AU7662396A (en) * 1995-10-13 1997-04-30 Na Software, Inc. Creature animation and simulation technique
JP4153989B2 (ja) 1996-07-11 2008-09-24 株式会社日立製作所 文書検索配送方法および装置
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
DE69840655D1 (de) * 1997-01-31 2009-04-23 Honda Motor Co Ltd Steuerungssystem eines beweglichen Roboters mit Beinen
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3273550B2 (ja) 1997-05-29 2002-04-08 オムロン株式会社 自動応答玩具
JP3655054B2 (ja) * 1997-06-13 2005-06-02 ヤンマー農機株式会社 田植機の苗載台構成
JPH11126017A (ja) 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
EP1034899B1 (en) * 1998-06-09 2011-03-30 Sony Corporation Robot and method of its attitude control
IT1304014B1 (it) 1998-06-29 2001-03-02 Reale S R L Stampi per la fabbricazione di bicchieri di ghiaccio e supporti persostenere tali bicchieri durante l'impiego.
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114514A (ja) * 1995-10-17 1997-05-02 Sony Corp ロボット制御方法およびその装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014504959A (ja) * 2011-01-26 2014-02-27 本田技研工業株式会社 人間型ロボットのジェスチャと音声の同期
US9431027B2 (en) 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
WO2017199566A1 (ja) * 2016-05-20 2017-11-23 シャープ株式会社 情報処理装置、ロボット、および制御プログラム
JPWO2017199566A1 (ja) * 2016-05-20 2019-03-07 シャープ株式会社 情報処理装置、ロボット、および制御プログラム
JP2018175627A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP2021516630A (ja) * 2018-03-21 2021-07-08 北京猟戸星空科技有限公司Beijing Orion Star Technology Co.,Ltd. ロボット動作シーケンスの生成方法及び装置
JP7316294B2 (ja) 2018-03-21 2023-07-27 北京猟戸星空科技有限公司 ロボット動作シーケンスの生成方法及び装置、並びに、コンピュータ機器及び記憶媒体
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
JP7298860B2 (ja) 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット

Also Published As

Publication number Publication date
EP1088629A1 (en) 2001-04-04
US6667593B2 (en) 2003-12-23
CN1246126C (zh) 2006-03-22
JP4985805B2 (ja) 2012-07-25
US6442450B1 (en) 2002-08-27
US6337552B1 (en) 2002-01-08
JP2010149276A (ja) 2010-07-08
KR20010092244A (ko) 2001-10-24
US20020050802A1 (en) 2002-05-02
JP4696361B2 (ja) 2011-06-08
WO2000043167A1 (fr) 2000-07-27
US20030023348A1 (en) 2003-01-30
KR100721694B1 (ko) 2007-05-28
CN1297393A (zh) 2001-05-30
EP1088629A4 (en) 2009-03-18

Similar Documents

Publication Publication Date Title
JP4985805B2 (ja) ロボット装置及び動作制御方法
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR20010053481A (ko) 로봇 장치 및 그 제어 방법
US6362589B1 (en) Robot apparatus
US7063591B2 (en) Edit device, edit method, and recorded medium
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
KR20010052699A (ko) 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
JP2004283959A (ja) ロボット装置、その動作制御方法、及びプログラム
JP2001212782A (ja) ロボット装置及びロボット装置の制御方法
JP2004298975A (ja) ロボット装置、障害物探索方法
JP4556425B2 (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2001191279A (ja) 行動管理システム、行動管理方法及びロボット装置
JP2001157982A (ja) ロボット装置及びその制御方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001154707A (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2003266352A (ja) ロボット装置及びロボット装置の制御方法
JP2001157984A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP4556092B2 (ja) ロボット装置及びロボット装置の制御方法
JP2004338056A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees