JP2005342873A - ロボット装置及びその動作制御方法 - Google Patents

ロボット装置及びその動作制御方法 Download PDF

Info

Publication number
JP2005342873A
JP2005342873A JP2004168785A JP2004168785A JP2005342873A JP 2005342873 A JP2005342873 A JP 2005342873A JP 2004168785 A JP2004168785 A JP 2004168785A JP 2004168785 A JP2004168785 A JP 2004168785A JP 2005342873 A JP2005342873 A JP 2005342873A
Authority
JP
Japan
Prior art keywords
motion
robot apparatus
modulation
user
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004168785A
Other languages
English (en)
Other versions
JP4179230B2 (ja
Inventor
Fumihide Tanaka
文英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004168785A priority Critical patent/JP4179230B2/ja
Priority to US11/146,019 priority patent/US7689322B2/en
Publication of JP2005342873A publication Critical patent/JP2005342873A/ja
Application granted granted Critical
Publication of JP4179230B2 publication Critical patent/JP4179230B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input

Abstract

【課題】 ユーザ等の他の動作主体の動作に対して柔軟に対応してその動作と同調した動作を行い、さらにその同調関係を変化させる。
【解決手段】 ロボット装置は、カメラ画像入力器を介して入力されたユーザの画像に応じて、ユーザの動作と同調したそれぞれ異なる動作を生成するモジュールI〜IIIを有する。身体制御器51は、このモジュールI〜IIIからの出力値のうち何れか一以上の出力値を統合し、アクチュエータ52を駆動する。音声認識器54は、ユーザの言葉からユーザの情動状態を検出し、モジュール制御器50は、この情動状態に応じて各モジュールの変調器21,36,44を制御して各モジュールからの出力を変調させ、或いは身体制御器51において統合する出力値を制御する。
【選択図】 図4


Description

本発明は、自律的に動作可能なロボット装置及びその動作制御方法に関し、特にユーザ等の他の動作主体の動作と同調した動作を行うロボット装置及びその動作制御方法に関する。
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。
ところで、このようなエンターテインメントロボットにおける最重要課題の1つとして、ユーザを飽きさせない仕組みの追及が挙げられる。しかしながら、人間が飽きる現象の仕組みが未だ解明されていない現状では完全に飽きさせない仕組みを用意することが困難であるため、ユーザが興味を持てるような仕組みを予め数多く作り込んでおく方法がとられる。
ここで、そのような仕組みの例として、ユーザの音声や動作と同調した動作をロボット装置に行わせることが提案されている(例えば特許文献1、非特許文献1を参照)。
特開2001−246174号公報 Masato Ito, Jun Tani,"On-line Imitative Interaction with a Humanoid Robot Using a Mirror Neuron Model", IEEE International Conference on Robotics and Automation (2004, in press)
上記特許文献1に記載の技術では、音声に応じた頷き動作、瞬き動作、或いは身振り動作といった引き込み(同調)現象を発生させる仕組みをロボット装置等の擬似聞き手に内蔵しておくことによって、ユーザを会話に引き込む現象を実現することができる。しかしながら、この特許文献1記載の技術で用いられている同調の仕組みは、柔軟な学習能力を有さないため、人間とロボット装置との間の様々なインタラクションに柔軟に対応することが難しいという問題があった。また、予め内蔵された仕組みに基づく同調関係を変化させることができないため、人間とのインタラクションに用いた場合には、次第に飽きられてしまう可能性があると考えられる。
一方、上記非特許文献1に記載の技術では、パラメトリックバイアス付きのリカレント型ニューラルネットワーク(RNN)を用いることで、同調の仕組みを学習することができる。すなわち、見まねを通じて得られた関節角時系列データを学習することで動作モデルを構築することができ、さらに学習後のRNNを用いることでロボット装置の動作をユーザの動作に同調させることができる。しかしながら、この非特許文献1記載の技術では、基本的な同調関係しか構築することができず、複雑な同調関係を扱うのは難しいという問題があった。また、RNNを用いた同調関係を変化させることができないため、人間とのインタラクションに用いた場合には、次第に飽きられてしまう可能性があると考えられる。
本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザ等の他の動作主体の動作に対して柔軟に対応してその動作と同調した動作を行い、さらにその同調関係を変化させることが可能なロボット装置及びその動作制御方法を提供することを目的とする。
上述した目的を達成するために、本発明に係るロボット装置は、自律的に動作可能なロボット装置であって、他の動作主体の動作を画像又は音声として入力する入力手段と、上記入力手段を介して入力された画像又は音声に応じて、上記他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成手段と、上記複数の動作生成手段によって生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現手段と、上記動作発現手段において統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御手段とを備えることを特徴とする。
ここで、本発明に係るロボット装置は、上記複数の動作生成手段が生成する各動作を変調する複数の変調手段をさらに備えるようにしてもよく、この場合、上記制御手段は、上記複数の変調手段による変調処理をも制御する。
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、自律的に動作可能なロボット装置の動作制御方法であって、他の動作主体の動作を画像又は音声として入力する入力工程と、上記入力工程にて入力された画像又は音声に応じて、上記他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成工程と、上記複数の動作生成工程にて生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現工程と、上記動作発現工程にて統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御工程とを有することを特徴とする。
本発明に係るロボット装置及びその動作制御方法によれば、ユーザ等の他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成手段を有し、生成された複数の動作のいずれか一以上の動作を統合して発現させるようにしているため、他の動作主体の動作と同調した動作を行う際に、複雑な同調関係を扱うことが可能とされる。また、複数の動作生成手段が生成する各動作を変調するのに加えて、さらに動作発現手段において統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御することにより、ユーザ等の他の動作主体をより飽きさせない動作を実現することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、本能や感情といった情動をモデル化した情動モデルを有する2足歩行タイプのロボット装置に適用したものである。このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットでもある。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置の動作制御方法について詳細に説明する。
(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定すると共に、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出すると共に、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
(2)ロボット装置の動作制御方法
次に、上述したロボット装置1の動作制御方法について説明する。
前述したように、上述したロボット装置1のようなエンターテインメントロボットにおいては、ユーザを飽きさせない仕組みの追及が重要となる。本件発明者らは、ユーザを飽きさせない仕組みとして、
(i)ユーザの動作とロボット装置の動作とが同調し合う(引き込み合う)こと
(ii)その同調関係を適当な方法に従って崩す(変調する)こと
を繰り返すことが有効であると考え、この枠組の下で、ロボット装置1の動作制御方法を実現する。以下、ユーザとロボット装置1との間のインタラクションの一例として、互いに面してダンスをする場面を想定する。
上記(i)では、ユーザの動作とロボット装置1の動作との間で同調関係を構築することを目指すが、先ずはその同調関係をリズムレベルで構築することを考える。この場合、1つの方法として、ロボット装置1は、ユーザの動作のリズムを後述のように時系列波形情報(一次元時系列データ)として抽出し、その時系列波形情報を用いてリカレント型ニューラルネットワーク(RNN)をリアルタイムで学習する。そして、ロボット装置1は、学習後のRNNを用いて時系列波形情報を予測し、自らの身体をそのリズムで動かす。このとき、両者のリズムが同調していれば目指す同調関係を構築できたことになる。この方法では、RNNの学習能力を利用することにより、様々な同調(引き込み)関係に対応することができる。
次に上記(ii)では、上記(i)で構築された同調関係を適当な方法で変調する。しかしながら、この変調方法が単純であるとユーザに簡単に見破られ、次第に飽きられてしまう可能性がある。このため、変調方法にはある程度の複雑性を入れられる必要があるが、上述したリズムレベルの同調関係のみでは、このような複雑な変調方法を実現することは困難である。
そこで、本実施の形態では、上述したリズムレベルの同調関係を含めた複数の同調関係を定義し、その複数の同調関係を変調するものとする。以下では一例として3つの同調関係層(モジュール)を定義する。第1のモジュールは、上述した同調関係よりも単純な同調関係を扱う。具体的には、ユーザの何らかの動きを検出したら一定又はランダムに身体を動かすという、予め作り込んだルールによる同調関係を構築する。第2のモジュールは、上述したRNNによるリズムレベルでの同調関係を構築する。そして第3のモジュールは、時系列データとして身体部位の動き(例えば頭、手、足の中心点軌跡)を用い、ロボット装置1が自らの身体と対応が取れた状態でユーザの動作を真似るという、上述した同調関係よりも複雑な同調関係を構築する。
このような状況の下で上記(ii)で目指す変調方法を実現するには、大きく分けて、
(a)各モジュール内での変調
(b)モジュール間での変調
という2つのレベルを考えることができる。
上記(a)は、各モジュール内で独立してその入出力関係に通常の場合と異なる変調性を設計する方法である。設計の方法は様々であるが、本実施の形態では単純に出力データ(RNN出力値)に一定の割合でランダムノイズを与えることにする。
上記(b)は、モジュール間で変調性を与える方法である。例えば、上述の例で最も強い同調状態は、3つのモジュール全てが同調関係を構築している状態である。ここで、任意のモジュールの同調関係を解除、すなわちそのモジュールの機能がアクチュエータに影響を与えないようにすると、一段階弱い同調状態となり、系全体としてユーザからは変調したようにみえることになる。このように、モジュール間で同調状態を制御することにより、上記(a)とは異なるレベルで系の変調性を柔軟に与えることが可能となる。
なお、実際には、後述のようにユーザの反応に基づいて上記(ii)における変調度合いを制御することが望ましい。
以上のような動作制御方法を実現するためのロボット装置1の機能ブロック構成を図4に示す。図4に示すように、ロボット装置1はモジュールI〜IIIを有しており、これらはそれぞれ上述した第1〜第3のモジュールに対応する。また、モジュールI〜IIIの内部に存在する変調器21,36,44は、各モジュール内での変調を行うブロックであり、モジュール制御器50は、モジュール間での変調を制御するブロックである。
カメラ画像入力器10は、図3の画像入力装置251に相当し、単位時間毎のユーザの画像を動き検出器11、リズム抽出器12及び身体部位検出変換器13に供給する。
動き検出器11は、カメラ画像入力器10から供給された単位時間毎の画像の差分をとり、この差分画像を元に動き領域を抽出する。そして、動き検出器11は、動き領域が一定面積以上である場合にはユーザの動きを検出したとしてモジュールIの基本反応ルールベース20にオン信号を供給し、それ以外の場合はオフ信号を供給する。
リズム抽出器12は、動き検出器11と同様にして動き領域を抽出し、図5(A)に示すように、その動き領域を囲むブロック領域(Block Region;BR)と呼ばれる長方形を求める。そして、リズム抽出器12は、各時点におけるBR中心点の軌跡からユーザの動作のリズムを波形情報として抽出する。具体的には、図5(B)に示すように、各時点におけるBR中心点を画像中心を任意角度で通る軸L上に射影し、その軸Lと時間軸とよって定義される波形情報に変換する。リズム抽出器12は、一定時間毎の時系列波形情報をモジュールIIのデータバッファ30に供給する。
身体部位検出変換器13は、画像処理分野でよく用いられる基本的なテンプレートマッチングやカラーヒストグラム情報を用いて例えばユーザの頭と左右両手の位置を求め、この位置情報を逆キネマティクスを用いてロボット装置1自身の関節角制御情報に変換する(例えば上記非特許文献1を参照)。そして、身体部位検出変換器13は、一定時間毎の関節角制御情報をまとめてモジュールIIIのデータバッファ40に供給する。
ここでモジュールIは、上述したようにユーザの何らかの動きを検出したらランダムに身体を動かすという単純な同調関係を構築するモジュールであり、基本反応ルールベース20と変調器21とからなる。
基本反応ルールベース20には、動き検出器11からオン信号が供給された場合とオフ信号が供給された場合とにそれぞれ発現すべき動作が予めプログラマによって設計されている。この基本反応ルールベース20は、オン信号が供給された場合には例えば両腕を一定角速度・一定範囲内で前後に振る動作を発現するため、両腕のIDとその関節角度ベクトルとを示す出力値w_out1を身体制御器51に供給する。一方、基本反応ルールベース20は、オフ信号が供給された場合にはその供給を停止する。
変調器21は、モジュール制御器50からの制御信号に応じて、身体制御器51に供給される出力値をランダムに変調する。例えば上述のように両腕を一定角速度・一定範囲内で前後に振る動作を行う場合、変調器21は、この角速度や範囲値にランダムノイズを与える。なお、ランダムノイズとしては、人間にとって心地よいことが知られている1/fのゆらぎを持ったものを与えることもできる(文献「武者利光監修、『ゆらぎの科学1〜9』、森北出版」を参照)。
次にモジュールIIは、上述したようにRNNによるリズムレベルでの同調関係を構築するモジュールであり、データバッファ30と、RNN制御器31と、RNN32と、変換器33と、直結反応ルールベース34と、加算器35と、変調器36とからなる。
データバッファ30には、リズム抽出器12から供給された一定時間分の時系列波形情報が保持される。このデータバッファ30はキュー構造となっており、一定時間よりも古いデータは破棄される。
RNN制御器31は、データバッファ30に一定時間分の時系列波形情報が保持されるとRNN32に予測モード信号を送り、RNN32は、この時間区間の時系列波形情報を用いてその区間内の予測精度誤差を算出する。そして変換器33は、予測した時系列波形情報をロボット装置1自身の動作に変換する。この変換器33は、例えば両腕を時系列波形情報に応じた角速度・範囲内で前後に振る動作を発現するため、両腕のIDとその関節角度ベクトルとを示す出力値w_RNN2を加算器35に供給する。
予測精度誤差の値が閾値以上である場合、RNN制御器31は、RNN32に学習モード信号を送ってこの時系列波形情報を学習させる(例えば上記非特許文献1を参照)。直結反応ルールベース34は、RNN32が学習を行っている間、リズム抽出器12から供給された時系列波形情報をロボット装置1自身の動作に変換する。この直結反応ルールベース34は、例えば両腕を時系列波形情報に応じた角速度・範囲内で前後に振る動作を発現するため、両腕のIDとその関節角度ベクトルとを示す出力値w_Rule2を加算器35に供給する。なお、上述した出力値w_RNN2で動かす身体部位と出力値w_Rule2で動かす身体部位とは異なっていても構わない。そして加算器35は、出力値w_RNN2と出力値w_Rule2との線形和を下記式(1)
W_out2=α・w_RNN2+β・w_Rule2 ・・・(1)
に従って求め、得られた出力値W_out2を身体制御器51に供給する。なお、動作を自然に遷移させるため、加算器35は、RNN32の学習が進み予測精度誤差が小さくなるに従って、或いは時間経過に従って出力値w_Rule2の成分が減少し、出力値w_RNN2の成分が増加するように、パラメータα,βを変化させるようにしても構わない。
一方、予測精度誤差の値が閾値以下である場合、加算器35は、出力値w_Rule2を用いずに出力値w_RNN2を上述した出力値W_out2として身体制御器51に供給する。これにより、ロボット装置1は自身の内部構造を元にアクティブに動作を出力していることになり、模倣操作が安定化される。なお、加算器35は、予測精度誤差の値が閾値以下である場合であっても上述した式(1)に従って出力値W_out2を求めるようにしても構わない。この場合にも、加算器35は、時間経過に従って出力値w_Rule2の成分が減少し、出力値w_RNN2の成分が増加するように、パラメータα,βを変化させることができる。
変調器36は、モジュール制御器50からの制御信号に応じて、身体制御器51に供給される出力値をランダムに変調する。この変調器36は、例えば上述した加算器35におけるパラメータα,βにランダムノイズを与え、或いは出力値w_RNN2,w_Rule2にランダムノイズを与える。
続いてモジュールIIIは、上述したように身体部位の対応を取ってユーザの動作を真似るという複雑な同調関係を構築するモジュールであり、データバッファ40と、RNN制御器41と、RNN42と、加算器43と、変調器44とからなる。
データバッファ40には、身体部位検出変換器13から供給された一定時間分の関節角制御情報が保持される。このデータバッファ40はキュー構造となっており、一定時間よりも古いデータは破棄される。
RNN制御器41は、データバッファ40に一定時間分の関節角制御情報が保持されるとRNN42に予測モード信号を送り、RNN42は、この時間区間の関節角制御情報を用いてその区間の予測精度誤差を算出する。
予測精度誤差の値が閾値以上である場合、RNN制御器41は、RNN42に学習モード信号を送ってこの関節角制御情報を学習させる(例えば上記非特許文献1を参照)。そして加算器43は、出力値w_RNN3と身体部位検出変換器13から供給された出力値w_Rule3との線形和を下記式(2)
W_out3=α・w_RNN3+β・w_Rule3 ・・・(2)
に従って求め、得られた出力値W_out3を身体制御器51に供給する。なお、動作を自然に遷移させるため、加算器43は、RNN42の学習が進み予測精度誤差が小さくなるに従って、或いは時間経過に従って出力値w_Rule3の成分が減少し、出力値w_RNN3の成分が増加するように、パラメータα,βを変化させるようにしても構わない。
一方、予測精度誤差の値が閾値以下である場合、加算器43は、出力値w_Rule3を用いずに出力値w_RNN3を上述した出力値W_out3として身体制御器51に供給する。これにより、ロボット装置1は自身の内部構造を元にアクティブに動作を出力していることになり、模倣操作が安定化される。なお、加算器43は、予測精度誤差の値が閾値以下である場合であっても上述した式(2)に従って出力値W_out3を求めるようにしても構わない。この場合にも、加算器43は、時間経過に従って出力値w_Rule3の成分が減少し、出力値w_RNN3の成分が増加するように、パラメータα,βを変化させることができる。
変調器44は、モジュール制御器50からの制御信号に応じて、身体制御器51に供給される出力値をランダムに変調する。この変調器44は、例えば上述した加算器43におけるパラメータα,βをランダムノイズで変化させ、或いは出力値w_RNN3,w_Rule3をランダムノイズで変化させる。
身体制御器51は、以上のようにして各モジュールI〜IIIから供給された出力値W_out1,W_out2,W_out3を統合し、アクチュエータ52を駆動する命令に変換する。なお、出力値W_out1,W_out2,W_out3を統合する際には、単純に3つの出力値を重ね合わせるようにしてもよく、上述と同様に3つの出力値の線形和を計算するようにしてもよい。
以上のように、本実施の形態におけるロボット装置1は、それぞれ異なる同調関係を構築するモジュールI〜IIIを有し、それぞれの出力を統合してアクチュエータ52を駆動するようにしているため、ユーザの動作と同調した動作を行う際に、複雑な同調関係を扱うことが可能とされる。
また、モジュールII,IIIでは、RNN32,42での学習を経た出力値w_RNN2,w_RNN3とRNN32,42での学習を経ていない出力値w_Rule2,w_Rule3との線形和を取るようにしているため、発現する動作を柔軟に遷移させることが可能となる。すなわち、例えばRNN32,42の学習初期には出力値w_Rule2,w_Rule3の成分の割合を増加させ出力値w_RNN2,w_RNN3の成分の割合を減少させることで、動作を途切れさせることなく比較的安定した動作表出が可能となり、学習が進むに従って出力値w_RNN2,w_RNN3の成分の割合を増加させ出力値w_Rule2,w_Rule3の成分の割合を減少させることで、次第に動作を安定させることが可能となる。但し、変調に際しては、このような増減法にとらわれず、自由にパラメータを変更することも可能である。
なお、上述した実施の形態では、同調関係を構築するモジュール数が3つであるものとして説明したが、これに限定されるものではなく、任意の数に設定することが可能である。また、入出力データの同調(引き込み)関係を記述するものとして、ルールベースとRNNとの2つを用いているが、公知の様々な技術、例えば振動子モデルや通常のニューラルネットワークなどを用いることも可能である。
ここで、本実施の形態におけるロボット装置1では、上述したように3つのモジュールI〜IIIを用いることで複雑な同調関係を構築することができ、また、モジュール毎に同調関係を変調することができるが、このようなモジュール内で完結した単純な変調方法では、ユーザに簡単に見破られ、次第に飽きられてしまう可能性がある。
そこで、本実施の形態では、モジュール毎に同調関係を変調するのみならず、モジュール制御器50により、モジュール間でも同調関係を変調する。特に、本実施の形態におけるモジュール制御器50は、ユーザの反応、例えば「苛立ち(IRRITATED)」、「中立(NEUTRAL)」、「退屈(BORED)」、「快適(COMFORTABLE)」といったユーザの情動状態に基づいて、モジュール間での変調度合いを制御する。
なお、ユーザの情動状態を検出する方法としては、顔の表情を用いたり音声のピッチ、パワーの情報を用いたりする方法が提案されているが(文献「J. R. Movellan and M. S. Bartlett, “The Next Generation of Automatic Facial Expression Measurement”, In: P. Ekman (eds.)“What the Face Reveals”, Oxford University Press, 2003」を参照)、以下では簡単のため、ユーザに気持ちを表現する単語を適宜話してもらい、それをマイク音声入力器53で入力し、音声認識器54で認識して上述した4つの情動状態に分類することにする。実際には、「苛立ち(IRRITATED)」、「退屈(BORED)」、「快適(COMFORTABLE)」に合致する単語を辞書として用意しておき、これに合致しないものを「中立(NEUTRAL)」と判断する。
例えば、ユーザの情動状態が「苛立ち(IRRITATED)」であった場合、モジュール制御器50は、ユーザとの同調関係がまだ不十分であると判断し、同調出力に用いられるモジュールの数を増やすことで同調関係を強化する。例えば、ユーザの情動状態が「中立(NEUTRAL)」であるときのモジュール数を2としたとき、「苛立ち(IRRITATED)」と検出された場合にはモジュール数を3にした同調関係を構築するようにする。また、モジュール制御器50は、各モジュールの学習速度を向上させるため、RNNの学習アルゴリズムに定義されている学習パラメータを一定値増加させるように各モジュールに制御信号を送ることも可能である。なお、学習パラメータがないモジュールIについてはそのままにしておく。
また、ユーザの情動状態が「中立(NEUTRAL)」であった場合、モジュール制御器50は、現在の同調関係がユーザにとってまずまずの状態であると判断し、これを大きく変調するのではなく、ゆらぎ変調を与えるように一定時間毎に変調器21,36,44に制御信号を送る。ゆらぎ変調は、ユーザがはっきりと分からない程度の変調であるが、ゆらぎ性は人間をリラックスさせることが知られているため、定常状態の1つとして導入する。
また、ユーザの情動状態が「退屈(BORED)」であった場合、モジュール制御器50は、ユーザが現在の同調関係に飽きていると判断し、ユーザの退屈度合いに応じて同調関係を変調する。具体的には、「退屈(BORED)」が一定回数以上連続して検出された場合には大域変調を行い、それ以外の場合には小域変調を行う。大域変調の場合、モジュール制御器50は、各モジュールの変調器21,36,44にランダム変調の指令を送るのに加えて、モジュール構成も変化させる。この変化の方法としては、全くランダムに変える方法、現在作動中のモジュール群からランダムに1つを選んでそれを同調関係から外したり、現在作動していないモジュール群からランダムに1つを選んでそれを同調関係に加えたりする方法、或いはモジュール関係に階層性が定義できる場合に、階層が高い1つのモジュールを現在の同調関係から外したり現在の同調関係に加えたりする方法が考えられる。例えば、モジュールI,II,IIIの順で動作が規制されるという階層性が定義でき、現在作動中のモジュールがIとIIの2つであった場合には、モジュールIIを外したりモジュールIIIを加えたりすることができる。なお、身体制御器51において各モジュールI〜IIIから供給された出力値の線形和を計算する場合、上述したようにモジュール数を増減させるのではなく、線形和に用いるパラメータを変更することで各出力値の割合を変化させることが可能である。一方、小域変調の場合、モジュール制御器50は、モジュール構成を変化させず、各モジュールの変調器21,36,44にランダム変調の指令を送る。
また、ユーザの情動状態が「快適(COMFORTABLE)」であった場合、モジュール制御器50は、現在の同調関係がユーザにとって好ましいものと判断し、同調関係を変調せず、そのまま動作を続けさせる。
以上のように、本実施の形態におけるロボット装置1は、ユーザの反応、例えば「苛立ち(IRRITATED)」、「中立(NEUTRAL)」、「退屈(BORED)」、「快適(COMFORTABLE)」といったユーザの情動状態に基づいて、モジュール内のみならずモジュール間でも同調関係を変調するため、ユーザをより飽きさせない動作を実現することができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述した実施の形態では、カメラ画像入力器10を介して入力された画像に応じて、モジュールI〜IIIにおいてユーザの動作と同調したそれぞれ異なる動作を生成するものとして説明したが、画像に限らず、音声に応じてユーザの動作と同調したそれぞれ異なる動作を生成するようにしてもよく、それらを組み合わせるようにしてもよい。例えば、音声に応じてユーザの動作と同調した動作を生成する場合には、ユーザの拍手の音や足踏み等の音からユーザの動作のリズム等を抽出し、そのリズムに応じた動作を生成することができる。
また、上述した実施の形態では、ロボット装置1とユーザ(人間)との間でインタラクションを図るものとして説明したが、ロボット装置1のインタラクション対象がユーザに限定されるものではなく、同様の機能を有するロボット装置等の他の動作主体をインタラクション対象としても構わない。
本実施の形態におけるロボット装置の外観を示す斜視図である。 同ロボット装置の機能構成を模式的に示すブロック図である。 同ロボット装置の制御ユニットの構成を詳細に示すブロック図である。 本実施の形態における動作制御方法を実現するためのロボット装置の機能ブロック構成を示す図である。 同図(A)は、ロボット装置が画像から抽出する動き領域及びその動き領域を囲むブロック領域を示す図であり、同図(B)は、リズム情報を計算するためにブロック領域中心点を画像中心を任意角度で通る軸上に射影する様子を示す図である。
符号の説明
1 ロボット装置、10 カメラ画像入力器、11 動き検出器、12 リズム抽出器、13 身体部位検出変換器、20 基本反応ルールベース、21 変調器、30 データバッファ、31 RNN制御器、32 RNN、33 変換器、34 直結反応ルールベース、35 加算器、36 変調器、40 データバッファ、41 RNN制御器、42 RNN、43 加算器、44 変調器、50 モジュール制御器、51 身体制御器、52 アクチュエータ、53 マイク音声入力器、54 音声認識器

Claims (12)

  1. 自律的に動作可能なロボット装置であって、
    他の動作主体の動作を画像又は音声として入力する入力手段と、
    上記入力手段を介して入力された画像又は音声に応じて、上記他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成手段と、
    上記複数の動作生成手段によって生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現手段と、
    上記動作発現手段において統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御手段と
    を備えることを特徴とするロボット装置。
  2. 上記複数の動作生成手段が生成する各動作を変調する複数の変調手段をさらに備え、
    上記制御手段は、上記複数の変調手段による変調処理を制御する
    ことを特徴とする請求項1記載のロボット装置。
  3. 上記動作生成手段は、
    上記入力された画像又は音声に応じた動作を生成する第1の動作生成部と、
    上記入力された画像又は音声に応じて学習を行い、学習結果に基づいて動作を生成する第2の動作生成部と、
    上記第1の動作生成部で生成された動作と上記第2の動作生成部で生成された動作とを線形加算する動作加算部と
    を有することを特徴とする請求項1記載のロボット装置。
  4. 上記動作加算部は、上記第2の動作生成部における学習度合いに従って、又は時間経過に従って、上記第1の動作生成部で生成された動作と上記第2の動作生成部で生成された動作との割合を変化させることを特徴とする請求項3記載のロボット装置。
  5. 上記他の動作主体の状態を検出する状態検出手段をさらに備え、
    上記制御手段は、上記他の動作主体の状態に応じて、上記動作発現手段において統合する動作の数若しくは複数の動作を統合する際の各動作の割合、及び/又は上記複数の変調手段による変調処理を制御する
    ことを特徴とする請求項2記載のロボット装置。
  6. 上記他の動作主体は、該ロボット装置のユーザであり、
    上記状態検出手段は、該ユーザの情動状態を検出する
    ことを特徴とする請求項5記載のロボット装置。
  7. 自律的に動作可能なロボット装置の動作制御方法であって、
    他の動作主体の動作を画像又は音声として入力する入力工程と、
    上記入力工程にて入力された画像又は音声に応じて、上記他の動作主体の動作と同調したそれぞれ異なる動作を生成する複数の動作生成工程と、
    上記複数の動作生成工程にて生成された複数の動作のいずれか一以上の動作を統合して発現させる動作発現工程と、
    上記動作発現工程にて統合する動作の数、又は複数の動作を統合する際の各動作の割合を制御する制御工程と
    を有することを特徴とするロボット装置の動作制御方法。
  8. 上記複数の動作生成工程にて生成される各動作を変調する複数の変調工程をさらに有し、
    上記制御工程では、上記複数の変調工程における変調処理を制御する
    ことを特徴とする請求項7記載のロボット装置の動作制御方法。
  9. 上記動作生成工程は、
    上記入力された画像又は音声に応じた動作を生成する第1の動作生成ステップと、
    上記入力された画像又は音声に応じて学習を行い、学習結果に基づいて動作を生成する第2の動作生成ステップと、
    上記第1の動作生成ステップにて生成された動作と上記第2の動作生成ステップにて生成された動作とを線形加算する動作加算ステップと
    を有することを特徴とする請求項7記載のロボット装置の動作制御方法。
  10. 上記動作加算ステップでは、上記第2の動作生成ステップにおける学習度合いに従って、又は時間経過に従って、上記第1の動作生成ステップにて生成された動作と上記第2の動作生成ステップにて生成された動作との割合を変化させることを特徴とする請求項9記載のロボット装置の動作制御方法。
  11. 上記他の動作主体の状態を検出する状態検出工程をさらに有し、
    上記制御工程では、上記他の動作主体の状態に応じて、上記動作発現工程にて統合する動作の数若しくは複数の動作を統合する際の各動作の割合、及び/又は上記複数の変調工程における変調処理を制御する
    ことを特徴とする請求項8記載のロボット装置の動作制御方法。
  12. 上記他の動作主体は、上記ロボット装置のユーザであり、
    上記状態検出工程では、該ユーザの情動状態を検出する
    ことを特徴とする請求項11記載のロボット装置の動作制御方法。
JP2004168785A 2004-06-07 2004-06-07 ロボット装置及びその動作制御方法 Expired - Fee Related JP4179230B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004168785A JP4179230B2 (ja) 2004-06-07 2004-06-07 ロボット装置及びその動作制御方法
US11/146,019 US7689322B2 (en) 2004-06-07 2005-06-07 Robot apparatus and method of controlling the motion thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168785A JP4179230B2 (ja) 2004-06-07 2004-06-07 ロボット装置及びその動作制御方法

Publications (2)

Publication Number Publication Date
JP2005342873A true JP2005342873A (ja) 2005-12-15
JP4179230B2 JP4179230B2 (ja) 2008-11-12

Family

ID=35495703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168785A Expired - Fee Related JP4179230B2 (ja) 2004-06-07 2004-06-07 ロボット装置及びその動作制御方法

Country Status (2)

Country Link
US (1) US7689322B2 (ja)
JP (1) JP4179230B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2012178092A (ja) * 2011-02-28 2012-09-13 Shinshu Univ ロボット装置
US9020643B2 (en) 2011-12-01 2015-04-28 Sony Corporation Robot apparatus, control method thereof, and computer program
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法
US10343884B2 (en) 2015-07-10 2019-07-09 E. & J. Gallo Winery System and method for dispensing a beverage
CN110757461A (zh) * 2019-11-13 2020-02-07 江苏方时远略科技咨询有限公司 一种工业移动机器人的控制系统及其控制方法
WO2020255814A1 (ja) 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2022123618A1 (ja) 2020-12-07 2022-06-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法およびプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8484146B2 (en) * 2006-01-18 2013-07-09 Sony Corporation Interaction device implementing a bayesian's estimation
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
US8140188B2 (en) * 2008-02-18 2012-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
KR101678018B1 (ko) 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
TW201434600A (zh) * 2013-03-01 2014-09-16 Compal Electronics Inc 具有可因應不同聲音信號產生相對應肢體動作之機器人
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US9534906B2 (en) 2015-03-06 2017-01-03 Wal-Mart Stores, Inc. Shopping space mapping systems, devices and methods
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
JP7285703B2 (ja) * 2019-06-17 2023-06-02 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
JP2001246580A (ja) 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2001246174A (ja) 2000-03-08 2001-09-11 Okayama Prefecture 音声駆動型複数身体引き込みシステム
US6650965B2 (en) * 2000-03-24 2003-11-18 Sony Corporation Robot apparatus and behavior deciding method
JP2002086378A (ja) 2000-09-08 2002-03-26 Sony Corp 脚式ロボットに対する動作教示システム及び動作教示方法
JP4296736B2 (ja) 2000-10-13 2009-07-15 ソニー株式会社 ロボット装置
JP2002239962A (ja) 2000-12-06 2002-08-28 Sony Corp ロボット装置、ロボット装置の動作制御方法及びロボット装置の動作制御システム
EP1262844A1 (en) 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
JP2003334778A (ja) 2002-05-13 2003-11-25 Canon Inc ロボットの動作制御方法
JP3702297B2 (ja) 2002-08-01 2005-10-05 株式会社Oiテクノロジーズ ロボット制御装置及びロボット制御方法並びにそのプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2012178092A (ja) * 2011-02-28 2012-09-13 Shinshu Univ ロボット装置
US9020643B2 (en) 2011-12-01 2015-04-28 Sony Corporation Robot apparatus, control method thereof, and computer program
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法
US10343884B2 (en) 2015-07-10 2019-07-09 E. & J. Gallo Winery System and method for dispensing a beverage
WO2020255814A1 (ja) 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
CN110757461A (zh) * 2019-11-13 2020-02-07 江苏方时远略科技咨询有限公司 一种工业移动机器人的控制系统及其控制方法
WO2022123618A1 (ja) 2020-12-07 2022-06-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US7689322B2 (en) 2010-03-30
US20060020368A1 (en) 2006-01-26
JP4179230B2 (ja) 2008-11-12

Similar Documents

Publication Publication Date Title
US7689322B2 (en) Robot apparatus and method of controlling the motion thereof
JP3714268B2 (ja) ロボット装置
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP4086024B2 (ja) ロボット装置及びその行動制御方法
US7024276B2 (en) Legged mobile robot and its motion teaching method, and storage medium
Kemp et al. Humanoids
Kopacek Cost oriented humanoid robots
Park et al. Control hardware integration of a biped humanoid robot with an android head
Safavi et al. Model-based haptic guidance in surgical skill improvement
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003266348A (ja) ロボット装置及びその制御方法
JP4506249B2 (ja) ロボット装置及びその動作比較方法
Lin et al. Learning Near-global-optimal Strategies for Hybrid Non-convex Model Predictive Control of Single Rigid Body Locomotion
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP2006285898A (ja) 制御装置および方法、並びにプログラム
Kaynov Open motion control architecture for humanoid robots
Tchórzewski et al. Neural model of human gait and its implementation in MATLAB and Simulink Environment using Deep Learning Toolbox
JP4552490B2 (ja) ロボット装置及びその情動制御方法
Safavi et al. A novel MPC approach to optimize force feedback for human-robot shared control
JP2003266352A (ja) ロボット装置及びロボット装置の制御方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法
JP2004299006A (ja) ロボット装置及びロボット装置による顔認識状況の提示方法
JP2004298976A (ja) ロボット装置及びロボット装置の認識制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees