JP2005115654A - 情報処理装置および方法、プログラム格納媒体、並びにプログラム - Google Patents

情報処理装置および方法、プログラム格納媒体、並びにプログラム Download PDF

Info

Publication number
JP2005115654A
JP2005115654A JP2003349029A JP2003349029A JP2005115654A JP 2005115654 A JP2005115654 A JP 2005115654A JP 2003349029 A JP2003349029 A JP 2003349029A JP 2003349029 A JP2003349029 A JP 2003349029A JP 2005115654 A JP2005115654 A JP 2005115654A
Authority
JP
Japan
Prior art keywords
robot
motion
motion pattern
pattern
robot motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003349029A
Other languages
English (en)
Inventor
Masato Ito
真人 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003349029A priority Critical patent/JP2005115654A/ja
Priority to US10/959,557 priority patent/US6980889B2/en
Publication of JP2005115654A publication Critical patent/JP2005115654A/ja
Priority to US11/204,620 priority patent/US7133744B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

【課題】入力運動パターンに対応するロボットの運動パターンを生成するようにする。
【解決手段】入力運動取得部72は、画像認識部71から所定の対象物の運動軌道を取得する。力学系モデル化処理部74は、ロボット運動パターン記憶部73に記憶されている複数のロボット運動パターンを力学系によりモデル化し、ロボット運動パターン力学系モデル記憶部75に記憶させる。運動変換部76は、ロボット運動パターン力学系モデル記憶部75に記憶されている複数のロボット運動力学系モデルを線形変換して予測運動軌道に変換する。運動比較部77は、運動取得部72で取得された入力運動軌道と運動変換部76で変換された予測運動軌道を比較する。その比較結果に基づいて、ロボット運動選択部78は、最も類似性の高いロボット運動パターンをロボット運動パターン記憶部75から選択する。本発明は、ロボット装置に適用することができる。
【選択図】図3

Description

本発明は、情報処理装置および方法、プログラム格納媒体、並びにプログラムに関し、特に、例えば、入力された運動パターンに対応するロボットの運動パターンを生成することができるようにした情報処理装置および方法、プログラム格納媒体、並びにプログラムに関する。
従来より、人間や動物の脳に関する1つのモデルとして、ニューラルネットワークが研究されている。ニューラルネットワークにおいては、所定の運動パターンを予め学習しておくことにより、入力されたデータが、予め学習した運動パターンに対応するか否かを識別することができる。
このようなニューラルネットワークを利用した技術がいくつか提案されている。例えば、カメラで撮像した対象物の運動パターンに基づいてロボット自身の運動パターンを生成するロボットにおいて、予め、2つの運動パターンの対応付けをニューラルネットワークにより記憶しておくことにより、後に、入力された運動パターンに対して、記憶されているロボット用の運動パターンの中から最も類似する運動パターンを生成する方法が提案されている(例えば、非特許文献1参照)。
萬泰明,國吉康夫,「視覚・運動融合に基づく腕動作の原始模倣モデル」,日本ロボット学会,学術講演会講演論文集2001
しかしながら、非特許文献1に示される方法では、予め、入力運動パターンとロボット用の運動パターンの対応付けを行う必要があった。
また、入力運動パターンに対する認識の汎化性能が、対応付けを記憶する学習モデルの汎化性能に依存するという課題があった。
さらに、入力運動パターンに対応して生成されるロボット用の運動パターンが、ロボット運動制御の幾何的もしくは物理的拘束を必ずしも満たさないという課題があった。
本発明はこのような状況に鑑みてなされたものであり、入力運動パターンとロボット用の運動パターンの対応付けを行うことなく、入力運動パターンに対応するロボット用の運動パターンを容易に生成することができるようにするものである。
本発明の情報処理装置は、所定の対象物の運動パターンを取得する運動パターン取得手段と、ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリング手段と、モデリング手段によりモデル化された複数のロボット運動パターンを記憶する記憶手段と、記憶手段に記憶されている力学系によりモデル化されたロボット運動パターンと運動パターン取得手段により取得された運動パターンを比較する比較手段と、比較手段による比較結果に基づいて、生成するロボット運動パターンを選択する選択手段とを備えることを特徴とする。
前記記憶手段に記憶されている力学系によりモデル化されたロボット運動パターンから運動パターン取得手段により取得された運動パターンへの線形変換を、ロボット運動パターンと運動パターンの誤差に基づいて算出する誤差算出手段をさらに設けるようにすることができ、比較手段は、誤差算出手段による算出結果に基づいて比較するようにすることができる。
前記モデリング手段、記憶手段、および比較手段は、リカレント型ニューラルネットワークであるようにすることができる。
本発明の情報処理方法は、所定の対象物の運動パターンを取得する運動パターン取得ステップと、ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップとを含むことを特徴とする。
本発明のプログラム格納媒体に格納されているプログラムは、所定の対象物の運動パターンを取得する運動パターン取得ステップと、ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップとを含む処理をコンピュータに行わせる。
本発明のプログラムは、所定の対象物の運動パターンを取得する運動パターン取得ステップと、ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップとを含む処理をコンピュータに行わせる。
本発明においては、所定の対象物の運動パターンが取得され、ロボット制御装置で実行可能な複数のロボット運動パターンがモデル化されて記憶され、記憶されている複数のロボット運動パターンと取得された所定の対象物の運動パターンが比較され、比較結果に基づいて、生成するロボット運動パターンが選択される。
本発明によれば、入力された運動パターンに対応するロボットの運動パターンを生成することができる。特に、入力運動パターンとロボットの運動パターンの対応付けを行うことなく、入力運動パターンと予め記憶されたロボットの運動パターンを比較することで、生成する運動パターンを選択することが可能となる。
以下に本発明を実施するための最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。本明細書には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。
本発明は、所定の対象物の運動パターンを取得する運動パターン取得手段(例えば、図3の運動取得部72)と、ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリング手段(例えば、図3の力学系モデル化処理部74)と、モデリング手段によりモデル化された複数のロボット運動パターンを記憶する記憶手段(例えば、図3のロボット運動パターン力学系モデル記憶部75)と、記憶手段に記憶されている力学系によりモデル化されたロボット運動パターンと運動パターン取得手段により取得された運動パターンを比較する比較手段(例えば、図3の運動比較部77)と、比較手段による比較結果に基づいて、生成するロボット運動パターンを選択する選択手段(例えば、図3のロボット運動選択部78)とを備える情報処理装置を提供する。
この情報処理装置は、記憶手段に記憶されている力学系によりモデル化されたロボット運動パターンから運動パターン取得手段により取得された運動パターンへの線形変換を、ロボット運動パターンと運動パターンの誤差に基づいて算出する誤差算出手段(例えば、図3の運動変換部76)をさらに設けるようにすることができ、比較手段は、誤差算出手段による算出結果に基づいて比較するようにすることができる。
前記モデリング手段、記憶手段、および比較手段は、リカレント型ニューラルネットワーク(例えば、図4に示すRNN91)により構成することができる。
また、本発明は、所定の対象物の運動パターンを取得する運動パターン取得ステップ(図9のステップS23)と、ロボット制御装置で実行可能なロボット運動パターン(例えば、図5の学習処理により学習されたロボット運動パターン)を再生成可能な力学系によりモデル化するモデリングステップ(例えば、図5のステップS4)と、モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップ(例えば、図5のステップS5)と、記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップ(例えば、図9のステップS24)と、比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップ(例えば、図10のステップS32)とを含む情報処理方法を提供する。
また、本発明は、所定の対象物の運動パターンを取得する運動パターン取得ステップ(図9のステップS23)と、ロボット制御装置で実行可能なロボット運動パターン(例えば、図5の学習処理により学習されたロボット運動パターン)を再生成可能な力学系によりモデル化するモデリングステップ(例えば、図5のステップS4)と、モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップ(例えば、図5のステップS5)と、記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップ(例えば、図9のステップS24)と、比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップ(例えば、図10のステップS32)とを含む処理をコンピュータに行わせるプログラムを提供する。
このプログラムは、プログラム格納媒体に格納することができる。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明を適用した2足歩行タイプのロボット1の一実施の形態の構成例を示す外観斜視図である。ロボット1は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出することができる。
ロボット1は、胴体部ユニット2の上部に頭部ユニット3が配設されるとともに、胴体部ユニット2の上部左右に、同様の構成を有する腕部ユニット4Rおよび4Lが所定位置にそれぞれ取り付けられ、かつ、胴体部ユニット2の下部左右に、同様の構成を有する脚部ユニット5Rおよび5Lが所定位置にそれぞれ取り付けられることにより構成されている。頭部ユニット3には、タッチセンサ11および表示部12が設けられている。
図2は、ロボット1の電気的な内部構成例を示すブロック図である。
頭部ユニット3には、ロボット1の「目」として機能するCCD(Charge Coupled Device)カメラ31Lおよび31R、「耳」として機能するマイクロホン32−1乃至32−N、並びにタッチセンサ11などからなる外部センサ部21、「口」として機能するスピーカ22、および、ロボット1の状態やユーザからの応答を表示する表示部12などがそれぞれ所定位置に配設されている。胴体部ユニット2には、ロボット1全体の動作制御をつかさどるメイン制御部51、バッテリセンサ61および加速度センサ62などからなる内部センサ部52、バッテリ53、並びに外部メモリ54などが配設されている。また、胴体部ユニット2には、この他に、電源回路および通信回路などの周辺回路(図示せず)が配設されている。
そして、胴体部ユニット2は、各構成ユニット(胴体部ユニット2、頭部ユニット3、腕部ユニット4Lおよび4R、並びに、脚部ユニット5Lおよび5R)内にそれぞれ配設されたサブ制御部41A乃至41Fと接続されており、サブ制御部41A乃至41Fに対して必要な電源電圧を供給したり、サブ制御部41A乃至41Fと通信を行う。
また、サブ制御部41A乃至41Fは、対応する構成ユニット内のアクチュエータ42A乃至42Fと、それぞれ接続されており、メイン制御部51から供給された各種制御コマンドに基づいて、構成ユニット内のアクチュエータ42A乃至42Fを、指定された状態に駆動させるように制御する。
そして、外部センサ部21のCCDカメラ31Lおよび31Rは、周囲の状況を撮像し、得られた画像信号S1Aを、メイン制御部51に送出する。マイクロホン32−1乃至32−N(以下、N個のマイクロホン32−1乃至32−Nを個々に区別する必要がない場合、単にマイクロホン32と称する)は、ユーザから音声入力として与えられる「歩け」、「とまれ」または「右手を挙げろ」等の各種命令音声(音声コマンド)を集音し、得られた音声信号S1Bを、メイン制御部51にそれぞれ送出する。
また、タッチセンサ11は、例えば、図1に示されるように頭部ユニット3の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を、圧力検出信号S1Cとしてメイン制御部51に送出する。
内部センサ部52のバッテリセンサ61は、バッテリ53のエネルギ残量を所定の周期で検出し、検出結果をバッテリ残量検出信号S2Aとして、メイン制御部51に送出する。加速度センサ62は、ロボット1の移動について、3軸方向(x軸、y軸およびz軸)の加速度を、所定の周期で検出し、その検出結果を、加速度検出信号S2Bとして、メイン制御部51に送出する。
外部メモリ54は、プログラムやデータ、および制御パラメータなどを記憶しており、そのプログラムやデータを必要に応じてメイン制御部51に内蔵されるメモリ51Aに供給する。また、外部メモリ54は、データ等をメモリ51Aから受け取り、記憶する。なお、外部メモリ54は、ロボット1から着脱可能になされている。
メイン制御部51は、メモリ51Aを内蔵している。メモリ51Aは、プログラムやデータを記憶しており、メイン制御部51は、メモリ51Aに記憶されたプログラムを実行することで、各種の処理を行う。即ち、メイン制御部51は、外部センサ部21のCCDカメラ31Lおよび31R、マイクロホン32、およびタッチセンサ11からそれぞれ供給される、画像信号S1A、音声信号S1B、および圧力検出信号S1Cと、内部センサ部52のバッテリセンサ61および加速度センサ等からそれぞれ供給される、バッテリ残量検出信号S2Aおよび加速度検出信号S2Bに基づいて、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無などを判断する。
そして、メイン制御部51は、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無の判断結果と、内部メモリ51Aに予め格納されている制御プログラム、あるいは、そのとき装填されている外部メモリ54に格納されている各種制御パラメータなどに基づいて、ロボット1の行動を決定し、その決定結果に基づく制御コマンドを生成して、対応するサブ制御部41A乃至41Fに送出する。サブ制御部41A乃至41Fは、メイン制御部51から供給された制御コマンドに基づいて、アクチュエータ42A乃至42Fの駆動を制御する。これにより、ロボット1は、例えば、頭部ユニット3を上下左右に揺り動かしたり、腕部ユニット4R、あるいは、腕部ユニット4Lを上に挙げたり、脚部ユニット5Rと5Lを交互に駆動させて、歩行するなどの行動を行う。
また、メイン制御部51は、必要に応じて、所定の音声信号S3をスピーカ22に与えることにより、音声信号S3に基づく音声を外部に出力させると共に、例えば、音声を検出したときに、表示信号S4に基づいて「だーれ」などのユーザへの応答を表示部12に表示する。更に、メイン制御部51は、外見上の「目」として機能する、頭部ユニット3の所定位置に設けられた、図示せぬLEDに対して駆動信号を出力することにより、LEDを点滅させて、表示部12として機能させる。
このようにして、ロボット1は、周囲および内部の状況(状態)や、ユーザからの指令および働きかけの有無などに基づいて、自律的に行動する。
図3は、図2のメイン制御部51の機能的構成例を示す図である。ここでは、画像認識により、ロボット1の行動を決定する機能についてのみ図示するが、音声認識によりロボット1の行動を決定する機能を設けることも勿論可能である。なお、図3に示す機能的構成は、メイン制御部51が、メモリ51Aに記憶された制御プログラムを実行することで実現されるようになっている。
画像認識部71は、CCDカメラ31Lおよび31Rから与えられる画像信号を用いて、画像認識処理を行い、その画像認識結果を運動取得部72に供給する。ここで、ユーザは、一般に、ロボット1の正面方向から話しかけることが多いと予想されるため、周囲の状況を撮像するCCDカメラ31Lおよび31Rは、その撮像方向が、ロボット1の正面方向になるように、頭部ユニット3(図1)に設置されているものとする。
運動取得部72は、画像認識部71から供給された画像認識結果である、所定の対象物の運動軌道を取得し、それを運動比較部77に供給する。ロボット運動パターン記憶部73は、ロボット1が実行可能な複数のロボット運動パターンを記憶する。力学系モデル化処理部74は、ロボット運動パターン記憶部73に記憶されている複数のロボット運動パターンを順次読み出し、再生成可能な力学系モデルとして表現する処理を行う。
ロボット運動パターン力学系モデル記憶部75は、力学系モデル化処理部74によって、再生成可能な力学系モデルとして表現された複数のロボット運動パターンを記憶する。運動変換部76は、ロボット運動パターン力学系モデル記憶部75から、複数の力学系モデルとして表現されたロボット運動パターンを読み出し、線形変換して予測運動軌道に変換する。
運動比較部77は、運動取得部72から供給された所定の対象物の入力運動軌道と、運動変換部76から供給された予測運動軌道を比較し、その2つの類似性を、軌道間の距離で得られる予測誤差により算出する。このとき、運動変換部76は、予測誤差を最小にするように線形変換を算出し、ロボット運動パターン力学系モデル記憶部75は、軌道間の距離の差を最小にするように力学系モデルから生成される運動軌道の位相を調整する。運動比較部77は、この比較処理を1つの入力運動軌道と複数の予測運動軌道の全ての組み合わせに対して行い、全ての組合せの比較結果をロボット運動選択部78に供給する。
ロボット運動選択部78は、運動比較部77から供給された比較結果に基づいて、最も類似性の高いロボット運動力学系モデルに対応したロボット運動パターンをロボット運動パターン記憶部75から選択し、それをロボット運動制御部79に供給する。
ロボット運動制御部79は、ロボット運動選択部78によって選択されたロボット運動パターンに基づいて、ロボット1のアクチュエータ42A乃至42Fを、指定された状態に駆動させるように制御する。
ところで、力学系モデル化処理部74、ロボット運動パターン力学系モデル記憶部75、運動変換部76、および運動比較部77からなる運動パターンを学習する機能は、リカレント型ニューラルネットワーク(RNN)により実現することができる。
図4は、RNN91の構成例を表している。このRNN91は、入力層101、中間層(隠れ層)102、出力層103、およびコンテキスト層104により構成されている。これらの入力層101、中間層102、出力層103、およびコンテキスト層104は、それぞれ任意の数のニューロンにより構成されている。
入力層101のニューロンには、時系列パターンに関するデータxtがロボット運動パターン記憶部74から入力される。具体的には例えば、ロボット運動パターンが各関節角度軌道xtとして表現される場合、時刻tにおける関節角軌道xtが入力される。
中間層102のニューロンは、入力されたデータに対して重み付け加算処理を行い、順次後段に出力する処理を実行する。すなわち、データxt,Ctに対して所定の重み付け係数に対する演算処理(非線形関数に基づく演算処理)を行った後、出力層103に出力する。本実施の形態では例えば、データxt,Ctの所定の重み付け和の入力に対して、シグモイド関数等の非線形出力特性を有する関数に基づく演算処理を行った後、出力層103に出力する。
出力層103を構成する一部のニューロン103−1は、入力データに対応するデータx*t+1を出力する。出力層103を構成する一部のニューロン103−3は、入力データに対応するデータy*t+1を出力する。
コンテキスト層104には、出力層103の一部のニューロン103−2より出力されたデータが、RNN91の内部の状態を表すコンテキストCtとしてフィードバックされている。コンテキストCtは、リカレント型ニューラルネットワークに関する一般的用語であり、例えば、参考文献(Elman, J.L. (1990). Finding structure in time. Cognitive Science, 14, 179-211)等に説明が記載されている。
また、RNN91は、バックプロパゲーションによる学習のため、誤差演算部111および112を有している。演算部113は、RNN91に対する重み付け係数の設定処理を行う。
次に、図5のフローチャートを参照して、RNN91が実行するロボット運動パターンの学習処理について説明する。この学習処理は、学習させるロボット運動パターン毎に実行される。換言すれば、学習するロボット運動パターンの数だけ仮想的なRNNが用意され、各仮想RNN毎に図5の学習処理が実行される。
仮想的なRNN毎に図5のフローチャートに示される処理が実行され、仮想RNN毎に運動パターンが学習された後、実際のRNN91に対して、係数を設定する処理が実行される。ただし、以下の説明では、仮想的なRNNも、実際のRNN91として説明する。
最初に、ステップS1において、RNN91の入力層101は、所定の時刻tのロボット運動パターンである入力(各関節角度軌道)xtを取り込む。ステップS2において、RNN91の中間層102は、入力xtに対して、重み付け係数に対応する演算処理を行い、出力層103のニューロン103−1から、入力されたロボット運動パターンにおける時刻t+1の値の予測値x*t+1を出力する。
ステップS3において、誤差演算部111は、次の時刻t+1のロボット運動パターンである入力xt+1を教師信号として取り込む。ステップS4において、誤差演算部111は、ステップS3の処理で取り込んだ教師入力xt+1と、ステップS2の処理で演算して得た予測値x*t+1の誤差を演算する。
ステップS5において、RNN91は、ステップS4の処理で演算して得た誤差を出力層103のニューロン103−1から入力し、中間層102、さらに入力層101の順に伝搬(バックプロパゲーション)することで、学習処理を行い、演算結果(重み付け係数)を得る。
ステップS6において、RNN91は、ロボット運動パターンの学習処理を終了するか否かを判定し、まだ学習処理を終了しない、すなわち、規定の学習ステップに到達していないか、もしくは、学習誤差が既定の値より大きいと判定した場合、ステップS1に戻り、それ以降の処理を繰り返し実行する。そして、ステップS6において、ロボット運動パターンの学習処理を終了すると判定された場合、図5の学習処理が終了される。
図6乃至図8は、以上の学習処理によって学習されたロボット運動パターンの例を示している。
図6は、ロボット1が、腕部ユニット4Lおよび4Rを、円を描くように駆動させた場合において学習されたロボット運動パターン101を示している。
図7は、ロボット1が、腕部ユニット4Lおよび4Rを、数字の8を描くように駆動させた場合において学習されたロボット運動パターン111を示している。
図8は、ロボット1が、腕部ユニット4Lおよび4Rを、三角形を描くように駆動させた場合において学習されたロボット運動パターン121を示している。
以上のように、予め、複数のロボット運動パターンが学習され、ロボット運動パターンの数だけRNN91が用意される。すなわち、例えば、3通りのロボット運動パターンが学習された場合、3個のRNN91が用意される。そして、1つの入力運動パターンに対して、全てのRNNが、それぞれ、このパターンの認識処理を行う。
次に、図9のフローチャートを参照して、RNN91が実行する入力運動パターンの認識処理について説明する。この認識処理は、認識させる1つの入力運動パターンに対して、各RNN毎に実行される。
ステップS21において、RNN91のコンテキスト層104は、コンテキストCtに初期値Ciをセットする。ステップS22において、RNN91の中間層102は、入力xtに1ステップ前の時刻の予測値y*t+1を入力としてセットする。ここで、中間層102は、次式(1)に従って、線形変換Oiを算出することにより、ロボット運動力学系モデルから入力運動軌道の予測値y*t+1を得る。そして、得られた予測値y*t+1は、出力層103のニューロン103−3から出力される。
Oi=ΣWij・Hj ・・・(1)
上記式(1)において、iは、入力層101、中間層102、出力層103、およびコンテキスト層104をそれぞれ識別するための値である。Wijは、出力層103の値をi、中間層102の値をjとした場合の、中間層102から出力層103への重み付け係数を表わしている。Hjは、入力層101とコンテキスト層104の出力の重み付け係数の和を表わしている。従って、Oiは、中間層102の値(ベクトル)を線形変換した値(重み付け係数の和)を表わすことになる。
ステップS23において、誤差演算部112は、現在の時刻t+1の入力運動パターンであるyt+1を教師信号として取り込む。ステップS24において、誤差演算部112は、ステップS23の処理で取り込んだ教師入力yt+1と、ステップS22の処理で得られた予測値y*t+1の誤差を演算する。
ステップS25において、RNN91は、ステップS24の処理で演算して得た誤差を出力層103のニューロン103−3から入力し、中間層102、さらに入力層101の順に伝搬(バックプロパゲーション)して重み付け係数Wijを修正することで、入力運動軌道の予測誤差を最小にするような線形変換Oiを得る。
ステップS26において、RNN91は、出力層103のニューロン103−2、中間層102、および入力層101の順に伝搬(バックプロパゲーション)してコンテキスト層104の初期値Ciを修正することで、入力運動軌道の予測誤差を最小にするように、力学系モデルから生成させるロボット運動軌道の位相を調整する。
ステップS27において、RNN91は、入力運動パターンである入力ytの時間ステップの分だけ処理が行われたか否かを判定し、まだ時間ステップの分だけ処理が行われていないと判定した場合、ステップS22に戻り、上述した処理を繰り返し実行する。そして、ステップS27において、入力運動パターンである入力ytの時間ステップの分だけ処理が行われたと判定された場合、ステップS28に進む。
ステップS28において、RNN91は、入力運動パターンの認識処理を終了するか否かを判定し、まだ認識処理を終了しない、すなわち、規定の繰り返し回数に到達していないと判定した場合、ステップS22に戻り、それ以降の処理を繰り返し実行する。そして、ステップS28において、入力運動パターンの認識処理を終了すると判定された場合、図9の認識処理が終了される。
以上のような認識処理を行うことで、各RNNにおいて入力運動パターンがそれぞれ認識される。そして、1つの入力運動パターンに対して、各RNNでそれぞれ認識処理が行われた後、その認識処理により得られた複数のRNN間の認識結果(認識誤差)を比較し、類似性の高いロボット運動パターンを選択する処理が行われる。図10は、この場合の処理を表わしている。
ステップS31において、ロボット運動選択部78は、各RNN毎に図9のフローチャートに示される認識処理を実行し、その結果得られたRNN間の認識結果を、所定の評価基準に基づいて比較する。
ここで、所定の評価基準とは、例えば、予め決められた規定学習回数における学習誤差、もしくは予め決められた学習誤差に至る学習回数を意味するものである。一般に、RNNの学習は、教師パターンと出力パターンの誤差を、繰り返し計算することにより最小化する処理である。従って、複数のRNNの学習性能を比較するにあたり、学習処理の終了を学習回数(すなわち、繰り返し計算の回数)により規定した場合、学習誤差の大きさ(繰り返し計算の結果である最終の誤差)が学習性能の評価基準とされる。一方、学習処理の終了を予め決められた学習誤差の大きさに到達することにより規定した場合、学習回数が学習性能の評価基準とされる。
ステップS32において、ロボット運動選択部78は、ステップS31の処理による比較結果に基づいて、最も類似性の高いロボット運動力学系モデルに対応したロボット運動パターンをロボット運動パターン記憶部75から選択する。ステップS33において、ロボット運動選択部78は、ステップS32の処理で選択したロボット運動パターンをロボット運動制御部79に出力する。そして、ロボット運動制御部79は、ロボット運動選択部78から出力されたロボット運動パターンに基づいて、ロボット1のアクチュエータ42A乃至42Fを、指定された状態に駆動させるように制御する。
このように、入力運動パターン(ユーザの行動)のイメージを表現するロボット1のロボット運動パターンが生成される。
図11は、入力運動パターンとロボット運動パターンの比較処理を模式的に示している。図11の状態においては、図6乃至図8に示されるロボット運動パターン101,111,121が既に学習され、ロボット運動パターン記憶部75に記憶されている。
例えば、ロボット1の前方で、ユーザが腕を数字の8を描くように行動した場合、CCDカメラ31L,31Rにより、その行動が撮像され、入力運動パターン131がRNN91に入力される。RNN91は、入力運動パターン131とロボット運動パターン記憶部75に記憶されている各ロボット運動パターン101,111,121との比較処理を行い、それぞれ類似性(認識誤差)を算出する。ロボット運動選択部78は、その算出結果に基づいて、入力運動パターン131に最も類似するロボット運動パターンとして、ロボット運動パターン111を選択する。ロボット運動制御部79は、ロボット運動選択部78により選択されたロボット運動パターン111に基づいて、ロボット1のアクチュエータ42A乃至42Fを制御する。これにより、数字の8を描くようなロボット運動パターンがロボット1の動作として生成される。
以上のように、予め、ロボット1に対して、入力運動パターンとロボット運動パターンの対応付けを行うことなく、入力運動パターンのイメージを表現するロボット1の運動パターンを生成することができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図12に示されるようなパーソナルコンピュータ200が用いられる。
図12において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記憶されているプログラム、または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部207、ハードディスクなどより構成される記憶部208、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、ネットワークを介しての通信処理を行う。
入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア211が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、パーソナルコンピュータ200に、ネットワークや記録媒体からインストールされる。
この記録媒体は、図12に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア211により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明を適用したロボットの構成例を示す外観斜視図である。 ロボットの電気的な内部構成例を示すブロック図である。 図2のメイン制御部の機能的構成例を示す図である。 RNNの構成例を示す図である。 ロボット運動パターンの学習処理を説明するフローチャートである。 学習されたロボット運動パターンの例を示す図である。 学習されたロボット運動パターンの他の例を示す図である。 学習されたロボット運動パターンの他の例を示す図である。 入力運動パターンの認識処理を説明するフローチャートである。 選択処理を説明するフローチャートである。 入力運動パターンとロボット運動パターンの比較処理を模式的に示す図である。 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 ロボット, 4R,4L 腕部ユニット, 31R,31L CCDカメラ, 41A乃至41F サブ制御部, 42A乃至42F アクチュエータ, 51 メイン制御部, 71 画像認識部, 72 運動取得部, 73 ロボット運動パターン記憶部, 74 力学系モデル化処理部, 75 ロボット運動パターン力学系モデル記憶部, 76 運動変換部, 77 運動比較部, 78 ロボット運動選択部, 79 ロボット運動制御部, 91 RNN, 101 入力層, 102 中間層, 103 出力層, 104 コンテキスト層, 111,112 誤差演算部, 113 演算部

Claims (6)

  1. 所定の対象物の運動パターンを取得する運動パターン取得手段と、
    ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリング手段と、
    前記モデリング手段によりモデル化された複数のロボット運動パターンを記憶する記憶手段と、
    前記記憶手段に記憶されている力学系によりモデル化された複数のロボット運動パターンと前記運動パターン取得手段により取得された運動パターンを比較する比較手段と、
    前記比較手段による比較結果に基づいて、生成するロボット運動パターンを選択する選択手段と
    を備えることを特徴とする情報処理装置。
  2. 前記記憶手段に記憶されている力学系によりモデル化されたロボット運動パターンから前記運動パターン取得手段により取得された前記運動パターンへの線形変換を、前記ロボット運動パターンと前記運動パターンの誤差に基づいて算出する誤差算出手段をさらに備え、
    前記比較手段は、前記誤差算出手段による算出結果に基づいて比較する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記モデリング手段、前記記憶手段、および前記比較手段は、リカレント型ニューラルネットワークである
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 所定の対象物の運動パターンを取得する運動パターン取得ステップと、
    ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、
    前記モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、
    前記記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと前記運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、
    前記比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップと
    を含むことを特徴とする情報処理方法。
  5. 所定の対象物の運動パターンを取得する運動パターン取得ステップと、
    ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、
    前記モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、
    前記記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと前記運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、
    前記比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが格納されているプログラム格納媒体。
  6. 所定の対象物の運動パターンを取得する運動パターン取得ステップと、
    ロボット制御装置で実行可能なロボット運動パターンを再生成可能な力学系によりモデル化するモデリングステップと、
    前記モデリングステップの処理によりモデル化された複数のロボット運動パターンを記憶する記憶ステップと、
    前記記憶ステップの処理により記憶されている力学系によりモデル化された複数のロボット運動パターンと前記運動パターン取得ステップの処理により取得された運動パターンを比較する比較ステップと、
    前記比較ステップの処理による比較結果に基づいて、生成するロボット運動パターンを選択する選択ステップと
    を含む処理をコンピュータに実行させること特徴とするプログラム。
JP2003349029A 2003-10-08 2003-10-08 情報処理装置および方法、プログラム格納媒体、並びにプログラム Withdrawn JP2005115654A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003349029A JP2005115654A (ja) 2003-10-08 2003-10-08 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US10/959,557 US6980889B2 (en) 2003-10-08 2004-10-06 Information processing apparatus and method, program storage medium, and program
US11/204,620 US7133744B2 (en) 2003-10-08 2005-08-15 Information processing apparatus and method, program storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003349029A JP2005115654A (ja) 2003-10-08 2003-10-08 情報処理装置および方法、プログラム格納媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2005115654A true JP2005115654A (ja) 2005-04-28

Family

ID=34419684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003349029A Withdrawn JP2005115654A (ja) 2003-10-08 2003-10-08 情報処理装置および方法、プログラム格納媒体、並びにプログラム

Country Status (2)

Country Link
US (2) US6980889B2 (ja)
JP (1) JP2005115654A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013779A1 (ja) * 2004-08-02 2006-02-09 Honda Motor Co., Ltd. 脚式移動ロボットの歩容生成装置および制御装置
WO2006040868A1 (ja) * 2004-10-15 2006-04-20 Honda Motor Co., Ltd. 脚式移動ロボットの歩容生成装置
JP2010000594A (ja) * 2008-06-19 2010-01-07 Samsung Electronics Co Ltd ロボット及びその歩行制御方法
JP2015111332A (ja) * 2013-12-06 2015-06-18 富士通株式会社 姿勢検出装置、姿勢検出方法および姿勢検出プログラム
JP2016505928A (ja) * 2012-11-22 2016-02-25 フラウンホーファー−ゲゼルシャフト ツール フエルデルング デア アンゲヴァンテン フォルシュング エー.ファオ. オブジェクトの運動を再現するための装置、方法及びコンピュータプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101320439A (zh) * 2007-06-08 2008-12-10 鹏智科技(深圳)有限公司 有自动学习功能的类生物装置
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
EP2571175A4 (en) 2011-06-03 2014-02-19 Asahi Kasei Microdevices Corp TRANSMITTER
RU2598601C2 (ru) * 2012-03-30 2016-09-27 Сони Корпорейшн Устройство обработки данных, способ обработки данных и программа
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
JP2014034101A (ja) * 2012-08-10 2014-02-24 Toshiba Corp ロボット制御装置
US9025856B2 (en) 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
KR20150071781A (ko) * 2013-12-18 2015-06-29 한국전자통신연구원 궤적변환 기반 이동궤적 모델링 장치 및 방법
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP6514166B2 (ja) * 2016-09-16 2019-05-15 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6927727B2 (ja) * 2017-03-29 2021-09-01 本田技研工業株式会社 ロボットの制御装置
CN107818318B (zh) * 2017-11-27 2020-05-22 华南理工大学 一种人形机器人模仿相似度评价方法
CN108527371A (zh) * 2018-04-17 2018-09-14 重庆邮电大学 一种基于bp神经网络的灵巧手规划方法
WO2020123612A1 (en) * 2018-12-12 2020-06-18 Brain Corporation Systems and methods for improved control of nonholonomic robotic systems
KR20210053020A (ko) 2019-11-01 2021-05-11 삼성전자주식회사 전자 장치 및 그 동작 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
EP1034899B1 (en) * 1998-06-09 2011-03-30 Sony Corporation Robot and method of its attitude control
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
EP1207498A3 (en) * 2000-11-15 2003-10-15 Sega Corporation Display object generation method in information processing equipment
JP3451073B2 (ja) * 2001-02-09 2003-09-29 コナミ株式会社 遠隔操作システム、それに使用する送信機、遠隔操作システム用のプログラム及び記憶媒体
JP4366096B2 (ja) * 2003-02-24 2009-11-18 キヤノン株式会社 情報処理装置及びそのシミュレーション方法並びに記憶媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013779A1 (ja) * 2004-08-02 2006-02-09 Honda Motor Co., Ltd. 脚式移動ロボットの歩容生成装置および制御装置
US7991508B2 (en) 2004-08-02 2011-08-02 Honda Motor Co., Ltd. Gait generating system and control device of legged mobile robot
WO2006040868A1 (ja) * 2004-10-15 2006-04-20 Honda Motor Co., Ltd. 脚式移動ロボットの歩容生成装置
JPWO2006040868A1 (ja) * 2004-10-15 2008-05-15 本田技研工業株式会社 脚式移動ロボットの歩容生成装置
US7734377B2 (en) 2004-10-15 2010-06-08 Honda Motor Co., Ltd. Gait generator of legged mobile robot
JP4808626B2 (ja) * 2004-10-15 2011-11-02 本田技研工業株式会社 脚式移動ロボットの歩容生成装置
JP2010000594A (ja) * 2008-06-19 2010-01-07 Samsung Electronics Co Ltd ロボット及びその歩行制御方法
US9221507B2 (en) 2008-06-19 2015-12-29 Samsung Electronics Co., Ltd. Robot and method of controlling walking thereof
JP2016505928A (ja) * 2012-11-22 2016-02-25 フラウンホーファー−ゲゼルシャフト ツール フエルデルング デア アンゲヴァンテン フォルシュング エー.ファオ. オブジェクトの運動を再現するための装置、方法及びコンピュータプログラム
JP2015111332A (ja) * 2013-12-06 2015-06-18 富士通株式会社 姿勢検出装置、姿勢検出方法および姿勢検出プログラム

Also Published As

Publication number Publication date
US20050080513A1 (en) 2005-04-14
US7133744B2 (en) 2006-11-07
US20060015216A1 (en) 2006-01-19
US6980889B2 (en) 2005-12-27

Similar Documents

Publication Publication Date Title
JP2005115654A (ja) 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP3714268B2 (ja) ロボット装置
US8571714B2 (en) Robot with automatic selection of task-specific representations for imitation learning
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
Cruz et al. Multi-modal integration of dynamic audiovisual patterns for an interactive reinforcement learning scenario
CN109483534B (zh) 一种物体抓取方法、装置和系统
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2003269937A (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
Rozo et al. Robot learning from demonstration of force-based tasks with multiple solution trajectories
CN106022294B (zh) 一种面向智能机器人的人机交互方法及装置
JP2007276052A (ja) 制御システム、記録システム、情報処理装置および方法、プログラム、並びに記録媒体
Takano et al. Primitive communication based on motion recognition and generation with hierarchical mimesis model
JP4179230B2 (ja) ロボット装置及びその動作制御方法
Okamoto et al. Toward a dancing robot with listening capability: keypose-based integration of lower-, middle-, and upper-body motions for varying music tempos
KR20190075416A (ko) 디지털 에이전트 이동 매니퓰레이터 및 그 동작 방법
JP2005238422A (ja) ロボット装置、並びにその状態遷移モデル構築方法及び行動制御方法
Ramachandruni et al. Attentive task-net: Self supervised task-attention network for imitation learning using video demonstration
Rett et al. Gesture recognition using a marionette model and dynamic bayesian networks (dbns)
Wei A comprehensive approach to the generation of human-like arm movements on robot NAO
Bustos et al. Multimodal interaction with loki
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
Chalodhorn et al. Learning humanoid motion dynamics through sensory-motor mapping in reduced dimensional spaces
JP2006285898A (ja) 制御装置および方法、並びにプログラム
Jiang et al. Deep learning based human-robot co-manipulation for a mobile manipulator

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109