JP4649806B2 - Robot apparatus and shock absorbing method for robot apparatus - Google Patents
Robot apparatus and shock absorbing method for robot apparatus Download PDFInfo
- Publication number
- JP4649806B2 JP4649806B2 JP2001268125A JP2001268125A JP4649806B2 JP 4649806 B2 JP4649806 B2 JP 4649806B2 JP 2001268125 A JP2001268125 A JP 2001268125A JP 2001268125 A JP2001268125 A JP 2001268125A JP 4649806 B2 JP4649806 B2 JP 4649806B2
- Authority
- JP
- Japan
- Prior art keywords
- robot apparatus
- movable
- impact
- support member
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
- Vibration Dampers (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、落下等によって加わる衝撃を吸収する衝撃吸収機構を有するロボット装置及びそのロボット装置の衝撃吸収方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。
【0004】
これらの脚式移動ロボットは、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。
【0005】
脚式移動ロボットは、動物や人間の容姿にできる限り近い外観形状とされ、動物や人間の動作にできる限り近い動作を行うように設計されている。例えば、上述した4足歩行の「ペット型」ロボットの場合は、一般家庭において飼育される犬や猫に似た外観形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。
【0006】
【発明が解決しようとする課題】
ところで、ユーザがこのような脚式移動ロボットを扱っている際に、誤って落下させてしまうような状況が考えられる。
【0007】
従来、このような場合に脚式移動ロボットのメカ機構に加わる衝撃を吸収する機構はなく、部品の剛性によってメカ機構を保護していた。
【0008】
しかし、部品剛性が弱ければ、塑性変形及び破壊を生じるという問題点があり、特に「胴体」とされる本体から突出した頭部や脚部において顕著であった。
【0009】
本発明は、このような従来の実情に鑑みて提案されたものであり、落下等によって加わる衝撃を吸収する衝撃吸収機構を有するロボット装置、及びそのロボット装置の衝撃吸収方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述の課題を解決するために、本発明に係るロボット装置は、本体に対して可動とされる可動部が連結されてなるロボット装置であって、回転軸を有し、上記可動部を該回転軸により回転自在に支持する支持部材と、上記支持部材と上記本体とを接続する接続部材とを有し、上記接続部材は、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結され、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収することを特徴としている。
【0012】
また、ロボット装置においては、上記第1の取り付け部材は、上記接続部材に対して上記支持部材の方向に予圧をかける。
【0013】
このようなロボット装置は、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収される。
【0014】
また、上述した目的を達成するために、本発明に係るロボット装置の衝撃吸収方法は、本体に対して可動とされる可動部が連結されてなり、該可動部を回転軸により回転自在に支持する支持部材と、該支持部材と該本体とを接続する接続部材とを有するロボット装置の衝撃吸収方法であって、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結される上記接続部材によって、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収することを特徴としている。
【0016】
また、ロボット装置の衝撃吸収方法においては、上記第1の取り付け部材によって上記接続部材に対して上記支持部材の方向に予圧をかける。
【0017】
このようなロボット装置の衝撃吸収方法では、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収される。
【0018】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0019】
本発明の一構成例として示すロボット装置は、内部状態に応じて自律動作するロボット装置である。このロボット装置は、少なくとも上肢と体幹部と下肢とを備え、上肢及び下肢、又は下肢のみを移動手段とする脚式移動ロボットである。脚式移動ロボットには、4足歩行の動物の身体メカニズムやその動きを模倣したペット型ロボットや、下肢のみを移動手段として使用する2足歩行の動物の身体メカニズムやその動きを模倣したロボット装置があるが、本実施の形態として示すロボット装置は、4足歩行タイプの脚式移動ロボットである。
【0020】
このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、4足歩行の動物が行う基本的な動作を表出できるエンターテインメントロボットである。
【0021】
このロボット装置は、特に、頭部、胴体部、上肢部、下肢部等を有している。各部の連結部分及び関節に相当する部位には、運動の自由度に応じた数のアクチュエータ及びポテンショメータが備えられており、制御部の制御によって目標とする動作を表出できる。
【0022】
さらに、ロボット装置は、周囲の状況を画像データとして取得するための撮像部や、外部から受ける作用を検出するための各種センサや、外部から受ける物理的な働きかけ等を検出するための各種スイッチ等を備えている。撮像部としては、小型のCCD(Charge-Coupled Device)カメラを使用する。また、各種センサには、加速度を検出する加速度センサ、CCDカメラによって撮像した被写体までの距離を計測する距離センサ等がある。各種スイッチには、使用者によって触られたことを検出する接点型の押下スイッチ、使用者によって操作されたことを検出する操作スイッチ等がある。これらは、ロボット装置外部又は内部の適切な箇所に設置されている。
【0023】
また、本発明の一構成例として示すロボット装置は、胴体部に対して可動とされた頭部に加えられた衝撃を吸収する衝撃吸収機構を有している。
【0024】
本実施の形態については、先ずロボット装置の構成について説明し、その後ロボット装置における本発明の適用部分について詳細に説明する。
【0025】
ロボット装置1は、図1に示すように、胴体部ユニット2の前後左右に脚部ユニット3A、3B、3C、3Dが連結され、胴体部ユニット2の前端部に頭部ユニット4が連結されて構成されている。
【0026】
胴体部ユニット2には、図2に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェイス回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための加速度センサ19が収納されている。また、胴体部ユニット2には、鳴き声等の音声又はメロディを出力するためのスピーカ20が、図1に示すように所定位置に配置されている。また、胴体部ユニット2の尻尾部5には、使用者からの操作入力を検出する検出機構としての操作スイッチ21が備えられている。操作スイッチ21は、使用者による操作の種類を検出できるスイッチであって、ロボット装置1は、操作スイッチ21によって検出される操作の種類に応じて、例えば「誉められた」か「叱られた」かを認識する。
【0027】
頭部ユニット4には、外部の状況や対象物の色、形、動き等を撮像するためのCCD(Charge Coupled Device)カメラ22と、前方に位置する対象物までの距離を測定するための距離センサ23と、外部音を集音するためのマイク24と、例えばLED(Light Emitting Diode)を備えた発光部25等が、図1に示すように所定位置にそれぞれ配置されている。ただし、発光部25は、構成の説明等においては、必要に応じてLED25と示す。また、頭部ユニット4内部には、図1には図示しないが、ユーザの頭部ユニット4に対する接触を間接的に検出するための検出機構として頭部スイッチ26が備えられている。頭部スイッチ26は、例えば、使用者の接触によって頭部が動かされた場合、その傾き方向を検出できるスイッチであって、ロボット装置1は、頭部スイッチ26によって検出される頭部の傾き方向に応じて、「誉められた」か「叱られた」かを認識する。
【0028】
各脚部ユニット3A〜3Dの関節部分、各脚部ユニット3A〜3Dと胴体部ユニット2との連結部分、頭部ユニット4と胴体部ユニット2との連結部分には、自由度数分のアクチュエータ281〜28n及びポテンショメータ291〜29nがそれぞれ配設されている。アクチュエータ281〜28nは、例えば、サーボモータを備えている。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて目標の姿勢、或いは動作に遷移する。各脚部ユニット3A〜3Dの先端の「肉球」に相当する位置には、主としてユーザからの接触を検出する検出機構としての肉球スイッチ27A〜27Dが設けられ、ユーザによる接触等を検出できるようになっている。
【0029】
ロボット装置1は、このほかにも、ここでは図示しないが、該ロボット装置1の内部状態とは別の動作状態(動作モード)を表すための発光部や、充電中、起動中、起動停止等、内部電源の状態を表す状態ランプ等を、適切な箇所に適宜備えていてもよい。
【0030】
そして、ロボット装置1において、操作スイッチ21、頭部スイッチ26及び肉球スイッチ27等の各種スイッチと、加速度センサ19、距離センサ23等の各種センサと、スピーカ20、マイク24、発光部25、各アクチュエータ281〜28n、各ポテンショメータ291〜29nは、それぞれ対応するハブ301〜30nを介してコントロール部16の信号処理回路14と接続されている。一方、CCDカメラ22及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
【0031】
信号処理回路14は、上述の各種スイッチから供給されるスイッチデータ、各種センサから供給されるセンサデータ、画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これとともにバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、DRAM11内の所定位置に格納する。
【0032】
このようにしてDRAM11に格納された各スイッチデータ、各センサデータ、画像データ、音声データ及びバッテリ残量データは、CPU10が当該ロボット装置1の動作制御を行う際に使用される。
【0033】
CPU10は、ロボット装置1の電源が投入された初期時において、フラッシュROM12に格納された制御プログラムを読み出して、DRAM11に格納する。又は、CPU10は、図1に図示しない胴体部ユニット2のPCカードスロットに装着された半導体メモリ装置、例えば、メモリカード31に格納された制御プログラムをPCカードインターフェイス回路13を介して読み出してDRAM11に格納する。
【0034】
CPU10は、上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ、及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無を判断している。
【0035】
さらに、CPU10は、この判断結果とDRAM11に格納した制御プログラムとに基づく行動を決定する。CPU10は、当該決定結果に基づいてアクチュエータ281〜28nの中から必要とするアクチュエータを駆動することによって、例えば頭部ユニット4を上下左右に振らせたり、各脚部ユニット3A乃至3Dを駆動して歩行させたりする。また、CPU10は、必要に応じて音声データを生成し、信号処理回路14を介してスピーカ20に供給する。また、CPU10は、上述の発光部25におけるLEDの点灯及び消灯を指示する信号を生成し、発光部25を点灯したり消灯したりする。
【0036】
このように、ロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動する。
【0037】
ところで、本実施の形態として示すロボット装置1は、内部状態に応じて自律的に行動できるロボット装置である。ロボット装置1を制御する制御プログラムのソフトウェア構成の一例は、図3に示すようになる。この制御プログラムは、上述したように、予めフラッシュROM12に格納されており、ロボット装置1の電源投入初期時において読み出される。
【0038】
図3において、デバイス・ドライバ・レイヤ200は、制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット201から構成されている。この場合、各デバイス・ドライバは、CCDカメラ22(図2)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0039】
また、ロボティック・サーバ・オブジェクト202は、デバイス・ドライバ・レイヤ200の最下位層に位置し、例えば上述の各種センサやアクチュエータ281〜28n等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット203と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ204と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ205と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット206とから構成されている。
【0040】
マネージャ・オブジェクト207は、オブジェクト・マネージャ208及びサービス・マネージャ209から構成されている。オブジェクト・マネージャ208は、ロボティック・サーバ・オブジェクト202、ミドル・ウェア・レイヤ210、及びアプリケーション・レイヤ211に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ209は、メモリカード31(図2)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
【0041】
ミドル・ウェア・レイヤ210は、ロボティック・サーバ・オブジェクト202の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ211は、ミドル・ウェア・レイヤ210の上位層に位置し、当該ミドル・ウェア・レイヤ210を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0042】
なお、ミドル・ウェア・レイヤ210及びアプリケーション・レイヤ211の具体的なソフトウェア構成をそれぞれ図4及び図5に示す。
【0043】
ミドル・ウェア・レイヤ210は、図4に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、接触検出用、操作入力検出用、動き検出用及び色認識用の各信号処理モジュール220〜229並びに入力セマンティクスコンバータモジュール230などを有する認識系250と、出力セマンティクスコンバータモジュール247並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール240〜246等を有する出力系251とから構成されている。
【0044】
認識系250の各信号処理モジュール220〜229は、ロボティック・サーバ・オブジェクト202のバーチャル・ロボット203によりDRAM11(図2)から読み出される各スイッチデータ、各センサデータ、音声データ又は画像データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール230に与える。ここで、例えば、バーチャル・ロボット203は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
【0045】
入力セマンティクスコンバータモジュール230は、これら各信号処理モジュール220〜228から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ドミソの音階が聞こえた」、「障害物を検出した」、「転倒を検出した」、「叱られた」、「誉められた」、「動く物体を検出した」又は「ボールを検出した」等の自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ211に出力する。
【0046】
アプリケーション・レイヤ211は、図5に示すように、行動モデルライブラリ260、行動切換モジュール261、学習モジュール262、感情モデル263及び本能モデル264の5つのモジュールから構成されている。
【0047】
行動モデルライブラリ260には、図6に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する場合」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデルが設けられている。
【0048】
そして、これら行動モデルは、それぞれ入力セマンティクスコンバータモジュール230から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル263に保持されている対応する情動のパラメータ値や、本能モデル264に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール261に出力する。
【0049】
なお、本具体例として示すロボット装置1の場合、各行動モデルは、次の行動を決定する手法として、図7に示すような1つのノード(状態)NODE0〜NODEnから他のどのノードNODE0〜NODEnに遷移するかを有限確率オートマトンと呼ばれるアルゴリズムを用いて次の行動を決定している。有限確率オートマトンとは、ノードNODE0〜NODEnのうちの1つのノードから他のどのノードに遷移するか否かを各ノードNODE0〜NODEnの間を接続するアークARC1〜ARCn−1に対してそれぞれ設定された遷移確率P1〜Pnに基づいて確率的に決定するアルゴリズムである。
【0050】
具体的に、各行動モデルは、それぞれ自己の行動モデルを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらノードNODE0〜NODEn毎に図8に示すような状態遷移表270を有している。
【0051】
この状態遷移表270では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の行に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。
【0052】
したがって、図8の状態遷移表270で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果とともに与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果とともに与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
【0053】
また、このノードNODE100では、認識結果の入力がない場合でも、行動モデルが周期的に参照する感情モデル263及び本能モデル264にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル263に保持された「喜び(Joy)」、「驚き(Surprise)」若しくは「悲しみ(Sadness)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0054】
また、状態遷移表270では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE0〜NODEnから遷移できるノード名が列記されているとともに、「入力イベント名」、「データ名」及び「データの範囲」の行に記述された全ての条件が揃ったときに遷移できるほかの各ノードNODE0〜NODEnへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE0〜NODEnに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
【0055】
したがって、図8の状態遷移表270で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
【0056】
各行動モデルは、それぞれこのような状態遷移表270として記述されたノードNODE0〜 NODEnが幾つも繋がるようにして構成されており、入力セマンティクスコンバータモジュール230から認識結果が与えられたときなどに、対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール261に出力するようになされている。
【0057】
図5に示す行動切換モジュール261は、行動モデルライブラリ260の各行動モデルからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ210の出力セマンティクスコンバータモジュール247に送出する。なお、この実施の形態においては、図7において下側に表記された行動モデルほど優先順位が高く設定されている。
【0058】
また、行動切換モジュール261は、行動完了後に出力セマンティクスコンバータモジュール247から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール262、感情モデル263及び本能モデル264に通知する。
【0059】
学習モジュール262は、入力セマンティクスコンバータモジュール230から与えられる認識結果のうち、「叱られた」や「誉められた」等、使用者からの働きかけとして受けた教示の認識結果を入力する。そして、学習モジュール262は、この認識結果及び行動切換モジュール261からの通知に基づいて、「叱られた」ときにはその行動の発現確率を低下させ、「誉められた」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ260における対応する行動モデルの対応する遷移確率を変更する。
【0060】
また、感情モデル263は、「喜び(Joy)」、「悲しみ(Sadness)」、「怒り(Anger)」、「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐れ(Fear)」の合計6つの情動について、各情動毎にその情動の強さを表すパラメータを保持している。そして、感情モデル263は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール230から与えられる「叱られた」及び「誉められた」などの特定の認識結果と、経過時間及び行動切換モジュール261からの通知となどに基づいて周期的に更新する。
【0061】
具体的には、感情モデル263は、入力セマンティクスコンバータモジュール230から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間となどに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkeとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル263は、これと同様にして全ての情動のパラメータ値を更新する。
【0062】
【数1】
【0063】
なお、各認識結果や出力セマンティクスコンバータモジュール247からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叱られた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「誉められた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
【0064】
ここで、出力セマンティクスコンバータモジュール247からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル263は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール247からの通知は、上述した学習モジュール262にも入力されており、学習モジュール262は、その通知に基づいて行動モデルの対応する遷移確率を変更する。
【0065】
なお、行動結果のフィードバックは、行動切換モジュール261の出力(感情が付加された行動)によりなされるものであってもよい。
【0066】
また、本能モデル264は、「運動欲(exercise)」、「愛情欲(affection)」、「充電欲(以下、食欲(appetite)と記す。)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを表すパラメータを保持している。そして、本能モデル264は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール230から与えられる認識結果や、経過時間及び行動切換モジュール261からの通知などに基づいて周期的に更新する。
【0067】
具体的には、本能モデル264は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール247からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kiとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル264は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
【0068】
【数2】
【0069】
なお、認識結果及び出力セマンティクスコンバータモジュール247からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール247からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
【0070】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求毎に個別に設定されている。
【0071】
ミドル・ウェア・レイヤ210の出力セマンティクスコンバータモジュール247は、図4に示すように、上述のようにしてアプリケーション・レイヤ211の行動切換モジュール261から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系251の対応する信号処理モジュール240〜246に与える。
【0072】
そしてこれら信号処理モジュール240〜246は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動をするために対応するアクチュエータ281〜28n(図2)に与えるべきサーボ指令値や、スピーカ20(図2)から出力する音の音声データ及び/又は発光部25(図2)のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト202のバーチャル・ロボット203及び信号処理回路14(図2)を介して対応するアクチュエータ281〜28n、スピーカ20又は発光部25に順次送出する。
【0073】
このようにしてロボット装置1は、制御プログラムに基づいて自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動ができる。
【0074】
続いて、以下に、本発明の適用部分である衝撃吸収機構について詳細に説明する。この衝撃吸収機構は、例えば落下等によりロボット装置1の頭部ユニット4に加えられた衝撃を弾性部材の弾性力により吸収するものである。
【0075】
具体的に、落下等により頭部ユニット4に対して図9の矢印aで示す方向に衝撃が加わった場合を考える。ここで、ロボット装置1の「頸部」に相当する可動部材130は、支持部材120に連結され、支持部材120は、弾性部材110の一端において取付部材160a,160bを介して結合固定されている。また、弾性部材110の他端においては、胴体部ユニット2の内部に格納される内部筐体140と取付部材160c乃至160fを介して連結されている。このように、弾性部材110は、その一端において取付部品160c乃至160fを介して内部筐体140と接続されているが、他端においては内部筐体140に対して固定されていない。したがって、図中矢印aで示す方向に衝撃が加わった場合には、取付部品160e,160fを支点として弾性部材110が撓むとともに、可動部材130及び支持部材120が内部筐体140に対して図中矢印bで示す方向に移動する。この弾性部材110の弾性変形によって衝撃が吸収される。
【0076】
以下、このような衝撃吸収機構の構成について詳細に説明する。ここで、以下の記載において、垂直とは、ロボット装置1の腹部から背部へと貫通する方向を指し、水平とは、ロボット装置1の肩部と尻尾部とを結ぶ方向を指すものとする。なお、この方向は説明の便宜上決定したものであって、本実施の形態で示す方向のみに限定されない。
【0077】
衝撃吸収機構における弾性部材110及び支持部材120の詳細を図10に示す。弾性部材110は、例えば板バネ等の弾性を有するものである。この弾性部材110は、略長方形形状の部材の1つの短辺に接して略長方形形状の部材が切り抜かれて、基部111と2つの腕部112a,112bとを有する略コの字形状とされている。さらに、この腕部112a,112bは、後述する内部筐体140の形状に合わせて、水平面113a,113b、傾斜面114a,114b、及び垂直面115a,115bを有するように折曲加工され、折曲部には、補強のためのリブ116a乃至116dが設けられている。
【0078】
腕部112a,112bの垂直面115a,115bの一端には、後述する取付部品160a,160bを挿通するための挿通孔117a,117bが設けられている。また、垂直面115a,115bには、切り起こし片118a,118bが設けられており、その先端は、垂直面115a,115bと略平行となるように、折曲加工されている。弾性部材110と支持部材120とは、後述するように、この取付部品160a,160b及び切り起こし片118a,118bを介して接続固定される。さらに、垂直面115a,115bの端部には、弾性部材110の裏面に向かって折曲部119a,119bが設けられている。この折曲部119a,119bについては、後述する。
【0079】
基部111の一端には、内部筐体140と接続するための後述する取付部品160c及び160dがそれぞれ挿通する挿通孔117c及び117dが設けられている。また、腕部112a,112bの水平面113a,113bの一端には、取付部品160e,160fを挿通するための挿通孔117e,117fが設けられている。弾性部材110と内部筐体140とは、この160c乃至160fを介して接続固定される。
【0080】
一方、支持部材120は、図10に示すように、後述する可動部材130を駆動するための駆動モータ121を有している。また、支持部材120は、可動部材130を軸装するための回転軸122を有している。駆動モータ121の回転力は、図示しないギアを介して回転軸122に伝えられ、これにより、可動部材130は、回転軸122を回転中心として略90°の回転角の範囲内で、開口部123の領域を回転駆動される。
【0081】
また、支持部材120は、水平面124a,124b、傾斜面125a,125b、及び垂直面126a,126bとを有しており、これらの面において弾性部材110と接するようになされている。ここで、弾性部材110の水平面113a,113bが支持部材120の水平面124a,124bに、傾斜面114a,114bが傾斜面125a,125bに、垂直面115a,115bが垂直面126a,126bにそれぞれ対応する。
【0082】
また、垂直面126a,126bには、上述した切り起こし片118a,118bを係止するための係止口127a,127bと取付部品160a,160bを挿通するための挿通孔128a,128bとが設けられている。
【0083】
ところで、上述した弾性部材110と支持部材120とは、取付部品160a,160b及び切り起こし片118a,118bを介して接続固定される。以下、詳細に説明する。図11に示すように、切り起こし片118a,118bは、水平部150a,150bと垂直部151a,151bとを有している。また、水平部150a,150bの長さは、支持部材120の垂直面126a,126bにおける部材の厚さと略同一とされている。この切り起こし片118a,118bが、支持部材120の係止口127a,127bに係止されることで、弾性部材110が支持部材120に係止される。さらに、取付部品160a,160bが弾性部材110の挿通孔117a,117b及び支持部材120の挿通孔128a,128bに挿通されることによって、結合固定される。
【0084】
本実施の形態における衝撃吸収機構は、上述のように接続固定された弾性部材11及び支持部材120に、ロボット装置1の「頸部」に相当する可動部材130が接続されることで構成される。すなわち、図12に示すように、可動部材130は、略円筒形状を有し、支持部材120の回転軸122により回動自在に軸装される。
【0085】
支持部材120と弾性部材110とは、例えば螺子である取付部品160a,160bによって接続される。
【0086】
また、弾性部材110と内部筐体140とは、取付部品160c乃至160fによって接続される。具体的には、図13に示すように、弾性部材110の挿通孔117c乃至117fと内部筐体140の挿通孔141c乃至141fとに取付部品160c乃至160fが挿通されることによって結合固定される。これにより、内部筐体140の上部にある解放部が弾性部材110によって覆われ、支持部材120は、内部筐体140の内部に格納される。すなわち、弾性部材110は、内部筐体140の一部を構成するものである。
内部筐体140の前面には、切欠部142a,142bが設けられており、この切欠部142a,142bにおいて上述した弾性部材110の折曲部119a,119bが係合される。さらに、図14に示すように、内部筐体140の前面の縁部143a,143bに弾性部材110の裏面が接することで位置決めされる。
【0087】
ここで、図15に示すように、取付部品160c,160dは、取付部品160e,160fよりも上方に位置するように構成されている。この結果、弾性部材110には支持部材120の方向に向かって予圧が与えられるため、通常の動作時に弾性部材110の撓みが生じず、ガタつくことがない。さらに、この予圧によって、弾性部材110の裏面が内部筐体140の縁部143a,143bの方向に向かって圧接される。
【0088】
以上のような構成を有する衝撃吸収機構の可動部材130に対して、例えば落下等により、上述した図9中の矢印aで示す方向に衝撃が加わった場合を考える。弾性部材110は、その一端において取付部品160c乃至160fによって内部筐体140と接続されているが、他端においては内部筐体140に対して固定されていない。したがって、図中矢印aで示す方向に衝撃が加わった場合には、取付部品160e,160fを支点として弾性部材110が撓み、内部筐体140の縁部143a,143bから離反するとともに、可動部材130及び支持部材120が内部筐体140に対して図中矢印bで示す方向に移動する。この弾性変形によって衝撃が吸収される。
【0089】
このように、本実施の形態における衝撃吸収機構によれば、弾性部材110の一端において可動部材130を支持する支持部材120が接続され、他端において内部筐体140が接続されることで、弾性部材110の弾性力により、可動部材130に加わった衝撃を吸収することができる。
【0090】
なお、本発明は、上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。例えば、本実施の形態では、4足歩行の脚式移動ロボットに関して説明したが、ロボット装置は、内部状態に応じて動作するものであれば適用可能であって、移動手段は、4足歩行、さらには脚式移動方式に限定されない。
【0091】
また、本実施の形態では、衝撃吸収機構は、頭部ユニットへの衝撃を吸収するものとして説明したが、これに限定されるものではなく、脚部ユニット等についても同様の機構を備えることにより、これらに加わる衝撃を吸収することが可能となる。
【0092】
【発明の効果】
以上詳細に説明したように本発明に係るロボット装置は、本体に対して可動とされる可動部が連結されてなるロボット装置であって、上記可動部を可動に支持する支持部材と、上記支持部材と上記本体とを接続する接続部材とを有し、上記接続部材は、上記可動部に加えられた衝撃を吸収することを特徴としている。
【0093】
ここで、ロボット装置においては、上記接続部材の一端に上記本体が連結されるとともに、他端に上記支持部が連結されており、上記接続部材が弾性変形することにより、上記可動部に加えられた衝撃が吸収される。
【0094】
また、ロボット装置においては、上記接続部材及び上記支持部材のがたつきを防止するために、上記本体に対する方向に予圧をかけて、上記本体と上記接続部材とが連結される。
【0095】
このようなロボット装置によれば、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収され、ロボット装置のメカ機構が塑性変形又は破壊等することを防止することができる。
【0096】
また、本発明に係るロボット装置の衝撃吸収方法は、本体に対して可動とされる可動部が連結されてなるロボット装置の衝撃吸収方法であって、上記可動部を可動に支持する支持部と上記本体とを接続する接続部材によって、上記可動部に加えられた衝撃を吸収することを特徴としている。
【0097】
ここで、ロボット装置の衝撃吸収方法においては、上記接続部材の一端に上記本体が連結されるとともに、他端に上記支持部が連結されており、上記接続部材が弾性変形することにより、上記可動部に加えられた衝撃が吸収される。
【0098】
また、ロボット装置の衝撃吸収方法においては、上記接続部材及び上記支持部材のがたつきを防止するために、上記本体に対する方向に予圧をかけて、上記本体と上記接続部材とが接続される。
【0099】
このようなロボット装置の衝撃吸収方法によれば、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収され、ロボット装置のメカ機構が塑性変形又は破壊等することを防止することができる。
【図面の簡単な説明】
【図1】本発明の一構成例として示すロボット装置の外観を示す外観図である。
【図2】本発明の一構成例として示すロボット装置の構成を示す構成図である。
【図3】本発明の一構成例として示すロボット装置の制御プログラムのソフトウェア構成を示す構成図である。
【図4】本発明の一構成例として示すロボット装置の制御プログラムのうち、ミドル・ウェア・レイヤの構成を示す構成図である。
【図5】本発明の一構成例として示すロボット装置の制御プログラムのうち、アプリケーション・レイヤの構成を示す構成図である。
【図6】本発明の一構成例として示すロボット装置の制御プログラムのうち、行動モデルライブラリの構成を示す構成図である。
【図7】本発明の一構成例として示すロボット装置の行動を決定するためのアルゴリズムである有限確率オートマトンを説明する模式図である。
【図8】本発明の一構成例として示すロボット装置の行動を決定するための状態遷移条件を表す図である。
【図9】本発明の一構成例として示すロボット装置における衝撃吸収機構によって衝撃が吸収される様子を説明する側面図である。
【図10】同衝撃吸収機構における弾性部材及び支持部材の構成を示す斜視図である。
【図11】同弾性部材と同支持部材との接続を説明する断面図である。
【図12】同衝撃吸収機構の構成を示す側面図である。
【図13】同衝撃吸収機構と本体との連結を説明する斜視図である。
【図14】同弾性部材と同本体との接続を説明する斜視図である。
【図15】同弾性部材に予圧がかけられる構成を説明する側面図である。
【符号の説明】
1 ロボット装置、2 胴体部ユニット、3A,3B,3C,3D 脚部ユニット、4 頭部ユニット、5 尻尾部、110 弾性部材、111 基部、112a,112b 腕部、117a,117b,117c,117d 挿通孔、118a,118b 切り起こし片、119a,119b 折曲部、120 支持部材、121 駆動モータ、122 回転軸、127a,127b 係止口、128a,128b 挿通孔、130 可動部位、140 内部筐体、141c,141d,141e,141f 挿通孔、142a,142b 切欠部、143a,143b 縁部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus having an impact absorbing mechanism for absorbing an impact applied by dropping or the like, and an impact absorbing method for the robot apparatus.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, a “pet-type” robot that mimics the body mechanism and movement of a four-legged animal such as a dog or cat, or a body mechanism or movement of an animal that walks upright on two legs. Legged mobile robots such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these legged mobile robots can perform various operations with an emphasis on entertainment properties as compared with industrial robots, they may be called entertainment robots.
[0005]
The legged mobile robot has an appearance shape as close as possible to the appearance of animals and humans, and is designed to perform movements as close as possible to the movements of animals and humans. For example, in the case of the above-described four-legged “pet-type” robot, it has an external shape similar to a dog or a cat raised in a general home, and the user (owner) makes a “slap” or “boil” action. And behave autonomously according to the surrounding environment. For example, as an autonomous behavior, the behavior such as “barking” and “sleeping” is performed in the same manner as an actual animal.
[0006]
[Problems to be solved by the invention]
By the way, when the user is handling such a legged mobile robot, there may be a situation where the user accidentally drops the robot.
[0007]
Conventionally, there is no mechanism for absorbing the impact applied to the mechanical mechanism of the legged mobile robot in such a case, and the mechanical mechanism is protected by the rigidity of the parts.
[0008]
However, if the component rigidity is weak, there is a problem that plastic deformation and destruction occur, and this is particularly noticeable in the head and legs protruding from the main body, which is the “body”.
[0009]
The present invention has been proposed in view of such a conventional situation, and an object of the present invention is to provide a robot apparatus having an impact absorbing mechanism that absorbs an impact caused by dropping or the like, and an impact absorbing method for the robot apparatus. And
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems, a robot apparatus according to the present invention is a robot apparatus in which a movable part that is movable with respect to a main body is connected, Having a rotation axis, The movable part Freely rotatable by the rotating shaft A supporting member that supports the connecting member, and a connecting member that connects the supporting member and the main body; The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable part, the first mounting member is bent as a fulcrum, and the movable part and the support member are moved in a direction opposite to the direction in which the movable part is moved by the impact. Move It is characterized by absorbing an impact applied to the movable part.
[0012]
Moreover, in the robot device, The first attachment member preloads the connection member in the direction of the support member. .
[0013]
In such a robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is absorbed by elastic deformation of the connecting member.
[0014]
In order to achieve the above-described object, the impact absorbing method of the robot apparatus according to the present invention includes a movable part that is movable with respect to the main body. And a support member that rotatably supports the movable portion by a rotating shaft, and a connection member that connects the support member and the main body. A shock absorbing method for a robot apparatus, The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable portion by the connecting member to which the movable portion is coupled, the first mounting member is bent as a fulcrum, and the movable portion and the support member are moved in a direction in which the movable portion is moved by the impact. Move in the opposite direction It is characterized by absorbing an impact applied to the movable part.
[0016]
Moreover, in the shock absorbing method of the robot apparatus, A preload is applied in the direction of the support member to the connection member by the first attachment member. .
[0017]
In such a shock absorbing method of the robot apparatus, for example, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the shock is absorbed by elastic deformation of the connecting member. The
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0019]
A robot apparatus shown as one configuration example of the present invention is a robot apparatus that autonomously operates according to an internal state. This robot apparatus is a legged mobile robot that includes at least an upper limb, a trunk, and a lower limb, and uses only the upper limb and the lower limb or the lower limb as a moving means. Legged mobile robots include a pet-type robot that mimics the body mechanism and movement of a quadruped animal, and a robot device that mimics the body mechanism and movement of a biped animal that uses only the lower limbs as moving means. However, the robot apparatus shown as the present embodiment is a quadruped walking type legged mobile robot.
[0020]
This robotic device is a practical robot that supports human activities in various situations in daily life such as the living environment, and can act according to internal conditions (anger, sadness, joy, fun, etc.) and walk on four legs It is an entertainment robot that can express the basic movements of animals.
[0021]
This robot apparatus has in particular a head, a torso, an upper limb, a lower limb, and the like. The number of actuators and potentiometers corresponding to the degree of freedom of movement are provided in the portions corresponding to the connecting parts and joints of each part, and a target action can be expressed by the control of the control part.
[0022]
Furthermore, the robot apparatus includes an imaging unit for acquiring surrounding conditions as image data, various sensors for detecting an action received from the outside, various switches for detecting a physical action received from the outside, and the like. It has. A small CCD (Charge-Coupled Device) camera is used as the imaging unit. The various sensors include an acceleration sensor that detects acceleration, a distance sensor that measures a distance to a subject imaged by a CCD camera, and the like. The various switches include a contact-type push switch that detects touching by the user, and an operation switch that detects operation by the user. These are installed at appropriate locations outside or inside the robot apparatus.
[0023]
A robot apparatus shown as an example of the present invention includes an impact absorbing mechanism that absorbs an impact applied to the head that is movable with respect to the body.
[0024]
As for the present embodiment, the configuration of the robot apparatus will be described first, and then the application part of the present invention in the robot apparatus will be described in detail.
[0025]
As shown in FIG. 1, the
[0026]
As shown in FIG. 2, the
[0027]
The
[0028]
The joint portions of the
[0029]
In addition to this, the
[0030]
In the
[0031]
The
[0032]
The switch data, sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this way are used when the CPU 10 controls the operation of the
[0033]
The CPU 10 reads out the control program stored in the
[0034]
As described above, the CPU 10 determines its own and surrounding conditions, instructions from the user, and actions based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM 11 from the
[0035]
Further, the CPU 10 determines an action based on the determination result and the control program stored in the DRAM 11. The CPU 10 determines the actuator 28 based on the determination result. 1 ~ 28 n By driving a necessary actuator from among the above, for example, the
[0036]
Thus, the
[0037]
By the way, the
[0038]
In FIG. 3, the
[0039]
The
[0040]
The
[0041]
The
[0042]
Specific software configurations of the
[0043]
As shown in FIG. 4, the
[0044]
Each of the
[0045]
Based on the processing result given from each of these
[0046]
As shown in FIG. 5, the
[0047]
In the
[0048]
Each of these behavior models has an emotion as described later as necessary when a recognition result is given from the input
[0049]
In the case of the
[0050]
Specifically, each behavior model is a node NODE that forms its own behavior model. 0 ~ NODE n Correspond to each of these nodes NODE 0 ~ NODE n Each has a state transition table 270 as shown in FIG.
[0051]
In this state transition table 270, the node NODE 0 ~ NODE n Input events (recognition results) as transition conditions in are listed in the order of priority in the “input event name” row, and further conditions for the transition conditions are described in the corresponding columns in the “data name” and “data range” rows Has been.
[0052]
Therefore, the node NODE represented by the state transition table 270 of FIG. 100 Then, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is in the range of “0 to 1000”, “ If the recognition result “OBSTACLE” is given, the other node has a “distance” to the obstacle given with the recognition result in the range of “0 to 100”. It is a condition for transition to.
[0053]
This node NODE 100 Then, even when there is no input of the recognition result, among the emotion and each desire parameter value held in the emotion model 263 and the instinct model 264 periodically referred to by the behavior model, the emotion model 263 holds “ When one of the parameter values of “Joy”, “Surprise” or “Sadness” is in the range of “50 to 100”, it is possible to transition to another node. .
[0054]
In the state transition table 270, the node NODE is displayed in the “transition destination node” column in the “transition probability to other node” column. 0 ~ NODE n The node names that can be transitioned from are listed, and each other node NODE that can transition when all the conditions described in the "input event name", "data name", and "data range" lines are met 0 ~ NODE n The transition probabilities to are respectively described in the corresponding places in the “transition probabilities to other nodes” column, and the node NODE 0 ~ NODE n The action to be output when transitioning to is described in the “output action” line in the “transition probability to other node” column. The sum of the probabilities of each row in the “transition probability to other node” column is 100 [%].
[0055]
Therefore, the node NODE represented by the state transition table 270 of FIG. 100 Then, for example, when “ball is detected (BALL)” and a recognition result is given that the “SIZE (size)” of the ball is in the range of “0 to 1000”, “30 [%]” The probability of “node NODE 120 (Node 120) ", and the action of"
[0056]
Each behavior model has a node NODE described as such a state transition table 270. 0 ~ NODE n Are connected to each other, and when a recognition result is given from the input
[0057]
The
[0058]
Further, the
[0059]
The learning module 262 inputs the recognition result of the teaching received as an action from the user, such as “beated” or “admired” among the recognition results given from the input
[0060]
The emotion model 263 is the sum of “Joy”, “Sadness”, “Anger”, “Surprise”, “Disgust” and “Fear”. For each of the six emotions, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion model 263 uses the parameter values of these emotions as the specific recognition results such as “beated” and “admired” given from the input
[0061]
Specifically, the emotion model 263 is obtained by a predetermined arithmetic expression based on the recognition result given from the input
[0062]
[Expression 1]
[0063]
It should be noted that how much each notification result and notification from the output
[0064]
Here, the notification from the output
[0065]
The feedback of the action result may be performed by the output of the action switching module 261 (the action to which the emotion is added).
[0066]
The instinct model 264 includes “exercise”, “affection”, “charge desire” (hereinafter referred to as “appetite”), and “curiosity”. For each of the four desires, a parameter representing the strength of the desire is held for each of these desires. The instinct model 264 periodically updates the parameter values of these desires based on the recognition result given from the input
[0067]
Specifically, the instinct model 264 uses a predetermined arithmetic expression for “exercise greed”, “loving lust” and “curiosity” based on the recognition result, elapsed time, notification from the output
[0068]
[Expression 2]
[0069]
It should be noted that how much the recognition result and the notification from the output
[0070]
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range from 0 to 100, respectively, and the coefficient k e , K i The value of is also set individually for each emotion and each desire.
[0071]
As shown in FIG. 4, the output
[0072]
When the action command is given, these
[0073]
In this way, the
[0074]
Subsequently, the impact absorbing mechanism, which is an application portion of the present invention, will be described in detail below. The impact absorbing mechanism absorbs an impact applied to the
[0075]
Specifically, a case where an impact is applied to the
[0076]
Hereinafter, the configuration of such an impact absorbing mechanism will be described in detail. Here, in the following description, “vertical” refers to a direction penetrating from the abdomen to the back of the
[0077]
Details of the
[0078]
At one end of the
[0079]
One end of the
[0080]
On the other hand, as shown in FIG. 10, the
[0081]
The
[0082]
The
[0083]
By the way, the
[0084]
The shock absorbing mechanism in the present embodiment is configured by connecting the
[0085]
The
[0086]
Further, the
[0087]
Here, as shown in FIG. 15, the
[0088]
Consider a case where an impact is applied to the
[0089]
As described above, according to the shock absorbing mechanism in the present embodiment, the
[0090]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. For example, although the present embodiment has been described with respect to a quadruped legged mobile robot, the robot apparatus can be applied as long as it operates according to the internal state, and the moving means is a quadruped walking, Furthermore, it is not limited to the leg type movement method.
[0091]
In the present embodiment, the shock absorbing mechanism is described as absorbing the shock to the head unit. However, the present invention is not limited to this, and the leg unit and the like are provided with the same mechanism. It is possible to absorb the impact applied to these.
[0092]
【The invention's effect】
As described above in detail, the robot apparatus according to the present invention is a robot apparatus in which a movable part that is movable with respect to a main body is coupled, and a support member that movably supports the movable part; It has a connection member which connects a member and the above-mentioned main part, and the above-mentioned connection member absorbs an impact applied to the above-mentioned movable part, It is characterized by the above-mentioned.
[0093]
Here, in the robot apparatus, the main body is coupled to one end of the connection member, and the support portion is coupled to the other end, and the connection member is elastically deformed to be applied to the movable portion. The shock is absorbed.
[0094]
Moreover, in the robot apparatus, in order to prevent the connection member and the support member from rattling, the main body and the connection member are coupled by applying a preload in a direction with respect to the main body.
[0095]
According to such a robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is absorbed by the elastic deformation of the connecting member, and the robot It is possible to prevent the mechanical mechanism of the apparatus from being plastically deformed or broken.
[0096]
The impact absorbing method for a robot apparatus according to the present invention is an impact absorbing method for a robot apparatus in which a movable part movable with respect to a main body is connected, and a support part for movably supporting the movable part; An impact applied to the movable part is absorbed by a connecting member that connects the main body.
[0097]
Here, in the impact absorbing method of the robot apparatus, the main body is coupled to one end of the connection member, and the support portion is coupled to the other end, and the movable member is elastically deformed to thereby move the movable member. The impact applied to the part is absorbed.
[0098]
Further, in the impact absorbing method of the robot apparatus, in order to prevent the connection member and the support member from rattling, the main body and the connection member are connected by applying a preload to the main body.
[0099]
According to such a shock absorbing method of the robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is caused by elastic deformation of the connecting member. Absorbed, the mechanical mechanism of the robot apparatus can be prevented from being plastically deformed or broken.
[Brief description of the drawings]
FIG. 1 is an external view showing an external appearance of a robot apparatus shown as one configuration example of the present invention.
FIG. 2 is a configuration diagram showing a configuration of a robot apparatus shown as an example of the configuration of the present invention.
FIG. 3 is a configuration diagram showing a software configuration of a control program of the robot apparatus shown as an example of the configuration of the present invention.
FIG. 4 is a configuration diagram showing a configuration of a middleware layer in a control program for a robot apparatus shown as one configuration example of the present invention.
FIG. 5 is a configuration diagram showing a configuration of an application layer in a control program for a robot apparatus shown as an example of the configuration of the present invention.
FIG. 6 is a configuration diagram showing a configuration of an action model library in a control program for a robot apparatus shown as an exemplary configuration of the present invention.
FIG. 7 is a schematic diagram illustrating a finite probability automaton that is an algorithm for determining the behavior of the robot apparatus shown as an example of the configuration of the present invention.
FIG. 8 is a diagram showing a state transition condition for determining the behavior of the robot apparatus shown as one configuration example of the present invention.
FIG. 9 is a side view illustrating a state in which an impact is absorbed by an impact absorbing mechanism in the robot apparatus shown as an example of the configuration of the present invention.
FIG. 10 is a perspective view showing configurations of an elastic member and a support member in the shock absorbing mechanism.
FIG. 11 is a cross-sectional view illustrating the connection between the elastic member and the support member.
FIG. 12 is a side view showing the configuration of the shock absorbing mechanism.
FIG. 13 is a perspective view illustrating the connection between the shock absorbing mechanism and the main body.
FIG. 14 is a perspective view for explaining connection between the elastic member and the main body.
FIG. 15 is a side view illustrating a configuration in which a preload is applied to the elastic member.
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
回転軸を有し、上記可動部を該回転軸により回転自在に支持する支持部材と、
上記支持部材と上記本体とを接続する接続部材とを有し、
上記接続部材は、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結され、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収するロボット装置。A robot apparatus in which a movable part that is movable with respect to a main body is connected,
A support member having a rotation shaft and rotatably supporting the movable portion by the rotation shaft ;
A connecting member for connecting the support member and the main body;
The connection member is bent in the rotation direction of the movable part, the main body is coupled to one end of the connection member via a first attachment member, and a second attachment member is connected to the other end of the connection member. When the impact is applied to the movable part, the first attachment member is bent as a fulcrum when the impact is applied to the movable part, and the movable part and the support member are moved in a direction in which the movable part is moved by the impact. Is a robot apparatus that absorbs the impact applied to the movable part by moving in the opposite direction .
上記可動部材は、上記ロボット装置の頭部を構成する請求項1記載のロボット装置。The robot apparatus has a shape imitating an animal,
The movable member is a robot apparatus according to claim 1, wherein that make up the head of the robot apparatus.
上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結される上記接続部材によって、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収するロボット装置の衝撃吸収方法。 Ri Na the movable portion which is movable is connected to the main body, the robot device comprising a supporting member for rotatably supporting the movable portion by a rotation shaft, and a connecting member for connecting the said support member and said body The shock absorbing method of
The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable portion by the connecting member to which the movable portion is coupled, the first mounting member is bent as a fulcrum, and the movable portion and the support member are moved in a direction in which the movable portion is moved by the impact. Is a shock absorbing method for a robotic device that absorbs an impact applied to the movable part by moving in the opposite direction .
上記可動部材は、上記ロボット装置の頭部を構成する請求項4記載のロボット装置の衝撃吸収方法。The robot apparatus has a shape imitating an animal,
Said movable member, the shock-absorbing method of the robot apparatus according to claim 4, wherein that make up the head of the robot apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001268125A JP4649806B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and shock absorbing method for robot apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001268125A JP4649806B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and shock absorbing method for robot apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003071755A JP2003071755A (en) | 2003-03-12 |
JP4649806B2 true JP4649806B2 (en) | 2011-03-16 |
Family
ID=19094153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001268125A Expired - Fee Related JP4649806B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and shock absorbing method for robot apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4649806B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105108747A (en) * | 2015-08-04 | 2015-12-02 | 深圳市金刚蚁机器人技术有限公司 | Device for achieving seamless motion of head and neck of robot and method for device |
CN108544512A (en) * | 2018-06-26 | 2018-09-18 | 慈溪市小艺机器人科技有限公司 | A kind of robot that can cultivate children operating capability ability |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005125436A (en) * | 2003-10-22 | 2005-05-19 | Kawada Kogyo Kk | Floating support structure for protruding part of walking robot |
WO2019088160A1 (en) * | 2017-11-01 | 2019-05-09 | Groove X株式会社 | Autonomously acting robot capable of executing reflex action |
CN113492977A (en) * | 2020-04-07 | 2021-10-12 | 隆安良 | Full-automatic topographic map mapping device of robot |
-
2001
- 2001-09-04 JP JP2001268125A patent/JP4649806B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105108747A (en) * | 2015-08-04 | 2015-12-02 | 深圳市金刚蚁机器人技术有限公司 | Device for achieving seamless motion of head and neck of robot and method for device |
CN108544512A (en) * | 2018-06-26 | 2018-09-18 | 慈溪市小艺机器人科技有限公司 | A kind of robot that can cultivate children operating capability ability |
CN108544512B (en) * | 2018-06-26 | 2021-07-27 | 慈溪市小艺机器人科技有限公司 | Robot capable of cultivating child manual ability |
Also Published As
Publication number | Publication date |
---|---|
JP2003071755A (en) | 2003-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7062356B2 (en) | Robot apparatus, control method for robot apparatus, and toy for robot apparatus | |
KR20010095176A (en) | Robot and action deciding method for robot | |
US20060184273A1 (en) | Robot device, Behavior control method thereof, and program | |
JP2005193331A (en) | Robot device and its emotional expression method | |
JP4635398B2 (en) | Robot equipment | |
JP2003266351A (en) | Robot device and motion control method therefor | |
JP2007125631A (en) | Robot device and motion control method | |
JP2003159674A (en) | Robot system, external force detecting method and program for the system, and calibration method and program for the system | |
JP4649806B2 (en) | Robot apparatus and shock absorbing method for robot apparatus | |
JP2004298975A (en) | Robot device and obstacle searching method | |
JP2003136456A (en) | Robot device, brightness detection method of robot device, brightness detection program and recording medium | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
JP2003071775A (en) | Robot device | |
JP2002059384A (en) | Learning system and learning method for robot | |
JP2004114285A (en) | Robotic device and its behavior control method | |
JP2004066381A (en) | Robot device | |
JP2003071757A (en) | Robot device | |
JP2003071756A (en) | Robot device | |
US11833441B2 (en) | Robot | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP4296702B2 (en) | Action expression device and toy | |
JP2002120183A (en) | Robot device and input information detecting method for robot device | |
JP2001157980A (en) | Robot device, and control method thereof | |
JP2001154707A (en) | Robot device and its controlling method | |
JP2002116100A (en) | Contact detecting sensor and toy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101116 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101129 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |