JP4649806B2 - Robot apparatus and shock absorbing method for robot apparatus - Google Patents

Robot apparatus and shock absorbing method for robot apparatus Download PDF

Info

Publication number
JP4649806B2
JP4649806B2 JP2001268125A JP2001268125A JP4649806B2 JP 4649806 B2 JP4649806 B2 JP 4649806B2 JP 2001268125 A JP2001268125 A JP 2001268125A JP 2001268125 A JP2001268125 A JP 2001268125A JP 4649806 B2 JP4649806 B2 JP 4649806B2
Authority
JP
Japan
Prior art keywords
robot apparatus
movable
impact
support member
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001268125A
Other languages
Japanese (ja)
Other versions
JP2003071755A (en
Inventor
康範 川浪
隆史 家徳
弘就 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001268125A priority Critical patent/JP4649806B2/en
Publication of JP2003071755A publication Critical patent/JP2003071755A/en
Application granted granted Critical
Publication of JP4649806B2 publication Critical patent/JP4649806B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Vibration Dampers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、落下等によって加わる衝撃を吸収する衝撃吸収機構を有するロボット装置及びそのロボット装置の衝撃吸収方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。
【0004】
これらの脚式移動ロボットは、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。
【0005】
脚式移動ロボットは、動物や人間の容姿にできる限り近い外観形状とされ、動物や人間の動作にできる限り近い動作を行うように設計されている。例えば、上述した4足歩行の「ペット型」ロボットの場合は、一般家庭において飼育される犬や猫に似た外観形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。
【0006】
【発明が解決しようとする課題】
ところで、ユーザがこのような脚式移動ロボットを扱っている際に、誤って落下させてしまうような状況が考えられる。
【0007】
従来、このような場合に脚式移動ロボットのメカ機構に加わる衝撃を吸収する機構はなく、部品の剛性によってメカ機構を保護していた。
【0008】
しかし、部品剛性が弱ければ、塑性変形及び破壊を生じるという問題点があり、特に「胴体」とされる本体から突出した頭部や脚部において顕著であった。
【0009】
本発明は、このような従来の実情に鑑みて提案されたものであり、落下等によって加わる衝撃を吸収する衝撃吸収機構を有するロボット装置、及びそのロボット装置の衝撃吸収方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述の課題を解決するために、本発明に係るロボット装置は、本体に対して可動とされる可動部が連結されてなるロボット装置であって、回転軸を有し、上記可動部を該回転軸により回転自在に支持する支持部材と、上記支持部材と上記本体とを接続する接続部材とを有し、上記接続部材は、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結され、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収することを特徴としている。
【0012】
また、ロボット装置においては、上記第1の取り付け部材は、上記接続部材に対して上記支持部材の方向に予圧をかける
【0013】
このようなロボット装置は、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収される。
【0014】
また、上述した目的を達成するために、本発明に係るロボット装置の衝撃吸収方法は、本体に対して可動とされる可動部が連結されてなり、該可動部を回転軸により回転自在に支持する支持部材と、該支持部材と該本体とを接続する接続部材とを有するロボット装置の衝撃吸収方法であって、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結される上記接続部材によって、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収することを特徴としている。
【0016】
また、ロボット装置の衝撃吸収方法においては、上記第1の取り付け部材によって上記接続部材に対して上記支持部材の方向に予圧をかける
【0017】
このようなロボット装置の衝撃吸収方法では、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収される。
【0018】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
【0019】
本発明の一構成例として示すロボット装置は、内部状態に応じて自律動作するロボット装置である。このロボット装置は、少なくとも上肢と体幹部と下肢とを備え、上肢及び下肢、又は下肢のみを移動手段とする脚式移動ロボットである。脚式移動ロボットには、4足歩行の動物の身体メカニズムやその動きを模倣したペット型ロボットや、下肢のみを移動手段として使用する2足歩行の動物の身体メカニズムやその動きを模倣したロボット装置があるが、本実施の形態として示すロボット装置は、4足歩行タイプの脚式移動ロボットである。
【0020】
このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、4足歩行の動物が行う基本的な動作を表出できるエンターテインメントロボットである。
【0021】
このロボット装置は、特に、頭部、胴体部、上肢部、下肢部等を有している。各部の連結部分及び関節に相当する部位には、運動の自由度に応じた数のアクチュエータ及びポテンショメータが備えられており、制御部の制御によって目標とする動作を表出できる。
【0022】
さらに、ロボット装置は、周囲の状況を画像データとして取得するための撮像部や、外部から受ける作用を検出するための各種センサや、外部から受ける物理的な働きかけ等を検出するための各種スイッチ等を備えている。撮像部としては、小型のCCD(Charge-Coupled Device)カメラを使用する。また、各種センサには、加速度を検出する加速度センサ、CCDカメラによって撮像した被写体までの距離を計測する距離センサ等がある。各種スイッチには、使用者によって触られたことを検出する接点型の押下スイッチ、使用者によって操作されたことを検出する操作スイッチ等がある。これらは、ロボット装置外部又は内部の適切な箇所に設置されている。
【0023】
また、本発明の一構成例として示すロボット装置は、胴体部に対して可動とされた頭部に加えられた衝撃を吸収する衝撃吸収機構を有している。
【0024】
本実施の形態については、先ずロボット装置の構成について説明し、その後ロボット装置における本発明の適用部分について詳細に説明する。
【0025】
ロボット装置1は、図1に示すように、胴体部ユニット2の前後左右に脚部ユニット3A、3B、3C、3Dが連結され、胴体部ユニット2の前端部に頭部ユニット4が連結されて構成されている。
【0026】
胴体部ユニット2には、図2に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェイス回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための加速度センサ19が収納されている。また、胴体部ユニット2には、鳴き声等の音声又はメロディを出力するためのスピーカ20が、図1に示すように所定位置に配置されている。また、胴体部ユニット2の尻尾部5には、使用者からの操作入力を検出する検出機構としての操作スイッチ21が備えられている。操作スイッチ21は、使用者による操作の種類を検出できるスイッチであって、ロボット装置1は、操作スイッチ21によって検出される操作の種類に応じて、例えば「誉められた」か「叱られた」かを認識する。
【0027】
頭部ユニット4には、外部の状況や対象物の色、形、動き等を撮像するためのCCD(Charge Coupled Device)カメラ22と、前方に位置する対象物までの距離を測定するための距離センサ23と、外部音を集音するためのマイク24と、例えばLED(Light Emitting Diode)を備えた発光部25等が、図1に示すように所定位置にそれぞれ配置されている。ただし、発光部25は、構成の説明等においては、必要に応じてLED25と示す。また、頭部ユニット4内部には、図1には図示しないが、ユーザの頭部ユニット4に対する接触を間接的に検出するための検出機構として頭部スイッチ26が備えられている。頭部スイッチ26は、例えば、使用者の接触によって頭部が動かされた場合、その傾き方向を検出できるスイッチであって、ロボット装置1は、頭部スイッチ26によって検出される頭部の傾き方向に応じて、「誉められた」か「叱られた」かを認識する。
【0028】
各脚部ユニット3A〜3Dの関節部分、各脚部ユニット3A〜3Dと胴体部ユニット2との連結部分、頭部ユニット4と胴体部ユニット2との連結部分には、自由度数分のアクチュエータ28〜28及びポテンショメータ29〜29がそれぞれ配設されている。アクチュエータ28〜28は、例えば、サーボモータを備えている。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて目標の姿勢、或いは動作に遷移する。各脚部ユニット3A〜3Dの先端の「肉球」に相当する位置には、主としてユーザからの接触を検出する検出機構としての肉球スイッチ27A〜27Dが設けられ、ユーザによる接触等を検出できるようになっている。
【0029】
ロボット装置1は、このほかにも、ここでは図示しないが、該ロボット装置1の内部状態とは別の動作状態(動作モード)を表すための発光部や、充電中、起動中、起動停止等、内部電源の状態を表す状態ランプ等を、適切な箇所に適宜備えていてもよい。
【0030】
そして、ロボット装置1において、操作スイッチ21、頭部スイッチ26及び肉球スイッチ27等の各種スイッチと、加速度センサ19、距離センサ23等の各種センサと、スピーカ20、マイク24、発光部25、各アクチュエータ28〜28、各ポテンショメータ29〜29は、それぞれ対応するハブ30〜30を介してコントロール部16の信号処理回路14と接続されている。一方、CCDカメラ22及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
【0031】
信号処理回路14は、上述の各種スイッチから供給されるスイッチデータ、各種センサから供給されるセンサデータ、画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これとともにバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、DRAM11内の所定位置に格納する。
【0032】
このようにしてDRAM11に格納された各スイッチデータ、各センサデータ、画像データ、音声データ及びバッテリ残量データは、CPU10が当該ロボット装置1の動作制御を行う際に使用される。
【0033】
CPU10は、ロボット装置1の電源が投入された初期時において、フラッシュROM12に格納された制御プログラムを読み出して、DRAM11に格納する。又は、CPU10は、図1に図示しない胴体部ユニット2のPCカードスロットに装着された半導体メモリ装置、例えば、メモリカード31に格納された制御プログラムをPCカードインターフェイス回路13を介して読み出してDRAM11に格納する。
【0034】
CPU10は、上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ、及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無を判断している。
【0035】
さらに、CPU10は、この判断結果とDRAM11に格納した制御プログラムとに基づく行動を決定する。CPU10は、当該決定結果に基づいてアクチュエータ28〜28の中から必要とするアクチュエータを駆動することによって、例えば頭部ユニット4を上下左右に振らせたり、各脚部ユニット3A乃至3Dを駆動して歩行させたりする。また、CPU10は、必要に応じて音声データを生成し、信号処理回路14を介してスピーカ20に供給する。また、CPU10は、上述の発光部25におけるLEDの点灯及び消灯を指示する信号を生成し、発光部25を点灯したり消灯したりする。
【0036】
このように、ロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動する。
【0037】
ところで、本実施の形態として示すロボット装置1は、内部状態に応じて自律的に行動できるロボット装置である。ロボット装置1を制御する制御プログラムのソフトウェア構成の一例は、図3に示すようになる。この制御プログラムは、上述したように、予めフラッシュROM12に格納されており、ロボット装置1の電源投入初期時において読み出される。
【0038】
図3において、デバイス・ドライバ・レイヤ200は、制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット201から構成されている。この場合、各デバイス・ドライバは、CCDカメラ22(図2)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0039】
また、ロボティック・サーバ・オブジェクト202は、デバイス・ドライバ・レイヤ200の最下位層に位置し、例えば上述の各種センサやアクチュエータ28〜28等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット203と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ204と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ205と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット206とから構成されている。
【0040】
マネージャ・オブジェクト207は、オブジェクト・マネージャ208及びサービス・マネージャ209から構成されている。オブジェクト・マネージャ208は、ロボティック・サーバ・オブジェクト202、ミドル・ウェア・レイヤ210、及びアプリケーション・レイヤ211に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ209は、メモリカード31(図2)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
【0041】
ミドル・ウェア・レイヤ210は、ロボティック・サーバ・オブジェクト202の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ211は、ミドル・ウェア・レイヤ210の上位層に位置し、当該ミドル・ウェア・レイヤ210を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0042】
なお、ミドル・ウェア・レイヤ210及びアプリケーション・レイヤ211の具体的なソフトウェア構成をそれぞれ図4及び図5に示す。
【0043】
ミドル・ウェア・レイヤ210は、図4に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、接触検出用、操作入力検出用、動き検出用及び色認識用の各信号処理モジュール220〜229並びに入力セマンティクスコンバータモジュール230などを有する認識系250と、出力セマンティクスコンバータモジュール247並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール240〜246等を有する出力系251とから構成されている。
【0044】
認識系250の各信号処理モジュール220〜229は、ロボティック・サーバ・オブジェクト202のバーチャル・ロボット203によりDRAM11(図2)から読み出される各スイッチデータ、各センサデータ、音声データ又は画像データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール230に与える。ここで、例えば、バーチャル・ロボット203は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
【0045】
入力セマンティクスコンバータモジュール230は、これら各信号処理モジュール220〜228から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ドミソの音階が聞こえた」、「障害物を検出した」、「転倒を検出した」、「叱られた」、「誉められた」、「動く物体を検出した」又は「ボールを検出した」等の自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ211に出力する。
【0046】
アプリケーション・レイヤ211は、図5に示すように、行動モデルライブラリ260、行動切換モジュール261、学習モジュール262、感情モデル263及び本能モデル264の5つのモジュールから構成されている。
【0047】
行動モデルライブラリ260には、図6に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する場合」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデルが設けられている。
【0048】
そして、これら行動モデルは、それぞれ入力セマンティクスコンバータモジュール230から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル263に保持されている対応する情動のパラメータ値や、本能モデル264に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール261に出力する。
【0049】
なお、本具体例として示すロボット装置1の場合、各行動モデルは、次の行動を決定する手法として、図7に示すような1つのノード(状態)NODE〜NODEから他のどのノードNODE〜NODEに遷移するかを有限確率オートマトンと呼ばれるアルゴリズムを用いて次の行動を決定している。有限確率オートマトンとは、ノードNODE〜NODEのうちの1つのノードから他のどのノードに遷移するか否かを各ノードNODE〜NODEの間を接続するアークARC〜ARCn−1に対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定するアルゴリズムである。
【0050】
具体的に、各行動モデルは、それぞれ自己の行動モデルを形成するノードNODE〜NODEにそれぞれ対応させて、これらノードNODE〜NODE毎に図8に示すような状態遷移表270を有している。
【0051】
この状態遷移表270では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の行に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。
【0052】
したがって、図8の状態遷移表270で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果とともに与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果とともに与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
【0053】
また、このノードNODE100では、認識結果の入力がない場合でも、行動モデルが周期的に参照する感情モデル263及び本能モデル264にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル263に保持された「喜び(Joy)」、「驚き(Surprise)」若しくは「悲しみ(Sadness)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0054】
また、状態遷移表270では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE〜NODEから遷移できるノード名が列記されているとともに、「入力イベント名」、「データ名」及び「データの範囲」の行に記述された全ての条件が揃ったときに遷移できるほかの各ノードNODE〜NODEへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE〜NODEに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
【0055】
したがって、図8の状態遷移表270で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
【0056】
各行動モデルは、それぞれこのような状態遷移表270として記述されたノードNODE〜 NODEが幾つも繋がるようにして構成されており、入力セマンティクスコンバータモジュール230から認識結果が与えられたときなどに、対応するノードNODE〜NODEの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール261に出力するようになされている。
【0057】
図5に示す行動切換モジュール261は、行動モデルライブラリ260の各行動モデルからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ210の出力セマンティクスコンバータモジュール247に送出する。なお、この実施の形態においては、図7において下側に表記された行動モデルほど優先順位が高く設定されている。
【0058】
また、行動切換モジュール261は、行動完了後に出力セマンティクスコンバータモジュール247から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール262、感情モデル263及び本能モデル264に通知する。
【0059】
学習モジュール262は、入力セマンティクスコンバータモジュール230から与えられる認識結果のうち、「叱られた」や「誉められた」等、使用者からの働きかけとして受けた教示の認識結果を入力する。そして、学習モジュール262は、この認識結果及び行動切換モジュール261からの通知に基づいて、「叱られた」ときにはその行動の発現確率を低下させ、「誉められた」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ260における対応する行動モデルの対応する遷移確率を変更する。
【0060】
また、感情モデル263は、「喜び(Joy)」、「悲しみ(Sadness)」、「怒り(Anger)」、「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐れ(Fear)」の合計6つの情動について、各情動毎にその情動の強さを表すパラメータを保持している。そして、感情モデル263は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール230から与えられる「叱られた」及び「誉められた」などの特定の認識結果と、経過時間及び行動切換モジュール261からの通知となどに基づいて周期的に更新する。
【0061】
具体的には、感情モデル263は、入力セマンティクスコンバータモジュール230から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間となどに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル263は、これと同様にして全ての情動のパラメータ値を更新する。
【0062】
【数1】

Figure 0004649806
【0063】
なお、各認識結果や出力セマンティクスコンバータモジュール247からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叱られた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「誉められた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
【0064】
ここで、出力セマンティクスコンバータモジュール247からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル263は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール247からの通知は、上述した学習モジュール262にも入力されており、学習モジュール262は、その通知に基づいて行動モデルの対応する遷移確率を変更する。
【0065】
なお、行動結果のフィードバックは、行動切換モジュール261の出力(感情が付加された行動)によりなされるものであってもよい。
【0066】
また、本能モデル264は、「運動欲(exercise)」、「愛情欲(affection)」、「充電欲(以下、食欲(appetite)と記す。)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを表すパラメータを保持している。そして、本能モデル264は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール230から与えられる認識結果や、経過時間及び行動切換モジュール261からの通知などに基づいて周期的に更新する。
【0067】
具体的には、本能モデル264は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール247からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル264は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
【0068】
【数2】
Figure 0004649806
【0069】
なお、認識結果及び出力セマンティクスコンバータモジュール247からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール247からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
【0070】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求毎に個別に設定されている。
【0071】
ミドル・ウェア・レイヤ210の出力セマンティクスコンバータモジュール247は、図4に示すように、上述のようにしてアプリケーション・レイヤ211の行動切換モジュール261から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系251の対応する信号処理モジュール240〜246に与える。
【0072】
そしてこれら信号処理モジュール240〜246は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動をするために対応するアクチュエータ28〜28(図2)に与えるべきサーボ指令値や、スピーカ20(図2)から出力する音の音声データ及び/又は発光部25(図2)のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト202のバーチャル・ロボット203及び信号処理回路14(図2)を介して対応するアクチュエータ28〜28、スピーカ20又は発光部25に順次送出する。
【0073】
このようにしてロボット装置1は、制御プログラムに基づいて自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動ができる。
【0074】
続いて、以下に、本発明の適用部分である衝撃吸収機構について詳細に説明する。この衝撃吸収機構は、例えば落下等によりロボット装置1の頭部ユニット4に加えられた衝撃を弾性部材の弾性力により吸収するものである。
【0075】
具体的に、落下等により頭部ユニット4に対して図9の矢印aで示す方向に衝撃が加わった場合を考える。ここで、ロボット装置1の「頸部」に相当する可動部材130は、支持部材120に連結され、支持部材120は、弾性部材110の一端において取付部材160a,160bを介して結合固定されている。また、弾性部材110の他端においては、胴体部ユニット2の内部に格納される内部筐体140と取付部材160c乃至160fを介して連結されている。このように、弾性部材110は、その一端において取付部品160c乃至160fを介して内部筐体140と接続されているが、他端においては内部筐体140に対して固定されていない。したがって、図中矢印aで示す方向に衝撃が加わった場合には、取付部品160e,160fを支点として弾性部材110が撓むとともに、可動部材130及び支持部材120が内部筐体140に対して図中矢印bで示す方向に移動する。この弾性部材110の弾性変形によって衝撃が吸収される。
【0076】
以下、このような衝撃吸収機構の構成について詳細に説明する。ここで、以下の記載において、垂直とは、ロボット装置1の腹部から背部へと貫通する方向を指し、水平とは、ロボット装置1の肩部と尻尾部とを結ぶ方向を指すものとする。なお、この方向は説明の便宜上決定したものであって、本実施の形態で示す方向のみに限定されない。
【0077】
衝撃吸収機構における弾性部材110及び支持部材120の詳細を図10に示す。弾性部材110は、例えば板バネ等の弾性を有するものである。この弾性部材110は、略長方形形状の部材の1つの短辺に接して略長方形形状の部材が切り抜かれて、基部111と2つの腕部112a,112bとを有する略コの字形状とされている。さらに、この腕部112a,112bは、後述する内部筐体140の形状に合わせて、水平面113a,113b、傾斜面114a,114b、及び垂直面115a,115bを有するように折曲加工され、折曲部には、補強のためのリブ116a乃至116dが設けられている。
【0078】
腕部112a,112bの垂直面115a,115bの一端には、後述する取付部品160a,160bを挿通するための挿通孔117a,117bが設けられている。また、垂直面115a,115bには、切り起こし片118a,118bが設けられており、その先端は、垂直面115a,115bと略平行となるように、折曲加工されている。弾性部材110と支持部材120とは、後述するように、この取付部品160a,160b及び切り起こし片118a,118bを介して接続固定される。さらに、垂直面115a,115bの端部には、弾性部材110の裏面に向かって折曲部119a,119bが設けられている。この折曲部119a,119bについては、後述する。
【0079】
基部111の一端には、内部筐体140と接続するための後述する取付部品160c及び160dがそれぞれ挿通する挿通孔117c及び117dが設けられている。また、腕部112a,112bの水平面113a,113bの一端には、取付部品160e,160fを挿通するための挿通孔117e,117fが設けられている。弾性部材110と内部筐体140とは、この160c乃至160fを介して接続固定される。
【0080】
一方、支持部材120は、図10に示すように、後述する可動部材130を駆動するための駆動モータ121を有している。また、支持部材120は、可動部材130を軸装するための回転軸122を有している。駆動モータ121の回転力は、図示しないギアを介して回転軸122に伝えられ、これにより、可動部材130は、回転軸122を回転中心として略90°の回転角の範囲内で、開口部123の領域を回転駆動される。
【0081】
また、支持部材120は、水平面124a,124b、傾斜面125a,125b、及び垂直面126a,126bとを有しており、これらの面において弾性部材110と接するようになされている。ここで、弾性部材110の水平面113a,113bが支持部材120の水平面124a,124bに、傾斜面114a,114bが傾斜面125a,125bに、垂直面115a,115bが垂直面126a,126bにそれぞれ対応する。
【0082】
また、垂直面126a,126bには、上述した切り起こし片118a,118bを係止するための係止口127a,127bと取付部品160a,160bを挿通するための挿通孔128a,128bとが設けられている。
【0083】
ところで、上述した弾性部材110と支持部材120とは、取付部品160a,160b及び切り起こし片118a,118bを介して接続固定される。以下、詳細に説明する。図11に示すように、切り起こし片118a,118bは、水平部150a,150bと垂直部151a,151bとを有している。また、水平部150a,150bの長さは、支持部材120の垂直面126a,126bにおける部材の厚さと略同一とされている。この切り起こし片118a,118bが、支持部材120の係止口127a,127bに係止されることで、弾性部材110が支持部材120に係止される。さらに、取付部品160a,160bが弾性部材110の挿通孔117a,117b及び支持部材120の挿通孔128a,128bに挿通されることによって、結合固定される。
【0084】
本実施の形態における衝撃吸収機構は、上述のように接続固定された弾性部材11及び支持部材120に、ロボット装置1の「頸部」に相当する可動部材130が接続されることで構成される。すなわち、図12に示すように、可動部材130は、略円筒形状を有し、支持部材120の回転軸122により回動自在に軸装される。
【0085】
支持部材120と弾性部材110とは、例えば螺子である取付部品160a,160bによって接続される。
【0086】
また、弾性部材110と内部筐体140とは、取付部品160c乃至160fによって接続される。具体的には、図13に示すように、弾性部材110の挿通孔117c乃至117fと内部筐体140の挿通孔141c乃至141fとに取付部品160c乃至160fが挿通されることによって結合固定される。これにより、内部筐体140の上部にある解放部が弾性部材110によって覆われ、支持部材120は、内部筐体140の内部に格納される。すなわち、弾性部材110は、内部筐体140の一部を構成するものである。
内部筐体140の前面には、切欠部142a,142bが設けられており、この切欠部142a,142bにおいて上述した弾性部材110の折曲部119a,119bが係合される。さらに、図14に示すように、内部筐体140の前面の縁部143a,143bに弾性部材110の裏面が接することで位置決めされる。
【0087】
ここで、図15に示すように、取付部品160c,160dは、取付部品160e,160fよりも上方に位置するように構成されている。この結果、弾性部材110には支持部材120の方向に向かって予圧が与えられるため、通常の動作時に弾性部材110の撓みが生じず、ガタつくことがない。さらに、この予圧によって、弾性部材110の裏面が内部筐体140の縁部143a,143bの方向に向かって圧接される。
【0088】
以上のような構成を有する衝撃吸収機構の可動部材130に対して、例えば落下等により、上述した図9中の矢印aで示す方向に衝撃が加わった場合を考える。弾性部材110は、その一端において取付部品160c乃至160fによって内部筐体140と接続されているが、他端においては内部筐体140に対して固定されていない。したがって、図中矢印aで示す方向に衝撃が加わった場合には、取付部品160e,160fを支点として弾性部材110が撓み、内部筐体140の縁部143a,143bから離反するとともに、可動部材130及び支持部材120が内部筐体140に対して図中矢印bで示す方向に移動する。この弾性変形によって衝撃が吸収される。
【0089】
このように、本実施の形態における衝撃吸収機構によれば、弾性部材110の一端において可動部材130を支持する支持部材120が接続され、他端において内部筐体140が接続されることで、弾性部材110の弾性力により、可動部材130に加わった衝撃を吸収することができる。
【0090】
なお、本発明は、上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。例えば、本実施の形態では、4足歩行の脚式移動ロボットに関して説明したが、ロボット装置は、内部状態に応じて動作するものであれば適用可能であって、移動手段は、4足歩行、さらには脚式移動方式に限定されない。
【0091】
また、本実施の形態では、衝撃吸収機構は、頭部ユニットへの衝撃を吸収するものとして説明したが、これに限定されるものではなく、脚部ユニット等についても同様の機構を備えることにより、これらに加わる衝撃を吸収することが可能となる。
【0092】
【発明の効果】
以上詳細に説明したように本発明に係るロボット装置は、本体に対して可動とされる可動部が連結されてなるロボット装置であって、上記可動部を可動に支持する支持部材と、上記支持部材と上記本体とを接続する接続部材とを有し、上記接続部材は、上記可動部に加えられた衝撃を吸収することを特徴としている。
【0093】
ここで、ロボット装置においては、上記接続部材の一端に上記本体が連結されるとともに、他端に上記支持部が連結されており、上記接続部材が弾性変形することにより、上記可動部に加えられた衝撃が吸収される。
【0094】
また、ロボット装置においては、上記接続部材及び上記支持部材のがたつきを防止するために、上記本体に対する方向に予圧をかけて、上記本体と上記接続部材とが連結される。
【0095】
このようなロボット装置によれば、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収され、ロボット装置のメカ機構が塑性変形又は破壊等することを防止することができる。
【0096】
また、本発明に係るロボット装置の衝撃吸収方法は、本体に対して可動とされる可動部が連結されてなるロボット装置の衝撃吸収方法であって、上記可動部を可動に支持する支持部と上記本体とを接続する接続部材によって、上記可動部に加えられた衝撃を吸収することを特徴としている。
【0097】
ここで、ロボット装置の衝撃吸収方法においては、上記接続部材の一端に上記本体が連結されるとともに、他端に上記支持部が連結されており、上記接続部材が弾性変形することにより、上記可動部に加えられた衝撃が吸収される。
【0098】
また、ロボット装置の衝撃吸収方法においては、上記接続部材及び上記支持部材のがたつきを防止するために、上記本体に対する方向に予圧をかけて、上記本体と上記接続部材とが接続される。
【0099】
このようなロボット装置の衝撃吸収方法によれば、例えば落下等によって本体に接続される頭部や脚部等の可動部に衝撃が加わった際にも、接続部材が弾性変形することにより衝撃が吸収され、ロボット装置のメカ機構が塑性変形又は破壊等することを防止することができる。
【図面の簡単な説明】
【図1】本発明の一構成例として示すロボット装置の外観を示す外観図である。
【図2】本発明の一構成例として示すロボット装置の構成を示す構成図である。
【図3】本発明の一構成例として示すロボット装置の制御プログラムのソフトウェア構成を示す構成図である。
【図4】本発明の一構成例として示すロボット装置の制御プログラムのうち、ミドル・ウェア・レイヤの構成を示す構成図である。
【図5】本発明の一構成例として示すロボット装置の制御プログラムのうち、アプリケーション・レイヤの構成を示す構成図である。
【図6】本発明の一構成例として示すロボット装置の制御プログラムのうち、行動モデルライブラリの構成を示す構成図である。
【図7】本発明の一構成例として示すロボット装置の行動を決定するためのアルゴリズムである有限確率オートマトンを説明する模式図である。
【図8】本発明の一構成例として示すロボット装置の行動を決定するための状態遷移条件を表す図である。
【図9】本発明の一構成例として示すロボット装置における衝撃吸収機構によって衝撃が吸収される様子を説明する側面図である。
【図10】同衝撃吸収機構における弾性部材及び支持部材の構成を示す斜視図である。
【図11】同弾性部材と同支持部材との接続を説明する断面図である。
【図12】同衝撃吸収機構の構成を示す側面図である。
【図13】同衝撃吸収機構と本体との連結を説明する斜視図である。
【図14】同弾性部材と同本体との接続を説明する斜視図である。
【図15】同弾性部材に予圧がかけられる構成を説明する側面図である。
【符号の説明】
1 ロボット装置、2 胴体部ユニット、3A,3B,3C,3D 脚部ユニット、4 頭部ユニット、5 尻尾部、110 弾性部材、111 基部、112a,112b 腕部、117a,117b,117c,117d 挿通孔、118a,118b 切り起こし片、119a,119b 折曲部、120 支持部材、121 駆動モータ、122 回転軸、127a,127b 係止口、128a,128b 挿通孔、130 可動部位、140 内部筐体、141c,141d,141e,141f 挿通孔、142a,142b 切欠部、143a,143b 縁部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus having an impact absorbing mechanism for absorbing an impact applied by dropping or the like, and an impact absorbing method for the robot apparatus.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, a “pet-type” robot that mimics the body mechanism and movement of a four-legged animal such as a dog or cat, or a body mechanism or movement of an animal that walks upright on two legs. Legged mobile robots such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these legged mobile robots can perform various operations with an emphasis on entertainment properties as compared with industrial robots, they may be called entertainment robots.
[0005]
The legged mobile robot has an appearance shape as close as possible to the appearance of animals and humans, and is designed to perform movements as close as possible to the movements of animals and humans. For example, in the case of the above-described four-legged “pet-type” robot, it has an external shape similar to a dog or a cat raised in a general home, and the user (owner) makes a “slap” or “boil” action. And behave autonomously according to the surrounding environment. For example, as an autonomous behavior, the behavior such as “barking” and “sleeping” is performed in the same manner as an actual animal.
[0006]
[Problems to be solved by the invention]
By the way, when the user is handling such a legged mobile robot, there may be a situation where the user accidentally drops the robot.
[0007]
Conventionally, there is no mechanism for absorbing the impact applied to the mechanical mechanism of the legged mobile robot in such a case, and the mechanical mechanism is protected by the rigidity of the parts.
[0008]
However, if the component rigidity is weak, there is a problem that plastic deformation and destruction occur, and this is particularly noticeable in the head and legs protruding from the main body, which is the “body”.
[0009]
The present invention has been proposed in view of such a conventional situation, and an object of the present invention is to provide a robot apparatus having an impact absorbing mechanism that absorbs an impact caused by dropping or the like, and an impact absorbing method for the robot apparatus. And
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems, a robot apparatus according to the present invention is a robot apparatus in which a movable part that is movable with respect to a main body is connected, Having a rotation axis, The movable part Freely rotatable by the rotating shaft A supporting member that supports the connecting member, and a connecting member that connects the supporting member and the main body; The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable part, the first mounting member is bent as a fulcrum, and the movable part and the support member are moved in a direction opposite to the direction in which the movable part is moved by the impact. Move It is characterized by absorbing an impact applied to the movable part.
[0012]
Moreover, in the robot device, The first attachment member preloads the connection member in the direction of the support member. .
[0013]
In such a robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is absorbed by elastic deformation of the connecting member.
[0014]
In order to achieve the above-described object, the impact absorbing method of the robot apparatus according to the present invention includes a movable part that is movable with respect to the main body. And a support member that rotatably supports the movable portion by a rotating shaft, and a connection member that connects the support member and the main body. A shock absorbing method for a robot apparatus, The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable portion by the connecting member to which the movable portion is coupled, the first mounting member is bent as a fulcrum, and the movable portion and the support member are moved in a direction in which the movable portion is moved by the impact. Move in the opposite direction It is characterized by absorbing an impact applied to the movable part.
[0016]
Moreover, in the shock absorbing method of the robot apparatus, A preload is applied in the direction of the support member to the connection member by the first attachment member. .
[0017]
In such a shock absorbing method of the robot apparatus, for example, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the shock is absorbed by elastic deformation of the connecting member. The
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[0019]
A robot apparatus shown as one configuration example of the present invention is a robot apparatus that autonomously operates according to an internal state. This robot apparatus is a legged mobile robot that includes at least an upper limb, a trunk, and a lower limb, and uses only the upper limb and the lower limb or the lower limb as a moving means. Legged mobile robots include a pet-type robot that mimics the body mechanism and movement of a quadruped animal, and a robot device that mimics the body mechanism and movement of a biped animal that uses only the lower limbs as moving means. However, the robot apparatus shown as the present embodiment is a quadruped walking type legged mobile robot.
[0020]
This robotic device is a practical robot that supports human activities in various situations in daily life such as the living environment, and can act according to internal conditions (anger, sadness, joy, fun, etc.) and walk on four legs It is an entertainment robot that can express the basic movements of animals.
[0021]
This robot apparatus has in particular a head, a torso, an upper limb, a lower limb, and the like. The number of actuators and potentiometers corresponding to the degree of freedom of movement are provided in the portions corresponding to the connecting parts and joints of each part, and a target action can be expressed by the control of the control part.
[0022]
Furthermore, the robot apparatus includes an imaging unit for acquiring surrounding conditions as image data, various sensors for detecting an action received from the outside, various switches for detecting a physical action received from the outside, and the like. It has. A small CCD (Charge-Coupled Device) camera is used as the imaging unit. The various sensors include an acceleration sensor that detects acceleration, a distance sensor that measures a distance to a subject imaged by a CCD camera, and the like. The various switches include a contact-type push switch that detects touching by the user, and an operation switch that detects operation by the user. These are installed at appropriate locations outside or inside the robot apparatus.
[0023]
A robot apparatus shown as an example of the present invention includes an impact absorbing mechanism that absorbs an impact applied to the head that is movable with respect to the body.
[0024]
As for the present embodiment, the configuration of the robot apparatus will be described first, and then the application part of the present invention in the robot apparatus will be described in detail.
[0025]
As shown in FIG. 1, the robot apparatus 1 includes leg units 3 </ b> A, 3 </ b> B, 3 </ b> C, and 3 </ b> D connected to the front, rear, left and right of the body unit 2, and a head unit 4 connected to the front end of the body unit 2. It is configured.
[0026]
As shown in FIG. 2, the body unit 2 includes a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 11, a flash ROM (Read Only Memory) 12, a PC (Personal Computer) card interface circuit 13, and A control unit 16 formed by connecting the signal processing circuit 14 to each other via the internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed. The body unit 2 houses an acceleration sensor 19 for detecting the direction of the robot apparatus 1 and the acceleration of movement. In the body unit 2, a speaker 20 for outputting a sound such as a cry or a melody is disposed at a predetermined position as shown in FIG. 1. The tail unit 5 of the body unit 2 is provided with an operation switch 21 as a detection mechanism for detecting an operation input from the user. The operation switch 21 is a switch that can detect the type of operation performed by the user, and the robot apparatus 1 is, for example, “admired” or “repressed” depending on the type of operation detected by the operation switch 21. Recognize.
[0027]
The head unit 4 includes a CCD (Charge Coupled Device) camera 22 for imaging the external situation and the color, shape, movement, etc. of the object, and a distance for measuring the distance to the object located in front. A sensor 23, a microphone 24 for collecting external sound, and a light emitting unit 25 including, for example, an LED (Light Emitting Diode) are arranged at predetermined positions as shown in FIG. However, the light emitting unit 25 is denoted as LED 25 as necessary in the description of the configuration. Further, although not shown in FIG. 1, a head switch 26 is provided inside the head unit 4 as a detection mechanism for indirectly detecting a user's contact with the head unit 4. The head switch 26 is a switch that can detect the tilt direction when the head is moved by a user's contact, for example. The robot apparatus 1 detects the tilt direction of the head detected by the head switch 26. Depending on the situation, it recognizes whether it has been praised or beaten.
[0028]
The joint portions of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the body unit 2, and the connecting portions of the head unit 4 and the body unit 2 include actuators 28 corresponding to several degrees of freedom. 1 ~ 28 n And potentiometer 29 1 ~ 29 n Are arranged respectively. Actuator 28 1 ~ 28 n For example, a servo motor is provided. By driving the servo motor, the leg units 3A to 3D are controlled to make a transition to a target posture or operation. Meat ball switches 27A to 27D as detection mechanisms mainly for detecting contact from the user are provided at positions corresponding to the “pads” at the tips of the leg units 3A to 3D, so that contact by the user can be detected. It is like that.
[0029]
In addition to this, the robot apparatus 1 is not shown here, but a light emitting unit for representing an operation state (operation mode) different from the internal state of the robot apparatus 1, charging, activation, activation stop, etc. A status lamp or the like indicating the state of the internal power supply may be appropriately provided at an appropriate location.
[0030]
In the robot apparatus 1, various switches such as the operation switch 21, the head switch 26, and the meat ball switch 27, various sensors such as the acceleration sensor 19 and the distance sensor 23, the speaker 20, the microphone 24, the light emitting unit 25, Actuator 28 1 ~ 28 n , Each potentiometer 29 1 ~ 29 n Are respectively corresponding hubs 30. 1 ~ 30 n Is connected to the signal processing circuit 14 of the control unit 16. On the other hand, the CCD camera 22 and the battery 17 are directly connected to the signal processing circuit 14 respectively.
[0031]
The signal processing circuit 14 sequentially takes in switch data supplied from the various switches described above, sensor data supplied from the various sensors, image data, and audio data, and these are respectively transferred to predetermined positions in the DRAM 11 via the internal bus 15. Store sequentially. In addition, the signal processing circuit 14 sequentially takes in battery remaining amount data representing the remaining amount of battery supplied from the battery 17 and stores it in a predetermined position in the DRAM 11.
[0032]
The switch data, sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this way are used when the CPU 10 controls the operation of the robot apparatus 1.
[0033]
The CPU 10 reads out the control program stored in the flash ROM 12 and stores it in the DRAM 11 at the initial time when the power of the robot apparatus 1 is turned on. Alternatively, the CPU 10 reads out a control program stored in a semiconductor memory device (for example, a memory card 31) installed in a PC card slot of the body unit 2 (not shown in FIG. 1) via the PC card interface circuit 13 and stores it in the DRAM 11. Store.
[0034]
As described above, the CPU 10 determines its own and surrounding conditions, instructions from the user, and actions based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM 11 from the signal processing circuit 14. Judging the presence or absence of.
[0035]
Further, the CPU 10 determines an action based on the determination result and the control program stored in the DRAM 11. The CPU 10 determines the actuator 28 based on the determination result. 1 ~ 28 n By driving a necessary actuator from among the above, for example, the head unit 4 is swung up and down and left and right, or each leg unit 3A to 3D is driven to walk. Further, the CPU 10 generates audio data as necessary and supplies the audio data to the speaker 20 via the signal processing circuit 14. Further, the CPU 10 generates a signal instructing turning on and off of the LED in the light emitting unit 25, and turns on and off the light emitting unit 25.
[0036]
Thus, the robot apparatus 1 behaves autonomously according to the situation of itself and surroundings, and instructions and actions from the user.
[0037]
By the way, the robot apparatus 1 shown as this Embodiment is a robot apparatus which can act autonomously according to an internal state. An example of a software configuration of a control program for controlling the robot apparatus 1 is as shown in FIG. As described above, this control program is stored in the flash ROM 12 in advance, and is read when the robot apparatus 1 is initially turned on.
[0038]
In FIG. 3, the device driver layer 200 is located in the lowest layer of the control program and is composed of a device driver set 201 composed of a plurality of device drivers. In this case, each device driver is an object that is allowed to directly access hardware used in a normal computer such as the CCD camera 22 (FIG. 2) or a timer, and receives an interrupt from the corresponding hardware. Process.
[0039]
The robotic server object 202 is located in the lowest layer of the device driver layer 200. For example, the above-described various sensors and actuators 28 are used. 1 ~ 28 n A virtual robot 203 that is a software group that provides an interface for accessing the hardware, a power manager 204 that is a software group that manages power supply switching, and software that manages various other device drivers The device driver manager 205 includes a group, and the designed robot 206 includes a software group that manages the mechanism of the robot apparatus 1.
[0040]
The manager object 207 includes an object manager 208 and a service manager 209. The object manager 208 is a software group that manages activation and termination of each software group included in the robotic server object 202, the middleware layer 210, and the application layer 211. The service manager 209 includes It is a software group that manages the connection of each object based on the connection information between each object described in the connection file stored in the memory card 31 (FIG. 2).
[0041]
The middleware layer 210 is located in an upper layer of the robotic server object 202, and includes a software group that provides basic functions of the robot apparatus 1 such as image processing and sound processing. The application layer 211 is positioned above the middleware layer 210, and determines the behavior of the robot apparatus 1 based on the processing result processed by each software group constituting the middleware layer 210. It is composed of software groups.
[0042]
Specific software configurations of the middleware layer 210 and the application layer 211 are shown in FIGS. 4 and 5, respectively.
[0043]
As shown in FIG. 4, the middle wear layer 210 is used for noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, contact detection, operation input detection, motion Recognition system 250 including signal processing modules 220 to 229 for detection and color recognition, an input semantic converter module 230, an output semantic converter module 247, posture management, tracking, motion reproduction, walking, and recovery from falling And an output system 251 having signal processing modules 240 to 246 for LED lighting and sound reproduction.
[0044]
Each of the signal processing modules 220 to 229 of the recognition system 250 includes each of switch data, sensor data, audio data, or image data read from the DRAM 11 (FIG. 2) by the virtual robot 203 of the robotic server object 202. Corresponding data is captured, predetermined processing is performed based on the data, and the processing result is given to the input semantic converter module 230. Here, for example, the virtual robot 203 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.
[0045]
Based on the processing result given from each of these signal processing modules 220 to 228, the input semantic converter module 230 detects “noisy”, “hot”, “bright”, “sounding Domitos scale”, “detects an obstacle” , “Detected fall”, “struck”, “admired”, “detected moving object”, “detected ball”, etc. And the action is recognized, and the recognition result is output to the application layer 211.
[0046]
As shown in FIG. 5, the application layer 211 includes five modules: a behavior model library 260, a behavior switching module 261, a learning module 262, an emotion model 263, and an instinct model 264.
[0047]
In the behavior model library 260, as shown in FIG. 6, “when the remaining battery level is low”, “when returning to fall”, “when avoiding an obstacle”, “when expressing emotion”, “ Independent action models are provided corresponding to several preselected condition items such as “when a ball is detected”.
[0048]
Each of these behavior models has an emotion as described later as necessary when a recognition result is given from the input semantic converter module 230 or when a certain time has passed since the last recognition result was given. The following behavior is determined while referring to the parameter value of the corresponding emotion held in the model 263 and the parameter value of the corresponding desire held in the instinct model 264, and the determination result is output to the behavior switching module 261. .
[0049]
In the case of the robot apparatus 1 shown as this specific example, each behavior model has one node (state) NODE as shown in FIG. 7 as a method for determining the next behavior. 0 ~ NODE n To any other node NODE 0 ~ NODE n The next action is determined using an algorithm called finite probability automaton. The finite probability automaton is the node NODE 0 ~ NODE n Whether each node NODE transitions from one node to another node 0 ~ NODE n Arc ARC connecting the two 1 ~ ARC n-1 Transition probability P set for each 1 ~ P n Is an algorithm that determines probabilistically based on
[0050]
Specifically, each behavior model is a node NODE that forms its own behavior model. 0 ~ NODE n Correspond to each of these nodes NODE 0 ~ NODE n Each has a state transition table 270 as shown in FIG.
[0051]
In this state transition table 270, the node NODE 0 ~ NODE n Input events (recognition results) as transition conditions in are listed in the order of priority in the “input event name” row, and further conditions for the transition conditions are described in the corresponding columns in the “data name” and “data range” rows Has been.
[0052]
Therefore, the node NODE represented by the state transition table 270 of FIG. 100 Then, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is in the range of “0 to 1000”, “ If the recognition result “OBSTACLE” is given, the other node has a “distance” to the obstacle given with the recognition result in the range of “0 to 100”. It is a condition for transition to.
[0053]
This node NODE 100 Then, even when there is no input of the recognition result, among the emotion and each desire parameter value held in the emotion model 263 and the instinct model 264 periodically referred to by the behavior model, the emotion model 263 holds “ When one of the parameter values of “Joy”, “Surprise” or “Sadness” is in the range of “50 to 100”, it is possible to transition to another node. .
[0054]
In the state transition table 270, the node NODE is displayed in the “transition destination node” column in the “transition probability to other node” column. 0 ~ NODE n The node names that can be transitioned from are listed, and each other node NODE that can transition when all the conditions described in the "input event name", "data name", and "data range" lines are met 0 ~ NODE n The transition probabilities to are respectively described in the corresponding places in the “transition probabilities to other nodes” column, and the node NODE 0 ~ NODE n The action to be output when transitioning to is described in the “output action” line in the “transition probability to other node” column. The sum of the probabilities of each row in the “transition probability to other node” column is 100 [%].
[0055]
Therefore, the node NODE represented by the state transition table 270 of FIG. 100 Then, for example, when “ball is detected (BALL)” and a recognition result is given that the “SIZE (size)” of the ball is in the range of “0 to 1000”, “30 [%]” The probability of “node NODE 120 (Node 120) ", and the action of" ACTION 1 "is output at that time.
[0056]
Each behavior model has a node NODE described as such a state transition table 270. 0 ~ NODE n Are connected to each other, and when a recognition result is given from the input semantic converter module 230, the corresponding node NODE 0 ~ NODE n The next action is determined probabilistically using the state transition table, and the determination result is output to the action switching module 261.
[0057]
The action switching module 261 shown in FIG. 5 selects an action output from an action model with a predetermined high priority among actions output from each action model of the action model library 260, and executes the action. A command to be performed (hereinafter referred to as an action command) is sent to the output semantic converter module 247 of the middleware layer 210. In this embodiment, the higher priority is set for the behavior model shown on the lower side in FIG.
[0058]
Further, the behavior switching module 261 notifies the learning module 262, the emotion model 263, and the instinct model 264 that the behavior is completed based on the behavior completion information given from the output semantic converter module 247 after the behavior is completed.
[0059]
The learning module 262 inputs the recognition result of the teaching received as an action from the user, such as “beated” or “admired” among the recognition results given from the input semantic converter module 230. Based on the recognition result and the notification from the behavior switching module 261, the learning module 262 decreases the probability of the behavior when “scored” and increases the probability of the behavior when “praised”. The corresponding transition probability of the corresponding behavior model in the behavior model library 260 is changed.
[0060]
The emotion model 263 is the sum of “Joy”, “Sadness”, “Anger”, “Surprise”, “Disgust” and “Fear”. For each of the six emotions, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion model 263 uses the parameter values of these emotions as the specific recognition results such as “beated” and “admired” given from the input semantic converter module 230, the elapsed time and the behavior switching module 261, respectively. It is updated periodically based on notifications from and so on.
[0061]
Specifically, the emotion model 263 is obtained by a predetermined arithmetic expression based on the recognition result given from the input semantic converter module 230, the behavior of the robot apparatus 1 at that time, the elapsed time since the last update, and the like. ΔE [t] is the amount of fluctuation of the emotion that is calculated at that time, E [t] is the parameter value of the current emotion, and k is the coefficient representing the sensitivity of the emotion. e Then, the parameter value E [t + 1] of the emotion in the next cycle is calculated by the equation (1), and the parameter value of the emotion is updated so as to replace the parameter value E [t] of the emotion in the next cycle. . In addition, the emotion model 263 updates the parameter values of all emotions in the same manner.
[0062]
[Expression 1]
Figure 0004649806
[0063]
It should be noted that how much each notification result and notification from the output semantic converter module 247 affects the amount of change ΔE [t] of the parameter value of each emotion is determined in advance. The recognition result has a great influence on the fluctuation amount ΔE [t] of the emotion value of “anger”, and the recognition result such as “admired” has the fluctuation amount ΔE [t] of the parameter value of the emotion of “joy”. It has come to have a big influence on.
[0064]
Here, the notification from the output semantic converter module 247 is so-called action feedback information (behavior completion information), which is information on the appearance result of the action, and the emotion model 263 changes the emotion also by such information. Let This is, for example, that the emotional level of anger is lowered by an action such as “barking”. Note that the notification from the output semantic converter module 247 is also input to the learning module 262 described above, and the learning module 262 changes the corresponding transition probability of the behavior model based on the notification.
[0065]
The feedback of the action result may be performed by the output of the action switching module 261 (the action to which the emotion is added).
[0066]
The instinct model 264 includes “exercise”, “affection”, “charge desire” (hereinafter referred to as “appetite”), and “curiosity”. For each of the four desires, a parameter representing the strength of the desire is held for each of these desires. The instinct model 264 periodically updates the parameter values of these desires based on the recognition result given from the input semantic converter module 230, the elapsed time and the notification from the behavior switching module 261, and the like.
[0067]
Specifically, the instinct model 264 uses a predetermined arithmetic expression for “exercise greed”, “loving lust” and “curiosity” based on the recognition result, elapsed time, notification from the output semantic converter module 247, and the like. ΔI [k] is the fluctuation amount of the desire at that time to be calculated, I [k] is the current parameter value of the desire, and a coefficient k representing the sensitivity of the desire i The parameter value I [k + 1] of the desire in the next cycle is calculated using the equation (2) at a predetermined cycle, and the calculation result is replaced with the current parameter value I [k] of the desire. Update the desire parameter value. Also, the instinct model 264 updates the parameter values of each desire except “appetite” in the same manner.
[0068]
[Expression 2]
Figure 0004649806
[0069]
It should be noted that how much the recognition result and the notification from the output semantic converter module 247 affect the fluctuation amount ΔI [k] of each desire parameter value is determined in advance, for example, from the output semantic converter module 247. This notification has a great influence on the fluctuation amount ΔI [k] of the parameter value of “fatigue”.
[0070]
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range from 0 to 100, respectively, and the coefficient k e , K i The value of is also set individually for each emotion and each desire.
[0071]
As shown in FIG. 4, the output semantic converter module 247 of the middleware layer 210 performs “forward”, “joy”, “ring” or the like given from the behavior switching module 261 of the application layer 211 as described above. An abstract action command such as “tracking (following the ball)” is given to the corresponding signal processing modules 240 to 246 of the output system 251.
[0072]
When the action command is given, these signal processing modules 240 to 246, based on the action command, actuate the corresponding actuator 28. 1 ~ 28 n The servo command value to be given to (FIG. 2), the sound data of the sound output from the speaker 20 (FIG. 2) and / or the drive data to be given to the LED of the light emitting section 25 (FIG. 2) are generated, and these data are The corresponding actuator 28 via the virtual robot 203 of the tick server object 202 and the signal processing circuit 14 (FIG. 2) 1 ~ 28 n , Sequentially sent to the speaker 20 or the light emitting unit 25.
[0073]
In this way, the robot apparatus 1 can perform an autonomous action according to its own (internal) and surrounding (external) situations, and instructions and actions from the user based on the control program.
[0074]
Subsequently, the impact absorbing mechanism, which is an application portion of the present invention, will be described in detail below. The impact absorbing mechanism absorbs an impact applied to the head unit 4 of the robot apparatus 1 by dropping or the like, for example, by the elastic force of the elastic member.
[0075]
Specifically, a case where an impact is applied to the head unit 4 in the direction indicated by the arrow a in FIG. Here, the movable member 130 corresponding to the “neck” of the robot apparatus 1 is connected to the support member 120, and the support member 120 is coupled and fixed at one end of the elastic member 110 via the attachment members 160 a and 160 b. . In addition, the other end of the elastic member 110 is connected to the internal housing 140 housed in the body unit 2 via attachment members 160c to 160f. As described above, the elastic member 110 is connected to the inner casing 140 at one end via the attachment parts 160c to 160f, but is not fixed to the inner casing 140 at the other end. Therefore, when an impact is applied in the direction indicated by the arrow a in the figure, the elastic member 110 bends with the attachment parts 160e and 160f as fulcrums, and the movable member 130 and the support member 120 are in the figure with respect to the internal housing 140. Move in the direction indicated by arrow b. The impact is absorbed by the elastic deformation of the elastic member 110.
[0076]
Hereinafter, the configuration of such an impact absorbing mechanism will be described in detail. Here, in the following description, “vertical” refers to a direction penetrating from the abdomen to the back of the robot apparatus 1, and “horizontal” refers to a direction connecting the shoulder and tail of the robot apparatus 1. This direction is determined for convenience of explanation, and is not limited to the direction shown in the present embodiment.
[0077]
Details of the elastic member 110 and the support member 120 in the shock absorbing mechanism are shown in FIG. The elastic member 110 has elasticity such as a leaf spring. The elastic member 110 is formed in a substantially U-shape having a base 111 and two arms 112a and 112b by cutting out a substantially rectangular member in contact with one short side of the substantially rectangular member. Yes. Further, the arm portions 112a and 112b are bent so as to have horizontal surfaces 113a and 113b, inclined surfaces 114a and 114b, and vertical surfaces 115a and 115b in accordance with the shape of the inner casing 140 described later. The portion is provided with ribs 116a to 116d for reinforcement.
[0078]
At one end of the vertical surfaces 115a and 115b of the arm portions 112a and 112b, insertion holes 117a and 117b for inserting attachment parts 160a and 160b described later are provided. The vertical surfaces 115a and 115b are provided with cut-and-raised pieces 118a and 118b, and the tips thereof are bent so as to be substantially parallel to the vertical surfaces 115a and 115b. As will be described later, the elastic member 110 and the support member 120 are connected and fixed via the attachment parts 160a and 160b and the cut and raised pieces 118a and 118b. Further, bent portions 119 a and 119 b are provided at the ends of the vertical surfaces 115 a and 115 b toward the back surface of the elastic member 110. The bent portions 119a and 119b will be described later.
[0079]
One end of the base 111 is provided with insertion holes 117c and 117d through which attachment parts 160c and 160d, which will be described later, for connecting to the internal housing 140 are inserted. In addition, insertion holes 117e and 117f for inserting the attachment parts 160e and 160f are provided at one end of the horizontal surfaces 113a and 113b of the arm portions 112a and 112b. The elastic member 110 and the internal housing 140 are connected and fixed via these 160c to 160f.
[0080]
On the other hand, as shown in FIG. 10, the support member 120 has a drive motor 121 for driving a movable member 130 described later. The support member 120 has a rotation shaft 122 for mounting the movable member 130. The rotational force of the drive motor 121 is transmitted to the rotary shaft 122 via a gear (not shown), whereby the movable member 130 has an opening 123 within a range of a rotation angle of about 90 ° with the rotary shaft 122 as the rotation center. The area is driven to rotate.
[0081]
The support member 120 has horizontal surfaces 124a and 124b, inclined surfaces 125a and 125b, and vertical surfaces 126a and 126b, and is in contact with the elastic member 110 on these surfaces. Here, the horizontal surfaces 113a and 113b of the elastic member 110 correspond to the horizontal surfaces 124a and 124b of the support member 120, the inclined surfaces 114a and 114b correspond to the inclined surfaces 125a and 125b, and the vertical surfaces 115a and 115b correspond to the vertical surfaces 126a and 126b, respectively. .
[0082]
The vertical surfaces 126a and 126b are provided with locking holes 127a and 127b for locking the cut and raised pieces 118a and 118b and insertion holes 128a and 128b for inserting the attachment parts 160a and 160b. ing.
[0083]
By the way, the elastic member 110 and the support member 120 described above are connected and fixed via attachment parts 160a and 160b and cut and raised pieces 118a and 118b. Details will be described below. As shown in FIG. 11, the cut and raised pieces 118a and 118b have horizontal portions 150a and 150b and vertical portions 151a and 151b. The lengths of the horizontal portions 150a and 150b are substantially the same as the thicknesses of the members on the vertical surfaces 126a and 126b of the support member 120. The elastic members 110 are locked to the support member 120 by the cut and raised pieces 118 a and 118 b being locked to the locking holes 127 a and 127 b of the support member 120. Further, the attachment parts 160a and 160b are coupled and fixed by being inserted into the insertion holes 117a and 117b of the elastic member 110 and the insertion holes 128a and 128b of the support member 120, respectively.
[0084]
The shock absorbing mechanism in the present embodiment is configured by connecting the movable member 130 corresponding to the “neck” of the robot apparatus 1 to the elastic member 11 and the support member 120 that are connected and fixed as described above. . That is, as shown in FIG. 12, the movable member 130 has a substantially cylindrical shape and is rotatably mounted on the rotation shaft 122 of the support member 120.
[0085]
The support member 120 and the elastic member 110 are connected by attachment parts 160a and 160b that are, for example, screws.
[0086]
Further, the elastic member 110 and the inner housing 140 are connected by attachment parts 160c to 160f. Specifically, as shown in FIG. 13, the attachment parts 160 c to 160 f are inserted and inserted into the insertion holes 117 c to 117 f of the elastic member 110 and the insertion holes 141 c to 141 f of the inner housing 140, so that they are coupled and fixed. As a result, the release portion at the top of the inner housing 140 is covered with the elastic member 110, and the support member 120 is stored inside the inner housing 140. That is, the elastic member 110 constitutes a part of the inner housing 140.
Notches 142a and 142b are provided on the front surface of the inner casing 140, and the bent portions 119a and 119b of the elastic member 110 described above are engaged with the notches 142a and 142b. Furthermore, as shown in FIG. 14, the inner casing 140 is positioned by making the back surface of the elastic member 110 contact the edge portions 143 a and 143 b of the front surface.
[0087]
Here, as shown in FIG. 15, the attachment parts 160c and 160d are configured to be positioned above the attachment parts 160e and 160f. As a result, since the preload is applied to the elastic member 110 in the direction of the support member 120, the elastic member 110 does not bend during normal operation and does not rattle. Furthermore, the back surface of the elastic member 110 is pressed against the edges 143a and 143b of the internal housing 140 by the preload.
[0088]
Consider a case where an impact is applied to the movable member 130 of the impact absorbing mechanism having the above-described configuration in the direction indicated by the arrow a in FIG. The elastic member 110 is connected to the inner casing 140 at one end thereof by attachment parts 160c to 160f, but is not fixed to the inner casing 140 at the other end. Therefore, when an impact is applied in the direction indicated by the arrow a in the figure, the elastic member 110 bends with the mounting parts 160e and 160f as fulcrums, separates from the edges 143a and 143b of the internal housing 140, and the movable member 130 Then, the support member 120 moves in the direction indicated by the arrow b in the drawing with respect to the inner housing 140. The impact is absorbed by this elastic deformation.
[0089]
As described above, according to the shock absorbing mechanism in the present embodiment, the support member 120 that supports the movable member 130 is connected to one end of the elastic member 110, and the internal housing 140 is connected to the other end. The impact applied to the movable member 130 can be absorbed by the elastic force of the member 110.
[0090]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. For example, although the present embodiment has been described with respect to a quadruped legged mobile robot, the robot apparatus can be applied as long as it operates according to the internal state, and the moving means is a quadruped walking, Furthermore, it is not limited to the leg type movement method.
[0091]
In the present embodiment, the shock absorbing mechanism is described as absorbing the shock to the head unit. However, the present invention is not limited to this, and the leg unit and the like are provided with the same mechanism. It is possible to absorb the impact applied to these.
[0092]
【The invention's effect】
As described above in detail, the robot apparatus according to the present invention is a robot apparatus in which a movable part that is movable with respect to a main body is coupled, and a support member that movably supports the movable part; It has a connection member which connects a member and the above-mentioned main part, and the above-mentioned connection member absorbs an impact applied to the above-mentioned movable part, It is characterized by the above-mentioned.
[0093]
Here, in the robot apparatus, the main body is coupled to one end of the connection member, and the support portion is coupled to the other end, and the connection member is elastically deformed to be applied to the movable portion. The shock is absorbed.
[0094]
Moreover, in the robot apparatus, in order to prevent the connection member and the support member from rattling, the main body and the connection member are coupled by applying a preload in a direction with respect to the main body.
[0095]
According to such a robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is absorbed by the elastic deformation of the connecting member, and the robot It is possible to prevent the mechanical mechanism of the apparatus from being plastically deformed or broken.
[0096]
The impact absorbing method for a robot apparatus according to the present invention is an impact absorbing method for a robot apparatus in which a movable part movable with respect to a main body is connected, and a support part for movably supporting the movable part; An impact applied to the movable part is absorbed by a connecting member that connects the main body.
[0097]
Here, in the impact absorbing method of the robot apparatus, the main body is coupled to one end of the connection member, and the support portion is coupled to the other end, and the movable member is elastically deformed to thereby move the movable member. The impact applied to the part is absorbed.
[0098]
Further, in the impact absorbing method of the robot apparatus, in order to prevent the connection member and the support member from rattling, the main body and the connection member are connected by applying a preload to the main body.
[0099]
According to such a shock absorbing method of the robot apparatus, even when an impact is applied to a movable part such as a head or a leg connected to the main body by dropping or the like, the impact is caused by elastic deformation of the connecting member. Absorbed, the mechanical mechanism of the robot apparatus can be prevented from being plastically deformed or broken.
[Brief description of the drawings]
FIG. 1 is an external view showing an external appearance of a robot apparatus shown as one configuration example of the present invention.
FIG. 2 is a configuration diagram showing a configuration of a robot apparatus shown as an example of the configuration of the present invention.
FIG. 3 is a configuration diagram showing a software configuration of a control program of the robot apparatus shown as an example of the configuration of the present invention.
FIG. 4 is a configuration diagram showing a configuration of a middleware layer in a control program for a robot apparatus shown as one configuration example of the present invention.
FIG. 5 is a configuration diagram showing a configuration of an application layer in a control program for a robot apparatus shown as an example of the configuration of the present invention.
FIG. 6 is a configuration diagram showing a configuration of an action model library in a control program for a robot apparatus shown as an exemplary configuration of the present invention.
FIG. 7 is a schematic diagram illustrating a finite probability automaton that is an algorithm for determining the behavior of the robot apparatus shown as an example of the configuration of the present invention.
FIG. 8 is a diagram showing a state transition condition for determining the behavior of the robot apparatus shown as one configuration example of the present invention.
FIG. 9 is a side view illustrating a state in which an impact is absorbed by an impact absorbing mechanism in the robot apparatus shown as an example of the configuration of the present invention.
FIG. 10 is a perspective view showing configurations of an elastic member and a support member in the shock absorbing mechanism.
FIG. 11 is a cross-sectional view illustrating the connection between the elastic member and the support member.
FIG. 12 is a side view showing the configuration of the shock absorbing mechanism.
FIG. 13 is a perspective view illustrating the connection between the shock absorbing mechanism and the main body.
FIG. 14 is a perspective view for explaining connection between the elastic member and the main body.
FIG. 15 is a side view illustrating a configuration in which a preload is applied to the elastic member.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Robot apparatus, 2 trunk | drum unit, 3A, 3B, 3C, 3D Leg unit, 4 head unit, 5 tail part, 110 elastic member, 111 base part, 112a, 112b arm part, 117a, 117b, 117c, 117d Hole, 118a, 118b Cut and raised piece, 119a, 119b Bent part, 120 Support member, 121 Drive motor, 122 Rotating shaft, 127a, 127b Locking port, 128a, 128b Insertion hole, 130 Movable part, 140 Internal housing, 141c, 141d, 141e, 141f Insertion hole, 142a, 142b Notch, 143a, 143b Edge

Claims (6)

本体に対して可動とされる可動部が連結されてなるロボット装置であって、
回転軸を有し、上記可動部を該回転軸により回転自在に支持する支持部材と、
上記支持部材と上記本体とを接続する接続部材とを有し、
上記接続部材は、上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結され、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収するロボット装置。
A robot apparatus in which a movable part that is movable with respect to a main body is connected,
A support member having a rotation shaft and rotatably supporting the movable portion by the rotation shaft ;
A connecting member for connecting the support member and the main body;
The connection member is bent in the rotation direction of the movable part, the main body is coupled to one end of the connection member via a first attachment member, and a second attachment member is connected to the other end of the connection member. When the impact is applied to the movable part, the first attachment member is bent as a fulcrum when the impact is applied to the movable part, and the movable part and the support member are moved in a direction in which the movable part is moved by the impact. Is a robot apparatus that absorbs the impact applied to the movable part by moving in the opposite direction .
上記第1の取り付け部材は、上記接続部材に対して上記支持部材の方向に予圧をかける請求項1記載のロボット装置。 The robot apparatus according to claim 1, wherein the first attachment member applies a preload to the connection member in the direction of the support member . 上記ロボット装置は、動物を模した形状を有し、
上記可動部材は、上記ロボット装置の頭部を構成す請求項1記載のロボット装置。
The robot apparatus has a shape imitating an animal,
The movable member is a robot apparatus according to claim 1, wherein that make up the head of the robot apparatus.
本体に対して可動とされる可動部が連結されてなり、該可動部を回転軸により回転自在に支持する支持部材と、該支持部材と該本体とを接続する接続部材とを有するロボット装置の衝撃吸収方法であって、
上記可動部の回転方向に曲折され、該接続部材の一端に第1の取り付け部材を介して上記本体が連結されるとともに、該接続部材の他端に第2の取り付け部材を介して上記支持部材が連結される上記接続部材によって、上記可動部に衝撃が加えられた際に該第1の取り付け部材を支点として撓み、上記可動部及び上記支持部材を該衝撃により該可動部が移動した方向とは逆の方向に移動させて上記可動部に加えられた衝撃を吸収するロボット装置の衝撃吸収方法。
Ri Na the movable portion which is movable is connected to the main body, the robot device comprising a supporting member for rotatably supporting the movable portion by a rotation shaft, and a connecting member for connecting the said support member and said body The shock absorbing method of
The movable member is bent in the rotation direction, and the main body is coupled to one end of the connection member via a first attachment member, and the support member is coupled to the other end of the connection member via a second attachment member. When the impact is applied to the movable portion by the connecting member to which the movable portion is coupled, the first mounting member is bent as a fulcrum, and the movable portion and the support member are moved in a direction in which the movable portion is moved by the impact. Is a shock absorbing method for a robotic device that absorbs an impact applied to the movable part by moving in the opposite direction .
上記第1の取り付け部材によって上記接続部材に対して上記支持部材の方向に予圧をかける請求項記載のロボット装置の衝撃吸収方法。 5. The impact absorbing method for a robot apparatus according to claim 4 , wherein a preload is applied to the connection member in the direction of the support member by the first attachment member . 上記ロボット装置は、動物を模した形状を有し、
上記可動部材は、上記ロボット装置の頭部を構成す請求項記載のロボット装置の衝撃吸収方法。
The robot apparatus has a shape imitating an animal,
Said movable member, the shock-absorbing method of the robot apparatus according to claim 4, wherein that make up the head of the robot apparatus.
JP2001268125A 2001-09-04 2001-09-04 Robot apparatus and shock absorbing method for robot apparatus Expired - Fee Related JP4649806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001268125A JP4649806B2 (en) 2001-09-04 2001-09-04 Robot apparatus and shock absorbing method for robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001268125A JP4649806B2 (en) 2001-09-04 2001-09-04 Robot apparatus and shock absorbing method for robot apparatus

Publications (2)

Publication Number Publication Date
JP2003071755A JP2003071755A (en) 2003-03-12
JP4649806B2 true JP4649806B2 (en) 2011-03-16

Family

ID=19094153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001268125A Expired - Fee Related JP4649806B2 (en) 2001-09-04 2001-09-04 Robot apparatus and shock absorbing method for robot apparatus

Country Status (1)

Country Link
JP (1) JP4649806B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105108747A (en) * 2015-08-04 2015-12-02 深圳市金刚蚁机器人技术有限公司 Device for achieving seamless motion of head and neck of robot and method for device
CN108544512A (en) * 2018-06-26 2018-09-18 慈溪市小艺机器人科技有限公司 A kind of robot that can cultivate children operating capability ability

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005125436A (en) * 2003-10-22 2005-05-19 Kawada Kogyo Kk Floating support structure for protruding part of walking robot
WO2019088160A1 (en) * 2017-11-01 2019-05-09 Groove X株式会社 Autonomously acting robot capable of executing reflex action
CN113492977A (en) * 2020-04-07 2021-10-12 隆安良 Full-automatic topographic map mapping device of robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105108747A (en) * 2015-08-04 2015-12-02 深圳市金刚蚁机器人技术有限公司 Device for achieving seamless motion of head and neck of robot and method for device
CN108544512A (en) * 2018-06-26 2018-09-18 慈溪市小艺机器人科技有限公司 A kind of robot that can cultivate children operating capability ability
CN108544512B (en) * 2018-06-26 2021-07-27 慈溪市小艺机器人科技有限公司 Robot capable of cultivating child manual ability

Also Published As

Publication number Publication date
JP2003071755A (en) 2003-03-12

Similar Documents

Publication Publication Date Title
US7062356B2 (en) Robot apparatus, control method for robot apparatus, and toy for robot apparatus
KR20010095176A (en) Robot and action deciding method for robot
US20060184273A1 (en) Robot device, Behavior control method thereof, and program
JP2005193331A (en) Robot device and its emotional expression method
JP4635398B2 (en) Robot equipment
JP2003266351A (en) Robot device and motion control method therefor
JP2007125631A (en) Robot device and motion control method
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP4649806B2 (en) Robot apparatus and shock absorbing method for robot apparatus
JP2004298975A (en) Robot device and obstacle searching method
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2003071775A (en) Robot device
JP2002059384A (en) Learning system and learning method for robot
JP2004114285A (en) Robotic device and its behavior control method
JP2004066381A (en) Robot device
JP2003071757A (en) Robot device
JP2003071756A (en) Robot device
US11833441B2 (en) Robot
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP4296702B2 (en) Action expression device and toy
JP2002120183A (en) Robot device and input information detecting method for robot device
JP2001157980A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP2002116100A (en) Contact detecting sensor and toy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees