JP2003159674A - ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム - Google Patents

ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム

Info

Publication number
JP2003159674A
JP2003159674A JP2001356529A JP2001356529A JP2003159674A JP 2003159674 A JP2003159674 A JP 2003159674A JP 2001356529 A JP2001356529 A JP 2001356529A JP 2001356529 A JP2001356529 A JP 2001356529A JP 2003159674 A JP2003159674 A JP 2003159674A
Authority
JP
Japan
Prior art keywords
external force
joint
control signal
command value
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001356529A
Other languages
English (en)
Inventor
Shingo Tsurumi
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001356529A priority Critical patent/JP2003159674A/ja
Publication of JP2003159674A publication Critical patent/JP2003159674A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 歩行中に加えられる外力を、特別なセンサを
不要としながらも検出し、外力に応じた行動を取ること
ができるロボット装置を提供する。 【解決手段】 衝突検出装置86は、関節指令値と制御
信号との差分を算出し、その差分と所定の閾値とを比較
し、衝突を検出し、その衝突による外力の発生を検出す
る。検出した外力により、ロボット装置1は、痛がると
か、怒るとかの感情表現をする。あるいは外力の発生原
因となった例えば障害物を回避して別の方向へ歩行する
といった行動をとる。別の方向へ歩行するときには、そ
の外力をフィードバックして例えば関節指令値の計算に
用いる。指令装置81は、検出結果を制御装置82に供
給する関節指令値の計算に反映させる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、関節部を介して胴
体部に接続された脚を自在に駆動しながら接地面に対し
て移動するロボット装置に関し、特に外力を検出し、そ
の外力をフィードバックした行動をとるロボット装置に
関する。また、本発明は、前記外力を検出するためのロ
ボット装置の外力検出方法及びロボット装置の外力検出
プログラム、並びにロボット装置の外力検出のためのキ
ャリブレーション方法及びロボット装置の外力検出のた
めのキャリブレーションプログラムに関する。
【0002】
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータや搬送ロボット等の産業用ロボット(Industri
al Robot)であった。
【0003】最近では、人間のパートナーとして生活を
支援する、すなわち住環境その他の日常生活上の様々な
場面における人的活動を支援する実用ロボットの開発が
進められている。このような実用ロボットは、産業用ロ
ボットとは異なり、人間の生活環境の様々な局面におい
て、個々に個性の相違した人間、又は様々な環境への適
応方法を自ら学習する能力を備えている。例えば、犬、
猫のように4足歩行の動物の身体メカニズムやその動作
を模した「ペット型」ロボット、或いは、2足直立歩行
を行う動物の身体メカニズムや動作をモデルにしてデザ
インされた「人間型」又は「人間形」ロボット(Humano
id Robot)等の脚式移動ロボットは、既に実用化されつ
つある。
【0004】これらの脚式移動ロボットは、産業用ロボ
ットと比較して、エンターテインメント性を重視した様
々な動作を行うことができるため、エンターテインメン
トロボットと呼称される場合もある。
【0005】例えば4足歩行型のエンターティンメント
ロボットに何らかの外力が加えられたことを検出するた
めには、足先等にセンサを取り付け、そのセンサ出力か
ら外力を判断する方法が最も簡易的である。図25の4
足歩行ロボット101が障害物110に接触したことを
検出したいときを例に挙げて説明する。
【0006】4足歩行ロボット101は、胴体部102
に関節を介してそれぞれ脚103A、103B、103
C、103Dを取り付けている。各脚の足先にはタッチ
センサが用意されている。障害物に脚103Aが接触す
ると、センサは障害物110による外力F2を検出す
る。しかし、この方法ではセンサを取り付けた場所への
外力F2しか測定できず、図26に示すような胴体部1
02に加わった外力を検出できない。また、センサによ
り外力を検出する方法は、システムが複雑になり重量も
増加してしまうという欠点があった。
【0007】そこで、関節への入力信号、すなわち関節
を駆動するための駆動手段であるモータを制御するため
の信号である、PWM Duty比を利用して、外力を測定
する方法が提案されている。この方法は、外力を加えら
れた際に、各関節に加わるトルクをPWM Duty比から
予測し、加えられた外力を推定するというものである。
【0008】
【発明が解決しようとする課題】ところが、ロボット装
置が歩行中のように関節を指令値通りに動かす際には、
外力にかかわらず入力信号(PWM Duty比)が変化す
るため、この方法でロボット装置の動作中に外力を正確
に検出することはできない。
【0009】しかし、歩行中の脚が障害物に衝突するこ
とは頻繁に起こり、何らかの方法で検出し、回避行動を
とることが望まれる。
【0010】本発明は、前記実情に鑑みてなされたもの
であり、歩行中に加えられる外力を、特別なセンサを不
要としながらも検出し、外力に応じた行動を取ることが
できるロボット装置の提供を目的とする。
【0011】また、本発明は、ロボット装置の歩行中に
加えられる外力を、特別なセンサを不要としながらも検
出できるロボット装置の外力検出方法及びロボット装置
の外力検出プログラムの提供を目的とする。
【0012】また、本発明は、ロボット装置の脚が接地
する接地面の状態が異なっても適正にロボット装置に外
力を検出させることができるロボット装置の外力検出の
ためのキャリブレーション方法及びロボット装置の外力
検出のためのキャリブレーションプログラムの提供を目
的とする。
【0013】
【課題を解決するための手段】本発明に係るロボット装
置は、前記課題を解決するために、関節部を介して胴体
部に接続された脚を自在に駆動しながら接地面に対して
移動するロボット装置において、前記関節部を駆動させ
るための目標値となる関節指令値と、外力の影響を受け
る環境にて関節部を駆動させるための制御信号との差分
に基づいて前記外力を検出する外力検出手段を備え、前
記外力検出手段によって検出された外力に基づいた行動
を取る。
【0014】特に、外力検出手段は、前記制御的なPW
M Duty比と理論的なPWM Duty比との差分が、所定の
レベルを所定の時間超えたときに、外力を検出したとみ
なす。
【0015】また、このロボット装置は、前記関節指令
値を算出する関節指令値算出手段と、前記制御信号を算
出する制御信号算出手段と、前記制御信号算出手段によ
って算出された制御信号に基づいて駆動力を発生する駆
動手段と、前記駆動手段によって発生された駆動力によ
って前記関節部を動作させる動作手段とをさらに備え、
前記外力検出手段は前記関節指令値算出手段が算出した
関節指令値と前記制御信号算出手段が算出した制御信号
との差分に基づいて外力を検出する。
【0016】本発明に係るロボット装置の外力検出方法
は、前記課題を解決するために、関節部を介して胴体部
に接続された脚を自在に駆動しながら接地面に対して移
動するロボット装置に加えられた外力を検出するための
ロボット装置の外力検出方法において、前記関節部を駆
動させるための目標値となる関節指令値と、外力の影響
を受ける環境にて関節部を駆動させるための制御信号と
の差分に基づいて前記外力を検出する。
【0017】このため、本発明に係るロボット装置の外
力検出方法は、前記関節指令値を算出する関節指令値算
出工程と、前記制御信号を算出する制御信号算出工程
と、前記関節指令値算出工程で算出された関節指令値と
前記制御信号算出工程で算出された制御信号との差分を
算出する差分算出工程と、前記差分算出工程で算出され
た差分に基づいて外力を検出する外力検出工程とを備え
る。
【0018】本発明に係るロボット装置の外力検出プロ
グラムは、前記課題を解決するために、関節部を介して
胴体部に接続された脚を自在に駆動しながら接地面に対
して移動するロボット装置に加えられた外力を検出する
ためにロボット装置に実行されるロボット装置の外力検
出プログラムにおいて、前記関節部を駆動させるための
目標値となる関節指令値を算出する関節指令値算出工程
と、前記外力の影響を受ける環境にて関節部を駆動させ
るための制御信号を算出する制御信号算出工程と、前記
関節指令値算出工程で算出された関節指令値と前記制御
信号算出工程で算出された制御信号との差分を算出する
差分算出工程と、前記差分算出工程で算出された差分に
基づいて外力を検出する外力検出工程とを備える。
【0019】本発明に係るロボット装置の外力検出のた
めのキャリブレーション方法は、前記課題を解決するた
めに、関節部を介して胴体部に接続された脚を自在に駆
動しながら接地面に対して移動するロボット装置が、前
記関節部を駆動させるための目標値となる関節指令値
と、外力の影響を受ける環境にて関節部を駆動させるた
めの制御信号との差分に基づいて外力を検出するときに
用いる閾値を前記接地面の状態に応じてキャリブレーシ
ョンするロボット装置の外力検出のためのキャリブレー
ション方法であって、現在の接地面の状態におけるノー
マル歩行時のデータパターンを生成するノーマルデータ
パターン生成工程と、現在の接地面の状態における外力
が加えられた歩行時のデータパターンを前記ノーマルデ
ータパターン生成工程で生成されたノーマル歩行時のデ
ータパターンを基に生成する外力時データパターン生成
工程と、前記ノーマルデータ生成工程で生成されたノー
マル歩行時のデータパターンと、前記外力時データパタ
ーン生成工程で生成された外力時データパターンとか
ら、前記閾値を決定する閾値決定工程とを備える。
【0020】本発明に係るロボット装置の外力検出のた
めのキャリブレーションプログラムは、前記課題を解決
するために、関節部を介して胴体部に接続された脚を自
在に駆動しながら接地面に対して移動するロボット装置
が、前記関節部を駆動させるための目標値となる関節指
令値と、外力の影響を受ける環境にて関節部を駆動させ
るための制御信号との差分に基づいて外力を検出すると
きに用いる閾値を前記接地面の状態に応じてキャリブレ
ーションするロボット装置の外力検出のためのキャリブ
レーションプログラムであって、現在の接地面の状態に
おけるノーマル歩行時のデータパターンを生成するノー
マルデータパターン生成工程と、現在の接地面の状態に
おける外力が加えられた歩行時のデータパターンを前記
ノーマルデータパターン生成工程で生成されたノーマル
歩行時のデータパターンを基に生成する外力時データパ
ターン生成工程と、前記ノーマルデータ生成工程で生成
されたノーマル歩行時のデータパターンと、前記外力時
データパターン生成工程で生成された外力時データパタ
ーンとから、前記閾値を決定する閾値決定工程とを備え
る。
【0021】なお、前記図25、図26ともに、外力が
加えられたことにより関節に加わるトルクがT2、T1
+T2のように変化する。このトルクの変化から外力を
検出することができる。トルクの変化は、関節を駆動す
るための駆動手段であるモータの制御入力(PWM Dut
y比)から検出するが、これは指令値通りに動作させる
ための制御入力の影響を除去したものを利用する。
【0022】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。この実施の形態は、関
節部を介して胴体部に接続された脚を自在に駆動しなが
ら接地面に対して移動するロボット装置であり、関節部
を駆動させるための目標値となる関節指令値と、外力の
影響を受ける環境にて関節部を駆動させるための制御信
号との差分に基づいて外力を検出する。前記関節指令値
と前記制御信号は、駆動装置であるモータの駆動力を制
御するためのPWM Duty比である。
【0023】検出した外力により、ロボット装置は、痛
がるとか、怒るとかの感情表現をする。あるいは外力の
発生原因となった例えば障害物を回避して別の方向へ歩
行するといった行動をとる。別の方向へ歩行するときに
は、その外力をフィードバックして例えば前記関節指令
値の計算に用いる。
【0024】このため、図1に示すように、ロボット装
置1は、関節指令値を計算する関節指令値算出手段であ
る指令装置81と、指令装置81により計算された関節
指令値に基づいて前記制御信号を算出する制御信号算出
手段である制御装置82と、制御装置82からの前記制
御信号に基づいて駆動力を発生するモータである駆動装
置83と、駆動装置83によって発生された駆動力を用
いて各関節部及び脚部を動かす動作部84と、動作部8
4に供給された前記駆動力を受けるギア等に設置され、
PID制御の実測値を制御装置82にフィードバックす
るポテンショメータ85と、前記関節指令値と前記制御
信号との差分に基づいて、衝突、捕獲、あるいは押さえ
付け等による外力を検出し、指令装置81に外力の検出
結果をフィードバックする外力検出手段である衝突検出
装置86とを備えてなる。
【0025】なお、この図1は、ロボット装置1が本発
明の外力検出方法に基づいた外力検出プログラムを実行
したときに、外力検出装置として機能することを示す機
能ブロック図である。ロボット装置1の具体例について
は後述する。
【0026】指令装置81は、中央演算装置(CPU)
によりなり、関節部を駆動させるための目標値となる関
節指令値を計算し、制御装置82及び衝突検出装置86
に供給する。
【0027】制御装置82は、指令装置81から供給さ
れた関節指令値をポテンショメータ85からのPID制
御の実測値を基に駆動装置83に駆動力を発生させるた
めの制御信号に変換する。この制御信号は上述したよう
にPWM Duty比であり、駆動装置83に供給されると
共に、衝突検出装置86にも供給される。
【0028】駆動装置83はモータからなり、前記制御
信号に応じて各関節部及び脚部を動かすための駆動力が
制御され、制御された駆動力を動作部84に供給する。
【0029】動作部84は、ギア等の駆動機構からな
り、前記駆動装置83からの駆動力により各関節部及び
脚部を動かす。
【0030】ポテンショメータ85は、例えば関節部を
動かすためのギア部等に取り付けられ、PID制御信号
の実測値を検出し制御装置82に供給する。
【0031】衝突検出装置86は、前記関節指令値と前
記制御信号との差分を算出し、その差分と所定の閾値と
を比較し、衝突を検出し、その衝突による外力の発生を
検出結果として指令装置81に供給する。
【0032】指令装置81は、前記検出結果を制御装置
82に供給する関節指令値の計算に反映させる。
【0033】図2は、ロボット装置1の胴体部2に外力
が加えられたときに、関節部に発生するトルクを示して
いる。左前脚3Aの胴体部2との関節部には、ボディー
に加わる重力fに起因するトルクT1と、外力f’に起
因するトルクT2の合計がかかっている。また、障害物
110に衝突したときには、障害物による外力の他、自
重の重さによる力も加わっている。
【0034】そして、このロボット装置1は、特別なセ
ンサを使用せずに、関節への指令値と制御信号(PWM
Duty比)のみを利用して障害物110への衝突検出を
行う。また、胴体部2にかかる外力を検出する。
【0035】以下、ロボット装置1が歩行しているとき
に、障害物との衝突を検出する処理を図3のフローチャ
ートにしたがって説明する。前述したロボット装置1が
外力を検出するときに実行する外力検出プログラムの具
体例の処理を示している。なお、この外力検出プログラ
ムは、ロボット装置1の後述するフラッシュROMに格
納され、CPUにて実行される。
【0036】先ず、ステップS1にて指令装置81は、
前記関節指令値の計算を始める。この関節指令値は、上
述したように、関節部を駆動させるための目標値であ
る。また、ステップS1にて制御装置82は、ポテンシ
ョメータ85からフィードバックされた検出値(PID
制御値)を用いて駆動装置83に供給するための制御信
号(PWM Duty比)を計算する。
【0037】ステップS2にて指令装置81は、前記関
節指令値に含む、胴体部(ボディー)2に加わる重力に
起因するトルクTを、自重の影響、リンク質量の影
響、関節摩擦係数の影響から算出する。
【0038】自重の影響とは、ロボット装置が地面に脚
をついているときに自身の身体の重さが足にかかるが、
そのときに関節に加わるトルクの影響である。ヤコビ行
列Jを用いて自重Fの影響で関節に加わるトルクτ
計算する計算式は(1)式のようになる。 τ=JF ・・・(1) また、リンク質量の影響とは、リンク/ボディの慣性力
の影響により関節に加わるトルクτの影響である。こ
のトルクτはリンクの質量が小さい場合、歩行速度が
緩やかな場合は無視しても構わない。
【0039】また、関節摩擦係数の影響とは、前記動作
部84のギア等の関節摩擦によるトルクτの影響であ
る。この関節摩擦によるトルクτの特性を図4に示
す。関節の角速度ωの変化に関係して、トルクτが変
化する。
【0040】よって、このステップS2の処理により得
られた各影響の合計値である前記トルクTは、以下の
(2)式にようになる。 T=τ+τ+τ ・・・(2) 次に、ステップS3にて制御装置82は、モーターモデ
ルから理論的なPWMDuty比を算出する。胴体部2の付
け根の関節に注目し、その関節のモーター軸回りの方程
式により得られる。これは、ロボット装置が指令値通り
の動作を行うために必要なPWM Duty比は、モータの
回転角速度と角速度、前記トルクTから求められるこ
とを示す。
【0041】図5に示すモーターモデルにおいて、Iを
モーターMに流れる電流、Jをモータ回転軸の慣性モー
メント、RをモーターMの巻線抵抗、EをモーターMに
かける電圧、θをモーターMの関節角度、kを誘起電
圧定数、kをトルク定数、ψを実際の関節の角度、ψ
refを関節角度指令値、δをPWM Duty比、I
vgをモーターMに流れる電流の平均値、Vをモーター
の電源電圧、Tをボディーに加わる重力に起因するト
ルク、Tを外力に起因するトルクとする。
【0042】すると、モーターM回りの方程式は、次の
(3)式のように示される。
【0043】
【数1】
【0044】これを変形すると、(4)式のようにな
る。
【0045】
【数2】
【0046】最終的に(5)式に示すように外力に起因
するトルクTが求められる。この(5)式において、
右辺の第1項は前記制御信号(control input)であ
り、第2項は関節理論値(reference)である。
【0047】
【数3】
【0048】そして、PWM Duty比:δは、次の
(6)式に示すようにして求められる。
【0049】
【数4】
【0050】図3のフローチャートに戻る。ステップS
4で、衝突検出装置86は、理論的なPWM Duty比の
移動平均と、制御信号の移動平均との差分を算出する。
図2に示したようにロボット装置1が歩行中に障害物1
10に衝突(collision)した場合、例えば脚103Aの
関節には予期せぬトルクT2が加わる。すると、図6に
示すように、制御入力値cntが理論値refと衝突(coll
ision)した付近で異なった変化をする。そこで、理論値
refと制御入力値cntとの差分をとることで、その異な
った変化を抽出するというのがこのステップS4の処理
である。図7には理論値refと制御入力値cntとの差分
differenceの時間timeに対する変化を示す。
【0051】実際には、ステップS5において差分の符
号に応じて使用する閾値(Threshold)とカウンタを選
択する。差分の大きさ(レベル)の閾値threshold_h
と、そのレベルを超えた時間をカウントした値に対する
時間的な閾値threshold_wとを用意する。そして、これ
以降のステップS6〜ステップS10を通して差分があ
る閾値をある時間超えたら衝突を検出したとみなす。
【0052】すなわち、ステップS6にて差分が大きさ
(レベル)の閾値threshold_hを超えたか否かを判別す
る。ここで、差分が閾値threshold_hを超えていれば
(YES)、ステップS7に進みカウンタをインクリメ
ントする。差分が閾値threshold_hを超えていなければ
(NO)、ステップS8に進みカウンタをリセットす
る。
【0053】ステップS9において、衝突検出装置86
がカウンタの値が時間的な閾値threshold_wを超えたと
判別すると、ステップS10にて衝突を検出したと見な
し、その検出結果を指令装置81に通知する。ステップ
S9においてカウンタの値が時間的な閾値threshold_w
を超えていないと判別すると、ステップS1に戻る。
【0054】したがって、このロボット装置1は、特別
なセンサを使用せずに、関節への指令値と制御信号(P
WM Duty比)のみを利用して障害物110との衝突検
出を行うことができる。また、胴体部2にかかる外力を
検出することができる。
【0055】そして、検出した外力により、ロボット装
置1は、痛がるとか、怒るとかの感情表現をする。ある
いは外力の発生原因となった例えば障害物を回避して別
の方向へ歩行するといった行動をとる。別の方向へ歩行
するときには、その外力をフィードバックして例えば前
記関節指令値の計算に用いる。具体的に、指令装置81
は、前記検出結果を制御装置82に供給する関節指令値
の計算に反映させる。
【0056】ところで、ロボット装置1は、歩行パター
ンを切り替える際に、つなぎ動作を行う。このつなぎ動
作が上手く行えないとロボット装置がバランスを崩し、
胴体部の慣性力が起因するトルクが関節に加わる。する
と、外力を誤検出してしまうことがある。よって、この
実施の形態のロボット装置は、図8に示すように、歩行
パタン(walk pattern)をtypeAからtypeBに切り替え
る際には、歩行パターンを切り換えた直後から一定時間
t2は接触又は外力検出を行わないようにしている。
【0057】以下、前記図3に示した外力検出プログラ
ムを実行し、外力を検出するために機能するロボット装
置1の具体例について説明する。図9に示すように、本
実施の形態によるロボット装置1は、4足歩行の脚式移
動ロボットであり、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部に頭部ユニット4が
連結されて構成されている。
【0058】胴体部ユニット2には、図10に示すよう
に、CPU10、DRAM(Dynamic Random Access Me
mory)11、フラッシュROM(Read 0nly Memory)
12、PC(Personal Computer)カードインターフェ
ース回路13及び信号処理回路14が内部バス15を介
して相互に接続されることにより形成されたコントロー
ル部16と、このロボット装置1の動力源としてのバッ
テリ17とが収納されている。また、胴体部ユニット2
には、ロボット装置1の向きや動きの加速度を検出する
ための角速度センサ18及び加速度センサ19なども収
納されている。
【0059】また、頭部ユニット4には、外部の状況を
撮像するとともに、周囲の明るさを検出するためのCC
D(Charge Coupled Device)カメラ20と、前後に倒
すといった使用者からの物理的な働きかけを検出するた
めのタッチセンサ21と、前方に位置する物体までの距
離を測定するための距離センサ22と、外部音を集音す
るためのマイクロホン23と、各種音声を出力するため
のスピーカ24と、頭部ユニット4内に格納可能とされ
たヘッドライト25と、ロボット装置1の「目」に相当
するLED(Light Emitting Diode)(図示せず)など
がそれぞれ所定位置に配置されている。なお、ロボット
装置1においては、タッチセンサ21以外にも、胴体部
ユニット2及び頭部ユニット4の所定位置に複数のタッ
チセンサが配置されている。
【0060】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、並びに頭部ユニット4及び胴体部ユニッ
ト2の連結部分などにはそれぞれ自由度数分のアクチュ
エータ26〜26及びポテンショメータ27〜2
が配設されている。例えば、アクチュエータ26
〜26はサーボモータを構成として有している。サー
ボモータの駆動により、脚部ユニット3A〜3Dが制御
されて、目標の姿勢或いは動作に遷移する。もちろん、
歩行動作もサーボモータの駆動により制御された脚部ユ
ニット3A〜3Dの接地面に対する自在な動きにより成
される。特に、このロボット装置1では、歩行パターン
を切り換えて多様な歩行動作を実現するときのつなぎ動
作を、サーボモータの駆動に基づく脚部ユニット3A〜
3Dの動きと、胴体部ユニット2の動きを制御して実行
する。
【0061】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24、及び各ポテンショメータ
27 〜27などの各種センサ並びにヘッドライト2
5、LED及び各アクチュエータ26 〜26は、
それぞれ対応するハブ28〜28を介してコントロ
ール部16の信号処理回路14と接続され、CCDカメ
ラ20及びバッテリ17は、それぞれ信号処理回路14
と直接接続されている。
【0062】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0063】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0064】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード29又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。この制御プロ
グラムの一部に、前記図3に示した本発明のロボット装
置の外力検出プログラムの具体例が含まれることにな
る。
【0065】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0066】さらに、CPU10は、この判断結果及び
DRAM11に格納した、外力検出プログラムを含む制
御プログラムに基づいて続く行動を決定すると共に、当
該決定結果に基づいて必要なアクチュエータ26〜2
を駆動させることにより、頭部ユニット4を上下左
右に振らせたり、各脚部ユニット3A〜3Dを駆動させ
て歩行させるなどの行動を行わせる。
【0067】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。また、CPU10は、
後述するように、CCDカメラ20を用いて周囲の明る
さを検出させ、その検出結果に応じてヘッドライト25
を点灯させる。
【0068】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0069】次に、前記外力検出プログラムを含む制御
プログラムのソフトウェア構成について説明する。ロボ
ット装置1における上述の制御プログラムのソフトウェ
ア構成は、図11に示すようになる。この図11におい
て、デバイス・ドライバ・レイヤ30は、この制御プロ
グラムの最下位層に位置し、複数のデバイス・ドライバ
からなるデバイス・ドライバ・セット31から構成され
ている。この場合、各デバイス・ドライバは、CCDカ
メラ20(図10)やタイマ等の通常のコンピュータで
用いられるハードウェアに直接アクセスすることを許さ
れたオブジェクトであり、対応するハードウェアからの
割り込みを受けて処理を行う。
【0070】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
【0071】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード29(図10)に格納されたコネクシ
ョンファイルに記述されている各オブジェクト間の接続
情報に基づいて各オブジェクトの接続を管理するソフト
ウェア群である。
【0072】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。本
発明の外力検出プログラムは、このミドル・ウェア・レ
イヤ40に属している。
【0073】また、アプリケーション・レイヤ41は、
ミドル・ウェア・レイヤ40の上位層に位置し、当該ミ
ドル・ウェア・レイヤ40を構成する各ソフトウェア群
によって処理された処理結果に基づいてロボット装置1
の行動を決定するためのソフトウェア群から構成されて
いる。
【0074】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図12、図13に示す。
【0075】ミドル・ウェア・レイヤ40は、図12に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール5
0〜58並びに入力セマンティクスコンバータモジュー
ル59などを有する認識系60と、出力セマンティクス
コンバータモジュール68並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、ライ
ト点灯用及び音再生用の各信号処理モジュール61〜6
7などを有する出力系69とから構成されている。
【0076】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図10)
から読み出される各センサデータや画像データ及び音声
データのうちの対応するデータを取り込み、当該データ
に基づいて所定の処理を施して、処理結果を入力セマン
ティクスコンバータモジュール59に与える。ここで、
例えば、バーチャル・ロボット33は、所定の通信規約
によって、信号の授受或いは変換をする部分として構成
されている。
【0077】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図13)に出力する。
【0078】アプリケーション・レイヤ4lは、図13
に示すように、行動モデルライブラリ70、行動切換モ
ジュール71、学習モジュール72、感情モデル73及
び本能モデル74の5つのモジュールから構成されてい
る。
【0079】行動モデルライブラリ70には、図14に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデル70〜70が設け
られている。
【0080】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。
【0081】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図15に示すような1つのノード(状態)NODE
NODEから他のどのノードNODE〜NODE
に遷移するかを各ノードNODE〜NODEに間を
接続するアークARC〜ARCに対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
【0082】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図16
に示すような状態遷移表80を有している。
【0083】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
【0084】したがって、図16の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0085】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
【0086】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0087】したがって、図16の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0088】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。
【0089】図13に示す行動切換モジュール71は、
行動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた
優先順位の高い行動モデル70〜70から出力され
た行動を選択し、当該行動を実行すべき旨のコマンド
(以下、これを行動コマンドという。)をミドル・ウェ
ア・レイヤ40の出力セマンティクスコンバータモジュ
ール68に送出する。なお、この実施の形態において
は、図14において下側に表記された行動モデル70
〜70ほど優先順位が高く設定されている。
【0090】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。
【0091】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0092】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
【0093】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。
【0094】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(7)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0095】
【数5】
【0096】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0097】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
【0098】なお、行動結果のフィードバックは、行動
切換モジュレータ71の出力(感情が付加された行動)
によりなされるものであってもよい。
【0099】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換モジュール71から
の通知などに基づいて周期的に更新する。
【0100】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(8)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0101】
【数6】
【0102】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0103】なお、このロボット装置1においては、各
情動及び各欲求(本能)のパラメータ値がそれぞれ0か
ら100までの範囲で変動するように規制されており、ま
た係数k、kの値も各情動及び各欲求ごとに個別に
設定されている。
【0104】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図12に
示すように、上述のようにしてアプリケーション・レイ
ヤ41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0105】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図10)に与えるべきサーボ指令値
や、スピーカ24(図10)から出力する音の音声デー
タ及び又は「目」のLEDに与える駆動データを生成
し、これらのデータをロボティック・サーバ・オブジェ
クト32のバーチャル・ロボット33及び信号処理回路
14(図10)を順次介して対応するアクチュエータ2
〜25又はスピーカ24又はLEDに順次送出す
る。
【0106】本発明の実施の形態のロボット装置1がC
PU10によって実行するロボット装置の外力検出プロ
グラムは、ミドル・ウェア・レイヤ40の認識系60及
び出力系69の各信号処理モジュールと関連している。
【0107】アプリケーション・レイヤ41を介してあ
るスピードで歩いて欲しいという命令がミドル・ウェア
・レイヤ40に供給されると、ミドル・ウェア・レイヤ
40はそれを実現するような歩行パターンを出力系69
の歩行用信号処理モジュール64等により作る。その歩
行パターンで歩いているときに、障害物に衝突すると、
認識系60として動作する前記外力検出プログラムによ
って外力を検出し、今衝突したという結果をアプリケー
ション・レイヤ41に送る。すると、アプリケーション
・レイヤ41では、感情モデル73や、学習モジュール
72等を用いて行動を切換、痛がったり、あるいは怒っ
たりするような素振りや、或いは、障害物を回避して別
な方向へ進めというような行動を取らせるようにミドル
・ウェア・レイヤ40に命令を送る。
【0108】ところで、ロボット装置1を使用する環境
によって外力の大きさが異なる事がある。特に、ロボッ
ト装置の脚部が接地する接地面、例えば床面の摩擦(fr
iction)等は大きく影響する。例えば、床がフローリン
グであるか、あるいは絨毯であるか、さらには畳である
かによって摩擦は大きく異なるが、それらの摩擦の違い
はロボット装置1の歩行時のPWM Duty比に大きな影
響を及ぼす。図17に示すように、例えば今、絨毯のよ
うに摩擦が大きい床に対して差分は大きくなり、フロー
リングのように摩擦が小さい床に対して差分は小さくな
る。摩擦が大きい床から摩擦の小さい床にロボット装置
が移動したときには、摩擦が大きいときに設定していた
大きさの閾値をそのまま用いると、差分が最大のところ
さえも検出が困難になる。よって、新しい閾値new thre
sholdを設定する必要がある。
【0109】しかし、ロボット装置1が床の摩擦環境を
知ることは困難である。ロボット装置を実際に使用する
環境で動作させ、外力を加えてみることで、閾値のキャ
リブレーションを行うことが望ましい。つまり、衝突検
出に使用する閾値(Threshold)の基本的な設定は、ロ
ボットの開発段階で行い、記憶媒体に書き込んでおく
が、ユーザが使用する床面環境に合わせてキャリブレー
ションをユーザサイドで行うことが望ましい。
【0110】そこで、ロボット装置に躾をさせるという
形態をとることによって、抵抗無くユーザに前記閾値の
キャリブレーションを行って貰う。このキャリブレーシ
ョン方法について図18のフローチャートを用いて説明
する。このフローチャートは、キャリブレーション方法
に基づくキャリブレーションプログラムの処理を示して
もいる。このロボット装置の外力検出のためのキャリブ
レーションプログラムも、図10に示したフラッシュR
OM12等に格納されており、ユーザによる指示に基づ
いてCPU10がDRAM11に取り出して実行する。
【0111】先ず、ステップS11にて音声もしくはス
イッチをトリガとしてロボット装置を躾モードに入れ
る。次にステップS12にて現在の床面環境を音声もし
くはスイッチを利用してい入力する。例えば、音声で床
面環境を知らせるときは、図19及び図20に示すよう
に、ロボット装置1に現在居る床面環境を、「フローリ
ング」、「じゅうたん」のように教える。なお、このス
テップS12の床面環境を教える処理は、ロボット自身
が内蔵のカメラ装置等を用いて自身で床面環境を判断で
きるのであれば不要である。この場合、ステップS12
の代わりに、ロボット自身が床面環境を判断するという
処理がここに入る。
【0112】それからステップS13にて音声もしくは
スイッチをトリガとして「歩行」時のデータ取得モード
に入れ、ステップS14にて歩行動作を行わせ、歩行時
のデータパターンを得る。データパターンとは、関節指
令値から計算した理論的なPWM Duty比と制御入力と
して用いているPWM Duty比との差分(difference)
のことである。図21には、通常歩行時の、時間に対す
る前記差分のデータパターンを示す。ここでは、図中に
実線で示した平均値Avgを計算してRAMに保存す
る。
【0113】また、ステップS15にて音声もしくはス
イッチをトリガとして「衝突」時のデータ取得モードに
入れ、ステップS16にて障害物に脚を衝突させ、衝突
時のデータパターンを得る。この衝突時のデータパター
ンと前記ステップS14にて得た平均値Avgから図2
2に示すように、P1,P2,P3の3点をとり、H
と、Wを算出する。P1は衝突(collision)が起こっ
て差分が急激に上がる時のポイントであり、P2は差分
が最大の時のポイントであり、P3は差分がAvgに収
まるときのポイントである。P1,P2,P3と算出し
たH、WをRAMに保存する。
【0114】そして、ステップS17にて歩行時/衝突
時のデータパターンから閾値を決定する。衝突検出に用
いる閾値は、大きさに関する閾値(threshold_h)と、
時間に関する閾値(threshold_w)がある。図23に示
すように、前記Hの1/2をh(h=1/2H)とし、
threshold_hとする。また、前記Wの1/2をw(w=
1/2W)とするとき、4/5wをthreshold_wとす
る。以下にまとめて示す。 threshold_h=h threshold_w=4/5w 次に、ステップS18にて音声もしくはスイッチをトリ
ガとし一旦通常歩行モードに戻した後、ステップS19
にて歩行時に誤検出しないか、及び衝突時を検出するか
を判定し、OK(YES)であれば、現在の床面環境に
適した閾値をRAMに保存し、キャリブレーションを終
了する。NOであればステップS11に戻り以降の処理
を繰り返す。
【0115】閾値は床面環境と対応付RAMにN個まで
保存することができる。床面環境は音声/スイッチと対
応付けられているため、ユーザは音声/スイッチを用い
て閾値を変更することができる。
【0116】このようなキャリブレーション方法によっ
て設定し、RAMに保存させた、床面環境に応じたいく
つかの閾値は、通常動作時に音声もしくはスイッチ等に
より床面環境を教えることによって、ロボット装置自身
が選択する。つまり、図24に示すように、ステップS
21にて床面環境を音声もしくはスイッチをトリガとし
て指示することで閾値選択モードに入れる。すると、ス
テップS22にて、ロボット装置1は指示された床面環
境に対応する閾値を選択して、通常歩行を行う。もちろ
ん、ロボット装置自身が内蔵のカメラ装置等を用いて床
面環境を判定し、自身で閾値を自動選択するようにして
もよい。
【0117】なお、本実施例では、4足歩行ロボット装
置を具体例として挙げたが、2足歩行ロボット装置でも
よいし、さらに多足にて歩行するロボット装置でもよい
のはもちろんである。
【0118】
【発明の効果】本発明に係るロボット装置は、関節部を
駆動させるための目標値となる関節指令値と、外力の影
響を受ける環境にて関節部を駆動させるための制御信号
との差分に基づいて外力を検出するので、歩行時の外力
に応じた行動を取ることができる。
【0119】本発明に係るロボット装置の外力検出方法
は、関節部を駆動させるための目標値となる関節指令値
と、外力の影響を受ける環境にて関節部を駆動させるた
めの制御信号との差分に基づいて前記外力を検出するの
で、ロボット装置の歩行中に加えられる外力を、特別な
センサを不要としながらも検出できる。本発明に係るロ
ボット装置の外力検出プログラムは、関節部を駆動させ
るための目標値となる関節指令値と、外力の影響を受け
る環境にて関節部を駆動させるための制御信号との差分
に基づいて前記外力を検出できるので、ロボット装置の
歩行中に加えられる外力を、特別なセンサを不要としな
がらも検出できる。
【0120】本発明に係るロボット装置の外力検出のた
めのキャリブレーション方法は、ロボット装置が、関節
部を駆動させるための目標値となる関節指令値と、外力
の影響を受ける環境にて関節部を駆動させるための制御
信号との差分に基づいて外力を検出するときに、現在の
接地面の状態におけるノーマル歩行時のデータパターン
と、現在の接地面の状態における外力が加えられた歩行
時のデータパターンとを用いて、外力を検出するときに
用いる閾値を決定するので、ロボット装置の脚が接地す
る接地面の状態が異なっても適正にロボット装置に外力
を検出させることができる。本発明に係るロボット装置
の外力検出のためのキャリブレーションプログラムは、
ロボット装置が、関節部を駆動させるための目標値とな
る関節指令値と、外力の影響を受ける環境にて関節部を
駆動させるための制御信号との差分に基づいて外力を検
出するときに、現在の接地面の状態におけるノーマル歩
行時のデータパターンと、現在の接地面の状態における
外力が加えられた歩行時のデータパターンとを用いて、
外力を検出するときに用いる閾値を決定するので、ロボ
ット装置の脚が接地する接地面の状態が異なっても適正
にロボット装置に外力を検出させることができる。
【図面の簡単な説明】
【図1】ロボット装置が本発明の外力検出方法に基づい
た外力検出プログラムを実行したときに、外力検出部と
して機能することを示す機能ブロック図である。
【図2】ロボット装置の胴体部に外力が加えられたとき
に、関節部に発生するトルクを示す図である。
【図3】ロボット装置の外力検出プログラムを説明する
ためのフローチャートである。
【図4】関節摩擦によるトルクの特性図である。
【図5】駆動装置であるモータのモデルを説明するため
の図である。
【図6】ロボット装置が歩行中に障害物に衝突した場合
の理論的なPWM Duty比と、制御的なPWM Duty比の
時間に対する変化を示す特性図である。
【図7】ロボット装置が歩行中に障害物に衝突した場合
の理論的なPWM Duty比と、制御的なPWM Duty比と
の差分の時間に対する変化を示す特性図である。
【図8】歩行パターンを切り替える際の外力検出動作を
説明するための図である。
【図9】ロボット装置の外観構成を示す斜視図である。
【図10】同ロボット装置の回路構成を示すブロック図
である。
【図11】同ロボット装置のソフトウェア構成を示すブ
ロック図である。
【図12】同ロボット装置のソフトウェア構成における
ミドル・ウェア・レイヤの構成を示すブロック図であ
る。
【図13】同ロボット装置のソフトウェア構成における
アプリケーション・レイヤの構成を示すブロック図であ
る。
【図14】同アプリケーション・レイヤの行動モデルラ
イブラリの構成を示すブロック図である。
【図15】同ロボット装置の行動決定のための情報とな
る有限確率オートマトンを説明するために使用した図で
ある。
【図16】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【図17】接地面状態(床面環境)の変化に応じた閾値
の違いを説明するための特性図である。
【図18】ロボット装置の外力検出のためのキャリブレ
ーション方法及びプログラムを説明するためのフローチ
ャートである。
【図19】音声で床面環境を「フローリング」と教える
具体例を示す図である。
【図20】音声で床面環境を「じゅうたん」と教える具
体例を示す図である。
【図21】通常歩行時の、時間に対する差分のデータパ
ターンを示す特性図である。
【図22】衝突時のデータパターンを示す特性図であ
る。
【図23】歩行時/衝突時のデータパターンから閾値を
決定する処理を説明するための特性図である。
【図24】ロボット装置が指示された床面環境に対応す
る閾値を選択して、通常歩行を行う動作を説明するため
のフローチャートである。
【図25】4足歩行ロボット装置が障害物に衝突したと
きの様子を示す図である。
【図26】4足歩行ロボット装置の胴体部に外力が加わ
った様子を示す図である。
【符号の説明】
1 ロボット装置、2 胴体部、3 脚部、81 指令
装置、82 制御装置、83 駆動装置、84 動作
部、85 ポテンショメータ、86 衝突検出装置
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 ED10 ED42 ED52 EF07 EF09 EF11 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 2F051 AA10 AB06 AC01 BA03 BA07 3C007 AS36 CS08 KS28 KS33 KS37 KW03 LV20 MT14 WA04 WA14 WB15 WB22 WB25 (54)【発明の名称】 ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロ ボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキ ャリブレーションプログラム

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 関節部を介して胴体部に接続された脚を
    自在に駆動しながら接地面に対して移動するロボット装
    置において、 前記関節部を駆動させるための目標値となる関節指令値
    と、外力の影響を受ける環境にて関節部を駆動させるた
    めの制御信号との差分に基づいて前記外力を検出する外
    力検出手段を備え、 前記外力検出手段によって検出された外力に基づいた行
    動を取ることを特徴とするロボット装置。
  2. 【請求項2】 前記関節指令値は胴体部に加わる重力に
    起因するトルクを含めた理論的なPWM Duty比であ
    り、前記制御信号は外力により関節部に加えられたトル
    クを打ち消すために関節部に供給される駆動力を発生さ
    せるときの制御的なPWM Duty比であることを特徴と
    する請求項1記載のロボット装置。
  3. 【請求項3】 前記外力検出手段は、前記制御的なPW
    M Duty比と理論的なPWM Duty比との差分が、所定の
    レベルを所定の時間超えたときに、外力を検出したとみ
    なすことを特徴とする請求項2記載のロボット装置。
  4. 【請求項4】 前記関節指令値を算出する関節指令値算
    出手段と、 前記制御信号を算出する制御信号算出手段と、 前記制御信号算出手段によって算出された制御信号に基
    づいて駆動力を発生する駆動手段と、 前記駆動手段によって発生された駆動力によって前記関
    節部を動作させる動作手段とをさらに備え、 前記外力検出手段は前記関節指令値算出手段が算出した
    関節指令値と前記制御信号算出手段が算出した制御信号
    との差分に基づいて外力を検出することを特徴とする請
    求項1記載のロボット装置。
  5. 【請求項5】 前記制御信号算出手段は、前記関節部に
    加わったトルクを打ち消すために必要な電流値に基づい
    て前記関節指令値から前記制御信号を算出することを特
    徴とする請求項4記載のロボット装置。
  6. 【請求項6】 前記関節指令値は胴体部に加わる重力に
    起因するトルクを含めた理論的なPWM Duty比であ
    り、前記制御信号は外力により関節部に加えられたトル
    クを打ち消すための関節部に供給される駆動力を発生さ
    せるときの制御的なPWM Duty比であることを特徴と
    する請求項5記載のロボット装置。
  7. 【請求項7】 前記外力検出手段は、前記制御的なPW
    M Duty比と理論的なPWM Duty比との差分が、所定の
    レベルを所定の時間超えたときに、外力を検出したとみ
    なすことを特徴とする請求項6記載のロボット装置。
  8. 【請求項8】 関節部を介して胴体部に接続された脚を
    自在に駆動しながら接地面に対して移動するロボット装
    置に加えられた外力を検出するためのロボット装置の外
    力検出方法において、 前記関節部を駆動させるための目標値となる関節指令値
    と、外力の影響を受ける環境にて関節部を駆動させるた
    めの制御信号との差分に基づいて前記外力を検出するこ
    とを特徴とするロボット装置の外力検出方法。
  9. 【請求項9】 前記関節指令値を算出する関節指令値算
    出工程と、 前記制御信号を算出する制御信号算出工程と、 前記関節指令値算出工程で算出された関節指令値と前記
    制御信号算出工程で算出された制御信号との差分を算出
    する差分算出工程と、 前記差分算出工程で算出された差分に基づいて外力を検
    出する外力検出工程とを備えることを特徴とする請求項
    8記載のロボット装置の外力検出方法。
  10. 【請求項10】 前記制御信号算出工程は、前記関節部
    に加わったトルクを打ち消すために必要な電流値に基づ
    いて前記関節指令値から前記制御信号を算出することを
    特徴とする請求項9記載のロボット装置の外力検出方
    法。
  11. 【請求項11】 前記関節指令値は胴体部に加わる重力
    に起因するトルクを含めた理論的なPWM Duty比であ
    り、前記制御信号は外力により関節部に加えられたトル
    クを打ち消すために関節部に供給される駆動力を発生さ
    せるときの制御的なPWM Duty比であることを特徴と
    する請求項9記載のロボット装置の外力検出方法。
  12. 【請求項12】 前記外力検出工程は、前記制御的なP
    WM Duty比と理論的なPWM Duty比との差分が、所定
    のレベルを所定の時間超えたときに、外力を検出したと
    みなすことを特徴とする請求項11記載のロボット装置
    の外力検出方法。
  13. 【請求項13】 関節部を介して胴体部に接続された脚
    を自在に駆動しながら接地面に対して移動するロボット
    装置に加えられた外力を検出するためにロボット装置に
    実行されるロボット装置の外力検出プログラムにおい
    て、 前記関節部を駆動させるための目標値となる関節指令値
    を算出する関節指令値算出工程と、 前記外力の影響を受ける環境にて関節部を駆動させるた
    めの制御信号を算出する制御信号算出工程と、 前記関節指令値算出工程で算出された関節指令値と前記
    制御信号算出工程で算出された制御信号との差分を算出
    する差分算出工程と、 前記差分算出工程で算出された差分に基づいて外力を検
    出する外力検出工程とを備えることを特徴とするロボッ
    ト装置の外力検出プログラム。
  14. 【請求項14】 前記関節指令値は胴体部に加わる重力
    に起因するトルクを含めた理論的なPWM Duty比であ
    り、前記制御信号は外力により関節部に加えられたトル
    クを打ち消すための関節部に供給される駆動力を発生さ
    せるときの制御的なPWM Duty比であることを特徴と
    する請求項13記載のロボット装置の外力検出プログラ
    ム。
  15. 【請求項15】 前記外力検出工程は、前記制御的なP
    WM Duty比と理論的なPWM Duty比との差分が、所定
    のレベルを所定の時間超えたときに、外力を検出したと
    みなすことを特徴とする請求項14記載のロボット装置
    の外力検出プログラム。
  16. 【請求項16】 関節部を介して胴体部に接続された脚
    を自在に駆動しながら接地面に対して移動するロボット
    装置が、前記関節部を駆動させるための目標値となる関
    節指令値と、外力の影響を受ける環境にて関節部を駆動
    させるための制御信号との差分に基づいて外力を検出す
    るときに用いる閾値を前記接地面の状態に応じてキャリ
    ブレーションするロボット装置の外力検出のためのキャ
    リブレーション方法であって、 現在の接地面の状態におけるノーマル歩行時のデータパ
    ターンを生成するノーマルデータパターン生成工程と、 現在の接地面の状態における外力が加えられた歩行時の
    データパターンを前記ノーマルデータパターン生成工程
    で生成されたノーマル歩行時のデータパターンを基に生
    成する外力時データパターン生成工程と、 前記ノーマルデータ生成工程で生成されたノーマル歩行
    時のデータパターンと、前記外力時データパターン生成
    工程で生成された外力時データパターンとから、前記閾
    値を決定する閾値決定工程とを備えることを特徴とする
    ロボット装置の外力検出のためのキャリブレーション方
    法。
  17. 【請求項17】 前記閾値決定工程は、差分のレベルに
    関する閾値と、前記差分のレベルに関する閾値を超えた
    時間に関する閾値とを決定することを特徴とする請求項
    16記載のロボット装置の外力検出のためのキャリブレ
    ーション方法。
  18. 【請求項18】 関節部を介して胴体部に接続された脚
    を自在に駆動しながら接地面に対して移動するロボット
    装置が、前記関節部を駆動させるための目標値となる関
    節指令値と、外力の影響を受ける環境にて関節部を駆動
    させるための制御信号との差分に基づいて外力を検出す
    るときに用いる閾値を前記接地面の状態に応じてキャリ
    ブレーションするロボット装置の外力検出のためのキャ
    リブレーションプログラムであって、 現在の接地面の状態におけるノーマル歩行時のデータパ
    ターンを生成するノーマルデータパターン生成工程と、 現在の接地面の状態における外力が加えられた歩行時の
    データパターンを前記ノーマルデータパターン生成工程
    で生成されたノーマル歩行時のデータパターンを基に生
    成する外力時データパターン生成工程と、 前記ノーマルデータ生成工程で生成されたノーマル歩行
    時のデータパターンと、前記外力時データパターン生成
    工程で生成された外力時データパターンとから、前記閾
    値を決定する閾値決定工程とを備えることを特徴とする
    ロボット装置の外力検出のためのキャリブレーションプ
    ログラム。
  19. 【請求項19】 前記閾値決定工程は、差分のレベルに
    関する閾値と、前記差分のレベルに関する閾値を超えた
    時間に関する閾値とを決定することを特徴とする請求項
    18記載のロボット装置の外力検出のためのキャリブレ
    ーションプログラム。
JP2001356529A 2001-11-21 2001-11-21 ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム Withdrawn JP2003159674A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001356529A JP2003159674A (ja) 2001-11-21 2001-11-21 ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001356529A JP2003159674A (ja) 2001-11-21 2001-11-21 ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム

Publications (1)

Publication Number Publication Date
JP2003159674A true JP2003159674A (ja) 2003-06-03

Family

ID=19168038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001356529A Withdrawn JP2003159674A (ja) 2001-11-21 2001-11-21 ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム

Country Status (1)

Country Link
JP (1) JP2003159674A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102427A (ja) * 2003-09-25 2005-04-14 Kobe Steel Ltd 衝突検知方法及び衝突検知装置
JP2006000966A (ja) * 2004-06-17 2006-01-05 Sony Corp ロボット装置及びその制御方法
JP2006123012A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd ロボットの制御方法
US20110264108A1 (en) * 2005-05-19 2011-10-27 Intuitive Surgical, Inc. Software Center and Highly Configurable Robotic Systems for Surgery and Other Uses
JP2012056074A (ja) * 2010-09-03 2012-03-22 GM Global Technology Operations LLC 力またはインピーダンス制御ロボットの作業空間安全動作
CN103631144A (zh) * 2013-08-19 2014-03-12 南京理工大学 电磁驱动汽车驾驶机器人
US9345544B2 (en) 1999-09-17 2016-05-24 Intuitive Surgical Operations, Inc. Systems and methods for avoiding collisions between manipulator arms using a null-space
US9492235B2 (en) 1999-09-17 2016-11-15 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
US9517106B2 (en) 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
CN106604804A (zh) * 2014-06-05 2017-04-26 软银机器人欧洲公司 碰撞检测
WO2018079107A1 (ja) * 2016-10-28 2018-05-03 アズビル株式会社 外力検出方法
JP2018144149A (ja) * 2017-03-03 2018-09-20 本田技研工業株式会社 移動ロボットの異常接触検知方法及び接触部位特定方法
WO2019097793A1 (ja) 2017-11-16 2019-05-23 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータ・プログラム、並びにプログラム製造方法
WO2019138703A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 制御装置、制御方法及びプログラム
US10682191B2 (en) 2012-06-01 2020-06-16 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
CN114401887A (zh) * 2019-08-06 2022-04-26 波士顿动力公司 脚步接触检测
US12029513B2 (en) 2021-07-19 2024-07-09 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9345544B2 (en) 1999-09-17 2016-05-24 Intuitive Surgical Operations, Inc. Systems and methods for avoiding collisions between manipulator arms using a null-space
US9949801B2 (en) 1999-09-17 2018-04-24 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
US9757203B2 (en) 1999-09-17 2017-09-12 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
US9675422B2 (en) 1999-09-17 2017-06-13 Intuitive Surgical Operations, Inc. Systems and methods for avoiding collisions between manipulator arms using a null-space
US9517106B2 (en) 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
US9492235B2 (en) 1999-09-17 2016-11-15 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
JP2005102427A (ja) * 2003-09-25 2005-04-14 Kobe Steel Ltd 衝突検知方法及び衝突検知装置
JP2006000966A (ja) * 2004-06-17 2006-01-05 Sony Corp ロボット装置及びその制御方法
JP2006123012A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd ロボットの制御方法
US9687310B2 (en) 2005-05-19 2017-06-27 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US11534251B2 (en) 2005-05-19 2022-12-27 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8749189B2 (en) 2005-05-19 2014-06-10 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8786241B2 (en) * 2005-05-19 2014-07-22 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8816628B2 (en) 2005-05-19 2014-08-26 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8823308B2 (en) 2005-05-19 2014-09-02 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US10512514B2 (en) 2005-05-19 2019-12-24 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8624537B2 (en) 2005-05-19 2014-01-07 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US10194998B2 (en) 2005-05-19 2019-02-05 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US9554859B2 (en) 2005-05-19 2017-01-31 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US10123844B2 (en) 2005-05-19 2018-11-13 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8541970B2 (en) 2005-05-19 2013-09-24 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US10117714B2 (en) 2005-05-19 2018-11-06 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US8749190B2 (en) 2005-05-19 2014-06-10 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US10512513B2 (en) 2005-05-19 2019-12-24 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US20110264108A1 (en) * 2005-05-19 2011-10-27 Intuitive Surgical, Inc. Software Center and Highly Configurable Robotic Systems for Surgery and Other Uses
JP2012056074A (ja) * 2010-09-03 2012-03-22 GM Global Technology Operations LLC 力またはインピーダンス制御ロボットの作業空間安全動作
US8483877B2 (en) 2010-09-03 2013-07-09 GM Global Technology Operations LLC Workspace safe operation of a force- or impedance-controlled robot
JP2013223921A (ja) * 2010-09-03 2013-10-31 GM Global Technology Operations LLC 力またはインピーダンス制御ロボットの作業空間安全動作
US10682191B2 (en) 2012-06-01 2020-06-16 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
US10194997B2 (en) 2012-06-01 2019-02-05 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
CN103631144A (zh) * 2013-08-19 2014-03-12 南京理工大学 电磁驱动汽车驾驶机器人
JP2017516674A (ja) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 衝突検出
CN106604804A (zh) * 2014-06-05 2017-04-26 软银机器人欧洲公司 碰撞检测
JP2018072135A (ja) * 2016-10-28 2018-05-10 アズビル株式会社 外力検出方法
CN109844477A (zh) * 2016-10-28 2019-06-04 阿自倍尓株式会社 外力检测方法
CN109844477B (zh) * 2016-10-28 2020-10-30 阿自倍尓株式会社 外力检测方法
WO2018079107A1 (ja) * 2016-10-28 2018-05-03 アズビル株式会社 外力検出方法
JP2018144149A (ja) * 2017-03-03 2018-09-20 本田技研工業株式会社 移動ロボットの異常接触検知方法及び接触部位特定方法
WO2019097793A1 (ja) 2017-11-16 2019-05-23 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータ・プログラム、並びにプログラム製造方法
WO2019138703A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 制御装置、制御方法及びプログラム
CN114401887A (zh) * 2019-08-06 2022-04-26 波士顿动力公司 脚步接触检测
JP2022543996A (ja) * 2019-08-06 2022-10-17 ボストン ダイナミクス,インコーポレイテッド 足跡接触検出
JP7381709B2 (ja) 2019-08-06 2023-11-15 ボストン ダイナミクス,インコーポレイテッド 足跡接触検出
US12029513B2 (en) 2021-07-19 2024-07-09 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses

Similar Documents

Publication Publication Date Title
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
JP3714268B2 (ja) ロボット装置
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2002239960A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2005193331A (ja) ロボット装置及びその情動表出方法
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
WO2002065825A2 (fr) Robot et procede de commande du fonctionnement dudit robot
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2001154707A (ja) ロボット装置及びその制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP4649806B2 (ja) ロボット装置及びロボット装置の衝撃吸収方法
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置
JP2001157979A (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP2002086380A (ja) 脚式ロボット及びその制御方法
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2001157982A (ja) ロボット装置及びその制御方法
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2003071757A (ja) ロボット装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050201