JP2009039852A - 衝突回避機能を有するロボット - Google Patents

衝突回避機能を有するロボット Download PDF

Info

Publication number
JP2009039852A
JP2009039852A JP2008072506A JP2008072506A JP2009039852A JP 2009039852 A JP2009039852 A JP 2009039852A JP 2008072506 A JP2008072506 A JP 2008072506A JP 2008072506 A JP2008072506 A JP 2008072506A JP 2009039852 A JP2009039852 A JP 2009039852A
Authority
JP
Japan
Prior art keywords
robot
motion
collision avoidance
target
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008072506A
Other languages
English (en)
Inventor
Hisashi Sugiura
ヒサシ・スギウラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2009039852A publication Critical patent/JP2009039852A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones

Abstract

【課題】視覚センサ手段を利用したロボット用衝突回避技術が提供される。
【解決手段】少なくとも1つの視覚センサを備えるロボットの制御方法であって、該方法は、前記ロボットのモーションに対する目標を規定するステップと、前記ロボットが前記目標に到逹するために適切なモーション制御信号を算出するステップと、前記ロボットのセグメントと視覚センシング手段および目標の間の仮想対象物との最も近いポイントに基づいて衝突回避制御信号を算出するステップと、モーション制御信号と衝突回避制御信号とを結合させるステップと、仮想対象物によって規定された空間に前記ロボットのセグメントが入らないように、結合された信号によって前記ロボットのモーションを制御するステップと、を備え、算出された衝突危険がより低くなるほど、モーション制御出力信号の重み付け値が高くなる。
【選択図】図5

Description

本発明は、一般的にロボット分野に関するものであって、特に、自律的に動作するロボットであって、自己衝突(auto collision)、すなわち、ロボットの第1の可動セグメント部分と該ロボット自身の第2のセグメントとの間の衝突だけではなく、第3者との衝突を回避するための安全メカニズムを必要とするロボットに関する。
例えば、ロボットのようなエフェクタの軌道が制御される場合、目標状態が定義されなければならない。目標状態は、例えば、ロボットの操作アームによって操縦される対象物によって定義される。一般的に、対象物の位置は、3つのパラメータで描写することができる。対象物の位置以外にも、しばしばカルダン角(Kardan angle)またはオイラー角(Euler angle)で表現される空間的定位を描写することが必要である。
ロボットのエフェクタを動作させるために、軌道は、一般に、制御パラメータスペースの増加分を構成スペース(configuration space)の上にマッピングすることにより生成される。
制御パラメータスペースまたはタスク・スペースは、命令成分のスペースである。制御パラメータスペースは、命令成分で構成される。命令(また、「目標」または「タスク」)成分は、個別の命令ベクトルの成分である。これらの成分は、制御されなければならないもの、例えば、手の位置またはヘッド部の傾斜の有用な描写を定義する。構成スペースは、制御可能な自由度を有する空間である。構成スペースは、制御可能な自由度が割り当てられ得る、ロボットの個別ジョイント及び/またはより複雑な運動学的メカニズムからなることができる。
「ゼロスペース(null space)」は、ジョイントスペースとタスク・スペースとの間の次元の差異を表わす。ゼロスペースは、冗長自由度を含み、ここで動作は、タスク・スペース・モーションに影響を及ぼすことなく、遂行することが可能である。
ゼロスペースに関する定義は、インターネットで探すことができる(http://www−robotics.cs.umass.edu/Research/Glossary/null_space.htmlを参照)。
ゼロスペースとは、対応の関数値が0となるようにする線形演算子の独立変数のセットである。冗長自由度システムは、主なタスクを妨害することなく、運動学的条件のような副次的な目的を処理するために用いることのできる、(局所的な)ゼロスペースを有する。
特に、本発明は、特定の安全メカニズム、つまり、ロボットの衝突回避を目標とする。従来、ロボットの目標は操作者によって与えられ、ロボットは単に、計画された軌道を追従するだけであった。安全メカニズムは、たとえあったとしても、モーションを単純に停止させるような非常停止機構である。しかしながら、最近のロボット、とりわけ、人間型ロボットには、工場のような広い環境での屋外作業が期待されている。ロボットは、動的環境と相互作用しなければならず、ロボットのモーションは、予測することができない。したがって、より一層改善された安全メカニズムが必要となり、このメカニズムが、非常停止機構の代わりに、衝突回避機構と呼ばれる。衝突回避の長所は、ただ安全なだけではない。その上、ロボットの目標到達モーションを停止させる必要がなく、ロボットの作業範囲を拡張させる。
衝突回避における公知の試みは、2つの分野に分類することができる。一方の分野は、障害物を考慮した上で軌道を生成する計画(ノン・リアルタイム)方法である。
James Kuffnerらは、非特許文献1において、人間型ロボットの衝突回避を提案した。この文献は、足の妨害を考慮した歩き方の生成のために、速い衝突検出方法及びリアルタイム計画を提案している。
James Kuffnerらは、非特許文献2において、ランダム探索木(RRTs:Rapidly exploring Random Trees)を用いた、動力学に基づく無衝突計画方法を提案した。しかしながら、これらの方法は、人間型ロボットの場合のように、ロボットの自由度が増加するにつれて算出の時間が増加するため、相互作用モーションに適用するには困難である。
その他方の方法は、反応性(リアルタイム)衝突回避である。これは、現在の位置と目標位置とを連結する線セグメントのように、非常に単純な軌道を修正する。
この方法は、リアルタイムで、衝突程度の大きさに応じて、回避方向、及び目標到達モーションと衝突回避モーションとの間の優先度を切り替える方法を決定しなければならない。例えば、セグメントの間の距離が充分に大きい場合は、目標到達モーションが、衝突回避モーションよりも高い優先度を有さなければならない。
衝突回避が、ゼロスペースの最適化基準を用いることができることは、公知となっている[例えば、非特許文献3さらに非特許文献4を参照]。
衝突回避の特殊な場合は閉塞回避である。ロボットの腕が、視覚センサ(たとえば、カメラ)によって捕らえられた目標に移動する際に、腕のセグメントは、その動きによって目標を隠す場合がある。このことは、振動を引き起こす場合がある。たとえば、ロボットが目標を見失うと、腕を引っ込める。すると、目標が現れる。ロボットは、目標に到達するように進む。
James Kuffner et al. "Self-collision detection and prevention for humanoid robots", In proceedings of the IEEE International Conference on Robotics and Automation, 2002 James Kuffner et al. "Dynamically-stable motion planning for humanoid robots", Autonomous Robots, volume 12, pages 105-118, 2002 Michael Gienger, Herbert Janssen, and Christian Goerick; "Task-oriented whole body motion for humanoid robots", In proceedings of the IEEERAS International Conference on Humanoid Robots, 2005 Michael Gienger, Herbert Janssen, and Christian Goerick; "Exploiting task intervals for whole body robot control", In proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2006
本発明の目的は、視覚センサ手段を有するロボットに対して閉塞回避技術を提案することにある。
一般的に、この目的は、独立請求項の特徴によって達成される。従属請求項は、本発明の主なアイディアをさらに発展させる。
本発明は、カメラと目標との間に仮想対象物を設定することを提案する。該仮想対象物を考慮して、実時間衝突回避制御が行われる。その後、ロボットのセグメント(腕など)は、仮想対象物によって規定された空間を通ることはない。このようにして、腕の軌跡は、該領域を避けながら目標へ移動する。手が目標に近い場合に、手と目標との間の距離にしたがって、該領域は小さくなる。
モーション制御算出は、衝突回避モーションをゼロスペース内に、そして、目標到達モーションをタスク・スペース内にマッピングするステップを備えていてもよい。このように、モーション制御算出は、ゼロスペースにおける衝突回避を考慮する。
本発明の第1の態様は、少なくとも1つの視覚センサを備えるロボットの制御方法であって、該方法は、
前記ロボットのモーションに対する目標を規定するステップと、
前記ロボットが前記目標に到逹するために適切なモーション制御信号を算出するステップと、
前記ロボットのセグメントと視覚センシング手段および目標の間の仮想対象物との最も近いポイントに基づいて衝突回避制御信号を算出するステップと、
モーション制御信号と衝突回避制御信号とを結合させるステップと、
仮想対象物によって規定された空間に前記ロボットのセグメントが入らないように、結合された信号によって前記ロボットのモーションを制御するステップと、を備え、
算出された衝突危険がより低くなるほど、モーション制御出力信号の重み付け値が高くなる。
仮想対象物は、視覚センシング手段の中心と目標中心位置とを結ぶ軸の周りに対称であってもよい。
仮想対象物は、3次元楕円体の輪郭を有する空間を規定してもよい。
モーションによる目標到達と衝突回避との間でのなめらかなタスクの切り替えを遂行するために、モーション制御出力信号の重み付け値および衝突回避制御出力信号の重み付け値が徐々に変更されるようにしてもよい。
モーション制御算出は、衝突回避モーションをゼロスペース内に、そして、目標到達モーションをタスク・スペース内にマッピングするステップを備えてもよい。
前記最も近いポイントの間の距離が、所定の回避閾値距離よりも大きい限り、衝突回避出力信号の重み付け値は0であってもよい。
制御方法は、
少なくとも一つのジョイントを介して互いに連結された前記ロボットの異なるセグメント、または前記ロボットのセグメントと他の対象物の最も近い2つのポイントを算出し、
単に最も近いポイントの間の連結線に沿った次元においてのみ、前記ロボットの衝突回避モーションを制御することによって、
衝突回避制御を行うステップを備えてもよい。
前記衝突回避制御のゼロスペースが、モーションによる目標到達に割り当てられてもよい。
衝突回避制御が、衝突回避モーションをタスク・スペース内に、そして、目標到達モーションをゼロスペース内にマッピングしてもよい。
本発明は、演算装置で実行されるとき、請求項1から8のいずれか1項に記載の方法を実施する、コンピュータ・プログラムにも関する。
最後に本発明は、視覚センシング手段およびモーション制御ユニットを有するロボットであって、
前記ロボットのモーション制御ユニットは、
前記ロボットのセグメントと、視覚センシング手段および目標の間の空間を規定する仮想対象物との最も近い2つのポイントを算出する距離算出モジュールと、
モーション制御モジュールと、
前記距離算出モジュールからの出力信号が供給される衝突回避モジュールと、
前記ロボットのモーション制御信号を生成するために、前記制御モジュールと衝突回避制御モジュールの出力制御信号を結合する混合制御ユニットと、を備える、ロボットにも関する。
ロボットは、人間型の2足歩行ロボットであってもよい。
本発明は、たとえば、2足歩行ロボットなど、人間型ロボットにおいて実施することができる。腕は、ロボットの視覚センシング手段の閉塞を避けることができる。
本発明のさらなる特徴、利点及び目的は、添付の図面と共に、本発明の好ましい実施形態に関する以下の詳細な説明を通じて、当業者により明らかになるはずである。
距離算出
衝突回避のために、ジョイントにより分離された物理的なリンクであるセグメント同士の間の距離および最も近いポイントを算出することが必要である。算出時間に対して、人間型ロボットのすべての可能なセグメントの対に対する実際の距離及び最も近いポイントを算出することは、本発明が、ロボットに組み込まれているコンピュータで算出しようとするとき、より複雑である。
このように、本発明は、図1に示されているように、プリミティブ対象物(primitive object)を有する衝突モデルを規定することを提案する。各セグメント(ヘッド部、右側肩など)は、ロボットの形状をカバーするために1つまたはそれ以上の球または球を切る線(SSL:swept−sphere−lines)から構成される。そして、このモデルに基づいて、距離及び最も近いポイントが算出される。
さらに、図5に示すような仮想対象物が考慮され、ロボットのセグメント(たとえば、腕)と仮想対象物との間の最も近いポイントの距離が算出される。
図5に示されるように、ロボットは、前面に2台のカメラを備えた、動かすことのできる頭部を有する人間型ロボットである。ロボットのセグメントによって回避されるべき仮想対象物は、カメラと目標との間に適応的に配置される。「適応的に」とは、仮想対象物が、カメラに関する、ロボットの到達モーションの目標の位置の変化に適応するようにすることを意味する。
衝突回避
衝突回避の役割は、お互い近くにあるセグメントを、遠ざかるように移動させることである。この移動のための最も有効な方向の1つは、セグメントの最も近いポイントを連結するベクトルに沿って揃えたものである。本発明は、衝突回避制御において、タスク・スペース・モーションのための衝突回避座標システムを規定する。衝突回避座標システムの例が、図2に示されているように規定される。原点は、下方のアームにある最も近いポイントである。yは、最も近いポイントを連結する線に沿って揃えるため、回避方向は、この軸に沿って揃えられる。xは、ヒジから手首の位置に向かうベクトルに沿って揃えられる。z方向は、x軸とy軸の単位ベクトルの外積である。衝突回避は、この座標システムにおいて、セグメントをただy方向にのみ移動させる。
言い換えれば、本発明によると、衝突回避のために、例えば3の自由度の代りにただ1の自由度が用いられる。他の自由度は、ゼロスペースのために、例えば、目標到達モーションのために利用可能である。
図3は、本発明を行うための主な演算ブロックを示している。目標(外部から、あるいはロボット自体によって規定される)は、例えば、全身モーション(WBM:whole body motion)制御ユニット及び衝突回避(CA:collision avoidance)ユニットのようなモーション制御ユニットに供給される。全身モーションは、単なるロボットのモーションに対する一例としてだけ理解されるべきである。
モーション制御ユニットは、第1のジョイント速度ベクトル信号を混合ユニットに出力し、混合ユニットは、この信号をCA制御ユニットからの第2のジョイント速度ベクトル信号と結合する。混合制御ユニットは、結合されたジョイント速度ベクトルを出力し、これに基づいてロボットのモーションが制御される。
さらに、結合されたジョイント速度ベクトルは、少なくとも1つのジョイントを介して互いに連結されたロボットの異なるセグメント、またはロボットのセグメントと他の対象物の最も近い2つのポイントを算出する距離算出ユニットに供給される。距離算出ユニットは、最も近いポイントのデータと距離情報とを、CA制御ユニットに出力する。また、距離算出ユニットは、距離情報をモーション制御ユニットと混合ユニットとに出力する。混合ユニットは、供給された距離情報に基づいて、第1のジョイント速度ベクトルと第の2ジョイント速度ベクトルとの間の混合割合を算出する。
A.ゼロスペース基準を用いた衝突回避制御
一般的に、ロボットのエフェクタの直交座標位置及び方位xは、マニピュレータのジョイント変数qのベクトルの関数として表わすことができる。
x=f(q)
この式は容易に求められが、その逆の問題は難しい。冗長自由度の場合において、一般に、逆マッピングf−1を見つけることは不可能である。解析的に逆関数g(x)を
f(g(x))=x
で構成する代わりに、上記問題は、しばしばf(q)の偏微分導関数を用いて、速度で再公式化される。
Figure 2009039852
冗長自由度の場合、非正方(解析的)ヤコビアンJ(q)の逆は存在しないため、疑似逆(pseudo inverse)を用いる。
衝突回避のために、タスク・スペースが用いられ、ポテンシャル関数(費用関数)を用いる目標への移動のために、ゼロスペースが用いられる。この制御方法において、それぞれのジョイントの速度は、以下のように算出される。
Figure 2009039852
CA(q)は、最も近いポイントの間の衝突防止ヤコビアンである。
caは、ξをゼロスペース内にマッピングする行列である。
Figure 2009039852
は、疑似逆ヤコビアンJca(q)から抽出される行ベクトルであって、図2に示した衝突回避座標システムのy軸にある。
Figure 2009039852
は、仮想の力Fvirtualから誘導される回避速度である。
説明する例において、最も近いセグメントを回避するために、衝突回避は、ただ1つの自由度(ここでは、y方向)の制御を占有する(take over)。Zje衝突回避は、他のDoFsに影響を及ぼすことなく、これは、タスクの遂行(例えば、x及びy方向に係わる目標到達モーション)のために依然として利用可能である。このことは、衝突回避が、それぞれのアームのために1つの自由度を個別に用いることを意味する。
次の式(2)において、Dは、0ではなく、所定の減衰係数である。
Figure 2009039852
最も近いポイントの間の距離dが衝突回避を活性化/非活性化するための閾値距離dよりも短い場合は、仮想の力の値は0より大きく、したがって、回避速度も0より大きい。仮想の力と回避速度は、dとdの間の差に応じて(例えば、線形的に)徐々に増加する。したがって、衝突回避は、最も近いポイントの距離dが所定の閾値dよりも小さくなるとすぐに活性化される。(図2の例において、ロボットの最も近いポイントの間の距離dは、人間型ロボットの右側アームとボディーの前方部との間の距離で表されている。)
閉塞、すなわち、ロボットの視覚センサと目標との間にロボットのセグメントが存在することを避けるために、最も近いポイントの決定および距離算出は、ロボットの視覚センサと目標との間の仮想対象物の輪郭を考慮することに留意されたい。このことは、仮想対象物、たとえば、SSL規定対象物が、ロボットの視覚入力手段と目標との間に「置かれる」ことを示す図5に説明されている。
該対象物は、ロボットの2台のカメラの間の中心ポイントから始まるのが好ましい。仮想対象物は、このように、3次元楕円体、すなわち、ロボットのステレオカメラの中心ポイントと目標中心とを連結する軸の周りに対称な3次元対象物の輪郭を有する。
caは、ξをゼロスペースにマッピングする行列であって、Iは、恒等行列である。
Figure 2009039852
ポテンシャル関数Ht(r)により、ゼロスペースのための目標が得られる。α(t)を、歩幅となるようにする。
Figure 2009039852
このように、衝突回避は、タスク・スペースにおける衝突回避及びゼロスペースにおける目標到達のために、ジョイントを制御する。
B.モーション制御
一方、モーション制御は、また次のようなゼロスペース最適化基準を用いた冗長自由度を有するロボットを制御するために用いられる。
Figure 2009039852
行列Nwbmは、任意のジョイント速度ベクトルξwbmをゼロスペース内にマッピングする。ゼロスペースに対して、2つの費用関数を用いることができる。αjc及びαcaを歩幅となるようにする。
Figure 2009039852
第1の費用関数は、任意のジョイント中心ベクト
Figure 2009039852
からの偏差にペナルティを課す。この費用関数は、中立位置に近い任意のジョイントを制御しようとするものである。これと関連して、ジョイント制限回避費用関数が用いられる。
Figure 2009039852
jcは、重み付け行列である。最も容易な場合において、ジョイント中心
Figure 2009039852
を適切に選択する。この費用関数によると、ジョイント限界に近づけないようにすることができる。
第2の費用関数は、衝突回避を実行する。
Figure 2009039852
caは、衝突回避のための重み付け行列である。したがって、モーションは、ゼロスペースにおける目標到達及びゼロスペースにおける衝突回避ならびにジョイント制限回避のために、ジョイントを制御する。
C.モーション制御と衝突回避の統合
モーション制御及び衝突回避制御の出力は、最も近い距離に従ってジョイント速度で混合される。最終のジョイント速度ベクトル
Figure 2009039852
は、以下のとおりである。
Figure 2009039852
Figure 2009039852
は、例えば、全身モーション制御のような、ロボット・コントローラによって算出されたジョイント速度ベクトルである。
Figure 2009039852
は、衝突回避コントローラによって算出されたジョイント速度ベクトルである。
f(d)は、0ないし1の値を有することができ、衝突の危険の程度を、例えば、セグメントの間の最も短い距離の関数で表す、利得係数である。f(d)が1になると、衝突回避が制御を完全に引き取る。f(d)が0になると、ロボット・コントローラが制御を完全に引き取る。f(d)は、以下のように定義される。
Figure 2009039852
は、モーション制御がスイッチ・オフされた場合の所定の一定した閾値距離であって、d>dである。
dがdよりも大きい場合は、衝突回避制御は非活性化され、ロボットは、モーション制御によって生成された軌道に追従する。しかし、モーションによって算出された軌道は、ゼロスペースにおける衝突回避を考慮する。dがdよりも小さい場合は、衝突回避は活性化される。これらの間の割合は、最も近いセグメントである最も短い距離に依存しており、これらの間の優先度を決定する。
衝突回避制御及びロボット制御の両方とも、ゼロスペース最適化基準を用いる。この基準は、タスク・スペースとゼロスペースとからなる。タスク・スペースは、常にゼロスペースよりも高い優先度を有する。ロボット制御は、目標到達モーションをタスク・スペース内に、そして、衝突回避モーションをゼロスペース内にマッピングする。一方、衝突回避制御は、衝突回避モーションをタスク・スペース内に、そして、目標到達モーションをゼロスペース内にマッピングする。
Figure 2009039852
上記式(14)で表わしたように、ロボット制御貢献及び衝突回避制御貢献が、f(d)によって混合される。f(d)が増加すると、衝突回避モーションが、ロボットモーションに対してより一層重要となる。しかしながら、目標到達モーションが、衝突回避制御におけるゼロスペースにコンパイル(compile)されて、f(d)が「1」でなければ、ロボットの制御は、目標への移動のために貢献する。これにより、スムーズなタスク優先度の切り替えが可能となる。

閉塞問題を避けるために、空間における「仮想対象物」が規定され、衝突回避を実施する際に考慮される。このように、ロボットのセグメントが通ることを許されない空間が規定される。この空間は、「閉塞回避」に使用することができる。ロボットが何かをつかむ場合の主要な問題の一つは、手が目標対象物を隠す閉塞である。本発明によれば、ロボットの手が、目標に向かう視線を通過しないように、ロボットの頭部と目標との間に仮想障害物を設けることができる。ロボットが目標に到達する直前に、仮想対象物は非活性化される。
要約
本発明は、多関節ロボットのハードウェアとその環境を保護する安全メカニズムのための技術に関する。特に、本発明は、動的環境と相互作用するロボットに用いることができる。リアルタイムで予測することは、困難である。以下は、この技術を適用することができるロボットに関するいくつかの例である。
カメラによって与えられた移動目標のトラッキング
ロボットは、予測することのできない移動目標に従わなければならず、同時に自己衝突を回避しなければならない。
両手操作
ロボットは、タスクによって、両方のアームを同時に動かす。それぞれのアームは、個別に目標を有し、時々互いに交差する。
移動する障害物の回避
ロボットは、人間などを回避しなければならない。
衝突回避は、ただ1つの自由度を用いる。一方、目標到達モーションは、
1.衝突回避制御でのゼロスペース
2.ロボット制御でのタスク・スペース
により助長される。
衝突回避モーションが単一自由度に制限されるということは、たとえ衝突回避制御が目標到達タスクではなく、衝突回避タスクに最も高い優先度を割り当てるとしても、衝突回避制御のゼロスペース・モーションが目標到達モーションを考慮に入れる可能性を増加させる。したがって、目標に向かった動作が、従来技術の方式に比べてより効率的である。
用語解説
エフェクタ(Effector)
産業用ロボットにおいて、エフェクタは、通常、マニピュレータである。人間型ロボットにおいて、エフェクタは、しばしば手の基準ポイント(例えば、指先など)として規定される。また、エフェクタは、特定のポイントまたは特定の方向を眺めるように制御されたヘッド部であってもよい。
タスク座標(Task coordinates)
エフェクタの運動が描写される座標。エフェクタのモーションを描写する多くの方式が存在する。エフェクタの位置の場合、一般的に、位置ベクトルのx成分、y成分、及びz成分が選択される。空間的定位の場合、タスクは、しばしばオイラー角または四元数で描写される。多くの場合、タスクに対する特別な描写が用いられる。
タスク・スペース(Task space)
タスク座標によって表される空間。例えば、x方向、y方向、及びz方向におけるロボットの手の位置が制御される場合、タスク・スペースは3次元を有し、これらの座標によって計測される。
ゼロスペース(Null space)
モーションが、タスク・スペース・モーションに影響を与えない空間。例えば、ロボットが自由度7を有し、タスクベクトルが3次元である手の位置の場合、ゼロスペースは、4次元を有する。システムは、タスクに対して冗長自由度を有する。タスク・モーションに干渉しないアームのすべてのモーションが、ゼロスペース・モーションと呼ばれる。
軌道(Trajectory)
システムのモーションを表わす連続的な経路。軌道は、個別ジョイントの経路、またはタスク座標上において表示された経路を示すことができる。
17個のセグメントを有する人間型ロボットを示す図であって、各セグメントは、1つ以上の球を切る線(sphere−swept−lines)または球から構成されている。 衝突回避座標システムを示す図であって、その座標システムの原点は下方のアームにある最も近いポイントである。yは、最も近いポイントを連結する線に沿って整列される。xは、ヒジから手首の位置に向かうベクトルに沿って整列される。z方向は、x軸とy軸の外積である。 本発明によるロボットの他の制御モジュールを示す図である。 最も近い距離の関数である仮想の力(上側グラフ)を示している。 仮想対象物(障害物)に基づく、本発明による閉塞回避アプローチを説明する図である。

Claims (13)

  1. 少なくとも1つの視覚センサを備えるロボットの制御方法であって、
    前記ロボットのモーションに対する目標を規定するステップと、
    前記ロボットが前記目標に到逹するために適切なモーション制御信号を算出するステップと、
    前記ロボットのセグメントと視覚センシング手段および目標の間の仮想対象物との最も近いポイントに基づいて衝突回避制御信号を算出するステップと、
    モーション制御信号と衝突回避制御信号とを結合させるステップと、
    仮想対象物によって規定された空間に前記ロボットのセグメントが入らないように、結合された信号によって前記ロボットのモーションを制御するステップと、を備え、
    算出された衝突危険がより低くなるほど、モーション制御出力信号の重み付け値が高くなる、方法。
  2. 仮想対象物が、視覚センシング手段の中心と目標中心位置とを結ぶ軸の周りに対称である請求項1に記載の方法。
  3. 仮想対象物が3次元楕円体の輪郭を有する空間を規定する請求項1または2に記載の方法。
  4. モーションによる目標到達と衝突回避との間でのなめらかなタスクの切り替えを遂行するために、モーション制御出力信号の重み付け値および衝突回避制御出力信号の重み付け値が徐々に変更される、請求項1から3のいずれか1項に記載の方法。
  5. モーション制御算出は、衝突回避モーションをゼロスペース内に、そして、目標到達モーションをタスク・スペース内にマッピングするステップを備える、請求項1または2に記載の方法。
  6. 前記最も近いポイントの間の距離が、所定の回避閾値距離よりも大きい限り、衝突回避出力信号の重み付け値は0である、請求項1から5のいずれか1項に記載の方法。
  7. 少なくとも一つのジョイントを介して互いに連結された前記ロボットの異なるセグメント、または前記ロボットのセグメントと他の対象物の最も近い2つのポイントを算出し、
    単に最も近いポイントの間の連結線に沿った次元においてのみ、前記ロボットの衝突回避モーションを制御することによって、
    衝突回避制御を行うステップを備える、請求項1から6のいずれか1項に記載の方法。
  8. 前記衝突回避制御のゼロスペースが、モーションによる目標到達に割り当てられる、請求項5に記載の方法。
  9. 衝突回避制御は、衝突回避モーションをタスク・スペース内に、そして、目標到達モーションをゼロスペース内にマッピングする、請求項1から8のいずれか1項に記載の方法。
  10. 演算装置で実行されるとき、請求項1から8のいずれか1項に記載の方法を実施する、コンピュータ・プログラム。
  11. 視覚センシング手段およびモーション制御ユニットを有するロボットであって、
    前記ロボットのモーション制御ユニットは、
    前記ロボットのセグメントと、視覚センシング手段および目標の間の空間を規定する仮想対象物との最も近い2つのポイントを算出する距離算出モジュールと、
    制御モジュールと、
    前記距離算出モジュールからの出力信号が供給される衝突回避モジュールと、
    前記ロボットのモーション制御信号を生成するために、前記制御モジュールと衝突回避制御モジュールの出力制御信号を結合する混合制御ユニットと、を備える、ロボット。
  12. 人間型の2足歩行ロボットである、請求項11の記載のロボット。
  13. 本体に対して動かすことのできる頭部を備え、頭部は、前部に2台のカメラを備える請求項11または12に記載のロボット。
JP2008072506A 2007-03-23 2008-03-19 衝突回避機能を有するロボット Pending JP2009039852A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP07104820.1A EP1972416B1 (en) 2007-03-23 2007-03-23 Robots with occlusion avoidance functionality

Publications (1)

Publication Number Publication Date
JP2009039852A true JP2009039852A (ja) 2009-02-26

Family

ID=38442498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008072506A Pending JP2009039852A (ja) 2007-03-23 2008-03-19 衝突回避機能を有するロボット

Country Status (3)

Country Link
US (1) US8160745B2 (ja)
EP (1) EP1972416B1 (ja)
JP (1) JP2009039852A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012051080A (ja) * 2010-09-02 2012-03-15 Toyota Motor Corp ロボット及びその制御方法

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9517106B2 (en) 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
EP1972416B1 (en) * 2007-03-23 2018-04-25 Honda Research Institute Europe GmbH Robots with occlusion avoidance functionality
EP1972415B1 (en) 2007-03-23 2019-01-02 Honda Research Institute Europe GmbH Robots with collision avoidance functionality
EP1974869A1 (en) * 2007-03-26 2008-10-01 Honda Research Institute Europe GmbH Apparatus and method for generating and controlling the motion of a robot
US10875182B2 (en) * 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
CN101581936B (zh) * 2008-05-16 2012-01-25 深圳富泰宏精密工业有限公司 利用手机控制两足式机器人的系统及方法
DE602009000644D1 (de) * 2009-02-27 2011-03-03 Honda Res Inst Europe Gmbh Roboter mit automatischer Auswahl von aufgabenspezifischen Darstellungen zur Imitationserlernung
JP5398489B2 (ja) * 2009-11-20 2014-01-29 村田機械株式会社 自律移動体とその制御方法
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
JP5480799B2 (ja) * 2010-12-14 2014-04-23 本田技研工業株式会社 移動装置およびロボットならびにこれらの制御システム
JP5441018B2 (ja) * 2011-03-15 2014-03-12 株式会社安川電機 ロボットシステム
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
WO2013181507A1 (en) 2012-06-01 2013-12-05 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
CN104428107B (zh) * 2012-07-10 2016-06-29 西门子公司 机器人布置和用于控制机器人的方法
KR101441187B1 (ko) * 2012-07-19 2014-09-18 고려대학교 산학협력단 자율 보행 로봇 경로 계획 방법
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
CN107427327A (zh) 2014-09-30 2017-12-01 奥瑞斯外科手术机器人公司 具有虚拟轨迹和柔性内窥镜的可配置机器人外科手术系统
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102015004087B3 (de) * 2015-03-31 2016-12-29 gomtec GmbH Fahrbarer Roboter mit Kollisionserkennung
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US9931025B1 (en) * 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
KR20240035632A (ko) 2017-05-12 2024-03-15 아우리스 헬스, 인코포레이티드 생검 장치 및 시스템
EP3645100A4 (en) 2017-06-28 2021-03-17 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
KR102645922B1 (ko) 2017-12-06 2024-03-13 아우리스 헬스, 인코포레이티드 지시되지 않은 기구 롤을 수정하기 위한 시스템 및 방법
KR20200100613A (ko) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 기구 위치 추정을 위한 시스템 및 방법
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
JP7233858B2 (ja) * 2018-06-13 2023-03-07 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
WO2021066801A1 (en) * 2019-09-30 2021-04-08 Siemens Aktiengesellschaft Robotics control system and method for training said robotics control system
CN110936383B (zh) * 2019-12-20 2022-11-18 上海有个机器人有限公司 一种机器人的障碍物避让方法、介质、终端和装置
US20210187746A1 (en) * 2019-12-23 2021-06-24 X Development Llc Task planning accounting for occlusion of sensor observations
CN114901194A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 解剖特征识别和瞄准
JP2023508719A (ja) 2019-12-31 2023-03-03 オーリス ヘルス インコーポレイテッド 経皮的アクセスのための位置合わせインターフェース
US11660147B2 (en) 2019-12-31 2023-05-30 Auris Health, Inc. Alignment techniques for percutaneous access
US11407109B2 (en) * 2020-04-16 2022-08-09 Boston Dynamics, Inc. Global arm path planning with roadmaps and precomputed domains

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62213976A (ja) * 1986-03-13 1987-09-19 株式会社クボタ 果菜類用作業機
JPH03239487A (ja) * 1990-02-19 1991-10-25 Canon Inc 視覚を備えた自動組立装置
US5737500A (en) * 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
JP2005202927A (ja) * 2003-10-29 2005-07-28 Snecma Moteurs 多関節物体の連接要素間の内部衝突を回避しながらの仮想環境における仮想多関節物体の動き
JP2006133863A (ja) * 2004-11-02 2006-05-25 Honda Motor Co Ltd ロボット制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347459A (en) * 1993-03-17 1994-09-13 National Research Council Of Canada Real time collision detection
US5835684A (en) * 1994-11-09 1998-11-10 Amada Company, Ltd. Method for planning/controlling robot motion
US6023645A (en) 1997-05-15 2000-02-08 Mitsubishi Denki Kabushiki Kaisha Trajectory control apparatus and trajectory control method for intra-planar multifreedom SCARA type of robot, and computer-readable recording medium with trajectory control program for intra-planar multifreedom SCARA type of robot stored therein
US6181983B1 (en) * 1997-06-20 2001-01-30 Deutsches Zentrum f{umlaut over (u)}r Luft-und Raumfahrt e.v. Method of command control for a robot manipulator
EP1215019A3 (en) 2000-11-17 2003-01-22 Honda Giken Kogyo Kabushiki Kaisha Method for designing a robot arm
US6438456B1 (en) * 2001-04-24 2002-08-20 Sandia Corporation Portable control device for networked mobile robots
US6687571B1 (en) * 2001-04-24 2004-02-03 Sandia Corporation Cooperating mobile robots
US6678582B2 (en) * 2002-05-30 2004-01-13 Kuka Roboter Gmbh Method and control device for avoiding collisions between cooperating robots
CN100348383C (zh) * 2002-12-12 2007-11-14 松下电器产业株式会社 机器人控制装置
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US20060111881A1 (en) * 2004-11-23 2006-05-25 Warren Jackson Specialized processor for solving optimization problems
US7313463B2 (en) * 2005-03-31 2007-12-25 Massachusetts Institute Of Technology Biomimetic motion and balance controllers for use in prosthetics, orthotics and robotics
US8467904B2 (en) * 2005-12-22 2013-06-18 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
US7859540B2 (en) * 2005-12-22 2010-12-28 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of motion for articulated systems
EP1972416B1 (en) * 2007-03-23 2018-04-25 Honda Research Institute Europe GmbH Robots with occlusion avoidance functionality
KR101691939B1 (ko) * 2009-08-10 2017-01-02 삼성전자주식회사 로봇의 경로 계획방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62213976A (ja) * 1986-03-13 1987-09-19 株式会社クボタ 果菜類用作業機
JPH03239487A (ja) * 1990-02-19 1991-10-25 Canon Inc 視覚を備えた自動組立装置
US5737500A (en) * 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
JP2005202927A (ja) * 2003-10-29 2005-07-28 Snecma Moteurs 多関節物体の連接要素間の内部衝突を回避しながらの仮想環境における仮想多関節物体の動き
JP2006133863A (ja) * 2004-11-02 2006-05-25 Honda Motor Co Ltd ロボット制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012051080A (ja) * 2010-09-02 2012-03-15 Toyota Motor Corp ロボット及びその制御方法

Also Published As

Publication number Publication date
EP1972416B1 (en) 2018-04-25
US8160745B2 (en) 2012-04-17
US20080312771A1 (en) 2008-12-18
EP1972416A1 (en) 2008-09-24

Similar Documents

Publication Publication Date Title
JP4903173B2 (ja) 衝突回避機能を有するロボット
JP2009039852A (ja) 衝突回避機能を有するロボット
Flacco et al. A depth space approach to human-robot collision avoidance
US9849595B2 (en) Contact force limiting with haptic feedback for a tele-operated robot
KR102026490B1 (ko) 로봇을 제어하기 위한 방법 및 제어수단
Sugiura et al. Real-time collision avoidance with whole body motion control for humanoid robots
Haddadin et al. Dynamic motion planning for robots in partially unknown environments
Petrič et al. Smooth continuous transition between tasks on a kinematic control level: Obstacle avoidance as a control problem
Haddadin et al. Real-time reactive motion generation based on variable attractor dynamics and shaped velocities
Dietrich et al. Extensions to reactive self-collision avoidance for torque and position controlled humanoids
Luo et al. Real time human motion imitation of anthropomorphic dual arm robot based on Cartesian impedance control
Albini et al. Exploiting distributed tactile sensors to drive a robot arm through obstacles
Leeper et al. Methods for collision-free arm teleoperation in clutter using constraints from 3d sensor data
Zhang et al. Sensor-based redundancy resolution for a nonholonomic mobile manipulator
Sugiura et al. Real-time self collision avoidance for humanoids by means of nullspace criteria and task intervals
García et al. Bimanual robot control for surface treatment tasks
Mashali et al. Controlling a non-holonomic mobile manipulator in a constrained floor space
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
Ellekilde et al. Control of mobile manipulator using the dynamical systems approach
Selvaggio et al. Towards a self-collision aware teleoperation framework for compound robots
Spencer et al. Collision avoidance techniques for tele-operated and autonomous manipulators in overlapping workspaces
JP2023075884A (ja) 動的動作計画システム
CN116214495A (zh) 机器人动态运动规划和控制的方法
Oh et al. Remote control for redundant humanoid arm using optimized arm angle
Leeper et al. Arm teleoperation in clutter using virtual constraints from real sensor data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101122

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110524