JP2011509835A - ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置 - Google Patents

ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置 Download PDF

Info

Publication number
JP2011509835A
JP2011509835A JP2010541861A JP2010541861A JP2011509835A JP 2011509835 A JP2011509835 A JP 2011509835A JP 2010541861 A JP2010541861 A JP 2010541861A JP 2010541861 A JP2010541861 A JP 2010541861A JP 2011509835 A JP2011509835 A JP 2011509835A
Authority
JP
Japan
Prior art keywords
robot
virtual
tool
movement
virtual model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010541861A
Other languages
English (en)
Inventor
ベンチクフ,ラレドジュ
Original Assignee
ビーエルエム エスエー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビーエルエム エスエー filed Critical ビーエルエム エスエー
Publication of JP2011509835A publication Critical patent/JP2011509835A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36432By putting some constraints on some DOF, move within limited volumes, areas, planes, limits motion in x, y or z planes, virtual reality constraints

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】本発明は、ロボット(11)のトレーニング装置(10)であって、このロボットは、自動化されたタスクを実行して、特定のツール(13)を使用してパーツ(14)に特に加工、組立て、包装、保守などの様々な機能を果たすように構成されている装置に関する。
【解決手段】本発明の装置(10)は、3Dのバーチャルモデルの形態で上記パーツ(14)を表示する手段及び上記の特定のツール(13)の移動を実行する制御手段(15)を備える。少なくとも1つのバーチャルガイド(17)は、上記パーツ(14)の3Dバーチャルモデルの所定の作用領域での上記の特定のツール(13)の移動軌道を画成するために配置された空間を決定する上記パーツ(14)の3Dバーチャルモデルに組み合わされており、所定の作用領域はバーチャルガイド(17)と関連している。最終的に、このツール(13)が所定の作用領域に有効に配置されているとき、該パーツ(14)の3Dバーチャルモデルが配置されている所定の座標(R1)に対する上記特定のツール(13)の空間座標を記録するコンピュータ(16)を備える。
【選択図】図1

Description

本発明は、ロボットまたは類似物のトレーニング方法であって、このロボットは、自動化されたタスクを実行し、特定のツールを使用してパーツに特に加工、組立て、包装、保守などの様々な機能を果たすように構成されており、上記トレーニングは該パーツに実行すべきタスクの遂行の一環として必要な上記ロボットの特定のツールの移動を正確に測定し、該ロボットの特定のツールの移動のパラメータを記録するために実施される方法に関するものである。
本発明は、また、上記の方法を実施するためのロボットまたは類似物のトレーニング装置であって、このロボットは、自動化されたタスクを実行し、特定のツールを使用してパーツに特に加工、組立て、包装、保守などの様々な機能を果たすように構成されており、上記トレーニングは該パーツに実行すべきタスクの遂行の一環として必要な上記ロボットの特定のツールの移動を正確に測定し、該ロボットの特定のツールの移動のパラメータを記録するために実施される装置に関するものである。
産業分野で一般的に「CAOロボット」とよばれるもの、すなわち、ロボットのコンピュータによって補助される概念において、これらのロボットのプログラミングは従来からもっぱら仮想環境において実行されており、これによって、現実に対して大きな隔たりを生むことになる。実際、所定のライブラリと呼ばれるレジスタから生まれたバーチャルロボットは、常に、構造または機能の公差を全く考慮しない「完全な」ロボットである。そのため、バーチャルロボットがそのプログラミングに応じて実行する完全な軌道と欠陥を備えるリアルロボットが実行する現実の軌道との間には大きなずれがあることが現実に確かめられる。この事実の確認によって、ユーザはリアルロボットでのプログラムの実行のとき軌道の多数の点でバッチを行う必要がある。これらの隔たりは、機械的な遊び、製造公差、機械的な損耗など仮想世界には存在しないものによって、バーチャルロボットはリアルロボットの忠実な画像ではないことを原因とする。
この方法のもう1つの欠点は、ケーブル、パイプ、カバーなどのようにロボットに搭載される、しばしば「上部構造」という表現で示される付属的な構成要素が必然的に固定されているので、CAOでシミュレーションすることができないことから生じている。これは、バッチが補正として実行されたとしても、リアルロボットへプログラムの実行のときロボットが作業する現実のパーツとの干渉及び衝突の原因となる恐れがある。
また、CAOによって計算されるロボットのサイクル期間は、コンピュータの時間のサンプリング及び計算頻度に関係し、この期間はロボットによって測定されるものと同一ではないので、近似値である。言い換えれば、コンピュータの時間の基礎は、ロボットとは異なっている。
別のトレーニング方法がしばしば実施される。それは、いわゆる手動トレーニングである。手動トレーニングはオペレータの目によって実施され、ロボットが作業するパーツの寿命の間ずっと最適な機能に到達するために連続的なバッチを必要とするので、おおよそのプログラミングであることが大きな欠点である。また、この技術では、トレーニングを実行することを可能にするために現実のパーツの存在を必要とし、これは多数の問題を生じさせることがある。1つには、例えば、自動車産業などのある部門では、1つ、さらに複数の一連のプロトタイプの製造は、コストが極めて高く、極めて長い製造期間を伴う。さらに、この分野でのプロトタイプの製造は、秘密保持に関して極めて複雑な問題を提示する。結局、リアルパーツでのトレーニングは、ロボットの側で必ず実行されるべきであり、遠隔操作では、ロボットとオペレータとの間で衝突の危険性があるので、遠隔操作は行うことができない。
上記に述べたこれらの問題点は全て、高いコストを生み、長い製造期間の原因となり、技術的に満足できる解決に達することができない重大な欠点を示している。プログラミングの問題点すなわちロボットのトレーニングは、ロボットが作業するとされている物体の形状が複雑であるほど複雑になる。ところが、理論的にはロボットが有利であるのは、まさしく複雑な形状の場合である。現在のプログラミング方法は、コストに関して、及び、期間に関して、ロボットの使用の抑制となっている。さらに、プログラミング作業は、その分野で豊富な経験を積んだ、極めて高いレベルの専門家の助けを必要とする。
産業用ロボットの軌道のトレーニングのサポート方法は、特に、増大したリアリティ技術という間接的手段によって実現されるバーチャルガイドを使用する方法を記載した特許文献1によって、複数の方法が公知である。これらのバーチャルガイドは、実際のパーツ、例えば、ロボット化されたラインに配置された自動車の車体の現実のプロトタイプに使用されることがある。この技術は、オペレータがロボットの軌道をより速く学習することができるようにオペレータをサポートすることを目的とするが、オペレータの物理的な事故の危険性を完全に排除して、プロトタイプを製造する必要を無くして、加工すべきパーツのモデルを使用することなく、遠隔操作でロボットのトレーニングを実行することはできない。
特許文献2は、特殊な機械または産業用ロボットに組み合わされた円錐形バーチャルガイドを使用する方法に関するものであり、これらのガイドは、オペレータの安全上の問題からロボットの移動範囲を縮小し、ロボットのツールとこのツールが作用しなければならないパーツとの間の衝突を回避することを目的とする。それは、現実のパーツ、例えば、車両のプロトタイプの場合に関係し、従って、上記に述べた問題点を示す。
また、特許文献3には、全く単純に、光学センサを使用して、ロボットまたは類似物の位置決定をおこない、その移動の軌道を測定する視覚による三次元リローカライゼーション方法が記載されている。
アメリカ合衆国特許公開第2004/0189631号A 1 アメリカ合衆国特許公開第6204620号B1 アメリカ合衆国特許第6167607号B1
本発明は、特に、複雑なパーツに複雑なタスクを実行するためのロボットのトレーニングすなわちプログラミングを容易にして、トレーニング時間を短縮し、作成されたサンプルの機密性を保持し、遠隔操作で作業できる方法及びこの方法の実行装置を考案して、これらの問題全てを解決することを提案するものである。
この目的は、冒頭に記載したような方法であって、3Dで上記パーツのバーチャルモデルについてロボットまたは類似物のトレーニングを実行し、3Dのパーツの該バーチャルモデルに3Dの該パーツのバーチャルモデルの所定の作用領域で該ロボットの特定のツールの移動軌道を画成するように配置された空間を決定する少なくとも1つのバーチャルガイドを組み合わせ、この所定の作用領域は該バーチャルガイドに組み合わされており、該バーチャルガイドを使用して、上記ロボットの特定のツールをこのガイドに組み合わされた所定の作用領域に移動させ、このツールが所定の該作用領域に有効に位置するとき該パーツの3Dバーチャルモデルが配置された一定の座標に関する該ロボットの特殊なツールの空間座標を記録することを特徴とする方法によって達成することができる。
トレーニング後使用されるリアルロボットの正確な画像であるバーチャルロボットで、上記の移動を実行することができる。
好ましい方法では、一定の空間を画成する幾何学的形状を備えるバーチャルガイドを使用して、第一段階で上記の特定のツールを一定の空間に運び、第二段階中に該特定のツールをバーチャルガイドの特性点に移動させて、該ロボットのトレーニングを実行し、この特性点は上記パーツの3Dバーチャルモデルの所定の作用領域に対応する。
バーチャルガイドは、円錐の形状であることがあり、上記のパーツの3Dバーチャルモデルの所定の作用領域に対応する特性点は、円錐の頂点である。
上記のバーチャルガイドは、球の形状であることがあり、上記のパーツの3Dバーチャルモデルの所定の作用領域に対応する特性点は、球の中心である。
本発明の方法の使用を改良するために、少なくとも1つの照準をパーツの3Dバーチャルモデル及びロボットが配置された作業空間に組み合わせ、少なくとも1つのカメラを使用して、該作業空間の画像を作成し、それによって、作業空間内でのロボットの土台の移動を測定することができる。
補足的な改良は、少なくとも1つの第一の照準をパーツの3Dバーチャルモデル及びロボットが配置された作業空間に、第二の照準をロボットの特定のツールに組み合わせ、少なくとも1つのカメラを使用して、該作業空間の画像を作成し、それによって、作業空間内でのロボットの土台の移動及び特定のツールの移動を測定することからなる。
もう1つの補足的な改良は、少なくとも1つの第一の照準をパーツの3Dバーチャルモデル及びロボットが配置された作業空間に、第二の照準をロボットの特定のツールに、及び、少なくとも1つの第三の照準を少なくとも1つのロボットの可動構成要素に組み合わせ、少なくとも1つのカメラを使用して、該作業空間の画像を作成し、それによって、作業空間内でのロボットの土台、少なくとも1つのその可動構成要素の移動及び特定のツールの移動を測定することからなる。
好ましくは、ロボットの制御装置に結合されたインターフェースを介した通信によって該トレーニング作業を遠隔操作で実行することができる。
この目的は、また、冒頭に定義したような装置であって、3Dバーチャルモデルの形態で上記パーツを表示する手段、上記の特定のツールの移動を実行する制御手段、及び上記のパーツの3Dバーチャルモデルの所定の作用領域での上記ロボットの特定のツールの移動軌道を画成するために配置された空間を決定する少なくとも1つのバーチャルガイドをパーツの3Dバーチャルモデルに組み合わせるための手段を備え、この所定の作用領域は該バーチャルガイドに組み合わされており、さらに、このバーチャルガイドを使用して該ガイドに組み合わされた所定の上記作用領域に上記ロボットの特定のツールを運ぶ手段及びこのツールが所定の該作用領域に有効に配置されているとき、該パーツの3Dバーチャルモデルが配置されている所定の座標に対して上記ロボットの特定のツールの空間座標を記録する手段を備えることを特徴とする装置によって達成される。
好ましくは、上記バーチャルガイドは、一定の空間を画成する幾何学的形状、第一の段階で、該一定の空間に上記の特定のツールを運ぶ手段、及び、第二段階中に該特定のツールをバーチャルガイドの特性点の方へ移動させる手段を備えており、この特性点はパーツの3Dバーチャルモデルの所定の作用領域に対応する。
上記バーチャルガイドは、円錐の形状であることがあり、上記のパーツの3Dバーチャルモデルの所定の作用領域に対応する特性点は、円錐の頂点であることがある。
上記のバーチャルガイドは、球の形状であることがあり、上記のパーツの3Dバーチャルモデルの所定の作用領域に対応する特性点は、球の中心であることがある。
好ましくは、本発明の装置は、パーツの3Dバーチャルモデル及びロボットが配置された作業空間に組み合わせる少なくとも1つの照準、及び、該作業空間の画像を作成するための少なくとも1つのカメラを備え、それによって、作業空間内でのロボットの土台の移動を測定する。
第一の改良によると、本発明の装置は、パーツの3Dバーチャルモデル及びロボットが配置された作業空間に組み合わされた少なくとも1つの第一の照準、ロボットの特定のツールに組み合わされた少なくとも1つの第二の照準、また、該作業空間の画像を作成するための少なくとも1つのカメラを備えることができ、それによって、作業空間内でのロボットの土台の移動及び特定のツールの移動を測定することができる。
第二の改良によると、本発明の装置は、パーツの3Dバーチャルモデル及びロボットが配置された作業空間に組み合わされた少なくとも1つの第一の照準、ロボットの特定のツールに組み合わされた少なくとも1つの第二の照準及びロボットの少なくとも1つの可動構成要素に組み合わされた少なくとも1つの第三の照準、また、該作業空間の画像を作成するための少なくとも1つのカメラを備えることができ、それによって、作業空間内でのロボットの土台、その可動構成要素の少なくとも1つの移動及び特定のツールの移動を測定することができる。
本発明及びその利点は、下記の添付図面を参照して行う、本発明の方法を実施するための装置の複数の実施態様の詳細な説明から明らかになるであろう。但し、これらの実施励は、本発明を限定するものではなく、例示するにすぎない。
図1は、本発明による装置の第一の実施態様を示した概略図である。 図2は、本発明による装置の第二の実施態様を示した概略図である。 図3は、本発明による装置の第三の実施態様を示した概略図である。 図4は、本発明による装置の第四の実施態様を示した概略図である。 図5は、本発明の方法を図示した機能図である。
図1を参照すると、本発明による装置10は、主に、台座12上に取り付けられ、1つまたは複数の自動化されたタスク及び、特に、加工、組立て、包装、保守の様々な機能を遂行するための少なくとも1つの特定のツール13を備えるロボット11または類似物を備える。ロボット11のその基本特性は、その可動軸の数であるが、ロボットが遂行すべき機能に応じて設計されており、例えば、いくつかの数の関節式接続された、機械化された要素11a、11b、11cを備える。装置10は、さらに、該特定のツール13によって加工されるためのパーツ14を有する。自動車の輪郭で図示されたこのパーツ14は、好ましくは、バーチャル画像、すなわち、パーツの3Dバーチャルモデルであり、ロボット11の特定のツール13によって実施されるべきタスクは、このバーチャル画像に対応するリアルパーツについての未来の介入を見越して、このパーツの3Dバーチャルモデルによってトレーニングされる。以下の説明では、3Dパーツのバーチャル画像またはバーチャルモデルをより単純に「バーチャルパーツ14」と呼ぶ。
装置10は、さらに、ロボット11の制御ケース15を備えており、そのケースは一方がロボット11に、もう一方が従来のコンピュータ16に接続されている。これらの要素全体は、普遍座標と呼ばれる直交する三軸線XYZを備える、空間座標R1によって識別される作業空間内に配置されている。バーチャルパーツ14は、また、三つの軸線XYZを備える直交座標R2によって目印が付けられており、それによって作業空間内にその位置を決定することができる。ロボット11は、その台座12上に取り付けられており、三つの軸線XYZを備える直交座標R3によって目印が付けられており、それによって作業空間内にその位置を決定することができる。さらに、特定のツール13は、三つの軸線XYZを備える直交座標R4によって目印が付けられており、それによって作業空間内にその位置を決定することができる。
バーチャルパーツ14は、少なくとも1つのバーチャルガイド17、好ましくは複数のバーチャルガイドを備える。そのバーチャルガイドは、好ましくは円錐形(図示したように)または球形(図示せず)を示すが、それに限定されるものではなく、その機能については後に詳細に記載する。図示した実施例では、単一のバーチャルガイド17は、バーチャルパーツ14が示す車両の車輪の通過位置に配置されている。円錐は、所定の作用領域、場合によっては、バーチャルパーツ14の車輪の正確な通過点に向かってロボット11の特定のツール13を運ぶ軌道を画成するように構成された空間を決定する。各バーチャルガイド17は、バーチャルパーツ14の輪郭の所定の点Pi用のロボットトレーニングを確実にするためのものである。複数のバーチャルガイド17が存在するとき、それらは随意に作動し、停止する。それらの作動方法は、特定のツール13が、この特定のツール13がタスクを実行するためのバーチャルパーツ14の作用領域の近傍に移動されるとき、特定のツール13を「捕捉」することからなる。この特定のツール13が円錐形によって画成された空間内に侵入するとき、それは「捕捉」されており、それらの移動は、作用領域、すなわち、その移動軌道とバーチャルパーツ14を示す仮想線の交点に直接到達するようにこの空間内に厳密に限定されている。円錐の先端は、特定のツール13の最終位置に正確に対応する。円錐の存在によって、ツールの時ならぬ移動を全て回避し、従って、リアルなパーツ及び/またはユーザとの衝突を防ぐことができる。それによって、ツールの作用領域に対応する交点の最終的なアクセスを保証することができる。この軌道は安全化されているので、危険を伴わずに接近速度を増大させることができる。バーチャルガイド17が球のとき、バーチャルパーツ上の作用領域に対応する特定のツール13の最終位置は球の中心であることがある。
図1では、バーチャルガイド17は円錐で図示されている。このバーチャルガイド17は、球、または、方程式によって幾何学的形状を定義できるものなら他の適切な形状であることもある。特定のツール13は、このトレーニング段階中に手動で移動され、バーチャルガイド17との交点に運ばれ、それによって、自動的にまたは手動で、円錐の先端、または、バーチャルガイド17が球形のときは球の中心の方へ導かれる。これらの操作は、バーチャルパーツ14の所定の各介入点または各区域で再現することができる。
ロボット11が所定の作用領域に特定のツール13を運んだとき、このツールの空間座標は、その直交座標R4によって識別され、コンピュータ16に記録される。同様に、ロボット11の空間座標をその直交座標R3を使用して同時に記録し、バーチャルパーツ14または関係する作用領域の空間座標をその直交座標R2を使用して同時に記録する。これらの様々な標定は、直交座標R1によって決定される同一作業空間内で実行され、従って、ロボット11の全ての移動パラメータを現実の位置に基づいて計算することができる。この処理方法によって、バーチャルパーツ14について作業するだけで、ロボット11の欠点を全て削除して、実際の移動パラメータを記憶することができる。
「トレーニング」はバーチャルパーツ14について実施されるので、様々な命令を有するオンライントレーニングの形態で遠隔で実行することができる。ロボット11の制御ケース15は、キーボードによって、また、電話、リモコン、「ジョイスティック」と呼ばれる型の操作レバーなどによってオペレータが転送することができる命令を解釈するように働くインターフェースである。移動は、少なくとも1つのカメラによって撮影されていれば、スクリーンで遠隔追跡することができる。
図2に図示した実施態様では、図1の構成に関するいくつかの改良点を取り入れたが、ロボットのトレーニングに関して同一の要求に応える第一の応用例を示している。この実施例の、図1の実施例と同様な構成要素には、同一の参照番号を付し、さらに詳細に説明することはない。図示した装置10は、図1の実施態様に関して、補足で、座標R1によって識別される作業空間内を移動中ずっとロボット11を表示するように配置された少なくとも1つのカメラ20及び、例えば、測定基準として働くように正確に決定され、規則的に配置された正方形の配列22を備える照準21を備える。照準21は、ロボット11が展開し、ロボット化セルと呼ばれる作業空間のサイズを提供する。カメラ20によってロボット11の移動を全て追跡することができ、カメラ20と照準21の組み合わせによって移動を測定することができる。サイズデータは、コンピュータ16に記録され、ロボット11、及び、特にツール13の移動パラメータの計算を実行することができる。
図3は、上記の応用例より発展した第二の応用例を示したものであり、特定のツール13に組み合わされた第二の照準30をさらに備えている。この実施例によると、照準30は、ツール13の移動パラメータを極めて正確に識別するためにロボット11のヘッドに直接接続されているので、搭載されているとされる。この方法によって、ユーザはロボット11の台座12の正確に数字化された追跡と、また同様に、特定のツール13の正確に数字化された追跡を同時に自由に使用することができる。極めて正確に空間座標が捕捉され、リアルロボットについて位置が測定されているので、操作エラーを全て排除して、移動パラメータが極めて正確に測定される。
図4の応用例では、補足的な改良が行われ、さらにロボット11の可動要素11a、11b、11cの各々に組み合わされた一連の補足の照準40、50(またはそれ以上)を備える。この実施例によると、照準30、40、50は、作業中、これらの全ての要素の移動パラメータを極めて正確に識別するためにロボット11の可動要素に直接接続されているので、搭載されているとされる。この実施態様では、ロボット11の運動をそのツール13及びその上部構造と共に測定することができる。
作業空間のシーンの転送は、もちろん、モノまたはステレオ型のカメラ装置20によって実行することができる。これらのカメラ20は、従来の調節手段全て、光の量用の焦点調節、鮮明さのための絞りの調節、倍率のためレンズの調節などを備えることができる。これらの調節は、手動でも自動でも可能である。測定プロシージャでは、装置10の座標R2、R3、R4を全て結合させて、それらを例えば作業空間の座標R1である唯一の座標内に表示することが求められる。
上記のような遠隔操作、遠隔プログラミングまたは遠隔トレーニングのタスクは、リアルロボット及び3Dのリアルパーツのバーチャルブレッドボードを含んで、バーチャルシーンについて実行される。実際には、このトレーニングのとき、コンピュータのグラフィックインターフェースは、同一スクリーン上にバーチャル及び/またはリアルパーツに指示軌道を重ねて表示する役割を果たす。
例えば、六つの軸、すなわち、直線移動の直交軸であるX、Y、Z及び回転軸であるW、P、Rを有するロボットであるロボット11に搭載されるツール13の衝突点を決定する座標は、より一般的に、衝突座標と呼ぶ。バーチャルパーツ14の所望の衝突を決定する点は、衝突点Piと呼ぶ。座標が(x、y、z、w、p、r)である衝突点は、座標R1いわゆる普遍として表現される。
自動制御装置付の関節式接続構造、すなわち、ロボット11の遠隔操作、遠隔プログラミングまたは遠隔トレーニングを容易にするために、軌道の各点は、必要な場合には、オペレータの選択に応じて、球、円錐または他の型の日常使用されている形態のバーチャルガイド17を備える。バーチャルガイド17は、座標へのトレーニングがロボット11に搭載されたツール13の衝突点を所望の衝突点Piに向かってシミュレーションするように働く。この過程は、下記の三つの方法で実行される。
ロボット11によって測定された、その衝突点の座標を使用して、カメラ20及び各々下記の数式の球または円錐のバーチャルガイド17を備える装置10内にその座標を組み込む。
a)下記数式1の球
(数1)
(x−x+(y−y+(z−z=R
(上記式において、
Rは球の半径であり、
、y及びzは、普遍座標R1に表現される軌道の点に対応する球の中心の座標であり、
x、y及びzは、普遍座標R1に表現される球に属するあらゆる点の座標である。)
b)下記数式2の円錐
(数2)
(x−x+(y−y=(r/h)(z−z
(上記式において、
Rは円錐の底の半径であり、hはその高さであり、
、y及びzは、普遍座標R1で表現される軌道の点に対応する円錐の頂点の座標であり、
x、y及びzは、普遍座標R1で表現される円錐に属するあらゆる点の座標である。)
あるいは、下記数式3と書くことができる幾何学的形状ならいずれでもよい。
(数3)
f(x、y、z)=0
(上記式において、x、y及びzは、普遍座標R1に表現されるこの形状に属するあらゆる点の座標である。)
ツール13に搭載された照準30を使用し、ロボット11の測定と同様に捕捉されるその瞬間的な位置のカメラ20による測定が可能である。
カメラの測定によって、上記に記載の原理に応じて再構成されたロボットのバーチャルモデルを利用する。
従って、ロボット11の軌道のトレーニングの補助または遠隔トレーニングの補助アルゴリズムは、バーチャルガイド17に対するロボットの衝突座標の位置をリアルタイムに識別することからなる。衝突座標及びバーチャルガイド17が交差しているとき、バーチャルガイドは衝突座標がガイドから出ることを妨げ、衝突座標が例えば球の中心または円錐の頂点である衝突点の方にしか移動しないようにする。オペレータは、バーチャルガイド17によって決定される空間内でのサポートまたは自動案内を作動するかしないかを決定することができる。
自動案内の作動のとき、装置10は、座標x、y及びzがバーチャル座標の形状に応じて球の中心の座標または円錐の頂点の座標である点に関してロボット11のトレーニングを有効化するように構成されている。各々、ローリング、ピッチング及びヨーイングと呼ばれる向きw、p及びrは、オペレータによって達成された最終の点の向きである。
装置10は、準備された形態に応じて、バーチャルパーツ及び/またはリアルパーツ間、または、二つのバーチャルパーツ間、または、二つのリアルパーツ間での位置測定の比較計算を実行するように構成されている。この計算は、所定の介入のため、ロボットの軌道に直接割り当てられる。この計算は、要望に応えて一回か、製造中のパーツを各サイクルで再調整するために連続して実行される。
上記の操作方法を、本発明の方法に対応する機能のフローチャートである図5に示した。この操作方法は、下記の段階を備える。
A−A欄によって示される初期段階は、軌道の生成を表す。
B−B欄によって示される段階は、トレーニングまたは遠隔トレーニングモードのロボット11をバーチャルパーツ14の衝突点Piへ移動させることからなる。
C−C欄によって示される段階は、ロボット11の位置を識別することからなる。
D−D欄によって示される段階は、衝突点Piがバーチャルパーツ14に属するかどうかのYESまたはNOを確認することからなる。答えがNOのときは、トレーニングは中止される。答えがYESのときは、プロセスが続行される。
E−E欄によって示される段階は、バーチャルガイド17による自動トレーニングが始動しているかどうかのYESまたはNOを決定することからなる。答えがNOのときは、トレーニングは中止される。答えがYESのときは、プロセスが続行される。
F−F欄によって示される段階は、対応するバーチャルガイド17の球の中心または円錐の頂点の座標を記録することからなる。
G−G欄によって示される段階は、衝突点の座標を記録することからなる。
要するに、本発明の方法の利点は、主に下記に示すとおりである。
‐実際のプロトタイプを使用せずに、開発中のバーチャルパーツ14について直接軌道を生成することができる。
‐いずれの型の通信網を介しても、遠隔操作で軌道を生成することができる。
‐このロボットの上部構造のサイズ及び運動などの、ロボット11の環境の制約を直接考慮することができる。
‐バーチャルガイド17のおかげで、点の肉眼による大雑把なトレーニングをすることを防ぐことができ、その結果、加工されるパーツの品質が向上する。
‐作業はリアルロボットまたはリアルロボットに正確に対応するそのバーチャル画像について実施されるので、ロボット11のサイクル時間を正確に計算することができる。
‐バーチャルパーツ14とリアルパーツの位置測定を比較して、ロボット11の軌道の三次元での再調整を実行することができる。
‐オペレータは1つまたは複数のカメラ20のビデオリターンに基づくので、ロボット11とリアルパーツ及び/またはオペレータとの間の衝突の危険性を全て回避することができる。
‐ロボット11のバーチャルモデルを考慮して、製造条件の制約がなく、軌道の最初の草案を実現することができる。
本発明は、例として記載した上記の実施態様に限定されるものではなく、当業者の獲得した知識の範囲内にとどまる限りあらゆる展開をすることができる。
10 装置
11 ロボット
13 ツール
14 パーツ
15 制御手段
16 コンピュータ
17 バーチャルガイド

Claims (16)

  1. ロボット(11)または類似物のトレーニング方法であって、このロボットは、自動化されたタスクを実行して、特定のツール(13)を使用してパーツ(14)に特に加工、組立て、包装、保守などの様々な機能を果たすように構成されており、上記トレーニングは該パーツに実行すべきタスクの遂行の一環として必要な、上記ロボット(11)の特定のツール(13)の移動を正確に測定し、該ロボット(11)の特定のツール(13)の移動のパラメータを記録するために実施される方法において、上記パーツ(14)の3Dバーチャルモデルについてロボットまたは類似物のトレーニングを実行し、上記パーツ(14)の3Dバーチャルモデルに該パーツ(14)の3Dバーチャルモデルの所定の作用領域で該ロボット(11)の特定のツール(13)の移動軌道を画成するように配置された空間を決定する少なくとも1つのバーチャルガイド(17)を組み合わせ、この所定の作用領域は該バーチャルガイド(17)に組み合わされており、該バーチャルガイド(17)を使用して、上記ロボット(11)の特定のツール(13)をこのガイドに組み合わされた所定の作用領域に移動させ、この特定のツール(13)が所定の該作用領域に有効に位置するとき該パーツ(13)が配置された一定の座標(R1)に関する該ロボット(11)の特定のツール(13)の空間座標を記録することを特徴とする方法。
  2. 上記ロボット(11)は、トレーニング後に使用されるためのリアルロボットの3Dの正確なバーチャル画像であることを特徴とする請求項1に記載の方法。
  3. 上記の一定の空間を画成する幾何学的形状を備えるバーチャルガイド(17)を使用して、第一段階で上記の特定のツール(13)を上記の一定の空間に運び、第二段階中に該特定のツール(13)をバーチャルガイド(17)の特性点に移動させて、該ロボット(11)のトレーニングを実行し、この特性点は上記パーツ(14)の3Dバーチャルモデルの所定の作用領域に対応することを特徴とする請求項1に記載の方法。
  4. 上記バーチャルガイド(17)は、円錐の形状であり、上記のパーツ(14)の3Dバーチャルモデルの所定の作用領域に対応する特性点は、円錐の頂点であることを特徴とする請求項3に記載の方法。
  5. 上記のバーチャルガイド(17)は、球の形状であり、上記のパーツ(14)の3Dバーチャルモデルの所定の作用領域に対応する特性点は、球の中心であることを特徴とする請求項3に記載の方法。
  6. 少なくとも1つの照準(21)を上記3Dのパーツ(14)のバーチャルモデル及びロボット(11)が配置された作業空間()に組み合わせ、少なくとも1つのカメラ(20)を使用して、該作業空間()の画像を作成し、それによって、作業空間()内でのロボット(11)の土台(12)の移動を測定することができることを特徴とする請求項1に記載の方法。
  7. 第一の照準(21)を上記パーツ(14)の3Dバーチャルモデル及びロボット(11)が配置された作業空間()に、第二の照準(30)をロボット(11)の特定のツール(13)に組み合わせ、少なくとも1つのカメラ(20)を使用して、該作業空間()の画像を作成し、それによって、作業空間()内でのロボット(11)の土台(12)の移動及び特定のツール(13)の移動を測定することを特徴とする請求項1に記載の方法。
  8. 少なくとも1つの第一の照準(21)を上記パーツ(14)の3Dバーチャルモデル及びロボット(11)が配置された作業空間()に、第二の照準(30)をロボットの特定のツール(13)に、及び、少なくとも1つの第三の照準(40、50)を少なくとも1つのロボット(11)の可動構成要素(11a、11b、11c)に組み合わせ、少なくとも1つのカメラ(20)を使用して、該作業空間()の画像を作成し、それによって、作業空間内()でのロボット(11)の土台(12)、少なくとも1つのその可動要素の移動及び特定のツール(13)の移動を測定することを特徴とする請求項1に記載の方法。
  9. 上記ロボット(11)の制御装置(15)に結合されたインターフェースを介した通信によって該トレーニング作業を遠隔操作で実行することを特徴とする請求項1に記載の方法。
  10. ロボット(11)または類似物のトレーニング(10)方法であって、このロボットは、自動化されたタスクを実行して、特定のツール(13)を使用してパーツ(14)に特に加工、組立て、包装、保守などの様々な機能を果たすように構成されており、上記トレーニングはそのタスクの遂行の一環として必要な、このロボット(11)の特定のツール(13)の移動を正確に測定するために実施され、該ロボット(11)の特定のツール(13)の移動のパラメータを測定し、記録することからなる上記請求項1〜9のいずれか1つに記載の方法を実施する装置において、3Dのバーチャルモデルによって決定される完全にバーチャルな形態で上記パーツ(14)を表示する手段、上記の特定のツール(13)の移動を実行する手段、及び上記パーツ(14)の3Dバーチャルモデルの所定の作用領域での上記ロボット(11)の特定のツールの移動軌道を画成するために配置された空間を決定する少なくとも1つのバーチャルガイド(17)を該パーツ(14)の3Dバーチャルモデルに組み合わせるための手段を備え、この所定の作用領域は該バーチャルガイド(17)に組み合わされており、さらに、このバーチャルガイド(17)を使用して該ガイド(17)に組み合わされた所定の上記作用領域に上記ロボットの特定のツール(13)をはこぶ手段及びこのツール(13)が所定の該作用領域に有効に配置されているとき、該パーツ(14)の3Dバーチャルモデルが配置されている所定の座標(R1)に対して上記ロボットの特定のツール(13)の空間座標を記録する手段(16)を備えることを特徴とする装置。
  11. 上記バーチャルガイド(17)は、一定の空間を画成する幾何学的形状、第一の段階で、該一定の空間に上記の特定のツール(13)を運ぶ手段、及び、第二段階中に該特定のツール(13)をバーチャルガイド(17)の特性点の方へ移動させる手段を備えており、この特性点は上記パーツ(14)の3D
    バーチャルモデルの所定の作用領域に対応することを特徴とする請求項10に記載の装置。
  12. 上記バーチャルガイド(17)は、円錐の形状であり、上記パーツ(14)の3Dバーチャルモデルの所定の作用領域に対応する特性点は、円錐の頂点であることを特徴とする請求項11に記載の装置。
  13. 上記のバーチャルガイド(17)は、球の形状であり、上記のパーツ(14)の3Dバーチャルモデルの所定の作用領域に対応する特性点は、球の中心であることを特徴とする請求項11に記載の装置。
  14. 上記のパーツ(14)の3Dバーチャルモデル及びロボットが配置された作業空間()に組み合わせる少なくとも1つの照準(21)、及び、該作業空間()の画像を作成するための少なくとも1つのカメラ(20)を備え、それによって、作業空間()内でのロボット(11)の土台(12)の移動を測定することを特徴とする請求項10に記載の装置。
  15. 上記パーツ(14)の3Dバーチャルモデル及びロボット(11)が配置された作業空間()に組み合わされた少なくとも1つの第一の照準(21)、ロボットの特定のツール(13)に組み合わされた少なくとも1つの第二の照準(30)、同様に、該作業空間の画像を作成するための少なくとも1つのカメラ(20)を備え、それによって、作業空間内でのロボットの土台(12)の移動及び特定のツール(13)の移動を測定することを特徴とする請求項10に記載の装置。
  16. 上記パーツ(14)の3Dバーチャルモデル及びロボット(11)が配置された作業空間()に組み合わされた少なくとも1つの第一の照準(21)、ロボットの特定のツール(13)に組み合わされた少なくとも1つの第二の照準(30)及びロボットの少なくとも1つの可動構成要素(11a、11b、11c)に組み合わされた少なくとも1つの第三の照準(40、50)、また、該作業空間()の画像を作成するための少なくとも1つのカメラ(20)を備え、それによって、作業空間()内でのロボットの土台(12)、その可動構成要素(11a、11b、11c)の少なくとも1つの移動及び特定のツール(13)の移動を測定することを特徴とする請求項10に記載の装置。
JP2010541861A 2008-01-15 2009-01-15 ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置 Pending JP2011509835A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0800209A FR2926240B1 (fr) 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.
PCT/IB2009/000066 WO2009090542A2 (fr) 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede

Publications (1)

Publication Number Publication Date
JP2011509835A true JP2011509835A (ja) 2011-03-31

Family

ID=39971023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010541861A Pending JP2011509835A (ja) 2008-01-15 2009-01-15 ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置

Country Status (5)

Country Link
US (1) US20110046783A1 (ja)
EP (1) EP2242621A2 (ja)
JP (1) JP2011509835A (ja)
FR (1) FR2926240B1 (ja)
WO (1) WO2009090542A2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
US8996167B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
CN105388851B (zh) * 2015-10-30 2018-03-27 黑龙江大学 运动体视觉控制系统和方法、机电运动体以及移动终端
CN106933223B (zh) * 2015-12-30 2020-06-26 深圳市朗驰欣创科技股份有限公司 一种机器人自主导航方法及系统
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
US11194936B2 (en) * 2018-08-21 2021-12-07 The Boeing Company System and method for analyzing and testing multi-degree of freedom objects
US11292133B2 (en) * 2018-09-28 2022-04-05 Intel Corporation Methods and apparatus to train interdependent autonomous machines
CN111702757B (zh) * 2020-05-27 2021-08-17 华中科技大学 基于操作者意图的控制方法、装置、计算设备及存储介质
CN113510254B (zh) * 2021-07-28 2022-05-31 庆铃汽车(集团)有限公司 车床上工件加工振纹的消除方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317953B1 (en) * 1981-05-11 2001-11-20 Lmi-Diffracto Vision target based assembly
US6204620B1 (en) * 1999-12-10 2001-03-20 Fanuc Robotics North America Method of controlling an intelligent assist device
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
EP3530420B1 (en) * 2006-03-03 2023-09-06 Universal Robots A/S Joint for a robot

Also Published As

Publication number Publication date
FR2926240A1 (fr) 2009-07-17
EP2242621A2 (fr) 2010-10-27
US20110046783A1 (en) 2011-02-24
WO2009090542A3 (fr) 2009-11-05
WO2009090542A2 (fr) 2009-07-23
FR2926240B1 (fr) 2010-04-30

Similar Documents

Publication Publication Date Title
JP2011509835A (ja) ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
CN104057453B (zh) 机器人装置以及被加工物的制造方法
US20060025890A1 (en) Processing program generating device
JP5606786B2 (ja) キャリブレーション方法及びキャリブレーション装置
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
KR20170058369A (ko) 파이프 및 기타 곡선 구조물에 대한 수동 용접 작업을 특징화하는 시스템
CN106994684A (zh) 控制机器人工具的方法
JP2018167334A (ja) 教示装置および教示方法
US20180144503A1 (en) Method and apparatus for the start-up operation of a multi-axis system
KR20190120283A (ko) 동작 프로그램 보정 방법 및 용접 로봇 시스템
GB2259586A (en) Method of and system for generating teaching data for robots
CN112122842A (zh) 一种基于激光视觉的Delta焊接机器人系统
WO2018173656A1 (ja) 溶接パス情報の取得方法および溶接ロボットシステム
CN109862989A (zh) 激光焊接时的基于图像的技术选择
JP2019209422A (ja) 多関節ロボット用の教示データ作成方法
JPS59229619A (ja) ロボツトの作業教示システムおよびその使用方法
CN100404211C (zh) 用于多关节型机器人的教导数据准备方法
JP2007071835A (ja) 画像測定装置用パートプログラム生成装置、画像測定装置用パートプログラム生成方法、及び画像測定装置用パートプログラム生成用プログラム
JP2002514774A (ja) 座標測定装置およびその制御法
JP2007511839A (ja) 産業ロボットをプログラミングするための装置と方法
DE102022202563B3 (de) Planen einer Bahn eines Roboters
CN106881525A (zh) 激光加工控制系统及其控制方法
KR20200047618A (ko) 수직 다관절 로봇의 학습 데이터 작성 시스템