JP2012517053A - ロボットツールの制御方法 - Google Patents

ロボットツールの制御方法 Download PDF

Info

Publication number
JP2012517053A
JP2012517053A JP2011548418A JP2011548418A JP2012517053A JP 2012517053 A JP2012517053 A JP 2012517053A JP 2011548418 A JP2011548418 A JP 2011548418A JP 2011548418 A JP2011548418 A JP 2011548418A JP 2012517053 A JP2012517053 A JP 2012517053A
Authority
JP
Japan
Prior art keywords
workpiece
path
image
tool
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011548418A
Other languages
English (en)
Other versions
JP5981143B2 (ja
Inventor
クラウス ケン
イー.コールドレン ブルース
ロニー エドワード
プレーン スティーブン
エム.シャープ マイケル
ディンスモア クラウド
Original Assignee
ファナック ロボティクス アメリカ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック ロボティクス アメリカ コーポレイション filed Critical ファナック ロボティクス アメリカ コーポレイション
Publication of JP2012517053A publication Critical patent/JP2012517053A/ja
Application granted granted Critical
Publication of JP5981143B2 publication Critical patent/JP5981143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40425Sensing, vision based motion planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ロボットシステムを制御する方法は、ロボットシステムの移動可能な機構に支持されたツールを用意する工程と、ホルダに支持されたワークを用意する工程と、ワークの画像を生成する工程と、該画像から、ワークの特徴に関するデータを抽出する工程と、該画像から抽出されたデータを用いて、ワークに沿った連続的3次元経路を生成する工程と、該経路に沿ってツールを移動させる工程と、を含む。

Description

本願は、2009年2月3日に出願された米国仮特許出願第61/149,443号の優先権を主張するものであり、その全ての内容は本参照をもって本明細書に記載されているものとする。
本願発明は、広くは、所望の経路に従うようにロボットをプログラミングする方法に関する。本願発明は、特には、プログラミング過程を完了するための視覚情報を用いて、所望の経路に沿ってツールを移動させるべくロボットを制御する方法に関する。
広範囲の用途に使用される産業用ロボットが増加している。多くの場合、経路をロボットに「教示」する必要があり、ロボットは所望の操作を達成すべく該経路に沿って移動しなければならない。例えば、溶接用途では、ワーク上のシームに沿ってトーチが効率的に移動できるように、ロボットは多数の姿勢を連続的に呈するようにプログラムされねばならない。
ロボットに所望の経路をプログラミングし又は教示することは通常、手動で行われる。作業者はロボット制御装置に介入し、ツールを所望の経路に沿った必要な位置に配置するために、ロボットを必要な姿勢に移動させる。次に各位置はロボット制御装置にプログラムされ、このことはプログラム経路について反復される。この工程は一般に、時間がかかるとともに困難であり、しばしば、ロボット操作終了時に満足な結果を得るには不正確である。さらに、従来の実務では、教示操作中に作業者はロボットの作業スペース内にいるという欠点があり、ロボットと作業者とが望ましくない衝突をする虞がある。
提案されているいくつかのシステムは、ロボット操作を制御するためのロボットビジョンシステムを含む。しかしいずれのシステムも、ビジョンシステムを、プログラム経路に従うようにロボットを教示し又はプログラミングするために使用するものではない。例えば、米国特許第4,616,121号、4,965,499号及び5,572,103号のビジョンシステムは、産業用ロボットに関連付けられ、ロボット操作中に、予めプログラムされた経路を修正するための視覚情報を提供するものである。これらのシステムは、実際の所望経路と、ロボットが従う予めプログラムされた経路との偏差を調節するものである。しかしこれらのシステムの各々では、ロボットを従来のやり方で予めプログラムする必要がある。従来技術の欠点は、処理すべき部分の各々についてユーザが明確にプログラムを教示しなければならないことである。
シームトラッキングは、ロボットシステムのプログラミングに使用可能である。米国特許第4,812,614号は、溶接ロボット用の機械ビジョンシームトラッキング方法及び装置を記載している。該装置は、実際の溶接シームと教示経路との偏差を自動的に検出でき、溶接経路を修正するために、画像形成手段及び画像処理装置を有する。共通の光源から該画像形成手段を通った光が、集光されて伝送された後、ワーク上に投影されて溶接シームを横切る光線を形成可能である。溶接シーム方向に沿って配置された固体カメラが、溶接シームの画像を検出でき、次に該画像が画像処理装置に送られる。画像処理装置は好ましくは、ソフトウェアを有するマイクロコンピュータであり、該ソフトウェアは、突合せ溶接、隅肉溶接、重ね溶接及びV溝溶接により形成される画像をそれぞれ処理して偏差を計算する。該偏差には、溶接トーチとワークとの間の距離(いわゆる溶接トーチ高さ)の変化だけでなく、実際の溶接シームと教示経路との間に存在する、溶接シームを横切る方向の位置誤差も含まれる。溶接ロボットの制御装置は、溶接経路の誤差信号を、対応するデータに変換することができ、これにより溶接ロボットの座標を、実際の溶接シームに整合するように修正することが可能である。
しかし、シームトラッキングには教示経路又は教示プログラムが必要であり、ここでは、連続的な教示経路の全体が、教示経路から検出された偏差に応じてオフセットされる。
従来技術の他の例では、パーツを表すCADデータとして利用可能な、複数の点からなる経路(すなわちCAD−to−Path)に沿って、ロボットが移動可能に製造される。CAD−to−Pathプログラミングでは、視覚的刺激の形態で提供されるリアルタイム情報を用いて、ロボット経路が調整される。しかし、CAD−to−Pathは以下の欠点を有する。
1)CAD−to−Pathアルゴリズムの実行は、非常に時間がかかる
2)CAD−to−Pathアルゴリズムの製造は、高コストである
3)不正確な部品配置に基づいてロボット位置を変更することはできない
4)描画された参照点又はラインを手動でトレースすることはできない
現在のロボット経路教示方法を単純化し、改良する要求がある。例えば、作業者が経路教示操作中に、ロボット作業範囲内に入る必要性を排除することが望まれる。さらに、必要な時間を削減することにより、ロボット経路教示の効率を改善することが望まれる。
本発明に従い、視覚的に得られたワークに関する情報を用いた、ロボットツールの制御方法が驚くべきことに見出された。
本発明は、上述の要求に応じる一方、ロボットプログラムの全てを、入力画像及びロボットキャリブレーションデータから抽出された情報から合成することにより、従来技術の欠点及び欠陥を回避する。
本発明は、ロボットシステムの制御方法を提供する。
ある方法は、
a.ロボットシステムの移動可能な機構に支持されたツールを用意する工程と、
b.ホルダに支持されたワークを用意する工程と、
c.ワークの画像を生成する工程と、
d.該画像から、ワークの特徴に関するデータを抽出する工程と、
e.該画像から抽出されたデータを用いて、ワークに沿った連続的3次元経路を生成する工程と、
f.該経路に沿ってツールを移動させる工程と、
を含む。
他の方法は、
a.ロボットシステムの移動可能な機構に支持されたツールを用意するステップと、
b.ホルダに支持されたワークを用意するステップと、
c.該移動可能な機構を該ホルダに対してキャリブレーションするステップと、
d.ワークの画像を生成するステップと、
e.該画像から、ワークの特徴を表すデータを抽出するステップと、
f.該画像から抽出されたデータ及び該移動可能な機構のキャリブレーションによるデータを用いて、ワークの特徴に沿った複数の点の各々に対してノードを割り当てるステップと、
g.該ノードに沿った連続的3次元経路を生成するステップと、
h.該経路に沿ってツールを移動させるステップと、
を含む。
さらなる他の方法は、
a.ツールを用意するステップと、
b.ワークを用意するステップと、
c.ワークに案内線を付与するステップと、
d.ワークの特徴に関するデータを抽出するステップと、
e.ワークを配置するステップと、
f.抽出されたデータを用いて、ワークに沿ったツールの仮想経路を生成するステップと、
g.該仮想経路の少なくとも一部に沿ってツールを移動させるステップと、
h.該案内線に従うようにツールの位置を調整するステップと、
を含む。
上記内容は、本発明の他の利点とともに、以下の好適な実施形態の詳細な説明及び添付図面から、当業者に直ちに明らかとなろう。
本発明の一実施形態に係るロボットシステムの概略図である。 図1のロボットシステムを制御するための、本発明の一実施形態に係る方法の略フロー図である。 図2の方法に従う、ワークにオーバーレイされたロボット経路の概略図である。 図2の方法に従う、ワークにオーバーレイされたロボット経路の概略図であって、該ロボット経路の一部に倣った該ワーク上の溶接経路を示す図である。 図1のロボットシステムを制御するための、本発明の他の実施形態に係る方法の略フロー図である。 ワーク上の種々の経路の概略図である。
以下の詳細な説明及び添付図面は、本発明の種々の実施形態を記載し図示する。詳細な説明及び図面は、当業者が本発明を実施できるようにするものであって、本発明の範囲をいかなる態様にも限定するものではない。開示された方法に関し、示されたステップは例示であって、故にステップの順序は必須でも重要でもない。
図1が示すロボットシステム10は、ロボットベース14と該ベース14に支持された移動可能なアーム16とを有するロボット12を含む。アーム16の一端は、所望の操作を実行するために使用されるツール18を支持する。例えばツール18は、あらゆるタイプの溶接トーチ、プラズマ切断工具、材料除去/デバリング工具、及び、シーラント又は塗料を塗布するコーティングツール/アプリケータとすることができる。いかなるロボットツールも使用可能であると理解される。
制御装置(コントローラ)20は、ロボットアーム16の動作を制御して、ワーク22に所望の操作を行うように構成されている。ワーク22は、ロボット作業範囲内の周知のワークホルダ24に支持される。非限定的実施例として、ホルダは平坦なテーブルを有するが、いかなるホルダ又は支持装置も使用可能である。
少なくともワーク22の画像を撮像するために、視覚システム26が配置される。図示された実施形態では、視覚システム26は、ロボットアーム16上に支持されて該アームとともに移動可能な3次元のレーザ視覚センサ28(例えば、ファナックロボティクスアメリカ社製iRVision(登録商標)センサ)を有する。しかし視覚システム26は、ワーク26を撮像でき、観測したものの画像を表すデータを収集できる2次元のデジタルカメラ(図示せず)を有してもよい。種々のセンサ及びカメラが市販されており、当業者は特定の状況のニーズを満たすものを選択できよう。
非限定的実施例として、視覚センサ28は、2次元画像を生成する。しかし視覚センサ28は、ワーク22の3次元表示を行うように構成され又は配置されてもよいことが理解される。図示するように、視覚センサ28により得られた画像情報を後述するように処理可能とすべく、視覚センサ28は制御装置20と接続されている。
ある実施形態では、制御装置20はプロセッサ30及び記憶システム又は装置32を有する。プロセッサ30は、カメラ28により撮像された画像、又は命令セット34に基づいて視覚システム26の構成要素から受信した他のデータを、解析するように構成されている。命令セット34は、コンピュータのいかなる可読媒体内に具体化してもよく、プロセッサ30が種々のタスクを実行できるように、プロセッサが実行可能な命令を含む。
非限定的実施例として、命令セット34は、ワーク22の画像を評価してワーク22のエッジ又は他の特徴に関する情報を抽出するための、画像解析コード又はアルゴリズムを含む。ここでワークの特徴には、例えばいかなる形状、複合体若しくは単体又は輪郭をも形成し得る、ワーク22に存するいかなる領域又はエッジも含まれ得る。特徴はセグメントに分解でき、また個々のセグメントは複数のサブセグメントに分解できることが理解される。特徴からプログラムや経路を生成する場合、所望のロボット処理プログラムを生成すべく、該特徴の各セグメントに異なる生成特性を与えることができる。
特徴は、コンピュータを利用した図面(すなわちCAD Edges)から抽出可能であるか、ノードバイノード線又は経路(node by node line or path)を生成するためのCAD画面上でのマウスクリック等のユーザ入力によって生成可能であることが理解される。
記憶システム32は、1つの記憶装置であってもよいし、複数の記憶装置であってもよい。記憶システム32の一部を、プロセッサ30上に配置してもよい。さらに、記憶システム32は、ソリッドステート(solid state)式、磁力式、光学式又は他の適切ないかなるタイプの記憶システムでもよい。記憶システム32は、命令セット34を記憶すべく構成されることが理解される。例えばバッファリングされたデータ等の他のデータ及び情報も記憶システム32に記憶可能である。
制御装置20は、プログラム可能な要素36をさらに有してもよい。プログラム可能要素36は、プロセッサ30と接続されている。プログラム可能要素36は、例えばロボットシステム10の他の要素又は視覚システム26に接続可能であることが理解される。ある実施形態では、プログラム可能要素36は、プロセッサ30の制御処理機能を管理すべく構成される。プログラム可能要素36は、プロセッサ30の操作、すなわちロボットシステム10及び視覚システム26の制御機能を、ユーザが積極的に管理できるようにするための手段を提供する。
図2は、本発明に係る、ロボットシステム10の制御方法100を示す。ステップ102では、ロボットシステム10の可動アーム16上に、ツール18が配置される。ステップ104では、ホルダ24上にワーク22が配置される。ステップ106に示すように、ワーク22が適所に配置されると、アーム16に対するホルダ24の位置及び姿勢に基づいて、ロボットシステム10のアーム16及びツール18の較正(キャリブレーション)が行われる。非限定的実施例として、ホルダ24に対するアーム16のキャリブレーションは、種々の構成要素の相対的な位置及び姿勢を決定するための座標系を構築する3次元キャリブレーショングリッドフレームを用いて行われる。キャリブレーションステップを表すデータは、次の使用のために記憶可能であることが理解される。
ステップ108では、視覚システム26はワーク22の画像を生成する。非限定的実施例として、この画像は2次元画像であるが、他の画像も生成可能である。画像の重要な特徴又はエッジに関する情報を抽出すべく、該画像は制御装置20に送られる。
制御装置20は、ステップ106にて得たキャリブレーションデータに従って画像の重要な特徴を処理し(ステップ108)、ワーク22に沿った連続的3次元経路を生成する(ステップ110)。非限定的実施例では、プロセッサ30が周知の画像処理方法に基づいて画像を解析する。他の実施例では、プロセッサ30が画像を解析してワーク22の複数のエッジを画定し、画定されたエッジを複数の特徴に合致するように内挿/外挿して、ワーク22の幾何学的輪郭を形成する。
ある実施形態では、プロセッサ30により検出されたエッジ又は特徴の各々は、固有の識別(identification)及び特定の長さ値が割り当てられる。複数の特徴又はエッジの点の各々は、プロセッサ30の予め定めた設定に基づいて、ノードによって表現される。例えば、各ノードに関するデータは以下の情報領域を有してもよい。
$contrast − 予め定めた検出可能な画像特性(例えば光、反射率)についてのノードの勾配の大きさ
$edge_len − ノード(特徴点)が関連付けられるエッジの長さ
$edge_id − 関連するノードの鎖(chain)の数値的識別であり、ここでは各鎖は異なる識別がされる
$position − 基準となるXYZWPR位置であり、ここでは、ノードのX座標はキャリブレーショングリッドフレームに基いて画像内に配置され、Y座標はキャリブレーショングリッドフレームに基いて画像内に見出され、キャリブレーショングリッドフレーム内のZ座標はユーザ入力又は(3次元画像に基づく)画像解析の少なくとも1つから決定され、R角度はノードの「光側(light side)」の方向を示す勾配角度である。
エッジの長さ($edge_len)及びエッジの識別($edge_id)は、特定の鎖に関連付けられた全てのノードに対して同じ値となり、同一のエッジ識別($edge_id)を有する全てのノードは、画像のエッジ又は特徴に沿った連続的経路を表す。該経路内のノード/点の個数は、プロセッサ30の予め定めたセッティングに基づいて決定されることが理解される。
ある実施形態では、ユーザは、プロセッサ30によって直ちに検出されなかった画像点(ノード)の個数を手動で提供する。ユーザは、ワーク22について予想される形状の予備的知識を用いて、画像に表れていない3次元の第2モデル提供することができる。ユーザは、ワーク22の重要な3次元特徴を、プロセッサ30へのユーザ入力によって教示することができる。
ある実施形態では、プロセッサ30は、特徴間の変化速度に基づくポイントデータ、又は予め定めた寸法のエッジに沿ったポイントデータを生成するカーブフィッティングプロセスに基づいて、3次元経路を生成する。非限定的実施例では、カーブフィッティングプロセスは、ファナックロボティクスアメリカ社製のArcTool(登録商標)アプリケーションソフトウェアの経路合成(path blending)に類似する。データのフィルタリングは、後の処理や画像データの合成に関係のない画像データを消去するために使用してもよい。他の実施例では、生成された経路は、アーム16に搭載されたツール18に関連する工程に特有の工程知識や工程パラメータに基づいて修正される。
生成された画像の評価、及びその結果として表されるノードや経路データについてのさらなる制御は、画像にオーバーレイ(overlay)されたサーチウインドウ内の複数のグレースケールエッジの各々をトレースし、複数の検出エッジ上に複数の点を出力するパスロケーションツールによって行われる。ユーザは、後述する方法を用いて、各エッジ上に見出された点の全てか、点のサブセットを表すようにパスロケーションツールを構成することができる。
コントラスト閾値方法は、考慮すべき点のための最小コントラストを設定することを含む。最大偏差方法は、予め定めた「直線エッジ(straightedge)」から閾値偏差を設定することを含む。ポイント離隔方法は、連続する点間の距離に基づいて閾値を設定することを含む。最大偏差が使用される場合、視覚システム26は、特定のエッジを近似する直線セグメントの端点を表す。ポイント離隔方法が使用される場合、視覚システム26は、均等に離隔された複数の点を表す。
本願明細書に開示される方法の利用が予期される用途の範囲に応じ、複数の既存の視覚プロセスが、上述のような経路を生成可能でなければならない。例えば、2次元の単一ビュー視覚プロセスでは、キャリブレーショングリッド面の上方に一定のZ距離離れた平面に、経路の点が投影される。デパレタイジング視覚プロセス(depalletizing vision process)では、レジスタ値により規定可能なZ距離にある平面に、経路の点が投影される。フローティングフレーム視覚プロセスでは、ロボットに搭載されたカメラの視点とともに移動する平面に、経路の点が投影される。3次元レーザ単一ビュー視覚プロセスでは、レーザセンサが先ず平面を測定し、次にその測定された面に経路の点が投影される。3次元断面視覚プロセスでは、レーザセンサがバイナリの断面画像を形成し、該断面画像では垂直座標がレーザ線に沿った距離を表しかつ水平座標がセンサへのZ距離を表しており、視覚システムは、断面画像の白黒境界上の点を探索するとともに、レーザ面がある面に交差する場所の全ての点又は点のサブセットのX、Y及びZ座標を表す。
ある実施形態では、予め教示された経路がプロセッサ30によって、生成された3次元経路に基づいてずらされ(オフセットされ)る。ユーザは、画像解析に基づいて所望の経路を選択できることが理解される。
3次元経路が生成されると、ステップ114に示すように、経路の任意の部分に沿ったツール18の位置を決定するための重要な特徴を用いて、ロボットシステム10がツール18を経路に沿って移動させる。特に、生成された経路は、機構が経路をトレースするための動作コマンドの生成に使用可能である。ある実施形態では、視覚システム26は、ワーク22に対するツール18の位置に関するリアルタイムの更新を、制御装置に対して行うことができる。
図3は、方法100に従って生成された3次元経路200を示す。図示のように、経路200はワーク204にオーバーレイされた複数のノード202を有し、ノード202の各々はワーク204の特徴に沿った重要な点(クリティカルポイント)を表している。「クリティカルポイント」は、上述の予め定めたセッティングに基づいて選定可能であることが理解される。非限定的実施例として、経路200は、ロボットトーチによって溶接すべきワーク204の実際のシームを表している。ワーク204の切断に抜き型(トリムダイ)を使用しない場合、理想的で安定した直線状のシームが常に可能とは限らない。方法100は、ワーク上で実行すべき操作をより正確にすべく、ワーク204の矛盾した特徴を識別して追跡する、経路200を生成する手段を提供する。図4に示すように、溶接トーチのようなツールは経路200に沿って移動し、ワーク204の部分に溶接シーム206を付与する。トーチのフィードバック位置は、あるノード202から他のノードへのトーチの相対的なトラッキングに基づいて決定可能である。
図5及び図6は、本発明に係る、ロボットシステム10を制御する方法300を示す。非限定的実施例として、方法300は、幾何学的に複雑な部分に手動で描かれた線のトラッキングに使用される。
ステップ302では、ロボットシステム10の可動アーム16上にツール18が配置される。ステップ304では、ワーク22がホルダ24上に配置される。ステップ306に示すように、ワーク22に案内線が付与される。典型的には、案内線はワーク22上に手動で描かれるが、案内線を付与する任意の手段が使用可能である。
ステップ308では、ワーク22の特徴に関するデータが得られる。ある実施形態では、視覚システム26はワーク22の画像を生成する。非限定的実施例として、該画像は2次元画像であるが、他の画像も生成可能である。画像内に表された重要な特徴又はエッジに関する情報を抽出するために、該画像が制御装置20に送られる。他の実施形態では、ワークの特徴に関するデータは、コンピュータを使って描画した仮想部分から抽出される。
ステップ310では、視覚システム26はワーク22を配置するために使用される。ワークの特徴に関する抽出データ、及びワーク22の相対位置の少なくとも一方から、ステップ312に示すように、プロセッサ30は、ワーク22に沿ったツール18の仮想経路を生成する。ステップ314では、仮想経路の少なくとも一部に沿ってツールが先ず動かされる。ステップ316では、案内線を配置し、該案内線に沿うようにツール18の位置を調整すべく、視覚システム26が使用される。
方法300は、単純な図6を参照してさらに説明される。図示するように、上方の実線400は、生成された仮想経路を表す。中央の破線402は、フレームが2つの点周りえシフトしたときのワーク22の実際の位置を表す。中間点の全ては、この新たな関係に従ってシフトされるものとする。下方の点線404は、ワーク22に描画された案内線の位置を表す。予め生成されたポイントデータの全ては、線のY位置(偏差)を除き、保存される。
非限定的実施例として、方法300を容易にするために、機能的アプリケーションの3つのグループが必要である。
1)機械視覚システム26を用いて見出された一対の3次元の点に基づいて、部分位置参照フレームがシフトされる(すなわちA_CREATE_FRAME)。ここでは、セグメントの開始点及び終了点がロボット座標空間内で見出され、該開始点及び終了点を用いた三角関数により、実際のワーク22とそのモデルとの間の空間的関係を修正する新たなフレームが規定される。
2)生成されたフレームに沿ったツール角度及び仮想経路を特徴付ける一連のデータを含む、コンピュータを用いた描画データ(CADデータ)が生成される(すなわちA_EMULATE_CAD)。ここでは、アクティブなセグメントのための複数の経路点のうちの少なくとも1つが、一定のピッチでサンプリングされたX、Y及びZ点とともにプロットされ、描画された案内線を観測できるように視覚システム26が近傍の固定位置に配置され、適切なツール切削情報(ロール、ピッチ、ヨー、高さ)が提供される。
3)位置を通るようにツール18を移動させ、見出された線に相当するY位置のみを変更しながら、案内線が「トレース」される(すなわちA_MOVING_LINE_TRACK)。ここでは、円滑な移動のために、オンザフライでのビジョンプログラムへのコールによって、線の位置を見出すことが要求される。
ある実施形態では、A_CREATE_FRAME.TPプログラムが、所定のトレース位置を案内する新たなフレーム参照を生成する。非限定的実施例では、開始位置及び終了位置をX、Y及びZについて探索するために、ファナックロボティクスアメリカ社製iRVision(登録商標)3DLシステムが使用される。ビジョンプログラムが、開始位置を配置する。次に、探索された位置への移動が行われ、Z高さを抽出しつつ位置精度の向上が図られる。この処理は、終了位置についても同様に行われる。三角関数が、2つの点、すなわち原点及びX軸点から、フレームを生成する。この新たなフレームは、OからXにより形成された平面内にあり、ユーザフレームZ軸が受継がれている。要するに、A_CREATE_FRAME.TPプログラムは、ワーク22のある部位を監視し、(0,0,0)から開始して(X,0,0)で終了するフレームを生成する。得られる記述パートデータはこのフレームに対して標準化され、個々の経路点及びツール角度はこの線(フレーム)から外れる。
ある実施形態では、A_EMULATE_CAD.TPプログラムが、iRVision(登録商標)「断面解析ツール(Cross Section Analysis Tool)」を用いて、ワーク22のためにシミュレートされたCADデータを生成する。特に、(「A_CREATE_FRAME」内の現セクションの開始点及び終了点に対して標準化された)平面に関して、個々の点がX、Y及びZについて抽出される。
A_EMULATE_CAD.TPプログラムは、セクションの開始点を配置し、次に3Dカメラを開始点に移動させる。断面プログラム(Cross Section Program)が、レーザ線の輪郭であるX、Y、Z位置を抽出し、所望の幾何学的関係又はジャンクションを探索する。全ての点が記憶され、このセクションにいくつのインターバルが含まれているかを記録するためにカウンタが使用される。レーザの輪郭位置が見出されたら、次の断面が検査される前に、設定された増分(インクリメント)だけツールが前進させられる。
要するに、A_EMULATE_CAD.TPプログラムは、参照フレームに対するデータ点を生成し、該データ点は、特徴セグメントデータフォーマットをシミュレートするためのX、Y、Z値及びツールのW、P、R値を含む。該特徴セグメントデータフォーマットとは、ファナックのロボガイド(登録商標)プログラム内のCAD−To−Path特徴により生成されるデータに近いものである。ポイントデータは、Y値のみが変化する仮想経路(視覚装置が手動配置された案内線を探索する場所に基づく)の生成に使用可能である。
ある実施形態では、A_MOVING_LINE_TRACKプログラムは、現セクションに対して標準化されたCADデータから複数の点を抽出する。A_MOVING_LINE_TRACKプログラムは先ず、開始位置及び視覚システム26の位置を直ちに読み込み、描画された案内線の位置を検出する。次に視覚システム26が、次のラインセグメント上の一定高さ位置に配置される。案内線の実際の位置を求めるべく、マシンビジョンプログラムがバックグラウンドで実行される。見出された案内線の位置は、ツール18を一方向にのみ移動させることにより、ワーク22に対するアーム16及びツール18の位置を更新するために使用される。このようにして、ツール18の位置を変化及び更新させながら、オンザフライで案内線が追跡される。要するに、A_MOVING_LINE_TRACKプログラムは、仮想経路に追従するための基礎となる複数の点を使用する。視覚システム26は、ツール18が全ての点を通過する間、経路の位置(Y値のみ)を更新する。
ロボットシステム10及び方法100、300は、ワーク22の画像から抽出された情報のみからなるロボットプログラムとロボットキャリブレーションデータとを合成することにより、ロボットツール18を制御する手段を提供する。これらの方法は、種々のロボットツール及び操作に適用可能である。
上記説明により、当業者は本発明の本質的特徴を容易に理解できるとともに、その精神及び範囲から逸脱することなく、本発明に種々の変更や修正を加えて種々の用途や条件に適合させることができる。
ある実施形態では、ユーザは、プロセッサ30によって直ちに検出されなかった画像点(ノード)の個数を手動で提供する。ユーザは、ワーク22について予想される形状の予備的知識を用いて、画像に表れていない第3の寸法の第2モデルを提供することができる。ユーザは、ワーク22の重要な3次元特徴を、プロセッサ30へのユーザ入力によって教示することができる。

Claims (20)

  1. ロボットシステムを制御する方法であって、
    a.前記ロボットシステムの移動可能な機構に支持されたツールを用意する工程と、
    b.ホルダに支持されたワークを用意する工程と、
    c.前記ワークの画像を生成する工程と、
    d.前記画像から、前記ワークの特徴に関するデータを抽出する工程と、
    e.前記画像から抽出されたデータを用いて、前記ワークに沿った連続的3次元経路を生成する工程と、
    f.前記経路に沿って前記ツールを移動させる工程と、
    を含む方法。
  2. 前記画像は2次元画像である、請求項1に記載の方法。
  3. 前記画像は3次元視覚センサにより生成される、請求項1に記載の吸着搬送装置。
  4. 前記2次元画像では直ちに検出できない3次元データを構成する画像点を提供する工程をさらに含む、請求項2に記載の方法。
  5. 前記2次元画像では直ちに検出できない前記ワークの3次元の第2モデルを、前記ワークの予想される形状の過去の知識によって提供する工程をさらに含む、請求項2に記載の方法。
  6. 前記経路上に手動で点を教示する工程をさらに含む、請求項1に記載の方法。
  7. 生成された前記経路は、前記経路をトレースするための前記機構の動作コマンドの生成に使用される、請求項1に記載の方法。
  8. 前記画像及び生成された前記経路から抽出されたデータの少なくとも1つに基づいて、予め設定した経路をオフセットする工程をさらに含む、請求項1に記載の方法。
  9. 生成された前記経路が、前記ワークの特徴にオーバーレイされる、請求項1に記載の方法。
  10. 前記画像から抽出されたデータをフィルタリングする工程をさらに含む、請求項1に記載の方法。
  11. 前記フィルタリングする工程は、コントラスト閾値、最小偏差及びポイント離隔の少なくとも1つに基づくものである、請求項10に記載の方法。
  12. ロボットシステムを制御する方法であって、
    a.前記ロボットシステムの移動可能な機構に支持されたツールを用意するステップと、
    b.ホルダに支持されたワークを用意するステップと、
    c.前記移動可能な機構を前記ホルダに対してキャリブレーションするステップと、
    d.前記ワークの画像を生成するステップと、
    e.前記画像から、前記ワークの特徴を表すデータを抽出するステップと、
    f.前記画像から抽出されたデータ及び前記移動可能な機構のキャリブレーションによるデータを用いて、前記ワークの特徴に沿った複数の点の各々に対してノードを割り当てるステップと、
    g.前記ノードに沿った連続的3次元経路を生成するステップと、
    h.前記経路に沿って前記ツールを移動させるステップと、
    を含む方法。
  13. 前記画像は3次元視覚センサにより生成される、請求項12に記載の吸着搬送装置。
  14. 前記2次元画像では直ちに検出できない前記ワークの3次元の第2モデルを、前記ワークの予想される形状の過去の知識によって提供する工程をさらに含む、請求項12に記載の方法。
  15. 前記経路上に手動で点を教示する工程をさらに含む、請求項12に記載の方法。
  16. 生成された前記経路は、前記経路をトレースするための前記機構の動作コマンドの生成に使用される、請求項12に記載の方法。
  17. 各ノードに関するデータは、前記ノードの勾配の大きさ、前記ノードが関連付けられる特徴の長さ、ノードに関連する鎖の数値的識別、及び予め定めた座標系内のノード位置の少なくとも1つを含む、請求項12に記載の方法。
  18. ロボットシステムを制御する方法であって、
    a.ツールを用意するステップと、
    b.ワークを用意するステップと、
    c.ワークに案内線を付与するステップと、
    d.前記ワークの特徴に関するデータを抽出するステップと、
    e.前記ワークを配置するステップと、
    f.抽出された前記データを用いて、前記ワークに沿った前記ツールの仮想経路を生成するステップと、
    g.前記仮想経路の少なくとも一部に沿って前記ツールを移動させるステップと、
    h.前記案内線に従うように前記ツールの位置を調整するステップと、
    を含む方法。
  19. 前記ワークを配置する工程は視覚システムによって実行される、請求項18に記載の方法。
  20. 前記ワークの特徴に関するデータは、コンピュータを使って描画した仮想部分から抽出される、請求項18に記載の方法。
JP2011548418A 2009-02-03 2010-02-03 ロボットツールの制御方法 Active JP5981143B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14944309P 2009-02-03 2009-02-03
US61/149,443 2009-02-03
PCT/US2010/023053 WO2010091086A1 (en) 2009-02-03 2010-02-03 Method of controlling a robotic tool

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015146766A Division JP2015212012A (ja) 2009-02-03 2015-07-24 ロボットツールの制御方法

Publications (2)

Publication Number Publication Date
JP2012517053A true JP2012517053A (ja) 2012-07-26
JP5981143B2 JP5981143B2 (ja) 2016-08-31

Family

ID=42542365

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011548418A Active JP5981143B2 (ja) 2009-02-03 2010-02-03 ロボットツールの制御方法
JP2015146766A Pending JP2015212012A (ja) 2009-02-03 2015-07-24 ロボットツールの制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015146766A Pending JP2015212012A (ja) 2009-02-03 2015-07-24 ロボットツールの制御方法

Country Status (5)

Country Link
US (1) US8706300B2 (ja)
JP (2) JP5981143B2 (ja)
CN (2) CN102378943A (ja)
DE (1) DE112010000794B4 (ja)
WO (1) WO2010091086A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104526117A (zh) * 2015-01-08 2015-04-22 中国二十二冶集团有限公司 移动式弧焊机器人及其控制系统
JP2017148878A (ja) * 2016-02-22 2017-08-31 株式会社東芝 軌道データ生成装置および軌道データ生成方法
JP2022036252A (ja) * 2016-05-16 2022-03-04 ヴェオリア ニュークリア ソリューションズ インコーポレイテッド ロボットマニピュレータシステムのためのシステムおよび方法

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10361018C9 (de) * 2003-12-23 2021-03-04 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
US20110295408A1 (en) * 2010-05-27 2011-12-01 Toyota Motor Engineering & Manufacturing North America, Inc. Process for positioning a workpiece
GB201009219D0 (en) * 2010-06-02 2010-07-21 Airbus Operations Ltd Aircraft component manufacturing method and apparatus
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
WO2012159123A2 (en) 2011-05-19 2012-11-22 Alec Rivers Automatically guided tools
US20120306443A1 (en) * 2011-06-03 2012-12-06 GM Global Technology Operations LLC Automated charging for vehicle energy storage systems
TWI520834B (zh) * 2011-12-27 2016-02-11 財團法人金屬工業研究發展中心 異型材成型機構
EP2852868B1 (en) 2012-04-26 2021-12-01 Shaper Tools, Inc. Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material
JP6187584B2 (ja) * 2012-05-14 2017-08-30 オムロン株式会社 マシンビジョンシステムのための最小コントラストを保証するための方法および装置
US20140000516A1 (en) * 2012-06-29 2014-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Digital point marking transfer
JP5664629B2 (ja) * 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
WO2014093144A1 (en) * 2012-12-10 2014-06-19 Abb Technology Ag Robot program generation for robotic processes
CN103963198A (zh) * 2013-01-31 2014-08-06 汉达精密电子(昆山)有限公司 自动赶毛边装置
US9056396B1 (en) * 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
JP5845212B2 (ja) 2013-06-28 2016-01-20 ファナック株式会社 視覚センサ及び力センサを備えたバリ取り装置
KR101459479B1 (ko) * 2013-07-01 2014-11-07 현대자동차 주식회사 올인원 지그리스 프로젝션 로딩 시스템 및 이를 이용한 차체 부품 조립 방법
US9616574B2 (en) 2013-08-20 2017-04-11 Honda Motor Co., Ltd. Plasma-sealant wobble paddle
US20150073584A1 (en) * 2013-09-10 2015-03-12 Andrew Goodale Wireless vision systems and methods for use in harsh environments
US9701018B2 (en) 2014-04-01 2017-07-11 Bot & Dolly, Llc Software interface for authoring robotic manufacturing process
GB2536434A (en) * 2015-03-16 2016-09-21 Sony Corp A cutting device, cutting equipment and method
NL2014637B1 (nl) * 2015-04-14 2016-12-16 Rijk Zwaan Zaadteelt En Zaadhandel Bv Systeem en werkwijze voor het zaaien van zaden.
US9919421B2 (en) 2015-04-15 2018-03-20 Abb Schweiz Ag Method and apparatus for robot path teaching
WO2016183390A1 (en) 2015-05-13 2016-11-17 Taktia Llc Systems, methods and apparatus for guided tools
JP6267157B2 (ja) * 2015-05-29 2018-01-24 ファナック株式会社 位置補正機能を有するロボットを備えた生産システム
US10987693B2 (en) * 2015-08-18 2021-04-27 The Boeing Company Sealant application tip
CN108025439B (zh) * 2015-10-14 2021-04-27 川崎重工业株式会社 机器人示教方法及机器臂控制装置
US9737987B1 (en) 2015-11-20 2017-08-22 X Development Llc Visual cards for describing and loading operational modes to motorized interface element
TWI641933B (zh) * 2016-01-15 2018-11-21 施教競 Processing method of processing machine
BR112018016910A2 (pt) * 2016-02-19 2018-12-26 Koninklijke Philips Nv sistema de tratamento, método para determinar a posição de um dispositivo de tratamento de um sistema de tratamento, e produto de programa de computador
EP3437083B1 (en) * 2016-03-28 2023-07-19 ABB Schweiz AG Method, system and apparatus of determining search parameters for welding seam point calibration
AU2017313211B2 (en) 2016-08-19 2023-01-12 Shaper Tools, Inc. Systems, methods and apparatus for sharing tool fabrication and design data
DE102016221734A1 (de) * 2016-11-07 2018-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Feinausrichtung von Roboterwerkzeugen
US10545480B2 (en) 2016-11-07 2020-01-28 Lincoln Global, Inc. System and method for manufacturing and control thereof
JP6457468B2 (ja) 2016-12-08 2019-01-23 ファナック株式会社 バリ取り装置
CN106804685A (zh) * 2017-01-19 2017-06-09 大连理工大学 一种机器人智能家畜剖切的装置及方法
JP6392922B1 (ja) * 2017-03-21 2018-09-19 ファナック株式会社 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
WO2018183935A1 (en) * 2017-03-31 2018-10-04 Canvas Construction, Inc. Automated drywall painting system and method
CN107138861B (zh) 2017-06-15 2019-01-04 京东方科技集团股份有限公司 一种激光切割设备及控制方法和控制装置
JP6637928B2 (ja) * 2017-06-21 2020-01-29 株式会社大気社 自動研磨システム
TWI650626B (zh) * 2017-08-15 2019-02-11 由田新技股份有限公司 基於三維影像之機械手臂加工方法及系統
US11338441B2 (en) * 2017-12-01 2022-05-24 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same
CN113059559B (zh) * 2020-01-02 2022-07-12 台达电子工业股份有限公司 机器人工具的校正方法与校正系统
DE102017011252A1 (de) * 2017-12-06 2019-06-06 Kuka Deutschland Gmbh Verfahren und System zur Bauteilbearbeitung durch Roboter
GB201804215D0 (en) * 2018-03-16 2018-05-02 Rolls Royce Plc Applying a cladding layer to a component
JP7035727B2 (ja) * 2018-03-30 2022-03-15 日本電産株式会社 キャリブレーション精度の評価方法及び評価装置
DE102018113122A1 (de) * 2018-06-01 2019-12-05 Mack Rides Gmbh & Co Kg Verfahren zum Facettieren sowie Vorrichtung für ein solches Verfahren
CN108972573A (zh) * 2018-06-12 2018-12-11 浙江大学 一种基于图像特征识别的工业机器人自动化轮毂打磨系统及方法
CN109048917B (zh) * 2018-09-12 2021-06-29 南方电网电力科技股份有限公司 机器人自动控制方法、装置、设备及计算机可读存储介质
US11897141B2 (en) * 2018-11-19 2024-02-13 Palletec, Llc Automated fastening system
CN109605381A (zh) * 2019-01-29 2019-04-12 欧米瑞(广东)智能制造有限公司 一种三维定位取料系统及取料方法
US10906184B2 (en) * 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
NL2022872B1 (en) * 2019-04-05 2020-10-08 Voortman Steel Machinery Holding B V A method for automatic welding of a structural steel assembly and an automatic welding system for welding of a structural steel assembly
EP3730256A1 (en) * 2019-04-26 2020-10-28 Prophesee Servo control method and system for controlling movement of a robot
KR102130617B1 (ko) * 2019-05-13 2020-07-06 주식회사 하나비전테크 로봇 위치 제어 장치 및 방법
US11014237B2 (en) * 2019-07-11 2021-05-25 Intelligrated Headquarters, Llc Methods, systems, and apparatuses, for path planning and execution in a robotic system
WO2021028672A1 (en) * 2019-08-09 2021-02-18 Quantum Leap Technologies Limited Fabric maintenance system and method of use
EP4019204A4 (en) * 2019-09-30 2023-05-03 Siemens Ltd., China METHOD, DEVICE AND ROBOT CONTROL SYSTEM, INFORMATION HOLDER AND TERMINAL
JP7342617B2 (ja) * 2019-10-30 2023-09-12 富士電機株式会社 バリ取り装置
CN110744546B (zh) * 2019-11-01 2022-06-07 云南电网有限责任公司电力科学研究院 一种缺陷修复机器人抓取非静止导线的方法及系统
CN111347423B (zh) * 2020-01-19 2022-08-05 天津大学 工业机器人传送带动态跟踪涂胶方法
JP6903777B1 (ja) * 2020-01-24 2021-07-14 株式会社大気社 自動ティーチングシステム
JP7462290B2 (ja) 2020-02-05 2024-04-05 株式会社エヌテック 箱開封装置及び箱開封方法
DE102020104362B4 (de) 2020-02-19 2022-04-14 Franka Emika Gmbh Bahnplanung für einen Robotermanipulator mittels Kamerabild
CN111846028A (zh) * 2020-06-17 2020-10-30 长沙长泰机器人有限公司 汽车挡风玻璃柔性装配系统及方法
FR3112502B1 (fr) 2020-07-16 2022-06-24 Inbolt Contrôle automatique d’un système d’ébavurage de pièces
TWI755189B (zh) 2020-12-07 2022-02-11 財團法人工業技術研究院 去毛邊軌跡提取方法及其系統
EP4313477A1 (en) * 2021-03-29 2024-02-07 Poly-Robotics Inc. System for welding at least a portion of a piece and related methods
JP7190552B1 (ja) * 2021-11-05 2022-12-15 株式会社ダイヘン ロボット教示システム
TWI809705B (zh) 2022-02-09 2023-07-21 財團法人工業技術研究院 加工路徑產生方法及裝置
JP2023176951A (ja) * 2022-06-01 2023-12-13 リンクウィズ株式会社 作業経路生成システムおよび作業経路生成方法
CN115351448A (zh) * 2022-08-10 2022-11-18 北斗启明(北京)节能科技服务有限公司 一种新型可视自动化焊接技术

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301182A (ja) * 1992-04-27 1993-11-16 Nippon Telegr & Teleph Corp <Ntt> ロボットの直接教示装置
JPH0784631A (ja) * 1993-09-14 1995-03-31 Fanuc Ltd ロボットの教示プログラムの補正方法
JPH09222913A (ja) * 1996-02-20 1997-08-26 Komatsu Ltd ロボットの教示位置補正装置
JPH11102209A (ja) * 1997-09-26 1999-04-13 Sekisui Chem Co Ltd ワークの教示点位置データ収集方法及び収集装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP2004255547A (ja) * 2003-02-27 2004-09-16 Fanuc Ltd 教示位置修正装置
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ZA838150B (en) 1982-11-01 1984-06-27 Nat Res Dev Automatic welding
US4812614A (en) * 1987-02-26 1989-03-14 Industrial Technology Research Institute Machine vision seam tracking method and apparatus for welding robots
US4724302A (en) 1987-03-30 1988-02-09 General Electric Company Bead process control with profiler
US4907169A (en) * 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
US4965499A (en) 1987-12-31 1990-10-23 Westinghouse Electric Corp Parametric path modeling for an optical automatic seam tracker and real time robotic control system
DD290838A5 (de) 1989-12-27 1991-06-13 Technische Hochschule Zwickau,De Verfahren zur steuerung der lage einer bahnkontur
JP3543329B2 (ja) * 1991-11-11 2004-07-14 豊田工機株式会社 ロボットの教示装置
DE69314688T2 (de) 1992-04-23 1998-02-19 Heidenhain Gmbh Dr Johannes Numerische Steuerungseinrichtung und Verfahren zur Steuerung der Bewegung eines Werkzeuges
US5372540A (en) 1993-07-13 1994-12-13 The Laitram Corporation Robot cutting system
USRE40176E1 (en) 1996-05-15 2008-03-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US5959425A (en) 1998-10-15 1999-09-28 Fanuc Robotics North America, Inc. Vision guided automatic robotic path teaching method
DE10157964B4 (de) 2001-11-26 2011-06-22 Siemens AG, 80333 Verfahren zur Optimierung einer Oberflächengüte eines zu fertigenden Werkstücks anhand von CNC-Programmdaten
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
CN1418761A (zh) 2002-12-10 2003-05-21 北京航空航天大学 面向生物医学工程的微操作机器人系统
DE10361018C9 (de) 2003-12-23 2021-03-04 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
DE102005061211B4 (de) 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
EP1854037B1 (en) 2005-02-25 2014-12-31 Abb Research Ltd. Method of and apparatus for automated path learning
JP3971773B2 (ja) 2005-10-12 2007-09-05 ファナック株式会社 ロボットのオフライン教示装置
US20080027580A1 (en) 2006-07-28 2008-01-31 Hui Zhang Robot programming method and apparatus with both vision and force
DE102007033309A1 (de) 2007-07-18 2009-01-22 Abb Ag Verfahren zum Bearbeiten einer Kontur an wenigstens einem Werkstück mittels eines Roboters

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301182A (ja) * 1992-04-27 1993-11-16 Nippon Telegr & Teleph Corp <Ntt> ロボットの直接教示装置
JPH0784631A (ja) * 1993-09-14 1995-03-31 Fanuc Ltd ロボットの教示プログラムの補正方法
JPH09222913A (ja) * 1996-02-20 1997-08-26 Komatsu Ltd ロボットの教示位置補正装置
JPH11102209A (ja) * 1997-09-26 1999-04-13 Sekisui Chem Co Ltd ワークの教示点位置データ収集方法及び収集装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
JP2004255547A (ja) * 2003-02-27 2004-09-16 Fanuc Ltd 教示位置修正装置
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104526117A (zh) * 2015-01-08 2015-04-22 中国二十二冶集团有限公司 移动式弧焊机器人及其控制系统
JP2017148878A (ja) * 2016-02-22 2017-08-31 株式会社東芝 軌道データ生成装置および軌道データ生成方法
JP2022036252A (ja) * 2016-05-16 2022-03-04 ヴェオリア ニュークリア ソリューションズ インコーポレイテッド ロボットマニピュレータシステムのためのシステムおよび方法

Also Published As

Publication number Publication date
JP5981143B2 (ja) 2016-08-31
JP2015212012A (ja) 2015-11-26
CN106994684A (zh) 2017-08-01
CN102378943A (zh) 2012-03-14
US20110282492A1 (en) 2011-11-17
WO2010091086A1 (en) 2010-08-12
US8706300B2 (en) 2014-04-22
DE112010000794T5 (de) 2012-07-05
DE112010000794T8 (de) 2012-09-06
CN106994684B (zh) 2021-04-09
DE112010000794B4 (de) 2019-04-25

Similar Documents

Publication Publication Date Title
JP5981143B2 (ja) ロボットツールの制御方法
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
EP3863791B1 (en) System and method for weld path generation
JP7096288B2 (ja) ロボットを制御する方法
US20130076287A1 (en) Numerical controller having display function for trajectory of tool
US11179793B2 (en) Automated edge welding based on edge recognition using separate positioning and welding robots
JP5374616B1 (ja) 工作機械の工具ベクトルを表示する工具軌跡表示装置
JP2019081230A (ja) 教示点又は教示線の位置ずれを警告又は修正するロボット教示装置
SE449313B (sv) Manipulatorsvetsapparat och sett att manovrera sadan
CN111014879A (zh) 一种基于激光焊缝跟踪的机器人波纹板自动焊接方法
US20120031886A1 (en) Offline teaching method
US10394216B2 (en) Method and system for correcting a processing path of a robot-guided tool
JP5686279B2 (ja) ワーク姿勢検出装置、ワーク処理実行装置及びワーク姿勢検出方法
JP2006289580A (ja) プログラムの教示点修正方法及びプログラム教示点修正装置
CN114746207A (zh) 补焊设备以及补焊方法
WO2020137184A1 (ja) 自動溶接システム、エレベーターかご室部品の製造方法、および自動溶接方法
KR20070068797A (ko) 프로펠러의 자동화 가공방법
CN116542914A (zh) 基于3d点云的焊缝提取与拟合方法
Penttilä et al. Virtual reality enabled manufacturing of challenging workpieces
Hanh et al. Simultaneously extract 3D seam curve and weld head angle for robot arm using passive vision
KR101483950B1 (ko) 용접 훈련 시뮬레이터의 평가모듈
US10955237B2 (en) Measurement method and measurement apparatus for capturing the surface topology of a workpiece
CN114888794B (zh) 一种机器人人机交互运行路径标记方法及装置
US20240042605A1 (en) Apparatus and a Method for Automatically Programming a Robot to Follow Contours of Objects
WO2023084894A1 (ja) 溶接パス自律最適化装置、溶接パス自律最適化システム、および、溶接パス自律最適化方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130626

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141104

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250