JPH01159186A - ロボット不正確度修正方法 - Google Patents

ロボット不正確度修正方法

Info

Publication number
JPH01159186A
JPH01159186A JP63189531A JP18953188A JPH01159186A JP H01159186 A JPH01159186 A JP H01159186A JP 63189531 A JP63189531 A JP 63189531A JP 18953188 A JP18953188 A JP 18953188A JP H01159186 A JPH01159186 A JP H01159186A
Authority
JP
Japan
Prior art keywords
robot
data
frame
relative
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63189531A
Other languages
English (en)
Other versions
JPH08377B2 (ja
Inventor
Walter E Red
ウォルター・エドワード・レッド
Brady R Davies
ブラディ・リューベン・デイヴィース
Xuguang Wang
ザグアン・ワン
Edgar R Turner
エドガー・ラッセル・ターナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPH01159186A publication Critical patent/JPH01159186A/ja
Publication of JPH08377B2 publication Critical patent/JPH08377B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37525Mean, average values, statistical derived values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37619Characteristics of machine, deviation of movement, gauge
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45083Manipulators, robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49195Slide, guideway, robot arm deviation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はロボットタスクのオフラインプログラミングを
可能にする装置及び方法に関する。より詳しくは、本発
明は行われるロボットタスクに関して高度の正確度及び
融通性をもってオフラインプログラミングを可能にする
ロボット不正確度をマツピングし且つ吸収する方法に関
する。
(従来の技術) ロボット機構は組立ライン構成でそれぞれのタスクを行
う製造産業内で益々使用されている。ロボットのかかる
使用は自動車生産ラインからコンピュータ産業内のマイ
クロチップの製造まで及んでいる。現在、ロボット工学
の増大した市場膨張を制限する主な要因は非常に制限さ
れた許容範囲内で行うための在来のロボットシステムの
無能力である。固存のロボット不正確度はこの障害の重
大な一因であり且つ長年にわたって研究の対象であった
ロボットの不正確度はロボットの作業量内で位置及び/
又は配向によって規制される指令姿勢へ移動するための
ロボットの無能力を示す。例えば、ロボット制御プログ
ラムは、ロボット構造及びロボットが配向される知覚基
準フレームの機械的仕様に基づいて空間中の特定点まで
ロボット腕を移動させることを指示することができる。
しかしながら、製造及び配置に最善の注意を払っても、
指令された移動の実際の性能はロボット腕を所望の配置
及び/又は配向で正確に配置しない。ロボット不正確度
として知られるこの状態は完全な又は理想的なロボット
モデルに従うようにそれぞれのロボット構成部品のそれ
ぞれを製造し且つ組立てるための我々の無能力の結果で
ある。それよりも、部品長さ、応力下のコンプライアン
ス、不完全な歯車整合の僅かな偏差、及び多くの他の構
造的な制限が理想的な数学的モデルと一致しないロボッ
トタスク性能の一因となる。従って、ロボット不正確度
の存在はタスク配向作業隔室内でのロボット移動を予め
プログラミングすることに関する主な障害を提起してい
る。簡単に述べれば、ロボットの正確な位置又は移動を
予測することの不能力はロボット移動の正確な経路をプ
ログラムする能力を制限する。従って、産業界はオフラ
インプログラミングを提供する多くの利点にもかかわら
ずロボットタスク性能のプログラミングの別の形式%式
% ロボットをプログラミングするための主な別の方法の2
つは感知システム及びテーチペンダント(teach 
pendant)方法の使用を含む、テーチペンダント
プログラミング方法は繰返しタスクの性能に関する現代
のロボット工学で応用される有力なプロセスである。こ
の方法は、ロボットを一連の必要な中間構成又はジヨイ
ント状態を通して導き且つ次に該ジヨイント状態をロボ
ットコンピュータ記憶装置に記憶することによって行わ
れる。ロボットは記憶されたデータに基づいてこれら構
成又はジヨイント状態を再現し得るので、ロボットタス
クは通例の許容範囲限界内で行われ得る。最終結果はロ
ボットが命じられた移動経路に沿って行われる正確なタ
スクを「教えられる」ことである。ロボットの制御ドラ
イバはテーチペンダント方法によってプログラムされた
一連のジヨイント状態及び移動を簡単に再現する。
多数の重大な制限がこの形式のロボットタスクプログラ
ミングに関して存在する。例えば、1つのロボットに教
えられたプログラムは同じモデルの他のロボットへ転送
し得る。事実、各別個のロボットはジジイント不整合、
ジぢインドコンプライアンス、歯車列誤差、標準公差偏
差等によるはっきりした構造上及び製造上の偏差をもつ
、加えて、複雑な移動経路は、プログラムするのに非常
にのろく且つ作動中に通常不充分である多くの中間ジヨ
イント状態を必要とすることがある。更に、動的な又は
密集した作業空間でのロボット移動経路は教えるのに非
常に困難であることがある。加えて、作業空間ハードウ
ェアとの不注意な衝突の確率が大きく増大される。
実際的見地から、テーチペンダントは組立ライン動作で
のロボットタスク性能の融通性を厳しく制限する。例え
ば、タスク性能の許容し得ない偏差又は変化は1つだけ
のロボット素子の修正を必要とするとしても組立ライン
全体を停止することを必要とする。ロボットが多くの組
立ラインタスクを行う場合には、テーチペンダント方法
による必要な再プログラミングのための無効生産時間は
非常にコストがかかることがある。このようなテーチペ
ンダントプログラミングは、プログラミングに従ってロ
ボットを移動させる試みが配向の同時損失を伴う基準の
変化されたフレームをもたらすので実際の作業隔室中で
実施されねばならない。
これらのテーチペンダント制限は多大な人員の時間を消
費し且つ多くの製造ライン内のでロボットタスク性能の
利用を厳格に束縛することは当業者に知られている。
ロボットプログラミングの第2の方法はロボット末端奏
効体を目標物又は他の機構と適当な相互作用するように
移動させるセンサシステムを使用することに依有する。
この方法は典型的には作業隔室中での目標物の部品が同
じ配向又は位置で送出されない時又は該部品が動的に変
化する成る物理的特性を有する時に使用される。この場
合、実際の移動を繰返すためのロボットの能力は新規の
配向又は位置をもつ部品に適合する融通性を提供しない
、従って、カメラや画像システムのような感知装置がロ
ボットの遠位リンクに結合されることができ且つロボッ
トを検知した目標位置へ向けるサーボシステムに応じて
移動させるようにプログラムされることができる。あい
にく、センサ案内システムは非常に高価であり且つ特別
の取付具、実質的なコンピュータ支援及び高価なプログ
ラミング労作を必要とする。それ故、経済的制限はロボ
ット工学でのセンサ駆動システムに対する非常に制限さ
れた商業的応用をもつ。
加えて、これら2つの方法のいくつかのハイブリッドア
プローチが利用されている。例えば、若干のタスクでは
、多くの大域的移動がテーチペンダント方法によって教
えられるが、局在領域内での移動はセンサシステムによ
って行われる。他のタスクでは、センサシステムは一部
送出中の小さな偏差を認識するために使用されることが
でき、テーチペンダント方法は逸れた経路を維持するよ
うに適用される。この方法罎よロボットを部品の剛体姿
勢の変化に適合させるが、部品が小さな変化を受けると
き又はタスクが緊密なロボット一部品相互作用許容範囲
を要求しないときにだけ有効である。
要約すると、ロボット繰返し性及びロボット不正確度は
ロボットのプログラミングに対する臨界的制限を課する
位置決め因子を構成する。オンラインテーチペンダント
方式はロボット繰返し性を利用してロボット不正確度問
題を克服するが、その融通性で厳しく制限され且つ高価
なツーリング及び人員時間の前進投入を必要とする。セ
ンサ基礎システムはフィードバックを使用して繰返し性
及び正確度の制限を克服するが、複雑であり且つプロセ
スを遅くし且つ繰返し性を低下する傾向のある存意な計
算動力を必要とする。
これらの制限は部品送出、作業隔室作動環境及び変化す
る処理能力要求の偏差を含む作業隔室中に変化を吸収し
得るより融通性あるロボット応用を実現する努力につい
ての一層の研究及び開発を促進してきた。若干の試みが
ロボット移動を処理するための基礎として作用する基準
フレームを築くためになされているが、かかる基準フレ
ームは局在作業領域に反対する大域的技術に鯨っている
大域的方法はロボットの全体の作業量にわたるロボット
不正確度を決定することを求め且つロボット誤りの運動
学的及び動的ハードウェアを予測し又は測定するモデル
化方法を使用する0例えば、゛   上記誤りは不適当
な配向、ジツィント配置の誤り、伝達システム誤り、負
荷下のロボットコンプライアンス、エンコーダセンサ読
取り誤り等を含む。
−旦これらの誤りが決定されると、方法は数学的修正モ
デルが理想的なロボットモデルからの偏差を修正するた
めに作成され得ることを示唆する。
前記大域的技術は、それらが空間中の特定の点を正確に
確定しようと企て且つ次にその点へのロボット経路を同
じにしようと企てるので、ロボット不正確度の測定につ
いて好結果を得るとは判明していない、かかるステップ
は正確なロボット基礎基準フレームがロボットシャシ−
に対して配置されていることの知識を要求する。この概
念は、それがロボットの実際の物理的位置ではなく想像
であるので管理するのに困難である。加えて、大域的環
境での与えられた点を確定する複雑さは管理不能にする
。プログラミングの複雑さ、広範囲の記憶装置記憶要求
及び実験的複雑さは大域的な方法をロボット特性の変化
及びロボット不正確度を吸収する基礎にする全ての試み
を失敗させている。
ロボット正確度を改善するための他の関連したアプロー
チは運動学的誤りをソフトウェアで補償する試みをもっ
てロボットの運動学的パラメータを確定することを含ん
でいる* Hayatj、 S、の[口ポット腕幾何学
的リンクパラメータ評価」、決定及び制御の第22回I
 EEE会議の会報、1477〜14日3頁、1983
年12月、他の研究者はジョイント軸不整合がロボット
位置決め正確度に大きく影響することを示しており且つ
軸位置及び配向の誤差を識別する方法を開発している。
Mooring、 BJ、の「6軸ロボツトの運動学的
パラメータを識別するための改良された方法」、テキサ
ス・エイ・アンド・エム・ユニバーシティ、これらのシ
ミュレーション方法は測定誤差を完全につかまえていな
い、他の刊行された文献は改良され且つ関連した較正方
法を提供するが依然として許容し得る正確度データを達
成するに必要な測定誤差を克服していない、 Whit
ney+ D、E、+ C,A。
Lozinski及びJ、M、 Rourkeの「工業
的ロボット較正方法及び結果J 、 ASM[!の工学
でのコンピュータ会議の会報、92〜100頁、ネバタ
、ラスベガス、1984年8月。最後に、ロボット制御
器により2次非線形運動効果を補償する数学的モデルを
確定する試みがなされているが、これは絶対空間に関係
しており且つ位置決め正確度を予測するためのマニプレ
ータ動的効果をつかまえていない。
更に重要なことは、これらの技術の全てが大域的方法を
利用してロボット正確度を確定することを試みているこ
とである。
(発明が解決しようとする課題) ロボット不正確度を補償する方法を提供することは本発
明の目的である。
ロボットタスクのオフラインプログラミングを可能にす
る方法を記述することは本発明の別の目的である。
本発明の更に別の目的は目標物に関してプログラム可能
なロボットの配向及び/又は位置正確度を改善する方法
を提供することである。
本発明の更に別の目的はロボット移動制御システムの部
分としてロボットの遠位リンクに取付けられた末端制御
フレームの位置を較正する方法を提供することである。
本発明の更に別の目的は処理の正確度を改善し且つロボ
ットタスクの部分として処理するために目標物の機構を
マツピングする方法を提供することである。
(課題を解決するための手段及び作用)これらの及び他
の目的は次の配向ステップによって特徴とされる方法で
実現される。最初に、ロボットは目標物に関して配置さ
れ、末端奏効体は目標領域を含む移動範囲を有する。複
数個の基準位置が識別され且つこれら位置に関する識別
データがデータ処理ユニットに生じ且つ記憶される。
ロボット末端奏効体は次に較正位置と称せられる基準位
置近くへ移動される。ここで、ロボットに結合されたセ
ンサは較正位置又は機構の存在を検知する。この位置は
同じ較正位置に関係する初めに記憶された情報データと
比較される0位置差に基づく剛体誤差修正はデータ処理
ユニット内で発展され且つ記憶される。末端奏効体は次
に第2基準位置に関するロボットの適正な配置をより正
確に予測するために剛体修正を適用することによって修
正される初めに記憶された識別データに基づいて第2基
準位置へ移動される。ロボット末端制御フレームの不正
確度マツピング及び較正を含む他の関連したステップは
開示される。
本発明の他の目的及び特徴は添付図面と関連した以下の
詳細な説明から当業者に明らかになろう。
(実施例) 本発明者は相対的な基準フレームが大域的基準フレーム
に対抗して利用されるロボットタスクのオフラインプロ
グラミングが作成され得ることを発見した。特に、ここ
に開示される発明方法は、ロボット移動を大域的基準フ
レームに関係づけようとするのではなく、局部的な機構
又は基準フレームと相対的な基準で比較される空間的な
関係及び配向に基づいている。この方法は、ロボットが
掻作し又は使用する目標部品の幾何形状が成る許容し得
る公差内で区別されることを採る。更に、発明の重要な
観点は、好結果のオフラインプログラミングが大域的基
準フレームに対抗する相対的情報に基づく方法論で可能
となる前提によって特徴づけられる。該前提は大抵のロ
ボットが満足し得る公差内で繰返すことができること及
びロボットが操作する目標部品が事前に満足し得る公差
に製作されていることに顧る。この前提の故に、ロボッ
トの繰返し性がロボットタスクの所望の公差よりも小さ
くなければならないことは当業者に明らかであろう、ま
た、ロボットが操作する部品の幾何形状仕様が必要とさ
れるロボット作業隔室に接近され且つ通過され得ること
は必要である。
概して、本方法は目標部品上の既知の機構を見又は触針
するための視覚システム及び接触プローブのようなセン
サの使用を組入れる。センサシステム及び作業隔室レイ
アウトはこれらの機構がロボットの手動制御によって又
はオフライン計画された経路を使用することによって接
近され得るように設計される。この選択はセンサシステ
ムの能力及び作業隔室の初めの幾何形状レイアウトの正
確度のような因子に依存してなされる。
開示した方法を実行する際に、部品が許容し得る公差内
で作業隔室へ繰返し様式で送出されること及び部品の幾
何形状が該公差内にあることは一般的に仮定される。こ
れらの条件が満足される場合に、該方法論は目標部品上
に配置された既知の幾何形状の機構に接近するセンサシ
ステムの使用を含む、実際の幾何形状及びセンサ測定の
幾何形状の間の差は部品に対して測定されたロボット不
正確度である。この不正確度が選択された機構において
知られると、ロボットはロボット不正確度の内挿及び外
挿された予測を用いて他の部品相互作用点へより正確に
移動するように指令され得る。
この予測されたロボット不正確度に基づいて、誤差修正
アルゴリズムが適用されてオフライン計画された経路を
逸らせ且つ存効なロボット正確度を絶対値の指令と同等
又はそれ以上に改善する。
簡単な情況では、−船釣方法は目標部品上又は目標位置
での第1基!1!機構の識別を含む。この機構はロボッ
トに対する剛体姿勢修正をするために利用される。他の
基準機構又は位置は概ね第1基準機構に対して決定され
るが、他のそれぞれに対しても決定され得る0機構の相
対的幾何形状は次に大域的移動で・はなく相対的基準で
起こるロボット不正確度を決定するために利用される。
この方法は、ロボット不正確度を大域的に決定する必要
はなく局在領域で決定するだけであることで従来技術よ
り優る主要な利点を提供する。典型的には、これらの領
域はロボットが目標部品との相互作用を実際に行ってい
る空間量である。更に、不正確度測定は大域的位置決め
を必要とし得る独立の測定装置によってなされる必要が
ない。
製造への応用に関連して、これは、繰返し送出され且つ
公差内にある部品が部品に対するロボット不正確度につ
いて最初にマツプされ又は測定され得るという重要な利
点を提供する。マツピング後、センサシステムはオフに
されることができ且つロボットタスクは繰返し行われる
ことができる。
臨時のマツピングは部品及びロボットが所望の公差内で
作動していることを確かめるために実行され得る。この
方式では、方法は統計的プロセス制御のために使用され
得る。
ここに開示されるオフラインプログラミング技術は、作
業隔室及びロボットツール幾何形状がロボット構成に対
するロボット基礎フレームに対して知られていることを
採る。一般に、この情報は製造者によって供給され又は
別途決定されることができる。大域的オフライン技術は
、ロボットがジヨイント不整合、ジヨイントコンプライ
アンス、歯車列誤差等のために空間中の大域的位置へ正
確に移動することを指令され得ないので失敗である。
ロボットフレームから分離した目標部品は視覚システム
のようなセンサによって配置される。該部品は相対的ジ
ヨイント変換を用いて視覚カメラフレーム(基準フレー
ムとも称する)に対して配置される。これらの部品がロ
ボット基礎フレームに配置されると、逆運動解決がロボ
ットツール又は末端奏効体を所望の作動点へ移動させる
ロボットジぢインド値を決定する。
較正技術は、基礎フレーム、中間リンク、遠位リンク(
遠位リンクフレームを含む)及び末端奏効体と関連した
末端制御フレームを含むロボットの種々の要素に関して
適用される。この較正技術の目的はロボット構成部品に
沿う正確な相対的位置及び配向の測定を確立するにある
。明らかに、この相対的位置及び配向の測定が知られる
と、1つのロボット構成部品の特定の位置配向の決定が
基礎フレームから末端制御フレームを通しての全ての他
のロボット構成部品の特定の位置及び配向の決定を可能
にする。
本発明はロボット較正の2つのレベル、即ちオフライン
較正及びオンライン較正を開示する。オフライン較正技
術はロボット遠位リンク又はロボット腕の最後のリンク
に取付けられる末端奏効体の末端制御フレーム(TCP
)を正確に配置するために使用される。ロボットテーチ
末端読出しは末端奏効体TCP配置を決定するために使
用される。オンライン較正は、作業空間中での部品に対
するロボットTCFを配置し且つそれによりロボットの
作業空間の局在領域中でのロボット不正確度を補償する
ために使用される。これらの較正方法は局在基準機構を
利用するので、ロボット不正確度は組立に要求される所
望の公差より小さい。
加えて、較正データの統計的平均化はロボット位置誤差
のいくつかを補償するために利用される。
マニプレータ及びロボットタスクのシミュレーション(
SMART)は較正タスク及び作業タスクの両方のオフ
ライン計画のシミュレーションソフトウェアで開発され
ている。較正経路は、一体化され、ロボット制御器へ下
負荷され且つ実行される時に、部品配置について識別さ
れる所望の較正機構に近いカメラのような視覚システム
をロボットが移動させる一組のロボット構成である。作
業経路は、一体化され、ロボット制御器へ下負荷され且
つ実行される時に、ロボットがロボットツールを所望の
作動点へ移動させる一組のロボット構成、速度設定、つ
かみ/置き指令等である。
ロボット不正確度及び作業隔室幾何形状不確実性の故に
、コンピュータシミュレーションによって計画されたオ
フライン経路は誤差を償うために修正されねばならない
。これらの誤差は視覚システム又は他の感知手段によっ
て測定される。予測される作業経路を動揺し又は調節す
る予め計画された経路内の適当な制御点を使用し且つ同
様なカルテシアン経路形状を維持する準拠した経路偏差
アルゴリズムは展開される。かかる手順はより詳細に後
述される。
開示される較正方法の最初はロボットの遠位リンクに取
付けられた末端奏効体及びセンサに関係するTCP位置
の較正に関係する。これらの関係は第1図を参照すると
より良く理解されよう、この図は基礎基準フレーム11
、中間リンク12.13及び14を有するロボット10
を示す、遠位リンク15はロボット腕の最終リンク及び
遠位フレーム16を備える。カメラ、グリッパ又はツー
ルのような末端奏効体17は遠位リンク16に結合され
ている。末端制御フレーム(TCP)18は末端奏効体
と関連し且つその基準フレームを提供する。これらのフ
レームは、マニプレータ大域的フレーム(XYZ)、 
、末端奏効体又は視覚TCFフレーム(XYZ)、及び
ロボット末端フレーム又は遠位フレーム(xyz)、と
して図式的に識別される。
TCP位置を較正する目的はこのフレーム1日を遠位フ
レーム16に関して確定することである。
マニプレータフレーム11に関する遠位フレームの相対
的位置が知られるので、この較正技術は3つの基準フレ
ームの全てを一緒に結びつける。ロボットのコンピュー
タデータ処理及び記憶ユニットは1つの要素の位置を与
えられるとこれら要素のどの相対的位置をも即座に計算
することができる。
方法は指示手段19が遠位フレーム16のZ軸線と平行
に整合されるように細長い指針のような指示手段19を
ロボット遠位リンク15に取付けることによって実施さ
れる。第1基準点は作動距離内でロボットから離れた空
間に選ばれる。第1図でこの基準点は品目20として表
示され且つ較正板21上の腐食マークを備えることがで
きる。
ロボットは次に第1姿勢へ移動され、そこで指示手段の
指示端は第1基準点に配置される。この第1姿勢を表す
ロボット位置決めデータは後の再現及び比較のためにロ
ボットコンピュータに記憶される。カメラのような末端
奏効体17は遠位リンクに結合され且つ基準点(図示せ
ず)を含む。
ロボットは次に第2姿勢へ移動され、そこで末端奏効体
基準点は第1基準点に配置される0品目20は大きな矩
形として図示されているが、基準点は指針19と一致し
て作られ得る単一の点である。この最後のステップの第
2ロボット姿勢のロボット位置決めデータは後の再現及
び比較のためにコンピュータ手段に記憶される。
TCP位置の較正の次のステップは差の検知のために第
1及び第2姿勢を表す記憶された位置決めデータを比較
することを含む。これらの差はロボットコンピュータ内
で処理されてTCFのオフセット位置をロボット遠位フ
レームに関して確定する。このステップは第2(b)図
及び第2(c)図の構成を合併することによって導かれ
得る次の式を用いて行われる。ステップのこの順序から
、X及びYについて解かれ得る一連の式を生成すること
が可能であり、TCP原点位置はロボット遠位リンクフ
レームに次のように対応付ける。
X ” (Xt−Xt)Sz−(h−Y+)Ct   
    式(1)Y = (Xg−Xt)Ct+(Yz
−Y+)St       式(2)式中、Sr =S
+n θ1、C正=Cos θ1、及びχ1゜Y++ 
X意、Yi+  θ1及びθ2はロボットテーチ末端読
出し値である。
視覚検査、ロボットエンコーダ及びデコーダ誤差、歯車
バックラッシ、制御器誤差等のような源からのロボット
不正確度のため、同じ較正手順が多数の無作為に選ばれ
た作業空間位置22(その他は図示せず)について行わ
れる。統計的平均が次に最良のTCF変換マトリックス
を決定するために使用される。かかる手順は次の方法ス
テップ内に組入れられる。追加の基準点22が選ばれ且
つロボットは第1姿勢位置へ移動され、そこで指示端1
9は追加の基準点に配置される。第1ロボット姿勢を表
すロボット位置決めデータは後の再現及び比較のために
コンピュータに記憶される。
ロボットは次に第2姿勢へ移動され、そこで末端奏効体
基準点は追加の基準点22に配置される。
位置決めデータは再び記憶され且つデータの比較は末端
制御フレームのオフセット位置を確定する信号の適当な
処理でなされる。基準とされる統計的平均は最良のTC
F変換マトリックスを見つけるために処理され得る差の
値の実質的な統計的基礎を発展させるように上記手順を
繰返すことによって導かれる。
TCP位置が確定されると、TCF配向の較正が必要と
なる。この情報は組立又はロボット使用が位置及び配向
の両方の決定を必要とする時に要求される。この配向は
末端奏効体の作動距離内でロボットから離れた空間中の
第2基準点を選ぶことによって決定される。ロボットは
次に第1姿勢へ移動され、そこで指示手段19の指示端
はこの第2基準点22に配置される。この第2基準点で
の第ロボット姿勢を表す位置決めデータはコンピュータ
記憶装置に記憶される。ロボットコンピュータは次に第
1及び第2基準点の記憶された位置決めデータを処理し
て第1及び第2基準点を結ぶ線の配向ベクトルを識別す
る。この線及びベクトルはTCPに関して確定された配
向を有する。この配向データは後の再現及び処理のため
にコンピュータ手段に記憶される。
ロボットは次に第3姿勢へ移動され、それによりTCP
に対するベクトルの配向は確定され得る。
この第3姿勢情報も記憶され且つコンピュータは計算さ
れたデータを処理して末端遠位フレームに関するTCP
の相対的な配向を確定する。これらのステップは次のよ
うに第3図に関して詳しく説明される。
前述の較正方法で見出されたTCP位置座標を用いて、
2つの任意点が点P及び9に選ばれる。
これは末端奏効体TCFの中心が任意に選ばれた点pに
なるような位置へロボットを移動することによって行わ
れる。この現在のロボット位置は次にロボットテーチ端
子から読まれる。ロボット大域的座標の9の位置は簡単
に識別され得る。ロボット大域的フレームの配向ベクト
ルρq=p−qは上記ステップ1で得られた情報を用い
てαで表示される。この角度は次の式で表示される。式
中χ9、X、、Y、、Y、はロボット大域的フレームの
p及びqの位置座・標である。
cr= arctan (YD −YD IXQ −X
ll −Xll )  式(3)ロボット腕は次に末端
奏効体に対するベクトルpqの配向(第3図に示すよう
に角度ガンマ)が得られるような位置へ移動される。再
び、現在のロボット位置がロボットテーチ端子から読ま
れる。視覚カメラ及び奏効体について、角度ガンマは次
の式(4)から決定され得る。
7 = arctan (Yqv−by+ X qw−
Xpv)   式(4)式中、X pv、Y□は視覚ス
クリーン座標でのpの位置であり、且つX QV+Y、
vは視覚スクリーン座標での9の位置である。この順序
から、−&[lの弐が生成されることができ、且つTC
F配向βが次式で決定され得る。
β=arcLan [Co5(cr−θ−r>、 5t
n(cr−θ−γ)〕              式
(5)軸対称でない他の末端奏効体について、末端奏効
体のTCP空間X軸はTが零になるようにベクトルpq
と整合される。上述したTCF配向較正手順はロボット
遠位リンクに取付けられるどの末端奏効体についても使
用され得る。最良のTCF配向の統計的平均化は前述し
た手順を用いて行われ得る。
オンラインロボット較正は実行時間で行われる。
視覚カメラ、較正されたTCP幾何形状情報及び予め処
理されたデータベースからの加工品幾何形状情報を用い
ることによって、オンライン較正は作業空間での加工品
の相対的位置を決定する。これは本書の他の部分で詳細
に述べられる剛体及びロボット位置誤差の修正を許す。
開発された相対的アプローチは第1図に示す較正機構及
び視覚システムを用いて部品及びロボット末端奏効体の
間の相対的幾何形状情報を捕らえる。第1図に示す相対
的フレームを用いて、ロボット大域的フレームに関する
構成部品姿勢は次の変換式によって表される。
T C,=eTll、7V、7fv7C2式(6)式中
、 7 c、・構成部品フレームからロボット大域的フレー
ムへの変換。
c7c、=視覚カメラが較正機構を備える時のロボット
末端フレームからロボット大域 的フレームへの変換。
TV、、、オフラインロボット較正で決定される視覚カ
メラフレームからロボット末端フレームへの変換。
T’v”像分析〔6〕で決定される較正機構フレームか
ら視覚カメラフレームへの変換。
7ct・構成部品フレームから較正機構フレームへの且
つ予め処理された加工品幾何形状データベースから決定
される変換。
遠位フレームに関していま確定したTCF位置及び配向
によって、コンピュータに関するどんな目標物又は部品
の相対的位置及び/又は配向をも確立することが可能で
ある。これは、大域的基準フレームに関してコンピュー
タ位置を確定する努力をするのと反対に基準フレームを
相対的基準で確定することによつて達成される。実際的
感覚から、大抵の製造作業は基準の局部フレーム又は部
品データに関して指定されるので、部品及びコンピュー
タ位置の間の相対的基準フレームの使用は好ましい0本
方法の利用は、より複雑な大域的基準フレームではなく
、ロボット姿勢を基準とし且つロボット不正確度を部品
データに関して特徴づけることができる。
本発明は運動学的モデル及び推計学的モデル並びに他の
分析形式に適用され得る方法論の記述を含む、−船釣な
手順は次のステップによって表される。
ロボットは目標物又は位置に関して位置決めされ且つ複
数個の分離した基準位置又は機構が識別される。典型的
には、これらの機構は目標物上に配置され且つ特定の幾
何形状及び空間データによって特徴づけられる0次のス
テップはこれらの幾何形状並びに目標に対する分離した
基準位置の空間データを確定するデータを識別すること
である。
この識別データはロボットのコンピュータシステムのよ
うなデータ処理ユニット内の各それぞれの基準位置に記
憶される。この情報はこの基準位置近くの位置へ後で偏
位する時にロボットによって比較動作中に利・用される
ロボット末端奏効体は次に基準位置の1つの近くの第1
位置へ移動される。例えば、第4図で、ロボット末端奏
効体は較正位置又は較正機構として確定される初期基準
位置41へ移動される。この位置で、末端奏効体は較正
機構の存在を検知する。この検知された較正位置はその
位置に関する初めに記憶された情報データと比較される
。剛体誤差修正は前の比較ステップで検知された位置差
に基づいて進められる。この修正はこの較正位置に対す
るロボットの後の移動に関して使用される。
剛体誤差修正データは次に後の使用のためにロボットコ
ンピュータ内に記憶される。
末端奏効体42は次に第2基準位置43へ移動される。
この移動はそれがこの基準位置に関する初めに記憶され
た識別データでロボットコンピュータ中に負荷されたの
でこの基準位置43に関する識別データに基づいて行わ
れる。しかしながら、ほかに、第2位置への末端奏効体
の移動は前のステップから確定された剛体修正の適用に
よって層温される修正因子を含む、これは第2基準位置
近くのロボットの適当な配置をより正確に予測する。
従って、本発明は第1較正機構41に関して剛体修正を
確定し且つこの修正を以後の移動に関して適用し、それ
により第2位置の初めに記憶された識別データを修正す
る。
この方法はこの位置の予測値に関して検知された新しい
基準位置を比較するために追加の基準位置を測定するこ
とによって統計的平均化を適用するために更に広げられ
得る。予測された位置及びロボットの実際の位置の間の
差はより大きな正確度をもって以後の基準位置に末端奏
効体を配置するに必要な修正量を確定するために検知さ
れ且つ処理される。この確定された修正は後の処理のた
めにコンピュータ内に記憶される。これは第4図の品目
44及び45のような各追加の基準に関して移動、検知
、記憶及び処理λ繰返すことによって行われる。
この手順は第5図に示すようにロボット末端奏効体53
に近接して取付けられた視覚カメラ51及び接触プロー
ブ52に対して適用されている。
視覚カメラ51及び接触センサ52に関連して、基準機
構62を含む較正板又はテーブル61がロボット姿勢を
測定するテンプレートとして作用する。例えば、機構6
3は指針52を配置する第1機構である較正機構として
識別され得る。62のような残りの機構は運動学的モデ
ルの決定を改善するために統計的平均を作るのを援助し
得る追加の基準点を提供する。この場合、基準機構の位
置は較正テーブルデータ(構造に予め決定されている)
を参照され且つロボット姿勢は較正テーブルデークに関
して測定される。
この方法論をロボットの運動学的モデルの測定に適用す
ることは、Mooring、 B、W、の[ロボット位
置決め正確度に及ぼすジョイント軸不整合の影響」、工
学でのコンピュータに関するASME会議の会報、イリ
ノイ州シカゴ、1983年〔1〕、及び7ang+ G
、の「6軸産業ロボツトの較正及び正確度分子fr」、
テキサス・エイ・アンド・エム・ユニバーシティの機械
工学の博士論文部門、1986年〔2〕によって記載さ
れた手順の僅かな修正である。
これらの手順を用いて、ロボットマニブレークの運動学
的モデルは測定された姿勢データから計算され得る。計
算された運動学的モデルはロボットを構成する各ジヨイ
ント軸の位置及び配向を決定することによって定式化さ
れる。この運動学的定式化は、位置ベクトルp及び配向
ベクトルUが各ジヨイントを確定するSuh、 C,及
びRadcliffe、 C0肌の運動学及び機構設計
、ニューヨーク、JohnWiley & 5ons 
、 1978年〔3〕に記載されている一般化されたね
し変位マトリックスに基づいている。実際のジヨイント
モデルパラメータが決定されると、較正された運動学的
モデルが展開される。
このモデルは第6図に示すように姿勢測定中に参照され
る部品データに関して確定される。
ロボット運動学的モデルが正確に知られ且つ各ロボット
ジヨイント値が特定されると、ロボット姿勢は正確に予
測され得る。特定された姿勢でロボットを正確に配置す
るに必要なジヨイント値を計算する逆運動学的モデルは
展開され得る。逆運動学的定式化はデナビットーハーテ
ンペルグパラメータ又はロボット運動学の有効な定式化
に基づくことができる。大抵のロボット制御器はそのよ
うな逆運動学的変換を利用し且つ多くのロボットモデル
は文献で刊行されている0本発明者は予測器−修正器及
び逆ヤコブ定式化に基づくアルゴリズムを開発した。
簡単な予測器−修正器方法はロボット位置を予測するた
めにロボットの較正された運動学的モデルを利用する。
ロボット姿勢ジヨイント値は名目逆運動学モデルを用い
て評価される。その結果の姿勢は較正されたモデルを用
いて予測される。目標姿勢及び予測された姿勢の間の差
は姿勢不正確度である。目標位置は次に姿勢不正確度を
処置するために修正される。プロセスは予測されたロボ
ット不正確度が充分に減少されるまで繰返される。
逆ヤコブ方法はロボット位置を予測するために較正され
た運動学的モデル及び逆運動学的変換を再び用いること
によって逆ヤコブを予測器−修正器繰返し計画に組入れ
る。数学的定式化は較正された運動学的モデル定式化と
同様である。各ジヨイント値に関するロボット位置の偏
導関数は決定され且つ微分ジヨイント修正はΔqについ
ての次の線形行列式を解くことによって評価される。
(δT/δqi)Δq=ΔT       式(7)式
中δT/δqiはi番目のジヨイント値q1に関するロ
ボット姿勢の偏導関数を示し、Δqは微分ジヨイント値
を示し且つΔTは較正されたジヨイントモデルパラメー
タによって予測されるロボット位置及び目標ロボット姿
勢の間の差である。このようにして、運動学的に修正さ
れたジヨイント値は式(7)の連続的繰返しによって得
られる。
また、僅かに異なる逆ヤコプ定式化は運動学的補償のた
めに展開された。この定式化はPaul、 R。
のロボットマニプレータ、数学、プログラミング及び制
御、マサチュセッッ州ボストン、M、1.T、プレス、
1982年〔5〕に含まれている。両方の逆ヤコブ定式
化は次の近似式に基づいた。
(δT/δq i) c ”’i(δT/δqi)7 
式(8)式中(δT/δq、)Cは較正されたロボット
モデルからのジヨイント値q、に関するロボット位置の
変化を示し、且つ(δT/δq、)7ば理想又は名目ロ
ボットモデルからのジヨイント値Qiに関するロボット
位置の変化を示す。典型的なロボット構成の予測器−修
正器及び逆ヤコブ方法の収斂は第7図に示される。第7
図の縦軸に示すtvs位置決め誤差は連続繰返しでシミ
ュレートされたロボットの平均二乗相位置誤差を示す。
推計学的モデル化はロボット不正確度を更に減少する追
加の不正確度補償可能性を提供する。この研究で用いた
推計学的モデル化の方法は応答表面方法論(R2H)に
基づ<、R2Hはロボット不正確度の内包的統計的モデ
ルを発展するに必要なロボット姿勢を計画するために使
用される。6自由度のロボットマニプレータに通用し得
る設計空間は2又は3レベル、6因子空間である。設計
空間中のレベルの数は統計的モデルのオーダーを決定す
る(線形モデルについては2レベル及び二次モデルにつ
いては3レベル)。因子の数はロボットジヨイントの数
を反映する。因子はロボット不正確度の線形又は二次モ
デルの独立変数を表す。
統計的補償モデルを展開することは前述したように別の
一組の目標部品相対的測定値を必要とする。統計的補償
姿勢がロボット制御器又はコンピュータへ送られる前に
、それらは前述したように運動学的補償を用いて修正さ
れる。ロボットは次に修正された姿勢へ移動され且つ残
りの不正確度が測定される。この残りの不正確度は運動
学的補償アルゴリズム(予測器−修正器又は逆ヤコブ)
を再び適用することによって微分ジヨイント値へ変換さ
れる。残りの微分ジヨイント摂動は次のような統計的補
償姿勢ら決定される。
q=  = a + b zrQ+  + (:t+(
b” + b  Izqt +C1zQz’ +、、、
+ b =hqb + Cthqb”    式(9)
式中a、b及びCは回帰分析から得られる二次モデル係
数を示し、qはジヨイント値を示し、且つq+は微分ジ
ヨイント摂動を示す、モデル係数の最初の下付添字は(
i番目)補償されたシロインドを示し、且つ第2の係数
下付添字はジヨイントを示す、同様に、ジヨイント値下
付添字はジヨイントを示す。
この方法論を利用する典型的な補償プロセスは次の通り
である。較正姿勢がシミュレータ上にオンライン計画さ
れる。ロボットは移動し且つそれ自身を較正された運動
学的モデルによって要求される較正姿勢に配置し、且つ
不正確度が次に測定される。ロボットは移動し且つそれ
自身を統計的モデル(R3Mによって決定されるように
)によって要求される較正姿勢に配置し、且つ不正確度
が測定される。所望のタスクが次に部品データに対して
オフライン計画される。オフライン計画されたタスクは
運動学的モデル及び統計的モデルの較正姿勢に関して展
開されるモデルを用いて修正される。補償されたタスク
情報は次にロボット制御器へ送られる。較正姿勢を計画
する初期ステップはまれに繰返されることだけを必要と
する。統計的モデル較正姿勢の測定は定期的に繰返され
且つ残りの手順はオフラインシミュレータ上に計画され
た各ロボット位置に対して繰返される。
前に示したように、本方法論に従うオフラインプログラ
ミングは、大抵のロボットが許容公差で繰返され得るこ
と、及びロボットが作動する部品が満足すべき公差に前
取て製造されていることに頼る相対的な情報に準拠する
。加工される部品が所定の公差をもつロボット作業隔室
に達することを保証することによって、ロボットを部品
上の基準較正機構へ移動させように指令し、それにより
剛体不正確度情報を捕らえるオフラインプログラミング
を使用することは可能である。基準機構(第4図の品目
41及び第6図の品目63)の確立によって、ロボット
はその部品上の他の所定の機構へ移動するように指令さ
れ得る0部品機構間の相対的幾何形状を知ることによっ
て、手順はロボットが作動する部品に対するロボットの
不正確度を確定するように実行され得る0局所化された
領域でのロボットの不正確度を修正してオフラインプロ
グラミング方法を実際に適用し得る修正ルーチンが次に
実行される。
これはロボットの局所化された不正確度のマツピングを
可能にする。このマツピングは、部品が所定の公差内で
繰返し配置されるならば、作業空間へ入る各部品につい
て必要ではない0部品が上記した繰返し性で作業空間へ
入るならば、センサ装置は組立作業中オフに切換えられ
、それによりオフラインプログラムのソフトウェア修正
を利用してロボット不正確度を補償することによって組
立プロセスを速めることができる。
目標物に関するロボット不正確度をマツピングする一般
的な方法を次に述べる。最初に、基準点として作用する
複数個の識別機構を含む目標物が識別される。コンピュ
ータ感知手段によって各機構の個々の認識を可能にする
に充分なだけ詳細に目標上の機構の幾何形状及び空間関
係を確定する機構データベースが創られる6機構データ
ベース情報は次に後の再現及び比較のためにロボットコ
ンピュータ内に記憶される。目標物はロボットの遠位リ
ンクの作動到達範囲内に置かれ、且つ目標物の記憶され
た機構を検知する可能出力を含む感知手段は遠位リンク
に取付けられる。この検知は通常(i)機構に関する感
知手段によって作られた感知データと(it)記憶され
た機構データベース情報との比較に準拠される。
運動学的及び推計学的モデル化の前述方法によるように
、感知手段は遠位リンクに関して較正されて感知手段の
末端制御フレームに関する遠位フレームの相対的位置決
めを正確に確定する。この較正された末端制御フレーム
位置は後の再現及び比較のためにコンピュータ内に記憶
される。記憶された機構データベース情報を較正された
末端制御フレーム位置と相関するルーチン又はプログラ
ムが準備される。このルーチンは目標物上にマツプされ
るそれぞれの機構の予測された位置へ感知手段を逐次移
動させる駆動指令をロボットへ与える。
次のステップはロボットでルーチンを作動することであ
り、それにより目標物上の記憶された基準機構の1つで
ある較正された機構へ感知手段を移動させる0例えば、
これは第4図で品目41であり又は第6図で品目63で
ある。予測された位置に対する感知手段の実際の位置の
相対的姿勢誤差は確定され且つ剛体修正データを提供す
る。このデータは後の再現及び比較のためにコンビュー
タ内に記憶される。例えば、記憶された剛体修正データ
は追加の又は後の機構の新規の予測された位置を確定す
るために準備されたルーチン又はプログラムと相関され
、それに対して感知手段は次に新規の予測された位置へ
移動され且つ新規の予測された位置に対する実際の位置
の相対的姿勢誤差は確定される。この誤差データはコン
ピュータ内に記憶される。各残りの機構に関してこれら
のステップを繰返すことによって、目標物のマツプはロ
ボット不正確度の統計的ベースを提供するように作られ
る。
この−船釣な手順は+0.(1127 nu+(÷0.
00053’)の公差まで加工された較正された板に対
して適用された。較正板の寸法は第8図に図式形態で示
される。
TCPが決定されると、逆運動学的ルーチンが部品機構
近くのカメラフレームを正しく配置するために実行され
得る。オートマチックス(Automatix)へV−
3視覚システムが第8図に例示する板に対して較正され
た。Xピクセルに対するYピクセルの相対的ピクセル寸
法は視覚システムカメラフレーム内の較正板上に2つの
ドツトを配置することによって決定された。ピクセル座
標中のこれらのそれぞれの位置は次にXピクセル距離に
対するYビクセルの比を得るために多数の試験を統計的
に平均化することによって決定された。実世界座標での
ピクセル間の距離も必要とされた。
同じ2つのドツトを使用することによって及びドツトを
分離する物理的距離を知ることによって、統計的平均は
試験から得られた。
視覚システムの座標フレームの原点はXピクセル192
.0及びYビクセル127.5に配置された。視覚シス
テムを使用したので、視覚システムによって捕らえられ
た機構を、ロボット遠位リンクに取付けられたカメラの
TCFフレームに関係づける座標フレームが決定された
。このフレームを決定するために使用した方法はTCP
についての本明細書の初めの部分に開示された較正方法
であった。
この変換は較正板座標フレーム及びカメラTCPの座標
フレームでの視覚システム座標フレームを得ることを含
んだ。即ち、式(10) 7 tv=Tcv、7fc       式(10)式
中、 T ’ v・較正機構フレームから視覚システムフレー
ムへの変換。
Tcv・カメラTCFフレームから視覚システム座標フ
レームへの変換。
T1 c=較正機構フレームからカメラTCFフレーム
への変換。
[相対的J位置決め方法の利用は、ロボット不正確度の
理解がロボットが作動する局所化された部品領域でだけ
必要とされるので、従来技術よりも大きな改善を示す、
ロボットが作業ステーション間でスィーブ移動している
時、ロボット不正確度は重大ではない。しかしながら、
大きな正確度が実際の組立中又はつかみ又は置き移動の
ようなロボットタスクの他の形で所望されるので、ロボ
ットの不正確度はこの小さな領域内で確定される必要が
ある。これらの手順は+0.0254 +u+(+0.
0(11?)まで繰返し可能であるセイコーRT−30
00で首尾よく実演された。
第8図の較正板を使用して、局所化された領域でのロボ
ット不正確度伝播は最初にカメラを基準較正機構81上
へ移動することによって決定された。この機構から、ロ
ボットの全ての以後の移動の部分剛体誤差修正を許す必
要な情報が捕らえられた。剛体誤差修正は、同じ並進運
動及び配向修正を、部品に対するロボットの不正確度マ
ツピングで使用される全ての機構へ適用する。剛体誤差
変換が決定されると、ロボットは次の機構82へ移動す
るように視覚システムソフトウェア中で指令された。デ
ータベースに接近することによって、8つの機構81〜
88の全てが視覚システムによってマツプされた。第9
図はロボット不正確度の決定で得られたテストデータを
表に示す。第10図に示すように、ロボット誤差は基準
較正機構81からの距離に比例して(近直線的に)増加
する。
局所化された位置不正確度は距離の近−次関数であり、
次の一次方程式がロボット不正確度を補償するために得
られた。
F、x =^IX + B+V           
式(11)Ey=AZXfBzV式(12) 定数を求めるために、作業空間領域での2つの独立点か
らの不正確度情報を捕らえることが必要であった。これ
は最初にカメラを基準較正機構へ移動して剛体誤差修正
を決定することによって行われ、且つ次にカメラをi及
びjで示す2つの他の機構へ移動してそこから式(11
)及び(12)を解くために必要な全ての情報を得た。
目標物iでの誤差方程式は次の通りである。
Exl =  八+X  i  +   B+Yt  
              式(13)Eyi = 
AtX i÷ Bz)’i         式(14
)式中、X、及びy、はロボットのカルテシアン移動で
あり且つExt及びEy、は目標物iにおいて視覚シス
テムによって捕らえられた位置誤差である。
同様に、同じ情報が目標物jにおいて捕らえられた。次
のクラマーズ(Kra*ers)規則が定数AI+ B
l+A2及びBtを解くために適用された。この実験で
、機構2及び6はそれぞれ目標物i及びjを表した。
次に、データベース情報はロボットが全ての機構へ移動
するように指令された時に各機構の位置の予測された位
置的誤差を修正するように修正された。第11図はロボ
ットが不正確度を修正した後の誤差を表に示す、第9図
及び第11図を比較すると、最大ロボット不正確度0.
43688 mm(0゜(1172寥>)が基1!機構
から359.2068m+w(14,142纂ン)の距
離において0.0635+m(0,0025;’)に改
善された。これはカメラの解像度に近く且つ現実的に達
成し得ない。公差積重ねの統計的分析はこれらの技術が
0.127 m1w(0,005:’)より大きい位置
的正確度を要求しないプロセスに適用され得ることを示
した。
ロボット配向補償は大きな困難を提供する。ロボットの
配向不正確度は基準較正機構からの距離の関数ではない
。この配向不正確度は歯車バノクラッシ、ジヨイントコ
ンプライアンス、視覚システムアルゴリズム限界等のよ
うな源に影響され得る。実験は、好結果のオフラインプ
ログラミングが大域的基準フレームと対抗する相対的情
報に基づく方法論で可能とされる前提と同様な配向修正
の一次方程式に従う配向不正確度を示した。この前提は
大抵のロボットが満足し得る公差内で繰返し得ること及
びロボットが作動する目標部品が予め満足すべき公差を
もって製造されていることに錬る。この前提の故に、ロ
ボットの繰返し性がロボットタスクの所望の公差より小
さくなければならないことは当業者に明らかであろう、
また、ロボットが作動する部品の幾何形状仕様が必要と
されるロボット作業隔室へ接近し且つ通過し得ることは
必要である。
第12図を参照すると、流れ図が典型的な製造プロセス
内での本発明の実行を示す情報流れ及びデータベース構
造を例示する。この流れ図は大域的ではなく相対的な基
準フレームに基づいてTCFに関する較正ステップを誤
差修正の他のフレームと一体にする。第12図及び第1
3図は較正状態から誤差決定及びマツピング段階を経る
本方法論の全体を例示する。特に第12図を参照すると
、目標とされた部品の幾何形状機構は一般に設計工学に
よって特定され且つソフトウェア準備のロボットタスク
計画段階で人手され得る。変換ソフトウェアは適当な変
換が機構の幾何形状記述をロボット制御器へ負荷させる
ために利用され得る。本書の初めの方で述べたオフライ
ン較正規則は部品設計に統合されることができ、それに
より充分な基準機構がロボット機構取得システムによる
使用のために部品上に識別され又は配置され得る。例え
ば、視覚又はカメラシステムは動的較正段階中に目標部
品をマツピングするために有効であると説明してきた。
ロボットシステムが作動する部品がそれらがロボット作
業隔室へ入る前にそれらの上に処理された較正基準機構
を持たねばならないことは前述したことから明らかであ
る。これらの機構は、機構取得サブシステムによって又
は部品上に永久的に配置され又は−時的に取付けられた
テンプレート26上に配置される簡単に加えられる機構
によって用意に処理され得る常駐幾何形状であり得る0
部品が一致した様式で送出されるならば、機構の出入り
は定期的に行われることを必要とするだけであることに
注目されたい。これら手順の全体は第11図の初めの箱
110で表示される。
計画プロセスは較正タスク及び実際のプロセスタスクの
両方でオフライン展開され得る。これらのタスクはつか
み又は置き、速度設定、センサ読み等を特定するに充分
な情報をもって一組のロボット構成としてファイルされ
る。この計画は較正タスクファイルに記憶される較正移
動とプロセスタスクファイルに記憶されるプロセス移動
の両方を含む。プロセスのこのアスペクトは箱111で
表示される。
経路/タスクファイルは最小直列R5232通信として
使用するファイル伝達ソフトウェアによってロボット作
業隔室制御器へ下負荷され得る。これらのインタフェー
スは第12図に品目112として表示される。品目11
3は経路ファイル構成をロボットタスクマクロに変換す
るためにソフトウェアを維持する作業隔室制御器を示す
、このソフトウェアは大抵のロボットに適用し得る一般
的なアルゴリズム及びロボット特性である装置ドライバ
型アルゴリズムの両方を有する。較正時に、ソフトウェ
アはカメラのようなセンサシステムによって観察される
時にロボット不正確度を修正するように作動される。こ
の最も簡単な形では、ソフトウェアは較正位相中に観察
される位置及び配向誤差のマトリックス上に作動する内
挿アルゴリズムからなる。より複雑なソフトウェアはロ
ボット不正確度によってひずむ目標物幾何形状をマツプ
するひずみ変換を展開する。これらの変換を用いて、ロ
ボットは知覚される部品幾何形状上を作動する。
修正された変換を用いて、ソフトウェアは予め処理され
た経路を修正するように作動される。これはロボット構
成が制御点を用いて相互作用状態の近くで修正されるこ
とを必要とする。これらの制御点は臨界組立相互作用点
近(の経路形状を維持し且つロボット位置決め不正確度
のための表面機構ひずみを修正する。シミュレーション
使用者は中間構成が経路を局部的に修正した後でさえ衝
突を避けるように作業空間障害物から充分に離されるご
とを保証する。従って、これら手順は第12図の箱11
3に関係するのみならず、箱111にも関係する。
制御点の使用は第7図に例示される。較正オフライン経
路計画中に、使用者は一般化された変位マトリックスの
一般化された組の一組を大域的座標に入れて視覚システ
ムTCFのための一組の所望の較正姿勢を記述する。第
7図は較正経路セグメント1.2.3及び4を例示し、
それらはカルテシアン空間中の経路を形成するように連
結されている。作業経路シミュレーション計画中に、グ
リッパTCPはロボット末端奏効体TCPとして使用さ
れ且つ使用者は変位マトリックスを入れてグリッパが作
用する構成部品に対してグリッパTCPの一組の所望の
姿勢を記述する。第14図はカルテシアン空間中の連結
された作業経路セグメント及び臨界経路節点を例示する
。較正及び作業経路を計画した後、計画された経路セグ
メントは経路セグメント一体及び経路偏位で後で使用す
るためにファイルされる。経路ファイルは経路構成、つ
かみ−置き作動フラッグ及びロボット速度設定に関係す
る他の情報の数及び順序を含む。この段階で、経路ファ
イルが存在するが、それらは最終経路の正確な形を表示
し得ない、正確な形を決定するために、予め計画された
タスクを統合し且つそれらを視覚システム又はロボット
で使用される制御言語のような作業隔室制御器で使用さ
れる制御言語に変換する統合手順が適用される。使用者
が経路セグメントを前タスクファイルから加え又は削除
することによって又は経路セグメントの順序を変えるこ
とによって予め計画された経路セグメントファイルを組
合わせることは開発されている。加えて、使用者は統合
プロセス中に指令をロボット制御言語に入れることがで
きる。
コンピュータシミュレーションによって計画されたオフ
ライン経路は、視覚システム又は他のセンサによって測
定された較正誤差を処置し且つ幾何形状モデル化不確実
性を処置するために修正されねばならない。オフライン
経路を修正し得る種々の方法があるが、例示のために、
臨界経路セグメントのカルテシアン経路形状及び経路適
合は、コンピュータ末端奏効体末端制御フレームの一致
した相対的カルテシアン運動を維持しながら経路を偏位
させることによって維持される。
経路適合を維持するために全体の組立タスク経路を偏位
させることは実際的でない、つかみ及び置き位置のよう
な臨界点に近い経路セグメントはこれら制御点を特定す
ることによって適合された経路セグメント偏位のための
候補である。第1点は較正誤差が部品とのコンピュータ
末端奏効体相互作用の有効性に影響する臨界点である制
御姿勢点(cpp)である。第2点は臨界点(CPP)
が後ろにある点である制御点次位(CPN)である。C
PP及びCPNの間の偏位した経路セグメントのカルテ
シアン形状はシミュレーションによって計画されたカル
テシアン経路の形状に一致しなければならない。さいご
に、制御点最後(CPL)は臨界点(CPP)が前にあ
った点である。
経路偏位後の経路適合はCPP及びCPLの間に維持さ
れねばならない。
カルテシアン作業空間では、経路適合を維持するために
経路セグメントを修正するタスクは較正中に検知される
並進及び回転誤差の正確に同じ量だけ制御点間の末端奏
効体TCPの各オフライン計画された姿勢を偏位させる
ように記述されることができる。換言すれば、シミュレ
ートされた経路セグメント上の各節点のための末端奏効
体TCFの変位マトリックスは、一致した偏位した経路
セグメントを得る新規の変位マトリックスを得るために
同じ誤差修正変換マトリックスによって事後乗算される
。これは第15図に例示され、そこで姿勢1.2.3及
び4は点す、c、d及びeヘソフトウエアによって偏位
されている。この偏位方法は修正された計画された姿勢
の経路内に入る作業隔室内の末端奏効体及び障害物の間
の衝突を避けるための新規なアプローチを示す。
ここに開発され例示した実際的なオフラインプログラミ
ング技術は次のステップに従ってマイクロエレクトロニ
クス組立タスクに適用した。異なる寸法のマイクロエレ
クトロニクスチップは部品フィーダからロボット末端奏
効体によってつかまれた。偏位経路計画は変位経路中の
作業空間衝突を回避するために開発された。マイクロエ
レクトロニクスチップは指示されたIC盤位置に挿入さ
れた。これらのタスクは首尾よく行われ且つ開発された
オフラインプログラミング技術は剛体誤差修正に使用し
て作業空間の小さい領域内でロボット位置正確度を+〇
、1au+iで改善することを示した。
上述の実施例の説明及び特定の参照は例示のためのもの
であることは当業者に明らかであろう。
ここに説明した基本的な概念及び方法は特許請求の範囲
に記載された発明の規定に関して制限するものと解釈さ
れるべきでない。
【図面の簡単な説明】
第1図は較正板又は田野目標部品に関して処理を行うロ
ボットを図式的に示す図であり、第2a図、第2b図及
び第2C図は末端制御フレームの位置較正ステップを示
す図であり、第3図はここに開示される較正手順内のT
CF配向の決定を図式的に例示する図であり、第4図は
カルテシアン空間中の較正経路セグメントを図式的に例
示する図であり、第5図は末端制御及びセンサ構成部品
を有するロボットを示す図であり、第6図は較正テーブ
ルに関してロボット構成を例示する図であり、第7図は
位置誤差収斂を示すグラフであり、第8図は本発明と共
に使用する例示的な較正テーブルを示す図であり、第9
図はロボット不正確度に関して行った実験に基づくデー
タ概要を示し、第1O図はロボット不正確度測定値のプ
ロットを示すグラフであり、第11図は誤差修正又は配
向に関するデータを示し、第12図は本発明の統合され
たステップを要約する図式的流れ図であり、第13図は
本発明により統合された較正手順を例示する図式的流れ
図であり、第14図はプログラミング方法での制御点の
使用を例示する図式的図であり、第15図はロボット腕
及び障害物の間の意図しない接触を回避するための偏位
された経路の使用を例示する図式的図である。 10・・・ロボット、 11・・・基礎基準フレーム、 12.13.14・・・中間フレーム、15.16・・
・遠位フレーム、 17.42.53・・・末端奏効体、 18・・・末端制御フレーム(TCP)、19・・・指
示手段、 21.61・・・較正板、 22・・・作業空間位置、 26・・・テンプレート、 41.43・・・基準位置、 51・・・視覚カメラ、゛ 52・・・接触プローブ、 63.81.82.83.84.85.86.87.8
8・・・機構。 図面の浄翁(内容に変更なし) Fjg、j Frg、3 Fig、4 Fig、6 FMg、7 ■ 逼を享隼1まη〜、鳩4       口 t’4
1%     −げ、トFig、8 Oキ、・2)界正確& 4ン7’y7スdGn)ax(iJAyrinle(i
n)Δ9(”)Frg、9 y巨 島1i  cイン−7) Fig、 10 Fig、Il Fig、 12 Fig、 13 Fig、14 Fig、 15

Claims (15)

    【特許請求の範囲】
  1. (1)ロボット遠位フレームを有し且つコンピュータデ
    ータ処理及び記憶手段の制御を受けるロボット遠位リン
    クに接合されるカメラ又はつかみ装置のようなロボット
    末端奏効体の末端制御フレームの位置を較正する方法で
    あって、該方法が、イ)指示手段をロボット遠位フレー
    ムのz軸線と平行に整合するように、指示端を有する指
    示手段をロボット遠位リンクに取付け、 ロ)作動距離内でロボットから離れた空間中の第1基準
    点を選び、 ハ)指示手段の指示端が第1基準点に配置される第1姿
    勢へロボットを移動し、 ニ)ステップ「ハ」の第1ロボット姿勢を表すロボット
    位置決めデータを後の再現及び比較のためにコンピュー
    タ手段に記憶し、 ホ)末端奏効体を遠位リンクに取付け、 ヘ)末端奏効体上の基準点を識別し、 ト)末端奏効体基準点が第1基準点に配置される第2姿
    勢へロボットを移動し、 チ)ステップ「ト」の第2ロボット姿勢を表すロボット
    位置決めデータを後の再現及び比較のためにコンピュー
    タ手段に記憶し、 リ)ステップ「ニ」及び「チ」の記憶された位置決めデ
    ータを差の検知のために比較し、 ヌ)ロボット遠位フレームに対する末端制御フレームの
    オフセット位置を確定するために検知された差をコンピ
    ュータ手段内で処理する、 ステップを具備する方法。
  2. (2)遠位接触端を有する細長いポインタを遠位リンク
    に取付け、 一定の目標物上の第1基準点を識別し、且つポインタの
    接触端が目標物上の第1基準点に配置される第1姿勢へ
    ロボットを移動する、 ステップを包含する特許請求の範囲第1項記載の方法。
  3. (3)ル)作動距離内でロボットから離れた空間中の追
    加の基準点を選び、 ヲ)指示手段の指示端が前記追加の基準点に配置される
    第1姿勢へロボットを移動し、 ワ)ステップ「ヲ」の第1ロボット姿勢を表すロボット
    位置決めデータを後の再現及び比較のためにコンピュー
    タ手段に記憶し、 カ)末端奏効体基準点が第1基準点に配置される第2姿
    勢へロボットを移動し、 ヨ)ステップ「カ」の第2ロボット姿勢を表すロボット
    位置決めデータを後の再現及び比較のためにコンピュー
    タ手段に記憶し、 タ)ステップ「ワ」及び「ヨ」の記憶された位置決めデ
    ータを差の検知のために比較し、 レ)ロボット遠位フレームに対する末端制御フレームの
    オフセット位置を確定するためにステップ「タ」の検知
    された差をコンピュータ手段内で処理する、 ステップを包含する特許請求の範囲第1項記載の方法。
  4. (4)前記したステップが末端制御フレームのオフセッ
    ト位置のより正確な確定を定めるために処理され得る差
    値の統計的ベースを作るに充分な回数だけ繰返される特
    許請求の範囲第3項記載の方法。
  5. (5)イイ)作動距離内でロボットから離れた空間中の
    第2基準点を選び、 ロロ)指示手段の指示端が第2基準点に配置される第1
    姿勢へロボットを移動し、 ハハ)ステップ「ロロ」の第1ロボット姿勢を表すロボ
    ット位置決めデータを後の再現及び比較のためにコンピ
    ュータ手段に記憶し、 ニニ)第1及び第2基準点を結ぶ線の配向ベクトルを識
    別するために第1及び第2基準点の記憶された位置決め
    データを処理し、 ホホ)末端制御フレームに関するベクトル配向データを
    後の再現及び処理のためにコンピュータ手段に記憶し、 ヘヘ)末端制御フレームに対するベクトルの配向が確定
    され得るようにロボットを第3姿勢へ移動し、 トト)ステップ「ヘヘ」の第3姿勢を表すロボット位置
    決めデータを後の再現及び比較のためにコンピュータ手
    段に記憶し、且つ チチ)末端遠位フレームに対する末端制御フレームの相
    対的配向を確定するために記憶されたデータを処理する
    、 ステップを包含する、ロボット遠位フレームに対するロ
    ボット末端奏効体の末端制御フレームの相対的配向を較
    正する特許請求の範囲第1項記載の方法。
  6. (6)正確な配向確定を改善するために追加の統計的ベ
    ースを確定すべく他のロボット姿勢に対して特許請求の
    範囲第5項記載の移動、記憶及び処理ステップを繰返す
    追加のステップを包含する方法。
  7. (7)目標に対するプログラム可能なロボットの配向及
    び/又は位置正確度を改善する方法であって、該方法が
    、 イ)ロボットを目標に対して位置決めし、前記ロボット
    が末端作動末端奏効体を有し、前記ロボットが目標に対
    して種々の異なる位置の間を移動することができ、 ロ)ロボットから外部の複数個の分離した基準位置を識
    別し、 ハ)目標に対する分離した基準位置の幾何形状及び空間
    的データを確定する識別データを作り、ニ)基準位置近
    くの位置への後の偏位の際にロボットによる再現及び比
    較のためにデータ処理ユニット内に各それぞれの基準位
    置の識別データを記憶し、 ホ)本書で較正位置と称する基準位置の1つの近くの第
    1位置へロボット末端奏効体を移動し、そこでロボット
    に結合さたセンサが較正位置の存在を検知し、 ヘ)検知された較正位置をその位置に関する初めに記憶
    された情報データと比較し、 ト)前の比較ステップで検知された位置差に基づいて剛
    体誤差修正を展開し、該修正を較正位置に対するロボッ
    トの後の移動に対して使用し、チ)剛体誤差修正をデー
    タ処理ユニット内に記憶し、 リ)第2基準位置に関する初めに記憶された識別データ
    を利用し且つ較正位置に対して展開された剛体修正を適
    用して末端奏効体を第2基準位置へ移動し、第2基準位
    置近くのロボットの適当な配置をより正確に予測する、 ステップを具備する方法。
  8. (8)ヌ)第2基準位置を検知し、 ル)ロボットがステップ「リ」で移動された予測された
    第2位置に対して検知された第2基準位置を比較し、 ヲ)ステップ「ヌ」で検知された第2基準位置の予測さ
    れた位置及び実際の位置の間の差を検知し、 ワ)末端奏効体を以後の基準位置に適当に配置するに要
    する修正量を確定するために検知された差を処理し、 カ)確定された修正をデータ処理ユニット内に記憶する
    、 ステップを包含する特許請求の範囲第7項記載の方法。
  9. (9)以後の基準位置の予測された位置及び実際の位置
    の間の位置偏差をより正確に定量し且つ平均化する統計
    的ベースを確定するために追加の基準位置に対する特許
    請求の範囲第8項記載の移動、検知、記憶及び処理ステ
    ップを繰返す追加のステップを包含する方法。
  10. (10)ステップ「ロ」が目標物上に位置決めされるロ
    ボットから外部の複数個の分離した基準機構を識別する
    ステップを包含する特許請求の範囲第7項記載の方法。
  11. (11)基準位置としての各基準機構の実際の検知の際
    の後の再現及び比較のために、目標物上の各基準機構の
    幾何形状構成及び配向並びに機構間のそれらの分離及び
    配向に関する識別データをデータ処理ユニット内に定量
    し且つ記憶する初期ステップを包含する特許請求の範囲
    第9項記載の方法。
  12. (12)以後の基準位置に対するロボット位置の正確な
    予測を可能にする分析モデルのパラメータを確定するた
    めに追加の基準位置に対する特許請求の範囲第8項記載
    の移動、検知、記憶及び処理ステップを繰返す追加のス
    テップを包含する方法。
  13. (13)プログラム可能なロボットのロボット不正確度
    をマッピングする方法であって、該方法が、イ)マッピ
    ングのための基準点として作用し得る複数個の識別機構
    を上に有する目標物を準備し、ロ)各機構の個々の認識
    を可能にするに充分なだけ詳細に目標物上の機構の幾何
    形状及び空間的関係を確定する機構データベースを創り
    、 ハ)機構データベースを後の再現及び比較のためにコン
    ピュータに記憶し、 ニ)目標物をロボットの遠位リンクの作動到達範囲内に
    配置し、 ホ)機構データベース中のデータとの感知データの比較
    に基づいて記憶された機構を検知し得る感知手段を遠位
    リンクに取付け、 ヘ)感知手段の末端制御フレームに対する遠位フレーム
    の相対的位置決めを正確に確定するために感知手段を遠
    位リンクに対して較正し、 ト)較正された末端制御フレームを後の再現及び比較の
    ためにコンピュータ内に記憶し、 チ)記憶されたデータベースを較正された末端制御フレ
    ーム位置と相関し且つそれぞれの機構の予測された位置
    へ感知手段を逐次移動させる駆動指令をコンピュータへ
    与えるルーチンを準備し、リ)目標物上の記憶された機
    構の1つを構成する較正する機構へ感知手段を移動させ
    るためにルーチンを作動し、 ヌ)剛体修正データを提供するために予測された位置に
    対する感知手段の実際の位置の相対的姿勢誤差を確定し
    、 ル)剛体修正データを後の再現及び比較のためにコンピ
    ュータ内に記憶し、 ヲ)感知手段が移動される次の機構の新規の予測された
    位置を確定するために記憶された剛体修正データを準備
    されたルーチンと相関し、 ワ)感知手段を次の機構の新規の予測された位置へ移動
    し、 カ)新規の予測された位置に対する感知手段の実際の位
    置の相対的姿勢誤差を確定し、 ヨ)ステップ「カ」の誤差データを後の再現及び比較の
    ためにコンピュータ内に記憶し、 タ)測定された誤差データに基づいて目標物のマップを
    創るために各以後の機構に対してステップ「ヲ」から「
    タ」までを繰返し、 レ)ロボット不正確度を表す式を確定するためにマップ
    誤差データを処理する、 ステップを具備する方法。
  14. (14)目標物上で行われる作動に対するプログラム可
    能なロボットの配向及び/又は位置の正確度を改善する
    方法であって、該方法が、 イ)取付けられた感知手段を目標物上の所望の機構の近
    似位置へ移動させる駆動指令をロボットに与えるルーチ
    ンを準備し、 ロ)ロボットに対する感知手段の相対的位置を確定する
    感知基準フレームを較正し、 ハ)ロボット感知手段が機構を検知し且つ機構位置に関
    する感知データを発生するようにルーチンを作動し、 ニ)機構の位置を感知基準フレームに関連させる変換マ
    トリックスを展開し、 ホ)ステップ「ニ」のマトリックス、感知基準フレーム
    位置及び機構の幾何形状に基づいてロボットの感知フレ
    ーム姿勢を決定し、 ヘ)感知フレーム姿勢に対応するロボットの一組のジョ
    イント座標を決定し、 ト)ロボットの移動限界の領域を表す作動経路に沿う制
    御点を識別し、 チ)ロボットの自由移動の経路適合を維持するためにル
    ーチン及び制御点との作動の確定された経路を修正し、
    且つ リ)作動を行うために修正されたルーチンを作動する、 ステップを具備する方法。
  15. (15)目標に対するプログラム可能なロボットの配向
    及び/又は位置の正確度を改善する方法であって、該方
    法が、 イ)それらの相対的位置及び配向を確定するためにロボ
    ット遠位フレームを有するロボット遠位リンクに結合さ
    れたロボット末端奏効体の末端制御フレームの位置を較
    正し、 ロ)ロボットから外部の複数個の分離した基準位置を識
    別し、 ハ)目標に対する分離した基準位置の幾何形状及び空間
    的データを確定する識別データを創り、ニ)基準位置近
    くの位置への後の偏位の際のロボットによる再現及び比
    較のために各それぞれの基準位置の識別データをデータ
    処理ユニット内に記憶し、 ホ)本書で較正位置と称する基準位置の1つの近くの第
    1位置へロボット末端奏効体を移動し、そこでロボット
    に結合されたセンサが較正位置の存在を検知し、 ヘ)検知された較正位置をその位置に関する初めに記憶
    された情報データと比較し、 ト)前の比較ステップで検知された位置差に基づいて剛
    体誤差修正を創り、該修正を較正位置に対するロボット
    の後の移動に対して使用し、チ)剛体誤差修正をデータ
    処理ユニット内に記憶し、 リ)第2基準位置に関する初めに記憶された識別データ
    を利用し且つ較正位置に対して創られた剛体修正を適用
    して末端奏効体を第2基準位置へ移動して第2基準位置
    に直ぐ近くのロボットの適当な配置を正確に予測する、 ステップを具備する方法。
JP63189531A 1987-07-28 1988-07-28 ロボット不正確度修正方法 Expired - Lifetime JPH08377B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/079,168 US4831549A (en) 1987-07-28 1987-07-28 Device and method for correction of robot inaccuracy
US79168 1987-07-28

Publications (2)

Publication Number Publication Date
JPH01159186A true JPH01159186A (ja) 1989-06-22
JPH08377B2 JPH08377B2 (ja) 1996-01-10

Family

ID=22148859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63189531A Expired - Lifetime JPH08377B2 (ja) 1987-07-28 1988-07-28 ロボット不正確度修正方法

Country Status (6)

Country Link
US (1) US4831549A (ja)
EP (1) EP0301527A3 (ja)
JP (1) JPH08377B2 (ja)
KR (1) KR890001700A (ja)
CN (1) CN1024955C (ja)
CA (1) CA1331795C (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995008143A1 (fr) * 1993-09-14 1995-03-23 Tomoyuki Terada Procede de correction de programmes d'apprentissage pour robots
JP2006507571A (ja) * 2002-10-15 2006-03-02 ブリガム ヤング ユニバーシティ ツール運動の直接制御のために複雑なn曲線を描写するためのシステムおよび方法
JP2011167828A (ja) * 2010-02-22 2011-09-01 Sinfonia Technology Co Ltd 搬送装置
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2015066603A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
JPWO2019234814A1 (ja) * 2018-06-05 2021-02-12 株式会社日立製作所 カメラ位置姿勢校正装置、カメラ位置姿勢校正方法並びにロボット

Families Citing this family (200)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2535366B2 (ja) * 1988-01-09 1996-09-18 ファナック株式会社 産業用ロボットの動作能力確認方法と装置
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
DE3826195A1 (de) * 1988-08-02 1990-02-15 Hommelwerke Gmbh Vorschubgeraet zur linearen bewegung eines laengenmesstasters sowie verfahren zur abtastung der gestalt einer oberflaeche eines werkstuecks
US4972311A (en) * 1988-08-15 1990-11-20 Kulicke And Soffa Industries Inc. X-Y table error mapping apparatus and method
JP2512099B2 (ja) * 1988-08-24 1996-07-03 松下電器産業株式会社 ロボットの動作教示方法および制御装置
US5161101A (en) * 1989-04-28 1992-11-03 Nissan Motor Co., Ltd. Method of forming automatic machine operation program
JP2694669B2 (ja) * 1989-06-09 1997-12-24 株式会社日立製作所 ロボットの動作制御方法
US5307282A (en) * 1989-09-22 1994-04-26 Hewlett-Packard Company Method of computer-aided prediction of collisions between objects including fabrication tools and parts to be fabricated
JP2646776B2 (ja) * 1989-12-28 1997-08-27 日立工機株式会社 視覚補正位置決め装置
US5303384A (en) * 1990-01-02 1994-04-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High level language-based robotic control system
JP2796160B2 (ja) * 1990-02-21 1998-09-10 株式会社日立製作所 産業用ロボットの教示装置
JPH03251378A (ja) * 1990-02-28 1991-11-08 Fanuc Ltd ロボットのキャリブレーション方式
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
US5105368A (en) * 1990-08-01 1992-04-14 At&T Bell Laboratories Method for improving robot accuracy
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
FR2676384B1 (fr) * 1991-05-17 1995-04-28 Commissariat Energie Atomique Procede d'initialisation de la position d'un bras de robot au debut d'un cycle de focntionnement.
JP2700965B2 (ja) * 1991-07-04 1998-01-21 ファナック株式会社 自動キャリブレーション方式
US5345540A (en) * 1991-07-12 1994-09-06 Hewlett-Packard Company Methods for automatically programming spatial information in robotic systems
US5239855A (en) * 1991-07-12 1993-08-31 Hewlett-Packard Company Positional calibration of robotic arm joints relative to the gravity vector
FR2680886B1 (fr) * 1991-08-30 1995-01-06 Realisa Electroniques Et Procede de determination de la situation de l'organe terminal d'un robot et agencement pour la mise en óoeuvre du procede.
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
FR2683758A1 (fr) * 1991-11-18 1993-05-21 Peugeot Procede de calage d'un robot par rapport a une ligne de production et dispositif pour la mise en óoeuvre d'un tel procede.
FR2684912B1 (fr) * 1991-12-11 1995-12-29 Snecma Procede de determination d'une trajectoire de robot.
US5535306A (en) * 1993-01-28 1996-07-09 Applied Materials Inc. Self-calibration system for robot mechanisms
US5399229A (en) * 1993-05-13 1995-03-21 Texas Instruments Incorporated System and method for monitoring and evaluating semiconductor wafer fabrication
FR2706345B1 (fr) * 1993-06-11 1995-09-22 Bertin & Cie Procédé et dispositif de repérage dans l'espace d'un objet mobile tel qu'un capteur ou un outil porté par un robot.
JP3727657B2 (ja) * 1994-11-09 2005-12-14 株式会社 アマダ フィンガ・パッド力検知システム
US5835684A (en) * 1994-11-09 1998-11-10 Amada Company, Ltd. Method for planning/controlling robot motion
DE69534977T2 (de) 1994-11-09 2007-06-06 Amada Co., Ltd., Isehara Biegemaschine mit einer Steuerung zur Erstellung und Ausführung eines Metallplattenbiegeplanes
US5969973A (en) * 1994-11-09 1999-10-19 Amada Company, Ltd. Intelligent system for generating and executing a sheet metal bending plan
US5761940A (en) * 1994-11-09 1998-06-09 Amada Company, Ltd. Methods and apparatuses for backgaging and sensor-based control of bending operations
GB9424707D0 (en) * 1994-12-07 1995-02-01 Robot Simulations Ltd Control of industrial robots
JP2863731B2 (ja) * 1996-05-14 1999-03-03 株式会社テンリュウテクニックス 電子部品装着装置およびその方法
US6025852A (en) * 1996-05-24 2000-02-15 Zhao; Jianmin Manipulation of graphic structures
JPH09319425A (ja) * 1996-05-29 1997-12-12 Kobe Steel Ltd 部品の組立方法及び組立装置
US5878151A (en) * 1996-10-31 1999-03-02 Combustion Engineering, Inc. Moving object tracking
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
DE69739070D1 (de) * 1996-11-26 2008-12-11 Fanuc Ltd Vorrichtung zur robotersteuerung mit aufgabenrouten-simulationsfunktion
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
FR2770317B1 (fr) * 1997-10-24 2000-12-08 Commissariat Energie Atomique Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
DE19854011A1 (de) * 1998-11-12 2000-05-25 Knoll Alois Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung
FI107182B (fi) * 1998-12-09 2001-06-15 Tamrock Oy Menetelmä asemointivirheiden korjaamiseksi kallionporauksessa ja kallionporauslaitteisto
SE9804450D0 (sv) * 1998-12-17 1998-12-17 Robotkonsult Ab Metod och anordningar för automatisk in-line kalibrering av robot, verktyg och cell
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US20020143507A1 (en) * 2000-07-26 2002-10-03 Hwei-Min Lu 3-D kinematics and tolerance variation analysis
US8135567B2 (en) * 2000-09-29 2012-03-13 Ford Global Technologies, Llc Method of emulating machine tool behavior for programmable logic controller logical verification system
US7203634B2 (en) * 2000-10-30 2007-04-10 Translation Technologies, Inc. Computational geometry system, interrupt interface, and method
JP2004531048A (ja) * 2000-12-15 2004-10-07 サイバーオプティクス コーポレーション 改良されたインタフェースを有する基板整列画像捕捉装置
DE10197043T1 (de) * 2000-12-15 2003-11-13 Cyberoptics Corp Kamera mit verbessertem Illuminator
US6442451B1 (en) * 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
US6430474B1 (en) * 2001-04-03 2002-08-06 Xerox Corporation Tooling adapter for allowing selected manipulation of a workpiece
US20020193972A1 (en) * 2001-06-14 2002-12-19 Ntn Corporation Workshop facility design and operation support system enabling verification of the entire workshop to be performed easily
DE10207228A1 (de) * 2002-02-21 2003-09-04 Bosch Gmbh Robert Verfahren zur Kalibrierung eines Sensors und Schaltungsanordnung zum Betreiben eines Sensors
DE10209141A1 (de) * 2002-03-01 2003-09-18 Siemens Ag Verfahren zur Kalibrierung von parallelkinematisch in einem Bewegungsraum bewegten Maschineneinheiten in Werkzeugmaschinen und Handhabungsgeräten
KR100485348B1 (ko) * 2002-07-09 2005-04-27 삼성전자주식회사 로봇의 캘리브레이션 방법
JP3865703B2 (ja) * 2002-10-25 2007-01-10 ファナック株式会社 物品搬送システム及び搬送方法
DE10302592A1 (de) * 2003-01-22 2004-07-29 Claas Fertigungstechnik Gmbh Verfahren und Vorrichtung zum Betreiben eines Arbeitsroboters
SE524818C2 (sv) * 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
US7698016B2 (en) 2003-02-18 2010-04-13 Tti Acquisition Corporation Feature-based translation system and method
DE102004020004A1 (de) * 2003-04-23 2004-12-16 Vmt Bildverarbeitungssysteme Gmbh Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
US7145300B2 (en) * 2003-05-05 2006-12-05 International Rectifier Corporation Multi-axis AC servo control system and method
JP2005003455A (ja) * 2003-06-10 2005-01-06 Toyobo Co Ltd 実験シミュレーション装置及び実験シミュレーションプログラム
US6836702B1 (en) * 2003-06-11 2004-12-28 Abb Ab Method for fine tuning of a robot program
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP4735795B2 (ja) * 2003-12-26 2011-07-27 独立行政法人 宇宙航空研究開発機構 冗長マニピュレータの制御方法
DE102004010312B8 (de) * 2004-03-03 2009-07-30 Advintec Gmbh Verfahren zum Einmessen eines Arbeitspunktes
JP2006154924A (ja) * 2004-11-25 2006-06-15 Denso Wave Inc 自動化設備システム
US7467614B2 (en) 2004-12-29 2008-12-23 Honeywell International Inc. Pedal position and/or pedal change rate for use in control of an engine
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
CN100398274C (zh) * 2005-07-25 2008-07-02 廊坊智通机器人系统有限公司 基于平板测量的机器人工具中心点三分量校准法
US7389773B2 (en) 2005-08-18 2008-06-24 Honeywell International Inc. Emissions sensors for fuel control in engines
WO2007041253A2 (en) * 2005-09-29 2007-04-12 Honda Motor Co., Ltd. Motor and controller inversion: commanding torque to position-controlled robots
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置
US8467904B2 (en) * 2005-12-22 2013-06-18 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
DE102006016196A1 (de) * 2006-04-06 2007-10-18 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Ermitteln der Übersetzung von Antrieben zur Übertragung einer Anpresskraft
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
US7942868B2 (en) * 2006-06-13 2011-05-17 Intuitive Surgical Operations, Inc. Surgical instrument with parallel motion mechanism
JP2007334678A (ja) * 2006-06-15 2007-12-27 Fanuc Ltd ロボットシミュレーション装置
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP2008100292A (ja) * 2006-10-17 2008-05-01 Toshiba Mach Co Ltd ロボットシステム
DE102006049957A1 (de) * 2006-10-19 2008-04-24 Abb Ag System und Verfahren zur Kalibrierung einer Handhabungsvorrichtung
US8554368B2 (en) * 2007-04-16 2013-10-08 Tim Fielding Frame mapping and force feedback methods, devices and systems
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
US8170287B2 (en) * 2007-10-26 2012-05-01 Honda Motor Co., Ltd. Real-time self collision and obstacle avoidance
WO2009058693A1 (en) * 2007-11-01 2009-05-07 Honda Motors Co., Ltd. Real-time self collision and obstacle avoidance using weighting matrix
DE102008003440A1 (de) * 2008-01-07 2009-07-09 Kuka Roboter Gmbh Verfahren zur Fehlererkennung in einem Steuerungssystem eines medizinischen Behandlungs- und/oder Diagnosegeräts
DE602008000416D1 (de) * 2008-02-13 2010-01-28 Abb As System und Verfahren zur Visualisierung von Verfahrensfehlern
US8204925B2 (en) * 2008-05-22 2012-06-19 National Instruments Corporation Controlling or analyzing a process by solving a system of linear equations in real-time
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8060290B2 (en) * 2008-07-17 2011-11-15 Honeywell International Inc. Configurable automotive controller
US8180487B1 (en) 2008-09-30 2012-05-15 Western Digital Technologies, Inc. Calibrated vision based robotic system
EP2350750B1 (en) * 2008-11-25 2012-10-31 ABB Technology Ltd A method and an apparatus for calibration of an industrial robot system
US8135208B1 (en) 2009-01-15 2012-03-13 Western Digital Technologies, Inc. Calibrated vision based robotic system utilizing upward and downward looking cameras
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8386080B2 (en) * 2009-09-15 2013-02-26 Harris Corporation Robotic apparatus implementing collision avoidance scheme and associated methods
US8620461B2 (en) 2009-09-24 2013-12-31 Honeywell International, Inc. Method and system for updating tuning parameters of a controller
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8504175B2 (en) 2010-06-02 2013-08-06 Honeywell International Inc. Using model predictive control to optimize variable trajectories and system control
DE102010052503B4 (de) * 2010-11-26 2012-06-21 Wenzel Scantec Gmbh Verfahren zur Steuerung eines Koordinatenmessgeräts sowie Koordinatenmessgerät
TWI408037B (zh) * 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法
DE102011079764B3 (de) * 2011-07-25 2012-11-15 Johannes Gottlieb Verfahren und Anordnung zur Kalibrierung einer Kinematik sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US9677493B2 (en) 2011-09-19 2017-06-13 Honeywell Spol, S.R.O. Coordinated engine and emissions control system
US9650934B2 (en) 2011-11-04 2017-05-16 Honeywell spol.s.r.o. Engine and aftertreatment optimization system
US20130111905A1 (en) 2011-11-04 2013-05-09 Honeywell Spol. S.R.O. Integrated optimization and control of an engine and aftertreatment system
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
US8963552B2 (en) 2012-04-26 2015-02-24 3M Innovative Properties Company Electrostatic discharge event detector
CN103376080B (zh) * 2012-04-27 2016-09-07 上海西门子燃气轮机部件有限公司 一种用于校准机器人工作单元的方法
EP2864082B1 (en) 2012-06-26 2018-11-07 ABB Schweiz AG Adjusting parameters of a dynamical robot model
JP2014024162A (ja) * 2012-07-27 2014-02-06 Seiko Epson Corp ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN102806560B (zh) * 2012-08-24 2014-08-06 电子科技大学 一种可自动消除机器人运动累积误差的方法
CN102896631A (zh) * 2012-10-09 2013-01-30 温州大学 实时/在线方位调整装置和方法
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US9333649B1 (en) 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
JP5678979B2 (ja) * 2013-03-15 2015-03-04 株式会社安川電機 ロボットシステム、校正方法及び被加工物の製造方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
WO2015079740A1 (ja) * 2013-11-28 2015-06-04 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
US9778650B2 (en) * 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
CN103743318B (zh) * 2013-12-30 2017-08-25 深圳市华星光电技术有限公司 探针膜厚测量机坐标补正方法及装置
FI20145372A (fi) * 2014-04-22 2015-10-23 Lappeenrannan Teknillinen Yliopisto Menetelmä ja järjestelmä robotin kalibrointiin soveltuvan datan tuottamiseksi
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
CN104290102B (zh) * 2014-10-16 2016-06-08 苏州镭络视觉技术有限公司 一种快速定位补偿方法
EP3051367B1 (en) 2015-01-28 2020-11-25 Honeywell spol s.r.o. An approach and system for handling constraints for measured disturbances with uncertain preview
EP3056706A1 (en) 2015-02-16 2016-08-17 Honeywell International Inc. An approach for aftertreatment system modeling and model identification
US9836069B1 (en) * 2015-03-31 2017-12-05 Google Inc. Devices and methods for protecting unattended children in the home
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
EP3091212A1 (en) 2015-05-06 2016-11-09 Honeywell International Inc. An identification approach for internal combustion engine mean value models
GB201509341D0 (en) 2015-05-29 2015-07-15 Cambridge Medical Robotics Ltd Characterising robot environments
US9505128B1 (en) 2015-06-24 2016-11-29 Boris Kesil Method of teaching robotic station for processing objects
EP3125052B1 (en) 2015-07-31 2020-09-02 Garrett Transportation I Inc. Quadratic program solver for mpc using variable ordering
US10272779B2 (en) 2015-08-05 2019-04-30 Garrett Transportation I Inc. System and approach for dynamic vehicle speed optimization
FI20155745A (fi) * 2015-10-20 2017-04-21 Lappeenrannan Teknillinen Yliopisto Menetelmä ja järjestelmä robotin kalibrointiin soveltuvan datan tuottamiseksi
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
CN106956258B (zh) * 2016-01-08 2020-06-30 上银科技股份有限公司 使用机械手臂进行阵列取放的路径规划方法和补偿器
US10415492B2 (en) 2016-01-29 2019-09-17 Garrett Transportation I Inc. Engine system with inferential sensor
US9633686B1 (en) 2016-02-17 2017-04-25 International Business Machines Corporation Disc storage cassettes
US10124750B2 (en) 2016-04-26 2018-11-13 Honeywell International Inc. Vehicle security module system
US10036338B2 (en) 2016-04-26 2018-07-31 Honeywell International Inc. Condition-based powertrain control system
CN106142082B (zh) * 2016-06-23 2018-07-10 苏州穿山甲机器人股份有限公司 机器人调整路径偏移的定位导航方法
CN106420350B (zh) * 2016-10-31 2019-01-11 成都杰仕德科技有限公司 一种用于自动配药系统的位置补偿装置和方法
US11285609B2 (en) * 2016-11-17 2022-03-29 Fuji Corporation Working position correcting method and working robot
US11199120B2 (en) 2016-11-29 2021-12-14 Garrett Transportation I, Inc. Inferential flow sensor
JP6512456B2 (ja) * 2016-12-27 2019-05-15 トヨタ自動車株式会社 水平多関節型ロボット用の校正治具および校正方法
JP6834765B2 (ja) 2017-05-16 2021-02-24 株式会社リコー インクジェットプリンタ、及び三次元プリント方法
DE112018003523T5 (de) * 2017-08-08 2020-04-09 Panasonic Intellectual Property Management Co., Ltd. Verfahren zur übertragung von informationen in einer steuereinheit und verfahren zur erkennung von fehlern in einem codierer
US11226390B2 (en) * 2017-08-28 2022-01-18 Teradyne, Inc. Calibration process for an automated test system
TWI645274B (zh) * 2017-09-12 2018-12-21 國立臺灣科技大學 工件加工方法及其加工系統
US11057213B2 (en) 2017-10-13 2021-07-06 Garrett Transportation I, Inc. Authentication system for electronic control unit on a bus
CN108127668B (zh) * 2017-12-19 2020-05-08 合肥欣奕华智能机器有限公司 一种机器人的示教方法、机器人的示教装置及机器人系统
CN108297064B (zh) * 2018-04-27 2020-09-25 江苏卓燃工程咨询有限公司 一种盒体取放机械手
CN110456729B (zh) * 2018-05-07 2021-09-28 苏州睿牛机器人技术有限公司 一种轨迹跟踪控制方法及轨迹跟踪系统
US11084169B2 (en) 2018-05-23 2021-08-10 General Electric Company System and method for controlling a robotic arm
CN108817740B (zh) * 2018-06-11 2020-06-19 华南理工大学 一种基于结构光视觉的大转折焊缝轨迹离线校准方法
US10589423B2 (en) * 2018-06-18 2020-03-17 Shambhu Nath Roy Robot vision super visor for hybrid homing, positioning and workspace UFO detection enabling industrial robot use for consumer applications
JP6904927B2 (ja) * 2018-07-30 2021-07-21 ファナック株式会社 ロボットシステムおよびキャリブレーション方法
EP3605249A1 (de) 2018-08-02 2020-02-05 Siemens Aktiengesellschaft Verfahren zur synchronisierung, verfahren zum betreiben einer industriellen anlage, vorrichtung, computerprogrammprodukt und computerlesbares medium
US11002529B2 (en) * 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10529371B1 (en) 2018-10-29 2020-01-07 International Business Machines Corporation Actuator tip calibration for robotic optical storage system
US10600441B1 (en) 2018-12-07 2020-03-24 International Business Machines Corporation Disc gripper for storage discs
DE102018133472B3 (de) * 2018-12-21 2020-03-12 Franka Emika Gmbh Bewegungsüberwachung eines Robotermanipulators
JP7000361B2 (ja) * 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
US10456915B1 (en) * 2019-01-25 2019-10-29 Mujin, Inc. Robotic system with enhanced scanning mechanism
US10870204B2 (en) 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
CN113597362B (zh) * 2019-03-25 2024-05-24 Abb瑞士股份有限公司 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置
CN112233208B (zh) * 2019-06-28 2023-07-25 百度在线网络技术(北京)有限公司 机器人状态处理方法、装置、计算设备和存储介质
CN112109073B (zh) * 2019-08-30 2022-10-04 上汽通用五菱汽车股份有限公司 一种机器人离线程序的修正装置及方法
JP7120512B2 (ja) * 2019-11-22 2022-08-17 Smc株式会社 軌跡制御装置
US11584004B2 (en) 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
CN111070209B (zh) * 2019-12-27 2022-04-15 深圳市越疆科技有限公司 轴精度测量方法及装置、工业机器人
TWI754888B (zh) * 2020-01-21 2022-02-11 財團法人工業技術研究院 校準方法及校準系統
EP4094130A4 (en) * 2020-01-22 2023-10-18 Abb Schweiz Ag METHOD AND ELECTRONIC DEVICE, SYSTEM AND COMPUTER READABLE MEDIUM FOR CALIBRATION
WO2021199305A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 制御装置、制御システム、制御方法、および、制御プログラムが記録された記録媒体
JP2021178400A (ja) * 2020-05-12 2021-11-18 ソレマルテック エス.エー. 作業デバイス
US20220009102A1 (en) * 2020-07-10 2022-01-13 Divergent Technologies, Inc. Robotic assembly cell
CN111881836A (zh) * 2020-07-29 2020-11-03 上海商汤临港智能科技有限公司 目标对象识别方法及相关装置、设备
CN113220023B (zh) * 2021-04-28 2022-10-14 中国科学院重庆绿色智能技术研究院 一种高精度无人机实时路径规划方法
US12030184B2 (en) * 2021-06-09 2024-07-09 eBots Inc. System and method for error correction and compensation for 3D eye-to-hand coordination
CN113547519B (zh) * 2021-06-25 2022-12-13 北京精密机电控制设备研究所 一种基于变维缩放的机械臂逆运动学求解方法
WO2023035228A1 (en) * 2021-09-10 2023-03-16 Abb Schweiz Ag Method and apparatus for tool management in robot system
CN117123520A (zh) * 2023-02-06 2023-11-28 荣耀终端有限公司 实现对目标工件擦胶的方法及擦胶设备
CN116673966B (zh) * 2023-08-02 2023-10-03 北京迁移科技有限公司 用于机器人的关节角度生成方法及机器人系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61240304A (ja) * 1985-04-17 1986-10-25 Hitachi Ltd 産業用ロボツトのエンド・エフエクタ取付け誤差演算装置
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4362977A (en) * 1980-06-30 1982-12-07 International Business Machines Corporation Method and apparatus for calibrating a robot to compensate for inaccuracy of the robot
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
JPS58177289A (ja) * 1982-04-12 1983-10-17 株式会社三協精機製作所 工業用ロボツトの動作制御装置
DE3244307A1 (de) * 1982-11-30 1984-05-30 Siemens AG, 1000 Berlin und 8000 München Robotersteuerung
US4670849A (en) * 1983-03-31 1987-06-02 Hitachi, Ltd. Position error correcting method and apparatus for industrial robot
JPS59189415A (ja) * 1983-04-13 1984-10-27 Hitachi Ltd 工業用ロボツトの動作教示方法および装置
US4562391A (en) * 1983-06-08 1985-12-31 Inoue-Japax Research Incorporated Robotic positioning system
US4590578A (en) * 1983-07-11 1986-05-20 United Technologies Corporation Off-line programmable robot
SE8304100L (sv) * 1983-07-22 1985-01-23 Ibm Svenska Ab System for automatisk kalibrering av rymdkoordinaterna hos en robotgripper i sex frihetsgrader
SE8400287D0 (sv) * 1984-01-20 1984-01-20 Grundstenen 17356 Ab Anordning/metod for kalibrering av monteringsmaskiner mm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61240304A (ja) * 1985-04-17 1986-10-25 Hitachi Ltd 産業用ロボツトのエンド・エフエクタ取付け誤差演算装置
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995008143A1 (fr) * 1993-09-14 1995-03-23 Tomoyuki Terada Procede de correction de programmes d'apprentissage pour robots
US5572103A (en) * 1993-09-14 1996-11-05 Fanuc, Ltd. Robot teaching program correction method
JP2006507571A (ja) * 2002-10-15 2006-03-02 ブリガム ヤング ユニバーシティ ツール運動の直接制御のために複雑なn曲線を描写するためのシステムおよび方法
JP2011167828A (ja) * 2010-02-22 2011-09-01 Sinfonia Technology Co Ltd 搬送装置
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2015066603A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
JPWO2019234814A1 (ja) * 2018-06-05 2021-02-12 株式会社日立製作所 カメラ位置姿勢校正装置、カメラ位置姿勢校正方法並びにロボット
US11865730B2 (en) 2018-06-05 2024-01-09 Hitachi, Ltd. Camera position/attitude calibration device, camera position/attitude calibration method, and robot

Also Published As

Publication number Publication date
EP0301527A3 (en) 1989-04-12
EP0301527A2 (en) 1989-02-01
KR890001700A (ko) 1989-03-28
CN1024955C (zh) 1994-06-08
CN1033590A (zh) 1989-07-05
JPH08377B2 (ja) 1996-01-10
CA1331795C (en) 1994-08-30
US4831549A (en) 1989-05-16

Similar Documents

Publication Publication Date Title
JPH01159186A (ja) ロボット不正確度修正方法
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
US5297238A (en) Robot end-effector terminal control frame (TCF) calibration method and device
Kosmopoulos Robust Jacobian matrix estimation for image-based visual servoing
Wilson et al. Relative end-effector control using cartesian position based visual servoing
Wijesoma et al. Eye-to-hand coordination for vision-guided robot control applications
US4698572A (en) Kinematic parameter identification for robotic manipulators
Shamma et al. A method for inverse robot calibration
CN106777656B (zh) 一种基于pmpsd的工业机器人绝对精度校准方法
Abderrahim et al. Kinematic model identification of industrial manipulators
WO1995008143A1 (fr) Procede de correction de programmes d'apprentissage pour robots
CN112318498B (zh) 一种考虑参数耦合的工业机器人标定方法
CN112123341B (zh) 机器人双臂协调运动控制方法、装置和电子设备
Lippiello et al. A position-based visual impedance control for robot manipulators
Foulloy et al. Improving the precision of a robot
JP2024512827A (ja) 適応コンプライアンスに基づいたロボット組立のためのシステムおよび方法
CN116652939A (zh) 一种并联机器人无标定视觉伺服柔顺控制方法
JPH0768480A (ja) マニピュレータの関節角度制御方法
Mishani et al. Real-time non-visual shape estimation and robotic dual-arm manipulation control of an elastic wire
Lange et al. Learning accurate path control of industrial robots with joint elasticity
Behera et al. A hybrid neural control scheme for visual-motor coordination
Lippiello et al. Robot interaction control using force and vision
Li et al. Cooperative robotic soldering of flexible PCBs
Wei et al. Multisensory visual servoing by a neural network
Nelson et al. Integrating force and vision feedback within virtual environments for telerobotic systems