JP3904605B2 - 複合センサーロボットシステム - Google Patents

複合センサーロボットシステム Download PDF

Info

Publication number
JP3904605B2
JP3904605B2 JP52417597A JP52417597A JP3904605B2 JP 3904605 B2 JP3904605 B2 JP 3904605B2 JP 52417597 A JP52417597 A JP 52417597A JP 52417597 A JP52417597 A JP 52417597A JP 3904605 B2 JP3904605 B2 JP 3904605B2
Authority
JP
Japan
Prior art keywords
sensor
robot
image
approach
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP52417597A
Other languages
English (en)
Inventor
隆 十文字
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Application granted granted Critical
Publication of JP3904605B2 publication Critical patent/JP3904605B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36427Jog feed to a command position, if close enough robot takes over positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45123Electrogoniometer, neuronavigator, medical robot used by surgeon to operate

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

技術分野
本発明は、種々のファクトリオートメーションに適用可能な複合センサ−ロボットシステムに関し、更に詳しく言えば、2次元画像を取得するセンサと3次元センサを用いたセンサを装備した複合センサをロボットと結合した複合センサ−ロボットシステムに関する。
背景技術
製造ラインにおける組み立て作業、加工作業等においては、各種のセンサを用いて種々の対象物の位置や形状を検出することが頻繁に行なわれる。通常、対象物の位置を大局的に計測するには2次元画像を取得出来るセンサ(例えば、CCDカメラを用いた視覚センサ)が有効である。これに対して、局所的な位置や形状を計測するにはレーザセンサが有効である。
特に、レーザセンサはロボットの手先部に搭載が容易であり、レーザセンサの出力をロボットコントローラに取り入れるようにした場合、至近距離から対象物へレーザビームを投射して対象物の細部の位置、形状等を精密且つリアルタイムに計測し、これをロボットの位置補正等の制御に用いることが出来るという特徴を有している。
そのため、レーザセンサを装備したロボットシステムは、例えば、アーク溶接ロボット、シーリングロボット、計測ロボットなどの分野で広く利用されている。
レーザセンサは、レーザ光をスポット光ビームで走査するものと、スリット光を投射するものとがある。いずれの型のレーザセンサを用いた場合も、スポット光ビームあるいはスリット光を対象物面上に確実に投射しなければならない。対象物がある程度の精度で一定位置に位置決めされていれば、該一定位置の近傍位置をロボットにアプローチ位置として予め教示しておくことで、スポット光ビームあるいはスリット光を対象物面上に投射される状態を迅速に現出することは容易である。
しかし、アプリケーションによっては、対象物の位置決めが行なわれない場合や位置決めの精度に信頼性がない場合も少なくない。そのような場合には、ロボットを適当な教示経路に沿って移動させながらレーザセンサのスポット光ビームあるいはスリット光をプローブに用いて対象物をサーチし、対象物を発見しなければ、レーザセンサによるメインの計測(例えば、形状測定)を開始することが出来ない。
レーザセンサは元来広範囲の測定には不向きであるから、対象物サーチとそれに続く対象物へのアプローチ動作に時間を要し、場合によっては、対象物を確実にサーチすること自体が困難な場合もあり得る。また、対象物の発見に成功しても、ロボットの位置補正などに直ちに役立てることが出来ない場合もある。例えば、対象物の姿勢に応じて特定される位置や方向(例;溶接線の開始点の位置と延在方向)を、姿勢が未知な対象物について得られるレーザセンサの出力から直ちに判定することは、必ずしも容易ではない。
発明の開示
本発明の一つの目的は、対象物の位置や姿勢が未知であっても、ロボットを迅速に対象物にアプローチさせ、レーザセンサなどの3次元位置測定能力を有するセンサによる対象物の計測を開始出来るようにした複合センサ−ロボットシステムを提供することにある。
本発明のもう一つの目的は、そのことを通してロボットを用いた各種作業の信頼性向上とサイクルタイム短縮にある。
本発明に従えば、ロボットのアーム先端部に装着され、前記ロボットの作業範囲内を移動可能とし、相対的に広範囲の領域内の2次元画像を取得する能力を有する第1のセンサ手段及び、前記ロボットのアーム先端部に装着され、相対的に狭範囲の領域に光を投射して3次元的な位置測定を行なう能力を有する第2のセンサ手段とを装備した複合センサと、前記ロボットとを結合した複合センサ−ロボットシステムが提供される。
本複合センサ−ロボットシステムは、第1のセンサ手段のための動作指令を出力する手段と、第2のセンサ手段のための動作指令を出力する手段と、第1のセンサ手段により取得された画像信号を処理する手段と、第2のセンサ手段の計測出力信号を処理する手段と、ロボットを制御するためのロボット制御手段を備えている。
ここで、第1のセンサ手段にはカメラを用いた視覚センサが用いられ、第2のセンサ手段にはレーザスポット光またはレーザスリット光を用いたレーザセンサが用いられる。また、視覚センサのカメラはレーザセンサの受光部と共用される。
そして、第1のセンサ手段によって取得された画像信号の処理には、相対的に広範囲の領域の中で計測対象物の位置を特定するための処理が含まれており、ロボット制御手段は、計測対象物の特定された位置に基づいて、ロボットに計測対象物に対するアプローチ動作を行なわせる手段を備えている。一方、第2のセンサ手段の計測出力信号の処理には、前記第2のセンサ手段が前記アプローチ動作によってアプローチ位置に移動した後に出力される計測出力信号の処理が含まれている。
なお、第1のセンサ手段により取得された画像信号を処理する手段と前記第2のセンサ手段の計測出力信号を処理する手段は、両センサ手段のために共用される画像処理装置を用いることができる
また、相対的に広範囲の領域の中でレーザセンサによる計測対象物の位置を特定するための処理には、計測対象物の基準位置からのずれ量を求める処理が含まれ、
ロボットのアプローチ位置は、予め教示された被教示アプローチ位置を求められたずれ量に応じて補正した位置として決定されることが好ましい。
本発明の一つの変形された形態に従えば、複合センサ−ロボットシステムは、第1のセンサ手段によって取得された2次元画像を表示する画像表示手段と、画像表示手段によって表示された2次元画像上でアプローチ位置を入力するための手段を更に含んでいる。この形態においては、オペレータが画像表示手段によって表示された2次元画像上でアプローチ位置を指示することが可能になる。
本発明の一つの特徴に従えば、比較的広い範囲から計測対象物をサーチして存在位置や姿勢を検出する能力に乏しい型の第2のセンサ(例えばレーザセンサ)の欠点を、2次元画像を取得する第1のセンサ(例えばCCDカメラを用いた2次元視覚センサ)の能力で補った複合センサがロボットと組み合わせられている。
それ故、詳しい位置や姿勢が未知の計測対象物についても、第2のセンサによる局所的な測定を開始するまでの時間が短縮される。また、第1のセンサ手段により取得された画像信号の処理手段と第2のセンサ手段の計測出力信号の処理手段を兼ねる画像処理装置を用いたり、第1のセンサと第2のセンサで一部要素を共用すれば、ハードウェア構成要素の点数とコストを低く抑えることが出来る。
【図面の簡単な説明】
図1は、本発明の実施形態の説明のために参照される参考例に係る複合センサ−ロボットシステムの全体配置の概要とそれを用いた計測の事例を説明する図;
図2は、参考例で使用されているレーザセンサの概略構成を示した図;
図3は、図2に示したレーザセンサによりスポットビーム反射点の3次元位置を測定する方法を説明する図;
図4は、参考例で使用される画像処理装置及び実施形態で使用される画像処理装置の内部構成、並びに関連要素との接続関係を表わす要部ブロック図;
図5は、図1に示した配置で実行される段差分布計測の際にロボットコントローラ内部で実行される処理の概要を記したフローチャート;
図6は、図1に示した配置で実行される段差分布計測の際に画像処理装置の内部で実行される処理の概要を記したフローチャート;
図7は、本発明の実施形態に係る複合センサ−ロボットシステムの全体配置の概要とそれを用いた計測の事例を説明する図;
図8は、スリット光投射型レーザセンサの構造並びに計測原理を説明する図;
図9は、図7に示した配置で実行される段差分布計測の際にロボットコントローラ内部で実行される処理の概要を記したフローチャート;
図10は、図7に示した配置で実行される段差分布計測の際に画像処理装置の内部で実行される処理の概要を記したフローチャート;
図11は、画像上のジョグ送りをロボットのアプローチ動作に取り入れることの説明で参昭される複合センサ−ロボットシステムの全体配置の概要とそれを用いた計測の事例を示した図;そして、
図12は、図11に示した配置で実行される段差分布計測の際にロボットコントローラ内部で実行されるアプローチ動作のための処理の概要を記したフローチャートである。
発明を実施するための最良の形態
説明の便宜上、実施形態の説明と併せての参考例についても述べる。図1は、参考例に係る複合センサ−ロボットシステムの全体配置の概要とそれを用いた計測の事例を説明する図である。システムは、一例として、ワークの段差測定のアプリケーションに適用されている。複合センサに含まれる広域用センサが比較的広い範囲内の不確定な位置に不確定な姿勢で供給されるワークを検出し、ロボットによるアプローチ動作後に、同じく複合センサに含まれる狭域用センサが段差分布の計測を行なう。
同図に示したように、システム全体は、ロボットコントローラ1、画像処理装置2、レーザセンサ(本体部。以下、同様)10、レーザセンサ制御部20、CCDカメラ30並びにロボット40から構成されている。レーザセンサ10は、ロボット40の手先部(ツール先端点TCPの近傍)に搭載されているが、CCDカメラ30は外部に設置される。
画像処理装置2とともに広域用センサ(第1のセンサ手段)を構成するCCDカメラ30は、その視野31がワークWの供給領域50、即ちワーク供給がなされ得る領域を余裕を以てカバーするように配置される。
狭域用センサ(第2のセンサ手段)として採用されているレーザセンサ10は、周知のスポット光投射型あるいはスリット光投射型いずれであっても良いが、ここでは前者を採用したケースについて述べる。
レーザビーム投射部13からは、ロボットの位置に応じて走査レーザビームLB1,LB2,LB3等が投射され、反射光が光検出部14で受光される。カメラ30の視野は十分大きく設定されている一方、レーザセンサ10によるレーザビームLB1,LB2,LB3の走査範囲(計測範囲)は、カメラ30の視野31で捉えられる範囲と比較して格段に狭い。
レーザセンサ10は、レーザセンサ制御部20を介して画像処理装置2に接続されている。CCDカメラ30も、画像処理装置2に接続されている。このように、画像処理装置2は、レーザセンサ(本体部10と制御部20)とCCDカメラ30で共用される。
CCDカメラ30は、ワークWの供給時に撮影を行う撮影により取得された2次元画像は画像処理装置2に送られる。画像処理装置2は、画像を解析し、ワークWの位置と姿勢を検出する。その検出結果に基づいて、ロボットコントローラ1はロボット40をワークWにアプローチさせる。
図1において、位置1はアプローチ開始位置であり、位置2はアプローチ位置である。アプローチ位置2は、ワークWにレーザビームLB2を投射して段差計測を開始するに適した位置であり、ワークWの供給位置に応じて定められる。
実際の作業における個々のワークWの供給位置は、供給領域50内でばらつき得る。本実施形態においては、適当な基準位置にワークWがある場合の最適のアプローチ位置(被教示アプローチ位置)が予めロボットに教示される。実際の作業時に供給される個々のワークについて、CCDカメラ30と画像処理装置2によって基準位置(姿勢を含む)からのずれが検出され、そのずれを補償するシフト(位置・姿勢補正)を被教示アプローチ位置に対して与える計算をロボットコントローラ1内で行なうことでアプローチ位置2が求められる。
アプローチを完了したロボット40は、位置2から位置3(計測終了位置)へ向けて移動しながら段差dを継続的に計測する。位置2から始まる経路区間の終点である位置3についても、上記基準位置にワークWがある場合の位置が予めロボットに教示される。そして、実際の作業時には、検出されたワークWの基準位置からのずれを補償するシフト(位置・姿勢補正)を教示された計測終了位置に対して与えた位置が位置3として、ロボットコントローラ1内で計算される。
スポット光投射型レーザセンサの構造並びに計測原理は良く知られている通りであるが、図2を用いて概略の説明を行なっておく。レーザセンサ(本体部)10の投射部13はレーザ発振器11とレーザビーム走査用の揺動ミラー(ガルバノメータ)12を備え、光検出部14は、受光素子14aと結像用の光学系14bを備えている。
一方、レーザセンサ制御部20は、揺動ミラー12を揺動させるミラー駆動部21、レーザ発振器11を駆動しレーザビームを発生させるレーザ駆動部22、受光素子14aで受光した位置から、位置を検出する信号検出部23が接続されている。これらミラー駆動部21、レーザ駆動部22、信号検出部23は、回線24を介して画像処理装置2のレーザセンサインターフェイス(後述)に接続されている。
回線24を介して画像処理装置2からレーザセンサの動作指令を受けると、レーザ駆動部22はレーザ発振器11を駆動し、レーザビームLBを発生させる。これと並行して、ミラー駆動部21により揺動ミラー12の揺動が開始される。これにより、レーザ発振器11から発生するレーザビームが対象物面上で走査される。
対象物面上の反射点Sで拡散反射されたレーザビームは、光学系14bにより反射点Sの位置に応じて受光素子14a上に像を作る。該受光素子14aには、CCD、PSD(Position Sensitive Detector)などが使用出来る。
ここでは、受光素子14aとして1次元CCDアレイが使用されている。受光素子14aの受光面に当たった光(反射光の像)は光電子に変換され、そのセルに蓄えられる。セルに蓄積された電荷は、信号検出部23からのCCD走査信号に従って所定周期毎1番端から順に出力され、信号検出部23、回線24を介して画像処理装置2へ送られる。
CCDの走査周期は、搖揺動ミラー12の走査周期よりも十分短く設定(例えば、数100分の1)されており、搖動ミラー12の搖動角度の推移とCCD素子出力状態の推移は、随時把握可能となっている。CCD素子出力状態は、出力最大のセル位置(セル番号)で把握され、反射光の当たったセル位置が検出される。この位置により、レーザビームLBの反射点Sの位置が算出される。これら位置検出のためのソフトウェア処理は、画像処理装置2内で行なわれる。
図3は、受光素子14aで検出した位置xaに基づき、センサからの反射点Sの座標位置(X,Y)を求める方法を説明する図である。光学系14bの中心と受光素子14aの中央点とを結ぶ線上にセンサ原点(0,0)があるとする。この線をY軸、このY軸に直交する軸をX軸とする。
そして、原点から光学系の中心までの距離をL1とし、光学系の中心から受光素子14bの中央点までの距離をL2、センサ原点からX軸方向への揺動ミラー12の揺動中心までの距離をD、センサ原点から揺動ミラー12の揺動中心までのY軸距離をL0、揺動ミラー12によるレーザビームの反射光のY軸方向に対する角度をθ、受光素子14aの受光面上の受光位置をxaとする。
レーザビームLBが対象物に当たり反射した点Sの座標位置(X,Y)は次の各式で与えられる。
X=xa・[(L1−L0)・tanθ+D]/(xa+L2・tanθ) ・・・(1)
Y=[L1・xa+L2・(L0・tanθ−D)]/(xa+L2・tanθ) ・・・(2)
次に、画像処理装置2のハードウェア構成並びに関連要素との接続関係を要部ブロック図で示した図4を参照し、画像処理装置2について更に説明する。同図に示したように、像処理装置2は、CPU(中央演算処理装置)201を備え、CPU201には、レーザセンサインターフェイス202、カメラインターフェイス203、画像メモリ204、プログラムメモリ205、画像処理プロセッサ206、データメモリ207、モニタインターフェイス208、コンソールインターフェイス209がバスBSを介して接続されている。
レーザセンサインターフェイス202は、レーザセンサ本体部10に接続されたレーザセンサ制御部20のための入出力装置として機能し、前述した態様でミラー駆動部21、レーザ駆動部22を介してレーザセンサ10の動作を制御する。信号検出部23を介して送られて来る検出信号をAD変換し、データメモリ207に蓄積する。データメモリ207に蓄積されたデータは、プログラムメモリ205に格納されている段差計算プログラムの起動時に使用される。なお、破線で接続が指示されているスリット光投光部131は、スリット光投射型のレーザセンサを採用したケースで使用されるもので、後述する実施形態で詳しく言及される。
カメラインターフェイス203は、CCDカメラ30のための入出力装置として機能し、CPU201からの撮影指令を受けるとCCDカメラ30に撮影信号を送り、撮影により取得された画像をグレイスケールに変換し、画像メモリ204に格納する。格納された画像は、プログラムメモリ205に格納されている位置検出プログラムの起動時に読み出され、画像処理プロセッサ206による画像解析に利用される。本実施形態では、画像処理プロセッサ206を用いた画像解析により、ワークWの2つの特徴点P,Qの位置が検出される。
モニタインターフェイス208はTVモニタに接続されている。CPU201からのモニタ画像表示指令を受けると、TVモニタ画面上にCCDカメラ30で得られる現在画像あるいは画像メモリ204に蓄積された画像が適宜表示される。
コンソールインターフェイス209に接続されたコンソール211は、マニュアル入力で画像処理装置2の諸動作のための指令をCPU201から出力させるために使用され、各種プログラムや設定パラメータの登録、編集、起動等を行えるようになっている。そして、通信インターフェイス210は、ロボットコントローラ1との指令やデータの授受に使われるものである。ロボットコントローラ1については、CPU,ROM,RAM,軸制御器、サーボ回路、通信インターフェイス等を備えた通常のものが使用されるので、ここでは内部構成と機能の説明は省略する。
以下、図1に示した配置で実行されるワークWの段差分布計測の際に、ロボットコントローラ1内及び画像処理装置2内で行なわれる処理の概略を図5(ロボットコントローラ1の内部処理)及び図6(画像処理装置2の内部処理)のフローチャートを参照して説明する。なお、レーザセンサ10、CCDカメラ30のキャリブレーションは完了しており、前述したワークWの基準位置の画像データ、アプローチ開始位置(位置1)、教示アプローチ位置、教示計測終了点の位置は、ロボットコントローラ1に教示済みであるものとする。
先ず、ロボットコントローラ1側で、位置1(アプローチ開始位置)への移動命令を記述した動作プログラムの1ブロックを読み出し(ステップR1)、通常の処理を行ない、位置1へロボット40を移動させる(ステップR2)。運動形式は、各軸移動または直線移動とする。
位置1への移動が完了したら、画像処理装置2へワーク位置検出指令を送り(ステップR3)、ワークWの位置(ここではP,Qの位置)の検出結果の受信待ち態勢に入る(ステップR4)。検出結果を表わすセンサデータを受信したら、ワークWの基準位置からのずれをロボット座標系上で表わすデータを計算して、必要なロボット補正量を計算する(ステップR5)。ロボット補正量のデータは例えば、PからQに向うベクトルを考え、ベクトルPQ及びPの基準位置からのずれを表わす4×4同次変換行列のデータとして計算することが出来る。
次いで、位置2(アプローチ位置)への移動命令を記述した1ブロックが読み出され(ステップR6)、アプローチ位置2へロボット40を移動させる(ステップR7)。ここで、アプローチ位置2は教示されたアプローチ位置をワークWについて求められたロボット位置補正量だけシフトさせた位置である。アプローチ動作時の運動形式は、各軸移動または直線移動とする。
アプローチ動作が完了したら、画像処理装置2へレーザセンサ起動指令を送る(ステップR8)。そして、位置3(計測終了位置)への移動命令を記述した1ブロックを読み出し(ステップR9)、位置3へロボット40を移動させる(ステップR10)。ここで、位置3は教示された計測終了位置を上記ロボット位置補正量だけシフトさせた位置である。計測時の連動形式は、段差の延在方向に沿った直線移動とする。位置3への移動が完了したら画像処理装置2へレーザセンサ消勢指令を送り(ステップR11)、処理を終了する。
一方、画像処理装置2側では、先ず、ロボットコントローラ1からのワーク位置検出指令を受信する態勢に入る(ステップS1)。ワーク位置検出指令を受信したらCCDカメラ30に撮影指令を出力し(ステップS2)、視野31内にワークWを捉えた画像を画像処理装置2に取り込み、画像メモリ204に格納する(ステップS3)。次いで、プログラムメモリ205に格納されている位置検出プログラムを起動させ、格納された画像データを読み出して画像処理プロセッサ206による画像解析を行ない、ワークWの2つの特徴点P,Qの位置を検出する(ステップS4)。
検出結果を直ちにロボットコントローラ1へ送り(ステップS5)、ロボットコントローラ1からのレーザセンサ起動指令を受信する態勢に入る(ステップS6)。レーザセンサ起動指令を受信したらレーザセンサ制御部20にレーザセンサ10の起動指令を送り、段差の計測を開始して、計測結果の蓄積を開始する(ステップS7)。段差の計測結果の蓄積は、例えば、全計測データまたはこれを適当に設定されたサンプリング周期でサンプリングしたものをデータメモリ207に書き込む形式で行なわれる。
レーザセンサ10による計測は、ロボット40が計測終了位置3に到達した直後にレーザセンサ消勢指令を受信するまで続行される(ステップS8)。ロボットコントローラ1からレーザセンサ消勢指令を受信したら、レーザセンサ制御部20にレーザセンサ10の消勢指令を送り、段差の計測を終了させ、計測結果の蓄積を終わらせる(ステップS9)。以上で、画像処理装置2の内部で行なわれる処理を終える。
次に、図7は、本発明の実施形態に係る複合センサ−ロボットシステムの全体配置の概要とそれを用いた計測の事例を説明する図である。図7に示した配図1に示した配置(参考例の相違は次の2点ある。
(1)レーザセンサとして、スリット光投射型を採用した点。
(2)カメラをレーザセンサとともにロボット手先部に搭載した点。
(3)そのカメラを広域センサとして使用するだけでなく、レーザセンサ(狭域センサ)の受光部としても用いた点。
本実施形態においても、システムはワークの段差測定のアプリケーションに適用され、広域用センサが比較的広い範囲内の不確定な位置に不確定な姿勢で供給されるワークを検出し、ロボットによるアプローチ動作後に、同じく複合センサに含まれる狭域用センサが段差分布の計測を行なう。
図7に示したように、システム全体は、ロボットコントローラ1、画像処理装置2、スリット光投光部131、レーザセンサ制御部20、CCDカメラ30並びにロボット40から構成されている。スリット光投光部101及びカメラ30は、ロボット40の手先部(ツール先端点TCPの近傍)に搭載され、スリット光投射型のレーザセンサ101を構成している。
即ち、上記相違点(3)で述べたように、カメラ30は広域センサとして使用されるだけでなく、スリット光投射型のレーザセンサ(狭域センサ)101の受光部としても用いられる。
画像処理装置2とともに広域用センサ(第1のセンサ手段)として使用される際には、カメラ30は、ロボット40によってその視野31がワークWの供給領域50をカバーする適当な位置に自動的あるいはマニュアル操作で位置決めされる。
スリット光投光部131からレーザスリット光SB1,SB2,SB3等が投射され、ワークW上に形成される輝線像がカメラ30で撮影される。
カメラ30の視野は十分大きく設定されている一方、スリット光SB1,SB2,LB3等の投光範囲(計測範囲)は、カメラ30を広域センサとして使用した時の視野31と比較して格段に狭い。
レーザセンサ101のスリット光投光部131は、レーザセンサ制御部20を介して画像処理装置2に接続されている。CCDカメラ30も、画像処理装置2に接続されている。
CCDカメラ30は、ワークWの供給時に広域センサとして先ず使用され、比較的遠方(アプローチ前位置)からワークWの供撮影を行う。撮影により取得された2次元画像は画像処理装置2に送られる。画像処理装置2は、画像を解析し、ワークWの位置と姿勢を検出する。その検出結果に基づいて、ロボットコントローラ1はロボット40をワークWにアプローチさせる。
図7において、位置1はアプローチ開始位置であり、位置2はアプローチ位置である。アプローチ位置2は、ワークWにスリット光SB2を投射して段差計測を開始するに適した位置であり、ワークWの供給位置に応じて定められる。
実際の作業における個々のワークWの供給位置は、供給領域50内でばらつき得る。適当な基準位置にワークWがある場合の最適のアプローチ位置(被教示アプローチ位置)が予めロボットに教示される。実際の作業時に供給される個々のワークについて、CCDカメラ30と画像処理装置2によって基準位置(姿勢を含む)からのずれが検出され、そのずれを補償するシフト(位置・姿勢補正)を被教示アプローチ位置に対して与える計算をロボットコントローラ1内で行なうことでアプローチ位置2が求められる。
アプローチを完了したロボット40は、位置2あるいは必要に応じて他の位置3(図示せず)へ歩進移動しながら、段差dをワークWの1個所または複数個所について計測する。
位置3での計測を行なう場合には、上記基準位置にワークWがある場合の位置3が予めロボットに教示される。そして、実際の作業時には、検出されたワークWの基準位置からのずれを補償するシフト(位置・姿勢補正)を教示された位置3に対して与えた位置が、実際の位置3としてロボットコントローラ1内で計算される。
スリット光投射型レーザセンサの構造並びに計測原理は良く知られている通りであるが、図8を用いて概略の説明を行なっておく。
スリット光投光部131は、円柱レンズを内蔵した1台または複数台(ここでは2台)のレーザ発振器LS1,LS2、ステッピングモータSMで駆動されるガルバノメータに取り付けられた偏向ミラーMRを備える。スリット光投光部131は、画像処理装置から投光指令を受けると、レーザ発振器LS1,LS2から円柱レンズによって偏平化された2束のレーザ光(スリット光)が出射される。投光指令には、偏向ミラーMRの角度を制御するステッピングモータSMの位置指令が含まれている。
2束のレーザ光(スリット光)は、ステッピングモータSMに位置指令値に従って所定の方向に偏向され、投光窓(図示省略)からワーク(対象物)W上に投光される。ここでは2束のスリット光SB1,SB2をワーク(対象物)W上に投光され、2本の輝線b1−b5及びb6−b10が形成される。
CCDカメラ30が画像処理装置から撮影指令を受けると、輝線b1−b5及びb6−b10を含む画像を取得し、画像処理装置2へ送る。
画像処理装置2は、画像処理機能を利用して輝線b1−b5及びb6−b10を含む画像を解析し、輝線に含まれる端点、屈曲点b1,b2・・・b10等の3次元位置を求める。段差dはこれら3次元位置のデータから計算される。
なお、屈曲点や端点の3次元位置を求める原理、キャリブレーションの方法並びにそれらに関連する計算処理の詳細については、周知事項なのでここでは説明を省略する。
画像処理装置2のハードウェア構成並びに関連要素との接続関係については、レーザセンサ関連部分を除き、実施形態1と同様である。従って、重複説明は極力省略し、レーザセンサ関連部分を中心に、図4を再度参照して説明する。
実施形態IIでは、レーザセンサインターフェイス202は、スリット光投光部131に接続されたレーザセンサ制御部20のための入出力装置として機能する。CPU201は、レーザセンサインターフェイス202を介して動作指令(レーザ発振器LS1,LS2のON/OFF、ステッピングモータSMの回転指令など)を送り、スリット光投光部131を制御する。
カメラインターフェイス203は、CCDカメラ30のための入出力装置として機能し、CPU201からの撮影指令を受けるとCCDカメラ30に撮影信号を送り、撮影により取得された画像をグレイスケールに変換し、画像メモリ204に格納する。
格納された画像は、プログラムメモリ205に格納されている位置検出プログラムの起動時に読み出され、画像処理プロセッサ206による画像解析に利用される。本実施形態では、2種類の画像解析が行なわれる。カメラ30を広域センサとして使用する際には、スリット光は投光されず、ワークWの通常画像が取得される。そして、実施形態1と同じく、2つの特徴点P,Qの位置の検出が行なわれる。
これに対して、カメラ30を狭域センサとして使用する際には、スリット光が投光され、ワークW上に形成された輝線b1−b5,b6−b10の画像が取得され、そこに含まれる端点/屈曲点b1−b5,b6−b10の3次元位置が検出される(図8参照)。
なお、ロボットコントローラ1については、実施形態1と同様、CPU,ROM,RAM,軸制御器、サーボ回路、通信インターフェイス等を備えた通常のものが使用されるので、詳しい説明は省略する。
次に、図7に示した配置で実行されるワークWの段差分布計測の際に、ロボットコントローラ1内及び画像処理装置2内で行なわれる処理の概略を図9(ロボットコントローラ1の内部処理)及び図10(画像処理装置2の内部処理)のフローチャートを参照して説明する。
なお、スリット光投光部131及びCCDカメラ30のキャリブレーションは完了しており、前述したワークWの基準位置の画像データ、アプローチ開始位置(位置1)、教示アプローチ位置がロボットコントローラ1に教示済みであるものとする。
また、スリット光の投光はアプローチ位置(位置2)のみで行い、段差測定のためのロボット移動は要しないものとする。スリット光投射型のレーザセンサは、偏向ミラーMRを振ることで、ある程度の角度範囲にスリット光を投射出来る。
先ず、ロボットコントローラ1側で、位置1(アプローチ開始位置)への移動命令を記述した動作プログラムの1ブロックを読み出し(ステップRR1)、通常の処理を行ない、位置1へロボット40を移動させる(ステップRR2)。運動形式は、各軸移動または直線移動とする。
位置1への移動が完了したら、画像処理装置2へワーク位置検出指令を送り(ステップRR3)、ワークWの位置(P,Qの位置)の検出結果の受信を待つ(ステップRR4)。検出結果を表わすセンサデータを受信したら、ワークWの基準位置からのずれをロボット座標系上で表わすデータを計算して、必要なロボット補正量を計算する(ステップRR5)。ロボット補正量のデータは例えば、PからQに向うベクトルを考え、ベクトルPQ及びPの基準位置からのずれを表わす4×4同次変換行列のデータとして計算することが出来る。
次いで、位置2(アプローチ位置)への移動命令を記述した1ブロックが読み出され(ステップRR6)、アプローチ位置2へロボット40を移動させる(ステップRR7)。ここで、アプローチ位置2は教示されたアプローチ位置をワークWについて求められたロボット位置補正量だけシフトさせた位置である。アプローチ動作時の運動形式は、各軸移動または直線移動とする。
アプローチ動作が完了したら、画像処理装置2へレーザセンサ起動指令を送る(ステップRR8)。そして、画像処理装置2からの段差測定完了の知らせを待つ(ステップRR9)。知らせを受けたら、画像処理装置2へレーザセンサ消勢指令を送り(ステップR10)、処理を終了する。
一方、画像処理装置2側では、先ず、ロボットコントローラ1からのワーク位置検出指令を受信する態勢に入る(ステップSS1)。ワーク位置検出指令を受信したらCCDカメラ30に撮影指令を出力し(ステップSS2)、視野31内にワークWを捉えた画像を画像処理装置2に取り込み、画像メモリ204に格納する(ステップSS3)。
次いで、プログラムメモリ205に格納されている位置検出プログラムを起動させ、格納された画像データを読み出して画像処理プロセッサ206による画像解析を行ない、ワークWの2つの特徴点P,Qの位置を検出する(ステップSS4)。
検出結果を直ちにロボットコントローラ1へ送り(ステップSS5)、ロボットコントローラ1からのレーザセンサ起動指令の受信を待つ(ステップSS6)。レーザセンサ起動指令を受信したらレーザセンサ制御部20にスリット光投光部131の起動指令を送り、スリット光SB1,SB2を投光する(ステップSS7)。
次いで、CCDカメラ30に撮影指令を出力し(ステップSS8)、ワークW上に形成された輝線b1−b5,b6−b10の画像を画像処理装置2に取り込み、画像メモリ204に格納する(ステップSS9)。
そして、プログラムメモリ205に格納されている段差検出プログラムを起動させ、格納された画像データを読み出して画像処理プロセッサ206による画像解析を行ない、輝線に含まれる端点/屈曲点b1,b2・・・b10の3次元位置を検出し、段差dを計算し、段差計測完了を、必要に応じて計測結果とともに、ロボットコントローラ1に送信する(SS10)。
端点/屈曲点b1,b2…b10の3次元位置から段差を求める計算方法は種々ある。例えば、図8において、屈曲点b1,b6から直線b1b6を求め、屈曲点b3,b8から直線b3b8を求め、両直線間距離から段差dを求めることが出来る。この方法では、3次元位置はセンサ座標系上で求めれば良いので、ロボット座標系との間の座標変換処理及びロボット姿勢を考慮する必要がないことに注意すべきである。
なお、測定精度を上げるためには、ステッピングモータSMに移動指令を送り、スリット光の投光方向を変えた条件でステップSS7〜SS9を繰り返してから、段差dを求めることが好ましい。
ロボットコントローラ1からのレーザセンサ消勢指令の受信を待ち(ステップSS11)、レーザセンサ(スリット光投光部131)を消勢し(ステップSS12)、処理を終える。
以上説明した参考例及び実施形態では、広域センサとしてのカメラ30の画像を画像処理装置で解析して、ロボット40の自動的なアプローチが行なわれている。そして、アプローチ位置は、予め教示された被教示アプローチ位置を画像解析から得られるずれデータに基づいて補正する方式で決定される。
次に、広域センサとしてのカメラ30の画像をディスプレイ上に表示し、表示された画面上のジョグ送りをロボットのアプローチ動作に取り入れることについて説明する。説明は、便宜上、図11に示したシステムの全体配置を参照して行う。アプリケーションは、参考例及び実施形態と同様、例えばワークの段差測定である。
同図に示したように、システム全体は、ロボットコントローラ1、レーザセンサ(スポット投射型あるいはスリット光投射型)10、レーザセンサ制御部20、CCDカメラ30、ロボット40、並びにディスプレイDPを装備した教示操作盤TPから構成されている。
レーザセンサ10は、ロボット40の手先部(ツール先端点TCPの近傍)に搭載されているが、CCDカメラ30は外部に設置される。
広域用センサとして用いられるCCDカメラ30は、その視野31がワークWの供給領域に相当するテーブルTBとロボット40のアプローチに使用される周辺領域を余裕を以てカバーするよう、テーブルTBとロボット40の上方に配置される。カメラ30の光軸は鉛直下向き方向(ロボット座標系のZ軸方向)とする。
狭域用センサ(第2のセンサ手段)として採用されているレーザセンサ(スポット投射型あるいはスリット光投射型)10の構成、機能については実施形態I、IIで述べたので、繰り返し説明は省略する。
ロボットコントローラ1は、画像処理装置を内蔵した故知のもので、カメラ30に撮影指令を発し、画像を取り込む機能、ディスプレイDP上に画像を表示する機能、画面上でカーソル等で指示された位置についてロボット座標系上の位置(X,Y)を算出する機能などを備えている。また、制御部20を介して受け取るレーザセンサ10の出力信号に基づいて、段差等を求める処理を行なう。処理内容等の説明は既に行なったので省略する。
教示操作盤TPは、操作キーグループ乃至ボタングループK1,K2,K3などを備え、通常の教示操作盤と同様の機能と共に画面上でジョグ移動目標位置を指定する機能を有している。
例えば、グループK1,K2はXYZ方向、XYZ軸周り、ロボット軸周りなど、通常のジョグ送りに使用され、グループK2はカーソル(図示省略)を画面上でXY方向に動かすカーソルキーグループとして使用される。
カメラ30は、待機位置にあるロボット40の少なくとも手先部分とテーブルTBを捉えることが出来る。従って、アプローチ前(位置1)にあるロボット40、レーザセンサ10(裏側)及びワークWの画像が、図示したような画像40’,10’,W’で表示される。
ここで、オペレータが画面を見ながらグループK3のカーソルキーを操作して、アプローチ位置2としてふさわしい位置に図示しないカーソルを合致させ、この状態で確定操作(例えば、K3の内の一つの押下)を行うと、カーソル位置がロボットコントローラ1へ伝えられ、カーソル位置が表わすXY位置(ロボット座標系上)が求められる。
更に、アプローチスタート操作(例えば、K3の内の一つの2回連続押下)を行うと、求められたXY位置へロボット40が移動する。Z位置については、XY移動終了後に行なっても良いが、画面ジョグ進行中に適当な操作(例えば、グループK1中の1つのキーの押下)によって、Z軸方向ジョグを指令出来ることが好ましい。
ロボットコントローラ1内で行なわれる処理の概要は、図12にフローチャートで示した。なお、本実施形態の特徴はアプローチ動作にあり、アプローチ完了後のレーザセンサ(一般には、3次元位置センサ)10による計測については、既述の参考例あるいは実施形態で説明した通りである。従って、ここではアプローチ完了までの処理について説明する。
CCDカメラ30に撮影指令を送って、ロボット手先部とワークを含む画像を取り込む(ステップT1)。次いで、モニタ(教示操作盤TPに装備されたディスプレイDP)上に画像40’,10’,W’を表示する(ステップT2)。
オペレータのカーソルキー操作により、アプローチを希望する画面上位置にカーソルを合わせて、アプローチ位置2を指示する(ステップT3)。続いて、カーソルで指示された位置をロボット座標系上の位置(X,Y)に変換する(ステップT4)。
更に、アプローチスタート操作を受けて、求められた位置2(X,Y)へロボット40のTCPを移動させる(ステップT5)。Z位置については、レーザセンサ10とワークWとの上下間隔を目測しながら調整する。そのために、画面ジョグ進行中にZ軸方向ジョグ指令を受けて、ロボットコントローラ1内部ではZ軸方向の移動を含む指令が作成され、サーボに渡されてロボット40のTCPをZ軸方向へ移動させる(ステップT6)。以上でアプローチ動作を完了する。なお、更にロボット姿勢の調整が必要であれば、それを最後に行なう。但し、Z軸まわりの姿勢については、カーソルに姿勢指示機能を持たせれば、アプローチ位置2をZ軸周り姿勢を含む形で指定することも可能である。
以上、段差を測定する計測ロボットに複合センサを組み合わせた事例について説明したが、他の用途で使用されるロボットに複合センサを組み合わせて、複合センサ−ロボットシステムを構成し得ることは言うまでもない。
本発明によれば、レーザセンサ等の狭域センサの欠点がCCDカメラのような2次元画像を取得する広域センサで補われる。従って、計測対象物の詳しい位置や姿勢が未知であるアプリーケーションにおいても、ロボットを迅速・的確に計測対象物にアプローチさせ、狭域センサによる計測を開始することが出来る。
その結果、各種アプリケーションにおけるサイクルタイムの短縮が可能になる。また、画像処理装置、光検出手段などを適宜共用する形態でシステムに組み込むことで、ハードウェアを簡素化し、コストを低く抑えることが出来る。

Claims (4)

  1. ロボットのアーム先端部に装着され、前記ロボットの作業範囲内を移動可能とし、相対的に広範囲の領域内の2次元画像を取得する能力を有する第1のセンサ手段及び、前記ロボットのアーム先端部に装着され、相対的に狭範囲の領域内に光を投射して3次元的な位置測定を行なう能力を有する第2のセンサ手段とを装備した複合センサと、前記ロボットとを結合した複合センサ−ロボットシステムであって、
    前記第1のセンサ手段はカメラを用いた視覚センサであり、前記第2のセンサ手段はレーザスポット光またはレーザスリット光を用いたレーザセンサであり、前記視覚センサのカメラが前記レーザセンサの受光部と共用されるものであり、
    前記第1のセンサ手段のための動作指令を出力する手段と、前記第2のセンサ手段のための動作指令を出力する手段と、前記第1のセンサ手段により取得された画像信号を処理する手段と、前記第2のセンサ手段の計測出力信号を処理する手段と、前記ロボットを制御するためのロボット制御手段を備え、
    前記第1のセンサ手段によって取得された画像信号の処理には、相対的に広範囲の領域の中で計測対象物の位置を特定するための処理が含まれており、
    前記ロボット制御手段は、前記計測対象物の特定された位置に基づいて、前記ロボットに前記計測対象物に対するアプローチ動作を行なわせる手段を備え、
    前記第2のセンサ手段の計測出力信号の処理には、前記第2のセンサ手段が前記アプローチ動作によってアプローチ位置に移動した後に出力される計測出力信号の処理が含まれている、前記複合センサ−ロボットシステム。
  2. 前記第1のセンサ手段により取得された画像信号を処理する手段及び前記第2のセンサ手段の計測出力信号を処理する手段として共用される画像処理装置を備えた、請求項1に記載された複合センサ−ロボットシステム。
  3. 前記相対的に広範囲の領域の中で前記レーザセンサによる計測対象物の位置を特定するための処理には、前記計測対象物の基準位置からのずれ量を求める処理が含まれ、
    前記ロボットのアプローチ位置は、予め教示された被教示アプローチ位置を前記求められたずれ量に応じて補正した位置として決定される、請求項1または請求項2に記載された複合センサ−ロボットシステム。
  4. 前記第1のセンサ手段により取得された2次元画像を表示する画像表示手段と、前記画像表示手段によって表示された2次元画像上で前記アプローチ位置を入力するための手段を更に含む、請求項1〜請求項3の内のいずれか1項に記載された複合センサ−ロボットシステム。
JP52417597A 1995-12-27 1996-12-24 複合センサーロボットシステム Expired - Fee Related JP3904605B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP35118095 1995-12-27
PCT/JP1996/003765 WO1997024206A1 (fr) 1995-12-27 1996-12-24 Systeme robotique composite de detection

Publications (1)

Publication Number Publication Date
JP3904605B2 true JP3904605B2 (ja) 2007-04-11

Family

ID=18415599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52417597A Expired - Fee Related JP3904605B2 (ja) 1995-12-27 1996-12-24 複合センサーロボットシステム

Country Status (5)

Country Link
US (1) US5987591A (ja)
EP (1) EP0812662B1 (ja)
JP (1) JP3904605B2 (ja)
DE (1) DE69637413T2 (ja)
WO (1) WO1997024206A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
US7065462B2 (en) * 1998-07-24 2006-06-20 Merilab, Inc. Vehicle wheel alignment by rotating vision sensor
US6195620B1 (en) * 1998-08-05 2001-02-27 Ford Global Technologies, Inc. Method for determining a geometry of a raw cylinder head casting and device for carrying out same
JP2000135689A (ja) 1998-10-30 2000-05-16 Fanuc Ltd ロボット用画像処理装置
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
US6415051B1 (en) * 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
JP3556589B2 (ja) 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
DE20019096U1 (de) * 2000-11-10 2001-01-18 Dual-M-Tech AG, 83209 Prien Vorrichtung zum zielgerichteten Bewegen elektronischer Bauteile mit einem Schwenkspiegel
JP3703411B2 (ja) 2001-07-19 2005-10-05 ファナック株式会社 ワーク取り出し装置
US6730926B2 (en) * 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
EP1436126A2 (de) * 2001-10-15 2004-07-14 Tropf, Hermann, Dr.-Ing. Korrektur der relativbewegung zwischen greif- oder bearbeitungswerkzeugen und werkstücken
GB0125079D0 (en) * 2001-10-18 2001-12-12 Cimac Automation Ltd Auto motion:robot guidance for manufacturing
US7099796B2 (en) * 2001-10-22 2006-08-29 Honeywell International Inc. Multi-sensor information fusion technique
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
JP3806342B2 (ja) 2001-11-26 2006-08-09 三菱重工業株式会社 3次元形状物溶接方法及びその装置
EP1314510B1 (en) * 2001-11-26 2008-03-19 Mitsubishi Heavy Industries, Ltd. Method of welding three-dimensional structure and apparatus for use in such method
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
DE20218352U1 (de) * 2002-11-26 2003-01-23 Reishauer Ag, Wallisellen Einzentriervorrichtung zum Ausrichten von vorverzahnten Werkstücken auf Verzahnungsfeinbearbeitungsmaschinen
JP3950805B2 (ja) * 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
JP2005108144A (ja) * 2003-10-02 2005-04-21 Fanuc Ltd ロボットの補正データ確認装置
DE102004024378B4 (de) * 2004-05-17 2009-05-20 Kuka Roboter Gmbh Verfahren zur robotergestützten Vermessung von Objekten
DE102004026185A1 (de) * 2004-05-28 2005-12-22 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Betreiben einer Maschine, wie eines Mehrachs- Industrieroboters
NZ533533A (en) * 2004-06-11 2006-11-30 Avalon Engineering Ltd Deployment method and apparatus for moving stacked articles in varying orientations
JP4087841B2 (ja) * 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
US7830561B2 (en) * 2005-03-16 2010-11-09 The Trustees Of Columbia University In The City Of New York Lensless imaging with controllable apertures
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP2007101197A (ja) * 2005-09-30 2007-04-19 Nachi Fujikoshi Corp 物体探索装置,物体探索装置を備えるロボットシステム及び物体探索方法
CN101346800B (zh) * 2005-12-20 2011-09-14 株式会社半导体能源研究所 用于制造半导体装置的激光辐射设备和方法
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
CN104688327B (zh) * 2006-06-13 2017-06-09 直观外科手术操作公司 微创手术系统
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US7590680B2 (en) * 2006-06-29 2009-09-15 Microsoft Corporation Extensible robotic framework and robot modeling
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
JP2009000782A (ja) * 2007-06-21 2009-01-08 Idec Corp ロボット制御システムおよびロボットハンド
JP2009218933A (ja) * 2008-03-11 2009-09-24 Seiko Epson Corp スマートカメラ及びロボットビジョンシステム
CN101981405B (zh) * 2008-03-28 2012-11-21 本田技研工业株式会社 工件测定方法、悬架总成安装方法以及悬架总成安装装置
DE102008023264B4 (de) * 2008-05-13 2017-01-05 Smart Optics Sensortechnik Gmbh Verfahren zur flexiblen Erfassung der geometrischen Form von Objekten mit optischer 3D-Messtechnik
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
JP4837116B2 (ja) 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
CN102909728B (zh) * 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
JP6052871B2 (ja) * 2012-11-30 2016-12-27 国立大学法人横浜国立大学 対象物移動装置、方法、プログラム、及び記録媒体
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
CN103213136B (zh) * 2013-03-22 2016-06-15 南通航运职业技术学院 一种用于工业机器人牵引示教的方法和系统
US9874628B2 (en) * 2013-11-12 2018-01-23 The Boeing Company Dual hidden point bars
CN104765380B (zh) 2014-01-03 2017-04-19 科沃斯商用机器人有限公司 光点指示机器人及其光点指示方法
ES2754039T3 (es) * 2014-04-30 2020-04-15 Abb Schweiz Ag Procedimiento para calibrar un punto central de una herramienta para un sistema de robot industrial
DE102015204867A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und Verfahren zum Betrieb eines teleoperativen Prozesses
US9757859B1 (en) * 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
US9744665B1 (en) 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
CN108313778B (zh) * 2017-01-16 2020-01-14 泰科电子(上海)有限公司 膜片供应系统和方法
JP6586644B2 (ja) * 2017-02-24 2019-10-09 パナソニックIpマネジメント株式会社 電子機器製造装置および電子機器製造方法
WO2018183961A1 (en) 2017-03-31 2018-10-04 Canvas Construction, Inc. Automated drywall sanding system and method
EP3630404B1 (en) * 2017-05-24 2024-01-03 Inrotech Aps An apparatus and a method for automated seam welding of a work piece comprising a base plate with a pattern of upstanding profiles
US11117262B2 (en) 2017-08-01 2021-09-14 eBots Inc. Intelligent robots
JP7325420B2 (ja) 2017-09-25 2023-08-14 キャンヴァス コンストラクション インコーポレイテッド 自動壁仕上げシステム及び方法
JP2019058993A (ja) * 2017-09-27 2019-04-18 セイコーエプソン株式会社 ロボットシステム
US10967507B2 (en) 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
US11724404B2 (en) * 2019-02-21 2023-08-15 Canvas Construction, Inc. Surface finish quality evaluation system and method
CN113439013B (zh) * 2019-02-25 2024-05-14 国立大学法人东京大学 机器人系统,机器人的控制装置,以及机器人的控制程序
CN109895098B (zh) * 2019-03-25 2020-09-29 华中科技大学 一种机器人结构参数和手眼关系的统一标定模型
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
CN114152206B (zh) * 2021-12-15 2024-02-27 武汉理工大学重庆研究院 一种工件尺寸视觉检测装置
DE102022213715A1 (de) * 2022-12-15 2024-06-20 Peri Se Verfahren zur positionierung eines ersten bauteils relativ zu einem zweiten bauteil durch ein roboterarmsystem

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114892A (ja) * 1981-12-26 1983-07-08 日産自動車株式会社 ロボツトの視覚装置
DE3635076A1 (de) * 1986-10-15 1988-04-28 Messerschmitt Boelkow Blohm Roboteranlage mit beweglichen manipulatoren
JP2716052B2 (ja) * 1987-01-13 1998-02-18 株式会社日立製作所 加工方法及び装置並びに加工品質管理方法
FR2630957A1 (fr) * 1988-05-05 1989-11-10 Peugeot Dispositif d'asservissement pour robot manipulateur
JPH041505A (ja) * 1990-04-18 1992-01-07 Matsushita Electric Ind Co Ltd ワークの3次元位置計測方法とワークの捕捉方法
JPH04261789A (ja) * 1991-02-18 1992-09-17 Matsushita Electric Ind Co Ltd 部品移載装置
US5321353A (en) * 1992-05-13 1994-06-14 Storage Technolgy Corporation System and method for precisely positioning a robotic tool
JPH0724585A (ja) * 1993-07-09 1995-01-27 Tomoe Corp 構造部材の溶接方法
JPH0724585U (ja) * 1993-09-29 1995-05-09 株式会社明電舎 ワークハンドリング装置
JPH07266272A (ja) * 1994-03-29 1995-10-17 Nippon Telegr & Teleph Corp <Ntt> マニピュレータ用追従方法及び装置
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法

Also Published As

Publication number Publication date
DE69637413T2 (de) 2009-01-22
EP0812662A4 (en) 2000-11-15
DE69637413D1 (de) 2008-03-13
EP0812662A1 (en) 1997-12-17
US5987591A (en) 1999-11-16
WO1997024206A1 (fr) 1997-07-10
EP0812662B1 (en) 2008-01-23

Similar Documents

Publication Publication Date Title
JP3904605B2 (ja) 複合センサーロボットシステム
EP1043126B1 (en) Teaching model generating method
JPH08166813A (ja) ウィービング動作を伴うロボットのトラッキング制御方法
JP3556589B2 (ja) 位置姿勢認識装置
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
US6763284B2 (en) Robot teaching apparatus
EP0573661A1 (en) Method and apparatus for measuring three-dimensional position and posture of object
JP4167940B2 (ja) ロボットシステム
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US20050065653A1 (en) Robot and robot operating method
US20090234502A1 (en) Apparatus for determining pickup pose of robot arm with camera
US5715375A (en) Robot control system for executing multi-layer welding
WO1992001539A1 (fr) Procede d&#39;etalonnage d&#39;un capteur visuel
EP0554464B1 (en) Method of diagnosing real time sensor
JP3644991B2 (ja) ロボット−センサシステムにおける座標系結合方法
JP2008286797A (ja) 非接触式振動測定方法およびそれを実施する装置
JPH1063317A (ja) ロボット−視覚センサシステムにおける座標系結合方法
JPH07286820A (ja) 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法
JPH09183087A (ja) 作業ロボット装置
JP3672970B2 (ja) 非接触画像計測システム
US20220016784A1 (en) Image processing device
JPH11248432A (ja) 三次元形状測定装置
CN116761979A (zh) 根据由视觉传感器取得的三维的位置信息生成截面图像的处理装置以及处理方法
JP3550191B2 (ja) 溶接ロボット
JP7177239B1 (ja) マーカ検出装置及びロボット教示システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140119

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees