JP4167954B2 - ロボット及びロボット移動方法 - Google Patents

ロボット及びロボット移動方法 Download PDF

Info

Publication number
JP4167954B2
JP4167954B2 JP2003310409A JP2003310409A JP4167954B2 JP 4167954 B2 JP4167954 B2 JP 4167954B2 JP 2003310409 A JP2003310409 A JP 2003310409A JP 2003310409 A JP2003310409 A JP 2003310409A JP 4167954 B2 JP4167954 B2 JP 4167954B2
Authority
JP
Japan
Prior art keywords
camera
image
movement
moving
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003310409A
Other languages
English (en)
Other versions
JP2005074600A (ja
Inventor
一訓 伴
克俊 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2003310409A priority Critical patent/JP4167954B2/ja
Priority to US10/930,850 priority patent/US20050065653A1/en
Priority to EP04255297A priority patent/EP1512499A3/en
Publication of JP2005074600A publication Critical patent/JP2005074600A/ja
Application granted granted Critical
Publication of JP4167954B2 publication Critical patent/JP4167954B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36431Tv camera in place of tool, on display operator marks points, crosshair
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position

Description

本発明は、産業用ロボットを所定の場所に移動させるための移動方法及びその移動を実施するロボットに関する。
一般にロボットを手動操作で移動させるときの移動操作は、教示操作盤を用いてロボットの各軸(関節)毎の移動操作、もしくは直交座標系の各座標軸に沿った移動操作を人手によって行っている。前者はロボットの指定する関節軸について正方向移動もしくは負方向移動をさせるもので、ロボットの機構構造によって回転運動する軸もあれば、並進運動する軸もあり、指定する軸によってその動きが変わる。後者はロボットの作業空間中に定義された直交XYZ座標系における指定する座標軸の正負方向にロボットのツール先端点(TCP)を移動させるか、もしくはTCPを中心とした指定する軸周りの正負方向の回転移動をさせるものである。
実空間においてロボットを手動操作で移動させたいとした場合、それは任意方向への移動であるのが普通である。そうすると、上述した従来の手動操作方法でロボットを移動させようとすると、ロボットを移動させたい方向と教示操作盤を通してロボットを移動させられる方向の関係を、操作者が思考の上で巧みに変換し、教示操作盤で実現できる移動を複数種組み合わせて必要な移動を達成する必要がでてくる。話を単純にするために、実空間においてZ軸の座標値が一定なZ平面上をX軸正方向とY軸正方向の丁度真ん中方向(X軸とY軸の双方から45度隔たった方向)に向かってロボットを移動させたいものと仮定する。操作者はX軸正方向への移動操作を少し行ってロボットをX軸方向に少し移動させ、次にY軸正方向への移動操作を同程度行ってロボットをY軸正方向へ同程度移動させ、以後これらを繰り返すことで目的とする移動を達成する必要がある。いわゆるジグザグ移動である。単純なケースでこの通りであるから、任意方向への移動となれば、熟練を必要とする難しい操作となる。また移動の正負を間違えることも往々にしてあり、意図しない方向へ誤ってロボットを移動させてしまい、危険を招く場合もある。特に、ロボットを移動させる方向は、一般的に作業対象物に接近させる方向であることが多いことから、対象物と衝突させるという事故を発生しやすい。これが操作をさらに難しいものにしている。
そこで、本発明の目的は、任意の目標とする位置に自動的に移動するロボット及びその移動方法を提供することにある。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、前記指定された点の前記画像上での第1の位置情報を取得する手段と、前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段とを備えたことを特徴とするロボットであり、請求項11に係わる発明は、このロボットによる移動方法である。
請求項に係わる発明は、請求項に係わる発明における、前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段の代わりに、カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段を設けたものである。また、請求項12に係わる発明は、このロボットによる移動方法である。
請求項に係わる発明は、請求項に係わる発明において、カメラの第1の移動方向および移動量を決定する手段を設けずに、カメラの第1の移動方向および移動量を予め指定しておき、この指定された第1の移動方向および移動量にもとづいて前記ロボットを移動させるようにしたものである。又、第2の移動方向および移動量を決定する手段を、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段に変えたものである。また請求項13に係わる発明はこのロボットの移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、前記カメラの光軸と直交し前記指定された対象物への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、を備えたことを特徴とするロボットであり、請求項14に係わる発明は、このロボットによる移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、前記カメラの光軸と直交し前記指定された対象物への方向の前記カメラの第1の移動方向を決定する手段と、前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、を備えたことを特徴とするロボットである。また、請求項15に係わる発明は、このロボットによる移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、を備えたことを特徴とするロボットである。また請求項16に係わる発明はこのロボットの移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、前記検出された対象物の前記画像上での第1のサイズ情報を取得する手段と、前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、前記再検出された対象物の前記新たに撮像された画像上での第2のサイズ情報および位置情報を取得する手段と、前記所定距離と、前記第1のサイズ情報と、前記第2のサイズ情報と、前記位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段とを備えたことを特徴とするロボットであり、また請求項17に係わる発明はこのロボットの移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、前記指定された点の前記画像上での第1の位置情報を取得する手段と、前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段とを備えたことを特徴とするロボットであり、請求項18に係わる発明はこのロボットの移動方法である。
請求項に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、前記指定された点の前記画像上での第1の位置情報を取得する手段と、前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段とを備えたことを特徴とするロボットである。また、請求項19に係わる発明は、このロボットによる移動方法である。
請求項10に係わる発明は、手先部にカメラを装着したロボットにおいて、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、前記カメラで撮像した画像を取得する手段と、前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、前記指定された点の前記画像上での第1の位置情報を取得する手段と、前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段とを備えたことを特徴とするロボットである。また請求項20に係わる発明はこのロボットの移動方法である。
カメラを手先部に装着したロボットにおいて、カメラによって得られた画像上で対象物上の標的を指定するだけで、対象物とロボットの相対関係が所定の状態になるようにロボットを自動移動させることができるので、ロボットの移動操作が非常に簡単にかつ安全に行えるようになる。
図1は本発明の一実施形態におけるロボットの全体構成を示す図である。従来から公知の典型的なロボット制御装置1aとCCDカメラ2aを含む画像処理装置2が用意され、両者間は通信I/Fによって接続される。CCDカメラ2aはロボットのアーム1b上の先端の手先部に装着され、ロボット1の最終リンク上のメカニカルインタフェース座標系Σとカメラの基準座標系Σcとの相対関係は予め設定されている。CCDカメラ2aを通して撮像された画像はモニタ2b上に出力され、対象物上の標的がマウス2cを用いて操作者に指示されると、その位置が画素情報として得られる。得られた画素情報は、予め用意されたカメラ2aのキャリブレーションデータによってメートル単位の位置の情報に変換されて、ロボット制御装置1a側に送られる。そしてさらにロボット1の移動情報にまで変換される。この画素情報からロボットの移動情報を得るまでの変換過程の詳細については後述する。
図2は同実施形態におけるロボット制御装置1aの要部ブロック図であり、従来のロボット制御装置と同一構成である。符号17で示されるバスに、メインプロセッサ11、RAM、ROM、不揮発性メモリ(EEPROMなど)からなるメモリ12、教示操作盤用インターフェイス13,画像処理装置用インタフェース14、外部装置用のインターフェイス16及びサーボ制御部15が接続されている。又、教示操作盤用インターフェイス13には教示操作盤18が接続されている。
ロボット及びロボット制御装置の基本機能を支えるシステムプログラムは、メモリ12のROMに格納されている。又、アプリケーションに応じて教示されるロボットの動作プログラム並びに関連設定データは、メモリ12の不揮発性メモリに格納される。
サーボ制御部15は、複数のサーボ制御器#1〜#n(n:ロボットの総軸数、さらには必要に応じてロボット手首に取り付けるツールの可動軸数を加算した数)を備えており、各サーボ制御器#1〜#nは、プロセッサ、ROM、RAM等で構成され、各軸を駆動するサーボモータの位置・速度のループ制御、さらには電流ループ制御を行っている。いわゆる、ソフトウエアで位置、速度、電流のループ制御を行うデジタルサーボ制御器を構成している。サーボ制御器#1〜#nの出力は各サーボアンプA1〜Anを介して各軸サーボモータM1〜Mnを駆動制御する。なお、図示はしていないが、各サーボモータM1〜Mnには位置・速度検出器が取り付けられており、該位置・速度検出器で検出した各サーボモータの位置、速度は各サーボ制御器#1〜#nにフィードバックされるようになっている。又、外部装置用インターフェイス16には、ロボットに設けられたセンサや周辺機器のアクチュエータやセンサが接続されている。
図3は、ロボット制御装置のインターフェイスに接続される画像処理装置2の要部ブロック図である。プロセッサ20を備え、該プロセッサ20にはバス30を介してこのプロセッサ20が実行するシステムプログラム等を記憶するROM21、画像処理プロセッサ22、カメラ2aに接続されたカメラインターフェイス23、CRTや液晶等で構成されたモニタ表示装置用のインターフェイス24、フレームメモリ26、不揮発性メモリ27,データの一時記憶等に利用されるRAM28、ロボット制御装置1aに接続された通信インターフェイス29が接続されている。カメラ2aで撮像された画像は、フレームメモリ26に格納される。画像処理プロセッサ22は、フレームメモリ26に格納された画像をプロセッサ20の指令により画像処理して対象物を認識する。この画像処理装置2の構成、作用は従来の画像処理装置と同一であり差異はない。
図4は、カメラ2aのキャリブレーションの概略を説明する図である。カメラ2aのレンズ3の中心からL0の距離に対象物5を置き、キャリブレーションが行われる。具体的にはカメラ2aの受光素子4の1画素がL0の距離にある対象物上のどれだけの長さに相当するかが求められる。図4中では、受光素子の画素数N0が対象物上のW0[mm]に相当するものとして得られ、変換係数C0が次の(1)式で求められる。
Figure 0004167954
また図4中より f:L0=Y0:W0の関係があるので(fはレンズの焦点距離、Yは画素数Nの長さ[mm])
Figure 0004167954
である。このキャリブレーションで用いた距離L0はこれ以降、既知の値として利用する。
図5は、対象物5上の任意の1標的Qを、カメラ2aで撮像した画像上で指定したときの、カメラ2aのレンズ3中心からその対象物5上の標的Qに向かう視線ベクトルpの求め方の説明図である。便宜的にカメラのレンズ中心には基準となる座標系が定義されるが、これは図1の座標系Σcに相当する。この図5ではXZ座標平面上で光学系を記述している。実際のカメラの受光素子はX方向、Z方向に直交するY方向にも広がりを持つものであり、それに応じてこの光学系は3次元的な広がりをもつものになる。しかし便宜上これ以降は、このような2次元平面的な光学系で説明を行なう。2次元平面的な記述を実際の3次元空間的な内容に置き換えるのは容易である。
対象物5上の任意の1標的Qに対応する画像上の1点Rが指定されると、画面中心からの画素数をNとして次の3式、4式が導かれる。
Figure 0004167954
Figure 0004167954
図6(a)、(b)は、本発明の上述した図1に示した構成により実施する第1の実施形態の動作原理説明図である。カメラ2aの光軸が対象物5に対して垂直方向でその距離が予め決められたL1の位置に位置決めして、撮像し、画像上で対象物5上の標的Qを指定することによって、図6(a)に示すように、レンズ3中心から対象物5上の標的Qに向かう視線ベクトルpが求まり、図6中の点Vを標的Qに一致させるための移動ベクトルqが算出され、図6(b)のようにカメラ2aのレンズ3中心が標的Qの正面で、かつレンズ中心とQの距離がL0である位置にカメラを移動させることが出来る。
図6(a)において、指定した画像上で対象物5上の1標的Qに対応する画像上の指定点R1の画面中心(光軸位置)からの画素数Nを測定する。
Figure 0004167954
Figure 0004167954
であり、移動ベクトルqは、次の(7)式によって求まる。
Figure 0004167954
以上のように、指令標的Qの画像上の中心からの画素数Nを求めれば、予め決められた対象物5とカメラ2a間の距離L、キャリブレーションのデータであるLより移動ベクトルqが求まり、この移動ベクトルqだけカメラ2aを移動させれば、図6(b)に示すように、指定標的Qにカメラ2aのレンズ3中心が向き、かつキャリブレーションの距離Lの位置に位置付けることができる。
上述した第1の実施形態では、カメラ2aと対象物5間の距離Lが既知の状態、即ち、カメラ2aを位置決めし対象物5に対して所定の距離Lに位置付けたその後は、自動的に指定標的Qにカメラ2aが対向する位置に移動させるようにしたものであった。この距離Lが既知でない場合で、カメラ2aを指定標的Qに対向する位置に移動させることのできる第2の実施形態について、図7(a)、(b)を用いて説明する。
図7(a)において、標的Qに対応する画像上の位置R1を指定する。R1の画面中心からの画素数をN1とすると、レンズ中心から距離L0のところにおける距離W1が次の(8)式で求められる。
Figure 0004167954
次に、カメラ2aの光軸が対象物5と交差する点と標的Qとを結ぶ直線平行な線に沿ってカメラ2aを距離W1だけ移動させる。すなわちこの例では、カメラ2aの基準座標系ΣcのX軸正方向にカメラを距離W1だけ移動させている。実際にはロボットによってカメラが移動される。移動後の状態が図7(b)である。さらに図7(b)の状態のときに標的Qに対応する画像上の位置R2を指定する。R2の画面中心からの画素数をN2とすると、次の関係式が成り立つ。
Figure 0004167954
これより次の(10)式によりカメラ2aと対象物5間の距離L1が求められる。
Figure 0004167954
また図7(b)の状態のときの視線ベクトルpは次の(11)式の通りである。
Figure 0004167954
以上から移動ベクトルqは次の(12)式で算出される。
Figure 0004167954
なお、(12)式において、「T」は転置を表す。
このようにして求めた移動ベクトルq分だけカメラ2aを移動させれば、カメラ2aは標的をカメラ中心に捉えた状態に位置づけることができる。
上述した第2の実施形態では、カメラ2aを最初に移動させる移動量を(8)式の演算を行って求めたが、この移動量を予め決められた量にしてもよい。
図8(a)、(b)は、この予め決められた量L移動させるときの第3の実施形態の説明図である。図8(a)において、標的Qに対応する画像上の位置R1を指定する。R1の画面中心からの画素数をN1とすると、レンズ中心から距離L0のところにおける長さW1が次のようにして求められる。
Figure 0004167954
次にカメラ2aの光軸が対象物5と交差する点と標的Qとを結ぶ直線平行な線に沿って予め指定しておいたL2だけ移動させる。実際にはロボット1によってカメラ2aが移動される。移動後の状態が図8(b)である。さらに図8(b)の状態のときに標的Qに対応する画像上の位置R2を指定する。R2の画面中心からの画素数をN2とすると、次の(14)式が成り立つ。
Figure 0004167954
また図8(a)より、
Figure 0004167954
である。これら(13)、(14)、(15)式から距離L1が求められる。
Figure 0004167954
また図8(b)の状態のときの視線ベクトルpは次の通りである。
Figure 0004167954
以上から移動ベクトルqが次のように算出される。
Figure 0004167954
よって、この移動ベクトルq分カメラ2aを移動させれば、カメラ2aのレンズ中心に標的Qを対向させることができる。
上述した第1〜第3の実施形態においては、最初にカメラ2aを対象物5の面と平行(受光素子)に平行に移動させたが、この移動を光軸方向に移動させるようにしてもよい。
図9(a)、(b)はこのカメラを光軸方向に移動させる場合の本発明の第4の実施形態の説明図である。図9(a)において、標的Qに対応する画像上の位置R1を指定する。R1の画面中心からの画素数をN1とすると、レンズ中心から距離L0のところにおける長さW1が次のようにして求められる。
Figure 0004167954
次にカメラの受光素子に垂直で、標的Qに近づく方向にカメラ2aを予め指定しておいたL2だけ移動させる。実際にはロボット1によってカメラ2aが移動される。移動後の状態が図9(b)である。さらに図9(b)の状態のときに標的Qに対応する画像上の位置R2を指定する。R2の画面中心からの画素数をN2とすると、次の関係式が成り立つ。
Figure 0004167954
これより次の(21)式により距離L1が求められる。
Figure 0004167954
また、図9(b)の状態のときの視線ベクトルpは次の通りである。
Figure 0004167954
以上から移動ベクトルqが次のように算出される。
Figure 0004167954
上述した、第1〜第4の実施形態では、対象物5上の標的Qを画像上で指定する方法を説明したが、標的Qの形状が予め既知である場合には、標的Qの画像モデルを教示しておき、パターンマッチング等の画像処理によって標的Qを自動検出するようにしてもよい。
また、標的Qの検出サイズの情報も併用してカメラ2aを標的Qの近傍に接近移動させるようにしてもよく図10(a)、(b)に、この場合の例を第5の実施形態として説明する。まず、標的Qの画像モデルを教示しておき、図10(a)において、標的Qの画像モデルに対応する画像上の位置R1およびサイズS1を検出する。次にカメラの受光素子に垂直で標的Qに近づく方向、すなわちカメラ2aの基準座標系ΣcのZ軸負方向にカメラ2aを予め指定された距離L2だけ移動させる。実際にはロボット1によってカメラ2aが移動される。移動後の状態が図10(b)である。さらに図10(b)の状態のときに標的Qの画像モデルに対応する画像上の位置R2およびサイズS2を検出する。ここで次の関係式が成り立つ。
Figure 0004167954
これより次の(25)式により距離L1が求められる。
Figure 0004167954
またR2の画面中心からの画素数をN2とすると、図10(b)の状態のときの視線ベクトルpは次の通りである。
Figure 0004167954
以上から移動ベクトルqが次のように算出される。
Figure 0004167954
上述した各実施形態においては、いずれも、対象物上の標的Qの正面にカメラがあり、かつ両者間の距離がカメラのキャリブレーション時と同じ距離L0であるような相対関係になるように、ロボット1を自動的に移動するものである。しかし、別の状態を到達目標としたい場合には、例えばロボットに装着されたツールのアーク溶接トーチの先端を標的Qに一致させた状態を到達目標としたい場合には、上記のカメラに関する到達位置と溶接トーチに関する到達位置の間の相対関係を予め設定しておれば、カメラに関する到達位置を求めた上でこの相対位置を加味すれば溶接トーチに関する到達位置を算出することが容易にできる。
具体的には、図11(a)、(b)に示すように、カメラ2aが到達目標に達した状態でのロボットのメカニカルインタフェース座標系の位置をΣf 、溶接トーチ1cが到達目標に達した状態でのロボットのメカニカルインタフェース座標系の位置をΣf' 、また溶接トーチ先端に定義されたツール座標系をΣtとして、
f : Σf を基準にΣf' を表す同次変換行列
c : Σf を基準にΣc を表す同次変換行列
t : Σf' を基準にΣt を表す同次変換行列
と表すものとする。すると、図11(a)に示すカメラの到達目標位置をU として、図11(b)に示す溶接トーチ1cの到達目標位置U’は次のようにして算出することができる。
Figure 0004167954
図12は、上述した図6で説明した第1の実施形態における動作フローチャートである。この第1の実施形態は、対象物5に対してカメラ2aが予め決められたLの距離の位置に位置決めされるものである。
まず、ロボット制御装置1aのメインプロセッサ11はロボット1を駆動し、予め決められた対象物5から距離Lの撮像位置に位置決めする(ステップ100)。そして画像処理装置2に撮像指令を出力し、画像処理装置2のプロセッサ21は、対象物5をカメラ2aで撮像し(ステップ101)、フレームメモリ26に格納されたその画像をモニタ2bに表示する(ステップ102)。画像処理装置2のプロセッサ21は、標的Qがマウス等で選択指定されたか判断し、指定されると、指定された標的Qの位置に対応する画素数Nを求める(ステップ104)。上述した(5)式の演算を行ってキャリブレーション時の対象物5とカメラ2a間の距離Lにおける標的Qに対応する位置(距離)Wを求める(ステップ105)。そして、この距離W、予め設定されている距離L、キャリブレーション時の距離Lに基づいて(7)式の演算を行って移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ106)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボットの移動位置を求めその位置に移動させてカメラ2aが標的Qに距離Lだけ離れて対向する位置(カメラ光軸上に標的Qがある位置)に位置決めする(ステップ107)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ108)。
図13は、図7で説明した第2の実施形態における動作フローチャートである。
この第2の実施形態においては、最初、カメラ2aは、対象物に対して撮像できる任意の位置に位置決めされる。それ以後は、図12に示したステップ101〜105と同一の処理を実施する(ステップ200〜204)。そして、ステップ204で求められた位置(距離)W1だけ、カメラ2aの光軸が対象物5と交差する点と標的Qを結ぶ線平行方向に移動するようロボット制御装置1aに指令し、ロボット制御装置1aはカメラ2aを距離W1だけ標的Q方向に対象物5の面に対して平行移動させ位置決めする(ステップ205)。そして再び撮像し、撮像画面をモニタ2bに表示し、標的が選択指定されたか判断し(ステップ206〜208)、選択されると、その選択点の画素数N2を求める(ステップ209)。求められた画素数N1,N2、キャリブレーションにより予め求められている変換係数C0、距離L0に基づいて、(12)式の演算を行い移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ210)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボット1の移動位置を求めその位置に移動させてカメラ2aが標的Qに距離L0だけ離れて対向する位置(カメラ光軸上に標的Qがある位置)に位置決めする(ステップ211)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ212)。
図14は、図8で説明した第3の実施形態における動作フローチャートである。
この第3の実施形態にいてステップ300〜303までの処理は、図13で示した第2の実施形態のステップ200〜203までの処理と同一である。この第3の実施形態では、画素数Nを求めたあと、カメラ2aの光軸方向に垂直方向(対象物の面と平行な方向)で、標的Qがある方向に予め設定された距離Lだけロボット1を駆動してカメラ2aを移動させる(ステップ304)。そして、対象物を撮像し、標的Qが指定されるとその画素数Nを求める(ステップ305〜308)。
そして、求められた画素数N,N、キャリブレーションにより予め求められている変換係数C、距離L及び距離Lに基づいて、(18)式の演算を行い移動ベクトルqを求め、ロボット制御装置に送信する(ステップ309)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボットの移動位置を求めその位置に移動させてカメラ2aが標的Qに距離Lだけ離れて対向する位置に位置決めする(ステップ310)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ311)。
図15は、第4の実施形態における動作フローチャートである。
この第4の実施形態の処理は、第3の実施形態でステップ304で光軸と垂直方向にカメラ2aを移動させたステップ304の処理が、光軸方向であるZ軸方向にカメラ2aを予め決められた距離Lだけ移動させるステップ404の処理に代わるだけで、ステップ400〜ステップ408までの処理は第3の実施形態のステップ300〜ステップ308の処理と同一である。そして、この第4の実施形態では、求められた画素数N,N、キャリブレーションにより予め求められている変換係数C、距離L及び予め決められた距離Lによって、(23)式の演算を行い移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ409)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボットの移動位置を求めその位置に移動させてカメラ2aが標的Qに距離Lだけ離れて対向する位置に位置決めする(ステップ410)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ411)。
図16は、第5の実施形態における動作フローチャートである。
この第5の実施形態では、標的Qの画像モデルを教示しておき、ステップ502で、撮像した画像から標的Qの画像モデルを検出すること、そして、ステップ503で検出された標的QのサイズSを求めることと、ステップ507で標的Qの画像モデルを検出するステップ508で、標的Qの位置の画素数NとサイズSを求める点を除けば、図15に示した処理フローチャートのステップ400〜408と同一のステップ500〜508の処理を実施するものである。
そして、この第5の実施形態では、求められた標的Qの検出サイズS,S、画素数N、キャリブレーションにより予め求められている変換係数C、距離L及び予め決められた距離Lによって、(27)式の演算を行い移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ509)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボットの移動位置を求めその位置に移動させてカメラ2aが標的Qに距離Lだけ離れて対向する位置に位置決めする(ステップ510)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ511)。
上述した第1〜4の各実施形態では、標的Qを画面上でカーソル等を利用して指定するようにしたものであるが、標的Qの形状が予め既知である場合には、標的Qのモデルを教示しておき、パターンマッチング等の画像処理により、この標的Qを自動検出するようにしてもよい。この場合、図12のステップ103、図13のステップ202,208、図14のステップ302,307、図15のステップ402,407が、モデル形状の検出処理に代わることになる。
また、モデル形状を教示しない場合でも、1回目に標的Qを指定したとき、その指定された近傍領域から画像モデルを生成して、第2回目の標的Qの検出は、この生成した画像モデルに基づいて標的Qを自動的に検出するようにしてもよい。この場合は、第2の実施形態における図13のステップ202の後、第3の実施形態における図14のステップ302の後、第4の実施形態における図15のステップ402の後に画像モデル生成処理が加わり、ステップ208、ステップ307、ステップ407が、画像モデルの検出処理に代わることになる。
本発明の一実施形態におけるロボットの全体構成を示す図である。 同実施形態におけるロボット制御装置の要部ブロック図である。 同実施形態における画像処理装置の要部ブロック図である。 同実施形態におけるカメラのキャリブレーションの概略を説明する図である。 本発明における視線ベクトルの求め方の説明図である。 本発明の第1の実施形態の動作原理説明図である。 本発明の第2の実施形態の動作原理説明図である。 本発明の第3の実施形態の動作原理説明図である。 本発明の第4の実施形態の動作原理説明図である。 本発明の第5の実施形態の動作原理説明図である。 カメラが標的に対向した位置からツールが標的に対向した位置に変換する説明図である。 本発明の第1の実施形態の動作処理フローチャートである。 本発明の第2の実施形態の動作処理フローチャートである。 本発明の第3の実施形態の動作処理フローチャートである。 本発明の第4の実施形態の動作処理フローチャートである。 本発明の第5の実施形態の動作処理フローチャートである。
符号の説明
1 ロボット
1a ロボット制御装置
1b ロボットアーム
1c 溶接トーチ
2 画像処理装置
2a CCDカメラ
2b モニタ
3 レンズ
4 受光素子
18 教示操作盤

Claims (20)

  1. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
    前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  2. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
    前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  3. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
    前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  4. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの光軸と直交し前記指定された対象物への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  5. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの光軸と直交し前記指定された対象物への方向の前記カメラの第1の移動方向を決定する手段と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  6. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  7. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
    前記検出された対象物の前記画像上での第1のサイズ情報を取得する手段と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
    前記再検出された対象物の前記新たに撮像された画像上での第2のサイズ情報および位置情報を取得する手段と、
    前記所定距離と、前記第1のサイズ情報と、前記第2のサイズ情報と、前記位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  8. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
    前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  9. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
    前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  10. 手先部にカメラを装着したロボットにおいて、
    前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する手段と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
    前記指定された点の前記画像上での第1の位置情報を取得する手段と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
    前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
    を備えたことを特徴とするロボット。
  11. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記指定された点と同一の点を再指定する段階と、
    前記再指定された点の前記新たに取得された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  12. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する段階と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する段階と、
    前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  13. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記指定された点と同一の点を再指定する段階と、
    前記再指定された点の前記新たに取得された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  14. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で予め指定された対象物を検出する段階と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの光軸と直交し前記指定された対象物への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  15. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で予め指定された対象物を検出する段階と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの光軸と直交し前記指定された対象物への方向の前記カメラの第1の移動方向を決定する段階と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  16. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で予め指定された対象物を検出する段階と、
    前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
    前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
    前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  17. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で予め指定された対象物を検出する段階と、
    前記検出された対象物の前記画像上での第1のサイズ情報を取得する段階と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
    前記再検出された対象物の前記新たに撮像された画像上での第2のサイズ情報および位置情報を取得する段階と、
    前記所定距離と、前記第1のサイズ情報と、前記第2のサイズ情報と、前記位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  18. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
    前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
    前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  19. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
    前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する段階と、
    前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
  20. 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離対応させられたキャリブレーションデータが予め求められたものであって、
    前記カメラで撮像した画像を取得する段階と、
    前記取得された画像中で対象物上の任意の点を指定する段階と、
    前記指定された点の前記画像上での第1の位置情報を取得する段階と、
    前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
    前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
    前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
    前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
    前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
    前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
    を含むロボットの移動方法。
JP2003310409A 2003-09-02 2003-09-02 ロボット及びロボット移動方法 Expired - Fee Related JP4167954B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003310409A JP4167954B2 (ja) 2003-09-02 2003-09-02 ロボット及びロボット移動方法
US10/930,850 US20050065653A1 (en) 2003-09-02 2004-09-01 Robot and robot operating method
EP04255297A EP1512499A3 (en) 2003-09-02 2004-09-01 Robot having a camera mounted at the distal end of its arm and method for operating such a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003310409A JP4167954B2 (ja) 2003-09-02 2003-09-02 ロボット及びロボット移動方法

Publications (2)

Publication Number Publication Date
JP2005074600A JP2005074600A (ja) 2005-03-24
JP4167954B2 true JP4167954B2 (ja) 2008-10-22

Family

ID=34131821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003310409A Expired - Fee Related JP4167954B2 (ja) 2003-09-02 2003-09-02 ロボット及びロボット移動方法

Country Status (3)

Country Link
US (1) US20050065653A1 (ja)
EP (1) EP1512499A3 (ja)
JP (1) JP4167954B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727053B2 (en) 2011-08-26 2017-08-08 Canon Kabushiki Kaisha Information processing apparatus, control method for information processing apparatus, and recording medium

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3961408B2 (ja) * 2002-11-21 2007-08-22 ファナック株式会社 組立て方法及び装置
JP2005108144A (ja) * 2003-10-02 2005-04-21 Fanuc Ltd ロボットの補正データ確認装置
EP1728600B1 (en) * 2005-05-31 2008-03-12 Honda Research Institute Europe GmbH Controlling the trajectory of an effector
DE102005040714B4 (de) * 2005-08-27 2015-06-18 Abb Research Ltd. Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
JP4221014B2 (ja) * 2006-06-20 2009-02-12 ファナック株式会社 ロボット制御装置
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
WO2008076942A1 (en) * 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
JP2009269134A (ja) * 2008-05-08 2009-11-19 Denso Wave Inc 視覚検査装置のシミュレーション装置
US20100017033A1 (en) * 2008-07-18 2010-01-21 Remus Boca Robotic systems with user operable robot control terminals
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
US8730314B2 (en) * 2010-04-13 2014-05-20 Varian Medical Systems, Inc. Systems and methods for monitoring radiation treatment
TW201247373A (en) * 2011-05-23 2012-12-01 Hon Hai Prec Ind Co Ltd System and method for adjusting mechanical arm
EP2729850A4 (en) * 2011-08-11 2015-07-08 Siemens Healthcare Diagnostics METHOD AND DEVICE FOR CALIBRATING AN ALIGNMENT OF A ROBOT GRIPPER AND A CAMERA
US9505130B2 (en) * 2012-07-13 2016-11-29 General Electric Company System and method for performing remote welding operations on an apparatus
US9025856B2 (en) 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
JP5664629B2 (ja) * 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
EP2934668B1 (en) * 2012-12-19 2018-08-22 VisCardia, Inc. Hemodynamic performance enhancement through asymptomatic diaphragm stimulation
JP2014176922A (ja) * 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
JP6188440B2 (ja) * 2013-06-17 2017-08-30 キヤノン株式会社 ロボット装置及びロボット制御方法
JP6309476B2 (ja) * 2015-03-18 2018-04-11 美津濃株式会社 ウッド型ゴルフクラブヘッドおよびウッド型ゴルフクラブ
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10875186B2 (en) 2015-09-03 2020-12-29 Fuji Corporation Robot system
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
GB201614989D0 (en) * 2016-09-05 2016-10-19 Rolls Royce Plc Welding process
WO2018176188A1 (en) 2017-03-27 2018-10-04 Abb Schweiz Ag Method and apparatus for estimating system error of commissioning tool of industrial robot
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US10828716B2 (en) 2017-06-19 2020-11-10 Lincoln Global, Inc. Systems and methods for real time, long distance, remote welding
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US11358290B2 (en) * 2017-10-19 2022-06-14 Canon Kabushiki Kaisha Control apparatus, robot system, method for operating control apparatus, and storage medium
WO2020047713A1 (en) 2018-09-03 2020-03-12 Abb Schweiz Ag Method and apparatus for managing robot system
CN110026980A (zh) * 2019-04-04 2019-07-19 飞依诺科技(苏州)有限公司 一种机械臂控制终端的控制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
IT1303239B1 (it) 1998-08-07 2000-11-02 Brown & Sharpe Dea Spa Dispositivo e metodo per il posizionamento di una testa di misura inuna macchina per la misura tridimensionale senza contatto.
US6659939B2 (en) * 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6788018B1 (en) * 1999-08-03 2004-09-07 Intuitive Surgical, Inc. Ceiling and floor mounted surgical robot set-up arms
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
JP2005515910A (ja) 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US7262573B2 (en) * 2003-03-06 2007-08-28 Intouch Technologies, Inc. Medical tele-robotic system with a head worn device
US7127101B2 (en) * 2003-03-10 2006-10-24 Cranul Technologies, Inc. Automatic selection of cranial remodeling device trim lines
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727053B2 (en) 2011-08-26 2017-08-08 Canon Kabushiki Kaisha Information processing apparatus, control method for information processing apparatus, and recording medium

Also Published As

Publication number Publication date
JP2005074600A (ja) 2005-03-24
US20050065653A1 (en) 2005-03-24
EP1512499A2 (en) 2005-03-09
EP1512499A3 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
JP4167954B2 (ja) ロボット及びロボット移動方法
JP4021413B2 (ja) 計測装置
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US10052765B2 (en) Robot system having augmented reality-compatible display
US8964001B2 (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP4191080B2 (ja) 計測装置
JP3946711B2 (ja) ロボットシステム
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP4508252B2 (ja) ロボット教示装置
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US11446822B2 (en) Simulation device that simulates operation of robot
JP2001060108A (ja) ロボット動作教示装置および動作教示方法
WO2020130006A1 (ja) 情報投影システム、制御装置、及び情報投影方法
JP2011041990A (ja) ロボットの制御装置及びロボットのティーチング方法
JP4558682B2 (ja) 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
JP6343930B2 (ja) ロボットシステム、ロボット制御装置、及びロボット制御方法
JP2005205519A (ja) ロボットハンド装置
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
JP2001191285A (ja) ロボットシステムおよびその利用方法
JPH0430981A (ja) 遠隔操縦型ロボットのテレビカメラ制御装置
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070502

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070511

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080804

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees