JP2009214265A - ロボット教示装置 - Google Patents

ロボット教示装置 Download PDF

Info

Publication number
JP2009214265A
JP2009214265A JP2008062671A JP2008062671A JP2009214265A JP 2009214265 A JP2009214265 A JP 2009214265A JP 2008062671 A JP2008062671 A JP 2008062671A JP 2008062671 A JP2008062671 A JP 2008062671A JP 2009214265 A JP2009214265 A JP 2009214265A
Authority
JP
Japan
Prior art keywords
coordinate
robot
workpiece
camera
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008062671A
Other languages
English (en)
Other versions
JP4508252B2 (ja
Inventor
Takeshi Ueyama
剛 植山
Minoru Takahashi
稔 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2008062671A priority Critical patent/JP4508252B2/ja
Priority to US12/382,228 priority patent/US8406923B2/en
Priority to DE102009012590A priority patent/DE102009012590A1/de
Publication of JP2009214265A publication Critical patent/JP2009214265A/ja
Application granted granted Critical
Publication of JP4508252B2 publication Critical patent/JP4508252B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37017Calibration of vision system, set correct attidude of sensor to workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ロボットのアーム先端に取り付けたカメラでワークを撮影し視覚検査を行う視覚検査装置において、表示画面に表示されるカメラの撮影画像を見ながらティーチングペンダントを用いてアームを手動操作することにより、ワークが適当な見え方となる位置を撮影位置として設定するティーチングの途中で、カメラの視野からワークが外れた場合にワークを再度カメラの視野内に入れるための操作を容易に行うことができるようにする。
【解決手段】ワークの中心を仮定し、教示中にカメラの視野からワークが外れた場合、カメラを仮定中心に向けるようにする。仮定中心の高さ方向の座標は、ワークの高さ位置を計測した結果に基づいて定める。仮定中心の縦横2方向の座標位置は、ワークの所望位置を上方から撮影したときのカメラの縦横2方向の座標に定める。
【選択図】図5

Description

本発明は、アーム先端にカメラを取り付けたロボットに対し、ワークの所望のポイントをカメラによって撮影するための撮影位置を教示するロボット教示装置に関するものである。
例えば、部品の組み付けが正しく行われているかどうかなどの検査を行う検査装置として、ロボットアームに取り付けられたカメラを用いて視覚検査を行うようにした視覚検査装置が考えられている(例えば特許文献1)。この視覚検査装置は、先端にカメラを取り付けたロボットアームを検査設備の天井部に配設し、搬送路上を送られて検査設備の所定位置に停止されたワーク(検査対象物)に対し、ロボットアームを制御することによって複数の撮影位置にカメラを順に移動させながらワークの撮影を行い、その撮影画像を画像処理装置によって処理することに基づいてワークの各部の外観検査を行うものである。
この場合、複数の撮影位置は、予め教示されてメモリに記憶されているのであるが、その教示は、使用者が表示画面に表示されるカメラの撮影画像を見ながらティーチングペンダントを用いてアームを手動操作することにより、ワークが適当な見え方になる位置を探し、その位置を撮影位置として記憶させることによって行われていた。
なお、本発明とは直接的な関係はないが、特許文献2には、シミュレーションによってロボットの位置決めを行う場合、操作効率を向上させるために、仮想的な球面とその球面上の仮想的なカメラを想定し、カメラの位置を赤道方向、極軌道方向、および半径方向に移動させることで、アームの先端位置を含む平面を表示することができ、この平面内で目標位置を指定することが開示されている。
特開平8−313225号公報 特開平11−242513号公報
特許文献1に示されているように、カメラでワークを撮影し、その撮影画像が表示される表示画面を見ながらティーチングペンダントを操作してロボットアームを動かし、適当な撮影位置を探し出してゆく場合、途中で、誤ってカメラの撮影視野内からワークを外してしまうことがある。このようになると、アームを動かして再びカメラの撮影視野内にワークが入るようにする必要がある。しかしながら、表示画面にワークが映し出されていない状態では、ワークが表示画面上でどの方向にあるのか判然としないし、ロボットの座標系とカメラが取り付けられているアーム先端の座標系とが異なるため、ロボットの教示に習熟していても、カメラによってワークを捉えることは中々手間のかかる作業で、まして、ロボットの教示に習熟していない未熟者にとっては更に手間のかかる面倒な作業となる。
このカメラの視野内にワークを入れるために、特許文献2の技術を応用し、仮想的な球面の中心をワークの中心に定め、カメラの位置を仮想球面の赤道方向、極起動方向、および半径方向に移動させることでカメラの視野内に常にワークが入るようにすることが考えられる。ところが、この技術を応用する場合、ワークの中心の位置を、ロボットの座標系の位置として入力しておかねばならない。しかし、ワークの中心位置をロボット座標上の位置として入力する場合、ロボット座標の原点の位置と、縦、横、高さの各座標軸の向きが分らないとワークの中心位置をロボット座標上の位置として入力することはできない。この場合、ロボット座標の原点の高さ位置が例えば床面に据え付けられるベースの底面にあることから、ロボット座標の縦、横、高さの3方向の座標のうち高さ方向の座標位置は比較的簡単に計測できるが、しかし、原点位置が縦横方向のどこにあるか、また、その縦横の座標軸がどちらを向いているかは判然としないため、結局、ワークの中心位置をロボット座標上の位置として計測することは困難である。
本発明は上記の事情に鑑みてなされたもので、その目的は、カメラの視野内にワークを入れるための操作を比較的容易に行うことができるロボット教示装置を提供することにある。
教示中にカメラの視野からワークが外れた場合、再びカメラの視野内にワークを写し出すには、ワークがどの方向にあるかが大まかに分れば、カメラをワークの方向に向け、カメラによってワークを写し出すことができるようになる。このため、教示動作に先立ってワークの大体の位置を入力しておけば、教示途中でカメラの視野からワークが外れても、再びカメラの視野内にワークが入るようにすることは、比較的容易にできる。
本発明では、ワークの中心を仮定しておき、教示中にカメラの視野からワークが外れた場合、カメラを仮定した中心(仮定中心)に向けるようにする。仮定中心の高さ方向の座標位置情報は、ワークの高さ位置を測定し、その測定結果に基づいて高さ位置情報入力手段により入力する。仮定中心の水平面内の縦横2方向の座標位置は、カメラをワークの上方に移動させてワークを上方から撮影したときのカメラの座標位置から求める。
仮定中心の数と仮定中心の縦横2方向の位置座標の求め方は、請求項1〜4においてそれぞれ異なる。請求項1の発明では、カメラをワークの所望の1箇所の上方に移動させ、その位置をワーク位置座標取得手段によりロボット座標上の位置として取得する。そして、ワーク位置座標取得手段により取得した座標位置の縦横2方向の座標位置を仮定中心の縦横2方向の座標とする。
請求項2の発明では、カメラをワークの所望の複数箇所の上方へ移動させたときの各移動位置をワーク位置座標取得手段によりロボット座標上の位置として取得する。そして、ワーク位置座標取得手段により取得した複数の前記移動位置の縦横2方向の座標位置を結ぶ平面図形の中心に仮定中心があるとして該仮定中心のロボット座標上での位置を取得する。この場合、前記移動した箇所(ロボット座標の取得位置)が2箇所のとき、前記平面図形は直線となるが、本発明において、前記平面図形には直線を含むものとする。
請求項3の発明では、カメラをワークの所望の複数箇所の上方へ移動させたときの各移動位置をワーク位置座標取得手段によりロボット座標上の位置として取得する。そして、ワークの仮定中心が所望の複数の前記移動位置の数と同数の複数あるとして、ワーク位置座標取得手段により取得した座標位置の縦横2方向の座標位置を各仮定中心の縦横2方向の座標とする。
請求項4の発明では、カメラをワークの所望の複数箇所を一群として複数群の複数箇所の上方へ移動させ、複数群の各移動位置をワーク位置座標取得手段によりロボット座標上の位置として取得する。そして、ワークの仮定中心が所望の複数箇所の群れの数と同数の複数あるとして、その複数の各仮定中心が、各群の複数の所望箇所の各移動位置の前記縦横2方向の座標位置を結ぶ平面図形の中心にあると仮定し、この複数の仮定中心の前記ロボット座標上での位置を取得する。
ここで、カメラをワークの所望箇所の上方へ移動させる場合、請求項1,3の発明では、ワークを上方から見た平面的図形(水平面に投影してできる図形)の輪郭の内側に所望箇所を定める。これに対し、請求項2,4の発明では、ワークの仮定中心は、複数の所望箇所を結んだ平面図形の中心に設定されるから、所望箇所は、必ずしもワークを上方から見た平面的図形の輪郭の内側である必要はなく、平面的図形の輪郭の外側に定めても良い。
そして、教示中にカメラの視野からワークが外れた場合、所定の操作がなされると、請求項1,2の発明では、カメラの光軸がワークの仮定中心を向くようにアーム先端の位置と姿勢を設定し、請求項3,4の発明では、複数の仮定中心のうちからアーム先端の最も近くにある仮定中心を選択してカメラの光軸が選択された仮定中心を向くようにアーム先端の位置と姿勢を設定するので、一旦カメラの視野から外れたワークを再びカメラの視野内に入れることが容易にできる。
以下、本発明の一実施形態を図面を参照しながら説明する。
ロボット装置は、図1に示すように、ロボット1と、このロボット1を制御する制御手段としての制御装置2とからなり、更にティーチングペンダント3および表示装置4を備えて構成されている。上記ティーチングペンダント3は、操作手段としての各種の操作部3aおよび表示部としての表示器3bを備えている。
上記ロボット1は、例えば6軸の垂直多関節型のものとして構成され、ベース5と、このベース4に水平方向に旋回可能に支持されたショルダ部6と、このショルダ部6に上下方向に旋回可能に支持された下アーム7と、この下アーム7に上下方向に旋回可能に且つ回転(捻り動作)可能に支持された上アーム8と、この上アーム8に上下方向に旋回可能に支持された手首9とから構成されており、手首9は先端部に回転(捻り動作)可能なフランジ10を備えている。そして、アーム先端であるフランジ10には、ワークを撮影するためのカメラ11が取り付けられている。なお、カメラ11は、固定焦点のレンズを1個だけ有するものとして構成されている。
一方、前記制御装置2は、図2に示すように、CPU12、駆動回路13、位置検出手段としての位置検出回路14を備えている。そして、上記CPU12には、記憶手段として、ロボット装置全体のシステムプログラム等を記憶するROM15、ロボット1の動作プログラム等を記憶するRAM16が接続されていると共に、ティーチング作業を行なう際に使用する前記ティーチングペンダント3、前記表示装置4、前記カメラ11などが接続されている。
上記位置検出回路14は、各関節、すなわちショルダ部6、各アーム7,8、手首9およびフランジ10の位置を検出するためのもので、この位置検出回路14には、ショルダ部6、各アーム7,8、手首9およびフランジ10の駆動モータ17に設けられた位置センサとしてのロータリエンコーダ18が接続されている。上記位置検出回路14は、ロータリエンコーダ18の検出信号によってベース5に対するショルダ部6の回転角度、ショルダ部6に対する下アーム7の回転角度、下アーム7に対する上アーム8の回転角度、上アーム8に対する手首9の回転角度、および手首9に対するフランジ10の回転角度を検出し、その位置検出情報はCPU12に与えられる。
そして、CPU12は、動作プログラムに基づいてショルダ部6、各アーム7,8、手首9およびフランジ10を動作させる際、位置検出回路14からの入力信号をフィードバック信号としてそれらの動作を制御するようになっている。なお、図2では、駆動モータ17およびロータリエンコーダ18は1個のみ示すが、実際には、ショルダ部6、各アーム7,8、手首9およびフランジ10に対して一対一の関係で複数設けられているものである。
ここで、各関節には、それぞれ三次元の座標が固定されている。このうち、不動のベース5の座標系はロボット座標(図1にSで示す座標)とされるものであり、他の座標系は各関節の回転によってロボット座標S上での位置と向きが変化する。ロボット座標Sは、例えばベース5の底面とショルダ部6の旋回軸との交点に原点Pを有し、Z軸を高さ方向(鉛直方向)の座標軸に定め、X軸およびY軸を水平面内における縦横2方向の座標軸としている。
そして、制御装置2(CPU12)は、位置検出回路14から入力されるショルダ部6、各アーム7,8、手首9およびフランジ10等の各関節の位置検出情報と予め記憶されている各関節の長さ情報に基づいて、各関節の座標の位置と向きを、座標変換の演算機能によりロボット座標S上での位置と向きに変換して認識することができるようになっている。
さて、上記各関節の座標系のうち、フランジ10の座標系は、図3に示すように、フランジ10の先端面の中心P0 を原点とし、フランジ10の先端面上で2つの座標軸、フランジ10の回転軸上で1つの座標軸を定めるという条件を満足すれば、Xf ,Yf ,Zf の3つの座標軸の方向は使用者において自由に設定できるようになっている。この実施例では、図3に示すように、Xf およびYf の2軸はフランジ10の先端面上に存在し、残るZf 軸はフランジ10の回転軸(フランジ10の先端面に直交する軸)上に存在するように定められているものとする。
そして、ロボット1の位置および姿勢、即ちアーム先端であるフランジ10の位置および姿勢のうち、位置はフランジ10の座標の原点P0であるフランジ10の先端面の中心が占めるロボット座標S上の位置で示される。また、フランジ10の姿勢は、図3に示すように、フランジ10の座標系の原点P0からZf 軸に沿ってその負方向に突出する単位長さ「1」のアプローチベクトルAと、原点P0 からXf 軸に沿ってその正方向に突出する単位長さ「1」のオリエントベクトルOを定義し、フランジ10の座標系をその原点P0 がロボット座標Sの原点Pに合致するように平行移動させたとき、そのロボット座標S上でのアプローチベクトルAとオリエントベクトルOで表される。
本実施形態のロボットは、例えば、組立ラインの最終工程で、組み立てられたワーク19(図6に上方から見た平面的図形で示す。)の複数箇所をカメラ11により撮影し、部品の組み付けなどが正しく行われているかどうかを検査するための視覚検査装置に用いられるもので、当該カメラ11は、その光軸LがアプローチベクトルAが定義されたZf軸と同軸になるように取り付けられている。カメラ11によるワーク19の撮影位置の教示は、ティーチングペンダント3によってロボット1を手動操作することにより行われる。
カメラ11による撮影位置の教示は、表示装置4の画面に表示されるカメラ11の撮影画像を見ながら、手動操作手段としてのティーチングペンダント3によりロボット1を動作させ、所望の検査位置が表示装置4に写し出されたとき、そのときのロボット1の位置および姿勢を撮影位置として教示する。この撮影位置の教示中、カメラ11の撮影視野からワーク19が外れると、教示が行えないので、再度、ワーク19をカメラ11の撮影視野内に入れる必要がある。このワーク19を再度カメラ11の撮影視野内に入れるためのロボット1の動作を簡単な操作で行うことができるようにするために、上記検出位置を撮影する撮影位置を教示する本教示の前段で準備教示を行う。
この準備教示は、ワーク19の中心を仮に定め、この仮定中心の位置を、ロボット座標S上の位置として教示しておこうとするものである。なお、制御装置2は、GUI(Graphical User Interface)機能を有するソフトウエアを搭載しており、準備教示時には、図4(a)に示すように、このGUI機能によって表示装置4の画面の片隅に、ロボット1とワーク19などを表示するようになっている。特にGUI機能によって表示されるロボット1は、ティーチングペンダント3の手動操作に伴って実際のロボット1と同様の動きを呈するようになっている。
上記の準備教示(仮定中心位置設定)の内容を図5のフローチャートをも参照しながら説明するに、まず、使用者は、ワーク19を視覚検査装置のワーク設置部(図4(b)にTで示す。)にセットし(図5のステップS1)、そして、ワーク19の高さ位置とロボット1が据え付けられた台座(図4(b)でDで示す。)の床面Fからの高さ(ロボット座標Sの原点の高さ)hを測定する(ステップS2)。このときのワーク19の高さ位置は、図4(b)に示すように床面Fからワーク19の所望部分Gまでの高さ寸法Hである。この場合、ワーク19の所望部分Gは、ワーク19の最上部であっても良いし、最下部であっても良いし、上下方向の中間部であっても良いが、後述のように、カメラ11を仮定中心に向けたとき、カメラ11の撮影視野内にワーク19が入るようにするためには、下方寄りの方が好ましく、最下部に定めることがより好ましい。
次に、使用者は、ティーチングペンダント3を操作してロボット1を準備教示モードに設定する(ステップS3)。すると、制御装置2は、表示装置4の画面にカメラ11の撮影画像を表示すると共に、ロボット1とワーク19のグラフィック画像を表示する。また、制御装置2は、ティーチングペンダント3に手動操作に応じてロボット1を操作させ得る状態となり、表示装置4のグラフィック画像のロボットをティーチングペンダント3の操作に応じた動作となるように動的に表示し得る状態となる。
この状態で、使用者は、ティーチングペンダント3を操作してロボット1を動作させ、続いて、実際のロボット1の動きを見ながら、カメラ11がほぼ鉛直下向きで且つワーク19の上方に位置するように、即ちカメラ11の撮影視野内にワーク19が入るようにする。そして、カメラ11の撮影視野内にワーク19の全体が入るようにカメラ11の高さ位置と水平方向の位置を調節する(ステップS4)。これにより、図6に示すように、ワーク19を上方から見た平面図形が表示装置4の画面に表示される。そして、使用者は、ワーク19を上方から見た平面図形のうちの所望の1箇所として、例えば上方から見たワーク19の図形的中心を選択する(ステップS5)。なお、図6では、選択した1箇所を点Cにて示したが、選択された箇所Cが表示装置4に表示されたワーク19の平面図形上で実際に点で表示されるようにしても良いし、特に表示されるようにしなくともどちらでも良い。
次いで、使用者は、ワーク19の平面図形上での中心がカメラ11の撮影視野内の中心に概ね一致、つまり光軸をほぼ鉛直としたカメラ11が上から見たワーク19の図形的中心のほぼ真上に位置するようにカメラ11をほぼ水平の縦横方向に動かす。これにより、上記選択された1箇所Cの真上にカメラ11が位置された状態となる(ステップS6)。なお、上記選択された1箇所Cのほぼ真上にカメラ11が位置したかどうかは、表示装置4の画面に写されたカメラ11の撮影画像の中心に選択された1箇所Cが位置しているかどうかによって分る。勿論、撮影画像を見るのではなく、実際のカメラ11の位置を見て、そのカメラ11の位置とワーク19の中心位置との関係で、カメラ11がワーク19の中心位置の上方に移動したと判断しても良い。
そして、ワーク19の平面図形上の選択された1箇所Cがカメラ11の撮影画像の中心に一致したところで、使用者は、ティーチングペンダント3を操作して位置の教示を行う。すると、制御装置2のCPU12が位置教示操作時のフランジ10のロボット座標S上の位置と姿勢を取得してRAM16(記憶手段)に記憶する(ステップS7;ワーク位置座標取得手段)。続いて、CPU12は、記憶したフランジ10の位置データのうち、縦横2方向の位置、つまり、ロボット座標S上の水平面内でのXY2軸方向の位置Xw,YwをRAM16に記憶する(ステップS8)。
次に、使用者は、ステップS2で計測したワーク19の高さ寸法と台座Dの高さ寸法hとの差を、ティーチングペンダント3を操作して表示装置4のグラフィック画像を利用して入力する(ステップS9;高さ位置入力手段)。例えば、表示装置4の表示画面に表示されたカーソルを動かして「ワーク下面差」をクリックし、テンキーにて数値(差)入力する。すると、制御装置2のCPU12が入力された高さ寸法差(H−h)を、ロボット座標SのZ軸方向の高さ位置Zwに換算してRAM16に記憶し、続いて、ワーク19の中心が上述のXw,Yw,Zwの座標位置にあると仮定する(ステップS10;仮定中心位置座標取得手段)。この座標位置(Xw,Yw,Zw)を仮定中心の位置ということにする。以上で準備教示を終了する。
ワーク19の仮定中心の位置を求めた後、撮影位置の教示に移行する。この撮影位置の教示は、表示装置4に表示されているカメラ11の撮影画像を見ながら、ロボット1をティーチングペンダント3の手動操作により動作させ、ワーク19の所望の検査対象位置が良好に見得る位置を検査位置として教示するものである。
ところで、この撮影位置の教示中に、カメラ11の撮影画像からワーク19を外してしまうことがある。このようになった場合、使用者は、所定の操作、具体的には、ティーチングペンダント3を操作して表示装置4の表示画面に表示されているグラフィック画像に表示されている例えば「向きをワークへ」の表示部分をクリック操作して仮定中心撮影モードに設定すると、制御装置2のCPU12が図7に示すフローチャートに従ってロボット1の動作を制御し、カメラ11の撮影視野内に再びワーク19が入るようにカメラ11の向きを修正し、且つピントがワーク19に合うようにカメラ11の位置を自動調整する。
即ち、仮定中心撮影モードに設定されると(ステップA1)、CPU12は、現在のフランジ10の位置(中心P0の位置)および姿勢を取得し、現在のフランジ10の位置とワーク19の仮定中心とを結ぶ線にカメラ11の光軸が一致するように(カメラ11が仮定中心の方を向くように)ロボット1を動作させる(ステップA2;カメラ姿勢設定手段)。次に、CPU12は、カメラ11がその光軸に沿ってワーク19から遠ざかる方向に移動するように、ロボット1を動作させる(ステップA3;ピント調整手段)。そして、このカメラ11の移動過程で、CPU12は、カメラ11の撮影画像に対する周知の解析処理を行い(ステップA4;画像解析手段)、ピントがあったかどうかを判断する(ステップA5;ピント一致判断手段)動作を繰り返し行い、ピントが合ったところでロボット1を停止させて仮定中心撮影モードを終了する(ステップA5で「YES」、ステップA10、エンド)。
カメラ11を光軸に沿ってワーク19から遠ざかる方向に移動させる際、その移動距離がカメラ11が使用しているレンズの焦点距離以上になってもピントが合わない場合、それ以上同方向に移動させてもピントは合わない。そこで、CPU12は、カメラ11の移動距離がレンズの焦点距離以上になったところでワーク19から遠ざかる方向への移動を停止させ、カメラ11の光軸に沿ってワーク19に近付く方向に移動させる(ステップA6で「YES」、ステップA7)。
そして、このカメラ11の移動過程で、CPU12は、カメラ11の撮影画像に対する周知の解析処理を行い(ステップA8)、ピントがあったかどうかを判断する(ステップA9)動作を繰り返し行い、ピントが合ったところでロボット1を停止させて仮定中心撮影モードを終了する(ステップA9で「YES」、ステップA10、エンド)。以上により、カメラ11の撮影画像内にワーク19が入ったこととなるので、前述した撮影位置の教示に戻ることができる。
このように、カメラ11の撮影位置を教示している最中で、カメラ11の撮影画像内からワーク19が外れた場合、再びワーク19をカメラ11の撮影画像内に入れる操作が単に仮定中心撮影モードに設定する操作だけで済むようになる。
本実施形態では、上述のように仮定中心を1つだけ求めてカメラ11の撮影視野からワーク19が外れた場合に対処するようにした。この仮定中心にする箇所を1つだけ指定してその座標を求める第1の方式を一中心指定方式と称すると、本実施形態では、一中心指定方式の外に、以下に説明する3つの方式でワーク19の中心を仮定してその仮定した中心の座標を求めることができる。
図8および図9は第2の方式を示す。この方式を、一中心図形演算方式と称することとする。この一中心演算方式は、カメラ11をワーク19よりも上方に移動させ、ワーク19よりも上方の複数の所望位置でロボット座標を取得し、その複数の位置を結んでできる図形の中心をワーク19の仮定の中心に定めるものである。
即ち、本実施形態では、カメラ11をワーク19よりも上方に移動させ、ワーク19を上方から見た平面図形の外形線近くにおいて、所望の複数箇所、例えば図9(a)に示す4箇所を選択し(ステップB5)、まず、ロボット1から近いほうの2箇所E1,E2を撮影し、次いで、ロボット1から遠い方の2箇所E3,E4を撮影する(ステップB6)。すると、CPU12は、撮影した4箇所について、フランジ10の位置と姿勢を記憶する(ステップB7)。なお、カメラ11をE1〜E4の上方へ移動させたとき、ワーク19を必ずしも撮影する必要はない。
その後、CPU12は、撮影した4箇所のロボット座標S上の位置のXYの縦横2方向の位置を結んでできる平面的な図形を求めて(ステップB8;形状演算手段)、その求めた図形の中心を算出し(図形中心演算手段)、その算出した中心のXY座標をワーク19の仮定中心のXY座標とする(ステップB9;仮定中心平面座標設定手段)。この場合の図形の中心の求め方は、例えば、直交する縦横2本の線を仮定し、図形の面積を左右2等分する縦線と図形を上下2等分する横線との交点を図形の中心とする方法が考えられる。そして、CPU12は、第1の方式と同様に入力された高さ方向の座標位置(ステップB10)とから仮定した中心をロボット座標Sにより(Xw,Yw,Zw)として記憶する(ステップB10、ステップB11;仮定中心位置座標設定手段)。
なお、この第2方式において、ロボット座標を取得する箇所は、図4(a)に示すようにワーク19の平面的図形の外側であっても良いし、図4(b)に示すように平面的図形の内側であっても良いし、図4(c)に示すように平面的図形の外側と内側の双方であっても良い。
図10ないし図13は第3の方式を示す。この方式を、多中心指定方式と称することとする。この多中心指定方式は、ワーク19の中心を1点ではなく、複数指定するもので、大型のワークや図11のように異形のワーク19′などの場合に好適する。
即ち、カメラ11を移動させてロボット座標を取得する箇所を、ワーク19を上方から見たときの平面的図形において、図10に示すように複数の所望箇所(図10では2箇所C1,C2)を選択し(図12のステップC5)、各箇所C1,C2の真上からカメラ11で撮影し(ステップC6)、その撮影時のフランジ10の座標位置と姿勢を求める(ステップC7)。そして、各座標位置についてのXY2方向の座標を水平面内における複数の中心の平面座標と仮定する(ステップC8)。その後、第1の方式と同様に入力された高さ方向の座標位置とから、複数の仮定の中心の位置をロボット座標S上で(Xwn,Ywn,Zwn;nは仮定中心の数までの整数)と設定し、記憶するものである(ステップC9、ステップC10)。
このように構成した場合には、撮影位置の教示中にカメラ11の撮影画像中からワーク19が外れた場合、図13のフローチャートに示すように、CPU12は、まず、フランジ10の現在位置を検出し、仮定した中心のうち、フランジ10の現在位置に最も近い中心を選択する(ステップD2)。そして、この選択した中心をカメラ11の光軸が通るようにロボット1を動作させる(ステップD3)。これにより、カメラ11の撮影視野内にワーク19が入るようになる。
この構成では、ワーク19に複数の中心を仮定し、カメラ11の撮影画像からワーク19が外れたとき、その時のフランジ10に最も近い中心にカメラ11を向けるので、カメラ11の撮影画像内に再びワーク19を入れるためのロボット1の動作が小さくて済むようになる。
図14および図15は第4の方式を示す。この方式を、多中心図形演算方式と称することとする。この第4の方式は、ワークの仮定の中心を1点ではなく、複数の点として求めるもので、各仮定中心は複数の点を結んでできる図形から求めようとするものである。以下に上述の第3の方式と異なる部分についてのみ説明する。
即ち、カメラ11をワーク19の上方に移動させてワーク19を撮影する。このワーク19を上から撮影した画像は表示装置4の画面に表示されるので、そのワーク19の平面的図形を見て、複数の所望箇所を一群として複数群となるように所望の箇所を選択する(ステップE5)。図14では、ワーク19を上から見た平面的図形において、合計8つの所望箇所C1〜C8を2群に分けて選択した例を示し、第1群は、ワーク19の左側半分についてロボット1から近い箇所C1,C2および遠い箇所C3,C4を2箇所ずつ選択し、第2群は、ワーク19の右側半分についてロボット1から近い箇所C5,C6および遠い箇所C7,C8を2箇所ずつ選択した状態を示している。なお、C1〜C8を選択する場合、およびカメラ11をC1〜C8の上方で移動させる場合、必ずしもカメラ11でワーク19を撮影する必要はなく、実際のワーク19、カメラ11を目で見て行うようにしても良い。
所望箇所を複数群となるように選択した後、群毎に、選択した箇所の真上にカメラ11を移動させ(ステップE6)、各箇所でのフランジ10の位置座標(Xwn,Ywn,Zpn)と姿勢とを記憶する(ステップE7)。次に、各群において、複数箇所についてその位置座標から縦横2方向の平面上の位置を求めてこれら複数の位置を結んだ図形を求め(ステップE8)、求めた図形の中心のXY2方向の座標を求める(ステップE9)。
その後、ワーク19の高さ位置とロボット1のベース5の高さ位置との差が入力されると(ステップE10)、CPU12は、各群について求めた図形の中心を、ワーク19の複数の仮定中心とし各仮定中心の位置座標を(Xon,Yon,Zow)に設定する(ステップE11)。
なお、本発明は上記し且つ図面に示す実施形態に限定されるものではなく、以下のような拡張或いは変更が可能である。
カメラ11は、必ずしも光軸がフランジ10に固有の座標軸のうちZfと一致するように取り付ける必要はなく、光軸がZfからずれた位置に取り付けるようにしても良い。この場合、光軸がZfと平行となるように取り付けても、直角となるように取り付けても良い。また、光軸をZfに対して傾いた状態(平行でもなく直角でもない状態)に取り付けても良い。事前に光軸とフランジ10の座標軸との関係が入力されていれば、その入力情報に基づいてカメラ11をワーク19の仮定中心に向けることは可能である(正確に仮定中心を向く必要ななく、カメラ11の視野内にワーク19が入る程度に大体仮定中心の方を向いていれば良いものである。
B方式によって仮定中心を複数定める場合、その仮定中心の数は2を超えても良い。
カメラ11は、オートフォーカス機能を有するレンズを備えたものであっても良く、また、焦点距離の異なるレンズを複数備えたものであっても良い。
本発明の一実施形態を示すロボット装置の斜視図 ロボット装置の電気的構成を示すブロック図 フランジをその三次元座標と共に示す斜視図 表示画面の一例を示す正面図であり、(a)は全体の正面図、(b)は部分的な拡大正面図 第1の方式にてワークの仮定中心を設定するためのフローチャート 第1の方式にて仮定中心を設定する場合に上方から撮影したワーク画像を基に所望の箇所を定めた状態を示す表示画面の正面図 第1の方式にワークの仮定中心を設定した場合において、カメラの撮影視野内に再度ワークを入れるためのフローチャート 第2の方式にてワークの仮定中心を設定するための図5相当図 第2の方式にて仮定中心を設定する場合に上方から撮影したワーク画像を基に所望の箇所を定めた状態を示す表示画面の正面図 第3の方式の仮定中心設定が好適するワークの一例を示す平面図 第3の方式に好適するワークの例を示す平面図 第3の方式にてワークの仮定中心を設定するための図5相当図 第3の方式にて仮定中心を複数設定した場合において、カメラの撮影視野内に再度ワークを入れるためのフローチャート 第4の方式にてワークの仮定中心を設定するための図5相当図 第4の方式にて仮定中心を設定する場合の図9相当図
符号の説明
図面中、1はロボット、2は制御装置(ワーク位置座標取得手段、仮定中心位置座標取得手段)、3はティーチングペンダント(高さ位置情報入力手段)、4は表示装置、5はベース、10はフランジ(アーム先端)、11はカメラ、12はCPU、14は位置検出回路、17は駆動モータ、18はロータリーエンコーダ、19はワークを示す。

Claims (4)

  1. アーム先端にカメラを取り付けたロボットを手動操作手段により動作させ、定位置にあるワークの所望の検査箇所を前記カメラによって撮影する際のその撮影位置を三次元座標からなるロボット座標上の位置として教示するロボット教示装置であって、
    前記定位置にあるワークの高さ位置を、前記ロボット座標の高さ方向の座標情報にて入力する高さ位置情報入力手段と、
    前記手動操作手段の操作により前記カメラを前記ワークの所望の1箇所の上方へ移動させたときの位置を前記ロボット座標上の位置として取得するワーク位置座標取得手段と、
    前記定位置にあるワークの中心が、前記ロボット座標の前記高さ方向の座標位置については前記高さ位置情報入力手段により入力された前記座標情報に基づいた座標位置にあり、且つ前記ロボット座標の縦横2方向の座標位置については前記ワーク位置座標取得手段により取得された縦横2方向の座標位置にあると仮定し、この仮定中心の前記ロボット座標上での位置を取得する仮定中心位置座標取得手段と、
    所定の操作がなされたとき、前記アーム先端の前記ロボット座標上の現在位置と前記仮定中心位置座標取得手段により取得された前記ワークの仮定中心の前記ロボット座標上の位置とから、前記カメラの光軸が前記ワークの仮定中心を向くように前記アーム先端の位置と姿勢を設定するカメラ姿勢設定手段と
    を具備してなるロボット教示装置。
  2. アーム先端にカメラを取り付けたロボットを手動操作手段により動作させ、定位置にあるワークの所望の検査箇所を前記カメラによって撮影する際のその撮影位置を三次元座標からなるロボット座標上の位置として教示するロボット教示装置であって、
    前記定位置にあるワークの高さ位置を、前記ロボット座標の高さ方向の座標情報にて入力する高さ位置情報入力手段と、
    前記手動操作手段の操作により前記カメラを前記ワークの所望の複数箇所の上方へ移動させたときの各位置を前記ロボット座標上の位置として取得するワーク位置座標取得手段と、
    前記定位置にあるワークの中心が、前記ロボット座標の前記高さ方向の座標位置については前記高さ位置情報入力手段により入力された前記座標情報に基づいた座標位置にあり、且つ前記ロボット座標の縦横2方向の座標位置については前記ワーク位置座標取得手段により取得された複数の縦横2方向の座標位置を結んでできる平面図形の中心にあると仮定し、この仮定中心の前記ロボット座標上での位置を取得する仮定中心位置座標取得手段と、
    所定の操作がなされたとき、前記アーム先端の前記ロボット座標上の現在位置と前記仮定中心位置座標取得手段により取得された前記ワークの仮定中心の前記ロボット座標上の位置とから、前記カメラの光軸が前記ワークの仮定中心を向くように前記アーム先端の位置と姿勢を設定するカメラ姿勢設定手段と
    を具備してなるロボット教示装置。
  3. アーム先端にカメラを取り付けたロボットを手動操作手段により動作させ、定位置にあるワークの所望の検査箇所を前記カメラによって撮影する際のその撮影位置を三次元座標からなるロボット座標上の位置として教示するロボット教示装置であって、
    前記定位置にあるワークの高さ位置を、前記ロボット座標の高さ方向の座標情報にて入力する高さ位置情報入力手段と、
    前記手動操作手段の操作により前記カメラを前記ワークの所望の複数箇所の上方へ移動させたときの位置を前記ロボット座標上の位置として取得するワーク位置座標取得手段と、
    前記定位置にあるワークの中心が、前記所望の複数箇所を撮影した位置の数と同数の複数あるとして、その複数の各中心が、前記ロボット座標の前記高さ方向の座標位置については前記高さ位置情報入力手段により入力された前記座標情報に基づいた座標位置にあり、且つ前記ロボット座標の縦横2方向の座標位置については前記ワーク位置座標取得手段により取得された複数の縦横2方向の座標位置にあると仮定し、この複数の仮定中心の前記ロボット座標上での位置を取得する仮定中心位置座標取得手段と、
    所定の操作がなされたとき、前記アーム先端の前記ロボット座標上の現在位置と前記仮定中心位置座標取得手段により取得された前記ワークの複数の仮定中心の前記ロボット座標上の位置とから、前記アーム先端の最も近くにある中心を選択して前記カメラの光軸が前記ワークの仮定中心のうち前記選択された中心を向くように前記アーム先端の位置と姿勢を設定するカメラ姿勢設定手段と
    を具備してなるロボット教示装置。
  4. アーム先端にカメラを取り付けたロボットを手動操作手段により動作させ、定位置にあるワークの所望の検査箇所を前記カメラによって撮影する際のその撮影位置を三次元座標からなるロボット座標上の位置として教示するロボット教示装置であって、
    前記定位置にあるワークの高さ位置を、前記ロボット座標の高さ方向の座標情報にて入力する高さ位置情報入力手段と、
    前記手動操作手段の操作により前記カメラを前記ワークの所望の複数箇所を一群として複数群の複数箇所の上方へ移動させたときの各位置を前記ロボット座標上の位置として取得するワーク位置座標取得手段と、
    前記定位置にあるワークの中心が、前記所望の複数箇所の群の数と同数の複数あるとして、その複数の各中心が、前記ロボット座標の前記高さ方向の座標位置については前記高さ位置情報入力手段により入力された前記座標情報に基づいた座標位置にあり、且つ前記ロボット座標の縦横2方向の座標位置については前記ワーク位置座標取得手段により取得された前記群毎の複数の所望箇所についての縦横2方向の座標位置を結んでできる複数の平面図形の中心にあると仮定し、この複数の仮定中心の前記ロボット座標上での位置を取得する仮定中心位置座標取得手段と、
    所定の操作がなされたとき、前記アーム先端の前記ロボット座標上の現在位置と前記仮定中心位置座標取得手段により取得された前記ワークの複数の仮定中心の前記ロボット座標上の位置とから、前記アーム先端の最も近くにある中心を選択して前記カメラの光軸が前記ワークの仮定中心のうち前記選択された中心を向くように前記アーム先端の位置と姿勢を設定するカメラ姿勢設定手段と
    を具備してなるロボット教示装置。
JP2008062671A 2008-03-12 2008-03-12 ロボット教示装置 Expired - Fee Related JP4508252B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008062671A JP4508252B2 (ja) 2008-03-12 2008-03-12 ロボット教示装置
US12/382,228 US8406923B2 (en) 2008-03-12 2009-03-11 Apparatus for determining pickup pose of robot arm with camera
DE102009012590A DE102009012590A1 (de) 2008-03-12 2009-03-11 Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008062671A JP4508252B2 (ja) 2008-03-12 2008-03-12 ロボット教示装置

Publications (2)

Publication Number Publication Date
JP2009214265A true JP2009214265A (ja) 2009-09-24
JP4508252B2 JP4508252B2 (ja) 2010-07-21

Family

ID=41063928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008062671A Expired - Fee Related JP4508252B2 (ja) 2008-03-12 2008-03-12 ロボット教示装置

Country Status (3)

Country Link
US (1) US8406923B2 (ja)
JP (1) JP4508252B2 (ja)
DE (1) DE102009012590A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
JP2011235380A (ja) * 2010-05-07 2011-11-24 Honda Motor Co Ltd 制御装置
JP2018194542A (ja) * 2017-05-17 2018-12-06 オムロン株式会社 画像処理システム、画像処理装置および画像処理プログラム
WO2019102822A1 (ja) * 2017-11-27 2019-05-31 アズビル株式会社 ポインタ装置
CN109848994A (zh) * 2019-02-22 2019-06-07 浙江启成智能科技有限公司 一种机器人视觉引导定位算法
WO2021117619A1 (ja) * 2019-12-10 2021-06-17 川崎重工業株式会社 映像確認用コンピュータ
JP7483455B2 (ja) 2020-03-26 2024-05-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008063680A1 (de) * 2008-10-10 2010-04-15 Abb Ag Verfahren zum Einlernen (Teachen) eines Industrieroboters sowie ein entsprechend ausgestatteter Industrieroboter
JP2011000703A (ja) 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
US8634950B2 (en) * 2009-12-14 2014-01-21 Embraer S.A. Automated positioning and alignment method and system for aircraft structures using robots
US9131118B2 (en) * 2012-11-14 2015-09-08 Massachusetts Institute Of Technology Laser speckle photography for surface tampering detection
CN104765380B (zh) 2014-01-03 2017-04-19 科沃斯商用机器人有限公司 光点指示机器人及其光点指示方法
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
CN103862477B (zh) * 2014-03-31 2016-03-30 内蒙古科技大学 一种自主抓物机械手的上位机控制方法
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
US10048851B2 (en) * 2015-03-19 2018-08-14 Denso Wave Incorporated Apparatus for operating robots
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
JP6457441B2 (ja) * 2016-07-12 2019-01-23 ファナック株式会社 ロボットの重心表示装置、ロボット制御装置およびロボットシミュレーション装置
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
SG10201608757PA (en) * 2016-10-19 2018-05-30 Component Aerospace Singapore Pte Ltd Method and apparatus for facilitating part verification
MX2019003243A (es) * 2016-11-08 2019-08-05 Abb Schweiz Ag Metodo para calibracion de piezas de trabajo y sistema de robot que usa el mismo.
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
CN108965690B (zh) * 2017-05-17 2021-02-26 欧姆龙株式会社 图像处理系统、图像处理装置及计算机可读存储介质
USD873324S1 (en) 2017-06-15 2020-01-21 Robotiq Inc. Camera for a robotic arm
CA3030734C (en) 2017-06-16 2023-01-10 Robotiq Inc. Robotic arm camera system and method
US11365068B2 (en) 2017-09-05 2022-06-21 Abb Schweiz Ag Robotic systems and methods for operating a robot
JP7199073B2 (ja) * 2017-10-20 2023-01-05 株式会社キーレックス 垂直多関節ロボットの教示データ作成システム
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10751883B2 (en) * 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
CN111971529A (zh) * 2018-09-03 2020-11-20 Abb瑞士股份有限公司 用于管理机器人系统的方法和装置
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
CN109373898B (zh) * 2018-11-27 2020-07-10 华中科技大学 一种基于三维测量点云的复杂零件位姿估计系统及方法
US11433545B2 (en) * 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
CN112828878B (zh) * 2019-11-22 2022-10-25 中国科学院沈阳自动化研究所 一种大型设备对接过程三维测量与跟踪方法
US11331799B1 (en) * 2019-12-31 2022-05-17 X Development Llc Determining final grasp pose of robot end effector after traversing to pre-grasp pose

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
JP2003211382A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2004009209A (ja) * 2002-06-06 2004-01-15 Yaskawa Electric Corp ロボットの教示装置
JP2004130426A (ja) * 2002-10-09 2004-04-30 Sony Corp ロボット装置及びその動作制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
DE3375107D1 (en) * 1982-10-29 1988-02-11 Toshiba Kk Control system of multi-joint arm robot apparatus
JPS61281305A (ja) * 1985-06-06 1986-12-11 Toyota Motor Corp 多関節ロボツト制御装置
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5040116A (en) * 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5380978A (en) * 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
GB9300403D0 (en) * 1993-01-11 1993-03-03 Huissoon Jan P Dynamic seam tracking with redundant axes control
US5394100A (en) * 1993-05-06 1995-02-28 Karl Suss America, Incorporated Probe system with automatic control of contact pressure and probe alignment
FR2710407B1 (fr) * 1993-09-20 1995-12-01 Romer Srl Procédé de repérage positionnel pour une machine de mesure tridimensionnelle et dispositif pour la mise en Óoeuvre du procédé.
JPH08123536A (ja) * 1994-10-25 1996-05-17 Fanuc Ltd 溶接トーチ姿勢の教示方法
US5903663A (en) * 1995-02-15 1999-05-11 Tiede GmbH & Co.Risprufanlagen Automatic error recognition apparatus
JP3666108B2 (ja) 1995-03-16 2005-06-29 株式会社デンソー 外観検査装置
EP0931649A3 (en) * 1998-01-27 2000-04-26 Eastman Kodak Company Apparatus and method for making a contoured surface having complex topology
JP3655083B2 (ja) 1998-02-25 2005-06-02 富士通株式会社 ロボットの位置決めを行うインタフェース装置
US6243621B1 (en) * 1998-03-13 2001-06-05 Fanuc Robotics North America, Inc. Method of determining workpiece positions including coordinated motion
US7768549B2 (en) * 2001-06-08 2010-08-03 Honeywell International Inc. Machine safety system with mutual exclusion zone
DE102004026813A1 (de) * 2004-06-02 2005-12-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
US7307252B2 (en) * 2005-03-28 2007-12-11 Siemens Medical Solutions Usa, Inc. Detector head position correction for hybrid SPECT/CT imaging apparatus
US7177740B1 (en) * 2005-11-10 2007-02-13 Beijing University Of Aeronautics And Astronautics Method and apparatus for dynamic measuring three-dimensional parameters of tire with laser vision
JP2008062671A (ja) 2006-09-04 2008-03-21 Toyota Motor Corp 車輪状態検出ユニット捜索システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
JP2003211382A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2004009209A (ja) * 2002-06-06 2004-01-15 Yaskawa Electric Corp ロボットの教示装置
JP2004130426A (ja) * 2002-10-09 2004-04-30 Sony Corp ロボット装置及びその動作制御方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
US8855824B2 (en) 2009-12-02 2014-10-07 Canon Kabushiki Kaisha Dual arm robot
JP2011235380A (ja) * 2010-05-07 2011-11-24 Honda Motor Co Ltd 制御装置
JP2018194542A (ja) * 2017-05-17 2018-12-06 オムロン株式会社 画像処理システム、画像処理装置および画像処理プログラム
WO2019102822A1 (ja) * 2017-11-27 2019-05-31 アズビル株式会社 ポインタ装置
CN109848994A (zh) * 2019-02-22 2019-06-07 浙江启成智能科技有限公司 一种机器人视觉引导定位算法
WO2021117619A1 (ja) * 2019-12-10 2021-06-17 川崎重工業株式会社 映像確認用コンピュータ
JP7483455B2 (ja) 2020-03-26 2024-05-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Also Published As

Publication number Publication date
JP4508252B2 (ja) 2010-07-21
US20090234502A1 (en) 2009-09-17
DE102009012590A1 (de) 2009-11-19
US8406923B2 (en) 2013-03-26

Similar Documents

Publication Publication Date Title
JP4508252B2 (ja) ロボット教示装置
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
US20080013825A1 (en) Simulation device of robot system
JP4167954B2 (ja) ロボット及びロボット移動方法
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP5471355B2 (ja) 3次元視覚センサ
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6080407B2 (ja) 3次元計測装置及びロボット装置
JP5390813B2 (ja) 空間情報表示装置及び支援装置
JP2008254150A (ja) ロボットの教示装置及び教示方法
CN104802186A (zh) 制作用于拍摄工件的机器人程序的机器人程序设计装置
JP2002092647A (ja) 情報呈示システム及びモデル誤差検出システム
US20090281662A1 (en) Simulator for visual inspection apparatus
JP6946087B2 (ja) 情報処理装置及びその制御方法、並びに、プログラム
CN109715307A (zh) 具有工作区图像捕获设备的弯曲机以及用于表示工作区的方法
JP2014184543A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP7353757B2 (ja) アーチファクトを測定するための方法
JP2014126494A (ja) 検査支援装置、検査支援方法、ロボットシステム、制御装置、ロボット、及び、プログラム
JP2010112731A (ja) ロボットの座標の結合方法
WO2020130006A1 (ja) 情報投影システム、制御装置、及び情報投影方法
CN107442973B (zh) 基于机器视觉的焊道定位方法及装置
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100426

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4508252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees