JP7112528B2 - 作業座標作成装置 - Google Patents

作業座標作成装置 Download PDF

Info

Publication number
JP7112528B2
JP7112528B2 JP2020569245A JP2020569245A JP7112528B2 JP 7112528 B2 JP7112528 B2 JP 7112528B2 JP 2020569245 A JP2020569245 A JP 2020569245A JP 2020569245 A JP2020569245 A JP 2020569245A JP 7112528 B2 JP7112528 B2 JP 7112528B2
Authority
JP
Japan
Prior art keywords
work
target
area
coordinates
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020569245A
Other languages
English (en)
Other versions
JPWO2020157875A1 (ja
Inventor
アヌスヤ ナラサンビ
嵩弘 森川
博史 大池
弘健 江嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2020157875A1 publication Critical patent/JPWO2020157875A1/ja
Application granted granted Critical
Publication of JP7112528B2 publication Critical patent/JP7112528B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39392Dynamic pyramiding, change vision field to small area if high tracking speed, zoom
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Description

本明細書は、作業ロボットの作業対象となるターゲットの作業領域を表す作業座標を作成する装置に関する。
工場や事業所などの自動化、省力化を推進するために、作業ロボットが広く用いられている。多くの作業ロボットは、作業対象となるターゲットに作用したりワークを保持したりするエンドエフェクタを備える。また、多くの作業ロボットは、カメラを用いてターゲットを撮像し、ターゲットの作業領域を表す作業座標を取得して作業を進める。この種の作業座標の取得に関する一技術例が、特許文献1に開示されている。
特許文献1のロボット制御方法は、可搬型カメラで作業対象物を撮像して取得した画像データからマーカを撮像できる初期位置を得る第1画像処理工程と、初期位置へロボットハンドを移動させる初期移動工程と、ロボットハンドの小型カメラでマーカを撮像して取得した画像データからマーカの位置誤差を検出する第2画像処理工程と、を含む。これによれば、作業者がティーチングペンダントなどを操作してロボットハンドの位置の変更を繰り返すティーチング作業が不要となり、作業者の負荷が軽減される、とされている。
特開2011-110627号公報
ところで、特許文献1では、2回の撮像によりマーカの正確な位置を検出し、以降の作業の無人化を実現している。この前提として、ターゲット(作業対象物)のCAD情報などにより、ターゲット上における作業領域とマーカの位置関係が既知であることが条件となる。換言すると、ターゲット上の局所座標系において、作業領域を表す作業座標やマーカの位置座標が既知の一定値で表わされることが条件となる。したがって、特許文献1の技術は、ターゲットのCAD情報などの詳細情報が開示されない場合や、ターゲットにマーカが付設されていない場合には、適用することができない。
例えば、CAD情報が添付されることなくターゲットの現物が支給され、作業領域の形状に関する形状情報が添付される場合が往々にして発生する。この場合、オペレータは、実際のターゲットをノギスなどで手動測定して、ターゲット上の作業座標を設定する。あるいは、オペレータは、特許文献1に記載されたようにティーチングペンダントを操作するティーチング作業を実施する。手動測定およびティーチング作業のどちらも、時間と手間がかかるという問題点がある。さらには、オペレータの設定誤りや操作誤りのおそれがある。
また、複数のターゲットにおいて作業領域の配置位置に個体差が有る場合や、ターゲットの搬入位置に位置誤差が生じる場合がある。これらの場合、ターゲット上の局所座標系で作業座標が求められていても、作業ロボットの基準座標系で表わされる作業座標をターゲットごとに作成することが難しい。
本明細書では、ターゲット上の作業領域を表す局所座標系の作業座標が未知であっても、作業領域の形状に関する形状情報を用いて、作業ロボットの基準座標系で表わされる作業座標をターゲットごとに作成することができる作業座標作成装置を提供することを解決すべき課題とする。
本明細書は、作業実施箇所に搬入されて作業ロボットの作業対象となるターゲットに光学的に区画された作業領域の形状に関する形状情報を登録する形状登録部と、搬入された第一の前記ターゲットをカメラで撮像して第一画像データを取得し、前記形状情報を用いて前記第一画像データ内の少なくとも一部の領域を探索することにより、第一の前記ターゲットの前記作業領域を認識する第一認識部と、前記第一認識部の認識結果に基づいて、第一の前記ターゲットの前記作業領域を表す第一作業座標を作成する第一座標作成部と、 搬入された第二の前記ターゲットを前記カメラで撮像して第二画像データを取得し、前記第二画像データ内の領域であって前記第一認識部が探索した領域よりも狭い前記領域を探索することにより、第二の前記ターゲットの前記作業領域の位置に関する情報を認識する第二認識部と、前記第一作業座標および前記第二認識部の認識結果に基づいて、第二の前記ターゲットの前記作業領域を表す第二作業座標を作成する第二座標作成部と、を備える作業座標作成装置を開示する。
本明細書で開示する作業座標作成装置では、ターゲット上の作業領域の形状に関する形状情報を登録し、この形状情報を用いて第一のターゲットの第一画像データ内を探索することにより、第一作業座標を作成することができる。また、第二のターゲットの第二画像データ内の狭い領域を探索することにより、第二作業座標を作成することができる。さらに、第三以降のターゲットについても、第二のターゲットと同様にして作業座標を作成することができる。したがって、ターゲット上の作業領域を表す局所座標系の作業座標が未知であっても、作業ロボットの基準座標系で表わされる作業座標をターゲットごとに作成することができる。
第1実施形態の作業座標作成装置が適用される作業ロボットの構成を模式的に示した正面図である。 作業座標作成装置の機能構成を示すブロック図である。 第1実施形態で使用されるターゲットの平面図である。 作業座標作成装置の動作を示す制御装置の動作フローの図である。 形状登録部が形状情報を取得する第一の取得方法を概念的に説明する図である。 形状登録部が形状情報を取得する第二の取得方法を概念的に説明する図である。 作業座標作成装置の動作および作用を模式的に説明する図である。 第2実施形態の作業座標作成装置が適用される作業ロボットの構成を模式的に示した斜視図である。 第2実施形態で使用されるターゲットの平面図である。 第2実施形態の作業座標作成装置の動作を示す動作フローの図である。 第一のターゲットの第一搬入位置の事例を示した第一画像データの図である。 第二のターゲットの第二搬入位置の事例を示した第二画像データの図である。 第2実施形態の応用例において、第二座標作成部の機能を説明する第二画像データの図である。
1.作業ロボット1の構成
まず、第1実施形態の作業座標作成装置が適用される作業ロボット1の構成について、図1および図2を参考にして説明する。作業ロボット1は、作業実施箇所に順番に搬入される複数のターゲット8の作業領域81(図3参照)を対象として作業を実施する。作業の内容として、部品の配置作業や、電気回路の配線作業を例示でき、これらに限定されない。作業ロボット1は、X軸およびY軸が水平面内で直交する基準座標系が定められている。作業ロボット1は、基準座標系で表わされる座標に基づいて動作する。
図1および図2に示されるように、作業ロボット1は、基体部10、移動装置2、エンドエフェクタ3、カメラ4、搬送ライン9、および制御装置5などで構成される。基体部10は、作業実施位置に臨んで固定取り付けされる。移動装置2は、多関節タイプのアームを用いて構成される。移動装置2のアーム基端部21は、基体部10の上側に支持され、鉛直軸の周りに回転可能となっている。さらに、移動装置2(アーム)は、あらゆる方向に向かって延在可能であるとともに、長さ方向の途中で自在に折れ曲がることができるように構成されている。したがって、移動装置2のアーム先端部22は、作業実施位置の上方の任意の空間位置に移動することができる。アーム先端部22には、ハンド部23が設けられる。移動装置2は、エンドエフェクタ3およびカメラ4を揃って移動させる。
エンドエフェクタ3は、ハンド部23に設けられている。エンドエフェクタ3は、作業に適した構成が用いられる。例えば、部品の配置作業を行うエンドエフェクタ3として、部品を挟持するチャックが用いられる。また、電気回路の配線作業を行うエンドエフェクタ3として、接続端子をねじ締めするドライバや、接続端子を半田付けする半田ごてなどが用いられる。エンドエフェクタ3は、ターゲット8の状態や作業の進捗状況などを検出するセンサ類が付属されてもよい。
カメラ4は、ハンド部23に設けられている。カメラ4は、作業実施位置に搬入されたターゲット8を撮像して画像データを取得する。この画像データが画像処理されることにより、ターゲット8上の作業領域81が認識される。カメラ4は、ターゲット8に付設された個体識別情報を読み取る用途に兼用されてもよい。
搬送ライン9は、ターゲット8を自動で作業実施位置に搬入出するために設けられる。搬送ライン9の搬送路は、作業実施位置を通り抜けて延在する。搬送ライン9は、ターゲット8が載置された状態で搬送路に沿って輪転するコンベアベルト、およびコンベアベルトを駆動する駆動源などで構成される。なお、搬送ライン9が設けられずに、ターゲット8が人手によって作業実施位置に搬入出されてもよい。
2.ターゲット8の形状
次に、ターゲット8の形状について説明する。図3に示されるように、ターゲット8は、長方形の板状の部材である。ターゲット8の上面には、作業領域81および作業外領域82が光学的に区画されている。具体的には、作業領域81は、ターゲット8の地色と相違する色彩または輝度とされて区画されている。さらに、作業外領域82は、ターゲット8の地色および作業領域81と相違する色彩または輝度とされて区画されている。図3において、作業領域81は、便宜的に細線のハッチングで示される。また、作業外領域82は、便宜的に太線のハッチングで示される。
6個の作業領域81は、長方形であり、全て同形同大である。作業領域81は、作業ロボット1が作業を実施する領域である。また、4個の作業外領域82は、作業領域81よりも大きな長方形であり、全て同形同大である。作業外領域82は、同一のターゲット8を別の作業ロボットが作業対象としたときの作業領域である。なお、作業外領域82は、形状や大きさの異なる複数の種類があってもよい。作業領域81および作業外領域82の位置は、領域の中心点または特定の頂点の位置に対応する作業座標を用いて表わされる。
複数のターゲット8において、作業領域81の配置位置に個体差が有る。つまり、ターゲット8上の局所座標系で表わされる作業座標に誤差が生じる。さらに、搬送ライン9によって作業実施箇所に搬入されたターゲット8の搬入位置は、位置誤差が生じる場合が有る。加えて、ターゲット8の姿勢は、水平面内で回転誤差が生じる場合が有る。
本第1実施形態において、ターゲット8の形状および大きさは既知である。さらに、カメラ4を用いてターゲット8の全体像を撮像できることが判明している。一方、ターゲット8上の作業領域81の領域数や、作業領域81を表す局所座標系の作業座標は、判明していない。そして、作業領域81の形状に関する情報を記載した書類がオペレータの手元にある。形状に関する情報は、例えば、次の1)~4)の情報である。
1)作業領域81の形状を表す「長方形」
2)作業領域81の縦寸法
3)作業領域81の横寸法
4)作業領域81の面積
このような条件下で、作業ロボット1が作業を実施する位置を確定する用途に、作業座標作成装置6が使用される。
3.第1実施形態の作業座標作成装置6の構成
次に、第1実施形態の作業座標作成装置6の構成について説明する。図2に示されるように、制御装置5は、移動装置2、エンドエフェクタ3、カメラ4、および搬送ライン9を制御する。制御装置5は、コンピュータ装置を用いて構成される。第1実施形態の作業座標作成装置6は、制御装置5のソフトウェアにより実現されている。作業座標作成装置6は、五つの機能部、すなわち形状登録部61、第一認識部62、第一座標作成部63、第二認識部64、および第二座標作成部65を備える。
形状登録部61は、ターゲット8に光学的に区画された作業領域81の形状に関する形状情報83を登録する。具体的に、形状登録部61は、第一認識部62が取得した第一画像データをオペレータに提示し、オペレータの指定にしたがって形状情報83を登録する(詳細後述)。形状情報83は、制御装置5の記憶装置51に登録されるデータであり、換言すると、電子形態の情報に限定される。したがって、オペレータの手元の書類に記載された情報は、形状情報83に該当しない。また、作業領域81を撮像して取得した画像データや、この画像データを加工して作成した電子形態のテンプレートは、形状情報83に該当する。
第一認識部62は、搬入された第一のターゲット8をカメラ4で撮像して、前述した第一画像データを取得する。第一認識部62は、さらに、形状情報83を用いて第一画像データ内の少なくとも一部の領域を探索することにより、第一のターゲット8の作業領域81の位置に関する情報を認識する。第一座標作成部63は、第一認識部62の認識結果に基づいて、第一のターゲット8の作業領域81を表す第一作業座標を作成する。ここで、カメラ4が撮像を行う位置は、基準座標系で指示される。したがって、第一作業座標および後述する第二作業座標は、基準座標系で表わされることが可能となっている。
第二認識部64は、搬入された第二のターゲット8をカメラ4で撮像して第二画像データを取得する。第二認識部64は、さらに、第二画像データ内の領域であって第一認識部62が探索した領域よりも狭い領域を探索することにより、第二のターゲット8の作業領域81の位置に関する情報を認識する。第一認識部62が探索した領域よりも狭い領域とは、第二画像データ内の第一作業座標の近傍の領域を意味する。そして、第二認識部64は、第一作業座標で表わされる位置を優先探索位置として、最初に探索する。優先探索位置において作業領域81が不明である場合に、第二認識部64は、優先探索位置から徐々に離間するように探索して、最終的に作業領域81を認識する。
第二座標作成部65は、第一作業座標および第二認識部64の認識結果に基づいて、第二のターゲット8の作業領域81を表す第二作業座標を作成する。第二座標作成部65は、実際には、第一作業座標を補正して第二作業座標を作成する。五つの機能部の各機能については、次の動作フローの中でも説明する。
4.第1実施形態の作業座標作成装置6の動作
次に、第1実施形態の作業座標作成装置6の動作について説明する。図4に示される動作フローは、作業座標作成装置6を含む制御装置5からの制御によって実行される。図4のステップS1で、制御装置5は、搬送ライン9を制御して、ターゲット8を搬送する。初回のステップS1において、第一のターゲット8が搬入される。
次のステップS2で、第一認識部62または第二認識部64は、搬入されたターゲット8をカメラ4で撮像して画像データを取得する。初回のステップS2において、第一認識部62は、第一のターゲット8をカメラ4で撮像して第一画像データ(D11、D12)(図5、図6参照)を取得する。次のステップS3で、作業座標作成装置6は、第一のターゲット8が対象とされているか否かを判定する。初回のステップS3において、第一のターゲット8が対象であるので、動作フローの実行はステップS4に進められる。
ステップS4で、形状登録部61は、形状情報83を取得する。取得方法は、二種類あり、どちらもオペレータが関与する。第一の取得方法において、形状登録部61は、第一画像データD11内で光学的に区画された作業領域81および作業外領域82の形状を認識してオペレータに提示する。認識方法として、小塊検知アルゴリズムやエッジ検知アルゴリズムなどを応用した画像処理技術が適宜用いられる。
図5は、オペレータに提示される第一画像データD11を示している。図面上の表示に関し、第一画像データD11は、図3に示されたターゲット8の平面図に一致する。この時点で、作業領域81および作業外領域82の形状は既に認識されており、領域の境界線は実線で示される。オペレータは、手元の書類に記載された情報を参考にして、第一画像データD11の中で作業領域81を指定する。例えば、オペレータは、作業領域81の内部にカーソルを移動させてクリック操作することにより、作業領域81を指定することができる。形状登録部61は、指定された作業領域81を取得する。
なお、オペレータは、6個全部の作業領域81を指定する必要はなく、最小で1個の作業領域81を指定すればよい。複数の作業領域81が指定された場合、形状登録部61は、作業領域81の形状の相互間の誤差を平均化した形状情報83を取得することができる。1個の作業領域81が指定された場合、形状登録部61は、その作業領域81の形状に一致した形状情報83を取得することができる。
また、第二取得方法において、形状登録部61は、第一画像データD12をそのままオペレータに提示する。図6は、オペレータに提示される第一画像データD12を示している。この時点で、作業領域81および作業外領域82の形状は認識されておらず、領域の境界線は示されない。オペレータは、手元の書類に記載された情報を参考にして、第一画像データD12の中で作業領域81を含む範囲を指定する。例えば、オペレータは、作業領域81の周りを周回するようにカーソルを移動させて描いた閉曲線84を用い、範囲を指定する。
図6において、6個全部の作業領域81が5個の閉曲線84を用いて指定されている。形状登録部61は、閉曲線84の内部にある作業領域81の形状を認識して取得する。このときの認識方法として、第1の取得方法と同様の画像処理技術が用いられる。なお、オペレータは、6個全部の作業領域81の範囲を指定する必要は無く、最小で1個の作業領域81の範囲を指定すればよい。形状登録部61は、複数の作業領域81の形状の相互間の誤差を平均化した形状情報83を取得することができる。あるいは、形状登録部61は、1個の作業領域81の形状に一致した形状情報83を取得することができる。
次の形状登録ステップS5で、形状登録部61は、取得した形状情報83を記憶装置51に登録する。次の第一認識ステップS6で、第一認識部62は、図7に示されるように、形状情報83を用いて第一画像データ(D11、D12)内の少なくとも一部の領域を探索する。具体的には、第一認識部62は、まず、形状情報83に相当するテンプレートを作成する。次に、第一認識部62は、第一画像データ(D11、D12)内でテンプレートを移動させて、テンプレートに一致する作業領域81を探索する。
この時点で、ターゲット8上の作業領域81の領域数や位置は判明していない。したがって、第一認識部62は、第一画像データ(D11、D12)内の全部の領域を探索する必要がある。これにより、第一認識部62は、6個全部の作業領域81の位置を認識することができる。当然ながら、作業外領域82は、テンプレートに一致せず、除外される。
次の第一座標作成ステップS7で、第一座標作成部63は、第一のターゲット8の作業領域81を表す6個の第一作業座標を作成する。次のステップS8で、作業ロボット1は、6個の第一作業座標に基づいて作業を実施する。この後、動作フローの実行は、ステップS1に戻される。
2回目のステップS1において、作業の終了した第一のターゲット8が搬出されるとともに、第二のターゲット8が搬入される。2回目のステップS2において、第二認識部64は、第二のターゲット8をカメラ4で撮像して第二画像データD21を取得する。2回目のステップS3において、第二のターゲット8が対象であるので、動作フローの実行は第二認識ステップS11に進められる。
第二認識ステップS11で、第二認識部64は、図7に示されるように、形状情報83を用いて第二画像データD21内の狭い領域を探索する。この時点で、ターゲット8上の作業領域81の領域数や位置は、第一のターゲットの6個の第一作業座標から概ね判明している。したがって、第二認識部64は、第二画像データD21内の第一作業座標の近傍の狭い領域を探索すれば十分である。
仮に、複数のターゲット8における作業領域81の配置位置の個体差、および搬送ライン9における搬入位置の位置誤差が無視できるほどに小さい場合、第二認識ステップS11は不要となる。つまり、第一作業座標に相当する優先探索位置が、そのまま第二作業座標となる。上記した個体差や位置誤差が無視できない場合でも、第二認識部64は、第一作業座標に相当する優先探索位置から徐々に離間するように狭い領域を探索することにより、短時間で作業領域81を認識することができる。
次の第二座標作成ステップS12で、第二座標作成部65は、第二のターゲット8の作業領域81を表す6個の第二作業座標を作成する。このとき、第二座標作成部65は、上記した個体差や位置誤差に相当する分だけ第一作業座標を補正して、第二作業座標を作成することができる。第二座標作成ステップS12が実行された後、動作フローの実行は、ステップS8に合流され、作業ロボット1による作業が実施される。この後、動作フローの実行は、ステップS1に戻される。
3回目のステップS1において、作業の終了した第二のターゲット8が搬出されるとともに、第三のターゲット8が搬入される。第三以降のターゲット8に対して、第二のターゲット8の場合と同様に、第二認識ステップS11および第二座標作成ステップS12が繰り返して実行される。
第1実施形態の作業座標作成装置6では、ターゲット8上の作業領域81の形状に関する形状情報83を登録し、この形状情報83を用いて第一のターゲット8の第一画像データ(D11、D12)内を探索することにより、第一作業座標を作成することができる。また、第二のターゲット8の第二画像データD21内の狭い領域を探索することにより、第二作業座標を作成することができる。さらに、第三以降のターゲット8についても、第二のターゲット8と同様にして作業座標を作成することができる。したがって、ターゲット8上の作業領域81を表す局所座標系の作業座標が未知であっても、作業ロボット1の基準座標系で表わされる作業座標をターゲット8ごとに作成することができる。
また、オペレータは、作業ロボット1の作業開始前に形状情報83に関する簡単な指定を行うだけでよい。そして、作業座標の作成は、作業座標作成装置6によって自動的に実行される。したがって、オペレータのわずかな手間で作業座標を作成することができる。加えて、オペレータの設定誤りや操作誤りのおそれが低減される。さらに、第一画像データ(D11、D12)の探索は全部の領域となるため長時間を要しても、第二画像データD21の探索は狭い領域でよいので短時間で済む。したがって、第二以降のターゲット8の作業座標は、短時間で作成される。これにより、作業ロボット1の作業能率が向上する。
5.第2実施形態の作業座標作成装置6
次に、第2実施形態の作業座標作成装置6について、第1実施形態と異なる点を主にして説明する。図8に示されるように、第2実施形態に適用される作業ロボット1Aは、ハンド部23にカメラ4が設けられていない。代わりに、固定カメラ4Aが用いられる。固定カメラ4Aは、作業ロボット1Aと別体であって、天井から吊り下げられて固定されている。なお、固定カメラ4Aは、天井以外の箇所に固定されてもよい。固定カメラ4Aは、移動装置2の移動や振動の影響を受けないので位置が安定化し、鮮明で位置精度の高い画像データを取得することができる。
また、図9に示されるように、第2実施形態で使用されるターゲット8Aは、長方形の板状の部材である。ターゲット8Aの上面には、黒塗りの長方形で示される3個の作業領域85、および×印で示される3個の作業外領域86が区画されている。第2実施形態において、複数のターゲット8Aの作業領域85の配置位置の個体差は、無視できる程度に小さい。しかしながら、搬送ライン9によって作業実施箇所に搬入されたターゲット8Aの搬入位置は、位置誤差が生じる場合が有る。加えて、ターゲット8Aの姿勢は、水平面内で回転誤差が生じる場合が有る。
第2実施形態において、ターゲット8Aの形状および大きさは既知である。さらに、固定カメラ4Aを用いてターゲット8Aの全体像を撮像できることが判明している。一方、ターゲット8A上の作業領域85の領域数や、作業領域85を表す局所座標系の作業座標は、判明していない。オペレータは、ターゲット8Aの既知の設計情報として、作業領域85の形状に関する電子形態の形状情報83を保有している。このような条件下で、第2実施形態の作業座標作成装置6が使用される。
第2実施形態の作業座標作成装置6は、作業ロボット1Aに定められた基準座標系に加えて、第一のターゲット8Aの搬入位置に基づく相対座標系を用いる。つまり、相対座標系の原点は、基準座標系の原点から変位する。それでも、相対座標系のx軸およびy軸は、基準座標系のX軸およびY軸にそれぞれ平行する条件を満足する。以降の説明では、大文字のX、Yを用いて基準座標系の座標を表記し、小文字のx、yを用いて相対座標系の座標を表記する。また、作業領域85を表す作業座標は、作業領域85の領域の中心点の座標であるとする。
相対座標系の原点の位置は、第一のターゲット8Aが搬入されたときの基準点87の位置に定められる。基準点87は、ターゲット8Aの外形の短辺88と長辺89が交差する図9の左上の端部に設定されている。そして、ターゲット8Aの基準点87の位置は、第一認識部62および第二認識部64の画像処理により、ターゲット8Aの形状が認識されて求められる。さらに、ターゲット8Aの回転姿勢は、第一認識部62および第二認識部64の画像処理により、短辺88および長辺89の少なくとも一方の延びる方向が認識されて求められる。
第2実施形態の作業座標作成装置6は、第1実施形態と同様に、形状登録部61、第一認識部62、第一座標作成部63、第二認識部64、および第二座標作成部65を備える。ただし、これら五つの機能部は、機能の一部が第1実施形態と相違する。形状登録部61は、ターゲット8Aの既知の設計情報に基づいて形状情報83を登録する。
第一認識部62は、第1実施形態と同様の方法で、第一画像データ内を探索して第一のターゲット8Aの作業領域85を認識する。第一認識部62は、さらに、第一のターゲット8Aの基準点87の第一搬入位置、および第一のターゲット8Aの第一回転角度を認識する。第一座標作成部63は、第1実施形態と同様の方法で、基準座標系の第一作業座標を作成する。第一座標作成部63は、さらに、第一作業座標を相対座標系へ座標変換することによって、相対第一作業座標を作成する。
第二認識部64は、形状情報83を用いて3個の作業領域85を認識する第1実施形態の探索を行わない。代わりに、第二認識部64は、第二画像データ内の第一搬入位置の近傍の領域を探索して、第二のターゲット8Aの基準点87の第二搬入位置、および第二のターゲット8Aの第二回転角度を認識する。これにより、画像処理技術を用いた探索の実施箇所は、3箇所でなく1箇所となる。したがって、探索に要する所要時間が大幅に短縮される。
第二座標作成部65は、相対第一作業座標、第一搬入位置と第二搬入位置との差分である位置誤差、および、第一回転角度と第二回転角度との差分である回転誤差を用いて、第二のターゲット8Aの作業領域を表す相対座標系の相対第二作業座標を演算する。第二座標作成部65は、さらに、相対第二作業座標を基準座標系へ座標変換することによって基準座標系の第二作業座標を作成する。五つの機能部の各機能については、次の動作フローの中で、事例を用いて詳述する。
図10に示される動作フローは、作業座標作成装置6を含んだ制御装置5からの制御によって実行される。図10の形状登録ステップS21で、オペレータは、保有する形状情報83を制御装置5に入力する。形状登録部61は、入力された形状情報83を記憶装置51に登録する。次のステップS22で、制御装置5は、搬送ライン9を制御して、ターゲット8Aを搬送する。初回のステップS22において、第一のターゲット8Aが搬入される。
次のステップS23で、第一認識部62または第二認識部64は、搬入されたターゲット8Aをカメラ4で撮像して、画像データを取得する。初回のステップS23において、第一認識部62は、第一のターゲット8Aを固定カメラ4Aで撮像して、図11に示される第一画像データD13を取得する。次のステップS24で、作業座標作成装置6は、第一のターゲット8Aが対象とされているか否かを判定する。初回のステップS24において、第一のターゲット8Aが対象であるので、動作フローの実行はステップS25に進められる。
ステップS25で、第一認識部62は、第1実施形態と同様の方法により3個全部の作業領域85を認識する。第一認識部62は、さらに、第一のターゲット8Aの基準点87の第一搬入位置P1、および第一のターゲット8Aの第一回転角度θ1を認識する。図11に示される事例で、基準点87の第一搬入位置P1は、基準座標系を用いて第一搬入位置P1(X0,Y0)と表記される。第一搬入位置P1(X0,Y0)は、相対座標系の原点となり、相対座標系を用いて第一搬入位置p1(0,0)と表記される。なお、図11および図12に示される事例では、煩雑さを解消するために3個の作業領域85が図示省略され、右側の1個の作業領域85の作業座標(W1、w1、W2、w2)のみが示されている。
次のステップS26で、第一座標作成部63は、第1実施形態と同様の方法で、基準座標系の第一作業座標W1(X1,Y1)を作成する。第一座標作成部63は、さらに、第一作業座標W1(X1,Y1)を相対座標系へ座標変換することによって、相対第一作業座標w1(x1,y1)を作成する。この座標変換は、次の(式1)による。
Figure 0007112528000001
次のステップS27で、作業ロボット1は、第一作業座標W1(X1,Y1)に基づいて作業を実施する。なお、図示省略された他の作業領域85においても、ステップS26で第一作業座標および相対第一作業座標が作成され、ステップS27で作業ロボット1による作業が実施される。この後、動作フローの実行は、ステップS22に戻される。
2回目のステップS22において、作業の終了した第一のターゲット8Aが搬出されるとともに、第二のターゲット8Aが搬入される。2回目のステップS32において、第二認識部64は、第二のターゲット8Aを固定カメラ4Aで撮像して、図12に示される第二画像データD23を取得する。2回目のステップS24において、第二のターゲット8Aが対象であるので、動作フローの実行はステップS31に進められる。
ステップS31で、第二認識部64は、第二画像データD23内の第一搬入位置p1(0,0)の近傍の領域を探索して、第二のターゲット8Aの基準点87の第二搬入位置p2、および第二のターゲット8Aの第二回転角度θ2を認識する。第二搬入位置p2は、相対座標系を用いて第二搬入位置p2(xe,ye)と表記される。図12において、第二のターゲット8Aの位置誤差および回転誤差が誇張して描かれている。ここで、第一搬入位置p1(0,0)は、相対座標系の原点であるので、第二搬入位置p2(xe,ye)の座標値は、第一搬入位置p1と第二搬入位置p2との差分である位置誤差を表わす。また、第一回転角度θ1と第二回転角度θ2との差分である回転誤差θeは、(θ2-θ1)で表わされる。
次のステップS32で、第二座標作成部65は、相対第一作業座標w1(x1,y1)、位置誤差に相当するxe、ye、および回転誤差θeを用いて、第二のターゲット8Aの作業領域85を表す相対第二作業座標w2(x2,y2)を演算する。この演算は、次の(式2)による。
Figure 0007112528000002
(式2)の右辺の第1項(行列演算項)は、回転誤差θeに関する補正を表し、右辺の第2項は、位置誤差に関する補正を表している。第二座標作成部65は、さらに、相対第二作業座標w2(x2,y2)を基準座標系へ座標変換することによって基準座標系の第二作業座標W2(X2,Y2)を作成する。この座標変換は、次の(式3)による。
Figure 0007112528000003
この後、動作フローの実行は、ステップS27に合流され、作業ロボット1による作業が実施される。なお、図示省略された他の作業領域85においても、第二作業座標が作成されて、作業ロボット1による作業が実施される。この後、動作フローの実行は、ステップS22に戻される。3回目のステップS22において、作業の終了した第二のターゲット8Aが搬出されるとともに、第三のターゲット8Aが搬入される。第三以降のターゲット8Aに対して、第二のターゲット8Aの場合と同様に、ステップS31およびステップS32が繰り返して実行される。
第2実施形態の作業座標作成装置6において、第二認識部64における探索の所要時間は、第1実施形態と比較して大幅に短縮される。一方、(式1)~(式3)の演算に要する時間はわずかである。したがって、第二以降のターゲット8Aの作業座標の作成に要する時間は、第1実施形態と比較して短くなる。これにより、作業ロボット1の作業能率は、さらに一層向上する。なお、この効果は、ターゲット8Aあたりの作業領域85の個数が多いほど顕著になる。
6.第2実施形態の応用例
次に、第2実施形態の応用例について説明する。応用例において、複数のターゲット8Aの作業領域85の配置位置の個体差は、無視できない程度に大きい。このため、第二座標作成部65が作成した第二作業座標W2(X2,Y2)に基づいて、作業ロボット1が第二以降のターゲット8Aに作業を実施すると障害が発生する。
図13に示される第二画像データD24の事例で、左側および中央の作業領域85は、個体差の影響を殆ど受けていない。このため、相対第二作業座標w22および相対第二作業座標w23は、作業領域85の中心点に略一致している。しかしながら、右側の作業領域85は、個体差の影響により右上方向に変位している。このため、相対第二作業座標w2は、作業領域85の中心点からずれている。
そこで、第二座標作成部65は、形状情報83を用いて作業領域85の探索を行う。詳述すると、第二座標作成部65は、まず、相対第二作業座標w2(x2、y2)を相対仮座標RPとする。第二座標作成部65は、次に、第二画像データD24内の相対仮座標RPに相当する優先探索位置から徐々に離間するように探索して、形状情報83に対応する作業領域85を認識する。
さらに、第二座標作成部65は、認識した作業領域85を表す真の相対第二作業座標w3(x3、y3)を作成する。さらに、第二座標作成部65は、(式3)を用いて、真の相対第二作業座標w3(x3、y3)を基準座標系へ座標変換することにより、基準座標系の第二作業座標W3(X3、Y3)を作成する。これにより、作業ロボット1の作業が可能となる。
なお、上述した第二座標作成部65の動作は、左側および中央の作業領域85に対しても同様に行われる。第2実施形態の応用例によれば、複数のターゲット8Aにおける作業領域85の配置位置の個体差、ならびに搬送ライン9におけるターゲット8Aの位置誤差および回転誤差が無視できない場合でも、確実に第二作業座標W3(X3、Y3)を作成することができる。
7.実施形態の応用および変形
なお、第1実施形態において、作業領域81は、領域境界線を用いて区画されてもよい。このとき、形状登録部61は、領域境界線を認識可能な画像処理技術を用いて作業領域81を認識し、形状情報83を取得する。また、ターゲット(8、8A)の作業領域(81、85)と作業外領域(82、86)が同一形状であっても、色彩や輝度が相違して光学的に見分けることが可能であれば適用対象となる。また、第1実施形態で固定カメラ4Aが用いられてもよく、第2実施形態でハンド部23に設けられたカメラ4が用いられてもよい。
さらに、第一認識部62および第二認識部64は、テンプレート以外の探索ツールを用いることが可能である。また、第2実施形態の応用例において、第二座標作成部65は、先に相対第二作業座標w2(x2、y2)を第二作業座標W2(X2、Y2)に変換して仮座標とし、基準座標系の中で形状情報83を用いた探索を行ってもよい。その他にも、第1および第2実施形態は、様々な応用や変形が可能である。
1、1A:作業ロボット 2:移動装置 3:エンドエフェクタ 4:カメラ 4A:固定カメラ 5:制御装置 6:作業座標作成装置 61:形状登録部 62:第一認識部 63:第一座標作成部 64:第二認識部 65:第二座標作成部 8、8A:ターゲット 81:作業領域 82:作業外領域 83:形状情報 84:閉曲線 85:作業領域 86:作業外領域 87:基準点 88:短辺 89:長辺 9:搬送ライン D11、D12、D13:第一画像データ D21、D23、D24:第二画像データ P1、p1:第一搬入位置 p2:第二搬入位置 θ1:第一回転角度 θ2:第二回転角度 θe:回転誤差 W1:第一作業座標 w1:相対第一作業座標 W2:第二作業座標 w2、w22、w23:相対第二作業座標 RP:相対仮座標 w3:真の相対第二作業座標

Claims (8)

  1. 作業実施箇所に搬入されて作業ロボットの作業対象となるターゲットに光学的に区画された作業領域の形状に関する形状情報を登録する形状登録部と、
    搬入された第一の前記ターゲットをカメラで撮像して第一画像データを取得し、前記形状情報を用いて前記第一画像データ内の少なくとも一部の第一領域を探索することにより、第一の前記ターゲットの前記作業領域の位置に関する情報を認識する第一認識部と、
    前記第一認識部の認識結果に基づいて、第一の前記ターゲットの前記作業領域を表す第一作業座標を作成する第一座標作成部と、
    搬入された第二の前記ターゲットを前記カメラで撮像して第二画像データを取得し、前記第二画像データ内の前記第一作業座標の近傍の第二領域であって前記第一認識部が探索した前記第一領域よりも狭い前記第二領域を探索することにより、第二の前記ターゲットの前記作業領域の位置に関する情報を認識する第二認識部と、
    前記第一作業座標および前記第二認識部の認識結果に基づいて、第二の前記ターゲットの前記作業領域を表す第二作業座標を作成する第二座標作成部と、を備えて、
    搬入される複数の前記ターゲットにおいて前記作業領域の配置位置に個体差が有る場合に適用され、
    前記第二認識部は、前記第二画像データ内の前記第一作業座標に基づく優先探索位置から徐々に離間するように探索する、
    作業座標作成装置。
  2. 前記第二認識部は、前記第二領域を探索して、前記形状情報に対応する前記作業領域を認識し、
    前記第二座標作成部は、前記第二認識部の認識結果に基づき、前記第一作業座標を補正して前記第二作業座標を作成する、
    請求項1に記載の作業座標作成装置。
  3. 作業実施箇所に搬入されて作業ロボットの作業対象となるターゲットに光学的に区画された作業領域の形状に関する形状情報を登録する形状登録部と、
    搬入された第一の前記ターゲットをカメラで撮像して第一画像データを取得し、前記形状情報を用いて前記第一画像データ内の少なくとも一部の第一領域を探索することにより、第一の前記ターゲットの前記作業領域の位置に関する情報を認識する第一認識部と、
    前記第一認識部の認識結果に基づいて、第一の前記ターゲットの前記作業領域を表す第一作業座標を作成する第一座標作成部と、
    搬入された第二の前記ターゲットを前記カメラで撮像して第二画像データを取得し、前記第二画像データ内の前記第一作業座標の近傍の第二領域であって前記第一認識部が探索した前記第一領域よりも狭い前記第二領域を探索することにより、第二の前記ターゲットの前記作業領域の位置に関する情報を認識する第二認識部と、
    前記第一作業座標および前記第二認識部の認識結果に基づいて、第二の前記ターゲットの前記作業領域を表す第二作業座標を作成する第二座標作成部と、を備え
    前記形状登録部は、前記第一画像データ内で光学的に区画された前記作業領域および作業外領域の形状を認識してオペレータに提示し、前記オペレータが指定した前記作業領域の前記形状情報を登録し、
    前記作業外領域は、同一の前記ターゲットを別の作業ロボットが作業対象としたときの作業領域である、
    作業座標作成装置。
  4. 作業実施箇所に搬入されて作業ロボットの作業対象となるターゲットに光学的に区画された作業領域の形状に関する形状情報を登録する形状登録部と、
    搬入された第一の前記ターゲットをカメラで撮像して第一画像データを取得し、前記形状情報を用いて前記第一画像データ内の少なくとも一部の第一領域を探索することにより、第一の前記ターゲットの前記作業領域の位置に関する情報を認識する第一認識部と、
    前記第一認識部の認識結果に基づいて、第一の前記ターゲットの前記作業領域を表す第一作業座標を作成する第一座標作成部と、
    搬入された第二の前記ターゲットを前記カメラで撮像して第二画像データを取得し、前記第二画像データ内の前記第一作業座標の近傍の第二領域であって前記第一認識部が探索した前記第一領域よりも狭い前記第二領域を探索することにより、第二の前記ターゲットの前記作業領域の位置に関する情報を認識する第二認識部と、
    前記第一作業座標および前記第二認識部の認識結果に基づいて、第二の前記ターゲットの前記作業領域を表す第二作業座標を作成する第二座標作成部と、を備えて
    前記ターゲットを前記作業実施箇所に搬入したときの搬入位置に位置誤差が生じる場合が有り、かつ前記ターゲットの姿勢に回転誤差が生じる場合が有る搬送ラインに適用されて、前記作業ロボットに定められた基準座標系、および、第一の前記ターゲットの前記搬入位置に基づく相対座標系を用い、かつ、搬入される複数の前記ターゲットにおいて前記作業領域の配置位置に個体差が有る場合に適用され、
    前記第一認識部は、前記第一領域を探索して第一の前記ターゲットの前記作業領域を認識するとともに、第一の前記ターゲットの基準点の第一搬入位置、および第一の前記ターゲットの第一回転角度を認識し、
    前記第一座標作成部は、前記基準座標系の前記第一作業座標を作成するとともに、前記第一搬入位置を原点とする前記相対座標系へ座標変換することによって相対第一作業座標を作成し、
    前記第二認識部は、前記第二画像データ内の前記第一搬入位置の近傍の前記第二領域を探索して、第二の前記ターゲットの前記基準点の第二搬入位置、および第二の前記ターゲットの第二回転角度を認識し、
    前記第二座標作成部は、
    前記相対第一作業座標、前記第一搬入位置と前記第二搬入位置との差分である前記位置誤差、および、前記第一回転角度と前記第二回転角度との差分である前記回転誤差を用いて、第二の前記ターゲットの前記作業領域を表す前記相対座標系の相対第二作業座標を演算し、
    さらに、前記相対第二作業座標を相対仮座標とし、前記第二画像データ内の前記相対仮座標に基づく優先探索位置から徐々に離間するように探索して、前記形状情報に対応する前記作業領域を認識し、
    認識した前記作業領域を表す真の前記相対第二作業座標を作成し、
    さらに、真の前記相対第二作業座標を前記基準座標系へ座標変換することによって前記基準座標系の前記第二作業座標を作成する、
    作業座標作成装置。
  5. 前記基準点は、前記ターゲットの外形の二つの辺が交差する端部に設定され、
    前記第一認識部は、前記辺の方向を求めることによって前記第一回転角度を認識し、
    前記第二認識部は、前記辺の方向を求めることによって前記第二回転角度を認識する、
    請求項4に記載の作業座標作成装置。
  6. 前記形状登録部は、前記ターゲットの既知の設計情報に基づいて前記形状情報を登録する、請求項1、2、4、5のいずれか一項に記載の作業座標作成装置。
  7. 前記形状登録部は、前記第一画像データをオペレータに提示し、前記オペレータが前記第一画像データ内に指定した範囲の内部にある前記作業領域の形状を認識して登録する、請求項1、2、4、5のいずれか一項に記載の作業座標作成装置。
  8. 前記カメラは、前記作業ロボットと別体であって固定されている、請求項1~7のいずれか一項に記載の作業座標作成装置。
JP2020569245A 2019-01-30 2019-01-30 作業座標作成装置 Active JP7112528B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003221 WO2020157875A1 (ja) 2019-01-30 2019-01-30 作業座標作成装置

Publications (2)

Publication Number Publication Date
JPWO2020157875A1 JPWO2020157875A1 (ja) 2021-10-14
JP7112528B2 true JP7112528B2 (ja) 2022-08-03

Family

ID=71841273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020569245A Active JP7112528B2 (ja) 2019-01-30 2019-01-30 作業座標作成装置

Country Status (5)

Country Link
US (1) US11826919B2 (ja)
EP (1) EP3919240A4 (ja)
JP (1) JP7112528B2 (ja)
CN (1) CN113302027B (ja)
WO (1) WO2020157875A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200349737A1 (en) * 2019-05-03 2020-11-05 Fanuc America Corporation Multi-target calibration and augmentation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020739A1 (ja) 2012-08-02 2014-02-06 富士機械製造株式会社 多関節型ロボットを備えた作業機および電気部品装着機
JP2017102529A (ja) 2015-11-30 2017-06-08 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP2017189856A (ja) 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
JP2017208043A (ja) 2016-05-20 2017-11-24 富士通株式会社 ロボットハンドの位置検出装置、ロボット装置、及び、ロボットハンドの位置検出方法
WO2018230517A1 (ja) 2017-06-13 2018-12-20 川崎重工業株式会社 作業システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272424A (ja) * 1995-04-03 1996-10-18 Amada Metrecs Co Ltd 産業用ロボットの数値制御装置
US6681151B1 (en) * 2000-12-15 2004-01-20 Cognex Technology And Investment Corporation System and method for servoing robots based upon workpieces with fiducial marks using machine vision
JP4587738B2 (ja) * 2003-08-25 2010-11-24 ソニー株式会社 ロボット装置及びロボットの姿勢制御方法
US8489232B2 (en) * 2008-09-30 2013-07-16 Amazon Technologies, Inc. Systems and methods for receiving shipment parcels
JP5427566B2 (ja) 2009-11-24 2014-02-26 Idec株式会社 ロボット制御方法、ロボット制御プログラムおよびロボット制御方法に用いられるロボットハンド
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5839553B2 (ja) * 2011-10-28 2016-01-06 株式会社日立製作所 作業支援システム、作業支援方法、および、作業用端末
JP5673717B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP5860081B2 (ja) * 2014-02-27 2016-02-16 ファナック株式会社 ロボットの動作経路を生成するロボットシミュレーション装置
US9186794B2 (en) * 2014-03-04 2015-11-17 Fanuc Corporation Robot controller having function to simplify teaching operation and improve motion performance of robot
US9586317B2 (en) * 2014-03-31 2017-03-07 Canon Kabushiki Kaisha Controlling method of robot system, program, recording medium, and robot system
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
JP6042860B2 (ja) * 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
EP3203179B1 (en) * 2016-02-05 2019-04-03 Hexagon Technology Center GmbH Measuring machine based on a delta robot assembly
CN107378941B (zh) * 2016-05-16 2022-02-18 精工爱普生株式会社 机器人、控制装置以及机器人系统
EP3260243B1 (en) * 2016-06-23 2021-06-02 El-Zouki Group AB Method and system for placing at least one object on a surface
JP6786912B2 (ja) * 2016-07-05 2020-11-18 富士ゼロックス株式会社 移動ロボットおよび移動制御システム
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6472472B2 (ja) * 2017-03-08 2019-02-20 本田技研工業株式会社 位置姿勢調整方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020739A1 (ja) 2012-08-02 2014-02-06 富士機械製造株式会社 多関節型ロボットを備えた作業機および電気部品装着機
JP2017102529A (ja) 2015-11-30 2017-06-08 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP2017189856A (ja) 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
JP2017208043A (ja) 2016-05-20 2017-11-24 富士通株式会社 ロボットハンドの位置検出装置、ロボット装置、及び、ロボットハンドの位置検出方法
WO2018230517A1 (ja) 2017-06-13 2018-12-20 川崎重工業株式会社 作業システム

Also Published As

Publication number Publication date
EP3919240A1 (en) 2021-12-08
CN113302027B (zh) 2023-12-22
EP3919240A4 (en) 2022-01-19
US20220111530A1 (en) 2022-04-14
JPWO2020157875A1 (ja) 2021-10-14
US11826919B2 (en) 2023-11-28
WO2020157875A1 (ja) 2020-08-06
CN113302027A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
CN111452040B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP3946711B2 (ja) ロボットシステム
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
JP7130927B2 (ja) 制御装置およびロボットシステム
JP2005300230A (ja) 計測装置
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
JP4794011B2 (ja) 画像処理装置、およびロボット制御システム
JP2016187846A (ja) ロボット、ロボット制御装置およびロボットシステム
CN109945780B (zh) 物体检查系统以及物体检查方法
JP2012230041A (ja) 位置検出方法、位置検出装置、ロボットシステム
CN116214480A (zh) 通过利用视觉伺服的演示的机器人教导
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
JP7112528B2 (ja) 作業座標作成装置
KR20180076966A (ko) 용접로봇의 작업대상물 용접선 검출방법
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
TWI807990B (zh) 機器人示教系統
CN113858214A (zh) 一种用于机器人作业的定位方法与控制系统
CN115397634A (zh) 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人系统、方法以及计算机程序
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
WO2023013699A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2019036072A (ja) 画像処理方法、画像処理装置、および製造方法
JP2012236266A (ja) ロボット制御システム、ロボットシステム及びプログラム
JP2021091070A (ja) ロボット制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150