JP2020089950A - Measurement device, system, measurement method, program and article manufacturing method - Google Patents
Measurement device, system, measurement method, program and article manufacturing method Download PDFInfo
- Publication number
- JP2020089950A JP2020089950A JP2018229212A JP2018229212A JP2020089950A JP 2020089950 A JP2020089950 A JP 2020089950A JP 2018229212 A JP2018229212 A JP 2018229212A JP 2018229212 A JP2018229212 A JP 2018229212A JP 2020089950 A JP2020089950 A JP 2020089950A
- Authority
- JP
- Japan
- Prior art keywords
- work
- measurement
- unit
- measuring
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、計測装置、システム、計測方法、プログラム、および物品製造方法に関する。 The present invention relates to a measuring device, a system, a measuring method, a program, and an article manufacturing method.
三次元形状計測装置の一種であるマシンビジョン(以下、単に「ビジョン」ともいう。)は、特に製造業におけるコンピュータビジョンの応用に用いられる。ビジョンは、溶接、ハンドリング、組み付け、検査などの様々な工程に供するための、物の位置および姿勢(位置姿勢)の認識として利用されている。具体的には、組み付け工程の場合、パレット内の位置不定なバラ積みされた部品をビジョンで認識し、認識結果に基づいてロボットで部品を把持し、組み付け先に組み付ける工程に利用される。 Machine vision (hereinafter, also simply referred to as “vision”), which is a type of three-dimensional shape measuring apparatus, is used particularly for application of computer vision in the manufacturing industry. Vision is used as recognition of the position and orientation (position/orientation) of an object for use in various processes such as welding, handling, assembly, and inspection. Specifically, in the case of the assembling process, the components that are stacked indefinitely in the pallet are recognized by a vision, the robot grips the components based on the recognition result, and the components are used in the assembling process.
従来、作業を行うロボット自体にビジョンを取り付ける「ロボット−ビジョンシステム」が提案されている(例えば特許文献1参照)。特許文献1に開示のビジョンは、計測対象部品に対してビジョンの計測方向である視線モデルを定義する。視線は一方向とは限らず、部品に応じて複数の視線モデルを定義することができる。ロボットは複数の視線モデルのうちから1つを選択し、ビジョンの計測方向と選択した視線モデルとが一致するようにロボットを動作させ、計測を行う。 Conventionally, a "robot-vision system" has been proposed in which a vision is attached to a robot itself for performing work (for example, refer to Patent Document 1). The vision disclosed in Patent Document 1 defines a line-of-sight model that is the measurement direction of the vision with respect to the measurement target component. The line of sight is not limited to one direction, and a plurality of line of sight models can be defined according to the parts. The robot selects one from a plurality of line-of-sight models, operates the robot so that the measurement direction of vision matches the selected line-of-sight model, and performs measurement.
ビジョンの計測手法はいくつかある。1つの手法としては、例えば、複数のカメラで撮像した画像から対象部品の三次元位置姿勢を得るパッシブステレオタイプがある。他の手法としては、例えば、プロジェクタで対象部品に投影したパターンをカメラで撮像し三角測量により三次元位置姿勢を得るアクティブステレオタイプがある。また、特許文献1には、カメラで撮像した1枚の画像と部品に定義した特徴部との比較から部品の三次元位置姿勢を得る手法が開示されている。 There are several methods for measuring vision. As one method, for example, there is a passive stereo type in which the three-dimensional position and orientation of the target component is obtained from images captured by a plurality of cameras. As another method, for example, there is an active stereo type in which a pattern projected on a target component by a projector is imaged by a camera and a three-dimensional position and orientation is obtained by triangulation. Further, Patent Document 1 discloses a method of obtaining a three-dimensional position and orientation of a component by comparing one image captured by a camera with a characteristic part defined in the component.
特許文献1の技術では、計測精度を保証するために計測対象部品に対して計測方向を離散的に複数定義する必要がある。そのため、ロボットが計測方向に移動する動作に無駄が生じ、計測工程のタクトが増加するという問題がある。 In the technique of Patent Document 1, it is necessary to discretely define a plurality of measurement directions for the measurement target component in order to guarantee the measurement accuracy. Therefore, there is a problem in that the movement of the robot in the measurement direction is wasted and the tact of the measurement process increases.
一方、計測対象部品の中には、形状、表面性状、色、テクスチャ等により十分な計測精度が得られない計測方向が存在するものがある。例えば、図2に示すような電子部品のコネクタは、略立方体のケーシングの一面が開口部となっており、この開口内にピンが配置されている。特に、アクティブステレオ方式でこういった電子部品を、開口部に向けた視線方向から計測を行う場合に、十分な計測精度が得られない場合がある。これは、ケーシングの側壁により死角となる領域が大きいため十分な計測点が得られないことや、投影したパターン光が開口内部で多重散乱する等が理由である。 On the other hand, some of the measurement target components have measurement directions in which sufficient measurement accuracy cannot be obtained due to the shape, surface texture, color, texture, and the like. For example, in a connector for electronic components as shown in FIG. 2, one surface of a substantially cubic casing serves as an opening, and pins are arranged in the opening. In particular, when measuring such an electronic component in the active stereo system from the line-of-sight direction toward the opening, sufficient measurement accuracy may not be obtained. This is because the side wall of the casing has a large blind spot area, so that a sufficient measurement point cannot be obtained, and the projected pattern light is multiply scattered inside the opening.
本発明は、例えば、ワークの位置および姿勢の計測精度に関して、ワークの形状等の複雑さに対するロバスト性能の点で有利な技術を提供することを目的とする。 It is an object of the present invention to provide a technique that is advantageous in terms of robustness with respect to the accuracy of measurement of the position and orientation of a work, for example, with respect to complexity such as the shape of the work.
本発明の一側面によれば、ワークの位置および姿勢を計測する計測装置であって、前記ワークに光を投影して前記ワークを撮像する計測部と、前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部とを有することを特徴とする計測装置が提供される。 According to one aspect of the present invention, there is provided a measuring device for measuring a position and a posture of a work, the measuring unit projecting light onto the work to image the work, and the work obtained by the measuring unit. A first processing for obtaining a rough position and orientation of the work based on an image; and a second processing for performing a second processing of obtaining the position and orientation of the work with higher accuracy than the first processing; Outputs control information for controlling at least one of the position and the posture of the measuring unit when the work is imaged for the second process, based on the approximate position and posture of the work obtained in the processing. And an output unit that operates.
本発明によれば、例えば、ワークの位置および姿勢の計測精度に関して、ワークの形状等の複雑さに対するロバスト性能の点で有利な技術を提供することができる。 According to the present invention, for example, regarding the measurement accuracy of the position and orientation of the work, it is possible to provide a technique advantageous in terms of robust performance with respect to complexity such as the shape of the work.
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の実施形態は本発明の実施の具体例を示すにすぎないものであり、本発明は以下の実施形態に限定されるものではない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments are merely examples of the practice of the present invention, and the present invention is not limited to the following embodiments. In addition, not all combinations of features described in the following embodiments are essential for solving the problems of the present invention.
<第1実施形態>
図1は、本実施形態におけるロボット−ビジョンシステム100の構成を示す図である。このシステムは、ワークの位置および姿勢を計測する計測装置と、この計測装置による計測の結果に基づいてワークを把持して移動させるロボットとを含む。図1におけるロボット−ビジョンシステム100は、例えば、ばら積みで置かれて位置姿勢が不定であるワーク50を、ロボットで把持し、部品を整列させるもしくは組み付けることを目的に用いられるシステムを想定している。ロボット−ビジョンシステム100は、ロボット101と、ロボット101に取り付けられたビジョン201と、ロボット101およびビジョン201を制御する制御装置102とを含む。
<First Embodiment>
FIG. 1 is a diagram showing a configuration of a robot-
ロボット101は、例えば6軸の多関節ロボットであり、製造業における部品の仕分け工程や組立て工程などで広く用いられている。ロボット101は、駆動部であるロボットアーム109と、ロボットアーム109の先端に固定されたフランジ部105、フランジ部105に取り付けられたマウント部106、マウント部106に取り付けられたハンド107とを含む。ロボット101は、ワーク50をハンド107によって把持して所望の位置や姿勢でもって該ワーク50を移動させることで、例えば該把持したワーク50を別の物体に組み付けることができる。
The
ビジョン201は、被検物であるワーク50にパターン光及び均一光を投影するプロジェクタと、ワーク50で反射された光を撮像するカメラとを有するアクティブステレオタイプの計測部である。ビジョン201は、フランジ部105およびマウント部106を介してハンド107とともにロボットアーム109に支持されている。よって、ロボットアーム109は、ビジョン201の位置および姿勢の少なくとも一方を調整する調整部としても機能する。
The
制御装置102は、ビジョン201によりワーク50にパターン光を投影して得られたパターン画像を処理して距離情報を取得する。また、制御装置102は、ビジョン201によりワーク50に均一光を投影して得られた二次元画像を処理して二次元情報を取得する。そして制御装置102は、これらの取得した情報に基づいて、ワーク50の位置姿勢を求めることができる(位置姿勢計測処理)。このように、制御装置102は、計測部であるビジョン201より得られたワークの画像に基づいてワークの位置姿勢を求める処理部として機能する。制御装置102は、位置姿勢計測処理に関して2つの機能を有する。第1の機能は、ワークの概略の位置および姿勢を求める概略位置姿勢計測(第1処理)である。概略位置姿勢計測においては、例えば、ワークの三次元CADモデルを複数方向から見た画像を参照画像として記憶しておき、参照画像と計測で取得した画像処理結果との比較から、ワークの概略位置姿勢を高速に求める。第2の機能は、概略位置姿勢計測よりも高精度にワークの位置および姿勢を求める高精度位置姿勢計測(第2処理)である。計測で取得した画像処理結果を三次元CADモデルとフィッティングすることで、ワークの位置姿勢を高精度に求めることができる。
The
制御装置102は、更に、求めたワークの位置姿勢の情報に基づいて、ロボットアーム109に駆動指令を送って駆動部であるロボットアーム109を制御する制御部として機能する。ロボットアーム109は先端のハンド107(把持部)でワーク50を把持して、並進や回転などの移動をさせる。さらに、ロボットアーム109によってワーク50を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動されたワーク50を加工することにより、物品を製造することができる。
The
本実施形態において、制御装置102は、上記のとおり、ロボット101およびビジョン201を制御するものであるが、ロボット101を制御する装置とビジョン201を制御する装置とが別体で構成されていてもよい。また、ワークの位置姿勢を求める処理する処理部の機能は、制御装置102ではなくビジョン201に内蔵されていてもよい。すなわち、一実施形態において、本発明の計測装置は、計測部であるビジョン201と処理部である制御装置102とを含む構成によって実現されうる。また、制御装置102は、ロボット101およびビジョン201を制御するための専用ハードウェアにより構成してもよいが、汎用コンピュータ装置によっても実現可能である。図8は、制御装置102を汎用コンピュータ装置で構成する場合のハードウェア構成例を示すブロック図である。図8において、CPU21は、中央演算装置(処理部)である。ROM24は、BIOS等の固定的なプログラムや、各種データを記憶している。RAM22は、主記憶装置として機能するとともにCPU21のワークエリアを提供する。外部記憶装置であるハードディスクドライブ(HDD)23は、オペレーティングシステム(OS)、ロボット101およびビジョン201を制御するための制御プログラム、画像データ等を記憶する。CPU21は、HDD23に格納されている制御プログラムをRAM22にロードすることにより、本実施形態の動作を実行することができる。汎用インタフェース(I/F)26には、入力装置31および記録メディア32が接続される。入力装置31は、キーボードやマウス等を含みうる。記録メディア32は、SDカード、USB等のメモリデバイスである。ビデオコントローラ(VC)27には、表示装置33が接続されている。表示装置33は、VC27による制御の下、CPU21による処理結果を画像や文字等で表示することができる。入力装置31と表示装置33とが一体化されたタッチパネル画面が構成されてもよい。これら上記した各部は、バス25により相互接続されている。
In the present embodiment, the
ビジョン201による撮像画像に基づいて求められるワーク50の位置姿勢は、ビジョン座標系XvYvZvにおける位置姿勢である。ビジョン座標系XvYvZvは、例えば、ビジョン201の撮像系が有する光学系の焦点位置を原点とし、ビジョン201の撮像方向をZ軸とし、このZ軸と直交する2軸をそれぞれX軸、Y軸とする座標系である。
The position/orientation of the
ロボット101に対しては、ロボット101を基準とするロボット座標系XwYwZwが存在する。ロボット座標系XwYwZwは、例えば、ロボット101の台座108における規定の位置を原点とし、この原点で互いに直交する3軸をそれぞれ、X軸、Y軸、Z軸とする座標系である。なお、ロボット座標系XwYwZwは、基準座標系として設けたものであるから、ロボット101との相対的な位置姿勢を有する座標系であれば、現実空間中のいずれの箇所に設定してもよい。
For the
また、フランジ部105に対しては、フランジ部105を基準とするフランジ座標系XfYfZfが存在する。フランジ座標系XfYfZfは、例えば、フランジ部105の位置を原点とし、フランジ面と直交する方向(ロボットアームの伸び方向)をZ軸とし、このZ軸と直交する2軸をそれぞれ、X軸、Y軸とする座標系である。ロボット101には、上記の通りビジョン201も固定して配置されているため、ビジョン座標系XvYvZvとフランジ座標系XfYfZfとの間の相対的な位置姿勢関係は固定されていることになる。ビジョン座標系XvYvZvとフランジ座標系XfYfZfとの間の相対的な位置姿勢関係はキャリブレーション時に求められ、制御装置102のRAM22に記憶されているものとする。
Further, for the
本実施形態において、ワーク50は、形状、表面性状、色、テクスチャ等の影響により十分な計測精度が得られない計測方向が存在する部品である。具体的には、ワークは、前述したように図2に示したような電子部品のコネクタであり、開口部の方向から撮像した場合には所望の計測精度が得られない。本実施形態ではこのようなワークが、位置姿勢が不定な状態で置かれている状態、例えば、ばら積み状態で置かれている状態を想定している。
In the present embodiment, the
本実施形態において、処理部である制御装置102は、計測部であるビジョン201より得られたワークの画像に基づいて、ワークの概略の位置および姿勢を求める第1処理と、第1処理よりも高精度にワークの位置および姿勢を求める第2処理とを行う。また、制御装置102は、第1処理で求められたワークの概略の位置および姿勢に基づいて、第2処理のためにワークを撮像する際のビジョン201の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部としても機能する。このような処理部および出力部の機能は、計測部であるビジョン201に含まれていてもよい。
In the present embodiment, the
以下、具体例を示す。ここでは、ワーク毎に計測困難な方向とその角度範囲を事前定義し、ロボットをその角度範囲外に移動させる最適駆動量を計算し、駆動後にビジョンでワークを計測する。図4は、本実施形態におけるロボット−ビジョンシステム100によるワーク50の位置姿勢を求める処理のフローチャートである。このフローチャートに対応するプログラムは、例えばHDD23に格納されている制御プログラムに含まれ、RAM22にロードされた後、CPU21によって実行される。
Specific examples will be shown below. Here, the direction in which measurement is difficult and its angular range are defined in advance for each workpiece, the optimum drive amount for moving the robot outside the angular range is calculated, and the workpiece is measured by vision after driving. FIG. 4 is a flowchart of processing for obtaining the position and orientation of the
まずS401で、制御装置102は、高精度位置姿勢計測(第2処理)のための計測が困難な方向とその角度範囲の事前定義を行う。図3を参照して、この処理を説明する。図3は図2で示したコネクタの三方図である。前述したように、開口方向から計測した場合には所望の計測精度が得られない可能性があるため、図3において、矢印nを計測が困難な方向を表す単位ベクトルとする。計測方向が矢印nからn’まで変わるとワークの外側面が主たる計測面に変化する。外側面であれば死角や多重散乱の影響は無くなるため、十分なパターン光反射強度が得られ、かつ、反射面積が確保できれば、所望の計測精度が得られる。計測が困難な角度範囲θは、ワークの形状およびビジョンの性能に依存するが、一般的にはθ=30〜45度程度である。よって、ワークの形状およびビジョンの性能に基づいて、計測が困難な方向nおよびその角度範囲θが定義される。S401では、入力装置31を介してユーザがワークの形状やビジョンの性能を鑑みて、計測が困難な方向nおよびその角度範囲θの定義作業を行ってもよい。あるいは、実際にビジョンを用いてワークを様々な角度から計測して所望の計測精度が得られる計測方向及び範囲を実験的に求め、その結果から、計測が困難な方向nおよびその角度範囲θを定義してもよい。また、制御装置102が、CADデータを用いて、その形状の特徴等から計測が困難な方向nおよびその角度範囲θを適宜導き出して設定してもよい。なお、便宜上、図3では平面上の角度を示しているが、実際には、計測が困難な方向n周りの立体角θで形成される円錐領域が計測困難な角度範囲になる(図1参照)。
First, in S401, the
次に、S402で、制御装置102は、ワークの概略位置姿勢を計測する。例えば、ワークCADモデルに対する視線方向が相異なる複数の参照画像を、記憶部であるRAM22に予め記憶しておく。各参照画像はワーク方向情報と紐づいている。制御装置102(処理部)は、ビジョン201の計測によりパターン画像および二次元画像を取得し、そのうちの二次元画像とRAM22に記憶されている複数の参照画像のそれぞれとの比較を行う。そして、例えば最も近似度の高い参照画像を選択することにより、ワークの概略位置姿勢を求める。この計測によって得られるのはビジョン座標系XvYvZvにおけるワークの概略位置姿勢である。前述したように、フランジ座標系XfYfZfとビジョン座標系XvYvZvは固定であるから、ビジョン座標系におけるワークの概略位置姿勢はフランジ座標系に変換可能である。制御装置102は、ワークの概略位置姿勢を、ビジョン座標系からフランジ座標系に変換した後、更に、フランジ座標系からロボット座標系XwYwZwに変換する。
Next, in S402, the
次に、S403で、制御装置102は、ビジョン201の計測方向と計測方向範囲の判定を行う。ここでは、制御装置102は、S402の概略位置姿勢計測のためにワークを撮像した時のビジョンの計測方向が、S407で高精度位置姿勢を求めるための計測が困難な角度範囲として事前定義された所定の角度範囲内にあるか否かを判定する。この判定は、S402で求められたワークの概略の位置および姿勢に基づいて行われる。S402でロボット座標系におけるワークの概略位置姿勢が得られている。したがって、これに基づいて、S401で定義した、高精度位置姿勢計測が困難な角度を表す方向ベクトルnと、この方向ベクトルnに対する所定の角度範囲θをロボット座標系のワークに定義することができる。この方向ベクトルnは、高精度位置姿勢計測が困難な角度(方向)を表す単位ベクトルとするとよい。計測方向の判定は、ワークの概略位置姿勢の計測時のビジョン計測方向(図1中のZv方向)が高精度位置姿勢計測に不適切な角度を表す方向ベクトルnとそれに対する所定の角度範囲θで定義される円錐領域(計測困難領域)内に含まれるか否かを判定する。この判定は、ビジョン計測方向を示す計測方向ベクトル(計測方向を表す単位ベクトル)をLとすると、次式(1)を評価することにより行われる。
Next, in S403, the
L・n>|L||n|cosθ ・・・・式(1)
式(1)は、高精度位置姿勢計測が困難な角度を表す方向ベクトルnとビジョン計測方向を表す計測方向ベクトルLの内積を表す。式(1)の左辺はnとLの成す角度によって−1〜+1の値をとる。式(1)を満たす場合には、概略位置姿勢計測時のビジョン計測方向は計測困難領域内(所定の角度範囲内)にあると判定される。式(1)を満たす場合、つまり、ビジョン計測方向が計測困難領域内に含まれる場合、このままでは高精度位置姿勢の計算の精度が保証できないため、処理は次のS405に進む。式(1)を満たさない場合、つまり、概略位置姿勢計測時のビジョン計測方向が計測困難領域に含まれない場合は、高精度位置姿勢の計測精度が保証可能であるため、処理はそのままS407に進む。
L·n>|L||n|cos θ ··· Equation (1)
Expression (1) represents the inner product of the direction vector n representing the angle at which high-precision position and orientation measurement is difficult and the measurement direction vector L representing the vision measurement direction. The left side of Expression (1) takes a value of -1 to +1 depending on the angle formed by n and L. When Expression (1) is satisfied, it is determined that the vision measurement direction at the time of rough position/orientation measurement is within the measurement difficulty region (within a predetermined angle range). When Expression (1) is satisfied, that is, when the vision measurement direction is included in the measurement difficulty region, the accuracy of the calculation of the high-accuracy position/orientation cannot be guaranteed as it is, and the process proceeds to the next S405. When Expression (1) is not satisfied, that is, when the vision measurement direction at the time of rough position/orientation measurement is not included in the measurement difficulty region, the measurement accuracy of the high-accuracy position/orientation can be guaranteed, and thus the process directly proceeds to S407. move on.
S404では、制御装置102は、ロボット指示値の計算を行う。具体的には、制御装置102は、ロボット移動によりビジョン計測方向を計測困難領域外(所定の角度範囲外)に移動させるためのロボット指示値を計算しこれを制御情報として出力する。ビジョン計測方向が計測困難領域外であれば計測精度は保証されるので、制御装置102は、ビジョンの現在位置及び次工程の動作を鑑みてロボット移動が最小になる最適経路を選択することにより、タクト増加を最小限にすることが可能となる。例えば、ワークに対するハンド107の把持位置姿勢が限定されていない場合、ビジョン201を現在位置から円錐領域(計測困難領域)外に移動させるための最短経路をロボット指示値とすればよい。一方、ワークに対するハンド107の把持位置姿勢が限定されている場合は、ビジョン201を現在位置から円錐領域外に移動させるための最短経路が必ずしも最適経路にならない。この場合は、ワーク把持までのロボット移動が全体として最小となるようにロボット指示値を計算する。
In S404, the
次に、ステップS405で、制御装置102はS404で得られたロボット指示値に基づいて調整部であるロボットアーム109を制御してロボット101を移動させる。その後、S406で、制御装置102は、ビジョン201による計測を実行する。この計測は計測困難領域外からの計測になるため、計測精度が保証されている。
Next, in step S405, the
最後に、S407で、制御装置102は、S402の概略位置姿勢計測よりも高精度にワークの位置姿勢を計測する。具体的には、制御装置102は、S406でのビジョン計測で得られたワークのパターン画像および二次元画像を処理し、その画像処理結果を三次元CADモデルとフィッティングすることでワークの位置姿勢を高精度に求める。
Finally, in S407, the
以上の処理によれば、ワークが計測困難な方向を有する部品であっても、確実に部品の位置姿勢を取得することが可能になる。 According to the above processing, even if the workpiece is a component having a direction in which measurement is difficult, it is possible to reliably acquire the position and orientation of the component.
<第2実施形態>
図5は、第2実施形態におけるロボット−ビジョンシステム100の構成を示す図である。図1と同じ構成要素には同じ参照符号を付してそれらの説明は省略する。本実施形態のロボット−ビジョンシステム100は、第2ビジョン203(第2計測部)を更に有する。第2ビジョン203はロボット101に固定されておらず、ワーク50の上方に固定されている据え置きタイプである。なお、以下では、第2ビジョン203に対して、ビジョン201(第1計測部)のことを第1ビジョンという。
<Second Embodiment>
FIG. 5 is a diagram showing the configuration of the robot-
本実施形態では、処理部としての制御装置102は、第2ビジョン203より得られたワークの画像に基づいて、ワークの概略の位置および姿勢を求める概略位置姿勢計測(第1処理)を行う。また、処理部としての制御装置102は、第1ビジョン201より得られたワークの画像に基づいて、概略位置姿勢計測よりも高精度にワークの位置および姿勢を求める高精度位置姿勢計測(第2処理)を行う。また、出力部としての制御装置102は、概略位置姿勢計測で求められたワークの概略の位置および姿勢に基づいて、高精度位置姿勢計測のためにワークを撮像する際の第1ビジョン201の位置および姿勢の少なくとも一方を制御するための制御情報を出力する。以下、具体例を示す。
In the present embodiment, the
図6は、本実施形態におけるロボット−ビジョンシステム100によるワーク50の位置姿勢を求める処理(計測工程)のフローチャートである。まずS601で、制御装置102は、計測が困難な方向とその角度範囲の事前定義を行う。これは、第1実施形態(図4)のS401と同様であるため説明を省略する。
FIG. 6 is a flowchart of a process (measurement process) for obtaining the position and orientation of the
次に、S602で、制御装置102は、第2ビジョン203によりワークの計測を行い、ワークの概略位置姿勢を計算する。
Next, in step S602, the
次に、S603で、制御装置102は、第1ビジョン201の計測方向と計測方向範囲の判定を行う。ここでは、図4のS403と同様、第1ビジョン計測方向が計測に不適切な方向nと角度範囲θで定義される円錐領域(計測困難領域)に含まれるかどうかを判定する。第1ビジョン計測方向が計測困難領域内に含まれると判定された場合、または、第1ビジョンの視野内にワークが存在しない場合は、処理はS604に進む。一方、第1ビジョン計測方向が計測困難領域に含まれない場合、かつ、第1ビジョンの視野内にワークが存在する場合は、処理はS606に進む。S604、S605、S606、S607は、それぞれ、図4のS404、S405、S406、S407と同様であるため説明を省略する。
Next, in step S603, the
図7は、図6の変形例に係る、ワークの位置姿勢を求める処理のフローチャートである。図6と同じ処理工程には同じ参照符号を付してそれらの説明は省略する。ここでは、第2ビジョン203による計測結果についても計測方向の判定を行う。具体的には、S703−1で、制御装置102は、第2ビジョン計測方向が計測困難領域に含まれるか否かを判定する。第2ビジョン計測方向が計測困難領域に含まれる場合、処理はS703−2に進み、そうでなければ処理はS607に進む。S703−2では、制御装置102は、第1ビジョン計測方向が計測困難領域に含まれるか否かを判定する。第1ビジョン計測方向が計測困難領域に含まれる場合、処理はS604に進み、そうでなければ処理はS606に進む。
FIG. 7 is a flowchart of processing for obtaining the position and orientation of the work according to the modification of FIG. The same processing steps as those in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted. Here, the measurement direction of the measurement result by the
この変形例によれば、第1ビジョンおよび第2ビジョンの両方の計測方向が計測困難領域に含まれる場合には、その計測方向が計測困難領域外となるようにロボットの移動が行われ、確実に部品の位置姿勢を取得することが可能になる。なお、第1ビジョンと第2ビジョンで、計測困難な方向nと角度範囲θが異なる場合はS601でそれぞれのビジョンについて定義しておけばよい。 According to this modification, when the measurement directions of both the first vision and the second vision are included in the measurement difficult region, the robot is moved so that the measurement direction is outside the measurement difficult region, and It becomes possible to acquire the position and orientation of parts. If the first vision and the second vision differ in the direction n in which measurement is difficult and the angle range θ, the respective visions may be defined in S601.
<第3実施形態>
次に、計測困難な方向と角度範囲の定義方法に関して、第1及び第2の実施形態とは異なる実施形態について説明する。
<Third Embodiment>
Next, an embodiment different from the first and second embodiments will be described with respect to the method of defining the direction and angle range in which measurement is difficult.
例えば、ワークCADモデルに対する視線方向が相異なる複数の参照画像を記憶部であるRAM22に予め記憶しておく。各参照画像はワーク方向情報と紐づいているため、計測困難な方向の参照画像を指定し、さらに指定した画像方向からの角度範囲θを記憶しておくことで、計測困難な方向と角度範囲を定義することができる。
For example, a plurality of reference images having different line-of-sight directions with respect to the work CAD model are stored in advance in the
計測工程におけるその他の処理に関しては第1及び第2実施形態と同様であるため説明を省略する。 The other processes in the measurement process are the same as those in the first and second embodiments, and thus the description thereof will be omitted.
<第4実施形態>
上述した第1〜第3実施形態は、ワークに対して計測困難な方向nと角度範囲θを定義し、定義した角度範囲外から計測することで計測精度を担保していた。それに対し第4実施形態では、ワークに対して計測が可能な方向と角度範囲を定義し、定義した角度範囲内から計測することで計測精度を保証する。
<Fourth Embodiment>
In the above-described first to third embodiments, the measurement accuracy is ensured by defining the direction n and the angle range θ that are difficult to measure with respect to the workpiece and measuring from outside the defined angle range. On the other hand, in the fourth embodiment, the direction and the angle range in which the work can be measured are defined, and the measurement accuracy is guaranteed by measuring from the defined angle range.
具体的には、第1実施形態におけるステップS401及び第2実施形態におけるステップS601では、高精度位置姿勢計測が困難な方向nとそれに対する所定の角度範囲θを定義していたが、本実施形態では計測に適した方向nと角度範囲θを定義する。それに対応して、本実施形態のビジョンの計測方向と計測方向範囲の判定は、判定式の不等号が式(1)に対して反転した次式(2)を評価することにより行われる。 Specifically, in step S401 in the first embodiment and step S601 in the second embodiment, the direction n in which high-accuracy position/orientation measurement is difficult and the predetermined angle range θ relative thereto are defined. Then, the direction n and the angle range θ suitable for measurement are defined. Correspondingly, the determination of the vision measurement direction and the measurement direction range of the present embodiment is performed by evaluating the following expression (2) in which the inequality sign of the judgment expression is inverted with respect to expression (1).
L・n<|L||n|cosθ ・・・・式(2)
式(2)を満たす、つまり、概略位置姿勢計測時のビジョン計測方向が、計測が可能な円錐領域(計測可能領域)内に含まれていない場合は、ビジョンを計測可能領域内(所定の角度範囲内)に移動させて再計測する。詳細は第1実施形態と同様であるため説明は省略する。
L·n<|L||n|cos θ ··· Equation (2)
If Expression (2) is satisfied, that is, if the vision measurement direction at the time of rough position/orientation measurement is not included in the measurable cone area (measurable area), the vision is in the measurable area (predetermined angle). Move to (within range) and measure again. The details are the same as those in the first embodiment, and the description thereof will be omitted.
一方で、第3実施形態においては計測困難な方向の参照画像とその画像方向からの角度範囲θを定義していたが、本実施形態では計測が可能な方向の参照画像とその画像方向からの角度範囲θを定義すればよい。 On the other hand, in the third embodiment, the reference image in the direction in which measurement is difficult and the angular range θ from the image direction are defined. However, in the present embodiment, the reference image in the direction in which measurement is possible and the reference image from the image direction are defined. The angular range θ may be defined.
<第5実施形態>
上記実施形態に係るビジョンシステムやロボット−ビジョンシステムは、物品製造方法に使用しうる。この物品製造方法は、前記システムを用いて物ないし部品(ワーク)の計測を行う工程と、この工程で計測された物ないし部品(ワーク)の処理ないし製造を行う工程とを含みうる。この処理は、例えば、加工、切断、搬送、組立(組付)、検査、選別などのうちの少なくともいずれか1つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能、品質、生産性、生産コストなどにおいて有利である。
<Fifth Embodiment>
The vision system and the robot-vision system according to the above embodiments can be used in an article manufacturing method. This article manufacturing method may include a step of measuring an object or a part (work) using the system, and a step of processing or manufacturing the object or a part (work) measured in this step. This processing can include, for example, at least one of processing, cutting, carrying, assembling (assembling), inspection, and sorting. The article manufacturing method of the present embodiment is advantageous in performance, quality, productivity, production cost and the like of articles as compared with the conventional methods.
<他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
50:ワーク、100:ロボット−ビジョンシステム、101:ロボット、102:制御装置、201:ビジョン 50: Work, 100: Robot-vision system, 101: Robot, 102: Control device, 201: Vision
Claims (12)
前記ワークに光を投影して前記ワークを撮像する計測部と、
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有することを特徴とする計測装置。 A measuring device for measuring the position and posture of a work,
A measuring unit that projects light onto the work to image the work,
First processing for obtaining a rough position and orientation of the workpiece based on the image of the workpiece obtained from the measuring unit, and second processing for obtaining the position and orientation of the workpiece with higher accuracy than the first processing. And a processing unit that performs
Control for controlling at least one of the position and the posture of the measuring unit when the workpiece is imaged for the second process, based on the approximate position and posture of the work obtained in the first process. An output section for outputting information,
A measuring device having:
前記計測方向が前記所定の角度範囲内にあると判定された場合、前記出力部は、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を、前記計測部の計測方向が前記所定の角度範囲外となるように制御するための制御情報を出力する
ことを特徴とする請求項1に記載の計測装置。 The processing unit, based on the approximate position and orientation of the work obtained in the first process, the measurement direction of the measurement unit when the work is imaged for the first process is the second direction. Determines whether or not it is within a predefined angle range that is difficult to measure for processing,
When it is determined that the measurement direction is within the predetermined angle range, the output unit sets at least one of the position and the posture of the measurement unit when the work is imaged for the second processing, The control device outputs control information for controlling the measurement direction of the measurement unit to be outside the predetermined angle range.
L・n>|L||n|cosθ
を満たす場合に、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が前記所定の角度範囲内にあると判定することを特徴とする請求項2に記載の計測装置。 L is a measurement direction vector that represents the measurement direction of the measurement unit when the workpiece is imaged for the first process, n is a direction vector that represents an angle that is difficult to measure for the second process, and the direction vector is When the predetermined angle range with respect to is θ, the processing unit
L・n>|L||n|cos θ
The measurement device according to claim 2, wherein when the condition is satisfied, it is determined that the measurement direction of the measurement unit when the work is imaged for the first process is within the predetermined angular range. ..
前記計測方向が前記所定の角度範囲内にないと判定された場合、前記出力部は、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を、前記計測部の計測方向が前記所定の角度範囲内となるように制御するための制御情報を出力する
ことを特徴とする請求項1に記載の計測装置。 The processing unit, based on the approximate position and orientation of the work obtained in the first process, the measurement direction of the measurement unit when the work is imaged for the first process is the second direction. It is determined whether or not it is within a predetermined angle range that is predefined as an angle range suitable for measurement for processing,
When it is determined that the measurement direction is not within the predetermined angle range, the output unit determines at least one of the position and the posture of the measurement unit when the work is imaged for the second processing. The control device outputs control information for controlling the measurement direction of the measurement unit to be within the predetermined angle range.
L・n<|L||n|cosθ
を満たす場合に、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が前記所定の角度範囲内にないと判定することを特徴とする請求項4に記載の計測装置。 L is a measurement direction vector that represents the measurement direction of the measurement unit when the workpiece is imaged for the first process, n is a direction vector that represents an angle suitable for measurement for the second process, and the direction vector is When the angle range with respect to is θ, the processing unit
L・n<|L||n|cos θ
The measurement device according to claim 4, wherein when the condition is satisfied, it is determined that the measurement direction of the measurement unit when the work is imaged for the first process is not within the predetermined angle range. ..
前記処理部は、前記第1処理において、前記第1処理のために前記計測部より得られた前記ワークの画像と前記記憶部に記憶されている前記複数の参照画像のそれぞれとの比較を行い、最も近似度の高い参照画像を選択することにより、前記ワークの概略の位置および姿勢を求める
ことを特徴とする請求項2乃至5のいずれか1項に記載の計測装置。 Further comprising a storage unit for storing a plurality of reference images of the work with different gaze directions,
In the first process, the processing unit compares the image of the work obtained by the measuring unit for the first process with each of the plurality of reference images stored in the storage unit. The measuring device according to any one of claims 2 to 5, wherein the approximate position and orientation of the work are obtained by selecting a reference image having the highest degree of approximation.
前記出力部から出力された前記制御情報に基づいて、前記調整部を制御する制御部と、
を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の計測装置。 An adjusting unit for adjusting at least one of the position and the posture of the measuring unit,
Based on the control information output from the output unit, a control unit for controlling the adjustment unit,
The measuring device according to any one of claims 1 to 6, further comprising:
前記ワークに光を投影して前記ワークを撮像する第1計測部と、
前記ワークに光を投影して前記ワークを撮像する第2計測部と、
前記第2計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、前記第1計測部より得られた前記ワークの画像に基づいて、前記第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記第1計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有することを特徴とする計測装置。 A measuring device for measuring the position and posture of a work,
A first measuring unit that projects light onto the work to image the work;
A second measuring unit that projects light onto the work to image the work;
Based on the image of the work obtained by the second measuring unit, a first process for obtaining a rough position and orientation of the work, and based on the image of the work obtained by the first measuring unit, A processing unit that performs a second process for obtaining the position and orientation of the work with higher accuracy than the first process;
To control at least one of the position and the posture of the first measuring unit when the work is imaged for the second process based on the approximate position and posture of the work obtained in the first process. An output unit for outputting the control information of
A measuring device having:
前記計測装置は、
前記ワークに光を投影して前記ワークを撮像する計測部と、
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有し、
前記ロボットは、
前記計測部を支持し、前記計測部の位置および姿勢の少なくとも一方を調整する調整部と、
前記出力部から出力された前記制御情報に基づいて前記調整部を制御する制御部と、
を有することを特徴とするシステム。 A system including a measuring device that measures the position and orientation of a work, and a robot that grips and moves the work based on the result of measurement by the measuring device,
The measuring device is
A measuring unit that projects light onto the work to image the work,
First processing for obtaining a rough position and orientation of the workpiece based on the image of the workpiece obtained from the measuring unit, and second processing for obtaining the position and orientation of the workpiece with higher accuracy than the first processing. And a processing unit that performs
Control for controlling at least one of the position and the posture of the measuring unit when the workpiece is imaged for the second process based on the approximate position and posture of the work obtained in the first process An output section for outputting information,
Have
The robot is
An adjusting unit that supports the measuring unit and adjusts at least one of the position and the posture of the measuring unit,
A control unit that controls the adjustment unit based on the control information output from the output unit;
A system having:
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理工程と、
前記計測部より得られた前記ワークの画像に基づいて、前記第1処理工程よりも高精度に前記ワークの位置および姿勢を求める第2処理工程と、
有し、
更に、前記第2処理工程の前に、
前記第1処理工程で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理工程のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御する制御工程を有する
ことを特徴とする計測方法。 A measuring method for measuring the position and orientation of the work by using a measuring device comprising a measuring unit for projecting light onto the work and imaging the work,
A first processing step of obtaining an approximate position and posture of the work based on the image of the work obtained from the measuring unit;
A second processing step for obtaining the position and orientation of the work with higher accuracy than the first processing step, based on the image of the work obtained by the measuring unit;
Have,
Furthermore, before the second treatment step,
Control for controlling at least one of the position and the posture of the measuring unit when capturing an image of the work for the second treatment step, based on the approximate position and posture of the work obtained in the first treatment step. A measuring method characterized by comprising steps.
前記計測の結果に基づいて前記ワークを処理することにより物品を製造する工程と、
を有することを特徴とする物品製造方法。 A step of measuring a workpiece using the measuring device according to claim 1.
Manufacturing an article by processing the workpiece based on the result of the measurement,
An article manufacturing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018229212A JP2020089950A (en) | 2018-12-06 | 2018-12-06 | Measurement device, system, measurement method, program and article manufacturing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018229212A JP2020089950A (en) | 2018-12-06 | 2018-12-06 | Measurement device, system, measurement method, program and article manufacturing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020089950A true JP2020089950A (en) | 2020-06-11 |
Family
ID=71013469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018229212A Pending JP2020089950A (en) | 2018-12-06 | 2018-12-06 | Measurement device, system, measurement method, program and article manufacturing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020089950A (en) |
-
2018
- 2018-12-06 JP JP2018229212A patent/JP2020089950A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11911914B2 (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
CN108453701B (en) | Method for controlling robot, method for teaching robot, and robot system | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
US9715730B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP6594129B2 (en) | Information processing apparatus, information processing method, and program | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
JP6324025B2 (en) | Information processing apparatus and information processing method | |
US10571254B2 (en) | Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method | |
TWI677413B (en) | Calibration method and device for robotic arm system | |
JP2014014912A (en) | Robot system, robot, robot control device, robot control method and robot control program | |
CN111515944A (en) | Automatic calibration method for non-fixed path robot | |
CN110842901A (en) | Robot hand-eye calibration method and device based on novel three-dimensional calibration block | |
US20180290300A1 (en) | Information processing apparatus, information processing method, storage medium, system, and article manufacturing method | |
US10591289B2 (en) | Method for measuring an artefact | |
JP7427370B2 (en) | Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium | |
JP2019077026A (en) | Control device, robot system, and control device operating method and program | |
WO2021019627A1 (en) | Calibration method for computer vision system and three-dimensional reference object for use in same | |
JP2018031701A (en) | Calibration method and calibration device | |
JP6420530B2 (en) | Information processing apparatus, measurement system, control system, light quantity determination method, program, and storage medium | |
JP2020089950A (en) | Measurement device, system, measurement method, program and article manufacturing method | |
WO2016084316A1 (en) | Information processing apparatus, information processing method, and program | |
Korak et al. | Optical tracking system | |
WO2023135764A1 (en) | Robot device provided with three-dimensional sensor and method for controlling robot device | |
WO2021200743A1 (en) | Device for correcting robot teaching position, teaching device, robot system, teaching position correction method, and computer program | |
JP7401250B2 (en) | Image processing device, control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |