JP2020089950A - Measurement device, system, measurement method, program and article manufacturing method - Google Patents

Measurement device, system, measurement method, program and article manufacturing method Download PDF

Info

Publication number
JP2020089950A
JP2020089950A JP2018229212A JP2018229212A JP2020089950A JP 2020089950 A JP2020089950 A JP 2020089950A JP 2018229212 A JP2018229212 A JP 2018229212A JP 2018229212 A JP2018229212 A JP 2018229212A JP 2020089950 A JP2020089950 A JP 2020089950A
Authority
JP
Japan
Prior art keywords
work
measurement
unit
measuring
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018229212A
Other languages
Japanese (ja)
Inventor
猛司 鈴木
Takeshi Suzuki
猛司 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018229212A priority Critical patent/JP2020089950A/en
Publication of JP2020089950A publication Critical patent/JP2020089950A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a technique that is advantageous in terms of robust performance in contrast to complexities of a shape and the like of a work-piece, in regard to accuracy in measuring a position and a posture of the work-piece.SOLUTION: A measurement device that measures a position and a posture of a work-piece comprises: a measurement part that photographs the work-piece by projecting light to the work-piece; a processing part that performs first processing for determining an approximate position and posture of the work-piece and second processing for determining the position and posture of the work-piece more accurately than in the first processing, on the basis of an image of the work-piece photographed by the measurement part; and an output part that outputs control information for controlling at least either of a position and a posture of the measurement part when photographing the work-piece for the second processing, on the basis of the approximate position and posture of the work-piece determined in the first processing.SELECTED DRAWING: Figure 1

Description

本発明は、計測装置、システム、計測方法、プログラム、および物品製造方法に関する。 The present invention relates to a measuring device, a system, a measuring method, a program, and an article manufacturing method.

三次元形状計測装置の一種であるマシンビジョン(以下、単に「ビジョン」ともいう。)は、特に製造業におけるコンピュータビジョンの応用に用いられる。ビジョンは、溶接、ハンドリング、組み付け、検査などの様々な工程に供するための、物の位置および姿勢(位置姿勢)の認識として利用されている。具体的には、組み付け工程の場合、パレット内の位置不定なバラ積みされた部品をビジョンで認識し、認識結果に基づいてロボットで部品を把持し、組み付け先に組み付ける工程に利用される。 Machine vision (hereinafter, also simply referred to as “vision”), which is a type of three-dimensional shape measuring apparatus, is used particularly for application of computer vision in the manufacturing industry. Vision is used as recognition of the position and orientation (position/orientation) of an object for use in various processes such as welding, handling, assembly, and inspection. Specifically, in the case of the assembling process, the components that are stacked indefinitely in the pallet are recognized by a vision, the robot grips the components based on the recognition result, and the components are used in the assembling process.

従来、作業を行うロボット自体にビジョンを取り付ける「ロボット−ビジョンシステム」が提案されている(例えば特許文献1参照)。特許文献1に開示のビジョンは、計測対象部品に対してビジョンの計測方向である視線モデルを定義する。視線は一方向とは限らず、部品に応じて複数の視線モデルを定義することができる。ロボットは複数の視線モデルのうちから1つを選択し、ビジョンの計測方向と選択した視線モデルとが一致するようにロボットを動作させ、計測を行う。 Conventionally, a "robot-vision system" has been proposed in which a vision is attached to a robot itself for performing work (for example, refer to Patent Document 1). The vision disclosed in Patent Document 1 defines a line-of-sight model that is the measurement direction of the vision with respect to the measurement target component. The line of sight is not limited to one direction, and a plurality of line of sight models can be defined according to the parts. The robot selects one from a plurality of line-of-sight models, operates the robot so that the measurement direction of vision matches the selected line-of-sight model, and performs measurement.

ビジョンの計測手法はいくつかある。1つの手法としては、例えば、複数のカメラで撮像した画像から対象部品の三次元位置姿勢を得るパッシブステレオタイプがある。他の手法としては、例えば、プロジェクタで対象部品に投影したパターンをカメラで撮像し三角測量により三次元位置姿勢を得るアクティブステレオタイプがある。また、特許文献1には、カメラで撮像した1枚の画像と部品に定義した特徴部との比較から部品の三次元位置姿勢を得る手法が開示されている。 There are several methods for measuring vision. As one method, for example, there is a passive stereo type in which the three-dimensional position and orientation of the target component is obtained from images captured by a plurality of cameras. As another method, for example, there is an active stereo type in which a pattern projected on a target component by a projector is imaged by a camera and a three-dimensional position and orientation is obtained by triangulation. Further, Patent Document 1 discloses a method of obtaining a three-dimensional position and orientation of a component by comparing one image captured by a camera with a characteristic part defined in the component.

特開2011−83882号公報JP, 2011-83882, A

特許文献1の技術では、計測精度を保証するために計測対象部品に対して計測方向を離散的に複数定義する必要がある。そのため、ロボットが計測方向に移動する動作に無駄が生じ、計測工程のタクトが増加するという問題がある。 In the technique of Patent Document 1, it is necessary to discretely define a plurality of measurement directions for the measurement target component in order to guarantee the measurement accuracy. Therefore, there is a problem in that the movement of the robot in the measurement direction is wasted and the tact of the measurement process increases.

一方、計測対象部品の中には、形状、表面性状、色、テクスチャ等により十分な計測精度が得られない計測方向が存在するものがある。例えば、図2に示すような電子部品のコネクタは、略立方体のケーシングの一面が開口部となっており、この開口内にピンが配置されている。特に、アクティブステレオ方式でこういった電子部品を、開口部に向けた視線方向から計測を行う場合に、十分な計測精度が得られない場合がある。これは、ケーシングの側壁により死角となる領域が大きいため十分な計測点が得られないことや、投影したパターン光が開口内部で多重散乱する等が理由である。 On the other hand, some of the measurement target components have measurement directions in which sufficient measurement accuracy cannot be obtained due to the shape, surface texture, color, texture, and the like. For example, in a connector for electronic components as shown in FIG. 2, one surface of a substantially cubic casing serves as an opening, and pins are arranged in the opening. In particular, when measuring such an electronic component in the active stereo system from the line-of-sight direction toward the opening, sufficient measurement accuracy may not be obtained. This is because the side wall of the casing has a large blind spot area, so that a sufficient measurement point cannot be obtained, and the projected pattern light is multiply scattered inside the opening.

本発明は、例えば、ワークの位置および姿勢の計測精度に関して、ワークの形状等の複雑さに対するロバスト性能の点で有利な技術を提供することを目的とする。 It is an object of the present invention to provide a technique that is advantageous in terms of robustness with respect to the accuracy of measurement of the position and orientation of a work, for example, with respect to complexity such as the shape of the work.

本発明の一側面によれば、ワークの位置および姿勢を計測する計測装置であって、前記ワークに光を投影して前記ワークを撮像する計測部と、前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部とを有することを特徴とする計測装置が提供される。 According to one aspect of the present invention, there is provided a measuring device for measuring a position and a posture of a work, the measuring unit projecting light onto the work to image the work, and the work obtained by the measuring unit. A first processing for obtaining a rough position and orientation of the work based on an image; and a second processing for performing a second processing of obtaining the position and orientation of the work with higher accuracy than the first processing; Outputs control information for controlling at least one of the position and the posture of the measuring unit when the work is imaged for the second process, based on the approximate position and posture of the work obtained in the processing. And an output unit that operates.

本発明によれば、例えば、ワークの位置および姿勢の計測精度に関して、ワークの形状等の複雑さに対するロバスト性能の点で有利な技術を提供することができる。 According to the present invention, for example, regarding the measurement accuracy of the position and orientation of the work, it is possible to provide a technique advantageous in terms of robust performance with respect to complexity such as the shape of the work.

実施形態におけるロボット−ビジョンシステムの構成を示す図。The figure which shows the structure of the robot-vision system in embodiment. ワークの外観の例を示す斜視図。The perspective view which shows the example of the external appearance of a work. 図2に示したワークの三方図。3 is a three-dimensional view of the work shown in FIG. ワークの位置姿勢を求める処理のフローチャート。The flowchart of the process which calculates|requires the position and orientation of a workpiece. 実施形態のロボット−ビジョンシステムの構成を示す図。The figure which shows the structure of the robot-vision system of embodiment. ワークの位置姿勢を求める処理のフローチャート。The flowchart of the process which calculates|requires the position and orientation of a workpiece. ワークの位置姿勢を求める処理のフローチャート。The flowchart of the process which calculates|requires the position and orientation of a workpiece. 制御部のハードウェア構成例を示すブロック図。FIG. 3 is a block diagram showing a hardware configuration example of a control unit.

以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の実施形態は本発明の実施の具体例を示すにすぎないものであり、本発明は以下の実施形態に限定されるものではない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments are merely examples of the practice of the present invention, and the present invention is not limited to the following embodiments. In addition, not all combinations of features described in the following embodiments are essential for solving the problems of the present invention.

<第1実施形態>
図1は、本実施形態におけるロボット−ビジョンシステム100の構成を示す図である。このシステムは、ワークの位置および姿勢を計測する計測装置と、この計測装置による計測の結果に基づいてワークを把持して移動させるロボットとを含む。図1におけるロボット−ビジョンシステム100は、例えば、ばら積みで置かれて位置姿勢が不定であるワーク50を、ロボットで把持し、部品を整列させるもしくは組み付けることを目的に用いられるシステムを想定している。ロボット−ビジョンシステム100は、ロボット101と、ロボット101に取り付けられたビジョン201と、ロボット101およびビジョン201を制御する制御装置102とを含む。
<First Embodiment>
FIG. 1 is a diagram showing a configuration of a robot-vision system 100 according to this embodiment. This system includes a measuring device that measures the position and orientation of the work, and a robot that grips and moves the work based on the measurement result of the measuring device. The robot-vision system 100 in FIG. 1 is assumed to be, for example, a system used for the purpose of gripping a work 50 placed in bulk and having an indefinite position and orientation by a robot and aligning or assembling components. .. The robot-vision system 100 includes a robot 101, a vision 201 attached to the robot 101, and a controller 102 that controls the robot 101 and the vision 201.

ロボット101は、例えば6軸の多関節ロボットであり、製造業における部品の仕分け工程や組立て工程などで広く用いられている。ロボット101は、駆動部であるロボットアーム109と、ロボットアーム109の先端に固定されたフランジ部105、フランジ部105に取り付けられたマウント部106、マウント部106に取り付けられたハンド107とを含む。ロボット101は、ワーク50をハンド107によって把持して所望の位置や姿勢でもって該ワーク50を移動させることで、例えば該把持したワーク50を別の物体に組み付けることができる。 The robot 101 is, for example, a 6-axis articulated robot, and is widely used in parts sorting and assembling processes in the manufacturing industry. The robot 101 includes a robot arm 109 that is a drive unit, a flange portion 105 fixed to the tip of the robot arm 109, a mount portion 106 attached to the flange portion 105, and a hand 107 attached to the mount portion 106. The robot 101 can attach the gripped work 50 to another object, for example, by gripping the work 50 with the hand 107 and moving the work 50 at a desired position and posture.

ビジョン201は、被検物であるワーク50にパターン光及び均一光を投影するプロジェクタと、ワーク50で反射された光を撮像するカメラとを有するアクティブステレオタイプの計測部である。ビジョン201は、フランジ部105およびマウント部106を介してハンド107とともにロボットアーム109に支持されている。よって、ロボットアーム109は、ビジョン201の位置および姿勢の少なくとも一方を調整する調整部としても機能する。 The vision 201 is an active stereo type measurement unit having a projector that projects pattern light and uniform light onto a workpiece 50 that is an object to be inspected, and a camera that captures the light reflected by the workpiece 50. The vision 201 is supported by the robot arm 109 together with the hand 107 via the flange portion 105 and the mount portion 106. Therefore, the robot arm 109 also functions as an adjusting unit that adjusts at least one of the position and the posture of the vision 201.

制御装置102は、ビジョン201によりワーク50にパターン光を投影して得られたパターン画像を処理して距離情報を取得する。また、制御装置102は、ビジョン201によりワーク50に均一光を投影して得られた二次元画像を処理して二次元情報を取得する。そして制御装置102は、これらの取得した情報に基づいて、ワーク50の位置姿勢を求めることができる(位置姿勢計測処理)。このように、制御装置102は、計測部であるビジョン201より得られたワークの画像に基づいてワークの位置姿勢を求める処理部として機能する。制御装置102は、位置姿勢計測処理に関して2つの機能を有する。第1の機能は、ワークの概略の位置および姿勢を求める概略位置姿勢計測(第1処理)である。概略位置姿勢計測においては、例えば、ワークの三次元CADモデルを複数方向から見た画像を参照画像として記憶しておき、参照画像と計測で取得した画像処理結果との比較から、ワークの概略位置姿勢を高速に求める。第2の機能は、概略位置姿勢計測よりも高精度にワークの位置および姿勢を求める高精度位置姿勢計測(第2処理)である。計測で取得した画像処理結果を三次元CADモデルとフィッティングすることで、ワークの位置姿勢を高精度に求めることができる。 The control device 102 processes the pattern image obtained by projecting the pattern light on the work 50 by the vision 201 to acquire the distance information. Further, the control device 102 acquires the two-dimensional information by processing the two-dimensional image obtained by projecting the uniform light on the work 50 by the vision 201. Then, the control device 102 can obtain the position and orientation of the work 50 based on the acquired information (position and orientation measurement processing). In this way, the control device 102 functions as a processing unit that obtains the position and orientation of the work based on the image of the work obtained from the vision 201 that is the measurement unit. The control device 102 has two functions regarding the position and orientation measurement processing. The first function is rough position/orientation measurement (first processing) for obtaining a rough position and posture of the work. In the rough position/orientation measurement, for example, an image obtained by viewing a three-dimensional CAD model of a work from a plurality of directions is stored as a reference image, and the rough position of the work is determined from a comparison between the reference image and the image processing result acquired by the measurement. Ask for posture at high speed. The second function is high-accuracy position/orientation measurement (second process) for obtaining the position and attitude of the work with higher accuracy than the rough position/orientation measurement. By fitting the image processing result acquired by the measurement with the three-dimensional CAD model, the position and orientation of the work can be obtained with high accuracy.

制御装置102は、更に、求めたワークの位置姿勢の情報に基づいて、ロボットアーム109に駆動指令を送って駆動部であるロボットアーム109を制御する制御部として機能する。ロボットアーム109は先端のハンド107(把持部)でワーク50を把持して、並進や回転などの移動をさせる。さらに、ロボットアーム109によってワーク50を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動されたワーク50を加工することにより、物品を製造することができる。 The control device 102 further functions as a control unit that sends a drive command to the robot arm 109 and controls the robot arm 109, which is a drive unit, based on the obtained information on the position and orientation of the work. The robot arm 109 grips the work 50 with the hand 107 (grasping part) at the tip and moves the work 50 such as translation and rotation. Furthermore, by assembling the work 50 with other parts by the robot arm 109, an article including a plurality of parts, such as an electronic circuit board or a machine, can be manufactured. Moreover, an article can be manufactured by processing the moved workpiece 50.

本実施形態において、制御装置102は、上記のとおり、ロボット101およびビジョン201を制御するものであるが、ロボット101を制御する装置とビジョン201を制御する装置とが別体で構成されていてもよい。また、ワークの位置姿勢を求める処理する処理部の機能は、制御装置102ではなくビジョン201に内蔵されていてもよい。すなわち、一実施形態において、本発明の計測装置は、計測部であるビジョン201と処理部である制御装置102とを含む構成によって実現されうる。また、制御装置102は、ロボット101およびビジョン201を制御するための専用ハードウェアにより構成してもよいが、汎用コンピュータ装置によっても実現可能である。図8は、制御装置102を汎用コンピュータ装置で構成する場合のハードウェア構成例を示すブロック図である。図8において、CPU21は、中央演算装置(処理部)である。ROM24は、BIOS等の固定的なプログラムや、各種データを記憶している。RAM22は、主記憶装置として機能するとともにCPU21のワークエリアを提供する。外部記憶装置であるハードディスクドライブ(HDD)23は、オペレーティングシステム(OS)、ロボット101およびビジョン201を制御するための制御プログラム、画像データ等を記憶する。CPU21は、HDD23に格納されている制御プログラムをRAM22にロードすることにより、本実施形態の動作を実行することができる。汎用インタフェース(I/F)26には、入力装置31および記録メディア32が接続される。入力装置31は、キーボードやマウス等を含みうる。記録メディア32は、SDカード、USB等のメモリデバイスである。ビデオコントローラ(VC)27には、表示装置33が接続されている。表示装置33は、VC27による制御の下、CPU21による処理結果を画像や文字等で表示することができる。入力装置31と表示装置33とが一体化されたタッチパネル画面が構成されてもよい。これら上記した各部は、バス25により相互接続されている。 In the present embodiment, the control device 102 controls the robot 101 and the vision 201 as described above, but even if the device that controls the robot 101 and the device that controls the vision 201 are configured separately. Good. The function of the processing unit that obtains the position and orientation of the workpiece may be incorporated in the vision 201 instead of the control device 102. That is, in one embodiment, the measuring device of the present invention can be realized by a configuration including the vision 201 which is a measuring unit and the control device 102 which is a processing unit. Further, the control device 102 may be configured by dedicated hardware for controlling the robot 101 and the vision 201, but can also be realized by a general-purpose computer device. FIG. 8 is a block diagram showing a hardware configuration example when the control device 102 is configured by a general-purpose computer device. In FIG. 8, the CPU 21 is a central processing unit (processing unit). The ROM 24 stores fixed programs such as BIOS and various data. The RAM 22 functions as a main storage device and provides a work area for the CPU 21. A hard disk drive (HDD) 23, which is an external storage device, stores an operating system (OS), a control program for controlling the robot 101 and the vision 201, image data, and the like. The CPU 21 can execute the operation of the present embodiment by loading the control program stored in the HDD 23 into the RAM 22. An input device 31 and a recording medium 32 are connected to the general-purpose interface (I/F) 26. The input device 31 may include a keyboard, a mouse and the like. The recording medium 32 is a memory device such as an SD card or a USB. A display device 33 is connected to the video controller (VC) 27. Under the control of the VC 27, the display device 33 can display the processing result by the CPU 21 as an image, characters, or the like. A touch panel screen in which the input device 31 and the display device 33 are integrated may be configured. These above-mentioned units are interconnected by a bus 25.

ビジョン201による撮像画像に基づいて求められるワーク50の位置姿勢は、ビジョン座標系XvYvZvにおける位置姿勢である。ビジョン座標系XvYvZvは、例えば、ビジョン201の撮像系が有する光学系の焦点位置を原点とし、ビジョン201の撮像方向をZ軸とし、このZ軸と直交する2軸をそれぞれX軸、Y軸とする座標系である。 The position/orientation of the work 50 determined based on the image captured by the vision 201 is the position/orientation in the vision coordinate system XvYvZv. In the vision coordinate system XvYvZv, for example, the focal position of the optical system of the image pickup system of the vision 201 is the origin, the image pickup direction of the vision 201 is the Z axis, and the two axes orthogonal to this Z axis are the X axis and the Y axis, respectively. Coordinate system.

ロボット101に対しては、ロボット101を基準とするロボット座標系XwYwZwが存在する。ロボット座標系XwYwZwは、例えば、ロボット101の台座108における規定の位置を原点とし、この原点で互いに直交する3軸をそれぞれ、X軸、Y軸、Z軸とする座標系である。なお、ロボット座標系XwYwZwは、基準座標系として設けたものであるから、ロボット101との相対的な位置姿勢を有する座標系であれば、現実空間中のいずれの箇所に設定してもよい。 For the robot 101, a robot coordinate system XwYwZw based on the robot 101 exists. The robot coordinate system XwYwZw is a coordinate system in which, for example, a specified position on the pedestal 108 of the robot 101 is an origin, and three axes orthogonal to each other at the origin are an X axis, a Y axis, and a Z axis, respectively. Since the robot coordinate system XwYwZw is provided as a reference coordinate system, it may be set at any position in the physical space as long as it is a coordinate system having a relative position and orientation with respect to the robot 101.

また、フランジ部105に対しては、フランジ部105を基準とするフランジ座標系XfYfZfが存在する。フランジ座標系XfYfZfは、例えば、フランジ部105の位置を原点とし、フランジ面と直交する方向(ロボットアームの伸び方向)をZ軸とし、このZ軸と直交する2軸をそれぞれ、X軸、Y軸とする座標系である。ロボット101には、上記の通りビジョン201も固定して配置されているため、ビジョン座標系XvYvZvとフランジ座標系XfYfZfとの間の相対的な位置姿勢関係は固定されていることになる。ビジョン座標系XvYvZvとフランジ座標系XfYfZfとの間の相対的な位置姿勢関係はキャリブレーション時に求められ、制御装置102のRAM22に記憶されているものとする。 Further, for the flange portion 105, there is a flange coordinate system XfYfZf based on the flange portion 105. In the flange coordinate system XfYfZf, for example, the position of the flange portion 105 is the origin, the direction orthogonal to the flange surface (the extending direction of the robot arm) is the Z axis, and the two axes orthogonal to this Z axis are the X axis and the Y axis, respectively. It is a coordinate system that uses an axis. Since the vision 201 is also fixedly arranged in the robot 101 as described above, the relative position and orientation relationship between the vision coordinate system XvYvZv and the flange coordinate system XfYfZf is fixed. It is assumed that the relative position/orientation relationship between the vision coordinate system XvYvZv and the flange coordinate system XfYfZf is obtained at the time of calibration and stored in the RAM 22 of the control device 102.

本実施形態において、ワーク50は、形状、表面性状、色、テクスチャ等の影響により十分な計測精度が得られない計測方向が存在する部品である。具体的には、ワークは、前述したように図2に示したような電子部品のコネクタであり、開口部の方向から撮像した場合には所望の計測精度が得られない。本実施形態ではこのようなワークが、位置姿勢が不定な状態で置かれている状態、例えば、ばら積み状態で置かれている状態を想定している。 In the present embodiment, the work 50 is a component having a measurement direction in which sufficient measurement accuracy cannot be obtained due to the influence of the shape, surface texture, color, texture and the like. Specifically, the work is the connector of the electronic component as shown in FIG. 2 as described above, and the desired measurement accuracy cannot be obtained when the image is taken from the direction of the opening. In the present embodiment, such a work is assumed to be placed in a state where the position and orientation are indefinite, for example, a state where the work is placed in bulk.

本実施形態において、処理部である制御装置102は、計測部であるビジョン201より得られたワークの画像に基づいて、ワークの概略の位置および姿勢を求める第1処理と、第1処理よりも高精度にワークの位置および姿勢を求める第2処理とを行う。また、制御装置102は、第1処理で求められたワークの概略の位置および姿勢に基づいて、第2処理のためにワークを撮像する際のビジョン201の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部としても機能する。このような処理部および出力部の機能は、計測部であるビジョン201に含まれていてもよい。 In the present embodiment, the control device 102, which is the processing unit, performs the first process for obtaining the approximate position and orientation of the work based on the image of the work obtained from the vision 201, which is the measurement unit, and the first process The second processing for obtaining the position and orientation of the work with high accuracy is performed. Further, the control device 102 controls at least one of the position and the posture of the vision 201 when capturing the image of the work for the second processing, based on the approximate position and the posture of the work obtained in the first processing. It also functions as an output unit that outputs the control information. The functions of the processing unit and the output unit may be included in the vision 201 that is the measurement unit.

以下、具体例を示す。ここでは、ワーク毎に計測困難な方向とその角度範囲を事前定義し、ロボットをその角度範囲外に移動させる最適駆動量を計算し、駆動後にビジョンでワークを計測する。図4は、本実施形態におけるロボット−ビジョンシステム100によるワーク50の位置姿勢を求める処理のフローチャートである。このフローチャートに対応するプログラムは、例えばHDD23に格納されている制御プログラムに含まれ、RAM22にロードされた後、CPU21によって実行される。 Specific examples will be shown below. Here, the direction in which measurement is difficult and its angular range are defined in advance for each workpiece, the optimum drive amount for moving the robot outside the angular range is calculated, and the workpiece is measured by vision after driving. FIG. 4 is a flowchart of processing for obtaining the position and orientation of the work 50 by the robot-vision system 100 according to this embodiment. The program corresponding to this flowchart is included in, for example, a control program stored in the HDD 23, loaded into the RAM 22, and then executed by the CPU 21.

まずS401で、制御装置102は、高精度位置姿勢計測(第2処理)のための計測が困難な方向とその角度範囲の事前定義を行う。図3を参照して、この処理を説明する。図3は図2で示したコネクタの三方図である。前述したように、開口方向から計測した場合には所望の計測精度が得られない可能性があるため、図3において、矢印nを計測が困難な方向を表す単位ベクトルとする。計測方向が矢印nからn’まで変わるとワークの外側面が主たる計測面に変化する。外側面であれば死角や多重散乱の影響は無くなるため、十分なパターン光反射強度が得られ、かつ、反射面積が確保できれば、所望の計測精度が得られる。計測が困難な角度範囲θは、ワークの形状およびビジョンの性能に依存するが、一般的にはθ=30〜45度程度である。よって、ワークの形状およびビジョンの性能に基づいて、計測が困難な方向nおよびその角度範囲θが定義される。S401では、入力装置31を介してユーザがワークの形状やビジョンの性能を鑑みて、計測が困難な方向nおよびその角度範囲θの定義作業を行ってもよい。あるいは、実際にビジョンを用いてワークを様々な角度から計測して所望の計測精度が得られる計測方向及び範囲を実験的に求め、その結果から、計測が困難な方向nおよびその角度範囲θを定義してもよい。また、制御装置102が、CADデータを用いて、その形状の特徴等から計測が困難な方向nおよびその角度範囲θを適宜導き出して設定してもよい。なお、便宜上、図3では平面上の角度を示しているが、実際には、計測が困難な方向n周りの立体角θで形成される円錐領域が計測困難な角度範囲になる(図1参照)。 First, in S401, the control device 102 predefines a direction in which measurement is difficult and a range of the angle for high-accuracy position/orientation measurement (second process). This processing will be described with reference to FIG. FIG. 3 is a three-dimensional view of the connector shown in FIG. As described above, when the measurement is performed from the opening direction, the desired measurement accuracy may not be obtained. Therefore, in FIG. 3, the arrow n is a unit vector indicating the direction in which measurement is difficult. When the measuring direction changes from arrow n to n', the outer surface of the work changes to the main measuring surface. Since the effects of blind spots and multiple scattering are eliminated on the outer side surface, if a sufficient pattern light reflection intensity can be obtained and a reflection area can be secured, desired measurement accuracy can be obtained. The angle range θ that is difficult to measure depends on the shape of the work and the performance of the vision, but is generally about θ=30 to 45 degrees. Therefore, the direction n in which measurement is difficult and its angular range θ are defined based on the shape of the work and the performance of the vision. In S401, the user may perform the definition work of the direction n and its angular range θ, which are difficult to measure, in consideration of the shape of the work and the performance of the vision via the input device 31. Alternatively, the work is actually measured from various angles by using a vision to experimentally obtain a measurement direction and a range in which a desired measurement accuracy is obtained, and from the result, a direction n in which measurement is difficult and its angular range θ are obtained. May be defined. Further, the control device 102 may use CAD data to appropriately derive and set the direction n in which measurement is difficult and the angular range θ thereof from the characteristics of the shape and the like. Note that, for convenience, FIG. 3 shows the angle on the plane, but in reality, the cone area formed by the solid angle θ around the direction n in which measurement is difficult is the angle range in which measurement is difficult (see FIG. 1 ).

次に、S402で、制御装置102は、ワークの概略位置姿勢を計測する。例えば、ワークCADモデルに対する視線方向が相異なる複数の参照画像を、記憶部であるRAM22に予め記憶しておく。各参照画像はワーク方向情報と紐づいている。制御装置102(処理部)は、ビジョン201の計測によりパターン画像および二次元画像を取得し、そのうちの二次元画像とRAM22に記憶されている複数の参照画像のそれぞれとの比較を行う。そして、例えば最も近似度の高い参照画像を選択することにより、ワークの概略位置姿勢を求める。この計測によって得られるのはビジョン座標系XvYvZvにおけるワークの概略位置姿勢である。前述したように、フランジ座標系XfYfZfとビジョン座標系XvYvZvは固定であるから、ビジョン座標系におけるワークの概略位置姿勢はフランジ座標系に変換可能である。制御装置102は、ワークの概略位置姿勢を、ビジョン座標系からフランジ座標系に変換した後、更に、フランジ座標系からロボット座標系XwYwZwに変換する。 Next, in S402, the control device 102 measures the approximate position and orientation of the work. For example, a plurality of reference images having different line-of-sight directions with respect to the work CAD model are stored in advance in the RAM 22, which is a storage unit. Each reference image is associated with the work direction information. The control device 102 (processing unit) acquires the pattern image and the two-dimensional image by measuring the vision 201, and compares the two-dimensional image among them with each of the plurality of reference images stored in the RAM 22. Then, for example, by selecting the reference image with the highest degree of approximation, the approximate position and orientation of the work is obtained. What is obtained by this measurement is the approximate position and orientation of the workpiece in the vision coordinate system XvYvZv. As described above, since the flange coordinate system XfYfZf and the vision coordinate system XvYvZv are fixed, the rough position and orientation of the workpiece in the vision coordinate system can be converted into the flange coordinate system. The control device 102 converts the rough position/orientation of the workpiece from the vision coordinate system to the flange coordinate system, and then further from the flange coordinate system to the robot coordinate system XwYwZw.

次に、S403で、制御装置102は、ビジョン201の計測方向と計測方向範囲の判定を行う。ここでは、制御装置102は、S402の概略位置姿勢計測のためにワークを撮像した時のビジョンの計測方向が、S407で高精度位置姿勢を求めるための計測が困難な角度範囲として事前定義された所定の角度範囲内にあるか否かを判定する。この判定は、S402で求められたワークの概略の位置および姿勢に基づいて行われる。S402でロボット座標系におけるワークの概略位置姿勢が得られている。したがって、これに基づいて、S401で定義した、高精度位置姿勢計測が困難な角度を表す方向ベクトルnと、この方向ベクトルnに対する所定の角度範囲θをロボット座標系のワークに定義することができる。この方向ベクトルnは、高精度位置姿勢計測が困難な角度(方向)を表す単位ベクトルとするとよい。計測方向の判定は、ワークの概略位置姿勢の計測時のビジョン計測方向(図1中のZv方向)が高精度位置姿勢計測に不適切な角度を表す方向ベクトルnとそれに対する所定の角度範囲θで定義される円錐領域(計測困難領域)内に含まれるか否かを判定する。この判定は、ビジョン計測方向を示す計測方向ベクトル(計測方向を表す単位ベクトル)をLとすると、次式(1)を評価することにより行われる。 Next, in S403, the control device 102 determines the measurement direction and the measurement direction range of the vision 201. Here, in the control device 102, the measurement direction of the vision when the work is imaged for the rough position/orientation measurement in S402 is defined in advance as the angular range in which the measurement for obtaining the high-accuracy position/orientation is difficult in S407. It is determined whether or not it is within a predetermined angle range. This determination is performed based on the approximate position and posture of the work piece obtained in S402. In S402, the approximate position and orientation of the work in the robot coordinate system is obtained. Therefore, based on this, it is possible to define a direction vector n defined in S401, which represents an angle at which high-precision position and orientation measurement is difficult, and a predetermined angle range θ with respect to this direction vector n, in the work of the robot coordinate system. .. The direction vector n may be a unit vector representing an angle (direction) in which highly accurate position and orientation measurement is difficult. The determination of the measurement direction is performed by determining the direction vector n indicating the angle at which the vision measurement direction (Zv direction in FIG. 1) at the time of measuring the approximate position and orientation of the work is unsuitable for high-accuracy position and orientation measurement, and a predetermined angle range θ relative thereto. It is determined whether or not it is included in the conical region (measuring-difficulty region) defined by. This determination is performed by evaluating the following equation (1), where L is a measurement direction vector indicating the vision measurement direction (unit vector indicating the measurement direction).

L・n>|L||n|cosθ ・・・・式(1)
式(1)は、高精度位置姿勢計測が困難な角度を表す方向ベクトルnとビジョン計測方向を表す計測方向ベクトルLの内積を表す。式(1)の左辺はnとLの成す角度によって−1〜+1の値をとる。式(1)を満たす場合には、概略位置姿勢計測時のビジョン計測方向は計測困難領域内(所定の角度範囲内)にあると判定される。式(1)を満たす場合、つまり、ビジョン計測方向が計測困難領域内に含まれる場合、このままでは高精度位置姿勢の計算の精度が保証できないため、処理は次のS405に進む。式(1)を満たさない場合、つまり、概略位置姿勢計測時のビジョン計測方向が計測困難領域に含まれない場合は、高精度位置姿勢の計測精度が保証可能であるため、処理はそのままS407に進む。
L·n>|L||n|cos θ ··· Equation (1)
Expression (1) represents the inner product of the direction vector n representing the angle at which high-precision position and orientation measurement is difficult and the measurement direction vector L representing the vision measurement direction. The left side of Expression (1) takes a value of -1 to +1 depending on the angle formed by n and L. When Expression (1) is satisfied, it is determined that the vision measurement direction at the time of rough position/orientation measurement is within the measurement difficulty region (within a predetermined angle range). When Expression (1) is satisfied, that is, when the vision measurement direction is included in the measurement difficulty region, the accuracy of the calculation of the high-accuracy position/orientation cannot be guaranteed as it is, and the process proceeds to the next S405. When Expression (1) is not satisfied, that is, when the vision measurement direction at the time of rough position/orientation measurement is not included in the measurement difficulty region, the measurement accuracy of the high-accuracy position/orientation can be guaranteed, and thus the process directly proceeds to S407. move on.

S404では、制御装置102は、ロボット指示値の計算を行う。具体的には、制御装置102は、ロボット移動によりビジョン計測方向を計測困難領域外(所定の角度範囲外)に移動させるためのロボット指示値を計算しこれを制御情報として出力する。ビジョン計測方向が計測困難領域外であれば計測精度は保証されるので、制御装置102は、ビジョンの現在位置及び次工程の動作を鑑みてロボット移動が最小になる最適経路を選択することにより、タクト増加を最小限にすることが可能となる。例えば、ワークに対するハンド107の把持位置姿勢が限定されていない場合、ビジョン201を現在位置から円錐領域(計測困難領域)外に移動させるための最短経路をロボット指示値とすればよい。一方、ワークに対するハンド107の把持位置姿勢が限定されている場合は、ビジョン201を現在位置から円錐領域外に移動させるための最短経路が必ずしも最適経路にならない。この場合は、ワーク把持までのロボット移動が全体として最小となるようにロボット指示値を計算する。 In S404, the control device 102 calculates the robot instruction value. Specifically, the control device 102 calculates a robot instruction value for moving the vision measurement direction outside the difficult measurement area (outside the predetermined angle range) by moving the robot, and outputs this as control information. If the vision measurement direction is outside the difficult measurement region, the measurement accuracy is guaranteed. Therefore, the control device 102 selects the optimum route that minimizes the robot movement in consideration of the current position of the vision and the operation of the next process. It is possible to minimize the increase in tact. For example, when the gripping position/orientation of the hand 107 with respect to the work is not limited, the robot instruction value may be the shortest path for moving the vision 201 from the current position to the outside of the conical region (difficult measurement region). On the other hand, when the grip position and orientation of the hand 107 with respect to the work is limited, the shortest path for moving the vision 201 from the current position to the outside of the conical area is not necessarily the optimum path. In this case, the robot instruction value is calculated so that the robot movement as a whole until the workpiece is gripped is minimized.

次に、ステップS405で、制御装置102はS404で得られたロボット指示値に基づいて調整部であるロボットアーム109を制御してロボット101を移動させる。その後、S406で、制御装置102は、ビジョン201による計測を実行する。この計測は計測困難領域外からの計測になるため、計測精度が保証されている。 Next, in step S405, the control device 102 controls the robot arm 109, which is an adjustment unit, based on the robot instruction value obtained in S404 to move the robot 101. After that, in S406, the control device 102 executes the measurement by the vision 201. Since this measurement is from outside the difficult measurement area, the measurement accuracy is guaranteed.

最後に、S407で、制御装置102は、S402の概略位置姿勢計測よりも高精度にワークの位置姿勢を計測する。具体的には、制御装置102は、S406でのビジョン計測で得られたワークのパターン画像および二次元画像を処理し、その画像処理結果を三次元CADモデルとフィッティングすることでワークの位置姿勢を高精度に求める。 Finally, in S407, the control device 102 measures the position and orientation of the work with higher accuracy than the rough position and orientation measurement of S402. Specifically, the control device 102 processes the pattern image and the two-dimensional image of the work obtained by the vision measurement in S406, and fits the image processing result with the three-dimensional CAD model to determine the position and orientation of the work. Highly accurate.

以上の処理によれば、ワークが計測困難な方向を有する部品であっても、確実に部品の位置姿勢を取得することが可能になる。 According to the above processing, even if the workpiece is a component having a direction in which measurement is difficult, it is possible to reliably acquire the position and orientation of the component.

<第2実施形態>
図5は、第2実施形態におけるロボット−ビジョンシステム100の構成を示す図である。図1と同じ構成要素には同じ参照符号を付してそれらの説明は省略する。本実施形態のロボット−ビジョンシステム100は、第2ビジョン203(第2計測部)を更に有する。第2ビジョン203はロボット101に固定されておらず、ワーク50の上方に固定されている据え置きタイプである。なお、以下では、第2ビジョン203に対して、ビジョン201(第1計測部)のことを第1ビジョンという。
<Second Embodiment>
FIG. 5 is a diagram showing the configuration of the robot-vision system 100 according to the second embodiment. The same components as those in FIG. 1 are designated by the same reference numerals, and their description will be omitted. The robot-vision system 100 of the present embodiment further includes a second vision 203 (second measuring unit). The second vision 203 is a stationary type that is not fixed to the robot 101 but fixed above the work 50. In the following, the vision 201 (first measurement unit) is referred to as the first vision, as opposed to the second vision 203.

本実施形態では、処理部としての制御装置102は、第2ビジョン203より得られたワークの画像に基づいて、ワークの概略の位置および姿勢を求める概略位置姿勢計測(第1処理)を行う。また、処理部としての制御装置102は、第1ビジョン201より得られたワークの画像に基づいて、概略位置姿勢計測よりも高精度にワークの位置および姿勢を求める高精度位置姿勢計測(第2処理)を行う。また、出力部としての制御装置102は、概略位置姿勢計測で求められたワークの概略の位置および姿勢に基づいて、高精度位置姿勢計測のためにワークを撮像する際の第1ビジョン201の位置および姿勢の少なくとも一方を制御するための制御情報を出力する。以下、具体例を示す。 In the present embodiment, the control device 102 as a processing unit performs rough position/orientation measurement (first processing) for obtaining a rough position and posture of the work based on the image of the work obtained from the second vision 203. Further, the control device 102 as the processing unit obtains the position and orientation of the work with higher accuracy than the rough position and orientation measurement based on the image of the work obtained from the first vision 201. Process). Further, the control device 102 as the output unit, based on the rough position and posture of the work obtained by the rough position and posture measurement, the position of the first vision 201 when the work is imaged for the highly accurate position and posture measurement. And control information for controlling at least one of the posture and the posture. Specific examples will be shown below.

図6は、本実施形態におけるロボット−ビジョンシステム100によるワーク50の位置姿勢を求める処理(計測工程)のフローチャートである。まずS601で、制御装置102は、計測が困難な方向とその角度範囲の事前定義を行う。これは、第1実施形態(図4)のS401と同様であるため説明を省略する。 FIG. 6 is a flowchart of a process (measurement process) for obtaining the position and orientation of the work 50 by the robot-vision system 100 according to this embodiment. First, in step S601, the control device 102 predefines a direction in which measurement is difficult and its angular range. Since this is the same as S401 of the first embodiment (FIG. 4), description thereof will be omitted.

次に、S602で、制御装置102は、第2ビジョン203によりワークの計測を行い、ワークの概略位置姿勢を計算する。 Next, in step S602, the control device 102 measures the work by the second vision 203 and calculates the approximate position and orientation of the work.

次に、S603で、制御装置102は、第1ビジョン201の計測方向と計測方向範囲の判定を行う。ここでは、図4のS403と同様、第1ビジョン計測方向が計測に不適切な方向nと角度範囲θで定義される円錐領域(計測困難領域)に含まれるかどうかを判定する。第1ビジョン計測方向が計測困難領域内に含まれると判定された場合、または、第1ビジョンの視野内にワークが存在しない場合は、処理はS604に進む。一方、第1ビジョン計測方向が計測困難領域に含まれない場合、かつ、第1ビジョンの視野内にワークが存在する場合は、処理はS606に進む。S604、S605、S606、S607は、それぞれ、図4のS404、S405、S406、S407と同様であるため説明を省略する。 Next, in step S603, the control device 102 determines the measurement direction and the measurement direction range of the first vision 201. Here, as in S403 of FIG. 4, it is determined whether or not the first vision measurement direction is included in the conical region (measuring difficult region) defined by the direction n and the angle range θ that are inappropriate for measurement. If it is determined that the first vision measurement direction is included in the measurement difficulty region, or if there is no work in the visual field of the first vision, the process proceeds to S604. On the other hand, when the measurement direction of the first vision is not included in the measurement difficulty region and when the work is present in the visual field of the first vision, the process proceeds to S606. Since S604, S605, S606, and S607 are the same as S404, S405, S406, and S407 of FIG. 4, respectively, description thereof will be omitted.

図7は、図6の変形例に係る、ワークの位置姿勢を求める処理のフローチャートである。図6と同じ処理工程には同じ参照符号を付してそれらの説明は省略する。ここでは、第2ビジョン203による計測結果についても計測方向の判定を行う。具体的には、S703−1で、制御装置102は、第2ビジョン計測方向が計測困難領域に含まれるか否かを判定する。第2ビジョン計測方向が計測困難領域に含まれる場合、処理はS703−2に進み、そうでなければ処理はS607に進む。S703−2では、制御装置102は、第1ビジョン計測方向が計測困難領域に含まれるか否かを判定する。第1ビジョン計測方向が計測困難領域に含まれる場合、処理はS604に進み、そうでなければ処理はS606に進む。 FIG. 7 is a flowchart of processing for obtaining the position and orientation of the work according to the modification of FIG. The same processing steps as those in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted. Here, the measurement direction of the measurement result by the second vision 203 is also determined. Specifically, in S703-1, the control device 102 determines whether or not the second vision measurement direction is included in the measurement difficulty region. If the second vision measurement direction is included in the measurement difficulty region, the process proceeds to S703-2, and if not, the process proceeds to S607. In S703-2, the control device 102 determines whether or not the first vision measurement direction is included in the measurement difficulty region. If the first vision measurement direction is included in the measurement difficulty region, the process proceeds to S604, and if not, the process proceeds to S606.

この変形例によれば、第1ビジョンおよび第2ビジョンの両方の計測方向が計測困難領域に含まれる場合には、その計測方向が計測困難領域外となるようにロボットの移動が行われ、確実に部品の位置姿勢を取得することが可能になる。なお、第1ビジョンと第2ビジョンで、計測困難な方向nと角度範囲θが異なる場合はS601でそれぞれのビジョンについて定義しておけばよい。 According to this modification, when the measurement directions of both the first vision and the second vision are included in the measurement difficult region, the robot is moved so that the measurement direction is outside the measurement difficult region, and It becomes possible to acquire the position and orientation of parts. If the first vision and the second vision differ in the direction n in which measurement is difficult and the angle range θ, the respective visions may be defined in S601.

<第3実施形態>
次に、計測困難な方向と角度範囲の定義方法に関して、第1及び第2の実施形態とは異なる実施形態について説明する。
<Third Embodiment>
Next, an embodiment different from the first and second embodiments will be described with respect to the method of defining the direction and angle range in which measurement is difficult.

例えば、ワークCADモデルに対する視線方向が相異なる複数の参照画像を記憶部であるRAM22に予め記憶しておく。各参照画像はワーク方向情報と紐づいているため、計測困難な方向の参照画像を指定し、さらに指定した画像方向からの角度範囲θを記憶しておくことで、計測困難な方向と角度範囲を定義することができる。 For example, a plurality of reference images having different line-of-sight directions with respect to the work CAD model are stored in advance in the RAM 22, which is a storage unit. Since each reference image is associated with the work direction information, by specifying the reference image in the direction that is difficult to measure and storing the angle range θ from the specified image direction, the direction and angle range that are difficult to measure Can be defined.

計測工程におけるその他の処理に関しては第1及び第2実施形態と同様であるため説明を省略する。 The other processes in the measurement process are the same as those in the first and second embodiments, and thus the description thereof will be omitted.

<第4実施形態>
上述した第1〜第3実施形態は、ワークに対して計測困難な方向nと角度範囲θを定義し、定義した角度範囲外から計測することで計測精度を担保していた。それに対し第4実施形態では、ワークに対して計測が可能な方向と角度範囲を定義し、定義した角度範囲内から計測することで計測精度を保証する。
<Fourth Embodiment>
In the above-described first to third embodiments, the measurement accuracy is ensured by defining the direction n and the angle range θ that are difficult to measure with respect to the workpiece and measuring from outside the defined angle range. On the other hand, in the fourth embodiment, the direction and the angle range in which the work can be measured are defined, and the measurement accuracy is guaranteed by measuring from the defined angle range.

具体的には、第1実施形態におけるステップS401及び第2実施形態におけるステップS601では、高精度位置姿勢計測が困難な方向nとそれに対する所定の角度範囲θを定義していたが、本実施形態では計測に適した方向nと角度範囲θを定義する。それに対応して、本実施形態のビジョンの計測方向と計測方向範囲の判定は、判定式の不等号が式(1)に対して反転した次式(2)を評価することにより行われる。 Specifically, in step S401 in the first embodiment and step S601 in the second embodiment, the direction n in which high-accuracy position/orientation measurement is difficult and the predetermined angle range θ relative thereto are defined. Then, the direction n and the angle range θ suitable for measurement are defined. Correspondingly, the determination of the vision measurement direction and the measurement direction range of the present embodiment is performed by evaluating the following expression (2) in which the inequality sign of the judgment expression is inverted with respect to expression (1).

L・n<|L||n|cosθ ・・・・式(2)
式(2)を満たす、つまり、概略位置姿勢計測時のビジョン計測方向が、計測が可能な円錐領域(計測可能領域)内に含まれていない場合は、ビジョンを計測可能領域内(所定の角度範囲内)に移動させて再計測する。詳細は第1実施形態と同様であるため説明は省略する。
L·n<|L||n|cos θ ··· Equation (2)
If Expression (2) is satisfied, that is, if the vision measurement direction at the time of rough position/orientation measurement is not included in the measurable cone area (measurable area), the vision is in the measurable area (predetermined angle). Move to (within range) and measure again. The details are the same as those in the first embodiment, and the description thereof will be omitted.

一方で、第3実施形態においては計測困難な方向の参照画像とその画像方向からの角度範囲θを定義していたが、本実施形態では計測が可能な方向の参照画像とその画像方向からの角度範囲θを定義すればよい。 On the other hand, in the third embodiment, the reference image in the direction in which measurement is difficult and the angular range θ from the image direction are defined. However, in the present embodiment, the reference image in the direction in which measurement is possible and the reference image from the image direction are defined. The angular range θ may be defined.

<第5実施形態>
上記実施形態に係るビジョンシステムやロボット−ビジョンシステムは、物品製造方法に使用しうる。この物品製造方法は、前記システムを用いて物ないし部品(ワーク)の計測を行う工程と、この工程で計測された物ないし部品(ワーク)の処理ないし製造を行う工程とを含みうる。この処理は、例えば、加工、切断、搬送、組立(組付)、検査、選別などのうちの少なくともいずれか1つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能、品質、生産性、生産コストなどにおいて有利である。
<Fifth Embodiment>
The vision system and the robot-vision system according to the above embodiments can be used in an article manufacturing method. This article manufacturing method may include a step of measuring an object or a part (work) using the system, and a step of processing or manufacturing the object or a part (work) measured in this step. This processing can include, for example, at least one of processing, cutting, carrying, assembling (assembling), inspection, and sorting. The article manufacturing method of the present embodiment is advantageous in performance, quality, productivity, production cost and the like of articles as compared with the conventional methods.

<他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

50:ワーク、100:ロボット−ビジョンシステム、101:ロボット、102:制御装置、201:ビジョン 50: Work, 100: Robot-vision system, 101: Robot, 102: Control device, 201: Vision

Claims (12)

ワークの位置および姿勢を計測する計測装置であって、
前記ワークに光を投影して前記ワークを撮像する計測部と、
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有することを特徴とする計測装置。
A measuring device for measuring the position and posture of a work,
A measuring unit that projects light onto the work to image the work,
First processing for obtaining a rough position and orientation of the workpiece based on the image of the workpiece obtained from the measuring unit, and second processing for obtaining the position and orientation of the workpiece with higher accuracy than the first processing. And a processing unit that performs
Control for controlling at least one of the position and the posture of the measuring unit when the workpiece is imaged for the second process, based on the approximate position and posture of the work obtained in the first process. An output section for outputting information,
A measuring device having:
前記処理部は、前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が、前記第2処理のための計測が困難な角度範囲として事前定義された所定の角度範囲内にあるか否かを判定し、
前記計測方向が前記所定の角度範囲内にあると判定された場合、前記出力部は、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を、前記計測部の計測方向が前記所定の角度範囲外となるように制御するための制御情報を出力する
ことを特徴とする請求項1に記載の計測装置。
The processing unit, based on the approximate position and orientation of the work obtained in the first process, the measurement direction of the measurement unit when the work is imaged for the first process is the second direction. Determines whether or not it is within a predefined angle range that is difficult to measure for processing,
When it is determined that the measurement direction is within the predetermined angle range, the output unit sets at least one of the position and the posture of the measurement unit when the work is imaged for the second processing, The control device outputs control information for controlling the measurement direction of the measurement unit to be outside the predetermined angle range.
前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向を表す計測方向ベクトルをL、前記第2処理のための計測が困難な角度を表す方向ベクトルをn、該方向ベクトルに対する前記所定の角度範囲をθとするとき、前記処理部は、
L・n>|L||n|cosθ
を満たす場合に、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が前記所定の角度範囲内にあると判定することを特徴とする請求項2に記載の計測装置。
L is a measurement direction vector that represents the measurement direction of the measurement unit when the workpiece is imaged for the first process, n is a direction vector that represents an angle that is difficult to measure for the second process, and the direction vector is When the predetermined angle range with respect to is θ, the processing unit
L・n>|L||n|cos θ
The measurement device according to claim 2, wherein when the condition is satisfied, it is determined that the measurement direction of the measurement unit when the work is imaged for the first process is within the predetermined angular range. ..
前記処理部は、前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が、前記第2処理のための計測に適した角度範囲として事前定義された所定の角度範囲内にあるか否かを判定し、
前記計測方向が前記所定の角度範囲内にないと判定された場合、前記出力部は、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を、前記計測部の計測方向が前記所定の角度範囲内となるように制御するための制御情報を出力する
ことを特徴とする請求項1に記載の計測装置。
The processing unit, based on the approximate position and orientation of the work obtained in the first process, the measurement direction of the measurement unit when the work is imaged for the first process is the second direction. It is determined whether or not it is within a predetermined angle range that is predefined as an angle range suitable for measurement for processing,
When it is determined that the measurement direction is not within the predetermined angle range, the output unit determines at least one of the position and the posture of the measurement unit when the work is imaged for the second processing. The control device outputs control information for controlling the measurement direction of the measurement unit to be within the predetermined angle range.
前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向を表す計測方向ベクトルをL、前記第2処理のための計測に適した角度を表す方向ベクトルをn、該方向ベクトルに対する角度範囲をθとするとき、前記処理部は、
L・n<|L||n|cosθ
を満たす場合に、前記第1処理のために前記ワークを撮像した時の前記計測部の計測方向が前記所定の角度範囲内にないと判定することを特徴とする請求項4に記載の計測装置。
L is a measurement direction vector that represents the measurement direction of the measurement unit when the workpiece is imaged for the first process, n is a direction vector that represents an angle suitable for measurement for the second process, and the direction vector is When the angle range with respect to is θ, the processing unit
L・n<|L||n|cos θ
The measurement device according to claim 4, wherein when the condition is satisfied, it is determined that the measurement direction of the measurement unit when the work is imaged for the first process is not within the predetermined angle range. ..
視線方向が相異なる前記ワークの複数の参照画像を記憶する記憶部を更に有し、
前記処理部は、前記第1処理において、前記第1処理のために前記計測部より得られた前記ワークの画像と前記記憶部に記憶されている前記複数の参照画像のそれぞれとの比較を行い、最も近似度の高い参照画像を選択することにより、前記ワークの概略の位置および姿勢を求める
ことを特徴とする請求項2乃至5のいずれか1項に記載の計測装置。
Further comprising a storage unit for storing a plurality of reference images of the work with different gaze directions,
In the first process, the processing unit compares the image of the work obtained by the measuring unit for the first process with each of the plurality of reference images stored in the storage unit. The measuring device according to any one of claims 2 to 5, wherein the approximate position and orientation of the work are obtained by selecting a reference image having the highest degree of approximation.
前記計測部の位置および姿勢の少なくとも一方を調整する調整部と、
前記出力部から出力された前記制御情報に基づいて、前記調整部を制御する制御部と、
を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の計測装置。
An adjusting unit for adjusting at least one of the position and the posture of the measuring unit,
Based on the control information output from the output unit, a control unit for controlling the adjustment unit,
The measuring device according to any one of claims 1 to 6, further comprising:
ワークの位置および姿勢を計測する計測装置であって、
前記ワークに光を投影して前記ワークを撮像する第1計測部と、
前記ワークに光を投影して前記ワークを撮像する第2計測部と、
前記第2計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、前記第1計測部より得られた前記ワークの画像に基づいて、前記第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記第1計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有することを特徴とする計測装置。
A measuring device for measuring the position and posture of a work,
A first measuring unit that projects light onto the work to image the work;
A second measuring unit that projects light onto the work to image the work;
Based on the image of the work obtained by the second measuring unit, a first process for obtaining a rough position and orientation of the work, and based on the image of the work obtained by the first measuring unit, A processing unit that performs a second process for obtaining the position and orientation of the work with higher accuracy than the first process;
To control at least one of the position and the posture of the first measuring unit when the work is imaged for the second process based on the approximate position and posture of the work obtained in the first process. An output unit for outputting the control information of
A measuring device having:
ワークの位置および姿勢を計測する計測装置と、前記計測装置による計測の結果に基づいて前記ワークを把持して移動させるロボットとを含むシステムであって、
前記計測装置は、
前記ワークに光を投影して前記ワークを撮像する計測部と、
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理と、該第1処理よりも高精度に前記ワークの位置および姿勢を求める第2処理とを行う処理部と、
前記第1処理で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御するための制御情報を出力する出力部と、
を有し、
前記ロボットは、
前記計測部を支持し、前記計測部の位置および姿勢の少なくとも一方を調整する調整部と、
前記出力部から出力された前記制御情報に基づいて前記調整部を制御する制御部と、
を有することを特徴とするシステム。
A system including a measuring device that measures the position and orientation of a work, and a robot that grips and moves the work based on the result of measurement by the measuring device,
The measuring device is
A measuring unit that projects light onto the work to image the work,
First processing for obtaining a rough position and orientation of the workpiece based on the image of the workpiece obtained from the measuring unit, and second processing for obtaining the position and orientation of the workpiece with higher accuracy than the first processing. And a processing unit that performs
Control for controlling at least one of the position and the posture of the measuring unit when the workpiece is imaged for the second process based on the approximate position and posture of the work obtained in the first process An output section for outputting information,
Have
The robot is
An adjusting unit that supports the measuring unit and adjusts at least one of the position and the posture of the measuring unit,
A control unit that controls the adjustment unit based on the control information output from the output unit;
A system having:
ワークに光を投影して前記ワークを撮像する計測部を備える計測装置を用いて前記ワークの位置および姿勢を計測する計測方法であって、
前記計測部より得られた前記ワークの画像に基づいて、前記ワークの概略の位置および姿勢を求める第1処理工程と、
前記計測部より得られた前記ワークの画像に基づいて、前記第1処理工程よりも高精度に前記ワークの位置および姿勢を求める第2処理工程と、
有し、
更に、前記第2処理工程の前に、
前記第1処理工程で求められた前記ワークの概略の位置および姿勢に基づいて、前記第2処理工程のために前記ワークを撮像する際の前記計測部の位置および姿勢の少なくとも一方を制御する制御工程を有する
ことを特徴とする計測方法。
A measuring method for measuring the position and orientation of the work by using a measuring device comprising a measuring unit for projecting light onto the work and imaging the work,
A first processing step of obtaining an approximate position and posture of the work based on the image of the work obtained from the measuring unit;
A second processing step for obtaining the position and orientation of the work with higher accuracy than the first processing step, based on the image of the work obtained by the measuring unit;
Have,
Furthermore, before the second treatment step,
Control for controlling at least one of the position and the posture of the measuring unit when capturing an image of the work for the second treatment step, based on the approximate position and posture of the work obtained in the first treatment step. A measuring method characterized by comprising steps.
コンピュータに、請求項10に記載の計測方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the measuring method according to claim 10. 請求項1乃至8のいずれか1項に記載の計測装置を用いてワークの計測を行う工程と、
前記計測の結果に基づいて前記ワークを処理することにより物品を製造する工程と、
を有することを特徴とする物品製造方法。
A step of measuring a workpiece using the measuring device according to claim 1.
Manufacturing an article by processing the workpiece based on the result of the measurement,
An article manufacturing method comprising:
JP2018229212A 2018-12-06 2018-12-06 Measurement device, system, measurement method, program and article manufacturing method Pending JP2020089950A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018229212A JP2020089950A (en) 2018-12-06 2018-12-06 Measurement device, system, measurement method, program and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229212A JP2020089950A (en) 2018-12-06 2018-12-06 Measurement device, system, measurement method, program and article manufacturing method

Publications (1)

Publication Number Publication Date
JP2020089950A true JP2020089950A (en) 2020-06-11

Family

ID=71013469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229212A Pending JP2020089950A (en) 2018-12-06 2018-12-06 Measurement device, system, measurement method, program and article manufacturing method

Country Status (1)

Country Link
JP (1) JP2020089950A (en)

Similar Documents

Publication Publication Date Title
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
US9672630B2 (en) Contour line measurement apparatus and robot system
US9715730B2 (en) Three-dimensional measurement apparatus and robot system
JP6594129B2 (en) Information processing apparatus, information processing method, and program
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6324025B2 (en) Information processing apparatus and information processing method
US10571254B2 (en) Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method
TWI677413B (en) Calibration method and device for robotic arm system
JP2014014912A (en) Robot system, robot, robot control device, robot control method and robot control program
CN111515944A (en) Automatic calibration method for non-fixed path robot
CN110842901A (en) Robot hand-eye calibration method and device based on novel three-dimensional calibration block
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
US10591289B2 (en) Method for measuring an artefact
JP7427370B2 (en) Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium
JP2019077026A (en) Control device, robot system, and control device operating method and program
WO2021019627A1 (en) Calibration method for computer vision system and three-dimensional reference object for use in same
JP2018031701A (en) Calibration method and calibration device
JP6420530B2 (en) Information processing apparatus, measurement system, control system, light quantity determination method, program, and storage medium
JP2020089950A (en) Measurement device, system, measurement method, program and article manufacturing method
WO2016084316A1 (en) Information processing apparatus, information processing method, and program
Korak et al. Optical tracking system
WO2023135764A1 (en) Robot device provided with three-dimensional sensor and method for controlling robot device
WO2021200743A1 (en) Device for correcting robot teaching position, teaching device, robot system, teaching position correction method, and computer program
JP7401250B2 (en) Image processing device, control method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113