JP6031368B2 - Correlation positioning method with workpiece - Google Patents

Correlation positioning method with workpiece Download PDF

Info

Publication number
JP6031368B2
JP6031368B2 JP2013017007A JP2013017007A JP6031368B2 JP 6031368 B2 JP6031368 B2 JP 6031368B2 JP 2013017007 A JP2013017007 A JP 2013017007A JP 2013017007 A JP2013017007 A JP 2013017007A JP 6031368 B2 JP6031368 B2 JP 6031368B2
Authority
JP
Japan
Prior art keywords
workpiece
camera
measurement
measurement target
target point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013017007A
Other languages
Japanese (ja)
Other versions
JP2014149182A (en
Inventor
彩絵子 小松
彩絵子 小松
克俊 江花
克俊 江花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2013017007A priority Critical patent/JP6031368B2/en
Publication of JP2014149182A publication Critical patent/JP2014149182A/en
Application granted granted Critical
Publication of JP6031368B2 publication Critical patent/JP6031368B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、ワークとの相関位置決め方法に関し、特にカメラを用いたワークとの相関位置決め方法に関する。   The present invention relates to a correlation positioning method with a workpiece, and more particularly, to a correlation positioning method with a workpiece using a camera.

従来、工場等において、作業員が手作業や半自動でワークの搬送を行っている。例えば、所定の形状に加工されたワーク(例えば車体用ワーク)を、元のワーク置き場から、目的地(例えば組立ラインにて組立途中の車体の内部)に搬送する場合、中継地点であるワークスタンドを経由することがある。このような現場で、搬送作業を高速化したり、対象ワークを大型化したりするために、例えばロボットを導入するなどの対策がとられている。この場合、新たな設備には多大な費用を要するので、現状の設備を改良するなどして導入コストを抑制する工夫がなされている。   Conventionally, in a factory or the like, a worker carries a workpiece manually or semi-automatically. For example, when a work machined to a predetermined shape (for example, a car body work) is transported from the original work place to a destination (for example, inside the car body being assembled on the assembly line), the work stand is a relay point. May go through. In such a field, measures such as introducing a robot are taken in order to speed up the transfer work and increase the size of the target work. In this case, since a new facility requires a large amount of money, a contrivance has been made to reduce the introduction cost by improving the existing facility.

ワーク搬送において、中継地点であるワークスタンドにワークを載置することを前提とした場合、元のワーク置き場から目的地までのワーク搬送すべてを自動化することが理想的である。ただし、コストの面からは、中継地点にワークを載置するまでの工程(以下、第1工程という)か、中継地点から目的地までワークを搬送する工程(以下、第2工程という)のいずれか一方については現状の搬送方法の維持や現状設備の転用を前提とすることが好ましい。   When it is assumed that a workpiece is placed on a work stand that is a relay point in workpiece conveyance, it is ideal to automate all workpiece conveyance from the original workpiece storage location to the destination. However, in terms of cost, either the process until the work is placed at the relay point (hereinafter referred to as the first process) or the process of transporting the work from the relay point to the destination (hereinafter referred to as the second process). On the other hand, it is preferable to presuppose maintenance of the current transport method and diversion of the current equipment.

そして、例えば第2工程にて、ワークスタンドに載置されているワークをロボットにて取り出すことで作業効率を高める場合を想定すると、ロボットがワークを確実に把持するには、例えば第1工程にてワークスタンドに対してワークを高精度で位置決めする必要がある。しかし、現状の第1工程にてワークの厳格な位置決めを行っていない場合、現状の搬送方法を維持することができなくなってしまう。   For example, in the second step, assuming that the work efficiency is improved by taking out the workpiece placed on the work stand by the robot, the robot can securely hold the workpiece by, for example, the first step. Therefore, it is necessary to position the work with high accuracy relative to the work stand. However, if the workpiece is not strictly positioned in the current first process, the current conveyance method cannot be maintained.

また、ワークスタンドに載置されているワークをロボットが確実に把持する別の方法としては、現状の搬送方法を維持するためにワークスタンド上でワークの位置がバラツキを持っている場合、実際に載置されているワークの位置・姿勢をセンサ(カメラやレーザ変位計)にて検出し、その位置ずれ情報をロボットに受渡し、教示位置データを補正した上でワークの取出しを行なうことが考えられる。   As another method for the robot to securely hold the workpiece placed on the work stand, if the workpiece position varies on the work stand in order to maintain the current transfer method, It is conceivable to detect the position / posture of the workpiece placed on it with a sensor (camera or laser displacement meter), pass the positional deviation information to the robot, and correct the teaching position data before taking out the workpiece. .

なお、ワーク上の孔の位置をセンサ(カメラやレーザ変位計)にて検出することでワークの位置・姿勢を測定する技術は特許文献1に記載されている。ただし、特許文献1に記載の技術は、製造されたワーク自体が、設計原図に対してどの程度ずれているか判別することによってワークが良品か否かを判別するための技術である。   A technique for measuring the position / posture of a workpiece by detecting the position of a hole on the workpiece with a sensor (camera or laser displacement meter) is described in Patent Document 1. However, the technique described in Patent Document 1 is a technique for determining whether or not a manufactured work itself is a non-defective product by determining how much the manufactured work itself is deviated from a design original drawing.

特開2006−308500号公報JP 2006-308500 A

しかしながら、元のワーク位置からワークスタンドまでの現状の搬送方法を維持するためにワークスタンド上でワークの位置バラツキが大きい場合、カメラで撮影された画像(カメラ画像)において、カメラの軸芯にて検出すべき対象物がカメラの軸芯から離れた位置に写ってしまう。そのため、廉価で汎用的に使用されているカメラを位置検出に用いた場合、高精度な検出を行うことができない。その理由は、廉価なカメラでは、カメラ画像において、カメラのレンズ中心付近では、画像に歪みがないため高精度な位置検出が可能だが、周辺部では画像が歪むため高精度な位置検出ができないからである。   However, if there is a large variation in the work position on the work stand in order to maintain the current transport method from the original work position to the work stand, in the image (camera image) taken by the camera, The object to be detected appears in a position away from the camera axis. Therefore, when an inexpensive and widely used camera is used for position detection, high-precision detection cannot be performed. The reason is that with an inexpensive camera, it is possible to detect the position of the camera image with high accuracy near the center of the lens of the camera because the image is not distorted. It is.

そのため、ワークスタンド上でワークの位置バラツキが大きくなる場合、なんら工夫をしなければ、汎用的ではない特殊で高価なカメラやカメラレンズあるいは照明機器等の付属品を位置検出のために使用する必要が生じてしまう。   For this reason, if the position of workpieces varies greatly on the work stand, special and expensive accessories such as non-generic cameras, camera lenses, and lighting equipment must be used for position detection unless special measures are taken. Will occur.

また、ワーク上の孔の位置を測定することでワークの位置・姿勢を測定する場合、ワークの位置バラツキが大きいと、そのときにカメラ画像により決定された位置に基づいてレーザ変位計から出射するレーザ光の照射位置の狙いが外れてレーザ光がワークの孔を通ってしまい反射光が検出できなくなる問題がある。   Also, when measuring the position / posture of the workpiece by measuring the position of the hole on the workpiece, if the workpiece position variation is large, the laser displacement meter emits light based on the position determined by the camera image at that time There is a problem that the aim of the irradiation position of the laser beam is lost, and the laser beam passes through the hole of the workpiece and the reflected beam cannot be detected.

そこで、本発明では、前記した問題を解決し、廉価なカメラを用いたとしてもワークの位置を高精度に検出できるワークとの相関位置決め方法を提供することを課題とする。   Therefore, an object of the present invention is to solve the above-described problems and provide a correlation positioning method with a workpiece that can detect the position of the workpiece with high accuracy even when an inexpensive camera is used.

前記課題を解決するために、本発明に係るワークとの相関位置決め方法は、ワークに予め設定しておく少なくとも3点の測定対象点から前記ワークの位置及び姿勢を検出して、前記ワークとその把持手段との相関位置を決定する、ワークとの相関位置決め方法であって、前記ワークに設定された測定対象点毎に、カメラとレーザ変位計とを備える位置測定手段を搭載したロボット治具を、前記測定対象点の基準位置を教示する教示位置データに基づいて移動させることで、前記カメラをカメラ基準計測位置へ固定し、前記カメラで撮影したカメラ画像から前記測定対象点の位置を測定する第1測定工程と、前記第1測定工程で測定した測定対象点の位置と、前記カメラのレンズ中心の位置との差分を実空間距離に換算した換算値である第1位置ずれの分だけ前記ロボット治具を移動させたカメラ補正計測位置へ前記カメラを固定する計測位置補正工程と、前記カメラ補正計測位置にて前記カメラで撮影したカメラ画像から前記測定対象点の位置を再度測定する第2測定工程と、前記ロボット治具を移動させることで、レーザ基準計測位置を前記第1位置ずれの分だけ補正したレーザ補正計測位置へ前記レーザ変位計を固定し、前記レーザ変位計で前記測定対象点の奥行位置を計測し、前記測定対象点の基準奥行位置からの位置ずれを検出する奥行位置ずれ検出工程と、を含み、前記ワークに設定されたすべての前記測定対象点について得られた、前記第1位置ずれと、前記第2測定工程で測定した測定対象点の位置と前記カメラのレンズ中心の位置との差分を実空間距離に換算した換算値である第2位置ずれと、前記奥行位置の位置ずれとから、前記ワークの位置及び姿勢を検出し、当該ワークの前記測定対象点の基準位置からのずれ量の分だけ、当該ワークに対する前記教示位置データを補正する位置データ補正工程を含むことを特徴とする。  In order to solve the above problems, the correlation positioning method with a workpiece according to the present invention detects the position and orientation of the workpiece from at least three measurement target points set in advance on the workpiece, and the workpiece and its workpiece A correlation positioning method with a workpiece for determining a correlation position with a gripping means, wherein a robot jig equipped with a position measurement means including a camera and a laser displacement meter is provided for each measurement target point set on the workpiece. The camera is fixed to the camera reference measurement position by moving based on the teaching position data that teaches the reference position of the measurement target point, and the position of the measurement target point is measured from the camera image captured by the camera. A first value which is a converted value obtained by converting a difference between the first measurement step, the position of the measurement target point measured in the first measurement step, and the lens center position of the camera into a real space distance. A measurement position correction step of fixing the camera to a camera correction measurement position in which the robot jig is moved by the amount of deviation, and a position of the measurement target point from a camera image captured by the camera at the camera correction measurement position The laser displacement meter is fixed to a laser correction measurement position where the laser reference measurement position is corrected by the amount of the first positional deviation by moving the robot jig again with a second measurement step for measuring again, and the laser displacement Measuring a depth position of the measurement target point with a meter, and detecting a positional deviation from a reference depth position of the measurement target point, and including all the measurement target points set in the workpiece The difference between the first displacement, the position of the measurement target point measured in the second measurement step, and the position of the lens center of the camera was converted into a real space distance. The position and orientation of the workpiece are detected from the second positional deviation that is the calculated value and the positional deviation of the depth position, and an amount of deviation of the workpiece from the reference position of the measurement target point is detected with respect to the workpiece. A position data correction step for correcting the teaching position data is included.

かかる手順によれば、ワークとの相関位置決め方法では、ワークに設定された測定対象点毎に、第1測定工程にて、教示位置データに基づいてカメラを移動させたカメラ基準計測位置にて、カメラ画像を基に測定対象点の画像平面内の基準からのずれ量を一度検出する。そして、計測位置補正工程にて、ずれ量をカメラ位置のずれに換算した第1位置ずれの分だけロボット治具を移動させ、第2測定工程にて、同じ測定対象点を再撮影する。そして、奥行位置ずれ検出工程にて、測定対象点の基準奥行位置からの位置ずれを検出する。さらに、すべての測定対象点について3次元の位置ずれが得られると、位置データ補正工程にて、教示位置データを補正する。前記第2測定工程では、再度撮影されたカメラ画像を基に測定対象点の画像平面内の基準からのずれ量をもう一度検出することができる。よって、廉価なカメラを用いた場合に、1回目に測定した位置ずれに誤差があっても、2回目に測定した位置ずれの分の情報を加算すれば、誤差を解消することができる。したがって、本発明のワークとの相関位置決め方法は、廉価なカメラを用いたとしてもワークの位置を高精度に検出できる。   According to such a procedure, in the correlation positioning method with the workpiece, for each measurement target point set on the workpiece, in the first measurement step, at the camera reference measurement position where the camera is moved based on the teaching position data, Based on the camera image, the amount of deviation of the measurement point from the reference in the image plane is detected once. Then, in the measurement position correction step, the robot jig is moved by the amount of the first position shift obtained by converting the shift amount into the camera position shift, and in the second measurement step, the same measurement target point is re-photographed. Then, in the depth position deviation detection step, a position deviation from the reference depth position of the measurement target point is detected. Further, when the three-dimensional positional deviation is obtained for all measurement target points, the teaching position data is corrected in the position data correcting step. In the second measurement step, the amount of deviation from the reference in the image plane of the measurement target point can be detected again based on the camera image taken again. Therefore, when an inexpensive camera is used, even if there is an error in the positional deviation measured for the first time, the error can be eliminated by adding the information for the positional deviation measured for the second time. Therefore, the correlation positioning method with the workpiece of the present invention can detect the position of the workpiece with high accuracy even if an inexpensive camera is used.

また、本発明に係るワークとの相関位置決め方法は、前記ワークには、前記把持手段が把持する際に使用する少なくとも3つの貫通孔が穿設されており、前記ワークに穿設された貫通孔に対して前記測定対象点が設定されていることが好ましい。   In the correlation positioning method with a workpiece according to the present invention, the workpiece is provided with at least three through holes used when the gripping means is gripped. It is preferable that the measurement target point is set for.

かかる手順によれば、ワークとの相関位置決め方法は、貫通孔が穿設されたワークを対象として、貫通孔に測定対象点を設定するので、位置を測定するためにワークに事前に特定のマークをつける必要がない。また、レーザ基準計測位置を第1位置ずれの分だけ補正するので、レーザ変位計から出射するレーザ光の照射位置の狙いが外れることを防止し、したがってレーザ反射光が検出できなくなるといった心配がない。   According to such a procedure, the correlation positioning method with the workpiece sets the measurement target point in the through hole for the workpiece in which the through hole is drilled, so that a specific mark is previously set on the workpiece to measure the position. There is no need to turn on. In addition, since the laser reference measurement position is corrected by the amount of the first positional deviation, it is possible to prevent the irradiation position of the laser beam emitted from the laser displacement meter from being untargeted, and thus there is no concern that the reflected laser beam cannot be detected. .

本発明によれば、ワークの位置を測定するためにカメラの位置を移動してワーク上の同じ測定対象点を2回撮影するので、廉価なカメラを用いた場合に、1回目の撮影結果に誤差があったとしても2回目の撮影結果も合わせて利用すれば、誤差を解消することができる。したがって、本発明のワークとの相関位置決め方法は、廉価なカメラを用いたとしてもワークの位置を高精度に検出することができる。そのため、載置されたワークの位置がバラツキを持っていても、次の工程にて、教示位置データを補正したデータを用いることで、把持手段が容易にワークを把持することができる。   According to the present invention, in order to measure the position of the workpiece, the position of the camera is moved and the same measurement target point on the workpiece is photographed twice. Therefore, when an inexpensive camera is used, the first photographing result is obtained. Even if there is an error, the error can be eliminated if the second shooting result is also used. Therefore, the correlation positioning method with the workpiece of the present invention can detect the position of the workpiece with high accuracy even if an inexpensive camera is used. For this reason, even if the position of the placed work varies, the gripping means can easily grip the work by using the data obtained by correcting the teaching position data in the next step.

本発明に係るロボットシステムの構成を模式的に示すブロック図である。1 is a block diagram schematically showing a configuration of a robot system according to the present invention. 本発明に係るロボットシステムにおいてワークの位置を測定する様子を模式的に示す図である。It is a figure which shows typically a mode that the position of a workpiece | work is measured in the robot system which concerns on this invention. ワークの一例を示す図であって、(a)は側面図、(b)は正面図を示している。It is a figure which shows an example of a workpiece | work, Comprising: (a) is a side view, (b) has shown the front view. ワークスタンドに載置されたワークの一例を示す図であって、(a)は基準位置に載置された状態、(b)は基準位置からずれて載置された状態を示している。It is a figure which shows an example of the workpiece | work mounted on the work stand, Comprising: (a) has shown the state mounted in the reference position, (b) has shown the state mounted | wed and shifted | deviated from the reference position. ワークの測定対象点の位置ずれの説明図であって、(a)は測定対象点、(b)はカメラ計測範囲、(c)は位置ずれがない状態を示している。It is explanatory drawing of position shift of the measurement target point of a workpiece | work, Comprising: (a) is a measurement target point, (b) is a camera measurement range, (c) has shown the state without a position shift. 異なるカメラレンズで撮影されたカメラ画像の模式図であって、(a)は歪みの小さいカメラレンズを使用した場合、(b)は歪みの大きいカメラレンズを使用した場合を示している。4A and 4B are schematic diagrams of camera images taken with different camera lenses. FIG. 5A shows a case where a camera lens with a small distortion is used, and FIG. 5B shows a case where a camera lens with a large distortion is used. 本発明に係るロボットシステムにおいてワークの測定対象点の位置を測定する手順を模式的に示す説明図である。It is explanatory drawing which shows typically the procedure which measures the position of the measuring object point of a workpiece | work in the robot system which concerns on this invention. 本発明に係るワークとの相関位置決め方法の手順を模式的に示すフローチャートである。It is a flowchart which shows typically the procedure of the correlation positioning method with the workpiece | work which concerns on this invention.

図面を参照して本発明を実施するための形態(実施形態という)について詳細に説明する。なお、各図面が示す部材のサイズや位置関係等は、説明を明確にするため誇張していることがある。   DESCRIPTION OF EMBODIMENTS Embodiments (referred to as embodiments) for carrying out the present invention will be described in detail with reference to the drawings. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation.

[1.ロボットシステムの構成の概要]
ここでは、本発明に係るワークとの相関位置決め方法を実施するためのロボットシステムの構成の概要について図1を参照して説明する。
本発明に係るワークとの相関位置決め方法は、ワーク100をその図示しない把持手段へ提供する作業の前工程として、ワーク100に予め設定しておく少なくとも3点の測定対象点110からワーク100の位置及び姿勢を検出して、ワーク100と前記把持手段との相関位置を決定する方法である。
このために、ロボットシステム1は、図1に示すように、主として、ロボット2と、ロボット制御装置3と、教示データ入力装置4と、ロボット治具5と、位置測定手段6としてのカメラ7およびレーザ変位計8と、位置補正制御装置10と、を備えている。
[1. Overview of robot system configuration]
Here, an outline of a configuration of a robot system for carrying out the correlation positioning method with the workpiece according to the present invention will be described with reference to FIG.
In the correlation positioning method with the workpiece according to the present invention, the position of the workpiece 100 from at least three measurement target points 110 set in advance in the workpiece 100 as a pre-process for providing the workpiece 100 to the gripping means (not shown). And a method of detecting a posture and determining a correlation position between the workpiece 100 and the gripping means.
For this purpose, as shown in FIG. 1, the robot system 1 mainly includes a robot 2, a robot control device 3, a teaching data input device 4, a robot jig 5, a camera 7 as a position measuring means 6, and A laser displacement meter 8 and a position correction control device 10 are provided.

各構成要素の詳細については後記する。なお、ロボット制御装置3と、位置補正制御装置10とは、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力インタフェース等を備えている。   Details of each component will be described later. The robot controller 3 and the position correction controller 10 are, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an input / output interface, and the like. It has.

ロボットシステム1は、ロボット2を用いて、教示された基準測定位置へ位置測定手段6を移動させ、その移動先から、所定の場所に置かれたワーク100上に予め設定された測定対象点110の位置を測定し、ワーク100の事前に定められた位置・姿勢の基準値からの位置ずれを検出するものである。   The robot system 1 uses the robot 2 to move the position measurement means 6 to the taught reference measurement position, and from the movement destination, a measurement target point 110 set in advance on the workpiece 100 placed at a predetermined location. The position of the workpiece 100 is measured, and a positional deviation from a reference value of a predetermined position / posture of the workpiece 100 is detected.

ロボットシステム1では、カメラ7を含む位置測定手段6の移動先にて、カメラ画像を基に測定対象点110の画像のxy方向の基準からのずれ量を一度検出し、検出したずれ量を実空間の距離に換算した位置ずれの分だけ、カメラ7を含む位置測定手段6を移動させた後に同じ測定対象点110を再撮影したカメラ画像から2回目のずれ量を検出する。そして、レーザ変位計8の基準測定位置から、1回目の位置ずれの分だけ移動させた測定位置にて、測定対象点110までの距離を測定し、z方向の基準からのずれとして奥行位置ずれを検出する。   In the robot system 1, the amount of deviation from the reference in the xy direction of the image of the measurement target point 110 is detected once based on the camera image at the destination of the position measuring means 6 including the camera 7, and the detected amount of deviation is actually realized. A second deviation amount is detected from a camera image obtained by re-imaging the same measurement target point 110 after moving the position measuring means 6 including the camera 7 by the amount of the positional deviation converted into a spatial distance. Then, the distance to the measurement target point 110 is measured at the measurement position moved from the reference measurement position of the laser displacement meter 8 by the first position shift, and the depth position shift is determined as a shift from the reference in the z direction. Is detected.

[2.ワーク]
ここでは、本発明において位置決めの対象とするワークについて説明する。
本実施形態のワークとの相関位置決め方法において、ワークの用途、形状、材質、サイズは特に限定されないが、説明の都合上、ワークの具体例について図2および図3を参照して説明する。図2は、本発明に係るロボットシステムにおいてワークの位置を測定する様子を模式的に示す図である。図3は、ワークの一例を示す図であって、(a)は側面図、(b)は正面図を示している。なお、図3(a)に示すz軸は、図3(b)に示すxy平面に直交している。
[2. work]
Here, a workpiece to be positioned in the present invention will be described.
In the correlation positioning method with the workpiece of this embodiment, the use, shape, material, and size of the workpiece are not particularly limited. For convenience of explanation, a specific example of the workpiece will be described with reference to FIGS. FIG. 2 is a diagram schematically showing how the position of a workpiece is measured in the robot system according to the present invention. 3A and 3B are diagrams illustrating an example of a workpiece, in which FIG. 3A is a side view and FIG. 3B is a front view. The z axis shown in FIG. 3A is orthogonal to the xy plane shown in FIG.

図2に示すワーク100は、一例として、車体に用いるワークであって亜鉛メッキ鋼板を所定形状に加工した一辺が数十cm程度のものとする。また、図2に示すワーク100について空間上の位置を説明するため、図3に示す空間座標(xyz座標)を用いる。なお、図3に示す空間座標(xyz座標)は、特定の1つの測定対象点110に着目しているときの説明のための座標である。   As an example, a workpiece 100 shown in FIG. 2 is a workpiece used for a vehicle body, and a galvanized steel sheet processed into a predetermined shape has a side of about several tens of centimeters. Further, in order to describe the position in space for the workpiece 100 shown in FIG. 2, the spatial coordinates (xyz coordinates) shown in FIG. 3 are used. Note that the spatial coordinates (xyz coordinates) shown in FIG. 3 are coordinates for explanation when focusing on one specific measurement target point 110.

図2に示すように、ワーク100の近傍には、ロボット2が配置され、ロボット2の先端側のアームにはロボット治具5が取り付けられている。ロボット治具5には、カメラ7およびレーザ変位計8が並設されている。   As shown in FIG. 2, the robot 2 is disposed in the vicinity of the workpiece 100, and a robot jig 5 is attached to the arm on the distal end side of the robot 2. The robot jig 5 is provided with a camera 7 and a laser displacement meter 8 in parallel.

このワーク100を撮影する側を、ワークにとっての上側(z軸の正の向き:図3(a)参照)と呼ぶ。ワーク100は、上側が開口となっている筐体101と、筐体101の開口側(ワークにとっての上側)に設けられて横長の帯状の部材(以下、ビーム102,103と呼ぶ)がy軸の方向(図3(b)参照)に所定間隔をあけて2本設けられている。ビーム102,103は、ワーク100の筐体101の輪郭から外に向かって両側にはみ出しており、そのはみ出た部分には貫通孔(以下、孔という)が穿設されている。これらの孔は、図示しないワーク把持専用ロボットがワーク100を把持するときに使用することを想定したものである。本実施形態では、これら4つの孔のうちの3つを測定対象点110とする。   The side on which the workpiece 100 is photographed is referred to as the upper side for the workpiece (positive direction of the z-axis: see FIG. 3A). The workpiece 100 includes a housing 101 having an opening on the upper side, and a horizontally long belt-like member (hereinafter referred to as beams 102 and 103) provided on the opening side of the housing 101 (upper side for the workpiece). Are provided at predetermined intervals in the direction (see FIG. 3B). The beams 102 and 103 protrude outward from the outline of the casing 101 of the workpiece 100 on both sides, and through-holes (hereinafter referred to as holes) are formed in the protruding portions. These holes are assumed to be used when a workpiece-dedicated robot (not shown) grips the workpiece 100. In the present embodiment, three of these four holes are set as measurement target points 110.

ワーク100は、図2に示すように、テーブル状のワークスタンド200に載置されている。ワークスタンド200は、元のワーク置き場から、ワーク搬送先の目的地である組立ラインにて組立途中の車体の内部に搬送する場合の中継地点となるものである。
ワークスタンド200のワーク100に接触する面には、ワーク100を左右(x軸の方向:図3(b)参照)の両側で支持する2つの支持部201,202が設けられている。支持部201,202は、ワーク100を斜めに傾けて載置したときにワーク100のビーム102,103を挟持して支持する。
As shown in FIG. 2, the work 100 is placed on a table-like work stand 200. The work stand 200 serves as a relay point in the case where the work stand 200 is transported from the original work place to the inside of the vehicle body being assembled on the assembly line that is the destination of the work transport destination.
On the surface of the work stand 200 that comes into contact with the workpiece 100, two support portions 201 and 202 that support the workpiece 100 on both the left and right sides (the x-axis direction: see FIG. 3B) are provided. The support parts 201 and 202 hold and support the beams 102 and 103 of the workpiece 100 when the workpiece 100 is placed obliquely.

ワークスタンド200に対してワーク100を高精度で位置決めした理想的な載置状態を図4(a)に示す。また、ワークスタンド200上でワーク100の位置がバラツキを持っている場合の載置状態を図4(b)に示す。
図4(a)に示すように、ワークスタンド200上の3つの測定対象点110についての3次元空間の基準位置P1,P2,P3を設定する。
例えば、図4(a)に示す基準位置P1(X1,Y1,Z1)は、ワーク100の位置を測定するための1番目の測定対象点110の中心位置を示す。一方、図4(b)に示す載置状態の場合、ワーク100の1番目の測定対象点110の中心位置はP’1で表される。
FIG. 4A shows an ideal placement state in which the workpiece 100 is positioned with high accuracy with respect to the workpiece stand 200. Further, FIG. 4B shows a mounting state when the position of the work 100 has variations on the work stand 200.
As shown in FIG. 4A, reference positions P1, P2, and P3 in the three-dimensional space for the three measurement target points 110 on the work stand 200 are set.
For example, the reference position P1 (X 1 , Y 1 , Z 1 ) shown in FIG. 4A indicates the center position of the first measurement target point 110 for measuring the position of the workpiece 100. On the other hand, in the placement state shown in FIG. 4B, the center position of the first measurement target point 110 of the workpiece 100 is represented by P′1.

図4(a)に示す3つの測定対象点110の測定のタイミングは異なっている。よって、座標系を独立に考慮することができる。
1番目の測定対象点110固有の座標系では基準位置P1が原点である。したがって、P1=(0,0,0)、P’1=(Δx1,Δy1,Δz1)のように表現することもできる。同様に、2番目の測定対象点110固有の座標系では基準位置P2が原点である。したがって、P2=(0,0,0)、P’2=(Δx2,Δy2,Δz2)のように表現することもできる。同様に、3番目の測定対象点110固有の座標系では基準位置P3が原点である。したがって、P3=(0,0,0)、P’3=(Δx3,Δy3,Δz3)のように表現することもできる。
The measurement timings of the three measurement target points 110 shown in FIG. 4A are different. Thus, the coordinate system can be considered independently.
In the coordinate system unique to the first measurement target point 110, the reference position P1 is the origin. Therefore, it can be expressed as P1 = (0, 0, 0), P′1 = (Δx 1 , Δy 1 , Δz 1 ). Similarly, in the coordinate system unique to the second measurement target point 110, the reference position P2 is the origin. Therefore, it can also be expressed as P2 = (0, 0, 0), P′2 = (Δx 2 , Δy 2 , Δz 2 ). Similarly, in the coordinate system unique to the third measurement target point 110, the reference position P3 is the origin. Therefore, it can also be expressed as P3 = (0, 0, 0), P′3 = (Δx 3 , Δy 3 , Δz 3 ).

また、別の観点からは、測定のタイミングが異なっている3つの測定対象点110の位置を包括的に捉えるために、ロボット2側に原点を有する空間座標において、ワーク100の位置・姿勢を記述することができる。
例えば、図4(a)に示す基準位置P1(X1,Y1,Z1)の(Z1)の値は、1番目の測定対象点110固有の座標系では0であるが、ロボット2側に原点を有する空間座標系では、奥行値または距離を表す。なお、以下、奥行位置というときには、一般的なカメラによる測距に対応して、図3(b)に示すxy平面および図3(a)に示すz軸の原点の位置を、カメラ7またはレーザ変位計8上に設け、かつ、z軸の方向を図3(a)に示す方向とは逆転させた座標系を想定している。
From another point of view, in order to comprehensively grasp the positions of three measurement target points 110 having different measurement timings, the position / orientation of the workpiece 100 is described in spatial coordinates having an origin on the robot 2 side. can do.
For example, the value of (Z 1 ) at the reference position P 1 (X 1 , Y 1 , Z 1 ) shown in FIG. 4A is 0 in the coordinate system unique to the first measurement target point 110, but the robot 2 In a spatial coordinate system with an origin on the side, it represents a depth value or distance. Hereinafter, when referring to the depth position, the position of the origin of the xy plane shown in FIG. 3B and the z axis shown in FIG. A coordinate system is assumed which is provided on the displacement meter 8 and in which the direction of the z-axis is reversed from the direction shown in FIG.

ここで、ロボット2側の原点は、例えばロボット治具5、カメラ7またはレーザ変位計8等に設定できる。また、ロボット制御装置3では、教示位置データ等を用いて、ロボット2側に原点を有する空間座標系による位置指定を行うことができる。また、ロボット制御装置3にてワールド座標系を使用してもよい。なお、ロボット2側に原点を有する空間座標系と、ワーク中に原点を有する空間座標系は、所定の座標変換によって、相互に変換可能である。これらの変換処理は、例えばロボット制御装置3で行うことができる。   Here, the origin on the robot 2 side can be set, for example, in the robot jig 5, the camera 7, the laser displacement meter 8, or the like. Further, the robot control device 3 can perform position designation by a spatial coordinate system having an origin on the robot 2 side using the teaching position data or the like. The robot control device 3 may use a world coordinate system. Note that the space coordinate system having the origin on the robot 2 side and the space coordinate system having the origin in the workpiece can be mutually converted by predetermined coordinate conversion. These conversion processes can be performed by the robot control device 3, for example.

[3.ロボットシステムの構成の詳細]
図1に戻って、ロボットシステム1の構成の詳細について説明する。
[3. Details of robot system configuration]
Returning to FIG. 1, details of the configuration of the robot system 1 will be described.

(ロボット2)
ロボット2は、一般的な産業用ロボットであり、例えば、多軸多関節型の汎用ロボットである。ロボット2の先端側のアームにはロボット治具5が取り付けられている。
ロボット2の構造が、下から、関節が旋回する基台と、関節が回動する下アームと、関節が回動する上アームと、3自由度の関節を有するハンドとを備える構造の場合、ハンドにロボット治具5が取り付けられる。ロボット2は、モータで各関節を動かすことによりロボット治具5を移動させることができる。一般的な産業用の汎用ロボットでは、その仕様により、繰り返し位置決め精度が±0.1mm〜±1mm程度のものが知られているので、それに準じた性能のものを用いることが好ましい。
(Robot 2)
The robot 2 is a general industrial robot, for example, a multi-axis multi-joint general-purpose robot. A robot jig 5 is attached to the arm on the distal end side of the robot 2.
When the structure of the robot 2 is a structure including a base on which the joint turns from below, a lower arm on which the joint rotates, an upper arm on which the joint rotates, and a hand having a joint with three degrees of freedom. The robot jig 5 is attached to the hand. The robot 2 can move the robot jig 5 by moving each joint with a motor. In general industrial general-purpose robots, one having a repeated positioning accuracy of about ± 0.1 mm to ± 1 mm is known depending on the specifications, and it is preferable to use one having a performance equivalent to that.

(ロボット制御装置3)
ロボット制御装置3は、ロボット2に接続されており、ワーク100の位置座標を測定するための、ロボット2の測定位置への経路等の入力コマンドまたは予め記憶されたコマンドに基づいてロボット2の動作や姿勢を制御するものである。
本実施形態では、ロボット制御装置3は、教示データ入力装置4から、ロボット2の動作や姿勢を制御するための教示データを受け付けることができるように構成されている。
(Robot controller 3)
The robot control device 3 is connected to the robot 2, and operates the robot 2 based on an input command such as a route to the measurement position of the robot 2 or a command stored in advance for measuring the position coordinates of the workpiece 100. And control the posture.
In the present embodiment, the robot control device 3 is configured to receive teaching data for controlling the operation and posture of the robot 2 from the teaching data input device 4.

本実施形態では、ロボット制御装置3は、位置補正制御装置10から、ワークスタンド200に実際に載置されたワーク100のカメラ画像上の位置の差分であるずれ量(例えば画素数)を受け付けると、実空間であるxy平面上の位置ずれに換算するための座標変換処理を行う。これにより、ロボット制御装置3は、教示データ入力装置4から受け付けた教示データに対して、実際に載置されているワーク100の位置ずれを反映して補正した教示データを生成し、装置内部のメモリに記憶する。この補正データは、例えば実際に載置されていて位置・姿勢の測定がなされたワーク100を、図示しないワーク把持専用ロボットが把持する動作を行う際に利用される。なお、ワーク100が載置される基準位置と、カメラ7による基準計測位置と、カメラ計測範囲等によって、カメラ画像中の所定領域の長さを示す画素数と実空間上の距離とは対応可能である。   In the present embodiment, when the robot control device 3 receives from the position correction control device 10 a shift amount (for example, the number of pixels) that is a difference in position on the camera image of the work 100 actually placed on the work stand 200. Then, a coordinate conversion process is performed to convert the positional deviation on the xy plane, which is a real space. As a result, the robot control device 3 generates teaching data corrected by reflecting the positional deviation of the workpiece 100 actually placed on the teaching data received from the teaching data input device 4. Store in memory. This correction data is used, for example, when the workpiece 100 that is actually placed and whose position / orientation is measured is gripped by a workpiece gripping robot (not shown). The number of pixels indicating the length of the predetermined area in the camera image and the distance in the real space can be handled according to the reference position on which the workpiece 100 is placed, the reference measurement position by the camera 7, the camera measurement range, and the like. It is.

(教示データ入力装置4)
教示データ入力装置4は、ロボット2のアーム先端に取り付けられたロボット治具5における所定の基準点が移動する際の目標とする移動先の位置(基準計測位置)等のデータをロボット制御装置3に入力する装置である。教示データ入力装置4は、例えばパーソナルコンピュータを用いてもよいし、例えば産業用ロボットの制御装置に教示データを入力するためのペンダントを用いることができる。
(Teaching data input device 4)
The teaching data input device 4 uses the robot control device 3 to transmit data such as a target movement destination position (reference measurement position) when a predetermined reference point moves in the robot jig 5 attached to the arm tip of the robot 2. It is a device to input to. The teaching data input device 4 may be a personal computer, for example, or may be a pendant for inputting teaching data to a control device for an industrial robot, for example.

(ロボット治具5)
ロボット治具5には、位置測定手段6としてのカメラ7およびレーザ変位計8が配置されている。本実施形態では、カメラ7およびレーザ変位計8を水平方向に並設して、同じ向きでワーク100に対向するように、カメラ7およびレーザ変位計8がロボット治具5に固定されている。
(Robot jig 5)
The robot jig 5 is provided with a camera 7 and a laser displacement meter 8 as position measuring means 6. In this embodiment, the camera 7 and the laser displacement meter 8 are fixed to the robot jig 5 so that the camera 7 and the laser displacement meter 8 are juxtaposed in the horizontal direction and face the workpiece 100 in the same direction.

なお、教示データ入力装置4から入力する基準計測位置は、ロボット治具5における所定の基準点のための位置なので、カメラ7用の基準計測位置として指定してもよいし、あるいはレーザ変位計8用の基準計測位置として指定してもよい。本実施形態では、それら2つとも指定することとした。なおまた、カメラ7に対してレーザ変位計8の位置が固定しているので、カメラ7用の基準計測位置だけを指定し、ロボット治具5の姿勢に応じて相対位置関係からレーザ変位計8用の基準計測位置を必要に応じて求めるように構成してもよい。   Since the reference measurement position input from the teaching data input device 4 is a position for a predetermined reference point in the robot jig 5, it may be designated as the reference measurement position for the camera 7, or the laser displacement meter 8 It may be designated as a reference measurement position for use. In the present embodiment, both of them are designated. Further, since the position of the laser displacement meter 8 is fixed with respect to the camera 7, only the reference measurement position for the camera 7 is designated, and the laser displacement meter 8 is determined from the relative positional relationship according to the posture of the robot jig 5. A reference measurement position for use may be obtained as necessary.

本実施形態では、ロボット治具5は、棒状の部材を組み合わせて構成されている。ロボット治具5は、位置測定手段6を固定できて、ロボット2のアーム先端に装着できる構造であれば、その構造は特に限定されない。ロボット治具5は、位置測定手段6を支持する強度を備えていれば、その材料は限定されず、例えば金属製でも合金製でも構わない。   In the present embodiment, the robot jig 5 is configured by combining rod-shaped members. The structure of the robot jig 5 is not particularly limited as long as the position measuring means 6 can be fixed and can be attached to the arm tip of the robot 2. The robot jig 5 is not limited in its material as long as it has strength to support the position measuring means 6, and may be made of metal or alloy, for example.

(位置測定手段6)
位置測定手段6は、測定対象点110のxyzの3次元位置のうち、2次元平面のx方向およびy方向の位置をカメラ7で計測し、このxy平面に直交したz方向の位置をレーザ変位計8で計測するものである。
なお、カメラ7と、後記する画像処理手段11とによって画像センサが構成される。この画像センサによって撮影されたカメラ画像(2次元xy平面の画像)に基づいて、xy2次元空間上の被写体の位置が計測されることになる。
(Position measuring means 6)
The position measurement means 6 measures the x- and y-direction positions of the two-dimensional plane among the xyz three-dimensional positions of the measurement target point 110 with the camera 7 and laser-displaces the z-direction position orthogonal to the xy plane. A total of 8 is measured.
Note that an image sensor is constituted by the camera 7 and image processing means 11 described later. The position of the subject in the xy two-dimensional space is measured based on the camera image (two-dimensional xy plane image) photographed by the image sensor.

(カメラ7)
カメラ7は、測定対象点110のx方向およびy方向の位置を計測するためのものである。このカメラ7は、ロボット治具5が教示された基準計測位置(画像センサ用の基準計測位置)に移動したときにワーク100上の測定対象点110の中心をカメラ7の光軸が通るようなカメラ7の向きでロボット治具5に固定されている。ここで、画像センサ用の基準計測位置は、ワーク100を接写するためにワーク100の測定対象点110に接近した空間上に設定される。
(Camera 7)
The camera 7 is for measuring the position of the measurement target point 110 in the x direction and the y direction. This camera 7 is such that the optical axis of the camera 7 passes through the center of the measurement target point 110 on the workpiece 100 when the robot jig 5 is moved to the taught reference measurement position (reference measurement position for the image sensor). It is fixed to the robot jig 5 in the direction of the camera 7. Here, the reference measurement position for the image sensor is set in a space close to the measurement target point 110 of the workpiece 100 in order to take a close-up of the workpiece 100.

ワーク100を接写する際には、カメラ7をワーク100から、1m以内、好ましくは、十数cm〜50cm程度離間して撮影する。カメラ7は、ワーク100を接写することができるものであれば、特に限定されない。カメラレンズは、広角レンズや広角気味のレンズなどでもよく、カメラレンズ構成は特に限定されず、カメラ画像の周辺部に歪みが生じるような廉価なカメラレンズを用いたものであっても構わない。   When the workpiece 100 is taken close-up, the camera 7 is photographed within 1 m from the workpiece 100, preferably at a distance of about several tens of cm to 50 cm. The camera 7 is not particularly limited as long as it can close-up the workpiece 100. The camera lens may be a wide-angle lens, a wide-angle lens, or the like, and the camera lens configuration is not particularly limited, and an inexpensive camera lens that causes distortion in the peripheral portion of the camera image may be used.

また、カメラ撮影の際には、別体の照明装置でワーク100を照らすことが好ましい。この照明装置は、ワーク100の測定対象点110の辺りを撮影時に部分的に照らすことができればよく、カメラ撮影専用のライトである必要はなく、一般的な照明装置でも構わない。   Further, it is preferable to illuminate the workpiece 100 with a separate illumination device during camera shooting. This illumination device only needs to be able to partially illuminate the area around the measurement target point 110 of the workpiece 100 at the time of photographing, and does not have to be a dedicated light for camera photography, and may be a general illumination device.

(レーザ変位計8)
レーザ変位計8は、測定対象点110のz方向の位置(奥行位置)を計測するものである。このレーザ変位計8は、ロボット治具5が教示された基準計測位置(レーザ変位計用の基準計測位置)に移動したときに、ワーク100上の測定対象点110である孔の周縁から所定距離離間した位置にレーザ光が照射できるような向きでロボット治具5に固定されている。
ここで、レーザ変位計用の基準計測位置は、ワーク100の測定対象点110に接近した空間上に設定される。用いるレーザ変位計8の仕様にもよるが、精度よく奥行の距離を検出するためには、レーザ変位計8をワーク100から十数cm〜50cm程度離間してレーザ光を照射する。レーザ変位計8としては、レーザ光により対象物までの距離を測定できる一般的なものを用いることができる。
(Laser displacement meter 8)
The laser displacement meter 8 measures the position (depth position) in the z direction of the measurement target point 110. This laser displacement meter 8 is a predetermined distance from the peripheral edge of the hole which is the measurement target point 110 on the workpiece 100 when the robot jig 5 is moved to the taught reference measurement position (reference measurement position for the laser displacement meter). It is fixed to the robot jig 5 in such a direction that the laser beam can be irradiated to the separated position.
Here, the reference measurement position for the laser displacement meter is set on a space close to the measurement target point 110 of the workpiece 100. Although depending on the specifications of the laser displacement meter 8 to be used, in order to detect the depth distance accurately, the laser displacement meter 8 is separated from the workpiece 100 by about 10 to 50 cm and irradiated with laser light. As the laser displacement meter 8, a general device that can measure the distance to the object with laser light can be used.

(位置補正制御装置10)
位置補正制御装置10は、ロボット2の移動のために予め設定された位置を示す教示データを補正する制御を行うものである。
位置補正制御装置10は、図1に示すように、画像処理手段11と、レーザ制御手段12と、記憶手段13と、出力手段14と、演算処理手段15と、を備えている。
(Position correction controller 10)
The position correction control device 10 performs control for correcting teaching data indicating a position set in advance for the movement of the robot 2.
As shown in FIG. 1, the position correction control device 10 includes an image processing unit 11, a laser control unit 12, a storage unit 13, an output unit 14, and an arithmetic processing unit 15.

<画像処理手段11>
画像処理手段11は、カメラ7で撮影されたカメラ画像(2次元xy平面の画像)を処理して、2次元画像上の被写体の位置を計測するものである。
カメラ画像から測定対象点110(孔)を検出する方法は、例えば、カメラ画像を輝度に応じて2値化し、この2値化画像における画像オブジェクトをラベリングし、サイズや形状に関する特徴量を抽出し、検出したい測定対象点110に合致するものを選別するといったフィルタリング処理等の、従来公知の画像処理方法で行うことができる。
<Image processing means 11>
The image processing unit 11 processes a camera image (a two-dimensional xy plane image) photographed by the camera 7 and measures the position of the subject on the two-dimensional image.
The method of detecting the measurement target point 110 (hole) from the camera image is, for example, binarizing the camera image according to the brightness, labeling the image object in the binarized image, and extracting the feature quantity related to the size and shape. The image processing method can be performed by a conventionally known image processing method such as a filtering process for selecting an object that matches the measurement target point 110 to be detected.

図5(a)は、ワーク100においてビーム102(103)に設けられた測定対象点110を拡大して示す図であり、図5(b)は、カメラ画像のカメラ計測範囲70を矩形で模式的に示す図である。なお、カメラ計測範囲70において、Oはカメラ7のレンズ中心を示す。
図5(a)に示すように、測定対象点110は、所定サイズの円形の孔であり、その近傍には特徴的な形状をもった点がない。
そのため、図5(b)に示すように、ワーク100を接写した得られたカメラ画像のカメラ計測範囲70において、円形の仮想線で示すように測定対象点(孔)を容易に検出することができる。なお、測定対象点(孔)の中心の位置というとき、画像上の測定対象点110の円形領域の中心座標を示す。
図5(c)は、測定対象点110(孔)の中心とカメラ7のレンズ中心Oとが一致している状態(ずれのない状態)を模式的に示す図である。
画像処理手段11は、測定対象点110の位置と、カメラ7のレンズ中心Oの位置との差分を、2次元画像上のずれ量(カメラ画像上のずれ量)として検出する。
FIG. 5A is an enlarged view of the measurement target point 110 provided on the beam 102 (103) in the workpiece 100, and FIG. 5B schematically illustrates the camera measurement range 70 of the camera image as a rectangle. FIG. In the camera measurement range 70, O indicates the lens center of the camera 7.
As shown in FIG. 5A, the measurement target point 110 is a circular hole of a predetermined size, and there is no point having a characteristic shape in the vicinity thereof.
Therefore, as shown in FIG. 5B, in the camera measurement range 70 of the camera image obtained by close-up of the workpiece 100, the measurement target point (hole) can be easily detected as indicated by a circular virtual line. it can. The center position of the measurement target point (hole) indicates the center coordinates of the circular region of the measurement target point 110 on the image.
FIG. 5C is a diagram schematically showing a state where the center of the measurement target point 110 (hole) and the lens center O of the camera 7 coincide with each other (a state without deviation).
The image processing means 11 detects the difference between the position of the measurement target point 110 and the position of the lens center O of the camera 7 as a shift amount on the two-dimensional image (shift amount on the camera image).

本実施形態では、画像処理手段11は、1つの測定対象点110当たり、画像センサ用の基準計測位置で撮影されたカメラ画像上のずれ量と、後記する補正位置で撮影されたカメラ画像上のずれ量とを検出する。
そして、ずれ量の実空間上での距離の和を、ロボット治具5が教示された基準計測位置(画像センサ用の基準計測位置)に加算して補正した位置が、測定対象点110についての3次元空間上のx軸方向およびy軸方向の位置となり、図示しないワーク把持専用ロボットにとっての補正された教示位置データの一部となる。なお、測定対象点110についてのz軸方向の位置については後記する。
In the present embodiment, the image processing means 11 per one measurement target point 110, the amount of deviation on the camera image taken at the reference measurement position for the image sensor, and on the camera image taken at the correction position described later. The amount of deviation is detected.
The position corrected by adding the sum of the distances in the real space to the reference measurement position (reference measurement position for the image sensor) taught by the robot jig 5 is about the measurement target point 110. The positions in the x-axis direction and the y-axis direction in the three-dimensional space are a part of the corrected teaching position data for the robot dedicated to gripping a workpiece (not shown). The position in the z-axis direction for the measurement target point 110 will be described later.

ここで、測定対象点110についての3次元空間上のx軸方向およびy軸方向の教示位置データの補正の原理について、2つの具体例に分けてそれぞれ図6、図7を参照して説明する。
≪具体例1≫
まず、図6を参照する。図6(a)は、画像処理手段11と共に画像センサを構成するカメラ7に、高価で歪みの小さいカメラレンズを用いて所定の被写体を接写して得られた画像(以下画像aという)を模式的に示す図である。図6(b)は、画像処理手段11と共に画像センサを構成するカメラ7に、廉価で歪みの大きいカメラレンズを用いて所定の被写体を接写して得られた画像(以下画像bという)を模式的に示す図である。これらの例では、画像a,画像bは、室内のテーブルおよびその上の箱を同様な条件で撮影したものとする。
Here, the principle of correcting the teaching position data in the x-axis direction and the y-axis direction in the three-dimensional space for the measurement target point 110 will be described in two specific examples with reference to FIGS. 6 and 7, respectively. .
<< Specific Example 1 >>
First, referring to FIG. FIG. 6A schematically shows an image (hereinafter referred to as an image a) obtained by close-up of a predetermined subject using a camera lens that constitutes an image sensor together with the image processing means 11 using an expensive and low distortion camera lens. FIG. FIG. 6B schematically shows an image (hereinafter referred to as an image b) obtained by close-up of a predetermined subject using an inexpensive and highly distorted camera lens on the camera 7 that constitutes the image sensor together with the image processing means 11. FIG. In these examples, it is assumed that images a and b are taken from an indoor table and a box on the room under similar conditions.

図6(b)に示すように、画像bでは、レンズの中心から離れるにつれて歪みが大きくなっている。画像aにおいて周辺部に写っている被写体(例えばテーブルの脚の先)を、測定対象点であると仮定すると、カメラ画像上の中心からのずれ量は、例えば(x軸方向:+440画素,y軸方向:−660画素)のように表すことができる。   As shown in FIG. 6B, in the image b, the distortion increases as the distance from the center of the lens increases. Assuming that a subject (for example, the tip of a table leg) in the periphery of the image a is a measurement target point, the amount of deviation from the center on the camera image is, for example, (x-axis direction: +440 pixels, y (Axial direction: −660 pixels).

一方、画像bにおいて周辺部に写っている被写体(例えばテーブルの脚の先)を、同様に測定対象点であると仮定すると、カメラ画像上の中心からのずれ量は、例えば(x軸方向:+400画素,y軸方向:−540画素)のように表すことができる。   On the other hand, assuming that the subject (for example, the tip of a table leg) in the periphery of the image b is the measurement target point, the amount of deviation from the center on the camera image is, for example, (x-axis direction: +400 pixels, y-axis direction: -540 pixels).

つまり、画像aにおいて周辺部に写っている被写体(例えばテーブルの脚の先)の中心からのずれ量が例えば正解であるとすると、画像bにおいて周辺部に写っている被写体(例えばテーブルの脚の先)の中心からのずれ量は、正解よりも低く見積もっていたことになる。   In other words, if the amount of deviation from the center of the subject (for example, the tip of the table leg) in the image a is correct, for example, the subject (for example, the table leg in the image b) is correct. The amount of deviation from the center of (1) was estimated lower than the correct answer.

したがって、この具体例1によれば、正解のずれ量を求めるためには、画像aで見積もったずれ量(画素数)を実空間距離に換算した換算値の分だけ、3次元空間上のx軸方向およびy軸方向にカメラ7自体を移動し、その補正位置で再度撮影をすることが必要であることがわかる。加えて、その補正位置で再撮影により得られた画像では、1回目の撮影で正解よりも低く見積もっていたずれ量を反映した位置ずれが起きているはずである。そのため、補正位置において検出されるずれ量を実空間距離に換算した換算値を、1回目に検出したずれ量に対応する実空間上の距離(換算値)に加算することで、正解のずれ量に対応する実空間上の距離(換算値)が得られることになる。   Therefore, according to this specific example 1, in order to obtain the correct amount of deviation, the amount of deviation (number of pixels) estimated in the image a is equivalent to the converted value obtained by converting the real space distance to x in the three-dimensional space. It can be seen that it is necessary to move the camera 7 itself in the axial direction and the y-axis direction and take a picture again at the correction position. In addition, in the image obtained by re-shooting at the correction position, a position shift reflecting the shift amount estimated lower than the correct answer in the first shooting should have occurred. Therefore, the correct deviation amount is obtained by adding the converted value obtained by converting the deviation amount detected at the correction position to the real space distance to the distance (converted value) in the real space corresponding to the deviation amount detected for the first time. The distance (converted value) in the real space corresponding to is obtained.

≪具体例2≫
図7は、本発明に係るロボットシステムにおいてワーク100の測定対象点110の位置を測定する手順を模式的に示す説明図である。図7(a)は、ワーク100の1つの測定対象点110の位置を計測するために、画像センサ用の基準計測位置でカメラ撮影する様子を模式的に示す図である。この1回目の撮影では、カメラ画像において、カメラ7のレンズ中心Oと、測定対象点110の孔の中心とは大きく離れており、測定対象点110はカメラ計測範囲71の端に近い周辺部に存在する。ここで、カメラ画像上のずれ量は、例えば(x軸方向:−500画素,y軸方向:+600画素)のように表すことができる。
≪Specific example 2≫
FIG. 7 is an explanatory diagram schematically showing a procedure for measuring the position of the measurement target point 110 of the workpiece 100 in the robot system according to the present invention. FIG. 7A is a diagram schematically showing a state in which the camera is photographed at the reference measurement position for the image sensor in order to measure the position of one measurement target point 110 of the workpiece 100. In this first shooting, in the camera image, the lens center O of the camera 7 and the center of the hole of the measurement target point 110 are greatly separated, and the measurement target point 110 is in a peripheral portion near the end of the camera measurement range 71. Exists. Here, the shift amount on the camera image can be expressed as, for example, (x-axis direction: −500 pixels, y-axis direction: +600 pixels).

図7(a)に示すカメラ画像上における、カメラ7のレンズ中心Oと、測定対象点110の孔の中心との差分を実空間距離に換算すると、例えば、x軸方向の差分(距離Δx11)が例えば−10mm、y軸方向の差分(距離Δy11)が例えば+12mmのように換算値が求められる。この場合に、実空間上のxy平面に投影したカメラ7のレンズ中心の位置Caと、測定対象点110の孔の中心の位置Haとを図7(b)に示す。 When the difference between the lens center O of the camera 7 and the center of the hole of the measurement target point 110 on the camera image shown in FIG. 7A is converted into a real space distance, for example, a difference in the x-axis direction (distance Δx 11). ) Is, for example, −10 mm, and the converted value is obtained such that the difference in the y-axis direction (distance Δy 11 ) is, for example, +12 mm. In this case, the position Ca of the lens center of the camera 7 projected onto the xy plane in real space and the position Ha of the center of the hole of the measurement target point 110 are shown in FIG.

図7(b)に示すように、位置Caを基準とすると、位置Haは、x軸の負の方向に距離Δx11だけ離間し、y軸の正の方向に距離Δy11だけ離間した位置である。
ここで、画像センサ用の基準計測位置に移動したときのカメラ7のレンズ中心のxy座標は、例えば図4(a)に示すワーク100の基準位置P1(X1,Y1,Z1)における(X1,Y1)になるように設定されている。したがって、図5(c)に示したように位置ずれが無い場合には、距離Δx11や距離Δy11は0になる。
As shown in FIG. 7 (b), when a reference position Ca, position Ha is a spaced in the negative direction of the x-axis by a distance [Delta] x 11, spaced apart in the positive direction of the y-axis by a distance [Delta] y 11 position is there.
Here, the xy coordinates of the lens center of the camera 7 when moving to the reference measurement position for the image sensor are, for example, at the reference position P1 (X 1 , Y 1 , Z 1 ) of the workpiece 100 shown in FIG. It is set to be (X 1 , Y 1 ). Therefore, when there is no positional deviation as shown in FIG. 5 (c), the distance [Delta] x 11 and distance [Delta] y 11 becomes zero.

一方、図7(b)に示す例のように位置ずれがある場合、ロボット治具5に設けられたカメラ7を、画像センサ用の基準計測位置から、x軸の負の方向に距離Δx11だけ移動させ、かつ、y軸の正の方向に距離Δy11だけ移動させることで計測位置を補正する。 On the other hand, when there is a displacement as in the example shown in FIG. 7B, the camera 7 provided on the robot jig 5 is moved a distance Δx 11 from the reference measurement position for the image sensor in the negative direction of the x axis. And the measurement position is corrected by moving it by a distance Δy 11 in the positive direction of the y-axis.

図7(c)および図7(d)は、カメラ7を移動した後で行う2回目の撮影についての図面であって図7(a)および図7(b)に対応しているので、説明を適宜省略する。
図7(c)に示すように、補正された計測位置にて行う2回目の撮影では、カメラ画像において、カメラ7のレンズ中心Oと、測定対象点110の中心とは1回目の撮影よりも近づいているが依然離れており、測定対象点110はカメラ計測範囲72のレンズ中心Oに近い部分に存在する。ここで、カメラ画像上のずれ量は、例えば(x軸方向:−150画素,y軸方向:+200画素)のように表すことができる。
FIGS. 7C and 7D are drawings of the second shooting performed after the camera 7 is moved, and correspond to FIGS. 7A and 7B. Is omitted as appropriate.
As shown in FIG. 7C, in the second shooting performed at the corrected measurement position, in the camera image, the lens center O of the camera 7 and the center of the measurement target point 110 are more than in the first shooting. The measurement target point 110 exists in a portion near the lens center O in the camera measurement range 72. Here, the shift amount on the camera image can be expressed as (x-axis direction: -150 pixels, y-axis direction: +200 pixels), for example.

図7(c)に示すカメラ画像上における、カメラ7のレンズ中心Oと、測定対象点110の孔の中心との差分を実空間距離に換算すると、例えば、x軸方向の差分(距離Δx12)が例えば−3mm、y軸方向の差分(距離Δy12)が例えば+4mmのように換算値が求められる。この場合に、実空間上のxy平面に投影したカメラ7のレンズ中心の位置Cbと、測定対象点110の孔の中心の位置Hbとを図7(d)に示す。 When the difference between the lens center O of the camera 7 and the center of the hole of the measurement target point 110 on the camera image shown in FIG. 7C is converted into a real space distance, for example, a difference in the x-axis direction (distance Δx 12). ) Is, for example, −3 mm, and the difference in the y-axis direction (distance Δy 12 ) is, for example, +4 mm. In this case, the lens center position Cb projected onto the xy plane in real space and the hole center position Hb of the measurement target point 110 are shown in FIG.

図7(d)に示すように、位置Cbを基準とすると、位置Hbは、いまだx軸の負の方向に距離Δx12だけ離間し、y軸の正の方向に距離Δy12だけ離間している。
図7(d)には、1回目の撮影時のカメラ7のレンズ中心の位置Caを併せて表示した。図示するように、レンズ中心の位置Cbは、1回目の撮影時のレンズ中心の位置Caとは異なる。一方、孔の中心の位置Hbは、1回目の撮影時の孔の中心の位置Haと同じである(動いていない)。つまり、図7(d)における位置Ca−位置Cb間の距離と、図7(b)における位置Ca−位置Ha間の距離とは、同一である。ただし、図7(d)における位置Ca−位置Cb間の距離と、図7(b)における位置Ca−位置Ha間の距離とは、異なるように作図されている。これは、図7(a)に示すカメラ画像は周辺部に歪みがあるためである。なお、図7(a)に示すカメラ画像が正しい位置を反映しているものとすると、図7(b)に示す空間上の換算値は正しいことになる。同様に、図7(c)に示すカメラ画像が正しい位置を反映しているものとすると、図7(d)に示す空間上の換算値は正しいことになる。
As shown in FIG. 7D, with reference to the position Cb, the position Hb is still separated by a distance Δx 12 in the negative x-axis direction and separated by a distance Δy 12 in the positive y-axis direction. Yes.
FIG. 7D also shows the position Ca of the lens center of the camera 7 at the time of the first shooting. As shown in the drawing, the lens center position Cb is different from the lens center position Ca at the time of the first photographing. On the other hand, the position Hb of the center of the hole is the same as the position Ha of the center of the hole at the time of the first photographing (not moving). That is, the distance between the position Ca and the position Cb in FIG. 7D and the distance between the position Ca and the position Ha in FIG. 7B are the same. However, the distance between the position Ca and the position Cb in FIG. 7D and the distance between the position Ca and the position Ha in FIG. 7B are drawn differently. This is because the camera image shown in FIG. If the camera image shown in FIG. 7A reflects the correct position, the converted value in the space shown in FIG. 7B is correct. Similarly, assuming that the camera image shown in FIG. 7C reflects the correct position, the converted value in the space shown in FIG. 7D is correct.

よって、図7(b)および図7(d)から、測定対象点110の位置Hb(=位置Ha)と、1回目の撮影時のカメラ7のレンズ中心の位置Caとの実空間におけるx軸方向の位置ずれは次の式(1)のΔx1であり、y軸方向の位置ずれは次の式(2)のΔy1で表されることが分かる。
Δx1=Δx11+Δx12 … 式(1)
Δy1=Δy11+Δy12 … 式(2)
Therefore, from FIG. 7B and FIG. 7D, the x axis in the real space between the position Hb (= position Ha) of the measurement target point 110 and the position Ca of the lens center of the camera 7 at the time of the first shooting. It can be seen that the positional deviation in the direction is Δx 1 in the following equation (1), and the positional deviation in the y-axis direction is represented by Δy 1 in the following equation (2).
Δx 1 = Δx 11 + Δx 12 (1)
Δy 1 = Δy 11 + Δy 12 (2)

前記した実空間における距離の数値例では、正解の位置ずれを次の式(3)および式(4)のように表すことができる。
(−10mm)+(−3mm)=−13mm … 式(3)
(+12mm)+(+4mm)=+16mm … 式(4)
つまり、カメラ画像から1回の検出で(−13mm,+16mm)と判定すべきところを、1回目の測定だけでは位置ずれを(−10mm,+12mm)と判定していたことになる。これは、1回目の撮影時に測定対象点110がカメラ画像の周辺部に写っていたために、カメラ画像上のずれ量を正解よりも低く見積もっていたことに対応する。
本実施形態では、カメラ画像上のずれ量(例えば画素数)を、実空間であるxy平面上の位置ずれに変換するための座標変換処理は、ロボット制御装置3側にて行うこととした。なお、位置補正制御装置10の演算処理手段15が代わりに行うように構成することもできる。
In the numerical example of the distance in the above-described real space, the correct position shift can be expressed as the following Expression (3) and Expression (4).
(−10 mm) + (− 3 mm) = − 13 mm Formula (3)
(+12 mm) + (+ 4 mm) = + 16 mm Formula (4)
In other words, the position that should be determined as (−13 mm, +16 mm) by one detection from the camera image has been determined as the positional deviation is (−10 mm, +12 mm) only by the first measurement. This corresponds to the fact that the measurement target point 110 was captured in the peripheral portion of the camera image at the time of the first shooting, and therefore the amount of deviation on the camera image was estimated lower than the correct answer.
In the present embodiment, coordinate conversion processing for converting a shift amount (for example, the number of pixels) on the camera image into a positional shift on the xy plane that is a real space is performed on the robot control device 3 side. Note that the arithmetic processing means 15 of the position correction control device 10 may be configured to perform instead.

図1に示す位置補正制御装置10の画像処理手段11以外の各手段について説明を続ける。   The description of each means other than the image processing means 11 of the position correction control apparatus 10 shown in FIG.

<レーザ制御手段12>
レーザ制御手段12は、レーザ変位計8の動作を制御するものである。レーザ制御手段12は、レーザ変位計8から所定のタイミングでレーザ光を照射するように制御したり、レーザ変位計8の検出信号を増幅して出力手段14に出力したりする。レーザ制御手段12に対してレーザ光を照射するタイミング等の設定は、演算処理手段15から行うようにすることができる。この場合、事前にオペレータが図示しないマウスやキーボード等の入力装置からコマンド等を入力することで演算処理手段15を介して設定データがレーザ制御手段12に入力され、レーザ照射タイミング等が事前設定される。なお、レーザ変位計8とレーザ制御手段12とは、公知のセンサヘッドとアンプユニットをケーブルで接続したセットとして構成することができる。
<Laser control means 12>
The laser control means 12 controls the operation of the laser displacement meter 8. The laser control unit 12 controls the laser displacement meter 8 to emit laser light at a predetermined timing, or amplifies the detection signal of the laser displacement meter 8 and outputs it to the output unit 14. Settings such as the timing of irradiating the laser control means 12 with the laser beam can be made from the arithmetic processing means 15. In this case, when an operator inputs a command or the like from an input device such as a mouse or a keyboard (not shown) in advance, setting data is input to the laser control unit 12 via the arithmetic processing unit 15 and laser irradiation timing and the like are set in advance. The The laser displacement meter 8 and the laser control means 12 can be configured as a set in which a known sensor head and an amplifier unit are connected by a cable.

レーザ制御手段12は、レーザ変位計用の基準計測位置を、画像処理手段11にて1回目に検出したずれ量に対応する実空間上の距離だけ移動させたレーザ計測位置にて、レーザ光を照射するように制御する。このときにレーザ変位計8にて検出された検出信号が、レーザ変位計8から測定対象点110までの距離を示す。この距離が測定対象点110についてのz軸方向の位置に対応する。   The laser control unit 12 moves the reference measurement position for the laser displacement meter by the distance measured in the real space corresponding to the displacement detected first by the image processing unit 11 at the laser measurement position. Control to irradiate. At this time, the detection signal detected by the laser displacement meter 8 indicates the distance from the laser displacement meter 8 to the measurement target point 110. This distance corresponds to the position in the z-axis direction with respect to the measurement target point 110.

<記憶手段13>
記憶手段13は、位置補正制御装置10の処理に用いる各種データや動作プログラム等を記憶するものである。記憶手段13は、例えば、一般的なハードディスクやメモリ等から構成される。記憶手段13は、位置補正制御装置10のユニットの内部に配設してもよいし、外部記憶装置としてもよい。記憶手段13として複数の記憶装置を分散配置してもよい。
<Storage means 13>
The storage unit 13 stores various data and operation programs used for processing of the position correction control device 10. The storage means 13 is composed of, for example, a general hard disk or memory. The storage unit 13 may be disposed inside the unit of the position correction control device 10 or may be an external storage device. A plurality of storage devices may be distributed as the storage unit 13.

<出力手段14>
出力手段14は、画像処理手段11の処理結果であるずれ量や、レーザ変位計8の検出信号をロボット制御装置3に出力するための所定の出力インタフェースである。
出力手段14は、演算処理手段15の制御の下、所定のタイミングで、ずれ量やレーザ変位計8の検出信号をロボット制御装置3に出力する。
<Output means 14>
The output unit 14 is a predetermined output interface for outputting a deviation amount as a processing result of the image processing unit 11 and a detection signal of the laser displacement meter 8 to the robot control device 3.
The output unit 14 outputs the deviation amount and the detection signal of the laser displacement meter 8 to the robot control device 3 at a predetermined timing under the control of the arithmetic processing unit 15.

<演算処理手段15>
演算処理手段15は、位置補正制御装置10の各部の制御を司り、例えば、CPUやメモリ等を備えている。演算処理手段15は、例えばパーソナルコンピュータ等で構成することもできる。演算処理手段15は、ワーク100に設けられた少なくとも3つの測定対象点110について、後記する予め定められたアルゴリズムにより位置測定処理を順次行う。
<Calculation processing means 15>
The arithmetic processing unit 15 controls each part of the position correction control device 10 and includes, for example, a CPU and a memory. The arithmetic processing means 15 can also be comprised by a personal computer etc., for example. The arithmetic processing unit 15 sequentially performs position measurement processing on at least three measurement target points 110 provided on the workpiece 100 by a predetermined algorithm described later.

[4.ロボットシステムにおける処理の流れ]
ロボットシステム1における処理の流れについて図8を参照(適宜、図1参照)して説明する。図8は、本発明に係るワークとの相関位置決め方法の手順を模式的に示すフローチャートである。
まず、ステップS1にて、位置補正制御装置10の演算処理手段15は、i番目の測定対象点110(以下、測定対象点iと表記する)の識別子を初期化する(i=1とする)。そして、ワーク100に設定された測定対象点毎に以下のステップS2〜S10を順次行う。
[4. Flow of processing in the robot system]
A processing flow in the robot system 1 will be described with reference to FIG. 8 (refer to FIG. 1 as appropriate). FIG. 8 is a flowchart schematically showing the procedure of the correlation positioning method with the workpiece according to the present invention.
First, in step S1, the arithmetic processing means 15 of the position correction control device 10 initializes an identifier of the i-th measurement target point 110 (hereinafter referred to as measurement target point i) (i = 1). . Then, the following steps S <b> 2 to S <b> 10 are sequentially performed for each measurement target point set on the workpiece 100.

<第1測定工程>
ステップS2にて、ロボット制御装置3は、位置測定手段6を搭載したロボット治具5をティーチングに基づき、測定対象点iに接近させた画像センサ用の基準計測位置(1回目の計測位置)へ移動し、そこに一旦固定する。
ステップS3にて、画像センサ用の基準計測位置に固定した状態で、画像センサによって測定対象点iの位置を計測し、カメラ7のレンズ中心Oからの1回目のずれ量を検出する。
ステップS4にて、位置補正制御装置10は、画像センサの検出信号(1回目のずれ量xi1,yi1)をロボット制御装置3へ出力する。なお、画像センサの検出信号はカメラ画像上の距離に対応している。
<First measurement process>
In step S2, the robot controller 3 moves to the reference measurement position (first measurement position) for the image sensor in which the robot jig 5 equipped with the position measuring means 6 is brought close to the measurement target point i based on teaching. Move and fix once there.
In step S3, the position of the measurement target point i is measured by the image sensor while being fixed at the reference measurement position for the image sensor, and the first shift amount from the lens center O of the camera 7 is detected.
In step S <b > 4, the position correction control device 10 outputs a detection signal (first shift amount x i1 , y i1 ) of the image sensor to the robot control device 3. The detection signal of the image sensor corresponds to the distance on the camera image.

<計測位置補正工程>
ステップS5にて、ロボット制御装置3は、カメラ画像上の距離を実空間上の距離に変換する処理を行い、その値を記憶すると共に、その値に応じて、画像センサ用の基準計測位置を1回目の位置ずれの分だけ補正し、補正後の2回目の計測位置へロボット治具5を移動する。つまり、ロボット治具5を移動させることでカメラ7を基準計測位置からカメラ補正計測位置へ移動させる。
<Measurement position correction process>
In step S5, the robot control device 3 performs processing for converting the distance on the camera image into the distance on the real space, stores the value, and sets the reference measurement position for the image sensor according to the value. Correction is made for the first position deviation, and the robot jig 5 is moved to the second measurement position after correction. That is, the camera 7 is moved from the reference measurement position to the camera correction measurement position by moving the robot jig 5.

<第2測定工程>
ステップS6にて、カメラ補正計測位置(2回目の計測位置)に固定した状態で、画像センサによって、測定対象点iの位置を再度計測し、カメラ画像から、カメラ7のレンズ中心Oを基準とした測定対象点iの2回目のずれ量を検出する。
ステップS7にて、位置補正制御装置10は、画像センサの検出信号(2回目のずれ量xi2,yi2)をロボット制御装置3へ出力する。なお、画像センサの検出信号はカメラ画像上の距離に対応している。ロボット制御装置3は、2回目のずれ量についても、カメラ画像上の距離を実空間上の距離に変換する処理を行い、その値を記憶しておく。
<Second measurement process>
In step S6, with the camera correction measurement position (second measurement position) fixed, the position of the measurement target point i is measured again by the image sensor, and the lens center O of the camera 7 is used as a reference from the camera image. The second deviation amount of the measured measurement point i is detected.
In step S <b > 7, the position correction control device 10 outputs a detection signal (second displacement amount x i2 , y i2 ) of the image sensor to the robot control device 3. The detection signal of the image sensor corresponds to the distance on the camera image. The robot controller 3 also performs processing for converting the distance on the camera image into the distance on the real space for the second shift amount, and stores the value.

<奥行位置ずれ検出工程>
ステップS8にて、ロボット制御装置3は、前記ステップS5にて変換処理で算出した実空間上の距離を読み出し、ロボット治具5を移動させることで、レーザ変位計8用の基準計測位置を1回目の位置ずれの分だけ補正したレーザ計測位置へレーザ変位計8を移動する。
ステップS9にて、補正したレーザ計測位置に固定した状態で、レーザ変位計8によって、測定対象点iの奥行位置を計測し、測定対象点iの基準奥行位置からの位置ずれを検出する。ここで、測定対象点iの基準奥行位置とは、例えば図4(a)に示すワーク100の基準位置P1(X1,Y1,Z1)における(Z1)を表す。
ステップS10にて、位置補正制御装置10は、レーザ変位計8の検出信号(奥行位置ずれzi)をロボット制御装置3へ出力する。
<Depth displacement detection process>
In step S8, the robot controller 3 reads the distance in the real space calculated by the conversion process in step S5, and moves the robot jig 5 to set the reference measurement position for the laser displacement meter 8 to 1. The laser displacement meter 8 is moved to the laser measurement position corrected by the amount of the positional deviation for the second time.
In step S9, the depth position of the measurement target point i is measured by the laser displacement meter 8 while being fixed at the corrected laser measurement position, and the displacement of the measurement target point i from the reference depth position is detected. Here, the reference depth position of the measurement target point i represents, for example, (Z 1 ) at the reference position P1 (X 1 , Y 1 , Z 1 ) of the workpiece 100 shown in FIG.
In step S <b> 10, the position correction control device 10 outputs a detection signal (depth position shift z i ) of the laser displacement meter 8 to the robot control device 3.

<ロボット制御装置のデータ管理>
ロボット制御装置3は、例えば1番目(i=1)の測定対象点について、ステップS4にて取得して変換処理した第1位置ずれと、ステップS7にて取得して変換処理した第2位置ずれとを加算した結果を記憶する。つまり、ロボット制御装置3は、前記した式(1)および式(2)の演算を行うことで(Δx1,Δy1)を求める。加えて、ロボット制御装置3は、ステップS10にて取得したレーザ変位計8の検出信号ziを記憶する。そして、このΔz1を(Δx1,Δy1)と対応付けて測定対象点iの3次元空間の位置ずれ(Δx1,Δy1,Δz1)として記憶する。
<Robot controller data management>
For example, the robot controller 3 obtains, for example, the first (i = 1) measurement point, the first positional deviation obtained by the conversion processing in step S4 and the second positional deviation obtained by the conversion processing in step S7. The result of adding and is stored. In other words, the robot control device 3 obtains (Δx 1 , Δy 1 ) by performing the calculations of the above-described equations (1) and (2). In addition, the robot control device 3 stores the detection signal z i of the laser displacement meter 8 acquired in step S10. Then, this Δz 1 is stored in association with (Δx 1 , Δy 1 ) as a positional deviation (Δx 1 , Δy 1 , Δz 1 ) of the measurement target point i in the three-dimensional space.

ステップS11にて、位置補正制御装置10の演算処理手段15は、測定対象点iをすべて選択したか否かを判別する。未処理の測定対象点iがある場合(ステップS11:No)、ステップS12にて、演算処理手段15は、iの現在値に1を加算し、ステップS11に戻って処理を続行する。一方、測定対象点iをすべて選択した場合(ステップS11:Yes)、処理の終了をロボット制御装置3へ通知する。   In step S11, the arithmetic processing means 15 of the position correction control apparatus 10 determines whether or not all the measurement target points i have been selected. When there is an unprocessed measurement target point i (step S11: No), in step S12, the arithmetic processing unit 15 adds 1 to the current value of i, and returns to step S11 to continue the processing. On the other hand, when all the measurement target points i are selected (step S11: Yes), the end of the process is notified to the robot control device 3.

≪位置データ補正工程≫
ステップS13にて、ロボット制御装置3は、ワーク100に設定されたすべての測定対象点110について得られた、第1位置ずれの分と、第2位置ずれの分と、奥行位置の位置ずれの分だけ、当該ワーク100に対する教示位置データを補正する。
≪Position data correction process≫
In step S <b> 13, the robot control device 3 determines the first positional deviation, the second positional deviation, and the depth positional deviation obtained for all the measurement target points 110 set on the workpiece 100. The teaching position data for the workpiece 100 is corrected by the amount.

例えば、ロボット2側に原点を有する空間座標において、ワーク100の位置・姿勢を記述し、図4(a)に示す基準位置P1についての教示位置データが(X1,Y1,Z1)で表され、かつ、図4(b)に示す載置状態のワーク100にて検出された3次元空間の位置ずれが(Δx1,Δy1,Δz1)である場合、1番目の測定対象点110の中心位置P’1を教示するための補正後の教示位置データは、(X1+Δx1,Y1+Δy1,Z1+Δz1)となる。
同様に、図4(a)に示す基準位置P2についての教示位置データが(X2,Y2,Z2)で表され、かつ、検出された3次元空間の位置ずれが(Δx2,Δy2,Δz2)である場合、2番目の測定対象点110の中心位置P’2を教示するための補正後の教示位置データは、(X2+Δx2,Y2+Δy2,Z2+Δz2)となる。
同様に、図4(a)に示す基準位置P3についての教示位置データが(X3,Y3,Z3)で表され、かつ、検出された3次元空間の位置ずれが(Δx3,Δy3,Δz3)である場合、3番目の測定対象点110の中心位置P’3を教示するための補正後の教示位置データは、(X3+Δx3,Y3+Δy3,Z3+Δz3)となる。
For example, the position / posture of the workpiece 100 is described in the space coordinates having the origin on the robot 2 side, and the teaching position data for the reference position P1 shown in FIG. 4A is (X 1 , Y 1 , Z 1 ). If the positional deviation of the three-dimensional space detected by the mounted workpiece 100 shown in FIG. 4B is (Δx 1 , Δy 1 , Δz 1 ), the first measurement target point The corrected teaching position data for teaching the center position P′1 of 110 is (X 1 + Δx 1 , Y 1 + Δy 1 , Z 1 + Δz 1 ).
Similarly, the teaching position data for the reference position P2 shown in FIG. 4A is represented by (X 2 , Y 2 , Z 2 ), and the detected displacement in the three-dimensional space is (Δx 2 , Δy 2 , Δz 2 ), the corrected teaching position data for teaching the center position P ′ 2 of the second measurement target point 110 is (X 2 + Δx 2 , Y 2 + Δy 2 , Z 2 + Δz 2). )
Similarly, the teaching position data for the reference position P3 shown in FIG. 4A is represented by (X 3 , Y 3 , Z 3 ), and the detected displacement in the three-dimensional space is (Δx 3 , Δy 3 , Δz 3 ), the corrected teaching position data for teaching the center position P ′ 3 of the third measurement target point 110 is (X 3 + Δx 3 , Y 3 + Δy 3 , Z 3 + Δz 3). )

[5.ワーク100の位置のバラツキの例]
例えばワーク100の測定対象点110である孔の直径が数cm程度であるときに、ワークスタンド200上に載置されたワーク100の孔の位置のバラツキが、x方向、y方向、z方向のそれぞれに対して最大で数cm程度ある場合を想定する。
この場合、図示しないワーク把持専用ロボットが、ワークスタンド200上に載置されたワーク100を確実に把持するためには、通常では、教示される基準位置P1,P2,P3(図4(a)参照)から数mm以下の高精度に位置決めされたバラツキのない位置にワーク100を置く必要があると考えられる。
[5. Example of variation in position of workpiece 100]
For example, when the diameter of the hole which is the measurement target point 110 of the workpiece 100 is about several centimeters, the variation in the position of the hole of the workpiece 100 placed on the workpiece stand 200 is in the x, y, and z directions. Assume that there is a maximum of several centimeters for each.
In this case, in order for a work holding robot (not shown) to securely hold the work 100 placed on the work stand 200, normally, the taught reference positions P1, P2, P3 (FIG. 4A) are used. It is thought that it is necessary to place the workpiece 100 at a position that is positioned with a high accuracy of several mm or less and without variation.

これに対して、本発明の実施形態に係るワークとの相関位置決め方法によれば、ワークスタンド200上でワーク100の位置がバラツキを持っている場合、実際に載置されているワーク100の位置・姿勢を位置測定手段6(カメラ7およびレーザ変位計8)にて検出し、その位置ずれ情報をロボット制御装置3に受渡し、教示位置データを補正することができる。   On the other hand, according to the correlation positioning method with the workpiece according to the embodiment of the present invention, when the position of the workpiece 100 varies on the workpiece stand 200, the position of the workpiece 100 actually placed is placed. The posture can be detected by the position measuring means 6 (camera 7 and laser displacement meter 8), and the positional deviation information can be transferred to the robot controller 3 to correct the teaching position data.

そのため、基準位置P1,P2,P3を、補正された基準位置P’1,P’2,P’3(図4(b)参照)に置き換えた上で、図示しないワーク把持専用ロボットにワーク位置を教示することができる。したがって、中継地点のワークスタンド200を経由して目的地までワーク100を搬送することを前提とする場合、中継地点から目的地までの搬送を図示しないワーク把持専用ロボットで行うように設備を改良する際に、中継地点のワークスタンド200上に、ワーク100を載置する工程にて、基準位置P1,P2,P3から数mm以下というような厳格な位置決め要求を満たさずとも現状のまま搬送作業を行うことが可能である。   Therefore, after replacing the reference positions P1, P2, and P3 with the corrected reference positions P′1, P′2, and P′3 (see FIG. 4B), the work position is transferred to a work gripping robot (not shown). Can be taught. Therefore, when it is assumed that the workpiece 100 is transported to the destination via the work stand 200 at the relay point, the equipment is improved so that the robot from the relay point to the destination is transported by a work holding robot not shown. At the time, in the process of placing the workpiece 100 on the work stand 200 at the relay point, the conveyance work can be carried out as it is without satisfying strict positioning requirements such as several mm or less from the reference positions P1, P2, P3. Is possible.

以上説明したように、本発明の実施形態に係るワークとの相関位置決め方法は、廉価なカメラを用いたとしてもワークの位置を高精度に検出できる。また、ワークとの相関位置決めを行うために新たに導入する構成に必要なコストを低減できる。また、可能ならば使用したい性能のカメラが手に入りにくいために手近にある既存のカメラを流用したい場合には、カメラを新たに購入する必要はなく、既存のカメラを流用して本発明の手法により、ワークの位置を高精度に検出できる。よって、高価なカメラを用いても同様のアルゴリズムによってワークの位置を高精度に検出できる。   As described above, the correlation positioning method with the workpiece according to the embodiment of the present invention can detect the position of the workpiece with high accuracy even if an inexpensive camera is used. Further, it is possible to reduce the cost required for a configuration newly introduced in order to perform correlation positioning with the workpiece. In addition, if it is possible to use an existing camera that is close to hand because it is difficult to obtain a camera with the performance to be used, there is no need to purchase a new camera. By this method, the position of the workpiece can be detected with high accuracy. Therefore, even if an expensive camera is used, the position of the workpiece can be detected with high accuracy by the same algorithm.

以上、本発明のワークとの相関位置決め方法の好ましい実施形態について説明したが、本発明は、前記した実施形態に限定されるものではない。例えば、前記実施形態では、画像センサの2回の検出信号について水平方向および垂直方向それぞれを加算する処理をロボット制御装置3にて行うこととして説明したが、位置補正制御装置10の演算処理手段15にて行うこととしてもよい。この場合、演算処理手段15は、画像上の距離を実空間上の距離に変換する処理を行ってから加算する。   As mentioned above, although preferable embodiment of the correlation positioning method with the workpiece | work of this invention was described, this invention is not limited to above-described embodiment. For example, in the embodiment described above, the robot control device 3 performs the process of adding the horizontal direction and the vertical direction for the two detection signals of the image sensor. However, the arithmetic processing unit 15 of the position correction control device 10 is described. It is good also to do in. In this case, the arithmetic processing means 15 adds after performing the process which converts the distance on an image into the distance on real space.

また、位置補正制御装置10において、画像処理手段11、レーザ制御手段12、記憶手段13、出力手段14および演算処理手段15を1つのユニットに組み込む構成として説明したが、それらを別ユニットにして構成してもよい。あるいは、位置補正制御装置10をロボット制御装置3とは別に設けたが、これに限定されず、ロボット制御装置3の中に組み込んでもよい。   In the position correction control apparatus 10, the image processing unit 11, the laser control unit 12, the storage unit 13, the output unit 14, and the arithmetic processing unit 15 have been described as being incorporated in one unit. May be. Alternatively, although the position correction control device 10 is provided separately from the robot control device 3, the position correction control device 10 is not limited to this and may be incorporated in the robot control device 3.

また、前記実施形態では、位置決めの対象とするワークとして、図2および図3に示すワーク100について説明したが、ワークの材質、形状、サイズ等はこれに限定されるものではない。
測定対象点の個数を3個としたが、4個以上でもよい。
測定対象点をワークの端にある孔の位置に設定するものとしたが、ワーク上の任意の位置に設定してもよい。
図2には、ワークスタンドとして、1つのワーク100に対応したワークスタンド200を図示したが、ワークスタンドは、一度に複数のワークを整列した状態で載置できるように構成することもできる。
これらの変形例であっても同様な効果を奏することができる。
In the above embodiment, the workpiece 100 shown in FIGS. 2 and 3 has been described as the workpiece to be positioned. However, the material, shape, size, and the like of the workpiece are not limited to this.
Although the number of measurement target points is three, it may be four or more.
Although the measurement target point is set at the position of the hole at the end of the workpiece, it may be set at an arbitrary position on the workpiece.
Although FIG. 2 illustrates a work stand 200 corresponding to one work 100 as the work stand, the work stand may be configured so that a plurality of works can be placed in an aligned state at a time.
Even in these modified examples, similar effects can be obtained.

前記実施形態では、カメラ7を用いて検出したずれ量の実空間への換算値を示す第1位置ずれの分だけカメラ7を移動させた後に再撮影したカメラ画像から2回目のずれ量を検出するものとしたが、この2回目のずれ量の実空間への換算値を示す第2位置ずれの分だけカメラ7をさらに移動させた後にもう一度撮影したカメラ画像から3回目のずれ量を検出するようにしてもよいし、同様にずれ量を4回以上検出してもよい。この場合、検出されたずれ量が、予め定められた閾値よりも小さくなるまで検出を繰り返すように構成することができる。   In the embodiment, the second shift amount is detected from the camera image re-photographed after moving the camera 7 by the amount of the first position shift indicating the converted value of the shift amount detected using the camera 7 into the real space. However, the third shift amount is detected from the camera image taken again after the camera 7 is further moved by the second position shift indicating the converted value of the second shift amount into the real space. Alternatively, the shift amount may be detected four or more times in the same manner. In this case, the detection can be repeated until the detected deviation amount becomes smaller than a predetermined threshold value.

前記実施形態では、レーザ変位計8の基準測定位置から、第1位置ずれの分だけ移動させた測定位置にて奥行位置ずれを検出するものとしたが、さらに、第1位置ずれと第2位置ずれとを加算した分だけレーザ変位計8を移動させた測定位置にて奥行位置ずれを検出するようにしてもよい。   In the embodiment, the depth position shift is detected at the measurement position moved from the reference measurement position of the laser displacement meter 8 by the first position shift. However, the first position shift and the second position are further detected. You may make it detect depth position shift | offset | difference in the measurement position which moved the laser displacement meter 8 by the part which added the shift | offset | difference.

1 ロボットシステム
2 ロボット
3 ロボット制御装置
4 教示データ入力装置
5 ロボット治具
6 位置測定手段
7 カメラ
8 レーザ変位計
10 位置補正制御装置
11 画像処理手段
12 レーザ制御手段
13 記憶手段
14 出力手段
15 演算処理手段
DESCRIPTION OF SYMBOLS 1 Robot system 2 Robot 3 Robot control apparatus 4 Teaching data input apparatus 5 Robot jig 6 Position measuring means 7 Camera 8 Laser displacement meter 10 Position correction control apparatus 11 Image processing means 12 Laser control means 13 Storage means 14 Output means 15 Calculation processing means

Claims (2)

ワークに予め設定しておく少なくとも3点の測定対象点から前記ワークの位置及び姿勢を検出して、前記ワークとその把持手段との相関位置を決定する、ワークとの相関位置決め方法であって、
前記ワークに設定された測定対象点毎に、
カメラとレーザ変位計とを備える位置測定手段を搭載したロボット治具を、前記測定対象点の基準位置を教示する教示位置データに基づいて移動させることで、前記カメラをカメラ基準計測位置へ固定し、前記カメラで撮影したカメラ画像から前記測定対象点の位置を測定する第1測定工程と、
前記第1測定工程で測定した測定対象点の位置と、前記カメラのレンズ中心の位置との差分を実空間距離に換算した換算値である第1位置ずれの分だけ前記ロボット治具を移動させたカメラ補正計測位置へ前記カメラを固定する計測位置補正工程と、
前記カメラ補正計測位置にて前記カメラで撮影したカメラ画像から前記測定対象点の位置を再度測定する第2測定工程と、
前記ロボット治具を移動させることで、レーザ基準計測位置を前記第1位置ずれの分だけ補正したレーザ補正計測位置へ前記レーザ変位計を固定し、前記レーザ変位計で前記測定対象点の奥行位置を計測し、前記測定対象点の基準奥行位置からの位置ずれを検出する奥行位置ずれ検出工程と、を含み、
前記ワークに設定されたすべての前記測定対象点について得られた、前記第1位置ずれと、前記第2測定工程で測定した測定対象点の位置と前記カメラのレンズ中心の位置との差分を実空間距離に換算した換算値である第2位置ずれと、前記奥行位置の位置ずれとから、前記ワークの位置及び姿勢を検出し、当該ワークの前記測定対象点の基準位置からのずれ量の分だけ、当該ワークに対する前記教示位置データを補正する位置データ補正工程を含む
ことを特徴とするワークとの相関位置決め方法。
A correlation positioning method for a workpiece, wherein a position and orientation of the workpiece is detected from at least three measurement target points set in advance on the workpiece, and a correlation position between the workpiece and its gripping means is determined.
For each measurement target point set for the workpiece,
By moving a robot jig equipped with a position measuring means including a camera and a laser displacement meter based on teaching position data that teaches a reference position of the measurement target point, the camera is fixed to the camera reference measurement position. A first measurement step of measuring a position of the measurement target point from a camera image photographed by the camera;
The robot jig is moved by an amount corresponding to a first positional deviation, which is a converted value obtained by converting the difference between the position of the measurement target point measured in the first measurement step and the lens center position of the camera into a real space distance. A measurement position correction step of fixing the camera to the camera correction measurement position;
A second measurement step of measuring again the position of the measurement target point from a camera image taken by the camera at the camera correction measurement position;
By moving the robot jig, the laser displacement meter is fixed to a laser correction measurement position in which the laser reference measurement position is corrected by the amount of the first positional deviation, and the depth position of the measurement target point is measured by the laser displacement meter. And a depth position deviation detection step of detecting a position deviation from a reference depth position of the measurement target point,
The difference between the first positional deviation obtained for all the measurement target points set on the workpiece, the position of the measurement target point measured in the second measurement step, and the position of the lens center of the camera is obtained. The position and orientation of the workpiece are detected from the second positional deviation, which is a converted value converted into a spatial distance, and the positional deviation of the depth position, and the amount of deviation from the reference position of the measurement target point of the workpiece is detected. And a position data correcting step for correcting the teaching position data for the work, and a correlation positioning method with respect to the work.
前記ワークには、前記把持手段が把持する際に使用する少なくとも3つの貫通孔が穿設されており、前記ワークに穿設された貫通孔に対して前記測定対象点が設定されていることを特徴とする請求項1に記載のワークとの相関位置決め方法。   The workpiece has at least three through-holes used when the gripping means grips the workpiece, and the measurement target point is set for the through-hole drilled in the workpiece. The correlation positioning method with the workpiece according to claim 1.
JP2013017007A 2013-01-31 2013-01-31 Correlation positioning method with workpiece Active JP6031368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013017007A JP6031368B2 (en) 2013-01-31 2013-01-31 Correlation positioning method with workpiece

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013017007A JP6031368B2 (en) 2013-01-31 2013-01-31 Correlation positioning method with workpiece

Publications (2)

Publication Number Publication Date
JP2014149182A JP2014149182A (en) 2014-08-21
JP6031368B2 true JP6031368B2 (en) 2016-11-24

Family

ID=51572282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017007A Active JP6031368B2 (en) 2013-01-31 2013-01-31 Correlation positioning method with workpiece

Country Status (1)

Country Link
JP (1) JP6031368B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192242B2 (en) 2018-05-18 2021-12-07 Toyota Jidosha Kabushiki Kaisha Holding apparatus, container provided with tag, object holding program and object holding method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102092A (en) * 2015-12-04 2017-06-08 大成建設株式会社 Device and method for measuring size of precast member
JP6822560B2 (en) * 2017-05-11 2021-01-27 村田機械株式会社 Transport system and transport method
CN107300357B (en) * 2017-06-22 2023-05-12 昆明理工大学 Non-contact three-degree-of-freedom optical three-dimensional measurement turntable
WO2021161530A1 (en) 2020-02-14 2021-08-19 ヤマザキマザック株式会社 Workpiece mounting method for machining apparatus, workpiece mounting support system, and workpiece mounting support program
JP7527229B2 (en) 2021-03-16 2024-08-02 株式会社Pfu Workpiece photography device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62223605A (en) * 1986-03-25 1987-10-01 Mutoh Ind Ltd Method for generating hole information on printed circuit board or the like
JPS6478103A (en) * 1987-09-19 1989-03-23 Nissan Motor Work recognizing method by image processing
JPH08378B2 (en) * 1989-07-11 1996-01-10 富士通株式会社 Matrix board specified hole detection method
JP3426002B2 (en) * 1993-09-20 2003-07-14 三菱電機株式会社 Object recognition device
JP4021413B2 (en) * 2004-01-16 2007-12-12 ファナック株式会社 Measuring device
JP2006308500A (en) * 2005-04-28 2006-11-09 Yorozu Corp Three dimensional workpiece measuring method
JP2008232776A (en) * 2007-03-20 2008-10-02 Fujifilm Corp Three-dimensional shape measuring device and method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192242B2 (en) 2018-05-18 2021-12-07 Toyota Jidosha Kabushiki Kaisha Holding apparatus, container provided with tag, object holding program and object holding method

Also Published As

Publication number Publication date
JP2014149182A (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6031368B2 (en) Correlation positioning method with workpiece
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
CN102448679B (en) Method and system for extremely precise positioning of at least one object in the end position in space
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
CN110355788B (en) Large-scale space high-precision online calibration system of mobile operation robot
US20180161978A1 (en) Interference region setting apparatus for mobile robot
CN108827264B (en) Mobile workbench and its mechanical arm optics target positioning device and localization method
JP2014240837A (en) Automatic measurement method for dimensional data with laser tracker
TWI667090B (en) Laser processing device
JP2017071033A (en) Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP2005201824A (en) Measuring device
CN210819622U (en) Large-scale space high-precision online calibration system of mobile operation robot
US20200262080A1 (en) Comprehensive model-based method for gantry robot calibration via a dual camera vision system
JP6900290B2 (en) Robot system
US10704891B2 (en) Method and apparatus for determining the 3D coordinates of an object
JP6869159B2 (en) Robot system
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
JP2011133313A (en) Method of measuring sensor position and attitude
KR100933024B1 (en) Absence location information recognition device and method
JP2020513333A (en) Industrial robot measurement system and method
Heikkilä et al. Calibration procedures for object locating sensors in flexible robotized machining
JP2017170552A (en) Position control system
JP6367702B2 (en) Positioning system and welding system
JP2006334731A (en) Product transport carriage, robot position measuring system and its measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161024

R150 Certificate of patent or registration of utility model

Ref document number: 6031368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250