JP5729219B2 - Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium - Google Patents

Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium Download PDF

Info

Publication number
JP5729219B2
JP5729219B2 JP2011184953A JP2011184953A JP5729219B2 JP 5729219 B2 JP5729219 B2 JP 5729219B2 JP 2011184953 A JP2011184953 A JP 2011184953A JP 2011184953 A JP2011184953 A JP 2011184953A JP 5729219 B2 JP5729219 B2 JP 5729219B2
Authority
JP
Japan
Prior art keywords
coordinate system
robot
axis
camera
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011184953A
Other languages
Japanese (ja)
Other versions
JP2012076216A (en
Inventor
伊藤 毅
毅 伊藤
伊藤 彰
彰 伊藤
靖彦 加藤
靖彦 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Auto Body Co Ltd
Original Assignee
Toyota Auto Body Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Auto Body Co Ltd filed Critical Toyota Auto Body Co Ltd
Priority to JP2011184953A priority Critical patent/JP5729219B2/en
Publication of JP2012076216A publication Critical patent/JP2012076216A/en
Application granted granted Critical
Publication of JP5729219B2 publication Critical patent/JP5729219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体に関する。   The present invention relates to a method for combining a camera coordinate system and a robot coordinate system of a robot control system, an image processing apparatus, a program, and a storage medium.

従来のカメラ座標系とロボット座標系を結合するシステムについて、図16を参照して説明する。前記システムは、ハンドリングロボット、前記ハンドリングロボットを制御するロボット制御装置及びハンドリングロボットが把持するワークの位置を検出する2次元視覚装置を備える。図16に示すように、2次元視覚装置90は、カメラ110でワークWを撮像した撮像画像に基づいてワーク置台150上のワークWのワーク位置を認識し、前記ワークWの位置情報をハンドリングロボット120のロボット制御装置130へ伝達するようにされている。ロボット制御装置130は、前記ワークWの位置情報に基づいて、ハンドリングロボット120に対してそのロボットアーム先端に設けたハンドツール140がワークWの規定位置を把持するように制御する。   A conventional system that combines a camera coordinate system and a robot coordinate system will be described with reference to FIG. The system includes a handling robot, a robot control device that controls the handling robot, and a two-dimensional visual device that detects the position of a workpiece held by the handling robot. As shown in FIG. 16, the two-dimensional visual device 90 recognizes the workpiece position of the workpiece W on the workpiece table 150 based on the captured image obtained by imaging the workpiece W with the camera 110, and uses the position information of the workpiece W as a handling robot. The information is transmitted to 120 robot controllers 130. Based on the position information of the workpiece W, the robot control device 130 controls the handling robot 120 so that the hand tool 140 provided at the tip of the robot arm holds the specified position of the workpiece W.

このようなシステムは、一般に、図17に示すように、カメラ110のカメラ座標系(二次元)と、ロボット座標系(三次元)が異なるため、2次元視覚装置90からロボット制御装置130へ正しい指示を出すためには、何らかの方法により、両座標系の相対位置関係を調べて2つの座標系を結合する作業が必要である。図17は、カメラ座標系とロボット座標系を上方から下方に見た場合の一例である。   Such a system is generally correct from the two-dimensional visual device 90 to the robot controller 130 because the camera coordinate system (two-dimensional) of the camera 110 is different from the robot coordinate system (three-dimensional) as shown in FIG. In order to issue an instruction, it is necessary to check the relative positional relationship between the two coordinate systems and combine the two coordinate systems by some method. FIG. 17 shows an example when the camera coordinate system and the robot coordinate system are viewed from above.

従来のカメラ座標系とロボット座標系の結合方法では、図18に示すように、まず、ハンドリングロボットのアーム先端に取り付けられているハンドツール(例えば、吸着器、グリッパ)を取り外し、専用治具160をツールの基準点に正確に位置決めして取り付ける。次に、ワーク置台150の複数の基準位置にも専用治具170をそれぞれ取り付ける。これらの基準位置のカメラ座標値は、予め調べておき、図示しないロボット制御装置に記憶させておく。ハンドリングロボット120を移動させて、専用治具160,170同士を正確にタッチさせ、このタッチした状態におけるロボット座標値が何であるかを図示しないロボット制御装置のディスプレイで確認する。このようなロボット座標値とカメラ座標値の対応点を数ヶ所で取得し、取得した各基準値におけるロボット座標値と、基準値のカメラ座標値とを使用してロボット制御装置で演算することにより、両座標系の相対関係を知ることができる(従来技術1)。なお、基準位置の取り方、及び演算の仕方については、従来から諸法ある。   In the conventional method of combining the camera coordinate system and the robot coordinate system, as shown in FIG. 18, first, a hand tool (for example, an adsorber or a gripper) attached to the arm tip of the handling robot is removed, and the dedicated jig 160 is removed. Is precisely positioned and attached to the reference point of the tool. Next, the dedicated jigs 170 are respectively attached to a plurality of reference positions of the work table 150. The camera coordinate values of these reference positions are checked in advance and stored in a robot control device (not shown). The handling robot 120 is moved, the dedicated jigs 160 and 170 are accurately touched, and the robot coordinate value in the touched state is confirmed on a display of a robot control device (not shown). By acquiring corresponding points between such robot coordinate values and camera coordinate values at several locations, and using the obtained robot coordinate values for each reference value and the camera coordinate values for the reference value, the robot controller calculates them. The relative relationship between the two coordinate systems can be known (prior art 1). Conventionally, there are various methods for obtaining the reference position and calculating.

なお、本願出願時には特許文献1、2が公知である。
特許文献1では、ロボットアームの先端に視覚センサが取り付けられており、ロボットのハンドにて、治具を正確に把持した状態で、異なる2点にそれぞれ治具を置いた時の各点におけるロボット座標値を取得する等の作業を行うようにして、取得した座標値等により、カメラ座標系とロボット座標系との関係を得るようにしている(従来技術2)。
Note that Patent Documents 1 and 2 are known at the time of filing this application.
In Patent Document 1, a visual sensor is attached to the tip of a robot arm, and the robot at each point when the jig is placed at two different points while the jig is accurately grasped by the robot hand. By performing operations such as obtaining coordinate values, the relationship between the camera coordinate system and the robot coordinate system is obtained from the obtained coordinate values and the like (Prior Art 2).

特許文献2の実施例3で提案されている方法は、ロボットの把持装置に認識対象物を把持させ、この状態で、ロボット以外の位置に配置された視覚センサの撮像範囲内で、第1回目は認識対象物を移動後の位置を教示するようにしている。次の第2回目はX(+)方向に認識対象物を平行移動させた後の位置を教示し、第3回目は認識対象物を所定角度回転させた後、平行移動させ、平行移動後の位置を教示するようにしている(従来技術3)。   In the method proposed in Embodiment 3 of Patent Document 2, the robot grasping device grasps the recognition target object, and in this state, the first time is within the imaging range of the visual sensor arranged at a position other than the robot. Teaches the position after moving the recognition object. The second time teaches the position after the recognition object is translated in the X (+) direction, and the third time rotates the recognition object by a predetermined angle, translates it, and translates it. The position is taught (prior art 3).

特許文献3では、物品の位置検出方法において、テレビカメラを使用した位置検出した例が示されている。   Patent Document 3 shows an example of position detection using a television camera in the article position detection method.

特開平1−72208号公報JP-A-1-72208 特開平6−190756号公報、段落0046〜0054、図7〜図10JP-A-6-190756, paragraphs 0046 to 0054, FIGS. 7 to 10 特公平7−104143号公報Japanese Patent Publication No. 7-104143

従来技術1は、ハンドツールを一旦外さなければならず、又、専用治具を正確に取り付けなければならず、オペレータにスキルが必要となる問題がある。さらに、従来技術1では、ロボット側に取付けした専用治具をタッチするために、ワーク置台側に取付けする専用治具は少なくとも3カ所設ける必要があり、正確な両座標系の関係を得るための測定作業には通常10カ所以上設ける必要がある。このため、オペレータのスキルと手間が必要となるばかりか、専用治具によるタッチする場所も多いため、多くの演算処理が必要となる問題がある。   The prior art 1 has a problem that the hand tool must be removed once and a dedicated jig must be accurately attached, which requires skill for the operator. Furthermore, in the prior art 1, in order to touch the dedicated jig attached to the robot side, it is necessary to provide at least three dedicated jigs to be attached to the work table side in order to obtain an accurate relationship between both coordinate systems. It is usually necessary to provide 10 or more places for measurement work. For this reason, not only the skill and labor of the operator are required, but also there are many places where the dedicated jig is used for touching, and there is a problem that a lot of calculation processing is required.

従来技術2は、ロボットのハンドにて治具を正確に把持する必要があるとともに、異なる2点で前記治具の把持を解除する作業等を行うことから手間が掛かる問題がある。
従来技術3の実施例3では、ハンドリングロボットで把持した認識対象物を、移動する毎に教示作業が必要であり、手間が掛かる問題がある。
The prior art 2 has a problem that it is necessary to accurately grip the jig with the robot hand, and it takes time and effort to perform the operation of releasing the grip of the jig at two different points.
In the third embodiment of the prior art 3, there is a problem that a teaching work is required every time the recognition target object gripped by the handling robot is moved, which is troublesome.

本発明の目的は、上記課題を解決して、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができるカメラ座標系とロボット座標系の結合を得るカメラのカメラ座標系とロボットのロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体を提供することにある。   The object of the present invention is to solve the above-mentioned problems, and it is not necessary for the handling robot to grip the recognition target jig accurately, and it is possible to rotate and move linearly while holding the recognition target jig. By combining the camera coordinate system and the robot coordinate system, it is possible to easily obtain the tool axis center of the hand tool and the tilt of the robot coordinate system and the camera coordinate system by obtaining frame differences from the continuous images acquired when A camera coordinate system for a camera and a robot coordinate system for a robot, an image processing apparatus, a program, and a storage medium are provided.

上記問題点を解決するために、請求項1の発明は、ロボットの先端にツール軸を介して設けられたハンドツールと、前記ハンドツールの作業を撮像する固定カメラを備えたロボット制御システムのカメラ座標系とロボット座標系の結合方法において、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラで取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1ステップと、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2ステップと、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3ステップを備えることを特徴とするロボット制御システムのカメラ座標系とロボット座標系の結合方法を要旨としている。   In order to solve the above problems, the invention of claim 1 is a camera of a robot control system comprising a hand tool provided at the tip of a robot via a tool axis, and a fixed camera for imaging work of the hand tool. In a method of combining a coordinate system and a robot coordinate system, a hand tool is rotated around a tool axis at the tip of a robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is fixed camera. A first step of determining a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image and calculating a center point of the closed curve in a camera coordinate system; , A coordinate axis of the robot coordinate system, and at least one coordinate axis (hereinafter referred to as an inclination) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the recognition target jig is linearly moved along the measurement coordinate axis), and a moving image of the recognition target jig (hereinafter referred to as a linear movement moving image) is acquired by the fixed camera. A second step of calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the linear moving moving image; a camera coordinate system and a robot coordinate based on the center point of the closed curve and the inclination index parameter; The gist of the present invention is a method of combining a camera coordinate system and a robot coordinate system of a robot control system, comprising a third step of calculating a relative positional relationship between the systems.

なお、本明細書では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)と、ユーザが任意位置に設定する座標系(ユーザ座標系)の両者を含む趣旨である。いずれも直交座標系である。又、カメラ座標系は、カメラの撮像範囲内に展開される二次元の直交座標系である。   In this specification, the robot coordinate system includes both a coordinate system (base coordinate system) based on the base (base) of the robot and a coordinate system (user coordinate system) set by the user at an arbitrary position. It is. Both are orthogonal coordinate systems. The camera coordinate system is a two-dimensional orthogonal coordinate system developed within the imaging range of the camera.

請求項2の発明は、請求項1において、前記閉曲線が楕円であり、第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする。   According to a second aspect of the present invention, in the first aspect, the closed curve is an ellipse, and in the second step, the two coordinate axes of the robot coordinate system are set as inclination measurement coordinate axes, and the inclination index parameter is set to the two inclination measurement coordinate axes. A vector based on the coordinate values of the start point and the end point in the camera coordinate system when the hand tool is moved along the line.

請求項3の発明は、請求項1において、前記閉曲線が円であり、第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする。 According to a third aspect of the present invention, in the first aspect, the closed curve is a circle, and in the second step, one coordinate axis of the robot coordinate system is set as an inclination measurement coordinate axis, and the inclination index parameter is set to the one inclination measurement coordinate axis. along, at the time of the hand tool is moved, characterized in that the angle between the straight line trajectory and inclination measuring axes.

請求項4の発明は、請求項1乃至請求項3のうちいずれか1項において、前記認識対象治具の特徴部位が、前記認識対象治具の一端に設けられた突起であることを特徴とする。
請求項5の発明は、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置を要旨としている。
A fourth aspect of the present invention is characterized in that, in any one of the first to third aspects, the characteristic portion of the recognition target jig is a protrusion provided at one end of the recognition target jig. To do.
The invention of claim 5 rotates a hand tool around a tool axis at the tip of a robot, acquires a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) from a fixed camera, First calculation means for calculating a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotating moving image, and calculating a center point of the closed curve in a camera coordinate system; and robot coordinates The recognition target jig is held so as to be along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool is moved linearly, a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and based on the linear moving moving image, Second calculating means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the mela coordinate system; and a third position calculating a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter. The gist of the present invention is an image processing apparatus including a calculation unit.

請求項6の発明は、請求項5において、前記閉曲線が楕円であり、第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルを算出することを特徴とする。   The invention of claim 6 is the invention according to claim 5, wherein the closed curve is an ellipse, and the second calculation means uses two coordinate axes of the robot coordinate system as inclination measurement coordinate axes, and uses the two inclination measurement coordinate axes as the inclination index parameters. A vector based on the coordinate values of the start point and the end point in the camera coordinate system when the hand tool is moved along the line is calculated.

請求項7の発明は、請求項5において、前記閉曲線が円であり、第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする。 The invention according to claim 7 is the invention according to claim 5, wherein the closed curve is a circle, and the second calculation means uses one coordinate axis of the robot coordinate system as an inclination measurement coordinate axis, and uses the one inclination measurement coordinate axis as the inclination index parameter. along, at the time of the hand tool is moved, and calculates an angle between the straight line trajectory and inclination measuring axes.

請求項8の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを要旨としている。 According to the invention of claim 8, the computer rotates the hand tool around the tool axis at the tip of the robot, and the moving image of the recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from the fixed camera. First calculating means for acquiring a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image, and calculating a center point of the closed curve in a camera coordinate system; The coordinate system of the recognition object is aligned along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. A hand tool holding a tool is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and the linear moving motion is acquired. Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the image; and a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter It is summarized as pulp program to function as a third calculation means for calculating a.

請求項9の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体を要旨としている。 According to the ninth aspect of the present invention, a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is rotated from a fixed camera by rotating a computer with a hand tool around a tool axis at the tip of a robot. First calculating means for acquiring a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image, and calculating a center point of the closed curve in a camera coordinate system; The coordinate system of the recognition object is aligned along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. A hand tool holding a tool is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and the linear moving motion is acquired. Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the image; and a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter It is summarized as third computer readable storage medium storing a Help program to function as a calculating means for calculating.

本発明によれば、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。   According to the present invention, the handling robot does not need to be gripped accurately when gripping the recognition target jig, and the continuous obtained when the recognition target jig is gripped and rotated and linearly moved. By obtaining the frame differences from the images (moving images), the tool axis center of the hand tool and the inclinations of the robot coordinate system and the camera coordinate system can be easily obtained.

本実施形態の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。1 is an overall schematic diagram of a two-dimensional visual device, a robot control device, and a robot of an embodiment. (a)は第1実施形態の認識対象治具、(b)は他の実施形態の認識対象治具。(A) is the recognition object jig | tool of 1st Embodiment, (b) is the recognition object jig | tool of other embodiment. 2次元視覚装置、ロボット制御装置、ロボットの電気ブロック図。FIG. 2 is an electrical block diagram of a two-dimensional visual device, a robot control device, and a robot. (a)、(b)は連続画像(動画)の画像処理のフローチャート。(A), (b) is a flowchart of the image processing of a continuous image (moving image). (a)〜(d)は、動画像のフレームの説明図、(e)はフレーム差分結果を示す説明図、(f)は円弧、該円弧の曲率中心を算出した結果の説明図。(A)-(d) is explanatory drawing of the frame of a moving image, (e) is explanatory drawing which shows a frame difference result, (f) is explanatory drawing of the result of having calculated the circular arc and the curvature center of this circular arc. (a)、(b)は認識対象治具の直線移動した場合のフレームの説明図。(A), (b) is explanatory drawing of a flame | frame at the time of the linear movement of the recognition object jig | tool. カメラ座標系とロボット座標系の結合関係を示す説明図。Explanatory drawing which shows the connection relation of a camera coordinate system and a robot coordinate system. (a)、(b)は第2実施形態の連続画像(動画)の画像処理のフローチャート。(A), (b) is a flowchart of the image processing of the continuous image (moving image) of 2nd Embodiment. (a)、(b)は第2実施形態のカメラ座標系とロボット座標系との関係を示す説明図。(A), (b) is explanatory drawing which shows the relationship between the camera coordinate system and robot coordinate system of 2nd Embodiment. 参考例の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。FIG. 2 is an overall schematic diagram of a reference example of a two-dimensional visual device, a robot control device, and a robot. 照明装置100とワークWとカメラ30の配置関係の説明図。Explanatory drawing of the arrangement | positioning relationship of the illuminating device 100, the workpiece | work W, and the camera 30. FIG. 正反射と拡散反射の説明図。Explanatory drawing of regular reflection and diffuse reflection. 照明光がモールと補色関係の色の場合の説明図。Explanatory drawing in case illumination light is a color complementary to a mall. 照明光が白色光の場合の説明図。Explanatory drawing in case illumination light is white light. モールを備えたウインドウガラスの断面図。Sectional drawing of the window glass provided with the mall. 従来の2次元視覚装置、ロボット制御装置、及びロボットの全体概略図。1 is an overall schematic diagram of a conventional two-dimensional visual device, a robot control device, and a robot. カメラ座標系とロボット座標系との関係を示す説明図。Explanatory drawing which shows the relationship between a camera coordinate system and a robot coordinate system. 従来のカメラ座標系とロボット座標系の結合方法の説明図。Explanatory drawing of the connection method of the conventional camera coordinate system and robot coordinate system.

(第1実施形態)
以下、本発明のカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、並びに記憶媒体を具体化した第1実施形態を図1〜図7を参照して説明する。図1は、本実施形態のロボット制御システムの全体の概略を示している。ロボット制御システムはロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及び画像処理装置としての2次元視覚装置40を備えている。本実施形態のロボット制御システムは、パレット等のワーク台60上の図示しないワークに対する物体位置認識によって一つのワークの位置及び姿勢を認識し、ワーク台60上のワークを保持し、目標位置に運搬するためのシステムである。
(First embodiment)
Hereinafter, a first embodiment in which a camera coordinate system and robot coordinate system coupling method, image processing apparatus, program, and storage medium of the present invention are embodied will be described with reference to FIGS. FIG. 1 shows an outline of the entire robot control system of this embodiment. The robot control system includes a robot control device 10, a handling robot (hereinafter simply referred to as a robot) 20, a camera 30 as a fixed camera, and a two-dimensional visual device 40 as an image processing device. The robot control system according to the present embodiment recognizes the position and orientation of one workpiece by recognizing the position of an object relative to a workpiece (not shown) such as a pallet, holds the workpiece on the workpiece table 60, and transports the workpiece to a target position. It is a system to do.

ロボット20は、多関節型ロボットであって、ベース21上に、複数(本実施形態では6つ)の関節を介して連結された複数のアーム22を備えている。すなわち、本実施形態のロボット20は6軸ロボットで構成されている。前記各関節には、サーボモータ23と、各サーボモータ23の軸角度をそれぞれ検出するエンコーダ24(図3参照)を備えている。なお、図1では、複数のサーボーモータのうち、一部のサーボモータ23のみが図示されている。前記各関節は、アーム22の一端部を揺動可能として他端部を軸支する揺動関節と、アーム22自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成されている。   The robot 20 is an articulated robot, and includes a plurality of arms 22 connected to a base 21 via a plurality of (six in this embodiment) joints. That is, the robot 20 of the present embodiment is composed of a 6-axis robot. Each joint includes a servo motor 23 and an encoder 24 (see FIG. 3) that detects the shaft angle of each servo motor 23. In FIG. 1, only a part of the servomotors 23 among the plurality of servomotors is illustrated. Each of the joints may be one of a swing joint that pivots one end of the arm 22 and pivotally supports the other end, and a rotary joint that pivotally supports the arm 22 itself about its longitudinal direction. It is configured.

又、各関節に連結された全アーム22の最先端部、すなわちロボット先端(以下、「アーム先端部」という)には、図1に示すように、関節としてのツール軸26を介してハンドツール25が設けられている。ハンドツール25は、前記各関節を介してアーム22の作動により任意の位置に位置決めすることにより任意の姿勢を取らせることが可能となっている。本実施形態のハンドツール25は、真空吸引力によってワークを吸着可能な真空吸着パッド27を備える。   Further, as shown in FIG. 1, a hand tool is provided at the foremost part of all the arms 22 connected to each joint, that is, the robot tip (hereinafter referred to as “arm tip”) via a tool shaft 26 as a joint. 25 is provided. The hand tool 25 can be in an arbitrary posture by being positioned at an arbitrary position by the operation of the arm 22 through the joints. The hand tool 25 of the present embodiment includes a vacuum suction pad 27 that can suck a workpiece by a vacuum suction force.

ロボット制御装置10は、CPU、ROM、RAM(いずれも図示しない)を備えている。前記ROMには、ロボット20の動作制御を行う制御プログラムを含む各種のプログラムと図示しないワークの移動目的位置を示す動作データが格納されている。前記CPUは、前記ROMに格納された各種のプログラムを実行することにより、ロボット20をワーク搬送のために制御する。前記RAMは、前記CPUの処理により各種データを格納するワークエリアとなる。ロボット制御装置10は、ロボット20の教示点、その他の各種の設定を入力するための例えば教示データを入力するための可搬式の入力装置15を備えている。又、前記入力装置15に対するオペレータの操作により、手動によるロボット20の制御が可能である。又、ロボット制御装置10は、2次元視覚装置40からの解析結果及び動作指令を受信するための通信インターフェイス11を備える。   The robot control apparatus 10 includes a CPU, a ROM, and a RAM (all not shown). The ROM stores various programs including a control program for controlling the operation of the robot 20 and operation data indicating a movement target position of a workpiece (not shown). The CPU controls the robot 20 for workpiece transfer by executing various programs stored in the ROM. The RAM serves as a work area for storing various data by the processing of the CPU. The robot control device 10 includes a portable input device 15 for inputting, for example, teaching data for inputting teaching points of the robot 20 and other various settings. Further, the robot 20 can be manually controlled by an operator's operation on the input device 15. The robot control device 10 also includes a communication interface 11 for receiving analysis results and operation commands from the two-dimensional visual device 40.

なお、図3では、説明の便宜上、ロボット20の各関節のサーボモータ23、及びエンコーダ24は代表的に1つのみ図示し、他のサーボモータ23及びエンコーダ24の図示を省略している。   In FIG. 3, for convenience of explanation, only one servomotor 23 and encoder 24 of each joint of the robot 20 are representatively shown, and the other servomotors 23 and encoders 24 are not shown.

カメラ30は、CCD、CMOS等の固体撮像デバイスを有するビデオカメラからなり、カメラ30から出力された画像信号に基づき所定のフレームレート(例えば、1秒間に30フレーム)での動画像の撮像が可能である。カメラ30はカラーカメラ或いはモノクロカメラのいずれでもよい。又、カメラ30は、図示しない支持手段により支持されてワーク台60上方に配置されており、ワーク台60上のワーク(図示しない)を保持して移動目的位置へ搬送する実作業時においてワーク台60のワーク載置面60aの全範囲を少なくとも含む範囲を撮像範囲としている。   The camera 30 includes a video camera having a solid-state imaging device such as a CCD or CMOS, and can capture a moving image at a predetermined frame rate (for example, 30 frames per second) based on an image signal output from the camera 30. It is. The camera 30 may be a color camera or a monochrome camera. The camera 30 is supported by support means (not shown) and is disposed above the work table 60. The work table is held in the actual work of holding the work (not shown) on the work table 60 and transporting it to the movement target position. The range including at least the entire range of the 60 workpiece placement surfaces 60a is defined as an imaging range.

2次元視覚装置40は、カメラ30から出力された画像信号に基づいて、撮像範囲内(撮像して画像取り込みが行われる撮像対象となる範囲)の画像に応じた画像データを生成する。すなわち、前記ビデオカメラより得られた画像信号は、2次元視覚装置40によりコンピュータでの処理が可能なRGBのカラー画像(或いはモノクロ画像)からなるフレーム画像に変換される。なお、撮影画像の解像度は、例えば水平方向画素数を640画素、垂直方向画素数を480画素としている。尚、フレームレート、変換される画像及び解像度は、上記の例に限定するものではない。   Based on the image signal output from the camera 30, the two-dimensional visual device 40 generates image data corresponding to an image within the imaging range (a range to be imaged where imaging is performed and image capture is performed). That is, the image signal obtained from the video camera is converted into a frame image composed of RGB color images (or monochrome images) that can be processed by a computer by the two-dimensional visual device 40. The resolution of the captured image is, for example, 640 pixels in the horizontal direction and 480 pixels in the vertical direction. Note that the frame rate, the image to be converted, and the resolution are not limited to the above example.

2次元視覚装置40は、コンピュータからなり、CPU41、ROM42、RAM43、画像メモリ45、カメラインターフェイス44、モニタインターフェイス46、入力インターフェイス47及び通信インターフェイス48を備えている。CPU41と前記各部はバス49を介して入力出力が可能である。CPU41は、第1算出手段、第2算出手段、第3算出手段に相当する。   The two-dimensional visual device 40 is composed of a computer and includes a CPU 41, a ROM 42, a RAM 43, an image memory 45, a camera interface 44, a monitor interface 46, an input interface 47 and a communication interface 48. The CPU 41 and each unit can input and output via the bus 49. The CPU 41 corresponds to a first calculation unit, a second calculation unit, and a third calculation unit.

ROM42は、CPU41が実行するワークの姿勢位置検出の画像処理プログラム、カメラ座標系とロボット座標系の結合のための画像処理プログラム等を含む各種処理プログラムが格納されている。本実施形態では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としている。ROM42は、記憶媒体に相当する。RAM43は、CPU41の処理により各種データを格納するワークエリアである。カメラインターフェイス44は、カメラ30から出力された画像信号を入力する。画像メモリ45は、CPU41が、前記画像信号に基づいて処理して生成された各フレーム画像(画像データ)を格納する。2次元視覚装置40は、液晶表示装置等からなるディスプレイ50がモニタインターフェイス46を介して接続されている。ディスプレイ50は、モニタインターフェイス46を介して、CPU41による各種処理における所定の表示を行うとともに、画像メモリ45に格納された画像データを表示する。又、入力インターフェイス47は、CPU41による各種処理に必要な各種データの入力を行う入力装置51との接続を行う。通信インターフェイス48は、ロボット制御装置10の通信インターフェイス11との間で各種データの通信を行う。   The ROM 42 stores various processing programs including an image processing program for workpiece posture position detection executed by the CPU 41, an image processing program for coupling the camera coordinate system and the robot coordinate system, and the like. In this embodiment, the robot coordinate system is a coordinate system (base coordinate system) based on the pedestal (base) of the robot. The ROM 42 corresponds to a storage medium. The RAM 43 is a work area that stores various data by the processing of the CPU 41. The camera interface 44 inputs an image signal output from the camera 30. The image memory 45 stores each frame image (image data) generated by the CPU 41 based on the image signal. The two-dimensional visual device 40 is connected to a display 50 composed of a liquid crystal display device or the like via a monitor interface 46. The display 50 performs predetermined display in various processes by the CPU 41 via the monitor interface 46 and also displays image data stored in the image memory 45. The input interface 47 is connected to an input device 51 for inputting various data necessary for various processes by the CPU 41. The communication interface 48 communicates various data with the communication interface 11 of the robot control apparatus 10.

2次元視覚装置40は、カメラ30でワークを撮像して得られた画像に基づいてワーク台60上のワーク(図示しない)のワーク位置を認識し、通信インターフェイス48,11を介して該ワークの位置情報をロボット制御装置10へ伝達する。ロボット制御装置10は、前記ワークの位置情報に基づいて、ロボット20に対してそのアーム先端部に設けたハンドツール25を前記ワークの規定位置で把持させ、目的位置に前記ワークを運搬するように制御する。   The two-dimensional visual device 40 recognizes the workpiece position of a workpiece (not shown) on the workpiece table 60 based on the image obtained by imaging the workpiece with the camera 30 and transmits the workpiece via the communication interfaces 48 and 11. The position information is transmitted to the robot controller 10. Based on the position information of the workpiece, the robot control apparatus 10 causes the robot 20 to grip the hand tool 25 provided at the tip of the arm at the specified position of the workpiece and transport the workpiece to a target position. Control.

(第1実施形態の作用)
次に、本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
(Operation of the first embodiment)
Next, a procedure for combining the camera coordinate system of the camera 30 and the robot coordinate system of the robot 20 in the robot control system of the present embodiment will be described.

なお、本実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効である。   In this embodiment, the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the camera 30 are orthogonal to each other. It is effective in the case.

<1.ロボットのハンドツールの中心座標>
図4(a)において、S10〜S18は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。
<1. Center coordinates of robot hand tool>
4A, S10 to S18 are flowcharts of how to obtain the center coordinates of the robot hand tool 25 when the CPU 41 executes an image processing program for combining the camera coordinate system and the robot coordinate system. .

なお、S10では、前記画像処理プログラムが実行される際に、ロボット制御装置10のCPU41により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S10, when the image processing program is executed, the CPU 41 of the robot control apparatus 10 controls the operation of the robot 20 described below.
This operation control may be manually controlled by the operator through an input operation on the input device 15, or when executing an image processing program for combining the camera coordinate system and the robot coordinate system, You may make it carry out by automatic control based on the automatic control program stored in ROM.

ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26を鉛直方向(すなわち、大地に対して垂直方向)に向けた姿勢で回転する。前記鉛直方向は、ロボット座標系のZ軸と平行な方向であり、ロボット座標系のX軸及びY軸とは直交する。ここで、ツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転することになる。この座標値は、ロボット座標系で各エンコーダ24からの信号及びロボット20のリンクパラメータに基づいてロボット制御装置10のCPUが算出し、ロボット制御装置10のRAMに格納される。   The robot 20 sucks and holds the recognition target jig 70 shown in FIG. 2A by the vacuum suction pad 27 by the above-described manual control or automatic control, and is the position between the camera 30 and the work table 60 at the camera 30. The tool shaft 26 is rotated in a posture in which the tool shaft 26 is oriented in the vertical direction (that is, the direction perpendicular to the ground) in a state where the tool shaft 26 is positioned within the imaging range. The vertical direction is a direction parallel to the Z axis of the robot coordinate system and is orthogonal to the X axis and the Y axis of the robot coordinate system. Here, the tool axis 26 is rotated by the X coordinate value and the Y coordinate value (p, q) of the robot coordinate system by the control. The coordinate value is calculated by the CPU of the robot control device 10 based on the signal from each encoder 24 and the link parameter of the robot 20 in the robot coordinate system, and is stored in the RAM of the robot control device 10.

なお、認識対象治具70は、図2(a)に示すように全体が略平板状の長方形に形成されており、長手方向の一端部には、特徴部位としての突起71が同長手方向に延出するように形成されている。認識対象治具70の全体の形状は、長方形に限定するものではなく、平面視した場合、正方形、円形、楕円形等の形状でもよい。又、平板に限定されるものではなく、厚みを有するブロック状であってもよい。特徴部位は、カメラ30から見た場合に、認識対象治具70においてハンドツール25に隠れない部位に配置し、突起形状にするとフレーム差分処理で容易に検出することができる。   As shown in FIG. 2A, the recognition target jig 70 is formed in a substantially flat rectangular shape as a whole, and a projection 71 as a characteristic portion is formed in the longitudinal direction at one end portion in the longitudinal direction. It is formed to extend. The overall shape of the recognition target jig 70 is not limited to a rectangle, and may be a square, a circle, an ellipse, or the like when viewed in plan. Moreover, it is not limited to a flat plate, The block shape which has thickness may be sufficient. When viewed from the camera 30, the characteristic part can be easily detected by frame difference processing if it is arranged in a part that is not hidden by the hand tool 25 in the recognition target jig 70 and has a protrusion shape.

又、認識対象治具70の回転姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。   Further, the rotational posture of the recognition target jig 70 does not need to be exactly horizontal, and may be inclined. The holding position by the hand tool 25 may be an arbitrary position as long as the characteristic part is not hidden by the hand tool 25 when viewed from the camera 30 as described above.

又、S10では、上記のようにして回転中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートのフレーム画像が生成され、画像メモリ45に格納される。図5の(a)〜(d)は、S10の処理により取得されて画像メモリ45に格納されたフレーム画像1〜4を示している。前記フレーム画像は回転動画像に相当する。   In S <b> 10, the recognition target jig 70 that is rotating as described above is captured by the camera 30, and the image signal is input to the two-dimensional visual device 40. The image signal input to the two-dimensional visual device 40 is generated by the CPU 41 in a time series in accordance with a predetermined frame rate and stored in the image memory 45. 5A to 5D show the frame images 1 to 4 acquired by the process of S10 and stored in the image memory 45. FIG. The frame image corresponds to a rotational moving image.

S12では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。図5(e)は、前記フレーム画像1〜4のフレーム差分結果の画像データを示している。   In S12, the CPU 41 extracts a frame difference between temporally adjacent frame images in the frame images generated in chronological order. FIG. 5E shows image data as a frame difference result of the frame images 1 to 4.

S14では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点P1〜Prのカメラ座標系の座標値を取得する。なお、rは、フレーム画像のフレーム番号である。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点P1〜Prを割り出して行う。   In S <b> 14, the CPU 41 acquires the coordinate values of the camera coordinate system of the plurality of feature points P <b> 1 to Pr regarding the feature part of the recognition target jig 70 in the image data (hereinafter referred to as a frame difference image) that is the frame difference result. To do. R is the frame number of the frame image. Acquisition of the coordinate values of the feature points is performed by performing known image processing such as binarization processing on the frame difference image with a predetermined threshold value to determine the feature points P1 to Pr.

S16では、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する共通の円弧を算出する。この円弧の算出は、実質的に閉曲線としての円を算出(割り出し)することと同義である。この円弧Eは、特徴点P1〜Prを含む円弧軌跡である(図5(f)参照)。   In S16, CPU41 calculates the common circular arc which passes each coordinate value based on the coordinate value of the feature points P1-Pr acquired by S14. The calculation of this arc is substantially the same as calculating (indexing) a circle as a closed curve. The arc E is an arc locus including the feature points P1 to Pr (see FIG. 5 (f)).

S18では、CPU41は、この得られた円弧の曲率中心、すなわち、割り出した円の中心の座標値(m,n)を算出し、RAM43に記憶する。この算出された円弧の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。   In S 18, the CPU 41 calculates the coordinate value (m, n) of the center of curvature of the obtained arc, that is, the center of the calculated circle, and stores it in the RAM 43. The calculated coordinate value (m, n) of the center of the arc is the coordinate value of the camera coordinate system of the tool axis 26.

S10〜S18は、第1ステップに相当する。
<2.ロボット座標系の傾き>
図4(b)において、S20〜S28は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
S10 to S18 correspond to the first step.
<2. Robot coordinate system tilt>
In FIG. 4B, S20 to S28 are flowcharts of how to obtain the tilt of the robot coordinate system with respect to the camera coordinate system when the CPU 41 executes an image processing program for combining the camera coordinate system and the robot coordinate system. is there.

なお、S20では、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S20, when the image processing program is executed, the robot control device 10 controls the operation of the robot 20 described below.
This operation control may be manually controlled by the operator through an input operation on the input device 15, or when executing an image processing program for combining the camera coordinate system and the robot coordinate system, You may make it carry out by automatic control based on the automatic control program stored in ROM.

ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように直線移動する。   The robot 20 sucks and holds the recognition target jig 70 shown in FIG. 2A by the vacuum suction pad 27 by the above-described manual control or automatic control, and is the position between the camera 30 and the work table 60 at the camera 30. The tool axis 26 is linearly moved along the X axis of the robot coordinate system while being positioned so as to fall within the imaging range.

すなわち、本実施形態では、ロボット座標系において、前記ツール軸26と直交するロボット座標系を構成する2つの座標軸(X軸及びY軸)のうち、X軸(傾き計測座標軸)に対して、沿うように認識対象治具70をハンドツール25を移動させる。   That is, in the present embodiment, in the robot coordinate system, along the X axis (tilt measurement coordinate axis) of the two coordinate axes (X axis and Y axis) constituting the robot coordinate system orthogonal to the tool axis 26. As described above, the hand tool 25 is moved by the recognition target jig 70.

このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。   At this time, the posture of the recognition target jig 70 does not need to be exactly horizontal, and may be inclined. The holding position by the hand tool 25 may be an arbitrary position as long as the characteristic part is not hidden by the hand tool 25 when viewed from the camera 30 as described above.

又、S20では、上記のようにして直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。図6の(a)は、S20の処理により取得されて画像メモリ45に格納された、初期位置のハンドツール25の動画像であるフレーム画像の1つを示している。図6(b)は、S20の処理により取得されて画像メモリ45に格納された、終期位置のハンドツール25の動画像であるフレーム画像の1つを示している。前記フレーム画像は直線移動動画像に相当する。図6(b)において、Qは、前記初期位置の認識対象治具70の突起71の先端の位置を示している。Qは、前記終期位置の認識対象治具70の突起71の先端の位置を示している。sはフレーム番号である。 In S <b> 20, the recognition target jig 70 moving linearly as described above is picked up by the camera 30, and the image signal is input to the two-dimensional visual device 40. The image signal input to the two-dimensional visual device 40 is generated by the CPU 41 at a predetermined frame rate according to a time series and stored in the image memory 45. FIG. 6A shows one of the frame images, which is the moving image of the hand tool 25 at the initial position, acquired by the processing of S20 and stored in the image memory 45. FIG. 6B shows one of the frame images, which is the moving image of the hand tool 25 at the final position, acquired by the processing of S20 and stored in the image memory 45. The frame image corresponds to a linear moving moving image. In FIG. 6 (b), Q 1 indicates the position of the tip of the projection 71 of the recognition target jig 70 of the initial position. Q s indicates the position of the tip of the protrusion 71 of the recognition target jig 70 at the final position. s is a frame number.

S22では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
S24では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点Q〜Qのカメラ座標系の座標値を取得する。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点Q〜Qを割り出して行う。
In S22, the CPU 41 extracts a frame difference between temporally adjacent frame images in the frame images generated in time series order.
In S24, the CPU 41 sets the coordinate values of the camera coordinate system of the plurality of feature points Q 1 to Q s related to the feature parts of the recognition target jig 70 in the image data (hereinafter referred to as frame difference image) as the frame difference result. To get. The coordinate values of the feature points are acquired by performing known image processing such as binarization processing on the frame difference image with a predetermined threshold value and determining the feature points Q 1 to Q s .

S26では、CPU41は、S24で取得した特徴点Q〜Qの座標値に基づいて各座標値を通過する直線を算出する。この直線は、特徴点Q〜Qの直線軌跡である。
S28では、CPU41は、この得られた直線Dは、ロボット座標系のX軸に平行な直線であるため、この直線Dとカメラ座標系のX軸との傾きαを算出し、RAM43に記憶する。なお、カメラ座標系のX軸は、図6(b)に示す水平方向画素数(640画素)、垂直方向画素数(480画素)からなる画像データにおいて、左上角を原点とした水平方向の軸である。又、カメラ座標系のY軸は、前記原点から下方へ垂直方向に延びる軸である。
In S26, CPU 41 calculates a straight line passing through the coordinate values based on the coordinate values of the acquired feature point Q 1 to Q s in S24. This straight line is a straight line trajectory of the feature point Q 1 to Q s.
In S28, since the obtained straight line D is a straight line parallel to the X axis of the robot coordinate system, the CPU 41 calculates the inclination α between the straight line D and the X axis of the camera coordinate system, and stores it in the RAM 43. . Note that the X axis of the camera coordinate system is a horizontal axis with the upper left corner as the origin in the image data consisting of the number of horizontal pixels (640 pixels) and the number of vertical pixels (480 pixels) shown in FIG. It is. The Y axis of the camera coordinate system is an axis extending vertically downward from the origin.

S20〜S28は、第2ステップに相当する。傾きαは、傾き指標パラメータに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18及びS28で取得されたツール軸26のカメラ座標系の円弧の中心の座標値(m,n)と、ロボット座標系のX軸とカメラ座標系のX軸の傾きαに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を行う。この算出は、第3ステップに相当する。
S20 to S28 correspond to the second step. The slope α corresponds to a slope index parameter.
<3. Calculation of relative positional relationship between camera coordinate system and robot coordinate system>.
Based on the coordinate value (m, n) of the center of the arc of the camera coordinate system of the tool axis 26 acquired in S18 and S28 as described above, and the inclination α of the X axis of the robot coordinate system and the X axis of the camera coordinate system. The CPU 41 calculates the relative positional relationship between the camera coordinate system and the robot coordinates. This calculation corresponds to the third step.

ここで、カメラ座標系とロボット座標の相対位置関係について説明する。
ロボット座標の原点OR(x0,y0)とツール軸の中心(円弧の中心)Tを結ぶ線分のカメラ座標系X軸との角度をθとすると、下記式(1)で求めることができる。なお、ツール軸26の中心Tのロボット座標値(p,q)は、CPU41は通信によりロボット制御装置10から取得し、RAM43に格納されている。
Here, the relative positional relationship between the camera coordinate system and the robot coordinates will be described.
If the angle between the origin OR (x0, y0) of the robot coordinates and the camera coordinate system X-axis connecting the center (arc center) T of the tool axis is θ, it can be obtained by the following equation (1). Note that the robot coordinate value (p, q) of the center T of the tool axis 26 is acquired from the robot control apparatus 10 by communication by the CPU 41 and stored in the RAM 43.

θ=α+tan−1(q/p) ……(1)
線分OR−Tのロボット座標系での長さUは、
√(p+q) [mm]
である。
θ = α + tan−1 (q / p) (1)
The length U of the line OR-T in the robot coordinate system is
√ (p 2 + q 2 ) [mm]
It is.

カメラ座標系での1画素(ピクセル)当たりの実距離をμ[mm/pixel]とし、カメラ座標系での線分OR−Tの長さUは、
U= √(p+q)× 1/μ [pixel] ……(2)
である。ここで、μは距離係数である。
The actual distance per pixel (pixel) in the camera coordinate system is μ [mm / pixel], and the length U of the line segment OR-T in the camera coordinate system is
U = √ (p 2 + q 2 ) × 1 / μ [pixel] (2)
It is. Here, μ is a distance coefficient.

又、ロボット座標の原点のX座標値(x0)とmの差分、ロボット座標の原点のY座標値(y0)とnの差分は、それぞれOR−Tにsinθ,cosθを乗じたものであるから、パラメータm,n,p,q,αより、ロボット座標の原点ORのカメラ座標値(x0,y0)は、下式(3)、式(4)より得られる。   Also, the difference between the X coordinate value (x0) and m of the origin of the robot coordinates and the difference between the Y coordinate value (y0) and n of the origin of the robot coordinates are obtained by multiplying OR-T by sin θ and cos θ, respectively. From the parameters m, n, p, q and α, the camera coordinate value (x0, y0) of the origin OR of the robot coordinates is obtained from the following equations (3) and (4).

x0=m−√(p+q)× 1/μ ×cosθ ……(3)
y0=n−√(p+q)× 1/μ ×sinθ ……(4)
このため、CPU41は、式(3)、式(4)を使用して、ロボット座標の原点ORのカメラ座標値(x0,y0)を算出する。θの算出は式(1)を使用する。
x0 = m−√ (p 2 + q 2 ) × 1 / μ × cos θ (3)
y0 = n−√ (p 2 + q 2 ) × 1 / μ × sin θ (4)
For this reason, the CPU 41 calculates the camera coordinate value (x0, y0) of the origin OR of the robot coordinates using the equations (3) and (4). Equation (1) is used to calculate θ.

このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
In this way, the relative positional relationship between the camera coordinate system and the robot coordinate system is calculated, and the result is stored in a memory such as the RAM 43.
Thereafter, since the relative positional relationship between the camera coordinate system and the robot coordinate system has been obtained, the correct instruction reflecting this relative positional relationship is issued from the two-dimensional visual device 40 to the robot control device 10 when performing actual work. It becomes possible.

本実施形態では、下記の特徴を有する。
(1) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出する。
This embodiment has the following features.
(1) In the first step, the camera coordinate system and the robot coordinate system of the robot control system according to this embodiment are coupled by rotating the hand tool 25 around the tool axis 26 at the tip of the robot and holding the hand tool 25. The rotation moving image of the recognition target jig 70 is acquired by the camera 30 (fixed camera), and the locus drawn by the protrusion 71 (characteristic part) of the recognition target jig 70 based on the frame difference obtained from the rotation moving image. An arc (that is, a closed curve) is determined from the above, and the center point of the arc curve is calculated in the camera coordinate system.

また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する。   Further, in the second step, with respect to the coordinate axis of the robot coordinate system and the X axis (tilt measurement coordinate axis) of one of the two coordinate axes constituting the coordinate plane (XY coordinate plane) where the tool axis 26 can intersect, The hand tool 25 holding the recognition target jig 70 is linearly moved so as to follow, and a moving image (linear movement moving image) of the recognition target jig 70 is acquired by the camera 30, and the camera is based on the linear movement moving image. An inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the coordinate system is calculated.

また、第3ステップでは、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。   In the third step, the camera coordinate system is determined based on the center point of the arc curve (closed curve) and the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system. The relative positional relationship of the robot coordinate system is calculated.

この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。   As a result, when the robot 20 (handling robot) grips the recognition target jig 70, it is not necessary to accurately grip the recognition target jig 70, and when the recognition target jig 70 is gripped and rotated and linearly moved. From the acquired continuous images (moving images), the tool axis 26 center of the hand tool 25 and the inclinations of the robot coordinate system and the camera coordinate system can be easily obtained.

又、本実施形態の認識対象治具は、ハンドツール25で保持できる形状としているため、保持する際に厳密な位置決めを行う必要がない。又、厳密な位置決めなしで認識対象治具を把持した場合、認識対象治具の姿勢がバラつくが、保持された後の処理は、回転、直線移動のみであり、治具の端部に設けられた特徴部位に関する特徴点の取得を目的として動画像を得るだけであるため、前記バラつきを吸収することができる。   In addition, since the recognition target jig of the present embodiment has a shape that can be held by the hand tool 25, it is not necessary to perform precise positioning when holding. In addition, when the jig to be recognized is gripped without strict positioning, the posture of the jig to be recognized varies, but the processing after being held is only rotation and linear movement, and is provided at the end of the jig. Since the moving image is only obtained for the purpose of acquiring the feature points related to the specified feature portion, the variation can be absorbed.

又、ハンドツール25を取り外していた従来例と異なり、ハンドツールを外す必要がない。そのため、カメラ座標系とロボット座標系の結合する作業は、ハンドツールの取り外し及び作業終了後の取付作業が必要でなく、短時間で行うことができる。因みに従来技術1での測定作業は、1時間ほどの作業時間が必要であったが、本方法では、5分程度の作業時間ですむ利点がある。又、上記の理由から製造ラインにおいて、この方法を適用した場合、カメラ交換等の際に発生するライン停止による多大な損失を最小限に抑えることができる。   Further, unlike the conventional example in which the hand tool 25 is removed, it is not necessary to remove the hand tool. Therefore, the operation of combining the camera coordinate system and the robot coordinate system does not require removal of the hand tool and attachment work after the operation is completed, and can be performed in a short time. Incidentally, the measurement work in the prior art 1 requires about 1 hour, but this method has the advantage of requiring about 5 minutes. In addition, when this method is applied to a production line for the above reasons, a great loss due to a line stop that occurs when a camera is replaced can be minimized.

(2) 本実施形態では、フレーム差分を用いて動体、すなわち、認識対象治具70の特徴部位を検出する処理を行うため、認識対象治具の軌跡の自動的な検出が可能になり、カメラ座標系とロボット座標系の両座標系の関係を得るための測定作業を自動化できる。すなわち、オペレータに特別なスキルが必要でなく、誰でも容易に測定作業を行うことができる。   (2) In this embodiment, since the process of detecting the moving object, that is, the characteristic part of the recognition target jig 70 is performed using the frame difference, the trajectory of the recognition target jig can be automatically detected. Measurement work to obtain the relationship between the coordinate system and the robot coordinate system can be automated. That is, no special skill is required for the operator, and anyone can easily perform the measurement work.

(3) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法では、第2ステップで割り出す閉曲線を円とするとともに、ロボット座標系のX軸を傾き計測座標軸とし、傾き指標パラメータを、X軸に沿ってハンドツール25をそれぞれ移動させた際の、直線軌跡とX軸(傾き計測座標軸)との角度としている。   (3) In the method of combining the camera coordinate system and the robot coordinate system of the robot control system of this embodiment, the closed curve calculated in the second step is a circle, the X axis of the robot coordinate system is the tilt measurement coordinate axis, and the tilt index parameter Is the angle between the linear trajectory and the X axis (inclination measurement coordinate axis) when the hand tool 25 is moved along the X axis.

この結果、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に、後述する第2実施形態よりも、カメラ座標系とロボット座標系の結合する作業を容易に行うことができる。   As a result, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the camera 30 are orthogonal, a description will be given later. Compared to the second embodiment, the operation of combining the camera coordinate system and the robot coordinate system can be performed more easily.

(4) 本実施形態では、認識対象治具70の特徴部位は、一端に設けられた突起71としている。この結果、治具の端部に設けられた突起71(特徴部位)に関する特徴点の取得を目的として動画像を得るだけであるため、厳密な位置決めなしで認識対象治具を把持できる。   (4) In this embodiment, the characteristic part of the recognition target jig 70 is a protrusion 71 provided at one end. As a result, since a moving image is only obtained for the purpose of obtaining a feature point related to the protrusion 71 (feature part) provided at the end of the jig, the recognition target jig can be gripped without strict positioning.

(5) 本実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。   (5) The two-dimensional visual device 40 (image processing device) of the present embodiment rotates the hand tool 25 around the tool axis 26 at the tip of the robot and rotates the recognition target jig 70 held by the hand tool 25. An image is acquired from the camera 30 (fixed camera), and an arc (that is, a closed curve) is calculated from the locus drawn by the protrusion 71 (feature part) of the recognition target jig 70 based on the frame difference obtained from the rotational moving image. CPU 41 (first calculation means) is provided for calculating the center point of the arc curve in the camera coordinate system.

又、CPU41は、ロボット座標系の座標軸であって、ツール軸26と直交するロボット座標系を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能する。   Further, the CPU 41 recognizes the recognition target jig so as to be along the X axis (tilt measurement coordinate axis) of the two coordinate axes constituting the robot coordinate system orthogonal to the tool axis 26, which is a coordinate axis of the robot coordinate system. The hand tool 25 holding 70 is moved linearly, and a moving image (linear moving moving image) of the recognition target jig 70 is acquired by the camera 30, and the robot with respect to the X axis of the camera coordinate system is acquired based on the linear moving moving image. It functions as second calculation means for calculating the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the coordinate system.

又、CPU41は、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能する。   The CPU 41 also determines the camera coordinate system and the robot coordinates based on the center point of the arc curve (closed curve) and the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system. It functions as third calculation means for calculating the relative positional relationship of the system.

この結果、上記(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
又、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
As a result, it is possible to provide the two-dimensional visual device 40 that can achieve the effects described in (1) above.
Further, the coordinate value of the robot coordinate system at the position of the tool axis 26 for rotating the recognition target jig 70 is set and fixed in advance in the program of the robot controller, and is moved along the X axis of the robot coordinate system. Since all the operations can be automated by incorporating the program into the computer, the operator only has to move the robot as determined while operating the image processing device (in this embodiment, the two-dimensional visual device 40).

(6) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像からフレーム差分を得て、該フレーム差分に基づく認識対象治具70の特徴部位が描いた軌跡から円弧(閉曲線)を割り出し、円弧曲線の中心点をカメラ座標系で算出する第1算出手段として機能させる。   (6) The image processing program for combining the camera coordinate system and the robot coordinate system according to the present embodiment is such that the hand tool 25 provided at the tip of the robot 20 via the tool axis 26 is moved around the tool axis 26. A rotating moving image of the recognition target jig 70 held by the hand tool 25 when rotating is acquired from the camera 30 (fixed camera), a frame difference is obtained from the rotating moving image, and the recognition target jig based on the frame difference is obtained. An arc (closed curve) is calculated from the trajectory drawn by the 70 characteristic parts, and functions as first calculation means for calculating the center point of the arc curve in the camera coordinate system.

又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像から得られたフレーム差分に基づいて認識対象治具70の突起71の直線軌跡を取得し、直線軌跡に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能させる。   In addition, the program causes the computer to operate with respect to one X axis (tilt measurement coordinate axis) of two coordinate axes that constitute a coordinate plane (XY coordinate plane) that is a coordinate axis of the robot coordinate system and that the tool axis 26 can intersect. Then, the hand tool 25 holding the recognition target jig 70 is linearly moved along, and a moving image (linear movement moving image) of the recognition target jig 70 is acquired by the camera 30 and obtained from the linear movement moving image. The linear trajectory of the protrusion 71 of the recognition target jig 70 is obtained based on the frame difference, and the inclination α (inclination) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system is obtained based on the linear trajectory. It functions as a second calculation means for calculating (index parameter).

又、前記プログラムは、コンピュータを、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させる。   Further, the program causes the computer coordinates based on the center point of the arc curve (closed curve) and the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system. It functions as a third calculating means for calculating the relative positional relationship between the system and the robot coordinate system.

この結果、上記(1)に記載の作用効果を奏することができるプログラムを提供できる。
(7) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、上記(6)に記載の画像処理プログラムを記憶する。
As a result, it is possible to provide a program that can achieve the effects described in (1) above.
(7) The ROM 42 as a storage medium of the present embodiment is readable by a computer and stores the image processing program described in (6) above.

この結果、上記(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。   As a result, it is possible to provide a ROM 42 that stores a program that can achieve the effects described in (1) above. That is, by mounting a storage medium storing the program on a computer, the relationship between the camera coordinate system and the robot coordinate system can be easily obtained.

(第2実施形態)
次に、第2実施形態を図8、図9を参照して説明する。なお、第2実施形態のロボット制御システムのハード構成は、第1実施形態と同一構成であるため、同一構成については、同一符号を付してその説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. Since the hardware configuration of the robot control system of the second embodiment is the same as that of the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.

なお、本実施形態において、CPU41は、第1算出手段、第2算出手段、及び第3算出手段に相当する。
第1実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効としている。それに対して、第2実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、実機(ロボット)上において、ハンドツール25をロボット座標系のX軸及びY軸に沿ってそれぞれ移動させたときの軌跡が直交していない場合に有効である。なお、ここで前記両軌跡が直交しない理由は、ロボットを構成しているアームの連結構成に機械誤差があるためである。
In the present embodiment, the CPU 41 corresponds to a first calculation unit, a second calculation unit, and a third calculation unit.
In the first embodiment, the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the camera 30 are orthogonal to each other. It is effective. On the other hand, in the second embodiment, the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are not parallel to each other, and the hand tool 25 is moved to the X of the robot coordinate system on the actual machine (robot). This is effective when the trajectories when moved along the axis and the Y axis are not orthogonal. Here, the reason why the two trajectories are not orthogonal is that there is a mechanical error in the connection configuration of the arms constituting the robot.

本実施形態では、2次元視覚装置40のROM42に格納されている画像処理プログラムが第1実施形態の画像処理プログラムと異なっている。ROM42は、画像処理プログラムを記憶する記憶媒体に相当する。   In the present embodiment, the image processing program stored in the ROM 42 of the two-dimensional visual device 40 is different from the image processing program of the first embodiment. The ROM 42 corresponds to a storage medium that stores an image processing program.

(第2実施形態の作用)
本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
(Operation of Second Embodiment)
In the robot control system of this embodiment, a procedure for coupling the camera coordinate system of the camera 30 and the robot coordinate system of the robot 20 will be described.

<1.ロボットのハンドツールの中心座標>
図8(a)は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。同フローチャートにおいて、S10〜S14は、第1実施形態と同様であるため、説明を省略するが、なお、S10では、第1実施形態で記述したようにツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転する。
<1. Center coordinates of robot hand tool>
FIG. 8A is a flowchart of how to obtain the center coordinates of the hand tool 25 of the robot when the CPU 41 executes an image processing program for combining the camera coordinate system and the robot coordinate system. In the flowchart, since S10 to S14 are the same as those in the first embodiment, the description thereof will be omitted. However, in S10, as described in the first embodiment, the tool axis 26 is controlled by robot coordinates according to the above control. It rotates with the X coordinate value and Y coordinate value (p, q) of the system.

S16Aでは、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する軌跡から楕円弧(すなわち、閉曲線としての楕円を形成する円弧)を算出(割り出し)する。   In S16A, the CPU 41 calculates (determines) an elliptical arc (that is, an arc forming an ellipse as a closed curve) from the trajectory passing through each coordinate value based on the coordinate values of the feature points P1 to Pr acquired in S14.

ここで、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではない場合、カメラ30で撮像した得られた認識対象治具70の特徴部位(突起71)の軌跡は、楕円を描くため、S16Aでは、この楕円弧を算出するようにしている。   Here, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are not parallel to each other, the trajectory of the characteristic part (projection 71) of the recognition target jig 70 obtained by the camera 30 is In order to draw an ellipse, this ellipse arc is calculated in S16A.

S18Aでは、CPU41は、この得られた楕円弧の中心点(中心)、すなわち、割り出した楕円の中心点の座標値(m,n)を算出し、RAM43に記憶する。楕円の中心点の求め方は、例えば、楕円を割り出した場合、その長径の両端の各座標値をそれぞれ算出し、その両端の1/2の位置の座標を楕円の中心座標とする。なお、中心の求め方は前記方法に限定するものではない。   In S18A, the CPU 41 calculates the center point (center) of the obtained elliptical arc, that is, the coordinate value (m, n) of the calculated center point of the ellipse, and stores it in the RAM 43. For example, when the ellipse is determined, the coordinate values of both ends of the major axis are calculated, and the coordinates of the half positions of both ends are set as the center coordinates of the ellipse. The method for obtaining the center is not limited to the above method.

この算出された楕円の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。
S10〜S18Aは、第1ステップに相当する。
The calculated coordinate value (m, n) of the center of the ellipse is the coordinate value of the camera coordinate system of the tool axis 26.
S10 to S18A correspond to the first step.

<2.ロボット座標系の傾き>
図8(b)において、S20A〜S28Aは、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
<2. Robot coordinate system tilt>
In FIG. 8B, S20A to S28A are flowcharts of how to obtain the tilt of the robot coordinate system relative to the camera coordinate system when the CPU 41 executes an image processing program for combining the camera coordinate system and the robot coordinate system. is there.

S20Aでは、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S20A, when the image processing program is executed, the robot control device 10 performs operation control of the robot 20 described below.
This operation control may be manually controlled by the operator through an input operation on the input device 15, or when executing an image processing program for combining the camera coordinate system and the robot coordinate system, You may make it carry out by automatic control based on the automatic control program stored in ROM.

ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように、直線距離L分、直線移動する。この直線距離は予め設定された距離である。   The robot 20 sucks and holds the recognition target jig 70 shown in FIG. 2A by the vacuum suction pad 27 by the above-described manual control or automatic control, and is the position between the camera 30 and the work table 60 at the camera 30. The tool axis 26 is linearly moved by a linear distance L along the X axis of the robot coordinate system in a state where the tool axis 26 is positioned so as to fall within the imaging range. This linear distance is a preset distance.

この後、上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のY軸に沿うように、直線距離L分、直線移動する。   Thereafter, the recognition target jig 70 shown in FIG. 2A is sucked and held by the vacuum suction pad 27 by the manual control or the automatic control, and the camera 30 is positioned between the camera 30 and the work table 60. The tool axis 26 is linearly moved by a linear distance L along the Y axis of the robot coordinate system in a state where the tool axis 26 is positioned so as to fall within the imaging range.

すなわち、本実施形態では、ロボット座標系において、前記ツール軸26を交差可能な座標平面を構成する2つの座標軸、すなわち、X軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、それぞれ沿うように認識対象治具70、すなわちハンドツール25を移動させる。   That is, in this embodiment, in the robot coordinate system, with respect to two coordinate axes constituting a coordinate plane that can intersect the tool axis 26, that is, the X axis (tilt measurement coordinate axis) and the Y axis (tilt measurement coordinate axis), The recognition object jig 70, that is, the hand tool 25 is moved along each of them.

このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。   At this time, the posture of the recognition target jig 70 does not need to be exactly horizontal, and may be inclined. The holding position by the hand tool 25 may be an arbitrary position as long as the characteristic part is not hidden by the hand tool 25 when viewed from the camera 30 as described above.

又、S20Aでは、上記のようにしてX軸、並びに、Y軸に沿って直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、軸(X軸及びY軸)別に、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。   In S20A, the recognition target jig 70 moving linearly along the X axis and the Y axis as described above is picked up by the camera 30, and the image signal is input to the two-dimensional visual device 40. Is done. The image signal input to the two-dimensional visual device 40 is generated by the CPU 41 at a predetermined frame rate according to a time series for each axis (X axis and Y axis) and stored in the image memory 45.

前記フレーム画像は直線移動動画像に相当する。
S22Aでは、CPU41は、軸(X軸及びY軸)毎に、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
The frame image corresponds to a linear moving moving image.
In S22A, the CPU 41 extracts frame differences between temporally adjacent frame images in the frame images generated in time series for each axis (X axis and Y axis).

S24Aでは、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の突起71(特徴部位)の各軸に沿って直線移動した際、それぞれの始点と終点のカメラ座標系の座標値を取得する。この突起71の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、始点及び終点を割り出して行う。   In S24A, when the CPU 41 linearly moves along each axis of the protrusion 71 (characteristic portion) of the recognition target jig 70 in the image data (hereinafter referred to as a frame difference image) that is the frame difference result, Get the coordinate values of the start and end camera coordinate systems. The coordinate values of the protrusions 71 are obtained by performing known image processing such as binarization processing on the frame difference image with a predetermined threshold value, and determining the start point and end point.

本実施形態では、これらのそれぞれの始点及び終点の座標値を、ベクトルとして扱う。
S20A〜S24Aは、第2ステップに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18Aで取得されたツール軸26のカメラ座標系の楕円弧の中心の座標値(m,n)と、S24Aで取得された始点及び終点の座標値に基づいた2つのベクトルに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を、S28Aで行う。この算出は、第3ステップに相当する。
In the present embodiment, the coordinate values of these start points and end points are handled as vectors.
S20A to S24A correspond to the second step.
<3. Calculation of relative positional relationship between camera coordinate system and robot coordinate system>.
As described above, based on the two coordinate vectors (m, n) of the center of the elliptical arc of the camera coordinate system of the tool axis 26 acquired in S18A and the start and end coordinate values acquired in S24A. The CPU 41 calculates the relative positional relationship between the camera coordinate system and the robot coordinates in S28A. This calculation corresponds to the third step.

まず、ロボット座標系原点のカメラ座標値(x,y)を求める。
具体的には、直線距離L(mm)移動したときの、X軸に沿った始点、終点を、
(x,y)、U(x,y
とし、Y軸に沿った始点、終点を、
(x,y)、V(x,y
とする。
First, camera coordinate values (x 0 , y 0 ) at the origin of the robot coordinate system are obtained.
Specifically, when the linear distance L (mm) is moved, the start point and end point along the X axis are
U s (x 1 , y 1 ), U e (x 2 , y 2 )
And the start and end points along the Y axis,
V s (x 3 , y 3 ), V e (x 4 , y 4 )
And

ロボットのX軸に沿った長さ1mmの単位ベクトルは、   A unit vector of 1 mm in length along the X axis of the robot is

Figure 0005729219
ロボットのY軸に沿った長さ1mmの単位ベクトルは、
Figure 0005729219
A unit vector of 1 mm in length along the Y axis of the robot is

Figure 0005729219
となる。
Figure 0005729219
It becomes.

ロボットのX軸に沿った単位ベクトルは、カメラ座標系のX軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。ロボットのY軸に沿った単位ベクトルは、カメラ座標系のY軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。   The unit vector along the X axis of the robot corresponds to a tilt index parameter with respect to the X axis (tilt measurement coordinate axis) of the camera coordinate system. A unit vector along the Y axis of the robot corresponds to a tilt index parameter with respect to the Y axis (tilt measurement coordinate axis) of the camera coordinate system.

図9(a)に示すロボット座標系原点Oからツール軸26の中心Tまでのベクトルを、2つの単位ベクトルの合成ベクトルとして表すと、以下のようになる。 The vector from the robot coordinate system origin O R to the center T of the tool axis 26 shown in FIG. 9 (a), expressed as a composite vector of the two unit vectors, as follows.

Figure 0005729219
これに、今までに取得したパラメータを代入すると、
Figure 0005729219
Substituting the parameters obtained so far into this,

Figure 0005729219
となる。
Figure 0005729219
It becomes.

CPU41は、式(8)を解いて、ロボット座標原点のカメラ座標値(x,y)を求める。
次に、CPU41は、カメラ座標値からロボット座標値への変換式を求める。すなわち、カメラ座標系とロボット座標の相対位置関係の算出を行う。
CPU41 is solved equation (8), obtains the camera coordinate values of the robot coordinate origin (x 0, y 0).
Next, the CPU 41 obtains a conversion formula from camera coordinate values to robot coordinate values. That is, the relative positional relationship between the camera coordinate system and the robot coordinates is calculated.

具体的には、上記のように取得したx,y、及び式(5)、式(6)で表される単位ベクトルを使用して、CPU41は、カメラ座標値をロボット座標値に変換する変換式を求める。 Specifically, the CPU 41 converts the camera coordinate value into the robot coordinate value by using x 0 , y 0 acquired as described above and the unit vector represented by the expressions (5) and (6). Find the conversion formula.

図9(b)に示すカメラ座標値(x,y)の点Pをロボット座標系に変換した時の座標値を(X,Y)とすると、   If the coordinate value when the point P of the camera coordinate value (x, y) shown in FIG. 9B is converted into the robot coordinate system is (X, Y),

Figure 0005729219
となる。この式(9)に、今までに取得したパラメータを代入すると、
Figure 0005729219
It becomes. Substituting the parameters obtained so far into this equation (9),

Figure 0005729219
となる。CPU41は、この式(10)から得られる連立方程式を解いて、下記式(11)、式(12)を求める。
Figure 0005729219
It becomes. The CPU 41 solves the simultaneous equations obtained from the equation (10) to obtain the following equations (11) and (12).

Figure 0005729219
Figure 0005729219

Figure 0005729219
Figure 0005729219

Figure 0005729219
なお、式(13)〜式(16)は式(11)、式(12)中で使用したU、U、V、Vの定義のための式である。
Figure 0005729219
Expressions (13) to (16) are expressions for defining U x , U y , V x , and V y used in expressions (11) and (12).

このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
In this way, the relative positional relationship between the camera coordinate system and the robot coordinate system is calculated, and the result is stored in a memory such as the RAM 43.
Thereafter, since the relative positional relationship between the camera coordinate system and the robot coordinate system has been obtained, the correct instruction reflecting this relative positional relationship is issued from the two-dimensional visual device 40 to the robot control device 10 when performing actual work. It becomes possible.

第2実施形態では、第1実施形態の(2)、(4)の効果に加えて、下記の特徴がある。
(1) ロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)の楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧の中心点をカメラ座標系で算出する。
The second embodiment has the following features in addition to the effects (2) and (4) of the first embodiment.
(1) In the first step, the camera coordinate system and the robot coordinate system of the robot control system are coupled by rotating the hand tool 25 around the tool axis 26 at the tip of the robot, and the recognition target treatment held by the hand tool 25. A rotating moving image of the tool 70 is acquired by the camera 30 (fixed camera), and an elliptical arc (that is, a closed curve) of the protrusion 71 (characteristic portion) of the recognition target jig 70 is obtained based on the frame difference obtained from the rotating moving image. The center point of the elliptical arc is calculated and calculated in the camera coordinate system.

また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する。   Further, in the second step, the coordinate axis of the robot coordinate system and the X axis (inclination measurement coordinate axis) and the Y axis (inclination measurement coordinate axis) constituting the coordinate plane on which the tool axis 26 can intersect are along. The hand tool 25 holding the recognition target jig 70 is linearly moved, and a linear moving moving image of the recognition target jig 70 is acquired by the camera 30 (fixed camera). Based on the linear moving moving image, a camera coordinate system is obtained. A vector that is a tilt index parameter for the X axis (tilt measurement coordinate axis) and the Y axis (tilt measurement coordinate axis) is calculated.

また、第3ステップでは、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。   In the third step, the center point of the elliptical arc (closed curve), the X-axis of the camera coordinate system, the X-axis (tilt measurement coordinate axis) of the robot coordinate system with respect to the Y-axis, the tilt index parameter for the Y-axis (tilt measurement coordinate axis), The relative positional relationship between the camera coordinate system and the robot coordinate system is calculated based on the vector.

この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。   As a result, when the robot 20 (handling robot) grips the recognition target jig 70, it is not necessary to accurately grip the recognition target jig 70, and when the recognition target jig 70 is gripped and rotated and linearly moved. From the acquired continuous images (moving images), the tool axis 26 center of the hand tool 25 and the inclinations of the robot coordinate system and the camera coordinate system can be easily obtained.

又、本実施形態によれば、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、ロボット座標系のX軸及びY軸とが直交していない場合においても、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。   Further, according to the present embodiment, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are not parallel to each other and the X and Y axes of the robot coordinate system are not orthogonal to each other. However, the tool axis center of the hand tool and the tilt of the robot coordinate system and the camera coordinate system can be easily obtained.

(2) 第2実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧(楕円)の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。   (2) The two-dimensional visual device 40 (image processing device) of the second embodiment rotates the hand tool 25 around the tool axis 26 at the tip of the robot and rotates the recognition target jig 70 held by the hand tool 25. A moving image is acquired from the camera 30 (fixed camera), and an elliptical arc (that is, a closed curve) is calculated from the locus drawn by the protrusion 71 (feature part) of the recognition target jig 70 based on the frame difference obtained from the rotating moving image. And a CPU 41 (first calculation means) for calculating the center point of the elliptic arc (ellipse) in the camera coordinate system.

又、CPU41は、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能する。   Further, the CPU 41 is a recognition target along the X axis (inclination measurement coordinate axis) and the Y axis (inclination measurement coordinate axis) that constitute the coordinate plane of the robot coordinate system and that can intersect the tool axis 26. The hand tool 25 holding the jig 70 is linearly moved, and a linear moving moving image of the recognition target jig 70 is acquired by the camera 30 (fixed camera). Based on the linear moving moving image, the X axis of the camera coordinate system It functions as a second calculation means for calculating a vector that becomes an inclination index parameter for (inclination measurement coordinate axis) and Y axis (inclination measurement coordinate axis).

又、CPU41は、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能する。   Further, the CPU 41 is a vector serving as a tilt index parameter for the center point of the elliptical arc (closed curve) and the X axis (tilt measurement coordinate axis) and Y axis (tilt measurement coordinate axis) of the robot coordinate system with respect to the X axis and Y axis of the camera coordinate system. Functions as a third calculation for calculating the relative positional relationship between the camera coordinate system and the robot coordinate system.

この結果、第2実施形態の(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
第2実施形態の2次元視覚装置40では、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸、及びY軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
As a result, it is possible to provide the two-dimensional visual device 40 that can achieve the effects described in (1) of the second embodiment.
In the two-dimensional visual device 40 of the second embodiment, the coordinate value of the robot coordinate system at the position of the tool axis 26 that rotates the recognition target jig 70 is set in advance in the program of the robot control device and is fixed. Since all calculations can be automated by incorporating a program to move along the X-axis and Y-axis of the system, the operator operates the image processing device (in this embodiment, the two-dimensional visual device 40). All you have to do is move the robot as determined.

(3) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(閉曲線)を割り出し、楕円弧の中心点をカメラ座標系で算出する第1算出手段として機能させる。   (3) The image processing program for combining the camera coordinate system and the robot coordinate system according to the present embodiment is such that the hand tool 25 provided at the tip of the robot 20 via the tool axis 26 is moved around the tool axis 26. A rotation moving image of the recognition target jig 70 held by the hand tool 25 when rotating is acquired from the camera 30 (fixed camera), and the protrusion of the recognition target jig 70 is based on the frame difference obtained from the rotation moving image. An elliptical arc (closed curve) is determined from the locus drawn by 71 (characteristic part), and functions as first calculation means for calculating the center point of the elliptical arc in the camera coordinate system.

又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能させる。   Further, the program runs the computer along the X axis (inclination measurement coordinate axis) and the Y axis (inclination measurement coordinate axis), which are coordinate axes of the robot coordinate system and constitute a coordinate plane on which the tool axis 26 can intersect. As described above, the hand tool 25 holding the recognition target jig 70 is linearly moved, and a linear moving moving image of the recognition target jig 70 is acquired by the camera 30 (fixed camera). Based on the linear moving moving image, camera coordinates are obtained. It is made to function as a second calculating means for calculating a vector that becomes a tilt index parameter for the X axis (tilt measurement coordinate axis) and Y axis (tilt measurement coordinate axis) of the system.

又、前記プログラムは、コンピュータを、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能させる。   In addition, the program causes the computer to set an inclination index for the center point of the elliptical arc (closed curve) and the X and Y axes of the robot coordinate system relative to the X and Y axes of the camera coordinate system, and the Y axis (inclination measurement coordinate axis). It is made to function as 3rd calculation which calculates the relative positional relationship of a camera coordinate system and a robot coordinate system based on the vector used as a parameter.

この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを提供できる。
(4) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、第2実施形態の(3)に記載の画像処理プログラムを記憶する。
As a result, it is possible to provide a program that can achieve the effects described in (1) of the second embodiment.
(4) The ROM 42 as a storage medium of the present embodiment is readable by a computer and stores the image processing program described in (3) of the second embodiment.

この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。   As a result, it is possible to provide a ROM 42 that stores a program capable of achieving the effects described in (1) of the second embodiment. That is, by mounting a storage medium storing the program on a computer, the relationship between the camera coordinate system and the robot coordinate system can be easily obtained.

(参考例)
次に、参考例を図10〜図14を参照して説明する。参考例は下記の問題を解消するためのものである。
(Reference example)
Next, a reference example will be described with reference to FIGS. The reference example is for solving the following problems.

ロボットにより部品をハンドリング等により取り扱う工程では、画像処理技術を利用してワークの位置・姿勢を検出することが行われている。この場合、前記画像処理技術では、ワーク外形の輪郭線を検出する手法が行われることが多い。   In the process of handling parts by handling or the like with a robot, the position / orientation of a workpiece is detected using image processing technology. In this case, in the image processing technique, a technique for detecting the outline of the workpiece outer shape is often performed.

透明なガラスだけで構成されたワーク(例えば、車両のフロントウインドウ、リヤウインドウ)の場合は、カメラの外形のエッジを検出するのが難しいため、エッジをうまく撮影するための様々な手法が考案されている(特許文献3参照)。   In the case of workpieces that consist only of transparent glass (for example, the front window and rear window of a vehicle), it is difficult to detect the edge of the camera's outer shape, so various methods have been devised to capture the edge well. (See Patent Document 3).

一方、ガラスとガラス以外のものと一体になっているウインドウ(例えばハメ殺しのクォータウインドウ)の場合は、ラバーや樹脂からなるモールが一体に形成されてエッジが形成されているため、ワークのエッジをカメラで検出することが容易であるが、下記の大きな問題がある。   On the other hand, in the case of a window that is integrated with glass and something other than glass (for example, a quarter window for killing a slug), the edge of the workpiece is formed because the molding made of rubber or resin is formed integrally. Is easy to detect with a camera, but has the following major problems.

すなわち、柔らかい樹脂やラバーで構成されたエッジの部分は、柔らかくて、変形しやすいため、保護のため箱などに収納されて運ばれる間にエッジが変形してしまうことが多い。この変形した状態のままカメラで検出しようとすると、エッジを誤った形状で認識し、別の種類のワークと誤認する問題がある。又、位置計測の場合は、誤差が発生する問題がある。   That is, the edge portion made of soft resin or rubber is soft and easily deformed, so that the edge is often deformed while being stored in a box or the like for protection. If an attempt is made to detect with the camera in this deformed state, there is a problem that the edge is recognized with an incorrect shape and misidentified as another type of workpiece. In the case of position measurement, there is a problem that an error occurs.

外形輪郭線を使わずにワークの位置・姿勢を計測する方法として、ワーク表面に成形、又は印刷したアライメントマークを検出する方法もある。しかし、このような細工を施すと、外観品質を損なうので、意匠面側をカメラに向けワークを置く設定の場合は、この手法は使えない。   As a method for measuring the position / orientation of a workpiece without using an outline, there is a method for detecting an alignment mark formed or printed on the workpiece surface. However, if such a work is performed, the appearance quality is impaired, so this method cannot be used in the case where the work surface is set to face the camera with the design surface side.

外形輪郭線を使わない別の案として、モールの内側の線(ガラスとモールの境界線)を検出する方法も考えられる。図15に示すようにモール200はガラス210との一体成形時に型で規制されるため精度がよく、接着されているので、変形もない。しかし、ガラス210の片面(反意匠面)側にはモールと同色のセラミックが見栄え向上のため塗布されており、透明なガラスを通してこのセラミックが見えるため、この部分を撮像して得られた画像は、黒く見えてしまい、このため、画像処理でガラスとモールの境界線を認識することが極めて難しい問題がある。   Another method that does not use the outline is to detect the inner line of the molding (the boundary between glass and molding). As shown in FIG. 15, the molding 200 is regulated by a mold at the time of integral molding with the glass 210, and therefore has high accuracy and is bonded, so there is no deformation. However, since the same color ceramic as the molding is applied on one side (anti-design side) of the glass 210 to improve the appearance, and this ceramic can be seen through the transparent glass, the image obtained by imaging this part is Therefore, there is a problem that it is extremely difficult to recognize the boundary line between glass and molding by image processing.

さらに、上記例において内側のセラミックのエッジを検出する方法も考えられるが、セラミックは吹き付けで塗着されるため、位置精度が良くない上、ウインドウがプライバシーガラスのように着色されたガラスにより構成されている場合、セラミックのエッジが見づらくなり、画像処理によるエッジ検出は困難である問題がある。   Furthermore, in the above example, a method of detecting the edge of the inner ceramic is also conceivable, but since the ceramic is applied by spraying, the positional accuracy is not good, and the window is made of colored glass such as privacy glass. In this case, it is difficult to see the ceramic edge, and it is difficult to detect the edge by image processing.

このようにワークの位置・姿勢の計測で、一般的な用いられる外形輪郭線を利用する方法は、輪郭線が変形しやすいモールの場合には使用できず、精度が良く、変形もしないモールの場合においても画像認識処理によるエッジの識別が困難である問題がある。   In this way, the method of using the generally used outline contour for measuring the position and orientation of the workpiece cannot be used in the case of a mall where the outline is easily deformed. Even in this case, there is a problem that it is difficult to identify edges by image recognition processing.

上記の問題を解決するために、本参考例のロボット制御システムは、ロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及びワーク形状認識装置としての2次元視覚装置40を備えている。これらのハード構成は、第1実施形態と同一構成については、図10に示すように同一符号を付してその説明を省略する。又、ロボット制御システムは、図10に示すように、ロボットが把持するワークを照明する照明手段としての照明装置100が設けられている。   In order to solve the above problem, the robot control system of the present reference example includes a robot control device 10 and a handling robot (hereinafter simply referred to as a robot) 20, a camera 30 as a fixed camera, and a two-dimensional vision as a workpiece shape recognition device. A device 40 is provided. In these hardware configurations, the same components as those in the first embodiment are denoted by the same reference numerals as shown in FIG. Further, as shown in FIG. 10, the robot control system is provided with an illumination device 100 as illumination means for illuminating a work gripped by the robot.

なお、本実施形態では、ワークWは、自動車のウインドウガラスであって、透明材質であるガラスからなる本体Waと、本体Waの全周部に配置されたモールWbとを有する。モールWbは、投射された光が拡散する拡散反射部材に相当する。モールWbは、ゴム又は合成樹脂により形成されている。図12に示すように、モールWbは、本体Waの周縁部に対して溝Wcにより嵌合されるとともに、本体Waの反意匠面側(図12において下面側)の一部にはモールWbと同色のセラミックWdが塗布されている。   In the present embodiment, the workpiece W is a window glass of an automobile, and includes a main body Wa made of glass that is a transparent material, and a molding Wb disposed on the entire periphery of the main body Wa. The molding Wb corresponds to a diffuse reflection member that diffuses the projected light. The molding Wb is made of rubber or synthetic resin. As shown in FIG. 12, the molding Wb is fitted into the peripheral edge of the main body Wa by the groove Wc, and the molding Wb and a part on the counter-design surface side (the lower surface side in FIG. 12) of the main body Wa are The same color ceramic Wd is applied.

照明装置100は、図11に示すように、有蓋四角箱状のケース101と、ケース101の内頂部に配置された複数の発光体102と、ケース101の底部開口を閉塞して配置された拡散板103とにより構成されている。発光体102は、本実施形態では、蛍光灯、LED(Light Emitting Diode)等により構成されている。なお、ケース101の箱形状は限定されるものではない。   As shown in FIG. 11, the lighting device 100 includes a case 101 having a covered square box shape, a plurality of light emitters 102 disposed on the inner top portion of the case 101, and a diffusion disposed by closing the bottom opening of the case 101. And a plate 103. In the present embodiment, the light emitter 102 is configured by a fluorescent lamp, an LED (Light Emitting Diode), or the like. The box shape of the case 101 is not limited.

又、照明装置100と、図示しないテーブル上のワークWと、カメラ30との配置関係は、下記の関係にある。なお、カメラ30内には、CCD、或いはCMOS等からなる撮像素子32、及びレンズ33を備えている。   Further, the positional relationship among the illumination device 100, the workpiece W on the table (not shown), and the camera 30 is as follows. Note that the camera 30 includes an image pickup device 32 made of a CCD, a CMOS, or the like, and a lens 33.

図11に示すように、カメラ30内部の撮像素子32の撮像エリアを規定する一方の線とレンズ主点34を結ぶ線を直線Aとし、反対の縁とレンズ主点34を結ぶ線を直線Bとし、これらの直線A,Bをウインドウガラス(本体Wa)の表面で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように折り返した線をそれぞれ直線A’,B’とする。図11では、本体Waの表面から延長した仮想ガラス面上で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように、直線A,Bと直線A’,B’が折り返されている。   As shown in FIG. 11, a line connecting one line defining the imaging area of the image sensor 32 inside the camera 30 and the lens principal point 34 is a straight line A, and a line connecting the opposite edge and the lens principal point 34 is a straight line B. These straight lines A and B are the lines A ′ and B ′ that are folded back so that the incident angle θ1 = reflection angle θ2 and the incident angle θ3 = reflection angle θ4 on the surface of the window glass (main body Wa). . In FIG. 11, the straight lines A and B and the straight lines A ′ and B ′ are folded so that the incident angle θ1 = reflection angle θ2 and the incident angle θ3 = reflection angle θ4 on the virtual glass surface extended from the surface of the main body Wa. ing.

撮像素子32は、一般的には撮像面が長方形であるため、この直線A,A’を撮像素子32の撮像面の縁に沿って一周させると、直線A,A’によって四角錐が形成される。なお、直線A,A’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。   Since the image pickup device 32 generally has a rectangular image pickup surface, when the straight lines A and A ′ are made to make a round along the edge of the image pickup surface of the image pickup device 32, a square pyramid is formed by the straight lines A and A ′. The Note that the quadrangular pyramid formed by the straight lines A and A ′ is folded back on the virtual glass surface and the surface of the main body Wa in FIG. 11.

又、直線B,B’を撮像素子32の撮像面の縁に沿って一周させると、直線B,B’によって四角錐が形成される。なお、直線B,B’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。   Further, when the straight lines B and B ′ are made to make a round along the edge of the imaging surface of the image sensor 32, a quadrangular pyramid is formed by the straight lines B and B ′. Note that the quadrangular pyramid formed by the straight lines B and B ′ is folded back on the virtual glass surface and the surface of the main body Wa in FIG. 11.

照明装置100は、これらの四角錐を全て遮るような配置及び形状としている。この条件下において、照明装置100のワークWに対する照明角度、ワークWとの距離は任意に設定されていてよい。この条件において、図12に示すように、カメラ視野に入った本体Waでは、照明装置100から投射された光が正反射されて撮像素子32により撮像されることになる。又、カメラ視野に入ったモールWbでは、図12に示すように照明装置100から投射された光が拡散反射されて撮像素子32により撮像されることになる。   The lighting device 100 is arranged and shaped so as to block all these quadrangular pyramids. Under this condition, the illumination angle of the illumination device 100 with respect to the workpiece W and the distance from the workpiece W may be set arbitrarily. Under this condition, as shown in FIG. 12, in the main body Wa that enters the camera field of view, the light projected from the illumination device 100 is regularly reflected and imaged by the image sensor 32. In addition, in the mall Wb entering the camera field of view, the light projected from the illumination device 100 is diffusely reflected and imaged by the image sensor 32 as shown in FIG.

なお、照明装置100はワークWから遠くになればなるほど大型化するため、なるべく、ロボットと干渉しない位置であって近い距離が望ましい。
又、本実施形態では、発光体102は、モールWbの表面色に対して補色関係にある色を発光するように設けられている。
Note that the illumination device 100 increases in size as the distance from the workpiece W increases. Therefore, it is desirable that the illumination device 100 be located at a position that does not interfere with the robot and is as close as possible.
In the present embodiment, the light emitter 102 is provided so as to emit light having a complementary color relationship with the surface color of the molding Wb.

補色は、色相環で、対向位置にある色同士のことをいい、ある色に対して、重ねると黒になる関係の色を言う。例えば、緑色の補色はマゼンタ色であり、両者が重ねられると黒色となる。   Complementary color is a hue circle that refers to colors that are in opposite positions, and is a color that has a relationship of becoming black when superimposed on a certain color. For example, the green complementary color is magenta, and when both are superimposed, it becomes black.

(参考例の作用)
さて、上記のように構成された2次元視覚装置40の作用を説明する。
前記説明した条件下で照明装置100によりワークWを照明すると、図12に示すように、カメラ視野内において、本体Waでは正反射し、モールWbでは拡散反射する。ここで、正反射した反射光の色は、光源色に支配されて、本体Waは光源色で撮像素子32により撮像される。一方、モールWbは、拡散反射するため、その反射光はモールWbの表面色に支配される。
(Operation of the reference example)
Now, the operation of the two-dimensional visual device 40 configured as described above will be described.
When the work W is illuminated by the illumination device 100 under the above-described conditions, as shown in FIG. 12, the main body Wa is regularly reflected and the mall Wb is diffusely reflected in the camera field of view. Here, the color of the reflected light that is specularly reflected is governed by the light source color, and the main body Wa is imaged by the image sensor 32 with the light source color. On the other hand, since the mall Wb is diffusely reflected, the reflected light is governed by the surface color of the mall Wb.

ところで、発光体102は、モールWbの表面色に対して補色関係にある色でモールWbに対して投射しているため、モールWbは黒く見えることになる。図13の例では、マゼンタ色のモールWbの場合、発光体102が補色である緑色を発光させて照明を当てると、モールWbはその緑色の光を吸収するため、黒く見えることになる。   By the way, since the light emitter 102 projects on the molding Wb with a color complementary to the surface color of the molding Wb, the molding Wb looks black. In the example of FIG. 13, in the case of a magenta mall Wb, if the light emitter 102 emits light of a complementary green color and illuminates it, the mall Wb absorbs the green light and thus appears black.

撮像素子32は、その黒色のモールWbを撮像する。
2次元視覚装置40は、カメラ30により、取得した画像に対して公知の画像処理を行い、カメラ視野に入った、光源色で撮像された領域(本体Waの領域、すなわち、明るい部分)と、黒色で撮像された領域(モールWbの領域、すなわち、暗い部分)との境界線を抽出する。この境界線の抽出により、該境界線で規定される本体Waの外形形状が得られる。
The image sensor 32 images the black molding Wb.
The two-dimensional visual device 40 performs known image processing on the acquired image by the camera 30 and enters the field of view of the light source color (region of the main body Wa, that is, a bright portion) that enters the camera field of view. A boundary line with the area captured in black (the area of the mall Wb, that is, a dark portion) is extracted. By extracting the boundary line, the outer shape of the main body Wa defined by the boundary line is obtained.

このワークWの本体Waの外形形状の取得により、2次元視覚装置40は、カメラ30は固定カメラであることから、カメラ座標系で予め設定された基準位置におけるワークWの外形形状と比較して、その基準位置との位置ずれ量を算出することが可能となる。   By acquiring the outer shape of the main body Wa of the workpiece W, the two-dimensional visual device 40 compares the outer shape of the workpiece W with the reference position set in advance in the camera coordinate system because the camera 30 is a fixed camera. Thus, it is possible to calculate the amount of positional deviation from the reference position.

本参考例において、発光体102は、モールWbの表面色とは補色関係の色を発光するようにしたが、モールWbが黒色の場合は、補色関係の色はないため、発光体102は、白色光を発光する様にしてもよい。   In this reference example, the illuminant 102 emits a color complementary to the surface color of the molding Wb. However, when the molding Wb is black, there is no complementary color, so You may make it light-emit white light.

図14は、黒色のモールWbの場合、発光体102が白色を発光させて照明を当てると、モールWbは白色の光を吸収するため、黒く見えることになる例を示している。
・ なお、前記参考例では、本体Waの全周部にモールWbを配置したが、モールの配置は全周部に限定するものではない。全周部にモールWbを配置していない場合、ワークWが載置されるワーク台の載置面とモールWbが配置されていない本体Waの部分との境界線(外形線)が識別できるように、前記載置面は拡散反射する面とすることが好ましい。
FIG. 14 shows an example in the case of a black mall Wb, when the light emitter 102 emits white light and illuminates it, the mall Wb absorbs white light and thus appears black.
In the above reference example, the molding Wb is arranged on the entire circumference of the main body Wa, but the arrangement of the molding is not limited to the whole circumference. When the molding Wb is not arranged on the entire circumference, a boundary line (outline) between the mounting surface of the work table on which the workpiece W is placed and the portion of the main body Wa on which the molding Wb is not arranged can be identified. In addition, the placement surface is preferably a surface that diffusely reflects.

・ 参考例では、発光体102自身が、モールWbの補色の関係の色を発光するようにしたが、拡散板103が補色関係の色のみを透過して拡散するようにしてもよく、拡散板103と発光体102との間に補色関係の色を透過させるフィルターを介在させるようにしてもよい。   In the reference example, the light emitter 102 itself emits the complementary color of the mall Wb. However, the diffusion plate 103 may transmit and diffuse only the complementary color. A filter that transmits a complementary color may be interposed between the light emitter 103 and the light emitter 102.

・ 前記参考例では、ワークWはウインドウガラスとしたが、ウインドウガラスに限定されるものではない。透明体を本体として、その本体の周囲に拡散反射部材が設ける構造のものであれば、限定されるものではない。例えば、ガラス戸、ガラス蓋等の形状認識装置として具体化できるものである。   In the reference example, the workpiece W is a window glass, but is not limited to the window glass. There is no limitation as long as the transparent body is a main body and a diffuse reflection member is provided around the main body. For example, it can be embodied as a shape recognition device such as a glass door or a glass lid.

なお、本発明の実施形態は前記各実施形態に限定されるものではなく、下記のように変更しても良い。
・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、機械式チャック装置に代えても良い。この場合、例えば、機械式チャック装置が互いに対向する指部材で、ワークを把持可能である場合、図2(b)に示すように、認識対象治具70の形状は、長手方向に延びる互いに反対側に位置する両側部に凹部72を設けるものとする。なお、凹部72の形状は、限定するものではない。この変形例の認識対象治具においても、特徴的部位としての端部には、突起71が設けられている。
In addition, embodiment of this invention is not limited to said each embodiment, You may change as follows.
In each of the embodiments, the hand tool 25 of the robot is a hand device with a vacuum suction pad, but may be replaced with a mechanical chuck device. In this case, for example, when the mechanical chuck device can grip the workpiece with the finger members facing each other, the shape of the recognition target jig 70 is opposite to each other extending in the longitudinal direction, as shown in FIG. The concave portions 72 are provided on both side portions located on the side. In addition, the shape of the recessed part 72 is not limited. Also in the recognition object jig of this modification, a protrusion 71 is provided at an end as a characteristic part.

・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、磁気によってワークを吸着する磁気吸着式チャック装置であってもよい。この場合、認識対象治具は、磁気吸着式チャック装置により磁気吸着可能な材質で形成するものとする。   In each of the embodiments described above, the hand tool 25 of the robot is a hand device with a vacuum suction pad, but may be a magnetic suction chuck device that sucks a workpiece by magnetism. In this case, the recognition target jig is formed of a material that can be magnetically attracted by a magnetic attraction chuck device.

・ 前記各実施形態では、ROM42をカメラ座標系とロボット座標系の結合のための画像処理プログラムを記憶する記憶媒体としたが、画像処理プログラムを記憶する記憶媒体は、ROM42に限定されるものではない。ROM42の代わりに、CPU41が書き込み、読み取り可能な外部記憶装置としてハードディスクに具体化したり、或いは、USBメモリ等の半導体記憶装置に具体化してもよい。   In each of the above embodiments, the ROM 42 is a storage medium that stores an image processing program for coupling the camera coordinate system and the robot coordinate system. However, the storage medium that stores the image processing program is not limited to the ROM 42. Absent. Instead of the ROM 42, the CPU 41 may be embodied as a hard disk as an external storage device that can be written and read, or may be embodied as a semiconductor storage device such as a USB memory.

・ 前記各実施形態のロボットは6軸ロボットに具体化したが、6軸ロボットに限定されるものではなく、7軸以上のロボット、或いは5軸未満のロボットであって、アーム先端部において、ツール軸の回転と、アームの先端部の直線移動が可能なロボットであってもよい。   -Although the robot of each said embodiment was materialized in the 6-axis robot, it is not limited to a 6-axis robot, It is a robot of 7 axes or more, or a robot of less than 5 axes, Comprising: A robot that can rotate the shaft and linearly move the tip of the arm may be used.

・ 前記各実施形態では、ロボット座標系を、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としたが、ユーザが任意位置に設定する座標系(ユーザ座標系)としてもよい。   In each of the above embodiments, the robot coordinate system is a coordinate system (base coordinate system) based on the pedestal (base) of the robot, but may be a coordinate system (user coordinate system) set by the user at an arbitrary position. .

・ 前記各実施形態では、S20では、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に平行に直線移動するようにしたが、ツール軸26をロボット座標系のY軸に平行に直線移動するようにしてもよい。この場合においても、ロボット座標系のY軸とカメラ座標系の傾きが得られるため、この傾きに基づいて、同様にしてカメラ座標系とロボット座標系の相対位置関係を算出することができる。   In each of the above embodiments, in S20, the tool axis 26 is parallel to the X axis of the robot coordinate system in a state where the tool axis 26 is positioned between the camera 30 and the work table 60 and is within the imaging range of the camera 30. The tool axis 26 may be linearly moved parallel to the Y axis of the robot coordinate system. Also in this case, since the tilt between the Y axis of the robot coordinate system and the camera coordinate system is obtained, the relative positional relationship between the camera coordinate system and the robot coordinate system can be calculated in the same manner based on this tilt.

・ 第1実施形態では、S10〜S18を実行した後に、S20〜S28を実行したが、S20〜S28を実行後、S10〜S18を実行してもよい。
・ 第2実施形態では、S10〜S18Aを実行した後に、S20A〜S28Aを実行したが、S20A〜S28Aを実行後、S10〜S18Aを実行してもよい。
-In 1st Embodiment, although S20-S28 was performed after performing S10-S18, you may perform S10-S18 after performing S20-S28.
In the second embodiment, S20A to S28A are executed after executing S10 to S18A. However, S10 to S18A may be executed after executing S20A to S28A.

・ 第2実施形態では、S20Aにおいて、ツール軸26をロボット座標系のX軸及びY軸に沿うようにそれぞれ同じ直線距離L分、直線移動するようにしたが、異なる直線距離L1,L2で移動するようにしてもよい。この場合、式(5)、式(6)、式(8)、式(10)、式(13)〜式(14)で使用したLの代わりに、L1,L2を使用するものとする。   In the second embodiment, in S20A, the tool axis 26 is linearly moved by the same linear distance L along the X axis and Y axis of the robot coordinate system, but is moved by different linear distances L1 and L2. You may make it do. In this case, L1 and L2 shall be used instead of L used in Formula (5), Formula (6), Formula (8), Formula (10), and Formula (13) to Formula (14).

次に、参考例から想起できる技術的思想を以下に記載する。
技術的思想(1)は、光源色を、拡散反射部材の表面色の補色関係の色とすることにより、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。
Next, technical ideas that can be recalled from the reference examples are described below.
Technical idea (1) is that, by setting the light source color to a color complementary to the surface color of the diffuse reflection member, in the image acquired by the image processing means, the image area where the diffuse reflection member is imaged is black, The image area where the specularly reflected light is obtained is white. For this reason, the shape recognition of the boundary between the main body and the diffuse reflection member in the workpiece can be accurately performed without being affected by the deformation of the diffuse reflection member other than the boundary.

(1) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、前記拡散反射部材の表面色と補色関係の色を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
(1) a camera for imaging a workpiece whose surface is specularly reflective and has a diffuse reflection member disposed on the periphery of a body made of a transparent material;
An illuminating unit that has a diffusing plate for diffusing light, and projects a color complementary to the surface color of the diffusive reflecting member to illuminate the workpiece as a surface light source by the diffusing plate;
The specular reflection in the image obtained by acquiring the specular reflection light projected from the illumination means and specularly reflected on the surface of the main body of the workpiece and the diffuse reflection light diffusely reflected by the diffuse reflection member with the camera. An apparatus for recognizing a workpiece shape, comprising image processing means for recognizing shapes of the main body and the diffuse reflection member based on a difference between a light source color of light and a surface color of the diffuse reflection member by the diffuse reflection light.

技術的思想(2)は、光源色を白色光とすることにより、拡散反射部材が黒色の場合、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。   Technical idea (2) is that the light source color is white light, and when the diffuse reflection member is black, the image area captured by the diffuse reflection member is black in the image acquired by the image processing means, and is regularly reflected. The image area where light is obtained is white. For this reason, the shape recognition of the boundary between the main body and the diffuse reflection member in the workpiece can be accurately performed without being affected by the deformation of the diffuse reflection member other than the boundary.

(2) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、白色光を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
(2) a camera for imaging a workpiece whose surface is specularly reflective and has a diffuse reflection member disposed on the periphery of a body made of a transparent material;
An illuminating means for diffusing light and projecting white light to illuminate the workpiece as a surface light source by the diffusing plate;
The specular reflection in the image obtained by acquiring the specular reflection light projected from the illumination means and specularly reflected on the surface of the main body of the workpiece and the diffuse reflection light diffusely reflected by the diffuse reflection member with the camera. An apparatus for recognizing a workpiece shape, comprising image processing means for recognizing shapes of the main body and the diffuse reflection member based on a difference between a light source color of light and a surface color of the diffuse reflection member by the diffuse reflection light.

技術的思想(3)によれば、ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールの場合のワークの形状認識を精度良く行うことができる。   According to the technical idea (3), the workpiece body is made of a transparent material such as glass or synthetic resin, and the workpiece shape can be accurately recognized when the diffuse reflection member is a molding.

(3) 前記ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールであることを特徴とする技術的思想(1)又は(2)に記載のワーク形状認識装置。   (3) The workpiece shape recognition apparatus according to the technical idea (1) or (2), wherein the main body of the workpiece is made of glass or synthetic resin, which is a transparent material, and the diffuse reflection member is a molding. .

10…ロボット制御装置、20…ロボット、25…ハンドツール、
26…ツール軸、30…カメラ(固定カメラ)、
40…2次元視覚装置(画像処理装置)、
41…CPU(第1算出手段、第2算出手段、第3算出手段)、
42…ROM(記憶媒体)、70…認識対象治具、71…突起(特徴部位)。
10 ... Robot controller, 20 ... Robot, 25 ... Hand tool,
26 ... Tool axis, 30 ... Camera (fixed camera),
40 ... 2D visual device (image processing device),
41... CPU (first calculation means, second calculation means, third calculation means),
42 ... ROM (storage medium), 70 ... recognition target jig, 71 ... projection (characteristic part).

Claims (9)

ロボットの先端にツール軸を介して設けられたハンドツールと、前記ハンドツールの作業を撮像する固定カメラを備えたロボット制御システムのカメラ座標系とロボット座標系の結合方法において、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラで取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1ステップと、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2ステップと、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3ステップを備えることを特徴とするロボット制御システムのカメラ座標系とロボット座標系の結合方法。   In a method of combining a camera coordinate system and a robot coordinate system of a robot control system having a hand tool provided at the tip of a robot via a tool axis and a fixed camera for imaging the work of the hand tool, Based on the frame difference obtained from the rotating moving image, obtained by obtaining a moving image of the recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) with a fixed camera. The first step of calculating a closed curve from the trajectory drawn by the characteristic part of the recognition target jig and calculating the center point of the closed curve in the camera coordinate system and the coordinate axis of the robot coordinate system, and the tool axis can intersect The recognition is carried out along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a simple coordinate plane. The hand tool holding the elephant jig is linearly moved, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and camera coordinates are obtained based on the linear moving moving image. A second step of calculating a tilt index parameter of the tilt measurement coordinate axis with respect to the system; and a third step of calculating a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the tilt index parameter. A combination method of a camera coordinate system and a robot coordinate system of a robot control system characterized by the above. 前記閉曲線が楕円であり、
第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。
The closed curve is an ellipse;
In the second step, the two coordinate axes of the robot coordinate system are used as tilt measurement coordinate axes,
The tilt index parameter is a vector based on coordinate values of a start point and an end point in a camera coordinate system when the hand tool is moved along the two tilt measurement coordinate axes, respectively. 2. A method for combining a camera coordinate system and a robot coordinate system of the robot control system according to 1.
前記閉曲線が円であり、
第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。
The closed curve is a circle;
In the second step, one coordinate axis of the robot coordinate system is set as a tilt measurement coordinate axis,
The gradient index parameter along said one tilt measurement axes, at the time of the hand tool is moved, the robot control according to claim 1, characterized in that the angle between the straight line trajectory and inclination measuring axes A method of combining the camera coordinate system of the system and the robot coordinate system.
前記認識対象治具の特徴部位が、前記認識対象治具の一端に設けられた突起であることを特徴とする請求項1乃至請求項3のうちいずれか1項に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。   The camera of the robot control system according to any one of claims 1 to 3, wherein the characteristic part of the recognition target jig is a protrusion provided at one end of the recognition target jig. Coupling method of coordinate system and robot coordinate system. ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置。
The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
An image processing apparatus comprising: third calculation means for calculating a relative positional relationship between a camera coordinate system and a robot coordinate system based on a center point of the closed curve and the tilt index parameter.
前記閉曲線が楕円であり、
第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づくベクトルを算出することを特徴とする請求項5に記載の画像処理装置。
The closed curve is an ellipse;
The second calculating means uses two coordinate axes of the robot coordinate system as tilt measurement coordinate axes, and the tilt coordinate parameter is obtained by moving the hand tool along the two tilt measurement coordinate axes as the tilt index parameter. The image processing apparatus according to claim 5, wherein a vector based on the coordinate values of the start point and the end point is calculated.
前記閉曲線が円であり、
第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする請求項5に記載の画像処理装置。
The closed curve is a circle;
The second calculation means uses one coordinate axis of the robot coordinate system as a tilt measurement coordinate axis,
As the gradient index parameter, along said one tilt measurement axes, at the time of the hand tool is moved, according to claim 5, characterized in that to calculate the angle between the straight line trajectory and inclination measuring axes image Processing equipment.
コンピュータを、
ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段
として機能させるプログラム。
Computer
The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
The third pulp program to function as a calculating means for calculating a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point and the gradient index parameter of the closed curve.
コンピュータを、
ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
Computer
The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
Third computer-readable storage medium storing a Help program to function as a calculating means for calculating a center point and the gradient index parameter relative positional relationship between the camera coordinate system and the robot coordinate system on the basis of the closed curve.
JP2011184953A 2010-09-06 2011-08-26 Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium Active JP5729219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184953A JP5729219B2 (en) 2010-09-06 2011-08-26 Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010199006 2010-09-06
JP2010199006 2010-09-06
JP2011184953A JP5729219B2 (en) 2010-09-06 2011-08-26 Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2012076216A JP2012076216A (en) 2012-04-19
JP5729219B2 true JP5729219B2 (en) 2015-06-03

Family

ID=46237043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184953A Active JP5729219B2 (en) 2010-09-06 2011-08-26 Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5729219B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107363823A (en) * 2017-06-21 2017-11-21 深圳市恒科通机器人有限公司 The coordinate scaling method of mechanical arm
CN107972026A (en) * 2016-10-25 2018-05-01 深圳光启合众科技有限公司 Robot, mechanical arm and its control method and device

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180720A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method
JP6005299B2 (en) * 2013-11-28 2016-10-12 三菱電機株式会社 Robot system and control method of robot system
CN107702653B (en) * 2017-11-13 2023-06-06 易思维(天津)科技有限公司 Robot gluing three-dimensional information visual detection device and method
JP7064884B2 (en) * 2018-01-05 2022-05-11 株式会社Fdkエンジニアリング Calibration method of parts assembly device
CN111015664B (en) * 2019-12-26 2023-05-30 重庆盟讯电子科技有限公司 Intelligent identification method based on CCD camera
CN114043528B (en) * 2021-11-25 2023-08-04 成都飞机工业(集团)有限责任公司 Robot positioning performance test method, system, equipment and medium
CN114227691B (en) * 2021-12-30 2023-11-28 中铭谷智能机器人(广东)有限公司 Intelligent paint spraying track safety detection method for automobile sheet metal robot
CN114545862B (en) * 2022-02-25 2024-05-03 浪潮电子信息产业股份有限公司 Clamp operation point position determining method, device, equipment and storage medium
CN114904798B (en) * 2022-05-16 2024-05-28 上海方酋机器人有限公司 Automatic coal gangue sorting method, system and medium based on image recognition
CN114800533B (en) * 2022-06-28 2022-09-02 诺伯特智能装备(山东)有限公司 Sorting control method and system for industrial robot
CN117641882B (en) * 2024-01-25 2024-04-02 合肥安迅精密技术有限公司 Real-time mounting error correction method and system based on machine vision

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104143B2 (en) * 1986-08-25 1995-11-13 マツダ株式会社 Article position detection method
JPS6472208A (en) * 1987-09-11 1989-03-17 Aisin Seiki Conversion system between robot coordinate and visual coordinate
JP3104448B2 (en) * 1992-12-25 2000-10-30 三菱電機株式会社 Setting method of coordinate system of robot with visual sensor
JPH07227784A (en) * 1994-02-15 1995-08-29 Daikin Ind Ltd Method and device for matching coordinates between vision device and industrial robot
JPH08118272A (en) * 1994-10-20 1996-05-14 Toyota Motor Corp Calibration of robot
JP2002307346A (en) * 2001-04-18 2002-10-23 Mitsubishi Electric Corp Method and device for calibrating visual coordinates of robot
JP4274558B2 (en) * 2004-09-15 2009-06-10 富士フイルム株式会社 Calibration method
JP5365379B2 (en) * 2009-07-06 2013-12-11 富士電機株式会社 Robot system and robot system calibration method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107972026A (en) * 2016-10-25 2018-05-01 深圳光启合众科技有限公司 Robot, mechanical arm and its control method and device
CN107363823A (en) * 2017-06-21 2017-11-21 深圳市恒科通机器人有限公司 The coordinate scaling method of mechanical arm

Also Published As

Publication number Publication date
JP2012076216A (en) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5729219B2 (en) Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium
CN110509300B (en) Steel hoop processing and feeding control system and control method based on three-dimensional visual guidance
US10899001B2 (en) Method for teaching an industrial robot to pick parts
TWI650626B (en) Robot processing method and system based on 3d image
JP5854815B2 (en) Information processing apparatus, information processing apparatus control method, and program
US9279661B2 (en) Information processing apparatus and information processing method
JP2022028672A (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP2018176334A (en) Information processing device, measurement device, system, interference determination method and article manufacturing method
CN105547153B (en) Plug-in element stitch vision positioning method and device based on binocular vision
CN107009358B (en) Single-camera-based robot disordered grabbing device and method
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP7064884B2 (en) Calibration method of parts assembly device
JPH0428518B2 (en)
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
US20150071491A1 (en) Method And Device For Optically Determining A Position And/Or Orientation Of An Object In Space
US20210192784A1 (en) Vision system for a robotic machine
US20150343640A1 (en) System and method for locating vehicle components relative to each other
US9107613B2 (en) Handheld scanning device
US20180222055A1 (en) Calibration article for a 3d vision robotic system
EP3411194A1 (en) Robot system calibration
JP2017100202A (en) Robot system, control device, control method, and program
CN113689509A (en) Binocular vision-based disordered grabbing method and system and storage medium
CN210589323U (en) Steel hoop processing feeding control system based on three-dimensional visual guidance
US11090812B2 (en) Inspection apparatus for optically inspecting an object, production facility equipped with the inspection apparatus, and method for optically inspecting the object using the inspection apparatus
TW201819126A (en) Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user&#39;s hand movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R150 Certificate of patent or registration of utility model

Ref document number: 5729219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250