JP5729219B2 - Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium - Google Patents
Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium Download PDFInfo
- Publication number
- JP5729219B2 JP5729219B2 JP2011184953A JP2011184953A JP5729219B2 JP 5729219 B2 JP5729219 B2 JP 5729219B2 JP 2011184953 A JP2011184953 A JP 2011184953A JP 2011184953 A JP2011184953 A JP 2011184953A JP 5729219 B2 JP5729219 B2 JP 5729219B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- robot
- axis
- camera
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体に関する。 The present invention relates to a method for combining a camera coordinate system and a robot coordinate system of a robot control system, an image processing apparatus, a program, and a storage medium.
従来のカメラ座標系とロボット座標系を結合するシステムについて、図16を参照して説明する。前記システムは、ハンドリングロボット、前記ハンドリングロボットを制御するロボット制御装置及びハンドリングロボットが把持するワークの位置を検出する2次元視覚装置を備える。図16に示すように、2次元視覚装置90は、カメラ110でワークWを撮像した撮像画像に基づいてワーク置台150上のワークWのワーク位置を認識し、前記ワークWの位置情報をハンドリングロボット120のロボット制御装置130へ伝達するようにされている。ロボット制御装置130は、前記ワークWの位置情報に基づいて、ハンドリングロボット120に対してそのロボットアーム先端に設けたハンドツール140がワークWの規定位置を把持するように制御する。
A conventional system that combines a camera coordinate system and a robot coordinate system will be described with reference to FIG. The system includes a handling robot, a robot control device that controls the handling robot, and a two-dimensional visual device that detects the position of a workpiece held by the handling robot. As shown in FIG. 16, the two-dimensional
このようなシステムは、一般に、図17に示すように、カメラ110のカメラ座標系(二次元)と、ロボット座標系(三次元)が異なるため、2次元視覚装置90からロボット制御装置130へ正しい指示を出すためには、何らかの方法により、両座標系の相対位置関係を調べて2つの座標系を結合する作業が必要である。図17は、カメラ座標系とロボット座標系を上方から下方に見た場合の一例である。
Such a system is generally correct from the two-dimensional
従来のカメラ座標系とロボット座標系の結合方法では、図18に示すように、まず、ハンドリングロボットのアーム先端に取り付けられているハンドツール(例えば、吸着器、グリッパ)を取り外し、専用治具160をツールの基準点に正確に位置決めして取り付ける。次に、ワーク置台150の複数の基準位置にも専用治具170をそれぞれ取り付ける。これらの基準位置のカメラ座標値は、予め調べておき、図示しないロボット制御装置に記憶させておく。ハンドリングロボット120を移動させて、専用治具160,170同士を正確にタッチさせ、このタッチした状態におけるロボット座標値が何であるかを図示しないロボット制御装置のディスプレイで確認する。このようなロボット座標値とカメラ座標値の対応点を数ヶ所で取得し、取得した各基準値におけるロボット座標値と、基準値のカメラ座標値とを使用してロボット制御装置で演算することにより、両座標系の相対関係を知ることができる(従来技術1)。なお、基準位置の取り方、及び演算の仕方については、従来から諸法ある。
In the conventional method of combining the camera coordinate system and the robot coordinate system, as shown in FIG. 18, first, a hand tool (for example, an adsorber or a gripper) attached to the arm tip of the handling robot is removed, and the
なお、本願出願時には特許文献1、2が公知である。
特許文献1では、ロボットアームの先端に視覚センサが取り付けられており、ロボットのハンドにて、治具を正確に把持した状態で、異なる2点にそれぞれ治具を置いた時の各点におけるロボット座標値を取得する等の作業を行うようにして、取得した座標値等により、カメラ座標系とロボット座標系との関係を得るようにしている(従来技術2)。
Note that Patent Documents 1 and 2 are known at the time of filing this application.
In Patent Document 1, a visual sensor is attached to the tip of a robot arm, and the robot at each point when the jig is placed at two different points while the jig is accurately grasped by the robot hand. By performing operations such as obtaining coordinate values, the relationship between the camera coordinate system and the robot coordinate system is obtained from the obtained coordinate values and the like (Prior Art 2).
特許文献2の実施例3で提案されている方法は、ロボットの把持装置に認識対象物を把持させ、この状態で、ロボット以外の位置に配置された視覚センサの撮像範囲内で、第1回目は認識対象物を移動後の位置を教示するようにしている。次の第2回目はX(+)方向に認識対象物を平行移動させた後の位置を教示し、第3回目は認識対象物を所定角度回転させた後、平行移動させ、平行移動後の位置を教示するようにしている(従来技術3)。 In the method proposed in Embodiment 3 of Patent Document 2, the robot grasping device grasps the recognition target object, and in this state, the first time is within the imaging range of the visual sensor arranged at a position other than the robot. Teaches the position after moving the recognition object. The second time teaches the position after the recognition object is translated in the X (+) direction, and the third time rotates the recognition object by a predetermined angle, translates it, and translates it. The position is taught (prior art 3).
特許文献3では、物品の位置検出方法において、テレビカメラを使用した位置検出した例が示されている。 Patent Document 3 shows an example of position detection using a television camera in the article position detection method.
従来技術1は、ハンドツールを一旦外さなければならず、又、専用治具を正確に取り付けなければならず、オペレータにスキルが必要となる問題がある。さらに、従来技術1では、ロボット側に取付けした専用治具をタッチするために、ワーク置台側に取付けする専用治具は少なくとも3カ所設ける必要があり、正確な両座標系の関係を得るための測定作業には通常10カ所以上設ける必要がある。このため、オペレータのスキルと手間が必要となるばかりか、専用治具によるタッチする場所も多いため、多くの演算処理が必要となる問題がある。 The prior art 1 has a problem that the hand tool must be removed once and a dedicated jig must be accurately attached, which requires skill for the operator. Furthermore, in the prior art 1, in order to touch the dedicated jig attached to the robot side, it is necessary to provide at least three dedicated jigs to be attached to the work table side in order to obtain an accurate relationship between both coordinate systems. It is usually necessary to provide 10 or more places for measurement work. For this reason, not only the skill and labor of the operator are required, but also there are many places where the dedicated jig is used for touching, and there is a problem that a lot of calculation processing is required.
従来技術2は、ロボットのハンドにて治具を正確に把持する必要があるとともに、異なる2点で前記治具の把持を解除する作業等を行うことから手間が掛かる問題がある。
従来技術3の実施例3では、ハンドリングロボットで把持した認識対象物を、移動する毎に教示作業が必要であり、手間が掛かる問題がある。
The prior art 2 has a problem that it is necessary to accurately grip the jig with the robot hand, and it takes time and effort to perform the operation of releasing the grip of the jig at two different points.
In the third embodiment of the prior art 3, there is a problem that a teaching work is required every time the recognition target object gripped by the handling robot is moved, which is troublesome.
本発明の目的は、上記課題を解決して、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができるカメラ座標系とロボット座標系の結合を得るカメラのカメラ座標系とロボットのロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体を提供することにある。 The object of the present invention is to solve the above-mentioned problems, and it is not necessary for the handling robot to grip the recognition target jig accurately, and it is possible to rotate and move linearly while holding the recognition target jig. By combining the camera coordinate system and the robot coordinate system, it is possible to easily obtain the tool axis center of the hand tool and the tilt of the robot coordinate system and the camera coordinate system by obtaining frame differences from the continuous images acquired when A camera coordinate system for a camera and a robot coordinate system for a robot, an image processing apparatus, a program, and a storage medium are provided.
上記問題点を解決するために、請求項1の発明は、ロボットの先端にツール軸を介して設けられたハンドツールと、前記ハンドツールの作業を撮像する固定カメラを備えたロボット制御システムのカメラ座標系とロボット座標系の結合方法において、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラで取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1ステップと、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2ステップと、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3ステップを備えることを特徴とするロボット制御システムのカメラ座標系とロボット座標系の結合方法を要旨としている。 In order to solve the above problems, the invention of claim 1 is a camera of a robot control system comprising a hand tool provided at the tip of a robot via a tool axis, and a fixed camera for imaging work of the hand tool. In a method of combining a coordinate system and a robot coordinate system, a hand tool is rotated around a tool axis at the tip of a robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is fixed camera. A first step of determining a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image and calculating a center point of the closed curve in a camera coordinate system; , A coordinate axis of the robot coordinate system, and at least one coordinate axis (hereinafter referred to as an inclination) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the recognition target jig is linearly moved along the measurement coordinate axis), and a moving image of the recognition target jig (hereinafter referred to as a linear movement moving image) is acquired by the fixed camera. A second step of calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the linear moving moving image; a camera coordinate system and a robot coordinate based on the center point of the closed curve and the inclination index parameter; The gist of the present invention is a method of combining a camera coordinate system and a robot coordinate system of a robot control system, comprising a third step of calculating a relative positional relationship between the systems.
なお、本明細書では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)と、ユーザが任意位置に設定する座標系(ユーザ座標系)の両者を含む趣旨である。いずれも直交座標系である。又、カメラ座標系は、カメラの撮像範囲内に展開される二次元の直交座標系である。 In this specification, the robot coordinate system includes both a coordinate system (base coordinate system) based on the base (base) of the robot and a coordinate system (user coordinate system) set by the user at an arbitrary position. It is. Both are orthogonal coordinate systems. The camera coordinate system is a two-dimensional orthogonal coordinate system developed within the imaging range of the camera.
請求項2の発明は、請求項1において、前記閉曲線が楕円であり、第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする。 According to a second aspect of the present invention, in the first aspect, the closed curve is an ellipse, and in the second step, the two coordinate axes of the robot coordinate system are set as inclination measurement coordinate axes, and the inclination index parameter is set to the two inclination measurement coordinate axes. A vector based on the coordinate values of the start point and the end point in the camera coordinate system when the hand tool is moved along the line.
請求項3の発明は、請求項1において、前記閉曲線が円であり、第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする。 According to a third aspect of the present invention, in the first aspect, the closed curve is a circle, and in the second step, one coordinate axis of the robot coordinate system is set as an inclination measurement coordinate axis, and the inclination index parameter is set to the one inclination measurement coordinate axis. along, at the time of the hand tool is moved, characterized in that the angle between the straight line trajectory and inclination measuring axes.
請求項4の発明は、請求項1乃至請求項3のうちいずれか1項において、前記認識対象治具の特徴部位が、前記認識対象治具の一端に設けられた突起であることを特徴とする。
請求項5の発明は、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置を要旨としている。
A fourth aspect of the present invention is characterized in that, in any one of the first to third aspects, the characteristic portion of the recognition target jig is a protrusion provided at one end of the recognition target jig. To do.
The invention of claim 5 rotates a hand tool around a tool axis at the tip of a robot, acquires a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) from a fixed camera, First calculation means for calculating a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotating moving image, and calculating a center point of the closed curve in a camera coordinate system; and robot coordinates The recognition target jig is held so as to be along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool is moved linearly, a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and based on the linear moving moving image, Second calculating means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the mela coordinate system; and a third position calculating a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter. The gist of the present invention is an image processing apparatus including a calculation unit.
請求項6の発明は、請求項5において、前記閉曲線が楕円であり、第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルを算出することを特徴とする。 The invention of claim 6 is the invention according to claim 5, wherein the closed curve is an ellipse, and the second calculation means uses two coordinate axes of the robot coordinate system as inclination measurement coordinate axes, and uses the two inclination measurement coordinate axes as the inclination index parameters. A vector based on the coordinate values of the start point and the end point in the camera coordinate system when the hand tool is moved along the line is calculated.
請求項7の発明は、請求項5において、前記閉曲線が円であり、第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする。
The invention according to
請求項8の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを要旨としている。 According to the invention of claim 8, the computer rotates the hand tool around the tool axis at the tip of the robot, and the moving image of the recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from the fixed camera. First calculating means for acquiring a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image, and calculating a center point of the closed curve in a camera coordinate system; The coordinate system of the recognition object is aligned along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. A hand tool holding a tool is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and the linear moving motion is acquired. Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the image; and a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter It is summarized as pulp program to function as a third calculation means for calculating a.
請求項9の発明は、コンピュータを、ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体を要旨としている。 According to the ninth aspect of the present invention, a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is rotated from a fixed camera by rotating a computer with a hand tool around a tool axis at the tip of a robot. First calculating means for acquiring a closed curve from a trajectory drawn by a characteristic part of the recognition target jig based on a frame difference obtained from the rotational moving image, and calculating a center point of the closed curve in a camera coordinate system; The coordinate system of the recognition object is aligned along at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. A hand tool holding a tool is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera, and the linear moving motion is acquired. Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis with respect to the camera coordinate system based on the image; and a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point of the closed curve and the inclination index parameter It is summarized as third computer readable storage medium storing a Help program to function as a calculating means for calculating.
本発明によれば、ハンドリングロボットに認識対象治具を把持する際に正確に把持させる必要が無く、又、認識対象治具を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)からフレーム差分をそれぞれ得ることにより、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。 According to the present invention, the handling robot does not need to be gripped accurately when gripping the recognition target jig, and the continuous obtained when the recognition target jig is gripped and rotated and linearly moved. By obtaining the frame differences from the images (moving images), the tool axis center of the hand tool and the inclinations of the robot coordinate system and the camera coordinate system can be easily obtained.
(第1実施形態)
以下、本発明のカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、並びに記憶媒体を具体化した第1実施形態を図1〜図7を参照して説明する。図1は、本実施形態のロボット制御システムの全体の概略を示している。ロボット制御システムはロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及び画像処理装置としての2次元視覚装置40を備えている。本実施形態のロボット制御システムは、パレット等のワーク台60上の図示しないワークに対する物体位置認識によって一つのワークの位置及び姿勢を認識し、ワーク台60上のワークを保持し、目標位置に運搬するためのシステムである。
(First embodiment)
Hereinafter, a first embodiment in which a camera coordinate system and robot coordinate system coupling method, image processing apparatus, program, and storage medium of the present invention are embodied will be described with reference to FIGS. FIG. 1 shows an outline of the entire robot control system of this embodiment. The robot control system includes a
ロボット20は、多関節型ロボットであって、ベース21上に、複数(本実施形態では6つ)の関節を介して連結された複数のアーム22を備えている。すなわち、本実施形態のロボット20は6軸ロボットで構成されている。前記各関節には、サーボモータ23と、各サーボモータ23の軸角度をそれぞれ検出するエンコーダ24(図3参照)を備えている。なお、図1では、複数のサーボーモータのうち、一部のサーボモータ23のみが図示されている。前記各関節は、アーム22の一端部を揺動可能として他端部を軸支する揺動関節と、アーム22自身をその長手方向を中心に回転可能に軸支する回転関節とのいずれかから構成されている。
The
又、各関節に連結された全アーム22の最先端部、すなわちロボット先端(以下、「アーム先端部」という)には、図1に示すように、関節としてのツール軸26を介してハンドツール25が設けられている。ハンドツール25は、前記各関節を介してアーム22の作動により任意の位置に位置決めすることにより任意の姿勢を取らせることが可能となっている。本実施形態のハンドツール25は、真空吸引力によってワークを吸着可能な真空吸着パッド27を備える。
Further, as shown in FIG. 1, a hand tool is provided at the foremost part of all the
ロボット制御装置10は、CPU、ROM、RAM(いずれも図示しない)を備えている。前記ROMには、ロボット20の動作制御を行う制御プログラムを含む各種のプログラムと図示しないワークの移動目的位置を示す動作データが格納されている。前記CPUは、前記ROMに格納された各種のプログラムを実行することにより、ロボット20をワーク搬送のために制御する。前記RAMは、前記CPUの処理により各種データを格納するワークエリアとなる。ロボット制御装置10は、ロボット20の教示点、その他の各種の設定を入力するための例えば教示データを入力するための可搬式の入力装置15を備えている。又、前記入力装置15に対するオペレータの操作により、手動によるロボット20の制御が可能である。又、ロボット制御装置10は、2次元視覚装置40からの解析結果及び動作指令を受信するための通信インターフェイス11を備える。
The
なお、図3では、説明の便宜上、ロボット20の各関節のサーボモータ23、及びエンコーダ24は代表的に1つのみ図示し、他のサーボモータ23及びエンコーダ24の図示を省略している。
In FIG. 3, for convenience of explanation, only one
カメラ30は、CCD、CMOS等の固体撮像デバイスを有するビデオカメラからなり、カメラ30から出力された画像信号に基づき所定のフレームレート(例えば、1秒間に30フレーム)での動画像の撮像が可能である。カメラ30はカラーカメラ或いはモノクロカメラのいずれでもよい。又、カメラ30は、図示しない支持手段により支持されてワーク台60上方に配置されており、ワーク台60上のワーク(図示しない)を保持して移動目的位置へ搬送する実作業時においてワーク台60のワーク載置面60aの全範囲を少なくとも含む範囲を撮像範囲としている。
The
2次元視覚装置40は、カメラ30から出力された画像信号に基づいて、撮像範囲内(撮像して画像取り込みが行われる撮像対象となる範囲)の画像に応じた画像データを生成する。すなわち、前記ビデオカメラより得られた画像信号は、2次元視覚装置40によりコンピュータでの処理が可能なRGBのカラー画像(或いはモノクロ画像)からなるフレーム画像に変換される。なお、撮影画像の解像度は、例えば水平方向画素数を640画素、垂直方向画素数を480画素としている。尚、フレームレート、変換される画像及び解像度は、上記の例に限定するものではない。
Based on the image signal output from the
2次元視覚装置40は、コンピュータからなり、CPU41、ROM42、RAM43、画像メモリ45、カメラインターフェイス44、モニタインターフェイス46、入力インターフェイス47及び通信インターフェイス48を備えている。CPU41と前記各部はバス49を介して入力出力が可能である。CPU41は、第1算出手段、第2算出手段、第3算出手段に相当する。
The two-dimensional
ROM42は、CPU41が実行するワークの姿勢位置検出の画像処理プログラム、カメラ座標系とロボット座標系の結合のための画像処理プログラム等を含む各種処理プログラムが格納されている。本実施形態では、ロボット座標系は、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としている。ROM42は、記憶媒体に相当する。RAM43は、CPU41の処理により各種データを格納するワークエリアである。カメラインターフェイス44は、カメラ30から出力された画像信号を入力する。画像メモリ45は、CPU41が、前記画像信号に基づいて処理して生成された各フレーム画像(画像データ)を格納する。2次元視覚装置40は、液晶表示装置等からなるディスプレイ50がモニタインターフェイス46を介して接続されている。ディスプレイ50は、モニタインターフェイス46を介して、CPU41による各種処理における所定の表示を行うとともに、画像メモリ45に格納された画像データを表示する。又、入力インターフェイス47は、CPU41による各種処理に必要な各種データの入力を行う入力装置51との接続を行う。通信インターフェイス48は、ロボット制御装置10の通信インターフェイス11との間で各種データの通信を行う。
The
2次元視覚装置40は、カメラ30でワークを撮像して得られた画像に基づいてワーク台60上のワーク(図示しない)のワーク位置を認識し、通信インターフェイス48,11を介して該ワークの位置情報をロボット制御装置10へ伝達する。ロボット制御装置10は、前記ワークの位置情報に基づいて、ロボット20に対してそのアーム先端部に設けたハンドツール25を前記ワークの規定位置で把持させ、目的位置に前記ワークを運搬するように制御する。
The two-dimensional
(第1実施形態の作用)
次に、本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
(Operation of the first embodiment)
Next, a procedure for combining the camera coordinate system of the
なお、本実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効である。
In this embodiment, the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the
<1.ロボットのハンドツールの中心座標>
図4(a)において、S10〜S18は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。
<1. Center coordinates of robot hand tool>
4A, S10 to S18 are flowcharts of how to obtain the center coordinates of the
なお、S10では、前記画像処理プログラムが実行される際に、ロボット制御装置10のCPU41により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S10, when the image processing program is executed, the
This operation control may be manually controlled by the operator through an input operation on the
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26を鉛直方向(すなわち、大地に対して垂直方向)に向けた姿勢で回転する。前記鉛直方向は、ロボット座標系のZ軸と平行な方向であり、ロボット座標系のX軸及びY軸とは直交する。ここで、ツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転することになる。この座標値は、ロボット座標系で各エンコーダ24からの信号及びロボット20のリンクパラメータに基づいてロボット制御装置10のCPUが算出し、ロボット制御装置10のRAMに格納される。
The
なお、認識対象治具70は、図2(a)に示すように全体が略平板状の長方形に形成されており、長手方向の一端部には、特徴部位としての突起71が同長手方向に延出するように形成されている。認識対象治具70の全体の形状は、長方形に限定するものではなく、平面視した場合、正方形、円形、楕円形等の形状でもよい。又、平板に限定されるものではなく、厚みを有するブロック状であってもよい。特徴部位は、カメラ30から見た場合に、認識対象治具70においてハンドツール25に隠れない部位に配置し、突起形状にするとフレーム差分処理で容易に検出することができる。
As shown in FIG. 2A, the
又、認識対象治具70の回転姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
Further, the rotational posture of the
又、S10では、上記のようにして回転中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートのフレーム画像が生成され、画像メモリ45に格納される。図5の(a)〜(d)は、S10の処理により取得されて画像メモリ45に格納されたフレーム画像1〜4を示している。前記フレーム画像は回転動画像に相当する。
In S <b> 10, the
S12では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。図5(e)は、前記フレーム画像1〜4のフレーム差分結果の画像データを示している。
In S12, the
S14では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点P1〜Prのカメラ座標系の座標値を取得する。なお、rは、フレーム画像のフレーム番号である。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点P1〜Prを割り出して行う。
In S <b> 14, the
S16では、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する共通の円弧を算出する。この円弧の算出は、実質的に閉曲線としての円を算出(割り出し)することと同義である。この円弧Eは、特徴点P1〜Prを含む円弧軌跡である(図5(f)参照)。 In S16, CPU41 calculates the common circular arc which passes each coordinate value based on the coordinate value of the feature points P1-Pr acquired by S14. The calculation of this arc is substantially the same as calculating (indexing) a circle as a closed curve. The arc E is an arc locus including the feature points P1 to Pr (see FIG. 5 (f)).
S18では、CPU41は、この得られた円弧の曲率中心、すなわち、割り出した円の中心の座標値(m,n)を算出し、RAM43に記憶する。この算出された円弧の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。
In
S10〜S18は、第1ステップに相当する。
<2.ロボット座標系の傾き>
図4(b)において、S20〜S28は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
S10 to S18 correspond to the first step.
<2. Robot coordinate system tilt>
In FIG. 4B, S20 to S28 are flowcharts of how to obtain the tilt of the robot coordinate system with respect to the camera coordinate system when the
なお、S20では、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S20, when the image processing program is executed, the
This operation control may be manually controlled by the operator through an input operation on the
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように直線移動する。
The
すなわち、本実施形態では、ロボット座標系において、前記ツール軸26と直交するロボット座標系を構成する2つの座標軸(X軸及びY軸)のうち、X軸(傾き計測座標軸)に対して、沿うように認識対象治具70をハンドツール25を移動させる。
That is, in the present embodiment, in the robot coordinate system, along the X axis (tilt measurement coordinate axis) of the two coordinate axes (X axis and Y axis) constituting the robot coordinate system orthogonal to the
このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
At this time, the posture of the
又、S20では、上記のようにして直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。図6の(a)は、S20の処理により取得されて画像メモリ45に格納された、初期位置のハンドツール25の動画像であるフレーム画像の1つを示している。図6(b)は、S20の処理により取得されて画像メモリ45に格納された、終期位置のハンドツール25の動画像であるフレーム画像の1つを示している。前記フレーム画像は直線移動動画像に相当する。図6(b)において、Q1は、前記初期位置の認識対象治具70の突起71の先端の位置を示している。Qsは、前記終期位置の認識対象治具70の突起71の先端の位置を示している。sはフレーム番号である。
In S <b> 20, the
S22では、CPU41は、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
S24では、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の特徴部位に関する複数の特徴点Q1〜Qsのカメラ座標系の座標値を取得する。この特徴点の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、特徴点Q1〜Qsを割り出して行う。
In S22, the
In S24, the
S26では、CPU41は、S24で取得した特徴点Q1〜Qsの座標値に基づいて各座標値を通過する直線を算出する。この直線は、特徴点Q1〜Qsの直線軌跡である。
S28では、CPU41は、この得られた直線Dは、ロボット座標系のX軸に平行な直線であるため、この直線Dとカメラ座標系のX軸との傾きαを算出し、RAM43に記憶する。なお、カメラ座標系のX軸は、図6(b)に示す水平方向画素数(640画素)、垂直方向画素数(480画素)からなる画像データにおいて、左上角を原点とした水平方向の軸である。又、カメラ座標系のY軸は、前記原点から下方へ垂直方向に延びる軸である。
In S26,
In S28, since the obtained straight line D is a straight line parallel to the X axis of the robot coordinate system, the
S20〜S28は、第2ステップに相当する。傾きαは、傾き指標パラメータに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18及びS28で取得されたツール軸26のカメラ座標系の円弧の中心の座標値(m,n)と、ロボット座標系のX軸とカメラ座標系のX軸の傾きαに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を行う。この算出は、第3ステップに相当する。
S20 to S28 correspond to the second step. The slope α corresponds to a slope index parameter.
<3. Calculation of relative positional relationship between camera coordinate system and robot coordinate system>.
Based on the coordinate value (m, n) of the center of the arc of the camera coordinate system of the
ここで、カメラ座標系とロボット座標の相対位置関係について説明する。
ロボット座標の原点OR(x0,y0)とツール軸の中心(円弧の中心)Tを結ぶ線分のカメラ座標系X軸との角度をθとすると、下記式(1)で求めることができる。なお、ツール軸26の中心Tのロボット座標値(p,q)は、CPU41は通信によりロボット制御装置10から取得し、RAM43に格納されている。
Here, the relative positional relationship between the camera coordinate system and the robot coordinates will be described.
If the angle between the origin OR (x0, y0) of the robot coordinates and the camera coordinate system X-axis connecting the center (arc center) T of the tool axis is θ, it can be obtained by the following equation (1). Note that the robot coordinate value (p, q) of the center T of the
θ=α+tan−1(q/p) ……(1)
線分OR−Tのロボット座標系での長さUは、
√(p2+q2) [mm]
である。
θ = α + tan−1 (q / p) (1)
The length U of the line OR-T in the robot coordinate system is
√ (p 2 + q 2 ) [mm]
It is.
カメラ座標系での1画素(ピクセル)当たりの実距離をμ[mm/pixel]とし、カメラ座標系での線分OR−Tの長さUは、
U= √(p2+q2)× 1/μ [pixel] ……(2)
である。ここで、μは距離係数である。
The actual distance per pixel (pixel) in the camera coordinate system is μ [mm / pixel], and the length U of the line segment OR-T in the camera coordinate system is
U = √ (p 2 + q 2 ) × 1 / μ [pixel] (2)
It is. Here, μ is a distance coefficient.
又、ロボット座標の原点のX座標値(x0)とmの差分、ロボット座標の原点のY座標値(y0)とnの差分は、それぞれOR−Tにsinθ,cosθを乗じたものであるから、パラメータm,n,p,q,αより、ロボット座標の原点ORのカメラ座標値(x0,y0)は、下式(3)、式(4)より得られる。 Also, the difference between the X coordinate value (x0) and m of the origin of the robot coordinates and the difference between the Y coordinate value (y0) and n of the origin of the robot coordinates are obtained by multiplying OR-T by sin θ and cos θ, respectively. From the parameters m, n, p, q and α, the camera coordinate value (x0, y0) of the origin OR of the robot coordinates is obtained from the following equations (3) and (4).
x0=m−√(p2+q2)× 1/μ ×cosθ ……(3)
y0=n−√(p2+q2)× 1/μ ×sinθ ……(4)
このため、CPU41は、式(3)、式(4)を使用して、ロボット座標の原点ORのカメラ座標値(x0,y0)を算出する。θの算出は式(1)を使用する。
x0 = m−√ (p 2 + q 2 ) × 1 / μ × cos θ (3)
y0 = n−√ (p 2 + q 2 ) × 1 / μ × sin θ (4)
For this reason, the
このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
In this way, the relative positional relationship between the camera coordinate system and the robot coordinate system is calculated, and the result is stored in a memory such as the
Thereafter, since the relative positional relationship between the camera coordinate system and the robot coordinate system has been obtained, the correct instruction reflecting this relative positional relationship is issued from the two-dimensional
本実施形態では、下記の特徴を有する。
(1) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出する。
This embodiment has the following features.
(1) In the first step, the camera coordinate system and the robot coordinate system of the robot control system according to this embodiment are coupled by rotating the
また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する。
Further, in the second step, with respect to the coordinate axis of the robot coordinate system and the X axis (tilt measurement coordinate axis) of one of the two coordinate axes constituting the coordinate plane (XY coordinate plane) where the
また、第3ステップでは、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。 In the third step, the camera coordinate system is determined based on the center point of the arc curve (closed curve) and the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system. The relative positional relationship of the robot coordinate system is calculated.
この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
As a result, when the robot 20 (handling robot) grips the
又、本実施形態の認識対象治具は、ハンドツール25で保持できる形状としているため、保持する際に厳密な位置決めを行う必要がない。又、厳密な位置決めなしで認識対象治具を把持した場合、認識対象治具の姿勢がバラつくが、保持された後の処理は、回転、直線移動のみであり、治具の端部に設けられた特徴部位に関する特徴点の取得を目的として動画像を得るだけであるため、前記バラつきを吸収することができる。
In addition, since the recognition target jig of the present embodiment has a shape that can be held by the
又、ハンドツール25を取り外していた従来例と異なり、ハンドツールを外す必要がない。そのため、カメラ座標系とロボット座標系の結合する作業は、ハンドツールの取り外し及び作業終了後の取付作業が必要でなく、短時間で行うことができる。因みに従来技術1での測定作業は、1時間ほどの作業時間が必要であったが、本方法では、5分程度の作業時間ですむ利点がある。又、上記の理由から製造ラインにおいて、この方法を適用した場合、カメラ交換等の際に発生するライン停止による多大な損失を最小限に抑えることができる。
Further, unlike the conventional example in which the
(2) 本実施形態では、フレーム差分を用いて動体、すなわち、認識対象治具70の特徴部位を検出する処理を行うため、認識対象治具の軌跡の自動的な検出が可能になり、カメラ座標系とロボット座標系の両座標系の関係を得るための測定作業を自動化できる。すなわち、オペレータに特別なスキルが必要でなく、誰でも容易に測定作業を行うことができる。
(2) In this embodiment, since the process of detecting the moving object, that is, the characteristic part of the
(3) 本実施形態のロボット制御システムのカメラ座標系とロボット座標系の結合方法では、第2ステップで割り出す閉曲線を円とするとともに、ロボット座標系のX軸を傾き計測座標軸とし、傾き指標パラメータを、X軸に沿ってハンドツール25をそれぞれ移動させた際の、直線軌跡とX軸(傾き計測座標軸)との角度としている。
(3) In the method of combining the camera coordinate system and the robot coordinate system of the robot control system of this embodiment, the closed curve calculated in the second step is a circle, the X axis of the robot coordinate system is the tilt measurement coordinate axis, and the tilt index parameter Is the angle between the linear trajectory and the X axis (inclination measurement coordinate axis) when the
この結果、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に、後述する第2実施形態よりも、カメラ座標系とロボット座標系の結合する作業を容易に行うことができる。
As a result, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the
(4) 本実施形態では、認識対象治具70の特徴部位は、一端に設けられた突起71としている。この結果、治具の端部に設けられた突起71(特徴部位)に関する特徴点の取得を目的として動画像を得るだけであるため、厳密な位置決めなしで認識対象治具を把持できる。
(4) In this embodiment, the characteristic part of the
(5) 本実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から円弧(すなわち、閉曲線)を割り出し、前記円弧曲線の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。
(5) The two-dimensional visual device 40 (image processing device) of the present embodiment rotates the
又、CPU41は、ロボット座標系の座標軸であって、ツール軸26と直交するロボット座標系を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能する。
Further, the
又、CPU41は、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能する。
The
この結果、上記(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
又、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
As a result, it is possible to provide the two-dimensional
Further, the coordinate value of the robot coordinate system at the position of the
(6) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像からフレーム差分を得て、該フレーム差分に基づく認識対象治具70の特徴部位が描いた軌跡から円弧(閉曲線)を割り出し、円弧曲線の中心点をカメラ座標系で算出する第1算出手段として機能させる。
(6) The image processing program for combining the camera coordinate system and the robot coordinate system according to the present embodiment is such that the
又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面(XY座標平面)を構成する2つの座標軸の一方のX軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の動画像(直線移動動画像)をカメラ30で取得し、直線移動動画像から得られたフレーム差分に基づいて認識対象治具70の突起71の直線軌跡を取得し、直線軌跡に基づいて、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)を算出する第2算出手段として機能させる。
In addition, the program causes the computer to operate with respect to one X axis (tilt measurement coordinate axis) of two coordinate axes that constitute a coordinate plane (XY coordinate plane) that is a coordinate axis of the robot coordinate system and that the
又、前記プログラムは、コンピュータを、円弧曲線(閉曲線)の中心点と、カメラ座標系のX軸に対するロボット座標系のX軸(傾き計測座標軸)の傾きα(傾き指標パラメータ)に基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させる。 Further, the program causes the computer coordinates based on the center point of the arc curve (closed curve) and the inclination α (inclination index parameter) of the X axis (inclination measurement coordinate axis) of the robot coordinate system with respect to the X axis of the camera coordinate system. It functions as a third calculating means for calculating the relative positional relationship between the system and the robot coordinate system.
この結果、上記(1)に記載の作用効果を奏することができるプログラムを提供できる。
(7) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、上記(6)に記載の画像処理プログラムを記憶する。
As a result, it is possible to provide a program that can achieve the effects described in (1) above.
(7) The
この結果、上記(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。
As a result, it is possible to provide a
(第2実施形態)
次に、第2実施形態を図8、図9を参照して説明する。なお、第2実施形態のロボット制御システムのハード構成は、第1実施形態と同一構成であるため、同一構成については、同一符号を付してその説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. Since the hardware configuration of the robot control system of the second embodiment is the same as that of the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.
なお、本実施形態において、CPU41は、第1算出手段、第2算出手段、及び第3算出手段に相当する。
第1実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行であるとともに、カメラ30から見たロボット座標系のX軸及びY軸が直交している場合に有効としている。それに対して、第2実施形態では、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、実機(ロボット)上において、ハンドツール25をロボット座標系のX軸及びY軸に沿ってそれぞれ移動させたときの軌跡が直交していない場合に有効である。なお、ここで前記両軌跡が直交しない理由は、ロボットを構成しているアームの連結構成に機械誤差があるためである。
In the present embodiment, the
In the first embodiment, the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are parallel to each other, and the X axis and the Y axis of the robot coordinate system viewed from the
本実施形態では、2次元視覚装置40のROM42に格納されている画像処理プログラムが第1実施形態の画像処理プログラムと異なっている。ROM42は、画像処理プログラムを記憶する記憶媒体に相当する。
In the present embodiment, the image processing program stored in the
(第2実施形態の作用)
本実施形態のロボット制御システムにおいて、カメラ30のカメラ座標系とロボット20のロボット座標系を結合する手順について説明する。
(Operation of Second Embodiment)
In the robot control system of this embodiment, a procedure for coupling the camera coordinate system of the
<1.ロボットのハンドツールの中心座標>
図8(a)は、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボットのハンドツール25の中心座標の求め方のフローチャートである。同フローチャートにおいて、S10〜S14は、第1実施形態と同様であるため、説明を省略するが、なお、S10では、第1実施形態で記述したようにツール軸26は、前記制御により、ロボット座標系のX座標値及びY座標値(p,q)で回転する。
<1. Center coordinates of robot hand tool>
FIG. 8A is a flowchart of how to obtain the center coordinates of the
S16Aでは、CPU41は、S14で取得した特徴点P1〜Prの座標値に基づいて各座標値を通過する軌跡から楕円弧(すなわち、閉曲線としての楕円を形成する円弧)を算出(割り出し)する。
In S16A, the
ここで、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではない場合、カメラ30で撮像した得られた認識対象治具70の特徴部位(突起71)の軌跡は、楕円を描くため、S16Aでは、この楕円弧を算出するようにしている。
Here, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are not parallel to each other, the trajectory of the characteristic part (projection 71) of the
S18Aでは、CPU41は、この得られた楕円弧の中心点(中心)、すなわち、割り出した楕円の中心点の座標値(m,n)を算出し、RAM43に記憶する。楕円の中心点の求め方は、例えば、楕円を割り出した場合、その長径の両端の各座標値をそれぞれ算出し、その両端の1/2の位置の座標を楕円の中心座標とする。なお、中心の求め方は前記方法に限定するものではない。
In S18A, the
この算出された楕円の中心の座標値(m,n)は、ツール軸26のカメラ座標系の座標値である。
S10〜S18Aは、第1ステップに相当する。
The calculated coordinate value (m, n) of the center of the ellipse is the coordinate value of the camera coordinate system of the
S10 to S18A correspond to the first step.
<2.ロボット座標系の傾き>
図8(b)において、S20A〜S28Aは、CPU41が、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際、ロボット座標系のカメラ座標系に対する傾きの求め方のフローチャートである。
<2. Robot coordinate system tilt>
In FIG. 8B, S20A to S28A are flowcharts of how to obtain the tilt of the robot coordinate system relative to the camera coordinate system when the
S20Aでは、前記画像処理プログラムが実行される際に、ロボット制御装置10により下記で説明するロボット20の作動制御が行われる。
この作動制御は、オペレータが入力装置15に対する入力操作により、手動制御されてもよく、或いは、カメラ座標系とロボット座標系の結合のための画像処理プログラムを実行する際に、ロボット制御装置10のROMに格納された自動制御プログラムに基づいて自動制御で行うようにしてもよい。
In S20A, when the image processing program is executed, the
This operation control may be manually controlled by the operator through an input operation on the
ロボット20は上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に沿うように、直線距離L分、直線移動する。この直線距離は予め設定された距離である。
The
この後、上記手動制御又は自動制御により、図2(a)に示す認識対象治具70を真空吸着パッド27にて吸着保持し、かつ、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のY軸に沿うように、直線距離L分、直線移動する。
Thereafter, the
すなわち、本実施形態では、ロボット座標系において、前記ツール軸26を交差可能な座標平面を構成する2つの座標軸、すなわち、X軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、それぞれ沿うように認識対象治具70、すなわちハンドツール25を移動させる。
That is, in this embodiment, in the robot coordinate system, with respect to two coordinate axes constituting a coordinate plane that can intersect the
このときの、認識対象治具70の姿勢は、正確に水平である必要はなく、傾いていてもよい。ハンドツール25による保持位置は、前述したように特徴部位がカメラ30から見た場合に、ハンドツール25に隠れないようにされていれば、任意の位置でよい。
At this time, the posture of the
又、S20Aでは、上記のようにしてX軸、並びに、Y軸に沿って直線移動中の認識対象治具70は、カメラ30により撮像されて、その画像信号は、2次元視覚装置40に入力される。2次元視覚装置40に入力された画像信号は、CPU41により、軸(X軸及びY軸)別に、時系列に従って所定のフレームレートでフレーム画像が生成されて、画像メモリ45に格納される。
In S20A, the
前記フレーム画像は直線移動動画像に相当する。
S22Aでは、CPU41は、軸(X軸及びY軸)毎に、時系列順に生成されたフレーム画像において、時間的に隣接するフレーム画像間のフレーム差分を抽出する。
The frame image corresponds to a linear moving moving image.
In S22A, the
S24Aでは、CPU41は、前記フレーム差分結果である画像データ(以下、フレーム差分画像という)中において、認識対象治具70の突起71(特徴部位)の各軸に沿って直線移動した際、それぞれの始点と終点のカメラ座標系の座標値を取得する。この突起71の座標値の取得は、フレーム差分画像を予め定められた閾値で2値化処理等の公知の画像処理を行い、始点及び終点を割り出して行う。
In S24A, when the
本実施形態では、これらのそれぞれの始点及び終点の座標値を、ベクトルとして扱う。
S20A〜S24Aは、第2ステップに相当する。
<3.カメラ座標系とロボット座標系の相対位置関係の算出>.
上記のようにS18Aで取得されたツール軸26のカメラ座標系の楕円弧の中心の座標値(m,n)と、S24Aで取得された始点及び終点の座標値に基づいた2つのベクトルに基づいて、CPU41は、カメラ座標系とロボット座標の相対位置関係の算出を、S28Aで行う。この算出は、第3ステップに相当する。
In the present embodiment, the coordinate values of these start points and end points are handled as vectors.
S20A to S24A correspond to the second step.
<3. Calculation of relative positional relationship between camera coordinate system and robot coordinate system>.
As described above, based on the two coordinate vectors (m, n) of the center of the elliptical arc of the camera coordinate system of the
まず、ロボット座標系原点のカメラ座標値(x0,y0)を求める。
具体的には、直線距離L(mm)移動したときの、X軸に沿った始点、終点を、
Us(x1,y1)、Ue(x2,y2)
とし、Y軸に沿った始点、終点を、
Vs(x3,y3)、Ve(x4,y4)
とする。
First, camera coordinate values (x 0 , y 0 ) at the origin of the robot coordinate system are obtained.
Specifically, when the linear distance L (mm) is moved, the start point and end point along the X axis are
U s (x 1 , y 1 ), U e (x 2 , y 2 )
And the start and end points along the Y axis,
V s (x 3 , y 3 ), V e (x 4 , y 4 )
And
ロボットのX軸に沿った長さ1mmの単位ベクトルは、 A unit vector of 1 mm in length along the X axis of the robot is
ロボットのX軸に沿った単位ベクトルは、カメラ座標系のX軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。ロボットのY軸に沿った単位ベクトルは、カメラ座標系のY軸(傾き計測座標軸)に対する傾き指標パラメータに相当する。 The unit vector along the X axis of the robot corresponds to a tilt index parameter with respect to the X axis (tilt measurement coordinate axis) of the camera coordinate system. A unit vector along the Y axis of the robot corresponds to a tilt index parameter with respect to the Y axis (tilt measurement coordinate axis) of the camera coordinate system.
図9(a)に示すロボット座標系原点ORからツール軸26の中心Tまでのベクトルを、2つの単位ベクトルの合成ベクトルとして表すと、以下のようになる。
The vector from the robot coordinate system origin O R to the center T of the
CPU41は、式(8)を解いて、ロボット座標原点のカメラ座標値(x0,y0)を求める。
次に、CPU41は、カメラ座標値からロボット座標値への変換式を求める。すなわち、カメラ座標系とロボット座標の相対位置関係の算出を行う。
CPU41 is solved equation (8), obtains the camera coordinate values of the robot coordinate origin (x 0, y 0).
Next, the
具体的には、上記のように取得したx0,y0、及び式(5)、式(6)で表される単位ベクトルを使用して、CPU41は、カメラ座標値をロボット座標値に変換する変換式を求める。
Specifically, the
図9(b)に示すカメラ座標値(x,y)の点Pをロボット座標系に変換した時の座標値を(X,Y)とすると、 If the coordinate value when the point P of the camera coordinate value (x, y) shown in FIG. 9B is converted into the robot coordinate system is (X, Y),
このようにしてカメラ座標系とロボット座標系の相対位置関係が算出されて、その結果がRAM43等のメモリに格納される。
以後、カメラ座標系とロボット座標系の相対位置関係が得られているため、実作業を行う際に、2次元視覚装置40からロボット制御装置10へこの相対位置関係が反映された正しい指示を出すことが可能となる。
In this way, the relative positional relationship between the camera coordinate system and the robot coordinate system is calculated, and the result is stored in a memory such as the
Thereafter, since the relative positional relationship between the camera coordinate system and the robot coordinate system has been obtained, the correct instruction reflecting this relative positional relationship is issued from the two-dimensional
第2実施形態では、第1実施形態の(2)、(4)の効果に加えて、下記の特徴がある。
(1) ロボット制御システムのカメラ座標系とロボット座標系の結合方法は、第1ステップでは、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)で取得し、前記回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)の楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧の中心点をカメラ座標系で算出する。
The second embodiment has the following features in addition to the effects (2) and (4) of the first embodiment.
(1) In the first step, the camera coordinate system and the robot coordinate system of the robot control system are coupled by rotating the
また、第2ステップでは、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する。
Further, in the second step, the coordinate axis of the robot coordinate system and the X axis (inclination measurement coordinate axis) and the Y axis (inclination measurement coordinate axis) constituting the coordinate plane on which the
また、第3ステップでは、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する。 In the third step, the center point of the elliptical arc (closed curve), the X-axis of the camera coordinate system, the X-axis (tilt measurement coordinate axis) of the robot coordinate system with respect to the Y-axis, the tilt index parameter for the Y-axis (tilt measurement coordinate axis), The relative positional relationship between the camera coordinate system and the robot coordinate system is calculated based on the vector.
この結果、ロボット20(ハンドリングロボット)に認識対象治具70を把持する際に正確に把持させる必要が無く、又、認識対象治具70を把持させた状態で、回転及び直線移動させたときに取得した連続画像(動画像)により、ハンドツール25のツール軸26中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。
As a result, when the robot 20 (handling robot) grips the
又、本実施形態によれば、ロボット座標系のXY座標平面と、カメラ座標系のXY座標平面とが互いに平行ではないとともに、ロボット座標系のX軸及びY軸とが直交していない場合においても、ハンドツールのツール軸中心と、ロボット座標系とカメラ座標系の傾きを簡単に得ることができる。 Further, according to the present embodiment, when the XY coordinate plane of the robot coordinate system and the XY coordinate plane of the camera coordinate system are not parallel to each other and the X and Y axes of the robot coordinate system are not orthogonal to each other. However, the tool axis center of the hand tool and the tilt of the robot coordinate system and the camera coordinate system can be easily obtained.
(2) 第2実施形態の2次元視覚装置40(画像処理装置)は、ハンドツール25をロボット先端のツール軸26の周りで回転させて、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(すなわち、閉曲線)を割り出し、前記楕円弧(楕円)の中心点をカメラ座標系で算出するCPU41(第1算出手段)を備える。
(2) The two-dimensional visual device 40 (image processing device) of the second embodiment rotates the
又、CPU41は、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能する。
Further, the
又、CPU41は、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能する。
Further, the
この結果、第2実施形態の(1)に記載の作用効果を奏することができる2次元視覚装置40を提供できる。
第2実施形態の2次元視覚装置40では、認識対象治具70を回転させるツール軸26の位置のロボット座標系の座標値を予めロボット制御装置のプログラムにセットして固定化するとともに、ロボット座標系のX軸、及びY軸に沿って移動するようにプログラムを組み込みすることにより、全ての演算が自動化できるため、オペレータは、画像処理装置(本実施形態では、2次元視覚装置40)を作動させながらロボットを決められた通りに動かすだけでよい。
As a result, it is possible to provide the two-dimensional
In the two-dimensional
(3) 本実施形態のカメラ座標系とロボット座標系の結合のための画像処理プログラムは、コンピュータを、ツール軸26を介してロボット20先端に設けられたハンドツール25がツール軸26の周りで回転する際の、ハンドツール25が保持する認識対象治具70の回転動画像をカメラ30(固定カメラ)から取得し、回転動画像から得られたフレーム差分に基づいて認識対象治具70の突起71(特徴部位)が描いた軌跡から楕円弧(閉曲線)を割り出し、楕円弧の中心点をカメラ座標系で算出する第1算出手段として機能させる。
(3) The image processing program for combining the camera coordinate system and the robot coordinate system according to the present embodiment is such that the
又、前記プログラムは、コンピュータを、ロボット座標系の座標軸であって、ツール軸26が交差可能な座標平面を構成するX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対して、沿うように認識対象治具70を保持したハンドツール25を直線移動させて、認識対象治具70の直線移動動画像をカメラ30(固定カメラ)で取得し、直線移動動画像に基づいて、カメラ座標系のX軸(傾き計測座標軸)及びY軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルを算出する第2算出手段として機能させる。
Further, the program runs the computer along the X axis (inclination measurement coordinate axis) and the Y axis (inclination measurement coordinate axis), which are coordinate axes of the robot coordinate system and constitute a coordinate plane on which the
又、前記プログラムは、コンピュータを、楕円弧(閉曲線)の中心点と、カメラ座標系のX軸,Y軸に対するロボット座標系のX軸(傾き計測座標軸)、Y軸(傾き計測座標軸)に対する傾き指標パラメータとなるベクトルに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出として機能させる。 In addition, the program causes the computer to set an inclination index for the center point of the elliptical arc (closed curve) and the X and Y axes of the robot coordinate system relative to the X and Y axes of the camera coordinate system, and the Y axis (inclination measurement coordinate axis). It is made to function as 3rd calculation which calculates the relative positional relationship of a camera coordinate system and a robot coordinate system based on the vector used as a parameter.
この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを提供できる。
(4) 本実施形態の記憶媒体としてのROM42は、コンピュータが読み取り可能であって、第2実施形態の(3)に記載の画像処理プログラムを記憶する。
As a result, it is possible to provide a program that can achieve the effects described in (1) of the second embodiment.
(4) The
この結果、第2実施形態の(1)に記載の作用効果を奏することができるプログラムを記憶したROM42を提供できる。すなわち、上記プログラムを記憶した記憶媒体をコンピュータに実装することにより、簡単にカメラ座標系とロボット座標系の関係を求めることが可能となる。
As a result, it is possible to provide a
(参考例)
次に、参考例を図10〜図14を参照して説明する。参考例は下記の問題を解消するためのものである。
(Reference example)
Next, a reference example will be described with reference to FIGS. The reference example is for solving the following problems.
ロボットにより部品をハンドリング等により取り扱う工程では、画像処理技術を利用してワークの位置・姿勢を検出することが行われている。この場合、前記画像処理技術では、ワーク外形の輪郭線を検出する手法が行われることが多い。 In the process of handling parts by handling or the like with a robot, the position / orientation of a workpiece is detected using image processing technology. In this case, in the image processing technique, a technique for detecting the outline of the workpiece outer shape is often performed.
透明なガラスだけで構成されたワーク(例えば、車両のフロントウインドウ、リヤウインドウ)の場合は、カメラの外形のエッジを検出するのが難しいため、エッジをうまく撮影するための様々な手法が考案されている(特許文献3参照)。 In the case of workpieces that consist only of transparent glass (for example, the front window and rear window of a vehicle), it is difficult to detect the edge of the camera's outer shape, so various methods have been devised to capture the edge well. (See Patent Document 3).
一方、ガラスとガラス以外のものと一体になっているウインドウ(例えばハメ殺しのクォータウインドウ)の場合は、ラバーや樹脂からなるモールが一体に形成されてエッジが形成されているため、ワークのエッジをカメラで検出することが容易であるが、下記の大きな問題がある。 On the other hand, in the case of a window that is integrated with glass and something other than glass (for example, a quarter window for killing a slug), the edge of the workpiece is formed because the molding made of rubber or resin is formed integrally. Is easy to detect with a camera, but has the following major problems.
すなわち、柔らかい樹脂やラバーで構成されたエッジの部分は、柔らかくて、変形しやすいため、保護のため箱などに収納されて運ばれる間にエッジが変形してしまうことが多い。この変形した状態のままカメラで検出しようとすると、エッジを誤った形状で認識し、別の種類のワークと誤認する問題がある。又、位置計測の場合は、誤差が発生する問題がある。 That is, the edge portion made of soft resin or rubber is soft and easily deformed, so that the edge is often deformed while being stored in a box or the like for protection. If an attempt is made to detect with the camera in this deformed state, there is a problem that the edge is recognized with an incorrect shape and misidentified as another type of workpiece. In the case of position measurement, there is a problem that an error occurs.
外形輪郭線を使わずにワークの位置・姿勢を計測する方法として、ワーク表面に成形、又は印刷したアライメントマークを検出する方法もある。しかし、このような細工を施すと、外観品質を損なうので、意匠面側をカメラに向けワークを置く設定の場合は、この手法は使えない。 As a method for measuring the position / orientation of a workpiece without using an outline, there is a method for detecting an alignment mark formed or printed on the workpiece surface. However, if such a work is performed, the appearance quality is impaired, so this method cannot be used in the case where the work surface is set to face the camera with the design surface side.
外形輪郭線を使わない別の案として、モールの内側の線(ガラスとモールの境界線)を検出する方法も考えられる。図15に示すようにモール200はガラス210との一体成形時に型で規制されるため精度がよく、接着されているので、変形もない。しかし、ガラス210の片面(反意匠面)側にはモールと同色のセラミックが見栄え向上のため塗布されており、透明なガラスを通してこのセラミックが見えるため、この部分を撮像して得られた画像は、黒く見えてしまい、このため、画像処理でガラスとモールの境界線を認識することが極めて難しい問題がある。
Another method that does not use the outline is to detect the inner line of the molding (the boundary between glass and molding). As shown in FIG. 15, the
さらに、上記例において内側のセラミックのエッジを検出する方法も考えられるが、セラミックは吹き付けで塗着されるため、位置精度が良くない上、ウインドウがプライバシーガラスのように着色されたガラスにより構成されている場合、セラミックのエッジが見づらくなり、画像処理によるエッジ検出は困難である問題がある。 Furthermore, in the above example, a method of detecting the edge of the inner ceramic is also conceivable, but since the ceramic is applied by spraying, the positional accuracy is not good, and the window is made of colored glass such as privacy glass. In this case, it is difficult to see the ceramic edge, and it is difficult to detect the edge by image processing.
このようにワークの位置・姿勢の計測で、一般的な用いられる外形輪郭線を利用する方法は、輪郭線が変形しやすいモールの場合には使用できず、精度が良く、変形もしないモールの場合においても画像認識処理によるエッジの識別が困難である問題がある。 In this way, the method of using the generally used outline contour for measuring the position and orientation of the workpiece cannot be used in the case of a mall where the outline is easily deformed. Even in this case, there is a problem that it is difficult to identify edges by image recognition processing.
上記の問題を解決するために、本参考例のロボット制御システムは、ロボット制御装置10及びハンドリングロボット(以下、単にロボットという)20、固定カメラとしてのカメラ30及びワーク形状認識装置としての2次元視覚装置40を備えている。これらのハード構成は、第1実施形態と同一構成については、図10に示すように同一符号を付してその説明を省略する。又、ロボット制御システムは、図10に示すように、ロボットが把持するワークを照明する照明手段としての照明装置100が設けられている。
In order to solve the above problem, the robot control system of the present reference example includes a
なお、本実施形態では、ワークWは、自動車のウインドウガラスであって、透明材質であるガラスからなる本体Waと、本体Waの全周部に配置されたモールWbとを有する。モールWbは、投射された光が拡散する拡散反射部材に相当する。モールWbは、ゴム又は合成樹脂により形成されている。図12に示すように、モールWbは、本体Waの周縁部に対して溝Wcにより嵌合されるとともに、本体Waの反意匠面側(図12において下面側)の一部にはモールWbと同色のセラミックWdが塗布されている。 In the present embodiment, the workpiece W is a window glass of an automobile, and includes a main body Wa made of glass that is a transparent material, and a molding Wb disposed on the entire periphery of the main body Wa. The molding Wb corresponds to a diffuse reflection member that diffuses the projected light. The molding Wb is made of rubber or synthetic resin. As shown in FIG. 12, the molding Wb is fitted into the peripheral edge of the main body Wa by the groove Wc, and the molding Wb and a part on the counter-design surface side (the lower surface side in FIG. 12) of the main body Wa are The same color ceramic Wd is applied.
照明装置100は、図11に示すように、有蓋四角箱状のケース101と、ケース101の内頂部に配置された複数の発光体102と、ケース101の底部開口を閉塞して配置された拡散板103とにより構成されている。発光体102は、本実施形態では、蛍光灯、LED(Light Emitting Diode)等により構成されている。なお、ケース101の箱形状は限定されるものではない。
As shown in FIG. 11, the
又、照明装置100と、図示しないテーブル上のワークWと、カメラ30との配置関係は、下記の関係にある。なお、カメラ30内には、CCD、或いはCMOS等からなる撮像素子32、及びレンズ33を備えている。
Further, the positional relationship among the
図11に示すように、カメラ30内部の撮像素子32の撮像エリアを規定する一方の線とレンズ主点34を結ぶ線を直線Aとし、反対の縁とレンズ主点34を結ぶ線を直線Bとし、これらの直線A,Bをウインドウガラス(本体Wa)の表面で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように折り返した線をそれぞれ直線A’,B’とする。図11では、本体Waの表面から延長した仮想ガラス面上で入射角θ1=反射角θ2、入射角θ3=反射角θ4となるように、直線A,Bと直線A’,B’が折り返されている。
As shown in FIG. 11, a line connecting one line defining the imaging area of the image sensor 32 inside the
撮像素子32は、一般的には撮像面が長方形であるため、この直線A,A’を撮像素子32の撮像面の縁に沿って一周させると、直線A,A’によって四角錐が形成される。なお、直線A,A’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。 Since the image pickup device 32 generally has a rectangular image pickup surface, when the straight lines A and A ′ are made to make a round along the edge of the image pickup surface of the image pickup device 32, a square pyramid is formed by the straight lines A and A ′. The Note that the quadrangular pyramid formed by the straight lines A and A ′ is folded back on the virtual glass surface and the surface of the main body Wa in FIG. 11.
又、直線B,B’を撮像素子32の撮像面の縁に沿って一周させると、直線B,B’によって四角錐が形成される。なお、直線B,B’によって形成される四角錐は、図11では、仮想ガラス面、並びに本体Waの表面において、折り返されたものとなる。 Further, when the straight lines B and B ′ are made to make a round along the edge of the imaging surface of the image sensor 32, a quadrangular pyramid is formed by the straight lines B and B ′. Note that the quadrangular pyramid formed by the straight lines B and B ′ is folded back on the virtual glass surface and the surface of the main body Wa in FIG. 11.
照明装置100は、これらの四角錐を全て遮るような配置及び形状としている。この条件下において、照明装置100のワークWに対する照明角度、ワークWとの距離は任意に設定されていてよい。この条件において、図12に示すように、カメラ視野に入った本体Waでは、照明装置100から投射された光が正反射されて撮像素子32により撮像されることになる。又、カメラ視野に入ったモールWbでは、図12に示すように照明装置100から投射された光が拡散反射されて撮像素子32により撮像されることになる。
The
なお、照明装置100はワークWから遠くになればなるほど大型化するため、なるべく、ロボットと干渉しない位置であって近い距離が望ましい。
又、本実施形態では、発光体102は、モールWbの表面色に対して補色関係にある色を発光するように設けられている。
Note that the
In the present embodiment, the
補色は、色相環で、対向位置にある色同士のことをいい、ある色に対して、重ねると黒になる関係の色を言う。例えば、緑色の補色はマゼンタ色であり、両者が重ねられると黒色となる。 Complementary color is a hue circle that refers to colors that are in opposite positions, and is a color that has a relationship of becoming black when superimposed on a certain color. For example, the green complementary color is magenta, and when both are superimposed, it becomes black.
(参考例の作用)
さて、上記のように構成された2次元視覚装置40の作用を説明する。
前記説明した条件下で照明装置100によりワークWを照明すると、図12に示すように、カメラ視野内において、本体Waでは正反射し、モールWbでは拡散反射する。ここで、正反射した反射光の色は、光源色に支配されて、本体Waは光源色で撮像素子32により撮像される。一方、モールWbは、拡散反射するため、その反射光はモールWbの表面色に支配される。
(Operation of the reference example)
Now, the operation of the two-dimensional
When the work W is illuminated by the
ところで、発光体102は、モールWbの表面色に対して補色関係にある色でモールWbに対して投射しているため、モールWbは黒く見えることになる。図13の例では、マゼンタ色のモールWbの場合、発光体102が補色である緑色を発光させて照明を当てると、モールWbはその緑色の光を吸収するため、黒く見えることになる。
By the way, since the
撮像素子32は、その黒色のモールWbを撮像する。
2次元視覚装置40は、カメラ30により、取得した画像に対して公知の画像処理を行い、カメラ視野に入った、光源色で撮像された領域(本体Waの領域、すなわち、明るい部分)と、黒色で撮像された領域(モールWbの領域、すなわち、暗い部分)との境界線を抽出する。この境界線の抽出により、該境界線で規定される本体Waの外形形状が得られる。
The image sensor 32 images the black molding Wb.
The two-dimensional
このワークWの本体Waの外形形状の取得により、2次元視覚装置40は、カメラ30は固定カメラであることから、カメラ座標系で予め設定された基準位置におけるワークWの外形形状と比較して、その基準位置との位置ずれ量を算出することが可能となる。
By acquiring the outer shape of the main body Wa of the workpiece W, the two-dimensional
本参考例において、発光体102は、モールWbの表面色とは補色関係の色を発光するようにしたが、モールWbが黒色の場合は、補色関係の色はないため、発光体102は、白色光を発光する様にしてもよい。
In this reference example, the
図14は、黒色のモールWbの場合、発光体102が白色を発光させて照明を当てると、モールWbは白色の光を吸収するため、黒く見えることになる例を示している。
・ なお、前記参考例では、本体Waの全周部にモールWbを配置したが、モールの配置は全周部に限定するものではない。全周部にモールWbを配置していない場合、ワークWが載置されるワーク台の載置面とモールWbが配置されていない本体Waの部分との境界線(外形線)が識別できるように、前記載置面は拡散反射する面とすることが好ましい。
FIG. 14 shows an example in the case of a black mall Wb, when the
In the above reference example, the molding Wb is arranged on the entire circumference of the main body Wa, but the arrangement of the molding is not limited to the whole circumference. When the molding Wb is not arranged on the entire circumference, a boundary line (outline) between the mounting surface of the work table on which the workpiece W is placed and the portion of the main body Wa on which the molding Wb is not arranged can be identified. In addition, the placement surface is preferably a surface that diffusely reflects.
・ 参考例では、発光体102自身が、モールWbの補色の関係の色を発光するようにしたが、拡散板103が補色関係の色のみを透過して拡散するようにしてもよく、拡散板103と発光体102との間に補色関係の色を透過させるフィルターを介在させるようにしてもよい。
In the reference example, the
・ 前記参考例では、ワークWはウインドウガラスとしたが、ウインドウガラスに限定されるものではない。透明体を本体として、その本体の周囲に拡散反射部材が設ける構造のものであれば、限定されるものではない。例えば、ガラス戸、ガラス蓋等の形状認識装置として具体化できるものである。 In the reference example, the workpiece W is a window glass, but is not limited to the window glass. There is no limitation as long as the transparent body is a main body and a diffuse reflection member is provided around the main body. For example, it can be embodied as a shape recognition device such as a glass door or a glass lid.
なお、本発明の実施形態は前記各実施形態に限定されるものではなく、下記のように変更しても良い。
・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、機械式チャック装置に代えても良い。この場合、例えば、機械式チャック装置が互いに対向する指部材で、ワークを把持可能である場合、図2(b)に示すように、認識対象治具70の形状は、長手方向に延びる互いに反対側に位置する両側部に凹部72を設けるものとする。なお、凹部72の形状は、限定するものではない。この変形例の認識対象治具においても、特徴的部位としての端部には、突起71が設けられている。
In addition, embodiment of this invention is not limited to said each embodiment, You may change as follows.
In each of the embodiments, the
・ 前記各実施形態では、ロボットのハンドツール25は、真空吸着パッド付きのハンド装置としたが、磁気によってワークを吸着する磁気吸着式チャック装置であってもよい。この場合、認識対象治具は、磁気吸着式チャック装置により磁気吸着可能な材質で形成するものとする。
In each of the embodiments described above, the
・ 前記各実施形態では、ROM42をカメラ座標系とロボット座標系の結合のための画像処理プログラムを記憶する記憶媒体としたが、画像処理プログラムを記憶する記憶媒体は、ROM42に限定されるものではない。ROM42の代わりに、CPU41が書き込み、読み取り可能な外部記憶装置としてハードディスクに具体化したり、或いは、USBメモリ等の半導体記憶装置に具体化してもよい。
In each of the above embodiments, the
・ 前記各実施形態のロボットは6軸ロボットに具体化したが、6軸ロボットに限定されるものではなく、7軸以上のロボット、或いは5軸未満のロボットであって、アーム先端部において、ツール軸の回転と、アームの先端部の直線移動が可能なロボットであってもよい。 -Although the robot of each said embodiment was materialized in the 6-axis robot, it is not limited to a 6-axis robot, It is a robot of 7 axes or more, or a robot of less than 5 axes, Comprising: A robot that can rotate the shaft and linearly move the tip of the arm may be used.
・ 前記各実施形態では、ロボット座標系を、ロボットの台座(ベース)を基準にした座標系(ベース座標系)としたが、ユーザが任意位置に設定する座標系(ユーザ座標系)としてもよい。 In each of the above embodiments, the robot coordinate system is a coordinate system (base coordinate system) based on the pedestal (base) of the robot, but may be a coordinate system (user coordinate system) set by the user at an arbitrary position. .
・ 前記各実施形態では、S20では、カメラ30とワーク台60間の位置であってカメラ30の撮像範囲内に入るように位置した状態で、ツール軸26をロボット座標系のX軸に平行に直線移動するようにしたが、ツール軸26をロボット座標系のY軸に平行に直線移動するようにしてもよい。この場合においても、ロボット座標系のY軸とカメラ座標系の傾きが得られるため、この傾きに基づいて、同様にしてカメラ座標系とロボット座標系の相対位置関係を算出することができる。
In each of the above embodiments, in S20, the
・ 第1実施形態では、S10〜S18を実行した後に、S20〜S28を実行したが、S20〜S28を実行後、S10〜S18を実行してもよい。
・ 第2実施形態では、S10〜S18Aを実行した後に、S20A〜S28Aを実行したが、S20A〜S28Aを実行後、S10〜S18Aを実行してもよい。
-In 1st Embodiment, although S20-S28 was performed after performing S10-S18, you may perform S10-S18 after performing S20-S28.
In the second embodiment, S20A to S28A are executed after executing S10 to S18A. However, S10 to S18A may be executed after executing S20A to S28A.
・ 第2実施形態では、S20Aにおいて、ツール軸26をロボット座標系のX軸及びY軸に沿うようにそれぞれ同じ直線距離L分、直線移動するようにしたが、異なる直線距離L1,L2で移動するようにしてもよい。この場合、式(5)、式(6)、式(8)、式(10)、式(13)〜式(14)で使用したLの代わりに、L1,L2を使用するものとする。
In the second embodiment, in S20A, the
次に、参考例から想起できる技術的思想を以下に記載する。
技術的思想(1)は、光源色を、拡散反射部材の表面色の補色関係の色とすることにより、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。
Next, technical ideas that can be recalled from the reference examples are described below.
Technical idea (1) is that, by setting the light source color to a color complementary to the surface color of the diffuse reflection member, in the image acquired by the image processing means, the image area where the diffuse reflection member is imaged is black, The image area where the specularly reflected light is obtained is white. For this reason, the shape recognition of the boundary between the main body and the diffuse reflection member in the workpiece can be accurately performed without being affected by the deformation of the diffuse reflection member other than the boundary.
(1) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、前記拡散反射部材の表面色と補色関係の色を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
(1) a camera for imaging a workpiece whose surface is specularly reflective and has a diffuse reflection member disposed on the periphery of a body made of a transparent material;
An illuminating unit that has a diffusing plate for diffusing light, and projects a color complementary to the surface color of the diffusive reflecting member to illuminate the workpiece as a surface light source by the diffusing plate;
The specular reflection in the image obtained by acquiring the specular reflection light projected from the illumination means and specularly reflected on the surface of the main body of the workpiece and the diffuse reflection light diffusely reflected by the diffuse reflection member with the camera. An apparatus for recognizing a workpiece shape, comprising image processing means for recognizing shapes of the main body and the diffuse reflection member based on a difference between a light source color of light and a surface color of the diffuse reflection member by the diffuse reflection light.
技術的思想(2)は、光源色を白色光とすることにより、拡散反射部材が黒色の場合、画像処理手段が取得する画像において、拡散反射部材が撮像された画像領域は黒色となり、正反射光が得られた画像領域は白色となる。このため、ワークにおける本体と拡散反射部材間における境界の形状認識は、前記境界以外の拡散反射部材の変形の影響を受けず精度良く行うことができる。 Technical idea (2) is that the light source color is white light, and when the diffuse reflection member is black, the image area captured by the diffuse reflection member is black in the image acquired by the image processing means, and is regularly reflected. The image area where light is obtained is white. For this reason, the shape recognition of the boundary between the main body and the diffuse reflection member in the workpiece can be accurately performed without being affected by the deformation of the diffuse reflection member other than the boundary.
(2) 表面が正反射可能であるとともに透明材質からなる本体の周部に拡散反射部材が配置されたワークを撮像するカメラと、
光を拡散する拡散板を有するとともに、白色光を投射して前記拡散板により面光源として前記ワークに対して照明する照明手段と、
前記照明手段から投射されて前記ワークの本体の表面で正反射した正反射光、及び前記拡散反射部材で拡散反射した拡散反射光を、前記カメラで取得して得られた画像中の前記正反射光の光源色と前記拡散反射光による拡散反射部材の表面色の違いに基づいて前記本体及び拡散反射部材の形状認識を行う画像処理手段を備えることを特徴とするワーク形状認識装置。
(2) a camera for imaging a workpiece whose surface is specularly reflective and has a diffuse reflection member disposed on the periphery of a body made of a transparent material;
An illuminating means for diffusing light and projecting white light to illuminate the workpiece as a surface light source by the diffusing plate;
The specular reflection in the image obtained by acquiring the specular reflection light projected from the illumination means and specularly reflected on the surface of the main body of the workpiece and the diffuse reflection light diffusely reflected by the diffuse reflection member with the camera. An apparatus for recognizing a workpiece shape, comprising image processing means for recognizing shapes of the main body and the diffuse reflection member based on a difference between a light source color of light and a surface color of the diffuse reflection member by the diffuse reflection light.
技術的思想(3)によれば、ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールの場合のワークの形状認識を精度良く行うことができる。 According to the technical idea (3), the workpiece body is made of a transparent material such as glass or synthetic resin, and the workpiece shape can be accurately recognized when the diffuse reflection member is a molding.
(3) 前記ワークの本体が、透明材質であるガラス又は合成樹脂からなり、前記拡散反射部材がモールであることを特徴とする技術的思想(1)又は(2)に記載のワーク形状認識装置。 (3) The workpiece shape recognition apparatus according to the technical idea (1) or (2), wherein the main body of the workpiece is made of glass or synthetic resin, which is a transparent material, and the diffuse reflection member is a molding. .
10…ロボット制御装置、20…ロボット、25…ハンドツール、
26…ツール軸、30…カメラ(固定カメラ)、
40…2次元視覚装置(画像処理装置)、
41…CPU(第1算出手段、第2算出手段、第3算出手段)、
42…ROM(記憶媒体)、70…認識対象治具、71…突起(特徴部位)。
10 ... Robot controller, 20 ... Robot, 25 ... Hand tool,
26 ... Tool axis, 30 ... Camera (fixed camera),
40 ... 2D visual device (image processing device),
41... CPU (first calculation means, second calculation means, third calculation means),
42 ... ROM (storage medium), 70 ... recognition target jig, 71 ... projection (characteristic part).
Claims (9)
第2ステップでは、ロボット座標系の2つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータは、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づいたベクトルであることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。 The closed curve is an ellipse;
In the second step, the two coordinate axes of the robot coordinate system are used as tilt measurement coordinate axes,
The tilt index parameter is a vector based on coordinate values of a start point and an end point in a camera coordinate system when the hand tool is moved along the two tilt measurement coordinate axes, respectively. 2. A method for combining a camera coordinate system and a robot coordinate system of the robot control system according to 1.
第2ステップでは、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータは、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度であることを特徴とする請求項1に記載のロボット制御システムのカメラ座標系とロボット座標系の結合方法。 The closed curve is a circle;
In the second step, one coordinate axis of the robot coordinate system is set as a tilt measurement coordinate axis,
The gradient index parameter along said one tilt measurement axes, at the time of the hand tool is moved, the robot control according to claim 1, characterized in that the angle between the straight line trajectory and inclination measuring axes A method of combining the camera coordinate system of the system and the robot coordinate system.
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段を備えることを特徴とする画像処理装置。 The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
An image processing apparatus comprising: third calculation means for calculating a relative positional relationship between a camera coordinate system and a robot coordinate system based on a center point of the closed curve and the tilt index parameter.
第2算出手段は、ロボット座標系の2つの座標軸を傾き計測座標軸とし、前記傾き指標パラメータとして、前記2つの傾き計測座標軸に沿って、ハンドツールをそれぞれ移動させた際の、カメラ座標系での始点及び終点の座標値に基づくベクトルを算出することを特徴とする請求項5に記載の画像処理装置。 The closed curve is an ellipse;
The second calculating means uses two coordinate axes of the robot coordinate system as tilt measurement coordinate axes, and the tilt coordinate parameter is obtained by moving the hand tool along the two tilt measurement coordinate axes as the tilt index parameter. The image processing apparatus according to claim 5, wherein a vector based on the coordinate values of the start point and the end point is calculated.
第2算出手段は、ロボット座標系の1つの座標軸を傾き計測座標軸とし、
前記傾き指標パラメータとして、前記1つの傾き計測座標軸に沿って、ハンドツールを移動させた際の、直線軌跡と傾き計測座標軸との角度を算出することを特徴とする請求項5に記載の画像処理装置。 The closed curve is a circle;
The second calculation means uses one coordinate axis of the robot coordinate system as a tilt measurement coordinate axis,
As the gradient index parameter, along said one tilt measurement axes, at the time of the hand tool is moved, according to claim 5, characterized in that to calculate the angle between the straight line trajectory and inclination measuring axes image Processing equipment.
ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段
として機能させるプログラム。 Computer
The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
The third pulp program to function as a calculating means for calculating a relative positional relationship between the camera coordinate system and the robot coordinate system based on the center point and the gradient index parameter of the closed curve.
ハンドツールをロボット先端のツール軸の周りで回転させて、前記ハンドツールが保持する認識対象治具の動画像(以下、回転動画像という)を固定カメラから取得し、前記回転動画像から得られたフレーム差分に基づいて前記認識対象治具の特徴部位が描いた軌跡から閉曲線を割り出し、前記閉曲線の中心点をカメラ座標系で算出する第1算出手段と、
ロボット座標系の座標軸であって、前記ツール軸が交差可能な座標平面を構成する2つの座標軸のうち少なくとも一方の座標軸(以下、傾き計測座標軸という)に対して、沿うように前記認識対象治具を保持したハンドツールを直線移動させて、前記認識対象治具の動画像(以下、直線移動動画像という)を前記固定カメラで取得し、前記直線移動動画像に基づいて、カメラ座標系に対する前記傾き計測座標軸の傾き指標パラメータを算出する第2算出手段と、
前記閉曲線の中心点と前記傾き指標パラメータに基づいてカメラ座標系とロボット座標系の相対位置関係を算出する第3算出手段として機能させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体。 Computer
The hand tool is rotated around the tool axis at the tip of the robot, and a moving image of a recognition target jig held by the hand tool (hereinafter referred to as a rotating moving image) is obtained from a fixed camera and obtained from the rotating moving image. Calculating a closed curve from a trajectory drawn by the characteristic part of the recognition target jig based on the frame difference, and calculating a center point of the closed curve in a camera coordinate system;
The recognition target jig so as to be along a coordinate axis of a robot coordinate system and at least one coordinate axis (hereinafter referred to as an inclination measurement coordinate axis) of two coordinate axes constituting a coordinate plane that can intersect the tool axis. The hand tool holding the image is moved linearly, and a moving image of the recognition target jig (hereinafter referred to as a linear moving moving image) is acquired by the fixed camera. Based on the linear moving moving image, Second calculation means for calculating an inclination index parameter of the inclination measurement coordinate axis;
Third computer-readable storage medium storing a Help program to function as a calculating means for calculating a center point and the gradient index parameter relative positional relationship between the camera coordinate system and the robot coordinate system on the basis of the closed curve.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011184953A JP5729219B2 (en) | 2010-09-06 | 2011-08-26 | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010199006 | 2010-09-06 | ||
JP2010199006 | 2010-09-06 | ||
JP2011184953A JP5729219B2 (en) | 2010-09-06 | 2011-08-26 | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012076216A JP2012076216A (en) | 2012-04-19 |
JP5729219B2 true JP5729219B2 (en) | 2015-06-03 |
Family
ID=46237043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011184953A Active JP5729219B2 (en) | 2010-09-06 | 2011-08-26 | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5729219B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107363823A (en) * | 2017-06-21 | 2017-11-21 | 深圳市恒科通机器人有限公司 | The coordinate scaling method of mechanical arm |
CN107972026A (en) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | Robot, mechanical arm and its control method and device |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014180720A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and calibration method |
JP6005299B2 (en) * | 2013-11-28 | 2016-10-12 | 三菱電機株式会社 | Robot system and control method of robot system |
CN107702653B (en) * | 2017-11-13 | 2023-06-06 | 易思维(天津)科技有限公司 | Robot gluing three-dimensional information visual detection device and method |
JP7064884B2 (en) * | 2018-01-05 | 2022-05-11 | 株式会社Fdkエンジニアリング | Calibration method of parts assembly device |
CN111015664B (en) * | 2019-12-26 | 2023-05-30 | 重庆盟讯电子科技有限公司 | Intelligent identification method based on CCD camera |
CN114043528B (en) * | 2021-11-25 | 2023-08-04 | 成都飞机工业(集团)有限责任公司 | Robot positioning performance test method, system, equipment and medium |
CN114227691B (en) * | 2021-12-30 | 2023-11-28 | 中铭谷智能机器人(广东)有限公司 | Intelligent paint spraying track safety detection method for automobile sheet metal robot |
CN114545862B (en) * | 2022-02-25 | 2024-05-03 | 浪潮电子信息产业股份有限公司 | Clamp operation point position determining method, device, equipment and storage medium |
CN114904798B (en) * | 2022-05-16 | 2024-05-28 | 上海方酋机器人有限公司 | Automatic coal gangue sorting method, system and medium based on image recognition |
CN114800533B (en) * | 2022-06-28 | 2022-09-02 | 诺伯特智能装备(山东)有限公司 | Sorting control method and system for industrial robot |
CN117641882B (en) * | 2024-01-25 | 2024-04-02 | 合肥安迅精密技术有限公司 | Real-time mounting error correction method and system based on machine vision |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104143B2 (en) * | 1986-08-25 | 1995-11-13 | マツダ株式会社 | Article position detection method |
JPS6472208A (en) * | 1987-09-11 | 1989-03-17 | Aisin Seiki | Conversion system between robot coordinate and visual coordinate |
JP3104448B2 (en) * | 1992-12-25 | 2000-10-30 | 三菱電機株式会社 | Setting method of coordinate system of robot with visual sensor |
JPH07227784A (en) * | 1994-02-15 | 1995-08-29 | Daikin Ind Ltd | Method and device for matching coordinates between vision device and industrial robot |
JPH08118272A (en) * | 1994-10-20 | 1996-05-14 | Toyota Motor Corp | Calibration of robot |
JP2002307346A (en) * | 2001-04-18 | 2002-10-23 | Mitsubishi Electric Corp | Method and device for calibrating visual coordinates of robot |
JP4274558B2 (en) * | 2004-09-15 | 2009-06-10 | 富士フイルム株式会社 | Calibration method |
JP5365379B2 (en) * | 2009-07-06 | 2013-12-11 | 富士電機株式会社 | Robot system and robot system calibration method |
-
2011
- 2011-08-26 JP JP2011184953A patent/JP5729219B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107972026A (en) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | Robot, mechanical arm and its control method and device |
CN107363823A (en) * | 2017-06-21 | 2017-11-21 | 深圳市恒科通机器人有限公司 | The coordinate scaling method of mechanical arm |
Also Published As
Publication number | Publication date |
---|---|
JP2012076216A (en) | 2012-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5729219B2 (en) | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium | |
CN110509300B (en) | Steel hoop processing and feeding control system and control method based on three-dimensional visual guidance | |
US10899001B2 (en) | Method for teaching an industrial robot to pick parts | |
TWI650626B (en) | Robot processing method and system based on 3d image | |
JP5854815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
US9279661B2 (en) | Information processing apparatus and information processing method | |
JP2022028672A (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
JP2018176334A (en) | Information processing device, measurement device, system, interference determination method and article manufacturing method | |
CN105547153B (en) | Plug-in element stitch vision positioning method and device based on binocular vision | |
CN107009358B (en) | Single-camera-based robot disordered grabbing device and method | |
US11972589B2 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
JP7064884B2 (en) | Calibration method of parts assembly device | |
JPH0428518B2 (en) | ||
US20150202776A1 (en) | Data generation device for vision sensor and detection simulation system | |
US20150071491A1 (en) | Method And Device For Optically Determining A Position And/Or Orientation Of An Object In Space | |
US20210192784A1 (en) | Vision system for a robotic machine | |
US20150343640A1 (en) | System and method for locating vehicle components relative to each other | |
US9107613B2 (en) | Handheld scanning device | |
US20180222055A1 (en) | Calibration article for a 3d vision robotic system | |
EP3411194A1 (en) | Robot system calibration | |
JP2017100202A (en) | Robot system, control device, control method, and program | |
CN113689509A (en) | Binocular vision-based disordered grabbing method and system and storage medium | |
CN210589323U (en) | Steel hoop processing feeding control system based on three-dimensional visual guidance | |
US11090812B2 (en) | Inspection apparatus for optically inspecting an object, production facility equipped with the inspection apparatus, and method for optically inspecting the object using the inspection apparatus | |
TW201819126A (en) | Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user's hand movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5729219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |