JP6912529B2 - How to correct the visual guidance robot arm - Google Patents

How to correct the visual guidance robot arm Download PDF

Info

Publication number
JP6912529B2
JP6912529B2 JP2019145464A JP2019145464A JP6912529B2 JP 6912529 B2 JP6912529 B2 JP 6912529B2 JP 2019145464 A JP2019145464 A JP 2019145464A JP 2019145464 A JP2019145464 A JP 2019145464A JP 6912529 B2 JP6912529 B2 JP 6912529B2
Authority
JP
Japan
Prior art keywords
image
correction
coordinate
coordinate system
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145464A
Other languages
Japanese (ja)
Other versions
JP2021024053A (en
Inventor
洪興隆
黄眉瑜
高偉▲クン▼
▲頼▼傳▲ショウ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiwin Technologies Corp
Original Assignee
Hiwin Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiwin Technologies Corp filed Critical Hiwin Technologies Corp
Priority to JP2019145464A priority Critical patent/JP6912529B2/en
Publication of JP2021024053A publication Critical patent/JP2021024053A/en
Application granted granted Critical
Publication of JP6912529B2 publication Critical patent/JP6912529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットアームの補正方法、特に視覚誘導ロボットアームの補正方法に関するものである。 The present invention relates to a method for correcting a robot arm, particularly a method for correcting a visually guided robot arm.

視覚誘導ロボットアームとはCCD(Charge−coupled Device)イメージセンサーなどの目になるイメージセンサーがロボットアームの末端効果器に増設してあるロボットアームのことである。工作物位置がイメージセンサーによって検知された後、ロボットアームの末端効果器はロボットアームのコントローラーによって制御され、工作物位置まで移動し、物を取ったり置いたりする作業を行う。 The visual guidance robot arm is a robot arm in which an eye-catching image sensor such as a CCD (Charge-coupled Device) image sensor is added to the terminal effector of the robot arm. After the position of the workpiece is detected by the image sensor, the terminal effector of the robot arm is controlled by the controller of the robot arm to move to the position of the workpiece and perform the work of placing and placing objects.

工作物を取ったり置いたりする作業を行う前に、視覚誘導ロボットアームの補正作業によって末端効果器とイメージセンサーのレンズとの間の座標位置の差をコントローラーに記録させることができる。 The correction work of the visual guidance robot arm allows the controller to record the difference in coordinate position between the end effector and the lens of the image sensor before performing the work of placing or placing the workpiece.

従来の視覚誘導ロボットアームの補正技術において、補正対象はドットマトリックス、即ち方向性のない規則的なパターンであるため、作業者は先にドットマトリックスに三つの特徴ポイントを順番に決める必要がある。続いて、ロボットアームを適切な高さまで移動させ、ビットマップ画像をカメラが撮影できる位置、即ち画像補正ポイントを決める。続いて、画像処理ソフトウェア中のビットマップ画像に上述の三つの特徴ポイントの画像座標と、ドットマトリックス中のドットの間に対応する現実世界の中心距離とを入力すれば、画像処理ソフトウェアは画像座標系を現実世界座標系に転換し、現実世界座標系X−Yを定義することができる。 In the conventional visual guidance robot arm correction technique, since the correction target is a dot matrix, that is, a regular pattern without directionality, the operator must first determine three feature points in the dot matrix in order. Subsequently, the robot arm is moved to an appropriate height to determine a position where the camera can capture a bitmap image, that is, an image correction point. Then, if the image coordinates of the above three feature points and the corresponding real-world center distance between the dots in the dot matrix are input to the bitmap image in the image processing software, the image processing software will perform the image coordinates. The system can be transformed into a real- world coordinate system to define the real-world coordinate system XY.

上述した作業が完了した後、ロボットアームを動かしてロボットアームの作業ツールの作業ポイントを上述した三つの特徴ポイントに位置させ、作業ポイントが特徴ポイントに位置するロボットアーム座標値を記録する。補正作業が完了すると、ロボットアームのコントローラーがロボットアーム座標値に基づいて演算を自動的に行ってロボットアームの基台座標系を定義する。このときロボットアームの基台座標系は画像処理ソフトウェア内の現実世界座標系に重なる。つまり、画像処理ソフトウェアは画像を分析および転換して求めた工作物の現実世界座標をロボットアームに伝達して作業を進行させることができるため、それ以上の転換作業が不要である。 After the above-mentioned work is completed, the robot arm is moved to position the work point of the work tool of the robot arm at the above-mentioned three feature points, and the coordinate value of the robot arm at which the work point is located at the feature point is recorded. When the correction work is completed, the robot arm controller automatically performs an operation based on the robot arm coordinate values to define the base coordinate system of the robot arm. At this time, the base coordinate system of the robot arm overlaps with the real world coordinate system in the image processing software. That is, since the image processing software can transmit the real- world coordinates of the workpiece obtained by analyzing and converting the image to the robot arm to proceed with the work, no further conversion work is required.

従来の視覚誘導ロボットアームの補正技術は人力に完全に頼らなければならないため、補正作業に手間が掛かるだけでなく、誤差が起こりやすい。一方、作業ツールの作業ポイントが特徴ポイントに正確に重なるか否かを確認する際、作業員の目視に頼らなければならないため、作業員によって補正結果が異なる、即ち目視の誤差が起る。 Since the conventional visual guidance robot arm correction technology must completely rely on human power, not only the correction work is troublesome, but also errors are likely to occur. On the other hand, when confirming whether or not the work point of the work tool accurately overlaps the feature point, it is necessary to rely on the visual inspection of the worker, so that the correction result differs depending on the worker, that is, a visual error occurs.

それに関連する技術において、特許文献1により開示されたオフライン相対校正法はロボットアームのツール中心点(tool center point,TCP)と工作物の誤差に基づいて補償を行って精確な加工経路を見出す。そのために、ロボットアームはあらかじめ標準の工作物の形状パラメータを標準パラメータに基づいて補正することが必要であり、オンライン操作を行う際、フィードバック制御または変位センサーによって目前の工作物のパラメータと標準の工作物のパラメータの誤差を求めて補償を行う。 In the technique related thereto, the offline relative calibration method disclosed in Patent Document 1 compensates based on the error between the tool center point (tool center point, TCP) of the robot arm and the workpiece to find an accurate machining path. Therefore, it is necessary for the robot arm to correct the shape parameters of the standard work piece in advance based on the standard parameters, and when performing online operation, the parameters of the work piece in front and the standard work are performed by feedback control or a displacement sensor. Compensation is performed by finding the error of the parameter of the object.

特許文献2はロボットアームの末端のカメラで撮った少なくとも2枚の工作物の画像に対するハンドアイキャリブレーションを開示した。つまり、該案はロボットアームを動かして撮った少なくとも2枚の画像を投影し、ロボットアームとカメラの旋転および平行移動にベクトル演算を行う。しかしながら、2枚以上の工作物を撮像して計算するには、撮像対象になる工作物の辺縁に関わるデータが充分でないと、データ転換および最適化計算に時間が掛かるだけでなく、正確な結果を得ることができない。 Patent Document 2 discloses hand-eye calibration for images of at least two workpieces taken by a camera at the end of a robot arm. That is, the plan projects at least two images taken by moving the robot arm, and performs vector operations on the rotation and translation of the robot arm and the camera. However, if the data related to the edge of the geographic feature to be imaged is not sufficient to image and calculate two or more workpieces, not only the data conversion and optimization calculation will take time, but also the accuracy will be accurate. I can't get the result.

特許文献3により開示された測量システムはロボットアームの移動方式を確認し、光を吸収する表面においてツール中心点の位置を所定位置に転移し、確定された位置でロボットを動かしてロボットアームの位置を記録することによってロボットのツールが装着してある表面に相対するツール中心点の位置を確定する。該案が画像補正技術に応用される際、ロボットアームによって補正ツール中心点の位置と画像表示の中心点とを一致させ、共通の座標系を計算する基礎を構成することが必要であるだけでなく、人の手で補正操作を行うため、手間が非常にかかる。 The surveying system disclosed in Patent Document 3 confirms the movement method of the robot arm, shifts the position of the tool center point to a predetermined position on the surface that absorbs light, and moves the robot at a fixed position to move the robot arm position. The position of the tool center point relative to the surface on which the robot tool is mounted is determined by recording. When the proposal is applied to image correction technology, it is only necessary for the robot arm to match the position of the center point of the correction tool with the center point of the image display and to form the basis for calculating a common coordinate system. It takes a lot of time and effort because the correction operation is performed manually.

米国特許US6812665号公報US Pat. No. 6,812,665 米国特許US7019825号公報U.S. Pat. No. US7019825 米国特許US20050225278A1号公報U.S. Pat. No. US200502225278A1

本発明は、補正作業時間の縮減および誤差の低減が実現できる視覚誘導ロボットアームの補正方法を提供することを主な目的とする。 An object of the present invention is to provide a correction method for a visual guidance robot arm that can reduce the correction work time and the error.

上述した課題を解決するため、視覚誘導ロボットアームの補正方法はロボットアームに適用される。ロボットアームはコントローラーに電気的に接続され、基台、末端に位置するフランジ面、フランジ面に装着される作業ツールおよびイメージセンサーから構成され、作動範囲を有する。作業ツールは作業ツール中心点を有する。イメージセンサーはコントローラーに電気的に接続され、撮像面を有する撮像チップを内蔵する。コントローラーはデータ入力、データ出力、データ保存、データ演算処理およびデータ表示などの機能を有し、予め基台座標系およびフランジ座標系を保存し、作業ツール座標系およびイメージセンサー第一座標系を設定する。基台座標系は相互に垂直のX軸、Y軸およびZ軸からなる座標空間であり、基台座標原点を有する。フランジ座標系は相互に垂直のX1軸、Y1軸およびZ1軸からなる座標空間であり、フランジ座標原点を有する。作業ツール座標系は相互に垂直のX2軸、Y2軸およびZ2軸からなる座標空間であり、作業ツール中心点に位置する作業ツール座標原点を有する。イメージセンサー第一座標系は相互に垂直のX3軸、Y3軸およびZ3軸からなる座標空間であり、イメージセンサー第一座標原点を有し、かつX3軸およびY3軸からなるX3Y3平面が撮像チップの撮像面に平行である。作業員がコントローラーによってフランジ座標系、作業ツール座標系およびイメージセンサー第一座標系から現在座標系を選択する。現在座標系とは目前に現在使っている座標系のことである。視覚誘導ロボットアームの補正方法のステップは次のとおりである。ステップA)は操作条件を設定する。基台座標系において補正高度、第一補正座標、第二補正座標、第三補正座標および第四補正座標をコントローラーによって設定する。ステップB)は補正対象を設置する。ロボットアームの作動範囲内に補正対象を設置する。補正対象は位置決めマークを有する。ステップC)は作業ツール中心点を転移する。作業ツール座標系を現在座標系に設定し、ロボットアームによって作業ツールを動かして作業ツール中心点を位置決めマークに転移する。コントローラーは基台座標系に位置する現在位置座標を保存する。ステップD)はイメージセンサーを稼働させる。イメージセンサー第一座標系を現在座標系に設定し、操作条件を補正高度に設定する。ロボットアームはコントローラーの指示によってイメージセンサーを動かし、イメージセンサー第一座標原点を補正基準位置座標に転移し、補正基準位置座標を位置決めマークの上方に位置させるため、Z軸座標値の差が補正高度となる。ステップE)は位置決めマークに画像分析を行う。イメージセンサーは位置決め画像を撮る。位置決め画像は位置決めマークを有する画像である。コントローラーは画像分析ソフトウェアによって位置決め画像の中心を設定し、位置決め画像を分析する。続いて、コントローラーは画像分析ソフトウェアによって位置決め画像の中心に対する位置決め画像の位置決めマークの位置を確認し、位置決めマーク画像座標を求める。ステップF)は画像と実距離を補正する。ロボットアームはイメージセンサーを動かしてイメージセンサー第一座標原点を第一補正座標、第二補正座標、第三補正座標および第四補正座標に転移する。イメージセンサー第一座標原点が第一補正座標、第二補正座標、第三補正座標および第四補正座標に移る際、イメージセンサーは第一画像、第二画像、第三画像および第四画像を撮る。続いて、コントローラーは画像分析ソフトウェアによって第一画像、第二画像、第三画像および第四画像を分析し、第一画像から第四画像内の位置決めマーに別々に対応する第一補正画像座標、第二補正画像座標、第三補正画像座標および第四補正画像座標を求める。ステップG)は画像補正データを計算する。明確になった基台座標系の第一補正座標から第四補正座標と、第一補正画像座標から第四補正画像座標とに基づいて画像補正データを算出する。画像補正データに基づいて画像内距離と実距離の転換関係を明確にする。ステップH)はイメージセンサー第一座標系の補償量を計算する。位置決めマーク画像座標と画像補正データに基づいてイメージセンサー第一座標系の補償量を計算し、イメージセンサーの画像位置と作業ツール位置の誤差を補償する。 In order to solve the above-mentioned problems, the correction method of the visual guidance robot arm is applied to the robot arm. The robot arm is electrically connected to the controller and consists of a base, a flange surface located at the end, a work tool mounted on the flange surface, and an image sensor, and has an operating range. The work tool has a work tool center point. The image sensor is electrically connected to the controller and incorporates an imaging chip with an imaging surface. The controller has functions such as data input, data output, data storage, data calculation processing and data display, saves the base coordinate system and flange coordinate system in advance, and sets the work tool coordinate system and the image sensor first coordinate system. do. The base coordinate system is a coordinate space composed of X-axis, Y-axis, and Z-axis which are perpendicular to each other, and has a base coordinate origin. The flange coordinate system is a coordinate space consisting of an X1 axis, a Y1 axis, and a Z1 axis that are perpendicular to each other, and has a flange coordinate origin. The work tool coordinate system is a coordinate space composed of X2 axes, Y2 axes, and Z2 axes that are perpendicular to each other, and has a work tool coordinate origin located at the center point of the work tool. The image sensor first coordinate system is a coordinate space consisting of the X3 axis, the Y3 axis, and the Z3 axis that are perpendicular to each other. It is parallel to the imaging plane. The worker selects the current coordinate system from the flange coordinate system, the work tool coordinate system, and the image sensor first coordinate system by the controller. The current coordinate system is the coordinate system currently in use. The steps of the correction method of the visual guidance robot arm are as follows. Step A) sets the operating conditions. In the base coordinate system, the correction altitude, the first correction coordinate, the second correction coordinate, the third correction coordinate, and the fourth correction coordinate are set by the controller. In step B), the correction target is set. Set the correction target within the operating range of the robot arm. The correction target has a positioning mark. Step C) shifts the center point of the work tool. The work tool coordinate system is set to the current coordinate system, and the work tool is moved by the robot arm to shift the work tool center point to the positioning mark. The controller saves the current position coordinates located in the base coordinate system. Step D) activates the image sensor. Set the image sensor first coordinate system to the current coordinate system and set the operating conditions to the correction altitude. The robot arm moves the image sensor according to the instruction of the controller, shifts the origin of the first coordinate of the image sensor to the correction reference position coordinate, and positions the correction reference position coordinate above the positioning mark, so the difference in the Z-axis coordinate value is the correction altitude. It becomes. In step E), image analysis is performed on the positioning mark. The image sensor takes a positioning image. The positioning image is an image having a positioning mark. The controller sets the center of the positioning image by image analysis software and analyzes the positioning image. Subsequently, the controller confirms the position of the positioning mark of the positioning image with respect to the center of the positioning image by the image analysis software, and obtains the positioning mark image coordinates. Step F) corrects the image and the actual distance. The robot arm moves the image sensor to transfer the origin of the first coordinate of the image sensor to the first correction coordinate, the second correction coordinate, the third correction coordinate, and the fourth correction coordinate. Image sensor 1st coordinate When the origin moves to the 1st correction coordinate, the 2nd correction coordinate, the 3rd correction coordinate and the 4th correction coordinate, the image sensor takes the 1st image, the 2nd image, the 3rd image and the 4th image. .. Subsequently, the controller first image by the image analysis software, the second image, analyzing the third image and the fourth image, the first corrected image coordinates corresponding separately from the first image to the positioning mark in the fourth image , The second corrected image coordinate, the third corrected image coordinate, and the fourth corrected image coordinate are obtained. Step G) calculates the image correction data. Image correction data is calculated based on the fourth correction coordinate from the first correction coordinate of the clarified base coordinate system and the fourth correction image coordinate from the first correction image coordinate. Clarify the conversion relationship between the in-image distance and the actual distance based on the image correction data. Step H) calculates the compensation amount of the image sensor first coordinate system. The compensation amount of the image sensor first coordinate system is calculated based on the positioning mark image coordinates and the image correction data, and the error between the image position of the image sensor and the position of the work tool is compensated.

上述した技術特徴により、本発明による視覚誘導ロボットアームの補正方法は特定の補正対象、例えばドットマトリックスに限定されない。つまり、補正対象内に位置決めマークさえ指定すれば補正作業を進めることができるため、補正作業時間の縮減が実現できる。一方、画像分析方式によって座標位置を判断することは人間の判断によって生じる視覚誤差を低減できる。 Due to the above-mentioned technical features, the correction method of the visual guidance robot arm according to the present invention is not limited to a specific correction target, for example, a dot matrix. That is, since the correction work can be advanced as long as the positioning mark is specified in the correction target, the correction work time can be reduced. On the other hand, determining the coordinate position by the image analysis method can reduce the visual error caused by human judgment.

ステップA)において、第一補正座標から第四補正座標はZ軸成分が同じであり、同じ高さに位置する。 In step A), the first to fourth correction coordinates have the same Z-axis component and are located at the same height.

請求項1に記載の視覚誘導ロボットアームの補正方法において、補正座標は数が四つ以上である。補正座標が多ければ演算量が大きくなり、演算時間が長くなるとともに演算コストが増加するため、補正ポイントの数を適宜に選択することが必要である。本実施形態は4点補正を行う。 In the correction method for the visual guidance robot arm according to claim 1, the number of correction coordinates is four or more. If the number of correction coordinates is large, the amount of calculation becomes large, the calculation time becomes long, and the calculation cost increases. Therefore, it is necessary to appropriately select the number of correction points. In this embodiment, four-point correction is performed.

Figure 0006912529
Figure 0006912529

ステップG)において、画像補正データの計算方法は下記のとおりである。明確になった第一補正座標から第四補正座標の点の位置は式1によって表示され、マトリックスが式3によって表示される。それに対応する第一補正画像座標から第四補正画像座標は式2によって表示され、マトリックスが式4によって表示される。 In step G), the calculation method of the image correction data is as follows. The positions of the clarified points from the first correction coordinates to the fourth correction coordinates are displayed by Equation 1, and the matrix is displayed by Equation 3. The corresponding first corrected image coordinates to the fourth corrected image coordinates are displayed by Equation 2, and the matrix is displayed by Equation 4.

式3において、マトリックスXは基台座標系の第一補正座標、第二補正座標、第三補正座標および第四補正座標から構成される。式4において、マトリックスXは画像空間中の第一補正画像座標、第二補正画像座標、第三補正画像座標および第四補正画像座標から構成される。マトリックスXおよびマトリックスXの関係は式5および式6によって表示される。 In Equation 3, the matrix X R is the first correction coordinates of the base coordinate system, the second correction coordinates, and a third correction coordinates and the fourth correction coordinates. In Formula 4, a matrix X C is first corrected image coordinates in the image space, the second corrected image coordinates, and a third corrected image coordinates and the fourth corrected image coordinates. The relationship between Matrix X R and Matrix X C is represented by Equations 5 and 6.

式6において、マトリックスAは二つの平面座標系の間のアフィン変換行列(Affine transformation matrix)である。マトリックスXのムーアペンローズ擬似逆行列X (Moore−Penrose pseudo−inverse matrix)を計算すれば式6によってマトリックスAを算出できる。 In Equation 6, the matrix A is an affine transformation matrix between two plane coordinate systems. By calculating the Moore-Penrose pseudo-inverse of the matrix X C X C + (Moore- Penrose pseudo-inverse matrix) can be calculated matrix A by Equation 6.

特異値分解(Singular Value Decomposition,SVD)によって擬似逆行列X を解くことができる。マトリックスA、即ち画像補正データは画像内距離と実距離の転換関係を表示する。 The pseudo-inverse matrix X C + can be solved by singular value decomposition (SVD). The matrix A, that is, the image correction data, displays the conversion relationship between the in-image distance and the actual distance.

ステップH)において、さらにイメージセンサー第一座標系の補償量をコントローラーに書き込み、イメージセンサー第二座標系を形成することができる。 In step H), the compensation amount of the image sensor first coordinate system can be further written to the controller to form the image sensor second coordinate system.

本発明の一実施形態のシステム、即ちロボットアームを示す模式図である。It is a schematic diagram which shows the system of one Embodiment of this invention, that is, a robot arm. 本発明の一実施形態における補正対象を示す模式図である。It is a schematic diagram which shows the correction object in one Embodiment of this invention. 本発明の一実施形態のステップを示す模式図である。It is a schematic diagram which shows the step of one Embodiment of this invention. 本発明の一実施形態においてイメージセンサーが撮った画像内の補正対象、位置決めマークおよび画像中心を示す模式図である。It is a schematic diagram which shows the correction object, the positioning mark and the image center in the image taken by the image sensor in one Embodiment of this invention.

以下、本発明による視覚誘導ロボットアームの補正方法を図面に基づいて説明する。 Hereinafter, the correction method of the visual guidance robot arm according to the present invention will be described with reference to the drawings.

(一実施形態)
図1から図4に示すように、本発明の一実施形態による視覚誘導ロボットアームの補正方法はロボットアーム10に適用される。ロボットアーム10は6軸ロボットアームであり、コントローラー13に電気的に接続され、基台11、フランジ面12、作業ツール15およびイメージセンサー17から構成され、作動範囲を有する。フランジ面12は物を繋ぎ合わせるためにロボットアーム10の末端に配置される。コントローラー13はデータ入力、データ出力、データ保存、データ演算処理およびデータ表示などの機能を有する。ロボットアーム10を出荷する際、基台座標系およびフランジ座標系をコントローラー13に予め保存する。
ロボットアーム10の作動範囲は基台座標系に位置する。基台座標系は相互に垂直のX軸、Y軸およびZ軸からなる座標空間であり、基台座標原点を有する。本実施形態の原点は基台11に位置するが、これに限定されず、別の部位に位置してもよい。フランジ座標系は相互に垂直のX1軸、Y1軸およびZ1軸からなる座標空間であり、フランジ座標原点を有する。本実施形態において、フランジ座標原点はフランジ面12の幾何学的中心に位置する。
フランジ座標系と基台座標系の関係はx1、y1、z1、a1、b1、c1によって明確になる。x1は基台座標系のX軸に対するフランジ座標系のX1軸の距離である。y1は基台座標系のY軸に対するフランジ座標系のY1軸の距離である。z1は基台座標系のZ軸に対するフランジ座標系のZ1軸の距離である。a1はフランジ座標系のX1軸が基台座標系のX軸を中心に旋転する角度である。b1はフランジ座標系のY1軸が基台座標系のY軸を中心に旋転する角度である。c1はフランジ座標系のZ1軸が基台座標系のZ軸を中心に旋転する角度である。
(One Embodiment)
As shown in FIGS. 1 to 4, the correction method of the visual guidance robot arm according to the embodiment of the present invention is applied to the robot arm 10. The robot arm 10 is a 6-axis robot arm, which is electrically connected to the controller 13 and is composed of a base 11, a flange surface 12, a work tool 15, and an image sensor 17, and has an operating range. The flange surface 12 is arranged at the end of the robot arm 10 to connect objects. The controller 13 has functions such as data input, data output, data storage, data calculation processing, and data display. When the robot arm 10 is shipped, the base coordinate system and the flange coordinate system are stored in the controller 13 in advance.
The operating range of the robot arm 10 is located in the base coordinate system. The base coordinate system is a coordinate space composed of X-axis, Y-axis, and Z-axis which are perpendicular to each other, and has a base coordinate origin. The origin of the present embodiment is located at the base 11, but the origin is not limited to this, and may be located at another portion. The flange coordinate system is a coordinate space consisting of an X1 axis, a Y1 axis, and a Z1 axis that are perpendicular to each other, and has a flange coordinate origin. In this embodiment, the flange coordinate origin is located at the geometric center of the flange surface 12.
The relationship between the flange coordinate system and the base coordinate system is clarified by x1, y1, z1, a1, b1, and c1. x1 is the distance of the X1 axis of the flange coordinate system to the X axis of the base coordinate system. y1 is the distance of the Y1 axis of the flange coordinate system to the Y axis of the base coordinate system. z1 is the distance of the Z1 axis of the flange coordinate system to the Z axis of the base coordinate system. a1 is an angle at which the X1 axis of the flange coordinate system rotates around the X axis of the base coordinate system. b1 is an angle at which the Y1 axis of the flange coordinate system rotates around the Y axis of the base coordinate system. c1 is the angle at which the Z1 axis of the flange coordinate system rotates around the Z axis of the base coordinate system.

作業ツール15はフランジ面12に装着される。本実施形態において、作業ツール15は吸盤であるが、これに限定されない。作業ツール15は作業ツール中心点(tool center point)TCPを有する。作業員はコントローラー13によって作業ツール座標系を設定する。作業ツール座標系は相互に垂直のX2軸、Y2軸およびZ2軸からなる座標空間であり、作業ツール座標原点を有する。作業ツール座標原点は作業ツール中心点TCPに位置する。
作業ツール座標系とフランジ座標系の関係はx2、y2、z2、a2、b2、c2によって明確になる。x2はフランジ座標系のX1軸に対する作業ツール座標系のX2軸の距離である。y2はフランジ座標系のY1軸に対する作業ツール座標系のY2軸の距離である。z2はフランジ座標系のZ1軸に対する作業ツール座標系のZ2軸の距離である。a2は作業ツール座標系のX2軸がフランジ座標系のX1軸を中心に旋転する角度である。b2は作業ツール座標系のY2軸がフランジ座標系のY1軸を中心に旋転する角度である。c2は作業ツール座標系のZ2軸がフランジ座標系のZ1軸を中心に旋転する角度である。
The work tool 15 is mounted on the flange surface 12. In the present embodiment, the work tool 15 is a suction cup, but is not limited thereto. The work tool 15 has a work tool center point TCP. The worker sets the work tool coordinate system by the controller 13. The work tool coordinate system is a coordinate space composed of X2 axes, Y2 axes, and Z2 axes that are perpendicular to each other, and has a work tool coordinate origin. The work tool coordinate origin is located at the work tool center point TCP.
The relationship between the work tool coordinate system and the flange coordinate system is clarified by x2, y2, z2, a2, b2, and c2. x2 is the distance of the X2 axis of the work tool coordinate system to the X1 axis of the flange coordinate system. y2 is the distance of the Y2 axis of the work tool coordinate system to the Y1 axis of the flange coordinate system. z2 is the distance of the Z2 axis of the work tool coordinate system to the Z1 axis of the flange coordinate system. a2 is an angle at which the X2 axis of the work tool coordinate system rotates around the X1 axis of the flange coordinate system. b2 is an angle at which the Y2 axis of the work tool coordinate system rotates around the Y1 axis of the flange coordinate system. c2 is the angle at which the Z2 axis of the work tool coordinate system rotates around the Z1 axis of the flange coordinate system.

イメージセンサー17は撮像のためにフランジ面12に装着される。本実施形態において、イメージセンサー17はCCD(Charge−coupled Device)イメージセンサーであり、コントローラー13に電気的に接続され、撮像面171aを有する撮像チップ171を内蔵する。作業員はコントローラー13によってイメージセンサー第一座標系を設定する。イメージセンサー第一座標系は相互に垂直のX3軸、Y3軸およびZ3軸からなる座標空間であり、イメージセンサー第一座標原点を有し、かつX3軸およびY3軸からなるX3Y3平面が撮像チップ171の撮像面171aに平行である。本実施形態において、イメージセンサー第一座標原点は撮像面171aに位置する。
イメージセンサー第一座標系とフランジ座標系の関係はx3、y3、z3、a3、b3、c3によって明確になる。x3はフランジ座標系のX1軸に対するイメージセンサー第一座標系のX3軸の距離である。y3はフランジ座標系のY1軸に対するイメージセンサー第一座標系のY3軸の距離である。z3はフランジ座標系のZ1軸に対するイメージセンサー第一座標系のZ3軸の距離である。a3はイメージセンサー第一座標系のX3軸がフランジ座標系のX1軸を中心に旋転する角度である。b3はイメージセンサー第一座標系のY3軸がフランジ座標系のY1軸を中心に旋転する角度である。c3はイメージセンサー第一座標系のZ3軸がフランジ座標系のZ1軸を中心に旋転する角度である。
The image sensor 17 is mounted on the flange surface 12 for imaging. In the present embodiment, the image sensor 17 is a CCD (Charge-coupled Device) image sensor, and incorporates an imaging chip 171 that is electrically connected to the controller 13 and has an imaging surface 171a. The worker sets the image sensor first coordinate system by the controller 13. The image sensor first coordinate system is a coordinate space consisting of the X3 axis, the Y3 axis, and the Z3 axis that are perpendicular to each other. Is parallel to the imaging surface 171a. In the present embodiment, the origin of the first coordinate of the image sensor is located on the imaging surface 171a.
The relationship between the image sensor first coordinate system and the flange coordinate system is clarified by x3, y3, z3, a3, b3, and c3. x3 is the distance of the X3 axis of the image sensor first coordinate system with respect to the X1 axis of the flange coordinate system. y3 is the distance of the Y3 axis of the image sensor first coordinate system with respect to the Y1 axis of the flange coordinate system. z3 is the distance of the Z3 axis of the image sensor first coordinate system with respect to the Z1 axis of the flange coordinate system. a3 is an angle at which the X3 axis of the image sensor first coordinate system rotates around the X1 axis of the flange coordinate system. b3 is an angle at which the Y3 axis of the image sensor first coordinate system rotates around the Y1 axis of the flange coordinate system. c3 is the angle at which the Z3 axis of the image sensor first coordinate system rotates around the Z1 axis of the flange coordinate system.

作業員はコントローラー13によってフランジ座標系、作業ツール座標系およびイメージセンサー第一座標系から現在座標系を選択する。現在座標系とは目前に現在使っている座標系のことである。作業員が基台座標系に位置を設定し、現在座標系の選択を完了させれば、コントローラー13は現在座標系の原点を設定した位置に転移し、現在座標系のX1Y1平面、X2Y2平面またはX3Y3平面を基台座標系のXY平面に平行させる。例えば、作業ツール座標系を現在座標系に設定すれば、コントローラー13はロボットアーム10によって作業ツール座標原点を設定した位置に転移し、作業ツール座標系のX2軸およびY2軸からなるX2Y2平面を基台座標系のX軸およびY軸からなるXY平面に平行させる。またイメージセンサー第一座標系を現在座標系に設定すれば、コントローラー13はロボットアーム10によってイメージセンサー第一座標原点を設定した位置に転移し、イメージセンサー第一座標系のX3軸およびY3軸からなるX3Y3平面を基台座標系のX軸およびY軸からなるXY平面に平行させる。 The worker selects the current coordinate system from the flange coordinate system, the work tool coordinate system, and the image sensor first coordinate system by the controller 13. The current coordinate system is the coordinate system currently in use. When the worker sets the position in the base coordinate system and completes the selection of the current coordinate system, the controller 13 shifts to the position where the origin of the current coordinate system is set, and the X1Y1 plane, X2Y2 plane or the X2Y2 plane of the current coordinate system or Make the X3Y3 plane parallel to the XY plane of the base coordinate system. For example, if the work tool coordinate system is set to the current coordinate system, the controller 13 shifts to the position where the work tool coordinate origin is set by the robot arm 10, and is based on the X2Y2 plane consisting of the X2 axis and the Y2 axis of the work tool coordinate system. It is parallel to the XY plane consisting of the X and Y axes of the Cartesian coordinate system. If the image sensor first coordinate system is set to the current coordinate system, the controller 13 shifts to the position where the image sensor first coordinate origin is set by the robot arm 10 and starts from the X3 axis and the Y3 axis of the image sensor first coordinate system. The X3Y3 plane is parallel to the XY plane consisting of the X-axis and the Y-axis of the base coordinate system.

図3に示すように、視覚誘導ロボットアームの補正方法のステップは次のとおりである。 As shown in FIG. 3, the steps of the correction method of the visual guidance robot arm are as follows.

ステップA)は操作条件を設定する。 Step A) sets the operating conditions.

基台座標系において補正高度Zcal、第一補正座標P1、第二補正座標P2、第三補正座標P3および第四補正座標P4をコントローラー13によって設定する。第一補正座標P1から第四補正座標P4はZ軸成分が同じであり、同じ高さに位置する。 In the base coordinate system, the correction altitude Zcal, the first correction coordinate P1, the second correction coordinate P2, the third correction coordinate P3, and the fourth correction coordinate P4 are set by the controller 13. The first correction coordinate P1 to the fourth correction coordinate P4 have the same Z-axis component and are located at the same height.

ステップB)は補正対象を設置する。 In step B), the correction target is set.

ロボットアーム10の作動範囲内に補正対象18を設置する。補正対象18は位置決めマーク181を有する。本実施形態において、位置決めマーク181はドットであるが、これに限定されない。 The correction target 18 is installed within the operating range of the robot arm 10. The correction target 18 has a positioning mark 181. In the present embodiment, the positioning mark 181 is a dot, but the positioning mark 181 is not limited to this.

ステップC)は作業ツール中心点TCPを転移する。 Step C) transfers the work tool center point TCP.

作業ツール座標系を現在座標系に設定し、ロボットアーム10によって作業ツール15を動かして作業ツール中心点TCPを位置決めマーク181に転移する。コントローラー13は基台座標系に位置する現在位置座標Pspを保存する。 The work tool coordinate system is set to the current coordinate system, and the work tool 15 is moved by the robot arm 10 to transfer the work tool center point TCP to the positioning mark 181. The controller 13 stores the current position coordinate Psp located in the base coordinate system.

ステップD)はイメージセンサー17を稼働させる。 Step D) activates the image sensor 17.

イメージセンサー第一座標系を現在座標系に設定し、操作条件を補正高度Zcalに設定する。ロボットアーム10はコントローラー13の指示によってイメージセンサー17を動かし、イメージセンサー第一座標原点を補正基準位置座標Pcpに転移し、補正基準位置座標Pcpを位置決めマーク181の上方に位置させる。基台座標系において補正基準位置座標Pcpと現在位置座標Pspを比較対照すれば、X軸成分およびY軸成分が同じであるため、Z軸座標値の差が補正高度Zcalとなる。 The first coordinate system of the image sensor is set to the current coordinate system, and the operating condition is set to the correction altitude Zcal. The robot arm 10 moves the image sensor 17 according to the instruction of the controller 13, transfers the origin of the first coordinate of the image sensor to the correction reference position coordinate Pcp, and positions the correction reference position coordinate Pcp above the positioning mark 181. Comparing and contrasting the correction reference position coordinate Pcp and the current position coordinate Psp in the base coordinate system, the difference between the Z-axis coordinate values is the correction altitude Zcal because the X-axis component and the Y-axis component are the same.

ステップE)は位置決めマーク181に画像分析を行う。 In step E), image analysis is performed on the positioning mark 181.

イメージセンサー17は位置決め画像を撮る。位置決め画像は位置決めマーク11を有する画像である。コントローラー13は画像分析ソフトウェアによって位置決め画像の中心を設定し、位置決め画像を分析する。本実施形態において、位置決め画像の中心は位置決め画像の幾何学的中心であるが、これに限定されない。続いて、コントローラー13は画像分析ソフトウェアによって位置決め画像の中心に対する位置決め画像の位置決めマーク181の位置を確認し、位置決めマーク画像座標Xcsを求める。 The image sensor 17 takes a positioning image. The positioning image is an image having the positioning mark 1 8 1. The controller 13 sets the center of the positioning image by the image analysis software and analyzes the positioning image. In the present embodiment, the center of the positioning image is, but is not limited to, the geometric center of the positioning image. Subsequently, the controller 13 confirms the position of the positioning mark 181 of the positioning image with respect to the center of the positioning image by the image analysis software, and obtains the positioning mark image coordinates Xcs.

画像分析ソフトウェアは画像内の物体を確認し、画像内の座標位置を分析する市販の画像分析ソフトウェアであるため、詳しい説明を省略する。 Since the image analysis software is commercially available image analysis software that confirms an object in an image and analyzes the coordinate position in the image, detailed description thereof will be omitted.

ステップF)は画像と実距離を補正する。 Step F) corrects the image and the actual distance.

ロボットアーム10はイメージセンサー17を動かしてイメージセンサー第一座標原点を第一補正座標P1、第二補正座標P2、第三補正座標P3および第四補正座標P4に転移する。イメージセンサー第一座標原点が第一補正座標P1、第二補正座標P2、第三補正座標P3および第四補正座標P4に移る際、イメージセンサー17は第一画像、第二画像、第三画像および第四画像を撮る。続いて、コントローラー13は画像分析ソフトウェアによって第一画像、第二画像、第三画像および第四画像を分析し、第一画像から第四画像内の位置決めマーク181に別々に対応する第一補正画像座標Xc1、第二補正画像座標Xc2、第三補正画像座標Xc3および第四補正画像座標Xc4を求める。 The robot arm 10 moves the image sensor 17 to shift the origin of the first coordinate of the image sensor to the first correction coordinate P1, the second correction coordinate P2, the third correction coordinate P3, and the fourth correction coordinate P4. When the origin of the first coordinate of the image sensor shifts to the first correction coordinate P1, the second correction coordinate P2, the third correction coordinate P3, and the fourth correction coordinate P4, the image sensor 17 moves the first image, the second image, the third image, and the image sensor. Take the fourth image. Subsequently, the controller 13 analyzes the first image, the second image, the third image, and the fourth image by the image analysis software, and the first corrected image corresponding to the positioning mark 181 in the first image to the fourth image separately. The coordinates Xc1, the second corrected image coordinates Xc2, the third corrected image coordinates Xc3, and the fourth corrected image coordinates Xc4 are obtained.

ステップG)は画像補正データを計算する。 Step G) calculates the image correction data.

明確になった基台座標系の第一補正座標P1から第四補正座標P4の座標値(真実空間)と、第一画像から第四画像内の位置決めマーク181に別々に対応する第一補正画像座標Xc1、第二補正画像座標Xc2、第三補正画像座標Xc3および第四補正画像座標Xc4(画像空間)とに基づいて画像内距離と実距離(基台座標系)の関係を確認して画像補正データを求めることができる。画像補正データに基づいて画像内距離と実距離の転換関係を明確にすることができる。 The coordinate values (truth space) of the first correction coordinates P1 to the fourth correction coordinates P4 of the clarified base coordinate system and the first correction image corresponding to the positioning mark 181 in the first image to the fourth image separately. An image is confirmed by confirming the relationship between the in-image distance and the actual distance (base coordinate system) based on the coordinates Xc1, the second corrected image coordinate Xc2, the third corrected image coordinate Xc3, and the fourth corrected image coordinate Xc4 (image space). The correction data can be obtained. The conversion relationship between the in-image distance and the actual distance can be clarified based on the image correction data.

本実施形態は4点補正を例として挙げるが、これに限定されず、四点以上でもよい。補正座標が多ければ演算量が大きくなり、演算時間が長くなるとともに演算コストが増加するため、補正ポイントの数を適宜に選択することが必要である。 In this embodiment, four-point correction is given as an example, but the present invention is not limited to this, and four or more points may be used. If the number of correction coordinates is large, the amount of calculation becomes large, the calculation time becomes long, and the calculation cost increases. Therefore, it is necessary to appropriately select the number of correction points.

本実施形態において、画像補正データの計算方法は下記の式のとおりであるが、これに限定されない。 In the present embodiment, the calculation method of the image correction data is as shown in the following formula, but the calculation method is not limited to this.

Figure 0006912529
Figure 0006912529

明確になった第一補正座標P1から第四補正座標P4の点の位置は式1によって表示され、マトリックスが式3によって表示される。それに対応する第一補正画像座標から第四補正画像座標は式2によって表示され、マトリックスが式4によって表示される。 The positions of the clarified points from the first correction coordinate P1 to the fourth correction coordinate P4 are displayed by Equation 1, and the matrix is displayed by Equation 3. The corresponding first corrected image coordinates to the fourth corrected image coordinates are displayed by Equation 2, and the matrix is displayed by Equation 4.

式3において、マトリックスXは基台座標系の第一補正座標P1、第二補正座標P2、第三補正座標P3および第四補正座標P4から構成される。式4において、マトリックスXは画像空間中の第一補正画像座標、第二補正画像座標および第三補正画像座標および第四補正画像座標から構成される。マトリックスXおよびマトリックスXの関係は式5および式6によって表示される。 In Equation 3, the matrix X R the first correction coordinate P1 of the base coordinate system, the second correction coordinate P2, composed of the third correction coordinate P3 and the fourth correction coordinate P4. In Formula 4, a matrix X C is first corrected image coordinates in the image space, and a second corrected image coordinates and the third corrected image coordinates and the fourth corrected image coordinates. The relationship between Matrix X R and Matrix X C is represented by Equations 5 and 6.

式6において、マトリックスAは二つの平面座標系の間のアフィン変換行列(Affine transformation matrix)である。マトリックスXのムーアペンローズ擬似逆行列X (Moore−Penrose pseudo−inverse matrix)を計算すれば式6によってマトリックスAを算出できる。 In Equation 6, the matrix A is an affine transformation matrix between two plane coordinate systems. By calculating the Moore-Penrose pseudo-inverse of the matrix X C X C + (Moore- Penrose pseudo-inverse matrix) can be calculated matrix A by Equation 6.

特異値分解(Singular Value Decomposition,SVD)によって擬似逆行列X を解くことができる。マトリックスA、即ち画像補正データは画像内距離と実距離の転換関係を表示する。 The pseudo-inverse matrix X C + can be solved by singular value decomposition (SVD). The matrix A, that is, the image correction data, displays the conversion relationship between the in-image distance and the actual distance.

ステップH)はイメージセンサー第一座標系の補償量を計算する。 Step H) calculates the compensation amount of the image sensor first coordinate system.

位置決めマーク画像座標Xcsと画像補正データに基づいてイメージセンサー第一座標系の補償量を計算し、イメージセンサーの画像位置と作業ツール位置の誤差を補償する。 The compensation amount of the image sensor first coordinate system is calculated based on the positioning mark image coordinates Xcs and the image correction data, and the error between the image position of the image sensor and the position of the work tool is compensated.

好ましい場合、作業ツール座標系のX2軸およびY2軸からなるX2Y2平面と、イメージセンサー第一座標系のX3軸およびY3軸からなるX3Y3平面とは基台座標系のX軸およびY軸からなるXY平面に平行である。補正基準位置座標Pcpおよび現在座標系PspはX軸成分およびY軸成分が同じであるため、Z軸座標値の差が補正高度Zcalとなる。
作業ツール座標系およびイメージセンサー第一座標系が理想的な状態であれば、位置決め画像内の位置決めマークが位置決め画像の中心に位置する。つまり、作業ツール座標系の位置決めマーク181の位置がイメージセンサー第一座標系の画像中心に重なる。画像補正データ(即ち画像内距離と実距離の比)が明確になれば、コントローラー13はイメージセンサー17で撮った画像データおよび画像補正データに基づいてロボットアーム10を作動させて作業ツール15を制御することができる。
In a preferred case, the X2Y2 plane consisting of the X2 axis and the Y2 axis of the work tool coordinate system and the X3Y3 plane consisting of the X3 axis and the Y3 axis of the image sensor first coordinate system are XY consisting of the X axis and the Y axis of the base coordinate system. It is parallel to the plane. Since the correction reference position coordinate Pcp and the current coordinate system Psp have the same X-axis component and Y-axis component, the difference between the Z-axis coordinate values is the correction altitude Zcal.
If the working tool coordinate system and the image sensor first coordinate system are in an ideal state, the positioning mark in the positioning image is located at the center of the positioning image. That is, the position of the positioning mark 181 in the work tool coordinate system overlaps with the image center of the image sensor first coordinate system. When the image correction data (that is, the ratio of the distance in the image to the actual distance) is clarified, the controller 13 operates the robot arm 10 based on the image data and the image correction data taken by the image sensor 17 to control the work tool 15. can do.

画像内の位置決めマーク181の位置と画像中心との間に誤差が生じる場合、画像補償量Tcompを求めて補償を行うことが必要である。位置決めマーク画像座標Xcsは位置決め画像内の位置決めマーク181の原点が位置決め画像中心に位置する座標値である。位置決めマーク画像座標Xcsの座標値を画像補償量Tcompに転換すれば、画像内の作業ツール座標系およびイメージセンサー第一座標系を補償する誤差が明確になる。
位置決めマーク181を中心にしてイメージセンサー17で撮った画像に基づいて作業ツールを制御する際、イメージセンサー17で撮った画像に画像補償量Tcompを加えて画像中の位置決めマーク画像を画像中心に位置させれば、イメージセンサー17で撮った画像に基づいて作業ツールを制御することができる。コントローラー13はイメージセンサー第一座標系の補償量に基づいて作業ツールの作動を制御し、イメージセンサー17で撮った画像位置と作業ツール位置との誤差を補償する。
When an error occurs between the position of the positioning mark 181 in the image and the center of the image, it is necessary to obtain the image compensation amount Tcomp and perform compensation. The positioning mark image coordinates Xcs are coordinate values in which the origin of the positioning mark 181 in the positioning image is located at the center of the positioning image. If the coordinate value of the positioning mark image coordinate Xcs is converted into the image compensation amount Tcomp, the error of compensating the work tool coordinate system and the image sensor first coordinate system in the image becomes clear.
When controlling the work tool based on the image taken by the image sensor 17 centering on the positioning mark 181, the image compensation amount Tcomp is added to the image taken by the image sensor 17 to position the positioning mark image in the image at the center of the image. Then, the work tool can be controlled based on the image taken by the image sensor 17. The controller 13 controls the operation of the work tool based on the compensation amount of the image sensor first coordinate system, and compensates for the error between the image position taken by the image sensor 17 and the work tool position.

イメージセンサー第一座標系の補償量をコントローラー13に書き込み、イメージセンサー第二座標系を形成すれば、イメージセンサー17で撮った画像に補償量を毎回加えることが必要でなくなり、ロボットアーム10がイメージセンサー17を稼働させる際、イメージセンサー第一座標系の補償量がイメージセンサー17の移動位置に加わることになるため、作業の便をはかることができる。 If the compensation amount of the image sensor first coordinate system is written to the controller 13 to form the image sensor second coordinate system, it is not necessary to add the compensation amount to the image taken by the image sensor 17 every time, and the robot arm 10 is an image. When the sensor 17 is operated, the compensation amount of the image sensor first coordinate system is added to the moving position of the image sensor 17, so that the work can be facilitated.

上述した技術特徴により、本発明による視覚誘導ロボットアームの補正方法は特定の補正対象、例えばドットマトリックスに限定されない。つまり、補正対象内に位置決めマークさえ指定すれば補正作業を進めることができるため、補正作業時間の縮減が実現できる。また、画像分析方式によって座標位置を判断することは人間の判断によって生じる視覚誤差を低減できる。 Due to the above-mentioned technical features, the correction method of the visual guidance robot arm according to the present invention is not limited to a specific correction target, for example, a dot matrix. That is, since the correction work can be advanced as long as the positioning mark is specified in the correction target, the correction work time can be reduced. Further, determining the coordinate position by the image analysis method can reduce the visual error caused by the human judgment.

10 ロボットアーム
11 基台
12 フランジ面
13 コントローラー
15 作業ツール
17 イメージセンサー
171 撮像チップ
171a 撮像面
18 補正対象
181 位置決めマーク
P1 第一補正座標
P2 第二補正座標
P3 第三補正座標
P4 第四補正座標
Psp 現在位置座標
Pcp 補正基準位置座標
TCP 作業ツール中心点
Xcs 位置決めマーク画像座標
Xc1 第一補正画像座標
Xc2 第二補正画像座標
Xc3 第三補正画像座標
Xc4 第四補正画像座標
Zcal 補正高度
X軸、Y軸、Z軸 基台座標系
X1軸、Y1軸、Z1軸 フランジ座標系
X2軸、Y2軸、Z2軸 作業ツール座標系
X3軸、Y3軸、Z3軸 イメージセンサー第一座標系
10 Robot arm 11 Base 12 Flange surface 13 Controller 15 Work tool 17 Image sensor 171 Imaging chip 171a Imaging surface 18 Correction target 181 Positioning mark P1 First correction coordinate P2 Second correction coordinate P3 Third correction coordinate P4 Fourth correction coordinate Psp Current position coordinates Pcp Correction reference position coordinates TCP Work tool Center point Xcs Positioning mark Image coordinates Xc1 First correction image coordinates Xc2 Second correction image coordinates Xc3 Third correction image coordinates Xc4 Fourth correction image coordinates Zcal Correction altitude X-axis, Y-axis , Z axis Base coordinate system X1 axis, Y1 axis, Z1 axis Flange coordinate system X2 axis, Y2 axis, Z2 axis Work tool coordinate system X3 axis, Y3 axis, Z3 axis Image sensor first coordinate system

Claims (5)

ロボットアームに適用される視覚誘導ロボットアームの補正方法において、
前記ロボットアームはコントローラーに電気的に接続され、基台、末端に位置するフランジ面、前記フランジ面に装着される作業ツールおよびイメージセンサーから構成され、作動範囲を有し、前記作業ツールは作業ツール中心点を有し、前記イメージセンサーは前記コントローラーに電気的に接続され、撮像面を有する撮像チップを内蔵し、
前記コントローラーはデータ入力、データ出力、データ保存、データ演算処理およびデータ表示などの機能を有し、予め基台座標系およびフランジ座標系を保存し、作業ツール座標系およびイメージセンサー第一座標系を設定し、前記基台座標系は相互に垂直のX軸、Y軸およびZ軸からなる座標空間であり、基台座標原点を有し、前記フランジ座標系は相互に垂直のX1軸、Y1軸およびZ1軸からなる座標空間であり、フランジ座標原点を有し、前記作業ツール座標系は相互に垂直のX2軸、Y2軸およびZ2軸からなる座標空間であり、前記作業ツール中心点に位置する作業ツール座標原点を有し、前記イメージセンサー第一座標系は相互に垂直のX3軸、Y3軸およびZ3軸からなる座標空間であり、イメージセンサー第一座標原点を有し、かつ前記X3軸および前記Y3軸からなるX3Y3平面が前記撮像チップの前記撮像面に平行であり、
前記コントローラーによって前記フランジ座標系、前記作業ツール座標系および前記イメージセンサー第一座標系から現在座標系を選択することができ、前記現在座標系とは目前に現在使っている座標系のことであり、
ステップは下記のとおりであり、
ステップA)は操作条件を設定することであり、前記基台座標系において補正高度、第一補正座標、第二補正座標、第三補正座標および第四補正座標を前記コントローラーによって設定し、
ステップB)は補正対象を設置することであり、前記ロボットアームの前記作動範囲内に位置決めマークを有する補正対象を設置し、
ステップC)は前記作業ツール中心点を転移することであり、前記作業ツール座標系を前記現在座標系に設定し、前記ロボットアームによって前記作業ツールを動かして前記作業ツール中心点を前記位置決めマークに転移し、前記コントローラーによって前記基台座標系に位置する前記現在位置座標を保存し、
ステップD)は前記イメージセンサーを稼働させることであり、前記イメージセンサー第一座標系を前記現在座標系に設定し、前記操作条件として前記補正高度を加え、前記ロボットアームは前記コントローラーの指示によって前記イメージセンサーを動かし、前記イメージセンサー第一座標原点を補正基準位置座標に転移し、前記補正基準位置座標を前記位置決めマークの上方に位置させるため、Z軸座標値の差が前記補正高度となり、
ステップE)は前記位置決めマークに画像分析を行うことであり、前記イメージセンサーは前記位置決めマークを有する位置決め画像を撮り、前記コントローラーは画像分析ソフトウェアによって前記位置決め画像に位置決め画像中心を設定し、前記位置決め画像を分析し、続いて、前記コントローラーは前記画像分析ソフトウェアによって前記位置決め画像中心に対する前記位置決め画像の前記位置決めマークの位置を確認し、位置決めマーク画像座標を求め、
ステップF)は画像と実距離を補正することであり、前記ロボットアームは前記イメージセンサーを動かして前記イメージセンサー第一座標原点を前記第一補正座標、前記第二補正座標、前記第三補正座標および前記第四補正座標に転移し、前記イメージセンサー第一座標原点が前記第一補正座標、前記第二補正座標、前記第三補正座標および前記第四補正座標に移る際、前記イメージセンサーは第一画像、第二画像、第三画像および第四画像を撮り、続いて、前記コントローラーは前記画像分析ソフトウェアによって前記第一画像、前記第二画像、前記第三画像および前記第四画像を分析し、前記第一画像から前記第四画像内の前記位置決めマーに別々に対応する第一補正画像座標、第二補正画像座標、第三補正画像座標および第四補正画像座標を求め、
ステップG)は画像補正データを計算することであり、明確になった前記基台座標系の前記第一補正座標から前記第四補正座標と、前記第一補正画像座標から前記第四補正画像座標とに基づいて画像補正データを算出し、前記画像補正データに基づいて画像内距離と実距離の転換関係を明確にすることができ、
ステップH)はイメージセンサー第一座標系の補償量を計算することであり、前記位置決めマーク画像座標と前記画像補正データに基づいて前記イメージセンサー第一座標系の補償量を計算し、前記イメージセンサーの画像位置と作業ツール位置の誤差を補償することを特徴とする、
視覚誘導ロボットアームの補正方法。
In the correction method of the visual guidance robot arm applied to the robot arm,
The robot arm is electrically connected to a controller and is composed of a base, a flange surface located at the end, a work tool mounted on the flange surface, and an image sensor, and has an operating range. The work tool is a work tool. The image sensor has a center point, is electrically connected to the controller, and incorporates an imaging chip having an imaging surface.
The controller has functions such as data input, data output, data storage, data calculation processing, and data display. The base coordinate system and the flange coordinate system are stored in advance, and the work tool coordinate system and the image sensor first coordinate system are stored. The base coordinate system is set and is a coordinate space composed of X-axis, Y-axis and Z-axis which are perpendicular to each other, has a base coordinate origin, and the flange coordinate system is X1 axis and Y1 axis which are perpendicular to each other. The work tool coordinate system is a coordinate space consisting of the X2 axis, the Y2 axis, and the Z2 axis, which are perpendicular to each other and has a flange coordinate origin, and is located at the center point of the work tool. The image sensor first coordinate system has a work tool coordinate origin, and the image sensor first coordinate system is a coordinate space composed of X3 axis, Y3 axis, and Z3 axis which are perpendicular to each other, has an image sensor first coordinate origin, and has the X3 axis and the X3 axis. The X3Y3 plane formed by the Y3 axis is parallel to the imaging surface of the imaging chip.
The controller can select the current coordinate system from the flange coordinate system, the work tool coordinate system, and the image sensor first coordinate system, and the current coordinate system is the coordinate system currently in use at hand. ,
The steps are as follows
Step A) is to set the operating conditions, and the correction altitude, the first correction coordinate, the second correction coordinate, the third correction coordinate, and the fourth correction coordinate are set by the controller in the base coordinate system.
Step B) is to install a correction target, and a correction target having a positioning mark is installed within the operating range of the robot arm.
Step C) is to transfer the work tool center point, set the work tool coordinate system to the current coordinate system, move the work tool by the robot arm, and set the work tool center point to the positioning mark. Transferred, and the controller saves the current position coordinates located in the base coordinate system.
Step D) is to operate the image sensor, set the image sensor first coordinate system to the current coordinate system, add the correction altitude as the operation condition, and the robot arm is said to be instructed by the controller. Since the image sensor is moved, the origin of the first coordinate of the image sensor is transferred to the correction reference position coordinate, and the correction reference position coordinate is positioned above the positioning mark, the difference between the Z-axis coordinate values becomes the correction altitude.
Step E) is to perform image analysis on the positioning mark, the image sensor takes a positioning image having the positioning mark, the controller sets the positioning image center on the positioning image by image analysis software, and the positioning is performed. The image is analyzed, and subsequently, the controller confirms the position of the positioning mark of the positioning image with respect to the positioning image center by the image analysis software, and obtains the positioning mark image coordinates.
Step F) is to correct the image and the actual distance, and the robot arm moves the image sensor to move the image sensor first coordinate origin to the first correction coordinate, the second correction coordinate, and the third correction coordinate. And when the image sensor first coordinate origin shifts to the first correction coordinate, the second correction coordinate, the third correction coordinate, and the fourth correction coordinate, the image sensor moves to the fourth correction coordinate. One image, a second image, a third image and a fourth image are taken, and then the controller analyzes the first image, the second image, the third image and the fourth image by the image analysis software. obtains a first correction image coordinates, the second corrected image coordinates, the third corrected image coordinates and the fourth corrected image coordinates corresponding separately to the positioning mark of the first image from the said fourth image,
Step G) is to calculate the image correction data, from the first correction coordinates of the base coordinate system to the fourth correction coordinates, and from the first correction image coordinates to the fourth correction image coordinates. The image correction data can be calculated based on the above, and the conversion relationship between the in-image distance and the actual distance can be clarified based on the image correction data.
Step H) is to calculate the compensation amount of the image sensor first coordinate system, calculate the compensation amount of the image sensor first coordinate system based on the positioning mark image coordinates and the image correction data, and the image sensor. It is characterized by compensating for the error between the image position and the work tool position.
How to correct the visual guidance robot arm.
前記ステップA)において、前記第一補正座標から前記第四補正座標はZ軸成分が同じであり、同じ高さに位置することを特徴とする請求項1に記載の視覚誘導ロボットアームの補正方法。 The correction method for a visual guidance robot arm according to claim 1, wherein in step A), the Z-axis components of the first correction coordinates to the fourth correction coordinates are the same and they are located at the same height. .. 補正座標は数が四つ以上であることを特徴とする請求項1に記載の視覚誘導ロボットアームの補正方法。 The correction method for a visual guidance robot arm according to claim 1, wherein the number of correction coordinates is four or more.
Figure 0006912529
前記ステップG)において、前記画像補正データの計算方法は下記のとおりであり、明確になった前記第一補正座標から前記第四補正座標の点の位置は前記式1によって表示され、マトリックスが前記式3によって表示され、それに対応する前記第一補正画像座標から前記第四補正画像座標は前記式2によって表示され、マトリックスが前記式4によって表示され、前記式3において、マトリックスXは前記基台座標系の前記第一補正座標、前記第二補正座標、前記第三補正座標および前記第四補正座標から構成され、前記式4において、マトリックスXは画像空間中の前記第一補正画像座標、前記第二補正画像座標、前記第三補正画像座標および前記第四補正画像座標から構成され、前記マトリックスXおよび前記マトリックスXの関係は前記式5および前記式6によって表示され、前記式6において、マトリックスAは二つの平面座標系の間のアフィン変換行列(Affine transformation matrix)であり、前記マトリックスXのムーアペンローズ擬似逆行列X (Moore−Penrose pseudo−inverse matrix)を計算すれば前記式6によって前記マトリックスAを算出でき、特異値分解(Singular Value Decomposition,SVD)によって擬似逆行列X を解くことができ、前記マトリックスA即ち前記画像補正データは画像内距離と実距離の転換関係を表示することを特徴とする請求項1に記載の視覚誘導ロボットアームの補正方法。
Figure 0006912529
In step G), the calculation method of the image correction data is as follows, the positions of the points from the first correction coordinates to the fourth correction coordinates that have been clarified are displayed by the equation 1, and the matrix is described. The fourth corrected image coordinates are displayed by the formula 2 from the first corrected image coordinates corresponding to the equation 3, the matrix is displayed by the formula 4, and in the formula 3, the matrix X R is the group. wherein the first correction coordinates of the base coordinate system, the second correction coordinates, is constituted from the third correction coordinates and the fourth correction coordinates, in the formula 4, the matrix X C is the first corrected image coordinates in image space , The second corrected image coordinate, the third corrected image coordinate, and the fourth corrected image coordinate, and the relationship between the matrix X R and the matrix X C is represented by the equation 5 and the equation 6. in 6, the matrix a is an affine transformation matrix between the two plane coordinate system (affine transformation matrix), by calculating the matrix X C Moore-Penrose pseudo-inverse X C + (Moore-Penrose pseudo -inverse matrix) For example, the matrix A can be calculated by the equation 6, the pseudo inverse matrix X C + can be solved by the singular value decomposition (SVD), and the matrix A, that is, the image correction data is the distance in the image and the actual distance. The correction method for the visual guidance robot arm according to claim 1, wherein the conversion relationship of the above is displayed.
前記ステップH)において、さらに前記イメージセンサー第一座標系の補償量を前記コントローラーに書き込み、イメージセンサー第二座標系を形成することを特徴とする請求項1に記載の視覚誘導ロボットアームの補正方法。 The correction method for a visual guidance robot arm according to claim 1, wherein in step H), the compensation amount of the image sensor first coordinate system is further written to the controller to form the image sensor second coordinate system. ..
JP2019145464A 2019-08-07 2019-08-07 How to correct the visual guidance robot arm Active JP6912529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145464A JP6912529B2 (en) 2019-08-07 2019-08-07 How to correct the visual guidance robot arm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145464A JP6912529B2 (en) 2019-08-07 2019-08-07 How to correct the visual guidance robot arm

Publications (2)

Publication Number Publication Date
JP2021024053A JP2021024053A (en) 2021-02-22
JP6912529B2 true JP6912529B2 (en) 2021-08-04

Family

ID=74664273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145464A Active JP6912529B2 (en) 2019-08-07 2019-08-07 How to correct the visual guidance robot arm

Country Status (1)

Country Link
JP (1) JP6912529B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113084808B (en) * 2021-04-02 2023-09-22 上海智能制造功能平台有限公司 Monocular vision-based 2D plane grabbing method for mobile mechanical arm
CN115674186A (en) * 2022-08-13 2023-02-03 苏州深浅优视智能科技有限公司 Calibration method and system for mechanical arm and 3D camera, electronic device and storage medium
CN116276938B (en) * 2023-04-11 2023-11-10 湖南大学 Mechanical arm positioning error compensation method and device based on multi-zero visual guidance

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4020994B2 (en) * 1996-09-24 2007-12-12 ファナック株式会社 Robot tool coordinate system correction setting method and end effector used in the method

Also Published As

Publication number Publication date
JP2021024053A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
KR102280663B1 (en) Calibration method for robot using vision technology
JP7207851B2 (en) Control method, robot system, article manufacturing method, program and recording medium
JP3733364B2 (en) Teaching position correction method
CN113001535B (en) Automatic correction system and method for robot workpiece coordinate system
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP4191080B2 (en) Measuring device
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP4021413B2 (en) Measuring device
JP6912529B2 (en) How to correct the visual guidance robot arm
US20110029131A1 (en) Apparatus and method for measuring tool center point position of robot
TWI699264B (en) Correction method of vision guided robotic arm
JP5618770B2 (en) Robot calibration apparatus and calibration method
JP2008012604A (en) Measuring apparatus and method of its calibration
JP2008152733A (en) Device, method, program and recording medium for robot offline programming
JPWO2018092243A1 (en) Work position correction method and work robot
JP2023108062A (en) Control device, robot device, control method, and program
EP4101604A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
JP4613955B2 (en) Rotation axis calculation method, program creation method, operation method, and robot apparatus
CN112238453B (en) Vision-guided robot arm correction method
JPH06785A (en) Correcting method for visual sensor coordinate system
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
CN111683797B (en) Calibration method and calibration device
JPH06206186A (en) Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150