JP2017071033A - Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member - Google Patents

Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member Download PDF

Info

Publication number
JP2017071033A
JP2017071033A JP2015200674A JP2015200674A JP2017071033A JP 2017071033 A JP2017071033 A JP 2017071033A JP 2015200674 A JP2015200674 A JP 2015200674A JP 2015200674 A JP2015200674 A JP 2015200674A JP 2017071033 A JP2017071033 A JP 2017071033A
Authority
JP
Japan
Prior art keywords
reference object
index
information
work
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015200674A
Other languages
Japanese (ja)
Inventor
鈴木 秀明
Hideaki Suzuki
秀明 鈴木
慶太 檀
Keita Dan
慶太 檀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015200674A priority Critical patent/JP2017071033A/en
Publication of JP2017071033A publication Critical patent/JP2017071033A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide working reference objects capable of using positional deviation information of indicators even when a robot apparatus cannot acquire, from a server, indicator positional deviation information measured for each working reference object.SOLUTION: A tray 7 includes: a marker 11 which is optically detected to allow adjustment of a coordinate system used for control of a robot arm 2; and an error information pattern 12 which is optically detected to allow obtaining of positional deviation information of the marker 11 relative to the tray 7. An error information measurement process measures positional deviation information of an indicator in the tray 7. An error information recording process converts the indicator positional deviation information measured by the error information measurement process into the error information pattern 12, an example of optically readable information image, and then records the pattern in the tray 7. A robot apparatus 1a adjusts the coordinate system used for control of the robot arm 2, based on positional information and positional deviation information of the marker 11 obtained by imaging the marker 11 and the error information pattern 12 with a fixed camera 5.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットアームを有するロボット装置で使用される作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材に関する。   The present invention relates to a work reference object used in a robot apparatus having a robot arm, a work reference object manufacturing method, a robot arm adjustment method, a vision system, a robot apparatus, and an index member.

多自由度のロボットアームを有するロボット装置が広く用いられている。ロボット装置では、多自由度のロボットアームによって出し入れされる複数の部品を配列状態で収容したトレイや、部品を一時的に保持してロボットアームによる作業を行う治工具が作業用基準物体として使用される。   A robot apparatus having a multi-degree-of-freedom robot arm is widely used. In robotic devices, trays that house multiple parts that are taken in and out by a robot arm with multiple degrees of freedom and jigs that temporarily hold the parts and work with the robot arm are used as work reference objects. The

ここで、トレイや治工具に精度のばらつきがある場合、ロボットアームを制御する座標系を一定に保ったままでは、ロボットアームによる部品の出し入れや取り付け作業の誤差が大きくなる。このため、特許文献1では、作業用基準物体に指標を設けてカメラで撮像し、指標の検出位置に合せてロボットアームを制御するための座標系を修正している。   Here, when there are variations in accuracy between trays and jigs and tools, errors in putting in and out the parts by the robot arm and attachment work increase if the coordinate system for controlling the robot arm is kept constant. For this reason, in Patent Document 1, an index is provided on the work reference object, the image is captured by the camera, and the coordinate system for controlling the robot arm is corrected in accordance with the detected position of the index.

しかし、指標そのものが作業用基準物体に対して位置ずれして設けられている場合、位置ずれした指標に合せてロボットアームを制御するための座標系を調整すると誤差が乗ってしまう。条件によっては、かえって作業用基準物体上でのロボットアームによる作業の誤差が大きくなる場合もあった。   However, in the case where the index itself is provided with a positional deviation with respect to the work reference object, an error occurs when the coordinate system for controlling the robot arm is adjusted in accordance with the misaligned index. Depending on the conditions, the error of the work by the robot arm on the work reference object may be increased.

このような指標自体の位置ずれをキャンセルするために、作業用基準物体に対する指標の位置ずれ情報を作業用基準物体ごとに予め測定して補正することが行われている。例えば特許文献2においては、部材の貼合せを行う組立装置を校正するためのガラス製の校正治具について、5つのマーク間の位置関係を事前に測定器において用いることが開示されている。   In order to cancel such positional deviation of the index itself, the positional deviation information of the index with respect to the work reference object is measured and corrected in advance for each work reference object. For example, Patent Document 2 discloses that a positional relationship between five marks is used in a measuring instrument in advance for a glass calibration jig for calibrating an assembling apparatus for laminating members.

作業用基準物体が複数存在する場合は、個体ごとに異なる位置ずれ情報を現物と紐づけて管理する必要が生じる。特許文献2に記載されているようなガラス製の校正治具については、個体数が少ないために手作業での管理することも比較的容易である。   When there are a plurality of work reference objects, it is necessary to manage positional deviation information that differs for each individual in association with the actual object. The glass calibration jig described in Patent Document 2 is relatively easy to manage by hand because of the small number of individuals.

しかし、例えば、工場内を数百から数千個単位のトレイが物流している場合などにおいて、作業用基準物体であるトレイの個体差情報を管理するとなると、管理用のサーバーを構築することが一般的である。例えば、作業用基準物体ごとに付与したコードに関連付けて指標の位置ずれ情報をサーバーに保存しておき、使用する作業用基準物体のコードで位置ずれ情報をサーバーから呼び出してロボットアームを制御する座標系を調整することになる。   However, for example, in the case where hundreds to thousands of trays are distributed in a factory, when managing individual difference information of trays that are work reference objects, it is possible to construct a management server. It is common. For example, the coordinate position information stored in the server is stored in the server in association with the code assigned to each work reference object, and the robot arm is controlled by calling the position displacement information from the server with the work reference object code to be used. The system will be adjusted.

特開平7−84631号公報Japanese Patent Laid-Open No. 7-84631 特開2002−23851号公報JP 2002-23851 A

しかし、サーバーからロボット装置へ作業用基準物体に対する指標の位置ずれ情報を呼び出す場合、サーバーに接続されていないロボット装置では、作業用基準物体ごとの位置ずれ情報を呼び出すことができない。海外や遠隔地の工場では、作業用基準物体ごとの位置ずれ情報を呼び出すことができない。大量の作業用基準物体を入れ替わり激しく使用する場合、位置ずれ情報の管理システムの維持管理が高コストになる。   However, when the positional deviation information of the index with respect to the work reference object is called from the server to the robot apparatus, the robot apparatus that is not connected to the server cannot call the positional deviation information for each work reference object. In overseas and remote factories, it is not possible to call up positional information for each work reference object. When a large amount of work reference objects are replaced and used violently, the maintenance of the misregistration information management system becomes expensive.

本発明は、ロボット装置がサーバーから作業用基準物体ごとに測定された指標の位置ずれ情報を取得できない場合でも、指標の位置ずれ情報を利用してロボットアームを制御する座標系を調整できる作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材を提供することを目的としている。   The present invention provides a working apparatus capable of adjusting a coordinate system for controlling a robot arm using the positional deviation information of an index even when the robot apparatus cannot acquire the positional deviation information of the index measured for each work reference object from the server. It is an object of the present invention to provide a reference object, a method for manufacturing a work reference object, a method for adjusting a robot arm, a vision system, a robot apparatus, and an index member.

本発明の作業用基準物体の製造方法は、ロボットアームを有するロボット装置で使用され、光学的に検知して前記ロボットアームの制御に用いる座標系を調整可能な指標を有する作業用基準物体における指標の位置ずれ情報を測定する測定工程と、前記測定工程により測定した前記位置ずれ情報を、光学的に読み取り可能な情報画像に変換して前記作業用基準物体に記録する記録工程と、を有する物の製造方法である。   INDUSTRIAL APPLICABILITY The method for manufacturing a work reference object according to the present invention is used in a robot apparatus having a robot arm, and is an index in a work reference object having an index that can be optically detected and used to adjust the coordinate system used to control the robot arm. A measuring step of measuring the positional deviation information of the recording medium, and a recording step of converting the positional deviation information measured in the measuring step into an optically readable information image and recording it on the reference object for work. It is a manufacturing method.

本発明の作業用基準物体の製造方法では、製造された作業用基準物体に情報画像として作業用基準物体ごとの指標の位置ずれ情報が記録される。このため、ロボット装置がサーバーから位置ずれ情報を取得できない場合でも、作業用基準物体から情報画像を読み取ることで、指標の位置ずれ情報を取得してロボットアームを制御する座標系を調整できる作業用基準物体を提供することができる。   In the method for manufacturing a work reference object according to the present invention, the positional deviation information of the index for each work reference object is recorded as an information image on the manufactured work reference object. For this reason, even when the robot apparatus cannot acquire the positional deviation information from the server, it is possible to adjust the coordinate system that controls the robot arm by acquiring the positional deviation information of the index by reading the information image from the work reference object. A reference object can be provided.

実施の形態1のロボット装置の構成の説明図である。FIG. 3 is an explanatory diagram of a configuration of the robot apparatus according to the first embodiment. トレイの構成の説明図である。It is explanatory drawing of a structure of a tray. 誤差情報の測定記録装置の構成の説明図である。It is explanatory drawing of a structure of the measurement recording device of error information. トレイに対する誤差情報の記録処理のフローチャートである。It is a flowchart of the error information recording process for the tray. トレイの1つのマーカー周辺の拡大図である。It is an enlarged view around one marker of a tray. ロボットアームの調整制御のフローチャートである。It is a flowchart of adjustment control of a robot arm. ロボット動作補正演算処理の説明図である。It is explanatory drawing of a robot operation correction calculation process. 実施の形態2における誤差情報の測定記録装置の構成の説明図である。10 is an explanatory diagram of a configuration of an error information measurement recording apparatus according to Embodiment 2. FIG. 実施の形態2のロボット装置の構成の説明図である。It is explanatory drawing of the structure of the robot apparatus of Embodiment 2. FIG. 実施の形態2におけるワーク保持部の構造の説明図である。FIG. 10 is an explanatory diagram of a structure of a work holding unit in a second embodiment. ロボットアームのティーチング制御のフローチャートである。It is a flowchart of teaching control of a robot arm. マーカー位置誤差データの二次元コードの説明図である。It is explanatory drawing of the two-dimensional code of marker position error data. 実施の形態3のワーク保持具におけるマーカーの説明図である。It is explanatory drawing of the marker in the workpiece holder of Embodiment 3. FIG. 実施の形態3のワーク保持具における誤差情報保持パターンの説明図である。It is explanatory drawing of the error information holding pattern in the workpiece holder of Embodiment 3. マーカーの別の例の説明図であるIt is explanatory drawing of another example of a marker. 誤差情報パターンの別の例の説明図である。It is explanatory drawing of another example of an error information pattern.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施の形態1>
(ロボット装置)
図1は実施の形態1のロボット装置の構成の説明図である。図1に示すように、ロボット装置1aは、制御部4がロボットアーム2、ロボットハンド3、及びフィンガー31を制御して、トレイ7内のワーク9aに対するピッキング作業を行う。ロボット装置1aは、ロボットアーム2によりトレイ7からワーク9aを取り出して、図示しない後工程に受け渡す。
<Embodiment 1>
(Robot device)
FIG. 1 is an explanatory diagram of the configuration of the robot apparatus according to the first embodiment. As illustrated in FIG. 1, in the robot apparatus 1 a, the control unit 4 controls the robot arm 2, the robot hand 3, and the fingers 31 to perform a picking operation on the workpiece 9 a in the tray 7. The robot apparatus 1a takes out the work 9a from the tray 7 by the robot arm 2 and transfers it to a subsequent process (not shown).

ロボットアーム2は、架台10に固定された6軸垂直多関節のロボットアームである。ロボットアーム2の先端に、ワーク9aを把持するロボットハンド3が固定されている。ロボットハンド3の先端にフィンガー31が固定されている。ロボットハンド3は、フィンガー31の開閉によってワーク9aを把持及びリリースする。   The robot arm 2 is a 6-axis vertical articulated robot arm fixed to the gantry 10. A robot hand 3 that holds the workpiece 9 a is fixed to the tip of the robot arm 2. A finger 31 is fixed to the tip of the robot hand 3. The robot hand 3 grips and releases the workpiece 9 a by opening and closing the fingers 31.

トレイ7のワーク9aが無くなると、搬送機構401は、ワーク9aが無くなったトレイ7を排出し、ワーク9aを収容した新しいトレイ7をロボットアーム2の可動範囲内に搬送してくる。新しいトレイ7がロボット装置1aの前に位置決め停止され、ロボットアーム2、ロボットハンド3、及びフィンガー31によってピッキング作業が再開される。   When the work 9a on the tray 7 is exhausted, the transport mechanism 401 ejects the tray 7 from which the work 9a has been removed, and transports a new tray 7 containing the work 9a into the movable range of the robot arm 2. The positioning of the new tray 7 is stopped in front of the robot apparatus 1a, and the picking operation is resumed by the robot arm 2, the robot hand 3, and the finger 31.

制御部4は、ロボット装置1aを制御するコンピュータである。CPU41は、演算を行う。ROM42及びRAM43は、情報を記憶する。インターフェース部(I/F)44は、外部と通信を行う。CPU41、ROM42、RAM43、及びインターフェース部(I/F)44は、バス45を介して制御部4の内部で互いに通信可能である。   The control unit 4 is a computer that controls the robot apparatus 1a. CPU41 performs a calculation. The ROM 42 and the RAM 43 store information. The interface unit (I / F) 44 communicates with the outside. The CPU 41, ROM 42, RAM 43, and interface unit (I / F) 44 can communicate with each other inside the control unit 4 via the bus 45.

CPU41は、ロボット制御部411、ロボット動作補正演算部412、画像データ取得部(視覚センサ制御部)413、マーカー位置演算部414、誤差情報読取部415として機能する。これらの演算部及び制御部は、ROM42に記憶されたプログラムをCPU41に読み込むことによってCPU41内に一時的に形成される。プログラムは、光ディスク等の記録媒体によって制御部4にコピーされてもよい。   The CPU 41 functions as a robot control unit 411, a robot motion correction calculation unit 412, an image data acquisition unit (visual sensor control unit) 413, a marker position calculation unit 414, and an error information reading unit 415. The calculation unit and the control unit are temporarily formed in the CPU 41 by reading the program stored in the ROM 42 into the CPU 41. The program may be copied to the control unit 4 by a recording medium such as an optical disk.

ロボットアーム2、ロボットハンド3、及びフィンガー31は、インターフェース部44を介してCPU41のロボット制御部411に電気的に接続されている。ロボット制御部411は、指令値を出力して、ロボットアーム2の各関節を駆動し、ロボットアーム2の位置姿勢を制御し、ロボットアーム2の先端部を6自由度に移動させる。ロボット制御部411は、指令値を出力して、ロボットハンド3の位置姿勢を調整する。ロボット制御部411は、指令値を出力して、フィンガー31の開閉動作を実行させる。   The robot arm 2, the robot hand 3, and the finger 31 are electrically connected to the robot control unit 411 of the CPU 41 via the interface unit 44. The robot control unit 411 outputs a command value, drives each joint of the robot arm 2, controls the position and orientation of the robot arm 2, and moves the tip of the robot arm 2 with six degrees of freedom. The robot control unit 411 adjusts the position and orientation of the robot hand 3 by outputting a command value. The robot control unit 411 outputs a command value to cause the finger 31 to open / close.

(座標系)
ロボットアーム2の基端部には、架台10に対するロボットアーム2の位置姿勢を代表する座標系としてロボット座標系Rが設定されている。ロボットハンド3の掌部には、ロボットハンド3の位置姿勢を表す手先座標系Tが設定されている。
(Coordinate system)
A robot coordinate system R is set at the base end of the robot arm 2 as a coordinate system representing the position and orientation of the robot arm 2 with respect to the gantry 10. A hand coordinate system T representing the position and orientation of the robot hand 3 is set in the palm of the robot hand 3.

ロボット制御部411は、ロボット座標系Rを基準とする手先座標系Tの相対位置姿勢の目標値(指令値)に対して、ロボットアーム2の各関節の取るべき角度目標値を算出する(逆運動学計算)。なお、ここで、ロボット座標系Rから手先座標系Tへの相対位置姿勢をと表した。本明細書においては、任意の座標系Aから座標系Bへの相対位置姿勢及びその相対位置姿勢を表す座標変換行列を又はのように左肩と右下に座標系の記号を付与することによって表現する。 The robot control unit 411 calculates an angle target value to be taken by each joint of the robot arm 2 with respect to a target value (command value) of the relative position and orientation R H T of the hand coordinate system T with respect to the robot coordinate system R. Do (inverse kinematics calculation). Here, the relative position and orientation from the robot coordinate system R to the hand coordinate system T is represented as R H T. In the present specification, the coordinate system symbol on the left shoulder and the lower right as the relative position and orientation and A H B or A M B coordinate transformation matrix representing the relative position and orientation of the coordinate system B from an arbitrary coordinate system A It expresses by giving.

ロボット制御部411は、ロボットアーム2の各関節に設けられた図示しないエンコーダより出力される現在角度が角度目標値に一致するようにサーボ制御を行う。ロボット制御部411は、エンコーダから各関節の現在角度情報を取得し、ロボット座標系Rに対する手先座標系Tの現在の相対位置姿勢であるを算出する(順運動学計算)。 The robot control unit 411 performs servo control so that the current angle output from an encoder (not shown) provided at each joint of the robot arm 2 matches the angle target value. The robot control unit 411 obtains the current angle information of each joint from the encoder to calculate the R H T is the current relative position and orientation of the hand coordinate system T with respect to the robot coordinate system R (forward kinematics calculation).

ロボット装置1aは、工場でピッキング作業や組立作業を自動的に精度よく行うために、または治工具やワークに対するティーチングの位置調整を高精度かつ簡便に行うために、ロボットアーム2の位置調整と視覚センサによる計測とを組合せている。   The robot apparatus 1a adjusts and visually adjusts the position of the robot arm 2 in order to automatically and accurately perform picking work and assembly work in the factory, or to adjust the position of teaching tools and workpieces with high accuracy and simplicity. Combined with sensor measurement.

ロボット装置1aは、視覚センサを用いてトレイ7を検知するビジョンシステムを搭載している。視覚センサとは、測定対象物の位置や姿勢を二次元的または三次元的に計測可能なセンサである。視覚センサを表す言葉として「ビジョン」「ロボットビジョン」「カメラ」などの表現が用いられる。実施の形態1において、視覚センサは、固定カメラ5のことである。   The robot apparatus 1a is equipped with a vision system that detects the tray 7 using a visual sensor. A visual sensor is a sensor that can measure the position and orientation of a measurement object two-dimensionally or three-dimensionally. Expressions such as “vision”, “robot vision”, and “camera” are used as words representing the visual sensor. In the first embodiment, the visual sensor is the fixed camera 5.

以上説明したように、保持部の一例である搬送機構401は、トレイ7をロボットアーム2による処理が可能な位置に保持する。撮像部の一例である固定カメラ5は、搬送機構401により保持されたトレイ7の少なくともマーカー11と誤差情報パターン12とを含む領域を撮像可能である。画像処理部の一例である誤差情報読取部415は、固定カメラ5により撮像された撮像画像を画像処理して、マーカー11の位置情報とマーカー11の位置ずれ情報とを取得する。調整部の一例である制御部4は、取得したマーカー11の位置情報とマーカー11の位置ずれ情報とに基づいてロボットアーム2の制御に用いる座標系を調整する。   As described above, the transport mechanism 401, which is an example of a holding unit, holds the tray 7 at a position where the robot arm 2 can perform processing. The fixed camera 5, which is an example of an imaging unit, can capture an area including at least the marker 11 and the error information pattern 12 on the tray 7 held by the transport mechanism 401. An error information reading unit 415, which is an example of an image processing unit, performs image processing on a captured image captured by the fixed camera 5, and acquires position information of the marker 11 and position shift information of the marker 11. The control unit 4, which is an example of an adjustment unit, adjusts the coordinate system used for controlling the robot arm 2 based on the acquired positional information of the marker 11 and positional deviation information of the marker 11.

(固定カメラ)
制御部4は、固定カメラ5の撮影画像を画像処理してトレイ7内のワーク9aの状態を検知する。固定カメラ5は、トレイ7の上空位置に設置され、トレイ7の上面を撮影する。固定カメラ5は、インターフェース部44を介してCPU41の画像データ取得部413に電気的に接続されている。
(Fixed camera)
The control unit 4 performs image processing on the captured image of the fixed camera 5 and detects the state of the workpiece 9 a in the tray 7. The fixed camera 5 is installed at a position above the tray 7 and photographs the upper surface of the tray 7. The fixed camera 5 is electrically connected to the image data acquisition unit 413 of the CPU 41 via the interface unit 44.

画像データ取得部413は、固定カメラ5に対して撮像指令を出力し、固定カメラ5が撮影を行う。画像データ取得部413は、固定カメラ5に指令を出力してトレイ7の画像を撮影させ、固定カメラ5から画像データ取得部413へ画像データを送信させる。制御部4は、画像データ取得部413から画像データを取得してRAM43に一時保持する。   The image data acquisition unit 413 outputs an imaging command to the fixed camera 5 and the fixed camera 5 performs shooting. The image data acquisition unit 413 outputs a command to the fixed camera 5 to take an image of the tray 7, and transmits the image data from the fixed camera 5 to the image data acquisition unit 413. The control unit 4 acquires image data from the image data acquisition unit 413 and temporarily stores it in the RAM 43.

固定カメラ5で撮像した撮像画像のピクセルデータを三次元の座標データに変換するためのカメラ内部パラメータ及び外部パラメータは、事前に取得されてROM42に記憶されている。画像データ取得部413は、取得した撮像画像の画像データをマーカー位置演算部414及び誤差情報読取部415に出力する。   Camera internal parameters and external parameters for converting pixel data of a captured image captured by the fixed camera 5 into three-dimensional coordinate data are acquired in advance and stored in the ROM 42. The image data acquisition unit 413 outputs the acquired image data of the captured image to the marker position calculation unit 414 and the error information reading unit 415.

マーカー位置演算部414は、撮像画像の画像データを画像処理してマーカー11の位置情報を取得する。誤差情報読取部415は、撮像画像の画像データを画像処理して、トレイ7内のワーク9aに対するマーカー11の位置ずれ情報を取得する。   The marker position calculation unit 414 acquires the position information of the marker 11 by performing image processing on the image data of the captured image. The error information reading unit 415 performs image processing on the image data of the captured image, and acquires positional deviation information of the marker 11 with respect to the workpiece 9a in the tray 7.

ロボット動作補正演算部412は、マーカー11の位置情報と位置ずれ情報とを用いて、ロボットアーム2を制御するための座標系を調整する。ロボット制御部411は、ロボット動作補正演算部412の演算結果に基づいて、マーカー11の位置ずれ方向及び位置ずれ量を相殺するように、ロボットアーム2、ロボットハンド3、及びフィンガー31を動作させる。   The robot motion correction calculation unit 412 adjusts the coordinate system for controlling the robot arm 2 using the position information and the position shift information of the marker 11. The robot control unit 411 operates the robot arm 2, the robot hand 3, and the finger 31 so as to cancel the positional deviation direction and the positional deviation amount of the marker 11 based on the calculation result of the robot motion correction calculation unit 412.

固定カメラ5のレンズ主点位置に、固定カメラ5の位置姿勢を代表する固定カメラ座標系Fが仮想的に設定されている。固定カメラ座標系Fから記述された三次元座標データをロボット座標系Rに変換するための校正データも事前に取得され、ROM42に記憶されている。   A fixed camera coordinate system F representing the position and orientation of the fixed camera 5 is virtually set at the lens principal point position of the fixed camera 5. Calibration data for converting the three-dimensional coordinate data described from the fixed camera coordinate system F into the robot coordinate system R is also acquired in advance and stored in the ROM 42.

(トレイ)
図2はトレイの構成の説明図である。図2中、(a)は斜視図、(b)は平面図である。図1に示すように、ロボット装置の一例であるロボット装置1aは、作業用基準物体の一例であるトレイ7を使用する。作業用基準物体の一例であるトレイ7は、ロボットアーム2を有するロボット装置で使用される。
(tray)
FIG. 2 is an explanatory diagram of the configuration of the tray. 2A is a perspective view, and FIG. 2B is a plan view. As shown in FIG. 1, a robot apparatus 1a that is an example of a robot apparatus uses a tray 7 that is an example of a reference object for work. The tray 7, which is an example of a work reference object, is used in a robot apparatus having the robot arm 2.

図2の(a)に示すように、トレイ7は、ワーク9aを整列して収容し搬送する容器である。トレイ7は、ロボットアーム2によりワーク9aが取り出される容器である。トレイ7は、仕切りによってワーク9aを16個格納できる。トレイ7は、それぞれの仕切り内に、ワーク9aに対する不図示の突き当て部を有し、トレイ7に対してワーク9aを所定の精度範囲で位置決めできる。   As shown in FIG. 2A, the tray 7 is a container that accommodates and transports the workpieces 9a in an aligned manner. The tray 7 is a container from which the workpiece 9a is taken out by the robot arm 2. The tray 7 can store 16 workpieces 9a by partitions. The tray 7 has a not-shown abutting portion with respect to the work 9a in each partition, and can position the work 9a with respect to the tray 7 within a predetermined accuracy range.

図2の(b)に示すように、トレイ7の上面にマーカー11と誤差情報パターン12とが隣接して配置される。固定カメラ5の撮像画像は、トレイ7の上面の4つのマーカー11と、8つの誤差情報パターン12とを含む。   As shown in FIG. 2B, the marker 11 and the error information pattern 12 are arranged adjacent to each other on the upper surface of the tray 7. The captured image of the fixed camera 5 includes four markers 11 on the upper surface of the tray 7 and eight error information patterns 12.

図1に示すように、トレイ7は、ロボット装置1aに合わせて新たに設計されたものが好ましい。しかし、実施の形態1では、ロボット装置1aを導入するにあたって人手作業で使用していたトレイ7、すなわち視覚センサによって計測されることを想定していないトレイ7を流用している。   As shown in FIG. 1, the tray 7 is preferably newly designed in accordance with the robot apparatus 1a. However, in the first embodiment, the tray 7 that has been used manually when the robot apparatus 1a is introduced, that is, the tray 7 that is not assumed to be measured by a visual sensor is used.

視覚センサによって計測されることを想定していないため、トレイ7は、固定カメラ5によって測定をおこなうことが難しく、マーカー11が必要となる可能性が高い。   Since it is not assumed to be measured by a visual sensor, it is difficult for the tray 7 to be measured by the fixed camera 5, and the marker 11 is likely to be required.

トレイ7は、トレイ7の1つの面に、指標の一例であるマーカー11を複数配置している。マーカー11は、光学的に検知してロボットアーム2の制御に用いる座標系を調整可能である。マーカー11は、黒色円形のシールをトレイ7に貼り付けることによって実現している。   In the tray 7, a plurality of markers 11, which are examples of indices, are arranged on one surface of the tray 7. The marker 11 can be optically detected and the coordinate system used for controlling the robot arm 2 can be adjusted. The marker 11 is realized by attaching a black circular seal to the tray 7.

(誤差情報の記録処理)
図3は誤差情報の測定記録装置の構成の説明図である。図4はトレイに対する誤差情報の記録処理のフローチャートである。実施の形態1では、ロボット装置1aの動作とは関係なく、別途事前に、図3に示す専用の誤差情報の測定記録装置300を用いてトレイ7に誤差情報を記録している。制御部304は、測定制御部313と、記録制御部314とを有する。
(Error information recording process)
FIG. 3 is an explanatory diagram of the configuration of the error information measurement recording apparatus. FIG. 4 is a flowchart of error information recording processing for the tray. In the first embodiment, regardless of the operation of the robot apparatus 1a, error information is recorded on the tray 7 in advance separately using a dedicated error information measurement recording apparatus 300 shown in FIG. The control unit 304 includes a measurement control unit 313 and a recording control unit 314.

図3に示すように、測定記録装置300は、支持部301にトレイ7の左側面と下側面を機械的に突き当てた状態で、測定顕微鏡305を用いて、トレイ7の基準位置に対するマーカー11の円の中心の座標値を測定する。測定工程の一例である誤差情報の測定処理では、測定制御部313がトレイ7における指標の位置ずれ情報を測定する。   As shown in FIG. 3, the measurement recording apparatus 300 uses the measurement microscope 305 and the marker 11 with respect to the reference position of the tray 7 in a state where the left side surface and the lower side surface of the tray 7 are mechanically abutted against the support portion 301. Measure the coordinate value of the center of the circle. In the error information measurement process which is an example of the measurement process, the measurement control unit 313 measures the positional deviation information of the index on the tray 7.

測定記録装置300は、測定制御部313が測定顕微鏡305により撮像されたトレイ7の撮像画像を画像処理して、マーカー11の位置ずれ情報を取得し、位置ずれ情報を誤差情報パターン12として出力部316から出力する。記録工程の一例である誤差情報の記録処理では、記録制御部314が、誤差情報の測定処理により測定した指標の位置ずれ情報を、光学的に読み取り可能な情報画像の一例である誤差情報パターン12に変換してトレイ7に記録する。これにより、実施の形態1のトレイ7が製造される。   In the measurement recording apparatus 300, the measurement control unit 313 performs image processing on the captured image of the tray 7 captured by the measurement microscope 305, acquires the positional deviation information of the marker 11, and outputs the positional deviation information as the error information pattern 12. 316 to output. In the error information recording process which is an example of the recording process, the error information pattern 12 which is an example of an information image in which the recording control unit 314 can optically read the index positional deviation information measured by the error information measurement process. And is recorded on the tray 7. Thereby, the tray 7 of Embodiment 1 is manufactured.

図3を参照して図4に示すように、ユーザーは、マーカー11を付与する前のトレイ7本体を準備し、測定記録装置300の支持部301にセットする(S01)。ユーザーは、支持部301にセットされたトレイ7にマーカー11を貼り付ける(S02)。   As shown in FIG. 4 with reference to FIG. 3, the user prepares the tray 7 body before applying the marker 11, and sets it on the support portion 301 of the measurement recording apparatus 300 (S01). The user attaches the marker 11 to the tray 7 set on the support portion 301 (S02).

ユーザーは、支持部301にセットされたトレイ7にワーク(9a)の測定用ダミー309aをセットして測定記録装置300の不図示の測定開始ボタンを押す。すると、測定記録装置300は、測定用ダミー309aを撮像して、トレイ7の基準位置に対するマーカー11の取り付け位置の位置ずれ量を測定する(S03)。測定用ダミー309aには、測定用の等間隔のメッシュと中心位置とが形成されている。測定制御部313は、測定用ダミー309aをセットしたトレイ7の測定顕微鏡305を通じた撮像画像から、トレイ7においてマーカー11が配置されるべき基準位置を求める。そして、4つのマーカー11ごとに基準位置と現在のマーカー位置との位置ずれ量を求める。   The user sets the measurement dummy 309a of the workpiece (9a) on the tray 7 set on the support portion 301 and presses a measurement start button (not shown) of the measurement recording device 300. Then, the measurement recording apparatus 300 images the measurement dummy 309a and measures the amount of displacement of the attachment position of the marker 11 with respect to the reference position of the tray 7 (S03). The measurement dummy 309a is formed with an equidistant mesh for measurement and a center position. The measurement control unit 313 obtains a reference position where the marker 11 is to be arranged on the tray 7 from the captured image through the measurement microscope 305 of the tray 7 on which the measurement dummy 309a is set. Then, a positional deviation amount between the reference position and the current marker position is obtained for each of the four markers 11.

記録制御部314は、後述する定義に合致した誤差情報パターン12をラベルシールとして作成し、出力部316から印刷出力する。測定記録装置300は、マーカー11ごとの位置ずれ情報を算出し、マーカー11の誤差量(ΔX、ΔY)に応じた誤差情報パターン12を作成し、出力部316から印刷出力する(S04)。   The recording control unit 314 creates an error information pattern 12 that matches a definition described later as a label sticker, and prints it out from the output unit 316. The measurement recording device 300 calculates positional deviation information for each marker 11, creates an error information pattern 12 corresponding to the error amount (ΔX, ΔY) of the marker 11, and prints out the output from the output unit 316 (S04).

ユーザーは、支持部301にセットされたトレイ7のマーカー11に近接した位置に、マーカー11ごとの誤差情報パターン12を貼り付ける(S05)。このようにして、トレイ7に対するマーカー11及び誤差情報パターン12の加工が完了する。   The user pastes the error information pattern 12 for each marker 11 at a position close to the marker 11 of the tray 7 set on the support unit 301 (S05). In this way, the processing of the marker 11 and the error information pattern 12 for the tray 7 is completed.

マーカー11の位置誤差は、マーカー11をトレイ7に貼付することで初めて発生した誤差である。そして、マーカー11の位置誤差情報は、マーカー11をトレイ7に貼付することで初めて発生した情報である。誤差情報パターン12は、マーカー11の位置誤差情報を反映している。誤差情報パターン12は、マーカー11がトレイ7に設けられた後に、マーカー11の測定結果に応じてトレイ7に記録される。   The position error of the marker 11 is an error that occurs for the first time by attaching the marker 11 to the tray 7. The position error information of the marker 11 is information generated for the first time when the marker 11 is attached to the tray 7. The error information pattern 12 reflects the position error information of the marker 11. The error information pattern 12 is recorded on the tray 7 according to the measurement result of the marker 11 after the marker 11 is provided on the tray 7.

したがって、マーカー11と誤差情報パターン12は、独立している。「独立」とは、「マーカー11を加工した後に、誤差情報パターン12を別個に設けることができる」、「誤差情報パターン12の保持する位置ずれ情報をマーカー11の位置情報と別個に読み取ることができる」という意味である。   Therefore, the marker 11 and the error information pattern 12 are independent. “Independent” means that “the error information pattern 12 can be provided separately after the marker 11 has been processed”, “the positional deviation information held by the error information pattern 12 can be read separately from the position information of the marker 11. It means "I can do it."

例えば、マーカー11と誤差情報パターン12を同時に1枚のラベルシールに印刷してトレイ7に貼り付けた場合は独立でない。しかし、ドーナツ状に作成したマーカー11の内側に誤差情報パターン12を取り付ける場合は独立である。   For example, the case where the marker 11 and the error information pattern 12 are simultaneously printed on one label sticker and attached to the tray 7 is not independent. However, the case where the error information pattern 12 is attached inside the marker 11 formed in a donut shape is independent.

(誤差情報パターン)
図5はトレイの1つのマーカー周辺の拡大図である。図5中、(a)はマーカー、(b)はマーカーの拡大図、(c)は誤差情報パターン、(d)は誤差情報パターンの検出範囲である。
(Error information pattern)
FIG. 5 is an enlarged view around one marker on the tray. In FIG. 5, (a) is a marker, (b) is an enlarged view of the marker, (c) is an error information pattern, and (d) is a detection range of the error information pattern.

図5の(a)に示すように、トレイ7の基準位置としてトレイ7の左下の点を採用する。図5の(b)に示すように、トレイ7の基準位置に仮想的に設定するトレイ座標系Wからみた測定結果の座標値を(X,Y)とし、マーカー位置の座標値の設計値を(X、Y)とする。このとき、マーカー位置の誤差量(ΔX、ΔY)は次式のように計算される。 As shown in FIG. 5A, the lower left point of the tray 7 is adopted as the reference position of the tray 7. As shown in FIG. 5B, the coordinate value of the measurement result viewed from the tray coordinate system W virtually set to the reference position of the tray 7 is (X R , Y R ), and the coordinate value design of the marker position is designed. Let the values be (X D , Y D ). At this time, the error amount (ΔX, ΔY) of the marker position is calculated as follows.

Figure 2017071033
Figure 2017071033

図5の(c)に示すように、誤差情報パターン12は、マーカー位置の誤差量(ΔX、ΔY)に比例した長さを有する矩形形状として定義した。誤差情報パターン12の矩形の長さΔL1及びΔL2は、マーカー位置誤差ΔX、ΔYの絶対値の50倍の長さとなるように定義している。また、マーカー11に対する誤差情報パターン12の取り付け位置が、誤差方向(すなわち、ΔX、ΔYの正負)と対応している。   As shown in FIG. 5C, the error information pattern 12 is defined as a rectangular shape having a length proportional to the error amount (ΔX, ΔY) of the marker position. The rectangular lengths ΔL1 and ΔL2 of the error information pattern 12 are defined to be 50 times the absolute value of the marker position errors ΔX and ΔY. Further, the attachment position of the error information pattern 12 with respect to the marker 11 corresponds to the error direction (that is, the sign of ΔX and ΔY).

Figure 2017071033
Figure 2017071033

図2の(b)に示すように、トレイ7は、情報画像の一例である誤差情報パターン12を有する。誤差情報パターン12は、トレイ7のマーカー11が配置された面において対応するマーカー11に隣接させて配置され、光学的に検知してトレイ7に対するマーカー11の位置ずれ情報を取得可能である。位置ずれ情報は、トレイ7に対する指標の位置ずれ方向及び位置ずれ量である。誤差情報パターン12は、マーカー11を中心とする直交座標における位置ずれ方向に対応する座標軸の方向に、位置ずれ量の座標軸方向成分に対応する長さを持つ。   As shown in FIG. 2B, the tray 7 has an error information pattern 12 that is an example of an information image. The error information pattern 12 is disposed adjacent to the corresponding marker 11 on the surface of the tray 7 on which the marker 11 is disposed, and can be detected optically to acquire positional deviation information of the marker 11 with respect to the tray 7. The positional deviation information is the positional deviation direction and the positional deviation amount of the index with respect to the tray 7. The error information pattern 12 has a length corresponding to the coordinate axis direction component of the positional deviation amount in the direction of the coordinate axis corresponding to the positional deviation direction in the orthogonal coordinates centered on the marker 11.

(ロボットアームを制御するための座標の調整)
図6はロボットアームの調整制御のフローチャートである。プログラムを読み込んだコンピュータである制御部4は、誤差情報パターン(12:図2)を用いてロボットアーム2によるトレイ7上の作業位置を調整する。
(Coordinate adjustment to control the robot arm)
FIG. 6 is a flowchart of robot arm adjustment control. The control unit 4, which is a computer that has read the program, adjusts the work position on the tray 7 by the robot arm 2 using the error information pattern (12: FIG. 2).

図1を参照して図6に示すように、制御部4は、保持工程において、搬送機構401によって、トレイ7がロボットアーム2の可動範囲内に搬送されてくることを検知する(S11)。保持工程では、搬送機構401により、トレイ7をロボットアーム2による処理が可能な位置に保持させる。   As shown in FIG. 6 with reference to FIG. 1, the control unit 4 detects that the tray 7 is transported within the movable range of the robot arm 2 by the transport mechanism 401 in the holding step (S11). In the holding step, the transport mechanism 401 holds the tray 7 at a position where the robot arm 2 can perform processing.

制御部4は、検知工程において、画像データ取得部413により、固定カメラ5を制御して、トレイ7及びワーク9aを撮影する(S12)。制御部4は、画像データ取得部413により取得した画像データを、マーカー位置演算部414により画像処理して、マーカー11の位置を取得する(S13)。検知工程では、搬送機構401により保持されたトレイ7のマーカー11を、検知部の一例である固定カメラ5により検知して指標の位置を取得する。   In the detection step, the control unit 4 controls the fixed camera 5 with the image data acquisition unit 413 to photograph the tray 7 and the workpiece 9a (S12). The control unit 4 performs image processing on the image data acquired by the image data acquisition unit 413 by the marker position calculation unit 414, and acquires the position of the marker 11 (S13). In the detection step, the marker 11 of the tray 7 held by the transport mechanism 401 is detected by the fixed camera 5 which is an example of a detection unit, and the position of the index is acquired.

制御部4は、読取工程において、画像データ取得部413により取得した画像データを、誤差情報読取部415により画像処理して、マーカー11の誤差情報を取得する(S14)。読取工程では、搬送機構401により保持されたトレイ7の誤差情報パターン12を、読取部の一例である固定カメラ5により読み取ってマーカー11の位置ずれ情報を取得する。   In the reading process, the control unit 4 performs image processing on the image data acquired by the image data acquisition unit 413 by the error information reading unit 415 to acquire error information of the marker 11 (S14). In the reading process, the error information pattern 12 of the tray 7 held by the transport mechanism 401 is read by the fixed camera 5 which is an example of a reading unit, and the positional deviation information of the marker 11 is acquired.

制御部4は、調整工程において、マーカー位置演算部414が取得したマーカー11の位置と誤差情報読取部415が取得したマーカー11の誤差情報とを用いて、ロボットアーム2を制御するための座標系の補正量を計算する(S15)。調整工程では、ロボット動作補正演算部412が、検知工程により取得したマーカー11の位置と、読取工程により取得したマーカー11の位置ずれ情報と、に基づいて、ロボットアーム2を制御するための座標系を調整する。   The control unit 4 uses a coordinate system for controlling the robot arm 2 using the position of the marker 11 acquired by the marker position calculation unit 414 and the error information of the marker 11 acquired by the error information reading unit 415 in the adjustment process. Is calculated (S15). In the adjustment step, the robot motion correction calculation unit 412 controls the robot arm 2 based on the position of the marker 11 acquired in the detection step and the positional deviation information of the marker 11 acquired in the reading step. Adjust.

制御部4は、ロボット動作補正演算部412により補正された座標系を用いて、ロボット制御部411によりロボットアーム2及びロボットハンド3を制御して、トレイ7内のワーク9aのピッキング作業を行う(S16)。   The control unit 4 controls the robot arm 2 and the robot hand 3 by the robot control unit 411 using the coordinate system corrected by the robot motion correction calculation unit 412 to perform the picking work of the work 9a in the tray 7 ( S16).

(マーカー位置演算処理)
マーカー位置演算部414は、固定カメラ5により撮影した4つのマーカー11を含む画像全体を二値化処理する。そして、二値化処理画像上で、真円度や外接円半径などの形状特徴量からマーカー11の領域を特定してマーカー11のエッジ画像を抽出する。その後、マーカー11のエッジ画像を円弧フィッティング処理することにより、高精度にマーカー11の中心を算出する。
(Marker position calculation processing)
The marker position calculation unit 414 binarizes the entire image including the four markers 11 photographed by the fixed camera 5. Then, on the binarized image, the region of the marker 11 is specified from the shape feature amount such as roundness and circumscribed circle radius, and the edge image of the marker 11 is extracted. Thereafter, the center of the marker 11 is calculated with high accuracy by subjecting the edge image of the marker 11 to arc fitting processing.

マーカー位置演算部414は、ピクセル単位の座標データに対して、事前に校正した固定カメラ5の内部パラメータ及び外部パラメータを適用することによって、実スケール(例えばmm単位)に換算したマーカー11の位置の値(X,Y)を算出する。   The marker position calculation unit 414 applies the internal parameters and external parameters of the fixed camera 5 that have been calibrated in advance to the coordinate data in units of pixels, thereby calculating the position of the marker 11 converted to an actual scale (for example, in mm). The value (X, Y) is calculated.

(誤差情報読取処理)
誤差情報読取部415は、固定カメラ5により撮影した4つの誤差情報パターンを含むトレイ7の撮影画像の画像データに対して画像処理を行って、パターン12の位置及び長さを測定することにより、マーカー11の誤差情報を取得する。
(Error information reading process)
The error information reading unit 415 performs image processing on the image data of the captured image of the tray 7 including the four error information patterns captured by the fixed camera 5, and measures the position and length of the pattern 12, thereby Error information of the marker 11 is acquired.

図5の(d)に示すように、誤差情報パターン12は、マーカー11を中心とする4つのエリアを画像認識することで、その長さを測定することができる。   As shown in FIG. 5D, the length of the error information pattern 12 can be measured by recognizing four areas centered on the marker 11.

マーカー位置演算部414により取得したマーカー11の位置を基準として、点線で示す誤差情報パターン12の存在候補領域に対して検出処理を行うことにより、誤差情報パターン12の有無を検知する。このとき、マーカー11に対して−X側と+Y側に誤差情報パターン12が検出されるので、それによって誤差の正負情報を取得する。   The presence / absence of the error information pattern 12 is detected by performing detection processing on the existence candidate region of the error information pattern 12 indicated by the dotted line with the position of the marker 11 acquired by the marker position calculation unit 414 as a reference. At this time, since the error information pattern 12 is detected on the −X side and the + Y side with respect to the marker 11, positive / negative information of the error is acquired thereby.

次に、検出された誤差情報パターン12の内部の黒色矩形に対して測定を行い、長さL1及びL2を算出する。最後に、誤差情報パターン12の長さ定義の逆演算を行うことによって、マーカー11の位置誤差情報を算出する。   Next, measurement is performed on the black rectangle inside the detected error information pattern 12, and the lengths L1 and L2 are calculated. Finally, the position error information of the marker 11 is calculated by performing inverse calculation of the length definition of the error information pattern 12.

Figure 2017071033
Figure 2017071033

このようにして、誤差情報読取部415は、1つのマーカー11における誤差情報パターン12に埋め込まれたマーカー11の位置誤差情報を読み取る。誤差情報読取部415は、同様な手順で、図2の(b)に示すトレイ7上の4つのマーカー11におけるそれぞれの誤差情報パターン12を検知して、トレイ7上の4点分の位置誤差情報を読み取る。   In this way, the error information reading unit 415 reads the position error information of the marker 11 embedded in the error information pattern 12 in one marker 11. The error information reading unit 415 detects the error information patterns 12 in the four markers 11 on the tray 7 shown in FIG. Read information.

(ロボット動作補正演算処理)
図7はロボット動作補正演算処理の説明図である。図7中、(a)は設計データ、(b)は測定データ、(c)はトレイ形状データ、(d)は補正結果データである。
(Robot motion compensation calculation processing)
FIG. 7 is an explanatory diagram of the robot motion correction calculation process. In FIG. 7, (a) is design data, (b) is measurement data, (c) is tray shape data, and (d) is correction result data.

図1に示すように、ロボット動作補正演算部412は、4つのマーカー11に対応するトレイ7上の4点でのフィッティング処理によってトレイ7に収容されたワーク9aの位置と角度を計算する。   As shown in FIG. 1, the robot motion correction calculation unit 412 calculates the position and angle of the workpiece 9 a accommodated in the tray 7 by fitting processing at four points on the tray 7 corresponding to the four markers 11.

図7の(a)に示すように、前提として、ロボット動作補正演算部412は、設計データを保有している。すなわち、トレイ座標系Wに対するマーカー11の位置の設計値P1〜P4、トレイ座標系Wに対するロボットのティーチングポイントの狙い位置であるTP11〜TP44、そしてロボット座標系Rに対するトレイ座標系Wの設計位置である。 As shown in FIG. 7A, as a premise, the robot motion correction calculation unit 412 has design data. That is, the design value of the position of the marker 11 with respect to the tray coordinate system W P D 1 to P D 4, a target position of the teaching point of the robot relative to the tray coordinate system W TP11~TP44, and tray coordinate system W to the robot coordinate system R Is the design position.

マーカー位置演算部414が算出したマーカー位置データは、固定カメラ5の座標系からみた測定値であるため、そのままロボットの補正に用いることはできない。そのため、ロボット動作補正演算部412は、マーカー位置演算部414が算出したマーカー位置データに対して座標変換を行い、図7の(b)に示すように、ロボット座標系Rにおける4つのマーカー11の座標値P1〜P4に変換する。 The marker position data calculated by the marker position calculation unit 414 is a measurement value seen from the coordinate system of the fixed camera 5 and cannot be used as it is for correction of the robot. Therefore, the robot motion correction calculation unit 412 performs coordinate conversion on the marker position data calculated by the marker position calculation unit 414, and the four marker 11 in the robot coordinate system R as shown in FIG. converted into the coordinate value P M 1~P M 4.

なお、そのために必要な事前に特定したロボット座標系Rと固定カメラ座標系Fの関係は、前述した校正により事前に取得されている。   It should be noted that the relationship between the robot coordinate system R and the fixed camera coordinate system F specified in advance necessary for this purpose is acquired in advance by the calibration described above.

ロボット動作補正演算部412は、誤差情報読取部415が出力したマーカー11の位置誤差情報を受け取り、設計データに位置誤差情報を加味したマーカー位置データを算出する。   The robot motion correction calculation unit 412 receives the position error information of the marker 11 output from the error information reading unit 415, and calculates marker position data in which the position error information is added to the design data.

具体的な処理としては、図7の(a)に示すように、4点のマーカー11に対する位置誤差情報(ΔX[i],ΔY[i])(i=1,2,3,4)を設計上のマーカー位置の設計値P1〜P4に加算することで補正する。補正されたマーカー位置データをトレイ座標系Wからみた座標値をP1〜P4とする。 Specifically, as shown in FIG. 7A, position error information (ΔX [i], ΔY [i]) (i = 1, 2, 3, 4) with respect to the four markers 11 is obtained. Correction is made by adding to the design values P D 1 to P D 4 of the design marker positions. The coordinate values of the corrected marker position data viewed from the tray coordinate system W are P R 1 to P R 4.

ロボット動作補正演算部412は、トレイ座標系Wからみた補正後のマーカー位置データの座標値P1〜P4を、ロボット座標系Rからみたマーカー測定データの座標値P1〜P2に重ねるように座標変換する座標変換パラメータ(tx、ty、θ)を求める。 Robot operation correction calculation unit 412, the marker position data after correction viewed tray coordinate system W coordinate values P R 1 to P of R 4, the coordinate value P M 1 to P M of the marker measured data viewed from the robot coordinate system R The coordinate transformation parameters (tx, ty, θ) for coordinate transformation so as to be superimposed on 2 are obtained.

具体的な処理としては、図7の(c)に示すように、座標変換パラメータ(tx、ty、θ)によって座標値P1〜P4を座標変換した後の座標値と、マーカー測定データの座標値P1〜P4の座標値の距離の二乗和が最小となるように、座標変換パラメータ(tx、ty、θ)を求める。 As specific processing, as shown in FIG. 7C, coordinate values after coordinate conversion of coordinate values P R 1 to P R 4 with coordinate conversion parameters (tx, ty, θ) and marker measurement are performed. as the sum of squares of distances of the coordinate values of the coordinate values P M 1 to P M 4 data is minimized, obtaining the coordinate conversion parameters (tx, ty, θ).

すなわち、座標変換パラメータ(tx、ty、θ)による座標変換を同次変換行列H(tx、ty、θ)と表した場合に、次式となるような座標変換パラメータ(tx、ty、θ)を最小二乗法によって求める。次式中、座標値P[i]およびP[i]を、二次元の同次ベクトルT(X[i],Y[i],1),T(X[i],Y[i],1)で表現した。 That is, when the coordinate transformation by the coordinate transformation parameters (tx, ty, θ) is expressed as a homogeneous transformation matrix H (tx, ty, θ), the coordinate transformation parameters (tx, ty, θ) as shown in the following equation: Is obtained by the method of least squares. In the following equation, coordinate values P M [i] and P R [i] are converted into two-dimensional homogeneous vectors T (X M [i], Y M [i], 1), T (X R [i], Y R [i], expressed in 1).

Figure 2017071033
Figure 2017071033

ロボット動作補正演算部412は、座標変換パラメータ(tx、ty、θ)を用いて、ロボットのティーチングポイントデータTP11〜TP44を座標変換することにより補正演算して処理を終了する。   The robot motion correction calculation unit 412 performs a correction calculation by performing coordinate conversion on the teaching point data TP11 to TP44 of the robot using the coordinate conversion parameters (tx, ty, θ), and ends the process.

(比較例)
比較例1では、特許文献1に示されるように、トレイ、治工具、ワークなどの対象物に設けたマークを基準として、ロボットアーム2の教示位置データを補正する。
(Comparative example)
In Comparative Example 1, as shown in Patent Document 1, the teaching position data of the robot arm 2 is corrected with reference to marks provided on an object such as a tray, jig, tool, or workpiece.

比較例1では、トレイ、治工具、ワークなどの対象物に設けられた指標に対してロボットアーム2による処理位置の補正を行う。しかし、実際には、対象物の個体ごとに加工誤差等によるマーカー位置誤差があるために、高精度に補正を行うことが難しい。   In the first comparative example, the processing position of the robot arm 2 is corrected with respect to an index provided on an object such as a tray, jig, tool, or workpiece. However, in reality, since there is a marker position error due to a processing error or the like for each individual object, it is difficult to correct with high accuracy.

比較例2では、特許文献2に示されるように、アライメントマークの位置関係を事前に測定機を用いて測定した誤差データを用いてトレイ、治工具、ワークなどの位置調整を高精度に行う。高精度に補正を行うためには、マーカーの位置誤差をキャンセルするために、事前に測定した個体ごとの測定データをサーバーに保持する必要がある。   In Comparative Example 2, as shown in Patent Document 2, the position adjustment of the tray, jigs, and workpieces is performed with high accuracy using error data obtained by measuring the positional relationship of the alignment marks using a measuring machine in advance. In order to perform correction with high accuracy, it is necessary to store measurement data for each individual measured in advance in the server in order to cancel the position error of the marker.

しかし、この方法を単純に適用すると、対象物個体差ごとの測定データを管理して紐づける必要があるため、工場内の汎用トレイなどのように数が多い場合や、消耗による追加がある場合や、装置の数が多い場合は管理負荷やミスの可能性が大きくなる。   However, if this method is simply applied, it is necessary to manage and link the measurement data for each individual object difference, so there are many cases such as general-purpose trays in the factory, or addition due to consumption If the number of devices is large, the management load and the possibility of mistakes increase.

サーバーで一括管理して装置間ネットワークを構築したり、誤差情報のデータベースを装置内に構築したりすると、システムの大規模化が必要である。   If a network is managed by a server and a network between devices is built or a database of error information is built in a device, the system needs to be scaled up.

また、別の方法として、トレイごとにメモリタグを設け、事前に測定した誤差データをトレイごとに記録し、読み取って誤差データを使用することが考えられる。しかし、この場合、メモリタグの書き込み装置、読取装置が必要となる。   As another method, a memory tag may be provided for each tray, and error data measured in advance may be recorded for each tray and read to use the error data. In this case, however, a memory tag writing device and reading device are required.

(実施の形態1の効果)
実施の形態1では、対象物に独立に付与された位置測定用のマーカーと誤差情報保持パターンの両方を同一の視覚センサによって読み取って誤差を補正する構成とした。このため、専用のセンサや誤差情報を保持するサーバーなどを設けない簡素なシステム構成でありながら、対象物に対するマーカーの取り付けや加工の位置誤差をキャンセルして高精度なロボット動作を実現することができる。
(Effect of Embodiment 1)
In the first embodiment, the error is corrected by reading both the position measurement marker and the error information holding pattern independently given to the object by the same visual sensor. For this reason, it is possible to realize a highly accurate robot operation by canceling marker attachment and machining position errors on the target object, while having a simple system configuration that does not include a dedicated sensor or server that stores error information. it can.

実施の形態1では、補正データは、トレイ7の位置姿勢の補正に加えて、トレイ7に対するマーカー11の位置誤差もキャンセルしている。このため、フィンガー31をワーク9aに対して高精度にアプローチさせて作業を行うことができる。   In the first embodiment, the correction data cancels the position error of the marker 11 with respect to the tray 7 in addition to the correction of the position and orientation of the tray 7. For this reason, it is possible to work with the fingers 31 approaching the workpiece 9a with high accuracy.

実施の形態1では、トレイ7の個体差情報を管理するためのサーバーやデータベースを設けることなく、簡素な構成でワーク9aの高精度なピックアップ作業が可能となる。   In the first embodiment, the work 9a can be picked up with high accuracy with a simple configuration without providing a server or database for managing the individual difference information of the tray 7.

実施の形態1では、誤差の量と誤差情報保持パターン12の長さとを対応させ、誤差の方向と誤差情報保持パターン12の向きとを対応させているため、作業者がトレイ7を見た際に、誤差の量と方向とを直感的に理解できる。   In the first embodiment, the error amount and the length of the error information holding pattern 12 are associated with each other, and the error direction and the direction of the error information holding pattern 12 are associated with each other. In addition, the amount and direction of error can be understood intuitively.

実施の形態1では、トレイ7上のマーカー11に対して個体差をキャンセルして高精度な作業が可能なロボット装置1aを簡素な構成で実現できる。   In the first embodiment, the robot apparatus 1a capable of canceling the individual difference with respect to the marker 11 on the tray 7 and performing high-precision work can be realized with a simple configuration.

<実施の形態2>
図8は実施の形態2における誤差情報の測定記録装置の構成の説明図である。図9は実施の形態2のロボット装置の構成の説明図である。実施の形態2では、図8に示すように、測定記録装置300を用いて、ワーク保持具8にマーカー11と二次元コード13とを取り付ける。そして、図9に示すように、ワーク保持具8に設けられたマーカー11と二次元コード13とを手先カメラ6により撮像して、ロボットアーム2のティーチングを行っている。これ以外の構成及び制御内容は実施の形態1と同一であるため、図8、図9中、実施の形態1と共通の構成には図3、図1と同一の符号を付して重複する説明を省略する。
<Embodiment 2>
FIG. 8 is an explanatory diagram of the configuration of the error information measurement recording apparatus according to the second embodiment. FIG. 9 is an explanatory diagram of a configuration of the robot apparatus according to the second embodiment. In the second embodiment, as shown in FIG. 8, the marker 11 and the two-dimensional code 13 are attached to the work holder 8 using the measurement recording device 300. Then, as shown in FIG. 9, the marker 11 and the two-dimensional code 13 provided on the work holder 8 are imaged by the hand camera 6 to teach the robot arm 2. Since other configurations and control contents are the same as those in the first embodiment, in FIG. 8 and FIG. 9, the same configurations as those in the first embodiment are denoted by the same reference numerals as those in FIG. 3 and FIG. Description is omitted.

(測定記録装置)
図8に示すように、ユーザーは、専用の誤差情報の測定記録装置300を用いて、マーカー11が取り付けられたワーク保持具8に誤差情報を記録する。測定記録装置300は、マーカー11が取り付けられたワーク保持具8の左側面と下側面を支持部301に突き当てた状態で、測定顕微鏡305を用いて、ワーク保持具8の基準位置に対するマーカー11の中心座標値を測定する。
(Measurement recording device)
As shown in FIG. 8, the user records error information on the work holder 8 to which the marker 11 is attached, using the dedicated error information measurement recording apparatus 300. The measurement recording apparatus 300 uses the measurement microscope 305 and the marker 11 with respect to the reference position of the workpiece holder 8 in a state where the left side surface and the lower side surface of the workpiece holder 8 to which the marker 11 is attached are abutted against the support portion 301. Measure the center coordinate value of.

測定制御部313は、測定顕微鏡305により撮像されたワーク保持具8の撮像画像を画像処理して、マーカー11の位置ずれ情報を取得する。記録制御部314は、位置ずれ情報を二次元コード13に変換して出力部316からプリントアウトする。ユーザーは、マーカー11が取り付けられたワーク保持具8に二次元コード13を貼付する。   The measurement control unit 313 performs image processing on the captured image of the work holder 8 captured by the measurement microscope 305 to acquire positional deviation information of the marker 11. The recording control unit 314 converts the positional deviation information into the two-dimensional code 13 and prints it out from the output unit 316. The user attaches the two-dimensional code 13 to the work holder 8 to which the marker 11 is attached.

(ロボット装置)
図9に示すように、ロボット装置1bは、制御部4がロボットアーム2、ロボットハンド3、及びフィンガー31を制御して、ワーク保持具8に保持されるワークに対する組立作業を行う。ロボット装置1bは、ロボットアーム2によりワーク保持具8にワークを取り付け、ワークに対して他の部品を組み立てる作業を実行する。
(Robot device)
As shown in FIG. 9, in the robot apparatus 1 b, the control unit 4 controls the robot arm 2, the robot hand 3, and the fingers 31 to perform assembly work on the workpiece held by the workpiece holder 8. The robot apparatus 1b attaches a workpiece to the workpiece holder 8 by the robot arm 2 and executes an operation of assembling other parts to the workpiece.

(手先カメラ)
図9に示すように、ロボット装置1bでは、固定カメラ5ではなく手先カメラ6を用いている。手先カメラ6は、ロボットアーム2の先端のロボットハンド3に取り付けられた2眼のステレオカメラである。
(Hand camera)
As shown in FIG. 9, the robot apparatus 1 b uses a hand camera 6 instead of the fixed camera 5. The hand camera 6 is a two-lens stereo camera attached to the robot hand 3 at the tip of the robot arm 2.

手先カメラ6は、ロボットアーム2のティーチング時にのみロボットハンド3に取り付けられ、実際のワーク(9b:図10の(b))に対する組み立て作業時にはロボットハンド3から取り外し可能である。手先カメラ6は、事前にカメラ単体でキャリブレーションされており、二眼のカメラのうち一方のレンズ主点に仮想的に設定された手先カメラ座標系Vを基準として、画像上の任意の特徴点の三次元座標を測定することができる。手先カメラ6は、ロボットアーム2との間で事前のキャリブレーションが行われており、手先座標系Tと手先カメラ座標系Vの関係が事前に算出されている。   The hand camera 6 is attached to the robot hand 3 only during teaching of the robot arm 2 and can be detached from the robot hand 3 during assembly work on an actual work (9b: FIG. 10B). The hand camera 6 is calibrated as a single camera in advance, and an arbitrary feature point on the image with reference to the hand camera coordinate system V virtually set at one lens principal point of the two-lens camera. 3D coordinates can be measured. The hand camera 6 is pre-calibrated with the robot arm 2 and the relationship between the hand coordinate system T and the hand camera coordinate system V is calculated in advance.

(ワーク保持具)
図10は実施の形態2におけるワーク保持具の構造の説明図である。図10中、(a)はワーク非装着状態、(b)はワーク装着状態である。
(Work holder)
FIG. 10 is an explanatory diagram of the structure of the work holder in the second embodiment. In FIG. 10, (a) is a work non-mounting state, (b) is a work mounting state.

図9に示すように、ロボット装置1bにおけるロボットアーム2の可動範囲内にワーク保持具8が設置されている。作業用基準物体の一例であるワーク保持具8は、ロボットアーム2によりワーク9bが取り付けられる治工具である。ワーク保持具8は、着脱部402によって作業台403に対して着脱可能に取り付けられている。   As shown in FIG. 9, a work holder 8 is installed in the movable range of the robot arm 2 in the robot apparatus 1b. A work holder 8 which is an example of a work reference object is a jig to which a work 9b is attached by a robot arm 2. The workpiece holder 8 is detachably attached to the work table 403 by an attachment / detachment unit 402.

図10の(a)に示すように、ワーク保持具8は、突き当て部81、82と、クランプ部83、84を有している。ワーク保持具8の1つの面に指標の一例であるマーカー11が複数配置される。   As shown in FIG. 10A, the work holder 8 has abutting portions 81 and 82 and clamp portions 83 and 84. A plurality of markers 11 as an example of an index are arranged on one surface of the work holder 8.

ワーク保持具8は、3点のマーカー11の中央に、3点のマーカー11の位置ずれ情報を含む1つの二次元コード13を設けている。情報画像の一例である二次元コード13は、マーカー11が配置された面においてマーカー11から離れて配置され、複数のマーカー11の位置ずれ情報を含む。二次元コード13は、二次元コード化された文字情報(数字を含む)である。   The workpiece holder 8 is provided with one two-dimensional code 13 including positional deviation information of the three markers 11 at the center of the three markers 11. The two-dimensional code 13 that is an example of the information image is arranged away from the marker 11 on the surface on which the marker 11 is arranged, and includes positional deviation information of the plurality of markers 11. The two-dimensional code 13 is character information (including numbers) that is two-dimensionally encoded.

図10の(b)に示すように、クランプ部83、84は、図示しない直動機構によってワーク9bをクランプする。図9に示すように、ロボット装置1bは、ロボットアーム2及びロボットハンド3によって、図10の(b)に示すようにワーク9bをワーク保持具8に載置する。ロボット装置1bは、その後、クランプ部83、84にクランプ動作を行わせて、クランプ部83、84と突き当て部81、82との間にワーク9bを挟み込んで保持する。   As shown in FIG. 10B, the clamp portions 83 and 84 clamp the workpiece 9b by a linear motion mechanism (not shown). As shown in FIG. 9, the robot apparatus 1 b places the workpiece 9 b on the workpiece holder 8 as shown in FIG. 10B by the robot arm 2 and the robot hand 3. Thereafter, the robot apparatus 1b causes the clamp portions 83 and 84 to perform a clamping operation, and holds the workpiece 9b between the clamp portions 83 and 84 and the abutting portions 81 and 82.

これにより、ワーク9bは、突き当て部81、82を基準として、ワーク保持具8に対して所定の精度と再現性で位置決めされる。ロボット装置1bは、ワーク9bをワーク保持具8に保持させたあと、ロボットアーム2とロボットハンド3を用いて、図示しない別部品をワーク9bに組み付ける動作を実行する。   Thus, the workpiece 9b is positioned with a predetermined accuracy and reproducibility with respect to the workpiece holder 8 with the abutting portions 81 and 82 as a reference. After the workpiece 9b is held by the workpiece holder 8, the robot apparatus 1b uses the robot arm 2 and the robot hand 3 to perform an operation of assembling another component (not shown) to the workpiece 9b.

(ワーク保持具の精度)
図9に示すように、ロボット装置1bは、ワーク保持具の交換時には、ワーク保持具8を取り外して、別のワークを対象とした別のワーク保持具をロボット装置1bに取り付ける。ロボット装置1bに相当するロボットシステムは、工場内に複数存在しており、ワーク保持具8と同じ設計のワーク保持具が複数存在する。そして、工場内の生産の状況やメンテナンスの状況に応じてワーク保持具8を別の場所のロボット装置に取り付けて使用する場合がある。
(Accuracy of workpiece holder)
As shown in FIG. 9, when exchanging the workpiece holder, the robot apparatus 1b removes the workpiece holder 8 and attaches another workpiece holder intended for another workpiece to the robot apparatus 1b. There are a plurality of robot systems corresponding to the robot apparatus 1b in the factory, and a plurality of workpiece holders having the same design as the workpiece holder 8 exist. In some cases, the work holder 8 is attached to a robot apparatus at another location and used in accordance with the production situation or maintenance situation in the factory.

ロボット装置1bが精度よくワーク9bに対して別部品の組み付けを実施するためには、組付作業前に、ロボットアーム2のティーチングポイントを高精度に調整しておく必要がある。特に、ワーク保持具8を交換した直後には、ワーク保持具8の加工個体差があるためにティーチングが重要となる。したがって、実施の形態2は、ロボット装置1bにおけるティーチングポイントの調整を対象とする。ロボットアーム2によるワーク保持具8上のティーチングされた作業位置が二次元コード13から復号された位置ずれ情報によって修正される。   In order for the robot apparatus 1b to accurately assemble another part to the workpiece 9b, it is necessary to adjust the teaching point of the robot arm 2 with high accuracy before the assembling work. In particular, immediately after the workpiece holder 8 is replaced, teaching is important because there is a difference in individual processing of the workpiece holder 8. Therefore, the second embodiment is directed to the adjustment of the teaching point in the robot apparatus 1b. The work position taught on the work holder 8 by the robot arm 2 is corrected by the positional deviation information decoded from the two-dimensional code 13.

(ロボットアームのティーチング)
図11はロボットアームのティーチング制御のフローチャートである。実施の形態2では、ユーザーが事前に撮影可能なティーチングポイントを登録しておいて、制御部4がプログラムによりロボットアーム2を制御して移動させる。
(Robot arm teaching)
FIG. 11 is a flowchart of teaching control of the robot arm. In the second embodiment, teaching points that can be photographed by the user are registered in advance, and the control unit 4 controls and moves the robot arm 2 by a program.

図11に示すように、制御部4は、ロボット制御部411によりロボットアーム2を制御して、手先カメラ6がワーク保持具8を撮影可能な位置にロボットアーム2を移動させる(S21)。   As shown in FIG. 11, the control unit 4 controls the robot arm 2 by the robot control unit 411, and moves the robot arm 2 to a position where the hand camera 6 can photograph the workpiece holder 8 (S21).

制御部4は、画像データ取得部413により手先カメラ6を作動させてワーク保持具8を撮像してワーク保持具8の画像データを取得する(S22)。制御部4は、マーカー位置演算部414によりワーク保持具8の画像データを画像処理して、マーカー11の位置を算出する(S23)。   The control unit 4 operates the hand camera 6 with the image data acquisition unit 413 to capture the image of the workpiece holder 8 and acquire the image data of the workpiece holder 8 (S22). The control unit 4 performs image processing on the image data of the work holder 8 by the marker position calculation unit 414, and calculates the position of the marker 11 (S23).

制御部4は、誤差情報読取部415により画像データに対して画像処理を実行して、マーカー11の位置誤差情報を読み取る(S24)。制御部4は、ロボット動作補正演算部412がロボットの補正計算を行う(S25)。   The control unit 4 performs image processing on the image data by the error information reading unit 415, and reads the position error information of the marker 11 (S24). In the control unit 4, the robot motion correction calculation unit 412 performs robot correction calculation (S25).

制御部4は、ロボット動作補正演算部412により算出された後述する同次変換行列を指令値としてロボットを動作させることにより、ロボットハンド3の位置を調整する(S26)。制御部4は、ロボットハンド3の位置を調整して位置決めした状態でロボットの姿勢をティーチングポイントとして登録する(S27)。 The control unit 4 adjusts the position of the robot hand 3 by operating the robot using a later-described homogeneous transformation matrix R M T calculated by the robot motion correction calculation unit 412 as a command value (S26). The control unit 4 registers the posture of the robot as a teaching point with the position of the robot hand 3 adjusted and positioned (S27).

(マーカー位置演算処理)
画像データ取得部413は、マーカー11及び二次元コード13を有するワーク保持具8の画像データを取得する処理を実施の形態1と同様に実行する。しかし、手先カメラ6が二眼のステレオカメラであるために、1回の撮影ごとに2枚の画像が取得され、焦点距離方向の情報を取得することができる。
(Marker position calculation processing)
The image data acquisition unit 413 executes processing for acquiring image data of the work holder 8 having the marker 11 and the two-dimensional code 13 as in the first embodiment. However, since the hand camera 6 is a two-lens stereo camera, two images are acquired for each shooting, and information on the focal length direction can be acquired.

マーカー位置演算部414は、画像データ取得部413が取得した画像データ上でマーカー11の位置を算出する処理を実施の形態1と同様に実行する。しかし、手先カメラ6が二眼のステレオカメラであるために、マーカー11の位置を三次元的に算出することができる。   The marker position calculation unit 414 executes the process of calculating the position of the marker 11 on the image data acquired by the image data acquisition unit 413 as in the first embodiment. However, since the hand camera 6 is a two-lens stereo camera, the position of the marker 11 can be calculated three-dimensionally.

マーカー位置演算部414は、事前にキャリブレーションした手先カメラ6の校正データを用いて、3点のマーカー11に対して、それぞれ三次元の座標値を算出する。その座標値の同次ベクトルを次式であらわす。次式中、座標値P[i]は手先カメラ座標系Vからみたマーカー11の座標値である。 The marker position calculation unit 414 calculates a three-dimensional coordinate value for each of the three markers 11 using the calibration data of the hand camera 6 calibrated in advance. The homogeneous vector of the coordinate value is expressed by the following equation. In the following equation, the coordinate value P M [i] is the coordinate value of the marker 11 as viewed from the hand camera coordinate system V.

Figure 2017071033
Figure 2017071033

(誤差情報読取処理)
図12はマーカー位置誤差データの二次元コードの説明図である。図9に示すように、誤差情報読取部415は、二次元コード13の画像データを画像処理して、マーカー11の位置誤差情報を取得する。誤差情報読取部415は、ワーク保持具8を撮像した画像データ内の二次元コード13を復号することによって誤差情報を取得する。
(Error information reading process)
FIG. 12 is an explanatory diagram of a two-dimensional code of marker position error data. As illustrated in FIG. 9, the error information reading unit 415 performs image processing on the image data of the two-dimensional code 13 and acquires position error information of the marker 11. The error information reading unit 415 acquires error information by decoding the two-dimensional code 13 in the image data obtained by imaging the work holder 8.

図12に示すように、二次元コード13には、実施の形態1と同様に、別途事前に測定記録装置300を用いて測定したマーカー11の位置誤差を測定したマーカー位置誤差データが格納されている。マーカー位置誤差データは、3点のマーカー11の座標値の設計値P1〜P3と、マーカー11の位置を事前に測定記録装置300で測定した測定値の座標値P1〜P3の差分として定義される。 As shown in FIG. 12, the two-dimensional code 13 stores marker position error data obtained by measuring the position error of the marker 11 measured in advance using the measurement recording apparatus 300 in the same manner as in the first embodiment. Yes. The marker position error data includes the design values P D 1 to P D 3 of the coordinate values of the three markers 11 and the coordinate values P R 1 to P of the measurement values obtained by measuring the positions of the markers 11 with the measurement recording device 300 in advance. Defined as the difference of R3 .

二次元コード13を復号すると、例えば表1に示すような、各点に対する誤差情報のテーブルデータを読みとることができる。   When the two-dimensional code 13 is decoded, table data of error information for each point as shown in Table 1, for example, can be read.

Figure 2017071033
Figure 2017071033

二次元コード13の読み取りによって、3点のマーカー11の誤差情報ΔP[i](i=1,2,3)が取得される。ここで、ΔP[i]は三次元のデータをもつ4行1列の同次ベクトルである。なお、設計値P1〜P3及び測定値の座標値P1〜P3の値は、ワーク保持具8の突き当て部81、82と、ワーク保持具8のワーク載置面から定義されるワーク保持具座標系Jからみた座標値として表現されていてもよい。 By reading the two-dimensional code 13, error information ΔP [i] (i = 1, 2, 3) of the three markers 11 is acquired. Here, ΔP [i] is a 4 × 1 homogeneous vector having three-dimensional data. The value of the coordinate value P R 1 to P R 3 design value P D 1 to P D 3 and measurements, the abutting portions 81 and 82 of the workpiece retainer 8, workpiece mounting surface of the workpiece retainer 8 May be expressed as coordinate values viewed from the workpiece holder coordinate system J defined by

(ロボット動作補正演算処理)
ロボット動作補正演算部412は、補正計算の具体的な方法として、マーカー位置演算部414の出力したマーカー計測値の座標値P[i](i=1,2,3)を、手先座標系Tからみた座標値に座標変換する。そのためには、事前に校正により取得した手先座標系Tと手先カメラ座標系Vの関係を、を用いて次式のように計算する。
(Robot motion compensation calculation processing)
The robot motion correction calculation unit 412 uses the coordinate value P M [i] (i = 1, 2, 3) of the marker measurement value output from the marker position calculation unit 414 as a specific method of the correction calculation. Coordinates are converted into coordinate values viewed from T. For this purpose, the pre-acquired relationship of the hand coordinate system T and the hand camera coordinate system V by the calibration is calculated as the following equation using the T H V.

Figure 2017071033
Figure 2017071033

なお、ここで、ロボット座標系Rから手先座標系Tへの同次変換行列をとし、手先座標系Tから手先カメラ座標系Vへの同次変換行列をと記載した。また、座標値P[i]についてはどの座標系からみた座標値かが明確になるよう、基準とする座標系を文字の左肩に記載した。[i]は手先カメラ座標系Vからみたマーカー測定値の座標値(すなわち、ステップS23で算出した座標値P[i])であり、[i]は同じ点をロボット座標系Rからみた座標値である。 Here, the homogeneous transformation matrix from the robot coordinate system R to the hand coordinate system T is denoted as R H T, and the homogeneous transformation matrix from the hand coordinate system T to the hand camera coordinate system V is denoted as T H V. The coordinate system P M [i] is described on the left shoulder of the character so that the coordinate value seen from which coordinate system is clear. V P M [i] is the coordinate value of the marker measurement value viewed from the hand camera coordinate system V (that is, the coordinate value P M [i] calculated in step S23), and R P M [i] is the same point as the robot. This is a coordinate value viewed from the coordinate system R.

また、ロボット座標系Rから手先座標系Tへの同次変換行列は、撮影時のロボット姿勢を表し、ロボット制御部411がロボットアーム2の各関節角度から順運動学演算をおこなうことなどにより算出できる。 The homogeneous transformation matrix R H T from the robot coordinate system R to the hand coordinate system T represents the robot posture at the time of shooting, and the robot controller 411 performs forward kinematics calculation from each joint angle of the robot arm 2. Etc.

次に、ロボット動作補正演算部412は、マーカー位置誤差情報を用いてマーカー設計値情報を補正する。マーカー11のワーク保持具座標系Jに対する座標値の設計値P1〜P3はあらかじめROM42に格納されている。座標値の設計値P1〜P3に誤差情報読取部415が読み取った誤差情報ΔP[i](i=1,2,3)を加算することによって、現在使用しているワーク保持具8固有の寸法値である座標値P1〜P3を算出する。この座標値P1〜P3はワーク保持具座標系Jを基準に記述されたものであるので、その同次ベクトルを[i]と記述すると次式として算出できる。 Next, the robot motion correction calculation unit 412 corrects the marker design value information using the marker position error information. Design values P D 1 to P D 3 of the coordinate values of the marker 11 with respect to the workpiece holder coordinate system J are stored in the ROM 42 in advance. By adding the designed value P D 1 to P error information ΔP error information reading unit 415 has read to D 3 of the coordinate value [i] (i = 1,2,3) , the workpiece retainer currently used The coordinate values P R 1 to P R 3, which are 8 unique dimension values, are calculated. Since the coordinate values P R 1 to P R 3 are those described in reference to the workpiece retainer coordinate system J, can calculate the homogeneous vector as the following formula when you write J P R [i].

Figure 2017071033
Figure 2017071033

最後に、マーカー位置演算部414によるマーカー11の測定値を基にした座標値と、ワーク保持具8の設計値にマーカー11の位置誤差を加味した座標値を用いて、ロボットアーム2の取るべき位置姿勢を算出する。 Finally, by using the coordinate values J P M based on a measured value of the marker 11 by the marker position calculating unit 414, a coordinate value J P R in consideration of the position error of the marker 11 to the design value of the workpiece retainer 8, The position and orientation to be taken by the robot arm 2 are calculated.

ここで、ワーク保持具座標系Jに対する手先座標系Tの取るべき位置姿勢は事前に設計する事項であり、その既知の座標変換行列をとする。また、ワーク保持具座標系Jと手先座標系Tの関係をに近づけるためにロボットアーム2が取るべき未知の姿勢を表す三次元の同次変換行列と書くこととする。このとき、以下の最小二乗法を解くことによって、同次変換行列を求めることができる。 Here, the position and orientation of the hand coordinate system T to be taken with respect to the workpiece holder coordinate system J is an item to be designed in advance, and its known coordinate transformation matrix is T M J. In addition, in order to bring the relationship between the workpiece holder coordinate system J and the hand coordinate system T closer to T M J , a three-dimensional homogeneous transformation matrix R M T representing an unknown posture that the robot arm 2 should take is written. At this time, the homogeneous transformation matrix R M T can be obtained by solving the following least squares method.

Figure 2017071033
Figure 2017071033

上式の中で未知の変数は同次変換行列だけであり、その他の変数はこれまでの処理により既知である。同一直線状にない3点以上のデータがあれば、6自由度の未知数である同次変換行列の最小二乗解を算出することができる。 Unknown variables in the above formula is only homogeneous transformation matrix R M T, the other variables are known by the processing so far. If there are three or more data not in the same straight line, it is possible to calculate the least-squares solution of homogeneous transformation matrix R M T which is a six degrees of freedom unknown.

(実施の形態2の効果)
実施の形態2では、ワーク保持具8に対するマーカー11の位置ずれ誤差を相殺してロボットアーム2をティーチングすることができるため、マーカー11の位置ずれ誤差を相殺しない場合に比べて高精度なロボットアーム2の位置決めができる。
(Effect of Embodiment 2)
In the second embodiment, since the robot arm 2 can be taught by canceling the positional deviation error of the marker 11 with respect to the workpiece holder 8, the robot arm is more accurate than when the positional deviation error of the marker 11 is not canceled. 2 positioning is possible.

実施の形態2では、マーカー11から離れた位置に設けた二次元コード13に3つのマーカー11の位置誤差情報をまとめて持たせるため、高精度な補正を、ワーク個体差情報をサーバーやデータベースに持たせる必要のない簡素な構成で実現可能である。   In the second embodiment, since the two-dimensional code 13 provided at a position away from the marker 11 has the position error information of the three markers 11 collectively, the work individual difference information is stored in a server or database. This can be realized with a simple configuration that does not need to be provided.

<実施の形態3>
図13は実施の形態3のワーク保持具におけるマーカーの説明図である。図14は実施の形態3のワーク保持具における誤差情報保持パターンの説明図である。図13中、(a)はワーク保持具の斜視図、(b)は深さ方向の断面図、(c)はマーカーピンの斜視図である。図14中、(a)は誤差情報の未記録状態、(b)は誤差情報の記録状態である。
<Embodiment 3>
FIG. 13 is an explanatory diagram of markers in the work holder of the third embodiment. FIG. 14 is an explanatory diagram of an error information holding pattern in the work holder of the third embodiment. In FIG. 13, (a) is a perspective view of the workpiece holder, (b) is a sectional view in the depth direction, and (c) is a perspective view of the marker pin. In FIG. 14, (a) shows an unrecorded state of error information, and (b) shows a recorded state of error information.

実施の形態2では、ワーク保持具の基準面に沿った平面内のマーカーの位置ずれ量を二次元コード化してワーク保持具に貼付した。これに対して、実施の形態3では、ワーク保持具の基準面の高さ方向のマーカーの位置ずれ量を誤差情報保持パターンとしてマーカーに記録する。ワーク保持具(8b:図13)の誤差情報を用いて、マーカー(15:図13)の深さ方向の座標系を補正する。これ以外の構成及び制御内容は実施の形態2と同一であるため、図8、図9を参照して説明する。   In the second embodiment, the amount of positional deviation of the marker in the plane along the reference plane of the workpiece holder is two-dimensionally encoded and attached to the workpiece holder. In contrast, in the third embodiment, the amount of marker displacement in the height direction of the reference surface of the work holder is recorded on the marker as an error information holding pattern. Using the error information of the workpiece holder (8b: FIG. 13), the coordinate system in the depth direction of the marker (15: FIG. 13) is corrected. Since other configurations and control contents are the same as those in the second embodiment, description will be made with reference to FIGS.

(ワーク保持具)
図13の(a)に示すように、作業用基準物体の一例であるワーク保持具8bは、4か所の基準穴14に対してそれぞれマーカーピン15が挿入されている。ユーザーは、ワーク保持具8b上に基準穴14を高精度に加工した後、高精度に製作されたマーカーピン15を手作業で基準穴14に挿入している。マーカーピン15の固定に関して、基準穴14とマーカーピン15との間の公差の関係をしまり嵌めとなるように設計して、圧入してもよい。また、両者をゆるみ嵌めとして、接着剤等により固定してもよい。
(Work holder)
As shown in FIG. 13A, the work holder 8b, which is an example of a work reference object, has marker pins 15 inserted into the four reference holes 14, respectively. The user processes the reference hole 14 on the workpiece holder 8b with high accuracy, and then manually inserts the marker pin 15 manufactured with high accuracy into the reference hole 14. Regarding the fixing of the marker pin 15, the tolerance relationship between the reference hole 14 and the marker pin 15 may be designed so as to be tightly fitted and press-fitted. Alternatively, both may be loosely fitted and fixed with an adhesive or the like.

指標用部材の一例であるマーカーピン15は、ロボットアーム2とワーク保持具8bを有するロボット装置1aで使用される。嵌合部の一例である嵌合部19は、ワーク保持具8bの有する穴部と嵌合する。   The marker pin 15 which is an example of the index member is used in the robot apparatus 1a having the robot arm 2 and the work holder 8b. The fitting part 19 which is an example of a fitting part fits into the hole which the workpiece holder 8b has.

指標部の一例であるマーカー部16は、光学的に検知してロボットアーム2の制御に用いる座標系を調整可能である。一方、情報画像記録部の一例である誤差情報記入部17は、光学的に読み取ってワーク保持具8bに対する指標の位置ずれ情報を取得可能な情報画像をマーカー部16とは独立に記録可能である。   The marker unit 16, which is an example of an index unit, can adjust the coordinate system used for controlling the robot arm 2 by optical detection. On the other hand, the error information entry unit 17, which is an example of the information image recording unit, can record an information image that can be optically read to acquire the positional deviation information of the index with respect to the work holder 8 b independently of the marker unit 16. .

図13の(b)に示すように、ワーク保持具8bの基準面から後退させて後退方向の位置情報を取得可能な指標の一例であるマーカー部16が配置される。基準穴14は、段付きのザグリ穴形状である。基準穴14には、マーカーピン15の段付き部が深さ方向に突き当たるところまで、マーカーピン15が挿入されている。マーカーピン15は、嵌合部19によって、基準穴14に対して所定の精度で嵌合し、位置決めされている。   As shown in FIG. 13 (b), a marker unit 16 which is an example of an index that can be retreated from the reference surface of the workpiece holder 8b and can acquire position information in the retreat direction is disposed. The reference hole 14 has a stepped counterbore shape. The marker pin 15 is inserted into the reference hole 14 until the stepped portion of the marker pin 15 abuts in the depth direction. The marker pin 15 is fitted and positioned with a predetermined accuracy by the fitting portion 19 with respect to the reference hole 14.

図13の(b)に示すように、基準穴14は、ザグリ深さLaがマーカーピン15の段付き部の厚さLbよりも長く設計されている。このため、マーカーピン15の上面は、ワーク保持具8bの基準面から突出せず、むしろ後退している。   As shown in FIG. 13B, the reference hole 14 is designed such that the counterbore depth La is longer than the thickness Lb of the stepped portion of the marker pin 15. For this reason, the upper surface of the marker pin 15 does not protrude from the reference surface of the workpiece holder 8b, but rather recedes.

図13の(c)に示すように、マーカーピン15は、段付き形状を有する円筒形状のピンである。マーカーピン15の上面には、クロスマーク形状を付与したマーカー部16と、誤差情報記入部17とが形成されている。マーカー部16は、クロスマークの交点がマーカーピン15の中心軸線と所定の精度で一致している。   As shown in FIG. 13C, the marker pin 15 is a cylindrical pin having a stepped shape. On the upper surface of the marker pin 15, a marker portion 16 having a cross mark shape and an error information entry portion 17 are formed. In the marker unit 16, the intersection of the cross marks coincides with the center axis of the marker pin 15 with a predetermined accuracy.

図14の(a)に示すように、マーカーピン15は、その上面に、マーカー部16を囲うように円周状に配置された誤差情報記入部17を有している。誤差情報記入部17は、一定間隔の実線または点線の目盛りにより区切られたマス目を有している。誤差情報記入部17は、1マスが10μmの深さ寸法を表しており、16マスの領域により、0〜160μmの深さを表現できるようになっている。   As shown in FIG. 14A, the marker pin 15 has an error information entry part 17 arranged on the upper surface thereof so as to surround the marker part 16. The error information entry unit 17 has squares delimited by solid or dotted scales at regular intervals. In the error information entry section 17, one square represents a depth dimension of 10 μm, and a depth of 0 to 160 μm can be expressed by an area of 16 squares.

実施の形態3では、位置ずれ情報は、基準面からマーカー部16までの後退量である。情報画像の一例である誤差情報保持パターン18は、マーカー部16を囲んで配置された基準面からマーカー部16までの後退量に応じた長さの円弧である。   In the third embodiment, the positional deviation information is the amount of retreat from the reference plane to the marker unit 16. The error information holding pattern 18, which is an example of an information image, is an arc having a length corresponding to the amount of retraction from the reference plane arranged surrounding the marker portion 16 to the marker portion 16.

(XY方向のマーカー誤差)
図13の(a)に示すように、基準穴14の穴位置は、ワーク保持具8bの機械的基準に対して、基準面に沿ったXY方向については所定の公差に基づいて高精度に加工されている。ワーク保持具8bの製作時に、適正な工作機械と刃物を用い、同一の刃物と工作機械とを用いて4か所の基準穴14を連続的に加工することで、基準面に沿ったXY方向の穴位置を高精度に加工している。
(Marker error in XY direction)
As shown in FIG. 13A, the hole position of the reference hole 14 is processed with high accuracy based on a predetermined tolerance in the XY direction along the reference surface with respect to the mechanical reference of the workpiece holder 8b. Has been. When manufacturing the workpiece holder 8b, an appropriate machine tool and blade are used, and the four reference holes 14 are continuously machined using the same blade and machine tool, so that the XY directions along the reference surface The hole position is processed with high accuracy.

また、嵌合部19における基準穴14とマーカーピン15の嵌め合い公差を適切に管理することで、基準穴14に対してマーカーピン15はがたつき無く高精度に位置決められている。このようにして、基準面に沿ったXY方向についてのワーク保持具8bに対するマーカー部16の位置精度は、±10μm程度の高精度を実現している。   Further, by appropriately managing the fitting tolerance between the reference hole 14 and the marker pin 15 in the fitting portion 19, the marker pin 15 is positioned with high accuracy with respect to the reference hole 14. In this way, the positional accuracy of the marker portion 16 with respect to the workpiece holder 8b in the XY directions along the reference plane achieves a high accuracy of about ± 10 μm.

(Z方向のマーカー誤差)
図13の(b)に示すように、マーカー部16の基準穴14の深さ方向(Z方向)の誤差は、マーカー部16の基準面に沿ったXY方向の誤差に比べて一桁大きい。工具の付替えが発生する等の理由により、基準穴14のザグリ深さLaを高精度に加工することは、基準面に沿ったXY方向の穴位置を高精度に加工することに比較して困難だからである。工具の付替えが発生する等の理由により、マーカーピン15の段付き部の厚さ寸法Lbを高精度に加工することも困難だからである。ごみが介在する等の理由により、基準穴14とマーカーピン15の深さ方向の突き当て面とが確実に突き当たっているとは限らないからである。
(Marker error in the Z direction)
As shown in FIG. 13B, the error in the depth direction (Z direction) of the reference hole 14 of the marker portion 16 is larger by one digit than the error in the XY direction along the reference plane of the marker portion 16. Machining the counterbore depth La of the reference hole 14 with high accuracy for reasons such as tool change, compared to machining the hole position in the XY direction along the reference surface with high accuracy. Because it is difficult. This is because it is difficult to process the thickness dimension Lb of the stepped portion of the marker pin 15 with high accuracy due to the occurrence of tool replacement. This is because the reference hole 14 and the abutment surface in the depth direction of the marker pin 15 do not always abut against each other due to the presence of dust or the like.

しかし、基準穴14のザグリ深さLa、段付き部の厚さ寸法Lb、及び基準穴14とマーカーピン15の深さ方向の突き当たりを厳しく指定するとワーク保持具8bの製作コストがアップする。そこで、マーカー部16の深さ方向(Z方向)の位置精度は低く設計してある。   However, if the counterbore depth La of the reference hole 14, the thickness dimension Lb of the stepped portion, and the abutment in the depth direction of the reference hole 14 and the marker pin 15 are strictly specified, the manufacturing cost of the work holder 8 b increases. Therefore, the position accuracy of the marker portion 16 in the depth direction (Z direction) is designed to be low.

(測定記録装置)
図8に示すように、ユーザーは、専用の誤差情報の測定記録装置300を用いて、マーカー(15:図13)が取り付けられたワーク保持具(8b:図13)に誤差情報を記録する。測定記録装置300は、ワーク保持具(8b:図13)に設けられたマーカー(15:図13)の表面高さとワーク保持具(8b:図13)の基準面の段差量を測定する。
(Measurement recording device)
As shown in FIG. 8, the user records error information on a work holder (8b: FIG. 13) to which a marker (15: FIG. 13) is attached, using a dedicated error information measurement recording apparatus 300. The measurement recording device 300 measures the surface height of the marker (15: FIG. 13) provided on the workpiece holder (8b: FIG. 13) and the level difference between the reference surface of the workpiece holder (8b: FIG. 13).

測定記録装置300は、マーカー(15:図13)とワーク保持具(8b:図13)の基準面との段差量を取得し、段差量を出力部316の出力画面に表示する。ユーザーは、出力画面に表示された段差量をマーカー(15:図13)に設けられた誤差情報記入部(17:図13)に記録する。   The measurement recording apparatus 300 acquires the step amount between the marker (15: FIG. 13) and the reference surface of the work holder (8b: FIG. 13), and displays the step amount on the output screen of the output unit 316. The user records the step amount displayed on the output screen in the error information entry section (17: FIG. 13) provided in the marker (15: FIG. 13).

ユーザーは、ワーク保持具8bの基準面からマーカーピン15の上面(マーカー部16が配された面)までの深さ寸法(段差量)を測定する。段差量の測定は、比較的簡単な測定機器を用いて高精度に実施できる。たとえば、ワーク保持具8bの上面からマーカーピン15の上面へと、図示しない精密定盤を基準としてダイアルゲージを走査することで深さ寸法を測定してもよい。また、デプスゲージなどの深さ測定器具を用いて測定してもよい。   The user measures a depth dimension (a step amount) from the reference surface of the work holder 8b to the upper surface of the marker pin 15 (the surface on which the marker portion 16 is disposed). The level difference can be measured with high accuracy using a relatively simple measuring device. For example, the depth dimension may be measured by scanning a dial gauge from the upper surface of the work holder 8b to the upper surface of the marker pin 15 with reference to a precision surface plate (not shown). Moreover, you may measure using depth measuring instruments, such as a depth gauge.

ユーザーは、ワーク保持具8bの基準面に対するマーカーピン15の上面の深さ測定を実施した後、マーカーピン15の誤差情報記入部17に対して、深さの測定値に対応する数のマス目を油性マーカーで塗り潰す。例えば、マーカーピン15の上面の深さの測定値が70μmであった場合、ユーザーは、図14の(b)に示すように、7つのマス目を油性マーカーで塗り潰す。   After measuring the depth of the upper surface of the marker pin 15 with respect to the reference surface of the workpiece holder 8b, the user makes a number of squares corresponding to the depth measurement value to the error information entry portion 17 of the marker pin 15. Fill with oily marker. For example, when the measured value of the depth of the upper surface of the marker pin 15 is 70 μm, the user fills the seven squares with the oil marker as shown in FIG.

ユーザーは、マーカーピン15の取り付け、マーカー部16の高さ測定、誤差情報記入部17への誤差情報の記録を、4か所の基準穴14、マーカーピン15に対してそれぞれ実施する。ユーザーは、4か所の基準穴14で、マーカー部16の深さ方向の測定結果を誤差情報記入部17に記録することで、誤差情報保持パターン18を加工する。このようにして、誤差情報保持パターン18の加工が完了する。   The user performs attachment of the marker pin 15, measurement of the height of the marker portion 16, and recording of error information in the error information entry portion 17 for each of the four reference holes 14 and the marker pins 15. The user processes the error information holding pattern 18 by recording the measurement result in the depth direction of the marker portion 16 in the error information entry portion 17 at the four reference holes 14. In this way, the processing of the error information holding pattern 18 is completed.

(ロボット装置)
実施の形態3では、図9に示すように、ロボット装置1bは、制御部4がロボットアーム2、ロボットハンド3、及びフィンガー31を制御して、ワーク保持具8に保持されるワークに対する組立作業を行う。ロボット装置1aは、ロボットアーム2によりワーク保持具8にワークを取り付け、ワークに対して他の部品を組み立てる作業を実行する。実施の形態2と同様に、ワーク保持具8の4つのマーカー部16を含む領域を手先カメラによって撮像して位置ずれ情報を取得する。
(Robot device)
In the third embodiment, as shown in FIG. 9, the robot apparatus 1 b is configured so that the control unit 4 controls the robot arm 2, the robot hand 3, and the fingers 31 to assemble the workpiece held by the workpiece holder 8. I do. The robot apparatus 1a performs the operation | work which attaches a workpiece | work to the workpiece holder 8 with the robot arm 2, and assembles other components with respect to a workpiece | work. Similar to the second embodiment, the region including the four marker portions 16 of the work holder 8 is imaged by the hand camera to acquire positional deviation information.

ワーク保持具8bを使用してロボットアーム2の制御に用いる座標系を調整する際には、手先カメラ6によりワーク保持具8の4つの誤差情報記入部17を撮像する。誤差情報読取部415は、ワーク保持具8の撮像画像を画像処理して、誤差情報記入部17のマス目のうち何マスが誤差情報保持パターン18として塗りつぶされているかを読み取る。   When the coordinate system used for controlling the robot arm 2 is adjusted using the workpiece holder 8b, the four error information entry sections 17 of the workpiece holder 8 are imaged by the hand camera 6. The error information reading unit 415 performs image processing on the captured image of the work holder 8 and reads how many squares of the squares of the error information entry unit 17 are filled as the error information holding pattern 18.

ロボット動作補正演算部412は、4つのマーカーピン15の位置の基準面に対してZ方向のみロボットアーム2を制御する座標系の補正を行う。   The robot motion correction calculation unit 412 corrects the coordinate system for controlling the robot arm 2 only in the Z direction with respect to the reference plane at the positions of the four marker pins 15.

なお、誤差情報の読み取りに関しては実施の形態1と同様であるため、詳細な説明は省略する。ロボットアーム2を制御する座標系の補正に関しては、実施の形態2においてXYの誤差がそれぞれ0である場合と同様であるため、詳細な説明は省略する。   Note that reading error information is the same as in the first embodiment, and thus detailed description thereof is omitted. The correction of the coordinate system for controlling the robot arm 2 is the same as that in the second embodiment where the XY errors are 0, and thus detailed description thereof is omitted.

(実施の形態3の効果)
実施の形態3では、Z方向のみの補正として誤差の測定を段差測定のみで完結する構成としたことにより、ダイアルゲージやデプスゲージなどの簡素な測定器具を用いて行うことができる。
(Effect of Embodiment 3)
In the third embodiment, since the error measurement is completed only by the step measurement as the correction only in the Z direction, it can be performed using a simple measuring instrument such as a dial gauge or a depth gauge.

実施の形態3では、誤差情報保持パターンとして誤差情報記入部に油性マーカー等で測定した結果を利用する。このため、特別な加工機や測定機械を必要とせず、生産装置の組み立て作業者が現場で容易に誤差情報の埋め込みを実施できる。   In the third embodiment, the result measured with an oil marker or the like in the error information entry part is used as the error information holding pattern. For this reason, a special processing machine and a measuring machine are not required, and an assembly operator of a production apparatus can easily embed error information on site.

実施の形態3では、ステレオカメラ等による三次元測定結果を用いてロボットアームのティーチング等を6自由度で行う場合に、各マーカーの深さ方向の誤差がロボットアームの手先座標系Tの傾きの誤差となる。そして、ロボットアームの手先座標系Tの傾きの誤差は、ワーク保持具8bと手先の距離が離れるに従ってその影響が拡大する。このため、マーカー部16のZ方向の誤差を改善することで、ワーク保持具8bに対するロボットアームの手先座標系TのXY方向の位置精度も改善する。   In the third embodiment, when the robot arm teaching or the like is performed with six degrees of freedom using a three-dimensional measurement result by a stereo camera or the like, the error in the depth direction of each marker is the inclination of the hand coordinate system T of the robot arm. It becomes an error. The error in the tilt of the hand coordinate system T of the robot arm increases as the distance between the work holder 8b and the hand increases. For this reason, by improving the error in the Z direction of the marker portion 16, the positional accuracy in the XY directions of the hand coordinate system T of the robot arm with respect to the workpiece holder 8b is also improved.

実施の形態3では、マーカー部16、誤差情報記入部17および誤差情報保持パターン18のZ方向の位置が、ワーク保持具8bの上面に対して一段低くなっている。このため、生産時にワークと直接的に接してマーカー部16や誤差情報保持パターン18に傷やかすれ等の損耗が生じるリスクが低くなる。これにより、高い信頼性で長期にわたって誤差の補正を行える。   In the third embodiment, the positions of the marker portion 16, the error information entry portion 17, and the error information holding pattern 18 in the Z direction are lower by one step than the upper surface of the workpiece holder 8b. For this reason, there is a low risk that the marker unit 16 and the error information holding pattern 18 may be worn or damaged due to direct contact with the workpiece during production. Thereby, the error can be corrected over a long period of time with high reliability.

実施の形態3では、誤差の量と、塗りつぶすマス目の数を対応させているため、作業者がワーク保持具8bを見た際に誤差の状態を直感的に理解できる。   In the third embodiment, since the amount of error is associated with the number of squares to be filled, the error state can be intuitively understood when the operator looks at the workpiece holder 8b.

<その他の実施の形態>
実施の形態1、2、3は、本発明の実施例の一例を示すものであり、本発明の趣旨を逸脱しない範囲において適宜変更が可能である。実施の形態1、2、3の構成の一部又は全部を等価な構成で置き換えた別の実施の形態でも本発明を実施できる。
<Other embodiments>
Embodiments 1, 2, and 3 show examples of the embodiment of the present invention, and can be appropriately changed without departing from the gist of the present invention. The present invention can be implemented in another embodiment in which part or all of the configurations of the first, second, and third embodiments are replaced with equivalent configurations.

(マーカーの形状)
図15はマーカーの別の例の説明図である。実施の形態1では、マーカー11は、黒色円形のシールをトレイ7に貼り付けることによって実現している。実施の形態2ではマーカー11の形状を円形とした。実施の形態3ではマーカー部16を円で囲んだクロスマークとした。しかし、マーカーの形状は、三角形、四角形など他の任意の形状を採用してもよい。
(Marker shape)
FIG. 15 is an explanatory diagram of another example of the marker. In the first embodiment, the marker 11 is realized by attaching a black circular seal to the tray 7. In the second embodiment, the shape of the marker 11 is circular. In the third embodiment, the marker portion 16 is a cross mark surrounded by a circle. However, the marker may have any other shape such as a triangle or a rectangle.

マーカー11、マーカー部16は、トレイ7、ワーク保持具8の金属材料に対してレーザーマーキング、印刷、サンドブラスト等でパターンを直接形成してもよい。マーカー11、マーカー部16は、固定カメラ5によって、背景のトレイ7、ワーク保持具8から識別可能であれば加工する手段は問わない。トレイ7、ワーク保持具8の平坦な位置に単純な穴加工を施して、マーカー11、マーカー部16としてもよい。   The marker 11 and the marker portion 16 may directly form a pattern on the metal material of the tray 7 and the work holder 8 by laser marking, printing, sandblasting, or the like. As long as the marker 11 and the marker portion 16 can be identified from the background tray 7 and the work holder 8 by the fixed camera 5, any means can be used. The marker 11 and the marker unit 16 may be formed by performing simple hole processing on the flat positions of the tray 7 and the workpiece holder 8.

図15の(a)に示すように、円で囲んだクロスマークを採用してもよい。図15の(b)に示すように、正方形で囲んだクロスマークとしてもよい。図15の(c)に示すように、対角線の向きを45°に傾けた正方形としてもよい。クロスマークは中心位置の座標を画像処理によって求めることが容易である。   As shown in FIG. 15A, a cross mark surrounded by a circle may be adopted. As shown in FIG. 15B, a cross mark surrounded by a square may be used. As shown in (c) of FIG. 15, a square in which the diagonal direction is inclined at 45 ° may be used. The cross mark can easily obtain the coordinates of the center position by image processing.

(誤差情報パターン)
図16は誤差情報パターンの別の例の説明図である。実施の形態1では、誤差情報パターン12を矩形形状とし、矩形形状の長さL1、L2をマーカー位置誤差量に比例させる構成としたが、誤差情報パターン12の取り得る構成はこれに限らない。誤差情報読取部415が誤差情報パターン12の画像データからマーカー11の位置誤差情報を読み取ることができればよい。
(Error information pattern)
FIG. 16 is an explanatory diagram of another example of the error information pattern. In the first embodiment, the error information pattern 12 has a rectangular shape, and the lengths L1 and L2 of the rectangular shape are proportional to the marker position error amount. However, the configuration that the error information pattern 12 can take is not limited to this. It is sufficient that the error information reading unit 415 can read the position error information of the marker 11 from the image data of the error information pattern 12.

誤差量と誤差情報パターンの寸法の関係は比例関係に限らず、誤差情報パターンの寸法を誤差量に変換することができるように相関を持たせた任意の関数を使用することができる。   The relationship between the error amount and the dimension of the error information pattern is not limited to a proportional relationship, and an arbitrary function having a correlation can be used so that the dimension of the error information pattern can be converted into the error amount.

実施の形態1では、誤差情報パターン12が候補領域のどちらにあるかによってマーカー11の位置誤差の正負の判定を行ったが、単純に誤差情報パターン12の寸法の大きさがマイナスからプラスまでの誤差量に対応するようにしてもよい。   In the first embodiment, whether the error information pattern 12 is in the candidate area is determined whether the position error of the marker 11 is positive or negative. However, the size of the error information pattern 12 is simply changed from minus to plus. You may make it respond | correspond to error amount.

図16の(a)に示すように、円の径を位置誤差情報として使用することが可能である。図16の(b)に示すように、特徴点23a、23bの間の距離を位置誤差情報として使用することが可能である。図16の(c)に示すように、辺23e、23fの間の距離を位置誤差情報として使用することが可能である。   As shown in FIG. 16A, the diameter of a circle can be used as position error information. As shown in FIG. 16B, the distance between the feature points 23a and 23b can be used as position error information. As shown in FIG. 16C, the distance between the sides 23e and 23f can be used as position error information.

図16の(d)に示すように、誤差情報パターン24内に3点以上の特徴点23a、23b、23cを設け、特徴点23a、23bの中点24dをゼロ点として、特徴点23cとの相対関係からプラスマイナスを判断する構成としてもよい。これら以外の特徴的な図形の任意の寸法を位置誤差情報として使用することも可能である。   As shown in FIG. 16D, three or more feature points 23a, 23b, and 23c are provided in the error information pattern 24, and the midpoint 24d of the feature points 23a and 23b is set as a zero point. It is good also as a structure which judges plus or minus from a relative relationship. Arbitrary dimensions of characteristic figures other than these can also be used as position error information.

実施の形態2では、情報画像として二次元コード13を使用する実施例を説明したが、他の方式でマーカー位置の誤差情報を記録してもよい。たとえばバーコードを用いることも可能である。数値情報をそのまま文字としてトレイ7又はワーク保持具8の平坦な面上に印字し、撮像画像タから公知のOCR技術を用いて文字情報を読み取ることも可能である。   In the second embodiment, the example in which the two-dimensional code 13 is used as the information image has been described. However, the error information of the marker position may be recorded by other methods. For example, a bar code can be used. It is also possible to print the numerical information as characters as they are on the flat surface of the tray 7 or the work holder 8 and read the character information from the captured image data using a known OCR technique.

実施の形態3では、誤差情報記入部17のマス目の数や形状、1マスあたりのあらわす誤差量などを任意に設定可能である。また、誤差情報記入部17のマス目を塗りつぶす数と誤差量を比例させるのでなく、マス目の一つ一つをビット情報と考えて二進数的に誤差を記入できるようしても良い。この場合は、作業者が誤差の量を直感的に理解しづらくなるが、同一のスペースで表現できる誤差範囲が広がるという利点がある。   In the third embodiment, it is possible to arbitrarily set the number and shape of the squares of the error information entry unit 17 and the error amount represented per square. Further, instead of making the error amount proportional to the number of squares in the error information entry unit 17 that fills the squares, each square may be considered as bit information so that an error can be entered in binary. In this case, it is difficult for an operator to intuitively understand the amount of error, but there is an advantage that an error range that can be expressed in the same space is widened.

実施の形態1では、誤差情報パターン12は印刷により記録された。しかし、誤差情報パターン12は、固定カメラ5の撮像画像においてトレイ7の背景から判別可能であれば、レーザーマーキング、エッチング、サンドブラスト、穴明け等の別の記録方法を用いることも可能である。   In the first embodiment, the error information pattern 12 is recorded by printing. However, if the error information pattern 12 can be discriminated from the background of the tray 7 in the captured image of the fixed camera 5, another recording method such as laser marking, etching, sand blasting, drilling, or the like can be used.

(作業用基準物体)
実施の形態1ではトレイ7、実施の形態2、3では、トレイ7およびワーク保持具8を作業用基準物体として説明したが、作業用基準物体は、ロボットアーム2で作業が可能な任意の対象物に拡張可能である。作業用基準物体は、ケース、トレイ、通し箱、常盤、治具、チャック、工具、測定器、組み立て部品等であってもよい。
(Reference object for work)
In the first embodiment, the tray 7 and the second and third embodiments have been described using the tray 7 and the work holder 8 as work reference objects. However, the work reference object may be any object that can be worked by the robot arm 2. It can be extended to things. The reference object for work may be a case, a tray, a through box, a standing board, a jig, a chuck, a tool, a measuring instrument, an assembly part, or the like.

例えば、ロボットアーム2による組立対象の本体部品そのものにマーカー11を設け、本体部品のマーカー11を測定してマーカー11の位置誤差情報を本体部品に印字してもよい。その後、図1に示す固定カメラ5を用いて本体部品を撮像してマーカー11の位置誤差情報を読み取り、ロボット装置1aにより本体部品に対する取付部品の組付作業を高精度に行ってもよい。   For example, the marker 11 may be provided on the body part itself to be assembled by the robot arm 2, the marker 11 of the body part may be measured, and the position error information of the marker 11 may be printed on the body part. Thereafter, the main body part may be imaged using the fixed camera 5 shown in FIG. 1, the position error information of the marker 11 may be read, and the attachment work of the attachment part to the main body part may be performed with high accuracy by the robot apparatus 1a.

実施の形態1、2、3では、フィンガー31の開閉によってワーク9aを把持する構成を例示した。しかし、ロボットアーム2に取り付けられてワーク9aに対して作用を行う任意のエンドエフェクタに拡張可能である。例えば、真空吸着によってワーク9aを取得する吸着パッド、磁力を用いてワーク9aを取得する電磁石ツール等をロボットハンド3の代わりに採用してもよい。   In the first, second, and third embodiments, the configuration in which the workpiece 9 a is gripped by opening and closing the fingers 31 is illustrated. However, it can be expanded to an arbitrary end effector attached to the robot arm 2 and acting on the workpiece 9a. For example, a suction pad that acquires the workpiece 9a by vacuum suction, an electromagnet tool that acquires the workpiece 9a using magnetic force, or the like may be used instead of the robot hand 3.

(制御部)
図1に示す制御部4は、ROM42に記憶されたプログラムをCPU41に読み込むことによって一時的に形成されなくてもよい。ロボット制御部411、ロボット動作補正演算部412、画像データ取得部413、マーカー位置演算部414、誤差情報読取部415は、制御部4としてのコンピュータでプログラムにより一時的に形成される機能には限定されない。
(Control part)
The control unit 4 shown in FIG. 1 may not be temporarily formed by reading the program stored in the ROM 42 into the CPU 41. The robot control unit 411, the robot motion correction calculation unit 412, the image data acquisition unit 413, the marker position calculation unit 414, and the error information reading unit 415 are limited to functions temporarily formed by a program as a computer as the control unit 4. Not.

ロボット制御部411、ロボット動作補正演算部412、画像データ取得部413、マーカー位置演算部414、誤差情報読取部415を個別の回路として備えた制御部4であってもよい。別個に設けられた複数の制御部を組み合わせることによって同等の制御部4の機能を実現してもよい。   The control unit 4 may include the robot control unit 411, the robot motion correction calculation unit 412, the image data acquisition unit 413, the marker position calculation unit 414, and the error information reading unit 415 as individual circuits. You may implement | achieve the function of the equivalent control part 4 by combining the several control part provided separately.

実施の形態2では、ユーザーが事前に撮影可能なティーチングポイントを登録しておいて、制御部4がプログラムによりロボットアーム2を制御して移動させる。ただし、作業者が図示しないティーチングペンダントを用いてインチングでロボットアーム2を移動させてもよい。   In the second embodiment, teaching points that can be photographed by the user are registered in advance, and the control unit 4 controls and moves the robot arm 2 by a program. However, the robot arm 2 may be moved by inching using a teaching pendant (not shown).

実施の形態2では、補正動作を1回のみ実行する場合について説明したが、治工具撮像S22から位置姿勢調整動作S26までを同一のワーク保持具8に対して複数回繰り返すことによって、誤差を収束させていく方法を採用してもよい。その場合、マーカー11の位置誤差情報は変化しないため、誤差情報読取部415による誤差情報読取(S24)は2回目以降で省略可能である。また、最後に位置姿勢調整動作S26の終了後に再度撮像を行い、所定の誤差範囲内で位置決めが出来ているかを確認してから教示点記憶処理(S27)を実行するようにしても良い。   In the second embodiment, the case where the correction operation is executed only once has been described, but the error is converged by repeating the jig imaging S22 to the position / orientation adjustment operation S26 a plurality of times for the same workpiece holder 8. You may adopt the method of letting you do. In this case, since the position error information of the marker 11 does not change, the error information reading (S24) by the error information reading unit 415 can be omitted after the second time. Finally, after the position / orientation adjustment operation S26 is completed, imaging may be performed again, and the teaching point storage process (S27) may be executed after confirming that positioning is performed within a predetermined error range.

(誤差測定)
画像処理を伴ってマーカー11の位置を演算する方法には、エッジ画像を円弧フィッティング処理するほかにも種々の方法が公知である。このため、マーカー11の位置を演算する方法には、公知ないずれの方法を用いても構わない。
(Error measurement)
As a method for calculating the position of the marker 11 with image processing, various methods are known in addition to arc fitting processing of the edge image. For this reason, any known method may be used as a method of calculating the position of the marker 11.

マーカー11のマーカー位置の誤差量(ΔX、ΔY)の測定には、測定顕微鏡を用いて画像的に測定する以外の公知の方法を用いることも可能である。別の公知の方法としては、トレイ7の表面に印字されたマーカーに対して、支持部301にセットしたトレイ7を固定カメラにより撮像し、撮像画像を画像処理してマーカー位置の誤差量(ΔX、ΔY)を測定することも可能である。さらに別の公知の方法としては、穴などの機械形状をマーカー11として用いる際には、接触式の三次元測定器などで測定することも可能である。   For the measurement of the error amount (ΔX, ΔY) of the marker position of the marker 11, it is possible to use a known method other than image-wise measurement using a measurement microscope. As another known method, with respect to the marker printed on the surface of the tray 7, the tray 7 set on the support unit 301 is imaged with a fixed camera, and the captured image is image-processed to perform an error amount (ΔX , ΔY) can also be measured. As another known method, when a machine shape such as a hole is used as the marker 11, it can be measured by a contact type three-dimensional measuring instrument.

視覚センサの具体例には、一般的な単眼の工業用カメラや、三次元計測を行うためにカメラを複数用意したステレオカメラ、対象物にシート状のレーザ光やパターン光を投影する光学系とカメラを組み合わせた三次元計測センサなどが含まれる。   Specific examples of visual sensors include general monocular industrial cameras, stereo cameras with multiple cameras for three-dimensional measurement, optical systems that project sheet-like laser light and pattern light onto objects, 3D measurement sensors combined with cameras are included.

実施の形態1では、測定用ダミー309aを用いてマーカー11の取り付け位置の位置ずれ量を測定する場合について説明した。しかし、位置ずれ量の測定においては、測定用ダミー309aを用いずに、支持部301に対するトレイ7の付き当て位置を基準としてマーカー11の位置の測定値(X,Y)を取得し位置ずれ量を演算してもかまわない。 In the first embodiment, the case where the displacement amount of the attachment position of the marker 11 is measured using the measurement dummy 309a has been described. However, in the measurement of the positional deviation amount, the measurement value (X R , Y R ) of the position of the marker 11 is obtained with reference to the contact position of the tray 7 with respect to the support portion 301 without using the measurement dummy 309a. The amount of deviation may be calculated.

実施の形態1では、制御部4が、マーカー11及び誤差情報パターン12を検知してロボットアーム2を制御するための座標を調整する実施例を説明した。しかし、これは、制御部4が、マーカー11及び誤差情報パターン12を検知してロボットアーム2によるトレイ7上の作業の目標位置を調整する実施例と実質的に同一である。   In the first embodiment, the example in which the control unit 4 detects the marker 11 and the error information pattern 12 and adjusts the coordinates for controlling the robot arm 2 has been described. However, this is substantially the same as the embodiment in which the control unit 4 detects the marker 11 and the error information pattern 12 and adjusts the target position of the work on the tray 7 by the robot arm 2.

1a、1b ロボット装置(ロボットシステム)
2 ロボットアーム、3 ロボットハンド、4 制御部
5 固定カメラ、6 手先カメラ、7 トレイ
8 ワーク保持具、9a、9b ワーク
10 架台、11 マーカー、12 誤差情報パターン
13 二次元コード、14 基準穴
15 マーカーピン、16 マーカー部、17 誤差情報記入部
18 誤差情報保持パターン、19 嵌合部
31 フィンガー、41 CPU、42 ROM、43 RAM
44 インターフェース部、45 バス、81、82 突き当て部
83、84 クランプ部
300 測定記録装置、301 支持部、304 制御部
305 測定顕微鏡、401 搬送機構、402 着脱部
411 ロボット制御部、412 ロボット動作補正演算部
413 画像データ取得部、414 マーカー位置演算部
415 誤差情報読取部
1a, 1b Robotic device (robot system)
2 Robot arm, 3 Robot hand, 4 Control unit 5 Fixed camera, 6 Hand camera, 7 Tray 8 Work holder, 9a, 9b Work 10 Mount, 11 Marker, 12 Error information pattern 13 Two-dimensional code, 14 Reference hole 15 Marker Pin, 16 Marker part, 17 Error information entry part 18 Error information holding pattern, 19 Fitting part 31 Finger, 41 CPU, 42 ROM, 43 RAM
44 interface unit, 45 bus, 81, 82 abutting unit 83, 84 clamping unit 300 measurement recording device, 301 support unit, 304 control unit 305 measurement microscope, 401 transport mechanism, 402 detachable unit 411 robot control unit, 412 robot operation correction Calculation unit 413 Image data acquisition unit, 414 Marker position calculation unit 415 Error information reading unit

Claims (17)

ロボットアームを有するロボット装置で使用され、光学的に検知して前記ロボットアームの制御に用いる座標系を調整可能な指標を有する作業用基準物体における指標の位置ずれ情報を測定する測定工程と、
前記測定工程により測定した前記位置ずれ情報を、光学的に読み取り可能な情報画像に変換して前記作業用基準物体に記録する記録工程と、を有することを特徴とする作業用基準物体の製造方法。
A measuring step used in a robot apparatus having a robot arm to measure positional deviation information of an index in a working reference object having an index that can be optically detected and adjusts a coordinate system used for controlling the robot arm;
And a recording step of converting the positional deviation information measured in the measuring step into an optically readable information image and recording the information image on the working reference object. .
ロボットアームを有するロボット装置で使用される作業用基準物体であって、
光学的に検知して前記ロボットアームの制御に用いる座標系を調整可能な指標と、
光学的に読み取って前記作業用基準物体に対する指標の位置ずれ情報を取得可能な情報画像と、を有することを特徴とする作業用基準物体。
A reference object for work used in a robot apparatus having a robot arm,
An index capable of optically detecting and adjusting a coordinate system used for controlling the robot arm;
A work reference object, comprising: an information image that can be optically read to obtain positional displacement information of an index with respect to the work reference object.
前記作業用基準物体の1つの面に前記指標が複数配置され、
前記情報画像は、前記1つの面において対応する前記指標に隣接させて配置されることを特徴とする請求項2に記載の作業用基準物体。
A plurality of the indicators are arranged on one surface of the working reference object,
The work reference object according to claim 2, wherein the information image is arranged adjacent to the corresponding index on the one surface.
前記位置ずれ情報は、前記作業用基準物体に対する指標の位置ずれ方向及び位置ずれ量であって、
前記情報画像は、前記指標を中心とする直交座標における前記位置ずれ方向に対応する座標軸の方向に、前記位置ずれ量の座標軸方向成分に対応する長さを持つことを特徴とする請求項3に記載の作業用基準物体。
The positional deviation information is a positional deviation direction and a positional deviation amount of the index with respect to the work reference object,
4. The information image according to claim 3, wherein the information image has a length corresponding to a coordinate axis direction component of the positional deviation amount in a direction of a coordinate axis corresponding to the positional deviation direction in orthogonal coordinates centered on the index. The reference object for work described.
前記作業用基準物体の1つの面に前記指標が複数配置され、
前記情報画像は、前記1つの面において前記指標から離れて配置され、複数の前記指標の位置ずれ情報を含むことを特徴とする請求項2に記載の作業用基準物体。
A plurality of the indicators are arranged on one surface of the working reference object,
3. The work reference object according to claim 2, wherein the information image is arranged apart from the index on the one surface and includes a plurality of misalignment information of the index.
前記情報画像は、二次元コード化された数値情報であることを特徴とする請求項5に記載の作業用基準物体。   The work reference object according to claim 5, wherein the information image is two-dimensionally encoded numerical information. 前記作業用基準物体の基準面から後退させて後退方向の位置情報を取得可能な指標が配置され、
前記位置ずれ情報は、前記基準面から前記指標までの後退量であって、
前記情報画像は、前記指標と同一部材上に形成され、前記作業用基準物体の前記基準面から後退した位置に配置されることを特徴とする請求項2に記載の作業用基準物体。
An indicator that can be retreated from the reference surface of the working reference object to obtain position information in the backward direction is arranged,
The positional deviation information is a retraction amount from the reference plane to the index,
The work reference object according to claim 2, wherein the information image is formed on the same member as the index and is disposed at a position retracted from the reference surface of the work reference object.
前記ロボットアームによりワークが取り出される容器であることを特徴とする請求項2乃至7のいずれか1項に記載の作業用基準物体。   The work reference object according to any one of claims 2 to 7, wherein the work reference object is a container from which a workpiece is taken out by the robot arm. 前記ロボットアームによりワークが取り付けられる治工具であることを特徴とする請求項2乃至7のいずれか1項に記載の作業用基準物体。   The work reference object according to any one of claims 2 to 7, wherein the work reference tool is a jig to which a workpiece is attached by the robot arm. 作業用基準物体の保持部と、指標を光学的に検知する検知部と、情報画像を光学的に読み取る読取部と、ロボットアームの制御部と、を有し、請求項2乃至9のいずれか1項に記載の作業用基準物体を使用するロボット装置におけるロボットアームの調整方法であって、
前記制御部が、前記作業用基準物体を、前記保持部により前記ロボットアームによる処理が可能な位置に保持させる保持工程と、
前記制御部が、前記保持工程により保持された前記作業用基準物体の指標を、前記検知部により検知して指標の位置を取得する検知工程と、
前記制御部が、前記保持工程により保持された前記作業用基準物体の情報画像を、前記読取部により読み取って指標の位置ずれ情報を取得する読取工程と、
前記制御部が、前記検知工程により取得した指標の位置と前記読取工程により取得した指標の位置ずれ情報とに基づいて前記ロボットアームの制御に用いる座標系を調整する調整工程と、を有することを特徴とするロボットアームの調整方法。
10. A working reference object holding unit, a detection unit for optically detecting an index, a reading unit for optically reading an information image, and a robot arm control unit, and a robot arm control unit. A method for adjusting a robot arm in a robot apparatus that uses the work reference object according to claim 1,
A holding step in which the control unit holds the reference object for work at a position where the processing by the robot arm can be performed by the holding unit;
A detecting step in which the control unit detects the index of the reference object for work held in the holding step, and acquires the position of the index by the detecting unit;
A reading step in which the control unit reads the information image of the reference object for work held in the holding step by the reading unit to acquire positional deviation information of the index;
The control unit includes an adjustment step of adjusting a coordinate system used for controlling the robot arm based on the position of the index acquired by the detection step and the positional deviation information of the index acquired by the reading step. A method for adjusting a robot arm as a feature.
請求項10に記載のロボットアームの調整方法を、コンピュータに実行させるためのプログラム。   A program for causing a computer to execute the robot arm adjustment method according to claim 10. 請求項11に記載のプログラムを記録した記録媒体。   The recording medium which recorded the program of Claim 11. 請求項2乃至9のいずれか1項に記載の作業用基準物体を検知するビジョンシステムであって、
作業用基準物体上の少なくとも指標と情報画像とを含む領域を撮像可能な撮像部と、
前記撮像部により撮像された撮像画像を画像処理して、指標の位置情報と指標の位置ずれ情報とを取得する画像処理部と、を有することを特徴とするビジョンシステム。
A vision system for detecting the work reference object according to any one of claims 2 to 9,
An imaging unit capable of imaging an area including at least an index and an information image on a work reference object;
A vision system, comprising: an image processing unit that performs image processing on a captured image captured by the imaging unit to acquire index position information and index position shift information.
請求項2乃至9のいずれか1項に記載の作業用基準物体を使用するロボット装置であって、
作業用基準物体を前記ロボットアームによる処理が可能な位置に保持する保持部と、
前記保持部により保持された作業用基準物体上の少なくとも指標と情報画像とを含む領域を撮像可能な撮像部と、
前記撮像部により撮像された撮像画像を画像処理して、指標の位置情報と指標の位置ずれ情報とを取得する画像処理部と、
前記画像処理部により取得した指標の位置情報と指標の位置ずれ情報とに基づいて前記ロボットアームの制御に用いる座標系を調整する調整部と、を有することを特徴とするロボット装置。
A robot apparatus using the work reference object according to any one of claims 2 to 9,
A holding unit for holding a work reference object at a position where the robot arm can perform processing;
An imaging unit capable of imaging an area including at least an index and an information image on the work reference object held by the holding unit;
An image processing unit that performs image processing on a captured image captured by the imaging unit, and acquires position information of the index and position displacement information of the index;
A robot apparatus, comprising: an adjustment unit that adjusts a coordinate system used for controlling the robot arm based on position information of the index acquired by the image processing unit and position displacement information of the index.
ロボットアームを有するロボット装置で使用される作業用基準物体であって、
光学的に検知して前記ロボットアームによる前記作業用基準物体上の作業の目標位置を調整可能な指標と、
光学的に読み取って前記作業用基準物体に対する指標の位置ずれ情報を取得可能な情報画像と、を有することを特徴とする作業用基準物体。
A reference object for work used in a robot apparatus having a robot arm,
An index that can be optically detected to adjust the target position of the work on the work reference object by the robot arm;
A work reference object, comprising: an information image that can be optically read to obtain positional displacement information of an index with respect to the work reference object.
請求項15に記載の作業用基準物体を使用するロボット装置であって、
前記作業用基準物体を前記ロボットアームによる処理が可能な位置に保持する保持部と、
前記保持部により保持された前記作業用基準物体上の少なくとも指標と情報画像とを含む領域を撮像可能な撮像部と、
前記撮像部により撮像された撮像画像を画像処理して、指標の位置情報と指標の位置ずれ情報とを取得する画像処理部と、
前記画像処理部により取得した指標の位置情報と指標の位置ずれ情報とに基づいて前記ロボットアームによる前記作業用基準物体上の作業の目標位置を調整する調整部と、を有することを特徴とするロボット装置。
A robot apparatus using the work reference object according to claim 15,
A holding unit for holding the work reference object at a position where the robot arm can perform processing;
An imaging unit capable of imaging an area including at least an index and an information image on the work reference object held by the holding unit;
An image processing unit that performs image processing on a captured image captured by the imaging unit, and acquires position information of the index and position displacement information of the index;
An adjustment unit that adjusts a target position of the work on the reference object for work by the robot arm based on the position information of the index acquired by the image processing unit and the position shift information of the index. Robot device.
ロボットアームと作業用基準物体を有するロボット装置で使用される指標用部材であって、
光学的に検知して前記ロボットアームの制御に用いる座標系を調整可能な指標部と、
光学的に読み取って前記作業用基準物体に対する指標の位置ずれ情報を取得可能な情報画像を前記指標部とは独立に記録可能な情報画像記録部と、
前記作業用基準物体の有する穴部と嵌合する嵌合部と、を有することを特徴とする指標用部材。
An index member used in a robot apparatus having a robot arm and a working reference object,
An index unit capable of optically detecting and adjusting a coordinate system used for controlling the robot arm;
An information image recording unit capable of optically reading and recording an information image capable of acquiring the positional deviation information of the index with respect to the work reference object independently of the index unit;
An index member comprising: a fitting portion that fits into a hole portion of the working reference object.
JP2015200674A 2015-10-09 2015-10-09 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member Pending JP2017071033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200674A JP2017071033A (en) 2015-10-09 2015-10-09 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200674A JP2017071033A (en) 2015-10-09 2015-10-09 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member

Publications (1)

Publication Number Publication Date
JP2017071033A true JP2017071033A (en) 2017-04-13

Family

ID=58538097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200674A Pending JP2017071033A (en) 2015-10-09 2015-10-09 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member

Country Status (1)

Country Link
JP (1) JP2017071033A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230517A1 (en) * 2017-06-13 2018-12-20 川崎重工業株式会社 Operation system
JP2019038043A (en) * 2017-08-22 2019-03-14 Dmg森精機株式会社 Work information recognizing system
CN109489555A (en) * 2019-01-03 2019-03-19 大连理工大学 A kind of measurement method of end effector of robot location error
WO2019093299A1 (en) * 2017-11-09 2019-05-16 国立大学法人東京大学 Position information acquisition device and robot control device provided with same
CN111037559A (en) * 2019-12-25 2020-04-21 深圳科瑞技术股份有限公司 Quick calibration method and device for position of material tray of machine and storage medium
JP2020116717A (en) * 2019-01-28 2020-08-06 株式会社Fuji Robot control system
WO2021217976A1 (en) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 Method and apparatus for controlling mechanical arm on basis of monocular visual positioning
JP7015949B1 (en) 2021-03-15 2022-02-14 Dmg森精機株式会社 Sticking position measuring device and machine tool equipped with it
CN114147695A (en) * 2021-12-15 2022-03-08 中联恒通机械有限公司 Manipulator machining part placing device and grabbing method
CN114303002A (en) * 2019-04-05 2022-04-08 Fmc技术股份有限公司 Tool change control for submersible remote control vehicle
CN114310881A (en) * 2021-12-23 2022-04-12 中国科学院自动化研究所 Calibration method and system for mechanical arm quick-change device and electronic equipment
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
CN114905511A (en) * 2022-05-12 2022-08-16 南京航空航天大学 Industrial robot assembly error detection and precision compensation system calibration method
WO2023044614A1 (en) * 2021-09-22 2023-03-30 Abb Schweiz Ag Method and electronic device for calibrating robot
KR102520214B1 (en) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 A method for driving a collaborative robot capable of preemptive response and a system therefor
JP2023112793A (en) * 2022-02-02 2023-08-15 Dmg森精機株式会社 Transfer robot, transfer method, and control program
WO2023243001A1 (en) * 2022-06-15 2023-12-21 ファナック株式会社 Robot programming device and robot programming system

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018230517A1 (en) * 2017-06-13 2020-04-23 川崎重工業株式会社 Work system
JP7145851B2 (en) 2017-06-13 2022-10-03 川崎重工業株式会社 work system
WO2018230517A1 (en) * 2017-06-13 2018-12-20 川崎重工業株式会社 Operation system
JP2019038043A (en) * 2017-08-22 2019-03-14 Dmg森精機株式会社 Work information recognizing system
WO2019093299A1 (en) * 2017-11-09 2019-05-16 国立大学法人東京大学 Position information acquisition device and robot control device provided with same
CN109489555A (en) * 2019-01-03 2019-03-19 大连理工大学 A kind of measurement method of end effector of robot location error
JP2020116717A (en) * 2019-01-28 2020-08-06 株式会社Fuji Robot control system
JP7281910B2 (en) 2019-01-28 2023-05-26 株式会社Fuji robot control system
CN114303002A (en) * 2019-04-05 2022-04-08 Fmc技术股份有限公司 Tool change control for submersible remote control vehicle
US11912387B2 (en) 2019-04-05 2024-02-27 Fmc Technologies, Inc. Submersible remote operated vehicle tool change control
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
JP7482364B2 (en) 2019-09-11 2024-05-14 Dmg森精機株式会社 Robot-mounted mobile device and system
CN111037559B (en) * 2019-12-25 2023-03-10 深圳科瑞技术股份有限公司 Quick calibration method and device for position of material tray of machine and storage medium
CN111037559A (en) * 2019-12-25 2020-04-21 深圳科瑞技术股份有限公司 Quick calibration method and device for position of material tray of machine and storage medium
WO2021217976A1 (en) * 2020-04-28 2021-11-04 平安科技(深圳)有限公司 Method and apparatus for controlling mechanical arm on basis of monocular visual positioning
JP2022141200A (en) * 2021-03-15 2022-09-29 Dmg森精機株式会社 Sticking position measurement device and machine tool including the same
JP7015949B1 (en) 2021-03-15 2022-02-14 Dmg森精機株式会社 Sticking position measuring device and machine tool equipped with it
WO2022196052A1 (en) * 2021-03-15 2022-09-22 Dmg森精機株式会社 Adhesion position measurement device and machine tool provided therewith
WO2023044614A1 (en) * 2021-09-22 2023-03-30 Abb Schweiz Ag Method and electronic device for calibrating robot
CN114147695A (en) * 2021-12-15 2022-03-08 中联恒通机械有限公司 Manipulator machining part placing device and grabbing method
CN114310881A (en) * 2021-12-23 2022-04-12 中国科学院自动化研究所 Calibration method and system for mechanical arm quick-change device and electronic equipment
JP2023112793A (en) * 2022-02-02 2023-08-15 Dmg森精機株式会社 Transfer robot, transfer method, and control program
CN114905511B (en) * 2022-05-12 2023-08-11 南京航空航天大学 Industrial robot assembly error detection and precision compensation system calibration method
CN114905511A (en) * 2022-05-12 2022-08-16 南京航空航天大学 Industrial robot assembly error detection and precision compensation system calibration method
WO2023243001A1 (en) * 2022-06-15 2023-12-21 ファナック株式会社 Robot programming device and robot programming system
KR102520214B1 (en) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 A method for driving a collaborative robot capable of preemptive response and a system therefor

Similar Documents

Publication Publication Date Title
JP2017071033A (en) Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP4982493B2 (en) Optomechanical position measuring instrument
JP3946716B2 (en) Method and apparatus for recalibrating a three-dimensional visual sensor in a robot system
JP2020011339A (en) Robot system control method and robot system
CA2710669C (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP6812095B2 (en) Control methods, programs, recording media, robotic devices, and manufacturing methods for articles
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US11468590B2 (en) Wireless substrate-like teaching sensor for semiconductor processing
JP2011209064A (en) Article recognition apparatus and article processing apparatus using the same
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US20140160115A1 (en) System And Method For Visually Displaying Information On Real Objects
JP2011206878A (en) Assembly inspection apparatus and assembly processing apparatus using the same
CN111716346B (en) Method and device for correcting tool of mechanical arm
US20180354137A1 (en) Robot System Calibration
CN103192386A (en) Image-vision-based automatic calibration method of clean robot
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
JP6031368B2 (en) Correlation positioning method with workpiece
JP2006308500A (en) Three dimensional workpiece measuring method
CN112958960A (en) Robot hand-eye calibration device based on optical target
CN112529856A (en) Method for determining the position of an operating object, robot and automation system
CN115311371A (en) Calibration method for automatic measurement and marking system of double robots
US11371828B2 (en) Coordinate measuring machine and method for measuring coordinates of a workpiece
CN110977950A (en) Robot grabbing and positioning method
CN116803628A (en) Object detection method and detection device