JP2024068115A - Robot-mounted moving device - Google Patents

Robot-mounted moving device Download PDF

Info

Publication number
JP2024068115A
JP2024068115A JP2023151410A JP2023151410A JP2024068115A JP 2024068115 A JP2024068115 A JP 2024068115A JP 2023151410 A JP2023151410 A JP 2023151410A JP 2023151410 A JP2023151410 A JP 2023151410A JP 2024068115 A JP2024068115 A JP 2024068115A
Authority
JP
Japan
Prior art keywords
robot
camera
identification
posture
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023151410A
Other languages
Japanese (ja)
Inventor
翔太 平岡
彰斗 佐藤
秀樹 長末
秀明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Original Assignee
DMG Mori Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DMG Mori Co Ltd filed Critical DMG Mori Co Ltd
Publication of JP2024068115A publication Critical patent/JP2024068115A/en
Pending legal-status Critical Current

Links

Images

Abstract

Figure 2024068115000001

【課題】識別図形とカメラを用いたロボットの姿勢補正を高精度に実現することができるロボット搭載移動装置を提供する。
【解決手段】ロボット搭載移動装置25は、カメラ32及び対象物に対する作用部30を有するロボット26と、ロボット26を搭載し、作業位置に移動可能な移動装置35と、移動装置35に設けられ、識別面に対して直交する直交方向から見た場合に少なくとも平行な2つの境界が識別面内にある識別図形D2と、ロボット26の動きを制御する制御装置とを備える。制御装置は、直交方向と異なる方向からカメラ32で撮像された画像内の識別図形D2の2つの境界を含めて解析し、(i)カメラ32の位置情報、または(ii)作用部30の位置情報を算出し、算出された位置情報に基づいて対象物に対して作用する作用部30の動きを制御する。
【選択図】図7

Figure 2024068115000001

A robot-mounted moving device is provided that can achieve highly accurate posture correction of a robot using an identification graphic and a camera.
[Solution] A robot-mounted moving device 25 includes a robot 26 having a camera 32 and an action unit 30 for an object, a moving device 35 on which the robot 26 is mounted and which can move to a work position, an identification figure D2 provided on the moving device 35 and having at least two parallel boundaries within the identification surface when viewed from a direction perpendicular to the identification surface, and a control device for controlling the movement of the robot 26. The control device analyzes the identification figure D2 in an image captured by the camera 32 from a direction different from the orthogonal direction, including the two boundaries, and calculates (i) position information of the camera 32 or (ii) position information of the action unit 30, and controls the movement of the action unit 30 acting on the object based on the calculated position information.
[Selected figure] Figure 7

Description

本発明は、ロボット、このロボットが搭載される移動装置、及び少なくともロボットを制御する制御装置から構成されるロボット搭載移動装置に関する。 The present invention relates to a robot-mounted mobile device that is composed of a robot, a mobile device on which the robot is mounted, and a control device that controls at least the robot.

従来、上述したロボット搭載移動装置の一例として、特開2017-132002号公報(下記特許文献1)に開示されたロボットアーム付自動搬送車が知られている。この自動搬送車では、ロボットを搭載した無人搬送車が、工作機械に対して設定された作業位置に移動し、当該作業位置において、ロボットにより工作機械に対してワークの着脱等の作業が実行される。 As an example of the above-mentioned robot-mounted moving device, a conventional automated guided vehicle with a robot arm is disclosed in JP 2017-132002 A (Patent Document 1 below). In this automated guided vehicle, an automated guided vehicle equipped with a robot moves to a work position set for a machine tool, and at this work position, the robot performs work such as attaching and detaching a workpiece to the machine tool.

このような自動搬送車では、無人搬送車によって移動する一台のロボットにより、複数の工作機械に対してワークの着脱等の作業を実施することができるので、工作機械に対してロボットを固定した状態で配設する場合に比べて、工作機械のレイアウトの自由度が増すため、工作機械のレイアウトをより生産効率を高めることが可能なレイアウトに設定することができる。また、ロボットを固定状態で配設した旧来のシステムに比べて、一台のロボットにより、より多くの工作機械に対して作業を行うことができるので、設備費用の低廉化を図ることができる。 In such an automated guided vehicle, a single robot that moves on the automated guided vehicle can perform tasks such as attaching and detaching workpieces to multiple machine tools, which allows for greater freedom in the layout of the machine tools compared to when the robot is fixedly installed relative to the machine tools, making it possible to set the layout of the machine tools in a way that can further increase production efficiency. Also, compared to older systems in which the robot was installed in a fixed state, a single robot can perform work on a larger number of machine tools, which allows for lower equipment costs.

その一方、無人搬送車は車輪を用いて自走する構造であるが故に、前記作業位置に停止するその位置決め精度は必ずしも高いものとは言えない。このため、ロボットが工作機械に対して正確な作業を行うためには、無人搬送車を前記作業位置へ位置決めした際のロボットの姿勢と、制御上の基準となる所謂ティーチング時に設定されたロボットの基準姿勢とを比較して、その誤差量を検出し、当該誤差量に応じてロボットの作業姿勢を補正する必要がある。 On the other hand, because an automated guided vehicle is structured to move on its own using wheels, the positioning accuracy with which it stops at the work position is not necessarily high. For this reason, in order for a robot to perform accurate work on a machine tool, it is necessary to compare the posture of the robot when the automated guided vehicle is positioned at the work position with the reference posture of the robot set during so-called teaching, which serves as a control standard, to detect the amount of error, and to correct the working posture of the robot according to the amount of error.

そこで、このようなロボットの姿勢を補正することが可能な生産システムとして、従来、特開2016-221622号公報(下記特許文献2)に開示されるような生産システムが知られている。この生産システムでは、2つの較正用マーカからなる視覚ターゲットが工作機械の外表面に配設されるとともに、ロボットの可動部にカメラが設けられ、このカメラによって前記視覚ターゲットを撮像することで得られた画像と、カメラの位置及び姿勢とを基に、ロボットと工作機械との相対的な位置関係が測定され、測定された位置関係に基づいて、ロボットの作業姿勢が補正される。 A production system capable of correcting the posture of such a robot is disclosed in JP 2016-221622 A (Patent Document 2 below). In this production system, a visual target consisting of two calibration markers is disposed on the outer surface of the machine tool, and a camera is provided on the movable part of the robot. The relative positional relationship between the robot and the machine tool is measured based on an image obtained by capturing an image of the visual target with this camera and the position and posture of the camera, and the working posture of the robot is corrected based on the measured positional relationship.

特開2017-132002号公報JP 2017-132002 A 特開2016-221622号公報JP 2016-221622 A

ところで、上述のロボットを用いた生産システムでは、その不要な動作停止を避けて高い作業効率を達成するために、ロボットの高精度な姿勢制御が求められている。このため、前記視覚ターゲット(識別図形)をカメラにより撮像し、得られた画像に基づいてロボットの姿勢を補正する際にも、その高精度な補正技術が求められている。 In a production system using the above-mentioned robot, highly accurate posture control of the robot is required to avoid unnecessary operational stops and achieve high work efficiency. For this reason, a highly accurate correction technology is required when capturing an image of the visual target (identification figure) with a camera and correcting the robot's posture based on the image obtained.

本発明は、以上の実情に鑑み成されたものであって、識別図形とカメラを用いたロボットの姿勢補正を高精度に実現することができるロボット搭載移動装置の提供を、その目的とする。 The present invention was developed in consideration of the above-mentioned circumstances, and aims to provide a robot-mounted mobile device that can achieve highly accurate posture correction of the robot using an identification figure and a camera.

上記課題を解決するための本発明は、画像を撮像するカメラ、及び所定の対象物に対して作用する作用部を有し、該対象物に対して作業を行うロボットと、
前記ロボットを搭載し、前記対象物に対して前記作用部が作用可能な位置に移動可能な移動装置と、
前記移動装置に設けられ、識別面に対して直交する直交方向から見た場合に少なくとも平行な2つの境界が識別面内にある識別図形と、
前記ロボットの動きを制御する制御装置と、を備え、
前記制御装置は、
前記直交方向と異なる方向から前記カメラで撮像された画像内の前記識別図形の前記2つの境界を含めて解析し、(i)前記カメラの位置情報、または(ii)作用部の位置情報を算出し、算出された前記位置情報に基づいて前記対象物に対して作用する作用部の動きを制御する、ロボット搭載移動装置に係る。
In order to solve the above problems, the present invention provides a robot that has a camera for capturing an image and an action unit that acts on a predetermined object and performs a task on the object,
a moving device that carries the robot and that can move to a position where the action unit can act on the object;
an identification figure provided on the moving device, the identification figure having at least two parallel boundaries within the identification surface when viewed from a direction perpendicular to the identification surface;
A control device for controlling the movement of the robot,
The control device includes:
The present invention relates to a robot-mounted mobile device that analyzes the identification figure in an image captured by the camera from a direction different from the orthogonal direction, including the two boundaries, calculates (i) position information of the camera, or (ii) position information of an action part, and controls the movement of the action part acting on the target object based on the calculated position information.

この態様(第1の態様)のロボット搭載移動装置によれば、前記移動装置に設けられる識別図形は、識別面に対して直交する直交方向から見た場合に、少なくとも平行な2つの境界が当該識別面内に設けられており、前記カメラは、当該識別図形を前記直交方向とは異なる方向から撮像するように構成される。そして、前記制御装置は、このようにして撮像された画像を、当該画像内の前記識別図形の2つの境界を含めて解析して、前記カメラの位置情報、または前記作用部の位置情報を算出し、算出された位置情報に基づいて前記対象物に対して作用する作用部の動きを制御する。 According to this aspect (first aspect) of the robot-mounted mobile device, the identification figure provided on the mobile device has at least two parallel boundaries provided within the identification surface when viewed from a direction perpendicular to the identification surface, and the camera is configured to capture the identification figure from a direction different from the perpendicular direction. The control device then analyzes the image captured in this manner, including the two boundaries of the identification figure in the image, calculates position information of the camera or position information of the action unit, and controls the movement of the action unit acting on the target based on the calculated position information.

前記カメラにより、前記識別図形を、その識別面に対して直交する直交方向とは異なる方向、即ち、直交方向と交差する斜め方向から撮像することで、前記識別図形内に設けられる平行な2つの境界に対応する画像が歪み、このような歪み状態を解析することによって、カメラと識別図形との正確な位置関係を取得することができる。そして、このような位置情報に基づいて、前記カメラの正確な位置情報、または前記作用部の正確な位置情報を算出することができ、この結果、対象物に対する前記作用部の動きを正確に制御することが可能となる。 The camera captures an image of the identification figure from a direction different from the orthogonal direction perpendicular to the identification surface, i.e., from an oblique direction intersecting the orthogonal direction, causing the image corresponding to the two parallel boundaries within the identification figure to be distorted, and by analyzing this distorted state, the accurate positional relationship between the camera and the identification figure can be obtained. Then, based on this positional information, accurate positional information of the camera or accurate positional information of the action part can be calculated, making it possible to accurately control the movement of the action part relative to the target object.

尚、以上の観点から、前記識別図形は、複数の正方形をした画素が二次元に配列されたマトリクス構造を備えた図形であるのが好ましい。 From the above perspective, it is preferable that the identification figure is a figure having a matrix structure in which multiple square pixels are arranged two-dimensionally.

前記第1の態様において、前記制御装置は、前記カメラにより前記識別図形を撮像する際に、前記カメラの撮像光軸が、前記識別面に直交する直交方向に対して、前記識別面側に15°以上60°以下の角度で傾斜するように、前記ロボットの姿勢を制御する態様(第2の態様)を採ることができる。 In the first aspect, the control device can adopt an aspect (second aspect) in which, when the identification figure is imaged by the camera, the posture of the robot is controlled so that the imaging optical axis of the camera is inclined at an angle of 15° to 60° toward the identification surface with respect to a direction perpendicular to the identification surface.

また、前記第1の態様において、前記制御装置は、前記カメラにより前記識別図形を撮像する際に、前記カメラの撮像光軸が、前記識別面に直交する直交方向に対して、前記識別面側に30°以上60°以下の角度で傾斜するように、前記ロボットの姿勢を制御する態様(第3の態様)を採ることができる。 In addition, in the first aspect, the control device can adopt an aspect (third aspect) in which, when the identification figure is imaged by the camera, the posture of the robot is controlled so that the imaging optical axis of the camera is inclined at an angle of 30° to 60° toward the identification surface with respect to an orthogonal direction perpendicular to the identification surface.

また、前記第1から第3のいずれかの態様において、前記制御装置は、前記カメラにより前記識別図形を撮像する際に、前記カメラの撮像光軸が、前記識別面に直交する直交方向を中心とした軸回り方向に、前記平行な境界に対して、15°以上75°以下の角度で交差するように、前記ロボットの姿勢を制御する態様(第4の態様)を採ることができる。 In addition, in any of the first to third aspects, the control device can adopt a fourth aspect in which, when the camera captures an image of the identification figure, the control device controls the posture of the robot so that the imaging optical axis of the camera intersects with the parallel boundary at an angle of 15° to 75° in a direction around an axis centered on a perpendicular direction perpendicular to the identification surface.

更に、前記第1から第3のいずれかの態様において、前記制御装置は、前記カメラにより前記識別図形を撮像する際に、前記カメラの撮像光軸が、前記識別面に直交する直交方向を中心とした軸回り方向に、前記平行な境界に対して、30°以上60°以下の角度で交差するように、前記ロボットの姿勢を制御する態様(第5の態様)を採ることができる。 Furthermore, in any of the first to third aspects, the control device can adopt an aspect (fifth aspect) in which, when the identification figure is imaged by the camera, the image-capturing optical axis of the camera intersects with the parallel boundary at an angle of 30° or more and 60° or less in a direction around an axis centered on a perpendicular direction perpendicular to the identification surface.

また、本発明に係る参考的なロボット搭載移動装置として、画像を撮像するカメラ、及び所定の対象物に対して作用する作用部を有し、該対象物に対して作業を行うロボットと、
前記ロボットを搭載し、前記対象物に対して設定された作業位置に移動可能に設けられた移動装置と、
前記移動装置に設けられた移動装置側識別図形(第2識別図形)と、
予め設定された動作指令を含む動作プログラムに従って、少なくとも、前記ロボットに、前記対象物に対応して設けられた対象物側識別図形(第1識別図形)を前記カメラによって撮像する第1撮像姿勢、前記対象物に対して前記作用部を作用させるための1以上の作業姿勢、前記移動装置に設けられた姿勢補正用の第2識別図形を前記カメラによって撮像する第2撮像姿勢を取らせるように構成された制御装置とを備え、
前記第1撮像姿勢、第2撮像姿勢及び作業姿勢は、前記制御装置による制御の下で、前記ロボットをティーチング操作することによって予め設定され、
前記制御装置は、
前記移動装置が前記作業位置に位置した状態での前記ティーチング操作時に、前記ロボットが第1撮像姿勢に移行した状態で、前記カメラを動作させて前記第1識別図形の画像を第1基準画像として撮像するとともに、得られた第1基準画像に基づいて、前記ティーチング操作時の第1撮像姿勢における前記第1識別図形とカメラとの位置関係を取得して記憶する第1位置関係取得処理と、
前記ティーチング操作時に、前記ロボットが第2撮像姿勢に移行した状態で、前記カメラを動作させて前記第2識別図形の画像を第2基準画像として撮像するとともに、得られた第2基準画像に基づいて、前記ティーチング操作時の第2撮像姿勢における前記第2識別図形とカメラとの位置関係を取得して記憶する第2位置関係取得処理と、を実行し、
更に、前記制御装置は、
前記動作プログラムに従って、前記ロボットを実動作させる際に、前記移動装置が前記作業位置に位置した状態で、前記ロボットを、前記第1撮像姿勢に移行させた後に、前記カメラにより撮像される前記第1識別図形の実動作時の画像に基づいて、実動作時の前記第1撮像姿勢における前記第1識別図形とカメラとの位置関係を取得し、得られた実動作時の第1識別図形とカメラとの位置関係と、前記第1位置関係取得処理によって得られたティーチング操作時の第1識別図形とカメラとの位置関係とに基づいて、前記ロボットの現在の姿勢とティーチング操作時の姿勢との間における前記カメラの誤差量を算出する実動作誤差算出処理と、
前記実動作誤差算出処理により算出された誤差量に基づいて、実動作時の前記作業姿勢を補正する第1補正処理と、
前記動作プログラムに従って、前記ロボットを実動作させる際に、前記ロボットを、前記第2撮像姿勢に移行させた後に、前記カメラにより撮像される前記第2識別図形の実動作時の画像に基づいて、実動作時の前記第2撮像姿勢における前記第2識別図形とカメラとの位置関係を取得し、得られた実動作時の第2識別図形とカメラとの位置関係と、前記第2位置関係取得処理によって得られたティーチング操作時の第2識別図形とカメラとの位置関係とに基づいて、前記ロボットに設けられたカメラの前記ロボットに対する現在の位置とティーチング操作時における位置との間の位置変化量を算出する位置変化量算出処理と、
前記位置変化量算出処理により算出された位置変化量に基づいて、実動作時の前記作業姿勢を補正する第2補正処理と、を実行するように構成されたロボット搭載移動装置が例示される。
In addition, as a reference robot-mounted moving device according to the present invention, there is provided a robot having a camera for capturing images and an action part for acting on a predetermined object, and performing a task on the object;
a moving device that is mounted with the robot and is movable to a work position set with respect to the object;
A mobile device side identification figure (second identification figure) provided on the mobile device;
a control device configured to cause the robot to take at least a first image capturing posture in which an object side identification figure (first identification figure) provided corresponding to the object is captured by the camera, one or more working postures for causing the action unit to act on the object, and a second image capturing posture in which an image of a second identification figure for posture correction provided on the moving device is captured by the camera, according to an operation program including preset operation commands;
the first image capturing posture, the second image capturing posture, and the working posture are set in advance by teaching the robot under the control of the control device;
The control device includes:
a first positional relationship acquisition process for, during the teaching operation with the moving device located at the work position, operating the camera to capture an image of the first identification figure as a first reference image with the robot transitioning to a first imaging posture, and acquiring and storing a positional relationship between the first identification figure and the camera in the first imaging posture during the teaching operation based on the acquired first reference image;
a second positional relationship acquisition process for acquiring and storing a positional relationship between the second identification figure and the camera in the second imaging posture during the teaching operation, based on the second reference image acquired, while the robot is in a second imaging posture during the teaching operation and the camera is operated to capture an image of the second identification figure as a second reference image,
Furthermore, the control device
an actual operation error calculation process for, when the robot is actually operated in accordance with the operation program, with the moving device located at the work position, moving the robot to the first imaging posture, and then acquiring a positional relationship between the first identification figure and the camera in the first imaging posture during actual operation based on an image of the first identification figure during actual operation captured by the camera, and calculating an amount of error of the camera between the current posture of the robot and the posture during teaching operation based on the acquired positional relationship between the first identification figure and the camera during actual operation and the positional relationship between the first identification figure and the camera during teaching operation acquired by the first positional relationship acquisition process;
a first correction process for correcting the working posture during actual movement based on the amount of error calculated by the actual movement error calculation process;
a position change amount calculation process for calculating an amount of position change between a current position of the camera provided on the robot relative to the robot and its position at the time of the teaching operation based on an image of the second identification figure during the actual operation of the robot captured by the camera after the robot is shifted to the second imaging attitude when the robot is actually operated in accordance with the operation program, and a position change amount calculation process for calculating an amount of position change between a current position of the camera provided on the robot relative to the robot and its position at the time of the teaching operation based on the obtained positional relationship between the second identification figure and the camera at the time of the actual operation and the positional relationship between the second identification figure and the camera at the time of the teaching operation obtained by the second positional relationship acquisition process;
and a second correction process for correcting the working posture during actual movement based on the position change amount calculated by the position change amount calculation process.

上記のように、この態様(第6の態様)のロボット搭載移動装置によれば、前記制御装置の下で、前記動作プログラムに従って、前記ロボットが実動作する際に、前記移動装置が前記作業位置に位置した状態で、前記ロボットに作業姿勢を取らせる際に、前記実動作誤差算出処理が実行され、算出された前記ロボットの実動作時の姿勢とティーチング操作時の姿勢との間における前記カメラの誤差量に基づいて、前記第1補正処理によって前記作業姿勢が補正される。 As described above, according to the robot-mounted moving device of this aspect (sixth aspect), when the robot actually operates under the control of the control device in accordance with the operation program, the actual operation error calculation process is executed when the moving device is positioned at the work position and the robot is made to assume a working posture, and the working posture is corrected by the first correction process based on the calculated amount of error of the camera between the posture during the actual operation of the robot and the posture during the teaching operation.

また、前記位置変化量算出処理が実行される場合には、この位置変化量算出処理によって算出された、前記ロボットに設けられたカメラの前記ロボットに対する現在の位置とティーチング操作時における位置との間の位置変化量に基づいて、実動作時の前記作業姿勢が前記第2補正処理によって補正される。 In addition, when the position change amount calculation process is executed, the working posture during actual operation is corrected by the second correction process based on the amount of position change between the current position of the camera provided on the robot relative to the robot and the position at the time of the teaching operation, which is calculated by the position change amount calculation process.

ロボットにカメラを設ける場合には、ロボットの経時的な稼働によって、ロボットとカメラとの間に位置ずれ、即ち、位置変化(取付変動)が生じることがあり、また、カメラに外的な力が作用することによっても、ロボットとカメラとの間に位置変化が生じることがある。そして、このようにロボットとカメラとの間に位置変化が生じると、上記の第1補正処理だけでは前記作業姿勢を正確には補正することができない。 When a camera is provided on a robot, positional deviation, i.e., positional change (mounting fluctuation), may occur between the robot and the camera as the robot operates over time. In addition, a positional change may occur between the robot and the camera due to an external force acting on the camera. When such a positional change occurs between the robot and the camera, the working posture cannot be accurately corrected by the first correction process alone.

この第6の態様のロボット搭載移動装置によれば、ティーチング操作時(初期状態)と実動作時との間におけるロボットとカメラとの間の位置変化量が前記位置変化量算出処理によって算出され、算出された位置変化量に基づいて、前記第2補正処理により前記作業姿勢が補正される。したがって、ロボットとカメラとの間に位置変化が生じたとしても、実動作時のロボットの作業姿勢を正確に補正することができる。 According to the sixth aspect of the robot-mounted mobile device, the amount of position change between the robot and the camera between the time of the teaching operation (initial state) and the time of actual operation is calculated by the position change amount calculation process, and the working posture is corrected by the second correction process based on the calculated amount of position change. Therefore, even if a position change occurs between the robot and the camera, the working posture of the robot during actual operation can be accurately corrected.

また、第6の態様における前記位置変化量算出処理は、前記ロボットを前記第2撮像姿勢に移行させた後に、前記位置変化量を算出するまでの処理を実行し、次いで、算出された位置変化量に基づいて定められる補正量に従って補正した前記第2撮像姿勢に前記ロボットを移行させた後に、前記位置変化量を算出するまでの処理を実行するように構成され、得られた現在の第2識別図形とカメラとの位置関係と、前記ティーチング操作時の第2識別図形とカメラとの位置関係との差が、所定の基準値以下であるとき、その前の処理によって得られた位置変化量を、求める位置変化量として算出するように構成された態様(第7の態様)を採ることができる。 The position change amount calculation process in the sixth aspect is configured to execute a process up to calculating the position change amount after the robot is moved to the second imaging posture, and then execute a process up to calculating the position change amount after the robot is moved to the second imaging posture corrected according to a correction amount determined based on the calculated position change amount, and when the difference between the obtained current positional relationship between the second identification figure and the camera and the positional relationship between the second identification figure and the camera during the teaching operation is equal to or less than a predetermined reference value, the position change amount obtained by the previous process is calculated as the desired position change amount (seventh aspect).

また、第6の態様における前記位置変化量算出処理は、前記ロボットを前記第2撮像姿勢に移行させた後に、前記位置変化量を算出するまでを1サイクルとして複数サイクル繰り返して実行するように構成されるとともに、2サイクル目以降では、前のサイクルで算出された位置変化量に基づいて定められる補正量に従って前記第2撮像姿勢を補正し、現在の第2識別図形とカメラとの位置関係と、前記ティーチング操作時の第2識別図形とカメラとの位置関係との差が、所定の基準値以下となったとき、前記サイクルの繰り返しを終了し、終了直前に算出された位置変化量を最終的な位置変化量として算出するように構成された態様(第8の態様)を採ることができる。この態様によれば、ティーチング操作時(初期状態)と実動作時との間におけるロボットとカメラとの間の前記位置変化量を正確に算出することができる。 In addition, the position change amount calculation process in the sixth aspect can be configured to be executed in multiple cycles, with one cycle being the calculation of the position change amount after the robot is moved to the second imaging attitude, and in the second and subsequent cycles, the second imaging attitude is corrected according to a correction amount determined based on the position change amount calculated in the previous cycle, and when the difference between the current positional relationship between the second identification figure and the camera and the positional relationship between the second identification figure and the camera during the teaching operation becomes equal to or less than a predetermined reference value, the repetition of the cycle is terminated, and the position change amount calculated immediately before the termination is calculated as the final position change amount (eighth aspect). According to this aspect, the position change amount between the robot and the camera during the teaching operation (initial state) and the actual operation can be accurately calculated.

また、前記第6から第8のいずれかの態様において、前記制御装置は、前記位置変化量算出処理を実行した後、前記実動作誤差算出処理を実行するとともに、前記ロボットに前記作業姿勢を取らせ、その際、前記第1補正処理及び第2補正処理を実行するように構成された態様を採ることができる。 In addition, in any of the sixth to eighth aspects, the control device may be configured to execute the actual motion error calculation process after executing the position change amount calculation process, and to cause the robot to assume the working posture, and at that time, to execute the first correction process and the second correction process.

以上のように、本発明に係るロボット搭載移動装置によれば、カメラにより、識別図形を、その識別面に対して直交する直交方向とは異なる方向、即ち、直交方向と交差する斜め方向から撮像するようにしているので、カメラと識別図形との正確な位置関係を取得することができ、このような位置情報に基づいて、カメラの正確な位置情報、または作用部の正確な位置情報を算出することができる。この結果、対象物に対する前記作用部の動きを正確に制御することが可能となる。 As described above, with the robot-mounted mobile device of the present invention, the camera captures an image of the identification figure from a direction different from the orthogonal direction perpendicular to the identification surface, i.e., an oblique direction intersecting the orthogonal direction, so that an accurate positional relationship between the camera and the identification figure can be obtained, and accurate positional information of the camera or the action part can be calculated based on such positional information. As a result, it becomes possible to accurately control the movement of the action part relative to the target object.

本発明の一実施形態に係るシステムの概略構成を示した平面図である。1 is a plan view showing a schematic configuration of a system according to an embodiment of the present invention. 本実施形態に係るシステムの構成を示したブロック図である。FIG. 1 is a block diagram showing a configuration of a system according to an embodiment of the present invention. 本実施形態に係るロボット搭載移動装置を示した斜視図である。1 is a perspective view showing a robot-mounted moving device according to an embodiment of the present invention; 本実施形態に係るロボットの第1撮像姿勢について説明するための説明図である。1 is an explanatory diagram for explaining a first image capturing posture of a robot according to the present embodiment. FIG. 本実施形態に係る第1及び第2識別図形を示した説明図である。4A and 4B are explanatory diagrams showing first and second identification figures according to the embodiment; 本実施形態に係るロボット搭載移動装置のロボットのアーム部を一部切断して示した平面図である。2 is a plan view showing a part of a cutaway view of an arm portion of a robot of the robot-mounted moving device according to the embodiment. FIG. 本実施形態に係るロボットの第2撮像姿勢について説明するための説明図である。11 is an explanatory diagram for explaining a second image capturing posture of the robot according to the embodiment. FIG. 本実施形態に係るロボットの第2撮像姿勢について説明するための説明図である。11 is an explanatory diagram for explaining a second image capturing posture of the robot according to the embodiment. FIG. 本実施形態に係るロボットの第2撮像姿勢について説明するための説明図である。11 is an explanatory diagram for explaining a second image capturing posture of the robot according to the embodiment. FIG. 本実施形態に係るロボットの第2撮像姿勢についての効果を説明するための説明図である。11 is an explanatory diagram for explaining the effect of the second image capturing posture of the robot according to the embodiment. FIG. 本実施形態における第2補正処理について説明するための説明図である。10A and 10B are explanatory diagrams for explaining a second correction process in the present embodiment. 本実施形態における第2補正処理について説明するための説明図である。10A and 10B are explanatory diagrams for explaining a second correction process in the present embodiment. 本発明の他の実施形態に係るロボット搭載移動装置の構成を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining a configuration of a robot-mounted moving device according to another embodiment of the present invention.

以下、本発明の具体的な実施の形態について、図面を参照しながら説明する。 Specific embodiments of the present invention will be described below with reference to the drawings.

図1及び図2に示すように、本実施形態に係るシステム1は、工作機械10、周辺装置としての材料ストッカ20及び製品ストッカ21及びロボット搭載移動装置25から構成され、ロボット搭載移動装置25は、移動装置としての無人搬送車35、この無人搬送車35に搭載されるロボット26、ロボット26に装着されるカメラ32、並びにロボット26及び無人搬送車35を制御する制御装置40などから構成される。 As shown in Figures 1 and 2, the system 1 according to this embodiment is composed of a machine tool 10, a material stocker 20 and a product stocker 21 as peripheral devices, and a robot-mounted moving device 25, which is composed of an automated guided vehicle 35 as a moving device, a robot 26 mounted on the automated guided vehicle 35, a camera 32 attached to the robot 26, and a control device 40 that controls the robot 26 and the automated guided vehicle 35.

図4に示すように、前記工作機械10は、ワークW(W’)を把持するチャック12が装着される主軸11を備え、この主軸11が鉛直方向に沿って設けられた立形のNC(数値制御)旋盤であり、ワークW(W’)に対して旋削加工を行うことができるようになっている。また、主軸11の近傍には接触子14及びこれを支持する支持バー15を備えたツールプリセッタ13が設けられており、この支持バー15は、当該主軸11の軸線に沿って、加工領域に対して進退可能に設けられており、その加工領域側の端面にセラミック製の表示板16が設けられ、この表示板16に、図5に示した第1識別図形(対象物側識別図形)D1が描画されている。尚、本例では、表示板16は水平面上に位置するように設けられている。 As shown in FIG. 4, the machine tool 10 is a vertical NC (numerically controlled) lathe equipped with a spindle 11 on which a chuck 12 for gripping a workpiece W (W') is attached, and the spindle 11 is arranged along the vertical direction, so that the workpiece W (W') can be turned. In addition, a tool presetter 13 equipped with a contact 14 and a support bar 15 for supporting the contact 14 is provided near the spindle 11, and the support bar 15 is arranged to be able to advance and retreat from the machining area along the axis of the spindle 11. A ceramic display plate 16 is provided on the end surface on the machining area side, and the first identification figure (object side identification figure) D1 shown in FIG. 5 is drawn on the display plate 16. In this example, the display plate 16 is arranged to be located on a horizontal plane.

このように、本例の工作機械10は、当該工作機械10内に第1識別図形D1を配置する構成であり、特に、第1識別画像D1は加工領域内に配置されている態様が好ましい。 In this way, the machine tool 10 of this example is configured to place the first identification figure D1 within the machine tool 10, and in particular, it is preferable that the first identification image D1 is placed within the machining area.

尚、図4では、支持バー15及び接触子14が加工領域内に進出した状態を図示しているが、支持バー15及び接触子14が後退して、接触子14及び表示板16が収納領域内に収納された状態で、シャッタ17が閉じることにより、接触子14及び表示板16は加工領域から隔離される。 Note that FIG. 4 shows the support bar 15 and contact 14 advanced into the processing area, but when the support bar 15 and contact 14 retract and the contact 14 and display plate 16 are stored in the storage area, the shutter 17 closes, isolating the contact 14 and display plate 16 from the processing area.

また、本例の第1識別図形D1(後述する第2識別図形D2も同様)は複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであって、全体として矩形を成しており、各画素が白または黒で表示される。図5では、黒色の画素に斜線を付している(図1、図4及び図6も同様)。このような識別図形には、ARマーカやAprilTagと称されるものがある。また、識別図形が小さい場合には、当該識別図形上にレンズを設けるなどして、後述するカメラ32により拡大された画像が撮像されるようにしても良い。尚、この第1識別図形D1には、当該識別図形D1と直交する方向から見た場合に、少なくとも平行な2つの境界が識別面内に存在している(第2識別図形D2も同様)。 The first identification figure D1 in this example (as well as the second identification figure D2 described later) has a matrix structure in which multiple square pixels are arranged two-dimensionally, forming a rectangle as a whole, with each pixel displayed in white or black. In FIG. 5, the black pixels are shaded (as well as in FIGS. 1, 4, and 6). Such identification figures include those called AR markers and AprilTags. In addition, if the identification figure is small, a lens may be provided on the identification figure so that an enlarged image is captured by a camera 32 described later. Note that when viewed from a direction perpendicular to the identification figure D1, at least two parallel boundaries exist within the identification surface of this first identification figure D1 (as well as the second identification figure D2).

前記材料ストッカ20は、図1において工作機械10の左隣に配設され、当該工作機械10で加工される複数の材料(加工前ワークW)をストックする装置である。また、前記製品ストッカ21は、図1において工作機械10の右隣に配設され、当該工作機械10で加工された複数の製品、又は半製品(加工済ワークW’)をストックする装置である。 The material stocker 20 is disposed to the left of the machine tool 10 in FIG. 1 and is a device that stocks multiple materials (unmachined workpieces W) to be machined by the machine tool 10. The product stocker 21 is disposed to the right of the machine tool 10 in FIG. 1 and is a device that stocks multiple products or semi-finished products (machined workpieces W') machined by the machine tool 10.

図1に示すように、前記無人搬送車35には、その上面である載置面36に前記ロボット26が搭載され、また、オペレータが携帯可能な操作盤37が付設されている。尚、この操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット26を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。 As shown in FIG. 1, the automated guided vehicle 35 has the robot 26 mounted on its upper surface, the mounting surface 36, and is also provided with a portable operation panel 37 for an operator. The operation panel 37 is equipped with an input/output section for inputting and outputting data, an operation section for manually operating the automated guided vehicle 35 and the robot 26, and a display capable of displaying information on a screen.

また、無人搬送車35は、工場内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、前記制御装置40による制御の下で、前記工作機械10、材料ストッカ20及び製品ストッカ21が配設される領域を含む工場内を無軌道で自律走行するように構成され、本例では、前記工作機械10、材料ストッカ20及び製品ストッカ21のそれぞれに対して設定された各作業位置に経由する。 The automated guided vehicle 35 is also equipped with a sensor (e.g., a distance measurement sensor using laser light) that can recognize its own position within the factory, and is configured to travel autonomously without a track within the factory, including the areas in which the machine tool 10, material stocker 20, and product stocker 21 are arranged, under the control of the control device 40, and in this example, passes through each of the work positions set for each of the machine tool 10, material stocker 20, and product stocker 21.

図1及び図3に示すように、本実施形態のロボット26は、関節を介して連続するように接続された第1アーム27、第2アーム28及び第3アーム29の3つのアームを備えた多関節型のロボットであり、第3アーム29の先端部にはエンドエフェクタとしてのハンド30が装着され、また、支持バー31を介して1つのカメラ32が装着されている。また、図6及び図7に示すように、無人搬送車35の載置面36上には、前記ロボット26の近傍に、前記第2識別図形(移動装置側識別図形)D2が配設されている(図1及び図3も参照)。 As shown in Figs. 1 and 3, the robot 26 of this embodiment is a multi-joint robot having three arms, a first arm 27, a second arm 28, and a third arm 29, which are connected in series via joints, and a hand 30 is attached to the tip of the third arm 29 as an end effector, and a camera 32 is attached via a support bar 31. As shown in Figs. 6 and 7, the second identification figure (moving device side identification figure) D2 is arranged near the robot 26 on the mounting surface 36 of the automatic guided vehicle 35 (see also Figs. 1 and 3).

尚、前記ロボット26は、上述した態様のものに限定されるものではなく、(i)カメラと、(ii)ワークまたは工具を把持するためのハンド部と、(iii)前記ハンド部を移動動可能に繋いでいるアーム部を備えていればよい。ロボットの態様は公知の通り各種あり、本例のような垂直多関節ロボットや、水平多関節ロボットの他、直交ロボットなどを適用することができる。また、図1、図3、図6及び図7等において、ロボット搭載移動装置25の概略的な構成を図示したものであり、その具体的な形状や寸法は必ずしも一致していない。 The robot 26 is not limited to the above-mentioned configuration, but may be any configuration that includes (i) a camera, (ii) a hand unit for grasping a workpiece or tool, and (iii) an arm unit that movably connects the hand unit. There are various types of robots as is well known, and in addition to vertical articulated robots and horizontal articulated robots as in this example, Cartesian robots and the like can be applied. Also, in Figures 1, 3, 6, and 7, the schematic configuration of the robot-mounted moving device 25 is illustrated, and the specific shape and dimensions do not necessarily match.

図2に示すように、本例の制御装置40は、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、制御装置40は、この入出力インターフェース51を介して、前記工作機械10、材料ストッカ20、製品ストッカ21、ロボット26、カメラ32、無人搬送車35及び操作盤37に接続している。なお、制御装置40は、この形態に限定されるものではない。制御装置40は、少なくとも、ロボット26のハンド30の位置を制御する制御部を有していればよく、他の記憶部等は別の装置が有していてもよい。 2, the control device 40 of this example is composed of an operation program memory unit 41, a movement position memory unit 42, an operation posture memory unit 43, a map information memory unit 44, a reference image memory unit 45, a manual operation control unit 46, an automatic operation control unit 47, a map information generation unit 48, a position recognition unit 49, a correction amount calculation unit 50, and an input/output interface 51. The control device 40 is connected to the machine tool 10, the material stocker 20, the product stocker 21, the robot 26, the camera 32, the unmanned guided vehicle 35, and the operation panel 37 via the input/output interface 51. Note that the control device 40 is not limited to this form. The control device 40 only needs to have at least a control unit that controls the position of the hand 30 of the robot 26, and other storage units, etc. may be included in other devices.

また、制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。本例では、制御装置40は無人搬送車35に付設され、適宜通信手段によって工作機械10、材料ストッカ20及び製品ストッカ21と接続されるとともに、ロボット26、カメラ32、無人搬送車35及び操作盤37とは有線又は無線によって接続されている。但し、このような態様に限られるものではなく、制御装置40は無人搬送車35以外の適宜位置に配設されていても良い。この場合、制御装置40は適宜通信手段によって各部と接続される。 The control device 40 is composed of a computer including a CPU, RAM, ROM, etc., and the functions of the manual operation control unit 46, the automatic operation control unit 47, the map information generating unit 48, the position recognition unit 49, the correction amount calculation unit 50, and the input/output interface 51 are realized by a computer program, and execute the processing described below. The operation program storage unit 41, the moving position storage unit 42, the operation posture storage unit 43, the map information storage unit 44, and the reference image storage unit 45 are composed of appropriate storage media such as RAM. In this example, the control device 40 is attached to the unmanned transport vehicle 35 and is connected to the machine tool 10, the material stocker 20, and the product stocker 21 by appropriate communication means, and is connected to the robot 26, the camera 32, the unmanned transport vehicle 35, and the operation panel 37 by wire or wirelessly. However, this is not limited to such an embodiment, and the control device 40 may be arranged at an appropriate position other than the unmanned transport vehicle 35. In this case, the control device 40 is connected to each part by appropriate communication means.

前記手動運転制御部46は、オペレータにより前記操作盤37から入力される操作信号に従って、前記無人搬送車35、ロボット26及びカメラ32を動作させる機能部である。即ち、オペレータは、この手動運転制御部46による制御の下で、操作盤37を用いた、前記無人搬送車35、ロボット26及びカメラ32の手動操作を実行することができる。 The manual operation control unit 46 is a functional unit that operates the automated guided vehicle 35, robot 26, and camera 32 according to operation signals input by an operator from the operation panel 37. That is, the operator can manually operate the automated guided vehicle 35, robot 26, and camera 32 using the operation panel 37 under the control of the manual operation control unit 46.

前記動作プログラム記憶部41は、生産時に前記無人搬送車35及び前記ロボット26を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に前記無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。 The operation program storage unit 41 is a functional unit that stores an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 26 during production, and a map generation program for operating the automatic guided vehicle 35 when generating map information within the factory, which will be described later. The automatic driving program and the map generation program are input, for example, from an input/output unit provided on the operation panel 37, and stored in the operation program storage unit 41.

尚、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット26が順次動作する当該動作に関する指令コード、及び前記カメラ32の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。 The automatic driving program includes command codes related to the target position to which the automated guided vehicle 35 moves, the moving speed, and the direction of the automated guided vehicle 35, as well as command codes related to the sequential operations of the robot 26 and command codes related to the operation of the camera 32. The map generation program includes command codes for driving the automated guided vehicle 35 without a track throughout the factory so that map information can be generated in the map information generation unit 48.

前記マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。 The map information storage unit 44 is a functional unit that stores map information including the placement information of machines, devices, equipment, etc. (devices, etc.) placed in the factory where the automated guided vehicle 35 travels, and this map information is generated by the map information generation unit 48.

前記マップ情報生成部48は、詳しくは後述する前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、前記センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、工作機械10、材料ストッカ20及び製品ストッカ21の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報として前記マップ情報記憶部44に格納する。 When the map information generating unit 48 drives the automated guided vehicle 35 in accordance with the map generation program stored in the operation program storage unit 41 under the control of the automatic driving control unit 47 of the control device 40, which will be described in detail later, the map information generating unit 48 acquires spatial information within the factory from distance data detected by the sensors, recognizes the planar shapes of devices and the like arranged within the factory, and recognizes the positions, planar shapes, and the like (arrangement information) of specific devices arranged within the factory, in this example the machine tool 10, material stocker 20, and product stocker 21, based on the planar shapes of devices and the like that have been registered in advance. The map information generating unit 48 then stores the obtained spatial information and the arrangement information of devices and the like in the map information storage unit 44 as map information within the factory.

前記位置認識部49は、前記センサによって検出される距離データ、及び前記マップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置を認識する機能部であり、この位置認識部49によって認識される無人搬送車35の位置に基づいて、当該無人搬送車35の動作が前記自動運転制御部47によって制御される。 The position recognition unit 49 is a functional unit that recognizes the position of the automated guided vehicle 35 within the factory based on the distance data detected by the sensor and the map information within the factory stored in the map information storage unit 44, and the operation of the automated guided vehicle 35 is controlled by the automatic driving control unit 47 based on the position of the automated guided vehicle 35 recognized by this position recognition unit 49.

前記移動位置記憶部42は、前記無人搬送車35が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10、材料ストッカ20及び製品ストッカ21に対して設定される各作業位置が含まれる。尚、この移動位置は、例えば、前記手動運転制御部46による制御の下、前記操作盤37により前記無人搬送車35を手動運転して、目標とする各位置に移動させた後、前記位置認識部49によって認識される位置データを前記移動位置記憶部42に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。 The movement position memory unit 42 is a functional unit that stores the movement positions as specific target positions to which the automated guided vehicle 35 moves, which correspond to command codes in the operation program, and these movement positions include the work positions set for the machine tool 10, material stocker 20, and product stocker 21 described above. Note that these movement positions are set, for example, by manually driving the automated guided vehicle 35 with the operation panel 37 under the control of the manual operation control unit 46 to move it to each target position, and then storing the position data recognized by the position recognition unit 49 in the movement position memory unit 42. This operation is called a teaching operation.

前記動作姿勢記憶部43は、前記ロボット26が所定の順序で動作することによって順次変化するロボット26の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部46による制御の下で、前記操作盤37を用いたティーチング操作により、当該ロボット26を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット26の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部43に格納される。 The movement posture memory unit 43 is a functional unit that stores data relating to the movement postures (movement postures) of the robot 26 that change sequentially as the robot 26 moves in a predetermined order, and that correspond to command codes in the movement program. The data relating to the movement postures is rotation angle data of each joint (motor) of the robot 26 in each target posture when the robot 26 is manually operated to take each target posture by teaching operation using the operation panel 37 under the control of the manual operation control unit 46, and this rotation angle data is stored in the movement posture memory unit 43 as data relating to the movement posture.

ロボット26の具体的な動作姿勢は、前記材料ストッカ20、工作機械10及び製品ストッカ21において、それぞれ設定される。また、本例では、前記無人搬送車35の載置面36上に配設された第2識別画像D2をカメラ32によって撮像する姿勢(第2撮像姿勢)が設定される。尚、図7、図8及び図9に示すように、カメラ32が第2識別図形D2を撮像する第2撮像姿勢は、当該第2識別図形D2を斜めから撮像する姿勢に設定される。このように、第2撮像姿勢を、斜めから第2識別図形D2を撮像する姿勢とすることで、図3及び図7に示すように、ロボット26の第3アーム29を矢示方向に回転させることのみによって第2撮像姿勢とすることができ、例えば、カメラ32を第2識別図形D2の直上に移動させる場合に比べて、ロボット26を短時間で第2撮像姿勢に移行させることができる。尚、この図3に示したロボット26の姿勢は、後述する第1撮像姿勢を図示しており、ロボット26は、この第1撮像姿勢から、第3アーム29を矢示方向に回転させるだけで、第2撮像姿勢に移行することができる。尚、図7に、ロボット26を第2撮像姿勢に移行させた状態を示している。図7は、ロボット26に第2撮像姿勢を取らせたときのカメラ32と第2識別図形D2との位置関係が分かるように、第2識別図形D2が設けられる付近を拡大して示した斜視図である。 The specific operating posture of the robot 26 is set in the material stocker 20, the machine tool 10, and the product stocker 21, respectively. In this example, a posture (second imaging posture) in which the camera 32 captures the second identification image D2 arranged on the loading surface 36 of the unmanned transport vehicle 35 is set. As shown in Figures 7, 8, and 9, the second imaging posture in which the camera 32 captures the second identification figure D2 is set to a posture in which the second identification figure D2 is captured obliquely. In this way, by setting the second imaging posture to a posture in which the second identification figure D2 is captured obliquely, as shown in Figures 3 and 7, the second imaging posture can be set by simply rotating the third arm 29 of the robot 26 in the arrow direction, and the robot 26 can be moved to the second imaging posture in a short time compared to, for example, moving the camera 32 directly above the second identification figure D2. The posture of the robot 26 shown in Fig. 3 illustrates a first imaging posture, which will be described later, and the robot 26 can transition from this first imaging posture to a second imaging posture simply by rotating the third arm 29 in the direction of the arrow. Fig. 7 shows the state in which the robot 26 has transitioned to the second imaging posture. Fig. 7 is an enlarged perspective view of the vicinity of where the second identification figure D2 is provided, so that the positional relationship between the camera 32 and the second identification figure D2 when the robot 26 is placed in the second imaging posture can be seen.

また、カメラ32が第2識別図形D2を斜めから撮像する姿勢は、カメラ32の撮像光軸が第2識別図形D2と成す角度が所定の角度となるように、ロボット26の姿勢(第2撮像姿勢)が前記ティーチング操作によって設定される。そして、撮像光軸の角度は、本例では、図8に示した角度Ry、及び図9に示した角度Rzで定義される。角度Ryは、図8に示すように、第2識別図形D2の中心位置と直交する軸であるz軸に対する角度であって、撮像光軸がz軸に対して第2識別図形D2の表面側に傾いた角度である。また、角度Rzは、図9に示すように、矩形をした第2識別図形D2の中心を原点とし、矩形の辺と平行な基準軸であるx軸及びy軸の一方の基準軸(本例ではx軸)に対する、前記z軸を中心とした軸回り方向の回転角度である。この角度Ry及びRzの好ましい範囲については後述する。 The posture of the camera 32 when capturing an image of the second identification figure D2 obliquely is set by the teaching operation such that the angle between the imaging optical axis of the camera 32 and the second identification figure D2 is a predetermined angle, and the posture of the robot 26 (second imaging posture) is set by the teaching operation. In this example, the angle of the imaging optical axis is defined by the angle Ry shown in FIG. 8 and the angle Rz shown in FIG. 9. As shown in FIG. 8, the angle Ry is an angle with respect to the z-axis, which is an axis perpendicular to the center position of the second identification figure D2, and is an angle at which the imaging optical axis is inclined toward the surface side of the second identification figure D2 with respect to the z-axis. As shown in FIG. 9, the angle Rz is a rotation angle around the axis centered on the z-axis with respect to one of the reference axes (x-axis in this example) of the x-axis and y-axis, which are reference axes parallel to the sides of the rectangle, with the center of the rectangular second identification figure D2 as the origin. The preferred ranges of the angles Ry and Rz will be described later.

前記材料ストッカ20では、例えば、当該材料ストッカ20において作業を開始するときの作業開始姿勢(取出開始姿勢)、当該材料ストッカ20に収納された加工前ワークWをハンド30により把持して、当該材料ストッカ20から取り出すための各作業姿勢(各取出姿勢)及び取出を完了したときの姿勢(取出完了姿勢であり、本例では、取出開始姿勢と同じ姿勢)が取出動作姿勢として設定される。 In the material stocker 20, for example, the work start posture (removal start posture) when work is started in the material stocker 20, each work posture (each removal posture) for grasping the unmachined workpiece W stored in the material stocker 20 with the hand 30 and removing it from the material stocker 20, and the posture when removal is completed (removal completion posture, which in this example is the same posture as the removal start posture) are set as the removal operation posture.

また、工作機械10では、加工済のワークW’を工作機械10から取り出すワーク取出動作姿勢、及び加工前ワークWを工作機械10に取り付けるワーク取付動作姿勢が設定される。 In addition, the machine tool 10 is set with a work removal operation posture for removing the machined workpiece W' from the machine tool 10, and a work attachment operation posture for attaching the unmachined workpiece W to the machine tool 10.

具体的には、ワーク取出動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢、ハンド30及びカメラ32を工作機械10の加工領域内に進入させて、支持バー15に設けられた第1識別図形D1がカメラ32の視野に入るように当該カメラ32を位置させて、当該カメラ32によって第1識別図形を撮像する姿勢(第1撮像姿勢)(図4参照)、工作機械10のチャック12に把持された加工済ワークW’に対してハンド30を対向させた姿勢(取出準備姿勢)、ハンド30をチャック12側に移動させて、当該チャック12に把持された加工済ワークW’をハンド30によって把持する姿勢(把持姿勢)、ハンド30をチャック12から離隔させて加工済ワークW’をチャック12から取り外した姿勢(取外姿勢)、ハンド30及びカメラ32を工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が設定される。尚、カメラ32が第1識別図形D1を撮像する第1撮像姿勢も、上述した第2撮像姿勢と同様に、当該第1識別図形D1を斜めから撮像する姿勢、即ち、カメラ32の撮像光軸が第1識別図形D1に対して前記角度Ry及びRzで定義される斜め方向となる姿勢に設定される。 Specifically, the workpiece removal operation postures may include, for example, a work start posture before entering the machine tool 10, a posture in which the hand 30 and camera 32 enter the machining area of the machine tool 10 and the camera 32 is positioned so that the first identification figure D1 provided on the support bar 15 is within the field of view of the camera 32, and the first identification figure is imaged by the camera 32 (first image capture posture) (see FIG. 4), a posture in which the hand 30 faces the machined workpiece W' held in the chuck 12 of the machine tool 10 (removal preparation posture), a posture in which the hand 30 is moved toward the chuck 12 and the machined workpiece W' held in the chuck 12 is grasped by the hand 30 (grasping posture), a posture in which the hand 30 is separated from the chuck 12 and the machined workpiece W' is removed from the chuck 12 (removal posture), and a posture in which the hand 30 and camera 32 have left the machine tool 10 (work completion posture). In addition, the first imaging orientation in which the camera 32 images the first identification figure D1 is also set to an orientation in which the first identification figure D1 is imaged obliquely, similar to the second imaging orientation described above, that is, an orientation in which the imaging optical axis of the camera 32 is in an oblique direction defined by the angles Ry and Rz with respect to the first identification figure D1.

また、ワーク取付動作姿勢では、例えば、工作機械10に進入する前の作業開始姿勢、ハンド30及びカメラ32を工作機械10の加工領域内に進入させて、支持バー15に設けられた第1識別図形D1がカメラ32の視野に入るように当該カメラ32を位置させて、当該カメラ32によって第1識別図形D1を撮像する姿勢(上記と同じ第1撮像姿勢)(図4参照)、工作機械10のチャック12に対してハンド30に把持された加工前ワークWを対向させた姿勢(取付準備姿勢)、ハンド30をチャック12側に移動させて、加工前ワークWを当該チャック12によって把持可能にした姿勢(取付姿勢)、ハンド30をチャック12から離隔させた姿勢(離隔姿勢)、ハンド30及びカメラ32を工作機械10から抜け出させた姿勢(作業完了姿勢)の各姿勢が設定される。 In addition, the workpiece mounting operation posture may be, for example, a work start posture before entering the machine tool 10, a posture in which the hand 30 and camera 32 enter the machining area of the machine tool 10, the camera 32 is positioned so that the first identification figure D1 provided on the support bar 15 is within the field of view of the camera 32, and the camera 32 captures the first identification figure D1 (the same first imaging posture as above) (see FIG. 4), a posture in which the unmachined workpiece W held by the hand 30 faces the chuck 12 of the machine tool 10 (mounting preparation posture), a posture in which the hand 30 is moved toward the chuck 12 so that the unmachined workpiece W can be held by the chuck 12 (mounting posture), a posture in which the hand 30 is separated from the chuck 12 (separation posture), and a posture in which the hand 30 and camera 32 have left the machine tool 10 (work completion posture).

前記製品ストッカ21では、当該製品ストッカ21において作業を開始するときの作業開始姿勢(収納開始姿勢)、ハンド30に把持した加工済ワークW’を製品ストッカ21内に収納するための各作業姿勢(収納姿勢)及び収納を完了したときの姿勢(収納完了姿勢であり、本例では、収納開始姿勢と同じ姿勢)が収納動作姿勢として設定される。 In the product stocker 21, the work start posture (storage start posture) when work is started in the product stocker 21, each work posture (storage posture) for storing the machined workpiece W' held by the hand 30 in the product stocker 21, and the posture when storage is completed (storage completion posture, which in this example is the same posture as the storage start posture) are set as storage operation postures.

前記自動運転制御部47は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車35、ロボット26及びカメラ32を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。 The automatic driving control unit 47 is a functional unit that uses either the automatic driving program or the map generation program stored in the operation program storage unit 41, and operates the automatic guided vehicle 35, the robot 26, and the camera 32 according to the program. At that time, the data stored in the movement position storage unit 42 and the operation posture storage unit 43 are used as necessary.

前記基準画像記憶部45は、ティーチング操作時に、前記カメラ32によって撮像される第1識別図形D1の画像を第1基準画像として、また、同じく前記カメラ32によって撮像される第2識別図形D2の画像を第2基準画像として記憶する機能部である。具体的には、前記第1基準画像は、前記無人搬送車35が工作機械10に対して設定された作業位置に在り、前記ロボット26が第1撮像姿勢にあるときに、前記カメラ32により撮像された第1識別図形D1の画像である。また、前記第2基準画像は、前記ロボット26が第2撮像姿勢にあるときに、前記カメラ32により撮像された第2識別図形D2の画像である。 The reference image storage unit 45 is a functional unit that stores an image of the first identification figure D1 captured by the camera 32 as a first reference image during a teaching operation, and an image of the second identification figure D2 captured by the camera 32 as a second reference image. Specifically, the first reference image is an image of the first identification figure D1 captured by the camera 32 when the automated guided vehicle 35 is in a work position set for the machine tool 10 and the robot 26 is in a first imaging posture. The second reference image is an image of the second identification figure D2 captured by the camera 32 when the robot 26 is in a second imaging posture.

前記補正量算出部50は、前記自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムに従って前記ロボット26が自動運転される際に、当該ロボット26が第1撮像姿勢に在り、カメラ32によって前記第1識別図形D1が撮像されると、当該自動運転時に得られた現在の第1識別図形D1の画像と、前記基準画像記憶部45に格納された第1基準画像(ティーチング操作時に撮像された画像)とに基づいて、ロボット26の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ32の位置誤差量を算出するとともに、算出された位置誤差量に基づいて、前記作業姿勢における第1補正量を算出する(第1補正量算出処理)。 When the robot 26 is automatically driven according to the automatic driving program stored in the operation program storage unit 41 under the control of the automatic driving control unit 47, the robot 26 is in a first image capturing posture, and the first identification figure D1 is captured by the camera 32, the correction amount calculation unit 50 calculates the position error amount of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation based on the current image of the first identification figure D1 obtained during the automatic driving and the first reference image (image captured during the teaching operation) stored in the reference image storage unit 45, and calculates a first correction amount in the working posture based on the calculated position error amount (first correction amount calculation process).

また、補正量算出部50は、当該ロボット26が第2撮像姿勢に在り、カメラ32によって前記第2識別図形D2が撮像されると、当該自動運転時に得られた現在の第2識別図形D2の画像と、前記基準画像記憶部45に格納された第2基準画像(ティーチング操作時に撮像された画像)とに基づいて、ロボット26の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ32の位置変化量(取付変動量)を算出するとともに、算出された位置変化量に基づいて、前記作業姿勢における第2補正量を算出する(第2補正量算出処理)。 When the robot 26 is in the second imaging posture and the second identification figure D2 is imaged by the camera 32, the correction amount calculation unit 50 calculates the position change amount (mounting fluctuation amount) of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation based on the current image of the second identification figure D2 obtained during the automatic driving and the second reference image (image captured during the teaching operation) stored in the reference image storage unit 45, and calculates a second correction amount in the working posture based on the calculated position change amount (second correction amount calculation process).

以下、第1補正量算出処理及び第2補正量算出処理の一例について説明する。 Below, an example of the first correction amount calculation process and the second correction amount calculation process is described.

<第1補正量算出処理>
前記補正量算出部50は、前記ロボット26の現在の姿勢とティーチング操作時の姿勢との間における前記カメラ32の誤差量(位置誤差量及び回転誤差量)を算出し、この位置誤差量及び回転誤差量に基づいて前記第1補正量を算出する。
<First Correction Amount Calculation Process>
The correction amount calculation unit 50 calculates the amount of error (position error amount and rotation error amount) of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation, and calculates the first correction amount based on this position error amount and rotation error amount.

具体的には、補正量算出部50は、自動運転時に得られた現在の第1識別図形D1の画像と、前記基準画像記憶部45に格納された第1基準画像(ティーチング操作時に撮像された画像)等に基づいて、以下の処理を実行して、ロボット26の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ32の誤差量であって、第1識別図形と平行な平面内で設定される相互に直交するx軸及びy軸、並びにこれらx軸及びy軸に直交するz軸方向におけるカメラ32の位置誤差量と、x軸、y軸及びz軸回りのカメラ32の回転誤差量とを推定するとともに、推定した位置誤差量及び回転誤差量に基づいて、ロボット26の各作業姿勢を補正するための前記第1補正量を算出する。 Specifically, the correction amount calculation unit 50 executes the following processing based on the current image of the first identification figure D1 obtained during automatic driving and the first reference image (image captured during the teaching operation) stored in the reference image storage unit 45, etc., to estimate the amount of error of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation, which is the amount of position error of the camera 32 in the mutually orthogonal x-axis and y-axis set in a plane parallel to the first identification figure, and the z-axis direction orthogonal to these x-axis and y-axis, and the amount of rotation error of the camera 32 around the x-axis, y-axis, and z-axis, and calculates the first correction amount for correcting each working posture of the robot 26 based on the estimated amount of position error and rotation error.

(前処理)
前記補正量算出部50は、まず、前処理として、前記ティーチング操作時に撮像された前記第1基準画像に基づいて、カメラ32に対応した座標系であるカメラ座標系(camera_teach、以下同じ)から、前記第1識別図形D1に対した座標系である図形座標系(fig、以下同じ)に変換するための座標変換行列

Figure 2024068115000002
を取得する。尚、この座標変換行列
Figure 2024068115000003
は、カメラ32の内部パラメータ、識別図形から認識されるホモグラフィ行列、中心座標、コーナ座標及び第1識別図形の大きさなどから取得することができる。 (Preprocessing)
The correction amount calculation unit 50 first calculates, as a preprocessing step, a coordinate transformation matrix for transforming a camera coordinate system (camera_teach, the same hereinafter) that is a coordinate system corresponding to the camera 32 into a figure coordinate system (fig, the same hereinafter) that is a coordinate system for the first identification figure D1 based on the first reference image captured during the teaching operation.
Figure 2024068115000002
In addition, this coordinate transformation matrix
Figure 2024068115000003
can be obtained from the internal parameters of the camera 32, the homography matrix recognized from the identification figure, the center coordinates, the corner coordinates, and the size of the first identification figure.

また、前記カメラ座標系は、カメラの平面状の撮像素子群について設定される3次元の座標系であり、例えば、撮像素子群の中心位置に原点が設定される。また、前記図形座標系は、第1識別図形D1について設定される3次元の座標系であり、例えば、第1識別図形D1の中心位置に原点が設定される。また、後述するロボット座標系は、制御装置40がロボット26を制御するために設定された3次元の座標系であり、適宜位置に原点が設定されている。 The camera coordinate system is a three-dimensional coordinate system set for the planar imaging element group of the camera, and the origin is set, for example, at the center position of the imaging element group. The graphic coordinate system is a three-dimensional coordinate system set for the first identification figure D1, and the origin is set, for example, at the center position of the first identification figure D1. The robot coordinate system, which will be described later, is a three-dimensional coordinate system set for the control device 40 to control the robot 26, and the origin is set at an appropriate position.

次に、補正量算出部50は、取得された座標変換行列

Figure 2024068115000004
と、前記カメラ座標系におけるカメラ位置であって、前記ティーチング操作における撮像時のカメラ位置
Figure 2024068115000005
とに基づいて、前記図形座標系におけるティーチング操作時のカメラ位置
Figure 2024068115000006
を以下の数式1によって算出する。
(数式1)
Figure 2024068115000007
Next, the correction amount calculation unit 50 calculates the obtained coordinate transformation matrix
Figure 2024068115000004
and a camera position in the camera coordinate system, the camera position at the time of imaging in the teaching operation.
Figure 2024068115000005
Based on the above, the camera position during the teaching operation in the graphic coordinate system is calculated.
Figure 2024068115000006
is calculated by the following formula 1.
(Formula 1)
Figure 2024068115000007

(ティーチング操作時のカメラ位置算出処理)
次に、補正量算出部50は、ティーチング操作時のロボット座標系におけるカメラ位置

Figure 2024068115000008
を以下の数式2によって算出する。
(数式2)
Figure 2024068115000009

続いて、補正量算出部50は、ティーチング操作時のカメラ座標系からティーチング操作時のロボット座標系(ideal、以下同じ)へ変換するための座標変換行列
Figure 2024068115000010
を以下の数式3によって算出する。
(数式3)
Figure 2024068115000011
ここで、
Figure 2024068115000012
の回転行列成分
Figure 2024068115000013
を基に、x軸、y軸及びz軸回りの各回転角度
Figure 2024068115000014

Figure 2024068115000015

Figure 2024068115000016
を算出する。
尚、
Figure 2024068115000017
は、図形座標系からティーチング操作時のロボット座標系へ変換するための座標変換行列である。例えば、図形座標系からティーチング操作時のカメラ座標系へ変換するための座標変換行列
Figure 2024068115000018
と、前記カメラ座標系からティーチング操作時のロボット座標系へ変換するための座標変換行列
Figure 2024068115000019
に基づいて、以下の数式4によって取得することができる。
(数式4)
Figure 2024068115000020
(Camera position calculation process during teaching operation)
Next, the correction amount calculation unit 50 calculates the camera position in the robot coordinate system during the teaching operation.
Figure 2024068115000008
is calculated by the following formula 2.
(Formula 2)
Figure 2024068115000009

Next, the correction amount calculation unit 50 calculates a coordinate transformation matrix for transforming from the camera coordinate system during the teaching operation to the robot coordinate system during the teaching operation (ideal, the same applies below).
Figure 2024068115000010
is calculated by the following formula 3.
(Formula 3)
Figure 2024068115000011
here,
Figure 2024068115000012
Rotation matrix components of
Figure 2024068115000013
Based on this, the rotation angles around the x-axis, y-axis, and z-axis
Figure 2024068115000014
,
Figure 2024068115000015
,
Figure 2024068115000016
Calculate.
still,
Figure 2024068115000017
is a coordinate transformation matrix for transforming from the graphic coordinate system to the robot coordinate system during teaching operation. For example, the coordinate transformation matrix for transforming from the graphic coordinate system to the camera coordinate system during teaching operation is
Figure 2024068115000018
and a coordinate transformation matrix for transforming the camera coordinate system into the robot coordinate system during teaching operation.
Figure 2024068115000019
Based on this, it can be obtained by the following Equation 4.
(Formula 4)
Figure 2024068115000020

(自動運転時のカメラ位置算出処理)
次に、補正量算出部50は、自動運転時(実動作時)に得られる現在の第1識別図形D1の画像に基づいて、上記と同様にして、現在のカメラ座標系(camera_curr)から図形座標系に変換するための座標変換行列

Figure 2024068115000021
を取得した後、当該現在の画像に基づいて、図形座標系における現在のカメラ位置
Figure 2024068115000022
を以下の数式5によって算出するとともに、前記ティーチング操作時のロボット座標系における現在のカメラ位置
Figure 2024068115000023
を以下の数式6によって算出する。
(数式5)
Figure 2024068115000024
(数式6)
Figure 2024068115000025
続いて、補正量算出部50は、現在のカメラ座標系からティーチング操作時のロボット座標系へ変換するための座標変換行列
Figure 2024068115000026
を以下の数式7によって算出する。
(数式7)
Figure 2024068115000027
ここで、
Figure 2024068115000028
の回転行列成分
Figure 2024068115000029
を基に、x軸、y軸及びz軸回りの各回転角度
Figure 2024068115000030

Figure 2024068115000031

Figure 2024068115000032
を算出する。
(Camera position calculation process during autonomous driving)
Next, the correction amount calculation unit 50 calculates a coordinate transformation matrix for transforming the current camera coordinate system (camera_curr) into the graphic coordinate system in the same manner as described above, based on the image of the current first identification figure D1 obtained during automatic driving (actual operation).
Figure 2024068115000021
After obtaining the current camera position in the figure coordinate system based on the current image,
Figure 2024068115000022
is calculated by the following formula 5, and the current camera position in the robot coordinate system during the teaching operation is calculated by
Figure 2024068115000023
is calculated by the following formula 6.
(Formula 5)
Figure 2024068115000024
(Formula 6)
Figure 2024068115000025
Next, the correction amount calculation unit 50 calculates a coordinate transformation matrix for transforming the current camera coordinate system into the robot coordinate system during the teaching operation.
Figure 2024068115000026
is calculated by the following Equation 7.
(Formula 7)
Figure 2024068115000027
here,
Figure 2024068115000028
Rotation matrix components of
Figure 2024068115000029
Based on this, the rotation angles around the x-axis, y-axis, and z-axis
Figure 2024068115000030
,
Figure 2024068115000031
,
Figure 2024068115000032
Calculate.

(誤差量算出処理)
次に、補正量算出部50は、上記のようにして算出したティーチング操作時の座標系におけるティーチング操作時のカメラ角度

Figure 2024068115000033

Figure 2024068115000034

Figure 2024068115000035
と、ティーチング操作時の座標系における現在のカメラ角度
Figure 2024068115000036

Figure 2024068115000037

Figure 2024068115000038
とに基づいて、これらの差分を算出することによって、x軸、y軸及びz軸回りの各回転誤差Δrx、Δry及びΔrzを算出する。
但し、
Figure 2024068115000039
Figure 2024068115000040
Figure 2024068115000041
(Error amount calculation process)
Next, the correction amount calculation unit 50 calculates the camera angle during the teaching operation in the coordinate system during the teaching operation calculated as described above.
Figure 2024068115000033
,
Figure 2024068115000034
,
Figure 2024068115000035
and the current camera angle in the coordinate system during teaching operation.
Figure 2024068115000036
,
Figure 2024068115000037
,
Figure 2024068115000038
By calculating the differences between these based on the above, the rotation errors Δrx, Δry, and Δrz around the x-axis, y-axis, and z-axis are calculated.
however,
Figure 2024068115000039
Figure 2024068115000040
Figure 2024068115000041

次に、補正量算出部50は、上記のようにして算出した各回転誤差Δrx、Δry及びΔrzに基づいて、ティーチング操作時におけるロボット座標系と、現在のロボット座標系との間の回転行列

Figure 2024068115000042
、即ち、回転誤差量を以下の数式8によって算出するとともに、ティーチング操作時のロボット座標系から現在のロボット座標系への並進行列
Figure 2024068115000043
、即ち、位置誤差量を以下の数式9により算出する。
(数式8)
Figure 2024068115000044
(数式9)
Figure 2024068115000045
Next, the correction amount calculation unit 50 calculates a rotation matrix between the robot coordinate system during the teaching operation and the current robot coordinate system based on the rotation errors Δrx, Δry, and Δrz calculated as described above.
Figure 2024068115000042
That is, the amount of rotation error is calculated by the following formula 8, and the translation matrix from the robot coordinate system during the teaching operation to the current robot coordinate system is calculated by
Figure 2024068115000043
That is, the position error amount is calculated by the following Equation 9.
(Formula 8)
Figure 2024068115000044
(Formula 9)
Figure 2024068115000045

(補正量算出処理)
次に、補正量算出部50は、上記のようにして算出した誤差量に基づいて、この誤差量を補正するための第1補正量

Figure 2024068115000046
を以下の数式10によって算出する。
(数式10)
Figure 2024068115000047
<第2補正量算出処理>
上述したように、前記補正量算出部50は、前記ロボット26が第2撮像姿勢を取ったときに、前記カメラ32によって撮像される前記第2識別図形D2の現在の画像と、前記基準画像記憶部45に格納された第2基準画像(ティーチング操作時に撮像された画像)とに基づいて、ロボット26の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ32の位置変化量(取付変動量)(位置誤差量及び回転誤差量)を算出するとともに、算出された位置変化量に基づいて、前記作業姿勢における第2補正量を算出する。 (Correction amount calculation process)
Next, the correction amount calculation unit 50 calculates a first correction amount for correcting the amount of error based on the amount of error calculated as described above.
Figure 2024068115000046
is calculated by the following formula 10.
(Formula 10)
Figure 2024068115000047
<Second Correction Amount Calculation Process>
As described above, when the robot 26 takes the second imaging posture, the correction amount calculation unit 50 calculates the position change amount (installation fluctuation amount) (position error amount and rotation error amount) of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation based on the current image of the second identification figure D2 captured by the camera 32 and the second reference image (image captured during the teaching operation) stored in the reference image memory unit 45, and calculates a second correction amount for the working posture based on the calculated position change amount.

(前処理)
前記補正量算出部50は、まず、前処理として、前記ティーチング操作時に撮像された前記第2基準画像に基づいて、初期時のカメラ32に対応した座標系であるカメラ座標系(第1補正量算出処理と区別するために、「registered_camera」と称する)から、前記第2識別図形D2に対した座標系である図形座標系(同じく第1補正量算出処理と区別するために、「setup_tag」と称する)に変換するための座標変換行列

Figure 2024068115000048
を取得する。図11に、ロボット座標系(「robot」)、カメラ座標系(「registered_camera」)及び図形座標系(「setup_tag」)との関係を模式的に示している。尚、上述した第1補正量算出処理の場合と同様に、この座標変換行列
Figure 2024068115000049
は、カメラ32の内部パラメータ、識別図形から認識されるホモグラフィ行列、中心座標、コーナ座標及び第2識別図形の大きさなどから取得することができる。 (Preprocessing)
The correction amount calculation unit 50 first calculates, as a preprocessing, a coordinate transformation matrix for transforming a camera coordinate system (referred to as "registered_camera" to distinguish it from the first correction amount calculation process) which is a coordinate system corresponding to the camera 32 at the initial time, into a figure coordinate system (referred to as "setup_tag" to distinguish it from the first correction amount calculation process) which is a coordinate system for the second identification figure D2, based on the second reference image captured during the teaching operation.
Figure 2024068115000048
11 shows a schematic diagram of the relationship between the robot coordinate system ("robot"), the camera coordinate system ("registered_camera"), and the graphic coordinate system ("setup_tag"). As in the case of the first correction amount calculation process described above, this coordinate transformation matrix
Figure 2024068115000049
can be obtained from the internal parameters of the camera 32, the homography matrix recognized from the identification figure, the center coordinates, the corner coordinates, and the size of the second identification figure.

(位置変化量及び補正量算出処理)
次に、補正量算出部50は、自動運転時(実動作時)に得られる現在の第2識別図形D2の画像に基づいて、上記と同様にして、現在のカメラ座標系(同じく第1補正量算出処理と区別するために、「actual_camera」と称する)から前記図形座標系に変換するための座標変換行列

Figure 2024068115000050
を取得し、取得された
Figure 2024068115000051
と、
Figure 2024068115000052
との差分値を算出する(ステップ1)。尚、図12に、ロボット座標系(「robot」)、初期時のカメラ座標系(「registered_camera」)、現在のカメラ座標系(「actual_camera」)、図形座標系(「setup_tag」)と、実動作時におけるロボット座標系における現在のカメラ位置(「desired_camera」)と、物理的な意味での現在の実際のカメラ位置(「actual_camera」)と、誤差を打ち消すべくカメラ32の位置が補正されるべき位置(制御されるべき位置)(「updated_camera」)との関係を模式的に示している。 (Position change amount and correction amount calculation process)
Next, the correction amount calculation unit 50 calculates a coordinate transformation matrix for transforming the current camera coordinate system (also referred to as “actual_camera” to distinguish it from the first correction amount calculation process) into the graphic coordinate system in the same manner as described above, based on the current image of the second identification figure D2 obtained during automatic driving (during actual operation).
Figure 2024068115000050
Obtained and obtained
Figure 2024068115000051
and,
Figure 2024068115000052
12 shows a schematic diagram of the relationship between the robot coordinate system ("robot"), the initial camera coordinate system ("registered_camera"), the current camera coordinate system ("actual_camera"), the graphic coordinate system ("setup_tag"), the current camera position ("desired_camera") in the robot coordinate system during actual operation, the current actual camera position in the physical sense ("actual_camera"), and the position ("updated_camera") to which the camera 32 should be corrected (position to be controlled) to cancel out the error.

そして、補正量算出部50は、得られた行列の逆行列

Figure 2024068115000053
、上記の行列
Figure 2024068115000054
、行列
Figure 2024068115000055
及び行列
Figure 2024068115000056
に基づいて、位置変化量に相当する行列、即ち、実動作時におけるロボット座標系における現在のカメラ位置(「desired_camera」)と、物理的な意味での現在の実際のカメラ位置(「actual_camera」)との間の位置関係を示す行列
Figure 2024068115000057
を以下の数式11に従って算出する(ステップ2)。
(数式11)
Figure 2024068115000058
尚、行列
Figure 2024068115000059
は、ロボット座標系から、カメラ32をロボット26に取り付けた時の初期のカメラ座標系へ変換するための変換行列である。
また、行列
Figure 2024068115000060
は、ロボット座標系から、現在のカメラ座標系へ変換するための変換行列である
Figure 2024068115000061
の逆行列である。 Then, the correction amount calculation unit 50 calculates the inverse matrix of the obtained matrix.
Figure 2024068115000053
, the above matrix
Figure 2024068115000054
,queue
Figure 2024068115000055
and matrix
Figure 2024068115000056
Based on the above, a matrix corresponding to the amount of position change is obtained, that is, a matrix indicating the positional relationship between the current camera position ("desired_camera") in the robot coordinate system during actual operation and the current actual camera position ("actual_camera") in the physical sense.
Figure 2024068115000057
is calculated according to the following formula 11 (step 2).
(Formula 11)
Figure 2024068115000058
Furthermore, the matrix
Figure 2024068115000059
is a transformation matrix for transforming from the robot coordinate system to the initial camera coordinate system when the camera 32 is attached to the robot 26.
Also, the matrix
Figure 2024068115000060
is the transformation matrix for transforming from the robot coordinate system to the current camera coordinate system.
Figure 2024068115000061
is the inverse matrix of

ついで、補正量算出部50は、得られた行列

Figure 2024068115000062
の逆行列である行列
Figure 2024068115000063
と、上記の行列
Figure 2024068115000064
とを用いて、算出された位置変化量を打ち消すために更新(補正)されたカメラ位置(「updated_camera」)を以下の数式12に従って算出する(ステップ3)。
(数式12)
Figure 2024068115000065
Next, the correction amount calculation unit 50 calculates the obtained matrix
Figure 2024068115000062
The matrix that is the inverse of
Figure 2024068115000063
and the above matrix
Figure 2024068115000064
Using these, an updated (corrected) camera position ("updated_camera") is calculated according to the following formula 12 in order to cancel out the calculated position change amount (step 3).
(Formula 12)
Figure 2024068115000065

そして、前記自動運転制御部47は、上記ステップ3で算出された行列

Figure 2024068115000066
で定義される位置にカメラ32が位置するようにロボット26の第2撮像姿勢を変更する(ステップ4)。 Then, the automatic driving control unit 47 calculates the matrix
Figure 2024068115000066
The second image capturing posture of the robot 26 is changed so that the camera 32 is positioned at the position defined by (step 4).

この後、補正量算出部50及び自動運転制御部47は、上記ステップ1~ステップ4を繰り返して実行し、前記ステップ1で算出された

Figure 2024068115000067
と、
Figure 2024068115000068
との差分値が所定の閾値(基準値)を下回ったとき、この繰り返し処理を終了するとともに、補正量算出部50は、終了直前に算出された位置変化量に相当する行列
Figure 2024068115000069
を最終的な位置変化量とする。このようにすることで、ティーチング操作時(初期状態)と実動作時との間におけるロボット26とカメラ32との間に生じた前記位置変化量を正確に算出することができる。また、補正量算出部50、得られた位置変化量である
Figure 2024068115000070
から、その逆行列である
Figure 2024068115000071
を第2補正量として算出する。 Thereafter, the correction amount calculation unit 50 and the automatic driving control unit 47 repeatedly execute steps 1 to 4, and
Figure 2024068115000067
and,
Figure 2024068115000068
When the difference value between the above and falls below a predetermined threshold value (reference value), the repetitive process is terminated, and the correction amount calculation unit 50 calculates a matrix
Figure 2024068115000069
is set as the final position change amount. In this way, the position change amount that occurs between the robot 26 and the camera 32 during the teaching operation (initial state) and the actual operation can be accurately calculated. In addition, the correction amount calculation unit 50 calculates the obtained position change amount
Figure 2024068115000070
Then, the inverse matrix
Figure 2024068115000071
is calculated as the second correction amount.

前記自動運転制御部47は、ロボット26が工作機械10で作業する際の作業姿勢、例えば、前記ワーク取出動作姿勢における前記取出準備姿勢、把持姿勢及び取外姿勢、並びに前記ワーク取付動作姿勢における取付準備姿勢、取付姿勢及び離隔姿勢について、前記補正量算出部50において算出された第1補正量及び第2補正量に基づいて、ロボット26のハンド30に位置を補正する。 The automatic operation control unit 47 corrects the position of the hand 30 of the robot 26 based on the first correction amount and the second correction amount calculated by the correction amount calculation unit 50 for the working postures when the robot 26 works on the machine tool 10, for example, the removal preparation posture, gripping posture, and removal posture in the work removal operation posture, and the attachment preparation posture, attachment posture, and separation posture in the work attachment operation posture.

即ち、自動運転制御部47は、補正量算出部50による第1補正量算出処理及び第2補正量算出処理により算出された第1補正量及び第2補正量に基づいて、ロボット26の動作姿勢におけるハンド30の位置

Figure 2024068115000072
を以下の数式13に従って補正する。
(数式13)
Figure 2024068115000073
That is, the automatic driving control unit 47 calculates the position of the hand 30 in the operating posture of the robot 26 based on the first correction amount and the second correction amount calculated by the correction amount calculation unit 50 through the first correction amount calculation process and the second correction amount calculation process.
Figure 2024068115000072
is corrected according to the following formula 13.
(Formula 13)
Figure 2024068115000073

以上の構成を備えた本例のシステム1によれば、以下のようにして、無人自動生産が実行される。 With the system 1 of this example having the above configuration, unmanned automatic production is carried out as follows.

即ち、前記制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムが実行され、この自動運転用プログラムに従って、無人搬送車35及びロボット26が動作する。 That is, under the control of the automatic driving control unit 47 of the control device 40, the automatic driving program stored in the operation program storage unit 41 is executed, and the automated guided vehicle 35 and the robot 26 operate according to this automatic driving program.

例えば、前記第2補正量を算出する処理が行われる場合には、自動運転制御部47による制御の下で、ロボット26が第2撮像姿勢に移行され、カメラ32によって前記第2識別図形D2が撮像される。そして、前記補正量算出部50により、当該自動運転時に得られた現在の第2識別図形D2の画像と、前記基準画像記憶部45に格納された第2基準画像(ティーチング操作時に撮像された画像)とに基づいて、前記数式11に従って、ロボット26の現在の姿勢とティーチング操作時の姿勢との間におけるカメラ32の位置変化量(取付変動量)が算出されるとともに、算出された位置変化量に基づいて、前記作業姿勢における第2補正量が算出される(第2補正量算出処理)。尚、この第2補正量算出処理は、定期的に実行される態様でも、不定期に実行される態様でも何れでもよいが、ロボット26が作業を行う前に実行されるのが好ましい。 For example, when the process of calculating the second correction amount is performed, the robot 26 is moved to the second imaging posture under the control of the automatic driving control unit 47, and the second identification figure D2 is imaged by the camera 32. Then, the correction amount calculation unit 50 calculates the position change amount (mounting fluctuation amount) of the camera 32 between the current posture of the robot 26 and the posture during the teaching operation according to the formula 11 based on the current image of the second identification figure D2 obtained during the automatic driving and the second reference image (image captured during the teaching operation) stored in the reference image storage unit 45, and calculates the second correction amount in the working posture based on the calculated position change amount (second correction amount calculation process). Note that this second correction amount calculation process may be performed periodically or irregularly, but is preferably performed before the robot 26 performs work.

また、ロボット搭載移動装置25が作業を行う場合には、自動運転制御部47による制御の下で、無人搬送車35が、工作機械10に対して設定された作業位置に移動するとともに、ロボット26は上述したワーク取出動作の作業開始姿勢を取る。尚、この時、工作機械10は所定の加工を完了して、ロボット26が加工領域内に侵入可能なようにドアカバーを開いており、また、自動運転制御部47からの指令を受信して、前記ツールプリセッタ13の支持バー15を加工領域内に進出させているものとする。 When the robot-mounted moving device 25 performs work, the automated guided vehicle 35 moves to a work position set for the machine tool 10 under the control of the automatic operation control unit 47, and the robot 26 takes the work start posture for the work removal operation described above. At this time, the machine tool 10 has completed the specified processing, and the door cover is open so that the robot 26 can enter the processing area, and a command is received from the automatic operation control unit 47 to advance the support bar 15 of the tool presetter 13 into the processing area.

ついで、ロボット26は前記第1撮像姿勢に移行し、前記支持バー15に設けられた第1識別図形D1をカメラ32によって撮像する。そして、このようにして、カメラ32によって第1識別図形D1が撮像されると、前記補正量算出部50において、当該第1識別図形D1の画像と、前記基準画像記憶部45に格納された第1基準画像とを基に、上記数式1から数式9に従って、カメラ32の誤差量が算出されるとともに、得られた誤差量を基に、数式10に従って第1補正量が算出される。 The robot 26 then transitions to the first imaging posture, and the camera 32 images the first identification figure D1 provided on the support bar 15. When the first identification figure D1 is thus imaged by the camera 32, the correction amount calculation unit 50 calculates the amount of error of the camera 32 according to the image of the first identification figure D1 and the first reference image stored in the reference image storage unit 45, in accordance with the above formulas 1 to 9, and calculates a first correction amount according to formula 10, based on the obtained error amount.

そして、自動運転制御部47は、補正量算出部50により算出された第1補正量及び第2補正量に基づいて、以降のワーク取出動作姿勢、即ち、上述した取出準備姿勢、把持姿勢、取外姿勢及び作業完了姿勢におけるハンド30の位置を数式13に従って補正するとともに、工作作機械10のチャック12に把持された加工済ワークW’をハンド30に把持して当該工作機械10から取り出す。尚、ロボット26に前記把持姿勢を取らせた後に、自動運転制御部47から工作機械10にチャック開指令を送信することで、当該チャック12が開かれる。 Then, the automatic operation control unit 47 corrects the position of the hand 30 in the subsequent workpiece removal operation postures, i.e., the above-mentioned removal preparation posture, gripping posture, removal posture, and work completion posture, according to Equation 13 based on the first correction amount and the second correction amount calculated by the correction amount calculation unit 50, and grips the machined workpiece W' gripped by the chuck 12 of the machine tool 10 with the hand 30 and removes it from the machine tool 10. After the robot 26 is caused to take the gripping posture, the automatic operation control unit 47 sends a chuck open command to the machine tool 10, thereby opening the chuck 12.

次に、自動運転制御部47は、無人搬送車35を、製品ストッカ21に対して設定された作業位置に移動させるとともに、ロボット26に、当該製品ストッカ21において作業を開始するときの収納開始姿勢、ハンド30に把持した加工済ワークを製品ストッカ21内に収納するための各収納姿勢及び収納を完了したときの収納完了姿勢を順次取らせて、ハンド30に把持した加工済ワークを製品ストッカ21に収納する。 Next, the automatic operation control unit 47 moves the automated guided vehicle 35 to a work position set for the product stocker 21, and causes the robot 26 to sequentially assume a storage start posture when starting work in the product stocker 21, various storage postures for storing the machined workpiece held by the hand 30 in the product stocker 21, and a storage completion posture when storage is completed, thereby storing the machined workpiece held by the hand 30 in the product stocker 21.

ついで、自動運転制御部47は、無人搬送車35を、材料ストッカ20に対して設定された作業位置に移動させるとともに、ロボット26に、当該材料ストッカ20において作業を開始するときの取出開始姿勢、当該材料ストッカ20に収納された加工前ワークをハンド30によって把持して、当該材料ストッカ20から取り出すための各取出姿勢及び取出を完了したときの取出完了姿勢を順次取らせて、ハンド30に加工前ワークを把持させる。 Then, the automatic operation control unit 47 moves the automated guided vehicle 35 to a work position set for the material stocker 20, and causes the robot 26 to sequentially assume an unloading start posture when starting work at the material stocker 20, various unloading postures for grasping the pre-machined workpiece stored in the material stocker 20 with the hand 30 and unloading it from the material stocker 20, and an unloading completion posture when unloading is completed, and causes the hand 30 to grasp the pre-machined workpiece.

次に、自動運転制御部47は、再度、無人搬送車35を工作機械10に対して設定された作業位置に移動させるとともに、ロボット26に上述したワーク取付動作の作業開始姿勢を取らせる。ついで、ロボット26を前記撮像姿勢に移行させ、前記支持バー15に設けられた第1識別図形D1をカメラ32によって撮像させる。そして、このようにして、カメラ32によって第1識別図形D1が撮像されると、前記補正量算出部50において、当該第1識別図形D1の画像と、前記基準画像記憶部45に格納された第1基準画像とを基に、上記数式1から数式9に従って、カメラ32の位置誤差量が算出されるとともに、得られた位置誤差量を基に、数式10に従って第1補正量が算出される。 Next, the automatic operation control unit 47 again moves the automated guided vehicle 35 to the work position set for the machine tool 10, and causes the robot 26 to assume the work start posture for the above-mentioned workpiece attachment operation. Next, the robot 26 is moved to the imaging posture, and the first identification figure D1 provided on the support bar 15 is imaged by the camera 32. Then, when the first identification figure D1 is thus imaged by the camera 32, the correction amount calculation unit 50 calculates the position error amount of the camera 32 according to the above formulas 1 to 9 based on the image of the first identification figure D1 and the first reference image stored in the reference image storage unit 45, and calculates the first correction amount according to formula 10 based on the obtained position error amount.

この後、自動運転制御部47は、補正量算出部50により算出された第1補正量及び第2補正量に基づいて、以降のロボット26のワーク取付動作姿勢、即ち、上述した取付準備姿勢、取付姿勢、離隔姿勢及び作業完了姿勢におけるハンド30の位置を数式13に従って補正するとともに、ロボット26に、ハンド30に把持された加工前ワークWを工作機械10のチャック12に取り付けた後、機外に退出する動作を行わせる。この後、自動運転制御部47は、工作機械10に加工開始指令を送信して、工作機械10に加工動作を行わせる。尚、ロボット26に前記取付姿勢を取らせた後に、自動運転制御部47から工作機械10にチャック閉指令を送信することで、当該チャック12が閉じられ、当該チャック12によって加工前ワークWが把持される。 Then, the automatic operation control unit 47 corrects the position of the hand 30 in the subsequent workpiece mounting operation postures of the robot 26, i.e., the above-mentioned mounting preparation posture, mounting posture, separation posture, and work completion posture, according to Equation 13 based on the first correction amount and the second correction amount calculated by the correction amount calculation unit 50, and causes the robot 26 to mount the unmachined workpiece W held by the hand 30 to the chuck 12 of the machine tool 10 and then to exit the machine. After this, the automatic operation control unit 47 transmits a machining start command to the machine tool 10 to cause the machine tool 10 to perform a machining operation. After causing the robot 26 to assume the mounting posture, the automatic operation control unit 47 transmits a chuck close command to the machine tool 10, which closes the chuck 12 and causes the chuck 12 to grip the unmachined workpiece W.

そして、以上を繰り返すことにより、本例のシステム1では、無人自動生産が連続して実行される。 By repeating the above steps, unmanned automatic production is carried out continuously in the system 1 of this example.

本例のシステム1では、ロボット26が実際に作業する工作機械10の加工領域内に配置された第1識別図形D1を用いて、ロボット26の作業姿勢を補正するようにしているので、当該作業姿勢を正確に補正することができ、これにより、ロボット26は、高い動作精度が求められる作業でも、当該作業を精度良く実行することができる。 In the present example, the system 1 uses the first identification figure D1 arranged within the machining area of the machine tool 10 where the robot 26 actually works to correct the working posture of the robot 26, so that the working posture can be accurately corrected, and thus the robot 26 can perform tasks with high precision, even when high operational accuracy is required.

また、本例のシステム1では、ティーチング操作時(初期状態)と実動作時との間におけるロボット26とカメラ32との間の位置変化を補正するための第2補正量が第2補正量算出処理によって算出され、算出された第2補正量に基づき、前記第2補正処理によって前記作業姿勢が補正される。したがって、ロボットの経時的な稼働によって、ロボット26とカメラ32との間に位置変化が生じたり、また、カメラに外的な力が作用することによって、ロボット26とカメラ32との間に位置変化が生じたとしても、実動作時のロボット26の作業姿勢を正確に補正することができる。 In addition, in the system 1 of this example, a second correction amount for correcting the position change between the robot 26 and the camera 32 between the time of the teaching operation (initial state) and the time of actual operation is calculated by a second correction amount calculation process, and the working posture is corrected by the second correction process based on the calculated second correction amount. Therefore, even if a position change occurs between the robot 26 and the camera 32 due to the operation of the robot over time, or a position change occurs between the robot 26 and the camera 32 due to an external force acting on the camera, the working posture of the robot 26 during actual operation can be accurately corrected.

また、本例では、前記ロボットを前記第2撮像姿勢に移行させた後に、前記位置変化量を算出するまでを1サイクルとして複数サイクル繰り返して実行するように構成されるとともに、2サイクル目以降では、前のサイクルで算出された位置変化量に基づいて定められる補正量に従って前記第2撮像姿勢を補正し、現在の第2識別図形D2とカメラ32との位置関係と、前記ティーチング操作時の第2識別図形D2とカメラ32との位置関係との差が、所定の基準値以下となったとき、前記サイクルの繰り返しを終了し、終了直前に算出された位置変化量を最終的な位置変化量として算出するように構成された態様を採ることができる。この態様によれば、ティーチング操作時(初期状態)と実動作時との間に生じたロボット26とカメラ32との間の前記位置変化量を正確に算出することができ、これを補正するための第2補正量を正確に算出することができる。 In this example, the robot is moved to the second imaging posture, and the position change amount is calculated as one cycle, and the cycle is repeated multiple times. In the second and subsequent cycles, the second imaging posture is corrected according to a correction amount determined based on the position change amount calculated in the previous cycle. When the difference between the current positional relationship between the second identification figure D2 and the camera 32 and the positional relationship between the second identification figure D2 and the camera 32 during the teaching operation becomes equal to or less than a predetermined reference value, the repetition of the cycle is terminated, and the position change amount calculated immediately before the end is calculated as the final position change amount. According to this embodiment, the position change amount between the robot 26 and the camera 32 that occurred between the teaching operation (initial state) and the actual operation can be accurately calculated, and the second correction amount for correcting this can be accurately calculated.

そして、このように、ロボット26が精度の良い作業を実行することで、当該システム1は不要な中断を招くことなく高い稼働率で稼働し、結果、当該システム1によれば、信頼性が高く、生産効率の高い無人化を図ることが可能となる。 In this way, the robot 26 can perform tasks with high precision, allowing the system 1 to operate at a high availability rate without unnecessary interruptions. As a result, the system 1 can achieve unmanned operation with high reliability and high production efficiency.

また、本例では、カメラ32によって第1識別図形D1及び第2識別図形D2を撮像する際に、当該第1識別図形D1及び第2識別図形D2を斜めから撮像するようにしているので、撮像された画像から、カメラ32と第1識別図形D1及びD2識別図形D2との正確な位置関係を取得することができる。即ち、第1識別図形D1及び第2識別図形D2は複数の正方形をした画素が二次元に配列されたマトリクス構造を備えているが、このような第1識別図形D1及び第2識別図形D2を斜めから撮像すると正方形をした画素が台形形状に歪み、このような歪み状態を解析することによって、カメラ32と第1識別図形D1及びD2識別図形D2との正確な位置関係を取得することができる。 In addition, in this example, when the first identification figure D1 and the second identification figure D2 are imaged by the camera 32, the first identification figure D1 and the second identification figure D2 are imaged obliquely, so that the accurate positional relationship between the camera 32 and the first identification figure D1 and the D2 identification figure D2 can be obtained from the image captured. That is, the first identification figure D1 and the second identification figure D2 have a matrix structure in which a plurality of square pixels are arranged two-dimensionally, but when such first identification figure D1 and the second identification figure D2 are imaged obliquely, the square pixels are distorted into a trapezoidal shape, and by analyzing this distortion state, the accurate positional relationship between the camera 32 and the first identification figure D1 and the D2 identification figure D2 can be obtained.

ところで、第1識別図形D1及び第2識別図形D2を斜めから撮像する前記角度Ryは、15°以上60°以下の範囲内であるのが好ましく、30°以上60°以下の範囲内であるのがより好ましい。また、前記角度Rzは、15°以上75°以下の範囲内であるのが好ましく、30°以上60°以下の範囲内であるのがより好ましい。 Incidentally, the angle Ry at which the first identification figure D1 and the second identification figure D2 are imaged obliquely is preferably within the range of 15° to 60°, and more preferably within the range of 30° to 60°. The angle Rz is preferably within the range of 15° to 75°, and more preferably within the range of 30° to 60°.

図10は、前記カメラ32の撮像光軸の角度Ry及びRzが、それぞれ設定した角度となるような撮像姿勢に、ロボット26を所定の繰り返し回数で位置決めして、前記第2識別画像D2(第1識別画像D1も同様)を撮像し、得られた各画像に基づいて、前記カメラ32の位置を、例えば、前記数式2よって算出するとともに、算出されたカメラ32の位置のばらつきに基づいて、ロボット26の第3アーム29の先端部から200mm先で生じ得る最大誤差(mm)を推定した結果を示している。尚、角度Ry及びRzは、それぞれ0°、15°、30°、45°、60°及び75°の各角度に設定し、各角度における位置決めの繰り返し回数は80回とした。 Figure 10 shows the results of positioning the robot 26 a predetermined number of times in an imaging posture in which the angles Ry and Rz of the imaging optical axis of the camera 32 are set to the respective set angles, capturing the second identification image D2 (similarly the first identification image D1), calculating the position of the camera 32 based on each of the obtained images, for example, using the above-mentioned formula 2, and estimating the maximum error (mm) that can occur 200 mm from the tip of the third arm 29 of the robot 26 based on the calculated variance in the position of the camera 32. The angles Ry and Rz were set to 0°, 15°, 30°, 45°, 60°, and 75°, respectively, and the number of repetitions of positioning at each angle was 80.

図10に示した結果から分かるように、最大誤差が0.1mm以下となる好ましい角度範囲として、角度Ryは15°以上60°以下が選定され、角度Rzは15°以上75°以下が選定される。また、より好ましい角度範囲として、角度Ryは30°以上60°以下が選定され、角度Rzは30°以上60°以下が選定される。 As can be seen from the results shown in FIG. 10, the angle Ry is selected to be 15° or more and 60° or less, and the angle Rz is selected to be 15° or more and 75° or less, as the preferred angle range for the maximum error being 0.1 mm or less. Furthermore, the angle Ry is selected to be 30° or more and 60° or less, and the angle Rz is selected to be 30° or more and 60° or less, as the more preferred angle range.

尚、ロボット26の第1撮像姿勢及び第2撮像姿勢は、上述したように、カメラ32の撮像光軸が角度Ry及びRzだけ傾くような姿勢であるのが好ましいが、角度Rzを0°として、角度Ryのみを傾斜させた姿勢としてもよく、逆に、角度Ryを0°として、角度Rzのみを傾斜さた姿勢としてもよい。 As described above, it is preferable that the first and second imaging postures of the robot 26 are postures in which the imaging optical axis of the camera 32 is tilted by angles Ry and Rz, but it is also possible to set the angle Rz to 0° and have only the angle Ry tilted, or conversely, to set the angle Ry to 0° and have only the angle Rz tilted.

以上、本発明の一実施の形態について説明したが、本発明が採り得る具体的な態様は、何らこれに限定されるものではない。 Although one embodiment of the present invention has been described above, the specific aspects that the present invention can adopt are in no way limited to this.

例えば、上例では、ロボット搭載移動装置25が作業をする対象を工作機械10、材料ストッカ20及び製品ストッカ21としたが、作業対象はこれらに限られるものでは無く、ワークを洗浄する洗浄装置や、ワークの形状、寸法などを測定する測定装置など、他の公知の全ての産業機械を作業対象とすることができる。また、工作機械についても、立形旋盤の他、横形旋盤や、立形又は横形のマシニングセンタなど、公知の全ての工作機械を作業対象とすることができる。 For example, in the above example, the objects on which the robot-mounted moving device 25 works are the machine tool 10, the material stocker 20, and the product stocker 21, but the work objects are not limited to these, and the work objects can be any other known industrial machine, such as a cleaning device for cleaning the workpiece, or a measuring device for measuring the shape and dimensions of the workpiece. Furthermore, in terms of machine tools, the work objects can be any known machine tools, such as a vertical lathe, a horizontal lathe, or a vertical or horizontal machining center.

また、上例では、前記ロボットを前記第2撮像姿勢に移行させた後に、前記位置変化量を算出するまでを1サイクルとして複数サイクル繰り返して実行するように構成したが、このような構成に限られるものではなく、1度の位置変化量算出処理によって求める位置変化量を算出するようにしても良い。 In the above example, the robot is moved to the second imaging posture, and then the position change amount is calculated, which is counted as one cycle, and multiple cycles are repeated to execute the process. However, the present invention is not limited to this configuration, and the position change amount may be calculated by performing the position change amount calculation process once.

また、上例では、移動装置として無人搬送車を例示したが、これに限られるものでは無く、手動で移動する台車を移動装置として採用しても良い。 In addition, in the above example, an unmanned guided vehicle was used as an example of a moving device, but this is not limited to this, and a manually moved cart may also be used as the moving device.

或いは、移動装置は、図13に示すような構成であっても良い。この例のロボット搭載移動装置110は、移動装置111及びこの移動装置111に設けられるロボット115を備える。移動装置111は、工作機械100と、工作機械100に隣接されるストックヤード105とに跨るように水平に配設された軌道としてのガイドレール112と、このガイドレール112に係合して、当該ガイドレール112に沿って、二点鎖線で示す矢示方向に移動可能に設けられたスライダ113とを備えて構成される。カメラ116を備えた前記ロボット115は、このスライダ113に固設されており、また、スライダ113に前記第2識別図形D2が配設されている。この例では、移動装置111のスライダ113が矢示方向に移動することで、ロボット115が工作機械100とストックヤード105の間で移動し、当該ロボット115により、ワークW1,W2が工作機械100とストックヤード105との間で搬送される。 Alternatively, the moving device may be configured as shown in FIG. 13. The robot-mounted moving device 110 in this example includes a moving device 111 and a robot 115 provided on the moving device 111. The moving device 111 includes a guide rail 112 as a track horizontally arranged so as to straddle the machine tool 100 and the stockyard 105 adjacent to the machine tool 100, and a slider 113 that engages with the guide rail 112 and is provided so as to be movable along the guide rail 112 in the direction of the arrow indicated by the two-dot chain line. The robot 115 equipped with a camera 116 is fixed to the slider 113, and the second identification figure D2 is provided on the slider 113. In this example, the slider 113 of the moving device 111 moves in the direction indicated by the arrow, causing the robot 115 to move between the machine tool 100 and the stockyard 105, and the robot 115 transports the workpieces W1 and W2 between the machine tool 100 and the stockyard 105.

繰り返しになるが、上述した実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。 To reiterate, the above description of the embodiment is illustrative in all respects and is not restrictive. Those skilled in the art can make appropriate modifications and changes. The scope of the present invention is indicated by the claims, not the above embodiment. Furthermore, the scope of the present invention includes modifications from the embodiment within the scope of the claims and the equivalent range.

1 システム
10 工作機械
20 材料ストッカ
21 製品ストッカ
25 ロボット搭載移動装置
26 ロボット
32 カメラ
35 無人搬送車
40 制御装置
41 動作プログラム記憶部
42 移動位置記憶部
43 動作姿勢記憶部
44 マップ情報記憶部
45 基準画像記憶部
46 手動運転記憶部
47 基準画像記憶部
46 手動運転記憶部
47 自動運転記憶部
48 マップ情報記憶部
49 位置認識部
50 補正量算出部
D1 第1識別図形(対象側識別図形)
D2 第2識別図形(移動装置側識別図形)
REFERENCE SIGNS LIST 1 System 10 Machine tool 20 Material stocker 21 Product stocker 25 Robot-mounted moving device 26 Robot 32 Camera 35 Automatic guided vehicle 40 Control device 41 Operation program memory unit 42 Movement position memory unit 43 Operation posture memory unit 44 Map information memory unit 45 Reference image memory unit 46 Manual driving memory unit 47 Reference image memory unit 46 Manual driving memory unit 47 Automatic driving memory unit 48 Map information memory unit 49 Position recognition unit 50 Correction amount calculation unit D1 First identification figure (target side identification figure)
D2 Second identification figure (mobile device side identification figure)

Claims (1)

画像を撮像するカメラ、及び所定の対象物に対して作用する作用部を有し、該対象物に対して作業を行うロボットと、
前記ロボットを搭載し、前記対象物に対して前記作用部が作用可能な位置に移動可能な移動装置と、
前記移動装置に設けられ、識別面に対して直交する直交方向から見た場合に少なくとも平行な2つの境界が識別面内にある識別図形と、
前記ロボットの動きを制御する制御装置と、を備え、
前記制御装置は、
前記直交方向と異なる方向から前記カメラで撮像された画像内の前記識別図形の前記2つの境界を含めて解析し、(i)前記カメラの位置情報、または(ii)作用部の位置情報を算出し、算出された前記位置情報に基づいて前記対象物に対して作用する作用部の動きを制御する、ロボット搭載移動装置。
a robot having a camera for capturing an image and an action unit for acting on a predetermined object, the robot performing a task on the object;
a moving device that carries the robot and that can move to a position where the action unit can act on the object;
an identification figure provided on the moving device, the identification figure having at least two parallel boundaries within the identification surface when viewed from a direction perpendicular to the identification surface;
A control device for controlling the movement of the robot,
The control device includes:
A robot-mounted moving device that analyzes the identification figure in an image captured by the camera from a direction different from the orthogonal direction, including the two boundaries, calculates (i) position information of the camera, or (ii) position information of an action part, and controls the movement of the action part acting on the object based on the calculated position information.
JP2023151410A 2022-11-04 2023-09-19 Robot-mounted moving device Pending JP2024068115A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022177224 2022-11-04

Publications (1)

Publication Number Publication Date
JP2024068115A true JP2024068115A (en) 2024-05-17

Family

ID=

Similar Documents

Publication Publication Date Title
WO2021039829A1 (en) Production system
JP3946711B2 (en) Robot system
JP4021413B2 (en) Measuring device
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
WO2023032400A1 (en) Automatic transport device, and system
WO2022091767A1 (en) Image processing method, image processing device, robot mounted-type conveyance device, and system
WO2022195938A1 (en) Robot system positioning accuracy measurement method
WO2022264597A1 (en) Robot system
JP2022126768A (en) Robot-equipped moving device
JP6832408B1 (en) Production system
JP2024068115A (en) Robot-mounted moving device
JP2016203282A (en) Robot with mechanism for changing end effector attitude
CN113492401B (en) Correction method
WO2021048579A1 (en) System and machine tool
JP7482364B2 (en) Robot-mounted mobile device and system
JP2020138315A (en) Production system
JP6851535B1 (en) Setting method using teaching operation
JP7015949B1 (en) Sticking position measuring device and machine tool equipped with it
CN114939865B (en) Calibration method
JP2021112809A (en) Production system
CN118019620A (en) Control device and robot system