JP2016078195A - Robot system, robot, control device and control method of robot - Google Patents

Robot system, robot, control device and control method of robot Download PDF

Info

Publication number
JP2016078195A
JP2016078195A JP2014214246A JP2014214246A JP2016078195A JP 2016078195 A JP2016078195 A JP 2016078195A JP 2014214246 A JP2014214246 A JP 2014214246A JP 2014214246 A JP2014214246 A JP 2014214246A JP 2016078195 A JP2016078195 A JP 2016078195A
Authority
JP
Japan
Prior art keywords
robot
marker
imaging unit
captured image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014214246A
Other languages
Japanese (ja)
Inventor
郁馬 降▲旗▼
Ikuma Furuhata
郁馬 降▲旗▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014214246A priority Critical patent/JP2016078195A/en
Publication of JP2016078195A publication Critical patent/JP2016078195A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot system capable of performing calibration between a robot and an imaging section even when an operator is inexperienced in operation of the robot, and further to provide the robot, a control device, a control method of the robot and the like.SOLUTION: A robot system includes a robot and a control device 100. The control device 100 causes the robot to perform marker forming operation forming a marker with respect to an object body provided on a work bench and identifies a relative position attitude relation of an imaging section 200 with respect to the robot on the basis of a pickup image obtained by imaging the marker by the imaging section 200.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットシステム、ロボット、制御装置及びロボットの制御方法等に関係す
る。
The present invention relates to a robot system, a robot, a control device, a robot control method, and the like.

現在、カメラにより取得される画像情報を利用してワークを把持するロボットが開発さ
れている。例えば2台のカメラ(ステレオカメラ)を用いて取得した画像情報から、ワー
クの3次元位置を算出することで、ロボットにワークを把持させることが可能になる。
Currently, a robot that grips a workpiece using image information acquired by a camera has been developed. For example, by calculating the three-dimensional position of the workpiece from image information acquired using two cameras (stereo cameras), the robot can grip the workpiece.

カメラによりワークを検出し、ロボットによる把持作業を行うためには、カメラが有す
る座標系(以下、カメラ座標系)とロボットが有する座標系(以下、ロボット座標系)が
校正されており、互いの座標系間を変換するパラメーターが求められている必要がある。
In order to detect a workpiece by a camera and perform a gripping operation by a robot, the coordinate system of the camera (hereinafter referred to as the camera coordinate system) and the coordinate system of the robot (hereinafter referred to as the robot coordinate system) are calibrated. It is necessary to obtain parameters for converting between coordinate systems.

カメラ座標系とロボット座標系の校正を行う方法としては、例えば特許文献1において
開示されているように、ロボット座標系とカメラ座標系の間に別の座標系(キャリブレー
ション治具の座標系)を介在させることにより、校正を行う方法がある。この校正により
、カメラ座標系からキャリブレーション治具の座標系へ、そしてキャリブレーション治具
の座標系からロボット座標系へと変換することが可能になる。
As a method of calibrating the camera coordinate system and the robot coordinate system, for example, as disclosed in Patent Document 1, another coordinate system (coordinate system of the calibration jig) is provided between the robot coordinate system and the camera coordinate system. There is a method of calibrating by interposing. This calibration enables conversion from the camera coordinate system to the calibration jig coordinate system and from the calibration jig coordinate system to the robot coordinate system.

特開平8−210816号公報JP-A-8-210816

しかし、前述した特許文献1等において開示されているような、ロボット座標系とカメ
ラ座標系の間に別の座標系(キャリブレーション治具の座標系)を介在させる手法では、
次のような課題がある。まず、第1に、ロボットによってキャリブレーション治具をタッ
チアップする必要があり、その際に、人の手による校正作業が必須である。第2に、ロボ
ットによるキャリブレーション冶具のタッチアップはジョグツール等を用いて行われるた
め、ジョグツールによるロボットの操作に作業者が慣れている必要がある。よって、作業
者がロボットの操作に未習熟である場合には、ロボットと撮像部とのキャリブレーション
(校正)を行うことが難しかった。
However, in the method of interposing another coordinate system (the coordinate system of the calibration jig) between the robot coordinate system and the camera coordinate system as disclosed in Patent Document 1 and the like described above,
There are the following problems. First, it is necessary to touch up a calibration jig by a robot, and at that time, calibration work by a human hand is essential. Second, since the touch-up of the calibration jig by the robot is performed using a jog tool or the like, the operator needs to be used to operating the robot with the jog tool. Therefore, when the operator is not familiar with the operation of the robot, it is difficult to perform calibration between the robot and the imaging unit.

本発明の一態様は、ロボットと、制御装置と、を含み、前記制御装置は、作業台に設け
られた物体に対してマーカーを形成させるマーカー形成動作を、前記ロボットに行わせ、
撮像部により前記マーカーを撮像して得られた撮像画像に基づいて、前記ロボットに対す
る前記撮像部の相対位置姿勢関係を特定するロボットシステムに関係する。
One aspect of the present invention includes a robot and a control device, and the control device causes the robot to perform a marker forming operation for forming a marker on an object provided on a work table.
The present invention relates to a robot system that specifies a relative position and orientation relationship of the imaging unit with respect to the robot based on a captured image obtained by imaging the marker by an imaging unit.

本発明の一態様では、作業台に設けられた物体に対し、マーカー形成動作をロボットに
行わせ、撮像部によりマーカーを撮像して得られた撮像画像に基づいて、ロボットに対す
る撮像部の相対位置姿勢関係を特定する。よって、作業者がロボットの操作に未習熟であ
る場合にも、ロボットと撮像部とのキャリブレーションを行うことが可能になる。
In one embodiment of the present invention, a relative position of an imaging unit with respect to a robot is determined based on a captured image obtained by causing a robot to perform a marker forming operation on an object provided on a workbench and imaging the marker by an imaging unit. Identify posture relationships. Therefore, even when the operator is not familiar with the operation of the robot, the robot and the imaging unit can be calibrated.

また、本発明の一態様では、前記マーカーは、前記ロボットのエンドエフェクターによ
って把持された把持物によって形成されるマーカーであってもよい。
In the aspect of the invention, the marker may be a marker formed by a gripped object gripped by an end effector of the robot.

これにより、ロボットが、作業台上の物体に対して自在にマーカーを形成すること等が
可能になる。
As a result, the robot can freely form a marker on the object on the work table.

また、本発明の一態様では、前記把持物は、スタンプであってもよい。   In one embodiment of the present invention, the grasped object may be a stamp.

これにより、ロボットが簡単な手順でマーカーを形成すること等が可能になる。   Thereby, it becomes possible for the robot to form markers by a simple procedure.

また、本発明の一態様では、前記制御装置は、前記撮像画像に基づいて、カメラ座標系
における前記マーカーの位置を特定し、前記マーカーの形成時に特定したロボット座標系
における前記マーカーの位置と、前記カメラ座標系における前記マーカーの位置とに基づ
いて、前記ロボットに対する前記撮像部の前記相対位置姿勢関係を特定してもよい。
In one aspect of the present invention, the control device specifies the position of the marker in a camera coordinate system based on the captured image, and the position of the marker in the robot coordinate system specified when the marker is formed; The relative position and orientation relationship of the imaging unit with respect to the robot may be specified based on the position of the marker in the camera coordinate system.

これにより、撮像画像上のマーカー位置から、ロボット座標系におけるマーカー位置を
求めること等が可能になる。
This makes it possible to obtain the marker position in the robot coordinate system from the marker position on the captured image.

また、本発明の一態様では、前記制御装置は、前記相対位置姿勢関係が特定された後に
、前記マーカー形成動作を前記ロボットに再実行させてもよい。
In the aspect of the invention, the control device may cause the robot to re-execute the marker forming operation after the relative position and orientation relationship is specified.

これにより、キャリブレーション時と同じマーカー形成動作をロボットが行うことがで
きるか否かを検証すること等が可能になる。
This makes it possible to verify whether or not the robot can perform the same marker forming operation as that during calibration.

また、本発明の一態様では、前記制御装置は、前記相対位置姿勢関係が特定された後、
前記ロボットによる作業の精度が低下した場合に、前記マーカー形成動作を前記ロボット
に再実行させ、前記マーカー形成動作の再実行後に前記撮像部から得られた撮像画像に基
づいて、前記作業の精度低下要因を特定してもよい。
In one aspect of the present invention, the control device, after the relative position and orientation relationship is specified,
When the accuracy of work by the robot is reduced, the robot performs the marker forming operation again, and the accuracy of the work is reduced based on a captured image obtained from the imaging unit after the re-execution of the marker forming operation. Factors may be specified.

これにより、作業精度の低下要因が、例えばロボット自体のメカ校正情報が変化したこ
とであるか、カメラとロボットの相対位置姿勢関係が変化したことであるか、又はカメラ
間の相対位置姿勢関係が変化したことであるかを判別すること等が可能となる。
As a result, the cause of the decrease in work accuracy is, for example, that the mechanical calibration information of the robot itself has changed, the relative position and orientation relationship between the camera and the robot has changed, or the relative position and orientation relationship between the cameras has changed. It is possible to determine whether the change has occurred.

また、本発明の一態様では、前記撮像部である第1撮像部と、前記第1撮像部とは異な
る第2撮像部と、を有していてもよい。
Moreover, in 1 aspect of this invention, you may have the 1st imaging part which is the said imaging part, and the 2nd imaging part different from the said 1st imaging part.

これにより、第1撮像部と第2撮像部についての再投影誤差を求めて、ロボットによる
作業精度の低下の原因を特定すること等が可能になる。
As a result, it is possible to determine the reprojection error for the first imaging unit and the second imaging unit, and to identify the cause of the decrease in work accuracy by the robot.

また、本発明の一態様では、前記制御装置は、前記相対位置姿勢関係が特定された後に
、前記マーカー形成動作を前記ロボットに再実行させ、前記マーカー形成動作の再実行後
において、前記第1撮像部から取得される第1撮像画像と、前記第2撮像部から取得され
る第2撮像画像とに基づいて、再投影誤差を求めてもよい。
In one aspect of the present invention, the control device causes the robot to re-execute the marker forming operation after the relative position / posture relationship is specified, and after the re-execution of the marker forming operation, the first controller The reprojection error may be obtained based on the first captured image acquired from the imaging unit and the second captured image acquired from the second imaging unit.

これにより、再投影誤差に基づいて、第1撮像部及び第2撮像部の相対位置姿勢が変化
しているか否かを判定すること等が可能になる。
Accordingly, it is possible to determine whether or not the relative position and orientation of the first imaging unit and the second imaging unit are changed based on the reprojection error.

また、本発明の一態様では、前記制御装置は、前記再投影誤差に基づいて、前記第1撮
像部及び前記第2撮像部の相対位置姿勢が変化しているか否かを判定してもよい。
In the aspect of the invention, the control device may determine whether a relative position and orientation of the first imaging unit and the second imaging unit are changed based on the reprojection error. .

これにより、再投影誤差が所与の閾値よりも大きい場合に、第1撮像部及び第2撮像部
の相対位置姿勢が、キャリブレーション時から変化していると判定すること等が可能にな
る。
Thereby, when the reprojection error is larger than a given threshold, it is possible to determine that the relative position and orientation of the first imaging unit and the second imaging unit have changed since the calibration.

また、本発明の一態様では、前記制御装置は、前記第1撮像画像における前記マーカー
の位置と、前記第1撮像部のカメラ内部パラメーターと、前記第1撮像画像上の位置から
前記第1撮像部の第1カメラ座標系における位置への位置変換パラメーターと、に基づい
て、前記第1カメラ座標系における前記マーカーの位置を特定し、前記第1カメラ座標系
における前記マーカーの位置と、前記第1カメラ座標系から前記第2撮像部の第2カメラ
座標系へのカメラ間位置変換パラメーターに基づいて、前記第2撮像画像上の前記マーカ
ーの推定位置を推定し、前記第2撮像画像に基づいて、前記第2撮像画像上の前記マーカ
ーの実際の位置を特定し、前記第2撮像画像上の前記マーカーの実際の位置と、前記推定
位置との差である前記再投影誤差を求めてもよい。
In the aspect of the invention, the control device may perform the first imaging from a position of the marker in the first captured image, a camera internal parameter of the first imaging unit, and a position on the first captured image. The position of the marker in the first camera coordinate system based on the position conversion parameter to the position in the first camera coordinate system of the unit, the position of the marker in the first camera coordinate system, and the first Based on the inter-camera position conversion parameter from one camera coordinate system to the second camera coordinate system of the second imaging unit, the estimated position of the marker on the second captured image is estimated, and based on the second captured image The actual position of the marker on the second captured image is specified, and the reprojection error that is the difference between the actual position of the marker on the second captured image and the estimated position is determined. The may be obtained.

これにより、第2撮像画像上で推定されるマーカーの位置と、第2撮像画像上に実際に
映るマーカーの位置との差に基づいて、第1撮像部と第2撮像部との相対位置姿勢が、キ
ャリブレーション時から変化しているか否かを判定すること等が可能になる。
Thereby, based on the difference between the position of the marker estimated on the second captured image and the position of the marker actually reflected on the second captured image, the relative position and orientation between the first imaging unit and the second imaging unit However, it is possible to determine whether or not the value has changed since the calibration.

また、本発明の一態様では、前記制御装置は、前記作業台上の前記物体に画像特徴量を
抽出可能な複数のマーカーを、前記ロボットに形成させてもよい。
In one aspect of the present invention, the control device may cause the robot to form a plurality of markers capable of extracting an image feature amount from the object on the work table.

これにより、キャリブレーションの精度や、作業精度の低下の原因の特定精度を向上さ
せること等が可能になる。
As a result, it is possible to improve the accuracy of calibration and the identification accuracy of the cause of the decrease in work accuracy.

また、本発明の他の態様は、作業台に設けられた物体に対してマーカーを形成するマー
カー形成動作を行い、撮像部により前記マーカーを撮像して得られた撮像画像に基づいて
、ロボットに対する前記撮像部の相対位置姿勢関係を特定するロボットに関係する。
According to another aspect of the present invention, a marker forming operation is performed to form a marker on an object provided on a workbench, and the robot is operated based on a captured image obtained by imaging the marker by an imaging unit. The present invention relates to a robot that specifies the relative position and orientation relationship of the imaging unit.

また、本発明の他の態様は、作業台に設けられた物体にマーカーを形成させる動作を、
ロボットに行わせる制御部と、前記マーカーを撮像して得られた撮像画像を、撮像部から
受け付ける画像受付部と、を含み、前記制御部は、前記撮像画像に基づいて、前記ロボッ
トに対する前記撮像部の相対位置姿勢関係を特定する制御装置に関係する。
In another aspect of the present invention, an operation of forming a marker on an object provided on a workbench is performed.
A control unit that causes the robot to perform imaging, and an image reception unit that receives a captured image obtained by imaging the marker from the imaging unit, and the control unit captures the image of the robot based on the captured image. The present invention relates to a control device that identifies the relative position and orientation relationship of parts.

また、本発明の他の態様は、作業台に設けられた物体にマーカーを形成させる動作を、
ロボットに行わせ、撮像部により前記マーカーを撮像して得られた撮像画像に基づいて、
前記ロボットに対する前記撮像部の相対位置姿勢関係を特定するロボットの制御方法に関
係する。
In another aspect of the present invention, an operation of forming a marker on an object provided on a workbench is performed.
Based on a captured image obtained by causing the robot to perform imaging of the marker by the imaging unit,
The present invention relates to a robot control method for specifying a relative position and orientation relationship of the imaging unit with respect to the robot.

本発明の幾つかの態様によれば、作業者がロボットの操作に未習熟である場合にも、ロ
ボットと撮像部とのキャリブレーションを行うことができるロボットシステム、ロボット
、制御装置及びロボットの制御方法等を提供することができる。
According to some aspects of the present invention, a robot system, a robot, a control device, and a robot control capable of calibrating a robot and an imaging unit even when an operator is not familiar with the operation of the robot A method or the like can be provided.

本実施形態のシステム構成例。The system configuration example of this embodiment. 本実施形態の他のシステム構成例。The other system configuration example of this embodiment. 図3(A)〜図3(D)は、マーカー形成処理の説明図。FIG. 3A to FIG. 3D are explanatory diagrams of marker formation processing. キャリブレーション処理の流れを説明するフローチャート。The flowchart explaining the flow of a calibration process. 図5(A)〜図5(C)は、キャリブレーション処理の説明図。FIG. 5A to FIG. 5C are explanatory diagrams of calibration processing. 精度低下の原因特定処理の流れを説明するフローチャート。The flowchart explaining the flow of the cause specific process of a precision fall. 図7(A)及び図7(B)は、キャリブレーション前後の撮像画像の説明図。FIGS. 7A and 7B are explanatory diagrams of captured images before and after calibration. 図8(A)及び図8(B)は、再投影誤差の説明図。8A and 8B are explanatory diagrams of reprojection errors. 図9(A)、図9(B)は、ロボットの構成例。9A and 9B are configuration examples of the robot. ネットワークを介してロボットを制御するロボット制御システムの構成例。1 is a configuration example of a robot control system that controls a robot via a network.

以下、本実施形態について説明する。なお、以下で説明する本実施形態は、特許請求の
範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明
される構成の全てが、本発明の必須構成要件であるとは限らない。
Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.概要
前述したように、例えば特許文献1の手法によりロボットと撮像部とのキャリブレーシ
ョン(校正)を行う際には、ロボットによってキャリブレーション治具をタッチアップす
る必要がある。タッチアップとは、ロボットのエンドポイントで任意の点に触れること、
言い換えればロボットのエンドポイントを任意の点の上に移動させることである。
1. Outline As described above, for example, when the calibration of the robot and the imaging unit is performed by the method of Patent Document 1, it is necessary to touch up the calibration jig by the robot. Touch-up refers to touching any point at the robot endpoint,
In other words, the robot end point is moved over an arbitrary point.

そして、その際には、人の手による校正作業が必須である。さらに、ロボットによるキ
ャリブレーション冶具のタッチアップは、ジョグツール等を用いて行われるため、ジョグ
ツールによるロボットの操作に作業者が慣れている必要がある。よって、作業者がロボッ
トの操作に未習熟である場合には、ロボットと撮像部とのキャリブレーションを行うこと
が難しかった。
In that case, calibration work by human hands is essential. Furthermore, since the touch-up of the calibration jig by the robot is performed using a jog tool or the like, the operator needs to be used to operating the robot by the jog tool. Therefore, when the worker is not familiar with the operation of the robot, it is difficult to perform calibration between the robot and the imaging unit.

そこで、以下で説明する本実施形態のロボットシステム等では、作業者がロボットの操
作に未習熟である場合にも、ロボットと撮像部とのキャリブレーションを行うことを可能
にする。
Therefore, in the robot system and the like of the present embodiment described below, it is possible to perform calibration between the robot and the imaging unit even when the operator is not familiar with the operation of the robot.

具体的に本実施形態では、例えば図3(A)〜図3(D)を用いて後述するように、ロ
ボットがエンドエフェクターによりスタンプ等を把持している。そして、キャリブレーシ
ョン時に、作業台に設けられた物体に対して、把持したスタンプをロボットが押し付けて
マーカーを形成する動作を行う。従来は、作業台上の物体にマーカーが事前に設けられて
おり、前述したように、そのマーカー(又はキャリブレーション冶具)にロボットがタッ
チアップすることで、ロボット座標系におけるマーカーの位置を検出し、キャリブレーシ
ョンを行っていた。これに対し、本実施形態では、ロボット自体がマーカー形成作業を行
うため、マーカー形成と同時に、ロボット座標系におけるマーカーの位置を特定すること
ができる。
Specifically, in the present embodiment, as will be described later with reference to FIGS. 3A to 3D, for example, the robot holds a stamp or the like with an end effector. Then, at the time of calibration, the robot presses the gripped stamp against the object provided on the work table to perform an operation of forming a marker. Conventionally, a marker is provided in advance on an object on a workbench, and the position of the marker in the robot coordinate system is detected by the robot touching up the marker (or calibration jig) as described above. Had been calibrated. On the other hand, in this embodiment, since the robot itself performs the marker forming operation, the marker position in the robot coordinate system can be specified simultaneously with the marker formation.

よって、キャリブレーション時にロボットが、キャリブレーション治具や、あらかじめ
設けられたマーカー等をタッチアップする必要がない。そのため、作業者がジョグツール
を用いてロボットを操作する必要もない。従って、作業者がロボットの操作に未習熟であ
る場合にも、ロボットと撮像部とのキャリブレーションを行うことが可能になる。
Therefore, it is not necessary for the robot to touch up a calibration jig or a marker provided in advance during calibration. This eliminates the need for the operator to operate the robot using the jog tool. Therefore, even when the operator is not familiar with the operation of the robot, the robot and the imaging unit can be calibrated.

また、ロボットと撮像部のキャリブレーション後には、ロボットが撮像部から得られる
撮像画像に基づいて各種作業を行うが、作業を繰り返し行っていくうちに、作業精度が低
下してしまう場合がある。例えば、キャリブレーション直後には、ワークを所定位置に正
確に置くことができていたのに、できなくなった場合等である。
In addition, after the calibration of the robot and the imaging unit, the robot performs various operations based on the captured image obtained from the imaging unit. However, the operation accuracy may decrease as the operation is repeated. For example, immediately after calibration, the workpiece can be accurately placed at a predetermined position but cannot be placed.

この場合には、作業精度の低下の原因を特定し、その原因を取り除くように対処する必
要がある。例えば、作業精度の低下の原因としては、第1に、ロボット自体のメカ校正情
報が変化したこと、第2に、カメラとロボットの位置関係が変化したこと、などが考えら
れる。さらに、ステレオカメラを用いる場合には、上記の2つの原因に加えて、2台のカ
メラの位置関係が変化したことも挙げられる。
In this case, it is necessary to identify the cause of the decrease in work accuracy and take measures to eliminate the cause. For example, the cause of the decrease in work accuracy is firstly that the mechanical calibration information of the robot itself has changed, and secondly that the positional relationship between the camera and the robot has changed. Furthermore, in the case of using a stereo camera, in addition to the above two causes, the positional relationship between the two cameras may be changed.

従来、作業精度の低下の原因を特定することは難しかったが、本実施形態では、後述す
る方法によって、作業精度の低下の原因を特定することが可能である。
Conventionally, it has been difficult to specify the cause of the decrease in work accuracy, but in this embodiment, the cause of the decrease in work accuracy can be specified by a method described later.

2.システム構成例
次に、本実施形態のロボットシステム、ロボット及び制御装置100等の構成例を図1
に示す。
2. System Configuration Example Next, a configuration example of the robot system, the robot and the control device 100 according to the present embodiment will be described with reference to FIG.
Shown in

本実施形態のロボットシステムは、ロボットと、制御装置100とを含む。そして、制
御装置100は、画像受付部110と、制御部120と、を含む。ロボットは、駆動機構
300を含み、駆動機構300は、エンドエフェクター310と、アーム320を有する
。また、ロボットシステムは、撮像部200を含んでいても良い。ただし、ロボットシス
テム、ロボット及び制御装置100は、図1の構成に限定されず、これらの一部の構成要
素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。さ
らに、ロボットは、図9(A)を用いて後述するように、制御装置100と別体であって
もよいし、図9(B)を用いて後述するように、制御装置100と一体であってもよい。
The robot system according to the present embodiment includes a robot and a control device 100. The control device 100 includes an image receiving unit 110 and a control unit 120. The robot includes a drive mechanism 300, and the drive mechanism 300 includes an end effector 310 and an arm 320. Further, the robot system may include the imaging unit 200. However, the robot system, the robot, and the control device 100 are not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components are possible. It is. Further, the robot may be a separate body from the control device 100 as will be described later with reference to FIG. 9A, or may be integrated with the control device 100 as will be described later with reference to FIG. 9B. There may be.

次に、各部の動作について説明する。   Next, the operation of each unit will be described.

制御部120は、作業台に設けられた物体にマーカーを形成するマーカー形成動作をロ
ボットに行わせる。なお、制御部120の機能は、各種プロセッサー(CPU等)、AS
IC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
The control unit 120 causes the robot to perform a marker forming operation for forming a marker on an object provided on the work table. The function of the control unit 120 includes various processors (CPU, etc.), AS
It can be realized by hardware such as an IC (gate array or the like), a program, or the like.

画像受付部110は、マーカーを撮像して得られた撮像画像を、撮像部200から受け
付ける。なお、画像受付部110は、撮像部200からの撮像画像を受け付けるインター
フェース部、或いは、有線及び無線の少なくとも一方を含むネットワークを介して撮像部
200からの撮像画像を受信する通信部などにより実現できる。
The image receiving unit 110 receives a captured image obtained by imaging the marker from the imaging unit 200. The image receiving unit 110 can be realized by an interface unit that receives a captured image from the imaging unit 200, or a communication unit that receives a captured image from the imaging unit 200 via a network including at least one of wired and wireless. .

そして、制御部120は、撮像画像に基づいて、ロボットに対する撮像部200の相対
位置姿勢関係を特定する。
Then, the control unit 120 specifies the relative position and orientation relationship of the imaging unit 200 with respect to the robot based on the captured image.

詳しい処理の内容は後述するが、本実施形態では前述した通り、キャリブレーション時
にロボットが、キャリブレーション治具や、あらかじめ設けられたマーカー等をタッチア
ップする必要がなく、作業者がジョグツールを用いてロボットを操作する必要もない。従
って、作業者がロボットの操作に未習熟である場合にも、ロボットと撮像部とのキャリブ
レーションを行うことが可能になる。
Although the details of the process will be described later, in this embodiment, as described above, the robot does not need to touch up the calibration jig or a marker provided in advance at the time of calibration, and the operator uses a jog tool. There is no need to operate the robot. Therefore, even when the operator is not familiar with the operation of the robot, the robot and the imaging unit can be calibrated.

また、マーカーは、例えばロボットのエンドエフェクター310によって把持された把
持物によって形成されるマーカーである。
The marker is a marker formed by a gripped object gripped by the end effector 310 of the robot, for example.

そのため、ロボットがエンドエフェクター310の位置姿勢を制御して、作業台上の物
体に把持物を押し付けること等が可能になる。これにより、ロボットが、作業台上の物体
に対して自在にマーカーを形成すること等が可能になる。
Therefore, it becomes possible for the robot to control the position and orientation of the end effector 310 to press the gripped object against the object on the work table. As a result, the robot can freely form a marker on the object on the work table.

ここで、マーカーとは、目印として利用することができる文字、図形、記号、模様もし
くは立体的形状もしくはこれらの結合又はこれらと色彩との結合を形成する有体物で、物
体に固定可能なものである。
Here, the marker is a tangible object that can be used as a mark, a character, a figure, a symbol, a pattern, a three-dimensional shape, a combination thereof, or a combination of these and a color, and can be fixed to an object. .

そして、把持物は、例えばスタンプである。把持物がスタンプである場合には、マーカ
ーは、スタンプにより作業台上の物体に転写される印影である。把持物がスタンプである
場合には、ロボットが簡単な手順でマーカーを形成すること等が可能になる。ただし、本
実施形態はそれに限定されず、マーカーは例えばシールやステッカー、ラベル等であって
もよい。なお、マーカーの形状や、色彩、模様等がどのようなものであるかは問わないが
、マーカーを安定して検出する上で、他の領域と区別しやすいもの、例えば白い領域に対
し黒色からなる画像やシールなどが望ましい。さらに、マーカーは、QR(Quick Respon
se)コードや、AR(Augmented Reality)マーカーなどであってもよい。
The grasped object is, for example, a stamp. When the gripping object is a stamp, the marker is an imprint transferred to the object on the work table by the stamp. When the grasped object is a stamp, the robot can form a marker by a simple procedure. However, this embodiment is not limited thereto, and the marker may be, for example, a seal, a sticker, a label, or the like. It doesn't matter what the shape, color, pattern, etc. of the marker is, but it can be easily distinguished from other areas for stable detection of the marker, for example, black for white areas An image or a sticker is desirable. Furthermore, the marker is QR (Quick Respon
se) code or AR (Augmented Reality) marker.

また、制御装置100は、作業台上の物体に画像特徴量を抽出可能な複数のマーカーを
、ロボットに形成させてもよい。
Further, the control device 100 may cause the robot to form a plurality of markers capable of extracting the image feature amount on the object on the work table.

これにより、キャリブレーションの精度や、作業精度の低下の原因の特定精度を向上さ
せること等が可能になる。
As a result, it is possible to improve the accuracy of calibration and the identification accuracy of the cause of the decrease in work accuracy.

また、ロボットシステムは、図2に示すように、第1撮像部200と、第1撮像部20
0とは異なる第2撮像部250と、を有していてもよい。つまり、図1を用いて前述した
撮像部200はステレオカメラであってもよい。
Further, as shown in FIG. 2, the robot system includes a first imaging unit 200 and a first imaging unit 20.
A second imaging unit 250 different from 0 may be included. That is, the imaging unit 200 described above with reference to FIG. 1 may be a stereo camera.

これにより、第1撮像部200と第2撮像部250についての再投影誤差を求めて、ロ
ボットによる作業精度の低下の原因を特定すること等が可能になる。本処理の詳細につい
ては、後述する。
As a result, it is possible to determine the reprojection error for the first imaging unit 200 and the second imaging unit 250 and to identify the cause of the decrease in work accuracy by the robot. Details of this processing will be described later.

3.キャリブレーション処理の詳細
本実施形態のキャリブレーション処理は、撮像部のカメラ座標系とロボットのロボット
座標系の相対位置姿勢関係を特定する処理である。言い換えれば、カメラ座標系の任意の
位置を、ロボット座標系での位置に変換するための変換パラメーターを正確に特定する処
理である。そして最終的には、撮像画像上の位置からロボット座標系での位置への変換パ
ラメーターを求める。よって、キャリブレーション処理が正常に行われた場合には、撮像
画像の任意の点の位置を、ロボット座標系での位置に正確に変換することができるように
なる。
3. Details of Calibration Processing The calibration processing according to the present embodiment is processing for specifying the relative position and orientation relationship between the camera coordinate system of the imaging unit and the robot coordinate system of the robot. In other words, this is processing for accurately specifying a conversion parameter for converting an arbitrary position in the camera coordinate system into a position in the robot coordinate system. Finally, a conversion parameter from the position on the captured image to the position in the robot coordinate system is obtained. Therefore, when the calibration process is normally performed, the position of an arbitrary point in the captured image can be accurately converted to a position in the robot coordinate system.

その際に本実施形態では、制御装置100が、マーカーの形成時にロボット座標系にお
けるマーカーの位置を特定し、撮像画像に基づいて、カメラ座標系におけるマーカーの位
置を特定する。そして制御装置100は、ロボット座標系におけるマーカーの位置と、カ
メラ座標系におけるマーカーの位置とに基づいて、ロボットに対する撮像部200の相対
位置姿勢関係を特定する。
At this time, in the present embodiment, the control device 100 specifies the position of the marker in the robot coordinate system when the marker is formed, and specifies the position of the marker in the camera coordinate system based on the captured image. Then, the control device 100 specifies the relative position and orientation relationship of the imaging unit 200 with respect to the robot based on the marker position in the robot coordinate system and the marker position in the camera coordinate system.

ここで、本キャリブレーション処理において特定するカメラ座標系とロボット座標系と
の相対位置姿勢関係とは、具体的にはカメラ座標系からロボット座標系への変換行列など
を指す。
Here, the relative position and orientation relationship between the camera coordinate system and the robot coordinate system specified in this calibration process specifically refers to a transformation matrix from the camera coordinate system to the robot coordinate system.

次に、本実施形態のキャリブレーション処理の詳細な流れについて、図3(A)〜図3
(D)、図4のフローチャート及び図5(A)〜図5(C)を用いて説明する。図3(A
)〜図3(D)の例では、第1撮像部CM1と第2撮像部CM2を用いて、ロボットRB
の作業状況を撮像するものとする。また、キャリブレーション後には、例えばロボットR
Bにより不図示のワークを把持して、把持したワークを作業台WA上に移動させる作業を
行うものとする。
Next, the detailed flow of the calibration process of the present embodiment will be described with reference to FIGS.
This will be described with reference to (D), the flowchart of FIG. 4 and FIGS. 5 (A) to 5 (C). FIG.
In the example of FIG. 3D, the robot RB is used by using the first imaging unit CM1 and the second imaging unit CM2.
It is assumed that an image of the work situation of In addition, after calibration, for example, the robot R
It is assumed that a work (not shown) is gripped by B and the gripped work is moved onto the work table WA.

まず、図3(A)に示すように、後にワークが置かれる予定の作業台WA上に紙PPを
置く。なお、作業台WA上に置く物体は紙PP以外の物であってもよい。また、ロボット
RBにはあらかじめ、作業台WAまでの距離情報を記憶させておく。ただし、例えばロボ
ットのハンドが力覚センサーを有している等、ロボットRBのハンド等が作業台に触れた
ことを検知可能な場合には、作業台までの距離情報を記憶させておかなくてもよい。
First, as shown in FIG. 3A, paper PP is placed on a work bench WA on which a work is to be placed later. Note that the object placed on the work table WA may be an object other than the paper PP. In addition, distance information to the work table WA is stored in the robot RB in advance. However, if it is possible to detect that the hand of the robot RB touches the work table, for example, the robot hand has a force sensor, the distance information to the work table must not be stored. Also good.

次に、図3(B)に示すように、ロボットRBの手先位置、あるいはその付近にスタン
プを持たせて固定する。
Next, as shown in FIG. 3B, a stamp is provided at or near the hand position of the robot RB and fixed.

そして、図3(C)に示すように、紙PPの上に3点以上、スタンプをロボットRBに
押させて、3つのマーカーMKを形成する(図4のS101)。なお、スタンプを押す位
置は、紙PPの上であれば、どの位置でもよい。
Then, as shown in FIG. 3C, the robot RB is pressed with three or more stamps on the paper PP to form three markers MK (S101 in FIG. 4). The position where the stamp is pressed may be any position on the paper PP.

そして、制御装置100は、ロボット座標系においてスタンプを押下した位置(マーカ
ー位置)を計算し、不図示の記憶部に記憶する(S102)。なお、ロボット座標系にお
けるマーカー位置は、アームのジョイント角、リンク長、スタンプの長さから計算可能で
ある。
Then, the control device 100 calculates a position (marker position) where the stamp is pressed in the robot coordinate system, and stores it in a storage unit (not shown) (S102). The marker position in the robot coordinate system can be calculated from the joint angle of the arm, the link length, and the stamp length.

次にスタンプの押下終了後に、図3(D)に示すように、第1撮像部CM1と第2撮像
部CM2により、3つのマーカーMKを撮像して、制御装置100が二枚の撮像画像を取
得する(S103)。なお、以下では、第1撮像部CM1により撮像された撮像画像を第
1撮像画像、第2撮像部CM2により撮像された撮像画像を第2撮像画像、第1撮像部C
M1についてのカメラ座標系を第1カメラ座標系、第2撮像部CM2についてのカメラ座
標系を第2カメラ座標系と呼ぶ。
Next, after the pressing of the stamp is finished, as shown in FIG. 3D, the first imaging unit CM1 and the second imaging unit CM2 capture three markers MK, and the control device 100 generates two captured images. Obtain (S103). Hereinafter, the captured image captured by the first imaging unit CM1 is the first captured image, the captured image captured by the second imaging unit CM2 is the second captured image, and the first imaging unit C.
The camera coordinate system for M1 is referred to as a first camera coordinate system, and the camera coordinate system for the second imaging unit CM2 is referred to as a second camera coordinate system.

そして、制御装置100は、図5(A)に示すように、第1撮像部CM1のカメラ内部
パラメーターに基づいて、第1撮像画像IM1上のマーカー位置を、第1カメラ座標系C
C1における位置に変換する(S104)。ここでは、例えば、第1撮像画像IM1に映
る点Bの位置を、第1カメラ座標系CC1における位置C12Bに変換する。また、カメ
ラ内部パラメーターとは、焦点距離や画像の中心点(言い換えれば、撮像センサーの中心
点)などのパラメーターのことである。そして、図5(A)に示す、第1撮像画像IM1
上の位置から第1カメラ座標系CC1での位置C12Bへの変換パラメーターD1は、カ
メラ内部パラメーターに基づいて求められる。
Then, as illustrated in FIG. 5A, the control device 100 determines the marker position on the first captured image IM1 based on the camera internal parameters of the first imaging unit CM1 in the first camera coordinate system C.
The position is converted to the position in C1 (S104). Here, for example, the position of the point B shown in the first captured image IM1 is converted to a position C12B in the first camera coordinate system CC1. The camera internal parameters are parameters such as a focal length and an image center point (in other words, an image sensor center point). Then, the first captured image IM1 shown in FIG.
A conversion parameter D1 from the upper position to the position C12B in the first camera coordinate system CC1 is obtained based on camera internal parameters.

また、第2撮像部CM2についても同様に位置変換処理を行う(S105)。これによ
り、第1カメラ座標系及び第2カメラ座標系におけるマーカー位置を特定することができ
る。
Similarly, the position conversion process is performed for the second imaging unit CM2 (S105). Thereby, the marker position in the first camera coordinate system and the second camera coordinate system can be specified.

次に、図5(B)に示すように、制御装置100は、ロボット座標系RCのマーカーの
位置R2Bと、第1カメラ座標系CC1のマーカーの位置C12Bに基づいて、第1撮像
部CM1の外部パラメーターのキャリブレーションを行う(S106)。ここで、外部パ
ラメーターとは、ロボット座標系RCの原点の位置を、第1カメラ座標系CC1の原点の
位置に変換(又は逆変換)するために用いる位置変換パラメーターである。外部パラメー
ターは、例えば回転行列と並進行列等により表される。つまり、ステップS106では、
ロボット座標系RCのマーカーの位置R2Bと、第1カメラ座標系CC1のマーカーの位
置C12Bを、D2で示すように変換する外部パラメーターが正確な値に校正される。
Next, as illustrated in FIG. 5B, the control device 100 determines the first imaging unit CM1 based on the marker position R2B of the robot coordinate system RC and the marker position C12B of the first camera coordinate system CC1. Calibration of external parameters is performed (S106). Here, the external parameter is a position conversion parameter used for converting (or inversely converting) the position of the origin of the robot coordinate system RC into the position of the origin of the first camera coordinate system CC1. The external parameter is represented by, for example, a rotation matrix and a parallel progression. That is, in step S106,
The external parameter for converting the marker position R2B of the robot coordinate system RC and the marker position C12B of the first camera coordinate system CC1 as indicated by D2 is calibrated to an accurate value.

同様にして、制御装置100は、ロボット座標系のマーカーの位置と、第2カメラ座標
系のマーカーの位置に基づいて、第2撮像部CM2の外部パラメーターのキャリブレーシ
ョンを行う(S107)。
Similarly, the control device 100 calibrates external parameters of the second imaging unit CM2 based on the position of the marker in the robot coordinate system and the position of the marker in the second camera coordinate system (S107).

その後に、第1撮像部CM1についての外部パラメーターと、第2撮像部CM2につい
ての外部パラメーターに基づいて、ステレオパラメーターのキャリブレーションを行って
(S108)、処理を終了する。ここで、ステレオパラメーターとは、2つのカメラを用
いて三角測量の原理で3次元位置を求めるためのパラメーターである。ステレオパラメー
ターは、第1撮像部CM1のカメラ内部パラメーターと、第2撮像部CM2のカメラ内部
パラメーター、カメラ間の位置変換パラメーターを含む。正確に校正されたステレオパラ
メーターを用いれば、2枚の撮像画像に映った特定の点を、ロボット座標系RBにおける
位置に変換することができる。例えば、図5(C)に示すように、第1撮像画像IM1と
第2撮像画像IM2に映る点Bの位置から、D3で示すように、ロボット座標系RCにお
ける位置R2Bを求めることができる。
After that, calibration of stereo parameters is performed based on the external parameters for the first imaging unit CM1 and the external parameters for the second imaging unit CM2 (S108), and the process ends. Here, the stereo parameter is a parameter for obtaining a three-dimensional position on the principle of triangulation using two cameras. The stereo parameters include camera internal parameters of the first imaging unit CM1, camera internal parameters of the second imaging unit CM2, and position conversion parameters between the cameras. If a stereo parameter that is accurately calibrated is used, a specific point shown in two captured images can be converted into a position in the robot coordinate system RB. For example, as shown in FIG. 5C, the position R2B in the robot coordinate system RC can be obtained from the position of the point B appearing in the first captured image IM1 and the second captured image IM2, as indicated by D3.

また、ステレオパラメーターを用いれば、図5(C)のD4の矢印で示すように、片方
の撮像画像(IM1)に映った点(B)の位置が他方の撮像画像(IM2)ではどこに映
るかも計算することができる。
If the stereo parameter is used, as indicated by the arrow D4 in FIG. 5C, where the position of the point (B) reflected in one captured image (IM1) appears in the other captured image (IM2). Can be calculated.

これにより、撮像画像上のマーカー位置から、ロボット座標系におけるマーカー位置を
求めること等が可能になる。また、特別な校正治具等を用いずにカメラとロボットの校正
を自動化すること等が可能になる。
This makes it possible to obtain the marker position in the robot coordinate system from the marker position on the captured image. Further, it is possible to automate the calibration of the camera and the robot without using a special calibration jig or the like.

ただし、本実施形態のキャリブレーション処理は、図4のフローチャートに示す流れに
限定されず、一部の処理内容を変更したり、処理の順序を入れ替えたりするなどの種々の
変形実施が可能である。例えば、上記のステップS108では、2つの外部パラメーター
からステレオパラメーターを求めたが、外部パラメーターからではなく、撮像画像上のマ
ーカー位置と、ロボット座標系での各マーカー位置に基づいて、ステレオパラメーターを
求めることも可能である。さらに、他にも撮像画像上のマーカー位置と、マーカー座標系
での各マーカー位置に基づいて、ステレオパラメーターを求めることも可能である。
However, the calibration processing of the present embodiment is not limited to the flow shown in the flowchart of FIG. 4, and various modifications such as changing part of the processing contents or changing the processing order are possible. . For example, in step S108 described above, the stereo parameter is obtained from the two external parameters, but the stereo parameter is obtained based on the marker position on the captured image and each marker position in the robot coordinate system, not on the external parameter. It is also possible. Furthermore, stereo parameters can also be obtained based on the marker position on the captured image and each marker position in the marker coordinate system.

4.作業精度低下の原因特定処理の詳細
前述したように、ロボットと撮像部のキャリブレーション後には、ロボットが撮像部か
ら得られる撮像画像に基づいて各種作業を行うが、作業を繰り返し行っていくうちに、作
業精度が低下してしまう場合がある。本実施形態では、図6のフローチャートに示す処理
を行うことによって、キャリブレーション後の作業精度の低下の原因を特定する。
4). Details of the process of identifying the cause of work accuracy degradation As described above, after calibration of the robot and the imaging unit, the robot performs various tasks based on the captured image obtained from the imaging unit. In some cases, work accuracy may be reduced. In the present embodiment, the cause of the decrease in work accuracy after calibration is specified by performing the processing shown in the flowchart of FIG.

まず、キャリブレーション時と同じ様に作業台に紙を置き、ロボットにスタンプを持た
せ、キャリブレーション時と同じ姿勢でスタンプを押下する(S201)。
First, paper is placed on the work table in the same way as in calibration, the robot is given a stamp, and the stamp is pressed in the same posture as in calibration (S201).

次に、制御装置100が、押下したスタンプとスタンプの間の距離がキャリブレーショ
ン時と同じか否かを判定する(S202)。
Next, the control device 100 determines whether or not the distance between the pressed stamp is the same as that at the time of calibration (S202).

例えば、図7(A)及び図7(B)にその一例を示す。図7(A)には、キャリブレー
ション時の(第1)撮像画像BIMを、図7(B)には、ステップS201において取得
した(第1)撮像画像AIMを示す。撮像画像BIMには、マーカーA及びマーカーB
が、Δ1の間隔で形成されている様子が映っている。これに対し、撮像画像AIMには
、マーカーAに対応するマーカーAと、マーカーBに対応するマーカーBとが、
Δ1よりも大きいΔ2の間隔で形成されている様子が映っている。すなわち、図7(A)
及び図7(B)の例では、押下したスタンプとスタンプの間の距離がキャリブレーション
時と違っていると判定できる。なお、この判定では、所定の誤差範囲を設けて、スタンプ
間の距離が所定の誤差範囲内か否かを判定し、所定の誤差範囲内であれば、キャリブレー
ション時と同じであると判定し、所定の誤差範囲外であれば、キャリブレーション時と異
なると判定してもよい。
For example, FIGS. 7A and 7B show an example. FIG. 7A shows the (first) captured image BIM at the time of calibration, and FIG. 7B shows the (first) captured image AIM acquired in step S201. The captured image BIM includes a marker A 1 and a marker B
It can be seen that 1 is formed at intervals of Δ1. In contrast, the captured image AIM, the marker A 2 corresponding to the marker A 1, and the marker B 2 corresponding to the marker B 1,
It can be seen that they are formed at an interval of Δ2 that is larger than Δ1. That is, FIG.
In the example of FIG. 7B, it can be determined that the distance between the pressed stamp is different from that at the time of calibration. In this determination, a predetermined error range is provided to determine whether the distance between the stamps is within the predetermined error range. If the distance is within the predetermined error range, it is determined that the calibration is the same as at the time of calibration. If it is out of the predetermined error range, it may be determined that it is different from that at the time of calibration.

そして、制御装置100が、押下したスタンプとスタンプの間の距離がキャリブレーシ
ョン時と著しく違っていると判定した場合には、メカ校正情報が変化していると判定する
(S203)。
When the control device 100 determines that the distance between the pressed stamps is significantly different from that at the time of calibration, it determines that the mechanical calibration information has changed (S203).

一方、制御装置100が、押下したスタンプとスタンプの間の距離がキャリブレーショ
ン時と同じであると判定した場合には、ステップS201において押下したスタンプの撮
像画像上での位置を算出し、再投影誤差を求める。なお、再投影誤差については、後に詳
しく説明する。
On the other hand, if the control device 100 determines that the distance between the pressed stamp is the same as that at the time of calibration, the position of the pressed stamp on the captured image is calculated and reprojected in step S201. Find the error. The reprojection error will be described in detail later.

そして、制御装置100は、算出した再投影誤差が、所定の誤差範囲内か否かを判定し
、所定の誤差範囲外であれば、2台のカメラ間の位置関係が変化していると判定する(S
205)。
Then, the control device 100 determines whether or not the calculated reprojection error is within a predetermined error range. If the calculated reprojection error is outside the predetermined error range, it is determined that the positional relationship between the two cameras has changed. (S
205).

一方、制御装置100は、算出した再投影誤差が所定の誤差範囲内であると判定した場
合には、カメラとロボットとの位置関係が変化していると判定する(S206)。
On the other hand, when determining that the calculated reprojection error is within a predetermined error range, the control device 100 determines that the positional relationship between the camera and the robot has changed (S206).

以上の処理を行うことによって、作業精度の低下の原因が、ロボット自体のメカ校正情
報が変化したことであるか、カメラとロボットの位置関係が変化したことであるか、又は
2台のカメラの位置関係が変化したことであるかを判別することが可能となる。その結果
、ロボットのビジョンを用いた作業に置いて、精度低下した際に再校正が必要なパラメー
ターを容易に特定することができる。
By performing the above processing, the cause of the decrease in work accuracy is that the mechanical calibration information of the robot itself has changed, the positional relationship between the camera and the robot has changed, or the two cameras have It is possible to determine whether the positional relationship has changed. As a result, it is possible to easily specify a parameter that needs to be recalibrated when the accuracy is lowered in an operation using the vision of the robot.

ここで、作業精度低下の原因特定処理についてまとめる。まず、作業精度とは、ロボッ
トによる同一の作業又は先に行った作業と対応する作業の再現性の高さのことをいう。例
えば、作業台上の任意の点を繰り返しタッチアップする作業を行う場合には、同一の点を
タッチアップできている時には、作業精度の再現性は高いと判断できる。一方、ロボット
がタッチアップする点と元の点のずれが大きくなった場合には、ずれに応じて、作業精度
の再現性は低くなる。
Here, the cause identifying process for the reduction in work accuracy will be summarized. First, work accuracy refers to the high reproducibility of work corresponding to the same work performed by a robot or work performed earlier. For example, when an operation of repeatedly touching up an arbitrary point on the workbench is performed, it can be determined that the reproducibility of the work accuracy is high when the same point can be touched up. On the other hand, when the deviation between the point where the robot touches up and the original point becomes large, the reproducibility of the work accuracy decreases according to the deviation.

また、本実施形態で行う作業は全く同一の作業でなくてもよく、先に行った作業と対応
する作業であればよい。例えば、ロボットがワークをピックアップする作業を行う場合に
は、各ワークが置かれている位置はそれぞれ異なるが、作業内容自体は同様である。つま
り、この作業は、先に行った作業と対応する作業であると言える。この場合には、ワーク
を正常にピックアップできている場合には、作業精度が高く、ワークを正常にピックアッ
プできなくなれば、作業精度が低いと判断することができる。
Further, the work performed in the present embodiment may not be the same work as long as it is a work corresponding to the work performed previously. For example, when a robot performs a work of picking up a work, the position where each work is placed is different, but the work content itself is the same. That is, it can be said that this work corresponds to the work performed previously. In this case, if the workpiece can be picked up normally, the work accuracy is high. If the workpiece cannot be picked up normally, it can be determined that the work accuracy is low.

そして、本実施形態では、制御装置100が、前述したロボットに対する撮像部の相対
位置姿勢関係が特定された後に、マーカー形成動作をロボットに再実行させる。
In the present embodiment, the control device 100 causes the robot to re-execute the marker forming operation after the relative position and orientation relationship of the imaging unit with respect to the robot is specified.

これにより、キャリブレーション時と同じマーカー形成動作をロボットが行うことがで
きるか否かを検証すること等が可能になる。
This makes it possible to verify whether or not the robot can perform the same marker forming operation as that during calibration.

また、制御装置100は、相対位置姿勢関係が特定された後、ロボットによる作業の精
度が低下した場合に、マーカー形成動作をロボットに再実行させ、マーカー形成動作の再
実行後に撮像部200から得られた撮像画像に基づいて、作業の精度低下要因を特定して
もよい。
In addition, the control device 100 causes the robot to re-execute the marker forming operation when the accuracy of the operation by the robot decreases after the relative position and orientation relationship is specified, and obtains from the imaging unit 200 after the re-execution of the marker forming operation. Based on the obtained captured image, a factor that reduces the accuracy of work may be specified.

これにより、前述したように、作業精度の低下要因が、例えばロボット自体のメカ校正
情報が変化したことであるか、カメラとロボットの位置関係が変化したことであるか、又
は2台のカメラの位置関係が変化したことであるかを判別すること等が可能となる。
As a result, as described above, the cause of the decrease in work accuracy is, for example, that the mechanical calibration information of the robot itself has changed, the positional relationship between the camera and the robot has changed, or the two cameras It becomes possible to determine whether or not the positional relationship has changed.

また、制御装置100は、相対位置姿勢関係が特定された後に、マーカー形成動作をロ
ボットに再実行させ、マーカー形成動作の再実行後において、第1撮像部200から取得
される第1撮像画像と、第2撮像部250から取得される第2撮像画像とに基づいて、再
投影誤差を求めてもよい。
In addition, the control device 100 causes the robot to re-execute the marker formation operation after the relative position and orientation relationship is specified, and the first captured image acquired from the first imaging unit 200 after the re-execution of the marker formation operation The reprojection error may be obtained based on the second captured image acquired from the second imaging unit 250.

これにより、制御装置100は、再投影誤差に基づいて、第1撮像部200及び第2撮
像部250の相対位置姿勢が変化しているか否かを判定すること等が可能になる。例えば
、再投影誤差が所与の閾値よりも大きい場合に、第1撮像部及び第2撮像部の相対位置姿
勢が、キャリブレーション時から変化していると判定すること等が可能になる。そして、
第1撮像部200及び第2撮像部250の相対位置姿勢が変化していると判定した場合に
は、第1撮像部200及び第2撮像部250の位置姿勢をキャリブレーション時と同じ位
置姿勢になるように調整すること等が可能になる。
Accordingly, the control device 100 can determine whether or not the relative position and orientation of the first imaging unit 200 and the second imaging unit 250 are changed based on the reprojection error. For example, when the reprojection error is larger than a given threshold, it is possible to determine that the relative positions and orientations of the first imaging unit and the second imaging unit have changed since the calibration. And
When it is determined that the relative positions and orientations of the first imaging unit 200 and the second imaging unit 250 have changed, the positions and orientations of the first imaging unit 200 and the second imaging unit 250 are set to the same position and orientation as at the time of calibration. It is possible to adjust so as to be.

さらに、再投影誤差に基づいて、ロボットと撮像部の相対位置姿勢がキャリブレーショ
ン時と変化しているか否かも判定することができる。
Furthermore, based on the reprojection error, it can also be determined whether or not the relative position and orientation of the robot and the imaging unit have changed from those at the time of calibration.

ここで、再投影誤差とは、第1撮像部200で取得したマーカーの画像位置、第1撮像
部200のカメラ内部パラメーター及びカメラ間位置変換パラメーターに基づいて計算さ
れた第2撮像画像上のマーカーの画像位置と、実際に第2撮像部で取得したマーカーの画
像位置との誤差である。簡潔に言い換えれば、再投影誤差とは、第2撮像画像上でのマー
カーの推定位置と、実際の画像上の位置との差である。なお、この再投影誤差の説明にお
いて、第1撮像部200と第2撮像部250を入れ替えても良い。
Here, the reprojection error is a marker on the second captured image calculated based on the image position of the marker acquired by the first image capturing unit 200, the camera internal parameter of the first image capturing unit 200, and the inter-camera position conversion parameter. And the image position of the marker actually acquired by the second imaging unit. In short, the reprojection error is a difference between the estimated position of the marker on the second captured image and the position on the actual image. In the description of the reprojection error, the first imaging unit 200 and the second imaging unit 250 may be interchanged.

すなわち、制御装置100は、第1撮像画像におけるマーカーの位置と、第1撮像部2
00のカメラ内部パラメーターと、第1撮像画像上の位置から第1撮像部200の第1カ
メラ座標系における位置への位置変換パラメーターと、に基づいて、第1カメラ座標系に
おけるマーカーの位置を特定する。そして、制御装置100は、第1カメラ座標系におけ
るマーカーの位置と、第1カメラ座標系から第2撮像部250の第2カメラ座標系へのカ
メラ間位置変換パラメーターに基づいて、第2撮像画像上のマーカーの推定位置を推定す
る。最後に、制御装置100は、第2撮像画像に基づいて、第2撮像画像上のマーカーの
実際の位置を特定し、第2撮像画像上のマーカーの実際の位置と、推定位置との差である
再投影誤差を求める。
That is, the control device 100 determines the position of the marker in the first captured image and the first imaging unit 2.
The position of the marker in the first camera coordinate system is specified based on the camera internal parameter of 00 and the position conversion parameter from the position on the first captured image to the position in the first camera coordinate system of the first imaging unit 200 To do. Then, the control device 100 determines the second captured image based on the marker position in the first camera coordinate system and the inter-camera position conversion parameter from the first camera coordinate system to the second camera coordinate system of the second imaging unit 250. Estimate the estimated position of the upper marker. Finally, the control device 100 identifies the actual position of the marker on the second captured image based on the second captured image, and calculates the difference between the actual position of the marker on the second captured image and the estimated position. Find some reprojection error.

例えば、図8(A)及び図8(B)にその一例を示す。図8(A)には第1撮像画像I
M1を、図8(B)には、実際に第2撮像部250により撮像されて取得された第2撮像
画像IM2を示す。第1撮像画像IM1及び第2撮像画像IM2には、マーカーA及び
マーカーBが形成されている様子が映っている。ただし、第1撮像画像IM1及び第2
撮像画像IM2では、2台の撮像部の位置姿勢が違うために、マーカーA及びマーカー
が映っている位置が互いにずれている。さらに、図8(B)の第2撮像画像IM2に
は、第1撮像画像IM1におけるマーカーA及びマーカーBの位置と、カメラ内部パ
ラメーター及びカメラ間位置変換パラメーターに基づいて推定したマーカーA及びマー
カーBを重ねて図示している。図8(B)において、マーカーAとマーカーAの位
置、マーカーBとマーカーBの位置は、それぞれ同じマーカーの位置を示すものであ
るが、マーカーA及びマーカーBの位置は各種パラメーターに基づいて推定されたも
のであり、実際のマーカー位置とは異なる場合がある。本来であれば、第2撮像画像上で
、推定されたマーカー位置と実際に映るマーカー位置が一致すれば良いが、図8(B)の
例では、不一致であるため、再投影誤差があることになる。この場合には、第1撮像部2
00と第2撮像部250との相対位置姿勢が、キャリブレーション時から変化していると
判定することができる。
For example, FIGS. 8A and 8B show an example. FIG. 8A shows the first captured image I.
FIG. 8B illustrates M1 as a second captured image IM2 actually captured by the second imaging unit 250 and acquired. The first image IM1 and the second image IM2, is reflected how the markers A 1 and marker B 1 is formed. However, the first captured image IM1 and the second captured image
In the captured image IM2, for the position and orientation of the two imaging unit is different, the position is reflected marker A 1 and marker B 1 is are offset from each other. Furthermore, in the second captured image IM2 in FIG. 8B, the marker A 2 estimated based on the positions of the markers A 1 and B 1 in the first captured image IM1, the camera internal parameters, and the inter-camera position conversion parameters. and it is shown superimposed marker B 2. In FIG. 8B, the positions of the marker A 1 and the marker A 2 and the positions of the marker B 1 and the marker B 2 indicate the same marker position, respectively, but the positions of the marker A 2 and the marker B 2 are It is estimated based on various parameters and may be different from the actual marker position. Originally, it is only necessary that the estimated marker position and the actually reflected marker position match on the second captured image. However, in the example of FIG. 8B, there is a reprojection error because they do not match. become. In this case, the first imaging unit 2
It can be determined that the relative position and orientation between 00 and the second imaging unit 250 have changed since calibration.

このように、第2撮像画像上で推定されるマーカーの位置と、第2撮像画像上に実際に
映るマーカーの位置との差(再投影誤差)に基づいて、第1撮像部200と第2撮像部2
50との相対位置姿勢が、キャリブレーション時から変化しているか否かを判定すること
等が可能になる。なお、キャリブレーション時と、ステップS201で映ったマーカーの
画像位置が違っていても、2台のカメラ間の距離が同じであれば再投影誤差も同様の値が
得られる。
Thus, based on the difference (reprojection error) between the position of the marker estimated on the second captured image and the position of the marker actually reflected on the second captured image, the first imaging unit 200 and the second Imaging unit 2
It is possible to determine whether or not the relative position and orientation with respect to 50 has changed since calibration. Even if the image position of the marker shown in step S201 is different from that at the time of calibration, the same value can be obtained for the reprojection error if the distance between the two cameras is the same.

5.ロボット
次に、図9(A)及び図9(B)に、本実施形態のロボットの構成例を示す。図9(A
)及び図9(B)のどちらの場合にも、ロボット機構(駆動機構)300は、エンドエフ
ェクター(ハンド)310と、アーム320と、を有する。なお、図9(A)のロボット
は単腕型の例であるが、図9(B)に示すようにロボットは、双腕型等の多腕型のロボッ
トであってもよい。
5. Next, FIGS. 9A and 9B show a configuration example of the robot according to the present embodiment. FIG.
) And FIG. 9B, the robot mechanism (driving mechanism) 300 includes an end effector (hand) 310 and an arm 320. Note that the robot shown in FIG. 9A is a single-arm type, but the robot may be a multi-arm type robot such as a double-arm type as shown in FIG. 9B.

ここで、エンドエフェクター310とは、ワーク(作業対象物)を把持したり、持ち上
げたり、吊り上げたり、吸着させたり、ワークに加工を施したりするために、アームのエ
ンドポイントに取り付ける部品のことをいう。エンドエフェクター310は、例えばハン
ド(把持部)であってもよいし、フックであってもよいし、吸盤であってもよいし、ドラ
イバー等であってもよい。さらに、1本のアームに対して、複数のエンドエフェクターを
設けても良い。
Here, the end effector 310 is a part attached to the end point of the arm in order to grip, lift, lift, adsorb, or process the work (work object). Say. The end effector 310 may be, for example, a hand (gripping unit), a hook, a suction cup, a driver, or the like. Further, a plurality of end effectors may be provided for one arm.

また、アーム320とは、ロボット機構300のパーツであって、一つ以上の関節を含
む可動パーツのことをいう。
The arm 320 is a part of the robot mechanism 300 and refers to a movable part including one or more joints.

また、本実施形態では、第1撮像部200と第2撮像部250が、ロボットの外部に設
けられている。
In the present embodiment, the first imaging unit 200 and the second imaging unit 250 are provided outside the robot.

そして、本実施形態のロボットは、図9(A)に示すように、ロボット機構300と制
御装置100とが別体に構成されている。この場合には、制御装置100の一部又は全部
の機能は、例えばPC(Personal Computer)により実現される。
In the robot of this embodiment, as shown in FIG. 9A, the robot mechanism 300 and the control device 100 are configured separately. In this case, some or all of the functions of the control device 100 are realized by, for example, a PC (Personal Computer).

また、本実施形態のロボットは図9(A)の構成に限定されず、図9(B)のようにロ
ボット機構300と制御装置100とが一体に構成されていてもよい。具体的には図9(
B)に示したように、ロボットは、ロボット機構300及びロボット機構300を支える
ベースユニット部350を有し、当該ベースユニット部350に制御装置100が格納さ
れるものであってもよい。図9(B)に示すロボットのベースユニット部350には、車
輪370等が設けられ、ロボット全体が移動可能な構成となっている。また、ロボットは
、人手により移動させられるものであってもよいし、車輪370を駆動させるモーターを
設け、当該モーターを制御装置100により制御することにより、移動させられるもので
あってもよい。また、制御装置100は、図9(B)のようにロボット機構300の下に
設けられたベースユニット部350に設けられるとは限られない。
Further, the robot of the present embodiment is not limited to the configuration shown in FIG. 9A, and the robot mechanism 300 and the control device 100 may be integrated as shown in FIG. 9B. Specifically, FIG.
As shown in B), the robot may include a robot mechanism 300 and a base unit portion 350 that supports the robot mechanism 300, and the control device 100 may be stored in the base unit portion 350. The base unit 350 of the robot shown in FIG. 9B is provided with wheels 370 and the like so that the entire robot can move. The robot may be moved manually, or may be moved by providing a motor for driving the wheel 370 and controlling the motor by the control device 100. Moreover, the control apparatus 100 is not necessarily provided in the base unit part 350 provided under the robot mechanism 300 as shown in FIG.

また、図10に示すように、制御装置100の機能は、有線及び無線の少なくとも一方
を含むネットワーク400を介して、ロボット機構300と通信接続されたサーバー50
0により実現されてもよい。
Further, as shown in FIG. 10, the function of the control device 100 is that the server 50 is connected to the robot mechanism 300 via a network 400 including at least one of wired and wireless.
It may be realized by 0.

或いは本実施形態では、本発明の制御装置の処理の一部を、サーバー500の制御装置
が行ってもよい。この場合には、ロボット機構300に設けられた制御装置との分散処理
により、当該処理を実現する。なお、ロボット機構300の制御装置は、例えばロボット
機構300に設置される端末装置330(制御部)により実現される。
Alternatively, in the present embodiment, a part of the processing of the control device of the present invention may be performed by the control device of the server 500. In this case, the processing is realized by distributed processing with a control device provided in the robot mechanism 300. Note that the control device of the robot mechanism 300 is realized by, for example, a terminal device 330 (control unit) installed in the robot mechanism 300.

そして、この場合に、サーバー500の制御装置は、本発明の制御装置における各処理
のうち、サーバー500の制御装置に割り当てられた処理を行う。一方、ロボット機構3
00に設けられた制御装置は、本発明の制御装置の各処理のうち、ロボット機構300の
制御装置に割り当てられた処理を行う。なお、本発明の制御装置の各処理は、サーバー5
00に割り当てられた処理であってもよいし、ロボット機構300に割り当てられた処理
であってもよい。
In this case, the control device of the server 500 performs a process assigned to the control device of the server 500 among the processes in the control device of the present invention. On the other hand, the robot mechanism 3
The control device provided in 00 performs processing assigned to the control device of the robot mechanism 300 among the processing of the control device of the present invention. Each process of the control device of the present invention is performed by the server 5.
The process assigned to 00 or the process assigned to the robot mechanism 300 may be used.

これにより、例えば端末装置330よりも処理能力の高いサーバー500が、処理量の
多い処理を行うこと等が可能になる。さらに、例えばサーバー500が各ロボットの動作
を一括して制御することができ、複数のロボットに協調動作をさせること等が容易になる
Thereby, for example, the server 500 having a higher processing capability than the terminal device 330 can perform processing with a large processing amount. Further, for example, the server 500 can control the operation of each robot in a lump, and it becomes easy to cause a plurality of robots to perform a cooperative operation.

また近年は、多品種少数の部品を製造することが増えてきている。そして、製造する部
品の種類を変更する場合には、ロボットが行う動作を変更する必要がある。図10に示す
ような構成であれば、複数のロボットの各ロボットへ教示作業をし直さなくても、サーバ
ー500が一括して、各ロボットが行う動作を変更すること等が可能になる。
In recent years, the production of a small number of various types of parts has been increasing. And when changing the kind of components to manufacture, it is necessary to change the operation | movement which a robot performs. With the configuration as shown in FIG. 10, it is possible for the server 500 to collectively change the operation performed by each robot without re-instructing each robot of the plurality of robots.

さらに、図10に示すような構成であれば、各ロボットに対して一つの制御装置100
を設ける場合に比べて、制御装置100のソフトウェアアップデートを行う際の手間を大
幅に減らすこと等が可能になる。
Further, in the configuration as shown in FIG. 10, one control device 100 is provided for each robot.
Compared with the case where the software is provided, it is possible to significantly reduce the time and effort required to update the software of the control device 100.

なお、本実施形態のロボットシステム、ロボット及び制御装置等は、その処理の一部ま
たは大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサー
がプログラムを実行することで、本実施形態のロボットシステム、ロボット及び制御装置
等が実現される。具体的には、非一時的な情報記憶装置に記憶されたプログラムが読み出
され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶
装置(コンピューターにより読み取り可能な装置)は、プログラムやデータなどを格納す
るものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクド
ライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そし
て、CPU等のプロセッサーは、情報記憶装置に格納されるプログラム(データ)に基づ
いて本実施形態の種々の処理を行う。即ち、情報記憶装置には、本実施形態の各部として
コンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプ
ログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
Note that the robot system, the robot, the control device, and the like of the present embodiment may realize part or most of the processing by a program. In this case, the robot system, the robot, the control device, and the like of the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in a non-temporary information storage device is read, and a processor such as a CPU executes the read program. Here, an information storage device (device readable by a computer) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage device. That is, in the information storage device, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing a computer to execute the processing of each unit). Is memorized.

また、本実施形態のロボットシステム、ロボット及び制御装置等は、プロセッサーとメ
モリーを含んでも良い。ここでのプロセッサーは、例えばCPU(Central Processing U
nit)であってもよい。ただし、プロセッサーはCPUに限定されるものではなく、GP
U(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種
プロセッサーを用いることが可能である。また、プロセッサーはASIC(Application
Specific Integrated Circuit)によるハードウェア回路でもよい。また、メモリーはコ
ンピューターにより読み取り可能な命令を格納するものであり、当該命令がプロセッサー
により実行されることで、本実施形態に係るロボットシステム、ロボット及び制御装置等
の各部が実現されることになる。ここでのメモリーは、SRAM(Static Random Access
Memory)、DRAM(Dynamic Random Access Memory)などの半導体メモリーであって
もよいし、レジスターやハードディスク等でもよい。また、ここでの命令は、プログラム
を構成する命令セットの命令でもよいし、プロセッサーのハードウェア回路に対して操作
を指示する命令であってもよい。
In addition, the robot system, the robot, the control device, and the like according to the present embodiment may include a processor and a memory. The processor here is, for example, a CPU (Central Processing U).
nit). However, the processor is not limited to the CPU,
Various processors such as U (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. The processor is ASIC (Application
A hardware circuit using a specific integrated circuit) may be used. The memory stores instructions that can be read by a computer. When the instructions are executed by the processor, each unit of the robot system, the robot, the control device, and the like according to the present embodiment is realized. . The memory here is SRAM (Static Random Access).
It may be a semiconductor memory such as a memory (RAM) or a DRAM (dynamic random access memory), or may be a register or a hard disk. In addition, the instruction here may be an instruction of an instruction set constituting the program, or an instruction for instructing an operation to the hardware circuit of the processor.

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から
実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう
。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細
書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載され
た用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えること
ができる。また、ロボットシステム、ロボット、制御装置及びロボットの制御方法の構成
、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot system, the robot, the control device, and the robot control method are not limited to those described in the present embodiment, and various modifications can be made.

100 制御装置、110 画像受付部、120 制御部、200 第1撮像部、
250 第2撮像部、300 駆動機構(ロボット機構)、310 エンドエフェクター

320 アーム、330 端末装置、350 ベースユニット部、370 車輪、
400 ネットワーク、500 サーバー
100 control device, 110 image receiving unit, 120 control unit, 200 first imaging unit,
250 second imaging unit, 300 drive mechanism (robot mechanism), 310 end effector,
320 arm, 330 terminal device, 350 base unit, 370 wheels,
400 networks, 500 servers

Claims (14)

ロボットと、
制御装置と、
を含み、
前記制御装置は、
作業台に設けられた物体に対してマーカーを形成させるマーカー形成動作を、前記ロボ
ットに行わせ、
撮像部により前記マーカーを撮像して得られた撮像画像に基づいて、前記ロボットに対
する前記撮像部の相対位置姿勢関係を特定することを特徴とするロボットシステム。
With robots,
A control device;
Including
The controller is
Causing the robot to perform a marker forming operation for forming a marker on an object provided on a workbench;
A robot system, wherein a relative position and orientation relation of the imaging unit with respect to the robot is specified based on a captured image obtained by imaging the marker by an imaging unit.
請求項1において、
前記マーカーは、
前記ロボットのエンドエフェクターによって把持された把持物によって形成されるマー
カーであることを特徴とするロボットシステム。
In claim 1,
The marker is
A robot system comprising a marker formed by a gripped object gripped by an end effector of the robot.
請求項2において、
前記把持物は、
スタンプであることを特徴とするロボットシステム。
In claim 2,
The gripping object is
A robot system characterized by being a stamp.
請求項1乃至3のいずれかにおいて、
前記制御装置は、
前記撮像画像に基づいて、カメラ座標系における前記マーカーの位置を特定し、
前記マーカーの形成時に特定したロボット座標系における前記マーカーの位置と、前記
カメラ座標系における前記マーカーの位置とに基づいて、前記ロボットに対する前記撮像
部の前記相対位置姿勢関係を特定することを特徴とするロボットシステム。
In any one of Claims 1 thru | or 3,
The controller is
Based on the captured image, identify the position of the marker in the camera coordinate system,
The relative position and orientation relationship of the imaging unit with respect to the robot is specified based on the position of the marker in the robot coordinate system specified at the time of forming the marker and the position of the marker in the camera coordinate system. Robot system to do.
請求項1乃至4のいずれかにおいて、
前記制御装置は、
前記相対位置姿勢関係が特定された後に、前記マーカー形成動作を前記ロボットに再実
行させることを特徴とするロボットシステム。
In any one of Claims 1 thru | or 4,
The controller is
A robot system that causes the robot to re-execute the marker forming operation after the relative position / posture relationship is specified.
請求項5において、
前記制御装置は、
前記相対位置姿勢関係が特定された後、前記ロボットによる作業の精度が低下した場合
に、前記マーカー形成動作を前記ロボットに再実行させ、前記マーカー形成動作の再実行
後に前記撮像部から得られた撮像画像に基づいて、前記作業の精度低下要因を特定するこ
とを特徴とするロボットシステム。
In claim 5,
The controller is
After the relative position and orientation relationship is specified, when the accuracy of work by the robot is lowered, the robot is caused to re-execute the marker forming operation, and obtained from the imaging unit after the re-execution of the marker forming operation A robot system, characterized in that a factor that reduces the accuracy of the work is specified based on a captured image.
請求項1乃至6のいずれかにおいて、
前記撮像部である第1撮像部と、
前記第1撮像部とは異なる第2撮像部と、
を有することを特徴とするロボットシステム。
In any one of Claims 1 thru | or 6.
A first imaging unit which is the imaging unit;
A second imaging unit different from the first imaging unit;
A robot system characterized by comprising:
請求項7において、
前記制御装置は、
前記相対位置姿勢関係が特定された後に、前記マーカー形成動作を前記ロボットに再実
行させ、前記マーカー形成動作の再実行後において、前記第1撮像部から取得される第1
撮像画像と、前記第2撮像部から取得される第2撮像画像とに基づいて、再投影誤差を求
めることを特徴とするロボットシステム。
In claim 7,
The controller is
After the relative position and orientation relationship is specified, the robot is caused to re-execute the marker forming operation, and the first acquired from the first imaging unit after the re-execution of the marker forming operation.
A robot system characterized in that a reprojection error is obtained based on a captured image and a second captured image acquired from the second imaging unit.
請求項8において、
前記制御装置は、
前記再投影誤差に基づいて、前記第1撮像部及び前記第2撮像部の相対位置姿勢が変化
しているか否かを判定することを特徴とするロボットシステム。
In claim 8,
The controller is
A robot system that determines whether or not relative positions and orientations of the first imaging unit and the second imaging unit have changed based on the reprojection error.
請求項8又は9において、
前記制御装置は、
前記第1撮像画像における前記マーカーの位置と、前記第1撮像部のカメラ内部パラメ
ーターと、前記第1撮像画像上の位置から前記第1撮像部の第1カメラ座標系における位
置への位置変換パラメーターと、に基づいて、前記第1カメラ座標系における前記マーカ
ーの位置を特定し、
前記第1カメラ座標系における前記マーカーの位置と、前記第1カメラ座標系から前記
第2撮像部の第2カメラ座標系へのカメラ間位置変換パラメーターに基づいて、前記第2
撮像画像上の前記マーカーの推定位置を推定し、
前記第2撮像画像に基づいて、前記第2撮像画像上の前記マーカーの実際の位置を特定
し、
前記第2撮像画像上の前記マーカーの実際の位置と、前記推定位置との差である前記再
投影誤差を求めることを特徴とするロボットシステム。
In claim 8 or 9,
The controller is
The position of the marker in the first captured image, the camera internal parameter of the first image capturing unit, and the position conversion parameter from the position on the first captured image to the position in the first camera coordinate system of the first image capturing unit And specifying the position of the marker in the first camera coordinate system based on
Based on the position of the marker in the first camera coordinate system and the inter-camera position conversion parameter from the first camera coordinate system to the second camera coordinate system of the second imaging unit, the second
Estimating the estimated position of the marker on the captured image,
Based on the second captured image, the actual position of the marker on the second captured image is specified,
The robot system according to claim 1, wherein the reprojection error, which is a difference between an actual position of the marker on the second captured image and the estimated position, is obtained.
請求項1乃至10のいずれかにおいて、
前記制御装置は、
前記作業台上の前記物体に画像特徴量を抽出可能な複数のマーカーを、前記ロボットに
形成させることを特徴とするロボットシステム。
In any one of Claims 1 thru | or 10.
The controller is
A robot system, wherein the robot is formed with a plurality of markers capable of extracting image feature amounts on the object on the workbench.
作業台に設けられた物体に対してマーカーを形成するマーカー形成動作を行い、撮像部
により前記マーカーを撮像して得られた撮像画像に基づいて、ロボットに対する前記撮像
部の相対位置姿勢関係を特定することを特徴とするロボット。
A marker forming operation is performed to form a marker on an object provided on a workbench, and the relative position and orientation relationship of the imaging unit with respect to the robot is specified based on a captured image obtained by imaging the marker by the imaging unit. Robot characterized by doing.
作業台に設けられた物体にマーカーを形成させる動作を、ロボットに行わせる制御部と

前記マーカーを撮像して得られた撮像画像を、撮像部から受け付ける画像受付部と、
を含み、
前記制御部は、
前記撮像画像に基づいて、前記ロボットに対する前記撮像部の相対位置姿勢関係を特定
することを特徴とする制御装置。
A control unit that causes the robot to perform an operation of forming a marker on an object provided on the workbench;
An image receiving unit that receives a captured image obtained by imaging the marker from the imaging unit;
Including
The controller is
A control apparatus that identifies a relative position and orientation relationship of the imaging unit with respect to the robot based on the captured image.
作業台に設けられた物体にマーカーを形成させる動作を、ロボットに行わせ、
撮像部により前記マーカーを撮像して得られた撮像画像に基づいて、前記ロボットに対
する前記撮像部の相対位置姿勢関係を特定することを特徴とするロボットの制御方法。
Let the robot perform an action to form a marker on the object provided on the workbench,
A robot control method comprising: specifying a relative position and orientation relationship of the imaging unit with respect to the robot based on a captured image obtained by imaging the marker by an imaging unit.
JP2014214246A 2014-10-21 2014-10-21 Robot system, robot, control device and control method of robot Pending JP2016078195A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014214246A JP2016078195A (en) 2014-10-21 2014-10-21 Robot system, robot, control device and control method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014214246A JP2016078195A (en) 2014-10-21 2014-10-21 Robot system, robot, control device and control method of robot

Publications (1)

Publication Number Publication Date
JP2016078195A true JP2016078195A (en) 2016-05-16

Family

ID=55957180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214246A Pending JP2016078195A (en) 2014-10-21 2014-10-21 Robot system, robot, control device and control method of robot

Country Status (1)

Country Link
JP (1) JP2016078195A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018034271A (en) * 2016-09-01 2018-03-08 アイシン精機株式会社 Failure factor specification method in carrying-in and -out work of carrying-in and -out device
JP6301045B1 (en) * 2017-03-09 2018-03-28 三菱電機株式会社 Robot control apparatus and calibration method
WO2018163450A1 (en) * 2017-03-09 2018-09-13 三菱電機株式会社 Robot control device and calibration method
JP2020019071A (en) * 2018-07-30 2020-02-06 ファナック株式会社 Robot system and calibration method
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (en) * 2019-10-18 2021-04-30 株式会社Mujin Method and control system for verifying and updating calibration information for robot control
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN113146620A (en) * 2021-03-16 2021-07-23 南京工程学院 Binocular vision-based double-arm cooperative robot system and control method
US11254008B2 (en) 2018-07-18 2022-02-22 Canon Kabushiki Kaisha Method and device of controlling robot system
JP7299442B1 (en) 2022-11-17 2023-06-27 ファナック株式会社 Control device, three-dimensional position measurement system, and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018034271A (en) * 2016-09-01 2018-03-08 アイシン精機株式会社 Failure factor specification method in carrying-in and -out work of carrying-in and -out device
JP6301045B1 (en) * 2017-03-09 2018-03-28 三菱電機株式会社 Robot control apparatus and calibration method
WO2018163450A1 (en) * 2017-03-09 2018-09-13 三菱電機株式会社 Robot control device and calibration method
CN110114191A (en) * 2017-03-09 2019-08-09 三菱电机株式会社 Robot controller and calibration method
CN110114191B (en) * 2017-03-09 2020-05-19 三菱电机株式会社 Robot control device and calibration method
US11254008B2 (en) 2018-07-18 2022-02-22 Canon Kabushiki Kaisha Method and device of controlling robot system
JP2020019071A (en) * 2018-07-30 2020-02-06 ファナック株式会社 Robot system and calibration method
US11338440B2 (en) 2018-07-30 2022-05-24 Fanuc Corporation Robot system and calibration method
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11590656B2 (en) 2019-03-29 2023-02-28 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11883964B2 (en) 2019-03-29 2024-01-30 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (en) * 2019-10-18 2021-04-30 株式会社Mujin Method and control system for verifying and updating calibration information for robot control
CN113146620A (en) * 2021-03-16 2021-07-23 南京工程学院 Binocular vision-based double-arm cooperative robot system and control method
CN113146620B (en) * 2021-03-16 2022-06-10 南京工程学院 Binocular vision-based double-arm cooperative robot system and control method
JP7299442B1 (en) 2022-11-17 2023-06-27 ファナック株式会社 Control device, three-dimensional position measurement system, and program

Similar Documents

Publication Publication Date Title
JP2016078195A (en) Robot system, robot, control device and control method of robot
US11049280B2 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
CN107871328B (en) Machine vision system and calibration method implemented by machine vision system
JP5850962B2 (en) Robot system using visual feedback
US10173324B2 (en) Facilitating robot positioning
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
CN107931012B (en) Method for extracting dispensing path and dispensing system
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP4794011B2 (en) Image processing apparatus and robot control system
JP6885856B2 (en) Robot system and calibration method
JP6703812B2 (en) 3D object inspection device
JP2005342832A (en) Robot system
TW201403277A (en) Robot system, robot, robot control device, robot control method, and robot control program
CN112621743B (en) Robot, hand-eye calibration method for fixing camera at tail end of robot and storage medium
JP2021015616A (en) System and method of object detection based on image data
CN113379849A (en) Robot autonomous recognition intelligent grabbing method and system based on depth camera
JP7427370B2 (en) Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium
JP2015136742A (en) Control device, robot system, robot and calibration method
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
US11267129B2 (en) Automatic positioning method and automatic control device
CN115741666A (en) Robot hand-eye calibration method, robot and robot operation method
JP7422482B2 (en) Processing system control device, processing system and processing method
WO2023013699A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160622