JP2016097474A - Robot and robot system - Google Patents

Robot and robot system Download PDF

Info

Publication number
JP2016097474A
JP2016097474A JP2014236299A JP2014236299A JP2016097474A JP 2016097474 A JP2016097474 A JP 2016097474A JP 2014236299 A JP2014236299 A JP 2014236299A JP 2014236299 A JP2014236299 A JP 2014236299A JP 2016097474 A JP2016097474 A JP 2016097474A
Authority
JP
Japan
Prior art keywords
imaging unit
marker
robot
coordinate system
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014236299A
Other languages
Japanese (ja)
Other versions
JP6565175B2 (en
Inventor
篤 原田
Atsushi Harada
篤 原田
如洋 山口
Yukihiro Yamaguchi
如洋 山口
太郎 石毛
Taro Ishige
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014236299A priority Critical patent/JP6565175B2/en
Priority to CN201580049974.1A priority patent/CN107073719B/en
Priority to EP15861922.1A priority patent/EP3221095B1/en
Priority to US15/514,666 priority patent/US10525597B2/en
Priority to PCT/JP2015/005678 priority patent/WO2016079967A1/en
Priority to TW104138100A priority patent/TWI670153B/en
Publication of JP2016097474A publication Critical patent/JP2016097474A/en
Application granted granted Critical
Publication of JP6565175B2 publication Critical patent/JP6565175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To facilitate calibration of a coordinate system of an imaging section and a coordinate system of a robot.SOLUTION: A robot comprises: an instruction reception section receiving a calibration start instruction; and an arm changing a positional relation between a marker indicating a reference point and an imaging section when the calibration start instruction is received. Calibration of a coordinate system of the imaging section and a coordinate system of the robot is performed on the basis of an image of the marker imaged by the imaging section after the positional relation between the imaging section and the marker is changed.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットおよびロボットシステムに関する。   The present invention relates to a robot and a robot system.

従来、ロボットビジョンを用いてロボットを制御するにあたっては、ロボット座標系と
撮像部の座標系とを校正する処理が必要になる。校正時には、ロボット設置空間内の基準
点の位置をロボット座標系と撮像部の座標系のそれぞれで特定し、一方の座標系で表され
た基準点の位置を、他方の座標系で表された基準点の位置に変換するための行列式が求め
られる。特許文献1に記載された技術によると、3つの基準点を触るようにアームを動か
すことによってロボット座標系で基準点を教示し、その後、アームによって所定位置に移
動させた撮像部によって基準点を示すマーカーを撮像し、基準点を撮像部の座標系で検出
することによって、校正が行われる。
Conventionally, in order to control a robot using robot vision, it is necessary to calibrate the robot coordinate system and the coordinate system of the imaging unit. At the time of calibration, the position of the reference point in the robot installation space is specified by each of the robot coordinate system and the coordinate system of the imaging unit, and the position of the reference point expressed by one coordinate system is expressed by the other coordinate system. A determinant for conversion to the position of the reference point is obtained. According to the technique described in Patent Document 1, the reference point is taught in the robot coordinate system by moving the arm so as to touch the three reference points, and then the reference point is moved by the imaging unit moved to a predetermined position by the arm. Calibration is performed by imaging the marker to be shown and detecting the reference point in the coordinate system of the imaging unit.

特開平8−210816号公報JP-A-8-210816

特許文献1に記載された技術によると、3つの基準点を触るようにアームをオペレータ
ーが操作することによって基準点の位置を教示する必要がある。しかし、アームが基準点
に触わるか触らないかの境界の状態を目視で特定しながら、アームを正確に操作すること
は容易ではない。すなわち特許文献1に記載された技術では、基準点の位置を正確に教示
することは容易ではないという問題がある。そして、複数の基準点の位置を正確に教示し
ながら校正を行うとすれば、校正に要する所要時間が長引くという問題があり、校正対象
のロボットが増えるほど、この問題は深刻になる。
According to the technique described in Patent Document 1, it is necessary to teach the position of the reference point by the operator operating the arm so as to touch the three reference points. However, it is not easy to accurately operate the arm while visually identifying the boundary state whether the arm touches or does not touch the reference point. That is, the technique described in Patent Document 1 has a problem that it is not easy to accurately teach the position of the reference point. If calibration is performed while accurately teaching the positions of a plurality of reference points, there is a problem that the time required for calibration is prolonged, and this problem becomes more serious as the number of robots to be calibrated increases.

本発明は、これらの問題を解決するために創作されたものであって、撮像部の座標系と
ロボットの座標系の校正を容易にすることを目的の一つとする。
The present invention was created to solve these problems, and an object thereof is to facilitate calibration of the coordinate system of the imaging unit and the coordinate system of the robot.

上記目的を達成するためのロボットは、校正開始指示を受け付ける指示受付部と、前記
校正開始指示が受け付けられると、基準点を示すマーカーと撮像部との位置関係を変化さ
せるアームと、を備え、前記撮像部と前記マーカーの位置関係が変化した後に前記撮像部
によって前記マーカーが撮像された画像に基づいて、前記撮像部の座標系とロボットの座
標系との校正が行われる。
A robot for achieving the above object includes an instruction receiving unit that receives a calibration start instruction, and an arm that changes a positional relationship between a marker indicating a reference point and an imaging unit when the calibration start instruction is received, Calibration of the coordinate system of the imaging unit and the coordinate system of the robot is performed based on an image obtained by imaging the marker by the imaging unit after the positional relationship between the imaging unit and the marker changes.

また上記目的を達成するためのロボットは、3つ以上の基準点を示すマーカーと撮像部
との位置関係を、前記3つ以上の基準点を含む平面と前記撮像部の光軸とが垂直な第一状
態、前記撮像部が前記3つ以上の基準点の少なくともいずれかを示す前記マーカーに合焦
する第二状態、前記撮像部の光軸が前記平面上の第一点を通る第三状態、前記撮像部の光
軸が前記平面上の第二点を通る第四状態、前記撮像部の光軸が前記平面上の第三点を通る
第五状態、の少なくともいずれかに自動で変化させるアームを備え、前記第三状態、前記
第四状態および前記第五状態において前記撮像部によって前記マーカーが撮像された画像
に基づいて前記撮像部の座標系とロボットの座標系との校正が行われる。
In addition, the robot for achieving the above object has a positional relationship between a marker indicating three or more reference points and an imaging unit, and a plane including the three or more reference points and an optical axis of the imaging unit are perpendicular to each other. A first state, a second state in which the imaging unit is focused on the marker indicating at least one of the three or more reference points, and a third state in which the optical axis of the imaging unit passes the first point on the plane The optical axis of the imaging unit is automatically changed to at least one of a fourth state passing through the second point on the plane and a fifth state where the optical axis of the imaging unit passes through the third point on the plane. An arm is provided, and the coordinate system of the imaging unit and the coordinate system of the robot are calibrated based on images obtained by imaging the marker by the imaging unit in the third state, the fourth state, and the fifth state. .

これらの発明によると、撮像部とマーカーの位置関係を、撮像部の座標系とロボットの
座標系とを校正するために必要な画像を撮像できる状態に、校正開始指示によって変化さ
せることができる。したがって撮像部の座標系とロボットの座標系の校正が容易である。
According to these inventions, the positional relationship between the imaging unit and the marker can be changed by a calibration start instruction so that an image necessary for calibrating the coordinate system of the imaging unit and the coordinate system of the robot can be captured. Therefore, it is easy to calibrate the coordinate system of the imaging unit and the coordinate system of the robot.

ここで、校正開始指示は、撮像部の座標系とロボットの座標系とを校正するために必要
な画像を撮像できる状態に撮像部とマーカーの位置関係を変化させる動作をアームに開始
させるタイミングを特定する指示であれば良く、アームの位置または姿勢の変化量を特定
する目標値を含まなくてもよい。またマーカーは、ロボット座標系の基準点を指し示すも
のであればよい。例えば、平板に記された点や円などの二次元図形をマーカーとして用い
ることができるし、三次元形状を有する物(例えばアームの先端部)をマーカーとして用
いることもできる。そしてマーカーは、アームに設けられても良いし、ロボットが設置さ
れる空間に固定された物(例えば作業台)に設けられても良い。マーカーがアームに設け
られる場合(アームがマーカーになる場合を含む)、撮像部はロボット座標系に固定され
る。ロボット座標系にマーカーが固定される場合、撮像部はアームに設けられる。
Here, the calibration start instruction is a timing at which the arm starts the operation of changing the positional relationship between the imaging unit and the marker so that an image necessary for calibrating the coordinate system of the imaging unit and the coordinate system of the robot can be captured. The instruction may be an instruction to be specified, and may not include a target value that specifies the amount of change in the position or posture of the arm. Moreover, the marker should just point out the reference point of a robot coordinate system. For example, a two-dimensional figure such as a point or a circle written on a flat plate can be used as a marker, or an object having a three-dimensional shape (for example, the tip of an arm) can be used as a marker. And a marker may be provided in an arm, and may be provided in the thing (for example, work bench) fixed to the space where a robot is installed. When the marker is provided on the arm (including the case where the arm becomes the marker), the imaging unit is fixed to the robot coordinate system. When the marker is fixed in the robot coordinate system, the imaging unit is provided on the arm.

なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資
源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせによ
り実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェ
ア資源で実現されるものに限定されない。
Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.

図1Aは本発明の実施形態にかかる模式的な斜視図。図1Bは本発明の実施形態にかかるブロック図。FIG. 1A is a schematic perspective view according to an embodiment of the present invention. FIG. 1B is a block diagram according to an embodiment of the present invention. 本発明の実施形態にかかる平面図。The top view concerning embodiment of this invention. 本発明の実施形態にかかる模式的な斜視図。The typical perspective view concerning the embodiment of the present invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかる模式図。The schematic diagram concerning embodiment of this invention. 本発明の実施形態にかかる画像を示す図。The figure which shows the image concerning embodiment of this invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかる模式的な斜視図。The typical perspective view concerning the embodiment of the present invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかる模式的な斜視図。The typical perspective view concerning the embodiment of the present invention. 本発明の実施形態にかかる模式的な平面図。The typical top view concerning the embodiment of the present invention. 本発明の実施形態にかかる模式図。The schematic diagram concerning embodiment of this invention. 本発明の実施形態にかかる模式図。The schematic diagram concerning embodiment of this invention.

以下、本発明の実施の形態を添付図面を参照しながら説明する。尚、各図において対応
する構成要素には同一の符号が付され、重複する説明は省略される。
1.第一実施例
1−1.概要
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、
撮像部2と、校正装置としてのPC(Personal Computer)3とを備えている。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.
1. First Example 1-1. Outline As shown in FIG. 1, a robot system according to a first embodiment of the present invention includes a robot 1,
An imaging unit 2 and a PC (Personal Computer) 3 as a calibration device are provided.

ロボット1は、6つの回転軸部材121、122、123、124、125、126を
アームに備える6軸ロボットである。ワークを操作するための各種のツールが装着される
回転軸部材126の先端の中心をツールセンターポイント(TCP)という。TCPの位
置と姿勢は各種のツールの位置と姿勢の基準となる。ロボット1を制御する際に用いられ
るロボット1の座標系は、それぞれが水平なx軸とy軸と、鉛直下向きを正方向とするz
軸とによって定まる3次元の直交座標系である。またz軸周りの回転をu、y軸周りの回
転をv、x軸周りの回転をwで表す。ロボット座標系の長さの単位はミリメートル、角度
の単位は度である。
The robot 1 is a six-axis robot including six rotary shaft members 121, 122, 123, 124, 125, and 126 on an arm. The center of the tip of the rotating shaft member 126 on which various tools for operating the workpiece are mounted is referred to as a tool center point (TCP). The position and orientation of the TCP is a reference for the position and orientation of various tools. The coordinate system of the robot 1 used when controlling the robot 1 is a horizontal x-axis and a y-axis, respectively, and z with a vertical downward direction as a positive direction.
This is a three-dimensional orthogonal coordinate system determined by the axis. Further, the rotation around the z axis is represented by u, the rotation around the y axis is represented by v, and the rotation around the x axis is represented by w. The unit of length of the robot coordinate system is millimeter and the unit of angle is degree.

撮像部2は、レンズ201の光軸に対して垂直な基準平面内におけるワークの大きさ、
形状および位置を認識するための撮像部である。撮像部2の座標系は、撮像部2から出力
される画像の座標系であって、画像の水平右向きを正方向とするB軸と、画像の垂直下向
きを正方向とするC軸とによって定まる。撮像部2の座標系の長さの単位はピクセル、角
度の単位は度である。撮像部2の座標系は、撮像部2の光軸に垂直な実空間内の平面の座
標系が、レンズ201の光学特性(焦点距離、歪みなど)とエリアイメージセンサー20
2の画素数と大きさとに応じて非線形変換された2次元の直交座標系である。したがって
、撮像部2が出力する画像に基づいてワークの大きさ、形状または位置を認識して、認識
結果に基づいてロボット1を制御するためには、撮像部2の座標系をロボット1の座標系
とを関係づける処理、すなわち校正が必要になる。
The imaging unit 2 has a workpiece size in a reference plane perpendicular to the optical axis of the lens 201,
It is an imaging part for recognizing a shape and a position. The coordinate system of the imaging unit 2 is a coordinate system of an image output from the imaging unit 2, and is determined by a B-axis having a horizontal right direction of the image as a positive direction and a C-axis having a vertical downward direction of the image as a positive direction. . The unit of length of the coordinate system of the imaging unit 2 is pixel, and the unit of angle is degree. The coordinate system of the imaging unit 2 is a plane coordinate system in real space perpendicular to the optical axis of the imaging unit 2, and the optical characteristics (focal length, distortion, etc.) of the lens 201 and the area image sensor 20.
2 is a two-dimensional orthogonal coordinate system that is nonlinearly converted according to the number and size of pixels. Therefore, in order to recognize the size, shape, or position of the workpiece based on the image output from the imaging unit 2 and control the robot 1 based on the recognition result, the coordinate system of the imaging unit 2 is set to the coordinate of the robot 1. A process relating to the system, that is, calibration is required.

PC3はロボット1と撮像部2に接続されている。PC3には、ロボット1の座標系と
撮像部2の座標系とを校正するための校正プログラムがインストールされている。オペレ
ーターは、校正を実行するために校正プログラムを起動し、校正開始指示をPC3に入力
する。校正開始指示は、校正プログラムが校正処理を開始するための単なるトリガーであ
って、ロボット1を操作するための目標値を含んでいない。撮像部2の座標系を校正する
ためには、従来であれば、3つ以上の基準点を含む平面に対して撮像部2の光軸を正確に
垂直な状態にセットしたり、TCPでタッチアップすることにより3つ以上の基準点を正
確に教示したりといった緻密な準備が必要であった。そして、これらの準備が不正確であ
る場合には校正が失敗することになり、オペレーターは校正の失敗を知ることによって、
準備が不正確であったことを知る。したがって、従来は校正に多大な時間を要していた。
The PC 3 is connected to the robot 1 and the imaging unit 2. A calibration program for calibrating the coordinate system of the robot 1 and the coordinate system of the imaging unit 2 is installed in the PC 3. The operator activates a calibration program to execute calibration, and inputs a calibration start instruction to the PC 3. The calibration start instruction is merely a trigger for the calibration program to start the calibration process, and does not include a target value for operating the robot 1. In order to calibrate the coordinate system of the image pickup unit 2, conventionally, the optical axis of the image pickup unit 2 is set to be in a state of being accurately perpendicular to a plane including three or more reference points, or touched with TCP. It was necessary to make precise preparations such as teaching three or more reference points accurately by uploading. And if these preparations are inaccurate, the calibration will fail, and the operator knows the calibration failure,
Know that your preparation was inaccurate. Therefore, in the past, a great deal of time was required for calibration.

以下に説明する本発明の実施例によると、校正が行われていない状態でのロボットビジ
ョン(撮像部2によって撮像される画像)を用いて校正の準備を自動で行う。自動で行わ
れる校正の準備には、3つ以上の基準点を含む基準平面に対して撮像部2の光軸が垂直で
あって、撮像部2が基準平面に合焦している状態にする操作を含む。このため、基準点と
撮像部との正確な位置関係が定まっていない状態で校正開始指示を入力するだけで、ロボ
ット1の座標系と撮像部2の座標系とを、極めて容易に校正することができる。
According to an embodiment of the present invention described below, calibration preparation is automatically performed using a robot vision (image captured by the imaging unit 2) in a state where calibration is not performed. In preparation for calibration performed automatically, the optical axis of the imaging unit 2 is perpendicular to a reference plane including three or more reference points, and the imaging unit 2 is in focus on the reference plane. Includes operations. For this reason, it is very easy to calibrate the coordinate system of the robot 1 and the coordinate system of the imaging unit 2 only by inputting a calibration start instruction in a state where the exact positional relationship between the reference point and the imaging unit is not fixed. Can do.

1−2.構成
図1Aに簡略化して示すように、ロボット1は、基台110とアーム111、112、
113、114、115とを備えている。基台110は、第一アーム111の回転軸部材
121を支持している。第一アーム111は回転軸部材121の中心軸を中心にして回転
軸部材121とともに基台110に対して回転する。第一アーム111は、第二アーム1
12の回転軸部材122を支持している。第二アーム112は、回転軸部材122の中心
軸を中心にして回転軸部材122とともに第一アーム111に対して回転する。第二アー
ム112は、第三アーム113の回転軸部材123を支持している。第三アーム113は
、回転軸部材123の中心軸を中心にして回転軸部材123とともに第二アーム112に
対して回転する。第三アーム113は、第四アーム114の回転軸部材124を支持して
いる。第四アーム114は、回転軸部材124の中心軸を中心にして回転軸部材124と
ともに第三アーム113に対して回転する。第四アーム114は、第五アーム115の回
転軸部材125を支持している。第五アーム115は、回転軸部材125の中心軸を中心
にして回転軸部材125とともに第四アーム114に対して回転する。第五アーム115
は、回転軸部材126を支持している。マニピュレーターの先端にあたる回転軸部材12
6には図2にツールの取付面が示されているツールチャック1261が設けられている。
ツールチャック1261にはワークを操作するための各種のツールが取り付けられる。図
2に示すように、ツールチャック1261の取付面は、4分割されており、その中央部に
ツールの軸が挿入される。ツールチャック1261の取付面の中心がTCPに相当する。
1-2. Configuration As shown in simplified form in FIG. 1A, the robot 1 includes a base 110 and arms 111, 112,
113, 114, and 115. The base 110 supports the rotating shaft member 121 of the first arm 111. The first arm 111 rotates with respect to the base 110 together with the rotary shaft member 121 around the central axis of the rotary shaft member 121. The first arm 111 is the second arm 1
Twelve rotating shaft members 122 are supported. The second arm 112 rotates with respect to the first arm 111 together with the rotary shaft member 122 about the central axis of the rotary shaft member 122. The second arm 112 supports the rotating shaft member 123 of the third arm 113. The third arm 113 rotates with respect to the second arm 112 together with the rotation shaft member 123 around the central axis of the rotation shaft member 123. The third arm 113 supports the rotating shaft member 124 of the fourth arm 114. The fourth arm 114 rotates with respect to the third arm 113 together with the rotation shaft member 124 about the central axis of the rotation shaft member 124. The fourth arm 114 supports the rotating shaft member 125 of the fifth arm 115. The fifth arm 115 rotates with respect to the fourth arm 114 together with the rotation shaft member 125 about the central axis of the rotation shaft member 125. Fifth arm 115
Supports the rotating shaft member 126. Rotating shaft member 12 at the tip of the manipulator
6 is provided with a tool chuck 1261 whose tool mounting surface is shown in FIG.
Various tools for operating the workpiece are attached to the tool chuck 1261. As shown in FIG. 2, the attachment surface of the tool chuck 1261 is divided into four parts, and the tool shaft is inserted into the central part thereof. The center of the mounting surface of the tool chuck 1261 corresponds to TCP.

図1Bに示すように、ロボット1は、回転軸部材121を駆動するモーター131と、
回転軸部材122を駆動するモーター132と、回転軸部材123を駆動するモーター1
33と、回転軸部材124を駆動するモーター134と、回転軸部材125を駆動するモ
ーター135と、回転軸部材126を駆動するモーター136と、モーター131〜13
6を制御する制御部14とを備えている。モーター131〜136は、アーム111〜1
15の構成要素である。モーター131〜136は、目標値と現在値との差分がゼロにな
るようにフィードバック制御されるサーボモーターである。制御部14は、TCPの位置
と姿勢を示す目標値をPC3から取得し、TCPの位置と姿勢を示す目標値に基づいてモ
ーター131〜136の目標値を導出する。
As shown in FIG. 1B, the robot 1 includes a motor 131 that drives the rotary shaft member 121,
A motor 132 that drives the rotating shaft member 122 and a motor 1 that drives the rotating shaft member 123.
33, a motor 134 for driving the rotary shaft member 124, a motor 135 for driving the rotary shaft member 125, a motor 136 for driving the rotary shaft member 126, and motors 131-13.
6 is provided. Motors 131 to 136 are arms 111 to 1
15 components. The motors 131 to 136 are servo motors that are feedback controlled so that the difference between the target value and the current value becomes zero. The control unit 14 acquires a target value indicating the position and orientation of the TCP from the PC 3, and derives target values of the motors 131 to 136 based on the target value indicating the position and orientation of the TCP.

撮像部2は、レンズ201、エリアイメージセンサー202、図示しないAD変換器等
を備えるデジタル撮像部である。撮像部2は、図1Aに示すように、ワークが載置される
テーブル9上の所定位置に、鉛直上向きに撮像できるように設けられる。なお、本実施例
で校正されるロボットビジョンは、予め決められた基準平面を対象とする二次元のロボッ
トビジョンである。このため、レンズ201には、被写界深度が浅く(焦点距離が短く)
F値が小さな単焦点レンズを用いることが好ましい。
The imaging unit 2 is a digital imaging unit including a lens 201, an area image sensor 202, an AD converter (not shown), and the like. As shown in FIG. 1A, the imaging unit 2 is provided at a predetermined position on the table 9 on which a workpiece is placed so as to be able to capture an image vertically upward. Note that the robot vision calibrated in the present embodiment is a two-dimensional robot vision for a predetermined reference plane. For this reason, the lens 201 has a shallow depth of field (short focal length).
It is preferable to use a single focus lens having a small F value.

PC3は、図示しないプロセッサ、DRAMからなる図示しない主記憶、図示しない入
出力機構、不揮発性メモリからなる図示しない外部記憶、ディスプレイ、指示受付部30
として機能するキーボード等を備えるコンピューターである。PC3は、外部記憶に記憶
された校正プログラムをプロセッサで実行することにより、指示受付部30、画像取得部
31、目標値導出部32、出力部33、校正部34として機能する。
The PC 3 includes a processor (not shown), a main memory (not shown) including a DRAM, an input / output mechanism (not shown), an external storage (not shown) including a nonvolatile memory, a display, and an instruction receiving unit 30.
It is a computer equipped with a keyboard that functions as a computer. The PC 3 functions as an instruction receiving unit 30, an image acquisition unit 31, a target value deriving unit 32, an output unit 33, and a calibration unit 34 by executing a calibration program stored in an external storage by a processor.

画像取得部31は、撮像部2に対して撮像を指示し、指示に応じて基準点を示すマーカ
ーが撮像された画像を撮像部2から取得する。本実施例で用いる基準点は、図3に示すよ
うに任意の位置と姿勢の回転軸部材126に垂直な平面上の9つの格子点P1、P2、P
3、P4、P5、P6、P7、P8、P9である。本実施例では任意の位置と姿勢の回転
軸部材126に対して定まる基準点P1〜P9を含む平面を基準平面という。基準点P1
〜P9同士の相対的な位置関係はロボット座標系で固定されているが、基準点P1〜P9
は、自動校正実行中に回転軸部材126が動くことにより撮像部2の固定された視野内で
動く。すなわち、校正の過程では、回転軸部材126の位置と姿勢(x、y、z、u、v
、w)に応じて基準平面を定めるX軸とY軸が定められ、基準点の座標はX軸座標とY軸
座標とで定められる。X軸とY軸は回転軸部材126の中心軸に対して垂直でかつ互いに
垂直であり、基準平面を定めるときのTCPを基準平面の原点とする。そして、最終的に
校正された時点での基準平面がロボットビジョンの対象となる。なお、基準平面は回転軸
部材126に固定された座標系であるため、基準平面の座標系とロボット座標系の関係は
線形である。本実施例では、基準点P1〜P9を示すマーカーとして、図2に示すツール
チャック1261の取付面が用いられる。
The image acquisition unit 31 instructs the imaging unit 2 to perform imaging, and acquires an image in which a marker indicating a reference point is captured from the imaging unit 2 in accordance with the instruction. As shown in FIG. 3, the reference points used in the present embodiment are nine lattice points P1, P2, P on a plane perpendicular to the rotary shaft member 126 at an arbitrary position and posture.
3, P4, P5, P6, P7, P8, and P9. In this embodiment, a plane including the reference points P1 to P9 determined with respect to the rotary shaft member 126 having an arbitrary position and posture is referred to as a reference plane. Reference point P1
The relative positional relationship between P9 to P9 is fixed in the robot coordinate system, but the reference points P1 to P9
Moves within the fixed visual field of the imaging unit 2 by the movement of the rotary shaft member 126 during execution of automatic calibration. That is, in the calibration process, the position and orientation of the rotating shaft member 126 (x, y, z, u, v
, W), the X axis and the Y axis that define the reference plane are determined, and the coordinates of the reference point are determined by the X axis coordinate and the Y axis coordinate. The X axis and the Y axis are perpendicular to the central axis of the rotating shaft member 126 and perpendicular to each other, and the TCP when defining the reference plane is the origin of the reference plane. The reference plane at the time of final calibration is the target of robot vision. Since the reference plane is a coordinate system fixed to the rotating shaft member 126, the relationship between the reference plane coordinate system and the robot coordinate system is linear. In the present embodiment, the mounting surface of the tool chuck 1261 shown in FIG. 2 is used as a marker indicating the reference points P1 to P9.

目標値導出部32は、ツールチャック1261の取付面のテンプレートを保持している
。ツールチャック1261の取付面のテンプレートは撮像部2から取得する画像を解析し
て基準点の座標を撮像部2の座標系で検出するために用いられる。目標値導出部32は、
撮像部2と基準点P1〜P9の位置関係を予め決められた状態に変化させるための目標値
を、撮像部2が撮像した画像に基づいて導出する。具体的には、目標値導出部32は、撮
像部2が撮像した画像に基づいて、予め決められた状態に対応する基準点P1〜P9の位
置と姿勢をTCPの目標値として導出する。ここでいう予め決められた状態とは、以下の
状態である。
・垂直状態:基準平面と撮像部2の光軸が垂直な状態
・合焦状態:基準平面に撮像部2が合焦する状態
The target value deriving unit 32 holds a template of the mounting surface of the tool chuck 1261. The template of the mounting surface of the tool chuck 1261 is used for analyzing an image acquired from the imaging unit 2 and detecting the coordinates of the reference point in the coordinate system of the imaging unit 2. The target value deriving unit 32
A target value for changing the positional relationship between the imaging unit 2 and the reference points P1 to P9 to a predetermined state is derived based on an image captured by the imaging unit 2. Specifically, the target value deriving unit 32 derives the positions and orientations of the reference points P1 to P9 corresponding to a predetermined state as TCP target values based on the image captured by the imaging unit 2. Here, the predetermined state is the following state.
・ Vertical state: A state in which the optical axis of the reference plane is perpendicular to the imaging unit 2 ・ In-focus state: A state in which the imaging unit 2 is focused on the reference plane

垂直状態には、基準平面に合焦していない状態で撮像された画像に基づいて導出される
目標値によって定まる低精度垂直状態と、後述する「傾き指標」の閾値によって定まる高
精度垂直状態が含まれる。合焦状態は、合焦の指標である画像のシャープネスによって定
まる。なお、本実施例では、画像の予め決められた領域(部分画像)のシャープネスが最
大になる状態を合焦状態とするが、合焦の指標に閾値を設けることにより合焦状態に何ら
かの幅を持たせても良い。
The vertical state includes a low-precision vertical state determined by a target value derived based on an image captured in a state where the reference plane is not focused, and a high-accuracy vertical state determined by a threshold value of an “inclination index” described later. included. The in-focus state is determined by the sharpness of the image, which is an in-focus index. In this embodiment, the state where the sharpness of a predetermined region (partial image) of the image is maximized is set to the in-focus state. However, by providing a threshold for the in-focus index, a certain range is set in the in-focus state. You may have it.

出力部33は、目標値導出部32によって導出された目標値をロボット1の制御部14
に出力することにより、撮像部2と基準点P1〜P9の位置関係を垂直状態、合焦状態に
変化させる。
The output unit 33 outputs the target value derived by the target value deriving unit 32 to the control unit 14 of the robot 1.
To change the positional relationship between the imaging unit 2 and the reference points P1 to P9 between the vertical state and the in-focus state.

1−3.自動校正
1−3−1.全体の流れ
次に上述したロボットシステムを用いた自動校正の全体の流れについて図4を参照しな
がら説明する。
1-3. Automatic calibration 1-3-1. Overall Flow Next, the overall flow of automatic calibration using the robot system described above will be described with reference to FIG.

ロボットシステムによる自動校正は、オペレーターが校正開始指示をPC3に入力する
ことによって起動し、それ以後、オペレーターに一切の操作を要求することなく完了する
。校正開始指示を入力する前にオペレーターに求められるのは、ロボットシステムの環境
情報をPC3に入力する操作と、所謂ジョグ送りによってマニピュレーター先端の回転軸
部材126を撮像部2の光軸が凡そ通る状態にTCPを移動させることだけである。すな
わち、校正開始指示を入力する前にオペレーターに緻密な操作は何ら必要とされない。環
境情報には、エリアイメージセンサー202の画素数とサイズとレンズ201の焦点距離
とが含まれる。また、本実施例ではツールチャック1261の取付面自体を基準点を示す
マーカーとして用いるが、基準点を示すマーカーが表された板などをツールチャック12
61に装着する場合には、TCPに対するマーカーの相対位置や姿勢を入力する必要があ
る。
The automatic calibration by the robot system is started when the operator inputs a calibration start instruction to the PC 3, and thereafter is completed without requiring any operation from the operator. The operator is required to input the environment information of the robot system to the PC 3 before inputting the calibration start instruction, and the state where the optical axis of the imaging unit 2 passes through the rotary shaft member 126 at the tip of the manipulator by so-called jog feed. It is only to move TCP. That is, no precise operation is required for the operator before inputting the calibration start instruction. The environmental information includes the number and size of pixels of the area image sensor 202 and the focal length of the lens 201. In this embodiment, the mounting surface of the tool chuck 1261 itself is used as a marker indicating the reference point. However, a plate or the like on which the marker indicating the reference point is represented is used as the tool chuck 12.
When attaching to 61, it is necessary to input the relative position and orientation of the marker with respect to TCP.

校正開始指示がPC3に入力されると(S1)、PC3は低精度傾き補正を実行する(
S2)。低精度傾き補正では、校正開始指示が入力された時点でのTCPの位置と姿勢に
対応する基準平面が設定される。続いて、設定された基準平面上の9つの基準点にTCP
が位置する状態で撮像部2による撮像が行われ、9つの基準点を示すTCPの位置が撮像
部2の座標系で検出される。そして、検出結果に基づいて基準平面と撮像部2の光軸を垂
直な状態(垂直状態)にするための目標値が導出される。導出された目標値がロボット1
に入力されて、目標値に基づいてアーム111〜115が動くと基準平面と撮像部2の光
軸が凡そ垂直な低精度垂直状態になる。
When a calibration start instruction is input to the PC 3 (S1), the PC 3 executes low-precision tilt correction (
S2). In the low-accuracy tilt correction, a reference plane corresponding to the TCP position and orientation at the time when the calibration start instruction is input is set. Subsequently, TCP is set to nine reference points on the set reference plane.
In this state, the imaging unit 2 performs imaging, and the TCP positions indicating the nine reference points are detected in the coordinate system of the imaging unit 2. Based on the detection result, a target value for deriving the reference plane and the optical axis of the imaging unit 2 in a vertical state (vertical state) is derived. The derived target value is the robot 1
When the arms 111 to 115 move based on the target value, the reference plane and the optical axis of the imaging unit 2 are in a low-precision vertical state in which the optical axis is approximately vertical.

次にPC3は、焦点調整を実行する(S3)。焦点調整では、低精度垂直状態の基準平
面に対して垂直な方向にTCPを移動させながら撮像部2による撮像が行われ、画像に写
るツールチャック1261のシャープネスが最大になる合焦状態が探索される。続いて探
索結果に基づいて合焦状態にするための目標値が導出される。導出された目標値がロボッ
ト1に入力されて、アーム111〜115が目標値に基づいて動くと合焦状態になる。
Next, the PC 3 performs focus adjustment (S3). In the focus adjustment, imaging is performed by the imaging unit 2 while moving the TCP in a direction perpendicular to the reference plane in the low-precision vertical state, and a focused state in which the sharpness of the tool chuck 1261 in the image is maximized is searched. The Subsequently, a target value for achieving the in-focus state is derived based on the search result. When the derived target value is input to the robot 1 and the arms 111 to 115 move based on the target value, the focused state is obtained.

次にPC3は、高精度傾き補正を実行する(S4)。高精度傾き補正では、低精度垂直
状態でかつ合焦状態の基準平面を微小な角度ずつ傾けながら、撮像部2による撮像が行わ
れる。同一基準平面内の複数の基準点を示すマーカーとしてのツールチャック1261が
撮像された複数の画像に基づいて基準平面の傾き指標が導出される。基準平面の傾き指標
は、撮像部2の光軸と基準平面がなす角度と90度の差と正の相関を持つ値である。導出
された傾き指標に基づいて、垂直状態にするための目標値が導出される。導出された目標
値がロボット1に入力されて、目標値に基づいてアーム111〜115が動くと高精度垂
直状態になる。
Next, the PC 3 executes high-precision tilt correction (S4). In the high-precision tilt correction, the imaging unit 2 performs imaging while tilting the reference plane in the low-precision vertical state and the focused state by a minute angle. An inclination index of the reference plane is derived based on a plurality of images obtained by imaging the tool chuck 1261 as a marker indicating a plurality of reference points in the same reference plane. The inclination index of the reference plane is a value having a positive correlation with the difference between the angle formed by the optical axis of the imaging unit 2 and the reference plane and 90 degrees. Based on the derived inclination index, a target value for obtaining a vertical state is derived. When the derived target value is input to the robot 1 and the arms 111 to 115 move based on the target value, a highly accurate vertical state is obtained.

次にPC3は、9点校正を実行する(S5)。9点校正では、高精度垂直状態の基準平
面に属する9つの基準点の基準平面の座標系の座標と撮像部2の座標系の座標とに基づい
て、ロボット座標系と撮像部2の座標系を校正する最終的な変換式が導出される。
Next, the PC 3 executes nine-point calibration (S5). In the nine-point calibration, the coordinate system of the robot coordinate system and the imaging unit 2 is based on the coordinates of the coordinate system of the reference plane of the nine reference points belonging to the reference plane in the high-precision vertical state and the coordinates of the coordinate system of the imaging unit 2. A final conversion formula for calibrating is derived.

以上、概要を述べたように、校正装置としてのPC3は、低精度傾き補正、焦点調整、
高精度傾き補正を順次することにより、基準平面が撮像部2の光軸に対して垂直で、基準
平面に対して撮像部2が合焦した状態になるように自動でロボット1を制御してロボット
ビジョンの対象となる基準平面を設定した後に、設定された基準平面について9点校正を
実行する。
As described above, the PC3 as a calibration device is a low-precision tilt correction, focus adjustment,
By sequentially performing high-precision tilt correction, the robot 1 is automatically controlled so that the reference plane is perpendicular to the optical axis of the imaging unit 2 and the imaging unit 2 is in focus with respect to the reference plane. After setting the reference plane that is the target of the robot vision, nine-point calibration is executed for the set reference plane.

1−3−2.低精度傾き補正
次に図5を参照しながら低精度傾き補正の詳細を説明する。
まず、目標値導出部32は、基準平面を設定し、設定した基準平面に属する9つの基準
点にマーカーとしてのTCPを移動させるための目標値を導出する。続いて、出力部33
がロボット1の制御部14に目標値を出力し、各基準点にTCPが位置する状態で撮像さ
れた9つの画像を画像取得部31が撮像部2から取得する(S21)。TCPの移動先で
ある基準点は、校正開始指示が入力された時点でのツールチャック1261の位置と姿勢
(TCPの位置と姿勢)に基づいて導出される。具体的には例えば、中央の基準点P5を
校正開始指示が入力された時点でのTCPの位置に設定し、校正開始指示が入力された時
点での回転軸部材126と垂直な平面を基準平面としてその他の基準点を導出する。出力
部33は、このようにして導出された9つの基準点のロボット座標系での座標を制御部1
4に目標値として出力する。
1-3-2. Low-precision tilt correction Next, details of the low-precision tilt correction will be described with reference to FIG.
First, the target value deriving unit 32 sets a reference plane, and derives a target value for moving TCP as a marker to nine reference points belonging to the set reference plane. Subsequently, the output unit 33
Outputs the target value to the control unit 14 of the robot 1, and the image acquisition unit 31 acquires nine images captured in a state where the TCP is located at each reference point from the imaging unit 2 (S21). The reference point that is the movement destination of the TCP is derived based on the position and posture (the position and posture of the TCP) of the tool chuck 1261 at the time when the calibration start instruction is input. Specifically, for example, the central reference point P5 is set to the TCP position when the calibration start instruction is input, and the plane perpendicular to the rotating shaft member 126 at the time when the calibration start instruction is input is the reference plane. The other reference points are derived as follows. The output unit 33 determines the coordinates of the nine reference points thus derived in the robot coordinate system as the control unit 1.
4 is output as a target value.

ここで撮像部2によって撮像される9つの画像について図7、図8を用いて説明する。
図7は、撮像部2に対する基準平面F(n)の位置と姿勢を模式的に示している。F(0
)はステップS21で撮像される基準平面である。9つの基準点P1〜P9にマーカーと
してのTCPを移動させる毎に撮像すると、撮像部2から取得する各画像におけるツール
チャック1261の位置は、基準点P1〜P9の位置に応じて異なることになる。9つの
画像のそれぞれに表れるツールチャック1261を1つの画像にまとめて表すと、例えば
図8(A)に示すようにツールチャック1261は非格子点に表れる。なお、図8におい
て合焦の程度は反映されていない。ロボット座標系で同一平面内に設定された各基準点を
マーカーが示すようにロボットを動かして、それぞれの基準点におけるマーカーをロボッ
ト座標系において固定された撮像部で撮像したn個の画像から得られる基準点の情報は、
n個の基準点を示すマーカーが付されている板をロボットで特定の位置と姿勢に保持し、
その状態で板に付されたマーカーを撮像した1つの画像から得られる基準点の情報と凡そ
同じである。前者の情報には、厳密なロボット座標系と撮像部の座標系の対応関係が反映
され、後者の情報には、ロボット座標系とマーカーが付された板の座標系を合成した座標
系と撮像部の座標系の対応関係が反映される。ロボット座標系とマーカーが付された板の
座標系が線形な関係にあるとは限らないため、厳密にロボット座標系と撮像部の座標系を
校正するには、前者の情報を用いることが好ましい。
Here, nine images picked up by the image pickup unit 2 will be described with reference to FIGS.
FIG. 7 schematically shows the position and orientation of the reference plane F (n) with respect to the imaging unit 2. F (0
) Is a reference plane imaged in step S21. When an image is captured every time the TCP as a marker is moved to the nine reference points P1 to P9, the position of the tool chuck 1261 in each image acquired from the imaging unit 2 varies depending on the positions of the reference points P1 to P9. . When the tool chucks 1261 appearing in each of the nine images are collectively represented as one image, for example, as shown in FIG. 8A, the tool chucks 1261 appear at non-grid points. In FIG. 8, the degree of focusing is not reflected. The robot is moved so that the marker indicates each reference point set in the same plane in the robot coordinate system, and the marker at each reference point is obtained from n images captured by the imaging unit fixed in the robot coordinate system. The reference point information
A board with a marker indicating n reference points is held at a specific position and posture by a robot,
In this state, the reference point information obtained from one image obtained by imaging the marker attached to the plate is almost the same. The former information reflects the correspondence between the exact robot coordinate system and the coordinate system of the imaging unit, and the latter information captures the coordinate system and the image obtained by combining the robot coordinate system and the coordinate system of the plate with the markers. The correspondence of the coordinate system of the part is reflected. Since the robot coordinate system and the coordinate system of the plate with the marker are not necessarily in a linear relationship, it is preferable to use the former information in order to calibrate the robot coordinate system and the coordinate system of the imaging unit strictly. .

続いて目標値導出部32は、各基準点にTCPが位置する状態で撮像された9つの画像
を解析し、各画像におけるツールチャック1261の取付面の中心位置を検出する(S2
2)。すなわち、目標値導出部32は、撮像部2の座標系で9つの基準点の位置を検出す
る。
Subsequently, the target value deriving unit 32 analyzes nine images captured with the TCP positioned at each reference point, and detects the center position of the mounting surface of the tool chuck 1261 in each image (S2).
2). That is, the target value deriving unit 32 detects the positions of nine reference points in the coordinate system of the imaging unit 2.

続いて目標値導出部32は、基準平面の座標系での基準点の座標と、撮像部2の座標系
での基準点の座標とに基づいて、撮像部2の座標系とロボット座標系の対応関係を導出す
る(S23)。具体的には、撮像部2の座標系をロボット座標系に変換するための変換行
列を導出する。このような変換行列を求めることは、ステップS21で設定した基準平面
について撮像部2の座標系とロボット座標系とを校正することに他ならない。ただし、こ
こで導出される変換行列は、撮像部2が基準点P1〜P9に合焦していない状態で撮像さ
れた画像に基づいて導出されるものであるから、撮像部2の光軸に対する基準平面の姿勢
や基準点P1〜P9の位置に正確に対応したものではない。
Subsequently, the target value deriving unit 32 determines whether the coordinate system of the imaging unit 2 and the robot coordinate system are based on the coordinates of the reference point in the coordinate system of the reference plane and the coordinates of the reference point in the coordinate system of the imaging unit 2. A correspondence relationship is derived (S23). Specifically, a transformation matrix for transforming the coordinate system of the imaging unit 2 into the robot coordinate system is derived. Obtaining such a transformation matrix is nothing but calibrating the coordinate system of the imaging unit 2 and the robot coordinate system with respect to the reference plane set in step S21. However, since the transformation matrix derived here is derived based on an image captured in a state where the imaging unit 2 is not focused on the reference points P1 to P9, the transformation matrix is calculated with respect to the optical axis of the imaging unit 2. It does not exactly correspond to the orientation of the reference plane or the positions of the reference points P1 to P9.

続いて目標値導出部32は、ステップS23で導出した変換行列に基づいて、撮像部2
の光軸に対して基準平面が垂直になり、かつ、撮像部2の光軸が中央の基準点P5を通る
位置と姿勢に基準平面を動かすための目標値を導出する。導出された目標値は、出力部3
3によってロボット1の制御部14に出力される(S24)。入力された目標値に応じて
アーム111〜115が動くことにより、基準平面は、撮像部2の光軸に対して凡そ垂直
になり、かつ、撮像部2の光軸が中央の基準点P5を凡そ通る位置と姿勢になる。すなわ
ち、低精度傾き補正を実行して終了すると、撮像部2と基準点P1〜P9の位置関係は低
精度垂直状態になる。
Subsequently, the target value deriving unit 32, based on the transformation matrix derived in step S23, the imaging unit 2
A target value for deriving the reference plane to a position and orientation in which the reference plane is perpendicular to the optical axis of the image pickup unit 2 and the optical axis of the imaging unit 2 passes through the central reference point P5 is derived. The derived target value is output from the output unit 3
3 is output to the control unit 14 of the robot 1 (S24). As the arms 111 to 115 move in accordance with the input target value, the reference plane becomes approximately perpendicular to the optical axis of the image pickup unit 2 and the optical axis of the image pickup unit 2 moves to the reference point P5 at the center. It will be the position and posture to pass through. That is, when the low-accuracy inclination correction is executed and terminated, the positional relationship between the imaging unit 2 and the reference points P1 to P9 becomes a low-precision vertical state.

1−3−3.焦点調整
次に図6を参照しながら焦点調整の詳細を説明する。
はじめに目標値導出部32は現在のTCPの位置と姿勢を保存する(S31)。すなわ
ち、図7に示すように低精度傾き補正が終了した時点における基準平面F(1)に対応す
るTCPの位置と姿勢が保存される。
1-3-3. Focus Adjustment Next, details of the focus adjustment will be described with reference to FIG.
First, the target value deriving unit 32 stores the current TCP position and orientation (S31). That is, as shown in FIG. 7, the position and orientation of the TCP corresponding to the reference plane F (1) at the time when the low-precision inclination correction is completed are stored.

次に、目標値導出部32は、低精度傾き補正時に導出した基準平面の座標系での基準点
の座標と、撮像部2の座標系での基準点の座標とに基づいて、焦点調整時に取得する画像
内にツールチャック1261が写る領域と、撮像部2からツールチャック1261までの
距離とを導出する(S32)。
Next, the target value deriving unit 32 performs the focus adjustment based on the coordinates of the reference point in the coordinate system of the reference plane derived during the low-precision tilt correction and the coordinates of the reference point in the coordinate system of the imaging unit 2. An area where the tool chuck 1261 is reflected in the acquired image and a distance from the imaging unit 2 to the tool chuck 1261 are derived (S32).

続いて画像取得部31は撮像部2から画像を取得する(S33)。このとき、画像取得
部31は、ステップS32で導出された領域にツールチャック1261が写っている画像
を取得することになる。
Subsequently, the image acquisition unit 31 acquires an image from the imaging unit 2 (S33). At this time, the image acquisition unit 31 acquires an image in which the tool chuck 1261 is reflected in the region derived in step S32.

続いて目標値導出部32は、撮像部2から取得した画像に基づいて撮像部2の合焦指標
を導出する(S34)。合焦指標としては、ツールチャック1261が写る領域の微分積
算値(シャープネス)を一定面積で標準化した値を用いることができる。合焦指標を導出
する対象領域は、図8Bの点線で囲んだ領域のようにツールチャック1261が画像に写
る領域に設定される。すなわち、撮像部2によってマーカーとしてのツールチャック12
61が撮像された画像から切り出された部分画像に基づいて合焦指標が導出される。
Subsequently, the target value deriving unit 32 derives the focus index of the imaging unit 2 based on the image acquired from the imaging unit 2 (S34). As the focus index, a value obtained by standardizing a differential integrated value (sharpness) of a region where the tool chuck 1261 is captured with a certain area can be used. The target region from which the focus index is derived is set to a region where the tool chuck 1261 appears in the image, such as a region surrounded by a dotted line in FIG. 8B. That is, the tool chuck 12 as a marker by the imaging unit 2.
A focus index is derived based on a partial image cut out from the image obtained by capturing 61.

続いて目標値導出部32は、焦点調整において撮像部2が撮像した回数が規定回数に達
したか否かを判定する(S35)。
Subsequently, the target value deriving unit 32 determines whether or not the number of times that the imaging unit 2 has taken an image in the focus adjustment has reached a specified number (S35).

焦点調整において撮像部2が撮像した回数が規定回数に達していない場合、目標値導出
部32は基準平面に対して垂直で撮像部2に接近する方向に所定距離だけTCPを移動さ
せ(S36)、ステップS33から処理が繰り返される。すなわち、撮像回数が規定回数
に達するまで、基準平面はロボット1のTCPとともに図7に示すようにF(2)、F(
3)、F(4)、・・・と移動し、各基準平面について撮像部2による撮像が行われ、撮
像された画像毎に合焦指標が導出される。ツールチャック1261が撮像部2に接近する
ほど、ツールチャック1261が写る領域は大きくなり、やがてツールチャック1261
は図8Cに示すように画像に収まらなくなる。そこで合焦指標を導出する対象領域は、ツ
ールチャック1261が撮像部2に接近するほど大きく設定され、ツールチャック126
1が写る領域が画像の端辺に接した後に画像全体になる。このようにして設定される領域
について合焦指標が導出されると、合焦指標がシャープネスであれば、通常は、徐々に大
きくなった後に徐々に小さくなる。
When the number of times the imaging unit 2 has taken the image in the focus adjustment has not reached the specified number, the target value deriving unit 32 moves the TCP by a predetermined distance in a direction perpendicular to the reference plane and approaching the imaging unit 2 (S36). The process is repeated from step S33. That is, until the number of times of imaging reaches the specified number of times, the reference plane is F (2), F (
3), F (4),..., The imaging unit 2 performs imaging on each reference plane, and a focus index is derived for each captured image. The closer the tool chuck 1261 is to the imaging unit 2, the larger the area where the tool chuck 1261 appears, and eventually the tool chuck 1261.
Will not fit in the image as shown in FIG. 8C. Therefore, the target region from which the focus index is derived is set to be larger as the tool chuck 1261 approaches the imaging unit 2.
The entire image is displayed after the region where 1 appears in contact with the edge of the image. When the focus index is derived for the region set in this way, if the focus index is sharpness, the focus index usually increases gradually and then gradually decreases.

焦点調整において撮像部2が撮像した回数が規定回数に達すると、目標値導出部32は
、合焦状態にするための目標値を合焦指標に基づいて導出し、出力部33は導出された目
標値をロボット1に出力する(S36)。具体的には例えば、ステップS34で導出され
る複数の合焦指標のうち最大の合焦指標が得られた位置にTCPを移動させるための目標
値が導出される。導出された目標値がロボット1に出力されると、基準平面は撮像部2に
対して合焦状態になる。通常は、図7において基準平面がF(7)からF(5)に動くよ
うに、基準平面に対して垂直で撮像部2から離れる方向にTCPが移動するようにアーム
111〜115が動くことによって合焦状態になる。
When the number of times the image pickup unit 2 has taken an image in the focus adjustment reaches a specified number, the target value deriving unit 32 derives a target value for achieving the in-focus state based on the focus index, and the output unit 33 is derived. The target value is output to the robot 1 (S36). Specifically, for example, a target value for moving the TCP to the position where the maximum focus index is obtained among the plurality of focus indices derived in step S34 is derived. When the derived target value is output to the robot 1, the reference plane is in focus with respect to the imaging unit 2. Normally, the arms 111 to 115 move so that the TCP moves in a direction perpendicular to the reference plane and away from the imaging unit 2 so that the reference plane moves from F (7) to F (5) in FIG. To bring it into focus.

以上述べたように、焦点調整では、基準平面と垂直で撮像部2に接近する第一方向に基
準点を接近させた後に、マーカーとしてのツールチャック1261が撮像された画像から
切り出された部分画像に基づいて合焦状態にするための目標値が導出される。導出された
目標値に基づいて、アーム111〜115が基準点と撮像部2との位置関係を合焦状態に
変化させる。ここで焦点調整は低精度垂直状態で行われるため、基準平面と撮像部2の光
軸が垂直である。したがって、基準平面と垂直方向に基準点を移動させることは、撮像部
2の光軸と平行な方向に撮像部2と基準点を変化させることと凡そ同じである。
As described above, in the focus adjustment, after the reference point is approached in the first direction that is perpendicular to the reference plane and approaches the imaging unit 2, the partial image cut out from the image in which the tool chuck 1261 as the marker is imaged. Based on this, a target value for achieving the in-focus state is derived. Based on the derived target value, the arms 111 to 115 change the positional relationship between the reference point and the imaging unit 2 to a focused state. Here, since the focus adjustment is performed in a low-precision vertical state, the optical axis of the reference plane and the imaging unit 2 is vertical. Therefore, moving the reference point in the direction perpendicular to the reference plane is substantially the same as changing the imaging unit 2 and the reference point in a direction parallel to the optical axis of the imaging unit 2.

1−3−4.高精度傾き補正
次に高精度傾き補正について図9を参照しながら詳細に説明する。
はじめに目標値導出部32は、現在の傾き指標Hを導出する(S401)。傾き指標
は、同一の基準平面に属する中央の基準点P5とその近傍の4つの基準点P2、P4、P
6、P8の基準平面の座標系の座標と撮像部2の座標系の座標とを用いて導出される。基
準平面が撮像部2の光軸に垂直であって、中央の基準点P5を撮像部2の光軸が通る状態
で撮像部によって撮像される画像において(図8D参照)、ツールチャック1261が示
す各基準点の間隔d1、d2、d3、d4は等しくなる。そしてこのとき、基準点Pnの
座標をp(n)で表すとすれば、次式が成立する。
1-3-4. High-precision tilt correction Next, high-precision tilt correction will be described in detail with reference to FIG.
First , the target value deriving unit 32 derives the current inclination index H1 (S401). The inclination index includes a central reference point P5 belonging to the same reference plane and four reference points P2, P4, P in the vicinity thereof.
6 and P8 are derived using the coordinates of the coordinate system of the reference plane of P8 and the coordinates of the coordinate system of the imaging unit 2. The tool chuck 1261 shows an image captured by the imaging unit with the reference plane perpendicular to the optical axis of the imaging unit 2 and the optical axis of the imaging unit 2 passing through the central reference point P5 (see FIG. 8D). The intervals d1, d2, d3, d4 between the reference points are equal. At this time, if the coordinates of the reference point Pn are represented by p (n), the following equation is established.

=u
=v
ただし、
=p(5)−p(4)
=p(6)−p(5)
=p(5)−p(2)
=p(8)−p(5)
u 1 = u 2
v 1 = v 2
However,
u 1 = p (5) −p (4)
u 2 = p (6) −p (5)
v 1 = p (5) -p (2)
v 2 = p (8) -p (5)

そして、垂直状態から基準点P2と基準点P8を結ぶ直線を軸に基準平面が回転すると
、回転角度に応じてvとvの差が大きくなる。また垂直状態から基準点P4と基準点
P6を結ぶ直線を軸に基準平面が回転すると、回転角度に応じてuとuの差が大きく
なる。したがって、傾き指標として次式のH、Hを用いることができる。
=|u−u
=|v−v
Then, when the reference plane a straight line connecting the reference point P2 and the reference point P8 from the vertical state to the axis rotation, the difference between v 1 and v 2 is increased according to the rotation angle. Further, when the reference plane to the axis of the straight line connecting the reference point P4 and the reference point P6 from the vertical state to the rotation, the difference between u 1 and u 2 is increased according to the rotation angle. Therefore, the following formulas H x and H y can be used as the inclination index.
H x = | u 1 −u 2 |
H y = | v 1 −v 2 |

次に目標値導出部32は、導出した傾き指標H、Hを予め決めた閾値と比較し、傾
き指標H、Hが予め決められた閾値以下であるか否かを判定する(S402)。傾き
指標H、Hが予め決められた閾値以下である場合、高精度傾き補正は成功して終了す
る。
Next, the target value deriving unit 32 compares the derived inclination indexes H x and H y with a predetermined threshold value, and determines whether or not the inclination indexes H x and H y are equal to or less than the predetermined threshold value ( S402). When the inclination indexes H x and H y are equal to or less than a predetermined threshold value, the high-precision inclination correction is completed successfully.

傾き指標H、Hが予め決められた閾値以下でない場合、目標値導出部32は、後述
するステップS411の傾き補正の実施回数が予め決められた閾値未満であるか否かを判
定する(S403)。傾き補正の実施回数が予め決められた閾値未満でない場合、高精度
傾き補正は失敗して終了する。高精度傾き補正が失敗して終了する場合、自動校正を終了
しても良いし、低精度傾き補正から自動校正をやり直しても良い。
If the slope indices H x and H y are not less than or equal to a predetermined threshold value, the target value deriving unit 32 determines whether or not the number of times of slope correction performed in step S411, which will be described later, is less than a predetermined threshold value ( S403). If the number of times of tilt correction is not less than a predetermined threshold, the high-precision tilt correction fails and ends. When the high-precision tilt correction fails and ends, the automatic calibration may be terminated, or the automatic calibration may be performed again from the low-precision tilt correction.

傾き補正の実施回数が予め決められた閾値未満である場合、目標値導出部32は現在の
TCPの姿勢を姿勢(1)として保存する(S404)。
If the number of times of inclination correction is less than a predetermined threshold value, the target value deriving unit 32 stores the current TCP posture as the posture (1) (S404).

次に目標値導出部32は基準平面をY軸まわりにδ度回転させるための目標値を導出し
、出力部33は導出された目標値をロボットに出力する(S405)。δは、高精度垂直
状態に許容される誤差に応じて予め決められる微小な角度である。続いて目標値導出部3
2は、目標値に応じてTCPとともに回転した基準平面について新たな基準点を設定し、
新たな各基準点にTCPが位置する状態で撮像された画像を解析することにより、傾き指
標Hを導出する(S406)。具体的には、目標値導出部32は回転後の新たな基準平
面に属する基準点P2、P4、P5、P6、P8にTCPを移動させるための目標値を導
出し、出力部33は導出された目標値をロボット1に出力し、画像取得部31は各基準点
にTCPが位置する状態で撮像された画像を撮像部2から取得する。目標値導出部32は
、このように取得された画像をステップS401と同様に解析することにより、傾き指標
を導出する。その結果、姿勢(1)に対応する基準平面からY軸まわりにδ度回転し
た基準平面について傾き指標Hが導出される。続いて出力部33は、姿勢(1)にTC
Pを復帰させるための目標値をロボット1に出力する(S407)。
Next, the target value deriving unit 32 derives a target value for rotating the reference plane around the Y axis by δ degrees, and the output unit 33 outputs the derived target value to the robot (S405). δ is a minute angle determined in advance according to an error allowed in the high-precision vertical state. Subsequently, the target value deriving unit 3
2 sets a new reference point for the reference plane rotated with TCP according to the target value,
By analyzing an image captured in a state where the TCP is located on each new reference point, to derive the gradient index H 2 (S406). Specifically, the target value deriving unit 32 derives a target value for moving the TCP to the reference points P2, P4, P5, P6, and P8 belonging to the new reference plane after rotation, and the output unit 33 is derived. The obtained target value is output to the robot 1, and the image acquisition unit 31 acquires an image captured with the TCP located at each reference point from the imaging unit 2. Target value deriving unit 32, by analyzing the acquired image thus similar to step S401, to derive the gradient index H 2. As a result, the index H 2 slope for the reference plane obtained by rotating δ degrees from a reference plane corresponding to the position (1) around the Y-axis is derived. Subsequently, the output unit 33 changes the TC to the posture (1).
A target value for returning P is output to the robot 1 (S407).

次に目標値導出部32は、基準平面をX軸まわりにδ度回転させるための目標値を導出
し、出力部33は導出された目標値をロボットに出力する(S408)。続いて目標値導
出部32は、目標値に応じてTCPとともに回転した基準平面について新たな基準点を設
定し、新たな各基準点にTCPが位置する状態で撮像された画像を解析することにより、
傾き指標Hを導出する(S409)。その結果、姿勢(1)に対応する基準平面からX
軸まわりにδ度回転した基準平面について傾き指標Hが導出される。
Next, the target value deriving unit 32 derives a target value for rotating the reference plane around the X axis by δ degrees, and the output unit 33 outputs the derived target value to the robot (S408). Subsequently, the target value deriving unit 32 sets a new reference point for the reference plane rotated together with the TCP according to the target value, and analyzes the image captured with the TCP positioned at each new reference point. ,
To derive a gradient index H 3 (S409). As a result, from the reference plane corresponding to the posture (1), X
Indicator H 3 tilt the reference plane obtained by rotating δ degrees around the axis is derived.

次に目標値導出部32は、傾き指標H、H、Hに基づいて傾き補正量ΔV、ΔW
を導出する(S410)。傾き補正量ΔV、ΔWは、次式によって導出される。
Next, the target value deriving unit 32 uses the inclination correction amounts ΔV, ΔW based on the inclination indexes H 1 , H 2 , H 3.
Is derived (S410). The inclination correction amounts ΔV and ΔW are derived by the following equations.

Figure 2016097474
Figure 2016097474

次に目標値導出部32は導出された傾き補正量ΔV、ΔWに基づいて目標値を導出し、
導出された目標値を出力部33がロボットに出力する(S411)。その結果、アーム1
11〜115が動くことによりX軸まわりにΔV、Y軸周りにΔWだけ基準平面が回転す
る。
Next, the target value deriving unit 32 derives a target value based on the derived inclination correction amounts ΔV and ΔW,
The output unit 33 outputs the derived target value to the robot (S411). As a result, arm 1
By moving 11 to 115, the reference plane rotates by ΔV around the X axis and ΔW around the Y axis.

高精度傾き補正では、以上述べたステップS401からS411までの処理を、ステッ
プS402で肯定判定がなされて高精度垂直状態になって終了するか、ステップS403
で否定判定がなされるまで繰り返される。
In the high-accuracy inclination correction, the processing from step S401 to S411 described above is ended in a high-precision vertical state with an affirmative determination made in step S402, or step S403.
Repeat until negative determination is made.

1−3−5.9点校正
次に9点校正について説明する。高精度傾き補正が成功した状態では、基準平面は撮像
部2の光軸に対して正確に垂直になっている。このことは、高精度傾き補正が完了するま
でに得られる基準点の座標に基づいて、ロボット座標系と撮像部2の座標系が基準平面に
おいては回転成分と拡大縮小成分について校正できることを意味する。9点校正では、基
準平面上の任意の点について、レンズ201の歪みも加味して、正確にロボット座標系と
撮像部2の座標系とを校正する。すなわち、9点校正では、ロボット座標系と撮像部2の
座標系との線形の関係性を非線形に補正するためのパラメーターが、ロボット座標系の9
つの基準点の座標と撮像部2の座標系の9つの基準点の座標とを用いて導出される。具体
的には、出力部33は、9つの基準点にTCPを移動させるための目標値をロボット1に
出力してアーム111〜115を動かし、画像取得部31は各基準点に位置するツールチ
ャック1261を撮像した9つの画像を取得する。校正部34は、各画像を解析してツー
ルチャック1261が示す基準点を検出する。続いて校正部34は、出力部33がロボッ
ト1に出力した目標値の座標と、画像を解析して取得した基準点の座標とに基づいて、最
終的な校正のための補正パラメーターを導出する。なお、このような非線形補正に用いる
パラメーターを導出するために用いる基準点の数が多いほど校正の精度は高くなる。
1-3-5.9 Point Calibration Next, 9 point calibration will be described. In a state where the high-precision tilt correction is successful, the reference plane is exactly perpendicular to the optical axis of the imaging unit 2. This means that the robot coordinate system and the coordinate system of the imaging unit 2 can calibrate the rotation component and the enlargement / reduction component in the reference plane based on the coordinates of the reference point obtained until the high-precision tilt correction is completed. . In the nine-point calibration, the robot coordinate system and the coordinate system of the imaging unit 2 are accurately calibrated at any point on the reference plane, taking into account the distortion of the lens 201. That is, in the nine-point calibration, a parameter for correcting the linear relationship between the robot coordinate system and the coordinate system of the imaging unit 2 nonlinearly is 9 in the robot coordinate system.
It is derived using the coordinates of one reference point and the coordinates of nine reference points in the coordinate system of the imaging unit 2. Specifically, the output unit 33 outputs a target value for moving the TCP to nine reference points to the robot 1 to move the arms 111 to 115, and the image acquisition unit 31 is a tool chuck located at each reference point. Nine images obtained by imaging 1261 are acquired. The calibration unit 34 analyzes each image and detects a reference point indicated by the tool chuck 1261. Subsequently, the calibration unit 34 derives a correction parameter for final calibration based on the coordinates of the target value output to the robot 1 by the output unit 33 and the coordinates of the reference point obtained by analyzing the image. . Note that the greater the number of reference points used for deriving parameters used for such nonlinear correction, the higher the calibration accuracy.

1−4.変形例
なお、撮像部2の位置と姿勢がロボット座標系において固定されていれば、上述した方
法で撮像部2の座標系とロボット座標系とを校正することができることはいうまでもない
。例えば、撮像部2を室内の壁に、光軸が水平になるように固定して、垂直な基準平面を
設定しても良い。また例えば、撮像部2を室内の天井に、鉛直下向きに固定して、水平な
基準平面を設定しても良い。
1-4. Modification Examples It goes without saying that if the position and orientation of the imaging unit 2 are fixed in the robot coordinate system, the coordinate system of the imaging unit 2 and the robot coordinate system can be calibrated by the method described above. For example, the imaging unit 2 may be fixed to an indoor wall so that the optical axis is horizontal, and a vertical reference plane may be set. Further, for example, the horizontal reference plane may be set by fixing the imaging unit 2 to the indoor ceiling vertically downward.

2.第二実施例
第二実施例では、撮像部22をロボット1の可動部に装着したロボットシステムについ
て説明する。本実施例では、図10に示すように撮像部22の光軸が回転軸部材126と
平行になるように撮像部22がアーム111にステー等で固定されているものとする。第
一実施例ではロボット座標系に固定された撮像部2のロボットビジョンを校正するために
基準点をロボット座標系で動かしながら校正対象となる基準平面を設定した。これに対し
て第二実施例では校正対象となる基準平面がロボット座標系に対してはじめから固定され
ているため、校正対象となる基準平面に対して光軸が垂直な状態になるように撮像部22
をロボット1で動かした状態で校正が実行される。
2. Second Example In the second example, a robot system in which the imaging unit 22 is mounted on a movable unit of the robot 1 will be described. In this embodiment, it is assumed that the imaging unit 22 is fixed to the arm 111 with a stay or the like so that the optical axis of the imaging unit 22 is parallel to the rotation shaft member 126 as shown in FIG. In the first embodiment, in order to calibrate the robot vision of the imaging unit 2 fixed to the robot coordinate system, the reference plane to be calibrated is set while moving the reference point in the robot coordinate system. In contrast, in the second embodiment, since the reference plane to be calibrated is fixed from the beginning with respect to the robot coordinate system, imaging is performed so that the optical axis is perpendicular to the reference plane to be calibrated. Part 22
Calibration is performed with the robot 1 moved by the robot 1.

以下、撮像部22をロボット1の可動部に装着したロボットシステムの自動校正につい
て図11を参照しながら説明する。
本実施例の自動校正は、撮像部22の光軸が回転軸部材126と凡そ平行になっている
ことを前提として実施される。校正開始指示を入力する前の準備段階でアーム115に対
する撮像部22の撮像位置と撮像姿勢を環境情報として設定する必要がある。撮像位置は
撮像部22の光軸とエリアイメージセンサー202が交わる位置とする。撮像姿勢は光軸
の姿勢とする。ただし、環境情報として設定される撮像部22のアーム115に対する撮
像位置と撮像姿勢が、自動校正を開始する時点で、撮像部22のアーム115への取り付
け状態と厳密に対応している必要はない。
Hereinafter, automatic calibration of the robot system in which the imaging unit 22 is mounted on the movable unit of the robot 1 will be described with reference to FIG.
The automatic calibration of the present embodiment is performed on the assumption that the optical axis of the imaging unit 22 is approximately parallel to the rotating shaft member 126. It is necessary to set the imaging position and imaging posture of the imaging unit 22 with respect to the arm 115 as environment information at a preparation stage before inputting the calibration start instruction. The imaging position is a position where the optical axis of the imaging unit 22 and the area image sensor 202 intersect. The imaging posture is the optical axis posture. However, the imaging position and the imaging orientation of the imaging unit 22 with respect to the arm 115 set as environment information do not need to correspond strictly to the attachment state of the imaging unit 22 to the arm 115 at the time of starting automatic calibration. .

また本実施例の自動校正は、図12に示すようにロボット座標系に対して固定された9
つの基準点P21〜P29について実施される。基準点P21〜P29は任意に設定可能
な1つの基準平面に含まれる格子点である。そこで準備段階において、図13に示すマー
カー41〜49が付されたマーカーボード4が図10に示すようにテーブル9に固定され
る。マーカーボード4は、円形の輪郭を有する9つのマーカー41〜49が平坦な面の所
定の格子点に付された板である。マーカーボード4上の各マーカー41〜49の中心位置
はマーカーボード4に固定された2次元の座標系(マーカー座標系)で目標値導出部32
が保持する。各マーカー41〜49の中心が基準点P21〜P29として定義される。な
お、マーカーはマーカーが撮像された画像からマーカーを検出することにより基準点を特
定可能な形態であればよい。すなわち、特定の点の位置をマーカーの図形に対して幾何学
的に定義できる形態であればよい。マーカーから離れた点が基準点として定義されてもよ
いし、1つのマーカーから複数の基準点が定義されても良いし、互いに離れた複数のマー
カーで1つの基準点が定義されても良い。
Further, the automatic calibration of the present embodiment is fixed to the robot coordinate system as shown in FIG.
This is performed for the two reference points P21 to P29. The reference points P21 to P29 are lattice points included in one reference plane that can be arbitrarily set. Therefore, in the preparation stage, the marker board 4 with the markers 41 to 49 shown in FIG. 13 is fixed to the table 9 as shown in FIG. The marker board 4 is a plate in which nine markers 41 to 49 having a circular outline are attached to predetermined lattice points on a flat surface. The center position of each of the markers 41 to 49 on the marker board 4 is a target value deriving unit 32 in a two-dimensional coordinate system (marker coordinate system) fixed to the marker board 4.
Hold. The centers of the markers 41 to 49 are defined as reference points P21 to P29. The marker may be in any form that can identify the reference point by detecting the marker from the image of the marker. In other words, any form can be used as long as the position of a specific point can be geometrically defined with respect to the marker figure. A point separated from the marker may be defined as a reference point, a plurality of reference points may be defined from one marker, or a single reference point may be defined by a plurality of markers separated from each other.

指示受付部30が校正開始指示を受け付けると(S1)、低精度傾き補正が実行される
(S2)。マーカーボード4に付されたマーカー41〜49が9つの基準点を示すため、
本実施例の低精度傾き補正では基準点毎にロボット1を動かす必要はない。マーカーボー
ド4の全体を撮像部22で撮像可能な状態で校正開始指示を受け付けると、画像取得部3
1は9つのマーカー41〜49が写った1つの画像を撮像部22から取得する。目標値導
出部32は、取得した1つの画像を解析してマーカー41〜49が示す9つの基準点を撮
像部22の座標系で検出する。続いて目標値導出部32は、基準点の撮像部22の座標系
の座標と、環境情報として入力されている撮像部22の撮像位置と撮像姿勢と、マーカー
41〜49のマーカー座標系の座標とに基づいて、撮像部22の座標系とロボット座標系
の対応関係を導出する。具体的にはマーカー41〜49が位置する基準平面について撮像
部22の座標系をロボット座標系に変換するための変換行列を導出する。ただし、ここで
導出される変換行列は、撮像部22がマーカー41〜49に合焦していない状態で撮像さ
れた画像に基づいて導出されるものであるから、基準点P21〜P29に対する撮像部2
2の撮像姿勢や撮像位置に正確に対応したものではない。続いて目標値導出部32は、導
出した変換行列に基づいて、マーカーボード4に対して撮像部22の光軸が垂直になり、
かつ、撮像部22の光軸が中央のマーカー45の中心を通る位置と姿勢にアーム115を
動かすための目標値を導出し、導出した目標値を出力部33を介してロボット1の制御部
14に出力する。入力された目標値に応じてアーム111〜115が動くことにより、撮
像部22の光軸はマーカーボード4に対して凡そ垂直になり、かつ、撮像部22の光軸が
中央のマーカー45の凡そ中心を通るようになる。すなわち、低精度傾き補正を実行して
終了すると、撮像部22と基準平面の位置関係は低精度垂直状態になる。
When the instruction receiving unit 30 receives a calibration start instruction (S1), low-precision inclination correction is executed (S2). Since the markers 41 to 49 attached to the marker board 4 indicate nine reference points,
In the low-precision inclination correction of this embodiment, it is not necessary to move the robot 1 for each reference point. When a calibration start instruction is received in a state in which the entire marker board 4 can be imaged by the imaging unit 22, the image acquisition unit 3.
1 acquires from the imaging unit 22 one image in which nine markers 41 to 49 are captured. The target value deriving unit 32 analyzes one acquired image and detects nine reference points indicated by the markers 41 to 49 in the coordinate system of the imaging unit 22. Subsequently, the target value deriving unit 32 has the coordinates of the coordinate system of the imaging unit 22 of the reference point, the imaging position and imaging orientation of the imaging unit 22 input as environment information, and the coordinates of the marker coordinate system of the markers 41 to 49. Based on the above, the correspondence between the coordinate system of the imaging unit 22 and the robot coordinate system is derived. Specifically, a conversion matrix for converting the coordinate system of the imaging unit 22 to the robot coordinate system is derived for the reference plane on which the markers 41 to 49 are located. However, since the transformation matrix derived here is derived based on an image captured in a state where the imaging unit 22 is not focused on the markers 41 to 49, the imaging unit for the reference points P21 to P29. 2
2 does not accurately correspond to the imaging posture or the imaging position. Subsequently, the target value deriving unit 32 makes the optical axis of the imaging unit 22 perpendicular to the marker board 4 based on the derived transformation matrix,
In addition, a target value for moving the arm 115 to a position and posture in which the optical axis of the imaging unit 22 passes through the center of the central marker 45 is derived, and the derived target value is output to the control unit 14 of the robot 1 via the output unit 33. Output to. As the arms 111 to 115 move according to the input target value, the optical axis of the imaging unit 22 is approximately perpendicular to the marker board 4, and the optical axis of the imaging unit 22 is approximately the center marker 45. Go through the center. That is, when the low-accuracy inclination correction is executed and finished, the positional relationship between the imaging unit 22 and the reference plane becomes a low-precision vertical state.

次に焦点調整が実行される(S3)。本実施例の焦点調整は、ツールチャック1261
が写る領域のシャープネスが最大になるようにTCPを動かす代わりに、マーカーボード
4の中央のマーカー45が写る領域のシャープネスが最大になるようにアーム115を動
かす点を除けば、第一実施例の焦点調整と同一である。焦点調整が終了すると、撮像部2
2と基準点P25の位置関係は合焦状態になる。
Next, focus adjustment is executed (S3). In this embodiment, the focus adjustment is performed using the tool chuck 1261.
Instead of moving the TCP so that the sharpness of the area where the image appears is maximized, the arm 115 is moved so that the sharpness of the area where the marker 45 in the center of the marker board 4 is reflected is maximized. Same as focus adjustment. When the focus adjustment is completed, the imaging unit 2
2 and the reference point P25 are in a focused state.

次に撮像部姿勢補正が実行される(S6)。撮像部姿勢補正は、環境情報として設定さ
れている撮像部22の撮像姿勢と実際の撮像部22の撮像姿勢とのずれを、環境情報を補
正することにより、補正する処理である。詳細については後述する。
Next, the imaging unit posture correction is executed (S6). The imaging unit posture correction is a process of correcting a deviation between the imaging posture of the imaging unit 22 set as environment information and the actual imaging posture of the imaging unit 22 by correcting the environmental information. Details will be described later.

次に高精度傾き補正が実行される(S5)。高精度傾き補正は、第一実施例の高精度傾
き補正と次の点を除いて同一である。第一実施例で用いた5つの基準点のうちの中央の基
準点P5を現在の撮像部22の撮像位置とする。また第一実施例で用いた5つの基準点の
残りの4つの基準点P2、P4、P6、P8を、撮像部22の撮像位置として、撮像部2
2の光軸と垂直で現在の撮像位置を含む平面上に、現在の撮像部22の撮像位置を中心と
する90度間隔に設定する。これらの5つの撮像位置の設定には、ステップS6で補正さ
れた環境情報である撮像部22の撮像位置と撮像姿勢と、現在のアーム115の位置と姿
勢とが用いられる。画像取得部31は、このように設定した5つの撮像位置にあって光軸
が5つの撮像位置を含む平面に垂直な撮像部22でマーカーボード4を撮像し、5つの画
像を取得する。目標値導出部32は、5つの画像を解析してマーカーボード4の中央のマ
ーカー45の中心を撮像部22の座標系で検出する。このようにして検出するマーカー4
5の5つの中心座標を第一実施例の高精度補正において検出した5つの基準点の座標の代
わりに用いて第一実施例と同様の高精度傾き補正を実行する。このような高精度傾き補正
を実行することにより、撮像部22の光軸がマーカーボード4と垂直で、かつ、撮像部2
2の光軸がマーカー45の中心を通る状態に対応する目標値が導出される。導出された目
標値がロボット1に入力されると、入力された目標値に基づいてアーム111〜115が
動き、撮像部22の光軸がマーカー45の中心を通りマーカーボード4に対して垂直にな
る。すなわち、高精度傾き補正が成功して終了すると、基準点P21〜29と撮像部22
の位置関係は高精度垂直状態になる。
Next, high-precision tilt correction is executed (S5). The high-precision inclination correction is the same as the high-precision inclination correction of the first embodiment except for the following points. The center reference point P5 among the five reference points used in the first embodiment is set as the current imaging position of the imaging unit 22. Further, the remaining four reference points P2, P4, P6, and P8 of the five reference points used in the first embodiment are set as the imaging positions of the imaging unit 22, and the imaging unit 2 is used.
On the plane that is perpendicular to the optical axis 2 and includes the current imaging position, an interval of 90 degrees centered on the imaging position of the current imaging unit 22 is set. For the setting of these five imaging positions, the imaging position and imaging posture of the imaging unit 22 and the current position and posture of the arm 115, which are the environment information corrected in step S6, are used. The image acquisition unit 31 images the marker board 4 with the imaging unit 22 that is at the five imaging positions set in this manner and whose optical axis is perpendicular to the plane including the five imaging positions, and acquires five images. The target value deriving unit 32 analyzes the five images and detects the center of the marker 45 at the center of the marker board 4 in the coordinate system of the imaging unit 22. Marker 4 detected in this way
Using the five center coordinates 5 in place of the coordinates of the five reference points detected in the high-accuracy correction of the first embodiment, high-precision tilt correction similar to that of the first embodiment is executed. By executing such high-precision tilt correction, the optical axis of the imaging unit 22 is perpendicular to the marker board 4 and the imaging unit 2
A target value corresponding to a state in which the two optical axes pass through the center of the marker 45 is derived. When the derived target value is input to the robot 1, the arms 111 to 115 move based on the input target value, and the optical axis of the imaging unit 22 passes through the center of the marker 45 and is perpendicular to the marker board 4. Become. That is, when the high-precision inclination correction is completed successfully, the reference points P21 to 29 and the imaging unit 22 are completed.
The positional relationship of is in a highly accurate vertical state.

ここでステップS6の撮像部姿勢補正について詳細に説明する。例えば前述した撮像位
置P2、P5、P8において撮像部22の光軸が図14の点線に相当する撮像位置と撮像
姿勢が環境情報として設定されているとする。そして実際には、撮像位置P2、P5、P
8において光軸が基準平面Fに対して垂直でない実線A2、A5、A8に相当するように
撮像部22がアーム115に取り付けられているとする。この場合、撮像位置P2、P5
、P8に撮像部22を位置づけてマーカーボード4を撮像することによって高精度傾き補
正が実行されるとする。しかし、高精度傾き補正で導出された目標値に基づいてアーム1
11〜115が動作しても、撮像部22の光軸はマーカーボード4に対して垂直にならな
い。高精度傾き補正は、「現実の撮像部22の光軸」に対して垂直な平面上にある5つの
撮像位置から撮像部22で中央のマーカー45が5回撮像されることを前提としているの
に対し、「誤差のある環境情報に対応する光軸」に対して垂直な平面上にある5つの撮像
位置から撮像部22で撮像された5つの画像に基づいて傾き指標が導出されるからである
。したがって、「現実の撮像部22の光軸」と「環境情報に対応する光軸」とを一致させ
る補正を高精度補正前に実行する必要がある。高精度補正前に必要なこの補正が撮像部姿
勢補正である。
Here, the imaging unit posture correction in step S6 will be described in detail. For example, it is assumed that an imaging position and an imaging posture in which the optical axis of the imaging unit 22 corresponds to the dotted line in FIG. 14 at the imaging positions P2, P5, and P8 are set as environment information. And actually, the imaging positions P2, P5, P
8, the imaging unit 22 is attached to the arm 115 so as to correspond to the solid lines A2, A5, and A8 whose optical axes are not perpendicular to the reference plane F. In this case, the imaging positions P2, P5
, It is assumed that high-precision tilt correction is executed by positioning the imaging unit 22 at P8 and imaging the marker board 4. However, based on the target value derived by high-precision tilt correction, the arm 1
Even if 11 to 115 operate, the optical axis of the imaging unit 22 does not become perpendicular to the marker board 4. The high-precision tilt correction is based on the premise that the center marker 45 is imaged five times by the imaging unit 22 from five imaging positions on a plane perpendicular to the “real optical axis of the imaging unit 22”. On the other hand, the inclination index is derived based on the five images picked up by the image pickup unit 22 from the five image pickup positions on the plane perpendicular to the “optical axis corresponding to the environment information with error”. is there. Therefore, it is necessary to execute the correction for matching the “real optical axis of the imaging unit 22” with the “optical axis corresponding to the environment information” before the high-precision correction. This correction necessary before the high-accuracy correction is the imaging unit posture correction.

撮像部姿勢補正では、前述した5つの撮像位置P2、P4、P5、P6、P8から光軸
がこれらの撮像位置を含む平面に垂直になる撮像姿勢(補正されるべき環境情報に基づく
撮像姿勢)で撮像部22による撮像を行い、5つの画像のそれぞれからマーカーボード4
の中央のマーカー45の中心を検出する。続いて、このようにして検出するマーカー45
の5つの中心座標を第一実施例の高精度補正において検出した5つの基準点の座標の代わ
りに用いて第一実施例と同様の傾き補正量ΔV、ΔWを導出する。導出した補正量ΔV、
ΔWを用いて環境情報としての撮像部22の撮像姿勢を補正すると、「現実の撮像部22
の光軸」と「環境情報に対応する光軸」とを一致させることができる。
In the imaging unit attitude correction, an imaging attitude in which the optical axis is perpendicular to a plane including these imaging positions from the five imaging positions P2, P4, P5, P6, and P8 (imaging attitude based on environment information to be corrected). The image is picked up by the image pickup unit 22 and the marker board 4 is obtained from each of the five images.
The center of the center marker 45 is detected. Subsequently, the marker 45 detected in this way
Are used instead of the coordinates of the five reference points detected in the high accuracy correction of the first embodiment, and the same inclination correction amounts ΔV and ΔW as in the first embodiment are derived. Derived correction amount ΔV,
When the imaging posture of the imaging unit 22 as environment information is corrected using ΔW, “real imaging unit 22 is obtained.
The “optical axis” and “optical axis corresponding to environmental information” can be matched.

高精度傾き補正が成功して終了した後に、9点校正が実施される(S5)。本実施例の
9点校正では、第一実施例の9つの基準点P1〜P9にTCPを動かしながら撮像部22
で撮像した画像から各基準点の位置を撮像部22の座標系で検出する代わりに、高精度垂
直状態にある現在の撮像位置と撮像姿勢の撮像部22から取得する画像から9つのマーカ
ー41〜49の中心を基準点21〜29として検出する。そして、撮像部22の座標系で
検出された基準点21〜29の座標を、ロボット座標系の基準点21〜29の座標に変換
するための最終的な変換式が導出される。
After the high-precision tilt correction is completed successfully, nine-point calibration is performed (S5). In the nine-point calibration of the present embodiment, the imaging unit 22 is moved while moving the TCP to the nine reference points P1 to P9 of the first embodiment.
Instead of detecting the position of each reference point from the image captured by the image capturing unit 22 using the coordinate system of the image capturing unit 22, nine markers 41 to 41 are acquired from the image acquired from the image capturing unit 22 in the current image capturing position and image capturing posture in a high-precision vertical state. The center of 49 is detected as reference points 21-29. Then, a final conversion formula for converting the coordinates of the reference points 21 to 29 detected in the coordinate system of the imaging unit 22 into the coordinates of the reference points 21 to 29 in the robot coordinate system is derived.

3.第三実施例
ロボット1の状態は、種々のツールが装着されるツールチャック1261の位置と姿勢
(すなわちTCPの位置と姿勢)を示す目標値がロボット1に入力されることによって制
御される。したがって、ツールチャック1261やその他の部位に装着されるツールの位
置と姿勢を制御するためには、TCPに対するツールの位置と姿勢を予め環境情報として
設定しておき、ツールの位置と姿勢を、TCPの対応する位置と姿勢に変換して目標値を
ロボット1に入力する必要がある。本実施例では、各種のツールのTCPに対する位置と
姿勢をロボットビジョンを用いて検出して自動設定する方法について述べる。各種ツール
のTCPに対する位置と姿勢をロボットビジョンを用いて検出するにあたっては、それ以
前に、ロボット座標系と撮像部の座標系の校正が基準平面についてできていることが前提
となる。そこで本実施例では、第一実施例で説明したようにテーブル9に固定された撮像
部2の光軸に対して垂直な基準平面Fが設定され、設定された基準平面F上の9つの基準
点について校正が完了しているとする。この状態で、TCPに対して位置と姿勢が固定さ
れたツールのTCPに対する位置と姿勢をロボットビジョンを用いて検出する方法につい
て図15を参照しながら説明する。本実施例において「ツールのTCPに対する位置と姿
勢」は、基準平面上にあるツールの位置と姿勢を、TCPの位置と姿勢(x,y,z,u
,v,w)から特定するためのオフセット(ΔX、ΔY、ΔU)によって表される。ここ
で(x,y,z,u,v,w)はロボット座標系、(ΔX、ΔY、ΔU)は基準平面の座
標系であるが、既に述べたとおりロボット座標系と基準平面の座標系の関係は線形である
。したがって、ツールの位置と姿勢をロボット座標系と基準平面の座標系のいずれの座標
系で定めるかにおいて幾何学的に何ら違いはない。なお、ΔUは基準平面に垂直なZ軸周
りの回転成分である。
3. Third Example The state of the robot 1 is controlled by inputting to the robot 1 target values indicating the position and posture of a tool chuck 1261 on which various tools are mounted (that is, the TCP position and posture). Therefore, in order to control the position and posture of the tool mounted on the tool chuck 1261 and other parts, the position and posture of the tool with respect to the TCP are set in advance as environment information, and the position and posture of the tool are changed to the TCP. It is necessary to input the target value to the robot 1 by converting it into the corresponding position and posture. In the present embodiment, a method for automatically setting the positions and postures of various tools with respect to the TCP using a robot vision will be described. Before detecting the positions and orientations of various tools with respect to TCP using robot vision, it is assumed that the robot coordinate system and the coordinate system of the imaging unit have been calibrated with respect to the reference plane. Therefore, in this embodiment, as described in the first embodiment, the reference plane F perpendicular to the optical axis of the imaging unit 2 fixed to the table 9 is set, and nine references on the set reference plane F are set. Assume that the calibration is complete for a point. In this state, a method for detecting the position and posture of the tool whose position and posture with respect to the TCP with respect to the TCP using the robot vision will be described with reference to FIG. In this embodiment, “the position and orientation of the tool relative to the TCP” refers to the position and orientation of the tool on the reference plane, and the TCP position and orientation (x, y, z, u).
, V, w) is represented by an offset (ΔX, ΔY, ΔU) for identification. Here, (x, y, z, u, v, w) is a robot coordinate system, and (ΔX, ΔY, ΔU) is a reference plane coordinate system. As already described, the robot coordinate system and the reference plane coordinate system are used. The relationship is linear. Therefore, there is no geometric difference in whether the position and orientation of the tool are determined by the coordinate system of the robot coordinate system or the coordinate system of the reference plane. ΔU is a rotation component around the Z axis perpendicular to the reference plane.

はじめに、TCPをその中心軸が基準平面に対して垂直な姿勢を保って平行移動させる
ことにより、ツールマーカーによって示されるツールの参照点を基準平面上に移動させる
。このときツールチャック1261の中心軸を平行移動させれば良く、ツールチャック1
261をその中心軸周りに回転させてもよい(ΔUをオフセットに含めているためである
。)。ツールマーカーは参照点を指し示すものであればよく、ツール自体をツールマーカ
ーとしても良いが、本実施例ではツールにツールマーカーとしてラベルを貼付するものと
する。ラベルはその形状と大きさが既知のものであればよい。参照点はツールに対して固
定された点であればよい。またツールの参照点を基準平面に移動させるとき、ジョグ送り
によってTCPを移動させても良いが、ロボットビジョンを用いて自動的にTCPを移動
させても良い。具体的には、ツールマーカーの形状と大きさが既知であるため、移動前に
撮像されたツールマーカーの画像に基づいて、移動前のツールマーカーの基準平面に対す
る位置を特定する。そして基準平面に対して特定したツールマーカーの位置から基準平面
にツールマーカーを移動させるためのTCPの目標値を導出し、導出した目標値をロボッ
ト1に出力する。さらにこの撮像と移動の処理を繰り返すことにより、ツールマーカーで
示されるツールの参照点を座標平面上に正確に位置づけることが可能である。
First, the reference point of the tool indicated by the tool marker is moved on the reference plane by moving the TCP parallel while maintaining the posture in which the central axis is perpendicular to the reference plane. At this time, the center axis of the tool chuck 1261 may be moved in parallel.
261 may be rotated around its central axis (because ΔU is included in the offset). The tool marker only needs to indicate a reference point, and the tool itself may be used as a tool marker. However, in this embodiment, a label is attached to the tool as a tool marker. It is sufficient that the label has a known shape and size. The reference point may be a point fixed with respect to the tool. Further, when the tool reference point is moved to the reference plane, the TCP may be moved by jog feed, but the TCP may be automatically moved using a robot vision. Specifically, since the shape and size of the tool marker are known, the position of the tool marker before movement relative to the reference plane is specified based on the image of the tool marker imaged before movement. Then, a TCP target value for moving the tool marker to the reference plane is derived from the position of the tool marker specified with respect to the reference plane, and the derived target value is output to the robot 1. Furthermore, by repeating this imaging and movement process, the tool reference point indicated by the tool marker can be accurately positioned on the coordinate plane.

次に、基準平面上にツールの参照点が位置する状態でツールマーカーを撮像部2で撮像
し、ツールマーカーによって指し示される参照点の位置を撮像部2の座標系で検出する。
そして、撮像時のTCPから基準平面に下ろした垂線の足の座標と、検出した参照点の座
標とに基づいて、TCPのロボット座標系での位置と姿勢(x,y,z,u,v
,w)から基準平面上のツールの位置と姿勢を特定するためのオフセット(ΔX、Δ
Y、ΔU)を導出する。
Next, the tool marker is imaged by the imaging unit 2 in a state where the reference point of the tool is located on the reference plane, and the position of the reference point indicated by the tool marker is detected by the coordinate system of the imaging unit 2.
Then, the position and orientation (x 0 , y 0 , z 0 , TCP position in the robot coordinate system of the TCP are determined based on the coordinates of the perpendicular foot drawn from the TCP to the reference plane at the time of imaging and the coordinates of the detected reference point. u 0 , v
0 , w 0 ) offset (ΔX, Δ for specifying the position and orientation of the tool on the reference plane
Y, ΔU) is derived.

たとえば第二実施例の撮像部22をツールとしてオフセット(ΔX、ΔY、ΔU)を導
出することにより、環境情報として必要な撮像部22の位置と姿勢が特定される。したが
って撮像部22の位置と姿勢をユーザーに設定させる代わりに、撮像部22の位置と姿勢
を自動で検出し、検出した撮像部22の位置と姿勢を環境情報として自動で設定すること
が可能である。そして、そのように環境情報が自動設定された撮像部22を用いて、撮像
部22の座標系とロボット座標系とを校正することが可能である。すなわち、ロボット座
標系に固定された撮像部2とロボット1の可動部に固定された撮像部22のそれぞれの座
標系とロボット座標系との校正を、校正開始指示の入力だけで、自動で完了させることも
可能である。さらに、撮像部2や撮像部22とは別の撮像部を追加する場合、当該別の撮
像部を撮像部22で撮像することで、当該別の撮像部の座標系とロボット座標系との校正
をすることも可能になる。つまり、例えば、マーカーボード4を利用して、ロボットが動
作することで、自動で複数の撮像部の座標系とロボット座標系とを校正することができる
For example, by deriving an offset (ΔX, ΔY, ΔU) using the imaging unit 22 of the second embodiment as a tool, the position and orientation of the imaging unit 22 necessary as environment information are specified. Therefore, instead of allowing the user to set the position and orientation of the imaging unit 22, it is possible to automatically detect the position and orientation of the imaging unit 22, and to automatically set the detected position and orientation of the imaging unit 22 as environment information. is there. Then, it is possible to calibrate the coordinate system of the imaging unit 22 and the robot coordinate system using the imaging unit 22 in which the environment information is automatically set as described above. That is, the calibration of the respective coordinate systems of the imaging unit 2 fixed to the robot coordinate system and the imaging unit 22 fixed to the movable unit of the robot 1 and the robot coordinate system is completed automatically only by inputting a calibration start instruction. It is also possible to make it. Further, when an imaging unit different from the imaging unit 2 and the imaging unit 22 is added, the imaging unit 22 captures the image of the other imaging unit, thereby calibrating the coordinate system of the other imaging unit and the robot coordinate system. It is also possible to do. That is, for example, when the robot operates using the marker board 4, the coordinate system of the plurality of imaging units and the robot coordinate system can be automatically calibrated.

なお、複数のツールT1、T2について環境情報が必要な場合、それぞれの位置と姿勢
を特定するためのオフセットをツール毎に導出すればよい。すなわち、図15Aに示すよ
うにツールT1を基準平面Fに移動させてツールT1についてのオフセットを導出し、図
15Bに示すようにツールT2を基準平面Fに移動させてツールT2についてのオフセッ
トを導出すればよい。またここまで、最終的に1つの校正された基準平面を設定する例に
ついて説明したが、2つ以上の校正された基準平面を設定しても良い。例えば、ツールT
1に対応する基準平面とツールT2に対応する基準平面とを設定し、それぞれの基準平面
がロボット座標系と校正されても良い。
In addition, when environmental information is required for a plurality of tools T1 and T2, an offset for specifying each position and posture may be derived for each tool. That is, the tool T1 is moved to the reference plane F as shown in FIG. 15A to derive the offset for the tool T1, and the tool T2 is moved to the reference plane F as shown in FIG. 15B to derive the offset for the tool T2. do it. Further, the example in which one calibrated reference plane is finally set has been described so far, but two or more calibrated reference planes may be set. For example, Tool T
A reference plane corresponding to 1 and a reference plane corresponding to the tool T2 may be set, and each reference plane may be calibrated with the robot coordinate system.

4.他の実施形態
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨
を逸脱しない範囲内において種々変更を加え得ることは勿論である。
4). Other Embodiments The technical scope of the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the scope of the present invention.

例えば、校正開始指示はマウスによるクリック操作やディスプレイに対するタップ操作
や音声によって受け付けても良い。
For example, the calibration start instruction may be received by a click operation with a mouse, a tap operation on a display, or a voice.

また、上記実施例で説明した低精度傾き補正、焦点調整、高精度傾き補正の順序を入れ
替え、低精度傾き補正の前に焦点調整を実行してもよいし、低精度傾き補正、焦点調整、
高精度傾き補正のいずれかを省略しても良い。また校正が行われていない状態で撮像部に
よってマーカーが撮像された画像に基づいて導出された目標値を取得し、目標値に基づい
て撮像部と基準点の位置関係を予め決められた状態に変化させる処理が少なくとも1つあ
ればよい。例えば、基準点に合焦させるためのロボット操作をジョグ送りによって行い、
高精度傾き補正だけを画像に基づいて導出された目標値に基づいて実行してもよい。
Further, the order of the low-accuracy inclination correction, the focus adjustment, and the high-accuracy inclination correction described in the above embodiments may be changed, and the focus adjustment may be executed before the low-accuracy inclination correction.
Any of the high-precision tilt correction may be omitted. Further, a target value derived based on an image in which the marker is imaged by the imaging unit in a state where calibration is not performed is acquired, and the positional relationship between the imaging unit and the reference point is determined in advance based on the target value. There may be at least one process to be changed. For example, the robot operation for focusing on the reference point is performed by jog feed.
Only high-precision tilt correction may be performed based on a target value derived based on an image.

また、9点校正を実施せずに、高精度傾き補正する際に取得した3点以上の基準点の座
標にもとづいてロボット座標系と撮像部の座標系の校正を行っても良い。すなわち、撮像
部の座標系とロボット座標系の校正は、高精度傾き補正により設定した基準平面上の3以
上の基準点を用いて行えばよく、8以下の基準点を用いて校正を実行してもよいし、10
以上の基準点を用いて校正を実行しても良い。
Further, the robot coordinate system and the coordinate system of the imaging unit may be calibrated based on the coordinates of three or more reference points acquired when performing high-precision tilt correction without performing nine-point calibration. That is, the calibration of the coordinate system of the imaging unit and the robot coordinate system may be performed using three or more reference points on the reference plane set by high-precision tilt correction, and the calibration is executed using eight or less reference points. May be 10
Calibration may be executed using the above reference points.

またロボットを所定の姿勢に変化させるための何らかの目標値が校正開始指示に含まれ
ても良い。例えば、撮像部またはマーカーボードをテーブルに固定する位置が予め決めら
れている場合に、基準平面と撮像部がほぼ正対する位置にロボットビジョンを用いずにロ
ボットを動かすための目標値が校正開始指示に含まれてもよい。
Further, some target value for changing the robot to a predetermined posture may be included in the calibration start instruction. For example, if the position where the imaging unit or marker board is fixed to the table is determined in advance, the target value for moving the robot without using the robot vision to the position where the reference plane and the imaging unit almost face each other is instructed to start calibration May be included.

また本発明は、6軸以外の垂直多関節ロボットにも適用できるし、アームの回転軸が全
て平行なスカラーロボットにも適用できる。そして本発明は、2以上の撮像部を用いる3
次元のロボットビジョンに適用することも可能である。すなわち、3次元のロボットビジ
ョンを実現するための複数の撮像部の座標系とロボット座標系とを校正するにあたって、
本発明を適用することにより、各撮像部とマーカーの位置関係を、撮像部の座標系とロボ
ットの座標系とを校正するために必要な画像を撮像できる状態に、校正開始指示によって
変化させることができる。
The present invention can also be applied to vertical articulated robots other than six axes, and can also be applied to a scalar robot in which all the rotation axes of the arms are parallel. In the present invention, two or more imaging units are used.
It can also be applied to three-dimensional robot vision. That is, in calibrating the coordinate system of a plurality of imaging units and the robot coordinate system for realizing a three-dimensional robot vision,
By applying the present invention, the positional relationship between each imaging unit and the marker is changed by a calibration start instruction so that an image necessary for calibrating the coordinate system of the imaging unit and the coordinate system of the robot can be captured. Can do.

131〜136…モーター、111〜115…アーム、1…ロボット、2…撮像部、3…
PC、4…マーカーボード、9…テーブル、14…制御部、31…画像取得部、31…画
像取得部、32…目標値導出部、33…出力部、34…校正部、41〜49…マーカー、
110…基台、111…第一アーム、112…第二アーム、113…第三アーム、114
…第四アーム、115…第五アーム、121〜126…回転軸部材、131〜136…モ
ーター、201…レンズ、202…エリアイメージセンサー、1261…ツールチャック
、F…基準平面、P1〜P9…基準点、P21〜P29…基準点
131-136 ... motor, 111-115 ... arm, 1 ... robot, 2 ... imaging unit, 3 ...
PC, 4 ... marker board, 9 ... table, 14 ... control unit, 31 ... image acquisition unit, 31 ... image acquisition unit, 32 ... target value deriving unit, 33 ... output unit, 34 ... calibration unit, 41-49 ... marker ,
110 ... Base, 111 ... First arm, 112 ... Second arm, 113 ... Third arm, 114
... 4th arm, 115 ... 5th arm, 121-126 ... Rotating shaft member, 131-136 ... Motor, 201 ... Lens, 202 ... Area image sensor, 1261 ... Tool chuck, F ... Reference plane, P1-P9 ... Reference Point, P21 to P29 ... Reference point

Claims (15)

校正開始指示を受け付ける指示受付部と、
前記校正開始指示が受け付けられると、基準点を示すマーカーと撮像部との位置関係を
変化させるアームと、
を備え、
前記撮像部と前記マーカーの位置関係が変化した後に前記撮像部によって前記マーカー
が撮像された画像に基づいて、前記撮像部の座標系とロボットの座標系との校正が行われ
る、
ロボット。
An instruction receiving unit for receiving a calibration start instruction;
When the calibration start instruction is accepted, an arm that changes the positional relationship between the marker indicating the reference point and the imaging unit;
With
Calibration of the coordinate system of the imaging unit and the coordinate system of the robot is performed based on an image in which the marker is captured by the imaging unit after the positional relationship between the imaging unit and the marker is changed.
robot.
前記アームは、前記校正開始指示が受け付けられると、前記位置関係を予め決められた
状態に変化させ、
前記校正は、前記位置関係が前記予め決められた状態にあるときに前記撮像部によって
前記マーカーが撮像された画像に基づいて行われる、
請求項1に記載のロボット。
When the arm receives the calibration start instruction, the arm changes the positional relationship to a predetermined state,
The calibration is performed based on an image in which the marker is imaged by the imaging unit when the positional relationship is in the predetermined state.
The robot according to claim 1.
前記アームは、前記撮像部によって前記マーカーが撮像された画像に基づいて導出され
た目標値を取得し、前記目標値に基づいて前記位置関係を前記予め決められた状態に変化
させる、
請求項2に記載のロボット。
The arm acquires a target value derived based on an image obtained by imaging the marker by the imaging unit, and changes the positional relationship to the predetermined state based on the target value.
The robot according to claim 2.
前記校正開始指示は、前記位置関係を前記予め決められた状態に変化させるための目標
値を含まない、
請求項2または3に記載のロボット。
The calibration start instruction does not include a target value for changing the positional relationship to the predetermined state.
The robot according to claim 2 or 3.
前記予め決められた状態は、前記撮像部が前記マーカーに合焦する状態を含む、
請求項1から4のいずれか一項に記載のロボット。
The predetermined state includes a state where the imaging unit is focused on the marker.
The robot according to any one of claims 1 to 4.
前記アームは、前記校正開始指示が受け付けられると、前記撮像部によって前記マーカ
ーが撮像された画像から切り出された部分画像に基づいて導出された目標値を取得し、前
記目標値に基づいて前記位置関係を前記撮像部が前記マーカーに合焦する状態に変化させ
る、
請求項5に記載のロボット。
When the calibration start instruction is received, the arm acquires a target value derived based on a partial image cut out from an image obtained by capturing the marker by the imaging unit, and the position is determined based on the target value. The relationship is changed so that the imaging unit is focused on the marker.
The robot according to claim 5.
前記アームは、3つ以上の前記基準点を含む平面と垂直な第一方向に前記撮像部と前記
マーカーの位置関係を変化させた後に前記第一方向と逆向きの第二方向に前記撮像部と前
記マーカーの位置関係を変化させることによって前記撮像部を前記マーカーに合焦させる

請求項5または6に記載のロボット。
The arm changes the positional relationship between the imaging unit and the marker in a first direction perpendicular to a plane including three or more reference points, and then moves the imaging unit in a second direction opposite to the first direction. And focusing the imaging unit on the marker by changing the positional relationship between the marker and
The robot according to claim 5 or 6.
前記予め決められた状態は、3つ以上の前記基準点を含む平面と、前記撮像部の光軸と
が垂直な状態を含む、
請求項1から7のいずれか一項に記載のロボット。
The predetermined state includes a state in which a plane including three or more reference points and an optical axis of the imaging unit are perpendicular to each other.
The robot according to any one of claims 1 to 7.
前記予め決められた状態は、前記撮像部の光軸が前記平面を通る位置が互いに異なる3
つ以上の状態を含む、
請求項8に記載のロボット。
In the predetermined state, the positions where the optical axes of the imaging units pass through the plane are different from each other.
Including more than one state,
The robot according to claim 8.
前記撮像部は、前記アームに設けられる、
請求項1から9のいずれか一項に記載のロボット。
The imaging unit is provided in the arm.
The robot according to any one of claims 1 to 9.
前記マーカーは、前記アームに設けられる、
請求項1から9のいずれか一項に記載のロボット。
The marker is provided on the arm;
The robot according to any one of claims 1 to 9.
校正開始指示を受け付ける指示受付部と、
前記校正開始指示が受け付けられると、基準点を示すマーカーと撮像部との位置関係を
変化させるアームと、
を備えるロボットと、
前記撮像部と前記マーカーの位置関係が変化した後に、前記マーカーが前記撮像部によ
って撮像された画像に基づいて前記撮像部の座標系と前記ロボットの座標系との校正を行
う校正装置と、
を備えるロボットシステム。
An instruction receiving unit for receiving a calibration start instruction;
When the calibration start instruction is accepted, an arm that changes the positional relationship between the marker indicating the reference point and the imaging unit;
A robot comprising:
A calibration device that calibrates the coordinate system of the imaging unit and the coordinate system of the robot based on an image of the marker imaged by the imaging unit after the positional relationship between the imaging unit and the marker has changed;
A robot system comprising:
3つ以上の基準点を示すマーカーと撮像部との位置関係を、
前記3つ以上の基準点を含む平面と前記撮像部の光軸とが垂直な第一状態、
前記撮像部が前記3つ以上の基準点の少なくともいずれかを示す前記マーカーに合焦す
る第二状態、
前記撮像部の光軸が前記平面上の第一点を通る第三状態、
前記撮像部の光軸が前記平面上の第二点を通る第四状態、
前記撮像部の光軸が前記平面上の第三点を通る第五状態、
の少なくともいずれかに自動で変化させるアームを備え、
前記第三状態、前記第四状態および前記第五状態において前記撮像部によって前記マー
カーが撮像された画像に基づいて前記撮像部の座標系とロボットの座標系との校正が行わ
れる、
ロボット。
The positional relationship between the marker indicating three or more reference points and the imaging unit is
A first state in which a plane including the three or more reference points and an optical axis of the imaging unit are perpendicular to each other;
A second state in which the imaging unit focuses on the marker indicating at least one of the three or more reference points;
A third state in which the optical axis of the imaging unit passes the first point on the plane;
A fourth state in which the optical axis of the imaging unit passes through a second point on the plane;
A fifth state in which the optical axis of the imaging unit passes through a third point on the plane;
Equipped with an arm that automatically changes to at least one of
Calibration of the coordinate system of the imaging unit and the coordinate system of the robot is performed based on an image in which the marker is captured by the imaging unit in the third state, the fourth state, and the fifth state.
robot.
前記アームは、前記位置関係を前記第一状態、前記第二状態、前記第三状態、前記第四
状態および前記第五状態に自動で変化させる、
請求項13に記載のロボット。
The arm automatically changes the positional relationship to the first state, the second state, the third state, the fourth state, and the fifth state.
The robot according to claim 13.
前記アームは、前記撮像部によって前記マーカーが撮像された画像に基づいて導出され
る目標値を取得し、前記目標値に基づいて前記位置関係を自動で変化させる、
請求項13または14に記載のロボット。
The arm acquires a target value derived based on an image of the marker imaged by the imaging unit, and automatically changes the positional relationship based on the target value;
The robot according to claim 13 or 14.
JP2014236299A 2014-11-21 2014-11-21 Robot and robot system Active JP6565175B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014236299A JP6565175B2 (en) 2014-11-21 2014-11-21 Robot and robot system
CN201580049974.1A CN107073719B (en) 2014-11-21 2015-11-13 Robot and robot system
EP15861922.1A EP3221095B1 (en) 2014-11-21 2015-11-13 Robot and robot system
US15/514,666 US10525597B2 (en) 2014-11-21 2015-11-13 Robot and robot system
PCT/JP2015/005678 WO2016079967A1 (en) 2014-11-21 2015-11-13 Robot and robot system
TW104138100A TWI670153B (en) 2014-11-21 2015-11-18 Robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014236299A JP6565175B2 (en) 2014-11-21 2014-11-21 Robot and robot system

Publications (2)

Publication Number Publication Date
JP2016097474A true JP2016097474A (en) 2016-05-30
JP6565175B2 JP6565175B2 (en) 2019-08-28

Family

ID=56076398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014236299A Active JP6565175B2 (en) 2014-11-21 2014-11-21 Robot and robot system

Country Status (1)

Country Link
JP (1) JP6565175B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10201900B2 (en) 2015-12-01 2019-02-12 Seiko Epson Corporation Control device, robot, and robot system
JP2019098409A (en) * 2017-11-28 2019-06-24 東芝機械株式会社 Robot system and calibration method
US10551821B2 (en) 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
US10628966B1 (en) 2019-03-07 2020-04-21 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
CN111452045A (en) * 2020-03-30 2020-07-28 北京伟景智能科技有限公司 Reinforcing steel bar identification marking system and method based on stereoscopic vision
WO2022124232A1 (en) * 2020-12-10 2022-06-16 ファナック株式会社 Image processing system and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL274911B2 (en) * 2020-05-25 2023-10-01 Metalix Cad/Cam Ltd A device and method for calibrating a robotic cell

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013526423A (en) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション Apparatus and method for robust calibration between machine vision system and robot
JP2014151427A (en) * 2013-02-14 2014-08-25 Canon Inc Robot system and control method therefor
JP2014180720A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013526423A (en) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション Apparatus and method for robust calibration between machine vision system and robot
JP2014151427A (en) * 2013-02-14 2014-08-25 Canon Inc Robot system and control method therefor
JP2014180720A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10201900B2 (en) 2015-12-01 2019-02-12 Seiko Epson Corporation Control device, robot, and robot system
US10551821B2 (en) 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
JP2019098409A (en) * 2017-11-28 2019-06-24 東芝機械株式会社 Robot system and calibration method
US10628966B1 (en) 2019-03-07 2020-04-21 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
US10636172B1 (en) 2019-03-07 2020-04-28 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
JP2020144829A (en) * 2019-03-07 2020-09-10 株式会社Mujin Method and system for performing automatic camera calibration for robot control
CN111452045A (en) * 2020-03-30 2020-07-28 北京伟景智能科技有限公司 Reinforcing steel bar identification marking system and method based on stereoscopic vision
CN111452045B (en) * 2020-03-30 2024-01-30 北京伟景智能科技有限公司 Reinforcing steel bar identification marking system and method based on stereoscopic vision
WO2022124232A1 (en) * 2020-12-10 2022-06-16 ファナック株式会社 Image processing system and image processing method

Also Published As

Publication number Publication date
JP6565175B2 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
EP3221095B1 (en) Robot and robot system
JP6565175B2 (en) Robot and robot system
US10099380B2 (en) Robot, robot control device, and robot system
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
US9884425B2 (en) Robot, robot control device, and robotic system
JP3946711B2 (en) Robot system
JP4021413B2 (en) Measuring device
CN107428009B (en) Method for commissioning an industrial robot, industrial robot system and control system using the method
JP4191080B2 (en) Measuring device
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
US20200198145A1 (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US20160279800A1 (en) Robot, robot control device, and robotic system
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP6885856B2 (en) Robot system and calibration method
JP2016182648A (en) Robot, robot control device and robot system
JP6507792B2 (en) Robot and robot system
CN114833832B (en) Robot hand-eye calibration method, device, equipment and readable storage medium
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JP2015176273A (en) image processing apparatus, image processing method, and image processing program
US20230328372A1 (en) Image processing system and image processing method
Afanasev et al. Machine Vision for Auto Positioning in the Modular Industrial Equipment: A Case Study
JP5782538B2 (en) Method for measuring tool reference point position with respect to tool mounting portion, measuring device for tool reference point position with respect to tool mounting portion, and robot including the measuring device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150