JP2015157342A - Robot, robot system, control device and control method - Google Patents

Robot, robot system, control device and control method Download PDF

Info

Publication number
JP2015157342A
JP2015157342A JP2014033776A JP2014033776A JP2015157342A JP 2015157342 A JP2015157342 A JP 2015157342A JP 2014033776 A JP2014033776 A JP 2014033776A JP 2014033776 A JP2014033776 A JP 2014033776A JP 2015157342 A JP2015157342 A JP 2015157342A
Authority
JP
Japan
Prior art keywords
robot
calibration
hand
jig
board
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014033776A
Other languages
Japanese (ja)
Inventor
浩之 川田
Hiroyuki Kawada
浩之 川田
太郎 石毛
Taro Ishige
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014033776A priority Critical patent/JP2015157342A/en
Publication of JP2015157342A publication Critical patent/JP2015157342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot that makes it possible to accurately perform calibration between an imaging unit and the robot.SOLUTION: A robot comprises a hand, a force sensor, and a control unit that operates the hand, wherein the control unit positions the hand by a dent at a predetermined position of a calibration tool and then an imaging unit captures an image of the predetermined position.

Description

本発明は、ロボット、ロボットシステム、制御装置および制御方法に関する。   The present invention relates to a robot, a robot system, a control device, and a control method.

撮像部の撮像画像の座標系と、ロボットのハンドを制御する座標系とを校正(キャリブレーション)することが行われる。
一例として、特許文献1に記載された「ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法」では、校正用治具であるキャリブレーションボードに設けられたタッチアップの基準点(タッチアップポイント)と、ロボットアームの先端とを目視で位置合わせすることが行われる(特許文献1参照。)。
また、マーカーの認識位置の精度評価については、例えば、キャリブレーションボードを取り外してから、マーカーを配置して、マーカーとロボットアームの先端とのズレ量を目視で計測することが行われる。
Calibration of the coordinate system of the captured image of the imaging unit and the coordinate system that controls the hand of the robot is performed.
As an example, in the “coordinate system coupling method for determining the relationship between a sensor coordinate system and a robot tip in a robot-visual sensor system” described in Patent Document 1, a touch-up provided on a calibration board, which is a calibration jig. The reference point (touch-up point) is visually aligned with the tip of the robot arm (see Patent Document 1).
As for the accuracy evaluation of the recognition position of the marker, for example, after removing the calibration board, the marker is placed and the amount of deviation between the marker and the tip of the robot arm is visually measured.

特開平8−210816号公報JP-A-8-210816

しかしながら、特許文献1に係る技術では、キャリブレーションボードに設けられたタッチアップポイントとロボットアームの先端とを目視で位置合わせするため、人(作業者)が見る位置や角度に起因する読み取り誤差が発生する。また、作業者が異なれば合わせる位置も異なるといった人(個々人)に起因するばらつきも発生する。
また、マーカーの認識位置の精度評価は、キャリブレーションボードを用いたキャリブレーションとは独立して行われるため、タッチアップポイントと同じ位置にマーカーの認識基準点を配置することが困難であり、認識精度が低くともタッチアップの良し悪しを反映できず、評価結果を活かすことができない。
However, in the technique according to Patent Document 1, since the touch-up point provided on the calibration board and the tip of the robot arm are visually aligned, there is no reading error due to the position or angle viewed by a person (operator). Occur. In addition, variations caused by people (individuals) such as different positions for different workers also occur.
In addition, since the accuracy evaluation of the marker recognition position is performed independently of calibration using the calibration board, it is difficult to place the marker recognition reference point at the same position as the touch-up point. Even if the accuracy is low, the quality of the touch-up cannot be reflected and the evaluation result cannot be utilized.

本発明は、前記の点に鑑み為されたものであり、撮像部とロボットとの校正を精度良く行うことができるロボット、ロボットシステム、制御装置および制御方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a robot, a robot system, a control device, and a control method that can accurately calibrate an imaging unit and a robot.

本発明の一態様は、上記の課題を解決するためになされたものであり、ハンドと、力センサーと、前記ハンドを動作させる制御部と、を含み、前記制御部は、校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に、撮像部が前記所定位置を撮像する、ロボットである。
この構成により、ロボットでは、制御部は、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、ロボットでは、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes a hand, a force sensor, and a control unit that operates the hand. The control unit includes a calibration jig. In the robot, the imaging unit images the predetermined position after the hand is positioned by the depression disposed at the predetermined position.
With this configuration, in the robot, the control unit positions the hand with the depression disposed at a predetermined position of the calibration jig, and then the imaging unit images the predetermined position. Thereby, in the robot, the positioning of the hand can be performed with high accuracy, and the calibration between the imaging unit and the robot can be performed with high accuracy.

本発明の一態様は、ロボットにおいて、前記制御部は、前記力センサーにより検出される値に基づいてインピーダンス制御を行い、前記ハンドを位置決めする、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、力センサーにより検出される値に基づいてインピーダンス制御を行い、ハンドを位置決めする。これにより、ロボットでは、ハンドにより窪みを探る動作を行って、ハンドの位置決めを精度良く行うことができる。
One aspect of the present invention may be configured such that, in the robot, the control unit performs impedance control based on a value detected by the force sensor and positions the hand.
With this configuration, in the robot, the control unit performs impedance control based on the value detected by the force sensor, and positions the hand. As a result, the robot can accurately perform positioning of the hand by performing an operation of searching for the depression with the hand.

本発明の一態様は、ロボットにおいて、前記制御部は、前記ハンドにより前記窪みの形状に対応する形状を有する把持用治具を把持させた状態で、前記ハンドを位置決めする、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、ハンドにより窪みの形状に対応する形状を有する把持用治具を把持させた状態で、ハンドを位置決めする。これにより、ロボットでは、互いに対応する形状を有する窪みと把持用治具を嵌合させて、ハンドの位置決めを精度良く行うことができる。
In one aspect of the present invention, in the robot, the control unit may be configured to position the hand in a state where a gripping jig having a shape corresponding to the shape of the depression is gripped by the hand. Also good.
With this configuration, in the robot, the control unit positions the hand in a state where the gripping jig having a shape corresponding to the shape of the depression is gripped by the hand. As a result, the robot can accurately position the hand by fitting the recesses having shapes corresponding to each other and the holding jig.

本発明の一態様は、ロボットにおいて、前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードとが組み合わされた治具である、構成が用いられてもよい。
この構成により、ロボットでは、チェッカーパターンを有するボードと窪みを有する透明ボードとが組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
In one aspect of the present invention, in the robot, a configuration in which the calibration jig is a jig in which a board having a checker pattern and a transparent board having the depressions are combined may be used.
With this configuration, the robot performs calibration using a calibration jig in which a board having a checker pattern and a transparent board having depressions are combined. As a result, the robot can accurately calibrate the imaging unit and the robot.

本発明の一態様は、ロボットにおいて、前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードにマーカーが付されたボードとが組み合わされた治具である、構成が用いられてもよい。
この構成により、ロボットでは、チェッカーパターンを有するボードと窪みを有する透明ボードにマーカーが付されたボードとが組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
In one embodiment of the present invention, in the robot, the calibration jig is a jig in which a board having a checker pattern and a board on which a marker is attached to the transparent board having the depression are combined. May be.
With this configuration, the robot performs calibration using a calibration jig in which a board having a checker pattern and a transparent board having a depression and a board with a marker are combined. As a result, the robot can accurately calibrate the imaging unit and the robot.

本発明の一態様は、ロボットにおいて、前記校正用治具の組み合わされる2個のボードのうちの一方に位置決め用の突起が設けられ、他方に前記突起を通す位置決め用の穴が設けられる、構成が用いられてもよい。
この構成により、ロボットでは、2個のボードが位置決めされて組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is a robot, wherein a positioning projection is provided on one of the two boards combined with the calibration jig, and a positioning hole is provided on the other to pass the projection. May be used.
With this configuration, the robot performs calibration using a calibration jig in which two boards are positioned and combined. As a result, the robot can accurately calibrate the imaging unit and the robot.

本発明の一態様は、上記の課題を解決するためになされたものであり、撮像部と、ハンドと力センサーとを備えるロボットと、前記ロボットを動作させる制御部と、校正用治具と、を含み、前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、ロボットシステムである。
この構成により、ロボットシステムでは、制御部は、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に前記所定位置を撮像部に撮像させる、または、前記位置決めする前に前記所定位置を撮像部に撮像させる。これにより、ロボットシステムでは、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes a robot including an imaging unit, a hand and a force sensor, a control unit that operates the robot, a calibration jig, And the control unit causes the imaging unit to image the predetermined position after positioning the hand by a depression disposed at a predetermined position of the calibration jig, or sets the predetermined position before the positioning. It is a robot system which makes the said imaging part image.
With this configuration, in the robot system, the control unit causes the imaging unit to take an image of the predetermined position after positioning the hand by the depression disposed at the predetermined position of the calibration jig, or the predetermined position before the positioning. To the imaging unit. Accordingly, in the robot system, the hand can be positioned with high accuracy, and the imaging unit and the robot can be calibrated with high accuracy.

本発明の一態様は、上記の課題を解決するためになされたものであり、撮像部が撮像した撮像画像を受け付ける画像受付部と、ロボットを動作させる処理部と、を含み、前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、制御装置である。
この構成により、制御装置では、処理部は、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、システムでは、制御装置では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes an image receiving unit that receives a captured image captured by the imaging unit, and a processing unit that operates a robot. The controller is configured to image the predetermined position after the robot hand is positioned by a depression disposed at a predetermined position of the calibration jig.
With this configuration, in the control device, the processing unit positions the robot hand with the depression disposed at a predetermined position of the calibration jig, and then the imaging unit images the predetermined position. As a result, in the system, the control device can accurately position the hand, and can accurately calibrate the imaging unit and the robot.

本発明の一態様は、上記の課題を解決するためになされたものであり、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めすることと、撮像部によって前記所定位置を撮像することと、を含む制御方法である。
この構成により、制御方法では、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めし、撮像部によって前記所定位置を撮像する。これにより、制御方法では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem. The robot hand is positioned by a depression disposed at a predetermined position of a calibration jig, and the predetermined position is set by an imaging unit. A control method including imaging.
With this configuration, in the control method, the hand of the robot is positioned by the depression disposed at the predetermined position of the calibration jig, and the predetermined position is imaged by the imaging unit. Thereby, in the control method, the positioning of the hand can be performed with high accuracy, and the calibration between the imaging unit and the robot can be performed with high accuracy.

以上のように、本発明に係るロボット、ロボットシステム、制御装置および制御方法によれば、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、本発明に係るロボット、ロボットシステム、制御装置および制御方法では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。   As described above, according to the robot, the robot system, the control apparatus, and the control method according to the present invention, the imaging unit images the predetermined position after the hand is positioned by the depression disposed at the predetermined position of the calibration jig. To do. Thereby, in the robot, robot system, control apparatus, and control method according to the present invention, the hand can be accurately positioned, and the imaging unit and the robot can be accurately calibrated.

本発明の一実施形態に係るロボットシステムの概略的な構成例を示す図である。It is a figure showing an example of rough composition of a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係る制御部の概略的な機能ブロックを示す図である。It is a figure which shows the schematic functional block of the control part which concerns on one Embodiment of this invention. 本発明の一実施形態に係る校正用治具の一例を示す図である。It is a figure which shows an example of the jig | tool for calibration which concerns on one Embodiment of this invention. (A)は本発明の一実施形態に係る校正用治具の一例の一部の構成例を示す図であり、(B)はその断面図である。(A) is a figure which shows the example of a one part structure of an example of the jig | tool for calibration which concerns on one Embodiment of this invention, (B) is the sectional drawing. 本発明の一実施形態に係る校正用治具の他の一例を示す図である。It is a figure which shows another example of the jig | tool for calibration which concerns on one Embodiment of this invention. (A)は本発明の一実施形態に係るマーカー精度評価ボードの他の一例の一部の構成例を示す図であり、(B)はその断面図である。(A) is a figure which shows the example of a structure of a part of other example of the marker precision evaluation board which concerns on one Embodiment of this invention, (B) is the sectional drawing. (A)、(B)、(C)は本発明の一実施形態に係るインピーダンス制御を用いた位置決めの一例を示す図である。(A), (B), (C) is a figure which shows an example of the positioning using the impedance control which concerns on one Embodiment of this invention. 本発明の一実施形態に係るロボットシステムにおいて行われる処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process performed in the robot system which concerns on one Embodiment of this invention. (A)、(B)、(C)は本発明の一実施形態に係るインピーダンス制御を用いた位置決めの他の一例を示す図である。(A), (B), (C) is a figure showing other examples of positioning using impedance control concerning one embodiment of the present invention. 本発明の実施形態の第1の変形例に係るロボットの概略的な構成を示す図である。It is a figure which shows schematic structure of the robot which concerns on the 1st modification of embodiment of this invention. 本発明の実施形態の第2の変形例に係るロボットシステムの概略的な構成を示す図である。It is a figure which shows schematic structure of the robot system which concerns on the 2nd modification of embodiment of this invention. (A)は比較例に係るタッチアップポイントに対する位置決めを示す図であり、(B)は比較例に係るマーカーを用いた画像認識を示す図である。(A) is a figure which shows the positioning with respect to the touchup point which concerns on a comparative example, (B) is a figure which shows the image recognition using the marker which concerns on a comparative example.

本発明の実施形態について図面を参照して詳細に説明する。
[本実施形態に係るロボットシステムの概要]
図1は、本発明の一実施形態に係るロボットシステム1の概略的な構成例を示す図である。
本実施形態に係るロボットシステム1は、ロボット11と、撮像部であるカメラ12と、これらを接続して通信可能にする回線13を備える。ロボット11は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)21と、制御部41を備える。ハンド21に、力センサー31を備える。
マニピュレーターとしては、6軸のマニピュレーターが用いられており、他の構成例として、7軸のマニピュレーターまたは5軸以下のマニピュレーターが用いられてもよい。
回線13としては、例えば、有線の回線の代わりに、無線の回線が用いられてもよい。
Embodiments of the present invention will be described in detail with reference to the drawings.
[Outline of Robot System According to this Embodiment]
FIG. 1 is a diagram illustrating a schematic configuration example of a robot system 1 according to an embodiment of the present invention.
The robot system 1 according to the present embodiment includes a robot 11, a camera 12 that is an imaging unit, and a line 13 that connects these to enable communication. The robot 11 is a single-arm robot including one manipulator (arm), and includes a hand (robot hand) 21 attached to the tip of the manipulator and a control unit 41. The hand 21 is provided with a force sensor 31.
As the manipulator, a 6-axis manipulator is used. As another configuration example, a 7-axis manipulator or a 5-axis or less manipulator may be used.
As the line 13, for example, a wireless line may be used instead of a wired line.

図1には、テーブル(作業机)61の上に戴置(配置)された校正用治具62と、ハンド21により把持される把持用治具63を示してある。なお、図1では、校正用治具62については概略的な外観の一例としてチェッカーパターンを示してあるが、これは概略であり、実際には様々な外観を有してもよい。
本実施形態では、ロボット11は、ハンド21により把持される把持用治具63を校正用治具62に接触させる(タッチアップする)ことが可能な配置で設置されており、また、カメラ12は、校正用治具62を撮像することが可能な配置で設置されている。
ハンド21は、任意の形状を有してもよく、本実施形態では、把持用治具63を把持することができる開閉可能な2本の指(棒状の部位)を有する。ハンド21が有する指の数は、任意であってもよい。また、ハンド21が有する指は、例えば、直線状であってもよく、または、一部又は全部が曲線状や折れ線状であってもよい。
制御部41は、ロボット11(ハンド21を含む。)やカメラ12の動作の制御などを行う。
FIG. 1 shows a calibration jig 62 placed (arranged) on a table (working desk) 61 and a gripping jig 63 gripped by the hand 21. In FIG. 1, a checker pattern is shown as an example of a schematic appearance of the calibration jig 62, but this is a schematic and may actually have various appearances.
In the present embodiment, the robot 11 is installed in an arrangement that allows the gripping jig 63 gripped by the hand 21 to contact (touch up) the calibration jig 62. The calibration jig 62 is installed in an arrangement capable of imaging.
The hand 21 may have an arbitrary shape. In the present embodiment, the hand 21 has two openable / closable fingers (bar-shaped portions) that can grip the gripping jig 63. The number of fingers that the hand 21 has may be arbitrary. Moreover, the finger | toe which the hand 21 has may be linear form, for example, or one part or all part may be curvilinear form or broken line form.
The control unit 41 controls the operation of the robot 11 (including the hand 21) and the camera 12.

図2は、本発明の一実施形態に係る制御部41の概略的な機能ブロックを示す図である。
本実施形態に係る制御部41は、ロボット動作処理部101と、画像情報受付部102と、力センサー値受付部103と、記憶部104と、入力部105と、出力部106を備える。
ロボット動作処理部101は、位置決め部121と、画像処理部122と、校正部123を備える。ロボット動作処理部101は、例えば、画像処理や、ロボット11の制御処理を行う。
FIG. 2 is a diagram showing a schematic functional block of the control unit 41 according to the embodiment of the present invention.
The control unit 41 according to the present embodiment includes a robot motion processing unit 101, an image information receiving unit 102, a force sensor value receiving unit 103, a storage unit 104, an input unit 105, and an output unit 106.
The robot motion processing unit 101 includes a positioning unit 121, an image processing unit 122, and a calibration unit 123. The robot operation processing unit 101 performs, for example, image processing and control processing for the robot 11.

画像情報受付部102は、カメラ12から出力される画像の情報を、回線13を介して、受信することで、当該画像の情報を受け付けて取得する。また、画像情報受付部102は、回線13を介してカメラ12との間で信号を通信することで、カメラ12の動作を制御してもよい。
本実施形態では、カメラ12は、画像を撮像し、撮像した画像の情報を回線13を介して画像情報受付部102に出力する。なお、画像の情報としては、例えば、2次元(平面)の情報が用いられてもよく、または、2個以上のカメラを用いるなどして、3次元(空間)の情報が用いられてもよい。
The image information receiving unit 102 receives and acquires information on an image output from the camera 12 via the line 13, thereby receiving and acquiring the information on the image. Further, the image information receiving unit 102 may control the operation of the camera 12 by communicating a signal with the camera 12 via the line 13.
In the present embodiment, the camera 12 captures an image and outputs information of the captured image to the image information receiving unit 102 via the line 13. As the image information, for example, two-dimensional (planar) information may be used, or three-dimensional (space) information may be used by using two or more cameras. .

力センサー値受付部103は、力センサー31から出力される力センサー値の情報を、回線(図示せず)を介して、受信することで、当該情報を受け付けて取得する。また、力センサー値受付部103は、回線を介して力センサー31との間で信号を通信することで、力センサー31の動作を制御してもよい。
本実施形態では、力センサー31は、ハンド21に印加される力を検出し、検出した力を示す値を力センサー値として、回線を介して力センサー値受付部103に出力する。なお、力センサー31は、例えば、3次元直交座標軸のそれぞれについて力とモーメント(トルク)を検出し、本実施形態における力センサー値(力の値)にモーメントの値が含まれてもよい。
回線としては、例えば、有線の回線の代わりに、無線の回線が用いられてもよい。
The force sensor value receiving unit 103 receives and acquires information on the force sensor value output from the force sensor 31 via a line (not shown). The force sensor value receiving unit 103 may control the operation of the force sensor 31 by communicating a signal with the force sensor 31 via a line.
In the present embodiment, the force sensor 31 detects a force applied to the hand 21 and outputs a value indicating the detected force as a force sensor value to the force sensor value receiving unit 103 via a line. The force sensor 31 may detect a force and a moment (torque) for each of the three-dimensional orthogonal coordinate axes, for example, and the value of the moment may be included in the force sensor value (force value) in the present embodiment.
As the line, for example, a wireless line may be used instead of a wired line.

記憶部104は、各種の情報を記憶する記憶媒体を含んで構成される。記憶部104は、例えば、ロボット動作処理部101で使用されるプログラムの情報や、各種の処理で使用されるパラメーター(例えば、数値)の情報などを記憶する。
入力部105は、外部からの入力を受け付ける。入力部105は、例えば、ユーザーにより操作された操作入力を受け付けるキーボードやマウスなどを含んで構成される。また、入力部105は、例えば、外部の装置からの入力を受け付ける機能を含んで構成されてもよい。
出力部106は、外部への出力を行う。出力部106は、例えば、ユーザーに対して各種の情報を画像で表示する画面(例えば、液晶ディスプレイ)や、ユーザーに対して音声の情報を出力するスピーカーなどを含んで構成される。また、出力部106は、例えば、外部の装置へ情報を出力する機能を含んで構成されてもよい。
The storage unit 104 includes a storage medium that stores various types of information. The storage unit 104 stores, for example, information on programs used in the robot motion processing unit 101 and information on parameters (for example, numerical values) used in various processes.
The input unit 105 receives an input from the outside. The input unit 105 includes, for example, a keyboard and a mouse that receive an operation input operated by a user. Further, the input unit 105 may be configured to include a function of receiving input from an external device, for example.
The output unit 106 performs output to the outside. The output unit 106 includes, for example, a screen (for example, a liquid crystal display) that displays various types of information as images to the user, a speaker that outputs audio information to the user, and the like. The output unit 106 may be configured to include a function of outputting information to an external device, for example.

ロボット動作処理部101は、例えば、CPU(Central Processing Unit)などを用いて構成されており、各種の処理を行う。
位置決め部121は、校正用治具62に対してハンド21の位置決めを行う。
画像処理部122は、校正用治具62の画像の処理を行う。
校正部123は、カメラ12とハンド21との校正を行う。
The robot operation processing unit 101 is configured using, for example, a CPU (Central Processing Unit) and performs various processes.
The positioning unit 121 positions the hand 21 with respect to the calibration jig 62.
The image processing unit 122 processes the image of the calibration jig 62.
The calibration unit 123 calibrates the camera 12 and the hand 21.

[本実施形態に係る校正用治具の一例]
図3は、本発明の一実施形態に係る校正用治具62−1の一例を示す図である。この校正用治具62−1は、図1に示される校正用治具62の一例である。
本実施形態に係る校正用治具62−1は、キャリブレーションボード201と透明ボード301を組み合わせて構成される。キャリブレーションボード201と透明ボード301は、いずれも、方形(正方形または長方形)の面を有する板状の形状を有しており、例えば、同じ形状を有する。透明ボード301の材質は、ガラス(例えば、ケイ酸塩ガラス)や樹脂(例えば、アクリルガラス、塩化ビニル)などの透明な材料(透過性のある材料)で構成されている。
[Example of calibration jig according to this embodiment]
FIG. 3 is a diagram illustrating an example of the calibration jig 62-1 according to the embodiment of the present invention. The calibration jig 62-1 is an example of the calibration jig 62 shown in FIG.
The calibration jig 62-1 according to the present embodiment is configured by combining the calibration board 201 and the transparent board 301. Each of the calibration board 201 and the transparent board 301 has a plate shape having a square (square or rectangular) surface, for example, the same shape. The material of the transparent board 301 is made of a transparent material (a transparent material) such as glass (for example, silicate glass) or a resin (for example, acrylic glass or vinyl chloride).

キャリブレーションボード201は、その4個の角のそれぞれに、位置決め用のピン(サイドピン)221−1〜221−4を備える。
透明ボード301は、その4個の角のそれぞれに、位置決め用の穴(位置決め穴)321−1〜321−4を備える。
キャリブレーションボード201に備えられたそれぞれのサイドピン221−1〜221−4と、透明ボード301に備えられたそれぞれの位置決め穴321−1〜321−4は、互いに対応する位置に設けられており、それぞれのサイドピン221−1〜221−4がそれぞれの位置決め穴321−1〜321−4に通されることで、キャリブレーションボード201と透明ボード301とが位置決めされる。
なお、キャリブレーションボード201のサイドピン221−1〜221−4と透明ボード301の位置決め穴321−1〜321−4は、位置決めをできれば、その個数や、その位置や、その形状などは、様々な構成が用いられてもよい。
The calibration board 201 includes positioning pins (side pins) 221-1 to 221-4 at the four corners.
The transparent board 301 is provided with positioning holes (positioning holes) 321-1 to 321-4 at each of its four corners.
The side pins 221-1 to 221-4 provided in the calibration board 201 and the positioning holes 321-1 to 321-4 provided in the transparent board 301 are provided at positions corresponding to each other. The calibration pins 201 and the transparent board 301 are positioned by passing the side pins 221-1 to 221-4 through the positioning holes 321-1 to 321-4.
Note that the number, position, shape, and the like of the side pins 221-1 to 221-4 of the calibration board 201 and the positioning holes 321-1 to 321-4 of the transparent board 301 are various as long as positioning is possible. Various configurations may be used.

キャリブレーションボード201は、4個のサイドピン221−1〜221−4の内側の面に、互いに直交するそれぞれの方向に白色の正方形と黒色の正方形が交互に並んだパターン(チェッカーパターン)211を備える。白色の正方形と黒色の正方形は、同じ形状である。
なお、白色の部分と黒色の部分とは、例えば、正方形以外の形状であってもよく、また、互いに異なる形状であってもよい。
また、他の構成例として、白色と黒色の組み合わせ以外に、任意の異なる二色の組み合わせが用いられてもよい。
The calibration board 201 has a pattern (checker pattern) 211 in which white squares and black squares are alternately arranged in directions orthogonal to each other on the inner surfaces of the four side pins 221-1 to 221-4. Prepare. The white square and the black square have the same shape.
The white portion and the black portion may have a shape other than a square, for example, or may have different shapes.
As another configuration example, any combination of two different colors other than the combination of white and black may be used.

透明ボード301は、キャリブレーションボード201のチェッカーパターン211における白い正方形の角と黒い正方形の角とが接する点(クロスポイント)のそれぞれに、窪みを形成する探り穴(図3では、複数のうちの1個の探り穴311に符号を付してある。)を備える。   The transparent board 301 has a search hole (in FIG. 3, a plurality of probe holes) that form a depression at each of the points (cross points) at which the white square corners and the black square corners of the checker pattern 211 of the calibration board 201 contact each other. A single search hole 311 is provided with a reference numeral).

図4(A)は、本発明の一実施形態に係る校正用治具62−1の一例の一部の構成例を示す図である。図4(B)は、その断面図(P−P矢視断面の図)である。
探り穴311は、透明ボード301の一方の面に開口した半球形状の穴である。透明ボード301の他方の面(前記した一方の面とは反対の面)と、キャリブレーションボード201のチェッカーパターン211が設けられた面とが対向するように、透明ボード301とキャリブレーションボード201とが重ねられる。
なお、探り穴311の形状は、他の形状であってもよく、例えば、円錐形状などであってもよい。
FIG. 4A is a diagram illustrating a partial configuration example of an example of the calibration jig 62-1 according to the embodiment of the present invention. FIG. 4B is a cross-sectional view (a cross-sectional view taken along the line PP).
The search hole 311 is a hemispherical hole opened on one surface of the transparent board 301. The transparent board 301 and the calibration board 201 are arranged so that the other face of the transparent board 301 (the face opposite to the one face described above) and the face of the calibration board 201 provided with the checker pattern 211 are opposed to each other. Are superimposed.
The shape of the search hole 311 may be other shapes, for example, a conical shape.

ここで、本実施形態では、ハンド21により把持する把持用治具63として、棒状の部分の先端に球状(または、他の構成例として、半球状)の部分を有する治具が用いられる。先端が球状である把持用治具63が用いられることで、ハンド21により透明ボード301の探り穴311を探り当てる確率を高くすることができる。
なお、把持用治具63の先端の形状は、様々な形状であってもよく、例えば、探り穴311を探るために適度な形状が用いられる。
Here, in the present embodiment, a jig having a spherical (or hemispherical as another configuration example) portion at the tip of the rod-shaped portion is used as the gripping jig 63 gripped by the hand 21. By using the gripping jig 63 having a spherical tip, it is possible to increase the probability that the hand 21 finds the search hole 311 of the transparent board 301.
Note that the shape of the tip of the gripping jig 63 may be various shapes, and for example, an appropriate shape is used for searching the search hole 311.

このように、本実施形態では、キャリブレーションボード201の上面(ここでは、チェッカーパターン211が設けられた面)に透明ボード301が重ねられて、透明ボード301の上面(ここでは、キャリブレーションボード201と対向しない面)に設けられた探り穴311の位置とチェッカーパターン211のタッチアップポイントとが一致させられる。この場合に、キャリブレーションボード201に立てられたサイドピン221−1〜221−4と透明ボード301に設けられた位置決め穴321−1により、キャリブレーションボード201と透明ボード301とがずれることなく位置決めされる。
本実施形態では、透明ボード301が用いられることで、カメラ12により透明ボード301の上面の側からキャリブレーションボード201を撮像することができ、タッチアップポイントの画像を画像処理する際に、探り穴311があることの影響をなくすことができる。カメラ12により透明ボード301の上面の側からキャリブレーションボード201を撮像する場合に、探り穴311がタッチアップポイントを隠すことなく、チェッカーパターン211と探り穴311を共に存在させることができる。
Thus, in the present embodiment, the transparent board 301 is overlaid on the upper surface of the calibration board 201 (here, the surface on which the checker pattern 211 is provided), and the upper surface of the transparent board 301 (here, the calibration board 201). And the touch-up point of the checker pattern 211 are matched with each other. In this case, the calibration board 201 and the transparent board 301 are positioned without being displaced by the side pins 221-1 to 221-4 standing on the calibration board 201 and the positioning holes 321-1 provided in the transparent board 301. Is done.
In this embodiment, since the transparent board 301 is used, the calibration board 201 can be imaged from the upper surface side of the transparent board 301 by the camera 12, and when the touch-up point image is image-processed, a search hole is used. The influence of having 311 can be eliminated. When the calibration board 201 is imaged from the upper surface side of the transparent board 301 by the camera 12, both the checker pattern 211 and the search hole 311 can exist without the search hole 311 hiding the touch-up point.

[本実施形態に係る校正用治具の他の一例]
図5は、本発明の一実施形態に係る校正用治具62−2の他の一例を示す図である。
本実施形態に係る校正用治具62−2は、キャリブレーションボード201とマーカー精度評価ボード401を組み合わせて構成される。
本実施形態では、図3に示される校正用治具62−1と図5に示される校正用治具62−2とで、共通のキャリブレーションボード201が用いられている。
キャリブレーションボード201とマーカー精度評価ボード401は、いずれも、方形(正方形または長方形)の面を有する板状の形状を有しており、例えば、同じ形状を有する。
[Another example of calibration jig according to this embodiment]
FIG. 5 is a view showing another example of the calibration jig 62-2 according to the embodiment of the present invention.
The calibration jig 62-2 according to the present embodiment is configured by combining the calibration board 201 and the marker accuracy evaluation board 401.
In the present embodiment, a common calibration board 201 is used for the calibration jig 62-1 shown in FIG. 3 and the calibration jig 62-2 shown in FIG.
Each of the calibration board 201 and the marker accuracy evaluation board 401 has a plate shape having a square (square or rectangular) surface, for example, the same shape.

マーカー精度評価ボード401は、その4個の角のそれぞれに、位置決め用の穴(位置決め穴)421−1〜421−4を備える。
キャリブレーションボード201に備えられたそれぞれのサイドピン221−1〜221−4と、マーカー精度評価ボード401に備えられたそれぞれの位置決め穴421−1〜421−4は、互いに対応する位置に設けられており、それぞれのサイドピン221−1〜221−4がそれぞれの位置決め穴421−1〜421−4に通されることで、キャリブレーションボード201とマーカー精度評価ボード401とが位置決めされる。
なお、キャリブレーションボード201のサイドピン221−1〜221−4とマーカー精度評価ボード401の位置決め穴421−1〜421−4は、位置決めをできれば、その個数や、その位置や、その形状などは、様々な構成が用いられてもよい。
The marker accuracy evaluation board 401 includes positioning holes (positioning holes) 421-1 to 421-4 at each of the four corners.
The side pins 221-1 to 221-4 provided in the calibration board 201 and the positioning holes 421-1 to 421-4 provided in the marker accuracy evaluation board 401 are provided at positions corresponding to each other. The calibration pins 201 and the marker accuracy evaluation board 401 are positioned by passing the side pins 221-1 to 221-4 through the positioning holes 421-1 to 421-4.
Note that the number, position, shape, etc. of the side pins 221-1 to 221-4 of the calibration board 201 and the positioning holes 421-1 to 421-4 of the marker accuracy evaluation board 401 can be determined as long as they can be positioned. Various configurations may be used.

マーカー精度評価ボード401は、透明ボード431と、透明ボード431に付された複数のマーカー(図5では、複数のうちの1個のマーカー412に符号を付してある。)を備える。
透明ボード431は、キャリブレーションボード201のチェッカーパターン211における白い正方形の角と黒い正方形の角とが接する点のそれぞれに、窪みを形成する探り穴(図5では、複数のうちの1個の探り穴411に符号を付してある。)を備える。
透明ボード431は、互いに直交するそれぞれの方向に設けられた複数の探り穴411のうちで、それぞれの方向に1個おきに存在する探り穴のそれぞれの反対の面(ここでは、キャリブレーションボード201と対向する面)に、マーカー412を備える。
The marker accuracy evaluation board 401 includes a transparent board 431 and a plurality of markers attached to the transparent board 431 (in FIG. 5, one of the plurality of markers 412 is provided with a reference numeral).
The transparent board 431 has a search hole that forms a depression at each of the points where the white square corner and the black square corner of the checker pattern 211 of the calibration board 201 touch each other (in FIG. The hole 411 is provided with a reference numeral).
The transparent board 431 has a plurality of probe holes 411 provided in respective directions orthogonal to each other, and has a surface opposite to each other of the search holes existing in every other direction (here, the calibration board 201). The marker 412 is provided on the surface facing the surface.

図6(A)は、本発明の一実施形態に係るマーカー精度評価ボード401の他の一例の一部の構成例を示す図である。図6(B)は、その断面図(Q−Q矢視断面の図)である。
探り穴411は、透明ボード431の一方の面に開口した半球形状の穴である。マーカー412は、探り穴411に対応する位置に備えられ、例えば、マーカー412の面内の所定の位置(基準となる位置)と、探り穴411の所定の位置(例えば、中心の位置)とが対向させられる。マーカー412は、当該マーカー412に設けられた画像認識の対象となるパターンが探り穴411の側に配置される。マーカー412は、貼付や印刷などにより、透明ボード431に付される。このパターンとしては、例えば、所定の1個以上の形状、任意の色、任意の模様などを組み合わせたパターンが用いられる。
マーカー精度評価ボード401の透明ボード431のマーカー412の側の面と、キャリブレーションボード201のチェッカーパターン211が設けられた面とが対向するように、マーカー精度評価ボード401とキャリブレーションボード201とが重ねられる。
なお、探り穴411の形状は、他の形状であってもよく、例えば、円錐形状などであってもよい。
FIG. 6A is a diagram illustrating a partial configuration example of another example of the marker accuracy evaluation board 401 according to an embodiment of the present invention. FIG. 6B is a cross-sectional view thereof (QQ cross-sectional view).
The search hole 411 is a hemispherical hole opened on one surface of the transparent board 431. The marker 412 is provided at a position corresponding to the search hole 411. For example, a predetermined position (reference position) in the surface of the marker 412 and a predetermined position (for example, the center position) of the search hole 411 are provided. It is made to face. In the marker 412, a pattern for image recognition provided in the marker 412 is arranged on the search hole 411 side. The marker 412 is attached to the transparent board 431 by pasting or printing. As this pattern, for example, a pattern in which a predetermined one or more shapes, an arbitrary color, an arbitrary pattern, and the like are combined is used.
The marker accuracy evaluation board 401 and the calibration board 201 are arranged so that the surface on the marker 412 side of the transparent board 431 of the marker accuracy evaluation board 401 and the surface provided with the checker pattern 211 of the calibration board 201 are opposed to each other. Overlaid.
The shape of the search hole 411 may be other shapes, for example, a conical shape.

ここで、本実施形態では、ハンド21により把持する把持用治具63として、棒状の部分の先端に球状の部分を有する治具が用いられる。先端が球状である把持用治具63が用いられることで、ハンド21によりマーカー精度評価ボード401の探り穴411を探り当てる確率を高くすることができる。   Here, in the present embodiment, a jig having a spherical portion at the tip of a rod-shaped portion is used as the gripping jig 63 gripped by the hand 21. By using the gripping jig 63 having a spherical tip, it is possible to increase the probability that the hand 21 finds the search hole 411 of the marker accuracy evaluation board 401.

本実施形態では、校正用治具62−1を用いた校正が終了した後に、キャリブレーションボード201から透明ボード301を取り外し、キャリブレーションボード201にマーカー精度評価ボード401を重ね合わせることで、校正用治具62−2を実現して、校正用治具62−2を用いた校正を行う。校正用治具62−2では、マーカー412の基準点(基準となる位置)とタッチアップポイントとが一致するように作成されており、マーカー精度評価ボード401のタッチアップポイントの上部(ここでは、キャリブレーションボード201と対向しない面の側)に探り穴411が設けられている。これにより、例えば、マーカー412の基準点における位置誤差が大きい場合に、いずれのタッチアップポイントの校正が問題であるのかについて、その場所の特定を素早く判断することが可能となる。   In the present embodiment, after the calibration using the calibration jig 62-1 is completed, the transparent board 301 is removed from the calibration board 201, and the marker accuracy evaluation board 401 is overlaid on the calibration board 201. The jig 62-2 is realized, and calibration using the calibration jig 62-2 is performed. The calibration jig 62-2 is created so that the reference point (reference position) of the marker 412 and the touch-up point coincide with each other, and the upper part of the touch-up point of the marker accuracy evaluation board 401 (here, A search hole 411 is provided on the side of the surface not facing the calibration board 201. Thereby, for example, when the position error at the reference point of the marker 412 is large, it is possible to quickly determine the location of which calibration of the touch-up point is a problem.

ここで、本実施形態では、2個の校正用治具62−1〜62−2で、キャリブレーションボード201を共通化したが、他の構成例として、2個の校正用治具62−1〜62−2で、別個なキャリブレーションボード201(例えば、同じ構成のもの)が用いられてもよい。
また、本実施形態では、校正用治具62−1の透明ボード301と、校正用治具62−2のマーカー精度評価ボード401の透明ボード431とを別個に構成したが、他の構成例として、これらの透明ボード301、431が共通化されてもよい。
In this embodiment, the calibration board 201 is shared by the two calibration jigs 62-1 to 62-2. However, as another configuration example, the two calibration jigs 62-1 are used. ~ 62-2, a separate calibration board 201 (e.g., of the same configuration) may be used.
In the present embodiment, the transparent board 301 of the calibration jig 62-1 and the transparent board 431 of the marker accuracy evaluation board 401 of the calibration jig 62-2 are separately configured. However, as another configuration example, These transparent boards 301 and 431 may be shared.

[第1の校正用治具62−1を用いた校正]
図1に示される校正用治具62として校正用治具62−1を用いた校正について説明する。
ロボット動作処理部101において、位置決め部121は、ロボット11のハンド21により把持用治具63を把持した状態で、キャリブレーションボード201のチェッカーパターン211におけるタッチアップポイントの位置決めを行う。本実施形態では、位置決め部121は、インピーダンス制御を行うことにより、位置決めを行う。
[Calibration using first calibration jig 62-1]
Calibration using a calibration jig 62-1 as the calibration jig 62 shown in FIG. 1 will be described.
In the robot operation processing unit 101, the positioning unit 121 positions the touch-up point in the checker pattern 211 of the calibration board 201 while holding the gripping jig 63 by the hand 21 of the robot 11. In the present embodiment, the positioning unit 121 performs positioning by performing impedance control.

図7(A)、図7(B)、図7(C)は、本発明の一実施形態に係るインピーダンス制御を用いた位置決めの一例を示す図である。
図7(A)に示されるように、位置決め部121は、ロボット11のハンド21により把持用治具63を把持して、ハンド21の先端に球状の部分が存在するようにする。そして、位置決め部121は、この球状の部分が透明ボード301の上面(ここでは、探り穴311が設けられている面)に接するようにハンド21の位置や姿勢を制御し、また、この状態で、力センサー31により検出(検知)される力の値に基づいてインピーダンス制御を行うことにより、探り穴311の位置を探る。本実施形態では、位置決め部121は、ハンド21(および把持用治具63の棒状の部分)が透明ボード301の上面に対して垂直(または、略垂直)となるように、ハンド21を制御する。
FIG. 7A, FIG. 7B, and FIG. 7C are diagrams showing an example of positioning using impedance control according to an embodiment of the present invention.
As shown in FIG. 7A, the positioning unit 121 grips the gripping jig 63 by the hand 21 of the robot 11 so that a spherical portion exists at the tip of the hand 21. Then, the positioning unit 121 controls the position and posture of the hand 21 so that the spherical portion is in contact with the upper surface of the transparent board 301 (here, the surface where the probe hole 311 is provided). The position of the search hole 311 is searched by performing impedance control based on the value of the force detected (detected) by the force sensor 31. In the present embodiment, the positioning unit 121 controls the hand 21 so that the hand 21 (and the bar-shaped portion of the gripping jig 63) is perpendicular (or substantially perpendicular) to the upper surface of the transparent board 301. .

図7(B)には、把持用治具63の球状の部分が探り穴311の一部に接した状態を示してある。
図7(C)には、把持用治具63の球状の部分が探り穴311に収まった状態を示してある。
ここで、位置決め部121は、例えば、ハンド21により把持された把持用治具63の球状の部分が探り穴311に収まった状態であると判定した場合に、把持用治具63の先端の球状の部分を探り穴311に収めた状態のままで、マニピュレーターやハンド21の位置や姿勢を制御して、把持用治具63を様々な姿勢に変化させることで、把持用治具63の球状の部分が探り穴311に収まる精度を高めることが可能である。
FIG. 7B shows a state where the spherical portion of the gripping jig 63 is in contact with a part of the search hole 311.
FIG. 7C shows a state where the spherical portion of the gripping jig 63 is accommodated in the search hole 311.
Here, for example, when the positioning unit 121 determines that the spherical portion of the gripping jig 63 gripped by the hand 21 is in a state of being accommodated in the search hole 311, the positioning portion 121 has a spherical shape at the tip of the gripping jig 63. The position of the gripping jig 63 is changed to various postures by controlling the position and posture of the manipulator and the hand 21 while keeping the portion in the search hole 311, so that the spherical shape of the gripping jig 63 is changed. It is possible to increase the accuracy with which the portion fits in the search hole 311.

このように、インピーダンス制御の結果、把持用治具63の球状の部分(本実施形態では、把持用治具63の中心軸)とチェッカーパターン211のタッチアップポイントとが一致するため、インピーダンス制御による探り動作だけで、確実に校正を行うことができる。これにより、人に起因する読み取り誤差やタッチアップポイントの位置のばらつきを抑えることができる。   Thus, as a result of the impedance control, the spherical portion of the gripping jig 63 (in this embodiment, the central axis of the gripping jig 63) and the touch-up point of the checker pattern 211 coincide with each other. Calibration can be carried out reliably by just searching. As a result, it is possible to suppress reading errors and touch-up point position variations caused by people.

図8は、本発明の一実施形態に係るロボットシステム1において行われる処理の手順の一例を示すフローチャートである。
(ステップS1)
まず、位置決め部121は、ハンド21により把持用治具63を把持した状態で、力センサー値受付部103により力センサー31から受け付けられた力の値(力センサー値)に基づいてインピーダンス制御を行うことにより、探り穴311の位置決めを行う。これにより、位置決め部121は、ロボット11のマニピュレーターやハンド21を制御するための座標系(本実施形態では、ロボット座標系という。)について、把持用治具63により探り穴311(タッチアップポイント)を指したとき(タッチアップしたとき)における座標値(例えば、位置や姿勢の座標値)を取得する。
FIG. 8 is a flowchart illustrating an example of a procedure of processing performed in the robot system 1 according to an embodiment of the present invention.
(Step S1)
First, the positioning unit 121 performs impedance control based on the force value (force sensor value) received from the force sensor 31 by the force sensor value receiving unit 103 while holding the gripping jig 63 by the hand 21. Thus, the search hole 311 is positioned. As a result, the positioning unit 121 uses the grasping jig 63 to search for a coordinate system for controlling the manipulator and the hand 21 of the robot 11 (referred to as a robot coordinate system in this embodiment). The coordinate value (for example, the coordinate value of the position or orientation) when the button is pointed (when touched up) is acquired.

(ステップS2)
次に、画像処理部122は、画像情報受付部102によりカメラ12から受け付けられた画像情報を取得する。そして、画像処理部122は、取得した画像情報を処理することにより、画像処理の座標系(本実施形態では、カメラ座標系という。)について、位置決め部121により位置決めを行った探り穴311(タッチアップポイント)の位置の座標値(例えば、画像における座標値)を取得する。
ここで、画像処理部122は、例えば、チェッカーパターン211の白と黒の輝度値の差に基づいて、探り穴311(タッチアップポイント)の位置を探索して特定する。
なお、画像処理部122により処理する画像情報は、例えば、位置決め部121による位置決めのタイミングより後に撮像された画像情報が用いられてもよく、または、位置決め部121による位置決めのタイミングより前に撮像された画像情報が用いられてもよく、または、位置決め部121による位置決めのタイミングと同時(または、略同時)に撮像された画像情報が用いられてもよい。
(Step S2)
Next, the image processing unit 122 acquires image information received from the camera 12 by the image information receiving unit 102. Then, the image processing unit 122 processes the acquired image information, so that the image processing coordinate system (referred to as a camera coordinate system in the present embodiment) is positioned in the search hole 311 (touch) that has been positioned by the positioning unit 121. The coordinate value (for example, the coordinate value in the image) of the position of the up point) is acquired.
Here, the image processing unit 122 searches and specifies the position of the search hole 311 (touch-up point) based on, for example, the difference between the luminance values of white and black in the checker pattern 211.
As the image information processed by the image processing unit 122, for example, image information captured after the positioning timing by the positioning unit 121 may be used, or captured before the positioning timing by the positioning unit 121. The image information may be used, or the image information captured at the same time (or substantially at the same time) as the positioning timing by the positioning unit 121 may be used.

(ステップS3)
次に、校正部123は、位置決め部121により取得されたロボット座標系における座標値と、画像処理部122により取得されたカメラ座標系における座標値とを対応させることで、校正の処理を行う。この校正の処理において、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて、ロボット座標系における座標値とカメラ座標系における座標値との対応付けを行ってもよい。また、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて行った座標値の対応付けについて、平滑化(例えば、所定の関数でのフィッティングによる近似式の導出)などを行ってもよい。また、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて行った座標値の対応付けに基づいて、隣接する探り穴311(タッチアップポイント)の間の位置のように、探り穴311(タッチアップポイント)が存在しない位置について、補間により座標値の対応付けを行ってもよい。
(Step S3)
Next, the calibration unit 123 performs a calibration process by associating the coordinate value in the robot coordinate system acquired by the positioning unit 121 with the coordinate value in the camera coordinate system acquired by the image processing unit 122. In this calibration process, for example, the calibration unit 123 may associate a coordinate value in the robot coordinate system with a coordinate value in the camera coordinate system for each of a plurality of different search holes 311 (touch-up points). . Further, the calibration unit 123 performs smoothing (for example, derivation of an approximate expression by fitting with a predetermined function) for the association of coordinate values performed for each of a plurality of different search holes 311 (touch-up points). May be performed. In addition, the calibration unit 123 is, for example, a position between adjacent search holes 311 (touch-up points) based on the association of coordinate values performed for each of a plurality of different search holes 311 (touch-up points). In addition, coordinate values may be associated by interpolation for positions where the search holes 311 (touch-up points) do not exist.

ここで、本実施形態では、半球状の探り穴311が用いられるが、他の構成例として、他の形状の探り穴が用いられてもよい。
図9(A)、図9(B)、図9(C)は、本発明の一実施形態に係るインピーダンス制御を用いた位置決めの他の一例を示す図である。本例では、円錐形状を有する探り穴511が用いられている。
図9(A)、図9(B)、図9(C)は、それぞれ、図7(A)、図7(B)、図7(C)に示される状態と同様な状態を示している。なお、図9(A)、図9(B)、図9(C)では、探り穴511および透明ボード501以外の構成部については、図7(A)、図7(B)、図7(C)と同様な符号を付してある。
Here, in the present embodiment, the hemispherical search hole 311 is used, but as another configuration example, a search hole of another shape may be used.
FIG. 9A, FIG. 9B, and FIG. 9C are diagrams showing another example of positioning using impedance control according to an embodiment of the present invention. In this example, a search hole 511 having a conical shape is used.
9 (A), 9 (B), and 9 (C) show states similar to those shown in FIGS. 7 (A), 7 (B), and 7 (C), respectively. . 9A, FIG. 9B, and FIG. 9C, components other than the search hole 511 and the transparent board 501 are shown in FIG. 7A, FIG. 7B, and FIG. The same reference numerals as in C) are attached.

[第2の校正用治具62−2を用いた校正]
図1に示される校正用治具62として校正用治具62−2を用いた校正について説明する。
校正用治具62−2を用いた校正についても、校正用治具62−1を用いた校正と同様に、図8に示される処理の手順により行われる。
(ステップS1に対応する処理)
まず、位置決め部121は、ハンド21により把持用治具63を把持した状態で、力センサー値受付部103により力センサー31から受け付けられた力の値(力センサー値)に基づいてインピーダンス制御を行うことにより、探り穴411の位置決めを行う。これにより、位置決め部121は、ロボット11のマニピュレーターやハンド21を制御するための座標系(ロボット座標系)について、把持用治具63により探り穴411(タッチアップポイント)を指したとき(タッチアップしたとき)における座標値(例えば、位置や姿勢の座標値)を取得する。
[Calibration using second calibration jig 62-2]
Calibration using a calibration jig 62-2 as the calibration jig 62 shown in FIG. 1 will be described.
Similarly to the calibration using the calibration jig 62-1, the calibration using the calibration jig 62-2 is performed according to the processing procedure shown in FIG.
(Process corresponding to step S1)
First, the positioning unit 121 performs impedance control based on the force value (force sensor value) received from the force sensor 31 by the force sensor value receiving unit 103 while holding the gripping jig 63 by the hand 21. Thus, the search hole 411 is positioned. Thereby, the positioning unit 121 points to the probe hole 411 (touch-up point) by the gripping jig 63 with respect to the coordinate system (robot coordinate system) for controlling the manipulator and the hand 21 of the robot 11 (touch-up). Coordinate values (for example, coordinate values of position and orientation).

(ステップS2に対応する処理)
次に、画像処理部122は、画像情報受付部102によりカメラ12から受け付けられた画像情報を取得する。そして、画像処理部122は、取得した画像情報を処理することにより、画像処理の座標系(カメラ座標系)について、位置決め部121により位置決めを行った探り穴411(タッチアップポイント)の位置に存在するマーカー412に関する座標値(例えば、画像における座標値)を取得する。
ここで、画像処理部122は、マーカー412に設けられた画像認識の対象となるパターンに基づいて、画像の認識を行い、あらかじめ定められた位置の座標値を取得する。この画像の認識では、例えば、テンプレートマッチング(パターンマッチング)の処理が用いられてもよい。また、本実施形態では、この画像の認識では、カラーの画像処理が用いられる。
(Process corresponding to step S2)
Next, the image processing unit 122 acquires image information received from the camera 12 by the image information receiving unit 102. Then, the image processing unit 122 processes the acquired image information, so that the image processing coordinate system (camera coordinate system) exists at the position of the search hole 411 (touch-up point) positioned by the positioning unit 121. The coordinate value (for example, the coordinate value in an image) regarding the marker 412 to be acquired is acquired.
Here, the image processing unit 122 recognizes an image based on a pattern that is an object of image recognition provided in the marker 412 and acquires a coordinate value of a predetermined position. In this image recognition, for example, template matching (pattern matching) processing may be used. In this embodiment, color image processing is used for the recognition of the image.

(ステップS3に対応する処理)
次に、校正部123は、位置決め部121により取得されたロボット座標系における座標値と、画像処理部122により取得されたカメラ座標系における座標値とを対応させることで、校正の処理を行う。
(Process corresponding to step S3)
Next, the calibration unit 123 performs a calibration process by associating the coordinate value in the robot coordinate system acquired by the positioning unit 121 with the coordinate value in the camera coordinate system acquired by the image processing unit 122.

[2種類の校正用治具62−1〜62−2を用いた校正]
本実施形態では、ロボット動作処理部101により、第1の校正用治具62−1を用いた校正を行った後に、第2の校正用治具62−2を用いた校正を行う。ここで、これら2種類の校正が共に正確であれば、これら2種類の校正の結果は一致する。また、これら2種類の校正に誤差があっても、当該誤差が許容される範囲であれば、例えば、校正部123は、2種類の校正の結果のいずれか一方を採用する処理や、あるいは、2種類の校正の結果の平均結果を採用する処理などを行ってもよい。また、これら2種類の校正に許容されない範囲の誤差がある場合に、ロボット動作処理部101は、第1の校正用治具62−1を用いた校正および第2の校正用治具62−2を用いた校正をやり直す構成が用いられてもよい。
なお、本実施形態では、第1の校正用治具62−1を用いた校正における誤差は、それぞれのタッチアップポイントにおけるロボット座標系とカメラ座標系との対応付けの誤差を含み、また、第2の校正用治具62−2を用いた校正における誤差は、画像処理におけるマーカー412のパターンの認識誤差を含む。これら2種類の校正では、例えば、異なる画像処理が行われ、誤差が異なり得る。
[Calibration using two types of calibration jigs 62-1 to 62-2]
In this embodiment, the robot motion processing unit 101 performs calibration using the second calibration jig 62-2 after performing calibration using the first calibration jig 62-1. Here, if these two types of calibration are both accurate, the results of these two types of calibration match. Further, even if there is an error in these two types of calibration, if the error is within an allowable range, for example, the calibration unit 123 may perform processing that employs one of the two types of calibration results, or You may perform the process etc. which employ | adopt the average result of the result of two types of calibration. In addition, when there is an error in an unacceptable range for these two types of calibration, the robot motion processing unit 101 performs calibration using the first calibration jig 62-1 and the second calibration jig 62-2. A configuration may be used in which the calibration using the redo is performed again.
In the present embodiment, the error in calibration using the first calibration jig 62-1 includes an error in associating the robot coordinate system and the camera coordinate system at each touch-up point, The error in calibration using the second calibration jig 62-2 includes a pattern recognition error of the marker 412 in image processing. In these two types of calibration, for example, different image processing is performed, and errors may be different.

また、第2の校正用治具62−2を用いた校正は、第1の校正用治具62−1を用いた校正の検証であると捉えた場合、第1の校正用治具62−1を用いた校正が行われ、第2の校正用治具62−2を用いた校正が行われない構成が用いられてもよい。
また、第1の校正用治具62−1を用いた校正が既に行われている場合などにおいて、第1の校正用治具62−1を用いた校正が行われず、第2の校正用治具62−2を用いた校正が行われる構成が用いられてもよい。
Further, when the calibration using the second calibration jig 62-2 is regarded as the verification of the calibration using the first calibration jig 62-1, the first calibration jig 62-2 1 may be used, and a configuration in which calibration using the second calibration jig 62-2 is not performed may be used.
Further, in the case where calibration using the first calibration jig 62-1 has already been performed, the calibration using the first calibration jig 62-1 is not performed, and the second calibration jig is not used. A configuration in which calibration using the tool 62-2 is performed may be used.

ここで、第1の校正用治具62−1を用いた校正や、第2の校正用治具62−2を用いた校正は、複数のクロスポイント(チェッカーパターン211の白と黒の接点であり、探り穴311が設けられた点)のうちの1個または2個以上について行われればよく、適度な一例として、4点について行われる構成が用いられてもよい。   Here, the calibration using the first calibration jig 62-1 and the calibration using the second calibration jig 62-2 are performed at a plurality of crosspoints (white and black contacts of the checker pattern 211). Of the points provided with the search holes 311), and a configuration performed for four points may be used as an appropriate example.

また、本実施形態では、テーブル61の面の上に、第1の校正用治具62−1のボード(キャリブレーションボード201や透明ボード301)の面や第2の校正用治具62−2のボード(キャリブレーションボード201やマーカー精度評価ボード401)の面が水平になるように置かれる場合が用いられるが、他の構成例として、第1の校正用治具62−1のボードの面や第2の校正用治具62−2のボードの面が垂直あるいは斜めに置かれる構成が用いられてもよい。   In this embodiment, on the surface of the table 61, the surface of the board (the calibration board 201 or the transparent board 301) of the first calibration jig 62-1 and the second calibration jig 62-2. The board (the calibration board 201 and the marker accuracy evaluation board 401) is placed so that its surface is horizontal. As another example of the configuration, the board surface of the first calibration jig 62-1. Alternatively, a configuration in which the board surface of the second calibration jig 62-2 is placed vertically or obliquely may be used.

また、本実施形態では、ハンド21により把持用治具63を把持した状態で、把持用治具63の先端の球状の部分により探り穴311、411を探る構成が用いられるが、他の構成例として、把持用治具63が用いられなくてもよく、一例として、先端に球状または半球状などの部分を有するハンドの当該部分により探り穴311、411を探る構成が用いられてもよい。   Further, in this embodiment, a configuration is used in which the probe holes 311 and 411 are searched for by the spherical portion at the tip of the gripping jig 63 while the gripping jig 63 is gripped by the hand 21. As an example, a configuration in which the search holes 311 and 411 are searched for by the portion of the hand having a spherical or hemispherical portion at the tip may be used.

[本実施形態のまとめ]
以上のように、本実施形態に係るロボットシステム1では、ロボット用ビジョン(画像処理用のカメラ12)の座標系(カメラ座標系)と、ロボット11のマニピュレーターやハンド21を制御する座標系(ロボット座標系)との対応付けを校正する、撮像部(本実施形態では、カメラ12)とロボット11との校正の作業において、校正用治具62−1〜62−2に対するロボット11のハンド21の位置決めを行う際に、人に起因する誤差を低減する(理想的には、なくす)ことができる。また、本実施形態に係るロボットシステム1では、第1の校正用治具62−1を用いた校正および第2の校正用治具62−2を用いた校正を行うことにより、マーカー412のパターンを認識する精度(例えば、位置を認識する精度)を評価することが可能である。
[Summary of this embodiment]
As described above, in the robot system 1 according to the present embodiment, the coordinate system (the robot coordinate system) of the vision for the robot (the camera 12 for image processing) and the coordinate system (the robot) that controls the manipulator and the hand 21 of the robot 11. In the calibration operation between the imaging unit (in this embodiment, the camera 12) and the robot 11 that calibrates the association with the coordinate system), the robot 21's hand 21 with respect to the calibration jigs 62-1 to 62-2 is corrected. When positioning is performed, an error caused by a person can be reduced (ideally, eliminated). In the robot system 1 according to the present embodiment, the pattern of the marker 412 is obtained by performing calibration using the first calibration jig 62-1 and calibration using the second calibration jig 62-2. Can be evaluated (for example, accuracy of position recognition).

本実施形態に係るロボットシステム1によると、例えば、従来ではキャリブレーションボードのタッチアップポイントや、マーカーの基準位置等に対する位置決めが困難であったのに対して、人(作業者)の習熟度に関わらず、タッチアップ作業や、マーカーの精度評価を精度良く行うことが可能である。
本実施形態に係るロボットシステム1によると、例えば、タッチアップポイントに対する位置合わせが目視によらないため、読み取り誤差や、作業者によるばらつきを抑えることができ、機械的に位置を合わせ(位置決め)を行うことが可能である。
According to the robot system 1 according to the present embodiment, for example, it has been difficult to position the calibration board with respect to the touch-up point of the calibration board, the reference position of the marker, and the like. Regardless, it is possible to accurately perform touch-up work and marker accuracy evaluation.
According to the robot system 1 according to the present embodiment, for example, the alignment with respect to the touch-up point is not based on visual observation, so that reading errors and variations due to the operator can be suppressed, and the alignment (positioning) is performed mechanically. Is possible.

本実施形態に係るロボットシステム1によると、例えば、力センサー31により力を検出してからその力に基づく制御によりハンド21が停止するまでに、ハンド21が探り穴311、411に対して(多少)行き過ぎるような制御が行われた場合においても、垂直方向(本実施形態では、透明ボード301やマーカー精度評価ボード401の面に対して垂直な方向)における押し付け力によって探り穴311、411から把持用治具63の先端の球状の部分が外れないようにすることができ、かつ、中心ずれをなくすこともできる。   According to the robot system 1 according to the present embodiment, for example, when the hand 21 is stopped by the control based on the force after the force is detected by the force sensor 31, ) Even when control is performed so as to go too far, gripping is performed from the search holes 311 and 411 by the pressing force in the vertical direction (in this embodiment, the direction perpendicular to the surface of the transparent board 301 or the marker accuracy evaluation board 401). The spherical portion at the tip of the jig 63 can be prevented from being removed, and the center deviation can be eliminated.

本実施形態に係るロボットシステム1によると、例えば、マーカー412のパターンに関する精度評価の結果を校正(キャリブレーション)に反映することができる。これにより、本実施形態に係るロボットシステム1によると、例えば、誤差を生じる原因がメカ要因であるか、または、ソフト要因であるかについて、要因の分析に役立つことができ、問題(要因)の特定までの効率化を図ることができる。
本実施形態に係るロボットシステム1によると、例えば、ハンド21をタッチアップポイント間で移動させる動作や、タッチアップポイントに対するハンド21の位置決めを行う動作を、装置(本実施形態では、例えば、制御部41)により自動化することが可能である。
以上のように、本実施形態に係るロボットシステム1によると、撮像部(本実施形態では、カメラ12)とロボット11との校正を精度良く行うことができる。
According to the robot system 1 according to the present embodiment, for example, the accuracy evaluation result regarding the pattern of the marker 412 can be reflected in calibration. Thereby, according to the robot system 1 which concerns on this embodiment, it can be useful for the analysis of a factor about whether a cause which produces an error is a mechanical factor or a soft factor, for example, and a problem (factor) Efficiency up to the specific can be achieved.
According to the robot system 1 according to the present embodiment, for example, an operation of moving the hand 21 between touch-up points and an operation of positioning the hand 21 with respect to the touch-up points are performed by an apparatus (in this embodiment, for example, a control unit 41) can be automated.
As described above, according to the robot system 1 according to the present embodiment, calibration of the imaging unit (the camera 12 in the present embodiment) and the robot 11 can be performed with high accuracy.

ここで、図12(A)および図12(B)を参照して、本実施形態に係るロボットシステム1により得られる効果を具体的に説明する。
図12(A)は、比較例に係るタッチアップポイント1012に対する位置決めを示す図である。
図12(A)には、キャリブレーションボード1001におけるチェッカーパターン1011のタッチアップポイント1012に対するハンド1051の位置決めを人が目視で行う場合を示してある。
この比較例のように人の目視では誤差が発生するが、本実施形態に係るロボットシステム1によると、このような誤差を低減する(理想的には、なくす)ことができる。
Here, with reference to FIG. 12 (A) and FIG. 12 (B), the effect acquired by the robot system 1 which concerns on this embodiment is demonstrated concretely.
FIG. 12A is a diagram illustrating positioning with respect to the touch-up point 1012 according to the comparative example.
FIG. 12A shows a case where a person visually positions the hand 1051 with respect to the touch-up point 1012 of the checker pattern 1011 on the calibration board 1001.
Although an error occurs visually by human eyes as in this comparative example, such an error can be reduced (ideally eliminated) by the robot system 1 according to the present embodiment.

図12(B)は、比較例に係るマーカー1101を用いた画像認識を示す図である。
図12(B)には、図12(A)に示される位置決めが行われた後に、マーカー1101(図12(B)の例では、複数のマーカー1101〜1103のうちの1個のマーカー1101)を用いて、画像認識を行って、位置決めの評価を行う場合を示してある。
この比較例では上述した人の目視による誤差が評価されるが、本実施形態に係るロボットシステム1によると、このような誤差を低減する(理想的には、なくす)ことができる。
FIG. 12B is a diagram illustrating image recognition using the marker 1101 according to the comparative example.
In FIG. 12B, after the positioning shown in FIG. 12A is performed, the marker 1101 (in the example of FIG. 12B, one marker 1101 out of a plurality of markers 1101 to 1103). A case is shown in which image recognition is performed and positioning is evaluated.
In this comparative example, the above-described human visual error is evaluated. However, according to the robot system 1 according to the present embodiment, such an error can be reduced (ideally eliminated).

このように、図12(A)および図12(B)に示される比較例では、ハンド1051とタッチアップポイント1012とを目視で位置合わせするのに対して、本実施形態に係るロボットシステム1では、タッチアップポイントに対応する位置に探り穴311、411を設けて、ハンド21(本実施形態では、ハンド21により把持される把持用治具63)により当該探り穴311、411を探って、ハンド21とタッチアップポイントとを位置合わせすることにより、撮像部(本実施形態では、カメラ12)とロボット11との校正の誤差を低減することができる。   As described above, in the comparative example shown in FIGS. 12A and 12B, the hand 1051 and the touch-up point 1012 are visually aligned, whereas in the robot system 1 according to the present embodiment, The probe hole 311 or 411 is provided at a position corresponding to the touch-up point, and the probe 21 is searched for by the hand 21 (in this embodiment, the holding jig 63 held by the hand 21). By aligning the position 21 and the touch-up point, calibration errors between the imaging unit (in this embodiment, the camera 12) and the robot 11 can be reduced.

[本実施形態の変形例に係るロボットシステムの概要]
<第1の変形例>
図10は、本発明の実施形態の第1の変形例に係るロボット601の概略的な構成を示す図である。
ロボット601は、格納部611と、胴体部分612〜614と、左側のマニピュレーター621,ハンド631および力センサー641と、右側のマニピュレーター622、ハンド632および力センサー642と、左側の車輪651と、右側の車輪652と、カメラ661と、制御部671を備える。
[Outline of Robot System According to Modified Example of Embodiment]
<First Modification>
FIG. 10 is a diagram showing a schematic configuration of a robot 601 according to the first modification of the embodiment of the present invention.
The robot 601 includes a storage unit 611, a body portion 612 to 614, a left manipulator 621, a hand 631 and a force sensor 641, a right manipulator 622, a hand 632 and a force sensor 642, a left wheel 651, and a right wheel 651. A wheel 652, a camera 661, and a control unit 671 are provided.

ロボット601は、それぞれ腕(アーム)を構成する2本のマニピュレーター621、622を備える双腕ロボットである。ロボット601は、カメラ661および制御部671と一体に構成されており、制御部671から入力された制御信号により動作が制御される。また、ロボット601は、自己の状態等を示す信号を、制御部671に出力してもよい。   The robot 601 is a dual-arm robot including two manipulators 621 and 622 that respectively constitute arms (arms). The robot 601 is configured integrally with the camera 661 and the control unit 671, and its operation is controlled by a control signal input from the control unit 671. Further, the robot 601 may output a signal indicating its own state or the like to the control unit 671.

格納部611の上面には、胴体部材612、胴体部材613、胴体部材614が順に上側に取り付けられており、最も上部の胴体部材614の左側に左腕を構成するマニピュレーター621が取り付けられており、当該胴体部材614の右側に右腕を構成するマニピュレーター622が取り付けられており、格納部611の底面の左側に車輪651が取り付けられており、格納部611の底面の右側に車輪652が取り付けられており、格納部611の上面にカメラ661が取り付けられている。
なお、ロボット601は、人手により外力を加えることで、または、装置により自動的に、左側の車輪651および右側の車輪652を回転させて、移動させることが可能である。
格納部611には、制御部671が格納されている。
マニピュレーター621、622は、それぞれ、例えば、垂直多関節ロボットの一種であり、ロボットアームとして機能する。それぞれのマニピュレーター621、622は、その先端にハンド631、632を備える。また、それぞれのハンド631、632に力センサー641、642を備える。
A body member 612, a body member 613, and a body member 614 are sequentially attached to the upper surface of the storage unit 611, and a manipulator 621 constituting a left arm is attached to the left side of the uppermost body member 614. A manipulator 622 constituting a right arm is attached to the right side of the body member 614, a wheel 651 is attached to the left side of the bottom surface of the storage unit 611, and a wheel 652 is attached to the right side of the bottom surface of the storage unit 611. A camera 661 is attached to the upper surface of the storage unit 611.
The robot 601 can be moved by rotating the left wheel 651 and the right wheel 652 by applying external force manually or automatically by the apparatus.
The storage unit 611 stores a control unit 671.
Each of the manipulators 621 and 622 is a kind of vertical articulated robot, for example, and functions as a robot arm. Each manipulator 621 and 622 includes a hand 631 and 632 at its tip. The hands 631 and 632 are provided with force sensors 641 and 642, respectively.

なお、図10の例では、カメラ661を格納部611の上面に備えたが、他の構成例として、カメラ661は、他の任意の場所に備えられてもよく、例えば、ロボット601における他の任意の場所に備えられてもよく、または、ロボット以外の場所として、床面、天井、壁面などに固定されて備えられてもよい。
また、カメラ661は、例えば、人手により外力を加えることで、または、装置により自動的に、撮像方向や撮像角度などを変化させることが可能な構成であってもよい。
In the example of FIG. 10, the camera 661 is provided on the upper surface of the storage unit 611. However, as another configuration example, the camera 661 may be provided in any other location. It may be provided in an arbitrary place, or may be provided as a place other than the robot by being fixed to a floor surface, a ceiling, a wall surface or the like.
Further, the camera 661 may be configured to be able to change the imaging direction, the imaging angle, and the like by applying an external force manually, or automatically by the apparatus.

制御部671は、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)を制御する。制御部671とそれぞれのマニピュレーター621、631とは、例えば、有線または無線の回線を介して、制御信号などを伝送することが可能に接続される。
なお、制御部671は、例えば、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)とを、同時に関連付けて制御してもよく、または、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)とを、それぞれ別個に制御してもよい。
The control unit 671 controls the left arm manipulator 621 (and the hand 631 and the force sensor 641) and the right arm manipulator 622 (and the hand 632 and the force sensor 642). The control unit 671 and each of the manipulators 621 and 631 are connected to be able to transmit a control signal or the like via, for example, a wired or wireless line.
The control unit 671 may control the left arm manipulator 621 (and the hand 631 and the force sensor 641) and the right arm manipulator 622 (and the hand 632 and the force sensor 642) in association with each other at the same time, or The left arm manipulator 621 (and hand 631 and force sensor 641) and the right arm manipulator 622 (and hand 632 and force sensor 642) may be controlled separately.

ここで、図10に示されるロボット601が備える左腕のマニピュレーター621(およびハンド631や力センサー641)や右腕のマニピュレーター622(およびハンド632や力センサー642)は、図1に示されるロボット11が備えるマニピュレーター(およびハンド21や力センサー31)に対応する。また、図10に示されるロボット601が備えるカメラ661は、図1に示されるカメラ12に対応する。また、図10に示されるロボット601が備える制御部671は、図1に示されるロボット11が備える制御部41に対応する。   Here, the left arm manipulator 621 (and the hand 631 and force sensor 641) and the right arm manipulator 622 (and the hand 632 and force sensor 642) included in the robot 601 shown in FIG. 10 are provided in the robot 11 shown in FIG. It corresponds to the manipulator (and the hand 21 and the force sensor 31). Further, the camera 661 provided in the robot 601 shown in FIG. 10 corresponds to the camera 12 shown in FIG. Further, the control unit 671 provided in the robot 601 shown in FIG. 10 corresponds to the control unit 41 provided in the robot 11 shown in FIG.

<第2の変形例>
図11は、本発明の実施形態の第2の変形例に係るロボットシステム701の概略的な構成を示す図である。
ロボットシステム701は、ロボット711と、カメラ712と、制御装置713と、カメラ712と制御装置713を接続して通信可能にする回線714と、ロボット711と制御装置713を接続して通信可能にする回線715を備える。ロボット711は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)721を備える。ハンド721に、力センサー731を備える。制御装置713は、図1に示される制御部41と同様な機能を備える。
図11には、テーブル(作業机)61の上に戴置(配置)された校正用治具62と、ハンド721により把持される把持用治具63を示してある。なお、テーブル61、校正用治具62および把持用治具63は、図1に示されるものと同様であり、図1と同一の符号を用いてある。
<Second Modification>
FIG. 11 is a diagram showing a schematic configuration of a robot system 701 according to a second modification of the embodiment of the present invention.
The robot system 701 connects the robot 711, the camera 712, the control device 713, connects the camera 712 and the control device 713 to enable communication, and connects the robot 711 and the control device 713 to enable communication. A line 715 is provided. The robot 711 is a single-arm robot including one manipulator (arm), and includes a hand (robot hand) 721 attached to the tip of the manipulator. The hand 721 is provided with a force sensor 731. The control device 713 has the same function as the control unit 41 shown in FIG.
FIG. 11 shows a calibration jig 62 placed (arranged) on a table (work desk) 61 and a gripping jig 63 gripped by a hand 721. The table 61, the calibration jig 62, and the gripping jig 63 are the same as those shown in FIG. 1, and the same reference numerals as those in FIG. 1 are used.

ここで、図1に示されるロボットシステム1と比べて、図11に示されるロボットシステム701では、ロボット711と制御装置713(図1に示される制御部41に対応するもの)とが別体で構成されている。制御装置713は、回線714を介してカメラ712との間で通信する機能や、回線715を介してロボット711との間で通信する機能を備える。   Here, compared with the robot system 1 shown in FIG. 1, in the robot system 701 shown in FIG. 11, the robot 711 and the control device 713 (corresponding to the control unit 41 shown in FIG. 1) are separated. It is configured. The control device 713 has a function of communicating with the camera 712 via the line 714 and a function of communicating with the robot 711 via the line 715.

図11の例のように、ロボット711と制御装置713とが別体で構成されるロボットシステム701においても、これらが一体で構成されるロボットシステム(例えば、図1に示されるロボットシステム1や、図10に示されるロボット601を含むロボットシステム)と同様な効果を得ることができる。
なお、図10に示されるロボット601についても、他の構成例として、ロボット601の制御部671以外の部分と、制御部671とが別体で構成されてもよい。
As in the example of FIG. 11, even in a robot system 701 in which the robot 711 and the control device 713 are separately formed, a robot system (for example, the robot system 1 shown in FIG. An effect similar to that of the robot system including the robot 601 shown in FIG. 10 can be obtained.
As for another example of the configuration of the robot 601 illustrated in FIG. 10, a portion other than the control unit 671 of the robot 601 and the control unit 671 may be configured separately.

[以上の実施形態に関する構成例]
一構成例として、ハンド(図1の例では、ハンド21であり、図10の例では、ハンド631〜632)と、力センサー(図1の例では、力センサー31であり、図10の例では、力センサー641〜642)と、前記ハンドを動作させる制御部(図1の例では、制御部41であり、図10の例では、制御部671)と、を含み、前記制御部は、校正用治具(図1の例では、校正用治具62であり、例えば、図3に示される校正用治具62−1や図5に示される校正用治具62−2)の所定位置(図3や図5の例では、タッチアップポイント)に配置された窪み(図3や図5の例では、探り穴311、411)によって前記ハンドを位置決めした後に、撮像部(図1の例では、カメラ12であり、図10の例では、カメラ661)が前記所定位置を撮像する、ロボット(図1の例では、ロボット11であり、図10の例では、ロボット601)である。
なお、校正用治具は、例えば、撮像部とロボットとの校正を行うための治具であり、また、制御部は、例えば、ハンドの位置決めの結果と、所定位置を撮像した結果とに基づいて、校正を行う。
[Configuration example of the above embodiment]
As one configuration example, a hand (the hand 21 in the example of FIG. 1 and the hands 631 to 632 in the example of FIG. 10) and a force sensor (the force sensor 31 in the example of FIG. 1) and the example of FIG. Then, force sensors 641 to 642) and a control unit (the control unit 41 in the example of FIG. 1 and the control unit 671 in the example of FIG. 10) that operates the hand, and the control unit includes: A predetermined position of a calibration jig (the calibration jig 62 in the example of FIG. 1, for example, the calibration jig 62-1 shown in FIG. 3 or the calibration jig 62-2 shown in FIG. 5). After positioning the hand by a depression (in the example of FIGS. 3 and 5, the search holes 311 and 411 in the examples of FIGS. 3 and 5), the imaging unit (example of FIG. 1) is positioned. In the example of FIG. 10, the camera 661) is the predetermined camera. Imaging the location (in the example of FIG. 1, a robot 11, in the example of FIG. 10, the robot 601) a robot is.
The calibration jig is, for example, a jig for calibrating the imaging unit and the robot, and the control unit is based on, for example, the result of hand positioning and the result of imaging a predetermined position. And calibrate.

一構成例として、ロボットにおいて、前記制御部は、前記力センサーにより検出される値に基づいてインピーダンス制御を行い、前記ハンドを位置決めする。
一構成例として、ロボットにおいて、前記制御部は、前記ハンドにより前記窪みの形状(図3や図5の例では、半球状)に対応する形状(図3や図5に対応する例では、球状または半球状)を有する把持用治具(図1の例では、把持用治具63)を把持させた状態で、前記ハンドを位置決めする。
一構成例として、ロボットにおいて、前記校正用治具は、チェッカーパターン(図3の例では、チェッカーパターン211)を有するボード(図3の例では、キャリブレーションボード201)と、前記窪みを有する透明ボード(図3の例では、透明ボード301)とが組み合わされた治具である。
一構成例として、ロボットにおいて、前記校正用治具は、チェッカーパターン(図5の例では、チェッカーパターン211)を有するボード(図5の例では、キャリブレーションボード201)と、前記窪みを有する透明ボード(図5の例では、透明ボード431)にマーカー(図5の例では、マーカー412)が付されたボード(図5の例では、マーカー精度評価ボード401)とが組み合わされた治具である。
一構成例として、ロボットにおいて、前記校正用治具の組み合わされる2個のボードのうちの一方に位置決め用の突起(図3や図5の例では、サイドピン221−1〜221−4)が設けられ、他方に前記突起を通す位置決め用の穴(図3や図5の例では、位置決め穴321−1〜321−4、421−1〜421−4)が設けられる。
As one configuration example, in the robot, the control unit performs impedance control based on a value detected by the force sensor, and positions the hand.
As an example of the configuration, in the robot, the control unit uses the hand to have a shape corresponding to the shape of the depression (semispherical in the examples of FIGS. 3 and 5) (spherical in the examples corresponding to FIGS. 3 and 5). Alternatively, the hand is positioned in a state where a gripping jig having a hemispherical shape (the gripping jig 63 in the example of FIG. 1) is gripped.
As one configuration example, in the robot, the calibration jig includes a board (a calibration board 201 in the example of FIG. 3) having a checker pattern (in the example of FIG. 3) and a transparent having the recess. It is a jig combined with a board (transparent board 301 in the example of FIG. 3).
As one configuration example, in the robot, the calibration jig includes a board (a calibration board 201 in the example of FIG. 5) having a checker pattern (in the example of FIG. 5) and a transparent having the recess. A jig in which a board (a marker accuracy evaluation board 401 in the example of FIG. 5) is combined with a board (a transparent board 431 in the example of FIG. 5) with a marker (a marker 412 in the example of FIG. 5). is there.
As an example of the configuration, in the robot, positioning protrusions (side pins 221-1 to 221-4 in the examples of FIGS. 3 and 5) are provided on one of the two boards to which the calibration jig is combined. Positioning holes are provided on the other side (positioning holes 321-1 to 321-4, 421-1 to 421-4 in the examples of FIGS. 3 and 5) through which the protrusions are passed.

一構成例として、撮像部(図1の例では、カメラ12であり、図10の例では、カメラ661であり、図11の例では、カメラ712)と、ハンド(図1の例では、ハンド21であり、図10の例では、ハンド631〜632であり、図11の例では、ハンド721)と力センサー(図1の例では、力センサー31であり、図10の例では、力センサー641〜642であり、図11の例では、力センサー731)とを備えるロボット(図1の例では、ロボット11であり、図10の例では、ロボット601であり、図11の例では、ロボット711)と、前記ロボットを動作させる制御部(図1の例では、制御部41であり、図10の例では、制御部671であり、図11の例では、制御装置713の機能)と、校正用治具と、を含み、前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、ロボットシステム(図1の例では、ロボットシステム1であり、図10の例では、ロボット601を含むロボットシステムであり、図11の例では、ロボットシステム701)である。
一構成例として、撮像部が撮像した撮像画像を受け付ける画像受付部(図2の例では、画像情報受付部102の機能)と、ロボットを動作させる処理部(図2の例では、ロボット動作処理部101の機能)と、を含み、前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、制御装置(図11の例では、制御装置713)である。
一構成例として、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めすることと、撮像部によって前記所定位置を撮像することと、を含む制御方法(例えば、図1や図10に示される制御部41、671や図11に示される制御装置713により行われる制御の方法)である。
As one configuration example, the imaging unit (the camera 12 in the example of FIG. 1, the camera 661 in the example of FIG. 10, the camera 712 in the example of FIG. 11), and the hand (the hand in the example of FIG. 1). 10, the hands 631 to 632 in the example of FIG. 10, the hand 721 in the example of FIG. 11, and the force sensor (the force sensor 31 in the example of FIG. 1, and the force sensor in the example of FIG. 11, and in the example of FIG. 11, the robot is the robot 11 in the example of FIG. 11. In the example of FIG. 11, the robot is the robot 601. 711) and a control unit for operating the robot (in the example of FIG. 1, the control unit 41, in the example of FIG. 10, the control unit 671, in the example of FIG. 11, the function of the control device 713), Calibration jig The control unit causes the imaging unit to image the predetermined position after positioning the hand by a depression disposed at a predetermined position of the calibration jig, or causes the imaging unit to capture the predetermined position before the positioning. A robot system to be imaged (the robot system 1 in the example of FIG. 1, the robot system including the robot 601 in the example of FIG. 10, and the robot system 701 in the example of FIG. 11).
As one configuration example, an image receiving unit (a function of the image information receiving unit 102 in the example of FIG. 2) that receives a captured image captured by the imaging unit, and a processing unit that operates the robot (the robot operation process in the example of FIG. 2). The control unit is configured to image the predetermined position after the processing unit has positioned the hand of the robot by the depression disposed at the predetermined position of the calibration jig. (In the example of FIG. 11, the control device 713).
As one configuration example, a control method (for example, FIG. 1 or FIG. 1) including positioning a robot hand by a depression disposed at a predetermined position of a calibration jig and imaging the predetermined position by an imaging unit. 10 is a control method performed by the control units 41 and 671 shown in FIG. 10 and the control device 713 shown in FIG.

[以上の実施形態について]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
[About the above embodiments]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

なお、以上に説明した装置など(例えば、制御部41、671や制御装置713など)における任意の構成部(機能部)の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。   It should be noted that a program for realizing the function of an arbitrary component (functional unit) in the devices described above (for example, the control units 41 and 671 and the control device 713) is recorded on a computer-readable recording medium. The program may be loaded into a computer system and executed. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. “Computer-readable recording medium” means a portable disk such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD (Compact Disk) -ROM, or a hard disk built in a computer system. Refers to the device. Further, the “computer-readable recording medium” means a volatile memory (RAM: Random Access) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory that holds a program for a certain period of time, such as Memory).

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1、701…ロボットシステム、11、601、711…ロボット、12、661、712…カメラ、13、714〜715…回線、21、631〜632、721、1051…ハンド、31、641〜642、731…力センサー、41、671…制御部、61…テーブル、62、62−1〜62−2…校正用治具、63…把持用治具、101…ロボット動作処理部、102…画像情報受付部、103…力センサー値受付部、104…記憶部、105…入力部、106…出力部、121…位置決め部、122…画像処理部、123…校正部、201、1001…キャリブレーションボード、211、1011…チェッカーパターン、221−1〜221−4…サイドピン、301、431、501…透明ボード、311、411、511…探り穴、321−1〜321−4、421−1〜421−4…位置決め穴、401…マーカー精度評価ボード、412、1101〜1103…マーカー、611…格納部、612〜614…胴体部分、621〜622…マニピュレーター、651〜652…車輪、713…制御装置、1012…タッチアップポイント DESCRIPTION OF SYMBOLS 1,701 ... Robot system, 11, 601, 711 ... Robot, 12, 661, 712 ... Camera, 13, 714-715 ... Line, 21, 631-632, 721, 1051 ... Hand, 31, 641-642, 731 ... force sensor, 41, 671 ... control unit, 61 ... table, 62, 62-1 to 62-2 ... calibration jig, 63 ... gripping jig, 101 ... robot motion processing unit, 102 ... image information receiving unit , 103 ... force sensor value receiving unit, 104 ... storage unit, 105 ... input unit, 106 ... output unit, 121 ... positioning unit, 122 ... image processing unit, 123 ... calibration unit, 201, 1001 ... calibration board, 211, 1011: checker pattern, 221-1 to 221-4 ... side pins, 301, 431, 501 ... transparent board, 311, 411, 511 ... Holes, 321-1 to 321-4, 421-1 to 421-4 ... Positioning holes, 401 ... Marker accuracy evaluation board, 412, 1101 to 1103 ... Marker, 611 ... Storage part, 612 to 614 ... Body part, 621 -622 ... Manipulator, 651-652 ... Wheel, 713 ... Control device, 1012 ... Touch-up point

Claims (9)

ハンドと、
力センサーと、
前記ハンドを動作させる制御部と、を含み、
前記制御部は、校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に、撮像部が前記所定位置を撮像する、
ロボット。
Hands and
A force sensor;
A control unit for operating the hand,
The controller is configured to image the predetermined position after the hand is positioned by a depression disposed at a predetermined position of the calibration jig,
robot.
前記制御部は、前記力センサーにより検出される値に基づいてインピーダンス制御を行い、前記ハンドを位置決めする、
請求項1に記載のロボット。
The control unit performs impedance control based on a value detected by the force sensor, and positions the hand.
The robot according to claim 1.
前記制御部は、前記ハンドにより前記窪みの形状に対応する形状を有する把持用治具を把持させた状態で、前記ハンドを位置決めする、
請求項1または請求項2に記載のロボット。
The control unit positions the hand in a state where a gripping jig having a shape corresponding to the shape of the depression is gripped by the hand.
The robot according to claim 1 or 2.
前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードとが組み合わされた治具である、
請求項1から請求項3のいずれか1項に記載のロボット。
The calibration jig is a jig in which a board having a checker pattern and a transparent board having the depression are combined.
The robot according to any one of claims 1 to 3.
前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードにマーカーが付されたボードとが組み合わされた治具である、
請求項1から請求項3のいずれか1項に記載のロボット。
The calibration jig is a jig in which a board having a checker pattern and a board with markers attached to the transparent board having the depressions are combined.
The robot according to any one of claims 1 to 3.
前記校正用治具の組み合わされる2個のボードのうちの一方に位置決め用の突起が設けられ、他方に前記突起を通す位置決め用の穴が設けられる、
請求項4または請求項5のいずれか1項に記載のロボット。
A positioning projection is provided on one of the two boards combined with the calibration jig, and a positioning hole through which the projection is passed is provided on the other.
The robot according to any one of claims 4 and 5.
撮像部と、
ハンドと力センサーとを備えるロボットと、
前記ロボットを動作させる制御部と、
校正用治具と、を含み、
前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、
ロボットシステム。
An imaging unit;
A robot with a hand and a force sensor;
A control unit for operating the robot;
A calibration jig, and
The control unit causes the imaging unit to take an image of the predetermined position after positioning the hand by a depression disposed at a predetermined position of the calibration jig, or the imaging unit takes the predetermined position before the positioning. Let me image
Robot system.
撮像部が撮像した撮像画像を受け付ける画像受付部と、
ロボットを動作させる処理部と、を含み、
前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、
制御装置。
An image receiving unit that receives a captured image captured by the imaging unit;
A processing unit for operating the robot,
The processing unit positions the hand of the robot by a depression disposed at a predetermined position of a calibration jig, and then the imaging unit images the predetermined position.
Control device.
校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めすることと、
撮像部によって前記所定位置を撮像することと、
を含む制御方法。
Positioning the robot's hand by a recess placed at a predetermined position of the calibration jig;
Imaging the predetermined position by an imaging unit;
Control method.
JP2014033776A 2014-02-25 2014-02-25 Robot, robot system, control device and control method Pending JP2015157342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014033776A JP2015157342A (en) 2014-02-25 2014-02-25 Robot, robot system, control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014033776A JP2015157342A (en) 2014-02-25 2014-02-25 Robot, robot system, control device and control method

Publications (1)

Publication Number Publication Date
JP2015157342A true JP2015157342A (en) 2015-09-03

Family

ID=54181805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014033776A Pending JP2015157342A (en) 2014-02-25 2014-02-25 Robot, robot system, control device and control method

Country Status (1)

Country Link
JP (1) JP2015157342A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI693990B (en) * 2017-07-13 2020-05-21 達明機器人股份有限公司 Device and method for calibrating end-effector of robot arm
WO2021079802A1 (en) * 2019-10-21 2021-04-29 株式会社アマダ Workpiece photograph image processing device, workpiece photograph image processing method, and machining system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI693990B (en) * 2017-07-13 2020-05-21 達明機器人股份有限公司 Device and method for calibrating end-effector of robot arm
WO2021079802A1 (en) * 2019-10-21 2021-04-29 株式会社アマダ Workpiece photograph image processing device, workpiece photograph image processing method, and machining system

Similar Documents

Publication Publication Date Title
JP6180087B2 (en) Information processing apparatus and information processing method
CN107883831B (en) Measurement system and measurement method
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP2023052266A (en) System and method for combining machine vision coordinate spaces in guided assembly environment
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP4001105B2 (en) Grasping method of arbitrarily shaped object by robot
JP2018144144A (en) Image processing device, image processing method and computer program
US20150261899A1 (en) Robot simulation system which simulates takeout process of workpieces
KR20180080630A (en) Robot and electronic device for performing hand-eye calibration
US10052767B2 (en) Robot, control device, and control method
WO2019146201A1 (en) Information processing device, information processing method, and information processing system
JP6885856B2 (en) Robot system and calibration method
JP2015160257A (en) Robot, robot system, control device and control method
CN110465946B (en) Method for calibrating relation between pixel coordinate and robot coordinate
JP2013146813A (en) Robot apparatus, and position and orientation detecting method
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
JP2020006445A (en) Operation teaching device, robot system and operation teaching method
CN109945780A (en) Object inspection systems and object inspection method
US11085751B2 (en) Ergonomic mobile controller for coordinate measuring machine
JP2015157342A (en) Robot, robot system, control device and control method
JP2006130580A (en) Method for gripping arbitrarily-shaped object by robot
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
JP6499272B2 (en) Teaching apparatus and control information generation method
US20230321823A1 (en) Robot control device, and robot system
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160627