JP2015157342A - Robot, robot system, control device and control method - Google Patents
Robot, robot system, control device and control method Download PDFInfo
- Publication number
- JP2015157342A JP2015157342A JP2014033776A JP2014033776A JP2015157342A JP 2015157342 A JP2015157342 A JP 2015157342A JP 2014033776 A JP2014033776 A JP 2014033776A JP 2014033776 A JP2014033776 A JP 2014033776A JP 2015157342 A JP2015157342 A JP 2015157342A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- calibration
- hand
- jig
- board
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット、ロボットシステム、制御装置および制御方法に関する。 The present invention relates to a robot, a robot system, a control device, and a control method.
撮像部の撮像画像の座標系と、ロボットのハンドを制御する座標系とを校正(キャリブレーション)することが行われる。
一例として、特許文献1に記載された「ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法」では、校正用治具であるキャリブレーションボードに設けられたタッチアップの基準点(タッチアップポイント)と、ロボットアームの先端とを目視で位置合わせすることが行われる(特許文献1参照。)。
また、マーカーの認識位置の精度評価については、例えば、キャリブレーションボードを取り外してから、マーカーを配置して、マーカーとロボットアームの先端とのズレ量を目視で計測することが行われる。
Calibration of the coordinate system of the captured image of the imaging unit and the coordinate system that controls the hand of the robot is performed.
As an example, in the “coordinate system coupling method for determining the relationship between a sensor coordinate system and a robot tip in a robot-visual sensor system” described in Patent Document 1, a touch-up provided on a calibration board, which is a calibration jig. The reference point (touch-up point) is visually aligned with the tip of the robot arm (see Patent Document 1).
As for the accuracy evaluation of the recognition position of the marker, for example, after removing the calibration board, the marker is placed and the amount of deviation between the marker and the tip of the robot arm is visually measured.
しかしながら、特許文献1に係る技術では、キャリブレーションボードに設けられたタッチアップポイントとロボットアームの先端とを目視で位置合わせするため、人(作業者)が見る位置や角度に起因する読み取り誤差が発生する。また、作業者が異なれば合わせる位置も異なるといった人(個々人)に起因するばらつきも発生する。
また、マーカーの認識位置の精度評価は、キャリブレーションボードを用いたキャリブレーションとは独立して行われるため、タッチアップポイントと同じ位置にマーカーの認識基準点を配置することが困難であり、認識精度が低くともタッチアップの良し悪しを反映できず、評価結果を活かすことができない。
However, in the technique according to Patent Document 1, since the touch-up point provided on the calibration board and the tip of the robot arm are visually aligned, there is no reading error due to the position or angle viewed by a person (operator). Occur. In addition, variations caused by people (individuals) such as different positions for different workers also occur.
In addition, since the accuracy evaluation of the marker recognition position is performed independently of calibration using the calibration board, it is difficult to place the marker recognition reference point at the same position as the touch-up point. Even if the accuracy is low, the quality of the touch-up cannot be reflected and the evaluation result cannot be utilized.
本発明は、前記の点に鑑み為されたものであり、撮像部とロボットとの校正を精度良く行うことができるロボット、ロボットシステム、制御装置および制御方法を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides a robot, a robot system, a control device, and a control method that can accurately calibrate an imaging unit and a robot.
本発明の一態様は、上記の課題を解決するためになされたものであり、ハンドと、力センサーと、前記ハンドを動作させる制御部と、を含み、前記制御部は、校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に、撮像部が前記所定位置を撮像する、ロボットである。
この構成により、ロボットでは、制御部は、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、ロボットでは、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes a hand, a force sensor, and a control unit that operates the hand. The control unit includes a calibration jig. In the robot, the imaging unit images the predetermined position after the hand is positioned by the depression disposed at the predetermined position.
With this configuration, in the robot, the control unit positions the hand with the depression disposed at a predetermined position of the calibration jig, and then the imaging unit images the predetermined position. Thereby, in the robot, the positioning of the hand can be performed with high accuracy, and the calibration between the imaging unit and the robot can be performed with high accuracy.
本発明の一態様は、ロボットにおいて、前記制御部は、前記力センサーにより検出される値に基づいてインピーダンス制御を行い、前記ハンドを位置決めする、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、力センサーにより検出される値に基づいてインピーダンス制御を行い、ハンドを位置決めする。これにより、ロボットでは、ハンドにより窪みを探る動作を行って、ハンドの位置決めを精度良く行うことができる。
One aspect of the present invention may be configured such that, in the robot, the control unit performs impedance control based on a value detected by the force sensor and positions the hand.
With this configuration, in the robot, the control unit performs impedance control based on the value detected by the force sensor, and positions the hand. As a result, the robot can accurately perform positioning of the hand by performing an operation of searching for the depression with the hand.
本発明の一態様は、ロボットにおいて、前記制御部は、前記ハンドにより前記窪みの形状に対応する形状を有する把持用治具を把持させた状態で、前記ハンドを位置決めする、構成が用いられてもよい。
この構成により、ロボットでは、制御部は、ハンドにより窪みの形状に対応する形状を有する把持用治具を把持させた状態で、ハンドを位置決めする。これにより、ロボットでは、互いに対応する形状を有する窪みと把持用治具を嵌合させて、ハンドの位置決めを精度良く行うことができる。
In one aspect of the present invention, in the robot, the control unit may be configured to position the hand in a state where a gripping jig having a shape corresponding to the shape of the depression is gripped by the hand. Also good.
With this configuration, in the robot, the control unit positions the hand in a state where the gripping jig having a shape corresponding to the shape of the depression is gripped by the hand. As a result, the robot can accurately position the hand by fitting the recesses having shapes corresponding to each other and the holding jig.
本発明の一態様は、ロボットにおいて、前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードとが組み合わされた治具である、構成が用いられてもよい。
この構成により、ロボットでは、チェッカーパターンを有するボードと窪みを有する透明ボードとが組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
In one aspect of the present invention, in the robot, a configuration in which the calibration jig is a jig in which a board having a checker pattern and a transparent board having the depressions are combined may be used.
With this configuration, the robot performs calibration using a calibration jig in which a board having a checker pattern and a transparent board having depressions are combined. As a result, the robot can accurately calibrate the imaging unit and the robot.
本発明の一態様は、ロボットにおいて、前記校正用治具は、チェッカーパターンを有するボードと、前記窪みを有する透明ボードにマーカーが付されたボードとが組み合わされた治具である、構成が用いられてもよい。
この構成により、ロボットでは、チェッカーパターンを有するボードと窪みを有する透明ボードにマーカーが付されたボードとが組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
In one embodiment of the present invention, in the robot, the calibration jig is a jig in which a board having a checker pattern and a board on which a marker is attached to the transparent board having the depression are combined. May be.
With this configuration, the robot performs calibration using a calibration jig in which a board having a checker pattern and a transparent board having a depression and a board with a marker are combined. As a result, the robot can accurately calibrate the imaging unit and the robot.
本発明の一態様は、ロボットにおいて、前記校正用治具の組み合わされる2個のボードのうちの一方に位置決め用の突起が設けられ、他方に前記突起を通す位置決め用の穴が設けられる、構成が用いられてもよい。
この構成により、ロボットでは、2個のボードが位置決めされて組み合わされた校正用治具を用いて、校正を行う。これにより、ロボットでは、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is a robot, wherein a positioning projection is provided on one of the two boards combined with the calibration jig, and a positioning hole is provided on the other to pass the projection. May be used.
With this configuration, the robot performs calibration using a calibration jig in which two boards are positioned and combined. As a result, the robot can accurately calibrate the imaging unit and the robot.
本発明の一態様は、上記の課題を解決するためになされたものであり、撮像部と、ハンドと力センサーとを備えるロボットと、前記ロボットを動作させる制御部と、校正用治具と、を含み、前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、ロボットシステムである。
この構成により、ロボットシステムでは、制御部は、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に前記所定位置を撮像部に撮像させる、または、前記位置決めする前に前記所定位置を撮像部に撮像させる。これにより、ロボットシステムでは、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes a robot including an imaging unit, a hand and a force sensor, a control unit that operates the robot, a calibration jig, And the control unit causes the imaging unit to image the predetermined position after positioning the hand by a depression disposed at a predetermined position of the calibration jig, or sets the predetermined position before the positioning. It is a robot system which makes the said imaging part image.
With this configuration, in the robot system, the control unit causes the imaging unit to take an image of the predetermined position after positioning the hand by the depression disposed at the predetermined position of the calibration jig, or the predetermined position before the positioning. To the imaging unit. Accordingly, in the robot system, the hand can be positioned with high accuracy, and the imaging unit and the robot can be calibrated with high accuracy.
本発明の一態様は、上記の課題を解決するためになされたものであり、撮像部が撮像した撮像画像を受け付ける画像受付部と、ロボットを動作させる処理部と、を含み、前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、制御装置である。
この構成により、制御装置では、処理部は、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、システムでは、制御装置では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem, and includes an image receiving unit that receives a captured image captured by the imaging unit, and a processing unit that operates a robot. The controller is configured to image the predetermined position after the robot hand is positioned by a depression disposed at a predetermined position of the calibration jig.
With this configuration, in the control device, the processing unit positions the robot hand with the depression disposed at a predetermined position of the calibration jig, and then the imaging unit images the predetermined position. As a result, in the system, the control device can accurately position the hand, and can accurately calibrate the imaging unit and the robot.
本発明の一態様は、上記の課題を解決するためになされたものであり、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めすることと、撮像部によって前記所定位置を撮像することと、を含む制御方法である。
この構成により、制御方法では、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めし、撮像部によって前記所定位置を撮像する。これにより、制御方法では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。
One aspect of the present invention is made to solve the above-described problem. The robot hand is positioned by a depression disposed at a predetermined position of a calibration jig, and the predetermined position is set by an imaging unit. A control method including imaging.
With this configuration, in the control method, the hand of the robot is positioned by the depression disposed at the predetermined position of the calibration jig, and the predetermined position is imaged by the imaging unit. Thereby, in the control method, the positioning of the hand can be performed with high accuracy, and the calibration between the imaging unit and the robot can be performed with high accuracy.
以上のように、本発明に係るロボット、ロボットシステム、制御装置および制御方法によれば、校正用治具の所定位置に配置された窪みによってハンドを位置決めした後に、撮像部が前記所定位置を撮像する。これにより、本発明に係るロボット、ロボットシステム、制御装置および制御方法では、ハンドの位置決めを精度良く行うことができ、撮像部とロボットとの校正を精度良く行うことができる。 As described above, according to the robot, the robot system, the control apparatus, and the control method according to the present invention, the imaging unit images the predetermined position after the hand is positioned by the depression disposed at the predetermined position of the calibration jig. To do. Thereby, in the robot, robot system, control apparatus, and control method according to the present invention, the hand can be accurately positioned, and the imaging unit and the robot can be accurately calibrated.
本発明の実施形態について図面を参照して詳細に説明する。
[本実施形態に係るロボットシステムの概要]
図1は、本発明の一実施形態に係るロボットシステム1の概略的な構成例を示す図である。
本実施形態に係るロボットシステム1は、ロボット11と、撮像部であるカメラ12と、これらを接続して通信可能にする回線13を備える。ロボット11は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)21と、制御部41を備える。ハンド21に、力センサー31を備える。
マニピュレーターとしては、6軸のマニピュレーターが用いられており、他の構成例として、7軸のマニピュレーターまたは5軸以下のマニピュレーターが用いられてもよい。
回線13としては、例えば、有線の回線の代わりに、無線の回線が用いられてもよい。
Embodiments of the present invention will be described in detail with reference to the drawings.
[Outline of Robot System According to this Embodiment]
FIG. 1 is a diagram illustrating a schematic configuration example of a robot system 1 according to an embodiment of the present invention.
The robot system 1 according to the present embodiment includes a
As the manipulator, a 6-axis manipulator is used. As another configuration example, a 7-axis manipulator or a 5-axis or less manipulator may be used.
As the
図1には、テーブル(作業机)61の上に戴置(配置)された校正用治具62と、ハンド21により把持される把持用治具63を示してある。なお、図1では、校正用治具62については概略的な外観の一例としてチェッカーパターンを示してあるが、これは概略であり、実際には様々な外観を有してもよい。
本実施形態では、ロボット11は、ハンド21により把持される把持用治具63を校正用治具62に接触させる(タッチアップする)ことが可能な配置で設置されており、また、カメラ12は、校正用治具62を撮像することが可能な配置で設置されている。
ハンド21は、任意の形状を有してもよく、本実施形態では、把持用治具63を把持することができる開閉可能な2本の指(棒状の部位)を有する。ハンド21が有する指の数は、任意であってもよい。また、ハンド21が有する指は、例えば、直線状であってもよく、または、一部又は全部が曲線状や折れ線状であってもよい。
制御部41は、ロボット11(ハンド21を含む。)やカメラ12の動作の制御などを行う。
FIG. 1 shows a
In the present embodiment, the
The
The
図2は、本発明の一実施形態に係る制御部41の概略的な機能ブロックを示す図である。
本実施形態に係る制御部41は、ロボット動作処理部101と、画像情報受付部102と、力センサー値受付部103と、記憶部104と、入力部105と、出力部106を備える。
ロボット動作処理部101は、位置決め部121と、画像処理部122と、校正部123を備える。ロボット動作処理部101は、例えば、画像処理や、ロボット11の制御処理を行う。
FIG. 2 is a diagram showing a schematic functional block of the
The
The robot
画像情報受付部102は、カメラ12から出力される画像の情報を、回線13を介して、受信することで、当該画像の情報を受け付けて取得する。また、画像情報受付部102は、回線13を介してカメラ12との間で信号を通信することで、カメラ12の動作を制御してもよい。
本実施形態では、カメラ12は、画像を撮像し、撮像した画像の情報を回線13を介して画像情報受付部102に出力する。なお、画像の情報としては、例えば、2次元(平面)の情報が用いられてもよく、または、2個以上のカメラを用いるなどして、3次元(空間)の情報が用いられてもよい。
The image
In the present embodiment, the
力センサー値受付部103は、力センサー31から出力される力センサー値の情報を、回線(図示せず)を介して、受信することで、当該情報を受け付けて取得する。また、力センサー値受付部103は、回線を介して力センサー31との間で信号を通信することで、力センサー31の動作を制御してもよい。
本実施形態では、力センサー31は、ハンド21に印加される力を検出し、検出した力を示す値を力センサー値として、回線を介して力センサー値受付部103に出力する。なお、力センサー31は、例えば、3次元直交座標軸のそれぞれについて力とモーメント(トルク)を検出し、本実施形態における力センサー値(力の値)にモーメントの値が含まれてもよい。
回線としては、例えば、有線の回線の代わりに、無線の回線が用いられてもよい。
The force sensor
In the present embodiment, the
As the line, for example, a wireless line may be used instead of a wired line.
記憶部104は、各種の情報を記憶する記憶媒体を含んで構成される。記憶部104は、例えば、ロボット動作処理部101で使用されるプログラムの情報や、各種の処理で使用されるパラメーター(例えば、数値)の情報などを記憶する。
入力部105は、外部からの入力を受け付ける。入力部105は、例えば、ユーザーにより操作された操作入力を受け付けるキーボードやマウスなどを含んで構成される。また、入力部105は、例えば、外部の装置からの入力を受け付ける機能を含んで構成されてもよい。
出力部106は、外部への出力を行う。出力部106は、例えば、ユーザーに対して各種の情報を画像で表示する画面(例えば、液晶ディスプレイ)や、ユーザーに対して音声の情報を出力するスピーカーなどを含んで構成される。また、出力部106は、例えば、外部の装置へ情報を出力する機能を含んで構成されてもよい。
The
The
The
ロボット動作処理部101は、例えば、CPU(Central Processing Unit)などを用いて構成されており、各種の処理を行う。
位置決め部121は、校正用治具62に対してハンド21の位置決めを行う。
画像処理部122は、校正用治具62の画像の処理を行う。
校正部123は、カメラ12とハンド21との校正を行う。
The robot
The positioning unit 121 positions the
The
The
[本実施形態に係る校正用治具の一例]
図3は、本発明の一実施形態に係る校正用治具62−1の一例を示す図である。この校正用治具62−1は、図1に示される校正用治具62の一例である。
本実施形態に係る校正用治具62−1は、キャリブレーションボード201と透明ボード301を組み合わせて構成される。キャリブレーションボード201と透明ボード301は、いずれも、方形(正方形または長方形)の面を有する板状の形状を有しており、例えば、同じ形状を有する。透明ボード301の材質は、ガラス(例えば、ケイ酸塩ガラス)や樹脂(例えば、アクリルガラス、塩化ビニル)などの透明な材料(透過性のある材料)で構成されている。
[Example of calibration jig according to this embodiment]
FIG. 3 is a diagram illustrating an example of the calibration jig 62-1 according to the embodiment of the present invention. The calibration jig 62-1 is an example of the
The calibration jig 62-1 according to the present embodiment is configured by combining the
キャリブレーションボード201は、その4個の角のそれぞれに、位置決め用のピン(サイドピン)221−1〜221−4を備える。
透明ボード301は、その4個の角のそれぞれに、位置決め用の穴(位置決め穴)321−1〜321−4を備える。
キャリブレーションボード201に備えられたそれぞれのサイドピン221−1〜221−4と、透明ボード301に備えられたそれぞれの位置決め穴321−1〜321−4は、互いに対応する位置に設けられており、それぞれのサイドピン221−1〜221−4がそれぞれの位置決め穴321−1〜321−4に通されることで、キャリブレーションボード201と透明ボード301とが位置決めされる。
なお、キャリブレーションボード201のサイドピン221−1〜221−4と透明ボード301の位置決め穴321−1〜321−4は、位置決めをできれば、その個数や、その位置や、その形状などは、様々な構成が用いられてもよい。
The
The
The side pins 221-1 to 221-4 provided in the
Note that the number, position, shape, and the like of the side pins 221-1 to 221-4 of the
キャリブレーションボード201は、4個のサイドピン221−1〜221−4の内側の面に、互いに直交するそれぞれの方向に白色の正方形と黒色の正方形が交互に並んだパターン(チェッカーパターン)211を備える。白色の正方形と黒色の正方形は、同じ形状である。
なお、白色の部分と黒色の部分とは、例えば、正方形以外の形状であってもよく、また、互いに異なる形状であってもよい。
また、他の構成例として、白色と黒色の組み合わせ以外に、任意の異なる二色の組み合わせが用いられてもよい。
The
The white portion and the black portion may have a shape other than a square, for example, or may have different shapes.
As another configuration example, any combination of two different colors other than the combination of white and black may be used.
透明ボード301は、キャリブレーションボード201のチェッカーパターン211における白い正方形の角と黒い正方形の角とが接する点(クロスポイント)のそれぞれに、窪みを形成する探り穴(図3では、複数のうちの1個の探り穴311に符号を付してある。)を備える。
The
図4(A)は、本発明の一実施形態に係る校正用治具62−1の一例の一部の構成例を示す図である。図4(B)は、その断面図(P−P矢視断面の図)である。
探り穴311は、透明ボード301の一方の面に開口した半球形状の穴である。透明ボード301の他方の面(前記した一方の面とは反対の面)と、キャリブレーションボード201のチェッカーパターン211が設けられた面とが対向するように、透明ボード301とキャリブレーションボード201とが重ねられる。
なお、探り穴311の形状は、他の形状であってもよく、例えば、円錐形状などであってもよい。
FIG. 4A is a diagram illustrating a partial configuration example of an example of the calibration jig 62-1 according to the embodiment of the present invention. FIG. 4B is a cross-sectional view (a cross-sectional view taken along the line PP).
The
The shape of the
ここで、本実施形態では、ハンド21により把持する把持用治具63として、棒状の部分の先端に球状(または、他の構成例として、半球状)の部分を有する治具が用いられる。先端が球状である把持用治具63が用いられることで、ハンド21により透明ボード301の探り穴311を探り当てる確率を高くすることができる。
なお、把持用治具63の先端の形状は、様々な形状であってもよく、例えば、探り穴311を探るために適度な形状が用いられる。
Here, in the present embodiment, a jig having a spherical (or hemispherical as another configuration example) portion at the tip of the rod-shaped portion is used as the gripping
Note that the shape of the tip of the gripping
このように、本実施形態では、キャリブレーションボード201の上面(ここでは、チェッカーパターン211が設けられた面)に透明ボード301が重ねられて、透明ボード301の上面(ここでは、キャリブレーションボード201と対向しない面)に設けられた探り穴311の位置とチェッカーパターン211のタッチアップポイントとが一致させられる。この場合に、キャリブレーションボード201に立てられたサイドピン221−1〜221−4と透明ボード301に設けられた位置決め穴321−1により、キャリブレーションボード201と透明ボード301とがずれることなく位置決めされる。
本実施形態では、透明ボード301が用いられることで、カメラ12により透明ボード301の上面の側からキャリブレーションボード201を撮像することができ、タッチアップポイントの画像を画像処理する際に、探り穴311があることの影響をなくすことができる。カメラ12により透明ボード301の上面の側からキャリブレーションボード201を撮像する場合に、探り穴311がタッチアップポイントを隠すことなく、チェッカーパターン211と探り穴311を共に存在させることができる。
Thus, in the present embodiment, the
In this embodiment, since the
[本実施形態に係る校正用治具の他の一例]
図5は、本発明の一実施形態に係る校正用治具62−2の他の一例を示す図である。
本実施形態に係る校正用治具62−2は、キャリブレーションボード201とマーカー精度評価ボード401を組み合わせて構成される。
本実施形態では、図3に示される校正用治具62−1と図5に示される校正用治具62−2とで、共通のキャリブレーションボード201が用いられている。
キャリブレーションボード201とマーカー精度評価ボード401は、いずれも、方形(正方形または長方形)の面を有する板状の形状を有しており、例えば、同じ形状を有する。
[Another example of calibration jig according to this embodiment]
FIG. 5 is a view showing another example of the calibration jig 62-2 according to the embodiment of the present invention.
The calibration jig 62-2 according to the present embodiment is configured by combining the
In the present embodiment, a
Each of the
マーカー精度評価ボード401は、その4個の角のそれぞれに、位置決め用の穴(位置決め穴)421−1〜421−4を備える。
キャリブレーションボード201に備えられたそれぞれのサイドピン221−1〜221−4と、マーカー精度評価ボード401に備えられたそれぞれの位置決め穴421−1〜421−4は、互いに対応する位置に設けられており、それぞれのサイドピン221−1〜221−4がそれぞれの位置決め穴421−1〜421−4に通されることで、キャリブレーションボード201とマーカー精度評価ボード401とが位置決めされる。
なお、キャリブレーションボード201のサイドピン221−1〜221−4とマーカー精度評価ボード401の位置決め穴421−1〜421−4は、位置決めをできれば、その個数や、その位置や、その形状などは、様々な構成が用いられてもよい。
The marker
The side pins 221-1 to 221-4 provided in the
Note that the number, position, shape, etc. of the side pins 221-1 to 221-4 of the
マーカー精度評価ボード401は、透明ボード431と、透明ボード431に付された複数のマーカー(図5では、複数のうちの1個のマーカー412に符号を付してある。)を備える。
透明ボード431は、キャリブレーションボード201のチェッカーパターン211における白い正方形の角と黒い正方形の角とが接する点のそれぞれに、窪みを形成する探り穴(図5では、複数のうちの1個の探り穴411に符号を付してある。)を備える。
透明ボード431は、互いに直交するそれぞれの方向に設けられた複数の探り穴411のうちで、それぞれの方向に1個おきに存在する探り穴のそれぞれの反対の面(ここでは、キャリブレーションボード201と対向する面)に、マーカー412を備える。
The marker
The
The
図6(A)は、本発明の一実施形態に係るマーカー精度評価ボード401の他の一例の一部の構成例を示す図である。図6(B)は、その断面図(Q−Q矢視断面の図)である。
探り穴411は、透明ボード431の一方の面に開口した半球形状の穴である。マーカー412は、探り穴411に対応する位置に備えられ、例えば、マーカー412の面内の所定の位置(基準となる位置)と、探り穴411の所定の位置(例えば、中心の位置)とが対向させられる。マーカー412は、当該マーカー412に設けられた画像認識の対象となるパターンが探り穴411の側に配置される。マーカー412は、貼付や印刷などにより、透明ボード431に付される。このパターンとしては、例えば、所定の1個以上の形状、任意の色、任意の模様などを組み合わせたパターンが用いられる。
マーカー精度評価ボード401の透明ボード431のマーカー412の側の面と、キャリブレーションボード201のチェッカーパターン211が設けられた面とが対向するように、マーカー精度評価ボード401とキャリブレーションボード201とが重ねられる。
なお、探り穴411の形状は、他の形状であってもよく、例えば、円錐形状などであってもよい。
FIG. 6A is a diagram illustrating a partial configuration example of another example of the marker
The
The marker
The shape of the
ここで、本実施形態では、ハンド21により把持する把持用治具63として、棒状の部分の先端に球状の部分を有する治具が用いられる。先端が球状である把持用治具63が用いられることで、ハンド21によりマーカー精度評価ボード401の探り穴411を探り当てる確率を高くすることができる。
Here, in the present embodiment, a jig having a spherical portion at the tip of a rod-shaped portion is used as the gripping
本実施形態では、校正用治具62−1を用いた校正が終了した後に、キャリブレーションボード201から透明ボード301を取り外し、キャリブレーションボード201にマーカー精度評価ボード401を重ね合わせることで、校正用治具62−2を実現して、校正用治具62−2を用いた校正を行う。校正用治具62−2では、マーカー412の基準点(基準となる位置)とタッチアップポイントとが一致するように作成されており、マーカー精度評価ボード401のタッチアップポイントの上部(ここでは、キャリブレーションボード201と対向しない面の側)に探り穴411が設けられている。これにより、例えば、マーカー412の基準点における位置誤差が大きい場合に、いずれのタッチアップポイントの校正が問題であるのかについて、その場所の特定を素早く判断することが可能となる。
In the present embodiment, after the calibration using the calibration jig 62-1 is completed, the
ここで、本実施形態では、2個の校正用治具62−1〜62−2で、キャリブレーションボード201を共通化したが、他の構成例として、2個の校正用治具62−1〜62−2で、別個なキャリブレーションボード201(例えば、同じ構成のもの)が用いられてもよい。
また、本実施形態では、校正用治具62−1の透明ボード301と、校正用治具62−2のマーカー精度評価ボード401の透明ボード431とを別個に構成したが、他の構成例として、これらの透明ボード301、431が共通化されてもよい。
In this embodiment, the
In the present embodiment, the
[第1の校正用治具62−1を用いた校正]
図1に示される校正用治具62として校正用治具62−1を用いた校正について説明する。
ロボット動作処理部101において、位置決め部121は、ロボット11のハンド21により把持用治具63を把持した状態で、キャリブレーションボード201のチェッカーパターン211におけるタッチアップポイントの位置決めを行う。本実施形態では、位置決め部121は、インピーダンス制御を行うことにより、位置決めを行う。
[Calibration using first calibration jig 62-1]
Calibration using a calibration jig 62-1 as the
In the robot
図7(A)、図7(B)、図7(C)は、本発明の一実施形態に係るインピーダンス制御を用いた位置決めの一例を示す図である。
図7(A)に示されるように、位置決め部121は、ロボット11のハンド21により把持用治具63を把持して、ハンド21の先端に球状の部分が存在するようにする。そして、位置決め部121は、この球状の部分が透明ボード301の上面(ここでは、探り穴311が設けられている面)に接するようにハンド21の位置や姿勢を制御し、また、この状態で、力センサー31により検出(検知)される力の値に基づいてインピーダンス制御を行うことにより、探り穴311の位置を探る。本実施形態では、位置決め部121は、ハンド21(および把持用治具63の棒状の部分)が透明ボード301の上面に対して垂直(または、略垂直)となるように、ハンド21を制御する。
FIG. 7A, FIG. 7B, and FIG. 7C are diagrams showing an example of positioning using impedance control according to an embodiment of the present invention.
As shown in FIG. 7A, the positioning unit 121 grips the
図7(B)には、把持用治具63の球状の部分が探り穴311の一部に接した状態を示してある。
図7(C)には、把持用治具63の球状の部分が探り穴311に収まった状態を示してある。
ここで、位置決め部121は、例えば、ハンド21により把持された把持用治具63の球状の部分が探り穴311に収まった状態であると判定した場合に、把持用治具63の先端の球状の部分を探り穴311に収めた状態のままで、マニピュレーターやハンド21の位置や姿勢を制御して、把持用治具63を様々な姿勢に変化させることで、把持用治具63の球状の部分が探り穴311に収まる精度を高めることが可能である。
FIG. 7B shows a state where the spherical portion of the gripping
FIG. 7C shows a state where the spherical portion of the gripping
Here, for example, when the positioning unit 121 determines that the spherical portion of the gripping
このように、インピーダンス制御の結果、把持用治具63の球状の部分(本実施形態では、把持用治具63の中心軸)とチェッカーパターン211のタッチアップポイントとが一致するため、インピーダンス制御による探り動作だけで、確実に校正を行うことができる。これにより、人に起因する読み取り誤差やタッチアップポイントの位置のばらつきを抑えることができる。
Thus, as a result of the impedance control, the spherical portion of the gripping jig 63 (in this embodiment, the central axis of the gripping jig 63) and the touch-up point of the
図8は、本発明の一実施形態に係るロボットシステム1において行われる処理の手順の一例を示すフローチャートである。
(ステップS1)
まず、位置決め部121は、ハンド21により把持用治具63を把持した状態で、力センサー値受付部103により力センサー31から受け付けられた力の値(力センサー値)に基づいてインピーダンス制御を行うことにより、探り穴311の位置決めを行う。これにより、位置決め部121は、ロボット11のマニピュレーターやハンド21を制御するための座標系(本実施形態では、ロボット座標系という。)について、把持用治具63により探り穴311(タッチアップポイント)を指したとき(タッチアップしたとき)における座標値(例えば、位置や姿勢の座標値)を取得する。
FIG. 8 is a flowchart illustrating an example of a procedure of processing performed in the robot system 1 according to an embodiment of the present invention.
(Step S1)
First, the positioning unit 121 performs impedance control based on the force value (force sensor value) received from the
(ステップS2)
次に、画像処理部122は、画像情報受付部102によりカメラ12から受け付けられた画像情報を取得する。そして、画像処理部122は、取得した画像情報を処理することにより、画像処理の座標系(本実施形態では、カメラ座標系という。)について、位置決め部121により位置決めを行った探り穴311(タッチアップポイント)の位置の座標値(例えば、画像における座標値)を取得する。
ここで、画像処理部122は、例えば、チェッカーパターン211の白と黒の輝度値の差に基づいて、探り穴311(タッチアップポイント)の位置を探索して特定する。
なお、画像処理部122により処理する画像情報は、例えば、位置決め部121による位置決めのタイミングより後に撮像された画像情報が用いられてもよく、または、位置決め部121による位置決めのタイミングより前に撮像された画像情報が用いられてもよく、または、位置決め部121による位置決めのタイミングと同時(または、略同時)に撮像された画像情報が用いられてもよい。
(Step S2)
Next, the
Here, the
As the image information processed by the
(ステップS3)
次に、校正部123は、位置決め部121により取得されたロボット座標系における座標値と、画像処理部122により取得されたカメラ座標系における座標値とを対応させることで、校正の処理を行う。この校正の処理において、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて、ロボット座標系における座標値とカメラ座標系における座標値との対応付けを行ってもよい。また、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて行った座標値の対応付けについて、平滑化(例えば、所定の関数でのフィッティングによる近似式の導出)などを行ってもよい。また、校正部123は、例えば、複数の異なる探り穴311(タッチアップポイント)のそれぞれについて行った座標値の対応付けに基づいて、隣接する探り穴311(タッチアップポイント)の間の位置のように、探り穴311(タッチアップポイント)が存在しない位置について、補間により座標値の対応付けを行ってもよい。
(Step S3)
Next, the
ここで、本実施形態では、半球状の探り穴311が用いられるが、他の構成例として、他の形状の探り穴が用いられてもよい。
図9(A)、図9(B)、図9(C)は、本発明の一実施形態に係るインピーダンス制御を用いた位置決めの他の一例を示す図である。本例では、円錐形状を有する探り穴511が用いられている。
図9(A)、図9(B)、図9(C)は、それぞれ、図7(A)、図7(B)、図7(C)に示される状態と同様な状態を示している。なお、図9(A)、図9(B)、図9(C)では、探り穴511および透明ボード501以外の構成部については、図7(A)、図7(B)、図7(C)と同様な符号を付してある。
Here, in the present embodiment, the
FIG. 9A, FIG. 9B, and FIG. 9C are diagrams showing another example of positioning using impedance control according to an embodiment of the present invention. In this example, a
9 (A), 9 (B), and 9 (C) show states similar to those shown in FIGS. 7 (A), 7 (B), and 7 (C), respectively. . 9A, FIG. 9B, and FIG. 9C, components other than the
[第2の校正用治具62−2を用いた校正]
図1に示される校正用治具62として校正用治具62−2を用いた校正について説明する。
校正用治具62−2を用いた校正についても、校正用治具62−1を用いた校正と同様に、図8に示される処理の手順により行われる。
(ステップS1に対応する処理)
まず、位置決め部121は、ハンド21により把持用治具63を把持した状態で、力センサー値受付部103により力センサー31から受け付けられた力の値(力センサー値)に基づいてインピーダンス制御を行うことにより、探り穴411の位置決めを行う。これにより、位置決め部121は、ロボット11のマニピュレーターやハンド21を制御するための座標系(ロボット座標系)について、把持用治具63により探り穴411(タッチアップポイント)を指したとき(タッチアップしたとき)における座標値(例えば、位置や姿勢の座標値)を取得する。
[Calibration using second calibration jig 62-2]
Calibration using a calibration jig 62-2 as the
Similarly to the calibration using the calibration jig 62-1, the calibration using the calibration jig 62-2 is performed according to the processing procedure shown in FIG.
(Process corresponding to step S1)
First, the positioning unit 121 performs impedance control based on the force value (force sensor value) received from the
(ステップS2に対応する処理)
次に、画像処理部122は、画像情報受付部102によりカメラ12から受け付けられた画像情報を取得する。そして、画像処理部122は、取得した画像情報を処理することにより、画像処理の座標系(カメラ座標系)について、位置決め部121により位置決めを行った探り穴411(タッチアップポイント)の位置に存在するマーカー412に関する座標値(例えば、画像における座標値)を取得する。
ここで、画像処理部122は、マーカー412に設けられた画像認識の対象となるパターンに基づいて、画像の認識を行い、あらかじめ定められた位置の座標値を取得する。この画像の認識では、例えば、テンプレートマッチング(パターンマッチング)の処理が用いられてもよい。また、本実施形態では、この画像の認識では、カラーの画像処理が用いられる。
(Process corresponding to step S2)
Next, the
Here, the
(ステップS3に対応する処理)
次に、校正部123は、位置決め部121により取得されたロボット座標系における座標値と、画像処理部122により取得されたカメラ座標系における座標値とを対応させることで、校正の処理を行う。
(Process corresponding to step S3)
Next, the
[2種類の校正用治具62−1〜62−2を用いた校正]
本実施形態では、ロボット動作処理部101により、第1の校正用治具62−1を用いた校正を行った後に、第2の校正用治具62−2を用いた校正を行う。ここで、これら2種類の校正が共に正確であれば、これら2種類の校正の結果は一致する。また、これら2種類の校正に誤差があっても、当該誤差が許容される範囲であれば、例えば、校正部123は、2種類の校正の結果のいずれか一方を採用する処理や、あるいは、2種類の校正の結果の平均結果を採用する処理などを行ってもよい。また、これら2種類の校正に許容されない範囲の誤差がある場合に、ロボット動作処理部101は、第1の校正用治具62−1を用いた校正および第2の校正用治具62−2を用いた校正をやり直す構成が用いられてもよい。
なお、本実施形態では、第1の校正用治具62−1を用いた校正における誤差は、それぞれのタッチアップポイントにおけるロボット座標系とカメラ座標系との対応付けの誤差を含み、また、第2の校正用治具62−2を用いた校正における誤差は、画像処理におけるマーカー412のパターンの認識誤差を含む。これら2種類の校正では、例えば、異なる画像処理が行われ、誤差が異なり得る。
[Calibration using two types of calibration jigs 62-1 to 62-2]
In this embodiment, the robot
In the present embodiment, the error in calibration using the first calibration jig 62-1 includes an error in associating the robot coordinate system and the camera coordinate system at each touch-up point, The error in calibration using the second calibration jig 62-2 includes a pattern recognition error of the
また、第2の校正用治具62−2を用いた校正は、第1の校正用治具62−1を用いた校正の検証であると捉えた場合、第1の校正用治具62−1を用いた校正が行われ、第2の校正用治具62−2を用いた校正が行われない構成が用いられてもよい。
また、第1の校正用治具62−1を用いた校正が既に行われている場合などにおいて、第1の校正用治具62−1を用いた校正が行われず、第2の校正用治具62−2を用いた校正が行われる構成が用いられてもよい。
Further, when the calibration using the second calibration jig 62-2 is regarded as the verification of the calibration using the first calibration jig 62-1, the first calibration jig 62-2 1 may be used, and a configuration in which calibration using the second calibration jig 62-2 is not performed may be used.
Further, in the case where calibration using the first calibration jig 62-1 has already been performed, the calibration using the first calibration jig 62-1 is not performed, and the second calibration jig is not used. A configuration in which calibration using the tool 62-2 is performed may be used.
ここで、第1の校正用治具62−1を用いた校正や、第2の校正用治具62−2を用いた校正は、複数のクロスポイント(チェッカーパターン211の白と黒の接点であり、探り穴311が設けられた点)のうちの1個または2個以上について行われればよく、適度な一例として、4点について行われる構成が用いられてもよい。 Here, the calibration using the first calibration jig 62-1 and the calibration using the second calibration jig 62-2 are performed at a plurality of crosspoints (white and black contacts of the checker pattern 211). Of the points provided with the search holes 311), and a configuration performed for four points may be used as an appropriate example.
また、本実施形態では、テーブル61の面の上に、第1の校正用治具62−1のボード(キャリブレーションボード201や透明ボード301)の面や第2の校正用治具62−2のボード(キャリブレーションボード201やマーカー精度評価ボード401)の面が水平になるように置かれる場合が用いられるが、他の構成例として、第1の校正用治具62−1のボードの面や第2の校正用治具62−2のボードの面が垂直あるいは斜めに置かれる構成が用いられてもよい。
In this embodiment, on the surface of the table 61, the surface of the board (the
また、本実施形態では、ハンド21により把持用治具63を把持した状態で、把持用治具63の先端の球状の部分により探り穴311、411を探る構成が用いられるが、他の構成例として、把持用治具63が用いられなくてもよく、一例として、先端に球状または半球状などの部分を有するハンドの当該部分により探り穴311、411を探る構成が用いられてもよい。
Further, in this embodiment, a configuration is used in which the probe holes 311 and 411 are searched for by the spherical portion at the tip of the gripping
[本実施形態のまとめ]
以上のように、本実施形態に係るロボットシステム1では、ロボット用ビジョン(画像処理用のカメラ12)の座標系(カメラ座標系)と、ロボット11のマニピュレーターやハンド21を制御する座標系(ロボット座標系)との対応付けを校正する、撮像部(本実施形態では、カメラ12)とロボット11との校正の作業において、校正用治具62−1〜62−2に対するロボット11のハンド21の位置決めを行う際に、人に起因する誤差を低減する(理想的には、なくす)ことができる。また、本実施形態に係るロボットシステム1では、第1の校正用治具62−1を用いた校正および第2の校正用治具62−2を用いた校正を行うことにより、マーカー412のパターンを認識する精度(例えば、位置を認識する精度)を評価することが可能である。
[Summary of this embodiment]
As described above, in the robot system 1 according to the present embodiment, the coordinate system (the robot coordinate system) of the vision for the robot (the
本実施形態に係るロボットシステム1によると、例えば、従来ではキャリブレーションボードのタッチアップポイントや、マーカーの基準位置等に対する位置決めが困難であったのに対して、人(作業者)の習熟度に関わらず、タッチアップ作業や、マーカーの精度評価を精度良く行うことが可能である。
本実施形態に係るロボットシステム1によると、例えば、タッチアップポイントに対する位置合わせが目視によらないため、読み取り誤差や、作業者によるばらつきを抑えることができ、機械的に位置を合わせ(位置決め)を行うことが可能である。
According to the robot system 1 according to the present embodiment, for example, it has been difficult to position the calibration board with respect to the touch-up point of the calibration board, the reference position of the marker, and the like. Regardless, it is possible to accurately perform touch-up work and marker accuracy evaluation.
According to the robot system 1 according to the present embodiment, for example, the alignment with respect to the touch-up point is not based on visual observation, so that reading errors and variations due to the operator can be suppressed, and the alignment (positioning) is performed mechanically. Is possible.
本実施形態に係るロボットシステム1によると、例えば、力センサー31により力を検出してからその力に基づく制御によりハンド21が停止するまでに、ハンド21が探り穴311、411に対して(多少)行き過ぎるような制御が行われた場合においても、垂直方向(本実施形態では、透明ボード301やマーカー精度評価ボード401の面に対して垂直な方向)における押し付け力によって探り穴311、411から把持用治具63の先端の球状の部分が外れないようにすることができ、かつ、中心ずれをなくすこともできる。
According to the robot system 1 according to the present embodiment, for example, when the
本実施形態に係るロボットシステム1によると、例えば、マーカー412のパターンに関する精度評価の結果を校正(キャリブレーション)に反映することができる。これにより、本実施形態に係るロボットシステム1によると、例えば、誤差を生じる原因がメカ要因であるか、または、ソフト要因であるかについて、要因の分析に役立つことができ、問題(要因)の特定までの効率化を図ることができる。
本実施形態に係るロボットシステム1によると、例えば、ハンド21をタッチアップポイント間で移動させる動作や、タッチアップポイントに対するハンド21の位置決めを行う動作を、装置(本実施形態では、例えば、制御部41)により自動化することが可能である。
以上のように、本実施形態に係るロボットシステム1によると、撮像部(本実施形態では、カメラ12)とロボット11との校正を精度良く行うことができる。
According to the robot system 1 according to the present embodiment, for example, the accuracy evaluation result regarding the pattern of the
According to the robot system 1 according to the present embodiment, for example, an operation of moving the
As described above, according to the robot system 1 according to the present embodiment, calibration of the imaging unit (the
ここで、図12(A)および図12(B)を参照して、本実施形態に係るロボットシステム1により得られる効果を具体的に説明する。
図12(A)は、比較例に係るタッチアップポイント1012に対する位置決めを示す図である。
図12(A)には、キャリブレーションボード1001におけるチェッカーパターン1011のタッチアップポイント1012に対するハンド1051の位置決めを人が目視で行う場合を示してある。
この比較例のように人の目視では誤差が発生するが、本実施形態に係るロボットシステム1によると、このような誤差を低減する(理想的には、なくす)ことができる。
Here, with reference to FIG. 12 (A) and FIG. 12 (B), the effect acquired by the robot system 1 which concerns on this embodiment is demonstrated concretely.
FIG. 12A is a diagram illustrating positioning with respect to the touch-
FIG. 12A shows a case where a person visually positions the
Although an error occurs visually by human eyes as in this comparative example, such an error can be reduced (ideally eliminated) by the robot system 1 according to the present embodiment.
図12(B)は、比較例に係るマーカー1101を用いた画像認識を示す図である。
図12(B)には、図12(A)に示される位置決めが行われた後に、マーカー1101(図12(B)の例では、複数のマーカー1101〜1103のうちの1個のマーカー1101)を用いて、画像認識を行って、位置決めの評価を行う場合を示してある。
この比較例では上述した人の目視による誤差が評価されるが、本実施形態に係るロボットシステム1によると、このような誤差を低減する(理想的には、なくす)ことができる。
FIG. 12B is a diagram illustrating image recognition using the
In FIG. 12B, after the positioning shown in FIG. 12A is performed, the marker 1101 (in the example of FIG. 12B, one
In this comparative example, the above-described human visual error is evaluated. However, according to the robot system 1 according to the present embodiment, such an error can be reduced (ideally eliminated).
このように、図12(A)および図12(B)に示される比較例では、ハンド1051とタッチアップポイント1012とを目視で位置合わせするのに対して、本実施形態に係るロボットシステム1では、タッチアップポイントに対応する位置に探り穴311、411を設けて、ハンド21(本実施形態では、ハンド21により把持される把持用治具63)により当該探り穴311、411を探って、ハンド21とタッチアップポイントとを位置合わせすることにより、撮像部(本実施形態では、カメラ12)とロボット11との校正の誤差を低減することができる。
As described above, in the comparative example shown in FIGS. 12A and 12B, the
[本実施形態の変形例に係るロボットシステムの概要]
<第1の変形例>
図10は、本発明の実施形態の第1の変形例に係るロボット601の概略的な構成を示す図である。
ロボット601は、格納部611と、胴体部分612〜614と、左側のマニピュレーター621,ハンド631および力センサー641と、右側のマニピュレーター622、ハンド632および力センサー642と、左側の車輪651と、右側の車輪652と、カメラ661と、制御部671を備える。
[Outline of Robot System According to Modified Example of Embodiment]
<First Modification>
FIG. 10 is a diagram showing a schematic configuration of a
The
ロボット601は、それぞれ腕(アーム)を構成する2本のマニピュレーター621、622を備える双腕ロボットである。ロボット601は、カメラ661および制御部671と一体に構成されており、制御部671から入力された制御信号により動作が制御される。また、ロボット601は、自己の状態等を示す信号を、制御部671に出力してもよい。
The
格納部611の上面には、胴体部材612、胴体部材613、胴体部材614が順に上側に取り付けられており、最も上部の胴体部材614の左側に左腕を構成するマニピュレーター621が取り付けられており、当該胴体部材614の右側に右腕を構成するマニピュレーター622が取り付けられており、格納部611の底面の左側に車輪651が取り付けられており、格納部611の底面の右側に車輪652が取り付けられており、格納部611の上面にカメラ661が取り付けられている。
なお、ロボット601は、人手により外力を加えることで、または、装置により自動的に、左側の車輪651および右側の車輪652を回転させて、移動させることが可能である。
格納部611には、制御部671が格納されている。
マニピュレーター621、622は、それぞれ、例えば、垂直多関節ロボットの一種であり、ロボットアームとして機能する。それぞれのマニピュレーター621、622は、その先端にハンド631、632を備える。また、それぞれのハンド631、632に力センサー641、642を備える。
A
The
The
Each of the
なお、図10の例では、カメラ661を格納部611の上面に備えたが、他の構成例として、カメラ661は、他の任意の場所に備えられてもよく、例えば、ロボット601における他の任意の場所に備えられてもよく、または、ロボット以外の場所として、床面、天井、壁面などに固定されて備えられてもよい。
また、カメラ661は、例えば、人手により外力を加えることで、または、装置により自動的に、撮像方向や撮像角度などを変化させることが可能な構成であってもよい。
In the example of FIG. 10, the
Further, the
制御部671は、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)を制御する。制御部671とそれぞれのマニピュレーター621、631とは、例えば、有線または無線の回線を介して、制御信号などを伝送することが可能に接続される。
なお、制御部671は、例えば、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)とを、同時に関連付けて制御してもよく、または、左腕のマニピュレーター621(およびハンド631や力センサー641)と、右腕のマニピュレーター622(およびハンド632や力センサー642)とを、それぞれ別個に制御してもよい。
The
The
ここで、図10に示されるロボット601が備える左腕のマニピュレーター621(およびハンド631や力センサー641)や右腕のマニピュレーター622(およびハンド632や力センサー642)は、図1に示されるロボット11が備えるマニピュレーター(およびハンド21や力センサー31)に対応する。また、図10に示されるロボット601が備えるカメラ661は、図1に示されるカメラ12に対応する。また、図10に示されるロボット601が備える制御部671は、図1に示されるロボット11が備える制御部41に対応する。
Here, the left arm manipulator 621 (and the
<第2の変形例>
図11は、本発明の実施形態の第2の変形例に係るロボットシステム701の概略的な構成を示す図である。
ロボットシステム701は、ロボット711と、カメラ712と、制御装置713と、カメラ712と制御装置713を接続して通信可能にする回線714と、ロボット711と制御装置713を接続して通信可能にする回線715を備える。ロボット711は、1本のマニピュレーター(アーム)を備える単腕のロボットであり、マニピュレーターの先端部に取り付けられたハンド(ロボットのハンド)721を備える。ハンド721に、力センサー731を備える。制御装置713は、図1に示される制御部41と同様な機能を備える。
図11には、テーブル(作業机)61の上に戴置(配置)された校正用治具62と、ハンド721により把持される把持用治具63を示してある。なお、テーブル61、校正用治具62および把持用治具63は、図1に示されるものと同様であり、図1と同一の符号を用いてある。
<Second Modification>
FIG. 11 is a diagram showing a schematic configuration of a
The
FIG. 11 shows a
ここで、図1に示されるロボットシステム1と比べて、図11に示されるロボットシステム701では、ロボット711と制御装置713(図1に示される制御部41に対応するもの)とが別体で構成されている。制御装置713は、回線714を介してカメラ712との間で通信する機能や、回線715を介してロボット711との間で通信する機能を備える。
Here, compared with the robot system 1 shown in FIG. 1, in the
図11の例のように、ロボット711と制御装置713とが別体で構成されるロボットシステム701においても、これらが一体で構成されるロボットシステム(例えば、図1に示されるロボットシステム1や、図10に示されるロボット601を含むロボットシステム)と同様な効果を得ることができる。
なお、図10に示されるロボット601についても、他の構成例として、ロボット601の制御部671以外の部分と、制御部671とが別体で構成されてもよい。
As in the example of FIG. 11, even in a
As for another example of the configuration of the
[以上の実施形態に関する構成例]
一構成例として、ハンド(図1の例では、ハンド21であり、図10の例では、ハンド631〜632)と、力センサー(図1の例では、力センサー31であり、図10の例では、力センサー641〜642)と、前記ハンドを動作させる制御部(図1の例では、制御部41であり、図10の例では、制御部671)と、を含み、前記制御部は、校正用治具(図1の例では、校正用治具62であり、例えば、図3に示される校正用治具62−1や図5に示される校正用治具62−2)の所定位置(図3や図5の例では、タッチアップポイント)に配置された窪み(図3や図5の例では、探り穴311、411)によって前記ハンドを位置決めした後に、撮像部(図1の例では、カメラ12であり、図10の例では、カメラ661)が前記所定位置を撮像する、ロボット(図1の例では、ロボット11であり、図10の例では、ロボット601)である。
なお、校正用治具は、例えば、撮像部とロボットとの校正を行うための治具であり、また、制御部は、例えば、ハンドの位置決めの結果と、所定位置を撮像した結果とに基づいて、校正を行う。
[Configuration example of the above embodiment]
As one configuration example, a hand (the
The calibration jig is, for example, a jig for calibrating the imaging unit and the robot, and the control unit is based on, for example, the result of hand positioning and the result of imaging a predetermined position. And calibrate.
一構成例として、ロボットにおいて、前記制御部は、前記力センサーにより検出される値に基づいてインピーダンス制御を行い、前記ハンドを位置決めする。
一構成例として、ロボットにおいて、前記制御部は、前記ハンドにより前記窪みの形状(図3や図5の例では、半球状)に対応する形状(図3や図5に対応する例では、球状または半球状)を有する把持用治具(図1の例では、把持用治具63)を把持させた状態で、前記ハンドを位置決めする。
一構成例として、ロボットにおいて、前記校正用治具は、チェッカーパターン(図3の例では、チェッカーパターン211)を有するボード(図3の例では、キャリブレーションボード201)と、前記窪みを有する透明ボード(図3の例では、透明ボード301)とが組み合わされた治具である。
一構成例として、ロボットにおいて、前記校正用治具は、チェッカーパターン(図5の例では、チェッカーパターン211)を有するボード(図5の例では、キャリブレーションボード201)と、前記窪みを有する透明ボード(図5の例では、透明ボード431)にマーカー(図5の例では、マーカー412)が付されたボード(図5の例では、マーカー精度評価ボード401)とが組み合わされた治具である。
一構成例として、ロボットにおいて、前記校正用治具の組み合わされる2個のボードのうちの一方に位置決め用の突起(図3や図5の例では、サイドピン221−1〜221−4)が設けられ、他方に前記突起を通す位置決め用の穴(図3や図5の例では、位置決め穴321−1〜321−4、421−1〜421−4)が設けられる。
As one configuration example, in the robot, the control unit performs impedance control based on a value detected by the force sensor, and positions the hand.
As an example of the configuration, in the robot, the control unit uses the hand to have a shape corresponding to the shape of the depression (semispherical in the examples of FIGS. 3 and 5) (spherical in the examples corresponding to FIGS. 3 and 5). Alternatively, the hand is positioned in a state where a gripping jig having a hemispherical shape (the gripping
As one configuration example, in the robot, the calibration jig includes a board (a
As one configuration example, in the robot, the calibration jig includes a board (a
As an example of the configuration, in the robot, positioning protrusions (side pins 221-1 to 221-4 in the examples of FIGS. 3 and 5) are provided on one of the two boards to which the calibration jig is combined. Positioning holes are provided on the other side (positioning holes 321-1 to 321-4, 421-1 to 421-4 in the examples of FIGS. 3 and 5) through which the protrusions are passed.
一構成例として、撮像部(図1の例では、カメラ12であり、図10の例では、カメラ661であり、図11の例では、カメラ712)と、ハンド(図1の例では、ハンド21であり、図10の例では、ハンド631〜632であり、図11の例では、ハンド721)と力センサー(図1の例では、力センサー31であり、図10の例では、力センサー641〜642であり、図11の例では、力センサー731)とを備えるロボット(図1の例では、ロボット11であり、図10の例では、ロボット601であり、図11の例では、ロボット711)と、前記ロボットを動作させる制御部(図1の例では、制御部41であり、図10の例では、制御部671であり、図11の例では、制御装置713の機能)と、校正用治具と、を含み、前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、ロボットシステム(図1の例では、ロボットシステム1であり、図10の例では、ロボット601を含むロボットシステムであり、図11の例では、ロボットシステム701)である。
一構成例として、撮像部が撮像した撮像画像を受け付ける画像受付部(図2の例では、画像情報受付部102の機能)と、ロボットを動作させる処理部(図2の例では、ロボット動作処理部101の機能)と、を含み、前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、制御装置(図11の例では、制御装置713)である。
一構成例として、校正用治具の所定位置に配置された窪みによってロボットのハンドを位置決めすることと、撮像部によって前記所定位置を撮像することと、を含む制御方法(例えば、図1や図10に示される制御部41、671や図11に示される制御装置713により行われる制御の方法)である。
As one configuration example, the imaging unit (the
As one configuration example, an image receiving unit (a function of the image
As one configuration example, a control method (for example, FIG. 1 or FIG. 1) including positioning a robot hand by a depression disposed at a predetermined position of a calibration jig and imaging the predetermined position by an imaging unit. 10 is a control method performed by the
[以上の実施形態について]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
[About the above embodiments]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
なお、以上に説明した装置など(例えば、制御部41、671や制御装置713など)における任意の構成部(機能部)の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
It should be noted that a program for realizing the function of an arbitrary component (functional unit) in the devices described above (for example, the
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1、701…ロボットシステム、11、601、711…ロボット、12、661、712…カメラ、13、714〜715…回線、21、631〜632、721、1051…ハンド、31、641〜642、731…力センサー、41、671…制御部、61…テーブル、62、62−1〜62−2…校正用治具、63…把持用治具、101…ロボット動作処理部、102…画像情報受付部、103…力センサー値受付部、104…記憶部、105…入力部、106…出力部、121…位置決め部、122…画像処理部、123…校正部、201、1001…キャリブレーションボード、211、1011…チェッカーパターン、221−1〜221−4…サイドピン、301、431、501…透明ボード、311、411、511…探り穴、321−1〜321−4、421−1〜421−4…位置決め穴、401…マーカー精度評価ボード、412、1101〜1103…マーカー、611…格納部、612〜614…胴体部分、621〜622…マニピュレーター、651〜652…車輪、713…制御装置、1012…タッチアップポイント DESCRIPTION OF SYMBOLS 1,701 ... Robot system, 11, 601, 711 ... Robot, 12, 661, 712 ... Camera, 13, 714-715 ... Line, 21, 631-632, 721, 1051 ... Hand, 31, 641-642, 731 ... force sensor, 41, 671 ... control unit, 61 ... table, 62, 62-1 to 62-2 ... calibration jig, 63 ... gripping jig, 101 ... robot motion processing unit, 102 ... image information receiving unit , 103 ... force sensor value receiving unit, 104 ... storage unit, 105 ... input unit, 106 ... output unit, 121 ... positioning unit, 122 ... image processing unit, 123 ... calibration unit, 201, 1001 ... calibration board, 211, 1011: checker pattern, 221-1 to 221-4 ... side pins, 301, 431, 501 ... transparent board, 311, 411, 511 ... Holes, 321-1 to 321-4, 421-1 to 421-4 ... Positioning holes, 401 ... Marker accuracy evaluation board, 412, 1101 to 1103 ... Marker, 611 ... Storage part, 612 to 614 ... Body part, 621 -622 ... Manipulator, 651-652 ... Wheel, 713 ... Control device, 1012 ... Touch-up point
Claims (9)
力センサーと、
前記ハンドを動作させる制御部と、を含み、
前記制御部は、校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に、撮像部が前記所定位置を撮像する、
ロボット。 Hands and
A force sensor;
A control unit for operating the hand,
The controller is configured to image the predetermined position after the hand is positioned by a depression disposed at a predetermined position of the calibration jig,
robot.
請求項1に記載のロボット。 The control unit performs impedance control based on a value detected by the force sensor, and positions the hand.
The robot according to claim 1.
請求項1または請求項2に記載のロボット。 The control unit positions the hand in a state where a gripping jig having a shape corresponding to the shape of the depression is gripped by the hand.
The robot according to claim 1 or 2.
請求項1から請求項3のいずれか1項に記載のロボット。 The calibration jig is a jig in which a board having a checker pattern and a transparent board having the depression are combined.
The robot according to any one of claims 1 to 3.
請求項1から請求項3のいずれか1項に記載のロボット。 The calibration jig is a jig in which a board having a checker pattern and a board with markers attached to the transparent board having the depressions are combined.
The robot according to any one of claims 1 to 3.
請求項4または請求項5のいずれか1項に記載のロボット。 A positioning projection is provided on one of the two boards combined with the calibration jig, and a positioning hole through which the projection is passed is provided on the other.
The robot according to any one of claims 4 and 5.
ハンドと力センサーとを備えるロボットと、
前記ロボットを動作させる制御部と、
校正用治具と、を含み、
前記制御部は、前記校正用治具の所定位置に配置された窪みによって前記ハンドを位置決めした後に前記所定位置を前記撮像部に撮像させる、または、前記位置決めする前に前記所定位置を前記撮像部に撮像させる、
ロボットシステム。 An imaging unit;
A robot with a hand and a force sensor;
A control unit for operating the robot;
A calibration jig, and
The control unit causes the imaging unit to take an image of the predetermined position after positioning the hand by a depression disposed at a predetermined position of the calibration jig, or the imaging unit takes the predetermined position before the positioning. Let me image
Robot system.
ロボットを動作させる処理部と、を含み、
前記処理部は、校正用治具の所定位置に配置された窪みによって前記ロボットのハンドを位置決めした後に、前記撮像部が前記所定位置を撮像する、
制御装置。 An image receiving unit that receives a captured image captured by the imaging unit;
A processing unit for operating the robot,
The processing unit positions the hand of the robot by a depression disposed at a predetermined position of a calibration jig, and then the imaging unit images the predetermined position.
Control device.
撮像部によって前記所定位置を撮像することと、
を含む制御方法。 Positioning the robot's hand by a recess placed at a predetermined position of the calibration jig;
Imaging the predetermined position by an imaging unit;
Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033776A JP2015157342A (en) | 2014-02-25 | 2014-02-25 | Robot, robot system, control device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014033776A JP2015157342A (en) | 2014-02-25 | 2014-02-25 | Robot, robot system, control device and control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015157342A true JP2015157342A (en) | 2015-09-03 |
Family
ID=54181805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014033776A Pending JP2015157342A (en) | 2014-02-25 | 2014-02-25 | Robot, robot system, control device and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015157342A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI693990B (en) * | 2017-07-13 | 2020-05-21 | 達明機器人股份有限公司 | Device and method for calibrating end-effector of robot arm |
WO2021079802A1 (en) * | 2019-10-21 | 2021-04-29 | 株式会社アマダ | Workpiece photograph image processing device, workpiece photograph image processing method, and machining system |
-
2014
- 2014-02-25 JP JP2014033776A patent/JP2015157342A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI693990B (en) * | 2017-07-13 | 2020-05-21 | 達明機器人股份有限公司 | Device and method for calibrating end-effector of robot arm |
WO2021079802A1 (en) * | 2019-10-21 | 2021-04-29 | 株式会社アマダ | Workpiece photograph image processing device, workpiece photograph image processing method, and machining system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6180087B2 (en) | Information processing apparatus and information processing method | |
CN107883831B (en) | Measurement system and measurement method | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
JP2023052266A (en) | System and method for combining machine vision coordinate spaces in guided assembly environment | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
JP4001105B2 (en) | Grasping method of arbitrarily shaped object by robot | |
JP2018144144A (en) | Image processing device, image processing method and computer program | |
US20150261899A1 (en) | Robot simulation system which simulates takeout process of workpieces | |
KR20180080630A (en) | Robot and electronic device for performing hand-eye calibration | |
US10052767B2 (en) | Robot, control device, and control method | |
WO2019146201A1 (en) | Information processing device, information processing method, and information processing system | |
JP6885856B2 (en) | Robot system and calibration method | |
JP2015160257A (en) | Robot, robot system, control device and control method | |
CN110465946B (en) | Method for calibrating relation between pixel coordinate and robot coordinate | |
JP2013146813A (en) | Robot apparatus, and position and orientation detecting method | |
JP2015112654A (en) | Control apparatus, robot, teaching data generation method, and robot system | |
JP2020006445A (en) | Operation teaching device, robot system and operation teaching method | |
CN109945780A (en) | Object inspection systems and object inspection method | |
US11085751B2 (en) | Ergonomic mobile controller for coordinate measuring machine | |
JP2015157342A (en) | Robot, robot system, control device and control method | |
JP2006130580A (en) | Method for gripping arbitrarily-shaped object by robot | |
JP7249221B2 (en) | SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD | |
JP6499272B2 (en) | Teaching apparatus and control information generation method | |
US20230321823A1 (en) | Robot control device, and robot system | |
US20220331972A1 (en) | Robot Image Display Method, Recording Medium, And Robot Image Display System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160617 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160627 |