JP2015089598A - Teaching device, robot, robot system, method and program - Google Patents
Teaching device, robot, robot system, method and program Download PDFInfo
- Publication number
- JP2015089598A JP2015089598A JP2013230029A JP2013230029A JP2015089598A JP 2015089598 A JP2015089598 A JP 2015089598A JP 2013230029 A JP2013230029 A JP 2013230029A JP 2013230029 A JP2013230029 A JP 2013230029A JP 2015089598 A JP2015089598 A JP 2015089598A
- Authority
- JP
- Japan
- Prior art keywords
- guide
- data
- teaching
- teaching data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000000007 visual effect Effects 0.000 claims abstract description 206
- 230000005540 biological transmission Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 48
- 238000013500 data storage Methods 0.000 claims description 46
- 239000000284 extract Substances 0.000 claims description 22
- 238000000605 extraction Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 239000012636 effector Substances 0.000 description 5
- 238000005286 illumination Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、教示装置、ロボット、ロボットシステム、方法、及びプログラムに関する。 The present invention relates to a teaching device, a robot, a robot system, a method, and a program.
特許文献1には、マーカー付き参照画像(目標画像)とマーカー付き撮像画像(現在画像)とに基づいて、ビジュアルサーボを行うことが記載されている。
特許文献1に記載されているようなビジュアルサーボでは、ロボットの目標の位置及び姿勢を含む目標画像と、ロボットの現在の位置及び姿勢を含む撮像画像との差異の評価値が小さくなるようにロボットの動作が制御される。
In the visual servo as described in
しかしながら、上記のようなビジュアルサーボは、目標画像を教示した時とビジュアルサーボの実行時とで作業環境が異なる場合には、目標画像と撮像画像との差異を精度よく評価できなかったり、当該差異の評価値が所定の範囲内に収まらなかったりするため、ロボットの制御を適切に行えないという問題がある。作業環境が異なる場合とは、例えば、カメラの位置や姿勢が変化したり、照明の明るさが変化したりする場合である。 However, the visual servo as described above cannot accurately evaluate the difference between the target image and the captured image when the work environment differs between when the target image is taught and when the visual servo is executed. There is a problem that the robot cannot be controlled properly because the evaluation value of the above does not fall within a predetermined range. The case where the work environment is different is, for example, a case where the position or posture of the camera changes or the brightness of the illumination changes.
そこで、本発明は、作業環境に影響されない安定した視覚サーボを実現することを目的とする。 Accordingly, an object of the present invention is to realize a stable visual servo that is not affected by the work environment.
上記の課題を解決する本発明の第一態様は、教示装置であって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定部と、第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、前記第一ガイド及び前記第二ガイドを表示する表示部と、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部と、を有する。本発明の第一態様によれば、二つの対象物に対してガイドが設定され、例えば、これらの設定されたガイドを近付けるような視覚サーボの教示データが、ロボットに送られる。ロボットは、撮像画像に対してこれらのガイドを生成し、これらのガイドを用いた視覚サーボを実行することができる。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A first aspect of the present invention that solves the above-described problem is a teaching device, in which a first guide setting unit that receives setting of a first guide for image data of a first object, and a second object A second guide setting unit that receives setting of a second guide for image data, a display unit that displays the first guide and the second guide, and a predetermined positional relationship between the first guide and the second guide And a teaching data transmission unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data. According to the first aspect of the present invention, guides are set for two objects, and for example, visual servo teaching data that brings these set guides close is sent to the robot. The robot can generate these guides for the captured image and perform visual servoing using these guides. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
前記第一ガイド設定部は、前記第一対象物の画像データの特徴と関連付けて前記第一ガイドの設定を受け付け、前記第二ガイド設定部は、前記第二対象物の画像データの特徴と関連付けて前記第二ガイドの設定を受け付け、前記教示データ生成部は、前記第一対象物の画像データの特徴及び前記第一ガイドと、前記第二対象物の画像データの特徴及び前記第二ガイドとを示す教示データを生成する、ようにしてもよい。これにより、ロボットは、撮像画像に含まれる対象物の画像の特徴に基づいて、簡単に精度よくガイドを生成することができる。 The first guide setting unit receives the setting of the first guide in association with the feature of the image data of the first object, and the second guide setting unit is associated with the feature of the image data of the second object. Receiving the setting of the second guide, the teaching data generation unit, the feature of the image data of the first object and the first guide, the feature of the image data of the second object and the second guide May be generated. Thereby, the robot can generate a guide easily and accurately based on the feature of the image of the object included in the captured image.
前記第一ガイド設定部は、前記第一対象物の画像データの複数の特徴それぞれと関連付けて複数の前記第一ガイドの設定を受け付け、前記教示データ生成部は、前記第一対象物の画像データの複数の特徴及び前記複数の第一ガイドを示す教示データを生成する、ようにしてもよい。これにより、ロボットは、撮像画像に含まれる対象物に対して、複数のガイドを生成できるようになるため、作業環境の変化に影響されにくい安定した視覚サーボを実現することができる。 The first guide setting unit receives a plurality of settings of the first guide in association with a plurality of features of the image data of the first object, and the teaching data generation unit is configured to receive the image data of the first object. Teaching data indicating the plurality of features and the plurality of first guides may be generated. Thereby, since the robot can generate a plurality of guides for the object included in the captured image, it is possible to realize a stable visual servo that is not easily affected by changes in the work environment.
前記第一ガイド設定部は、複数の画像処理のそれぞれを用いて前記第一対象物の画像データの複数の特徴を抽出し、前記抽出された複数の特徴のそれぞれと関連付ける前記複数の第一ガイドの設定を受け付ける、ようにしてもよい。これにより、ロボットは、撮像画像に含まれる対象物に対して、異なる画像処理により複数のガイドを生成できるようになるため、作業環境の変化に影響されにくい安定した視覚サーボを実現することができる。 The first guide setting unit extracts a plurality of features of image data of the first object using each of a plurality of image processes, and associates the plurality of first guides with each of the extracted features. You may make it accept the setting of. As a result, the robot can generate a plurality of guides by different image processing for the object included in the captured image, and thus can realize a stable visual servo that is not easily affected by changes in the work environment. .
前記第一ガイド設定部は、所定の画像処理を用いて前記第一対象物の画像データの特徴を抽出し、前記抽出された特徴から、複数の特徴の指定と前記指定された複数の特徴のそれぞれと関連付ける前記複数の第一ガイドの設定を受け付ける、ようにしてもよい。これにより、ロボットは、撮像画像に含まれる対象物に対して、同じ画像処理により複数のガイドを生成できるようになるため、作業環境の変化に影響されにくい安定した視覚サーボを実現することができる。 The first guide setting unit extracts features of the image data of the first object using predetermined image processing, and specifies a plurality of features and a plurality of the specified features from the extracted features. You may make it receive the setting of the said some 1st guide linked | related with each. As a result, the robot can generate a plurality of guides for the object included in the captured image by the same image processing, and thus can realize a stable visual servo that is not easily affected by changes in the work environment. .
上記の課題を解決する本発明の第二態様は、教示装置であって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定部と、撮像装置の撮像範囲に対して、第二ガイドの設定を受け付ける第二ガイド設定部と、前記第一ガイド及び前記第二ガイドを表示する表示部と、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部と、を有する。本発明の第二態様によれば、一つの対象物に対してガイドが設定され、また、撮像範囲に対してガイドが設定され、例えば、これらの設定されたガイドを近付けるような視覚サーボの教示データが、ロボットに送られる。ロボットは、撮像画像に対してこれらのガイドを生成し、これらのガイドを用いた視覚サーボを実行することができる。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。また、撮像範囲に対するガイドを使うため、撮像画像から特徴を抽出するような画像処理が必要なくなり、処理負荷が軽減される。 A second aspect of the present invention that solves the above problem is a teaching device, and a first guide setting unit that receives setting of a first guide for image data of a first object, and an imaging range of the imaging device On the other hand, the second guide setting unit for receiving the setting of the second guide, the display unit for displaying the first guide and the second guide, and the first guide and the second guide exhibit a predetermined positional relationship. A teaching data generation unit that generates teaching data; and a teaching data transmission unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data. According to the second aspect of the present invention, a guide is set for one object, and a guide is set for the imaging range. For example, the teaching of the visual servo such that these set guides are brought close to each other. Data is sent to the robot. The robot can generate these guides for the captured image and perform visual servoing using these guides. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized. In addition, since the guide for the imaging range is used, image processing for extracting features from the captured image is not necessary, and the processing load is reduced.
上記の課題を解決する本発明の第三態様は、教示装置の教示方法であって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定ステップと、第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定ステップと、前記第一ガイド及び前記第二ガイドを表示する表示ステップと、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成ステップと、前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信ステップと、を有する。本発明の第三態様によれば、二つの対象物に対してガイドが設定され、例えば、これらの設定されたガイドを近付けるような視覚サーボの教示データが、ロボットに送られる。ロボットは、撮像画像に対してこれらのガイドを生成し、これらのガイドを用いた視覚サーボを実行することができる。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A third aspect of the present invention that solves the above problem is a teaching method of a teaching device, in which a first guide setting step for receiving setting of a first guide for image data of a first object, A second guide setting step for receiving setting of a second guide for the image data of the object; a display step for displaying the first guide and the second guide; and the first guide and the second guide are predetermined. Teaching data generation step for generating teaching data indicating the positional relationship between the teaching data and the teaching data transmission step for transmitting the generated teaching data to a robot that performs visual servoing based on the teaching data. According to the third aspect of the present invention, guides are set for two objects, and for example, visual servo teaching data that brings these set guides close is sent to the robot. The robot can generate these guides for the captured image and perform visual servoing using these guides. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
上記の課題を解決する本発明の第四態様は、プログラムであって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定部と、第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、前記第一ガイド及び前記第二ガイドを表示する表示部と、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部として、コンピューターを機能させる。本発明の第四態様によれば、二つの対象物に対してガイドが設定され、例えば、これらの設定されたガイドを近付けるような視覚サーボの教示データが、ロボットに送られる。ロボットは、撮像画像に対してこれらのガイドを生成し、これらのガイドを用いた視覚サーボを実行することができる。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A fourth aspect of the present invention that solves the above problem is a program, a first guide setting unit that receives setting of a first guide for image data of a first object, and an image of a second object A second guide setting unit that receives the setting of the second guide, a display unit that displays the first guide and the second guide, and the first guide and the second guide have a predetermined positional relationship with respect to the data. A computer is caused to function as a teaching data generation unit that generates teaching data to be shown and a teaching data transmission unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data. According to the fourth aspect of the present invention, guides are set for two objects, and for example, visual servo teaching data that brings these set guides close is sent to the robot. The robot can generate these guides for the captured image and perform visual servoing using these guides. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
上記の課題を解決する本発明の第五態様は、ロボットであって、第一対象物の画像データに対して設定される第一ガイドと、第二対象物の画像データに対して設定される第二ガイドとが、所定の位置関係を示す教示データを格納する教示データ格納部と、前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、を有する。本発明の第五態様によれば、撮像画像に含まれる二つの対象物に対してガイドが生成され、これらのガイドを用いた視覚サーボが実行される。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A fifth aspect of the present invention that solves the above problem is a robot, which is set for the first guide set for the image data of the first object and for the image data of the second object. A second guide includes a teaching data storage unit that stores teaching data indicating a predetermined positional relationship, an image acquisition unit that acquires a captured image including the first object and the second object, and the teaching data A first guide generating unit that generates the first guide for the image data of the first object included in the acquired captured image, and the acquired based on the teaching data. A second guide generating unit that generates the second guide for the image data of the second object included in the captured image, and the generated first guide and the generated based on the teaching data A second guide, the predetermined guide Having a visual servo control unit which performs control based on visual servo such that the location relationship. According to the fifth aspect of the present invention, guides are generated for two objects included in the captured image, and visual servoing using these guides is executed. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
前記教示データには、前記第一対象物の画像データの特徴と関連付けて前記第一ガイドが示され、また、前記第二対象物の画像データの特徴と関連付けて前記第二ガイドが示され、前記第一ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データの特徴に関連付けて、前記第一ガイドを生成し、前記第二ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データの特徴に関連付けて、前記第二ガイドを生成する、ようにしてもよい。これにより、撮像画像に含まれる対象物の画像の特徴に基づいて、簡単に精度よくガイドを生成することができる。 In the teaching data, the first guide is shown in association with the feature of the image data of the first object, and the second guide is shown in association with the feature of the image data of the second object, The first guide generation unit generates the first guide based on the teaching data in association with the feature of the image data of the first object included in the acquired captured image, and the second guide The generation unit may generate the second guide in association with the feature of the image data of the second object included in the acquired captured image based on the teaching data. Thereby, a guide can be easily and accurately generated based on the characteristics of the image of the object included in the captured image.
前記教示データには、前記第一対象物の画像データの複数の特徴それぞれと関連付けて複数の前記第一ガイドが示され、前記第一ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データの複数の特徴のいずれか一つと関連付けて、前記第一ガイドを生成する、ようにしてもよい。これにより、撮像画像に含まれる対象物に対して、複数のガイドを生成できるようになるため、作業環境の変化に影響されにくい安定した視覚サーボを実現することができる。 The teaching data indicates a plurality of the first guides associated with each of a plurality of features of the image data of the first object, and the first guide generating unit is acquired based on the teaching data. The first guide may be generated in association with any one of a plurality of features of the image data of the first object included in the captured image. As a result, a plurality of guides can be generated for the object included in the captured image, so that stable visual servoing that is less affected by changes in the work environment can be realized.
上記の課題を解決する本発明の第六態様は、ロボットであって、第一対象物の画像データに対して設定される第一ガイドと、撮像装置の撮像範囲に対して設定される第二ガイドとが、所定の位置関係を示す教示データを格納する教示データ格納部と、前記第一対象物と前記第二対象物とを含む撮像画像を前記撮像装置から取得する画像取得部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、を有する。本発明の第六態様によれば、撮像画像に含まれる対象物に対するガイドと、撮像範囲に対するガイドとが生成され、これらのガイドを用いた視覚サーボが実行される。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。また、撮像範囲に対するガイドを使うため、撮像画像から特徴を抽出するような画像処理が必要なくなり、処理負荷が軽減される。 A sixth aspect of the present invention that solves the above problem is a robot, which is a first guide set for the image data of the first object and a second set for the imaging range of the imaging device. A teaching data storage unit for storing teaching data indicating a predetermined positional relationship with the guide, an image acquisition unit for acquiring a captured image including the first object and the second object from the imaging device, A first guide generation unit that generates the first guide for the image data of the first object included in the acquired captured image based on the teaching data, and the acquisition based on the teaching data A second guide generation unit that generates the second guide for the image data of the second object included in the captured image, and the generated first guide and the generation based on the teaching data With the second guide Having a visual servo control unit which performs control based on visual servo so that the predetermined positional relationship. According to the sixth aspect of the present invention, a guide for an object included in a captured image and a guide for an imaging range are generated, and visual servoing using these guides is executed. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized. In addition, since the guide for the imaging range is used, image processing for extracting features from the captured image is not necessary, and the processing load is reduced.
上記の課題を解決する本発明の第七態様は、ロボットの制御方法であって、第一対象物の画像データに対して設定される第一ガイドと、第二対象物の画像データに対して設定される第二ガイドとが、所定の位置関係を示す教示データをする教示データ格納ステップと、前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得ステップと、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成ステップと、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成ステップと、前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御ステップと、を有する。本発明の第七態様によれば、撮像画像に含まれる二つの対象物に対してガイドが生成され、これらのガイドを用いた視覚サーボが実行される。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A seventh aspect of the present invention that solves the above problem is a robot control method, wherein the first guide is set for the image data of the first object, and the image data of the second object. The second guide to be set includes a teaching data storage step for teaching data indicating a predetermined positional relationship, an image acquisition step for acquiring a captured image including the first object and the second object, A first guide generation step for generating the first guide for the image data of the first object included in the acquired captured image based on the teaching data, and the acquisition based on the teaching data A second guide generation step of generating the second guide for the image data of the second object included in the captured image, and the generated first guide and the generation based on the teaching data The And a second guide has a a visual servo control step of performing control based on visual servo so that the predetermined positional relationship. According to the seventh aspect of the present invention, guides are generated for two objects included in the captured image, and visual servoing using these guides is executed. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
上記の課題を解決する本発明の第八態様は、ロボットシステムであって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定部と、第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、前記第一ガイド及び前記第二ガイドを表示する表示部と、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、前記生成された教示データを格納する教示データ格納部と、前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、を有する。本発明の第八態様によれば、撮像画像に含まれる二つの対象物に対してガイドが生成され、これらのガイドを用いた視覚サーボが実行される。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 An eighth aspect of the present invention that solves the above problem is a robot system, wherein the first guide setting unit that receives the setting of the first guide for the image data of the first object, and the second object A second guide setting unit that receives setting of a second guide for image data, a display unit that displays the first guide and the second guide, and a predetermined positional relationship between the first guide and the second guide A teaching data generation unit that generates teaching data indicating a teaching data, a teaching data storage unit that stores the generated teaching data, and an image acquisition unit that acquires a captured image including the first object and the second object A first guide generating unit that generates the first guide for the image data of the first object included in the acquired captured image based on the teaching data, and based on the teaching data , The above A second guide generation unit that generates the second guide for the image data of the second object included in the captured image, and the generated first guide and the generation based on the teaching data And a visual servo controller that performs control based on visual servo so that the predetermined positional relationship is obtained. According to the eighth aspect of the present invention, guides are generated for the two objects included in the captured image, and visual servoing using these guides is executed. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
上記の課題を解決する本発明の第九態様は、ロボットシステムの制御方法であって、第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定ステップと、第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定ステップと、前記第一ガイド及び前記第二ガイドを表示する表示ステップと、前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成ステップと、前記生成された教示データを格納する教示データ格納ステップと、前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得ステップと、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成ステップと、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成ステップと、前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御ステップと、を有する。本発明の第九態様によれば、撮像画像に含まれる二つの対象物に対してガイドが生成され、これらのガイドを用いた視覚サーボが実行される。従って、目標画像と撮像画像の二つの画像の差異を評価する必要がなく、作業環境に影響されない安定した視覚サーボを実現することができる。 A ninth aspect of the present invention that solves the above problem is a control method of a robot system, wherein a first guide setting step for receiving a setting of a first guide for image data of a first object, A second guide setting step for receiving setting of a second guide for the image data of the object; a display step for displaying the first guide and the second guide; and the first guide and the second guide are predetermined. A teaching data generating step for generating teaching data indicating the positional relationship of the teaching data, a teaching data storing step for storing the generated teaching data, and a captured image including the first object and the second object. Based on the image acquisition step and the teaching data, a first guide for generating the first guide is generated for the image data of the first object included in the acquired captured image. Generation step, a second guide generation step for generating the second guide for the image data of the second object included in the acquired captured image based on the teaching data, and the teaching data And a visual servo control step of performing control based on visual servo so that the generated first guide and the generated second guide have the predetermined positional relationship. According to the ninth aspect of the present invention, guides are generated for two objects included in a captured image, and visual servoing using these guides is executed. Therefore, it is not necessary to evaluate the difference between the target image and the captured image, and a stable visual servo that is not affected by the work environment can be realized.
<本発明の実施形態>
本発明の実施形態について、図面を参照して説明する。
<Embodiment of the present invention>
Embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態に係るロボットシステムの概略構成の一例を示す図である。 FIG. 1 is a diagram illustrating an example of a schematic configuration of a robot system according to an embodiment of the present invention.
ロボットシステム1は、ロボット2と、教示装置4と、撮像装置5とを有する。ロボット2は、制御部3を有する。ロボット2と教示装置4は、通信可能に接続される。また、ロボット2と撮像装置5は、通信可能に接続される。
The
ロボット2は、制御部3により制御され、目的の作業を行う。ロボット2は、例えば、作業台Tの近くに配置され、作業台T上の所定の作業領域内で作業を行う。ロボット2の作業内容は、特に限定されないが、例えば、複数のワークWを嵌め合わせる作業が考えられる。
The
ロボット2は、胴部20と、アーム21と、ハンド22と、脚部24と、頭部25とを有する。
The
アーム21は、胴部20に設けられる。アーム(「マニピュレーター」ともいう。)21は、一以上のジョイント(「回転軸」ともいう。)21a及び一以上のアーム部材(「リンク」ともいう。)21bを含む。
The
ジョイント21aには、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部3によるロボット2のフィードバック制御などに使用される。
The joint 21a is provided with an actuator (not shown) for operating them. The actuator includes, for example, a servo motor and an encoder. The encoder value output by the encoder is used for feedback control of the
また、アーム21の先端には、力覚センサー21cが設けられる。力覚センサーは、ロボット2が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサーとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。なお、力覚センサーは、6軸に限らず、例えば3軸でもよい。
A force sensor 21 c is provided at the tip of the
各回転軸を連動させることにより、アーム部材21bの姿勢を変化させ、アーム21の先端部などに設定された注目位置(「エンドポイント」ともいう。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。
By linking each rotation shaft, the posture of the
なお、アーム21は、マニピュレーターの一種ということができる。マニピュレーターは、エンドポイントの位置を移動させる機構であり、アームに限られず様々な形態をとることができる。また、マニピュレーターは、図示するように2本に限られず、1本あるいは3本以上設けるようにしてもよい。
The
ハンド22は、アーム21の先端に設けられる。ハンド22は、例えば、複数の指を備え、少なくとも2本の指で作業対象物を把持したり解放したりすることができる。ハンド22は、アーム21の先端部に対して着脱可能であってもよい。
The
なお、ハンド22は、エンドエフェクターの一種ということができる。エンドエフェクターは、作業対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。
The
なお、ロボット2の構成は図示した例に限られない。例えば、図1ではジョイント数が6個(6軸)の例が示されているが、ジョイントの数(「軸数」ともいう。)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
The configuration of the
制御部3は、ロボット2の全体を制御する。例えば、制御部3は、教示装置4から出力される教示データに基づいて、ロボット2を動作させる制御命令を生成し、生成した制御命令に従ってアクチュエーターを駆動させることでロボット2を動作させる。また、制御部3は、撮像装置5を制御し、撮像画像を取得する。詳細は後述するが、制御部3は、視覚サーボにより、ロボット2を動作させる。
The
撮像装置5は、例えば作業台T上の作業領域を撮像して、撮像画像データを生成し、ロボット2に出力する。撮像装置5は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有するカメラである。
The
教示装置4は、ユーザーの操作に従って、ロボット2に実行させる作業内容を示す教示データを生成する。また、教示装置4は、生成した教示データをロボット2の制御部3に出力することにより、ロボット2に対して教示を行う。教示装置4については、後に詳述する。
The
上記のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成例に限られない。また、一般的なロボットシステムが備える構成を排除するものではない。
The configuration of the
例えば、撮像装置5の設置位置は、特に限定されず、天井、壁などに設置することができる。また、撮像装置5は、ロボット2の頭部25、アーム21の先端部分、胴部20などに設けられてもよい。また、例えば、撮像装置5に加えて、他の撮像装置を設けるようにしてもよい。また、例えば、制御部3は、制御装置としてロボット2と別に設けられ、ロボット2に外部から接続するようにしてもよい。また、例えば、制御部3と教示装置4は、制御装置として一体となっていてもよい。
For example, the installation position of the
図2は、ロボットシステムの機能構成の一例を示す図である。 FIG. 2 is a diagram illustrating an example of a functional configuration of the robot system.
教示装置4は、入力部40と、表示部41と、ガイド設定部(「第一ガイド設定部」、「第二ガイド設定部」ともいう。)42と、教示データ生成部43と、教示データ送信部44と、モデルデータ格納部45と、ガイドデータ格納部46と、教示データ格納部47とを有する。
The
入力部40は、ユーザーの操作を受け付ける。表示部41は、ユーザーに対してインターフェイス画面などを表示する。
The
ガイド設定部42は、作業対象物の任意の位置に対して仮想的なガイド(「対象物ガイド」ともいう。)を設定する。対象物ガイドは、視覚サーボにおいて、作業対象物の代わりに当該作業対象物の現在位置を示す画像として使用される。
The
具体的には、モデルデータ格納部45には、入力部40等を介したユーザーの操作により、作業対象物を2次元あるいは3次元で表す画像データなどのモデルデータが予め格納されている。ガイド設定部42は、モデルデータ格納部45から、作業対象物のモデルデータを取得する。また、ガイド設定部42は、取得した作業対象物のモデルデータに対して、当該モデルの特徴位置を抽出する所定の画像処理(例えば、エッジ検出、輪郭検出、コーナー検出など)を実行し、当該作業対象物の特徴位置を抽出する。なお、特徴位置は、1点に限らず複数点の集合であってもよく、単に「特徴」と呼んでもよい。
Specifically, model data such as image data representing a work object in two dimensions or three dimensions is stored in advance in the model
また、ガイド設定部42は、抽出した作業対象物の特徴位置に対して、所定の位置関係を有するガイド位置を設定する。例えば、ガイド設定部42は、作業対象物のモデルデータとともに当該作業対象物の特徴位置を示す画像を表示部41に表示させる。また、ガイド設定部42は、表示された画像上でガイド位置の指定を、入力部40を介して受け付ける。ガイド設定部42は、表示された特徴位置に対する指定されたガイド位置の相対位置関係を示す対象物ガイドデータを、ガイドデータ格納部46に格納する。なお、対象物のガイド位置は、1点に限らず複数点の集合であってもよく、単に「対象物ガイド」と呼んでもよい。
The
図3(A)は、対象物ガイドデータのデータ構造の一例を示す図である。図3(A)に示すように、対象物ガイドデータには、それぞれの対象物ガイドごとに、当該対象物ガイドの識別情報であるID451と、当該対象物ガイドのガイド位置452と、当該対象物ガイドの基準位置である対象物の特徴位置453とが関連付けられたレコードが格納される。なお、特徴位置453には、当該特徴位置を抽出するために使用される画像処理アルゴリズムに関する情報が含まれる。
FIG. 3A is a diagram illustrating an example of a data structure of the object guide data. As shown in FIG. 3A, the object guide data includes, for each object guide, an
図2の説明に戻る。ガイド設定部42は、撮像装置5の撮像範囲内の任意の位置に対して仮想的なガイド(固定ガイド)を設定する。固定ガイドは、視覚サーボにおいて、作業の目標位置を示す画像として、使用される。
Returning to the description of FIG. The
具体的には、ガイド設定部42は、例えば、撮像範囲を示す画像を表示部41に表示させる。また、ガイド設定部42は、表示された画像上でガイド位置の指定を、入力部40を介して受け付ける。ガイド設定部42は、指定されたガイド位置を示す固定ガイドデータを、ガイドデータ格納部46に格納する。なお、固定のガイド位置は、1点に限らず複数点の集合であってもよく、単に「固定ガイド」と呼んでもよい。
Specifically, the
図3(B)は、固定ガイドデータのデータ構造の一例を示す図である。図3(B)に示すように、固定ガイドデータには、それぞれの固定ガイドごとに、当該固定ガイドの識別情報であるID461と、当該固定ガイドのガイド位置462とが関連付けられたレコードが格納される。
FIG. 3B is a diagram illustrating an example of a data structure of fixed guide data. As shown in FIG. 3B, for each fixed guide, a record in which an
図2の説明に戻る。教示データ生成部43は、対象物ガイド及び固定ガイドが、所定の位置関係(同じ位置で一致する場合を含む。)となることを目標とする教示データを生成する。また、教示データ生成部43は、一の対象物ガイド及び他の対象物ガイドが、所定の位置関係(同じ位置で一致する場合を含む。)となることを目標とする教示データを生成する。
Returning to the description of FIG. The teaching
具体的には、教示データ生成部43は、例えば、対象物ガイドの指定、固定ガイドの指定、目標位置の指定、対象物ガイドを目標位置に移動させる命令などを、入力部40を介して受け付ける。また、例えば、教示データ生成部43は、命令が複数ある場合には、各命令の工程順序を受け付ける。教示データ生成部43は、受け付けた各情報を含む教示データを生成し、教示データ格納部47に格納する。
Specifically, the teaching
図4は、教示データのデータ構造の一例を示す図である。図4に示すように、教示データには、工程順に、工程番号471と、教示内容472とが関連付けられたレコードが格納される。なお、教示内容472には、指定されたガイドに対応するガイドデータ(対象物ガイドデータ、固定ガイドデータ)が含まれる。
FIG. 4 is a diagram illustrating an example of the data structure of teaching data. As shown in FIG. 4, the teaching data stores a record in which a
図2の説明に戻る。教示データ送信部44は、教示データ生成部43により生成された教示データを、教示データ格納部47から取得し、ロボット2の制御部3に対して送信する。
Returning to the description of FIG. The teaching
モデルデータ格納部45には、上述のようにモデルデータが格納される。ガイドデータ格納部46には、上述のようにガイドデータが格納される。教示データ格納部47には、上述のようにガイドデータが格納される。
The model
ロボット2の制御部3は、教示データ受信部30と、視覚サーボ制御部31と、画像取得部34と、教示データ格納部35とを有する。視覚サーボ制御部31は、特徴抽出部32と、ガイド生成部(「第一ガイド生成部」、「第二ガイド生成部」ともいう。)33とを有する。
The
教示データ受信部30は、教示装置4から教示データを受信し、教示データ格納部35に格納する。
The teaching
視覚サーボ制御部31は、教示データ格納部35に格納されている教示データに基づいて、ロボット2の動作を制御する。そのため、視覚サーボ制御部31は、特徴抽出部32と、ガイド生成部33とを有する。
The visual
具体的には、視覚サーボ制御部31は、教示データに基づいて、移動させる作業対象物と、当該作業対象物を移動させる目標位置とを特定する。また、視覚サーボ制御部31は、画像取得部34から撮像画像を取得する。また、視覚サーボ制御部31は、教示データに基づいて、特徴抽出部32により、撮像画像に対して、移動させる作業対象物の特徴位置を抽出する所定の画像処理(例えば、エッジ検出、輪郭検出、コーナー検出など)を実行し、当該作業対象物の特徴位置を抽出する。また、視覚サーボ制御部31は、教示データに基づいて、ガイド生成部33により、抽出された特徴位置と所定の相対位置関係にあるガイド位置に、移動させる作業対象物の対象物ガイドを生成する。
Specifically, the visual
また、視覚サーボ制御部31は、目標位置が撮像範囲内の所定位置である場合は、教示データに基づいて、ガイド生成部33により、撮像画像の指定された位置に、目標位置である固定ガイドを生成する。一方、視覚サーボ制御部31は、目標位置が作業対象物である場合には、教示データに基づいて、特徴抽出部32により、撮像画像に対して、目標位置である作業対象物の特徴位置を抽出する所定の画像処理(例えば、エッジ検出、輪郭検出、コーナー検出など)を実行し、当該作業対象物の特徴位置を抽出する。また、視覚サーボ制御部31は、教示データに基づいて、ガイド生成部33により、抽出された特徴位置と所定の相対位置関係にあるガイド位置に、目標位置である対象物ガイドを生成する。
In addition, when the target position is a predetermined position within the imaging range, the visual
また、視覚サーボ制御部31は、撮像画像上に生成された、移動させる対象物ガイドと、目標位置であるガイド(固定ガイド、又は対象物ガイド)とに基づいて、これらのガイドが教示データで教示される所定の位置関係となるように、視覚サーボを行う。
Further, the visual
ここで、視覚サーボ制御部31は、撮像画像から、生成されたガイド以外の画像情報(すなわち、撮像画像に元々含まれる画像情報であり、ガイド画像の背景)を削除し、ガイドのみを含む画像に基づいて視覚サーボを行う。もちろん、撮像画像と同じ大きさの画像を生成し、この画像上にガイドを生成するようにしてもよい。
Here, the visual
本実施形態の視覚サーボでは、目標画像の代わりに、撮像画像に基づいて生成される目標位置のガイドのみを含む画像が用いられる。また、現在画像の代わりに、撮像画像に基づいて生成される作業対象物のガイドのみを含む画像が用いられる。そして、これらのガイドが、視覚サーボ系への入力情報(制御量)として用いられる。視覚サーボ制御部31は、これらのガイドに基づいて、ガイドが一致するか否かを比較する。ガイドが一致する場合、視覚サーボを終了する。ガイドが一致しない場合、制御命令を生成し、ロボット2を動作させる。
In the visual servo of this embodiment, an image including only a guide for a target position generated based on a captured image is used instead of the target image. Further, instead of the current image, an image including only a work target guide generated based on the captured image is used. These guides are used as input information (control amount) to the visual servo system. The visual
特徴抽出部32は、教示データに含まれるガイドデータを参照し、指定されたガイドIDに関連付けられた特徴位置から、所定の画像処理アルゴリズムを特定する。また、特徴抽出部32は、特定した画像処理アルゴリズムを撮像画像に対して実行し、作業対象物の特徴位置を抽出及び特定する。
The
ガイド生成部33は、教示データに含まれるガイドデータを参照し、指定された対象物ガイドのガイドIDに関連付けられたガイド位置を特定する。また、ガイド生成部33は、特定したガイド位置に基づいて、特徴抽出部32により特定された作業対象物の特徴位置と所定の相対位置関係にあるガイド位置に、対象物ガイドを生成する。また、ガイド生成部33は、指定された固定ガイドのガイドIDに関連付けられたガイド位置に、固定ガイドを生成する。
The
画像取得部34は、撮像装置5を制御して撮像を行わせ、撮像画像を取得する。
The
教示データ格納部35には、上述のように教示データが格納される。
The teaching
図5は、教示装置の機能を実現するハードウェア構成の一例を示す図である。 FIG. 5 is a diagram illustrating an example of a hardware configuration for realizing the function of the teaching apparatus.
教示装置4は、例えば、図5に示すような、CPU(Central Processing Unit)等の演算装置90と、RAM(Random Access Memory)などの主記憶装置91と、HDD(Hard Disk Drive)等の補助記憶装置92と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)93と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置94と、液晶ディスプレイなどの表示装置95と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置96と、を備えるコンピューター9で実現することができる。
The
例えば、ガイド設定部42、教示データ生成部43、教示データ送信部44などは、補助記憶装置92などから主記憶装置91にロードされた所定のプログラムを演算装置90が実行することで実現される。モデルデータ格納部45、ガイドデータ格納部46、教示データ格納部47などは、例えば、演算装置90が主記憶装置91又は補助記憶装置92を利用することで実現される。ロボット2との通信は、例えば、演算装置90が通信I/F93を利用することで実現される。入力部40は、例えば、演算装置90が入力装置94を利用することで実現される。表示部41は、例えば、演算装置90が表示装置95を利用することで実現される。なお、上記の所定のプログラムは、例えば、読み書き装置96により読み取られた記憶媒体からインストールされてもよいし、通信I/F93を介してネットワークからインストールされてもよい。
For example, the
制御部3は、例えば、演算装置、記憶装置、処理回路、駆動回路などを備えるコントローラー基板等により実現することができる。例えば、教示データ受信部30、視覚サーボ制御部31、画像取得部34などは、記憶装置にロードされた所定のプログラムを演算装置が実行することで実現される。教示データ格納部35は、例えば、演算装置が記憶装置を利用することで実現される。
The
上述したロボットシステム1の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
The functional configuration of the
また、教示装置4及び制御部3の機能及び処理の分担は、説明した例に限られない。例えば、教示装置4の少なくとも一部の機能は、制御部3に含まれ、制御部3により実現されてもよい。また、例えば、制御部3の少なくとも一部の機能は、教示装置4に含まれ、教示装置4により実現されてもよい。
Further, the functions and processing sharing of the
次に、ロボットシステム1により実現される処理及び動作について、説明する。
Next, processes and operations realized by the
まず、図6〜図11を参照して、ロボット2が行う第一の作業例に基づいて説明する。それから、図12〜図16を参照して、ロボット2が行う第二の作業例に基づいて説明する。
First, a description will be given based on a first working example performed by the
図7は、ロボットが行う第一の作業例を示す図である。第一の作業例は、部品W1に形成されている凹部に部品W2を嵌め込む、という作業である。なお、ロボット2は、部品をハンド22で把持することで、部品を移動させることができるため、把持動作に関する説明は省略する。
FIG. 7 is a diagram illustrating a first work example performed by the robot. The first work example is a work of fitting the part W2 into the recess formed in the part W1. Since the
図6は、教示処理の一例を示すフロー図である。なお、モデルデータ格納部45には、部品W1と部品W2のモデルデータが予め格納されている。
FIG. 6 is a flowchart showing an example of the teaching process. In the model
まず、ガイド設定部42は、対象物ガイドの設定を受け付ける(ステップS100)。具体的には、ガイド設定部42は、ユーザーから入力部40を介して、モデルデータ格納部45に格納されているモデルデータの中から、作業に必要な部品(部品W1、部品W2)のモデルデータの選択を受け付ける。なお、ガイド設定部42は、例えば、作業に必要な部品を含む画像を撮像装置5等から取得し、取得した画像から画像処理により部品を認識し、認識した部品に対応するモデルデータを、モデルデータ格納部45に格納されているモデルデータの中から選択するようにしてもよい。
First, the
また、ガイド設定部42は、選択された各モデルデータに対して、特徴位置を抽出する所定の画像処理を実行し、特徴位置を抽出する。なお、ガイド設定部42は、各モデルデータに対して、使用する画像処理アルゴリズムの選択及び設定を、ユーザーから受け付けるようにしてもよい。また、ガイド設定部42は、モデルデータとともに抽出した特徴位置を示す画像を、表示部41に表示させる。例えば、図8(A)(部品W1に設定されるガイドの一例を示す図)に示すように、部品W1のモデルデータW1とともに、抽出された特徴位置F1(破線で示す。)が表示される。また、例えば、図8(B)(部品W2に設定されるガイドの一例を示す図)に示すように、部品W2のモデルデータW2とともに、抽出された特徴位置F2(破線で示す。)が表示される。
In addition, the
また、ガイド設定部42は、表示されている画像に対して、ガイド位置の指定を、ユーザーから入力部40を介して受け付ける。例えば、図8(A)では、部品W1の凹部に対応させてガイドG1が設定されている。また、例えば、図8(B)では、部品W2の一端(部品W1の凹部に挿入される側)に対応させてガイドG2が設定されている。
In addition, the
ここで、対象物ガイドは、基準位置と方向成分を有する。ガイドの基準位置は、例えば、モデルデータが3次元である場合にはXYZ座標の値を持ち、モデルデータが2次元である場合にはXY座標の値を持つ。また、ガイドの方向成分は、ガイドの基準位置を原点とする3次元のXYZ軸方向、又は2次元のXY軸方向である。ガイド設定部42は、ガイド位置として、対象物ガイドの基準位置及び方向成分の指定を、ユーザーから入力部40を介して受け付ける。
Here, the object guide has a reference position and a direction component. The reference position of the guide has, for example, an XYZ coordinate value when the model data is three-dimensional, and an XY coordinate value when the model data is two-dimensional. The guide direction component is a three-dimensional XYZ-axis direction or a two-dimensional XY-axis direction with the reference position of the guide as the origin. The
ガイド設定部42は、モデルデータに対するガイド位置(基準位置、方向成分)が指定されると、指定されたガイド位置の基準位置を、抽出された特徴位置に対する相対位置を示す情報に変換する。そして、ガイド設定部42は、当該対象物ガイドに対して割り当てたID又はユーザーから指定されたIDと、ガイド位置(変換された基準位置、方向成分)と、抽出された特徴位置(特徴位置を特定する情報、当該特徴位置を抽出するために使用される画像処理アルゴリズムに関する情報)とを関連付けたレコードを、ガイドデータ格納部46の対象物ガイドデータに追加する。
When the guide position (reference position, direction component) with respect to the model data is designated, the
それから、ガイド設定部42は、固定ガイドの設定を受け付ける(ステップS110)。具体的には、ガイド設定部42は、例えば、撮像装置5の撮像範囲を示す画像を表示部41に表示させる。また、ガイド設定部42は、表示されている画像に対して、ガイド位置の指定を、ユーザーから入力部40を介して受け付ける。例えば、図8(C)(固定ガイドの一例を説明する図)では、撮像範囲の中心付近に、固定ガイドSG1が設定されている。
Then, the
ここで、固定ガイドは、対象物ガイドと同様に、基準位置と方向成分を有する。ガイド設定部42は、ガイド位置として、固定ガイドの基準位置及び方向成分の指定を、ユーザーから入力部40を介して受け付ける。
Here, the fixed guide has a reference position and a direction component in the same manner as the object guide. The
ガイド設定部42は、撮像範囲に対するガイド位置(基準位置、方向成分)が決定されると、当該固定ガイドに対して割り当てたID又はユーザーから指定されたIDと、ガイド位置(基準位置、方向成分)とを関連付けたレコードを、ガイドデータ格納部46の固定ガイドデータに追加する。
When the guide position (reference position, direction component) for the imaging range is determined, the
それから、教示データ生成部43は、教示データを生成する(ステップS120)。具体的には、教示データ生成部43は、第一の作業例を実現するロボット2の各工程の設定を、ユーザーから入力部40を介して受け付ける。教示データ生成部43は、例えば下記のように、ガイドの指定及びガイドを目標位置に移動させる命令を含む教示を受け付け、工程番号471と教示内容472(下記では、「工程番号:教示内容」と表す。)として、教示データ格納部47の教示データに追加する。
工程1:固定ガイドSG1(基準位置)に、対象物ガイドG1(基準位置)を、一致させる。
工程2:固定ガイドSG1(基準位置)に、所定のオフセット距離(基準位置からX方向にmピクセル)で、対象物ガイドG2(基準位置)を一致させる。
工程3:対象物ガイドG2(基準位置)を、所定の距離(X方向にnピクセル)移動する。
なお、工程3は、部品W2を部品W1に嵌め込む動作の準備動作である。
Then, the teaching
Step 1: The object guide G1 (reference position) is matched with the fixed guide SG1 (reference position).
Step 2: The object guide G2 (reference position) is matched with the fixed guide SG1 (reference position) at a predetermined offset distance (m pixels from the reference position in the X direction).
Step 3: Move the object guide G2 (reference position) by a predetermined distance (n pixels in the X direction).
また、教示データ生成部43は、各工程の教示内容472に、当該教示内容で指定されているガイド(固定ガイドSG1、対象物ガイドG1、対象物ガイドG2)のガイドデータを設定する。
In addition, the teaching
それから、教示データ送信部44は、ステップS120で生成された教示データを、ロボット2に送信し(ステップS130)、図6に示すフローチャートの処理を終了する。
Then, the teaching
以上のようにして、ガイド位置の設定、及びロボット2の作業内容を示す教示データの設定が行われ、ロボット2に対して教示される。なお、ステップS100とステップS110の順序は逆でもよい。また、ステップS130は、ユーザーが指定した任意のタイミングで実行されてもよい。
As described above, the setting of the guide position and the teaching data indicating the work contents of the
図9は、第一の作業例における視覚サーボ処理の一例を示すフロー図である。図10(第一の作業例における視覚サーボの経過を視覚的に説明する図(その1))、及び図11(第一の作業例における視覚サーボの経過を視覚的に説明する図(その2))を参照しながら説明する。なお、説明を分かり易くするため、図10及び図11では、ロボット2のハンド22等は省略している。
FIG. 9 is a flowchart showing an example of visual servo processing in the first work example. FIG. 10 (a diagram for visually explaining the progress of visual servo in the first work example (part 1)) and FIG. 11 (a diagram for visually explaining the progress of visual servo in the first work example (part 2) )) To explain. For easy understanding, the
教示装置4から送信された教示データは、教示データ受信部30により受信され、教示データ格納部35に格納されているものとする。視覚サーボ制御部31は、教示データの各工程の教示内容に基づいて、ロボット2の動作を制御する。なお、ステップS200〜S250は、上述の「工程1」に対応する。また、ステップS260〜S310は、上述の「工程2」に対応する。また、ステップS320は、上述の「工程3」に対応する。
It is assumed that the teaching data transmitted from the
まず、画像取得部34は、撮像装置5を制御して撮像を行わせ、撮像画像を取得する(ステップS200)。
First, the
それから、視覚サーボ制御部31は、固定ガイドSG1を生成する(ステップS210)。具体的には、ガイド生成部33は、工程1の教示データに含まれるガイドデータから、固定ガイドSG1のガイド位置を取得する。また、ガイド生成部33は、取得したガイド位置に基づいて、ステップS200で取得した撮像画像上に、固定ガイドSG1を生成する(図10(A))。
Then, the visual
それから、視覚サーボ制御部31は、部品W1の特徴を抽出する(ステップS220)。具体的には、特徴抽出部32は、工程1の教示データに含まれるガイドデータから、部品W1の特徴位置を取得する。また、特徴抽出部32は、ステップS200で取得された撮像画像に対して、取得した特徴位置から特定される画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W1の特徴位置と合致する特徴を特定する。なお、特徴位置の合致は、例えば、部品W1の特徴位置を構成する各画素の配置と、抽出した特徴を構成する各画素の配置との一致率(例えば90%以上の一致率)で判断することができる。このようにして、撮像画像上に、部品W1の特徴位置F1が抽出及び特定される(図10(A))。
Then, the visual
それから、視覚サーボ制御部31は、部品W1に対応するガイドG1を生成する(ステップS230)。具体的には、ガイド生成部33は、工程1の教示データに含まれるガイドデータから、部品W1のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS220で抽出及び特定された部品W1の特徴位置F1を基準に、取得したガイド位置が示す位置に、対象物ガイドG1を設定する。このようにして、撮像画像上に、特徴位置F1を基準として、対象物ガイドG1が設定される(図10(A))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボを実行する(ステップS240)。具体的には、視覚サーボ制御部31は、撮像画像から、生成されたガイド以外の画像情報を削除する。それから、視覚サーボ制御部31は、工程1の教示データに基づいて、固定ガイドSG1(基準位置)に、対象物ガイドG1(基準位置)を、一致させるように、視覚サーボを実行する(図10(A))。なお、視覚サーボ制御部31は、対象物ガイドG1が固定ガイドSG1から所定距離内に位置しない場合には、制御命令を生成してロボットのアームを動作させる(エンドポイントを移動させる)。一方、視覚サーボ制御部31は、対象物ガイドG1が固定ガイドSG1から所定距離内に位置する場合には、制御命令を生成せずに、工程1の視覚サーボは収束していると判断する(図10(B))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボが収束しているか否かを判定する(ステップS250)。具体的には、視覚サーボ制御部31は、ステップS240において収束していると判断した場合には(ステップS250:Y)、処理をステップS260に進める。一方、ステップS240において収束していないと判断した場合には(ステップS250:N)、処理をステップS200に戻す。
Then, the visual
ステップS240の視覚サーボが収束している場合(ステップS250:Y)、画像取得部34は、撮像装置5を制御して撮像を行わせ、撮像画像を取得する(ステップS260)。
When the visual servo of step S240 has converged (step S250: Y), the
それから、視覚サーボ制御部31は、固定ガイドSG1を生成する(ステップS270)。具体的には、ガイド生成部33は、工程2の教示データに含まれるガイドデータから、固定ガイドSG1のガイド位置を取得する。また、ガイド生成部33は、取得したガイド位置に基づいて、ステップS260で取得した撮像画像上に、固定ガイドSG1を生成する(図10(B))。
Then, the visual
それから、視覚サーボ制御部31は、部品W2の特徴を抽出する(ステップS280)。具体的には、特徴抽出部32は、工程2の教示データに含まれるガイドデータから、部品W2の特徴位置を取得する。また、特徴抽出部32は、ステップS260で取得された撮像画像に対して、取得した特徴位置から特定される画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W2の特徴位置と合致する特徴を特定する。なお、特徴位置の合致は、例えば、部品W2の特徴位置を構成する各画素の配置と、抽出した特徴を構成する各画素の配置との一致率(例えば90%以上の一致率)で判断することがきる。このようにして、撮像画像上に、部品W2の特徴位置F2が抽出及び特定される(図10(B))。
Then, the visual
それから、視覚サーボ制御部31は、部品W2に対応するガイドG2を生成する(ステップS290)。具体的には、ガイド生成部33は、工程2の教示データに含まれるガイドデータから、部品W2のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS280で抽出及び特定された部品W2の特徴位置F2を基準に、取得したガイド位置が示す位置に、対象物ガイドG2を設定する。このようにして、撮像画像上に、特徴位置F2を基準として、対象物ガイドG2が設定される(図10(B))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボを実行する(ステップS300)。具体的には、視覚サーボ制御部31は、撮像画像から、生成されたガイド以外の画像情報を削除する。それから、視覚サーボ制御部31は、工程2の教示データに基づいて、固定ガイドSG1(基準位置)に、所定のオフセット距離(基準位置からX方向にmピクセル)で、対象物ガイドG2(基準位置)を一致させるように、視覚サーボを実行する(図10(B))。なお、視覚サーボ制御部31は、対象物ガイドG2が、固定ガイドSG1を基準とするオフセット位置E1から所定距離内に位置しない場合には、制御命令を生成してロボットのアームを動作させる(エンドポイントを移動させる)。一方、視覚サーボ制御部31は、対象物ガイドG2が、オフセット位置E1から所定距離内に位置する場合には、制御命令を生成せずに、工程2の視覚サーボは収束していると判断する(図11(A))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボが収束しているか否かを判定する(ステップS310)。具体的には、視覚サーボ制御部31は、ステップS300において収束していると判断した場合には(ステップS310:Y)、処理をステップS320に進める。一方、ステップS300において収束していないと判断した場合には(ステップS310:N)、処理をステップS260に戻す。
Then, the visual
ステップS300の視覚サーボが収束した場合(ステップS310:Y)、視覚サーボ制御部31は、ロボットの所定の動作を行う(ステップS320)。具体的には、視覚サーボ制御部31は、工程3の教示データに基づいて、対象物ガイドG2(基準位置)が、所定の距離(X方向にnピクセル)移動するように、ロボットのアームを動作させる(図11(B))。ステップS320の処理は、視覚サーボで行ってもよいし、位置制御で行ってもよい。そして、視覚サーボ制御部31は、図9に示すフローチャートの処理を終了する。なお、図9に示すフローチャートの終了後、制御部3は、例えば、位置制御、インピーダンス制御などによりロボット2を制御し、部品W2を部品W1に嵌め込む。
When the visual servo in step S300 converges (step S310: Y), the visual
以上のようにして、撮像画像に対して対象物ガイドと固定ガイドが生成され、これらのガイドを一致させるような視覚サーボが実行される。 As described above, the object guide and the fixed guide are generated for the captured image, and the visual servo is performed so as to match these guides.
図12は、ロボットが行う第二の作業例を示す図である。第二の作業例は、部品W4に形成されているネジ穴にネジW3bを挿入して締める、というものである。ネジW3bの移動及びネジ締めには、ドライバーW3aを使用する。視覚サーボでネジW3bの移動を開始する事前に、ドライバーW3aの磁性を帯びた先端にネジW3aの頭を固定する。なお、ロボット2は、部品又はドライバーW3aをハンド22で把持することで、部品を移動させることができるため、把持動作に関する説明は省略する。
FIG. 12 is a diagram illustrating a second work example performed by the robot. The second work example is to insert and tighten the screw W3b into the screw hole formed in the component W4. A driver W3a is used to move and tighten the screw W3b. Before starting the movement of the screw W3b by visual servo, the head of the screw W3a is fixed to the magnetic tip of the driver W3a. Since the
教示処理は、図6と基本的に同様であるが、固定ガイドの設定(図6のステップS110)が不要である。なお、モデルデータ格納部45には、部品W4のモデルデータと、ドライバーW3aにネジW3bが固定された状態(以下、「部品W3」と呼ぶ。)のモデルデータが予め格納されている。
The teaching process is basically the same as that shown in FIG. 6, but the setting of the fixed guide (step S110 in FIG. 6) is not necessary. The model
まず、ガイド設定部42は、ユーザーから入力部40を介して、モデルデータ格納部45に格納されているモデルデータの中から、作業に必要な各部品(部品W3、部品W4)のモデルデータの選択を受け付ける。
First, the
また、ガイド設定部42は、選択された各モデルデータに対して、特徴位置を抽出する所定の画像処理を実行し、特徴位置を抽出する。なお、ガイド設定部42は、各モデルデータに対して、使用する画像処理アルゴリズムの選択及び設定を、ユーザーから受け付けるようにしてもよい。また、ガイド設定部42は、モデルデータとともに抽出した特徴位置を示す画像を、表示部41に表示させる。例えば、図13(A)(部品W3に設定されるガイドの一例を示す図)に示すように、部品W3のモデルデータW3とともに、抽出された特徴位置F3(破線で示す。)が表示される。また、例えば、図13(B)(部品W4に設定されるガイドの一例を示す図)に示すように、部品W4のモデルデータW4とともに、抽出された特徴位置F4(破線で示す。)が表示される。
In addition, the
また、ガイド設定部42は、表示されている画像に対して、ガイド位置の指定を、ユーザーから入力部40を介して受け付ける。例えば、図13(A)では、部品W3のネジの先端部分に対応させてガイドG3が設定されている。また、例えば、図13(B)では、部品W4のネジ穴に対応させてガイドG4が設定されている。
In addition, the
ガイド設定部42は、モデルデータに対するガイド位置(基準位置、方向成分)が指定されると、指定されたガイド位置の基準位置を、抽出された特徴位置に対する相対位置を示す情報に変換する。そして、ガイド設定部42は、当該対象物ガイドに対して割り当てたID又はユーザーから指定されたIDと、ガイド位置(変換された基準位置、方向成分)と、抽出された特徴位置(特徴位置を特定する情報、当該特徴位置を抽出するために使用される画像処理アルゴリズムに関する情報)とを関連付けたレコードを、ガイドデータ格納部46の対象物ガイドデータに追加する。
When the guide position (reference position, direction component) with respect to the model data is designated, the
それから、教示データ生成部43は、第二の作業例を実現するロボット2の各工程の設定を、ユーザーから入力部40を介して受け付ける。教示データ生成部43は、例えば下記のように、ガイドの指定及びガイドを目標位置に移動させる命令を含む教示を受け付け、工程番号471と教示内容472として、教示データ格納部47の教示データに追加する。
工程1:対象物ガイドG4(基準位置)に、所定のオフセット距離(基準位置からZ方向にmピクセル)で、対象物ガイドG3(基準位置)を一致させる。
工程2:対象物ガイドG3(基準位置)を、所定の距離(Z方向にnピクセル)移動する。
なお、工程2は、部品W3の部品W4に対するネジ締め動作の準備動作である。
Then, the teaching
Step 1: Match the object guide G3 (reference position) with the object guide G4 (reference position) at a predetermined offset distance (m pixels from the reference position in the Z direction).
Step 2: Move the object guide G3 (reference position) by a predetermined distance (n pixels in the Z direction).
また、教示データ生成部43は、各工程の教示内容472に、当該教示内容で指定されているガイド(対象物ガイドG3、対象物ガイドG4)のガイドデータを設定する。
In addition, the teaching
それから、教示データ送信部44は、生成された教示データを、ロボット2に送信する。
Then, the teaching
図14は、第二の作業例における視覚サーボ処理の一例を示すフロー図である。図15(第二の作業例における視覚サーボの経過を視覚的に説明する図(その1))、及び図16(第二の作業例における視覚サーボの経過を視覚的に説明する図(その2))を参照しながら説明する。なお、説明を分かり易くするため、図15及び図16では、ロボット2のハンド22等は省略している。
FIG. 14 is a flowchart showing an example of visual servo processing in the second work example. FIG. 15 (a diagram for visually explaining the progress of visual servo in the second work example (part 1)) and FIG. 16 (a diagram for visually explaining the progress of visual servo in the second work example (part 2) )) To explain. For easy understanding, the
教示装置4から送信された教示データは、教示データ受信部30により受信され、教示データ格納部35に格納されているものとする。視覚サーボ制御部31は、教示データの各工程の教示内容に基づいて、ロボット2の動作を制御する。なお、ステップS400〜S470は、上述の「工程1」に対応する。また、ステップS480は、上述の「工程2」に対応する。
It is assumed that the teaching data transmitted from the
まず、画像取得部34は、撮像装置5を制御して撮像を行わせ、撮像画像を取得する(ステップS400)。
First, the
それから、視覚サーボ制御部31は、部品W4の特徴を抽出する(ステップS410)。具体的には、特徴抽出部32は、工程1の教示データに含まれるガイドデータから、部品W4の特徴位置を取得する。また、特徴抽出部32は、ステップS400で取得された撮像画像に対して、取得した特徴位置から特定される画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W4の特徴位置と合致する特徴位置を特定する。このようにして、撮像画像上に、部品W4の特徴位置F4が抽出される(図15(A))。
Then, the visual
それから、視覚サーボ制御部31は、部品W4に対応するガイドG4を生成する(ステップS420)。具体的には、ガイド生成部33は、工程1の教示データに含まれるガイドデータから、部品W4のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS410で抽出及び特定された部品W4の特徴位置F4を基準に、取得したガイド位置が示す位置に、対象物ガイドG4を設定する。このようにして、撮像画像上に、特徴位置F4を基準として、対象物ガイドG4が設定される(図15(A))。
Then, the visual
それから、視覚サーボ制御部31は、部品W3の特徴を抽出する(ステップS430)。具体的には、特徴抽出部32は、工程1の教示データに含まれるガイドデータから、部品W3の特徴位置を取得する。また、特徴抽出部32は、ステップS400で取得された撮像画像に対して、取得した特徴位置から特定される画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W3の特徴位置と合致する特徴位置を特定する。このようにして、撮像画像上に、部品W3の特徴位置F3が抽出される(図15(B))。
Then, the visual
それから、視覚サーボ制御部31は、部品W3に対応するガイドG3を生成する(ステップS440)。具体的には、ガイド生成部33は、工程1の教示データに含まれるガイドデータから、部品W3のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS430で抽出及び特定された部品W3の特徴位置F3を基準に、取得したガイド位置が示す位置に、対象物ガイドG3を設定する。このようにして、撮像画像上に、特徴位置F3を基準として、対象物ガイドG3が設定される(図15(B))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボを実行する(ステップS460)。具体的には、視覚サーボ制御部31は、撮像画像から、生成されたガイド以外の画像情報を削除する。それから、視覚サーボ制御部31は、工程1の教示データに基づいて、対象物ガイドG4(基準位置)に、所定のオフセット距離(基準位置からZ方向にmピクセル)で、対象物ガイドG3(基準位置)を一致させるように、視覚サーボを実行する(図15(B))。なお、視覚サーボ制御部31は、対象物ガイドG3が、対象物ガイドG4を基準とするオフセット位置E4から所定距離内に位置しない場合には、制御命令を生成してロボットのアームを動作させる(エンドポイントを移動させる)。一方、視覚サーボ制御部31は、対象物ガイドG3が、オフセット位置E4から所定距離内に位置する場合には、制御命令を生成せずに、工程1の視覚サーボは収束していると判断する(図16(A))。
Then, the visual
それから、視覚サーボ制御部31は、視覚サーボが収束しているか否かを判定する(ステップS470)。具体的には、視覚サーボ制御部31は、ステップS460において収束していると判断した場合には(ステップS470:Y)、処理をステップS480に進める。一方、ステップS460において収束していないと判断した場合には(ステップS470:N)、処理をステップS400に戻す。
Then, the visual
ステップS460の視覚サーボが収束した場合(ステップS470:Y)、視覚サーボ制御部31は、ロボットの所定の動作を行う(ステップS480)。具体的には、視覚サーボ制御部31は、工程2の教示データに基づいて、対象物ガイドG3(基準位置)を、所定の距離(Z方向にnピクセル)移動するように、ロボットのアームを動作させる(図16(B))。そして、視覚サーボ制御部31は、図14に示すフローチャートの処理を終了する。なお、図14に示すフローチャートの終了後、制御部3は、例えば、位置制御、インピーダンス制御などによりロボット2を制御するとともに、ハンド22を回転させるか、またはドライバーW3aの押し付け動作によってネジ締めを行うことができる場合にはハンド22を押し付け、ネジW3bを部品W4に取り付ける。
When the visual servo in step S460 converges (step S470: Y), the visual
以上のようにして、撮像画像に対して複数の対象物ガイドが生成され、これらのガイドを一致させるような視覚サーボが実行される。 As described above, a plurality of object guides are generated for the captured image, and visual servoing is performed to match these guides.
本実施形態によれば、撮像画像(現在画像)に対してガイドが二つ生成され、これらのガイドを用いて視覚サーボ制御が実行される。目標画像と現在画像の二つの画像の差異を評価する必要がないため、明るさなどの作業環境が変化する場合であっても、精度が高く安定した視覚サーボを実現することができる。 According to the present embodiment, two guides are generated for the captured image (current image), and visual servo control is executed using these guides. Since there is no need to evaluate the difference between the target image and the current image, it is possible to realize a highly accurate and stable visual servo even when the work environment such as brightness changes.
また、本実施形態によれば、特徴を抽出するための画像処理アルゴリズムが、作業環境に応じてユーザーにより設定される。また、当該設定された画像処理アルゴリズムによりガイドが設定される。これにより、目標画像と現在画像の差異を精度よく評価できないような作業環境であっても、ガイドを精度よく生成できるため、作業環境に影響されない安定した視覚サーボを実現できる。 Further, according to the present embodiment, an image processing algorithm for extracting features is set by the user according to the work environment. Further, the guide is set by the set image processing algorithm. As a result, even in a work environment where the difference between the target image and the current image cannot be evaluated with high accuracy, the guide can be generated with high accuracy, so that stable visual servoing that is not affected by the work environment can be realized.
また、本実施形態によれば、撮像画像(現在画像)に対して目標位置であるガイドが生成されるため、予め目標画像を用意しておく必要がない。そのため、より簡単に精度が高い安定した視覚サーボを実現することができる。 In addition, according to the present embodiment, since a guide that is a target position is generated for a captured image (current image), it is not necessary to prepare a target image in advance. Therefore, a stable visual servo with high accuracy can be realized more easily.
また、本実施形態では、固定ガイドは、撮像範囲に対して所定位置に生成されるため、撮像装置の配置や撮像方向の変化に影響されない。また、撮像画像から特徴を抽出するような画像処理が必要なくなるため、処理負荷が軽減される。さらに、撮像装置の配置及び撮像方向に対して、ロボットの機械的な精度が高い姿勢(例えば、自重によるアームのたわみの影響が小さい)を取り得る空間的範囲が分かる場合には、その範囲内に目標位置であるガイド(固定ガイド又は対象物ガイド)を設定することで、簡単に精度が高い安定したロボット動作を実現できる。 Further, in the present embodiment, the fixed guide is generated at a predetermined position with respect to the imaging range, and thus is not affected by the arrangement of the imaging device or the change in the imaging direction. Further, the processing load is reduced because image processing for extracting features from the captured image is not necessary. Furthermore, if a spatial range in which the posture of the robot with high mechanical accuracy (for example, the influence of deflection of the arm due to its own weight is small) can be taken with respect to the arrangement and imaging direction of the imaging device, By setting a guide (fixed guide or object guide) that is a target position, a stable robot operation with high accuracy can be realized easily.
<本発明の実施形態の変形例>
次に、上記の実施形態の視覚サーボ処理の変形例について説明する。なお、変形例の記載にあたっては、上記の実施形態と同一の構成、処理については同一の符号を付し、その説明を省略する。
<Modification of Embodiment of the Present Invention>
Next, a modified example of the visual servo process of the above embodiment will be described. In the description of the modification, the same configurations and processes as those in the above embodiment are denoted by the same reference numerals, and the description thereof is omitted.
本変形例では、一つの作業対象物について、特徴位置を抽出する画像処理アルゴリズムを複数設定可能とする。また、それぞれの画像処理アルゴリズムについて、ガイド位置を設定可能とする。また、ある画像処理アルゴリズムを用いた特徴位置の抽出及び特定に失敗した場合に、他の画像処理アルゴリズムを用いる。 In this modification, it is possible to set a plurality of image processing algorithms for extracting feature positions for one work object. In addition, the guide position can be set for each image processing algorithm. In addition, when extraction and identification of a feature position using a certain image processing algorithm fails, another image processing algorithm is used.
以下、図17〜図21を参照して、ロボット2が行う第二の作業例に基づいて説明する。なお、モデルデータ格納部45には、部品W4のモデルデータと、ドライバーW3aにネジW3bが固定された状態(以下、「部品W3」と呼ぶ。)のモデルデータが予め格納されている。また、部品W3およびそのモデルデータには、特徴抽出に使用されるマーカーが付されているものとする。
Hereinafter, with reference to FIGS. 17 to 21, a description will be given based on a second working example performed by the
ガイド設定部42は、ユーザーにより選択されたモデルデータに対して、使用する複数の画像処理アルゴリズムの選択及び設定を、ユーザーから受け付ける。また、ガイド設定部42は、それぞれの画像処理アルゴリズムについて、モデルデータとともに抽出した特徴位置を示す画像を、表示部41に表示させる。また、ガイド設定部42は、それぞれの画像処理アルゴリズムについて、表示されている画像に対して、ガイド位置の指定を、ユーザーから入力部40を介して受け付ける。
The
例えば、図17(A1)では、ガイド設定部42は、部品W3のモデルデータに対して、予めモデルデータ格納部45に格納されているネジW3bのモデルデータにより、マッチングを行い、ネジW3bの特徴位置F3a(破線で示す。)を抽出する。また、ガイド設定部42は、特徴位置F3aに対応するガイドG3a(X印で示す。)の指定をユーザーから受け付ける。本図では、部品W3のネジの先端部分に対応させてガイドG3aが設定されている。
For example, in FIG. 17A1, the
また、例えば、図17(A2)では、ガイド設定部42は、部品W3のモデルデータに対して、エッジ検出などの画像処理を行い、特徴位置F3b(破線で示す。)を抽出する。また、ガイド設定部42は、特徴位置F3bに対応するガイドG3b(X印で示す。)の指定をユーザーから受け付ける。本図では、部品W3のネジの先端部分に対応させてガイドG3bが設定されている。
For example, in FIG. 17A2, the
また、例えば、図17(A3)では、ガイド設定部42は、部品W3のモデルデータに対して、マーカーを検出する画像処理(例えば、マーカーの色を検出する)を行い、特徴位置F3c(破線で示す。)を抽出する。また、ガイド設定部42は、特徴位置F3cに対応するガイドG3c(X印で示す。)の指定をユーザーから受け付ける。本図では、ガイドG3cは、マーカー上に設定されている。
Further, for example, in FIG. 17A3, the
例えば、図18(A1)では、ガイド設定部42は、部品W4のモデルデータに対して、予めモデルデータ格納部45に格納されているネジ穴のモデルデータにより、マッチングを行い、ネジ穴の特徴位置F4a(破線で示す。)として抽出する。また、ガイド設定部42は、特徴位置F4aに対してガイドG4a(X印で示す。)の指定をユーザーから受け付ける。本図では、部品W4のネジ穴に対応させてガイドG4aが設定されている。
For example, in FIG. 18A1, the
また、例えば、図18(A2)では、ガイド設定部42は、部品W4のモデルデータに対して、エッジ検出などの画像処理を行い、特徴位置F4b(破線で示す。)を抽出する。また、ガイド設定部42は、特徴位置F4bに対してガイドG4b(X印で示す。)の指定をユーザーから受け付ける。本図では、部品W4のネジ穴に対応させてガイドG4bが設定されている。
For example, in FIG. 18A2, the
また、例えば、図18(A3)では、ガイド設定部42は、部品W4のモデルデータに対して、図18(A2)の場合とは異なるエッジ検出などの画像処理を行い、特徴位置F4c(破線で示す。)を抽出する。また、ガイド設定部42は、特徴位置F4cに対してガイドG4c(X印で示す。)の指定をユーザーから受け付ける。本図では、ガイドG4cは、部品W4のネジ穴から、一定距離離れた位置に設定されている。
Also, for example, in FIG. 18 (A3), the
ガイド設定部42は、モデルデータに対するガイド位置(基準位置、方向成分)が指定されると、指定されたガイド位置の基準位置を、抽出された特徴位置に対する相対位置を示す情報に変換する。そして、ガイド設定部42は、当該対象物ガイドに対して割り当てたID又はユーザーから指定されたIDと、ガイド位置(変換された基準位置、方向成分)と、抽出された特徴位置(特徴位置を特定する情報、当該特徴位置を抽出するために使用される画像処理アルゴリズムに関する情報)とを関連付けたレコードを、ガイドデータ格納部46の対象物ガイドデータに追加する。このようにして、一つの対象物について、画像処理アルゴリズムが異なる複数の対象物ガイドが設定される。
When the guide position (reference position, direction component) with respect to the model data is designated, the
また、ガイド設定部42は、各対象物に設定される複数種類の対象物ガイドについて、使用する優先順位の指定をユーザーから受け付け、ガイドデータとともに格納する。例えば、部品W3のガイドについては、図17(A1)、(A2)、(A3)の順で優先順位が指定される。また、例えば、部品W4のガイドについては、図18(A1)、(A2)、(A3)の順で優先順位が指定される。
In addition, the
教示データ生成部43は、第二の作業例を実現するロボット2の各工程の設定を、ユーザーから入力部40を介して受け付ける。教示データ生成部43は、上述した第二作業例の工程と同様の教示を受け付け、工程番号471と教示内容472として、教示データ格納部47の教示データに追加する。
The teaching
また、教示データ生成部43は、各工程の教示内容472に、当該教示内容で指定されているガイド(対象物ガイドG3a、G3b、G3c、対象物ガイドG4a、G4b、G4c)のガイドデータを設定する。また、教示データ生成部43は、各工程の教示内容に472に、各対象物ガイドの優先順位を設定する。
In addition, the teaching
また、教示データ生成部43は、複数のガイドを用いた視覚サーボの目標条件の設定を、ユーザーから入力部40を介して受け付け、教示データに設定する。目標条件は、例えば、対象物ガイドG3a、G3b、及びG3cのいずれかと、対象物ガイドG4a、G4b、及びG4cのいずれかの組み合わせである。組み合わせを複数設定できるようにしてもよい。
In addition, the teaching
それから、教示データ送信部44は、生成された教示データを、ロボット2に送信する。
Then, the teaching
図19は、第二の作業例における視覚サーボ処理の変形例を示すフロー図である。図20(第二の作業例における視覚サーボの変形例の経過を視覚的に説明する図(その1))、及び図21(第二の作業例における視覚サーボの変形例の経過を視覚的に説明する図(その2))を参照しながら説明する。なお、説明を分かり易くするため、図20及び図21では、ロボット2のハンド22等は省略している。
FIG. 19 is a flowchart showing a modification of the visual servo process in the second work example. FIG. 20 (a diagram for visually explaining the progress of the visual servo modification in the second work example (part 1)) and FIG. 21 (the visual progress of the visual servo modification in the second work example) This will be described with reference to the diagram (part 2) to be described. For ease of explanation, the
なお、ステップS500〜S630は、上述の「工程1」に対応する。また、ステップS640は、上述の「工程2」に対応する。
Steps S500 to S630 correspond to the above-mentioned “
まず、画像取得部34は、撮像装置5を制御して撮像を行わせ、撮像画像を取得する(ステップS500)。
First, the
それから、視覚サーボ制御部31は、部品W4から抽出する特徴を選択する(ステップS510)。具体的には、特徴抽出部32は、工程1の教示データに含まれる部品W4の複数のガイドデータから、指定された優先順位に従って、未選択のガイドデータを選択する。なお、優先順位は、例えば、図18(A1)、(A2)、(A3)の順で指定されている。
Then, the visual
それから、視覚サーボ制御部31は、部品W4の特徴を抽出する(ステップS520)。具体的には、特徴抽出部32は、ステップS510で選択した部品W4のガイドデータから、部品W4の特徴位置を取得する。また、特徴抽出部32は、ステップS500で取得された撮像画像に対して、取得した特徴位置で指定されている画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W4の特徴位置と合致する特徴位置を特定する。
Then, the visual
ここで、ステップS520の処理では、照明の明るさや、部品W3及び部品W4の位置関係などの作業環境によって、部品W4の特徴位置が特定できないことがある。例えば、図20(A)に示すように、部品W4のネジ穴が部品W3により隠れている場合、上述した図18(A1)の特徴位置F4aや、図18(A2)の特徴位置F4bを抽出及び特定することができない。 Here, in the process of step S520, the feature position of the part W4 may not be specified depending on the work environment such as the brightness of illumination and the positional relationship between the part W3 and the part W4. For example, as shown in FIG. 20A, when the screw hole of the component W4 is hidden by the component W3, the feature position F4a in FIG. 18A1 and the feature position F4b in FIG. 18A2 are extracted. And cannot be specified.
それから、視覚サーボ制御部31は、対象物W4の特徴抽出に成功したか否かを判定する(ステップS530)。すなわち、特徴抽出部32は、ステップS520の結果に基づいて、ステップS510で選択した部品W4の特徴位置の抽出及び特定に成功したか否かを判定する。
Then, the visual
部品W4の特徴位置の抽出に失敗した場合(ステップS530:N)、視覚サーボ制御部31は、他に部品W4の特徴があるか否かを判定する(ステップS540)。具体的には、特徴抽出部32は、工程1の教示データに含まれる部品W4の複数のガイドデータに、未選択のガイドデータがあるか否かを判定する。
If extraction of the feature position of the part W4 fails (step S530: N), the visual
未選択の特徴がない場合(ステップS540:N)、視覚サーボ制御部31は、図19に示すフローチャートの処理を終了する。未選択の特徴がある場合(ステップS540:Y)、視覚サーボ制御部31は、処理をステップS510に戻す。
If there is no unselected feature (step S540: N), the visual
一方、部品W4の特徴位置の抽出に成功した場合(ステップS530:Y)、視覚サーボ制御部31は、部品W4に対応するガイドG4を生成する(ステップS550)。具体的には、ガイド生成部33は、ステップS510で最後に選択した部品W4のガイドデータから、部品W4のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS520で最後に抽出及び特定された部品W4の特徴位置F4を基準に、取得したガイド位置が示す位置に、対象物ガイドG4を設定する。このようにして、撮像画像上に、選択された特徴位置F4を基準として、対象物ガイドG4が設定される。
On the other hand, when the feature position of the part W4 is successfully extracted (step S530: Y), the visual
例えば、図20(B)では、図18(A1)の特徴位置F4aや、図18(A2)の特徴位置F4bの代わりに、図18(A3)の特徴位置F4cが特定され、当該特徴位置に対応するガイドG4cが設定された場合を示している。 For example, in FIG. 20B, the feature position F4c in FIG. 18A3 is specified instead of the feature position F4a in FIG. 18A1 and the feature position F4b in FIG. The case where the corresponding guide G4c is set is shown.
それから、視覚サーボ制御部31は、部品W3から抽出する特徴を決定する(ステップS560)。具体的には、特徴抽出部32は、工程1の教示データに含まれる部品W3の複数のガイドデータから、指定された優先順位に従って、未選択のガイドデータを決定する。なお、優先順位は、例えば、図17(A1)、(A2)、(A3)の順で指定されている。
Then, the visual
それから、視覚サーボ制御部31は、部品W3の特徴を抽出する(ステップS570)。具体的には、特徴抽出部32は、ステップS560で選択した部品W3のガイドデータから、部品W3の特徴位置を取得する。また、特徴抽出部32は、ステップS500で取得された撮像画像に対して、取得した特徴位置で指定されている画像処理アルゴリズムを実行し、特徴を抽出する。また、特徴抽出部32は、抽出した特徴の中から、取得した部品W3の特徴位置と合致する特徴位置を特定する。
Then, the visual
ここで、ステップS570の処理では、照明の明るさや、部品W3及び部品W4の位置関係などの作業環境によって、部品W3の特徴位置が特定できないことがある。 Here, in the process of step S570, the characteristic position of the part W3 may not be specified depending on the work environment such as the brightness of illumination and the positional relationship between the part W3 and the part W4.
それから、視覚サーボ制御部31は、対象物W3の特徴抽出に成功したか否かを判定する(ステップS580)。すなわち、特徴抽出部32は、ステップS570の結果に基づいて、ステップS560で選択した部品W3の特徴位置の抽出及び特定に成功したか否かを判定する。
Then, the visual
部品W3の特徴位置の抽出に失敗した場合(ステップS580:N)、視覚サーボ制御部31は、他に部品W3の特徴があるか否かを判定する(ステップS590)。具体的には、特徴抽出部32は、工程1の教示データに含まれる部品W3の複数のガイドデータに、未選択のガイドデータがあるか否かを判定する。
If extraction of the feature position of the part W3 fails (step S580: N), the visual
未選択の特徴がない場合(ステップS590:N)、視覚サーボ制御部31は、図19に示すフローチャートの処理を終了する。未選択の特徴がある場合(ステップS590:Y)、視覚サーボ制御部31は、処理をステップS560に戻す。
When there is no unselected feature (step S590: N), the visual
一方、部品W3の特徴位置の抽出に成功した場合(ステップS580:Y)、視覚サーボ制御部31は、部品W3に対応するガイドG3を生成する(ステップS600)。具体的には、ガイド生成部33は、ステップS560で最後に選択した部品W3のガイドデータから、部品W3のガイド位置(特徴位置に対する相対位置を示す。)を取得する。また、ガイド生成部33は、ステップS570で最後に抽出及び特定された部品W3の特徴位置F3を基準に、取得したガイド位置が示す位置に、対象物ガイドG3を設定する。このようにして、撮像画像上に、選択された特徴位置F3を基準として、対象物ガイドG3が設定される。
On the other hand, if the feature position of the part W3 is successfully extracted (step S580: Y), the visual
例えば、図21(A)では、図17(A1)の特徴位置F3aや、図17(A2)の特徴位置F3bの代わりに、図17(A3)の特徴位置F3cが特定され、当該特徴位置に対応するガイドG3cが設定された場合を示している。 For example, in FIG. 21A, the feature position F3c in FIG. 17A3 is specified in place of the feature position F3a in FIG. 17A1 and the feature position F3b in FIG. The case where the corresponding guide G3c is set is shown.
それから、視覚サーボ制御部31は、視覚サーボを実行する(ステップS610)。具体的には、視覚サーボ制御部31は、撮像画像から、生成されたガイド以外の画像情報を削除する。それから、視覚サーボ制御部31は、工程1の教示データに基づいて、対象物ガイドG4(基準位置)に、所定のオフセット距離(基準位置からZ方向にmピクセル)で、対象物ガイドG3(基準位置)を一致させるように、視覚サーボを実行する。なお、対象物ガイドG4は、ステップS550で最後に生成されたものであり、対象物ガイドG3は、ステップS600で最後に生成されたものである。視覚サーボ制御部31は、対象物ガイドG3が、対象物ガイドG4を基準とするオフセット位置から所定距離内に位置しない場合には、制御命令を生成してロボットのアームを動作させる(エンドポイントを移動させる)。一方、視覚サーボ制御部31は、対象物ガイドG3が、オフセット位置から所定距離内に位置する場合には、制御命令を生成せずに、工程1の視覚サーボは収束していると判断する。
Then, the visual
例えば、図21(A)では、図18(A3)のガイドG4cからの所定のオフセット位置E4cに、図17(A3)のガイドG3cを一致させる場合を示している。また、図21(B)では、ガイドG3cがガイドG4cを基準とするオフセット位置E4cに収束した場合を示している。 For example, FIG. 21A shows a case where the guide G3c in FIG. 17A3 is made to coincide with a predetermined offset position E4c from the guide G4c in FIG. 18A3. FIG. 21B shows a case where the guide G3c converges to an offset position E4c with reference to the guide G4c.
それから、視覚サーボ制御部31は、視覚サーボが収束しているか否かを判定する(ステップS620)。具体的には、視覚サーボ制御部31は、ステップS610において収束していると判断した場合には(ステップS620:Y)、処理をステップS630に進める。一方、ステップS610において収束していないと判断した場合には(ステップS620:N)、処理をステップS500に戻す。
Then, the visual
ステップS610の視覚サーボが収束した場合(ステップS620:Y)、視覚サーボ制御部31は、視覚サーボが目標条件を満たしているか否かを判定する(ステップS630)。具体的には、視覚サーボ制御部31は、例えば、ステップS610で最後に使用したガイドG4とガイドG3の組み合わせが、教示データで指定されている対象物ガイドの組み合わせと同じであるか否かを判定する。使用した対象物ガイドの組み合わせが指定された対象物ガイドの組み合わせと異なる場合(ステップS630:N)、視覚サーボ制御部31は、処理をステップS500に戻す。
When the visual servo in step S610 has converged (step S620: Y), the visual
使用した対象物ガイドの組み合わせが指定された対象物ガイドの組み合わせと同じである場合(ステップS630:Y)、視覚サーボ制御部31は、ロボットの所定の動作を行う(ステップS640)。具体的には、視覚サーボ制御部31は、工程2の教示データに基づいて、対象物ガイドG3(基準位置)を、所定の距離(Z方向にnピクセル)移動するように、ロボットのアームを動作させる(図16(B))。なお、対象物ガイドG3は、ステップS600で最後に生成されたものである。そして、視覚サーボ制御部31は、図19に示すフローチャートの処理を終了する。なお、図19に示すフローチャートの終了後、制御部3は、例えば、位置制御、インピーダンス制御などによりロボット2を制御するとともに、ハンド22を回転させるか、またはドライバーW3aの押し付け動作によってネジ締めを行うことができる場合にはハンド22を押し付け、ネジW3bを部品W4に取り付ける。
When the combination of the used object guides is the same as the specified object guide combination (step S630: Y), the visual
以上のようにして、ガイドの設定に失敗した場合には、他のガイドが設定され、視覚サーボが実行される。 As described above, when the guide setting fails, another guide is set and the visual servo is executed.
上記の実施形態の変形例によれば、特徴を抽出するための画像処理アルゴリズムが、作業環境に応じてユーザーにより複数設定される。また、ある画像処理アルゴリズムによりガイドの設定に失敗しても、他の画像処理アルゴリズムによりガイドが設定される。これにより、作業環境が変化することによってガイドが生成できなくなることを防ぎ、視覚サーボを継続することができる。また、作業環境に影響されない安定した視覚サーボを実現できる。 According to the modification of the above embodiment, a plurality of image processing algorithms for extracting features are set by the user according to the work environment. Further, even if the guide setting fails due to an image processing algorithm, the guide is set according to another image processing algorithm. Thus, it is possible to prevent the guide from being generated due to a change in the work environment, and to continue the visual servoing. In addition, a stable visual servo that is not affected by the work environment can be realized.
なお、上記の実施形態の変形例では、部品W3と部品W4の両方にそれぞれ複数のガイドを用意しているが、一方の部品には一つのガイドを用意するようにしてもよい。また、上記の実施形態の変形例は、第二の作業例に限られず、第一の作業例についても同様に適用できる。すなわち、部品W1及び部品W2の少なくとも一方に対して複数のガイドを用意し、あるガイドデータに基づく特徴抽出に失敗した場合に他のガイドデータに基づく特徴抽出を行うようにすればよい。また、対象物ガイドG1と固定ガイドSG1に基づく視覚サーボの目標条件と、対象物ガイドG2と固定ガイドSG1に基づく視覚サーボの目標条件とをそれぞれ設定し、それぞれの視覚サーボの収束判定の直後に目標条件の判定を行うようにすればよい。 In the modification of the above embodiment, a plurality of guides are prepared for both the component W3 and the component W4. However, one guide may be prepared for one component. Moreover, the modification of said embodiment is not restricted to a 2nd operation example, It can apply similarly also to a 1st operation example. That is, a plurality of guides may be prepared for at least one of the parts W1 and W2, and when feature extraction based on certain guide data fails, feature extraction based on other guide data may be performed. In addition, a visual servo target condition based on the object guide G1 and the fixed guide SG1 and a visual servo target condition based on the object guide G2 and the fixed guide SG1 are set, respectively, immediately after the convergence determination of each visual servo. The target condition may be determined.
<その他の変形例>
上記の実施形態及びその変形例では、ガイド設定部42は、所定の画像処理アルゴリズム(ユーザーにより指定されてもよい。)により抽出される特徴位置に対して、一つガイド位置を設定している。しかし、ガイド設定部42は、抽出された特徴位置(例えば、エッジなど)を表示部41に表示し、抽出された特徴位置の中から任意の特徴位置(例えば、抽出されたエッジの一部など)の指定を、ユーザーから入力部40を介して受け付けてもよい。そして、ガイド設定部42は、指定された特徴位置に対して、ガイド位置の指定を受け付け、ガイドデータを生成するようにしてもよい。この場合、ガイドデータには、ガイド位置(変換された基準位置、方向成分)と、ユーザーにより指定された特徴位置(特徴位置を特定する情報、当該特徴位置を抽出するために使用される画像処理アルゴリズムに関する情報)とが含まれる。もちろん、抽出された特徴位置の中から、任意の複数の特徴位置を受け付け、それぞれの指定された特徴位置に対してガイド位置の指定を受け付けるようにしてもよい。このようにすることで、特徴位置およびガイドの設定の柔軟性を高めることができる。
<Other variations>
In the above-described embodiment and its modifications, the
図示した各フローチャートの各処理単位は、教示装置4及び制御部3の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。教示装置4及び制御部3の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。
Each processing unit in each illustrated flowchart is divided according to main processing contents in order to facilitate understanding of the processing of the
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明の提供の態様にも、様々な態様が取り得る。本発明は、例えば、ロボットと、制御部(制御装置)と、教示装置とを別個に有するロボットシステムとして提供してもよいし、ロボットの制御部に教示装置の機能が含まれるロボットとして提供してもよいし、ロボットと、教示装置の機能を含む制御部(制御装置)とを別個に有するロボットシステムとして提供してもよい。また、本発明は、教示方法、教示装置のプログラム、ロボットの制御方法、ロボットの制御プログラム、ロボットシステムの制御方法、プログラムを記憶した記憶媒体などとしても提供することもできる。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. Various aspects of the provided aspects of the invention can also be employed. The present invention may be provided, for example, as a robot system having a robot, a control unit (control device), and a teaching device separately, or as a robot in which the function of the teaching device is included in the control unit of the robot. Alternatively, it may be provided as a robot system having a robot and a control unit (control device) including the function of the teaching device separately. The present invention can also be provided as a teaching method, a teaching device program, a robot control method, a robot control program, a robot system control method, a storage medium storing the program, and the like.
1:ロボットシステム
2:ロボット
3:制御部
4:教示装置
5:撮像装置
9:コンピューター
20:胴部
21:アーム
21a:ジョイント
21b:アーム部材
21c:力覚センサー
22:ハンド
24:脚部
25:頭部
30:教示データ受信部
31:視覚サーボ制御部
32:特徴抽出部
33:ガイド生成部
34:画像取得部
35:教示データ格納部
40:入力部
41:表示部
42:ガイド設定部
43:教示データ生成部
44:教示データ送信部
45:モデルデータ格納部
46:ガイドデータ格納部
47:教示データ格納部
90:演算装置
91:主記憶装置
92:補助記憶装置
93:通信I/F
94:入力装置
95:表示装置
96:読み書き装置
451:ID
452:ガイド位置
453:特徴位置
461:ID
462:ガイド位置
471:工程番号
472:教示内容
E:オフセット位置
F:特徴位置
G:対象物ガイド
SG:固定ガイド
T:作業台
W:ワーク、対象物、部品、モデルデータ
1: Robot system 2: Robot 3: Control unit 4: Teaching device 5: Imaging device 9: Computer 20: Body 21:
94: Input device 95: Display device 96: Read / write device 451: ID
452: Guide position 453: Feature position 461: ID
462: Guide position 471: Process number 472: Teaching content E: Offset position F: Feature position G: Object guide SG: Fixed guide T: Worktable W: Workpiece, object, parts, model data
Claims (15)
第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、
前記第一ガイド及び前記第二ガイドを表示する表示部と、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、
前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部と、
を有することを特徴とする教示装置。 A first guide setting unit for receiving settings of the first guide for the image data of the first object;
A second guide setting unit that receives a setting of the second guide for the image data of the second object;
A display unit for displaying the first guide and the second guide;
A teaching data generation unit that generates teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
A teaching data transmitting unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data;
A teaching device comprising:
前記第一ガイド設定部は、前記第一対象物の画像データの特徴と関連付けて前記第一ガイドの設定を受け付け、
前記第二ガイド設定部は、前記第二対象物の画像データの特徴と関連付けて前記第二ガイドの設定を受け付け、
前記教示データ生成部は、前記第一対象物の画像データの特徴及び前記第一ガイドと、前記第二対象物の画像データの特徴及び前記第二ガイドとを示す教示データを生成する、
ことを特徴とする教示装置。 The teaching device according to claim 1,
The first guide setting unit accepts the setting of the first guide in association with the characteristics of the image data of the first object,
The second guide setting unit accepts the setting of the second guide in association with the characteristics of the image data of the second object,
The teaching data generation unit generates teaching data indicating the characteristics of the image data of the first object and the first guide, and the characteristics of the image data of the second object and the second guide.
A teaching device.
前記第一ガイド設定部は、前記第一対象物の画像データの複数の特徴それぞれと関連付けて複数の前記第一ガイドの設定を受け付け、
前記教示データ生成部は、前記第一対象物の画像データの複数の特徴及び前記複数の第一ガイドを示す教示データを生成する、
ことを特徴とする教示装置。 The teaching device according to claim 2,
The first guide setting unit receives a plurality of settings of the first guide in association with a plurality of features of the image data of the first object,
The teaching data generation unit generates teaching data indicating a plurality of features of the image data of the first object and the plurality of first guides.
A teaching device.
前記第一ガイド設定部は、複数の画像処理のそれぞれを用いて前記第一対象物の画像データの複数の特徴を抽出し、前記抽出された複数の特徴のそれぞれと関連付ける前記複数の第一ガイドの設定を受け付ける、
ことを特徴とする教示装置。 The teaching device according to claim 3,
The first guide setting unit extracts a plurality of features of image data of the first object using each of a plurality of image processes, and associates the plurality of first guides with each of the extracted features. Accept settings for
A teaching device.
前記第一ガイド設定部は、所定の画像処理を用いて前記第一対象物の画像データの特徴を抽出し、前記抽出された特徴から、複数の特徴の指定と前記指定された複数の特徴のそれぞれと関連付ける前記複数の第一ガイドの設定を受け付ける、
ことを特徴とする教示装置。 The teaching device according to claim 3,
The first guide setting unit extracts features of the image data of the first object using predetermined image processing, and specifies a plurality of features and a plurality of the specified features from the extracted features. Accept settings of the plurality of first guides to be associated with each;
A teaching device.
撮像装置の撮像範囲に対して、第二ガイドの設定を受け付ける第二ガイド設定部と、
前記第一ガイド及び前記第二ガイドを表示する表示部と、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、
前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部と、
を有することを特徴とする教示装置。 A first guide setting unit for receiving settings of the first guide for the image data of the first object;
A second guide setting unit that receives the setting of the second guide for the imaging range of the imaging device;
A display unit for displaying the first guide and the second guide;
A teaching data generation unit that generates teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
A teaching data transmitting unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data;
A teaching device comprising:
第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定ステップと、
第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定ステップと、
前記第一ガイド及び前記第二ガイドを表示する表示ステップと、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成ステップと、
前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信ステップと、
を有することを特徴とする教示方法。 A teaching method for a teaching device, comprising:
A first guide setting step for accepting the setting of the first guide for the image data of the first object;
A second guide setting step for accepting the setting of the second guide for the image data of the second object;
A display step for displaying the first guide and the second guide;
A teaching data generation step for generating teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
A teaching data transmission step of transmitting the generated teaching data to a robot that performs visual servoing based on the teaching data;
A teaching method characterized by comprising:
第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、
前記第一ガイド及び前記第二ガイドを表示する表示部と、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、
前記生成された教示データを、当該教示データに基づく視覚サーボを行うロボットに送信する教示データ送信部として、
コンピューターを機能させることを特徴とするプログラム。 A first guide setting unit for receiving settings of the first guide for the image data of the first object;
A second guide setting unit that receives a setting of the second guide for the image data of the second object;
A display unit for displaying the first guide and the second guide;
A teaching data generation unit that generates teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
As a teaching data transmission unit that transmits the generated teaching data to a robot that performs visual servoing based on the teaching data,
A program characterized by operating a computer.
前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、
前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、
を有することを特徴とするロボット。 Teaching data for storing teaching data indicating a predetermined positional relationship between a first guide set for the image data of the first object and a second guide set for the image data of the second object A storage unit;
An image acquisition unit for acquiring a captured image including the first object and the second object;
A first guide generating unit that generates the first guide for the image data of the first object included in the acquired captured image based on the teaching data;
A second guide generating unit that generates the second guide for the image data of the second object included in the acquired captured image based on the teaching data;
A visual servo control unit that performs control based on visual servo so that the generated first guide and the generated second guide have the predetermined positional relationship based on the teaching data;
A robot characterized by comprising:
前記教示データには、前記第一対象物の画像データの特徴と関連付けて前記第一ガイドが示され、また、前記第二対象物の画像データの特徴と関連付けて前記第二ガイドが示され、
前記第一ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データの特徴に関連付けて、前記第一ガイドを生成し、
前記第二ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データの特徴に関連付けて、前記第二ガイドを生成する、
ことを特徴とするロボット。 The robot according to claim 9,
In the teaching data, the first guide is shown in association with the feature of the image data of the first object, and the second guide is shown in association with the feature of the image data of the second object,
The first guide generation unit generates the first guide in association with the characteristics of the image data of the first object included in the acquired captured image based on the teaching data,
The second guide generation unit generates the second guide in association with the feature of the image data of the second object included in the acquired captured image based on the teaching data.
A robot characterized by that.
前記教示データには、前記第一対象物の画像データの複数の特徴それぞれと関連付けて複数の前記第一ガイドが示され、
前記第一ガイド生成部は、前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データの複数の特徴のいずれか一つと関連付けて、前記第一ガイドを生成する、
ことを特徴とするロボット。 The robot according to claim 10,
In the teaching data, a plurality of the first guides are shown in association with a plurality of features of the image data of the first object,
The first guide generation unit generates the first guide in association with any one of a plurality of features of image data of the first object included in the acquired captured image based on the teaching data. To
A robot characterized by that.
前記第一対象物と前記第二対象物とを含む撮像画像を前記撮像装置から取得する画像取得部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、
前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、
を有することを特徴とするロボット。 A teaching data storage unit that stores teaching data indicating a predetermined positional relationship between a first guide set for the image data of the first object and a second guide set for the imaging range of the imaging device When,
An image acquisition unit that acquires a captured image including the first object and the second object from the imaging device;
A first guide generating unit that generates the first guide for the image data of the first object included in the acquired captured image based on the teaching data;
A second guide generating unit that generates the second guide for the image data of the second object included in the acquired captured image based on the teaching data;
A visual servo control unit that performs control based on visual servo so that the generated first guide and the generated second guide have the predetermined positional relationship based on the teaching data;
A robot characterized by comprising:
第一対象物の画像データに対して設定される第一ガイドと、第二対象物の画像データに対して設定される第二ガイドとが、所定の位置関係を示す教示データをする教示データ格納ステップと、
前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得ステップと、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成ステップと、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成ステップと、
前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御ステップと、
を有することを特徴とする制御方法。 A robot control method,
Teaching data storage in which a first guide set for the image data of the first object and a second guide set for the image data of the second object provide teaching data indicating a predetermined positional relationship Steps,
An image acquisition step of acquiring a captured image including the first object and the second object;
A first guide generating step for generating the first guide for the image data of the first object included in the acquired captured image based on the teaching data;
A second guide generating step for generating the second guide for the image data of the second object included in the acquired captured image based on the teaching data;
A visual servo control step for performing control based on visual servo so that the generated first guide and the generated second guide are in the predetermined positional relationship based on the teaching data;
A control method characterized by comprising:
第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定部と、
前記第一ガイド及び前記第二ガイドを表示する表示部と、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成部と、
前記生成された教示データを格納する教示データ格納部と、
前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成部と、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成部と、
前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御部と、
を有することを特徴とするロボットシステム。 A first guide setting unit for receiving settings of the first guide for the image data of the first object;
A second guide setting unit that receives a setting of the second guide for the image data of the second object;
A display unit for displaying the first guide and the second guide;
A teaching data generation unit that generates teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
A teaching data storage unit for storing the generated teaching data;
An image acquisition unit for acquiring a captured image including the first object and the second object;
A first guide generating unit that generates the first guide for the image data of the first object included in the acquired captured image based on the teaching data;
A second guide generating unit that generates the second guide for the image data of the second object included in the acquired captured image based on the teaching data;
A visual servo control unit that performs control based on visual servo so that the generated first guide and the generated second guide have the predetermined positional relationship based on the teaching data;
A robot system characterized by comprising:
第一対象物の画像データに対して、第一ガイドの設定を受け付ける第一ガイド設定ステップと、
第二対象物の画像データに対して、第二ガイドの設定を受け付ける第二ガイド設定ステップと、
前記第一ガイド及び前記第二ガイドを表示する表示ステップと、
前記第一ガイド及び前記第二ガイドが所定の位置関係を示す教示データを生成する教示データ生成ステップと、
前記生成された教示データを格納する教示データ格納ステップと、
前記第一対象物と前記第二対象物とを含む撮像画像を取得する画像取得ステップと、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第一対象物の画像データに対して、前記第一ガイドを生成する第一ガイド生成ステップと、
前記教示データに基づいて、前記取得された撮像画像に含まれる前記第二対象物の画像データに対して、前記第二ガイドを生成する第二ガイド生成ステップと、
前記教示データに基づいて、前記生成された第一ガイドと前記生成された第二ガイドとが、前記所定の位置関係となるように視覚サーボに基づく制御を行う視覚サーボ制御ステップと、
を有することを特徴とする制御方法。 A control method for a robot system,
A first guide setting step for accepting the setting of the first guide for the image data of the first object;
A second guide setting step for accepting the setting of the second guide for the image data of the second object;
A display step for displaying the first guide and the second guide;
A teaching data generation step for generating teaching data in which the first guide and the second guide indicate a predetermined positional relationship;
A teaching data storage step for storing the generated teaching data;
An image acquisition step of acquiring a captured image including the first object and the second object;
A first guide generating step for generating the first guide for the image data of the first object included in the acquired captured image based on the teaching data;
A second guide generating step for generating the second guide for the image data of the second object included in the acquired captured image based on the teaching data;
A visual servo control step for performing control based on visual servo so that the generated first guide and the generated second guide are in the predetermined positional relationship based on the teaching data;
A control method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013230029A JP6326765B2 (en) | 2013-11-06 | 2013-11-06 | Teaching apparatus, robot, robot system, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013230029A JP6326765B2 (en) | 2013-11-06 | 2013-11-06 | Teaching apparatus, robot, robot system, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015089598A true JP2015089598A (en) | 2015-05-11 |
JP6326765B2 JP6326765B2 (en) | 2018-05-23 |
Family
ID=53193364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013230029A Expired - Fee Related JP6326765B2 (en) | 2013-11-06 | 2013-11-06 | Teaching apparatus, robot, robot system, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6326765B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106737665A (en) * | 2016-11-30 | 2017-05-31 | 天津大学 | The mechanical arm control system and implementation method matched based on binocular vision and SIFT feature |
CN107303672A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | The method that common collaboration robot, robot system and common collaboration robot perform operation task |
CN107303674A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | Robot system |
CN107303670A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | Common collaboration robot, robot system and common collaboration robot perform the control method of operation task |
CN108120370A (en) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | Position of mobile robot acquisition methods and device |
JP2020199631A (en) * | 2020-08-28 | 2020-12-17 | 株式会社Fuji | Job creating device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023021703A1 (en) * | 2021-08-20 | 2023-02-23 | ファナック株式会社 | Device for teaching position and posture for robot to grasp workpiece, robot system, and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002018754A (en) * | 2000-07-10 | 2002-01-22 | Toyota Central Res & Dev Lab Inc | Robot device and its control method |
JP2011115877A (en) * | 2009-12-02 | 2011-06-16 | Canon Inc | Double arm robot |
JP2012161850A (en) * | 2011-02-03 | 2012-08-30 | Seiko Epson Corp | Robotic device, device, program and method for detecting position |
JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
JP2013013950A (en) * | 2011-07-01 | 2013-01-24 | Seiko Epson Corp | Robot, robot control device, robot control method and robot control program |
JP2013158847A (en) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | Robot control device, robot control method, robot control program and robot system |
-
2013
- 2013-11-06 JP JP2013230029A patent/JP6326765B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002018754A (en) * | 2000-07-10 | 2002-01-22 | Toyota Central Res & Dev Lab Inc | Robot device and its control method |
JP2011115877A (en) * | 2009-12-02 | 2011-06-16 | Canon Inc | Double arm robot |
JP2012161850A (en) * | 2011-02-03 | 2012-08-30 | Seiko Epson Corp | Robotic device, device, program and method for detecting position |
JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
JP2013013950A (en) * | 2011-07-01 | 2013-01-24 | Seiko Epson Corp | Robot, robot control device, robot control method and robot control program |
JP2013158847A (en) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | Robot control device, robot control method, robot control program and robot system |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107303672A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | The method that common collaboration robot, robot system and common collaboration robot perform operation task |
CN107303674A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | Robot system |
CN107303670A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | Common collaboration robot, robot system and common collaboration robot perform the control method of operation task |
CN108120370A (en) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | Position of mobile robot acquisition methods and device |
CN106737665A (en) * | 2016-11-30 | 2017-05-31 | 天津大学 | The mechanical arm control system and implementation method matched based on binocular vision and SIFT feature |
CN106737665B (en) * | 2016-11-30 | 2019-07-19 | 天津大学 | Based on binocular vision and the matched mechanical arm control system of SIFT feature and implementation method |
JP2020199631A (en) * | 2020-08-28 | 2020-12-17 | 株式会社Fuji | Job creating device |
JP7105281B2 (en) | 2020-08-28 | 2022-07-22 | 株式会社Fuji | work system |
Also Published As
Publication number | Publication date |
---|---|
JP6326765B2 (en) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6326765B2 (en) | Teaching apparatus, robot, robot system, method, and program | |
US11090814B2 (en) | Robot control method | |
JP6361213B2 (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
US10532461B2 (en) | Robot and robot system | |
US20180029232A1 (en) | Control apparatus and robot | |
CN107116565B (en) | Control device, robot, and robot system | |
JP6648469B2 (en) | Robot system and robot controller | |
JP2020075354A (en) | External input device, robot system, control method for robot system, control program, and recording medium | |
JP6445092B2 (en) | Robot system displaying information for teaching robots | |
CN108972538B (en) | Robot control device, robot, and robot system | |
JP2017170571A (en) | Robot, robot control apparatus, and robot system | |
JP2015071206A (en) | Control device, robot, teaching data generation method, and program | |
JP6897396B2 (en) | Control devices, robot systems and control methods | |
JP2015112654A (en) | Control apparatus, robot, teaching data generation method, and robot system | |
TW202122225A (en) | System and method for robotic bin picking using advanced scanning techniques | |
US20180085920A1 (en) | Robot control device, robot, and robot system | |
JP2018144228A (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
JP2015186834A (en) | Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program | |
JP2018122376A (en) | Image processing device, robot control device, and robot | |
JP2017148909A (en) | Control device, robot, and robot system | |
JP2015074061A (en) | Robot control device, robot system, robot, robot control method and robot control program | |
US20230321823A1 (en) | Robot control device, and robot system | |
JP2017159429A (en) | Robot control device, information processing device, and robot system | |
JP2019111588A (en) | Robot system, information processor, and program | |
JP2019042836A (en) | Robot control device, robot, robot system and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160616 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6326765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |