JP2023175331A - ロボット教示方法及びロボット教示装置 - Google Patents
ロボット教示方法及びロボット教示装置 Download PDFInfo
- Publication number
- JP2023175331A JP2023175331A JP2022087726A JP2022087726A JP2023175331A JP 2023175331 A JP2023175331 A JP 2023175331A JP 2022087726 A JP2022087726 A JP 2022087726A JP 2022087726 A JP2022087726 A JP 2022087726A JP 2023175331 A JP2023175331 A JP 2023175331A
- Authority
- JP
- Japan
- Prior art keywords
- teaching
- data
- hand
- robot
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims description 100
- 230000008569 process Effects 0.000 claims description 25
- 238000013500 data storage Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 230000007704 transition Effects 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 abstract description 9
- 238000004088 simulation Methods 0.000 abstract description 2
- 210000003811 finger Anatomy 0.000 description 47
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 17
- 239000003550 marker Substances 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 210000001145 finger joint Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】模擬環境での教示情報に対し動作ロジック追加及び制御パラメータ抽出により生産効率向上が可能なロボット教示方法及び教示装置を提供する。【解決手段】ロボット部3のハンド5に対応した教示用ハンド装置10で動作教示するとき、ロボット部が作業対象物に対して実施しかつ位置あるいは閾値の特徴量及び動作ロジックを設定した時系列の複数の要素動作を有する複数の基本動作から一つを選択し、ハンド装置の時間毎の位置姿勢とハンド装置計測器の時間毎の計測値を教示開始時間を同期させ教示元データとし、教示元データの時間毎の計測値と要素動作の特徴量を時系列に比較し、両者が一致した時間の教示元データを分割し、複数の教示要素元データとして時系列に分割し、各教示要素元データに対し分割時の特徴量を含む要素動作の動作ロジックに従い教示要素元データを修正し教示要素データとして作成し、時系列の複数の教示要素データを要素動作とする教示データを作成する。【選択図】 図1
Description
本発明は、ロボットに動作を教示するためのロボット教示方法及びロボット教示装置に関するものである。
産業用ロボット分野において、ロボットの教示データの作成方法は、ティーチングペンダントを活用したティーチングプレイバック方式が一般的であるが、動作ロジックの設計、プログラム言語の知識、ロボットアームの制御点又は移動経路の設定、動作速度、及び、把持条件の設定など設定すべき項目は多岐にわたり、ロボットシステムが稼働するまで、実機を占有して行う教示作業に多くの工数を要している。
このため、近年、ロボットの教示を効率的に行う手段として、設備を占有することなく、ロボットとその周辺環境を模擬的に再現し、ロボットの動作を教示する模擬環境教示技術が開発されてきている。模擬環境教示技術を用いた場合、工場内で動作するロボットを教示のために占有する必要がなく、生産効率の向上に寄与することが期待されている。
模擬環境教示方法の例として、特許文献1では、現実環境に即した模擬環境での教示を可能としている。特許文献1によれば、模擬環境での教示の失敗を減少することができる。
図14は、特許文献1に記載された従来の教示方法を示す図である。
図14において、ロボット教示装置は、教示者が教示ハンド501を用いて対象物体を把持するためのロボット動作教示を行う。ロボット教示装置は、教示者が直接扱う教示ハンド501と、教示ハンド501を撮像するカメラ502及び教示ハンド501から得られた教示情報からロボット用の動作指示を生成するデータ処理装置503とを有している。
しかしながら、前記従来の構成では、正常動作の教示作業に関わる時間は短縮可能であるが、動作失敗時にも生産を継続するために必要な動作ロジックが無いために、ロボットが停止してしまう。また、力又は時間など調整可能なパラメータとすべき項目が抽出できていないために、作業の失敗が頻発するなど、安定稼働する状態まで仕上げるには多くの修正作業が必要であり、生産効率の向上の効果が不十分という課題を有している。
本発明は、前記従来の課題を解決するもので、模擬環境で取得した教示情報に対して動作ロジックの追加及び制御パラメータの抽出を行うことにより生産効率の向上を図ることが可能なロボット教示方法及びロボット教示装置を提供することを目的とする。
上記目的を達成するために、本発明の1つの態様にかかるロボット教示方法は、
ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に前記ハンドに前記教示用動作を教示する教示用ハンド装置を用いて前記ロボットアームを含むロボット部に動作を教示するロボット教示方法であって、
前記ロボット部が作業対象物に対して実施する複数の基本動作をライブラリとして保存し、
前記基本動作は、前記ハンドの位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有し、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択する工程と、
前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する工程と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割する工程と、
前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する工程と、
時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを作成する工程とを順に実施する。
ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に前記ハンドに前記教示用動作を教示する教示用ハンド装置を用いて前記ロボットアームを含むロボット部に動作を教示するロボット教示方法であって、
前記ロボット部が作業対象物に対して実施する複数の基本動作をライブラリとして保存し、
前記基本動作は、前記ハンドの位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有し、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択する工程と、
前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する工程と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割する工程と、
前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する工程と、
時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを作成する工程とを順に実施する。
本発明の別の態様にかかるロボット教示装置は、
ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に、前記ロボットアームを含むロボット部に動作を教示する教示用ハンド装置と、
前記ロボット部が作業対象物に対して実施しかつ位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有する複数の基本動作を保存するライブラリと、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択するとき、前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置内の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する教示元データ記憶部と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割するとともに、前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する演算部と、
前記演算部にて作成された時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを記憶する教示データ記憶部と、
前記教示データ記憶部に記憶された動作を実行する制御部と、
を備える。
ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に、前記ロボットアームを含むロボット部に動作を教示する教示用ハンド装置と、
前記ロボット部が作業対象物に対して実施しかつ位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有する複数の基本動作を保存するライブラリと、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択するとき、前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置内の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する教示元データ記憶部と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割するとともに、前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する演算部と、
前記演算部にて作成された時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを記憶する教示データ記憶部と、
前記教示データ記憶部に記憶された動作を実行する制御部と、
を備える。
以上のように、本発明の前記態様にかかるロボット教示方法及びロボット教示装置によれば、例えば模擬環境で取得した教示情報に対して動作ロジックの追加及び制御パラメータの抽出を行うことにより生産効率の向上を図ることができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。本実施の形態に記載されている構成部品の寸法、材質、形状、及び、それらの相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。
(全体構成)
「ロボット装置の全体構成」
図1は、本発明の実施の形態におけるロボット装置の全体的な構成を示す模式図である。ロボット装置は、教示を行う教示装置1と、作業を実行するロボット部3と、教示装置1との通信及びロボット部3の制御を行う制御装置2とで構成される。
「ロボット装置の全体構成」
図1は、本発明の実施の形態におけるロボット装置の全体的な構成を示す模式図である。ロボット装置は、教示を行う教示装置1と、作業を実行するロボット部3と、教示装置1との通信及びロボット部3の制御を行う制御装置2とで構成される。
本実施の形態では、一例として、工場の生産ラインに設置されるロボット部3に作業を教示する場合について説明する。ロボット部3のロボットアーム4は先端にハンド5を装着しており、ハンド5を用いて部品6と部品7とを組み合わせて組立品8を完成させる組立作業を行う。本実施の形態におけるロボット教示装置1は、ロボット部3に行わせる作業を、予め人間9が行い、当該人間9が行った作業を基に制御装置2により教示データを作成し、制御装置2による制御を行いながらロボット部3が組立作業を実行する構成になっている。
「教示装置1の構成」
教示装置1は、人間9の右手に装着する教示用ハンド装置10と、教示用ハンド装置10の位置及び姿勢の情報を取得するカメラ11と、部品6及び部品7を認識する教示装置の3Dイメージセンサ12とを備える。
教示装置1は、人間9の右手に装着する教示用ハンド装置10と、教示用ハンド装置10の位置及び姿勢の情報を取得するカメラ11と、部品6及び部品7を認識する教示装置の3Dイメージセンサ12とを備える。
「ロボット部3の構成」
ロボット部3は、ロボットの一例としてのロボットアーム4の先端に装着するハンド5と、ロボットアーム4を制御するロボットコントローラ14と、部品6及び部品7を認識するロボット部3の3Dイメージセンサ13とを備える。
ロボット部3は、ロボットの一例としてのロボットアーム4の先端に装着するハンド5と、ロボットアーム4を制御するロボットコントローラ14と、部品6及び部品7を認識するロボット部3の3Dイメージセンサ13とを備える。
「教示用ハンド装置10の構成」
教示用ハンド装置10の詳細を図2に示す。図2は本発明の実施の形態における教示用ハンド装置10の斜視図である。教示用ハンド装置10は、ロボット部3が実行する動作を教示する教示装置である。教示用ハンド装置10はハンド5に対応した形状又は計測器25、27、30を備えている。ハンド装置10の構成例は、後述するハンド5と同数の指、すなわち、教示用ハンド装置10の第1指21と教示用ハンド装置10の第2指22とを備えており、指の関節の数及び各アームの長さがハンド5と同じとなっている。
教示用ハンド装置10の詳細を図2に示す。図2は本発明の実施の形態における教示用ハンド装置10の斜視図である。教示用ハンド装置10は、ロボット部3が実行する動作を教示する教示装置である。教示用ハンド装置10はハンド5に対応した形状又は計測器25、27、30を備えている。ハンド装置10の構成例は、後述するハンド5と同数の指、すなわち、教示用ハンド装置10の第1指21と教示用ハンド装置10の第2指22とを備えており、指の関節の数及び各アームの長さがハンド5と同じとなっている。
教示用ハンド装置10の上部にはAR(Augmented Reality)マーカー23を備えている。ARマーカー23を、カメラ11で撮像することにより、教示用ハンド装置10の位置と姿勢との計測を行う。
教示用ハンド装置10の第1指21は、回転軸となる関節に教示用ハンド装置10の第1指21のアーム24の回転量を計測する第1指21のエンコーダ25を備えている。教示用ハンド装置10の第2指22は、回転軸となる関節に教示用ハンド装置10の第2指22のアーム26の回転量を計測する第2指22のエンコーダ27を備えている。本発明の実施の形態においては、エンコーダ25、27にはそれぞれ磁気式のエンコーダを用いている。エンコーダ25、27は計測器の一例である。
続いて、図3を用いて教示用ハンド装置10の指先の構成を説明する。なお、教示用ハンド装置10の第1把持部28と、教示用ハンド装置10の第2把持部29との構造は同一であるので教示用ハンド装置10の第2把持部29について説明する。図3は教示用ハンド装置10の把持部29の断面図である。教示用ハンド装置10の第2把持部29は6軸力覚センサ30の下端に連結している。なお、6軸力覚センサ30の上端を固定する把持部支持部材31には、人の指を挿入する空間部31aと、指が接触する内側下面31bとを設けている。6軸力覚センサ30は、図3における上向きをZ軸の正方向、左方向をX軸の正方向、紙面に対して垂直に向かう方向をY軸の正方向としている。
図4は教示用ハンド装置10を手に装着した状態の図である。本実施の形態では、人間9の右手の親指と人差し指とを教示用ハンド装置10の空間部31aまで挿し入れた状態で、バンド32を用いて指の腹を教示用ハンド装置10の把持部支持部材31の内側下面31bに押し付けた状態で拘束する。また、U字状のバンド33により右手の甲と教示用ハンド装置10を密着させる。6軸力覚センサ30は、計測器の別の例であり、例えばMEMS(Micro Electro Mechanical SYSTEMS)を用いた小型の歪ゲージで構成されており、教示用ハンド装置10の第2把持部29に把持力が発生して微小な歪みが発生すると、抵抗が伸長することで抵抗値が変化する。この抵抗に電圧を印加し抵抗値の変化を計測することで把持力を計測することができる。
すなわち、本実施の形態の教示用ハンド装置10は、人の手に装着可能であるとともに、教示用ハンド装置10の第1指21、教示用ハンド装置10の第2指22は人による操作が可能になっているとともに、作業対象物を把持する際の関節の角度及び指先に発生する力を計測器25、27、30で計測する教示用ハンド装置10となっている。
「ハンド5の構成」
ロボットアーム4に装着するハンド5について説明する。図5は、本発明の実施の形態におけるハンド5の斜視図である。ハンド5は、前述した教示用ハンド装置10と同じくハンドの第1指41とハンドの第2指42とを備えており、指の関節の数及び各アームの長さが教示用ハンド装置10と同じとなっている。
ロボットアーム4に装着するハンド5について説明する。図5は、本発明の実施の形態におけるハンド5の斜視図である。ハンド5は、前述した教示用ハンド装置10と同じくハンドの第1指41とハンドの第2指42とを備えており、指の関節の数及び各アームの長さが教示用ハンド装置10と同じとなっている。
また、ハンド5のフランジ43をロボットアーム4の先端に固定する。ハンドの第1指41は、ハンドの第1指41のアーム44を回動させる駆動装置となる第1指41のサーボモータ45を備えている。ハンドの第2指42のアーム46を回動させる駆動装置となる第2指のサーボモータ47を備えている。また、ハンドの第1把持部48とハンドの第2把持部49は同一構造であるとともに、教示用ハンド装置10と同様の6軸力覚センサ30をそれぞれ内蔵している。すなわち、本実施の形態のハンド5は、ハンドの第1指41とハンドの第2指42に独立した駆動装置を備えるとともに、各指先に作業対象物を把持する際に発生する力を検出するセンサを備えたハンドとなっている。
「接続する機器及び制御装置2の構成」
図1、図6,及び図7を用いて本発明の実施の形態における接続する機器及び制御装置2について説明する。図6は本発明の実施の形態における制御装置2及び制御装置2に接続する機器の構成を表す図である。
図1、図6,及び図7を用いて本発明の実施の形態における接続する機器及び制御装置2について説明する。図6は本発明の実施の形態における制御装置2及び制御装置2に接続する機器の構成を表す図である。
制御装置2には、教示用ハンド装置10、カメラ11、教示装置1の3Dイメージセンサ12、ロボット部3の3Dイメージセンサ13、ハンド5、ロボットコントローラ14、安全装置15がそれぞれ接続されている。
図7は本発明の実施の形態における制御装置2の構成を表すブロック図である。制御装置2は、教示用ハンド装置10と通信を行う教示用ハンド装置通信部51と、認識部52と、記憶部55と、後述する複数の基本動作を保存するライブラリ59と、制御部64と、安全装置15の状態を常時監視する安全装置通信部67とを備えている。
認識部52は、カメラ11の画像を処理する画像処理部53と、教示装置の3Dイメージセンサ12及びロボット部の3Dイメージセンサ13が撮像した点群データを処理する点群データ処理部54とを備えている。
記憶部55は、後述する教示元データを記憶する教示元データ記憶部56と、演算部57と、教示データ記憶部58とを備えている。
制御部64は、ロボット部3の制御を行うハンド制御部65と、ロボットコントローラ制御部66とを備えている。
教示用ハンド装置10は、教示用ハンド装置通信部51に第1指21のエンコーダ25の値及び第2指22のエンコーダ27の値及び6軸力覚センサ30の値をそれぞれ通知する。カメラ11は、図1に示す視野11aの範囲において、教示用ハンド装置10の位置及び姿勢を、ARマーカー23の位置及び姿勢をカメラ11で撮影することにより計測する。カメラ11は、例えばCCDカメラで構成されており、教示用ハンド装置10に装着された、矩形形状を持つARマーカー23を撮影する。撮像画像上のARマーカー23は教示用ハンド装置10の姿勢、つまり、傾きによって台形状に歪んだ見え方で観察される。本発明の実施の形態では、図7に示す画像処理部53にて、この歪みとARマーカー23の撮像画像上での大きさとから、カメラ11の視野11a内に設定した原点11b及び座標軸に対する3軸の並進位置と、3軸回転とを算出することにより、教示用ハンド装置10の位置と姿勢とを計測する。なお、原点11bは図示しない作業台の上面に設定しており、人間(作業者)9から見て奥側をX軸の正方向、左側をY軸の正方向、上側をZ軸の正方向、回転方向は各軸の正方向に向かい反時計方向の回転を正方向として、Rx軸、Ry軸及びRzを定義している。
また、本発明の実施の形態では、教示装置の3Dイメージセンサ12及びロボット部の3Dイメージセンサ13は、エリア12a及びエリア13aにパターン光を照射するプロジェクション方式を用いて部品6及び部品7の撮像を行い、図7に示す点群データ処理部54にてデータ処理を行うことにより部品6及び部品7の位置と姿勢とを算出する。点群データ処理は、例えば3次元特徴量を用いてCADモデルから作成したモデルデータとのマッチングを行うことにより位置と姿勢とを算出する。
ハンド5はハンド制御部65と通信を行い、第1指41のサーボモータ45と第2指42のサーボモータ47とを駆動して、6軸力覚センサ30の値を取得しながら部品6の把持を行う。
ロボットコントローラ制御部66はロボットコントローラ14に接続しており、ロボットコントローラ14を介してロボットアーム4の動作を制御する。
安全装置15は、例えば、非常停止ボタン又はエリアセンサーより構成されている。安全装置通信部67は、常に安全装置15の状態を監視している。すなわち、安全装置15が作動すると直ちに安全装置通信部67は異常を検知し、その検知に基づき制御部64はハンド制御部65及びロボットコントローラ制御部66に対して電源供給停止などの停止処理を実行する。
(教示データ作成フロー)
図8は本発明の実施に形態における教示データ作成方法の一例を示すフローチャートである。教示作業を行うにあたり、部品6及び部品7の形状を含むCADデータは予め登録されている。
図8は本発明の実施に形態における教示データ作成方法の一例を示すフローチャートである。教示作業を行うにあたり、部品6及び部品7の形状を含むCADデータは予め登録されている。
始めに、図7に示すライブラリ59の中の複数の基本動作から基本動作を1つ選択する(ステップST1)。ここで、基本動作は、ロボット部3が作業対象物の例である部品6,7に対して実施しかつ位置又は動作に関する閾値などの特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有している。
続いて、人間である作業者9は、右手に教示用ハンド装置10を装着した状態で基本動作の一例としての組立作業を行い、教示元データを取得する(ステップST2)。すなわち、教示用ハンド装置10を用いかつ選択した基本動作の教示動作において、教示用ハンド装置10の時間毎の位置及び姿勢と、教示用ハンド装置10の計測器25、27、30の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する。具体的には、始めに、教示装置1の3Dイメージセンサ12により部品6と部品7とを撮像し、点群データ処理部54において部品6及び部品7の位置と姿勢とを導出して教示元データとする。
続いて、教示用ハンド装置10で、部品6を把持し、把持した部品6を部品7と嵌合し、組立品8を製作する。この一連の動作における教示用ハンド装置10のARマーカー23をカメラ11を用いて撮影し、画像処理部53にて教示用ハンド装置10の時間ごとの位置及び姿勢を導出する。また、教示用ハンド装置10内の状態の時間ごとの変化を第1指21のエンコーダ25の値、第2指22のエンコーダ27の値、及び教示用ハンド装置10の第1把持部28及び教示用ハンド装置10の第2把持部29にそれぞれ備える6軸力覚センサ30のそれぞれの値を教示用ハンド装置通信部51にて取得する。認識部52と教示用ハンド装置通信部51にて取得した情報は、時間を同期させて記憶部55の教示元データ記憶部56に記憶する。
続いて、演算部57において、ステップST2にて取得した教示元データに対して、以下の手順にて、動作ロジックの追加及び制御パラメータの抽出を行う。
まず、基本動作を構成する要素動作に設定している特徴量と教示元データとの比較を行い、教示元データを複数の教示要素元データとして分割する(ステップST3)。すなわち、演算部57において、教示元データの時間毎の計測値に対して、要素動作の特徴量を時系列に比較し、要素動作の特徴量と、教示元データの時間毎の計測値とが一致した時間において教示元データを分割し、複数の教示要素元データとして時系列に分割する。
続いて、演算部57において、ステップST3にて作成した教示要素元データそれぞれに対して比較対象となる要素動作毎に動作ロジックの追加及び制御パラメータの抽出などの加工を行い、教示要素データを作成する(ステップST4)。すなわち、演算部57において、時系列に分割した複数の教示要素元データ各々に対して、その分割に用いた特徴量を含む要素動作の動作ロジックに従い教示要素元データの修正を行い、教示要素データとして作成する。
そして、演算部57において、各教示要素データを要素動作とする教示データを作成して教示データ記憶部58に保存する(ステップST5)。すなわち、演算部57において、時系列に並ぶ複数の教示要素データを要素動作とする教示データを作成して教示データ記憶部58に保存する。
以上の教示データ作成フローを用いて、教示装置1において取得する教示元データからロボット部3にて実行する教示データの作成を行う。
(嵌合の教示データ作成事例)
続いて、本発明の実施に形態として、嵌合の教示データ作成事例を説明する。
続いて、本発明の実施に形態として、嵌合の教示データ作成事例を説明する。
図9A及び図9Bは本発明の実施の形態における基本動作71の一例としての組立作業の嵌合に含まれる情報を示す図である。図9A及び図9Bに示す情報は、基本動作71の嵌合を実行させる上で必要な要素動作72と、事前設定項目73と、特徴量74と、動作ロジック75とを網羅している。
まず、図8に示すステップST1として、図7のライブラリ59より基本動作71として嵌合を選択している。
嵌合の基本動作71を構成する要素動作72は、動作の順に、第1上空移動72a,把持寄付き72b、把持72c、上昇72d、第2上空移動72e、嵌合寄付き72f、嵌合72g、解除72h、退避72i、第3上空移動72jである。
事前設定項目73として、位置又は動作に関する閾値として、移動高さ閾値にZ≧100mm、把持力閾値にF≦3N、干渉判定閾値にFx≧10N、Fy≧|10N|、把持・移動切替距離にL=5mm、上空移動速度に200mm/sを設定している。ここで、閾値とは、図9A及び図9Bの事前設定項目73及び図13A及び図13Bに示す把持動作における把持力と、嵌合寄付き動作中の干渉の判定を行う値を意味する。把持を行う際に6軸力覚センサ30に発生する力を監視しながら第1指のサーボモータ45及び第2指のサーボモータ47を制御しており、図13A及び図13Bの<把持成功>の判定を行うための数値であり。閾値になるまでハンド5を閉じていく。サーボモータであるため、指先の位置は把握しており、ハンド5を閉じ切っても閾値未満であれば、把持失敗として中断処理を行う。また、嵌合動作の前の寄付きの際に穴の周囲と部品などのワーク又はハンド5とが干渉する場合に発生する力も監視しており、干渉判定を行う。すなわち、発生する力により、図13A及び図13Bの嵌合寄付き動作において<干渉有>の判定を行う。
特徴量74は、事前設定項目73に登録した項目の中から、教示元データを分割するために必要な値を要素動作72のそれぞれに対して登録している。例えば、図8のステップST3において、第1上空移動72aは、次の把持寄付き72bとの切り分けを、前記閾値である高さZ≧100を基準にして取得した教示元データを分割する。続いて、把持寄付き72bは、前記閾値である力F≦3Nまでを把持寄付き72bとして同様に教示元データを分割する。なお、移動高さ閾値のZは部品6を載置する図示しない作業台の表面をZ方向の原点としている。また、力Fは6軸力覚センサ30が受けるFx、Fy、Fzを合成した力Fである。
このようにして、要素動作72は、事前設定項目73において設定した値あるいは変化量を特徴量74として事前に設定しておくことにより、教示元データの先頭から特徴量が一致する箇所を要素動作72の並び順に抽出し、各要素動作に設定した特徴量が一致した位置で教示元データを分割する。分割した箇所から次の分割した箇所までを教示要素元データとする。この分割工程を繰り返し行い、要素動作72の数と等しい教示要素元データが作成される。
動作ロジック75は、要素動作72それぞれが実行する処理を予め設定している。本発明の実施の形態において、例えば、第1上空移動72aは、嵌合の起点となる要素動作として、初期化、撮像ジョブ実行、開始点A点抽出、移動先B点抽出、2点間移動を動作ロジックに設定している。把持寄付き72bは、把持位置C点抽出、認識結果反映、教示速度での移動、干渉有無判定、干渉検知時中断処理へ遷移、を動作ロジックに設定している。この要素動作毎に予め設定した動作ロジックを、教示元データを分割して作成したそれぞれ対応する教示要素元データに対して付与することにより、ロボット部が作業を実行する際の移動先の座標の抽出、動作判定の閾値となる制御パラメータの抽出、前記閾値を用いた判定及び判定結果による状態遷移、認識などの付帯するジョブの実行あるいは動作の失敗又は干渉検知時の遷移先が設定された教示要素データとして記憶する。ステップST4においては、この教示要素データの作成処理を全ての教示要素元データに対して実施する。ステップST5において、この教示要素データを要素動作とする教示データを教示データ記憶部58に記憶する。
さらに具体的な事例を用いて、本発明の実施の形態の詳細を説明する。
図10A及び図10Bは、本発明の実施の形態において教示用ハンド装置10にて取得した教示元データを示す図である。図10A及び図10Bは、時間76ごとのARマーカー座標77,第1指関節角度78、第2指関節角度79、第1指力覚センサ値80、第2指力覚センサ値81を記録している。この図10A及び図10Bに示す教示元データに対して、図9A及び図9Bにて設定している要素動作72の順に特徴量74を用いて比較を行い、両者の値が一致する箇所において教示元データを分割する。
図11A及び図11Bは、本発明の実施の形態において要素動作72の特徴量74を基に図10A及び図10Bに示す教示元データを分割した状態を表す図である。斜線ハッチング領域の数値は、基準となる特徴量74と一致する箇所を、分割線91は各要素動作の分割位置を示している。例えば、要素動作72の第1上空移動72aは、開始からZ≦100mmを記録した時間1秒までを第1上空移動72aの教示要素元データとして分割する。同様に、次の把持寄付き72bは、時間1秒以降から把持力が3N以下を示す時間2秒の位置までを把持寄付き72bの教示要素元データとして分割する。以降同様に、第3上空移動72jまで教示元データの分割を繰り返す。
図12A及び図12Bは、本発明の実施の形態において教示要素元データに対して、動作ロジックを元に修正を加えた状態を表す図である。例えば、要素動作72の第1上空移動72aは、図9A及び図9Bの動作ロジック75の設定内容に従い、上空移動72aの教示要素元データの始めの座標(X,Y,Z,Rx,Ry,Rz)=(0,0,200,0,0,0)を開始点Aとして抽出する。また、移動先B点に、教示元データの分割位置の座標(X,Y,Z,Rx,Ry,Rz)=(95,85,100,0,45,0)を抽出する。なお、座標(X,Y,Z,Rx,Ry,Rz)の座標軸は図1に示している。
このようにして、第1上空移動72aの教示要素元データは、
・初期化
・撮像ジョブ実行
・開始点A点座標(0,0,200,0,0,0)
・移動先B点座標(95,85,100,0,45,0)
・2点間移動(速度200mm/s)
を記述した第1上空移動72aの教示要素データになる。なお、抽出した開始点A点及び移動先B点の座標データ以外は第1上空移動72aの教示要素データでは使用しないため、図12A及び図12Bには記載していない。
・初期化
・撮像ジョブ実行
・開始点A点座標(0,0,200,0,0,0)
・移動先B点座標(95,85,100,0,45,0)
・2点間移動(速度200mm/s)
を記述した第1上空移動72aの教示要素データになる。なお、抽出した開始点A点及び移動先B点の座標データ以外は第1上空移動72aの教示要素データでは使用しないため、図12A及び図12Bには記載していない。
続いて、把持寄付き72bは、図9A及び図9Bの動作ロジック75に従い、把持位置C点として、把持力が3Nとなる位置の座標(X,Y,Z,Rx,Ry,Rz)=(150,150,10,45,45,30)を抽出する。ただし、ロボット部3の実行においては、認識結果を反映して把持位置Cの位置の変更を行う。また、把持寄付き72bの教示要素元データの所要時間0.75を基に教示速度として把持位置C点に移動する速度を算出し移動を行う。また、移動中の干渉発生を考慮して、動作ロジックには、干渉有無判定及び干渉検知時の中断処理について設定している。
このようにして、把持寄付き72bの教示要素元データは、
・把持位置C点座標(150,150,10,45,45,30)
・認識結果反映
・教示速度での移動(移動時間:0.75秒)
・干渉有無判定(干渉判定閾値:Fx≧10N、Fy≧|10N|
・干渉検知時中断処理へ遷移
を記述した把持寄付き72bの教示要素データとなる。以降同様に、第3上空移動72jまで教示要素データの作成を行う。
・把持位置C点座標(150,150,10,45,45,30)
・認識結果反映
・教示速度での移動(移動時間:0.75秒)
・干渉有無判定(干渉判定閾値:Fx≧10N、Fy≧|10N|
・干渉検知時中断処理へ遷移
を記述した把持寄付き72bの教示要素データとなる。以降同様に、第3上空移動72jまで教示要素データの作成を行う。
図13A及び図13Bは、本発明の実施の形態における嵌合の教示データのフローチャートである。このフローチャートに設定する教示データは、先ほど説明した教示要素データが連携することにより成立している。
例えば、第1上空移動72aの教示要素データは、
・初期化
・撮像ジョブ実行
・開始点A点移動
・移動先B点移動
の処理を受け持つ。すなわち、第1上空移動72aの教示要素データは、初期化処理したのち、開始点A点への移動処理と、部品6と部品7とのそれぞれの撮像ジョブ実行処理とが並行して実行可能である。部品6の撮像ジョブでは、部品6を撮像したのち、後述する移動先B点への移動処理の実行後に、ワーク位置情報の取得処理と把持位置C点の抽出処理を実行する。部品7の撮像ジョブでは、部品7を撮像したのち、嵌合位置情報の抽出処理と制御点Eの取得処理とを実行する。開始点A点への移動処理を実行して開始点A点へ移動したのち、移動先B点への移動処理を実行し、先に述べたワーク位置情報の取得処理と把持位置C点の抽出処理を実行する。その後、把持寄付き72bの処理に進む。
・初期化
・撮像ジョブ実行
・開始点A点移動
・移動先B点移動
の処理を受け持つ。すなわち、第1上空移動72aの教示要素データは、初期化処理したのち、開始点A点への移動処理と、部品6と部品7とのそれぞれの撮像ジョブ実行処理とが並行して実行可能である。部品6の撮像ジョブでは、部品6を撮像したのち、後述する移動先B点への移動処理の実行後に、ワーク位置情報の取得処理と把持位置C点の抽出処理を実行する。部品7の撮像ジョブでは、部品7を撮像したのち、嵌合位置情報の抽出処理と制御点Eの取得処理とを実行する。開始点A点への移動処理を実行して開始点A点へ移動したのち、移動先B点への移動処理を実行し、先に述べたワーク位置情報の取得処理と把持位置C点の抽出処理を実行する。その後、把持寄付き72bの処理に進む。
続いて、把持寄付き72bの教示要素データは、第1上空移動72aの動作後に、撮像ジョブの実行結果からの部品6の位置情報を取得して、把持位置C点の演算による抽出を行い、ハンド5を把持位置C点に移動する。把持位置C点への移動中に干渉を検知すると、中断処理に遷移する。具体的には、把持位置C点への移動を中断して移動先B点へ移動する。B点到達後に部品6の部品位置情報をクリアして、再び、部品6を撮像する撮像ジョブの実行を行う。もし干渉を検知しなければ、把持72cの処理に進む。
以降、要素動作72の第3上空移動72jまで図13A及び図13Bに示すフローチャートに従い処理が実行される。
このようにして、ロボット部3は、嵌合の組立工程において教示データを構成する教示要素データに、移動先あるいは発生が想定される様々な事象に対する判定閾値あるいは遷移先を設定していることにより、安定した動作を継続できる。
以上のように、模擬環境で取得した教示情報に対して動作ロジックの追加及び制御パラメータの抽出を行うことにより生産効率の向上を図ることが可能なロボット教示方法及びロボット教示装置を提供することができる。
なお、ロボット部3に教示データを実行させる前にシミュレーションを行い教示データの確認あるいは修正を行うことも可能であるとともに、取得した教示元データの分割及び教示元データを分割した教示要素元データから教示要素データの作成過程において学習済みのAIを活用することも可能である。また、教示装置1とロボット部3の距離を隔てた環境においても実施可能である。
なお、前記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。また、実施形態同士の組み合わせ又は実施例同士の組み合わせ又は実施形態と実施例との組み合わせが可能であると共に、異なる実施形態又は実施例の中の特徴同士の組み合わせも可能である。
本発明の前記態様にかかるロボット教示方法及び教示装置は、模擬環境で取得した教示情報に対して動作ロジックの追加及び制御パラメータの抽出を行うことにより生産効率の向上を図ることが可能なロボット教示方法及びロボット教示装置を提供するができる効果を有するので、電子機器組立分野を始め様々な人代替が必要な産業分野あるいは店舗用ロボット、又は家庭用ロボット等の用途にも適用できる。
1:教示装置
2:制御装置
3:ロボット部
4:ロボットアーム
5:ハンド
6:部品
7:部品
8:組立品
9:人間(作業者)
10:教示用ハンド装置
11:カメラ
11a:視野
11b:原点
12:教示装置の3Dイメージセンサ
12a:エリア
13:ロボット部の3Dイメージセンサ
13a:エリア
14:ロボットコントローラ
15:安全装置
21:教示用ハンド装置10の第1指
22:教示用ハンド装置10の第2指
23:ARマーカー
24:教示用ハンド装置10の第1指のアーム
25:第1指のエンコーダ
26:教示用ハンド装置10の第2指のアーム
27:第2指のエンコーダ
28:教示用ハンド装置10の第1把持部
29:教示用ハンド装置10の第2把持部
30:6軸力覚センサ
31:把持部支持部材
32:バンド
33:バンド
41:ハンドの第1指
42:ハンドの第2指
43:フランジ
44:ハンドの第1指のアーム
45:第1指のサーボモータ
46:ハンドの第2指のアーム
47:第2指のサーボモータ
48:ハンドの第1把持部
49:ハンドの第2把持部
51:教示用ハンド装置通信部
52:認識部
53:画像処理部
54:点群データ処理部
55:記憶部
56:教示元データ記憶部
57:演算部
58:教示データ記憶部
59:ライブラリ
60:基本動作1
61a:要素動作
62:基本動作2
63a:要素動作
64:制御部
65:ハンド制御部
66:ロボットコントローラ制御部
71:基本動作
72:要素動作
72a:第1上空移動
72b:把持寄付き
72c:把持
72d:上昇
72e:第2上空移動
72f:嵌合寄付き
72g:嵌合
72h:解除
72i:退避
72j:第3上空移動
73:事前設定項目
74:特徴量
75:動作ロジック
76:時間
77:ARマーカー座標
78:第1指関節角度
79:第2指関節角度
80:第1指力覚センサ値
81:第2指力覚センサ値
91:分割線
501:教示ハンド
502:カメラ
503:データ処理装置
2:制御装置
3:ロボット部
4:ロボットアーム
5:ハンド
6:部品
7:部品
8:組立品
9:人間(作業者)
10:教示用ハンド装置
11:カメラ
11a:視野
11b:原点
12:教示装置の3Dイメージセンサ
12a:エリア
13:ロボット部の3Dイメージセンサ
13a:エリア
14:ロボットコントローラ
15:安全装置
21:教示用ハンド装置10の第1指
22:教示用ハンド装置10の第2指
23:ARマーカー
24:教示用ハンド装置10の第1指のアーム
25:第1指のエンコーダ
26:教示用ハンド装置10の第2指のアーム
27:第2指のエンコーダ
28:教示用ハンド装置10の第1把持部
29:教示用ハンド装置10の第2把持部
30:6軸力覚センサ
31:把持部支持部材
32:バンド
33:バンド
41:ハンドの第1指
42:ハンドの第2指
43:フランジ
44:ハンドの第1指のアーム
45:第1指のサーボモータ
46:ハンドの第2指のアーム
47:第2指のサーボモータ
48:ハンドの第1把持部
49:ハンドの第2把持部
51:教示用ハンド装置通信部
52:認識部
53:画像処理部
54:点群データ処理部
55:記憶部
56:教示元データ記憶部
57:演算部
58:教示データ記憶部
59:ライブラリ
60:基本動作1
61a:要素動作
62:基本動作2
63a:要素動作
64:制御部
65:ハンド制御部
66:ロボットコントローラ制御部
71:基本動作
72:要素動作
72a:第1上空移動
72b:把持寄付き
72c:把持
72d:上昇
72e:第2上空移動
72f:嵌合寄付き
72g:嵌合
72h:解除
72i:退避
72j:第3上空移動
73:事前設定項目
74:特徴量
75:動作ロジック
76:時間
77:ARマーカー座標
78:第1指関節角度
79:第2指関節角度
80:第1指力覚センサ値
81:第2指力覚センサ値
91:分割線
501:教示ハンド
502:カメラ
503:データ処理装置
Claims (3)
- ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に前記ハンドに前記教示用動作を教示する教示用ハンド装置を用いて前記ロボットアームを含むロボット部に動作を教示するロボット教示方法であって、
前記ロボット部が作業対象物に対して実施する複数の基本動作をライブラリとして保存し、
前記基本動作は、前記ハンドの位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有し、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択する工程と、
前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する工程と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割する工程と、
前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する工程と、
時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを作成する工程とを順に実施する、
ロボット教示方法。 - 前記要素動作に設定されている前記動作ロジックが、前記ハンドの座標の抽出、前記閾値の抽出、前記閾値を用いた判定及び判定結果による状態遷移である、請求項1に記載のロボット教示方法。
- ロボットアームの先端に取付けるハンドの動作に対応した教示用動作に関する計測値を計測器で計測し前記計測値を基に、前記ロボットアームを含むロボット部に動作を教示する教示用ハンド装置と、
前記ロボット部が作業対象物に対して実施しかつ位置あるいは前記計測値の閾値の特徴量及び動作ロジックを設定した時系列に並ぶ複数の要素動作を有する複数の基本動作を保存するライブラリと、
前記ライブラリの前記複数の基本動作から一つの前記基本動作を選択するとき、前記教示用ハンド装置を用いる前記選択した基本動作の教示動作において、前記教示用ハンド装置の時間毎の位置及び姿勢と、前記教示用ハンド装置内の前記計測器の時間毎の計測値を、教示の開始時間を同期させて教示元データとして記憶する教示元データ記憶部と、
前記教示元データの前記時間毎の前記計測値に対して、前記要素動作の前記特徴量を時系列に比較し、前記要素動作の前記特徴量と、前記教示元データの前記時間毎の前記計測値とが一致した時間において前記教示元データを分割し、複数の教示要素元データとして時系列に分割するとともに、前記時系列に分割した複数の前記教示要素元データ各々に対して、その分割に用いた前記特徴量を含む前記要素動作の前記動作ロジックに従い前記教示要素元データの修正を行い、教示要素データとして作成する演算部と、
前記演算部にて作成された時系列に並ぶ複数の前記教示要素データを要素動作とする教示データを記憶する教示データ記憶部と、
前記教示データ記憶部に記憶された動作を実行する制御部と、
を備えるロボット教示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022087726A JP2023175331A (ja) | 2022-05-30 | 2022-05-30 | ロボット教示方法及びロボット教示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022087726A JP2023175331A (ja) | 2022-05-30 | 2022-05-30 | ロボット教示方法及びロボット教示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023175331A true JP2023175331A (ja) | 2023-12-12 |
Family
ID=89121076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022087726A Pending JP2023175331A (ja) | 2022-05-30 | 2022-05-30 | ロボット教示方法及びロボット教示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023175331A (ja) |
-
2022
- 2022-05-30 JP JP2022087726A patent/JP2023175331A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106239516B (zh) | 机器人控制装置、机器人以及机器人系统 | |
US10919152B1 (en) | Teleoperating of robots with tasks by mapping to human operator pose | |
JP5606241B2 (ja) | 人間型ロボットのための視覚認知システムおよび方法 | |
Kofman et al. | Teleoperation of a robot manipulator using a vision-based human-robot interface | |
US11813749B2 (en) | Robot teaching by human demonstration | |
US11040451B2 (en) | Teaching device and teaching method | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
WO2011065035A1 (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
JP2017104944A (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
CN110662635A (zh) | 机器人的碰撞处理 | |
JP6883392B2 (ja) | ロボットシステム | |
JP2008207262A (ja) | マニピュレータシステム | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
Shahverdi et al. | A simple and fast geometric kinematic solution for imitation of human arms by a NAO humanoid robot | |
WO2023037634A1 (ja) | 指令値生成装置、方法、及びプログラム | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP7323993B2 (ja) | 制御装置、ロボットシステム、制御装置の動作方法及びプログラム | |
US11897142B2 (en) | Method and device for creating a robot control program | |
JP2023175331A (ja) | ロボット教示方法及びロボット教示装置 | |
WO2016151667A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
JP2009196040A (ja) | ロボットシステム | |
WO2019064752A1 (ja) | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム | |
WO2019064751A1 (ja) | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム | |
Asfour et al. | Armar-6 |