JP2017177279A - ロボットシステム及びロボットの制御方法 - Google Patents

ロボットシステム及びロボットの制御方法 Download PDF

Info

Publication number
JP2017177279A
JP2017177279A JP2016068049A JP2016068049A JP2017177279A JP 2017177279 A JP2017177279 A JP 2017177279A JP 2016068049 A JP2016068049 A JP 2016068049A JP 2016068049 A JP2016068049 A JP 2016068049A JP 2017177279 A JP2017177279 A JP 2017177279A
Authority
JP
Japan
Prior art keywords
robot
teaching
teaching point
workpiece
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016068049A
Other languages
English (en)
Other versions
JP6821934B2 (ja
Inventor
浩一郎 林
Koichiro Hayashi
浩一郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2016068049A priority Critical patent/JP6821934B2/ja
Publication of JP2017177279A publication Critical patent/JP2017177279A/ja
Application granted granted Critical
Publication of JP6821934B2 publication Critical patent/JP6821934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】被加工体の加工精度を向上させ得るロボットシステム及びロボットの制御方法を提案する。【解決手段】ロボット制御部が、ロボットの動作軌道を教示するティーチングモード時に、エンドエフェクタの先端部の位置を一定時間間隔で記憶し、ティーチングモード時に一定時間間隔で記憶したエンドエフェクタの各位置をそれぞれ教示点として、各教示点における被加工体の表面の法線方向をそれぞれ算出し、算出した教示点ごとの法線方向に基づいて、被加工体を加工する加工モード時におけるロボットの動作軌道を制御するようにした。【選択図】 図6

Description

本発明は、ロボットシステム及びロボットの制御方法に関し、例えば、面取りなどの仕上げ加工を行うロボットシステムに適用して好適なものである。
仕上げ加工とは、切削加工や研削加工等の後、部品の形状や粗さを最終的に求められる形状や粗さに調整する作業である。バリ取り、面取り及び磨きなど、加工の多様性もさることながら、求められる品質レベルも多様である。
複雑な形状の部品や精密部品については高品質な仕上げ加工が求められているが、このような精密な仕上げ加工は人間の手作業により行われているのが実情である。しかしながら高度な技能を持つ作業者の育成に時間を要するため、ロボットを利用した仕上げ加工の自動化が望まれている。
このような状況のもと、従来、ロボットの動作軌道をオフラインで生成し、生成した動作軌道に沿ってロボットを動作させることにより、被加工体(以下、これをワークと呼ぶ)に対して所定の仕上げ加工を施すロボットシステムの研究開発が広く行われ、実用化されている。
また近年では、教示者がロボットアームの手先を所望する軌道に沿って移動させるようにロボットアームを動かすことで、ロボットに動作軌道を教示するダイレクトティーチング機能が搭載されたロボットシステムの実用化も進められている。このようなダイレクトティーチング機能によれば、プログラミング等の専門知識を有しない教示者が直感的にロボットに動作軌道を教示できるという利点がある。
特開平11−231925号公報
ところで、ダイレクトティーチング機能が搭載された従来のロボットシステムでは、教示者がロボットに動作軌道を教示するティーチングモード時にロボットアームの手先の位置を一定の時間間隔で記憶し、記憶した位置をワークの加工時に再現するようにして、教示されたロボットの動作軌道を再現している。なお、以下においては、ティーチングモード時におけるロボットアームの手先の移動軌道上であって、当該ロボットアームの手先の位置が記憶された各点を教示点と呼ぶ。
この場合において、ワークの加工時に位置制御と力制御のハイブリッド制御を利用する場合、法線方向は力制御、それ以外の方向は位置制御するため、各教示点におけるワーク表面の法線方向を精度良く検出する必要がある。また各教示点におけるワーク表面の法線方向は、位置制御の加工において、軌道をずらして切り込む深さを調整するのにも必要となる。
このため、ダイレクトティーチング機能が搭載された従来のロボットシステムでは、図9に示すように、ティーチングモード時に教示されたロボットアームの手先の移動軌道上の教示点Pごとに、その教示点Pと当該教示点P近傍の他の2つの教示点Pとを通る平面PL10を算出してその平面の法線方向N10を求め、ワークの加工時には、かかる教示点P上で上述のようにして求めた法線方向N10と平行に手先工具を接触させ得るようにロボットの姿勢を制御している。
しかしながら、上述のようにして求められる法線方向N10は、対応する教示点Pにおける法線方向と必ずしも一致しないため、ワークの加工時に手先工具を精度良くワークに垂直に接触させることができない場合があり、このような場合に高精度の仕上げ加工を行い難い問題があった。
本発明は以上の点を考慮してなされたもので、被加工体の加工精度を向上させ得るロボットシステム及びロボットの制御方法を提案しようとするものである。
かかる課題を解決するため本発明においては、ロボットアームを有し、前記ロボットアームの先端部に軌道教示用のエンドエフェクタが取り付けられるロボットと、前記ロボットの動作を制御するロボット制御部とを設け、前記ロボット制御部は、前記ロボットアームに取り付けられた前記エンドエフェクタの先端部を目標軌道に沿って動かすようにして前記ロボットの動作軌道を教示するティーチングモード時に、前記エンドエフェクタの先端部の位置を一定時間間隔で記憶し、前記ティーチングモード時に一定時間間隔で記憶した前記エンドエフェクタの各位置をそれぞれ教示点として、各前記教示点における被加工体の表面の法線方向をそれぞれ算出し、算出した前記教示点ごとの前記法線方向に基づいて、前記被加工体を加工する加工モード時における前記ロボットの動作軌道を制御するようにした。
また本発明においては、ロボットアームを有し、前記ロボットアームの先端部に軌道教示用のエンドエフェクタが取り付けられるロボットと、前記ロボットの動作を制御するロボット制御部とを有するロボットシステムにおいて、前記ロボット制御部により実行されるロボットの制御方法であって、前記ロボットアームに取り付けられた前記エンドエフェクタの先端部を目標軌道に沿って動かすようにして前記ロボットの動作軌道を教示するティーチングモード時に、前記エンドエフェクタの先端部の位置を一定時間間隔で記憶する第1のステップと、前記ティーチングモード時に一定時間間隔で記憶した前記エンドエフェクタの各位置をそれぞれ教示点として、各前記教示点における被加工体の表面の法線方向をそれぞれ算出する第2のステップと、算出した前記教示点ごとの前記法線方向に基づいて、前記被加工体を加工する加工モード時における前記ロボットの動作軌道を制御する第3のステップとを設けるようにした。
本発明によれば、被加工体の加工時に手先工具を精度良く被加工体に垂直に接触させることができ、かくして被加工体の加工を高精度に行い得るロボットシステム及びロボットの制御方法を実現できる。すなわち、並進3自由度の位置(X,Y,Z)と、回転3自由度の姿勢(A,B,C)を記憶し、この6自由度の情報によって、各点でのロボットの位置・姿勢を決定することができる。
第1の実施の形態によるロボットシステムの概略構成を示す略線図である。 エンドエフェクタの先端構造を示す斜視図である。 反力の説明に供する側面図である。 ロボット動作軌道学習処理の処理手順を示すフローチャートである。 第1の実施の形態によるロボット軌道生成処理の処理手順を示すフローチャートである。 (A)〜(D)は、第1の実施の形態によるロボット軌道生成処理の説明に供する概念図である。 第2の実施の形態によるロボットシステムの概略構成を示す略線図である。 第1の実施の形態によるロボット軌道生成処理の処理手順を示すフローチャートである。 従来のロボットシステムにおける各教示点の法線方向の算出手法の説明に供する概念図である。
以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態
(1−1)本実施の形態によるロボットシステムの構成
図1において、1は全体として本実施の形態によるロボットシステムを示す。このロボットシステム1は、テーブル2に固定されたワーク3に対して面取り等の所定の仕上げ加工を施すロボット4と、当該ロボット4の動作を制御するロボット制御部5とから構成される。
ロボット4は、基台10上に設置された多関節のロボットアーム11を備え、当該ロボットアーム11の先端にフランジ部12を介して力覚センサ13が取り付けられている。本実施の形態の場合、力覚センサ13としては、x軸、y軸及びz軸の並進3軸方向の力成分と、これら3軸回りのモーメント成分の6成分を同時に検出できる6軸力センサが適用される。
力覚センサ13には連結板14を介してスピンドルモータ15が取り付けられており、スピンドルモータ15の先端側に、ダイレクトティーチング用のエンドエフェクタ16や、実際にワーク3を加工する際に使用する手先工具(図示せず)を、スピンドルモータ15と同軸にかつ交換自在に取り付け得るようになされている。
またスピンドルモータ15の後端側には、直接教示用ハンドル17が取り付けられている。これによりスピンドルモータ15の先端に軌道教示用のエンドエフェクタ16を取り付けた上で、教示者が直接教示用ハンドル17を把持してエンドエフェクタ16の先端をワーク3に押し付けながらロボットアーム11を動かすことによって、ワーク3の加工時におけるロボット4の動作軌道をロボットシステム1に教示(ダイレクトティーチング)し得るようになされている。
なお本実施の形態の場合、エンドエフェクタ16としては、図2に示すように、球状剛体でなるボール20がホルダ21より回転自在に保持されたボールローラ22が軸体23の先端部に取り付けられたものが用いられる。これにより、教示者が直接教示用ハンドル17を介してエンドエフェクタ16の先端部に与える3軸方向の力及びこれら軸回りのトルク(以下、これらをまとめて操作力と呼ぶ)と、そのときエンドエフェクタ16の先端が図3のようにワーク3の表面から受ける法線方向の反力Fとの合力を力覚センサ13により計測することができるようにされている。
また図示していないが、直接教示用ハンドル17には、かかるダイレクトティーチングの開始時に押圧操作する第1のボタン(以下、これをティーチング開始ボタンと呼ぶ)と、当該ダイレクトティーチングの終了時に押圧操作する第2のボタン(以下、これをティーチング終了ボタンと呼ぶ)とが設けられている。そして、これらティーチング開始ボタンやティーチング終了ボタンが操作された場合、その操作内容がロボット制御部5に通知される。これにより、かかる通知に基づいてロボット制御部5がダイレクトティーチングの開始及び終了を認識することができる。
一方、ロボット制御部5は、制御装置6及びコントローラ7から構成される。制御装置6は、CPU(Central Processing Unit)30及びメモリ31等の情報処理資源を備えるコンピュータ装置であり、例えばパーソナルコンピュータから構成される。
制御装置6は、上述のように教示者から教示されたロボット4の動作軌道に基づいて、各教示点におけるワーク3の表面の法線方向をそれぞれ算出し、算出したこれらの法線方向に基づいてロボット4の動作軌道を生成する。また制御装置6は、この後実行されるワーク3の加工モード時、生成したロボット4の動作軌道と、力覚センサ13から与えられる当該力覚センサ13の計測値と、コントローラ7から与えられるロボット4の位置及び姿勢を表す位置・姿勢データとに基づいて手先工具のTCP(Tool Center Point)の目標軌道を計算し、計算により得られた目標軌道に沿って手先工具のTCPを移動させるための指令値(以下、これを位置・姿勢指令値と呼ぶ)をコントローラ7に送信する。
コントローラ7は、制御装置6と同様に、CPU32及びメモリ33等の情報処理資源を備えるコンピュータ装置であり、例えばパーソナルコンピュータから構成される。コントローラ7は、制御装置6から送信される位置・姿勢指令値に基づいてロボット4内のモータ等の各マニュピレータをそれぞれ制御することにより、制御装置6により算出された目標軌道上を手先工具のTCPが移動するようにロボット4を駆動する。
(1−2)ロボット動作軌道学習処理
図4は、上述したティーチングモード時に制御装置6のCPU30により実行されるロボット動作軌道学習処理の処理内容を示す。CPU30は、メモリ31に格納された図示しないプログラムを実行することにより、この図4に示す処理手順に従って、教示者により教示されたロボット4の動作軌道を学習する。
実際上、CPU30は、直接教示用ハンドル17に設けられた上述のティーチング開始ボタンから押圧されたことが通知されて、ダイレクトティーチングが開始されたことを認識すると、この図4に示すロボット動作軌道学習処理を開始し、まず、教示者が直接教示用ハンドル17に与える上述の操作力と、ワーク3に押し付けられたエンドエフェクタ16の先端が当該ワーク3から受ける反力F(図3)との合力の大きさを「0」とするような力制御処理を開始する(S1)。この力制御処理は、力覚センサ13から与えられる測定値を「0」とするような位置・姿勢指令値を所定の制御周期で生成してコントローラ7に与える処理である。
続いて、CPU30は、そのときコントローラ7から与えられるロボット4のエンドエフェクタ16の位置を表す位置データと、そのとき力覚センサ13から与えられる計測値とをそれぞれ取得し、取得したこれらの情報をメモリ31(図1)に格納する(S2)。
次いで、CPU30は、ステップS2を実行してから上述の位置データ及び計測値を取得する間隔である一定時間(例えば0.01秒)が経過するのを待ち受ける(S3)。そしてCPU30は、やがてステップS2を実行してから一定時間が経過すると、ティーチング終了ボタンが押圧操作されたか否かを判断する(S4)。
CPU30は、この判断で否定結果を得るとステップS2に戻り、この後、ステップS4において肯定結果を得るまでステップS2〜ステップS4の処理を繰り返す。これにより、かかる一定時間ごとの位置データ及び計測値が順次取得されて、取得されたこれら一定時間ごとの位置データ及び計測値がメモリ31に順次格納される。
そしてCPU30は、やがてティーチング終了ボタンが押圧操作されることによりステップS4で肯定結果を得ると、そのときメモリ31に格納されている一定時間ごとの位置データ及び計測値に基づいて、教示された動作をロボット4に実行させるための動作軌道を生成するロボット軌道生成処理を実行する(S5)。そしてCPU30は、このロボット軌道生成処理を生成し終えると、このロボット動作軌道学習処理を終了する。
図5は、かかるロボット動作軌道学習処理のステップS5においてCPU30により実行されるロボット軌道生成処理の具体的な処理内容を示す。CPU30は、ロボット動作軌道学習処理のステップS5に進むと、この図5に示すロボット軌道生成処理を開始し、まず、上述のようにして位置データ及び計測値を取得した複数の教示点からなる教示点群について、スムージング、平均、外挿及び又は内挿などの手法を用いて教示点の間隔を調整する(S10)。
次いで、CPU30は、間隔調整後の各教示点の中から1つの教示点を選択し(S11)、選択したそのとき対象とする教示点(以下、これを対象教示点と呼ぶ)について、近傍の教示点の位置データを用いて対象教示点における法線方向を算出する(S12)。本実施の形態の場合、CPU30は、例えば図6(A)において着色表示した教示点Pを対象教示点とする場合、図6(B)に示すように、対象教示点P及び1つ前の教示点Pn−1を結ぶ直線lと、対象教示点P及び1つ後の教示点Pn+1を結ぶ直線lとがなす角の二等分線lを含む第1の平面PLを算出すると共に、図6(C)に示すように、対象教示点P及び左隣りの教示点Pnlを結ぶ直線lと、対象教示点P及び右隣りの教示点Pnrを結ぶ直線lとがなす角の二等分線lを含む第2の平面PLを算出し、図6(D)に示すように、第1及び第2の平面PL,PLの交線lと平行な方向を法線方向Nとして算出する。
この後、CPU30は、ステップS10の処理により得られた間隔調整後のすべての教示点についてその法線方向を算出し終えたか否かを判断する(S13)。そしてCPU30は、この判断で否定結果を得るとステップS11に戻り、この後、ステップS11で選択する教示点を未処理の他の教示点に順次切り替えながら、ステップS11〜ステップS13の処理を繰り返す。
そしてCPU30は、やがてステップS10の処理により得られた間隔調整後のすべての教示点についてその法線方向を算出し終えることによりステップS13で肯定結果を得ると、ロボット動作軌道学習処理(図4)のステップS2で取得した間隔調整後の各教示点の位置と、ステップS12で取得したこれら教示点の法線方向とに基づいて、各教示点において手先工具をワーク3の表面の法線方向と反対の方向から押し付け得るように、ロボット4の動作軌道を生成し、生成した動作起動を記憶する(S14)。具体的に、CPU30は、このステップS14において、各教示点の位置(並進3自由度の位置(X,Y,Z))と、各教示点における回転3自由度の姿勢(A,B,C)とを記憶する。この6自由度の情報によって、この後実行される加工モード時における各教示点でのロボットの姿勢が一意に決まることになる。
そしてCPU30は、この後、このロボット軌道生成処理を終了する。
(1−3)本実施の形態の効果
以上の構成を有する本実施の形態のロボットシステム1によれば、ティーチングモード時に教示者により教示されたエンドエフェクタ16の目標軌道上の各教示点におけるワーク3の表面の法線方向を精度良く算出することができる。
従って、本ロボットシステム1によれば、ワーク3の加工モード時に手先工具を精度良くワーク3に垂直に接触させることができ、かくしてワーク3の仕上げ加工を高精度に行うことができる。
(2)第2の実施の形態
図1との対応部分に同一符号を付して示す図7は第2の実施の形態によるロボットシステム40を示す。本実施の形態のロボットシステム40は、ロボット41の直接教示用ハンドル17が力覚センサ42を介してスピンドルモータ15の後端側に取り付けられている点が第1の実施の形態のロボットシステム1と相違し、これ以外のハードウェア構成は第1の実施の形態のロボットシステム1と同様に構成されている。
この場合、力覚センサ42(以下、これを第2の力覚センサ42と呼ぶ)としては、力覚センサ13(以下、これを第1の力覚センサ13と呼ぶ)と同様に、x軸、y軸及びz軸の並進3軸方向の力成分と、これら3軸回りのモーメント成分の6成分を同時に検出できる6軸力センサが適用される。
これにより本実施の形態のロボットシステム40においては、教示者が直接教示用ハンドル17に与える操作力と、このときエンドエフェクタ16がワーク3の表面から受ける反力との合力を第1の力覚センサ13によって計測することができ、また、かかる操作力を第2の力覚センサ42により検出できる。よって、本ロボットシステム40では、第1の力覚センサ13の計測値から第2の力覚センサ42の計測値を引くことによって、ティーチングモード時にエンドエフェクタ16がワーク3から受ける反力の大きさを得ることができる。
この場合、この反力は、図3について上述したように、エンドエフェクタ16がワーク3の表面から受ける当該表面の法線方向の力(反力F)である。そこで、本実施の形態のロボットシステム40では、図4について上述したロボット動作軌道学習処理のステップS2では、一定時間間隔でそのときのエンドエフェクタ16の先端の位置を表す位置データと、そのときの第1及び第2の力覚センサ13,42のそれぞれの測定値とを記憶し、ロボット動作軌道学習処理のステップS5では、これらの教示点ごとの位置データ及び2つの測定値に基づいてロボット41の動作軌道を生成する。
図8は、かかるロボット動作軌道学習処理のステップS5において、メモリ31に格納された図示しないプログラムに基づいて、本実施の形態のロボットシステム40の制御装置43のCPU30により実行される本実施の形態のロボット軌道生成処理の具体的な処理内容を示す。
CPU30は、上述したロボット動作軌道学習処理(図4)のステップS5に進むと、この図8に示す本実施の形態のロボット軌道生成処理を開始し、まず、不要な教示点を間引く間引き処理を実行する(S20)。実際上、CPU30は、メモリ31に位置データ及び2つの計測値が格納されている各教示点について、その教示点におけるワーク3からの反力Fを第1の力覚センサ13の計測値から第2の力覚センサ42の計測値を減算するようにして算出し、その反力Fが予め設定された閾値(例えば、1N)未満の教示点の位置データ及び2つの計測値を削除する。
これは、ティーチング開始ボタンが押圧操作されてからエンドエフェクタ16の先端がワーク3に押し付けられるまでの間や、教示者によるロボット41の動作軌道の教示が完了してエンドエフェクタ16の先端がワーク3から離されてからティーチング終了ボタンが押圧されるまでの間に取得された位置データ及び計測値を取り除くための処理である。
続いて、CPU30は、図5のステップS10及びステップS11と同様にステップS21及びステップS22を処理し、この後、ステップS22で選択した教示点(対象教示点)において得られた第1及び第2の力覚センサ13,42の計測値をメモリ31から読み出し、第1の力覚センサ13の計測値から第2の力覚センサ42の計測値を減算するようにしてその教示点におけるワーク3の表面の法線方向を算出し、この法線方向の単位ベクトルを算出する(S23)。
この後、CPU30は、ステップS21の処理により得られた間隔調整後のすべての教示点についてその法線方向の単位ベクトルを算出し終えたか否かを判断する(S24)。そしてCPU30は、この判断で否定結果を得るとステップS22に戻り、この後、ステップS22で選択する教示点を未処理の他の教示点に順次切り替えながら、ステップS22〜ステップS24の処理を繰り返す。
そしてCPU30は、やがてステップS21の処理により得られた間隔調整後のすべての教示点についてその法線方向の単位ベクトルを算出し終えることによりステップS24で肯定結果を得ると、ロボット動作軌道学習処理(図4)のステップS2で取得した間隔調整後の各教示点の位置と、ステップS23で取得したこれら教示点の法線方向の単位ベクトルとに基づいて、各教示点において、手先工具をその教示点におけるワーク3の表面の法線方向と反対の方向から押し付け得るように、ロボット4の動作軌道を生成する(S25)。
そしてCPU30は、この後、このロボット軌道生成処理を終了する。
以上の構成を有する本実施の形態のロボットシステム40によれば、エンドエフェクタ16の目標軌道上の各教示点におけるワーク3の表面の法線方向を精度良く算出することができる。従って、本ロボットシステム40によれば、第1の実施の形態と同様に、ワーク3の加工モード時に手先工具を精度良くワーク3に垂直に接触させることができ、かくしてワーク3の仕上げ加工を高精度に行うことができる。
(3)他の実施の形態
なお上述の第1及び第2の実施の形態においては、制御装置6,43及びコントローラ7を別装置として構成するようにした場合について述べたが、本発明はこれに限らず、これら制御装置6,43及びコントローラ7を同一装置として構成するようにしても良い。
また上述の第1の実施の形態においては、エンドエフェクタ16として、図2について上述したボールローラが先端に設けられたものを適用するようにした場合について述べたが、本発明はこれに限らず、要は、制御装置6がその先端位置を一定時間間隔で取得可能な構成であれば、これ以外の構成の治具を広く適用することができる。
さらに上述の第1の実施の形態においては、図5について上述したロボット軌道生成処理において第2の実施の形態のロボット軌道生成処理(図8)のステップSP20と同様の計測値の間引き処理を実行しない場合について述べたが、本発明はこれに限らず、第1の実施の形態においてもかかる計測値の間引き処理を実行するようにしても良い。具体的には、例えば第1の実施の形態のロボット4についても第2の実施の形態と同様にスピンドルモータ15及び直接教示用ハンドル17間に第2の力覚センサを設け、第2の実施の形態と同様にしてエンドエフェクタ16がワーク3の表面から受ける反力を算出し、算出結果に基づいてロボット軌道生成処理(図5)を実行する際に第2の実施の形態のロボット軌道生成処理(図8)のステップSP20と同様の処理を実行するようにロボットシステム1を構築すれば良い。
本発明は、教示者によりロボットの動作軌道を教示するダイレクトティーチング機能が搭載された種々の構成のロボットシステムに広く適用することができる。
1,40……ロボットシステム
3……ワーク
4,41……ロボット
5……ロボット制御部
6,43……制御装置
7……コントローラ
11……ロボットアーム
13,42……力覚センサ
16……エンドエフェクタ
17……直接教示用ハンドル
30……CPU
31……メモリ
22……ボールローラ
F……反力
、N10……法線方向

Claims (8)

  1. ロボットアームを有し、前記ロボットアームの先端部に軌道教示用のエンドエフェクタが取り付けられるロボットと、
    前記ロボットの動作を制御するロボット制御部と
    を備え、
    前記ロボット制御部は、
    教示者が前記ロボットアームを動かすようにして前記ロボットの動作軌道を教示するティーチングモード時に、前記エンドエフェクタの先端部の位置を一定時間間隔で記憶し、
    前記ティーチングモード時に一定時間間隔で記憶した前記エンドエフェクタの各位置をそれぞれ教示点として、各前記教示点における被加工体の表面の法線方向をそれぞれ算出し、
    算出した前記教示点ごとの前記法線方向に基づいて、前記被加工体を加工する加工モード時における前記ロボットの動作軌道を制御する
    ことを特徴とするロボットシステム。
  2. 前記ロボット制御部は、
    前記教示点ごとに、当該教示点及び当該教示点の周辺の第1又は第2の教示点をそれぞれ通る2つの直線がなす角の二等分線を含む第1の平面と、当該教示点及び当該教示点の周辺の第3又は第4の教示点をそれぞれ通る2つの直線がなす角の二等分線を含む第2の平面との交線と平行な方向を、当該教示点における前記法線方向としてそれぞれ算出する
    ことを特徴とする請求項1に記載のロボットシステム。
  3. 前記ロボットは、
    前記ティーチングモード時に前記教示者が前記ロボットアームを動かす際に把持するハンドルと、
    前記教示者が前記ハンドルに与える操作力と、前記エンドエフェクタが前記被加工体の表面から受ける反力との合力を計測する第1の力覚センサと、
    前記教示者が前記ハンドルに与える前記操作力を計測する第2の力覚センサと
    を備え、
    前記エンドエフェクタは、前記被加工体と接触する先端部がボールローラからなり、
    前記ロボット制御部は、
    前記ティーチングモード時、各前記教示点における前記第1及び第2の力覚センサの計測値をそれぞれ記憶し、
    記憶した前記教示点ごとの前記第1及び第2の力覚センサの計測値に基づいて、各前記教示点における前記被加工体の表面の前記法線方向をそれぞれ算出する
    ことを特徴とする請求項1に記載のロボットシステム。
  4. 前記ロボット制御部は、
    前記ティーチングモード時に得られた各前記教示点において前記エンドエフェクタが記被加工体の表面から受けた前記反力の大きさをそれぞれ算出し、
    算出した前記反力の大きさが閾値よりも大きい各前記教示点について、当該教示点における前記被加工体の表面の前記法線方向をそれぞれ算出する
    ことを特徴とする請求項3に記載のロボットシステム。
  5. ロボットアームを有し、前記ロボットアームの先端部に軌道教示用のエンドエフェクタが取り付けられるロボットと、前記ロボットの動作を制御するロボット制御部とを有するロボットシステムにおいて、前記ロボット制御部により実行されるロボットの制御方法であって、
    教示者が前記ロボットアームを動かすようにして前記ロボットの動作軌道を教示するティーチングモード時に、前記エンドエフェクタの先端部の位置を一定時間間隔で記憶する第1のステップと、
    前記ティーチングモード時に一定時間間隔で記憶した前記エンドエフェクタの各位置をそれぞれ教示点として、各前記教示点における被加工体の表面の法線方向をそれぞれ算出する第2のステップと、
    算出した前記教示点ごとの前記法線方向に基づいて、前記被加工体を加工する加工モード時における前記ロボットの動作軌道を制御する第3のステップと
    を備えることを特徴とするロボットの制御方法。
  6. 前記第2のステップでは、
    前記教示点ごとに、当該教示点及び当該教示点の周辺の第1又は第2の教示点をそれぞれ通る2つの直線がなす角の二等分線を含む第1の平面と、当該教示点及び当該教示点の周辺の第3又は第4の教示点をそれぞれ通る2つの直線がなす角の二等分線を含む第2の平面との交線と平行な方向を、当該教示点における前記法線方向としてそれぞれ算出する
    ことを特徴とする請求項5に記載のロボットの制御方法。
  7. 前記ロボットは、
    前記ティーチングモード時に前記教示者が前記ロボットアームを動かす際に把持するハンドルと、
    前記教示者が前記ハンドルに与える操作力と、前記エンドエフェクタが前記被加工体の表面から受ける反力との合力を計測する第1の力覚センサと、
    前記教示者が前記ハンドルに与える前記操作力を計測する第2の力覚センサと
    を有し、
    前記エンドエフェクタは、前記被加工体と接触する先端部がボールローラからなり、
    前記第2のステップにおいて、前記ロボット制御部は、
    前記ティーチングモード時、各前記教示点における前記第1及び第2の力覚センサの計測値をそれぞれ記憶し、
    記憶した前記教示点ごとの前記第1及び第2の力覚センサの計測値に基づいて、各前記教示点における前記被加工体の表面の前記法線方向をそれぞれ算出する
    ことを特徴とする請求項5に記載のロボットの制御方法。
  8. 前記第2のステップにおいて、前記ロボット制御部は、
    前記ティーチングモード時に得られた各前記教示点において前記エンドエフェクタが記被加工体の表面から受けた前記反力の大きさをそれぞれ算出し、
    算出した前記反力の大きさが閾値よりも大きい各前記教示点について、当該教示点における前記被加工体の表面の前記法線方向をそれぞれ算出する
    ことを特徴とする請求項7に記載のロボットの制御方法。
JP2016068049A 2016-03-30 2016-03-30 ロボットシステム及びロボットの制御方法 Active JP6821934B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016068049A JP6821934B2 (ja) 2016-03-30 2016-03-30 ロボットシステム及びロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068049A JP6821934B2 (ja) 2016-03-30 2016-03-30 ロボットシステム及びロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2017177279A true JP2017177279A (ja) 2017-10-05
JP6821934B2 JP6821934B2 (ja) 2021-01-27

Family

ID=60008126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068049A Active JP6821934B2 (ja) 2016-03-30 2016-03-30 ロボットシステム及びロボットの制御方法

Country Status (1)

Country Link
JP (1) JP6821934B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020203364A (ja) * 2019-06-19 2020-12-24 株式会社Ihi ロボット制御装置、ロボット制御システム及び教示方法
US11141855B2 (en) * 2018-01-15 2021-10-12 Canon Kabushiki Kaisha Robot system, method of controlling robot arm, recording medium, and method of manufacturing an article
CN114451989A (zh) * 2022-01-27 2022-05-10 武汉达九科技有限公司 手术机器人力反馈系统中末端执行器力检测系统
WO2022180795A1 (ja) * 2021-02-26 2022-09-01 株式会社Fuji ロボット
JP7260105B1 (ja) 2022-07-15 2023-04-18 株式会社デンソーウェーブ 教示システム及び教示方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303422A (ja) * 1992-04-27 1993-11-16 Nippon Telegr & Teleph Corp <Ntt> 直接教示方式ロボット
JPH0775982A (ja) * 1993-09-08 1995-03-20 Mitsubishi Electric Corp レーザロボットの自動教示装置
JPH08141961A (ja) * 1994-09-19 1996-06-04 Yaskawa Electric Corp アーム駆動装置
JPH08257955A (ja) * 1995-03-22 1996-10-08 Mitsubishi Heavy Ind Ltd マニピュレーターの曲面なぞり制御方法
JP2006268188A (ja) * 2005-03-22 2006-10-05 Mitsubishi Heavy Ind Ltd 曲面生成方法及びプログラム並びに3次元形状処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303422A (ja) * 1992-04-27 1993-11-16 Nippon Telegr & Teleph Corp <Ntt> 直接教示方式ロボット
JPH0775982A (ja) * 1993-09-08 1995-03-20 Mitsubishi Electric Corp レーザロボットの自動教示装置
JPH08141961A (ja) * 1994-09-19 1996-06-04 Yaskawa Electric Corp アーム駆動装置
JPH08257955A (ja) * 1995-03-22 1996-10-08 Mitsubishi Heavy Ind Ltd マニピュレーターの曲面なぞり制御方法
JP2006268188A (ja) * 2005-03-22 2006-10-05 Mitsubishi Heavy Ind Ltd 曲面生成方法及びプログラム並びに3次元形状処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11141855B2 (en) * 2018-01-15 2021-10-12 Canon Kabushiki Kaisha Robot system, method of controlling robot arm, recording medium, and method of manufacturing an article
JP2020203364A (ja) * 2019-06-19 2020-12-24 株式会社Ihi ロボット制御装置、ロボット制御システム及び教示方法
WO2022180795A1 (ja) * 2021-02-26 2022-09-01 株式会社Fuji ロボット
CN114451989A (zh) * 2022-01-27 2022-05-10 武汉达九科技有限公司 手术机器人力反馈系统中末端执行器力检测系统
JP7260105B1 (ja) 2022-07-15 2023-04-18 株式会社デンソーウェーブ 教示システム及び教示方法
JP2024011544A (ja) * 2022-07-15 2024-01-25 株式会社デンソーウェーブ 教示システム及び教示方法

Also Published As

Publication number Publication date
JP6821934B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
JP6821934B2 (ja) ロボットシステム及びロボットの制御方法
JP6733239B2 (ja) 制御装置及びロボットシステム
KR940003204B1 (ko) 제어로봇
US10195744B2 (en) Control device, robot, and robot system
CN107796276B (zh) 一种估算工业机器人绝对定位精度的装置及方法
JP5720876B2 (ja) 加工ロボット及びその重力補償方法
JP5215378B2 (ja) 3軸力センサを用いて力制御をおこなうロボットの制御装置
JP2006318419A (ja) パラレルメカニズム機械のキャリブレーション方法
CN105817712A (zh) 刮研加工装置和刮研加工方法
JPH0869314A (ja) リードスルーによるロボットプログラミングシステム
CN105935710A (zh) 具有与弯曲加工机同步动作的机器人的机器人系统
JP2665897B2 (ja) ロボット作業教示装置
JP2012171027A (ja) ワークピッキングシステム
CN108982664B (zh) 一种双机械手超声检测方法
JP6418483B2 (ja) 加工軌道生成装置と方法
US20190321990A1 (en) Device, method and program for estimating weight and position of gravity center of load by using robot
JP2018043320A (ja) 制御装置、ロボットおよびロボットシステム
Ali et al. A lead through approach for programming a welding arm robot using machine vision
CN113858189B (zh) 机器人的控制方法及机器人系统
JP6390832B2 (ja) 加工軌道生成装置と方法
JP6569222B2 (ja) ロボットシステム及びその制御方法
JP6011089B2 (ja) ロボットシステム並びにロボット制御装置及び方法
JPH06278007A (ja) 研削ロボット
JP6307838B2 (ja) ロボット、ロボットシステムおよび制御装置
Zheng et al. Research on localisation algorithm of large irregular workpiece for industrial robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6821934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151