JPWO2016151667A1 - ティーチング装置及び制御情報の生成方法 - Google Patents

ティーチング装置及び制御情報の生成方法 Download PDF

Info

Publication number
JPWO2016151667A1
JPWO2016151667A1 JP2017507136A JP2017507136A JPWO2016151667A1 JP WO2016151667 A1 JPWO2016151667 A1 JP WO2016151667A1 JP 2017507136 A JP2017507136 A JP 2017507136A JP 2017507136 A JP2017507136 A JP 2017507136A JP WO2016151667 A1 JPWO2016151667 A1 JP WO2016151667A1
Authority
JP
Japan
Prior art keywords
marker
unit
information
work
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017507136A
Other languages
English (en)
Other versions
JP6499272B2 (ja
Inventor
政利 藤田
政利 藤田
児玉 誠吾
誠吾 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Corp
Original Assignee
Fuji Machine Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Machine Manufacturing Co Ltd filed Critical Fuji Machine Manufacturing Co Ltd
Publication of JPWO2016151667A1 publication Critical patent/JPWO2016151667A1/ja
Application granted granted Critical
Publication of JP6499272B2 publication Critical patent/JP6499272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Abstract

複数のロボットによる協調した作業を教示できるティーチング装置を提供すること。ティーチング装置は、ロボットアームが作業位置において実施する作業情報を入力するための入力部を備える。ユーザは、マーカー部(43A),(43B)をそれぞれ設けた2つの治具(15A),(15B)(2台のロボットアームを模擬したもの)を動かしてモーションキャプチャーを実施する際に、適切なタイミングで入力部を操作し、各ロボットアームにさせたい作業内容を入力することで、ティーチング装置に対しロボットアームの細かい作業内容を設定することが可能となる。

Description

本発明は、ロボットに対して動作を教示するためのティーチング装置及び当該ロボットを制御する制御情報を生成する方法に関する。
近年、生産現場における省人化を図るべく、産業用ロボットを使用した作業の自動化が進んでいる。産業用ロボット、例えばロボットアームの中には、並行に配置した複数のアーム部によって1つのエンドエフェクタを支持するいわゆるパラレルリンク機構を備えるものや、多関節ロボットのような複数のアーム部を1方向に連結させてエンドエフェクタを支持するシリアルリンク機構を備えるものがある。
また、従来、ロボットアームで行う作業を人が模擬し、模擬した人の動作をモーションキャプチャーによって取得し、ロボットアームに対して教示するティーチング装置がある(例えば、特許文献1など)。特許文献1に開示されるティーチング装置では、作業者が測定装置(文献では、「モーションキャプチャー」)を手に装着した状態で動作させると、測定装置から送信される3次元座標データに基づいて、予め定められたサンプリング間隔で測定装置の位置をサンプリングする。ティーチング装置は、サンプリングしたデータに基づいて、移動位置、移動速度等を演算し、演算した移動位置を移動速度で移動するようにアーム部を制御している。
特開2011−200997号公報
ところで、生産現場では、同一の対象物に対し、1台のロボットアームだけでなく、複数台のロボットアームを協調させて同時に作業させることが行われている。これに対し、上記したティーチング装置では、モーションキャプチャーを実施する空間内に測定装置を手に装着した作業者の腕が挿入されるため、複数のロボットアームの動作を教示しようとすると、空間内に複数の作業者の腕が挿入されることとなる。このため、複数の作業者の腕が互いに干渉する虞がある。また、ロボットアームが複雑な方向へ移動する場合には、人の手では模擬できない虞がある。
本発明は、上記した課題を鑑みてなされたものであり、複数のロボットによる協調した作業を教示できるティーチング装置及び制御情報の生成方法を提供することを目的とする。
上記課題を解決するために、本願の請求項1に記載のティーチング装置は、第1及び第2移動部と、第1移動部に設けられた第1作業部と、第2移動部に設けられた第2作業部とを備えるロボットの動作を制御する制御情報を生成するティーチング装置であって、第1移動部の位置を示す第1位置マーカー部を有する第1治具と、第2移動部の位置を示し、第1位置マーカー部とは異なる特性を有する第2位置マーカー部を有する第2治具と、第1及び第2治具の各々の移動にともなって移動する第1及び第2位置マーカー部を検出する検出部と、第1及び第2作業部の各々が作業位置において実施する作業に係わる作業情報を入力する入力部と、検出部が第1及び第2位置マーカー部の各々を検出した検出データと、入力部の作業情報とを処理する処理部と、を備え、処理部は、検出データに基づいて、第1及び第2位置マーカー部の各々の3次元座標の位置情報を生成する位置情報生成処理と、位置情報に基づいて、第1及び第2位置マーカー部の各々の移動方向及び移動速度に係わる移動情報を生成する移動情報生成処理と、位置情報及び移動情報に応じて第1及び第2移動部の各々を協調して移動させ、且つ作業情報に応じて第1及び第2作業部の各々に作業をさせる一連の作業の制御情報を生成する制御情報生成処理と、を実行することを特徴とする。
また、請求項2に記載のティーチング装置では、請求項1に記載のティーチング装置において、複数の第1位置マーカー部と、複数の第1位置マーカー部とは異なる数の複数の第2位置マーカー部と、を備え、処理部は、複数の第1位置マーカー部の重心を第1重心位置として設定する第1重心位置設定処理と、複数の第2位置マーカー部の重心を第2重心位置として設定する第2重心位置設定処理と、を実行し、位置情報生成処理として、第1重心位置及び第2重心位置の各々の3次元座標の位置情報を生成することを特徴とする。
また、請求項3に記載のティーチング装置では、請求項1に記載のティーチング装置において、検出部は、第1及び第2位置マーカー部を撮像し、撮像した撮像データを検出データとして処理部に出力する撮像素子を有し、第1及び第2位置マーカー部の各々に対し、互いに波長が異なる第1照射光及び第2照射光を照射する照明部を備え、第1位置マーカー部は、第1照射光を反射可能に構成され、第2位置マーカー部は、第2照射光を反射可能に構成されることを特徴とする。
また、請求項4に記載のティーチング装置では、請求項1乃至請求項3のいずれかに記載のティーチング装置において、処理部は、位置情報に基づいて、第1及び第2位置マーカー部の互いの間の距離を判定する距離判定処理と、距離が所定の距離以下となった場合に、その旨を報知する報知処理と、を実行することを特徴とする。
また、請求項5に記載のティーチング装置では、請求項1乃至請求項4のいずれかに記載のティーチング装置において、第1治具は、第1可動部と、第1可動部を駆動する第1駆動部と、第1可動部の位置を示す第1可動部用マーカー部とを有し、第2治具は、第2可動部と、第2可動部を駆動する第2駆動部と、第2可動部の位置を示す第2可動部用マーカー部とを有し、処理部は、位置情報生成処理として、第1及び第2駆動部の駆動に基づいて第1及び第2可動部の各々が動作するのにともなって移動する第1及び第2可動部用マーカー部の各々の位置情報を生成することを特徴とする。
また、請求項6に記載のティーチング装置では、請求項1乃至請求項5のいずれかに記載のティーチング装置において、処理部は、制御情報生成処理において、第1移動部を移動させた後に第1作業部による作業を実施する前、及び第2移動部を移動させた後に第2作業部による作業を実施する前の2つのタイミングのうち、少なくとも一方のタイミングで実行する制御情報として、作業位置における第1及び第2作業部の位置を補正する制御情報を追加することを特徴とする。
また、請求項7に記載のティーチング装置では、請求項1乃至請求項6のいずれかに記載のティーチング装置において、処理部は、位置情報生成処理において、生成した位置情報の中から複数の特徴点を抽出し、特徴点間の位置情報を近似する補正処理を行うことを特徴とする。
また、請求項8に記載のティーチング装置では、請求項1乃至請求項6のいずれかに記載のティーチング装置において、処理部は、位置情報生成処理として、検出データに基づいて、第1及び第2位置マーカー部の各々の位置をサンプリングし、サンプリング点の位置を位置情報として生成することを特徴とする。
また、請求項9に記載のティーチング装置では、請求項8に記載のティーチング装置において、処理部は、移動情報生成処理として、位置情報生成処理によって生成された第1及び第2位置マーカー部の各々のサンプリング点に対し、隣接するサンプリング点間の位置関係に基づいて移動方向を検出し、隣接するサンプリング点間の距離とサンプリング周期とに基づいて移動速度を検出することを特徴とする。
また、請求項10に記載のティーチング装置では、請求項9に記載のティーチング装置において、処理部は、移動情報生成処理として、サンプリング点を結ぶ曲線の曲率が所定の曲率を超えていた場合、移動速度が所定の速度を超えていた場合、及び移動速度における加速度が所定の加速度を超えていた場合の少なくとも一つの場合に、位置情報を補正することを特徴とする。
また、請求項11に記載のティーチング装置では、請求項1乃至請求項10のいずれかに記載のティーチング装置において、ロボットの動作の基準となる位置に設けられた基準マーカー部を備え、検出部は、基準マーカー部を検出し、処理部は、位置情報生成処理において、基準マーカー部に対する第1位置マーカー部の相対的な位置と、基準マーカー部に対する第2位置マーカー部の相対的な位置とのそれぞれを、位置情報として生成することを特徴とする。
また、請求項12に記載のティーチング装置では、請求項1乃至請求項11のいずれかに記載のティーチング装置において、ロボットは、第1及び第2移動部の各々の駆動機構としてシリアルリンク機構を備えることを特徴とする。
また、上記課題を解決するために、本願の請求項13に記載の制御情報の生成方法は、第1及び第2移動部と、第1移動部に設けられた第1作業部と、第2移動部に設けられた第2作業部とを備えるロボットの動作を制御する制御情報の生成方法であって、第1移動部の位置を示す第1位置マーカー部を有する第1治具と、第2移動部の位置を示し、第1位置マーカー部とは異なる特性を有する第2位置マーカー部を有する第2治具と、第1及び第2治具の各々の移動にともなって移動する第1及び第2位置マーカー部を検出する検出部と、第1及び第2作業部の各々が作業位置において実施する作業に係わる作業情報を入力する入力部と、を備えるティーチング装置に対し、検出部が第1及び第2位置マーカー部の各々を検出した検出データに基づいて、第1及び第2位置マーカー部の各々の3次元座標の位置情報を生成する位置情報生成ステップと、位置情報に基づいて、第1及び第2位置マーカー部の各々の移動方向及び移動速度に係わる移動情報を生成する移動情報生成ステップと、位置情報及び移動情報に応じて第1及び第2移動部の各々を協調して移動させ、且つ作業情報に応じて第1及び第2作業部の各々に作業をさせる一連の作業の制御情報を生成する制御情報生成ステップ処理と、を実行させることを特徴とする。
本願の請求項1に記載のティーチング装置では、例えば、移動部及び作業部の組み合わせを2組備えるロボットを制御する制御情報を生成する。モーションキャプチャーの作業では、第1位置マーカー部を設けた第1治具と、第2位置マーカー部を設けた第2治具とを、被検出体として用いることで、測定装置を装着した人の手等を用いる必要がなくなる。これにより、例えば、複数の移動部及び作業部の動作を模擬する場合に、モーションキャプチャーを実施する空間内に複数の作業者の腕が挿入することがなく、作業者の腕が干渉するなどの不具合を防止することが可能となる。また、人の動作では表現できないロボットの動き、例えば、人の腕の関節を逆方向に動かす動きであっても、治具を動かすことで教示が可能となる。
また、第2位置マーカー部は、第1位置マーカー部とは異なる特性で構成される。第1及び第2位置マーカー部の検出方法としては、例えば、異なる波長の光を第1及び第2位置マーカー部の各々に照射し、各々の位置マーカー部の反射光を撮像した撮像データから、位置情報等を演算する光学方式のモーションキャプチャーを用いることができる。この場合、例えば、第2位置マーカー部を、第1位置マーカー部とは異なる波長の光を反射する素材で構成する。なお、位置マーカー部の検出方法は、これに限らず、他の方法、例えば、撮像データに対し位置マーカー部の形状を検出する画像処理を実行し、実行結果から位置を検出してもよい。あるいは、位置マーカー部として磁気センサを用いて、移動する複数の磁気センサからの識別情報を付加した位置データを受信して、受信した位置データから各磁気センサの位置情報等を演算する磁気方式のモーションキャプチャーを用いることができる。
また、当該ティーチング装置は、作業部が作業位置において実施する作業、例えば、ワークを挟む、ワークを掴む、レーザを照射する、撮像を行う、ワークを吸着する等の作業に係わる作業情報を入力するための入力部を備える。このため、ユーザは、入力部を適切なタイミングで操作し、且つ、ロボットにさせたい作業内容を作業情報として入力することで、ティーチング装置に対して第1及び第2作業部の各々の細かい作業等を設定することが可能となる。
そして、処理部は、検出データから生成した位置情報及び移動情報に応じて第1及び第2移動部を協調して移動させ、且つ作業情報に応じて第1及び第2作業部に作業をさせる一連の作業の制御情報を生成する。つまり、処理部は、制御情報生成処理において、移動情報等と、作業情報等をリンクさせて制御情報を生成することが可能となる。これにより、当該ティーチング装置では、例えば、第1及び第2作業部の各々の作業位置を調整する補正処理等を、適切なタイミングや作業内容で実施するように、2つの移動部の移動に合わせた一連の作業工程の中に盛り込むことが可能となる。
また、本願の請求項2に記載のティーチング装置では、例えば、第1治具に対して複数の第1位置マーカー部を取り付けてグループ化し、複数の第1位置マーカー部の第1重心位置を、被検出対象としてモーションキャプチャーする。同様に、第2治具に対して複数(第1位置マーカー部とは異なる数)の第2位置マーカー部を取り付けてグループ化し、複数の第2位置マーカー部の第2重心位置を、被検出対象としてモーションキャプチャーする。この場合、マーカー部の数やその重心位置の相異が、異なる特性となる。これにより、グループ化された各位置マーカー部の群単位で、位置情報のマッチングを実施することで、位置情報の混同を防ぎ、各位置マーカー部の動作を精度よく検出することが可能となる。例えば、各グループの位置マーカー部の取付け位置や配置を変更し、互いにユニークな形状や重心位置を設定することで、位置情報のマッチングが容易となる。また、各グループ内において、複数の位置マーカー部の一部の位置情報が検出できなくとも、他の位置マーカー部の位置情報に基づいて検出できない位置マーカー部の位置を補間し、重心位置を取得することで、位置情報の消失を防止することが可能となる。
また、本願の請求項3に記載のティーチング装置では、第1及び第2位置マーカー部は、互いに異なる反射特性で構成されている。検出部は、第1位置マーカー部が第1照射光を反射した反射光と、第2位置マーカー部が第2照射光を反射した反射光とを撮像素子によって撮像する。処理部は、撮像素子の撮像データから、輝度等で識別しながら第1及び第2位置マーカー部の各々の位置を検出することによって、各位置マーカー部の動作を精度よく検出することが可能となる。
また、第1及び第2治具は、実際のロボットアーム等を模擬したものであるが、ユーザによる操作性を考慮して、実物に対して外形を小さくすることが考えられる。この場合、2つの治具を動作させて作成した制御情報に基づいて、ロボットを動かすと、第1及び第2移動部等が衝突して互いに干渉する虞がある。そこで、本願の請求項4に記載のティーチング装置では、例えば、第1及び第2位置マーカー部の中心から実物のロボットの外形寸法に応じた距離を、衝突の虞がある距離として設定する。そして、処理部は、第1及び第2位置マーカー部間の距離を、衝突の虞がある距離以下であると判定すると、その旨を報知する。これにより、ユーザは、作業中に第1及び第2治具が、実際には衝突の虞のある距離まで近づいたことを認識でき、再度やり直すなどの適切な対応を取ることが可能となる。
また、本願の請求項5に記載のティーチング装置では、第1及び第2治具の各々は、第1及び第2可動部、第1及び第2可動部用マーカー部、第1及び第2駆動部のそれぞれを備える。処理部は、第1及び第2駆動部の駆動に応じて可動する第1及び第2可動部の各々の第1及び第2可動部用マーカー部をモーションキャプチャーする。これにより、ユーザは、所定の作業位置において、第1及び第2駆動部によって第1及び第2可動部の各々を動作させることによって、人の指等で模擬する場合に比べて、ワークを掴んだり、離したりする動作をより忠実に再現することが可能となる。
また、本願の請求項6に記載のティーチング装置では、例えば、第1治具を人が手で動かす場合には、第1位置マーカー部の移動の精度は、人が治具を操る精度に依存する。このため、当該ティーチング装置では、より高い作業精度が要求される場合、作業位置で作業を実施する前に位置補正の処理を実施し、最終的な作業位置を補正することで、高い精度が要求される作業にも対応することが可能となる。
また、本願の請求項7に記載のティーチング装置では、処理部は、特徴点の抽出と、当該特徴点間の位置情報を近似する補正処理を行う。特徴点の抽出は、例えば、移動方向が所定の角度以上変更された点を特徴点として抽出する。あるいは、特徴点の抽出は、例えば、複数の位置情報の中から一定の間隔ごとの点を特徴点として抽出する。
処理部は、抽出した特徴点を、例えば、ロボットの動作の起点や終点として設定し、その起点から終点に向かってロボットが移動可能となるように、特徴点間の位置情報を補正する。例えば、補正処理として、外部からのノイズによって、大幅に位置のずれた点が特徴点間にある場合、当該点に係わる位置情報を不要なデータとして破棄する。あるいは、補正処理として、特徴点間の位置情報を、当該特徴点を結ぶ直線や曲線で近似する。これにより、生成した制御情報に基づいてロボットをより滑らかに動作させ、無駄な動作を省いて作業効率を向上させることが可能となる。また、治具を人が操作する場合の人の手の震えなどによる位置情報のずれを補正することが可能となる。
また、本願の請求項8に記載のティーチング装置では、処理部は、所定のサンプリング周期で、検出データから位置情報を生成する。このため、当該ティーチング装置では、サンプリング周期の時間を変更することで、処理部が第1及び第2位置マーカー部の各々の位置を検出する精度を調整することが可能となる。
また、本願の請求項9に記載のティーチング装置では、処理部は、隣接するサンプリング点の位置情報に基づいて、移動方向や移動速度を検出する。このため、当該ティーチング装置では、サンプリング周期の時間を変更することで、処理部が第1及び第2位置マーカー部の各々の移動方向及び移動速度を検出する精度を調整することが可能となる。
また、例えば、第1及び第2治具を人が操作して、その第1及び第2治具の移動する向き、移動速度、加速度が、制御情報を適用するロボットの移動能力を超えていた場合、制御情報を生成したとしても、ロボットに所望の作業を実行させることは困難となる。そこで、本願の請求項10に記載のティーチング装置では、例えば、サンプリング点を結ぶ曲線の曲率が、所定の曲率(例えば、ロボットの移動可能な曲率)を超えていた場合、移動可能な曲率となるように位置情報(座標等)を補正する。これにより、モーションキャプチャーによって生成した制御情報を、実際にロボットを制御するデータとして容易に使用することが可能となる。
また、モーションキャプチャーを行う場合、第1及び第2治具の動作をトラッキングするトラッキング領域と、ロボットを実際に作業させる作業領域との位置がずれる虞がある。そこで、本願の請求項11に記載のティーチング装置では、基準マーカー部を基準として位置情報を生成する。これにより、生成した制御情報を使用する場合、基準マーカー部の位置を、実際の作業領域内の基準に合わせることで、ロボットを精度よく制御することが可能となる。ここでいう作業領域内の基準とは、例えば、XYロボットであれば、X方向及びY方向の位置を決定する際に基準とする位置である。
また、例えば、制御情報をシミュレーション用のツール(三次元CADなど)に取り込んでロボットの動きを確認したい場合、基準マーカー部の位置をツールの基準位置に合わせることによって、制御情報の取り込みや使用が容易となる。また、例えば、同じ基準マーカー部を使用して2つのロボットの制御情報を別々に生成しておき、2つの制御情報の基準マーカー部の位置をツールの基準位置に合わせてシミュレーションすることによって、2つのロボットの動作が互いに干渉しないか否かを確認することが可能となる。
また、本願の請求項12に記載のティーチング装置では、本願のロボットとして、生産現場で広く使用されているシリアルリンク機構を備えるロボット、例えば、多関節のロボットアームに適用することは有効である。
さらに、本願に係る発明は、ティーチング装置に限定されることなく、ティーチング装置によって制御情報を生成する方法の発明としても実施し得るものである。
本実施形態のティーチング装置の要部の構成を概略的に示した図である。 複数のカメラが取り付けられた枠部の斜視図である。 制御情報を用いて制御する対象である産業用ロボットの構成を示す模式図である。 本実施形態のティーチング装置を用いてモーションキャプチャーを実施する状態を示す模式図である。 CPUによる制御情報の生成処理を示すフローチャートである。 2つの治具が備える各マーカー部の位置をサンプリングしたサンプリング点を示す図である。 別例の治具を示す模式図である。 別例の治具を示す模式図である。 別例の治具を示す模式図である。 別例の治具を示す模式図である。
以下、本発明のティーチング装置の一実施形態について、図面を参照しつつ説明する。図1は、本実施形態のティーチング装置10の要部の構成を概略的に示している。ティーチング装置10は、光学方式のモーションキャプチャーによって、複数(図1では1台のみ図示)のカメラ13と、2つの治具15(図1では1つのみ図示)と、制御情報生成装置17とを備える。ティーチング装置10は、治具15の各々の動きを複数のカメラ13によって撮像し、カメラ13の撮像データD1から図3に示すロボットアーム101,103を制御する制御情報D5を制御情報生成装置17によって生成する。
<カメラ13について>
図2に示すように、複数のカメラ13の各々は、複数(本実施形態では、12本)のパイプ21を直方体形状に組み付けた枠部23に取付けられている。複数のパイプ21の各々は、同一の長さで形成されており、直方体形状の枠部23の角部分において、12本のパイプ21のうち、任意の3本のパイプ21が連結部材25によって互いに連結されている。各連結部材25は、3本のパイプ21の各々の端部21Aを挿入して保持しており、3本のパイプ21の各々を互いに直交するようにして固定している。以下、図2に示すように、枠部23を配置する台19の載置面に対して直交する方向を上下方向、上下方向に直交し図2において前後に向かう方向を前後方向、上下方向及び前後方向に直交する方向を左右方向と称し、説明する。
本実施形態のティーチング装置10は、例えば、合計で6個のカメラ13が枠部23に取付けられている。以下、複数のカメラ13を区別する必要があるときは、図2に示すように、カメラ13の符号の後にアルファベットを付して説明する。また、区別する必要がないときは、6台のカメラを「カメラ13」と総称して説明する。6台のカメラ13うち、4台のカメラ13A,13B,13C,13Dは、枠部23の上方側となる4本のパイプ21の各々に、固定部材27によって取付けられている。4台のカメラ13A〜13Dの各々は、上方側の4つの連結部材25のそれぞれに近接する位置に取り付けられている。固定部材27は、カメラ13A〜13Dの各々を、撮像方向が枠部23の中央部分を向くようにして固定している。
また、6台のカメラ13のうち、残りの2台のカメラ13E,13Fは、上下方向に沿って設けられた4本のパイプ21のうち、対角線上で対向する一組のパイプ21の各々に、固定部材27によって取り付けられている。カメラ13E,13Fは、パイプ21における台19側となる下端部に取り付けられ、撮像方向が枠部23の中央部分を向くようにして固定部材27によって固定されている。これら6台のカメラ13は、後述する治具15のマーカー部43を撮影するため、枠部23で取り囲まれた立方体形状の領域をトラッキング領域R1、即ち、治具15及びマーカー部43を可動させて追跡するための領域として設定している。なお、6台のカメラ13は、例えば、マーカー部43をトラッキングするために、撮像範囲が互いに重複するように設定され、トラッキング領域R1を3次元的に撮像可能となっている。また、図2に示す枠部23の形状、カメラ13の台数、カメラ13の取り付け位置等は、一例であり、適宜変更可能である。
図1及び図2に示すように、カメラ13の各々は、撮像素子31と、照明装置33,34とを備える。撮像素子31は、例えば、CCDイメージセンサやCMOSイメージセンサである。照明装置33,34は、例えば、LED照明であり、互いに異なる波長の光を照射する。これは、後述する2つの治具15A,15B(図4参照)の各々に設けられたマーカー部43A,43Bに対応した2種類の光である。カメラ13は、照明装置33,34から照射しマーカー部43A,43Bによって反射した反射光を撮像素子31によって受光する。カメラ13は、撮像したデータを撮像データD1として、映像ケーブル35を介してティーチング装置10へ出力する。なお、カメラ13は、マーカー部43A,43Bの反射光を検出し易いように、照明装置33,34から照射する光の波長に応じた光学フィルターを、撮像素子31の光の入射口に取り付けてもよい。
<治具15について>
次に、検出対象である治具15について説明する。図1に示す治具15は、図3に示す産業用ロボット100のロボットアーム101,103を模擬した被検出体であり、本体部41と、マーカー部43と、エンドエフェクタ45と、把持部47とを備えている。図3は、産業用ロボット100の構成を模式的に示したものである。ロボットアーム101は、2つのアーム部105(移動部の一例)を1方向に連結させ、先端部分にエンドエフェクタであるハンド部109(作業部の一例)を支持するシリアルリンク機構を備える多関節ロボットである。同様に、ロボットアーム103は、2つのアーム部107を1方向に連結させ、先端部分にハンド部111を支持する。産業用ロボット100は、例えば、ロボットアーム101,103を駆動して、ハンド部109,111に挟持したワークW1,W2を基板Bに取り付ける作業を行う。ワークW1,W2は、例えば、電子部品やネジ等である。
図1に示す治具15の本体部41は、ロボットアーム101,103のアーム部105,107に対応する。ここで、後述するように、本実施形態のティーチング装置10では、2つのロボットアーム101,103を協調させて動作させるための制御情報D5を生成する。このため、2種類の治具15A,15B(図4参照)を使用し、各治具15A,15Bを、それぞれ異なるロボットアーム101,103であると仮定してモーションキャプチャーを行う。以下の説明では、この2種類の治具15、あるいは当該治具15が備える各部(マーカー部43など)を区別する必要があるときは、図4に示すように、治具15等の符号の後にアルファベットを付して説明する。また、区別する必要がないときは、2つの治具を「治具15」と総称して説明する。
マーカー部43は、本体部41の外周部分に固定されている。マーカー部43は、球体をなし、各カメラ13の照明装置33,34から照射される光を反射する。例えば、図4に示す治具15Aに設けられたマーカー部43Aは、照明装置33が照射する特定の波長の光を反射する反射特性を有する材質等で構成されている。また、もう一方の治具15Bに設けられたマーカー部43Bは、照明装置34が照射する特定の波長の光を反射する反射特性を有する材質等で構成されている。
エンドエフェクタ45は、ロボットアーム101,103(図3参照)のワークW1,W2を挟むハンド部109,111を模擬した形状をなしており、先端部分が互いに近接する方向に向かって屈曲した一対の棒状の部材で構成されている。一対のエンドエフェクタ45は、マーカー部43を挟む位置に設けられ、先端部分が開閉可能に構成されている。エンドエフェクタ45の各々の先端部分には、当該エンドエフェクタ45の動きをトラッキングするための可動部用マーカー部46が設けられている。例えば、可動部用マーカー部46A,46Bは、マーカー部43A,43Bと同様に、互いに異なる反射特性で構成されており、カメラ13の照明装置33,34の各々から照射される光を反射する。これにより、制御情報生成装置17は、治具15と同様に、エンドエフェクタ45の位置情報D2も取得することが可能となる。なお、カメラ13は、治具15に使用する照明装置33,34とは別に、エンドエフェクタ45に光を照射する専用の照明装置を備えてもよい。
また、本体部41には、エンドエフェクタ45を開閉動作させるためのアクチュエーター49が内蔵されている。また、本体部41には、マーカー部43やエンドエフェクタ45とは反対側の部分に棒状の把持部47の先端部が取り付けられている。把持部47は、例えば、枠部23のトラッキング領域R1(図2参照)内に治具15を入れた状態で、枠部23の外に飛び出した当該把持部47の基端部をユーザが手に持つことができる程度の長さで構成されている。これにより、ユーザは、体の一部をトラッキング領域R1に入れることなく、治具15を操作することが可能となる。
把持部47の本体部41とは反対側の基端部には、アクチュエーター49を駆動、又は停止させるための駆動スイッチ51が設けられている。駆動スイッチ51は、把持部47及び本体部41内に配設された接続線53によってアクチュエーター49と接続されている。例えば、モーションキャプチャーを実行する際には、ユーザは、把持部47の基端部を持って、先端部に設けられた治具15を、枠部23のトラッキング領域R1内において、開始位置から所望の位置、例えば、ロボットアーム101,103がハンド部109,111でワークW1,W2を挟持する作業位置まで移動させる。ユーザは、移動させた後に、駆動スイッチ51をオン操作することで、エンドエフェクタ45の先端部分を閉じた状態とする。あるいは、ユーザは、駆動スイッチ51をオフ操作することで、エンドエフェクタ45の先端部分を開いた状態とする。ティーチング装置10は、エンドエフェクタ45の動作をトラッキングし、後述する制御情報D5を生成する。この制御情報D5は、図3に示す産業用ロボット100のハンド部109,111を制御する制御情報D5である。
<制御情報生成装置17について>
次に、制御情報生成装置17の構成について説明する。制御情報生成装置17は、例えば、CPU(Central Processing Unit)61を主体として構成されたパーソナルコンピュータであり、変換部63、記憶部65、入力部67、表示部69等を備える。制御情報生成装置17は、カメラ13から出力された撮像データD1を、映像ケーブル35(図2参照)を介して変換部63に入力する。変換部63は、複数のカメラ13で撮像された撮像データD1を、時系列的に整列させ、カメラ13の識別情報や時間情報等を付加してCPU61に出力する。CPU61は、変換部63から入力された撮像データD1を記憶部65に保存する。記憶部65は、メモリやハードディスク等を備えており、撮像データD1の他に、制御プログラムD7や設計情報D6等が保存されている。制御プログラムD7は、CPU61上で実行されるプログラムである。設計情報D6は、図3に示す産業用ロボット100に係わる情報であり、アーム部105,107の外形の寸法、アーム部105,107の最大移動速度等の情報である。
CPU61は、記憶部65に保存された制御プログラムD7を読み出して実行することにより、位置情報生成部71、移動情報生成部73、制御情報生成部75の各種の処理モジュールを実現する。なお、本実施形態では、位置情報生成部71等は、CPU61で制御プログラムD7が実行されることによって実現されるソフトウェアとして構成されているが、専用のハードウェアとして構成してもよい。
入力部67は、ユーザからの入力を受け付けるキーボードやマウス等の入力装置である。上記したように、本実施形態のティーチング装置10は、治具15を作業位置まで移動させた後、駆動スイッチ51を操作することでエンドエフェクタ45を開閉させ、ハンド部109,111(図3参照)を動作させるための作業情報D3の生成をティーチング装置10に教示することが可能となっている。また別の方法として、ユーザは、治具15を作業位置まで移動させた後、入力部67を操作することよって、他の作業情報D3を生成する旨をティーチング装置10に指示することが可能となっている。例えば、ユーザは、入力部67を操作し、ワークW1,W2を吸着する作業、ワークW1,W2の一部にレーザを照射して穴を開ける作業、ワークW1,W2に接着剤を塗布する作業などを入力することができる。これにより、ティーチング装置10は、治具15の位置情報D2等と、作業情報D3とをリンクさせた一連の作業の制御情報D5を生成することが可能となる。また、表示部69は、制御情報D5を生成する過程における途中経過や、生成後の結果情報などの各種情報を表示する。
次に、制御情報生成装置17における制御情報D5の生成処理の一例について説明する。まず、モーションキャプチャーを実行する作業内容について説明する。以下の説明では、一例として、2台のロボットアーム101,103(図3参照)が、互いに協調して動作しながら基板BにワークW1,W2を実装する作業のモーションキャプチャーを実行する。図4は、モーションキャプチャーを実施する場合の状態を模式的に示している。
図4に示すように、例えば、枠部23のトラッキング領域R1内にワークW1,W2(図3参照)を供給するための供給装置81,82を配置する。供給装置81,82は、例えば、テーピング化された電子部品(ワーク)を1つずつ供給位置に送り出すテープフィーダ型の供給装置、あるいは、電子部品が所定の間隔毎に並べられた複数のトレイを備えるトレイ型の供給装置である。供給装置81のワークW2の供給位置には、供給位置用マーカー部84が設けられている。また、供給装置82のワークW1の供給位置には、供給位置用マーカー部85が設けられている。供給装置81及び供給装置82は、前後方向において供給位置(供給位置用マーカー部84,85)を互いに対向させるようにして配置されている。
また、供給装置81,82の前後方向における間には、基板86が配置されている。基板86は、長方形状に形成され、平面が前後方向及び左右方向に沿うようにして水平に配置されている。基板86の4つの角部分には、実装位置用マーカー部88が設けられている。なお、以下の説明では、治具15Aが実装作業を行う実装位置用マーカー部88を、他の実装位置用マーカー部88と区別するため、実装位置用マーカー部88Aと称する。また、治具15Bが実装作業を行う実装位置用マーカー部88を、他の実装位置用マーカー部88と区別するため、実装位置用マーカー部88Bと称する。また、上記した供給装置81,82及び基板86は、実物の装置や基板を用いてもよく、形状を模擬した部材を用いてもよい。また、基板86の中心部には、3つの基準マーカー部91が隣接して設けられている。基準マーカー部91は、ロボットアーム101,103(図3参照)の動作の基準となる位置である。
例えば、図3に示すロボットアーム101のハンド部109によって供給装置82(図4参照)の供給位置からワークW1をピックアップし、基板Bに実装する作業を、治具15Aにて教示する。この場合、図4の実線の矢印93で示すように、ユーザは、把持部47Aを持って治具15Aを操作し、図4に示す開始位置から供給位置用マーカー部85まで治具15Aを移動させる。ユーザは、供給位置用マーカー部85の位置において、駆動スイッチ51Aをオン操作してエンドエフェクタ45Aを閉じた状態とする。ユーザは、駆動スイッチ51Aを操作する前に、制御情報生成装置17の入力部67を操作して、エンドエフェクタ45Aを操作する旨の作業情報D3を入力する。次に、ユーザは、治具15Aを、供給位置用マーカー部85から実装位置用マーカー部88Aの位置まで移動させる。そして、ユーザは、実装位置用マーカー部88Aの位置において、駆動スイッチ51Aをオフ操作してエンドエフェクタ45Aを開いた状態とする。この場合にもユーザは、駆動スイッチ51Aを操作する前に入力部67を操作して、エンドエフェクタ45Aを操作する旨の作業情報D3を入力する。
また、ロボットアーム103のハンド部111によって供給装置81(図4参照)の供給位置からワークW2をピックアップし、基板Bに実装する作業を、治具15Bにて教示する。この作業は、上記したロボットアーム101の作業と同時に行う作業である。この場合、図4の破線の矢印95で示すように、ユーザは、把持部47Bを持って治具15Bを操作し、図4に示す開始位置から供給位置用マーカー部84まで治具15Bを移動させる。ユーザは、供給位置用マーカー部84の位置において、入力部67によって作業情報D3を入力した後、駆動スイッチ51Bをオン操作してエンドエフェクタ45Bを閉じた状態とする。次に、ユーザは、治具15Bを、供給位置用マーカー部84から実装位置用マーカー部88Bの位置まで移動させる。そして、ユーザは、実装位置用マーカー部88Bの位置において、入力部67によって作業情報D3を入力した後、駆動スイッチ51Bをオフ操作してエンドエフェクタ45Bを開いた状態とする。なお、治具15Bを操作するユーザは、治具15Aを操作するユーザとは別のユーザでもよい。
次に、上記したモーションキャプチャー中において、CPU61が制御情報D5を生成する処理について、図5に示すフローチャートを参照しつつ説明する。なお、図5に示すフローチャートの処理の内容や処理の順番は、一例であり、適宜変更可能である。制御情報生成装置17は、上記した治具15A,15Bの動作をトラッキングして、制御情報D5を生成する。詳述すると、まず、CPU61は、制御プログラムD7を実行し処理を開始した後、図5に示すステップ(以下、単に「S」と表記する)11において、ユーザが入力部67を操作して作業情報D3を入力したか否かを判定する。これは、ユーザが入力部67を操作して作業情報D3を入力した場合、当該作業情報D3の内容に応じた処理を実行するためである。作業情報D3が入力された場合(S11:YES)、CPU61は、入力された作業情報D3がエンドエフェクタ45(駆動スイッチ51)を操作する旨の情報であるか否かを判定する(S12)。また、作業情報D3が入力されていない場合(S11:NO)、CPU61は、S15以降の処理を開始する。
S12において、エンドエフェクタ45を操作する旨の作業情報D3でない場合(S12:NO)、CPU61は、入力された作業情報D3の種類に応じた制御情報、例えば、ワークW1,W2を吸着する作業に対応するサブルーチンのプログラムを、当該作業情報D3に付加して記憶部65に保存する(S13)。図4に示す矢印93,95の作業では、エンドエフェクタ45以外の作業情報D3の入力はなかったが、ユーザは、例えば、治具15が所定の作業位置に到達した場合に、入力部67を操作して、吸着作業、レーザの照射作業、接着剤の塗布作業等の作業情報を入力することができる。これにより、生成される制御情報D5の一連の作業工程の中に、各種の作業を追加等することが可能となる。
また、S12において、入力された作業情報D3がエンドエフェクタ45を操作する旨の情報である場合(S12:YES)、CPU61は、S15以降に示す位置情報D2等の生成を行い、エンドエフェクタ45A,45Bの各々の可動部用マーカー部46A,46Bの位置、傾き、移動方向等に応じた制御情報D5、即ち、ハンド部109,111(図3参照)に所望の動作をさせる制御情報D5を生成する。なお、以下の説明では、主に治具15のマーカー部43を撮像した撮像データD1に基づいて制御情報D5を生成する処理について説明する。アクチュエーター49の可動部用マーカー部46を撮像した撮像データD1に基づいて制御情報D5を生成する処理は、マーカー部43と同様であるため、適宜省略する。
次に、CPU61は、変換部63から撮像データD1を取り込んで記憶部65に保存する処理を実行する(S15)。なお、本実施形態のCPU61は、モーションキャプチャー中に検出したエラーをユーザに報知すべく、カメラ13の撮像データD1をリアルタイムで処理している。しかしながら、このようなリアルタイム処理に限らず、CPU61は、例えば、全ての撮像データD1を一度、記憶部65に記憶しておき、後からまとめて全ての撮像データD1を処理してもよい。
次に、位置情報生成部71は、記憶部65に保存された撮像データD1に付加されたカメラ13の識別情報や時間情報等に基づいて、治具15A,15Bに取り付けたマーカー部43A,43Bの撮影時間ごとにおける3次元座標の位置を演算する(S17)。位置情報生成部71は、演算した位置情報D2を記憶部65に保存する。位置情報生成部71は、例えば、二値化した撮像データD1に対してラベリングを行い、エピポーラマッチングなどのアルゴリズムを利用した処理を行ってマーカー部43A,43Bの3次元空間内での座標の位置を演算する。また、位置情報生成部71は、基準マーカー部91に対する相対的な座標の位置を演算する。例えば、位置情報生成部71は、3つの基準マーカー部91の重心位置を基準として、マーカー部43A,43Bの座標位置を演算する。
上記したように、マーカー部43A,43Bの各々は、照明装置33,34から照射する光の波長に合わせて、反射特性の異なる構造となっている。このため、位置情報生成部71は、撮像データD1に対し、例えば、輝度の違いなどによって、各マーカー部43A,43Bからの反射光を識別し、マーカー部43A,43Bごとの座標位置を演算する。なお、位置情報生成部71が座標位置(位置情報D2)を演算する処理方法は、特に限定されず、例えば、三角測量の原理等によって、位置情報D2を演算してもよい。また、位置情報生成部71は、S12において、エンドエフェクタ45(駆動スイッチ51)を操作する旨の作業情報D3であった場合(S12:YES)、マーカー部43の場合と同様に、可動部用マーカー部46について位置情報D2を生成する。
また、位置情報生成部71は、位置情報D2を表示部69に表示する処理を行う(S19)。位置情報生成部71は、例えば、図6に示すように、マーカー部43A,43Bのそれぞれの位置を、所定時間ごとにサンプリングしたサンプリング点SP1,SP2を、位置情報D2として取得する。位置情報生成部71は、取得した全てのサンプリング点SP1,SP2(位置情報D2)を表示部69にリアルタイムに表示する処理を行う。これにより、ユーザは、表示部69の表示を確認することで、取得した位置情報D2を適宜確認し、適切か否かを判断することが可能となる。なお、位置情報生成部71は、全てのサンプリング点SP1,SP2を表示せずに、起点、終点、移動方向が所定角度以上変わる点などの特徴点のみを表示してもよい。また、図6に示す黒塗りの丸のサンプリング点SP1は、治具15Aのマーカー部43Aに対応している。また、黒塗りの四角のサンプリング点SP2は、治具15Bのマーカー部43Bに対応している。
次に、位置情報生成部71は、位置情報D2のサンプリング点SP1,SP2に基づいて、マーカー部43A,43B間の距離が正常か否かを判定する(S21)。2つの治具15A,15Bは、図3に示すロボットアーム101,103を模擬したものであるが、ユーザの手による操作性を考慮して、実物に対して外形を小さくすることが考えられる。この場合、治具15A,15Bを動作させて作成した制御情報D5に基づいて、ロボットアーム101,103を動かした場合に、アーム部105,107等が衝突して互いに干渉する虞がある。
そこで、位置情報生成部71は、記憶部65に保存された設計情報D6に基づいて、例えば、マーカー部43Aの中心からアーム部105の外形の寸法に応じた距離を、衝突の虞がある距離として設定する。そして、位置情報生成部71は、サンプリング点SP1,SP2間の距離を演算し、演算した距離が衝突の虞がある距離以下であると判定した場合(S21:YES)、表示部69にエラー表示を実行する(S23)。これにより、ユーザは、アーム部105,107等が衝突する虞のある距離まで治具15A,15Bが近づいたことを認識でき、モーションキャプチャーを再度やり直すなどの適切な対応を取ることが可能となる。なお、位置情報生成部71は、例えば、同時間のサンプリング点SP1,SP2の距離を演算し判定してもよい。あるいは位置情報生成部71は、1つのサンプリング点SP1に対して、当該サンプリング点SP1の時間を基準として、所定時間内のサンプリング点SP2との距離を演算し判定してもよい。
位置情報生成部71は、S23を実行した後、例えば、エラー表示に対するユーザからの応答があるまで処理を一時的に中止する。あるいは、位置情報生成部71は、所定時間経過すると、必要なデータ等を受け渡して処理の主体を移動情報生成部73へ移行させる(S25)。また、位置情報生成部71は、S21において、演算した距離が衝突の虞がある距離よりも大きいと判定した場合(S21:NO)、処理の主体を移動情報生成部73へ移行させる(S25)。
次に、移動情報生成部73は、記憶部65に保存された位置情報D2に基づいて、マーカー部43A,43Bの移動に係わる移動情報D4を生成する(S25)。移動情報生成部73は、位置情報D2から各マーカー部43A,43Bの移動情報D4として、移動距離、移動方向、速度、加速度、角度等の物理量を演算する。
<特徴点の抽出>
例えば、移動情報生成部73は、図6に示す複数のサンプリング点SP1の中から特徴点の抽出を行う。具体的には、移動情報生成部73は、例えば、起点となる特徴点として、治具15Aの移動開始位置に対応するサンプリング点SP1Aを特徴点として抽出する。また、移動情報生成部73は、複数のサンプリング点SP1の中から移動方向が所定の角度以上変更された点を、例えば、供給位置用マーカー部85に近接する位置において大きく移動方向が変更されたサンプリング点SP1Bを特徴点として抽出する。なお、この特徴点の判定は、移動情報生成部73が移動速度や移動方向に基づいて自動的に判定してもよく、あるいはユーザが入力部67を操作して指示してもよい。
そして、移動情報生成部73は、抽出した特徴点(サンプリング点SP1A,SP1B)の座標位置から傾きを演算し、マーカー部43A(治具15A)の移動方向を検出する。あるいは、移動情報生成部73は、例えば、抽出した特徴点の距離を、特徴点間の時間で除算してマーカー部43Aの移動速度を検出する。
また、移動情報生成部73は、特徴点間のサンプリング点SP1の位置情報D2を近似する補正処理を行ってもよい。例えば、移動情報生成部73は、抽出した特徴点(サンプリング点SP1A,SP1B)を、移動の起点及び終点として設定し、当該起点(サンプリング点SP1A)から終点(サンプリング点SP1B)に向かってロボットアーム101(図3参照)のアーム部105が移動可能となるように、特徴点間のサンプリング点SP1の位置情報D2を補正する。例えば、移動情報生成部73は、外部からのノイズによって、大幅に位置のずれたサンプリング点SP1が特徴点間にある場合、当該サンプリング点SP1に係わる位置情報D2を不要なデータとして破棄する。あるいは、移動情報生成部73は、特徴点間の位置情報D2を、当該特徴点を結ぶ直線で近似する。
また、移動情報生成部73は、特徴点間を曲線で近似してもよい。例えば、図6に示す複数のサンプリング点SP2のうち、移動情報生成部73は、特徴点として移動方向が所定角度以上変更されたサンプリング点SP2A,SP2Bを抽出する。2つの特徴点(サンプリング点SP2A,SP2B)間の移動は、移動方向を徐々に変更しながら湾曲して移動している。この場合、移動情報生成部73は、例えば、サンプリング点SP2Aを起点、サンプリング点SP2Bを終点として、当該特徴点(サンプリング点SP2A,SP2B)間のサンプリング点SP2の位置情報D2を、曲線で近似する。
<サンプリングによる演算>
また、移動情報生成部73は、上記した特徴点による方法に限らず、他の方法により移動方向等を検出してもよい。例えば、移動情報生成部73は、位置情報生成部71によってサンプリングされた複数のサンプリング点SP1うち、隣接するサンプリング点SP1の座標位置から傾きを演算し、マーカー部43A(治具15A)の移動方向を検出してもよい。あるいは、移動情報生成部73は、例えば、隣接するサンプリング点SP1間の距離と、位置情報生成部71のサンプリング周期とを乗算してマーカー部43Aの移動速度を検出してもよい。
次に、移動情報生成部73は、サンプリング点SP1,SP2を結ぶ曲線の曲率、及び検出した移動速度の少なくとも一方が、図3に示す産業用ロボット100の移動能力を超えていた場合に、位置情報D2を補正し、移動情報D4の生成を再度実行する(S27)。例えば、図6に示すように、複数のサンプリング点SP2のうちの1点であるサンプリング点SP2Cにおいて、マーカー部43Bが大きく湾曲して移動している。このような湾曲した移動が、実際のロボットアーム103の移動能力を超えていた場合、制御情報D5を生成したとしても、ロボットアーム103を制御することは困難となる。
そこで、移動情報生成部73は、記憶部65の保存された設計情報D6に基づいて、例えば、サンプリング点SP2(例えば、サンプリング点SP2A,SP2B間)を結ぶ曲率が、ロボットアーム103の移動能力に応じて設定された曲率に比べて大きい場合、移動可能な曲率となるように位置情報D2を補正する。そして、移動情報生成部73は、補正後の位置情報D2(サンプリング点SP2)に基づいて、再度、移動情報D4を生成する。
また、例えば、図6に示すように、複数のサンプリング点SP1のうちの2点であるサンプリング点SP1C,SP1D間の距離が大きく離れている。サンプリング点SP1C,SP1D間の距離が離れると、演算結果の移動速度も早くなる。この移動速度が、実際のロボットアーム103の移動能力を超えていた、あるいは安全な移動速度を超えていたい場合、上記した曲率と同様に、制御情報D5を生成したとしても、ロボットアーム103を制御することは困難となる。
このため、移動情報生成部73は、曲率の場合と同様に、記憶部65の保存された設計情報D6に基づいて、例えば、サンプリング点SP1C,SP1Dの距離から算出された移動速度が、ロボットアーム103の最大移動速度に比べて大きい場合、移動可能な速度となるように位置情報D2を補正する処理を行う。そして、移動情報生成部73は、補正後の位置情報D2(サンプリング点SP1C,SP1D)に基づいて、再度、移動情報D4を生成する。なお、移動情報生成部73は、曲率や移動速度に応じてサンプリング点SP1,SP2(位置情報D2)を補正する場合は、補正後のサンプリング点SP1,SP2間の距離が上記した衝突の虞がある距離以上となるように補正する。
CPU61は、移動情報生成部73による補正処理(S27)が完了すると、変換部63に対し取り込んでいない撮像データD1があるか否かを問い合わせる(S29)。取り込んでいない撮像データD1がある場合(S29:NO)、CPU61は、S11からの処理を再度、実行する。
CPU61は、変換部63から取り込む撮像データD1がない場合(S29:YES)、制御情報生成部75に対し制御情報D5の生成を指示する。制御情報生成部75は、記憶部65に保存された位置情報D2、移動情報D4、及び作業情報D3に基づいて、ロボットアーム101,103を移動させ、且つ作業位置においてハンド部109,111に作業させる一連の作業の制御情報D5を生成する(S31)。なお、制御情報生成部75は、未処理の作業情報D3、例えば、治具15A,15Bを実装位置用マーカー部88A,88Bの位置まで到達させ撮像を終了させた後にユーザが入力部67を操作して入力した作業情報D3がある場合には、当該作業情報D3をあわせて処理することが好ましい。
そして、制御情報生成部75は、例えば、マーカー部43の位置情報D2や移動情報D4に応じた位置や移動速度でアーム部105,107(図3参照)を動作させる制御情報D5を生成する。また、制御情報生成部75は、可動部用マーカー部46の撮像データD1から生成した位置情報D2に基づいて、エンドエフェクタ45(ハンド部109,111)の位置や向き等を検出する。制御情報生成部75は、アーム部105,107を移動させる制御情報D5に、ハンド部109,111を回転や開閉させる制御を追加する。これにより、制御情報生成部75は、アーム部105,107を所定の作業位置(図4の供給位置用マーカー部84など)まで移動させた後、ハンド部109,111によってワークW1,W2を挟持する一連の作業の制御情報D5を生成することが可能となる。
また、制御情報生成部75は、S31において、補正作業を制御情報D5に追加する処理を実行する。具体的には、制御情報生成部75は、例えば、アーム部105,107を供給装置81,82の供給位置(供給位置用マーカー部84,85の位置)まで移動させた後、ハンド部109,111によるワークW1,W2の挟持作業を実施する前に、供給装置82の供給位置とハンド部109,111の位置との誤差を補正する情報を制御情報D5に追加する。例えば、ロボットアーム101のハンド部109に基板B等を撮像するカメラが搭載されている場合には、当該カメラを用いて供給装置82の供給位置を撮像し、撮像データに基づいて、ハンド部109と供給位置との相対的な位置の誤差を補正する処理を、制御情報D5に追加する。このようにして、ティーチング装置10は、モーションキャプチャーを実行して制御情報D5を生成することが可能となる。
因みに、上記実施形態において、カメラ13は、検出部の一例である。治具15Aは、第1治具の一例である。治具15Bは、第2治具の一例である。マーカー部43Aは、第1位置マーカー部の一例である。マーカー部43Bは、第2位置マーカー部の一例である。エンドエフェクタ45Aは、第1可動部の一例である。エンドエフェクタ45Bは、第2可動部の一例である。アクチュエーター49は、第1及び第2駆動部の一例である。CPU61は、処理部の一例である。ロボットアーム101,103は、ロボットの一例である。アーム部105は、第1移動部の一例である。アーム部107は、第2移動部の一例である。ハンド部109は、第1作業部の一例である。ハンド部109は、第2作業部の一例である。撮像データD1は、検出データの一例である。サンプリング点SP1A,SP1B,SP2A,SP2Bは、特徴点の一例である。S17の処理は、位置情報生成処理の一例である。S21の処理は、距離判定処理の一例である。S23の処理は、報知処理の一例である。S25の処理は、移動情報生成処理の一例である。S31の処理は、制御情報生成処理の一例である。
以上、上記した本実施形態によれば以下の効果を奏する。
<効果1>ティーチング装置10は、図3に示すアーム部105,107と、ハンド部109,111とをそれぞれ備える一対のロボットアーム101,103を制御する制御情報D5を生成する。ここで、従来のモーションキャプチャーでは、被検出体として測定装置を装着した人の手等を用いるため、トラッキング領域内に人の腕等が侵入し接触等する虞があった。これに対し、当該ティーチング装置10では、マーカー部43Aを設けた治具15Aと、マーカー部43Bを設けた治具15Bとを、被検出体として用いる。これにより、2台のロボットアーム101,103の動作を模擬する場合、モーションキャプチャーを実施するトラッキング領域R1内に複数のユーザの腕が挿入することがなく、ユーザの腕が干渉するなどの不具合を防止することが可能となる。
また、ティーチング装置10は、ハンド部109,111が作業位置において実施するワークW1,W2を挟む作業等の作業情報D3を入力するための入力部67を備える。ユーザは、マーカー部43A,43Bを設けた治具15A,15Bを動かしてモーションキャプチャーを実施する際に、適切なタイミングで入力部67を操作し、産業用ロボット100にさせたい作業内容を作業情報D3として入力することで、ティーチング装置10に対しハンド部109,111の細かい作業内容を設定することが可能となる。これにより、ティーチング装置10は、治具15A,15Bの位置情報D2等と、作業情報D3とをリンクさせた一連の作業の制御情報D5を生成することが可能となる。
<効果2>治具15Aに設けられたマーカー部43Aは、照明装置33が照射する特定の波長の光を反射する反射特性を有する材質等で構成されている。また、もう一方の治具15Bに設けられたマーカー部43Bは、照明装置34が照射する特定の波長の光を反射する反射特性を有する材質等で構成されている。複数のカメラ13は、各マーカー部43A,43Bが反射した反射光を撮像素子31によって撮像する。このような構成では、CPU61は、撮像素子31の撮像データD1から、輝度等で識別しながらマーカー部43A,43Bの各々の位置を検出することが可能となる。
<効果3>位置情報生成部71は、サンプリング点SP1,SP2間の距離を演算し、演算した距離が衝突の虞がある距離以下であると判定した場合(S21:YES)、表示部69にエラー表示を実行する(S23)。これにより、ユーザは、アーム部105,107等が衝突する虞のある距離まで治具15A,15Bが近づいたことを認識でき、モーションキャプチャーを再度やり直すなどの適切な対応を取ることが可能となる。
<効果4>治具15A,15Bは、駆動スイッチ51が操作されることによってアクチュエーター49が駆動する。アクチュエーター49の駆動に応じて、可動部用マーカー部46A,46Bが取り付けられたエンドエフェクタ45A,45Bは、駆動する。制御情報生成装置17は、モーションキャプチャー時において、アクチュエーター49の駆動に応じて可動する可動部用マーカー部46A,46Bのそれぞれの動作をトラッキングする。これにより、ユーザは、所定の作業位置において、アクチュエーター49によってエンドエフェクタ45A,45Bを動作させることによって、人の指等で模擬する場合に比べて、ワークW1,W2を掴んだりする動作等をより忠実に再現することが可能となる。
<効果5>制御情報生成部75は、S31において、アーム部105,107を供給装置81,82の供給位置(供給位置用マーカー部84,85の位置)まで移動させた後、ハンド部109,111によるワークW1,W2の挟持作業を実施する前に、供給装置82の供給位置とハンド部109,111の位置との誤差を補正する情報を制御情報D5に追加する。治具15をユーザが手で動かす場合には、マーカー部43の移動の精度は、ユーザが治具15を操る精度に依存する。これに対し、制御情報生成部75は、作業位置で作業を実施する前に位置補正を実施する情報を制御情報D5に追加することで、高い精度が要求される作業にも対応可能な制御情報D5を生成することが可能となる。
<効果6>移動情報生成部73は、S25において、図6に示す複数のサンプリング点SP1の中から特徴点の抽出し、抽出した特徴点(例えば、サンプリング点SP1A,SP1B)の座標位置から、特徴点間の傾き等を演算しマーカー部43A(治具15A)の移動方向を検出する。また、移動情報生成部73は、特徴点間のサンプリング点SP1の位置情報D2を近似する補正処理を行う。これにより、生成した制御情報D5に基づいてロボットアーム101,103をより滑らかに動作させ、無駄な動作を省いて作業効率を向上させることが可能となる。
<効果7>また、移動情報生成部73は、特徴点とは別の処理方法として、位置情報生成部71によってサンプリングされた複数のサンプリング点SP1うち、隣接するサンプリング点SP1の座標位置から傾きを演算し、マーカー部43A(治具15A)の移動方向を検出してもよい。あるいは、移動情報生成部73は、例えば、隣接するサンプリング点SP1間の距離と、位置情報生成部71のサンプリング周期とを乗算してマーカー部43Aの移動速度を検出してもよい。このような構成では、サンプリング周期の時間を変更することで、マーカー部43の位置、移動方向、及び移動速度を検出する精度を調整することが可能となる。
<効果8>移動情報生成部73は、S27において、サンプリング点SP1,SP2を結ぶ曲線の曲率等が、産業用ロボット100の移動能力を超えていた場合、位置情報D2を補正し、移動情報D4の生成を再度実行する。これにより、生成した制御情報D5を実際に制御する産業用ロボット100の移動能力に最適化し、当該産業用ロボット100を制御するデータとして制御情報D5を使用することが容易となる。
<効果9>位置情報生成部71は、S17において、3つの基準マーカー部91の重心位置を基準として、マーカー部43A,43Bの相対的な座標位置を演算する。これにより、生成した制御情報D5を使用する場合、基準マーカー部91の重心位置を、実際の作業領域内の基準、例えば、図3に示す基板Bの中心位置に合わせることで、産業用ロボット100を精度よく制御することが可能となる。
なお、本発明は、上記実施形態に限定されるものではなく、当業者の知識に基づいて種々の変更、改良を施した種々の態様で実施することが可能である。
例えば、上記実施形態では、複数の治具15A,15Bを用いたが、これに限らず、1つ又は3つ以上の治具15を用いてもよい。また、1つの治具15を複数回動作させて取得した複数の制御情報D5を、後から合成してもよい。
また、上記実施形態において、治具15の構成、可動部用マーカー部46の位置等は、一例であり、適宜変更可能である。図7は、別例の治具120を示している。なお、以下の説明では、上記実施形態と同様の構成については、同一符号を付し、その説明を適宜省略する。治具120の一対のエンドエフェクタ123,124は、外側に開く湾曲形状をなしており、互いの間にマーカー部43が設けられている。エンドエフェクタ123,124の各々には、形状の異なる可動部用マーカー126,127が設けられている。可動部用マーカー126,127は、一方に長い長方形状をなしており、エンドエフェクタ123,124の延設方向に向かって配置されている。可動部用マーカー126は、可動部用マーカー127に比べて長くなっている。このような構成では、可動部用マーカー126,127の反射特性だけでなく、形状に差を設けることで、治具120の上下方向の向きや傾きを検出し易くすることが可能となる。
また、治具120の本体部129には、3つの本体部用マーカー部131が設けられている。3つの本体部用マーカー部131は、互いの距離が異なるように、例えば、1つの直角三角形の各頂点となる位置に設けられている。このような構成では、例えば、3つの本体部用マーカー部131の各位置を検出し、三角測量の原理等を利用したアルゴリズムによって治具120の傾き等を検出することが可能となる。
また、図8に示すように、エンドエフェクタ45を備えない治具140を用いてもよい。図8に示す治具140は、T字形状をなしており、直交する3方向に延びる部分のそれぞれにマーカー部142,143,144が設けられている。マーカー部142〜144は、一方に長い長方形状をなしており、互いに異なる長さとなっている。このような構成の治具140を用いても、制御情報生成装置17に対して、アーム部105,107の位置や移動方向等を教示することが可能となる。
また上記実施形態では、治具15Aのマーカー部43Aを、照明装置33が照射する特定の波長の光を反射する反射特性とし、もう一方の治具15Bのマーカー部43Bを、照明装置34が照射する特定の波長の光を反射する反射特性として構成し、2つのマーカー部43A,43Bの反射特性に差を設けることで識別していたが、識別方法はこれに限定されない。例えば、図9に示すように、一方の治具150に3つのマーカー部151を設け、図10に示すように、他方の治具160に4つのマーカー部161を設けて、それぞれをグループ化して識別してもよい。なお、以下の説明では、図7の治具120と同様の構成については、同一符号を付し、その説明を適宜省略する。
図9に示すように、3つのマーカー部151の各々は、エンドエフェクタ123の先端部、エンドエフェクタ124の先端部、本体部129の中央部分にそれぞれ設けられ、図9中に一点鎖線で示すように、略正三角形の頂点の位置に設けられている。また、図10に示すように、4つのマーカー部161は、エンドエフェクタ123の先端部、エンドエフェクタ124の先端部、本体部129における端部部分(図10における左右両側の端部)にそれぞれ設けられ、図10中に一点鎖線で示すように、台形を構成する位置に設けられている。このため、マーカー部151の重心位置153と、マーカー部161の重心位置163は、互いに異なる位置となる。
そして、例えば、モーションキャプチャーを実行する前の初期設定として、制御情報生成装置17は、トラッキング領域R1内に挿入された治具150を撮像し、3つのマーカー部151をグループ化し、マーカー部151の重心位置153を被検出対象として設定する(第1重心位置設定処理の一例)。同様に、制御情報生成装置17は、治具160を撮像し、4つのマーカー部161をグループ化し、マーカー部161の重心位置163を被検出対象として設定する(第2重心位置設定処理の一例)。
これにより、グループ化された各マーカー部151,161の群単位で、撮像データD1から抽出した位置情報D2(座標位置)のマッチングを実施することで、各マーカー部151,161(重心位置153,163)の位置や移動方向の混同を防ぎ、精度よく検出することが可能となる。また、マーカー部151,161の互いの重心位置153,163が異なるため、抽出した座標位置と、マーカー部151,161のマッチングが容易となる。また、例えば、3つのマーカー部151の一つの位置が検出できなくとも、他のマーカー部151の位置情報に基づいて検出できないマーカー部151の位置を補間し、重心位置153を取得することで、位置の消失を防止することが可能となる。
また、2つのマーカー部43A,43Bの識別方法は、上記した反射特性やグループ化に限らず、2つのマーカー部43A,43Bの互いの色、大きさ、形状等を異ならせることで、識別してもよい。あるいは、これらの組み合わせによって異なる特性を付与し、マーカー部43A,43Bを識別してもよい。あるいは、マーカー部43A,43Bを異なる発光色のLED等で構成し、マーカー部43A,43B自体を発光させてもよい。
また、上記実施形態において、CPU61は、S27において曲率及び移動速度に基づいて、位置情報D2を補正したが、これに限らず、産業用ロボット100の最大加速度に基づいて位置情報D2を補正してもよい。
また、上記実施形態では、入力部67を操作してリアルタイムで作業情報D3を入力したが、これに限らない。例えば、特定のマーカー部を予め登録しておき、制御情報生成装置17は、その特定のマーカー部を検出したタイミングを、作業情報D3を追加するタイミングの情報として制御情報D5に保存してもよい。ユーザは、制御情報D5を生成した後に、制御情報D5に保存された作業情報D3を挿入すべきタイミングの情報を検索し、必要な作業情報D3を追加してもよい。従来の構成では、メインプログラムのどのポイントに必要なサブルーチンを追加するのかを、メインプログラムの内容を見ながら検索する必要があった。これに対し、当該方法によれば、追加すべきポイントが予め設定されているため、サブルーチンの追加が容易となる。この場合、特定のマーカー部は、本願における入力部の一例となる。
また、上記実施形態において、位置情報生成部71は、ユーザの手作業によるぶれを修正するため、生成した位置情報D2(座標位置)を補正する処理を実行してもよい。
また、制御情報D5は、位置情報生成部71が生成した位置情報D2のすべてを使用せずに、特徴点(開始点、通過点、到達点)だけを抽出して、その特徴点を結ぶ線路の移動を可能とする制御情報D5を生成してもよい。
また、本願におけるロボットとして、ロボットアーム101,103に適用する例について説明したが、これに限定されない。例えば、本願におけるロボットは、電子部品の吸着やレーザビームの照射、ネジ締め等の作業を行う作業部を備えるロボットでもよい。また、シリアルリンク機構を備えたロボットに限らず、XY軸方向に直交して動作するロボット、パラレルリンク機構を備えたロボットでもよい。
また、上記実施形態では、光学方式を用いたモーションキャプチャーについて説明したが、本願におけるモーションキャプチャーは、他との方法、例えば、磁気センサの動作を検出する磁気方式でもよい。例えば、治具15に位置データを送信する磁気センサを取り付け、カメラ13の代わりに位置データを受信する受信装置を取り付けてもよい。この場合、当該磁気センサは、本願における移動部の位置を示す位置マーカー部に対応する。また、受信装置は、検出部に対応する。
10 ティーチング装置、13 カメラ(検出部)、15A 治具(第1治具)、15B 治具(第2治具)、43A マーカー部(第1位置マーカー部)43B マーカー部(第2位置マーカー部)、45A エンドエフェクタ(第1可動部)、45B エンドエフェクタ(第2可動部)、46A 可動部用マーカー部(第1可動部用マーカー部)、46A 可動部用マーカー部(第1可動部用マーカー部)、49 アクチュエーター(第1及び第2駆動部)、61 CPU(処理部)、67 入力部、91 基準マーカー部、101,103 ロボットアーム(ロボット)、105 アーム部(第1移動部)、107 アーム部(第2移動部)、109 ハンド部(第1作業部)、111 ハンド部(第2作業部)、D1 撮像データ(検出データ)、D2 位置情報、D3 作業情報、D5 制御情報、SP1,SP2 サンプリング点、SP1A,SP1B,SP2A,SP2B サンプリング点(特徴点)。

Claims (13)

  1. 第1及び第2移動部と、前記第1移動部に設けられた第1作業部と、前記第2移動部に設けられた第2作業部とを備えるロボットの動作を制御する制御情報を生成するティーチング装置であって、
    前記第1移動部の位置を示す第1位置マーカー部を有する第1治具と、
    前記第2移動部の位置を示し、前記第1位置マーカー部とは異なる特性を有する第2位置マーカー部を有する第2治具と、
    前記第1及び第2治具の各々の移動にともなって移動する前記第1及び第2位置マーカー部を検出する検出部と、
    前記第1及び第2作業部の各々が作業位置において実施する作業に係わる作業情報を入力する入力部と、
    前記検出部が前記第1及び第2位置マーカー部の各々を検出した検出データと、前記入力部の前記作業情報とを処理する処理部と、を備え、
    前記処理部は、
    前記検出データに基づいて、前記第1及び第2位置マーカー部の各々の3次元座標の位置情報を生成する位置情報生成処理と、
    前記位置情報に基づいて、前記第1及び第2位置マーカー部の各々の移動方向及び移動速度に係わる移動情報を生成する移動情報生成処理と、
    前記位置情報及び前記移動情報に応じて前記第1及び第2移動部の各々を協調して移動させ、且つ前記作業情報に応じて前記第1及び第2作業部の各々に作業をさせる一連の作業の前記制御情報を生成する制御情報生成処理と、を実行することを特徴とするティーチング装置。
  2. 複数の前記第1位置マーカー部と、
    複数の前記第1位置マーカー部とは異なる数の複数の前記第2位置マーカー部と、を備え、
    前記処理部は、
    複数の前記第1位置マーカー部の重心を第1重心位置として設定する第1重心位置設定処理と、
    複数の前記第2位置マーカー部の重心を第2重心位置として設定する第2重心位置設定処理と、を実行し、
    前記位置情報生成処理として、前記第1重心位置及び前記第2重心位置の各々の3次元座標の位置情報を生成することを特徴とする請求項1に記載のティーチング装置。
  3. 前記検出部は、前記第1及び第2位置マーカー部を撮像し、撮像した撮像データを前記検出データとして前記処理部に出力する撮像素子を有し、
    前記第1及び第2位置マーカー部の各々に対し、互いに波長が異なる第1照射光及び第2照射光を照射する照明部を備え、
    前記第1位置マーカー部は、前記第1照射光を反射可能に構成され、
    前記第2位置マーカー部は、前記第2照射光を反射可能に構成されることを特徴とする請求項1に記載のティーチング装置。
  4. 前記処理部は、
    前記位置情報に基づいて、前記第1及び第2位置マーカー部の互いの間の距離を判定する距離判定処理と、
    前記距離が所定の距離以下となった場合に、その旨を報知する報知処理と、を実行することを特徴とする請求項1乃至請求項3のいずれかに記載のティーチング装置。
  5. 前記第1治具は、第1可動部と、前記第1可動部を駆動する第1駆動部と、前記第1可動部の位置を示す第1可動部用マーカー部とを有し、
    前記第2治具は、第2可動部と、前記第2可動部を駆動する第2駆動部と、前記第2可動部の位置を示す第2可動部用マーカー部とを有し、
    前記処理部は、前記位置情報生成処理として、前記第1及び第2駆動部の駆動に基づいて前記第1及び第2可動部の各々が動作するのにともなって移動する前記第1及び第2可動部用マーカー部の各々の前記位置情報を生成することを特徴とする請求項1乃至請求項4のいずれかに記載のティーチング装置。
  6. 前記処理部は、前記制御情報生成処理において、前記第1移動部を移動させた後に前記第1作業部による作業を実施する前、及び前記第2移動部を移動させた後に前記第2作業部による作業を実施する前の2つのタイミングのうち、少なくとも一方のタイミングで実行する前記制御情報として、前記作業位置における前記第1及び第2作業部の位置を補正する制御情報を追加することを特徴とする請求項1乃至請求項5のいずれかに記載のティーチング装置。
  7. 前記処理部は、前記位置情報生成処理において、生成した前記位置情報の中から複数の特徴点を抽出し、前記特徴点間の前記位置情報を近似する補正処理を行うことを特徴とする請求項1乃至請求項6のいずれかに記載のティーチング装置。
  8. 前記処理部は、前記位置情報生成処理として、前記検出データに基づいて、前記第1及び第2位置マーカー部の各々の位置をサンプリングし、サンプリング点の位置を前記位置情報として生成することを特徴とする請求項1乃至請求項6のいずれかに記載のティーチング装置。
  9. 前記処理部は、前記移動情報生成処理として、前記位置情報生成処理によって生成された前記第1及び第2位置マーカー部の各々のサンプリング点に対し、隣接する前記サンプリング点間の位置関係に基づいて前記移動方向を検出し、隣接する前記サンプリング点間の距離とサンプリング周期とに基づいて前記移動速度を検出することを特徴とする請求項8に記載のティーチング装置。
  10. 前記処理部は、前記移動情報生成処理として、前記サンプリング点を結ぶ曲線の曲率が所定の曲率を超えていた場合、前記移動速度が所定の速度を超えていた場合、及び前記移動速度における加速度が所定の加速度を超えていた場合の少なくとも一つの場合に、前記位置情報を補正することを特徴とする請求項9に記載のティーチング装置。
  11. 前記ロボットの動作の基準となる位置に設けられた基準マーカー部を備え、
    前記検出部は、前記基準マーカー部を検出し、
    前記処理部は、前記位置情報生成処理において、前記基準マーカー部に対する前記第1位置マーカー部の相対的な位置と、前記基準マーカー部に対する前記第2位置マーカー部の相対的な位置とのそれぞれを、前記位置情報として生成することを特徴とする請求項1乃至請求項10のいずれかに記載のティーチング装置。
  12. 前記ロボットは、前記第1及び第2移動部の各々の駆動機構としてシリアルリンク機構を備えることを特徴とする請求項1乃至請求項11のいずれかに記載のティーチング装置。
  13. 第1及び第2移動部と、前記第1移動部に設けられた第1作業部と、前記第2移動部に設けられた第2作業部とを備えるロボットの動作を制御する制御情報の生成方法であって、前記第1移動部の位置を示す第1位置マーカー部を有する第1治具と、前記第2移動部の位置を示し、前記第1位置マーカー部とは異なる特性を有する第2位置マーカー部を有する第2治具と、前記第1及び第2治具の各々の移動にともなって移動する前記第1及び第2位置マーカー部を検出する検出部と、前記第1及び第2作業部の各々が作業位置において実施する作業に係わる作業情報を入力する入力部と、を備えるティーチング装置に対し、
    前記検出部が前記第1及び第2位置マーカー部の各々を検出した検出データに基づいて、前記第1及び第2位置マーカー部の各々の3次元座標の位置情報を生成する位置情報生成ステップと、
    前記位置情報に基づいて、前記第1及び第2位置マーカー部の各々の移動方向及び移動速度に係わる移動情報を生成する移動情報生成ステップと、
    前記位置情報及び前記移動情報に応じて前記第1及び第2移動部の各々を協調して移動させ、且つ前記作業情報に応じて前記第1及び第2作業部の各々に作業をさせる一連の作業の前記制御情報を生成する制御情報生成ステップ処理と、を実行させることを特徴とする制御情報の生成方法。
JP2017507136A 2015-03-20 2015-03-20 ティーチング装置及び制御情報の生成方法 Active JP6499272B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/058426 WO2016151667A1 (ja) 2015-03-20 2015-03-20 ティーチング装置及び制御情報の生成方法

Publications (2)

Publication Number Publication Date
JPWO2016151667A1 true JPWO2016151667A1 (ja) 2018-02-15
JP6499272B2 JP6499272B2 (ja) 2019-04-10

Family

ID=56977065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017507136A Active JP6499272B2 (ja) 2015-03-20 2015-03-20 ティーチング装置及び制御情報の生成方法

Country Status (2)

Country Link
JP (1) JP6499272B2 (ja)
WO (1) WO2016151667A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6746250B2 (ja) * 2018-12-17 2020-08-26 ドリルマシン株式会社 掘削システム
WO2021245965A1 (ja) * 2020-06-05 2021-12-09 株式会社島津製作所 自動試料注入装置
KR20230067683A (ko) * 2020-10-02 2023-05-16 카와사키 주코교 카부시키 카이샤 처리 방법, 프로그램 및 로봇 시스템

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60263691A (ja) * 1984-06-08 1985-12-27 株式会社日立製作所 ロボツト用検査装置
JPS6259802A (ja) * 1985-09-11 1987-03-16 Fuji Facom Corp 移動体の多点位置検出装置
JPH02148111A (ja) * 1988-11-30 1990-06-07 Toshiba Corp ロボットの制御方法及びその装置
JPH06102919A (ja) * 1992-09-22 1994-04-15 Nippon Telegr & Teleph Corp <Ntt> ロボット軌道を教示するための方法
JPH077887U (ja) * 1993-07-06 1995-02-03 株式会社明電舎 ロボットと画像処理装置との座標合せ装置
JPH0749711A (ja) * 1993-08-05 1995-02-21 Brother Ind Ltd ロボットの安全装置
JPH0876829A (ja) * 1994-09-07 1996-03-22 Sumitomo Metal Ind Ltd 連続作業経路のロボットへの教示方法
JPH1080882A (ja) * 1996-09-06 1998-03-31 Fujitsu Ltd ロボット用座標変換パラメータ測定方法
JPH10264059A (ja) * 1997-03-27 1998-10-06 Trinity Ind Corp 塗装ロボットのティーチング装置
JPH11123682A (ja) * 1997-10-21 1999-05-11 Denso Corp 移動ロボットの停止位置検出システム
JP2001300875A (ja) * 2000-04-19 2001-10-30 Denso Corp ロボットシステム
JP2004261878A (ja) * 2003-02-06 2004-09-24 Daihen Corp 作業ロボットを用いた制御システムおよびこの制御システムによるワーク加工方法
JP2004348250A (ja) * 2003-05-20 2004-12-09 Yaskawa Electric Corp ロボット制御装置
JP2005196242A (ja) * 2003-12-26 2005-07-21 Fanuc Ltd 倣い加工装置
JP2007017180A (ja) * 2005-07-05 2007-01-25 National Institute Of Information & Communication Technology 光学式モーションキャプチャにおけるマーカー認識方法及び装置
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
JP2013034835A (ja) * 2011-08-04 2013-02-21 Olympus Corp 手術支援装置及びその制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
JP2665897B2 (ja) * 1995-08-08 1997-10-22 川崎重工業株式会社 ロボット作業教示装置
JP2776477B2 (ja) * 1996-02-13 1998-07-16 川崎重工業株式会社 ロボット3次元位置姿勢教示システム

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60263691A (ja) * 1984-06-08 1985-12-27 株式会社日立製作所 ロボツト用検査装置
JPS6259802A (ja) * 1985-09-11 1987-03-16 Fuji Facom Corp 移動体の多点位置検出装置
JPH02148111A (ja) * 1988-11-30 1990-06-07 Toshiba Corp ロボットの制御方法及びその装置
JPH06102919A (ja) * 1992-09-22 1994-04-15 Nippon Telegr & Teleph Corp <Ntt> ロボット軌道を教示するための方法
JPH077887U (ja) * 1993-07-06 1995-02-03 株式会社明電舎 ロボットと画像処理装置との座標合せ装置
JPH0749711A (ja) * 1993-08-05 1995-02-21 Brother Ind Ltd ロボットの安全装置
JPH0876829A (ja) * 1994-09-07 1996-03-22 Sumitomo Metal Ind Ltd 連続作業経路のロボットへの教示方法
JPH1080882A (ja) * 1996-09-06 1998-03-31 Fujitsu Ltd ロボット用座標変換パラメータ測定方法
JPH10264059A (ja) * 1997-03-27 1998-10-06 Trinity Ind Corp 塗装ロボットのティーチング装置
JPH11123682A (ja) * 1997-10-21 1999-05-11 Denso Corp 移動ロボットの停止位置検出システム
JP2001300875A (ja) * 2000-04-19 2001-10-30 Denso Corp ロボットシステム
JP2004261878A (ja) * 2003-02-06 2004-09-24 Daihen Corp 作業ロボットを用いた制御システムおよびこの制御システムによるワーク加工方法
JP2004348250A (ja) * 2003-05-20 2004-12-09 Yaskawa Electric Corp ロボット制御装置
JP2005196242A (ja) * 2003-12-26 2005-07-21 Fanuc Ltd 倣い加工装置
JP2007017180A (ja) * 2005-07-05 2007-01-25 National Institute Of Information & Communication Technology 光学式モーションキャプチャにおけるマーカー認識方法及び装置
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
JP2013034835A (ja) * 2011-08-04 2013-02-21 Olympus Corp 手術支援装置及びその制御方法

Also Published As

Publication number Publication date
JP6499272B2 (ja) 2019-04-10
WO2016151667A1 (ja) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6499273B2 (ja) ティーチング装置及び制御情報の生成方法
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
TWI576221B (zh) Robot and its control method
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
JP7064884B2 (ja) 部品組付装置の較正方法
JP2014205209A (ja) ロボットシステム、及びロボットシステムの制御方法
US20220080581A1 (en) Dual arm robot teaching from dual hand human demonstration
US20190030722A1 (en) Control device, robot system, and control method
JP6499272B2 (ja) ティーチング装置及び制御情報の生成方法
JP2008168372A (ja) ロボット装置及び形状認識方法
JP2015044257A (ja) ロボット、ロボット制御方法、及びロボット制御プログラム
JP2017100202A (ja) ロボットシステム、制御装置、制御方法、及びプログラム
JP2023084116A (ja) 視覚サーボを用いた実演によるロボット教示
JP2001287179A (ja) 産業用ロボット教示装置
JP2010058243A (ja) ピッキング装置
JP6660962B2 (ja) ティーチング装置及び制御情報の生成方法
JP4649554B1 (ja) ロボット制御装置
WO2020179416A1 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
Zhang et al. Vision-guided robot alignment for scalable, flexible assembly automation
TWI696529B (zh) 自動定位方法以及自動控制裝置
JP6343930B2 (ja) ロボットシステム、ロボット制御装置、及びロボット制御方法
US11712797B2 (en) Dual hand detection in teaching from demonstration
TWI734237B (zh) 自動控制方法以及自動控制裝置
WO2023105637A1 (ja) 産業機械の動作を検証するための装置、及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190314

R150 Certificate of patent or registration of utility model

Ref document number: 6499272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250