JP2016047591A - ロボット教示装置、方法、およびロボットシステム - Google Patents

ロボット教示装置、方法、およびロボットシステム Download PDF

Info

Publication number
JP2016047591A
JP2016047591A JP2015094442A JP2015094442A JP2016047591A JP 2016047591 A JP2016047591 A JP 2016047591A JP 2015094442 A JP2015094442 A JP 2015094442A JP 2015094442 A JP2015094442 A JP 2015094442A JP 2016047591 A JP2016047591 A JP 2016047591A
Authority
JP
Japan
Prior art keywords
robot
teaching
target object
unit
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015094442A
Other languages
English (en)
Other versions
JP6660102B2 (ja
Inventor
哲理 園田
Tetsutoshi Sonoda
哲理 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015094442A priority Critical patent/JP6660102B2/ja
Priority to US14/827,924 priority patent/US9902059B2/en
Publication of JP2016047591A publication Critical patent/JP2016047591A/ja
Application granted granted Critical
Publication of JP6660102B2 publication Critical patent/JP6660102B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • Y10S901/04Manual lead through
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】より現実環境に即した教示環境での教示を可能とし、オフラインでの教示の失敗を減少する。【解決手段】ロボットの動作を教示するためのロボット教示装置は、教示者が入力した操作力に応じて駆動して対象物体に作用する機構を有し、機構が対象物体へ作用している間の機構の状態を計測し、計測した状態に基づいて、ロボットのための動作指示を生成し、生成された動作指示を記録する。【選択図】 図1

Description

本発明は、ロボットに動作をプログラムするためのロボット教示技術に関する。
近年、産業用ロボットの分野において、ロボットとその周辺環境を計算機で模擬的に再現し、ロボットの動作を教示するオフライン教示技術が開発されてきている。オフライン教示技術を用いた場合、工場内で動作するロボットを教示のために占有する必要がなく、生産効率の向上に寄与することが期待されている。
このようなオフライン教示技術の例として、特許文献1では対象物体上の「特定の位置」をロボットハンド中心部の移動先に指定して、その点で把持を行う手法が示されている。特許文献1によれば、「特定の位置」は、計算機のディスプレイで示されるCADデータを観察しながら指定することができ、実ロボットを用いることなく教示を行うことができる。
特開2013−244560号公報
しかしながら、CADデータの誤差や力学的計算の再現性等の要因で、計算機で再現された模擬環境と現実環境に差異が生じた場合、オフラインで教示された把持位置や把持力では、計算通りの動作を行うことができず、教示が失敗してしまう課題がある。
本発明は、上記課題に鑑みてなされたものであり、より現実環境に即した教示環境での教示を可能とし、オフラインでの教示の失敗を減少することを目的とする。
上記の目的を達成するための本発明の一態様によるロボット教示装置は以下の構成を備える。すなわち、
ロボットの動作を教示するためのロボット教示装置であって、
対象物体に作用するための機構と、
前記機構が前記対象物体へ作用している間の前記機構の状態を計測する計測手段と、
前記計測手段で計測した前記状態に基づいて、ロボットのための動作指示を生成する生成手段と、
前記動作指示を記録する記録手段と、を備える。
本発明によれば、現実環境と整合性の取れた教示環境での教示が可能になる。
第1実施形態におけるロボット教示システムの構成例を示す図。 第1実施形態におけるデータ処理装置の構成例を示す図。 第1実施形態における動作を説明する流れ図。 第2実施形態におけるロボット教示システムの構成例を示す図。 第2実施形態における動作を説明する流れ図である。 第3実施形態におけるロボット教示システムの構成例を示す図。 第3実施形態における動作を説明する流れ図である。 (a)は教示ハンドが対象物体の重心位置から近い位置で把持する様子を示す図、(b)は、教示ハンドが対象物体の重心位置から離れた位置で把持する様子を示す図。 ロボットシステムを示す図。 教示ハンドの他の形態を示す図。 教示ハンドの他の形態を示す図。
以下、添付の図面を参照して、本発明の好適な実施形態のいくつかを説明する。なお、以下では、教示者が教示ハンドを使用して、対象物体の保持動作(たとえば、対象物体に対する把持位置と把持力)のロボット動作教示を行うロボット教示装置を例示して説明する。
一般的なオフラインロボット教示では、計算機で再現した模擬環境内で教示情報の計算を行っていた。しかしながら、この手法では、模擬環境と現実環境に差異がある場合は、計算通りの動作を行うことができず、教示が失敗してしまうという課題がある。本実施形態においては、実際に用いるロボットハンドと同等の形状および保持機能を有する教示ハンドを用いて実際の対象物体を把持する動作を行うことで、ロボットの動作を教示することを可能とする。これによって、現実環境と教示環境の整合性がとれた状態でのロボットの動作の教示が可能になる。
<第1実施形態>
図1に、第1実施形態による、ロボットの動作を教示するためのロボット教示装置の全体的な構成を示す。本実施形態のロボット教示装置は、教示者が教示ハンド101を用いて対象物体を把持するためのロボット動作教示を行う。ロボット教示装置は、教示者が直接扱う教示ハンド101と、教示ハンド101から得られた教示情報からロボット用の動作指示を生成するデータ処理装置120とを有している。
教示ハンド101は、教示者の操作によって操作力を入力する操作力入力部と、入力された操作力に応じて駆動して対象物体へ作用する機構を有する。本実施形態では、対象物体への作用として保持動作を行う機構を説明する。なお、教示ハンド101における対象物へ作用する機構は、教示対象のロボットのアームの先端等に装着されるハンド部と対応した形状を有する。教示ハンド101は、ロボット動作教示をするための教示機構部として機能する。本実施形態では、教示ハンド101が教示者の手102によって把持され、教示者の操作によって対象物体103を把持するように操作されることで、ロボット動作教示が行われる。なお、本実施形態では保持機構として教示者による把持が可能な教示ハンド101を例示するが、これに限られるものではない。すなわち、対象物体の保持動作が可能で、その保持動作が後述する教示計測部110により計測可能な保持機構であれば、いかなる形態であってもよい。
教示ハンド101は、教示者が入力した操作力に応じて駆動して対象物体を保持する保持機構を有する。教示ハンド101は、教示者により把持される把持部分に位置し、教示者の操作力を入力する操作力入力部として機能するトリガ104と、対象物体を把持するための保持部として機能するフィンガ105を有する。トリガ104とフィンガ105は、不図示の連動機構によって機械的に連動し、たとえばトリガ104を図中の右方向へ引く力が2つのフィンガ105によって物体を挟む力に変換される。この連動機構により、トリガ104を引く量に応じてフィンガ105の閉じ量が変化し、引く力に応じてフィンガ105の把持力が変化する。なお、フィンガ105は、教示対象のロボットに用いられているフィンガと同一の物、または同等のものを使用する。把持力センサ106は、フィンガ105で対象物体103を把持した際の把持力を出力する。この把持力センサ106は、たとえば弾性体とみなせるフィンガ105の基部に貼付された抵抗で構成されており、フィンガ105に把持力が発生して微小な歪みが発生すると、抵抗が伸長することで抵抗値が変化する。この抵抗に電圧を印加し、この抵抗値の変化を計測することで把持力を計測することができる。
位置姿勢計測センサ107は、教示ハンド101、対象物体103の位置姿勢を計測する。位置姿勢計測センサ107は、たとえばCCDカメラで構成されており、教示ハンド101と対象物体103にそれぞれ装着された、矩形形状を持つ計測マーカ108、109を撮影する。撮像画像上の計測マーカ108、109は教示ハンド101、対象物体103の姿勢、つまり傾きによって台形状に歪んだ見え方で観察される。本実施形態では、教示計測部110は、この歪みとマーカの撮像画像上での大きさから、計測マーカ108、109とそれらを固定する教示ハンド101、対象物体103の位置と姿勢を計測する。
データ処理装置120において、教示計測部110は、教示ハンド101の保持機構による対象物体103の保持動作を計測する。たとえば、教示計測部110は、把持力センサ106と位置姿勢計測センサ107を用いて、フィンガ105の把持力と、教示ハンド101、対象物体103の位置姿勢を所定のタイミングで計測し、記録する。動作計算部111は、教示計測部110で計測した保持動作に基づいて、ロボットのための動作指示を計算する。より具体的には、動作計算部111は、たとえば、教示計測部110に記録されたフィンガ105の把持力と、教示ハンド101、対象物体103の位置姿勢を用いて、実際のロボットへ通知する動作指示を計算する。動作記録部112は、動作計算部111で計算した動作指示をメモリに記録し、蓄積する。記録された動作指示は、必要に応じて読み出して使用することができる。
データ処理装置120はたとえばコンピュータ装置により実現される。図2は、データ処理装置120のハードウェア構成例を示すブロック図である。図2において、CPU121はRAM122またはROM123に記憶されているプログラムを実行することにより各種処理を実現する。RAM122は読み書き可能なランダムアクセスメモリであり、CPU121が各種処理を実行する際の作業領域として用いられる。ROM123は読み出し専用のメモリであり、CPU121により実行されるプログラムや各種データを保持する。インターフェース124は、上述した把持力センサ106や位置姿勢計測センサ107とデータ処理装置120とを接続する。ハードディスク等の2次記憶装置125は、RAM122に展開されて実行されるプログラムや各種データ(たとえば、動作計算部111で計算された動作指示)を格納する。また、2次記憶装置125は、動作記録部112が動作指示を記録ための記録領域を提供する。上述した各構成はバス126に接続されている。
なお、データ処理装置120の教示計測部110、動作計算部111、動作記録部112は、それぞれCPU121がROM123またはRAM122に保持されているプログラムを実行することにより実現され得る。
次に、以上のような構成を備えた本実施形態のロボット教示装置の動作について説明する。図3に、教示者が教示ハンドを用いて対象物体を把持するためのロボット動作教示を行う操作(ステップS351〜S354)と、ロボット教示装置の動作(ステップS301〜S304)を説明する流れ図を示す。図3の流れ図において、ステップS3011〜S3012の動作は、対象物体を把持した際の教示ハンド101の位置姿勢を計測する把持位置姿勢計測(ステップS301)である。また、ステップS3021〜S3022の動作は、フィンガ105の対象物体103に対する把持力を計測する把持力計測(ステップS302)である。以下、流れ図のステップに従って動作説明を行う。
教示者は、教示ハンド101を把持して対象物体103の把持位置へと移動させて(ステップS351)、教示ハンド101のトリガ104を握り込む(ステップS352)。これにより教示者の操作力が教示ハンド101に入力され、フィンガ105はトリガ104に連動して閉方向(2つのフィンガ105で挟む方向)に動作する。なお、トリガ104にはスプリングが内蔵されており、トリガ104の握り込みを解放すると、トリガ104は元の位置に戻り、これに連動してフィンガ105は開方向に動作する。
教示計測部110は、把持力センサ106からの信号に基づいてフィンガ105に発生している把持力を計測しており、ステップS3011において計測された把持力Fに基づいてフィンガ105に把持力が発生しているかどうかを判定する。フィンガ105に把持力が発生している場合(F≠0の場合)は、教示計測部110は対象物体103を把持していると判定し、処理をステップS3012に進める。フィンガ105に把持力が発生していない場合(F=0の場合)は、対象物体103を把持していないと判定し、ステップS3011の処理を繰り返す(すなわち、把持力Fが発生するのを待つ)。
ステップS3012において、教示計測部110は、位置姿勢計測センサ107により教示ハンド101と対象物体103の位置姿勢を計測し、たとえばRAM122に記録する。これにより、把持力が発生した時点の教示ハンド101と対象物体103の位置姿勢が計測される。位置姿勢の計測では、教示ハンド101、対象物体103に装着された計測マーカ108、109が位置姿勢計測センサ107により撮像される。教示計測部110は、この撮像により得られた撮像画像中の計測マーカの見えから、位置姿勢計測センサ107を原点とした場合の3軸の並進位置と、3軸回転による姿勢を求める。教示ハンド位置姿勢Pと対象物体位置姿勢Pは、以下の(1)式の様にそれぞれ回転行列R、Rと並進ベクトルT、Tを合わせた4×4のアフィン(Affine)行列で表わされる。
Figure 2016047591
以上のようにして、対象物体103を教示ハンド101で把持したときの教示ハンド101と対象物体103の位置、姿勢が計測される。
次に、教示者は、対象物体103を把持した状態で教示ハンド101を動かす(ステップS353)。たとえば、教示者は、教示ハンド101で把持した対象物体103を持ち上げ、その後、降ろして対象物体103を置くという動作を行う。このような動作の間(たとえば持ち上げから降ろすまでの動作の間)、教示者は対象物体103が教示ハンド101から落下したり把持位置がずれたりしないように、トリガ104を必要十分な操作力で握りこんで対象物体103に対する把持力Fを発生させる。
教示者が、教示ハンド101のトリガ104に込めた力を緩め、トリガ104を解放することにより、フィンガ105の対象物体103への把持力が無くなり、教示ハンド101のフィンガ105は対象物体103を解放する(ステップS354)。この操作に応じて、教示計測部110は、ステップS3021において、把持力センサ106からの信号に基づいてトリガ104が解放されたこと(たとえば、把持力F=0になったこと)を検出する。教示計測部110は、把持力が発生していると判定されてからも把持力を計測し続けている。ステップS3022において、教示計測部110は、把持力Fの発生が検出されてからトリガ104の解放が検出されるまでの期間において計測された把持力のうちの最大値である最大把持力Fmaxを、たとえばRAM122に記録する。
次に、ステップS303において、動作計算部111は、ステップS3012で記録された把持位置姿勢と、ステップS3022で記録された最大把持力に基づいてロボットの動作指示を計算する。たとえば、動作指示は、対象物体103を把持する際の指示位置姿勢Pと、指示把持力Fから構成される。対象物体103が様々な位置・姿勢にあっても対応可能とするために、以下の式(2)に示すように、対象物体103を基準とした相対座標で指示位置姿勢Pを記述する。
Figure 2016047591
この指示位置姿勢Pを用いて、教示対象のロボットを動作させる際のロボットハンドの動作位置姿勢Pは以下の(3)式で計算される。すなわち、ロボットの動作時に、ロボット座標系において検出された対象物体の位置姿勢をPoaとして、
Figure 2016047591
となる。ここで、対象物体の位置姿勢Poaは、ロボットの動作時に検出される動的な値のため、PはPに基づいて毎回の動作直前に計算して求めればよい。
指示把持力Fは、本実施形態では、以下の(4)式に示すように、ステップS3022で記録された最大把持力Fmaxをそのまま使用する。
Figure 2016047591
ステップS304において動作記録部112は、ステップS303で算出された動作指示である指示位置姿勢Pと指示把持力Fを、たとえば2次記憶装置125に記録する。記録された動作指示は、実際のロボット動作時に適宜読み出して使用することができる。また、複数回教示動作を行い、動作指示を逐次記録して蓄積することもできる。
以上のように、本実施形態における手順を実施することによって、ロボットハンドと同等の把持機能を有する教示ハンドを用いて、教示者が実際の対象物体を把持する動作でロボット動作教示を行うことができる。これにより、シミュレーションによる模擬環境の差異を問題とすることなく、実際のロボット環境と整合性のとれた教示が可能になる。
<第2実施形態>
次に、第1実施形態とは異なる形態の教示ハンドを用いたロボット教示装置の具体的な実施の一形態について説明する。
第1実施形態においては、図1における教示ハンド101のトリガ104とフィンガ105は、機械的に連動して動く機構を備えており、教示者の操作力がそのままフィンガ105の把持力となっていた。これに対して第2実施形態では、教示者の操作力に代わる動力を用いることで、人の標準的な把持力で破損するような壊れやすい対象物体でも、適切な把持力で把持してロボット動作教示を行うことを可能にする。
図4に、第2実施形態によるロボット教示装置の構成例を示す。図4では、教示者が教示ハンド101を用いて対象物体103を把持するためのロボット動作教示を行う、ロボット教示装置全体の構成を示す。図4における対象物体103、計測マーカ109、教示ハンド101の把持力センサ106と計測マーカ108、位置姿勢計測センサ107、教示計測部110、動作計算部111、動作記録部112は、第1実施形態(図1)で説明したとおりである。
ただし、第2実施形態の対象物体103は比較的小さく壊れやすい物体であり、許容される把持力が低いものとする。また、教示ハンド101に搭載されたトリガ104には、根元に握り込み力センサ412が搭載されており、教示者の手102でトリガ104を握りこんだ際の操作力を計測する。モータ413は、握り込み力センサ412により計測された操作力に基づいて回転の正転、逆転、かつ回転トルクを変化させる。フィンガ105は、モータ413の回転に連動して開閉する。この機構によりモータ413の回転に応じてフィンガ105の開閉が変化し、モータ413の回転トルクに応じてフィンガ105の把持力が変化する。
図5は、第2実施形態において、教示者が教示ハンド101を用いて対象物体103を把持する際の、教示ハンド101の動作を説明する流れ図である。なお、第2実施形態によるデータ処理装置120における動作は、第1実施形態(図3)のステップS301〜304と同様である。図5の流れ図において、ステップS351〜S354は教示者の動作を示し、ステップS501〜S506は、教示ハンド101の動作を示している。
教示者が、教示ハンド101を把持して、対象物体103の把持位置へと移動させる(ステップS351)。本ステップにおける手順は、第1実施形態と同様である。次に、教示者が、教示ハンド101のトリガ104を教示者の手102で力を込めて握りこむ(ステップS352)。すると、ステップS501において、教示ハンド101は握り込み力センサ412によりトリガ104に生じた力である操作力(握り込み力G)を検出する。
教示ハンド101は、握り込み力Gを検出すると、モータ413を正転方向に回転させる。モータ413が正転方向に回転すると、これに連動してフィンガ105が閉方向に動作する。なお、モータ413は握り込み力Gの発生に従って正転方向に回転し、駆動する最大許容トルクは、把持力Fが、最大で以下の(5)式に示すフィンガ105の許容把持力Flimitを発生するトルクとなるよう制御する。把持力Fは、把持力センサ106により検出される。
Figure 2016047591
ここで、αは任意の値を取るパラメータで、本実施形態においてはα=0.1としている。これにより、人の標準的な把持力では破損するような対象物体103に対して繊細な把持を容易に行うことが可能になる。以上の動作を、図5の流れ図に沿って説明すると、握り込み力Gを検出した教示ハンド101は、ステップS502において、把持力センサ106からの信号に基づいて、把持力FがFlimit以上になっていないかを判定する。そして、把持力Fが、Flimit以上になっていなければ、教示ハンド101は、ステップS503において、モータ413を正転方向に回転させ、フィンガ105を閉じる。他方、ステップS502で把持力FがFlimit以上と判定された場合は、モータ413を停止する。なお、教示者がトリガ104を放すと握り込み力Gは0となる。ステップS501において握り込み力Gが0の場合には、教示ハンド101は、モータ413を逆転方向に回転させ(ステップS504)、フィンガ105を開方向に動作させる。フィンガ105が開放端に到達した場合は(ステップS505)、教示ハンド101は、モータ413の逆転を停止する(ステップS506)。
以上のような教示ハンド101からの保持動作の信号を受信するデータ処理装置120は、図3のステップS301〜S304に示した動作を実行する。すなわち、ステップS3011において、教示計測部110は、把持力センサ106の信号に基づいて把持力Fを計測し、把持力が発生しているかどうかを判定する。把持力が発生している(F≠0)場合は、対象物体103を把持していると判定し、処理はステップS3012に進む。把持力F=0の場合は把持していないと判定され、処理はステップS3011を繰り返す。
ステップS3012において、位置姿勢計測センサ107が、教示ハンド101と対象物体103の位置姿勢を計測する。ステップS3012では、教示計測部110は、教示ハンド101の位置姿勢Pと対象物体の位置姿勢Poを求める。こうして、把持力が発生した時点における教示ハンド101と対象物体103の位置姿勢が計測され、たとえば、RAM122に記録される。
ステップS353において、教示者は、対象物体103を把持した教示ハンド101を動かして、対象物体103を持ち上げたり、降ろしたりする。その後、ステップS354において、教示者が、手102に込めた力をゆるめて、教示ハンド101のトリガ104の握り込みを解除する。
教示者による上記握り込みの解除によって、教示ハンド101の握り込み力センサ412が操作力G=0となったことを検出する(ステップS501、NO)。上述のように、操作力G=0が検出されると、ステップS504において、モータ413が逆転方向に回転し、フィンガ105が開方向に動作する。フィンガ105が最大開放状態(開放端)になると回転は停止する。教示計測部110は、教示者による上記操作によりトリガ開放を検出すると(ステップS3021)、把持力センサ106に把持力が発生している間(S3011(YES)〜S3021(YES))に計測された把持力Fのうちの最大値Fmaxを記録する。
ステップS303において、第1実施形態と同様に、動作計算部111は、ロボットの動作指示を計算する。すなわち、動作計算部111は、指示位置姿勢Pと指示把持力Fを求める。そして、ステップS304において、動作記録部112は、ステップS303において計算された動作指示である指示位置姿勢Pと指示把持力Fを(たとえばRAMに)記録する。
以上のように、第2実施形態によれば、ロボットハンドと同等の把持機能を有する教示ハンド101を用いて、教示者が実際の対象物体103を把持する動作でロボット動作教示を行えるとともに、その把持力を適切に調整した上でロボット動作教示を行える。これにより、壊れやすい対象物体の場合にも、シミュレーションによる模擬環境の差異を問題とすることなく、実際のロボット環境と整合性のとれた教示が可能になる。
<第3実施形態>
第3実施形態では、教示動作にしたがって動作指示を計算するとともに、教示を行った環境と教示動作から、計算された動作指示を評価するロボット教示装置を説明する。第3実施形態では、第1実施形態の構成に動作評価値を求める構成を加える。動作評価値は、例えば、対象物体の把持力、教示ハンドの手首部分に加わる回転モーメントの大きさ、対象物体の把持時に生じた教示ハンドと対象物体間の相対的な把持位置姿勢変化、に基づいて教示動作の評価を行うことにより求められる。これにより、実際のロボットの把持動作時に、類似した複数の動作指示から一つを選択して動作を行う場合においても、動作評価値がより良好な動作指示を選択することで、より確実な把持動作が可能となる。
図6に、第3実施形態によるロボット教示装置全体の構成を示す。第1実施形態と同様に、教示者が教示ハンド101を用いて対象物体103を実際に把持することで、ロボットが対象物体を把持するためのロボット動作教示を行う例を説明する。図6における対象物体103、計測マーカ109、トリガ104、フィンガ105、把持力センサ106、計測マーカ108と、位置姿勢計測センサ107、教示計測部110、動作計算部111、動作記録部112は、第1実施形態(図1)と同様の構成である。
第3実施形態の教示ハンド101は、手首力センサ613を有する。手首力センサ613は、教示ハンド101の手首に当たる部分に設置されており、手首の回転軸方向に発生する3軸の回転モーメントを計測する。また、第3実施形態のデータ処理装置120は、動作評価部614を有する。動作評価部614は、教示計測部110で記録した、最大把持力、最大回転モーメント、対象物体の把持時に生じた、教示ハンド101と対象物体103の間の把持位置姿勢変化を用いて、教示動作の品質を表す動作評価値を求める。
図7に、第3実施形態によるロボット動作教示の処理を説明する流れ図を示す。図7の流れ図では、教示者が教示ハンドを用いて対象物体を把持するためのロボット動作教示を行い、動作評価値を求める一連の手順が説明される。図7の流れ図において、ステップS3011、S3012、S7010は対象物体の把持位置姿勢計測(ステップS301)、ステップS3021〜S3022は対象物体に対する把持力計測(ステップS302)、ステップS7011〜S7013は動作評価値取得(S701)である。以下、流れ図のステップに従って説明を行う。
ステップS301〜S302により示される処理は、第1実施形態とほぼ同様である。ただし、ステップS3012以降、トリガが解放されるまで(ステップS3021でYESと判定されるまで)の間、教示ハンド101と対象物体103の位置姿勢の計測と記録が継続される。また、S7010では、教示計測部110は手首力センサ613からの信号による回転モーメントの計測、記録を開始する。回転モーメントの計測、記録は、把持位置姿勢の計測、記録と同様に、トリガ解放が検出されるまで(ステップS3021でYESと判定されるまで)継続される。
ステップS701において、動作評価値が取得される。まず、ステップS7011において、動作評価部614は、位置姿勢計測センサ107を用いて計測した、ステップS3022でのトリガ解放の検出直前における教示ハンド101と対象物体103の位置姿勢をメモリから読み出す。そして、動作評価部614は、把持力の発生検出直後(S3012)において取得した位置姿勢(教示ハンド101と対象物体103との相対的な位置姿勢)からの変化を計算し、記録する。こうして、把持の開始時と終了時における、対象物体103と教示ハンド101(フィンガ105)の相対的な位置姿勢の変化(すなわち、ずれ)が計算され、記録される。なお、S3012における位置姿勢の計測は、第1実施形態と同様に計測マーカ108、109を用いて行われる。S7011では、動作評価部614は、把持力Fの発生時の教示ハンドの位置姿勢P、Pと、トリガ解除時の教示ハンドの位置姿勢Ph2、Po2を用いて、教示ハンド101と対象物体103との間の位置変化Tと姿勢変化Rを求める。これらは、以下の式(6)で表わされる。
Figure 2016047591
ここで、Rは回転軸表現によるベクトルで、
Figure 2016047591
とした時、下記の式(8)を満たす。
Figure 2016047591
次に、テップS7012において、動作評価部614は、対象物体103を把持している間(ステップS3011のYES〜S3021のYES)に手首力センサ613により計測された回転モーメントの最大値を記録する。回転モーメントの最大値である最大回転モーメントMmaxは、手首位置における回転方向3軸のベクトルとして以下の(9)式で表わされる。
Figure 2016047591
ステップS7013において、動作評価部614は、教示動作の品質を表す動作評価値Eを計算する。動作評価値Eは、ステップS7011〜S7012において取得された、最大把持力Fmax、最大回転モーメントMmax、対象物体103の把持時に生じた、教示ハンド101と対象物体103の間の把持位置姿勢変化R、Tを用いて、以下の式(10)により算出される。
Figure 2016047591
ここで、β、γ、λ、εは、任意の値を取るパラメータであり、各項に対する重みを表す。上式は、下記の基準に従って動作評価値Eを計算している。
1.最大把持力は電力消費やモータへの要求回転トルクの点から、小さいほど望ましい.
2.教示ハンド101と対象物体103を横から観察した様子を図8(a)、図8(b)に示す。これらの図に示されるように、回転モーメントは、対象物体103の重心位置801から近い位置802で把持する場合(図8(a))より、離れた位置803で把持する(図8(b))場合の方が大きくなる。このような回転モーメントによる把持のずれを生じる可能性を最小限とするため、最大回転モーメントは小さいほど望ましい.
3.把持位置姿勢変化は、把持のずれを意味しており、対象物体が落下する可能性を最小限とするため、小さいほど望ましい.
以上から、動作評価値Eの値は、小さいほど好ましい(良好な評価値である)。
ステップS304において、動作計算部111は、第1実施形態と同様の手順によりロボットの動作指示、すなわち、指示位置姿勢Pと指示把持力Fを求める。そして、ステップS304において、動作記録部112は、ステップS304において計算した動作指示である指示位置姿勢Pおよび指示把持力Fと、ステップS701(S7013)において取得した動作評価値Eを一対一に対応する形式で記録する。
以上のような第3実施形態の構成によれば、類似した把持姿勢による動作指示が複数教示されているような状況において、対応する動作評価値Eで評価することで、使用する動作指示を選択することができる。すなわち、動作評価値Eを、複数の動作指示から最良の動作指示を選択するための指標として用いることができる。
以上のように、第3実施形態における手順を実施することによって、ロボットハンドと同等の把持機能を有する教示ハンドを用いて、教示者が実際の対象物体を把持する動作でロボット動作教示を行うことができる。さらに、実際のロボットの把持動作時に、類似した複数の動作指示から一つを選択して動作を行う場合においても、候補中で動作評価値が最少となる動作指示を選択することで、対象物体のずれや落下の可能性を最小限にした確実な把持動作が可能となる。また、複数回の動作教示を行って、動作指示と動作評価値を蓄積し、その中から良好な動作指示を抽出することで、実際のロボット動作をより最適に行うことができる。
<その他の実施形態>
以下では、上述した各実施形態に適用可能な主な変形例を説明する。
(同等のフィンガや対象物体を用いる例)
第1実施形態〜第3実施形態における教示ハンド101のフィンガ105と対象物体103は、教示対象のロボットの動作に用いられているハンド部(たとえばフィンガ)、対象物体と同一の物を使用しているが、これに限るものではない。形状、重量、硬さ、表面の摩擦などの各機能が同等と扱ってよいものであれば、これに代替して模擬的なフィンガ、模擬的な対象物体を用いてもよい。例えばこれらを3Dプリンタによって作成することで、実ロボットで用いる実物のフィンガ、対象物体を不要とすることもできる。
(その他の教示ハンドの形態)
また、第1〜第3実施形態における教示ハンドは、教示者の操作によって操作力を入力する操作入力部がフィンガと隣接して配置されているが、この形態に限るものではない。操作者が教示ハンドを保持可能で、かつ操作力を入力できる機能を有していれば、どのようなものでもよい。
例として、図10(a)、(b)、図11(a)に、手を入れにくい入り組んだ場所での使用を考慮した教示ハンドの例を示す。図10(a)では、手を伸ばして届きにくい位置の対象物体を把持するために、操作力入力部1001とフィンガ105を離した配置としている。図10(b)では、障害物などで手が入れられる位置が限定されており、対象物体が異なる方向に存在する場合を想定して、操作力入力部1001とフィンガ105とを異なる方向に向けた配置としている。図11(a)では、より細かい取り回しを行う場合を想定し、教示者が操作する操作力入力部1101と、作業環境で動作させるフィンガ105を分離した配置としている。操作力入力部1101から教示者が入力した操作力(トリガ104に対する操作力)は、ワイヤ1103を介してフィンガ105に伝達される。このワイヤ1103は、自転車のブレーキ力を伝達するワイヤと同様の構成を有する。
ただし、第2実施形態に準じる教示ハンドの場合は、操作力を電圧、抵抗値、PWMなどの電気的な信号に変換して伝送する導線もしくは無線送受信装置を代わりに使用する。また、教示者が分離したフィンガ105を保持するために、ハンドル1102がフィンガ105の基部に付加されている。
また、操作力入力部も、教示者が保持しながら十分に操作力を入力できる形態であれば、どのようなものでもよい。例えば、教示者が教示ハンドを把持するグリップ部分の全体をトリガにすることで、握力に応じて操作力が入力されるようにしてもよい。これにより、より強い操作力を入力することができる。
(その他のセンサを用いる例)
第1実施形態〜第3実施形態における把持力センサ106は抵抗で構成されていたが、これに限るものではない。例えば、弾性体とみなせるフィンガ105の基部に対して直角になる形で、平行に二枚の電極を配置し、交流電流を流して、微小な歪みで発生した電極間の静電容量の変化を計測することで、把持力を計測してもよい。これにより、直接変形する部分を最小限として、把持力センサを長寿命とすることができる。
また、第1実施形態〜第3実施形態における位置姿勢計測センサ107は、CCDカメラで計測マーカ108、109を撮像する形式としていたが、これに限るものではない。例えば、CCDカメラに相当する位置に、磁界を発生するソースコイルを配置し、計測マーカに相当する位置に磁界を計測するセンサコイルを配置してもよい。ソースコイルから時分割で変化する磁界を発生させ、センサコイルでその磁界変化を検出することで、ソースコイルに対するセンサコイルの位置姿勢を計測することができる。これにより、CCDカメラと計測マーカが、人体その他の障害物で遮られてしまうような状況においても、位置姿勢を計測することができる。
(座標軸の取り方)
また、第1実施形態〜第3実施形態における動作計算部111は、ステップS303に示すように、ロボットの動作指示として、対象物体103を基準とした座標系における指示位置姿勢Pを計算しているが、これに限るものではない。たとえば、対象物体が毎回同一位置に置かれていることが保障されている場合は、教示ハンド位置姿勢Pをそのまま用いてもよい。この場合は、教示ハンド位置姿勢Pを計測した座標系と、教示対象のロボットの座標系を同一とするか、同一に扱えるよう適切に座標変換を行えばよい。
(対象部品の姿勢を合わせて出力)
また、ロボットが把持動作を行う際には、対象物体が置かれている姿勢も把持動作の成否に大きく影響してくるため、対象物体の回転行列Rを動作指示として合わせて出力してもよい。実際のロボットの動作時に、この対象物体の姿勢である回転行列Rを参照し、計測した対象物体の姿勢と最も近い動作指示を選択することで、把持動作の失敗をより削減することができる。
(ラチェット駆動ハンド)
また、第1実施形態、第3実施形態における教示ハンド101は、トリガ104とフィンガ105が機械的に連動して開閉する機構を備えていたが、これに限るものではない。たとえば、ボタン等での解除動作をおこなうまでトリガ104に生じた最大の操作力を維持する位置で留まるようなラチェット機構を加えてもよい。これにより、教示者は一旦握り込んだ力を維持することなく、容易に把持動作を継続することができる。この時、ユーザによるトリガ解除動作(ステップS354)は、先述のボタン等での解除動作で代替されることになる。
また、第2実施形態における教示ハンド101も同様に、ボタンによる解除動作をおこなうまで、フィンガ105の把持力は握り込み力センサに発生した最大操作力を維持する様にしてもよい。これにより、同様に教示者は一旦握り込んだ力を維持することなく、容易に把持動作を継続することができる。この時、教示者によるトリガ解除動作(ステップS354)は、先述のボタン等での解除動作で代替されることになる。
(トリガ以外の操作力入力部)
また、第2実施形態における教示ハンド101は、トリガ104を操作力入力部としているが、これに限るものではない。操作力を値として入力できる構成であれば、教示者が力を入れて握り込む必要のないボリューム状の操作力入力部などを用いてもよい。これにより、教示者が握り込む力で疲労することなく、持続的に操作力を入力することができる。
(吸着ハンド)
また、第2実施形態における教示ハンド101は、フィンガ105を開閉して対象物体を把持しているが、これに限るものではない。たとえば、教示者の操作力に応じて、吸着力を変化させる吸着ハンドにより、対象物体を吸着することで保持する等、把持以外の機能を有する保持機構を用いてもよい。これにより、把持以外の保持力(たとえば吸着力)を含めた各種保持動作の教示を行うことができる。
(その他の保持以外のハンド)
上記実施形態では、教示ハンド101における対象物体へ作用する機構として、フィンガ105を開閉して対象物体を把持する構成を説明したが、対象物体への作用としてはこのような把持などの保持動作に限るものではない。例えば、図11(b)に示すように、教示者の操作力に応じて、回転力を発生し、締め付けトルクを変化させるレンチ1111や、ドライバーを上記機構として採用してもよい。レンチ1111の基部には、トルクセンサ1112が付加され、これにより、トルクレンチのように所定のトルクでボルトなどのネジ締結を行う動作の教示を行うことができる。このような教示ハンドにおいても、上記実施形態と同様に、作用状態として、計測マーカ108に基づく教示ハンドの位置姿勢と、対象物体に与えている回転力をトルクセンサ1112から取得することにより、ロボットの動作指示を得ることができる。
(力の対応変化)
また、第2実施形態における教示ハンド101は、対象物体が人の標準的な把持力で破損するような壊れやすい物を想定しており、ステップS502におけるαを1よりも小さくしているが、これに限られるものではなく、αを1より大きくしてもよい。αを1よりも大きくすることにより、教示者の通常の把持力では滑ってしまうような対象物体に対して、より強力な把持力によってずれを生じることなく対象物体の把持を行い、動作教示を行うことができる。なお、このような場合はモータ413もより強力な回転トルクを出力可能なものに交換するのが望ましい。
また、ステップS502におけるαは固定値としているが、人の知覚特性や把持力の範囲を考慮して非線形等に変化させてもよい。たとえば指数関数的に把持力を変化させることで、小さい把持力が求められる場合には繊細な把持力の制御が可能となり、大きい把持力が求められる場合には、教示者が楽に維持できる操作力で強力な把持力を出力することができるようになる。
(力センサによる部品組み付けへの応用)
第3実施形態における手首力センサ613は、手首の回転軸方向に発生する3軸の回転モーメントを計測し、動作評価値の計算に用いているが、これに限られるものではない。回転モーメントの計測以外にも、たとえば3軸の並進力を計測してもよい。このように、手首の並進軸方向に発生する3軸の力を計測することで、把持動作以外の操作についての動作教示を行うことができる。たとえば、対象部品を把持して、特定の部位に力加減をしながらはめ込みを行うような作業の教示を行うことができる。この場合、ステップS7012で最大回転モーメントMmaxを記録する手順と同様に最大並進力Smaxを記録し、ステップS7013の動作評価値Eの計算に反映させればよい。
(シミュレーションとの組み合わせ)
また、第3実施形態における動作評価部614は、最大把持力、最大回転モーメント、把持位置姿勢変化に基づいて動作評価値を求めているが、これに限るものではない。ロボットとその周辺環境を計算機で模擬的に再現し、ロボットの動作を教示するオフライン教示と組み合わせてもよい。例えば、オフライン教示において計算によって再現された模擬教示動作による最大把持力、最大回転モーメント、把持位置姿勢変化と、第3実施形態の環境での教示動作で発生したそれらの差異を比較することで、動作教示の評価を行うことができる。両者の数値が極端に異なるような場合には、シミュレーション環境もしくは教示環境のいずれかに問題が存在すると推測し、低評価とする。これにより、シミュレーション環境との整合性も含めた動作評価値の計算を行い、より確実で失敗の少ないロボットの動作教示が可能になる。
(ロボットシステムを含めた例)
また、第1実施形態〜第3実施形態における構成は、計算した動作指示を動作記録部に記録しておき、教示対象のロボットが動作する際には動作記録部から動作指令を読み出して使用する形式としていたが、これに限るものではない。例えば、図9に示すように第1実施形態における構成の部分をロボット教示部901として、これに教示対象のロボット部902を加えた、一つのロボットシステムとしてもよい。この構成の場合、第1実施形態と同様の手順によって動作指令が動作記録部112に記録された後、下記のようにロボット部902が動作する。
ロボット部902の環境計測部903が、位置姿勢計測センサ904を用いて対象物体905の位置姿勢Poaを認識する。さらに、動作生成部906が、第1実施形態におけるステップS303に示した動作位置姿勢Pを計算する。ロボットアーム907は、動作位置姿勢Pを目標位置としてアームを操作し、対象物体905を把持する。これにより、教示者が動作教示を行った直後に教示対象のロボットが実動作するように構成することができるため、より迅速で正確な教示が可能になる。また、動作教示と教示対象のロボットの実動作を比較することで、動作教示が妥当かどうかの判断も容易になる。動作教示が妥当であれば教示を終了し、問題があれば再教示を行うようにしてもよい。これにより、より確実な動作教示が可能になる。また、動作教示の妥当性を教示者が採点し、動作評価部が計算する動作評価値に反映させてもよい。これにより、特定のパラメータのみで計算する動作評価値に加えて、教示者の主観的な意図も含まれた動作教示の評価が可能となるため、より教示者の意図に沿った教示が可能になる。
(コンピュータによる実現例)
また、第1実施形態〜第3実施形態におけるデータ処理装置120(たとえば教示計測部110、動作計算部111、動作記録部112、動作評価部614)は、それらの機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する形式としてもよい。本発明の目的は、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOperating System(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
<各実施形態の効果>
第1実施形態では、ロボットハンドと同等の把持機能を有する教示ハンドを用いて、教示者が実際の対象物体を把持する動作でロボット動作教示を行うことができる。これにより、シミュレーションによる模擬環境の差異を問題とすることなく、実際のロボット環境と整合性のとれた教示が可能になる。
第2実施形態では、ロボットハンドと同等の把持機能を有する教示ハンドを用いて、教示者が実際の対象物体を把持する動作で、かつ把持力を適切に調整した上でロボット動作教示を行うことができる。これにより、壊れやすい対象物体の場合にも、シミュレーションによる模擬環境の差異を問題とすることなく、実際のロボット環境と整合性のとれた教示が可能になる。
第3実施形態では、ロボットハンドと同等の把持機能を有する教示ハンドを用いて、教示者が実際の対象物体を把持する動作でロボット動作教示を行うことができる。さらに、実際のロボットの把持動作時に、類似した複数の動作指示から一つを選択して動作を行う場合においても、候補中で動作評価値が最少となる動作指示を選択することで、対象物体のずれや落下の可能性を最小限にした確実な把持動作が可能となる。また、複数回の本実施形態による動作教示を行って、動作指示と動作評価値を蓄積し、その中から良好な動作指示のみを抽出することで、実際のロボット動作をより最適に行うことができる。
<定義>
本発明における教示機構部は、対象物体を保持し、動作教示できるものであればどのようなものであってもよい。一例が第1実施形態の教示ハンドである。第1実施形態における教示ハンドはフィンガによる対象物体を把持することで保持を行っているが、吸着ハンドを用いて保持を行ってもよい。
また、本発明における教示計測部は、動作教示を計測できるものであれば、どのようなものであってもよい。一例が、把持力センサと位置姿勢計測センサを用いて計測を行う第1実施形態の教示計測部である。
また、本発明における動作計算部は、ロボットの動作指示を計算できるものであれば、どのようなものであってもよい。一例が、第1実施形態における動作計算部である。また、上記の教示計測部、動作計算部、動作評価部は、それらの機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する形式としてもよい。
101:教示ハンド、102:教示者の手、103:対象物体、104:トリガ、105:フィンガ、106:把持力センサ、107:位置姿勢計測センサ、108,109:計測マーカ、110:教示計測部、111:動作計算部

Claims (19)

  1. ロボットの動作を教示するためのロボット教示装置であって、
    対象物体に作用するための機構と、
    前記機構が前記対象物体へ作用している間の前記機構の状態を計測する計測手段と、
    前記計測手段で計測した前記状態に基づいて、ロボットのための動作指示を生成する生成手段と、
    前記動作指示を記録する記録手段と、を備えることを特徴とするロボット教示装置。
  2. 前記機構は、教示対象となるロボットのハンド部に対応した形状、もしくは機能を有することを特徴とする請求項1に記載のロボット教示装置。
  3. 前記機構は、教示者が操作力を入力するための操作力入力部と機械的に連動することにより、前記操作力入力部に加わった力によって駆動されることを特徴とする請求項1または2に記載のロボット教示装置。
  4. 前記機構は、教示者が入力した操作力に応じた電気的な信号により駆動されることを特徴とする請求項1または2に記載のロボット教示装置。
  5. 前記機構は、対象物体を把持あるいは吸着することにより保持する保持手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載のロボット教示装置。
  6. 前記保持手段は、教示者が入力した最大の操作力に基づいた保持力を維持することを特徴とする請求項5に記載のロボット教示装置。
  7. 前記計測手段は、前記保持手段が前記対象物体を保持した状態の前記保持手段と前記対象物体の位置姿勢を計測することを特徴とする請求項5または6に記載のロボット教示装置。
  8. 前記生成手段は、前記対象物体の位置を基準とした前記保持手段の位置姿勢に基づいて、前記動作指示を生成することを特徴とする請求項7に記載のロボット教示装置。
  9. 前記計測手段は、前記保持手段が前記対象物体を保持している状態で発生する保持力を計測することを特徴とする請求項5乃至8のいずれか1項に記載のロボット教示装置。
  10. 前記生成手段は、前記保持力のうち最大の保持力を、前記動作指示として用いることを特徴とする請求項9に記載のロボット教示装置。
  11. 前記生成手段で生成した前記動作指示に対する動作評価値を計算する評価手段をさらに備えることを特徴とする請求項5乃至10のいずれか1項に記載のロボット教示装置。
  12. 前記計測手段は、前記保持手段が前記対象物体を保持している間における、前記保持手段と前記対象物体の間の相対的な位置姿勢の変化を計測し、
    前記評価手段は、前記相対的な位置姿勢の変化に基づいて前記動作評価値を計算することを特徴とする請求項11に記載のロボット教示装置。
  13. 前記評価手段は、前記保持手段に発生する保持力、回転モーメント、または並進力に基づいて動作評価値を求めることを特徴とする、請求項12に記載のロボット教示装置。
  14. 前記評価手段は、前記計測手段で計測された保持動作と、計算によって模擬的に再現された保持動作との差異に基づいて動作評価値を求めることを特徴とする、請求項11乃至13のいずれか1項に記載のロボット教示装置。
  15. 前記機構は、対象物体を回転する回転手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載のロボット教示装置。
  16. ロボットの動作を教示するためのロボット教示装置であって、
    前記ロボットのハンド部に対応した形状または機能を有する機構が対象物体に作用している間の、前記機構による前記対象物体への作用の状態を計測する計測手段と、
    前記計測手段で計測した前記作用の状態に基づいて、前記ロボットのための動作指示を生成する生成手段と、
    前記動作指示を記録する記録手段と、を備えることを特徴とするロボット教示装置。
  17. ロボットの動作を教示するためのロボット教示装置の制御方法であって、
    前記ロボットのハンド部に対応した形状または機能を有する機構が対象物体に作用している間の、前記機構の状態を計測する計測工程と、
    前記計測工程で計測した前記状態に基づいて、前記ロボットのための動作指示を生成する生成工程と、
    前記動作指示を記録する記録工程と、を有することを特徴とするロボット教示装置の制御方法。
  18. 教示された動作に従って動作するロボットシステムであって、
    請求項1乃至16のいずれか1項に記載されたロボット教示装置と、
    前記記録手段に蓄積された前記動作指示に基づいて動作するロボット部と、を備えることを特徴とするロボットシステム。
  19. 請求項17に記載された制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2015094442A 2014-08-27 2015-05-01 ロボット教示装置およびその制御方法、ロボットシステム、プログラム Active JP6660102B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015094442A JP6660102B2 (ja) 2014-08-27 2015-05-01 ロボット教示装置およびその制御方法、ロボットシステム、プログラム
US14/827,924 US9902059B2 (en) 2014-08-27 2015-08-17 Robot teaching apparatus, method, and robot system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014173010 2014-08-27
JP2014173010 2014-08-27
JP2015094442A JP6660102B2 (ja) 2014-08-27 2015-05-01 ロボット教示装置およびその制御方法、ロボットシステム、プログラム

Publications (2)

Publication Number Publication Date
JP2016047591A true JP2016047591A (ja) 2016-04-07
JP6660102B2 JP6660102B2 (ja) 2020-03-04

Family

ID=55401444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015094442A Active JP6660102B2 (ja) 2014-08-27 2015-05-01 ロボット教示装置およびその制御方法、ロボットシステム、プログラム

Country Status (2)

Country Link
US (1) US9902059B2 (ja)
JP (1) JP6660102B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017033351A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
JP2019141939A (ja) * 2018-02-19 2019-08-29 オムロン株式会社 シミュレーション装置、シミュレーション方法及びシミュレーションプログラム
JP2019188477A (ja) * 2018-04-18 2019-10-31 ファナック株式会社 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
JP2019217607A (ja) * 2018-06-21 2019-12-26 三菱電機株式会社 ティーチング装置、ロボット制御システム及びティーチング方法
CN110692082A (zh) * 2017-05-31 2020-01-14 首选网络株式会社 学习装置、学习方法、学习模型、推算装置以及夹持系统
JP2020069513A (ja) * 2018-10-31 2020-05-07 アイダエンジニアリング株式会社 指令発生装置
JP2020151837A (ja) * 2019-03-22 2020-09-24 株式会社デンソーウェーブ ロボット及びハンドの制御装置
WO2020262170A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
WO2020262168A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
WO2020262169A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
CN113631330A (zh) * 2019-03-28 2021-11-09 富兰卡爱米卡股份有限公司 示教用于机器人夹持器中的物品的保持力
WO2022080052A1 (ja) * 2020-10-16 2022-04-21 オムロン株式会社 ロボット教示装置
JP2023041345A (ja) * 2021-09-13 2023-03-24 株式会社メルティンMmi 操作者の動きに基づいてロボットの動きを制御するためのプログラム、方法、およびシステム
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182951A1 (de) * 2014-08-18 2017-06-28 Ondal Medical Systems GmbH Kraft- oder bewegungsreaktive stativvorrichtung, steuerungseinrichtung sowie verfahren zum positionieren der stativvorrichtung
US10789543B1 (en) * 2014-10-24 2020-09-29 University Of South Florida Functional object-oriented networks for manipulation learning
JP6489991B2 (ja) * 2015-10-02 2019-03-27 ファナック株式会社 ロボットを操作するハンドルを備えたロボット用操作装置
WO2017064851A1 (ja) * 2015-10-14 2017-04-20 川崎重工業株式会社 ロボット教示方法及びロボットアーム制御装置
FR3044115B1 (fr) * 2015-11-25 2017-11-24 Commissariat Energie Atomique Procede de programmation d’un effort a exercer par un robot
JP6423815B2 (ja) 2016-03-30 2018-11-14 ファナック株式会社 人協働型のロボットシステム
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
WO2018017612A1 (en) 2016-07-18 2018-01-25 Lael Odhner Training robotic manipulators
CN107962563B (zh) * 2016-10-20 2022-10-04 精工爱普生株式会社 控制装置、机器人以及机器人系统
JP2018167334A (ja) * 2017-03-29 2018-11-01 セイコーエプソン株式会社 教示装置および教示方法
JP7052308B2 (ja) * 2017-11-15 2022-04-12 セイコーエプソン株式会社 センサー、およびロボット
CN109799771B (zh) * 2018-12-29 2021-01-05 深圳市越疆科技有限公司 一种工业机器人的控制系统、方法及装置
US11173610B2 (en) * 2019-11-13 2021-11-16 Vicarious Fpc, Inc. Method and system for robot control using visual feedback
JP7436796B2 (ja) * 2019-12-16 2024-02-22 株式会社デンソーウェーブ ロボットのプログラム作成支援装置
WO2021247268A1 (en) * 2020-06-02 2021-12-09 Commscope Technologies Llc Smart hand tools with sensing and wireless capabilities, and systems and methods for using same
DE112021002029T5 (de) * 2020-06-25 2023-02-23 Fanuc Corporation Robotersteuerung
CN112085987A (zh) * 2020-08-31 2020-12-15 上海工程技术大学 一种基于工业机器人的智能制造实训系统及控制方法
EP4399067A1 (en) * 2021-09-08 2024-07-17 Acumino Wearable robot data collection system with human-machine operation interface

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4372721A (en) * 1981-05-18 1983-02-08 Nordson Corporation Apparatus for calibrating link position transducers of a teaching robot and a work robot
JPH07246581A (ja) * 1994-03-14 1995-09-26 Fujitsu Ltd マニピュレータの把持位置姿勢制御方式
JPH0947989A (ja) * 1995-08-08 1997-02-18 Kawasaki Heavy Ind Ltd ロボット作業教示装置
JPH09216183A (ja) * 1996-02-13 1997-08-19 Kawasaki Heavy Ind Ltd ロボット3次元位置姿勢教示システム
JPH10138182A (ja) * 1996-11-08 1998-05-26 Toyoda Mach Works Ltd ロボットの教示装置
JP2001287179A (ja) * 2000-04-11 2001-10-16 Hikari Toso Kogyo Kk 産業用ロボット教示装置
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2010017804A (ja) * 2008-07-09 2010-01-28 Kao Corp マニプレータシステム
WO2010092981A1 (ja) * 2009-02-12 2010-08-19 三菱電機株式会社 産業用ロボットシステム
JP2013184280A (ja) * 2012-03-12 2013-09-19 Nittetsukohei Co Ltd ティーチング装置及びティーチング方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69622572T2 (de) * 1995-09-14 2003-04-03 Kabushiki Kaisha Yaskawa Denki, Kitakyushu Lehrvorrichtung für roboter
US6285920B1 (en) * 2000-02-18 2001-09-04 Fanuc Robotics North America Method of robot teaching with motion constraints
US6385508B1 (en) * 2000-10-31 2002-05-07 Fanuc Robotics North America, Inc. Lead-through teach handle assembly and method of teaching a robot assembly
JP3923053B2 (ja) * 2004-03-31 2007-05-30 ファナック株式会社 ロボット教示装置
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
CN101390027A (zh) * 2006-02-23 2009-03-18 Abb公司 依靠从使用者接收的力和扭矩控制物体的位置及方位的系统
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
AT10676U1 (de) * 2008-07-21 2009-08-15 Keba Ag Verfahren zum betreiben eines mobilen handbediengerätes für die abgabe oder freischaltung von potentiell gefahrbringenden steuerkommandos sowie entsprechendes handbediengerät
JP5302610B2 (ja) 2008-10-01 2013-10-02 キヤノン株式会社 情報処理装置、情報処理方法
CN102292194B (zh) * 2009-08-21 2015-03-04 松下电器产业株式会社 机器人手臂的控制装置及控制方法、装配机器人、机器人手臂的控制程序及机器人手臂的控制用集成电路
JP4699572B2 (ja) * 2009-09-28 2011-06-15 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
JP5631025B2 (ja) 2010-03-10 2014-11-26 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
JP5852364B2 (ja) * 2011-08-26 2016-02-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR20130090585A (ko) * 2012-02-06 2013-08-14 삼성전자주식회사 착용형 로봇과 이를 이용한 모션 학습 방법
JP2013244560A (ja) 2012-05-25 2013-12-09 Dainippon Screen Mfg Co Ltd 把持機構の軌道生成装置、把持機構の軌道生成方法、把持機構の軌道生成プログラム、記録媒体、ロボットプログラム作成装置
WO2014110682A1 (en) * 2013-01-18 2014-07-24 Robotiq Inc. Force/torque sensor, apparatus and method for robot teaching and operation
JP6296236B2 (ja) * 2013-05-27 2018-03-20 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
DE102013218823A1 (de) * 2013-09-19 2015-04-02 Kuka Laboratories Gmbh Verfahren zum manuell geführten Verstellen der Pose eines Manipulatorarms eines Industrieroboters und zugehöriger Industrieroboter
DE102014202145A1 (de) * 2014-02-06 2015-08-06 Kuka Roboter Gmbh Verfahren zum Programmieren eines Industrieroboters und zugehörigerIndustrieroboter
JP6100727B2 (ja) * 2014-04-09 2017-03-22 ファナック株式会社 リードスルー機能を有する人協調型産業用ロボット
DE102014216514B3 (de) * 2014-08-20 2015-09-10 Kuka Roboter Gmbh Verfahren zum Programmieren eines Industrieroboters und zugehöriger Industrieroboter

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4372721A (en) * 1981-05-18 1983-02-08 Nordson Corporation Apparatus for calibrating link position transducers of a teaching robot and a work robot
JPH07246581A (ja) * 1994-03-14 1995-09-26 Fujitsu Ltd マニピュレータの把持位置姿勢制御方式
JPH0947989A (ja) * 1995-08-08 1997-02-18 Kawasaki Heavy Ind Ltd ロボット作業教示装置
JPH09216183A (ja) * 1996-02-13 1997-08-19 Kawasaki Heavy Ind Ltd ロボット3次元位置姿勢教示システム
JPH10138182A (ja) * 1996-11-08 1998-05-26 Toyoda Mach Works Ltd ロボットの教示装置
JP2001287179A (ja) * 2000-04-11 2001-10-16 Hikari Toso Kogyo Kk 産業用ロボット教示装置
JP2002331480A (ja) * 2001-05-09 2002-11-19 Fanuc Ltd 干渉回避装置
JP2010017804A (ja) * 2008-07-09 2010-01-28 Kao Corp マニプレータシステム
WO2010092981A1 (ja) * 2009-02-12 2010-08-19 三菱電機株式会社 産業用ロボットシステム
JP2013184280A (ja) * 2012-03-12 2013-09-19 Nittetsukohei Co Ltd ティーチング装置及びティーチング方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10980605B2 (en) 2015-08-25 2021-04-20 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JPWO2017033351A1 (ja) * 2015-08-25 2018-06-07 川崎重工業株式会社 遠隔操作ロボットシステム
WO2017033351A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
CN110692082A (zh) * 2017-05-31 2020-01-14 首选网络株式会社 学习装置、学习方法、学习模型、推算装置以及夹持系统
CN110692082B (zh) * 2017-05-31 2023-07-11 首选网络株式会社 学习装置、学习方法、学习模型、推算装置以及夹持系统
JP2019141939A (ja) * 2018-02-19 2019-08-29 オムロン株式会社 シミュレーション装置、シミュレーション方法及びシミュレーションプログラム
JP2019188477A (ja) * 2018-04-18 2019-10-31 ファナック株式会社 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
US11130236B2 (en) 2018-04-18 2021-09-28 Fanuc Corporation Robot movement teaching apparatus, robot system, and robot controller
JP2019217607A (ja) * 2018-06-21 2019-12-26 三菱電機株式会社 ティーチング装置、ロボット制御システム及びティーチング方法
JP2020069513A (ja) * 2018-10-31 2020-05-07 アイダエンジニアリング株式会社 指令発生装置
JP2020151837A (ja) * 2019-03-22 2020-09-24 株式会社デンソーウェーブ ロボット及びハンドの制御装置
JP7238523B2 (ja) 2019-03-22 2023-03-14 株式会社デンソーウェーブ ロボット及びハンドの制御装置
JP2022526363A (ja) * 2019-03-28 2022-05-24 フランカ エーミカ ゲーエムベーハー ロボットグリッパにおけるオブジェクトの保持力のティーチイン
CN113631330A (zh) * 2019-03-28 2021-11-09 富兰卡爱米卡股份有限公司 示教用于机器人夹持器中的物品的保持力
CN113631330B (zh) * 2019-03-28 2024-02-20 富兰卡爱米卡股份有限公司 示教用于机器人夹持器中的物品的保持力
JP7193207B2 (ja) 2019-06-26 2022-12-20 アズビル株式会社 教示装置及び教示方法
JP2021003766A (ja) * 2019-06-26 2021-01-14 アズビル株式会社 教示装置及び教示方法
WO2020262169A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
JP2021003767A (ja) * 2019-06-26 2021-01-14 アズビル株式会社 教示装置及び教示方法
WO2020262168A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
WO2020262170A1 (ja) * 2019-06-26 2020-12-30 アズビル株式会社 教示装置及び教示方法
JP2021003765A (ja) * 2019-06-26 2021-01-14 アズビル株式会社 教示装置及び教示方法
WO2022080052A1 (ja) * 2020-10-16 2022-04-21 オムロン株式会社 ロボット教示装置
JP2023041345A (ja) * 2021-09-13 2023-03-24 株式会社メルティンMmi 操作者の動きに基づいてロボットの動きを制御するためのプログラム、方法、およびシステム
JP7351539B2 (ja) 2021-09-13 2023-09-27 株式会社メルティンMmi 操作者の動きに基づいてロボットの動きを制御するためのプログラム、方法、およびシステム
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム

Also Published As

Publication number Publication date
US9902059B2 (en) 2018-02-27
US20160059407A1 (en) 2016-03-03
JP6660102B2 (ja) 2020-03-04

Similar Documents

Publication Publication Date Title
JP6660102B2 (ja) ロボット教示装置およびその制御方法、ロボットシステム、プログラム
US9321176B1 (en) Systems and methods for planning a robot grasp based upon a demonstrated grasp
Ekvall et al. Learning and evaluation of the approach vector for automatic grasp generation and planning
JP6648469B2 (ja) ロボットシステム、及びロボット制御装置
Li et al. Intuitive control of a robotic arm and hand system with pneumatic haptic feedback
JP6931457B2 (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2019084601A (ja) 情報処理装置、把持システムおよび情報処理方法
CN103200896A (zh) 多关节医疗器械的致动中的张力控制
TWI827907B (zh) 機器人的控制裝置、控制方法、機器人及其系統、學習裝置、方法及電腦程式產品
JP2010089257A (ja) 産業用ロボットのティーチングのための方法及びそれに対応して装備された産業用ロボット
JP2013193202A (ja) 人間援助型タスクデモンストレーションを使用してロボットを訓練するための方法およびシステム
TW201404560A (zh) 控制系統、程式及機械裝置之控制方法
Hoffmann et al. Adaptive robotic tool use under variable grasps
KR101096571B1 (ko) 로봇용 햅틱 마스터 장치의 힘 또는 토크 측정 장치 및 그 방법
JP2015112654A (ja) 制御装置、ロボット、教示データ生成方法及びロボットシステム
JP2009023047A (ja) ロボット制御装置
JP2015507541A (ja) ロボットを制御する制御方法およびかかる方法を使用する制御システム
JP2023105577A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム
JP6003312B2 (ja) ロボットシステム
Falck et al. DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation
Liarokapis et al. Learning the post-contact reconfiguration of the hand object system for adaptive grasping mechanisms
Lach et al. Placing by Touching: An empirical study on the importance of tactile sensing for precise object placing
WO2022209924A1 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
Perreault et al. A 7-DOF haptics-enabled teleoperated robotic system: Kinematic modeling and experimental verification
JP2011174871A (ja) 相関性評価方法、相関性評価装置、動作再現装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200207

R151 Written notification of patent or utility model registration

Ref document number: 6660102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151