JP2015074058A - ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム - Google Patents

ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム Download PDF

Info

Publication number
JP2015074058A
JP2015074058A JP2013212919A JP2013212919A JP2015074058A JP 2015074058 A JP2015074058 A JP 2015074058A JP 2013212919 A JP2013212919 A JP 2013212919A JP 2013212919 A JP2013212919 A JP 2013212919A JP 2015074058 A JP2015074058 A JP 2015074058A
Authority
JP
Japan
Prior art keywords
end point
image
robot
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013212919A
Other languages
English (en)
Other versions
JP6322948B2 (ja
Inventor
政司 相磯
Masashi Aiiso
政司 相磯
長谷川 浩
Hiroshi Hasegawa
浩 長谷川
稲積 満広
Mitsuhiro Inazumi
満広 稲積
信宏 狩戸
Nobuhiro Karido
信宏 狩戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013212919A priority Critical patent/JP6322948B2/ja
Priority to CN201810330449.2A priority patent/CN108621156B/zh
Priority to CN201510141455.XA priority patent/CN104827469B/zh
Priority to CN201410524815.XA priority patent/CN104552291B/zh
Priority to US14/510,591 priority patent/US9492925B2/en
Priority to EP14188281.1A priority patent/EP2859999A3/en
Publication of JP2015074058A publication Critical patent/JP2015074058A/ja
Application granted granted Critical
Publication of JP6322948B2 publication Critical patent/JP6322948B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットによる作業において、対象物の位置ずれなどが発生した場合でも、効率よく対象物を目標位置へ移動させる。【解決手段】ロボットは、当該ロボットの可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、を有し、前記制御部は、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する。【選択図】図1

Description

本発明は、ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラムに関する。
特許文献1には、ロボットのインピーダンス制御において、ロボット先端に作用する押し当て反力が所定の大きさを超えると、押し当て反力が設定された制限値となるような仮目標位置を求め、当該仮目標位置に押し当て反力に応じた位置補正量を加算して目標位置を求める、ロボット制御装置が記載されている。
特開2000−301479号公報
しかしながら、特許文献1の技術では、ワークなどの対象物の現在位置が目標位置から想定以上に大きくずれてしまった場合には、対象物を目標位置へ移動することが困難になる。例えば、ワークを穴に嵌める嵌め合い作業では、インピーダンス制御によりワークを穴の縁などに押し当てることで、作業を完了することができる。しかしながら、ワークの位置が穴から遠くにずれている場合には、インピーダンス制御ではワークが穴に対してどのようにずれているか(方向や距離など)を検出することができないため、現在位置を修正して作業を完了することが困難である。ロボットの作業を完了するには、ロボットの軌道をユーザーが修正して再度教示するなどのユーザーの作業が発生する。
そこで、本発明は、ロボットによる作業において、対象物の位置ずれなどが発生した場合でも、効率よく対象物を目標位置へ移動させることを目的とする。
上記の課題を解決する本発明の第一の態様は、ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、を有することを特徴とするロボット制御装置である。これにより、対象物の位置ずれなどが発生した場合であっても、第一制御部の指令値により精度よく可動部の位置を修正することができる。また、第一制御部の指令値に基づく可動部の軌道が非効率になる場合であっても、第二制御部の指令値により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第二の態様は、ロボットの可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、を有し、前記制御部は、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、ことを特徴とするロボット制御装置である。これにより、対象物の位置ずれなどが発生した場合であっても、画像に基づく制御により精度よく可動部の位置を修正することができる。また、画像に基づく制御による可動部の軌道が非効率になる場合であっても、力に基づく制御により効率の良い軌道に修正することができる。
上記のロボット制御装置であって、前記第三制御部は、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを、それぞれ所定の重みで足し合わせた指令値を用いて前記可動部を移動させる、ことを特徴としてもよい。これにより、可動部の軌道や作業の精度が所望の軌道や作業の精度となるように調整することができる。
上記のロボット制御装置であって、前記所定の重みの設定をユーザーから受け付ける入力部、を有することを特徴としてもよい。これにより、ユーザーの希望する軌道や作業の精度となるように重みを設定することができる。
上記のロボット制御装置であって、前記第三制御部は、前記所定の重みを、前記現在位置と前記目標位置との距離に基づいて決定する、ことを特徴としてもよい。これにより、距離に応じて重みが変化するため、精度よく制御を行うことができる。また、距離に応じて連続的に重みが変化するため、制御を滑らかに切り替えることができる。
上記のロボット制御装置であって、前記第三制御部は、前記画像取得部が取得した画像に基づいて前記距離を決定する、ことを特徴としてもよい。これにより、第一制御部が使用する画像と同じ画像に基づいて距離を決定することができるため、画像処理の負荷の増加を防ぐことができる。
上記のロボット制御装置であって、前記第三制御部は、前記距離が小さくなるほど、前記第二制御部により生成された指令値に対応する所定の重みを大きくする、ことを特徴としてもよい。目的位置に近い位置のように力制御による効果が効果的に得られる位置では、第一制御部による非効率な軌道を修正して、より効率的に可動部の移動を行うことができる。
上記のロボット制御装置であって、前記第三制御部は、前記距離が所定値より大きい場合には、前記第二制御部により生成された指令値に対応する所定の重みを0にする、ことを特徴としてもよい。目的位置から遠い位置のように力制御による効果が効果的に得られない位置では、第一制御部により効率的に可動部の移動を行うことができる。
上記の課題を解決する本発明の第三の態様は、可動部と、前記可動部に作用する力を検出する力検出部と、前記可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、前記力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、を有することを特徴とするロボットである。これにより、対象物の位置ずれなどが発生した場合であっても、第一制御部の指令値により精度よく可動部の位置を修正することができる。また、第一制御部の指令値に基づく可動部の軌道が非効率になる場合であっても、第二制御部の指令値により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第四の態様は、可動部と、前記可動部に作用する力を検出する力検出部と、前記可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、を有し、前記制御部は、前記現在画像及び前記目標画像と、前記力検出部からの出力とに基づいて、前記可動部の移動を制御する、ことを特徴とするロボットである。これにより、対象物の位置ずれなどが発生した場合であっても、画像に基づく制御により精度よく可動部の位置を修正することができる。また、画像に基づく制御による可動部の軌道が非効率になる場合であっても、力に基づく制御により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第五の態様は、可動部を有するロボットと、前記可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、を有することを特徴とするロボットシステムである。これにより、対象物の位置ずれなどが発生した場合であっても、第一制御部の指令値により精度よく可動部の位置を修正することができる。また、第一制御部の指令値に基づく可動部の軌道が非効率になる場合であっても、第二制御部の指令値により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第六の態様は、可動部を有するロボットと、前記可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、を有し、前記制御部は、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、ことを特徴とするロボットシステムである。これにより、対象物の位置ずれなどが発生した場合であっても、画像に基づく制御により精度よく可動部の位置を修正することができる。また、画像に基づく制御による可動部の軌道が非効率になる場合であっても、力に基づく制御により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第七の態様は、ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得ステップと、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御ステップと、前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御ステップと、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御ステップと、を含むことを特徴とするロボット制御方法である。これにより、対象物の位置ずれなどが発生した場合であっても、第一制御ステップの指令値により精度よく可動部の位置を修正することができる。また、第一制御ステップの指令値に基づく可動部の軌道が非効率になる場合であっても、第二制御ステップの指令値により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第八の態様は、ロボットの可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御ステップと、前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得ステップと、を含み、前記制御ステップは、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、ことを特徴とするロボット制御方法である。これにより、対象物の位置ずれなどが発生した場合であっても、画像に基づく制御により精度よく可動部の位置を修正することができる。また、画像に基づく制御による可動部の軌道が非効率になる場合であっても、力に基づく制御により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第九の態様は、ロボットの可動部のエンドポイントを含む画像に基づく前記可動部の制御と、前記可動部に作用する力を検出する力検出部からの出力に基づく前記可動部の制御とを、並列制御するロボット制御方法である。これにより、対象物の位置ずれなどが発生した場合であっても、画像に基づく制御により精度よく可動部の位置を修正することができる。また、画像に基づく制御による可動部の軌道が非効率になる場合であっても、力に基づく制御により効率の良い軌道に修正することができる。
上記の課題を解決する本発明の第十の態様は、ロボット制御装置のプログラムであって、ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部として、前記ロボット制御装置を機能させる、ことを特徴とするプログラムである。これにより、対象物の位置ずれなどが発生した場合であっても、第一制御部の指令値により精度よく可動部の位置を修正することができる。また、第一制御部の指令値に基づく可動部の軌道が非効率になる場合であっても、第二制御部の指令値により効率の良い軌道に修正することができる。
本発明の実施形態に係るロボットシステム1の概略構成の一例を示す図である。 ロボットシステム1の機能構成の一例を示す図である。 ロボットシステム1におけるデータ及び制御の流れの一例を示す図である。 指令値を合成する比率を示す重みの設定方法の一例を説明する図である。 力制御による嵌め合い作業の一例を説明する図である。 力制御による嵌め合い作業の一例を説明する図である。 ビジュアルサーボによる嵌め合い作業の一例を説明する図である。 力制御およびビジュアルサーボの並列制御による嵌め合い作業の一例を説明する図である。 ロボット制御装置10の動作の一例を示すフロー図である。 ロボット制御装置10の機能を実現するハードウェア構成の一例を示す図である。
本発明の実施形態について、図面を参照しながら説明する。
図1は、本発明の実施形態に係るロボットシステム1の概略構成の一例を示す図である。図1に示すように、ロボットシステム1は、ロボット制御装置10と、ロボット20と、撮像装置30とを備える。ロボット制御装置10は、ロボット20及び撮像装置30と通信可能に接続される。
ロボット制御装置10は、ロボット20の全体を制御する。また、ロボット制御装置10は、撮像装置30による撮像を制御する。
ロボット20は、ロボット制御装置10からの制御信号に従って動作し、作業を行う。ロボットの作業内容は、特に限定されないが、例えば、作業台T上でワークW1をワークW2の穴Hに嵌める作業などが考えられる。ワークは、作業の対象物と呼ぶことができる。
ロボット20は、一以上のジョイント23及び一以上のリンク24を含むアーム22と、アーム22の先端部に設けられたハンド26と、アーム22の先端部とハンド26との間(手首部分と呼ぶこともできる。)に設けられた力覚センサー25と、を有する。
力覚センサー25は、例えば、ハンド26に作用する力や、モーメントを検出する。力覚センサー25の出力は、ロボット制御装置10に送られ、ロボット制御装置10によるロボット20のインピーダンス制御などに用いられる。力覚センサー25としては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。もちろん、力覚センサー25の軸数は特に限定されず、例えば3軸でもよい。なお、力覚センサー25は、力検出部と呼ぶこともできる。
ハンド26は、例えば、複数の指を備え、少なくとも2本の指で対象物W(W1、W2)を把持することができる。ハンド26は、アーム22の先端部に対して着脱可能であってもよい。なお、ハンド26は、エンドエフェクターの一種ということができる。エンドエフェクターは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。
アーム22、力覚センサー25、及びハンド26を含むユニットを、可動部やマニピュレータと呼ぶこともできる(以下では、可動部と呼ぶ。)。図1の例では、ロボット20は可動部21を2本有する。可動部21には、ジョイント23やハンド26等の各部を動作させるため、例えば、アクチュエーター(図示せず)が備えられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、例えば、ロボット制御装置10や後述するロボット20の駆動制御部200(図2参照)によるロボット20のフィードバック制御などに用いられる。
ロボット20は、ロボット制御装置10から与えられる制御命令に従って、各ジョイント23を連動させて駆動することにより、アーム22の先端部などに設定された注目位置(以下、エンドポイントという。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。また、ハンド26で対象物などを把持したり解放したりすることができる。
なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。
撮像装置30は、ロボット20の作業領域(例えば、作業台T上の可動部21により作業可能な範囲である3次元空間)を撮像して、画像データを生成する。図1の例では、2台の撮像装置30がそれぞれ異なる角度で作業台T上に設置されている。撮像装置30は、例えば可視光カメラ、赤外線カメラ等を採用することができる。撮像装置30により撮像された画像はロボット制御装置10に入力される。
上記のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記した構成例に限られない。また、一般的なロボットシステムが備える構成を排除するものではない。
例えば、図1ではジョイント数が6個(6軸)の例が示されているが、ジョイントの数(「軸数」ともいう)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
また、例えば、撮像装置30の設置位置は、特に限定されず、天井や壁に設置されてもよい。また、撮像装置30に替えて又は加えて、ロボット20のアーム22の先端部分、胴体部、あるいは頭部などに、撮像装置を設けるようにしてもよい。また、例えば、撮像装置30は、ロボット20に接続されるようにしてもよい。この場合には、撮像装置30により撮像された画像は、ロボット20を介してロボット制御装置10に入力される。また、ロボット制御装置10は、ロボット20に内蔵されるようにしてもよい。
図2は、ロボットシステム1の機能構成の一例を示す図である。
ロボット20は、駆動制御部200を有する。
駆動制御部200は、ロボット制御装置10から出力された制御命令と、アクチュエーターのエンコーダー値及びセンサーのセンサー値等とに基づいて、エンドポイントの位置が制御命令で指示される目標位置となるように、アクチュエーターを駆動させる。なお、エンドポイントの現在位置は、例えばアクチュエーターにおけるエンコーダー値等から求めることができる。
ロボット制御装置10は、ビジュアルサーボ部(第一制御部)100と、力制御部(第二制御部)110と、画像取得部120と、第三制御部130とを有する。ビジュアルサーボ部100は、画像処理部102と、第一の軌道生成部104とを有する。力制御部110は、センサー情報取得部112と、第二の軌道生成部114とを有する。
ビジュアルサーボ部100は、撮像装置30が撮像した画像を、画像取得部120を介して取得する。また、ビジュアルサーボ部100は、取得した画像に基づいて、目標物との相対的な位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡する制御手法であるビジュアルサーボを実行して、アーム22を移動させる。なお、本実施形態では、ビジュアルサーボとして、視差が生じるような2枚の画像を利用して画像を立体として認識させるステレオグラム等の方法を用いて計算した対象の3次元位置情報に基づいてロボットを制御する位置ベース法を採用する。なお、ビジュアルサーボとしては、目標の画像から抽出した特徴量と現在の画像から抽出した特徴量とに基づいてロボットを制御する画像ベース法を採用してもよい。
画像処理部102は、画像取得部120から取得した画像からエンドポイントを認識し、当該認識したエンドポイントを含む画像を抽出する。なお、画像処理部102が行う画像認識処理は、一般的な様々な技術を用いることができるため、説明を省略する。
第一の軌道生成部104は、画像処理部102により抽出された画像(以下、現在画像という)と、エンドポイントが目標位置にある時の画像(以下、目標画像という)とに基づいて、エンドポイントの軌道、すなわちエンドポイントの移動量及び移動方向を設定する。なお、目標画像は、予め取得したものをメモリー等の記憶部に格納しておけばよい。
また、第一の軌道生成部104は、設定したエンドポイントの移動量及び移動方向に基づいて、各ジョイント23に設けられた各アクチュエーターの目標角度を決定する。さらに、第一の軌道生成部104は、目標角度だけアーム22を移動させるような指令値を生成し、第三制御部130へ出力する。なお、第一の軌道生成部104が行う軌道の生成処理、目標角度の決定処理、指令値の生成処理等は、一般的な様々な技術を用いることができるため、詳細な説明を省略する。
力制御部110は、ロボット20の力覚センサー25からのセンサー情報(力情報やモーメント情報を示すセンサー値)に基づいて、力制御(力覚制御ともいう)を行う。本実施形態では、力制御としてインピーダンス制御を行う。インピーダンス制御は、ロボットの手先(ハンド26等)に外から力を加えた場合に生じる機械的なインピーダンス(慣性、減衰係数、剛性)を、目的とする作業に都合の良い値に設定するための位置と力の制御手法である。具体的には、例えば、ロボットのエンドエフェクター部に質量と粘性係数と弾性要素が接続されるモデルにおいて、目標として設定した質量と粘性係数と弾性係数で物体に接触するようにする制御である。
なお、力制御を行うためには、ハンド26等のエンドエフェクターに加わる力やモーメントを検出する必要があるが、エンドエフェクターに加わる力やモーメントを検出する方法は力覚センサーを用いるものに限られない。例えば、アーム22の各軸トルク値からエンドエフェクターに及ぼす外力を推定することもできる。したがって、力制御を行うためには、直接または間接的にエンドエフェクターに加わる力を取得する手段を、アーム22が有していればよい。
センサー情報取得部112は、ロボット20の力覚センサー25から出力されるセンサー情報(検出されたセンサー値など)を取得する。なお、センサー情報取得部112は、力検出部と呼ぶこともできる。
第二の軌道生成部114は、インピーダンス制御によりエンドポイントの移動方向及び移動量を決定する。また、第二の軌道生成部114は、エンドポイントの移動方向及び移動量に基づいて、各ジョイント23に設けられた各アクチュエーターの目標角度を決定する。また、第二の軌道生成部114は、目標角度だけアーム22を移動させるような指令値を生成し、第三制御部130へ出力する。なお、第二の軌道生成部114が行う軌道の生成処理、目標角度の決定処理、指令値の生成処理等は、一般的な様々な技術を用いることができるため、詳細な説明を省略する。
なお、関節を持つロボット20では、各関節の角度を決定すると、フォワードキネマティクス処理によりエンドポイントの位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの目標位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、エンドポイントの軌道を目標関節角度の集合と考えることができる。よって、第一の軌道生成部104及び第二の軌道生成部114から出力される指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。
画像取得部120は、撮像装置30が撮像した画像を取得し、ビジュアルサーボ部100及び第三制御部130に出力する。
第三制御部130は、ビジュアルサーボ部(第一制御部)100から出力される指令値と、力制御部(第二制御部)110から出力される指令値とを、それぞれに設定した重みを用いて合成する。また、第三制御部130は、合成した指令値に基づいて、エンドポイントの位置、すなわち可動部21を移動させるように、ロボット20に指示を出力する。
また、第三制御部130は、画像取得部120から取得した画像から、2つの位置(例えば、エンドポイントの現在位置とエンドポイントの目標位置)を認識し、現在位置から目標位置までの距離を計算する。そして、当該計算した距離の長さに応じて、指令値を合成する重みの比率を設定する。また、第三制御部130は、ロボット20の力覚センサー25から出力されるセンサー情報を取得する機能(「力検出部」と呼んでもよい。)を有する。第三制御部130の処理の詳細は後述する。
図3は、ロボットシステム1におけるデータ及び制御の流れの一例を示す図である。
ビジュアルサーボ部100では、撮像装置30からの情報を用いて現在位置を目標位置に近づけるためのビジュアルフィードバックループが回っている。第一の軌道生成部104は、目標位置に関する情報として目標画像を取得する。また、第一の軌道生成部104は、現在画像及び現在画像上における目標位置は画像上における座標系で表されているため、これをロボットにおける座標系に変換する。また、第一の軌道生成部104は、変換後の現在の現在画像及び目標画像に基づいて、軌道及び指令値(ここでは目標角度)を生成する。
力制御部110では、力覚センサー25からのセンサー情報に基づいて、目標として設定したインピーダンス(目標インピーダンス)で、ロボットの手先を物体に接触させるためのフィードバックループが回っている。第二の軌道生成部114は、取得するセンサー情報の値が、目標インピーダンスとなるように軌道及び指令値(ここでは目標角度)を生成する。
第三制御部130は、第一の軌道生成部104から出力された指令値と、第二の軌道生成部114から出力された指令値とに基づいた指令値をロボット20に出力する。具体的には、第三制御部130は、第一の軌道生成部104から出力された指令値に重みα(0≦α≦1)を掛け、第二の軌道生成部114から出力された指令値に重みβ(β=1−α)を掛け、これらを合成した指令値をロボット20に出力する。重みα及び重みβは、ビジュアルサーボの指令値及び力制御の指令値を合成する比率を示す値であると言える。αとβの比率の設定方法については、後述する。
なお、一般的に画像処理の負荷は高いため、ビジュアルサーボ100が指令値を出力する間隔(例えば30ミリ秒(msec)毎)は、力制御部110が指令値を出力する間隔(例えば、1ミリ秒(msec)毎)よりも長いことが想定される。この場合、第三制御部130は、ビジュアルサーボ100から指令値が出力されていないときには、力制御部110から出力された指令値に重みαを掛け、最後にビジュアルサーボ100から出力された指令値に重みβを掛け、これらを合成したものをロボット20に出力すればよい。第三制御部130は、最後にビジュアルサーボ100から出力された指令値をメモリー等の記憶部に一時的に記憶しておき、この指令値を読み出して使用するようにすればよい。
駆動制御部200は、ロボット制御装置10から指令値(目標角度)を取得する。駆動制御部200は、各ジョイント23に設けられた各アクチュエーターのエンコーダー値等に基づいて現在角度を取得し、目標角度と現在角度の差分(偏差角度)を算出する。また、駆動制御部200は、偏差角度に基づいてアーム22の移動速度を算出し(例えば、偏差角度が大きいほど移動速度を速くする)、算出した移動速度で算出した偏差角度だけ可動部21を移動させる。
図4は、指令値を合成する比率を示す重みの設定方法の一例を説明する図である。図4では、縦軸を重みα及び重みβの比率、横軸を現在位置から目標位置までの距離とするグラフを示している。なお、上述のようにα+β=1である。
現在位置は、例えば、エンドポイントの現在位置とすることができる。また、目標位置は、例えば、エンドポイントの目標画像における位置とすることができる。もちろん、現在位置と目標位置はエンドポイントの位置に限られず、例えば、現在位置は、ハンド26が把持するワークWの特定の点の位置とし、目標位置は、ワークWの目標画像における位置としてもよい。
図4の例では、現在位置から目標位置までの距離dと重みの比率との関係は、現在位置から目標位置までの距離dが小さくなるに従って、係数αの比率が単調減少(βの比率が単調増加)する関係となっている。比率の変化の仕方は、曲線的であってもよいし直線的であってもよい。ロボット制御装置10は、例えば、キーボード等の入力部を介して、ユーザーから比率の変化の仕方の設定を受け付けることができる。
また、図4の例では、距離dが所定距離cよりも小さくなった場合に、係数αの比率が最大値1から減少に転じる。所定距離cには、力制御の効果が効果的に得られると想定される距離を設定することができる。所定距離の設定方法について、図5〜8を参照して、ワークW2の穴HにワークW1を嵌める作業を例に挙げながら説明する。
例えば図5(力制御による嵌め合い作業の一例を説明する図)に示すように、ワークW1が移動した結果、ワークW1とワークW2の接触面の位置が、穴Hの縁にも届かない遠い位置にずれてしまった場合を考える。この場合、ワークW1がワークW2に接触した時点でインピーダンス制御を開始してワークW1をワークW2に対して押し付けても、ワークW1が穴Hに入ることはない。すなわち、インピーダンス制御の効果が得られない。一方、図6(力制御による嵌め合い作業の一例を説明する図)に示すように、ワークW1が移動した結果、ワークW1とワークW2の接触面の位置が、穴Hの縁に届く位置にある場合を考える。この場合、ワークW1がワークW2に接触した時点でインピーダンス制御を開始してワークW1をワークW2に対して押し付けると、ワークW1が穴Hに嵌り易くなる。すなわち、インピーダンス制御の効果を得ることができる。このように、距離dが小さいほど、インピーダンス制御の効果を得られる可能性が高まる。
そこで、例えば、インピーダンス制御の効果が得られない距離をc1(例えば2mm)、ロボット20の動作の精度誤差をc2(例えば3mm)とすると、距離c=c1+c2と定義することができる。距離cの設定は、作業内容やロボット仕様に応じて、ユーザーが調整することが望ましい。ロボット制御装置10は、例えば、キーボード等の入力部を介して、ユーザーから距離cの設定を受け付けることができる。
なお、例えば図7(ビジュアルサーボによる嵌め合い作業の一例を説明する図)に示すように、ワークW1が移動した結果、ワークW1とワークW2の接触面の位置が、穴Hの縁に届く位置にある場合を考える。この場合、ワークW1がワークW2に接触した時点でインピーダンス制御を開始せずに、ビジュアルサーボによりワークW1の移動を行うと、場合によってはエンドポイントが最短ではない遠回りな、すなわち非効率な軌道で移動する可能性がある。一方、図8(力制御およびビジュアルサーボの並列制御による嵌め合い作業の一例を説明する図)に示すように、ワークW1が移動した結果、ワークW1とワークW2の接触面の位置が、穴Hの縁に届く位置にある場合を考える。この場合、ワークW1がワークW2に接触した時点でインピーダンス制御を開始した場合、ビジュアルサーボによるエンドポイントの軌道がインピーダンス制御による軌道により修正されるため、より効率的な軌道でワークW1を穴Hに嵌められる可能性が高まる。
第三制御部130は、例えば力制御部110が指令値を出力する間隔などの任意の間隔で、画像取得部120から画像を取得し、2つの位置(例えば、エンドポイントの現在位置とエンドポイントの目標位置)を画像処理により認識し、現在位置から目標位置までの距離を計算する。また、第三制御部130は、当該計算した距離と、距離と重み比率の関係とに基づいて、当該計算した距離に対応する重みα及び重みβの値を取得し、指令値の合成に使用する重みとして設定する。なお、距離と重み比率の関係を定義したテーブルを予め記憶部に記憶しておき、第三制御部130がこのテーブルを参照することで重み比率を決定するようにしてもよいし、第三制御部130が所定の関数式により重み比率を決定するようにしてもよい。
このように、ビジュアルサーボと力制御の各指令値を同時に用いる(並列制御を行う)ことで、対象物の位置ずれが発生した場合であってもビジュアルサーボにより精度よく位置を修正することができる。また、ビジュアルサーボによる軌道が非効率になる場合であっても、力制御により効率の良い軌道に修正することができる。
また、現在位置と目標位置の距離が大きくなるほど、力制御の指令値の割合がビジュアルサーボの指令値の割合よりも小さくなる。そのため、目的位置から遠い位置のように力制御による効果が効果的に得られない位置では、ビジュアルサーボにより効率的に可動部の移動を行うことができる。
また、現在位置と目標位置の距離が小さくなるほど、ビジュアルサーボの指令値の割合が力制御の指令値の割合よりも小さくなる。そのため、目的位置に近い位置のように力制御による効果がより効果的に得られる位置では、ビジュアルサーボによる非効率な軌道を修正して、より効率的に可動部の移動を行うことができる。
また、目的位置までの距離に応じて連続的に重みを変化(単調増加又は単調減少)させる。そのため、ビジュアルサーボから力制御への切り替えを滑らかにすることができる。
図9は、ロボット制御装置10の動作の一例を示すフロー図である。この処理は、例えば、図示しないボタン等を介して動作開始指示が入力されることにより開始される。図9では、ワークW1をワークW2の穴Hに嵌めこむ作業を考える。この作業では、例えば、ビジュアルサーボにより初期位置からワークW1が移動し、ワークW2の穴Hの近辺に一旦ワークW1が接触し、その後ビジュアルサーボ及びインピーダンス制御によりワークW1が穴Hに嵌められる、という流れを経る。
図9のフローが開始されると、第三制御部130は、ビジュアルサーボ部100を用いてエンドポイントを移動させる(ステップS1)。また、第三制御部130は、ロボット20の力覚センサー25からのセンサー情報を取得し、当該取得したセンサー情報に基づいてロボットの手先に外力が加わったか否かを判定する(ステップS2)。ロボットの手先に外力が加わっていない場合(ステップS2でN)、第三制御部130は、ステップS1の処理を継続する。
ロボットの手先に外力が加わった場合(ステップS2でY)、第三制御部130は、エンドポイントの現在位置から目標位置までの距離dを計測する(ステップS3)。また、第三制御部130は、ステップS3で計測した距離dと、距離と重みα及び重みβの関係を定義したテーブルとに基づいて、計測した距離dに対応する重み比率を設定する(ステップS4)。
それから、第三制御部130は、ビジュアルサーボ部100と力制御部110とを用いてエンドポイントを移動させる(ステップS5)。具体的には、上述したように、ビジュアルサーボ部100及び力制御部110は、それぞれ指令値を算出する。第三制御部130は、ビジュアルサーボ部100から出力された指令値にステップS4で設定した係数αを掛け、力制御部110から出力された指令値にステップS4で設定した係数βを掛け、これらを合成した指令値をロボット20に出力する。
また、ビジュアルサーボ部100は、ビジュアルサーボを終了する条件が成立するか否かを判定する(ステップS6)。例えば、ビジュアルサーボ部100は、目標画像と現在画像との差分を求め、当該差分が所定の閾値以下である場合に、ビジュアルサーボを終了すると判定する。ビジュアルサーボを終了する条件が成立しない場合(ステップS6でN)、ビジュアルサーボ部100は、処理をステップS2に戻す。
ビジュアルサーボを終了する条件が成立する場合(ステップS6でY)、力制御部110は、力制御を終了する条件が成立するか否かを判定する(ステップS7)。例えば、力制御部110は、力覚センサー25からのセンサー情報に基づいて、ロボットの手先に外力が所定の閾値以上である場合に、力制御を終了すると判定する。力制御を終了する条件が成立しない場合(ステップS7でN)、力制御部110は、処理をステップS2に戻す。力制御を終了する条件が成立する場合(ステップS7でY)、力制御部110は、図9のフローチャートの処理を終了する。
図10は、ロボット制御装置10の機能を実現するハードウェア構成の一例を示す図である。
ロボット制御装置10は、例えば、図10に示すような、CPU(Central Processing Unit)等の演算装置91と、RAM(Random Access Memory)などの主記憶装置92と、HDD(Hard Disk Drive)等の補助記憶装置93と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)94と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置95と、液晶ディスプレイなどの表示装置96と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置97と、を備えるコンピューター90で実現することができる。
例えば、ビジュアルサーボ部100、力制御部110、画像取得部120、第三制御部130などの機能は、補助記憶装置93などから主記憶装置92にロードされた所定のプログラムを演算装置91が実行することで実現される。入力部は、例えば、演算装置91が入力装置95を利用することで実現される。記憶部は、例えば、演算装置91が主記憶装置92又は補助記憶装置93を利用することで実現される。ロボット20や撮像装置30との通信機能は、例えば、演算装置91が通信I/F94利用することで実現される。なお、上記の所定のプログラムは、例えば、読み書き装置97により読み取られた記憶媒体からインストールされてもよいし、通信I/F94を介してネットワークからインストールされてもよい。
ロボット20の駆動制御部200は、例えば、演算装置、記憶装置、回路などを備えるASIC(Application Specific Integrated Circuit)を備えるコントローラー基板等により実現することができる。
上述したロボットシステム1の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、ロボット制御装置10及びロボット20の機能及び処理の分担は、図示した例に限られない。例えば、ロボット制御装置10の少なくとも一部の機能は、ロボット20に含まれ、ロボット20により実現されてもよい。また、例えば、ロボット20の少なくとも一部の機能は、ロボット制御装置10に含まれ、ロボット制御装置10により実現されてもよい。
また、上述したフローチャートの各処理単位は、ロボット制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。ロボット制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。
以上、本発明の実施形態について説明した。本実施形態によれば、ロボットによる作業において、対象物の位置ずれなどが発生した場合でも、効率よく対象物を目標位置へ移動させることができる。
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明は、ロボットと、制御装置等とを別個に有するロボットシステムとして提供してもよいし、ロボットに制御装置等が含まれるロボットとして提供してもよいし、制御装置として提供してもよい。また、本発明は、ロボット等を制御する方法、ロボット等を制御するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。
1:ロボットシステム、10:ロボット制御装置、20:ロボット、21:可動部、22:アーム、23:ジョイント、24:リンク、25:力覚センサー、26:ハンド、30:撮像装置、90:コンピューター、91:演算装置、92:主記憶装置、93:補助記憶装置、94:通信I/F、95:入力装置、96:表示装置、97:読み書き装置、100:ビジュアルサーボ部、102:画像処理部、104:第一の軌道生成部、110:力制御部、112:センサー情報取得部、114:第二の軌道生成部、120:画像取得部、130:第三制御部、200:駆動制御部

Claims (16)

  1. ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、
    前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、
    前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、
    を有することを特徴とするロボット制御装置。
  2. ロボットの可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、
    前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    を有し、
    前記制御部は、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、
    ことを特徴とするロボット制御装置。
  3. 請求項1に記載のロボット制御装置であって、
    前記第三制御部は、前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを、それぞれ所定の重みで足し合わせた指令値を用いて前記可動部を移動させる、
    ことを特徴とするロボット制御装置。
  4. 請求項3に記載のロボット制御装置であって、
    前記所定の重みの設定をユーザーから受け付ける入力部、
    を有することを特徴とするロボット制御装置。
  5. 請求項3に記載のロボット制御装置であって、
    前記第三制御部は、前記所定の重みを、前記現在位置と前記目標位置との距離に基づいて決定する、
    ことを特徴とするロボット制御装置。
  6. 請求項5に記載のロボット制御装置であって、
    前記第三制御部は、前記画像取得部が取得した画像に基づいて前記距離を決定する、
    ことを特徴とするロボット制御装置。
  7. 請求項5に記載のロボット制御装置であって、
    前記第三制御部は、前記距離が小さくなるほど、前記第二制御部により生成された指令値に対応する所定の重みを大きくする、
    ことを特徴とする制御装置。
  8. 請求項5に記載のロボット制御装置であって、
    前記第三制御部は、前記距離が所定値より大きい場合には、前記第二制御部により生成された指令値に対応する所定の重みを0にする、
    ことを特徴とするロボット制御装置。
  9. 可動部と、
    前記可動部に作用する力を検出する力検出部と、
    前記可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、
    前記力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、
    前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、
    を有することを特徴とするロボット。
  10. 可動部と、
    前記可動部に作用する力を検出する力検出部と、
    前記可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、
    前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    を有し、
    前記制御部は、前記現在画像及び前記目標画像と、前記力検出部からの出力とに基づいて、前記可動部の移動を制御する、
    ことを特徴とするロボット。
  11. 可動部を有するロボットと、
    前記可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、
    前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、
    前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部と、
    を有することを特徴とするロボットシステム。
  12. 可動部を有するロボットと、
    前記可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御部と、
    前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    を有し、
    前記制御部は、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、
    ことを特徴とするロボットシステム。
  13. ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得ステップと、
    前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御ステップと、
    前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御ステップと、
    前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御ステップと、
    を含むことを特徴とするロボット制御方法。
  14. ロボットの可動部のエンドポイントを目標位置に近付けるように前記可動部を制御する制御ステップと、
    前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得ステップと、
    を含み、
    前記制御ステップは、前記現在画像及び前記目標画像と、前記可動部に作用する力を検出する力検出部からの出力とに基づいて、前記可動部の移動を制御する、
    ことを特徴とするロボット制御方法。
  15. ロボットの可動部のエンドポイントを含む画像に基づく前記可動部の制御と、前記可動部に作用する力を検出する力検出部からの出力に基づく前記可動部の制御とを、並列制御するロボット制御方法。
  16. ロボット制御装置のプログラムであって、
    ロボットの可動部のエンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
    前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させる指令値を生成する第一制御部と、
    前記可動部に作用する力を検出する力検出部からの出力に基づいて、前記エンドポイントを移動させる指令値を生成する第二制御部と、
    前記第一制御部により生成された指令値と、前記第二制御部により生成された指令値とを用いて前記可動部を移動させる第三制御部として、
    前記ロボット制御装置を機能させる、
    ことを特徴とするプログラム。
JP2013212919A 2013-10-10 2013-10-10 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム Expired - Fee Related JP6322948B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013212919A JP6322948B2 (ja) 2013-10-10 2013-10-10 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
CN201810330449.2A CN108621156B (zh) 2013-10-10 2014-10-08 机器人控制装置、机器人系统、机器人以及机器人控制方法
CN201510141455.XA CN104827469B (zh) 2013-10-10 2014-10-08 机器人控制装置、机器人系统、机器人以及机器人控制方法
CN201410524815.XA CN104552291B (zh) 2013-10-10 2014-10-08 机器人控制装置、机器人系统、机器人以及机器人控制方法
US14/510,591 US9492925B2 (en) 2013-10-10 2014-10-09 Robot controller, robot system, robot, robot control method, and program
EP14188281.1A EP2859999A3 (en) 2013-10-10 2014-10-09 Robot controller, robot system, robot, robot control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013212919A JP6322948B2 (ja) 2013-10-10 2013-10-10 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015074058A true JP2015074058A (ja) 2015-04-20
JP6322948B2 JP6322948B2 (ja) 2018-05-16

Family

ID=52999330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013212919A Expired - Fee Related JP6322948B2 (ja) 2013-10-10 2013-10-10 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6322948B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018114607A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法、プログラム、記録媒体及び物品の製造方法
CN112297002A (zh) * 2019-08-01 2021-02-02 发那科株式会社 进行多点嵌合的机器人控制系统
CN116834038A (zh) * 2023-07-31 2023-10-03 沈阳新光航宇安全系统有限公司 一种爆破片智能视觉识别控制系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02310609A (ja) * 1989-05-25 1990-12-26 Toyota Central Res & Dev Lab Inc マニピユレータの位置と力の協調制御装置
JPH05318363A (ja) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd ロボットの制御方式
JP2000301479A (ja) * 1999-04-19 2000-10-31 Denso Corp ロボット制御装置
US20080027580A1 (en) * 2006-07-28 2008-01-31 Hui Zhang Robot programming method and apparatus with both vision and force
JP2011011318A (ja) * 2009-07-06 2011-01-20 Seiko Epson Corp 位置制御方法、ロボット
US20110087360A1 (en) * 2008-03-31 2011-04-14 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP2013180380A (ja) * 2012-03-02 2013-09-12 Seiko Epson Corp 制御装置、制御方法及びロボット装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02310609A (ja) * 1989-05-25 1990-12-26 Toyota Central Res & Dev Lab Inc マニピユレータの位置と力の協調制御装置
JPH05318363A (ja) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd ロボットの制御方式
JP2000301479A (ja) * 1999-04-19 2000-10-31 Denso Corp ロボット制御装置
US20080027580A1 (en) * 2006-07-28 2008-01-31 Hui Zhang Robot programming method and apparatus with both vision and force
US20110087360A1 (en) * 2008-03-31 2011-04-14 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP2011011318A (ja) * 2009-07-06 2011-01-20 Seiko Epson Corp 位置制御方法、ロボット
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP2013180380A (ja) * 2012-03-02 2013-09-12 Seiko Epson Corp 制御装置、制御方法及びロボット装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOH HOSODA: "ADAPTIVE HYBRID VISUAL SERVORING/FORCE CONTROL IN UNKNOWN ENVIROMENT", PROCEEDINGS OF THE 1996 IEEE/RSJ INTERNATIONAL CONFERENCE ON ROBOTS AND SYSTEMS(IROS), JPN6017027231, 4 November 1996 (1996-11-04), pages 1100, ISSN: 0003604799 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018114607A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法、プログラム、記録媒体及び物品の製造方法
CN112297002A (zh) * 2019-08-01 2021-02-02 发那科株式会社 进行多点嵌合的机器人控制系统
JP2021024011A (ja) * 2019-08-01 2021-02-22 ファナック株式会社 複数点嵌合を行うロボット制御システム
US11584011B2 (en) 2019-08-01 2023-02-21 Fanuc Corporation Robot control system of fitting of a plurality of points
JP7351667B2 (ja) 2019-08-01 2023-09-27 ファナック株式会社 複数点嵌合を行うロボット制御システム、制御方法、コンピュータのプログラム、および制御装置
CN116834038A (zh) * 2023-07-31 2023-10-03 沈阳新光航宇安全系统有限公司 一种爆破片智能视觉识别控制系统
CN116834038B (zh) * 2023-07-31 2024-02-02 沈阳新光航宇安全系统有限公司 一种爆破片智能视觉识别控制系统

Also Published As

Publication number Publication date
JP6322948B2 (ja) 2018-05-16

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
US9492925B2 (en) Robot controller, robot system, robot, robot control method, and program
CN107717981B (zh) 机械手臂的控制装置及其教导系统与方法
CN106945007B (zh) 机器人系统、机器人、以及机器人控制装置
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP5545534B2 (ja) ロボットの教示再生装置、教示再生方法、及び教示データ作成方法
US11117266B2 (en) Control device, robot, and robot system
JP2012011531A (ja) ロボット装置およびロボット装置による把持方法
JP2019018340A (ja) 作業用ロボット、作業用ロボットの制御方法
JP2013071231A (ja) ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路
JP7049069B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2009066683A (ja) ロボットハンド及び制御方法、並びにプログラム
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
Devine et al. Real time robotic arm control using hand gestures with multiple end effectors
JP6322948B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP6003312B2 (ja) ロボットシステム
JP2015186834A (ja) ロボット制御装置、把持部制御装置、ロボット、把持部、ロボット制御方法、及びプログラム
JP6314429B2 (ja) ロボット、ロボットシステム、及びロボット制御装置
JP2021045810A (ja) モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP2005144573A (ja) ロボットハンドの把持力制御方法
JP2016209936A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2019034398A (ja) 制御装置、ロボットおよびロボットシステム
JP5942720B2 (ja) 状態判別方法、ロボット、制御装置、及びプログラム
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6322948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees