JP2012011531A - ロボット装置およびロボット装置による把持方法 - Google Patents

ロボット装置およびロボット装置による把持方法 Download PDF

Info

Publication number
JP2012011531A
JP2012011531A JP2010152765A JP2010152765A JP2012011531A JP 2012011531 A JP2012011531 A JP 2012011531A JP 2010152765 A JP2010152765 A JP 2010152765A JP 2010152765 A JP2010152765 A JP 2010152765A JP 2012011531 A JP2012011531 A JP 2012011531A
Authority
JP
Japan
Prior art keywords
information
gripping
position information
finger hand
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010152765A
Other languages
English (en)
Other versions
JP5505138B2 (ja
Inventor
Mayumi Umetsu
真弓 梅津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2010152765A priority Critical patent/JP5505138B2/ja
Priority to EP11172485.2A priority patent/EP2460628A3/en
Priority to US13/175,933 priority patent/US8498745B2/en
Priority to CN2011101888295A priority patent/CN102310409A/zh
Publication of JP2012011531A publication Critical patent/JP2012011531A/ja
Application granted granted Critical
Publication of JP5505138B2 publication Critical patent/JP5505138B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39492Finger impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39532Gripping force sensor build into finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象物の位置情報に誤差が含まれる場合にも、確実に対象物を把持することが可能なロボット装置を提供する。
【解決手段】このロボット装置100は、ロボットアーム10と、ロボットアーム10の先端に設けられ、力制御を行うための力センサ21a、22aおよび23aを有する多指ハンド部20と、視覚センサ30による検出により、把持対象物110の少なくとも位置情報を取得する画像処理部43と、画像処理部43により取得した把持対象物110の少なくとも位置情報に基づいてロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正する制御装置40とを備える。
【選択図】図1

Description

この発明は、ロボット装置およびロボット装置による把持方法に関し、特に、ロボットアームおよび多指ハンド部を備えたロボット装置およびロボット装置による把持方法に関する。
従来、ロボットアームおよび多指ハンド部を備えたロボット装置が知られている(たとえば、特許文献1および2参照)。
上記特許文献1には、ロボットアームと、ロボットアームの先端に設けられた多指ハンド部と、カメラとを備えたロボット装置が開示されている。
また、上記特許文献2には、ロボットアームと、ロボットアームの先端に設けられた多指ハンド部と、カメラと、対象物の形状などの情報が登録されたデータベースとを備えたロボット装置が開示されている。
特開2005−161507号公報 特開2003−94367号公報
しかしながら、従来のロボット装置では、画像データに基づいて対象物の位置情報を取得して、取得した位置情報に基づいて対象物の把持を行っているので、ロボット装置(ロボットアームおよび多指ハンド部)の座標系とカメラの座標系とが正確に一致していない場合など、画像認識による対象物の位置情報に誤差が含まれる場合には、対象物の正確な位置情報を取得することができない場合があるという不都合がある。この場合には、対象物を把持することが困難になるという問題点がある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、対象物の位置情報に誤差が含まれる場合にも、確実に対象物を把持することが可能なロボット装置およびロボット装置による把持方法を提供することである。
課題を解決するための手段および発明の効果
上記目的を達成するために、この発明の第1の局面によるロボット装置は、ロボットアームと、ロボットアームの先端に設けられ、力制御を行うための指先力センサを有する多指ハンド部と、ユーザによる入力または検出手段による検出により、対象物の少なくとも位置情報を取得する情報取得手段と、情報取得手段により取得した対象物の少なくとも位置情報に基づいてロボットアームを移動させて対象物に多指ハンド部を近づけていき、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正する制御部とを備える。
この第1の局面によるロボット装置では、上記制御部によって、多指ハンド部による対象物に対する実際の接触位置に基づいて対象物の位置情報を修正することができる。これにより、情報取得手段により取得した対象物の位置情報に誤差が含まれる場合にも、実際の接触位置に基づいて対象物の位置情報のずれを修正することができるので、対象物を確実に把持することができる。また、把持動作以外の各種の動作においても、対象物の位置情報のずれを修正することができるので、確実に動作を遂行することができる。
上記第1の局面によるロボット装置において、好ましくは、制御部は、修正された位置情報に基づいて多指ハンド部の把持位置を修正するとともに、多指ハンド部により対象物を把持する制御を行うように構成されている。このように構成すれば、対象物の位置情報に誤差が含まれる場合にも、実際の接触位置に基づいて把持位置が修正された多指ハンド部により対象物を確実に把持することができる。
上記第1の局面によるロボット装置において、好ましくは、情報取得手段は、ユーザによる入力または検出手段による検出により、対象物の位置情報に加えて姿勢情報も取得するように構成されており、制御部は、情報取得手段により取得した対象物の位置情報および姿勢情報に基づいてロボットアームを移動させて対象物に多指ハンド部を近づけていき、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報および姿勢情報を修正するように構成されている。このように構成すれば、検出した接触位置の情報に基づいて、対象物の位置情報のみならず対象物の姿勢情報も修正することができるので、より確実に対象物を把持することができる。
上記第1の局面によるロボット装置において、好ましくは、位置情報の修正を行うか否かをユーザにより設定可能に構成されており、制御部は、位置情報の修正を行うと設定されている場合には、指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正するように構成されている。このように構成すれば、ユーザは、ロボット装置の用途や使用環境などに応じて、位置情報の修正を行うか否かを設定することができるとともに、位置情報の修正を行うと設定した場合には、対象物の位置情報に誤差が含まれる場合にも対象物を確実に把持することができる。
上記第1の局面によるロボット装置において、好ましくは、制御部は、情報取得手段により取得した対象物の位置情報による位置と、検出された対象物に対する実際の接触位置とのずれ量が所定のしきい値よりも大きい場合に、検出した接触位置の情報に基づいて対象物の位置情報を修正するように構成されている。このように構成すれば、情報取得手段により取得した対象物の位置情報が実際の接触位置に対して所定のしきい値よりも大きいずれ量(誤差)を含むと制御部により判断された場合には、検出した接触位置の情報に基づいて対象物の位置情報を修正することができる。これにより、情報取得手段により取得した対象物の位置情報と実際の対象物の位置情報とのずれ量が確実な把持を行うことが困難なほど大きい場合にのみ、検出した接触位置の情報に基づいて対象物の位置情報を修正することができる。その結果、制御部の制御負荷を減少させることができる。
上記第1の局面によるロボット装置において、好ましくは、指先力センサは、多指ハンド部の指先に複数設けられており、制御部は、複数の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正するように構成されている。このように構成すれば、多指ハンド部の指先に複数設けられた複数の指先力センサによって、1回の接触動作で実際の対象物の複数の接触位置を検出することができる。これにより、対象物の複数の接触位置の情報を取得することができるので、容易に、対象物の位置情報のみならず姿勢情報の修正も行うことができる。
上記第1の局面によるロボット装置において、好ましくは、情報取得手段は、ユーザによる入力または検出手段による検出により、対象物の位置情報および形状情報を取得するように構成されており、制御部は、対象物の情報が予め蓄えられたデータベースと、情報取得手段により取得された対象物の形状情報とを照合して対象物の寸法情報を得るとともに、対象物の寸法情報および位置情報に基づいてロボットアームを移動させて対象物に多指ハンド部を近づけていき、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出するように構成されている。これにより、データベースから対象物の正確な寸法情報を取得することができるので、対象物の寸法情報および位置情報に基づいて、容易に、対象物に多指ハンド部(指先力センサ)を接触させることができる。また、寸法情報を用いることにより、対象物における接触位置の位置関係を求めることができるので、少ない接触位置の情報でも対象物の位置情報の修正を行うことができる。
上記第1の局面によるロボット装置において、好ましくは、制御部は、対象物の少なくとも位置情報に基づいて、多指ハンド部の指先力センサによる力制御により多指ハンド部を対象物の位置が変化しないような強さで対象物に接触させた状態で、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正するように構成されている。このように構成すれば、多指ハンド部を対象物に接触させる際に多指ハンド部との接触力に起因して対象物の位置が変化するのを抑制することができるので、より正確に、対象物に対する実際の接触位置を検出することができる。
上記第1の局面によるロボット装置において、好ましくは、多指ハンド部が先端に設けられたロボットアームを対象物に向かって移動させる移動台車をさらに備え、情報取得手段により取得した対象物の少なくとも位置情報に基づいて移動台車およびロボットアームを移動させて対象物に多指ハンド部を近づけていき、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正するように構成されている。このように移動台車によりロボットアームを移動させるように構成した場合には、ロボット装置自体の位置が変化することに起因して、情報取得手段により取得した対象物の位置情報に誤差が含まれ易い。このような場合にも、多指ハンド部による対象物に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて対象物の位置情報を修正することができるので、対象物を確実に把持することができる。
この発明の第2の局面によるロボット装置による把持方法は、指先力センサを有する多指ハンド部が先端に設けられたロボットアームを含むロボット装置による把持方法であって、対象物の少なくとも位置情報を取得するステップと、取得した対象物の少なくとも位置情報に基づいてロボットアームを移動させて対象物にロボットアームの先端の多指ハンド部を近づけていき、多指ハンド部の指先力センサの出力に基づいて対象物に対する実際の接触位置を検出するステップと、検出した接触位置の情報に基づいて対象物の位置情報を修正するステップとを備える。
この第2の局面によるロボット装置による把持方法では、上記のステップにより、多指ハンド部による対象物に対する実際の接触位置に基づいて対象物の位置情報を修正することができる。これにより、取得した対象物の位置情報に誤差が含まれる場合にも、実際の接触位置に基づいて対象物の位置情報のずれを修正することができるので、対象物を確実に把持することができる。
本発明の第1実施形態によるロボット装置の全体構成を示す模式図である。 図1に示した第1実施形態によるロボット装置の把持動作時の制御装置の処理を説明するためのフローチャートである。 本発明の第2実施形態によるロボット装置の全体構成を示す模式図である。 図3に示した第2実施形態によるロボット装置の把持動作時の制御装置の処理を説明するためのフローチャートである。 本発明の第3実施形態によるロボット装置の全体構成を示す模式図である。 図5に示した第3実施形態によるロボット装置の制御装置の構成を示したブロック図である。 図5に示した第3実施形態によるロボット装置の把持動作時の制御装置の処理を説明するためのフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
(第1実施形態)
まず、図1を参照して、本発明の第1実施形態によるロボット装置100の構造について説明する。なお、第1実施形態では、日常生活(環境)において用いられる生活支援ロボットに本発明を適用した例について説明する。
図1に示すように、第1実施形態によるロボット装置100は、ユーザの指示に基づいてロボットアーム10の先端に装着された多指ハンド部20により物体(把持対象物110)を把持して持ち上げ、指定された位置に物体を移動させる機能を有する。
ロボット装置100は、ロボットアーム10と、ロボットアーム10の先端に装着された多指ハンド部20と、把持対象物110および把持対象物110の周辺を検出する視覚センサ30と、ロボット装置100の動作制御を行う制御装置40とを備えている。なお、視覚センサ30は、本発明の「検出手段」の一例であるとともに、制御装置40は、本発明の「制御部」の一例である。
ロボットアーム10は、複数のアーム(リンク)11および各アーム11を接続する関節部12とを含んでいる。各関節部12には図示しないモータがそれぞれ設けられており、各関節部12は接続されたアーム11を所定の駆動方向(関節軸回りの回転方向)に駆動するように構成されている。これにより、ロボットアーム10は、たとえば6自由度の動きが可能な構成を有する。
多指ハンド部20は、ロボットアーム10の先端に装着されているとともに、等角度間隔で配置された3本の指部21、22および23を含んでいる。3本の指部21、22および23は、同一の構成を有するとともに、先端(指先)にそれぞれ力センサ21a、22aおよび23aを有している。また、各指部21、22および23は、それぞれ、根元側の関節部21b、22bおよび23bと、中間部の関節部21c、22cおよび23cとを有する。各指部21、22および23は、これらの関節部(21b〜23bおよび21c〜23c)に設けられた図示しないモータにより、所定の駆動方向(関節軸回りの回転方向)に駆動されるように構成されている。したがって、指部21、22および23の自由度は、それぞれ、2自由度である。なお、力センサ21a、22aおよび23aは、本発明の「指先力センサ」の一例である。
力センサ21a、22aおよび23aは、それぞれ、直交する3軸方向の力を検出する圧力センサからなる。この力センサ21a、22aおよび23aは、それぞれ、指部21、22および23の指先に加えられた外力(負荷)を検出するように構成されている。また、力センサ21a、22aおよび23aの検出信号は、制御装置40に出力されるように構成されている。これにより、第1実施形態では、力センサ21a、22aおよび23aの出力に基づいて、多指ハンド部20(指部21、22および23)と物体(把持対象物110および周囲の壁やテーブルなどの物体)との接触を検出することが可能なように構成されている。
視覚センサ30は、把持対象物110および把持対象物110の周囲を撮像するカメラにより構成されている。視覚センサ30により撮像される画像データは、制御装置40により取り込まれるように構成されている。
制御装置40は、アーム制御部41と、ハンド制御部42と、画像処理部43と対象物データベース44とを含んでいる。また、制御装置40には、ロボット装置100の動作制御を行うための作業動作プログラム45が記憶されている。なお、画像処理部43は、本発明の「情報取得手段」の一例である。
アーム制御部41は、作業動作プログラム45に基づいて、ロボットアーム10の各部の動作制御を行う機能を有する。具体的には、アーム制御部41は、画像処理部43により取得された把持対象物110の位置情報および姿勢情報に基づいてロボットアーム10の各関節部12を駆動させるように構成されている。また、把持対象物110の把持動作時には、アーム制御部41は、把持対象物110へのアプローチ動作(ロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていく動作)を行うようにロボットアーム10を制御するように構成されている。
ハンド制御部42は、作業動作プログラム45に基づいて、多指ハンド部20の各指部21〜23の動作制御を行う機能を有する。具体的には、ハンド制御部42は、多指ハンド部20の3本の指部21、22および23をそれぞれ制御することによって、把持対象物110を把持する把持姿勢や、把持姿勢の前段階としてのアプローチ姿勢(把持姿勢をとるために把持対象物110の近傍(周囲)に各指部を配置する姿勢)をとる把持動作制御を行うように構成されている。
また、把持対象物110の把持動作においては、ハンド制御部42は、力センサ21a、22aおよび23aの出力に基づいて力制御(インピーダンス制御)を行うことにより、多指ハンド部20(指部21、22および23)を把持対象物110の位置が変化しないような強さで把持対象物110に接触させることが可能なように構成されている。具体的には、各指部21、22および23に対して、仮想的な機械インピーダンス(慣性係数、粘性係数および剛性(バネ)係数)によって力と変位量との関係を規定するインピーダンスモデルを設定するとともに、各指部21、22および23への入力位置指令に対して、インピーダンスモデルに基づいて力センサ21a、22aおよび23aの出力(力情報)を位置変位量に変換してフィードバックすることにより、入力位置指令の修正を行う。この仮想的な機械インピーダンス(慣性係数、粘性係数および剛性(バネ)係数)の値を小さく設定する場合には、外力に対する抵抗力が小さくなるので、物体との接触時に物体に作用する力を小さくすることができる。したがって、この機械インピーダンスの値を適切に調整することにより、把持対象物110に対していわゆる柔らかい接触が可能になり、把持対象物110の位置を変化させることなく多指ハンド部20を把持対象物110に接触させることが可能である。
画像処理部43は、視覚センサ30により撮像された画像データを取り込み、画像データを画像処理することにより、把持対象物110の位置情報、姿勢(向き)情報、形状情報を取得することが可能なように構成されている。ここで、把持対象物110の位置情報は、視覚センサ30に設定された座標系(たとえばX、YおよびZ軸の直交座標系)における3自由度の位置の情報である。また、把持対象物110の姿勢情報は、視覚センサ30に設定された座標系(たとえばX、YおよびZ軸の直交座標系)における各軸回りの3自由度の回転角度位置の情報である。これらの位置情報および姿勢情報を、視覚センサ30の座標系からロボットアーム10および多指ハンド部20の座標系へと変換すれば、ロボットアーム10および多指ハンド部20の座標系における把持対象物110の位置情報および姿勢情報が得られる。また、把持対象物110の形状情報は、画像処理によって取得される把持対象物110の輪郭などの情報である。この形状情報を対象物データベース44の情報と照合することにより、画像データに含まれる形状(把持対象物110の形状)から対象物データベース44に登録された把持対象物110が特定される。
対象物データベース44は、把持対象となる物体を予め把持対象物110として登録可能に構成され、把持対象物110の寸法情報や、多指ハンド部20による把持位置(把持対象物110に対してどの位置で把持するか)および把持姿勢(どの方向からどの関節角度で把持するか(たとえば、上方から把持する、側方から把持するなど))を定めた把持形態データなどを含んでいる。制御装置40は、画像処理部43によって検出された把持対象物110の形状情報を対象物データベース44の情報と照合することにより、把持対象物110の寸法情報などを取得することが可能なように構成されている。
上記の構成により、制御装置40は、視覚センサ30により撮像された画像データに基づいて把持対象物110の位置情報、姿勢情報、寸法情報、把持位置および把持姿勢を取得するとともに、これらの情報に基づいてアーム制御部41およびハンド制御部42を介してロボットアーム10および多指ハンド部20を駆動することにより、把持対象物110の把持動作を行うように構成されている。しかしながら、視覚センサ30により撮像された画像データに基づいて取得された把持対象物110の位置情報および姿勢情報に誤差が含まれる場合などには、多指ハンド部20による把持位置および把持姿勢(把持する方向)がずれてしまう場合がある。
つまり、視覚センサ30により取得された把持対象物110の位置情報および姿勢情報に基づいてロボットアーム10および多指ハンド部20を駆動するためには、視覚センサ30の座標系(カメラ座標系)とロボットアーム10および多指ハンド部20の座標系(ロボット装置100の座標系)とが正確に一致することが必要である。このため、両方の座標系を一致させるためのキャリブレーション(校正)が予め行われる。しかしながら、キャリブレーションが不十分な場合や、ロボットアーム10および多指ハンド部20と、視覚センサ30との位置関係が変化する場合などもある。この場合には、把持対象物110の位置情報および姿勢情報に誤差が含まれることに起因して、多指ハンド部20による把持位置および把持姿勢(把持する方向)がずれてしまうことになる。
そこで、この第1実施形態では、把持対象物110に対する実際の接触位置の情報に基づいて把持対象物110の位置情報および姿勢情報を修正することにより、多指ハンド部20による把持位置および把持姿勢がずれるのを抑制するように構成している。すなわち、制御装置40は、視覚センサ30により取得された把持対象物110の位置情報および姿勢情報に基づいてロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の各指先の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出するように構成されている。具体的には、力センサ(21a、22aおよび23a)が把持対象物110に対する接触を検出した時の接触位置を、ロボットアーム10の関節角度および多指ハンド部20の関節角度から算出する。そして、制御装置40は、検出した接触位置の情報に基づいて把持対象物110の位置情報および姿勢情報を修正する位置補正機能を有している。また、第1実施形態では、制御装置40は、この位置補正機能を使用するか否かをユーザにより設定可能に構成されている。
なお、位置補正機能を実行する際には、上記のように力センサ21a、22aおよび23aの出力に基づいてハンド制御部42により力制御(インピーダンス制御)を行うことによって、多指ハンド部20の3つの指部21、22および23の全てが把持対象物110に接触するようにロボットアーム10と各指部21、22および23とを駆動したとしても、把持対象物110の位置が変位するような力が把持対象物110に対して加わることなく動作することが可能である。
次に、図2を参照して、本発明の第1実施形態によるロボット装置100の把持動作時の制御装置40の処理フローを説明する。この第1実施形態では、制御装置40の作業動作プログラム45に基づいてロボット装置100の把持動作が行われる。
まず、図2に示すように、ステップS1において、視覚センサ30により撮像された画像データに基づき、制御装置40の画像処理部43により把持対象物110の位置情報、姿勢情報および形状情報が取得される。次に、ステップS2において、取得された把持対象物110の形状情報を制御装置40の対象物データベース44内のデータと照合することにより、形状情報に対応する把持対象物110の寸法情報や、把持対象物110の把持形態データ(把持位置および把持姿勢)などが取得される。
ステップS3では、取得された把持対象物110の位置情報および姿勢情報と、把持対象物110の寸法情報および把持形態データとに基づいて、アーム制御部41およびハンド制御部42により、把持対象物110の把持位置への移動経路、および、把持姿勢に対応する多指ハンド部20のアプローチ姿勢(各指部21、22および23の関節角度、指部同士の間隔など)が決定される。そして、各指部21、22および23の関節部(21b〜23bおよび21c〜23c)が駆動されることにより、多指ハンド部20の各指部21、22および23が把持対象物110に対するアプローチ姿勢となるように配置される。
次に、ステップS4において、制御装置40により、ユーザにより位置補正機能が有効に設定されているか否かが判断される。そして、位置補正機能が有効に設定されていた場合には、ステップS5に進み、接触位置の検出および位置情報(姿勢情報)の修正が実行される。また、位置補正機能が無効に設定されていた場合には、ステップS9に進む。
ステップS5では、取得された把持対象物110の位置情報および姿勢情報に基づいて制御装置40のアーム制御部41によりロボットアーム10が移動され、多指ハンド部20を把持対象物110に近づけるアプローチ動作が開始される。
アプローチ動作を継続すると、多指ハンド部20が把持位置に配置された後、アプローチ姿勢から把持姿勢に近づけるように各指部21、22および23が駆動される。このとき、把持対象物110の位置情報に誤差が含まれる場合には、多指ハンド部20が把持位置へ移動する過程、または、把持位置においてアプローチ姿勢から把持姿勢に近づけるように各指部21、22および23が駆動される過程において、多指ハンド部20の指部21、22および23のそれぞれと把持対象物110とが接触する。これにより、指部21、22および23の先端の力センサ21a、22aおよび23aにより把持対象物110に対する接触が検出される。この際、制御装置40のハンド制御部42が各指部21、22および23の力制御(インピーダンス制御)を行うことにより、把持対象物110の位置が変化しないような強さで(いわゆる柔らかい接触で)接触動作が行われる。把持対象物110に対する接触が検出されると、ロボットアーム10および多指ハンド部20の動作が一旦停止される。
ステップS6では、力センサ21a、22aおよび23aにより把持対象物110に対する接触が検出された位置(接触位置)が、それぞれ制御装置40(ハンド制御部42)により取得される。このステップS6により、把持対象物110の実際の位置(ロボットアーム10および多指ハンド部20の座標系における位置)が取得される。また、把持対象物110に対する複数(3点)の接触位置に基づいて、把持対象物110の実際の姿勢が算出される。
なお、上記ステップS1で取得された把持対象物110の位置情報に誤差が含まれる場合には、検出された実際の接触位置と画像データに基づく位置情報とには、位置ずれが生じることになる。同様に、上記ステップS1で取得された把持対象物110の姿勢情報に誤差が含まれる場合には、実際の把持対象物110の姿勢と画像データに基づく姿勢情報とには、姿勢(向き)のずれが生じることになる。
そこで、ステップS7では、検出された3点の接触位置の情報に基づいて、把持対象物110の位置情報および姿勢情報が修正される。これに伴い、修正後の把持対象物110の位置情報および姿勢情報に基づいて、アーム制御部41によりロボットアーム10の位置(すなわち、多指ハンド部20の把持位置)が修正されるとともに、ハンド制御部42により多指ハンド部20(指部21、22および23)の把持姿勢が修正される。
その後、ステップS8では、修正された把持位置に多指ハンド部20が配置された状態で、ハンド制御部42により指部21、22および23がそれぞれ移動され、多指ハンド部20が修正された把持姿勢をとることにより、把持対象物110の把持が実行される。
一方、ステップS4でユーザにより位置補正機能が無効に設定されていた場合には、上記した実際の接触位置に基づく位置修正を行うことなく、ステップS9において、把持対象物110の位置情報および姿勢情報に基づいてアーム制御部41によりロボットアーム10が移動され、把持対象物110に多指ハンド部20を近づけるアプローチ動作が実行される。そして、多指ハンド部20がアプローチ姿勢で把持位置に配置されると、ステップS8に移行し、ハンド制御部42により各指部21、22および23がアプローチ姿勢から把持姿勢へと移動して、把持対象物110の把持が実行される。
第1実施形態では、上記のように、把持対象物110の位置情報に基づいてロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置に基づいて把持対象物110の位置情報を修正する制御装置40を設けることによって、多指ハンド部20による把持対象物110に対する実際の接触位置に基づいて把持対象物110の位置情報を修正することができる。これにより、画像処理部43により取得した把持対象物110の位置情報に誤差が含まれる場合にも、実際の接触位置に基づいて把持対象物110の位置情報のずれを修正することができるので、把持対象物110を確実に把持することができる。
また、第1実施形態では、上記のように、制御装置40を、接触位置を用いて修正された位置情報に基づいて多指ハンド部20の把持位置を修正するとともに、多指ハンド部20により把持対象物110を把持する制御を行うように構成することによって、把持対象物110の位置情報に誤差が含まれる場合にも、実際の接触位置に基づいて把持位置が修正された多指ハンド部20により把持対象物110を確実に把持することができる。
また、第1実施形態では、上記のように、制御装置40を、画像処理部43により取得した把持対象物110の位置情報および姿勢情報に基づいてロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報および姿勢情報を修正するように構成することによって、検出した接触位置の情報に基づいて、把持対象物110の位置情報のみならず把持対象物110の姿勢情報も修正することができるので、より確実に把持対象物110を把持することができる。
また、第1実施形態では、上記のように、位置情報の修正を行うか否か(位置補正機能を使用するか否か)をユーザにより設定可能に構成するとともに、制御装置40を、位置情報の修正を行うと設定されている場合には、力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正するように構成することによって、ユーザは、ロボット装置100の用途や使用環境などに応じて、位置情報の修正を行うか否かを設定することができるとともに、位置情報の修正を行うと設定した場合には、把持対象物110の位置情報に誤差が含まれる場合にも把持対象物110を確実に把持することができる。
また、第1実施形態では、上記のように、制御装置40を、3つの力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正するように構成することによって、多指ハンド部20の指先に設けられた3つの力センサ21a、22aおよび23aによって、1回の接触動作で実際の把持対象物110の複数(3点)の接触位置を検出することができる。これにより、把持対象物110の複数(3点)の接触位置の情報を取得することができるので、容易に、把持対象物110の位置情報のみならず姿勢情報の修正も行うことができる。
また、第1実施形態では、上記のように、制御装置40を、把持対象物110の情報が予め蓄えられた対象物データベース44と、画像処理部43により取得された把持対象物110の形状情報とを照合して把持対象物110の寸法情報を得るとともに、把持対象物110の寸法情報および位置情報に基づいてロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出するように構成することによって、対象物データベース44から把持対象物110の正確な寸法情報を取得することができる。これにより、把持対象物110の寸法情報および位置情報に基づいて、容易に、把持対象物110に多指ハンド部20(力センサ21a、22aおよび23a)を接触させることができる。また、寸法情報を用いることにより、把持対象物110における接触位置の位置関係を求めることができるので、少ない接触位置の情報でも把持対象物110の位置情報の修正を行うことができる。
また、第1実施形態では、上記のように、制御装置40を、把持対象物110の位置情報および姿勢情報に基づいて、多指ハンド部20の力センサ21a、22aおよび23aを用いた力制御(インピーダンス制御)により多指ハンド部20を把持対象物110の位置が変化しないような強さで把持対象物110に接触させた状態で、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正するように構成する。これにより、多指ハンド部20を把持対象物110に接触させる際に多指ハンド部20との接触力に起因して把持対象物110の位置が変化するのを抑制することができるので、より正確に、把持対象物110に対する実際の接触位置を検出することができる。
(第2実施形態)
次に、図3および図4を参照して、本発明の第2実施形態によるロボット装置200について説明する。この第2実施形態では、位置補正機能を使用するか否かをユーザにより設定可能に構成した上記第1実施形態と異なり、位置補正機能を使用するか否かを把持対象物110の位置情報と実際の接触位置とのずれ量に基づいて判断するように構成した例について説明する。
第2実施形態では、図3に示すように、ロボット装置200の制御装置240は、視覚センサ30の画像データに基づいて取得した把持対象物110の位置情報と、各指部21、22および23の先端の力センサ21a、22aおよび23aを用いて検出された把持対象物110に対する実際の接触位置とのずれ量が所定のしきい値よりも大きいか否かを判断するように構成されている。そして、制御装置240は、把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値よりも大きい場合には、接触位置の情報に基づいて、把持対象物110の位置情報および姿勢情報を修正する位置補正機能を実行するように構成されている。このしきい値は、たとえば、位置情報および姿勢情報を修正することなく把持対象物110を把持することが可能な位置ずれ量の最大値である。なお、制御装置240のアーム制御部41、ハンド制御部42、画像処理部43および対象物データベース44は、上記第1実施形態の制御装置40のアーム制御部41、ハンド制御部42、画像処理部43および対象物データベース44と同じ構成を有し、制御装置240の作業動作プログラム245のみが第1実施形態と異なる。また、制御装置240は、本発明の「制御部」の一例である。
なお、第2実施形態のその他の構成は、上記第1実施形態と同様である。
次に、図3および図4を参照して、本発明の第2実施形態によるロボット装置200の把持動作時の制御装置240の処理フローを説明する。この第2実施形態では、制御装置240の作業動作プログラム245に基づいてロボット装置200の把持動作が行われる。
を説明する。
第2実施形態によるロボット装置200の把持動作時の制御装置240の処理フローにおいて、ステップS1〜ステップS3は、上記第1実施形態と同様である。すなわち、図4に示すように、ステップS1において、視覚センサ30により撮像された画像データに基づき、制御装置240の画像処理部43により把持対象物110の位置情報、姿勢情報および形状情報が取得される。次に、ステップS2において、取得された把持対象物110の形状情報を制御装置240の対象物データベース44内のデータと照合することにより、把持対象物110の寸法情報や把持形態データなどが取得される。ステップS3では、取得された把持対象物110の位置情報および姿勢情報と、把持対象物110の寸法情報および把持形態データとに基づいて、多指ハンド部20の各指部21、22および23が把持対象物110に対するアプローチ姿勢となるように配置される。
上記したステップS3の後、この第2実施形態では、ステップS14において、取得された把持対象物110の位置情報および姿勢情報に基づいてアーム制御部41によりロボットアーム10が移動されることにより、把持対象物110に多指ハンド部20を近づけるとともに、把持位置に配置された多指ハンド部20を把持対象物110に接触させるアプローチ動作が実行される。
アプローチ動作の進行に伴い、指部21、22および23の先端の力センサ21a、22aおよび23aのそれぞれにより把持対象物110に対する接触が検出されるとともに、ロボットアーム10および多指ハンド部20の動作が一旦停止される。この際、ハンド制御部42が力センサ21a、22aおよび23aの出力に基づいて各指部21、22および23の力制御(インピーダンス制御)を行うことにより、把持対象物110の位置が変化しないような強さで(いわゆる柔らかい接触で)接触動作が行われる。そして、ステップS15において、力センサ21a、22aおよび23aにより把持対象物110に対する接触が検出された位置(接触位置)が、それぞれ制御装置240(ハンド制御部42)により取得される。このステップS15により、把持対象物110の実際の位置および姿勢(ロボットアーム10および多指ハンド部20の座標系における位置および姿勢)が取得される。
ここで、第2実施形態では、ステップS16において、制御装置240により、上記ステップS1において取得された把持対象物110の位置情報と、上記ステップS15において検出された把持対象物110に対する実際の接触位置とのずれ量が所定のしきい値よりも大きいか否かが判断される。把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値よりも大きい場合には、ステップS17に進み、位置情報および姿勢情報の修正(多指ハンド部20の把持位置および把持姿勢の修正)が行われる。一方、把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値以下の場合には、把持位置および把持姿勢の修正を行うことなく把持可能と判断されてステップS18に進む。
ステップS17では、検出された複数の接触位置の情報に基づいて、制御装置240のハンド制御部42により、把持対象物110の位置情報および姿勢情報が修正される。これに伴い、修正後の把持対象物110の位置情報および姿勢情報に基づいて、アーム制御部41によりロボットアーム10の位置(すなわち、多指ハンド部20の把持位置)が修正されるとともに、ハンド制御部42により多指ハンド部20(指部21、22および23)の把持姿勢が修正される。
ステップS18では修正された把持位置に多指ハンド部20が配置された状態で、制御装置240のハンド制御部42により指部21、22および23がそれぞれ移動されて多指ハンド部20が修正された把持姿勢をとることにより、多指ハンド部20による把持対象物110の把持が実行される。なお、上記ステップS16で把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値以下と判断された場合には、このステップS18に移行して、多指ハンド部20の把持位置および把持姿勢が修正されることなく把持動作が実行される。
第2実施形態では、上記のように、制御装置240を、把持対象物110の位置情報による位置と、検出された把持対象物110に対する実際の接触位置とのずれ量が所定のしきい値よりも大きい場合に、力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正するように構成することによって、画像処理部43により取得した把持対象物110の位置情報が実際の接触位置に対して所定のしきい値よりも大きいずれ量(誤差)を含むと制御装置240により判断された場合には、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正することができる。これにより、画像処理部43により取得した把持対象物110の位置情報と実際の把持対象物110の位置情報とのずれ量が確実な把持を行うことが困難なほど大きい場合(しきい値よりも大きい場合)にのみ、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正することができる。その結果、制御装置240の制御負荷を減少させることができる。
なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。
(第3実施形態)
次に、図5〜図7を参照して、本発明の第3実施形態によるロボット装置300について説明する。この第3実施形態では、上記第1実施形態および上記第2実施形態と異なり、ロボット装置300のロボットアーム10および多指ハンド部20を移動させる移動台車350を設けた例について説明する。
第3実施形態では、図5に示すように、ロボット装置300は、ロボットアーム10と、多指ハンド部20と、視覚センサ30と、制御装置340と、移動台車350とを備えている。第3実施形態では、ロボットアーム10およびロボットアーム10の先端に設けられた多指ハンド部20が移動台車350上に設置されるとともに、制御装置340が移動台車350の内部に設けられている。これにより、ロボット装置300は、ユーザにより把持対象物110の把持(および移動)の指示を受け付けると、移動台車350を把持対象物110に向かって移動させて把持対象物110を把持することが可能なように構成されている。なお、制御装置340は、本発明の「制御部」の一例である。また、第3実施形態のロボットアーム10、多指ハンド部20および視覚センサ30の構成は、上記第1および第2実施形態と同様である。
移動台車350は、たとえば4つの車輪351を含むとともに、車輪351を駆動するためのモータ352を内蔵している。そして、制御装置340から入力される制御信号に基づいて各車輪351のモータ352が駆動されることにより、移動台車350は任意の位置に移動することが可能なように構成されている。
制御装置340は、図6に示すように、アーム制御部41と、ハンド制御部42と、画像処理部43と、対象物データベース44と、作業動作プログラム345と、移動台車制御部346とを含んでいる。なお、制御装置340のアーム制御部41、ハンド制御部42、画像処理部43および対象物データベース44は、上記第1実施形態の制御装置40のアーム制御部41、ハンド制御部42、画像処理部43および対象物データベース44と同じ構成を有し、制御装置340の作業動作プログラム345および移動台車制御部346が第1実施形態と異なる。
移動台車制御部346は、移動台車350のモータ352に対して制御信号を出力することにより、移動台車350の移動を制御する機能を有する。把持対象物110の把持動作を行う場合には、移動台車制御部346は、視覚センサ30の画像データに基づいて取得した把持対象物110の位置情報および姿勢情報に基づき、把持対象物110に向かって移動台車350を移動させるように構成されている。
また、第3実施形態では、制御装置340は、把持対象物110の把持動作を行う際の移動台車350の移動量が所定のしきい値よりも大きい場合に、位置補正機能を使用するように構成されている。すなわち、上記のように把持対象物110の位置情報と実際の接触位置との位置ずれは、キャリブレーションが不十分な場合や、ロボットアーム10および多指ハンド部20と視覚センサ30との位置関係が変化する場合などに発生する。この第3実施形態では、移動台車350の移動量が所定のしきい値よりも大きくなる場合には、ロボットアーム10および多指ハンド部20と、視覚センサ30との位置関係が変化する場合や、移動台車350の移動により位置や方向がずれる場合なども考えられるため、把持対象物110の位置情報と実際の接触位置との位置ずれが発生する可能性が高くなる。一方、移動台車350の移動量が小さい場合には、移動台車350による移動の前後において位置関係は大きく変わらないため、制御装置340は、位置補正機能を使用する必要なしと判断することができる。
また、この第3実施形態では、制御装置340は、移動台車350の移動量が所定のしきい値以下の場合にも、視覚センサ30の画像データに基づいて取得した把持対象物110の位置情報と、各指部21、22および23の先端の力センサ21a、22aおよび23aを用いて検出された把持対象物110に対する実際の接触位置とのずれ量が所定のしきい値よりも大きい場合には、位置補正機能を使用するように構成されている。位置補正機能の内容は上記第1および第2実施形態と同様であり、制御装置340(ハンド制御部42)は、力センサ21a、22aおよび23aの出力に基づいて把持対象物110の接触位置を複数(3点)取得するとともに、複数(3点)の接触位置の情報に基づいて、把持対象物110の位置情報および姿勢情報を修正するように構成されている。
なお、第3実施形態のその他の構成は、上記第1および第2実施形態と同様である。
次に、図7を参照して、本発明の第3実施形態によるロボット装置300の把持動作時の制御装置340の処理フローを説明する。この第3実施形態では、制御装置340の作業動作プログラム345に基づいてロボット装置300の把持動作が行われる。
第3実施形態によるロボット装置300の把持動作時の制御装置340の処理フローにおいて、ステップS1およびステップS2は、上記第1実施形態と同様である。すなわち、図7に示すように、ステップS1において、視覚センサ30により撮像された画像データに基づき、制御装置340の画像処理部43により把持対象物110の位置情報、姿勢情報および形状情報が取得される。次に、ステップS2において、取得された把持対象物110の形状情報を制御装置340の対象物データベース44内のデータと照合することにより、形状情報に対応する把持対象物110の寸法情報や、把持対象物110の把持形態データ(把持位置および把持姿勢)などが取得される。
次に、ステップS23では、移動台車制御部346により移動台車350のモータ352が駆動されることによって、把持対象物110に向かって移動台車350が移動される。具体的には、まず、取得された把持対象物110の位置情報および姿勢情報と、把持対象物110の寸法情報および把持形態データとに基づいて、アーム制御部41、ハンド制御部42および移動台車制御部346により、把持対象物110の把持位置への移動経路、および、把持姿勢に対応する多指ハンド部20のアプローチ姿勢が決定される。そして、把持対象物110の把持位置への移動経路に基づいて、移動台車制御部346により、把持位置に多指ハンド部20を配置可能な位置まで移動台車350が移動される。この際、移動台車350による移動距離が移動台車制御部346により取得される。
次に、ステップS24において、制御装置340のハンド制御部42により、把持対象物110の把持位置および把持姿勢に基づいて、多指ハンド部20の各指部21、22および23が把持対象物110に対するアプローチ姿勢となるように配置される。
ここで、第3実施形態では、ステップS25において、制御装置340により、上記ステップS23における移動台車350の移動量が所定のしきい値よりも大きいか否かが判断される。移動量が所定のしきい値よりも大きい場合には、位置補正機能を使用すると判断されてステップS26に進む。一方、移動台車350の移動量が所定のしきい値以下の場合には、このステップS25の時点では位置補正機能を使用しないと判断されてステップS30に進む。
次に、ステップS26において、取得された把持対象物110の位置情報および姿勢情報に基づいて制御装置340のアーム制御部41によりロボットアーム10が移動され、把持対象物110に多指ハンド部20を近づけるアプローチ動作が実行される。
アプローチ動作の進行に伴い、多指ハンド部20の力センサ21a、22aおよび23aのそれぞれにより把持対象物110に対する接触が検出されるとともに、ロボットアーム10および多指ハンド部20の動作が一旦停止される。この際、制御装置340のハンド制御部42が力センサ21a、22aおよび23aの出力に基づいて各指部21、22および23の力制御(インピーダンス制御)を行うことにより、把持対象物110の位置が変化しないような強さで接触動作が行われる。ステップS27では、力センサ21a、22aおよび23aにより把持対象物110に対する接触が検出された位置(接触位置)が、それぞれ制御装置340(ハンド制御部42)により取得される。このステップS27により、把持対象物110の実際の位置および姿勢(ロボットアーム10および多指ハンド部20の座標系における位置および姿勢)が取得される。
ステップS28では、検出された複数(3点)の接触位置の情報に基づいて、制御装置340のハンド制御部42により、把持対象物110の位置情報および姿勢情報が修正される。これに伴い、修正後の把持対象物110の位置情報および姿勢情報に基づいて、アーム制御部41によりロボットアーム10の位置(すなわち、多指ハンド部20の把持位置)が修正されるとともに、ハンド制御部42により多指ハンド部20(指部21、22および23)の把持姿勢が修正される。
ステップS29では、修正された把持位置に多指ハンド部20が配置された状態で、ハンド制御部42により多指ハンド部20が修正された把持姿勢をとることにより、把持対象物110の把持が実行される。
一方、上記ステップS25でロボット装置300(移動台車350)の移動量が所定のしきい値以下の場合には、ステップS30に移行する。ステップS30では、把持対象物110の位置情報および姿勢情報に基づいてアーム制御部41によりロボットアーム10が移動され、多指ハンド部20を把持対象物110の把持位置に配置するアプローチ動作が実行される。
そして、ステップS31において、ハンド制御部42により各指部21、22および23がそれぞれ移動され、多指ハンド部20による把持対象物110の把持動作が開始される。この際、多指ハンド部20の力センサ21a、22aおよび23aのそれぞれにより把持対象物110に対する接触が検出されるとともに、接触が検出されたそれぞれの位置(接触位置)が制御装置340(ハンド制御部42)により取得される。したがって、このステップS31により、把持動作の過程で把持対象物110の実際の位置および姿勢(ロボットアーム10および多指ハンド部20の座標系における位置および姿勢)が取得される。
そして、この第3実施形態では、ステップS32において、上記ステップS25と異なり、制御装置340により、上記ステップS1において取得された把持対象物110の位置情報と、上記ステップS31において検出された把持対象物110に対する実際の接触位置とのずれ量が所定のしきい値よりも大きいか否かが判断されることにより、位置補正機能を使用するか否かが判断される。すなわち、上記ステップS25では、移動台車350の移動量に基づいて位置補正機能を使用するか否かを判断したが、移動台車350の移動量が小さい場合であっても、位置情報と実際の接触位置との位置ずれが発生する場合も考えられる。この点を考慮して、第3実施形態では、ステップS32において、把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値よりも大きい場合には、ステップS33に進み、把持動作が一時中断されるとともに、多指ハンド部20の把持位置および把持姿勢の修正が行われる。一方、把持対象物110の位置情報と実際の接触位置とのずれ量が所定のしきい値以下の場合には、位置補正機能を使用せずにそのまま把持動作が進行するとともに、多指ハンド部20が把持姿勢をとることにより、把持対象物110の把持が完了する。
ステップS33では、上記ステップS28と同様に、検出された複数(3点)の接触位置の情報に基づいて、ハンド制御部42により、把持対象物110の位置情報および姿勢情報が修正される。これに伴い、修正後の把持対象物110の位置情報および姿勢情報に基づいて、アーム制御部41によりロボットアーム10の位置(すなわち、多指ハンド部20の把持位置)が修正されるとともに、ハンド制御部42により多指ハンド部20(指部21、22および23)の把持姿勢が修正される。その後、ステップS29に移行して、ハンド制御部42により各指部21、22および23がそれぞれ駆動されて多指ハンド部20が修正された把持姿勢をとることにより、把持対象物110の把持が実行される。
第3実施形態では、上記のように、多指ハンド部20が先端に設けられたロボットアーム10を把持対象物110に向かって移動させる移動台車350を設け、画像処理部43により取得した把持対象物110の位置情報および姿勢情報に基づいて移動台車350およびロボットアーム10を移動させて把持対象物110に多指ハンド部20を近づけていき、多指ハンド部20の力センサ21a、22aおよび23aの出力に基づいて把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正するように構成する。このようにロボット装置300自体の位置が変化することに起因して、画像処理部43により取得した把持対象物110の位置情報に誤差が含まれ易い場合にも、多指ハンド部20による把持対象物110に対する実際の接触位置を検出し、検出した接触位置の情報に基づいて把持対象物110の位置情報を修正することができるので、把持対象物110を確実に把持することができる。
なお、第3実施形態のその他の効果は、上記第2実施形態と同様である。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記第1〜第3実施形態では、本発明を生活支援ロボットとして用いるロボット装置100(200、300)に適用した例を示したが、本発明はこれに限られない。本発明は、ロボットアームおよび多指ハンド部を備える装置であれば、生活支援ロボット以外のロボット装置として用いることが可能である。たとえば、本発明を各種の産業用ロボット装置に適用してもよい。
また、上記第1〜第3実施形態では、本発明の検出手段の一例として視覚センサ(カメラ)を設けるとともに、本発明の情報取得手段の一例として画像処理部を設けた例を示したが、本発明はこれに限られない。本発明では、視覚センサ(カメラ)以外にも、キーボードなどの入力装置によりユーザが把持対象物の位置情報を入力するように構成してもよい。また、視覚センサおよび画像処理部とタッチパネルとを組み合わせて、ユーザがタッチパネルの画面上で把持対象物を選択するように構成してもよい。この他、視覚センサ以外の距離センサを用いて対象物の位置情報を取得してもよいし、たとえば圧力センサをアレイ状に配置して、圧力センサ(アレイ)上に置かれた対象物の位置情報を取得するように構成してもよい。
また、上記第1〜第3実施形態では、検出した接触位置の情報に基づいて把持対象物の位置情報を修正し、修正された位置情報に基づいて多指ハンド部により把持対象物を把持するように構成した例を示したが、本発明はこれに限られない。本発明では、修正された位置情報に基づいて把持以外の動作制御を行うように構成してもよい。たとえば、修正された位置情報に基づいて、対象物である容器に物体を収納したり、液体を注ぎ込むような構成としてもよい。
また、上記第1〜第3実施形態では、ロボット装置に1本のロボットアームおよび1つの多指ハンド部のみを設けた例を示したが、本発明はこれに限られない。本発明では、ロボットアームおよび多指ハンド部が複数設けられていてもよい。また、1本のロボットアームに複数の多指ハンド部が設けられていてもよい。
また、上記第1〜第3実施形態では、6自由度のロボットアームを設けた例を示したが、本発明はこれに限られない。本発明では、6自由度以外のロボットアームを用いてもよい。同様に、ロボットアームの形状や、ロボットアームの関節部の位置なども上記第1〜第3実施形態における構成以外の構成としてもよい。
また、上記第1〜第3実施形態では、2自由度の指部を3本有する6自由度の多指ハンド部を設けた例を示したが、本発明では、多指ハンド部の指の自由度および本数はこれに限られない。本発明では、多指ハンド部に2本の指部を設けてもよいし、多指ハンド部に4本以上の指部を設けてもよい。また、指部は、1自由度としてもよいし、3自由度以上としてもよい。また、多指ハンド部の形状や、多指ハンド部の各指部の関節部のそれぞれの位置なども上記第1〜第3実施形態における構成以外の構成としてもよい。
また、上記第1〜第3実施形態では、多指ハンド部の3本の指部にそれぞれ指先力センサを設けた例を示したが、本発明はこれに限られない。本発明では、少なくとも1本の指部に指先力センサが設けられていればよい。
また、上記第1〜第3実施形態では、本発明の指先力センサの一例である力センサ21a、22aおよび23aを、3軸方向の力を検出する圧力センサにより構成した例を示したが、本発明はこれに限られない。本発明では、指先力センサを、3軸以外の6軸方向の力を検出するセンサにより構成してもよい。
また、上記第1〜第3実施形態におけるロボット装置の動作説明においては、把持対象物に対する実際の接触位置を検出し、検出した接触位置に基づいて把持対象物の位置情報および姿勢情報を修正する例を説明したが、本発明はこれに限られない。本発明では、実際の接触位置の検出は、把持対象物以外の物体を対象物としてもよい。すなわち、把持対象物110がテーブル(図5参照)などの上面に設置されている場合には、まずテーブルに多指ハンド部20の指部21、22または23を接触させ、テーブルに対する接触位置を検出することにより、把持対象物110の高さ位置(Z軸方向の位置情報)に関する位置情報を修正することが可能である。また、テーブルが略水平であれば、テーブル上の把持対象物110のX軸およびY軸回りの傾き(姿勢)も略水平となるので、テーブルに対する接触位置(3点)を検出することにより、把持対象物110の姿勢情報についても修正することができる。したがって、視覚センサの画像データに基づいて把持対象物がテーブルや棚などに設置されていると認識された場合(把持対象物と他の物体との位置関係が明らかな場合)には、そのテーブルや棚を対象物として接触位置を検出することによって、実際に把持対象物から取得する必要のある情報の数(位置情報および姿勢情報を修正する場合、各3自由度の合計6自由度を特定するための接触位置の数)を減少させることができる。
なお、把持を行う場合、把持対象物の形状によっては、6自由度の位置および姿勢を特定する必要がない場合も多い。たとえば、円柱形状の把持対象物についてZ軸回りの姿勢を考慮する必要はないので、このような場合には、位置情報のみを取得するとともに、実際の接触位置に基づいて位置情報を修正して把持を行うようにしてもよい。
また、上記第1実施形態では、検出した接触位置に基づいて把持対象物の位置情報を修正する位置補正機能を使用するか否かを、ユーザによる制御装置40への設定に基づいて決定するように構成し、上記第2実施形態では、位置情報と検出した接触位置との位置ずれの大きさに基づいて決定するように構成し、上記第3実施形態では、移動台車350の移動量、および、位置情報と検出した接触位置との位置ずれの大きさに基づいて決定するように構成した例を示したが、本発明はこれに限られない。本発明では、検出した接触位置に基づいて把持対象物の位置情報を修正する位置補正機能を使用するか否かを、上記以外の他の判断基準に基づいて決定してもよい。
また、上記第1〜第3実施形態では、検出した接触位置に基づいて把持対象物の位置情報および姿勢情報を修正する例を説明したが、本発明はこれに限られない。本発明では、検出した接触位置に基づいて把持対象物の位置情報のみを修正するように構成してもよい。
また、上記第1〜第3実施形態では、把持対象物110の把持動作における、多指ハンド部20の力制御として、インピーダンス制御を行うことにより、多指ハンド部20(指部21、22および23)を把持対象物110の位置が変化しないような強さで(いわゆる柔らかい接触で)把持対象物110に接触させるように構成した例を示したが、本発明はこれに限られない。本発明では、インピーダンス制御以外の力制御を行うことにより、多指ハンド部を把持対象物の位置が変化しないような強さで(いわゆる柔らかい接触で)把持対象物に接触させるように制御してもよい。また、力制御を行うことなく多指ハンド部を把持対象物に接触させるように構成してもよい。
また、上記第1〜第3実施形態では、対象物データベース44と、画像処理部43により取得された対象物の形状情報とを照合して把持対象物110の寸法情報を取得するように構成した例を示したが、本発明はこれに限られない。本発明では、寸法情報を取得することなく、画像処理部43により取得された対象物の位置情報と、姿勢情報と、形状情報とに基づいて、把持対象物に対する接触動作を行うように構成してもよい。
また、上記第1〜第3実施形態では、制御装置が対象物データベースを含むように構成した例を示したが、本発明はこれに限られない。たとえば、対象物データベースを外部のサーバに設けるとともに、制御装置が外部のサーバにアクセスして、把持対象物の寸法情報や把持形態データなどの対象物データベースの情報を取得するように構成してもよい。
また、上記第3実施形態では、ロボット装置300に4輪の移動台車350を設け、移動台車350に制御装置340を内蔵した例を示したが、本発明はこれに限られない。本発明では、移動台車を4輪にする必要はなく、移動台車に制御装置を内蔵する必要もない。移動台車は、3輪でもよいし、クローラ(無限軌道)型でもよく、レールなどの軌道上を移動するように構成してもよい。制御装置は、移動台車の内部に設けてもよいし、移動台車の外部に設けてもよい。
10 ロボットアーム
20 多指ハンド部
21a、22a、23a 力センサ(指先力センサ)
30 視覚センサ(検出手段)
40、240、340 制御装置(制御部)
43 画像処理部(情報取得手段)
44 対象物データベース(データベース)
100、200、300 ロボット装置
350 移動台車

Claims (10)

  1. ロボットアームと、
    前記ロボットアームの先端に設けられ、力制御を行うための指先力センサを有する多指ハンド部と、
    ユーザによる入力または検出手段による検出により、対象物の少なくとも位置情報を取得する情報取得手段と、
    前記情報取得手段により取得した前記対象物の少なくとも位置情報に基づいて前記ロボットアームを移動させて前記対象物に前記多指ハンド部を近づけていき、前記多指ハンド部の指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正する制御部とを備えた、ロボット装置。
  2. 前記制御部は、前記修正された位置情報に基づいて前記多指ハンド部の把持位置を修正するとともに、前記多指ハンド部により前記対象物を把持する制御を行うように構成されている、請求項1に記載のロボット装置。
  3. 前記情報取得手段は、ユーザによる入力または検出手段による検出により、前記対象物の位置情報に加えて姿勢情報も取得するように構成されており、
    前記制御部は、前記情報取得手段により取得した前記対象物の位置情報および前記姿勢情報に基づいて前記ロボットアームを移動させて前記対象物に前記多指ハンド部を近づけていき、前記多指ハンド部の指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報および前記姿勢情報を修正するように構成されている、請求項1または2に記載のロボット装置。
  4. 前記位置情報の修正を行うか否かをユーザにより設定可能に構成されており、
    前記制御部は、前記位置情報の修正を行うと設定されている場合には、前記指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するように構成されている、請求項1〜3のいずれか1項に記載のロボット装置。
  5. 前記制御部は、前記情報取得手段により取得した前記対象物の位置情報による位置と、検出された前記対象物に対する実際の接触位置とのずれ量が所定のしきい値よりも大きい場合に、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するように構成されている、請求項1〜4のいずれか1項に記載のロボット装置。
  6. 前記指先力センサは、前記多指ハンド部の指先に複数設けられており、
    前記制御部は、複数の前記指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するように構成されている、請求項1〜5のいずれか1項に記載のロボット装置。
  7. 前記情報取得手段は、ユーザによる入力または検出手段による検出により、対象物の位置情報および形状情報を取得するように構成されており、
    前記制御部は、対象物の情報が予め蓄えられたデータベースと、前記情報取得手段により取得された対象物の形状情報とを照合して前記対象物の寸法情報を得るとともに、前記対象物の前記寸法情報および前記位置情報に基づいて前記ロボットアームを移動させて前記対象物に前記多指ハンド部を近づけていき、前記多指ハンド部の指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出するように構成されている、請求項1〜6のいずれか1項に記載のロボット装置。
  8. 前記制御部は、前記対象物の少なくとも位置情報に基づいて、前記多指ハンド部の指先力センサによる力制御により前記多指ハンド部を前記対象物の位置が変化しないような強さで前記対象物に接触させた状態で、前記多指ハンド部の指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するように構成されている、請求項1〜7のいずれか1項に記載のロボット装置。
  9. 前記多指ハンド部が先端に設けられた前記ロボットアームを前記対象物に向かって移動させる移動台車をさらに備え、
    前記情報取得手段により取得した前記対象物の少なくとも位置情報に基づいて前記移動台車および前記ロボットアームを移動させて前記対象物に前記多指ハンド部を近づけていき、前記多指ハンド部の指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出し、検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するように構成されている、請求項1〜8のいずれか1項に記載のロボット装置。
  10. 指先力センサを有する多指ハンド部が先端に設けられたロボットアームを含むロボット装置による把持方法であって、
    対象物の少なくとも位置情報を取得するステップと、
    取得した前記対象物の少なくとも位置情報に基づいて前記ロボットアームを移動させて前記対象物に前記ロボットアームの先端の前記多指ハンド部を近づけていき、前記多指ハンド部の前記指先力センサの出力に基づいて前記対象物に対する実際の接触位置を検出するステップと、
    検出した前記接触位置の情報に基づいて前記対象物の前記位置情報を修正するステップとを備えた、ロボット装置による把持方法。
JP2010152765A 2010-07-05 2010-07-05 ロボット装置およびロボット装置による把持方法 Expired - Fee Related JP5505138B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010152765A JP5505138B2 (ja) 2010-07-05 2010-07-05 ロボット装置およびロボット装置による把持方法
EP11172485.2A EP2460628A3 (en) 2010-07-05 2011-07-04 Robot apparatus and gripping method for use in robot apparatus
US13/175,933 US8498745B2 (en) 2010-07-05 2011-07-04 Robot apparatus and gripping method for use in robot apparatus
CN2011101888295A CN102310409A (zh) 2010-07-05 2011-07-05 机器人装置及基于机器人装置的把持方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010152765A JP5505138B2 (ja) 2010-07-05 2010-07-05 ロボット装置およびロボット装置による把持方法

Publications (2)

Publication Number Publication Date
JP2012011531A true JP2012011531A (ja) 2012-01-19
JP5505138B2 JP5505138B2 (ja) 2014-05-28

Family

ID=45400302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010152765A Expired - Fee Related JP5505138B2 (ja) 2010-07-05 2010-07-05 ロボット装置およびロボット装置による把持方法

Country Status (4)

Country Link
US (1) US8498745B2 (ja)
EP (1) EP2460628A3 (ja)
JP (1) JP5505138B2 (ja)
CN (1) CN102310409A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013126710A (ja) * 2011-11-16 2013-06-27 Nissan Motor Co Ltd 接合体の製造方法およびその製造装置
KR101294348B1 (ko) 2012-05-11 2013-08-07 재단법인대구경북과학기술원 원격제어 로봇의 자율적 협업 기반 밸브 조작 방법 및 그 시스템
JP2015085500A (ja) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置
JP2016196077A (ja) * 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
WO2018212189A1 (ja) * 2017-05-15 2018-11-22 Thk株式会社 把持システム
JP2019018280A (ja) * 2017-07-14 2019-02-07 Thk株式会社 把持システム
US10335963B2 (en) 2014-12-09 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2019181622A (ja) * 2018-04-10 2019-10-24 ファナック株式会社 ハンド制御装置およびハンド制御システム
US10744654B2 (en) 2017-06-30 2020-08-18 Fanuc Corporation Gripper control device, gripper control method, and gripper simulation device
WO2021140902A1 (ja) * 2020-01-08 2021-07-15 オムロン株式会社 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
WO2021166918A1 (ja) * 2020-02-17 2021-08-26 株式会社Preferred Networks ロボット
WO2022097536A1 (ja) * 2020-11-05 2022-05-12 Dmg森精機株式会社 ロボット搭載移動装置及びシステムの位置決め制御方法
WO2023013699A1 (ja) * 2021-08-03 2023-02-09 京セラ株式会社 ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2023095928A1 (ja) * 2021-11-29 2023-06-01 京セラ株式会社 制御装置、ロボット制御システム、及びロボット制御方法
WO2024004796A1 (ja) * 2022-06-30 2024-01-04 川崎重工業株式会社 ロボット、ロボットシステムおよびロボットの作業方法
WO2024009387A1 (ja) * 2022-07-05 2024-01-11 ファナック株式会社 ビジョンシステム、及びビジョン検出方法

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10105844B2 (en) * 2016-06-16 2018-10-23 General Electric Company System and method for controlling robotic machine assemblies to perform tasks on vehicles
EP2255930A1 (de) * 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
JP5454491B2 (ja) * 2011-02-25 2014-03-26 株式会社安川電機 作業システム
EP2829370A1 (en) * 2012-03-19 2015-01-28 Kabushiki Kaisha Yaskawa Denki Task robot and robot system
DE102012208094A1 (de) * 2012-05-15 2013-11-21 Kuka Laboratories Gmbh Verfahren zum Ermitteln möglicher Positionen eines Roboterarms
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6195333B2 (ja) * 2012-08-08 2017-09-13 キヤノン株式会社 ロボット装置
US20140209434A1 (en) * 2013-01-31 2014-07-31 Honda Motor Co., Ltd. Apparatus for use with fixture assembly and workpiece
CN103192404B (zh) * 2013-04-12 2016-01-13 安徽埃夫特智能装备有限公司 工业机器人视觉抓具
CN104552322A (zh) * 2013-10-28 2015-04-29 精工爱普生株式会社 把持装置、机器人以及把持方法
JP6255901B2 (ja) * 2013-10-30 2018-01-10 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびロボットシステム
JP6511715B2 (ja) * 2013-10-31 2019-05-15 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、及びロボット
CN104608125B (zh) * 2013-11-01 2019-12-17 精工爱普生株式会社 机器人、控制装置以及机器人系统
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
JP5905549B1 (ja) * 2014-09-16 2016-04-20 ファナック株式会社 バラ積みされた物品を取出す物品取出装置
JP6256702B2 (ja) * 2014-12-25 2018-01-10 株式会社ダイフク 物品搬送用容器昇降搬送装置
CN104669281A (zh) * 2015-03-16 2015-06-03 青岛海之晨工业装备有限公司 基于3d机器视觉引导的工业机器人自动拆垛系统
US10272573B2 (en) * 2015-12-18 2019-04-30 Ge Global Sourcing Llc Control system and method for applying force to grasp a brake lever
JP6088583B2 (ja) * 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
JP6660157B2 (ja) * 2015-11-16 2020-03-11 川崎重工業株式会社 ロボット及びロボットによる作業方法
US10029372B2 (en) * 2015-12-11 2018-07-24 General Electric Company Control system and method for brake bleeding
US10471595B2 (en) * 2016-05-31 2019-11-12 Ge Global Sourcing Llc Systems and methods for control of robotic manipulation
JP6746990B2 (ja) * 2016-03-18 2020-08-26 セイコーエプソン株式会社 ロボット制御装置及びロボットシステム
CN107225577A (zh) * 2016-03-25 2017-10-03 深圳光启合众科技有限公司 应用在智能机器人上的触觉感知方法以及触觉感知装置
CN105775734B (zh) * 2016-05-05 2018-02-06 连云港贝斯特机械设备有限公司 一种培养基筐搬运机器人及使用控制方法
US9827670B1 (en) * 2016-05-24 2017-11-28 X Development Llc Coaxial finger face and base encoding
CN107717981B (zh) * 2016-08-12 2021-01-05 财团法人工业技术研究院 机械手臂的控制装置及其教导系统与方法
US10773902B2 (en) * 2016-12-22 2020-09-15 General Electric Company Adaptive apparatus and system for automated handling of components
US10781056B2 (en) * 2016-12-22 2020-09-22 General Electric Company Adaptive apparatus and system for automated handling of components
JP2018111155A (ja) * 2017-01-11 2018-07-19 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
CN107042527B (zh) * 2017-05-20 2023-04-28 天津大学 一种基于三维力传感器的工业机器人标定装置及标定方法
DE102018200435B3 (de) * 2017-07-31 2018-11-15 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Steuern eines Roboters
CN107650149B (zh) * 2017-08-21 2020-09-18 北京精密机电控制设备研究所 一种基于串联机械臂的接触与非接触融合测量系统及方法
CN107363837A (zh) * 2017-09-08 2017-11-21 桂林加宏汽车修理有限公司 一种机械手控制系统及控制机械手捕获物体的方法
JP6942576B2 (ja) * 2017-09-15 2021-09-29 株式会社東芝 搬送装置
JP6678832B2 (ja) * 2017-09-22 2020-04-08 三菱電機株式会社 遠隔制御マニピュレータシステムおよび制御装置
JP6927852B2 (ja) 2017-11-01 2021-09-01 Thk株式会社 ハンド機構
CN108465641B (zh) * 2018-03-14 2020-01-17 郑州工程技术学院 一种货物分拣系统
US11999051B2 (en) * 2018-03-27 2024-06-04 Sony Corporation Control device, control method, and program
US11584016B2 (en) * 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP7124440B2 (ja) * 2018-05-23 2022-08-24 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
JP7028092B2 (ja) * 2018-07-13 2022-03-02 オムロン株式会社 把持姿勢評価装置及び把持姿勢評価プログラム
EP3844356B1 (en) * 2018-08-29 2024-09-04 Fastbrick IP Pty Ltd Gripping apparatus
JP6802225B2 (ja) * 2018-08-31 2020-12-16 ファナック株式会社 情報処理装置および情報処理方法
JP7141288B2 (ja) * 2018-09-25 2022-09-22 川崎重工業株式会社 ロボットシステム
EP3867047A1 (en) 2018-10-15 2021-08-25 General Electric Company Systems and methods of automated film removal
CN113015604B (zh) * 2018-12-11 2024-03-08 株式会社富士 机器人控制系统及机器人控制方法
US10335947B1 (en) * 2019-01-18 2019-07-02 Mujin, Inc. Robotic system with piece-loss management mechanism
JP7000361B2 (ja) * 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
US11775699B2 (en) * 2019-05-02 2023-10-03 Dassault Systemes Americas Corp. Extracting grasping cues from tool geometry for digital human models
CN110181500B (zh) * 2019-06-06 2021-07-13 广东海洋大学 一种仿生机械手的控制系统及其控制方法
CN112173518A (zh) * 2019-07-01 2021-01-05 上海快仓智能科技有限公司 控制方法和自动引导车
CN112173519A (zh) * 2019-07-01 2021-01-05 上海快仓智能科技有限公司 控制方法和自动引导车
CN114174006B (zh) * 2019-07-19 2024-03-05 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
WO2021029205A1 (ja) * 2019-08-09 2021-02-18 ソニー株式会社 情報処理装置、情報処理方法、プログラム、およびロボット
JP7395877B2 (ja) * 2019-08-26 2023-12-12 セイコーエプソン株式会社 ロボットシステムおよび制御方法
CN110640732B (zh) * 2019-09-30 2022-10-11 佛山科学技术学院 一种柔顺夹持器的自适应抓取方法
CN110757490B (zh) * 2019-12-03 2022-02-01 徐州欧普莱斯工业机械有限公司 一种用于轮胎搬运的稳定、安全型机械手
CN110921302B (zh) * 2019-12-03 2021-04-27 徐州欧普莱斯工业机械有限公司 一种用于搬运轮胎的机械手的工作方法
JP7385303B2 (ja) * 2019-12-16 2023-11-22 株式会社FingerVision 把持装置、制御方法及びプログラム
CN113119103B (zh) * 2019-12-31 2022-10-14 深圳富泰宏精密工业有限公司 确定标记物的深度标准值的方法、计算机装置
CN111232637A (zh) * 2020-02-14 2020-06-05 广东技术师范大学 一种灵活的搬运机械手
CN111283713A (zh) * 2020-03-30 2020-06-16 安徽轶记机械科技有限公司 一种适用于多种规格的零部件抓取的机械手臂
US20230021942A1 (en) * 2021-07-14 2023-01-26 Dassault Systèmes Americas Corp. Environment-aware Prepositioning Of Digital Models In An Environment
JP2023029076A (ja) 2021-08-20 2023-03-03 ミネベアミツミ株式会社 把持装置及び把持装置の制御方法
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid
CN117549338B (zh) * 2024-01-09 2024-03-29 北京李尔现代坦迪斯汽车系统有限公司 一种用于汽车坐垫生产车间的抓取机器人

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06277959A (ja) * 1993-03-29 1994-10-04 Mazda Motor Corp 物品組付ロボットの制御方法および制御装置
JPH0816225A (ja) * 1994-04-27 1996-01-19 Hitachi Ltd ロボット機構制御方法及びその装置
JPH0947986A (ja) * 1995-08-09 1997-02-18 Toshiba Corp ロボットハンド及び位置姿勢補正ロボット並びに自動教示ロボット
JP2005349492A (ja) * 2004-06-08 2005-12-22 Sharp Corp ロボットハンド
JP2007122705A (ja) * 2005-09-30 2007-05-17 Nachi Fujikoshi Corp 溶接教示位置補正システム及びキャリブレーション方法
JP2008055584A (ja) * 2006-09-04 2008-03-13 Toyota Motor Corp 物体把持を行うロボット及びロボットによる物体の把持方法
JP2009078310A (ja) * 2007-09-25 2009-04-16 Seiko Epson Corp ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10100089A (ja) * 1996-08-05 1998-04-21 Yaskawa Electric Corp 多関節多指ハンドの把持制御方法及び物体把持方法
JP2003094367A (ja) 2001-09-21 2003-04-03 Ricoh Co Ltd 手先視覚付ロボットハンド
WO2003064116A2 (en) * 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US6996456B2 (en) * 2002-10-21 2006-02-07 Fsi International, Inc. Robot with tactile sensor device
JP4055703B2 (ja) 2003-12-05 2008-03-05 トヨタ自動車株式会社 ロボットハンド装置
JP2006102920A (ja) * 2004-10-08 2006-04-20 Fanuc Ltd 把握型ハンド
EP1992455B1 (en) * 2006-02-02 2012-04-11 Kabushiki Kaisha Yaskawa Denki Robot system
CN100484726C (zh) * 2006-05-12 2009-05-06 上海大学 基于虚拟现实机器人灵巧手遥操作平台
CN101522377B (zh) * 2006-10-20 2011-09-14 株式会社日立制作所 机械手
WO2008058061A2 (en) * 2006-11-03 2008-05-15 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
CN100999077A (zh) * 2006-12-28 2007-07-18 中国科学院合肥物质科学研究院 一种多用途形状自适应机器人手爪及工作方法
US8255092B2 (en) * 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
US8490501B2 (en) * 2008-05-29 2013-07-23 Harmonic Drive Systems Inc. Complex sensor and robot hand
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5281377B2 (ja) * 2008-12-04 2013-09-04 トヨタ自動車株式会社 ロボット装置
US20100256814A1 (en) * 2009-04-07 2010-10-07 Smith Joshua R System and methods for robotic manipulation
US8504198B2 (en) * 2009-05-14 2013-08-06 Honda Motor Co., Ltd. Robot hand and control system, control method and control program for the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06277959A (ja) * 1993-03-29 1994-10-04 Mazda Motor Corp 物品組付ロボットの制御方法および制御装置
JPH0816225A (ja) * 1994-04-27 1996-01-19 Hitachi Ltd ロボット機構制御方法及びその装置
JPH0947986A (ja) * 1995-08-09 1997-02-18 Toshiba Corp ロボットハンド及び位置姿勢補正ロボット並びに自動教示ロボット
JP2005349492A (ja) * 2004-06-08 2005-12-22 Sharp Corp ロボットハンド
JP2007122705A (ja) * 2005-09-30 2007-05-17 Nachi Fujikoshi Corp 溶接教示位置補正システム及びキャリブレーション方法
JP2008055584A (ja) * 2006-09-04 2008-03-13 Toyota Motor Corp 物体把持を行うロボット及びロボットによる物体の把持方法
JP2009078310A (ja) * 2007-09-25 2009-04-16 Seiko Epson Corp ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013126710A (ja) * 2011-11-16 2013-06-27 Nissan Motor Co Ltd 接合体の製造方法およびその製造装置
KR101294348B1 (ko) 2012-05-11 2013-08-07 재단법인대구경북과학기술원 원격제어 로봇의 자율적 협업 기반 밸브 조작 방법 및 그 시스템
JP2015085500A (ja) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置
US10335963B2 (en) 2014-12-09 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2016196077A (ja) * 2015-04-06 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017136677A (ja) * 2015-07-29 2017-08-10 キヤノン株式会社 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
WO2018212189A1 (ja) * 2017-05-15 2018-11-22 Thk株式会社 把持システム
JP7178994B2 (ja) 2017-05-15 2022-11-28 Thk株式会社 把持システム
JPWO2018212189A1 (ja) * 2017-05-15 2020-03-19 Thk株式会社 把持システム
US10744654B2 (en) 2017-06-30 2020-08-18 Fanuc Corporation Gripper control device, gripper control method, and gripper simulation device
JP2019018280A (ja) * 2017-07-14 2019-02-07 Thk株式会社 把持システム
JP2019181622A (ja) * 2018-04-10 2019-10-24 ファナック株式会社 ハンド制御装置およびハンド制御システム
US11207788B2 (en) 2018-04-10 2021-12-28 Fanuc Corporation Hand control apparatus and hand control system
DE102019108787B4 (de) 2018-04-10 2023-11-02 Fanuc Corporation Handsteuerungsvorrichtung und Handsteuerungssystem
JP2021109266A (ja) * 2020-01-08 2021-08-02 オムロン株式会社 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
JP7358994B2 (ja) 2020-01-08 2023-10-11 オムロン株式会社 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
WO2021140902A1 (ja) * 2020-01-08 2021-07-15 オムロン株式会社 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
WO2021166918A1 (ja) * 2020-02-17 2021-08-26 株式会社Preferred Networks ロボット
JP7133604B2 (ja) 2020-11-05 2022-09-08 Dmg森精機株式会社 ロボット搭載移動装置及びシステムの位置決め制御方法
JP2022074725A (ja) * 2020-11-05 2022-05-18 Dmg森精機株式会社 ロボット搭載移動装置及びシステムの位置決め制御方法
WO2022097536A1 (ja) * 2020-11-05 2022-05-12 Dmg森精機株式会社 ロボット搭載移動装置及びシステムの位置決め制御方法
WO2023013699A1 (ja) * 2021-08-03 2023-02-09 京セラ株式会社 ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2023095928A1 (ja) * 2021-11-29 2023-06-01 京セラ株式会社 制御装置、ロボット制御システム、及びロボット制御方法
WO2024004796A1 (ja) * 2022-06-30 2024-01-04 川崎重工業株式会社 ロボット、ロボットシステムおよびロボットの作業方法
WO2024009387A1 (ja) * 2022-07-05 2024-01-11 ファナック株式会社 ビジョンシステム、及びビジョン検出方法

Also Published As

Publication number Publication date
JP5505138B2 (ja) 2014-05-28
US20120004774A1 (en) 2012-01-05
EP2460628A2 (en) 2012-06-06
EP2460628A3 (en) 2016-09-21
US8498745B2 (en) 2013-07-30
CN102310409A (zh) 2012-01-11

Similar Documents

Publication Publication Date Title
JP5505138B2 (ja) ロボット装置およびロボット装置による把持方法
CN107717981B (zh) 机械手臂的控制装置及其教导系统与方法
US9089967B2 (en) Control apparatus and method for master-slave robot, master-slave robot, control program, and integrated electronic circuit
JP4001105B2 (ja) ロボットによる任意形状物体の把持方法
US11230004B2 (en) Robot system and robot control method
JP5560948B2 (ja) ロボット装置
US10195744B2 (en) Control device, robot, and robot system
JP2015085458A (ja) ロボット制御装置、ロボットシステム、及びロボット
JP2019018340A (ja) 作業用ロボット、作業用ロボットの制御方法
US10377043B2 (en) Robot control apparatus, robot, and robot system
JP2010064155A (ja) 把持装置
JP4211701B2 (ja) ロボットハンドの把持制御装置
CN110914025B (zh) 把持系统
JP2017039184A (ja) ロボット
JP2019042853A (ja) 画像情報処理装置、把持システム、および画像情報処理方法
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP6322948B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP4715296B2 (ja) ロボットハンドの持ち替え把持制御方法。
JP7178994B2 (ja) 把持システム
WO2021130929A1 (ja) ロボット、システム、方法及びプログラム
JP7069512B2 (ja) 把持システムおよびその制御方法
CN110653793B (zh) 一种控制方法、机器人及计算机存储介质
JP2006137001A (ja) 把持物体の位置、姿勢修正方法
JP2019089179A (ja) 把持システムおよびその制御方法
JP2019177441A (ja) ロボットアーム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

R150 Certificate of patent or registration of utility model

Ref document number: 5505138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees