JP2008137114A - ロボット、ならびにその制御方法および制御プログラム - Google Patents

ロボット、ならびにその制御方法および制御プログラム Download PDF

Info

Publication number
JP2008137114A
JP2008137114A JP2006325757A JP2006325757A JP2008137114A JP 2008137114 A JP2008137114 A JP 2008137114A JP 2006325757 A JP2006325757 A JP 2006325757A JP 2006325757 A JP2006325757 A JP 2006325757A JP 2008137114 A JP2008137114 A JP 2008137114A
Authority
JP
Japan
Prior art keywords
robot
hand
processing unit
gripping
satisfied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006325757A
Other languages
English (en)
Other versions
JP4481291B2 (ja
Inventor
Nobuyuki Ono
信之 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006325757A priority Critical patent/JP4481291B2/ja
Priority to US11/948,336 priority patent/US8041457B2/en
Publication of JP2008137114A publication Critical patent/JP2008137114A/ja
Application granted granted Critical
Publication of JP4481291B2 publication Critical patent/JP4481291B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39486Fingered hand, multifingered hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S294/00Handling: hand and hoist-line implements
    • Y10S294/902Gripping element
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S294/00Handling: hand and hoist-line implements
    • Y10S294/907Sensor controlled device

Abstract

【課題】ハンドによって物体を的確に把持できているか否かを自ら確認しうるロボット等を提供する。
【解決手段】カメラ102を通じて得られる画像に基づくハンドル(物体)Hの位置および姿勢(外部情報)と、ロータリーエンコーダ104の出力等に応じたロボット1の姿勢に基づく、ハンドルHが的確に把持されていると仮定した場合のハンドルHの位置および姿勢(内部情報)とが整合しているか否かが判定される。外部情報および内部情報が整合していると判定されたことに応じて、各ハンド13に設けられた6軸力センサ106によって検知される力に基づいてハンドルHの把持状態の良否が判定される。
【選択図】 図1

Description

本発明は、自律的な移動機能と、ハンドによる物体の把持機能とを有するロボット等に関する。
自律的な移動機能を有するロボットにカートCを押させるため、このカートCのハンドルに付されたマークをロボットに搭載された赤外線カメラを通じてロボットに認識させる手法が提案されている(たとえば、特許文献1参照)。
特開2005−164323号公報 第0100段落〜第0101段落、図17
しかし、たとえばロボットがハンドルを的確に把持していない(握り損ねている)にもかかわらずカートCを押そうと移動し、これによってカートCが予期せぬ方向に動く場合がある。このような事態を回避するため、従来はロボットがそのハンドによってハンドルを的確に把持したか否かは人間の目視によって確認されていた。
そこで、本発明は、ハンドによって物体を的確に把持できているか否かを自ら確認しうるロボット等を提供することを解決課題とする。
前記課題を解決するための第1発明のロボットは、制御システムを備え、かつ、該制御システムによって制御される自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットであって、前記制御システムが、前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理部と、前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理部と、該第1認識処理部により認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理部と、該1次確認処理部によって該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理部とを備えていることを特徴とする。
第1発明のロボットによれば、1次確認処理において外部情報および内部情報の合致性に鑑みて物体の把持状態の良否が判定される。さらに、2次確認処理においてロボットが静止している状態で一または複数のハンドから物体に作用する力の方向または当該力の方向および強さ(以下適宜「力の方向等」という。)に鑑みて物体の把持状態の良否が判定される。このような二重の判定によって、ロボットがそのハンドによる物体の把持状態の良否を確認することができる。また、ロボットはこのような確認を経ることで、物体を把持した状態で移動を開始することができる。さらに、物体の把持状態が不良のままでロボットが移動を開始したために、たとえばハンドが物体から離反してしまいロボットが静止したままの物体に接触するような事態が回避されうる。
なお、物体の把持状態が「良」であるとは、たとえばロボットが移動した場合に物体がロボットと一緒に移動しうる程度に、ロボットがその一または複数のハンドによって物体を把持していることを意味する。また、撮像装置を通じて得られた画像を通じてハンドから物体に作用する力が測定される際、当該画像から得られる物体の加速度と、その質量(たとえば制御システムを構成するコンピュータのメモリに予め格納されている。)とが用いられる。
また、第2発明のロボットは、第1発明のロボットにおいて、前記2次確認処理部が前記複数のハンドのそれぞれから前記物体に作用する力の合力が0となるように前記ロボットの動作を制御しながら、該複数のハンドによる該物体の把持状態の良否を判定することを特徴とする。
第2発明のロボットによれば、複数のハンドのそれぞれに作用する力の方向または当該力およびその方向に鑑みて物体の把持状態の良否が判定される。この際、複数のハンドから物体に作用する合力が0になるようにロボットの動作が制御される。このため、物体の把持状態が良であれば当該判定中に物体が不必要に動いて判定精度が低下したり、物体がロボットに接触したりする事態が回避されうる。
さらに、第3発明のロボットは、第1または第2発明のロボットにおいて、前記制御システムが、前記2次確認処理部によって前記2次把持条件が満たされているハンドによる前記物体の把持状態が良であると判定されたことを要件として前記ロボットを移動開始後、該ハンドの位置、姿勢または位置および姿勢を変化させ、前記撮像装置を通じて得られた該物体の画像または前記力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または方向および強さを測定し、当該測定方向が第2目標方向に一致している、または当該測定方向および強さのそれぞれが第2目標方向および第2目標値のそれぞれに一致しているという3次把持条件が満たされているか否かを判定する3次確認処理部を備えていることを特徴とする。
第3発明のロボットによれば、3次確認処理においてロボットが静止している状態で一または複数のハンドから物体に作用する力の方向等に鑑みて物体の把持状態の良否がさらに判定される。これにより、ロボットの静止時においてハンドによる物体の把持状態が「良」であったにもかかわらず、ロボットの移動開始後にハンドが物体から外れてしまい、その把持状態が「不良」に変化したような状況が確実に認識されうる。
また、第4発明のロボットは、第3発明のロボットにおいて、前記制御システムが、前記3次確認処理部により前記3次把持条件が満たされていないと判定されたことを要件として前記ロボットの移動のための動作を停止させることを特徴とする。
第4発明のロボットによれば、移動開始後にハンドによる物体の把持状態が「不良」であると判定されたことに応じて移動のための動作が停止される。これにより、物体の把持状態が不良であるにもかかわらずロボットが移動し続け、ロボットが物体に接触するような事態が回避されうる。
さらに、第5発明のロボットは、第1〜第4発明のうちいずれか1つのロボットにおいて、前記2次確認処理部によって前記2次把持条件が満たされていないと判定されたことを要件として前記制御システムが該ハンドの位置および姿勢のうち一方または両方が変化するように前記ロボットの動作を制御し、前記2次確認処理部が該複数のハンドによる該物体の把持状態の良否を再度判定することを特徴とする。
第5発明のロボットによれば、ハンドに作用する力の方向等に鑑みて物体の把持状態が不良であると判定された場合、当該ハンドの位置、姿勢またはその両者が変更された上で当該判定が繰り返される。これにより、1次把持条件の充足性に鑑みて物体の把持状態が良であると判定される一方、複数のハンドのそれぞれに作用する力に関する2次把持条件の充足性に鑑みて物体の把持状態が不良である状況でも、当該物体の把持状態が良になるようにロボットの動作が適当に補正されうる。
前記課題を解決するための第6発明の方法は、自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットの制御方法であって、前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理と、前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理と、該第1認識処理において認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理と、該1次確認処理において該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理とを実行することを特徴とする。
第6発明の方法によれば、ロボットに(1)内部情報および外部情報の合致性に関する1次把持条件の充足性判定、ならびに(2)ハンドから物体に作用する力の方向等に関する2次把持条件の充足性判定という二重の判定を通じて、ハンドによる物体の把持状態の良否を確認させることができる。
前記課題を解決するための第7発明のプログラムは、自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットに搭載されているコンピュータを、該ロボットを制御するシステムとして機能させるプログラムであって、前記コンピュータを、前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理部と、前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理部と、該第1認識処理部により認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理部と、該1次確認処理部によって該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理部とを備えている制御システムとして機能させることを特徴とする。
第7発明のプログラムによれば、ロボットに搭載されているコンピュータを、(1)内部情報および外部情報の合致性に関する1次把持条件の充足性判定、ならびに(2)ハンドから物体に作用する力の方向等に関する2次把持条件の充足性判定という二重の判定を通じて、ハンドによる物体の把持状態の良否を確認するシステムとして機能させることができる。
本発明のロボットの実施形態について図面を用いて説明する。
図1および図2は本発明のロボットの構成説明図であり、図3〜図6は本発明のロボットの機能説明図である。
まず、ロボットの構成について図1および図2を用いて説明する。
図1に示されているロボット1は脚式移動ロボットであり、人間と同様に、基体10と、基体10の上方に配置された頭部11と、基体10の上部に上部両側から延設された左右の腕部12と、左右の腕部12のそれぞれの先端に設けられているハンド13と、基体10の下部から下方に延設された左右の脚部14とを備えている。また、ロボット1はその動作を制御する制御システム20を備えている。
基体10はヨー軸回りに相対的に回動しうるように上下に連結された上部および下部により構成されている。基体10の下部にはロボット1の前方下方を撮像範囲とする腰カメラ(カメラ)101が内蔵されている。腰カメラ101は近赤外線ランプ(図示略)からロボット1の前方下方に向けて発せられた近赤外光の物体による反射光を検知することにより当該物体の位置等を測定するために用いられる。
頭部11は基体10に対してヨー軸回りに回動する等、動くことができる。頭部11には左右一対の頭カメラ102が搭載されている。なお、頭カメラ102としてはCCDカメラ、赤外線カメラ等、種々の周波数帯域における光を感知しうるカメラが採用されてもよい。なお「第1センサ」としては腰カメラ101および頭カメラ102のうち一方のみが採用されてもよく、ミリ波レーダ、超音波センサ等、種々のセンサまたはこれらの組み合わせが採用されてもよい。頭カメラ102はステレオではなく単眼であってもよい。そのほか、データベースへの検索やGPSの利用によって、ロボット座標系におけるハンドルHの位置および姿勢が認識されてもよい。
腕部12は第1腕リンク122と、第2腕リンク124とを備えている。基体10と第1腕リンク121とは肩関節121を介して連結され、第1腕リンク122と第2腕リンク124とは肘関節123を介して連結され、第2腕リンク124とハンド13とは手根関節125を介して連結されている。肩関節121はロール、ピッチおよびヨー軸回りの回動自由度を有し、肘関節123はピッチ軸回りの回動自由度を有し、手根関節125はロール、ピッチ、ヨー軸回りの回動自由度を有している。手根関節125付近には6軸力センサ106が設けられている。
脚部14は第1脚リンク142と、第2脚リンク144と、足部146とを備えている。基体10と第1脚リンク142とは股関節141を介して連結され、第1脚リンク142と第2脚リンク144とは膝関節143を介して連結され、第2脚リンク144と足部146とは足関節145を介して連結されている。股関節141はロール、ピッチおよびロール軸回りの回動自由度を有し、膝関節143はピッチ軸回りの回動自由度を有し、足関節145はロールおよびピッチ軸回りの回動自由度を有している。
ハンド13は、手掌部から延設され、人間の手の親指、人差指、中指、薬指および小指のそれぞれに相当する5つの指機構131〜135を備えている。第1指機構131と、横並びの4つの指機構132〜135とが対向して配置されている。
第1指機構131は、人間の手の第1中手骨、親指の基節および末節に相当する3つのリンク部材と、当該3つのリンク部材を覆う弾性カバーとを備えている。3つのリンク部材は手掌部から順に人間の手の第1中手骨の基部側の関節、親指の中手指節関節および指節間関節のそれぞれに相当する関節を介して連結されている。第1指機構131は、手掌部に収納されたモータから、減速機構等により構成される動力伝達機構を介して伝達される力に応じて各関節において曲がりうる。モータから第1指機構131に伝達される動力は制御システム20によって制御される。
指機構132〜135は、たとえば特開2003−181787号公報に記載されている指機構と同様の構成とされ、また、それぞれがほぼ同様の構成とされている。たとえば、第5指機構135は、人間の手の小指の基節、中節および末節のそれぞれに相当する3つのリンク部材と、当該3つのリンク部材を覆う弾性カバーとを備えている。3つのリンク部材は手掌部から順に人間の手の小指の中手指節関節、近位指節間関節および遠位指節間関節のそれぞれに相当する関節を介して連結されている。第5指機構135は、動力源としてのモータ(図示略)から、動力伝達機構を介して伝達される動力に応じて、各関節において内側に曲がることができる。モータから第5指機構135に伝達される動力は、第1指機構131と同様に制御システム200によって制御される。
なお、指機構131〜135のうち、複数の指機構が共通の一のモータによって駆動されてもよく、本実施形態における第1指機構131のように一の指機構が一のモータによって駆動されてもよい。また、動力伝達機構は、前掲の特開2003−181787号公報に記載されているようにワイヤやプーリ等によって構成されてもよく、各指機構を屈伸運動させるようにモータの動力を伝達しうるあらゆる構成が採用されてもよい。
制御システム20はCPU、ROM、RAM、I/O等によって構成され、腰カメラ101およびカメラ102のそれぞれを通じて得られる画像、腕部12および脚体14等におけるロボット1の各関節角度を表すロータリーエンコーダ104からの出力、ハンド13に作用する力を検出するための6軸力センサ106からの出力等に基づき、アクチュエータ(または電動モータ)108の動作を制御することによりロボット1の動作を制御する。なお、制御システムはロボット1の内部ネットワークを通じて接続された主制御ユニットおよび一または複数の副制御ユニットより構成される分散制御システムであってもよい。
ロボット1に搭載されているコンピュータを制御システム20として機能させるための「制御プログラム」はメモリに予め格納されていてもよいが、ロボット1からの要求があった等の任意のタイミングでサーバからネットワークや人工衛星を介して当該コンピュータに配信(ダウンロード)または放送され、当該プログラム用のメモリに格納されてもよい。
制御システム20は第1認識処理部2111と、第2認識処理部212と、1次確認処理部221と、2次確認処理部222と、3次確認処理部223とを備えている。
第1認識処理部211は腰カメラ(第1センサ)101の出力信号や頭カメラ(第1センサ)102の画像信号に基づき、図1に示されているようなカートCのハンドルH等の物体の位置および姿勢を「外部情報」として認識する。
第2認識処理部212はロボット1の関節121、123、125、141、143、145等に設けられたロータリーエンコーダ(第2センサ)104の出力、およびリンク122、124、142、144等の長さ等により定まるロボット1の姿勢に基づき、ハンドルHの把持状態が良であると仮定した場合のハンドルHの位置および姿勢を「内部情報」として認識する。
1次確認処理部221は第1認識処理部211により認識された外部情報と第2認識処理部212により認識された内部情報とが合致しているという「1次把持条件」が満たされているか否かを判定する。
2次確認処理部222は1次確認処理部221によって1次把持条件が満たされていると判定されたことを要件としてロボット1が静止している状態においてハンド13の位置、姿勢または位置および姿勢(以下適宜「位置等」という。)を変化させる。また、2次確認処理部222は6軸力センサ106の出力信号に基づいてハンド13からハンドルHに作用する力の方向および強さを測定する(この測定は、ハンドルHからハンド13に作用する反力の方向および強さを測定することと等価である)。そして、2次確認処理部222は当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという「2次把持条件」が満たされているか否かを判定する。
3次確認処理部223は2次確認処理部222によって2次把持条件が満たされていると判定されたことを要件としてロボット1の移動開始後にハンド13の位置等を変化させる。また、3次確認処理部223は6軸力センサ106の出力信号に基づいてハンド13からハンドルHに作用する力の方向および強さを測定する。さらに、3次確認処理部223は当該測定方向および強さのそれぞれが第2目標方向および第2目標値のそれぞれに一致しているという「3次把持条件」が満たされているか否かを判定する。
続いて、前記構成のロボット1の機能、具体的にはカートCのハンドルH等の物体の把持状態の良否を判定する機能について図3〜図6を用いて説明する。
第1認識処理部211が腰カメラ(第1センサ)101等の出力信号または画像信号に基づき、ハンドルH等の物体の位置および姿勢を「外部情報」として認識する「第1認識処理」を実行する(図3/S002)。
たとえば図1に示されているようにカートCに付されている複数のマーク(近赤外線を反射する塗料が付されている。)Mのそれぞれの位置および姿勢が腰カメラ101の出力信号に基づいて測定される。また、頭カメラ102の出力信号に基づいてカートCの位置および姿勢が測定される。腰カメラ101および頭カメラ102が併用されることにより、たとえば周囲が暗いために頭カメラ102によるカートCの位置等の検知が困難である場合も腰カメラ101によってマークMの位置および姿勢、ひいてはハンドルHの位置および姿勢が検知されうる。これは逆の場合も同様である。各マークMの位置はロボット1の重心等を原点Oとし、ロボット1の基本水平面をX−Y平面とし、基本矢状面をY−Z平面とし、かつ、基本前額面をZ−X平面とするロボット座標系における座標(X1,Y1,Z1)により表現される。ロボット座標系における腰カメラ101の座標と、図1に示されているようにハンドルH付近の点を原点O’とする物体座標系における各マークMの座標(X’,Y’,Z’)とが用いられることにより、ハンドルHの座標が認識されうる。また、各マークMを結ぶ線分、ひいては当該線分に平行なハンドルHの各座標軸に対する傾斜角度θ1X,θ1Y,θ1ZがハンドルHの姿勢として認識されうる。
また、第2認識処理部212がロータリーエンコーダ(第2センサ)104の出力信号に基づいてロボット1の姿勢に基づき、ハンド13によるハンドルHの把持状態が良であると仮定した場合のハンドルHの位置および姿勢を「内部情報」として認識する「第2認識処理」を実行する(図3/S004)。
たとえば前記のロボット座標系における左右の手根関節125のそれぞれの座標(X2L,Y2L,Z2L)および(X2R,Y2R,Z2R)に基づき、内部情報としてのハンドルHの中点の座標(X2,Y2,Z2)およびハンドルHの各座標軸に対する傾斜角度θ2X,θ2Y,θ2Zのそれぞれは次式(1)および(2a)〜(2c)のそれぞれにしたがって算定または認識される。ロボット座標系における左右の手根関節125のそれぞれの座標は、ロボット座標系における固定点である左右の肩関節121のロータリーエンコーダ104の出力に応じた肩関節角度、左右の肘関節123のロータリーエンコーダ104の出力に応じた肘関節角度、ならびにメモリに予め格納されている左右の第1腕リンク122および第2腕リンク124のそれぞれの長さに基づき、測定または認識されうる。
(X2,Y2,Z2
=((X2L+X2R)/2,(Y2L+Y2R)/2,(Z2L+Z2R)/2) ‥(1)
θ2X=tan-1{(Y2 2+Z2 21/2/X2} ‥(2a)
θ2y=tan-1{(Z2 2+X2 21/2/Y2} ‥(2b)
θ2Z=tan-1{(X2 2+Y2 21/2/Z2} ‥(2c)
なお「外部情報」および「内部情報」はロボット座標系ではなく、カートC等の物体の特定点を規準点とする物体座標系や、定常的に静止している点を基準点とする静止座標系を基準として認識されてもよい。
続いて、1次確認処理部221が第1認識処理部211により認識された外部情報と第2認識処理部212により認識された内部情報とが合致しているという「1次把持条件」が満たされているか否かを判定する「1次確認処理」を実行する(図3/S006)。1次確認処理は指機構131〜135の屈曲を伴うハンド13の握りこみ動作の後で実行されてもよい。具体的には次式(3)および(4a)〜(4c)により表される不等式がすべて成立するか否かに応じて、外部情報および内部情報が合致しているか否かが判定される。
(X2−X12+(Y2−Y12+(Z2−Z12≦δ ‥(3)
|θ2X−θ1X|≦εX ‥(4a)
|θ2Y−θ1Y|≦εY ‥(4b)
|θ2Z−θ1Z|≦εZ ‥(4c)
ここでδ、εX、εYおよびεZのそれぞれは微小な正の値である。式(3)はハンド13によるハンドルHの把持状態が不良であるとき、ハンドルHの基準座標とロボット1の左右の手根関節125の中点座標とはほぼ一致することに鑑みて設定されている。式(4a)〜(4c)はロボット1によりハンドルHが的確に把持されているとき、ハンドルHとロボット1の左右の手根関節125を結ぶ線分とがほぼ平行になることに鑑みて設定されている。
1次確認処理部221は1次把持条件が満たされていない、すなわち、外部情報および内部情報が合致していないと判定したことに応じて(図3/S006‥NO)、「1次補正処理」を実行する(図3/S008)。これにより、ハンド13によるハンドルHの握りなおし、左右の脚部14の動作制御によるロボット1の立ち位置や向きの調節、および左右の腕部12の動作制御による左右のハンド13の位置や姿勢の調節のうち一部または全部が実行される。その上で、前記第1認識処理、第2認識処理および1次確認処理が再度実行される(図3/S002,S004,S006参照)。
一方、1次確認処理部221により1次把持条件が満たされている、すなわち、外部情報および内部情報が合致していると判定されたことに応じて(図3/S006‥YES)、2次確認処理部222がロボット1が静止した状態においてハンドルHの把持状態の良否を判定する「2次確認処理」を実行する(図3/S010)。なお、把持状態が「良」であるとは、たとえばロボット1が移動した場合にカートCがロボット1と一緒に移動しうる程度に、ロボット1がそのハンド13によってカートCのハンドルHを把持していることを意味する。
具体的には2次確認処理部222はロボット1が静止した状態でハンドルHの位置および姿勢のうち一方または両方を変化させる。これにより、たとえば図4に矢印で示されているように左右のハンド13のそれぞれからハンドルHに対して力fLおよびfRが作用する。そして、2次確認処理部222はハンド13のそれぞれに設けられた6軸力センサ106による力の検知結果が「2次把持条件」を満たしているか否かに応じてハンドルHの把持状態の良否を判定する。
たとえば図5(a)に示されているようにハンドルHが5つの指機構131〜135によりしっかりと握りこまれている状態を考える。この状態では、ハンド13の位置等を変化させると6軸力センサ106により検知される力、すなわち、ハンド13がハンドルHから受ける反力は図6に実線で示されているように増加した後で少し低下してから安定する。また、6軸力センサ106により測定される安定時の力fの方向および強さのそれぞれが、第1目標力f10の方向(第1目標方向)および強さ(第1目標値)のそれぞれに合致する。力の方向が合致するとは、力の方向の偏差(2つの力ベクトルのなす角度で表される。)の大きさが閾値以下になることを意味する。同様に力の強さが合致するとは、力の強さの偏差の大きさが所定の閾値以下になることを意味する。これにより、6軸力センサ106による力検知結果が1次把持条件を満たしている、ひいては把持状態が「良」であると判定される。なお、1次把持条件としては6軸力センサ106による測定力の方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに合致することのほか、当該測定力の方向が第1目標方向に合致することが採用されてもよい。
その一方、図5(b)に示されているようにハンドルHが5つの指機構131〜135によってしっかりと握りこまれていない状態を考える。この状態では、ハンド13の位置等を変化させると6軸力センサ106により検知される力は図6に一点鎖線で示されているように鈍く増加した後で不安定になる。また、6軸力センサ106により測定される安定時の力ベクトルfの方向および強さのそれぞれが、第1目標力ベクトルf10の方向(第1目標方向)および強さ(第1目標力)のそれぞれに合致しない。これにより、6軸力センサ106による力検知結果が1次把持条件を満たしていない、ひいては把持状態が「不良」であると判定される。
2次確認処理部222は2次把持条件が満たされていない、すなわち、ハンドルHの把持状態が不良であると判定したことに応じて(図3/S010‥NO)、「2次補正処理」を実行する(図3/S012)。これにより、ハンド13によるハンドルHの握りなおし、左右の脚部14の動作制御によるロボット1の立ち位置や向きの調節、および左右の腕部12の動作制御による左右のハンド13の位置や姿勢の調節のうち一部または全部が実行される。その上で、前記2次確認処理が再度実行される(図3/S010参照)。1次補正処理および2次補正処理の内容は同一でも異なっていてもよい。
2次確認処理に際してハンド13から方向、強さ、または方向および強さが異なる複数種類の力がハンドルHに作用するようにハンド13の位置等が複数のパターンで変化させられ、ハンド13の位置等の各変化パターンに応じた力検知結果の総合的評価によってハンド13によるハンドルHの把持状態の良否が判定されてもよい。これにより、たとえばロボット1がカートCを押し、引き、または横にずらすようにアーム12等を動かしたときにハンド13に作用する力の方向および強さに基づいてハンドルHの把持状態の良否が判定されうる。
一方、2次確認処理部222によって2次把持条件が満たされている、すなわち、ハンドルHの把持状態が良であると判定されたことに応じて(図3/S010‥YES)、制御システム20がロボット1を移動開始させ(図3/S014)、3次確認処理部223がハンドルHの把持状態の良否を判定する「3次確認処理」を実行する(図3/S016)。
具体的には3次確認処理部223はロボット1の移動開始後にハンドルHの位置および姿勢のうち一方または両方を変化させる。そして、3次確認処理部223はハンド13のそれぞれに設けられた6軸力センサ106による力の検知結果が「3次把持条件」を満たしているか否かに応じてハンドルHの把持状態の良否を判定する。2次把持条件としては6軸力センサ106による測定力の方向および強さのそれぞれが第2目標方向および第2目標値のそれぞれに合致すること、または当該測定力の方向が第2目標方向に合致することが採用されてもよい。3次把持条件における「第2目標方向」および「第2目標値」のそれぞれは2次把持条件における「第1目標方向」および「第1目標値」のそれぞれと同じであってもよいし異なっていてもよい。
3次確認処理に際してハンド13から方向、強さ、または方向および強さが異なる複数種類の力がハンドルHに作用するようにハンド13の位置等が複数のパターンで変化させられ、ハンド13の位置等の各変化パターンに応じた力検知結果の総合的評価によってハンド13によるハンドルHの把持状態の良否が判定されてもよい。
3次確認処理部223により把持状態が良であると判定された場合(図3/S016‥YES)、制御システム20はロボット1の移動を継続させる(図3/S018)。これにより、ロボット1はその目的地までの計画経路に沿ってハンドルHを介してカートCを押しながらあるいは引きながら移動する。また、制御システム20はロボット1が目的地に到達したか否かを判定する(図3/S020)。ロボット1が目的地に到達したか否かは、腰カメラ101または頭カメラ102を通じて目的地付近に付されたマーカのロボット座標系における位置が測定された上で、ロボット座標系の原点から当該測定位置までの(X−Y方向の)距離が閾値以下になったか否かに応じて判定される。
制御システム20はロボット1が目的地に到達していないと判定した場合(図3/S020‥NO)、3次確認処理部223による3次確認処理が再実行される(図3/S016参照)。一方、制御システム20はロボット1が目的地に到達したと判定した場合(図3/S020‥YES)、ロボット1の移動または移動のための動作を停止させる(図3/S022)。また、3次確認処理部223により把持状態が不良であると判定された場合も(図3/S016‥NO)、制御システム20はロボット1の移動または移動動作を停止させる(図3/S022)。
前記機能を発揮するロボット1によれば、1次確認処理において、外部情報および内部情報の合致性に関する1次把持条件の充足性に鑑みて物体の把持状態の良否が判定される(図3/S006参照)。さらに、2次確認処理において、ロボット1が静止している状態でハンド13の位置等が変化させられたときの6軸力センサ106による力検知結果に関する「2次把持条件」の充足性に鑑みてハンドルHの把持状態の良否が判定される(図3/S010参照)。このような二重の判定によって、ロボット1がそのハンド13によるハンドルHの把持状態の良否を確認することができる。また、ロボット1はこのような確認を経ることで、ハンドルHを把持した状態で移動を開始することができる。さらに、物体の把持状態が不良のままでロボット1が移動を開始したために、たとえばハンド13がハンドルHから離反してしまいロボット1がカートCに接触するような事態が回避されうる。
また、3次確認処理において、ロボット1の移動開始後、ハンド13の位置等が変化させられたときの6軸力センサ106による力検知結果に関する「3次把持条件」の充足性に鑑みてハンドルHの把持状態の良否が判定される(図3/S016参照)。これにより、ロボット1の静止時においてハンドルHの把持状態が「良」であったにもかかわらず、ロボット1の移動開始後にハンド13がハンドルHから外れてしまい、その把持状態が「不良」に変化したような状況が確実に認識されうる。
また、ロボット1の移動開始後に3次把持条件が満たされていない、すなわち、ハンド13によるハンドルHの把持状態が「不良」であると判定されたことに応じてロボット1の移動のための動作が停止される(図3/S016‥NO,S022参照)。これにより、少なくとも脚部14の動作は停止させられる。ただし、腕部12の動作は必要に応じて継続されうる。そして、ハンドルHの把持状態が不良であるにもかかわらずロボット1が移動し続け、ロボット1がカートCに接触するような事態が回避されうる。
さらに、ハンド13に作用する力の方向等に鑑みてハンドルHの把持状態が不良であると判定された場合、ハンド13の位置等が変更された上で当該判定が繰り返される(図3/S010,S012参照)。これにより、内部情報および外部情報の合致している一方、複数のハンド13のそれぞれに作用する力に鑑みてハンドルの把持状態が不良である状況でも、当該ハンドルHの把持状態が良になるようにロボット1の動作が適当に補正されうる。
なお、カートCのハンドルH(図1参照)のほか、テーブルの上に置かれたトレイ、ファイル、箱等、さまざまな物体がロボット1により的確に把持されているか否かが前記手法によって確認されてもよい。
前記実施形態では6軸力センサ106によりハンドルHからハンド13に作用する力、すなわち、ハンド13からハンドルHを介してカートCに作用する力が検知または測定された。これに代わる他の実施形態として頭カメラ102等の撮像装置を通じて得られた画像を通じてハンド13からカートCに作用する力Fが測定されてもよい。この場合、当該画像から得られるカートCの加速度αが測定され、かつ、カートCの質量mおよび床面との動摩擦力f’がメモリから読み出され、これらパラメータの値に基づいてロボット1からカートCに作用する力F(=m・α−f’)が測定されてもよい。
また、2次確認処理部222が左右のハンド13のそれぞれからハンドルHに作用する力の合力が0となるようにロボット1の動作を制御しながら、2次把持条件が満たされているか否かが判定されてもよい。この場合、ハンドルHの把持状態が良であれば当該判定中にカートCが不必要に動いて判定精度が低下したり、カートCがロボット1に接触したりする事態が回避されうる。
本発明のロボットの構成説明図 本発明のロボットの構成説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図
符号の説明
1‥ロボット、13‥ハンド、20‥制御システム、101‥腰カメラ(第1センサ)、CCD102‥カメラ(第1センサ)、104‥ロータリーエンコーダ(第2センサ)、211‥第1認識処理部、212‥第2認識処理部、221‥1次確認処理部、222‥2次確認処理部、223‥3次確認処理部、H‥カートCのハンドル(物体)

Claims (7)

  1. 制御システムを備え、かつ、該制御システムによって制御される自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットであって、
    前記制御システムが、
    前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理部と、
    前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理部と、
    該第1認識処理部により認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理部と、
    該1次確認処理部によって該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理部とを備えていることを特徴とするロボット。
  2. 請求項1記載のロボットにおいて、前記2次確認処理部が前記複数のハンドのそれぞれから前記物体に作用する力の合力が0となるように前記ロボットの動作を制御しながら、該複数のハンドによる該物体の把持状態の良否を判定することを特徴とするロボット。
  3. 請求項1または2記載のロボットにおいて、前記制御システムが、前記2次確認処理部によって前記2次把持条件が満たされているハンドによる前記物体の把持状態が良であると判定されたことを要件として前記ロボットを移動開始後、該ハンドの位置、姿勢または位置および姿勢を変化させ、前記撮像装置を通じて得られた該物体の画像または前記力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または方向および強さを測定し、当該測定方向が第2目標方向に一致している、または当該測定方向および強さのそれぞれが第2目標方向および第2目標値のそれぞれに一致しているという3次把持条件が満たされているか否かを判定する3次確認処理部を備えていることを特徴とするロボット。
  4. 請求項3記載のロボットにおいて、前記制御システムが、前記3次確認処理部により前記3次把持条件が満たされていないと判定されたことを要件として前記ロボットの移動のための動作を停止させることを特徴とするロボット。
  5. 請求項1〜4のうちいずれか1つに記載のロボットにおいて、前記2次確認処理部によって前記2次把持条件が満たされていないと判定されたことを要件として前記制御システムが該ハンドの位置および姿勢のうち一方または両方が変化するように前記ロボットの動作を制御し、前記2次確認処理部が該複数のハンドによる該物体の把持状態の良否を再度判定することを特徴とするロボット。
  6. 自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットの制御方法であって、
    前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理と、
    前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理と、
    該第1認識処理において認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理と、
    該1次確認処理において該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理とを実行することを特徴とする方法。
  7. 自律的な移動機能と、一または複数のハンドの動作による物体の把持機能とを有するロボットに搭載されているコンピュータを、該ロボットを制御するシステムとして機能させるプログラムであって、
    前記コンピュータを、
    前記物体の位置および姿勢を測定するための第1センサの出力信号に基づき、該物体の位置および姿勢を外部情報として認識する第1認識処理部と、
    前記ハンドの位置および姿勢を測定するための第2センサの出力信号に基づき、該ハンドによる把持状態が良であると仮定した場合の該物体の位置および姿勢を内部情報として認識する第2認識処理部と、
    該第1認識処理部により認識された該外部情報と該第2認識処理部により認識された該内部情報とが合致しているという1次把持条件が満たされているか否かを判定する1次確認処理部と、
    該1次確認処理部によって該1次把持条件が満たされていると判定されたことを要件として前記ロボットが静止している状態で、該ハンドの位置、姿勢または位置および姿勢を変化させたときの、該ロボットに搭載されている撮像装置を通じて得られた該物体の画像または該ハンドに設けられている力センサの出力信号に基づいて該ハンドから該物体に作用する力の方向または当該力の方向および強さを測定し、当該測定方向が第1目標方向に一致している、または当該測定方向および強さのそれぞれが第1目標方向および第1目標値のそれぞれに一致しているという2次把持条件が満たされているか否かを判定する2次確認処理部とを備えている制御システムとして機能させることを特徴とするプログラム。
JP2006325757A 2006-12-01 2006-12-01 ロボット、ならびにその制御方法および制御プログラム Expired - Fee Related JP4481291B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006325757A JP4481291B2 (ja) 2006-12-01 2006-12-01 ロボット、ならびにその制御方法および制御プログラム
US11/948,336 US8041457B2 (en) 2006-12-01 2007-11-30 Robot, control method therefor and control program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006325757A JP4481291B2 (ja) 2006-12-01 2006-12-01 ロボット、ならびにその制御方法および制御プログラム

Publications (2)

Publication Number Publication Date
JP2008137114A true JP2008137114A (ja) 2008-06-19
JP4481291B2 JP4481291B2 (ja) 2010-06-16

Family

ID=39476820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006325757A Expired - Fee Related JP4481291B2 (ja) 2006-12-01 2006-12-01 ロボット、ならびにその制御方法および制御プログラム

Country Status (2)

Country Link
US (1) US8041457B2 (ja)
JP (1) JP4481291B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013111744A (ja) * 2011-11-29 2013-06-10 Samsung Electronics Co Ltd ロボット及びその制御方法
JP2014122871A (ja) * 2012-12-21 2014-07-03 Zong Jing Investment Inc 測距方法及びコンピュータプログラム製品
CN106346455A (zh) * 2016-11-18 2017-01-25 广东石油化工学院 一种仿真机器人
JP2018167330A (ja) * 2017-03-29 2018-11-01 本田技研工業株式会社 ロボットの制御装置
CN111469152A (zh) * 2020-04-30 2020-07-31 上海工程技术大学 一种自动化上下料机械抓

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4975503B2 (ja) * 2007-04-06 2012-07-11 本田技研工業株式会社 脚式移動ロボット
WO2010024795A1 (en) * 2008-08-29 2010-03-04 Abb Research Ltd. Robotic picking of parts from a bin using force feedback
US9008841B2 (en) 2009-08-27 2015-04-14 Abb Research Ltd. Robotic picking of parts from a parts holding bin
KR101308373B1 (ko) * 2010-11-17 2013-09-16 삼성전자주식회사 로봇 제어방법
KR101809973B1 (ko) * 2011-01-24 2017-12-19 삼성전자주식회사 로봇 제어 시스템 및 로봇 제어 방법
US9665767B2 (en) * 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
WO2012142587A1 (en) 2011-04-15 2012-10-18 Irobot Corporation Method for path generation for an end effector of a robot
JP5895569B2 (ja) * 2012-02-08 2016-03-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5948932B2 (ja) * 2012-02-16 2016-07-06 セイコーエプソン株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム
CN103072136B (zh) * 2012-12-28 2015-11-18 北京中科智恒科技有限公司 一种应用于防护材料测试系统的机械人
JOP20200120A1 (ar) * 2013-10-21 2017-06-16 Esco Group Llc إزالة وتركيب تجميعة تآكل
JP6330287B2 (ja) * 2013-10-29 2018-05-30 セイコーエプソン株式会社 ロボット、ロボット用当接部材
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
US9616568B1 (en) * 2015-08-25 2017-04-11 X Development Llc Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
EP3544773B1 (en) * 2017-02-28 2022-08-31 Siemens Industry Software Inc. System and method for determining grasping positions for two-handed grasps of industrial objects
TWI742990B (zh) * 2021-01-19 2021-10-11 財團法人工業技術研究院 機械手臂系統、其控制方法及其電腦程式產品

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05185388A (ja) * 1992-01-14 1993-07-27 Nippondenso Co Ltd 部品供給装置
JPH074491U (ja) * 1993-06-29 1995-01-24 株式会社アイチコーポレーション 把持装置
JPH08197467A (ja) * 1995-01-24 1996-08-06 Honda Motor Co Ltd リンク装置における運動制御装置および運動制御方法、ならびに人工ハンドにおける運動制御装置および運動制御方法
JPH08274143A (ja) * 1995-02-02 1996-10-18 Tokyo Electron Ltd 搬送装置及び搬送方法
JPH08318491A (ja) * 1995-05-19 1996-12-03 Honda Motor Co Ltd ワークの位相検出方法
JPH10100089A (ja) * 1996-08-05 1998-04-21 Yaskawa Electric Corp 多関節多指ハンドの把持制御方法及び物体把持方法
JP2004249391A (ja) * 2003-02-19 2004-09-09 Fanuc Ltd ワーク搬送装置
JP2004268160A (ja) * 2003-03-05 2004-09-30 Sharp Corp ロボットハンドおよびその制御方法
JP2004284001A (ja) * 2003-01-27 2004-10-14 Sharp Corp ロボットハンド
JP2005164323A (ja) * 2003-12-01 2005-06-23 Honda Motor Co Ltd 位置検出用マーク、並びに、マーク検出装置、その方法及びそのプログラム
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
JP2006297542A (ja) * 2005-04-20 2006-11-02 Toyota Motor Corp ロボットハンドの指表面の滑り検知装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3435666B2 (ja) * 1999-09-07 2003-08-11 ソニー株式会社 ロボット
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
US20040243147A1 (en) * 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
US6484068B1 (en) * 2001-07-24 2002-11-19 Sony Corporation Robot apparatus and method for controlling jumping of robot device
US7027031B2 (en) * 2002-02-07 2006-04-11 Gifu University Touch sense interface and method for controlling touch sense interface
WO2004028753A2 (en) * 2002-09-26 2004-04-08 Barrett Technology, Inc. Intelligent, self-contained robotic hand
JPWO2004068399A1 (ja) * 2003-01-31 2006-05-25 松下電器産業株式会社 予測型行動決定装置および行動決定方法
WO2005065264A2 (en) * 2003-12-30 2005-07-21 Strider Labs Robotic hand with extendable palm
US7180401B2 (en) * 2004-12-03 2007-02-20 Kulite Semiconductor Products, Ic. Personal identification apparatus using measured tactile pressure
US20060167564A1 (en) * 2005-01-10 2006-07-27 Flaherty J C Limb and digit movement system
JP4621073B2 (ja) * 2005-05-23 2011-01-26 本田技研工業株式会社 ロボット制御装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05185388A (ja) * 1992-01-14 1993-07-27 Nippondenso Co Ltd 部品供給装置
JPH074491U (ja) * 1993-06-29 1995-01-24 株式会社アイチコーポレーション 把持装置
JPH08197467A (ja) * 1995-01-24 1996-08-06 Honda Motor Co Ltd リンク装置における運動制御装置および運動制御方法、ならびに人工ハンドにおける運動制御装置および運動制御方法
JPH08274143A (ja) * 1995-02-02 1996-10-18 Tokyo Electron Ltd 搬送装置及び搬送方法
JPH08318491A (ja) * 1995-05-19 1996-12-03 Honda Motor Co Ltd ワークの位相検出方法
JPH10100089A (ja) * 1996-08-05 1998-04-21 Yaskawa Electric Corp 多関節多指ハンドの把持制御方法及び物体把持方法
JP2004284001A (ja) * 2003-01-27 2004-10-14 Sharp Corp ロボットハンド
JP2004249391A (ja) * 2003-02-19 2004-09-09 Fanuc Ltd ワーク搬送装置
JP2004268160A (ja) * 2003-03-05 2004-09-30 Sharp Corp ロボットハンドおよびその制御方法
JP2005164323A (ja) * 2003-12-01 2005-06-23 Honda Motor Co Ltd 位置検出用マーク、並びに、マーク検出装置、その方法及びそのプログラム
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
JP2006297542A (ja) * 2005-04-20 2006-11-02 Toyota Motor Corp ロボットハンドの指表面の滑り検知装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013111744A (ja) * 2011-11-29 2013-06-10 Samsung Electronics Co Ltd ロボット及びその制御方法
JP2014122871A (ja) * 2012-12-21 2014-07-03 Zong Jing Investment Inc 測距方法及びコンピュータプログラム製品
CN106346455A (zh) * 2016-11-18 2017-01-25 广东石油化工学院 一种仿真机器人
JP2018167330A (ja) * 2017-03-29 2018-11-01 本田技研工業株式会社 ロボットの制御装置
CN111469152A (zh) * 2020-04-30 2020-07-31 上海工程技术大学 一种自动化上下料机械抓

Also Published As

Publication number Publication date
US8041457B2 (en) 2011-10-18
JP4481291B2 (ja) 2010-06-16
US20080133058A1 (en) 2008-06-05

Similar Documents

Publication Publication Date Title
JP4481291B2 (ja) ロボット、ならびにその制御方法および制御プログラム
JP5213023B2 (ja) ロボット
JP4565229B2 (ja) ロボット
JP4316630B2 (ja) ロボット、ロボットの制御方法およびロボットの制御プログラム
JP4908020B2 (ja) ハンド制御システム
JP4552037B2 (ja) ロボット
JP5607888B2 (ja) ロボット、ロボットハンド及びロボットハンドの制御方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US8924020B2 (en) Apparatus for controlling robot and control method thereof
EP2418562B1 (en) Modelling of hand and arm position and orientation
JP6927727B2 (ja) ロボットの制御装置
WO2008001793A1 (fr) Dispositif de robot et son procédé de commande
JPWO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2007061121A (ja) 身体の動作解析方法、システムおよびプログラム
KR20120074887A (ko) 로봇 및 그 제어 방법
JP2010064155A (ja) 把持装置
JP4211701B2 (ja) ロボットハンドの把持制御装置
JP4956964B2 (ja) ロボットハンドの把持制御装置
JP2006130580A (ja) ロボットによる任意形状物体の把持方法
JP2005007486A (ja) ロボットハンドの把持制御装置
JP6158665B2 (ja) ロボット、ロボット制御方法、およびロボット制御プログラム
JP2004114161A (ja) 双腕ロボット装置の制御装置、双腕ロボット装置、及びその制御方法
JP2023131026A (ja) エンドエフェクタ制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4481291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees