JP4316630B2 - ロボット、ロボットの制御方法およびロボットの制御プログラム - Google Patents

ロボット、ロボットの制御方法およびロボットの制御プログラム Download PDF

Info

Publication number
JP4316630B2
JP4316630B2 JP2007089131A JP2007089131A JP4316630B2 JP 4316630 B2 JP4316630 B2 JP 4316630B2 JP 2007089131 A JP2007089131 A JP 2007089131A JP 2007089131 A JP2007089131 A JP 2007089131A JP 4316630 B2 JP4316630 B2 JP 4316630B2
Authority
JP
Japan
Prior art keywords
robot
state
processing unit
behavior
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007089131A
Other languages
English (en)
Other versions
JP2008246607A (ja
Inventor
太郎 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007089131A priority Critical patent/JP4316630B2/ja
Priority to US12/056,527 priority patent/US8260457B2/en
Priority to EP08251226A priority patent/EP2042275B1/en
Priority to AT08251226T priority patent/ATE490848T1/de
Priority to DE602008003875T priority patent/DE602008003875D1/de
Publication of JP2008246607A publication Critical patent/JP2008246607A/ja
Application granted granted Critical
Publication of JP4316630B2 publication Critical patent/JP4316630B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1612Program controls characterised by the hand, wrist, grip control

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、自律的な移動機能と、手部による物体の把持機能とを有するロボット等に関する。
従来、ロボットに物体を把持させるためのさまざまな技術が提案されている(たとえば、特許文献1参照)。
特開2005−125462号公報
しかし、把持対象となる物体の周囲に他の物体が存在している等、種々の理由により手部が物体に届かず、当該物体を的確に把持することができない場合がある。
そこで、本発明は、さまざまな環境に応じて柔軟に動作または行動様式を変更することにより手部によって物体を的確に把持しうるロボット等を提供することを解決課題とする。
第1発明のロボットは、基体と、前記基体から延設された腕部と、前記腕部の先端部に設けられている手部とを備えているロボットであって、前記ロボットの行動を制御する制御システムを備え、前記制御システムが第1処理部と、第2処理部と、第3処理部とを備え、前記第1処理部が前記基体を基準とする第1物体の相対位置および相対姿勢を認識し、前記第1物体の移動度に偏向性がある状況では前記第1物体の相対姿勢に基づいて当該第1物体の移動度が閾値未満の第1難方向をさらに認識し、あるいは、第1物体および当該第1物体が載置されている第2物体のそれぞれの前記基体を基準とする相対位置および相対姿勢を認識し、前記第2物体の移動度に偏向性がある状況では前記第2物体の相対姿勢に基づいて当該第2物体の移動度が閾値未満の第2難方向をさらに認識し、前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢ならびに前記第1難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に前記第1難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、あるいは、前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢ならびに前記第2難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に対して前記第2難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、前記第1行動様式は前記ロボットが移動せずにその場で前記腕部および前記手部のうち少なくとも一方を動かす第1行動要素により、前記手部で前記第1物体を把持する行動様式であり、前記第2処理部によって前記ロボットが前記第1状態にあると判定されたことを要件として、前記第3処理部が前記第1行動様式にしたがって前記ロボットの行動を制御する一方、前記第2処理部によって前記ロボットが前記第1状態にないと判定されたことを要件として、前記第3処理部が前記第1物体の相対位置および相対姿勢のうち一方または両方が変化するように前記第1行動様式とは異なる行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第1発明のロボットによれば、ロボットが「第1状態」にあるか否かが判定される。そして、当該判定結果が肯定的な場合、ロボットの行動が「第1行動様式」にしたがって制御される。これにより、ロボットが移動せずにその場で腕部および手部のうち一方または両方(以下、適宜「腕部等」という。)を動かす「第1行動要素」によって手部で第1物体を把持することができる。
一方、当該判定結果が否定的な場合、ロボットが第1行動様式とは異なる行動様式で行動することにより、ロボットの基体を基準とする第1物体の相対位置および相対姿勢のうち一方または両方(以下、適宜「第1物体の相対位置等」という。)を変化させる結果として、ロボットを非第1状態から第1状態に変化させることができる。そして、前記のようにロボットが腕部等を動かすことにより手部で第1物体を把持することができる。
また、第1物体の移動度に偏向性がある状況でロボットが第1状態にある場合、手部によって第1物体に第1難方向の力を作用させながら第1物体が把持されうる。このため、ロボットが第1物体を把持するために第1行動様式にしたがって行動しているときに、第1物体の位置や姿勢が、ロボットがその場で第1物体を把持できなくなる程度に大きく変動する事態が回避される。
さらに、第1物体が載置されている第2物体の移動度に偏向性がある状況でロボットが第1状態にある場合、手部によって第1物体に第2難方向の力を作用させながら第1物体が把持されうる。このため、ロボットが第1物体を把持するために第1行動様式にしたがって行動しているときに、基体に対する第1物体の相対位置または相対姿勢が、基体に対する第2物体の相対位置または相対姿勢の変化によってロボットがその場で第1物体を把持できなくなる程度に大きく変動する事態が回避される。
なお、本発明の構成要素が情報を「認識する」とは、メモリ、データベース等の情報源からロボットの内部または外部ネットワークを介して当該情報を読み取ることまたは検索すること、当該情報を測定、決定、設定、推定、算定等すること、検索等された当該情報を所定のアドレスを有するメモリに格納すること等、当該情報をさらなる情報処理のために準備するあらゆる情報処理を意味する。
第2発明のロボットは、第1発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記ロボットが第2行動様式にしたがって行動しうる第2状態にあるか否かをさらに判定し、前記第2行動様式は前記第1行動要素により前記手部によって前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第2状態から前記第1状態に変化させる行動様式であり、前記第2処理部により前記ロボットが前記第2状態にあると判定されたことを要件として、前記第3処理部が前記第2行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第2発明のロボットによれば、ロボットが「第2状態」にあるか否かがさらに判定される。そして、当該判定結果が肯定的な場合、ロボットの行動が「第2行動様式」にしたがって制御される。これにより、ロボットがその場で腕部等を動かすことによって手部で基体に対する第1物体の相対位置等を調節する結果として、ロボットを第2状態から第1状態に変化させることができる。そして、前記のようにロボットがその場で腕部等を動かすことによって手部で第1物体を把持することができる。
第3発明のロボットは、第2発明のロボットにおいて、前記ロボットの進入禁止領域が存在する状況において前記第1処理部が前記進入禁止領域をさらに認識し、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域をさらに含む認識結果に基づき、前記ロボットが第3行動様式にしたがって行動しうる第3状態にあるか否かをさらに判定し、前記第3行動様式は前記ロボットが移動する第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第3状態から前記第1状態に変化させる行動様式であり、前記第2処理部により前記ロボットが前記第3状態にあると判定されたことを要件として、前記第3処理部が前記第3行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第3発明のロボットによれば、ロボットが「第3状態」にあるか否かがさらに判定される。そして、当該判定結果が肯定的な場合、ロボットの行動が「第3行動様式」にしたがって制御される。これにより、ロボットが移動する「第2行動要素」により第1物体の相対位置等を調節する結果として、ロボットを第3状態から第1状態に変化させることができる。そして、前記のようにロボットがその場で腕部等を動かすことによって手部で第1物体を把持することができる。
第4発明のロボットは、第3発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第4行動様式にしたがって行動しうる第4状態にあるか否かをさらに判定し、前記第4行動様式は前記第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第4状態から前記第2状態に変化させる行動様式であり、前記第2処理部により前記ロボットが前記第4状態にあると判定されたことを要件として、前記第3処理部が前記第4行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第4発明のロボットによれば、ロボットが「第4状態」にあるか否かがさらに判定される。そして、当該判定結果が肯定的な場合、ロボットの行動が「第4行動様式」にしたがって制御される。これにより、ロボットが進入禁止領域への侵入を回避しながら移動することにより第1物体の相対位置等を調節する結果として、ロボットを第4状態から第2状態に変化させることができる。この上で、前記のようにロボットがその場で腕部等を動かすことによって手部でロボットの基体に対する第1物体の相対位置等を調節する結果として、ロボットを第2状態から第1状態に変化させることができる。そして、ロボットがその場で腕部等を動かすことによって当該手部で第1物体を把持することができる。
第5発明のロボットは、第4発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第5行動様式にしたがって行動しうる第5状態にあるか否かをさらに判定し、前記第5行動様式は前記第2行動要素およびこれに続く前記第1行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第5状態から前記第3または第4状態に変化させる行動様式であり、前記第2処理部により前記ロボットが前記第5状態にあると判定されたことを要件として、前記第3処理部が前記第5行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第5発明のロボットによれば、ロボットが「第5状態」にあるか否かがさらに判定される。そして、当該判定結果が肯定的な場合、ロボットの行動が「第5行動様式」にしたがって制御される。これにより、ロボットが移動し、当該移動後の場所で腕部等を動かすことによって手部でロボットの基体に対する第1物体の相対位置等を調節する結果として、ロボットを第5状態から第3状態または第4状態に変化させることができる。そして、前記のようにロボットが移動することによって基体に対する第1物体の相対位置等を調節する結果として、ロボットを第3状態から第1状態に変化させ、あるいはロボットを第4状態から第2状態、さらには第2状態から第1状態に変化させることができる。そして、ロボットがその場で腕部等を動かすことにより手部で第1物体を把持することができる。
第6発明のロボットは、第5発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあるか否かを判定し、前記第3処理部が前記第2処理部により前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあると判定されたことを要件として、前記第1、第2、第3、第4および第5行動様式にしたがった前記ロボットの行動を禁止することを特徴とする。
第6発明のロボットによれば、ロボットが第1物体を把持することが極めて困難である場合、第1物体を把持するための行動を停止させることができる。
第7発明のロボットは、第1発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記第1物体が第1動作領域に含まれているか否かを判定することにより、前記ロボットが前記第1状態にあるか否かを判定し、前記第1動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とする。
第7発明のロボットによれば、第1動作領域に第1物体が存在するか否かが判定されることにより、ロボットが第1状態にあるか否かが判定されうる。ロボットの基体に対する第1物体の相対姿勢に応じて形状および広狭が変化する第1動作領域が用いられることにより、ロボットがその場で手部によって第1物体を把持する観点から、基体に対する第1物体の相対位置のみならず相対姿勢の適否も判定されうる。そして、ロボットが第1状態にあると判定された場合、ロボットがその場で腕部等を動かすことにより第1動作領域に存在する第1物体を把持することができる。
第8発明のロボットは、第7発明のロボットにおいて、前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記ロボットから見て前記第2物体の前記特定部分の陰となる動作陰領域を認識し、前記動作陰領域との重なり領域が除かれた前記第1動作領域に基づいて前記ロボットが前記第1状態にあるか否かを判定することを特徴とする。
第8発明のロボットによれば、第1動作領域に動作陰領域(=ロボットから見て第2物体の特定部分の陰となる領域)との重なり領域が存在する場合、当該重なり領域が削除補正された第1動作領域に基づいてロボットが第1状態にあるか否かが判定される。これにより、ロボットが第1行動様式にしたがってその場で第1物体を把持するために腕部等を動かすときに、腕部等が第2物体の特定部分に接触することが回避される。
第9発明のロボットは、第2発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記第1物体が第2動作領域に含まれているか否かを判定することにより、前記ロボットが前記第2状態にあるか否かを判定し、前記第2動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在することにより前記ロボットが前記第1行動要素により前記手部によって前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記第1物体を前記第2動作領域から前記第1動作領域に移動させることができる領域であり、前記第1動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とする。
第9発明のロボットによれば、第2動作領域に第1物体が含まれているか否かが判定されることにより、ロボットが第2状態にあるか否かが判定されうる。ロボットの基体に対する第1物体の相対姿勢に応じて形状および広狭が変化する第2動作領域が用いられることにより、ロボットがその場で手部によって基体に対する第1物体の相対位置等を変化させる観点から、第1物体の相対位置のみならず相対姿勢の適否も判定されうる。そして、ロボットが第2状態にあると判定された場合、ロボットが腕部等を動かすことにより第2動作領域に存在する第1物体の相対位置等を変化させることができる。その結果、第1物体を第1動作領域に移動させ、前記のようにロボットがその場で腕部等を動かすことにより第1物体を把持することができる。
第10発明のロボットは、第9発明のロボットにおいて、前記手部が前記第1物体に接近しうる方向が前記第2物体の特定部分によって制限されている状況において、前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記ロボットから見て前記第2物体の前記特定部分の陰となる動作陰領域を認識し、前記動作陰領域との重なり領域が除かれた前記第1および第2動作領域に基づいて前記ロボットが前記第2状態にあるか否かを判定することを特徴とする。
第10発明のロボットによれば、第2動作領域に動作陰領域(=ロボットから見て第2物体の特定部分の陰となる領域)との重なり領域が存在する場合、当該重なり領域が削除補正された第2動作領域に基づいてロボットが第2状態にあるか否かが判定される。これにより、ロボットが第2行動様式にしたがってその場で基体に対する第1物体の相対位置等を変化させるために腕部等を動かすときに腕部等が第2物体の特定部分に接触することが回避される。
第11発明のロボットは、第3発明のロボットにおいて、前記第2処理部が、前記ロボットが前記第2および第3状態の両方にあると判定したことを要件として、前記第2および第3行動様式のうち、前記ロボットを前記第1状態に変化させるために要する時間およびエネルギーのうち一方または両方の節約の観点から行動様式を選択し、前記第3処理部が前記第2および第3行動様式のうち、前記第2処理部により選択された行動計画にしたがって前記ロボットの行動を制御することを特徴とする。
第11発明のロボットによれば、ロボットが第2および第3状態の両方にある場合、第2および第3行動様式のうち、ロボットを第1状態に変化させるのに要する時間やエネルギーの節約の観点から好ましい行動様式にしたがってロボットを行動させることができる。
第12発明のロボットは、第11発明のロボットにおいて、前記第2処理部により前記ロボットが前記第2状態にない一方、前記第3状態にあると判定されたことを要件として、前記第3行動様式にしたがって前記ロボットの行動を制御することを特徴とする。
第12発明のロボットによれば、前第2および第3行動様式の選択の余地がない場合、第3行動様式にしたがってロボットの行動を制御することができる。
第13発明のロボットは、第3発明のロボットにおいて、前記第1処理部が、前記第1物体が載置されている前記第2物体を取り囲む領域を前記進入禁止領域として認識することを特徴とする。
第13発明のロボットによれば、ロボットを第2物体との接触を回避しながら移動させることにより、ロボットを第3状態から第1状態に変化させることができる。
第14発明のロボットは、第3発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、第1進入条件が満たされているか否かを判定することによって前記ロボットが前記第3状態にあるか否かを判定し、前記第1進入条件は第1基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とする。
第14発明のロボットによれば、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって第1物体を把持しうる領域に移動することができるか否かという観点から、ロボットが第3状態にあるか否かが判定される。これにより、ロボットが第3状態にあると判定されたことを要件として、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって第1物体を把持しうる領域(=第1基準領域のうち進入禁止領域からはみ出した部分)に移動することができる。
第15発明のロボットは、第14発明のロボットにおいて、前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた前記第1基準領域に基づいて前記第1進入条件が満たされているか否かを判定することを特徴とする。
第15発明のロボットによれば、第1基準領域に基準陰領域(=第1物体から見て第2物体の特定部分の陰となる領域)との重なり領域が存在する場合、当該重なり領域が削除補正された第1基準領域に基づいてロボットが第3状態にあるか否かが判定される。これにより、ロボットが第3行動様式にしたがって基体の位置等を変化させたにもかかわらず、第2物体の特定部分が邪魔になって第1物体を把持しえない状況になることが回避される。
第16発明のロボットは、第4発明のロボットにおいて、前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、第2進入条件が満たされているか否かを判定することによって前記ロボットが前記第4状態にあるか否かを判定し、前記第2進入条件は第1基準領域の全部が前記進入禁止領域に含まれる一方、第2基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であり、前記第2基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第2状態から前記第1状態に変化させることができる領域であることを特徴とする。
第16発明のロボットによれば、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって第1物体の相対位置等を変化させうる領域に移動することができるか否かという観点から、ロボットが第4状態にあるか否かが判定される。これにより、ロボットが第4状態にあると判定されたことを要件として、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって基体に対する第1物体の相対位置等を変化させうる領域(=第2基準領域のうち進入禁止領域からはみ出した部分)に移動することができる。
第17発明のロボットは、第16発明のロボットにおいて、前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた、前記第1および第2基準領域に基づいて前記第2進入条件が満たされているか否かを判定することを特徴とする。
第17発明のロボットによれば、第1および第2基準領域のうち一方または両方に基準陰領域(=第1物体から見て第2物体の特定部分の陰となる領域)との重なり領域が存在する場合、当該重なり領域が削除補正された第1および第2基準領域に基づいてロボットが第4状態にあるか否かが判定される。これにより、ロボットが第4行動様式にしたがって移動したにもかかわらず、第2物体の特定部分が邪魔になってその場で手部によって基体に対する第1物体の相対位置等を変化させることができない状況になることが回避される。
第18発明のロボットは、第5発明のロボットにおいて、前記第2処理部が、第3進入条件が満たされているか否かを判定することによって前記ロボットが前記第5状態にあるか否かを判定し、前記第3進入条件は第1および第2基準領域の全部が前記進入禁止領域に含まれている一方、第3基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であり、前記第2基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第2状態から前記第1状態に変化させることができる領域であり、前記第3基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第5状態から前記第3状態または前記第4状態に変化させることができる領域であることを特徴とする。
第18発明のロボットによれば、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって第1物体の相対位置等を変化させることにより第3または第4状態が実現されるような領域に移動することができるか否かという観点から、ロボットが第5状態にあるか否かが判定される。これにより、ロボットが第5状態にあると判定されたことを要件として、ロボットが進入禁止領域に進入することを回避しながら、その場で手部によって基体に対する第1物体の相対位置等を変化させうる領域(=第3基準領域のうち進入禁止領域からはみ出した部分)に移動することができる。
第19発明のロボットは、第18発明のロボットにおいて、前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で、前記第3処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた前記第1、第2および第3基準領域に基づいて前記第3進入条件が満たされているか否かを判定することを特徴とする。
第19発明のロボットによれば、第1、第2および第3基準領域のうち一部または全部に基準陰領域(=第1物体から見て第2物体の特定部分の陰となる領域)との重なり領域が存在する場合、当該重なり領域が削除補正された当該3つの基準領域に基づいてロボットが第5状態にあるか否かが判定される。これにより、ロボットが第5行動様式にしたがって移動したにもかかわらず、第2物体の特定部分が邪魔になって、第3または第4状態を実現するために第1物体の相対位置等を手部で変化させることができない状況になることが回避される。
第20発明のロボットは、第6発明のロボットにおいて、前記第3処理部が、前記ロボットが前記状態にあると判定したことを要件として、前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあることを外部に報知することを特徴とする。
第20発明のロボットによれば、ロボットが状態にあり、最終的に第1物体を把持しうるように行動することが極めて困難であることを周囲の人間に知らせることによって、当該人間に第1物体の位置や姿勢の変更等の対応措置をとらせることができる。
第21発明のロボットは、第2発明のロボットにおいて、前記第1物体の移動度に偏向性がある状況において、前記第1処理部が前記第1物体の相対姿勢に基づいて前記第1物体の移動度が閾値以上の第1易方向をさらに認識し、前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢ならびに前記第1易方向を含む認識結果に基づき、前記腕部および前記手部を動作させることにより前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させるとき、前記手部から前記第1物体に対して前記第1易方向の力を作用させるような前記第2行動様式に基づき、前記ロボットが前記第2状態にあるか否かを判定することを特徴とする。
第21発明のロボットによれば、ロボットが第2状態にある場合、手部によって第1物体に第1易方向の力を作用させながら基体に対する第1物体の相対位置および相対姿勢が調節されうる。このため、ロボットが第2行動様式にしたがって行動することにより、第1物体の基体に対する相対位置および相対姿勢を容易に調節することができる。
第22発明のロボットは、第2発明のロボットにおいて、前記第2物体の移動度に偏向性がある状況において、前記第1処理部が前記第2物体の相対姿勢に基づいて前記第2物体の移動度が閾値以上の第2易方向をさらに認識し、前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢ならびに前記第2易方向を含む認識結果に基づき、前記腕部および前記手部を動作させることにより前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させるとき、前記手部から前記第1物体に対して前記第2易方向の力を作用させるような前記第2行動様式に基づき、前記ロボットが前記第2状態にあるか否かを判定することを特徴とする。
第22発明のロボットによれば、ロボットが第2状態にある場合、手部によって第1物体に第2易方向の力を作用させながら第1物体の位置や姿勢が調節されうる。このため、ロボットが第2行動様式にしたがって行動することにより、第2物体の位置や姿勢が変化する結果として、第1物体の位置や姿勢を容易に調節することができる。
第23発明のロボットは、第1発明のロボットにおいて、前記第1処理部が前記第1物体の把持の成否を判定し、前記第3処理部が前記第1処理部により前記第1物体の把持が失敗したと判定されたことを要件として、前記ロボットの動作を停止させることを特徴とする。
第23発明のロボットによれば、第1物体の把持が失敗した場合にはロボットの動作が停止させられる。これにより、たとえばロボットが第1物体を把持しうるような状況変化を待つことができる。また、第1物体の把持のためにロボットを動かすための電力等のエネルギーが無駄に消費される事態を回避することができる。
第24発明のロボットは、第1発明のロボットにおいて、前記基体から延設された複数の脚部を備えている脚式移動ロボットであることを特徴とする。
第24発明のロボットによれば、基体から延設された複数の脚部を動かすことにより、第1行動様式とは異なる行動様式にしたがって当該ロボットの位置および姿勢のうち一方または両方を変化させることができる。
第25〜第29発明のそれぞれの方法は、基体と、前記基体から延設された腕部と、前記腕部の先端部に設けられている手部とを備えているロボットの行動を制御する方法であって、第1〜第5発明のそれぞれのロボットが有する制御システムにより実行される、当該ロボットの行動を制御するための第1〜第3処理を実行することを特徴とする。
当該方法によれば、ロボットが移動せずにその場で腕部等を動かすことにより手部で第1物体を把持することができない場合、ロボットを第1行動様式とは異なる行動様式で行動させる。その結果、基体に対する第1物体の相対位置および相対姿勢のうち一方または両方を変化させ、その結果としてロボットを非第1状態から第1状態に変化させ、その後でロボットに第1物体を把持させることができる。
第30発明のプログラムは、第1〜第24発明のうちいずれか1つのロボットが有する制御システムとして、当該ロボットに搭載されているコンピュータを機能させることを特徴とする。
当該プログラムによれば、ロボットが移動せずにその場で腕部等を動かすことによって手部で第1物体を把持することができない場合、ロボットに搭載されているコンピュータの機能により、ロボットを第1行動様式とは異なる行動様式で行動させることができる。これにより、基体に対する第1物体の相対位置および相対姿勢のうち一方または両方を変化させることができ、その結果としてロボットを非第1状態から第1状態に変化させ、その後でロボットに第1物体を把持させることができる。
本発明のロボット等の実施形態について図面を用いて説明する。まず、ロボットの構成について説明する。図1に示されているロボット1は脚式移動ロボットであり、人間と同様に、基体10と、基体10の上方に配置された頭部11と、基体10の上部に上部両側から延設された左右の腕部12と、左右の腕部12のそれぞれの先端に設けられている手部13と、基体10の下部から下方に延設された左右の脚部14と、左右の脚部14のそれぞれの先端に設けられている足部15とを備えている。また、ロボット1はその行動を制御する制御システム20を備えている。
基体10はヨー軸回りに相対的に回動しうるように上下に連結された上部および下部により構成されている。基体10の下部にはロボット1の前方下方を撮像範囲とする腰カメラ101が内蔵されている。腰カメラ101は近赤外線ランプ(図示略)からロボット1の前方下方に向けて発せられた近赤外光の物体による反射光を検知することにより当該物体の位置等を測定するために用いられる。腰カメラ101としてはCCDカメラ、赤外線カメラ等、種々の周波数帯域における光を感知しうるカメラが採用されてもよい。
頭部11は基体10に対してヨー軸回りに回動する等、動くことができる。頭部11には左右一対の頭カメラ102が搭載されており、頭部11が基体に対して動くこと等により頭カメラ102の撮像範囲が調節されうる。頭カメラ102としてはCCDカメラ、赤外線カメラ等、種々の周波数帯域における光を感知しうるカメラが採用されてもよい。
腕部12は第1腕リンク122と、第2腕リンク124とを備えている。基体10と第1腕リンク122とは肩関節121を介して連結され、第1腕リンク122と第2腕リンク124とは肘関節123を介して連結され、第2腕リンク124と手部13とは手部根関節125を介して連結されている。肩関節121はロール、ピッチおよびヨー軸回りの回動自由度を有し、肘関節123はピッチ軸回りの回動自由度を有し、手部根関節125はロール、ピッチ、ヨー軸回りの回動自由度を有している。手部根関節125付近には6軸力センサ106が設けられている。
脚部14は第1脚リンク142と、第2脚リンク144とを備えている。基体10と第1脚リンク142とは股関節141を介して連結され、第1脚リンク142と第2脚リンク144とは膝関節143を介して連結され、第2脚リンク144と足部15とは足関節145を介して連結されている。股関節141はロール、ピッチおよびロール軸回りの回動自由度を有し、膝関節143はピッチ軸回りの回動自由度を有し、足関節145はロールおよびピッチ軸回りの回動自由度を有している。
手部13は、手部掌部から延設され、人間の手部の親指、人差指、中指、薬指および小指のそれぞれに相当する5つの指機構131〜135を備えている。第1指機構131と、横並びの4つの指機構132〜135とが対向して配置されている。
第1指機構131は人間の手部の第1中手部骨、親指の基節および末節に相当する3つのリンク部材と、当該3つのリンク部材を覆う弾性カバーとを備えている。3つのリンク部材は手部掌部から順に人間の手部の第1中手部骨の基部側の関節、親指の中手部指節関節および指節間関節のそれぞれに相当する関節を介して連結されている。第1指機構131は手部掌部に収納されたモータから、減速機構等により構成される動力伝達機構を介して伝達される力に応じて各関節において屈曲しうる。モータから第1指機構131に伝達される動力は制御システム20によって制御される。
指機構132〜135は、たとえば特開2003−181787号公報に記載されている指機構と同様の構成とされ、また、それぞれがほぼ同様の構成とされている。たとえば、第5指機構135は、人間の手部の小指の基節、中節および末節のそれぞれに相当する3つのリンク部材と、当該3つのリンク部材を覆う弾性カバーとを備えている。3つのリンク部材は手部掌部から順に人間の手部の小指の中手部指節関節、近位指節間関節および遠位指節間関節のそれぞれに相当する関節を介して連結されている。第5指機構135は、動力源としてのモータ(図示略)から、動力伝達機構を介して伝達される動力に応じて、各関節において内側に曲がることができる。モータから第5指機構135に伝達される動力は、第1指機構131と同様に制御システム200によって制御される。
なお、指機構131〜135のうち、複数の指機構が共通の一のモータによって駆動されてもよく、本実施形態における第1指機構131のように一の指機構が一のモータによって駆動されてもよい。また、動力伝達機構は、前掲の特開2003−181787号公報に記載されているようにワイヤやプーリ等によって構成されてもよく、各指機構を屈伸運動させるようにモータの動力を伝達しうるあらゆる構成が採用されてもよい。
図2に示されている制御システム20はCPU、ROM、RAM、I/O等によって構成されている。制御システム20は頭カメラ102および腰カメラ101のそれぞれを通じて得られる画像、腕部12および脚部14等におけるロボット1の各関節角度を表すロータリーエンコーダ104からの出力、手部13に作用する力を検出するための6軸力センサ106からの出力等に基づき、アクチュエータ(または電動モータ)108の動作を制御することによりロボット1の動作を制御する。なお、制御システムはロボット1の内部ネットワークを通じて接続された主制御ユニットおよび一または複数の副制御ユニットより構成される分散制御システムであってもよい。
ロボット1に搭載されているコンピュータを制御システム20として機能させるための「制御プログラム」はメモリに予め格納されていてもよいが、ロボット1からの要求があった等の任意のタイミングでサーバからネットワークや人工衛星を介して当該コンピュータに配信(ダウンロード)または放送され、当該プログラム用のメモリに格納されてもよい。
制御システム20は第1処理部210と、第2処理部220と、第3処理部230とを備えている。第1処理部210、第2処理部220および第3処理部230は同一のCPUまたはプロセッサにより構成されていてもよく、異なるCPUまたはプロセッサにより構成されていてもよい。
第1処理部210はロボット1を基準とする第1物体W1および第2物体W2のそれぞれの相対位置および相対姿勢を認識する。具体的には、第1処理部210はロボット1の関節121、123、125、141、143、145等に設けられたロータリーエンコーダ104の出力、およびリンク122、124、142、144等の長さに基づいてロボット1(または基体10)の位置および姿勢を認識する。また、第1処理部210は頭カメラ102または腰カメラ101を通じて得られる画像信号等に基づき、ロボット1の把持対象である第1物体W1の位置および姿勢等を認識する。さらに、第1処理部210は頭カメラ102または腰カメラ101を通じて得られる画像信号等に基づき、第1物体W1が載置されている第2物体W2の位置および姿勢等を認識する。なお、頭カメラ102および腰カメラ101の代替センサあるいは追加センサ(補助センサ)としてミリ波レーダ、超音波センサ等、種々のセンサまたはこれらの組み合わせによって第1物体W1および第2物体W2のそれぞれの位置等が認識されてもよい。そのほか、データベースへの検索やGPSの利用によって、ロボット座標系における第1物体W1および第2物体W2のそれぞれの位置等が認識されてもよい。
第2処理部220は第1処理部210による認識結果に基づき、ロボット1が第1〜第5行動様式のそれぞれにしたがって行動しうる第1〜第5状態のうちいずれの状態にあるかを判定する。「第1行動様式」は腕部12等を動かす第1行動要素により、手部13で第1物体W1を把持する行動様式である。「第2行動様式」は第1行動要素により手部13によって第1物体W1の相対位置等を変化させる結果として、ロボット1を第2状態から第1状態に変化させる行動様式である。「第3行動様式」は基体10の位置等を変化させる第2行動要素により第1物体W1の相対位置等を変化させる結果として、ロボット1を第3状態から第1状態に変化させる行動様式である。「第4行動様式」は第2行動要素により第1物体W1の相対位置等を変化させる結果として、ロボット1を第4状態から第2状態に変化させる行動様式である。「第5行動様式」は第2行動要素およびこれに続く第1行動要素により第1物体W1の相対位置等を変化させる結果として、ロボット1を第5状態から第3または第4状態に変化させる行動様式である。
第3処理部230は第2処理部220による判定結果に基づき、第1〜第5行動様式のうちいずれか1つにしたがってロボット1の行動を制御する。
前記構成のロボット1の機能について説明する。具体的には、ロボット1がカート(第2物体)W2に載置された略台形状のトレイ(第1物体)W1を把持する機能について説明する。ロボット1がトレイW1を把持するとは、図11に示されているようにロボット1が左右の手部13によって、前方にあるトレイW1の両側を把持することを意味する。このとき、図12に示されているように第1指機構131はトレイW1の上方に位置し、他の指機構132〜135はトレイW1の下方に位置している。
まず、第1処理部210がロボット1を基準とするトレイW1の相対位置等を測定する「第1処理」を実行する(図3/S100)。本実施形態ではロボット1の重心やかかと位置(=左右のかかとの中間位置)等、静止座標系においてロボット1とともに移動するロボット座標系(X,Y,Z)の原点Oがロボット1の位置として定義されている。ロボット座標系においてトレイW1およびカートW2の位置が測定される場合、当該測定位置はただちにロボット1の位置を基準とする相対位置に該当するので、ロボット1の位置測定は省略される。その一方、ロボット1の位置が静止座標系において測定される場合、ロボット1の鉛直位置(床面からの高さ)はロータリーエンコーダ104の出力に基づく脚部14の各関節141、143、145の角度およびメモリから読み取られた第1脚リンク142および第2脚リンク144の長さ等に基づいて認識される。また、ロボット1の水平位置(緯度および経度)はGPS情報やジャイロセンサ(図示略)等のセンサの出力に基づいて認識される。
また、ロボット座標系における+X方向、+Y方向および+Z方向がロボット1の姿勢として定義されている。ロボット1の姿勢はロータリーエンコーダ104の出力に基づく各関節121、123、125、141、143、145の角度およびメモリから読み取られた設けられた各リンク122、124、142、144の長さ等に基づいて認識される。たとえば基体10の姿勢は、基体10の上部および下部の相対的な回動角度、およびジャイロセンサの出力に基づく当該回動軸の鉛直方向に対する傾斜角度に基づいて認識される。腕部12の姿勢は基体10の姿勢と、腕部12の肩関節121および肘関節123のそれぞれの角度と、第1腕リンク122および第2腕リンク124のそれぞれの長さとに基づいて認識される。手部13の姿勢は腕部12の姿勢と、手部根関節125の角度とに基づいて認識される。
トレイW1の形状およびサイズ、ならびにロボット1の位置および姿勢のそれぞれを基準とする、トレイW1の相対的な位置および姿勢が「第1物体状態」として認識される(図3/S110)。トレイW1の相対位置は、トレイW1に固定された第1物体座標系(X1,Y1,Z1)の原点O1のロボット座標系における位置として認識される(図1参照)。トレイW1の相対姿勢は、ロボット座標系の+X方向、+Y方向および+Z方向のそれぞれに対する、第1物体座標系の+X1方向、+Y1方向および+Z1方向のそれぞれの傾斜角度として認識される(図1参照)。
トレイW1の形状およびサイズはたとえば、サーバやデータベース等の外部情報源またはメモリ等の内部情報源から受信または読み取られることにより認識される。なお、頭カメラ102や腰カメラ101を通じて得られた画像に基づいてトレイW1の形状およびサイズが認識されてもよい。
トレイW1の相対位置および相対姿勢は頭カメラ102を通じて得られたトレイW1の画像解析に基づいて測定される。たとえば頭カメラ102を通じて得られたトレイW1の画像処理により図4に示されているようなグレースケール画像が得られる。この場合、ロボット座標系における頭カメラ102の位置と、当該画像における高輝度領域と低輝度領域との境界またはエッジ(図4では黒丸が付されている。)の位置および姿勢(傾き)ならびにトレイW1の形状およびサイズに基づき、トレイW1の相対位置および相対姿勢が認識される。なお、腰カメラ101を通じて得られた画像解析やサーバとの通信によりトレイW1の位置および姿勢が認識されてもよい。
また、カート(第2物体)W2の形状およびサイズ、ならびにロボット1の位置および姿勢のそれぞれを基準とする、カートW2の相対的な位置および姿勢が「第2物体状態」として認識される(図3/S120)。カートW2の相対位置はカートW2に固定された第2物体座標系(X2,Y2,Z2)の原点O2のロボット座標系における位置として認識される(図1参照)。カートW2の相対姿勢はロボット座標系の+X方向、+Y方向および+Z方向のそれぞれに対する、第2物体座標系の+X2方向、+Y2方向および+Z2方向のそれぞれの傾斜角度として認識される(図1参照)。
カートW2の形状およびサイズはサーバやデータベース等の外部情報源またはメモリ等の内部情報源から受信または読み取られることにより認識される。なお、頭カメラ102や腰カメラ101を通じて得られた画像に基づいてカートW2の形状およびサイズが認識されてもよい。
カートW2の相対位置および相対姿勢は腰カメラ101を通じて得られた、図1に示されているカートW2に付されたマークM1〜M4の画像解析により認識される。図5に示されているようにマークM1〜M4はカートW2の4本の支柱に取り付けられた4枚の板に近赤外線を反射する3つのドットより構成されている。腰カメラ101により得られた画像が2値化処理されることで、当該2値化画像においてはマークM1〜M4を構成するドットのみが高輝度領域として認識される。ロボット座標系における腰カメラ101の位置と、マークM1〜M4の画像における位置と、メモリから読み取られた第2物体座標系におけるマークM1〜M4の位置とに基づき、カートW2の位置および姿勢が認識される。マークM1〜M4が識別されうるように、各マークM1〜M4を構成する3つの点の配置パターンが差別化されていてもよい。なお、頭カメラ102を通じて得られたカートW2の画像解析やサーバとの通信によってカートW2の相対位置および相対姿勢が認識されてもよい。
続いて、第2処理部220が第1処理部210による測定結果に基づき、ロボット1の状態を判定する「第2処理」を実行する(図3/S200)。第2処理の実行に際して、第1処理部210による測定結果に基づいて次に説明する領域が設定される。以下、説明の簡単のため、ロボット座標系の+Z方向および第1物体座標系の+Z1方向が平行である場合を考える。この場合、たとえばトレイW1の相対姿勢は、ロボット座標系における+Y方向および第1+Y1方向の姿勢角度θにより表現される(図6参照)。
まず、第1動作領域A1、第2動作領域A2および動作陰領域AHついて図6を用いて説明する。
第1動作領域A1はそこに第1物体W1が存在する場合、ロボット1が「第1行動様式」にしたがって、その場で腕部12等を動かす第1行動要素により、手部13でトレイW1を把持しうる領域を意味する。「その場で」とは「ロボット1が脚部14を動かしてその位置または位置および姿勢を変化させることなく」ということを意味する。第1動作領域A1の形状および広狭はトレイW1の相対姿勢に応じて変化する。これは、ロボット1がトレイW1を把持する際のトレイW1の相対姿勢が予め設定されているからである(図12参照)。
たとえば、姿勢角度θが0°である場合、図6(a)に示されているようにロボット1(丸印で簡略的に表現されている。)の前方(+Y方向)に位置する略半楕円形状の領域が第1動作領域A1として設定される。略半楕円形状の第1動作領域A1の長径部分はロボット座標系におけるXZ平面(またはロボット1の基本前額面)に平行である。第1動作領域A1は姿勢角度θが0°から増加するにつれて外郭が中心に近づくように収縮し、姿勢角度θが第1閾値θ1を超えると消滅する。たとえばθ=15°(<θ1)である場合、図6(b)に示されているようにθ=0°の場合と比較して狭い第1動作領域A1が設定される。また、θ=30°(>θ1)である場合、図6(c)に示されているように有形の第1動作領域A1は設定されない。
第2動作領域A2はそこに第1物体W1が存在する場合、ロボット1が「第2行動様式」にしたがって、その場で腕部12等を動かす第1行動要素により、手部13でトレイW1の相対位置等を変化させうる領域を意味する。第2動作領域A2の形状および広狭は第1動作領域A1と同様にトレイW1の相対姿勢に応じて変化する。
たとえば、姿勢角度θが0°である場合、図6(a)に示されているように略半楕円形状の第1動作領域A1の弧部分に全体的に外接する略半環状または馬蹄形状の領域が第2動作領域A2として設定される。第2動作領域A2は第1動作領域A1と同様に姿勢角度θが0°から増加するにつれてその外郭が第1動作領域A1の中心に近づくように収縮し、角度θが第2閾値θ2を超えると消滅する。たとえばθ=15°である場合、図6(b)に示されているようにθ=0°の場合と比較して狭い略馬蹄形状の第2動作領域A2が設定される。また、θ=30°である場合、図6(c)に示されているように略半楕円形状の第2動作領域A2が設定される。さらに、θが第2閾値θ2を超えた場合、有形の第2動作領域A2は設定されない。ロボット1から見て第2動作領域A2が第1動作領域A1よりも外側にあるのは、ロボット1がトレイW1を把持するために両方の手部13を届かせることができる範囲が、トレイW1を押したり引いたりするために左右いずれか一方の手部13を届かせることができる範囲よりも狭いためである。
動作陰領域AHは図6(d)に示されているようにロボット1(ロボット座標系の原点O)から見てハンドル(線分)Hの陰になる領域(斜線部分)を意味する。第1動作領域A1から動作陰領域AHとの重なり領域を除いた領域(=A1−(A1∩AH)が最終的な第1動作領域A1として設定される。同様に、第2動作領域A2から動作陰領域AHとの重なり領域を除いた領域(=A2−(A2∩AH)が最終的な第2動作領域A2として設定される。
続いて、進入禁止領域B0、第1基準領域B1、第2基準領域B2、第3基準領域B3および基準陰領域BHについて図7を用いて説明する。
進入禁止領域B0はそこにロボット1が存在する場合、ロボット1がカートW2との接触を回避しながらトレイW1を把持するまたは手部13によってトレイW1の相対位置等を変化させることができない領域を意味する。たとえば、図7に示されているようにカートW2を囲う領域(2点鎖線で囲まれている領域)が進入禁止領域B0として設定される。
第1基準領域B1はロボット1がそこに存在する場合、ロボット1がその場でトレイW1を把持しうる領域を意味する。たとえば、図7に示されているようにトレイW1の後方(−Y1方向)に位置する略半楕円形状の領域が第1基準領域B1として設定される。略半楕円形状の第1基準領域B1の長径部分は第1物体座標系におけるX1Z1平面に平行である。
第2基準領域B2はロボット1がそこに存在する場合、ロボット1がその場で手部13によってトレイW1の相対位置等を変化させることができる領域を意味する。たとえば図7に示されているように第1基準領域B1の弧部分に全体的に外接する略半環状または馬蹄形状の領域が第2基準領域B2として設定される。トレイW1から見て第2基準領域B2が第1基準領域B1よりも外側にあるのは、ロボット1がトレイW1に比較的近くないとこのトレイW1を把持することができない一方、ロボット1がトレイW1から比較的遠くてもこのトレイW1を押したり引いたりすることができるからである。
第3基準領域B3はロボット1が存在する場合、ロボット1がその場で手部13によってトレイW1の相対位置等を変化させ、その後、適当な場所に移動することによってトレイW1を把持すること等ができる領域を意味する。たとえば図7に示されているように第1基準領域B1および第2基準領域B2の複合領域B1+B2に対して、トレイW1を基準として鏡映対称な略楕円形状の領域が第3基準領域B3として設定される。
基準陰領域BHは図7に示されているようにトレイW1(第1物体座標系の原点O1)から見てハンドル(線分)Hの陰になっている領域(斜線部分)を意味する。そして、第1基準領域B1から基準陰領域BHとの重なり領域を除いた領域(=B1−(B1∩BH))が最終的な第1基準領域B1として設定される。また、第2基準領域B2から基準陰領域BHとの重なり領域を除いた領域(=B2−(B2∩BH))が最終的な第2基準領域B2として設定される。さらに、第3基準領域B3から基準陰領域BHとの重なり領域を除いた領域(=B3−(B3∩BH))が最終的に第3基準領域B3として認識される。なお、第1基準領域B1、第2基準領域B2および第3基準領域B3のそれぞれが、第1動作領域A1および第2動作領域A2と同様に、ロボット1を基準とするトレイW1の相対姿勢に応じて可変的に設定されてもよい。
ここで図3のフローチャートに戻って第2処理の詳細について説明する。
まず、ロボット1が第1行動様式にしたがって行動することができる「第1状態」にあるか否かが判定される(図3/S210)。具体的には、第1物体W1(=第1物体座標系の原点O1)が第1動作領域A1に存在するか否かが判定される。「第1行動様式」はロボット1がその場で腕部12等を動かして手部13でトレイW1を把持する行動様式を意味する。
ロボット1が「第1状態」にある、すなわち、図8(a)に示されているようにトレイW1が第1動作領域A1に存在すると判定された場合(図3/S210‥YES)、ロボット1の状態を表すフラグfが「1」に設定される(図3/S261)。
ロボット1が第1状態にないと判定された場合(図3/S210‥NO)、ロボット1が第2行動様式にしたがって行動することができる「第2状態」にあるか否かが判定される(図3/S220)。具体的には、第1物体W1が第2動作領域A2に存在するか否かが判定される。「第2行動様式」はロボット1がその場で腕部12等を動かすことにより第1物体W1の相対位置等を変化させた結果として、ロボット1を第1状態に変化させる行動様式を意味する。
また、ロボット1が「第2状態」にある、すなわち、図8(b)に示されているようにトレイW1が第2動作領域A2に存在すると判定された場合(図3/S220‥YES)、ロボット1が第3行動様式にしたがって行動しうる「第3状態」にあるか否かが判定される(図3/S222)。具体的には「第1進入条件」が満たされているか否かが判定される。第1進入条件は、第1基準領域B1(またはB1−(B1∩BH))の少なくとも一部が進入禁止領域B0からはみ出ているという条件である。「第3行動様式」はロボット1が移動することにより第1物体W1の相対位置等を変化させた結果、ロボット1を第1状態に変化させる行動様式を意味する。
ロボット1が「第3状態」にない、すなわち、第1基準領域B1の全部が進入禁止領域B0に包含されていると判定された場合(図3/S222‥NO)、ロボット1の状態を表すフラグfが「2」に設定される(図3/S262)。
ロボット1が「第3状態」にある、すなわち、図9(a)に示されているように第1基準領域B1の少なくとも一部が進入禁止領域B0からはみ出ていると判定された場合(図3/S222‥YES)、第1コストE1が第2コストE2以下であるか否かが判定される(図3/S224)。なお、図9(a)では第2基準領域B2は、基準陰領域BH(図7参照)によって一部が切りかかれた馬蹄形状になっている。
第1コストE1はロボット1が第2行動様式にしたがってその場で腕部12等を動かして手部13でトレイW1の相対位置等を変化させることにより、ロボット1を第2状態から第1状態に変化させるために要する時間またはエネルギーのうち一方または両方を表す指数である。第1コストE1は、たとえば手部13によりトレイW1の相対位置等が複数回にわたって修正される場合、当該修正のための手部13の1回当たりの動作時間t1、相対位置の修正量d1、相対位置の1回当たりの修正量δd1、相対姿勢(姿勢角度)の修正量θ1、および相対姿勢の1回当たりの修正量δθ1に基づき、次式(1)にしたがって評価される。
E1=(mod(d1/δd1)+mod(θ1/δθ1))・t1 ‥(1)
第2コストE2はロボット1が第3行動様式にしたがって移動することにより、ロボット1を第3状態から第1状態に変化させるために要する時間またはエネルギーのうち一方または両方を表す指数である。第2コストE2は、たとえば脚部14の動きによりトレイW1の相対位置等が複数回にわたって修正される場合、当該修正のための脚部14の1回または1歩当たりの動作時間t2、相対位置の修正量d2、相対位置の1回当たりの修正量δd2、相対姿勢(姿勢角度)の修正量θ2、および相対姿勢の1回当たりの修正量δθ2に基づき、次式(2)にしたがって評価される。
E2=(mod(d2/δd2)+mod(θ2/δθ2))・t2 ‥(2)
第1コストE1が第2コストE2以下であると判定された場合(図3/S224‥YES)、フラグfが「2」に設定される(図3/S262)。一方、第1コストE1が第2コストE2を超えていると判定された場合(図3/S224‥NO)、フラグfが「3」に設定される(図3/S263)。
さらに、ロボット1が「第2状態」にない、すなわち、図8(c)に示されているようにトレイW1が第1動作領域A1および第2動作領域A2のいずれにも存在していないと判定された場合(図3/S220‥NO)、ロボット1が第3行動様式にしたがって行動しうる「第3状態」にあるか否かが前記と同様の手部法により判定される(図3/S230)。ロボット1が「第3状態」にあると判定された場合(図3/S230‥YES)、フラグfが「3」に設定される(図3/S263)。
ロボット1が「第3状態」にないと判定された場合(図3/S230‥NO)、ロボット1が第4行動様式にしたがって行動しうる「第4状態」にあるか否かが判定される(図3/S240)。具体的には「第2進入条件」が満たされているか否かが判定される。第2進入条件は、第1基準領域B1の全部が進入禁止領域B0に包含されている一方、第2基準領域B2(またはB2−(B2∩BH))の少なくとも一部が進入禁止領域B0からはみ出ているという条件である。「第4行動様式」はロボット1が移動することにより第1物体W1の相対位置等を変化させた結果、ロボット1を第2状態に変化させる行動様式を意味する。
ロボット1が「第4状態」にある、すなわち、図9(b)に示されているように第2基準領域B2の少なくとも一部が進入禁止領域B0からはみ出ていると判定された場合(図3/S240‥YES)、フラグfが「4」に設定される(図3/S264)。
ロボット1が「第4状態」にない、すなわち、第1基準領域B1および第2基準領域B2のそれぞれの全部が進入禁止領域B0に包含されていると判定された場合(図3/S240‥NO)、ロボット1が第5行動様式にしたがって行動しうる「第5状態」にあるか否かが判定される(図3/S250)。具体的には「第3進入条件」が満たされているか否かが判定される。第3進入条件は、第1基準領域B1および第2基準領域B2のそれぞれの全部が進入禁止領域B0に包含される一方、第3基準領域B3の少なくとも一部が進入禁止領域B0からはみ出ているという条件である。「第5行動様式」はロボット1がその場で腕部12等を動かすことにより手部13でトレイW1の相対位置等を変化させた結果、ロボット1を第3または第4状態に変化させる行動様式を意味する。
ロボット1が「第5状態」にある、すなわち、図9(c)に示されているように第1基準領域B1および第2基準領域B2のそれぞれの全部が進入禁止領域B0に包含される一方、第3基準領域B3の少なくとも一部が進入禁止領域B0からはみ出ていると判定された場合(図3/S250‥YES)、フラグfが「5」に設定される(図3/S265)。
一方、ロボット1が「第5状態」にない、すなわち、図9(d)に示されているように基準領域B1〜B3のそれぞれの全部が進入禁止領域B0に包含されると判定された場合(図3/S250‥NO)、フラグfが「6」に設定される(図3/S266)。なお、図9(d)に示されている状態では第3基準領域B3は基準陰領域BHに完全に重なっているため実質的には設定されていない(図7参照)。
次に、第3処理部230が第2処理部220による判定結果に基づいてロボット1の行動を制御する「第3処理」を実行する(図3/S300)。まず、ロボット1の状態を示すフラグfが識別される(図3/S302)。
f=1の場合、「第1行動様式」にしたがってロボット1の行動が制御される(図3/S310)。これにより、ロボット1が移動せずにその場で腕部12等を動かすことにより、図11および図12に示されているように左右の手部13によってトレイW1を把持する。そして、ロボット1がトレイW1を把持するための一連の処理が終了する。
f=2の場合、「第2行動様式」にしたがってロボット1の行動が制御される(図3/S320)。これにより、ロボット1が移動せずにその場で腕部12等を動かすことにより、手部13によってトレイW1の相対位置等を変化させる結果として、ロボット1を第2状態から第1状態に変化させる。具体的には、トレイW1の相対位置および相対姿勢のそれぞれが目標位置および目標姿勢に一致するように調節される。たとえば、姿勢角度θ(図6(a)〜(c)参照)が可能な限り小さくなるような姿勢がトレイW1の目標姿勢として設定される。また、第1動作領域A1(図6(a)参照)において、カートW2におけるトレイW1の載置領域AW(図6(d)参照)の縁部分に一致するまたは最も近接する位置がトレイW1の目標位置として設定される。
f=3の場合、「第3行動様式」にしたがってロボット1の行動が制御される(図3/S330)。これにより、ロボット1が移動することによりトレイW1の相対位置等を変化させた結果として、ロボット1を第3状態から第1状態に変化させる。具体的には、図9(a)に示されている第1基準領域B1における進入禁止領域B0からのはみ出し部分(斜線部分)にロボット1が移動する。
f=4の場合、「第4行動様式」にしたがってロボット1の行動が制御される(図3/S340)。これにより、ロボット1が移動することによりトレイW1の相対位置等を変化させた結果として、ロボット1を第4状態から第2状態に変化させる。具体的には、図9(b)に示されている第2基準領域B2における進入禁止領域B0からのはみ出し部分(斜線部分)にロボット1が移動する。
f=5の場合、「第5行動様式」にしたがってロボット1の行動が制御される(図3/S350)。これにより、ロボット1が移動することによりトレイW1の相対位置等を変化させた結果として、ロボット1を第5状態から第3または第4状態に変化させる。具体的には、図9(c)に示されている第3基準領域B3における進入禁止領域B0からのはみ出し部分(斜線部分)にロボット1が移動する。その上で、ロボット1がその場で、図9(a)または図9(b)に示されている状態が実現されるように腕部12等を動かすことにより手部13でトレイW1の相対位置等を変化させる。
ロボット1が第5行動様式にしたがって行動するときのトレイW1の目標位置および目標姿勢を設定するため、第1処理部210による測定結果に基づき、第3動作領域A3と、カートW2におけるトレイW1の載置領域AWとが設定される。第3動作領域A3はロボット1がその場で手部13を届かせることができる領域を意味する。たとえば図10(a)に示されているようにロボット1の前方に位置する略半楕円形状の領域が第3動作領域A3として設定される。略半楕円形状の第3動作領域A3はその長径部分がロボット座標系におけるXZ平面に平行な線分として表現される。なお、第3動作領域A3も第1動作領域A1および第2動作領域A2と同様に動作陰領域AHとの重なり領域(図6(d)の斜線部分参照)が除外された領域が最終的な第3動作領域A3として設定される。
第3動作領域A3において、載置領域AWの4つの辺のうち第3動作領域A3に交差も接触もしていない辺との距離が最短となる点(境界上の点)の位置が目標位置候補TPC1およびTPC2として設定される(図10(a)参照)。また、載置領域AWの4つの辺のうち第3動作領域A3に交差または接触している辺においてトレイW1との距離が最短となり、かつ、第3動作領域A3に含まれる点の位置が目標位置候補TPC3およびTPC4として設定される(図10(a)参照)。そして、当該目標位置候補TPC1〜TPC4のうち、たとえばトレイW1の姿勢変化量(角度θの変化量)が最小となる候補が目標位置として設定される。これにより、たとえば図10(b)に示されているトレイW1の位置(=図10(a)における目標位置候補TPC1)が目標位置として設定される。
また、載置領域AWの4つの辺のうち、トレイW1の目標位置から最も近い辺に対して第1物体座標系(図1参照)のY1Z1平面が垂直になり、かつ、−Y1方向がカートW2の外側に向く姿勢がトレイW1の目標姿勢として設定される。これにより、たとえば図10(b)に示されているトレイW1の姿勢が目標姿勢として設定される。
f=6の場合、ロボット1は第1〜第5行動様式のいずれかにしたがった行動が禁止され、かつ、ロボット1が第1〜第5状態のいずれでもないことを外部に報知するようにその行動が制御される(図3/S360)。たとえばロボット1が有するスピーカ(図示略)から音声が出力され、またはロボット1が有するLED等(図示略)が点滅する等の形態によって、ロボット1が第1〜第5状態のいずれにもないことが報知される。
前記機能を発揮するロボット1によれば、ロボット1が「第1状態」にあると判定された場合、ロボット1の行動が「第1行動様式」にしたがって制御される(図3/S210‥YES,S310参照)。トレイW1がロボット1の位置および姿勢に基づいて定まる第1動作領域A1に存在する場合、当該ロボット1が第1状態にあると判定される。これにより、ロボット1が移動せずにその場で腕部12等を動かすことによって図11および図12に示されているように両方の手部13でトレイ(第1物体)W1を把持することができる。また、動作陰領域AHとの重なり領域が第1動作領域A1から適宜削除されることで(図6(d)参照)、ロボット1がその場でトレイW1を把持するために腕部12等を動かすときに、腕部12等がハンドルHに接触することが回避される。
一方、ロボット1が第1状態にないと判定された場合、ロボットが第1行動様式とは異なる行動様式で行動することにより、ロボットを基準とするトレイW1の相対位置等を変化させる結果として、ロボット1を第1状態に変化させることができる(図3/S210‥NO,S320〜S350参照)。
具体的には、ロボット1が「第2状態」にあると判定された場合、ロボット1の行動が「第2行動様式」にしたがって制御される(図3/S220‥YES,S320参照)。これにより、ロボット1が図13に示されているようにその場で腕部12等を動かすことによって手部13でトレイW1の相対位置等を調節する結果として、ロボット1を第2状態から第1状態に変化させることができる。たとえば、手部13によるトレイW1の相対姿勢の変更により、第1動作領域A1を出現させまたは拡張することができる(図6(a)〜(c)参照)。さらに、手部13によるトレイW1の相対位置の変更により、トレイW1が第1動作領域A1に含まれている状態を実現することができる(図8(a)〜(c)参照)。そして、ロボット1が第1行動様式にしたがってその場で腕部12等を動かすことによって、両方の手部13でトレイW1を把持することができる(図11参照)。また、動作陰領域AHとの重なり領域が第2動作領域A2から適宜削除されることで(図6(d)参照)、ロボット1がその場でトレイW1の相対位置等を手部13で変化させるために腕部12等を動かすときに、腕部12等がハンドルHに接触することが回避される。
また、ロボット1が「第3状態」にあると判定された場合、ロボット1の行動が「第3行動様式」にしたがって制御される(図3/S230‥YES,S330参照)。これにより、図14に示されているようにロボット1が進入禁止領域B0への進入を回避しながら、第1基準領域B1における進入禁止領域B0からのはみ出し領域(=B1−(B0∩B1))に移動する(図9(a)斜線部分参照)。ロボット1が移動することによりトレイW1の相対位置等を調節する結果として、ロボット1を第3状態から第1状態に変化させることができる。たとえば、ロボット1の移動によるトレイW1の相対姿勢の変更により、第1動作領域A1を出現させまたは拡張することができる(図6(a)〜(c)参照)。また、ロボット1の移動によるトレイW1の相対位置の変更により、トレイW1が第1動作領域A1に含まれている状態を実現することができる(図8(a)〜(c)参照)。すなわち、ロボット1がその場で腕部12等を動かすことによって両方の手部13でトレイW1を把持することができる(図11参照)。また、基準陰領域BHとの重なり領域が第1基準領域B1から適宜削除されることで(図7参照)、ロボット1が移動したにもかかわらず、その場でトレイW1を把持するために腕部12等を動かすときにハンドルHが邪魔になる事態が回避される。
さらに、ロボット1が「第4状態」にあると判定された場合、ロボット1の行動が「第4行動様式」にしたがって制御される(図3/S240‥YES,S340参照)。これにより、ロボット1が進入禁止領域B0への侵入を回避しながら第2基準領域B2における進入禁止領域B0からのはみ出し領域(=B2−(B0∩B2))に移動することができる(図9(b)斜線部分参照)。ロボット1が移動することによりトレイW1の相対位置等を調節する結果として、ロボット1を第4状態から第2状態に変化させることができる。たとえば、ロボット1の移動によるトレイW1の相対姿勢の変更により、第2動作領域A2を出現させまたは拡張することができる(図6(a)〜(c)参照)。また、ロボット1の移動によるトレイW1の相対位置の変更により、トレイW1が第2動作領域A2に含まれている状態を実現することができる(図8(a)〜(c)参照)。さらに、基準陰領域BHとの重なり領域が第2基準領域B2から適宜削除されることで(図7参照)、ロボット1が移動したにもかかわらず、その場でトレイW1の相対位置等を変化させるために腕部12等を動かすときにハンドルHが邪魔になる事態が回避される。
その上で、ロボット1がその場で腕部12等を動かすことによって手部13でトレイW1の相対位置等を変化させることで、ロボット1を第2状態から第1状態に変化させることができる(図13参照)。そして、ロボット1がその場で腕部12等を動かすことによって手部13でトレイW1を把持することができる(図11参照)。
さらに、ロボット1が「第5状態」にあると判定された場合、ロボット1の行動が「第5行動様式」にしたがって制御される(図3/S240‥NO,S250‥YES,S350)。これにより、ロボット1が進入禁止領域B0への進入を回避しながら第3基準領域B3における進入禁止領域B0からのはみ出し領域(=B3−(B0∩B3))に移動する(図9(c)斜線部分、図14参照)。さらに、ロボット1が当該移動先で腕部12等を動かすことによって図15(a)に示されているように手部13でトレイW1を押す等、トレイW1の相対位置等を調節する結果として、ロボット1を第5状態から第3状態または第4状態に変化させることができる。また、基準陰領域BHとの重なり領域が第3基準領域B3から適宜削除されることで(図7参照)、ロボット1が移動したにもかかわらず、その場でトレイW1の相対位置等を変化させるために腕部12等を動かすときにハンドルHが邪魔になる事態が回避される。
その上で、ロボット1が図15(b)に示されているように移動することによってトレイW1の相対位置等を調節する結果として、ロボット1を第3状態から第1状態に変化させ、あるいはロボット1を第4状態から第2状態、さらには第2状態から第1状態に変化させることができる。そして、ロボット1がその場で腕部12等を動かすことによって手部13でトレイW1を把持することができる(図11参照)。
また、ロボット1が第1、第2、第3、第4および第5状態のいずれでもない状態にあると判定されたことを要件として、第1、第2、第3、第4および第5行動様式にしたがったロボット1の行動が禁止される(図3/S260‥YES,S360)。すなわち、ロボット1がトレイW1を把持することが極めて困難である場合、トレイW1を把持するための行動を停止させることができる。また、最終的にW1を把持しうるように行動することが極めて困難であることを周囲の人間に知らせることによって、当該人間にトレイW1の位置や姿勢の変更等の対応措置をとらせることができる。
なお、ロボット1の把持対象である「第1物体」がトレイW1のほか、書類、食器、果物、電話機等、さまざまな物体であってもよい。また「第2物体」がカートW2のほか、雑誌、野菜、ラジオ等、さまざまな物体であってもよい。さらに、第1物体(トレイ)W1が第2物体(カート)W2に載置されている状態で第1物体W1が把持されるほか、第1物体W1から離反して第2物体W2が存在する状態で第1物体W1が把持されてもよく、第1物体W1の周囲に第2物体W2が存在しない状態で第1物体W1が把持されてもよい。
ロボット1は複数の脚部14の動きにより移動したが、そのほか、ロボット1が車輪を有する場合にはその車輪を回転させること等によって移動してもよい。
第2状態および第3状態が競合するか否かが判定され、当該判定結果が高低的な場合にはコスト比較によって行動様式が選択された(図3/S220,S222,S224参照)。他の実施形態として当該判定(図3/S222参照)およびコスト比較(図3/S224参照)が省略され、第2行動様式が第3行動様式よりも常に優先的に選択されてもよい。また、第3行動様式が第2行動様式よりも常に優先的に選択されてもよい(図3におけるS220およびS230の先後交換)。
さらに、第1物体W1およびこれが載置されている第2物体W2のそれぞれの移動度または動きやすさに偏向性がある状況において、当該偏向性が考慮された上でロボット1の行動が制御されてもよい。すなわち、第1処理部210により第1物体W1の移動度が第1閾値未満の「第1難方向」および第1物体W1の移動度が第1閾値以上の「第1易方向」が認識される。また、第1処理部210により第2物体W2の移動度が第2閾値未満の「第2難方向」および第2物体W2の移動度が第2閾値以上の「第2易方向」が認識される。さらに、第2処理部220により第1物体W1の把持に際して手部13から第1物体W1に第1難方向、第2難方向、または第1難方向および第2難方向の重なる方向に力を作用させるような第1行動様式に基づき、ロボット1が第1状態にあるか否かが判定される。また、第2処理部220により手部13による第1物体W1の相対位置等の変化に際して手部13から第1物体W1に第1易方向、第2易方向、または第1易方向および第2易方向の重なる方向に力を作用させるような第2行動様式に基づき、ロボット1が第2状態にあるか否かが判定される。
当該構成のロボット1によれば、ロボット1が第1状態にあると判定された場合、手部13によって第1物体W1に第1難方向、第2難方向および第1および第2難方向の重なり方向の力を作用させながら第1物体W1が把持されうる。このため、ロボット1が第1物体W1を把持するために第1行動様式にしたがって行動しているときに、第1物体W1または第2物体W2のそれぞれの位置または姿勢の変化によって、第1物体W1の相対位置等が、ロボット1がその場で第1物体W1を把持できなくなる程度に大きく変動する事態が回避される。
また、ロボット1が第2状態にあると判定された場合、手部13によって第1物体W1に第1易方向、第2易方向、または第1易方向および第2易方向の重なる方向の力を作用させながら第1物体W1の位置等が調節されうる。このため、ロボット1が第2行動様式にしたがって行動することにより、第1物体W1または第2物体W2のそれぞれの位置または姿勢を容易に変化させる結果、第1物体W1の相対位置等を容易に調節することができる。
さらに、第1処理部210が手部13に設けられた6軸力センサ106の出力に基づいて第1物体W1の把持の成否を判定し、第3処理部230が第1処理部210により第1物体W1の把持が失敗したと判定されたことを要件として、ロボット1の動作を停止させてもよい。これにより、たとえばロボット1が第1物体W1を把持しうるような状況変化を待つことができる。また、第1物体W1の把持のためにロボット1を動かすための電力等のエネルギーが無駄に消費される事態を回避することができる。
本発明のロボットの構成説明図 本発明のロボットの制御システムの構成説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図 本発明のロボットの機能説明図
1‥ロボット、10‥基体、11‥頭部、12‥腕部、13‥手部、14‥脚部、20‥制御システム、101‥頭カメラ、102‥腰カメラ、104‥ロータリーエンコーダ、106‥6軸力センサ、108‥アクチュエータ、20‥制御システム、210‥第1処理部、220‥第2処理部、230‥第3処理部、W1‥トレイ(第1物体)、W2‥カート(第2物体)

Claims (30)

  1. 基体と、前記基体から延設された腕部と、前記腕部の先端部に設けられている手部とを備えているロボットであって、前記ロボットの行動を制御する制御システムを備え、
    前記制御システムが第1処理部と、第2処理部と、第3処理部とを備え、
    前記第1処理部が前記基体を基準とする第1物体の相対位置および相対姿勢を認識し、前記第1物体の移動度に偏向性がある状況では前記第1物体の相対姿勢に基づいて当該第1物体の移動度が閾値未満の第1難方向をさらに認識し、あるいは、第1物体および当該第1物体が載置されている第2物体のそれぞれの前記基体を基準とする相対位置および相対姿勢を認識し、前記第2物体の移動度に偏向性がある状況では前記第2物体の相対姿勢に基づいて当該第2物体の移動度が閾値未満の第2難方向をさらに認識し、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢ならびに前記第1難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に前記第1難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、あるいは、前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢ならびに前記第2難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に対して前記第2難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、前記第1行動様式は前記ロボットが移動せずにその場で前記腕部および前記手部のうち少なくとも一方を動かす第1行動要素により、前記手部で前記第1物体を把持する行動様式であり、
    前記第2処理部によって前記ロボットが前記第1状態にあると判定されたことを要件として、前記第3処理部が前記第1行動様式にしたがって前記ロボットの行動を制御する一方、前記第2処理部によって前記ロボットが前記第1状態にないと判定されたことを要件として、前記第3処理部が前記第1物体の相対位置および相対姿勢のうち一方または両方が変化するように前記第1行動様式とは異なる行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  2. 請求項1記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記ロボットが第2行動様式にしたがって行動しうる第2状態にあるか否かをさらに判定し、前記第2行動様式は前記第1行動要素により前記手部によって前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第2状態から前記第1状態に変化させる行動様式であり、
    前記第2処理部により前記ロボットが前記第2状態にあると判定されたことを要件として、前記第3処理部が前記第2行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  3. 請求項2記載のロボットにおいて、
    前記ロボットの進入禁止領域が存在する状況において前記第1処理部が前記進入禁止領域をさらに認識し、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域をさらに含む認識結果に基づき、前記ロボットが第3行動様式にしたがって行動しうる第3状態にあるか否かをさらに判定し、前記第3行動様式は前記ロボットが移動する第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第3状態から前記第1状態に変化させる行動様式であり、
    前記第2処理部により前記ロボットが前記第3状態にあると判定されたことを要件として、前記第3処理部が前記第3行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  4. 請求項3記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第4行動様式にしたがって行動しうる第4状態にあるか否かをさらに判定し、前記第4行動様式は前記第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第4状態から前記第2状態に変化させる行動様式であり、
    前記第2処理部により前記ロボットが前記第4状態にあると判定されたことを要件として、前記第3処理部が前記第4行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  5. 請求項4記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第5行動様式にしたがって行動しうる第5状態にあるか否かをさらに判定し、前記第5行動様式は前記第2行動要素およびこれに続く前記第1行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第5状態から前記第3または第4状態に変化させる行動様式であり、
    前記第2処理部により前記ロボットが前記第5状態にあると判定されたことを要件として、前記第3処理部が前記第5行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  6. 請求項5記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあるか否かを判定し、
    前記第3処理部が前記第2処理部により前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあると判定されたことを要件として、前記第1、第2、第3、第4および第5行動様式にしたがった前記ロボットの行動を禁止することを特徴とするロボット。
  7. 請求項1記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記第1物体が第1動作領域に含まれているか否かを判定することにより、前記ロボットが前記第1状態にあるか否かを判定し、
    前記第1動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とするロボット。
  8. 請求項7記載のロボットにおいて、
    前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記ロボットから見て前記第2物体の前記特定部分の陰となる動作陰領域を認識し、前記動作陰領域との重なり領域が除かれた前記第1動作領域に基づいて前記ロボットが前記第1状態にあるか否かを判定することを特徴とするロボット。
  9. 請求項2記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記第1物体が第2動作領域に含まれているか否かを判定することにより、前記ロボットが前記第2状態にあるか否かを判定し、
    前記第2動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在することにより前記ロボットが前記第1行動要素により前記手部によって前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記第1物体を前記第2動作領域から前記第1動作領域に移動させることができる領域であり、
    前記第1動作領域は前記第1物体の相対姿勢に応じてその形状および広狭が変化し、かつ、前記第1物体が当該領域に存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とするロボット。
  10. 請求項9記載のロボットにおいて、
    前記手部が前記第1物体に接近しうる方向が前記第2物体の特定部分によって制限されている状況において、前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記ロボットから見て前記第2物体の前記特定部分の陰となる動作陰領域を認識し、前記動作陰領域との重なり領域が除かれた前記第1および第2動作領域に基づいて前記ロボットが前記第2状態にあるか否かを判定することを特徴とするロボット。
  11. 請求項3記載のロボットにおいて、
    前記第2処理部が、前記ロボットが前記第2および第3状態の両方にあると判定したことを要件として、前記第2および第3行動様式のうち、前記ロボットを前記第1状態に変化させるために要する時間およびエネルギーのうち一方または両方の節約の観点から行動様式を選択し、
    前記第3処理部が前記第2および第3行動様式のうち、前記第2処理部により選択された行動計画にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  12. 請求項11記載のロボットにおいて、
    前記第2処理部により前記ロボットが前記第2状態にない一方、前記第3状態にあると判定されたことを要件として、前記第3行動様式にしたがって前記ロボットの行動を制御することを特徴とするロボット。
  13. 請求項3記載のロボットにおいて、
    前記第1処理部が、前記第1物体が載置されている前記第2物体を取り囲む領域を前記進入禁止領域として認識することを特徴とするロボット。
  14. 請求項3記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、第1進入条件が満たされているか否かを判定することによって前記ロボットが前記第3状態にあるか否かを判定し、
    前記第1進入条件は第1基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、
    前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であることを特徴とするロボット。
  15. 請求項14記載のロボットにおいて、
    前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた前記第1基準領域に基づいて前記第1進入条件が満たされているか否かを判定することを特徴とするロボット。
  16. 請求項4記載のロボットにおいて、
    前記第2処理部が前記第1処理部による認識結果であって前記進入禁止領域を含む認識結果に基づき、第2進入条件が満たされているか否かを判定することによって前記ロボットが前記第4状態にあるか否かを判定し、
    前記第2進入条件は第1基準領域の全部が前記進入禁止領域に含まれる一方、第2基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、
    前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であり、前記第2基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第2状態から前記第1状態に変化させることができる領域であることを特徴とするロボット。
  17. 請求項16記載のロボットにおいて、
    前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた、前記第1および第2基準領域に基づいて前記第2進入条件が満たされているか否かを判定することを特徴とするロボット。
  18. 請求項5記載のロボットにおいて、
    前記第2処理部が、第3進入条件が満たされているか否かを判定することによって前記ロボットが前記第5状態にあるか否かを判定し、
    前記第3進入条件は第1および第2基準領域の全部が前記進入禁止領域に含まれている一方、第3基準領域のうち少なくとも一部が前記進入禁止領域からはみ出ているという条件であり、
    前記第1基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体を把持することができる領域であり、前記第2基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第2状態から前記第1状態に変化させることができる領域であり、前記第3基準領域はそこに前記ロボットが存在する場合に前記ロボットが前記第1行動要素により前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として前記ロボットを前記第5状態から前記第3状態または前記第4状態に変化させることができる領域であることを特徴とするロボット。
  19. 請求項18記載のロボットにおいて、
    前記手部が前記第1物体に接近しうる方向が、当該第1物体が載置されている前記第2物体の特定部分によって制限されている状況で、前記第3処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢を含む認識結果に基づき、前記第1物体から見て前記第2物体の前記特定部分の陰となる基準陰領域を認識し、前記基準陰領域との重なり領域が除かれた前記第1、第2および第3基準領域に基づいて前記第3進入条件が満たされているか否かを判定することを特徴とするロボット。
  20. 請求項6記載のロボットにおいて、
    前記第3処理部が、前記ロボットが前記状態にあると判定したことを要件として、前記ロボットが前記第1、第2、第3、第4および第5状態のいずれでもない状態にあることを外部に報知することを特徴とするロボット。
  21. 請求項2記載のロボットにおいて、
    前記第1物体の移動度に偏向性がある状況において、前記第1処理部が前記第1物体の相対姿勢に基づいて前記第1物体の移動度が閾値以上の第1易方向をさらに認識し、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体の相対位置および相対姿勢ならびに前記第1易方向を含む認識結果に基づき、前記腕部および前記手部を動作させることにより前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させるとき、前記手部から前記第1物体に対して前記第1易方向の力を作用させるような前記第2行動様式に基づき、前記ロボットが前記第2状態にあるか否かを判定することを特徴とするロボット。
  22. 請求項2記載のロボットにおいて、
    前記第2物体の移動度に偏向性がある状況において、前記第1処理部が前記第2物体の相対姿勢に基づいて前記第2物体の移動度が閾値以上の第2易方向をさらに認識し、
    前記第2処理部が前記第1処理部による認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢ならびに前記第2易方向を含む認識結果に基づき、前記腕部および前記手部を動作させることにより前記手部で前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させるとき、前記手部から前記第1物体に対して前記第2易方向の力を作用させるような前記第2行動様式に基づき、前記ロボットが前記第2状態にあるか否かを判定することを特徴とするロボット。
  23. 請求項1記載のロボットにおいて、
    前記第1処理部が前記第1物体の把持の成否を判定し、
    前記第3処理部が前記第1処理部により前記第1物体の把持が失敗したと判定されたことを要件として、前記ロボットの動作を停止させることを特徴とするロボット。
  24. 請求項1記載のロボットにおいて、
    前記基体から延設された複数の脚部を備えている脚式移動ロボットであることを特徴とするロボット。
  25. 基体と、前記基体から延設された腕部と、前記腕部の先端部に設けられている手部とを備えているロボットの行動を制御する方法であって、
    第1処理と、第2処理と、第3処理とを実行し、
    前記第1処理において前記基体を基準とする第1物体の相対位置および相対姿勢を認識し、前記第1物体の移動度に偏向性がある状況では前記第1物体の相対姿勢に基づいて当該第1物体の移動度が閾値未満の第1難方向をさらに認識し、あるいは、第1物体および当該第1物体が載置されている第2物体のそれぞれの前記基体を基準とする相対位置および相対姿勢を認識し、前記第2物体の移動度に偏向性がある状況では前記第2物体の相対姿勢に基づいて当該第2物体の移動度が閾値未満の第2難方向をさらに認識し、
    前記第2処理において前記第1処理における認識結果であって前記第1物体の相対位置および相対姿勢ならびに前記第1難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に前記第1難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、あるいは、前記第1処理における認識結果であって前記第1物体および前記第2物体のそれぞれの相対位置および相対姿勢ならびに前記第2難方向を含む認識結果に基づき、前記第1物体の把持に際して前記手部から当該第1物体に対して前記第2難方向の力を作用させるような第1行動様式にしたがって行動しうる第1状態にあるか否かを判定し、前記第1行動様式は前記ロボットが移動せずにその場で前記腕部および前記手部のうち少なくとも一方を動かす第1行動要素により、前記手部で前記第1物体を把持する行動様式であり、
    前記第2処理において前記ロボットが前記第1状態にあると判定されたことを要件として、前記第3処理において前記第1行動様式にしたがって前記ロボットの行動を制御する一方、前記第2処理において前記ロボットが前記第1状態にないと判定されたことを要件として、前記第3処理において前記第1物体の相対位置および相対姿勢のうち一方または両方が変化するように前記第1行動様式とは異なる行動様式にしたがって前記ロボットの行動を制御することを特徴とする方法。
  26. 請求項25記載の方法において、
    前記第2処理において前記第1処理における認識結果であって前記第1物体の相対位置および相対姿勢を含む認識結果に基づき、前記ロボットが第2行動様式にしたがって行動しうる第2状態にあるか否かをさらに判定し、前記第2行動様式は前記第1行動要素により前記手部によって前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第2状態から前記第1状態に変化させる行動様式であり、
    前記第2処理において前記ロボットが前記第2状態にあると判定されたことを要件として、前記第3処理において前記第2行動様式にしたがって前記ロボットの行動を制御することを特徴とする方法。
  27. 請求項26記載の方法において、
    前記ロボットの進入禁止領域が存在する状況において前記第1処理において前記進入禁止領域をさらに認識し、
    前記第2処理において前記第1処理における認識結果であって前記進入禁止領域をさらに含む認識結果に基づき、前記ロボットが第3行動様式にしたがって行動しうる第3状態にあるか否かをさらに判定し、前記第3行動様式は前記ロボットが移動する第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第3状態から前記第1状態に変化させる行動様式であり、
    前記第2処理において前記ロボットが前記第3状態にあると判定されたことを要件として、前記第3処理において前記第3行動様式にしたがって前記ロボットの行動を制御する
    ことを特徴とする方法。
  28. 請求項27記載の方法において、
    前記第2処理において前記第1処理における認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第4行動様式にしたがって行動しうる第4状態にあるか否かをさらに判定し、前記第4行動様式は前記第2行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第4状態から前記第2状態に変化させる行動様式であり、
    前記第2処理において前記ロボットが前記第4状態にあると判定されたことを要件として、前記第3処理において前記第4行動様式にしたがって前記ロボットの行動を制御することを特徴とする方法。
  29. 請求項28記載の方法において、
    前記第2処理において前記第1処理における認識結果であって前記進入禁止領域を含む認識結果に基づき、前記ロボットが第5行動様式にしたがって行動しうる第5状態にあるか否かをさらに判定し、前記第5行動様式は前記第2行動要素およびこれに続く前記第1行動要素により前記第1物体の相対位置および相対姿勢のうち一方または両方を変化させる結果として、前記ロボットを前記第5状態から前記第3または第4状態に変化させる行動様式であり、
    前記第2処理において前記ロボットが前記第5状態にあると判定されたことを要件として、前記第3処理において前記第5行動様式にしたがって前記ロボットの行動を制御することを特徴とする方法。
  30. 基体と、前記基体から延設された腕部と、前記腕部の先端部に設けられている手部とを備えているロボットに搭載されているコンピュータを請求項1〜24のうちいずれか1つに記載の制御システムとして機能させることを特徴とするプログラム。
JP2007089131A 2007-03-29 2007-03-29 ロボット、ロボットの制御方法およびロボットの制御プログラム Expired - Fee Related JP4316630B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007089131A JP4316630B2 (ja) 2007-03-29 2007-03-29 ロボット、ロボットの制御方法およびロボットの制御プログラム
US12/056,527 US8260457B2 (en) 2007-03-29 2008-03-27 Robot, control method of robot and control program of robot
EP08251226A EP2042275B1 (en) 2007-03-29 2008-03-31 Robot, control method of robot and control program of robot
AT08251226T ATE490848T1 (de) 2007-03-29 2008-03-31 Roboter, steuerverfahren für den roboter und steuerprogramm für den roboter
DE602008003875T DE602008003875D1 (de) 2007-03-29 2008-03-31 Roboter, Steuerverfahren für den Roboter und Steuerprogramm für den Roboter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007089131A JP4316630B2 (ja) 2007-03-29 2007-03-29 ロボット、ロボットの制御方法およびロボットの制御プログラム

Publications (2)

Publication Number Publication Date
JP2008246607A JP2008246607A (ja) 2008-10-16
JP4316630B2 true JP4316630B2 (ja) 2009-08-19

Family

ID=39794674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007089131A Expired - Fee Related JP4316630B2 (ja) 2007-03-29 2007-03-29 ロボット、ロボットの制御方法およびロボットの制御プログラム

Country Status (5)

Country Link
US (1) US8260457B2 (ja)
EP (1) EP2042275B1 (ja)
JP (1) JP4316630B2 (ja)
AT (1) ATE490848T1 (ja)
DE (1) DE602008003875D1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2018528B1 (en) * 2006-05-19 2015-10-21 Marel A/S A method and a system for batching of objects
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
JP5539000B2 (ja) * 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
JP5638283B2 (ja) * 2010-05-07 2014-12-10 本田技研工業株式会社 制御装置
KR101778030B1 (ko) * 2010-09-27 2017-09-26 삼성전자주식회사 로봇 및 그 제어방법
KR101308373B1 (ko) * 2010-11-17 2013-09-16 삼성전자주식회사 로봇 제어방법
US9031697B2 (en) 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
JP5948932B2 (ja) * 2012-02-16 2016-07-06 セイコーエプソン株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム
JP5924134B2 (ja) * 2012-05-30 2016-05-25 セイコーエプソン株式会社 侵入検出装置,ロボットシステム,侵入検出方法および侵入検出プログラム
CN106102647B (zh) * 2014-03-17 2019-06-14 直观外科手术操作公司 用于利用基准标记的台姿态跟踪的方法和装置
CN104656676B (zh) * 2014-12-25 2017-11-07 北京理工大学 一种仿人机器人手腿眼伺服控制的装置与方法
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US9669543B1 (en) 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP2003175481A (ja) 2001-12-11 2003-06-24 Ricoh Co Ltd ハンドリング装置
JP3914045B2 (ja) 2001-12-17 2007-05-16 本田技研工業株式会社 多指ハンド装置
AU2003273903A1 (en) * 2002-09-23 2004-04-19 Hermann Tropf Detection and gripping of objects
JP4174342B2 (ja) * 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
WO2005015466A1 (ja) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. 生活支援システム及びその制御用プログラム
JP2005088175A (ja) * 2003-09-19 2005-04-07 Sony Corp ロボット装置及びロボット装置の動作制御方法
JP4287242B2 (ja) 2003-10-27 2009-07-01 本田技研工業株式会社 ロボットハンドの制御装置
JP4001105B2 (ja) 2003-12-11 2007-10-31 トヨタ自動車株式会社 ロボットによる任意形状物体の把持方法
JP2006000428A (ja) * 2004-06-18 2006-01-05 Secom Co Ltd 食事支援装置
CN1984756B (zh) * 2004-07-13 2011-12-07 松下电器产业株式会社 物品保持系统、机器人以及机器人控制方法
JP2006159399A (ja) * 2004-11-12 2006-06-22 Yaskawa Electric Corp 作業用移動ロボット
JP2006159320A (ja) * 2004-12-03 2006-06-22 Sharp Corp ロボットハンド
JP4317518B2 (ja) 2004-12-14 2009-08-19 本田技研工業株式会社 物品運搬システム
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
JP4456561B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
US7719222B2 (en) * 2006-03-30 2010-05-18 Vecna Technologies, Inc. Mobile extraction-assist robot
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법

Also Published As

Publication number Publication date
ATE490848T1 (de) 2010-12-15
EP2042275A3 (en) 2009-08-05
US8260457B2 (en) 2012-09-04
EP2042275A2 (en) 2009-04-01
DE602008003875D1 (de) 2011-01-20
EP2042275B1 (en) 2010-12-08
JP2008246607A (ja) 2008-10-16
US20080240889A1 (en) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4316630B2 (ja) ロボット、ロボットの制御方法およびロボットの制御プログラム
JP4565229B2 (ja) ロボット
JP5213023B2 (ja) ロボット
JP4481291B2 (ja) ロボット、ならびにその制御方法および制御プログラム
US7289884B1 (en) Hand control system, method, program, hand, and robot
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP4552037B2 (ja) ロボット
JP4975503B2 (ja) 脚式移動ロボット
JP4645601B2 (ja) 環境地図の生成方法及び移動ロボット
KR102015307B1 (ko) 로봇 및 그 제어 방법
US20120078416A1 (en) Robot and behavior control system for the same
JP4211701B2 (ja) ロボットハンドの把持制御装置
JP5480799B2 (ja) 移動装置およびロボットならびにこれらの制御システム
US9193070B2 (en) Robot, control system for controlling motion of a controlled object, and recording medium for control program for controlling motion of a controlled object
JP6026393B2 (ja) 移動装置
JP7798612B2 (ja) エンドエフェクタ制御方法
JP4577697B2 (ja) 移動装置および移動装置システム
JP6158665B2 (ja) ロボット、ロボット制御方法、およびロボット制御プログラム
JP5456557B2 (ja) ロボット、制御システムおよび制御プログラム
Iwao et al. State Estimation and Environment Recognition for Articulated Structures via Proximity Sensors Distributed Over the Whole Body
JP4956964B2 (ja) ロボットハンドの把持制御装置
JP6647143B2 (ja) 機能装置ならびにその制御装置および制御方法
US20230286137A1 (en) Object holding method and non-transitory computer readable medium
JP6941956B2 (ja) 外界状態センサの配置態様変化計算方法
CN120773040A (zh) 灵巧手运动捕捉系统、方法和可读存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090302

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090520

R150 Certificate of patent or registration of utility model

Ref document number: 4316630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140529

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees