JP4056080B2 - ロボットアームの制御装置 - Google Patents

ロボットアームの制御装置 Download PDF

Info

Publication number
JP4056080B2
JP4056080B2 JP2007516130A JP2007516130A JP4056080B2 JP 4056080 B2 JP4056080 B2 JP 4056080B2 JP 2007516130 A JP2007516130 A JP 2007516130A JP 2007516130 A JP2007516130 A JP 2007516130A JP 4056080 B2 JP4056080 B2 JP 4056080B2
Authority
JP
Japan
Prior art keywords
robot arm
information
impedance
characteristic
object characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007516130A
Other languages
English (en)
Other versions
JPWO2007080733A1 (ja
Inventor
安直 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4056080B2 publication Critical patent/JP4056080B2/ja
Publication of JPWO2007080733A1 publication Critical patent/JPWO2007080733A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39343Force based impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40198Contact with human allowed if under pain tolerance limit
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/41Servomotor, servo controller till figures
    • G05B2219/41387Observe reference torque, position and feedback position, estimate contact force

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、家庭用ロボット等、人との物理的な接触の可能性のあるロボットのロボットアームを制御する、ロボットアームの制御装置に関する。
近年、ペットロボットなどの家庭用ロボットの開発が盛んに行われており、将来は家事支援ロボット等、より実用的な家庭用ロボットが実用化されるものと期待されている。家庭用ロボットは、家庭内に入り人間と共生する必要があるため、人間との物理的な接触が不可欠であり、安全性の面から、柔軟であることが必要とされる。
こうした課題に対し、従来技術としては、特許文献1の特開平10−329071号公報において、ロボットアームに加わった人間との接触力を検知し、アームに大きな力が加わった時には復元力を小さくし安全性を高め、アームに微少な力が加わっている時には復元力を大きくし動作精度を確保する制御装置を開示している。
特開平10−329071号公報
しかしながら、上記従来の制御装置では、ロボットアームに大きな力が加わった時には復元力を小さくするのみであるため、トレイをロボットアームで把持し、トレイの上に物体を載せている場合などに、ロボットアームと人間との接触でロボットアームが動くことでトレイが傾き、トレイの上に載せた物体を落下させてしまう危険がある。また、ロボットアームが硬い物体や角の尖った物体を把持しているときには、復元力を小さくするのみでは、人間との接触で硬い物体や角の尖った物体が動き、ロボットアームに接触した人間あるいは、付近にいる他の人間、あるいは、家具等の他の物体に衝突し、ダメージを与える危険がある。
本発明の目的は、上記従来の制御装置の課題を解決し、ロボットアームと人間との接触が発生しても、人間へ接触のダメージを与えることなく、かつ、接触によりロボットアームが動いて、把持物体を落下させたり他の人間や他の物体に接触しダメージを与えることのない、安全なロボット制御を実現できる、ロボットアームの制御装置を提供することにある。
上記目的を達成するために、本発明は以下のように構成する。
本発明の第1態様によれば、ロボットアームの制御装置であって、
上記ロボットアームが運搬している物体の運搬特性に関する情報が記録された物体特性データベースと、
上記物体特性データベースの上記情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段とを有することを特徴とするロボットアームの制御装置を提供する。
本発明の第17態様によれば、ロボットアームの制御方法であって、
上記ロボットアームが運搬している物体の運搬特性に関する情報に基づき上記ロボットアームの機械インピーダンス設定値を設定し、
上記設定された上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御することを特徴とするロボットアームの制御方法を提供する。
本発明の第18態様によれば、上記ロボットアームと、
上記ロボットアームを制御する第1〜16のいずれか1つの態様に記載のロボットアームの制御装置とを有することを特徴とするロボットを提供する。
本発明の第19態様によれば、コンピュータを、
ロボットアームが運搬している物体の運搬特性に関する情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段として機能させるためのロボットアームの制御プログラムを提供する。
本発明のロボットアームの制御装置及びロボットアームの制御装置を有するロボットによれば、物体特性データベース、物体特性呼応インピーダンス設定手段、インピーダンス制御手段を有することにより、ロボットアームで運搬する物体の運搬特性に応じて、ロボットアームの機械インピーダンス設定値が適切に設定されるので、人間との接触が発生しても、人間へ接触のダメージを与えることなく、かつ、接触によりロボットアームが動いて、運搬する物体を落下させたり他の人間や他の物体に接触しダメージを与えることのない、安全なロボット制御が可能となる。
また、本発明のロボットアームの制御方法及びプログラムによれば、上記ロボットアームが運搬している物体の運搬特性に関する情報に基づき上記ロボットアームの機械インピーダンス設定値を設定し、上記設定された上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御することにより、運搬する物体の運搬特性に応じて、ロボットアームの機械インピーダンス設定値が適切に設定されて制御されるので、人間との接触が発生しても、人間へ接触のダメージを与えることなく、かつ、接触によりロボットアームが動いて、運搬する物体を落下させたり他の人間や他の物体に接触しダメージを与えることのない、安全なロボット制御が可能となる。
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。添付図面において同じ部品については同じ参照符号を付している。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
本発明の第1態様によれば、ロボットアームの制御装置であって、
上記ロボットアームが運搬している物体の運搬特性に関する情報が記録された物体特性データベースと、
上記物体特性データベースの上記情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段とを有することを特徴とするロボットアームの制御装置を提供する。
本発明の第2態様によれば、上記ロボットアームが運搬している上記物体の運搬特性に関する情報を収集し、収集した上記物体の運搬特性に関する情報を上記物体特性データベースに記録する物体特性収集手段をさらに有することを特徴とする第1の態様に記載のロボットアームの制御装置を提供する。
本発明の第3態様によれば、上記インピーダンス制御手段は、上記ロボットアームに人や物体が接触することを検知する接触検知手段を有し、上記ロボットアームが上記人や物体と接触した時に、上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御することを特徴とする第1又は第2の態様に記載のロボットアームの制御装置を提供する。
本発明の第4態様によれば、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記情報に基づき上記ロボットアームの手先の並進方向及び回転方向の6次元の方向の機械インピーダンス設定値を個別に設定することを特徴とする第1又は第2の態様に記載のロボットアームの制御装置を提供する。
本発明の第5態様によれば、上記特性呼応インピーダンス設定手段は、上記手先の上記並進方向を低剛性とし上記回転方向を上記並進方向よりも高剛性とすることで上記ロボットアームが運搬している上記物体を水平に保つよう設定することを特徴とする第4の態様に記載のロボットアームの制御装置を提供する。
本発明の第6態様によれば、上記物体特性データベースは上記ロボットアームが運搬している上記物体の物理特性情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記物理特性情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第1又は第2の態様に記載のロボットアームの制御装置を提供する。
本発明の第7態様によれば、上記物体特性データベースは上記ロボットアームが運搬している上記物体の属性情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記属性情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第1又は第2の態様に記載のロボットアームの制御装置を提供する。
本発明の第8態様によれば、上記物体特性データベースは、上記ロボットアームが運搬している上記物体の物理特性情報として上記ロボットアームが運搬している上記物体の重量情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記重量情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第6の態様に記載のロボットアームの制御装置を提供する。
本発明の第9態様によれば、上記物体特性データベースは上記物理特性情報として上記ロボットアームが運搬している上記物体の寸法情報を有し、上記特性呼応インピーダンス設定手段は、上記寸法情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第6の態様に記載のロボットアームの制御装置を提供する。
本発明の第10態様によれば、上記物体特性データベースは上記物理特性情報として上記ロボットアームが運搬している上記物体の硬度情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記硬度情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第6の態様に記載のロボットアームの制御装置を提供する。
本発明の第11態様によれば、上記物体特性データベースは上記物理特性情報として上記ロボットアームが運搬している上記物体の位置及び姿勢の拘束条件情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記位置及び姿勢の拘束条件情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第6の態様に記載のロボットアームの制御装置を提供する。
本発明の第12態様によれば、上記物体特性データベースの有する物体の位置及び姿勢の拘束条件情報は、上記ロボットアームが同時に運搬した複数の物体の位置及び姿勢の相対関係に基づき設定された上記物体の位置及び姿勢の拘束条件情報であることを特徴とする第11の態様に記載のロボットアームの制御装置を提供する。
本発明の第13態様によれば、上記物体特性データベースの有する物体の位置及び姿勢の拘束条件情報は、上記運搬している物体の周囲環境情報に基づき設定された上記物体の位置及び姿勢の拘束条件情報であることを特徴とする第11の態様に記載のロボットアームの制御装置を提供する。
本発明の第14態様によれば、上記物体特性データベースは、上記物体の属性情報として上記運搬している物体の危険度情報を有し、上記特性呼応インピーダンス設定手段は、上記物体特性データベースの上記危険度情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第7の態様に記載のロボットアームの制御装置を提供する。
本発明の第15態様によれば、上記物体特性データベースの有する危険度情報は、上記運搬している物体の周囲環境情報に基づき設定された危険度情報であることを特徴とする第14の態様に記載のロボットアームの制御装置を提供する。
本発明の第16態様によれば、上記物体特性データベースは、上記物体の属性情報として上記運搬している物体の重要度情報を有し、上記特性呼応インピーダンス設定手段は、物体特性データベースの上記重要度情報に基づき上記機械インピーダンス設定値を設定することを特徴とする第7の態様に記載のロボットアームの制御装置を提供する。
本発明の第17態様によれば、ロボットアームの制御方法であって、
上記ロボットアームが運搬している物体の運搬特性に関する情報に基づき上記ロボットアームの機械インピーダンス設定値を設定し、
上記設定された上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御することを特徴とするロボットアームの制御方法を提供する。
本発明の第18態様によれば、上記ロボットアームと、
上記ロボットアームを制御する第1〜16のいずれか1つの態様に記載のロボットアームの制御装置とを有することを特徴とするロボットを提供する。
本発明の第19態様によれば、コンピュータを、
ロボットアームが運搬している物体の運搬特性に関する情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段として機能させるためのロボットアームの制御プログラムを提供する。
以下に、本発明にかかる実施の形態にかかるロボットアームの制御装置及び制御方法、ロボット、及びプログラムを図面に基づいて詳細に説明する。
(第1実施形態)
図1は本発明の第1実施形態における、ロボットアームの制御装置1の概念を示すブロック図である。図1において、2は物体特性データベースであり、後述するロボットアーム5で運搬する運搬物体、例えば把持しながら運搬される物体(把持物体)38の物体特性データの一例として物理特性情報及び属性情報などの運搬特性情報、例えば把持特性情報が記録されており、把持される物体38が特定されると、その物体38の特性データを物体特性呼応インピーダンス設定手段3に送出する機能を有している。
ここで、物理特性情報とは、例えば、物体の形状、大きさ(寸法)、重量、又は、温度等の、物理的、物性的、幾何学的に決まる特性情報である。
また、物体の属性情報とは例えば、危険度、又は、重要度等の、概念的な特性や物理特性から生じる2次的な特性情報である。
3は物体特性呼応インピーダンス設定手段であり、物体特性データベース2の把持物体に関する特性情報に基づき、ロボットアーム5の機械インピーダンス設定値、すなわち、剛性や粘性の設定値の設定を行う。
4はインピーダンス制御手段であり、物体特性呼応インピーダンス設定手段3が設定した機械インピーダンス設定値になるように、ロボットアーム5の各関節部の機械インピーダンスの値を制御するインピーダンス制御動作を行う。
図2はロボットアームの制御装置1のハードウェア構成及び制御対象であるロボットアーム5の詳細構成を示す図である。
制御装置1は、ハードウェア的には一般的なパーソナルコンピュータにより構成されており、物体特性データベース2、物体特性呼応インピーダンス設定手段3、及び、インピーダンス制御手段4の入出力IF(インターフェース)19を除く部分は、パーソナルコンピュータで実行される制御プログラム17としてソフトウェア的に実現される。
入出力IF19はパーソナルコンピュータのPCIバスなどの拡張スロットルに接続された、D/Aボード20、A/Dボード21、カウンタボード22により構成される。
ロボットアーム5の動作を制御するための制御プログラム17が実行されることにより制御装置1が機能しており、ロボットアーム5の各関節部の後述するエンコーダ43より出力される関節角度情報がカウンタボード22を通じて制御装置1に取り込まれ、制御装置1によって各関節部の回転動作での制御指令値が算出される。算出された各制御指令値は、D/Aボード20を通じてモータードライバ18に与えられ、モータードライバ18から送られた各制御指令値に従って、ロボットアーム5の各関節部の後述するモーター42が駆動される。また、モータードライバ18により駆動制御されるハンド駆動装置の一例としてのハンド駆動用モーター62(実際には、ロボットアーム5のハンド6の内部に配設されている)と、ハンド駆動用モーター62の回転軸の回転位相角(すなわち関節角)を検出するエンコーダ63(実際には、ロボットアーム5のハンド6の内部に配設されている)とをさらにハンド6に備えて、エンコーダ63で検出された回転角度を基に、制御装置1のインピーダンス制御手段4のハンド制御手段200からの制御信号によりモータードライバ18を介してハンド駆動用モーター62の回転を駆動制御して、ハンド駆動用モーター62の回転軸を正逆回転させることによりハンド6を開閉可能としている。
ロボットアーム5は、6自由度の多リンクマニピュレータであり、ハンド6と、ハンド6が取付けられる手首部7を有する前腕リンク8と、前腕リンク8が回転可能に連結される上腕リンク9と、上腕リンク9が回転可能に連結支持される台部10とを有している。この台部10は、一定位置に固定されていてもよいが、移動可能な移動装置に連結されて移動可能にしてもよい。手首部7は第4関節部14、第5関節部15、第6関節部16の3つの回転軸を有しており、上腕リンク9に対するハンド6の相対的な姿勢(向き)を変化させることができる。すなわち、図2において、第4関節部14は手首部7に対するハンド6の横軸周りの相対的な姿勢を変化させることができ、第5関節部15は手首部7に対するハンド6の、第4関節部14の横軸とは直交する縦軸周りの相対的な姿勢を変化させることができ、第6関節部16は手首部7に対するハンド6の、第4関節部14の横軸及び第5関節部15の縦軸とそれぞれ直交する横軸周りの相対的な姿勢を変化させることができる。前腕リンク8の他端は上腕リンク9の先端に対して第3関節部13周りに、すなわち、第4関節部14の横軸と平行な横軸周りに回転可能とし、上腕リンク9の他端は台部10に対して第2関節部12周りに、すなわち、第4関節部14の横軸と平行な横軸周りに回転可能とし、台部10の上側可動部は台部10の下側固定部に対して第1関節部11周りに、すなわち、第5関節部15の縦軸と平行な縦軸周りに回転可能としている。この結果、ロボットアーム5は、合計6個の軸周りに回転可能として上記6自由度の多リンクマニピュレータを構成している。
各軸の回転部分を構成する各関節部には、各関節部の一方の部材に備えられかつ後述するモータードライバ18により駆動制御される回転駆動装置の一例としてのモーター42(実際には、ロボットアーム5の各関節部の内部に配設されている)と、モーター42の回転軸の回転位相角(すなわち関節角)を検出するエンコーダ43(実際には、ロボットアーム5の各関節部の内部に配設されている)とを備えて、一方の部材に備えられたモーター42の回転軸が他方の部材に連結されて上記回転軸を正逆回転させることにより他方の部材を一方の部材に対して各軸周りに回転可能とする。
35は台部10の下側固定部に対して相対的な位置関係が固定された絶対座標系であり、36はハンド6に対して相対的な位置関係が固定された手先座標系である。絶対座標系35から見た手先座標系36の原点位置Oe(x、y、z)をロボットアーム5の手先位置、絶対座標系35から見た手先座標系36の姿勢をロール角とピッチ角とヨー角で表現した(φ、θ、ψ)をロボットアーム5の手先姿勢とし、手先位置及び姿勢ベクトルをベクトルr=[x、y、z、φ、θ、ψ]と定義する。よって、一例として、絶対座標系35のz軸に対して第1関節部11の縦軸が平行であり、x軸に対して第2関節部12の横軸が平行に位置可能とするのが好ましい。また、手先座標系36のx軸に対して第6関節部16の横軸が平行に位置可能であり、y軸に対して第4関節部14の横軸が平行に位置可能であり、z軸に対して第5関節部15の縦軸が平行に位置可能とするのが好ましい。なお、手先座標系36のx軸に対しての回転角をヨー角ψとし、y軸に対しての回転角をピッチ角θとし、z軸に対しての回転角をロール角φとする。ロボットアーム5の手先位置及び姿勢を制御する場合には、手先位置及び姿勢ベクトルrを手先位置及び姿勢目標ベクトルrに追従させることになる。
50は物体特性収集手段であり、ロボットアーム5で把持する物体の特性データを収集し、物体特性データベース2に入力、更新する。具体的には、物体特性収集手段50は、後述するように、カメラなどの画像撮像装置44からの画像データ、読み取り手段34(例えばRFタグ受信機54)により読み取られた把持物体38のRFタグ33の情報、インターネット46を通じて外部のウェブサーバにある物品情報データベース47からの物体特性データがそれぞれ入力され、入力されたデータ又は情報を、適宜、物体特性データベース2に入力、更新する。また、物体特性収集手段50には、カウンタボード22が接続されて、ロボットアーム5の各関節部のエンコーダ43より出力される関節角度情報や、インピーダンス制御手段4からの物体重量などの情報も入力される。
物体特性収集手段50の詳細を図14に示す。
45は画像認識手段であり、カメラなどの画像撮像装置44の画像データより画像認識を行い、把持物体38の寸法を抽出し、物体特性データベース2に出力する。また、画像認識手段45は、画像認識手段45の画像認識結果より得られる複数の把持物体の相対的位置関係の情報を、後述する運搬状態検出手段の一例としての把持状態検出手段53に出力する。
48は物体重量推定手段であり、把持物体38の重量の推定を行う。例えば、ロボットアーム5の手首部7に力センサーを配設した場合には、ロボットアーム5が物体を把持し静止状態にある時の力センサーによる計測値からハンド6の重量を差し引いた値を物体重量とする。また、後述する力推定手段24を利用する場合は、ロボットアーム5が物体を把持し静止状態にある時の各関節部に発生するトルクτextを力推定手段24から得、ロボットアーム5がその位置及び姿勢を保持するのに必要なトルクをロボットアームの運動方程式より求め、差し引いた後のトルク値を手先に働く力に換算し、物体重量とする。
49は属性データ入力IF(インターフェース)であり、人間がキーボードやマウスやマイクなどの入力装置を使用して属性データ(属性情報)を入力するためのインターフェースである。
51は干渉判断手段であり、ロボットアーム5の周囲の環境に存在する壁や、家具等の配置情報の地図であり環境マップデータベース52に蓄積された環境マップ情報とインピーダンス制御手段4より入力されるロボットアーム5の位置及び姿勢情報とより、ロボットアーム5と壁や家具等との干渉関係を判断し、物体特性データベース2の属性情報の設定、変更を行う。
53は運搬状態検出手段の一例としての把持状態検出手段であり、複数の把持物体を同時に把持する場合に、画像認識手段45の画像認識結果より得られる複数の把持物体の相対的位置関係の情報や、RFタグ受信機54より得られる把持物体のID番号などのID情報(IDデータ)の組み合わせの情報から把持状態を推論し、検出する。把持状態検出手段53は、物体同士の組み合わせと把持状態の関係を表す把持状態テーブルを有し、ID情報の組み合わせが得られた場合には、把持状態テーブルを参照し、把持状態を推論する。把持状態テーブルには、例えば、トレイと他の物体の組み合わせの場合は、トレイの上に物体が載置された把持状態であるという一般的な把持ルールが複数記録されている。
このように、物体特性収集手段50は、カメラなどの画像撮像装置44と物体特性データベース2と接続される画像認識手段45と、インピーダンス制御手段4と物体特性データベース2と接続される物体重量推定手段48と、インピーダンス制御手段4と物体特性データベース2と接続される干渉判断手段51と、干渉判断手段51に接続される環境マップデータベース52と、物体特性データベース2とキーボードやマウスやマイクなどの入力装置(図示せず)と接続される属性データ入力IF(インターフェース)49と、RFタグ受信機54と画像認識手段45と物体特性データベース2と接続される把持状態検出手段53とを備えて、それぞれの手段や部材でそれぞれの機能を奏するとともに、RFタグ受信機54により読み取られた把持物体38のRFタグ33の情報を物体特性データベース2に入力するとともに、インターネット46を通じて外部のWEBにある物品情報データベース47にアクセスして物体特性データを物体特性データベース2に入力する機能をも有している。
次に、物体特性データベース2の詳細について説明する。物体特性データベース2には、例えばロボットアーム5が設置された屋内に存在する種々の物体38に関する情報が予め登録されている。各物体38にはRFタグ33が配設されており、個別のID番号などのID情報がRFタグ33に記録されている。ロボットアーム5のハンド6にはRFタグ33の読み取り手段34(例えばRFタグ受信機54)が配設されており、制御装置1のインピーダンス制御手段4からの制御信号によりモータードライバ18を介してハンド駆動用モーター62の回転駆動制御によりハンド6を開閉して、ロボットアーム5のハンド6が物体38を把持すると、把持された物体38のRFタグ33の情報が読み取り手段34で読み取られ、把持した物体38のID番号が何であるかが読み取り手段34により特定され、把持された物体38のID番号情報が物体特性収集手段50を介して物体特性データベース2に入力される。すると、物体特性データベース2は、特定された特定されたID番号に対応する物体38の特性データを物体特性呼応インピーダンス設定手段3に送出する。
物体特性データベース2の保有している情報は、図4に示すような物理特性情報と属性情報の特性一覧表30の形で物体個別の特性データが記録されている。物体個別の特性データは、図4にあるように、物体個別のID番号と、ID番号に相当する物理特性情報の一例としての物体の重量情報、寸法情報、及び硬度情報、並びに、属性情報の一例としての危険度情報で構成される。これらの、重量情報、寸法情報、硬度情報、危険度情報のデータは、予め測定し、評価し、データベースとして物体特性データベース2に格納されている。
物体特性データベース2の寸法情報に関しては、画像撮像装置44及び画像認識手段45を設ければ、その画像撮像装置44で得られた画像データを基に画像認識手段45による画像認識を行うことにより、物体38の寸法を割り出し、寸法情報を物体特性データベース2に新たに蓄積あるいは更新することも可能である。
物体特性データベース2の重量情報に関しては、ロボットアーム5の手首部7に力センサーを配設するか、あるいは、後述する力推定手段24を利用すれば、物体重量推定手段48により、ロボットアーム5で把持した物体38の重量が推定可能であり、新たに重量情報を物体特性データベース2に蓄積することができる。また、例えば、ロボットアーム5で把持された鍋に対して水が注入されるとき、注入された水による物体の重量の増加を物体重量推定手段48により推定することもできるので、重量の増減による重量情報の更新にも対応可能である。
物体特性データベース2の硬度情報に関しては、把持物体38の硬度に応じてレベル1〜5の5段階評価がなされる。評価値は、物体38の材質をもとに、例えば、金属で形成された物体は最も硬度の高い「レベル5」、プラスチック等の樹脂で形成された物体は中度の「レベル3」、紙やタオルなどの柔らかい物体で形成された物体は最も硬度の低い「レベル1」といったように評価され、硬度情報として記録されている。また、硬度は壊れやすさという観点での評価も可能である。ガラスコップや陶磁器のように、他の物体にぶつけたりすると割れる危険が高いものを「レベル5」とすることも考えられる。これらの硬度情報は、予め人間が判断するか、物体のRFタグ33に記録されているID情報から自動的に判断し、レベルの評価、設定を行い、属性データ入力IF49を通じて物体特性データベース2への入力を行う。
物体特性データベース2の危険度情報に関しては、例えば、レベル1〜5の5段階の評価値で記録されている。評価値の具体例としては、刃物のように危険性が高く、ロボットアーム5での取り扱いに最も注意を有すると思われる物体を最も危険度の高い「レベル5」とし、書類やタオルなど軽く、柔らかくて人に衝突しても危害を与える恐れが全くないと考えられる物体を最も危険度の低い「レベル1」とする。これらの危険度情報は、予め、人間が判断し、レベルの評価、設定を行い、属性データ入力IF49を通じて物体特性データベース2への入力を行う。あるいは、干渉判断手段51で、把持すべき物体38が壁面や家具等に近くにあり、把持すべき物体38と壁面や家具等との干渉の危険があると判断された把持物体の場合には、危険度を高く設定する。ここで、把持すべき物体38が壁面や家具等に近くにあるか否かは、例えば、環境マップデータベース52に蓄積された環境マップ情報に、把持すべき物体38の位置情報も蓄積されている場合には、環境マップデータベース52からその位置情報を取り込めばよいし、そのような位置情報が環境マップデータベース52に蓄積されていない場合には、把持すべき物体38をカメラなどの画像撮像装置44で撮像し、取得した画像データを画像認識手段45で画像認識を行い、物体特性データベース2に一旦蓄積し、蓄積された画像認識結果を参照して、干渉判断手段51で把持すべき物体38の位置情報を推定して判断するようにしてもよい。
さらに、例えば、図9に示すように、トレイ39をロボットアーム5で把持し、トレイ39の上にコップ40を載せているような把持状態の場合、ロボットアーム5と人間(例えば手100)との接触でトレイ39が傾くと、コップ40がトレイ39から矢印101のように落下する恐れがあるため、RFタグ受信機54によるRFタグ33のID番号などのID情報を使った把持物体の検出で、トレイ39のRFタグ33とコップ40のRFタグ33が同時にRFタグ受信機54で検出された場合、又は、画像認識手段45の画像認識結果よりトレイ39にコップ40が載置されている情報が相対的位置関係情報として得られる場合には、トレイ39の上にコップ40を載せて運搬していると、把持状態検出手段53において推論し、危険度を高く設定する(図14参照)。
また、物体特性データベース2のすべての情報は、物体特性収集手段50により、インターネット46を通じて、外部のウェブサーバなどにある物品情報データベース47にアクセスすることで物体特性データを入手し、物体特性データベース2内の各情報を更新する事も可能である。
次に、物体特性呼応インピーダンス設定手段3の詳細について説明する。物体特性呼応インピーダンス設定手段3では、物体特性データベース2の運搬特性情報に基づき、把持している物体38に応じて、ロボットアーム5の機械インピーダンス設定値の設定を行う。機械インピーダンス設定値の設定パラメータとしては、慣性M、粘性D、剛性Kがある。機械インピーダンス設定値の各パラメータの設定は以下の評価式に基づいて行う。
Figure 0004056080
Figure 0004056080
Figure 0004056080
上記式(1)〜(3)中のKMm、KMl、KMk、KMd、KDm、KDl、KDk、KDd、KKm、KKl、KKk、KKdはゲインであり、それぞれ、ある定数値である。
物体特性呼応インピーダンス設定手段3は、上記式(1)、(2)、(3)に基づき計算した機械インピーダンスパラメータの慣性M、粘性D、剛性Kをインピーダンス制御手段4へと出力する。
上記式(1)〜(3)に従えば、ゲインKMm等を適切に設定することにより、例えば重量の重い物体に対しては、式(1)により、慣性Mが大きく設定されることになり、ロボットアーム5は把持物体38の重量に比例した重量感を持つことになる結果、ロボットアーム5を動かすには大きな力が必要になり、少しぐらい手でロボットアーム5を押しても動かなくなる(発生する加速度が小さい)。逆に、重量の軽い物体に対しては、式(1)により、慣性Mが小さく設定されることになり、ロボットアーム5は把持物体38の重量に比例した重量感を持つことになる結果、弱い力で容易にロボットアーム5が動くようになる(発生する加速度が大きい)。また、刃物のように危険度を高く設定された物体の場合には、粘性D及び剛性Kが大きくなるように設定されることになり、ロボットアーム5の動きに抵抗感や硬さが生じ、動きにくくなる。逆に、タオルなどのように危険度を低く設定された物体の場合には、粘性D及び剛性Kが小さくなるように設定されることになり、ロボットアーム5の動きに抵抗感や硬さがなく、動きやすくなる。
複数の物体を同時に把持している場合、重量に関しては同時に把持している物体の重量を加算した総重量を使用して機械インピーダンス設定値の計算を行う。
また、寸法に関しては、同時に把持している物体の寸法のうち、最大のものを使用して機械インピーダンス設定値の計算を行う。
また、硬度に関しては、同時に把持している物体の硬度のうち、最大のものを使用して機械インピーダンス設定値の計算を行う。
また、危険度に関しては、同時に把持している物体の危険度のうち、最大のものを使用して機械インピーダンス設定値の計算を行う。
図3にインピーダンス制御手段4のブロック図を示す。インピーダンス制御手段4は、物体特性呼応インピーダンス設定手段3の設定した慣性M、粘性D、剛性Kの設定値に基づき設定されたロボットアーム5の機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御する。
次に、図3を使い、インピーダンス制御手段4の詳細について説明する。図3において、5は制御対象である図2に示したロボットアームである。ロボットアーム5からは、それぞれの関節軸のエンコーダ43により計測された関節角の現在値(関節角度ベクトル)ベクトルq=[q,q,q,q,q,qが出力され、カウンタボード22によりインピーダンス制御手段4に取り込まれる。ただし、q,q,q,q,q,qは、それぞれ、第1関節部11、第2関節部12、第3関節部13、第4関節部14、第5関節部15、第6関節部16の関節角度である。
23は目標軌道生成手段であり、目標とするロボットアーム5の動作を実現するための手先位置及び姿勢目標ベクトルrが出力される。図13に示すように、目標とするロボットアーム5の動作は、目的とする作業に応じて事前にそれぞれの時間(t=0、t=t、t=t、・・・)でのポイントごとの位置(rd0、rd1、rd2、・・・)が与えられており、目標軌道生成手段23は、多項式補間を使用し、各ポイント間の軌道を補完し、手先位置及び姿勢目標ベクトルrを生成する。
24は力推定手段であり、人間等とロボットアーム5の接触によってロボットアーム5に加わる外力を推定する。力推定手段24には、モータードライバ18の電流センサーで計測された、ロボットアーム5の各関節部を駆動するモーター42を流れる電流値i=[i,i,i,i,i,iがA/Dボード21を介して取り込まれ、また、関節角の現在値qがカウンタボード22を介して取り込まれるとともに、後述する近似逆運動学計算手段28からの関節角度誤差補償出力uqeが取り込まれる。力推定手段24は、オブザーバーとして機能し、以上の電流値i、関節角の現在値q、関節角度誤差補償出力uqeより、ロボットアーム5に加わる外力により各関節部に発生するトルクτext=[τ1ext、τ2ext、τ3ext、τ4ext、τ5ext、τ6extを算出する。そして、Fext=J(q)−Tτext−[0,0,mg]によりロボットアーム5の手先における等価手先外力Fextに換算し出力する。ここで、J(q)は、
Figure 0004056080
を満たすヤコビ行列である。ただし、v=[v、v、v、ω、ω、ωであり、(v、v、v)は手先座標系36でのロボットアーム5の手先の並進速度、(ω、ω、ω)は手先座標系36でのロボットアーム5の手先の角速度である。また、mは把持している物体の重さであり、gは把持している物体の重力加速度である。把持物体の重さmの値は、物体特性データベース2から入手することができる。また、ロボットアーム5により実際に把持を行い、そのときの力推定手段24の等価手先外力Fextの推定結果より把持物体の重さmの値を算出する事も可能である。
37は接触検知手段であり、力推定手段24の推定する等価手先外力Fextを観測し、ロボットアーム5と人間や他の物体との接触を検知する。接触が発生すると等価手先外力Fextが変化するので、その変化量が、ある値ΔFを越えたときに接触が発生したと接触検知手段37で検知する。接触を接触検知手段37で検知すると、接触検知手段37は接触を検知した事をインピーダンス計算手段25に通知する。
インピーダンス計算手段25は、ロボットアーム5に機械インピーダンス設定値への上記ロボットアームの機械インピーダンスの値の制御を実現する機能を果たす部分であり、ロボットアーム5と人間や他の物体との接触を接触検知手段37で検知していない通常動作の際は0を出力する。一方、ロボットアーム5と人間や他の物体との接触を接触検知手段37で検知し、接触検知手段37から接触の通知を受けると、物体特性呼応インピーダンス設定手段3で設定されたインピーダンスパラメータである慣性M、粘性D、剛性Kと、関節角の現在値qと、力推定手段24が推定した外力Fextより、ロボットアーム5に機械インピーダンス設定値への上記ロボットアームの機械インピーダンスの値の制御を実現するための手先位置及び姿勢目標補正出力rdΔを以下の式(4)により計算し、出力する。手先位置及び姿勢目標補正出力rdΔは、目標軌道生成手段23の出力する手先位置及び姿勢目標ベクトルrに加算され、手先位置及び姿勢補正目標ベクトルrdmが生成される。
Figure 0004056080
ただし、
Figure 0004056080
Figure 0004056080
Figure 0004056080
であり、sはラプラス演算子である。
26はロボットアーム5からのそれぞれの関節軸のエンコーダ43により計測された関節角の現在値qである関節角度ベクトルqがカウンタボード22を介して入力される順運動学計算手段であり、ロボットアーム5の関節角度ベクトルqから手先位置及び姿勢ベクトルrへの変換の幾何科学的計算を行う。
27は位置誤差補償手段であり、ロボットアーム5において計測される関節角度ベクトルqより順運動学計算手段26により計算される手先位置及び姿勢ベクトルrと、手先位置及び姿勢補正目標ベクトルrdmとの誤差rが入力され、位置誤差補償出力ureが近似逆運動学計算手段28に向けて出力される。
近似逆運動学計算手段28では、近似式uout=J(q)−1inにより、逆運動学の近似計算を行う。ただし、J(q)は、
Figure 0004056080
の関係を満たすヤコビ行列、uinは近似逆運動学計算手段28への入力、uoutは近似逆運動学計算手段28からの出力であり、入力uinを関節角度誤差qとすれば、q=J(q)−1のように手先位置及び姿勢誤差rから関節角度誤差qへの変換式となる。したがって、位置誤差補償出力ureが近似逆運動学計算手段28に入力されると、その出力として、関節角度誤差qを補償するための関節角度誤差補償出力uqeが近似逆運動学計算手段28から出力される。
関節角度誤差補償出力uqeは、D/Aボード20を介してモータードライバ18に電圧指令値として与えられ、各モーター42により各関節軸が正逆回転駆動されロボットアーム5が動作する。
以上のように構成されるインピーダンス制御手段4に関して、ロボットアーム5のインピーダンス制御動作の原理について説明する。
インピーダンス制御動作の基本は、位置誤差補償手段27による手先位置及び姿勢誤差rのフィードバック制御(位置制御)であり、図3の点線で囲まれた部分が位置制御系29になっている。位置誤差補償手段27として、例えば、PID補償器を使用すれば、手先位置及び姿勢誤差rが0に収束するように制御が働き、目標とするロボットアーム5のインピーダンス制御動作を実現することができる。
接触検知手段37がロボットアーム5と人間や他の物体との接触を検知した場合、上記説明した位置制御系29に対し、インピーダンス計算手段25により手先位置及び姿勢目標補正出力rdΔが加算され、手先位置及び姿勢の目標値の補正が行われる。このために、上記した位置制御系29は、手先位置及び姿勢の目標値が本来の値より微妙にずれることになり、結果的に、上記ロボットアーム5の機械インピーダンスの値を上記適切に設定された設定値に制御する動作が実現される。手先位置及び姿勢目標補正出力rdΔは式(4)により算出されるため、上記ロボットアーム5の慣性M、粘性D、剛性Kの機械インピーダンスの値を上記適切に設定された設定値に制御する動作が実現される。
以上の原理に基づく制御プログラムの実際の動作ステップについて、図5のフローチャートに基づいて説明する。
ステップ1では、それぞれのエンコーダ43により計測された関節角度データ(関節変数ベクトル又は関節角度ベクトルq)が制御装置1に取り込まれる。
次いで、ステップ2では、ロボットアーム5の運動学計算に必要なヤコビ行列J等の計算が近似逆運動学計算手段28により行われる。
次いで、ステップ3(順運動学計算手段26での処理)では、ロボットアーム5からの関節角度データ(関節角度ベクトルq)から、ロボットアーム5の現在の手先位置及び姿勢ベクトルrが、順運動学計算手段26により計算される。
次いで、ステップ4では、制御装置1のメモリ(図示せず)に予め記憶されていたロボットアーム5の動作プログラムに基づき、目標軌道計算手段23によりロボットアーム10の手先位置及び姿勢目標ベクトルrが計算される。
次いで、ステップ5(力推定手段24での処理)では、モーター42の駆動電流値iと、関節角度データ(関節角度ベクトルq)と、関節角度誤差補償出力uqeから、ロボットアーム5の手先における等価手先外力Fextが、力推定手段24により計算される。
次いで、ステップ6(接触検知手段37での処理)では、力推定手段24により計算されたロボットアーム5の手先における等価手先外力Fextよりロボットアーム5と人間や他の物体との接触の有無を判断し、接触検知手段37で接触有りと検知した場合にはステップ7へ、接触無しと検知した場合にはステップ7’へ処理を進める。
次いで、ステップ7(インピーダンス計算手段25での処理)では、ロボットアーム5と人間や他の物体との接触が有ると接触検知手段37で検知した場合に、物体特性呼応インピーダンス設定手段3において設定された機械インピーダンスパラメータの慣性M、粘性D、剛性Kと、関節角度データ(関節角度ベクトルq)と、力推定手段24により計算されたロボットアーム5に加わる等価手先外力Fextから、手先位置及び姿勢目標補正出力rdΔが、インピーダンス計算手段25により計算される。その後、ステップ8に進む。
ステップ7’(インピーダンス計算手段25での処理)では、ロボットアーム5と人間や他の物体との接触が無いと接触検知手段37で検知した場合に、インピーダンス計算手段25で、手先位置及び姿勢目標補正出力rdΔを0ベクトルとする。その後、ステップ8に進む。
ステップ8(位置誤差補償手段27での処理)では、手先位置及び姿勢目標ベクトルrと手先位置及び姿勢目標補正出力rdΔの和である手先位置及び姿勢補正目標ベクトルrdmと、現在の手先位置及び姿勢ベクトルrとの差である手先位置及び姿勢の誤差rが位置誤差補償手段27で計算される。位置誤差補償手段27の具体例としてはPID補償器が考えられる。定数の対角行列である比例、微分、積分の3つのゲインを適切に調整することにより、位置誤差が0に収束するように制御が働く。
次いで、ステップ9(近似逆運動学計算手段28での処理)では、ステップ2で計算したヤコビ行列Jの逆行列を近似逆運動学計算手段28で乗算することにより、位置誤差補償出力ureを、手先位置及び姿勢の誤差に関する値から関節角度の誤差に関する値である関節角度誤差補償出力uqeに、近似逆運動学計算手段28により変換する。
次いで、ステップ10では、関節角度誤差補償出力uqeが、近似逆運動学計算手段28からD/Aボード20を通じ、モータードライバ18に与えられ、それぞれのモーター42を流れる電流量を変化させることによりロボットアーム5のそれぞれの関節軸の回転運動が発生する。
以上のステップ1〜ステップ10が制御の計算ループとして繰り返し実行されることにより、ロボットアーム5の動作の制御、すなわち、ロボットアーム5の機械インピーダンスの値を上記適切に設定された設定値に制御する動作を実現することができる。
次に、本発明の第1実施形態における制御装置1の全体的な動作について、ロボットアーム5で物体38を把持しながら運搬する作業を、1つの具体的な例として、図6のフローチャートに基づいて説明する。
まず、ステップAでは、ロボットアーム5のハンド6で物体38を把持するための目標軌道を目標軌道生成手段23が生成し、図5に示すステップ7’を通る制御フローによりロボットアーム5の手先位置及び姿勢の制御が実行されるとともに、制御装置1によるハンド駆動用モーター62が駆動制御されることにより、ハンド6を開いた状態で物体38に近づけて、物体38を把持可能な位置にハンド6を位置させ、ハンド6を閉じて物体38を把持することにより、物体38の把持動作を実現することができる(図7Aに示す把持動作参照。)。なお、上記目標軌道を生成するときに必要な、把持する物体38の位置情報は、前記したように、環境マップデータベース52に予め蓄積されているか、又は、画像撮像装置44と画像認識手段45とを利用して取得することができる。これにより、ロボットアーム5が固定の場合には、ロボットアーム5の固定された位置の情報と、上記把持する物体38の位置情報とから、物体38を把持するための目標軌道を目標軌道生成手段23で生成することができる。また、ロボットアーム5が移動装置などにより移動する場合には、基準位置に対するロボットアーム5の現在位置情報を、例えば、画像撮像装置44と画像認識手段45とを利用して適宜取得しておき、取得された現在位置情報と、上記把持する物体38の位置情報とから、物体38を把持するための目標軌道を目標軌道生成手段23で生成することができる。
次いで、ステップBでは、物体38に配設されたRFタグ33の情報を、ハンド6に配設されたRFタグ受信機54で読み取り、RFタグ受信機54で物体38のID番号などのID情報が特定される。
次いで、ステップCでは、RFタグ受信機54で読み取ったID番号などのID情報より、物体特性データベース2において物体38の重量、寸法等の特性データが読み出され、物体特性データベース2から物体特性呼応インピーダンス設定手段3へと転送される。
次いで、ステップDでは、物体特性呼応インピーダンス設定手段3において、物体特性データベース2より転送された特性データを基に、物体38に呼応する機械インピーダンス設定値が上記式(1)〜式(3)により計算される。
次いで、ステップEでは、ロボットアーム5のハンド6で物体38を把持しながら運搬するための目標軌道を目標軌道生成手段23が生成し、図5に示すステップ7’を通る制御フローによりロボットアーム5の手先位置及び姿勢の制御が実行され、運搬動作が実現する(図7Bに矢印で示す運搬動作参照。)。
次いで、ステップFでは、ロボットアーム5が人や他の物体と接触していないかが接触検知手段37で検知され(接触検知手段37での検知動作)、接触が接触検知手段37で検知され無い場合はステップGへ、接触が接触検知手段37で検知された場合(図7Cに示す手100とロボットアーム5との接触動作が検知された場合)はステップHへ、動作が移行する。
ステップGでは、運搬動作が完了したかどうかの判定が目標軌道生成手段23で行われる。運搬動作が完了していない場合には目標位置までの目標軌道の計算が継続し、運搬動作を継続する一方、運搬動作が完了した場合には目標位置までの目標軌道の計算が完了し、rとして目的地の位置が出力され、かつ、ロボットアーム5の実際の手先位置rがrと略一致した場合に、目標位置に達したと判断する。物体38が目標位置すなわち目的地へと運搬されて、運搬が完了した場合にはステップIへ移行する。運搬動作が完了せず、運搬途中の場合は、ステップEの運搬動作が継続される。
ステップHでは、インピーダンス制御手段4により、上記ロボットアームの機械インピーダンスの値が、物体特性呼応インピーダンス設定手段3において計算された機械インピーダンス設定値となるように上記ロボットアーム5の機械インピーダンスの値を制御するインピーダンス制御動作が行われ(インピーダンス制御手段4での動作)、接触検知手段37で接触が検知されている間はインピーダンス制御動作が継続される。
ステップIでは、把持物体38の運搬が完了すると、制御装置1の制御によりロボットアーム5のハンド6が開き、物体38が把持状態から開放される(図7Dに示す把持解除動作参照。)。
次いで、ステップJでは、目標軌道生成手段23より動作完了告知信号201がインピーダンス計算手段25へと出力され、設定されていた機械インピーダンス設定値がインピーダンス計算手段25によりクリアされる。
以上の動作ステップA〜ステップJにより、ロボットアーム5による物体の運搬作業が実現し、接触を接触検知手段37で検知した際にはインピーダンス制御動作への切換が実現する。
以上のように、物体特性データベース2、物体特性呼応インピーダンス設定手段3、インピーダンス制御手段4を備えることにより、ロボットアーム5と人間や他の物体との接触を接触検知手段37で検知した際には、剛性の高い位置制御の状態から、速やかにインピーダンス制御の状態に移行し、安全性を確保できる(言い換えれば、十分に柔軟性を発揮できる状態に移行し、人との接触によって、ロボットアーム5が柔軟に動くことにより安全性が発揮できる)ようになると共に、把持物体の特性に応じてロボットアーム5の機械インピーダンス設定値を適切に変化させることができるようになる。具体的には、例えば、トレイにコップ載せて運搬している場合には、人の接触が生じてロボットアーム5が柔軟に動いても、手先の姿勢は維持されるように制御されるので、トレイは水平に維持され、コップを落下させることはない。
したがって、図15に示すように、ロボットアーム5の手先の目標軌道TAに対し、人間(例えば、手100)との接触を接触検知手段37で検知すると、適切な機械インピーダンス設定値の設定を行わなかった場合には、軌道TCの様になり、ロボットアーム5のハンド6に把持された物体38やハンド6と家具55等の他の物体との衝突が発生する可能性があるのに対し、上記第1実施形態のように適切なインピーダンス設定値の設定を行う場合には、軌道TBの様に、目標軌道TAからのずれ量を小さくでき、ロボットアーム5のハンド6に把持された物体38やハンド6と、家具55等の他の物体との衝突の危険を回避できる。
例えば、把持物体38の重量に応じて、ロボットアーム5の機械インピーダンス設定値を変化させることができるので、重量に比例するように剛性Kを特性呼応インピーダンス設定手段3により設定すれば、すなわち、特性呼応インピーダンス設定手段3によりゲインKKmをKKm>0と設定すれば、重い物体38をハンド6が把持している場合には、バネ性が強くなり抵抗が大きくなるため、人間がロボットアーム5を手100で押しのける際に、必要以上にロボットアーム5を動かし、把持した重量の大きい物体38が他の家具55などの他の物体や平面などに衝突する危険性を低減することができる。
また、把持物体38の重量に比例するように慣性Mを特性呼応インピーダンス設定手段3により大きく設定すれば、すなわち、特性呼応インピーダンス設定手段3によりゲインKMmをKMm>0と設定すれば、人間がロボットアーム5を手100で押しのける際に、人間が物体38の重さの感覚を感じ取ることができ、不必要に力を込めて押すことを防ぐことができる。
また、把持物体38の例として刃物のように危険度の高い「レベル5」と設定された物体38に対しては、例えば、ゲインKDdの設定値を大きく特性呼応インピーダンス設定手段3により設定しておけば、特性呼応インピーダンス設定手段3により粘性Dが危険度に応じて大きく設定されることになり、ロボットアーム5に粘性による抵抗が発生し、人との接触により刃物等が不用意に動いてしまう危険性を防ぎ、安全性を高めることができる。
また、把持物体38の例として熱湯が入った鍋を把持しながら運搬する場合には、例えば、ロボットアーム5のハンド付近に赤外線センサー(図示せず)を配設し、温度を赤外線センサーで検知することで高温であることを検知し、特性呼応インピーダンス設定手段3により物体特性データベース2の危険度データを最も危険度の高い「レベル5」とする。そのように設定することにより、物体特性呼応インピーダンス設定手段3及びインピーダンス制御手段4が、粘性を大きくし、ロボットアーム5を動きにくく制御するので、人間に手で押されても、ロボットアーム5が激しく動いて熱湯を飛び散らすといったことを防ぐことが可能となる。
以上のように、本発明の第1実施形態にかかる制御装置1によれば、人間との接触が発生しても、人間へ接触のダメージを与えることなく、かつ、接触によりロボットアーム5が動いて、把持物体38を落下させたり他の人間や他の物体に接触しダメージを与えることのない、安全なロボット制御を実現できる制御装置が提供される。
(第2実施形態)
本発明の第2実施形態における、ロボットアームの制御装置の基本的な構成は、図1、図2に示した第1実施形態の場合と同様であるので、共通部分の説明は省略し、異なる部分についてのみ以下、詳細に説明する。
図8は物体特性データベース2の把持規則表を説明する図である。物体特性データベース2は、図4に示す特性一覧表30に加え、図8に示す、物体の位置及び姿勢の拘束条件情報が記された把持規則表31を有している。把持規則表31には、位置維持、姿勢維持、高さ維持の項目があり、それぞれの項目に対し、1又は0の数値が予め記録されている。
姿勢維持の項目が1の場合、物体の姿勢を動かさずに固定するという姿勢の拘束条件の情報があることを示しており、ロボットアーム5のハンド6の手先での回転(φ、θ、ψ)方向の機械インピーダンス設定値が特性呼応インピーダンス設定手段3により大きく設定され、手先すなわちハンド6の姿勢が変動しにくいように制御される。
例えば、図9に示すように、トレイ39をハンド6で把持し、把持されたトレイ39の上にコップ40を載せているような把持状態の場合、ロボットアーム5と人間との接触でトレイ39が傾くとコップ40が矢印101のように落下する恐れがあるため、手先であるハンド6の姿勢を維持し、トレイ39の水平を保つために、把持規則表31の姿勢維持の項目が1に設定される。
把持規則表31の項目の設定は、把持状態検出手段53の検出結果に基づいて行われる。例えば、RFタグ受信機54によりトレイ39とコップ40が検出された場合、把持状態テーブルを参照し、トレイ39の上にコップ40が載置された把持状態であると推論し、把持規則表31の姿勢維持の項目が1に設定される。
このようにトレイ39をハンド6で把持し、トレイ39の上にコップ40を載せているような把持状態にあるかどうかの判断は、画像撮像装置44で取得された画像データを画像認識手段45で画像認識することにより可能であるし(すなわち、画像認識手段45の画像認識結果より、トレイ39にコップ40が載置されている情報が相対的位置関係情報として得られれば、トレイ39の上にコップ40を載せているような把持状態にあると判断することができ)、また、RFタグによるID番号などのID情報を使った把持物体の検出でも、例えば、トレイ39とコップ40が同時に検出された場合には、トレイ39の上にコップ40を載せて運搬していると、把持状態検出手段53により推論し、把持状態検出手段53により上記把持状態が推論された場合には、姿勢維持の項目を1とすると、把持規則表31に予め記録しておいても良い。
また、位置維持の項目が1の場合、ロボットアーム5の手先であるハンド6での並進(x、y、z)方向の機械インピーダンス設定値が特性呼応インピーダンス設定手段3により大きく設定され、手先であるハンド6の位置が変動しにくいように制御される。
例えば、ロボットアーム5の手先であるハンド6の近くに家具等があり、手先であるハンド6が並進(x、y、z)方向に進むと、家具等に衝突する危険がある場合に、位置維持の項目を1とすると把持規則表31に予め記録しておいても良い。
また、高さ維持の項目が1の場合、ロボットアーム5の手先であるハンド6でのz方向の機械インピーダンス設定値が特性呼応インピーダンス設定手段3により大きく設定され、手先であるハンド6の位置する高さが維持される。
例えば、図12に示すように、バッグ41をハンド6にぶら下げているような把持状態の場合、ハンド6の手先位置が下がってしまうと、バッグ41の底面が床面に接触する危険があるため、高さ維持の項目を1とすると把持規則表31に予め記録しておいても良い。この場合、ロボットアーム5の手先であるハンド6での−z方向、すなわち、鉛直方向下向きの機械インピーダンス設定値が特性呼応インピーダンス設定手段3により大きく設定され、手先であるハンド6の位置が下がりにくいように制御される。
次に、姿勢維持の場合を例に取り、機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御する実現方法について説明する。
手先位置及び姿勢目標補正出力rdΔは、インピーダンス計算手段25において、以下の式(8)により計算される。
Figure 0004056080
ただし、
Figure 0004056080
であり、(α、α、α、αφ、αθ、αψ)はインピーダンス制御係数である。
ロボットアーム5と人等との接触が無く、通常の位置制御モードにあるときは、インピーダンス制御係数のすべての成分(α、α、α、αφ、αθ、αψ)は、特性呼応インピーダンス設定手段3により0に設定される。このとき、式(8)でインピーダンス計算手段25により計算される手先位置及び姿勢目標補正出力rdΔの各成分は0になり、手先位置及び姿勢目標の補正は働かず、インピーダンス制御手段4は位置制御系として動作する。
ロボットアーム5と人等との接触が発生し、接触検知手段37でその接触が検知されると、インピーダンス制御係数の一部の成分がインピーダンス計算手段25により変更される。例えば、接触検知時に物体特性データベース2の把持規則表31を参照して把持規則表31の姿勢維持の項目が1である場合、特性呼応インピーダンス設定手段3により、位置に対応する成分(α、α、α)は1に切り換えられ、姿勢に対応する成分(αφ、αθ、αψ)は0が維持される。これにより、手先の位置(x、y、z)に関しては剛性Kとなるようにインピーダンス制御手段4により制御され、手先の姿勢(φ、θ、ψ)は位置制御がインピーダンス制御手段4により維持される。
したがって、例えば、慣性M=0、D=0となるようにし、剛性Kとして十分な柔軟性を発揮できる設定値に機械インピーダンスを特性呼応インピーダンス設定手段3により設定しておけば、ロボットアーム5と人との接触によって、手先であるハンド6の位置が柔軟に動くことにより安全性が発揮され、一方、手先であるハンド6の姿勢は維持されるので、例えば、トレイ39にコップ40を載せて運搬している場合には、人の接触が生じてもトレイ39は水平に維持され、コップ40を落下させることはない。
このように、インピーダンス制御係数により、上記ロボットアーム5の機械インピーダンスの値を、手先であるハンド6の方向別に機械インピーダンス設定値に制御できるようにすることで、人との接触に対する安全性を確保しつつ、把持物体や周囲環境などの外環境に対する安全性を同時に満たすことができる制御が可能となる。
なお、本第2実施形態では、把持規則表31を図8のとおりとしたが、これに限られるわけではなく、図10のように位置維持成分、姿勢維持成分、さらに、±の方向ごとに機械インピーダンス設定値の切り換えの動作の仕方を指定する形式でも同様の効果が発揮できるとともに、さらに細かく、機械インピーダンス設定値の切り換えの動作を指定することができる。
(第3実施形態)
本発明の第3実施形態における制御装置の基本的な構成は、上記した第2実施形態の場合と同様であるので、共通部分の説明は省略し、異なる部分についてのみ以下、詳細に説明する。
図11は、本発明の第3実施形態における、ロボットアームの制御装置のインピーダンス制御手段4Aの構成を示すブロック図である。32は方向別インピーダンス調整手段であり、物体特性呼応インピーダンス設定手段3の設定した機械インピーダンス設定値、及び、物体特性データベース2の把持規則表31に基づき、位置誤差補償手段27のフィードバックゲインを方向別に調整を行う機能を有する。
本発明の第3実施形態における上記制御装置のインピーダンス制御手段4Aの物体特性呼応インピーダンス設定手段3では剛性K及び粘性Dの設定を行い、慣性Mの設定は行わない。また、位置誤差補償手段27はPD補償器であり、位置誤差補償出力ureは下記の(10)式で計算される。
Figure 0004056080
ただし、Kは比例ゲイン行列、Kは微分ゲイン行列であり、その対角成分が手先位置ベクトル
Figure 0004056080
の各成分に対するゲインで構成される対角行列である。これらのゲインを調整(チューニング)することにより、適切な位置及び姿勢の制御性能を得ることができる。
次に、動作について説明する。
人や他の物体との接触を接触検知手段37で検知していない場合には、方向別インピーダンス調整手段32は動作せず、位置誤差補償手段27は式(10)で計算されるゲインにより動作し、ロボットアーム5の位置制御が実現する。
一方、人や他の物体との接触を接触検知手段37で検知した場合には、方向別インピーダンス調整手段32は、位置誤差補償手段27のゲインを以下の式(11)及び式(12)に基づいて調整を行う。
Figure 0004056080
Figure 0004056080
ただし、αは式(9)で与えられるインピーダンス制御係数、Iは単位行列である。したがって、位置誤差補償手段27の位置誤差補償出力ureは、方向別インピーダンス調整手段32によってゲインが調整され、下記の(13)式で計算される。
Figure 0004056080
上記の式(13)によれば、把持規則表31で位置維持、姿勢維持あるいは、高さ維持と設定された場合に、αの対角成分(α、α、α、αφ、αθ、αψ)のうち、対応する方向の成分が1と設定されるため、それらの方向に関しては位置制御のためのゲインK、Kによるフィードバックがなされる事になるため、ロボットアーム5は位置制御モードの動作となる。
一方、その他の方向成分では、ロボットアーム5は、物体特性呼応インピーダンス設定手段3の設定した機械インピーダンス設定値の剛性K及び粘性Dが使用されるため、剛性K、粘性Dの設定値に基づく制御モードとなる。したがって、例えば、剛性K<Kとすれば、接触時には対応する方向の位置制御の比例ゲインが小さくなり、ロボットアーム5の剛性が低下することになる。また、粘性D<Kとすれば、接触時には対応する方向の位置制御の微分ゲインが小さくなり、ロボットアーム5の粘性が低下することになる。
先に記載した第1実施形態の場合、これらの剛性K及び粘性Dの設定値は、それぞれ、剛性、粘性という物理特性を表す値そのものであったが、本第3実施形態の剛性K、粘性Dは直接、剛性、粘性を表すものではなく、ゲインを調整することにより擬似的に剛性、粘性を実現するものである。したがって、本第3実施形態における剛性K、粘性Dの具体的数値については、実験的に調整を行いながら適切な剛性、粘性が得られる値を探索することになる。
以上のように、本発明の第3実施形態におけるロボットアームの制御装置では、位置誤差補償手段27のゲインを調整することにより、手先の方向別に擬似的に機械インピーダンス設定値に上記ロボットアーム5の機械インピーダンスの値を制御することを実現することで、人との接触に対する安全性を確保しつつ、把持物体や外環境に対する安全性を同時に満たすことができる制御が可能となる。
なお、上記第1実施形態では、物理特性情報を把持物体の重量情報、寸法情報、硬度情報としたが、これらに限られるわけではなく、温度など、その他の物理特性でもよい。
また、上記第1実施形態では、属性情報を危険度情報としたが、これらに限られるわけではなく、重要度情報など、その他の属性情報でもよい。属性情報として重要度情報を選んだ場合には、例えば、記念品など大切な物品に対して重要度を高く設定すれば、ロボットアーム5の機械インピーダンス設定値が高く設定されるので、大切な物品を破損する危険度を低めることができる。
なお、上記実施形態ではロボットアームを例に説明したが、本発明は、アームに限らず、車輪により動く移動ロボットや、2足歩行ロボット、多足歩行ロボットなどにも適用することができ、移動ロボットなどと人間との接触に関して同様の効果を発揮する。
なお、上記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
本発明は、家庭用ロボットなど人と接する可能性があるロボットのロボットアームの動作の制御を行なうロボットアームの制御装置として有用である。また、家庭用ロボットに限らず、産業用ロボットや、生産設備等における可動機構のロボットアームの制御装置としても適用が可能である。

本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。
本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。
図1は、本発明の第1実施形態における制御装置の概念を示すブロック図である。 図2は、本発明の第1実施形態におけるロボットアームの制御装置のハードウェア構成及び制御対象であるロボットアームの詳細構成を示す図である。 図3は、本発明の第1実施形態における制御装置のインピーダンス制御手段の構成を示すブロック図である。 図4は、物体特性データベースの特性一覧表を説明する図である。 図5は、本発明の第1実施形態における制御装置のインピーダンス制御手段での制御プログラムの動作ステップを表すフローチャートである。 図6は、本発明の第1実施形態における制御装置の全体的な動作ステップを表すフローチャートである。 図7Aは、本発明の第1実施形態におけるロボットアームの制御装置の制御対象であるロボットアームの動作を説明する図である。 図7Bは、本発明の第1実施形態におけるロボットアームの制御装置の制御対象であるロボットアームの動作を説明する図である。 図7Cは、本発明の第1実施形態におけるロボットアームの制御装置の制御対象であるロボットアームの動作を説明する図である。 図7Dは、本発明の第1実施形態におけるロボットアームの制御装置の制御対象であるロボットアームの動作を説明する図である。 図8は、物体特性データベースの把持規則表を説明する図である。 図9は、本発明の第2実施形態におけるロボットアームの制御装置の制御対象であるロボットアームによる把持動作を説明する図である。 図10は、物体特性データベースの他の把持規則表を説明する図である。 図11は、本発明の第3実施形態における制御装置のインピーダンス制御手段の構成を説明する図である。 図12は、本発明の第2実施形態におけるロボットアームの制御装置の制御対象であるロボットアームによる他の把持動作を説明する図である。 図13は、本発明の第1実施形態におけるロボットアームの制御装置の目標軌道を説明する図である。 図14は、本発明の第1実施形態における物体特性収集手段の詳細を説明するブロック図である。 図15は、本発明の第1実施形態におけるロボットアームの制御装置の効果を説明する図である。

Claims (8)

  1. ロボットアームの制御装置であって、
    上記ロボットアームが運搬している物体の運搬特性に関する情報が記録された物体特性データベースと、
    上記物体特性データベースの上記情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
    上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段とを有するとともに、
    上記物体特性呼応インピーダンス設定手段は、上記物体特性データベースの上記情報に基づき上記ロボットアームの手先の並進方向及び回転方向の6次元の方向の機械インピーダンス設定値を個別に設定し、かつ、上記手先の上記回転方向の剛性を上記並進方向の剛性よりも高することで上記ロボットアームが運搬している上記物体を水平に保つよう設定するロボットアームの制御装置。
  2. 上記ロボットアームが運搬している上記物体の運搬特性に関する情報を収集し、収集した上記物体の運搬特性に関する情報を上記物体特性データベースに記録する物体特性収集手段をさらに有する、請求項1に記載のロボットアームの制御装置。
  3. ロボットアームの制御装置であって、
    上記ロボットアームが運搬している物体の運搬特性に関する情報が記録された物体特性データベースと、
    上記物体特性データベースの上記情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
    上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段とを有し、
    上記物体特性データベースは上記ロボットアームが運搬している上記物体の属性情報を有し、上記物体の属性情報として上記運搬している物体の危険度情報を有するとともに、
    上記物体特性呼応インピーダンス設定手段は、上記物体特性データベースの上記危険度情報に基づき上記機械インピーダンス設定値を設定する、ロボットアームの制御装置。
  4. 上記ロボットアームが運搬している上記物体の運搬特性に関する情報を収集し、収集した上記物体の運搬特性に関する情報を上記物体特性データベースに記録する物体特性収集手段をさらに有する、請求項3に記載のロボットアームの制御装置。
  5. 上記物体特性データベースの有する危険度情報は、上記運搬している物体の周囲環境情報に基づき設定された危険度情報である、請求項3又は4に記載のロボットアームの制御装置。
  6. ロボットアームの制御装置であって、
    上記ロボットアームが運搬している物体の運搬特性に関する情報が記録された物体特性データベースと、
    上記物体特性データベースの上記情報に基づき上記ロボットアームの機械インピーダンス設定値を設定する物体特性呼応インピーダンス設定手段と、
    上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御するインピーダンス制御手段とを有し、
    上記物体特性データベースは上記ロボットアームが運搬している上記物体の属性情報を有し、上記物体の属性情報として上記運搬している物体の重要度情報を有するとともに、
    上記物体特性呼応インピーダンス設定手段は、物体特性データベースの上記重要度情報に基づき上記機械インピーダンス設定値を設定するロボットアームの制御装置。
  7. 上記ロボットアームが運搬している上記物体の運搬特性に関する情報を収集し、収集した上記物体の運搬特性に関する情報を上記物体特性データベースに記録する物体特性収集手段をさらに有する、請求項6に記載のロボットアームの制御装置。
  8. 上記インピーダンス制御手段は、上記ロボットアームに人や物体が接触することを検知する接触検知手段を有し、上記ロボットアームが上記人や物体と接触した時に、上記物体特性呼応インピーダンス設定手段の設定した上記機械インピーダンス設定値に、上記ロボットアームの機械インピーダンスの値を制御する、請求項1〜7のいずれか1つに記載のロボットアームの制御装置。
JP2007516130A 2006-01-13 2006-12-12 ロボットアームの制御装置 Active JP4056080B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006005712 2006-01-13
JP2006005712 2006-01-13
PCT/JP2006/324741 WO2007080733A1 (ja) 2006-01-13 2006-12-12 ロボットアームの制御装置及び制御方法、ロボット、及びプログラム

Publications (2)

Publication Number Publication Date
JP4056080B2 true JP4056080B2 (ja) 2008-03-05
JPWO2007080733A1 JPWO2007080733A1 (ja) 2009-06-11

Family

ID=38256145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007516130A Active JP4056080B2 (ja) 2006-01-13 2006-12-12 ロボットアームの制御装置

Country Status (4)

Country Link
US (1) US7558647B2 (ja)
JP (1) JP4056080B2 (ja)
CN (3) CN101870108B (ja)
WO (1) WO2007080733A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741844B1 (ko) * 2010-03-24 2017-05-30 소니 주식회사 파지 판별 장치 및 파지 판별 방법
JP2020116421A (ja) * 2014-09-30 2020-08-06 オーリス ヘルス インコーポレイテッド 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008188722A (ja) * 2007-02-06 2008-08-21 Fanuc Ltd ロボット制御装置
JP4836872B2 (ja) * 2007-05-31 2011-12-14 株式会社東芝 制御装置、制御方法、プログラム及びロボット
CN101646534B (zh) * 2007-06-27 2012-03-21 松下电器产业株式会社 机器手控制装置及控制方法、机器人
JP2009090403A (ja) * 2007-10-05 2009-04-30 Fanuc Ltd ロボット動作範囲設定装置
JP4445038B2 (ja) * 2008-02-06 2010-04-07 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP5322206B2 (ja) * 2008-05-07 2013-10-23 国立大学法人 香川大学 3次元形状の計測方法および装置
KR101479233B1 (ko) 2008-05-13 2015-01-05 삼성전자 주식회사 로봇 및 그 협조작업 제어방법
JP2010079814A (ja) * 2008-09-29 2010-04-08 Sanyo Electric Co Ltd 搬送制御装置、搬送装置の制御方法、及び観察装置
CN101737603B (zh) * 2008-11-10 2011-11-30 鸿富锦精密工业(深圳)有限公司 万向关节
EP2364243B1 (en) * 2008-12-03 2012-08-01 ABB Research Ltd. A robot safety system and a method
JP5083194B2 (ja) * 2008-12-18 2012-11-28 株式会社デンソーウェーブ ロボットのキャリブレーション方法及びロボットの制御装置
JP4568795B2 (ja) 2009-01-09 2010-10-27 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路
JP2010228028A (ja) * 2009-03-26 2010-10-14 Nec Corp ロボットアーム、ロボットアームの接触検知方法、及び、ロボットアームを備えた装置
JP5549129B2 (ja) 2009-07-06 2014-07-16 セイコーエプソン株式会社 位置制御方法、ロボット
US8544228B2 (en) * 2009-10-27 2013-10-01 Joseph Bronner Winged anchor and spiked spacer for veneer wall tie connection system and method
CN102470531B (zh) * 2010-01-04 2016-01-20 松下知识产权经营株式会社 机器人、机器人的控制装置及控制方法
JP5638283B2 (ja) * 2010-05-07 2014-12-10 本田技研工業株式会社 制御装置
JP5539000B2 (ja) * 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
JP5014471B2 (ja) * 2010-06-30 2012-08-29 ファナック株式会社 多軸加工機用数値制御装置
JP5550468B2 (ja) * 2010-06-30 2014-07-16 キヤノン株式会社 力覚センサの校正方法
CN101870110B (zh) * 2010-07-01 2012-01-04 三一重工股份有限公司 一种机械铰接臂的控制方法及控制装置
KR102015307B1 (ko) * 2010-12-28 2019-08-28 삼성전자주식회사 로봇 및 그 제어 방법
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
WO2012124342A1 (ja) * 2011-03-17 2012-09-20 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
US8918210B2 (en) * 2011-03-18 2014-12-23 Denso Wave Incorporated Method of detecting an inter-axis offset of 6-axis robot
TW201247373A (en) * 2011-05-23 2012-12-01 Hon Hai Prec Ind Co Ltd System and method for adjusting mechanical arm
CN102363301A (zh) * 2011-10-19 2012-02-29 浙江工业大学 机器人拟人手指自适应指尖力跟踪控制方法
KR101305819B1 (ko) * 2012-01-04 2013-09-06 현대자동차주식회사 착용식 로봇의 사용자 조작 의도 토크 추출방법
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP5966372B2 (ja) * 2012-01-17 2016-08-10 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法及びロボット
JP5962020B2 (ja) 2012-01-17 2016-08-03 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット及びロボット制御方法
US9050726B2 (en) * 2012-05-16 2015-06-09 Gi 2 Technologies, Llc Activation control device for robotic auxiliary devices
WO2013175777A1 (ja) * 2012-05-23 2013-11-28 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
JP5409844B2 (ja) * 2012-05-30 2014-02-05 株式会社神戸製鋼所 多関節ロボットの軌跡制御装置および制御方法
JP5978028B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
WO2014037999A1 (ja) * 2012-09-04 2014-03-13 株式会社安川電機 ロボットの制御パラメータ調整方法、ロボットシステム、及びロボット制御装置
CN103894807A (zh) * 2012-12-28 2014-07-02 Abb技术有限公司 降低操作员潜在伤害的方法和装置
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9649765B2 (en) * 2013-03-11 2017-05-16 Siemens Aktiengesellschaft Reducing energy consumption of industrial robots by using new methods for motion path programming
KR20140147267A (ko) * 2013-06-19 2014-12-30 광주과학기술원 위치 제어 산업 로봇의 제어 방법 및 장치
CN103707300A (zh) * 2013-12-20 2014-04-09 上海理工大学 机械手装置
US9452532B2 (en) 2014-01-27 2016-09-27 Panasonic Intellectual Property Management Co., Ltd. Robot, device and method for controlling robot, and computer-readable non-transitory recording medium
US9922144B2 (en) 2014-03-26 2018-03-20 Siemens Industry Software Ltd. Energy and cycle time efficiency based method for robot positioning
JP5820013B1 (ja) * 2014-04-30 2015-11-24 ファナック株式会社 ワークを把持して搬送するロボットの安全監視装置
NZ725166A (en) 2014-05-01 2018-05-25 Jarvis Products Robotic carcass processing method and system
US9701011B2 (en) 2014-05-08 2017-07-11 Siemens Industry Software Ltd. Method for robotic energy saving tool search
US9272417B2 (en) 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US9298863B2 (en) 2014-07-31 2016-03-29 Siemens Industry Software Ltd. Method and apparatus for saving energy and reducing cycle time by using optimal robotic joint configurations
US9815201B2 (en) 2014-07-31 2017-11-14 Siemens Industry Software Limited Method and apparatus for industrial robotic energy saving optimization using fly-by
US9469029B2 (en) 2014-07-31 2016-10-18 Siemens Industry Software Ltd. Method and apparatus for saving energy and reducing cycle time by optimal ordering of the industrial robotic path
US9457469B2 (en) * 2014-08-14 2016-10-04 Siemens Industry Software Ltd. Method and apparatus for automatic and efficient location generation for cooperative motion
DE102014216514B3 (de) * 2014-08-20 2015-09-10 Kuka Roboter Gmbh Verfahren zum Programmieren eines Industrieroboters und zugehöriger Industrieroboter
US9804593B1 (en) * 2014-12-12 2017-10-31 X Development Llc Methods and systems for teaching positions to components of devices
DE102014226933B3 (de) * 2014-12-23 2016-03-24 Kuka Roboter Gmbh Vorrichtung und Verfahren zum Aufnehmen von Positionen
JP6166305B2 (ja) 2015-05-08 2017-07-19 ファナック株式会社 負荷パラメータ設定装置および負荷パラメータ設定方法
US9687982B1 (en) 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
DE102015209899B4 (de) * 2015-05-29 2019-06-19 Kuka Roboter Gmbh Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
JP6661925B2 (ja) * 2015-09-07 2020-03-11 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN105459136B (zh) * 2015-12-29 2017-07-14 上海帆声图像科技有限公司 机器人视觉抓取方法
GB2549072B (en) * 2016-03-24 2020-07-29 Cmr Surgical Ltd Robot control
JP6423815B2 (ja) * 2016-03-30 2018-11-14 ファナック株式会社 人協働型のロボットシステム
JP6755724B2 (ja) * 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
US20180021949A1 (en) * 2016-07-20 2018-01-25 Canon Kabushiki Kaisha Robot apparatus, robot controlling method, program, and recording medium
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP6895242B2 (ja) 2016-11-25 2021-06-30 株式会社東芝 ロボット制御装置、ロボット制御方法及びピッキング装置
GB2557179B (en) * 2016-11-29 2020-01-01 Rolls Royce Plc Methods, apparatus, computer programs and non-transitory computer readable storage mediums for controlling a hyper redundant manipulator
JP6392910B2 (ja) * 2017-01-13 2018-09-19 ファナック株式会社 ロボットの安全確保動作機能を備えた人間協働ロボットシステム
JP7427358B2 (ja) * 2017-07-20 2024-02-05 キヤノン株式会社 ロボットシステム、物品の製造方法、制御方法、制御プログラム、および記録媒体
US10821608B2 (en) 2017-10-23 2020-11-03 International Business Machines Corporation Method of robot arm fleet position control with wireless charging time
CN207929579U (zh) * 2018-01-04 2018-10-02 北京京东尚科信息技术有限公司 包裹识别装置和包裹分拣装置
TWI664507B (zh) * 2018-01-22 2019-07-01 金寶電子工業股份有限公司 自動控制設備以及自動控制方法
CN108406765B (zh) * 2018-02-06 2021-05-07 南京航空航天大学 一种开链式多臂机器人阻抗控制方法
JP2019155542A (ja) * 2018-03-14 2019-09-19 株式会社東芝 搬送装置、搬送システム、コントローラ、および搬送方法
US10875662B2 (en) * 2018-04-19 2020-12-29 Aurora Flight Sciences Corporation Method of robot manipulation in a vibration environment
JP7057214B2 (ja) * 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
JPWO2020008538A1 (ja) * 2018-07-03 2020-07-27 三菱電機株式会社 材質推定装置及びロボット
US20210402598A1 (en) * 2018-10-10 2021-12-30 Sony Corporation Robot control device, robot control method, and robot control program
CN109062032B (zh) * 2018-10-19 2021-08-31 江苏省(扬州)数控机床研究院 一种基于近似动态逆的机器人pid变阻抗控制方法
JP6863945B2 (ja) 2018-10-24 2021-04-21 ファナック株式会社 ロボットの制御方法
ES2912406T3 (es) * 2019-02-15 2022-05-25 Siemens Ag Sistema y método computarizados que usan diferentes vistas de imágenes para encontrar ubicaciones de agarre y trayectorias para una recogida robótica
TWI700067B (zh) * 2019-03-12 2020-08-01 兆強科技股份有限公司 飲料杯自動手搖設備
JP7497141B2 (ja) * 2019-05-10 2024-06-10 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
CN110605721A (zh) * 2019-10-24 2019-12-24 苏州艾利特机器人有限公司 一种基于末端六维力传感器的机械臂拖动示教方法
DE102019131401B3 (de) * 2019-11-21 2020-10-29 Franka Emika Gmbh Kalibrierung einer Impedanzregelung eines Robotermanipulators
DE102020103857B4 (de) * 2020-02-14 2023-03-02 Franka Emika Gmbh Kraftbegrenzung bei Kollision eines Robotermanipulators
JP7415775B2 (ja) 2020-04-30 2024-01-17 トヨタ自動車株式会社 ロボット
CN113352327B (zh) * 2021-06-28 2022-09-23 深圳亿嘉和科技研发有限公司 五自由度机械臂关节变量确定方法
CN117124333A (zh) * 2023-10-20 2023-11-28 北京云桥智海科技服务有限公司 基于物联网的企业设备监测管理系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960232B2 (ja) 1991-11-26 1999-10-06 川崎重工業株式会社 ロボットの制御装置
JPH05305591A (ja) * 1992-05-01 1993-11-19 Kobe Steel Ltd 組立ロボット
JP3115147B2 (ja) * 1993-03-12 2000-12-04 富士通株式会社 ロボット制御装置及びコントローラ
JPH07251389A (ja) * 1994-03-16 1995-10-03 Toshiba Corp マニピュレータ装置
JP3412654B2 (ja) * 1994-06-17 2003-06-03 株式会社安川電機 マニピュレータの協調制御装置
JP3369351B2 (ja) * 1995-03-28 2003-01-20 富士通株式会社 多関節マニピュレータの弾性設定方法および制御装置
JP3865158B2 (ja) 1997-05-30 2007-01-10 株式会社安川電機 ロボットアームのインピーダンス制御装置
US6522952B1 (en) * 1999-06-01 2003-02-18 Japan As Represented By Secretary Of Agency Of Industrial Science And Technology Method and system for controlling cooperative object-transporting robot
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
WO2004052598A1 (ja) * 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. ロボット制御装置
JP2004195576A (ja) 2002-12-17 2004-07-15 Japan Science & Technology Agency 機能性流体を用いた柔軟関節マニピュレータ
JP2004280195A (ja) * 2003-03-12 2004-10-07 Yaskawa Electric Corp ロボット制御装置
JP2005088140A (ja) 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
CN1281384C (zh) * 2004-03-31 2006-10-25 哈尔滨工业大学 悬垂式智能机械手

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741844B1 (ko) * 2010-03-24 2017-05-30 소니 주식회사 파지 판별 장치 및 파지 판별 방법
JP2020116421A (ja) * 2014-09-30 2020-08-06 オーリス ヘルス インコーポレイテッド 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム
JP7146837B2 (ja) 2014-09-30 2022-10-04 オーリス ヘルス インコーポレイテッド 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム
US11534250B2 (en) 2014-09-30 2022-12-27 Auris Health, Inc. Configurable robotic surgical system with virtual rail and flexible endoscope

Also Published As

Publication number Publication date
US7558647B2 (en) 2009-07-07
JPWO2007080733A1 (ja) 2009-06-11
CN101870108B (zh) 2011-09-28
CN101870112A (zh) 2010-10-27
CN101213052B (zh) 2011-01-12
US20090105880A1 (en) 2009-04-23
CN101870108A (zh) 2010-10-27
CN101870112B (zh) 2011-09-28
WO2007080733A1 (ja) 2007-07-19
CN101213052A (zh) 2008-07-02

Similar Documents

Publication Publication Date Title
JP4056080B2 (ja) ロボットアームの制御装置
JP4243326B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
JP4568795B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路
JP7116901B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP4759660B2 (ja) ロボットアーム制御用の装置、方法、プログラム及び集積電子回路、並びに、組立ロボット
JP5695223B2 (ja) ロボット、ロボットの制御装置、制御方法、及び制御プログラム
JP4445038B2 (ja) ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP5154712B2 (ja) ロボットの制御装置及び制御方法、ロボット、並びに、制御プログラム
JP4361132B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
JP4947073B2 (ja) ロボット装置及びその制御方法
JPWO2013069291A1 (ja) ロボット、ロボットの制御装置、制御方法、及び制御プログラム
WO2020075423A1 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2013223921A (ja) 力またはインピーダンス制御ロボットの作業空間安全動作
CN113631324A (zh) 多主体控制器和机器人
JP6387599B2 (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP2017056525A (ja) ロボット装置、ロボット制御方法、プログラム、記録媒体及び組立部品の製造方法
Kitchatr et al. Visual servo control for ball-on-plate balancing: Effect of PID controller gain on tracking performance
Kiyokawa et al. Generation of a tactile-based pouring motion using fingertip force sensors
JP7286524B2 (ja) ピッキングロボット、ピッキング方法及びプログラム
JP7263217B2 (ja) 制御装置、制御方法、及びロボットシステム
Le et al. Time-minimum motion handling of open liquid-filled objects using sparse sequential quadratic programming
TW202421393A (zh) 控制裝置以及電腦
Shin et al. Transmission of operator intention impedance using phantom haptic device
Shu et al. A novel dual-arm adaptive cooperative control framework for carrying variable loads and active anti-overturning
JP2019141976A (ja) 制御装置、ロボットの制御方法およびロボットシステム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071210

R150 Certificate of patent or registration of utility model

Ref document number: 4056080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070606

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070606