JP2020121373A - ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム - Google Patents

ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム Download PDF

Info

Publication number
JP2020121373A
JP2020121373A JP2019014686A JP2019014686A JP2020121373A JP 2020121373 A JP2020121373 A JP 2020121373A JP 2019014686 A JP2019014686 A JP 2019014686A JP 2019014686 A JP2019014686 A JP 2019014686A JP 2020121373 A JP2020121373 A JP 2020121373A
Authority
JP
Japan
Prior art keywords
robot
end effector
target position
work
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019014686A
Other languages
English (en)
Other versions
JP6761194B2 (ja
Inventor
弘 熊谷
Hiroshi Kumagai
弘 熊谷
中村 民男
Tamio Nakamura
民男 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2019014686A priority Critical patent/JP6761194B2/ja
Priority to CN202010040484.8A priority patent/CN111496776B/zh
Priority to US16/748,820 priority patent/US11577399B2/en
Publication of JP2020121373A publication Critical patent/JP2020121373A/ja
Application granted granted Critical
Publication of JP6761194B2 publication Critical patent/JP6761194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】画像から取得されてからロボットのエンドエフェクタが目標位置に到達するまでの遅延時間において、ロボットのエンドエフェクタとワークとの相対位置が変化した場合であっても、相対位置の変化に追随することができ、より正確かつ高速にエンドエフェクタをワークに近づけること。【解決手段】本開示に係るロボットシステム1は、ワークWに対してエンドエフェクタ7により所定作業を行うロボット10と、ワークWを撮像するビジョンセンサ3と、撮像した画像に基づいてエンドエフェクタ7が移動すべき位置を示す目標位置を生成周期で生成する目標位置生成部151と、少なくとも相対位置に関連する相対位置情報に基づいてエンドエフェクタ7とワークWとの相対位置の変化量を推定周期で推定する推定部152と、生成した目標位置と推定した変化量とに基づいてロボット10を制御する制御部153とを有する。【選択図】図2

Description

本開示は、ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラムに関する。
従来、ビジョンセンサや外界センサで撮影した画像に基づいてロボットの位置や姿勢を制御するビジュアルフィードバック(VFB:Visual FeedBack)と呼ばれる技術が知られている(例えば、特許文献1〜3参照)。
特許第4222338号 特開2007-011978号公報 特許第5306313号
しかしながら、従来のビジュアルフィードバックを用いて相対位置が変化するワークに対して位置決めを行う制御では、エンドエフェクタが目標位置に到達するまでの遅延時間におけるエンドエフェクタとワークとの相対位置の変化に起因する目標位置の変化に追随することができないため、高速にエンドエフェクタをワークに近づけることができないという問題点があった。
そこで、本開示は、上述の課題に鑑みてなされたものであり、画像から取得されてからロボットのエンドエフェクタが目標位置に到達するまでの遅延時間において、ロボットのエンドエフェクタとワークとの相対位置が変化した場合であっても、相対位置の変化に追随することができ、より正確かつ高速にエンドエフェクタをワークに近づけることができるロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラムを提供することを目的とする。
本開示の第1の特徴は、ロボットシステムであって、相対位置が変化するワークに対して、エンドエフェクタにより所定作業を行うロボットと、前記ワークを撮像するビジョンセンサと、前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する目標位置生成部と、少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する推定部と、前記目標位置生成部が生成した前記目標位置と前記推定部が推定した前記変化量とに基づいて、前記ロボットを制御する制御部と、を有することを要旨とする。
本開示の第2の特徴は、ロボット制御方法であって、相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムにおいて、前記ロボットを制御するロボット制御方法であって、前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する工程Aと、少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する工程Bと、前記工程Aで生成した前記目標位置と前記工程Bで推定した前記変化量とに基づいて、前記ロボットを制御する工程Cと、を有することを要旨とする。
本開示の第3の特徴は、ロボットコントローラであって、相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムにおいて、前記ロボットを制御するロボットコントローラであって、前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する目標位置生成部と、少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する推定部と、前記目標位置生成部が生成した前記目標位置と前記推定部が推定した前記変化量とに基づいて、前記ロボットを制御する制御部と、を有することを要旨とする。
本開示の第4の特徴は、プログラムであって、相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムを構成するロボットコントローラで用いるプログラムであって、コンピュータに、前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する工程Aと、少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する工程Bと、前記工程Aで生成した前記目標位置と前記工程Bで推定した前記変化量とに基づいて、前記ロボットを制御する工程Cと、を実行させることを要旨とする。
本開示によれば、画像から取得されてからロボットのエンドエフェクタが目標位置に到達するまでの遅延時間において、ロボットのエンドエフェクタとワークとの相対位置が変化した場合であっても、相対位置の変化に追随することができ、より正確かつ高速にエンドエフェクタをワークに近づけることができるロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラムを提供することができる。
図1は、一実施形態に係るロボットシステムの全体構成の一例を表す説明図である。 図2は、一実施形態に係るロボットシステムのロボットコントローラの機能構成の一例を表す図である。 図3は、一実施形態に係るロボットシステムにおけるセンサの配置の一例を表す図である。 図4は、一実施形態に係るロボット制御方法の一例を表すフローチャートである。 図5は、一実施形態に係るロボットシステムのロボットコントローラのハードウェア構成の一例を表す説明図である。
以下、一実施形態について図面を参照しつつ説明する。
<ロボットシステムの全体構成>
まず、図1を参照しつつ、実施形態に係るロボットシステム1の全体構成の一例について説明する。本実施形態において、ロボットシステム1は、移動体20によりロボット10を移動させながら所定作業を行うことが可能である。
図1に示すように、本実施形態に係るロボットシステム1は、ロボット10と、ロボットコントローラ15と、ビジョンセンサ3と、ビジョンセンサコントローラ35と、移動体20と、移動体コントローラ30とを有する。
本実施形態において、ロボット10は、相対位置が変化するワークWに対して、エンドエフェクタ7により所定作業を行う。例えば、ロボット10は、6つの関節部を備えた垂直多関節型の6軸ロボットである。なお、ロボット10は、6軸以外(例えば、5軸や7軸等)のロボットであってもよい。また、ロボット10は、水平多関節型やパラレルリンクロボット等、垂直多関節型以外のロボットであってもよい。
ここで、本実施形態において、ロボット10の先端には、エンドエフェクタ7が取り付けられていてもよい。例えば、エンドエフェクタ7は、ハンドや、溶接トーチや、工具等であってもよい。
本実施形態において、上述の所定作業は、例えば、エンドエフェクタ7によりテーブル40上のワークWを把持して移送先テーブルに移送するワークWの移送作業であってもよい。なお、かかる所定作業は、ワークWの移送作業に限定されるものではなく、例えば、複数のワークWを組み合わせて部品の組み立て等を実行する作業であってもよい。また、かかる所定作業は、エンドエフェクタ7の種類を適宜変更した場合には、例えば、塗装、リベット打ち、くぎ打ち、スポット溶接、ステープル留め、ボルト締め等の作業であってもよい。
本実施形態において、ビジョンセンサ3は、所定の撮像周期で、ワークWを撮像する。ここで、ビジョンセンサ3は、視覚センサとも呼ばれ、2次元や3次元で対象物の映像を捉えて画像処理することで対象物の特徴量を算出して画像等で出力するセンサである。ビジョンセンサ3の一例としては、2次元カメラや3次元カメラ等があげられる。なお、ビジョンセンサ3は、時間的に連続して撮像を行ってもよいし、断続的に複数回の撮像を行ってもよい。ビジョンセンサ3は、移動体20に設置されたビジョンセンサコントローラ35に接続されており、ビジョンセンサ3によって撮像された画像は、ビジョンセンサコントローラ35に送信される。
ビジョンセンサ3は、ロボット10が所定作業をする際のワークWの3次元位置をリアルタイムに検出するために、例えば、ロボット10の手首部にエンドエフェクタ7の手先側を視野とする姿勢で設置されていてもよい。なお、ビジョンセンサ3は、ロボット10の他の箇所や移動体20上に取り付けられてもよい。また、ビジョンセンサ3の設置台数は、1台に限定されるものではなく、2台以上としてもよい。
本実施形態において、移動体20は、ロボット10を積載して、ワークWに対して移動する。なお、以下において、移動体20等の構成の説明の便宜上、上下左右前後等の方向を適宜使用するが、移動体20等の各構成の位置関係を限定するものではない。また、前及び後の方向は、移動体20の進行方向における前方及び後方に対応している。
例えば、移動体20は、移動体コントローラ30の制御により、例えば、工場内等を無軌道に移動可能な、所謂、無人搬送車(AGV)であってもよいし、コンベア等であってもよい。
図1に示すように、移動体20は、例えば、直方体状の筐体21を備え、筐体21の内部に移動体コントローラ30を内蔵している。図1の例では、筐体21の上面21aにおいて、例えば、後側寄りの位置にロボット10が搭載され、例えば、前方右側寄りの位置にビジョンセンサコントローラ35が搭載されている。筐体21の下面の四隅には、車輪22が設けられている。
図1に示すように、移動体20において、ロボット10よりも進行方向の前側(前方)に、移動体20の振動を検出する移動体振動センサ51が配置されていてもよい。また、図1に示すように、ロボット10において、ロボット10の振動を検出するロボット振動センサが配置されていてもよい。
本実施形態において、図1に示すように、ロボットコントローラ15は、例えば、ロボット10の基台101に取り付けられており、ロボット10を制御する。また、ロボットコントローラ15は、ロボット10と分離して配置されてもよい。
図2に示すように、ロボットコントローラ15は、目標位置生成部151と、推定部152と、制御部153と、追従遅延時間設定部154と、遅延時間算出部155とを有する。
目標位置生成部151は、ビジョンセンサ3が撮像した画像に基づいて、所定の生成周期で、エンドエフェクタ7が移動すべき位置を示す目標位置(図3における「Xt(i)a」)を生成するように構成されている。ここで、かかる生成周期は、画像の撮像周期と同等の周期であってもよい。
追従遅延時間設定部154は、ロボット10における位置指令に対する応答の遅れを示す追従遅延時間dtaを設定するように構成されている。具体的には、追従遅延時間設定部154は、ロボット10の加減速情報に基づいて、追従遅延時間dtaを算出する。例えば、追従遅延時間dtaは、ロボット10の周波数応答をフィルタに近似することにより、時定数から同定することが可能である。
なお、位置指令は、かかる位置指令に含まれる指令位置にエンドエフェクタ7を動かすことができるように、ロボット10の各軸のモータを制御するための指令である。
ここで、追従遅延時間設定部154は、少なくともロボット10の動作開始状態とロボット10の動作安定状態との間で異なる追従遅延時間dtaを設定するように構成されていてもよい。
遅延時間算出部155は、目標位置生成部151による目標位置の生成に要する画像処理時間dta以上の遅延時間を算出するように構成されている。ここで、遅延時間は、画像処理時間dtbのみであってもよいし、画像処理時間dtb及び追従遅延時間dtaの合計であってもよい。
なお、かかる画像処理時間dtbは、予め設定されていてもよく、別途計測されてもよい。また、かかる画像処理時間dtbは、タイムスタンプにて計測可能である。
推定部152は、少なくともエンドエフェクタ7とワークWとの相対位置に関連する相対位置情報に基づいて、所定の推定周期で、エンドエフェクタ7とワークWとの相対位置の変化量(すなわち、オフセット)を推定するように構成されている。
ここで、相対位置情報は、エンドエフェクタ7とワークWとの相対位置であってもよいし、エンドエフェクタ7とワークWとの相対速度Vであってもよい。
具体的には、推定部152は、ビジョンセンサコントローラ35から取得した画像の時系列データから、現在の時刻である時刻t(i)において、ワークWとエンドエフェクタ7との相対速度Vの時間変化を推定する。
そして、推定部152は、かかる相対速度Vの時間変化を、時刻t(i)と時刻t(i)+dta+dtbとの間で積分することによって、エンドエフェクタ7とワークWとの相対位置の変化量であるオフセットOff(t(i)+dt(n))を算出する。
換言すると、推定部152は、画像処理時間dtb及び追従遅延時間dtaを合わせた時間分の相対速度Vの時間変化を積分することで、オフセットOff(t(i)+dt(n))を算出する。
すなわち、推定部152は、ロボット10とワークWとの相対速度Vと遅延時間算出部155によって算出された遅延時間dtbとに基づいて、上述の変化量を推定していてもよい。
また、推定部152は、非ビジョンセンサ情報(移動体20の速度や加速度に係る情報等)を組み合わせて、カルマンフィルタ等の推定器により、かかる推定の信頼度を上げることが可能である。或いは、推定部152は、既知の移動体20の移動パターンを利用して、推定結果からノイズ成分を除去することも可能である。
上述のように、推定部152は、上述の相対位置の変化量(オフセット)を算出するにあたって、相対速度Vの時間変化を時刻t(i)と時刻t(i)+dta+dtbとの間で積分する必要があるため、未来の移動体20の速度を予測する必要がある。
したがって、推定部152は、既知の移動体20の速度の時系列データ(すなわち、既知の移動体20の移動パターン)が存在する場合には、かかる時系列データを積極的に活用する。
かかる時系列データが存在しない場合には、推定部152は、過去の移動体20の速度の時系列データについて周波数解析し、低周波成分(すなわち、ロボット10が追従可能な周波数成分)を抽出した後、現在の推定速度を直流成分として低周波成分を合成することによって、未来の時系列データを予測する。かかる予測処理は、移動体20の速度の変動が回転機構や摩擦によるもので、基本的には周期的となることを期待した処理である。
ここで、推定部152は、更に移動体振動センサ51が検出した移動体20の振動に関連する移動体振動情報に基づいて、上述の変化量を推定するように構成されていてもよい。
また、推定部152は、移動体振動センサ51が検出した移動体20の振動に関連する移動体振動情報とロボット振動センサ52が検出したロボット10の振動に関連するロボット振動情報とに基づいて、上述の変化量を推定するように構成されていてもよい。
推定部152は、振動に関連する情報を用いて変化量を推定する場合、図3に示すように、移動体振動センサ51が検出した移動体振動情報を直接用いても、かかる移動体振動情報が制御に反映されるまでに遅延が発生するため、安定しないと想定される。
そのため、推定部152は、移動体振動センサ51でリアルタイムに取得した移動体振動情報でなく、システムの遅れを見越した振動の予測値(すなわち、制御に反映されるタイミングでの振動)を制御に用いる必要がある。すなわち、推定部152は、現在の情報から、未来の情報を予測する必要がある。
したがって、図3に示すように、ロボット振動センサ52が検出したロボット10の振動に関連するロボット振動情報は、移動体振動センサ51が検出した移動体振動情報から見ると未来の情報であるため、推定部152は、移動体振動情報とロボット振動情報とを合わせて変化量を推定することで、高精度な予測を実現することができる。
或いは、変化量の推定対象の移動体20に先行する移動体が存在する場合、推定部152は、先行する移動体によって取得された非ビジョンセンサ情報を用いることで、同様に、高精度な予測を実現することができる。
ここで、推定部152は、目標位置生成部151によって目標位置が生成される生成周期よりも短い推定周期で、上述の変化量を推定するように構成されていてもよい。
なお、推定部152の一部又は全ての機能は、ロボットコントローラ15の外部の機能として設けられてもよい。
制御部153は、目標位置生成部151が生成した目標位置と推定部152が推定した変化量とに基づいて、ロボット10を制御するように構成されている。
具体的には、図2に示すように、制御部153は、仮想目標位置算出部153Bと、ロボット制御部153Bとを有する。
仮想目標位置算出部153Bは、上述の生成周期で目標位置生成部151が生成した目標位置に、上述の推定周期で推定部152が推定した変化量を加算して、エンドエフェクタ7の仮想目標位置を算出するように構成されている。
ロボット制御部153Bは、仮想目標位置算出部153Bが算出した仮想目標位置とエンドエフェクタ7の指令位置とが一致するように、ロボット10を制御するように構成されている。
<ロボット制御方法>
次に、図4を参照して、ロボットシステム1を制御するロボット制御方法の一例について説明する。
図4に示すように、ステップS1001において、ロボットコントローラ15(目標位置生成部151)は、ビジョンセンサコントローラ15からワークWの画像P(t(i))を取得する。かかる画像P(t(i))は、時刻t(i)においてビジョンセンサ3によって撮像された画像である。ここで、i=1,2,3…である。
なお、画像の撮像周期は、t(i+1)−t(i)である。
ステップS1002において、ロボットコントローラ15(目標位置生成部151)は、ワーク座標系(認識対象座標)におけるエンドエフェクタ7の目標位置Xgwが登録されているか否かについて判定する。ここで、登録されている場合には、本方法は、ステップS1004に進み、登録されていない場合には、本方法は、ステップS1003に進む。
ここで、ワーク座標系とは、ワークに固定された座標系である。したがって、ワークWとエンドエフェクタ7との相対位置が変化したとしても、ワーク座標系でみるとワークWの位置は常に同じ位置にあることになる。
ステップS1003において、ロボットコントローラ15(目標位置生成部151)は、画像P(t(i))から、ワーク座標系におけるエンドエフェクタ7の目標位置Xgwを算出する。
例えば、ロボットコントローラ15(目標位置生成部151)は、予め判っているワークWの画像P(t(i))及びワークWに対するエンドエフェクタ7のアプローチ点(把持位置)を登録しておき、画像P(t(i))中からワークWを判別し、画像P(t(i))のアプローチ点を目標位置Xgwとして算出する。
ロボットコントローラ15(目標位置生成部151)は、例えば、画像P(t(i))を入力としてアプローチ点を出力するニューラルネットを用いて、かかる一連の処理について行ってもよいし、ニューラルネットを用いて、かかるワークWの判別だけを行ってもよい。
ステップS1004において、ロボットコントローラ15(目標位置生成部151)は、画像P(t(i))から、ワーク座標系における時刻t(i)のエンドエフェクタ7の現在位置Xt(i)wを算出する。
ステップS1005において、ロボットコントローラ15(目標位置生成部151)は、ワーク作業系において、制御量pを算出する。ここで、ロボットコントローラ15は、「(目標位置Xgw)−(現在位置Xt(i)w)」によって制御量pを算出する。
ステップS1006において、ロボットコントローラ15(目標位置生成部151)は、制御量pが所定閾値(偏差)よりも小さいか否かについて判定する。ここで、小さいと判定された場合には、本方法は、終了し、小さいと判定されない場合には、本方法は、ステップS1007に進む。
ステップS1007において、ロボットコントローラ15(目標位置生成部151)は、制御量pを、絶対座標系におけるエンドエフェクタ7の目標位置Xt(i)aに変換する。ここで、絶対座標系は、任意の場所に固定され得る座標系である。本実施形態では、(テーブル40が固定されており移動体20が移動する)地面に固定されているものとする。
ステップS1008において、ロボットコントローラ15(追従遅延時間設定部154)は、ロボット10の加減速情報に基づいて、ロボット10における位置指令に対する応答の遅れを示す追随遅延時間dtaを算出する。
ステップS1009において、ロボットコントローラ15(遅延時間算出部155)は、画像処理にかかっている時間に基づいて、画像P(t(i))を取得してから制御量pを算出するまでの画像処理時間dtbを算出する。
ステップS1010において、ロボットコントローラ15(推定部152)は、時刻t(i)+dt(n)における非ビジョンセンサ情報V(t(i)+dt(n))を取得する。かかる非ビジョンセンサ情報は、例えば、移動体20の速度や加速度である。ここで、t(i)≦t(i)+dt(n)<t(i+1)(n=0,1,2,3…、t(0)=0)の関係が成立する。
ここで、dt(n)は、非ビジョンセンサ情報の取得周期である。本実施形態において、非ビジョンセンサ情報の取得周期は、画像の撮像周期以下である。
ステップS1011において、ロボットコントローラ15(推定部152)は、非ビジョンセンサ情報V(t(i)+dt(n))とP(t(i))と画像Pt(i)とに基づいて、時刻t(i)からのワークWとエンドエフェクタ7との相対速度Vの時間変化を予測する。
例えば、ロボットコントローラ15(推定部152)は、非ビジョンセンサの出力波形を外挿等することで、非ビジョンセンサ情報V(t(i)+dt(n))とP(t(i))を予測して、時刻t(i)からのワークWとエンドエフェクタ7との相対速度Vの時間変化を予測する。
ステップS1012において、ロボットコントローラ15(推定部152)は、相対速度Vの時間変化を、時刻t(i)と時刻t(i)+dta+dtbとの間で積分することによって、オフセットOff(t(i)+dt(n))を算出する。
ステップS1013において、ロボットコントローラ15(仮想目標位置算出部153A)は、絶対座標系におけるエンドエフェクタ7の目標位置Xt(i)aに対してオフセットOff(t(i)+dt(n))を加算することによって、エンドエフェクタ7の仮想目標位置X’t(i)aを算出する。
ステップS1014において、ロボットコントローラ15(ロボット制御部153B)は、エンドエフェクタ7の仮想目標位置X’t(i)aと現在時刻におけるエンドエフェクタ7の指令位置Xo(t(i)+dt(n)+ddt(m))との間の偏差dXを算出する。ここで、t(i)+dt(n)≦t(i)+dt(n)+ddt(m)<t(i)+dt(n+1)(m=1,2,3…)の関係が成立する。
ここで、ddt(m)は、ロボット10の制御周期である。
ステップS1015において、ロボットコントローラ15(ロボット制御部153B)は、偏差dXにゲインGを乗算することによって、エンドエフェクタ7の指令位置Xo(t(i)+dt(n)+ddt(m))を算出する。
ステップS1016において、ロボットコントローラ15(ロボット制御部153B)は、エンドエフェクタ7の指令位置Xo(t(i)+dt(n)+ddt(m))に基づいて、ロボット10を制御する。
ステップS1017において、ロボットコントローラ15は、ビジョンセンサ3による画像の撮像周期が到来したか否かについて判定する。到来したと判定された場合、i=i+1として、本方法は、ステップS1001に戻り、到来していないと判定された場合、本方法は、ステップS1018に進む。
ステップS1018において、ロボットコントローラ15は、非ビジョンセンサ情報V(t(i)+dt(n))の取得周期が到来したか否かについて判定する。到来したと判定された場合、n=n+1として、本方法は、ステップS1010に戻り、到来していないと判定された場合、本方法は、ステップS1019に進む。
ステップS1019において、ロボットコントローラ15は、ロボット10の制御周期が到来したか否かについて判定する。到来したと判定された場合、m=m+1として、本方法は、ステップS1014に戻り、到来していないと判定された場合、本方法は、ステップS1017に戻る。
<本実施形態の効果>
以上説明したように、本実施形態に係るロボットシステム1は、ワークWに対してエンドエフェクタ7により所定作業を行うロボット10と、ワークWを撮像するビジョンセンサ3と、撮像した画像に基づいてエンドエフェクタ7が移動すべき位置を示す目標位置を生成周期で生成する目標位置生成部151と、少なくとも相対位置に関連する相対位置情報に基づいてエンドエフェクタ7とワークWとの相対位置の変化量を推定周期で推定する推定部152と、生成した目標位置と推定した変化量とに基づいてロボット10を制御する制御部153とを有する。
かかる構成によれば、画像から取得されてから、ロボット10のエンドエフェクタ7が目標位置に到達するまでの遅延時間(画像処理時間、制御遅延時間等を含む)において、ロボット10のエンドエフェクタ7とワークWとの相対位置が変化した場合であっても、かかる相対位置の変化量に応じた制御が行われるため、かかる相対位置の変化に追随することができる。従って、より正確かつ高速にエンドエフェクタ7をワークWに近づけることができる。
また、本実施形態に係るロボットシステム1では、推定部152は、上述の生成周期よりも短い推定周期で、上述の変化量を推定する。
かかる構成によれば、上述の目標位置の生成よりも早い周期で変化量を推定することができ、推定された変化量をロボット10の制御に反映させることができるため、上述の生成周期の間隔における遅延時間を適切に補正することができ、より正確かつ高速にエンドエフェクタ7をワークWに近づけることができる。
また、本実施形態に係るロボットシステム1では、推定部152は、上述の相対位置情報としてのエンドエフェクタ7とワークWとの相対速度と目標位置生成部151による目標位置の生成に要する画像処理時間以上の遅延時間とに基づいて、上述の変化量を推定する。かかる構成によれば、少なくとも画像処理に要する時間分の遅延を補完することができ、より正確にエンドエフェクタ7をワークWに近づけることができる。
また、本実施形態に係るロボットシステム1は、ロボット10における位置指令に対する応答の遅れを示す追従遅延時間を設定する追従遅延時間設定部154と、少なくとも画像処理時間と追従遅延時間とに基づいて、上述の遅延時間を算出する遅延時間算出部155と、を更に備え、推定部152は、上述の相対速度と遅延時間算出部155が算出した遅延時間とに基づいて、上述の変化量を推定する。かかる構成によれば、画像処理に要する時間だけでなく、ロボット10における位置指令に対する応答の遅れも補完することができ、より正確にエンドエフェクタ7をワークWに近づけることができる。
また、本実施形態に係るロボットシステム1では、追従遅延時間設定部154は、少なくともロボット10の動作開始状態とロボット10の動作安定状態との間で異なる追従遅延時間を設定する。かかる構成によれば、ロボット10の状態に応じて追従遅延時間が変化する場合であっても、ロボットシステム1に設定する追従遅延時間をロボット10の状態ごとに変更することによって高速にエンドエフェクタ7をワークWに近づけることができる。
また、本実施形態に係るロボットシステム1は、ロボット10を積載して、ワークWに対して移動する移動体20と、移動体20において、ロボット10よりも進行方向の前側に配置され、移動体20の振動を検出する移動体振動センサ51と、を更に有し、推定部152は、更に移動体振動センサ51が検出した移動体20の振動に関連する移動体振動情報に基づいて、上述の変化量を推定する。
また、本実施形態に係るロボットシステム1は、ロボット10に配置され、ロボット10の振動を検出するロボット振動センサ52を更に有し、推定部152は、移動体振動センサ51が検出した移動体振動情報とロボット振動センサ52が検出したロボット10の振動に関連するロボット振動情報とに基づいて、上述の変化量を推定する。
かかる構成によれば、現在の情報及び未来の情報に基づいて、エンドエフェクタ7とワークWとの相対位置の変化量を推定することができるため、より高精度で変化量を推定することができる。
さらに、本実施形態に係るロボットシステム1では、制御部153は、上述の生成周期で目標位置生成部151が生成した目標位置に、上述の推定周期で推定部152が推定した変化量を加算して、エンドエフェクタ7の仮想目標位置を算出する仮想目標位置算出部153Aと、かかる仮想目標位置とロボット10に対する指令位置とが一致するように、ロボット10を制御するロボット制御部153Bと、を有する。
かかる構成によれば、変化量が加算された仮想目標位置に指令位置が一致するようにロボット10が制御される。つまり、指令位置が仮想目標位置に追従し、実際のロボット10の位置が指令位置に追従する。従って、変化量が離散的な値になったときであっても、ロボット10は、エンドエフェクタ7をより滑らかにワークWに近づけることができる。
<ロボットコントローラ15のハードウェア構成例>
次に、図4を参照しつつ、上記で説明したロボットコントローラ15のハードウェア構成例について説明する。
図4に示すように、ロボットコントローラ15は、例えば、CPU901と、ROM903と、RAM905と、ASIC又はFPGA等の特定の用途向けに構築された専用集積回路907と、入力装置913と、出力装置915と、記録装置917と、ドライブ919と、接続ポート921と、通信装置923とを有する。これらの構成は、バス909や入出力インターフェース911を介して相互に信号を伝達可能に接続されている。
プログラムは、例えば、ROM903やRAM905や記録装置917等に記録され得る。記録装置917は、例えば、ハードディスク等であり、格納部等として機能する。
また、プログラムは、例えば、フレキシブルディスク等の磁気ディスク、各種のCD・MOディスク・DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体925に、一時的又は非一時的(永続的)に記録され得る。このような記録媒体925は、いわゆるパッケージソフトウエアとして提供され得る。この場合、これらの記録媒体925に記録されたプログラムは、ドライブ919により読み出されて、入出力インターフェース911やバス909等を介して記録装置917に記録されてもよい。
また、プログラムは、例えば、ダウンロードサイト・他のコンピュータ・他の記録装置等(図示せず)に記録され得る。この場合、プログラムは、LANやインターネット等のネットワークNWを介して転送され、通信装置923が、このプログラムを受信する。そして、通信装置923によって受信されたプログラムは、入出力インターフェース911やバス909等を介して記録装置917に記録されてもよい。
また、プログラムは、例えば、適宜の外部接続機器927に記録され得る。この場合、プログラムは、適宜の接続ポート921を介して転送され、入出力インターフェース911やバス909等を介して記録装置917に記録されてもよい。
そして、CPU901が、記録装置917に記録されたプログラムに従い各種の処理を実行することにより、目標位置生成部151、推定部152、制御部153(仮想目標位置算出部153A及びロボット制御部153B)、追従遅延時間設定部154及び遅延時間算出部155等による処理が実現される。すなわち、CPU901が、記録装置917に記録されたプログラムに従い各種の処理を実行することにより、図4に示すロボット制御方法による処理が実現される。
この際、CPU901は、例えば、記録装置917からプログラムを直接読み出して実行してもよいし、かかるプログラムをRAM905に一旦ロードした上で実行してもよい。更にCPU901は、例えば、プログラムを通信装置923やドライブ919や接続ポート921を介して受信する場合、受信したプログラムを記録装置917に記録せずに直接実行してもよい。
また、CPU901は、必要に応じて、例えば、マウスやキーボードやマイク(図示せず)等の入力装置913から入力する信号や情報に基づいて各種の処理を行ってもよい。
そして、CPU901は、上述の処理を実行した結果を、例えば、表示装置や音声出力装置等の出力装置915から出力してもよく、更に、CPU901は、必要に応じてこの処理結果を通信装置923や接続ポート921を介し送信してもよく、記録装置917や記録媒体925に記録させてもよい。
なお、以上の説明において、「垂直」「平行」「平面」等の記載がある場合には、当該記載は厳密な意味ではない。すなわち、それら「垂直」「平行」「平面」とは、設計上、製造上の公差、誤差が許容され、「実質的に垂直」「実質的に平行」「実質的に平面」という意味である。
また、以上の説明において、外観上の寸法や大きさ、形状、位置等が「同一」「同じ」「等しい」「異なる」等の記載がある場合は、当該記載は厳密な意味ではない。すなわち、それら「同一」「同じ」「等しい」「異なる」とは、設計上、製造上の公差、誤差が許容され、「実質的に同一」「実質的に同じ」「実質的に等しい」「実質的に異なる」という意味である。
また、以上既に述べた以外にも、上記実施形態による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
1…ロボットシステム
3…ビジョンセンサ
35…ビジョンセンサコントローラ
7…エンドエフェクタ
10…ロボット
15…ロボットコントローラ
151…目標位置生成部
152…推定部
153…制御部
153A…仮想目標位置算出部
153B…ロボット制御部
154…追従遅延時間設定部
155…遅延時間算出部
20…移動体
21…筐体
22…車輪
30…移動体コントローラ
40…テーブル
51…移動体振動センサ
52…ロボット振動センサ
W…ワーク

Claims (11)

  1. 相対位置が変化するワークに対して、エンドエフェクタにより所定作業を行うロボットと、
    前記ワークを撮像するビジョンセンサと、
    前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する目標位置生成部と、
    少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する推定部と、
    前記目標位置生成部が生成した前記目標位置と前記推定部が推定した前記変化量とに基づいて、前記ロボットを制御する制御部と、
    を有する、ロボットシステム。
  2. 前記推定部は、前記生成周期よりも短い前記推定周期で、前記変化量を推定する、請求項1に記載のロボットシステム。
  3. 前記推定部は、前記相対位置情報としての前記エンドエフェクタと前記ワークとの相対速度と前記目標位置生成部による前記目標位置の生成に要する画像処理時間以上の遅延時間とに基づいて、前記変化量を推定する、請求項2に記載のロボットシステム。
  4. 前記ロボットにおける位置指令に対する応答の遅れを示す追従遅延時間を設定する追従遅延時間設定部と、
    少なくとも前記画像処理時間と前記追従遅延時間とに基づいて、前記遅延時間を算出する遅延時間算出部と、
    を更に備え、
    前記推定部は、前記相対速度と前記遅延時間算出部が算出した前記遅延時間とに基づいて、前記変化量を推定する、請求項3に記載のロボットシステム。
  5. 前記追従遅延時間設定部は、少なくとも前記ロボットの動作開始状態と前記ロボットの動作安定状態との間で異なる追従遅延時間を設定する、請求項4に記載のロボットシステム。
  6. 前記ロボットを積載して、前記ワークに対して移動する移動体と、
    前記移動体において、前記ロボットよりも進行方向の前側に配置され、前記移動体の振動を検出する移動体振動センサと、
    を更に有し、
    前記推定部は、更に前記移動体振動センサが検出した前記振動に関連する移動体振動情報に基づいて、前記変化量を推定する、請求項1〜5のいずれか一項に記載のロボットシステム。
  7. 前記ロボットに配置され、前記ロボットの振動を検出するロボット振動センサを更に有し、
    前記推定部は、前記移動体振動センサが検出した前記移動体振動情報と前記ロボット振動センサが検出した前記振動に関連するロボット振動情報とに基づいて、前記変化量を推定する、請求項6に記載のロボットシステム。
  8. 前記制御部は、
    前記生成周期で前記目標位置生成部が生成した前記目標位置に、前記推定周期で前記推定部が推定した前記変化量を加算して、前記エンドエフェクタの仮想目標位置を算出する仮想目標位置算出部と、
    前記仮想目標位置と前記エンドエフェクタの指令位置とが一致するように、前記ロボットを制御するロボット制御部と、を有する、請求項1に記載のロボットシステム。
  9. 相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムにおいて、前記ロボットを制御するロボット制御方法であって、
    前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する工程Aと、
    少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する工程Bと、
    前記工程Aで生成した前記目標位置と前記工程Bで推定した前記変化量とに基づいて、前記ロボットを制御する工程Cと、
    を有する、ロボット制御方法。
  10. 相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムにおいて、前記ロボットを制御するロボットコントローラであって、
    前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する目標位置生成部と、
    少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する推定部と、
    前記目標位置生成部が生成した前記目標位置と前記推定部が推定した前記変化量とに基づいて、前記ロボットを制御する制御部と、
    を有する、ロボットコントローラ。
  11. 相対位置が変化するワークに対してエンドエフェクタにより所定作業を行うロボットと前記ワークを撮像するビジョンセンサとを具備するロボットシステムを構成するロボットコントローラで用いるプログラムであって、コンピュータに、
    前記ビジョンセンサが撮像した画像に基づいて、前記エンドエフェクタが移動すべき位置を示す目標位置を、生成周期で生成する工程Aと、
    少なくとも前記相対位置に関連する相対位置情報に基づいて、前記エンドエフェクタと前記ワークとの相対位置の変化量を、推定周期で推定する工程Bと、
    前記工程Aで生成した前記目標位置と前記工程Bで推定した前記変化量とに基づいて、前記ロボットを制御する工程Cと、
    を実行させる、プログラム。
JP2019014686A 2019-01-30 2019-01-30 ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム Active JP6761194B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019014686A JP6761194B2 (ja) 2019-01-30 2019-01-30 ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム
CN202010040484.8A CN111496776B (zh) 2019-01-30 2020-01-15 机器人系统、机器人控制方法、机器人控制器及记录介质
US16/748,820 US11577399B2 (en) 2019-01-30 2020-01-22 Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014686A JP6761194B2 (ja) 2019-01-30 2019-01-30 ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム

Publications (2)

Publication Number Publication Date
JP2020121373A true JP2020121373A (ja) 2020-08-13
JP6761194B2 JP6761194B2 (ja) 2020-09-23

Family

ID=71732168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014686A Active JP6761194B2 (ja) 2019-01-30 2019-01-30 ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム

Country Status (3)

Country Link
US (1) US11577399B2 (ja)
JP (1) JP6761194B2 (ja)
CN (1) CN111496776B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3689555A1 (de) * 2019-02-04 2020-08-05 Siemens Aktiengesellschaft Kraftbegrenztes verfahren mindestens eines elements einer produktionsmaschine im manuellen betrieb
US20230321835A1 (en) * 2020-09-18 2023-10-12 Abb Schweiz Ag Method and apparatus for tuning robot system
CN113848952A (zh) * 2021-10-22 2021-12-28 福建汉特云智能科技有限公司 一种远程控制的延迟判断及障碍预先判断方法和机器人系统
WO2023167490A1 (en) * 2022-03-01 2023-09-07 Samsung Electronics Co., Ltd. Apparatus and method for self-supervised learning for visual feature representation of egocentric images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012245568A (ja) * 2011-05-25 2012-12-13 Ihi Corp 運動予測制御装置と方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114161A (ja) * 2002-09-20 2004-04-15 Ricoh Co Ltd 双腕ロボット装置の制御装置、双腕ロボット装置、及びその制御方法
JP4222338B2 (ja) 2005-05-13 2009-02-12 トヨタ自動車株式会社 適応型ビジュアルフィードバック制御方法
JP2007011978A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp ロボットの運動制御装置
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP5218524B2 (ja) * 2010-03-15 2013-06-26 株式会社安川電機 ロボットシステムおよびロボット動作規制方法
JP5306313B2 (ja) 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
EP2952300A1 (en) * 2014-06-05 2015-12-09 Aldebaran Robotics Collision detection
CN107618030B (zh) * 2016-07-16 2021-02-19 深圳市得意自动化科技有限公司 基于视觉的机器人动态跟踪抓取方法及系统
JP6581162B2 (ja) * 2017-09-29 2019-09-25 ファナック株式会社 加工システム及び加工機の制御方法
JP6963748B2 (ja) * 2017-11-24 2021-11-10 株式会社安川電機 ロボットシステム及びロボットシステムの制御方法
CN107901041B (zh) * 2017-12-15 2021-06-15 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6950638B2 (ja) * 2018-07-13 2021-10-13 オムロン株式会社 マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
JP2020142323A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2021081850A (ja) * 2019-11-15 2021-05-27 株式会社東芝 位置推定装置、位置推定方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012245568A (ja) * 2011-05-25 2012-12-13 Ihi Corp 運動予測制御装置と方法

Also Published As

Publication number Publication date
CN111496776A (zh) 2020-08-07
JP6761194B2 (ja) 2020-09-23
CN111496776B (zh) 2023-06-30
US20200238530A1 (en) 2020-07-30
US11577399B2 (en) 2023-02-14

Similar Documents

Publication Publication Date Title
JP6761194B2 (ja) ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム
JP5754454B2 (ja) ロボットピッキングシステム及び被加工物の製造方法
US11833696B2 (en) Vision-based sensor system and control method for robot arms
KR101475826B1 (ko) 백스테핑 기법을 이용한 선도 추종자 대형제어 장치, 방법 및 이동로봇
JP5904635B2 (ja) 制御装置、制御方法及びロボット装置
WO2020017092A1 (ja) パラメータ同定装置、方法、及びプログラム
JP2009509779A (ja) 視覚追跡のシステム及び方法
US11040449B2 (en) Robot control system and method of controlling a robot
CN114450131A (zh) 机器人系统的无导数模型学习系统及设计
JP2022524108A (ja) ロボット車両の積荷フットプリントの協働決定
JP2005316937A (ja) 制御装置およびその制御方法
Lee et al. Fast perception, planning, and execution for a robotic butler: Wheeled humanoid m-hubo
EP4400274A1 (en) Command value generating device, method, and program
Sharma et al. A framework for robot motion planning with sensor constraints
JP5679121B2 (ja) ロボットの運動予測制御方法と装置
EP4241930A1 (en) Robot control in working space
JP5157545B2 (ja) 全身協調装置、ロボット及びロボットの制御方法
US20220277483A1 (en) Device and method for ascertaining the pose of an object
Lippiello et al. Robot force/position control with force and visual feedback
Pissard-Gibollet et al. Real-time programming of mobile robot actions using advanced control techniques
EP4385680A1 (en) Robot device and robot control method
CN114440882B (zh) 一种多智能家居移动设备及其协作寻路防撞方法
JP7462827B2 (ja) 制御装置、ロボットシステム、学習装置、軌跡モデル、制御方法、およびプログラム
JP7448648B2 (ja) 追随ロボットおよび制御装置
KR102607487B1 (ko) 로봇팔의 노이즈 제거 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200131

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R150 Certificate of patent or registration of utility model

Ref document number: 6761194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150