JP2020066080A - 人と協働作業を行うロボットシステム、及びロボット制御方法 - Google Patents

人と協働作業を行うロボットシステム、及びロボット制御方法 Download PDF

Info

Publication number
JP2020066080A
JP2020066080A JP2018199338A JP2018199338A JP2020066080A JP 2020066080 A JP2020066080 A JP 2020066080A JP 2018199338 A JP2018199338 A JP 2018199338A JP 2018199338 A JP2018199338 A JP 2018199338A JP 2020066080 A JP2020066080 A JP 2020066080A
Authority
JP
Japan
Prior art keywords
robot
work
detection device
worker
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018199338A
Other languages
English (en)
Other versions
JP6916157B2 (ja
Inventor
豪 稲葉
Go Inaba
豪 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018199338A priority Critical patent/JP6916157B2/ja
Priority to US16/571,206 priority patent/US11235463B2/en
Priority to DE102019007186.7A priority patent/DE102019007186B4/de
Priority to CN201911002472.XA priority patent/CN111085993A/zh
Publication of JP2020066080A publication Critical patent/JP2020066080A/ja
Application granted granted Critical
Publication of JP6916157B2 publication Critical patent/JP6916157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36429Power assisted positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40152Deictic, using a sign language, point finger to reach, close hand to grasp
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

【課題】人の動作に合わせるように協働作業を行うことができるロボットシステムが求められている。【解決手段】本開示に係るロボットシステム10は、ロボット12と、作業対象物Wを検出するとともに、該作業対象物Wに対する作業員Aの所定の動作を検出する検出装置16と、検出装置16が所定の動作を検出したときに、該検出装置16が検出した作業対象物Wに対しロボット12に予め定めた作業を実行させるロボット制御部とを備える。【選択図】図1

Description

本発明は、人と協働作業を行うロボットシステム、及びロボット制御方法に関する。
人と協働作業を行うロボットシステムが知られている(例えば、特許文献1)。
特開2017-74660号公報
従来、人の動作に合わせるように協働作業を行うことができるロボットシステムが求められている。
本開示の一態様において、ロボットシステムは、ロボットと、作業対象物を検出するとともに、該作業対象物に対する人の所定の動作を検出する検出装置と、検出装置が所定の動作を検出したときに、該検出装置が検出した作業対象物に対しロボットに予め定めた作業を実行させるロボット制御部とを備える。
本開示によれば、作業員は、装置を操作することなく、ロボットを所望のタイミングで直感的に始動させることができる。したがって、作業員の動きに高度に合わせるように、ロボットに協働作業させることができる。
一実施形態に係るロボットシステムの図である。 図1に示すロボットシステムのブロック図である。 図1に示すロボットシステムの動作フローの一例を示すフローチャートである。 作業員の第1の動作の一例を説明するための図である。 作業員の第1の動作の他の例を説明するための図である。 作業員の第1の動作のさらに他の例を説明するための図である。 作業員の第1の動作のさらに他の例を説明するための図である。 図3中のステップS10で作業員がロボットと協働で作業対象物を運搬している状態を示す。 作業員の第2の動作の一例を説明するための図である。 作業員の第2の動作の他の例を説明するための図である。 他の実施形態に係るロボットシステムの図である。 図11に示すロボットシステムのブロック図である。 図11に示すロボットシステムの動作フローの一例を示すフローチャートである。 作業員の所定の動作の一例を説明するための図である。 さらに他の実施形態に係るロボットシステムの図である。 さらに他の実施形態に係るロボットシステムの図である。
以下、本開示の実施の形態を図面に基づいて詳細に説明する。なお、以下に説明する種々の実施形態において、同様の要素には同じ符号を付し、重複する説明を省略する。まず、図1及び図2を参照して、一実施形態に係るロボットシステム10について説明する。 ロボットシステム10は、作業員Aと協働して、作業対象物Wを予め定められた目的位置まで運搬する作業を行うためのシステムである。ロボットシステム10は、ロボット12、力検出装置14、検出装置16A及び16B、及び制御装置18を備える。制御装置18は、例えばプロセッサ(CPU、GPU等)及びメモリ(RAM、ROM等)を有し、ロボット12、力検出装置14、並びに検出装置16A及び16Bを制御する。
本実施形態においては、ロボット12は、垂直多関節ロボットであって、ロボットベース20、旋回胴22、ロボットアーム24、手首部32、及びロボットハンド26を有する。ロボットベース20は、作業セルの床の上に固定されたベースプレート38に対して固定されている。旋回胴22は、ロボットベース20に鉛直軸周りに旋回可能に設けられている。ロボットアーム24は、旋回胴22に回転可能に取り付けられた下腕部28と、該下腕部28の先端に回転可能に取り付けられた上腕部30とを有する。
手首部32は、上腕部30の先端に連結され、ロボットハンド26を回転可能に支持している。ロボットハンド26は、手首部32に連結されたハンドベース34と、該ハンドベース34に開閉可能に設けられた複数の指部36とを有する。ロボットハンド26は、指部36で作業対象物Wを把持したり、解放したりする。
ロボット12は、複数のサーボモータ40(図2)を有する。これらサーボモータ40は、ロボット12の各コンポーネント(すなわち、ロボットベース20、旋回胴22、ロボットアーム24、手首部32)に内蔵され、これらコンポーネントを駆動軸周りに回転させる。
力検出装置14は、手首部32とロボットハンド26との間に介挿されている。本実施形態においては、力検出装置14は、複数の歪ゲージ(図示せず)を有する6軸力覚センサを有し、ロボットハンド26に加わる外力を検出する。なお、力検出装置14は、6軸力覚センサに限らず、ロボットハンド26に加わる外力を検出可能であれば、如何なる装置を有してもよい。
検出装置16Aは、作業対象物Wを検出する。具体的には、検出装置16Aは、作業セル内の所定の位置に固定され、作業対象物Wを撮像し、撮像した画像に基づいて、該作業対象物Wのロボット座標系Cにおける位置を検出する。なお、本稿において作業対象物及びロボットの「位置」とは、位置及び姿勢を意味する場合がある。
検出装置16Bは、作業対象物Wに対する作業員Aの所定の動作を検出する。具体的には、検出装置16Bは、作業員Aを撮像し、撮像した画像に基づいて、作業対象物Wに対する作業員Aの所定の動作を検出する(いわゆる、光学式モーションキャプチャ)。なお、検出装置16Bが検出する作業員Aの所定の動作については、後述する。例えば、検出装置16A及び16Bは、撮像素子、フォーカスレンズ等の光学レンズ、及び画像処理プロセッサ(例えばGPU)等を有する3次元視覚センサから構成されてもよい。
次に、図3を参照して、ロボットシステム10の動作について説明する。図3に示す動作フローは、制御装置18が、オペレータ、上位コントローラ、又はロボットプログラムから運転開始指令を受け付けたときに、開始する。本実施形態においては、図3に示す動作フローが開始されたとき、図4に示すように、複数の作業対象物W〜Wがランダムに載置されている。
ステップS1において、検出装置16Aは、各々の作業対象物W〜Wを検出する。具体的には、制御装置18は、検出装置16Aに位置検出指令を送り、該位置取得指令を受け付けて、検出装置16Aは、各々の作業対象物W〜Wを撮像し、撮像した画像に基づいて、各々の作業対象物W〜Wのロボット座標系Cにおける位置を取得する。
ステップS2において、検出装置16Bは、作業員Aの動作の検出を開始する。具体的には、制御装置18は、検出装置16Bに動作検出指令を送り、該動作検出指令を受け付けて、検出装置16Bは、作業員Aを連続的に(例えば、所定の周期で)撮像し、撮像した画像に基づいて、作業員Aの動作を継続的に検出する。
ここで、検出装置16Bは、作業員Aの第1の動作及び第2の動作を検出するように構成される。この第1の動作は、作業対象物Wを把持する作業をロボット12に行わせるために、作業員Aが、ロボット12に把持させるべき作業対象物Wに対して行う所定の動作である。この第1の動作の例について、図4〜図7を参照して説明する。
図4に示す例においては、第1の動作は、作業員Aが、ロボット12に把持させるべき1つの作業対象物Wに接近する動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、撮像した画像と、上述のステップS1で取得した、各々の作業対象物W〜Wの位置の情報とから、作業員Aと作業対象物Wとの距離d、作業員Aと作業対象物Wとの距離d、作業員Aと作業対象物Wとの距離d、及び、作業員Aと作業対象物Wとの距離dをそれぞれ算出する。
そして、検出装置16Bは、算出した各々の距離d〜dが、予め定められた閾値dth1以下となったか否かを判定する。そして、距離d〜dのいずれかが閾値dth1以下となったときに、第1の動作として、作業対象物W〜Wのいずれかに作業員Aが接近したことを検出する。
図4に示す例においては、作業員Aが作業対象物Wに接近しており、検出装置16Bは、距離dが閾値dth1以下となったときに、作業員Aが作業対象物Wに接近する第1の動作を検出するとともに、作業対象物Wをロボット12の把持対象として特定する。代替的には、検出装置16Bは、連続して撮像した画像から作業員Aの移動方向Eを算出し、移動方向Eと交差する作業対象物Wを、ロボット12の把持対象として特定してもよい。
図5に示す例においては、第1の動作は、作業員Aがロボット12に把持させるべき1つの作業対象物Wを手Bで把持する動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、いわゆるモーションキャプチャ技術を用いて、作業員Aが作業対象物Wを把持する第1の動作を検出するとともに、作業員Aが把持した作業対象物Wを、ロボット12の把持対象として特定する。
一例として、検出装置16Bは、作業員Aが作業対象物Wを把持する動作の基準動作パターンを記憶(又は、機械学習)しておく。そして、検出装置16Bは、ステップS2の開始後に作業員Aの動作を監視しているときに、実際の作業員Aの動作が、該基準動作パターンと合致するか否かを判定し、合致すると判定したときに、作業員Aが作業対象物Wを把持する第1の動作を行ったことを検出する。
図6に示す例においては、第1の動作は、作業員Aがロボット12に把持させるべき1つの作業対象物Wを指Cで指す動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、いわゆるモーションキャプチャ技術を用いて、作業員Aが作業対象物Wを指す動作及び指す方向Dを検出するとともに、指す方向Dと交差する作業対象物Wを、ロボット12の把持対象として特定する。
図7に示す例においては、第1の動作は、作業員Aがロボット12に把持させるべき1つの作業対象物Wを手Bでタップする動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、いわゆるモーションキャプチャ技術を用いて、作業員Aが作業対象物Wをタップする動作を検出するとともに、タップされた作業対象物Wを、ロボット12の把持対象として特定する。
この場合において、作業員Aは、作業対象物Wを予め定められた回数n(nは2以上の整数)だけタップし、検出装置16Bは、作業員Aが作業対象物Wをn回タップする動作を検出したときに、該動作を第1の動作として検出してもよい。なお、検出装置16Bが検出する作業員Aの第2の動作については、後述する。
ステップS3において、検出装置16Bは、作業員Aの第1の動作を検出したか否かを判定する。具体的には、検出装置16Bは、例えば図4〜図7で説明したような作業員Aの第1の動作を検出したか否かを判定する。検出装置16Bは、作業員Aの第1の動作を検出した場合、YESと判定し、ロボット12の把持対象となる作業対象物Wを特定する。そして、検出装置16Aは、検出装置16Bが把持対象として特定した作業対象物Wのロボット座標系Cにおける位置の情報を制御装置18に送り、ステップS5へ進む。一方、検出装置16Bは、第1の動作を検出していない場合はNOと判定し、ステップS4へ進む。
ステップS4において、制御装置18は、オペレータ、上位コントローラ、又はロボットプログラムから運転終了指令を受け付けたか否かを判定する。制御装置18は、運転終了指令を受け付けた(すなわち、YES)と判定した場合、図3に示すフローを終了する一方、運転終了指令を受け付けていない(すなわち、NO)と判定した場合、ステップS3へ戻る。
ステップS5において、制御装置18は、ロボット12を、作業対象物Wを把持するための位置(以下、把持位置とする)へ移動させて、ロボット12に作業対象物Wを把持させる。具体的には、制御装置18は、上述のステップS3で検出装置16Aから受信した作業対象物Wの位置の情報に基づいてロボット12の各サーボモータ40へ指令を送り、該ロボット12を把持位置へ移動させる。
ロボット12が把持位置に配置されたとき、作業対象物Wは、ロボットハンド26の指部36の間に配置される。このように、制御装置18は、検出装置16Bが作業員Aの第1の動作を検出したことをトリガーとして、ロボット12を把持位置へ移動させる作業(すなわち、各サーボモータ40への指令)を開始する。
次いで、制御装置18は、ロボットハンド26を動作させて指部36を閉じる。これにより、ロボット12は、作業対象物Wをロボットハンド26で把持する。このように、本実施形態においては、制御装置18は、検出装置16Bが作業員Aの第1の動作を検出したときにロボット12に予め定めた作業(ロボット12を把持位置へ移動させ、作業対象物Wを把持する作業)を実行させるロボット制御部42(図2)として機能する。
なお、このステップS5において、制御装置18は、検出装置16Bが連続的に検出している作業員Aの動作の情報に基づいて、該作業員Aとの衝突を避けることができるロボット12の動作経路を演算してもよい。例えば、制御装置18は、検出装置16Bから作業員Aの動作経路を示すデータを取得し、作業員Aの動作経路を避ける(交差しない)ようなロボット12の動作経路を演算する。そして、制御装置18は、演算した動作経路に沿ってロボット12を動作させる。この構成によれば、ロボット12と作業員Aとの衝突を避けることができる。
ステップS5でロボット12が作業対象物Wを把持する作業が完了したとき、作業員Aは、作業対象物Wをロボット12と協働で目的位置まで運搬するために、該ロボット12に外力Fを加える。一例として、作業員Aは、ロボット12が把持する作業対象物Wを持ち上げて、該作業対象物Wを目的位置の方向へ押す。このときに作業員Aが作業対象物Wに加えた外力Fは、作業対象物Wを通して、ロボットハンド26に加えられることになる。
他の例として、作業員Aは、ロボットハンド26に手Bで直接外力Fを加えてもよい。この場合において、ロボットハンド26(例えば、ハンドベース34)に作業員Aが把持可能なハンドル(図示せず)を設けて、作業員Aは、該ハンドルを手Bで把持して、該ハンドルを通してロボットハンド26に外力Fを加えてもよい。
本実施形態においては、制御装置18は、ステップS5の完了後、検出装置16Bが検出する作業員Aの動作に追従して検出装置16Aが検出する目標位置へロボット12をアプローチさせる位置追従制御(ステップS2〜S5)から、ロボット12に加わる外力Fに従って該ロボット12を制御するリードスルー制御(後述のステップS6〜S10)に切り換える。
ステップS6において、制御装置18は、ロボット12に加わる外力Fの検出を開始する。具体的には、制御装置18は、力検出装置14が検出した外力Fのデータを、該力検出装置14から連続的に(例えば、周期的に)取得する動作を開始する。作業員Aが作業対象物Wを通して(又は手Bで直接)ロボット12に加えた外力F(大きさ及び方向)は、力検出装置14によって検出される。
ステップS7において、制御装置18は、直近に力検出装置14が検出した外力Fが、予め定められた閾値Fth以上となったか否かを判定する。制御装置18は、直近の外力Fが、F≧Fthである(すなわち、YES)と判定した場合、ステップS10へ進む一方、F<Fthである(すなわち、NO)と判定した場合、ステップS8へ進む。
ステップS8において、制御装置18は、上述のステップS4と同様に、運転終了指令を受け付けたか否かを判定する。制御装置18は、運転終了指令を受け付けた(すなわち、YES)と判定した場合、図3に示すフローを終了する一方、運転終了指令を受け付けていない(すなわち、NO)と判定した場合、ステップS9へ進む。
ステップS9において、制御装置18は、警告信号を生成する。例えば、制御装置18は、「ロボットを目的位置へ向かってガイドしてください」という音声又は画像の形式の警告信号を生成し、スピーカ又はディスプレイ(図示せず)を通して、警告を出力してもよい。ステップS9の後、制御装置18は、ステップS7へ戻る。
ステップS10において、制御装置18は、直近に力検出装置14が検出した外力Fのデータに基づいて、ロボット12に作業対象物Wを運搬させる。具体的には、制御装置18は、直近に力検出装置14が検出した外力Fの方向を取得し、作業対象物Wを把持するロボットハンド26を外力Fの方向へ移動させるように、ロボット12を制御する。
制御装置18は、直近に力検出装置14が検出した外力Fの大きさを取得し、該外力Fの大きさに応じて、ロボットハンド26を外力Fの方向へ移動させる速度を制御してもよい。例えば、制御装置18は、該外力Fの大きさが大きくなる程、ロボットハンド26を移動させる速度を増大させるように、該ロボットハンド26の移動速度を制御してもよい。
これにより、ロボット12は、図8に示すように、作業員Aがロボット12に加えた外力Fに従って、作業対象物Wを移動させる。なお、図8に示す例においては、作業員Aが、ロボット12とともに作業対象物Wを手Bで把持して、該作業対象物Wを通してロボット12に外力Fを加えている場合を示している。こうして、ロボット12は、作業員Aと協働で、作業対象物Wを目的位置へ向かって運搬する。
なお、制御装置18は、ステップS10の実行中に、力検出装置14が検出した外力Fが、上限値FMAXを超えたか否かを判定し、外力Fが上限値FMAXを超えた(すなわち、F≧FMAX)場合に、ロボット12の動作を緊急停止してもよい。この上限値FMAXは、ステップS10の実行中にロボットハンド26又は作業対象物Wが、障害物と衝突したことを検出するために、上述の閾値Fthよりも大きな値として使用者によって予め定められる。
作業対象物Wを目的位置に移動させたとき、作業員Aは、第2の動作を行う。この第2の動作は、ロボット12に作業対象物Wを解放させるために作業員Aが行う、上述の第1の動作とは異なる所定の動作である。この第2の動作の例について、図9及び図10を参照して説明する。
図9に示す例においては、第2の動作は、作業員Aが、ロボット12が把持している作業対象物Wから離れる動作として定められている。一例として、検出装置16Bは、作業員A及び作業対象物Wを連続的に撮像し、撮像した画像から、作業員Aと作業対象物Wとの距離dを算出する。検出装置16Bは、ステップS5を完了したとき、又はステップS10を開始したときに、作業員Aと作業対象物Wとの距離dを算出する動作を開始してもよい。
検出装置16Bは、算出した距離dが、予め定められた閾値dth2以上となったか否かを判定する。そして、距離dが閾値dth2以上となったときに、第2の動作として、作業員Aが作業対象物Wから離れたことを検出する。なお、閾値dth2は、上述の閾値dth1と同じ値であってもよいし、又は、異なる値であってもよい。
図10に示す例においては、第2の動作は、作業員Aが作業対象物Wを把持していた手Bを開いて、該作業対象物Wを解放する動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、いわゆるモーションキャプチャ技術を用いて、作業員Aが作業対象物Wを把持していた手Bを開く動作を検出する。
一例として、検出装置16Bは、作業員Aが作業対象物Wを把持していた手Bを開く動作の基準動作パターンを記憶(又は、機械学習)しておく。そして、検出装置16Bは、ステップS10の実行中に作業員Aの動作を監視しているときに、実際の作業員Aの動作が、該基準動作パターンと合致するか否かを判定し、合致すると判定したときに、作業員Aが手Bを開く第2の動作を行ったことを検出してもよい。
ステップS11において、検出装置16Bは、作業員Aの第2の動作を検出したか否かを判定する。具体的には、検出装置16Bは、例えば図9及び図10で説明したような作業員Aの第2の動作を検出したか否かを判定し、検出した場合はYESと判定し、ステップS12へ進む。一方、検出装置16Bは、作業員Aの第2の動作を検出していない場合はNOと判定し、ステップS7へ戻る。
上述したように、本実施形態においては、検出装置16Bは、作業対象物Wの運搬前に作業員Aが行う第1の動作と、作業対象物Wを目的位置へ運搬したときに作業員Aが行う第2の動作とを検出する。よって、検出装置16Bは、少なくとも、作業対象物Wを運搬する前の作業員Aと、作業対象物Wを目的位置に運搬したときの作業員Aとを検出できるような位置に、設置される。
ステップS12において、制御装置18は、ロボット12に作業対象物Wを解放させる。具体的には、制御装置18は、ロボットハンド26を動作させて指部36を開く。これにより、ロボットハンド26は、把持していた作業対象物Wを解放する。その結果、作業対象物Wは、目的位置に配置されることになる。
なお、ステップS11でYESと判定されたとき、このステップS12において、制御装置18は、作業対象物Wを解放する前に、ロボットプログラムに従ってロボット12を動作させて、ロボット12が把持している作業対象物Wを所定の方向(例えば、鉛直下方)へ移動させてもよい。
例えば、ロボット12が作業対象物Wを、目的位置である載置台の鉛直上方まで移動させたときに、作業員Aが第2の動作を行ったとする。ステップS11で該第2の動作を検出したとき、制御装置18は、ステップS12において、ロボット12を動作させて作業対象物Wを鉛直下方へ移動させ、該作業対象物Wを載置台の上に載置したときに、ロボット12に作業対象物Wを解放させる。
ここで、制御装置18は、ロボット12によって作業対象物Wを鉛直下方へ移動させているときに、力検出装置14が検出する外力を監視し、該外力のデータに基づいて、作業対象物Wが載置台に当接したか否かを検出してもよい。そして、制御装置18は、作業対象物Wが載置台に当接したことを検出したときに、ロボット12に作業対象物Wを解放させてもよい。
ステップS13において、制御装置18は、上述のステップS4と同様に、運転終了指令を受け付けたか否かを判定する。制御装置18は、運転終了指令を受け付けた(すなわち、YES)と判定した場合、図3に示すフローを終了する一方、運転終了指令を受け付けていない(すなわち、NO)と判定した場合、ステップS3へ戻る。
そして、作業員Aは、他の作業対象物W〜Wのいずれかに対して再度、第1の動作を行い、制御装置18は、ステップS3〜13のループを繰り返し実行することによって、作業員Aと協働で、ロボット12に作業対象物W〜Wを目的位置まで順次運搬させることができる。
以上のように、本実施形態においては、制御装置18は、検出装置16Bが作業員Aの第1の動作を検出したときに、作業対象物Wに対しロボット12に予め定めた作業(把持位置への移動及び把持)を実行させている。この構成によれば、作業員Aは、装置を操作することなく、ロボット12を所望のタイミングで直感的に始動させることができる。したがって、作業員Aの動きに高度に合わせるように、ロボット12に協働作業させることができる。
また、本実施形態においては、制御装置18は、ステップS5の終了後、検出装置16Bの検出データに基づく位置追従制御(ステップS2〜S5)から、力検出装置14の検出データに基づくリードスルー制御(ステップS6〜S10)に切り換えている。この構成によれば、作業員Aの第1の動作によってロボット12を始動させて、該ロボット12と協働で作業対象物Wを目的位置まで運搬させる一連の作業を、円滑に行うことができる。
また、本実施形態においては、制御装置18は、検出装置16Bが作業員Aの第2の動作を検出したときに、ロボット12に作業対象物Wを解放させている。この構成によれば、作業員Aは、装置を操作することなく、作業対象物Wを目的位置に運搬したタイミングで直感的に、ロボット12に該作業対象物Wを解放させることができる。
なお、本実施形態においては、検出装置16Aが、作業対象物W〜Wのロボット座標系Cにおける位置を検出する場合について述べた。しかしながら、これに限らず、例えば、作業対象物W〜Wを、治具等によって、ロボット座標系Cにおける所定の位置に配置し、制御装置18が、これら作業対象物W〜Wのロボット座標系Cにおける位置を予め記憶していてもよい。
この場合、検出装置16Aは、ステップS1において、各々の作業対象物W〜Wの存在を検出するだけで、作業対象物W〜Wのロボット座標系Cにおける位置を取得しなくてもよい。そして、ステップS3において、検出装置16Bは、作業員Aの第1の動作の対象となった作業対象物Wを特定し、ステップS5において、制御装置18は、予め記憶された作業対象物Wの位置の情報に基づいて、ロボット12を把持位置へ移動させてもよい。
また、図3に示すフローにおいて、制御装置18は、上述のステップS6を、ステップS5よりも前に(例えば、ステップS2の直前又は直後のタイミングで)実行し、該ステップS5を実行しているときに、力検出装置14が検出する外力Fが上限値FMAXを超えたときに、ロボットハンド26が作業員Aと衝突したと判定し、該ロボット12を緊急停止してもよい。
この場合において、制御装置18は、ロボット12が作業員Aと衝突したと判定したときに、ロボット12と作業員Aとの衝突を表す音声又は画像の形式の警告信号を生成し、スピーカ又はディスプレイを通して、警告を出力してもよい。
また、ロボットシステム10から力検出装置14を省略することができる。この場合において、制御装置18は、図3中のステップS6〜S12の代わりに、ロボットプログラムに従ってロボット12を動作させて、作業対象物Wを目的位置まで、ロボット12に自動で運搬させてもよい。
このロボットプログラムは、例えば、作業対象物Wを目的位置まで運搬させる動作をロボット12に教示することによって、構築され得る。また、作業員Aの第1の動作及び第2動作は、上述した動作に限定されず、検出装置16Bが検出可能であれば、如何なる動作であってもよい。
次に、図11及び図12を参照して、他の実施形態に係るロボットシステム50について説明する。ロボットシステム50は、作業員Aと協働で、作業対象物Vを部品Fに締結する作業を行うためのシステムである。ロボットシステム50は、上述のロボットシステム10と、力検出装置14を備えていない点、及び、ロボット52の構成において、相違する。
ロボット52は、垂直多関節ロボットであって、ロボットベース20、旋回胴22、ロボットアーム24、手首部32、及びエンドエフェクタ54を有する。エンドエフェクタ54は、手首部32に取り付けられ、工具56を有する。工具56は、軸線Oを有し、エンドエフェクタ54は、工具56を軸線O周りに回転駆動する。作業対象物Vは、例えばボルトであって、エンドエフェクタ54は、工具56に作業対象物Vを係合させた状態で該工具56を回転駆動することによって、該作業対象物Vを部品Fに締結することができる。
次に、図13を参照して、ロボットシステム50の動作について説明する。図13に示す動作フローは、制御装置18が、オペレータ、上位コントローラ、又はロボットプログラムから運転開始指令を受け付けたときに、開始する。本実施形態においては、図14に示すように、複数の作業対象物V〜Vが部材Fに設置されている。
ステップS21において、検出装置16Aは、各々の作業対象物V〜Vを検出する。具体的には、制御装置18は、検出装置16Aに位置検出指令を送り、該位置取得指令を受け付けて、検出装置16Aは、各々の作業対象物V〜Vを撮像し、撮像した画像に基づいて、各々の作業対象物V〜V(例えば、中心)のロボット座標系Cにおける位置を取得する。
ステップS22において、検出装置16Bは、作業員Aの動作の検出を開始する。具体的には、制御装置18は、検出装置16Bに動作検出指令を送り、該動作検出指令を受け付けて、検出装置16Bは、作業員Aを連続的に撮像し、撮像した画像に基づいて、作業員Aの動作を継続的に検出する。
ここで、検出装置16Bは、作業員Aの所定の動作を検出するように構成される。この所定の動作は、作業対象物Vの締結作業をロボット52に行わせるために、作業員Aが、締結すべき作業対象物Vに対して行う動作である。この所定の動作の例について、図14を参照して説明する。
図14に示す例においては、所定の動作は、作業員Aが、締結すべき1つの作業対象物Vを指Cで指す動作として定められている。検出装置16Bは、作業員Aを連続的に撮像し、いわゆるモーションキャプチャ技術を用いて、作業員Aが作業対象物Vを指す動作及び指す方向Gを検出するとともに、指す方向Gと交差する作業対象物Vを締結対象として特定する。
ステップS23において、検出装置16Bは、作業員Aの所定の動作を検出したか否かを判定する。具体的には、検出装置16Bは、例えば図14で説明したような作業員Aの動作を検出したか否かを判定し、検出した場合はYESと判定し、締結対象の作業対象物Vを特定する。
そして、検出装置16Aは、締結対象として特定した作業対象物Vのロボット座標系Cにおける位置の情報を制御装置18に送り、ステップS25へ進む。一方、検出装置16Bは、作業員Aの所定の動作を検出していない場合はNOと判定し、ステップS24へ進む。
ステップS24において、制御装置18は、上述のステップS4と同様に、運転終了指令を受け付けたか否かを判定する。制御装置18は、運転終了指令を受け付けた(すなわち、YES)と判定した場合、図13に示すフローを終了する一方、運転終了指令を受け付けていない(すなわち、NO)と判定した場合、ステップS23へ戻る。
ステップS25において、制御装置18は、ロボット制御部42として機能し、ロボット52を、作業対象物Vに対して締結作業を行うための位置(以下、締結位置とする)へ移動させて、ロボット52に、作業対象物Vを部品Fへ締結させる。具体的には、制御装置18は、上述のステップS23で検出装置16Aから受信した作業対象物Vの位置の情報に基づいてロボット52の各サーボモータ40へ指令を送り、ロボット52を締結位置へ移動させる。
ロボット52が締結位置に配置されたとき、工具56の軸線Oと作業対象物Vの中心軸とが一致し、工具56と作業対象物Vとが相対回転不能に係合する。このように、制御装置18は、検出装置16Bが作業員Aの所定の動作を検出したことをトリガーとして、ロボット52を締結位置へ移動させる作業(すなわち、サーボモータ40への指令)を開始する。
次いで、制御装置18は、エンドエフェクタ54を動作させて、工具56を軸線O周りに回転駆動する。これにより、作業対象物Vは、工具56によって回転されて、部品Fに締結される。なお、このステップS25において、制御装置18は、検出装置16Bが連続的に検出している作業員Aの動作の情報に基づいて、該作業員Aとの衝突を避けることができるロボット52の動作経路を演算してもよい。そして、制御装置18は、演算した動作経路に沿ってロボット52を動作させてもよい。この構成によれば、ロボット52と作業員Aとの衝突を防止できる。
ステップS26において、制御装置18は、上述のステップS4と同様に、運転終了指令を受け付けたか否かを判定する。制御装置18は、運転終了指令を受け付けた(すなわち、YES)と判定した場合、図13に示すフローを終了する一方、運転終了指令を受け付けていない(すなわち、NO)と判定した場合、ステップS23へ戻る。
そして、作業員Aは、他の作業対象物V〜Vのいずれかに対して再度、第1の動作を行い、制御装置18は、ステップS23〜26のループを繰り返し実行することによって、作業員Aと協働で、ロボット52に作業対象物V〜Vの締結作業を実行させることができる。
以上のように、本実施形態においては、制御装置18は、検出装置16Bが作業員Aの所定の動作を検出したときに、作業対象物Vに対しロボット52に予め定めた作業(締結位置への移動、及び作業対象物の締結)を実行させている。この構成によれば、作業員Aは、装置を操作することなく、ロボット52を所望のタイミングで直感的に始動させることができる。
なお、本実施形態において、検出装置16Bが検出する作業員Aの所定の動作は、図4に示す接近動作、図5に示す把持動作、又は図7に示すタップ動作であってもよい。また、本実施形態においては、ロボット52が作業対象物Vを締結する作業を行う場合について述べた。しかしながら、これに限らず、ロボット52は、例えば、作業対象物に対して溶接作業を行うものであってもよいし、又は、他の如何なる作業を行うものであってもよい。ロボット52が溶接作業を行う場合、ロボット52のエンドエフェクタ54は、溶接トーチを有し得る。
また、上述の実施形態においては、ロボット12、52が、複数の作業対象物W、Vに対して作業を行う場合について述べたが、1つのみの作業対象物に対して作業をするものであってもよい。また、検出装置16Bを、カメラと、制御装置18のプロセッサとによって構成してもよい。具体的には、カメラによって作業員Aを撮像し、制御装置18のプロセッサが、カメラの撮像画像を画像解析して、作業員Aの動作を検出してもよい。
また、検出装置16Bは、3次元視覚センサに限らず、作業員Aの身体に設置した複数の慣性センサを有してもよい。この場合において、制御装置18は、複数の慣性センサからの出力データに基づいて、作業員Aの動作を検出してもよい。また、上述した形態に限らず、検出装置16Bは、如何なるタイプのセンサを有してもよいし、如何なるタイプのモーションキャプチャ技術を用いて作業員Aの動作を検出してもよい。
また、検出装置16A及び16Bは、1つの検出装置から構成されてもよい。このような実施形態を図15に示す。図15に示すロボットシステム10’は、1つの検出装置16を備える。検出装置16は、例えば3次元視覚センサから構成され、上述の検出装置16A及び16Bの機能を担う。具体的には、検出装置16は、作業対象物Wを検出するとともに、該作業対象物Wに対する作業員Aの所定の動作を検出する。この検出装置16は、上述のロボットシステム50に適用することもできる。
また、ロボットシステム10において、力検出装置14は、如何なる位置に設けられてもよい。以下、図16を参照して、力検出装置14の設置位置の他の例について説明する。図16に示すロボットシステム10”においては、力検出装置14は、ロボットベース20とベースプレート38との間に介挿されている。この例においては、力検出装置14は、ロボット12のコンポーネント(すなわち、ロボットベース20、旋回胴22、ロボットアーム24、手首部32、又はロボットハンド26)に掛かる外力Fを検出できる。
なお、力検出装置14は、6軸力覚センサに限らず、例えば、各サーボモータ40の駆動軸に掛かるトルクを検出するトルクセンサを有し、該トルクセンサの検出値から、ロボット12のコンポーネントに掛かる外力Fを検出するように構成されてもよい。又は、力検出装置14は、各サーボモータ40からフィードバックされる外乱トルクから、ロボット12のコンポーネントに掛かる外力Fを検出するように構成されてもよい。
また、ロボット12(又は52)は、垂直多関節ロボットに限らず、水平多関節ロボット、パラレルリンクロボット、又はローダ等、如何なるタイプのロボットであってもよい。また、ロボット12(又は52)は、ロボットベース20、旋回胴22、ロボットアーム24、手首部32、及びロボットハンド26(又はエンドエフェクタ54)を有するロボット本体部と、該ロボット本体部を任意の方向へ移動させる走行装置とを有してもよい。この場合において、制御装置18は、上述のステップS5及びS10(又は、ステップS25)において、該走行装置を動作させて、ロボット本体部を移動させてもよい。
以上、実施形態を通じて本開示を説明したが、上述の実施形態は、特許請求の範囲に係る発明を限定するものではない。
10,10’,10”,50 ロボットシステム
12,52 ロボット
14 力検出装置
16,16A,16B 検出装置
18 制御装置
42 ロボット制御部

Claims (7)

  1. ロボットと、
    作業対象物を検出するとともに、該作業対象物に対する人の所定の動作を検出する検出装置と、
    前記検出装置が前記所定の動作を検出したときに、該検出装置が検出した前記作業対象物に対し前記ロボットに予め定めた作業を実行させるロボット制御部と、を備える、ロボットシステム。
  2. 前記作業は、前記ロボットが前記作業対象物を把持して運搬する作業であり、
    前記ロボット制御部は、前記検出装置が検出した前記作業対象物の位置に基づき、前記作業対象物を把持する位置に前記ロボットを移動させ、該把持する位置で前記ロボットに前記作業対象物を把持させる、請求項1に記載のロボットシステム。
  3. 前記ロボットに加わる外力を検出する力検出装置をさらに備え、
    前記ロボット制御部は、前記力検出装置が検出した前記外力のデータに基づき、前記ロボットに前記作業対象物を運搬させる、請求項2に記載のロボットシステム。
  4. 前記検出装置は、前記所定の動作とは異なる人の第2の動作をさらに検出し、
    前記ロボット制御部は、前記検出装置が前記第2の動作を検出したときに、前記ロボットに前記作業対象物を解放させる、請求項2又は3に記載のロボットシステム。
  5. 前記検出装置は、前記所定の動作として、
    人が前記作業対象物に接近する動作、
    人が手で前記作業対象物を把持する動作、
    人が指で前記作業対象物を指す動作、又は
    人が手で前記作業対象物をタップする動作
    を検出するように構成されている、請求項1〜4のいずれか1項に記載のロボットシステム。
  6. ロボットの制御方法であって、
    作業対象物を検出し、
    前記作業対象物に対する人の所定の動作を検出し、
    前記所定の動作を検出したときに、検出した前記作業対象物に対し前記ロボットに予め定めた作業を実行させる、制御方法。
  7. 前記作業は、前記ロボットが前記作業対象物を把持して運搬する作業であり、
    前記所定の動作を検出したときに、前記検出した作業対象物の位置に基づき、該作業対象物を把持する位置に前記ロボットを移動させ、
    前記把持する位置で前記ロボットに前記作業対象物を把持させ、
    力検出装置が検出した、前記ロボットに加わる外力のデータに基づき、前記ロボットに前記作業対象物を運搬させる、請求項6に記載の制御方法。
JP2018199338A 2018-10-23 2018-10-23 人と協働作業を行うロボットシステム、及びロボット制御方法 Active JP6916157B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018199338A JP6916157B2 (ja) 2018-10-23 2018-10-23 人と協働作業を行うロボットシステム、及びロボット制御方法
US16/571,206 US11235463B2 (en) 2018-10-23 2019-09-16 Robot system and robot control method for cooperative work with human
DE102019007186.7A DE102019007186B4 (de) 2018-10-23 2019-10-16 Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
CN201911002472.XA CN111085993A (zh) 2018-10-23 2019-10-21 与人进行协同作业的机器人系统以及机器人控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018199338A JP6916157B2 (ja) 2018-10-23 2018-10-23 人と協働作業を行うロボットシステム、及びロボット制御方法

Publications (2)

Publication Number Publication Date
JP2020066080A true JP2020066080A (ja) 2020-04-30
JP6916157B2 JP6916157B2 (ja) 2021-08-11

Family

ID=70280394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018199338A Active JP6916157B2 (ja) 2018-10-23 2018-10-23 人と協働作業を行うロボットシステム、及びロボット制御方法

Country Status (4)

Country Link
US (1) US11235463B2 (ja)
JP (1) JP6916157B2 (ja)
CN (1) CN111085993A (ja)
DE (1) DE102019007186B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220176560A1 (en) * 2019-03-28 2022-06-09 Omron Corporation Control system, control method, and control unit

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020071080A1 (ja) * 2018-10-05 2020-04-09 ソニー株式会社 情報処理装置、制御方法及びプログラム
JP7211007B2 (ja) * 2018-10-30 2023-01-24 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
JP7458818B2 (ja) * 2020-02-21 2024-04-01 キヤノン株式会社 ロボット装置、インタフェース装置、制御装置、エンドエフェクタ、制御方法、ロボット装置を用いた物品の製造方法、プログラム及び記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011042011A (ja) * 2009-08-21 2011-03-03 Tokyo Metropolitan Univ ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット
JP2014104527A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp ロボットシステム、プログラム、生産システム及びロボット
JP2015044257A (ja) * 2013-08-27 2015-03-12 株式会社デンソーアイティーラボラトリ ロボット、ロボット制御方法、及びロボット制御プログラム
WO2017033366A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
JP2017074660A (ja) * 2015-10-16 2017-04-20 ファナック株式会社 人と協働して物体を運搬するロボットを制御するロボット制御装置、ロボットシステム、およびその方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5798627A (en) * 1995-01-04 1998-08-25 Gilliland; Malcolm T. Method for simultaneous operation of robot welders
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP5338297B2 (ja) * 2008-12-19 2013-11-13 株式会社安川電機 ロボットの制御装置
JP4648486B2 (ja) * 2009-01-26 2011-03-09 ファナック株式会社 人間とロボットとの協調動作領域を有する生産システム
WO2011021375A1 (ja) * 2009-08-21 2011-02-24 パナソニック株式会社 ロボットアームの制御装置及び制御方法、組立ロボット、ロボットアームの制御プログラム、及び、ロボットアームの制御用集積電子回路
JP2013111737A (ja) * 2011-12-01 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
WO2013175777A1 (ja) * 2012-05-23 2013-11-28 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
US10406686B2 (en) * 2012-12-14 2019-09-10 Abb Schweiz Ag Bare hand robot path teaching
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
JP6344084B2 (ja) * 2014-06-20 2018-06-20 オムロン株式会社 ロボット操作用の作業者端末
US9919421B2 (en) * 2015-04-15 2018-03-20 Abb Schweiz Ag Method and apparatus for robot path teaching
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
DE102015012959B4 (de) * 2015-10-08 2019-01-17 Franka Emika Gmbh Robotersystem und Verfahren zur Steuerung eines Robotersystems
CN109219856A (zh) * 2016-03-24 2019-01-15 宝利根 T·R 有限公司 用于人类及机器人协作的系统及方法
CN107717981B (zh) * 2016-08-12 2021-01-05 财团法人工业技术研究院 机械手臂的控制装置及其教导系统与方法
CN107717982B (zh) * 2016-08-12 2020-09-25 财团法人工业技术研究院 机械手臂的控制装置及操作方法
JP6549545B2 (ja) * 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム
US10427306B1 (en) * 2017-07-06 2019-10-01 X Development Llc Multimodal object identification
JP6875228B2 (ja) * 2017-08-23 2021-05-19 株式会社日立製作所 ロボット調達装置、及びロボット調達方法
US10898999B1 (en) * 2017-09-18 2021-01-26 X Development Llc Selective human-robot interaction
EP3591521B1 (en) * 2018-07-05 2023-07-26 Honda Research Institute Europe GmbH Assistance system, method, and program for assisting a user in fulfilling a task

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011042011A (ja) * 2009-08-21 2011-03-03 Tokyo Metropolitan Univ ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット
JP2014104527A (ja) * 2012-11-27 2014-06-09 Seiko Epson Corp ロボットシステム、プログラム、生産システム及びロボット
JP2015044257A (ja) * 2013-08-27 2015-03-12 株式会社デンソーアイティーラボラトリ ロボット、ロボット制御方法、及びロボット制御プログラム
WO2017033366A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
JP2017074660A (ja) * 2015-10-16 2017-04-20 ファナック株式会社 人と協働して物体を運搬するロボットを制御するロボット制御装置、ロボットシステム、およびその方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220176560A1 (en) * 2019-03-28 2022-06-09 Omron Corporation Control system, control method, and control unit

Also Published As

Publication number Publication date
US11235463B2 (en) 2022-02-01
CN111085993A (zh) 2020-05-01
US20200122323A1 (en) 2020-04-23
DE102019007186A1 (de) 2020-04-23
DE102019007186B4 (de) 2023-07-06
JP6916157B2 (ja) 2021-08-11

Similar Documents

Publication Publication Date Title
JP6916157B2 (ja) 人と協働作業を行うロボットシステム、及びロボット制御方法
US11207777B2 (en) Robot controlling device and automatic assembling system
JP5893684B2 (ja) 衝突判定部による誤判定を防止するロボット制御装置
JP4544145B2 (ja) ロボットの干渉回避方法およびロボット
JP5849403B2 (ja) ロボットコントローラー、ロボット、及び、ロボットシステム
JP6117853B2 (ja) バラ積みされた物品を取り出すための物品取出システム、および方法
JP6496353B2 (ja) ロボットシステム
US20150321354A1 (en) Picking apparatus and picking method
KR101947825B1 (ko) 로봇, 및 로봇을 작동시키기 위한 방법
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
JP2010094765A (ja) ロボットの原点復帰装置
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
WO2017141569A1 (ja) 制御装置、制御システム、制御方法およびプログラム
JP2017077600A (ja) マニピュレータ装置
CN112549014A (zh) 机器人系统、控制方法、机器学习装置以及机器学习方法
JP7364773B2 (ja) 教示システム及びロボット制御装置
CN108475051B (zh) 用于在工业机器人的编程期间对准工具的方法和系统
WO2013014965A1 (ja) 作業部動作制御装置および作業部動作制御方法および作業部動作制御プログラム
JP2021058980A (ja) 生産システム
US11660757B2 (en) Robot control system simultaneously performing workpiece selection and robot task
WO2024023934A1 (ja) ワーク取出し装置、ワーク取出し方法及び制御装置
JP2021183363A (ja) ロボットの制御装置及びロボットの制御方法
JP6426690B2 (ja) バラ積みされた物品を取り出すための物品取出システム、および方法
JP2023100398A (ja) 走行ロボットシステム
CN115972188A (zh) 根据人类演示的机器人程序生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200616

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210715

R150 Certificate of patent or registration of utility model

Ref document number: 6916157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150