JP2021135881A - ロボットの制御方法 - Google Patents

ロボットの制御方法 Download PDF

Info

Publication number
JP2021135881A
JP2021135881A JP2020033135A JP2020033135A JP2021135881A JP 2021135881 A JP2021135881 A JP 2021135881A JP 2020033135 A JP2020033135 A JP 2020033135A JP 2020033135 A JP2020033135 A JP 2020033135A JP 2021135881 A JP2021135881 A JP 2021135881A
Authority
JP
Japan
Prior art keywords
robot
instruction
command
arm
route planning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020033135A
Other languages
English (en)
Inventor
信宏 狩戸
Nobuhiro Karido
信宏 狩戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020033135A priority Critical patent/JP2021135881A/ja
Priority to CN202110211655.3A priority patent/CN113319847B/zh
Priority to US17/186,019 priority patent/US20210268651A1/en
Publication of JP2021135881A publication Critical patent/JP2021135881A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33076Optimize time by parallel execution of independent blocks by two processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40101Generate concurrent tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】処理にかかる時間を短縮することができるロボットの制御方法を提供すること。【解決手段】ロボットアームを作動する動作命令を含む第1命令と、第2命令と、を含むプログラムに基づいて、前記ロボットアームを有するロボットの作動を制御するロボットの制御方法であって、前記第1命令に基づいて前記ロボットアームの作動を制御する第1ステップと、前記第2命令に基づいて前記ロボットの作動を制御する第2ステップと、を有し、前記第1ステップにおいて、前記動作命令の実行を開始した後に、前記第2命令に所定の命令が含まれているか否かを判断し、前記第2命令に前記所定の命令が含まれていると判断した場合、前記第1ステップが終了する前に前記所定の命令を実行することを特徴とするロボットの制御方法。【選択図】図5

Description

本発明は、ロボットの制御方法に関する。
近年、工場では人件費の高騰や人材不足により、各種ロボットやそのロボット周辺機器によって、人手で行われてきた作業の自動化が加速している。例えば、特許文献1には、ハンドを有するロボットに接続され、プログラムに記載された複数の動作命令をロボットに順次実行させるロボットを制御するロボット制御装置が開示されている。
また、特許文献1のロボット制御装置は、ロボットプログラム記憶手段を有する。ロボットプログラム記憶手段には、ロボットプログラムが記憶されている。ロボットプログラムは、ロボットに対する動作命令がロボット言語により連続したステップにて記載されたものである。
特開2008−254141号公報
しかし、ロボットに対する動作命令が、複雑な処理であったり、処理する情報量が多かったりすると、前の動作命令が完了してから次に動作が開始されるまでの時間が長くなってしまうおそれがある。この場合、トータルの作業時間が長くなってしまう。
本発明のロボットの制御方法は、ロボットアームを作動する動作命令を含む第1命令と、第2命令と、を含むプログラムに基づいて、前記ロボットアームを有するロボットの作動を制御するロボットの制御方法であって、
前記第1命令に基づいて前記ロボットアームの作動を制御する第1ステップと、
前記第2命令に基づいて前記ロボットの作動を制御する第2ステップと、を有し、
前記第1ステップにおいて、前記動作命令の実行を開始した後に、前記第2命令に所定の命令が含まれているか否かを判断し、前記第2命令に前記所定の命令が含まれていると判断した場合、前記第1ステップが終了する前に前記所定の命令を実行することを特徴とする。
図1は、第1実施形態のロボットシステムの全体構成を示す図である。 図2は、図1に示すロボットシステムのブロック図である。 図3は、ロボットシステムが実行するプログラムの一例を示す概念図である。 図4は、従来のロボットシステムが実行するプログラムのタイムチャートである。 図5は、図1に示すロボットシステムが実行するプログラムの一例を示すタイムチャートである。 図6は、図1に示すロボットシステムが実行するプログラムの一例を示すタイムチャートである。 図7は、本発明のロボットの制御方法の一例を示すフローチャートである。 図8は、図7中のステップS5の詳細を示すフローチャートである。 図9は、図7中のステップS7の詳細を示すフローチャートである。 図10は、図7中のステップS8の詳細を示すフローチャートである。
<第1実施形態>
図1は、第1実施形態のロボットシステムの全体構成を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、ロボットシステムが実行するプログラムの一例を示す概念図である。図4は、従来のロボットシステムが実行するプログラムのタイムチャートである。図5は、図1に示すロボットシステムが実行するプログラムの一例を示すタイムチャートである。図6は、図1に示すロボットシステムが実行するプログラムの一例を示すタイムチャートである。図7は、本発明のロボットの制御方法の一例を示すフローチャートである。図8は、図7中のステップS5の詳細を示すフローチャートである。図9は、図7中のステップS7の詳細を示すフローチャートである。図10は、図7中のステップS8の詳細を示すフローチャートである。
以下、本発明のロボットの制御方法を添付図面に示す好適な実施形態に基づいて詳細に説明する。なお、以下では、説明の便宜上、図1中の+Z軸方向、すなわち、上側を「上」、−Z軸方向、すなわち、下側を「下」とも言う。また、ロボットアームについては、図1中の基台11側を「基端」、その反対側、すなわち、エンドエフェクター20側を「先端」とも言う。また、図1中のZ軸方向、すなわち、上下方向を「鉛直方向」とし、X軸方向およびY軸方向、すなわち、左右方向を「水平方向」とする。
図1に示すように、ロボットシステム100は、ロボット1と、ロボット1を制御する制御装置3と、教示装置4と、撮像部5と、を備え、本発明のロボットの制御方法を実行する。
まず、ロボット1について説明する。
図1に示すロボット1は、本実施形態では単腕の6軸垂直多関節ロボットであり、基台11と、ロボットアーム10と、を有する。また、ロボットアーム10の先端部にエンドエフェクター20を装着することができる。エンドエフェクター20は、ロボット1の構成要件であってもよく、ロボット1の構成要件でなくてもよい。
なお、ロボット1は、図示の構成に限定されず、例えば、双腕型の多関節ロボットであってもよい。また、ロボット1は、水平多関節ロボットであってもよい。
基台11は、ロボットアーム10を下側から駆動可能に支持する支持体であり、例えば工場内の床に固定されている。ロボット1は、基台11が中継ケーブル18を介して制御装置3と電気的に接続されている。なお、ロボット1と制御装置3との接続は、図1に示す構成のように有線による接続に限定されず、例えば、無線による接続であってもよく、さらには、インターネットのようなネットワークを介して接続されていてもよい。
本実施形態では、ロボットアーム10は、第1アーム12と、第2アーム13と、第3アーム14と、第4アーム15と、第5アーム16と、第6アーム17とを有し、これらのアームが基台11側からこの順に連結されている。なお、ロボットアーム10が有するアームの数は、6つに限定されず、例えば、1つ、2つ、3つ、4つ、5つまたは7つ以上であってもよい。また、各アームの全長等の大きさは、それぞれ、特に限定されず、適宜設定可能である。
基台11と第1アーム12とは、関節171を介して連結されている。そして、第1アーム12は、基台11に対し、鉛直方向と平行な第1回動軸を回動中心とし、その第1回動軸回りに回動可能となっている。第1回動軸は、基台11が固定される床の法線と一致している。
第1アーム12と第2アーム13とは、関節172を介して連結されている。そして、第2アーム13は、第1アーム12に対し、水平方向と平行な第2回動軸を回動中心として回動可能となっている。第2回動軸は、第1回動軸に直交する軸と平行である。
第2アーム13と第3アーム14とは、関節173を介して連結されている。そして、第3アーム14は、第2アーム13に対して水平方向と平行な第3回動軸を回動中心として回動可能となっている。第3回動軸は、第2回動軸と平行である。
第3アーム14と第4アーム15とは、関節174を介して連結されている。そして、第4アーム15は、第3アーム14に対し、第3アーム14の中心軸方向と平行な第4回動軸を回動中心として回動可能となっている。第4回動軸は、第3回動軸と直交している。
第4アーム15と第5アーム16とは、関節175を介して連結されている。そして、第5アーム16は、第4アーム15に対して第5回動軸を回動中心として回動可能となっている。第5回動軸は、第4回動軸と直交している。
第5アーム16と第6アーム17とは、関節176を介して連結されている。そして、第6アーム17は、第5アーム16に対して第6回動軸を回動中心として回動可能となっている。第6回動軸は、第5回動軸と直交している。
また、第6アーム17は、ロボットアーム10の中で最も先端側に位置するロボット先端部となっている。この第6アーム17は、ロボットアーム10の駆動により、エンドエフェクター20ごと回動することができる。
ロボット1は、駆動部としてのモーターM1、モーターM2、モーターM3、モーターM4、モーターM5およびモーターM6と、エンコーダーE1、エンコーダーE2、エンコーダーE3、エンコーダーE4、エンコーダーE5およびエンコーダーE6とを備える。モーターM1は、関節171に内蔵され、基台11と第1アーム12とを相対的に回転させる。モーターM2は、関節172に内蔵され、第1アーム12と第2アーム13とを相対的に回転させる。モーターM3は、関節173に内蔵され、第2アーム13と第3アーム14とを相対的に回転させる。モーターM4は、関節174に内蔵され、第3アーム14と第4アーム15とを相対的に回転させる。モーターM5は、関節175に内蔵され、第4アーム15と第5アーム16とを相対的に回転させる。モーターM6は、関節176に内蔵され、第5アーム16と第6アーム17とを相対的に回転させる。
また、エンコーダーE1は、関節171に内蔵され、モーターM1の位置を検出する。エンコーダーE2は、関節172に内蔵され、モーターM2の位置を検出する。エンコーダーE3は、関節173に内蔵され、モーターM3の位置を検出する。エンコーダーE4は、関節174に内蔵され、モーターM4の位置を検出する。エンコーダーE5は、関節175に内蔵され、モーターM5の位置を検出する。エンコーダーE6は、関節176に内蔵され、モーターM6の位置を検出する。
エンコーダーE1〜E6は、制御装置3と電気的に接続されており、モーターM1〜モーターM6の位置情報、すなわち、回転量が制御装置3に電気信号として送信される。そして、この情報に基づいて、制御装置3は、モーターM1〜モーターM6を、図示しないモータードライバーD1〜モータードライバーD6を介して駆動させる。すなわち、ロボットアーム10を制御するということは、モーターM1〜モーターM6を制御することである。
また、ロボットアーム10の先端には、制御点CPが設定されている。制御点CPは、ロボットアーム10の制御を行う際の基準となる点のことである。ロボットシステム100では、ロボット座標系で制御点CPの位置を把握し、制御点CPが所望の位置に移動するようにロボットアーム10を駆動する。
また、ロボット1では、ロボットアーム10に、力を検出する力検出部19が着脱自在に設置される。そして、ロボットアーム10は、力検出部19が設置された状態で駆動することができる。力検出部19は、本実施形態では、6軸力覚センサーである。力検出部19は、互いに直交する3個の検出軸上の力の大きさと、当該3個の検出軸まわりのトルクの大きさとを検出する。すなわち、互いに直交するX軸、Y軸、Z軸の各軸方向の力成分と、X軸回りとなるW方向の力成分と、Y軸回りとなるV方向の力成分と、Z軸回りとなるU方向の力成分とを検出する。なお、本実施形態では、Z軸方向が鉛直方向となっている。また、各軸方向の力成分を「並進力成分」と言い、各軸回りの力成分を「トルク成分」と言うこともできる。また、力検出部19は、6軸力覚センサーに限定されず、他の構成のものであってもよい。
本実施形態では、力検出部19は、第6アーム17に設置されている。なお、力検出部19の設置箇所としては、第6アーム17、すなわち、最も先端側に位置するアームに限定されず、例えば、他のアームや、隣り合うアーム同士の間であってもよい。
力検出部19には、エンドエフェクター20を着脱可能に装着することができる。エンドエフェクター20は、本実施形態では、互いに接近離間可能な一対の爪部を有し、各爪部によりワークを把持、解除するハンドで構成される。なお、エンドエフェクター20としては、図示の構成に限定されず、吸引により作業対象物を把持するハンドであってもよい。また、エンドエフェクター20としては、例えば、研磨機、研削機、切削機や、ドライバー、レンチ等の工具であってもよい。
また、ロボット座標系において、エンドエフェクター20の先端には、制御点であるツールセンターポイントTCPが設定される。ロボットシステム100では、ツールセンターポイントTCPの位置をロボット座標系で把握しておくことにより、ツールセンターポイントTCPを制御の基準とすることができる。
次に、撮像部5について説明する。
図1および図2に示す撮像部5は、例えば、複数の画素を有するCCD(Charge Coupled Device)イメージセンサーで構成された撮像素子と、レンズ等を含む光学系と、を有する構成とすることができる。図2に示すように、撮像部5は、制御装置3と電気的に接続されている。また、撮像部5は、撮像素子が受光した光を電気信号に変換し、その電気信号を制御装置3へと出力する。すなわち、撮像部5は、撮像結果を制御装置3へと送信する。なお、撮像結果は、静止画であってもよく、動画であってもよい。
図示の構成では、撮像部5は、第6アーム17に設けられている。ただし、このような構成に限定されず、例えば、ロボット1以外の部位、例えば、ワークが配置されている作業面付近に設置された構造体に設置される構成であってもよい。
次に、制御装置3および教示装置4について説明する。本実施形態では、制御装置3が、本発明のロボットの制御方法を実行する場合について説明するが、本発明ではこれに限定されず、例えば、教示装置4が行ってもよく、制御装置3および教示装置4が分担して行ってもよい。
図1および図2に示すように、制御装置3は、本実施形態では、ロボット1と離れた位置に設置されている。ただし、この構成に限定されず、基台11に内蔵されていてもよい。また、制御装置3は、ロボット1の駆動を制御する機能を有し前述したロボット1の各部と電気的に接続されている。制御装置3は、制御部31と、記憶部32と、通信部33と、を有する。これらの各部は、例えばバスを介して相互に通信可能に接続されている。
制御部31は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーで構成され、記憶部32に記憶されている各種プログラム等を読み出し、実行する。制御部31で生成された指令信号は、通信部33を介してロボット1に送信される。これにより、ロボットアーム10が所定の作業を実行することができる。
制御部31は、マルチタスクで動作するシングルコアのプロセッサーであっても、図示のようにマルチコアのプロセッサーであっても本発明のロボットの制御方法を実行可能である。特に、マルチコアのプロセッサーを用いることにより、異なるプログラムの実行を各コアに割り当てることができる。これにより、後述するように、異なるプログラムを時間的に重複して実行することができる。
制御部31としてマルチコアのプロセッサーを用いる場合、各コアに、例えばLinux(登録商標)のような汎用OSが割り当てられているのが好ましい。これにより、各コアが行う処理の種類が増え、汎用性に優れる。
また、制御部31は、キャッシュメモリー310を含む。
記憶部32は、制御部31が実行可能な各種プログラム等を保存する。記憶部32としては、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等が挙げられる。
通信部33は、例えば有線LAN(Local Area Network)、無線LAN等の外部インターフェースを用いてロボット1の各部および教示装置4との間でそれぞれ信号の送受信を行う。
次に、教示装置4について説明する。
図1および図2に示すように、教示装置4は、ロボットアーム10に対して動作プログラムを作成、入力したりする機能を有する。教示装置4は、制御部41と、記憶部42と、通信部43と、を有する。教示装置4としては、特に限定されず、例えば、タブレット、パソコン、スマートフォン、ティーチングペンダント等が挙げられる。
制御部41は、例えば、CPU(Central Processing Unit)で構成され、記憶部42に記憶されている教示プログラム等の各種プログラムを読み出し、実行する。なお、教示プログラムは、教示装置4で生成されたものであってもよく、例えばCD−ROM等の外部記録媒体から記憶されたものであってもよく、ネットワーク等を介して記憶されたものであってもよい。
制御部41で生成された信号は、通信部43を介してロボット1の制御装置3に送信される。これにより、ロボットアーム10が所定の作業を所定の条件で実行したりすることができる。
記憶部42は、制御部41が実行可能な各種プログラム等を保存する。記憶部42としては、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等が挙げられる。
通信部43は、例えば有線LAN(Local Area Network)、無線LAN等の外部インターフェースを用いて制御装置3との間で信号の送受信を行う。
以上、ロボットシステム100について説明した。
このようなロボットシステム100では、教示装置4から動作プログラムが制御装置3の記憶部32に入力、記憶される。そして、制御部31は、記憶部32に記憶されている動作プログラムに基づいて、ロボット1の作動を制御する。
ここで、動作プログラムは、ロボット1に対する命令がロボット言語により連続したステップにて記載されたものである。図3は、ロボットシステム100が実行するプログラムの一例を示す概念図である。図3に示すように、動作プログラムは、単位プログラムである命令を含み、これらの命令と、実行する順番とが紐づけられたものである。図3では、最初の命令である命令Aと、命令Aの次の命令である命令Bと、命令Bの次の命令である命令Cと、を代表的に図示している。
命令Aは、「初期位置に移動」という命令と、「ワークを把持」という命令と、「撮像」という命令と、を含む。命令Aに基づいてロボット1を駆動するということは、「初期位置に移動」、「ワークを把持」および「撮像」を順次実行することである。
「初期位置に移動」という命令には、制御点CPが、移動する目標位置である初期位置の座標に関する情報が含まれる。また、初期位置は、ロボット座標系における制御点CPが移動する目標となる位置の座標に関する情報を含む。また、この動作命令には、経路の途中の任意の位置におけるロボットアーム10の姿勢も含まれる。
「ワークを把持」という命令は、エンドエフェクター20の一対の爪部を接近させてワークを把持するという命令である。「撮像」という命令は、撮像部5を用いてロボット1の周辺環境、例えば、図示しない作業台およびその周面を撮像するという命令である。
このような「初期位置に移動」、「ワークを把持」および「撮像」という命令を順次実行することにより、命令Aが完了する。命令Aが完了すると、命令Bを実行する。
命令Bは、「経路計画処理」という命令と、「A地点に移動」という命令と、を含む。命令Bに基づいてロボット1を駆動するということは、「経路計画処理」および「A地点に移動」を順次実行することである。
「経路計画処理」は、制御点CPの通過する経路およびその際の姿勢を求める処理である。経路計画処理では、例えば、命令Aでの撮像結果に基づいて、障害物とロボットアーム10が接触しないように、ワークの搬送先のA地点、すなわち、目標位置、および、その経路を通過する際の姿勢を求める。すなわち、経路とは、制御点CPが通過する座標の集合と、各座標におけるロボットアーム10の姿勢のことであり、経路計画処理は、制御点CPが通過する各座標および姿勢を求め、記憶部32に記憶する処理のことをいう。
「A地点に移動」は、経路計画処理で生成した経路を実行する処理である。すなわち、「A地点に移動」は、制御点CPが、「経路計画処理」で求めた各座標を所望の姿勢で通過するようにロボットアーム10を駆動することを言う。
このような「経路計画処理」、「A地点に移動」という命令を順次実行することにより、命令Bが完了する。命令Bが完了すると、命令Cを実行する。
命令Cは、「物体認識処理」という命令と、「ワーク組立」という命令と、を含む。命令Cに基づいてロボット1を駆動するということは、「物体認識処理」および「ワーク組立」を順次実行することである。
「物体認識処理」は、撮像部5を用いて、物体を特定し、ロボット座標系で認識することを言う。物体認識処理としては、例えば、障害物の認識、組立対象物の組立対象部位を認識すること等が挙げられる。組立対象物の組立対象部位は、例えば、現在把持しているワークを挿入する挿入孔等が挙げられる。「ワーク組立」とは、現在把持しているワークを、組立対象物に対して組み立てることを言う。
このような「物体認識処理」、「ワーク組立」という命令を順次実行することにより、命令Cが完了する。なお、命令の種類としては、上記で挙げたものに限定されず、例えば、待機命令、初期位置回帰命令、動作速度変更命令等も含まれる。
ここで、上記で説明した各処理のうち、命令Aにおける「初期位置に移動」という命令と、命令Bの「A地点に移動」という命令が、ロボットアーム10を動作させるための動作命令である。この動作命令は、実行する際のキャッシュメモリー310や、図示しないシステムバスの占有率が比較的低い処理であり、以下では、「簡単な処理」とも言う。一方、命令Bにおける「経路計画処理」や、命令Cにおける「物体認識処理」は、実行する際のキャッシュメモリー310や、図示しないシステムバスの占有率が比較的高い処理であり、以下では、「複雑な処理」とも言う。
従来のロボットシステムでは、上述したような命令A〜命令Cを実行する際、図4に示すような現象が生じるおそれがある。図4は、動作プログラムを実行している状態を示すタイムチャートである。図4に示すように、命令A〜命令Cを順次実行する構成であると、トータルの作業時間が時間T’かかる。なお、「経路計画処理」および「物体認識処理」は、各命令の中でも、比較的時間がかかる処理である。一方、経路計画処理および物体認識処理以外の処理は、比較的短時間で実行可能である。特に、「経路計画処理」および「物体認識処理」は、処理に時間がかかるにも関わらず、ロボットアーム10の動作は停止している状態であり、ロボットアーム10の停止時間が長いと、作業効率が低下する。
これに対し、本発明は、図5に示すような構成とすることにより、トータルの作業時間を従来よりも短い時間Tとすることができる。以下、このことについて説明する。
ロボットシステム100では、命令Aに含まれる簡単な処理である「初期位置に移動」を開始した後に、命令Bに複雑な処理である「経路計画処理」や「物体認識処理」が含まれているかを判断し、図示のように「経路計画処理」が含まれていた場合、「経路計画処理」を先行して開始する。具体的には、「初期位置に移動」の実行中に「経路計画処理」を並行して行う。さらに換言すれば、命令Aの簡単な処理である動作命令を実行中に命令Bの複雑な処理を先行して開始する。なお、命令Bおよび命令Cについても同様であり、命令Bの動作命令による処理を開始した後に、命令Cに複雑な処理が含まれているかを判断し、図示に用に含まれていた場合、命令Bの動作命令を実行中に命令Cの複雑な処理、すなわち、「物体認識処理」を先行して開始する。
このような構成によれば、命令Aを実行している時間と命令Bとを実行している時間とが重複し、また、命令Bを実行している時間と命令Cとを実行している時間とが重複する。これらが時間的に重複している分、トータル作業時間を従来よりも短い時間Tとすることができる。また、命令A〜命令Cを実行するにあたって、ロボットアーム10が停止している時間を従来よりも少なくすることができる。これらのことから、生産性を高めることができる。また、時間的に重複する処理は、簡単な処理と複雑な処理となるため、制御部31に対する負担を軽減することができる。
なお、ロボットシステム100では、命令Aの動作命令の実行中に命令Bに複雑な処理が含まれているか否かの判断を開始し、命令Bに複雑な処理が含まれていた場合、命令Bの複雑な処理を命令Aが完了するまでに開始すればよい。このことは、命令Bおよび命令Cについても同様である。例えば、図6に示すように、命令Aにおいて、動作命令である「初期位置に移動」の処理が完了した後に、命令Bの「経路計画処理」を開始してもよい。
なお、命令A〜命令Cの3つの命令を例に挙げて説明したが、命令が4つ以上あったとしても、動作命令を含む命令があれば、その命令を第1命令とし、次の命令を第2命令として、本発明を適用することができる。
次に、図7〜図10に示すフローチャートに基づいて、本発明のロボットの制御方法の一例を説明する。なお、以下では、「次の命令」とは、前述した命令A〜命令Cのような単位プログラムのことを言う。具体的には、例えば、命令Aを実行中における、次の命令とは、命令Bのことを言う。
まず、ステップS1において、プログラムを開始する。すなわち、図1に示す教示装置4から入力されたプログラムを記憶部32に記憶し、各単位プログラムの最初の単位プログラムの実行を開始する。
次いで、ステップS2において、次の命令があるか否かを判断する。次の命令がないと判断した場合、ステップS9において、プログラムを終了する。ステップS2において、次の命令があると判断した場合、ステップS3において、次の命令を取得、解釈する。すなわち、次の命令を読み出しロボット言語を解釈する。
次いで、ステップS4において、取得した命令に動作命令が含まれているか否かを判断する。ステップS4において、動作命令が含まれていると判断した場合、ステップS5において、動作命令を実行する。なお、ステップS5の詳細は、後述する。
ステップS4において、動作命令が含まれていないと判断した場合、ステップS6において、取得した命令に物体認識処理が含まれているか否かを判断する。ステップS6において、取得した命令に物体認識処理が含まれていると判断した場合、ステップS7において、物体認識処理を実行し、ステップS2に戻る。なお、ステップS7の詳細は、後述する。
一方、ステップS6において、取得した命令に物体認識処理が含まれていないと判断した場合、ステップS8において、その他の命令を実行し、ステップS2に戻る。なお、ステップS8の詳細は、後述する。
なお、図7に示すフローチャートにおいて、ループ1周目が第1ステップであり、ループ2周目が第2ステップである。
次に、図8に示すフローチャートに基づいて、ステップS5の詳細を説明する。
まず、ステップS501において、動作命令の実行を開始する。すなわち、ロボットアーム10を駆動する。次いで、ステップS502において、先行して経路計画処理を実行しているか否かを判断する。すなわち、現状、経路計画処理を実行しているか否かを判断する。ステップS502において、先行して経路計画処理を実行していると判断した場合、ステップS517に移行する。ステップS517以降に関しては、後述する。
ステップS502において、先行して経路計画処理を実行していないと判断した場合、ステップS503において、経路計画処理を実行する。なお、最初の動作命令において、経路が指定されていた場合、本ステップを省略することができる。
次いで、ステップS504において、タスクを分岐させる。すなわち、2つのタスクを立ち上げ、時間的に重複して処理する。一方のタスクでは、ステップS505〜ステップS507およびステップS522を処理する。他方のタスクでは、ステップS508〜ステップS516およびステップS521を処理する。
ステップS505では、動作命令の実行を開始する。すなわち、ロボットアーム10の位置および姿勢の情報を取得し、ロボットアーム10の駆動信号を生成する。次いで、ステップS506において、1ms待機し、その間に他方のタスクの処理を実行する。時分割的に2つのタスクを実行することにより、シングルコアの構成でも本発明のロボットの制御方法を実行することができる。
このように1msごとにロボットアーム10の位置および姿勢の情報を取得し、空いた時間で他方のタスクの処理を実行する。換言すれば、他方のタスクの処理を実行していても1msごとに割り込んで動作命令に関する処理を行う。
さらに換言すれば、動作命令によりロボットアーム10を作動している際、所定の命令である経路計画処理および物体認識処理よりも優先して、ロボットアーム10の位置および姿勢を取得し、ロボットアーム10の駆動信号を生成する。これにより、動作命令を円滑に実行することができる。
次いで、ステップS507において、動作命令が終了したか否かを判断する。ステップS507において、動作命令が完了していないと判断した場合、ステップS505に戻り、以降のステップを繰り返す。ステップS507において、動作命令が完了したと判断した場合、ステップS522において、動作命令の実行を終了する。
一方、ステップS508では、次の命令が動作命令であるか否かを判断する。ステップS508において、次の命令が動作命令であると判断した場合、ステップS514において、次の命令を取得、解釈する。
次いで、ステップS515において、経路計画処理を実行する。経路計画処理は、前述したように、制御点CPが通過する各座標および姿勢を求め、記憶部32に記憶する処理のことをいう。そして、ステップS516において、経路をキャッシュメモリー310に記憶し、ステップS521において、タスクを終了する。ステップS516において、経路をキャッシュメモリー310に記憶することにより、次のループにおける後述するステップS517において、判断材料に用いることができる。
すなわち、第1ステップでは、採用した経路を記憶し、次回以降の経路計画処理に用いる。これにより、条件さえ満たせば経路を再利用することができ、処理時間の短縮を図ることができる。
また、ステップS508において、次の命令が動作命令ではないと判断した場合、ステップS509において、次の命令が物体認識処理であるか否かを判断する。ステップS509において、次の命令が物体認識処理ではないと判断した場合、ステップS521に移行、タスクを終了する。
一方、ステップS509において、次の命令が物体認識処理であると判断した場合、ステップS510において、次の命令を取得、解釈する。次いで、ステップS511では、撮像を行い、撮像画像を取得し、ステップS512において、物体認識を行う。このようなステップS511およびステップS512が、物体認識処理である。この物体認識処理は、前述したように、例えば、障害物の認識、組立対象物の組立対象部位を認識すること等が挙げられる。
次いで、ステップS513において、物体認識処理の結果を、キャッシュメモリー310に記憶し、ステップS521において、タスクを終了する。
なお、本発明では、ステップS505を開始した後に、ステップS508を開始する。そして、ステップS508またはステップS509において、「Yes」と判断した場合、ステップS522が完了するまでの間に、ステップS510またはステップS514を開始する。すなわち、第1ステップにおいて、動作命令の実行を開始した後に、第2命令である次の命令に所定の命令である「経路計画処理」や「物体認識処理」が含まれているか否かを判断し、第2命令に所定の命令が含まれていると判断した場合、第1ステップが終了する前に所定の命令を実行する。このような構成により、第1命令を実行している時間と第2命令を実行している時間とを重複させることができ、その分、トータルの作業時間を従来よりも短い時間Tとすることができる。また、命令A〜命令Cを実行するにあたって、ロボットアーム10が停止している時間を従来よりも少なくすることができる。これらのことから、生産性を高めることができる。
ここで、ループ2周目以降のステップS5のステップS502において、先行して経路計画処理を実行中であると判断することがある。この場合、ステップS517において、先行する経路計画処理の条件が有効であるか否かを判断する。この判断は、例えば、キャッシュメモリー310に過去に生成した経路が記憶されているか否かや、撮像結果に基づいてロボット1の周辺環境と比較し、過去の周辺環境との差が許容範囲内であるか否か等に基づいてなされる。なお、ロボットの周辺環境とは、障害物の位置、ワークの位置、オペレーターの位置等が挙げられる。
このように、所定の命令は、ロボットアーム10の経路計画処理であり、第1ステップでは、経路計画処理によって生成された経路を採用するか否かを判断する。これにより、必要に応じて経路計画処理の再試行や、過去に生成した経路を採用することができる。よって、周辺環境が変化していた場合にのみ経路計画処理を再試行する構成とすることができる。その結果、処理速度の短縮を図ることができる。
ステップS517において、先行する経路計画処理の条件が無効であると判断した場合、ステップS520において、先行する経路計画処理を中止し、ステップS503に移行し、経路計画処理を再試行する。
このように、経路を採用できないと判断した場合、経路計画処理を再試行する。これにより、現状のロボット1の状況および周辺環境に応じて正確な経路を生成することができる。
ステップS517において、先行する経路計画処理の条件が有効であると判断した場合、ステップS518にて、1ms待機し、ステップS519において、先行する経路計画処理が終了したか否かを判断する。すなわち、1msごとに先行する経路計画処理が終了したか否かを判断する。ステップS519において、終了したと判断した場合、ステップS504に移行する。
次に、図9に示すフローチャートに基づいて、ステップS7の詳細について説明する。
まず、ステップS701において、物体認識処理を開始する。次いで、ステップS702において、撮像部5を用いて撮像を行う。撮像対象は、例えば、前述したように、組立対象物の組立対象部位等が挙げられる。
次いで、ステップS703において、先行して同じ条件の物体認識処理を実行中か否かを判断する。ステップS703において、先行して同じ条件の物体認識処理を実行中ではないと判断した場合、ステップS704において、物体認識を行う。すなわち、撮像結果のうちの目的部位を、ロボット座標で特定する。そして、ステップS705において、認識結果、すなわち、目的部位のロボット座標を出力し、キャッシュメモリー310または記憶部32に記憶する。
ステップS703において、先行して同じ条件の物体認識処理を実行中であると判断した場合、先行して撮像した画像(撮像結果)との差が小さいか否かを判断する。すなわち、2ループ目以降では、過去の撮像結果が記憶されていた場合、すなわち、過去にステップS513が実行されていた場合、過去の撮像結果と現状の撮像結果(ステップS702)とを比較する。ステップS706において、差が小さい、すなわち、許容範囲内であった場合、ステップS707において、1ms待機し、ステップS708において、先行した物体認識が完了したか否かを判断する。すなわち、1msごとに先行する物体認識が終了したか否かを判断する。ステップS708において、終了したと判断した場合、ステップS705に移行する。
一方、ステップS706において、差が大きい、すなわち、許容範囲を超えたと判断した場合、ステップS709において、先行した物体認識のタスクを中止し、ステップS704に移行する。
このように、先行して実施する所定の命令は、物体認識処理であり、物体認識処理では、ロボット1の周辺環境を撮像し、撮像結果における物体の位置を特定する。これにより、撮像結果に基づいて、以降の処理を正確に行うことができる。
また、物体認識処理では、過去の撮像結果が記憶されていた場合、過去の撮像結果と現状の撮像結果とを比較し、差が許容範囲内であった場合、過去の撮像結果を用い、差が許容範囲を超えていた場合、現状の撮像結果を用いる。これにより、必要に応じて撮像結果をキャッシュメモリー310または記憶部32に記憶すればよいため、キャッシュメモリー310または記憶部32の空き領域を確保しやすく、また、物体認識処理の簡素化を図ることができる。
次に、図10に示すフローチャートに基づいて、ステップS8の詳細を説明する。
まず、ステップS801において、その他の命令の実行を開始する。その他の命令としては、前述したように、例えば、待機命令、初期位置回帰命令、動作速度変更命令等が挙げられる。
次いで、ステップS802において、タスクを分岐させる。すなわち、2つのタスクを立ち上げ、時間的に重複して処理する。一方のタスクでは、ステップS803〜ステップS805およびステップS816を処理する。他方のタスクでは、ステップS806〜ステップS815を処理する。
ステップS803では、その他の命令を実行する。その他の命令とは、前記で述べた通りである。次いで、ステップS804において、1ms待機し、その間に他方のタスクの処理を実行する。次いで、その他の命令が終了したか否かを判断する。ステップS816において、その他の命令の実行を終了する。
一方、ステップS806では、次の命令がロボットアームの動作命令であるか否かを判断する。ステップS805において、次の命令が動作命令であると判断した場合、ステップS808において、次の命令を取得、解釈し、ステップS809において、経路計画処理を実行する。なお、経路計画処理は、前述したステップS515と同様である。次いで、生成した経路をキャッシュメモリー310に記憶し、ステップS815に移行して、タスクを終了する。
また、ステップS806において、次に命令が動作命令ではないと判断した場合、ステップS807において、次の命令が物体認識処理であるか否かを判断する。次の命令が物体認識処理ではないと判断した場合、ステップS815において、タスクを終了する。
一方、ステップS807において、次の命令が物体認識処理であると判断した場合、ステップS811において、次の命令を取得、解釈し、ステップS812において、撮像を行い、撮像画像を取得し、ステップS813において、物体認識を行う。このようなステップS811およびステップS812が、物体認識処理である。この物体認識処理の詳細に関しては、前述した通りである。
次いで、ステップS814において、物体認識処理の結果を、キャッシュメモリー310に記憶し、ステップS815において、タスクを終了する。
以上説明したように、本発明のロボットの制御方法は、ロボットアーム10を作動する動作命令を含む第1命令と、第2命令と、を含むプログラムに基づいて、ロボットアーム10を有するロボット1の作動を制御するロボットの制御方法である。また、ロボットの制御方法は、第1命令に基づいてロボットアーム10の作動を制御する第1ステップと、第1ステップが完了した後に、第2命令に基づいてロボット1の作動を制御する第2ステップと、を有する。また、第1ステップにおいて、動作命令の実行を開始した後に、第2命令に所定の命令である経路計画処理または物体認識処理が含まれているか否かを判断し、第2命令に経路計画処理または物体認識処理が含まれていると判断した場合、第1ステップが終了する前に経路計画処理または物体認識処理を実行する。これにより、第2命令に所定の命令が含まれていた場合、第1命令を実行している時間と、第2命令を実行している時間とが重複する。よって、重複している分、トータルの作業時間を従来よりも短くすることができる。よって、生産性を高めることができる。
また、第1ステップでは、第2命令に所定の命令である経路計画処理または物体認識処理が含まれていると判断した場合、ロボットアーム10の作動と時間的に重複して経路計画処理または物体認識処理を実行する。このような構成によれば、簡単な処理である動作命令の実行と、複雑な処理である経路計画処理または物体認識処理とが時間的に重複する。よって、制御部31に対する負担を軽減することができる。
また、第2命令に含まれる所定の命令は、ロボットアーム10の経路計画処理または物体認識処理である。経路計画処理および物体認識処理は、実行する際のキャッシュメモリー310や、図示しないシステムバスの占有率が比較的高く、複雑で時間がかかる処理である。このような所定の命令を、第1命令と時間的に重複させて先行して実行することにより、上記本発明の効果がより顕著になる。
以上、本発明のロボットの制御方法を図示の実施形態について説明したが、本発明は、これに限定されるものではない。また、ロボットの制御方法の各工程は、同様の機能を発揮し得る任意の工程と置換することができる。また、任意の工程が付加されていてもよい。
なお、前記実施形態では。制御部31の待機時間を1msとして説明したが、本発明ではこれに限定されない。
1…ロボット、3…制御装置、4…教示装置、5…撮像部、10…ロボットアーム、11…基台、12…第1アーム、13…第2アーム、14…第3アーム、15…第4アーム、16…第5アーム、17…第6アーム、18…中継ケーブル、19…力検出部、20…エンドエフェクター、31…制御部、32…記憶部、33…通信部、41…制御部、42…記憶部、43…通信部、100…ロボットシステム、171…関節、172…関節、173…関節、174…関節、175…関節、176…関節、310…キャッシュメモリー、A…命令、B…命令、C…命令、CP…制御点、E1…エンコーダー、E2…エンコーダー、E3…エンコーダー、E4…エンコーダー、E5…エンコーダー、E6…エンコーダー、M1…モーター、M2…モーター、M3…モーター、M4…モーター、M5…モーター、M6…モーター、TCP…ツールセンターポイント

Claims (9)

  1. ロボットアームを作動する動作命令を含む第1命令と、第2命令と、を含むプログラムに基づいて、前記ロボットアームを有するロボットの作動を制御するロボットの制御方法であって、
    前記第1命令に基づいて前記ロボットアームの作動を制御する第1ステップと、
    前記第2命令に基づいて前記ロボットの作動を制御する第2ステップと、を有し、
    前記第1ステップにおいて、前記動作命令の実行を開始した後に、前記第2命令に所定の命令が含まれているか否かを判断し、前記第2命令に前記所定の命令が含まれていると判断した場合、前記第1ステップが終了する前に前記所定の命令を実行することを特徴とするロボットの制御方法。
  2. 前記第1ステップでは、前記第2命令に前記所定の命令が含まれていると判断した場合、前記ロボットアームの作動と時間的に重複して前記所定の命令を実行する請求項1に記載のロボットの制御方法。
  3. 前記動作命令により前記ロボットアームを作動している際、前記所定の命令よりも優先して、前記ロボットアームの位置および姿勢を取得する請求項1または2に記載のロボットの制御方法。
  4. 前記所定の命令は、前記ロボットアームの経路計画処理または物体認識処理である請求項1ないし3のいずれか1項に記載のロボットの制御方法。
  5. 前記所定の命令は、前記ロボットアームの経路計画処理であり、
    前記経路計画処理は、前記経路計画処理によって生成された経路を採用するか否かを判断する請求項1ないし4のいずれか1項に記載のロボットの制御方法。
  6. 前記経路を採用しないと判断した場合、前記経路計画処理を再試行する請求項5に記載のロボットの制御方法。
  7. 前記第1ステップでは、採用した前記経路を記憶し、次回以降の前記経路計画処理に用いる請求項5または6に記載のロボットの制御方法。
  8. 前記所定の命令は、前記物体認識処理であり、
    前記物体認識処理では、前記ロボットの周辺環境を撮像し、撮像結果における物体の位置を特定する請求項1ないし7のいずれか1項に記載のロボットの制御方法。
  9. 前記物体認識処理では、過去の撮像結果が記憶されていた場合、前記過去の撮像結果と現状の撮像結果とを比較し、差が許容範囲内であった場合、前記過去の撮像結果を用い、前記差が許容範囲を超えていた場合、前記現状の撮像結果を用いる請求項8に記載のロボットの制御方法。
JP2020033135A 2020-02-28 2020-02-28 ロボットの制御方法 Withdrawn JP2021135881A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020033135A JP2021135881A (ja) 2020-02-28 2020-02-28 ロボットの制御方法
CN202110211655.3A CN113319847B (zh) 2020-02-28 2021-02-25 机器人的控制方法
US17/186,019 US20210268651A1 (en) 2020-02-28 2021-02-26 Robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020033135A JP2021135881A (ja) 2020-02-28 2020-02-28 ロボットの制御方法

Publications (1)

Publication Number Publication Date
JP2021135881A true JP2021135881A (ja) 2021-09-13

Family

ID=77414436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033135A Withdrawn JP2021135881A (ja) 2020-02-28 2020-02-28 ロボットの制御方法

Country Status (3)

Country Link
US (1) US20210268651A1 (ja)
JP (1) JP2021135881A (ja)
CN (1) CN113319847B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022163318A (ja) * 2021-04-14 2022-10-26 セイコーエプソン株式会社 ロボット制御システム、下位制御装置、及び、ロボットの制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8990543B2 (en) * 2008-03-11 2015-03-24 Qualcomm Incorporated System and method for generating and using predicates within a single instruction packet
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP5970415B2 (ja) * 2013-05-16 2016-08-17 株式会社神戸製鋼所 産業用ロボットおよび周辺装置の動作を制御する制御システムおよび制御方法
KR102580710B1 (ko) * 2016-07-18 2023-09-20 삼성전자주식회사 전자 장치들의 연동 방법 및 장치
JP2018012184A (ja) * 2016-07-22 2018-01-25 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP2018036090A (ja) * 2016-08-30 2018-03-08 キヤノンプレシジョン株式会社 エンコーダおよびこれを備えた装置
JP7314475B2 (ja) * 2016-11-11 2023-07-26 セイコーエプソン株式会社 ロボット制御装置、及び、ロボット制御方法
JP6526097B2 (ja) * 2017-04-21 2019-06-05 ファナック株式会社 ロボットシステム
EP3476549A1 (en) * 2017-10-27 2019-05-01 Creaholic SA Hardware module, robotic system, and method for operating the robotic system
US11485353B2 (en) * 2019-04-30 2022-11-01 Baidu Usa Llc Segmenting a parking trajectory to control an autonomous driving vehicle to park

Also Published As

Publication number Publication date
CN113319847A (zh) 2021-08-31
US20210268651A1 (en) 2021-09-02
CN113319847B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
JP6333795B2 (ja) 学習による教示作業の簡易化及び動作性能向上機能を備えたロボットシステム
US20190283259A1 (en) Robot control method
JP7122821B2 (ja) ロボットシステム及びロボット制御方法
US20180029221A1 (en) Robot and robot system
US11040451B2 (en) Teaching device and teaching method
JP2007148527A (ja) ロボットの干渉回避方法およびロボット
US10960553B2 (en) Robot control device and robot system
CN111319039B (zh) 机器人
US11833687B2 (en) Robot apparatus, control method for the robot apparatus, assembly method using the robot apparatus, and recording medium
US20180117764A1 (en) Force control coordinate axis setting device, robot, and force control coordinate axis setting method
US20180085920A1 (en) Robot control device, robot, and robot system
JP2015223649A (ja) ギヤ組み込みシステムおよびギヤ組み込み方法
JP2021135881A (ja) ロボットの制御方法
US20170028548A1 (en) Robot control device and robot control method
US20230241780A1 (en) Robotic System And Robot Control Method
JP7042209B2 (ja) 軌道生成装置、軌道生成方法、及びロボットシステム
JP3577124B2 (ja) 力制御ロボットを用いて嵌合データを取得する方法
US11633851B2 (en) Control method for robot system
US11759955B2 (en) Calibration method
WO2021117701A1 (ja) マスタスレーブシステム及び制御方法
CN111152228B (zh) 一种机器人动作自规划系统
CN113474130A (zh) 利用机器人执行预先设定的任务的方法和系统
WO2021095833A1 (ja) マスタスレーブシステム及び制御方法
JP2019214105A (ja) ロボット制御装置およびロボット制御方法
US20230078238A1 (en) Teaching Method

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210914

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231220

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240219