JP6622765B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP6622765B2
JP6622765B2 JP2017159229A JP2017159229A JP6622765B2 JP 6622765 B2 JP6622765 B2 JP 6622765B2 JP 2017159229 A JP2017159229 A JP 2017159229A JP 2017159229 A JP2017159229 A JP 2017159229A JP 6622765 B2 JP6622765 B2 JP 6622765B2
Authority
JP
Japan
Prior art keywords
correction amount
unit
robot
light source
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017159229A
Other languages
English (en)
Other versions
JP2019038040A (ja
Inventor
宣章 山岡
宣章 山岡
鈴木 元
鈴木  元
凱濛 王
凱濛 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017159229A priority Critical patent/JP6622765B2/ja
Priority to DE102018213398.0A priority patent/DE102018213398B4/de
Priority to US16/102,058 priority patent/US10737384B2/en
Priority to CN201810935432.XA priority patent/CN109421047B/zh
Publication of JP2019038040A publication Critical patent/JP2019038040A/ja
Application granted granted Critical
Publication of JP6622765B2 publication Critical patent/JP6622765B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39295Learn position correction values to be added to reference values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット機構部の位置制御の補正を行うロボットシステムに関する。
レーザ加工、シーリング、アーク溶接等を行う例えば産業用ロボットシステムは、ロボット機構部のアーム先端位置(位置制御の対象部位)の位置制御を行う。このようなロボットシステムでは、減速機、ロボット機構部のアームの剛性不足、バックラッシ等の精度悪化要因によって、ロボット機構部のアーム先端位置が目標位置からずれたり振動したりすることがあり、これにより、加工対象物の品質が悪化する場合がある。
特許文献1及び2には、このような問題点を解決するロボットシステムが記載されている。これらのロボットシステムは、ロボット機構部のアーム先端位置にセンサを備え、センサにより、動作プログラムに基づくロボット機構部の動作中の位置指令に対するロボット機構部のアーム先端位置の位置偏差、又はロボット機構部のアーム先端位置の振動を計測する。ロボットシステムは、計測した位置偏差又は振動を低減する学習補正量を算出する学習制御を繰り返し行う。センサとしては、ビジョンセンサ、加速度センサ、ジャイロセンサ、慣性センサ、及び歪ゲージが挙げられる。
特開2011−167817号公報 特開2012−240142号公報
加速度センサ、ジャイロセンサ、慣性センサ、及び歪ゲージから得られるのは加速度、角速度、力等の物理量であり、位置を求めるためには積分等の変換処理が必要になり、変換された位置の精度は低くなることがある。位置の算出精度が低いと、学習制御による位置精度の改善効果が低くなり、場合によっては逆効果になることもある。
一方、ビジョンセンサ等の撮像装置を用いれば位置データを直接得ることはできるが、画像処理等の位置データ取得に時間を要するため、一般的な撮像装置ではロボット機構部の制御周期と同等の周期で位置データを取得することは困難である。そのため、一般的な撮像装置で学習制御を実現させるのは困難である。
本発明は、撮像装置を用いて、ロボット機構部の位置制御の補正のための位置補正量を生成するロボットシステムを提供することを目的とする。
(1) 本発明に係るロボットシステム(例えば、後述のロボットシステム1)は、光源(例えば、後述の光源20)と、前記光源からの光を撮像する撮像装置(例えば、後述のカメラ30)と、前記光源又は前記撮像装置が位置制御の対象部位に設けられたロボット機構部(例えば、後述のロボット機構部10)と、前記ロボット機構部に所定の動作をさせるための前記ロボット機構部の位置指令、前記ロボット機構部からの位置フィードバック、及び前記ロボット機構部の位置制御の位置補正量に基づいて、前記ロボット機構部の位置制御を行うロボット制御部(例えば、後述のロボット制御部40)とを備え、前記ロボット制御部は、前記所定の動作中に、前記撮像装置に前記光源からの光を撮像し続けさせて、前記撮像装置から前記光源の軌跡を取得する軌跡取得部(例えば、後述の軌跡取得部42)と、前記軌跡取得部で取得された前記光源の軌跡と、前記位置指令又は前記位置フィードバックとに基づいて、前記位置指令又は前記位置フィードバックに対する前記光源の軌跡の位置偏差を推定する位置偏差推定部(例えば、後述の位置偏差推定部43)と、前記位置偏差推定部で推定された位置偏差に基づいて、前記位置補正量を生成する補正量生成部(例えば、後述の補正量生成部44)とを有する。
(2) (1)に記載のロボットシステムにおいて、前記所定の動作を繰り返す学習制御を行う際、前記ロボット制御部は、前回生成された位置補正量を適用し、前記補正量生成部は、今回生成された位置補正量と前回生成された位置補正量とに基づいて、前記位置偏差推定部で推定された位置偏差をより低減する学習補正量を算出する学習を行い、当該学習補正量を前記位置補正量としてもよい。
(3) (1)又は(2)に記載のロボットシステムにおいて、前記軌跡取得部は、前記所定の動作の動作時間に基づいて前記撮像装置の露光時間を調整してもよい。
(4) (1)から(3)のいずれかに記載のロボットシステムにおいて、前記光源は、特定の波長の光を発し、前記撮像装置は、前記特定の波長以外の光の透過特性が前記特定の波長の光の透過特性よりも低いフィルタを有してもよい。
(5) (1)から(3)のいずれかに記載のロボットシステムにおいて、前記撮像装置は、光を吸収するフィルタを有してもよい。
(6) (1)から(3)のいずれかに記載のロボットシステムにおいて、前記撮像装置の感度は低減されてもよい。
(7) (1)から(3)のいずれかに記載のロボットシステムにおいて、前記光源は、特定色の光を発し、前記撮像装置では、前記特定色以外の光の感度が前記特定色の光の感度よりも低くてもよい。
本発明によれば、ロボット機構部の制御周期と同等の周期で位置データを取得することが困難である一般的な撮像装置を用いて、ロボット機構部の位置制御の補正のための位置補正量を生成するロボットシステムを提供することができる。
本実施形態に係るロボットシステムの構成を示す図である。 本実施形態のロボットシステムのロボット制御部による位置補正量生成動作を示すフローチャートである。 動作プログラムに基づく複数の制御周期における位置指令、及び、軌跡取得部で取得された光源の軌跡データの一例を示す図である。 図3に示す光源の軌跡データを点列データに変換する手法を説明するための図である。 図3に示す光源の軌跡データを点列データに変換する手法を説明するための図である。 図3に示す光源の軌跡データを点列データに変換する手法を説明するための図である。 図3に示す光源の軌跡データを点列データに変換した一例を示す図である。 従来のロボットシステムの構成を示す図である。
以下、添付の図面を参照して本発明の実施形態の一例について説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
図1は、本実施形態に係るロボットシステムの構成を示す図である。図1に示すロボットシステム1は、例えば、産業用ロボットを用いて、レーザ加工、シーリング、又は、アーク溶接等を行うシステムである。本実施形態は、このようなロボットシステム1において、ロボットのアームの先端位置(位置制御の対象部位)の位置制御の補正に関する。
ロボットシステム1は、ロボット機構部10と、光源20と、カメラ(撮像装置)30と、ロボット制御部40とを備える。
ロボット機構部10としては、公知のロボットマニピュレータを用いることができる。図1には、ロボット機構部10として、6つの関節軸11a〜11fを有し、空間上にワールド座標系19aが定義され、先端部のフランジ位置にメカニカルインタフェ−ス座標系19bが定義されたマニピュレータが例示されている。ロボット機構部10の先端部のフランジ位置には、ツール12が設けられている。このロボット機構部10では、ツール12の先端部が位置制御の対象部位である。
ロボット機構部10は、6つの関節軸11a〜11fの各々を駆動する複数のモータ(駆動部)14を有する。また、ロボット機構部10は、モータ14の各々の回転位置を検出する複数のエンコーダ(位置検出部)16を有する。エンコーダ16によって検出されたモータ14の回転位置は、位置フィードバックとして利用される。
以下では、本発明の特徴の理解を容易にするために、複数のモータ14及び複数のエンコーダ16を1つのモータ及び1つのエンコーダとして説明する。
光源20は、ロボット機構部10のツール12の先端部、すなわち位置制御の対象部位に設けられている。光源20は、特定の波長の光を発する。光源20は、ロボット制御部40による制御に従って、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)に、光を連続的に出力する。
カメラ30は、例えばビジョンセンサであり、固定設置されている。カメラ30は、受光部前に、特定の波長以外の光の透過特性が特定の波長の光の透過特性よりも低いバンドパスフィルタ32を有する。
カメラ30は、ロボット制御部40による制御に従って、動作プログラムに基づくロボット機構部の動作中(所定の動作中)に、光源20から出力され、バンドパスフィルタ32を透過した光を撮像し続ける。
ロボット制御部40は、ロボット機構部10の位置制御を行う。ロボット制御部40は、動作制御部41と、軌跡取得部42と、位置偏差推定部43と、補正量生成部(学習制御部)44と、記憶部45とを備える。
動作制御部41は、例えば数値制御装置(図示せず)から、ロボット機構部10の動作プログラムに基づくモータ14の位置指令であって、ロボット機構部10のツール12の先端部(位置制御の対象部位)の目標位置に関する位置指令を取得する。また、動作制御部41は、エンコーダ16から、モータ14の位置(回転位置)に応じた位置フィードバックを取得する。また、動作制御部41は、補正量生成部44から、ロボット機構部10のツール12の先端部の位置補正量を取得する。動作制御部41は、取得した位置指令と位置フィードバックとの位置偏差と、位置補正量とに基づいて、ロボット機構部10のモータ14の駆動電流を生成し、ロボット機構部10のツール12の先端部の位置制御を行う。
軌跡取得部42は、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)、光源20の動作、及び、カメラ30の露光時間を制御する。具体的には、軌跡取得部42は、動作プログラムの動作時間に応じて、光源20の動作時間、及び、カメラ30の露光時間を設定する。
軌跡取得部42は、動作プログラムに基づくロボット機構部10の動作後、この動作中にカメラ30で光源20からの光を撮像し続けた画像データを取得する。軌跡取得部42は、取得した画像データの画像処理を行うことにより、動作プログラムに基づくロボット機構部10の動作中の光源20の軌跡データ、すなわちロボット機構部10のツール12の先端部(位置制御の対象部位)の軌跡データを取得する。
位置偏差推定部43は、動作プログラムに基づくロボット機構部10の動作中に、複数の制御周期における位置指令を取得し、記憶部45に一旦記憶する。
位置偏差推定部43は、軌跡取得部42で取得された光源20の軌跡データと、記憶部45に一旦記憶された複数の制御周期における位置指令とに基づいて、制御周期ごとに、位置指令(すなわち、ロボット機構部10のツール12の先端部の目標位置)に対する光源20の軌跡データの位置偏差を推定する。この位置偏差は、ロボット機構部10のツール12の先端部の目標位置からの位置ずれ、及び振動による位置ずれを含む。
補正量生成部44は、位置偏差推定部43で推定された位置偏差に基づいて、制御周期ごとに位置補正量を生成し、記憶部45に記憶する。また、補正量生成部44は、次の動作プログラムの実行時に、記憶部45に記憶された位置補正量を動作制御部41に供給する。
また、補正量生成部44は、学習制御部として機能する。具体的には、動作制御部41に前回生成された位置補正量を適用して、動作プログラムに基づくロボット機構部10の動作を繰り返す学習制御を行う際、補正量生成部44は、今回生成された位置補正量と前回生成された位置補正量とに基づいて、位置偏差推定部43で推定された位置偏差をより低減する学習補正量を算出する学習を行う。補正量生成部44は、この学習補正量を位置補正量として、記憶部45に記憶された位置補正量を更新する。
記憶部45は、位置偏差推定部43に入力される複数の位置指令を一旦記憶する。また、記憶部45は、補正量生成部44で生成された位置補正量を記憶及び更新する。記憶部45は、例えばEEPROM等の書き換え可能なメモリである。
上述したロボット制御部40における動作制御部41、軌跡取得部42、位置偏差推定部43、及び補正量生成部44は、例えば、DSP(Digital Signal Processor)、FPGA(Field−Programmable Gate Array)等の演算プロセッサで構成される。ロボット制御部40の各種機能は、例えば記憶部に格納された所定のソフトウェア(プログラム、アプリケーション)を実行することで実現される。ロボット制御部40の各種機能は、ハードウェアとソフトウェアとの協働で実現されてもよいし、ハードウェア(電子回路)のみで実現されてもよい。
次に、図2を参照して、本実施形態のロボットシステム1のロボット制御部40による位置補正量生成動作について説明する。図2は、本実施形態のロボットシステム1のロボット制御部40による位置補正量生成動作を示すフローチャートである。
この位置補正量生成動作は、例えば工場出荷時に初期設定として、任意の動作プログラムを実行することで行われてもよいし、或いは、フィールド設置時に初期設定として、実際に使用される動作プログラムを実行することで行われてもよい。
(1回目の位置補正量生成動作)
まず、動作制御部41は、動作プログラムに基づくモータ14の位置指令、及びエンコーダ16からの位置フィードバックに基づいて、ロボット機構部10の位置制御を行う。なお、1回目の動作では、まだ位置補正量が生成されていないため、補正量生成部44から位置補正量は動作制御部41に供給されない。
このとき、すなわち動作プログラムに基づくロボット機構部10の動作中、軌跡取得部42は、光源20の動作、及び、カメラ30の露光時間を制御する。軌跡取得部42は、ロボット機構部10の動作終了後、この動作中にカメラ30で光源20の光を撮像し続けた画像データを取得する(S1)。この画像データは、ロボット機構部10の動作中の光源20の光の軌跡を含む。
軌跡取得部42は、取得した画像データの画像処理を行うことにより、動作プログラムに基づくロボット機構部10の動作中の光源20の軌跡データ、すなわちロボット機構部10のツール12の先端部(位置制御の対象部位)の軌跡データを取得する(S2)。
また、このとき、すなわち動作プログラムに基づくロボット機構部10の動作中、位置偏差推定部43は、複数の制御周期における位置指令を取得し、記憶部45に一旦記憶する。
次に、位置偏差推定部43は、軌跡取得部42で取得された光源20の軌跡データと、記憶部45に一旦記憶された複数の制御周期における位置指令とに基づいて、制御周期ごとに、位置指令(すなわち、ロボット機構部10のツール12の先端部の目標位置)に対する光源20の軌跡データの位置偏差を推定する(S3)。
図3は、動作プログラムに基づく複数の制御周期における位置指令T、及び、軌跡取得部42で取得された光源20の軌跡データPの一例を示す図である。図3では、半径10mmの円弧動作を行う動作プログラムを実行したときの位置指令T及び軌跡データPを示す。なお、位置補正量生成動作において実行する動作プログラムはこれに限定されず、任意の動作プログラムであってよい。
図3では、特に光源20の軌跡データPにおける制御周期部分A及び制御周期部分Bにおいて、位置指令Tに対する光源20の軌跡データPの位置偏差が大きい。
本実施形態では、光源20の軌跡データPは線のデータであるため、位置偏差を求めるためには軌跡データPと位置指令Tとの対応付けが必要である。そこで、以下のように、光源20の軌跡データPと位置指令Tとの対応付けを行う。
まず、図4Aに示す線の軌跡データPを、図4Bに示すように任意の間隔の点列データPに補間する。次に、図4Cに示すように、位置指令Tの各点について、補間後の点列データPから距離が最短になるデータPを探索する。次に、補間後の点列Pのうちの探索されなかった点を削除する。これにより、図5に示すように、光源20の軌跡の点列データPが得られる。
位置偏差推定部43は、図5に示すように、制御周期ごとに、位置指令Tに対する光源20の軌跡の点列データPの位置偏差を推定する。
次に補正量生成部44は、位置偏差推定部43で推定された位置偏差を打ち消すように、制御周期ごとに位置補正量を生成し、記憶部45に記憶する(S4)。
(2回目以降の位置補正量生成動作:学習制御)
本実施形態では、動作制御部41に前回生成された位置補正量を適用して、動作プログラムに基づくロボット機構部10の動作を繰り返す学習制御を行う。
2回目以降の動作では、動作制御部41は、動作プログラムに基づくモータ14の位置指令、エンコーダ16からの位置フィードバック、及び補正量生成部44で前回生成された位置補正量に基づいて、ロボット機構部10の位置制御を行う。
このとき、上述した図2のステップS1〜S4の動作が行われる。すなわち、軌跡取得部42及び位置偏差推定部43により、制御周期ごとに、位置指令に対する光源20の軌跡データの位置偏差が推定され、補正量生成部44により、この位置偏差を打ち消すように、制御周期ごとに位置補正量が生成される。
そして、補正量生成部44は、今回生成された位置補正量と前回生成された位置補正量とを加算又は減算することにより、新たな位置補正量(学習補正量)を生成し、記憶部45に記憶された位置補正量を更新する。このように、補正量生成部44は、位置偏差をより低減するように学習補正量を算出する学習を行う。
ここで、図6は、従来のロボットシステムの構成を示す図である(特許文献1及び2に記載のロボットシステムに相当)。図6に示すロボットシステム1Xは、図1に示すロボットシステム1において、光源20及びカメラ30に代えてセンサ30Xを備え、ロボット制御部40に代えてロボット制御部40Xを備える点で本実施形態と異なる。
センサ30Xは、ロボット機構部10のツール12の先端部に設けられている。
ロボット制御部40Xは、図1に示すロボット制御部40において軌跡取得部42を備えない点で本実施形態と異なる。そのため、位置偏差推定部43は、動作プログラムの実行中に、制御周期ごとに、位置指令を取得すると共に、センサ30Xからロボット機構部10のツール12の先端部の位置情報を取得し、位置指令に対するツール12の先端部の位置の位置偏差を推定する。
センサ30Xが加速度センサ、ジャイロセンサ、慣性センサ、及び歪ゲージである場合、これらのセンサから得られるのは加速度、角速度、力等の物理量であり、位置を求めるためには積分等の変換処理が必要になり、変換された位置の精度は低くなることがある。位置の算出精度が低いと、学習制御による位置精度の改善効果が低くなり、場合によっては逆効果になることもある。
一方、センサ30Xとしてビジョンセンサ等の撮像装置を用いれば位置データを直接得ることはできるが、画像処理等の位置データ取得に時間を要するため、一般的な撮像装置ではロボット機構部の制御周期と同等の周期で位置データを取得することは困難である。そのため、一般的な撮像装置で学習制御を実現させるのは困難である。
本実施形態のロボットシステム1では、位置データを直接得ることができるカメラ(例えばビジョンセンサ)30を用いて、ロボット機構部10のツール12の先端位置を高い精度で求めることができる。これにより、ロボット機構部10の位置制御を補正するための位置補正量の精度を高め、ロボット機構部10の位置制御の補正精度を高めることができる。
そして、上記問題点に関し、本実施形態のロボットシステム1によれば、ロボット制御部40の軌跡取得部42が、動作プログラムの実行中(所定の動作中)に、カメラ(撮像装置)30に光源20からの光を撮像し続けさせて、カメラ(撮像装置)30から光源20の軌跡を取得し、位置偏差推定部43が、位置指令に対する光源20の軌跡の位置偏差を推定する。これにより、動作プログラムの実行中(所定の動作中)の制御周期と同等の周期で光源20の位置データを取得する必要がないので、画像処理等の位置データ取得に時間を要するカメラ(例えばビジョンセンサ)を用いて、位置指令に対する光源20の軌跡データの位置偏差、すなわち位置指令に対するロボット機構部10のツール12の先端部(位置制御の対象部位)の位置偏差を求めることができる。
また、本実施形態のロボットシステム1によれば、ロボット制御部40の補正量生成部44が学習制御部として機能する。具体的には、動作制御部41に前回生成された位置補正量を適用して、動作プログラムに基づくロボット機構部10の動作を繰り返す学習制御を行う際、補正量生成部44は、今回生成された位置補正量と前回生成された位置補正量とに基づいて、位置偏差推定部43で推定された位置偏差をより低減する学習補正量を算出する学習を行う。これにより、ロボット機構部10の位置制御を補正するための位置補正量の精度を高め、ロボット機構部10の位置制御の補正精度を高めることができる。
また、本実施形態のロボットシステム1によれば、光源20が特定の波長の光を発し、カメラ(撮像装置)30が、特定の波長以外の光の透過特性が特定の波長の光の透過特性よりも低いバンドパスフィルタ32を有する。これにより、カメラ30は、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)に、光源20からの光を撮像し続けても、外乱光による飽和を抑制することができる。例えば、動作プログラムの動作時間が長い場合でも、カメラ30のダイナミックレンジに収まった軌跡画像を取得することができる。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
例えば、上述した実施形態では、ロボット制御部40の位置偏差推定部43は、ロボット機構部10の動作プログラムに基づく位置指令に対する光源20の軌跡データの位置偏差を推定した。しかし、位置偏差推定部43は、ロボット機構部10からの位置フィードバックに対する光源20の軌跡データの位置偏差を推定してもよい。
また、上述した実施形態では、ロボット制御部40の補正量生成部44は、学習制御部として機能し、動作制御部41に前回生成された位置補正量を適用して、動作プログラムに基づくロボット機構部10の動作を繰り返す学習制御を行う際、位置偏差をより低減する学習補正量を算出する学習を行った。しかし、補正量生成部44は、学習を行わず、上述した1回目の位置補正量生成動作のみを行う形態であってもよい。
また、上述した実施形態では、光源20として、特定の波長の光を発する光源を用いる形態を例示したが、広帯域の光を発する光源を用いる形態であってもよい。
この場合、カメラ30は、受光部前に、バンドパスフィルタ32に代えて、広帯域な光を吸収するNDフィルタを有してもよい。この形態でも、カメラ30は、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)に、光源20からの光を撮像し続けても、外乱光による飽和を抑制することができる。
或いは、カメラ30はバンドパスフィルタを備えず、カメラ30の感度(ゲイン)が低く設定されてもよい。この形態でも、カメラ30は、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)に、光源20からの光を撮像し続けても、外乱光による飽和を抑制することができる。更に、ロボットシステムの構成点数を少なくすることができる。
また、光源20は、特定色の光を発する光源であってもよい。この場合、カメラ30はバンドパスフィルタを備えず、特定色以外の光の感度が特定色の光の感度よりも低いカラーカメラであってもよい。この形態でも、カメラ30は、動作プログラムに基づくロボット機構部10の動作中(所定の動作中)に、光源20からの光を撮像し続けても、外乱光による飽和を抑制することができる。
また、上述した実施形態では、光源20が光を連続的に出力し、ロボット制御部40の軌跡取得部42が図3に示すように連続的な軌跡データPを取得する形態を例示したが、これに限定されない。例えば、光源20が光を断続的に出力し、軌跡取得部42が断続的な軌跡データを取得してもよい。この場合、光源20は、動作プログラムの制御周期に同期して、光を断続的に出力してもよい。これにより、軌跡取得部42は、図5に示す軌跡の点列データを直接取得することができる。
また、上述した実施形態では、光源20をロボット機構部10のツール12の先端位置(位置制御の対象部位)に設置し、カメラ(撮像装置)30を固定設置した形態を例示したが、カメラ30をロボット機構部10のツール12の先端位置に設置し、光源20を固定設置する形態であってもよい。
また、上述した実施形態では、産業用ロボットシステムを例示したが、本発明の特徴はこれに限定されず、様々なロボットシステムの位置制御の補正に適用可能である。
1,1X ロボットシステム
10 ロボット機構部
11a,11b,11c,11d,11e,11f 関節軸
12 ツール
14 モータ(駆動部)
16 エンコーダ(位置検出部)
19a ワールド座標系
19b メカニカルインタフェ−ス座標系
20 光源
30 カメラ(撮像装置)
30X センサ
32 フィルタ
40,40X ロボット制御部
41 動作制御部
42 軌跡取得部
43 位置偏差推定部
44 補正量生成部(学習制御部)
45 記憶部

Claims (7)

  1. 光源と、
    前記光源からの光を撮像する撮像装置と、
    前記光源又は前記撮像装置が位置制御の対象部位に設けられたロボット機構部と、
    前記ロボット機構部に所定の動作をさせるための前記ロボット機構部の位置指令、前記ロボット機構部からの位置フィードバック、及び前記ロボット機構部の位置制御の位置補正量に基づいて、前記ロボット機構部の位置制御を行うロボット制御部と、
    を備え、
    前記ロボット制御部は、
    前記所定の動作中に、前記撮像装置に前記光源からの光を撮像し続けさせて、前記撮像装置から前記光源の軌跡を取得する軌跡取得部と、
    前記軌跡取得部で取得された前記光源の軌跡と、前記位置指令又は前記位置フィードバックとに基づいて、前記位置指令又は前記位置フィードバックに対する前記光源の軌跡の位置偏差を推定する位置偏差推定部と、
    前記位置偏差推定部で推定された位置偏差に基づいて、前記位置補正量を生成する補正量生成部と、
    を有するロボットシステム。
  2. 前記所定の動作を繰り返す学習制御を行う際、
    前記ロボット制御部は、前回生成された位置補正量を適用し、
    前記補正量生成部は、今回生成された位置補正量と前回生成された位置補正量とに基づいて、前記位置偏差推定部で推定された位置偏差をより低減する学習補正量を算出する学習を行い、当該学習補正量を前記位置補正量とする、
    請求項1に記載のロボットシステム。
  3. 前記軌跡取得部は、前記所定の動作の動作時間に基づいて前記撮像装置の露光時間を調整する、請求項1又は2に記載のロボットシステム。
  4. 前記光源は、特定の波長の光を発し、
    前記撮像装置は、前記特定の波長以外の光の透過特性が前記特定の波長の光の透過特性よりも低いフィルタを有する、
    請求項1〜3の何れか1項に記載のロボットシステム。
  5. 前記撮像装置は、光を吸収するフィルタを有する、
    請求項1〜3の何れか1項に記載のロボットシステム。
  6. 前記撮像装置の感度は低減される、
    請求項1〜3の何れか1項に記載のロボットシステム。
  7. 前記光源は、特定色の光を発し、
    前記撮像装置では、前記特定色以外の光の感度が前記特定色の光の感度よりも低い、
    請求項1〜3の何れか1項に記載のロボットシステム。
JP2017159229A 2017-08-22 2017-08-22 ロボットシステム Active JP6622765B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017159229A JP6622765B2 (ja) 2017-08-22 2017-08-22 ロボットシステム
DE102018213398.0A DE102018213398B4 (de) 2017-08-22 2018-08-09 Robotersystem
US16/102,058 US10737384B2 (en) 2017-08-22 2018-08-13 Robot system
CN201810935432.XA CN109421047B (zh) 2017-08-22 2018-08-16 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017159229A JP6622765B2 (ja) 2017-08-22 2017-08-22 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2019038040A JP2019038040A (ja) 2019-03-14
JP6622765B2 true JP6622765B2 (ja) 2019-12-18

Family

ID=65321573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017159229A Active JP6622765B2 (ja) 2017-08-22 2017-08-22 ロボットシステム

Country Status (4)

Country Link
US (1) US10737384B2 (ja)
JP (1) JP6622765B2 (ja)
CN (1) CN109421047B (ja)
DE (1) DE102018213398B4 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622765B2 (ja) * 2017-08-22 2019-12-18 ファナック株式会社 ロボットシステム
EP3610993A1 (en) * 2018-08-14 2020-02-19 Beckman Coulter, Inc. System for active motion displacement control of a robot
CN112584984B (zh) * 2018-08-16 2024-07-23 株式会社三丰 用于机器人的包括对准传感器的辅助度量位置坐标确定系统
CN110141366A (zh) * 2019-05-06 2019-08-20 清华大学 运动控制信息流直接传递的血管介入手术机器人执行器
JP7502003B2 (ja) * 2019-07-11 2024-06-18 ファナック株式会社 移動機械の移動軌跡のずれを取得する装置、及び方法
CN111443658B (zh) * 2020-04-02 2021-08-31 北京航空航天大学杭州创新研究院 工业机器人误差处理方法和装置
JP7388970B2 (ja) * 2020-04-06 2023-11-29 ファナック株式会社 ロボットシステム
CN117124333A (zh) * 2023-10-20 2023-11-28 北京云桥智海科技服务有限公司 基于物联网的企业设备监测管理系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
CN101623867B (zh) 2008-07-11 2010-12-01 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
JP4850956B2 (ja) * 2010-02-19 2012-01-11 ファナック株式会社 学習制御機能を備えたロボット
US9182229B2 (en) * 2010-12-23 2015-11-10 Trimble Navigation Limited Enhanced position measurement systems and methods
US9879993B2 (en) * 2010-12-23 2018-01-30 Trimble Inc. Enhanced bundle adjustment techniques
JP5480198B2 (ja) * 2011-05-17 2014-04-23 ファナック株式会社 学習制御機能を備えたスポット溶接ロボット
DE102012016106A1 (de) * 2012-08-15 2014-02-20 Isios Gmbh Anordnung und Verfahren zur modellbasierten Kalibration eines Roboters in einem Arbeitsraum
CN104735445A (zh) 2015-03-17 2015-06-24 航天东方红卫星有限公司 一种基于靶标图像的空间相机颤振分析方法
US20160357187A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
US20160357262A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
US9836056B2 (en) * 2015-06-05 2017-12-05 Bao Tran Smart vehicle
US9711050B2 (en) * 2015-06-05 2017-07-18 Bao Tran Smart vehicle
DE102016116702B4 (de) * 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
CN105486288A (zh) 2015-11-30 2016-04-13 上海电机学院 一种基于机器视觉的视觉伺服对准系统
DE102016200386B4 (de) * 2016-01-14 2019-03-28 Kuka Systems Gmbh Verfahren zum Steuern eines Manipulatorsystems
JP2017124468A (ja) * 2016-01-14 2017-07-20 キヤノン株式会社 ロボット制御方法、部品の製造方法、ロボット装置、プログラム及び記録媒体
DE102016201736B3 (de) * 2016-02-04 2017-03-30 Volkswagen Aktiengesellschaft System und Verfahren zum Bestücken eines mindestens einen Steckplatz aufweisenden Gebindes
CN105759720B (zh) 2016-04-29 2018-06-29 中南大学 基于计算机视觉的机械手跟踪定位在线识别与纠偏方法
CN106112152B (zh) 2016-06-29 2018-07-20 西安交通大学 一种微孔电解加工机器视觉定位导航方法
JP6622765B2 (ja) * 2017-08-22 2019-12-18 ファナック株式会社 ロボットシステム

Also Published As

Publication number Publication date
US20190061150A1 (en) 2019-02-28
US10737384B2 (en) 2020-08-11
JP2019038040A (ja) 2019-03-14
DE102018213398A1 (de) 2019-02-28
CN109421047A (zh) 2019-03-05
CN109421047B (zh) 2020-06-12
DE102018213398B4 (de) 2020-12-10

Similar Documents

Publication Publication Date Title
JP6622765B2 (ja) ロボットシステム
US10300600B2 (en) Control system having learning control function and control method
US10618164B2 (en) Robot system having learning control function and learning control method
JP6836571B2 (ja) ロボット装置
KR100886340B1 (ko) 이동 로봇의 자이로 센서를 캘리브레이션하는 장치 및 방법
JP5986125B2 (ja) 無線センサを有する機械システム
US20150112487A1 (en) Robot control system, robot system, and sensor information processing apparatus
JP6661028B2 (ja) 作業位置補正方法
JP6298026B2 (ja) 多関節ロボットのたわみを計測するたわみ計測システム
JP3644991B2 (ja) ロボット−センサシステムにおける座標系結合方法
JP2019181610A (ja) モータエンコーダ及びセンサを用いて学習制御を行うロボットシステム
JP2007011978A (ja) ロボットの運動制御装置
JP2008183690A (ja) ロボット制御装置及びロボット制御システム
CN110581945B (zh) 控制系统、控制装置、图像处理装置以及存储介质
CN109421049B (zh) 机器人系统
CN109531604B (zh) 进行校准的机器人控制装置、测量系统以及校准方法
JP2017124448A (ja) 相対データ較正装置と方法
JP6485620B2 (ja) ロボット制御システムおよびロボット制御方法
KR102683350B1 (ko) 제어 시스템, 제어 방법 및 컴퓨터 판독 가능한 기억 매체
EP3416007B1 (en) Control device, position control system, position control method, and position control program
CN110581944B (zh) 控制系统、控制装置以及存储介质
WO2020162200A1 (ja) 制御装置および制御プログラム
JP2019042842A (ja) 駆動機械の学習制御装置及び学習制御方法
JP2001212777A (ja) ロボット制御装置
JP2010257204A (ja) ロボットの制御装置及びロボットの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191122

R150 Certificate of patent or registration of utility model

Ref document number: 6622765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150