JP6126183B2 - ターゲットマークを撮像するカメラを備えたロボットシステム - Google Patents

ターゲットマークを撮像するカメラを備えたロボットシステム Download PDF

Info

Publication number
JP6126183B2
JP6126183B2 JP2015197715A JP2015197715A JP6126183B2 JP 6126183 B2 JP6126183 B2 JP 6126183B2 JP 2015197715 A JP2015197715 A JP 2015197715A JP 2015197715 A JP2015197715 A JP 2015197715A JP 6126183 B2 JP6126183 B2 JP 6126183B2
Authority
JP
Japan
Prior art keywords
robot
target mark
coordinate system
camera
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015197715A
Other languages
English (en)
Other versions
JP2017071001A (ja
Inventor
文和 藁科
文和 藁科
桂祐 渡邊
桂祐 渡邊
健司郎 大野
健司郎 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2015197715A priority Critical patent/JP6126183B2/ja
Priority to DE102016011653.6A priority patent/DE102016011653B4/de
Priority to CN201610872784.6A priority patent/CN106560297B/zh
Priority to US15/281,091 priority patent/US9969090B2/en
Publication of JP2017071001A publication Critical patent/JP2017071001A/ja
Application granted granted Critical
Publication of JP6126183B2 publication Critical patent/JP6126183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37561Move camera until image corresponds to stored image of same workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39017Forward calibration, find actual pose world space for given joint configuration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position

Description

本発明は、ターゲットマークを撮像するカメラを備えたロボットシステムに関する。
ワークのハンドリングを行うために、ロボットが工作機械とともに使用されることがある。ロボットの手動操作を容易にするために、また、工作機械の制御装置を用いてロボットを遠隔操作するために、工作機械の座標系とロボットの座標系との間の位置関係を特定することが重要である。
工作機械の座標系とロボット座標系との間の位置関係を特定するには、工作機械における位置およびロボット座標系における位置がそれぞれ既知である少なくとも3つの点が必要である。ロボットのツール先端点(TCP)を所定の点に物理的に接触させて、当該点の3次元位置を測定するタッチアップが公知である。また、ロボットのハンドに取付けられた3次元センサを用いて非接触で所定の点の3次元位置を計測する方法が公知である。
特許文献1には、ロボット制御点と設定点との間の既知の位置関係を利用して、ロボット座標系と工作機械の座標系との間の位置関係を求めることが開示されている。特許文献2および特許文献3には、カメラを用いて対象物を複数の位置から撮像することによって、対象物の3次元位置を計測することが開示されている。
特開2011−048467号公報 特開2005−201824号公報 特開2010−117223号公報
しかしながら、前述した公知技術においては、専用の装置または高価な3次元センサを利用する必要がある。或いは、計測時にロボットの位置および姿勢の少なくとも一方を広範囲にわたって移動させる必要があり、制限された空間で計測を行うことが困難な場合がある。したがって、安価でありかつ容易に対象点の位置を測定できるようにしたロボットシステムが求められている。
本願の1番目の発明によれば、ロボットと、前記ロボットのアーム先端部に取付けられたカメラと、前記カメラによって撮像されるターゲットマークと、を備えたロボットシステムであって、前記ターゲットマークが、前記ロボットの制御の基準となるロボット座標系において予め定められる第1のターゲットマーク位置に配置されており、かつ、前記アーム先端部が第1のロボット位置に位置決めされているときに、前記カメラの画像に含まれる前記ターゲットマークの像の位置および大きさを基準データとして記憶するとともに、前記アーム先端部に対する前記第1のターゲットマーク位置をツール先端点の位置として記憶する基準データ記憶部と、前記ターゲットマークが第2のターゲットマーク位置に配置されているときに、前記カメラの画像に含まれる前記ターゲットマークの像の位置および大きさが、前記基準データとして記憶されている前記ターゲットマークの像の位置および大きさに一致するように前記アーム先端部を移動させるとともに、移動後の前記アーム先端部の位置に対応する第2のロボット位置、および前記ツール先端点の位置に基づいて、前記ロボット座標系における前記第2のターゲットマーク位置を算出するターゲットマーク位置算出部と、を備える、ロボットシステムが提供される。
本願の2番目の発明によれば、1番目の発明に係るロボットシステムにおいて、前記ロボットシステムは工作機械を備えており、前記工作機械の制御の基準となる機械座標系において予め定められていて、かつ同一直線上にはない少なくとも3つのターゲットマーク位置に前記ターゲットマークが配置されているときに、前記ターゲットマーク位置算出部が、前記ロボット座標系における前記少なくとも3つのターゲットマーク位置をそれぞれ算出するように構成されており、前記ロボットシステムは、前記機械座標系における前記少なくとも3つのターゲットマーク位置、および前記ロボット座標系における前記少なくとも3つのターゲットマーク位置に基づいて、前記ロボット座標系に対する前記機械座標系の位置を算出する機械座標系算出部をさらに備える。
本願の3番目の発明によれば、2番目の発明に係るロボットシステムにおいて、前記工作機械は、作動可能な可動部を備えており、前記ターゲットマークは、前記可動部に設置されており、前記工作機械は、前記可動部を作動させることにより、前記ターゲットマークを前記少なくとも3つのターゲットマーク位置に移動させるように構成される。
本願の4番目の発明によれば、1番目の発明に係るロボットシステムにおいて、前記ロボット座標系における位置が未知であって、かつ同一直線上にはない少なくとも3つのターゲットマーク位置に前記ターゲットマークが配置されているときに、前記ターゲットマーク位置算出部が、前記ロボット座標系における前記少なくとも3つのターゲットマーク位置をそれぞれ算出するように構成されており、前記ロボット座標系における前記少なくとも3つのターゲットマーク位置に基づいて、前記ロボットの作業用座標系を算出する作業用座標系算出部をさらに備え、前記作業用座標系は前記ロボット座標系とは別に新しく設定され、前記ロボットにより実行される所定の作業において基準となる座標系であり、
前記作業用座標系を設定したい位置は前記少なくとも3つのターゲットマーク位置と対応しており、前記作業用座標系は前記少なくとも3つのターゲットマーク位置が含まれる平面に対して算出される
これら並びに他の本発明の目的、特徴および利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。
本発明に係るロボットシステムによれば、カメラのキャリブレーションを予め行う必要がなく、また、安価な2次元カメラを用いてターゲットマークの3次元位置を計測できる。それにより、安価でかつ簡素な方法でありながら、ロボット座標系と工作機械の座標系との位置関係を特定できるようになる。
一実施形態に係るロボットシステムを示す図である。 一実施形態に従って実行される処理の流れを示すフローチャートである。 画像に対して設定される座標系を示す図である。 ロボット座標系と手首座標系との間の位置関係を示す図である。 第1のターゲットマーク位置に配置されたターゲットマークを示す図である。 一実施形態に従って実行される処理の流れを示すフローチャートである。 第2のターゲットマーク位置に配置されたターゲットマークを示す図である。 画像の位置関係および特徴量の差を示す図である。 第2のターゲットマーク位置に配置されたターゲットマークを示す図である。 別の実施形態に係るロボットシステムを示す図である。 一実施形態に従って実行される処理の流れを示すフローチャートである。 一実施形態に従って実行される処理の流れを示すフローチャートである。 また別の実施形態に係るロボットシステムを示す図である。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために縮尺が適宜変更されている。同一または対応する構成要素には、同一の参照符号が使用される。
図1は、一実施形態に係るロボットシステム1を示している。ロボットシステム1は、ロボット2と、ロボット2を制御するロボット制御装置3と、ロボット2に取付けられたカメラ4と、画像処理装置5と、を備えている。ロボット2は、図1に示されるような6軸垂直多関節ロボットに限定されず、他の任意の公知の構成を有するロボットであってもよい。
ロボット2は、ベース21と、ベース21から延びるアーム22と、を備えている。ロボット2のアーム先端部23には、治具24を介してカメラ4が取付けられている。それにより、ロボット2のアーム先端部23に連動して、カメラ4の位置および姿勢が変更されるようになっている。
ロボット制御装置3は、CPUと、メモリと、外部装置に接続されるインタフェイスと、を備えたデジタルコンピュータである。ロボット制御装置3は、不揮発性メモリに記憶された動作プログラムに従って、ロボット2の各々の軸を駆動する駆動装置、例えばサーボモータに指令を付与することによって、ロボット2を制御する。ロボット制御装置3は、ロボット2の制御の基準となるロボット座標系におけるロボット2の手先の位置を取得できるように構成されている。
ロボット2の動作領域またはその近傍には、ターゲットマーク6が設置されている。ターゲットマーク6は、ロボット2とともに移動するカメラ4によって撮像可能な位置に固定されている。
ターゲットマーク6には、画像処理によってターゲットマーク6の像の位置および大きさを特定できるように特徴的な模様が付与されている。例えば、ターゲットマーク6には、三角形の模様が付与されている。
カメラ4は、対象物の画像を取得する機能を有する受光デバイスである。カメラ4は、画像処理装置5に接続されており、カメラ4によって撮像された画像データは、画像処理装置5に送られる。
画像処理装置5は、CPUと、メモリと、外部装置に接続されるインタフェイスと、を備えたデジタルコンピュータである。画像処理装置5は、カメラ4によって取得された画像からターゲットマーク6を検出するとともに、ターゲットマーク6の模様から画像上におけるターゲットマーク6の位置および大きさを算出するように構成される。
画像処理装置5は、通信ケーブルまたは無線通信によりロボット制御装置3に接続されていて、ロボット制御装置3から指令を受信したり、またはロボット制御装置3に画像処理の結果を送信できるようになっている。別の実施形態において、画像処理装置5は、ロボット制御装置3に内蔵されていてもよい。
図2は、ロボット制御装置3の機能ブロック図である。ロボット制御装置3は、基準データ記憶部31と、ターゲットマーク位置算出部32と、を備えている。
基準データ記憶部31は、ターゲットマーク6が、ロボット2の制御の基準となるロボット座標系Σrにおいて予め定められる第1のターゲットマーク位置に配置されており、かつ、アーム先端部23が第1のロボット位置に位置決めされているときに、カメラ4の画像に含まれるターゲットマーク6の像の位置および大きさを基準データとして記憶するとともに、アーム先端部23に対する第1のターゲットマーク位置をツール先端点の位置として記憶する。
ターゲットマーク位置算出部32は、ターゲットマーク6が第2のターゲットマーク位置に配置されているときに、カメラ4の画像に含まれるターゲットマーク6の像の位置および大きさが、基準データとして記憶されているターゲットマーク6の像の位置および大きさに一致するようにアーム先端部23を移動させるとともに、移動後のアーム先端部23の位置に対応する第2のロボット位置、およびツール先端点の位置に基づいて、ロボット座標系Σrにおける第2のターゲットマーク位置を算出する。
図2を参照して、一実施形態に係るロボットシステム1において実行される初期設定について説明する。初期設定は、ロボット2のアーム先端部23にカメラ4を取付ける際に一度だけ実行される。
ステップS101において、ロボット2のアーム先端部23にカメラ4を取付ける。アーム先端部23に対するカメラ4の向きは特に限定されないものの、カメラ4とアーム先端部23との間の位置関係が変化しないように、カメラ4は治具24を介して固定される。
ステップS102において、ターゲットマーク6を第1のターゲットマーク位置に配置する。第1のターゲットマーク位置は、アーム先端部23に取付けられたカメラ4がターゲットマーク6を撮像可能であれば、任意の位置であってもよい。
ステップS103において、第1のターゲットマーク位置に配置されたターゲットマーク6を撮像可能な位置(第1のロボット位置)までロボット2を移動させる。ロボット2の移動は、オペレータの手動操作によって行われてもよいし、または予め定められる第1のロボット位置までロボット2を自動的に移動させてもよい。第1のロボット位置は、カメラ4の光軸と、模様が形成されたターゲットマーク6の表面とが互いに垂直になるような位置であることが望ましいものの、それには限定されない。
ステップS104において、ターゲットマーク6をカメラ4で撮像し、ターゲットマーク6の模様を検出対象のモデルとして登録する。ステップS104で登録されるモデル(以下、単に「登録モデル」と称することがある。)の内部データ形式は、画像処理装置5において使用される画像処理アルゴリズムに応じて定まる。例えば、正規化相関を利用したテンプレートマッチング、エッジ情報を利用した一般化ハフ変換などの画像処理アルゴリズムを使用できるものの、それらには限定されない。
ステップS105において、登録モデルを利用して、カメラ4で撮像された画像からターゲットマーク6を検出し、画像上における特徴量を算出する。本実施形態において、特徴量は、画像上におけるターゲットマーク6の模様の位置および大きさである。
例えば、正規化相関に基づくテンプレートマッチングを使用する場合、登録されたモデルとテンプレートとの一致度が最も大きいときのテンプレートの位置、およびテンプレートの拡大縮小の割合が、位置および大きさに関する特徴量として算出される。
画像上における位置および大きさの特徴量は、画像座標系において表現される数値である。画像座標系は、カメラ4で撮像された画像に対して設定される。例えば、図3に示されるように、画像座標系は、画像の左上の端部を原点とし、画像下方向をu軸、画像右方向をv軸とする座標系である。その場合、画像上における位置の特徴量は、画像座標系における登録モデルの原点位置として表現される。位置の特徴量の単位は画素である。モデルの原点位置は任意に定められるものの、1つのモデルに固有のものである。
大きさの特徴量sは、例えば登録モデルの大きさを1.0(100%)として、それに対する割合として算出される。すなわち、検出されるモデルの大きさが登録モデルよりも大きい場合は、特徴量sは1.0よりも大きくなり、逆に登録モデルよりも小さい場合は、特徴量sは1.0よりも小さくなる。
図2に戻り、ステップS106において、ロボット2のアーム先端部23に対する第1のターゲットマーク位置の3次元位置をツール先端点(TCP)として算出する。アーム先端部23、ターゲットマーク6、およびツール先端点の位置を説明するために、ロボット座標系Σrおよび手首座標系Σfをそれぞれ定義する。
ロボット座標系Σrは、ロボット2のベース21に固定されていてロボット2の制御の基準となる座標系である。手首座標系Σfは、アーム先端部23に固定されていて、アーム先端部23に連動する座標系である(図4参照)。アーム先端部23の位置は、ロボット座標系Σrにおける手首座標系Σfの位置として表現される。
以下の説明において、「ツール先端点の位置」は、特に言及しない限り、手首座標系Σfにおける位置を意味する。ツール先端点の位置Tは、次の式(1)によって求められる。なお、「R1」は、ロボット座標系Σrにおける手首座標系Σfの位置であり、「P1」は、ロボット座標系Σrにおける第1のターゲットマーク位置である(図5参照)。
Figure 0006126183
なお、「R1」は、4×4の同次変換行列であり、「T」および「P1」は、(x,y,z)Tの3×1のベクトルである。
図2に戻り、ステップS107において、ステップS105で算出された位置の特徴量(u,v)および大きさの特徴量s、並びにステップS106で算出されたツール先端点の位置Tからなるデータセットを基準データとして記憶する。
ステップS106において、ロボット座標系Σrにおける第1のターゲットマーク位置の3次元位置P1を既知の情報として説明したものの、別の実施形態において、3次元位置P1を任意の方法で計測してもよい。例えば、特許文献2に記載された方法に従ってカメラを用いて3次元位置P1を計測してもよい。
図6を参照して、任意の位置に配置されたターゲットマーク6の3次元位置を計測する方法について説明する。
ステップS201において、計測対象の位置である第2のターゲットマーク位置にターゲットマーク6を配置する(図7参照)。
ステップS202において、ターゲットマーク6がカメラ4の視野に含まれるような第2のロボット位置にアーム先端部23を移動させる。ロボット2は、オペレータの手動操作によって移動させられてもよいし、または予め定められる第2のロボット位置までロボット2が自動的に移動するようにしてもよい。第2のロボット位置は、第2のターゲットマーク位置に配置されたターゲットマーク6をカメラ4で撮像できる限り、ターゲットマーク6とカメラ4との間の相対的位置関係は厳密でなくてもよい。
ステップS203において、カメラ4で撮像した画像からターゲットマーク6を検出し、画像上における位置および大きさに関する特徴量を算出する。ステップS203において、前述したステップS105と同様の画像処理アルゴリズムを使用することができる。
ステップS204において、算出された特徴量と、前述したステップS107において記憶された基準データに対応する特徴量が一致しているか否かを判定する。ステップS204において、2つの特徴量の差(Δu,Δv,Δs)は、次の式(2)で求められる。なお、「(u0,v0,s0)」は、基準データとして記憶された特徴量であり、「(u1,v1,s1)」は、ステップS203で算出された特徴量である。
Figure 0006126183
図8は、画像の位置関係および特徴量の差(Δu,Δv)を示している。第1のロボット位置から、第1のターゲットマーク位置に配置されたターゲットマーク6をカメラ4で撮像したときの、画像上におけるターゲットマーク6が点線で示されている。第2のロボット位置から、第2のターゲットマーク位置に配置されたターゲットマーク6をカメラ4で撮像したときの、画像上におけるターゲットマーク6が実線で示されている。
ターゲットマーク6の大きさに関する特徴量sは、ターゲットマーク6とカメラ4との間の距離に反比例する。したがって、式(2)において、特徴量sの逆数が使用されている。
位置の判定に使用される閾値が0.1画素である場合、(Δu,Δv)の長さが0.1画素未満である場合、2つのターゲットマーク6は、画像上においてそれぞれ同じ位置に配置されていると判定される。大きさの判定に使用される閾値が0.1画素である場合、Δsが−0.1〜0.1の範囲内である場合、2つのターゲットマーク6は、画像上においてそれぞれ同じ大きさを有していると判定される。
ステップS204における判定結果が否定である場合(位置および大きさの少なくともいずれ一方が一致しない場合)、ステップS205に進み、特徴量の差(Δu,Δv,Δs)が小さくなるようにロボット2を移動させる。特徴量の差(Δu,Δv,Δs)からロボット2の移動量を算出する方法は、特に限定されないものの、その一例について後述する。
ステップS204における判定結果が肯定である場合、ステップS206に進み、ロボット座標系Σrにおける第2のターゲットマーク位置の3次元位置を算出する。本実施形態によれば、ステップS204において、画像から検出された特徴量が、基準データにおける特徴量に一致していることを確認している。そのため、ロボット2のアーム先端部23の位置と第2のターゲットマーク位置との間の位置関係は、アーム先端部23が第1のロボット位置に位置決めされているときのアーム先端部23の位置と第1のターゲットマーク位置との間の位置関係と同じである。
したがって、ロボット座標系Σrにおける第2のターゲットマーク位置の3次元位置P2は、次の式(3)で表される。「R2」は、アーム先端部23が第2のロボット位置に位置決めされているときの、ロボット座標系Σrにおける手首座標系Σfの位置である。「T」は、基準データとして記憶されているツール先端点(TCP)の値である(図9参照)。
Figure 0006126183
「R2」は、4×4の同次変換行列であり、「T」および「P2」は、(x,y,z)Tの3×1のベクトルである。
図6に示される例では、精度を向上させるため、ステップS205の処理の後にステップS203およびステップS204の処理が再度実行される。しかしながら、別の実施形態において、特徴量の差(Δu,Δv,Δs)から算出されるロボット2の移動量だけロボット2を移動させた後、ステップS203に戻らずに、ステップS206に直接進んでもよい。
ステップS205において、ロボット2の移動量を算出する方法の例として、ヤコビアン行列を用いた方法について説明する。
まず、特徴量の差(Δu,Δv,Δs)と、ロボット2の移動量(Δx,Δy,Δz)との間の関係をヤコビアン行列Jを用いて次の式(4)で定義する。ヤコビアン行列Jは、3×3の正方行列である。
Figure 0006126183
したがって、ヤコビアン行列Jが分かっていれば、特徴量の差(Δu,Δv,Δs)からロボット2の移動量(Δx,Δy,Δz)を算出できる。
次に、ヤコビアン行列Jを求める方法について説明する。ヤコビアン行列を求める工程は、カメラ4をロボット2のアーム先端部23に取付けた後の初期設定の際に一度だけ実行すればよい。
ターゲットマーク6を任意の位置に配置し、ターゲットマーク6が画像中心付近に位置するようなロボット2の位置を原位置とする。例えば、ターゲットマーク6が第1のターゲットマーク位置に配置されている場合、第1のロボット位置を原位置とすればよい。
アーム先端部23が原位置に位置決めされた状態において、カメラ4で撮像された画像からターゲットマーク6を検出し、特徴量(ui,vi,si)を算出する。
次に、アーム先端部23を手首座標系ΣfのX軸方向に距離mだけ移動させ、移動後の位置においてカメラ4で撮像された画像からターゲットマーク6を検出し、特徴量(ux,vx,sx)を算出する。
同様に、アーム先端部23を原位置から手首座標系ΣfのY軸方向およびZ軸方向にそれぞれ距離mだけ移動させた後に撮像される画像から特徴量(uy,vy,sy)、(uz,vz,sz)を算出する。
X軸方向、Y軸方向およびZ軸方向にロボット2を移動させたときのターゲットマーク6の検出結果と、原位置におけるターゲットマーク6の検出結果と、に基づいて、特徴量の差を次の式(5)〜(7)に従って算出する。
Figure 0006126183
Figure 0006126183
Figure 0006126183
式(5)〜(7)を式(4)に代入すると、次の式(8)からヤコビアン行列Jを求めることができる。
Figure 0006126183
次に、前述した実施形態に係る測定方法を利用して、工作機械の座標系を設定する方法について説明する。本実施形態に係るロボットシステム1は、図1に示される構成に加えて、工作機械7および工作機械制御装置71をさらに備えている(図10参照)。また、図10に示されるように、3つのターゲットマーク6が、工作機械7のテーブル72に載置されている。
前述した実施形態と同様に、ロボット座標系Σrおよび手首座標系Σfがそれぞれ定義される。さらに、本実施形態では、図10に示されるように、工作機械7の制御の基準となる機械座標系Σmが定義される。
本実施形態において、ロボット制御装置3は、機械座標系算出部33をさらに備えている。機械座標系算出部33は、機械座標系Σmにおける少なくとも3つのターゲットマーク位置、およびロボット座標系Σrにおける少なくとも3つのターゲットマーク位置に基づいて、ロボット座標系Σrに対する機械座標系Σmの位置を算出する。
工作機械7のテーブル72は、3つのターゲットマーク6を機械座標系Σmにおける3次元位置が既知である位置に配置できるように構成されている。例えば、ターゲットマーク6は、位置決めピンによって予め定められる位置に配置される。ターゲットマーク6の配置を再現可能にすれば、追加のロボットを使用したり、或いはロボットを交換したりするときに、再設定をより簡便に実行できる利点がある。なお、3つのターゲットマーク6は、一直線上に配列されないように位置決めされるのが好ましい。
工作機械制御装置71は、ロボット制御装置3に接続されており、機械座標系Σmにおけるターゲットマーク6の位置が、必要に応じてロボット制御装置3に送信されるようになっている。
図11を参照して、機械座標系Σmに一致する座標系をロボット2に設定する工程について説明する。なお、前述した初期設定は完了しているものとする。
ステップS301において、3つのターゲットマークを第3、第4および第5のターゲットマーク位置にそれぞれ配置する。機械座標系Σmにおける第3、第4および第5のターゲットマーク位置Q3、Q4、Q5は、それぞれ既知である。
ステップS302において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第3のターゲットマーク位置P3を計測する。
ステップS303において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第4のターゲットマーク位置P4を計測する。
ステップS304において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第5のターゲットマーク位置P5を計測する。
ステップS305において、機械座標系Σmにおける第3、第4および第5のターゲットマーク位置Q3、Q4、Q5と、ロボット座標系Σrにおける第3、第4および第5のターゲットマーク位置P3、P4、P5と、に基づいて、ロボット座標系Σrにおける機械座標系Σmの位置を算出する。
ステップS305において実行される算出方法の一例を説明する。以下の説明において、ロボット座標系Σrにおける機械座標系Σmの位置をMとする。「M」は、4×4の同次変換行列である。
第3、第4および第5のターゲットマーク位置が含まれる平面に対してターゲットマーク座標系Σtを定義する。ターゲットマーク座標系Σtは、第3のターゲットマーク位置を原点とし、第3のターゲットマーク位置から第4のターゲットマーク位置に向けられた方向をX軸方向とし、かつ、第3、第4および第5のターゲットマーク位置が含まれる平面をXY平面となるように定められる。
ロボット座標系Σrにおけるターゲットマーク座標系Σtの位置を「Tr」とすれば、4×4の同次変換行列である「Tr」は、次の式(9)から計算される。
Vx=(P4−P3)/|P4−P3|
Vt=(P5−P3)/|P5−P3|
Vz=Vx×Vt
Vy=Vz×Vx
Figure 0006126183
機械座標系Σmにおけるターゲットマーク座標系Σtの位置を「Tm」とすれば、4×4の同次変換行列である「Tm」は、次の式(10)から計算される。
Wx=(Q4−Q3)/|Q4−Q3|
Wt=(Q5−Q3)/|Q5−Q3|
Wz=Wx×Wt
Wy=Wz×Wx
Figure 0006126183
ここで、Tr=M・Tmが成立するから、M=Tr・Tm-1である。
工作機械7のテーブル72が、2つの軸方向において並進可能であるとともに、1つの軸の回りに回転可能である場合、テーブル72を作動させて、1つのターゲットマーク6を互いに異なる3つの位置まで移動させることによって、前述した第3、第4および第5のターゲットマーク位置を取得してもよい。その場合、テーブル72に対するターゲットマーク6の位置が、工作機械7の仕様によって一意に定まる位置である場合、機械座標系Σmにおけるターゲットマーク6の位置は、テーブル72の位置から算出できる。或いは、タッチプローブなどを用いて、機械座標系Σmにおけるターゲットマーク6の位置が計測されてもよい。
次に、図12および図13を参照して、ロボット2に新しい座標系を設定する方法について説明する。新しい座標系は、ロボット2によって実行される所定の作業において、作業用座標系Σcとして使用される。この場合に使用されるロボットシステム1は、図1に示される構成と類似しているものの、3つのターゲットマーク6が使用されるとともに、ロボット制御装置3は、作業用座標系算出部34をさらに備えている(図13参照)。
作業用座標系算出部34は、ロボット座標系Σrにおける少なくとも3つのターゲットマーク位置に基づいて、ロボット2の作業用座標系Σcを算出する。
図12に示されるように、ステップS401において、作業用座標系Σcを設定したい位置に対応する第6、第7および第8のターゲットマーク位置にターゲットマーク6を配置する。
ステップS402において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第6のターゲットマーク位置P6を計測する。
ステップS403において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第7のターゲットマーク位置P7を計測する。
ステップS404において、図6を参照して説明したステップS202〜S206の処理に従って、ロボット座標系Σrにおける第8のターゲットマーク位置P8を計測する。
ステップS405において、ロボット座標系Σrにおける第6、第7および第8のターゲットマーク位置P6、P7、P8に基づいて、新しく設定される作業用座標系Σcの位置Cを算出する。
ステップS405において、作業用座標系Σcの位置Cを算出する方法の一例について説明する。
作業用座標系Σcは、第6、第7および第7のターゲットマーク位置が含まれる平面に対して設定される。作業用座標系Σcは、第6のターゲットマーク位置を原点とし、第6のターゲットマーク位置から第7のターゲットマーク位置に向けられた方向をX軸方向とし、かつ、第6、第7および第8のターゲットマーク位置が含まれる平面をXY平面となるように定められる。その場合、作業用座標系Σcの位置Cは、次の式(11)から計算できる。なお、位置Cは、4×4の同次変換行列である。
Vx=(P7−P6)/|P7−P6|
Vt=(P8−P6)/|P8−P6|
Vz=Vx×Vt
Vy=Vz×Vx
Figure 0006126183
なお、カメラ4およびターゲットマーク6は、前述した実施形態の処理を実行する際に一時的に使用されればよく、処理終了後には必要に応じて取外されてもよい。
本実施形態に係るロボットシステム1によれば、次のような効果を奏することができる。
(1)カメラ4のキャリブレーションを予め行う必要がない。そのため、作業効率を向上できる。
(2)本実施形態において使用されるカメラ4は、1台の2次元カメラであってもよい。すなわち、ステレオ計測する必要なくターゲットマーク6の3次元位置を計測できるので、安価なロボットシステム1を提供できる。
(3)工作機械7とともに使用される場合のように、ロボット2の動作領域が制限される場合であっても、ターゲットマーク6の3次元位置を計測できる。
(4)工作機械7に対して設定される機械座標系Σmに対応する座標系がロボット2に設定されるので、工作機械7とロボット2との間で位置情報を共有することができる。
以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除または置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的または暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
1 ロボットシステム
2 ロボット
21 ベース
22 アーム
23 アーム先端部
3 ロボット制御装置
31 基準データ記憶部
32 ターゲットマーク位置算出部
33 機械座標系算出部
34 作業用座標系算出部
4 カメラ
5 画像処理装置
6 ターゲットマーク
7 工作機械
71 工作機械制御装置
72 テーブル(可動部)
Σf 手首座標系
Σm 機械座標系
Σr ロボット座標系

Claims (4)

  1. ロボットと、前記ロボットのアーム先端部に取付けられたカメラと、前記カメラによって撮像されるターゲットマークと、を備えたロボットシステムであって、
    前記ターゲットマークが、前記ロボットの制御の基準となるロボット座標系において予め定められる第1のターゲットマーク位置に配置されており、かつ、前記アーム先端部が第1のロボット位置に位置決めされているときに、前記カメラの画像に含まれる前記ターゲットマークの像の位置および大きさを基準データとして記憶するとともに、前記アーム先端部に対する前記第1のターゲットマーク位置をツール先端点の位置として記憶する基準データ記憶部と、
    前記ターゲットマークが第2のターゲットマーク位置に配置されているときに、前記カメラの画像に含まれる前記ターゲットマークの像の位置および大きさが、前記基準データとして記憶されている前記ターゲットマークの像の位置および大きさに一致するように前記アーム先端部を移動させるとともに、移動後の前記アーム先端部の位置に対応する第2のロボット位置、および前記ツール先端点の位置に基づいて、前記ロボット座標系における前記第2のターゲットマーク位置を算出するターゲットマーク位置算出部と、
    を備える、ロボットシステム。
  2. 前記ロボットシステムは工作機械を備えており、
    前記工作機械の制御の基準となる機械座標系において予め定められていて、かつ同一直線上にはない少なくとも3つのターゲットマーク位置に前記ターゲットマークが配置されているときに、前記ターゲットマーク位置算出部が、前記ロボット座標系における前記少なくとも3つのターゲットマーク位置をそれぞれ算出するように構成されており、
    前記ロボットシステムは、前記機械座標系における前記少なくとも3つのターゲットマーク位置、および前記ロボット座標系における前記少なくとも3つのターゲットマーク位置に基づいて、前記ロボット座標系に対する前記機械座標系の位置を算出する機械座標系算出部をさらに備える、請求項1に記載のロボットシステム。
  3. 前記工作機械は、作動可能な可動部を備えており、
    前記ターゲットマークは、前記可動部に設置されており、
    前記工作機械は、前記可動部を作動させることにより、前記ターゲットマークを前記少なくとも3つのターゲットマーク位置に移動させるように構成される、請求項2に記載のロボットシステム。
  4. 前記ロボット座標系における位置が未知であって、かつ同一直線上にはない少なくとも3つのターゲットマーク位置に前記ターゲットマークが配置されているときに、前記ターゲットマーク位置算出部が、前記ロボット座標系における前記少なくとも3つのターゲットマーク位置をそれぞれ算出するように構成されており、
    前記ロボット座標系における前記少なくとも3つのターゲットマーク位置に基づいて、前記ロボットの作業用座標系を算出する作業用座標系算出部をさらに備え
    前記作業用座標系は前記ロボット座標系とは別に新しく設定され、前記ロボットにより実行される所定の作業において基準となる座標系であり、
    前記作業用座標系を設定したい位置は前記少なくとも3つのターゲットマーク位置と対応しており、
    前記作業用座標系は前記少なくとも3つのターゲットマーク位置が含まれる平面に対して算出される、請求項1に記載のロボットシステム。
JP2015197715A 2015-10-05 2015-10-05 ターゲットマークを撮像するカメラを備えたロボットシステム Active JP6126183B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015197715A JP6126183B2 (ja) 2015-10-05 2015-10-05 ターゲットマークを撮像するカメラを備えたロボットシステム
DE102016011653.6A DE102016011653B4 (de) 2015-10-05 2016-09-28 Robotersystem mit Kamera zum Aufnehmen eines Bildes einer Zielmarke
CN201610872784.6A CN106560297B (zh) 2015-10-05 2016-09-30 具备拍摄目标标记的照相机的机器人系统
US15/281,091 US9969090B2 (en) 2015-10-05 2016-09-30 Robot system equipped with camera for capturing image of target mark

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197715A JP6126183B2 (ja) 2015-10-05 2015-10-05 ターゲットマークを撮像するカメラを備えたロボットシステム

Publications (2)

Publication Number Publication Date
JP2017071001A JP2017071001A (ja) 2017-04-13
JP6126183B2 true JP6126183B2 (ja) 2017-05-10

Family

ID=58355714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197715A Active JP6126183B2 (ja) 2015-10-05 2015-10-05 ターゲットマークを撮像するカメラを備えたロボットシステム

Country Status (4)

Country Link
US (1) US9969090B2 (ja)
JP (1) JP6126183B2 (ja)
CN (1) CN106560297B (ja)
DE (1) DE102016011653B4 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
DE102016005699B3 (de) * 2016-05-12 2017-05-18 Carl Zeiss Automated Inspection GmbH Verfahren zum Kalibrieren einer Messvorrichtung zur Vermessung von Karosserieteilen und anderen Werkstücken sowie zur Durchführung des Verfahrens geeignete Messvorrichtung
CN109215075B (zh) * 2017-06-30 2021-07-09 沈阳新松机器人自动化股份有限公司 工业机器人物料抓取中工件的定位识别系统及方法
CN107443380B (zh) * 2017-09-05 2019-11-29 北京京东尚科信息技术有限公司 直角坐标机器人的控制方法和控制装置
JP6608977B2 (ja) * 2018-01-25 2019-11-20 ファナック株式会社 物品搬送システム
CN110293551B (zh) * 2018-03-21 2020-10-16 北京猎户星空科技有限公司 视觉传感器安装位置确定方法、装置及电子设备
JP6777670B2 (ja) * 2018-03-27 2020-10-28 ファナック株式会社 画像処理を利用してロボットの教示を補正するロボットシステム
CN113015604B (zh) * 2018-12-11 2024-03-08 株式会社富士 机器人控制系统及机器人控制方法
US11449021B2 (en) * 2018-12-17 2022-09-20 Divergent Technologies, Inc. Systems and methods for high accuracy fixtureless assembly
JP2020142323A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
EP3946825A1 (en) * 2019-03-25 2022-02-09 ABB Schweiz AG Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP6785931B1 (ja) * 2019-08-30 2020-11-18 Dmg森精機株式会社 生産システム
CN110733060A (zh) * 2019-11-04 2020-01-31 清华大学 一种机械臂末端空间重复定位精度测量装置及方法
CN112775955B (zh) * 2019-11-06 2022-02-11 深圳富泰宏精密工业有限公司 机械手臂坐标确定方法、计算机装置
WO2021151082A1 (en) * 2020-01-24 2021-07-29 The Cleveland Clinic Foundation Hybrid control of a robotic system
CN113290552B (zh) * 2020-02-24 2022-09-16 株式会社理光 物品放置系统以及物品放置方法
CN113733078B (zh) * 2020-05-27 2022-09-13 中国人民解放军63920部队 机械臂精调控制量判读方法、计算机可读存储介质
WO2022071333A1 (ja) * 2020-09-30 2022-04-07 ファナック株式会社 ロボットと作業機器との位置関係を取得する装置、制御装置、システム、方法、及びコンピュータプログラム
DE102020134898A1 (de) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Zielmarke zur Bestimmung einer dreidimensionalen Pose eines Objekts
WO2022254613A1 (ja) * 2021-06-02 2022-12-08 株式会社Fuji カメラの位置ずれ補正方法およびロボット装置
EP4124417A1 (de) 2021-07-30 2023-02-01 Siemens Aktiengesellschaft Verfahren zur kalibrierung eines roboters

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60195611A (ja) * 1984-03-16 1985-10-04 Hitachi Ltd ワ−ク移動対応ロボツトシステム
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
DE102004026813A1 (de) * 2004-06-02 2005-12-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP2010117223A (ja) 2008-11-12 2010-05-27 Fanuc Ltd ロボットに取付けられたカメラを用いた三次元位置計測装置
JP2011048467A (ja) 2009-08-25 2011-03-10 Fanuc Ltd 加工システム
JP6004517B2 (ja) 2011-04-19 2016-10-12 芝浦メカトロニクス株式会社 基板検査装置、基板検査方法及び該基板検査装置の調整方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法

Also Published As

Publication number Publication date
DE102016011653A1 (de) 2017-04-06
CN106560297B (zh) 2018-07-31
US20170095930A1 (en) 2017-04-06
US9969090B2 (en) 2018-05-15
CN106560297A (zh) 2017-04-12
JP2017071001A (ja) 2017-04-13
DE102016011653B4 (de) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6126183B2 (ja) ターゲットマークを撮像するカメラを備えたロボットシステム
JP4021413B2 (ja) 計測装置
JP4191080B2 (ja) 計測装置
JP6025386B2 (ja) 画像計測装置、画像計測方法及び画像計測プログラム
JP2005342832A (ja) ロボットシステム
JP6703812B2 (ja) 3次元物体検査装置
CN107957236B (zh) 用于操作坐标测量机的方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP3988588B2 (ja) 三次元測定装置
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN116390834A (zh) 机器人系统
US20230321823A1 (en) Robot control device, and robot system
CN115397634A (zh) 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人系统、方法以及计算机程序
WO2024062535A1 (ja) ロボット制御装置
JP5516974B2 (ja) 視覚センサのマウント装置と方法
CN111522299A (zh) 机械控制装置
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
TW202413026A (zh) 機器人控制裝置
WO2023013699A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN114939865B (zh) 校准方法
US11698434B2 (en) Machine control device
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot
CN117813182A (zh) 机器人控制设备、机器人控制系统和机器人控制方法
CN117769483A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170406

R150 Certificate of patent or registration of utility model

Ref document number: 6126183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150