JP7003462B2 - ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法 - Google Patents

ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法 Download PDF

Info

Publication number
JP7003462B2
JP7003462B2 JP2017135107A JP2017135107A JP7003462B2 JP 7003462 B2 JP7003462 B2 JP 7003462B2 JP 2017135107 A JP2017135107 A JP 2017135107A JP 2017135107 A JP2017135107 A JP 2017135107A JP 7003462 B2 JP7003462 B2 JP 7003462B2
Authority
JP
Japan
Prior art keywords
coordinate system
camera
arm
pattern
transformation matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017135107A
Other languages
English (en)
Other versions
JP2019014030A (ja
JP2019014030A5 (ja
Inventor
満広 稲積
貴彦 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017135107A priority Critical patent/JP7003462B2/ja
Priority to CN201810737483.1A priority patent/CN109227532B/zh
Priority to US16/031,208 priority patent/US20190015989A1/en
Publication of JP2019014030A publication Critical patent/JP2019014030A/ja
Publication of JP2019014030A5 publication Critical patent/JP2019014030A5/ja
Application granted granted Critical
Publication of JP7003462B2 publication Critical patent/JP7003462B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Description

本発明は、ロボットの制御装置、ロボットシステム、並びに、カメラの校正(キャリブレーション)方法に関するものである。
ロボットに高度な処理を行わせるために、ロボットにカメラを設置して眼の機能を持たせる場合がある。カメラの設置方法として、カメラをロボットアームとは独立して設置する方法と、カメラをロボットアームに設置する方法(ハンドアイ)とがある。ハンドアイは、より広い視野を得ることができ、また作業する手先部の視野が確保できるなどの利点がある。
特許文献1には、アームに設置されたカメラを利用したロボットシステムにおける座標系の校正方法が記載されている。特許文献1にも記載されているように、アームに設置されたカメラを利用する場合には、カメラ座標系とロボットの座標系との間の未知の変換行列Xに関していわゆるAX=XB問題を解く必要があり、カメラの校正が困難であるという課題がある。AX=XB問題の解法には、非線形最適化処理が必要であり、また、最適解が与えられる保証がない。AX=XB問題を回避するため、特許文献1では、ロボットの動きに制限を加えることにより、座標系の変換行列を求める問題を線形化する技術が記載されている。
特開2012-91280号公報
しかしながら、上記特許文献1に記載された技術では、処理結果として得られる変換行列が、画像を用いた校正用パターンの位置推定の精度に依存するという課題がある。すなわち、校正用パターンの位置推定の精度を上げるためには、ロボットの動きが大きい方が有利であるが、ロボットの大きな動きは、動きの精度が低くなるという問題がある。一方、ロボットの動きの精度を上げようとすれば、動きを小さくするのが好ましいが、この場合は画像を用いた校正パターンの位置推定の精度が低くなるという問題がある。そこで、特許文献1とは異なる方法で、アームに設置されたカメラの校正を容易に行うことのできる技術が望まれている。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態(aspect)として実現することが可能である。
本発明の一形態は、カメラが設置されたアームを備えるロボットを制御する制御装置であって、前記アームを制御するアーム制御部と、前記カメラを制御するカメラ制御部と、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、前記座標変換行列を含む前記カメラのパラメーターを作成するカメラ校正実行部と、を備える。前記カメラ制御部は、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させ、前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出可能であり、前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記座標変換行列を推定する。前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する。 本発明の他の形態は、カメラが設置されたアームを備えるロボットと、 前記ロボットに接続された制御装置と、を備えるロボットシステムである。前記制御装置は、前記アームを制御するアーム制御部と、前記カメラを制御するカメラ制御部と、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、前記座標変換行列を含む前記カメラのパラメーターを作成するカメラ校正実行部と、を有し、前記カメラ制御部は、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させ、前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出可能であり、前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記座標変換行列を推定する。前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する。
本発明の更に他の形態は、カメラが設置されたアームを備えるロボットにおいて前記カメラの校正を行う方法であって、前記カメラの校正用パターンのパターン画像を前記カメラで撮像し、前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の間の関係を算出し、前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定する。前記座標変換行列の推定において、前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する。
(1)本発明の第1の形態によれば、カメラが設置されたアームを備えるロボットを制御する制御装置が提供される。この制御装置は、前記アームを制御するアーム制御部と;前記カメラを制御するカメラ制御部と;前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、前記座標変換行列を含む前記カメラのパラメーターを作成するカメラ校正実行部と;を備える。前記カメラ制御部は、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させる。前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出可能であり、前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記座標変換行列を推定する。
この制御装置によれば、パターン画像の撮像時におけるアームの位置姿勢からアーム座標系と手先座標系の関係を決定できる。また、カメラ校正実行部は、アーム座標系とパターン座標系の関係を算出可能なので、これらの関係に加えて、カメラで撮像したパターン画像から得られるパターン座標系とカメラ座標系との関係を利用すれば、手先座標系とカメラ座標系との間の座標変換行列を推定することが可能である。この結果、その座標変換行列を含むカメラのパラメーターを作成することができ、カメラを用いた対象物の位置検出を行うことが可能となる。
(2)上記制御装置において、前記カメラ校正実行部は、前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し;前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し;前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し;前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出するものとしてもよい。
この制御装置によれば、アームの位置姿勢から第1変換行列を算出できる。また、カメラ校正実行部は、アーム座標系とパターン座標系の座標変換を表す第2変換行列を算出又は推定し、更に、パターン画像から第3変換行列を推定するので、これらの変換行列から手先座標系とカメラ座標系との間の座標変換行列を含むカメラのパラメーターを容易に求めることが可能である。
(3)上記制御装置において、前記ロボットは、前記校正用パターンを予め定めた設置状態で設置可能に構成された第2アームを有し、前記カメラ校正実行部は、前記パターン画像の撮像時における前記第2アームの位置姿勢から、前記パターン座標系と前記アーム座標系との間の前記第2変換行列を算出するものとしてもよい。
この制御装置によれば、第2アームの位置姿勢から第2変換行列を算出できるので、手先座標系とカメラ座標系との間の座標変換行列を容易に求めることが可能である。
(4)上記制御装置において、前記カメラ制御部は、前記校正用パターンの第2パターン画像を前記アームとは独立して配置された固定カメラで撮像させ、前記カメラ校正実行部は、前記第2パターン画像から、前記パターン座標系と前記アーム座標系との間の前記第2変換行列を推定するものとしてもよい。
この制御装置によれば、第2パターン画像から第2変換行列を推定できるので、手先座標系とカメラ座標系との間の座標変換行列を容易に求めることが可能である。
(5)上記制御装置において、前記固定カメラはステレオカメラであるものとしてもよい。
この制御装置によれば、ステレオカメラで撮像した第2パターン画像から、第2変換行列を精度良く推定できるので、手先座標系とカメラ座標系との間の座標変換行列を精度良く求めることが可能である。
(6)本発明の第2の形態によれば、カメラが設置されたアームを備えるロボットを制御する制御装置が提供される。この制御装置は、プロセッサーを備える。前記プロセッサーは、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させ、前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出し、前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定する。
この制御装置によれば、パターン画像の撮像時におけるアームの位置姿勢からアーム座標系と手先座標系の関係を決定できる。また、アーム座標系とパターン座標系の関係を算出可能なので、これらの関係に加えて、カメラで撮像したパターン画像から得られるパターン座標系とカメラ座標系との関係を利用すれば、手先座標系とカメラ座標系との間の座標変換行列を推定することが可能である。この結果、その座標変換行列を含むカメラのパラメーターを作成することができ、カメラを用いた対象物の位置検出を行うことが可能となる。
(7)本発明の第3の形態は、上記制御装置に接続されたロボットである。
このロボットによれば、手先座標系とカメラ座標系との間の座標変換行列を容易に推定することが可能である。
(8)本発明の第4の形態は、ロボットと、前記ロボットに接続された上記制御装置と、を備えるロボットシステムである。
このロボットシステムによれば、手先座標系とカメラ座標系との間の座標変換行列を容易に推定することが可能である。
(9)本発明の第5の形態によれば、カメラが設置されたアームを備えるロボットにおいて前記カメラの校正を行う方法が提供される。この方法は、前記カメラの校正用パターンのパターン画像を前記カメラで撮像し;前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出し;前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定する。
この方法によれば、パターン画像の撮像時におけるアームの位置姿勢からアーム座標系と手先座標系の関係を決定できる。また、アーム座標系とパターン座標系の関係を算出可能なので、これらの関係に加えて、カメラで撮像したパターン画像から得られるパターン座標系とカメラ座標系との関係を利用すれば、手先座標系とカメラ座標系との間の座標変換行列を推定することが可能である。この結果、その座標変換行列を含むカメラのパラメーターを作成することができ、カメラを用いた対象物の位置検出を行うことが可能となる。
本発明は、上記以外の種々の形態で実現することも可能である。例えば、制御装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
ロボットシステムの概念図。 ロボットと制御装置の機能を示すブロック図。 第1実施形態のロボットの座標系を示す説明図。 第1実施形態の処理手順を示すフローチャート。 第2実施形態のロボットの座標系を示す説明図。 第2実施形態の処理手順を示すフローチャート。 第3実施形態のロボットの座標系を示す説明図。
A. ロボットシステムの構成
図1は、一実施形態におけるロボットシステムの概念図である。このロボットシステムは、ロボット100と、制御装置200とを備えている。このロボット100は、カメラで作業対象を認識し、自在に力を加減して、自律的に判断しながら作業を行える自律型ロボットである。また、ロボット100は、予め作成された教示データに従って作業を実行するティーチングプレイバックロボットとして動作することも可能である。
ロボット100は、基台110と、胴部120と、肩部130と、首部140と、頭部150と、2つのアーム160L,160Rとを備えている。アーム160L,160Rには、ハンド180L,180Rが着脱可能に取り付けられている。これらのハンド180L,180Rは、ワークや道具を把持するエンドエフェクターである。頭部150には、カメラ170L,170Rが設置されている。これらのカメラ170L,170Rは、アーム160L,160Rとは独立して設けられており、その位置姿勢が変化しない固定カメラである。アーム160L,160Rの手首部には、カメラとしてのハンドアイ175L,175Rが設けられている。アーム160L,160Rには、カメラ170L,170Rやハンドアイ175L,175Rの校正用パターン400を設置可能である。以下では、ハンドアイ175L,175Rと区別するために、頭部150に設けられたカメラ170L,170Rを「固定カメラ170L,170R」とも呼ぶ。
アーム160L,160Rの手首部には、更に、力覚センサー190L,190Rが設けられている。力覚センサー190L,190Rは、ハンド180L,180Rがワークに及ぼしている力に対する反力やモーメントを検出するセンサーである。力覚センサー190L,190Rとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。なお、力覚センサー190L,190Rは省略可能である。
アーム160L,160Rと、カメラ170L,170Rと、ハンドアイ175L、175Rと、ハンド180L,180Rと、力覚センサー190L,190Rの符号の末尾に付された「L」「R」の文字は、それぞれ「左」「右」を意味する。これらの区別が不要の場合には、「L」「R」の文字を省略した符号を使用して説明する。
制御装置200は、プロセッサー210と、メインメモリー220と、不揮発性メモリー230と、表示制御部240と、表示部250と、I/Oインターフェース260とを有している。これらの各部は、バスを介して接続されている。プロセッサー210は、例えばマイクロプロセッサー又はプロセッサー回路である。制御装置200は、I/Oインターフェース260を介してロボット100に接続される。なお、制御装置200をロボット100の内部に収納してもよい。
制御装置200の構成としては、図1に示した構成以外の種々の構成を採用することが可能である。例えば、プロセッサー210とメインメモリー220を図1の制御装置200から削除し、この制御装置200と通信可能に接続された他の装置にプロセッサー210とメインメモリー220を設けるようにしてもよい。この場合には、当該他の装置と制御装置200とを合わせた装置全体が、ロボット100の制御装置として機能する。他の実施形態では、制御装置200は、2つ以上のプロセッサー210を有していてもよい。更に他の実施形態では、制御装置200は、互いに通信可能に接続された複数の装置によって実現されていてもよい。これらの各種の実施形態において、制御装置200は、1つ以上のプロセッサー210を備える装置又は装置群として構成される。
図2は、ロボット100と制御装置200の機能を示すブロック図である。制御装置200のプロセッサー210は、不揮発性メモリー230に予め格納された各種のプログラム命令231を実行することにより、アーム制御部211と、カメラ制御部212と、カメラ校正実行部213との機能をそれぞれ実現する。カメラ校正実行部213は、変換行列推定部214を有している。但し、これらの各部211~214の機能の一部又は全部をハ―ドウェア回路で実現しても良い。これらの各部211~214の機能については後述する。不揮発性メモリー230には、プログラム命令231の他に、カメラ内部パラメーター232とカメラ外部パラメーター233とが格納される。これらのパラメーター232,233は、固定カメラ170のパラメーターと、ハンドアイ175のパラメーターをそれぞれ含んでいる。なお、本実施形態では、固定カメラ170のパラメーター232,233は既知であり、ハンドアイ175のパラメーター232,233は未知であるものと仮定する。後述する校正処理では、ハンドアイ175のパラメーター232,233が生成される。これらのパラメーター232,233については更に後述する。
B. ロボットの座標系と座標変換
図3は、ロボット100のアーム160の構成と各種の座標系を示す説明図である。2つのアーム160L,160Rのそれぞれには、7つの関節J1~J7が設けられている。関節J1,J3,J5,J7はねじり関節であり、関節J2,J4,J6は曲げ関節である。なお、図1の胴部120と肩部130の間にはねじり関節が設けられているが、図3では図示が省略されている。個々の関節には、それらを動作させるためのアクチュエーターと、回転角度を検出するための位置検出器とが設けられている。
アーム160の手先には、ツール中心点TCP(Tool Center Point)が設定されている。典型的には、ロボット100の制御は、ツール中心点TCPの位置姿勢を制御するために実行される。なお、位置姿勢(position and attitude)とは、3次元の座標系における3つ座標値と、各座標軸回りの回転とで規定される状態を意味する。
アーム160L,160Rには、校正用パターン400を予め定めた設置状態で設置可能である。図3の例では、左アーム160Lのハンドアイ175Lの校正(キャリブレーション)に使用される校正用パターン400が、右アーム160Rの手先部に固定されている。校正用パターン400を右アーム160Rに取り付ける際には、右アーム160Rのハンド180Rを取り外すようにしてもよい。左アーム160Lのハンド180Lも同様である。
ハンドアイ175Lの校正は、ハンドアイ175Lの内部パラメーターと外部パラメーターとを推定する処理である。内部パラメーターは、ハンドアイ175L及びそのレンズ系の固有のパラメーターであり、例えば射影変換パラメーターや歪パラメーターなどを含んでいる。外部パラメーターは、ハンドアイ175Lとロボット100のアーム160Lとの間の相対的な位置姿勢を計算する際に使用されるパラメーターであり、アーム160Lの手先座標系ΣT1とハンドアイ座標系ΣEとの間の並進や回転を表現するパラメーターを含んでいる。但し、外部パラメーターは、手先座標系ΣT1以外のターゲット座標系とハンドアイ座標系ΣEとの間の並進や回転を表現するパラメーターとしても構成可能である。ターゲット座標系は、ロボット座標系Σ0から求め得る座標系であれば良い。例えば、ロボット座標系Σ0に対して固定された既知の相対位置姿勢を有する座標系や、アーム160Lの関節の動作量に応じてロボット座標系Σ0との相対位置姿勢が決まる座標系をターゲット座標系として選択してもよい。外部パラメーターは、「アームの手先座標系とカメラのカメラ座標系との間の座標変換行列を含むカメラのパラメーター」に相当する。
図3には、ロボット100に関する座標系として、以下の座標系が描かれている。
(1)ロボット座標系Σ0:ロボット100の基準点を座標原点とする座標系
(2)アーム座標系ΣA1,ΣA2:アーム160L,160Rの基準点A1,A2を座標原点とする座標系
(3)手先座標系ΣT1,ΣT2:アーム160L,160RのTCP(ツール中心点)を座標原点とする座標系
(4)パターン座標系ΣP:校正用パターン400上の所定の位置を座標原点とする座標系
(5)ハンドアイ座標系ΣE:ハンドアイ175に設定された座標系
アーム座標系ΣA1,ΣA2と手先座標系ΣT1,ΣT2は、左アーム160Lと右アーム160Rにそれぞれ別個に設定される。以下では、左アーム160Lに関する座標系を、「第1アーム座標系ΣA1」「第1手先座標系ΣT1」とも呼び、右アーム160Rに関する座標系を「第2アーム座標系ΣA2」「第2手先座標系ΣT2」と呼ぶ。なお、アーム座標系ΣA1,ΣA2とロボット座標系Σ0の相対位置姿勢は既知である。ハンドアイ座標系ΣEも、ハンドアイ175L,175Rにそれぞれ別個に設定される。以下の説明では、左アーム160Lのハンドアイ175Lを校正対象とするので、ハンドアイ座標系ΣEとして左アーム160Lのハンドアイ175Lの座標系を使用する。なお、図3では、図示の便宜上、個々の座標系の原点が実際の位置からずれた位置に描かれている。
一般に、或る座標系ΣAから他の座標系ΣBへの変換、又は、これらの座標系での位置姿勢の変換は、以下に示す同次変換行列(Homogeneous transformation matrix)で表現される。
Figure 0007003462000001
ここで、Rは回転行列(Rotation matrix)、Tは並進ベクトル(Translation vector)、R,R,Rは回転行列Rの列成分である。以下では、同次変換行列を「座標変換行列」、「変換行列」又は、単に「変換」とも呼ぶ。変換の符号「」の左側の上付き文字「」は変換前の座標系を示し、右側の下付き文字「」は変換後の座標系を示す。なお、変換は、座標系ΣAで見た座標系ΣBの基底ベクトルの成分と原点位置を表すものと考えることも可能である。
変換の逆行列 -1(=)は、次式で与えられる。
Figure 0007003462000002
回転行列Rは、以下の重要な性質を有する。
<回転行列Rの性質1>
回転行列Rは正規直交行列であり、その逆行列R-1は転置行列RTに等しい。
<回転行列Rの性質2>
回転行列Rの3つの列成分R,R,Rは、元の座標系ΣAで見た回転後の座標系ΣBの3つの基底ベクトルの成分に等しい。
或る座標系ΣAに変換ABBCを順次施す場合に、合成された変換ACは各変換ABBCを順次右側に乗じたものとなる。
Figure 0007003462000003
また、回転行列Rに関しても(3)式と同様の関係が成立する。
Figure 0007003462000004
C. 座標変換のAX=XB問題
図3において、座標系ΣA1,ΣT1,ΣE,ΣPの間には、以下の変換が成立する。
(1)変換A1T1(計算可):第1アーム座標系ΣA1から第1手先座標系ΣT1への変換
(2)変換T1E(未知):第1手先座標系ΣT1からハンドアイ座標系ΣEへの変換
(3)変換EP(推定可):ハンドアイ座標系ΣEからパターン座標系ΣPへの変換
(4)変換PA1(未知):パターン座標系ΣPから第1アーム座標系ΣA1への変換
上述の4つの変換A1T1T1EEPPA1のうち、変換A1T1は、第1アーム座標系ΣA1から第1手先座標系ΣT1への変換である。第1手先座標系ΣT1は、第1アーム160LのTCPの位置姿勢を示している。通常、第1アーム座標系ΣA1に対するTCPの位置姿勢を求める処理はフォワードキネマティクスと呼ばれ、アーム160Lの幾何学的な形状と各関節の動作量(回転角度)が定まれば計算できる。つまり、この変換A1T1は計算可能な変換である。
変換T1Eは、第1手先座標系ΣT1からハンドアイ座標系ΣEへの変換である。この変換T1Eは未知であり、この変換T1Eを求めることがハンドアイ175の校正(キャリブレーション)に相当する。
変換EPは、ハンドアイ座標系ΣEからパターン座標系ΣPへの変換であり、ハンドアイ175によって校正用パターン400を撮像し、その画像に対して画像処理を行うことによって推定できる。この変換EPを推定する処理は、カメラの校正を行うための標準的なソフトウェア(例えばOpenCVやMATLABのカメラキャリブレーション関数)を用いて実行可能である。
変換PA1は、パターン座標系ΣPから第1アーム座標系ΣA1への変換である。この変換PA1は未知である。
上記の変換A1T1T1EEPPA1を順に辿れば最初の第1アーム座標系ΣA1に戻るので、恒等変換Iを用いて以下の式が成立する。
Figure 0007003462000005
(5)式の両辺に、左から各変換の逆行列A1T1 -1, T1E -1, EP -1を順に乗算すれば次式が得られる。
Figure 0007003462000006
(6)式において、変換EPはカメラキャリブレーション関数を用いて推定でき、変換A1T1は計算可能である。従って、変換T1Eが既知であれば、右辺は計算可能であり、左辺の変換PA1を知ることができる。
一方、変換T1Eが未知であれば、(6)式の右辺は計算できず、別の処理が必要となる。例えば、図3において左アーム160Lの2つの姿勢i,jを考えれば、それぞれにおいて上記(5)式が成立し、次式となる。
Figure 0007003462000007
(7a),(7b)式の両辺にそれぞれ右から変換PA1の逆行列PA1 -1 を乗算すれば次式が得られる。
Figure 0007003462000008
(8a),(8b)式の右辺は未知ではあるが同じ変換なので、次式が成立する。
Figure 0007003462000009
(9)式の両辺に、左からA1T1(j)-1を、右からEP(i)-1を乗算すると次式となる。
Figure 0007003462000010
ここで、(10)式の左辺と右辺の括弧の中の変換の積をそれぞれA,Bと書き、未知の変換T1EをXと書くと、次式が得られる。
Figure 0007003462000011
これは、AX=XB問題として良く知られた処理であり、未知の行列Xを解くためには非線形の最適化処理が必要となる。しかし、この非線形最適化処理には、最適な解に収束する保証が無いと言う問題がある。
以下に詳述するように、第1実施形態では、校正用パターン400が設置された第2アーム160Rを任意に制御可能であることを利用し、第2アーム160Rの位置姿勢から第2アーム座標系ΣA2とパターン座標系ΣPの関係を計算することにより第1手先座標系ΣT1とハンドアイ座標系ΣEの間の変換T1E又はET1を推定する。この結果、ハンドアイ175の外部パラメーターを決定することができる。
このような処理を行うために、第1実施形態では、上記の変換A1T1T1EEPPA1の他に、以下の変換を利用する。
(5)変換A1A2(既知):第1アーム座標系ΣA1から第2アーム座標系ΣA2への変換
(6)変換A2T2(計算可):第2アーム座標系ΣA2から第2手先座標系ΣT2への変換
(7)変換T2P(既知):第2手先座標系ΣT2からパターン座標系ΣPへの変換
第2手先座標系ΣT2からパターン座標系ΣPへの変換T2Pは、既知であると仮定する。アーム160Rの手首部に校正用パターン400を設置するための治具(例えばフランジ)が高精度に設計・製造されていれば、その設計データからこの変換T2Pを決定することが可能である。或いは、アーム160Rの手首部に設置された校正用パターン400を固定カメラ170で撮像し、そのパターン画像からカメラ座標系ΣCとパターン座標系ΣPの変換CPを推定し、この変換CPを利用して、第2手先座標系ΣT2からパターン座標系ΣPへの変換T2Pを予め求めるようにしてもよい。
D. 第1実施形態の処理手順
図4は、第1実施形態におけるハンドアイ175の校正処理の手順を示すフローチャートである。ロボット100が有する2つのハンドアイ175R,175Lは、それぞれ別個に校正されるが、以下では特に区別することなく「ハンドアイ175」と呼ぶ。以下で説明する校正処理は、図2に示したアーム制御部211と、カメラ制御部212と、カメラ校正実行部213とが協調して実行される。すなわち、校正用パターン400の位置姿勢を変更する動作は、アーム制御部211がアーム160を制御することによって実現される。また、ハンドアイ175やカメラ170による撮像は、カメラ制御部212によって制御される。ハンドアイ175の内部パラメーターや外部パラメーターは、カメラ校正実行部213によって決定される。また、ハンドアイ175の外部パラメーターの決定において、各種の行列やベクトルの推定は、変換行列推定部214によって行われる。
ステップS110とステップS120は、ハンドアイ175の内部パラメーターを決定する処理である。まず、ステップS110では、ハンドアイ175を用いて、校正用パターン400を複数の位置姿勢で撮像する。これらの複数の位置姿勢は、ハンドアイ175の内部パラメーターを決定するためのものなので、任意の位置姿勢を採用可能である。以下では、校正用パターン400をハンドアイ175で撮像して得られた画像を「パターン画像」と呼ぶ。ステップS120では、カメラ校正実行部213が、ステップ110で得られた複数のパターン画像を用いて、ハンドアイ175の内部パラメーターを推定する。前述したように、ハンドアイ175の内部パラメーターは、ハンドアイ175及びそのレンズ系の固有のパラメーターであり、例えば射影変換パラメーターや歪パラメーターなどを含んでいる。内部パラメーターの推定は、カメラの校正を行う標準的なソフトウェア(例えばOpenCVやMATLABのカメラキャリブレーション関数)を用いて実行可能である。
ステップS130~S170は、ハンドアイ175の外部パラメーターを推定する処理である。ステップS130では、ハンドアイ175を用いて、校正用パターン400を特定の位置姿勢で撮像する。なお、上述したステップS110では、校正用パターン400を複数の位置姿勢で撮像しているので、それらの複数の位置姿勢のうちの1つを「特定の位置姿勢」として利用してもよい。この場合には、ステップS130は省略可能である。以下では、校正用パターン400が特定の位置姿勢を取るロボット100の状態を、単に「特定位置姿勢状態」と呼ぶ。
ステップS140では、特定位置姿勢状態における第1アーム座標系ΣA1と第1手先座標系ΣT1の間の変換A1T1又はT1A1を算出する。この変換A1T1又はT1A1は、アーム160Lのフォワードキネマティクスによって算出可能である。
ステップS150では、特定位置姿勢状態における第1アーム座標系ΣA1とパターン座標系ΣPの間の変換A1P又はA1Pを算出する。例えば、変換A1Pは、次式で算出できる。
Figure 0007003462000012
(12)式の右辺の3つの変換A1A2A2T2T2Pのうち、1番目の変換A1A2と3番目の変換T2Pは一定であり、2番目の変換A2T2は第2アーム160Rの位置姿勢によって算出される。
このように、ステップS150では、特定位置姿勢状態における第2アーム160Rの位置姿勢から、第1アーム座標系ΣA1とパターン座標系ΣPの間の変換A1P又はA1Pを算出する。すなわち、カメラ校正実行部213は、特定位置姿勢状態における第1アーム座標系ΣA1とパターン座標系ΣPの関係を算出可能である。
ステップS160では、特定位置姿勢状態においてハンドアイ175で撮像されたパターン画像を用いて、ハンドアイ座標系ΣEとパターン座標系ΣPの間の変換EP又はPEを推定する。この推定は、ステップS120で得られた内部パラメーターを利用し、カメラの外部パラメーターを推定する標準的なソフトウェア(例えばOpenCVの関数「FindExtrinsicCameraParams2」)を用いて実行可能である。
ステップS170では、第1手先座標系とハンドアイ座標系の変換T1EET1を算出する。例えば変換T1Eについては、図3において次式が成立する。
Figure 0007003462000013
(13)式の右辺の5つの変換のうちは、第1の変換T1A1は、ステップS140で算出されている。第2の変換A1A2は、既知である。第3の変換A2T2は、アーム160Rのフォワードキネマティクスによって算出可能である。第4の変換T2Pは、既知である。第5の変換PEは、ステップS160で推定されている。従って、第1手先座標系ΣT1とハンドアイ座標系ΣEの変換T1Eを、(13)式に従って算出することができる。
こうして得られた同次変換行列T1E又はET1は、ハンドアイ175の外部パラメーター233として不揮発性メモリー230に格納される。ハンドアイ175の外部パラメーター233と内部パラメーター232を利用すれば、ハンドアイ175を用いた各種の検出処理や制御を実行することが可能となる。なお、ハンドアイ175の外部パラメーター233としては、ロボット座標系Σ0とハンドアイ座標系ΣEとの間の座標変換を算出可能な種々のパラメーターを採用することが可能である。
このように、第1実施形態では、パターン画像の撮像時におけるアーム160の位置姿勢と、パターン画像とを用いて、第1手先座標系ΣT1とハンドアイ座標系ΣEとの間の座標変換行列T1Eを推定することができる。特に、第1実施形態では、カメラ校正実行部213は、ステップS140において、パターン画像の撮像時におけるアーム160の位置姿勢から、第1アーム座標系ΣA1と第1手先座標系ΣT1との間の第1変換行列A1T1又はT1A1を算出する。また、ステップS150において、パターン座標系ΣPと第1アーム座標系ΣA1との間の第2変換行列A1P又はA1Pを算出する。更に、ステップS160において、パターン画像から、ハンドアイ座標系ΣEとパターン座標系ΣPとの間の第3変換行列EP又はPEを推定する。そして、ステップS170において、これらの変換行列から、第1手先座標系ΣT1とハンドアイ座標系ΣEの間の座標変換行列T1E又はT1Eを算出する。従って、第1手先座標系ΣT1とハンドアイ座標系ΣEの間の座標変換行列T1E又はET1を含むハンドアイ175の外部パラメーターを容易に求めることが可能である。
E. 第2実施形態
図5は、第2実施形態におけるロボット100の座標系を示す説明図である。第1実施形態の図3との違いは、第2手先座標系ΣT2からパターン座標系ΣPへの変換T2Pを既知とする代わりに、固定カメラ170を用いて、固定カメラ170のカメラ座標系ΣCとパターン座標系ΣPとの間の変換CP又はPCを推定する点にある。図1及び図2に示したロボット100の構成は第1実施形態と同一である。
固定カメラ170としては、2つのカメラ170L,170Rのうちの一方又は両方が使用される。但し、2つのカメラ170L,170Rをステレオカメラとして利用すれば、校正用パターン400の位置姿勢をより正確に推定することができる。なお、第2実施形態において、カメラ170については、予め校正が完了しており、その内部パラメーターと外部パラメーターが決定されているものと仮定する。また、第1アーム座標系ΣA1とカメラ座標系ΣCとの間の変換A1Cは、既知であると仮定する。
図6は、第2実施形態におけるハンドアイ175の校正処理の手順を示すフローチャートである。第1実施形態の図4との違いは、図4のステップS150が、3つのステップS151~S153を含むステップS150aに置き換えられている点だけであり、他のステップは同一である。
ステップS151では、固定カメラ170を用いて、校正用パターン400を特定の位置姿勢で撮像する。この特定の位置姿勢は、ステップS130における特定の位置姿勢と同じである。ステップS152では、特定位置姿勢状態において固定カメラ170で撮像されたパターン画像(第2パターン画像)を用いて、カメラ座標系ΣCとパターン座標系ΣPの間の変換CP又はPCを推定する。例えば、固定カメラ170としてステレオカメラを利用すれば、校正用パターン400を撮像したパターン画像から、パターン座標系ΣPの位置姿勢を決定できるので、カメラ座標系ΣCとパターン座標系ΣPの間の変換CP又はPCを推定することが可能である。一方、1個の固定カメラ170を使用した場合には、カメラの外部パラメーターを推定する標準的なソフトウェア(例えばOpenCVの関数「FindExtrinsicCameraParams2」)を用いてカメラ座標系ΣCとパターン座標系ΣPの間の変換CP又はPCを推定可能である。
ステップS153では、特定位置姿勢状態における第1アーム座標系ΣA1とパターン座標系ΣPの間の変換A1P又はA1Pを算出する。例えば、変換A1Pは、次式で算出できる。
Figure 0007003462000014
(14)式の右辺の2つの変換のうち、第1の変換A1Cは、既知である。第2の変換CPは、ステップS152で推定されている。
このように、第2実施形態では、ステップS150aにおいて、固定カメラ170で撮像された第2パターン画像から、第1アーム座標系ΣA1とパターン座標系ΣPの間の変換A1P又はA1Pを推定することが可能である。すなわち、カメラ校正実行部213は、特定位置姿勢状態における第1アーム座標系ΣA1とパターン座標系ΣPの関係を推定可能である。
第1アーム座標系ΣA1とパターン座標系ΣPの間の変換A1P又はA1Pが決定されると、第1実施形態と同様に、ステップS160,S170の処理によって、第1手先座標系ΣT1とハンドアイ座標系ΣEの同次変換行列T1E又はET1を含むハンドアイ175の外部パラメーターを求めることが可能である。
このように、第2実施形態においても、パターン画像の撮像時におけるアーム160の位置姿勢と、パターン画像とを用いて、第1手先座標系ΣT1とハンドアイ座標系ΣEとの間の座標変換行列T1Eを推定することができる。特に、第2実施形態では、ステップS150aにおいて、校正用パターン400の第2パターン画像をアーム160とは独立して配置された固定カメラ170で撮像し、この第2パターン画像から、パターン座標系ΣPと第1アーム座標系ΣA1との間の第2変換行列A1P又はA1Pを推定する。すなわち、第2パターン画像から第2変換行列A1P又はA1Pを推定できるので、第1手先座標系ΣT1とハンドアイ座標系ΣEとの間の座標変換行列T1E又はET1を容易に求めることが可能である。
F. 第3実施形態
図7は、第3実施形態におけるロボット100aの座標系を示す説明図である。第2実施形態の図6との違いは、ロボット100aが1つアーム160を有する単腕ロボットである点と、固定カメラ170がロボット100aとは独立に設置されている点である。第2実施形態と同様に、アーム座標系ΣA1とカメラ座標系ΣCの間の変換A1Cは、既知であると仮定する。第3実施形態の処理手順は、第2実施形態の図6の処理手順と同じなので、説明を省略する。
第3実施形態も、第2実施形態と同様に、パターン画像の撮像時におけるアーム160の位置姿勢と、パターン画像とを用いて、手先座標系ΣTとハンドアイ座標系ΣEとの間の座標変換行列T1E又はET1を推定することができる。また、この座標変換行列T1E又はET1を含むハンドアイ175の外部パラメーターを求めることが可能である。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
100,100a…ロボット、110…基台、120…胴部、130…肩部、140…首部、150…頭部、160,160L,160R…アーム、170,170L,170R…固定カメラ、175,175L,175R…ハンドアイ、180L,180R…ハンド、190L,190R…力覚センサー、200…制御装置、210…プロセッサー、211…アーム制御部、212…カメラ制御部、213…カメラ校正実行部、214…変換行列推定部、220…メインメモリー、230…不揮発性メモリー、231…プログラム命令、232…カメラ内部パラメーター、233…カメラ外部パラメーター、240…表示制御部、250…表示部、260…I/Oインターフェース、400…校正用パターン

Claims (6)

  1. カメラが設置されたアームを備えるロボットを制御する制御装置であって、
    前記アームを制御するアーム制御部と、
    前記カメラを制御するカメラ制御部と、
    前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、前記座標変換行列を含む前記カメラのパラメーターを作成するカメラ校正実行部と、
    を備え、
    前記カメラ制御部は、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させ、
    前記カメラ校正実行部は、
    前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出可能であり、
    前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記座標変換行列を推定し、
    前記カメラ校正実行部は、
    前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、
    前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、
    前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、
    前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する、制御装置。
  2. 請求項に記載の制御装置であって、
    前記ロボットは、前記校正用パターンを予め定めた設置状態で設置可能に構成された第2アームを有し、
    前記カメラ校正実行部は、前記パターン画像の撮像時における前記第2アームの位置姿勢から、前記パターン座標系と前記アーム座標系との間の前記第2変換行列を算出する、
    制御装置。
  3. 請求項に記載の制御装置であって、
    前記カメラ制御部は、前記校正用パターンの第2パターン画像を前記アームとは独立して配置された固定カメラで撮像させ、
    前記カメラ校正実行部は、前記第2パターン画像から、前記パターン座標系と前記アーム座標系との間の前記第2変換行列を推定する、
    制御装置。
  4. 請求項に記載の制御装置であって、
    前記固定カメラはステレオカメラである、制御装置。
  5. カメラが設置されたアームを備えるロボットと、 前記ロボットに接続された制御装置と、を備え、
    前記制御装置は、
    前記アームを制御するアーム制御部と、
    前記カメラを制御するカメラ制御部と、
    前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、前記座標変換行列を含む前記カメラのパラメーターを作成するカメラ校正実行部と、
    を有し、
    前記カメラ制御部は、前記カメラの校正用パターンのパターン画像を前記カメラに撮像させ、
    前記カメラ校正実行部は、
    前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の関係を算出可能であり、
    前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記座標変換行列を推定し、
    前記カメラ校正実行部は、
    前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、
    前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、
    前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、
    前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する、
    ロボットシステム。
  6. カメラが設置されたアームを備えるロボットにおいて前記カメラの校正を行う方法であって、
    前記カメラの校正用パターンのパターン画像を前記カメラで撮像し、
    前記パターン画像の撮像時における前記アームのアーム座標系と前記校正用パターンのパターン座標系の間の関係を算出し、
    前記パターン画像の撮像時における前記アームの位置姿勢と、前記パターン画像とを用いて、前記アームの手先座標系と前記カメラのカメラ座標系との間の座標変換行列を推定し、
    前記座標変換行列の推定において、
    前記パターン画像の撮像時における前記アームの位置姿勢から、前記アーム座標系と前記手先座標系との間の第1変換行列を算出し、
    前記パターン座標系と前記アーム座標系との間の第2変換行列を算出又は推定し、
    前記パターン画像から、前記カメラ座標系と前記パターン座標系との間の第3変換行列を推定し、
    前記第1変換行列と前記第2変換行列と前記第3変換行列から、前記座標変換行列を算出する、方法。
JP2017135107A 2017-07-11 2017-07-11 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法 Active JP7003462B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017135107A JP7003462B2 (ja) 2017-07-11 2017-07-11 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
CN201810737483.1A CN109227532B (zh) 2017-07-11 2018-07-06 机器人的控制装置及其系统、机器人及摄像机的校正方法
US16/031,208 US20190015989A1 (en) 2017-07-11 2018-07-10 Robot Control Device, Robot, Robot System, And Calibration Method Of Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017135107A JP7003462B2 (ja) 2017-07-11 2017-07-11 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法

Publications (3)

Publication Number Publication Date
JP2019014030A JP2019014030A (ja) 2019-01-31
JP2019014030A5 JP2019014030A5 (ja) 2020-08-06
JP7003462B2 true JP7003462B2 (ja) 2022-01-20

Family

ID=65000615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017135107A Active JP7003462B2 (ja) 2017-07-11 2017-07-11 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法

Country Status (3)

Country Link
US (1) US20190015989A1 (ja)
JP (1) JP7003462B2 (ja)
CN (1) CN109227532B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
WO2020219480A1 (en) 2019-04-25 2020-10-29 Berkshire Grey, Inc. Systems and methods for maintaining vacuum hose life in hose routing systems in programmable motion systems
KR20210004553A (ko) * 2019-07-05 2021-01-13 삼성전자주식회사 전자 장치, 이를 이용한 스테레오 영상 복원 방법 및 컴퓨터로 읽을 수 있는 기록 매체
CN110480631A (zh) * 2019-07-19 2019-11-22 五邑大学 一种应用于搬运机器人的目标搬运方法及其搬运机器人
JP7343329B2 (ja) * 2019-08-05 2023-09-12 ファナック株式会社 ワーク選定及びロボット作業を同時に行うロボット制御システム
CN111055289B (zh) * 2020-01-21 2021-09-28 达闼科技(北京)有限公司 机器人的手眼标定方法、装置、机器人及存储介质
CA3170703A1 (en) * 2020-02-06 2021-08-12 Berkshire Grey Operating Company, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
JP2021146445A (ja) * 2020-03-19 2021-09-27 セイコーエプソン株式会社 校正方法
CN113858265B (zh) * 2020-06-30 2023-07-18 上海微创数微医疗科技有限公司 机械臂的位姿误差的检测方法及系统
CN112936301B (zh) * 2021-01-26 2023-03-03 深圳市优必选科技股份有限公司 一种机器人手眼标定方法、装置、可读存储介质及机器人
CN113664836B (zh) * 2021-09-15 2023-10-10 上海交通大学 手眼标定方法、机器人、介质及电子设备
CN114543669B (zh) * 2022-01-27 2023-08-01 珠海亿智电子科技有限公司 机械臂校准方法、装置、设备及存储介质
CN115439528B (zh) * 2022-04-26 2023-07-11 亮风台(上海)信息科技有限公司 一种获取目标对象的图像位置信息的方法与设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028468A (ja) 2003-07-08 2005-02-03 National Institute Of Advanced Industrial & Technology ロボットの視覚座標系位置姿勢同定方法、座標変換方法および装置
JP2010112731A (ja) 2008-11-04 2010-05-20 Denso Wave Inc ロボットの座標の結合方法
JP2012091280A (ja) 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム
CN103759716A (zh) 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
JP2015066603A (ja) 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
JP2016052695A5 (ja) 2014-09-03 2017-10-05

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60151711A (ja) * 1984-01-19 1985-08-09 Hitachi Ltd ロボツト手先視覚座標系較正方式
JP2686351B2 (ja) * 1990-07-19 1997-12-08 ファナック株式会社 視覚センサのキャリブレーション方法
JPH08210816A (ja) * 1995-02-03 1996-08-20 Fanuc Ltd ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JPH1133962A (ja) * 1997-07-18 1999-02-09 Yaskawa Electric Corp ロボットの三次元位置センサのキャリブレーション 方法とその装置
JP5365218B2 (ja) * 2009-01-28 2013-12-11 富士電機株式会社 ロボットビジョンシステムおよび自動キャリブレーション方法
JP5365379B2 (ja) * 2009-07-06 2013-12-11 富士電機株式会社 ロボットシステム及びロボットシステムのキャリブレーション方法
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
KR101465652B1 (ko) * 2013-04-12 2014-11-28 성균관대학교산학협력단 로봇 핸드와 로봇 핸드에 부착된 카메라의 캘리브레이션 방법 및 장치
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6206560B2 (ja) * 2015-09-28 2017-10-04 株式会社リコー システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028468A (ja) 2003-07-08 2005-02-03 National Institute Of Advanced Industrial & Technology ロボットの視覚座標系位置姿勢同定方法、座標変換方法および装置
JP2010112731A (ja) 2008-11-04 2010-05-20 Denso Wave Inc ロボットの座標の結合方法
JP2012091280A (ja) 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム
JP2015066603A (ja) 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
CN103759716A (zh) 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
JP2016052695A5 (ja) 2014-09-03 2017-10-05

Also Published As

Publication number Publication date
JP2019014030A (ja) 2019-01-31
CN109227532B (zh) 2023-08-29
CN109227532A (zh) 2019-01-18
US20190015989A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP7003462B2 (ja) ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
JP7003463B2 (ja) ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
JP7035657B2 (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP7062911B2 (ja) ロボットシステム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
EP2915635B1 (en) Robot, robot system, control device, and control method
JP5233601B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
WO2012127845A1 (en) Robot control apparatus, robot control method, program, and recording medium
JP6572262B2 (ja) 教示位置修正装置および教示位置修正方法
EP2853356A1 (en) Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
KR101988937B1 (ko) 카메라와 로봇 핸드의 캘리브레이션 방법 및 장치
JP5523392B2 (ja) キャリブレーション装置及びキャリブレーション方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP5223407B2 (ja) 冗長ロボットの教示方法
JP4222338B2 (ja) 適応型ビジュアルフィードバック制御方法
JP6578671B2 (ja) ロボット、ロボットの制御方法、及びロボットの制御装置
US20220301209A1 (en) Device and method for training a neural network for controlling a robot
JP2021091070A (ja) ロボット制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 7003462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150