JP7062911B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP7062911B2
JP7062911B2 JP2017197296A JP2017197296A JP7062911B2 JP 7062911 B2 JP7062911 B2 JP 7062911B2 JP 2017197296 A JP2017197296 A JP 2017197296A JP 2017197296 A JP2017197296 A JP 2017197296A JP 7062911 B2 JP7062911 B2 JP 7062911B2
Authority
JP
Japan
Prior art keywords
camera
robot
calibration
work
work area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017197296A
Other languages
English (en)
Other versions
JP2019069493A (ja
JP2019069493A5 (ja
Inventor
智紀 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017197296A priority Critical patent/JP7062911B2/ja
Priority to EP18199584.6A priority patent/EP3470182B1/en
Priority to US16/155,994 priority patent/US11090810B2/en
Priority to CN201811179872.3A priority patent/CN109648605B/zh
Publication of JP2019069493A publication Critical patent/JP2019069493A/ja
Publication of JP2019069493A5 publication Critical patent/JP2019069493A5/ja
Application granted granted Critical
Publication of JP7062911B2 publication Critical patent/JP7062911B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints
    • B25J17/02Wrist joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットシステムのカメラの校正(キャリブレーション)に関するものである。
ロボットに高度な処理を行わせるために、ロボットにカメラを設置して眼の機能を持たせる場合がある。カメラの設置方法として、カメラをロボットアームとは独立して設置する方法と、カメラをロボットアームに設置する方法(「手先カメラ」と呼ぶ)とがある。
特許文献1には、手先カメラと、ロボットの外部に設置された外部カメラとを利用するロボットシステムが開示されている。この従来技術では、外部カメラの校正を行うために、複数の校正用の位置姿勢にロボットアームを移動させ、それぞれの位置姿勢において手先カメラと外部カメラの両方で校正用のマークを撮像し、その撮像結果を用いて外部カメラの校正を実行する。
特開2016-52695号公報
しかしながら、上記特許文献1に記載された技術では、ロボットアームの先端に手先カメラを設けることが必須とされており、ロボットアームの先端以外の場所にロボットカメラを設置した場合には適用することができないという問題がある。また、外部カメラの校正を行うために、手先カメラを複数の位置姿勢に設定する必要があるため、ロボットアームの動作を必須としており、この結果、校正にかなりの時間を要するという問題がある。そこで、特許文献1とは異なる方法で、外部カメラの校正を容易に行うことのできる技術が望まれている。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態(aspect)として実現することが可能である。
(1)本発明の第1の形態によれば、ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムが提供される。前記第2カメラは、前記ロボットアームを用いた作業を行う作業領域を前記第1カメラで監視する状態において、前記第1カメラの視野の範囲外となる校正位置を前記第2カメラで監視できるように設置されている。前記制御装置は、(a)前記作業領域における前記作業の実行前に、前記第1カメラによって前記校正位置を監視できるように前記ロボットの関節を駆動し、(b)前記校正位置に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、(c)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、(d)前記校正処理の実行後に、前記作業領域を前記第1カメラで監視しつつ前記作業領域における作業を実行するとともに、前記第2カメラの視野において前記第2カメラによる監視を行いつつ前記ロボットアームを用いた動作を実行する。
このロボットシステムによれば、作業領域における作業の開始前に、作業領域外の位置で第1カメラと第2カメラの両方で校正用パターンを撮像することによって第2カメラの校正を容易に実行できる。また、第2カメラの校正処理後、作業領域を第1カメラで監視しつつ作業を実行する際に、第2カメラの視野において第2カメラを用いた監視を行いつつ作業領域における作業とは異なる動作をロボットが行う場合に、校正済の第2カメラを用いてその動作を正確に監視することが可能である。
(2)上記ロボットシステムにおいて、前記ロボットの前記関節は、前記ロボットの基台に対して前記第1カメラを回動させることが可能なねじり関節であるものとしてもよい。
このロボットシステムによれば、作業作業における作業を第1カメラで監視する状態と、第2カメラの校正のために校正用パターンを第1カメラで撮像する状態とを、ねじり関節の動作のみで切り換えることができる。従って、作業領域における作業の開始前に、第2カメラの校正を容易に実行できる。
(3)上記ロボットシステムにおいて、前記第2カメラの視野は、前記作業領域における作業に使用する部品を供給する部品供給領域を含み、前記第2カメラの視野における前記ロボットアームを用いた動作は、前記部品を前記ロボットアームで拾い上げる動作であるものとしてもよい。
このロボットシステムによれば、作業領域とは別の位置において部品が供給される場合に、第1カメラでその部品を監視する必要が無く、第2カメラで部品を監視しつつロボットアームで部品を拾い上げることが可能である。
(4)本発明の第2の形態によれば、ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムが提供される。前記ロボットは、複数の作業領域の間を移動し、各作業領域において前記ロボットアームを用いた作業を行うことが可能に構成されている。前記第2カメラは、前記複数の作業領域をそれぞれ監視できるように設置された複数の第2カメラを含む。前記制御装置は、前記ロボットが移動して前記複数の作業領域のうちの1つの作業領域に前記ロボットが到達する度に、(a)当該作業領域に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、(b)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、(c)前記校正処理の実行後に、当該作業領域を前記第1カメラと前記第2カメラで監視しつつ当該作業領域における作業を実行する。
このロボットシステムによれば、複数の作業領域の個々の作業領域における作業の開始前に、第1カメラと第2カメラの両方で校正用パターンを撮像することによって第2カメラの校正を容易に実行できる。また、第2カメラの校正処理後、その作業領域を第1カメラと第2カメラの両方を用いて監視できるので、その作業領域における作業を正確に監視することが可能である。
(5)上記ロボットシステムにおいて、前記ロボットは、前記複数の作業領域以外の位置にも移動可能に構成されているものとしてもよい。
このロボットシステムによれば、移動の自由度が高いロボットを用いた場合にも、第2カメラの校正を容易に実行することが可能である。
(6)上記ロボットシステムにおいて、前記第1カメラは3Dカメラであり、前記第2カメラは2Dカメラであるものとしてもよい。
このロボットシステムによれば、第1カメラがステレオカメラのような3Dカメラなので、第2カメラが2Dカメラである場合にも、第2カメラの校正を正確に行うことが可能である。
(7)上記ロボットシステムにおいて、前記第1カメラは、前記ロボットの前記ロボットアームでない部位に設置されているものとしてもよい。
このロボットシステムによれば、ロボットの基台や筐体などのようなロボットアームでない部位に設置された第1カメラを利用して、第2カメラの校正を容易に行うことが可能である。
(8)上記ロボットシステムにおいて、前記第1カメラは、前記ロボットアームに設置されているものとしてもよい。
このロボットシステムによれば、ロボットアームでに設置された第1カメラを利用して、第2カメラの校正を容易に行うことが可能である。
(9)上記ロボットシステムにおいて、前記制御装置は、前記校正用パターンの撮像前に、前記第1カメラ及び前記第2カメラで前記校正用パターンを撮像できる位置に、前記ロボットアームを用いて前記校正用パターンを設置させるものとしてもよい。
このロボットシステムによれば、ロボットアームを用いて校正用パターンを設置するので、校正のために必要な場合にのみ校正用パターンを設置することができる。
(10)本発明の第3の形態によれば、ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムが提供される。前記制御装置は、プロセッサーを備える。前記第2カメラは、前記ロボットアームを用いた作業を行う作業領域を前記第1カメラで監視する状態において、前記第1カメラの視野の範囲外となる校正位置を前記第2カメラで監視できるように設置されている。前記プロセッサーは、(a)前記作業領域における前記作業の実行前に、前記第1カメラによって前記校正位置を監視できるように前記ロボットの関節を駆動し、(b)前記校正位置に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、(c)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、(d)前記校正処理の実行後に、前記作業領域を前記第1カメラで監視しつつ前記作業領域における作業を実行するとともに、前記第2カメラの視野において前記第2カメラによる監視を行いつつ前記ロボットアームを用いた動作を実行する。
このロボットシステムによれば、作業領域における作業の開始前に、作業領域外の位置で第1カメラと第2カメラの両方で校正用パターンを撮像することによって第2カメラの校正を容易に実行できる。また、第2カメラの校正処理後、作業領域を第1カメラで監視しつつ作業を実行する際に、第2カメラの視野において第2カメラを用いた監視を行いつつ作業領域における作業とは異なる動作をロボットが行う場合にも、校正済の第2カメラを用いてその動作を正確に監視することが可能である。
(11)本発明の第4の形態によれば、ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムが提供される。前記制御装置は、プロセッサーを備える。前記ロボットは、複数の作業領域の間を移動し、各作業領域において前記ロボットアームを用いた作業を行うことが可能に構成されている。前記第2カメラは、前記複数の作業領域をそれぞれ監視できるように設置された複数の第2カメラを含む。前記プロセッサーは、前記ロボットが移動して前記複数の作業領域のうちの1つの作業領域に前記ロボットが到達する度に、(a)当該作業領域に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、(b)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、(c)前記校正処理の実行後に、当該作業領域を前記第1カメラと前記第2カメラで監視しつつ当該作業領域における作業を実行する。
このロボットシステムによれば、複数の作業領域の個々の作業領域における作業の開始前に、第1カメラと第2カメラの両方で校正用パターンを撮像することによって第2カメラの校正を容易に実行できる。また、第2カメラの校正処理後、その作業領域を第1カメラと第2カメラの両方を用いて監視できるので、その作業領域における作業を正確に監視することが可能である。
本発明の更に他の形態によれば、ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムが提供される。前記第1カメラは予め校正済であり、その校正データである第1校正データは既知である。前記制御装置は、(i)校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、(ii)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行する。校正用パターンは、複数の校正用マーカーを含むことが好ましい。ロボットの第1カメラは、ロボットアームで無い部位、例えば、ロボットの頭部に設けられているものとしても良い。
このロボットシステムによれば、第2カメラと、予め校正済の第1カメラとの両方で校正用パターンを撮像することによって、第2カメラの校正を容易に実行できる。
本発明は、上記以外の種々の形態で実現することも可能である。例えば、ロボットシステムの制御装置、その制御装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
第1実施形態のロボットシステムの概念図。 複数のプロセッサーを有する制御装置の一例を示す概念図。 複数のプロセッサーを有する制御装置の他の例を示す概念図。 ロボットと制御装置の機能を示すブロック図。 第1実施形態のロボットの座標系を示す説明図。 ロボットが作業領域で作業を行う状態を示す説明図。 第2カメラの校正を行う状態を示す説明図。 校正用パターンの一例を示す図。 第1実施形態における校正処理の手順を示すフローチャート。 第2実施形態のロボットシステムの概念図。 第1作業領域において第2カメラの校正を行う状態を示す説明図。 第2作業領域において第2カメラの校正を行う状態を示す説明図。 第2実施形態における校正処理の手順を示すフローチャート。
A. 第1実施形態
図1は、第1実施形態におけるロボットシステムの概念図である。このロボットシステムは、ロボット100と、制御装置200と、ロボット100とは別個に設置された外部カメラ300とを備えている。このロボット100は、カメラで作業対象を認識し、自在に力を加減して、自律的に判断しながら作業を行える自律型ロボットである。また、ロボット100は、予め作成された教示データに従って作業を実行するティーチングプレイバックロボットとして動作することも可能である。
ロボット100は、基台110と、胴部120と、肩部130と、首部140と、頭部150と、2つのロボットアーム160L,160Rとを備えている。ロボットアーム160L,160Rには、ハンド180L,180Rが着脱可能に取り付けられている。これらのハンド180L,180Rは、ワークや道具を把持するエンドエフェクターである。頭部150には、カメラ170L,170Rが設置されている。これらのカメラ170L,170Rは、ロボットアーム160L,160Rとは独立して設けられている。ロボットアーム160L,160Rの手首部には、手先カメラとしてのハンドアイ175L,175Rが設けられている。
以下では、頭部150に設けられたカメラ170L,170Rを「ロボットカメラ」又は「第1カメラ170」とも呼ぶ。また、ロボット100とは別個に設置された外部カメラ300を「第2カメラ」とも呼ぶ。本実施形態において、ロボットカメラ170はステレオカメラのような3Dカメラ(3次元カメラ)として構成されており、外部カメラ300は2Dカメラ(2次元カメラ)として構成されている。なお、外部カメラ300を3Dカメラとして構成してもよい。
ロボットアーム160L,160Rの手首部には、更に、力センサー190L,190Rが設けられている。力センサー190L,190Rは、ハンド180L,180Rがワークに及ぼしている力に対する反力やモーメントを検出するセンサーである。力センサー190L,190Rとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力センサーを用いることができる。なお、力センサー190L,190Rは省略可能である。
ロボットアーム160L,160Rと、ロボットカメラ170L,170Rと、ハンドアイ175L、175Rと、ハンド180L,180Rと、力センサー190L,190Rの符号の末尾に付された「L」「R」の文字は、それぞれ「左」「右」を意味する。これらの区別が不要の場合には、「L」「R」の文字を省略した符号を使用して説明する。
制御装置200は、プロセッサー210と、メインメモリー220と、不揮発性メモリー230と、表示制御部240と、表示部250と、I/Oインターフェース260とを有している。これらの各部は、バスを介して接続されている。プロセッサー210は、例えばマイクロプロセッサー又はプロセッサー回路である。制御装置200は、I/Oインターフェース260を介してロボット100及び第2カメラ300に接続される。なお、制御装置200をロボット100の内部に収納してもよい。
制御装置200の構成としては、図1に示した構成以外の種々の構成を採用することが可能である。例えば、プロセッサー210とメインメモリー220を図1の制御装置200から削除し、この制御装置200と通信可能に接続された他の装置にプロセッサー210とメインメモリー220を設けるようにしてもよい。この場合には、当該他の装置と制御装置200とを合わせた装置全体が、ロボット100の制御装置として機能する。他の実施形態では、制御装置200は、2つ以上のプロセッサー210を有していてもよい。更に他の実施形態では、制御装置200は、互いに通信可能に接続された複数の装置によって実現されていてもよい。これらの各種の実施形態において、制御装置200は、1つ以上のプロセッサー210を備える装置又は装置群として構成される。
図2は、複数のプロセッサーによってロボットの制御装置が構成される一例を示す概念図である。この例では、ロボット100及びその制御装置200の他に、パーソナルコンピューター400,410と、LANなどのネットワーク環境を介して提供されるクラウドサービス500とが描かれている。パーソナルコンピューター400,410は、それぞれプロセッサーとメモリーとを含んでいる。また、クラウドサービス500においてもプロセッサーとメモリーを利用可能である。これらの複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図3は、複数のプロセッサーによってロボットの制御装置が構成される他の例を示す概念図である。この例では、ロボット100の制御装置200が、ロボット100の中に格納されている点が図2と異なる。この例においても、複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図4は、ロボット100と制御装置200の機能を示すブロック図である。制御装置200のプロセッサー210は、不揮発性メモリー230に予め格納された各種のプログラム命令231を実行することにより、関節制御部211と、カメラ制御部212と、カメラ校正実行部213との機能をそれぞれ実現する。関節制御部211は、ロボット100内の個々の関節に設けられたモーター162を制御することによって、関節を駆動する。カメラ制御部212は、ロボットカメラ170と外部カメラ300をそれぞれ制御して撮像を実行させる。カメラ校正実行部213は、外部カメラ300の校正処理を実行する機能を有しており、変換行列推定部214を含んでいる。但し、これらの各部211~214の機能の一部又は全部をハ―ドウェア回路で実現しても良い。これらの各部211~214の機能については後述する。
不揮発性メモリー230には、プログラム命令231の他に、ロボットカメラパラメーター232と外部カメラパラメーター233とが格納される。ロボットカメラパラメーター232は、ロボットカメラ170の校正データであり、ロボットカメラ170のカメラ座標系と、ロボット座標系との座標変換を行うための種々のパラメーターを含む。外部カメラパラメーター233は、外部カメラ300の校正データであり、外部カメラ300のカメラ座標系と、ロボット座標系との座標変換を行うための種々のパラメーターを含む。ロボットカメラパラメーター232は、既知であり、予め不揮発性メモリー230に格納されている。外部カメラパラメーター233は、後述する校正処理を実行することによって作成される。
図5は、ロボット100のロボットアーム160の構成と各種の座標系を示す説明図である。2つのアーム160L,160Rのそれぞれには、7つの関節J1~J7が設けられている。関節J1,J3,J5,J7はねじり関節であり、関節J2,J4,J6は曲げ関節である。関節J0は、図1の胴部120と肩部130の間に設けられたねじり関節である。この関節J0は、ロボット100の基台110に対してロボットカメラ170を回動させることが可能なねじり関節に相当する。個々の関節には、それらを動作させるためのアクチュエーター(図4のモーター162)と、回転角度を検出するための位置検出器とが設けられている。
アーム160の手先には、ツール中心点TCP(Tool Center Point)が設定されている。ツール中心点TCPは、作業内容に応じて任意の位置に設定可能である。通常のロボット100の制御は、ツール中心点TCPの位置姿勢を制御するために実行される。なお、位置姿勢(position and orientation)とは、3次元の座標系における3つ座標値と、各座標軸回りの回転とで規定される状態を意味する。
図5には、ロボットシステムに関する座標系として、以下の座標系が描かれている。
(1)ロボット座標系Σ0:ロボット100の基準点を座標原点とする座標系
(2)手先座標系ΣT1,ΣT2:アーム160L,160RのTCP(ツール中心点)を座標原点とする座標系
(3)ロボットカメラ座標系ΣRC:ロボットカメラ170の所定の位置を座標原点とする座標系
(4)外部カメラ座標系ΣFC:外部カメラ300の2次元画像の画像座標系
本実施形態において、外部カメラ座標系ΣFC以外の座標系については、予め校正済であり、互いの座標変換行列が既知であるものと仮定する。また、外部カメラ座標系ΣFCと他の座標系との関係は未知であるものと仮定する。なお、図5では、図示の便宜上、個々の座標系の原点が実際の位置からずれた位置に描かれている。
図6は、ロボット100が作業領域で作業を行う状態の平面配置を示す説明図である。ここでは、ロボットアームの図示は省略しており、ロボット100の構造として基台110とロボットカメラ170のみを描いている。また、関節J0の回動に応じてロボットカメラ170が移動する軌跡を破線で描いている。
ロボットカメラ170の視野RCVは、作業領域WKAを包含する領域である。ロボット100は、この作業領域WKA内において2つのロボットアーム160L,160Rを用いて特定の作業を行う。特定の作業は、例えば、部品の組み立てである。
ロボット100の右側には、部品供給領域PFAが設定されている。この部品供給領域PFAは、作業領域WKAとは異なる領域である。部品供給領域PFAは、作業領域WKAと一部重なっていても良いが、図6の例では、両者が全く重なり合わないように設定されている。部品供給領域PFAに隣接する位置には、部品供給領域PFAに部品PPを供給するためのパーツフィーダー320が設置されている。ロボット100は、部品供給領域PFA内に供給された部品PPを、右アーム160Rを用いて拾い上げることができる。外部カメラ300の視野FCVは、部品供給領域PFAを包含する領域に設定されている。外部カメラ300は、常に同一の視野FCVを監視できるように、その位置と姿勢が予め固定されていることが好ましい。
ロボット100が作業領域WKAで作業を行っている状態では、ロボットカメラ170は部品供給領域PFAを監視できないが、外部カメラ300で部品供給領域PFAを監視することが可能である。ロボット100が作業領域WKAにおいて2つのアーム160L,160Rを用いて特定の作業を行っている状態で、新たな部品PPが必要になったときには、関節J0を動かすことなく、1つのアーム160Rのみを用いて部品PPを部品供給領域PFAから拾い上げて作業領域WKAまで持ってくることができる。この際、部品供給領域PFAは外部カメラ300で監視しているので、ロボットカメラ170でその部品PPを監視する必要が無く、新たな部品PPをアーム160Rで正しく拾い上げることが可能である。
図7は、外部カメラ300の校正を行う状態を示す説明図である。この状態は、図6に示した作業状態から関節J0を回転させて、ロボットカメラ170の視野(図示省略)と外部カメラ300の視野FCVが重なる状態である。2つのカメラ170,300の視野が重なる位置には、外部カメラ300の校正に用いる校正用パターン330が設置される。校正用パターン330の例については後述する。この校正用パターン330が設置される位置を「校正位置」と呼ぶ。本実施形態において、校正用パターン330が設置される校正位置は、ロボット100が作業領域WKAで作業を行う状態においてロボットカメラ170の視野の範囲外となる位置であり、かつ、外部カメラ300で監視可能な位置である。
図8は、校正用パターン330の一例を示す図である。校正用パターン330は、カメラ校正に使用される複数の校正用マーカーCMを含んでいる。図8の例では、平板状の校正用ボードの上に9個の校正用マーカーCMが描かれている。また、この例では、個々の校正用マーカーCMは、黒白の多重の円で構成されており、その中心点が校正用マーカーCMの位置として認識される。但し、校正用マーカーCMの形状としては、単なる円形や正方形などの種々の形状を使用可能である。また、図8の例では、校正用マーカーCMの外に、個々の校正用マーカーCMを識別する番号を表すマークNMや、校正用パターン330全体の外周位置を示すための4つのマークBMが表示されている。但し、校正用マーカーCM以外の他のマークは省略可能である。この校正用パターン330は、複数の校正用マーカーCMを含んでいるので、外部カメラ300の校正のために校正用パターン330を複数の位置に設置して撮像を行う必要が無く、1回の撮像で済むという利点がある。
図9は、第1実施形態における外部カメラ300の校正処理の手順を示すフローチャートである。この校正処理は、作業領域WKAにおける作業の開始前に、カメラ校正実行部213(図4)によって行われる。ステップS110では、ロボット100の状態を、ロボットカメラ170が校正位置を監視できる状態(図7)に設定する。ステップS120では、校正位置に校正用パターン330を設置する。校正用パターン330を校正位置に設置する動作は、作業者が行っても良く、或いは、ロボット100のアーム160が行っても良い。アーム160を用いて校正用パターン330を設置すれば、校正のために必要な場合にのみ校正用パターン330を自動的に設置することができる。
ステップS130では、ロボットカメラ170と外部カメラ300で校正用パターン330をそれぞれ撮像し、校正用パターン330のパターン画像をそれぞれ取得する。このパターン画像は、図8に示した校正用パターン330の画像そのものである。
ステップS140では、ロボットカメラ170で撮像されたパターン画像から、複数の校正用マーカーCMの位置を推定する。本実施形態において、ロボットカメラ170は3Dカメラなので、ロボットカメラ170で撮像されたパターン画像から、ロボットカメラ座標系ΣRC(図5)における校正用マーカーCMの3次元的な位置を推定できる。また、ロボットカメラ170は校正済みであり、ロボットカメラパラメーター232にはロボットカメラ座標系ΣRCとロボット座標系Σ0との座標変換行列が含まれている。従って、ステップS140では、この座標変換行列を用いて校正用マーカーCMのロボット座標系Σ0における3次元位置が算出される。
ステップS150では、外部カメラ300で撮像されたパターン画像から、複数の校正用マーカーCMの位置をそれぞれ検出する。本実施形態において、外部カメラ300は2Dカメラなので、外部カメラ300で撮像されたパターン画像からは、外部カメラ座標系ΣFC(図5)における校正用マーカーCMの2次元的な位置が検出される。
ステップS160では、ステップS140,S150で得られた複数の校正用パターンCMの位置と、ロボットカメラ170の既知の校正データ(ロボットカメラパラメーター232)とを用いて、外部カメラ300の校正データ(外部カメラパラメーター233)を求める処理を実行する。なお、この校正処理では、ステップS140で求めた校正用マーカーCMの位置と、ステップS150で求めた校正用マーカーCMの位置を対応付ける必要がある。図8に示した例では、校正用パターン330に、個々の校正用マーカーCMを識別する番号を表すマークNMが含まれているので、このマークNMを用いて対応付けを行うことが可能である。この代わりに、作業者が手動で対応付を行っても良い。但し、個々の校正用マーカーCMを識別する番号を表すマークNMを校正用パターン330内に設けておけば、対応付けを自動的に行える点で好ましい。
校正データを求める処理は、次式における座標変換行列Rを推定する処理を含む。
Figure 0007062911000001
ここで、Σ0(x,y,z)はロボット座標系Σ0の3次元座標値、ΣFC(u,v)は外部カメラ座標系ΣFCの2次元座標値である。
座標変換行列Rは、いわゆるP行列の疑似逆行列である。P行列は、通常のカメラの校正で推定される行列であり、3次元空間の座標を2次元の画像座標に変換する行列である。(1)式の座標変換行列Rの要素を記載すると、次式となる。
Figure 0007062911000002
ここで、kはスケールファクター(既知)である。なお、スケールファクターkを行列Rの要素Rijに乗じて、k=1としても良い。
通常のP行列と同様に、座標変換行列Rの自由度は11であり、6組以上の測定結果から行列Rを推定できる。従って、校正用パターン330は6個以上の校正用マーカーCMを含むことが好ましい。なお、このような座標変換行列Rの推定は、変換行列推定部214(図4)によって実行される。外部カメラ300が3Dカメラである場合には、座標変換行列Rは4行4列の同次変換行列となる。
ロボット座標系Σ0のxy平面と外部カメラ座標系ΣFCのuv平面とが平行な場合には、座標変換行列Rの演算がより簡単であり、演算精度も向上するので、両者を平行とすることが好ましい。
外部カメラ300の校正が終了すると、ステップS170において、外部カメラ300とロボットカメラ170を用いて作業が実行される。具体的には、関節J0を回転させて図7の状態から図6の状態に変更し、ロボット100が作業領域WKAにおいて2つのアーム160L,160Rを用いて特定の作業を行い、新たな部品PPが必要になったときには、関節J0を動かすことなく、1つのアーム160Rのみを用いて部品PPを部品供給領域PFAから拾い上げて作業領域WKAまで持ってくる。この際、部品供給領域PFAは外部カメラ300で監視しているので、新たな部品PPをアーム160Rで正しく拾い上げることが可能である。
以上のように、第1実施形態では、作業領域WKAにおける作業の開始前に、作業領域WKA外の位置でロボットカメラ170と外部カメラ300の両方で校正用パターン330を撮像することによって外部カメラ300の校正を容易に実行できる。また、外部カメラ300の校正処理後、作業領域WKAをロボットカメラ170で監視しつつ作業を実行する際に、外部カメラ300の視野において外部カメラ300を用いた監視を行いつつ作業領域WKAにおける作業とは異なる動作をロボット100が行う場合に、校正済の外部カメラ300を用いてその動作を正確に監視することが可能である。
また、第1実施形態では、作業領域WKAにおける作業をロボットカメラ170で監視する状態(図6)と、外部カメラ300の校正のために校正用パターン330をロボットカメラ170で撮像する状態(図7)とを、ねじり関節J0の動作のみで切り換えることができる。従って、作業領域WKAにおける作業の開始前に、外部カメラ300の校正を容易に実行することが可能である。
B. 第2実施形態
図10は、第2実施形態のロボットシステムの概念図である。図1に示した第1実施形態との違いは、ロボット100が無人搬送車340上に載置されて自由走行が可能である点と、2つの外部カメラ301,302が設置されている点の2点である。ロボット100自体の構成は第1実施形態と同一である。無人搬送車340と外部カメラ301,302は、制御装置200(図1)に接続されており、制御装置200によって制御される。
図11及び図12は、第2実施形態におけるロボット100と作業領域との関係を示す説明図である。ここでは、第1作業領域WKA1と第2作業領域WKA2の2つの作業領域が設定されている。第1の外部カメラ301は、第1作業領域WKA1を包含する視野を有しており、第1作業領域WKA1を監視する。第2の外部カメラ302は、第2作業領域WKA2を包含する視野を有しており、第2作業領域WKA2を監視する。ロボット100が個々の作業領域WKA1,WKA2で作業を行う際には、無人搬送車340によってロボット100をその作業領域の前に移動させる。2つの作業領域WKA1,WKA2は、1つの外部カメラ301(又は302)や1組のロボットカメラ170では両方の作業領域WKA1,WKA2を同時に監視できない程度に離間している。なお、ロボット100が作業を行う作業領域の数は、2に限らず、3以上に設定することも可能である。
個々の作業領域WKA1,WKA2の近傍には、校正用パターン331,332がそれぞれ設置されている。第1の校正用パターン331は、第1の外部カメラ301を校正するために使用される。第2の校正用パターン332は、第2の外部カメラ302を校正するために使用される。これらの校正用パターン331,332は、図8に示した校正用パターン330と同じものである。なお、2つの校正用パターン331,332を用いる代わりに、1つの校正用パターン330を用いて2つの外部カメラ301,302の校正を行っても良い。この場合には、1つの外部カメラ301又は302の校正を行うときに、その近傍に校正用パターン330が配置される。
個々の作業領域WKA1,WKA2に隣接する位置には、更に、パーツフィーダー321,322が設置されている。但し、パーツフィーダー321,322は省略可能である。
図11に示す状態は、第1作業領域において第1の外部カメラ301の校正を行う状態である。図12は、第2作業領域において第2の外部カメラ302の校正を行う状態である。制御装置200は、ロボット100が移動して複数の作業領域WKA1,WKA2のうちの1つの作業領域にロボット100が到達する度に、以下で説明する外部カメラ301又は302の校正処理を実行する。
図13は、第2実施形態における外部カメラ301,302の校正処理の手順を示すフローチャートである。図9に示した第1実施形態の処理手順との違いは、ステップS210のみであり、他のステップは図9と実質的に同じである。
ステップS210では、ロボット100が一方の作業領域WKA1又はWKA2の前の作業位置に移動する。ステップS120では、校正位置に校正用パターン331又は332を設置する。図11及び図12に示したように、2つの作業領域WKA1,WKA2の近傍に校正用パターン331,332が予め設置されている場合には、ステップS120は省略可能である。この代わりに、校正用パターン331又は332を校正位置に設置する動作を作業者が行っても良く、或いは、ロボット100のアーム160が行っても良い。アーム160を用いて校正用パターン331又は332を設置すれば、校正のために必要な場合にのみ校正用パターンを自動的に設置することができる。
ステップS130~S170の処理は、図9で説明した処理と同じである。但し、ステップS170では、関節J0を回転させることなく、外部カメラ301又は302の校正を行った状態と同じ状態で、校正した外部カメラ301又は302とロボットカメラ170を用いて作業が実行される。すなわち、ロボット100が移動して複数の作業領域WKA1,WKA2のうちの1つの作業領域にロボット100が到達する度に、その作業領域を監視する外部カメラ301又は302の校正処理が実行され、校正処理が終了すると作業が開始される。
以上のように、第2実施形態では、複数の作業領域WKA1,WKA2の個々の作業領域における作業の開始前に、ロボットカメラ170と外部カメラ301(又は302)の両方で校正用パターン331(又は332)を撮像することによって外部カメラ301(又は302)の校正を容易に実行できる。また、外部カメラ301(又は302)の校正処理後、その作業領域をロボットカメラ170と外部カメラ301(又は302)の両方を用いて監視できるので、その作業領域における作業を正確に監視することが可能である。例えば、ロボット100の作業中において、ロボットカメラ170の視野の一部がロボットアーム160で遮蔽されてしまい、ロボットカメラ170によって部品やワークを監視できない状態となる可能性がある。このような場合にも、外部カメラ301(又は302)を用いて作業領域を監視しているので、部品やワークの監視をより確実に行うことが可能である。
なお、第2実施形態において、ロボット100の移動手段として無人搬送車340を利用したが、無人搬送車340以外の移動手段でロボット100を移動させるようにしてもよい。例えば、ロボット100の基台110に移動手段を設けるようにしてもよい。これらの場合にも、ロボット100が、複数の作業領域の手前の作業位置以外の位置に移動できるように移動手段が構成されていることが好ましい。この場合にも、移動の自由度が高いロボット100を用いて、外部カメラの校正を容易に実行することが可能である。
C. 他の実施形態
上述した実施形態では、ロボットカメラとして、ロボット100の頭部150に設けられたカメラ170を用いていたが、これ以外の部位にロボットカメラを設けてもよい。例えば、ロボットアーム160でない部位に設置されたカメラをロボットカメラとして用いて、外部カメラの校正を行っても良い。こうすれば、ロボット100の基台110や筐体などのようなロボットアーム160でない部位に設置されたカメラを利用して、外部カメラの校正を容易に行うことが可能である。あるいは、ロボットアーム160に設置されたカメラ(ハンドアイ175)をロボットカメラとして用いて、外部カメラの校正を行っても良い。これらのいずれの場合にも、ロボットカメラとして3Dカメラとして構成できるものを使用すれば、外部カメラの校正処理がより容易である。
また、上述した実施形態では、2つのアーム160R,160Lを有する双腕ロボットを使用したが、1つのアームを有するロボットを使用することも可能である。また、ロボットの関節の数や種類は任意に変更可能である。
更に、上述した実施形態では、1つの校正用パターンに外部カメラの校正に必要な複数の校正用マーカーCMがすべて含まれているが、複数の校正用マーカーCMが複数の校正用パターンに分かれて配置されていてもよい。この場合には、複数の校正用パターンがロボットカメラと外部カメラの両方で撮像される。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
100…ロボット、110…基台、120…胴部、130…肩部、140…首部、150…頭部、160,160L,160R…アーム(ロボットアーム)、162…モーター、170,170L,170R…カメラ(ロボットカメラ,第2カメラ)、175,175L,175R…ハンドアイ、180L,180R…ハンド、190L,190R…力センサー、200…制御装置、210…プロセッサー、211…関節制御部、212…カメラ制御部、213…カメラ校正実行部、214…変換行列推定部、220…メインメモリー、230…不揮発性メモリー、231…プログラム命令、232…ロボットカメラパラメーター、233…外部カメラパラメーター、240…表示制御部、250…表示部、260…I/Oインターフェース、300,301,302…外部カメラ(第2カメラ)、320,321,322…パーツフィーダー、330,331,332…校正用パターン、340…無人搬送車、400,410…パーソナルコンピューター、500…クラウドサービス

Claims (7)

  1. ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムであって、
    前記第2カメラは、前記ロボットアームを用いた作業を行う作業領域を前記第1カメラで監視する状態において、前記第1カメラの視野の範囲外となる校正位置を前記第2カメラで監視できるように設置されており、
    前記制御装置は、
    (a)前記作業領域における前記作業の実行前に、前記第1カメラによって前記校正位置を監視できるように前記ロボットの関節を駆動し、
    (b)前記校正位置に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、
    (c)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、
    (d)前記校正処理の実行後に、前記作業領域を前記第1カメラで監視しつつ前記作業領域における作業を実行するとともに、前記第2カメラの視野において前記第2カメラによる監視を行いつつ前記ロボットアームを用いた動作を実行する、
    ロボットシステム。
  2. 請求項1に記載のロボットシステムであって、
    前記ロボットの前記関節は、前記ロボットの基台に対して前記第1カメラを回動させることが可能なねじり関節である、ロボットシステム。
  3. 請求項1又は2に記載のロボットシステムであって、
    前記作業領域と、前記第2カメラの監視対象となる領域とが、重なり合わないように設定されている、ロボットシステム。
  4. ロボットアームと第1カメラとを有するロボットと、前記ロボットとは別個に設置された第2カメラと、前記ロボットと前記第2カメラとを制御する制御装置と、を備えるロボットシステムであって、
    前記ロボットは、複数の作業領域の間を移動し、各作業領域において前記ロボットアームを用いた作業を行うことが可能に構成されており、
    前記第2カメラは、前記複数の作業領域をそれぞれ監視できるように設置された複数の第2カメラを含み、
    前記制御装置は、前記ロボットが移動して前記複数の作業領域のうちの1つの作業領域に前記ロボットが到達する度に、
    (a)当該作業領域に設置された校正用パターンを前記第1カメラ及び前記第2カメラでそれぞれ撮像して前記校正用パターンのパターン画像をそれぞれ取得し、
    (b)前記第1カメラ及び前記第2カメラでそれぞれ撮像した前記パターン画像と、前記第1カメラに対する既知の校正データである第1校正データとを用いて、前記第2カメラの校正データである第2校正データを求める校正処理を実行し、
    (c)前記校正処理の実行後に、当該作業領域を前記第1カメラと前記第2カメラで監視しつつ当該作業領域における作業を実行する、
    ロボットシステム。
  5. 請求項1~4のいずれか一項に記載のロボットシステムであって、
    前記第1カメラは3Dカメラであり、
    前記第2カメラは2Dカメラである、
    ロボットシステム。
  6. 請求項1~5のいずれか一項に記載のロボットシステムであって、
    前記第1カメラは、前記ロボットアームに設置されている、ロボットシステム。
  7. 請求項1~6のいずれか一項に記載のロボットシステムであって、
    前記制御装置は、前記校正用パターンの撮像前に、前記第1カメラ及び前記第2カメラで前記校正用パターンを撮像できる位置に、前記ロボットアームを用いて前記校正用パターンを設置させる、ロボットシステム。
JP2017197296A 2017-10-11 2017-10-11 ロボットシステム Active JP7062911B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017197296A JP7062911B2 (ja) 2017-10-11 2017-10-11 ロボットシステム
EP18199584.6A EP3470182B1 (en) 2017-10-11 2018-10-10 Robot system
US16/155,994 US11090810B2 (en) 2017-10-11 2018-10-10 Robot system
CN201811179872.3A CN109648605B (zh) 2017-10-11 2018-10-10 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017197296A JP7062911B2 (ja) 2017-10-11 2017-10-11 ロボットシステム

Publications (3)

Publication Number Publication Date
JP2019069493A JP2019069493A (ja) 2019-05-09
JP2019069493A5 JP2019069493A5 (ja) 2020-11-05
JP7062911B2 true JP7062911B2 (ja) 2022-05-09

Family

ID=63832320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017197296A Active JP7062911B2 (ja) 2017-10-11 2017-10-11 ロボットシステム

Country Status (4)

Country Link
US (1) US11090810B2 (ja)
EP (1) EP3470182B1 (ja)
JP (1) JP7062911B2 (ja)
CN (1) CN109648605B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6886620B2 (ja) * 2017-08-09 2021-06-16 オムロン株式会社 キャリブレーション方法、キャリブレーションシステム及びプログラム
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN110102490B (zh) * 2019-05-23 2021-06-01 北京阿丘机器人科技有限公司 基于视觉技术的流水线包裹分拣装置和电子设备
KR102283022B1 (ko) * 2019-06-07 2021-07-28 엘지전자 주식회사 외부 영상에 기반한 로봇의 주행 방법과, 이를 구현하는 로봇 및 서버
TWI749376B (zh) * 2019-10-02 2021-12-11 達明機器人股份有限公司 3d相機的校正方法
US11418771B1 (en) 2021-01-31 2022-08-16 Techman Robot Inc. Method for calibrating 3D camera by employing calibrated 2D camera
US11738464B2 (en) 2021-03-24 2023-08-29 International Business Machines Corporation Robotic geometric camera calibration and monitoring alert configuration and testing
US20230092863A1 (en) * 2021-09-17 2023-03-23 GM Global Technology Operations LLC Calibration system comprising an end effector with an adjustable member and a measurement instrument for determining a location of the adjustable member, and a method of operating the same

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145470A (ja) 2001-11-08 2003-05-20 Toshiro Higuchi マイクロマニピュレータ操作制御装置、マイクロマニピュレータ操作制御方法およびマイクロマニピュレータ操作制御プログラム
JP2009172718A (ja) 2008-01-24 2009-08-06 Canon Inc 作業装置及びその校正方法
JP2009279663A (ja) 2008-05-19 2009-12-03 Kawada Kogyo Kk ロボット用位置同定方法および装置
JP2011033497A (ja) 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2015089575A (ja) 2013-11-05 2015-05-11 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム及び制御方法
JP2015182144A (ja) 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法
JP2015208789A (ja) 2014-04-24 2015-11-24 トヨタ自動車株式会社 動作制限装置及び動作制限方法
JP2016052695A (ja) 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016190292A (ja) 2015-03-31 2016-11-10 セイコーエプソン株式会社 ロボット制御装置、ロボットシステムおよびロボット制御方法
JP2017074631A (ja) 2015-10-13 2017-04-20 富士電機株式会社 製造システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3556589B2 (ja) 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP5725708B2 (ja) * 2009-12-24 2015-05-27 キヤノン株式会社 センサ位置姿勢計測方法
US9193073B1 (en) * 2014-10-15 2015-11-24 Quanta Storage Inc. Robot calibration apparatus for calibrating a robot arm
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145470A (ja) 2001-11-08 2003-05-20 Toshiro Higuchi マイクロマニピュレータ操作制御装置、マイクロマニピュレータ操作制御方法およびマイクロマニピュレータ操作制御プログラム
JP2009172718A (ja) 2008-01-24 2009-08-06 Canon Inc 作業装置及びその校正方法
JP2009279663A (ja) 2008-05-19 2009-12-03 Kawada Kogyo Kk ロボット用位置同定方法および装置
JP2011033497A (ja) 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2015089575A (ja) 2013-11-05 2015-05-11 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム及び制御方法
JP2015182144A (ja) 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法
JP2015208789A (ja) 2014-04-24 2015-11-24 トヨタ自動車株式会社 動作制限装置及び動作制限方法
JP2016052695A (ja) 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016190292A (ja) 2015-03-31 2016-11-10 セイコーエプソン株式会社 ロボット制御装置、ロボットシステムおよびロボット制御方法
JP2017074631A (ja) 2015-10-13 2017-04-20 富士電機株式会社 製造システム

Also Published As

Publication number Publication date
EP3470182A2 (en) 2019-04-17
EP3470182B1 (en) 2021-03-10
CN109648605B (zh) 2023-03-21
US11090810B2 (en) 2021-08-17
EP3470182A3 (en) 2019-05-15
US20190105781A1 (en) 2019-04-11
JP2019069493A (ja) 2019-05-09
CN109648605A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
JP7062911B2 (ja) ロボットシステム
CN109227601B (zh) 控制装置、机器人、机器人系统及校正方法
CN109227532B (zh) 机器人的控制装置及其系统、机器人及摄像机的校正方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US11247340B2 (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP5606241B2 (ja) 人間型ロボットのための視覚認知システムおよび方法
US10052765B2 (en) Robot system having augmented reality-compatible display
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9884425B2 (en) Robot, robot control device, and robotic system
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP7035657B2 (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2011011321A (ja) ロボットシステム及びロボットシステムのキャリブレーション方法
JP6897396B2 (ja) 制御装置、ロボットシステムおよび制御方法
JP2014161950A (ja) ロボットシステム、ロボット制御方法、ロボット較正方法
JP7358747B2 (ja) ロボットシステム
US20190037204A1 (en) Calibration method and calibration tool of camera
US11759955B2 (en) Calibration method
JP7481432B2 (ja) ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
CN114939865B (zh) 校准方法
WO2021210514A1 (ja) ロボットの制御装置及び制御方法、ロボットシステム、ロボットの動作プログラムを生成する装置及び方法
JP2024057302A (ja) 位置関係特定方法およびロボットシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7062911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150