JP6565175B2 - ロボットおよびロボットシステム - Google Patents

ロボットおよびロボットシステム Download PDF

Info

Publication number
JP6565175B2
JP6565175B2 JP2014236299A JP2014236299A JP6565175B2 JP 6565175 B2 JP6565175 B2 JP 6565175B2 JP 2014236299 A JP2014236299 A JP 2014236299A JP 2014236299 A JP2014236299 A JP 2014236299A JP 6565175 B2 JP6565175 B2 JP 6565175B2
Authority
JP
Japan
Prior art keywords
imaging unit
marker
robot
coordinate system
target value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014236299A
Other languages
English (en)
Other versions
JP2016097474A (ja
Inventor
篤 原田
篤 原田
如洋 山口
如洋 山口
太郎 石毛
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014236299A priority Critical patent/JP6565175B2/ja
Priority to CN201580049974.1A priority patent/CN107073719B/zh
Priority to EP15861922.1A priority patent/EP3221095B1/en
Priority to US15/514,666 priority patent/US10525597B2/en
Priority to PCT/JP2015/005678 priority patent/WO2016079967A1/en
Priority to TW104138100A priority patent/TWI670153B/zh
Publication of JP2016097474A publication Critical patent/JP2016097474A/ja
Application granted granted Critical
Publication of JP6565175B2 publication Critical patent/JP6565175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットおよびロボットシステムに関する。
従来、ロボットビジョンを用いてロボットを制御するにあたっては、ロボット座標系と
撮像部の座標系とを校正する処理が必要になる。校正時には、ロボット設置空間内の基準
点の位置をロボット座標系と撮像部の座標系のそれぞれで特定し、一方の座標系で表され
た基準点の位置を、他方の座標系で表された基準点の位置に変換するための行列式が求め
られる。特許文献1に記載された技術によると、3つの基準点を触るようにアームを動か
すことによってロボット座標系で基準点を教示し、その後、アームによって所定位置に移
動させた撮像部によって基準点を示すマーカーを撮像し、基準点を撮像部の座標系で検出
することによって、校正が行われる。
特開平8−210816号公報
特許文献1に記載された技術によると、3つの基準点を触るようにアームをオペレータ
ーが操作することによって基準点の位置を教示する必要がある。しかし、アームが基準点
に触わるか触らないかの境界の状態を目視で特定しながら、アームを正確に操作すること
は容易ではない。すなわち特許文献1に記載された技術では、基準点の位置を正確に教示
することは容易ではないという問題がある。そして、複数の基準点の位置を正確に教示し
ながら校正を行うとすれば、校正に要する所要時間が長引くという問題があり、校正対象
のロボットが増えるほど、この問題は深刻になる。
本発明は、これらの問題を解決するために創作されたものであって、撮像部の座標系と
ロボットの座標系の校正を容易にすることを目的の一つとする。
上記目的を達成するためのロボットは、校正開始指示を受け付ける指示受付部と、前記
校正開始指示が受け付けられると、基準点を示すマーカーと撮像部との位置関係を変化さ
せるアームと、を備え、前記撮像部と前記マーカーの位置関係が変化した後に前記撮像部
によって前記マーカーが撮像された画像に基づいて、前記撮像部の座標系とロボットの座
標系との校正が行われる。
また上記目的を達成するためのロボットは、3つ以上の基準点を示すマーカーと撮像部
との位置関係を、前記3つ以上の基準点を含む平面と前記撮像部の光軸とが垂直な第一状
態、前記撮像部が前記3つ以上の基準点の少なくともいずれかを示す前記マーカーに合焦
する第二状態、前記撮像部の光軸が前記平面上の第一点を通る第三状態、前記撮像部の光
軸が前記平面上の第二点を通る第四状態、前記撮像部の光軸が前記平面上の第三点を通る
第五状態、の少なくともいずれかに自動で変化させるアームを備え、前記第三状態、前記
第四状態および前記第五状態において前記撮像部によって前記マーカーが撮像された画像
に基づいて前記撮像部の座標系とロボットの座標系との校正が行われる。
これらの発明によると、撮像部とマーカーの位置関係を、撮像部の座標系とロボットの
座標系とを校正するために必要な画像を撮像できる状態に、校正開始指示によって変化さ
せることができる。したがって撮像部の座標系とロボットの座標系の校正が容易である。
ここで、校正開始指示は、撮像部の座標系とロボットの座標系とを校正するために必要
な画像を撮像できる状態に撮像部とマーカーの位置関係を変化させる動作をアームに開始
させるタイミングを特定する指示であれば良く、アームの位置または姿勢の変化量を特定
する目標値を含まなくてもよい。またマーカーは、ロボット座標系の基準点を指し示すも
のであればよい。例えば、平板に記された点や円などの二次元図形をマーカーとして用い
ることができるし、三次元形状を有する物(例えばアームの先端部)をマーカーとして用
いることもできる。そしてマーカーは、アームに設けられても良いし、ロボットが設置さ
れる空間に固定された物(例えば作業台)に設けられても良い。マーカーがアームに設け
られる場合(アームがマーカーになる場合を含む)、撮像部はロボット座標系に固定され
る。ロボット座標系にマーカーが固定される場合、撮像部はアームに設けられる。
なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資
源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせによ
り実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェ
ア資源で実現されるものに限定されない。
図1Aは本発明の実施形態にかかる模式的な斜視図。図1Bは本発明の実施形態にかかるブロック図。 本発明の実施形態にかかる平面図。 本発明の実施形態にかかる模式的な斜視図。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかる模式図。 本発明の実施形態にかかる画像を示す図。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかる模式的な斜視図。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかる模式的な斜視図。 本発明の実施形態にかかる模式的な平面図。 本発明の実施形態にかかる模式図。 本発明の実施形態にかかる模式図。
以下、本発明の実施の形態を添付図面を参照しながら説明する。尚、各図において対応
する構成要素には同一の符号が付され、重複する説明は省略される。
1.第一実施例
1−1.概要
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、
撮像部2と、校正装置としてのPC(Personal Computer)3とを備えている。
ロボット1は、6つの回転軸部材121、122、123、124、125、126を
アームに備える6軸ロボットである。ワークを操作するための各種のツールが装着される
回転軸部材126の先端の中心をツールセンターポイント(TCP)という。TCPの位
置と姿勢は各種のツールの位置と姿勢の基準となる。ロボット1を制御する際に用いられ
るロボット1の座標系は、それぞれが水平なx軸とy軸と、鉛直下向きを正方向とするz
軸とによって定まる3次元の直交座標系である。またz軸周りの回転をu、y軸周りの回
転をv、x軸周りの回転をwで表す。ロボット座標系の長さの単位はミリメートル、角度
の単位は度である。
撮像部2は、レンズ201の光軸に対して垂直な基準平面内におけるワークの大きさ、
形状および位置を認識するための撮像部である。撮像部2の座標系は、撮像部2から出力
される画像の座標系であって、画像の水平右向きを正方向とするB軸と、画像の垂直下向
きを正方向とするC軸とによって定まる。撮像部2の座標系の長さの単位はピクセル、角
度の単位は度である。撮像部2の座標系は、撮像部2の光軸に垂直な実空間内の平面の座
標系が、レンズ201の光学特性(焦点距離、歪みなど)とエリアイメージセンサー20
2の画素数と大きさとに応じて非線形変換された2次元の直交座標系である。したがって
、撮像部2が出力する画像に基づいてワークの大きさ、形状または位置を認識して、認識
結果に基づいてロボット1を制御するためには、撮像部2の座標系をロボット1の座標系
とを関係づける処理、すなわち校正が必要になる。
PC3はロボット1と撮像部2に接続されている。PC3には、ロボット1の座標系と
撮像部2の座標系とを校正するための校正プログラムがインストールされている。オペレ
ーターは、校正を実行するために校正プログラムを起動し、校正開始指示をPC3に入力
する。校正開始指示は、校正プログラムが校正処理を開始するための単なるトリガーであ
って、ロボット1を操作するための目標値を含んでいない。撮像部2の座標系を校正する
ためには、従来であれば、3つ以上の基準点を含む平面に対して撮像部2の光軸を正確に
垂直な状態にセットしたり、TCPでタッチアップすることにより3つ以上の基準点を正
確に教示したりといった緻密な準備が必要であった。そして、これらの準備が不正確であ
る場合には校正が失敗することになり、オペレーターは校正の失敗を知ることによって、
準備が不正確であったことを知る。したがって、従来は校正に多大な時間を要していた。
以下に説明する本発明の実施例によると、校正が行われていない状態でのロボットビジ
ョン(撮像部2によって撮像される画像)を用いて校正の準備を自動で行う。自動で行わ
れる校正の準備には、3つ以上の基準点を含む基準平面に対して撮像部2の光軸が垂直で
あって、撮像部2が基準平面に合焦している状態にする操作を含む。このため、基準点と
撮像部との正確な位置関係が定まっていない状態で校正開始指示を入力するだけで、ロボ
ット1の座標系と撮像部2の座標系とを、極めて容易に校正することができる。
1−2.構成
図1Aに簡略化して示すように、ロボット1は、基台110とアーム111、112、
113、114、115とを備えている。基台110は、第一アーム111の回転軸部材
121を支持している。第一アーム111は回転軸部材121の中心軸を中心にして回転
軸部材121とともに基台110に対して回転する。第一アーム111は、第二アーム1
12の回転軸部材122を支持している。第二アーム112は、回転軸部材122の中心
軸を中心にして回転軸部材122とともに第一アーム111に対して回転する。第二アー
ム112は、第三アーム113の回転軸部材123を支持している。第三アーム113は
、回転軸部材123の中心軸を中心にして回転軸部材123とともに第二アーム112に
対して回転する。第三アーム113は、第四アーム114の回転軸部材124を支持して
いる。第四アーム114は、回転軸部材124の中心軸を中心にして回転軸部材124と
ともに第三アーム113に対して回転する。第四アーム114は、第五アーム115の回
転軸部材125を支持している。第五アーム115は、回転軸部材125の中心軸を中心
にして回転軸部材125とともに第四アーム114に対して回転する。第五アーム115
は、回転軸部材126を支持している。マニピュレーターの先端にあたる回転軸部材12
6には図2にツールの取付面が示されているツールチャック1261が設けられている。
ツールチャック1261にはワークを操作するための各種のツールが取り付けられる。図
2に示すように、ツールチャック1261の取付面は、4分割されており、その中央部に
ツールの軸が挿入される。ツールチャック1261の取付面の中心がTCPに相当する。
図1Bに示すように、ロボット1は、回転軸部材121を駆動するモーター131と、
回転軸部材122を駆動するモーター132と、回転軸部材123を駆動するモーター1
33と、回転軸部材124を駆動するモーター134と、回転軸部材125を駆動するモ
ーター135と、回転軸部材126を駆動するモーター136と、モーター131〜13
6を制御する制御部14とを備えている。モーター131〜136は、アーム111〜1
15の構成要素である。モーター131〜136は、目標値と現在値との差分がゼロにな
るようにフィードバック制御されるサーボモーターである。制御部14は、TCPの位置
と姿勢を示す目標値をPC3から取得し、TCPの位置と姿勢を示す目標値に基づいてモ
ーター131〜136の目標値を導出する。
撮像部2は、レンズ201、エリアイメージセンサー202、図示しないAD変換器等
を備えるデジタル撮像部である。撮像部2は、図1Aに示すように、ワークが載置される
テーブル9上の所定位置に、鉛直上向きに撮像できるように設けられる。なお、本実施例
で校正されるロボットビジョンは、予め決められた基準平面を対象とする二次元のロボッ
トビジョンである。このため、レンズ201には、被写界深度が浅く(焦点距離が短く)
F値が小さな単焦点レンズを用いることが好ましい。
PC3は、図示しないプロセッサ、DRAMからなる図示しない主記憶、図示しない入
出力機構、不揮発性メモリからなる図示しない外部記憶、ディスプレイ、指示受付部30
として機能するキーボード等を備えるコンピューターである。PC3は、外部記憶に記憶
された校正プログラムをプロセッサで実行することにより、指示受付部30、画像取得部
31、目標値導出部32、出力部33、校正部34として機能する。
画像取得部31は、撮像部2に対して撮像を指示し、指示に応じて基準点を示すマーカ
ーが撮像された画像を撮像部2から取得する。本実施例で用いる基準点は、図3に示すよ
うに任意の位置と姿勢の回転軸部材126に垂直な平面上の9つの格子点P1、P2、P
3、P4、P5、P6、P7、P8、P9である。本実施例では任意の位置と姿勢の回転
軸部材126に対して定まる基準点P1〜P9を含む平面を基準平面という。基準点P1
〜P9同士の相対的な位置関係はロボット座標系で固定されているが、基準点P1〜P9
は、自動校正実行中に回転軸部材126が動くことにより撮像部2の固定された視野内で
動く。すなわち、校正の過程では、回転軸部材126の位置と姿勢(x、y、z、u、v
、w)に応じて基準平面を定めるX軸とY軸が定められ、基準点の座標はX軸座標とY軸
座標とで定められる。X軸とY軸は回転軸部材126の中心軸に対して垂直でかつ互いに
垂直であり、基準平面を定めるときのTCPを基準平面の原点とする。そして、最終的に
校正された時点での基準平面がロボットビジョンの対象となる。なお、基準平面は回転軸
部材126に固定された座標系であるため、基準平面の座標系とロボット座標系の関係は
線形である。本実施例では、基準点P1〜P9を示すマーカーとして、図2に示すツール
チャック1261の取付面が用いられる。
目標値導出部32は、ツールチャック1261の取付面のテンプレートを保持している
。ツールチャック1261の取付面のテンプレートは撮像部2から取得する画像を解析し
て基準点の座標を撮像部2の座標系で検出するために用いられる。目標値導出部32は、
撮像部2と基準点P1〜P9の位置関係を予め決められた状態に変化させるための目標値
を、撮像部2が撮像した画像に基づいて導出する。具体的には、目標値導出部32は、撮
像部2が撮像した画像に基づいて、予め決められた状態に対応する基準点P1〜P9の位
置と姿勢をTCPの目標値として導出する。ここでいう予め決められた状態とは、以下の
状態である。
・垂直状態:基準平面と撮像部2の光軸が垂直な状態
・合焦状態:基準平面に撮像部2が合焦する状態
垂直状態には、基準平面に合焦していない状態で撮像された画像に基づいて導出される
目標値によって定まる低精度垂直状態と、後述する「傾き指標」の閾値によって定まる高
精度垂直状態が含まれる。合焦状態は、合焦の指標である画像のシャープネスによって定
まる。なお、本実施例では、画像の予め決められた領域(部分画像)のシャープネスが最
大になる状態を合焦状態とするが、合焦の指標に閾値を設けることにより合焦状態に何ら
かの幅を持たせても良い。
出力部33は、目標値導出部32によって導出された目標値をロボット1の制御部14
に出力することにより、撮像部2と基準点P1〜P9の位置関係を垂直状態、合焦状態に
変化させる。
1−3.自動校正
1−3−1.全体の流れ
次に上述したロボットシステムを用いた自動校正の全体の流れについて図4を参照しな
がら説明する。
ロボットシステムによる自動校正は、オペレーターが校正開始指示をPC3に入力する
ことによって起動し、それ以後、オペレーターに一切の操作を要求することなく完了する
。校正開始指示を入力する前にオペレーターに求められるのは、ロボットシステムの環境
情報をPC3に入力する操作と、所謂ジョグ送りによってマニピュレーター先端の回転軸
部材126を撮像部2の光軸が凡そ通る状態にTCPを移動させることだけである。すな
わち、校正開始指示を入力する前にオペレーターに緻密な操作は何ら必要とされない。環
境情報には、エリアイメージセンサー202の画素数とサイズとレンズ201の焦点距離
とが含まれる。また、本実施例ではツールチャック1261の取付面自体を基準点を示す
マーカーとして用いるが、基準点を示すマーカーが表された板などをツールチャック12
61に装着する場合には、TCPに対するマーカーの相対位置や姿勢を入力する必要があ
る。
校正開始指示がPC3に入力されると(S1)、PC3は低精度傾き補正を実行する(
S2)。低精度傾き補正では、校正開始指示が入力された時点でのTCPの位置と姿勢に
対応する基準平面が設定される。続いて、設定された基準平面上の9つの基準点にTCP
が位置する状態で撮像部2による撮像が行われ、9つの基準点を示すTCPの位置が撮像
部2の座標系で検出される。そして、検出結果に基づいて基準平面と撮像部2の光軸を垂
直な状態(垂直状態)にするための目標値が導出される。導出された目標値がロボット1
に入力されて、目標値に基づいてアーム111〜115が動くと基準平面と撮像部2の光
軸が凡そ垂直な低精度垂直状態になる。
次にPC3は、焦点調整を実行する(S3)。焦点調整では、低精度垂直状態の基準平
面に対して垂直な方向にTCPを移動させながら撮像部2による撮像が行われ、画像に写
るツールチャック1261のシャープネスが最大になる合焦状態が探索される。続いて探
索結果に基づいて合焦状態にするための目標値が導出される。導出された目標値がロボッ
ト1に入力されて、アーム111〜115が目標値に基づいて動くと合焦状態になる。
次にPC3は、高精度傾き補正を実行する(S4)。高精度傾き補正では、低精度垂直
状態でかつ合焦状態の基準平面を微小な角度ずつ傾けながら、撮像部2による撮像が行わ
れる。同一基準平面内の複数の基準点を示すマーカーとしてのツールチャック1261が
撮像された複数の画像に基づいて基準平面の傾き指標が導出される。基準平面の傾き指標
は、撮像部2の光軸と基準平面がなす角度と90度の差と正の相関を持つ値である。導出
された傾き指標に基づいて、垂直状態にするための目標値が導出される。導出された目標
値がロボット1に入力されて、目標値に基づいてアーム111〜115が動くと高精度垂
直状態になる。
次にPC3は、9点校正を実行する(S5)。9点校正では、高精度垂直状態の基準平
面に属する9つの基準点の基準平面の座標系の座標と撮像部2の座標系の座標とに基づい
て、ロボット座標系と撮像部2の座標系を校正する最終的な変換式が導出される。
以上、概要を述べたように、校正装置としてのPC3は、低精度傾き補正、焦点調整、
高精度傾き補正を順次することにより、基準平面が撮像部2の光軸に対して垂直で、基準
平面に対して撮像部2が合焦した状態になるように自動でロボット1を制御してロボット
ビジョンの対象となる基準平面を設定した後に、設定された基準平面について9点校正を
実行する。
1−3−2.低精度傾き補正
次に図5を参照しながら低精度傾き補正の詳細を説明する。
まず、目標値導出部32は、基準平面を設定し、設定した基準平面に属する9つの基準
点にマーカーとしてのTCPを移動させるための目標値を導出する。続いて、出力部33
がロボット1の制御部14に目標値を出力し、各基準点にTCPが位置する状態で撮像さ
れた9つの画像を画像取得部31が撮像部2から取得する(S21)。TCPの移動先で
ある基準点は、校正開始指示が入力された時点でのツールチャック1261の位置と姿勢
(TCPの位置と姿勢)に基づいて導出される。具体的には例えば、中央の基準点P5を
校正開始指示が入力された時点でのTCPの位置に設定し、校正開始指示が入力された時
点での回転軸部材126と垂直な平面を基準平面としてその他の基準点を導出する。出力
部33は、このようにして導出された9つの基準点のロボット座標系での座標を制御部1
4に目標値として出力する。
ここで撮像部2によって撮像される9つの画像について図7、図8を用いて説明する。
図7は、撮像部2に対する基準平面F(n)の位置と姿勢を模式的に示している。F(0
)はステップS21で撮像される基準平面である。9つの基準点P1〜P9にマーカーと
してのTCPを移動させる毎に撮像すると、撮像部2から取得する各画像におけるツール
チャック1261の位置は、基準点P1〜P9の位置に応じて異なることになる。9つの
画像のそれぞれに表れるツールチャック1261を1つの画像にまとめて表すと、例えば
図8(A)に示すようにツールチャック1261は非格子点に表れる。なお、図8におい
て合焦の程度は反映されていない。ロボット座標系で同一平面内に設定された各基準点を
マーカーが示すようにロボットを動かして、それぞれの基準点におけるマーカーをロボッ
ト座標系において固定された撮像部で撮像したn個の画像から得られる基準点の情報は、
n個の基準点を示すマーカーが付されている板をロボットで特定の位置と姿勢に保持し、
その状態で板に付されたマーカーを撮像した1つの画像から得られる基準点の情報と凡そ
同じである。前者の情報には、厳密なロボット座標系と撮像部の座標系の対応関係が反映
され、後者の情報には、ロボット座標系とマーカーが付された板の座標系を合成した座標
系と撮像部の座標系の対応関係が反映される。ロボット座標系とマーカーが付された板の
座標系が線形な関係にあるとは限らないため、厳密にロボット座標系と撮像部の座標系を
校正するには、前者の情報を用いることが好ましい。
続いて目標値導出部32は、各基準点にTCPが位置する状態で撮像された9つの画像
を解析し、各画像におけるツールチャック1261の取付面の中心位置を検出する(S2
2)。すなわち、目標値導出部32は、撮像部2の座標系で9つの基準点の位置を検出す
る。
続いて目標値導出部32は、基準平面の座標系での基準点の座標と、撮像部2の座標系
での基準点の座標とに基づいて、撮像部2の座標系とロボット座標系の対応関係を導出す
る(S23)。具体的には、撮像部2の座標系をロボット座標系に変換するための変換行
列を導出する。このような変換行列を求めることは、ステップS21で設定した基準平面
について撮像部2の座標系とロボット座標系とを校正することに他ならない。ただし、こ
こで導出される変換行列は、撮像部2が基準点P1〜P9に合焦していない状態で撮像さ
れた画像に基づいて導出されるものであるから、撮像部2の光軸に対する基準平面の姿勢
や基準点P1〜P9の位置に正確に対応したものではない。
続いて目標値導出部32は、ステップS23で導出した変換行列に基づいて、撮像部2
の光軸に対して基準平面が垂直になり、かつ、撮像部2の光軸が中央の基準点P5を通る
位置と姿勢に基準平面を動かすための目標値を導出する。導出された目標値は、出力部3
3によってロボット1の制御部14に出力される(S24)。入力された目標値に応じて
アーム111〜115が動くことにより、基準平面は、撮像部2の光軸に対して凡そ垂直
になり、かつ、撮像部2の光軸が中央の基準点P5を凡そ通る位置と姿勢になる。すなわ
ち、低精度傾き補正を実行して終了すると、撮像部2と基準点P1〜P9の位置関係は低
精度垂直状態になる。
1−3−3.焦点調整
次に図6を参照しながら焦点調整の詳細を説明する。
はじめに目標値導出部32は現在のTCPの位置と姿勢を保存する(S31)。すなわ
ち、図7に示すように低精度傾き補正が終了した時点における基準平面F(1)に対応す
るTCPの位置と姿勢が保存される。
次に、目標値導出部32は、低精度傾き補正時に導出した基準平面の座標系での基準点
の座標と、撮像部2の座標系での基準点の座標とに基づいて、焦点調整時に取得する画像
内にツールチャック1261が写る領域と、撮像部2からツールチャック1261までの
距離とを導出する(S32)。
続いて画像取得部31は撮像部2から画像を取得する(S33)。このとき、画像取得
部31は、ステップS32で導出された領域にツールチャック1261が写っている画像
を取得することになる。
続いて目標値導出部32は、撮像部2から取得した画像に基づいて撮像部2の合焦指標
を導出する(S34)。合焦指標としては、ツールチャック1261が写る領域の微分積
算値(シャープネス)を一定面積で標準化した値を用いることができる。合焦指標を導出
する対象領域は、図8Bの点線で囲んだ領域のようにツールチャック1261が画像に写
る領域に設定される。すなわち、撮像部2によってマーカーとしてのツールチャック12
61が撮像された画像から切り出された部分画像に基づいて合焦指標が導出される。
続いて目標値導出部32は、焦点調整において撮像部2が撮像した回数が規定回数に達
したか否かを判定する(S35)。
焦点調整において撮像部2が撮像した回数が規定回数に達していない場合、目標値導出
部32は基準平面に対して垂直で撮像部2に接近する方向に所定距離だけTCPを移動さ
せ(S36)、ステップS33から処理が繰り返される。すなわち、撮像回数が規定回数
に達するまで、基準平面はロボット1のTCPとともに図7に示すようにF(2)、F(
3)、F(4)、・・・と移動し、各基準平面について撮像部2による撮像が行われ、撮
像された画像毎に合焦指標が導出される。ツールチャック1261が撮像部2に接近する
ほど、ツールチャック1261が写る領域は大きくなり、やがてツールチャック1261
は図8Cに示すように画像に収まらなくなる。そこで合焦指標を導出する対象領域は、ツ
ールチャック1261が撮像部2に接近するほど大きく設定され、ツールチャック126
1が写る領域が画像の端辺に接した後に画像全体になる。このようにして設定される領域
について合焦指標が導出されると、合焦指標がシャープネスであれば、通常は、徐々に大
きくなった後に徐々に小さくなる。
焦点調整において撮像部2が撮像した回数が規定回数に達すると、目標値導出部32は
、合焦状態にするための目標値を合焦指標に基づいて導出し、出力部33は導出された目
標値をロボット1に出力する(S36)。具体的には例えば、ステップS34で導出され
る複数の合焦指標のうち最大の合焦指標が得られた位置にTCPを移動させるための目標
値が導出される。導出された目標値がロボット1に出力されると、基準平面は撮像部2に
対して合焦状態になる。通常は、図7において基準平面がF(7)からF(5)に動くよ
うに、基準平面に対して垂直で撮像部2から離れる方向にTCPが移動するようにアーム
111〜115が動くことによって合焦状態になる。
以上述べたように、焦点調整では、基準平面と垂直で撮像部2に接近する第一方向に基
準点を接近させた後に、マーカーとしてのツールチャック1261が撮像された画像から
切り出された部分画像に基づいて合焦状態にするための目標値が導出される。導出された
目標値に基づいて、アーム111〜115が基準点と撮像部2との位置関係を合焦状態に
変化させる。ここで焦点調整は低精度垂直状態で行われるため、基準平面と撮像部2の光
軸が垂直である。したがって、基準平面と垂直方向に基準点を移動させることは、撮像部
2の光軸と平行な方向に撮像部2と基準点を変化させることと凡そ同じである。
1−3−4.高精度傾き補正
次に高精度傾き補正について図9を参照しながら詳細に説明する。
はじめに目標値導出部32は、現在の傾き指標Hを導出する(S401)。傾き指標
は、同一の基準平面に属する中央の基準点P5とその近傍の4つの基準点P2、P4、P
6、P8の基準平面の座標系の座標と撮像部2の座標系の座標とを用いて導出される。基
準平面が撮像部2の光軸に垂直であって、中央の基準点P5を撮像部2の光軸が通る状態
で撮像部によって撮像される画像において(図8D参照)、ツールチャック1261が示
す各基準点の間隔d1、d2、d3、d4は等しくなる。そしてこのとき、基準点Pnの
座標をp(n)で表すとすれば、次式が成立する。
=u
=v
ただし、
=p(5)−p(4)
=p(6)−p(5)
=p(5)−p(2)
=p(8)−p(5)
そして、垂直状態から基準点P2と基準点P8を結ぶ直線を軸に基準平面が回転すると
、回転角度に応じてvとvの差が大きくなる。また垂直状態から基準点P4と基準点
P6を結ぶ直線を軸に基準平面が回転すると、回転角度に応じてuとuの差が大きく
なる。したがって、傾き指標として次式のH、Hを用いることができる。
=|u−u
=|v−v
次に目標値導出部32は、導出した傾き指標H、Hを予め決めた閾値と比較し、傾
き指標H、Hが予め決められた閾値以下であるか否かを判定する(S402)。傾き
指標H、Hが予め決められた閾値以下である場合、高精度傾き補正は成功して終了す
る。
傾き指標H、Hが予め決められた閾値以下でない場合、目標値導出部32は、後述
するステップS411の傾き補正の実施回数が予め決められた閾値未満であるか否かを判
定する(S403)。傾き補正の実施回数が予め決められた閾値未満でない場合、高精度
傾き補正は失敗して終了する。高精度傾き補正が失敗して終了する場合、自動校正を終了
しても良いし、低精度傾き補正から自動校正をやり直しても良い。
傾き補正の実施回数が予め決められた閾値未満である場合、目標値導出部32は現在の
TCPの姿勢を姿勢(1)として保存する(S404)。
次に目標値導出部32は基準平面をY軸まわりにδ度回転させるための目標値を導出し
、出力部33は導出された目標値をロボットに出力する(S405)。δは、高精度垂直
状態に許容される誤差に応じて予め決められる微小な角度である。続いて目標値導出部3
2は、目標値に応じてTCPとともに回転した基準平面について新たな基準点を設定し、
新たな各基準点にTCPが位置する状態で撮像された画像を解析することにより、傾き指
標Hを導出する(S406)。具体的には、目標値導出部32は回転後の新たな基準平
面に属する基準点P2、P4、P5、P6、P8にTCPを移動させるための目標値を導
出し、出力部33は導出された目標値をロボット1に出力し、画像取得部31は各基準点
にTCPが位置する状態で撮像された画像を撮像部2から取得する。目標値導出部32は
、このように取得された画像をステップS401と同様に解析することにより、傾き指標
を導出する。その結果、姿勢(1)に対応する基準平面からY軸まわりにδ度回転し
た基準平面について傾き指標Hが導出される。続いて出力部33は、姿勢(1)にTC
Pを復帰させるための目標値をロボット1に出力する(S407)。
次に目標値導出部32は、基準平面をX軸まわりにδ度回転させるための目標値を導出
し、出力部33は導出された目標値をロボットに出力する(S408)。続いて目標値導
出部32は、目標値に応じてTCPとともに回転した基準平面について新たな基準点を設
定し、新たな各基準点にTCPが位置する状態で撮像された画像を解析することにより、
傾き指標Hを導出する(S409)。その結果、姿勢(1)に対応する基準平面からX
軸まわりにδ度回転した基準平面について傾き指標Hが導出される。
次に目標値導出部32は、傾き指標H、H、Hに基づいて傾き補正量ΔV、ΔW
を導出する(S410)。傾き補正量ΔV、ΔWは、次式によって導出される。
Figure 0006565175
次に目標値導出部32は導出された傾き補正量ΔV、ΔWに基づいて目標値を導出し、
導出された目標値を出力部33がロボットに出力する(S411)。その結果、アーム1
11〜115が動くことによりX軸まわりにΔV、Y軸周りにΔWだけ基準平面が回転す
る。
高精度傾き補正では、以上述べたステップS401からS411までの処理を、ステッ
プS402で肯定判定がなされて高精度垂直状態になって終了するか、ステップS403
で否定判定がなされるまで繰り返される。
1−3−5.9点校正
次に9点校正について説明する。高精度傾き補正が成功した状態では、基準平面は撮像
部2の光軸に対して正確に垂直になっている。このことは、高精度傾き補正が完了するま
でに得られる基準点の座標に基づいて、ロボット座標系と撮像部2の座標系が基準平面に
おいては回転成分と拡大縮小成分について校正できることを意味する。9点校正では、基
準平面上の任意の点について、レンズ201の歪みも加味して、正確にロボット座標系と
撮像部2の座標系とを校正する。すなわち、9点校正では、ロボット座標系と撮像部2の
座標系との線形の関係性を非線形に補正するためのパラメーターが、ロボット座標系の9
つの基準点の座標と撮像部2の座標系の9つの基準点の座標とを用いて導出される。具体
的には、出力部33は、9つの基準点にTCPを移動させるための目標値をロボット1に
出力してアーム111〜115を動かし、画像取得部31は各基準点に位置するツールチ
ャック1261を撮像した9つの画像を取得する。校正部34は、各画像を解析してツー
ルチャック1261が示す基準点を検出する。続いて校正部34は、出力部33がロボッ
ト1に出力した目標値の座標と、画像を解析して取得した基準点の座標とに基づいて、最
終的な校正のための補正パラメーターを導出する。なお、このような非線形補正に用いる
パラメーターを導出するために用いる基準点の数が多いほど校正の精度は高くなる。
1−4.変形例
なお、撮像部2の位置と姿勢がロボット座標系において固定されていれば、上述した方
法で撮像部2の座標系とロボット座標系とを校正することができることはいうまでもない
。例えば、撮像部2を室内の壁に、光軸が水平になるように固定して、垂直な基準平面を
設定しても良い。また例えば、撮像部2を室内の天井に、鉛直下向きに固定して、水平な
基準平面を設定しても良い。
2.第二実施例
第二実施例では、撮像部22をロボット1の可動部に装着したロボットシステムについ
て説明する。本実施例では、図10に示すように撮像部22の光軸が回転軸部材126と
平行になるように撮像部22がアーム111にステー等で固定されているものとする。第
一実施例ではロボット座標系に固定された撮像部2のロボットビジョンを校正するために
基準点をロボット座標系で動かしながら校正対象となる基準平面を設定した。これに対し
て第二実施例では校正対象となる基準平面がロボット座標系に対してはじめから固定され
ているため、校正対象となる基準平面に対して光軸が垂直な状態になるように撮像部22
をロボット1で動かした状態で校正が実行される。
以下、撮像部22をロボット1の可動部に装着したロボットシステムの自動校正につい
て図11を参照しながら説明する。
本実施例の自動校正は、撮像部22の光軸が回転軸部材126と凡そ平行になっている
ことを前提として実施される。校正開始指示を入力する前の準備段階でアーム115に対
する撮像部22の撮像位置と撮像姿勢を環境情報として設定する必要がある。撮像位置は
撮像部22の光軸とエリアイメージセンサー202が交わる位置とする。撮像姿勢は光軸
の姿勢とする。ただし、環境情報として設定される撮像部22のアーム115に対する撮
像位置と撮像姿勢が、自動校正を開始する時点で、撮像部22のアーム115への取り付
け状態と厳密に対応している必要はない。
また本実施例の自動校正は、図12に示すようにロボット座標系に対して固定された9
つの基準点P21〜P29について実施される。基準点P21〜P29は任意に設定可能
な1つの基準平面に含まれる格子点である。そこで準備段階において、図13に示すマー
カー41〜49が付されたマーカーボード4が図10に示すようにテーブル9に固定され
る。マーカーボード4は、円形の輪郭を有する9つのマーカー41〜49が平坦な面の所
定の格子点に付された板である。マーカーボード4上の各マーカー41〜49の中心位置
はマーカーボード4に固定された2次元の座標系(マーカー座標系)で目標値導出部32
が保持する。各マーカー41〜49の中心が基準点P21〜P29として定義される。な
お、マーカーはマーカーが撮像された画像からマーカーを検出することにより基準点を特
定可能な形態であればよい。すなわち、特定の点の位置をマーカーの図形に対して幾何学
的に定義できる形態であればよい。マーカーから離れた点が基準点として定義されてもよ
いし、1つのマーカーから複数の基準点が定義されても良いし、互いに離れた複数のマー
カーで1つの基準点が定義されても良い。
指示受付部30が校正開始指示を受け付けると(S1)、低精度傾き補正が実行される
(S2)。マーカーボード4に付されたマーカー41〜49が9つの基準点を示すため、
本実施例の低精度傾き補正では基準点毎にロボット1を動かす必要はない。マーカーボー
ド4の全体を撮像部22で撮像可能な状態で校正開始指示を受け付けると、画像取得部3
1は9つのマーカー41〜49が写った1つの画像を撮像部22から取得する。目標値導
出部32は、取得した1つの画像を解析してマーカー41〜49が示す9つの基準点を撮
像部22の座標系で検出する。続いて目標値導出部32は、基準点の撮像部22の座標系
の座標と、環境情報として入力されている撮像部22の撮像位置と撮像姿勢と、マーカー
41〜49のマーカー座標系の座標とに基づいて、撮像部22の座標系とロボット座標系
の対応関係を導出する。具体的にはマーカー41〜49が位置する基準平面について撮像
部22の座標系をロボット座標系に変換するための変換行列を導出する。ただし、ここで
導出される変換行列は、撮像部22がマーカー41〜49に合焦していない状態で撮像さ
れた画像に基づいて導出されるものであるから、基準点P21〜P29に対する撮像部2
2の撮像姿勢や撮像位置に正確に対応したものではない。続いて目標値導出部32は、導
出した変換行列に基づいて、マーカーボード4に対して撮像部22の光軸が垂直になり、
かつ、撮像部22の光軸が中央のマーカー45の中心を通る位置と姿勢にアーム115を
動かすための目標値を導出し、導出した目標値を出力部33を介してロボット1の制御部
14に出力する。入力された目標値に応じてアーム111〜115が動くことにより、撮
像部22の光軸はマーカーボード4に対して凡そ垂直になり、かつ、撮像部22の光軸が
中央のマーカー45の凡そ中心を通るようになる。すなわち、低精度傾き補正を実行して
終了すると、撮像部22と基準平面の位置関係は低精度垂直状態になる。
次に焦点調整が実行される(S3)。本実施例の焦点調整は、ツールチャック1261
が写る領域のシャープネスが最大になるようにTCPを動かす代わりに、マーカーボード
4の中央のマーカー45が写る領域のシャープネスが最大になるようにアーム115を動
かす点を除けば、第一実施例の焦点調整と同一である。焦点調整が終了すると、撮像部2
2と基準点P25の位置関係は合焦状態になる。
次に撮像部姿勢補正が実行される(S6)。撮像部姿勢補正は、環境情報として設定さ
れている撮像部22の撮像姿勢と実際の撮像部22の撮像姿勢とのずれを、環境情報を補
正することにより、補正する処理である。詳細については後述する。
次に高精度傾き補正が実行される(S5)。高精度傾き補正は、第一実施例の高精度傾
き補正と次の点を除いて同一である。第一実施例で用いた5つの基準点のうちの中央の基
準点P5を現在の撮像部22の撮像位置とする。また第一実施例で用いた5つの基準点の
残りの4つの基準点P2、P4、P6、P8を、撮像部22の撮像位置として、撮像部2
2の光軸と垂直で現在の撮像位置を含む平面上に、現在の撮像部22の撮像位置を中心と
する90度間隔に設定する。これらの5つの撮像位置の設定には、ステップS6で補正さ
れた環境情報である撮像部22の撮像位置と撮像姿勢と、現在のアーム115の位置と姿
勢とが用いられる。画像取得部31は、このように設定した5つの撮像位置にあって光軸
が5つの撮像位置を含む平面に垂直な撮像部22でマーカーボード4を撮像し、5つの画
像を取得する。目標値導出部32は、5つの画像を解析してマーカーボード4の中央のマ
ーカー45の中心を撮像部22の座標系で検出する。このようにして検出するマーカー4
5の5つの中心座標を第一実施例の高精度補正において検出した5つの基準点の座標の代
わりに用いて第一実施例と同様の高精度傾き補正を実行する。このような高精度傾き補正
を実行することにより、撮像部22の光軸がマーカーボード4と垂直で、かつ、撮像部2
2の光軸がマーカー45の中心を通る状態に対応する目標値が導出される。導出された目
標値がロボット1に入力されると、入力された目標値に基づいてアーム111〜115が
動き、撮像部22の光軸がマーカー45の中心を通りマーカーボード4に対して垂直にな
る。すなわち、高精度傾き補正が成功して終了すると、基準点P21〜29と撮像部22
の位置関係は高精度垂直状態になる。
ここでステップS6の撮像部姿勢補正について詳細に説明する。例えば前述した撮像位
置P2、P5、P8において撮像部22の光軸が図14の点線に相当する撮像位置と撮像
姿勢が環境情報として設定されているとする。そして実際には、撮像位置P2、P5、P
8において光軸が基準平面Fに対して垂直でない実線A2、A5、A8に相当するように
撮像部22がアーム115に取り付けられているとする。この場合、撮像位置P2、P5
、P8に撮像部22を位置づけてマーカーボード4を撮像することによって高精度傾き補
正が実行されるとする。しかし、高精度傾き補正で導出された目標値に基づいてアーム1
11〜115が動作しても、撮像部22の光軸はマーカーボード4に対して垂直にならな
い。高精度傾き補正は、「現実の撮像部22の光軸」に対して垂直な平面上にある5つの
撮像位置から撮像部22で中央のマーカー45が5回撮像されることを前提としているの
に対し、「誤差のある環境情報に対応する光軸」に対して垂直な平面上にある5つの撮像
位置から撮像部22で撮像された5つの画像に基づいて傾き指標が導出されるからである
。したがって、「現実の撮像部22の光軸」と「環境情報に対応する光軸」とを一致させ
る補正を高精度補正前に実行する必要がある。高精度補正前に必要なこの補正が撮像部姿
勢補正である。
撮像部姿勢補正では、前述した5つの撮像位置P2、P4、P5、P6、P8から光軸
がこれらの撮像位置を含む平面に垂直になる撮像姿勢(補正されるべき環境情報に基づく
撮像姿勢)で撮像部22による撮像を行い、5つの画像のそれぞれからマーカーボード4
の中央のマーカー45の中心を検出する。続いて、このようにして検出するマーカー45
の5つの中心座標を第一実施例の高精度補正において検出した5つの基準点の座標の代わ
りに用いて第一実施例と同様の傾き補正量ΔV、ΔWを導出する。導出した補正量ΔV、
ΔWを用いて環境情報としての撮像部22の撮像姿勢を補正すると、「現実の撮像部22
の光軸」と「環境情報に対応する光軸」とを一致させることができる。
高精度傾き補正が成功して終了した後に、9点校正が実施される(S5)。本実施例の
9点校正では、第一実施例の9つの基準点P1〜P9にTCPを動かしながら撮像部22
で撮像した画像から各基準点の位置を撮像部22の座標系で検出する代わりに、高精度垂
直状態にある現在の撮像位置と撮像姿勢の撮像部22から取得する画像から9つのマーカ
ー41〜49の中心を基準点21〜29として検出する。そして、撮像部22の座標系で
検出された基準点21〜29の座標を、ロボット座標系の基準点21〜29の座標に変換
するための最終的な変換式が導出される。
3.第三実施例
ロボット1の状態は、種々のツールが装着されるツールチャック1261の位置と姿勢
(すなわちTCPの位置と姿勢)を示す目標値がロボット1に入力されることによって制
御される。したがって、ツールチャック1261やその他の部位に装着されるツールの位
置と姿勢を制御するためには、TCPに対するツールの位置と姿勢を予め環境情報として
設定しておき、ツールの位置と姿勢を、TCPの対応する位置と姿勢に変換して目標値を
ロボット1に入力する必要がある。本実施例では、各種のツールのTCPに対する位置と
姿勢をロボットビジョンを用いて検出して自動設定する方法について述べる。各種ツール
のTCPに対する位置と姿勢をロボットビジョンを用いて検出するにあたっては、それ以
前に、ロボット座標系と撮像部の座標系の校正が基準平面についてできていることが前提
となる。そこで本実施例では、第一実施例で説明したようにテーブル9に固定された撮像
部2の光軸に対して垂直な基準平面Fが設定され、設定された基準平面F上の9つの基準
点について校正が完了しているとする。この状態で、TCPに対して位置と姿勢が固定さ
れたツールのTCPに対する位置と姿勢をロボットビジョンを用いて検出する方法につい
て図15を参照しながら説明する。本実施例において「ツールのTCPに対する位置と姿
勢」は、基準平面上にあるツールの位置と姿勢を、TCPの位置と姿勢(x,y,z,u
,v,w)から特定するためのオフセット(ΔX、ΔY、ΔU)によって表される。ここ
で(x,y,z,u,v,w)はロボット座標系、(ΔX、ΔY、ΔU)は基準平面の座
標系であるが、既に述べたとおりロボット座標系と基準平面の座標系の関係は線形である
。したがって、ツールの位置と姿勢をロボット座標系と基準平面の座標系のいずれの座標
系で定めるかにおいて幾何学的に何ら違いはない。なお、ΔUは基準平面に垂直なZ軸周
りの回転成分である。
はじめに、TCPをその中心軸が基準平面に対して垂直な姿勢を保って平行移動させる
ことにより、ツールマーカーによって示されるツールの参照点を基準平面上に移動させる
。このときツールチャック1261の中心軸を平行移動させれば良く、ツールチャック1
261をその中心軸周りに回転させてもよい(ΔUをオフセットに含めているためである
。)。ツールマーカーは参照点を指し示すものであればよく、ツール自体をツールマーカ
ーとしても良いが、本実施例ではツールにツールマーカーとしてラベルを貼付するものと
する。ラベルはその形状と大きさが既知のものであればよい。参照点はツールに対して固
定された点であればよい。またツールの参照点を基準平面に移動させるとき、ジョグ送り
によってTCPを移動させても良いが、ロボットビジョンを用いて自動的にTCPを移動
させても良い。具体的には、ツールマーカーの形状と大きさが既知であるため、移動前に
撮像されたツールマーカーの画像に基づいて、移動前のツールマーカーの基準平面に対す
る位置を特定する。そして基準平面に対して特定したツールマーカーの位置から基準平面
にツールマーカーを移動させるためのTCPの目標値を導出し、導出した目標値をロボッ
ト1に出力する。さらにこの撮像と移動の処理を繰り返すことにより、ツールマーカーで
示されるツールの参照点を座標平面上に正確に位置づけることが可能である。
次に、基準平面上にツールの参照点が位置する状態でツールマーカーを撮像部2で撮像
し、ツールマーカーによって指し示される参照点の位置を撮像部2の座標系で検出する。
そして、撮像時のTCPから基準平面に下ろした垂線の足の座標と、検出した参照点の座
標とに基づいて、TCPのロボット座標系での位置と姿勢(x,y,z,u,v
,w)から基準平面上のツールの位置と姿勢を特定するためのオフセット(ΔX、Δ
Y、ΔU)を導出する。
たとえば第二実施例の撮像部22をツールとしてオフセット(ΔX、ΔY、ΔU)を導
出することにより、環境情報として必要な撮像部22の位置と姿勢が特定される。したが
って撮像部22の位置と姿勢をユーザーに設定させる代わりに、撮像部22の位置と姿勢
を自動で検出し、検出した撮像部22の位置と姿勢を環境情報として自動で設定すること
が可能である。そして、そのように環境情報が自動設定された撮像部22を用いて、撮像
部22の座標系とロボット座標系とを校正することが可能である。すなわち、ロボット座
標系に固定された撮像部2とロボット1の可動部に固定された撮像部22のそれぞれの座
標系とロボット座標系との校正を、校正開始指示の入力だけで、自動で完了させることも
可能である。さらに、撮像部2や撮像部22とは別の撮像部を追加する場合、当該別の撮
像部を撮像部22で撮像することで、当該別の撮像部の座標系とロボット座標系との校正
をすることも可能になる。つまり、例えば、マーカーボード4を利用して、ロボットが動
作することで、自動で複数の撮像部の座標系とロボット座標系とを校正することができる
なお、複数のツールT1、T2について環境情報が必要な場合、それぞれの位置と姿勢
を特定するためのオフセットをツール毎に導出すればよい。すなわち、図15Aに示すよ
うにツールT1を基準平面Fに移動させてツールT1についてのオフセットを導出し、図
15Bに示すようにツールT2を基準平面Fに移動させてツールT2についてのオフセッ
トを導出すればよい。またここまで、最終的に1つの校正された基準平面を設定する例に
ついて説明したが、2つ以上の校正された基準平面を設定しても良い。例えば、ツールT
1に対応する基準平面とツールT2に対応する基準平面とを設定し、それぞれの基準平面
がロボット座標系と校正されても良い。
4.他の実施形態
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨
を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば、校正開始指示はマウスによるクリック操作やディスプレイに対するタップ操作
や音声によって受け付けても良い。
また、上記実施例で説明した低精度傾き補正、焦点調整、高精度傾き補正の順序を入れ
替え、低精度傾き補正の前に焦点調整を実行してもよいし、低精度傾き補正、焦点調整、
高精度傾き補正のいずれかを省略しても良い。また校正が行われていない状態で撮像部に
よってマーカーが撮像された画像に基づいて導出された目標値を取得し、目標値に基づい
て撮像部と基準点の位置関係を予め決められた状態に変化させる処理が少なくとも1つあ
ればよい。例えば、基準点に合焦させるためのロボット操作をジョグ送りによって行い、
高精度傾き補正だけを画像に基づいて導出された目標値に基づいて実行してもよい。
また、9点校正を実施せずに、高精度傾き補正する際に取得した3点以上の基準点の座
標にもとづいてロボット座標系と撮像部の座標系の校正を行っても良い。すなわち、撮像
部の座標系とロボット座標系の校正は、高精度傾き補正により設定した基準平面上の3以
上の基準点を用いて行えばよく、8以下の基準点を用いて校正を実行してもよいし、10
以上の基準点を用いて校正を実行しても良い。
またロボットを所定の姿勢に変化させるための何らかの目標値が校正開始指示に含まれ
ても良い。例えば、撮像部またはマーカーボードをテーブルに固定する位置が予め決めら
れている場合に、基準平面と撮像部がほぼ正対する位置にロボットビジョンを用いずにロ
ボットを動かすための目標値が校正開始指示に含まれてもよい。
また本発明は、6軸以外の垂直多関節ロボットにも適用できるし、アームの回転軸が全
て平行なスカラーロボットにも適用できる。そして本発明は、2以上の撮像部を用いる3
次元のロボットビジョンに適用することも可能である。すなわち、3次元のロボットビジ
ョンを実現するための複数の撮像部の座標系とロボット座標系とを校正するにあたって、
本発明を適用することにより、各撮像部とマーカーの位置関係を、撮像部の座標系とロボ
ットの座標系とを校正するために必要な画像を撮像できる状態に、校正開始指示によって
変化させることができる。
131〜136…モーター、111〜115…アーム、1…ロボット、2…撮像部、3…
PC、4…マーカーボード、9…テーブル、14…制御部、31…画像取得部、31…画
像取得部、32…目標値導出部、33…出力部、34…校正部、41〜49…マーカー、
110…基台、111…第一アーム、112…第二アーム、113…第三アーム、114
…第四アーム、115…第五アーム、121〜126…回転軸部材、131〜136…モ
ーター、201…レンズ、202…エリアイメージセンサー、1261…ツールチャック
、F…基準平面、P1〜P9…基準点、P21〜P29…基準点

Claims (12)

  1. 校正開始指示を受け付ける指示受付部と、
    前記校正開始指示が受け付けられると、基準点を示すマーカーと、単一の焦点距離をもつ撮像部との位置関係を変化させるアームと、
    を備え、
    前記アームは、前記校正開始指示が受け付けられると、前記位置関係を予め決められた状態に変化させ、
    前記撮像部と前記マーカーの位置関係が、前記撮像部が前記マーカーに合焦する状態にあるときに、前記撮像部によって前記マーカーが撮像された画像に基づいて、前記撮像部の座標系とロボットの座標系との校正が行われる、
    ロボット。
  2. 前記アームは、前記撮像部によって前記マーカーが撮像された画像に基づいて導出された目標値を取得し、前記目標値に基づいて前記位置関係を前記予め決められた状態に変化させる、
    請求項1に記載のロボット。
  3. 前記校正開始指示は、前記位置関係を前記予め決められた状態に変化させるための目標値を含まない、
    請求項1または2に記載のロボット。
  4. 前記アームは、前記校正開始指示が受け付けられると、前記撮像部によって前記マーカーが撮像された画像から切り出された部分画像に基づいて導出された目標値を取得し、前記目標値に基づいて前記位置関係を前記撮像部が前記マーカーに合焦する状態に変化させる、
    請求項3に記載のロボット。
  5. 前記アームは、3つ以上の前記基準点を含む平面と垂直な第一方向に前記撮像部と前記マーカーの位置関係を変化させた後に前記第一方向と逆向きの第二方向に前記撮像部と前記マーカーの位置関係を変化させることによって前記撮像部を前記マーカーに合焦させる
    請求項4に記載のロボット。
  6. 前記予め決められた状態は、3つ以上の前記基準点を含む平面と、前記撮像部の光軸とが垂直な状態を含む、
    請求項1から5のいずれか一項に記載のロボット。
  7. 前記予め決められた状態は、前記撮像部の光軸が前記平面を通る位置が互いに異なる3つ以上の状態を含む、
    請求項6に記載のロボット。
  8. 前記撮像部は、前記アームに設けられる、
    請求項1から7のいずれか一項に記載のロボット。
  9. 前記マーカーは、前記アームに設けられる、
    請求項1からのいずれか一項に記載のロボット。
  10. 校正開始指示を受け付ける指示受付部と、
    前記校正開始指示が受け付けられると、基準点を示すマーカーと単一の焦点距離をもつ撮像部との位置関係を変化させるアームと、
    を備えるロボットと、
    前記撮像部と前記マーカーの位置関係が、前記撮像部が前記マーカーに合焦する状態にあるときに、前記マーカーが前記撮像部によって撮像された画像に基づいて前記撮像部の座標系と前記ロボットの座標系との校正を行う校正装置と、
    を備えるロボットシステム。
  11. 3つ以上の基準点を示すマーカーと、単一の焦点距離をもつ撮像部との位置関係を、
    前記3つ以上の基準点を含む平面と前記撮像部の光軸とが垂直な第一状態、
    前記撮像部が前記3つ以上の基準点の少なくともいずれかを示す前記マーカーに合焦する第二状態、
    前記撮像部の光軸が前記平面上の第一点を通る第三状態、
    前記撮像部の光軸が前記平面上の第二点を通る第四状態、
    前記撮像部の光軸が前記平面上の第三点を通る第五状態、
    の順に自動で変化させるアームを備え、
    前記第三状態、前記第四状態および前記第五状態において前記撮像部によって前記マーカーが撮像された画像に基づいて前記撮像部の座標系とロボットの座標系との校正が行われる、
    ロボット。
  12. 前記アームは、前記撮像部によって前記マーカーが撮像された画像に基づいて導出される目標値を取得し、前記目標値に基づいて前記位置関係を自動で変化させる、
    請求項11に記載のロボット。
JP2014236299A 2014-11-21 2014-11-21 ロボットおよびロボットシステム Active JP6565175B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014236299A JP6565175B2 (ja) 2014-11-21 2014-11-21 ロボットおよびロボットシステム
CN201580049974.1A CN107073719B (zh) 2014-11-21 2015-11-13 机器人和机器人系统
EP15861922.1A EP3221095B1 (en) 2014-11-21 2015-11-13 Robot and robot system
US15/514,666 US10525597B2 (en) 2014-11-21 2015-11-13 Robot and robot system
PCT/JP2015/005678 WO2016079967A1 (en) 2014-11-21 2015-11-13 Robot and robot system
TW104138100A TWI670153B (zh) 2014-11-21 2015-11-18 機器人及機器人系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014236299A JP6565175B2 (ja) 2014-11-21 2014-11-21 ロボットおよびロボットシステム

Publications (2)

Publication Number Publication Date
JP2016097474A JP2016097474A (ja) 2016-05-30
JP6565175B2 true JP6565175B2 (ja) 2019-08-28

Family

ID=56076398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014236299A Active JP6565175B2 (ja) 2014-11-21 2014-11-21 ロボットおよびロボットシステム

Country Status (1)

Country Link
JP (1) JP6565175B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL274911B1 (en) * 2020-05-25 2023-06-01 Metalix Cad/Cam Ltd Device and method for calibrating a robotic cell

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6710946B2 (ja) 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US10551821B2 (en) 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
JP6885856B2 (ja) * 2017-11-28 2021-06-16 芝浦機械株式会社 ロボットシステムおよびキャリブレーション方法
US10369698B1 (en) * 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
CN111452045B (zh) * 2020-03-30 2024-01-30 北京伟景智能科技有限公司 一种基于立体视觉的钢筋识别标记系统和方法
TW202239546A (zh) * 2020-12-10 2022-10-16 日商發那科股份有限公司 圖像處理系統及圖像處理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL274911B1 (en) * 2020-05-25 2023-06-01 Metalix Cad/Cam Ltd Device and method for calibrating a robotic cell

Also Published As

Publication number Publication date
JP2016097474A (ja) 2016-05-30

Similar Documents

Publication Publication Date Title
EP3221095B1 (en) Robot and robot system
JP6565175B2 (ja) ロボットおよびロボットシステム
US10099380B2 (en) Robot, robot control device, and robot system
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9884425B2 (en) Robot, robot control device, and robotic system
US11247340B2 (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP3946711B2 (ja) ロボットシステム
CN107428009B (zh) 用于工业机器人调试的方法、使用该方法的工业机器人系统和控制系统
JP4021413B2 (ja) 計測装置
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP2020116734A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP4191080B2 (ja) 計測装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US20160279800A1 (en) Robot, robot control device, and robotic system
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
CN114833832B (zh) 一种机器人手眼标定方法、装置、设备及可读存储介质
JP2016182648A (ja) ロボット、ロボット制御装置およびロボットシステム
JP6507792B2 (ja) ロボットおよびロボットシステム
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP6337530B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
US20230328372A1 (en) Image processing system and image processing method
Afanasev et al. Machine Vision for Auto Positioning in the Modular Industrial Equipment: A Case Study
JP5782538B2 (ja) ツール取付け部に対するツール基準点位置の計測方法、ツール取付け部に対するツール基準点位置の計測装置、およびその計測装置を備えるロボット

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150