JP2672509B2 - カメラモデルの自動キャリブレーション方法およびその装置 - Google Patents

カメラモデルの自動キャリブレーション方法およびその装置

Info

Publication number
JP2672509B2
JP2672509B2 JP62147205A JP14720587A JP2672509B2 JP 2672509 B2 JP2672509 B2 JP 2672509B2 JP 62147205 A JP62147205 A JP 62147205A JP 14720587 A JP14720587 A JP 14720587A JP 2672509 B2 JP2672509 B2 JP 2672509B2
Authority
JP
Japan
Prior art keywords
image
calibration
dimensional
coordinates
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62147205A
Other languages
English (en)
Other versions
JPS63311485A (ja
Inventor
敦司 久野
正誓 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP62147205A priority Critical patent/JP2672509B2/ja
Publication of JPS63311485A publication Critical patent/JPS63311485A/ja
Application granted granted Critical
Publication of JP2672509B2 publication Critical patent/JP2672509B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 <産業上の利用分野> この発明は、例えば産業用ロボットにおける視覚認識
技術に関連し、殊にこの発明は、視覚を構成する撮像装
置のカメラモデルのキャリブレーションを自動的に実行
するための自動キャリブレーション装置に関する。 <従来の技術> 従来、物体の形状等を認識するために種々な方式があ
り、その一方式として、先般、板状のスリット光を用い
た3次元物体認識方式が提案されている。この方式は、
投光装置により板状のスリット光を物体に照射してその
表面にスリット光の交わり線を生成し、その交わり線を
撮像装置により撮像してスリット像を得た後、そのスリ
ット像を画像処理して、物体認識を行うものである。こ
の種の方式の場合、認識処理に先立ち、前記撮像装置や
投光装置のキャリブレーションを実行して、カメラモデ
ルやスリット光モデルを予め求めておく必要がある。 従来、撮像装置のキャリブレーションを行うには、表
面に複数個のマークが設けられたキャリブレーション用
ワークを用意し、このワークを撮像装置で撮像してその
マーク画像を画面上に生成する。その後、オペレータが
それぞれマーク画像がどのマークに対応するのかを画面
上で判断して手作業によりラベル付け操作を行った上
で、各マークの空間座標位置とそれぞれマークに対応す
る各マーク画像の検出座標位置とをコンピュータに与え
てキャリブレーション演算を実行させ、これにより撮像
装置のカメラモデルを求めている。 <発明が解決しようとする問題点> ところがこのようなキャリブレーション方式の場合、
各マーク画像をラベル付けするのに手作業で行っている
ため、その操作が面倒かつ非能率的であり、キャリブレ
ーションを行うのに多大の時間がかかるという問題があ
る。 この発明は、上記問題に着目してなされたもので、画
像のラベル付け処理を自動化して撮像装置のカメラモデ
ルを自動生成することによって、カメラモデルのキャリ
ブレーションを容易かつ短時間で行うことができるカメ
ラモデルの自動キャリブレーション装置を提供すること
を目的とする。 <問題点を解決するための手段> 第1の発明は、3次元座標と、ラベルと、形状または
配置の情報とが既知である特徴部分を複数個備えたキャ
リブレーション用ワークを用いてカメラモデルのキャリ
ブレーションを自動的に行うための方法であって、撮像
手段により前記キャリブレーション用ワークを撮像して
得られた2次元画像上で複数個の特徴部分を抽出すると
共に、この2次元画像上においてそれぞれの特徴部分の
2次元座標を検出する第1の工程と、前記2次元画像上
で検出された各特徴部分をキャリブレーション用ワーク
の前記既知の形状または配置の情報と比較して、前記2
次元画像上で検出された各特徴部分を、それぞれキャリ
ブレーション用ワークのいずれかの特徴部分のラベルで
ラベル付けする第2の工程と、キャリブレーション用ワ
ークの特徴部分の前記既知の3次元座標と前記2次元画
像上における特徴部分の2次元座標とにおいて同一のラ
ベルを持つ特徴部分の座標を組として用いて、前記既知
の3次元座標を前記2次元座標に変換するためのパラメ
ータである前記撮像手段のカメラモデルを求める演算を
行う第3の工程とを一連に実行することを特徴とする。 また第2の発明は、上記の方法を実施するためのカメ
ラモデルの自動キャリブレーション装置であって、前記
キャリブレーション用ワークを撮像してキャリブレーシ
ョン用ワークの2次元画像を生成する撮像手段と、前記
撮像手段により撮像された前記キャリブレーション用ワ
ークの2次元画像が格納される画像記憶手段と、前記画
像記憶手段に格納された前記キャリブレーション用ワー
クの2次元画像上で複数個の特徴部分を検出すると共
に、この2次元画像上においてそれぞれの特徴部分の2
次元座標を検出する2次元座標検出手段と、前記2次元
画像上で検出された各特徴部分をキャリブレーション用
ワークの前記既知の形状または配置の情報と比較して、
前記2次元画像上で検出された各特徴部分を、それぞれ
キャリブレーション用ワークのいずれかの特徴部分のラ
ベルでラベル付けするラベル付け手段と、キャリブレー
ション用ワークの特徴部分の前記既知の3次元座標と前
記2次元画像上における特徴部分の前記2次元座標とに
おいて同一のラベルを持つ特徴部分の座標を組として用
いて、前記既知の3次元座標を前記2次元座標に変換す
るためのパラメータである前記撮像手段のカメラモデル
を求める演算を行う演算手段とを備えている。 <作用> 撮像手段により撮像されたキャリブレーション用ワー
クの2次元画像上で各特徴部分とその座標位置が検出さ
れると、つぎにキャリブレーション用ワークの各特徴部
分の形状または配置の既知情報が参照されて、2次元画
像上の各特徴部分がそれぞれキャリブレーション用ワー
クのいずれかの特徴部分のラベルによりラベル付けされ
る。さらにキャリブレーション用ワークの特徴部分の既
知の3次元座標と画像上の特徴部分の2次元座標とを、
同一のラベルを持つ特徴部分ごとに組とし、これら各座
標の組を用いた演算処理を行なうことにより、カメラモ
デルの生成が行われる。 第2の発明にかかる自動キャリブレーション装置で
は、2次元撮像手段により撮像されたキャリブレーショ
ン用ワークの画像が画像記憶手段内に格納されると、2
次元座標検出手段によりこの2次元画像上における各特
徴部分の座標位置が検出される。ついでラベル付け手段
がキャリブレーション用ワークの各特徴部分の形状また
は配置の既知情報を参照して、2次元画像上の各特徴部
分をそれぞれキャリブレーション用ワークのいずれかの
特徴部分のラベルでラベル付けすると、演算手段は、キ
ャリブレーション用ワークの特徴部分の既知の3次元座
標と画像上の特徴部分の2次元座標とを、同一のラベル
を持つ特徴部分ごとに組にし、これら各座標の組を用い
た演算を実行して、カメラモデルを生成する。 この発明によれば、キャリブレーション用ワークを撮
像して得られた2次元画像上での特徴部分の検出や2次
元画像における特徴部分の対応付け処理が自動的に行わ
れて、撮像装置のカメラモデルが自動生成される。 <実施例> 第1図はこの発明にかかる自動キャリブレーション装
置2の概念を示しており、この自動キャリブレーション
装置2がインターフェイス3を介して物体認識装置1に
電気接続されている。 物体認識装置1は物体の形状等を認識するためのもの
であって、撮像装置4と、ビデオ信号を取り込み所定の
画像処理を実行して物体認識する画像処理装置5とから
構成されている。 自動キャリブレーション装置2は、コンピュータのCP
U6を制御主体としており、撮像装置4のキャリブレーシ
ョンを実行するためのプログラムを格納するROM7や各種
データを格納する演算用RAM8を備えている。CPU6はキャ
リブレーション用プログラムを解読実行し、撮像装置4
よりキャリブレーション用ワーク9の画像データを取り
込んで、所定のキャリブレーション演算を実行する。そ
の結果、カメラモデル(詳細は後述する)が生成され、
そのカメラモデルを構成する座標変換係数が物体認識装
置1へ出力される。 第2図および第3図は、上記自動キャリブレーション
装置が組み込まれた物体認識装置を示しており、第2図
は2次元物体認識装置の例であり、また第3図は板状の
スリット光を用いた3次元物体認識装置の例である。 第2図の装置例は、コンピュータのCPU12を制御主体
とし、このCPU12に対し、画像処理用プログラムやキャ
リブレーション用プログラムが格納されるROM13,被認識
物体の画像やキャリブレーション用ワーク9の画像が格
納される画像記憶部15,カメラモデルを構成する座標変
換係数が格納される係数記憶部16,演算用に供されるRAM
17の他、CRTより成る表示部18やキーボードより成る操
作部19が、それぞれ接続されている。前記画像記憶部15
は画像メモリより成り、インターフェイス20を介して撮
像装置21に接続される。この撮像装置21は例えば2次元
CCDテレビカメラより成り、被認識物体やキャリブレー
ション用ワーク9を撮像してそのビデオ信号を出力す
る。 前記キャリブレーション用ワーク9は、第4図および
第5図に示す如く、平面形状が正方形の薄板状をなし、
一定高さ(厚み)hの平坦面10上に複数個のマーク11が
設けてある。これら各マーク11は同一径の円形であり、
このキャリブレーション用ワーク9を撮像して2値化し
たとき、その背景である平坦面10や床面などと明確に区
別できるように円形内に黒く塗り潰してある。またマー
ク11の総数は10個であり、第5図に示す如く、各マーク
11に対し「0」〜「9」のラベルが割り当ててある。各
マーク11は所定の規則に従って配置してあり、ラベルが
0,5,6,7,8,9の各マーク11は直交する対角線上にほぼ位
置し、その他のラベルの各マーク11はその線外に位置し
ている。 なお図示例の各マーク11は同一形状であるが、後記す
るラベル付けのために個々の形状を違えてもよい。 第3図の装置例は、上記第2図の装置例とは、キャリ
ブレーション用ワーク23の態様が異なる点および投光装
置22を具備している点で差異がある。なおその他の構成
は、第2図の実施例と同様であり、ここでは対応する構
成に同一の符号を付すことにより、その説明を省略す
る。 この実施例でのキャリブレーション用ワーク23は、第
6図および第7図に示す如く、高さ(厚み)h1,h2の異
なる二段階の平坦面24,25を有し、各平坦面24,25上に前
記マーク11と同様のマーク26が5個宛(合計10個)設け
られたものである。各マーク26には第7図に示す如く、
「0」〜「9」のラベルが割り当てられ、前記の実施例
と同様の規則に基づき各マーク26の配置が決定されてい
る。 前記投光装置22は、被認識物体やキャリブレーション
用ワーク23に対し板状のスリット光を斜め上方より照射
して、その表面にスリット光の交わり線27を生成するた
めのもので、この交わり線27を撮像装置21で撮像して、
被処理画像としてのスリット像を得る。 第8図および第9図は、前記撮像装置21のカメラモデ
ルの構造を示している。同図中、OCは撮像装置21の撮像
面31の中心点を示し、この中心点OCを原点としてXC軸,Y
C軸,ZC軸を各直交軸とするカメラ座標系が設定されてい
る。Rは撮像装置21のレンズ中心であり、結像距離lemb
はOCR間の距離で与えられる。また第8図中、S0は画像
処理時のサンプリングの原点、PCX,PCYはXC軸方向およ
びYC軸方向の各サンプリングピッチである。なお第8図
中のIJ座標系はこの撮像面31に当てはめられた画像メモ
リ座標系であり、また第9図中のxyz座標系は物点に空
間座標を与える基準座標系である。 ここでカメラモデルとは、撮像装置の3次元位置およ
び姿勢、レンズの結像距離、ビデオ信号のディジタル化
仕様を表現するモデルであって、前二者を外部モデル、
後者を内部モデルという。撮像装置の位置および姿勢は
前記カメラ座標系を基準座標系か表現したものであり、
この撮像装置の位置・姿勢およびレンズの結像距離は撮
像装置の移動やピント調整により変化する。 撮像装置の基準座標系より見た位置・姿勢を〔FRAM
E〕とすると、この〔FRAME〕は次式のように4行4列の
行列として表現できる。 ここで はカメラ座標系のXC方向の単位ベルトルであり、f11,f
21,f31はそのベクトルの基準座標系におけるxyz成分で
ある。 また はカメラ座標系のYC方向およびZC方向の単位ベクトルで
あり、f12,f22,f32およびf13,f23,f33はそれぞれベクト
ルの基準座標系におけるxyz成分である。 さらに はカメラ座標系の原点OCの位置座標であり、f14,f24,f
34は基準座標系におけるxyz成分である。 以上から、行例〔FRAME〕の各要素については理想的
につぎの(2)〜(6)式が成立する。 f11 2+f21 2+f31 2=f12 2+f22 2+f32 2 =f13 2+f23 2+f33 2=1 …(2) f11f12+f21f22+f31f32=0 …(3) f11f13+f21f23+f31f33=0 …(4) f12f13+f22f23+f32f33=0 …(5) f41=f42=f42=0,f44=1 …(6) ただし(2)式は単位ベクトルという条件を表すもの
であり、(3)〜(5)式はカメラ座標系の各軸が直交
することを示すものである。 つぎに結像変換を表す行列を〔LENZ〕とすると、この
〔LENZ〕は次式で示される。 さらに撮像装置の内部モデルは、撮像面31上で画像が
どのようにサンプリングされるかを示すものであり、こ
れを〔SAMP〕とすると、次式のような3行3列として表
現できる。 なお上式中、ORGX,ORGYは第8図に示す如く、撮像面3
1におけるサンプリング原点S0のXC座標およびYC座標を
示す。 いま基準座標系およびカメラ座標系で表現した物点Bi
(第9図に示す)の3次元座標を、 (xi,yi,zi,1)‥‥基準座標系 (ei,fi,gi,1)‥‥カメラ座標系 とし、またこの物点Biについてカメラ座標系および画像
メモリ座標系で表現した像点Piの座標を、 (pi,qi,1)‥‥カメラ座標系 (Ii,Ji,1)‥‥画像メモリ座標系 とする。なおこれらの各座標は同次座標表現で表してあ
り、tは転置行列を示す。 この場合に基準座標系で表現した物点Biの3次元座標
が、カメラ座標系で表現した3次元座標に変換される過
程はつぎの(9)式で表される。 つぎに結像変換によって物点座標が像点座標に変換さ
れる過程はつぎの(10)式で表される。 なお上式中、h1は座標のひずみ等を表す変数である。 さらにカメラ座標系で表現した像点Piの座標が画像メ
モリ座標系で表現した座標に変換される過程はつぎの
(11)式で表される。 つぎに第10図は、第3図の装置例において、撮像装置
21のキャリブレーションを実行する手順を示している。 このキャリブレーションは、第6,7図に示すキャリブ
レーション用ワーク23を用いて実行されるもので、各マ
ーク画像の中心点を画像上で抽出した上で、各マーク26
の中心点の3次元座標(既知)と各マーク座像の中心点
の画像上の座標とから撮像装置21のカメラモデルを生成
するものである。 まず同図のステップ1(図中「ST1」で示す)におい
て、マーク画像を2値化するためのしきい値THを決定し
た後、投光装置22をオフして、キャリブレーション用ワ
ーク23を撮像装置21で撮像する(ステップ2,3)。撮像
装置21はキャリブレーション用ワーク23を画像化してそ
のビデオ信号をインターフェイス20へ出力するもので、
CPU12はこのワーク23の画像を前記のしきい値THにより
2値化し、マーク画像の部分を黒画素(データ「1」の
画素)、背景の部分を白画素(データ「0」の画素)と
して、この2値画像を画像メモリより成る画像記憶部15
に格納する。 つぎにCPU12はステップ4において、キャリブレーシ
ョン用ワークの2値画像よりマーク画像の中心点を抽出
する。 第11図はこの中心点抽出方法の一例を示すもので、キ
ャリブレーション用ワーク画像32に対しマーク探索用ウ
ィンドウ34およびマーク中心点抽出用ウィンドウ35が設
定されている。マーク探索用ウィンドウ34は縦長矩形状
であり、長辺の長さがdj、短辺の長さがdiである。また
マーク中心点抽出用ウィンドウ35は正方形状であり、各
辺の長さがwである。いま各マーク画像33の半径をrと
すると、各ウィンドウ34,35の各サイズは、この半径r
の関数としてつぎの(12)〜(14)式により求める。 dj=3r ‥‥(12) di=2 ‥‥(13) w=4r ‥‥(14) ただし半径rは黒画素の全面積Sとマークの個数(=
10)からつぎの(15)式によって求めるもので、これに
より照明などの観測条件が変動しても、マーク画像位置
の抽出の精度が劣化しにくくなる。 まずマーク画像33を探索するのに、マーク探索用ウィ
ンドウ34を矢印方向へ走査し、ウィンドウ34内の黒画素
の面積がウィンドウ面積の80%を占める位置を求める。
そしてその位置でマーク探索用ウィンドウ34を止め、ウ
ィンドウ内の黒画素の重心Gの位置を求める。この重心
位置はマーク画像33の中心点CMの近傍である。つぎにこ
の中心点CMの位置を求めるのに、マーク中心点抽出用ウ
ィンドウ35を重心Gを中心にしてセットし、このウィン
ドウ内の黒画素の中心座標を中心点CMとして求める。こ
の中心点CMの座標が求まると、同じマーク画像の重複処
理を防止するため、処理済みマーク画像を消去するとよ
い。以下同様の処理をマーク探索用ウィンドウ34を画像
全面にわたり走査しながら実行して、全てのマーク画像
33につき中心点CMを抽出する。 第10図に戻って、ステップ4の中心点抽出が終わる
と、つぎのステップ5でCPU12は各マーク画像33の中心
点CMの検出座標位置に基づき各マークの配置に関する情
報を参照して各マーク画像33をいずれかマークと対応さ
せてラベル付けする。 すなわちCPU12は、第12図に示す如く、まず10個のマ
ーク画像33の中心点CMにつきその重心gを求め、その重
心gに最も近い位置にある中心点CM−9のマーク画像33
にラベル「9」を割り付ける。つぎにこのラベル「9」
のマーク画像33の中心点CM−9から最も遠い位置にある
中心点CM−0のマーク画像33にラベル「0」を割り付け
る。ついでラベル「0」のマーク画像の中心点CM−0よ
りラベル「9」のマーク画像の中心点CM−9に向かう単
位ベクトルをとし、このベクトルに直交する単位ベ
クトルをとする。そしてラベル「9」の中心点CM−9
を原点とし、各単位ベクトル,の方向を軸とする座
標系によって各マーク画像33の中心点CMの座標を表現し
直し、第i番目に検出したマーク画像の中心点CMのn座
標およびt座標を(ni,ti)とする。 つぎにラベル「9」のマーク画像33の中心点CM−9と
ラベル「0」のマーク画像33の中心点CM−0との距離の
1/4をしきい値athとし、各マーク画像33の中心点CMと前
記しきい値athとを用いて、次表に示す規則に基づき他
のマーク画像33のラベル付けを行う。 なお同表中、「正」はn座標やt座標の値がしきい値
athより大であることを、また「0」はその座標値の絶
対値がしきい値ath以下であることを、さらに「負」は
その座標値が−athよりも小であることを、それぞれ示
している。 つぎにステップ6において、CPU12は各マーク26の中
心点の空間座標位置とそれぞれマークと対応関係にある
各マーク画像33の中心点の検出座標位置とから所定の演
算を実行して撮像装置21の外部モデルを生成する。 いまこの外部モデルを表す行例を〔EXT〕とすると、
この〔EXT〕は前記(9)(10)式よりつぎの(16)(1
7)式のように表される。 〔EXT〕=〔LENZ〕・〔FRAME〕-1 ‥‥(16) ここで〔FRAME〕-1の各要素を、 で表現すると、(7)式と(18)式とを(16)式に代入
してつぎの(19)式を得る。 ここで(19)式に示す要素をもつ撮像装置21の外部モ
デルを、各マーク画像33の中心点CMの画像メモリ座標系
における座標と各マーク26の中心点の基準座標系におけ
る座標とを用いて算出する。 いまラベルiのマーク画像33の中心点CMにつき、画像
メモリ座標系における座標が(Ii,Ji)であるとし、ま
たこれをカメラ座標系で表現した座標を(pi,qi)とす
ると、前記(11)式よりつぎの(20)式を得る。 つぎにラベルiのマーク26の中心点の基準座標系にお
ける3次元座標(xi,yi,zi)とすると、(20)式を用い
て前記(17)式を解くことにより〔EXT〕を求めること
ができる。 この場合に前記(19)式を(17)式に代入し、pi,qi
につき整理すると、つぎの(21)(22)式を得る。 上記(21)(22)式を変形しかつC34=1と置くと、
つぎの(23)(24)式を得る。 C11xi+C12yi+C13zi+C14 −C31xipi−C32yipi−C33zipi=pi ‥‥(23) C21xi+C22yi+C23zi+C24 −C31xiqi−C32yiqi−C33ziqi=qi ‥‥(24) ここで行列〔C〕を、 〔C〕=〔C11C12C13C14C21C22C23C24C31C32C33 ‥‥(25) と置き、さらに(23)(24)式がN個の点(i=1,‥
‥,N)につき成立する場合に、行例〔A〕および〔R〕
をつぎの(26)(27)式のように置く。 〔R〕=〔x1y1x2y2‥‥xiyi‥‥xNyN ‥‥(27) かくして上記の各行列〔C〕〔A〕〔R〕を用いて、
i=1,‥‥,Nについての(23)(24)式を書きなおす
と、つぎの行列方程式を得る。 〔A〕・〔C〕=〔R〕 ‥‥(28) そして行列〔C〕は、最小2乗法を適用することによ
って、次のように求まる。 〔C〕=(〔A〕・〔A〕)-1・〔A〕〔R〕 ‥‥(29) 従って(25)(29)式から(19)式の外部モデルの各
パラメータを求めることができる。 第10図に戻って、ステップ6の外部モデルの算出が行
われると、つぎにこの外部モデルから結像距離および撮
像装置21の位置・姿勢を算出する(ステップ7,8)。 この場合に外部モデルは非一意的であって、(21)
(22)式から明らかなように〔EXT〕の各要素をK倍
(ただしKは比例係数)しても成立する。従って(29)
式を解いて得られる〔C〕は本来の値をK倍したものに
なっている可能性がある。この点を考慮して、(19)式
の各要素間の関係式を記述すると次のようになる。 t11=C11・K ‥‥(30) t12=C12・K ‥‥(31) t13=C13・K ‥‥(32) t14=C14・K ‥‥(33) t21=C21・K ‥‥(34) t22=C22・K ‥‥(35) t23=C23・K ‥‥(36) t24=C24・K ‥‥(37) t31=−lenb・C31・K ‥‥(38) t32=−lenb・C32・K ‥‥(39) t33=−lenb・C33・K ‥‥(40) t34=lenb−lenb・C34・K ‥‥(41) また行列〔FRAME〕-1の各要素tijには、 t11 2+t12 2+t13 2=1 ‥‥(42) t21 2+t22 2+t23 2=1 ‥‥(43) t31 2+t32 2+t33 2=1 ‥‥(44) の各拘束条件が成立するから、以上の(30)〜(44)式
を解くことによって、つぎの(45)(46)式を得る。 かくして(45)(46)式を(30)〜(41)式に代入す
ることにより、〔FRAME〕-1の各要素tijを求めることが
でき、また〔FRAME〕-1の逆行列をとることによって、
〔FRAME〕が得られる。こうして求めたlenbが結像距離
であり、また〔FRAME〕がカメラの位置・姿勢である。 上記の撮像装置21のキャリブレーションが完了する
と、つぎに第13図に示す手順に基づき投光装置22のキャ
リブレーションを実行することになる。このキャリブレ
ーションは、カメラモデルが既知となった後、前記キャ
リブレーション用ワーク23に板状のスリット光を照射し
てスリット像を生成し、このスリット像を解析すること
により、投光装置22のスリット光モデルを生成するもの
である。 ここでスリット光モデルとは、第14図に示す如く、ス
リット光40の平面を平面方程式で表現したものである。
このスリット光40の平面方程式は、つぎの(47)式で与
えられ、従ってスリット光モデルはこの式のパラメータ
aS,bS,cS,dSの組として表現できる。 aSx+bSy+cSz+dS=0 ‥‥(47) まず第13図のステップ9で、スリット像を2値化する
ためのしきい値TH′を決定した後、ステップ10で投光装
置22をオンして、キャリブレーション用ワーク23に板状
のスリット光40を照射する。これによりワーク23の平坦
面24,25や床面に第7図に示すようなスリット光の交わ
り線27が生成され、この交わり線27は撮像装置21により
撮像される(ステップ11)。撮像装置21は交わり線27を
画像化してスリット像を求め、そのビデオ信号をインタ
ーフェイス20へ出力するもので、CPU12はスリット像を
前記しきい値TH′により2値化し、例えばスリット像の
部分を黒画素(データ「1」の画素)、それ以外の部分
を白画素(データ「0」の画素)として、この2値画像
を画像記憶部15に格納する(ステップ12)。 つぎのステップ13で、CPU12はスリット像上の像点の
3次元座標を算出する。 第15図は、像点の座標算出方法を示している。同図
中、A1〜A4,B1〜B4はキャリブレーション用ワーク23の
上下平坦面24,25の角点であって、各角点に対応するワ
ーク画像41上の角点はA1′〜A4′,B1′〜B4で示してあ
る。上下平坦面24,25および床面上にはスリット光40の
交わり線27が生成され、このワーク23を撮像したとき、
ワーク画像41には交わり線27に対応するスリット像42が
現れる。交わり線27は物点Bの集合であり、各物点Bと
その像点Pとはレンズ中心Rを通る視線43によりその位
置関係が決定される。 すなわち像点Pが与えられたとき、その像点Pに対応
する物点Bの3次元座標は像点Pの視線43とキャリブレ
ーション用ワーク23の平坦面(図示例の場合は上段の平
坦面25)との交点として求めることができる。 いま視線43を表す直線をパラメータ表現すると、つぎ
の(48)式で与えられる。ただしkRはパラメータであ
る。 上式中、(xR,yR,zR)はレンズ中心Rの3次元座標で
あり、カメラモデルが既知の状態下でつぎの(49)〜
(51)式により求まる。 xR=f14+lenb・f13 ‥‥(49) yR=f24+lenb・f23 ‥‥(50) zR=f34+lenb・f33 ‥‥(51) かくて像点Pの3次元座標を(x0,y0,z0)とすると、
nx,ny,nzはつぎの(52)式で与えられる。 なお像点Pの3次元座標(x0,y0,z0)は、カメラモデ
ルが既知の状態下では、つぎの(53)式により求まる。 上記の各式から像点Pの視線43を求めることができる
から、つぎに物点Bが位置する平坦面の平面方程式を求
める。 まずカメラモデルおよびキャリブレーション用ワーク
23の形状データが既知であるから、ワーク画像41上の角
点A1′〜A4′およびB1′〜B4′の画像上の座標(I,J)
をつぎの(54)(55)式により算出する。 なお上式中、(xB,yB,zB)は算出しようとするマーク
画像41の角点と対応関係にあるワーク23上の角点の3次
元座標を意味している。 全ての角点A1′〜A4′,B1′〜B4′の3次元座標が求
まると、つぎに着目する像点Pが角点A1′〜A4′で決ま
る四角形44と角点B1′〜B4′で決まる四角形45と、どの
ような包含関係にあるかを次表にて判断し、これにより
物点Bが平坦面24,25や床面のいずれに位置するかを判
断する。 上記により物点Bが位置する平面を判別すると、その
平面の方程式と前記視線43の方程式とを連立させて解く
ことにより、物点Bの3次元座標を算出する。 このようにしてスリット像42上の各像点Pの3次元座
標(xi,yi,zi)が得られると、スリット光40の平面パラ
メータとの間に次式が成立する。 zi=aSxi+bSyi+dS+ei ‥‥(56) ただし(47)式においてcS=−1と置く。 ここでN個の点について上式の誤差項eiについて を最小とするaS,bS,dSを次式を解くことにより得る(ス
テップ14)。 ここで(57)式の各行列を〔R〕〔A〕〔Z〕と置く
と、この(57)式はつぎの(58)式で表現できる。 〔R〕・〔A〕=〔Z〕 ‥‥(58) そしてこの式中、スリット光モデルを表す行列〔A〕
はつぎの(59)式で与えられる。 〔A〕={〔R〕・〔R〕}-1・〔R〕・〔Z〕 ‥‥(59) なお上記は第3図の装置例について撮像装置21および
投光装置22のキャリブレーションを説明したが、第2図
の装置例については撮像装置21のキャリブレーションの
みを実施すれば足り、しかもその方法は上記と同様であ
るかから、ここではその説明は省略する。 <発明の効果> この発明は上記の如く、3次元座標と、ラベルと、形
状または配置の情報とが既知である特徴部分を複数個備
えたキャリブレーション用ワークを用いてカメラモデル
のキャリブレーションを行うのに、キャリブレーション
用ワークの前記既知の形状または配置の情報により、こ
のキャリブレーション用ワークを撮像して得た2次元画
像上の特徴部分を、ワーク上のいずれかの特徴部分のラ
ベルによりラベル付けした後、同一のラベルを持つキャ
リブレーション用ワークの特徴部分と画像上における特
徴部分との各座標を組にして用いた演算を実行して、カ
メラモデルを自動で生成するようにしたから、2次元撮
像装置におけるカメラモデルのキャリブレーションの自
動化が実現でき、撮像装置のカメラモデルのキャリブレ
ーションを容易かつ短時間で実施できるなど、発明目的
を達成した顕著な効果を奏する。
【図面の簡単な説明】 第1図はこの発明にかかる自動キャリブレーション装置
の概念を示すブロック図、第2図はこの発明の一実施例
を示すブロック図、第3図はこの発明の他の実施例を示
すブロック図、第4図はキャリブレーション用ワークの
一例を示す斜面図、第5図はその平面図、第6図はキャ
リブレーション用ワークの他の例を示す斜面図、第7図
はその平面図、第8図および第9図は撮像装置のカメラ
モデルの構造を説明するための説明図、第10図は撮像装
置のキャリブレーションの実行手順を示すフローチャー
ト、第11図はマーク画像の中心点抽出方法を示す説明
図、第12図はマーク画像のラベル付け方法を示す説明
図、第13図は投光装置のキャリブレーションの実行手順
を示すフローチャート、第14図はスリット光モデルの構
造を説明するための説明図、第15図は像点の座標算出方
法を示す説明図である。 2……自動キャリブレーション装置、4,21……撮像装置 6,12……CPU、9,23……キャリブレーション用ワーク

Claims (1)

  1. (57)【特許請求の範囲】 1.3次元座標と、ラベルと、形状または配置の情報と
    が既知である特徴部分を複数個備えたキャリブレーショ
    ン用ワークを用いてカメラモデルのキャリブレーション
    を自動的に行うための方法であって、 撮像手段により前記キャリブレーション用ワークを撮像
    して得られた2次元画像上で複数個の特徴部分を抽出す
    ると共に、この2次元画像上においてそれぞれの特徴部
    分の2次元座標を検出する第1の工程と、 前記2次元画像上で検出された各特徴部分をキャリブレ
    ーション用ワークの前記既知の形状または配置の情報と
    比較して、前記2次元画像上で検出された各特徴部分
    を、それぞれキャリブレーション用ワークのいずれかの
    特徴部分のラベルでラベル付けする第2の工程と、 キャリブレーション用ワークの特徴部分の前記既知の3
    次元座標と前記2次元画像上における特徴部分の2次元
    座標とにおいて同一のラベルを持つ特徴部分の座標を組
    として用いて、前記既知の3次元座標を前記2次元座標
    に変換するためのパラメータである前記撮像手段のカメ
    ラモデルを求める演算を行う第3の工程とを一連に実行
    することを特徴とするカメラモデルの自動キャリブレー
    ション方法。 2.3次元座標と、ラベルと、形状または配置の情報と
    が既知である特徴部分を複数個備えたキャリブレーショ
    ン用ワークを用いてカメラモデルのキャリブレーション
    を自動的に行うためのカメラモデルの自動キャリブレー
    ション装置であって、 前記キャリブレーション用ワークを撮像してキャリブレ
    ーション用ワークの2次元画像を生成する撮像手段と、 前記撮像手段により撮像された前記キャリブレーション
    用ワークの2次元画像が格納される画像記憶手段と、 前記画像記憶手段に格納された前記キャリブレーション
    用ワークの2次元画像上で複数個の特徴部分を検出する
    と共に、この2次元画像上においてそれぞれの特徴部分
    の2次元座標を検出する2次元座標検出手段と、 前記2次元画像上で検出された各特徴部分をキャリブレ
    ーション用ワークの前記既知の形状または配置の情報と
    比較して、前記2次元画像上で検出された各特徴部分
    を、それぞれキャリブレーション用ワークのいずれかの
    特徴部分のラベルでラベル付けするラベル付け手段と、 キャリブレーション用ワークの特徴部分の前記既知の3
    次元座標と前記2次元画像上における特徴部分の前記2
    次元座標とにおいて同一のラベルを持つ特徴部分の座標
    を組として用いて、前記既知の3次元座標を前記2次元
    座標に変換するためのパラメータである前記撮像手段の
    カメラモデルを求める演算を行う演算手段とを備えて成
    るカメラモデルの自動キャリブレーション装置。
JP62147205A 1987-06-13 1987-06-13 カメラモデルの自動キャリブレーション方法およびその装置 Expired - Lifetime JP2672509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62147205A JP2672509B2 (ja) 1987-06-13 1987-06-13 カメラモデルの自動キャリブレーション方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62147205A JP2672509B2 (ja) 1987-06-13 1987-06-13 カメラモデルの自動キャリブレーション方法およびその装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP7251971A Division JPH08110807A (ja) 1995-09-04 1995-09-04 自動キャリブレーション方法およびその装置

Publications (2)

Publication Number Publication Date
JPS63311485A JPS63311485A (ja) 1988-12-20
JP2672509B2 true JP2672509B2 (ja) 1997-11-05

Family

ID=15424939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62147205A Expired - Lifetime JP2672509B2 (ja) 1987-06-13 1987-06-13 カメラモデルの自動キャリブレーション方法およびその装置

Country Status (1)

Country Link
JP (1) JP2672509B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3394278B2 (ja) * 1992-12-03 2003-04-07 ファナック株式会社 視覚センサ座標系設定治具及び設定方法
JP3410779B2 (ja) * 1993-09-28 2003-05-26 株式会社ソキア 画像入力装置における移動ステージの校正方法
JP3512092B2 (ja) * 1994-07-29 2004-03-29 マツダ株式会社 キャリブレーション装置
JP2004534337A (ja) * 2001-07-04 2004-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 撮像素子の位置を予測するのに用いられる参照マーキング選択の最適化
JP4055888B2 (ja) * 2001-12-27 2008-03-05 松下電器産業株式会社 カメラ装置、カメラ校正システムおよびカメラ校正方法
JP3793100B2 (ja) * 2002-02-14 2006-07-05 キヤノン株式会社 情報処理方法、装置および記録媒体
JP3735344B2 (ja) 2002-12-27 2006-01-18 オリンパス株式会社 キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
JP4885584B2 (ja) * 2006-03-23 2012-02-29 株式会社スペースビジョン レンジファインダ校正方法及び装置
JP2013096863A (ja) * 2011-11-01 2013-05-20 Shimadzu Corp キャリブレーション方法および基板検査装置
KR102633873B1 (ko) * 2017-04-17 2024-02-05 코그넥스코오포레이션 고정밀 교정 시스템 및 방법
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
KR102187587B1 (ko) * 2018-06-01 2020-12-09 주식회사 케이피에스 업룩 리뷰카메라가 부착된 텐션마스크 프레임 어셈블리의 제조장치에서 리뷰카메라 광축 조절용 표준플레이트

Also Published As

Publication number Publication date
JPS63311485A (ja) 1988-12-20

Similar Documents

Publication Publication Date Title
US11503275B2 (en) Camera calibration system, target, and process
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
US7742634B2 (en) Image processing method, three-dimensional position measuring method and image processing apparatus
JP2672509B2 (ja) カメラモデルの自動キャリブレーション方法およびその装置
CN112001972A (zh) 托盘位姿定位方法、装置、设备及存储介质
CN109345597B (zh) 一种基于增强现实的相机标定图像采集方法及装置
CN111627072A (zh) 一种对多传感器进行标定的方法、装置和存储介质
CN107155341A (zh) 三维扫描系统和框架
JPH08201021A (ja) キャリブレーション方法
JPH08110807A (ja) 自動キャリブレーション方法およびその装置
CN114283079A (zh) 一种基于图卡拍摄校正的方法及设备
JPWO2018168757A1 (ja) 画像処理装置、システム、画像処理方法、物品の製造方法、プログラム
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及系统
JPH1079029A (ja) 立体情報検出方法及びその装置
JP2001264037A (ja) カメラキャリブレーション方法及び装置及びカメラキャリブレーションプログラムを格納した記憶媒体
JP3516118B2 (ja) 物体認識方法および物体認識装置
CN116125489A (zh) 一种室内物体三维检测方法、计算机设备及存储介质
CN115880220A (zh) 多视角苹果成熟度检测方法
CN115082538A (zh) 基于线结构光投影的多目视觉平衡环零件表面三维重建系统及方法
CN112308933B (zh) 相机内参标定的方法、装置及计算机存储介质
CN114782556A (zh) 相机与激光雷达的配准方法、系统及存储介质
JP3230111B2 (ja) 自動キャリブレーション装置
CN112935562A (zh) 基于旁轴离线测量的激光精密加工方法
JP2961140B2 (ja) 画像処理方法
JPH07146937A (ja) パターンマッチング方法