JP4359939B2 - Image measuring device - Google Patents

Image measuring device Download PDF

Info

Publication number
JP4359939B2
JP4359939B2 JP14706697A JP14706697A JP4359939B2 JP 4359939 B2 JP4359939 B2 JP 4359939B2 JP 14706697 A JP14706697 A JP 14706697A JP 14706697 A JP14706697 A JP 14706697A JP 4359939 B2 JP4359939 B2 JP 4359939B2
Authority
JP
Japan
Prior art keywords
image
search
data block
feature pattern
setting unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14706697A
Other languages
Japanese (ja)
Other versions
JPH10318715A (en
Inventor
伸夫 高地
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP14706697A priority Critical patent/JP4359939B2/en
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to DE69829091T priority patent/DE69829091T2/en
Priority to DE69833813T priority patent/DE69833813T2/en
Priority to US09/081,620 priority patent/US6442292B1/en
Priority to EP98109138A priority patent/EP0880010B1/en
Priority to EP04009639A priority patent/EP1455303B1/en
Publication of JPH10318715A publication Critical patent/JPH10318715A/en
Priority to US10/194,285 priority patent/US7016528B2/en
Application granted granted Critical
Publication of JP4359939B2 publication Critical patent/JP4359939B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
異なるカメラ位置から,三次元計測をする際の前段階の標定作業の自動化ならびに、ステレオマッチングの初期値を自動的に取得し、三次元計測の自動化を行う技術に関する。
【0002】
【従来技術】
地上写真測量において、三次元計測を行う場合、図1に示す流れで計測が行われる。すなわち、対象物のステレオ撮影(a)→位置検出(b)→標定(c)→ステレオモデル形成(d)→三次元計測(e)の処理が必要である。これらの処理はコンヒ゜ュータによる演算が中心であるが、その中で、位置検出(b)及び三次元計測(e)は従来から人手を介して行われている。位置検出(b)は、撮影するカメラの位置や傾き等を求める標定の前処理である。
【0003】
標定(c)でカメラ間と測定対象物の位置関係を求めることにより、立体視可能なステレオモデルを形成することができ、三次元計測が可能となる。標定(c)を行うための位置検出(b)の処理は,異なるカメラに写し込まれている対応する6点以上のそれぞれのカメラ上における座標位置を求める作業である。
【0004】
三次元計測(e)には、ポイント計測と面計測の2種類がある。
【0005】
ポイント計測の場合、対象物上の計測点を人手を介してマニュアルで計測しているが、自動化を画ったり精度を向上するためには、対象物にマークを貼る作業を行っている。
【0006】
面計測の場合、画像処理によるステレオマッチングという手法を利用して自動で行う。その際に、テンプレート画像の決定や探索幅の設定等の初期設定は、人手を介して行う必要があった。
【0007】
【発明が解決しようとする課題】
位置検出(b)の作業は、作業者が撮影された左右画像の対象物上の6点以上の計測点を選択し、各画像を観察しながら対象物上の計測点の対応付け及び座標位置検出を行うものである。ところが、これらの作業は基本的に立体視をしながら行う必要があるため熟練を要し,かつ煩雑,困難,難解であった。
【0008】
特に、計測点を決めて左右画像を対応付け、詳細な位置座標を検出する作業は、個人差が生じ易く結果が各人各様で十分な精度が得難かった。また、人によっては計測不能となることも多々あった。このような不具合を回避するために、対象物にマークを貼る等の処理を行う場合もある。
【0009】
しかし、対象物自体にマークを貼るといった作業が増えることはマイナスであり、更に対象物によっては容易にマークを貼ることができないものもあるため、この手法は余り普及していない。
【0010】
他方、ステレオ運台上に2台のカメラを強固に固定することにより,標定作業を行わずに三次元計測をするという手法もある。
【0011】
しかし、その場合には、運台上の2台のカメラの位置関係が絶対にくるってはならず、測定環境や測定対象物が大幅に限定されてしまう。同時に、そのような装置は大きく重く持ち運び困難であり、かつ高価となるために、この手法による三次元計測法も余り普及していない。
【0012】
また、三次元計測(e)のポイント計測において、測定対象物にマーク等を貼らない場合には、作業者が撮影された画像上を観察しながら計測点を指示して計測する必要があった。このため、測定点が多いと手間や時間がかかっていた。また、精度良く計測しようとするとどうしても個人差が生じ易く、計測不能といった事態も生じていた。
【0013】
対象物にマークを貼って計測すれば上記事態を避けることができるが、その場合には、前述のようにマークを貼るための手間が新たに生じ、対象物によってはマークを貼ることが難しかったり計測不能になることもあった。
【0014】
面計測の場合は、前処理としてステレオマッチングによる自動計測を行う際のテンプレート画像の決定や、最適な探索幅の決定等を人手により行う必要があった。更に、ミスマッチング点等があった場合は人手を介して修正を行う必要があり、結局自動化することが難しかった。
【0015】
本発明は、このような従来技術の問題点に鑑み、標定作業から測定までを効率良くかつ高精度で行え、測定対象物を選ばず持ち運び可能であって簡便な構成の画像測定装置を提供することを目的としている。
【0016】
【問題点を解決するための手段】
本発明は、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求める概略位置測定部と、一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、前記概略位置測定部で求めた位置関係に基づいて基準画像に基準データブロックを設定し、捜索画像に捜索領域を設けその捜索領域中に捜索データブロックを設定するデータ設定部と、その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求める対応判別部とを備え、前記データ設定部は、前記概略位置測定部で求めた位置関係に基づいて、基準画像への基準データブロックの設定、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを行うように構成したことを特徴とする画像測定装置を要旨としている。
【0017】
【発明の実施の形態】
本発明の画像測定装置は、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求める概略位置測定部と、一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、前記概略位置測定部で求めた位置関係に基づいて基準画像に基準データブロックを設定し、捜索画像に捜索領域を設けその捜索領域中に捜索データブロックを設定するデータ設定部と、その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求める対応判別部とを備え、前記データ設定部は、前記概略位置測定部で求めた位置関係に基づいて、基準画像への基準データブロックの設定、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを行うように構成したことを特徴としている。
【0018】
上記一対の画像中には、あらかじめ位置関係がわかっている特徴パターン像が含まれており、前記概略位置測定部は、基準画像中の特徴パターン像の位置及びその捜索画像中の特徴パターン像の位置関係に基づき、一対の画像のそれぞれの画像中での測定対象物の位置関係を概略求めるように構成することができる。
【0019】
前記データ設定部は、捜索画像中の特徴パターン像の位置に基づいて、前記捜索画像に捜索領域の範囲を設定するように構成することができる。
【0020】
前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲を設定するように構成することが可能である。
【0021】
前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲の大きさを設定するように構成できる。
【0022】
前記データ設定部は、捜索画像中の特徴パターン像及び捜索領域と、又は基準画像中の特徴パターン像及び基準データブロックとが離れるにつれて捜索画像の捜索領域の範囲の幅又は面積を大きく設定するように構成できる。
【0023】
前記データ設定部は、異なる大きさの複数の捜索領域を設定するように構成できる。
【0024】
前記データ設定部は、基準画像中の特徴パターン像の位置に基づいて、基準画像に基準データブロックを設定するように構成できる。
【0025】
前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とに基づいて、基準画像に基準データブロックの大きさを設定するように構成できる。
【0026】
前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とが離れるにつれて、基準画像に基準データブロックの高さ又は幅を大きく設定するように構成できる。
【0027】
前記データ設定部は、基準画像中の特徴パターン像に基づき異なる大きさの複数の基準データブロックを設定するように構成できる。
【0028】
【実施例】
まず、図17を参照して、本発明による画像測定装置の概要を説明する。
【0029】
画像測定装置30は概略位置測定部31、データ設定部32、対応判別部33を備えている。
【0030】
概略位置測定部31は、予め位置関係が分っている特徴パターン像を用いて、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求める構成になっている。
【0031】
データ設定部32は、一対の画像の一方を基準画像、他方を捜索画像と定め、概略位置測定部31で求めた位置関係に基づいて、基準画像に基準データブロックを設定し、捜索画像に捜索領域を設定する構成になっている。
【0032】
対応判別部33は、捜索領域中に設定された捜索データブロックと基準データブロックとの対応関係を求める構成になっている。
【0033】
この画像測定装置30を利用することにより、以下で詳細に説明する三次元計測の自動化を画り、計測の精度を向上することができる。
【0034】
以下、本発明の画像測定装置を利用した形状測定装置について詳細に説明する。
【0035】
図1は形状測定装置における計測の流れを示しており、図2はその構成を概念的に示すブロック図である。
【0036】
a.対象物のステレオ撮影
まず、コントローラ4からの指示によって特徴パターン投影部3から測定対象物0に特徴パターンをあてる。そして、測定対象物0の画像を左右画像撮影部1及び2により撮影し、特徴パターン抽出部5に画像データを転送する。
【0037】
左右画像撮影部1及び2は、図3に示すように、光学系11、CCD12、CCDドライバ13、オペアンプ14、A/D変換器15等から構成される。
【0038】
図5と図6は、特徴パターンの例を示している。これらの特徴パターン20は円形で構成されているが、特徴パターン投影によるマーク像の位置が求められるものであれば、円形以外のどんな形状のものでも良い。
【0039】
特徴パターン投影部3は、スライドプロジェクターやレーザポインタ等、特徴パターン20を投影できるものなら何でもよい。
【0040】
図4は、特徴パターン抽出部5の詳細なブロック図である。
【0041】
左右画像撮影部1及び2により転送される画像データは、図3のA/D変換器15によりデジタルデータに変換され、特徴パターン抽出部5の特徴パターン投影用画像メモリ51に転送される。
【0042】
次に,コントローラ4からの指示により、特徴パターン投影を停止し、左右画像撮影部1及び2により特徴パターンなしの画像を撮影し、特徴パターン抽出部5の特徴パターンなし用画像メモリ52にデジタル画像データを転送する。
【0043】
特徴パターン投影用画像メモリ51と特徴パターンなし用画像メモリ52に画像転送が終わったら、コントローラ4の指示により、画像差分演算器53を通して二つの画像を差分する。そして、差分画像を、特徴パターン画像メモリ54に取り込む。
【0044】
この結果、特徴パターン画像メモリ54内のデータは、測定対象物0の画像情報が消去されたもの、すなわち特徴パターン20に関する情報(マーク像のデータ)のみとなる。
【0045】
b.位置検出
標定処理を行うために,特徴パターン投影によるマーク像の位置検出を行う。
【0046】
特徴パターン位置検出部55により、特徴パターン画像メモリ54内の特徴パターン座標位置を検出する。
【0047】
特徴パターン20は、その位置が明確にわかるものであればどんな形状のものでも良いが、ここでは図5や図6のような特徴パターン20を仮定する。また、特徴パターンは図5や図6のように6点以上あれば,何点でもかまわない。
【0048】
特徴パターン画像メモリ54には特徴パターン投影によるマーク像以外の情報は含まれていないため、誤検出をなくすことができる。更に、自動で位置検出を行うことが容易になるので、常に安定した位置座標検出を個人差なく高精度で行うことができる。
【0049】
ここでは、点の概略位置検出にテンプレートマッチング法を用い、詳細位置検出にモーメント法を用いる場合を説明する。
【0050】
テンプレートマッチング法については相関法の一種である残差逐次検定法(SSDA法)を説明するが、正規化相関法等を使用しても良い。また、詳細位置検出にはモーメント法でなくLOGフィルタ法等を用いても良い。
【0051】
以下、位置検出処理について説明する。
【0052】
(概略位置検出)
1.テンプレート画像を登録する。
【0053】
テンプレート画像は、図5や図6の投影特徴パターン20の一つのマークと似たようなシミュレーション画像を作成しても良い、あるいは、実際の画像をどれか選んで用いても良い。
【0054】
2.S>R(a,b)となる点を画像全体で探索する(数式1参照)。
【0055】
R(a,b)が0に近いほど類似度が高い。Sは適当な値を前持って決めておく。この場合、特徴パターン以外の画像情報は消去されているため容易に決定できる。テンプレートマッチングには正規化相関法等を用いても良いが、残差逐次検定法を使用すれば、処理をさらに高速化できる。
【0056】
[残差逐次検定法(SSDA法)]
SSDA法の原理図を図7に、式を数式1に示す。
【0057】
残差R(a,b)が最小になる点が求めるマークの位置である。
【0058】
【数1】

Figure 0004359939
式の加算において、R(a,b)の値が過去の残差の最小値を越えたら加算を打ち切り、次の(a,b)に移るよう計算処理を行うことにより、処理の高速化をはかることができる。
【0059】
3.R(a,b)最小かつ隣接するマーク位置の間隔等の条件により、投影特徴パターンのマーク位置をマーク数分決定し、位置座標とする。
【0060】
(詳細位置決定)
1.探索領域決定
前述の(概略位置検出)によって決まった点に対し、そこを中心とした探索領域を設定する。
【0061】
2.マーク領域の決定
探索領域について、濃度値がしきい値以上の領域を一つのマークとする(図8参照)。
【0062】
しきい値は、ある適当な値を予め決めておく。画像は、マーク以外は差分処理を施しているため殆ど0となっている。
【0063】
3.重心位置算出
モーメント法を行い、重心位置座標を算出する。
【0064】
[モーメント法]
図8に示されている通り、しきい値T以上の点について(マークK)、以下の式を施す。
【0065】
【数2】
Figure 0004359939
【0066】
【数3】
Figure 0004359939
この数式2及び数式3によって、サブピクセル位置まで重心位置が算出可能となる。
【0067】
4.点数分だけ1〜3を行う。
【0068】
以上で、図5あるいは図6のような特徴パターン投影によるマーク像の位置座標を算出することができる。
【0069】
概略位置検出を行わずに、最初から詳細位置検出を行っても良く、また、他のアルゴリズムによって位置検出しても構わない。
【0070】
いずれにしても,画像は特徴パターン情報のみなので、高速かつ、高精度に位置を算出することが可能である。
【0071】
c.標定
次に,特徴パターン位置検出部55で求めた座標値を姿勢算出部6に送り、標定計算を行う。
【0072】
この計算により、左右それぞれのカメラの位置等が求めるられる。
【0073】
次の共面条件式により、それらのパラメータを求める。
【0074】
【数4】
Figure 0004359939
モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合、左側のカメラのX軸の回転角ω1は0なので、考慮する必要ない。
【0075】
このような条件にすると、数式4の共面条件式は数式5のようになり、この式を解けば各パラメータが求まる。
【0076】
【数5】
Figure 0004359939
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。
【0077】
【数6】
Figure 0004359939
【0078】
【数7】
Figure 0004359939
これらの数式を用いて、次の手順により、未知パラメータを求める。
1.初期近似値は通常0とする。
2.共面条件式5を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数式6、7により求め、観測方程式をたてる。
3.最小二乗法をあてはめ、近似値に対する補正量を求める。
4.近似値を補正する。
5.補正された近似値を用いて、上記2.〜5.までの操作を収束するまで繰り返す。
【0079】
仮に、どこかのマークが対象物の形状等で、うまく位置検出されていない場合には、収束しない場合がありうる。その場合は、1点1点削除して、上記1〜5までを行い、収束したもの、あるいは、一番良いもののパラメータを使用する。
【0080】
d.ステレオモデル形成
次に、標定により求められたパラメータにより、立体視可能なステレオモデル座標系へ画像を変換し、ステレオモデルを形成する。
【0081】
モデル座標への変換式は以下のようになる。
【0082】
【数8】
Figure 0004359939
【0083】
【数9】
Figure 0004359939
【0084】
【数10】
Figure 0004359939
このようにして、三次元計測が可能な状態となる。
【0085】
e.三次元計測
(1)ポイント計測
図6のような6点以上の特徴パターン20を使用し、複数のマークを位置検出(b)と同様な処理をすることにより、その三次元座標を自動で高精度に求められる。
(2)面計測
図6のような投影特徴パターン20を使用することにより、ステレオマッチングの初期値とすることが可能となる。
【0086】
面計測の場合の初期値の決めかたについて説明する。
【0087】
図9と図10は説明図であり、図6のような投影特徴パターンのうちの一部について抜き出したものである。図9は基準とする基準画像、図10は探索を行う捜索画像である。これら基準・捜索画像は、左右どちらの画像でもよい。例えば、左画像を基準画像、右画像を捜索画像と決める。
【0088】
投影特徴パターンは基準画像S’1、S’2、S’5、S’6に対し捜索画像上ではS1、S2、S5、S6が対応している。
【0089】
対応点探索は、基準画像中の基準データブロックをテンプレート画像として、捜索画像中の捜索領域にステレオマッチングを施すことにより行う。ステレオマッチングには画像相関処理等を使用する。
【0090】
[捜索領域の決定]
投影特徴パターンをもとに、捜索領域を決定する方法について説明する。
【0091】
投影特徴パターンS1〜S2(水平方向)を幅A、S1〜S5(垂直方向)を幅Bとし、S1,S2、S5,S6で囲まれた部分を捜索領域R1とする。以下同様にS2,S3、S6,S7で囲まれた部分を捜索領域R2、…と順次それぞれの投影特徴パターンで囲まれた部分を捜索領域として決定する。
【0092】
実際の投影特徴パターンによるマーク像は、それぞれ図11に示されるように、対象物の形状やCCDの向きによって同一ライン上にあるとは限らない。そこで、各投影特徴パターンの4点から最大のA、Bの幅が得られるような四角形を作成し、捜索領域とする。例えば図11では、S1,S2,S5,S6でとりうる最大の幅は水平方向A1,垂直方向B1となり、これで作成した四角形の領域を捜索領域R1、同様に、S2,S3,S6,S7でとりうる最大幅A2,B2で作成される四角形を捜索領域R2とする。このようにすると、多少オーバーラップする領域ができるが、R1、R2領域の境界も確実に探索が可能となる。
【0093】
これは、既に求めた捜索画像中のマーク像の位置に基づいて、捜索画像に捜索領域の範囲を決定するものである。
【0094】
図12はこの捜索領域決定の変形例である。
【0095】
例えば、それぞれの投影特徴パターンは、左右画像上ですでに対応点として求められているので、捜索領域の捜索開始位置と終了位置を投影点近隣の領域とすると効率がよい。すなわち、図11の例だと、垂直方向にS1からS5まで捜索幅A1づつ探索を進めていくと、S5のライン周辺に近づくにつれ、無駄な探索領域(明らかに対応点が存在しない領域)がでる。
【0096】
そこで、図12のS1〜S5間(垂直方向)の1/2のD1までは、S1と同一の水平方向の点を捜索領域の開始点とし、D1〜S5間ではD1とS5を結んだ線上を水平方向の捜索開始点にとる。
【0097】
このような処理を各投影点につき捜索領域として設定し、捜索領域を多少オーバーラップさせながらステレオマッチングを行えば、ある程度効率のよい探索が可能となる。
【0098】
図13、図14は、捜索領域中の捜索データブロックを設定することにより、さらに捜索領域の探索を効率化したものである。
【0099】
たとえば、捜索画像中のマークS1〜S2のA1の区間において、図9で示される基準画像上の基準データブロックT1、T2、T3…、それぞれに対応する捜索領域上の位置を求めるとき、それぞれの捜索データブロックを図13で示されるように、U1、U2、U3、…、と何ブロックかにわけて設定する。このようにすれば、捜索領域探索における時間を短かくし効率的に探索できる。この場合、捜索データブロックの範囲は、基準データブロックをいくつにとるかで決定できる。例えば基準画像S’1〜S’2のA’間でn個基準データブロックを設定するとすれば、A1/n、あるいはA1/(n−1)等とすれば良い。(n−1)としたのは、多少捜索データブロックをオーバーラップさせて探索を行う場合である。
【0100】
これは、既に求めた捜索画像中のマーク像の位置及び捜索領域の位置に基づいて、捜索画像に捜索領域の範囲を設定するものである。見方を変えると基準画像中のマーク像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲を設定するものともいえる。
【0101】
図13の方式の変形例が図14に示されている。これは、捜索データブロックのサイズを可変としたものである。すなわち、マークS1、S2の近隣領域は、基準データブロックに対する対応点が近くにあることがわかっているので、捜索データブロックのサイズを小さく、離れるにしたがって対応点位置が不確かとなるため大きくするものである。従って、基準データブロックがA’/2の位置で最大の捜索データブロックサイズとなる。
【0102】
これら捜索データブロックのサイズは、S1〜S2の捜索領域A1より決定する。
【0103】
例えば、nをA’間の基準データブロック数とすれば、
・S1〜S1+A1/2の区間の捜索データブロックサイズ:
(1+t×i/n)×A1/n、
・S1+A1/2〜S2の区間の捜索データブロックサイズ:
(1+t×(n−i)/n)×A1/n、
但し、iはそれぞれの基準データブロックに対応する捜索データブロックの位置、すなわちi=1〜nとする。また、tは倍率の定数で所定の値に設定する。例えばS1+A1/2の位置でS1の位置(U1)の捜索データブロックサイズの倍にしたければ2を選ぶ。
【0104】
これら捜索データブロックサイズは、基準画像中のマークS’1、S’2及び基準データブロックT1,T2、…、に基づいて決定してもよい。その際は、上述のA1をA’とし、倍率A1/A’を加味した項を掛け合わせる。
【0105】
このように、捜索領域及び捜索データブロックを設定することにより、対応点探索を効率よく、すなわち高速かつ信頼性を高めながら行うことが可能となる。
【0106】
この方式では、捜索画像中のマーク像の位置及び捜索領域の位置との位置関係に基づいて、見方を変えれば基準画像中のマーク像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲の大きさを設定している。
【0107】
[基準データブロックの決定]
基準となる基準データブロックは、基準画像上のS’1、S’2、S’5、S’6、あるいは捜索画像上のS1、S2、S5、S6から決定する。例えば基準画像(図9)S’1〜S’2をA’、S’1〜S’5をB’とすれば、水平方向の基準データブロック幅はA’/n、垂直方向はB’/mのように決定できる。
【0108】
あるいは、左右画像の比率に比例した大きさにしてもよい。例えば、水平方向はA’/A*n、垂直方向は、B’/B*mのように設定する。
【0109】
n、mは計測したい対象物の大きさと画素数の関係によって適切な大きさを求めることができるが、A’、B’の値によって適宜定数としても良い。
【0110】
図15は基準データブロックサイズを1種類でなく3種類として相関積をとりながら、上述の処理と同様にステレオマッチングしていく方法である。この場合も、この3種類のサイズをA’,B’の情報をもとに決定できる。
【0111】
図16は、本発明の基準データブロック決定における更なる変形例である。S’1及びS’2近隣の領域は、基準・捜索画像上で比較的対応が取れているために基準データブロックは小さくてよいが、離れるにしたがって、対応位置が不確かとなるため基準データブロックサイズを動的に変化させる。たとえば、T1位置、T2位置、T3位置において図14のように基準データブロックを拡大していく。そして、基準データブロック位置がA’/2地点で最大の大きさとする。A’/2からS’2に向かっては、基準データブロックサイズを逆に順次小さくしていく。
【0112】
このようにすることにより、ステレオマッチングの信頼性を高めることができる。
【0113】
これら基準データブロックサイズは、S’1〜S’2の水平方向の幅A’、S’1〜S’5の垂直方向の幅B’より決定する。
【0114】
例えば、n,mをA’、B’間の基準データブロック数とすれば、
・S’1〜S’1+A’/2の区間の基準データブロックサイズ:
水平方向:(1+t×i/n)×A’/n、
垂直方向:(1+t×l/m)×B’/m
・S’1+A’/2〜S’2の区間の基準データブロックサイズ
水平方向:(1+t×(n−i)/n)×A’/n、
垂直方向:(1+t×(m−i)/m)×B’/m
但し、i,lはそれぞれの基準データブロック位置、すなわちi=1〜n、l=1〜mとする。
【0115】
ここで、tは倍率の定数であり、所望の値に設定する。例えばS’1+A’/2の位置でS’1の位置(T1)の基準データブロックサイズの倍にしたければ2を選ぶ。
【0116】
このようにすれば、基準データブロックを可変にできる。
【0117】
また、図15のような3種類の基準データブロックを上述の例のように可変とし、相関積をとることにより、ステレオマッチングしていけば、更に信頼性の高い対応点探索が可能となる。
【0118】
これら基準データブロックの決定は、捜索画像におけるマークS1,S2によって同様に行ってもよい。その際は、A’をA1、B’をB1として更に基準画像と捜索画像の倍率A’/A1を加味した項を掛け合わせる。
【0119】
以上のようにすることによって、各初期値が自動で求められる。
【0120】
次に、実際に行う計測(ステレオマッチング)の手順について説明する。
【0121】
例として図6の投影特徴パターンS1〜S8の場合について、図9、11により説明する。
【0122】
垂直方向は標定処理が終了し、縦視差が除去されている(位置合わせしてある)ので、基準画像、捜索画像の同一ライン上を探索するだけで良い。また捜索データブロックを設定する際は、各捜索領域において上述のように適宜設定して行う。
【0123】
1.捜索画像のS1〜S2までの捜索領域R1の水平方向のラインL1の探索幅A1に対し、
基準画像中のT1、T2、T3、…の基準データブロックで順次対応点探索を行う。
【0124】
これら初期値は、先に述べたような方法で決定しておく。
【0125】
捜索領域R1のラインL1上のA1が終了したら、
2.S2〜S3の捜索領域R2に対し、この領域で決められた基準データブロック位置からラインL1のA2上の対応点探索を順次繰り返す。
【0126】
3.次に、S3〜S4の捜索領域R3のラインL1のA3を対応点探索する。捜索領域R3に対しては、この領域で決められたテンプレートサイズ、位置で順次行う。
【0127】
ラインL1の対応点探索が終了したら、次のラインL2に移動して、また、捜索領域R1の探索幅A1から、対応点探索を1〜3と同様に繰り返す。
【0128】
これを必要なライン数分繰り返す。
【0129】
以上のようにすれば、投影特徴パターンの位置から、ステレオマッチングする際の初期値、すなわち、捜索領域、捜索データブロック、および基準データブロックを自動で決定し、自動計測が可能となる。
【0130】
さらに、基準・捜索画像の捜索領域と基準データブロックをA’、B’以内と限定できるため、通常のステレオマッチングよりはるかに高速な処理が可能となる。すなわち、通常は、各探索位置において1水平ライン分(図6、line)ステレオマッチングを行うのであるが、その処理時間が投影点の数により数分の1となる。
【0131】
また、基準・捜索画像上の対応領域があらかじめ限定され求められているため、ミスマッチングが大幅に減少できる。すなわち、ステレオマッチングの信頼性を大幅に向上させることができる。
【0132】
これに加えて、基準データブロックや捜索領域、捜索データブロックを投影点の位置情報により適切に決定できるので、更にステレオマッチングの信頼性が高められる。
【0133】
また、基準データブロックや捜索データブロックをその探索位置により動的に可変可能となるので、信頼性がそれ以上に高められる。
【0134】
そして、これらステレオマッチングは、投影特徴パターンのない画像上で行えるので特徴パターンによる誤検出が生じない。また、特徴パターンがない画像は画像データベースとしての価値が生じ,計測と同時に原画像の蓄積が行える。
【0135】
さらに、前述の実施例によれば、特徴パターンを投影した画像と投影しない画像を使用するために、対象物に計測用のマークを貼るという作業が必要なくなり、マークの貼れないような対象物においても計測が可能になる。
【0136】
このように、特徴パターンがある画像とない画像を差分することにより、特徴パターン情報のみの画像が作成できることから、特徴パターン位置検出〜標定〜ステレオモデル形成〜三次元計測までを、人手によらず自動で精度良く行うことが可能となる。すなわち、従来熟練を要し煩雑であった人手による標定作業と三次元計測作業をなくすことができ、すべてを自動で行って信頼性を向上することが可能となる。
【0137】
さらに,カメラをステレオ運台上に強固に固定する必要はなく、現場で2台のカメラをラフに設置して撮影するだけで、高精度な三次元計測が可能になるので、現場や対象物によらず簡便に計測可能であるという卓越した効果がある。
【0138】
また,特徴パターンの点を増やすことにより,ステレオマッチングの初期値とすること、すなわち自動で探索幅、テンプレート画像の決定を行いステレオマッチングすることが可能となり、更にステレオマッチング時間の短縮と信頼性を大幅に向上させながら,対象物の表面形状を自動測定できるという卓越した効果がある。
【0139】
【発明の効果】
本発明によれば、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求め、一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、前記概略位置測定部で求めた位置関係に基づいて基準画像に基準データブロックを設定し、捜索画像に捜索領域を設けその捜索領域中に捜索データブロックを設定し、その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求めるに当たって、概略の位置関係に基づいて、基準画像への基準データブロックの設定、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを行うように構成することにより、対応関係を正確に求めることができる。
【図面の簡単な説明】
【図1】本発明の形状測定装置における計測の流れを示すブロック図。
【図2】本発明の形状測定装置を概念的に示すブロック図。
【図3】形状測定装置の左右画像撮影部を示す概念図。
【図4】形状測定装置のパターン抽出部を示すブロック図。
【図5】投影パターンの一例を示す平面図
【図6】投影パターンの別の例を示す平面図
【図7】SSDA法によるテンプレートマッチングを示す説明図。
【図8】モーメント法を示す説明図。
【図9】基準画像を示す説明図。
【図10】捜索画像を示す説明図。
【図11】捜索画像を示す説明図。
【図12】捜索画像を示す説明図。
【図13】捜索画像を示す説明図。
【図14】捜索画像を示す説明図。
【図15】基準画像を示す説明図。
【図16】基準画像を示す説明図。
【図17】本発明による画像測定装置の概要を示すブロック図。
【符号の説明】
0 測定対象物
1,2 左右画像撮影部
3 パターン投影部
4 コントローラ
5 パターン抽出部
6 姿勢算出部
7 ステレオモデル形成部
8 形状測定部
9 テンプレートマッチング画像
10 形状測定装置
11 光学系
12 CCD
13 CCDドライバ
14 オペアンプ
15 A/D変換器
20 投影パターン
30 画像測定装置
31 概略位置測定部
32 データ設定部
33 対応判別部
51 パターン投影用画像メモリ
52 パターンなし用画像メモリ
53 画像差分演算部(器)
54 パターン画像メモリ
55 パターン位置検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for automating three-dimensional measurement by automating a pre-stage orientation work when performing three-dimensional measurement from different camera positions and automatically acquiring an initial value of stereo matching.
[0002]
[Prior art]
When performing three-dimensional measurement in ground photogrammetry, measurement is performed according to the flow shown in FIG. That is, it is necessary to perform stereo imaging (a) → position detection (b) → location (c) → stereo model formation (d) → three-dimensional measurement (e) of an object. These processes are mainly performed by a computer. Among them, position detection (b) and three-dimensional measurement (e) are conventionally performed manually. The position detection (b) is a pre-processing for orientation that obtains the position and tilt of the camera to be photographed.
[0003]
By obtaining the positional relationship between the camera and the measurement object by the orientation (c), a stereo model that can be stereoscopically viewed can be formed, and three-dimensional measurement can be performed. The process of position detection (b) for performing orientation (c) is an operation for obtaining coordinate positions on each of the corresponding six or more points captured in different cameras.
[0004]
There are two types of three-dimensional measurement (e): point measurement and surface measurement.
[0005]
In the case of point measurement, the measurement points on the object are manually measured through human hands, but in order to achieve automation and improve accuracy, work is performed to mark the object.
[0006]
In the case of surface measurement, it is automatically performed using a technique called stereo matching by image processing. At that time, initial settings such as determination of a template image and setting of a search width have to be performed manually.
[0007]
[Problems to be solved by the invention]
The position detection (b) is performed by selecting six or more measurement points on the object in the left and right images taken by the operator, and linking the measurement points on the object and coordinate positions while observing each image. The detection is performed. However, these operations need to be performed while stereoscopically viewing, and thus require skill, and are complicated, difficult, and difficult.
[0008]
In particular, the task of determining measurement points, associating left and right images, and detecting detailed position coordinates is likely to cause individual differences, and it is difficult to obtain sufficient accuracy for each person. In addition, some people could not measure. In order to avoid such a problem, processing such as attaching a mark to an object may be performed.
[0009]
However, the increase in the work of attaching a mark to the object itself is a minus, and since there are some objects that cannot be easily attached with a mark, this method is not so popular.
[0010]
On the other hand, there is also a technique in which two cameras are firmly fixed on a stereo carriage and three-dimensional measurement is performed without performing an orientation work.
[0011]
However, in that case, the positional relationship between the two cameras on the carriage must never come, and the measurement environment and measurement object are greatly limited. At the same time, such a device is large, heavy, difficult to carry, and expensive, so that the three-dimensional measurement method by this method is not very popular.
[0012]
Further, in the point measurement of the three-dimensional measurement (e), when a mark or the like is not pasted on the measurement object, it is necessary for the operator to instruct and measure the measurement point while observing the photographed image. . For this reason, when there were many measurement points, it took time and effort. In addition, when trying to measure with high accuracy, individual differences are inevitably caused and there is a situation where measurement is impossible.
[0013]
The above situation can be avoided if the mark is attached to the object and measured, but in that case, as described above, a new time and effort is required to attach the mark, and it may be difficult to attach the mark depending on the object. Sometimes it was impossible to measure.
[0014]
In the case of surface measurement, it is necessary to manually determine a template image when performing automatic measurement by stereo matching as a preprocessing, and determine an optimal search width. Furthermore, if there is a mismatching point or the like, it is necessary to correct it manually, which makes it difficult to automate after all.
[0015]
SUMMARY OF THE INVENTION In view of the problems of the prior art, the present invention provides an image measuring apparatus having a simple configuration that can be carried out efficiently and with high accuracy from the orientation work to the measurement, can be carried regardless of the measurement object. The purpose is that.
[0016]
[Means for solving problems]
The present invention includes an approximate position measurement unit that roughly obtains a positional relationship of a measurement object in each image from a pair of images obtained by photographing the measurement object from different directions, and one image of the pair of images as a reference image, The other image is determined as a search image, a reference data block is set in the reference image based on the positional relationship obtained by the approximate position measurement unit, a search area is set in the search image, and a search data block is set in the search area A data setting unit, and a correspondence determination unit that obtains a correspondence relationship between the search data block set in the search region and the reference data block, and the data setting unit has the positional relationship obtained by the approximate position measurement unit. Based on the above, the reference data block is set to the reference image, the search area is set to the search image, and the search data block is set. The image measuring apparatus which is the subject matter.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
The image measurement apparatus of the present invention includes a rough position measurement unit that roughly obtains a positional relationship of a measurement object in each image from a pair of images obtained by photographing the measurement object from different directions, and one image in the pair of images. Is set as a reference image, the other image is set as a search image, a reference data block is set in the reference image based on the positional relationship obtained by the approximate position measuring unit, a search area is provided in the search image, and search data is set in the search area. A data setting unit for setting a block; and a correspondence determining unit for obtaining a correspondence relationship between a search data block set in the search region and a reference data block, and the data setting unit is obtained by the approximate position measurement unit. Configured to perform at least one of the setting of the reference data block to the reference image, the setting of the search area to the search image and the setting of the search data block based on the determined positional relationship It is characterized in that was.
[0018]
The pair of images includes a feature pattern image whose positional relationship is known in advance, and the approximate position measurement unit includes the position of the feature pattern image in the reference image and the feature pattern image in the search image. Based on the positional relationship, the positional relationship of the measurement object in each of the pair of images can be roughly determined.
[0019]
The data setting unit can be configured to set a search area range in the search image based on the position of the feature pattern image in the search image.
[0020]
The data setting unit includes a search area in the search image based on a positional relationship between the position of the feature pattern image and the position of the search area in the search image, or the position of the feature pattern image in the reference image and the position of the reference data block. It is possible to configure so as to set the range.
[0021]
The data setting unit includes a search area in the search image based on a positional relationship between the position of the feature pattern image and the position of the search area in the search image, or the position of the feature pattern image in the reference image and the position of the reference data block. Can be configured to set the size of the range.
[0022]
The data setting unit is configured to increase the width or area of the search area range of the search image as the feature pattern image and search area in the search image are separated from the feature pattern image and reference data block in the reference image. Can be configured.
[0023]
The data setting unit may be configured to set a plurality of search areas having different sizes.
[0024]
The data setting unit can be configured to set a reference data block in the reference image based on the position of the feature pattern image in the reference image.
[0025]
The data setting unit can be configured to set the size of the reference data block in the reference image based on the position of the feature pattern image in the reference image and the reference data block position.
[0026]
The data setting unit can be configured to increase the height or width of the reference data block in the reference image as the position of the feature pattern image in the reference image and the reference data block position are separated.
[0027]
The data setting unit can be configured to set a plurality of reference data blocks having different sizes based on a feature pattern image in the reference image.
[0028]
【Example】
First, the outline of the image measuring apparatus according to the present invention will be described with reference to FIG.
[0029]
The image measuring device 30 includes an approximate position measuring unit 31, a data setting unit 32, and a correspondence determining unit 33.
[0030]
The approximate position measurement unit 31 roughly obtains the positional relationship of the measurement object in each image from a pair of images obtained by photographing the measurement object from different directions, using a feature pattern image whose positional relationship is known in advance. It is configured.
[0031]
The data setting unit 32 determines one of the pair of images as a reference image and the other as a search image, sets a reference data block in the reference image based on the positional relationship obtained by the approximate position measurement unit 31, and searches the search image. It is configured to set the area.
[0032]
The correspondence determination unit 33 is configured to obtain a correspondence relationship between the search data block set in the search area and the reference data block.
[0033]
By using this image measuring device 30, it is possible to automate the three-dimensional measurement described in detail below and improve the measurement accuracy.
[0034]
Hereinafter, a shape measuring apparatus using the image measuring apparatus of the present invention will be described in detail.
[0035]
FIG. 1 shows a flow of measurement in the shape measuring apparatus, and FIG. 2 is a block diagram conceptually showing the configuration.
[0036]
a. Stereo shooting of an object
First, a feature pattern is applied to the measurement object 0 from the feature pattern projection unit 3 according to an instruction from the controller 4. Then, the image of the measurement object 0 is taken by the left and right image taking units 1 and 2, and the image data is transferred to the feature pattern extracting unit 5.
[0037]
As shown in FIG. 3, the left and right image capturing units 1 and 2 include an optical system 11, a CCD 12, a CCD driver 13, an operational amplifier 14, an A / D converter 15, and the like.
[0038]
5 and 6 show examples of feature patterns. These feature patterns 20 are formed in a circular shape, but may have any shape other than a circle as long as the position of the mark image by the feature pattern projection is required.
[0039]
The feature pattern projection unit 3 may be anything that can project the feature pattern 20, such as a slide projector or a laser pointer.
[0040]
FIG. 4 is a detailed block diagram of the feature pattern extraction unit 5.
[0041]
Image data transferred by the left and right image capturing units 1 and 2 is converted into digital data by the A / D converter 15 of FIG. 3 and transferred to the feature pattern projection image memory 51 of the feature pattern extraction unit 5.
[0042]
Next, in response to an instruction from the controller 4, the feature pattern projection is stopped, the left and right image capturing units 1 and 2 capture images without the feature pattern, and the digital image is stored in the feature pattern-less image memory 52 of the feature pattern extraction unit 5. Transfer data.
[0043]
When the image transfer to the feature pattern projection image memory 51 and the feature pattern absence image memory 52 is completed, the two images are differentiated through the image difference calculator 53 in accordance with an instruction from the controller 4. Then, the difference image is taken into the feature pattern image memory 54.
[0044]
As a result, the data in the feature pattern image memory 54 is only information obtained by deleting the image information of the measurement object 0, that is, information on the feature pattern 20 (mark image data).
[0045]
b. Position detection
In order to perform the orientation process, the position of the mark image is detected by the feature pattern projection.
[0046]
The feature pattern position detection unit 55 detects the feature pattern coordinate position in the feature pattern image memory 54.
[0047]
The feature pattern 20 may have any shape as long as its position is clearly known, but here, the feature pattern 20 as shown in FIGS. 5 and 6 is assumed. Further, any number of feature patterns may be used as long as there are 6 or more feature patterns as shown in FIGS.
[0048]
Since the feature pattern image memory 54 contains no information other than the mark image obtained by the feature pattern projection, erroneous detection can be eliminated. Furthermore, since it becomes easy to perform position detection automatically, stable position coordinate detection can always be performed with high accuracy without individual differences.
[0049]
Here, a case will be described in which the template matching method is used for the approximate position detection of points and the moment method is used for detailed position detection.
[0050]
As the template matching method, a residual sequential test method (SSDA method), which is a kind of correlation method, will be described, but a normalized correlation method or the like may be used. For detailed position detection, the LOG filter method or the like may be used instead of the moment method.
[0051]
Hereinafter, the position detection process will be described.
[0052]
(Rough position detection)
1. Register the template image.
[0053]
As the template image, a simulation image similar to one mark of the projection feature pattern 20 of FIGS. 5 and 6 may be created, or an actual image may be selected and used.
[0054]
2. A point where S> R (a, b) is searched in the entire image (see Equation 1).
[0055]
The closer R (a, b) is to 0, the higher the degree of similarity. S is determined in advance with an appropriate value. In this case, since image information other than the feature pattern has been erased, it can be easily determined. A normalized correlation method or the like may be used for template matching, but the processing can be further speeded up by using a residual sequential test method.
[0056]
[Residual sequential test (SSDA method)]
The principle diagram of the SSDA method is shown in FIG.
[0057]
The point where the residual R (a, b) is minimized is the mark position to be obtained.
[0058]
[Expression 1]
Figure 0004359939
In the addition of the expression, if the value of R (a, b) exceeds the minimum value of the past residuals, the addition is aborted, and the calculation process is performed to move to the next (a, b), thereby speeding up the processing. Can measure.
[0059]
3. R (a, b) The mark position of the projection feature pattern is determined by the number of marks according to conditions such as the minimum and the interval between adjacent mark positions, and set as position coordinates.
[0060]
(Detailed position determination)
1. Search area determination
For the point determined by the above (approximate position detection), a search area centered there is set.
[0061]
2. Determination of mark area
Regarding the search area, an area having a density value equal to or higher than a threshold is defined as one mark (see FIG. 8).
[0062]
As the threshold value, an appropriate value is determined in advance. The image is almost 0 because the difference processing is applied except for the mark.
[0063]
3. Center of gravity calculation
The moment method is performed, and the barycentric position coordinates are calculated.
[0064]
[Moment method]
As shown in FIG. 8, the following equation is applied to points that are equal to or higher than the threshold value T (mark K).
[0065]
[Expression 2]
Figure 0004359939
[0066]
[Equation 3]
Figure 0004359939
The center of gravity position can be calculated up to the sub-pixel position by Expression 2 and Expression 3.
[0067]
4). Perform steps 1-3 for the number of points.
[0068]
Thus, the position coordinates of the mark image by the feature pattern projection as shown in FIG. 5 or FIG. 6 can be calculated.
[0069]
Detailed position detection may be performed from the beginning without performing approximate position detection, or position detection may be performed by another algorithm.
[0070]
In any case, since the image has only feature pattern information, the position can be calculated at high speed and with high accuracy.
[0071]
c. orientation
Next, the coordinate value obtained by the feature pattern position detection unit 55 is sent to the posture calculation unit 6 to perform orientation calculation.
[0072]
By this calculation, the positions of the left and right cameras are obtained.
[0073]
These parameters are obtained by the following coplanar conditional expression.
[0074]
[Expression 4]
Figure 0004359939
The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are 5 of the left camera Z-axis rotation angle κ1, the Y-axis rotation angle φ1, the right-hand camera Z-axis rotation angle κ2, the Y-axis rotation angle φ2, and the X-axis rotation angle ω2. One rotation angle. In this case, the X-axis rotation angle ω1 of the left camera is 0, so it is not necessary to consider.
[0075]
Under such conditions, the coplanar conditional expression of Expression 4 becomes Expression 5, and each parameter can be obtained by solving this expression.
[0076]
[Equation 5]
Figure 0004359939
Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.
[0077]
[Formula 6]
Figure 0004359939
[0078]
[Expression 7]
Figure 0004359939
Using these formulas, the unknown parameters are obtained by the following procedure.
1. The initial approximate value is usually 0.
2. The coplanar conditional expression 5 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Expressions 6 and 7, and an observation equation is established.
3. The least square method is applied to obtain a correction amount for the approximate value.
4). Correct approximate values.
5). Using the corrected approximate value, 2. ~ 5. Repeat until the operation is converged.
[0079]
If some mark is in the shape of the object and the position is not detected well, it may not converge. In that case, one point is deleted and the above steps 1 to 5 are performed, and the converged parameter or the best parameter is used.
[0080]
d. Stereo model formation
Next, an image is converted into a stereo model coordinate system that can be viewed stereoscopically according to parameters obtained by orientation, and a stereo model is formed.
[0081]
The conversion formula to model coordinates is as follows.
[0082]
[Equation 8]
Figure 0004359939
[0083]
[Equation 9]
Figure 0004359939
[0084]
[Expression 10]
Figure 0004359939
In this way, three-dimensional measurement is possible.
[0085]
e. 3D measurement
(1) Point measurement
By using the feature pattern 20 having six or more points as shown in FIG. 6 and processing the plurality of marks in the same manner as the position detection (b), the three-dimensional coordinates can be automatically obtained with high accuracy.
(2) Surface measurement
By using the projection feature pattern 20 as shown in FIG. 6, it is possible to set the initial value of stereo matching.
[0086]
How to determine the initial value in the case of surface measurement will be described.
[0087]
FIG. 9 and FIG. 10 are explanatory diagrams, and a part of the projection feature pattern as shown in FIG. 6 is extracted. FIG. 9 shows a reference image as a reference, and FIG. 10 shows a search image for searching. These reference / search images may be either left or right images. For example, the left image is determined as the reference image, and the right image is determined as the search image.
[0088]
The projected feature patterns correspond to the reference images S'1, S'2, S'5, and S'6 on the search image with S1, S2, S5, and S6.
[0089]
The corresponding point search is performed by performing stereo matching on the search area in the search image using the reference data block in the reference image as a template image. Image correlation processing or the like is used for stereo matching.
[0090]
[Determination of search area]
A method for determining the search area based on the projection feature pattern will be described.
[0091]
The projection feature patterns S1 to S2 (horizontal direction) are defined as a width A, S1 to S5 (vertical direction) as a width B, and a portion surrounded by S1, S2, S5, and S6 is defined as a search region R1. Similarly, the portion surrounded by S2, S3, S6, and S7 is determined as the search region R2,.
[0092]
As shown in FIG. 11, mark images based on actual projection feature patterns are not always on the same line depending on the shape of the object and the orientation of the CCD. Therefore, a quadrilateral that can obtain the maximum A and B widths from the four points of each projection feature pattern is created and used as a search area. For example, in FIG. 11, the maximum widths that can be taken by S1, S2, S5, and S6 are the horizontal direction A1 and the vertical direction B1, and the rectangular area created by this is the search area R1, and similarly S2, S3, S6, and S7. The search area R2 is a quadrilateral created with the maximum widths A2 and B2 that can be taken. In this way, there are some overlapping areas, but the boundary between the R1 and R2 areas can be reliably searched.
[0093]
This is to determine the range of the search area in the search image based on the position of the mark image in the search image that has already been obtained.
[0094]
FIG. 12 shows a modification of the search area determination.
[0095]
For example, since each projection feature pattern has already been obtained as a corresponding point on the left and right images, it is efficient to set the search start position and end position of the search area as areas near the projection point. That is, in the example of FIG. 11, if the search is advanced by S1 to S5 in the vertical direction by the search width A1, as the vicinity of the line of S5 is approached, useless search areas (areas where no corresponding points clearly exist) are obtained. Out.
[0096]
Therefore, up to half of D1 between S1 and S5 in FIG. 12 (vertical direction), the same horizontal point as S1 is set as the start point of the search area, and D1 and S5 are connected on the line connecting D1 and S5. To the horizontal search start point.
[0097]
If such a process is set as a search area for each projection point, and stereo matching is performed while the search areas are somewhat overlapped, a somewhat efficient search can be performed.
[0098]
FIG. 13 and FIG. 14 further improve the efficiency of search of the search area by setting the search data block in the search area.
[0099]
For example, when the positions on the search area corresponding to the reference data blocks T1, T2, T3,... On the reference image shown in FIG. As shown in FIG. 13, the search data block is divided into several blocks such as U1, U2, U3,. In this way, it is possible to shorten the search area search time and efficiently search. In this case, the range of the search data block can be determined by how many reference data blocks are taken. For example, if n reference data blocks are set between A ′ of the reference images S′1 to S′2, A1 / n or A1 / (n−1) may be set. (N-1) is the case where the search is performed by slightly overlapping the search data blocks.
[0100]
This is to set the range of the search area in the search image based on the position of the mark image and the position of the search area already obtained. In other words, it can be said that the range of the search area is set in the search image based on the position of the mark image in the reference image and the positional relationship with the reference data block position.
[0101]
A modification of the method of FIG. 13 is shown in FIG. This is a variable search data block size. That is, since it is known that the corresponding points with respect to the reference data block are close to each other in the vicinity of the marks S1 and S2, the size of the search data block is reduced and the corresponding point position becomes uncertain as the distance increases. It is. Accordingly, the reference data block has the maximum search data block size at the position A ′ / 2.
[0102]
The size of these search data blocks is determined from the search area A1 of S1 to S2.
[0103]
For example, if n is the number of reference data blocks between A ′,
・ Search data block size in the section of S1-S1 + A1 / 2:
(1 + t × i / n) × A1 / n,
-Search data block size in the section of S1 + A1 / 2 to S2:
(1 + t × (n−i) / n) × A1 / n,
However, i is the position of the search data block corresponding to each reference data block, i.e., i = 1 to n. T is a constant of magnification and is set to a predetermined value. For example, if you want to double the search data block size at the S1 position (U1) at the S1 + A1 / 2 position, select 2.
[0104]
These search data block sizes may be determined based on the marks S′1, S′2 and the reference data blocks T1, T2,... In the reference image. At that time, the above-mentioned A1 is set to A ', and the terms taking the magnification A1 / A' into consideration are multiplied.
[0105]
Thus, by setting the search area and the search data block, it is possible to perform the corresponding point search efficiently, that is, at high speed and with high reliability.
[0106]
In this method, based on the positional relationship between the position of the mark image in the search image and the position of the search area, based on the positional relationship between the position of the mark image in the reference image and the position of the reference data block, if the view is changed, The size of the search area is set in the search image.
[0107]
[Determination of reference data block]
The reference data block serving as a reference is determined from S′1, S′2, S′5, S′6 on the reference image, or S1, S2, S5, S6 on the search image. For example, if the reference image (FIG. 9) S′1 to S′2 is A ′ and S′1 to S′5 is B ′, the horizontal reference data block width is A ′ / n, and the vertical direction is B ′. / M can be determined.
[0108]
Alternatively, the size may be proportional to the ratio of the left and right images. For example, the horizontal direction is set to A '/ A * n, and the vertical direction is set to B' / B * m.
[0109]
n and m can be determined as appropriate sizes depending on the relationship between the size of the object to be measured and the number of pixels, but may be set as appropriate constants depending on the values of A ′ and B ′.
[0110]
FIG. 15 shows a method of performing stereo matching in the same manner as in the above process while obtaining correlation products with three reference data block sizes instead of one. Also in this case, these three sizes can be determined based on the information of A ′ and B ′.
[0111]
FIG. 16 is a further modification in the determination of the reference data block of the present invention. The regions near S′1 and S′2 may be relatively small because the correspondence is relatively obtained on the reference / search image, but the correspondence position becomes uncertain as the distance increases, so the reference data block Change size dynamically. For example, the reference data block is expanded as shown in FIG. 14 at the T1, T2, and T3 positions. The reference data block position is set to the maximum size at the A '/ 2 point. On the contrary, the reference data block size is gradually reduced from A ′ / 2 to S′2.
[0112]
By doing in this way, the reliability of stereo matching can be improved.
[0113]
These reference data block sizes are determined from the horizontal width A ′ of S ′ 1 to S ′ 2 and the vertical width B ′ of S ′ 1 to S ′ 5.
[0114]
For example, if n and m are the reference data block numbers between A 'and B',
Reference data block size in the section of S′1 to S′1 + A ′ / 2:
Horizontal direction: (1 + t × i / n) × A ′ / n,
Vertical direction: (1 + t × l / m) × B ′ / m
Reference data block size in the interval S'1 + A '/ 2 to S'2
Horizontal direction: (1 + t × (n−i) / n) × A ′ / n,
Vertical direction: (1 + t × (m−i) / m) × B ′ / m
However, i and l are the respective reference data block positions, i.e., i = 1 to n and l = 1 to m.
[0115]
Here, t is a constant of magnification and is set to a desired value. For example, if it is desired to double the reference data block size at the position S′1 (T1) at the position S′1 + A ′ / 2, 2 is selected.
[0116]
In this way, the reference data block can be made variable.
[0117]
Further, if the three types of reference data blocks as shown in FIG. 15 are made variable as in the above-described example and the correlation product is taken, the corresponding points can be searched with higher reliability by performing stereo matching.
[0118]
The determination of these reference data blocks may be similarly performed by using the marks S1 and S2 in the search image. In this case, A ′ is A1 and B ′ is B1, and the reference image is multiplied by a term that takes into account the magnification A ′ / A1 of the search image.
[0119]
By doing as described above, each initial value is automatically obtained.
[0120]
Next, the actual measurement (stereo matching) procedure will be described.
[0121]
As an example, the case of the projection feature patterns S1 to S8 in FIG. 6 will be described with reference to FIGS.
[0122]
In the vertical direction, since the orientation process has been completed and the vertical parallax has been removed (aligned), it is only necessary to search on the same line of the reference image and the search image. Further, when setting the search data block, the search data block is appropriately set as described above in each search area.
[0123]
1. For the search width A1 of the horizontal line L1 of the search area R1 from S1 to S2 of the search image,
The corresponding point search is sequentially performed on the reference data blocks T1, T2, T3,... In the reference image.
[0124]
These initial values are determined by the method described above.
[0125]
When A1 on the line L1 in the search area R1 ends,
2. For the search region R2 of S2 to S3, the corresponding point search on A2 of the line L1 is sequentially repeated from the reference data block position determined in this region.
[0126]
3. Next, a corresponding point search is performed on A3 of the line L1 in the search region R3 of S3 to S4. The search area R3 is sequentially performed with the template size and position determined in this area.
[0127]
When the corresponding point search of the line L1 is completed, the process moves to the next line L2, and the corresponding point search is repeated in the same manner as 1 to 3 from the search width A1 of the search region R1.
[0128]
Repeat this for the required number of lines.
[0129]
In this way, the initial values for stereo matching, that is, the search area, the search data block, and the reference data block are automatically determined from the position of the projection feature pattern, and automatic measurement can be performed.
[0130]
Furthermore, since the search area of the reference / search image and the reference data block can be limited to within A ′ and B ′, processing much faster than normal stereo matching is possible. That is, normally, stereo matching is performed for one horizontal line (FIG. 6, line) at each search position, but the processing time is a fraction of the number of projection points.
[0131]
In addition, since the corresponding area on the reference / search image is limited and required in advance, mismatching can be greatly reduced. That is, the reliability of stereo matching can be greatly improved.
[0132]
In addition, since the reference data block, the search area, and the search data block can be appropriately determined based on the position information of the projection point, the reliability of stereo matching can be further improved.
[0133]
Further, since the reference data block and the search data block can be dynamically changed according to the search position, the reliability is further increased.
[0134]
And since these stereo matching can be performed on the image without a projection feature pattern, the false detection by a feature pattern does not arise. In addition, an image without a feature pattern has value as an image database, and an original image can be stored simultaneously with measurement.
[0135]
Furthermore, according to the above-described embodiment, in order to use an image in which the feature pattern is projected and an image in which the feature pattern is not projected, an operation of attaching a measurement mark to the object is not necessary, and in an object in which the mark cannot be applied. Can also be measured.
[0136]
In this way, since an image with only feature pattern information can be created by subtracting an image with and without a feature pattern, feature pattern position detection, orientation, stereo model formation, and three-dimensional measurement can be performed without human intervention. It is possible to perform automatically and accurately. That is, it is possible to eliminate the manual orientation work and the three-dimensional measurement work, which have conventionally required skill and are complicated, and it is possible to improve the reliability by performing everything automatically.
[0137]
Furthermore, it is not necessary to fix the camera firmly on the stereo platform, and it is possible to perform high-precision 3D measurement simply by installing two cameras roughly at the site and taking pictures. Regardless of this, there is an excellent effect that it can be measured easily.
[0138]
In addition, by increasing the number of feature pattern points, it becomes possible to set the initial value of stereo matching, that is, to automatically determine the search width and template image, and to perform stereo matching, further reducing the stereo matching time and reliability. It has the outstanding effect of being able to automatically measure the surface shape of the object while greatly improving it.
[0139]
【The invention's effect】
According to the present invention, the positional relationship of the measurement object in each image is roughly determined from a pair of images obtained by photographing the measurement object from different directions, and one image is the reference image and the other image is the pair of images. Is determined as a search image, a reference data block is set in the reference image based on the positional relationship obtained by the approximate position measurement unit, a search area is set in the search image, a search data block is set in the search area, and the search is performed. In determining the correspondence between the search data block set in the area and the reference data block, the reference data block is set in the reference image, the search area is set in the search image, and the search data based on the approximate positional relationship. By configuring so that at least one of the block settings is performed, the correspondence can be accurately obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a measurement flow in a shape measuring apparatus of the present invention.
FIG. 2 is a block diagram conceptually showing the shape measuring apparatus of the present invention.
FIG. 3 is a conceptual diagram illustrating a left and right image capturing unit of the shape measuring apparatus.
FIG. 4 is a block diagram showing a pattern extraction unit of the shape measuring apparatus.
FIG. 5 is a plan view showing an example of a projection pattern
FIG. 6 is a plan view showing another example of a projection pattern
FIG. 7 is an explanatory diagram showing template matching by the SSDA method.
FIG. 8 is an explanatory diagram showing a moment method.
FIG. 9 is an explanatory diagram showing a reference image.
FIG. 10 is an explanatory diagram showing a search image.
FIG. 11 is an explanatory diagram showing a search image.
FIG. 12 is an explanatory diagram showing a search image.
FIG. 13 is an explanatory diagram showing a search image.
FIG. 14 is an explanatory diagram showing a search image.
FIG. 15 is an explanatory diagram showing a reference image.
FIG. 16 is an explanatory diagram showing a reference image.
FIG. 17 is a block diagram showing an outline of an image measuring apparatus according to the present invention.
[Explanation of symbols]
0 Measurement object
1, 2 Left and right image capturing unit
3 Pattern projection unit
4 Controller
5 Pattern extraction unit
6 Attitude calculation unit
7 Stereo model formation part
8 Shape measuring unit
9 Template matching image
10 Shape measuring device
11 Optical system
12 CCD
13 CCD driver
14 operational amplifier
15 A / D converter
20 Projection pattern
30 Image measuring device
31 Approximate position measurement unit
32 Data setting part
33 Correspondence discrimination part
51 Image memory for pattern projection
52 Image memory without pattern
53 Image difference calculation unit
54 pattern image memory
55 Pattern position detector

Claims (10)

あらかじめ位置関係がわかっている特徴パターンが形成されている測定対象物を、異なる方向から撮影し、撮影された一対の画像中での測定対象物の特徴点の位置関係をマーク像の位置検出によって概略求める概略位置測定部と、
一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、基準画像に基準データブロックを設定し、捜索画像に捜索領域を設け、その捜索領域中に捜索データブロックを設定するデータ設定部と、
その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求める対応判別部とを備え、
前記データ設定部は、前記概略位置測定部で求めた位置関係に基づいて、前記基準データブロックの設定と前記捜索領域の設定と前記捜索データブロックの設定とを行うように構成したことを特徴とする画像測定装置。
A measurement object on which a feature pattern with a known positional relationship is formed is photographed from different directions, and the positional relationship of the characteristic points of the measurement object in a pair of captured images is detected by detecting the position of the mark image. An approximate position measuring unit for obtaining an outline;
During a pair of images, one image to the reference image, defines the other image and search image, sets the reference data block in the standards image, the search area in the search image, sets a search data block in the search area A data setting unit to
A correspondence determination unit for obtaining a correspondence relationship between the search data block set in the search region and the reference data block;
The data setting unit, the characterized in that on the basis of the positional relationship obtained by the approximate position measuring portion, and configured to perform the setting of settings and the search data block settings and the search region of the reference data block Image measuring device.
請求項1記載の画像測定装置において、前記データ設定部は、捜索画像中の特徴パターン像の位置に基づいて、前記捜索画像に捜索領域の範囲を設定するように構成したことを特徴とする画像測定装置。  The image measurement apparatus according to claim 1, wherein the data setting unit is configured to set a range of a search area in the search image based on a position of a feature pattern image in the search image. measuring device. 請求項1記載の画像測定装置において、前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲を設定するように構成したことを特徴とする画像測定装置。The image measurement apparatus according to claim 1, wherein the data setting unit includes a position of the feature pattern image and the position of the search area in the search image, or a position of the feature pattern image and the reference data block position in the reference image. An image measuring apparatus configured to set a search area range in a search image based on the relationship. 請求項1記載の画像測定装置において、前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲の大きさを設定するように構成したことを特徴とする画像測定装置。  The image measurement apparatus according to claim 1, wherein the data setting unit includes a position of the feature pattern image and the position of the search area in the search image, or a position of the feature pattern image and the reference data block position in the reference image. An image measuring apparatus configured to set the size of a search area range in a search image based on the relationship. 請求項4記載の画像測定装置において、前記データ設定部は、捜索画像中の特徴パターン像及び捜索領域と、又は基準画像中の特徴パターン像及び基準データブロックとが離れるにつれて捜索画像の捜索領域の範囲の幅又は面積を大きく設定するように構成したことを特徴とする画像測定装置。  5. The image measurement apparatus according to claim 4, wherein the data setting unit includes a search area of the search image as the feature pattern image and the search area in the search image are separated from the feature pattern image and the reference data block in the reference image. An image measuring apparatus configured to set a large width or area of a range. 請求項2乃至5のいずれか1項に記載の画像測定装置において、前記データ設定部は、異なる大きさの複数の捜索領域を設定するように構成したことを特徴とする画像測定装置。  6. The image measurement device according to claim 2, wherein the data setting unit is configured to set a plurality of search areas having different sizes. 請求項1記載の画像測定装置において、前記データ設定部は、基準画像中の特徴パターン像の位置に基づいて、基準画像に基準データブロックを設定するように構成したことを特徴とする画像測定装置。  2. The image measuring apparatus according to claim 1, wherein the data setting unit is configured to set a reference data block in the reference image based on a position of a feature pattern image in the reference image. . 請求項1記載の画像測定装置において、前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とに基づいて、基準画像に基準データブロックの大きさを設定するように構成したことを特徴とする画像測定装置。  The image measurement apparatus according to claim 1, wherein the data setting unit is configured to set the size of the reference data block in the reference image based on the position of the feature pattern image in the reference image and the reference data block position. An image measuring apparatus characterized by that. 請求項1記載の画像測定装置において、前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とが離れるにつれて、基準画像に基準データブロックの高さ又は幅を大きく設定するように構成したことを特徴とする画像測定装置。  The image measurement apparatus according to claim 1, wherein the data setting unit sets the height or width of the reference data block to be larger in the reference image as the position of the feature pattern image in the reference image and the reference data block position are separated from each other. An image measuring apparatus configured as described above. 請求項7乃至9のいずれか1項に記載の画像測定装置において、前記データ設定部は、基準画像中の特徴パターン像に基づき異なる大きさの複数の基準データブロックを設定するように構成したことを特徴とする画像測定装置。  10. The image measuring apparatus according to claim 7, wherein the data setting unit is configured to set a plurality of reference data blocks having different sizes based on a feature pattern image in the reference image. An image measuring apparatus characterized by the above.
JP14706697A 1997-05-22 1997-05-22 Image measuring device Expired - Fee Related JP4359939B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP14706697A JP4359939B2 (en) 1997-05-22 1997-05-22 Image measuring device
DE69833813T DE69833813T2 (en) 1997-05-22 1998-05-20 Device for correspondence search in a pair of pictures
US09/081,620 US6442292B1 (en) 1997-05-22 1998-05-20 Measuring apparatus
EP98109138A EP0880010B1 (en) 1997-05-22 1998-05-20 Measuring apparatus
DE69829091T DE69829091T2 (en) 1997-05-22 1998-05-20 measuring device
EP04009639A EP1455303B1 (en) 1997-05-22 1998-05-20 Apparatus for determining correspondences in a pair of images
US10/194,285 US7016528B2 (en) 1997-05-22 2002-07-15 Measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14706697A JP4359939B2 (en) 1997-05-22 1997-05-22 Image measuring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007081913A Division JP4550081B2 (en) 2007-03-27 2007-03-27 Image measurement method

Publications (2)

Publication Number Publication Date
JPH10318715A JPH10318715A (en) 1998-12-04
JP4359939B2 true JP4359939B2 (en) 2009-11-11

Family

ID=15421721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14706697A Expired - Fee Related JP4359939B2 (en) 1997-05-22 1997-05-22 Image measuring device

Country Status (1)

Country Link
JP (1) JP4359939B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003042730A (en) * 2001-07-30 2003-02-13 Topcon Corp Apparatus and method for measurement of surface shape as well as surface-state mapping apparatus
JP4680558B2 (en) * 2004-09-30 2011-05-11 株式会社リコー Imaging and 3D shape restoration method, and imaging and 3D shape restoration system
JP4550081B2 (en) * 2007-03-27 2010-09-22 株式会社トプコン Image measurement method
JP5432545B2 (en) * 2009-02-25 2014-03-05 株式会社トプコン Object detection device
JP7139953B2 (en) * 2019-01-08 2022-09-21 オムロン株式会社 Three-dimensional shape measuring device, three-dimensional shape measuring method and program
CN113829353B (en) * 2021-06-07 2023-06-13 深圳市普渡科技有限公司 Robot, map construction method, apparatus and storage medium

Also Published As

Publication number Publication date
JPH10318715A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP5362189B2 (en) Image processing apparatus and processing method thereof
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP2919284B2 (en) Object recognition method
CN110926330B (en) Image processing apparatus, image processing method, and program
JP2009150848A (en) Image processing apparatus
JP4234059B2 (en) Camera calibration method and camera calibration apparatus
JP2014013147A5 (en)
US6442292B1 (en) Measuring apparatus
JP2001126051A (en) Device and method for presenting related information
JP4550081B2 (en) Image measurement method
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP4359939B2 (en) Image measuring device
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP3696336B2 (en) How to calibrate the camera
KR102420856B1 (en) Method and Device for Examining the Existence of 3D Objects Using Images
JP3696335B2 (en) Method for associating each measurement point of multiple images
JP2003065737A (en) System and method for measuring surface shape and system for illustrating surface condition
JPH10318732A (en) Shape measuring device and image formation apparatus of shape measurement
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JP3910844B2 (en) Orientation method and modified mapping method using old and new photographic images
CN113140031B (en) Three-dimensional image modeling system and method and oral cavity scanning equipment applying same
CN110634136B (en) Pipeline wall damage detection method, device and system
JP4153322B2 (en) Method and apparatus for associating measurement points in photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070327

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070522

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090604

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090803

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130821

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees