JP2004317246A - Range finder - Google Patents

Range finder Download PDF

Info

Publication number
JP2004317246A
JP2004317246A JP2003110466A JP2003110466A JP2004317246A JP 2004317246 A JP2004317246 A JP 2004317246A JP 2003110466 A JP2003110466 A JP 2003110466A JP 2003110466 A JP2003110466 A JP 2003110466A JP 2004317246 A JP2004317246 A JP 2004317246A
Authority
JP
Japan
Prior art keywords
camera
image
light beam
range finder
incident light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003110466A
Other languages
Japanese (ja)
Other versions
JP4046282B2 (en
Inventor
Chiaki Aoyama
千秋 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003110466A priority Critical patent/JP4046282B2/en
Priority to US10/806,547 priority patent/US7627197B2/en
Publication of JP2004317246A publication Critical patent/JP2004317246A/en
Application granted granted Critical
Publication of JP4046282B2 publication Critical patent/JP4046282B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a range finder for measuring the accurate shape of an object. <P>SOLUTION: A parallel beam is radiated from a laser irradiation device 50 toward the object OB. The object OB is imaged by a camera C having a fixed position relation with a floodlight. When calculating the surface position of the object OB from the image imaged by the camera C, the object OB direction is determined from a camera base position P<SB>c</SB>shifted as much as the displacement V<SB>d</SB>from the reference position to the incident beam relative to each imaged image in consideration of the optical center O of the camera C and the shift quantity of the incident beam entering a lens system of the camera C. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、非接触で対象物の形状を測定するレンジファインダに関する。
【0002】
【従来の技術】
近年、CCDカメラやコンピュータ画像の処理の発展に伴って画像を使用した3次元計測が一般的になってきている。CCDカメラとコンピュータ画像処理を用いた3次元計測装置として、レンジファインダがある。レンジファインダは、対象物に対し、投光器からスリット光などの平行光線を照射し、対象物をカメラで撮像し、その撮像した画像から対象物の形状を測定する装置である。その原理は、投光器とカメラの位置関係と、撮像した画像中の平行光線の位置とから、三角測量に基づいて対象物の表面位置を計算する(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開平9−287927号公報(段落0025、図2等)
【0004】
【発明が解決しようとする課題】
ところで、従来のレンジファインダでは、投光器が、固定された一点から平行光線を照射し、カメラに入射される光線は、一点に収束することを前提として形状を測定している。つまり、カメラのレンズ系がピンホールカメラモデルに基づいていることが前提となっている。このピンホールカメラモデルとは、図7に示すように、基点位置(針穴:ピンホールH)を通して入射する光(入射光)のみが、画像面上に到達して、三次元空間が、画像面上の二次元空間に対応付けられるモデルを言う。このようにピンホールカメラモデルは、入射光線が一点のピンホールを通って画像が形成されることを想定している。
【0005】
しかし、ピンホールカメラではなく、ガラス等からなるレンズ系を有するカメラでは入射光線を延長しても1点に収束しない。そのため、レンズ系を有するカメラで撮像した画像には、非線形の歪みが存在し、周辺視野ほどその歪みが大きい。
したがって、従来のレンジファインダでは、この歪みの分だけ対象物の位置測定結果に誤差を生じていた。この誤差は、対象物との距離にも依存し、かつ対象物の距離による誤差の変化が非線形であった。そのため、対象物の距離がわかっていれば、位置測定結果と、実際の位置との関係をとって較正することは可能ではあるが、対象物の距離は測定するまで未知であるので、完全に較正することはできなかった。
【0006】
本発明は、以上のような問題点に鑑みてなされたものであり、従来のレンジファインダにおいて、ピンホールカメラモデルを前提とした誤差の根本原因を除去し、カメラと対象物の距離によらず正確な形状測定をすることが可能なレンジファインダを提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のレンジファインダは、投光器により対象物に平行光線を照射し、カメラにより前記対象物に照射された対象物を撮像し、前記投光器の発光位置と前記カメラの光学中心との位置関係、及び撮像された画像における前記平行光線の照射位置から、前記対象物の形状を測定するレンジファインダであって、前記カメラのレンズ系の光学中心に対する、前記レンズ系に入射される入射光線のズレ量を算出し、このズレ量に基づいて前記対象物の形状を補正する補正手段を設けたことを特徴とする。
【0008】
このようなレンジファインダによれば、補正手段が光学中心(opticalcenter)からの、カメラのレンズ系に入射する入射光線のズレ量を算出し、このズレ量に基づいて各測定位置、すなわち対象物の形状を補正することで、対象物の正確な形状を測定することが可能になる。なお、この光学中心とは、レンズ系の中央位置を示し、ピンホールカメラモデルのレンズ系においては、ピンホールの位置に該当するものである。
【0009】
また、請求項2に記載のレンジファインダは、投光器により対象物に平行光線を照射し、カメラにより前記平行光線が照射された対象物を撮像し、前記投光器の発光位置と前記カメラの光学中心との位置関係、及び撮像された画像における前記平行光線の照射位置から、前記対象物の形状を測定するレンジファインダであって、前記カメラで撮像した画像を入力する画像入力手段と、この画像入力手段で入力された画像において、照射された平行光線の画素位置を検出する画素位置検出手段と、前記カメラで撮像される画像の画素位置と、その画素への入射光線の方向及び基準位置から入射光線への変位量とを関連づけた較正テーブルを蓄積した較正テーブル蓄積手段と、前記画素位置検出手段で検出された画素位置に基づき、前記較正テーブルを参照して、その画素位置に対応する入射光線の方向及び変位量を取得し、この入射光線の方向及び変位量を利用して前記照射位置を計算する位置算出手段とを備えることを特徴とする。
【0010】
このようなレンジファインダは、まず、対象物に対し、投光器により平行光線が照射される。この平行光線は、投光器から広がることなく照射される光であれば良く、1点で照射されるスポット光や、帯状の光であるスリット光や、特定のパターンを有するパターン光などを単独で、またはこれらを組み合わせて使用することができる。
そして、画像入力手段が、カメラで撮像した画像をレンジファインダ内に入力し、画素位置検出手段がこの画像から照射された平行光線の画素位置を認識する。さらに位置算出手段が、較正テーブルを参照して前記画素位置に対応する入射光線の方向及び変位量を取得し、この入射光線の方向及び基準位置からの変位量を利用して照射位置、すなわち対象物の表面位置を計算する。
そのため、レンズに入射してくる入射光線の正確な方向に基づき、対象物の形状を測定できるので、対象物の形状を正確に測定することができる。
【0011】
【発明の実施の形態】
次に、図面を参照しながら本発明の実施形態について説明する。
まず、一般にピンホールカメラモデルと呼ばれるカメラにおいて、画像の歪みの原因となる、入射光線が一点で交わらないカメラの非ピンホール性について説明し、その非ピンホール性を有するカメラの特性を数値化したキャリブレーションデータについて説明する。そして、カメラの撮像画素毎のキャリブレーションデータを測定して較正テーブルを生成する方法について説明し、この較正テーブルを有するレンジファインダについて順次説明する。
【0012】
[カメラの非ピンホール性について]
まず、図8を参照して、レンズ系を有するカメラで撮像した画像において、歪みが発生する原因について説明する。図8は、レンズ系を有するカメラの模式図である。ここでは、説明を簡略化するため、レンズ系を板ガラスGとし、絞りFによってピンホールHが生成されているものとする。このカメラCの板ガラスGに垂直に入射する入射光線r1は、ピンホールHを通って撮像面I上の画素R1に撮像される。また、板ガラスGに斜めに入射した入射光線r2及びr3は、板ガラスG内で屈折した後にピンホールHを通って撮像面I上の画素R2及びR3に撮像される。
【0013】
しかし、このカメラCは、板ガラスGを通過する前の入射光線r2及びr3の延長線であるr2´及びr3´と、入射光線r1とは、一点では交わらず、実際にはピンホールカメラモデルとはなっていないことがわかる。このため、撮像面I上の画素R3には、ピンホールカメラモデルで想定している入射光線rrとは、距離D分だけずれた入射光線r3が撮像されることになる。
【0014】
このように、レンズ系(ここでは板ガラスG)に入射される入射光線によって像を撮像するカメラは、ピンホール性が崩れていることになる(非ピンホール性)。以下、レンズ系を有するカメラを「非ピンホールカメラ」と呼ぶこととする。
【0015】
[キャリブレーションデータについて]
次に、図9を参照して、非ピンホールカメラの特性を数値化したキャリブレーションデータについて説明する。図9は、キャリブレーションデータの内容を説明するための説明図である。図9に示すように、レンズlに入射する入射光線Rは2点で特定することができる。ここでは、第1の光源位置P1と、第2の光源位置P2とから発光される光が同一の画素(図示せず)に撮像されたときに、入射光線Rがその画素に対応する入射光線であると特定する。
【0016】
ここで、すべての入射光線との距離の自乗和が最小となる点を光学中心Oと定義し、各撮像画素に対応する入射光線Rと光学中心Oとの距離が最小となる点を、その入射光線Rの入射光基点Kと定義する。
【0017】
すなわち、光学中心O(x,y,z)は、すべての入射光線において、光源位置P1(x,y,z)と光源位置P2(x,y,z)とで特定される、入射光線Rからの距離dの自乗((1)式)和が最小になる位置を、最小自乗法によって求めた位置となる。
【0018】
=−(A/B)+C ・・・(1)
【0019】
ただし、
A=(x−x)(x−x)+(y−y)(y−y)+(z−z)(z−z
B=(x−x+(y−y+(z−z
C=(x−x+(y−y+(z−z
とする。
【0020】
これによって、入射光線の方向(光源位置P1及びP2で特定される方向)と、光学中心Oから入射光基点Kへの変位量(3次元ベクトルV(dx,dy,dz)で表現)とを対応付けたデータをキャリブレーションデータとすることで、非ピンホールカメラの特性を数値化することができる。
【0021】
なお、キャリブレーションデータは、これに限定されるものではない。例えば、前記した例では、光学中心Oを基準位置とし、光学中心Oから入射光線に降ろした垂線の足までのベクトルを変位量Vとしているが、基準位置は、光学中心に限らず、カメラと一定関係にある固定点であれば、どのような点でも構わない。そして、変位量Vは、基準位置から入射光線上の任意の一点へ向かうベクトルであればよく、基準位置から入射光線へ降ろした垂線の足へ向かうベクトルには限られない。
【0022】
[較正テーブルの生成方法]
次に、図10を参照して、非ピンホールカメラの特性を数値化したキャリブレーションデータをカメラの撮影画素(投影画素に相当)毎に関連付けた較正テーブルを生成する方法について説明する。図10は、較正テーブルを生成する方法の原理を示す概念図である。なお、図10(a)は、特定の入射光線に対して、カメラのパン及びチルトを変化させることで、キャリブレーションデータを測定する原理を示す概念図であり、図10(b)は、固定したカメラに対して、入射光線を変化させることで、キャリブレーションデータを測定する原理を示す概念図である。
【0023】
図10(a)に示すように、キャリブレーションデータを撮影画素毎に関連付けた較正テーブルを生成するには、非ピンホール性を有するカメラCに対して、光源位置をP1及びP2の1方向に移動させ(1軸移動)、光源位置P1及びP2で特定される入射光線Rを決定し、光源位置P1及びP2から発光される光が共に、測定を行う撮像画素に入射されるように、カメラCのパン及びチルトを調整(2軸回転)することで、カメラCの撮像画素毎に入射される入射光線Rの方向を特定する。
【0024】
また、図10(b)に示すように、カメラCは固定しておき、光源位置P1及びP2の2点で発光した入射光線Rが、測定画素に入射されるように、光源位置P1及びP2をXYZ方向に移動(3軸移動)させることで、その測定画素に入射される光源位置P1及びP2の2点で定まる入射光線Rの方向を特定することとしてもよい。
【0025】
図10(a)又は(b)で、測定を行った各撮像画素毎に特定された入射光線Rに基づいて、入射光線Rの方向と、光学中心Oから入射光基点K(図9参照)への変位量とをキャリブレーションデータとして撮像画素(投影画素)毎に関連付けることで較正テーブルを生成することができる。
【0026】
[レンジファインダの構成]
次に、図1を参照して、レンジファインダについて説明を行う。図1は、本発明の実施の形態であるレンジファインダの構成を示したブロック図である。図1に示したレンジファインダ1は、レーザ照射装置50で対象物OBに対し照射した光(平行光線)を、カメラCで撮像し、得られた画像から、対象物OBの3次元位置を検出するものである。そして、レーザ照射装置50の光束の方向を上下、左右に振って、多数の点で3次元位置を測定することにより、対象物OBの形状を測定する。
ここでは、レンジファインダ1を、レーザ照射装置(投光器)50と、カメラCと、画像入力手段10と、画素位置検出手段20と、較正テーブル蓄積手段30と、位置算出手段40とを備えて構成した。
【0027】
レーザ照射装置50は、図2に示すブロック図のように、レーザ光を発光するレーザ発光部51と、レーザ発光部51から照射されたレーザ光を集光して細いビームにする集光レンズ52と、集光レンズ52で集光されたレーザ光を複数のビームに分ける回折格子53とを備えている。回折格子53は、紙面に垂直な方向へビームを分けるものである。
また、回折格子の後段には、分かれたビームを1方向に拡散してスリット光を生成するビーム拡散レンズ54が設けられている。ビーム拡散レンズ54は、シリンドリカルレンズ等で構成される。このビーム拡散レンズ54によって、複数のビームのそれぞれは、60°の角度で拡散される。
図3に、レーザ光の照射状態を図示する。図3に示すように、レーザ照射装置50から発せられたレーザ光LBは、円錐面状に拡散され、平面PL上で二次曲線の軌跡RLを形成し、反射・散乱している。この反射・散乱が、特許請求の範囲にいう照射位置を示すことになる。レーザ光LBは、回折格子53によって、5つのビーム(レーザ光LB)に分けられており、さらにビーム拡散レンズ54によって、5つのビームが60°に拡散されている。これらレーザ光LBは、5つに分かれたビームごとに異なる原点Oから放射状に広がるように発せられている。
なお、図3では、見やすくするためにビームの数を「5」としているが、実用上は、より細かい間隔でレーザ光を分ける。たとえば、図3に示す角度Bが32°であり、隣り合うレーザ光の角度Cを1.6°とする。すなわち、ビームの数は「21」となる。
【0028】
また、レーザ照射装置50は、レンズ系で回折・拡散するものに限られず、一点のスポット光を発するレーザ光を、上方向(x方向)、横方向(y方向)に機械的に回動させてもよい。その場合には、レーザ光が、一点から放射状に発せられるように回動機構を構成すると、対象物の位置算出が容易になる。
【0029】
画像入力手段10は、カメラCで対象物OBを撮像した画像を入力するものである。入力する画像は、カラー画像や、多階調の白黒画像として入力する。画像入力手段10には、カメラCで撮像された各画像を一時的に記憶しておく、図示していないメモリを備えており、このメモリに記憶された画像を、後記する画素位置検出手段20が参照するものとする。
【0030】
画素位置検出手段20は、画像入力手段10で入力された画像において、レーザ光の照射位置を検出し、その画素位置を特定するものである。具体的には、画像上の明度分布を見て、明度がピークとなる画素を検出する。ここで検出された各画像の画素位置は、位置算出手段40へ入力される。
【0031】
較正テーブル蓄積手段30は、ハードディスク等の一般的な記憶媒体であって、カメラCの撮像画素毎にキャリブレーションデータを対応付けた較正テーブル31を蓄積したものである。較正テーブル31は、例えば、図4のように画素のx座標、y座標の組合せに対し、その画素に入射してくる光線を特定する情報として、光学中心Oからの変位量V(dx,dy,dz)及び角度α、βを対応づけて記憶されている。図5に示すように、角度α、βは、レーザ照射装置50のレーザ光LBが照射される原点Oを座標軸の原点とし、レーザ照射装置50の向きを基準にX軸、Y軸、Z軸を設定し、図5のXZ平面に対する入射光線の角度をα、図5のXY平面に対する入射光線の角度をβとしている。
【0032】
位置算出手段40は、画素位置検出手段20で検出された各画像の画素位置に対応した、較正テーブル30のキャリブレーションデータ(入射光線の方向及び変位量V)に基づいて、対照物OBの位置(3次元位置)を算出するものである。
【0033】
[レンジファインダの動作]
次に、図5及び図6を参照して、レンジファインダ1の動作について説明する。図6は、レンジファインダ1の動作を示すフローチャートである。
まず、レンジファインダ1は、対象物OBにレーザ光LBを照射し(ステップS1)、カメラCで対象物OBを撮像する(ステップS2)。そして、画像入力手段10によって、撮像した画像を入力する(ステップS3)。
次に、レンジファインダ1は、画像入力手段10で入力された各画像において、画素位置検出手段20により、明度のピークを検出して、レーザ光LBの対象物OB上の照射位置に対応する画素位置を検出する(ステップS4)。
【0034】
そして、レンジファインダ1は、位置算出手段40によって、較正テーブル31を参照して、前記画素位置に対応するキャリブレーションデータを取得し(ステップS5)、そのキャリブレーションデータに基づいて、カメラ基点位置P(Cx,Cy,Cz)を算出する(ステップS6)。カメラ基点位置は、図5に示すように、カメラCから、視線方向のベクトルを延ばす基点となる位置である。図5の座標系で、カメラCの光学中心Oの座標を、O(Ox,Oy,Oz)とすると、カメラ基点位置P(Cx,Cy,Cz)は、
Cx=Ox+dx
Cy=Oy+dy
Cz=Oz+dz
により表される。なお、本実施の形態では、較正テーブル31に、画素位置と、dx,dy,dzを対応させ、Cx,Cy,Czを別途計算により算出しているが、較正テーブル31に、画素位置とCx,Cy,Czを対応させて記憶させても構わない。その場合には、特許請求の範囲にいう基準位置は、図5の座標系の原点、すなわち、レーザ光LBが照射される原点Oとなる。
【0035】
そして、カメラ基点位置P(Cx,Cy,Cz)と、較正テーブル31から取得した角度α、β、及びレーザ光の方向を特定する角度ω、角度φに基づき、照射位置を計算する。なお、角度ωは、予め測定する対象までの距離が限定されている場合には、画像上の一定の範囲内には所定のレーザ光しか存在しないため、画素位置からレーザ光を決定でき対応する角度も決定できることになる。また、スポット光を機械的に振るようにレーザ照射装置を構成した場合には、そのスポット光が向けられた方向を機械的又は電気的に測定し、角度ω、角度θを画像と同期して位置算出手段40に取り込み、計算に使用すればよい。
【0036】
位置の計算は、例えば次のようにして行う。
図5のように、レーザ光BLの原点OLから照射位置P(X,Y,Z)までの距離をr、カメラCのカメラ基点位置Pから照射位置P(X,Y,Z)までの距離をRとする。
そこで、照射位置P(X,Y,Z)は、レーザ光BLの方向ベクトルおよび距離rとの関係では、幾何学的に次の(2)〜(4)式
X=rcosω ・・・(2)
Y=rsinω ・・・(3)
Z=−rcosωsinω・・・(4)
の関係があり、視線方向ベクトルおよび距離Rとの関係では、次の(5)〜(7)式
X=Rcosαcosβ + Cx・・・(5)
Y=Rsinαcosβ + Cy・・・(6)
Z=−Rsinβ + Cz ・・・(7)
の関係がある。
これらの式(2)〜(7)から、r、R、を求めると、
(0≦Cy and 0≦ω) or (Cy<0 and ω<0)のとき
R=(−B + √(B−4AC))/2A
ω=0のとき
R=−Cy/sinαcosβ
(0≦Cy and ω<0) or (Cy<0 and 0≦ω)のとき
R=(−B − √(B−4AC))/2A
ω=0のとき
r=(Rsinαcosβ + Cy)/sinω
ただし、
A=cosαcosβ+sinβ − cosωsinαcosβ/sinω
B=cosαcosβ Cx − sinβ Cz − cosωsinαcosβ Cy/sinω
C=Cx + Cz − cosω Cy/sinω
となる。
【0037】
このようにして、レンジファインダ1は、カメラCの非ピンホール性を補正して、正確に照射位置を検出することが可能になる。そして、すべてのレーザ光LBの照射位置について3次元位置を計算すれば、対象物OBの3次元形状を測定することができる。
なお、このレンジファインダ1を、移動ロボット、自動車等に組み込んで用いることも可能である。例えば、移動ロボットに本発明を適用し、移動ロボットが、床の形状を検出することで、床の凹凸を正確に認識することができ、移動ロボットが安定した歩行を行うことが可能になる。
【0038】
【発明の効果】
以上説明したとおり、本発明に係るレンジファインダによれば、カメラの非ピンホール性を考慮して、光学中心と実際にカメラのレンズ系に入射する光のズレを補正し、対象物の正確な位置・形状を測定することができる。
【図面の簡単な説明】
【図1】実施形態に係るレンジファインダの構成を示すブロック図である。
【図2】レーザ照射装置のブロック図である。
【図3】レーザの照射状態を示す斜視図である。
【図4】較正テーブルの一例を示す図である。
【図5】照射位置の計算方法を説明する図である。
【図6】実施形態に係るレンジファインダの動作を示すフローチャートである。
【図7】ピンホールカメラモデルの概念を説明する図である。
【図8】レンズ系を有するカメラの模式図である。
【図9】キャリブレーションデータの内容を説明する図である。
【図10】キャリブレーションデータの生成方法を説明する図である。
【符号の説明】
1 レンジファインダ
10 画像入力手段
20 画素位置検出手段
30 較正テーブル蓄積手段
31 較正テーブル
40 位置算出手段
50 レーザ照射装置
C カメラ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a range finder for measuring a shape of an object without contact.
[0002]
[Prior art]
In recent years, three-dimensional measurement using images has become common with the development of CCD cameras and computer image processing. As a three-dimensional measuring device using a CCD camera and computer image processing, there is a range finder. The range finder is a device that irradiates a parallel light beam such as a slit light from a light projector to a target object, images the target object with a camera, and measures the shape of the target object from the captured image. The principle is to calculate a surface position of an object based on triangulation from a positional relationship between a projector and a camera and a position of a parallel ray in a captured image (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-9-287927 (paragraph 0025, FIG. 2, etc.)
[0004]
[Problems to be solved by the invention]
By the way, in the conventional range finder, the light projector irradiates a parallel light beam from a fixed point, and measures the shape on the assumption that the light beam incident on the camera converges to one point. That is, it is assumed that the lens system of the camera is based on the pinhole camera model. In this pinhole camera model, as shown in FIG. 7, only light (incident light) incident through a base position (needle hole: pinhole H) reaches the image plane, and the three-dimensional space is A model associated with a two-dimensional space on a surface. As described above, the pinhole camera model assumes that an image is formed through an incident light beam through a single pinhole.
[0005]
However, not a pinhole camera but a camera having a lens system made of glass or the like does not converge on one point even if the incident light beam is extended. Therefore, an image captured by a camera having a lens system has non-linear distortion, and the distortion is larger in a peripheral visual field.
Therefore, in the conventional range finder, an error occurs in the position measurement result of the object by the amount of the distortion. This error also depends on the distance to the object, and the change in error due to the distance of the object is non-linear. Therefore, if the distance of the object is known, it is possible to calibrate by taking the relationship between the position measurement result and the actual position, but since the distance of the object is unknown until measured, it is completely It could not be calibrated.
[0006]
The present invention has been made in view of the above problems, and in a conventional range finder, removes a root cause of an error based on a pinhole camera model, regardless of a distance between a camera and an object. An object of the present invention is to provide a range finder capable of performing accurate shape measurement.
[0007]
[Means for Solving the Problems]
The present invention has been devised to achieve the above-mentioned object. First, the range finder according to claim 1 irradiates a parallel light beam to an object by a projector and irradiates the object by a camera. An image of an object, a range finder for measuring the shape of the object, from the positional relationship between the light emission position of the light projector and the optical center of the camera, and the irradiation position of the parallel rays in the captured image, A correction means for calculating a shift amount of an incident light beam incident on the lens system with respect to an optical center of the lens system of the camera, and correcting the shape of the object based on the shift amount is provided. .
[0008]
According to such a range finder, the correcting means calculates a shift amount of an incident light beam incident on the lens system of the camera from the optical center, and based on the shift amount, determines each measurement position, that is, the position of the object. Correcting the shape makes it possible to measure the exact shape of the object. The optical center indicates the center position of the lens system, and corresponds to the position of the pinhole in the lens system of the pinhole camera model.
[0009]
Further, the range finder according to claim 2 irradiates a parallel light beam to the object by a light projector, captures an image of the object irradiated by the parallel light beam by a camera, and emits light from the light projector and the optical center of the camera. A range finder for measuring the shape of the object from a positional relationship of the object and an irradiation position of the parallel light beam in the captured image, and image input means for inputting an image captured by the camera; and the image input means. Pixel position detecting means for detecting the pixel position of the irradiated parallel light beam in the image input in step 2, the pixel position of the image picked up by the camera, the direction of the light beam incident on the pixel, and the incident light beam from the reference position. The calibration table based on a pixel position detected by the pixel position detection unit, and a calibration table storage unit that stores a calibration table that associates the displacement amount with the calibration table. A position calculating unit that obtains the direction and displacement of the incident light beam corresponding to the pixel position with reference to the pixel position, and calculates the irradiation position using the direction and the displacement amount of the incident light beam. And
[0010]
In such a range finder, first, a target object is irradiated with a parallel light beam by a projector. The parallel light beam may be light that is irradiated without spreading from the projector, and spot light that is irradiated at one point, slit light that is a band-like light, or pattern light having a specific pattern alone may be used. Alternatively, these can be used in combination.
Then, the image input means inputs the image captured by the camera into the range finder, and the pixel position detecting means recognizes the pixel position of the emitted parallel light beam from the image. Further, the position calculating means acquires the direction and the amount of displacement of the incident light beam corresponding to the pixel position with reference to the calibration table, and utilizes the direction of the incident light beam and the amount of displacement from the reference position to irradiate the irradiation position, that is, the target position. Calculate the surface position of an object.
Therefore, the shape of the target object can be measured based on the accurate direction of the incident light beam entering the lens, so that the shape of the target object can be accurately measured.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
First, we explain the non-pinhole property of a camera, which is generally called a pinhole camera model, where incident light does not intersect at one point, which causes image distortion, and quantifies the characteristics of the camera with the non-pinhole property The calibration data obtained will be described. Then, a method of generating a calibration table by measuring calibration data for each imaging pixel of the camera will be described, and a range finder having this calibration table will be described sequentially.
[0012]
[About non-pinhole properties of camera]
First, with reference to FIG. 8, a description will be given of the cause of the occurrence of distortion in an image captured by a camera having a lens system. FIG. 8 is a schematic diagram of a camera having a lens system. Here, for the sake of simplicity, it is assumed that the lens system is a sheet glass G, and the aperture F generates a pinhole H. The incident light beam r1 vertically incident on the plate glass G of the camera C passes through the pinhole H and is captured by the pixel R1 on the imaging surface I. The incident light beams r2 and r3 obliquely incident on the glass sheet G are refracted in the glass sheet G and then imaged on the pixels R2 and R3 on the imaging plane I through the pinhole H.
[0013]
However, this camera C does not intersect at one point r2 ′ and r3 ′, which are extensions of the incident light beams r2 and r3 before passing through the glass sheet G, at one point. It turns out that it has not become. Therefore, the pixel R3 on the imaging surface I captures an incident light r3 that is shifted by the distance D from the incident light rr assumed in the pinhole camera model.
[0014]
As described above, a camera that captures an image with an incident light beam that is incident on a lens system (here, the glass sheet G) has a pinhole property (non-pinhole property). Hereinafter, a camera having a lens system is referred to as a “non-pinhole camera”.
[0015]
[Calibration data]
Next, calibration data obtained by digitizing the characteristics of the non-pinhole camera will be described with reference to FIG. FIG. 9 is an explanatory diagram for explaining the contents of the calibration data. As shown in FIG. 9, the incident light beam R incident on the lens 1 can be specified at two points. Here, when the light emitted from the first light source position P1 and the light emitted from the second light source position P2 are imaged on the same pixel (not shown), the incident light R is changed to the incident light corresponding to the pixel. Is specified.
[0016]
Here, the point at which the sum of the squares of the distances to all the incident rays is the minimum is defined as the optical center O, and the point at which the distance between the incident ray R and the optical center O corresponding to each imaging pixel is the minimum is defined as the optical center O. It is defined as the incident light base point K of the incident light R.
[0017]
That is, the optical center O (x 0 , y 0 , z 0 ) is the light source position P 1 (x 1 , y 1 , z 1 ) and the light source position P 2 (x 2 , y 2 , z 2 ) for all incident light beams. The position at which the sum of the squares of the distance d from the incident light R (formula (1)) is minimum is the position obtained by the least squares method.
[0018]
d 2 = − (A 2 / B) + C (1)
[0019]
However,
A = (x 2 −x 1 ) (x 1 −x 0 ) + (y 2 −y 1 ) (y 1 −y 0 ) + (z 2 −z 1 ) (z 1 −z 0 )
B = (x 2 −x 1 ) 2 + (y 2 −y 1 ) 2 + (z 2 −z 1 ) 2
C = (x 1 −x 0 ) 2 + (y 1 −y 0 ) 2 + (z 1 −z 0 ) 2
And
[0020]
Thereby, the direction of the incident light beam (the direction specified by the light source positions P1 and P2), the displacement amount from the optical center O to the incident light base point K (expressed by the three-dimensional vector V D (dx, dy, dz)) The characteristics of the non-pinhole camera can be quantified by making the data associated with the calibration data the calibration data.
[0021]
Note that the calibration data is not limited to this. For example, in the above described example, the optical center O as a reference position, but the vector from the optical center O to the perpendicular foot dropping off the incident light is a displacement V D, the reference position is not limited to the optical center, the camera Any point may be used as long as it is a fixed point that has a fixed relationship with. The displacement V D may be any vector directed to any point on the incident light from the reference position is not limited to the vector directed to a foot of the perpendicular line which down to incident light from the reference position.
[0022]
[Method of generating calibration table]
Next, a method of generating a calibration table in which calibration data obtained by quantifying characteristics of a non-pinhole camera is associated with each photographed pixel (corresponding to a projected pixel) of the camera will be described with reference to FIG. FIG. 10 is a conceptual diagram illustrating the principle of a method for generating a calibration table. FIG. 10A is a conceptual diagram illustrating the principle of measuring calibration data by changing the pan and tilt of a camera with respect to a specific incident light beam, and FIG. FIG. 7 is a conceptual diagram showing a principle of measuring calibration data by changing an incident light beam with respect to a camera that has been made.
[0023]
As shown in FIG. 10A, in order to generate a calibration table in which calibration data is associated with each photographing pixel, the light source position is set in one direction of P1 and P2 with respect to the camera C having the non-pinhole property. The camera is moved (one-axis movement) to determine the incident light beam R specified by the light source positions P1 and P2, and the camera is set so that the lights emitted from the light source positions P1 and P2 are both incident on the imaging pixels to be measured. By adjusting the pan and tilt of C (two-axis rotation), the direction of the incident light R incident on each imaging pixel of the camera C is specified.
[0024]
Further, as shown in FIG. 10B, the camera C is fixed, and the light source positions P1 and P2 are set so that the incident light rays R emitted at the two light source positions P1 and P2 are incident on the measurement pixels. May be moved in the XYZ directions (three-axis movement) to specify the direction of the incident light beam R defined by two points of the light source positions P1 and P2 incident on the measurement pixel.
[0025]
10A or 10B, the direction of the incident light R and the incident light base point K from the optical center O on the basis of the incident light R specified for each of the imaging pixels for which the measurement was performed (see FIG. 9). The calibration table can be generated by associating the amount of displacement with respect to each of the imaging pixels (projection pixels) as calibration data.
[0026]
[Configuration of Range Finder]
Next, the range finder will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a range finder according to an embodiment of the present invention. The range finder 1 shown in FIG. 1 captures light (parallel rays) irradiated on the object OB by the laser irradiation device 50 with the camera C, and detects the three-dimensional position of the object OB from the obtained image. Is what you do. Then, the shape of the object OB is measured by shaking the direction of the light beam of the laser irradiation device 50 up and down, left and right, and measuring three-dimensional positions at many points.
Here, the range finder 1 includes a laser irradiation device (light emitter) 50, a camera C, an image input unit 10, a pixel position detection unit 20, a calibration table storage unit 30, and a position calculation unit 40. did.
[0027]
As shown in the block diagram of FIG. 2, the laser irradiation device 50 includes a laser emitting unit 51 that emits a laser beam, and a condensing lens 52 that condenses the laser beam emitted from the laser emitting unit 51 into a narrow beam. And a diffraction grating 53 for dividing the laser light condensed by the condenser lens 52 into a plurality of beams. The diffraction grating 53 separates the beam in a direction perpendicular to the plane of the drawing.
Further, a beam diffusion lens 54 for diffusing the split beam in one direction to generate slit light is provided downstream of the diffraction grating. The beam diffusion lens 54 is configured by a cylindrical lens or the like. Each of the plurality of beams is diffused by the beam diffusion lens 54 at an angle of 60 °.
FIG. 3 illustrates the state of irradiation of the laser beam. As shown in FIG. 3, the laser light LB emitted from the laser irradiation device 50 is diffused in a conical shape, forms a quadratic curve locus RL on the plane PL, and is reflected and scattered. This reflection / scattering indicates the irradiation position referred to in the claims. The laser beam LB is divided into five beams (laser beam LB) by the diffraction grating 53, and the five beams are diffused by 60 ° by the beam diffusion lens 54. These laser beam LB is emitted as radiating from different origin O L in each beam which is divided into five.
In FIG. 3, the number of beams is set to “5” for easy viewing, but in practice, the laser light is divided at smaller intervals. For example, the angle B shown in FIG. 3 is 32 °, and the angle C between adjacent laser beams is 1.6 °. That is, the number of beams is “21”.
[0028]
The laser irradiation device 50 is not limited to the one that diffracts and diffuses by a lens system, but mechanically rotates a laser beam that emits a single spot light in an upward direction (x direction) and a lateral direction (y direction). You may. In this case, if the rotation mechanism is configured so that the laser light is emitted radially from one point, the position of the target object can be easily calculated.
[0029]
The image input means 10 is for inputting an image of the object OB captured by the camera C. The input image is input as a color image or a multi-tone black and white image. The image input means 10 includes a memory (not shown) for temporarily storing each image captured by the camera C. The image stored in this memory is stored in a pixel position detecting means 20 described later. Shall be referred to.
[0030]
The pixel position detecting means 20 detects the irradiation position of the laser beam in the image input by the image input means 10 and specifies the pixel position. Specifically, a pixel having a peak brightness is detected by looking at the brightness distribution on the image. The pixel position of each image detected here is input to the position calculating means 40.
[0031]
The calibration table storage unit 30 is a general storage medium such as a hard disk, and stores a calibration table 31 in which calibration data is associated with each imaging pixel of the camera C. For example, as shown in FIG. 4, the calibration table 31 stores a displacement amount V D (dx, dx, d) from the optical center O as information for specifying a ray incident on the pixel for a combination of the x coordinate and the y coordinate of the pixel. dy, dz) and angles α, β are stored in association with each other. As shown in FIG. 5, the angle alpha, beta is the origin O L in which the laser beam LB of the laser irradiation apparatus 50 is irradiated as the origin of the coordinate axes, X-axis relative to the orientation of the laser irradiation device 50, Y-axis, Z An axis is set, and the angle of the incident light with respect to the XZ plane in FIG. 5 is α, and the angle of the incident light with respect to the XY plane in FIG. 5 is β.
[0032]
The position calculating unit 40 determines the position of the control object OB based on the calibration data (the direction of the incident light beam and the amount of displacement V D ) of the calibration table 30 corresponding to the pixel position of each image detected by the pixel position detecting unit 20. The position (three-dimensional position) is calculated.
[0033]
[Operation of range finder]
Next, the operation of the range finder 1 will be described with reference to FIGS. FIG. 6 is a flowchart showing the operation of the range finder 1.
First, the range finder 1 irradiates the object OB with the laser beam LB (step S1), and captures an image of the object OB with the camera C (step S2). Then, the captured image is input by the image input means 10 (step S3).
Next, the range finder 1 detects the peak of the brightness by the pixel position detection unit 20 in each image input by the image input unit 10, and outputs the pixel corresponding to the irradiation position of the laser beam LB on the object OB. The position is detected (step S4).
[0034]
Then, the range finder 1 obtains the calibration data corresponding to the pixel position by the position calculating means 40 with reference to the calibration table 31 (step S5), and based on the calibration data, the camera base position P C (Cx, Cy, Cz) is calculated (step S6). As shown in FIG. 5, the camera base point position is a position serving as a base point for extending a vector in the line-of-sight direction from the camera C. In the coordinate system of FIG. 5, the coordinates of the optical center O of the camera C, O (Ox, Oy, Oz) and when the camera base position P C (Cx, Cy, Cz ) is
Cx = Ox + dx
Cy = Oy + dy
Cz = Oz + dz
Is represented by In the present embodiment, the calibration table 31 associates the pixel positions with dx, dy, and dz, and Cx, Cy, and Cz are separately calculated, but the calibration table 31 includes the pixel positions and Cx , Cy, and Cz may be stored in association with each other. In that case, the reference position is referred to in the claims, the coordinate system of the origin of the 5, i.e., the origin O L in which the laser beam LB is irradiated.
[0035]
Then, the irradiation position is calculated based on the camera base position P C (Cx, Cy, Cz), the angles α and β obtained from the calibration table 31, and the angles ω and φ specifying the direction of the laser beam. Note that, when the distance to the object to be measured is limited in advance, only a predetermined laser beam exists within a certain range on the image, so that the laser beam can be determined from the pixel position. The angle can also be determined. When the laser irradiation device is configured to mechanically shake the spot light, the direction in which the spot light is directed is measured mechanically or electrically, and the angle ω and the angle θ are synchronized with the image. What is necessary is just to take in by the position calculation means 40, and to use for calculation.
[0036]
The calculation of the position is performed, for example, as follows.
Figure as in 5, the irradiation position from the origin OL laser beam BL P 0 (X, Y, Z) the distance to r, the camera C camera base point P C from the irradiation position P 0 (X, Y, Z ) Let R be the distance to.
Therefore, the irradiation position P 0 (X, Y, Z) is geometrically expressed by the following formulas (2) to (4) where X = rcos ω in relation to the direction vector of the laser beam BL and the distance r. 2)
Y = rsinω (3)
Z = −rcosωsinω (4)
In the relationship between the line-of-sight direction vector and the distance R, the following expressions (5) to (7) are used: X = Rcosαcosβ + Cx (5)
Y = Rsinαcosβ + Cy (6)
Z = −Rsinβ + Cz (7)
There is a relationship.
When r and R are obtained from these equations (2) to (7),
(0 ≦ Cy and 0 ≦ ω) or (Cy <0 and ω <0) R = (− B + (B 2 -4AC)) / 2A
R = -Cy / sinαcosβ when ω = 0
When (0 ≦ Cy and ω <0) or (Cy <0 and 0 ≦ ω), R = (− B−√ (B 2 -4AC)) / 2A
When ω = 0, r = (Rsinαcosβ + Cy) / sinω
However,
A = cos 2 αcos 2 β + sin 2 β - cos 2 ωsin 2 αcos 2 β / sin 2 ω
B = cosαcosβ Cx - sinβ Cz - cos 2 ωsinαcosβ Cy / sin 2 ω
C = Cx 2 + Cz 2 −cos 2 ω Cy 2 / sin 2 ω
It becomes.
[0037]
In this way, the range finder 1 can correct the non-pinhole property of the camera C and accurately detect the irradiation position. Then, if the three-dimensional position is calculated for all the irradiation positions of the laser beam LB, the three-dimensional shape of the object OB can be measured.
The range finder 1 can be used by being incorporated in a mobile robot, an automobile, or the like. For example, when the present invention is applied to a mobile robot and the mobile robot detects the shape of the floor, the unevenness of the floor can be accurately recognized, and the mobile robot can stably walk.
[0038]
【The invention's effect】
As described above, according to the range finder according to the present invention, in consideration of the non-pinhole property of the camera, the shift between the optical center and the light actually incident on the lens system of the camera is corrected, and the accurate position of the object is corrected. Position and shape can be measured.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a range finder according to an embodiment.
FIG. 2 is a block diagram of a laser irradiation device.
FIG. 3 is a perspective view showing a laser irradiation state.
FIG. 4 is a diagram illustrating an example of a calibration table.
FIG. 5 is a diagram illustrating a method of calculating an irradiation position.
FIG. 6 is a flowchart illustrating an operation of the range finder according to the embodiment.
FIG. 7 is a diagram illustrating the concept of a pinhole camera model.
FIG. 8 is a schematic view of a camera having a lens system.
FIG. 9 is a diagram illustrating the contents of calibration data.
FIG. 10 is a diagram illustrating a method for generating calibration data.
[Explanation of symbols]
1 Range finder 10 Image input means 20 Pixel position detecting means 30 Calibration table storage means 31 Calibration table 40 Position calculating means 50 Laser irradiation device C Camera

Claims (2)

投光器により対象物に平行光線を照射し、カメラにより前記対象物に照射された対象物を撮像し、前記投光器の発光位置と前記カメラの光学中心との位置関係、及び撮像された画像における前記平行光線の照射位置から、前記対象物の形状を測定するレンジファインダであって、
前記カメラのレンズ系の光学中心に対する、前記レンズ系に入射される入射光線のズレ量を算出し、このズレ量に基づいて前記対象物の形状を補正する補正手段を設けたことを特徴とするレンジファインダ。
The projector irradiates the object with parallel rays, captures an image of the object illuminated by the camera, and positions the light emitting position of the projector and the optical center of the camera, and the parallelism in the captured image. From the irradiation position of the light beam, a range finder for measuring the shape of the object,
A correction means for calculating a shift amount of an incident light beam incident on the lens system with respect to an optical center of the lens system of the camera, and correcting a shape of the object based on the shift amount is provided. Range finder.
投光器により対象物に平行光線を照射し、カメラにより前記平行光線が照射された対象物を撮像し、前記投光器の発光位置と前記カメラの光学中心との位置関係、及び撮像された画像における前記平行光線の照射位置から、前記対象物の形状を測定するレンジファインダであって、
前記カメラで撮像した画像を入力する画像入力手段と、
この画像入力手段で入力された画像において、照射された平行光線の画素位置を検出する画素位置検出手段と、
前記カメラで撮像される画像の画素位置と、その画素への入射光線の方向及び基準位置から入射光線への変位量とを関連づけた較正テーブルを蓄積した較正テーブル蓄積手段と、
前記画素位置検出手段で検出された画素位置に基づき、前記較正テーブルを参照して、その画素位置に対応する入射光線の方向及び変位量を取得し、この入射光線の方向及び変位量を利用して前記照射位置を算出する位置算出手段とを備えることを特徴とするレンジファインダ。
The projector emits a parallel light beam to the object, and the camera captures an image of the object irradiated with the parallel light beam.The positional relationship between the light emission position of the light projector and the optical center of the camera, and the parallelism in the captured image. From the irradiation position of the light beam, a range finder for measuring the shape of the object,
Image input means for inputting an image captured by the camera,
In an image input by the image input unit, a pixel position detection unit that detects a pixel position of the irradiated parallel light beam,
Pixel position of the image captured by the camera, a calibration table storage means that stores a calibration table that correlates the direction of the incident light beam to the pixel and the displacement amount from the reference position to the incident light beam,
Based on the pixel position detected by the pixel position detection means, referring to the calibration table, obtain the direction and displacement of the incident light corresponding to the pixel position, and use the direction and displacement of the incident light. And a position calculating means for calculating the irradiation position.
JP2003110466A 2003-04-07 2003-04-15 Range finder Expired - Fee Related JP4046282B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003110466A JP4046282B2 (en) 2003-04-15 2003-04-15 Range finder
US10/806,547 US7627197B2 (en) 2003-04-07 2004-03-23 Position measurement method, an apparatus, a computer program and a method for generating calibration information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003110466A JP4046282B2 (en) 2003-04-15 2003-04-15 Range finder

Publications (2)

Publication Number Publication Date
JP2004317246A true JP2004317246A (en) 2004-11-11
JP4046282B2 JP4046282B2 (en) 2008-02-13

Family

ID=33471316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003110466A Expired - Fee Related JP4046282B2 (en) 2003-04-07 2003-04-15 Range finder

Country Status (1)

Country Link
JP (1) JP4046282B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009192483A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Three dimensional shape measuring method and three dimensional shape measuring device
CN108362215A (en) * 2017-10-09 2018-08-03 同济大学 Automatic deformation monitoring system and method for a variety of robot measurement Free Stations

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009192483A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Three dimensional shape measuring method and three dimensional shape measuring device
CN108362215A (en) * 2017-10-09 2018-08-03 同济大学 Automatic deformation monitoring system and method for a variety of robot measurement Free Stations

Also Published As

Publication number Publication date
JP4046282B2 (en) 2008-02-13

Similar Documents

Publication Publication Date Title
JP5140761B2 (en) Method for calibrating a measurement system, computer program, electronic control unit, and measurement system
US7627197B2 (en) Position measurement method, an apparatus, a computer program and a method for generating calibration information
JP5943547B2 (en) Apparatus and method for non-contact measurement
JP2006514739A5 (en)
JP2006514739A (en) Dental laser digitizer system
JP2017020874A (en) Measurement device for measuring shape of measurement object
JP2008241643A (en) Three-dimensional shape measuring device
JP2003172610A (en) Three-dimensional color/shape-detecting apparatus and three-dimensional scanner
KR20120038072A (en) Inspection apparatus and compensating method thereof
JP2006337254A (en) Imaging apparatus, method and program for measuring distance of photographed image, and recording medium
JP2009036589A (en) Target for calibration and device, method and program for supporting calibration
WO2022050279A1 (en) Three-dimensional measurement device
JP4837538B2 (en) End position measuring method and dimension measuring method
JP2017198470A (en) Measurement device, measurement method, system, and goods manufacturing method
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JP4046282B2 (en) Range finder
JP2008085748A (en) Image projection and display apparatus
JP6762746B2 (en) Exposure equipment and exposure method, and manufacturing method of articles
JP4141874B2 (en) Focal length and / or angle of view calculation method and focal length calculation light projection apparatus
JP2008232950A (en) Position detection method and position detector
JP2006308452A (en) Method and apparatus for measuring three-dimensional shape
JP4741943B2 (en) Inspection apparatus and inspection method
JP3897203B2 (en) Ball grid array ball height measurement method
JP3914938B2 (en) Projector keystone distortion correction device and projector including the keystone distortion correction device
JP2008170282A (en) Shape measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4046282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees