JP2004085371A - Non-contact shape measuring arrangement - Google Patents

Non-contact shape measuring arrangement Download PDF

Info

Publication number
JP2004085371A
JP2004085371A JP2002247076A JP2002247076A JP2004085371A JP 2004085371 A JP2004085371 A JP 2004085371A JP 2002247076 A JP2002247076 A JP 2002247076A JP 2002247076 A JP2002247076 A JP 2002247076A JP 2004085371 A JP2004085371 A JP 2004085371A
Authority
JP
Japan
Prior art keywords
image
data
measurement
imaging unit
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002247076A
Other languages
Japanese (ja)
Other versions
JP3963219B2 (en
Inventor
Hirobumi Chikatsu
近津 博文
Masaru Yokoyama
横山 大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2002247076A priority Critical patent/JP3963219B2/en
Publication of JP2004085371A publication Critical patent/JP2004085371A/en
Application granted granted Critical
Publication of JP3963219B2 publication Critical patent/JP3963219B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a non-contact shape measuring arrangement which can solve a problem of data dropout caused by insufficient light intensity and record detailed color information. <P>SOLUTION: Three dimensional data of a measurement object 10 is calculated on the basis of moving positions of the measurement object 10 and a planar coordinate system calculated for each line image. Images of the object 10 are picked up by a camera 20 from a main camera position 20A and an auxiliary camera position 20B to obtain central projection images. A pseudo central projection image is constituted by using the three dimensional data of the object calculated as above and imaging data such as the position and attitude of the camera 20. The pseudo central projection image is compared with the central projection image acquired at the main camera position 20A to determine a site on which the central projection image lacks dada. The site is interpolated by using a three-dimensional image made of the central projection images of the site picked up at the position 20A and the position 20B. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、高解像度画像を用いた計測装置に係り、特に非接触式計測装置のデータ欠落部の補間方法(データ処理方法)および高解像度画像情報の取得とそれを実現する計測装置の改良に関する。
【0002】
【従来の技術】
計測対象物(測定対象)に対してスリット光源からのスリット光を照射して、投影された計測対象物のスリット画像を撮像手段で所定角度あるいは等ピッチで撮像して、計測対象物の三次元形状を測定する技術が種々に提案されている(特開平3−138507号、特開平5−203423号、および特開平9−102913号公報参照)。
【0003】
この種の非接触式の立体形状計測装置として、ラインレーザと一軸移動台、CCDカメラを用いた装置が既に提案されている(特開平11−183125号公報参照)。図6に示すように、この立体形状計測装置では、左右レーザ光源a1,a2から出射されるスリット光b1,b2で光の面(光面)をX−Y面に構成する。そして、この光面を一軸移動台上cに設置した計測対象物dをZ方向に通過させて、計測対象物dのスリット光と当った部分のライン画像の映像を計測対象物dの前面(Z方向前面)に設けたCCDカメラeで撮影する構成となっている。なお、撮影画像データはアナログ信号であり、アナログ/デジタル変換用コンバータfを介してデジタル信号となってコンピュータgに入力され、デジタル/アナログ変換コンバータhによりアナログ信号となってテレビジョンモニタに処理画像を表示する。
計測対象物dが光面を通過する際に得られる画像は、計測対象物dの部分的な外形をあらわす線画像として計測対象物dの断面情報(以下、「断面画像」と称する)が取得されるが、この断面画像から断面部分の平面座標を算出し一軸移動台cの移動量を奥行き情報として付加することで立体形状を計測することになる。
また、各断面情報を重ね合わせ明るい色を優先して表現することで正射投影画像(以下、「外観画像」と称する)の作成が実現する。
【0004】
【発明が解決しようとする課題】
しかしながら、前記公報記載の発明においては、スリット光で構成される光の面を通過した部分のみデータ化しており、そのため、図7に示すような状態においては、計測対象物dの凹んだ部分j1や先端部分j2においてスリット光がとどかずに光量不足によるデータ欠落が発生するという欠点がある。図8は、光量不足によるデータ欠落の実例を示す。この欠点を改善するため、当該部分の画像処理による色調整(輝度値補正)方法を前記公報記載の技術で提案している。しかるに、前記技術では、光量不足によりデータそのものが作成されないなどの欠点は解消できないものであった。
【0005】
本発明は、前記従来の問題点を解消するためなされたものであって、光量不足によるデータ欠落の問題をなくし、また、詳細な色情報の記録を行なうことが可能な非接触式形状計測装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は、スリット光の照射された計測対象物を撮像し、前記スリット光によって前記計測対象物の表面にライン状に現れるライン光をライン画像として取り込む第1の撮像手段と、前記計測対象物が第1の撮像手段に対して所定間隔相対移動する毎に前記第1の撮像手段で得た各ライン画像に基いて前記計測対象物の測定面上における各ライン画像毎の平面座標を算出し、前記位置検出手段により検出した前記計測対象物の各移動位置及び各ライン画像ごとに算出した前記平面座標に基いて、前記計測対象物の表面の3次元データを算出する3次元データ算出手段とを有し、前記計測対象物をその正面位置から撮影して中心投影画像を取得する第2の撮像手段と、前記計測対象物の正面から一定間隔を置いた横方向位置で計測対象物を撮影して中心投影画像を取得する第3の撮像手段と、前記算出された計測対象物の3次元データと前記第1の撮像手段の位置および姿勢などの撮影情報に基き、前記第2の撮像手段で取得した中心投影画像と同様の擬似中心投影画像を作成する手段と、前記擬似中心投影画像を前記中心投影画像を比較して前記擬似中心投影画像のデータが欠落し補間すべき部位を判定するための手段と、前記第2の撮像手段により取得した中心投影画像および前記第3の撮像手段で撮影した中心投影画像および各撮像手段の位置および姿勢などの撮影情報(例えば撮像手段情報)に基き、補間すべき部位の立体形状を算出しかつ当該部位を補間する演算手段とを有することを特徴とする非接触式形状計測装置である。
本発明によれば、計測対象物の3次元データと第1の撮像手段の位置および姿勢などの撮影情報に基き擬似中心投影画像を作成する。この擬似中心投影画像では前記図7に示したようにスリット光の当らない凸部や凹部にデータの欠落した部分になるので、その欠落部分を特定するため、擬似中心投影画像と前記中心投影画像とを比較してデータ欠落部位を判定する。そして、前記第2の撮像手段により取得した中心投影画像および前記第3の撮像手段で撮影した中心投影画像および各撮像手段の位置および姿勢などの撮影情報に基き、補間すべき部位の立体形状を算出しかつ当該部位を補間することにより、完全な形での3次元データ(3次元位置データ)すなわち、立体形状データを取得できるようにしたものである。
なお、本発明においては、第2の撮像手段で取得した中心投影画像の色情報を補間の終了した擬似中心投影画像の色情報として用いて、擬似中心投影画像を投影している3次元形状データに中心投影の色情報を与える手段を備えることが好適である。このようにすれば、擬似中心投影画像を構成している立体形状データへ中心投影の色情報を与えることが可能であり、結果として詳細に色情報を持つ立体形状データと外観画像を作成することができる。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明に係る非接触式立体形状計測装置の実施形態を説明する。
図1は、本発明に係る非接触式立体形状計測装置の一実施形態を示した構成説明図である。図1に示すように、計測対象物は、測定台12上に載置される。同図では計測対象物10として縄文土器などの遺跡出土品を示しているが、計測対象物10は遺跡出土品に限らず他の物品とすることは当然可能である。
【0008】
また、上記計測対象物10を載置する測定台12は、図示しない駆動機構によって一軸方向(Z方向)に移動可能に設けられる。この駆動機構は、後述するパーソナルコンピュータ(以下、「パソコン」と略記する)24から駆動信号を受けてZ方向の前後に測定台12を移動させるようになっている。従って、パソコン24からの駆動信号によって測定台12上の計測対象物10が測定台12の移動とともに前記Z方向に移動する。
【0009】
上記測定台12の両側部には、左右対称に光源14、16が配設される。この光源14、16は、上記測定台12の移動方向であるZ方向と垂直に交わる(X、Y)座標で表される面(以下、この面を測定面と称す。)内において平面的に広がる照明光を出射する。光源14、16は、例えば、点光源からスリットを介してレーザ光などの照明光を出射するものにできる。計測対象の形状によっては、上部方向などの左右対称な位置以外に光源を設置することも可能である。
これにより、測定面内において両側部から計測対象物10の表面にライン状に照明光が照射される(以下、この照明光をスリット光と称す。)。このスリット光によって照明された部分は計測対象物10を測定面で切断した場合の断面の輪郭形状(ライン画像)を示す。
【0010】
なお、ライン画像取得に際しては、光源14、16から出射されたスリット光以外の光は、この測定装置の周辺において遮光されているため、スリット光が照射される計測対象物10の表面以外の部分には光が照射されないようになっている。また、測定面内には同図X、Y方向の平面座標を決定するための基準点を示すマーク18A、18B、18C、18Dが設置される。これらのマーク18A、18B、18C、18Dは互いの位置関係が明確に設定され、後述するように、測定面における計測対象物10の輪郭形状の平面座標を検出する際の基準となる。また、このマーク18A、18B、18C、18Dの位置を検出することにより画面の歪みを補正する。
【0011】
一方、上記測定台12のZ方向の前方には、高解像度デジタルカメラを測定対象物10に正対して、従来の図6と同様に測定対象物の正面に据え付けられたカメラ20を主位置とし(以下、メインカメラ位置20Aとする)、スリット画像の連続撮影前に一定間隔で横方向にスライド(移動)可能に設置されている(以下、補助カメラ位置20Bとする)。カメラ20により前記ライン画像の連続撮影開始前に、このカメラ20が横方向の補助カメラ位置にある場合に(第3の撮像手段に相当)測定台12の撮影開始位置に置かれた計測対象物10を撮影して投影画像を取得すると共に長さや座標系の基準となるマーク18A、18B、18C、18Dを撮影する試験撮影を実施する。また、カメラ20を前記主位置に戻して、前記測定台14の撮影開始位置に置かれた計測対象物10を撮影して中心投影画像を取得すると共に長さや座標系の基準となるマーク18A、18B、18C、18Dを撮影する試験撮影を実施する。
このカメラ20は、中心投影画像および投影画像及びマーク18A、18B、18C、18Dの撮影時(試験撮影時)には、計測対象物10が全体的に影やハイライトの生じないようにライティングがされ、全体にピントが合うように絞り込むことが好ましい。
【0012】
また、前記カメラ20は、ライン画像の連続撮影時には、上記測定面の位置にピントが合うようにピント調整され、測定面に垂直な方向から計測対象物10及びマーク18A、18B、18C、18Dを撮影する。これにより、計測対象物10で反射したスリット光は、CCDカメラ20においてその反射位置に対応する画素によって受光される。従って、カメラ20によって得られる画像から、測定面における測定対象物10の断面の輪郭形状を検出することができる。
なお、実施形態では、デジタルカメラは、1台を用いて、正面位置(メインカメラ位置20A)および横方向位置(補助カメラ位置20B)で投影画像を撮影し、かつ、正面位置でライン画像を撮影したが、デジタルカメラを2台備えて、正面位置と補助位置で夫々撮影することができる。また、さらに投影画像取得のカメラとは別にライン画像の撮影用のカメラを設けても良い。また、図6の従来技術では、画像入力手段としてCCDカメラを挙げているが、デジタル画像を入手可能な撮像手段であればデジタルカメラやビデオカメラなどの種々の手段を用いることができ、特に機器の種別を限定するものではない。
【0013】
上記カメラ20によって撮像された画像は、デジタルの画像信号(以下、画像データと称す。)として、パソコン24に入力される。パソコン24は、計測対象物10の試験撮影時にカメラ20の位置をメインカメラ位置20Aと補助カメラ位置20Bに一定間隔に移動支持を出力して、かつカメラ20にシャッタ制御信号を出力して各位置で投影画像を撮影する。また、計測対象物10の外観形状を計測する際に、上述したように駆動信号を上記測定台12の駆動装置に出力して測定台12を移動させるとともに、測定台12の基準位置からの移動量を検出し、例えば計測対象物10を後方から前方に撮影範囲(測定範囲)内で所定間隔ずつ移動させる。また、測定台12を所定間隔移動させる毎に上記カメラ20から送られるデジタル画像データを入力する。尚、測定台12の移動間隔は、例えば、上記光源14、16から出射されるスリット光の幅とする。
【0014】
これにより、Z方向の所定間隔毎に計測対象物10の輪郭形状を示す画像データが得られる。尚、以下においてZ方向の所定間隔毎に得られる計測対象物10の画像を断面画像と称する。パソコン24は、これらの断面画像の画像データに基づいて各断面における計測対象物10の表面のX、Yの平面座標を得るとともに、その画像データを取得した時の測定台12の位置(基準位置からの移動量)に基づいてZ方向の座標を得る。これにより各断面における計測対象物10の表面の3次元座標を得ることができ、これによって得られた各断面における計測対象物10の表面の3次元座標をまとめて計測対象物10の表面全体(撮影範囲)の各点の3次元座標を検出することができる。
【0015】
また、パソコン24は、上記3次元座標を検出すると同時に断面画像の画像データに光量調整等のデータ処理を施し、各断面画像の画像データを合成することにより、計測対象物10の外観画像の画像データを生成する。これにより生成された画像データは、D/Aコンバータを介してTVモニタ等に出力され、外観画像がTVモニタの画面に表示可能になる。
【0016】
次に、上記非接触式立体形状計測装置による形状計測手順について図2のフローチャートを用いて説明する。まず、計測対象物10の試験撮影を行う(ステップS10)。この試験撮影においては、連続撮影時の撮影開始位置に測定対象物10を置き、測定対象物10の正面に据え付けられたカメラ20を主位置にして測定対象を撮像し(メインカメラ)、カメラ20を横方向に一定距離スライド(移動)して(補助カメラ)撮像する。いずれの場合も、マーク18A〜18Dを撮影する。
【0017】
そして、測定台12を計測対象物10を撮影開始点から移動させ(ステップS14)、その撮影開始位置から所定間隔の移動毎に計測対象物の断面画像をカメラ20によって撮影する(ステップS16)。上記パソコン24は、カメラ20から撮影した所定間隔の移動毎の断面画像の画像データを入力し、まず、入力した画像データから基準点のマーク18A、18B、18C、18Dを検出する。そして、これらのマーク18A、18B、18C、18Dの位置関係からCCDカメラ20の撮影光学系の歪みを検出し、画像データを処理して画像の歪みを修正する(ステップS18)。この修正により、計測精度を向上させる。また、撮影画像が基準の明るさより暗く撮影されており、部分的に画像の欠落が起きているようであればこの部分についてのみ、明るさ(輝度値)を基準値程度まで嵩上げすることができる。
【0018】
以上の画像データの修正処理を行った後に、断面画像の画像データからその断面における計測対象物10の輪郭形状の平面座標を算出する(ステップS20)。即ち、断面画像の画像データにおいて所定輝度よりも明るい画素の点を検出し、その画素の点と対応する測定面上の座標を算出する。また、測定台12の撮影開始点から移動量を検出し、この移動量に基づいて計測対象物10に固定された座標系における断面画像のZ方向(奥行き方向)の座標を上記平面座標に付加する(ステップS22)。これにより、前記測定面上の座標とZ方向の座標に基き、画像を撮影した断面における計測対象物10の輪郭形状の3次元座標を得ることができる。なお前記のように撮影画像が暗く撮影された対策として、明るさの嵩上げをすることができる。
【0019】
次に、撮影した断面画像を合成する(ステップS24)。即ち、初期値を黒一色とする基本画像と撮影した断面画像の各画素の間で明るさ(輝度値)の比較を行い、明るい画素の輝度値を基準画像に配置する。これにより、計測対象物10の各断層画像から計測対象物10の外観画像(正面画像)を合成することができる。尚、断面画像の合成は、初期値を黒一色とする基本画像を設定し、撮影画像を取得する。この処理は前記図2のステップS16の断面画像取得処理に対応する。そして、撮影画像を取得した後に、上記基本画像と撮影断面画像の各画素間で明るさ(輝度値)の比較を行ない、基本画像より明るい画素の輝度値を基本画像に配置する。これにより、各断面画像から計測対象物10の外観画像(正面画像)を合成することができる。
【0020】
以上の処理が終了した後、測定台12が撮影終了位置か否かを判定する(ステップS25)。NOの場合には、測定台12をスリット光の幅分だけ前方に移動させ(ステップS26)、上記ステップS16からS25の処理を繰り返し実行する。一方、YESの場合には、撮影(測定)を終了し(ステップS27)、上記ステップS10によって作成した計測対象物10のメインカメラと補助カメラの投影画像と、上記ステップS22、ステップS24によって算出した各断面の輪郭形状、即ち、計測対象物10の表面の3次元座標(即ち、計測対象物10の表面の3次元座標、立体形状データ)をパソコン24の外部記録媒体に一時記録する(ステップS28)。
【0021】
次いで、前記合成した立体の外観画像(正射投影画像)と前記カメラの位置、姿勢情報などの撮影情報によって、メインカメラ位置で撮影したのと同じ内容の画像(擬似中心投影画像)を作成する(ステップS30)。そして、連続撮影開始前にステップS10の試験撮影においてメインカメラで撮影した中心投影画像をと比較して補間すべきデータ欠落部の判定を行なう(ステップS32)。図4に欠落部判定過程を示すように、擬似中心投影画像には、光量不足によりデータの欠落した部分があり、この擬似中心投影画像を試験撮影した中心投影画像と比較することにより、画像処理により輝度値の差分量をとることにより容易にデータ欠落部を判定できる。
次いで、補間すべき部位についてメインカメラ位置と補助カメラ位置で撮影した2枚の画像と各カメラの位置、姿勢情報などを用いて立体形状(3次元位置情報)を算出し、記録する。この作業は補間すべき部位全てに対して行なう。このように算出された立体形状に基き、前記断面形状を合成した3次元形状を補間する(ステップS34)。この場合には、後に説明するように、中心投影座標の色情報を擬似中心投影座標の色情報として与える。補間後の外観記録画像と立体形状の記録をする(ステップS36)。
【0022】
ステップS28〜S36の補間作業について詳細に説明する。
まず、外観記録画像と立体形状の一時保持をする(ステップS40)。次いで、立体形状情報とカメラ情報(カメラの姿勢、位置などの情報)を用いて擬似中心投影画像を作成をする(ステップS42)。メインカメラ位置での試験撮影画像(中心投影画像)と擬似中心投影画像の比較をする(ステップS44)。これらの中心投影画像と擬似中心投影画像同士の色情報を比較して色に差異がある部分(データ欠落部)を判定をする(ステップS46)。
判定の結果、データ欠落部があったならば(ステップS48:YES)、欠落部の特定をする(ステップS50)。次いで、データ欠落部位のみを前記試験撮影で撮影した2枚の試験画像から立体形状を算出する(ステップS52)。特定された部位全てに、前記算出された立体形状により埋め込み処理(補間処理)をする(ステップS54)。この場合の補間処理は、種々の技術を用いることができ、その詳細は省略するが、補間処理の公知例としては、例えば「著者:穴井哲治、近津博文、論文名:『遺物のモデリングとバーチャル博物館への応用』、掲載文献:社団法人日本写真測量学会発行『写真測量とリモートセンシング、vol.37、No.5、47〜53ページ』、1998年発行」がある。
次いで、補間された立体形状から擬似中心投影画像を再作成する(ステップS56)。そして、中心投影画像の色情報を擬似中心投影画像に転記する(ステップS58)。次いで、色情報の転記された擬似中心投影画像から外観画像を作成する(ステップS60)。作成された外観画像と立体形状の記録をする(ステップ62)。
【0023】
上記の補間作業は、補完すべき部位全てに対して実施する。さらに補間作業終了後に中心投影画像の色情報を擬似中心投影の色情報として複写することで、擬似中心投影画像を構成している立体形状データに色情報を与えることが可能となり、結果として詳細な色情報を持つ立体形状データを外観画像を作成することができる。図5は、図4の計測対象物10の擬似中心投影画像と中心投影画像を処理した外観画像(正射投影画像)を示すものである。
【0024】
【発明の効果】
以上説明したとおり、本発明によれば、非接触式形状計測において、光量不足によるデータの欠落が無く、また、詳細な色情報の記録を行なうことができる。
即ち、本発明の非接触式形状計測装置によれば、立体形状を基に作成した擬似中心投影画像と中心投影画像を比較することにより欠落部分を検索し、当該部分のデータを補間することで、光量不足に起因するデータの部分欠落が解消できる。これにより、従来装置のデータ欠落が解消できる。また、補間作業で用いられる複数舞の画像から全ての立体画像を算出する方法に比較して、作業時間が短縮されるという効果を奏する。
また、中心投影画像を用いることで、レーザで照明される画像を用いて従来の計測結果に比べて構細密な色情報を取得可能になる。
【図面の簡単な説明】
【図1】本発明に係る非接触式立体形状計測装置の一実施形態を示した構成説明図である。
【図2】図1の非接触式立体形状計測装置による形状計測手順を説明するフローチャートである。
【図3】図2の形状計測手順における補間作業の手順を説明するフローチャートである。
【図4】実施形態に係る非接触式立体形状計測装置によるデータ欠落判別用画像の説明図であり、(a)は擬似中心投影画像の例の説明図、(b)は中心投影画像の例の説明図である。
【図5】同じく、実施形体の非接触式立体形状計測装置で作成した外観画像データの例の説明図である。
【図6】従来の立体形状計測装置の例の説明図である。
【図7】光量不足によるデータ欠落の発生状況説明図である。
【図8】データ欠落を含む外観画像の例の説明図である。
【符号の説明】
10 計測対象物
12 測定台
14、16 スリット光の光源
18A、18B、18C、18D マーク
20 カメラ
20A メインカメラ位置
20B 補助カメラ位置
24 パーソナルコンピュータ(パソコン)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a measuring device using a high-resolution image, and more particularly to an interpolation method (data processing method) for a data missing portion of a non-contact type measuring device, acquisition of high-resolution image information, and improvement of a measuring device for realizing the method. .
[0002]
[Prior art]
The object to be measured (measurement object) is irradiated with slit light from a slit light source, and the projected slit image of the object to be measured is imaged at a predetermined angle or at an equal pitch by an imaging means, and the three-dimensional image of the object to be measured is obtained. Various techniques for measuring the shape have been proposed (see JP-A-3-138507, JP-A-5-203423, and JP-A-9-102913).
[0003]
As this type of non-contact type three-dimensional shape measuring apparatus, an apparatus using a line laser, a uniaxial moving table, and a CCD camera has already been proposed (see Japanese Patent Application Laid-Open No. 11-183125). As shown in FIG. 6, in this three-dimensional shape measuring apparatus, the light surface (light surface) is constituted by the XY plane by the slit light beams b1 and b2 emitted from the left and right laser light sources a1 and a2. Then, the measurement object d placed on the uniaxial moving table c is passed through the light surface in the Z direction, and the image of the line image of the portion of the measurement object d that hits the slit light is displayed on the front surface of the measurement object d ( The image is captured by a CCD camera e provided on the front side in the Z direction). Note that the captured image data is an analog signal, which is converted into a digital signal via the analog / digital conversion converter f and input to the computer g, converted into an analog signal by the digital / analog conversion converter h, and processed on the television monitor. Is displayed.
An image obtained when the measurement object d passes through the light surface acquires cross-section information (hereinafter, referred to as a “cross-section image”) of the measurement object d as a line image representing a partial outer shape of the measurement object d. However, the three-dimensional shape is measured by calculating the plane coordinates of the cross-sectional portion from the cross-sectional image and adding the movement amount of the uniaxial moving table c as depth information.
In addition, by superimposing each section information and expressing a bright color with priority, creation of an orthographic projection image (hereinafter, referred to as “appearance image”) is realized.
[0004]
[Problems to be solved by the invention]
However, in the invention described in the above publication, only the portion that has passed through the surface of the light constituted by the slit light is converted into data. Therefore, in the state shown in FIG. Also, there is a disadvantage that the slit light does not reach the leading end portion j2 and data is lost due to insufficient light quantity. FIG. 8 shows an example of data loss due to insufficient light quantity. In order to remedy this drawback, a color adjustment (luminance value correction) method by image processing of the portion is proposed by the technique described in the above-mentioned publication. However, the above technique cannot solve the drawbacks such as the fact that data itself is not created due to insufficient light quantity.
[0005]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and eliminates the problem of data loss due to insufficient light quantity, and can record detailed color information. The purpose is to provide.
[0006]
[Means for Solving the Problems]
The present invention captures an image of a measurement target irradiated with slit light, and captures, as a line image, line light that appears in a line on the surface of the measurement target by the slit light, and the measurement target object Calculates the plane coordinates of each line image on the measurement surface of the object to be measured based on each line image obtained by the first imaging unit each time the object moves relative to the first imaging unit at a predetermined interval. A three-dimensional data calculating unit that calculates three-dimensional data of the surface of the measurement target based on each movement position of the measurement target detected by the position detection unit and the plane coordinates calculated for each line image; A second imaging means for photographing the object to be measured from its front position to obtain a central projection image, and photographing the object to be measured at a lateral position at a certain interval from the front of the object to be measured A third imaging means for obtaining a center projection image by the second imaging means based on the calculated three-dimensional data of the measurement object and shooting information such as the position and orientation of the first imaging means. Means for creating a pseudo center projected image similar to the acquired center projected image, and comparing the pseudo center projected image with the center projected image to determine a portion where the data of the pseudo center projected image is missing and should be interpolated Based on the center projection image obtained by the second imaging unit, the center projection image captured by the third imaging unit, and shooting information (for example, imaging unit information) such as the position and orientation of each imaging unit. A non-contact type shape measuring apparatus comprising: a calculating means for calculating a three-dimensional shape of a part to be interpolated and interpolating the part.
According to the present invention, a pseudo center projection image is created based on three-dimensional data of a measurement target and shooting information such as the position and orientation of the first imaging unit. In this pseudo center projected image, as shown in FIG. 7, since the data is missing in the convex portion or the concave portion where the slit light does not hit, in order to identify the missing portion, the pseudo center projected image and the central projected image are used. To determine the data missing portion. Then, based on the center projection image acquired by the second imaging unit, the center projection image photographed by the third imaging unit, and imaging information such as the position and orientation of each imaging unit, the three-dimensional shape of the part to be interpolated is determined. By calculating and interpolating the relevant part, it is possible to obtain three-dimensional data (three-dimensional position data) in perfect form, that is, three-dimensional shape data.
In the present invention, the three-dimensional shape data that projects the pseudo center projection image is used by using the color information of the center projection image acquired by the second imaging means as the color information of the pseudo center projection image for which interpolation has been completed. It is preferable to provide a means for giving the central projection color information to the image data. In this way, it is possible to give the center projection color information to the three-dimensional shape data constituting the pseudo center projection image, and as a result, to create three-dimensional shape data having detailed color information and an appearance image Can be.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of a non-contact type three-dimensional shape measuring apparatus according to the present invention will be described with reference to the drawings.
FIG. 1 is a configuration explanatory view showing one embodiment of a non-contact type three-dimensional shape measuring apparatus according to the present invention. As shown in FIG. 1, the measurement target is placed on the measurement table 12. In FIG. 1, a measurement object 10 is an archeological object excavated such as a Jomon pottery, but the measurement object 10 is not limited to an archeological excavation item, but may be another article.
[0008]
The measurement table 12 on which the measurement object 10 is placed is provided so as to be movable in one axis direction (Z direction) by a driving mechanism (not shown). This drive mechanism receives a drive signal from a personal computer (hereinafter abbreviated as “PC”) 24 described later and moves the measuring table 12 back and forth in the Z direction. Therefore, the measurement object 10 on the measurement table 12 moves in the Z direction along with the movement of the measurement table 12 by the drive signal from the personal computer 24.
[0009]
Light sources 14 and 16 are arranged symmetrically on both sides of the measuring table 12. The light sources 14 and 16 are planar in a plane represented by (X, Y) coordinates that intersect perpendicularly with the Z direction, which is the moving direction of the measurement table 12 (hereinafter, this plane is referred to as a measurement plane). The illumination light that spreads out. The light sources 14 and 16 can emit illumination light such as laser light from a point light source through a slit, for example. Depending on the shape of the measurement target, it is also possible to install a light source at a position other than a symmetric position such as the upper direction.
As a result, the illumination light is applied linearly to the surface of the measurement object 10 from both sides in the measurement plane (hereinafter, this illumination light is referred to as slit light). The portion illuminated by the slit light shows the contour shape (line image) of the cross section when the measurement object 10 is cut at the measurement surface.
[0010]
At the time of acquiring the line image, the light other than the slit light emitted from the light sources 14 and 16 is shielded around the measuring device, so that the light other than the surface of the measurement target 10 to which the slit light is irradiated is irradiated. Is not irradiated with light. Marks 18A, 18B, 18C and 18D indicating reference points for determining plane coordinates in the X and Y directions in FIG. These marks 18A, 18B, 18C, and 18D have a clear positional relationship with each other, and serve as a reference when detecting the plane coordinates of the contour shape of the measurement object 10 on the measurement surface, as described later. Also, the screen distortion is corrected by detecting the positions of the marks 18A, 18B, 18C, 18D.
[0011]
On the other hand, in front of the measurement table 12 in the Z direction, a high-resolution digital camera is directly opposed to the measurement object 10, and the camera 20 installed in front of the measurement object as in the conventional FIG. (Hereinafter, referred to as a main camera position 20A), and slidably (movable) in a horizontal direction at regular intervals before continuous shooting of a slit image (hereinafter, referred to as an auxiliary camera position 20B). Before the continuous photographing of the line image by the camera 20, when the camera 20 is at the auxiliary camera position in the lateral direction (corresponding to a third imaging means), the measurement target placed at the photographing start position of the measuring table 12 A test photographing is performed to photograph the images 10 and obtain marks 18A, 18B, 18C, and 18D, which serve as references for the length and the coordinate system, to acquire a projection image. Further, the camera 20 is returned to the main position, and the measurement object 10 placed at the photographing start position of the measuring table 14 is photographed to obtain a central projection image, and a mark 18A serving as a reference for the length and the coordinate system, Test photography for photographing 18B, 18C, and 18D is performed.
When the center projection image, the projection image, and the marks 18A, 18B, 18C, and 18D are photographed (at the time of test photographing), the camera 20 performs lighting so that the measurement object 10 does not generate shadows or highlights as a whole. It is preferable to narrow down the focus so that the entirety is in focus.
[0012]
Further, during continuous shooting of line images, the camera 20 adjusts the focus so that the position of the measurement surface is in focus, and moves the measurement target 10 and the marks 18A, 18B, 18C, and 18D from a direction perpendicular to the measurement surface. Shoot. Thus, the slit light reflected by the measurement target 10 is received by the pixel corresponding to the reflection position in the CCD camera 20. Therefore, the contour shape of the cross section of the measurement object 10 on the measurement surface can be detected from the image obtained by the camera 20.
In the embodiment, one digital camera uses a single camera to capture a projection image at a front position (main camera position 20A) and a lateral position (auxiliary camera position 20B) and a line image at a front position. However, two digital cameras can be provided to shoot at the front position and the auxiliary position, respectively. Further, a camera for taking a line image may be provided separately from the camera for acquiring the projection image. Further, in the prior art shown in FIG. 6, a CCD camera is mentioned as an image input means, but various means such as a digital camera and a video camera can be used as long as the image pickup means can obtain a digital image. Is not limited.
[0013]
The image captured by the camera 20 is input to the personal computer 24 as a digital image signal (hereinafter, referred to as image data). The personal computer 24 outputs support for moving the position of the camera 20 at regular intervals between the main camera position 20A and the auxiliary camera position 20B at the time of test photographing of the measurement object 10, and outputs a shutter control signal to the camera 20 for each position. To shoot a projected image. In addition, when measuring the external shape of the measurement object 10, the driving signal is output to the driving device of the measurement table 12 to move the measurement table 12 as described above, and the measurement table 12 is moved from the reference position. The amount is detected, and, for example, the measurement object 10 is moved from the rear to the front by a predetermined interval within a photographing range (measurement range). Further, digital image data sent from the camera 20 is input each time the measuring table 12 is moved at a predetermined interval. The moving interval of the measuring table 12 is, for example, the width of the slit light emitted from the light sources 14 and 16.
[0014]
As a result, image data indicating the contour shape of the measurement object 10 is obtained at predetermined intervals in the Z direction. In the following, images of the measurement object 10 obtained at predetermined intervals in the Z direction are referred to as cross-sectional images. The personal computer 24 obtains the X and Y plane coordinates of the surface of the measurement object 10 in each cross section based on the image data of these cross section images, and the position (reference position) of the measurement table 12 when the image data is obtained. ), The coordinates in the Z direction are obtained based on the amount of movement from the. As a result, the three-dimensional coordinates of the surface of the measurement target 10 in each cross section can be obtained, and the three-dimensional coordinates of the surface of the measurement target 10 in each cross section obtained in this manner are collectively collected. It is possible to detect the three-dimensional coordinates of each point in the (photographing range).
[0015]
The personal computer 24 performs data processing such as light amount adjustment on the image data of the cross-sectional image at the same time as detecting the three-dimensional coordinates, and synthesizes the image data of each cross-sectional image, thereby forming an image of the appearance image of the measurement object 10. Generate data. The image data thus generated is output to a TV monitor or the like via a D / A converter, and an appearance image can be displayed on the screen of the TV monitor.
[0016]
Next, a shape measuring procedure by the non-contact type three-dimensional shape measuring device will be described with reference to a flowchart of FIG. First, test photography of the measurement object 10 is performed (step S10). In this test photographing, the measuring object 10 is placed at the photographing start position during continuous photographing, and the camera 20 installed in front of the measuring object 10 is used as a main position to image the measuring object (main camera). Is slid (moved) in the horizontal direction by a certain distance (auxiliary camera) to capture an image. In each case, the marks 18A to 18D are photographed.
[0017]
Then, the measuring table 12 is moved from the photographing start point of the measuring object 12 (step S14), and a cross-sectional image of the measuring object is photographed by the camera 20 at every predetermined interval from the photographing start position (step S16). The personal computer 24 inputs image data of a cross-sectional image photographed by the camera 20 for each movement at a predetermined interval, and first detects reference point marks 18A, 18B, 18C, 18D from the input image data. Then, the distortion of the photographing optical system of the CCD camera 20 is detected from the positional relationship between the marks 18A, 18B, 18C, 18D, and the image data is processed to correct the image distortion (step S18). This correction improves the measurement accuracy. In addition, if the captured image is captured darker than the reference brightness and the image is partially missing, the brightness (brightness value) of only this portion can be raised to the reference value. .
[0018]
After performing the above-described image data correction processing, the plane coordinates of the contour shape of the measurement target 10 in the cross section are calculated from the image data of the cross section image (step S20). That is, a point of a pixel brighter than a predetermined luminance is detected in the image data of the cross-sectional image, and coordinates on the measurement surface corresponding to the pixel point are calculated. Further, the movement amount is detected from the photographing start point of the measuring table 12, and the coordinates in the Z direction (depth direction) of the cross-sectional image in the coordinate system fixed to the measurement target 10 are added to the plane coordinates based on the movement amount. (Step S22). Thereby, based on the coordinates on the measurement surface and the coordinates in the Z direction, it is possible to obtain three-dimensional coordinates of the contour shape of the measurement target 10 in the cross section where the image is captured. As described above, the brightness can be increased as a countermeasure against the shot image being shot dark.
[0019]
Next, the photographed cross-sectional images are combined (step S24). That is, the brightness (brightness value) is compared between each pixel of the photographed cross-sectional image and the basic image whose initial value is solid black, and the brightness value of the bright pixel is arranged in the reference image. Thereby, the appearance image (front image) of the measurement object 10 can be synthesized from each tomographic image of the measurement object 10. Note that, in synthesizing the cross-sectional images, a basic image whose initial value is solid black is set, and a captured image is obtained. This processing corresponds to the cross-sectional image acquisition processing in step S16 in FIG. Then, after obtaining the captured image, the brightness (luminance value) of each pixel of the basic image and the captured cross-sectional image is compared, and the luminance value of a pixel brighter than the basic image is arranged in the basic image. Thereby, the appearance image (front image) of the measurement object 10 can be synthesized from each cross-sectional image.
[0020]
After the above processing is completed, it is determined whether or not the measurement table 12 is at the photographing end position (step S25). In the case of NO, the measurement table 12 is moved forward by the width of the slit light (step S26), and the processes of steps S16 to S25 are repeatedly executed. On the other hand, in the case of YES, the photographing (measurement) is terminated (step S27), and the projection images of the main camera and the auxiliary camera of the measurement object 10 created in step S10 and calculated in steps S22 and S24. The contour shape of each section, that is, the three-dimensional coordinates of the surface of the measurement object 10 (that is, the three-dimensional coordinates of the surface of the measurement object 10, three-dimensional shape data) is temporarily recorded on an external recording medium of the personal computer 24 (step S28). ).
[0021]
Next, an image (pseudo-center projection image) having the same content as that taken at the main camera position is created based on the synthesized three-dimensional appearance image (orthographic projection image) and shooting information such as the position and orientation information of the camera. (Step S30). Then, before the start of the continuous photographing, the central projection image photographed by the main camera in the test photographing in step S10 is compared with the data missing portion to be interpolated (step S32). As shown in the missing part determination process in FIG. 4, the pseudo center projected image has a portion where data is missing due to insufficient light quantity, and the pseudo center projected image is compared with the center projected image taken by the test to perform image processing. The data missing part can be easily determined by calculating the difference between the luminance values.
Next, for a part to be interpolated, a three-dimensional shape (three-dimensional position information) is calculated and recorded using two images taken at the main camera position and the auxiliary camera position and the position and orientation information of each camera. This operation is performed for all the parts to be interpolated. Based on the three-dimensional shape calculated in this way, a three-dimensional shape obtained by synthesizing the cross-sectional shape is interpolated (step S34). In this case, as described later, the color information of the center projected coordinates is given as the color information of the pseudo center projected coordinates. The appearance recording image after interpolation and the three-dimensional shape are recorded (step S36).
[0022]
The interpolation work of steps S28 to S36 will be described in detail.
First, the appearance recording image and the three-dimensional shape are temporarily stored (step S40). Next, a pseudo center projected image is created using the three-dimensional shape information and camera information (information such as the posture and position of the camera) (step S42). The test photographed image (center projected image) at the main camera position is compared with the pseudo center projected image (step S44). By comparing the color information between the center projected image and the pseudo center projected image, a portion having a difference in color (data missing portion) is determined (step S46).
As a result of the determination, if there is a data missing portion (step S48: YES), the missing portion is specified (step S50). Next, a three-dimensional shape is calculated from two test images obtained by shooting only the data missing part in the test shooting (step S52). An embedding process (interpolation process) is performed on all of the specified parts based on the calculated three-dimensional shape (step S54). Various techniques can be used for the interpolation process in this case, and details thereof will be omitted. Examples of known interpolation processes include, for example, “Authors: Tetsuharu Anai, Hirofumi Chinzu, Article Name:“ Modeling and Virtual Application to Museums ”, published literature: Photographic Survey and Remote Sensing, Vol. 37, No. 5, pp. 47-53, published by the Photographic Society of Japan, published in 1998”.
Next, a pseudo center projected image is re-created from the interpolated three-dimensional shape (step S56). Then, the color information of the center projected image is transferred to the pseudo center projected image (step S58). Next, an appearance image is created from the pseudo center projected image to which the color information has been transcribed (step S60). The created appearance image and three-dimensional shape are recorded (step 62).
[0023]
The above-mentioned interpolation work is performed for all the parts to be complemented. Further, by copying the color information of the center projected image as the color information of the pseudo center projected image after the completion of the interpolation work, it becomes possible to give color information to the three-dimensional shape data constituting the pseudo center projected image, and as a result, detailed An appearance image can be created from three-dimensional shape data having color information. FIG. 5 shows a pseudo-center projected image of the measurement target object 10 in FIG. 4 and an appearance image (orthographic projected image) obtained by processing the center projected image.
[0024]
【The invention's effect】
As described above, according to the present invention, in non-contact type shape measurement, there is no data loss due to insufficient light quantity, and detailed color information can be recorded.
That is, according to the non-contact type shape measuring device of the present invention, the missing portion is searched by comparing the pseudo center projected image created based on the three-dimensional shape with the center projected image, and the data of the portion is interpolated. In addition, partial omission of data due to insufficient light quantity can be eliminated. Thereby, the data loss of the conventional device can be eliminated. Further, there is an effect that the operation time is reduced as compared with the method of calculating all three-dimensional images from a plurality of images used in the interpolation operation.
In addition, by using the center projection image, it is possible to acquire more detailed color information as compared with a conventional measurement result using an image illuminated by a laser.
[Brief description of the drawings]
FIG. 1 is a configuration explanatory view showing one embodiment of a non-contact type three-dimensional shape measuring apparatus according to the present invention.
FIG. 2 is a flowchart illustrating a shape measurement procedure performed by the non-contact type three-dimensional shape measurement device in FIG. 1;
FIG. 3 is a flowchart illustrating a procedure of an interpolation operation in the shape measurement procedure of FIG. 2;
FIGS. 4A and 4B are explanatory diagrams of an image for data missing determination by the non-contact type three-dimensional shape measuring apparatus according to the embodiment, wherein FIG. 4A is an explanatory diagram of an example of a pseudo center projected image, and FIG. FIG.
FIG. 5 is an explanatory diagram of an example of appearance image data created by the non-contact type three-dimensional shape measuring apparatus of the embodiment.
FIG. 6 is an explanatory diagram of an example of a conventional three-dimensional shape measuring apparatus.
FIG. 7 is an explanatory diagram of a situation of occurrence of data loss due to insufficient light quantity.
FIG. 8 is an explanatory diagram of an example of an appearance image including missing data.
[Explanation of symbols]
10 Measurement object 12 Measurement table 14, 16 Slit light source 18A, 18B, 18C, 18D Mark 20 Camera 20A Main camera position 20B Auxiliary camera position 24 Personal computer (PC)

Claims (2)

スリット光の照射された計測対象物を撮像し、前記スリット光によって前記計測対象物の表面にライン状に現れるライン光をライン画像として取り込む第1の撮像手段と、
前記計測対象物が第1の撮像手段に対して所定間隔相対移動する毎に前記第1の撮像手段で得た各ライン画像に基いて前記計測対象物の測定面上における各ライン画像毎の平面座標を算出し、前記位置検出手段により検出した前記計測対象物の各移動位置及び各ライン画像ごとに算出した前記平面座標に基いて、前記計測対象物の表面の3次元データを算出する3次元データ算出手段とを有し、
前記計測対象物をその正面位置から撮影して中心投影画像を取得する第2の撮像手段と、
前記計測対象物の正面から一定間隔を置いた横方向位置で計測対象物を撮影して中心投影画像を取得する第3の撮像手段と、
前記算出された計測対象物の3次元データと前記第1の撮像手段の位置および姿勢などの撮影情報に基き、前記第2の撮像手段で取得した中心投影画像と同様の擬似中心投影画像を作成する手段と、
前記擬似中心投影画像を前記中心投影画像を比較して前記擬似中心投影画像のデータが欠落し補間すべき部位を判定するための手段と、
前記第2の撮像手段により取得した中心投影画像および前記第3の撮像手段で撮影した中心投影画像および各撮像手段の位置および姿勢などの撮影情報に基き、補間すべき部位の立体形状を算出しかつ当該部位を補間する演算手段とを有することを特徴とする非接触式形状計測装置。
A first imaging unit that captures an image of the measurement target irradiated with the slit light, and captures line light that appears in a line shape on the surface of the measurement target by the slit light as a line image;
A plane for each line image on the measurement surface of the measurement object based on each line image obtained by the first imaging means each time the measurement object relatively moves by a predetermined distance with respect to the first imaging means. Three-dimensional calculating a coordinate, and calculating three-dimensional data of the surface of the measurement object based on each movement position of the measurement object detected by the position detection means and the plane coordinates calculated for each line image; Data calculation means,
A second imaging unit configured to capture the measurement target from its front position and obtain a center projection image;
A third imaging unit that captures the measurement target at a lateral position at a fixed interval from the front of the measurement target to obtain a center projection image,
A pseudo center projected image similar to the center projected image acquired by the second imaging unit is created based on the calculated three-dimensional data of the measurement target and imaging information such as the position and orientation of the first imaging unit. Means to
Means for comparing the simulated center projected image with the center projected image to determine a portion where data of the simulated center projected image is missing and should be interpolated;
The three-dimensional shape of the part to be interpolated is calculated based on the center projection image acquired by the second imaging unit, the center projection image photographed by the third imaging unit, and photographing information such as the position and orientation of each imaging unit. And a calculation means for interpolating the part.
第2の撮像手段で取得した中心投影画像の色情報を補間の終了した擬似中心投影画像の色情報として用いて、擬似中心投影画像を投影している3次元形状データに中心投影の色情報を与える手段を備えることを特徴とする請求項1に記載の非接触式形状計測装置。The color information of the center projection image acquired by the second imaging unit is used as the color information of the pseudo center projection image for which interpolation has been completed, and the center projection color information is projected on the three-dimensional shape data projecting the pseudo center projection image. The non-contact type shape measuring apparatus according to claim 1, further comprising a providing unit.
JP2002247076A 2002-08-27 2002-08-27 Non-contact type shape measuring device Expired - Fee Related JP3963219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002247076A JP3963219B2 (en) 2002-08-27 2002-08-27 Non-contact type shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002247076A JP3963219B2 (en) 2002-08-27 2002-08-27 Non-contact type shape measuring device

Publications (2)

Publication Number Publication Date
JP2004085371A true JP2004085371A (en) 2004-03-18
JP3963219B2 JP3963219B2 (en) 2007-08-22

Family

ID=32054812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002247076A Expired - Fee Related JP3963219B2 (en) 2002-08-27 2002-08-27 Non-contact type shape measuring device

Country Status (1)

Country Link
JP (1) JP3963219B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5307549B2 (en) * 2006-11-08 2013-10-02 有限会社テクノドリーム二十一 Three-dimensional shape measuring method and apparatus
CN107687807A (en) * 2016-08-03 2018-02-13 北京遥感设备研究所 A kind of non-contact two-dimensional detection means
WO2019220955A1 (en) * 2018-05-14 2019-11-21 吉野石膏株式会社 Inspection device, plate-like object manufacturing device, inspection method, and plate-like object manufacturing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5307549B2 (en) * 2006-11-08 2013-10-02 有限会社テクノドリーム二十一 Three-dimensional shape measuring method and apparatus
CN107687807A (en) * 2016-08-03 2018-02-13 北京遥感设备研究所 A kind of non-contact two-dimensional detection means
WO2019220955A1 (en) * 2018-05-14 2019-11-21 吉野石膏株式会社 Inspection device, plate-like object manufacturing device, inspection method, and plate-like object manufacturing method

Also Published As

Publication number Publication date
JP3963219B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
KR101461068B1 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP4012710B2 (en) Image input device
US20030202120A1 (en) Virtual lighting system
JP2013531237A (en) Optical measuring method and measuring system for obtaining three-dimensional coordinates on the surface of a measuring object
JP2003130621A (en) Method and system for measuring three-dimensional shape
JP2009017480A (en) Camera calibration device and program thereof
JP4764959B1 (en) Imaging apparatus and control method thereof
JP2009284188A (en) Color imaging apparatus
JP2006279546A (en) Electronic camera, image processing program, and image processing method
JP3637226B2 (en) Motion detection method, motion detection device, and recording medium
JP3507865B2 (en) Method and apparatus for real-time shape measurement by CCD camera using DMD
JP2020126590A (en) Information processing apparatus, information processing method, and program
JP2007225423A (en) Displacement measuring apparatus
JP3925266B2 (en) Three-dimensional shape input device and displacement detection method
JP2016144042A (en) Image processing apparatus, image processing method, and program
JP3963219B2 (en) Non-contact type shape measuring device
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP3377027B2 (en) Non-contact type 3D shape measuring device
JP4117771B2 (en) Orthophoto image generation method and orthophoto image generation system
JP2003338907A (en) Image input apparatus
JP2006113001A (en) Three-dimensional measuring method and device by photogrammetry
JP2020187557A (en) Temperature image display device, temperature image display system and temperature image display program
CN109565544B (en) Position designating device and position designating method
JP2009278280A (en) Image pickup device, control method for the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20050722

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070515

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 5

Free format text: PAYMENT UNTIL: 20120601

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20130601

LAPS Cancellation because of no payment of annual fees