JP2005165468A - Three-dimensional image display apparatus and method - Google Patents
Three-dimensional image display apparatus and method Download PDFInfo
- Publication number
- JP2005165468A JP2005165468A JP2003400754A JP2003400754A JP2005165468A JP 2005165468 A JP2005165468 A JP 2005165468A JP 2003400754 A JP2003400754 A JP 2003400754A JP 2003400754 A JP2003400754 A JP 2003400754A JP 2005165468 A JP2005165468 A JP 2005165468A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- model
- measurement object
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000005259 measurement Methods 0.000 claims abstract description 159
- 238000013500 data storage Methods 0.000 claims abstract description 25
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 230000000875 corresponding effect Effects 0.000 abstract 5
- 230000002596 correlated effect Effects 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 230000005484 gravity Effects 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 7
- 238000010998 test method Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、測定対象物について計測した3Dデータ(三次元形状データ)と測定対象物のステレオ画像とを相互に直接関連付けて、測定対象物の計測データと画像とを同時に表示可能とする三次元画像表示装置及び方法に関する。 This invention relates to 3D data (three-dimensional shape data) measured with respect to a measurement object and a stereo image of the measurement object, and enables the measurement data and image of the measurement object to be displayed simultaneously. The present invention relates to an image display apparatus and method.
施工対象物や製作対象物の3Dデータを取得する方法には、特許文献1に記載されているような三次元位置測定装置(トータルステーション)により取得する方式と、特許文献2に記載されているような対象物と比較校正体を用いてステレオ画像を撮影して、ステレオ計測することにより3Dデータを取得するステレオ画像計測方式がある。三次元位置測定装置を用いた方式では、得られる3D座標の精度が良いので、画像貼り付けの際の基準点位置測定に利用される。特に、近年のトータルステーションでは、モータ駆動によって比較的多数(例えば測定対象物について数十点程度)の三次元座標が得られるようになってきている。ステレオ画像計測方式では、3Dデータと画像貼り付けを行う際に標定という作業を行なうことで、測定対象物について数千点−数万点程度の三次元座標を比較的簡便に得られる。
As a method of acquiring 3D data of a construction object and a production object, a method of acquiring by a three-dimensional position measuring device (total station) as described in Patent Document 1 and
しかしながら、三次元位置測定装置により取得した3Dデータは、基本的には距離データを含む三次元座標データにて構成されている。そこで、三次元位置測定装置により取得した3Dデータと現場状況との対応づけが困難で、3Dデータを測定対象物の画像情報と紐付ける作業を行なう際に、測定対象物の何れの位置を計測したのか困難になるという課題があることが判明した。 However, the 3D data acquired by the 3D position measuring device is basically composed of 3D coordinate data including distance data. Therefore, it is difficult to associate the 3D data acquired by the three-dimensional position measurement device with the on-site situation, and any position of the measurement object is measured when performing the operation of associating the 3D data with the image information of the measurement object. It turned out that there was a problem that it would be difficult.
いっぽう、ステレオ画像計測方式では、ステレオ画像により3D計測を行うので、画像をステレオ表示することにより3Dデータとステレオ画像とを比較することができる。しかし、3Dデータとステレオ画像とを比較するために立体モニタや偏向眼鏡が必要となると共に、立体視はうまく出来る人と出来ない人がいて、誰にでも簡単に確認ができないという課題があった。また、測定対象物のステレオ計測や3Dデータとステレオ画像と紐付ける作業では、画像情報と3Dデータとの間や画像間での対応付けをして、標定作業を行なう必要がある。この標定作業は作業者による個人差が大きく、簡単に精度よくできない、という課題があった。 On the other hand, in the stereo image measurement method, since 3D measurement is performed using a stereo image, 3D data and the stereo image can be compared by displaying the image in stereo. However, in order to compare 3D data and stereo images, a stereoscopic monitor and deflection glasses are required, and there are some people who cannot and cannot easily confirm stereoscopic viewing because there are people who can and cannot do stereoscopic viewing. . Further, in the stereo measurement of the measurement object and the work of associating the 3D data with the stereo image, it is necessary to perform the orientation work by associating the image information with the 3D data or between the images. This orientation work has a problem that individual differences among workers are large and cannot be easily performed with high accuracy.
本発明は上述した課題を解決したもので、ステレオ画像から取得した3D計測データを測定対象物の立体感テクスチャ付き画像と一体化して視覚化できる三次元画像表示装置及び方法を提供することを目的とする。 The present invention solves the above-described problems, and an object of the present invention is to provide a three-dimensional image display apparatus and method that can visualize 3D measurement data acquired from a stereo image by integrating it with an image with a three-dimensional texture of a measurement object. And
上記目的を達成する本発明の三次元画像表示装置は、図1に示すように、測定対象物1のステレオ画像を記憶するステレオ画像データ記憶部12と、前記ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める標定部24と、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める三次元座標データ部31と、前記対応点の三次元座標データから測定対象物1のモデルを形成するモデル形成部32と、ステレオ画像データ記憶部12に記憶された測定対象物のステレオ画像とモデル形成部32で形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける画像対応部34と、画像対応部34により前記モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示するモデル表示部35とを備えている。
As shown in FIG. 1, the three-dimensional image display device of the present invention that achieves the above object is based on a stereo image
このような構成によると、標定部24によって、ステレオ画像データ記憶部12に記憶された測定対象物1のステレオ画像に関する相互標定を行い、ステレオ画像の対応点関係を求める。次に、三次元座標データ部31によって、標定部24で求められた対応点関係を用いて、測定対象物1の対応点の三次元座標データを求め、モデル形成部32によって測定対象物1のモデルを形成する。画像対応部34は、測定対象物のステレオ画像とモデルとを、標定部24で求められた対応点関係を用いて対応付ける。モデル表示部35は、モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する。立体感テクスチャ付き画像は、測定対象物1を二次元画像で表現しているが、影を用いて表面の凸凹を表すことで、擬似的な立体的表現を行なうものである。
According to such a configuration, the
好ましくは、本発明の三次元画像表示装置において、さらに、測定対象物1のモデルの姿勢を指示する姿勢指示部36と、前記モデルに対する姿勢指示に応じて、前記対応点の座標変換を行う座標変換部37とを有し、モデル表示部35は、姿勢指示部36で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示する構成とすると良い。姿勢指示部36で測定対象物1のモデルの姿勢を指示すると、座標変換部37により座標変換してモデル表示部35で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示するので、測定対象物1の任意方向の立体感テクスチャ付き画像が得られる。
Preferably, in the three-dimensional image display device of the present invention, a
好ましくは、本発明の三次元画像表示装置において、さらに、画像対応部34は、複数の対応点によって形成される単位画像面によって前記ステレオ画像を覆い、しかして単位画像面を用いてモデルとステレオ画像を対応付ける構成とすると良い。単位画像面によってステレオ画像を覆うことによって、測定対象物のステレオ画像とモデルとの対応付けが容易に行なえる。単位画像面には、隣接する3点の対応点を用いた三角形面や、隣接する4点の対応点を用いた矩形面が選択できる。
Preferably, in the three-dimensional image display device of the present invention, the
好ましくは、本発明の三次元画像表示装置において、さらに、標定部24で用いる対応点を指示する対応点指示部22を有し、対応点指示部22は、前記ステレオ画像を表示する表示装置に表示される測定対象物1に関して、指示位置近傍の特徴点を示すように構成されている構成とすると良い。指示位置近傍の特徴点には、例えば測定対象物1の中心位置、重心位置、コーナー位置などがある。対応点指示部22により対応点を指示すると、操作者が厳格に特徴点を指示しなくても、操作者が本来意図した特徴点に引き込まれるため、標定部による標定作業が容易に行なえる。
Preferably, the three-dimensional image display device of the present invention further includes a corresponding
上記目的を達成する本発明の三次元画像表示方法は、図2に示すように、標定部24によって測定対象物1のステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める工程(S30)と、三次元座標データ部31によって、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める工程(S40、S50)と、モデル形成部32によって、前記対応点の三次元座標データから測定対象物1のモデルを形成する工程(S60)と、画像対応部34によって、測定対象物1のステレオ画像と形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける工程(S72)と、モデル表示部35によって、前記モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する工程(S80)とをコンピュータに実行させるものである。
As shown in FIG. 2, the 3D image display method of the present invention that achieves the above object is a step of obtaining corresponding point relationships of stereo images based on the shooting position and inclination of the stereo image of the measuring object 1 by the
本発明の三次元画像表示装置によれば、画像対応部34によって測定対象物1のステレオ画像とモデル形成部32によって形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付け、モデル表示部35によって、モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する構成としているので、ステレオ計測した3Dデータに対しても、立体視用の装置を用いて立体視を行なうことなく、3Dデータと測定対象物1の画像の確認が容易に行なえる。
According to the three-dimensional image display apparatus of the present invention, the stereo image of the measurement object 1 by the image
以下図面を用いて本発明を説明する。本発明の三次元画像表示装置は、最低2枚以上の複数撮影された画像から、ステレオ画像を構成する左右2枚の画像を1単位として、測定対象物1の立体的な形状を算出すると共に、測定対象物1の全体を3D計測もしくは取得された3Dデータを用いて、測定対象物1の二次元画像に立体感を表現するテクスチャ(texture)を貼り付ける。ここで、テクスチャとはグラフィックスなどにおいて、図形の表面に付けられた模様や、質感を表わすための描き込みをいう。 The present invention will be described below with reference to the drawings. The three-dimensional image display device of the present invention calculates the three-dimensional shape of the measuring object 1 from two or more images taken at least as a unit of two left and right images constituting a stereo image. The texture (texture) that expresses the three-dimensional effect is pasted on the two-dimensional image of the measurement object 1 using the 3D data obtained by 3D measurement or the entire measurement object 1. Here, the texture refers to a pattern attached to the surface of a graphic or a drawing for expressing the texture in graphics or the like.
図1は本発明の第1の実施の形態を説明する全体構成ブロック図である。本発明は、ステレオ画像データ記憶部12、測定対象物位置データ記憶部16、対応点指示部22、標定部24、表示画像形成部30、表示装置40を備えるもので、例えばコンピュータと表示装置で構成されている。測定対象物1は、施工対象物・製作対象物となる有体物で、例えば建築物等の各種工作物や人物・風景等が該当する。画像撮影装置10は、例えばステレオカメラや汎用のデジタルカメラとこのデジタルカメラで撮影された測定対象物1の左右画像に対してレンズ収差の補償を行なう装置を組合せた機器である。三次元位置測定装置14は、測量の対象となる標点位置をレーザー等を用いて自動的に測定する機器で、トータルステーション、3次元スキャナー等が含まれる。ここで、3次元スキャナーとは、レーザ光を測定対象物1に発射し、その反射光を機械内のCCDカメラで受光し、受光した光から三角測距の原理で距離データを得て3次元データ化するもので、工業デザインや3D画像のデータベース化、映像制作における3次元CGなど、様々な用途で使われている。測定対象物1にレーザ光を上から下へ走査することにより、1回のスキャンで、照射画像全体で例えば640x480点の距離画像を入力することができる。
FIG. 1 is a block diagram showing the overall configuration of a first embodiment of the present invention. The present invention includes a stereo image
ステレオ画像データ記憶部12は、測定対象物1のステレオ画像を記憶するもので、例えば画像撮影装置10で撮影された測定対象物1の左右画像を記憶する。測定対象物位置データ記憶部16は、絶対標定に必要とされる3点の基準点となる測定対象物1の位置データを記憶するもので、例えば三次元位置測定装置14で測定された基準点の位置データを記憶する。なお、絶対標定を行なわないで、モデル座標系を用いた相互標定で充分な用途では、測定対象物位置データ記憶部16を設けるに及ばない。
The stereo image
対応点指示部22は、標定部24で用いる対応点を指示するもので、表示装置40に表示される測定対象物1に関して、指示位置近傍の特徴点を示すように構成されていると良い。指示位置近傍の特徴点には、例えば測定対象物1の中心位置、重心位置、コーナー位置などがある。対応点指示部22により対応点を指示すると、操作者が厳格に特徴点を指示しなくても、操作者が本来意図した特徴点に引き込まれるため、標定部24による標定作業が容易に行なえる。標定部24は、ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める。対応点指示部22と標定部24の詳細は、後で説明する。
The corresponding
また、表示画像形成部30は、三次元座標データ部31、モデル形成部32、モデル記憶部33、画像対応部34、モデル表示部35、姿勢指示部36、座標変換部37を備えている。三次元座標データ部31は、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める。モデル形成部32は、対応点の三次元座標データから測定対象物1のモデルを形成する。モデル記憶部33は、モデル形成部32で形成された測定対象物1のモデルを記憶している。画像対応部34は、ステレオ画像データ記憶部12に記憶された測定対象物のステレオ画像とモデル形成部32で形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける。モデル表示部35は、画像対応部34によりモデルと対応付けられたステレオ画像を用いて、測定対象物1を鳥瞰画像等の立体感テクスチャ付き画像を用いて、立体感のある二次元画像で表示装置40に表示する。
The display
姿勢指示部36は、測定対象物1のモデルの姿勢を指示するもので、例えば操作者がマウス等のカーソル入力装置を操作して、表示装置40に表示される測定対象物1の姿勢を指示する。座標変換部37は、モデルに対する姿勢指示に応じて、対応点の座標変換を行う。モデル表示部35は、姿勢指示部36で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示する。表示装置40は、液晶表示装置やCRT等の画像表示装置である。
The
次に、このように構成された本発明の三次元画像表示装置の動作を説明する。図2は図1に示す三次元画像表示装置の動作を説明するフローチャートである。まず、デジタルカメラ等の画像撮影装置10を用いて撮影した測定対象物1の2枚以上の画像を、ステレオ画像データ記憶部12に画像登録する(S10)。次に、ステレオ画像データ記憶部12に登録された画像のうち、ステレオペアとなる左右画像の組を設定する(S20)。ただし、ステレオ画像データ記憶部12に登録された全ての画像を、S20にてステレオペア設定しなくよい。即ち、計測したいステレオ画像や立体感テクスチャを貼りたいステレオ画像から順に、随時ステレオ画像を構成するステレオペアとして設定してもよい。
Next, the operation of the three-dimensional image display device of the present invention configured as described above will be described. FIG. 2 is a flowchart for explaining the operation of the three-dimensional image display apparatus shown in FIG. First, two or more images of the measurement object 1 photographed using the
次に、三次元位置測定装置14や3Dスキャナを用いて取得した、測定対象物1の三次元座標が存在しているか判断する(S22)。S22でYesであれば、測定対象物位置データ記憶部16に、測定対象物1の三次元座標を用いた位置データを読みこむ(S24)。S22でNoであれば、相対座標系で処理が可能なので、S24をスキップしてよい。なお、測定対象物位置データ記憶部16に対する測定対象物1の三次元座標を用いた位置データの読みこみは、S20の後に限られるものではなく、例えばS80までは相対座標系で処理を行い、S80の後で3次元座標を読み込み絶対座標系としてもよい。基準点となる三次元座標は、計測もしくは立体感テクスチャを貼りたい全ての画像領域において、最低3点以上存在していれば、絶対座標系として計算、計測することが可能となる。
Next, it is determined whether or not the three-dimensional coordinates of the measuring object 1 obtained using the three-dimensional
つぎに、標定部24によって、標定作業を行ない、ステレオ画像データ記憶部12に記憶された測定対象物1のステレオ画像の相互標定を行い、ステレオ画像の対応点関係を求める(S30)。この標定作業には、マニュアルと半自動、全自動の三つのモードがあり、詳細は後で説明する。ここで、標定作業とは、2枚以上の画像のそれぞれの対応点(同一点)を各画像上で対応点指示部22により、マウスカーソルなどで指示し、その画像座標を読み取る作業である。この対応点は通常各画像毎に6点以上必要である。また、S24にて測定対象物位置データ記憶部16に基準点座標が記憶されていれば、基準点座標と画像の対応付けして、絶対標定を実行する。
Next, the
標定作業により求めた対応点の座標を用いて、標定部24により標定計算処理を行う(S40)。標定計算処理により、撮影したカメラの位置、傾き、対応点の位置、計測精度を求めることが出来る(図3参照)。もし基準点座標があれば、測定対象物位置データ記憶部16から読み出して絶対標定計算処理も行なう。もし基準点座標がなければ、相対(モデル)座標にて計算する。標定計算処理は、ステレオモデルの対応付けに関しては相互標定で行ない、全画像間の標定に関してはバンドル調整にて行う。なお、相互標定の詳細は後で説明する。
The orientation calculation processing is performed by the
図3は標定計算処理の標定結果の一例を説明する画面図である。標定結果画面図100には、結果一覧画面102、パスポイント画面104、標定点画面106、算出座標画面108、撮影状況と地上分解能画面110が設けられている。撮影状況と地上分解能画面110には、ステレオ画像の撮影状況と地上分解能表示面120と、カメラの位置と傾き表示面130が設けられている。ステレオ画像の撮影状況と地上分解能表示面120には、ステレオペアとなる2枚の画像データを表示するペア名欄121、基線長B欄122、撮影距離H欄123、B/H比欄124、平面分解能欄125、奥行分解能欄126が設けられている。カメラの位置と傾き表示面130には、画像名欄131、画像原点の三次元座標を示すXo欄132、Yo欄133、Zo欄134、並びに画像の基準座標系からの傾斜角度を示すω欄135、φ欄136、κ欄137が設けられている。
FIG. 3 is a screen diagram illustrating an example of the orientation result of the orientation calculation process. The orientation result screen diagram 100 includes a
図2に戻り、三次元座標データ部31にてステレオ計測を行い、測定対象物1の三次元座標を求める(S50)。あるいは、ステレオ計測を行なわない場合でも、測定対象物位置データ記憶部16にステレオ画像の対応点の三次元座標を予め読み込んである場合には、三次元座標データ部31は測定対象物位置データ記憶部16から対応点の三次元座標を読み込む。ステレオ計測には、例えば本発明者の提案に掛かる特開2003−284098号公報に開示されているように、マニュアル計測、半自動計測、自動計測の各種モードが存在している。そこで、S40の標定計算処理結果に応じて、ステレオ計測では、立体視可能なステレオ(左右)画像を作成表示して、上述モードを利用して対応点の三次元座標を求める。自動計測モードで行う場合は、自動計測を行う計測領域を指定して自動計測を行う。マニュアル、半自動計測の場合は、左右のステレオ画面を観察しながら左右画像上の対応点を半自動もしくは、マニュアルにて対応している点をマウスにて確定しながら計測する。
Returning to FIG. 2, stereo measurement is performed in the three-dimensional coordinate
図4は、ステレオ画像に対して実行されるステレオ計測の一例を説明する図面である。ここでは、ステレオ画像150の一例として神殿の遺跡を測定対象物1とし、左画像150Lと右画像150Rをステレオペアとしている。ここでは、左画像150Lを基準画像とし、左画像150Lの特徴点の座標を(X1、Y1)とする。すると、三次元座標データ部31は右画像150Rを探索画像として取扱い、左画像150Lの特徴点に対応する右画像150Rの対応点の座標は(X2、Y2)にて示される。
FIG. 4 is a diagram illustrating an example of stereo measurement performed on a stereo image. Here, as an example of the stereo image 150, a ruins of a temple is the measurement object 1, and the
図5は、ステレオ画像に対して実行されるステレオ計測の他の例を説明する図面である。ここでは、測定対象物1として神殿の遺跡の壁面に形成された水瓶運搬レリーフを採択している。測定対象物1のステレオ画像160としては、水瓶運搬レリーフの左画像160Lと右画像160Rをステレオペアとしている。ここでは、三次元座標データ部31は左画像160Lを基準画像とし、右画像150Rを探索画像として取扱っている。そして、左画像160Lの特徴点近傍の画像領域162Lと、右画像160Rの対応点近傍の画像領域162Rを抽出して、図6にて拡大表示している。
FIG. 5 is a diagram illustrating another example of stereo measurement performed on a stereo image. Here, a water bottle transport relief formed on the wall surface of the temple ruins is adopted as the measurement object 1. As the stereo image 160 of the measurement object 1, the
図6は、特徴点近傍の画像領域162Lと対応点近傍の画像領域162Rの拡大図である。操作者が左画像150L(基準画像)の対応点を指示すると、対応点指示部22により右画像150R(探索画像)の指示位置近傍の特徴点に引き込まれる。指示位置近傍の特徴点として、ここでは水瓶運搬レリーフのコーナー位置を示している。
FIG. 6 is an enlarged view of the
図2に戻り、求められた三次元座標、あるいは読み込まれた三次元座標から、モデル形成部32にて測定対象物1のモデルを作成する(S60)。図7は、測定対象物1のモデルの一例を示す図で、ワイヤーフレーム面を示している。ここでは、測定対象物1として、神殿の遺跡の壁面に形成された水瓶運搬レリーフをステレオ画像170としている。水瓶運搬レリーフの左画像170Lと右画像170Rをステレオペアとしている。左右の領域指定枠線172L、172Rの内側に、ワイヤーフレーム面174L、174Rが形成されている。ワイヤーフレーム面174L、174Rを構成する単位画像面は、例えば隣接する3点の対応点を用いた三角形面や、隣接する4点の対応点を用いた矩形面が選択できる。このとき、測定対象物1のモデルの姿勢には、最初に作成された面の向きがデフォルト値として設定されている。
Returning to FIG. 2, the
図2に戻り、画像対応部34により、テクスチャマッピングしたい面を指定する(S70)。テクスチャマッピングとは、測定対象物1の二次元画像に立体感を表現するテクスチャを貼り付けることをいう。S70の処理は、ステレオ自動計測した場合は、S50で行った計測領域の指定とかねてもよい。次に、画像対応部34は、測定対象物1のステレオ画像とモデル形成部32によって形成されたモデルとを、標定部24で求められた対応点関係を用いてテクスチャマッピングする(S72)。テクスチャマッピングの詳細は、後で説明する。
Returning to FIG. 2, the
次に、モデル表示部35により、テクスチャマッピングされた画像をモデル画面上に表示する(S80)。モデル画面は、ステレオ画像から形成された立体感テクスチャ付き画像やテクスチャを除去した画像のように、斜視状態を表す測定対象物1の二次元画像である。S80での表示は、テクスチャマッピングされた画像だけでなく、ワイヤーフレーム画像や、3次元の点群(例えば3Dスキャナーで取得した点画像)、カメラ撮影位置や基準点位置を表示してもよい。また、モデル画面に表示される対象を、同時また切り替えて表示することにより、ステレオ画像計測結果と測定対象物1の撮影画像との確認が容易になる。
Next, the
図8は、立体感を表現するテクスチャをワイヤーフレームで表現した図である。ワイヤーフレーム画面180には、例えば測定対象物1の領域指定枠線182と、測定対象物1のワイヤーフレーム184が表示されている。ワイヤーフレーム184は、斜視状態を表す測定対象物1の二次元画像に貼り付けられる。
FIG. 8 is a diagram in which a texture expressing a three-dimensional effect is expressed by a wire frame. On the
図9は、テクスチャマッピングの表示例で、測定対象物1を立体感テクスチャ付き画像で表示する場合を示している。テクスチャマッピング画面190には、モデル表示部35によって、例えば測定対象物1の領域指定枠線192と、立体感のあるテクスチャがマッピングされた測定対象物1の鳥瞰画像194が表示されている。測定対象物1の鳥瞰画像194は、斜視状態を表す測定対象物1の二次元画像として表示される。
FIG. 9 is a display example of texture mapping, and shows a case where the measurement object 1 is displayed as an image with a three-dimensional texture. On the
図2に戻り、操作者は、マウスやキーボード等を利用して、姿勢指示部36によりワイヤーフレーム画面180やテクスチャマッピング画面190における測定対象物1の表示の向きを指示する(S90)。すると、座標変換部37が表示装置40に表示された測定対象物1の表示の向きを、姿勢指示部36により指示された向きに座標変換して、ワイヤーフレーム画面180やテクスチャマッピング画面190に表示する(S92)。操作者は、他の測定対象物1の表示の向きが存在するか判断し(S94)、YesであればS90に戻り、Noであれば終了とする(S96)。S90、S92のような測定対象物1の表示の向きを任意に指定できる機能によって、あらゆる角度から視点位置を変化させて計測結果や測定対象物1を表示装置40に表示させることで、操作者が視覚的に測定対象物1を確認することが可能となる。
Returning to FIG. 2, the operator instructs the display direction of the measurement object 1 on the
[相互標定]
次に、標定部24で行なう相互標定について説明する。図10は、ステレオ画像におけるモデル座標系XYZとカメラ座標系xyzの説明図である。モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。
[Mutual orientation]
Next, the relative orientation performed by the
まず、以下の共面条件式(1)により、左右カメラの位置を定めるのに必要とされるパラメータを求める。
上述の条件にすると、共面条件式(1)は式(2)のように変形され、式(2)を解けば各パラメータが求まる。
これらの式を用いて、次の手順により、未知パラメータを求める。
(i)初期近似値は通常0とする。
(ii)共面条件式(2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を式(3)、(4)により求め、観測方程式をたてる。
(iii)最小二乗法を適用して、近似値に対する補正量を求める。
(iv)近似値を補正する。
(v)補正された近似値を用いて(ii)〜(v)までの操作を収束するまで繰り返す。
Using these equations, unknown parameters are obtained by the following procedure.
(I) The initial approximate value is normally 0.
(Ii) The coplanar conditional expression (2) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained from the expressions (3) and (4), and an observation equation is established.
(Iii) Applying the least square method, a correction amount for the approximate value is obtained.
(Iv) The approximate value is corrected.
(V) The operations from (ii) to (v) are repeated using the corrected approximate value until convergence.
続いて、標定部24による標定作業の詳細を説明する。標定には、マニュアル、半自動標定モード、自動標定モードの3モードが存在し、標定画像での対応点の配置状況に応じて適宜に選択する。図11は、マニュアルと半自動標定モードの標定作業のフローチャートである。まず、標定部24によって標定モードに入る(S100)。このとき、操作者は標定したい画像を指定しておく。この場合、画像の指定枚数に関して、特段の制限は存在しない。すると、表示装置40の画面上に、標定部24によって指定した測定対象物画像が表示される(S110)。
Next, details of the orientation work by the
操作者は、標定の設定を半自動標定モードかマニュアルに設定する(S120)。この場合、標定部24による標定作業のデフォルトとしてマニュアルを選択してもよい。また、半自動標定モードの場合は、重心検出モード、コーナー検出モードの双方があり、詳細は後で説明する。次に、操作者は、例えば図5や図6に示すように、画像の標定に使用する点を指定する(S130)。この場合、測定対象物1の左右画像上で対応する点を、対応点指示部22により指示する。マニュアルの場合は、マウスカーソルにて測定対象物1の左右画像上の対応点を、表示装置40の画像上で指定する。半自動標定モードの場合は、対応点近傍を指定することにより、対応点指示部22により対応点(重心もしくはコーナー)が特定される。そして、測定対象物1の左右画像上での対応点指定が終了したか判断し(S140)、NoであればS130に戻って対応点指定を継続し、Yesであれば戻しとする(S150)。
The operator sets the orientation setting to semi-automatic orientation mode or manual (S120). In this case, a manual may be selected as the default of the orientation work by the
以下、半自動標定モードのアルゴリズムについて説明する。図12は、測定対象物の特徴点に貼付するレトロターゲットの説明図である。レトロターゲット200は、中心位置202が明確に識別できる標点(ターゲット)で、同心円状に形成された内円部204と外円部206を有している。内円部204の明度を明るくし、外円部206の明度を暗くすることで、視認性を高めている。そこで、レトロターゲット200は、測定対象物1の重心やコーナーのように、位置決めに関して特に重要な特徴点に貼付される。なお、内円部204と外円部206の明度は、明暗のコントラストが逆でも良い。
Hereinafter, the algorithm of the semi-automatic orientation mode will be described. FIG. 12 is an explanatory diagram of a retro target attached to the feature point of the measurement object. The
図13は、半自動標定モードにおける重心検出のアルゴリズムを説明するフローチャートである。まず、予め測定対象物1の特徴点にレトロターゲット200を貼付しておく。あるいは、レトロターゲット200に代えて、測定対象物1上の輝度の高い特徴点を、対応点指示部22により指示してもよい。操作者は、表示装置40の画像上に表示された測定対象物1の画像(基準画像)上で、マウスカーソルにより対応点近傍を指定する(S200)。すると、対応点指示部22は、探索画像における対応点の近傍から、ターゲットの存在範囲を決定する(S210)。
FIG. 13 is a flowchart for explaining an algorithm for detecting the center of gravity in the semi-automatic orientation mode. First, the
図14はレトロターゲットを用いた重心位置検出の説明図で、(A1)は内円部の明度が暗いレトロターゲット、(A2)は(A1)のレトロターゲットの直径方向の明度分布図、(B1)は内円部の明度が明るいレトロターゲット、(B2)は(B1)のレトロターゲットの直径方向の明度分布図を示している。レトロターゲットが図14(A1)のように内円部の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図14(A2)のようになり、光量分布の閾値Tからレトロターゲットの内円部204や中心位置202を求めることが可能となる。
FIG. 14 is an explanatory diagram of the center-of-gravity position detection using a retro target, where (A1) is a retro target with a dark inner circle portion, (A2) is a light intensity distribution diagram in the diameter direction of the retro target of (A1), and (B1 ) Is a retro target with a bright lightness in the inner circle, and (B2) is a lightness distribution diagram in the diameter direction of the retro target of (B1). When the retro target has a bright inner circle as shown in FIG. 14 (A1), the reflected light amount at the center of gravity position in the captured image of the measuring object 1 is a bright portion, and the light amount distribution of the image is As shown in FIG. 14A2, it is possible to obtain the
図13に戻り、S210にて測定対象物1の撮影状態が悪く、ターゲットの存在範囲が算出できない場合は、重心位置検出ができない為、エラー表示する(S215)。そして、S215からS250に飛び、対応点近傍の指定点を修正か判断し(S250)、YesであればS200に戻り、対応点近傍の指定点として他の点を計測点と指定する。S250でNoの場合は、マニュアル計測モードに切り替えて、他の特徴点に指定を切換えて、特徴点位置を計測し直す(S260)。 Returning to FIG. 13, if the imaging state of the measurement object 1 is poor and the target range cannot be calculated in S210, an error display is displayed because the center of gravity position cannot be detected (S215). Then, the process jumps from S215 to S250 to determine whether or not the designated point near the corresponding point is to be corrected (S250). If Yes, the process returns to S200 and designates another point as the designated point near the corresponding point as a measurement point. In the case of No in S250, the mode is switched to the manual measurement mode, the designation is switched to another feature point, and the feature point position is measured again (S260).
そして、標定部24又は対応点指示部22により、例えばモーメント法によって重心位置を算出する(S220)。例えば、図14の(A1)に表記されたレトロターゲット200の平面座標を(x、y)とする。そして、レトロターゲット200の明度が、しきい値T以上のx、y方向の点について、式(6)、(7)を演算する。
xg={Σx*f(x、y)}/Σf(x、y) …(6)
yg={Σy*f(x、y)}/Σf(x、y) …(7)
ここで、(xg、yg)は重心位置の座標、f(x、y)は(x、y)座標上の明度値である。なお、図14の(B1)に表記されたレトロターゲット200の場合は、明度がしきい値T以下のx、y方向の点について、上式(6)、(7)を演算する。
Then, the center of gravity position is calculated by, for example, the moment method by the
xg = {Σx * f (x, y)} / Σf (x, y) (6)
yg = {Σy * f (x, y)} / Σf (x, y) (7)
Here, (xg, yg) is a coordinate of the center of gravity position, and f (x, y) is a lightness value on the (x, y) coordinate. In the case of the
そして、標定部24又は対応点指示部22は、S220で求められた対応点位置を画面上に表示する(S230)。S230で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に適合していれば、標定作業を終了して戻しとする(S240)。他方、S230で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に不適合であったり、或いは重心位置検出ができずエラー表示となった場合は上述のS250に飛ぶ。
The
図15は、半自動標定モードにおけるコーナー検出のアルゴリズムを説明するフローチャートである。コーナー検出のアルゴリズムは、測定対象物1の画像上で直線が交わるようなコーナーが存在する場合や、直交する直線を有するターゲットを測定対象物1に貼付してある場合に適用される。たとえば、測定対象物1が、ビルデングなどのような直線とコーナーが多数ある建造物の場合には、極めて有効となる。 FIG. 15 is a flowchart for explaining a corner detection algorithm in the semi-automatic orientation mode. The corner detection algorithm is applied when there is a corner where straight lines intersect on the image of the measurement object 1 or when a target having an orthogonal straight line is attached to the measurement object 1. For example, when the measuring object 1 is a building having many straight lines and corners such as a building, it is extremely effective.
操作者は、表示装置40の画像上に表示された測定対象物1の画像(基準画像)上で、対応点指示部22のマウスカーソルにより対応点近傍を指定する(S300)。すると、対応点指示部22は、基準画像の指定点並びに探索画像における対応点の近傍の探索領域(エリア)を自動設定する(S310)。この場合は特徴点検出がコーナー検出と指定されるので、測定対象物1の画像縮尺に応じて、デフォルトにて探索領域をあらかじめ定数として設定しておく。そして、標定部24又は対応点指示部22により、探索領域内のエッジ検出を行う(S320)。エッジ検出に関しては、例えばエッジ検出フィルターやLOGフィルタ(下述)が利用できるが、要するに画像処理において画像の縁検出に用いられる検出方式であればよい。
The operator designates the vicinity of the corresponding point with the mouse cursor of the corresponding
エッジ検出の一例を、以下簡単に説明する。検出点を中心としてL×L画素の画像を対象画像とする。対象画像濃淡波形に、式(8)に示すガウス関数の二次微分であるラプラシアン・ガウシアン・フィルタ(LOGフィルタ)を施し、演算結果における曲線の2箇所のゼロ交差点、つまりエッジをサブピクセルで検出する。
∇2・G(x)=(x2−2σ2/2πσ6)・exp(−x2/2σ2)…(8)
ここで、σはガウス関数のパラメータである。
An example of edge detection will be briefly described below. An image of L × L pixels centering on the detection point is set as a target image. Apply Laplacian-Gaussian filter (LOG filter), which is the second derivative of the Gaussian function shown in equation (8), to the target image grayscale waveform, and detect two zero crossing points, that is, edges of the curve in the calculation result by subpixels To do.
∇ 2 · G (x) = (x 2 −2σ 2 / 2πσ 6 ) · exp (−x 2 / 2σ 2 ) (8)
Here, σ is a parameter of the Gaussian function.
続いて、対応点指示部22は検出されたエッジについて直線検出を行う(S330)。対応点指示部22又は操作者が、エッジの連続性をみて、もっとも連続性のある二つのエッジについて直線にフィッティングさせる。直線検出法はこれに限らずどのような方法を用いてもよい。そして、対応点指示部22は検出された2直線について、その交点を求める(S340)。そして、対応点指示部22は表示装置40の画像上に結果を表示する(S350)。コーナー検出された特徴点の結果が、操作者や予め定められた判断規範に当てはめた場合に適合するか否か判断する(S360)。S360でYesであれば、次の対応点が存在するか否か判断する(S380)。S380で次の対応点が存在する場合は、次の対応点を指定してS300に戻る。S380で次の対応点が存在しない場合は、コーナー検出処理を終了して戻しとする(S390)。
Subsequently, the corresponding
S360でNoであれば、マウスカーソルにより対応点近傍の指定点を修正するか判断し(S370)、YesであればS300に戻って対応点近傍の指定点として他の点を計測点と指定する。S370でNoであれば、マニュアル計測モードに切り替えて計測し直す(S375)。 If No in S360, it is determined whether or not the designated point near the corresponding point is to be corrected with the mouse cursor (S370). If Yes, the process returns to S300 and designates another point as the designated point near the corresponding point. . If No in S370, the measurement is switched to the manual measurement mode and remeasured (S375).
次に自動測定の場合について説明する。図16は、自動標定モードのアルゴリズムを説明するフローチャートである。自動標定モードでは、予め測定対象物1の特徴点にレトロターゲット200(図12参照)を貼付しておく。次に、操作者は標定部24にて自動標定モードを設定する(S400)。すると、表示装置40の画像上に測定対象物画像が表示される(S410)。次に、対応点指示部22は、対応点の画像ひとつをテンプレートとして登録する(S420)。続いて、対応点指示部22は、測定対象画像上でテンプレート画像に登録した画像と同じレトロターゲット画像を探索する(S430)。この場合、テンプレートマッチングにより画像探索する。
Next, the case of automatic measurement will be described. FIG. 16 is a flowchart for explaining the algorithm of the automatic orientation mode. In the automatic orientation mode, the retro target 200 (see FIG. 12) is pasted on the feature point of the measurement object 1 in advance. Next, the operator sets an automatic orientation mode in the orientation unit 24 (S400). Then, the measurement object image is displayed on the image of the display device 40 (S410). Next, the corresponding
ここで、テンプレートマッチングの詳細を説明する。テンプレートマッチングには、正規化相関法や残差逐次検定法(SSDA法)、その他各種の演算原理のものが存在している。テンプレートマッチングとして、残差逐次検定法を使用すれば処理が高速化できる。ここでは残差逐次検定法を説明する。 Here, the details of template matching will be described. Template matching includes a normalized correlation method, a residual sequential test method (SSDA method), and other various calculation principles. If a residual sequential test method is used as template matching, the processing can be speeded up. Here, the residual sequential test method will be described.
図17は残差逐次検定法における入力画像とテンプレート画像の説明図である。対応点指示部22に設けられた残差逐次検定法の遂行機能によって、N1×N1画素のテンプレート画像を、それより大きいM1×M1画素の入力画像内の探索範囲(M1−N1+1)2上で動かす。テンプレート画像の位置は、例えば左上隅に設けられた代表点の入力画像における座標(a,b)によって表す。そして、対応点指示部22によってテンプレート画像の各移動位置における式(9)の残差R(a,b)を演算し、最小となる移動位置を求める。この残差R(a,b)が最小となる移動位置が、テンプレートマッチングにより求める画像の位置である。
図16に戻り、S430で探索された全てのターゲットについて、さらに詳細に重心位置検出する(S440)。重心位置検出には、例えば前述したモーメント法等を利用するとよい。標定部24又は対応点指示部22は、S440で求められたターゲット位置を画面上に表示する(S450)。S450で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に適合していれば、標定作業を終了して戻しとする(S460)。他方、S450で表示されたターゲット位置が、操作者又は予め定められた判断規範に当てはめた場合に不適合であったり、或いは重心位置検出ができずエラー表示となった場合は、半自動標定モード又はマニュアルモードに移行して、不適合なターゲット位置を修正する(S470)。
Returning to FIG. 16, the center-of-gravity positions are detected in more detail for all the targets searched in S430 (S440). For detecting the position of the center of gravity, for example, the moment method described above may be used. The
[モデル画像作成]
次に、モデルにて用いられるモデル画像について説明する。モデル画像は、モデル形成部32、画像対応部34、モデル表示部35等で用いられる。図18はモデル画像の作成手順を説明するフローチャートである。まず、標定作業と標定計算処理で求められた座標を利用して、座標変換パラメータを求める。すなわち、標定作業により計測された画像座標と標定計算処理により算出された地上座標(モデル座標系の場合は、地上座標を仮に設定する)の対応づけを行ない、座標変換パラメータを求める(S500)。
[Create model image]
Next, model images used in the model will be described. The model image is used in the
座標変換パラメータは次の3次の射影変換式(10)により求める。
次に、モデル画像上の各画素(ピクセル)の地上座標を計算する(S510)。この処理では、モデル画像作成のために、モデル画像の画像座標(x、y)を地上座標(X、Y、Z)に変換するものである。地上座標(X、Y、Z)は、先に座標変換パラメータ算出処理のS500で求められた変換パラメータを用いて計算される。即ち、モデル画像の画像座標(x、y)に対応する地上座標(X、Y、Z)は、以下の式(11)で与えられる。このようにして、モデル画像上の各ピクセルの取得位置を求めることができる。
今度は、ステップS500で求めた変換パラメータを使用して、3次の射影変換式(10)により、ステップS520で求められた地上座標(X、Y、Z)に対応する画像座標(x、y)を計算する(S520)。このように求められた画像座標(x、y)から、該当する画像の地上座標(X、Y、Z)上の濃度値を取得する。この濃度値が、モデル画像上における2次元の位置(X、Y)のピクセルの濃度である。このように、地上座標上の位置(X、Y)に貼り付ける画像濃度を取得する。以上のような処理を、モデル画像のすべてのピクセルに対して行うことにより、画像貼付が行なわれる(S530)。 This time, using the transformation parameters obtained in step S500, the image coordinates (x, y) corresponding to the ground coordinates (X, Y, Z) obtained in step S520 by the cubic projective transformation equation (10). ) Is calculated (S520). From the image coordinates (x, y) thus determined, the density value on the ground coordinates (X, Y, Z) of the corresponding image is acquired. This density value is the density of the pixel at the two-dimensional position (X, Y) on the model image. In this manner, the image density to be pasted at the position (X, Y) on the ground coordinates is acquired. Image pasting is performed by performing the above processing on all the pixels of the model image (S530).
[視点を変えたモデル画像形成]
続いて、座標変換部37により遂行されるモデル画像の回転に関する演算原理を説明する。図2のS92で説明しているように、姿勢指示部36で測定対象物1のモデルの姿勢を指示すると、座標変換部37により座標変換してモデル表示部35で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示するので、測定対象物1の任意方向の立体感テクスチャ付き画像が得られる。そこで、視点をかえて見たモデル画像を作成する原理を説明する。この原理は、姿勢指示部36で指示された方向に座標変換部37にて座標系を回転させた後、モデル画像を形成させるものである。
[Model image formation with different viewpoints]
Next, the calculation principle relating to the rotation of the model image performed by the coordinate
図19は、視点を変えたモデル画像形成の原理説明図である。図19に示すように、地上座標系のX、Y、Zをそれぞれの軸方向のω、φ、κに回転させることにより、視点を変えた地上座標系X’,Y’、Z’が得られる。そこで、視点を変えた地上座標系X’,Y’、Z’に対し、画像貼り付けを行い、モデル画像を作成する。 FIG. 19 is an explanatory diagram of the principle of model image formation with different viewpoints. As shown in FIG. 19, by rotating X, Y, and Z of the ground coordinate system to ω, φ, and κ in the respective axial directions, ground coordinate systems X ′, Y ′, and Z ′ with different viewpoints are obtained. It is done. Therefore, an image is pasted on the ground coordinate systems X ′, Y ′, and Z ′ whose viewpoint has been changed to create a model image.
以下に詳細に説明する。例えば、傾きのない地上座標X、Y、Zであらわされた対象物P(X,Y,Z)が、逆に傾きのある地上座標系X’、Y’、Z’(視点を変えた座標系)でとる座標をP’(X’,Y’,Z’)とすると、以下の式(12)〜(15)によりその座標を求めることができる。
また、回転行列Rの要素aij(i=1〜3、j=1〜3)は次の式(15)で表される。
本発明の三次元画像表示装置によれば、画像対応部によって測定対象物のステレオ画像とモデル形成部によって形成されたモデルとを、標定部で求められた対応点関係を用いて対応付け、モデル表示部によって、モデルと対応付けられたステレオ画像を用いて、測定対象物の立体感テクスチャ付き画像を表示する構成としているので、ステレオ計測した3Dデータに対しても、立体視用の装置を用いて立体視を行なうことなく、3Dデータと測定対象物1の画像の確認が容易に行なえる。 According to the three-dimensional image display apparatus of the present invention, the stereo image of the measurement object and the model formed by the model forming unit are associated by the image corresponding unit using the corresponding point relationship obtained by the orientation unit, and the model Since the display unit is configured to display an image with a three-dimensional texture of a measurement object using a stereo image associated with a model, a stereoscopic device is also used for stereo measured 3D data. Thus, the 3D data and the image of the measurement object 1 can be easily confirmed without performing stereoscopic viewing.
また実施の形態のように、三次元画像表示装置としてPC(パソコン)のような情報処理プロセッサを搭載したコンピュータ、LCD(Liquid Crystal Display)モニタのような表示装置、並びにPCにインストールする三次元画像表示装置用のソフトウェア、並びに測定対象物のステレオ画像を撮影するデジタルカメラのような被校正撮影装置が存在すれば、ステレオ画像から取得した3D計測データを測定対象物の立体感テクスチャ付き画像と一体化して視覚化できる。そこで、従来ステレオ計測した3Dデータで必要とされていた、高価で精密な立体視用の装置を用いなくても、汎用で低価格のコンピュータとモニタ装置を用いて安価にシステム構築ができる。 Further, as in the embodiment, a computer having an information processing processor such as a PC (personal computer) as a three-dimensional image display device, a display device such as an LCD (Liquid Crystal Display) monitor, and a three-dimensional image installed on the PC If there is software for a display device and a photographic device to be calibrated such as a digital camera that shoots a stereo image of a measurement object, 3D measurement data acquired from the stereo image is integrated with an image with a three-dimensional texture of the measurement object. Can be visualized. Therefore, a system can be constructed at low cost by using a general-purpose and low-cost computer and monitor device without using an expensive and precise stereoscopic device that has been conventionally required for 3D data measured in stereo.
1 測定対象物
10 測定対象物画像データ記憶部
12 ステレオ画像データ記憶部
16 測定対象物位置データ記憶部
22 対応点指示部
24 標定部
30 表示画像形成部
31 三次元座標データ部
32 モデル形成部
34 画像対応部
35 モデル表示部
40 表示装置
DESCRIPTION OF SYMBOLS 1
Claims (5)
前記ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める標定部と;
前記標定部で求められた対応点関係から、前記測定対象物の対応点の三次元座標データを求める三次元座標データ部と;
前記対応点の三次元座標データから前記測定対象物のモデルを形成するモデル形成部と;
前記ステレオ画像データ記憶部に記憶された測定対象物のステレオ画像と、前記モデル形成部で形成されたモデルとを、前記標定部で求められた対応点関係を用いて対応付ける画像対応部と;
前記画像対応部により前記モデルと対応付けられたステレオ画像を用いて、前記測定対象物の立体感テクスチャ付き画像を表示するモデル表示部とを備える;
三次元画像表示装置。 A stereo image data storage unit for storing a stereo image of the measurement object;
An orientation unit that obtains a corresponding point relationship of the stereo image based on the photographing position and the inclination with respect to the stereo image;
A three-dimensional coordinate data unit for obtaining three-dimensional coordinate data of corresponding points of the measurement object from the corresponding point relationship obtained by the orientation unit;
A model forming unit that forms a model of the measurement object from the three-dimensional coordinate data of the corresponding points;
An image correspondence unit that associates the stereo image of the measurement object stored in the stereo image data storage unit with the model formed by the model formation unit using the corresponding point relationship obtained by the orientation unit;
A model display unit for displaying an image with a three-dimensional texture of the measurement object using a stereo image associated with the model by the image corresponding unit;
3D image display device.
前記モデルに対する姿勢指示に応じて、前記対応点の座標変換を行う座標変換部とを有し;
前記モデル表示部は、前記姿勢指示部で指示された姿勢に応じた前記測定対象物の立体感テクスチャ付き画像を表示することを特徴とする請求項1に記載の三次元画像表示装置。 A posture instructing unit for instructing a posture of the model of the measurement object;
A coordinate conversion unit that performs coordinate conversion of the corresponding points in response to an orientation instruction to the model;
The three-dimensional image display device according to claim 1, wherein the model display unit displays an image with a three-dimensional texture of the measurement object according to a posture instructed by the posture instruction unit.
当該対応点指示部は、前記ステレオ画像を表示する表示装置に表示される前記測定対象物に関して、指示位置近傍の特徴点を示すように構成されている請求項1乃至請求項3の何れか1項に記載の三次元画像表示装置。 And a corresponding point indicating unit for indicating a corresponding point used in the orientation unit;
The corresponding point indicating unit is configured to indicate a feature point in the vicinity of the specified position with respect to the measurement object displayed on the display device that displays the stereo image. The three-dimensional image display device according to item.
三次元座標データ部によって、前記標定部で求められた対応点関係から、前記測定対象物の対応点の三次元座標データを求める工程と;
モデル形成部によって、前記対応点の三次元座標データから前記測定対象物のモデルを形成する工程と;
画像対応部によって、前記ステレオ画像データ記憶部に記憶された測定対象物のステレオ画像と、前記モデル形成部で形成されたモデルとを、前記標定部で求められた対応点関係を用いて対応付ける工程と;
モデル表示部によって、前記モデルと対応付けられたステレオ画像を用いて、前記測定対象物の立体感テクスチャ付き画像を表示する工程と;
をコンピュータに実行させる三次元画像表示方法。
Obtaining a corresponding point relationship of the stereo image based on the shooting position and inclination of the stereo image of the measurement object by the orientation unit;
Obtaining three-dimensional coordinate data of corresponding points of the measurement object from a corresponding point relationship obtained by the orientation unit by means of a three-dimensional coordinate data unit;
Forming a model of the measurement object from the three-dimensional coordinate data of the corresponding point by a model forming unit;
A step of associating the stereo image of the measurement object stored in the stereo image data storage unit with the model formed by the model forming unit using the corresponding point relationship obtained by the orientation unit by the image corresponding unit. When;
Displaying a three-dimensional textured image of the measurement object using a stereo image associated with the model by a model display unit;
3D image display method for causing a computer to execute.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003400754A JP4427305B2 (en) | 2003-11-28 | 2003-11-28 | Three-dimensional image display apparatus and method |
US10/995,524 US7746377B2 (en) | 2003-11-28 | 2004-11-24 | Three-dimensional image display apparatus and method |
EP04028249A EP1536378B1 (en) | 2003-11-28 | 2004-11-29 | Three-dimensional image display apparatus and method for models generated from stereo images |
AT04028249T ATE494604T1 (en) | 2003-11-28 | 2004-11-29 | METHOD AND DEVICE FOR THE THREE-DIMENSIONAL REPRESENTATION OF MODELS GENERATED FROM STEREO IMAGES |
DE602004030881T DE602004030881D1 (en) | 2003-11-28 | 2004-11-29 | Method and device for the three-dimensional representation of models generated from stereo images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003400754A JP4427305B2 (en) | 2003-11-28 | 2003-11-28 | Three-dimensional image display apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005165468A true JP2005165468A (en) | 2005-06-23 |
JP4427305B2 JP4427305B2 (en) | 2010-03-03 |
Family
ID=34724898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003400754A Expired - Lifetime JP4427305B2 (en) | 2003-11-28 | 2003-11-28 | Three-dimensional image display apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4427305B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282915A (en) * | 2008-05-26 | 2009-12-03 | Global Engineering Inc | Temperature monitoring method for server computer and its device |
JP2010060344A (en) * | 2008-09-02 | 2010-03-18 | Tokyu Construction Co Ltd | Space information display device and support device |
US9733080B2 (en) | 2009-10-02 | 2017-08-15 | Kabushiki Kaisha Topcon | Wide-angle image pickup unit and measuring device |
-
2003
- 2003-11-28 JP JP2003400754A patent/JP4427305B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282915A (en) * | 2008-05-26 | 2009-12-03 | Global Engineering Inc | Temperature monitoring method for server computer and its device |
JP2010060344A (en) * | 2008-09-02 | 2010-03-18 | Tokyu Construction Co Ltd | Space information display device and support device |
US9733080B2 (en) | 2009-10-02 | 2017-08-15 | Kabushiki Kaisha Topcon | Wide-angle image pickup unit and measuring device |
Also Published As
Publication number | Publication date |
---|---|
JP4427305B2 (en) | 2010-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1536378B1 (en) | Three-dimensional image display apparatus and method for models generated from stereo images | |
US9182220B2 (en) | Image photographing device and method for three-dimensional measurement | |
US7777761B2 (en) | Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set | |
US7403268B2 (en) | Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets | |
JP5538667B2 (en) | Position / orientation measuring apparatus and control method thereof | |
JP4245963B2 (en) | Method and system for calibrating multiple cameras using a calibration object | |
US7477359B2 (en) | Method and apparatus for making and displaying measurements based upon multiple 3D rangefinder data sets | |
US20170142405A1 (en) | Apparatus, Systems and Methods for Ground Plane Extension | |
JP2005215917A (en) | Working drawing creation support method and replacement model creation method | |
US20050151963A1 (en) | Transprojection of geometry data | |
KR20130138247A (en) | Rapid 3d modeling | |
WO2015049853A1 (en) | Dimension measurement device, dimension measurement method, dimension measurement system, and program | |
CN108474653A (en) | Three-dimensional measuring apparatus and its measurement aid in treatment method | |
US11222433B2 (en) | 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images | |
JP2005174151A (en) | Three-dimensional image display device and method | |
JP2004030408A (en) | Three-dimensional image display apparatus and display method | |
JP4409924B2 (en) | Three-dimensional image display apparatus and method | |
JP4427305B2 (en) | Three-dimensional image display apparatus and method | |
JP2005310044A (en) | Apparatus, method and program for data processing | |
JP2000146546A (en) | Method and apparatus for forming three-dimensional model | |
JP6545033B2 (en) | Three-dimensional temperature distribution display | |
KR100991570B1 (en) | A remote sensing method of diverse signboards' Size and Apparatus using thereof | |
KR101489468B1 (en) | camera image calibration apparatus and method based on homography calculation | |
CA2831664A1 (en) | Stereoscopic measurement system and method | |
JP3052926B2 (en) | 3D coordinate measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090825 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4427305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131218 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |