JP2005165468A - Three-dimensional image display apparatus and method - Google Patents

Three-dimensional image display apparatus and method Download PDF

Info

Publication number
JP2005165468A
JP2005165468A JP2003400754A JP2003400754A JP2005165468A JP 2005165468 A JP2005165468 A JP 2005165468A JP 2003400754 A JP2003400754 A JP 2003400754A JP 2003400754 A JP2003400754 A JP 2003400754A JP 2005165468 A JP2005165468 A JP 2005165468A
Authority
JP
Japan
Prior art keywords
image
unit
model
measurement object
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003400754A
Other languages
Japanese (ja)
Other versions
JP4427305B2 (en
Inventor
Tadayuki Ito
忠之 伊藤
Hitoshi Otani
仁志 大谷
Nobuo Takachi
伸夫 高地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2003400754A priority Critical patent/JP4427305B2/en
Priority to US10/995,524 priority patent/US7746377B2/en
Priority to EP04028249A priority patent/EP1536378B1/en
Priority to AT04028249T priority patent/ATE494604T1/en
Priority to DE602004030881T priority patent/DE602004030881D1/en
Publication of JP2005165468A publication Critical patent/JP2005165468A/en
Application granted granted Critical
Publication of JP4427305B2 publication Critical patent/JP4427305B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional image display apparatus that can integrate and visualize 3D measurement data obtained from a stereo image with an image of a measuring object with three-dimensional texture. <P>SOLUTION: The apparatus includes: an orientation section 24 for finding relationship as to corresponding points in a stereo image of a measuring object 1 based on the position and the tilt at which the stereo image is photographed; a three-dimensional coordinate data section 31 for obtaining three-dimensional coordinate data on the corresponding points of the measuring object 1 based on the relationship as to the corresponding points found by the orientation section 24; a model forming section 32 for forming a model of the measuring object 1 based on the three-dimensional coordinate data on the corresponding points; an image correlating section 34 for correlating the stereo image of the measuring object stored in the stereo image data storage section 12 and the model formed by the model forming section 32, using the relationship as to the corresponding points found by the orientation section 24; and a model display section 35 for displaying an image of the measuring object 1 with three-dimensional texture, using the stereo image correlated with the model by the image correlating section 34. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、測定対象物について計測した3Dデータ(三次元形状データ)と測定対象物のステレオ画像とを相互に直接関連付けて、測定対象物の計測データと画像とを同時に表示可能とする三次元画像表示装置及び方法に関する。   This invention relates to 3D data (three-dimensional shape data) measured with respect to a measurement object and a stereo image of the measurement object, and enables the measurement data and image of the measurement object to be displayed simultaneously. The present invention relates to an image display apparatus and method.

施工対象物や製作対象物の3Dデータを取得する方法には、特許文献1に記載されているような三次元位置測定装置(トータルステーション)により取得する方式と、特許文献2に記載されているような対象物と比較校正体を用いてステレオ画像を撮影して、ステレオ計測することにより3Dデータを取得するステレオ画像計測方式がある。三次元位置測定装置を用いた方式では、得られる3D座標の精度が良いので、画像貼り付けの際の基準点位置測定に利用される。特に、近年のトータルステーションでは、モータ駆動によって比較的多数(例えば測定対象物について数十点程度)の三次元座標が得られるようになってきている。ステレオ画像計測方式では、3Dデータと画像貼り付けを行う際に標定という作業を行なうことで、測定対象物について数千点−数万点程度の三次元座標を比較的簡便に得られる。   As a method of acquiring 3D data of a construction object and a production object, a method of acquiring by a three-dimensional position measuring device (total station) as described in Patent Document 1 and Patent Document 2 are described. There is a stereo image measurement method that acquires 3D data by photographing a stereo image using a target object and a comparative calibration body and performing stereo measurement. In the method using the three-dimensional position measuring device, the accuracy of the obtained 3D coordinates is good, and therefore, it is used for measuring the reference point position when pasting an image. In particular, in a recent total station, a relatively large number of three-dimensional coordinates (for example, about several tens of points for a measurement object) have been obtained by driving a motor. In the stereo image measurement method, three-dimensional coordinates of about several thousand to several tens of thousands of points can be obtained relatively easily by performing an operation called orientation when pasting 3D data and an image.

特開2002−352224号公報 図2JP 2002-352224 A FIG. 特開2003−65737号公報 図1、図2Japanese Patent Laid-Open No. 2003-65737 FIG. 1 and FIG.

しかしながら、三次元位置測定装置により取得した3Dデータは、基本的には距離データを含む三次元座標データにて構成されている。そこで、三次元位置測定装置により取得した3Dデータと現場状況との対応づけが困難で、3Dデータを測定対象物の画像情報と紐付ける作業を行なう際に、測定対象物の何れの位置を計測したのか困難になるという課題があることが判明した。   However, the 3D data acquired by the 3D position measuring device is basically composed of 3D coordinate data including distance data. Therefore, it is difficult to associate the 3D data acquired by the three-dimensional position measurement device with the on-site situation, and any position of the measurement object is measured when performing the operation of associating the 3D data with the image information of the measurement object. It turned out that there was a problem that it would be difficult.

いっぽう、ステレオ画像計測方式では、ステレオ画像により3D計測を行うので、画像をステレオ表示することにより3Dデータとステレオ画像とを比較することができる。しかし、3Dデータとステレオ画像とを比較するために立体モニタや偏向眼鏡が必要となると共に、立体視はうまく出来る人と出来ない人がいて、誰にでも簡単に確認ができないという課題があった。また、測定対象物のステレオ計測や3Dデータとステレオ画像と紐付ける作業では、画像情報と3Dデータとの間や画像間での対応付けをして、標定作業を行なう必要がある。この標定作業は作業者による個人差が大きく、簡単に精度よくできない、という課題があった。   On the other hand, in the stereo image measurement method, since 3D measurement is performed using a stereo image, 3D data and the stereo image can be compared by displaying the image in stereo. However, in order to compare 3D data and stereo images, a stereoscopic monitor and deflection glasses are required, and there are some people who cannot and cannot easily confirm stereoscopic viewing because there are people who can and cannot do stereoscopic viewing. . Further, in the stereo measurement of the measurement object and the work of associating the 3D data with the stereo image, it is necessary to perform the orientation work by associating the image information with the 3D data or between the images. This orientation work has a problem that individual differences among workers are large and cannot be easily performed with high accuracy.

本発明は上述した課題を解決したもので、ステレオ画像から取得した3D計測データを測定対象物の立体感テクスチャ付き画像と一体化して視覚化できる三次元画像表示装置及び方法を提供することを目的とする。   The present invention solves the above-described problems, and an object of the present invention is to provide a three-dimensional image display apparatus and method that can visualize 3D measurement data acquired from a stereo image by integrating it with an image with a three-dimensional texture of a measurement object. And

上記目的を達成する本発明の三次元画像表示装置は、図1に示すように、測定対象物1のステレオ画像を記憶するステレオ画像データ記憶部12と、前記ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める標定部24と、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める三次元座標データ部31と、前記対応点の三次元座標データから測定対象物1のモデルを形成するモデル形成部32と、ステレオ画像データ記憶部12に記憶された測定対象物のステレオ画像とモデル形成部32で形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける画像対応部34と、画像対応部34により前記モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示するモデル表示部35とを備えている。   As shown in FIG. 1, the three-dimensional image display device of the present invention that achieves the above object is based on a stereo image data storage unit 12 that stores a stereo image of a measurement object 1, and a shooting position and inclination related to the stereo image. The orientation unit 24 for obtaining the corresponding point relationship of the stereo image, the 3D coordinate data unit 31 for obtaining the 3D coordinate data of the corresponding point of the measuring object 1 from the corresponding point relationship obtained by the orientation unit 24, and the correspondence A model forming unit 32 that forms a model of the measurement object 1 from the three-dimensional coordinate data of the points, a stereo image of the measurement object stored in the stereo image data storage unit 12, and a model formed by the model formation unit 32. Measurement using the image correspondence unit 34 associated with the corresponding point relationship obtained by the orientation unit 24 and the stereo image associated with the model by the image correspondence unit 34 And a model display section 35 for displaying a stereoscopic texture image of object (1).

このような構成によると、標定部24によって、ステレオ画像データ記憶部12に記憶された測定対象物1のステレオ画像に関する相互標定を行い、ステレオ画像の対応点関係を求める。次に、三次元座標データ部31によって、標定部24で求められた対応点関係を用いて、測定対象物1の対応点の三次元座標データを求め、モデル形成部32によって測定対象物1のモデルを形成する。画像対応部34は、測定対象物のステレオ画像とモデルとを、標定部24で求められた対応点関係を用いて対応付ける。モデル表示部35は、モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する。立体感テクスチャ付き画像は、測定対象物1を二次元画像で表現しているが、影を用いて表面の凸凹を表すことで、擬似的な立体的表現を行なうものである。   According to such a configuration, the orientation unit 24 performs relative orientation on the stereo image of the measuring object 1 stored in the stereo image data storage unit 12 to obtain the corresponding point relationship of the stereo image. Next, the three-dimensional coordinate data unit 31 obtains the three-dimensional coordinate data of the corresponding point of the measurement object 1 using the corresponding point relationship obtained by the orientation unit 24, and the model forming unit 32 determines the measurement object 1. Form a model. The image correspondence unit 34 associates the stereo image of the measurement object with the model using the corresponding point relationship obtained by the orientation unit 24. The model display unit 35 displays an image with a three-dimensional texture of the measurement object 1 using a stereo image associated with the model. The three-dimensional textured image expresses the measurement object 1 as a two-dimensional image, but expresses a pseudo three-dimensional expression by expressing the surface unevenness using a shadow.

好ましくは、本発明の三次元画像表示装置において、さらに、測定対象物1のモデルの姿勢を指示する姿勢指示部36と、前記モデルに対する姿勢指示に応じて、前記対応点の座標変換を行う座標変換部37とを有し、モデル表示部35は、姿勢指示部36で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示する構成とすると良い。姿勢指示部36で測定対象物1のモデルの姿勢を指示すると、座標変換部37により座標変換してモデル表示部35で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示するので、測定対象物1の任意方向の立体感テクスチャ付き画像が得られる。   Preferably, in the three-dimensional image display device of the present invention, a posture instruction unit 36 for instructing the posture of the model of the measurement object 1, and coordinates for performing coordinate conversion of the corresponding points in accordance with the posture instruction for the model The model display unit 35 may be configured to display an image with a three-dimensional texture of the measurement object 1 according to the posture instructed by the posture instruction unit 36. When the orientation of the model of the measuring object 1 is instructed by the orientation instructing unit 36, the coordinate conversion unit 37 performs coordinate conversion and displays an image with a three-dimensional texture of the measuring object 1 according to the orientation instructed by the model display unit 35. Therefore, an image with a three-dimensional texture in an arbitrary direction of the measurement object 1 is obtained.

好ましくは、本発明の三次元画像表示装置において、さらに、画像対応部34は、複数の対応点によって形成される単位画像面によって前記ステレオ画像を覆い、しかして単位画像面を用いてモデルとステレオ画像を対応付ける構成とすると良い。単位画像面によってステレオ画像を覆うことによって、測定対象物のステレオ画像とモデルとの対応付けが容易に行なえる。単位画像面には、隣接する3点の対応点を用いた三角形面や、隣接する4点の対応点を用いた矩形面が選択できる。   Preferably, in the three-dimensional image display device of the present invention, the image corresponding unit 34 further covers the stereo image with a unit image plane formed by a plurality of corresponding points, and the model and stereo are displayed using the unit image plane. It is preferable to associate the images. By covering the stereo image with the unit image surface, it is possible to easily associate the stereo image of the measurement object with the model. As the unit image plane, a triangular plane using three adjacent corresponding points or a rectangular plane using four adjacent corresponding points can be selected.

好ましくは、本発明の三次元画像表示装置において、さらに、標定部24で用いる対応点を指示する対応点指示部22を有し、対応点指示部22は、前記ステレオ画像を表示する表示装置に表示される測定対象物1に関して、指示位置近傍の特徴点を示すように構成されている構成とすると良い。指示位置近傍の特徴点には、例えば測定対象物1の中心位置、重心位置、コーナー位置などがある。対応点指示部22により対応点を指示すると、操作者が厳格に特徴点を指示しなくても、操作者が本来意図した特徴点に引き込まれるため、標定部による標定作業が容易に行なえる。   Preferably, the three-dimensional image display device of the present invention further includes a corresponding point instruction unit 22 for indicating a corresponding point used in the orientation unit 24, and the corresponding point instruction unit 22 is provided on the display device for displaying the stereo image. The displayed measurement object 1 may be configured to show feature points in the vicinity of the designated position. The feature points near the designated position include, for example, the center position, the center of gravity position, and the corner position of the measurement object 1. When the corresponding point is instructed by the corresponding point instructing unit 22, even if the operator does not strictly instruct the feature point, the operator is drawn into the characteristic point originally intended by the operator, so that the orientation work by the orientation unit can be easily performed.

上記目的を達成する本発明の三次元画像表示方法は、図2に示すように、標定部24によって測定対象物1のステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める工程(S30)と、三次元座標データ部31によって、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める工程(S40、S50)と、モデル形成部32によって、前記対応点の三次元座標データから測定対象物1のモデルを形成する工程(S60)と、画像対応部34によって、測定対象物1のステレオ画像と形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける工程(S72)と、モデル表示部35によって、前記モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する工程(S80)とをコンピュータに実行させるものである。   As shown in FIG. 2, the 3D image display method of the present invention that achieves the above object is a step of obtaining corresponding point relationships of stereo images based on the shooting position and inclination of the stereo image of the measuring object 1 by the orientation unit 24, as shown in FIG. (S30), a step of obtaining the three-dimensional coordinate data of the corresponding point of the measuring object 1 from the corresponding point relationship obtained by the orientation unit 24 by the three-dimensional coordinate data unit 31 (S40, S50), and a model forming unit The step of forming a model of the measuring object 1 from the three-dimensional coordinate data of the corresponding point (S60) by 32, and the stereo image of the measuring object 1 and the model formed by the image corresponding unit 34, The object to be measured using the stereo image associated with the model by the step of associating using the corresponding point relationship obtained in 24 (S72) and the model display unit 35. Stereoscopic texture image is intended to be executed by a computer and a step (S80) of displaying.

本発明の三次元画像表示装置によれば、画像対応部34によって測定対象物1のステレオ画像とモデル形成部32によって形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付け、モデル表示部35によって、モデルと対応付けられたステレオ画像を用いて、測定対象物1の立体感テクスチャ付き画像を表示する構成としているので、ステレオ計測した3Dデータに対しても、立体視用の装置を用いて立体視を行なうことなく、3Dデータと測定対象物1の画像の確認が容易に行なえる。   According to the three-dimensional image display apparatus of the present invention, the stereo image of the measurement object 1 by the image corresponding unit 34 and the model formed by the model forming unit 32 are used using the corresponding point relationship obtained by the orientation unit 24. Since the correspondence and model display unit 35 is configured to display an image with a three-dimensional texture of the measurement object 1 using a stereo image associated with the model, 3D data measured in stereo is also stereoscopic. The 3D data and the image of the measuring object 1 can be easily confirmed without performing stereoscopic viewing using a viewing device.

以下図面を用いて本発明を説明する。本発明の三次元画像表示装置は、最低2枚以上の複数撮影された画像から、ステレオ画像を構成する左右2枚の画像を1単位として、測定対象物1の立体的な形状を算出すると共に、測定対象物1の全体を3D計測もしくは取得された3Dデータを用いて、測定対象物1の二次元画像に立体感を表現するテクスチャ(texture)を貼り付ける。ここで、テクスチャとはグラフィックスなどにおいて、図形の表面に付けられた模様や、質感を表わすための描き込みをいう。   The present invention will be described below with reference to the drawings. The three-dimensional image display device of the present invention calculates the three-dimensional shape of the measuring object 1 from two or more images taken at least as a unit of two left and right images constituting a stereo image. The texture (texture) that expresses the three-dimensional effect is pasted on the two-dimensional image of the measurement object 1 using the 3D data obtained by 3D measurement or the entire measurement object 1. Here, the texture refers to a pattern attached to the surface of a graphic or a drawing for expressing the texture in graphics or the like.

図1は本発明の第1の実施の形態を説明する全体構成ブロック図である。本発明は、ステレオ画像データ記憶部12、測定対象物位置データ記憶部16、対応点指示部22、標定部24、表示画像形成部30、表示装置40を備えるもので、例えばコンピュータと表示装置で構成されている。測定対象物1は、施工対象物・製作対象物となる有体物で、例えば建築物等の各種工作物や人物・風景等が該当する。画像撮影装置10は、例えばステレオカメラや汎用のデジタルカメラとこのデジタルカメラで撮影された測定対象物1の左右画像に対してレンズ収差の補償を行なう装置を組合せた機器である。三次元位置測定装置14は、測量の対象となる標点位置をレーザー等を用いて自動的に測定する機器で、トータルステーション、3次元スキャナー等が含まれる。ここで、3次元スキャナーとは、レーザ光を測定対象物1に発射し、その反射光を機械内のCCDカメラで受光し、受光した光から三角測距の原理で距離データを得て3次元データ化するもので、工業デザインや3D画像のデータベース化、映像制作における3次元CGなど、様々な用途で使われている。測定対象物1にレーザ光を上から下へ走査することにより、1回のスキャンで、照射画像全体で例えば640x480点の距離画像を入力することができる。   FIG. 1 is a block diagram showing the overall configuration of a first embodiment of the present invention. The present invention includes a stereo image data storage unit 12, a measurement object position data storage unit 16, a corresponding point instruction unit 22, an orientation unit 24, a display image forming unit 30, and a display device 40. For example, a computer and a display device are used. It is configured. The measurement object 1 is a tangible object that is a construction object or a production object, and corresponds to, for example, various works such as buildings, people, and landscapes. The image capturing device 10 is a device that combines, for example, a stereo camera or a general-purpose digital camera and a device that compensates lens aberration for the left and right images of the measurement object 1 captured by the digital camera. The three-dimensional position measuring device 14 is a device that automatically measures a target position to be surveyed using a laser or the like, and includes a total station, a three-dimensional scanner, and the like. Here, the three-dimensional scanner emits laser light to the measurement object 1, receives the reflected light with a CCD camera in the machine, obtains distance data from the received light by the principle of triangulation, and performs three-dimensional scanning. It is used for various purposes such as industrial design, creating a database of 3D images, and 3D CG in video production. By scanning the measurement object 1 with laser light from top to bottom, it is possible to input a distance image of, for example, 640 × 480 points in the entire irradiation image in one scan.

ステレオ画像データ記憶部12は、測定対象物1のステレオ画像を記憶するもので、例えば画像撮影装置10で撮影された測定対象物1の左右画像を記憶する。測定対象物位置データ記憶部16は、絶対標定に必要とされる3点の基準点となる測定対象物1の位置データを記憶するもので、例えば三次元位置測定装置14で測定された基準点の位置データを記憶する。なお、絶対標定を行なわないで、モデル座標系を用いた相互標定で充分な用途では、測定対象物位置データ記憶部16を設けるに及ばない。   The stereo image data storage unit 12 stores a stereo image of the measurement target 1 and stores, for example, left and right images of the measurement target 1 captured by the image capturing device 10. The measurement object position data storage unit 16 stores position data of the measurement object 1 serving as three reference points required for absolute orientation. For example, the reference point measured by the three-dimensional position measurement device 14 The position data is stored. Note that the object position data storage unit 16 does not need to be provided in applications where relative orientation using a model coordinate system is sufficient without performing absolute orientation.

対応点指示部22は、標定部24で用いる対応点を指示するもので、表示装置40に表示される測定対象物1に関して、指示位置近傍の特徴点を示すように構成されていると良い。指示位置近傍の特徴点には、例えば測定対象物1の中心位置、重心位置、コーナー位置などがある。対応点指示部22により対応点を指示すると、操作者が厳格に特徴点を指示しなくても、操作者が本来意図した特徴点に引き込まれるため、標定部24による標定作業が容易に行なえる。標定部24は、ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める。対応点指示部22と標定部24の詳細は、後で説明する。   The corresponding point instruction unit 22 is for instructing a corresponding point used in the orientation unit 24, and is preferably configured to indicate a feature point in the vicinity of the indicated position with respect to the measurement object 1 displayed on the display device 40. The feature points near the designated position include, for example, the center position, the center of gravity position, and the corner position of the measurement object 1. When the corresponding point is instructed by the corresponding point instructing unit 22, the operator is drawn into the characteristic point originally intended by the operator even if the operator does not strictly instruct the characteristic point, so that the orientation work by the orientation unit 24 can be easily performed. . The orientation unit 24 obtains the corresponding point relationship of the stereo image based on the shooting position and the inclination regarding the stereo image. Details of the corresponding point instruction unit 22 and the orientation unit 24 will be described later.

また、表示画像形成部30は、三次元座標データ部31、モデル形成部32、モデル記憶部33、画像対応部34、モデル表示部35、姿勢指示部36、座標変換部37を備えている。三次元座標データ部31は、標定部24で求められた対応点関係から、測定対象物1の対応点の三次元座標データを求める。モデル形成部32は、対応点の三次元座標データから測定対象物1のモデルを形成する。モデル記憶部33は、モデル形成部32で形成された測定対象物1のモデルを記憶している。画像対応部34は、ステレオ画像データ記憶部12に記憶された測定対象物のステレオ画像とモデル形成部32で形成されたモデルとを、標定部24で求められた対応点関係を用いて対応付ける。モデル表示部35は、画像対応部34によりモデルと対応付けられたステレオ画像を用いて、測定対象物1を鳥瞰画像等の立体感テクスチャ付き画像を用いて、立体感のある二次元画像で表示装置40に表示する。   The display image forming unit 30 includes a three-dimensional coordinate data unit 31, a model forming unit 32, a model storage unit 33, an image corresponding unit 34, a model display unit 35, a posture instruction unit 36, and a coordinate conversion unit 37. The three-dimensional coordinate data unit 31 obtains the three-dimensional coordinate data of the corresponding point of the measurement object 1 from the corresponding point relationship obtained by the orientation unit 24. The model forming unit 32 forms a model of the measurement object 1 from the three-dimensional coordinate data of the corresponding points. The model storage unit 33 stores a model of the measurement object 1 formed by the model forming unit 32. The image correspondence unit 34 associates the stereo image of the measurement object stored in the stereo image data storage unit 12 with the model formed by the model formation unit 32 using the corresponding point relationship obtained by the orientation unit 24. The model display unit 35 displays the measurement target 1 as a stereoscopic two-dimensional image using a stereoscopic textured image such as a bird's-eye image using the stereo image associated with the model by the image corresponding unit 34. Display on device 40.

姿勢指示部36は、測定対象物1のモデルの姿勢を指示するもので、例えば操作者がマウス等のカーソル入力装置を操作して、表示装置40に表示される測定対象物1の姿勢を指示する。座標変換部37は、モデルに対する姿勢指示に応じて、対応点の座標変換を行う。モデル表示部35は、姿勢指示部36で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示する。表示装置40は、液晶表示装置やCRT等の画像表示装置である。   The posture instruction unit 36 instructs the posture of the model of the measurement object 1. For example, the operator operates a cursor input device such as a mouse to indicate the posture of the measurement object 1 displayed on the display device 40. To do. The coordinate conversion unit 37 performs coordinate conversion of corresponding points in accordance with an orientation instruction for the model. The model display unit 35 displays an image with a three-dimensional texture of the measurement object 1 according to the posture instructed by the posture instruction unit 36. The display device 40 is an image display device such as a liquid crystal display device or a CRT.

次に、このように構成された本発明の三次元画像表示装置の動作を説明する。図2は図1に示す三次元画像表示装置の動作を説明するフローチャートである。まず、デジタルカメラ等の画像撮影装置10を用いて撮影した測定対象物1の2枚以上の画像を、ステレオ画像データ記憶部12に画像登録する(S10)。次に、ステレオ画像データ記憶部12に登録された画像のうち、ステレオペアとなる左右画像の組を設定する(S20)。ただし、ステレオ画像データ記憶部12に登録された全ての画像を、S20にてステレオペア設定しなくよい。即ち、計測したいステレオ画像や立体感テクスチャを貼りたいステレオ画像から順に、随時ステレオ画像を構成するステレオペアとして設定してもよい。   Next, the operation of the three-dimensional image display device of the present invention configured as described above will be described. FIG. 2 is a flowchart for explaining the operation of the three-dimensional image display apparatus shown in FIG. First, two or more images of the measurement object 1 photographed using the image photographing device 10 such as a digital camera are registered in the stereo image data storage unit 12 (S10). Next, among the images registered in the stereo image data storage unit 12, a set of left and right images forming a stereo pair is set (S20). However, it is not necessary to set the stereo pair for all the images registered in the stereo image data storage unit 12 in S20. That is, you may set as a stereo pair which comprises a stereo image at any time in order from the stereo image which wants to measure, and the stereo image which wants to paste a three-dimensional texture.

次に、三次元位置測定装置14や3Dスキャナを用いて取得した、測定対象物1の三次元座標が存在しているか判断する(S22)。S22でYesであれば、測定対象物位置データ記憶部16に、測定対象物1の三次元座標を用いた位置データを読みこむ(S24)。S22でNoであれば、相対座標系で処理が可能なので、S24をスキップしてよい。なお、測定対象物位置データ記憶部16に対する測定対象物1の三次元座標を用いた位置データの読みこみは、S20の後に限られるものではなく、例えばS80までは相対座標系で処理を行い、S80の後で3次元座標を読み込み絶対座標系としてもよい。基準点となる三次元座標は、計測もしくは立体感テクスチャを貼りたい全ての画像領域において、最低3点以上存在していれば、絶対座標系として計算、計測することが可能となる。   Next, it is determined whether or not the three-dimensional coordinates of the measuring object 1 obtained using the three-dimensional position measuring device 14 or the 3D scanner exist (S22). If Yes in S22, position data using the three-dimensional coordinates of the measurement object 1 is read into the measurement object position data storage unit 16 (S24). If No in S22, the process can be performed in the relative coordinate system, so S24 may be skipped. The reading of the position data using the three-dimensional coordinates of the measurement object 1 with respect to the measurement object position data storage unit 16 is not limited to after S20. For example, processing is performed in a relative coordinate system until S80, After S80, the three-dimensional coordinates may be read to form an absolute coordinate system. The three-dimensional coordinates as reference points can be calculated and measured as an absolute coordinate system if there are at least three or more points in all image areas where measurement or stereoscopic texture is to be pasted.

つぎに、標定部24によって、標定作業を行ない、ステレオ画像データ記憶部12に記憶された測定対象物1のステレオ画像の相互標定を行い、ステレオ画像の対応点関係を求める(S30)。この標定作業には、マニュアルと半自動、全自動の三つのモードがあり、詳細は後で説明する。ここで、標定作業とは、2枚以上の画像のそれぞれの対応点(同一点)を各画像上で対応点指示部22により、マウスカーソルなどで指示し、その画像座標を読み取る作業である。この対応点は通常各画像毎に6点以上必要である。また、S24にて測定対象物位置データ記憶部16に基準点座標が記憶されていれば、基準点座標と画像の対応付けして、絶対標定を実行する。   Next, the orientation unit 24 performs orientation work, performs relative orientation of the stereo image of the measuring object 1 stored in the stereo image data storage unit 12, and obtains the corresponding point relationship of the stereo image (S30). This orientation work has three modes: manual, semi-automatic, and fully automatic. Details will be described later. Here, the orientation operation is an operation in which corresponding points (same points) of two or more images are indicated on each image by the corresponding point instruction unit 22 with a mouse cursor or the like, and the image coordinates are read. Normally, 6 or more corresponding points are required for each image. If the reference point coordinates are stored in the measurement object position data storage unit 16 in S24, the absolute orientation is executed by associating the reference point coordinates with the image.

標定作業により求めた対応点の座標を用いて、標定部24により標定計算処理を行う(S40)。標定計算処理により、撮影したカメラの位置、傾き、対応点の位置、計測精度を求めることが出来る(図3参照)。もし基準点座標があれば、測定対象物位置データ記憶部16から読み出して絶対標定計算処理も行なう。もし基準点座標がなければ、相対(モデル)座標にて計算する。標定計算処理は、ステレオモデルの対応付けに関しては相互標定で行ない、全画像間の標定に関してはバンドル調整にて行う。なお、相互標定の詳細は後で説明する。   The orientation calculation processing is performed by the orientation unit 24 using the coordinates of the corresponding points obtained by the orientation work (S40). By the orientation calculation process, the position and tilt of the photographed camera, the position of the corresponding point, and the measurement accuracy can be obtained (see FIG. 3). If there is a reference point coordinate, it is read from the measurement object position data storage unit 16 and an absolute orientation calculation process is also performed. If there are no reference point coordinates, the calculation is performed using relative (model) coordinates. The orientation calculation processing is performed by mutual orientation for associating stereo models, and orientation for all images is performed by bundle adjustment. Details of mutual orientation will be described later.

図3は標定計算処理の標定結果の一例を説明する画面図である。標定結果画面図100には、結果一覧画面102、パスポイント画面104、標定点画面106、算出座標画面108、撮影状況と地上分解能画面110が設けられている。撮影状況と地上分解能画面110には、ステレオ画像の撮影状況と地上分解能表示面120と、カメラの位置と傾き表示面130が設けられている。ステレオ画像の撮影状況と地上分解能表示面120には、ステレオペアとなる2枚の画像データを表示するペア名欄121、基線長B欄122、撮影距離H欄123、B/H比欄124、平面分解能欄125、奥行分解能欄126が設けられている。カメラの位置と傾き表示面130には、画像名欄131、画像原点の三次元座標を示すXo欄132、Yo欄133、Zo欄134、並びに画像の基準座標系からの傾斜角度を示すω欄135、φ欄136、κ欄137が設けられている。   FIG. 3 is a screen diagram illustrating an example of the orientation result of the orientation calculation process. The orientation result screen diagram 100 includes a result list screen 102, a pass point screen 104, an orientation point screen 106, a calculated coordinate screen 108, an imaging situation and ground resolution screen 110. The shooting situation and ground resolution screen 110 is provided with a shooting situation of stereo images and a ground resolution display surface 120, and a camera position and tilt display surface 130. On the stereo image shooting status and ground resolution display surface 120, a pair name column 121, a baseline length B column 122, a shooting distance H column 123, a B / H ratio column 124, which display two pieces of image data forming a stereo pair, A plane resolution column 125 and a depth resolution column 126 are provided. The camera position and tilt display surface 130 includes an image name column 131, an Xo column 132 indicating the three-dimensional coordinates of the image origin, a Yo column 133, a Zo column 134, and a ω column indicating the tilt angle of the image from the reference coordinate system. 135, φ column 136, and κ column 137 are provided.

図2に戻り、三次元座標データ部31にてステレオ計測を行い、測定対象物1の三次元座標を求める(S50)。あるいは、ステレオ計測を行なわない場合でも、測定対象物位置データ記憶部16にステレオ画像の対応点の三次元座標を予め読み込んである場合には、三次元座標データ部31は測定対象物位置データ記憶部16から対応点の三次元座標を読み込む。ステレオ計測には、例えば本発明者の提案に掛かる特開2003−284098号公報に開示されているように、マニュアル計測、半自動計測、自動計測の各種モードが存在している。そこで、S40の標定計算処理結果に応じて、ステレオ計測では、立体視可能なステレオ(左右)画像を作成表示して、上述モードを利用して対応点の三次元座標を求める。自動計測モードで行う場合は、自動計測を行う計測領域を指定して自動計測を行う。マニュアル、半自動計測の場合は、左右のステレオ画面を観察しながら左右画像上の対応点を半自動もしくは、マニュアルにて対応している点をマウスにて確定しながら計測する。   Returning to FIG. 2, stereo measurement is performed in the three-dimensional coordinate data unit 31 to obtain the three-dimensional coordinates of the measurement object 1 (S 50). Alternatively, even when stereo measurement is not performed, when the three-dimensional coordinates of the corresponding points of the stereo image are read in advance into the measurement object position data storage unit 16, the three-dimensional coordinate data unit 31 stores the measurement object position data. The three-dimensional coordinates of the corresponding points are read from the unit 16. For stereo measurement, there are various modes of manual measurement, semi-automatic measurement, and automatic measurement as disclosed in, for example, Japanese Patent Laid-Open No. 2003-284098 proposed by the present inventor. Therefore, in stereo measurement, a stereo (right and left) image that can be viewed stereoscopically is created and displayed according to the orientation calculation processing result of S40, and the three-dimensional coordinates of the corresponding points are obtained using the above-described mode. When performing in the automatic measurement mode, automatic measurement is performed by specifying a measurement region for automatic measurement. In manual and semi-automatic measurement, while observing the left and right stereo screens, the corresponding points on the left and right images are measured semi-automatically or while the points corresponding to the manual are determined with the mouse.

図4は、ステレオ画像に対して実行されるステレオ計測の一例を説明する図面である。ここでは、ステレオ画像150の一例として神殿の遺跡を測定対象物1とし、左画像150Lと右画像150Rをステレオペアとしている。ここでは、左画像150Lを基準画像とし、左画像150Lの特徴点の座標を(X、Y)とする。すると、三次元座標データ部31は右画像150Rを探索画像として取扱い、左画像150Lの特徴点に対応する右画像150Rの対応点の座標は(X、Y)にて示される。 FIG. 4 is a diagram illustrating an example of stereo measurement performed on a stereo image. Here, as an example of the stereo image 150, a ruins of a temple is the measurement object 1, and the left image 150L and the right image 150R are a stereo pair. Here, the left image 150L is a reference image, and the coordinates of the feature points of the left image 150L are (X 1 , Y 1 ). Then, the three-dimensional coordinate data unit 31 treats the right image 150R as a search image, and the coordinates of the corresponding point of the right image 150R corresponding to the feature point of the left image 150L are indicated by (X 2 , Y 2 ).

図5は、ステレオ画像に対して実行されるステレオ計測の他の例を説明する図面である。ここでは、測定対象物1として神殿の遺跡の壁面に形成された水瓶運搬レリーフを採択している。測定対象物1のステレオ画像160としては、水瓶運搬レリーフの左画像160Lと右画像160Rをステレオペアとしている。ここでは、三次元座標データ部31は左画像160Lを基準画像とし、右画像150Rを探索画像として取扱っている。そして、左画像160Lの特徴点近傍の画像領域162Lと、右画像160Rの対応点近傍の画像領域162Rを抽出して、図6にて拡大表示している。   FIG. 5 is a diagram illustrating another example of stereo measurement performed on a stereo image. Here, a water bottle transport relief formed on the wall surface of the temple ruins is adopted as the measurement object 1. As the stereo image 160 of the measurement object 1, the left image 160L and the right image 160R of the water bottle transport relief are in a stereo pair. Here, the three-dimensional coordinate data unit 31 handles the left image 160L as a reference image and the right image 150R as a search image. Then, an image region 162L near the feature point of the left image 160L and an image region 162R near the corresponding point of the right image 160R are extracted and displayed in an enlarged manner in FIG.

図6は、特徴点近傍の画像領域162Lと対応点近傍の画像領域162Rの拡大図である。操作者が左画像150L(基準画像)の対応点を指示すると、対応点指示部22により右画像150R(探索画像)の指示位置近傍の特徴点に引き込まれる。指示位置近傍の特徴点として、ここでは水瓶運搬レリーフのコーナー位置を示している。   FIG. 6 is an enlarged view of the image area 162L near the feature point and the image area 162R near the corresponding point. When the operator designates a corresponding point of the left image 150L (reference image), the corresponding point instruction unit 22 is drawn into a feature point near the designated position of the right image 150R (search image). Here, the corner position of the water bottle transport relief is shown as a feature point near the indicated position.

図2に戻り、求められた三次元座標、あるいは読み込まれた三次元座標から、モデル形成部32にて測定対象物1のモデルを作成する(S60)。図7は、測定対象物1のモデルの一例を示す図で、ワイヤーフレーム面を示している。ここでは、測定対象物1として、神殿の遺跡の壁面に形成された水瓶運搬レリーフをステレオ画像170としている。水瓶運搬レリーフの左画像170Lと右画像170Rをステレオペアとしている。左右の領域指定枠線172L、172Rの内側に、ワイヤーフレーム面174L、174Rが形成されている。ワイヤーフレーム面174L、174Rを構成する単位画像面は、例えば隣接する3点の対応点を用いた三角形面や、隣接する4点の対応点を用いた矩形面が選択できる。このとき、測定対象物1のモデルの姿勢には、最初に作成された面の向きがデフォルト値として設定されている。   Returning to FIG. 2, the model forming unit 32 creates a model of the measuring object 1 from the obtained three-dimensional coordinates or the read three-dimensional coordinates (S60). FIG. 7 is a diagram illustrating an example of a model of the measurement object 1 and illustrates a wire frame surface. Here, the water bottle carrying relief formed on the wall surface of the temple ruins is used as the measurement object 1 as the stereo image 170. The left image 170L and the right image 170R of the water bottle transport relief are in a stereo pair. Wire frame surfaces 174L and 174R are formed inside the left and right region designation frame lines 172L and 172R. As the unit image surfaces constituting the wire frame surfaces 174L and 174R, for example, a triangular surface using three adjacent corresponding points or a rectangular surface using four adjacent corresponding points can be selected. At this time, the orientation of the surface created first is set as the default value for the orientation of the model of the measurement object 1.

図2に戻り、画像対応部34により、テクスチャマッピングしたい面を指定する(S70)。テクスチャマッピングとは、測定対象物1の二次元画像に立体感を表現するテクスチャを貼り付けることをいう。S70の処理は、ステレオ自動計測した場合は、S50で行った計測領域の指定とかねてもよい。次に、画像対応部34は、測定対象物1のステレオ画像とモデル形成部32によって形成されたモデルとを、標定部24で求められた対応点関係を用いてテクスチャマッピングする(S72)。テクスチャマッピングの詳細は、後で説明する。   Returning to FIG. 2, the image corresponding unit 34 designates a surface to be texture-mapped (S70). Texture mapping refers to pasting a texture expressing a three-dimensional effect on the two-dimensional image of the measurement object 1. The process of S70 may also be the measurement area designation performed in S50 when automatic stereo measurement is performed. Next, the image corresponding unit 34 texture maps the stereo image of the measurement target 1 and the model formed by the model forming unit 32 using the corresponding point relationship obtained by the orientation unit 24 (S72). Details of the texture mapping will be described later.

次に、モデル表示部35により、テクスチャマッピングされた画像をモデル画面上に表示する(S80)。モデル画面は、ステレオ画像から形成された立体感テクスチャ付き画像やテクスチャを除去した画像のように、斜視状態を表す測定対象物1の二次元画像である。S80での表示は、テクスチャマッピングされた画像だけでなく、ワイヤーフレーム画像や、3次元の点群(例えば3Dスキャナーで取得した点画像)、カメラ撮影位置や基準点位置を表示してもよい。また、モデル画面に表示される対象を、同時また切り替えて表示することにより、ステレオ画像計測結果と測定対象物1の撮影画像との確認が容易になる。   Next, the model display unit 35 displays the texture-mapped image on the model screen (S80). The model screen is a two-dimensional image of the measurement object 1 representing a perspective state, such as an image with a three-dimensional texture formed from a stereo image or an image from which the texture is removed. The display in S80 may display not only a texture-mapped image but also a wire frame image, a three-dimensional point group (for example, a point image acquired by a 3D scanner), a camera shooting position, and a reference point position. Further, by displaying the objects displayed on the model screen at the same time or by switching them, confirmation of the stereo image measurement result and the captured image of the measurement object 1 becomes easy.

図8は、立体感を表現するテクスチャをワイヤーフレームで表現した図である。ワイヤーフレーム画面180には、例えば測定対象物1の領域指定枠線182と、測定対象物1のワイヤーフレーム184が表示されている。ワイヤーフレーム184は、斜視状態を表す測定対象物1の二次元画像に貼り付けられる。   FIG. 8 is a diagram in which a texture expressing a three-dimensional effect is expressed by a wire frame. On the wire frame screen 180, for example, an area designation frame line 182 of the measurement object 1 and a wire frame 184 of the measurement object 1 are displayed. The wire frame 184 is affixed to the two-dimensional image of the measuring object 1 that represents a perspective state.

図9は、テクスチャマッピングの表示例で、測定対象物1を立体感テクスチャ付き画像で表示する場合を示している。テクスチャマッピング画面190には、モデル表示部35によって、例えば測定対象物1の領域指定枠線192と、立体感のあるテクスチャがマッピングされた測定対象物1の鳥瞰画像194が表示されている。測定対象物1の鳥瞰画像194は、斜視状態を表す測定対象物1の二次元画像として表示される。   FIG. 9 is a display example of texture mapping, and shows a case where the measurement object 1 is displayed as an image with a three-dimensional texture. On the texture mapping screen 190, for example, an area designation frame line 192 of the measurement object 1 and a bird's-eye view image 194 of the measurement object 1 on which a texture having a three-dimensional effect is mapped are displayed by the model display unit 35. The bird's-eye view image 194 of the measurement object 1 is displayed as a two-dimensional image of the measurement object 1 representing a perspective state.

図2に戻り、操作者は、マウスやキーボード等を利用して、姿勢指示部36によりワイヤーフレーム画面180やテクスチャマッピング画面190における測定対象物1の表示の向きを指示する(S90)。すると、座標変換部37が表示装置40に表示された測定対象物1の表示の向きを、姿勢指示部36により指示された向きに座標変換して、ワイヤーフレーム画面180やテクスチャマッピング画面190に表示する(S92)。操作者は、他の測定対象物1の表示の向きが存在するか判断し(S94)、YesであればS90に戻り、Noであれば終了とする(S96)。S90、S92のような測定対象物1の表示の向きを任意に指定できる機能によって、あらゆる角度から視点位置を変化させて計測結果や測定対象物1を表示装置40に表示させることで、操作者が視覚的に測定対象物1を確認することが可能となる。   Returning to FIG. 2, the operator instructs the display direction of the measurement object 1 on the wire frame screen 180 or the texture mapping screen 190 by the posture instruction unit 36 using a mouse, a keyboard, or the like (S90). Then, the coordinate conversion unit 37 converts the display direction of the measurement object 1 displayed on the display device 40 into the direction instructed by the posture instruction unit 36 and displays it on the wire frame screen 180 and the texture mapping screen 190. (S92). The operator determines whether the display direction of the other measurement object 1 exists (S94). If Yes, the process returns to S90, and if No, the process ends (S96). By displaying the measurement result and the measurement object 1 on the display device 40 by changing the viewpoint position from any angle by the function that can arbitrarily specify the display direction of the measurement object 1 such as S90 and S92, the operator can display the measurement result and the measurement object 1 on the display device 40. It is possible to visually confirm the measuring object 1.

[相互標定]
次に、標定部24で行なう相互標定について説明する。図10は、ステレオ画像におけるモデル座標系XYZとカメラ座標系xyzの説明図である。モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。
[Mutual orientation]
Next, the relative orientation performed by the orientation unit 24 will be described. FIG. 10 is an explanatory diagram of a model coordinate system XYZ and a camera coordinate system xyz in a stereo image. The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2.

まず、以下の共面条件式(1)により、左右カメラの位置を定めるのに必要とされるパラメータを求める。

Figure 2005165468
この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要ない。 First, parameters required to determine the positions of the left and right cameras are obtained by the following coplanar conditional expression (1).
Figure 2005165468
In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, it is not necessary to consider.

上述の条件にすると、共面条件式(1)は式(2)のように変形され、式(2)を解けば各パラメータが求まる。

Figure 2005165468
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(3)、(4)が成り立つ。
Figure 2005165468
Under the above conditions, the coplanar conditional expression (1) is transformed as shown in Expression (2), and each parameter can be obtained by solving Expression (2).
Figure 2005165468
Here, between the model coordinate system XYZ and the camera coordinate system xyz, the following coordinate transformation relational expressions (3) and (4) hold.
Figure 2005165468

これらの式を用いて、次の手順により、未知パラメータを求める。
(i)初期近似値は通常0とする。
(ii)共面条件式(2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を式(3)、(4)により求め、観測方程式をたてる。
(iii)最小二乗法を適用して、近似値に対する補正量を求める。
(iv)近似値を補正する。
(v)補正された近似値を用いて(ii)〜(v)までの操作を収束するまで繰り返す。
Using these equations, unknown parameters are obtained by the following procedure.
(I) The initial approximate value is normally 0.
(Ii) The coplanar conditional expression (2) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained from the expressions (3) and (4), and an observation equation is established.
(Iii) Applying the least square method, a correction amount for the approximate value is obtained.
(Iv) The approximate value is corrected.
(V) The operations from (ii) to (v) are repeated using the corrected approximate value until convergence.

続いて、標定部24による標定作業の詳細を説明する。標定には、マニュアル、半自動標定モード、自動標定モードの3モードが存在し、標定画像での対応点の配置状況に応じて適宜に選択する。図11は、マニュアルと半自動標定モードの標定作業のフローチャートである。まず、標定部24によって標定モードに入る(S100)。このとき、操作者は標定したい画像を指定しておく。この場合、画像の指定枚数に関して、特段の制限は存在しない。すると、表示装置40の画面上に、標定部24によって指定した測定対象物画像が表示される(S110)。   Next, details of the orientation work by the orientation unit 24 will be described. There are three modes of orientation, manual, semi-automatic orientation mode, and automatic orientation mode, and they are selected as appropriate according to the arrangement state of corresponding points in the orientation image. FIG. 11 is a flowchart of the orientation work in the manual and semi-automatic orientation modes. First, the orientation unit 24 enters the orientation mode (S100). At this time, the operator designates an image to be standardized. In this case, there is no particular limitation on the designated number of images. Then, the measurement object image designated by the orientation unit 24 is displayed on the screen of the display device 40 (S110).

操作者は、標定の設定を半自動標定モードかマニュアルに設定する(S120)。この場合、標定部24による標定作業のデフォルトとしてマニュアルを選択してもよい。また、半自動標定モードの場合は、重心検出モード、コーナー検出モードの双方があり、詳細は後で説明する。次に、操作者は、例えば図5や図6に示すように、画像の標定に使用する点を指定する(S130)。この場合、測定対象物1の左右画像上で対応する点を、対応点指示部22により指示する。マニュアルの場合は、マウスカーソルにて測定対象物1の左右画像上の対応点を、表示装置40の画像上で指定する。半自動標定モードの場合は、対応点近傍を指定することにより、対応点指示部22により対応点(重心もしくはコーナー)が特定される。そして、測定対象物1の左右画像上での対応点指定が終了したか判断し(S140)、NoであればS130に戻って対応点指定を継続し、Yesであれば戻しとする(S150)。   The operator sets the orientation setting to semi-automatic orientation mode or manual (S120). In this case, a manual may be selected as the default of the orientation work by the orientation unit 24. The semi-automatic orientation mode has both a gravity center detection mode and a corner detection mode, and details will be described later. Next, for example, as shown in FIGS. 5 and 6, the operator designates a point to be used for image orientation (S130). In this case, corresponding points on the left and right images of the measurement object 1 are instructed by the corresponding point instruction unit 22. In the case of a manual, the corresponding points on the left and right images of the measurement object 1 are designated on the image of the display device 40 with the mouse cursor. In the case of the semi-automatic orientation mode, the corresponding point (centroid or corner) is specified by the corresponding point instruction unit 22 by designating the vicinity of the corresponding point. Then, it is determined whether or not the corresponding point designation on the left and right images of the measurement object 1 has been completed (S140). If No, the corresponding point designation is continued by returning to S130, and if Yes, the corresponding point is returned (S150). .

以下、半自動標定モードのアルゴリズムについて説明する。図12は、測定対象物の特徴点に貼付するレトロターゲットの説明図である。レトロターゲット200は、中心位置202が明確に識別できる標点(ターゲット)で、同心円状に形成された内円部204と外円部206を有している。内円部204の明度を明るくし、外円部206の明度を暗くすることで、視認性を高めている。そこで、レトロターゲット200は、測定対象物1の重心やコーナーのように、位置決めに関して特に重要な特徴点に貼付される。なお、内円部204と外円部206の明度は、明暗のコントラストが逆でも良い。   Hereinafter, the algorithm of the semi-automatic orientation mode will be described. FIG. 12 is an explanatory diagram of a retro target attached to the feature point of the measurement object. The retro target 200 is a mark (target) whose center position 202 can be clearly identified, and has an inner circle portion 204 and an outer circle portion 206 formed concentrically. Visibility is enhanced by increasing the brightness of the inner circle portion 204 and decreasing the brightness of the outer circle portion 206. Therefore, the retro target 200 is affixed to feature points that are particularly important for positioning, such as the center of gravity and corners of the measurement object 1. In addition, the brightness of the inner circle part 204 and the outer circle part 206 may be reversed in contrast between light and dark.

図13は、半自動標定モードにおける重心検出のアルゴリズムを説明するフローチャートである。まず、予め測定対象物1の特徴点にレトロターゲット200を貼付しておく。あるいは、レトロターゲット200に代えて、測定対象物1上の輝度の高い特徴点を、対応点指示部22により指示してもよい。操作者は、表示装置40の画像上に表示された測定対象物1の画像(基準画像)上で、マウスカーソルにより対応点近傍を指定する(S200)。すると、対応点指示部22は、探索画像における対応点の近傍から、ターゲットの存在範囲を決定する(S210)。   FIG. 13 is a flowchart for explaining an algorithm for detecting the center of gravity in the semi-automatic orientation mode. First, the retro target 200 is pasted to the feature point of the measurement object 1 in advance. Alternatively, instead of the retro target 200, a feature point with high luminance on the measurement target 1 may be instructed by the corresponding point instruction unit 22. The operator designates the vicinity of the corresponding point with the mouse cursor on the image of the measurement object 1 (reference image) displayed on the image of the display device 40 (S200). Then, the corresponding point instruction | indication part 22 determines the presence range of a target from the vicinity of the corresponding point in a search image (S210).

図14はレトロターゲットを用いた重心位置検出の説明図で、(A1)は内円部の明度が暗いレトロターゲット、(A2)は(A1)のレトロターゲットの直径方向の明度分布図、(B1)は内円部の明度が明るいレトロターゲット、(B2)は(B1)のレトロターゲットの直径方向の明度分布図を示している。レトロターゲットが図14(A1)のように内円部の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図14(A2)のようになり、光量分布の閾値Tからレトロターゲットの内円部204や中心位置202を求めることが可能となる。   FIG. 14 is an explanatory diagram of the center-of-gravity position detection using a retro target, where (A1) is a retro target with a dark inner circle portion, (A2) is a light intensity distribution diagram in the diameter direction of the retro target of (A1), and (B1 ) Is a retro target with a bright lightness in the inner circle, and (B2) is a lightness distribution diagram in the diameter direction of the retro target of (B1). When the retro target has a bright inner circle as shown in FIG. 14 (A1), the reflected light amount at the center of gravity position in the captured image of the measuring object 1 is a bright portion, and the light amount distribution of the image is As shown in FIG. 14A2, it is possible to obtain the inner circle portion 204 and the center position 202 of the retro target from the threshold value T of the light amount distribution.

図13に戻り、S210にて測定対象物1の撮影状態が悪く、ターゲットの存在範囲が算出できない場合は、重心位置検出ができない為、エラー表示する(S215)。そして、S215からS250に飛び、対応点近傍の指定点を修正か判断し(S250)、YesであればS200に戻り、対応点近傍の指定点として他の点を計測点と指定する。S250でNoの場合は、マニュアル計測モードに切り替えて、他の特徴点に指定を切換えて、特徴点位置を計測し直す(S260)。   Returning to FIG. 13, if the imaging state of the measurement object 1 is poor and the target range cannot be calculated in S210, an error display is displayed because the center of gravity position cannot be detected (S215). Then, the process jumps from S215 to S250 to determine whether or not the designated point near the corresponding point is to be corrected (S250). If Yes, the process returns to S200 and designates another point as the designated point near the corresponding point as a measurement point. In the case of No in S250, the mode is switched to the manual measurement mode, the designation is switched to another feature point, and the feature point position is measured again (S260).

そして、標定部24又は対応点指示部22により、例えばモーメント法によって重心位置を算出する(S220)。例えば、図14の(A1)に表記されたレトロターゲット200の平面座標を(x、y)とする。そして、レトロターゲット200の明度が、しきい値T以上のx、y方向の点について、式(6)、(7)を演算する。
xg={Σx*f(x、y)}/Σf(x、y) …(6)
yg={Σy*f(x、y)}/Σf(x、y) …(7)
ここで、(xg、yg)は重心位置の座標、f(x、y)は(x、y)座標上の明度値である。なお、図14の(B1)に表記されたレトロターゲット200の場合は、明度がしきい値T以下のx、y方向の点について、上式(6)、(7)を演算する。
Then, the center of gravity position is calculated by, for example, the moment method by the orientation unit 24 or the corresponding point instruction unit 22 (S220). For example, the plane coordinates of the retro target 200 shown in (A1) of FIG. 14 are (x, y). Then, Expressions (6) and (7) are calculated for points in the x and y directions where the brightness of the retro target 200 is greater than or equal to the threshold value T.
xg = {Σx * f (x, y)} / Σf (x, y) (6)
yg = {Σy * f (x, y)} / Σf (x, y) (7)
Here, (xg, yg) is a coordinate of the center of gravity position, and f (x, y) is a lightness value on the (x, y) coordinate. In the case of the retro target 200 shown in (B1) of FIG. 14, the above equations (6) and (7) are calculated for points in the x and y directions whose brightness is equal to or less than the threshold value T.

そして、標定部24又は対応点指示部22は、S220で求められた対応点位置を画面上に表示する(S230)。S230で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に適合していれば、標定作業を終了して戻しとする(S240)。他方、S230で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に不適合であったり、或いは重心位置検出ができずエラー表示となった場合は上述のS250に飛ぶ。   The orientation unit 24 or the corresponding point instruction unit 22 displays the corresponding point position obtained in S220 on the screen (S230). If the corresponding point position displayed in S230 conforms to the case where the corresponding point position is applied to the operator or a predetermined criterion, the orientation work is terminated and returned (S240). On the other hand, if the corresponding point position displayed in S230 is incompatible when applied to the operator or a predetermined criterion, or if the center of gravity position cannot be detected and an error is displayed, the process jumps to S250 described above. .

図15は、半自動標定モードにおけるコーナー検出のアルゴリズムを説明するフローチャートである。コーナー検出のアルゴリズムは、測定対象物1の画像上で直線が交わるようなコーナーが存在する場合や、直交する直線を有するターゲットを測定対象物1に貼付してある場合に適用される。たとえば、測定対象物1が、ビルデングなどのような直線とコーナーが多数ある建造物の場合には、極めて有効となる。   FIG. 15 is a flowchart for explaining a corner detection algorithm in the semi-automatic orientation mode. The corner detection algorithm is applied when there is a corner where straight lines intersect on the image of the measurement object 1 or when a target having an orthogonal straight line is attached to the measurement object 1. For example, when the measuring object 1 is a building having many straight lines and corners such as a building, it is extremely effective.

操作者は、表示装置40の画像上に表示された測定対象物1の画像(基準画像)上で、対応点指示部22のマウスカーソルにより対応点近傍を指定する(S300)。すると、対応点指示部22は、基準画像の指定点並びに探索画像における対応点の近傍の探索領域(エリア)を自動設定する(S310)。この場合は特徴点検出がコーナー検出と指定されるので、測定対象物1の画像縮尺に応じて、デフォルトにて探索領域をあらかじめ定数として設定しておく。そして、標定部24又は対応点指示部22により、探索領域内のエッジ検出を行う(S320)。エッジ検出に関しては、例えばエッジ検出フィルターやLOGフィルタ(下述)が利用できるが、要するに画像処理において画像の縁検出に用いられる検出方式であればよい。   The operator designates the vicinity of the corresponding point with the mouse cursor of the corresponding point instruction unit 22 on the image (reference image) of the measurement object 1 displayed on the image of the display device 40 (S300). Then, the corresponding point instruction unit 22 automatically sets a designated point of the reference image and a search area (area) in the vicinity of the corresponding point in the search image (S310). In this case, since the feature point detection is designated as corner detection, the search area is set as a constant in advance by default according to the image scale of the measurement object 1. Then, edge detection in the search area is performed by the orientation unit 24 or the corresponding point instruction unit 22 (S320). As for edge detection, for example, an edge detection filter or a LOG filter (described below) can be used. However, any detection method used for image edge detection in image processing may be used.

エッジ検出の一例を、以下簡単に説明する。検出点を中心としてL×L画素の画像を対象画像とする。対象画像濃淡波形に、式(8)に示すガウス関数の二次微分であるラプラシアン・ガウシアン・フィルタ(LOGフィルタ)を施し、演算結果における曲線の2箇所のゼロ交差点、つまりエッジをサブピクセルで検出する。
2・G(x)=(x2−2σ2/2πσ6)・exp(−x2/2σ2)…(8)
ここで、σはガウス関数のパラメータである。
An example of edge detection will be briefly described below. An image of L × L pixels centering on the detection point is set as a target image. Apply Laplacian-Gaussian filter (LOG filter), which is the second derivative of the Gaussian function shown in equation (8), to the target image grayscale waveform, and detect two zero crossing points, that is, edges of the curve in the calculation result by subpixels To do.
2 · G (x) = (x 2 −2σ 2 / 2πσ 6 ) · exp (−x 2 / 2σ 2 ) (8)
Here, σ is a parameter of the Gaussian function.

続いて、対応点指示部22は検出されたエッジについて直線検出を行う(S330)。対応点指示部22又は操作者が、エッジの連続性をみて、もっとも連続性のある二つのエッジについて直線にフィッティングさせる。直線検出法はこれに限らずどのような方法を用いてもよい。そして、対応点指示部22は検出された2直線について、その交点を求める(S340)。そして、対応点指示部22は表示装置40の画像上に結果を表示する(S350)。コーナー検出された特徴点の結果が、操作者や予め定められた判断規範に当てはめた場合に適合するか否か判断する(S360)。S360でYesであれば、次の対応点が存在するか否か判断する(S380)。S380で次の対応点が存在する場合は、次の対応点を指定してS300に戻る。S380で次の対応点が存在しない場合は、コーナー検出処理を終了して戻しとする(S390)。   Subsequently, the corresponding point instruction unit 22 performs straight line detection on the detected edge (S330). The corresponding point designating unit 22 or the operator sees the continuity of the edges and fits two edges having the most continuity to a straight line. The straight line detection method is not limited to this, and any method may be used. And the corresponding point instruction | indication part 22 calculates | requires the intersection about two detected straight lines (S340). Then, the corresponding point instruction unit 22 displays the result on the image of the display device 40 (S350). It is determined whether or not the result of the feature point detected at the corner is suitable when the result is applied to an operator or a predetermined criterion (S360). If Yes in S360, it is determined whether there is a next corresponding point (S380). If there is a next corresponding point in S380, the next corresponding point is designated and the process returns to S300. If there is no next corresponding point in S380, the corner detection process is terminated and returned (S390).

S360でNoであれば、マウスカーソルにより対応点近傍の指定点を修正するか判断し(S370)、YesであればS300に戻って対応点近傍の指定点として他の点を計測点と指定する。S370でNoであれば、マニュアル計測モードに切り替えて計測し直す(S375)。   If No in S360, it is determined whether or not the designated point near the corresponding point is to be corrected with the mouse cursor (S370). If Yes, the process returns to S300 and designates another point as the designated point near the corresponding point. . If No in S370, the measurement is switched to the manual measurement mode and remeasured (S375).

次に自動測定の場合について説明する。図16は、自動標定モードのアルゴリズムを説明するフローチャートである。自動標定モードでは、予め測定対象物1の特徴点にレトロターゲット200(図12参照)を貼付しておく。次に、操作者は標定部24にて自動標定モードを設定する(S400)。すると、表示装置40の画像上に測定対象物画像が表示される(S410)。次に、対応点指示部22は、対応点の画像ひとつをテンプレートとして登録する(S420)。続いて、対応点指示部22は、測定対象画像上でテンプレート画像に登録した画像と同じレトロターゲット画像を探索する(S430)。この場合、テンプレートマッチングにより画像探索する。   Next, the case of automatic measurement will be described. FIG. 16 is a flowchart for explaining the algorithm of the automatic orientation mode. In the automatic orientation mode, the retro target 200 (see FIG. 12) is pasted on the feature point of the measurement object 1 in advance. Next, the operator sets an automatic orientation mode in the orientation unit 24 (S400). Then, the measurement object image is displayed on the image of the display device 40 (S410). Next, the corresponding point instruction unit 22 registers one corresponding point image as a template (S420). Subsequently, the corresponding point instruction unit 22 searches for the same retro target image as the image registered in the template image on the measurement target image (S430). In this case, an image search is performed by template matching.

ここで、テンプレートマッチングの詳細を説明する。テンプレートマッチングには、正規化相関法や残差逐次検定法(SSDA法)、その他各種の演算原理のものが存在している。テンプレートマッチングとして、残差逐次検定法を使用すれば処理が高速化できる。ここでは残差逐次検定法を説明する。   Here, the details of template matching will be described. Template matching includes a normalized correlation method, a residual sequential test method (SSDA method), and other various calculation principles. If a residual sequential test method is used as template matching, the processing can be speeded up. Here, the residual sequential test method will be described.

図17は残差逐次検定法における入力画像とテンプレート画像の説明図である。対応点指示部22に設けられた残差逐次検定法の遂行機能によって、N1×N1画素のテンプレート画像を、それより大きいM1×M1画素の入力画像内の探索範囲(M1−N1+1)上で動かす。テンプレート画像の位置は、例えば左上隅に設けられた代表点の入力画像における座標(a,b)によって表す。そして、対応点指示部22によってテンプレート画像の各移動位置における式(9)の残差R(a,b)を演算し、最小となる移動位置を求める。この残差R(a,b)が最小となる移動位置が、テンプレートマッチングにより求める画像の位置である。

Figure 2005165468
処理の高速化をはかるため、式(9)の加算において、R(a,b)の値が過去の残差の最小値を越えたら加算を打ち切り、次の画素座標(a,b)に移るよう計算処理を行うと良い。 FIG. 17 is an explanatory diagram of an input image and a template image in the residual sequential test method. By performing the residual sequential test method provided in the corresponding point designating unit 22, a template image of N1 × N1 pixels is converted to a larger search range (M1−N1 + 1) 2 in the input image of M1 × M1 pixels. move. The position of the template image is represented, for example, by coordinates (a, b) in the input image of the representative point provided at the upper left corner. Then, the corresponding point instruction unit 22 calculates the residual R (a, b) of Equation (9) at each movement position of the template image, and obtains the minimum movement position. The moving position where the residual R (a, b) is minimum is the position of the image obtained by template matching.
Figure 2005165468
In order to speed up the processing, in the addition of Expression (9), if the value of R (a, b) exceeds the minimum value of the past residual, the addition is aborted, and the process proceeds to the next pixel coordinate (a, b). It is better to perform a calculation process.

図16に戻り、S430で探索された全てのターゲットについて、さらに詳細に重心位置検出する(S440)。重心位置検出には、例えば前述したモーメント法等を利用するとよい。標定部24又は対応点指示部22は、S440で求められたターゲット位置を画面上に表示する(S450)。S450で表示された対応点位置が、操作者又は予め定められた判断規範に当てはめた場合に適合していれば、標定作業を終了して戻しとする(S460)。他方、S450で表示されたターゲット位置が、操作者又は予め定められた判断規範に当てはめた場合に不適合であったり、或いは重心位置検出ができずエラー表示となった場合は、半自動標定モード又はマニュアルモードに移行して、不適合なターゲット位置を修正する(S470)。   Returning to FIG. 16, the center-of-gravity positions are detected in more detail for all the targets searched in S430 (S440). For detecting the position of the center of gravity, for example, the moment method described above may be used. The orientation unit 24 or the corresponding point instruction unit 22 displays the target position obtained in S440 on the screen (S450). If the corresponding point position displayed in S450 conforms to the case where it is applied to the operator or a predetermined criterion, the orientation work is terminated and returned (S460). On the other hand, if the target position displayed in S450 is incompatible when applied to the operator or a predetermined criterion, or if the center of gravity position cannot be detected and an error is displayed, the semi-automatic orientation mode or manual The mode shifts to the non-conforming target position (S470).

[モデル画像作成]
次に、モデルにて用いられるモデル画像について説明する。モデル画像は、モデル形成部32、画像対応部34、モデル表示部35等で用いられる。図18はモデル画像の作成手順を説明するフローチャートである。まず、標定作業と標定計算処理で求められた座標を利用して、座標変換パラメータを求める。すなわち、標定作業により計測された画像座標と標定計算処理により算出された地上座標(モデル座標系の場合は、地上座標を仮に設定する)の対応づけを行ない、座標変換パラメータを求める(S500)。
[Create model image]
Next, model images used in the model will be described. The model image is used in the model forming unit 32, the image corresponding unit 34, the model display unit 35, and the like. FIG. 18 is a flowchart for explaining a model image creation procedure. First, coordinate transformation parameters are obtained using coordinates obtained by the orientation work and orientation calculation processing. That is, the image coordinates measured by the orientation work are associated with the ground coordinates calculated by the orientation calculation process (in the case of a model coordinate system, the ground coordinates are temporarily set) to obtain a coordinate conversion parameter (S500).

座標変換パラメータは次の3次の射影変換式(10)により求める。

Figure 2005165468
ここで、(x、y)は画像座標、(X、Y、Z)は地上座標、L1〜L11は未知変量である。3次の射影変換式(10)を、基準点のデータに基づき最小二乗法を用いて解くと、画像座標(x、y)と3次元座標(X、Y、Z)との関係を決定する各種変換パラメータを取得することができる。 The coordinate conversion parameter is obtained by the following cubic projective transformation formula (10).
Figure 2005165468
Here, (x, y) are image coordinates, (X, Y, Z) are ground coordinates, and L1 to L11 are unknown variables. When the cubic projective transformation equation (10) is solved using the least square method based on the reference point data, the relationship between the image coordinates (x, y) and the three-dimensional coordinates (X, Y, Z) is determined. Various conversion parameters can be acquired.

次に、モデル画像上の各画素(ピクセル)の地上座標を計算する(S510)。この処理では、モデル画像作成のために、モデル画像の画像座標(x、y)を地上座標(X、Y、Z)に変換するものである。地上座標(X、Y、Z)は、先に座標変換パラメータ算出処理のS500で求められた変換パラメータを用いて計算される。即ち、モデル画像の画像座標(x、y)に対応する地上座標(X、Y、Z)は、以下の式(11)で与えられる。このようにして、モデル画像上の各ピクセルの取得位置を求めることができる。

Figure 2005165468
ここで、(X、Y)は地上座標系でのモデル画像の左上の位置、(ΔX、ΔY)は地上座標系での1画素の大きさ(例:m/pixel)、(x、y)はモデル画像の画像座標、(X、Y、Z)は地上画像、係数a、b、c、dはある画像座標(x、y)を内挿する複数の基準点により形成される平面方程式の係数である。 Next, the ground coordinates of each pixel (pixel) on the model image are calculated (S510). In this process, the image coordinates (x, y) of the model image are converted to ground coordinates (X, Y, Z) in order to create a model image. The ground coordinates (X, Y, Z) are calculated using the conversion parameters previously obtained in S500 of the coordinate conversion parameter calculation process. That is, the ground coordinates (X, Y, Z) corresponding to the image coordinates (x, y) of the model image are given by the following equation (11). In this way, the acquisition position of each pixel on the model image can be obtained.
Figure 2005165468
Here, (X 0 , Y 0 ) is the upper left position of the model image in the ground coordinate system, and (ΔX, ΔY) is the size of one pixel in the ground coordinate system (eg, m / pixel), (x, y) is an image coordinate of the model image, (X, Y, Z) is a ground image, and coefficients a, b, c, and d are planes formed by a plurality of reference points that interpolate a certain image coordinate (x, y). Is the coefficient of the equation.

今度は、ステップS500で求めた変換パラメータを使用して、3次の射影変換式(10)により、ステップS520で求められた地上座標(X、Y、Z)に対応する画像座標(x、y)を計算する(S520)。このように求められた画像座標(x、y)から、該当する画像の地上座標(X、Y、Z)上の濃度値を取得する。この濃度値が、モデル画像上における2次元の位置(X、Y)のピクセルの濃度である。このように、地上座標上の位置(X、Y)に貼り付ける画像濃度を取得する。以上のような処理を、モデル画像のすべてのピクセルに対して行うことにより、画像貼付が行なわれる(S530)。   This time, using the transformation parameters obtained in step S500, the image coordinates (x, y) corresponding to the ground coordinates (X, Y, Z) obtained in step S520 by the cubic projective transformation equation (10). ) Is calculated (S520). From the image coordinates (x, y) thus determined, the density value on the ground coordinates (X, Y, Z) of the corresponding image is acquired. This density value is the density of the pixel at the two-dimensional position (X, Y) on the model image. In this manner, the image density to be pasted at the position (X, Y) on the ground coordinates is acquired. Image pasting is performed by performing the above processing on all the pixels of the model image (S530).

[視点を変えたモデル画像形成]
続いて、座標変換部37により遂行されるモデル画像の回転に関する演算原理を説明する。図2のS92で説明しているように、姿勢指示部36で測定対象物1のモデルの姿勢を指示すると、座標変換部37により座標変換してモデル表示部35で指示された姿勢に応じた測定対象物1の立体感テクスチャ付き画像を表示するので、測定対象物1の任意方向の立体感テクスチャ付き画像が得られる。そこで、視点をかえて見たモデル画像を作成する原理を説明する。この原理は、姿勢指示部36で指示された方向に座標変換部37にて座標系を回転させた後、モデル画像を形成させるものである。
[Model image formation with different viewpoints]
Next, the calculation principle relating to the rotation of the model image performed by the coordinate conversion unit 37 will be described. As described in S <b> 92 of FIG. 2, when the orientation of the model of the measuring object 1 is instructed by the orientation instructing unit 36, the coordinates are converted by the coordinate converting unit 37 and the orientation indicated by the model display unit 35 is determined. Since the image with the three-dimensional texture of the measurement object 1 is displayed, the image with the three-dimensional texture in any direction of the measurement object 1 is obtained. Therefore, the principle of creating a model image viewed from a different viewpoint will be described. This principle is to form a model image after rotating the coordinate system by the coordinate conversion unit 37 in the direction instructed by the posture instruction unit.

図19は、視点を変えたモデル画像形成の原理説明図である。図19に示すように、地上座標系のX、Y、Zをそれぞれの軸方向のω、φ、κに回転させることにより、視点を変えた地上座標系X’,Y’、Z’が得られる。そこで、視点を変えた地上座標系X’,Y’、Z’に対し、画像貼り付けを行い、モデル画像を作成する。   FIG. 19 is an explanatory diagram of the principle of model image formation with different viewpoints. As shown in FIG. 19, by rotating X, Y, and Z of the ground coordinate system to ω, φ, and κ in the respective axial directions, ground coordinate systems X ′, Y ′, and Z ′ with different viewpoints are obtained. It is done. Therefore, an image is pasted on the ground coordinate systems X ′, Y ′, and Z ′ whose viewpoint has been changed to create a model image.

以下に詳細に説明する。例えば、傾きのない地上座標X、Y、Zであらわされた対象物P(X,Y,Z)が、逆に傾きのある地上座標系X’、Y’、Z’(視点を変えた座標系)でとる座標をP’(X’,Y’,Z’)とすると、以下の式(12)〜(15)によりその座標を求めることができる。

Figure 2005165468
ここで回転行列Rには次の式(13)、(14)が成立している。
Figure 2005165468
ここで、(Xo,Yo,Zo)は投影中心の座標である。 This will be described in detail below. For example, an object P (X, Y, Z) represented by ground coordinates X, Y, Z without inclination is a ground coordinate system X ′, Y ′, Z ′ having inclinations (coordinates with different viewpoints). If the coordinates taken by the system) are P ′ (X ′, Y ′, Z ′), the coordinates can be obtained by the following equations (12) to (15).
Figure 2005165468
Here, the following equations (13) and (14) are established in the rotation matrix R.
Figure 2005165468
Here, (Xo, Yo, Zo) are the coordinates of the projection center.

また、回転行列Rの要素aij(i=1〜3、j=1〜3)は次の式(15)で表される。

Figure 2005165468
ここで座標変換して求められた各座標X’、Y’、Z’について、モデル画像形成処理を行なえば、視点を変えたモデル画像を得ることができる。 Further, an element a ij (i = 1 to 3, j = 1 to 3) of the rotation matrix R is expressed by the following equation (15).
Figure 2005165468
If a model image forming process is performed for each of the coordinates X ′, Y ′, and Z ′ obtained by the coordinate conversion, a model image with a different viewpoint can be obtained.

本発明の三次元画像表示装置によれば、画像対応部によって測定対象物のステレオ画像とモデル形成部によって形成されたモデルとを、標定部で求められた対応点関係を用いて対応付け、モデル表示部によって、モデルと対応付けられたステレオ画像を用いて、測定対象物の立体感テクスチャ付き画像を表示する構成としているので、ステレオ計測した3Dデータに対しても、立体視用の装置を用いて立体視を行なうことなく、3Dデータと測定対象物1の画像の確認が容易に行なえる。   According to the three-dimensional image display apparatus of the present invention, the stereo image of the measurement object and the model formed by the model forming unit are associated by the image corresponding unit using the corresponding point relationship obtained by the orientation unit, and the model Since the display unit is configured to display an image with a three-dimensional texture of a measurement object using a stereo image associated with a model, a stereoscopic device is also used for stereo measured 3D data. Thus, the 3D data and the image of the measurement object 1 can be easily confirmed without performing stereoscopic viewing.

また実施の形態のように、三次元画像表示装置としてPC(パソコン)のような情報処理プロセッサを搭載したコンピュータ、LCD(Liquid Crystal Display)モニタのような表示装置、並びにPCにインストールする三次元画像表示装置用のソフトウェア、並びに測定対象物のステレオ画像を撮影するデジタルカメラのような被校正撮影装置が存在すれば、ステレオ画像から取得した3D計測データを測定対象物の立体感テクスチャ付き画像と一体化して視覚化できる。そこで、従来ステレオ計測した3Dデータで必要とされていた、高価で精密な立体視用の装置を用いなくても、汎用で低価格のコンピュータとモニタ装置を用いて安価にシステム構築ができる。   Further, as in the embodiment, a computer having an information processing processor such as a PC (personal computer) as a three-dimensional image display device, a display device such as an LCD (Liquid Crystal Display) monitor, and a three-dimensional image installed on the PC If there is software for a display device and a photographic device to be calibrated such as a digital camera that shoots a stereo image of a measurement object, 3D measurement data acquired from the stereo image is integrated with an image with a three-dimensional texture of the measurement object. Can be visualized. Therefore, a system can be constructed at low cost by using a general-purpose and low-cost computer and monitor device without using an expensive and precise stereoscopic device that has been conventionally required for 3D data measured in stereo.

本発明の第1の実施の形態を説明する全体構成ブロック図である。1 is an overall configuration block diagram illustrating a first embodiment of the present invention. 図1に示す三次元画像表示装置の動作を説明するフローチャートである。3 is a flowchart for explaining the operation of the three-dimensional image display apparatus shown in FIG. 標定計算処理の標定結果の一例を説明する画面図である。It is a screen figure explaining an example of the orientation result of an orientation calculation process. ステレオ画像に対して実行されるステレオ計測の一例を説明する図面である。It is drawing explaining an example of the stereo measurement performed with respect to a stereo image. ステレオ画像に対して実行されるステレオ計測の他の例を説明する図面である。It is drawing explaining the other example of the stereo measurement performed with respect to a stereo image. 特徴点近傍の画像領域162Lと対応点近傍の画像領域162Rの拡大図である。It is an enlarged view of an image area 162L near the feature point and an image area 162R near the corresponding point. 測定対象物1のモデルの一例を示す図で、ワイヤーフレーム面を示している。It is a figure which shows an example of the model of the measuring object 1, and has shown the wire frame surface. 立体感を表現するテクスチャをワイヤーフレームで表現した図である。It is the figure which expressed the texture which expresses a three-dimensional feeling with the wire frame. テクスチャマッピングの表示例で、測定対象物1を立体感テクスチャ付き画像で表示する場合を示している。In the texture mapping display example, the measurement object 1 is displayed as an image with a three-dimensional texture. ステレオ画像におけるモデル座標系XYZとカメラ座標系xyzの説明図である。It is explanatory drawing of the model coordinate system XYZ and camera coordinate system xyz in a stereo image. マニュアルと半自動標定モードの標定作業のフローチャートである。It is a flowchart of the orientation work of a manual and semiautomatic orientation mode. 測定対象物の特徴点に貼付するレトロターゲットの説明図である。It is explanatory drawing of the retro target stuck on the feature point of a measurement object. 半自動標定モードにおける重心検出のアルゴリズムを説明するフローチャートである。It is a flowchart explaining the algorithm of the gravity center detection in semiautomatic orientation mode. レトロターゲットを用いた重心位置検出の説明図である。It is explanatory drawing of the gravity center position detection using a retro target. 半自動標定モードにおけるコーナー検出のアルゴリズムを説明するフローチャートである。It is a flowchart explaining the algorithm of the corner detection in semiautomatic orientation mode. 自動標定モードのアルゴリズムを説明するフローチャートである。It is a flowchart explaining the algorithm of automatic orientation mode. 残差逐次検定法における入力画像とテンプレート画像の説明図である。It is explanatory drawing of the input image and template image in a residual sequential test method. モデル画像の作成手順を説明するフローチャートである。It is a flowchart explaining the preparation procedure of a model image. 視点を変えたモデル画像形成の原理説明図である。It is a principle explanatory view of model image formation which changed a viewpoint.

符号の説明Explanation of symbols

1 測定対象物
10 測定対象物画像データ記憶部
12 ステレオ画像データ記憶部
16 測定対象物位置データ記憶部
22 対応点指示部
24 標定部
30 表示画像形成部
31 三次元座標データ部
32 モデル形成部
34 画像対応部
35 モデル表示部
40 表示装置
DESCRIPTION OF SYMBOLS 1 Measurement object 10 Measurement object image data storage part 12 Stereo image data storage part 16 Measurement object position data storage part 22 Corresponding point instruction | indication part 24 Orientation part 30 Display image formation part 31 Three-dimensional coordinate data part 32 Model formation part 34 Image correspondence unit 35 Model display unit 40 Display device

Claims (5)

測定対象物のステレオ画像を記憶するステレオ画像データ記憶部と;
前記ステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める標定部と;
前記標定部で求められた対応点関係から、前記測定対象物の対応点の三次元座標データを求める三次元座標データ部と;
前記対応点の三次元座標データから前記測定対象物のモデルを形成するモデル形成部と;
前記ステレオ画像データ記憶部に記憶された測定対象物のステレオ画像と、前記モデル形成部で形成されたモデルとを、前記標定部で求められた対応点関係を用いて対応付ける画像対応部と;
前記画像対応部により前記モデルと対応付けられたステレオ画像を用いて、前記測定対象物の立体感テクスチャ付き画像を表示するモデル表示部とを備える;
三次元画像表示装置。
A stereo image data storage unit for storing a stereo image of the measurement object;
An orientation unit that obtains a corresponding point relationship of the stereo image based on the photographing position and the inclination with respect to the stereo image;
A three-dimensional coordinate data unit for obtaining three-dimensional coordinate data of corresponding points of the measurement object from the corresponding point relationship obtained by the orientation unit;
A model forming unit that forms a model of the measurement object from the three-dimensional coordinate data of the corresponding points;
An image correspondence unit that associates the stereo image of the measurement object stored in the stereo image data storage unit with the model formed by the model formation unit using the corresponding point relationship obtained by the orientation unit;
A model display unit for displaying an image with a three-dimensional texture of the measurement object using a stereo image associated with the model by the image corresponding unit;
3D image display device.
さらに、前記測定対象物のモデルの姿勢を指示する姿勢指示部と;
前記モデルに対する姿勢指示に応じて、前記対応点の座標変換を行う座標変換部とを有し;
前記モデル表示部は、前記姿勢指示部で指示された姿勢に応じた前記測定対象物の立体感テクスチャ付き画像を表示することを特徴とする請求項1に記載の三次元画像表示装置。
A posture instructing unit for instructing a posture of the model of the measurement object;
A coordinate conversion unit that performs coordinate conversion of the corresponding points in response to an orientation instruction to the model;
The three-dimensional image display device according to claim 1, wherein the model display unit displays an image with a three-dimensional texture of the measurement object according to a posture instructed by the posture instruction unit.
前記画像対応部は、複数の前記対応点によって形成される単位画像面によって前記ステレオ画像を覆い、しかして前記単位画像面を用いて前記モデルと前記ステレオ画像を対応付けることを特徴とする請求項1又は請求項2に記載の三次元画像表示装置。   2. The image correspondence unit covers the stereo image by a unit image plane formed by a plurality of the corresponding points, and associates the model and the stereo image using the unit image plane. Or the three-dimensional image display apparatus of Claim 2. さらに、前記標定部で用いる対応点を指示する対応点指示部を有し;
当該対応点指示部は、前記ステレオ画像を表示する表示装置に表示される前記測定対象物に関して、指示位置近傍の特徴点を示すように構成されている請求項1乃至請求項3の何れか1項に記載の三次元画像表示装置。
And a corresponding point indicating unit for indicating a corresponding point used in the orientation unit;
The corresponding point indicating unit is configured to indicate a feature point in the vicinity of the specified position with respect to the measurement object displayed on the display device that displays the stereo image. The three-dimensional image display device according to item.
標定部によって測定対象物のステレオ画像に関する撮影位置と傾きに基づき、ステレオ画像の対応点関係を求める工程と;
三次元座標データ部によって、前記標定部で求められた対応点関係から、前記測定対象物の対応点の三次元座標データを求める工程と;
モデル形成部によって、前記対応点の三次元座標データから前記測定対象物のモデルを形成する工程と;
画像対応部によって、前記ステレオ画像データ記憶部に記憶された測定対象物のステレオ画像と、前記モデル形成部で形成されたモデルとを、前記標定部で求められた対応点関係を用いて対応付ける工程と;
モデル表示部によって、前記モデルと対応付けられたステレオ画像を用いて、前記測定対象物の立体感テクスチャ付き画像を表示する工程と;
をコンピュータに実行させる三次元画像表示方法。
Obtaining a corresponding point relationship of the stereo image based on the shooting position and inclination of the stereo image of the measurement object by the orientation unit;
Obtaining three-dimensional coordinate data of corresponding points of the measurement object from a corresponding point relationship obtained by the orientation unit by means of a three-dimensional coordinate data unit;
Forming a model of the measurement object from the three-dimensional coordinate data of the corresponding point by a model forming unit;
A step of associating the stereo image of the measurement object stored in the stereo image data storage unit with the model formed by the model forming unit using the corresponding point relationship obtained by the orientation unit by the image corresponding unit. When;
Displaying a three-dimensional textured image of the measurement object using a stereo image associated with the model by a model display unit;
3D image display method for causing a computer to execute.
JP2003400754A 2003-11-28 2003-11-28 Three-dimensional image display apparatus and method Expired - Lifetime JP4427305B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003400754A JP4427305B2 (en) 2003-11-28 2003-11-28 Three-dimensional image display apparatus and method
US10/995,524 US7746377B2 (en) 2003-11-28 2004-11-24 Three-dimensional image display apparatus and method
EP04028249A EP1536378B1 (en) 2003-11-28 2004-11-29 Three-dimensional image display apparatus and method for models generated from stereo images
AT04028249T ATE494604T1 (en) 2003-11-28 2004-11-29 METHOD AND DEVICE FOR THE THREE-DIMENSIONAL REPRESENTATION OF MODELS GENERATED FROM STEREO IMAGES
DE602004030881T DE602004030881D1 (en) 2003-11-28 2004-11-29 Method and device for the three-dimensional representation of models generated from stereo images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003400754A JP4427305B2 (en) 2003-11-28 2003-11-28 Three-dimensional image display apparatus and method

Publications (2)

Publication Number Publication Date
JP2005165468A true JP2005165468A (en) 2005-06-23
JP4427305B2 JP4427305B2 (en) 2010-03-03

Family

ID=34724898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003400754A Expired - Lifetime JP4427305B2 (en) 2003-11-28 2003-11-28 Three-dimensional image display apparatus and method

Country Status (1)

Country Link
JP (1) JP4427305B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282915A (en) * 2008-05-26 2009-12-03 Global Engineering Inc Temperature monitoring method for server computer and its device
JP2010060344A (en) * 2008-09-02 2010-03-18 Tokyu Construction Co Ltd Space information display device and support device
US9733080B2 (en) 2009-10-02 2017-08-15 Kabushiki Kaisha Topcon Wide-angle image pickup unit and measuring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282915A (en) * 2008-05-26 2009-12-03 Global Engineering Inc Temperature monitoring method for server computer and its device
JP2010060344A (en) * 2008-09-02 2010-03-18 Tokyu Construction Co Ltd Space information display device and support device
US9733080B2 (en) 2009-10-02 2017-08-15 Kabushiki Kaisha Topcon Wide-angle image pickup unit and measuring device

Also Published As

Publication number Publication date
JP4427305B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
EP1536378B1 (en) Three-dimensional image display apparatus and method for models generated from stereo images
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
US7777761B2 (en) Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
US7403268B2 (en) Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
JP4245963B2 (en) Method and system for calibrating multiple cameras using a calibration object
US7477359B2 (en) Method and apparatus for making and displaying measurements based upon multiple 3D rangefinder data sets
US20170142405A1 (en) Apparatus, Systems and Methods for Ground Plane Extension
JP2005215917A (en) Working drawing creation support method and replacement model creation method
US20050151963A1 (en) Transprojection of geometry data
KR20130138247A (en) Rapid 3d modeling
WO2015049853A1 (en) Dimension measurement device, dimension measurement method, dimension measurement system, and program
CN108474653A (en) Three-dimensional measuring apparatus and its measurement aid in treatment method
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP2005174151A (en) Three-dimensional image display device and method
JP2004030408A (en) Three-dimensional image display apparatus and display method
JP4409924B2 (en) Three-dimensional image display apparatus and method
JP4427305B2 (en) Three-dimensional image display apparatus and method
JP2005310044A (en) Apparatus, method and program for data processing
JP2000146546A (en) Method and apparatus for forming three-dimensional model
JP6545033B2 (en) Three-dimensional temperature distribution display
KR100991570B1 (en) A remote sensing method of diverse signboards&#39; Size and Apparatus using thereof
KR101489468B1 (en) camera image calibration apparatus and method based on homography calculation
CA2831664A1 (en) Stereoscopic measurement system and method
JP3052926B2 (en) 3D coordinate measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090825

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

R150 Certificate of patent or registration of utility model

Ref document number: 4427305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term