JP2012073520A - Stereoscopic image display processor, stereoscopic image display processing method, and program - Google Patents

Stereoscopic image display processor, stereoscopic image display processing method, and program Download PDF

Info

Publication number
JP2012073520A
JP2012073520A JP2010219787A JP2010219787A JP2012073520A JP 2012073520 A JP2012073520 A JP 2012073520A JP 2010219787 A JP2010219787 A JP 2010219787A JP 2010219787 A JP2010219787 A JP 2010219787A JP 2012073520 A JP2012073520 A JP 2012073520A
Authority
JP
Japan
Prior art keywords
image
display
data
stereo
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010219787A
Other languages
Japanese (ja)
Inventor
Yoshimichi Senda
良道 千田
Masanobu Kondo
雅信 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NAKANIHON KOKU KK
Original Assignee
NAKANIHON KOKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NAKANIHON KOKU KK filed Critical NAKANIHON KOKU KK
Priority to JP2010219787A priority Critical patent/JP2012073520A/en
Publication of JP2012073520A publication Critical patent/JP2012073520A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic image display processor, a stereoscopic image display processing method, and a program capable of providing a stereoscopy of a two-dimensional image by displaying a stereo pair image of the two-dimensional image on display means, and allowing a stereoscopic drawing on the stereo pair image by using operation means.SOLUTION: A stereo pair image display processor 100 displays a stereo pair image on a monitor 95. When drawing is made on one of a pair of images constituting the stereo pair image by an operation of an operating unit 94, respective arithmetic units 23-25 refer to three-dimensional coordinates of index data ID and calculate corresponding positions on the other image. Respective units 27-29 superimpose the drawing content on the corresponding positions. The drawing content that has a stereoscopic relationship with the drawing content of the one is thus drawn on the other image.

Description

本発明は、図又は写真の二次元画像を、平行法や交差法などにより裸眼で立体視が可能なステレオペア画像を表示する立体視画像表示処理装置、立体視画像表示処理方法及びプログラムに関する。   The present invention relates to a stereoscopic image display processing apparatus, a stereoscopic image display processing method, and a program for displaying a stereo pair image that can be stereoscopically viewed with a naked eye by using a parallel method, a crossing method, or the like.

従来より、ステレオペアをなす2枚の航空写真を並べて、平行法又は交差法などにより裸眼で航空写真を立体視(実体視)し、地滑りや活断層等を判読することが行われている。しかしながら、森林部においては植生下の地形を見ることができないため判読が困難である。例えば、規模の小さな地滑りでは、森林植生の下にあり、その変動量も小さいことから、現地における確認の有無や判読者の経験により精度が大きく異なる。また、航空写真に記載した判読結果を地図に書き写す作業(移写)においては、書き写しの際に位置を誤ったり、形状が変わったりする問題があった。また、写真の影の部分の判読が困難という問題もあった。   Conventionally, two aerial photographs forming a stereo pair are arranged side by side, and the aerial photographs are stereoscopically viewed (substantial view) with the naked eye by a parallel method or a crossing method, and landslides, active faults, and the like are read. However, in the forest part, it is difficult to interpret because the topography under vegetation cannot be seen. For example, a small-scale landslide is under a forest vegetation and its fluctuation amount is small, so the accuracy varies greatly depending on whether there is local confirmation or the reader's experience. In addition, in the work (transfer) of copying the interpretation result described in the aerial photograph to the map, there is a problem that the position is wrong or the shape is changed during the copying. There was also a problem that it was difficult to interpret the shadow part of the photo.

一方、航空レーザ測量は植生下の地形精度が良く、微地形の判読に有効な地形画像データを提供する。例えば地形の起伏などを紙面上に表現できるように、等高線や、標高に応じた段彩、凹凸に応じた陰影などの加工を施すことにより、等高線図、カラー段彩画像、陰影画像、傾斜勾配画像、赤色立体画像などの立体化させた地形画像(地形起伏図)も知られている(例えば特許文献1〜4等)。判読者に提供される地形画像データは正斜投影であり、判読結果は画像をトレースすることで地図へ直接移写することができる。   On the other hand, aerial laser surveying provides terrain image data with good terrain accuracy under vegetation and effective in interpreting fine terrain. For example, contour plots, color stepped images, shaded images, slope gradients can be created by processing contours, stepped colors according to altitude, shading according to unevenness, etc. so that terrain relief can be expressed on paper. Three-dimensional terrain images (terrain relief maps) such as images and red three-dimensional images are also known (for example, Patent Documents 1 to 4). The topographic image data provided to the reader is an orthographic projection, and the interpretation result can be directly transferred to the map by tracing the image.

しかし、加工されたデータは平面的なもの(2.5次元ともいえる)であり、起伏や傾斜などの高さ情報については、等高線や断面図より断片的に引用する必要があり、判読においては空間的な起伏把握能力が必要であり熟練を要していた。   However, the processed data is flat (which can be said to be 2.5 dimensional), and height information such as undulations and inclinations must be quoted in fragments from contour lines and cross-sectional views. The ability to grasp spatial undulations was necessary and skill was required.

例えば特許文献5には、ステレオ写真方式で必要な一対の段彩地図(ステレオペア画像)を表示し、判読者が平行法又は交差法による裸眼で画面上の段彩地図を立体視できる立体視地図表示装置が開示されている。詳しくは、第1の地図情報と、第1の地図情報を地物標高に応じて偏移させ、第1の地図情報との間で視差が生じるようにした第2の地図情報とを表示させる。画面に表示された表示窓中の第1の地図情報において指定手段でクリックした部分に対応する第2の地図情報の一部が、その表示窓の隣に出現した表示窓に表示される。   For example, Patent Document 5 displays a pair of stepped maps (stereo pair images) necessary for a stereo photography method, and allows a reader to stereoscopically view a stepped map on the screen with the naked eye by the parallel method or the intersection method. A map display device is disclosed. Specifically, the first map information and the second map information in which the first map information is shifted according to the feature altitude and the parallax is generated between the first map information and the first map information are displayed. . Part of the second map information corresponding to the part clicked by the designation means in the first map information in the display window displayed on the screen is displayed in the display window that appears next to the display window.

国際公開第2004/042675号パンフレットInternational Publication No. 2004/042675 Pamphlet 特開2006−72857号公報JP 2006-72857 A 特開2007−48185号公報JP 2007-48185 A 特開2008−242298号公報JP 2008-242298 A 特開2004−333993号公報(例えば明細書段落[0014]−[0018][0027][0033]等、図12、図15等)JP-A-2004-333993 (for example, paragraphs [0014]-[0018] [0027] [0033] of the specification, FIG. 12, FIG. 15, etc.)

しかしながら、特許文献5の立体視地図表示装置では、画面上で地図や地形図を立体視して地滑りや活断層などの判読結果を得ることができるものの、その判読結果は平面(2次元)の地図上に移写する必要は依然としてある。このため、判読結果の位置又は形状を間違って移写してしまう虞がある。もちろん、画面に表示されたステレオペア画像(地図)上に線などを描画できる描画機能を加えても、マウスなどを用いてカーソルを移動させて描画するので、ステレオペア画像のうち一方の画像(地図)にしか判読結果の線などを描画させることができない。この場合、平行法や交差法により裸眼で地図を立体視しながらその地図上に描画した線などは立体視できないという問題があった。そのため、地図を立体視しながら描画した場合、その描画した線が見えにくいという問題があった。   However, although the stereoscopic map display device of Patent Document 5 can obtain a result of interpretation such as a landslide or an active fault by stereoscopically viewing a map or a topographic map on a screen, the interpretation result is flat (two-dimensional). There is still a need to transfer on the map. For this reason, there is a possibility that the position or shape of the interpretation result may be transferred by mistake. Of course, even if you add a drawing function that can draw lines etc. on the stereo pair image (map) displayed on the screen, you can move the cursor using a mouse etc. and draw one of the stereo pair images ( Only the map) can draw lines of interpretation results. In this case, there is a problem that a line drawn on the map while stereoscopically viewing the map with the naked eye by the parallel method or the intersection method cannot be stereoscopically viewed. For this reason, when the map is drawn while stereoscopically viewed, the drawn line is difficult to see.

本発明は、上記の課題に着目してなされたものであって、その目的の一つは、表示手段に二次元画像のステレオペア画像が表示されることにより二次元画像の立体視が可能であるうえ、操作手段を用いてステレオペア画像に立体視可能に描画することができる立体視画像表示処理装置、立体視画像表示処理方法及びプログラムを提供することにある。   The present invention has been made paying attention to the above-mentioned problems, and one of the purposes is to display a stereoscopic pair image of a two-dimensional image on a display means, thereby enabling a stereoscopic view of the two-dimensional image. In addition, an object of the present invention is to provide a stereoscopic image display processing apparatus, a stereoscopic image display processing method, and a program capable of rendering a stereoscopic pair image so as to be stereoscopically visible using an operation unit.

上記目的を達成するために、本発明では、図又は写真の二次元画像を立体視可能なステレオペア画像を表示手段に表示させる立体視画像表示処理装置であって、表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示手段と、前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理手段と、前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理手段と、を備えたことを要旨とする。   In order to achieve the above object, the present invention provides a stereoscopic image display processing device for displaying on a display means a stereo pair image capable of stereoscopically viewing a two-dimensional image of a figure or a photograph, and displaying the stereo pair image on the display means. An image display means for displaying the first image and the second image that are arranged side by side; one of the first image and the second image whose position is designated by operation of the operation means is a reference image, and the other is a relative image In the case, the first drawing processing means for drawing at the first display position designated by the operation of the operation means, and the relative image that is stereoscopically related to the first display position of the reference image. The gist of the present invention is to provide a second drawing processing means for obtaining a second display position and drawing a drawing content corresponding to the drawing content at the first display position at the second display position.

この発明によれば、表示手段に二次元画像のステレオペア画像が表示されることにより二次元画像の立体視が可能であるうえ、操作手段を用いてステレオペア画像に立体視可能に描画することができる。   According to this invention, the stereoscopic pair image of the two-dimensional image is displayed on the display means, so that the stereoscopic view of the two-dimensional image is possible, and the stereoscopic image is drawn on the stereo pair image using the operation means. Can do.

本発明の立体視画像表示処理装置では、前記基準画像に前記描画内容として描画された描画線で規定される計測情報を取得する計測情報取得手段と、前記計測情報を前記第1画像と前記第2画像における立体視可能な各表示位置にそれぞれ表示させる第1表示処理手段とを更に備えていることが好ましい。   In the stereoscopic image display processing device of the present invention, measurement information acquisition means for acquiring measurement information defined by a drawing line drawn as the drawing content in the reference image, the measurement information as the first image and the first image It is preferable to further include first display processing means for displaying each of the display positions in the two images that can be stereoscopically viewed.

この発明によれば、操作手段で描画した描画線で規定される計測情報を、ステレオペア画像(第1画像と第2画像)に立体視可能に表示させることができる。
本発明の立体視画像表示処理装置では、前記操作手段により前記描画線の節として指定された点の座標に対応する標高値を取得し、前記標高値に基づき前記描画線で切断した断面形状を表示させる第2表示処理手段を更に備えていることが好ましい。この発明によれば、操作手段で描画線を描画すれば、その描画線で切断した断面形状を表示させることができる。
According to this invention, the measurement information defined by the drawing line drawn by the operation means can be displayed on the stereo pair image (first image and second image) so as to be stereoscopically viewed.
In the stereoscopic image display processing apparatus of the present invention, an elevation value corresponding to the coordinates of a point designated as a node of the drawing line is acquired by the operation means, and a cross-sectional shape cut by the drawing line based on the elevation value is obtained. It is preferable to further include second display processing means for displaying. According to the present invention, when a drawing line is drawn by the operation means, the cross-sectional shape cut by the drawing line can be displayed.

本発明の立体視画像表示処理装置では、前記描画線の三次元座標データを出力する出力手段を更に備えていることが好ましい。この発明によれば、操作手段で描画した描画線の三次元座標データを取得できる。   In the stereoscopic image display processing device of the present invention, it is preferable that the stereoscopic image display processing device further includes an output unit that outputs the three-dimensional coordinate data of the drawing line. According to this invention, the three-dimensional coordinate data of the drawing line drawn by the operating means can be acquired.

本発明の立体視画像表示処理装置では、前記表示手段に前記ステレオペア画像として表示される二次元画像の種類を切り替える切替手段を更に備えたことが好ましい。
この発明によれば、表示手段にステレオペア画像として表示される二次元画像の種類を切り替えることができる。例えば、二次元画像の種類を切り替え、複数種の二次元画像を立体視することにより、適切な判読結果が取得し易くなる。
In the stereoscopic image display processing apparatus of the present invention, it is preferable that the stereoscopic image display processing apparatus further includes a switching unit that switches a type of a two-dimensional image displayed as the stereo pair image on the display unit.
According to the present invention, the type of two-dimensional image displayed as a stereo pair image on the display means can be switched. For example, it is easy to acquire appropriate interpretation results by switching the types of two-dimensional images and stereoscopically viewing a plurality of types of two-dimensional images.

本発明の立体視画像表示処理装置では、前記基準画像を表示するための基準画像データと、前記基準画像データの画像座標と対応する三次元座標が規定された三次元座標データとを格納する格納手段を更に備え、前記第2の表示処理手段は、前記操作手段により前記基準画像において指定された点の画像座標に対応する三次元座標を、前記三次元座標データを参照して取得し、当該三次元座標に対応する前記相対画像における画像座標を求め、前記相対画像における当該画像座標に描画することが好ましい。   In the stereoscopic image display processing device of the present invention, the storage for storing the reference image data for displaying the reference image and the three-dimensional coordinate data in which the three-dimensional coordinates corresponding to the image coordinates of the reference image data are defined. The second display processing means acquires the three-dimensional coordinates corresponding to the image coordinates of the point designated in the reference image by the operation means with reference to the three-dimensional coordinate data, and It is preferable that image coordinates in the relative image corresponding to three-dimensional coordinates are obtained and drawn at the image coordinates in the relative image.

この発明によれば、基準画像で指定された画像座標と対応する相対画像における画像座標を、三次元座標データを介して求めれば、その相対画像の画像座標を立体視可能な関係にある画像座標として比較的簡単に求めることができる。   According to the present invention, if the image coordinates in the relative image corresponding to the image coordinates specified in the reference image are obtained through the three-dimensional coordinate data, the image coordinates of the relative image are in a stereoscopically viewable relationship. Can be obtained relatively easily.

本発明の立体視画像表示処理装置では、前記三次元座標データは前記基準画像の表示エリア毎に分けて格納されており、前記三次元座標データを用いて前記基準画像の画像解像度に等しい解像度の三次元地形座標データを再生する再生手段を更に備えたことが好ましい。この発明によれば、三次元座標データを用いて、簡易的に三次元地形座標データを再生できる。   In the stereoscopic image display processing apparatus of the present invention, the three-dimensional coordinate data is stored separately for each display area of the reference image, and the resolution of the reference image is equal to the image resolution using the three-dimensional coordinate data. It is preferable to further include reproducing means for reproducing the three-dimensional terrain coordinate data. According to the present invention, the three-dimensional terrain coordinate data can be easily reproduced using the three-dimensional coordinate data.

本発明は、図又は写真の二次元画像を立体視可能なステレオペア画像を表示手段に表示させる立体視画像表示処理方法であって、表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示段階と、前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理段階と、前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理段階と、を備えたことを要旨とする。この発明によれば、上記立体視画像表示処理装置に係る発明と同様の効果を得ることができる。   The present invention is a stereoscopic image display processing method for displaying on a display means a stereo pair image capable of stereoscopically viewing a two-dimensional image of a figure or a photograph, and a first image and a second image constituting the stereo pair image on the display means. An image display stage for displaying images side by side, and when one of the first image and the second image whose position is designated by operation of the operation means is a reference image and the other is a relative image, the operation of the operation means A first drawing processing stage for drawing at the first display position specified in step (b), and obtaining a second display position in the relative image that is stereoscopically related to the first display position of the reference image; A gist of the invention is that the second display position includes a second drawing process step of drawing the drawing content corresponding to the drawing content at the first display position. According to the present invention, it is possible to obtain the same effect as that of the invention according to the stereoscopic image display processing device.

本発明は、図又は写真の二次元画像を立体視可能なステレオペア画像を表示手段に表示させる立体視画像表示処理をコンピュータに実行させるプログラムであって、コンピュータに、表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示段階と、前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理段階と、前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理段階と、を実行させるためのプログラムである。この発明によれば、上記立体視画像表示処理装置に係る発明と同様の効果を得ることができる。   The present invention is a program for causing a computer to execute a stereoscopic image display process for causing a display means to display a stereo pair image capable of stereoscopically viewing a two-dimensional image of a figure or a photograph. The computer displays the stereo pair image on the display means. An image display step for displaying the first image and the second image that are arranged side by side; one of the first image and the second image, the position of which is designated by the operation of the operating means, is the reference image, and the other is the relative image In the case, the first drawing processing stage for drawing at the first display position designated by the operation of the operation means, and the relative image in a stereoscopic view relation with the first display position of the reference image. A program for obtaining a second display position, and causing the second display position to execute a second drawing process step of drawing the drawing contents corresponding to the drawing contents at the first display position. It is. According to the present invention, it is possible to obtain the same effect as that of the invention according to the stereoscopic image display processing device.

本発明によれば、表示手段に二次元画像のステレオペア画像が表示されることにより二次元画像の立体視が可能であるうえ、操作手段を用いてステレオペア画像に立体視可能に描画することができる、という優れた効果が得られる。   According to the present invention, a stereoscopic pair image of a two-dimensional image is displayed on the display means, so that a stereoscopic view of the two-dimensional image is possible and a stereoscopic view is rendered on the stereo pair image using the operation means. The excellent effect of being able to be obtained is obtained.

ステレオペア画像表示処理装置を備えたパーソナルコンピュータの模式図。The schematic diagram of the personal computer provided with the stereo pair image display processing apparatus. 航空レーザ測量の方法を説明する模式図。The schematic diagram explaining the method of an aerial laser surveying. ステレオペア画像作成装置とステレオペア画像表示処理装置との各機能構成を示すブロック図。The block diagram which shows each function structure of a stereo pair image creation apparatus and a stereo pair image display processing apparatus. ステレオペア画像作成装置の具体的な機能構成を示すブロック図。The block diagram which shows the specific function structure of a stereo pair image creation apparatus. 中心投影を説明する模式斜視図。The model perspective view explaining center projection. (a)〜(c)3種類のステレオペア画像データと三次元座標インデックスデータとを示す模式図。(A)-(c) The schematic diagram which shows three types of stereo pair image data and three-dimensional coordinate index data. 地形起伏図のステレオペア画像が表示された画面図。The screen figure on which the stereo pair image of the topographic relief map was displayed. 写真地図のステレオペア画像が表示された画面図。The screen figure on which the stereo pair image of the photograph map was displayed. 画像座標演算部及び三次元座標抽出部の処理内容を説明するブロック図。The block diagram explaining the processing content of an image coordinate calculating part and a three-dimensional coordinate extraction part. 立体視自動描画機能を実現するための処理を説明するブロック図。The block diagram explaining the process for implement | achieving a stereoscopic vision automatic drawing function. 標高がステレオペア画像上に表示された画面図。The screen figure in which the altitude was displayed on the stereo pair image. 計測線やポリゴンの立体視自動描画機能を説明するブロック図。FIG. 3 is a block diagram for explaining a function for automatically drawing a stereoscopic line of measurement lines and polygons. 立体視自動描画処理を示すフローチャート。The flowchart which shows a stereoscopic vision automatic drawing process. モードに応じた処理を示すフローチャート。The flowchart which shows the process according to a mode. 計測線と計測情報がステレオペア画像に重畳表示された画面図。The screen figure by which the measurement line and measurement information were superimposed and displayed on the stereo pair image. ポリゴンがステレオペア画像に重畳表示された画面図。The screen figure on which the polygon was superimposed and displayed on the stereo pair image. ポリゴンデータに基づくポリゴンが、CAD装置の地図画像に重畳表示された画面図。The screen figure on which the polygon based on polygon data was superimposed and displayed on the map image of a CAD apparatus. プロファイラモードで断面線が描画された画面図。The screen figure in which the section line was drawn in profiler mode.

以下、本発明を具体化した一実施形態を図1〜図18に基づいて説明する。
図1は、立体視画像表示処理装置の一例としてのステレオペア画像表示処理装置を備えたパーソナルコンピュータを示す。図1に示すように、パーソナルコンピュータ(以下、「PC90」という)は、本体91と、キーボード92及びマウス93よりなる操作部94と、表示手段の一例としてのモニタ95(表示装置)とを備えている。PC90の本体91には、図1に示すステレオペア画像表示処理装置100が内蔵されている。ステレオペア画像表示処理装置100は、モニタ95に交差法又は平行法による立体視(実体視)が可能な左右一対の画像(ステレオ画像)からなるステレオペア画像SG(図7,図8参照)を表示する。本体91内のマイクロコンピュータ(以下、単に「コンピュータ96」という)は、CPU97(中央処理装置)、RAM98及び記憶装置99を備えている。記憶装置99には、ステレオペア画像表示処理用のプログラムPRが記憶されている。本実施形態では、CPU97がこのプログラムPRを実行することにより、本体91内にステレオペア画像表示処理装置100が構築される。なお、プログラムPRは、CD−ROMやDVD等の記憶媒体からの読み込み、あるいはインターネット経由によるサーバ(図示せず)からのダウンロードにより、PC90にインストールされている。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS.
FIG. 1 shows a personal computer including a stereo pair image display processing device as an example of a stereoscopic image display processing device. As shown in FIG. 1, a personal computer (hereinafter referred to as “PC 90”) includes a main body 91, an operation unit 94 including a keyboard 92 and a mouse 93, and a monitor 95 (display device) as an example of display means. ing. The main body 91 of the PC 90 incorporates the stereo pair image display processing device 100 shown in FIG. The stereo pair image display processing device 100 displays on the monitor 95 a stereo pair image SG (see FIGS. 7 and 8) composed of a pair of left and right images (stereo images) that can be stereoscopically viewed (substantial view) by an intersection method or a parallel method. indicate. A microcomputer (hereinafter simply referred to as “computer 96”) in the main body 91 includes a CPU 97 (central processing unit), a RAM 98, and a storage device 99. The storage device 99 stores a program PR for stereo pair image display processing. In the present embodiment, the stereo pair image display processing device 100 is constructed in the main body 91 by the CPU 97 executing this program PR. The program PR is installed in the PC 90 by reading from a storage medium such as a CD-ROM or DVD or by downloading from a server (not shown) via the Internet.

図3は、ステレオペア画像作成装置とステレオペア画像表示処理装置との各機能構成を示すブロック図である。ステレオペア画像作成装置10は、PC90以外の他のPC内に設けられる。ステレオペア画像作成装置10は、ステレオペア画像表示処理装置100で使用されるステレオペア画像データSD及び三次元座標インデックスデータID(以下、単に「インデックスデータID」ともいう)を作成するためのものである。   FIG. 3 is a block diagram illustrating functional configurations of the stereo pair image creation device and the stereo pair image display processing device. The stereo pair image creation device 10 is provided in a PC other than the PC 90. The stereo pair image creation device 10 is for creating stereo pair image data SD and three-dimensional coordinate index data ID (hereinafter also simply referred to as “index data ID”) used in the stereo pair image display processing device 100. is there.

図3に示すステレオペア画像作成装置10は、一例として、数値標高データD1(例えばDEM(Digital Elevation Model)等)、写真地図データD2及び地理情報データD3等を基に、ステレオペア画像データSD及びインデックスデータIDを生成する。本実施形態のステレオペア画像作成装置10は、ステレオペア画像データSDとして、地形起伏図のステレオペア画像データSD1、写真地図のステレオペア画像データSD2及び地理情報のステレオペア画像データSD3の3種類を生成する。これら各データSD1,SD2,SD3を含むステレオペア画像データSD及びインデックスデータIDは、ステレオペア画像表示処理装置100に入力され、ステレオペア画像表示処理装置100内のバッファー20に格納(記憶)されている。そして、ステレオペア画像表示処理装置100は、図の一例である地形起伏図及び地理情報、写真の一例である写真地図などの二次元画像のステレオペア画像を表示する機能を有する。   As an example, the stereo pair image creation apparatus 10 shown in FIG. 3 is based on digital elevation data D1 (for example, DEM (Digital Elevation Model)), photographic map data D2, geographic information data D3, and the like. An index data ID is generated. The stereo pair image creation apparatus 10 of the present embodiment includes three types of stereo pair image data SD: stereo pair image data SD1 of a topographic relief map, stereo pair image data SD2 of a photographic map, and stereo pair image data SD3 of geographic information. Generate. The stereo pair image data SD and index data ID including these data SD1, SD2, and SD3 are input to the stereo pair image display processing device 100 and stored (stored) in the buffer 20 in the stereo pair image display processing device 100. Yes. The stereo pair image display processing apparatus 100 has a function of displaying a stereo pair image of a two-dimensional image such as a topographic relief map and geographic information as an example of a figure, and a photographic map as an example of a photograph.

ここで、ステレオペア画像作成装置10に入力されるデータD1〜D3等について説明する。数値標高データD1は、例えば図2に示すような航空レーザ測量を利用して取得される。図2に示すように、レーザ測量器201を搭載した航空機202により測量対象エリアの上空を飛行しながらレーザを地上へ発信するレーザスキャンを行い、その反射パルスを計測して航空レーザ測量データを取得する。航空機202はGPS衛星203から受信するGPS信号に基づく現在の測量位置の緯度・経度と、そのときの反射レーザの計測値に基づく標高Zとを取得し、緯度・経度に標高が対応付けられた三次元の航空レーザ測量データを取得する。この航空レーザ測量データから必要に応じて建物や樹木、車両等の地形形状を表さない地物を分離処理し、さらにモデリングして発生させたTIN(三角形網:Triangle Irregular Network)等から、所定距離(例えば0.1m〜50mの範囲内の所定値)メッシュの交点の標高Zを読み取って、数値標高データD1は生成される。もちろん、数値標高データD1は、空中写真測量、衛星画像による測量、レーダによる測量等から取得することもできる。   Here, data D1 to D3 and the like input to the stereo pair image creation device 10 will be described. The numerical elevation data D1 is acquired by using an aerial laser survey as shown in FIG. 2, for example. As shown in FIG. 2, an aircraft 202 equipped with a laser surveying instrument 201 performs a laser scan that emits a laser to the ground while flying over the survey target area, and measures the reflected pulse to obtain aviation laser survey data. To do. The aircraft 202 acquires the latitude / longitude of the current survey position based on the GPS signal received from the GPS satellite 203 and the altitude Z based on the measurement value of the reflected laser at that time, and the altitude is associated with the latitude / longitude. Acquire 3D aerial laser survey data. From this aviation laser survey data, features such as buildings, trees, vehicles, etc. that do not represent topographical shapes are separated, and modeled and generated from TIN (Triangle Irregular Network), etc. The numerical elevation data D1 is generated by reading the elevation Z at the intersection of the distance (for example, a predetermined value in the range of 0.1 m to 50 m) mesh. Of course, the digital elevation data D1 can also be obtained from aerial photogrammetry, satellite imagery, radar measurement, or the like.

このレーザ測量の際、航空機202はレーザスキャンを行いながらカメラ204により一定間隔(距離)毎に測量対象エリアのカラー写真を撮影する。このカラー写真データが写真地図データD2となる。このため、数値標高データD1と写真地図データD2はそれぞれエリアが対応関係にある。また、地理情報データD3は、地滑りや活断層などの地理情報がカラー表現された画像データである。   During this laser surveying, the aircraft 202 takes a color photograph of the survey target area at regular intervals (distances) by the camera 204 while performing laser scanning. This color photograph data becomes the photograph map data D2. For this reason, the numerical elevation data D1 and the photographic map data D2 have corresponding areas. The geographic information data D3 is image data in which geographic information such as landslides and active faults are expressed in color.

図4は、ステレオペア画像作成装置の具体的な機能構成を示す。図4に示すように、ステレオペア画像作成装置10は、第1作成部11、第2作成部12、中心投影変換部13、画像座標変換部14及びラスターデータ変換部15を備えている。   FIG. 4 shows a specific functional configuration of the stereo pair image creation apparatus. As shown in FIG. 4, the stereo pair image creation device 10 includes a first creation unit 11, a second creation unit 12, a central projection conversion unit 13, an image coordinate conversion unit 14, and a raster data conversion unit 15.

第1作成部11は、数値標高データD1を基に、標高に応じて地形の起伏状態が段彩表現(カラー表現)された地形起伏図の数値標高データD4を作成する。詳しくは、第1作成部11は、数値標高データD1に、標高Zに応じた色相を付与する段彩処理を施すと共に、凹凸度に応じた陰影(例えばグレイスケール)を施すことにより、数値標高座標(X,Y,Z)と色座標(R,G,B)とを含む地形起伏図の数値標高データD4を作成する。   The first creation unit 11 creates numerical elevation data D4 of a terrain relief map in which the undulation state of the terrain is expressed in stages (color representation) according to the elevation based on the digital elevation data D1. Specifically, the first creation unit 11 performs numerical gradation processing for applying a hue corresponding to the elevation Z to the numerical elevation data D1 and applying a shadow (for example, a gray scale) according to the degree of unevenness, thereby providing a numerical elevation. Numerical elevation data D4 of a topographic relief map including coordinates (X, Y, Z) and color coordinates (R, G, B) is created.

第2作成部12は、数値標高データD1に、写真地図データD2から取得した色情報(RGB)を付与し、数値標高座標(X,Y,Z)と色座標(R,G,B)とを含むカラー写真地図の数値標高データD5を作成する。また、第2作成部12は、数値標高データD1に、地理情報データD3から取得した色情報(RGB)を付与し、数値標高座標(X,Y,Z)と色座標(R,G,B)とを含むカラー地理情報の数値標高データD6を作成する。すなわち、第2作成部12は、色情報を有しない三次元座標(X,Y,Z)で表現される数値標高データD1の各格子点に、カラー画像データD2,D3から抽出した各格子点の色情報(RGB値)を付加して、カラー写真地図やカラー地理情報の色付き数値標高データD5,D6を作成する。このように数値標高データD4,D5,D6は、6次元座標(X,Y,Z,R,G,B)の画像データである。   The second creation unit 12 assigns color information (RGB) acquired from the photographic map data D2 to the digital elevation data D1, and provides digital elevation coordinates (X, Y, Z), color coordinates (R, G, B), and so on. The digital altitude data D5 of the color photographic map including is created. In addition, the second creating unit 12 assigns the color information (RGB) acquired from the geographic information data D3 to the numerical elevation data D1, and the numerical elevation coordinates (X, Y, Z) and the color coordinates (R, G, B). ) To create digital elevation data D6 of color geographic information. In other words, the second creation unit 12 adds each grid point extracted from the color image data D2 and D3 to each grid point of the numerical elevation data D1 expressed by the three-dimensional coordinates (X, Y, Z) having no color information. The color information (RGB values) is added to create colored numerical elevation data D5 and D6 for color photograph maps and color geographic information. Thus, the digital elevation data D4, D5, D6 are image data of 6-dimensional coordinates (X, Y, Z, R, G, B).

中心投影変換部13、画像座標変換部14及びラスターデータ変換部15は、RGB情報を有する6次元の数値標高データD4,D5,D6を基に、それぞれのステレオペア画像データSD1,SD2,SD3を生成する。すなわち、数値標高データD1から地形起伏図のステレオペア画像データSD1を生成し、写真地図データD2から写真地図のステレオペア画像データSD2を生成し、地理情報データD3から地理情報のステレオペア画像データSD3を生成する。ステレオペア画像データSD1,SD2,SD3は、それぞれ左目用ステレオ画像データLDと右目用ステレオ画像データRDの一対からなる。一対のステレオ画像データLD,RDは、所定割合(例えば50〜100%の範囲内の所定値)で重複(ラップ)する2つのエリアの画像が、表示対象エリア全域に亘って用意されている。2つのエリアの画像は、一方が左目の視線方向の角度から見た画像、他方が右目の視線方向の角度から見た画像となっている。   The central projection conversion unit 13, the image coordinate conversion unit 14, and the raster data conversion unit 15 convert the respective stereo pair image data SD1, SD2, SD3 based on the 6-dimensional numerical elevation data D4, D5, D6 having RGB information. Generate. That is, the stereo pair image data SD1 of the topographic relief map is generated from the digital elevation data D1, the stereo pair image data SD2 of the photographic map is generated from the photographic map data D2, and the stereo pair image data SD3 of the geographic information from the geographic information data D3. Is generated. The stereo pair image data SD1, SD2, SD3 is composed of a pair of left-eye stereo image data LD and right-eye stereo image data RD, respectively. In the pair of stereo image data LD and RD, images of two areas overlapping (wrapping) at a predetermined ratio (for example, a predetermined value within a range of 50 to 100%) are prepared over the entire display target area. The images of the two areas are an image viewed from the angle of the left eye and the other viewed from the angle of the right eye.

まず中心投影変換部13は、撮影基準位置を中心に左目用の対象エリアを中心投影し、その対象エリアを左目で見た画像に変換する。同様に、中心投影変換部13は、撮影基準位置を中心に右目用の対象エリアを中心投影し、その対象エリアを右目で見た画像に変換する。   First, the central projection conversion unit 13 centrally projects a target area for the left eye around the photographing reference position, and converts the target area into an image viewed with the left eye. Similarly, the central projection conversion unit 13 centrally projects a target area for the right eye around the photographing reference position, and converts the target area into an image viewed with the right eye.

図5は中心投影を説明する模式斜視図である。航空機202は、異なる二つの撮影位置でカメラ204(図2参照)により直下の地形を撮影する。このときの撮影位置が撮影基準位置SP1,SP2となる。   FIG. 5 is a schematic perspective view for explaining central projection. The aircraft 202 captures the terrain just below by the camera 204 (see FIG. 2) at two different capturing positions. The photographing position at this time is the photographing reference positions SP1 and SP2.

数値標高データD4,D5,D6において図5に示す2つエリアA1,A2を一部重複(ラップ)するように選択する。図5に示すように、エリアA1は四角形ABCDの矩形エリアであり、エリアA2はエリアA1に一部重複(ラップ)する四角形EFGHの矩形エリアである。撮影基準位置SP1を中心にエリアA1を右目視方向へ中心投影する演算を行って、右目用ステレオ画像データRD(図5における四角形abcd)を生成する。また、撮影基準位置SP2を中心にエリアA2を左目視方向へ中心投影する演算を行って、左目用ステレオ画像データLD(図5における四角形efgh)を生成する。これら右目用ステレオ画像RGと左目用ステレオ画像LGの重複範囲(範囲e’f’cdと範囲efc’d’)が、平行法(又は交差法)で立体視可能な範囲となる。   In the numerical elevation data D4, D5, and D6, the two areas A1 and A2 shown in FIG. 5 are selected so as to partially overlap (wrap). As shown in FIG. 5, the area A1 is a rectangular area of a rectangular ABCD, and the area A2 is a rectangular area of a rectangular EFGH that partially overlaps (wraps) the area A1. A calculation for center-projecting the area A1 in the right viewing direction around the photographing reference position SP1 is performed to generate right-eye stereo image data RD (rectangle abcd in FIG. 5). Further, a calculation for center-projecting the area A2 in the left viewing direction centering on the photographing reference position SP2 is performed to generate left-eye stereo image data LD (rectangle efgh in FIG. 5). The overlapping range (range e′f′cd and range efc′d ′) of the right-eye stereo image RG and the left-eye stereo image LG is a range that can be stereoscopically viewed by the parallel method (or the intersection method).

図4に示す中心投影変換部13は、数値標高データD4,D5,D6から選択された図5に示す2つのエリアA1,A2をそれぞれ右目用と左目用に中心投影する公知の演算を行って、右目用ステレオ画像データRDと左目用ステレオ画像データLDとを含む3種類のステレオペア画像データD7,D8,D9を生成する。このステレオペア画像データD7,D8,D9は、色座標(R,G,B)と数値標高座標(X,Y,Z)とを含む6次元データからなる。   The central projection conversion unit 13 shown in FIG. 4 performs a known calculation for centrally projecting the two areas A1 and A2 shown in FIG. 5 selected from the digital elevation data D4, D5, and D6 for the right eye and the left eye, respectively. Then, three types of stereo pair image data D7, D8, and D9 including the right-eye stereo image data RD and the left-eye stereo image data LD are generated. The stereo pair image data D7, D8, D9 is composed of 6-dimensional data including color coordinates (R, G, B) and numerical elevation coordinates (X, Y, Z).

画像座標変換部14は、ステレオペア画像データD7,D8,D9を、数値標高座標(X,Y,Z)で示される三次元座標系からモニタ表示用の画像座標系へ座標変換し、RGB画像データからなるステレオペア画像データD10,D11,D12を生成する。また、画像座標変換部14は、ステレオペア画像データD10,D11,D12の画像座標と対応する東西座標X(例えば経度)、南北座標Y(例えば緯度)及び標高値Zをそれぞれ生成する。   The image coordinate conversion unit 14 converts the stereo pair image data D7, D8, and D9 from the three-dimensional coordinate system indicated by the numerical elevation coordinates (X, Y, Z) to the image coordinate system for monitor display, thereby obtaining an RGB image. Stereo pair image data D10, D11, D12 consisting of data is generated. Further, the image coordinate conversion unit 14 generates an east-west coordinate X (for example, longitude), a north-south coordinate Y (for example, latitude), and an altitude value Z corresponding to the image coordinates of the stereo pair image data D10, D11, and D12.

ラスターデータ変換部15は、ステレオペア画像データD10,D11,D12、東西座標、南北座標、標高値を、ラスターデータに変換する。こうして地形起伏図と写真地図と地理情報の各ステレオペア画像データSD1,SD2,SD3が生成される。また、ラスターデータ変換部15は、ラスター変換後の東西座標データED、南北座標データND、標高データZDを含む三次元座標インデックスデータIDを生成する。   The raster data conversion unit 15 converts the stereo pair image data D10, D11, D12, the east-west coordinate, the north-south coordinate, and the elevation value into raster data. In this way, the stereo pair image data SD1, SD2, SD3 of the topographic relief map, the photo map, and the geographic information are generated. The raster data converter 15 also generates a three-dimensional coordinate index data ID including the east-west coordinate data ED, the north-south coordinate data ND, and the elevation data ZD after the raster conversion.

図6は、3種類のステレオペア画像データと三次元座標インデックスデータとを示す。図6(a)は、地形起伏図のステレオペア画像データSD1と、これに対応する三次元座標インデックスデータID1である。地形起伏図のステレオペア画像データSD1は、左目用ステレオ画像データLDと右目用ステレオ画像データRDとの一対からなる。三次元座標インデックスデータID1は、一対のステレオ画像のうち基準画像となる左目用ステレオ画像データLDの画像座標と座標が対応付けられた東西座標データED、南北座標データND、標高データZDを含む。このため、ステレオ画像データLD中の座標が指定されると、東西座標データED中のその指定座標と対応する座標の値から経度Xを取得でき、南北座標データND中のその指定座標と対応する座標の値から緯度Yを取得でき、さらに標高データZD中のその指定座標と対応する座標の値から標高Zを取得できる。   FIG. 6 shows three types of stereo pair image data and three-dimensional coordinate index data. FIG. 6A shows stereo pair image data SD1 of the topographic relief map and three-dimensional coordinate index data ID1 corresponding thereto. The stereo pair image data SD1 of the topographic relief map is composed of a pair of left-eye stereo image data LD and right-eye stereo image data RD. The three-dimensional coordinate index data ID1 includes east-west coordinate data ED, north-south coordinate data ND, and altitude data ZD in which the image coordinates and coordinates of the left-eye stereo image data LD serving as the reference image among the pair of stereo images are associated. For this reason, when the coordinates in the stereo image data LD are designated, the longitude X can be acquired from the coordinate value corresponding to the designated coordinates in the east-west coordinate data ED, and the coordinates corresponding to the designated coordinates in the north-south coordinate data ND are obtained. The latitude Y can be acquired from the coordinate value, and the elevation Z can be acquired from the coordinate value corresponding to the designated coordinate in the elevation data ZD.

また、図6(b)は、写真地図のステレオペア画像データSD2と、これに対応する三次元座標インデックスデータID2であり、図6(c)は、地理情報のステレオペア画像データSD3と、これに対応する三次元座標インデックスデータID3である。写真地図及び地理情報の各ステレオペア画像データSD2,SD3は、それぞれ左目用ステレオ画像データLDと右目用ステレオ画像データRDとの一対からなる。また、三次元座標インデックスデータID2,ID3は、それぞれの左目用ステレオ画像データLDの画像座標と座標が対応付けられた東西座標データED、南北座標データND、標高データZDを含む。このため、ステレオ画像データLD中の画像座標が指定されると、インデックスデータID2,ID3を参照することで、その指定座標に対応する経度X・緯度Y・標高Zを取得できるようになっている。もちろん、右目用ステレオ画像を基準画像とし、これと各データED,ND,ZDの座標とを対応付けてもよい。さらに左目用と右目用の各ステレオ画像データにそれぞれ対応する一対のインデックスデータIDを設け、どちらのステレオ画像上で位置を指定しても、その指定点に対応する三次元座標(X,Y,Z)を取得できるようにしてもよい。また、ステレオペア画像データSD1,SD2,SD3に共通の1つのインデックスデータIDのみとし、小さなデータ量としてもよい。   FIG. 6B shows stereo pair image data SD2 of the photo map and the corresponding three-dimensional coordinate index data ID2, and FIG. 6C shows stereo pair image data SD3 of the geographic information and this. Is the three-dimensional coordinate index data ID3 corresponding to. Each stereo pair image data SD2 and SD3 of the photographic map and geographic information is composed of a pair of left-eye stereo image data LD and right-eye stereo image data RD. The three-dimensional coordinate index data ID2 and ID3 include east-west coordinate data ED, north-south coordinate data ND, and altitude data ZD in which the image coordinates and coordinates of the left-eye stereo image data LD are associated with each other. For this reason, when the image coordinates in the stereo image data LD are designated, the longitude X, latitude Y, and altitude Z corresponding to the designated coordinates can be acquired by referring to the index data ID2 and ID3. . Of course, the stereo image for the right eye may be used as a reference image, and this may be associated with the coordinates of the data ED, ND, and ZD. Further, a pair of index data IDs respectively corresponding to the left-eye and right-eye stereo image data are provided, and the position on either stereo image is designated by the three-dimensional coordinates (X, Y, Z) may be acquired. Further, only one index data ID common to the stereo pair image data SD1, SD2, and SD3 may be used, and a small amount of data may be used.

次に、ステレオペア画像表示処理装置100についてその詳細を説明する。図3に示すように、ステレオペア画像表示処理装置100は、主制御部21、画像切替え部22、画像座標演算部23、三次元座標抽出部24、ステレオ用画像座標演算部25、計測情報演算部26、ベクトル生成部27、重畳処理部28、表示処理部29、ベクトル化部30、出力部31、断面線演算部32、三次元再生部33及び印刷出力部34を備えている。   Next, details of the stereo pair image display processing apparatus 100 will be described. As shown in FIG. 3, the stereo pair image display processing apparatus 100 includes a main control unit 21, an image switching unit 22, an image coordinate calculation unit 23, a three-dimensional coordinate extraction unit 24, a stereo image coordinate calculation unit 25, and a measurement information calculation. A unit 26, a vector generation unit 27, a superimposition processing unit 28, a display processing unit 29, a vectorization unit 30, an output unit 31, a section line calculation unit 32, a three-dimensional reproduction unit 33, and a print output unit 34.

ステレオペア画像表示処理装置100は、バッファー20(メモリー)に記憶された画面表示用画像データGD(図示省略)とステレオペア画像データSDとを基に、図7に示すステレオペア画像表示用の画面40をモニタ95に表示する(ステレオペア画像表示機能)。詳しくは、主制御部21がデータGD,SDを基に生成した画面用の画像データを表示処理部29へ送り、表示処理部29にこの画像データに基づく画面40を表示させる。   The stereo pair image display processing device 100 displays the screen for displaying the stereo pair image shown in FIG. 7 based on the screen display image data GD (not shown) and the stereo pair image data SD stored in the buffer 20 (memory). 40 is displayed on the monitor 95 (stereo pair image display function). Specifically, the main control unit 21 sends image data for the screen generated based on the data GD and SD to the display processing unit 29, and causes the display processing unit 29 to display the screen 40 based on the image data.

ここで、画面40の詳細を説明する。図7に示すように、画面40の中央やや左寄りの位置には、左目用ステレオ画像データLDに基づく左目用ステレオ画像LGが表示される第1表示領域41と、右目用ステレオ画像データRDに基づく右目用ステレオ画像RGが表示される第2表示領域42とが左右に並んで配置されている。画面40において各表示領域41,42の下側位置には、カーソル位置に相当する点の画像座標(x、y)と測地座標(X,Y,Z)とが表示される。なお、本実施形態では、一例として、左目用ステレオ画像LGが第1画像(基準位置)に相当し、右目用ステレオ画像RGが第2画像(相対画像)に相当する。なお、本実施形態では、主制御部21が、画面40を表示させることにより、ステレオペア画像SGを構成する左目用ステレオ画像LGと右目用ステレオ画像RGとを並べて表示させる処理が、画像表示段階に相当する。   Here, details of the screen 40 will be described. As shown in FIG. 7, at the position slightly to the left of the center of the screen 40, the first display area 41 in which the left-eye stereo image LG based on the left-eye stereo image data LD is displayed and the right-eye stereo image data RD are used. A second display area 42 on which the right-eye stereo image RG is displayed is arranged side by side. On the screen 40, the image coordinates (x, y) and geodetic coordinates (X, Y, Z) of the point corresponding to the cursor position are displayed at the lower position of each display area 41, 42. In the present embodiment, as an example, the left-eye stereo image LG corresponds to the first image (reference position), and the right-eye stereo image RG corresponds to the second image (relative image). In the present embodiment, the main control unit 21 displays the screen 40 to display the left-eye stereo image LG and the right-eye stereo image RG that constitute the stereo pair image SG side by side in the image display stage. It corresponds to.

画面40の上部に設けられたチェックボックス43〜46の選択によって、「連動ロック」、「地形スナップ」、「計測」、「ポリゴン描画」の各モードが選択される。また、画面40中には、描画データや計測データなどのデータの保存先を指定する保存先指定部47、ステレオペア画像SGの種類を変更する(切り替える)ための画像変更ボタン48、表示領域41,42内のステレオ画像LG,RGを上下左右に移動させるための移動ボタン49が設けられている。移動ボタン49は、本例では、上ボタン49A、下ボタン49B、前ボタン49C(左ボタン)及び次ボタン49D(右ボタン)が備えられ、ステレオ画像LG,RGを上下左右4方向へ移動させることが可能となっている。また、画面40中には確定や終了の指示を行うための確定ボタン50(終了ボタン)、ステレオ画像LG,RGを拡大させるための拡大ボタン51、ステレオ画像LG,RGを縮小させるための縮小ボタン52が設けられている。さらに画面40には、インデックスデータIDから簡易の数値標高データ(三次元地形座標データ)を再生して出力させる「簡易3Dデータ」出力ボタン(以下、単に「出力ボタン53」と称す)が設けられている。また、画面40の下部には、プロファイラモードを選択するためのチェックボックス54が設けられている。   By selecting check boxes 43 to 46 provided at the upper part of the screen 40, modes of “interlocking lock”, “terrain snap”, “measurement”, and “polygon drawing” are selected. Further, in the screen 40, a storage destination designating unit 47 for designating a storage destination of data such as drawing data and measurement data, an image change button 48 for changing (switching) the type of the stereo pair image SG, and a display area 41 , 42 is provided with a moving button 49 for moving the stereo images LG, RG up, down, left and right. In this example, the movement button 49 includes an up button 49A, a down button 49B, a front button 49C (left button), and a next button 49D (right button), and moves the stereo images LG and RG in four directions, up, down, left, and right. Is possible. Also, in the screen 40, a confirmation button 50 (end button) for instructing confirmation and termination, an enlargement button 51 for enlarging the stereo images LG, RG, and a reduction button for reducing the stereo images LG, RG. 52 is provided. Further, the screen 40 is provided with a “simple 3D data” output button (hereinafter simply referred to as “output button 53”) for reproducing and outputting simple numerical elevation data (three-dimensional terrain coordinate data) from the index data ID. ing. A check box 54 for selecting a profiler mode is provided at the bottom of the screen 40.

ここで、各種のモードについて説明する。「連動ロック」モードとは、左右のステレオ画像LG,RGを連動させるモードである。「地形スナップ」モードとは、カーソル近くの地形特徴点(山頂や谷底など)にカーソルを自動で移動させるモードである。「計測」モードとは、カーソルを移動させて地形起伏図や写真地図などのステレオ画像上に描画した線分の両端二点間の累積距離L、高度差H、方位角α、傾斜角θ(傾斜度)、さらに描画した領域の面積Sなどを含む計測値(計測情報)を表示させるモードである(図15参照)。「ポリゴン描画」モードとは、複数点を指定して経路線や多角形などを含むポリゴンをステレオ画像上に描画させるモードである。このモードでポリゴンを描画すれば、そのポリゴンデータのファイルの出力が可能である。また、「プロファイラ」モードとは、ステレオ画像上で描画した線に沿って切断した断面図(地形の断面線56)を、別表示領域(プロファイラ表示領域55)に表示させるモードである(図18参照)。   Here, various modes will be described. The “linked lock” mode is a mode in which the left and right stereo images LG and RG are linked. The “terrain snap” mode is a mode in which the cursor is automatically moved to a terrain feature point (such as a mountain top or a valley bottom) near the cursor. The “measurement” mode is a cumulative distance L between two points on a line segment drawn on a stereo image such as a terrain relief map or a photographic map by moving the cursor, an altitude difference H, an azimuth angle α, an inclination angle θ ( This is a mode for displaying a measured value (measurement information) including (inclination) and the area S of the drawn region (see FIG. 15). The “polygon drawing” mode is a mode for designating a plurality of points and drawing a polygon including a route line or a polygon on a stereo image. If a polygon is drawn in this mode, the polygon data file can be output. The “profiler” mode is a mode in which a sectional view (terrain sectional line 56) cut along a line drawn on a stereo image is displayed in another display area (profiler display area 55) (FIG. 18). reference).

本実施形態では、左目用ステレオ画像LGが基準画像であり、「計測」・「ポリゴン描画」などの描画が可能なモードにおいて、マウス93を操作して基準画像上で移動させたカーソルの移動軌跡に沿った線やポリゴンなどの図形要素を描画することが可能になっている。そして、一方のステレオ画像(例えば左目用ステレオ画像LG)上に図形要素を描画すると、他方のステレオ画像(例えば右目用ステレオ画像RG)上にそれと同じ図形要素が立体視可能な表示位置に自動描画されるようになっている(立体視自動描画機能)(図15、図16、図18参照)。なお、左目用ステレオ画像LGにはマウス93で指定したカーソル位置に十字マークが表示され、これと同様の十字マークが、右目用ステレオ画像RGにおける立体視可能な位置に表示されるようになっている(図11等参照)。   In the present embodiment, the left-eye stereo image LG is a reference image, and in a mode capable of drawing such as “measurement” and “polygon drawing”, the movement locus of the cursor moved on the reference image by operating the mouse 93 It is possible to draw graphic elements such as lines and polygons along the line. Then, when a graphic element is drawn on one stereo image (for example, the left-eye stereo image LG), the same graphic element is automatically drawn on the other stereo image (for example, the right-eye stereo image RG) at a display position where it can be stereoscopically viewed. (Stereoscopic automatic drawing function) (see FIGS. 15, 16, and 18). Note that a cross mark is displayed at the cursor position designated by the mouse 93 in the left-eye stereo image LG, and the same cross mark is displayed at a stereoscopically visible position in the right-eye stereo image RG. (See FIG. 11 etc.).

また、計測モードにおいて、ステレオ画像上のカーソル位置や、描画した線分(計測線)の近傍位置に計測情報が表示されるようになっている(計測表示機能)。この計測情報の文字列は、両ステレオ画像LG,RGに立体視可能な表示位置に表示される。さらに、ポリゴン描画モードで描画したポリゴン(点や線も含む)の三次元座標情報を出力するデータ出力機能(三次元データ出力機能)も設けられている。また、インデックスデータIDから簡易な数値標高データ(三次元地形座標データ)を再生して出力する三次元データ再生機能も設けられている。   In the measurement mode, measurement information is displayed at the cursor position on the stereo image or near the drawn line segment (measurement line) (measurement display function). The character string of the measurement information is displayed at a display position where the stereoscopic images LG and RG can be stereoscopically viewed. Furthermore, a data output function (three-dimensional data output function) for outputting three-dimensional coordinate information of polygons (including points and lines) drawn in the polygon drawing mode is also provided. Also provided is a three-dimensional data reproduction function for reproducing and outputting simple numerical elevation data (three-dimensional terrain coordinate data) from the index data ID.

上記のステレオペア画像表示機能、立体視自動描画機能、計測表示機能、データ出力機能は、図3に示すステレオペア画像表示処理装置100内の各部により実現される。以下、ステレオペア画像表示処理装置100内の各部について詳細に説明する。   The stereo pair image display function, the stereoscopic view automatic drawing function, the measurement display function, and the data output function are realized by each unit in the stereo pair image display processing apparatus 100 shown in FIG. Hereinafter, each part in the stereo pair image display processing apparatus 100 will be described in detail.

主制御部21は、各部22〜33を統括制御する。主制御部21は、チェックボックス43〜46,54のチェック内容に応じてモードを切り換え、そのときのモードに応じた指示を各部22〜33に与える。   The main control unit 21 performs overall control of the units 22 to 33. The main control unit 21 switches the mode according to the check contents of the check boxes 43 to 46, 54, and gives an instruction according to the mode at that time to the units 22 to 33.

画像切替え部22は、画面40に表示されるステレオペア画像SGを切替える処理を行う。本例では、画像切替え部22は、地形起伏図、写真地図、地理情報の少なくとも3種類のうち1種類のステレオペア画像SGが表示された状態で、画像変更ボタン48が操作されると、両表示領域41,42のステレオペア画像SG(ステレオ画像LG,RG)を他の種類のものに切替える。例えば図7の画面40で、画像変更ボタン48が操作されると、画像切替え部22は、バッファー20から次のステレオペア画像データSD2を読み出し、各表示領域41,42に表示されていた地形起伏図のステレオペア画像SG1(ステレオ画像LG,RG)を、図8に示す写真地図のステレオペア画像SG2(ステレオ画像LG,RG)に切り替える。画像切替え部22は、画像変更ボタン48の操作信号を入力する度に、例えば地形起伏図→写真地図→地理情報→…の順番に、表示させるべきステレオペア画像SGを切り替える。   The image switching unit 22 performs a process of switching the stereo pair image SG displayed on the screen 40. In this example, when the image change button 48 is operated in a state where one type of stereo pair image SG among at least three types of topographic relief map, photographic map, and geographic information is displayed, the image switching unit 22 operates. The stereo pair image SG (stereo images LG, RG) in the display areas 41, 42 is switched to another type. For example, when the image change button 48 is operated on the screen 40 of FIG. 7, the image switching unit 22 reads the next stereo pair image data SD2 from the buffer 20, and the terrain undulations displayed in the display areas 41 and 42 are displayed. The stereo pair image SG1 (stereo images LG, RG) in the figure is switched to the stereo pair image SG2 (stereo images LG, RG) of the photographic map shown in FIG. The image switching unit 22 switches the stereo pair image SG to be displayed, for example, in the order of topographic relief map → photo map → geographic information →... Each time an operation signal for the image change button 48 is input.

画像座標演算部23は、操作部94(例えばマウス93)により指定されたステレオ画像LG上の指定位置(カーソル位置)の画像座標(j,k)を演算する。
三次元座標抽出部24は、画像座標(j,k)から三次元座標(X,Y,Z)を抽出する。この抽出は、三次元座標インデックスデータIDを参照して行われる。
The image coordinate calculation unit 23 calculates the image coordinates (j, k) of the specified position (cursor position) on the stereo image LG specified by the operation unit 94 (for example, the mouse 93).
The three-dimensional coordinate extraction unit 24 extracts three-dimensional coordinates (X, Y, Z) from the image coordinates (j, k). This extraction is performed with reference to the three-dimensional coordinate index data ID.

図9は、画像座標演算部23及び三次元座標抽出部24の処理内容を説明するブロック図である。図9に示すように、画像座標演算部23は、ステレオ画像データLDにおける操作部94による指定位置に対応する画像座標(j,k)を演算する。この画像座標(j,k)のデータは三次元座標抽出部24に送られる。   FIG. 9 is a block diagram illustrating processing contents of the image coordinate calculation unit 23 and the three-dimensional coordinate extraction unit 24. As shown in FIG. 9, the image coordinate calculation unit 23 calculates image coordinates (j, k) corresponding to the position designated by the operation unit 94 in the stereo image data LD. The data of the image coordinates (j, k) is sent to the three-dimensional coordinate extraction unit 24.

三次元座標抽出部24は、インデックスデータIDを構成する各データED,ND,ZDにおいて画像座標(j,k)と対応する値X,Y,Zを取得する。具体的には、三次元座標抽出部24は、データEDにおける画像座標(j,k)と対応する経度X(=E(j,k))、データNDにおける画像座標(j,k)と対応する緯度Y(=N(j,k))、標高データZDにおける画像座標(j,k)と対応する標高Z(=El(j,k))を取得する。そして、三次元座標抽出部24は、三次元座標情報(X,Y,Z)を出力する。   The three-dimensional coordinate extraction unit 24 acquires values X, Y, and Z corresponding to the image coordinates (j, k) in each data ED, ND, and ZD constituting the index data ID. Specifically, the three-dimensional coordinate extraction unit 24 corresponds to the longitude X (= E (j, k)) corresponding to the image coordinate (j, k) in the data ED and the image coordinate (j, k) in the data ND. The latitude Y (= N (j, k)) and the altitude Z (= El (j, k)) corresponding to the image coordinates (j, k) in the elevation data ZD are acquired. Then, the three-dimensional coordinate extraction unit 24 outputs three-dimensional coordinate information (X, Y, Z).

図3に示すように、三次元座標抽出部24から出力された三次元座標情報(X,Y,Z)は、ステレオ用画像座標演算部25へ送られる。また、計測モードのときには、三次元座標情報(X,Y,Z)は計測情報演算部26にも送られる。   As shown in FIG. 3, the three-dimensional coordinate information (X, Y, Z) output from the three-dimensional coordinate extraction unit 24 is sent to the stereo image coordinate calculation unit 25. In the measurement mode, the three-dimensional coordinate information (X, Y, Z) is also sent to the measurement information calculation unit 26.

図3に示すステレオ用画像座標演算部25は、ステレオ画像LG上の指定位置(カーソル位置)の画像座標(j,k)に対して、立体視可能な位置関係にあるステレオ画像RG上の表示位置の画像座標(p,q)を演算する。   The stereo image coordinate calculation unit 25 shown in FIG. 3 displays on the stereo image RG that has a stereoscopically viewable positional relationship with respect to the image coordinates (j, k) at the specified position (cursor position) on the stereo image LG. The image coordinates (p, q) of the position are calculated.

図10は、ステレオ画像LG上にマウス93の操作で描画した内容を、立体視可能に表示させる立体視自動描画機能(処理)を説明するブロック図である。図10を参照して、ステレオ用画像座標演算部25の処理を説明する。ステレオ用画像座標演算部25は、画像座標演算部23により演算された画像座標(j,k)を基に三次元座標抽出部24がインデックスデータIDを参照して取得した三次元座標情報(X,Y,Z)を三次元座標抽出部24から受け取ると、その三次元座標(X,Y,Z)に対応する右目用ステレオ画像RG上の点の画像座標(p,q)を演算する。よって、三次元座標(X,Y,Z)の左目用ステレオ画像LG上の画像座標(j,k)と、この三次元座標(X,Y,Z)の右目用ステレオ画像RG上の画像座標(p,q)とが決まる。この画像座標(p,q)は、左目用ステレオ画像LG上の指定位置(カーソル位置)の画像座標(j,k)に対して立体視が可能な右目用ステレオ画像RG上の表示位置を示す。画像座標(p,q)は、対象エリアの撮影基準位置情報SPを用いて、三次元座標(X,Y,Z)を三次元座標系から右目画像座標系へ座標変換すれば求まるので、比較的簡単な演算で立体視可能な表示位置(画像座標)を取得できる。   FIG. 10 is a block diagram for explaining a stereoscopic vision automatic drawing function (processing) for displaying the content rendered by the operation of the mouse 93 on the stereo image LG so as to enable stereoscopic viewing. With reference to FIG. 10, the process of the stereo image coordinate calculation unit 25 will be described. The stereo image coordinate calculation unit 25 uses the three-dimensional coordinate information (X) acquired by the three-dimensional coordinate extraction unit 24 with reference to the index data ID based on the image coordinates (j, k) calculated by the image coordinate calculation unit 23. , Y, Z) from the three-dimensional coordinate extraction unit 24, the image coordinates (p, q) of the points on the right-eye stereo image RG corresponding to the three-dimensional coordinates (X, Y, Z) are calculated. Therefore, the image coordinates (j, k) on the left-eye stereo image LG of the three-dimensional coordinates (X, Y, Z) and the image coordinates on the right-eye stereo image RG of the three-dimensional coordinates (X, Y, Z). (P, q) is determined. The image coordinates (p, q) indicate the display position on the right-eye stereo image RG that can be stereoscopically viewed with respect to the image coordinates (j, k) at the specified position (cursor position) on the left-eye stereo image LG. . The image coordinates (p, q) can be obtained by converting the three-dimensional coordinates (X, Y, Z) from the three-dimensional coordinate system to the right-eye image coordinate system using the imaging reference position information SP of the target area. The display position (image coordinates) that can be stereoscopically viewed can be acquired by simple and simple calculation.

例えば図11の画面40に示すような地形スナップモードでは、マウス93により左目用ステレオ画像LG上で指定した位置(カーソル位置)の標高Zが、ステレオ画像LG,RG上に立体視可能な文字列(計測情報)として自動表示される。図10に示す重畳処理部28は、少なくとも標高値Zを三次元座標抽出部24から入力し、その標高値Zの文字列画像データを生成する。重畳処理部28は、左目用ステレオ画像データLDに文字列画像データを重畳させる第1重畳処理部28Aと、右目用ステレオ画像データRDに文字列画像データを重畳させる第2重畳処理部28Bとを備える。第1重畳処理部28Aは、指定位置の画像座標(j,k)に対して近傍所定位置を文字列画像の表示座標として演算し、左目用ステレオ画像データLD上のその表示座標に相当する位置に文字列画像データを重畳させる。一方、第2重畳処理部28Bは、指定位置の画像座標(p,q)に対して近傍所定位置を文字列画像の表示座標として演算し、右目用ステレオ画像データRD上のその表示座標に相当する位置に文字列画像データを重畳させる。そして、文字列画像が重畳されたステレオ画像データLD,RDに基づく各ステレオ画像が、表示処理部29により画面40の各表示領域41,42に表示されることで、図11の画面40に示すように、各ステレオ画像LG,RGにはカーソル位置の近傍位置に標高値Zの文字列が立体視可能に表示される。   For example, in the terrain snap mode as shown in the screen 40 of FIG. 11, the altitude Z at the position (cursor position) designated on the left-eye stereo image LG by the mouse 93 is a character string that can be stereoscopically viewed on the stereo images LG and RG. It is automatically displayed as (measurement information). 10 receives at least the elevation value Z from the three-dimensional coordinate extraction unit 24, and generates character string image data of the elevation value Z. The superimposition processing unit 28 includes a first superimposition processing unit 28A that superimposes character string image data on the left-eye stereo image data LD, and a second superimposition processing unit 28B that superimposes character string image data on the right-eye stereo image data RD. Prepare. The first superimposition processing unit 28A calculates a predetermined vicinity position as the display coordinates of the character string image with respect to the image coordinates (j, k) of the designated position, and a position corresponding to the display coordinates on the left-eye stereo image data LD. The character string image data is superimposed on. On the other hand, the second superimposition processing unit 28B calculates a predetermined nearby position as the display coordinates of the character string image with respect to the image coordinates (p, q) of the designated position, and corresponds to the display coordinates on the right-eye stereo image data RD. The character string image data is superimposed on the position to be performed. Then, each stereo image based on the stereo image data LD, RD on which the character string image is superimposed is displayed on each display area 41, 42 of the screen 40 by the display processing unit 29, thereby showing the screen 40 in FIG. As described above, in each stereo image LG, RG, the character string of the altitude value Z is displayed in a stereoscopic view at a position near the cursor position.

図3に示す計測情報演算部26は、計測モード又はポリゴン描画モードにおいて、マウス93の操作でステレオ画像上に描画した経路の両端二点間について、その間の距離(累積距離L)、高度差H、傾斜角θ、方位角αを演算するとともに、閉じた経路を描画した場合にはその経路で囲まれた領域(ポリゴン領域)の面積Sを演算する。このために計測情報演算部26は、累積距離Lを演算する距離演算部26A、高度差Hを演算する高度差演算部26B、傾斜角θを演算する傾斜角演算部26C、方位角αを演算する方位角演算部26D及び面積Sを演算する面積演算部26Eを備えている。   The measurement information calculation unit 26 shown in FIG. 3 uses a distance (cumulative distance L) and an altitude difference H between two ends of a path drawn on a stereo image by operating the mouse 93 in the measurement mode or the polygon drawing mode. In addition, the inclination angle θ and the azimuth angle α are calculated, and when a closed route is drawn, the area S of the region (polygon region) surrounded by the route is calculated. For this purpose, the measurement information calculation unit 26 calculates a distance calculation unit 26A that calculates the accumulated distance L, an altitude difference calculation unit 26B that calculates the height difference H, a tilt angle calculation unit 26C that calculates the tilt angle θ, and an azimuth angle α. An azimuth angle calculation unit 26D that calculates the area S and an area calculation unit 26E that calculates the area S.

ベクトル生成部27と重畳処理部28は、計測モード又はポリゴン描画モードにおいて、ステレオ画像上に計測線やポリゴンを描画するための画像生成処理を行う。図12は、描画した計測線やポリゴンをステレオペア画像SG上に立体視可能に表示させる立体視自動描画機能(処理)を説明するブロック図である。計測モードでは、マウス93の操作でステレオ画像LG上に始点と終点の二点を指定して計測線(図15参照)を描画する。また、ポリゴン描画モードでは、マウス93の操作で複数点を指定してポリゴン(図16参照)を描画する。   The vector generation unit 27 and the superimposition processing unit 28 perform image generation processing for drawing measurement lines and polygons on a stereo image in the measurement mode or the polygon drawing mode. FIG. 12 is a block diagram for explaining a stereoscopic vision automatic drawing function (processing) for displaying drawn measurement lines and polygons on the stereo pair image SG so as to enable stereoscopic viewing. In the measurement mode, a measurement line (see FIG. 15) is drawn by designating two points of a start point and an end point on the stereo image LG by operating the mouse 93. In the polygon drawing mode, a polygon (see FIG. 16) is drawn by designating a plurality of points by operating the mouse 93.

以下、図12を参照しつつ、ベクトル生成部27と重畳処理部28が行う各処理を説明する。マウス93で描画する際に複数点(m点)の指定位置Pn(但しn=1,…m(mはm≧2の自然数))が指定される場合、画像座標演算部23は、二点目以降の位置指定において、前回の指定位置Pn-1の画像座標(jn-1,kn-1)と、今回の指定位置Pnの画像座標(jn,kn)とを演算する。三次元座標抽出部24は、前回と今回の各画像座標(jn-1,kn-1)、(jn,kn)を基に、インデックスデータIDを参照して、前回の指定位置Pn-1の三次元座標(Xn-1,Yn-1,Zn-1)と、今回の指定位置Pnの三次元座標(Xn,Yn,Zn)とを演算する。そして、ステレオ用画像座標演算部25は、各三次元座標(Xn-1,Yn-1,Zn-1)、(Xn,Yn,Zn)を基に、右目用ステレオ画像RG上における前回の指定位置に相当する画像座標(pn-1,qn-1)と、今回の指定位置に相当する画像座標(pn,qn)とを演算する。   Hereinafter, each process performed by the vector generation unit 27 and the superimposition processing unit 28 will be described with reference to FIG. When a specified position Pn (n = 1,... M (m is a natural number of m ≧ 2)) of a plurality of points (m points) is specified when drawing with the mouse 93, the image coordinate calculation unit 23 In the position designation after the eye, the image coordinates (jn-1, kn-1) of the previous designated position Pn-1 and the image coordinates (jn, kn) of the current designated position Pn are calculated. The three-dimensional coordinate extraction unit 24 refers to the index data ID based on the previous and current image coordinates (jn-1, kn-1), (jn, kn), and sets the previous designated position Pn-1. The three-dimensional coordinates (Xn-1, Yn-1, Zn-1) and the three-dimensional coordinates (Xn, Yn, Zn) of the current designated position Pn are calculated. Then, the stereo image coordinate calculation unit 25 performs the previous designation on the right-eye stereo image RG based on the three-dimensional coordinates (Xn-1, Yn-1, Zn-1) and (Xn, Yn, Zn). The image coordinates (pn-1, qn-1) corresponding to the position and the image coordinates (pn, qn) corresponding to the current designated position are calculated.

図3に示すベクトル生成部27は、ステレオ画像上で指定された二点間の経路(線)を立体視可能に描画する画像を生成するため、その二点を始点と終点とするベクトルを生成する。詳しくは、ベクトル生成部27は、図12に示すように、左目用ステレオ画像LG上で指定された二点間の経路を規定するベクトルを生成する第1ベクトル生成部27Aと、その指定された二点に相当する右目用ステレオ画像RG上における二点の間の経路を規定するベクトルを生成する第2ベクトル生成部27Bとを備える。第1ベクトル生成部27Aは、左目用ステレオ画像LG上でカーソルにより指定された二点の画像座標(jn-1,kn-1)、(jn,kn)をそれぞれ始点・終点とするベクトルを生成する。一方、第2ベクトル生成部27Bは、左目用ステレオ画像LG上のその二点と立体視可能な関係にある右目用ステレオ画像RG上の二点を示す各画像座標(pn-1,qn-1)、(pn,qn)を求め、それぞれを始点・終点とするベクトルを生成する。そして、複数点の指定位置Pnが指定されることにより、それら複数点のうちの各二点を始点・終点とする1つ又は複数のベクトルが、左目用ステレオ画像の画像座標系と右目用ステレオ画像の画像座標系とのそれぞれで生成される。   The vector generation unit 27 shown in FIG. 3 generates a vector in which a path (line) between two points designated on a stereo image is rendered in a stereoscopic manner so that the two points are the start and end points. To do. Specifically, as shown in FIG. 12, the vector generation unit 27 generates a vector that defines a path between two points specified on the left-eye stereo image LG, and the specified vector generation unit 27A. A second vector generation unit 27B that generates a vector defining a path between two points on the right-eye stereo image RG corresponding to two points. The first vector generation unit 27A generates vectors having the two image coordinates (jn-1, kn-1) and (jn, kn) designated by the cursor on the left-eye stereo image LG as start points and end points, respectively. To do. On the other hand, the second vector generation unit 27B has image coordinates (pn-1, qn-1) indicating two points on the right-eye stereo image RG that are stereoscopically related to the two points on the left-eye stereo image LG. ), (Pn, qn) are obtained, and vectors having respective start and end points are generated. Then, by designating the designated position Pn of a plurality of points, one or a plurality of vectors having two points among the plurality of points as the start point and the end point are converted into the image coordinate system of the left-eye stereo image and the right-eye stereo. It is generated in each image coordinate system.

重畳処理部28は、ベクトルで規定される計測線やポリゴンなどの表示要素の画像(以下「部品画像」ともいう)を左目用と右目用のそれぞれで生成し、左目用と右目用の各部品画像データをそれぞれ各ステレオ画像データLD,RDに重畳させる重畳処理を行う。ここで、表示要素とは、前述した標高値Z等の文字列(図11参照)の他、例えばマウス93により一方のステレオ画像上に描画された点、線、ポリゴンと、他方のステレオ画像上に立体視可能に自動描画される点、線、ポリゴンなどの図形要素を指す。また、累積距離L、高度差H、傾斜角θ、方位角α、面積Sなどの計測結果の文字列なども表示要素に含まれる。もちろん、地図や気象等に係る記号やマーク等の他の図形要素も採用できる。   The superimposition processing unit 28 generates images of display elements such as measurement lines and polygons (hereinafter also referred to as “component images”) defined by vectors for the left eye and the right eye, and the left eye and right eye components. Superimposition processing for superimposing the image data on each of the stereo image data LD and RD is performed. Here, the display elements include, in addition to the above-described character string such as the elevation value Z (see FIG. 11), for example, points, lines, and polygons drawn on one stereo image by the mouse 93 and on the other stereo image. Refers to graphic elements such as points, lines, and polygons that are automatically drawn in a stereoscopic manner. The display element also includes character strings of measurement results such as cumulative distance L, altitude difference H, inclination angle θ, azimuth angle α, and area S. Of course, other graphic elements such as symbols and marks related to maps, weather, and the like can also be adopted.

図12に示す第1重畳処理部28Aが、左目用ステレオ画像と左目用部品画像との重畳処理を行い、第2重畳処理部28Bが、右目用ステレオ画像と右目用部品画像との重畳処理を行う。詳細には、第1重畳処理部28Aは、バッファー20から左目用ステレオ画像データLDを読み込むとともに第1ベクトル生成部27Aから左目用のベクトルを入力する。このとき計測モードであれば、第1重畳処理部28Aは計測情報も読み込む。第1重畳処理部28Aは、左目用のベクトルを基にそのベクトルで規定される計測線やポリゴンなどの部品画像を生成し、計測モードなど計測情報を表示するモードであれば、さらに計測情報の文字画像データ(以下「計測情報画像データ」ともいう)を生成する。そして、第1重畳処理部28Aは、部品画像データと、必要に応じて計測情報画像データとを、左目用ステレオ画像データLDに重畳させる。   The first superimposition processing unit 28A illustrated in FIG. 12 performs a superimposition process between the left-eye stereo image and the left-eye component image, and the second superimposition processing unit 28B performs a superimposition process between the right-eye stereo image and the right-eye component image. Do. Specifically, the first superimposition processing unit 28A reads the left-eye stereo image data LD from the buffer 20 and inputs the left-eye vector from the first vector generation unit 27A. At this time, if in the measurement mode, the first superimposition processing unit 28A also reads measurement information. The first superimposition processing unit 28A generates a part image such as a measurement line or a polygon defined by the vector for the left eye based on the vector for the left eye, and further displays the measurement information such as the measurement mode. Character image data (hereinafter also referred to as “measurement information image data”) is generated. Then, the first superimposition processing unit 28A superimposes the component image data and, if necessary, the measurement information image data on the left-eye stereo image data LD.

第2重畳処理部28Bは、バッファー20から右目用ステレオ画像データRDを読み込むとともに第2ベクトル生成部27Bから右目用のベクトルを入力する。このとき計測モードであれば、第2重畳処理部28Bはステレオ用画像座標演算部25から計測情報も読み込む。ここで、ステレオ用画像座標演算部25は、計測モードでは、計測情報演算部26から計測情報と共に左目用ステレオ画像の画像座標系における計測情報の表示位置(画像座標)を取得している。ステレオ用画像座標演算部25は、三次元座標抽出部24と同機能の三次元座標抽出部を内蔵し、計測情報の画像座標に対応する三次元座標を抽出する。そして、抽出した三次元座標を基に、撮影基準位置情報SPを用いて右目用ステレオ画像の画像座標系における計測情報の表示位置(画像座標)を演算する。こうして演算された計測情報の表示位置(画像座標)がステレオ用画像座標演算部25から第2重畳処理部28Bへ送られる。   The second superimposition processing unit 28B reads the right-eye stereo image data RD from the buffer 20 and inputs the right-eye vector from the second vector generation unit 27B. At this time, in the measurement mode, the second superimposition processing unit 28B also reads measurement information from the stereo image coordinate calculation unit 25. Here, in the measurement mode, the stereo image coordinate calculation unit 25 acquires the measurement information display position (image coordinates) in the image coordinate system of the left-eye stereo image together with the measurement information from the measurement information calculation unit 26. The stereo image coordinate calculation unit 25 includes a 3D coordinate extraction unit having the same function as the 3D coordinate extraction unit 24, and extracts 3D coordinates corresponding to the image coordinates of the measurement information. Based on the extracted three-dimensional coordinates, the display position (image coordinates) of the measurement information in the image coordinate system of the right-eye stereo image is calculated using the imaging reference position information SP. The display position (image coordinates) of the measurement information calculated in this way is sent from the stereo image coordinate calculation unit 25 to the second superimposition processing unit 28B.

第2重畳処理部28Bは、右目用のベクトルを基にそのベクトルで規定される計測線やポリゴンなどの部品画像を生成し、計測モードなど計測情報を表示するモードであれば、さらに計測情報の文字画像データ(以下「計測情報画像データ」ともいう)を生成する。そして、第2重畳処理部28Bは、部品画像データと、必要に応じて計測情報画像データとを、右目用ステレオ画像データRDに重畳させる。このとき、第2重畳処理部28Bは、計測モードであれば、計測情報画像データを、ステレオ用画像座標演算部25から取得した画像座標で規定される表示位置に重畳させる。   The second superimposition processing unit 28B generates a part image such as a measurement line or a polygon defined by the vector for the right eye based on the vector for the right eye, and further displays the measurement information such as the measurement mode. Character image data (hereinafter also referred to as “measurement information image data”) is generated. Then, the second superimposition processing unit 28B superimposes the component image data and, if necessary, the measurement information image data on the right-eye stereo image data RD. At this time, in the measurement mode, the second superimposition processing unit 28B superimposes the measurement information image data on the display position defined by the image coordinates acquired from the stereo image coordinate calculation unit 25.

表示処理部29は、第1重畳処理部28Aが生成した重畳処理後の左目用ステレオ画像データLDに基づく左目用ステレオ画像LGを第1表示領域41に表示させるとともに、第2重畳処理部28Bが生成した重畳処理後の右目用ステレオ画像データRDに基づく右目用ステレオ画像RGを第2表示領域42に表示させる表示処理を行う。表示処理部29は、不図示の表示ドライバーへ画像データを出力することで、モニタ95に、表示要素が重畳された一対のステレオ画像LG,RGを含む画面40(図11、図14、図16、図18を参照)を表示させる。この結果、各表示要素が重畳させた一対のステレオ画像LG,RGが、モニタ95に表示された画面40中の各表示領域41,42に表示される。   The display processing unit 29 displays the left-eye stereo image LG based on the left-eye stereo image data LD after the superimposition processing generated by the first superimposition processing unit 28A in the first display area 41, and the second superimposition processing unit 28B A display process for displaying the right-eye stereo image RG based on the generated right-eye stereo image data RD in the second display area 42 is performed. The display processing unit 29 outputs image data to a display driver (not shown), and thereby the screen 40 including a pair of stereo images LG and RG on which display elements are superimposed on the monitor 95 (FIGS. 11, 14, and 16). , See FIG. 18). As a result, a pair of stereo images LG and RG on which the display elements are superimposed are displayed in the display areas 41 and 42 in the screen 40 displayed on the monitor 95.

次にポリゴン描画モードにおけるポリゴンデータ出力処理について説明する。図3、図12に示すベクトル化部30は、ステレオ画像上で描画されたポリゴンを示す三次元座標データ(三次元座標情報)を三次元座標抽出部24から取得し、その取得した三次元座標データをベクター形式のデータ(ポリゴンデータPD)に変換する。このポリゴンデータPDは、ベクターデータなので、CAD装置80(図17参照)に表示させた地図画像にポリゴンを重ねて表示可能である。   Next, polygon data output processing in the polygon drawing mode will be described. The vectorization unit 30 shown in FIGS. 3 and 12 acquires the three-dimensional coordinate data (three-dimensional coordinate information) indicating the polygon drawn on the stereo image from the three-dimensional coordinate extraction unit 24, and the acquired three-dimensional coordinates. Data is converted into vector format data (polygon data PD). Since this polygon data PD is vector data, it can be displayed by superimposing polygons on the map image displayed on the CAD device 80 (see FIG. 17).

図3、図12に示す出力部31は、計測情報として得られたデータL,H,θ,α,S、及びポリゴンデータPDを出力する。この結果、計測情報データやポリゴンデータPDは、ステレオペア画像表示処理装置100の外部へ出力され、保存先として指定された記憶装置99(例えばハードディスク)の所定記憶領域にファイルとして保存される。   The output unit 31 shown in FIGS. 3 and 12 outputs data L, H, θ, α, S obtained as measurement information, and polygon data PD. As a result, the measurement information data and the polygon data PD are output to the outside of the stereo pair image display processing apparatus 100 and are saved as files in a predetermined storage area of the storage device 99 (for example, a hard disk) designated as the storage destination.

ポリゴンデータPDのファイルは、PC90から例えば記憶媒体へ取り出され、CAD装置80に読み込ませる。CAD装置80のモニタ81に表示させた地図上にポリゴンデータPD(ファイル)に基づくポリゴンPGの重畳表示が可能である。つまり、ポリゴンデータPDに基づくポリゴンPGを、CAD装置80がモニタ81の地図画像と別レイヤで表示させることにより、ポリゴンPGの地図上への移写が可能となっている。   The polygon data PD file is extracted from the PC 90 to a storage medium, for example, and is read by the CAD device 80. A polygon PG can be superimposed and displayed based on the polygon data PD (file) on the map displayed on the monitor 81 of the CAD device 80. That is, the polygon PG based on the polygon data PD is displayed on a separate layer from the map image of the monitor 81 by the CAD device 80, whereby the polygon PG can be transferred onto the map.

図3に示す断面線演算部32は、プロファイラモードのときに起動される。断面線演算部32は、ステレオ画像上で描画した経路に沿って切断した地形断面線(地形表面線)を演算する。演算された断面線は表示処理部29により、図18に示す画面40の下部のプロファイラ表示領域55に表示される。このプロファイラ表示領域55には横軸調整倍率と縦軸調整倍率を入力設定可能な入力欄が設けられている。断面線演算部32は、入力設定された横軸調整倍率と縦軸調整倍率に従って、描画した経路を通る各点の画像座標を基に、インデックスデータIDを参照して、各点(画像座標)の標高Znを演算する。そして、前回の指定点の標高Zn-1と今回の指定点の標高Znとをそれぞれ始点と終点とするベクトルを順次生成する。そして、ベクトルで規定される線分(経路)の画像を順次描画させることにより、プロファイラ表示領域55に断面線56を表示(自動描画)する。   3 is activated when in the profiler mode. The section line calculation unit 32 calculates a topographic cross section line (topographic surface line) cut along a route drawn on the stereo image. The calculated section line is displayed by the display processing unit 29 in the profiler display area 55 at the bottom of the screen 40 shown in FIG. The profiler display area 55 is provided with an input field in which the horizontal axis adjustment magnification and the vertical axis adjustment magnification can be input and set. The section line calculation unit 32 refers to the index data ID based on the image coordinates of each point passing through the drawn path in accordance with the horizontal axis adjustment magnification and the vertical axis adjustment magnification that are input and set. Is calculated. Then, vectors having the elevation point Zn-1 of the previous designated point and the elevation point Zn of the current designated point as the starting point and the ending point are sequentially generated. Then, by sequentially drawing the image of the line segment (path) defined by the vector, the cross section line 56 is displayed (automatic drawing) in the profiler display area 55.

図3に示す三次元再生部33は、出力ボタン53が操作された際に起動され、インデックスデータIDから簡易の数値標高データ(三次元地形座標データ)を再生する。このため、比較的膨大なデータ量の数値標高データD1をPC90に記憶させなくても、ステレオペア画像表示処理用に保存されている比較的データ量の小さなインデックスデータIDを用いて、簡易的に数値標高データの再生が可能である。この数値標高データは出力部31から出力される。   The three-dimensional reproduction unit 33 shown in FIG. 3 is activated when the output button 53 is operated, and reproduces simple numerical elevation data (three-dimensional terrain coordinate data) from the index data ID. For this reason, even if the digital elevation data D1 having a relatively large amount of data is not stored in the PC 90, the index data ID stored for stereo pair image display processing can be simply used by using the index data ID having a relatively small amount of data. Digital elevation data can be reproduced. The numerical elevation data is output from the output unit 31.

印刷出力部34は、ステレオペア画像や計測情報などを印刷させる印刷実行操作時に起動される。印刷出力部34は、印刷すべきデータを不図示の印刷ドライバーを介して印刷装置70へ出力する。このため、計測線及び計測情報を重畳させた地形起伏図、写真地図及び地理情報の印刷や、ポリゴンを重畳させた地形起伏図、写真地図及び地理情報の印刷、さらには計測情報のみの印刷などが可能である。   The print output unit 34 is activated during a print execution operation for printing a stereo pair image, measurement information, and the like. The print output unit 34 outputs data to be printed to the printing apparatus 70 via a print driver (not shown). For this reason, printing of topographic relief maps, photo maps and geographic information with measurement lines and measurement information superimposed, printing of topographic relief maps with superimposed polygons, photo maps and geographic information, and printing of measurement information only, etc. Is possible.

次にステレオペア画像表示処理装置100が各モードで行う処理を、図13、図14に示すフローチャートに基づいて説明する。このフローチャートはプログラムPRの一部を構成している。図13、図14は、計測モード、ポリゴン描画モード、プロファイラモードの処理を説明するものである。CPU97はプログラムPRを構成するこのフローチャートを実行することにより各モードの処理を行う。   Next, processing performed in each mode by the stereo pair image display processing apparatus 100 will be described based on the flowcharts shown in FIGS. 13 and 14. This flowchart constitutes a part of the program PR. FIG. 13 and FIG. 14 illustrate processing in the measurement mode, polygon drawing mode, and profiler mode. The CPU 97 performs processing in each mode by executing this flowchart constituting the program PR.

まずステップS10では、左目用ステレオ画像データLD、右目用ステレオ画像データRD、三次元座標インデックスデータID及び撮影基準位置情報SPを取得する。
ステップS20では、節数Nの初期値(N=1)を設定する。ここで、節数Nとは、各モードにおいてマウス93の操作で描画した線の節の数(つまり線が通る点の数)を指す。ステップS30では、位置指定があったか否かを判断する。位置指定がなければステップS150に進んで、確定ボタン50による終了操作(確定操作)があったか否かを判断し、終了操作がなければステップS30に戻る。
First, in step S10, left-eye stereo image data LD, right-eye stereo image data RD, three-dimensional coordinate index data ID, and photographing reference position information SP are acquired.
In step S20, an initial value (N = 1) of the number of nodes N is set. Here, the number N of nodes indicates the number of nodes of a line drawn by the operation of the mouse 93 in each mode (that is, the number of points through which the line passes). In step S30, it is determined whether or not a position has been designated. If there is no position designation, the process proceeds to step S150, where it is determined whether or not there is an end operation (confirmation operation) by the confirm button 50.

そして、例えば判読者がマウス93を操作して描画のためステレオ画像LG上で最初の位置(始点)を指定する。すると、ステップS30において位置指定ありと判断し、ステップS40に進む。   Then, for example, the reader operates the mouse 93 to designate the first position (start point) on the stereo image LG for drawing. Then, in step S30, it is determined that there is a position designation, and the process proceeds to step S40.

ステップS40では、指定位置の左目用画像座標(jn,kn)を演算する。詳しくは、画像座標演算部23が指定位置の左目用画像座標(jn,kn)を演算する。このとき始点であるので、画像座標(j1,k1)が演算される。   In step S40, the left-eye image coordinates (jn, kn) at the designated position are calculated. Specifically, the image coordinate calculation unit 23 calculates the left-eye image coordinates (jn, kn) at the specified position. Since this is the starting point, the image coordinates (j1, k1) are calculated.

ステップS50では、インデックスデータIDを参照して、画像座標(jn,kn)に対応する三次元座標(Xn,Yn,Zn)を抽出する。
ステップS60では、撮影基準位置情報SPを用いて、三次元座標(Xn,Yn,Zn)に対応する右目用画像座標(pn,qn)を演算する。
In step S50, the three-dimensional coordinates (Xn, Yn, Zn) corresponding to the image coordinates (jn, kn) are extracted with reference to the index data ID.
In step S60, the image coordinates (pn, qn) for the right eye corresponding to the three-dimensional coordinates (Xn, Yn, Zn) are calculated using the photographing reference position information SP.

次のステップS70では、節数N≧2であるか否かを判断する。今回は、最初の始点を指定した場合であるので、節数N=1であり、否定判定となるので、ステップS80に進んで、節数Nをインクリメントする(N=N+1)。つまり、節数N≧2のときにはじめて二点間を結ぶ線の描画が可能になるので、その二点が揃うまでは描画処理(ステップS90〜S130)(図13の一点鎖線枠内の処理)へは進まない。   In the next step S70, it is determined whether or not the number of nodes N ≧ 2. Since this time is the case where the first start point is designated, the number of nodes N = 1, and a negative determination is made. Therefore, the process proceeds to step S80, and the number of nodes N is incremented (N = N + 1). That is, since it is possible to draw a line connecting two points for the first time when the number of nodes N ≧ 2, drawing processing (steps S90 to S130) (processing in the one-dot chain line frame in FIG. 13) is performed until the two points are aligned. Do not proceed to).

そして、判読者が描画するためにマウス93の操作で次の点を位置指定すると、ステップS30において位置指定ありと判断し、この指定された位置の左目用画像座標(jn,kn)(例えば(j2,k2))を演算し(S40)、この画像座標(jn,kn)に対応する三次元座標(Xn,Yn,Zn)(例えば(X2,Y2,Z2))を抽出し(S50)、さらに三次元座標(Xn,Yn,Zn)に対応する右目用画像座標(pn,qn)(例えば(p2,q2))を演算する(S60)。こうして二点が揃うと、ステップS70において節数N≧2が成立したと判断し、描画処理(S90)へ移行する。   Then, when the reader designates the next point by drawing with the mouse 93 for drawing, it is determined in step S30 that the position has been designated, and the left-eye image coordinates (jn, kn) (for example (( j2, k2)) is calculated (S40), and three-dimensional coordinates (Xn, Yn, Zn) (for example, (X2, Y2, Z2)) corresponding to the image coordinates (jn, kn) are extracted (S50). Further, the image coordinates (pn, qn) (for example, (p2, q2)) for the right eye corresponding to the three-dimensional coordinates (Xn, Yn, Zn) are calculated (S60). When the two points are obtained in this way, it is determined in step S70 that the number of nodes N ≧ 2 is established, and the process proceeds to the drawing process (S90).

描画処理では、まずステップS90において、左目用の画像座標(jn-1,kn-1)、(jn,kn)の二点間を結ぶベクトルを生成する。このベクトル生成処理は、詳しくは第1ベクトル生成部27Aが行う。   In the drawing process, first, in step S90, a vector connecting the two points of the image coordinates (jn-1, kn-1) and (jn, kn) for the left eye is generated. This vector generation processing is performed in detail by the first vector generation unit 27A.

次のステップS100では、左目用ステレオ画像と、ベクトルに基づく経路(線)との重畳処理を行う。詳しくは、第1重畳処理部28Aは、左目用のベクトルを基にそのベクトルで規定される計測線又はポリゴンの一線分を描画するための画像である経路データ(線図データ)を生成し、左目用ステレオ画像データLDと経路データとを重畳させる。   In the next step S100, the left-eye stereo image and a vector-based route (line) are superimposed. Specifically, the first superimposition processing unit 28A generates path data (diagram data) that is an image for drawing a measurement line or one line segment of a polygon defined by the vector based on the vector for the left eye, The left-eye stereo image data LD and the route data are superimposed.

また、ステップS110では、右目用ステレオ画像と、ベクトルに基づく経路(線)との重畳処理を行う。詳しくは、第2重畳処理部28Bは、右目用のベクトルを基にそのベクトルで規定される計測線又はポリゴンの一線分を描画するための画像である経路データ(線図データ)を生成し、右目用ステレオ画像データRDと経路データとを重畳させる。こうして判読者がマウス93で指定した二点間の経路が重畳された左目用ステレオ画像データLDと、その経路が重畳された右目用ステレオ画像データRDとが生成される。   In step S110, a superimposition process is performed on the stereo image for the right eye and the route (line) based on the vector. Specifically, the second superimposition processing unit 28B generates path data (diagram data) that is an image for drawing a measurement line or a line segment of a polygon defined by the vector based on the vector for the right eye, The right-eye stereo image data RD and the route data are superimposed. Thus, the left-eye stereo image data LD on which the path between the two points designated by the reader 93 is superimposed and the right-eye stereo image data RD on which the path is superimposed are generated.

そして、ステップS130において、ステレオペア画像SGを表示する。すなわち、表示処理部29は、経路が重畳された左目用ステレオ画像データLDに基づく左目用ステレオ画像LGを第1表示領域41に表示させるとともに、その経路が重畳された右目用ステレオ画像データRDに基づく右目用ステレオ画像RGを第2表示領域42に表示させる。   In step S130, the stereo pair image SG is displayed. That is, the display processing unit 29 displays the left-eye stereo image LG based on the left-eye stereo image data LD on which the route is superimposed in the first display area 41, and the right-eye stereo image data RD on which the route is superimposed. The right-eye stereo image RG based thereon is displayed in the second display area 42.

この結果、例えば計測モードであれば、図15の左目用ステレオ画像LG上にマウス操作(カーソル操作)に基づく計測線(直線)が描画されるとともに、右目用ステレオ画像RG上に左目用ステレオ画像LG上の計測線(直線)と対応する立体視可能な計測線が右目用ステレオ画像上に自動描画される。このため、判読者は、ステレオ画像LG,RGを立体視したときに計測線も立体視できる。なお、本実施形態では、ステップS40,S90,S100,S130の処理が、第1の描画処理段階に相当する。また、ステップS50,S60,S110,S120,S130の処理が、第2の描画処理段階に相当する。   As a result, for example, in the measurement mode, a measurement line (straight line) based on the mouse operation (cursor operation) is drawn on the left-eye stereo image LG in FIG. 15 and the left-eye stereo image on the right-eye stereo image RG. A stereoscopically viewable measurement line corresponding to the measurement line (straight line) on LG is automatically drawn on the right-eye stereo image. Therefore, the reader can also stereoscopically view the measurement line when stereoscopically viewing the stereo images LG and RG. In the present embodiment, the processes of steps S40, S90, S100, and S130 correspond to the first drawing process stage. Further, the processes of steps S50, S60, S110, S120, and S130 correspond to the second drawing process stage.

さらに次のステップS140では、モードに応じた処理を行う。この処理は、CPU97が図14に示すサブルーチンを実行することにより行われる。
まずステップS210では、モードを判定する。この例では、「計測モード」、「ポリゴン描画モード」、「プロファイラモード」のうちいずれのモードが指定されているかを判定する。
In the next step S140, processing according to the mode is performed. This process is performed by the CPU 97 executing a subroutine shown in FIG.
First, in step S210, the mode is determined. In this example, it is determined which one of “measurement mode”, “polygon drawing mode”, and “profiler mode” is designated.

例えば図15の画面40に示すように、計測のチェックボックス45が選択されている計測モードであれば、ステップS220に進む。
ステップS220では、三次元座標(X1,Y1,Z1)〜(Xn,Yn,Zn)を基に、累積距離L、高度差H、方位角α、傾斜角θ、面積Sを計算・出力する。ここで、二点間の計測線を描画する場合、終点(Xn,Yn,Zn)は(X2,Y2,Z2)となる。この場合、計測情報演算部26が、計測線の始点と終点の座標を基に、各データL,H,α,θを演算する。また、閉じた経路を描画した場合、計測情報演算部26(詳しくは面積演算部26E)は、その閉じた経路の節となる各点の座標を基に面積Sを演算する。これらの各データL,H,α,θ,S(計測情報)は、計測情報の文字列の描画処理(図14において一点鎖線枠内のステップS230〜S260の処理)を行うため、及び外部へのデータ出力のために出力される。
For example, as shown in the screen 40 of FIG. 15, if the measurement mode is the measurement check box 45 selected, the process proceeds to step S220.
In step S220, the cumulative distance L, altitude difference H, azimuth angle α, inclination angle θ, and area S are calculated and output based on the three-dimensional coordinates (X1, Y1, Z1) to (Xn, Yn, Zn). Here, when drawing a measurement line between two points, the end point (Xn, Yn, Zn) is (X2, Y2, Z2). In this case, the measurement information calculation unit 26 calculates each data L, H, α, θ based on the coordinates of the start point and end point of the measurement line. When a closed route is drawn, the measurement information calculation unit 26 (specifically, the area calculation unit 26E) calculates the area S based on the coordinates of each point that becomes a node of the closed route. These pieces of data L, H, α, θ, and S (measurement information) are used for drawing a character string of the measurement information (steps S230 to S260 in the one-dot chain line in FIG. 14) and to the outside. Is output for data output.

ステップS230では、データL,H,α,θ,Sの文字列の左目用表示位置(画像座標)を演算する。
ステップS240では、経路が重畳された左目用ステレオ画像データLDと、データL,H,α,θの文字列とを重畳させる。この重畳処理では、左目用ステレオ画像データLDにおける左目用表示位置に、データL,H,α,θ,Sの文字列を重畳させる。この左目用ステレオ画像における重畳処理は、第1重畳処理部28Aが行う。
In step S230, the left eye display position (image coordinates) of the character string of the data L, H, α, θ, S is calculated.
In step S240, the left-eye stereo image data LD on which the route is superimposed and the character strings of the data L, H, α, and θ are superimposed. In this superimposition process, the character strings of the data L, H, α, θ, and S are superimposed on the left-eye display position in the left-eye stereo image data LD. The first superimposition processing unit 28A performs the superimposition process on the left-eye stereo image.

また、ステップS250では、データL,H,α,θ,Sの文字列の右目用表示位置(画像座標)を演算する。
ステップS260では、経路が重畳された右目用ステレオ画像データRDと、データL,H,α,θ,Sの文字列とを重畳させる。すなわち、第2重畳処理部28Bが、データL,H,α,θの文字列を、右目用ステレオ画像データRDにおける右目用表示位置に重畳させる。
In step S250, the right eye display position (image coordinates) of the character string of the data L, H, α, θ, S is calculated.
In step S260, the right-eye stereo image data RD on which the route is superimposed and the character strings of the data L, H, α, θ, and S are superimposed. That is, the second superimposition processing unit 28B superimposes the character strings of the data L, H, α, θ on the right-eye display position in the right-eye stereo image data RD.

ステップS270では、ステレオペア画像SGを表示する。すなわち、表示処理部29は、経路及び計測情報の文字列が重畳された左目用ステレオ画像データLDに基づく左目用ステレオ画像LGを第1表示領域41に表示させるとともに、経路及び計測情報の文字列が重畳された右目用ステレオ画像データRDに基づく右目用ステレオ画像RGを第2表示領域42に表示させる。   In step S270, the stereo pair image SG is displayed. That is, the display processing unit 29 displays the left-eye stereo image LG based on the left-eye stereo image data LD on which the character string of the route and the measurement information is superimposed on the first display area 41, and the character string of the route and the measurement information. Is displayed in the second display area 42 based on the right-eye stereo image data RD on which the right eye is superimposed.

この結果、例えば計測モードであれば、図15の左目用ステレオ画像LG上にマウス操作(カーソル操作)に基づく計測線(直線)とデータL,H,α,θの文字列が左目用ステレオ画像LG上に描画されるとともに、左目用ステレオ画像LG上の計測線及び文字列に対し立体視可能な計測線(直線)とデータL,H,α,θの文字列が右目用ステレオ画像上に自動描画される。また、閉じた経路(多角形)が描画された場合は、その閉じた経路で囲まれた領域(ポリゴン領域)の面積が面積演算部26Eにより計算され、その計算結果である面積Sの文字列が、両ステレオ画像LG,RGに重畳表示される。このため、判読者は、ステレオ画像LG,RGを立体視したときに計測線及び文字列も立体視できる。なお、このフローチャートでは、計測線と文字列を別々に重畳処理したが、一緒に重畳処理する構成も採用できる。   As a result, for example, in the measurement mode, the measurement line (straight line) based on the mouse operation (cursor operation) and the character string of the data L, H, α, θ are displayed on the left-eye stereo image LG in FIG. Measurement lines (straight lines) that can be stereoscopically viewed with respect to the measurement lines and character strings on the left-eye stereo image LG and the character strings of the data L, H, α, and θ are drawn on the right-eye stereo image. Automatically drawn. When a closed path (polygon) is drawn, the area of the area (polygon area) surrounded by the closed path is calculated by the area calculation unit 26E, and the character string of the area S, which is the calculation result, is calculated. Is superimposed on both stereo images LG and RG. Therefore, the reader can also stereoscopically view the measurement line and the character string when stereoscopically viewing the stereo images LG and RG. In this flowchart, the measurement line and the character string are separately superimposed, but a configuration in which they are superimposed together can also be employed.

また、例えば図16の画面40に示すように、ポリゴン描画のチェックボックス46が選択されているポリゴン描画モードであれば、ステップS210のモード判定の結果、ステップS280に進む。   For example, as shown in the screen 40 of FIG. 16, if the polygon drawing check box 46 is selected, the process proceeds to step S280 as a result of the mode determination in step S210.

ステップS280では、三次元座標(Xn,Yn,Zn)のベクトル化を行う。この処理は、ベクトル化部30が行う。ベクトル化部30は、ステレオ画像上で描画中のポリゴンを構成する節(点)の三次元座標(Xn,Yn,Zn)を三次元座標抽出部24から取得し、その取得した三次元座標(Xn,Yn,Zn)をベクター形式のデータ(ポリゴンデータPD)に変換する。   In step S280, the three-dimensional coordinates (Xn, Yn, Zn) are vectorized. This processing is performed by the vectorization unit 30. The vectorization unit 30 acquires the three-dimensional coordinates (Xn, Yn, Zn) of the nodes (points) constituting the polygon being drawn on the stereo image from the three-dimensional coordinate extraction unit 24, and acquires the acquired three-dimensional coordinates ( Xn, Yn, Zn) is converted into vector format data (polygon data PD).

ステップS290では、ベクター形式の三次元座標データを出力する。
こうして、マウス93の操作でポリゴンの節を指定する度に、その節(指定位置)の三次元座標(Xn,Yn,Zn)のデータがベクトル化され(S280)、ベクター形式のデータが出力される(S290)。この結果、図17に示すようなポリゴンデータPDが生成され、保存先指定部47で指定した保存先にファイルとして保存される。このポリゴンデータPDは、CAD装置80に読み込ませることにより、図17に示すように、CAD装置80のモニタ81に表示させた地図画像MP上にポリゴンデータPDに基づくポリゴンPGを移写することができる。このため、ポリゴンPGを地図画像MP上に正確に移写できる。
In step S290, vector format three-dimensional coordinate data is output.
Thus, each time a polygon node is designated by the operation of the mouse 93, the data of the three-dimensional coordinates (Xn, Yn, Zn) of the node (designated position) is vectorized (S280), and vector format data is output. (S290). As a result, polygon data PD as shown in FIG. 17 is generated and saved as a file in the save destination designated by the save destination designation unit 47. When the polygon data PD is read by the CAD device 80, the polygon PG based on the polygon data PD can be transferred onto the map image MP displayed on the monitor 81 of the CAD device 80 as shown in FIG. it can. For this reason, the polygon PG can be accurately transferred onto the map image MP.

一方、例えば図18の画面40に示すように、プロファイラのチェックボックス54が選択されているプロファイラモードであれば、ステップS210のモード判定の結果、ステップS300に進む。   On the other hand, as shown in the screen 40 of FIG. 18, for example, if the profiler mode is the profiler check box 54 selected, the process proceeds to step S300 as a result of the mode determination in step S210.

ステップS300では、標高Zn-1,Znの二点間のベクトルを生成する。詳しくは、断面線演算部32が、指定位置の画像座標(jn-1,kn-1)、(jn,kn)を基に、インデックスデータIDを参照して、標高Zn-1,Znを演算する。そして、標高Zn-1,Znをそれぞれ始点・終点とするベクトルを生成する。このとき、判読者が入力指定した横軸調整倍率と縦軸調整倍率に従って、標高Zn-1,Zn及び横軸上のプロット間隔を適宜変倍することで、ベクトルを生成する。   In step S300, a vector between two points of altitudes Zn-1 and Zn is generated. Specifically, the section line calculation unit 32 calculates the altitudes Zn-1 and Zn with reference to the index data ID based on the image coordinates (jn-1, kn-1) and (jn, kn) of the designated position. To do. Then, vectors having elevations Zn-1 and Zn as start points and end points are generated. At this time, a vector is generated by appropriately scaling the altitudes Zn-1 and Zn and the plot interval on the horizontal axis according to the horizontal axis adjustment magnification and the vertical axis adjustment magnification input and designated by the reader.

次のステップS310では、ベクトルに基づく断面線を表示する。詳しくは、表示処理部29は、ベクトルで規定される線分を、図18に示す画面40のプロファイラ表示領域55に表示させる。   In the next step S310, a cross-sectional line based on the vector is displayed. Specifically, the display processing unit 29 displays the line segment defined by the vector in the profiler display area 55 of the screen 40 shown in FIG.

こうして、プロファイラモードでは、左目用と右目用の各ステレオ画像LG,RG上に経路が立体視可能な表示位置に描画される。そして、プロファイラ表示領域55には、ステレオ画像LG上で描画した経路における断面線56が自動描画される。   In this way, in the profiler mode, the path is drawn on the left-eye and right-eye stereo images LG and RG at the display positions at which stereoscopic viewing is possible. In the profiler display area 55, the cross-sectional line 56 in the path drawn on the stereo image LG is automatically drawn.

以上詳述したようにこの実施形態によれば、以下の効果が得られる。
(1)一方のステレオ画像(基準画像)上で指定された指定位置の画像座標から三次元座標を抽出し、抽出された三次元座標を他方のステレオ画像(相対画像)の画像座標系に座標変換して他方のステレオ画像上における立体視可能な対応する表示位置の画像座標を取得する。そして、一方のステレオ画像上にマウス93の操作で描画された線、文字、ポリゴン等の図形要素を、他方のステレオ画像における立体視画像な表示位置に自動描画する。これにより、ステレオペア画像SGを立体視しながら、一方のステレオ画像LGに描画した線、文字、ポリゴン等の図形要素を立体視することができるため、地形起伏図や写真地図等の背景画像を立体視したまま移写等を目的とする描画や計測などの作業を行うことができる。
As described above in detail, according to this embodiment, the following effects can be obtained.
(1) Three-dimensional coordinates are extracted from image coordinates at a designated position designated on one stereo image (reference image), and the extracted three-dimensional coordinates are coordinated to the image coordinate system of the other stereo image (relative image) The image coordinates of the corresponding display position that can be stereoscopically viewed on the other stereo image are obtained by conversion. Then, a graphic element such as a line, a character, or a polygon drawn by operating the mouse 93 on one stereo image is automatically drawn at a display position of a stereoscopic image in the other stereo image. Accordingly, it is possible to stereoscopically view a graphic element such as a line, a character, or a polygon drawn on one stereo image LG while stereoscopically viewing the stereo pair image SG, so that a background image such as a topographic relief map or a photographic map can be displayed. Work such as drawing and measurement for the purpose of transfer and the like can be performed while stereoscopically viewed.

(2)ステレオペア画像SGを構成する一方のステレオ画像の画像座標系と同じ画像座標系を有し、座標値としてそれぞれX、Y、Zの各値を有する3種類の座標データED,ND,ZDからなるインデックスデータIDを用意した。よって、指定された点の画像座標からインデックスデータIDを参照することにより、その点の三次元座標を簡単に抽出することができる。そして、抽出された三次元座標を座標変換する比較的簡単な演算処理によって、他方のステレオ画像における立体視可能な表示位置座標を取得することができる。よって、描画や計測などの実行時は比較的演算が少なく、表示や操作に必要なデータへのアクセスも少なくできる。その結果、ロースペックのパソコンやネットワーク上での操作が可能となる。   (2) Three types of coordinate data ED, ND, having the same image coordinate system as the image coordinate system of one of the stereo images constituting the stereo pair image SG, each having X, Y, and Z as coordinate values. An index data ID consisting of ZD was prepared. Therefore, by referring to the index data ID from the image coordinates of the designated point, the three-dimensional coordinates of the point can be easily extracted. Then, display position coordinates that can be stereoscopically viewed in the other stereo image can be acquired by a relatively simple calculation process that performs coordinate conversion of the extracted three-dimensional coordinates. Therefore, there are relatively few operations when performing drawing and measurement, and access to data necessary for display and operation can be reduced. As a result, operation on a low-spec personal computer or network becomes possible.

(3)ステレオペア画像SGで描画された図形要素(点、線分、多角形、文字等)を、もとの三次元座標系における図形要素として取得できる。例えば、図形要素の三次元座標データをポリゴンデータPDとして出力させ、CAD装置に表示させた地図画像上の対応位置に図形要素を表示させることができる。このため、ステレオペア画像SGを立体視しながら描画した図形要素を、CAD装置のモニタ上の地図に正確に移写することができる。   (3) Graphic elements (dots, line segments, polygons, characters, etc.) drawn with the stereo pair image SG can be acquired as graphic elements in the original three-dimensional coordinate system. For example, three-dimensional coordinate data of a graphic element can be output as polygon data PD, and the graphic element can be displayed at a corresponding position on a map image displayed on the CAD device. For this reason, the graphic element drawn while stereoscopically viewing the stereo pair image SG can be accurately transferred to the map on the monitor of the CAD device.

(4)ステレオペア画像SG上でマウス操作により計測線やポリゴンを描画するだけで、その描画した計測線の始点と終点の間の累積距離L、高度差H、傾斜角θ、方位角α、面積S等の計測情報を算出できる。また、その計測情報を、立体視している地形起伏図などの背景画像に重畳させてステレオ表示することができる。   (4) By simply drawing a measurement line or polygon by operating the mouse on the stereo pair image SG, the accumulated distance L, altitude difference H, inclination angle θ, azimuth angle α, Measurement information such as the area S can be calculated. Further, the measurement information can be displayed in stereo by superimposing it on a background image such as a topographic relief map that is stereoscopically viewed.

(5)ステレオペア画像SGを作成する際の背景画像(色付き画像)として、例えば地形起伏図、写真地図、地理情報などの複数意し、同じ立体視空間で、表示すべき背景画像を切り替えることができる。よって、背景画像を立体視しながら、同じ場所の背景画像を、地形起伏図、写真地図、地理情報などの間で所望に応じて切り替えることにより、地滑りや活断層など移写すべき対象を一層正確に把握し易くなる。   (5) As a background image (colored image) when creating the stereo pair image SG, for example, a plurality of topographic relief maps, photographic maps, geographic information, etc., and switching the background image to be displayed in the same stereoscopic space Can do. Therefore, by switching the background image of the same place as desired between topographic relief maps, photo maps, geographic information, etc. while stereoscopically viewing the background image, the target to be transferred, such as landslides and active faults, is more accurate. It becomes easy to grasp.

(6)ステレオペア画像SGで指定した経路(線分又はカーソル移動位置)における三次元座標を抽出し、その経路で切った断面線(断面形状)を表示することができる。よって、地形の断面情報を取得できるうえ、断面情報を参考にして計測箇所や移写の対象が正しいかどうかを確認できる。   (6) The three-dimensional coordinates in the route (line segment or cursor movement position) designated by the stereo pair image SG can be extracted, and the cross-sectional line (cross-sectional shape) cut along the route can be displayed. Therefore, it is possible to acquire the topographic cross-section information, and to check whether the measurement location and the transfer target are correct with reference to the cross-section information.

(7)三次元座標データ(数値標高データ)からステレオペア画像SGを作成するとともに、そのうちの一方のステレオ画像LGだけからもとの三次元座標を抽出する機能に適したインデックスデータID(三次元座標データ)を作成する。このため、数値標高データに比べデータ量の小さな三次元座標データで済む。   (7) Index data ID (three-dimensional) suitable for the function of creating a stereo pair image SG from three-dimensional coordinate data (numerical elevation data) and extracting the original three-dimensional coordinates from only one of the stereo images LG Coordinate data). For this reason, three-dimensional coordinate data having a smaller data amount than the digital elevation data is sufficient.

(8)数値標高情報(三次元座標データ)を基に作成した立体視可能なステレオペア画像(右目用、左目用)及びインデックスデータIDを用いて、モニタ95にステレオ画像LG,RGを表示しながら、マウス93等のカーソル手段により、もとの三次元座標データと同じ座標空間における単点計測、ベクトル計測、面積測定、ポリゴン作成、断面計測を、高性能なシステムを必要とせず行うことができる。   (8) Stereo images LG and RG are displayed on the monitor 95 using the stereoscopic pair images (for the right eye and for the left eye) created based on the digital elevation information (three-dimensional coordinate data) and the index data ID. However, it is possible to perform single point measurement, vector measurement, area measurement, polygon creation, and cross-section measurement in the same coordinate space as the original three-dimensional coordinate data without using a high-performance system by using the cursor means such as the mouse 93. it can.

(9)地滑りや活断層などの地形判読において、航空レーザ測量成果により得られた数値地形データを立体視することで起伏を明瞭に可視化できる。従来の航空写真判読や航空レーザ測量による二次元的な出力図(等高線図、段彩陰影図等)に比べて質の高い判読を行うことができる。また、立体視をしながら測定(計測)や判読結果のデータ記録を行うことができ、同時に元の三次元座標空間における図形要素(例えばポリゴンデータPD)を取得することができる。このため、従来の写真判読で行われてきた判読結果の移写を不要にすることができる。さらに、拡大、縮小や画像の切り替えなども立体視したまま行うことができ、判読の精度向上や周辺状況との関連性についての情報を得ることができる。   (9) In the interpretation of terrain such as landslides and active faults, the undulations can be clearly visualized by stereoscopically viewing the numerical terrain data obtained from the aviation laser survey results. Compared to conventional aerial photograph interpretation and two-dimensional output diagrams (contour maps, stepped shades, etc.) by aerial laser surveying, it is possible to perform interpretation with higher quality. Further, measurement (measurement) and data recording of interpretation results can be performed while stereoscopically viewing, and at the same time, graphic elements (for example, polygon data PD) in the original three-dimensional coordinate space can be acquired. For this reason, the transfer of the interpretation result, which has been performed in the conventional photo interpretation, can be eliminated. Furthermore, enlargement, reduction, image switching, and the like can be performed in a stereoscopic manner, and information on the accuracy of interpretation and the relevance to the surrounding situation can be obtained.

(10)インデックスデータIDから簡易な数値標高データ(三次元地形座標データ)を再生して出力することができる。このため、ステレオペア画像表示用のPC90に、膨大な数値標高データを記憶させなくても、必要になればインデックスデータIDから簡易ではあるものの数値標高データを取得することができる。   (10) Simple numerical elevation data (three-dimensional terrain coordinate data) can be reproduced and output from the index data ID. For this reason, even if it is not necessary to store enormous numerical elevation data in the PC 90 for stereo pair image display, it is possible to obtain numerical elevation data from the index data ID if necessary, although it is simple.

前記実施形態は上記に限定されず、以下の態様に変更することもできる。
・描画内容は、点、線分(ベクトル)やポリゴンに限定されず、領域(例えば内部に色を施した領域)や、地図記号等の記号でもよい。
The said embodiment is not limited above, It can also change into the following aspects.
The drawing content is not limited to a point, a line segment (vector), or a polygon, but may be a region (for example, a region with a color inside) or a symbol such as a map symbol.

・ステレオペア画像に用いる背景画像は、地形起伏図、写真地図、地理情報などの地形に関する画像(地理画像)に限定されない。顕微鏡画像(微視空間画像)や天体望遠鏡画像(天体地図)などでもよい。また、写真などの場合、建物等の地物を含んでもよい。   The background image used for the stereo pair image is not limited to an image (geographic image) relating to the terrain such as a topographic relief map, a photographic map, and geographic information. A microscopic image (microscopic space image), an astronomical telescope image (celestial map), or the like may be used. Further, in the case of a photograph or the like, a feature such as a building may be included.

・計測情報は、指定点の標高Z、描画線(計測線)の累積距離(二点間距離又は経路長)、高度差H(高低差)、傾斜角θ、方位角α及び面積Sのうちの少なくとも一つを採用できる。例えば距離、経路長、高度差、傾斜角、方位及び面積のうち1つのみを表示させる構成でもよい。この場合、計測情報の表示は、必ずしも立体視可能である必要はない。   Measurement information includes the altitude Z of the designated point, the cumulative distance (distance between two points or path length) of the drawing line (measurement line), altitude difference H (height difference), inclination angle θ, azimuth angle α, and area S At least one of the above can be adopted. For example, only one of distance, path length, altitude difference, inclination angle, direction, and area may be displayed. In this case, the display of the measurement information does not necessarily need to be stereoscopically viewable.

・画像切替え部22によるステレオペア画像SGの切替え機能を無くした構成も実施できる。例えば一種類のステレオペア画像のみを表示する構成でもよい。
・三次元座標データは、DEMに限らず、TIN(triangulated irregular network,不整三角形網)でもよい。さらには、オルソ画像、DTM(Digital Terrain Model:数値地形モデル)、DSM(Digital Surface Model:数値表層モデル)でもよい。
A configuration in which the switching function of the stereo pair image SG by the image switching unit 22 is eliminated can also be implemented. For example, only one type of stereo pair image may be displayed.
The three-dimensional coordinate data is not limited to DEM but may be TIN (triangulated irregular network). Furthermore, an ortho image, DTM (Digital Terrain Model), and DSM (Digital Surface Model) may be used.

・画面40におけるフォームの配置や操作の流れは適宜変更できる。   -Form arrangement and operation flow on the screen 40 can be changed as appropriate.

10…ステレオペア画像作成装置、11…第1作成部、12…第2作成部、13…中心投影変換部、14…画像座標変換部、15…ラスターデータ変換部、20…格納手段の一例であるバッファー、21…画像表示手段を構成する主制御部、22…切替手段の一例である画像切替え部、23…第1の描画処理手段を構成する画像座標演算部、24…第2の描画処理手段を構成する三次元座標抽出部、25…第2の描画処理手段を構成するステレオ用画像座標演算部、26…計測情報取得手段の一例である計測情報演算部、27…ベクトル生成部、28…第1表示処理手段の一例を構成する重畳処理部、28A…第1の描画処理手段を構成する第1重畳処理部、28B…第2重畳処理部、29…画像表示手段、第1表示処理手段の一例を構成する表示処理部、30…ベクトル化部、31…出力手段の一例である出力部、32…第2表示処理手段の一例である断面線演算部、33…再生手段の一例である三次元再生部、34…印刷出力部、40…画面、41…第1表示領域、42…第2表示領域、48…画像変更ボタン、49…移動ボタン、50…確定ボタン、53…出力ボタン、55…プロファイラ表示領域、56…断面線、80…CAD装置、81…モニタ、90…パーソナルコンピュータ、91…本体、92…操作手段の一例を構成するキーボード、93…操作手段の一例を構成するマウス、94…操作手段の一例を構成する操作部、95…表示手段の一例であるモニタ、96…コンピュータ、97…CPU、98…RAM、99…記憶装置、100…立体視画像表示処理装置の一例であるステレオペア画像表示処理装置、PR…プログラム、SD…ステレオペア画像データ、SD1…図の一例である地形起伏図のステレオペア画像データ、SD2…写真の一例である写真地図のステレオペア画像データ、SD3…図の一例である地理情報のステレオペア画像データ、LD…基準画像データの一例である左目用ステレオ画像データ、RD…相対画像データの一例である右目用ステレオ画像データ、SG,SG1,SG2…ステレオペア画像、LG…第1画像の一例である左目用ステレオ画像、RG…第2画像の一例である右目用ステレオ画像、ID…三次元座標インデックスデータ、L…累積距離、H…高度差、α…方位角、θ…傾斜角、S…面積、PD…ポリゴンデータ、MP…地図画像、PG…ポリゴン、Z…標高値。   DESCRIPTION OF SYMBOLS 10 ... Stereo pair image creation apparatus, 11 ... 1st creation part, 12 ... 2nd creation part, 13 ... Center projection conversion part, 14 ... Image coordinate conversion part, 15 ... Raster data conversion part, 20 ... Example of storage means A certain buffer, 21... Main control section constituting image display means, 22... Image switching section which is an example of switching means, 23... Image coordinate calculation section constituting first drawing processing means, 24. Three-dimensional coordinate extraction unit constituting means, 25... Stereo image coordinate computation unit constituting second drawing processing means, 26... Measurement information computation unit as an example of measurement information acquisition means, 27. ... Superimposition processing unit constituting an example of first display processing means, 28A ... First superimposition processing part constituting first drawing processing means, 28B ... Second superposition processing part, 29 ... Image display means, first display processing Configure an example of means Display processing unit, 30... Vectorization unit, 31... Output unit as an example of output means, 32... Section line calculation unit as an example of second display processing means, 33. 34 ... Print output section, 40 ... Screen, 41 ... First display area, 42 ... Second display area, 48 ... Image change button, 49 ... Move button, 50 ... Confirm button, 53 ... Output button, 55 ... Profiler display area , 56 ... sectional line, 80 ... CAD device, 81 ... monitor, 90 ... personal computer, 91 ... main body, 92 ... keyboard constituting one example of operation means, 93 ... mouse constituting one example of operation means, 94 ... operation means An operation unit constituting one example, 95... Monitor as an example of display means, 96... Computer, 97... CPU, 98. Stereo pair image display processing apparatus as an example, PR ... program, SD ... stereo pair image data, SD1 ... stereo pair image data of topographic relief map as an example of the figure, SD2 ... stereo pair image of a photographic map as an example of a photograph Data, SD3 ... stereo pair image data of geographic information as an example of the figure, LD ... stereo image data for left eye as an example of reference image data, RD ... stereo image data for right eye as an example of relative image data, SG, SG1 SG2 ... stereo pair image, LG ... left eye stereo image as an example of the first image, RG ... right eye stereo image as an example of the second image, ID ... three-dimensional coordinate index data, L ... cumulative distance, H ... Altitude difference, α ... azimuth angle, θ ... tilt angle, S ... area, PD ... polygon data, MP ... map image, PG ... polygon, Z ... elevation value

Claims (9)

図又は写真の二次元画像を立体視可能なステレオペア画像を表示手段に表示させる立体視画像表示処理装置であって、
表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示手段と、
前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理手段と、
前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理手段と、
を備えたことを特徴とする立体視画像表示処理装置。
A stereoscopic image display processing device for displaying on a display means a stereo pair image capable of stereoscopically viewing a two-dimensional image of a figure or a photograph,
Image display means for displaying the first image and the second image constituting the stereo pair image side by side on the display means;
When one of the first image and the second image whose position is designated by the operation of the operation means is a reference image and the other is a relative image, the drawing is performed at the first display position designated by the operation of the operation means First drawing processing means for
The second display position in the relative image that is stereoscopically related to the first display position of the reference image is obtained, and the second display position corresponds to the drawing content at the first display position. A second drawing processing means for drawing the drawing contents;
A stereoscopic image display processing device comprising:
前記基準画像に前記描画内容として描画された描画線で規定される計測情報を取得する計測情報取得手段と、
前記計測情報を前記第1画像と前記第2画像における立体視可能な各表示位置にそれぞれ表示させる第1表示処理手段と
を更に備えたことを特徴とする請求項1に記載の立体視画像表示処理装置。
Measurement information acquisition means for acquiring measurement information defined by a drawing line drawn as the drawing content in the reference image;
2. The stereoscopic image display according to claim 1, further comprising first display processing means for displaying the measurement information at each display position in the first image and the second image that are stereoscopically viewable. Processing equipment.
前記操作手段により前記描画線の節として指定された点の座標に対応する標高値を取得し、前記標高値に基づき前記描画線で切断した断面形状を表示させる第2表示処理手段を更に備えたことを特徴とする請求項2に記載の立体視画像表示処理装置。   The display device further comprises second display processing means for acquiring an elevation value corresponding to the coordinates of the point designated as a node of the drawing line by the operation means and displaying a cross-sectional shape cut by the drawing line based on the elevation value. The stereoscopic image display processing device according to claim 2. 前記描画線の三次元座標データを出力する出力手段を更に備えたことを特徴とする請求項2又は3に記載の立体視画像表示処理装置。   The stereoscopic image display processing apparatus according to claim 2, further comprising an output unit that outputs three-dimensional coordinate data of the drawing line. 前記表示手段に前記ステレオペア画像として表示される二次元画像の種類を切り替える切替手段を更に備えたことを特徴とする請求項2乃至4のいずれか一項に記載の立体視画像表示処理装置。   5. The stereoscopic image display processing apparatus according to claim 2, further comprising a switching unit that switches a type of a two-dimensional image displayed on the display unit as the stereo pair image. 6. 前記基準画像を表示するための基準画像データと、前記基準画像データの画像座標と対応する三次元座標が規定された三次元座標データとを格納する格納手段を更に備え、
前記第2の描画処理手段は、前記操作手段により前記基準画像において指定された点の画像座標に対応する三次元座標を、前記三次元座標データを参照して取得し、当該三次元座標に対応する前記相対画像における画像座標を求め、前記相対画像における当該画像座標に描画することを特徴とする請求項1乃至5のいずれか一項に記載の立体視画像表示処理装置。
Storage means for storing reference image data for displaying the reference image, and three-dimensional coordinate data in which three-dimensional coordinates corresponding to the image coordinates of the reference image data are defined;
The second drawing processing unit obtains a three-dimensional coordinate corresponding to the image coordinate of the point designated in the reference image by the operation unit with reference to the three-dimensional coordinate data, and corresponds to the three-dimensional coordinate The stereoscopic image display processing apparatus according to claim 1, wherein image coordinates in the relative image to be obtained are obtained and drawn at the image coordinates in the relative image.
前記三次元座標データは前記基準画像の表示エリア毎に分けて格納されており、前記三次元座標データを用いて前記基準画像の画像解像度に等しい解像度の三次元地形座標データを再生する再生手段を更に備えたことを特徴とする請求項6に記載の立体視画像表示処理装置。   The three-dimensional coordinate data is stored separately for each display area of the reference image, and using the three-dimensional coordinate data, reproduction means for reproducing three-dimensional terrain coordinate data having a resolution equal to the image resolution of the reference image. The stereoscopic image display processing device according to claim 6, further comprising: 図又は写真の二次元画像を立体視可能なステレオペア画像を表示手段に表示させる立体視画像表示処理方法であって、
表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示段階と、
前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理段階と、
前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理段階と、
を備えたことを特徴とする立体視画像表示処理方法。
A stereoscopic image display processing method for displaying on a display means a stereo pair image capable of stereoscopically viewing a two-dimensional image of a figure or a photograph,
An image display step for displaying the first image and the second image constituting the stereo pair image side by side on the display means;
When one of the first image and the second image whose position is designated by the operation of the operation means is a reference image and the other is a relative image, the drawing is performed at the first display position designated by the operation of the operation means A first drawing process stage,
The second display position in the relative image that is stereoscopically related to the first display position of the reference image is obtained, and the second display position corresponds to the drawing content at the first display position. A second drawing processing stage for drawing drawing contents;
A stereoscopic image display processing method characterized by comprising:
図又は写真の二次元画像のステレオペア画像を表示手段に表示させる立体視画像表示処理をコンピュータに実行させるプログラムであって、
コンピュータに、
表示手段にステレオペア画像を構成する第1画像と第2画像とを並べて表示させる画像表示段階と、
前記第1画像と前記第2画像のうち操作手段の操作で位置が指定される一方を基準画像、他方を相対画像とした場合、前記操作手段の操作で指定された第1の表示位置に描画する第1の描画処理段階と、
前記基準画像の前記第1の表示位置と立体視可能な関係にある前記相対画像における第2の表示位置を求め、当該第2の表示位置に、前記第1の表示位置における描画内容に対応する描画内容を描画する第2の描画処理段階と、
を実行させるためのプログラム。
A program for causing a computer to execute a stereoscopic image display process for displaying a stereo pair image of a two-dimensional image of a figure or a photograph on a display means,
On the computer,
An image display step for displaying the first image and the second image constituting the stereo pair image side by side on the display means;
When one of the first image and the second image whose position is designated by the operation of the operation means is a reference image and the other is a relative image, the drawing is performed at the first display position designated by the operation of the operation means A first drawing process stage,
The second display position in the relative image that is stereoscopically related to the first display position of the reference image is obtained, and the second display position corresponds to the drawing content at the first display position. A second drawing processing stage for drawing drawing contents;
A program for running
JP2010219787A 2010-09-29 2010-09-29 Stereoscopic image display processor, stereoscopic image display processing method, and program Pending JP2012073520A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010219787A JP2012073520A (en) 2010-09-29 2010-09-29 Stereoscopic image display processor, stereoscopic image display processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010219787A JP2012073520A (en) 2010-09-29 2010-09-29 Stereoscopic image display processor, stereoscopic image display processing method, and program

Publications (1)

Publication Number Publication Date
JP2012073520A true JP2012073520A (en) 2012-04-12

Family

ID=46169730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010219787A Pending JP2012073520A (en) 2010-09-29 2010-09-29 Stereoscopic image display processor, stereoscopic image display processing method, and program

Country Status (1)

Country Link
JP (1) JP2012073520A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014175217A1 (en) * 2013-04-22 2014-10-30 株式会社パスコ Mapping system, mapping method, and program
JP2015049806A (en) * 2013-09-03 2015-03-16 株式会社アイジェット Three-dimensional data creation method, three-dimensional shaped article employing the same, and manufacturing method therefor
JP2018077254A (en) * 2014-11-19 2018-05-17 首都高技術株式会社 Point group data utilization system
CN108831230A (en) * 2018-07-09 2018-11-16 广东小天才科技有限公司 A kind of learning interaction method and intelligent table lamp automatically tracking learning Content
JPWO2018124286A1 (en) * 2016-12-28 2019-11-07 三菱ケミカルアクア・ソリューションズ株式会社 Remote monitoring system, remote monitoring method, remote monitoring program, image creating apparatus, image creating method, and image creating program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014175217A1 (en) * 2013-04-22 2014-10-30 株式会社パスコ Mapping system, mapping method, and program
JP2014216675A (en) * 2013-04-22 2014-11-17 株式会社パスコ Mapping system, mapping method, and program
JP2015049806A (en) * 2013-09-03 2015-03-16 株式会社アイジェット Three-dimensional data creation method, three-dimensional shaped article employing the same, and manufacturing method therefor
JP2018077254A (en) * 2014-11-19 2018-05-17 首都高技術株式会社 Point group data utilization system
JPWO2018124286A1 (en) * 2016-12-28 2019-11-07 三菱ケミカルアクア・ソリューションズ株式会社 Remote monitoring system, remote monitoring method, remote monitoring program, image creating apparatus, image creating method, and image creating program
CN108831230A (en) * 2018-07-09 2018-11-16 广东小天才科技有限公司 A kind of learning interaction method and intelligent table lamp automatically tracking learning Content

Similar Documents

Publication Publication Date Title
KR0180813B1 (en) On-vehicle navigation equipment
JP4964762B2 (en) Map display device and map display method
EP2428769B1 (en) Generating a multi-layered geographic image and the use thereof
JP4771459B2 (en) Color elevation slope map creation system and color elevation slope map creation method
KR100325435B1 (en) Method of Manufacturing Map Using Satellite Image Data
JP3266236B2 (en) Car navigation system
US10627243B2 (en) Combined raster and vector data representation
JP5964771B2 (en) 3D map display device, 3D map display method, and computer program
KR102090852B1 (en) three dimensional map display system
KR100417638B1 (en) Digital Photogrammetric Manufacturing System using General PC
JP2012073520A (en) Stereoscopic image display processor, stereoscopic image display processing method, and program
JPH10267671A (en) Landscape labeling device and system
JP6022386B2 (en) 3D map display device, 3D map display method, and computer program
Koeva 3D modelling and interactive web-based visualization of cultural heritage objects
KR100732915B1 (en) Method for three-dimensional determining of basic design road route using digital photommetry and satellite image
KR20070099298A (en) Method and apparatus for three-dimensional form generation for mobile navigation
JP6700519B1 (en) Synthetic image generation device, synthetic image generation program, and synthetic image generation method
JP2007041692A (en) Three-dimensional geographical data controller and three-dimensional geographical data control method
JP4592510B2 (en) 3D map image generating apparatus and method
JP3313679B2 (en) Bird's eye and driving simulation system and recording medium
JP6079990B2 (en) Information processing apparatus, information processing method, and program
JP5888938B2 (en) Drawing device
JP3851887B2 (en) Stereoscopic map display apparatus and method using stereo photography
JP3156649B2 (en) Deformable label landscape labeling device and system
JP7280028B2 (en) Map image projection device and program