JPH0816930B2 - Method to obtain three-dimensional numerical data from stereo image data - Google Patents

Method to obtain three-dimensional numerical data from stereo image data

Info

Publication number
JPH0816930B2
JPH0816930B2 JP1308038A JP30803889A JPH0816930B2 JP H0816930 B2 JPH0816930 B2 JP H0816930B2 JP 1308038 A JP1308038 A JP 1308038A JP 30803889 A JP30803889 A JP 30803889A JP H0816930 B2 JPH0816930 B2 JP H0816930B2
Authority
JP
Japan
Prior art keywords
matching
image
data
point
corresponding points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1308038A
Other languages
Japanese (ja)
Other versions
JPH03167678A (en
Inventor
孝平 嶋本
内田  修
智佳朗 広田
俊男 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP1308038A priority Critical patent/JPH0816930B2/en
Publication of JPH03167678A publication Critical patent/JPH03167678A/en
Publication of JPH0816930B2 publication Critical patent/JPH0816930B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、人工衛星又は航空機等から得られた画像デ
ータを元にして、3次元計測を行い、このデータを用い
て地形補正された画像を作成しまた必要に応じて自由に
視点を変えた画像(鳥瞰画像)を作成するような3次元
画像処理技術に関するものであり、特に、このような3
次元画像処理技術において使用するのに適したような、
画像データから3次元数値画像データを求める方法に関
するものである。
TECHNICAL FIELD The present invention relates to three-dimensional measurement based on image data obtained from an artificial satellite, an aircraft, or the like, and creates a terrain-corrected image using this data. The present invention also relates to a three-dimensional image processing technique for creating an image (bird's-eye view image) whose viewpoint is freely changed as needed.
Suitable for use in three-dimensional image processing technology,
The present invention relates to a method for obtaining three-dimensional numerical image data from image data.

従来の技術 この種の画像データから3次元数値画像データを求め
る方法は、数値地形モデル(Digital Terrain Mode
l)、いわゆるDTMを求める方法として知られており、現
在、DTM作成方法としては次のようなものがある。
2. Description of the Related Art A method for obtaining three-dimensional numerical image data from this type of image data is a digital terrain model (Digital Terrain Mode).
l), which is known as a method for obtaining a so-called DTM, and currently, there are the following methods for creating a DTM.

A.地形図を用いる方法 現在、既成図(1/50000、1/25000等の地形図)を用い
てDTMを取得する方法として、次に示す2通りの方法を
あげることができる。
A. Method using topographic maps At present, there are the following two methods for acquiring DTM using existing maps (topographic maps such as 1/50000 and 1/25000).

(1)マニュアルモード この方法は、地形図にメッシュを引きコンターからメ
ッシュ点の標高を読み取っていく方法である。
(1) Manual mode This method is to draw the mesh on the topographic map and read the elevation of the mesh points from the contour.

(2)スキャナーモード この方法は、ドラムスキャナーによって地形図を読み
込み、ラスターベクター変換、細線化処理、標高属性付
加処理、メッシュ化処理を行いDTMを作成する方法であ
る。
(2) Scanner mode This method is a method of creating a DTM by reading a topographic map with a drum scanner, performing raster vector conversion, thinning processing, elevation attribute addition processing, and meshing processing.

B.解析図化機を用いる方法 (1)メッシュモード この方法は、メスマークを指定したステップサイズで
ステップさせながら、DTMを作成していく方法である。
B. Method using an analysis plotter (1) Mesh mode This method is a method of creating a DTM while stepping a female mark with a specified step size.

(2)コンターモード 通常の図化作業と同様に等標高値(コンター)を追跡
していきながらランダム標高値を数値化していく方法で
ある。
(2) Contour mode This is a method of digitizing random elevation values while tracing the equal elevation values (contours) as in the case of normal plotting work.

C.汎用コンピュータを用いて全自動計測を行う方法 この方法は、航空写真のAD変換データを入力データと
し、汎用コンピュータを用いて面積相関法によって左右
の画像マッチングを自動で行い、DTMを取得する方法で
ある。
C. Method of performing fully automatic measurement using a general-purpose computer This method uses AD conversion data of aerial photographs as input data and automatically performs left-right image matching by the area correlation method using a general-purpose computer to obtain DTM. Is the way.

発明が解決しようとする課題 前述したような各種DTM作成方法のうち、地形図を用
いる方法は、ベースデータが地形図であるため、DTMの
精度は写真から直接取得する方法に比較して劣るもので
あり、また、自動的に行われるものでないので、大変な
作業であり、時間の掛かるものであった。また、解析図
化機によるメッシュモードの方法によって取得したDTM
からコンターを作成した場合、測定順序及びオペレータ
の熟練度によってコンターが波打つ現象が生じ、数回の
スムージング処理を行わない限り、最終成果品とはなら
ない。さらにまた、解析図化機によるコンターモードの
場合には、メッシュモードに比較してコンターの精度は
良いが、データ量が膨大(データを等距離、等時間モー
ドで取得)となり且つランダムデータからメッシュデー
タ(DTM)に変換する必要性が生じる。
Problems to be Solved by the Invention Among the various DTM creating methods described above, the method using a topographic map is inferior to the method of directly obtaining from a photograph because the base data is the topographic map. Moreover, since it is not done automatically, it is a difficult work and takes time. In addition, the DTM acquired by the mesh mode method using the analysis plotter
When the contour is created from the contour, the phenomenon that the contour undulates occurs depending on the measurement order and the skill level of the operator, and the final product is not obtained unless the smoothing process is performed several times. Furthermore, in the contour mode by the analysis plotter, the contour accuracy is better than that in the mesh mode, but the amount of data is enormous (data is acquired in the equidistant, isochronous mode) and the mesh is generated from random data. The need arises to convert to data (DTM).

また、汎用コンピュータを用いて全自動計測を行う方
法は、自動的にDTMを取得するという点で、前述した従
来の方法に比べてオペレータの作業量は大幅に減少する
のであるが、この際、標定計算は別途に行っておく必要
がある上、膨大な画像データを用いた計算を行うため、
汎用コンピュータでは相当な計算時間が必要とされ、さ
らに、一括処理によって得られたDTMデータは対応点の
ミスマッチングにより部分的に誤差が生じており、これ
らを修正するのが非常に困難であった。
In addition, the method of performing full-automatic measurement using a general-purpose computer, in that the DTM is automatically acquired, the work load of the operator is significantly reduced compared to the conventional method described above. Since the orientation calculation needs to be performed separately, and because calculation is performed using a large amount of image data,
A general-purpose computer requires a considerable amount of calculation time, and the DTM data obtained by batch processing has some errors due to mismatching of corresponding points, making it very difficult to correct them. .

本発明の目的は、前述したような従来の問題点を解決
しうるような、画像データから3次元数値画像データを
求める方法を提供することである。
An object of the present invention is to provide a method for obtaining three-dimensional numerical image data from image data, which can solve the above-mentioned conventional problems.

課題を解決するための手段 本発明によるステレオ画像データから3次元データを
求める方法は、画像データに対応するAD変換データを入
力データとしてコンピュータを用いて、1画像データ単
位で一括処理による左右の画像マッチングを自動的に行
って左右の画像の対応点を求め、マッチングの良否を示
す相関係数、残差自乗和によってマッチングの良くない
箇所の対応点のみを左右のグラフィックディスプレイ上
に出力し、これらマッチング異常が発生している対応点
についてはオペレータが正しいと思われる対応点をカー
ソルによって指定して再度コンピュータに左右の画像マ
ッチングを行わせることにより、コンピュータによるマ
ッチング異常を修正させながら、半自動的に画像データ
の所望の各点の3次元データを求めることを特徴とす
る。
Means for Solving the Problem A method for obtaining three-dimensional data from stereo image data according to the present invention uses a computer with AD conversion data corresponding to the image data as input data to obtain left and right images by batch processing in units of one image data. Matching is automatically performed to find the corresponding points on the left and right images, and the correlation coefficient indicating the quality of the matching, and the corresponding points at which the matching is not good are output on the left and right graphic displays by the residual sum of squares. For matching points where matching abnormalities have occurred, the operator specifies the corresponding points that appear to be correct with the cursor, and causes the computer to perform image matching on the left and right again. Characterized by obtaining three-dimensional data of each desired point of image data To.

実施例 次に、添付図面に基づいて、本発明の実施例について
本発明をより詳細に説明する。
EXAMPLES Next, the present invention will be described in more detail with reference to the accompanying drawings with reference to the examples of the present invention.

第1図は、本発明の一実施例としての画像データを用
いた半自動3次元計測システムのフローチャートを示し
ている。本発明によって、航空写真による画像データか
ら3次元数値画像データを取得する場合について説明す
るに、先ず、第1図のフローチャートのステップ1に示
すように、解析対象の航空写真をコンピュータで直接扱
える形とするため、アナログからデジタルへデータ変換
を行う。また、解析対象データが人工衛星データのよう
にデジタルデータの場合は、本システムで取り扱うこと
のできるフォーマットへフォーマット変換を行う。次
に、ステップ2に示すように、コンピュータによる標定
計算を行うための基準となる、写真の指標、パスポイン
ト、基準点等の座標を計測する。座標計測の方法は、オ
ペレータがCRT上に出力された計測対象画像を見なが
ら、測定点上にカーソルを移動し、座標を計測する。ま
た、パスポイント計測の場合は、左右の画像を同時にCR
T上に出力し、2つのカーソルを用いて計測を行う。そ
れから、ステップ3に示すように、標定計算を行う。
FIG. 1 shows a flowchart of a semi-automatic three-dimensional measurement system using image data as an embodiment of the present invention. The case of obtaining three-dimensional numerical image data from image data of an aerial photograph according to the present invention will be described. First, as shown in step 1 of the flowchart of FIG. 1, the aerial photograph to be analyzed can be directly handled by a computer. Therefore, data is converted from analog to digital. In addition, if the data to be analyzed is digital data such as artificial satellite data, format conversion is performed to a format that can be handled by this system. Next, as shown in step 2, the coordinates of a photograph index, a pass point, a reference point, and the like, which serve as a reference for performing orientation calculation by a computer, are measured. In the coordinate measurement method, the operator moves the cursor to the measurement point while observing the measurement target image output on the CRT to measure the coordinates. Also, in the case of pass point measurement, CR
Output on T and measure using two cursors. Then, as shown in step 3, orientation calculation is performed.

ここで、標定計算は、カメラの焦点距離、カメラのレ
ンズの歪を求める内部標定と、撮影点(カメラ)の位置
(X,Y,Z)、カメラ(センサー)の傾き(κ,ω,φ)
を求める外部標定と、左右の写真の位置関係を求める相
互標定と、左右の写真で形成されるモデルと地上との位
置関係を求める対地標定(絶対標定)とを含むものであ
り、標定計算の手法は、通常の解析写真測量の手法を用
いて行われる。解析対象が航空写真ではなくスポットデ
ータのような人工衛星データの場合は、画像の投影方式
が中心投影ではなく、スリットカメラのような投影方式
となるため、標定要素を時間の関数として計算を行う。
Here, the orientation calculation includes the internal orientation for obtaining the focal length of the camera and the distortion of the lens of the camera, the position (X, Y, Z) of the shooting point (camera), and the inclination (κ, ω, φ) of the camera (sensor). )
It includes an external orientation that determines the positional relationship between the left and right photographs, and a ground orientation (absolute orientation) that determines the positional relationship between the model formed by the left and right photographs and the ground. The method is carried out using a usual analytical photogrammetry method. When the analysis target is not an aerial photograph but artificial satellite data such as spot data, the projection method of the image is not a central projection but a projection method like a slit camera, so the orientation element is calculated as a function of time. .

画像データは、通常データ量が膨大であり、一括して
マッチングを行うことはメモリーや時間等の制約上無理
がある。また、対応点の探索時に迷走を防止するという
理由からも一括処理は行わないことが望ましい。そこ
で、ステップ4に示すように、解析領域を1度に処理す
る複数の単位(これをパッチと呼ぶ)に分割し、後述す
るマッチングの処理はパッチ毎に独立して行えるように
する。
The image data usually has a huge amount of data, and it is impossible to perform matching all at once due to restrictions on memory and time. In addition, it is desirable not to carry out batch processing for the reason of preventing straying when searching for corresponding points. Therefore, as shown in step 4, the analysis area is divided into a plurality of units (this is called a patch) to be processed at one time, and the matching processing described later can be performed independently for each patch.

次にステップ5に示すように、左右画像の対応点を求
めていくのに先立って、画像をモデル座標系のXY平面上
に投影して、偏位修正を行う。こうすると、左右画像の
対応点は、常に同一のY座標をもつため、対応点を探索
する際にX軸の一次方向にのみ探索すればよく、マッチ
ングの処理が容易となる。
Next, as shown in step 5, the image is projected onto the XY plane of the model coordinate system to correct the deviation prior to obtaining the corresponding points of the left and right images. In this way, since the corresponding points of the left and right images always have the same Y coordinate, it is only necessary to search the corresponding points in the primary direction of the X axis, and the matching process becomes easy.

後述するような面積相関法を用いたマッチングにおい
ては、画像の高周波部が投影歪のために雑音化され、相
関を低下させてしまい、精度の良いマッチングを行うこ
とができないので、ステップ6に示すように、画像を予
め狭域な帯域フィルタであるラプラシアン・ガウスフィ
ルタ(L/Gフィルタ)に通しておいて、投影歪の影響を
抑えることにより、マッチングの収束性を高めておく。
具体的には、偏位修正後の画像に対して、周波数特性の
異なる3種類のL/Gフィルタをかけ、低周波数から高周
波数へ変化する3種類の画像を作成する。そして、マッ
チングを行う際に、最初、低周波数の画像を用いて粗い
マッチングを行い、その結果を考慮しながら次第に周波
数が高い画像を用いてマッチングを行い、対応点の位置
を収束させていく。
In the matching using the area correlation method, which will be described later, the high frequency part of the image is converted into noise due to the projection distortion, and the correlation is lowered, so that the accurate matching cannot be performed. As described above, the image is passed through a Laplacian-Gauss filter (L / G filter) which is a narrow band filter in advance, and the effect of projection distortion is suppressed to improve the convergence of matching.
Specifically, three types of L / G filters having different frequency characteristics are applied to the image after the deviation correction, and three types of images changing from a low frequency to a high frequency are created. Then, when performing matching, first, rough matching is performed using low-frequency images, and matching is performed using images with gradually higher frequencies, and the positions of corresponding points are converged while considering the results.

次に、ステップ7に示すように、低周波から高周波へ
移る各段階のフィルタリング画像を4、2、1が画素毎
にサンプリングして縮納したパッチ画像を作成する。以
後のマッチングは、これらの縮納したパッチ画像を用い
て行う。それから、ステップ8に示すように、各段階の
縮納パッチ画像の左画像上に、8画素間隔で格子点を配
置する。後述するコンピュータによるマッチングでは、
この左画像の格子点に対応する右画像の対応点の探索を
行う。オリジナル画像上での格子点の配置を第2図に示
している。
Next, as shown in step 7, the filtered image at each stage of shifting from low frequency to high frequency is sampled by 4, 2, 1 pixel by pixel to create a compressed patch image. Subsequent matching is performed using these reduced patch images. Then, as shown in step 8, grid points are arranged at 8-pixel intervals on the left image of the reduction patch image at each stage. In the computer matching described below,
The corresponding points in the right image corresponding to the grid points in the left image are searched. The arrangement of grid points on the original image is shown in FIG.

次に、ステップ9に示すように、第1段階のマッチン
グでは、平均標高Hの平坦地形と仮定し、画像上に格子
点を配置しマッチングを行う。次の段階では、各格子点
で求められたX視差からX軸方向の投影歪をなくすよう
に左右画像をリサンプリングする。
Next, as shown in step 9, in the first-stage matching, it is assumed that the flat terrain has an average altitude H, and grid points are arranged on the image to perform matching. In the next stage, the left and right images are resampled so as to eliminate the projection distortion in the X axis direction from the X parallax obtained at each grid point.

ここで、コンピュータを用いてステレオ画像から3次
元情報を得る際に最も重要となる問題は、いかにして左
右の画像の対応点を正確にみつけていくかということで
ある。現在一般的に知られている左右画像の対応点の取
得方法(ステレオマッチング手法)としては、次に示す
3種類の手法に大別することができる。
Here, the most important problem when obtaining three-dimensional information from a stereo image using a computer is how to accurately find corresponding points in the left and right images. The generally known methods for obtaining the corresponding points of the left and right images (stereo matching method) can be roughly classified into the following three types.

A.濃度分布の面積相関 左右画像の有限部分の濃度分布の類似性を比較する。
通常は左右画像の相関を計算して最大点を見出す。
A. Area Correlation of Density Distribution Compare the similarity of density distribution in finite parts of left and right images.
Normally, the correlation between the left and right images is calculated to find the maximum point.

B.特徴のマッチング 左右画像から特徴(feature)を抽出して記号化し、
それを対応付ける。
B. Feature matching Extract features from the left and right images and symbolize them.
Map it.

C.分割画像同志のマッチング 画像を何らかの特性によって類似部分に分割し、分割
画像毎に対応付ける。類似性を表す特性としては、一様
なテクスチャ部分、エッジの輪郭、カラー画像であれば
同色部分などを用いる。
C. Divided images Matching matching images Divide an image into similar parts according to some characteristics, and associate each divided image. As the characteristic indicating the similarity, a uniform texture portion, an edge contour, and a color image having the same color portion are used.

前述の3種類の手法のうち、A.項の面積相関法は、最
も古くからステレオに限らずいろいろなパターンのマッ
チングに用いられている。具体的には、左画像上に正方
形の相関窓をとり、これをテンプレートとして右画像上
に定めた探索窓内を動かして、最も一致度の良い対応点
を探索する。従って、マッチングさせる画像は、テクス
チャが豊富であることが必要とされる。写真測量では、
扱う画像が比較的テクスチャが豊富な航空写真画像であ
ることが多いこと、また実用という観点から面積相関は
扱いやすい手法であることから、専らこの方法が用いら
れてきている。
Of the above-mentioned three types of methods, the area correlation method in section A. has been used for matching various patterns for the longest time, not limited to stereo. Specifically, a square correlation window is taken on the left image, and the inside of the search window defined on the right image is moved using this as a template to search for the corresponding point with the best degree of coincidence. Therefore, the images to be matched need to be rich in texture. In photogrammetry,
This method has been used exclusively because the image to be handled is often an aerial photographic image with a relatively large amount of texture, and the area correlation is a method that is easy to handle from the viewpoint of practical use.

この面積相関については、相関の尺度を工夫して、ピ
ークの感度を向上させ、且つ信号雑音比の低い画像でも
安定してマッチングできるようにしようという研究が比
較的多くなされている。
With respect to this area correlation, a relatively large amount of research has been conducted to improve the sensitivity of peaks and to make it possible to perform stable matching even in an image with a low signal-noise ratio by devising a scale of the correlation.

画像関数および雑音の相関関数が分かっているときに
は、適合フィルターによる手法を用いることができる。
When the image function and the noise correlation function are known, the adaptive filter approach can be used.

n(x)を白色雑音、f(x)を左画像の信号とした
とき、 g(x)=f(x)+n(x) の関係があるとする。このとき、適当な線型フィルタh
(x)をg(x)に通したときの出力 の信号対雑音比がx=aで最大となるようにするには、 h(x)=f(a−x) とすればよい。これは、通常の相互相関 が最大の信号対雑音比を与えることを意味する。このこ
とが、マッチングの基準に相互関係が多く用いられる根
拠であり、本発明の実施例でもこの面積相関法を用いて
いる。
When n (x) is white noise and f (x) is a signal of the left image, it is assumed that there is a relationship of g (x) = f (x) + n (x). At this time, an appropriate linear filter h
Output when (x) is passed through g (x) In order to maximize the signal-to-noise ratio of x at x = a, h (x) = f (ax) may be set. This is the normal cross correlation Means that gives the maximum signal to noise ratio. This is the reason why mutual relations are often used as matching criteria, and the area correlation method is also used in the embodiment of the present invention.

ステップ10に進んで、コンピュータにて相互相関係数
による左右対応点の探索を行うのであるが、これは、第
3図に示すように、ステップ9にてリサンプリングを終
えたパッチ上の格子点の回りに相関窓を設定することに
より行われる。この相関窓を右パッチ上に設けた探索窓
内で動かし(X方向)、最大相関を与える対応点を探索
する。マッチングの基準としては、相互相関係数を用い
る。
In step 10, the computer searches for left and right corresponding points by means of the cross-correlation coefficient. As shown in FIG. 3, this is because the grid points on the patch whose resampling has been finished in step 9 are completed. This is done by setting a correlation window around. This correlation window is moved within the search window provided on the right patch (X direction) to search for the corresponding point that gives the maximum correlation. A cross-correlation coefficient is used as a matching criterion.

相関窓の大きさは、16*16画素とし、左右パッチ上の
相関窓および探索窓に含まれる画素の濃度値をそれぞれ
a(i,j)、b(i,j)(i,j=1,2,〜,16)で表すと、 探索幅は、第1段階では±16画素、第2、3段階では
±3画素とした。
The size of the correlation window is 16 * 16 pixels, and the density values of the pixels included in the correlation window and the search window on the left and right patches are a (i, j) and b (i, j) (i, j = 1, respectively). , 2, 〜, 16) The search width was ± 16 pixels in the first stage and ± 3 pixels in the second and third stages.

このステレオマッチングの段階でミスマッチングが起
こった場合、次の段階でのマッチングに悪影響を及ぼ
し、マッチングが迷走してしまう。そこで、ステップ11
に示すように、突発的なミスマッチングを除去し、比高
の急変部分のエッジを保つフィルタ特性を持つメディア
ン・フィルタでX視差をフィルタリングする。
If a mismatch occurs in this stereo matching stage, it will adversely affect the matching in the next stage, and the matching will stray. So step 11
As shown in (1), the X-parallax is filtered by a median filter having a filter characteristic that removes sudden mismatching and keeps the edge of the sudden change in specific height.

このようにして、ステレオマッチングについては、全
てコンピュータを用いて自動的に行われていくのである
が、結果は全て正しいとはいえない場合がある。そこ
で、本システムでは、ステップ12に示すように、これら
の修正処理をグラフィックディスプレイ上(ステレオ画
像の対応点を画像上に出力)に出力し、これをオペレー
タがモニターしながら修正する。
In this way, all stereo matching is automatically performed using a computer, but the results may not be all correct. Therefore, in the present system, as shown in step 12, these correction processes are output on a graphic display (corresponding points of a stereo image are output on the image), and the operator corrects them while monitoring them.

本システムでは、このようなステレオマッチングのオ
ペレーション方法としては、次の3つのモードで行われ
る。
In this system, the operation method of such stereo matching is performed in the following three modes.

A.モード1‥‥一括処理モード(平坦地適応) モデル単位で一括処理によるステレオマッチングの計
算を行い、マッチングの良否を示す相関係数、残差自乗
和によってマッチングの良くない箇所のみについてグラ
フィックディスプレイ上に対応点を出力し、オペレータ
がこれをチェックしマッチング異常が発生している対応
点については、オペレータが大体の位置をカーソルによ
って指定し、再度ステレオマッチングの計算を行い対応
点の計算をしなおす。
A. Mode 1 Batch processing mode (flat ground adaptation) A stereo display is calculated by batch processing in model units, and a correlation display showing the quality of the matching, and a graphic display of only the areas where the matching is bad due to the residual sum of squares The corresponding points are output to the above, the operator checks this, and for the corresponding points where the matching abnormality occurs, the operator specifies the approximate position with the cursor, calculates the stereo matching again and calculates the corresponding points. fix.

B.モード2‥‥単点処理モード(急峻地適応) 各単点単位でステレオマッチングの計算を行い、グラ
フィックディスプレイ上に対応点を出力し、オペレータ
がこれをチェックし、マッチング異常が発生している対
応点については、オペレータが大体の位置をカーソルに
よって指定し、再度ステレオマッチングの計算を行い対
応点の計算をしなおす。
B. Mode 2 ... Single point processing mode (sudden ground adaptation) Stereo matching calculation is performed for each single point, the corresponding points are output on the graphic display, and the operator checks this and a matching error occurs. For the corresponding points, the operator specifies the approximate position with a cursor, and again performs stereo matching calculation and recalculates the corresponding points.

C.モード3‥‥地域処理モード(平坦地と急峻地の複合
した地域に適応) 予め平坦地と急峻地(陰影部)の区別を画像処理(濃
度スライス、最尤法等)又は、オペレータによって区分
し、この区分結果をもとに一括処理モードを先ず行い、
次に、単点処理モードによって陰影部の処理を行う。
C. Mode 3 Area processing mode (adapted to a combined area of flat land and steep land) In advance, image processing (density slicing, maximum likelihood method, etc.) of flat land and steep land (shaded area) or by operator Divide, and first perform batch processing mode based on this division result,
Next, the shadow portion is processed in the single point processing mode.

この点さらに詳述すると、パッチ画像に対してステッ
プ5にて偏位修正、ステップ6にてフィルタリングが施
され、ステップ10にて、左右対応点の探索が行われる。
このとき、ディスプレイ装置上には、第4図に示すよう
に、左右の偏位修正画像が表示される。そして、探索が
行われた対応点の位置がディスプレイ装置上に点滅表示
(ブリンク)される。一括処理モードの如く、処理が異
常点のみチェック処理ならば、対応点の探索結果が異常
と判定された時のみ、“OK"、“NO"の表示が出力され、
オペレータは対応点の位置の正否を指定する。“OK"を
指定すると、次の格子点へ進む、単点処理モードの如
く、処理が全点チェック処理ならば、対応点が探索され
ると、“OK"、“NO"の表示が出力され、オペレータは対
応点の位置の正否を指定する。“OK"を指定すると、次
の格子点へ進む。すべての格子点の対応点が求まると、
ステップ12の対応点チェック処理へ移る。そして、すべ
てのパッチが終了すると、ステップ14のDTM出力処理へ
移る。
More specifically, in this point, the patch image is subjected to deviation correction in step 5, filtering is performed in step 6, and left and right corresponding points are searched in step 10.
At this time, as shown in FIG. 4, left and right deviation corrected images are displayed on the display device. Then, the position of the searched corresponding point is blinked (blink) on the display device. If the process is a check process for only abnormal points as in batch processing mode, "OK" and "NO" are displayed only when the corresponding point search result is determined to be abnormal.
The operator specifies whether the position of the corresponding point is correct or not. If "OK" is specified, the process proceeds to the next grid point. If the processing is all-point check processing, as in the single-point processing mode, when the corresponding points are searched, "OK" and "NO" are displayed. The operator specifies whether the position of the corresponding point is correct or not. If you specify "OK", you will proceed to the next grid point. When the corresponding points of all grid points are found,
The process moves to the corresponding point check process in step 12. Then, when all patches are completed, the process proceeds to the DTM output process of step 14.

ステップ12での対応点チェック処理においては、部分
的にマッチングがうまく行われていない場合には次のよ
うな原則にしたがって、処理する。先ず、左右の画像パ
ターンがほとんど無く、実体視が不可能で計測ができな
いと判断される場合には、計測を行わない。左右の画像
パターンはあるが、計測ポイントが不良(ハレーショ
ン、影等が片側の写真のみで写っている)と判断され且
つ近くの別の場所で対応がとり易いと判断される場所が
ある場合、左側の計測点をマウスで指定し右側の対応点
ゾーンを指定する。すなわち、ステップ13からステップ
10へ戻って、指定された地点のマッチング計算処理を再
度コンピュータ側で行い、この結果をモニター上に表示
し再度チェックする。この第1回目に表示される対応点
もオペレータが視差差が大き過ぎて全面的におかしいと
判断する場合には、左右画像上には対応点がないものと
判断して、オペレータは、ステップ6の1段階目より低
周波のL/Gフィルタリングへと戻るようにする。また、
局所的(地域的)にマッチング処理がうまく行われてい
ない場合には、次のような原則にしたがって、処理す
る。マッチング探索領域が不良のためミスマッチングが
連続的に発生していると判断されるので、ミスマッチン
グのスタートポイントおよびミスマッチング領域をマウ
スで指示し、右画像上のスタートポイントの対応点ゾー
ンを指示し、スタートポイントから再度マッチング処理
を行う。
In the corresponding point check processing in step 12, if the matching is partially unsuccessful, processing is performed according to the following principle. First, if there are almost no left and right image patterns and it is determined that stereoscopic vision is impossible and measurement cannot be performed, measurement is not performed. Although there are left and right image patterns, if there is a place where the measurement point is judged to be bad (halation, shadow, etc. are seen in only one side of the photo) and there is a place nearby where it is easy to handle, Specify the measurement point on the left side with the mouse and the corresponding point zone on the right side. That is, from step 13 to step
Return to 10 and perform the matching calculation processing of the designated point again on the computer side, display the result on the monitor and check again. When the operator also determines that the corresponding points displayed at the first time are too large because the parallax is too large, the operator determines that there is no corresponding point on the left and right images, and the operator determines in step 6 Return to the low frequency L / G filtering from the first step. Also,
If the matching process is not successful locally (regionally), it is processed according to the following principle. Since it is judged that mismatching occurs continuously because the matching search area is defective, point the start point of mismatching and the mismatching area with the mouse, and specify the corresponding point zone of the start point on the right image. Then, the matching process is performed again from the start point.

より具体的には、対応点位置の正否で“NO"を指定し
ていた場合は、第4図の下方に示すように、マウスによ
り右画像上の正しい対応点の位置を指定する。位置指定
が終わったならば、“OK"をマウスで指定する。こうし
て、パッチ内のすべての対応点の位置が求まったなら
ば、第5図に示すように、ディスプレイ装置上に格子点
とその対応点が表示される。そのままで良ければ、マウ
スで“OK"を指定する。“OK"を指定すると、処理は次の
パッチへ進む。修正を行いたいならば、マウスで“NO"
を指定する。“NO"を指定したならば、修正を行う方法
をマウスで指定する。“全点やり直し”ならば、パッチ
内の対応点の探索を初めからやり直す。“1点ずつやり
直し”ならば、1点ずつ修正を加える。
More specifically, when "NO" is designated by the correctness of the corresponding point position, the correct corresponding point position on the right image is designated by the mouse as shown in the lower part of FIG. After specifying the position, specify "OK" with the mouse. When the positions of all corresponding points in the patch have been obtained in this way, the grid points and their corresponding points are displayed on the display device, as shown in FIG. If it is OK as it is, specify "OK" with the mouse. If "OK" is specified, the process proceeds to the next patch. If you want to make corrections, click "NO" with the mouse.
Is specified. If "NO" is specified, specify how to make corrections with the mouse. If it is “redo all points”, search for corresponding points in the patch is restarted from the beginning. If "Redo one by one", add one point at a time.

“1点ずつやり直し”処理の場合には、第6図に示す
ように、修正を行いたい点について、初めに左画像上の
格子点の位置をマウスで指定する。次に、右画像上の対
応点の位置をマウスで指定する。他の点に対して修正を
行うならば、“次の点”をマウスで指定する。修正が終
わりならば、“終り”をマウスで指定する。処理は、対
応点チェック処理へ再び戻る。
In the case of "redoing one point at a time" processing, as shown in FIG. 6, the position of the grid point on the left image is first designated with the mouse for the point to be corrected. Next, the position of the corresponding point on the right image is designated with the mouse. To make corrections to other points, specify the "next point" with the mouse. When the correction is over, specify "End" with the mouse. The process returns to the corresponding point check process again.

単点モードの場合には、第7図に示すように、パッチ
画像に対して偏位修正処理が施され、ディスプレイ装置
上に左右の偏位修正画像が出力される。標高を求めたい
点に対して、初めに左画像上の位置をマウスで指定し、
次に右画像上の位置をマウスで指定する。位置の指定が
終わったら、マウスで次の処理を指定する。すなわち、
“次の点”を指定すれば、次の点の入力を行い、“終
り”を指定すれば、次のパッチへ進む。こうして、すべ
てのパッチが終了したならば、処理は、ステップ14のDT
Mの出力へ進む。
In the case of the single point mode, as shown in FIG. 7, the deviation correction processing is performed on the patch image, and the left and right deviation correction images are output on the display device. First, specify the position on the left image with the mouse for the point you want to obtain the altitude,
Next, specify the position on the right image with the mouse. After specifying the position, specify the next process with the mouse. That is,
If "Next point" is specified, the next point is input. If "End" is specified, the next patch is entered. Thus, when all the patches have been completed, the process proceeds to step 14 DT.
Proceed to the output of M.

ステップ14のDTMの作成においては、マッチング終了
後、格子点ごとに求められていたX視差を用いて地上標
高をコンピュータにより計算する。第8図において、点
Pの地上座標を偏位修正後の写真座標で表すと、次の式
の通りである。
In the creation of the DTM in step 14, after the matching is completed, the ground elevation is calculated by the computer using the X parallax obtained for each grid point. In FIG. 8, the ground coordinates of the point P are represented by the photographic coordinates after the deviation correction as shown in the following formula.

但し、B:撮影基線長 S:縮尺係数 C:画面距離 dij(i=1、2、3:j=1、2、3) :モデル全体の回転行列 上式より各格子点の地上座標(XGP,YGP,ZGP)が求ま
り、DTMを作成する。この地上点の集合は、ある程度規
則的ではあるが地上座標系では正方格子を作らない。そ
のため、後の利用に便利なように、これらのランダム・
メッシュを正方メッシュに内挿する。このようにして計
測されたDTMは、ディスクに記録してファイル化してお
く。
However, B: shooting baseline length S: scale factor C: screen distance d ij (i = 1, 2, 3: j = 1, 2, 3): rotation matrix of the entire model From the above equation, the ground coordinates of each grid point ( X GP , Y GP , Z GP ), and create DTM. This set of ground points does not form a square grid in the ground coordinate system, although it is somewhat regular. Therefore, for the convenience of later use, these random
Interpolate the mesh into a square mesh. The DTM measured in this way is recorded on a disk and made into a file.

このようにしてファイル化された正方化メッシュ(DT
M)を用いて、等高線図(コンター図)や3次元鳥瞰図
を作成することができ、また、これら正方化メッシュお
よび画像データを用いて写真地図や3次元鳥瞰画像を作
成することができる。
The squared mesh (DT
M) can be used to create a contour map (contour map) or a three-dimensional bird's-eye view, and a square map and image data can be used to create a photographic map or a three-dimensional bird's-eye view image.

発明の効果 本発明の方法によれば、画像データからコンピュータ
によるステレオマッチングにより3次元情報を自動的に
取得できるので、写真地図および鳥瞰画像等の3次元グ
ラフィック処理を効率よく行うことができる上、従来ミ
スマッチングの修正時にコンピュータが迷走したりして
長時間を徒過してしまっていたような問題も、オペレー
タが介在することにより半自動的にミスマッチングを修
正できるようにしたので、解消できる。
EFFECTS OF THE INVENTION According to the method of the present invention, three-dimensional information can be automatically obtained from image data by stereo matching by a computer, so that three-dimensional graphic processing such as a photographic map and a bird's-eye view image can be efficiently performed. The problem that the computer has gone astray for a long time when the mismatch is corrected in the past can be solved because the operator can correct the mismatch semi-automatically.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の一実施例としての画像データを用い
た半自動3次元計測システムのフローチャートを示す
図、第2図は、オリジナル画像上での格子点の配置例を
示す図、第3図は、ステレオマッチングにおいて使用す
る相関窓と探索窓との関係を説明するための図、第4図
から第7図は、ステレオマッチングにおける対応点の探
索およびチェックを行う手順の例を説明するための図、
第8図は、DTMを求める式を説明するための図である。 1……A/D変換、2……座標計測、3……標定計算、4
……パッチ分割、5……偏位修正、6……L/Gフィルタ
リング、7……サンプリング、8……格子点の配置、9
……左右画像のリサンプリング、10……左右対応点の探
索、11……X視差のメディアンフィルタリング、12……
対応点のチェック、14……DTMの作成。
FIG. 1 is a diagram showing a flow chart of a semi-automatic three-dimensional measurement system using image data as one embodiment of the present invention, and FIG. 2 is a diagram showing an arrangement example of grid points on an original image. The figures are diagrams for explaining the relationship between a correlation window and a search window used in stereo matching, and FIGS. 4 to 7 are for explaining an example of a procedure for searching and checking corresponding points in stereo matching. Illustration of
FIG. 8 is a diagram for explaining an equation for obtaining DTM. 1 ... A / D conversion, 2 ... Coordinate measurement, 3 ... Orientation calculation, 4
…… Patch division, 5 …… Displacement correction, 6 …… L / G filtering, 7 …… Sampling, 8 …… Layout point arrangement, 9
...... Resampling of left and right images, 10 ・ ・ ・ Search for left and right corresponding points, 11 …… Median filtering of X parallax, 12 ……
Check corresponding points, create 14 …… DTM.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 池田 俊男 神奈川県厚木市愛名948―9 愛名グリー ンハイツ203号 (56)参考文献 特開 昭61−209315(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshio Ikeda 948-9, Atsugi-shi, Kanagawa Aina Green Heights No. 203 (56) References JP-A-61-209315 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】ステレオ画像データから3次元データを求
める方法において、画像データに対応するAD変換データ
を入力データとしてコンピュータを用いて、1画像デー
タ単位で一括処理による左右の画像マッチングを自動的
に行って左右の画像の対応点を求め、マッチングの良否
を示す相関係数、残差自乗和によってマッチングの良く
ない箇所の対応点のみを左右のグラフィックディスプレ
イ上に出力し、これらマッチング異常が発生している対
応点についてはオペレータが正しいと思われる対応点を
カーソルによって指定して再度コンピュータに左右の画
像マッチングを行わせることにより、コンピュータによ
るマッチング異常を修正させながら、半自動的に画像デ
ータの所望の各点の3次元データを求めることを特徴と
する方法。
1. A method for obtaining three-dimensional data from stereo image data, in which AD conversion data corresponding to image data is used as input data by a computer to automatically perform left-right image matching by batch processing in units of one image data. Then, the corresponding points of the left and right images are obtained, and the correlation coefficient indicating the quality of the matching and the corresponding points of the poor matching by the residual sum of squares are output on the left and right graphic displays. As for the corresponding points, the operator specifies the corresponding points that are considered to be correct by using the cursor and causes the computer to perform the left and right image matching again, thereby correcting the matching abnormality by the computer and semi-automatically obtaining the desired image data. A method characterized by obtaining three-dimensional data of each point.
JP1308038A 1989-11-28 1989-11-28 Method to obtain three-dimensional numerical data from stereo image data Expired - Lifetime JPH0816930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1308038A JPH0816930B2 (en) 1989-11-28 1989-11-28 Method to obtain three-dimensional numerical data from stereo image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1308038A JPH0816930B2 (en) 1989-11-28 1989-11-28 Method to obtain three-dimensional numerical data from stereo image data

Publications (2)

Publication Number Publication Date
JPH03167678A JPH03167678A (en) 1991-07-19
JPH0816930B2 true JPH0816930B2 (en) 1996-02-21

Family

ID=17976141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1308038A Expired - Lifetime JPH0816930B2 (en) 1989-11-28 1989-11-28 Method to obtain three-dimensional numerical data from stereo image data

Country Status (1)

Country Link
JP (1) JPH0816930B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4593730B2 (en) * 2000-06-26 2010-12-08 株式会社トプコン Stereo image measuring device
JP2002157576A (en) 2000-11-22 2002-05-31 Nec Corp Device and method for processing stereo image and recording medium for recording stereo image processing program
DE102006038211A1 (en) * 2006-08-16 2008-02-21 Forschungszentrum Jülich GmbH Method and electron microscope for measuring the similarity of two-dimensional images
JP4857101B2 (en) * 2006-12-21 2012-01-18 株式会社日立ハイテクノロジーズ Probe evaluation method
JP4378571B2 (en) 2007-05-31 2009-12-09 Necシステムテクノロジー株式会社 MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM
JP5126020B2 (en) * 2008-11-25 2013-01-23 Necシステムテクノロジー株式会社 Image processing apparatus, image processing method, and program
US8831335B2 (en) 2008-11-25 2014-09-09 Nec Solution Innovators, Ltd. Stereo matching processing apparatus, stereo matching processing method and computer-readable recording medium
US8682064B2 (en) 2008-11-25 2014-03-25 Nec System Technologies, Ltd. Building change detection apparatus, building change detection method and program
JP5041382B2 (en) * 2010-03-25 2012-10-03 Necシステムテクノロジー株式会社 Stereo matching processing device, stereo matching processing method, and program
JP6207370B2 (en) * 2013-12-10 2017-10-04 三菱電機株式会社 Image composition apparatus and image composition method
WO2017209153A1 (en) * 2016-05-30 2017-12-07 シャープ株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0658209B2 (en) * 1985-03-13 1994-08-03 株式会社トプコン Coordinate measuring method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor

Also Published As

Publication number Publication date
JPH03167678A (en) 1991-07-19

Similar Documents

Publication Publication Date Title
CN110363858B (en) Three-dimensional face reconstruction method and system
US7127085B2 (en) Image processing method for automatic image registration and correction
Cheng et al. 3D building model reconstruction from multi-view aerial imagery and lidar data
EP1589482B1 (en) Three-dimensional image measuring apparatus and method
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
US7356201B2 (en) Process and device for the automatic rectification of single-channel or multi-channel images
JPH0816930B2 (en) Method to obtain three-dimensional numerical data from stereo image data
CN114998536A (en) Model generation method and device based on novel basic mapping and storage medium
CN107330927B (en) Airborne visible light image positioning method
CN110440761B (en) Processing method of aerial photogrammetry data of unmanned aerial vehicle
US6442292B1 (en) Measuring apparatus
CN112465849B (en) Registration method for laser point cloud and sequence image of unmanned aerial vehicle
US20020094134A1 (en) Method and system for placing three-dimensional models
CN113538501A (en) Low-altitude image DSM generation building edge refinement method
Zhang et al. Adaptive automatic terrain extraction
KR102204041B1 (en) System for correcting the error able to modify boundary line for mapping
JP4112077B2 (en) Image measurement processing method and apparatus, and recording medium recording image measurement processing program
CN117030620A (en) Method and device for adjusting regional network based on multisource optical remote sensing satellite image
Baltsavias et al. DTM and orthoimage generation-a thorough analysis and comparison of four digital photogrammetric systems
CN114266781A (en) Defect inspection apparatus, defect inspection method, and information recording medium
US6141439A (en) Apparatus for image measurement
JP3411940B2 (en) How to create a two-dimensional digital mosaic photo map
CN112465986A (en) Method and device for inlaying satellite remote sensing image
JPS6280768A (en) Stereoscopic image processing system
CN116224332B (en) Radar interference phase quality estimation method for coordinating multiple indexes

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090221

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 14