JPH07174555A - Apparatus and method for photographic survey - Google Patents

Apparatus and method for photographic survey

Info

Publication number
JPH07174555A
JPH07174555A JP5344003A JP34400393A JPH07174555A JP H07174555 A JPH07174555 A JP H07174555A JP 5344003 A JP5344003 A JP 5344003A JP 34400393 A JP34400393 A JP 34400393A JP H07174555 A JPH07174555 A JP H07174555A
Authority
JP
Japan
Prior art keywords
point
matching
window
image
search window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5344003A
Other languages
Japanese (ja)
Inventor
Hiroshi Sakurai
浩 桜井
Tomonori Takada
知典 高田
Takao Kakehashi
孝夫 掛橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui Construction Co Ltd
Original Assignee
Mitsui Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui Construction Co Ltd filed Critical Mitsui Construction Co Ltd
Priority to JP5344003A priority Critical patent/JPH07174555A/en
Publication of JPH07174555A publication Critical patent/JPH07174555A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily properly detect three-dimensional shape of an object by preventing miss matching. CONSTITUTION:A correlation window control part 20 is provided which can set a correlation window to a first photographic image stored in a photographic image memory 9 based on an optional matching reference point. A density value-detecting part 3 can detect a distribution state of brightness of a plurality of pixels within the correlation window for each of three chromaticities, and a search window control part 21 can set a search window corresponding to the correlation window to a second photographic image stored in the memory 9 in a manner to move on the second photographic image. Moreover, a density value-detecting part 5 which can detect a distribution state of brightness of a plurality of pixels in the search window for each of three chromaticities, is provided. A matching point-detecting part 6 detects a correlation coefficient between the distribution state of brightness for every chromaticity in the correlation window and that within the search window, thereby detecting a point corresponding to the matching reference point. A three-dimensional position-operating part 13 can detect a three-dimensional position SI of an object based on the matching reference point and the matching corresponding point. This apparatus is constituted of these parts.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、測量対象物の立体形状
の検出を行うのに好適な写真測量装置及び写真測量方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a photogrammetric apparatus and a photogrammetric method suitable for detecting the three-dimensional shape of a surveyed object.

【0002】[0002]

【従来の技術】従来、ステレオ撮影した写真画像をデジ
タル情報として記録し得るデジタルスチールカメラと、
該デジタル情報を解析して三次元形状を解析することが
できるEWS(エンジニアリング・ワーク・ステーショ
ン)等の写真測量装置とにより、迅速かつ容易に測量対
象物の立体形状を検出することができる写真測量方法が
提案されている。従来提案されている該写真測量方法に
おいては、まず建築物等の測量対象物を2地点よりステ
レオ撮影し、撮影された2つの写真画像に共通して撮影
された複数の点(パスポイント)に基づいて、これら2
つの写真画像の、撮影時における相対的位置関係を決定
(相互標定)する。次に、これら2つの写真画像に共通
して撮影された点で、かつ緯度、経度、標高等が予め検
出されている複数の点(基準点)より、これら2つの写
真画像の、撮影時における地上表面に対する相対的位置
関係を決定(対地標定)する。その結果(即ち、相互標
定と対地標定の結果)、2つの写真画像における互いに
対応する点の、各写真画像における各座標位置が決定さ
れれば、これら点に対応する地上座標(緯度、経度、標
高)における座標位置が1つ決定される形の変換式が求
められる。次いで、測量対象物の地上座標での座標位置
を知りたい個所を、一方の写真画像中の点で指定し、こ
の点に対応する他方の写真画像中の点を探索する形のマ
ッチングを行う。このマッチングにおいては、一方の写
真画像の一点を指定し、該一点を中心とした所定の形状
及び面積をもつ領域即ち、相関窓を指定する。また、他
方の写真画像上にも、前記相関窓と同一形状の探索窓
を、該画像上を移動自在な形で設定する。そして、探索
窓を前記他方の写真画像上で移動させながら、相関窓内
部と探索窓内部の、明暗による各画像濃度値を比較し
て、両画像濃度値の類似度が最も高い場合の探索窓の中
心点を、前記一方の写真画像の前記一点に対応する、前
記他方の写真画像上の点とする。マッチングの結果、2
つの写真画像平面における、対応する各点の各座標位置
を検出することができるので、前記変換式により、求め
るべき個所の地上座標における座標位置が求められる。
以上のようなマッチングを繰り返すことによって、測量
対象物の立体形状が検出される。
2. Description of the Related Art Conventionally, a digital still camera capable of recording a stereoscopically photographed image as digital information,
Photogrammetry capable of quickly and easily detecting the three-dimensional shape of an object to be surveyed with a photogrammetric device such as EWS (engineering work station) capable of analyzing the digital information to analyze a three-dimensional shape. A method has been proposed. In the conventionally proposed photogrammetry method, first, a surveying object such as a building is stereo-photographed from two points, and a plurality of points (pass points) commonly photographed in two photographed images are obtained. Based on these two
The relative positional relationship between two photographic images at the time of shooting is determined (mutual orientation). Next, from a plurality of points (reference points) where the latitude, the longitude, the altitude, etc. are detected in advance at the points that were taken in common with these two photographic images, the two photographic images at the time of shooting were taken. Determine the relative positional relationship to the ground surface (ground location). As a result (that is, the result of the mutual orientation and the ground orientation), if the coordinate positions of the points corresponding to each other in the two photographic images are determined in each photographic image, the ground coordinates (latitude, longitude, A conversion formula in which one coordinate position at an altitude is determined is obtained. Then, a point in one of the photographic images where the position of the surveyed object in the ground coordinates is to be known is designated, and matching is performed by searching for a point in the other photographic image corresponding to this point. In this matching, one point of one photographic image is designated, and a region having a predetermined shape and area centering on the one point, that is, a correlation window is designated. Further, a search window having the same shape as the correlation window is set on the other photographic image so as to be movable on the image. Then, while moving the search window on the other photographic image, the respective image density values due to light and dark inside the correlation window and inside the search window are compared, and the search window when the similarity between both image density values is the highest. The center point of is the point on the other photographic image that corresponds to the one point on the other photographic image. Matching result, 2
Since it is possible to detect the coordinate position of each corresponding point on one photographic image plane, the coordinate position of the point to be obtained in ground coordinates can be obtained by the conversion formula.
By repeating the above matching, the three-dimensional shape of the survey target is detected.

【0003】[0003]

【発明が解決しようとする課題】ところで、相関窓と探
索窓の画像濃度値の類似度の比較は、色彩に無関係な明
暗(即ち、白黒写真にした際の明暗)による画像濃度値
にのみ依存して行われるため、ある1つの画像濃度値を
もつ相関窓に対し、該画像濃度値と類似度が高い画像濃
度値をもつ探索窓が複数個所で存在する場合も生じやす
くなり、実際には対応していない位置での探索窓の画像
濃度値が対応していると評価され、ミスマッチングが行
われやすくなる。ミスマッチングにより測量対象物の立
体形状の適正な検出が困難になる。本発明は、上記事情
に鑑み、ミスマッチングを極力防ぐことにより測量対象
物の立体形状の適正な検出を容易にすることのできる写
真測量装置及び写真測量方法を提供することを目的とし
ている。
By the way, the comparison of the similarity between the image density values of the correlation window and the search window depends only on the image density value due to the light and dark irrelevant to the color (that is, the light and dark in the case of a black and white photograph). Therefore, it is likely that a plurality of search windows having image density values having a high degree of similarity with the image density value are present at a plurality of locations with respect to a correlation window having a certain image density value. It is evaluated that the image density values of the search windows at the positions that do not correspond correspond to each other, and mismatching is likely to occur. Mismatching makes it difficult to properly detect the three-dimensional shape of the surveyed object. The present invention has been made in view of the above circumstances, and an object thereof is to provide a photogrammetric apparatus and a photogrammetric method capable of facilitating proper detection of a three-dimensional shape of a surveyed object by preventing mismatching as much as possible.

【0004】[0004]

【課題を解決するための手段】本発明のうち第一の発明
は、三次元空間(CK)に存在する測量対象物(60)
を、該三次元空間(CK)の第一の位置(PT1)より
撮影した第一写真画像(SG1)と、前記測量対象物
(60)を前記三次元空間(CK)のうち前記第一の位
置(PT1)とは異なる第二の位置(PT2)より撮影
した第二写真画像(SG2)に基づいて前記測量対象物
(60)の前記三次元空間(CK)における三次元形状
(SI)を検出する写真測量装置(1)において、前記
写真測量装置(1)は、前記第一写真画像(SG1)と
前記第二写真画像(SG2)を記憶し得る画像記憶部
(9)を有し、前記画像記憶部(9)に記憶された第一
写真画像(SG1)において、該第一写真画像(SG
1)上の任意のマッチング基準点(29A)を基準とし
て所定の領域を包囲する相関窓(30)を設定し得る相
関窓設定部(20)を設け、前記相関窓(30)内の複
数の画素(GS)の明度(α)の分布状況(P1、P
2、P3)を、各画素(GS)のもつ複数種類の色度
(R、G、B)毎に検出し得る相関窓画素分布状況検出
部(3)を設け、前記画像記憶部(9)に記憶された第
二写真画像(SG2)において、前記相関窓(30)に
対応した探索窓(31)を該第二写真画像(SG2)上
を移動する形で設定し得る探索窓設定部(21)を設
け、前記探索窓(31)内の複数の画素(GS)の明度
(β)の分布状況(Q1、Q2、Q3)を、各画素(G
S)のもつ複数種類の色度(R、G、B)毎に検出し得
る探索窓画素分布状況検出部(5)を設け、前記相関窓
(30)内の各色度(R、G、B)毎の明度(α)の分
布状況(P1、P2、P3)と、前記探索窓(31)内
の各色度(R、G、B)毎の明度(β)の分布状況(Q
1、Q2、Q3)との類似度(γ)を判定して、前記相
関窓(30)のマッチング基準点(29A)に対応する
第二写真画像(SG2)のマッチング対応点(MT)を
検出し得るマッチングポイント検出部(6)を設け、前
記第一及び第二写真画像(SG1、SG2)において対
応する、前記マッチング基準点(29A)と前記マッチ
ング対応点(MT)の、前記各写真画像(SG1、SG
2)上の位置に基づいて、前記測量対象物(60)の前
記三次元空間(CK)における三次元形状(SI)を検
出し得る三次元形状検出部(13)を設けて構成され
る。また、本発明のうち第二の発明は、三次元空間(C
K)に存在する測量対象物(60)を、該三次元空間
(CK)の第一の位置(PT1)より撮影した第一写真
画像(SG1)と、前記測量対象物(60)を前記三次
元空間(CK)のうち前記第一の位置(PT1)とは異
なる第二の位置(PT2)より撮影した第二写真画像
(SG2)に基づいて、前記測量対象物(60)の前記
三次元空間(CK)における三次元形状(SI)を検出
する写真測量方法において、前記第一写真画像(SG
1)上の任意のマッチング基準点(29A)を基準とし
て所定の領域を包囲する相関窓(30)を設定して、該
相関窓(30)内の複数の画素(GS)の明度(α)の
分布状況(P1、P2、P3)を、各画素(GS)のも
つ複数種類の色度(R、G、B)毎に検出し、前記第二
写真画像(SG2)において、前記相関窓(30)に対
応した探索窓(31)を該第二写真画像(SG2)上を
移動させる形で設定し、該探索窓(31)が所定の移動
量(δ)を移動する毎に、該探索窓(31)内の複数の
画素(GS)の明度(β)の分布状況(Q1、Q2、Q
3)を、各画素(GS)のもつ複数種類の色度(R、
G、B)毎に検出し、前記相関窓(30)内の各色度
(R、G、B)毎の明度(α)の分布状況(P1、P
2、P3)と、前記探索窓(31)が所定の移動量
(δ)を移動する毎に検出された該探索窓(31)内の
各色度(R、G、B)毎の明度(β)の分布状況(Q
1、Q2、Q3)との類似度(γ)をそれぞれ検出し、
検出された類似度(γ)のうち最も高い値の類似度
(γ)に対応した探索窓(31)の第二写真画像(SG
2)の位置より、前記相関窓(30)のマッチング基準
点(29A)に対応する第二写真画像(SG2)のマッ
チング対応点(MT)を検出し、前記第一及び第二写真
画像(SG1、SG2)において対応する、前記マッチ
ング基準点(29A)と前記マッチング対応点(MT)
の、前記各写真画像(SG1、SG2)上の位置に基づ
いて、前記測量対象物(60)の前記三次元空間(C
K)における三次元形状(SI)を検出して構成され
る。なお、( )内の番号等は、図面における対応する
要素を示す、便宜的なものであり、従って、本記述は図
面上の記載に限定拘束されるものではない。以下の「作
用」の欄についても同様である。
The first aspect of the present invention is a surveying object (60) existing in a three-dimensional space (CK).
A first photographic image (SG1) taken from a first position (PT1) of the three-dimensional space (CK) and the survey target (60) in the first three-dimensional space (CK). A three-dimensional shape (SI) in the three-dimensional space (CK) of the survey object (60) is obtained based on a second photographic image (SG2) taken from a second position (PT2) different from the position (PT1). In the photogrammetric device (1) for detecting, the photogrammetric device (1) has an image storage section (9) capable of storing the first photographic image (SG1) and the second photographic image (SG2), In the first photographic image (SG1) stored in the image storage section (9), the first photographic image (SG1)
1) A correlation window setting unit (20) capable of setting a correlation window (30) surrounding a predetermined area with reference to an arbitrary matching reference point (29A) is provided, and a plurality of correlation window setting units (20) are provided. Pixel (GS) brightness (α) distribution status (P1, P
2, P3) is provided for each of a plurality of types of chromaticity (R, G, B) of each pixel (GS), and a correlation window pixel distribution status detection unit (3) is provided, and the image storage unit (9) is provided. In the second photographic image (SG2) stored in, a search window setting unit (31) capable of setting a search window (31) corresponding to the correlation window (30) while moving on the second photographic image (SG2) ( 21) is provided, and the distribution status (Q1, Q2, Q3) of the brightness (β) of the plurality of pixels (GS) in the search window (31) is calculated for each pixel (G).
S) is provided with a search window pixel distribution status detection unit (5) capable of detecting each of a plurality of types of chromaticity (R, G, B), and each chromaticity (R, G, B) in the correlation window (30) ) For each luminosity (α) (P1, P2, P3) and for each chromaticity (R, G, B) within the search window (31) (Q) distribution (Q).
1, Q2, Q3) to determine the degree of similarity (γ) to detect the matching corresponding point (MT) of the second photographic image (SG2) corresponding to the matching reference point (29A) of the correlation window (30). Each matching photographic image of the matching reference point (29A) and the matching corresponding point (MT) corresponding to each other in the first and second photographic images (SG1, SG2). (SG1, SG
2) A three-dimensional shape detection unit (13) capable of detecting the three-dimensional shape (SI) in the three-dimensional space (CK) of the survey object (60) based on the position above is provided. The second invention of the present invention is the three-dimensional space (C
K) the survey object (60) taken from the first position (PT1) of the three-dimensional space (CK) and a first photographic image (SG1), and the survey object (60) Based on a second photographic image (SG2) taken from a second position (PT2) different from the first position (PT1) in the original space (CK), the three-dimensional image of the survey object (60). In the photogrammetric method for detecting a three-dimensional shape (SI) in a space (CK), the first photographic image (SG
1) A correlation window (30) surrounding a predetermined area is set on the basis of an arbitrary matching reference point (29A), and the brightness (α) of a plurality of pixels (GS) in the correlation window (30) is set. Distribution state (P1, P2, P3) is detected for each of a plurality of types of chromaticity (R, G, B) of each pixel (GS), and in the second photographic image (SG2), the correlation window ( The search window (31) corresponding to 30) is set so as to move on the second photographic image (SG2), and the search window (31) is moved by a predetermined movement amount (δ) every time the search window (31) moves. Distribution (Q1, Q2, Q) of brightness (β) of a plurality of pixels (GS) in the window (31)
3), a plurality of types of chromaticity (R,
G, B) for each chromaticity (R, G, B) within the correlation window (30) and distribution (P1, P) of lightness (α).
2, P3) and the lightness (β for each chromaticity (R, G, B) in the search window (31) detected each time the search window (31) moves by a predetermined movement amount (δ). ) Distribution situation (Q
1, Q2, Q3) to detect the similarity (γ),
The second photographic image (SG) of the search window (31) corresponding to the highest similarity (γ) among the detected similarities (γ)
From the position 2), the matching corresponding point (MT) of the second photographic image (SG2) corresponding to the matching reference point (29A) of the correlation window (30) is detected, and the first and second photographic images (SG1) are detected. , SG2) corresponding to the matching reference point (29A) and the matching corresponding point (MT).
Of the three-dimensional space (C) of the survey object (60) based on the position on each of the photographic images (SG1, SG2).
It is configured by detecting the three-dimensional shape (SI) in K). The numbers in parentheses () indicate the corresponding elements in the drawings for convenience, and therefore the present description is not limited to the description in the drawings. The same applies to the column of "action" below.

【0005】[0005]

【作用】上記した構成により、相関窓(30)内の画像
と対応した画像を含む探索窓(31)の位置を検出する
形でマッチングを行う際に検出される、相関窓(30)
内の画像と探索窓(31)内の画像の類似度(γ)は、
本発明のうち第一の発明の写真測量装置(1)を用いる
と、或いは、第二の発明の写真測量方法を適用すると、
相関窓(30)内或いは探索窓(31)内の複数の画素
(GS)がもつ各色度(R、G、B)毎の明度(α、
β)の分布状況(P1、P2、P3、Q1、Q2、Q
3)の比較によって検出される。
With the above configuration, the correlation window (30) detected when performing matching in the form of detecting the position of the search window (31) including the image corresponding to the image in the correlation window (30).
The similarity (γ) between the image inside and the image inside the search window (31) is
When the photogrammetry device (1) of the first invention of the present invention is used, or when the photogrammetry method of the second invention is applied,
The brightness (α, α) for each chromaticity (R, G, B) possessed by a plurality of pixels (GS) in the correlation window (30) or the search window (31)
Distribution of β) (P1, P2, P3, Q1, Q2, Q
Detected by comparison of 3).

【0006】[0006]

【実施例】以下、本発明の実施例を図面に基づき説明す
る。図1は、本発明が適用された写真測量装置を示した
ブロック図、図2は、測量対象物と、ステレオ撮影が行
われる第一、第二地点との位置関係を示した斜視図、図
3は、図1の写真測量装置に入力されている概念上の、
基準座標KZ、カメラ座標CZ1、CZ2を示した図、
図4及び、図5は、第一、第二ディスプレイを示した
図、図6は、マッチングの手順を概念的に示した図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a photogrammetric apparatus to which the present invention is applied, and FIG. 2 is a perspective view showing a positional relationship between a surveying object and first and second points where stereo imaging is performed. 3 is a conceptual input to the photogrammetric device of FIG.
A diagram showing reference coordinates KZ, camera coordinates CZ1 and CZ2,
4 and 5 are diagrams showing the first and second displays, and FIG. 6 is a diagram conceptually showing the matching procedure.

【0007】写真測量装置1は、図1に示すように主制
御部2を有しており、主制御部2にはバス線2aを介し
て、相関窓濃度値検出部3、探索窓濃度値検出部5、マ
ッチングポイント検出部6、表示手段7、写真画像メモ
リ9、相互標定演算部10、対地標定演算部11、偏位
修正演算部12、三次元位置演算部13、三次元位置メ
モリ部15、出力部16、入力手段17、格子設定制御
部26、座標変換制御部19、相関窓制御部20、探索
窓制御部21、カーソル位置認識部22、射影変換制御
部25、格子設定制御部26が接続されている。相関窓
濃度値検出部3は、相関窓赤色濃度値検出部3a、相関
窓緑色濃度値検出部3b、相関窓青色濃度値検出部3c
からなっており、探索窓濃度値検出部5は、探索窓赤色
濃度値検出部5a、探索窓緑色濃度値検出部5b、探索
窓青色濃度値検出部5cからなっている。また、表示手
段7には、表示制御部7a及び、図示しないオペレータ
に作業の指示や命令を文字等(図示せず)により表示し
得る作業指示表示部7bが設けられており、表示制御部
7aには第一ディスプレイ7c、第二ディスプレイ7d
が接続されている。また、入力手段17は、入力操作部
17a、カーソル移動操作部17bによって構成されて
いる。更に、写真画像メモリ9には、ICメモリーカー
ド62aを装填自在なるデッキ23が接続されている。
なお、このICメモリーカード62aは、公知のカラー
・デジタルスチルカメラであるカメラ62にも装填自在
である。即ち、ICメモリーカード62aを装填したカ
メラ62で撮影された写真画像は、該写真画像の各画素
がデジタル情報に変換されて構成された画像情報として
ICメモリーカード62aに記録される。また、撮影さ
れた該写真画像の各画素がもつデジタル情報は、光学濃
度即ち、明度に関する濃度値情報であり、更に各画素が
もつ濃度値情報は、赤色R、緑色G、青色B(即ち、三
原色)の3つの色度毎の光学濃度の情報からなってい
る。従って、1つの画素がもつデジタル情報は、赤色R
の濃度値情報、緑色Gの濃度値情報、青色Bの濃度値情
報である。
As shown in FIG. 1, the photogrammetric device 1 has a main control unit 2, and the main control unit 2 is provided with a correlation window density value detection unit 3 and a search window density value via a bus line 2a. Detection unit 5, matching point detection unit 6, display means 7, photographic image memory 9, mutual orientation calculation unit 10, ground orientation calculation unit 11, deviation correction calculation unit 12, three-dimensional position calculation unit 13, three-dimensional position memory unit. 15, output unit 16, input unit 17, lattice setting control unit 26, coordinate conversion control unit 19, correlation window control unit 20, search window control unit 21, cursor position recognition unit 22, projection conversion control unit 25, lattice setting control unit. 26 is connected. The correlation window density value detection unit 3 includes a correlation window red density value detection unit 3a, a correlation window green density value detection unit 3b, and a correlation window blue density value detection unit 3c.
The search window density value detection unit 5 includes a search window red density value detection unit 5a, a search window green density value detection unit 5b, and a search window blue density value detection unit 5c. Further, the display means 7 is provided with a display control section 7a and a work instruction display section 7b capable of displaying work instructions and commands to an operator (not shown) by characters or the like (not shown), and the display control section 7a. Has a first display 7c and a second display 7d
Are connected. The input means 17 is composed of an input operation section 17a and a cursor movement operation section 17b. Further, the photo image memory 9 is connected to the deck 23 into which the IC memory card 62a can be loaded.
The IC memory card 62a can also be loaded into the camera 62, which is a known color digital still camera. That is, a photographic image taken by the camera 62 loaded with the IC memory card 62a is recorded on the IC memory card 62a as image information configured by converting each pixel of the photographic image into digital information. Further, the digital information of each pixel of the photographed photographic image is optical density, that is, density value information relating to lightness, and the density value information of each pixel is red R, green G, blue B (that is, It consists of optical density information for each of the three chromaticities (three primary colors). Therefore, the digital information of one pixel is red R
Density information of green, density information of green G, and density value of blue B.

【0008】写真測量装置1及び、カメラ62等は、以
上のような構成を有するので、該写真測量装置1を用い
て測量対象物60を測量するには次のように行う。ま
ず、ICメモリーカード62aを装填したカメラ62に
より、地上空間CKの建築物や道路等の測量対象物60
を、図2に示すように、該地上空間CKの相違なる2地
点である第一地点PT1と第二地点PT2よりそれぞれ
撮影する(即ち、ステレオ撮影する。)。撮影の結果、
第一地点PT1、第二地点PT2において撮影された各
写真画像のデジタル情報である第一画像情報GJ1、第
二画像情報GJ2がICメモリーカード62aに記録さ
れた。なお、測量対象物60には地上空間CKにおける
三次元位置即ち、緯度、経度、標高が既知である3つの
基準点KJ1、KJ2、KJ3が予め検出されマーキン
グされており、第一地点PT1及び第二地点PT2のい
ずれからの撮影においても、これら基準点KJ1、KJ
2、KJ3が撮影されている。次いで、第一画像情報G
J1、第二画像情報GJ2が記録されたICメモリーカ
ード62aを前記カメラ62から取外して、写真測量装
置1のデッキ23に装填する。装填後、図示しないオペ
レータは、入力手段17の入力操作部17aを介して解
析処理作業開始の命令を与える。解析処理作業開始の命
令は、バス線2aを介して主制御部2に伝送され、主制
御部2は該命令を受けて解析処理作業を開始させる。即
ちまず、主制御部2は写真画像メモリ9に命令して、図
1に示すように、該写真画像メモリ9に接続されたデッ
キ23より、該デッキ23に装填された前記ICメモリ
ーカード62aの第一画像情報GJ1と第二画像情報G
J2とを読み取り記憶させる。
Since the photogrammetric device 1, the camera 62, and the like have the above-described configurations, the photogrammetric device 1 is used to survey the object 60 to be surveyed as follows. First, by using the camera 62 loaded with the IC memory card 62a, the survey object 60 such as a building or a road in the ground space CK
As shown in FIG. 2, images are taken from the first point PT1 and the second point PT2 which are two different points in the ground space CK (that is, stereo images are taken). The result of the shooting,
The first image information GJ1 and the second image information GJ2, which are digital information of each photographic image taken at the first point PT1 and the second point PT2, are recorded in the IC memory card 62a. It should be noted that the three-dimensional position in the ground space CK, that is, three reference points KJ1, KJ2, and KJ3 whose latitude, longitude, and altitude are known are previously detected and marked on the survey target 60, and the first point PT1 and These reference points KJ1 and KJ are obtained when photographing from any of the two points PT2.
2, KJ3 is photographed. Then, the first image information G
The IC memory card 62a on which J1 and the second image information GJ2 are recorded is removed from the camera 62 and loaded on the deck 23 of the photogrammetry apparatus 1. After loading, an operator (not shown) gives a command to start the analysis processing work via the input operation unit 17a of the input means 17. The instruction to start the analysis processing work is transmitted to the main control unit 2 via the bus line 2a, and the main control unit 2 receives the instruction and starts the analysis processing work. That is, first, the main control unit 2 commands the photographic image memory 9 to cause the deck 23 connected to the photographic image memory 9 to load the IC memory card 62a loaded in the deck 23 as shown in FIG. First image information GJ1 and second image information G
Read and store J2.

【0009】ところで、写真画像メモリ9には、図3に
示すように、Xk軸、Yk軸、Zk軸からなる三次元の
基準座標KZが入力されており、基準座標KZのXk軸
成分、Yk軸成分、Zk軸成分はそれぞれ、地上空間C
Kの緯度、経度、標高に対応している。また、写真画像
メモリ9には、基準座標KZに対して任意の位置関係を
もち得る2つのカメラ座標CZ1、CZ2が設けられて
おり、カメラ座標CZ1は、Xc1軸、Yc1軸、Zc
1軸からなる三次元座標、カメラ座標CZ2は、Xc2
軸、Yc2軸、Zc2軸からなる三次元座標である。カ
メラ座標CZ1、CZ2は、いずれも前記カメラ62に
対する同一の固定座標であるが、第一地点PT1より撮
影した際の地上空間CKとカメラ62の位置関係を基準
座標KZとカメラ座標CZ1との位置関係で示し、第二
地点PT2より撮影した際の地上空間CKとカメラ62
の位置関係を基準座標KZとカメラ座標CZ2との位置
関係で示し得るようになっている。また、カメラ座標C
Z1、CZ2のうち、Zc1軸成分がゼロで表される平
面、Zc2軸成分がゼロで表される平面はそれぞれ、前
記カメラ62によって撮影される写真画像が形成される
画像平面GH1、GH2となっている。従って、写真画
像メモリ9がICメモリーカード62aから、記録され
ている第一画像情報GJ1と第二画像情報GJ2とを読
み取り記憶する際には、第一画像情報GJ1をカメラ座
標CZ1の画像平面GH1に第一写真画像SG1として
入力し、第二画像情報GJ2をカメラ座標CZ2の画像
平面GH2に第二写真画像SG2として入力する形で読
み取り記憶される(なお、基準座標KZ、カメラ座標C
Z1、CZ2の三者間の相対的位置関係は未だ決定され
ていない。)。
As shown in FIG. 3, a three-dimensional reference coordinate KZ consisting of the Xk axis, the Yk axis and the Zk axis is input to the photographic image memory 9, and the Xk axis component of the reference coordinate KZ, Yk. The axis component and the Zk axis component are the ground space C, respectively.
It corresponds to the latitude, longitude, and altitude of K. Further, the photographic image memory 9 is provided with two camera coordinates CZ1 and CZ2 that can have an arbitrary positional relationship with respect to the reference coordinates KZ. The camera coordinates CZ1 are the Xc1 axis, the Yc1 axis, and Zc.
The three-dimensional coordinate consisting of one axis, the camera coordinate CZ2 is Xc2.
It is a three-dimensional coordinate including an axis, a Yc2 axis, and a Zc2 axis. The camera coordinates CZ1 and CZ2 are the same fixed coordinates with respect to the camera 62, but the positional relationship between the ground space CK and the camera 62 when the image is taken from the first point PT1 is the position of the reference coordinates KZ and the camera coordinates CZ1. The relationship is shown, and the ground space CK and the camera 62 when taken from the second point PT2
The positional relationship between the reference coordinates KZ and the camera coordinates CZ2 can be shown. Also, the camera coordinate C
Of Z1 and CZ2, the plane in which the Zc1 axis component is represented by zero and the plane in which the Zc2 axis component is represented by zero are image planes GH1 and GH2 on which the photographic image photographed by the camera 62 is formed. ing. Therefore, when the photographic image memory 9 reads and stores the recorded first image information GJ1 and second image information GJ2 from the IC memory card 62a, the first image information GJ1 is stored in the image plane GH1 at the camera coordinate CZ1. Is input as the first photographic image SG1 and the second image information GJ2 is read and stored in the image plane GH2 of the camera coordinate CZ2 as the second photographic image SG2 (note that the reference coordinate KZ and the camera coordinate C
The relative positional relationship between the three members, Z1 and CZ2, has not yet been determined. ).

【0010】写真画像メモリ9における読み取り記憶が
完了すると共に、該写真画像メモリ9は読み取り記憶が
完了後のカメラ座標CZ1、CZ2及び、カメラ座標C
Z1上の第一写真画像SG1、カメラ座標CZ2上の第
二写真画像SG2を電気信号によってに主制御部2に報
告する。主制御部2は、カメラ座標CZ1と第一写真画
像SG1及び、カメラ座標CZ2と第二写真画像SG2
を座標変換制御部19に伝送して、第一写真画像SG1
及び第二写真画像SG2を第一ディスプレイ7c及び第
二ディスプレイ7dに表示させるために座標変換させ
る。ところで、第一ディスプレイ7cには、図4に示す
ように、X1軸、Y1軸からなる平面座標HZ1が設定
されており、第二ディスプレイ7dには、X2軸、Y2
軸からなる平面座標HZ2が設定されている。従って、
座標変換制御部19では、カメラ座標CZ1のうち画像
平面GH1上の任意の点を、該任意の点のXc1軸成分
を平面座標HZ1のX1軸成分に、Yc1軸成分をY1
軸成分にそれぞれ置き換えて、平面座標HZ1の点に変
換させる方法で、カメラ座標CZ1上の第一写真画像S
G1を平面座標HZ1上に変換する。また、カメラ座標
CZ2のうち画像平面GH2上の第二写真画像SG2も
同様に、カメラ座標CZ2上の任意の点を、該任意の点
のXc2軸成分を平面座標HZ2のX2軸成分に、Yc
2軸成分をY2軸成分にそれぞれ置き換えて、平面座標
HZ2の点に変換させる方法により、カメラ座標CZ2
上の第二写真画像SG2を平面座標HZ2上に変換す
る。変換後、主制御部2は座標変換制御部19の両写真
画像SG1、SG2を表示手段7の表示制御部7aに伝
送し、表示制御部7aは第一写真画像SG1と第二写真
画像SG2をそれぞれ第一ディスプレイ7cの平面座標
HZ1上に、第二ディスプレイ7dの平面座標HZ2上
にそれぞれ表示する。
Upon completion of reading and storing in the photographic image memory 9, the photographic image memory 9 stores camera coordinates CZ1, CZ2 and camera coordinates C after the reading and storing is completed.
The first photo image SG1 on Z1 and the second photo image SG2 on the camera coordinate CZ2 are reported to the main control unit 2 by electric signals. The main controller 2 controls the camera coordinate CZ1 and the first photographic image SG1, and the camera coordinate CZ2 and the second photographic image SG2.
Is transmitted to the coordinate conversion control unit 19 and the first photographic image SG1 is transmitted.
And the second photographic image SG2 is coordinate-converted to be displayed on the first display 7c and the second display 7d. By the way, as shown in FIG. 4, plane coordinates HZ1 composed of the X1 axis and the Y1 axis are set on the first display 7c, and the X2 axis and the Y2 axis are set on the second display 7d.
A plane coordinate HZ2 composed of an axis is set. Therefore,
In the coordinate conversion control unit 19, an arbitrary point on the image plane GH1 in the camera coordinate CZ1 is set as the Xc1-axis component of the arbitrary point as the X1-axis component of the plane coordinate HZ1 and the Yc1-axis component as Y1.
The first photographic image S on the camera coordinate CZ1 is converted by the method of replacing each with the axial component and converting into the point of the plane coordinate HZ1.
G1 is transformed on the plane coordinate HZ1. Similarly, in the second photographic image SG2 on the image plane GH2 of the camera coordinates CZ2, an arbitrary point on the camera coordinates CZ2 is converted into an X2 axis component of the plane coordinates HZ2 by the Yc axis.
By replacing the 2-axis component with the Y2-axis component and converting it into the point of the plane coordinate HZ2, the camera coordinate CZ2
The second upper photographic image SG2 is converted to the plane coordinate HZ2. After the conversion, the main control unit 2 transmits both photographic images SG1 and SG2 of the coordinate conversion control unit 19 to the display control unit 7a of the display means 7, and the display control unit 7a displays the first photographic image SG1 and the second photographic image SG2. They are displayed on the plane coordinates HZ1 of the first display 7c and on the plane coordinates HZ2 of the second display 7d, respectively.

【0011】第一ディスプレイ7c、第二ディスプレイ
7dでの表示が完了した後、主制御部2は公知の手法に
よる相互標定作業を開始させる。即ち、主制御部2は、
上述したように写真画像メモリ9に読み込み記憶されて
いる基準座標KZ、カメラ座標CZ1、CZ2及び、カ
メラ座標CZ1上の第一写真画像SG1、カメラ座標C
Z2上の第二写真画像SG2を、相互標定演算部10に
伝送すると共に、主制御部2は作業指示表示部7bに命
令して、パスポイントの入力を命令する旨の表示(図示
せず)を行わせる。図示しないオペレータは作業指示表
示部7bの表示を読み取ることによって、第一ディスプ
レイ7c、第二ディスプレイ7dに表示されている第一
写真画像SG1、第二写真画像SG2を目視比較し、第
一写真画像SG1より5つのパスポイントPPa1〜P
Pa5を、第二写真画像SG2より5つのパスポイント
PPb1〜PPb5を探し出す。なお、パスポイントP
Pa1(PPa2〜PPa5)は第一写真画像SG1中
の一点(即ち、1つの画素GS)、パスポイントPPb
1(PPb2〜PPb5)は第二写真画像SG2中の一
点(即ち、1つの画素GS)であり、対応したパスポイ
ントPPa1(PPa2〜PPa5)とパスポイントP
Pb1(PPb2〜PPb5)とは共に測量対象物60
中の同一なる一点DP1(DP2〜DP5)を撮影した
と明確に判別できるものである。5つのパスポイントP
Pa1〜PPa5及び、これらに対応した5つのパスポ
イントPPb1〜PPb5を探し出した後、図示しない
オペレータは、互いに対応したパスポイントPPa1
(PPa2〜PPa5)、PPb1(PPb2〜PPb
5)をそれぞれ対にして順次入力する。なお、第一ディ
スプレイ7c、第二ディスプレイ7dには、図4に示す
ように、入力手段17のカーソル移動操作部17bを介
して、各ディスプレイ7c、7d上で移動自在なカーソ
ル33、35が設けられており、パスポイントPPa1
(PPa2〜PPa5)、PPb1(PPb2〜PPb
5)をそれぞれ対にして入力する際には、カーソル移動
操作部17bを介して、各ディスプレイ7c、7d上で
カーソル33、35を移動させ、カーソル33を1つの
画素GSからなるパスポイントPPa1(PPa2〜P
Pa5)に位置決めし、カーソル35をパスポイントP
Pb1(PPb2〜PPb5)に位置決めする。カーソ
ル移動操作部17bからのカーソル33、35の位置決
め完了の信号はカーソル位置認識部22にそれぞれ伝送
され、カーソル位置認識部22はカーソル33、35が
位置決めされている位置即ち、パスポイントPPa1
(PPa2〜PPa5)の平面座標HZ1上での座標位
置及び、パスポイントPPb1(PPb2〜PPb5)
の平面座標HZ2上での座標位置を認識し、認識された
平面座標HZ1及び、平面座標HZ2上での座標位置は
座標変換制御部19に伝送されて、カメラ座標CZ1に
おけるパスポイント座標位置Pa1(Pa2〜Pa5)
及び、パスポイント座標位置Pb1(Pb2〜Pb5)
に変換され、変換の後、主制御部2に伝送される。主制
御部2は、パスポイント座標位置Pa1(Pa2〜Pa
5)と、これに対応するパスポイント座標位置Pb1
(Pb2〜Pb5)とを対にした形で、相互標定演算部
10に伝送する。
After the display on the first display 7c and the second display 7d is completed, the main control unit 2 starts the mutual orientation work by a known method. That is, the main controller 2
As described above, the reference coordinates KZ, the camera coordinates CZ1 and CZ2 read and stored in the photographic image memory 9, the first photographic image SG1 on the camera coordinates CZ1, and the camera coordinates C.
The second photographic image SG2 on Z2 is transmitted to the relative orientation calculation unit 10, and the main control unit 2 instructs the work instruction display unit 7b to instruct the input of the pass point (not shown). To perform. An operator (not shown) visually compares the first photographic image SG1 and the second photographic image SG2 displayed on the first display 7c and the second display 7d by reading the display on the work instruction display unit 7b, and the first photographic image is displayed. Five pass points PPa1-P from SG1
For Pa5, five pass points PPb1 to PPb5 are searched for from the second photographic image SG2. In addition, pass point P
Pa1 (PPa2 to PPa5) is one point (that is, one pixel GS) in the first photographic image SG1, the pass point PPb.
1 (PPb2 to PPb5) is one point (that is, one pixel GS) in the second photographic image SG2, and the corresponding pass point PPa1 (PPa2 to PPa5) and pass point P.
Pb1 (PPb2 to PPb5) together with survey object 60
It is possible to clearly determine that the same one point DP1 (DP2 to DP5) in the inside is photographed. Five pass points P
After finding out Pa1 to PPa5 and the five pass points PPb1 to PPb5 corresponding to these, the operator (not shown) makes pass points PPa1 corresponding to each other.
(PPa2-PPa5), PPb1 (PPb2-PPb
5) are paired and input sequentially. As shown in FIG. 4, the first display 7c and the second display 7d are provided with movable cursors 33 and 35 on the respective displays 7c and 7d via the cursor movement operation unit 17b of the input means 17. And the pass point PPa1
(PPa2-PPa5), PPb1 (PPb2-PPb
When inputting 5) as a pair, the cursors 33 and 35 are moved on the respective displays 7c and 7d via the cursor moving operation unit 17b, and the cursor 33 is moved to the pass point PPa1 (one of the pixels GS). PPa2-P
Pa5) and position the cursor 35 at the pass point P
Position to Pb1 (PPb2 to PPb5). Signals of completion of positioning of the cursors 33 and 35 from the cursor movement operation unit 17b are transmitted to the cursor position recognition unit 22, respectively, and the cursor position recognition unit 22 positions the cursors 33 and 35, that is, the pass point PPa1.
Coordinate positions of (PPa2 to PPa5) on the plane coordinate HZ1 and the pass point PPb1 (PPb2 to PPb5).
The coordinate position on the plane coordinate HZ2 of is recognized, and the recognized plane coordinate HZ1 and the coordinate position on the plane coordinate HZ2 are transmitted to the coordinate conversion control unit 19 and the pass point coordinate position Pa1 (at the camera coordinate CZ1). Pa2-Pa5)
And the path point coordinate position Pb1 (Pb2 to Pb5)
Is converted into a signal, and after conversion, it is transmitted to the main control unit 2. The main control unit 2 controls the pass point coordinate position Pa1 (Pa2 to Pa).
5) and the corresponding path point coordinate position Pb1
(Pb2 to Pb5) are transmitted to the mutual orientation calculation unit 10 in the form of a pair.

【0012】次いで、主制御部2は、相互標定演算部1
0に相互標定演算を実行させる。ところで、撮影された
第一写真画像SG1、第二写真画像SG2は、測量対象
物60の各点から、カメラ座標CZ1、CZ2の所定の
位置(本実施例では、Zc1軸、Zc2軸上)に設定さ
れた投影中心点O1、O2に向かってそれぞれ収斂する
形で直進する光束により、画像平面GH1、GH2上に
それぞれ投影された前記測量対象物60の画像と考える
ことが出来る。よって、逆に2つの投影中心点O1、O
2にそれぞれ光源を設け、第一写真画像SG1、第二写
真画像SG2を映し出したとすると、各々の写真画像S
G1、SG2において対応する各点(即ち、測量対象物
60における同一点を撮影した点)を通過した二本の光
束は全て交会するはずである。そこで、2枚の立体写真
の対応する光束のうち少なくとも5本の光束が交会すれ
ば、対応する点がことごとく交会するという公知の射影
幾何学の原理を応用して、投影中心点O1とカメラ座標
CZ1上の前記パスポイント座標位置Pa1〜Pa5と
を結ぶ直線と、投影中心点O2とカメラ座標CZ2上の
前記パスポイント座標位置Pb1〜Pb5とを結ぶ直線
とが各々ことごとく交会するという条件で、カメラ座標
CZ1とカメラ座標CZ2との相対的な傾きを演算(即
ち、相互標定演算)して決定する。演算及び決定された
カメラ座標CZ1、CZ2の基準座標KZでの相対的な
傾きは、第一地点PT1、第二地点PT2においてそれ
ぞれ撮影した状態での地上空間CKにおける前記カメラ
62の相対的な傾きに対応している。こうして第一地点
PT1、第二地点PT2においてそれぞれ撮影した状態
での地上空間CKにおける前記カメラ62の相対的な傾
きがカメラ座標CZ1とカメラ座標CZ2との基準座標
KZにおける相対的な位置関係として再現されたので、
上述したように、これらカメラ座標CZ1とカメラ座標
CZ2において、2つの投影中心点O1、O2にそれぞ
れ光源を設け、各写真画像SG1、SG2を映し出した
とすると、図3に示すように、各々の写真画像SG1、
SG2において対応する各点を通過した二本の光束は全
て交会し、交会する点の集合によって測量対象物60と
相対的に相似なるモデル61を仮想的に形成することが
可能となる。以上で相互標定作業が完了する。完了後、
相互標定演算部10より、基準座標KZ、相対的な傾き
が決定されたカメラ座標CZ1、CZ2及び、カメラ座
標CZ1上の第一写真画像SG1、カメラ座標CZ2上
の第二写真画像SG2は主制御部2を介して対地標定演
算部11に伝送される。
Next, the main control unit 2 includes the mutual orientation calculation unit 1
Causes 0 to perform a relative orientation operation. By the way, the photographed first photographic image SG1 and second photographic image SG2 are located at predetermined positions (on the Zc1 axis and the Zc2 axis in this embodiment) of the camera coordinates CZ1 and CZ2 from the respective points on the survey object 60. It can be considered that the images of the surveying object 60 are projected on the image planes GH1 and GH2 by the light beams that travel straight in a convergent manner toward the set projection center points O1 and O2, respectively. Therefore, conversely, the two projection center points O1 and O
2 is provided with a light source, and the first photographic image SG1 and the second photographic image SG2 are projected, the respective photographic images S
All the two light fluxes that have passed through the corresponding points in G1 and SG2 (that is, the points where the same point in the surveyed object 60 is photographed) should meet. Therefore, the projection center point O1 and the camera coordinates are applied by applying the known principle of projective geometry that, if at least five light fluxes of the corresponding light fluxes of the two stereoscopic pictures meet, the corresponding points all meet. Under the condition that the straight line connecting the path point coordinate positions Pa1 to Pa5 on the CZ1 and the straight line connecting the projection center point O2 and the pass point coordinate positions Pb1 to Pb5 on the camera coordinates CZ2 all meet, The relative inclination between the coordinate CZ1 and the camera coordinate CZ2 is calculated (that is, the mutual orientation calculation) and determined. The relative inclination of the calculated and determined camera coordinates CZ1 and CZ2 at the reference coordinate KZ is the relative inclination of the camera 62 in the ground space CK in the state of being photographed at the first point PT1 and the second point PT2, respectively. It corresponds to. In this way, the relative tilt of the camera 62 in the ground space CK in the state where images are taken at the first point PT1 and the second point PT2, respectively, is reproduced as a relative positional relationship between the camera coordinates CZ1 and the camera coordinates CZ2 at the reference coordinates KZ. Because it was done
As described above, in these camera coordinates CZ1 and camera coordinates CZ2, if light sources are respectively provided at the two projection center points O1 and O2 to project the respective photographic images SG1 and SG2, as shown in FIG. Image SG1,
In SG2, all the two light fluxes that have passed through the corresponding points meet, and it is possible to virtually form a model 61 that is relatively similar to the survey object 60 by the set of points that meet. This completes the mutual orientation work. After completion,
The main coordinates of the reference coordinates KZ, the camera coordinates CZ1 and CZ2 whose relative inclinations are determined by the mutual orientation calculation unit 10, and the first photographic image SG1 on the camera coordinates CZ1 and the second photographic image SG2 on the camera coordinates CZ2 are controlled. It is transmitted to the ground orientation calculation unit 11 via the unit 2.

【0013】伝送と共に主制御部2は公知の手法による
対地標定作業を開始する。まず主制御部2は、作業指示
表示部7bに命令して、基準点の入力を命令する旨の表
示(図示せず)を行わせる。図示しないオペレータは、
該表示を見ることによって、上述したように予めマーキ
ングされている3つの基準点KJ1〜KJ3が第一写真
画像SG1において撮影されている基準点像KJa1〜
KJa3、第二写真画像SG2において撮影されている
基準点像KJb1〜KJb3を、第一ディスプレイ7c
の第一写真画像SG1、第二ディスプレイ7dの第二写
真画像SG2内でそれぞれ探し出す。探し出した後、図
示しないオペレータは、カーソル移動操作部17bを介
して、カーソル33、35を各ディスプレイ7c、7d
上で移動させ、それぞれ対応した1つの画素GSからな
る基準点像KJa1(KJa2、KJa3)と基準点像
KJb1(KJb2、KJb3)に順次位置決めする。
位置決めと共に、図示しないオペレータは、基準点像K
Ja1(KJa2、KJa3)と、対応する基準点像K
Jb1(KJb2、KJb3)の予め検出されている地
上空間CKでの緯度、経度、標高を、地上空間CKに対
応した基準座標KZ上の座標位置である基準点座標位置
Kc1(Kc2、Kc3)として入力手段17の入力操
作部17aを介して順次入力する。一方、カーソル3
3、35が位置決めされることにより、カーソル位置認
識部22では、基準点像KJa1(KJa2、KJa
3)の平面座標HZ1上での座標位置及び、基準点像K
Jb1(KJb2、KJb3)の平面座標HZ2上での
座標位置を認識し、平面座標HZ1上での座標位置及
び、平面座標HZ2上での座標位置は更に、座標変換制
御部19に伝送されて、それぞれカメラ座標CZ1にお
ける基準点像座標位置Ka1(Ka2、Ka3)及び、
カメラ座標CZ2における基準点像座標位置Kb1(K
b2、b3)に変換されて、主制御部2に伝送される。
主制御部2は基準点像座標位置Ka1(Ka2、Ka
3)、基準点像座標位置Kb1(Kb2、b3)及び、
入力操作部17aを介して入力された基準点座標位置K
c1(Kc2、Kc3)を対地標定演算部11に伝送す
る。
At the same time as the transmission, the main control section 2 starts the ground location work by a known method. First, the main control unit 2 instructs the work instruction display unit 7b to perform a display (not shown) for instructing the input of the reference point. An operator not shown is
By looking at the display, the three reference points KJ1 to KJ3, which are marked in advance as described above, are the reference point images KJa1 to KJa1 captured in the first photographic image SG1.
KJa3, the reference point images KJb1 to KJb3 captured in the second photographic image SG2 are displayed on the first display 7c.
The first photographic image SG1 of No. 2 and the second photographic image SG2 of the second display 7d are searched for. After searching, the operator (not shown) moves the cursors 33 and 35 to the respective displays 7c and 7d via the cursor movement operation unit 17b.
The reference point image KJa1 (KJa2, KJa3) and the reference point image KJb1 (KJb2, KJb3) each made up of one corresponding pixel GS are sequentially positioned.
Along with the positioning, the operator (not shown) operates the reference point image K.
Ja1 (KJa2, KJa3) and corresponding reference point image K
The latitude, longitude, and altitude of Jb1 (KJb2, KJb3) detected in the ground space CK are set as the reference point coordinate position Kc1 (Kc2, Kc3) which is the coordinate position on the reference coordinate KZ corresponding to the ground space CK. Inputs are sequentially made via the input operation unit 17a of the input means 17. On the other hand, cursor 3
By positioning 3 and 35, the cursor position recognition unit 22 causes the reference point images KJa1 (KJa2, KJa).
3) The coordinate position on the plane coordinate HZ1 and the reference point image K
The coordinate position of the Jb1 (KJb2, KJb3) on the plane coordinate HZ2 is recognized, and the coordinate position on the plane coordinate HZ1 and the coordinate position on the plane coordinate HZ2 are further transmitted to the coordinate conversion control unit 19, The reference point image coordinate position Ka1 (Ka2, Ka3) at the camera coordinate CZ1 and
Reference point image coordinate position Kb1 (K
b2, b3) and transmitted to the main control unit 2.
The main controller 2 controls the reference point image coordinate position Ka1 (Ka2, Ka2, Ka2
3), the reference point image coordinate position Kb1 (Kb2, b3), and
Reference point coordinate position K input via the input operation unit 17a
The c1 (Kc2, Kc3) is transmitted to the ground orientation calculating section 11.

【0014】次いで、対地標定演算部11では対地標定
演算が行われる。即ち、カメラ座標CZ1上の基準点像
座標位置Ka1(Ka2、Ka3)或いは、カメラ座標
CZ2上の基準点像座標位置Kb1(Kb2、b3)に
対応する基準点座標位置Kc1(Kc2、Kc3)は、
相互標定作業の結果得られる仮想的な前記モデル61上
の位置であり、前記モデル61上の位置は、上述したよ
うに、カメラ座標CZ1、CZ2に対して相対的に決定
されている。よって、基準点座標位置Kc1(Kc2、
Kc3)は基準座標KZ上の点であることから、モデル
61と基準座標KZとの位置関係が特定され、基準座標
KZとカメラ座標CZ1或いは、カメラ座標CZ2との
位置関係が特定される。以上のように基準座標KZ上で
特定されたモデル61は実際の測量対象物60と正確に
対応したものとなっており、また、モデル61とカメラ
座標CZ1、CZ2との位置関係も特定されているた
め、カメラ座標CZ1、CZ2における互いに対応した
点の各座標位置が決定されたならば、これら座標位置に
対応するモデル61上の点が基準座標KZにおける座標
位置の形で1つ決定される。従って、対地標定演算部1
1は、カメラ座標CZ1、CZ2における、対応する点
の各座標位置を、モデル61の基準座標KZにおける点
の三次元座標位置SIに変換する所定の変換式HS1を
構築し、対地標定演算部11は、該変換式HS1を主制
御部2を介して三次元位置演算部13に伝送記憶させ
る。
Next, the ground orientation calculation section 11 performs the ground orientation calculation. That is, the reference point image coordinate position Ka1 (Ka2, Ka3) on the camera coordinate CZ1 or the reference point coordinate position Kc1 (Kc2, Kc3) corresponding to the reference point image coordinate position Kb1 (Kb2, b3) on the camera coordinate CZ2 is ,
It is a virtual position on the model 61 obtained as a result of the mutual orientation work, and the position on the model 61 is determined relatively to the camera coordinates CZ1 and CZ2 as described above. Therefore, the reference point coordinate position Kc1 (Kc2,
Since Kc3) is a point on the reference coordinates KZ, the positional relationship between the model 61 and the reference coordinates KZ is specified, and the positional relationship between the reference coordinates KZ and the camera coordinates CZ1 or the camera coordinates CZ2 is specified. As described above, the model 61 specified on the reference coordinates KZ accurately corresponds to the actual survey object 60, and the positional relationship between the model 61 and the camera coordinates CZ1 and CZ2 is also specified. Therefore, if the coordinate positions of the points corresponding to each other in the camera coordinates CZ1 and CZ2 are determined, one point on the model 61 corresponding to these coordinate positions is determined in the form of the coordinate position in the reference coordinate KZ. . Therefore, the ground orientation calculation unit 1
1 constructs a predetermined conversion formula HS1 for converting each coordinate position of the corresponding points in the camera coordinates CZ1 and CZ2 into a three-dimensional coordinate position SI of the point in the reference coordinates KZ of the model 61, and the ground orientation calculating unit 11 Causes the conversion formula HS1 to be transmitted and stored in the three-dimensional position calculation unit 13 via the main control unit 2.

【0015】次いで、主制御部2は対地標定演算部11
より、相対的な位置関係が互いに決定されている基準座
標KZ、カメラ座標CZ1、CZ2及び、第一写真画像
SG1、第二写真画像SG2を偏位修正演算部12に伝
送して、偏位修正演算部12に公知の手法による偏位修
正作業を行わせる。即ち、基準座標KZにおける同一平
面である修正平面SH1、SH2(但し、投影中心O
1、O2を結んだ直線と修正平面SH1、SH2とは共
に平行である)を、図3の二点鎖線に示すように、カメ
ラ座標CZ1、CZ2にそれぞれ設定し、画像平面GH
1、GH2上の点をそれぞれ修正平面SH1、SH2に
変換させる形で、画像平面GH1、GH2上の第一写真
画像SG1、第二写真画像SG2を修正平面SH1、S
H2に変換させる。なお、画像平面GH1、GH2上の
点の修正平面SH1、SH2への変換は、画像平面GH
1、GH2上の各点を、投影中心O1、O2とこれら各
点とを結んだ光束と、修正平面SH1、SH2との各交
点へ変換させる形(即ち、公知の射影変換)で行う。ま
た、これら修正平面SH1、SH2の上に、Xs1軸、
Ys1軸からなる修正平面座標SHZ1と、Xs2軸、
Ys2軸からなる修正平面座標SHZ2とを設定する。
但し、Xs1軸、Xs2軸は基準座標KZ上の同一なる
直線となるように設定されている。つまり、修正平面座
標SHZ1、SHZ2上の写真画像SG1、SG2で
は、両写真画像SG1、SG2間での視差がXs1軸或
いは、Xs2軸方向にのみ生じるようになっている。ま
た、偏位修正演算部12は、修正平面座標SHZ1、S
HZ2上の任意の点をカメラ座標CZ1、CZ2上の対
応する点に変換する所定の変換式HS2を算出する。
Next, the main control unit 2 has a ground orientation calculation unit 11
Further, the reference coordinates KZ, the camera coordinates CZ1, CZ2, and the first photographic image SG1 and the second photographic image SG2, whose relative positional relationships are determined with each other, are transmitted to the eccentricity correction calculation unit 12, and the eccentricity correction is performed. The calculation unit 12 is caused to perform the deviation correction work by a known method. That is, the correction planes SH1 and SH2 (where the projection center O
(The straight line connecting 1 and O2 and the correction planes SH1 and SH2 are parallel to each other) are set to the camera coordinates CZ1 and CZ2, respectively, as shown by the chain double-dashed line in FIG.
The first photographic image SG1 and the second photographic image SG2 on the image planes GH1 and GH2 are converted into correction planes SH1 and SH2 by converting points on the image planes GH1 and GH2, respectively.
Convert to H2. The conversion of the points on the image planes GH1 and GH2 into the correction planes SH1 and SH2 is performed by the image plane GH.
The points 1 and GH2 are converted into the intersections of the light fluxes connecting the projection centers O1 and O2 with these points and the correction planes SH1 and SH2 (that is, known projection transformation). In addition, on these correction planes SH1 and SH2, the Xs1 axis,
Modified plane coordinates SHZ1 consisting of Ys1 axis, Xs2 axis,
A corrected plane coordinate SHZ2 consisting of the Ys2 axis is set.
However, the Xs1 axis and the Xs2 axis are set to be the same straight line on the reference coordinate KZ. That is, in the photographic images SG1 and SG2 on the corrected plane coordinates SHZ1 and SHZ2, parallax between the photographic images SG1 and SG2 occurs only in the Xs1 axis direction or the Xs2 axis direction. Further, the deviation correction calculation unit 12 uses the correction plane coordinates SHZ1 and SZ.
A predetermined conversion formula HS2 for converting an arbitrary point on HZ2 into a corresponding point on the camera coordinates CZ1 and CZ2 is calculated.

【0016】次いで、偏位修正演算部12は修正平面座
標SHZ1、SHZ2及び、修正平面座標SHZ1、S
HZ2上に変換された写真画像SG1、SG2と、変換
式HS2を主制御部2に伝送する。主制御部2は、修正
平面座標SHZ1上の第一写真画像SG1及び、修正平
面座標SHZ2上の第一写真画像SG2を、座標変換制
御部19に伝送する。座標変換制御部19は、修正平面
座標SHZ1上の任意の点を、該任意の点のXs1軸成
分を平面座標HZ1のX1軸成分に、Ys1軸成分をY
1軸成分にそれぞれ置き換える形で変換させる方法で、
修正平面座標SHZ1上の第一写真画像SG1を平面座
標HZ1上に変換し、修正平面座標SHZ2上の任意の
点を、該任意の点のXs2軸成分を平面座標HZ2のX
2軸成分に、Ys2軸成分をY2軸成分にそれぞれ置き
換える形で変換し、変換した両写真画像SG1、SG2
を表示制御部7aに伝送する。表示制御部7aは、図5
に示すように、これら両写真画像SG1、SG2を第一
ディスプレイ7c、第二ディスプレイ7dにそれぞれ表
示させる(第一ディスプレイ7c、第二ディスプレイ7
dに直前に表示されていた偏位修正作業前の写真画像S
G1、SG2は消去される。)。一方、主制御部2は変
換式HS2を、座標変換制御部19及び、三次元位置演
算部13に伝送し記憶させる。以上で偏位修正作業が完
了したが、該偏位修正作業の結果、図5に示すように、
各ディスプレイ7c、7dに表示された写真画像SG
1、SG2間では、Xs1軸に対応したX1軸方向或い
は、Xs2軸に対応したX2軸方向にのみ視差が生じて
いるため、第一写真画像SG1上の一点のY1軸成分の
値と、該一点に対応する第二写真画像SG2上の一点の
Y2軸成分の値とは常に等しくなる。
Next, the deviation correction calculation unit 12 corrects the plane coordinates SHZ1, SHZ2 and the plane coordinates SHZ1, SZ.
The photographic images SG1 and SG2 converted on the HZ2 and the conversion formula HS2 are transmitted to the main control unit 2. The main control unit 2 transmits the first photographic image SG1 on the corrected plane coordinates SHZ1 and the first photographic image SG2 on the corrected plane coordinates SHZ2 to the coordinate conversion control unit 19. The coordinate conversion control unit 19 sets an arbitrary point on the corrected plane coordinate SHZ1 to the Xs1 axis component of the arbitrary point as the X1 axis component of the plane coordinate HZ1, and sets the Ys1 axis component to Y.
It is a method to convert by replacing each one axis component,
The first photographic image SG1 on the corrected plane coordinates SHZ1 is converted into the plane coordinates HZ1 and an arbitrary point on the corrected plane coordinates SHZ2 is converted into an Xs2 axis component of the arbitrary point as X of the plane coordinates HZ2.
The two photographic images SG1 and SG2 are converted into two-axis components by converting the Ys2-axis components into the Y2-axis components.
Is transmitted to the display controller 7a. The display controller 7a is shown in FIG.
As shown in FIG. 2, both of these photographic images SG1 and SG2 are displayed on the first display 7c and the second display 7d, respectively (first display 7c and second display 7).
Photo image S before the deviation correction work that was displayed immediately before in d
G1 and SG2 are erased. ). On the other hand, the main control unit 2 transmits the conversion formula HS2 to the coordinate conversion control unit 19 and the three-dimensional position calculation unit 13 to store it. The deviation correction work is completed as described above. As a result of the deviation correction work, as shown in FIG.
Photo image SG displayed on each display 7c, 7d
Between 1 and SG2, since parallax occurs only in the X1 axis direction corresponding to the Xs1 axis or in the X2 axis direction corresponding to the Xs2 axis, the value of the Y1 axis component of one point on the first photographic image SG1 and the The value of the Y2-axis component of one point on the second photographic image SG2 corresponding to one point is always equal.

【0017】偏位修正作業完了後、主制御部2は射影変
換式検出作業を開始させる。主制御部2は、偏位修正演
算部12より基準座標KZ、カメラ座標CZ1、CZ
2、修正平面座標SHZ1、SHZ2を射影変換制御部
25に伝送入力すると共に、相互標定演算部10におい
て使用された、カメラ座標CZ1上の5つのパスポイン
ト座標位置Pa1〜Pa5及び、カメラ座標CZ2上の
5つのパスポイント座標位置Pb1〜Pb5を、各々対
応するものどうしを対にする形で取り出して、これら対
を座標変換制御部19に伝送する。座標変換制御部19
では、伝送されたカメラ座標CZ1上のパスポイント座
標位置Pa1〜Pa5及び、カメラ座標CZ2上のパス
ポイント座標位置Pb1〜Pb5を、公知の射影変換に
よって修正平面座標SHZ1上の座標位置(i1、j
1)、(i2、j2)、(i3、j3)、(i4、j
4)、(i5、j5)及び、修正平面座標SHZ2上の
座標位置(l1、m1)、(l2、m2)、(l3、m
3)、(l4、m4)、(l5、m5)に変換して射影
変換制御部25に伝送入力させる。射影変換制御部25
では、a、b、c、x、x’、y、y’を変数とする方
程式である数1のxに、i1〜i5を代入し、yにj1
〜j5を代入し、x’にl1〜l5を代入し、y’にm
1〜m5を代入して、a、b、cを変数とする方程式を
4つ形成し、該4つの方程式からa、b、cを変数とす
る行列式、即ち、数2を形成する。なお、数1における
x、yは、修正平面座標SHZ1における任意の点のX
s1軸成分、Ys1軸成分に対応し、x’、y’は、修
正平面座標SHZ2における、修正平面座標SHZ1上
の前記任意の点に対応する点のXs2軸成分、Ys2軸
成分に対応する。また、上述したように、修正平面座標
SHZ1上の任意の点のYs1軸成分が、該任意の点に
対応する修正平面座標SHZ2上の点のYs2軸成分と
同値になるように、修正平面座標SHZ1、SHZ2が
偏位修正されているため、yとy’は常に等しい。
After the deviation correction work is completed, the main control unit 2 starts the projective conversion formula detection work. The main control unit 2 receives the reference coordinates KZ, the camera coordinates CZ1 and CZ from the deviation correction calculation unit 12.
2. The corrected plane coordinates SHZ1 and SHZ2 are transmitted and input to the projective transformation control unit 25, and the five path point coordinate positions Pa1 to Pa5 on the camera coordinate CZ1 and the camera coordinate CZ2 used in the relative orientation calculation unit 10 are also transmitted. Of the five path point coordinate positions Pb1 to Pb5 are taken out in the form of pairs corresponding to each other, and these pairs are transmitted to the coordinate conversion control unit 19. Coordinate conversion control unit 19
Then, the transmitted pass point coordinate positions Pa1 to Pa5 on the camera coordinate CZ1 and the transmitted pass point coordinate positions Pb1 to Pb5 on the camera coordinate CZ2 are coordinate positions (i1, j on the corrected plane coordinate SHZ1 by a known projective transformation.
1), (i2, j2), (i3, j3), (i4, j
4), (i5, j5) and coordinate positions (l1, m1), (l2, m2), (l3, m) on the corrected plane coordinate SHZ2.
3), (l4, m4), and (l5, m5) are converted and transmitted to the projection conversion control unit 25. Projective transformation control unit 25
Then, i1 to i5 are substituted for x in the equation 1, which is an equation in which a, b, c, x, x ′, y, and y ′ are variables, and j1 is substituted for y.
~ J5 is substituted, l1 to l5 are substituted for x ', and m is substituted for y'.
By substituting 1 to m5, four equations having variables a, b, and c are formed, and a determinant having variables a, b, and c, that is, Equation 2 is formed from the four equations. Note that x and y in the equation 1 are X of an arbitrary point in the corrected plane coordinates SHZ1.
Corresponding to the s1 axis component and the Ys1 axis component, x ′ and y ′ correspond to the Xs2 axis component and the Ys2 axis component of the point on the corrected plane coordinate SHZ2 corresponding to the arbitrary point on the corrected plane coordinate SHZ1. Further, as described above, the corrected plane coordinates are set so that the Ys1 axis component of an arbitrary point on the corrected plane coordinate SHZ1 has the same value as the Ys2 axis component of the point on the corrected plane coordinate SHZ2 corresponding to the arbitrary point. Since SHZ1 and SHZ2 are deviated, y and y'are always equal.

【数1】 [Equation 1]

【数2】 この数2は、数3のように変形することが出来る。[Equation 2] The equation 2 can be transformed into the equation 3.

【数3】 なお、右肩に添字のtを付けた行列は転置行列を表し、
右肩に添字の−1を付けた行列は逆行列を表す。従っ
て、射影変換制御部25は、数3に基づいて、変数a、
b、cを演算して求め、求められた変数a、b、cを前
記数1に代入して、数1をy、y’、x、x’を変数と
する修正平面座標SHZ1と修正平面座標SHZ2間の
射影変換式HS3として決定する。
[Equation 3] The matrix with the subscript t on the right shoulder represents the transposed matrix,
The matrix with the subscript -1 on the right shoulder represents the inverse matrix. Therefore, the projective transformation control unit 25 uses the variable a,
b and c are calculated and the calculated variables a, b and c are substituted into the above equation 1, and the corrected plane coordinates SHZ1 and the corrected plane in which the equation 1 is used as variables y, y ', x and x' It is determined as the projective transformation formula HS3 between the coordinates SHZ2.

【0018】次いで、主制御部2は、マッチング作業を
開始させ、まず、格子設定制御部26に命令し、第一デ
ィスプレイ7cに表示された平面座標HZ1に、図5に
示すように、複数本の縦線27aと複数本の横線27b
を所定の格子縞27を形成する形で設け、その縦線27
aと横線27bの各交点に基準交点29を設定する。設
定の後、主制御部2は、1回目の相関窓30の設定作業
を行わせる。即ち、主制御部2は相関窓制御部20に命
令して、複数個の基準交点29が設定された平面座標H
Z1における任意の基準交点29を1つ選ばせ、選んだ
基準交点29をマッチング基準点29Aとさせる。ま
た、該マッチング基準点29Aを中心として、図5及び
図6に示すように、所定の領域を包囲する正方形の相関
窓30を設定する。なお、相関窓30の四隅の点30
a、30b、30c、30dは平面座標HZ1(或い
は、修正平面座標SHZ1)上で座標位置(i31、j
31)、(i32、j32)、(i33、j33)、
(i34、j34)であり、マッチング基準点29Aは
座標位置(i29、j29)である。1回目の相関窓3
0の設定後、相関窓制御部20は、マッチング基準点2
9Aの座標位置(i29、j29)を三次元位置演算部
13に伝送記憶させる。次いで、相関窓制御部20は、
相関窓30内部に含まれる複数の画素GSに関するデジ
タル情報即ち、赤色R、緑色G、青色Bの3つの色度毎
の明度αに関する濃度値情報NJ1を抽出し、相関窓濃
度値検出部3に伝送する。相関窓濃度値検出部3では、
図6において模式的にに示すように、相関窓30内部に
含まれる複数の画素GSの赤色Rの明度αに関する情報
が相関窓赤色濃度値検出部3aに、緑色Gの明度αに関
する情報が相関窓緑色濃度値検出部3b、青色Bの明度
αに関する情報が相関窓青色濃度値検出部3cに区別し
て伝送されており、これら各濃度値検出部3a、3b、
3cにおいて、相関窓30内部に含まれる複数の画素G
Sの各色度R、G、B毎の明度αの分布状況P1、P
2、P3が検出される。検出の後、これら各色度R、
G、B毎の明度αの分布状況P1、P2、P3はマッチ
ングポイント検出部6に伝送させる。また一方で、1回
目の相関窓30の設定後、相関窓制御部20は、相関窓
30の四隅の点30a、30b、30c、30dの座標
位置(i31、j31)、(i32、j32)、(i3
3、j33)、(i34、j34)及び、マッチング基
準点29Aの座標位置(i29、j29)を射影変換制
御部25に出力する。
Next, the main control section 2 starts the matching work, firstly commands the lattice setting control section 26, and sets a plurality of coordinates on the plane coordinates HZ1 displayed on the first display 7c as shown in FIG. Vertical line 27a and multiple horizontal lines 27b
Are provided in the form of forming a predetermined lattice stripe 27, and the vertical line 27
A reference intersection 29 is set at each intersection of a and the horizontal line 27b. After setting, the main control unit 2 causes the first setting operation of the correlation window 30. That is, the main control unit 2 commands the correlation window control unit 20 to set the plane coordinates H in which a plurality of reference intersections 29 are set.
One arbitrary reference intersection 29 in Z1 is selected, and the selected reference intersection 29 is set as the matching reference point 29A. Further, as shown in FIGS. 5 and 6, centering on the matching reference point 29A, a square correlation window 30 surrounding a predetermined area is set. The points 30 at the four corners of the correlation window 30
a, 30b, 30c, and 30d are coordinate positions (i31, j) on the plane coordinate HZ1 (or the corrected plane coordinate SHZ1).
31), (i32, j32), (i33, j33),
(I34, j34), and the matching reference point 29A is the coordinate position (i29, j29). First correlation window 3
After setting 0, the correlation window control unit 20 determines that the matching reference point 2
The coordinate position (i29, j29) of 9A is transmitted and stored in the three-dimensional position calculation unit 13. Then, the correlation window control unit 20
Digital information regarding a plurality of pixels GS included in the correlation window 30, that is, density value information NJ1 regarding lightness α for each of the three chromaticities of red R, green G, and blue B is extracted, and is output to the correlation window density value detection unit 3. To transmit. In the correlation window density value detection unit 3,
As schematically shown in FIG. 6, the information on the lightness α of the red R of the plurality of pixels GS included in the correlation window 30 is correlated with the information on the lightness α of the green G on the correlation window red density value detection unit 3a. Information regarding the window green density value detection unit 3b and the lightness α of blue B is separately transmitted to the correlation window blue density value detection unit 3c, and these density value detection units 3a, 3b,
3c, a plurality of pixels G included in the correlation window 30
Distributions P1, P of lightness α for each chromaticity R, G, B of S
2, P3 is detected. After detection, each of these chromaticities R,
The distribution states P1, P2, P3 of the brightness α for each of G and B are transmitted to the matching point detection unit 6. On the other hand, after setting the correlation window 30 for the first time, the correlation window control unit 20 sets the coordinate positions (i31, j31), (i32, j32) of the points 30a, 30b, 30c, 30d at the four corners of the correlation window 30, (I3
3, j33), (i34, j34) and the coordinate position (i29, j29) of the matching reference point 29A are output to the projective transformation control unit 25.

【0019】射影変換制御部25は、相関窓30の四隅
の点30a、30b、30c、30dの座標位置(i3
1、j31)、(i32、j32)、(i33、j3
3)、(i34、j34)及び、マッチング基準点29
Aの座標位置(i29、j29)を、前記射影変換式H
S3にそれぞれ代入し、それぞれの修正平面座標SHZ
1での座標位置(i31、j31)、(i32、j3
2)、(i33、j33)、(i34、j34)、(i
29、j29)に対応する修正平面座標SHZ2上の座
標位置(l31、m31)、(l32、m32)、(l
33、m33)、(l34、m34)、(l29、m2
9)を演算する。演算後、射影変換制御部25は、これ
ら5個の座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)、(l
29、m29)を探索窓制御部21に出力する。探索窓
制御部21は、これら座標位置(l31、m31)、
(l32、m32)、(l33、m33)、(l34、
m34)、(l29、m29)に基づいて、修正平面座
標SHZ2上に、座標位置(l31、m31)、(l3
2、m32)、(l33、m33)、(l34、m3
4)を四隅の点31a、31b、31c、31dとする
平行四辺形(なぜなら、修正平面座標SHZ1上の互い
に平行な任意の2直線が、それぞれ射影変換式HS3に
よって修正平面座標SHZ2に変換された場合、変換前
の前記任意の2直線は、修正平面座標SHZ2における
互いに平行な直線となるから、修正平面座標SHZ1上
で点30a、30bを結ぶ直線と点30c、30dを結
ぶ直線が互いに平行であると共に点30a、30cを結
ぶ直線と点30b、30dを結ぶ直線が互いに平行であ
ることより、修正平面座標SHZ2上で点31a、31
bを結ぶ直線と点31c、31dを結ぶ直線が互いに平
行であると共に点31a、31cを結ぶ直線と点31
b、31dを結ぶ直線が互いに平行であるから)の探索
窓31を設定する。また、探索窓制御部21は、座標位
置(l29、m29)を探索対応点29Bとして設定す
る。なお、探索対応点29Bは探索窓31の平行四辺形
形状の中心点である(なぜなら、修正平面座標SHZ1
上の任意の2点及びこれら2点の中点が、それぞれ射影
変換式HS3によって修正平面座標SHZ2に変換され
た場合、変換前の前記任意の2点の中点であった点は、
変換後に平面座標HZ2に位置する前記任意の2点の中
点に位置するから、修正平面座標SHZ1上で正方形の
2対角線の中点であり交点である中心点は、修正平面座
標SHZ2上では平行四辺形の2対角線の中点であり交
点である中心点となるから)。
The projective transformation control unit 25 controls the coordinate positions (i3) of the points 30a, 30b, 30c and 30d at the four corners of the correlation window 30.
1, j31), (i32, j32), (i33, j3)
3), (i34, j34) and matching reference point 29
The coordinate position (i29, j29) of A is converted into the projective transformation formula H
Substituting for each S3, each corrected plane coordinate SHZ
Coordinate positions (i31, j31), (i32, j3)
2), (i33, j33), (i34, j34), (i
29, j29) and coordinate positions (l31, m31), (l32, m32), (l) on the corrected plane coordinate SHZ2.
33, m33), (l34, m34), (l29, m2)
9) is calculated. After the calculation, the projective transformation control unit 25 determines that these five coordinate positions (l31, m31), (l32, m3).
2), (l33, m33), (l34, m34), (l
29, m29) to the search window controller 21. The search window control unit 21 uses these coordinate positions (l31, m31),
(L32, m32), (l33, m33), (l34,
Based on m34) and (l29, m29), coordinate positions (l31, m31), (l3) on the corrected plane coordinate SHZ2.
2, m32), (l33, m33), (l34, m3)
4) parallelograms having four corner points 31a, 31b, 31c, 31d (because any two parallel lines on the corrected plane coordinate SHZ1 are converted to the corrected plane coordinate SHZ2 by the projective transformation formula HS3). In this case, the arbitrary two straight lines before conversion are parallel to each other in the corrected plane coordinate SHZ2. Therefore, on the corrected plane coordinate SHZ1, the line connecting the points 30a and 30b and the line connecting the points 30c and 30d are parallel to each other. Since the straight line connecting the points 30a and 30c and the straight line connecting the points 30b and 30d are parallel to each other, the points 31a and 31 on the corrected plane coordinate SHZ2 are
The straight line connecting b and the straight line connecting points 31c and 31d are parallel to each other, and the straight line connecting the points 31a and 31c and point 31
(Because the straight lines connecting b and 31d are parallel to each other), a search window 31 is set. In addition, the search window control unit 21 sets the coordinate position (l29, m29) as the search corresponding point 29B. The search corresponding point 29B is the center point of the parallelogram shape of the search window 31 (because of the corrected plane coordinates SHZ1.
When the arbitrary two points above and the midpoints of these two points are transformed into the modified plane coordinates SHZ2 by the projective transformation formula HS3, the point which was the midpoint of the arbitrary two points before transformation is
Since it is located at the midpoint between the two arbitrary points located on the plane coordinate HZ2 after conversion, the center point, which is the midpoint and intersection of the two diagonals of the square on the revised plane coordinate SHZ1, is parallel on the revised plane coordinate SHZ2. (Because it is the center of the quadrilateral, which is the midpoint and intersection of the two diagonals).

【0020】ところで、上述した射影変換式HS3は次
のような意味をもっている。即ち、相互標定作業、対地
標定作業によって得られた基準座標KZにおける前記モ
デル61は平面ではなく比高差を有している。従って、
モデル61中の点の基準座標KZにおける座標位置を決
定するには、上述した変換式HS1、HS2によって示
されるように、モデル61中の点の該座標位置に対応す
る修正平面座標SHZ1上の点の座標位置と、モデル6
1中の点の該座標位置に対応する修正平面座標SHZ2
上の点の座標位置とが共に決定される必要があった。し
かし、修正平面座標SHZ1上の5つの座標位置(i1
〜i5、j1〜j5)と、これらに対応する修正平面座
標SHZ2上の5つの座標位置(l1〜l5、m1〜m
5)と、変換式HS1、HS2により求められるこれら
5つの座標位置(i1〜i5、j1〜j5)或いは、5
つの座標位置(l1〜l5、m1〜m5)に対応するモ
デル61中の対応点T1〜T5を求め、これら対応点T
1〜T5を近似的に含む仮想平面HHを基準座標KZ上
で、図3に示すように想定した場合、カメラ座標CZ1
上の投影中心O1に光源を置き、修正平面座標SHZ1
上の第一写真画像SG1を該仮想平面HH上に仮想写真
画像SG3として投影することができる。つまり、比高
差のあるモデル61を比高差のない仮想写真画像SG3
に近似的に置き換えることができる。即ち、上述した射
影変換式HS3は、修正平面座標SHZ1上の任意の点
を、該任意の点に対応する仮想平面HH上の点と、カメ
ラ座標CZ2上の投影中心O2とを結んだ直線の、修正
平面座標SHZ2との交点に変換することを意味してい
る。よって、修正平面座標SHZ1の相関窓30の四隅
の点30a、30b、30c、30dを射影変換式HS
3によって修正平面座標SHZ2の点31a、31b、
31c、31dに変換し、これら点31a、31b、3
1c、31dを四隅とする探索窓31を設定することに
よって、相関窓30内に含まれる点に対応した、モデル
61を近似的に置き換えた仮想平面HH上の仮想写真画
像SG3中の点が、探索窓31内に含まれる点に対応す
るので、相関窓30内に含まれる点と探索窓31内に含
まれる点との整合性を極力高めることができる。よっ
て、後述する画像濃度値の分布状態の比較等において、
対応しているはずの画像どうしよりも、対応していない
はずの画像どうしの類似度をより高く評価してしまう可
能性を小さくできるので、適正なマッチングを行うこと
ができる。
By the way, the above-mentioned projective transformation formula HS3 has the following meaning. That is, the model 61 at the reference coordinates KZ obtained by the mutual orientation work and the ground orientation work does not have a flat surface but a specific height difference. Therefore,
In order to determine the coordinate position of the point in the model 61 in the reference coordinate KZ, a point on the corrected plane coordinate SHZ1 corresponding to the coordinate position of the point in the model 61, as indicated by the above-mentioned conversion formulas HS1 and HS2. Coordinate position and model 6
Modified plane coordinates SHZ2 corresponding to the coordinate position of the point in 1
The coordinate position of the upper point had to be determined together. However, the five coordinate positions (i1
To i5, j1 to j5) and the corresponding five coordinate positions (11 to 15 and m1 to m5 on the corrected plane coordinates SHZ2).
5) and these five coordinate positions (i1 to i5, j1 to j5) obtained by the conversion expressions HS1 and HS2, or 5
Corresponding points T1 to T5 in the model 61 corresponding to two coordinate positions (11 to 15 and m1 to m5) are obtained, and these corresponding points T
When the virtual plane HH approximately including 1 to T5 is assumed on the reference coordinate KZ as shown in FIG. 3, the camera coordinate CZ1
The light source is placed at the upper projection center O1 and the corrected plane coordinates SHZ1
The upper first photographic image SG1 can be projected as the virtual photographic image SG3 on the virtual plane HH. That is, the model 61 having a relative height difference is set to the virtual photograph image SG3 having no relative height difference.
Can be replaced approximately. That is, the above-described projective transformation formula HS3 is a straight line that connects an arbitrary point on the corrected plane coordinate SHZ1 with a point on the virtual plane HH corresponding to the arbitrary point and the projection center O2 on the camera coordinate CZ2. , Which means conversion to an intersection with the corrected plane coordinate SHZ2. Therefore, the points 30a, 30b, 30c, and 30d at the four corners of the correlation window 30 of the corrected plane coordinates SHZ1 are converted into the projective transformation formula HS.
Points 31a, 31b of the corrected plane coordinates SHZ2 by 3,
31c, 31d and these points 31a, 31b, 3
By setting the search windows 31 having the four corners 1c and 31d, the points in the virtual photographic image SG3 on the virtual plane HH corresponding to the points included in the correlation window 30 are approximately replaced by the model 61. Since it corresponds to the points included in the search window 31, it is possible to maximize the consistency between the points included in the correlation window 30 and the points included in the search window 31. Therefore, in the comparison of the distribution of image density values, which will be described later,
Since it is possible to reduce the possibility that the similarity between images that should not correspond to each other will be evaluated higher than the images that should correspond to each other, it is possible to perform appropriate matching.

【0021】一方、前記仮想平面HHは、上述したよう
に、比高差をもつモデル61と一致しているわけではな
く、よって射影変換式HS3は、修正平面座標SHZ1
上の任意の点を該任意の点に近似的に対応する修正平面
座標SHZ2上の点へ変換する式であるので、修正平面
座標SHZ1の全ての点を修正平面座標SHZ2上の対
応する点に正確に移すことはできない。よって、マッチ
ング基準点29Aが、上述したように、射影変換式HS
3によって修正平面座標SHZ2上の点に変換され、変
換された該点をマッチング基準点29Aに対応する探索
対応点29Bとして設定したが、マッチング基準点29
Aと探索対応点29Bとは近似的に対応しているだけで
あって正確に対応しているとは限らない。従って、以下
に相関窓30の中心のマッチング基準点29Aに正確に
対応する修正平面座標SHZ2上の探索対応点29Bを
求めるマッチングポイント検出作業を行う。ところで、
上述したように、修正平面座標SHZ1、SHZ2は互
いに偏位修正が行われており、両修正平面座標SHZ
1、SHZ2上の両写真画像SG1、SG2間ではY1
軸(Ys1軸)方向或いはY2軸(Ys2軸)方向の視
差が無い。つまり、マッチング基準点29Aに正確に対
応した修正平面座標SHZ2上の点は、射影変換式HS
3によって変換され設定された探索対応点29BとY2
軸(Ys2軸)成分が等しい値をもつはずである。よっ
て、主制御部2は、探索窓制御部21に命令して、探索
窓31及び、探索対応点29Bを修正平面座標SHZ2
上において、Xs2軸の正方向(或いは、負方向)に所
定の移動量δづつ平行移動させる。なお、移動量δは1
つの画素GSのX2軸(Xs2軸)方向の幅に等しく、
移動量δづつ平行移動するということは、探索対応点2
9Bが、その位置をX2軸(Xs2軸)方向に隣接する
画素GSに順次対応させながら移り変える形で移動する
ことを意味する。また、探索窓制御部21は、探索対応
点29Bの修正平面座標SHZ2上の座標位置(lk、
m29)を移動量δ移動ごとに、マッチングポイント検
出部16に出力する。また、探索窓制御部21は、移動
量δを移動するごとに、探索窓31内部に含まれる複数
の画素GSに関するデジタル情報即ち、赤色R、緑色
G、青色Bの3つの色度毎の明度βに関する濃度値情報
NJ2を抽出し、探索窓濃度値検出部5に伝送する。探
索窓濃度値検出部5では、図6に示すように、探索窓3
1内部に含まれる複数の画素GSのうち赤色Rの明度β
に関する情報が探索窓赤色濃度値検出部5aに、緑色G
の明度βに関する情報が探索窓緑色濃度値検出部5b、
青色Bの明度βに関する情報が探索窓青色濃度値検出部
5cに区別して伝送されており、これら各濃度値検出部
5a、5b、5cにおいて、探索窓31内部に含まれる
複数の画素GSのうち各色度R、G、B毎の明度βの分
布状況Q1、Q2、Q3が検出される。また検出の後、
これら各色度R、G、B毎の明度βの分布状況Q1、Q
2、Q3はマッチングポイント検出部6に伝送させる。
つまり、探索窓31が移動量δを移動するごとに、該探
索窓31内部の複数の画素GSの明度βの分布状況Q
1、Q2、Q3が検出され、検出される度にマッチング
ポイント検出部6に伝送される。
On the other hand, the virtual plane HH does not coincide with the model 61 having a difference in specific height as described above, and therefore the projective transformation formula HS3 is the corrected plane coordinate SHZ1.
Since it is an expression for converting any point on the corrected plane coordinate SHZ2 approximately corresponding to the arbitrary point, all the points on the corrected plane coordinate SHZ1 become corresponding points on the corrected plane coordinate SHZ2. It cannot be moved exactly. Therefore, as described above, the matching reference point 29A is the projective transformation expression HS.
3 is converted into a point on the corrected plane coordinate SHZ2, and the converted point is set as a search corresponding point 29B corresponding to the matching reference point 29A.
A and the search corresponding point 29B only correspond approximately and do not necessarily correspond exactly. Therefore, the matching point detection operation for obtaining the search corresponding point 29B on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A at the center of the correlation window 30 is performed below. by the way,
As described above, the corrected plane coordinates SHZ1 and SHZ2 are offset from each other, and both corrected plane coordinates SHZ1.
1, Y1 between both photographic images SG1 and SG2 on SHZ2
There is no parallax in the axis (Ys1 axis) direction or the Y2 axis (Ys2 axis) direction. That is, the point on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A is the projective transformation formula HS.
Search corresponding points 29B and Y2 converted and set by 3
The axis (Ys2 axis) components should have equal values. Therefore, the main control unit 2 commands the search window control unit 21 to set the search window 31 and the search corresponding point 29B to the corrected plane coordinates SHZ2.
In the above, the Xs2 axis is translated in the positive direction (or the negative direction) by a predetermined movement amount δ. The movement amount δ is 1
Equal to the width of one pixel GS in the X2 axis (Xs2 axis) direction,
The parallel movement by the movement amount δ means that the search corresponding point 2
9B means that the position of 9B moves in such a manner that the position of 9B sequentially changes to correspond to the pixel GS adjacent in the X2 axis (Xs2 axis) direction. Further, the search window control unit 21 causes the search corresponding point 29B to have a coordinate position (lk,
m29) is output to the matching point detection unit 16 for each movement amount δ movement. In addition, the search window control unit 21 shifts the movement amount δ and digital information regarding the plurality of pixels GS included in the search window 31, that is, the brightness of each of the three chromaticities of red R, green G, and blue B. The density value information NJ2 regarding β is extracted and transmitted to the search window density value detection unit 5. In the search window density value detection unit 5, as shown in FIG.
The brightness β of the red R among the plurality of pixels GS included in 1
Information regarding the green color G is displayed in the red density value detection unit 5a of the search window.
Information about the brightness β of the search window green density value detection unit 5b,
Information regarding the brightness β of blue B is separately transmitted to the search window blue density value detection unit 5c, and among these density value detection units 5a, 5b, and 5c, among the plurality of pixels GS included in the search window 31, The distribution statuses Q1, Q2, Q3 of the lightness β for each chromaticity R, G, B are detected. Also after detection,
The distribution situation Q1, Q of the lightness β for each of the chromaticities R, G, B
2 and Q3 are transmitted to the matching point detection unit 6.
That is, every time the search window 31 moves by the movement amount δ, the distribution situation Q of the brightness β of the plurality of pixels GS inside the search window 31.
1, Q2, Q3 are detected and transmitted to the matching point detection unit 6 each time they are detected.

【0022】分布状況Q1、Q2、Q3がマッチングポ
イント検出部6に伝送される度に、主制御部2は、マッ
チングポイント検出部6に分布状況の比較を行わせる。
即ち、マッチングポイント検出部6は、既に伝送されて
いる相関窓30内の複数の画素GSの明度αの分布状況
P1、P2、P3と、順次伝送されて来る探索窓31内
の複数の画素GSの明度βの分布状況Q1、Q2、Q3
との間での類似度を示す相関係数γを順次求める。相関
係数γは、図6に示すように、まず分布状況P1、Q1
間の相関係数γ1、分布状況P2、Q2間の相関係数γ
2、分布状況P3、Q3間の相関係数γ3をそれぞれ算
出し、これら、相関係数γ1、γ2、γ3の積(γ1×
γ2×γ3)の三乗根として求める。なお、相関係数γ
を相関係数γ1、γ2、γ3の積の三乗根として求める
ことによって、相関係数γが相関係数γ1、γ2、γ3
の平均的な値となると共に、相関係数γ1、γ2、γ3
のうち1つでもゼロがあれば、相関係数γがゼロとなっ
て相関が全く無いことが反映される。順次求められた相
関係数γは、該相関係数γに対応した探索対応点29B
の座標位置(lk、m29)(既にマッチングポイント
検出部6に伝送済)と対にしてマッチングポイント検出
部6に保存される。
Each time the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6, the main control unit 2 causes the matching point detection unit 6 to compare the distribution statuses.
That is, the matching point detection unit 6 determines the distribution states P1, P2, P3 of the brightness α of the plurality of pixels GS in the correlation window 30 that have already been transmitted, and the plurality of pixels GS in the search window 31 that are sequentially transmitted. Distribution of brightness β of Q1, Q2, Q3
The correlation coefficient γ indicating the degree of similarity between and is sequentially obtained. As shown in FIG. 6, the correlation coefficient γ is calculated based on the distribution conditions P1 and Q1.
Correlation coefficient γ1, between the distribution statuses P2, Q2
2. The correlation coefficient γ3 between the distribution states P3 and Q3 is calculated, and the product of these correlation coefficients γ1, γ2, and γ3 (γ1 ×
It is calculated as the cube root of γ2 × γ3). The correlation coefficient γ
Is calculated as the cube root of the product of the correlation coefficients γ1, γ2, γ3, the correlation coefficient γ is calculated as the correlation coefficient γ1, γ2, γ3.
And the correlation coefficients γ1, γ2, γ3
If even one of them is zero, the correlation coefficient γ becomes zero, which reflects that there is no correlation. The correlation coefficient γ that is sequentially obtained is the search corresponding point 29B corresponding to the correlation coefficient γ.
It is stored in the matching point detection unit 6 in a pair with the coordinate position (lk, m29) of (already transmitted to the matching point detection unit 6).

【0023】探索窓31を移動量δづつ移動させて、移
動の度に、マッチングポイント検出部6で相関係数γを
検出する動作を繰返しながら、探索窓31及び探索対応
点29Bを、該探索対応点29Bが、マッチング基準点
29Aに正確に対応する可能性のある所定の範囲内の位
置にことごとく移動される形で、移動させた後、探索窓
制御部21は、探索窓31の移動を終了させる。終了と
共に、主制御部2は、マッチングポイント検出部6に命
令して、マッチング対応点MTの検出を行わせる。即
ち、マッチングポイント検出部6は、保存されている複
数の相関係数γのうち最も大きいものを選び出し、この
相関係数γに対応して保存されている探索対応点29B
の座標位置(lk、m29)をマッチング基準点29A
に対応したマッチング対応点MTとして検出する。な
お、通常、相関窓内或いは探索窓内の複数の画素が構成
する画像の個別性は、これら複数の画素の色度に関係無
い明度の分布状況においてよりも、これら複数の画素が
もつ各色度毎の明度の分布状況において、より大きく発
揮されているので、従来の写真測量方法のように、マッ
チングを行うために用いる類似度を、相関窓内或いは探
索窓内の複数の画素がもつ色度に関係無い明度の分布状
況の比較によってのみ検出するよりも、本発明による写
真測量方法のように、マッチングを行うために用いる類
似度である相関係数γを、相関窓30内或いは探索窓3
1内の複数の画素GSがもつ各色度R、G、B毎の明度
α、βの分布状況P1〜P3、Q1〜Q3の比較によっ
て検出する方が、相関窓30内の複数の画素GSが構成
する画像と対応する画像を構成する複数の画素GSを含
んだ探索窓31の位置をより高い信頼性をもって検出す
ることができる。つまり、本発明を適用することによっ
て、ミスマッチングが極力防止され、測量対象物60の
立体形状の適正な検出が容易になる。マッチング対応点
MTの検出後、マッチングポイント検出部6は、該マッ
チング対応点MTの修正平面座標SHZ2上での座標位
置(l、m29)を三次元位置演算部13に出力する。
すると、三次元位置演算部13は、修正平面座標SHZ
1、SHZ2間において対応する、マッチング基準点2
9Aとマッチング対応点MTに基づいて、これらマッチ
ング基準点29Aとマッチング対応点MTに対応する対
地標定作業後の前記モデル61上の対応点の基準座標K
Z上の三次元位置SIを、三次元位置演算部13に既に
入力されている前記変換式HS1、HS2によって算出
する。三次元位置演算部13は、該三次元位置SIを三
次元位置メモリ部15に格納する。
The search window 31 and the search corresponding point 29B are moved by moving the search window 31 by the movement amount δ and repeating the operation of detecting the correlation coefficient γ by the matching point detection unit 6 each time the movement is performed. After the corresponding point 29B is moved to a position within a predetermined range that may correspond to the matching reference point 29A exactly, the search window control unit 21 moves the search window 31. To finish. Upon completion, the main control unit 2 commands the matching point detection unit 6 to detect the matching corresponding point MT. That is, the matching point detection unit 6 selects the largest one among the plurality of stored correlation coefficients γ, and the search corresponding point 29B stored corresponding to this correlation coefficient γ.
The coordinate position (lk, m29) of the matching reference point 29A
Is detected as a matching corresponding point MT corresponding to. In general, the individuality of an image formed by a plurality of pixels in the correlation window or the search window is determined by the chromaticity of each of the plurality of pixels, rather than in the distribution of lightness irrelevant to the chromaticity of the plurality of pixels. It is more effective in each lightness distribution, so the similarity used for matching is the chromaticity of multiple pixels in the correlation window or search window, as in conventional photogrammetry. The correlation coefficient γ, which is the similarity used to perform matching as in the photogrammetry method according to the present invention, is detected in the correlation window 30 or the search window 3 rather than being detected only by comparing the distribution of lightness that is not related to
A plurality of pixels GS in the correlation window 30 can be detected by comparing distributions P1 to P3 and Q1 to Q3 of lightness α, β for each of the chromaticities R, G, and B of the plurality of pixels GS in one. The position of the search window 31 including a plurality of pixels GS forming an image corresponding to the image forming the position can be detected with higher reliability. That is, by applying the present invention, mismatching is prevented as much as possible, and proper detection of the three-dimensional shape of the survey object 60 is facilitated. After detecting the matching corresponding point MT, the matching point detecting unit 6 outputs the coordinate position (l, m29) of the matching corresponding point MT on the corrected plane coordinates SHZ2 to the three-dimensional position calculating unit 13.
Then, the three-dimensional position calculation unit 13 determines the corrected plane coordinates SHZ.
Matching reference point 2 corresponding between 1 and SHZ2
Based on 9A and matching corresponding points MT, reference coordinates K of the corresponding points on the model 61 corresponding to these matching reference points 29A and matching corresponding points MT after ground location work.
The three-dimensional position SI on Z is calculated by the conversion formulas HS1 and HS2 already input to the three-dimensional position calculation unit 13. The three-dimensional position calculation unit 13 stores the three-dimensional position SI in the three-dimensional position memory unit 15.

【0024】その後、主制御部2は第1回目の相関窓の
設定より始まる、探索窓の設定、相関係数の検出、マッ
チングポイントの検出、三次元位置の検出からなる一連
の作業と同様にして、第2、3、4、……回目の相関窓
の設定より始まる、探索窓の設定、相関係数の検出、マ
ッチングポイントの検出、三次元位置の検出からなる一
連の作業を順次行う。即ち、主制御部2は相関窓制御部
20に命令して、未だ一度もマッチング基準点29Aと
して選ばれていない基準交点29のうちの1つを新たな
マッチング基準点29Aとして選び、選ばれた該マッチ
ング基準点29Aを中心として相関窓30を新たに設定
する。設定後、相関窓制御部20は、マッチング基準点
29Aの座標位置(i29、j29)を三次元位置演算
部13に伝送記憶させる。次いで、相関窓制御部20
は、相関窓30内部に含まれる複数の画素GSの濃度値
情報NJ1を抽出し、相関窓濃度値検出部3に伝送す
る。相関窓濃度値検出部3では、相関窓赤色濃度値検出
部3aにおいて分布状況P1が検出され、相関窓緑色濃
度値検出部3bにおいて分布状況P2が検出され、相関
窓青色濃度値検出部3cにおいて分布状況P3が検出さ
れる。検出の後、これら分布状況P1、P2、P3はマ
ッチングポイント検出部6に伝送される。また一方で、
相関窓30の設定後、相関窓制御部20は、相関窓30
の四隅の点30a、30b、30c、30dの修正平面
座標SHZ1での座標位置(i31、j31)、(i3
2、j32)、(i33、j33)、(i34、j3
4)及び、マッチング基準点29Aの座標位置(i2
9、j29)を射影変換制御部25に出力する。射影変
換制御部25は、相関窓30の四隅の点30a、30
b、30c、30dの座標位置(i31、j31)、
(i32、j32)、(i33、j33)、(i34、
j34)及び、マッチング基準点29Aの座標位置(i
29、j29)を、前記射影変換式HS3にそれぞれ代
入し、それぞれの修正平面座標SHZ1での座標位置
(i31、j31)、(i32、j32)、(i33、
j33)、(i34、j34)、(i29、j29)に
対応する修正平面座標SHZ2上の座標位置(l31、
m31)、(l32、m32)、(l33、m33)、
(l34、m34)、(l29、m29)を演算する。
演算後、射影変換制御部25は、これら5個の座標位置
(l31、m31)、(l32、m32)、(l33、
m33)、(l34、m34)、(l29、m29)を
探索窓制御部21に出力する。探索窓制御部21は、こ
れら座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)、(l
29、m29)に基づいて、修正平面座標SHZ2上
に、座標位置(l31、m31)、(l32、m3
2)、(l33、m33)、(l34、m34)を四隅
の点31a、31b、31c、31dとする平行四辺形
の探索窓31を設定する。また、探索窓制御部21は、
座標位置(l29、m29)を探索対応点29Bとして
設定する。次いで、相関窓30の中心のマッチング基準
点29Aに正確に対応する修正平面座標SHZ2上の探
索対応点29Bを求めるマッチングポイント検出作業を
行う。まず、探索窓制御部21は、探索窓31及び、探
索対応点29Bを修正平面座標SHZ2上において、X
s2軸の正方向(或いは、負方向)に所定の移動量δづ
つ平行移動させる。また、探索窓制御部21は、探索対
応点29Bの修正平面座標SHZ2上の座標位置(l
k、m29)を移動量δ移動ごとに、マッチングポイン
ト検出部16に出力する。また、探索窓制御部21は、
移動量δを移動するごとに、探索窓31内部に含まれる
複数の画素GSに関するデジタル情報即ち、赤色R、緑
色G、青色Bの3つの色度毎の明度βに関する濃度値情
報NJ2を抽出し、探索窓濃度値検出部5に伝送する。
探索窓濃度値検出部5では、探索窓赤色濃度値検出部5
aにおいて分布状況Q1が検出され、探索窓緑色濃度値
検出部5bにおいて分布状況Q2が検出され、探索窓青
色濃度値検出部5cにおいて分布状況Q3が検出され
る。検出の後、分布状況Q1、Q2、Q3はマッチング
ポイント検出部6に伝送される。つまり、探索窓31が
移動量δを移動するごとに、該探索窓31内部の複数の
画素GSの明度βの分布状況Q1、Q2、Q3が検出さ
れ、検出される度にマッチングポイント検出部6に伝送
される。分布状況Q1、Q2、Q3がマッチングポイン
ト検出部6に伝送される度に、主制御部2は、マッチン
グポイント検出部6に分布状況の比較を行わせる。即
ち、マッチングポイント検出部6は、既に伝送されてい
る相関窓30内の複数の画素GSの明度αの分布状況P
1、P2、P3と、順次伝送されて来る探索窓31内の
複数の画素GSの明度βの分布状況Q1、Q2、Q3と
の間での類似度を示す相関係数γを順次求める。順次求
められた相関係数γは、該相関係数γに対応した探索対
応点29Bの座標位置(lk、m29)と対にしてマッ
チングポイント検出部6に保存される。探索窓31を移
動量δづつ移動させて、移動の度に、マッチングポイン
ト検出部6で相関係数γを検出する動作を繰返しなが
ら、探索窓31及び探索対応点29Bを、該探索対応点
29Bが、マッチング基準点29Aに正確に対応する可
能性のある所定の範囲内の位置にことごとく移動される
形で、移動させた後、探索窓制御部21は、探索窓31
の移動を終了させる。終了と共に、主制御部2は、マッ
チングポイント検出部6に命令して、マッチング対応点
MTの検出を行わせる。即ち、マッチングポイント検出
部6は、保存されている複数の相関係数γのうち最も大
きいものを選び出し、この相関係数γに対応して保存さ
れている探索対応点29Bの座標位置(lk、m29)
をマッチング基準点29Aに対応したマッチング対応点
MTの座標位置(l、m29)として検出する。マッチ
ング対応点MTの検出後、マッチングポイント検出部6
は、該マッチング対応点MTの座標位置(l、m29)
を三次元位置演算部13に出力する。すると、三次元位
置演算部13は、修正平面座標SHZ1、SHZ2間に
おいて対応する、マッチング基準点29Aとマッチング
対応点MTに基づいて、これらマッチング基準点29A
とマッチング対応点MTに対応する対地標定作業後の前
記モデル61上の対応点の基準座標KZ上の三次元位置
SIを、三次元位置演算部13に既に入力されている前
記変換式HS1、HS2によって算出する。三次元位置
演算部13は、該三次元位置SIを三次元位置メモリ部
15に格納する。以上の相関窓の設定、探索窓の設定、
相関係数の検出、マッチングポイントの検出、三次元位
置の検出からなる一連の作業を繰り返した後、次回の相
関窓の設定を行おうとする際に相関窓制御部20が未だ
一度もマッチング基準点29Aとして選ばれていない基
準交点29を修正平面座標SHZ1上で見つけることが
できないことにより、相関窓制御部20は主制御部2に
マッチング作業完了の信号を伝送し、主制御部2は該信
号を受け取ることにより、全ての基準点29に対してマ
ッチングポイントの検出が既に行われ、従って、全ての
基準点29に対応する測量対象物60の対応点の三次元
位置SIが求められたと判断して、作業指示表示部7b
にマッチング作業完了の表示(図示せず)を行わせる。
After that, the main control unit 2 performs the same procedure as the series of operations including the setting of the search window, the detection of the correlation coefficient, the detection of the matching point, and the detection of the three-dimensional position, which starts from the setting of the first correlation window. Then, a series of operations including the setting of the search window, the detection of the correlation coefficient, the detection of the matching point, and the detection of the three-dimensional position starting from the second, third, fourth, ... That is, the main control unit 2 commands the correlation window control unit 20 to select and select one of the reference intersection points 29 that has not been selected as the matching reference point 29A, as a new matching reference point 29A. A correlation window 30 is newly set around the matching reference point 29A. After setting, the correlation window control unit 20 causes the three-dimensional position calculation unit 13 to transmit and store the coordinate position (i29, j29) of the matching reference point 29A. Next, the correlation window control unit 20
Extracts the density value information NJ1 of a plurality of pixels GS included in the correlation window 30 and transmits it to the correlation window density value detection unit 3. In the correlation window density value detection unit 3, the correlation window red density value detection unit 3a detects the distribution status P1, the correlation window green density value detection unit 3b detects the distribution status P2, and the correlation window blue density value detection unit 3c. The distribution status P3 is detected. After the detection, these distribution states P1, P2, P3 are transmitted to the matching point detection unit 6. On the other hand,
After setting the correlation window 30, the correlation window control unit 20 sets the correlation window 30
Coordinate points (i31, j31), (i3) in the corrected plane coordinates SHZ1 of the points 30a, 30b, 30c, 30d at the four corners of
2, j32), (i33, j33), (i34, j3
4) and the coordinate position of the matching reference point 29A (i2
9, j29) is output to the projective transformation control unit 25. The projective transformation control unit 25 uses the points 30 a and 30 at the four corners of the correlation window 30.
coordinate positions (i31, j31) of b, 30c, 30d,
(I32, j32), (i33, j33), (i34,
j34) and the coordinate position of the matching reference point 29A (i
29, j29) are respectively substituted into the projective transformation formula HS3, and the coordinate positions (i31, j31), (i32, j32), (i33, in the corrected plane coordinates SHZ1 are respectively substituted.
j33), (i34, j34), and (i29, j29) corresponding to the coordinate position (l31,
m31), (l32, m32), (l33, m33),
(L34, m34) and (l29, m29) are calculated.
After the calculation, the projective transformation control unit 25 causes the five coordinate positions (l31, m31), (l32, m32), (l33,
m33), (l34, m34), and (l29, m29) are output to the search window control unit 21. The search window control unit 21 controls the coordinate positions (l31, m31), (l32, m3).
2), (l33, m33), (l34, m34), (l
29, m29), coordinate positions (l31, m31), (l32, m3) on the corrected plane coordinate SHZ2.
2) Set parallelogram search window 31 having four corner points 31a, 31b, 31c and 31d at (l33, m33) and (l34, m34). In addition, the search window control unit 21
The coordinate position (l29, m29) is set as the search corresponding point 29B. Then, the matching point detection operation is performed to find the search corresponding point 29B on the corrected plane coordinate SHZ2 that exactly corresponds to the matching reference point 29A at the center of the correlation window 30. First, the search window control unit 21 sets the search window 31 and the search corresponding point 29B on the corrected plane coordinates SHZ2 by X.
The s2 axis is translated in the positive direction (or the negative direction) by a predetermined movement amount δ. Further, the search window control unit 21 determines the coordinate position (l of the search corresponding point 29B on the corrected plane coordinate SHZ2).
k, m29) is output to the matching point detection unit 16 for each movement amount δ movement. In addition, the search window control unit 21
Each time the movement amount δ is moved, digital information regarding a plurality of pixels GS included in the search window 31, that is, density value information NJ2 regarding lightness β for each of three chromaticities of red R, green G, and blue B is extracted. , To the search window density value detection unit 5.
In the search window density value detection unit 5, the search window red density value detection unit 5
The distribution status Q1 is detected in a, the distribution status Q2 is detected in the search window green density value detection section 5b, and the distribution status Q3 is detected in the search window blue density value detection section 5c. After the detection, the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6. That is, every time the search window 31 moves by the movement amount δ, the distribution states Q1, Q2, and Q3 of the brightness β of the plurality of pixels GS inside the search window 31 are detected, and the matching point detection unit 6 is detected each time. Be transmitted to. Every time the distribution statuses Q1, Q2, Q3 are transmitted to the matching point detection unit 6, the main control unit 2 causes the matching point detection unit 6 to compare the distribution statuses. That is, the matching point detection unit 6 determines the distribution status P of the brightness α of the plurality of pixels GS in the already transmitted correlation window 30.
A correlation coefficient γ indicating the degree of similarity between 1, P2, P3 and the distribution statuses Q1, Q2, Q3 of the brightness β of the plurality of pixels GS in the search window 31 that are sequentially transmitted is sequentially obtained. The sequentially obtained correlation coefficient γ is stored in the matching point detection unit 6 as a pair with the coordinate position (lk, m29) of the search corresponding point 29B corresponding to the correlation coefficient γ. The search window 31 and the search corresponding point 29B are moved while moving the search window 31 by the movement amount δ and repeating the operation of detecting the correlation coefficient γ by the matching point detection unit 6 each time the movement is performed. Is moved to a position within a predetermined range that may correspond exactly to the matching reference point 29A, the search window control unit 21 then moves the search window 31 to the search window 31.
End the move. Upon completion, the main control unit 2 commands the matching point detection unit 6 to detect the matching corresponding point MT. That is, the matching point detection unit 6 selects the largest one from the plurality of stored correlation coefficients γ, and the coordinate position (lk, lk, of the search corresponding point 29B stored corresponding to the correlation coefficient γ). m29)
Is detected as the coordinate position (l, m29) of the matching corresponding point MT corresponding to the matching reference point 29A. After detecting the matching corresponding point MT, the matching point detecting unit 6
Is the coordinate position (l, m29) of the matching corresponding point MT.
Is output to the three-dimensional position calculation unit 13. Then, the three-dimensional position calculation unit 13 determines the matching reference points 29A based on the matching reference points 29A and the matching corresponding points MT corresponding between the corrected plane coordinates SHZ1 and SHZ2.
And the corresponding three-dimensional position SI on the reference coordinate KZ of the corresponding point on the model 61 after the ground orientation work corresponding to the matching corresponding point MT are already input to the three-dimensional position calculating unit 13 by the conversion equations HS1 and HS2 Calculate by The three-dimensional position calculation unit 13 stores the three-dimensional position SI in the three-dimensional position memory unit 15. The above correlation window settings, search window settings,
After repeating a series of operations including the detection of the correlation coefficient, the detection of the matching point, and the detection of the three-dimensional position, the correlation window control unit 20 never sets the matching reference point when trying to set the next correlation window. Since the reference intersection 29 not selected as 29A cannot be found on the corrected plane coordinate SHZ1, the correlation window control unit 20 transmits a signal indicating the matching work completion to the main control unit 2, and the main control unit 2 sends the signal. It is determined that the matching points have already been detected for all the reference points 29 by receiving, and therefore the three-dimensional positions SI of the corresponding points of the survey object 60 corresponding to all the reference points 29 have been obtained. Work instruction display section 7b
Display the matching work completion (not shown).

【0025】マッチング作業完了の表示(図示せず)を
見た図示しないオペレータは入力操作部17aにより、
三次元情報出力信号を入力する。主制御部2は、該三次
元情報出力信号に基づいて、三次元位置メモリ部15に
入力されている三次元位置SIを出力部16より出力す
る。三次元位置SIは対地標定後のモデル61について
の基準座標KZ上の座標位置であり、モデル61と測量
対象物60及び、基準座標KZと地上空間CKとは互い
に対応していることから、三次元位置SIは、測量対象
物60上の点の地上空間CKでの三次元位置即ち、緯
度、経度、標高である。なお、出力部16は三次元位置
SIを示す数値等をディスプレイの形で表示出力するも
のでもよいし、印刷出力或いは、他の磁気記憶媒体に記
録する形で出力してもよい。以上で写真測量装置1を用
いた測量対象物60の測量を全て完了する。
An operator (not shown) who has seen the display (not shown) of the matching work completion is
Input the 3D information output signal. The main control unit 2 outputs the three-dimensional position SI input to the three-dimensional position memory unit 15 from the output unit 16 based on the three-dimensional information output signal. The three-dimensional position SI is a coordinate position on the reference coordinate KZ of the model 61 after the ground orientation, and since the model 61 and the surveyed object 60 and the reference coordinate KZ and the ground space CK correspond to each other, The original position SI is the three-dimensional position of the point on the survey object 60 in the ground space CK, that is, the latitude, longitude, and altitude. The output unit 16 may output a numerical value or the like indicating the three-dimensional position SI in the form of a display, print it out, or output it in a form of recording it on another magnetic storage medium. With the above, all the surveying of the surveying object 60 using the photogrammetric device 1 is completed.

【0026】[0026]

【発明の効果】以上説明したように、本発明のうち第一
の発明は、地上空間CK等の三次元空間に存在する測量
対象物60等の測量対象物を、該三次元空間の第一地点
PT1等の第一の位置より撮影した第一写真画像SG1
等の第一写真画像と、前記測量対象物を前記三次元空間
のうち前記第一の位置とは異なる第二地点PT2等の第
二の位置より撮影した第二写真画像SG2等の第二写真
画像に基づいて前記測量対象物の前記三次元空間におけ
る三次元位置SI等の三次元形状を検出する写真測量装
置において、前記写真測量装置は、前記第一写真画像と
前記第二写真画像を記憶し得る写真画像メモリ9等の画
像記憶部を有し、前記画像記憶部に記憶された第一写真
画像において、該第一写真画像上の任意のマッチング基
準点29A等のマッチング基準点を基準として所定の領
域を包囲する相関窓30等の相関窓を設定し得る相関窓
制御部20等の相関窓設定部を設け、前記相関窓内の複
数の画素GS等の画素の明度α等の明度の分布状況P
1、P2、P3等の分布状況を、各画素のもつ複数種類
の赤色R、緑色G、青色B等の色度毎に検出し得る相関
窓濃度値検出部3等の相関窓画素分布状況検出部を設
け、前記画像記憶部に記憶された第二写真画像におい
て、前記相関窓に対応した探索窓31等の探索窓を該第
二写真画像上を移動する形で設定し得る探索窓制御部2
1等の探索窓設定部を設け、前記探索窓内の複数の画素
の明度β等の明度の分布状況Q1、Q2、Q3等の分布
状況を、各画素のもつ複数種類の色度毎に検出し得る探
索窓濃度値検出部5等の探索窓画素分布状況検出部を設
け、前記相関窓内の各色度毎の明度の分布状況と、前記
探索窓内の各色度毎の明度の分布状況との相関係数γ等
の類似度を判定して、前記相関窓のマッチング基準点に
対応する第二写真画像のマッチング対応点MT等のマッ
チング対応点を検出し得るマッチングポイント検出部6
等のマッチングポイント検出部を設け、前記第一及び第
二写真画像において対応する、前記マッチング基準点と
前記マッチング対応点の、前記各写真画像上の位置に基
づいて、前記測量対象物の前記三次元空間における三次
元形状を検出し得る三次元位置演算部13等の三次元形
状検出部を設けて構成される。従って、相関窓内或いは
探索窓内の複数の画素が構成する画像の個別性は、これ
ら複数の画素の色度に関係無い明度の分布状況において
よりも、これら複数の画素がもつ各色度毎の明度の分布
状況において、より大きく発揮されているので、従来の
写真測量装置のように、マッチングを行うために用いる
類似度を、相関窓内或いは探索窓内の複数の画素がもつ
色度に関係無い明度の分布状況の比較によってのみ検出
するものよりも、本発明による写真測量装置のように、
マッチングを行うために用いる類似度を、相関窓内或い
は探索窓内の複数の画素がもつ各色度毎の明度の分布状
況の比較によって検出するものの方が、相関窓内の複数
の画素が構成する画像と対応する画像を構成する複数の
画素を含んだ探索窓の位置をより高い信頼性をもって検
出することができる。つまり、本発明の写真測量装置を
用いることによって、ミスマッチングが極力防止され、
測量対象物の立体形状の適正な検出が容易になる。ま
た、本発明のうち第二の発明は、地上空間CK等の三次
元空間に存在する測量対象物60等の測量対象物を、該
三次元空間の第一地点PT1等の第一の位置より撮影し
た第一写真画像SG1等の第一写真画像と、前記測量対
象物を前記三次元空間のうち前記第一の位置とは異なる
第二地点PT2等の第二の位置より撮影した第二写真画
像SG2等の第二写真画像に基づいて、前記測量対象物
の前記三次元空間における三次元位置SI等の三次元形
状を検出する写真測量方法において、前記第一写真画像
上の任意のマッチング基準点29A等のマッチング基準
点を基準として所定の領域を包囲する相関窓30等の相
関窓を設定して、該相関窓内の複数の画素GS等の画素
の明度α等の明度の分布状況P1、P2、P3等の分布
状況を、各画素のもつ複数種類の赤色R、緑色G、青色
B等の色度毎に検出し、前記第二写真画像において、前
記相関窓に対応した探索窓31等の探索窓を該第二写真
画像上を移動させる形で設定し、該探索窓が所定の移動
量δ等の移動量を移動する毎に、該探索窓内の複数の画
素の明度β等の明度の分布状況Q1、Q2、Q3等の分
布状況を、各画素のもつ複数種類の色度毎に検出し、前
記相関窓内の各色度毎の明度の分布状況と、前記探索窓
が所定の移動量を移動する毎に検出された該探索窓内の
各色度毎の明度の分布状況との相関係数γ等の類似度を
それぞれ検出し、検出された類似度のうち最も高い値の
類似度に対応した探索窓の第二写真画像の位置より、前
記相関窓のマッチング基準点に対応する第二写真画像の
マッチング対応点MT等のマッチング対応点を検出し、
前記第一及び第二写真画像において対応する、前記マッ
チング基準点と前記マッチング対応点の、前記各写真画
像上の位置に基づいて、前記測量対象物の前記三次元空
間における三次元形状を検出して構成される。従って、
相関窓内或いは探索窓内の複数の画素が構成する画像の
個別性は、これら複数の画素の色度に関係無い明度の分
布状況においてよりも、これら複数の画素がもつ各色度
毎の明度の分布状況において、より大きく発揮されてい
るので、従来の写真測量方法のように、マッチングを行
うために用いる類似度を、相関窓内或いは探索窓内の複
数の画素がもつ色度に関係無い明度の分布状況の比較に
よってのみ検出するよりも、本発明による写真測量方法
のように、マッチングを行うために用いる類似度を、相
関窓内或いは探索窓内の複数の画素がもつ各色度毎の明
度の分布状況の比較によって検出する方が、相関窓内の
複数の画素が構成する画像と対応する画像を構成する複
数の画素を含んだ探索窓の位置をより高い信頼性をもっ
て検出することができる。つまり、本発明を適用するこ
とによって、ミスマッチングが極力防止され、測量対象
物の立体形状の適正な検出が容易になる。
As described above, according to the first aspect of the present invention, the surveying object such as the surveying object 60 existing in the three-dimensional space such as the ground space CK is set in the first three-dimensional space. First photographic image SG1 taken from the first position such as point PT1
And second photograph images of the surveyed object from a second position such as a second point PT2 different from the first position in the three-dimensional space. In a photogrammetric device that detects a three-dimensional shape such as a three-dimensional position SI in the three-dimensional space of the surveying object based on an image, the photogrammetric device stores the first photo image and the second photo image. In the first photographic image stored in the image storage unit, which has an image storage unit such as a possible photographic image memory 9, a matching reference point such as an arbitrary matching reference point 29A on the first photographic image is used as a reference. A correlation window setting unit such as a correlation window control unit 20 that can set a correlation window such as a correlation window 30 that surrounds a predetermined area is provided, and a plurality of pixels such as the pixels GS in the correlation window have a lightness such as a lightness α. Distribution situation P
Correlation window pixel distribution status detection by the correlation window density value detection unit 3 or the like capable of detecting the distribution status of 1, P2, P3, etc. for each chromaticity of a plurality of types of red R, green G, blue B, etc. that each pixel has And a search window control unit capable of setting a search window such as the search window 31 corresponding to the correlation window in the second photographic image stored in the image storage unit by moving the second photographic image on the second photographic image. Two
A search window setting unit such as 1 is provided to detect the distribution status of brightness such as brightness β of a plurality of pixels in the search window for each of a plurality of types of chromaticity of each pixel. A search window pixel distribution status detection unit such as a search window density value detection unit 5 is provided, and the brightness distribution status for each chromaticity in the correlation window and the brightness distribution status for each chromaticity in the search window are set. A matching point detecting unit 6 capable of determining the degree of similarity of the correlation coefficient γ and the like and detecting the matching corresponding point such as the matching corresponding point MT of the second photographic image corresponding to the matching reference point of the correlation window.
A matching point detection unit such as, and corresponding to the first and second photographic images, based on the position of the matching reference point and the matching corresponding point on each photographic image, the tertiary of the surveying object. A three-dimensional shape detection unit such as a three-dimensional position calculation unit 13 that can detect a three-dimensional shape in the original space is provided. Therefore, the individuality of the image formed by a plurality of pixels in the correlation window or the search window is determined by each of the chromaticities of the plurality of pixels, rather than in the lightness distribution state irrelevant to the chromaticity of the plurality of pixels. Since it is more effective in the distribution of lightness, the similarity used for matching is related to the chromaticity of multiple pixels in the correlation window or the search window, as in conventional photogrammetric equipment. Like the photogrammetric device according to the invention, rather than only detecting by comparing the distribution of no lightness,
The similarity used to perform matching is detected by comparing the distribution of lightness for each chromaticity of multiple pixels in the correlation window or search window, and the multiple pixels in the correlation window are configured. The position of the search window including a plurality of pixels forming an image corresponding to the image can be detected with higher reliability. That is, by using the photogrammetric device of the present invention, mismatching is prevented as much as possible,
Appropriate detection of the three-dimensional shape of the surveyed object becomes easy. A second invention of the present invention is to measure a surveying object such as a surveying object 60 existing in a three-dimensional space such as a ground space CK from a first position such as a first point PT1 in the three-dimensional space. The first photograph image such as the first photograph image SG1 and the second photograph obtained by photographing the surveyed object from a second position such as a second point PT2 different from the first position in the three-dimensional space. In a photogrammetric method for detecting a three-dimensional shape such as a three-dimensional position SI in the three-dimensional space of the surveying object based on a second photo image such as the image SG2, an arbitrary matching criterion on the first photo image A correlation window such as a correlation window 30 that surrounds a predetermined area is set on the basis of a matching reference point such as the point 29A, and a distribution state P1 of brightness such as brightness α of pixels such as a plurality of pixels GS in the correlation window. , P2, P3, etc. distribution status for each pixel A plurality of types of chromaticity such as red R, green G, and blue B are detected, and a search window such as a search window 31 corresponding to the correlation window in the second photographic image is moved on the second photographic image. Each time the search window moves a predetermined amount of movement δ or the like, the distribution of the lightness distributions Q1, Q2, Q3, etc. of the plurality of pixels within the search window such as the brightness β The situation is detected for each of a plurality of types of chromaticity of each pixel, and the distribution state of lightness for each chromaticity in the correlation window and the search detected each time the search window moves a predetermined amount of movement. Detecting the degree of similarity such as the correlation coefficient γ with the distribution of lightness for each chromaticity in the window, the second photographic image of the search window corresponding to the highest value of the detected degree of similarity From the position, the matching corresponding point MT or the like of the second photographic image corresponding to the matching reference point of the correlation window is matched. Detect corresponding points,
Corresponding in the first and second photographic image, based on the position of the matching reference point and the matching corresponding point on each photographic image, to detect the three-dimensional shape of the surveyed object in the three-dimensional space. Consists of Therefore,
The individuality of the image formed by a plurality of pixels in the correlation window or the search window is more Since it is more widely used in the distribution situation, the similarity used for matching, as in the conventional photogrammetry method, is the brightness that is independent of the chromaticity of multiple pixels in the correlation window or the search window. Rather than detecting only by comparing the distribution states of the above, as in the photogrammetry method according to the present invention, the degree of similarity used for matching is determined by the brightness of each chromaticity of a plurality of pixels in the correlation window or the search window. It is more reliable to detect the position of the search window including a plurality of pixels forming an image corresponding to the image formed by a plurality of pixels in the correlation window by comparing the distribution states of the. Kill. That is, by applying the present invention, mismatching is prevented as much as possible, and proper detection of the three-dimensional shape of the surveyed object is facilitated.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明が適用された写真測量装置を示
したブロック図である。
FIG. 1 is a block diagram showing a photogrammetric apparatus to which the present invention is applied.

【図2】図2は、測量対象物と、ステレオ撮影が行われ
る第一、第二地点との位置関係を示した斜視図である。
FIG. 2 is a perspective view showing a positional relationship between a surveyed object and first and second points where stereo imaging is performed.

【図3】図3は、図1の写真測量装置に入力されている
概念上の、基準座標KZ、カメラ座標CZ1、CZ2を
示した図である。
FIG. 3 is a diagram showing conceptual reference coordinates KZ and camera coordinates CZ1 and CZ2 input to the photogrammetric apparatus of FIG. 1.

【図4】図4は、第一、第二ディスプレイを示した図で
ある。
FIG. 4 is a diagram showing first and second displays.

【図5】図5は、第一、第二ディスプレイを示した図で
ある。
FIG. 5 is a diagram showing first and second displays.

【図6】図6は、マッチングの手順を概念的に示した図
である。
FIG. 6 is a diagram conceptually showing a matching procedure.

【符号の説明】[Explanation of symbols]

1……写真測量装置 3……相関窓画素分布状況検出部(相関窓濃度値検出
部) 5……探索窓画素分布状況検出部(探索窓濃度値検出
部) 6……マッチングポイント検出部 9……画像記憶部(写真画像メモリ) 13……三次元形状検出部(三次元位置演算部) 20……相関窓設定部(相関窓制御部) 21……探索窓設定部(探索窓制御部) 29A……マッチング基準点 30……相関窓 31……探索窓 60……測量対象物 CK……三次元空間(地上空間) GS……画素 MT……マッチング対応点 P1……分布状況 P2……分布状況 P3……分布状況 PT1……第一の位置(第一地点) PT2……第二の位置(第二地点) Q1……分布状況 Q2……分布状況 Q3……分布状況 SG1……第一写真画像 SG2……第二写真画像 SI……三次元形状(三次元位置) R……色度(赤色) G……色度(緑色) B……色度(青色) α……明度 β……明度 γ……類似度(相関係数) δ……移動量
1 ... Photogrammetry device 3 ... Correlation window pixel distribution status detection unit (correlation window density value detection unit) 5 ... Search window pixel distribution status detection unit (search window density value detection unit) 6 ... Matching point detection unit 9 ...... Image storage unit (photographic image memory) 13 ...... Three-dimensional shape detection unit (three-dimensional position calculation unit) 20 ...... Correlation window setting unit (correlation window control unit) 21 ...... Search window setting unit (Search window control unit) ) 29A ... Matching reference point 30 ... Correlation window 31 ... Search window 60 ... Surveying object CK ... Three-dimensional space (ground space) GS ... Pixel MT ... Matching corresponding point P1 ... Distribution situation P2 ... … Distribution status P3 …… Distribution status PT1 …… First position (first point) PT2 …… Second position (second point) Q1 …… Distribution status Q2 …… Distribution status Q3 …… Distribution status SG1 …… First photo image SG2 ... Second photo image SI ... … Three-dimensional shape (three-dimensional position) R …… Chromaticity (red) G …… Chromaticity (green) B …… Chromaticity (blue) α …… Brightness β …… Brightness γ …… Similarity (correlation coefficient ) Δ …… Amount of movement

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】三次元空間に存在する測量対象物を、該三
次元空間の第一の位置より撮影した第一写真画像と、前
記測量対象物を前記三次元空間のうち前記第一の位置と
は異なる第二の位置より撮影した第二写真画像に基づい
て前記測量対象物の前記三次元空間における三次元形状
を検出する写真測量装置において、 前記写真測量装置は、前記第一写真画像と前記第二写真
画像を記憶し得る画像記憶部を有し、 前記画像記憶部に記憶された第一写真画像において、該
第一写真画像上の任意のマッチング基準点を基準として
所定の領域を包囲する相関窓を設定し得る相関窓設定部
を設け、 前記相関窓内の複数の画素の明度の分布状況を、各画素
のもつ複数種類の色度毎に検出し得る相関窓画素分布状
況検出部を設け、 前記画像記憶部に記憶された第二写真画像において、前
記相関窓に対応した探索窓を該第二写真画像上を移動す
る形で設定し得る探索窓設定部を設け、 前記探索窓内の複数の画素の明度の分布状況を、各画素
のもつ複数種類の色度毎に検出し得る探索窓画素分布状
況検出部を設け、 前記相関窓内の各色度毎の明度の分布状況と、前記探索
窓内の各色度毎の明度の分布状況との類似度を判定し
て、前記相関窓のマッチング基準点に対応する第二写真
画像のマッチング対応点を検出し得るマッチングポイン
ト検出部を設け、 前記第一及び第二写真画像において対応する、前記マッ
チング基準点と前記マッチング対応点の、前記各写真画
像上の位置に基づいて、前記測量対象物の前記三次元空
間における三次元形状を検出し得る三次元形状検出部を
設けて構成した写真測量装置。
1. A first photographic image obtained by photographing a surveying object existing in a three-dimensional space from a first position in the three-dimensional space, and the surveying object in the first position in the three-dimensional space. In a photogrammetric device that detects a three-dimensional shape in the three-dimensional space of the surveying object based on a second photo image taken from a second position different from, the photogrammetric device is the first photo image and An image storage unit capable of storing the second photographic image, and in the first photographic image stored in the image storage unit, surrounds a predetermined area with reference to an arbitrary matching reference point on the first photographic image. A correlation window setting unit that can set a correlation window, and a correlation window pixel distribution state detection unit that can detect the distribution state of the brightness of a plurality of pixels in the correlation window for each of a plurality of types of chromaticity of each pixel. Is stored in the image storage unit. In the second photographic image, a search window setting unit capable of setting a search window corresponding to the correlation window in a manner of moving on the second photographic image is provided, and the brightness distribution status of a plurality of pixels in the search window Is provided with a search window pixel distribution status detection unit capable of detecting each of a plurality of types of chromaticity of each pixel, and the distribution status of lightness for each chromaticity within the correlation window, and for each chromaticity within the search window. Provide a matching point detection unit that can detect the matching correspondence point of the second photographic image corresponding to the matching reference point of the correlation window by determining the similarity with the distribution state of lightness, the first and second photographic images A corresponding three-dimensional shape detection unit capable of detecting the three-dimensional shape of the surveyed object in the three-dimensional space based on the positions of the matching reference point and the matching corresponding point on each photographic image. Configured photogrammetry Location.
【請求項2】三次元空間に存在する測量対象物を、該三
次元空間の第一の位置より撮影した第一写真画像と、前
記測量対象物を前記三次元空間のうち前記第一の位置と
は異なる第二の位置より撮影した第二写真画像に基づい
て、前記測量対象物の前記三次元空間における三次元形
状を検出する写真測量方法において、 前記第一写真画像上の任意のマッチング基準点を基準と
して所定の領域を包囲する相関窓を設定して、該相関窓
内の複数の画素の明度の分布状況を、各画素のもつ複数
種類の色度毎に検出し、 前記第二写真画像において、前記相関窓に対応した探索
窓を該第二写真画像上を移動させる形で設定し、該探索
窓が所定の移動量を移動する毎に、該探索窓内の複数の
画素の明度の分布状況を、各画素のもつ複数種類の色度
毎に検出し、 前記相関窓内の各色度毎の明度の分布状況と、前記探索
窓が所定の移動量を移動する毎に検出された該探索窓内
の各色度毎の明度の分布状況との類似度をそれぞれ検出
し、 検出された類似度のうち最も高い値の類似度に対応した
探索窓の第二写真画像の位置より、前記相関窓のマッチ
ング基準点に対応する第二写真画像のマッチング対応点
を検出し、 前記第一及び第二写真画像において対応する、前記マッ
チング基準点と前記マッチング対応点の、前記各写真画
像上の位置に基づいて、前記測量対象物の前記三次元空
間における三次元形状を検出して構成した写真測量方
法。
2. A first photographic image obtained by photographing a surveying object existing in a three-dimensional space from a first position in the three-dimensional space, and the surveying object in the first position in the three-dimensional space. In a photogrammetric method for detecting a three-dimensional shape of the surveyed object in the three-dimensional space, based on a second photo image taken from a second position different from, any matching criterion on the first photo image. By setting a correlation window surrounding a predetermined area on the basis of points, the distribution state of the brightness of a plurality of pixels in the correlation window is detected for each of a plurality of types of chromaticity of each pixel, and the second photograph In the image, a search window corresponding to the correlation window is set so as to move on the second photographic image, and the brightness of a plurality of pixels in the search window is set every time the search window moves by a predetermined movement amount. The distribution status of each pixel for each type of chromaticity , The degree of lightness distribution for each chromaticity in the correlation window, and the similarity between the degree of lightness distribution for each chromaticity in the search window detected each time the search window moves a predetermined amount of movement, The matching corresponding point of the second photo image corresponding to the matching reference point of the correlation window is detected from the position of the second photo image of the search window corresponding to the highest similarity among the detected similarities. A three-dimensional shape of the surveyed object in the three-dimensional space, which is detected and based on the positions of the matching reference points and the matching corresponding points on the respective photographic images that correspond in the first and second photographic images. A photogrammetric method that detects and configures.
JP5344003A 1993-12-17 1993-12-17 Apparatus and method for photographic survey Pending JPH07174555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5344003A JPH07174555A (en) 1993-12-17 1993-12-17 Apparatus and method for photographic survey

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5344003A JPH07174555A (en) 1993-12-17 1993-12-17 Apparatus and method for photographic survey

Publications (1)

Publication Number Publication Date
JPH07174555A true JPH07174555A (en) 1995-07-14

Family

ID=18365914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5344003A Pending JPH07174555A (en) 1993-12-17 1993-12-17 Apparatus and method for photographic survey

Country Status (1)

Country Link
JP (1) JPH07174555A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01103783A (en) * 1987-02-13 1989-04-20 Olympus Optical Co Ltd Device for operating multi-dimensional image correlation
JPH05502514A (en) * 1990-09-28 1993-04-28 イーストマン コダック カンパニー Parallax measurement mechanism between digital images
JPH05256613A (en) * 1992-03-13 1993-10-05 Matsushita Electric Ind Co Ltd Method and device for parallax computing from stereo picture and measuring device for depth

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01103783A (en) * 1987-02-13 1989-04-20 Olympus Optical Co Ltd Device for operating multi-dimensional image correlation
JPH05502514A (en) * 1990-09-28 1993-04-28 イーストマン コダック カンパニー Parallax measurement mechanism between digital images
JPH05256613A (en) * 1992-03-13 1993-10-05 Matsushita Electric Ind Co Ltd Method and device for parallax computing from stereo picture and measuring device for depth

Similar Documents

Publication Publication Date Title
JP5362189B2 (en) Image processing apparatus and processing method thereof
US5073819A (en) Computer assisted video surveying and method thereof
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP4637845B2 (en) Geometric correction method in multi-projection system
US7479982B2 (en) Device and method of measuring data for calibration, program for measuring data for calibration, program recording medium readable with computer, and image data processing device
US7489335B2 (en) Photographic apparatus with function of image correction and method thereof
US6768813B1 (en) Photogrammetric image processing apparatus and method
CN107492069A (en) Image interfusion method based on more lens sensors
US6810142B2 (en) Stereo image measuring device
JPS62206684A (en) Position and shape measuring method by pattern projection
US6618497B1 (en) Photogrammetric image processing apparatus and method
JP2003296708A (en) Data processing method, data processing program and recording medium
JP2743308B2 (en) Photogrammetry method
JPH07174555A (en) Apparatus and method for photographic survey
JPH07190767A (en) Three-dimensional shape surveying device and three-dimensional shape surveying method
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
JP2001133256A (en) Method of calculating position and attitude of aerial photograph
JP4359939B2 (en) Image measuring device
JP2000161919A (en) Method and system for restoring two-dimensional position data of local coordinates from overhead view picture, and computer-readable recording medium with program for the method recorded therein
JPH07190764A (en) Stratus survey method
JP4167509B2 (en) Surveying system
JP3587585B2 (en) Photogrammetry equipment
JP3922646B2 (en) Stereo photo image search method, display method, and management system
KR102642144B1 (en) Image processing system for correcting image by synthesizing location information with image
KR102572490B1 (en) Digital map production system for camparing and updating spatial information