JP2002063580A - Inter-image expansion image matching method using indefinite shape window - Google Patents
Inter-image expansion image matching method using indefinite shape windowInfo
- Publication number
- JP2002063580A JP2002063580A JP2000251456A JP2000251456A JP2002063580A JP 2002063580 A JP2002063580 A JP 2002063580A JP 2000251456 A JP2000251456 A JP 2000251456A JP 2000251456 A JP2000251456 A JP 2000251456A JP 2002063580 A JP2002063580 A JP 2002063580A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- height
- feature
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】航空写真や衛星画像など、同
一地域を撮像した2種類以上の画像を利用して、標高を
持たない2次元的な数値地図データを3次元データ化
(標高値を付与)したり、既成の数値地図データに記述
された地物の滅失を確認する手法に関する。BACKGROUND OF THE INVENTION Converting two-dimensional numerical map data having no elevation into three-dimensional data by using two or more kinds of images, such as aerial photographs and satellite images, taken of the same area (adding elevation values) ) Or a method for confirming the loss of a feature described in existing digital map data.
【0002】[0002]
【従来の技術】従来の写真測量では、計測対象を同種の
カメラを用いて異なる二箇所の位置(もしくはそれ以
上)から撮影し、各画像上で対応点を求め、三角測量の
原理に基づいて3次元空間内の位置を決定する作業を行
う。2. Description of the Related Art In conventional photogrammetry, a measurement object is photographed from two different positions (or more) using the same kind of camera, a corresponding point is obtained on each image, and based on the principle of triangulation. An operation of determining a position in the three-dimensional space is performed.
【0003】この作業を自動的に行うための方法には、
ステレオ画像を構成する一方の画像内の1点もしくは規
則的な格子上に区分された領域、あるいは線構造(エッ
ジ)に着目し、それに対応する点もしくは領域、あるい
は線構造を、もう一方の画像で探索しマッチングするス
テレオマッチング方法が一般的である。[0003] Methods for automatically performing this work include:
Attention is paid to one point in one image constituting a stereo image or a region or a line structure (edge) partitioned on a regular grid, and a corresponding point, region, or line structure is represented in the other image. In general, a stereo matching method of searching and matching with is used.
【0004】[0004]
【発明が解決しようとする課題】しかし、この方法で
は、あらかじめ形状が分かっている領域が存在したとし
ても、例えば撮影高度、撮影日等が相違しているからそ
の形状を探索条件とすることができない。However, in this method, even if there is an area whose shape is known in advance, for example, since the photographing altitude and photographing date are different, the shape can be used as a search condition. Can not.
【0005】そのため、この形状を拘束条件とするマッ
チングが行えず、効率的な標高の決定ができないことに
なり、結果としてその地物の3次元データを得ることが
できない。[0005] For this reason, matching using this shape as a constraint condition cannot be performed, so that the elevation cannot be determined efficiently, and as a result, three-dimensional data of the feature cannot be obtained.
【0006】これは、例えば既往の数値地図データに記
述された地物、例えば建物などに対して標高を与え3次
元データ化しようとする際に、ステレオ画像によって計
測された点や線を再度、データ編集しなければ3次元数
値地図データの生成が行えないと言う問題になる。[0006] This is because, when an elevation is given to a feature, for example, a building, etc. described in the past digital map data to make it into three-dimensional data, points or lines measured by a stereo image are re-examined. Unless the data is edited, three-dimensional numerical map data cannot be generated.
【0007】また、最近、高分解能商業衛星が実用化さ
れたり、ラインスキャナを航空機に搭載しデジタル画像
データを取得する試みも始まり、航空写真一種類に限ら
ず同一地域を異なる撮像装置で画像化したデータが個別
に入手される状況が広がり始めている。Recently, high-resolution commercial satellites have been put into practical use, and attempts have been made to acquire digital image data by mounting a line scanner on an aircraft. The situation where individual data is obtained is beginning to spread.
【0008】すなわち、従来の写真測量のように予めス
テレオの撮影を意図せず、同一地域を異なる位置から撮
影した画像が個別に取得されるようになってきている。That is, unlike conventional photogrammetry, images taken from different positions in the same area without intending to take stereo images in advance have been individually acquired.
【0009】21世紀に向けた情報化社会においては、
地理情報システム(GIS)の普及とともに、その情報基盤
となる数値地図データをタイムリーに更新してデータを
維持管理することが必要となる。[0009] In the information society toward the 21st century,
With the spread of geographic information systems (GIS), it is necessary to update and maintain digital map data, which is the information base, in a timely manner.
【0010】しかし、最新の数値地図をタイムリーに得
ようとしても、従来のような数年に1回のステレオ航空
写真の撮影によるデータ更新では、適時更新は困難であ
り、しかもコストも低減できない。However, even if an attempt is made to obtain the latest digital map in a timely manner, it is difficult to update the data in a timely manner by taking stereo aerial photographs once every several years as in the prior art, and the cost cannot be reduced. .
【0011】そこで、同一地域を適時、撮像し個別に取
得される多種多様な画像を用いて従来の写真測量と同等
の計測を行ったり地図更新を行うといったことが有用に
なってくる。しかし、現実にはそのようなシステムは存
在しない。Therefore, it becomes useful to perform measurement equivalent to conventional photogrammetry or update a map by using various kinds of images which are imaged and individually acquired in a timely manner in the same area. However, there is no such system in reality.
【0012】本発明は、以上の課題を解決するためにな
されたもので、同一地域を撮影した2種類以上の多種多
様な画像を用いて標高を持たない数値地図データを容易
に3次元データ化することによって、既存の地図の更新
ができる画像間拡張イメージマッチング方法を得ること
を目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and easily converts digital map data having no elevation into three-dimensional data using two or more kinds of various images photographing the same area. Accordingly, it is an object of the present invention to obtain an inter-image extended image matching method capable of updating an existing map.
【0013】[0013]
【課題を解決するための手段】本発明は、同一地域の異
なる解像度の2種類の画像の組み合わせを用いたイメー
ジングマッチング方法において、前記2種類の画像に対
して標定作業を行って関数で関係づけた拡張ステレオモ
デルを生成する工程と、前記拡張ステレオモデルの両方
の画像に共通に存在する既知の地物のポリゴン点列を基
準の不定形窓とする工程と、前記不定形窓にそれぞれ高
さ(z)を与えて、この高さ(z)を変化させる工程
と、前記不定形窓の高さが変化される毎に、その高さに
応じた前記拡張ステレオモデルの両方の画像上における
投影位置を求める工程と、前記拡張ステレオモデルの両
画像の投影位置における前記不定形窓で区切られる領域
の輝度値を比較する工程と、前記比較結果が最も近似し
たときの不定形窓の高さ(z)を前記拡張ステレオモデ
ルの両画像の地物の高さとして出力する工程と、 前記
出力された高さ(z)を用いて前記地物の3次元座標を
決定する工程とを備えたことを要旨とする。SUMMARY OF THE INVENTION The present invention relates to an imaging matching method using a combination of two types of images having different resolutions in the same area. Generating an extended stereo model, and a step of setting a polygonal point sequence of a known feature that is present in common to both images of the extended stereo model as a reference irregular-shaped window; (Z) to change the height (z), and projecting the extended stereo model on both images according to the height each time the height of the irregular window is changed Determining a position; and comparing the luminance values of the regions delimited by the irregular window at the projection positions of both images of the extended stereo model; and comparing the irregular window when the comparison result is the closest. Outputting the height (z) as the height of the feature in both images of the extended stereo model; and determining the three-dimensional coordinates of the feature using the output height (z). The gist is that
【0014】[0014]
【発明の実施の形態】<実施の形態1>本実施の形態1
では、図1に示すように、航空機(ヘリコプタを含む)
及び衛星で取得した同一地域の航空写真画像、衛星写真
画像、ラインスキャナ画像の内の任意の組み合わせ〔衛
星画像(写真又はラインスキャナ画像)と航空画像(写
真又はラインスキャナ)との組み合わせ又は異なる高度
の航空写真同士の組み合わせ若しくは異なる高度のスキ
ャナ画像の組み合わせ等の組み合わせを含む〕を、コン
ピュータでデジタルフォーマット化してハードディスク
等に格納して、この2つの解像度を合わせ(撮影高度、
縮尺に基づく)、これらの画像に対して標定作業)を行
う。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS <First Embodiment> First Embodiment
Then, as shown in Fig. 1, aircraft (including helicopters)
And any combination of aerial image, satellite image, and line scanner image of the same area acquired by satellite (combination of satellite image (photo or line scanner image) and aerial image (photo or line scanner) or different altitude) Including a combination of aerial photographs of each other or a combination of scanner images of different altitudes) is digitally formatted by a computer and stored in a hard disk or the like, and the two resolutions are matched (the photographing altitude,
Based on the scale), the orientation work) is performed on these images.
【0015】そして、各々の画像に対して地上の3次元
座標を各画像上の2次元座標に投影するための関数を決
定する。このように地上の3次元座標を各々の画像座標
に投影する関数によって2つの画像が関係づけられた画
像の組み合わせを拡張ステレオモデルDi(輝度画像I
1、輝度画像I2)と呼ぶことにする。Then, a function for projecting three-dimensional coordinates on the ground to two-dimensional coordinates on each image is determined for each image. In this way, the combination of images in which two images are related by the function of projecting the three-dimensional coordinates of the ground onto each image coordinate is converted into an extended stereo model Di (luminance image I
1, luminance image I2).
【0016】このような拡張ステレオモデルDiを用い
ると、例えば、標高値を持たず2次元的に記述された既
往の数値地図上の地物に標高を与え、3次元データ化す
ることができる。By using such an extended stereo model Di, for example, it is possible to give an altitude to a two-dimensionally described feature on an existing digital map without having an altitude value, and to convert the feature into three-dimensional data.
【0017】すなわち、標高を求めたい任意の形状をし
た地物Bu(既知)を閉領域の基準の不定形窓Pl(ポ
リゴン列)とし、これが任意の標高地(高さ方向)をも
つように定める。That is, a feature Bu (known) having an arbitrary shape whose altitude is to be obtained is defined as a reference amorphous window Pl (polygon row) of a closed area, and has an arbitrary altitude (along the height). Determine.
【0018】そして、この不定形窓Plの高さを変化さ
せながら輝度画像I1、輝度画像I2に前述の関数を用
いて輝度画像I1、I2上の位置を求め、この位置にお
ける不定形窓Plを投影したときの輝度画像I1、I2
における輝度値を比較し、評価関数によって最も一致
(近似)したと判定されたときの不定形的P1の高さ
(標高値H)をその輝度画像における地物の高さと決定
する。図1では標高値がH3のときに最も一致している
とした例である。Then, while changing the height of the irregular window Pl, the positions on the luminance images I1 and I2 are obtained for the luminance image I1 and the luminance image I2 by using the above-described function, and the irregular window Pl at this position is obtained. Luminance images I1 and I2 when projected
Are compared, and the height (elevation value H) of the irregular P1 when it is determined to be the most matching (approximate) by the evaluation function is determined as the height of the feature in the luminance image. FIG. 1 shows an example in which the altitude value is the highest when the altitude is H3.
【0019】また、図1では、理解を容易にするため
に、不定形窓Plの高さを変化させて輝度画像I1、I
2に投影したときの不定形窓Plの形状を変えて示して
いる。In FIG. 1, in order to facilitate understanding, the heights of the irregular windows Pl are changed so that the luminance images I1 and I1 are changed.
2, the shape of the irregularly shaped window Pl when projected on FIG.
【0020】<実施の形態2>また、地図更新において
地図にない新築建物などを3次元データとして追加する
場合がある。この場合、従来の方法では、オペレータが
ステレオ観測しながら3次元データ化しなければならな
いが、異なる種類の画像の組み合わせではオペレータは
ステレオ観測ができないし、そのようなシステムも存在
しない。<Embodiment 2> In addition, in a map update, a new building or the like which is not included in the map may be added as three-dimensional data. In this case, in the conventional method, the operator must make three-dimensional data while observing in stereo, but the operator cannot perform stereo observation with a combination of different types of images, and there is no such system.
【0021】しかし、拡張ステレオモデルDiを用いる
と、この拡張ステレオモデルDiは輝度画像I1と輝度
画像I2とが関数によって関係づけられているので、図
2に示すように、例えば航空機によって得た輝度画像I
1を画面に表示し、この画像上でマウス操作等で地物B
uの輪郭に相当する閉領域B1を与える。そして、この
閉領域に投影が一致する位置に不定形窓Plhを発生さ
せ、標高H(z)を変化させる。However, when the extended stereo model Di is used, since the luminance image I1 and the luminance image I2 are related by a function in the extended stereo model Di, as shown in FIG. Image I
1 is displayed on the screen, and the feature B
A closed area B1 corresponding to the contour of u is given. Then, an irregular window Plh is generated at a position where the projection coincides with the closed area, and the altitude H (z) is changed.
【0022】例えば30m、80m、150mの順に標
高を変化させると、30m、80m、150mと変化し
たときの輝度画像I1、I2における不定形窓Plhの
輝度画像I1、I2の投影位置をその都度求めながら、
この位置における不定形窓Plhを投影したときの輝度
画像I1、I2における輝度値を比較し、評価関数によ
って最も一致(近似)したと判定されるときの不定形的
P1hの高さ(標高値H)をその輝度画像における地物
の高さと決定する。従って、地物Buの三次元座標を推
定することができている。For example, when the altitude is changed in the order of 30 m, 80 m, and 150 m, the projection positions of the luminance images I 1 and I 2 of the irregular-shaped window Plh in the luminance images I 1 and I 2 when the altitude changes to 30 m, 80 m and 150 m are obtained. While
The luminance values in the luminance images I1 and I2 when the irregular window Plh is projected at this position are compared, and the height of the irregular P1h (elevation value H ) Is determined as the height of the feature in the luminance image. Therefore, the three-dimensional coordinates of the feature Bu can be estimated.
【0023】また、図2では、理解を容易にするため
に、不定形窓Plhの高さを変化させて輝度画像I1、
I2に投影したときの不定形窓Plhの形状を変えて示
している。In FIG. 2, in order to facilitate understanding, the height of the irregular window Plh is changed to change the luminance image I1,
The shape of the irregular window Plh when projected on I2 is shown in a different manner.
【0024】つまり、実施の実施の形態1及び実施の形
態2では図3に示すように、前述の組み合わせの画像同
士を関数で関係させた拡張ステレオモデルの輝度画像I
1、I2において、共通に写っている地物Buから得た
不定形窓Plhの高さを変化させることによって、輝度
画像I1、I2における投影位置を求め、この投影位置
における不定形窓で区切られる輝度値の評価関数の一致
(近似)で地物Buの高さを推定している。That is, in the first and second embodiments, as shown in FIG. 3, the luminance image I of the extended stereo model in which the images of the aforementioned combination are related by a function.
In I and I2, the projection positions in the luminance images I1 and I2 are obtained by changing the height of the irregular windows Plh obtained from the common feature Bu, and are separated by the irregular windows at the projection positions. The height of the feature Bu is estimated by matching (approximately) the evaluation functions of the luminance values.
【0025】<実施の形態3>また、数値地形モデルが
利用できる場合は、図4に示すように、地物位置での標
高を地物標高zから引くことにより、地物の比高も得
る。これによって、正確な建物の高さを得ることができ
る。<Embodiment 3> When a digital terrain model can be used, the specific height of a feature is also obtained by subtracting the elevation at the feature position from the feature elevation z, as shown in FIG. . As a result, an accurate building height can be obtained.
【0026】更に、例えば既往の数値地図に記述された
建物に着目するとする。この比高が0に近い値に決定さ
れたとすると、建物が滅失したものとして推定すること
ができる。既に3次元座標が付与された建物について
も、新規に撮影された画像と旧画像とで地物が投影され
る位置の画像を比較することにより、地物の滅失や変更
を推定することもできる。Further, it is assumed that attention is paid to, for example, a building described in a past digital map. If this specific height is determined to be a value close to 0, it can be estimated that the building has been lost. Even for a building to which three-dimensional coordinates have already been given, the loss or change of the feature can be estimated by comparing the image at the position where the feature is projected between the newly captured image and the old image. .
【0027】次に、上記実施の形態1、2、3の具体例
を以下に説明する。図5は、本発明の地物の標高および
比高の推定方法の構成図である。図6は図5の標高探索
部の概略構成図である。Next, specific examples of the first, second, and third embodiments will be described below. FIG. 5 is a configuration diagram of the method for estimating the elevation and specific height of a feature according to the present invention. FIG. 6 is a schematic configuration diagram of the altitude search unit of FIG.
【0028】例えば、デジタル画像入力部1は、2つの
画像をデジタル画像の形で画像処理装置であるコンピュ
ータのハードディスク2等に格納する。このとき、航空
写真のようにフィルムや印画紙として供給される画像の
場合は、スキャナで読み取り、A/D変換部によってデ
ジタル画像に変換する。この変換した2つの写真のデジ
タル画像のピクセル座標(x1pix,y1pix)お
よび(x2pix,y2pix)における画像輝度をI
1(x1pix,y1pix)およびI
2(x2pix,y2pix)とする。For example, the digital image input unit 1 stores two images in the form of digital images on a hard disk 2 of a computer as an image processing apparatus. At this time, in the case of an image supplied as a film or photographic paper, such as an aerial photograph, the image is read by a scanner and converted into a digital image by an A / D converter. The image luminance at the pixel coordinates (x 1pix , y 1pix ) and (x 2pix , y 2pix ) of the digital image of the two converted pictures is represented by I
1 (x 1pix , y 1pix ) and I
2 (x 2pix , y 2pix ).
【0029】また、前述のハードディスク2には、拡張
ステレオモデル撮影時の対地高度Hと、画像間の撮影位
置間隔(基線長B)と、2つの画像の1ピクセルに対応
する地上解像度平均Dと、既知の建物のポリゴン(不定
形窓)等が記憶されている。The hard disk 2 includes an altitude H above the ground when the extended stereo model is photographed, a photographing position interval between the images (base line length B), and a ground resolution average D corresponding to one pixel of the two images. , Known polygons (irregular shaped windows) and the like are stored.
【0030】次に、標定要素算出部3は、2つの輝度画
像I1、I2について、地上の3次元座標が投影される
各画像の画像座標算出のための座標変換関数FX、逆座
標変換関数関数GX(総称して標定情報ともいう)を決
定する。これは航空写真測量において標定作業と呼ばれ
ているものにあたる。標定作業の方法や求めるパラメー
タは画像センサ(例えばエリアセンサとリニアアレイセ
ンサ)によって異なるが、最終的には、3次元空間内の
点(x,y,z)が投影される左右画像のピクセル座標
(x1pix,y1pix)および(x2pix,y
2pix)を計算する関数を決定できる。Next, the orientation element calculating section 3 calculates a coordinate conversion function FX and an inverse coordinate conversion function for calculating the image coordinates of each image on which three-dimensional coordinates on the ground are projected for the two luminance images I1 and I2. GX (collectively referred to as orientation information) is determined. This is what is called orientation work in aerial photogrammetry. The orientation method and parameters to be determined differ depending on the image sensor (for example, an area sensor and a linear array sensor), but finally, the pixel coordinates of the left and right images on which the point (x, y, z) in the three-dimensional space is projected. (X 1pix , y 1pix ) and (x 2pix , y
2pix ) can be determined.
【0031】つまり、次の4つの座標変換関数FX1
(x,y,z)、FY1(x,y,z)、FX2(x,
y,z)、FY2(x,y,z)を解析的、もしくは手
続き的に決定できる。That is, the following four coordinate conversion functions FX1
(X, y, z), FY1 (x, y, z), FX2 (x,
y, z) and FY2 (x, y, z) can be determined analytically or procedurally.
【0032】 x1pix=FX1(x,y,z) 式(1) y1pix=FY1(x,y,z) 式(2) x2pix=FX2(x,y,z) 式(3) y2pix=FY2(x,y,z) 式(4) また、z=一定として式(1),式(2)を解析的又は
手続的に解くと、各画像上の点がある標高zにあると仮
定した時の地上でのx座標とy座標を求めることができ
る。X 1pix = FX1 (x, y, z) Formula (1) y 1pix = FY1 (x, y, z) Formula (2) x 2pix = FX2 (x, y, z) Formula (3) y 2pix = FY2 (x, y, z) Equation (4) Also, if Equations (1) and (2) are solved analytically or procedurally with z = constant, the point on each image is at an altitude z. The x coordinate and the y coordinate on the ground at the time of the assumption can be obtained.
【0033】 x=GX1(x1pix,y1pix,z) 式(5) y=GY1(x1pix,y1pix,z) 式(6) 同様に式(3),式(4)について解くと、 x=GX2(x2pix,y2pix,z) 式(7) y=GY2(x2pix,y2pix,z) 式(8) である。X = GX1 ( x1pix , y1pix , z) Equation (5) y = GY1 ( x1pix , y1pix , z) Equation (6) Similarly, solving equations (3) and (4) gives x = GX2 ( x2pix , y2pix , z) Formula (7) y = GY2 ( x2pix , y2pix , z) Formula (8).
【0034】航空写真やエリアCCDセンサの様なエリ
アセンサ画像の場合については、関数FX1(x,y,
z)、FY1(x,y,z)、FX2(x,y,z)、
FY2(x,y,z)の詳細を図7に記述する。For the case of an area sensor image such as an aerial photograph or an area CCD sensor, the function FX1 (x, y,
z), FY1 (x, y, z), FX2 (x, y, z),
The details of FY2 (x, y, z) are described in FIG.
【0035】なお標定作業の方法については既存の方法
を用いるものとする。例えばエリアCCDセンサの場合
は文献[1]、リニア型中心投影センサについては文献
[2]に詳しく記述されている。It should be noted that the orientation method is to use an existing method. For example, an area CCD sensor is described in detail in reference [1], and a linear center projection sensor is described in detail in reference [2].
【0036】[1]日本写真測量学会:解析写真測量改
訂版,1989。「2」内田修:ステレオ衛星画像を用
いた3次元計測の自動化に関する研究,1989。[1] Japan Society of Photogrammetry: Analytical Photogrammetry revised edition, 1989. "2" Osamu Uchida: Research on automation of three-dimensional measurement using stereo satellite images, 1989.
【0037】また、図7における例えばエリアセンサ画
像の座標変換関数は、中心投影画像の投影中心の座標を
P0=t[X0 Y0 Z0]、カメラの地上座標に対
する回転角をT=t[ω φ κ]、これらを合わせた
もの(外部標定要素)をE=t[tT tP0]とする
(左肩のtは転置行列もしくは転置ベクトルを示す)。
このとき、地上座標P=t[x y z]はカメラ座標
系(投影中心に相対的な3次元座標系)prで次のよう
に表現される。In FIG. 7, for example, the coordinate conversion function of the area sensor image is such that the coordinates of the projection center of the center projection image are P 0 = t [X 0 Y 0 Z 0 ], and the rotation angle of the camera with respect to the ground coordinates is T = Let t [ω φ κ] and the sum of these (external orientation elements) be E = t [tT tP 0 ] (t on the left shoulder indicates a transposed matrix or transposed vector).
At this time, ground coordinates P = t [x y z] is the camera coordinate system (relative three-dimensional coordinate system to the projection center) with p r is expressed as follows.
【0038】 pr=t[xr yr zr]=R(T)(R−P0) 式(22 ) ここで、R(T)は、次の式で定義される回転行列であ
る。P r = t [x ry r z r ] = R (T) (R−P 0 ) Equation (22) where R (T) is a rotation matrix defined by the following equation: .
【0039】[0039]
【数1】 また、Pが投影される写真座標(投影中心の像(主点)
を原点とする2次元座標)p(P,E)=t[x y]
は次の式で表わされる。(Equation 1) Also, the photographic coordinates at which P is projected (image of the projection center (principal point)
Two-dimensional coordinates with the origin as) p (P, E) = t [xy]
Is represented by the following equation.
【0040】[0040]
【数2】 ここでcは航空写真の焦点距離である。式(24)は、
カメラの外部標定要素と地上点の3次元座標がわかれ
ば、それに対応する写真座標がわかることを意味する。
写真座標pは、物理的にフィルム面やCCD素子の上の
実寸の座標であるが、フィルムを読みとる際のスキャナ
のひずみや非線形やCCD素子の配置誤差が無視できる
とすれば、画像座標pimgとの関係は2次元の射影変換
Hinで表すことができる。以上より、EおよびHinを知
ることができれば、地上点の3次元座標から画像座標に
変換することが可能となり、4つの座標変換関数FX1
(x,y,z)、FY1(x,y,z)、FX2(x,
y,z)、FY2(x,y,z)が求められたこととな
る。(Equation 2) Here, c is the focal length of the aerial photograph. Equation (24) is
If the external orientation elements of the camera and the three-dimensional coordinates of the ground point are known, it means that the corresponding photograph coordinates can be known.
The photographic coordinates p are physically the actual coordinates on the film surface or on the CCD element. However, if the distortion and non-linearity of the scanner when reading the film and the arrangement error of the CCD element can be ignored, the image coordinates pimg and Can be expressed by a two-dimensional projective transformation Hin. As described above, if E and Hin can be known, it is possible to convert the three-dimensional coordinates of the ground point into image coordinates, and the four coordinate conversion functions FX1
(X, y, z), FY1 (x, y, z), FX2 (x,
y, z) and FY2 (x, y, z) are obtained.
【0041】また、写真座標p=(x,y)であるとす
ると、これはカメラ座標ではprp =(x,y,−c)
である。これにより、p=(x,y)に写っている点の
標高Zpがあるとすると、この点の地上座標系における
3次元座標Pp=(X,Y,Zp)は次の式で与えられ
る。It is assumed that the photograph coordinates p = (x, y).
Then this is p in camera coordinatesrp = (X, y, -c)
It is. As a result, the point in p = (x, y)
Altitude ZpIf there is, this point in the ground coordinate system
3D coordinates Pp= (X, Y, Zp) Is given by
You.
【0042】[0042]
【数3】 画像座標pimgに逆射影変換Hin−1を行った後、式
(25)を適用すれば、Z=Zpの拘束の元で画像座標
から3次元座標への変換を行うことができる。つまり、
座標変換関数GX1(x,y,z)、GY1(x,y,
z)、GX2(x,y,z)、GY2(x,y,z)を
求めることができる。(Equation 3) After inverse projective transformation Hin -1 to the image coordinates PIMG, by applying the equation (25), it is possible to convert from the image coordinates to three-dimensional coordinates in the original constraint of Z = Z p. That is,
Coordinate transformation functions GX1 (x, y, z), GY1 (x, y,
z), GX2 (x, y, z) and GY2 (x, y, z) can be obtained.
【0043】一方、数値地図入力部4は、既存の数値地
図を入力する。この数値地図は地物(たとえば建物デー
タ)をベクター形式(座標点列データ)で保持している
ものとする。数値地図が画像データの場合は、ラスター
/ベクター変換によりベクター形式に直す。On the other hand, the digital map input section 4 inputs an existing digital map. This digital map is assumed to hold features (for example, building data) in a vector format (coordinate point sequence data). If the digital map is image data, it is converted into a vector format by raster / vector conversion.
【0044】次に、処理対象地物データ抽出部5は、オ
ペレータによる指示に従って数値地図データより、標高
付けの対象となる地物データを抽出する。数値地図では
一般に対象の種類(建物・道路等)の違いがコード付け
されているので、抽出の際は対象となるコードの図形の
みを抽出すればよい。Next, the processing target feature data extraction unit 5 extracts the feature data to be subjected to the elevation from the numerical map data in accordance with the instruction from the operator. In general, differences in the type of object (building, road, etc.) are coded in a numerical map, so that only the figure of the target code needs to be extracted at the time of extraction.
【0045】そして、抽出した地物Buをポリゴン点列
Pli(閉多角形、一般に最初と最後が同じ点となる点
列(p1,p2,…,pn,p1)で表される)に変換
する。 このとき、対象とする地物Buが建物データの
場合は普通ポリゴン点列になっているものが多いので問
題はない。ポリゴン点列になっていない地物の場合は、
CADソフト等で編集してあらかじめポリゴン点列化し
ておく。[0045] Then, convert the extracted feature Bu polygon point sequences Pl i (closed polygon, typically the first and last columns point where the same point (p1, p2, ..., represented by pn, p1)) to I do. At this time, if the target feature Bu is building data, there is no problem since many of the objects are usually a sequence of polygon points. If the feature is not a polygon sequence,
The data is edited by CAD software or the like and converted into a polygonal point sequence in advance.
【0046】また、画像上地物計測部6は、拡張ステレ
オモデルDiの画像上に建物等の地物Buがあるが、数
値地図データに対象とする地物形状が記述されていない
場合には、拡張ステレオ画像Di(輝度画像I1、I
2)のどちらかを画面に表示し、その上でマウス操作に
より地物形状を入力する。この場合、地物形状はポリゴ
ン点列Pliとし、画像座標を列挙した閉図形(不定形
窓)として入力する。例えば、図2においては、輝度画
像I1からB1を選択し、このB1の不定形窓を得る。The on-image feature measuring unit 6 determines that a feature such as a building exists on the image of the extended stereo model Di, but that the target feature shape is not described in the digital map data. , Extended stereo image Di (luminance images I1, I
2) is displayed on the screen, and then the shape of the feature is input by operating the mouse. In this case, feature shape is a polygon point sequences Pl i, inputted as closed graphic listing the image coordinates shaped (irregular window). For example, in FIG. 2, B1 is selected from the luminance image I1, and an irregular window of B1 is obtained.
【0047】次に、標高探索部7は、標高の探索では、
画像上地物計測部6で得られた各地物ポリゴン点列Pl
i(i=1,…,ni)について、以下の処理を繰り返
す。Next, the altitude search unit 7 searches for altitude
Each feature polygon point sequence Pl obtained by the image feature measurement unit 6
The following processing is repeated for i (i = 1,..., n i ).
【0048】標高探索部7における標高探索範囲および
探索間隔設定部7aは、標高の探索範囲(Hmin,Hma
x)および探索間隔dHを設定する。The altitude search range and search interval setting unit 7a in the altitude search unit 7 provide an altitude search range (Hmin, Hma
x) and the search interval dH are set.
【0049】このHminには、その地域の地表面の標高
もしくはそれより小さい値を、Hmaxにはその地図の建
物階数等から予想される地物の最大標高もしくはそれ以
上の値を与える。For Hmin, the altitude of the ground surface of the area or a value smaller than the altitude is given, and for Hmax, the value of the maximum altitude of the feature estimated from the number of floors or the like of the map or the like is given.
【0050】地形モデル(国土地理院発行の数値地図5
0mメッシュ(標高)など)が利用できる場合は各地物
位置での地表面の標高を推定することができる。Topographic model (Numerical map 5 issued by the Geospatial Information Authority of Japan)
When a 0 m mesh (altitude) can be used, the altitude of the ground surface at each feature position can be estimated.
【0051】また、利用できない場合は、すべての地物
について適当に同じHminとHmaxを設定すればよい。ま
たdzには、拡張ステレオモデルから測定される高さ方
向の解像度を与えればよい。When it cannot be used, the same Hmin and Hmax may be appropriately set for all the features. Also, dz may be given the resolution in the height direction measured from the extended stereo model.
【0052】たとえば、各画像間の撮影位置間隔(基線
長)をB、拡張ステレオモデル撮影時の対地高度の平均
をH、2つの画像の1ピクセルに対応する地上解像度平
均をDとすれば、dHは次の式で与えられる。For example, if the photographing position interval (base line length) between the images is B, the average of the ground height at the time of photographing the extended stereo model is H, and the ground resolution average corresponding to one pixel of the two images is D, dH is given by the following equation.
【0053】[0053]
【数4】 またこの時、探索標高群Hkを次のように定義する。(Equation 4) At this time, the search altitude group H k is defined as follows.
【0054】 Hk=Hmin+dH×k(k=0,1,2,…nk) 式(10) ただし、nkはHk≦Hmaxとなる最大のkである。H k = Hmin + dH × k (k = 0, 1, 2,... N k ) Equation (10) where nk is the maximum k such that H k ≦ Hmax.
【0055】そして、不定形窓定義部7bは、地物デー
タのそれぞれのポリゴン点列の内部をステレオマッチン
グの際の不定形窓として定義する。具体的には、図8に
示すように、地物ポリゴン点列内に等間隔のメッシュ
(dx、dy)を発生させ、これを不定形窓Pliとす
る。The irregular window defining section 7b defines the inside of each polygon point sequence of the feature data as an irregular window for stereo matching. Specifically, as shown in FIG. 8, equidistant mesh feature polygon point in the column (dx, dy) is generated, which is referred to as irregular window Pl i.
【0056】この処理は、ポリゴン点列Pliが数値地
図(座標が地上座標)から得られたか、それとも画像上
の計測結果(座標が画像座標)から得られたかによって
処理が異なる。[0056] This process can either polygon point sequence Pl i (coordinates terrestrial coordinates) digital map obtained from, or processed by any measurement result on the image (coordinates image coordinates) obtained from different.
【0057】・数値地図から得られたポリゴン点列の時
地物データが数値地図起源の時は、図8に示すように、
地物データBuのそれぞれのポリゴン点列の周辺に等間
隔のメッシュ点群MPiを発生させる。メッシュは任意
の地上座標に原点(ox,oy)を設定し、x方向およ
びy方向にdxおよびdyの間隔で発生させ、M(o
x,oy,dx,dy)とする。When the geographical feature data of the polygon point sequence obtained from the digital map originates from the digital map, as shown in FIG.
An equally spaced mesh point group MPi is generated around each polygon point sequence of the feature data Bu. The mesh sets the origin (ox, oy) at arbitrary ground coordinates, generates it at intervals of dx and dy in the x and y directions, and generates M (o
x, oy, dx, dy).
【0058】なお、oxおよびoyは任意に取ってかま
わない。またdxおよびdyは、デジタル航空写真の1
ピクセル〜数ピクセルの地上解像度に設定する。Note that ox and oy may be arbitrarily set. Dx and dy are one of digital aerial photographs.
Set the ground resolution from pixels to several pixels.
【0059】ここでi番目の地物Fiを表すポリゴン点
列Pliで囲まれる領域Plini内部に存在するメッシ
ュの交点群MPiを次のように定義する。[0059] defined where i-th feature F i present in the interior region Plin i surrounded by the polygon point sequence Pl i representing the intersection points MP i of mesh as follows.
【0060】 MPi=Plini∩M(ox,oy,dx,dy) 式(11) このようにして得た不定形窓Pliを用いて、例えば図
1では、不定形窓Plの高さを変化させ輝度画像I1、
輝度画像I2の投影位置を求め、この投影位置における
両方の画像の輝度値を比較する。MPi = Plin i ∩M (ox, oy, dx, dy) Equation (11) Using the irregular window Pli obtained in this way, for example, in FIG. 1, the height of the irregular window Pl is changed. The brightness image I1,
The projection position of the luminance image I2 is obtained, and the luminance values of both images at this projection position are compared.
【0061】そして、輝度値の評価関数が最も一致(近
似)したときの標高値Hを地物B1、B2の標高値zと
決定する。Then, the altitude H at which the evaluation function of the luminance value is most matched (approximate) is determined as the altitude z of the features B1 and B2.
【0062】・画像上の計測結果から得られたポリゴン
点列の時は、不定形窓定義部7c(第2の不定形窓定義
部ともいう)は、Pliが画像上の計測結果の時は、評
価関数計算ループ部7dの中できめられる標高Hkにあ
わせてメッシュを作成する。[0062] When the polygon point sequence obtained from the on-image measurement results are irregular window definition section 7c (also referred to as a second amorphous window definition section), when Pl i is the measurement results on the image Creates a mesh in accordance with the altitude H k determined in the evaluation function calculation loop unit 7d.
【0063】今、Pliが画像1上で計測されたと仮定
し、i番目の画像座標を(pxj,pyj)とすると、
この点が標高Hkにあったときの地上座標(Xj,
Yj)は、式(5)および式(6)を用いて、 Xj=GX1(pxj,pyj,Hk) 式(12) Yj=GY1(pxj,pyj,Hk) 式(13) で表される。こうしてすべてのポリゴン点列上の点を地
上座標に戻した後、数値地図の場合と同様に変換して、
メッシュ交点群MPikを得る。Pliが画像上で計測
された場合も式(12)および式(13)によって同様
にメッシュ点群MPikを得る。[0063] Now, assume that Pl i was measured on the image 1, the i-th image coordinates (px j, py j) When,
Ground coordinates (X j when this point was in altitude H k,
Y j ) is calculated by using Expressions (5) and (6) as follows: X j = GX1 (px j , py j , H k ) Expression (12) Y j = GY1 (px j , py j , H k ) It is represented by equation (13). After returning all points on the polygon point sequence to ground coordinates in this way, they are converted in the same way as for digital maps,
A mesh intersection group MP ik is obtained. Pl i get similarly mesh point group MP ik by even expression when it is measured on the image (12) and (13).
【0064】このような不定形窓を用いることによっ
て、例えば図2に示すように、航空機によって得た輝度
画像I1を画面に表示し、この画像上でマウス操作等で
座標が既知の地物B1の輪郭に相当する閉領域(不定形
窓Plh:ポリゴン)を与える。そして、この不定形窓
Plhを地物Buにおいて、標高H(z)を変化させ
る。By using such an irregular shaped window, for example, as shown in FIG. 2, a brightness image I1 obtained by an aircraft is displayed on a screen, and a feature B1 whose coordinates are known by mouse operation or the like on this image. Is given (closed window Plh: polygon). Then, the altitude H (z) of the irregular shaped window Plh is changed in the feature Bu.
【0065】前述の評価関数計算ループ部7dは、すべ
てのHk(k=0,1,2,…,nk)について、評価
値E(Hk)を計算する。The above-described evaluation function calculation loop unit 7d calculates the evaluation value E (H k ) for all H k (k = 0, 1, 2,..., N k ).
【0066】[0066]
【数5】 ここで、Ekjは、メッシュ交点群MPiのj番目の点
(xj,yj)が標高Hkの高さにあると仮定した時の評
価関数値である。評価値E(Hk)は、拡張ステレオモ
デル上の画像の画素値の一致の程度を評価し、一致が高
くなる時に小さくなるものとする。(Equation 5) Here, Ekj is an evaluation function value when it is assumed that the j-th point (xj, yj) of the mesh intersection group MPi is at the height of the altitude Hk. The evaluation value E (Hk) evaluates the degree of coincidence of the pixel values of the images on the extended stereo model, and decreases as the coincidence increases.
【0067】すなわち、標高Hkの高さにあるメッシュ
交点群MPiのj番目の点(xj,yj,Hk)が二つの画
像I1およびI2の上へ、各々式(1)〜式(4)により
投影されるとき、その位置にある画素値V1kjおよびV
2kjを V1kj(xj,yj)=I1(FX1(xj,yj,Hk),FY1(xj ,yj,Hk)) V2kj(xj,yj)=I2(FX2(xj,yj,Hk),FY2(xj ,yj,Hk)) 式(15) ここで、V1kj(xj,yj)、V2kj(xj,y
j)は投影したときの画素値であり、(xj,yj,H
k)はHにあるときの不定形窓のポリゴン点群を示す。That is, the j-th point (xj, yj, Hk) of the group of mesh intersections MPi at the height of the altitude Hk is placed on the two images I1 and I2 by the equations (1) to (4), respectively. When projected, the pixel values V1kj and V at that position
2kj the V1 kj (x j, y j ) = I 1 (FX1 (x j, y j, H k), FY1 (x j, y j, H k)) V2 kj (x j, y j) = I 2 (FX2 (x j, y j, H k), FY2 (x j, y j, H k)) formula (15) wherein, V1 kj (x j, y j), V2 kj (x j, y
j ) is a pixel value when projected, and (x j , y j , H
k ) indicates a polygon point group of the irregular window when it is at H.
【0068】上記(15)式のように表せば、画素値の
差の自乗Edifの総和や、画素値の相関係数に(−1)
をかけた値Ecorなどを用いることができる。If expressed as in the above equation (15), the sum of the squares Edif of the pixel value differences and the correlation coefficient of the pixel values are (-1).
, Etc. can be used.
【0069】例えば、Edifkは次の式で表される。For example, Edif k is represented by the following equation.
【0070】[0070]
【数6】 また、Ecorkは次の式で表される。(Equation 6) Further, Ecor k is expressed by the following equation.
【0071】[0071]
【数7】 そして、地物標高決定部7eは、i番目の地物Fiの標
高HFiを、評価関数E(Hk)を最小にする高さH
kminとする。すなわち、 HFi=Hkmin E(Hkmin)=Min(E(Hk))(k=0,1,2,…nk) 式(18) 次に、地物高さ計算部7fは、地形モデルがある場合
は、2次元のポリゴン点列Pliの位置の地表面高さを
標高値HFiから引くことにより、地物比高HR iとし
て出力する。また、後で信頼性の解析に用いるため、標
高値HFiでの評価関数値Eiも地物の属性情報として
出力する。(Equation 7)Then, the feature elevation determination unit 7e calculates the i-th feature FiMark
High HFiWith the evaluation function E (HkHeight H that minimizes
kminAnd That is, HFi= Hkmin E (Hkmin) = Min (E (Hk)) (K = 0, 1, 2,... Nk) Equation (18) Next, the feature height calculation unit 7f determines whether or not there is a terrain model.
Is a two-dimensional polygon point sequence PliThe height of the ground surface
Altitude HFiBy subtracting fromR iage
Output. In addition, for later use in reliability analysis,
High price HFiEvaluation function value E atiAlso as attribute information of features
Output.
【0072】そして、3次元地物データ出力部7eは、
2次元のポリゴン点列Pliのz座標に標高値HFiを
付け加え、更に地表面比高HRiを属性データとして付
け加えた3次元地物データPl3Diとして出力する。Then, the three-dimensional feature data output unit 7e
Adding altitude values H Fi to z coordinates of the two-dimensional polygon point sequence Pl i, further outputs the ground surface ratio height H Ri as the three-dimensional feature data Pl3D i was added as attribute data.
【0073】次に、3次元地図出力部8は、すべてのP
l3Diをあわせて、標高付きの3次元地図として出力
する。Next, the three-dimensional map output unit 8 outputs all P
Together with 13D i , it is output as a three-dimensional map with elevation.
【0074】次に、標高推定の信頼性の評価について説
明を補充する。Next, an explanation will be supplemented for the evaluation of the reliability of the altitude estimation.
【0075】次のような場合は、標高推定の信頼性の推
定方法として、次の様な例が考えられる。In the following case, the following example can be considered as a method for estimating the reliability of the altitude estimation.
【0076】・評価関数値Eiが大きい時。つまり、あ
るしきい値をT2として、 Ei≧T2 式(19) T2の値の決定方法としては、評価関数値Eiの平均値
より、1〜2σ大きい値を設定することが合理的であ
る。When the evaluation function value Ei is large. That is, a certain threshold value as T2, as the method of determining the value of E i ≧ T2 Equation (19) T2, than the average value of the evaluation function value E i, is it reasonable to set the 1~2σ large value is there.
【0077】・求めた高さHFiが探索範囲の両端にな
る場合。つまり、 HFi=Hmin or HFi=Hmax 式(20) この場合は、探索範囲が正しく設定されなかった可能性
がある。When the obtained height H Fi is at both ends of the search range. That, H Fi = Hmin or H Fi = Hmax formula (20) in this case, there is a possibility that the search range is not set correctly.
【0078】また、地物の滅失や変更の推定する場合
は、次のような場合、地物の滅失や変更の可能性が高い
と推定できる。In the case of estimating the loss or change of a feature, it can be estimated that the possibility of loss or change of the feature is high in the following cases.
【0079】・地表面比高が小さい時。つまり、0に近
いしきい値をT1として、 |HRi|≦T1 式(21) また、信頼性が低くなる原因として、地物の高さ、大き
さ等に変更が起こっている場合がある。When the ground surface specific height is small. That is, assuming that a threshold value close to 0 is T1, | H Ri | ≦ T1 Expression (21) In addition, as a cause of low reliability, there is a case where a change occurs in the height, size, or the like of a feature. .
【0080】例えば、図9に示すように、A年度の撮影
時においては地物の標高がHorgであっても、数年後
(経年変化)に撮影した場合は、標高がHorgからHn
ewに変化している場合がある。For example, as shown in FIG. 9, even when the elevation of a feature is Horg at the time of photographing in the year A, if the image is photographed a few years later (aging), the elevation changes from Horg to Hn.
ew in some cases.
【0081】また、建物の大きさ(平面形状)も時間の
経過に伴って変化している場合もある(C年度撮影)。In some cases, the size (planar shape) of the building may change over time (photographed in year C).
【0082】標高の既知の地物の異動の推定の場合は、
すでに標高が既知の地物の異動は次のように推定する。In the case of estimating a change of a feature having a known altitude,
The movement of a feature whose altitude is already known is estimated as follows.
【0083】地物の標高をHorgとし、標高の探索範囲
を Horg−dH≦Hk≦Horg+dHにとる。The elevation of the feature is set to Horg, and the search range of the elevation is set to Horg−dH ≦ H k ≦ Horg + dH.
【0084】経年変化がある場合は、推定した標高がH
orgと大きく異なるか、評価関数値から標高推定の信頼
性が低くなる。If there is an aging, the estimated altitude is H
It is significantly different from org, or the reliability of the altitude estimation is low from the evaluation function value.
【0085】また、旧・新の撮影時期の異なる画像を拡
張ステレオモデルに構成し、標高推定を行い、標高推定
の信頼性が低くなる場合に経年変化があると判定するこ
とも可能である。It is also possible to construct images of different old and new photographing timings in an extended stereo model, estimate the altitude, and determine that there is an aging when the reliability of the altitude estimation becomes low.
【0086】また、例えば図10に示すように、地物が
複雑な形状であったり、実際には一定の高さではない場
合にも対応可能である。建物について実際に航空写真測
量やレーザスキャナで計測した結果と比べてみると、建
物の最頻値標高に近い値を示すことが実験で確認されて
いる。Further, for example, as shown in FIG. 10, it is possible to cope with a case where a feature has a complicated shape or an actual height is not constant. Experiments have shown that when compared to the results of actual aerial photogrammetry and laser scanner measurements on buildings, they show values close to the mode elevation of the buildings.
【0087】また地物高さが0に近いときは、自動的に
地物の滅失箇所候補として抽出し、修正の効率化を図る
ことができる。When the feature height is close to 0, it can be automatically extracted as a candidate for a lost portion of the feature to improve the efficiency of correction.
【0088】<実施の形態4>次に地図の更新について
図11のフローチャートを用いて説明する。本説明では
予め3次元地図(旧)と、2次元地図(旧)と、新規撮
影の拡張ステレオモデルとがディスクに記憶されている
とする。<Embodiment 4> Next, updating of a map will be described with reference to the flowchart of FIG. In this description, it is assumed that a three-dimensional map (old), a two-dimensional map (old), and an extended stereo model for new shooting are stored in the disk in advance.
【0089】このような状態において、二次元地図
(旧)を読み込むと共に、拡張ステレオモデルとを読み
込み、上記説明のように、既知の地物の不定形窓に高さ
を与え、これを変化させて拡張ステレオモデルの両方の
画像上の投影位置を求め、この投影位置における不定形
窓で区切られた領域の輝度値をそれぞれ求めて輝度値を
比較し、比較結果が最も一致するときの不定形窓の高さ
を拡張ステレオモデルにおける地物の高さとする拡張ス
テレオマッチングによる標高付与処理を行い(S1)、
この3次元地図データを途中成果として記憶する(S
2)。In this state, the two-dimensional map (old) is read, and the extended stereo model is read. As described above, the height is given to the irregular shaped window of the known feature, and the height is changed. The projection positions on both images of the extended stereo model are obtained by using the above method, the luminance values of the areas delimited by the irregular windows at the projection positions are calculated, and the luminance values are compared. Elevation processing is performed by extended stereo matching using the height of the window as the height of a feature in the extended stereo model (S1)
This three-dimensional map data is stored as an intermediate result (S
2).
【0090】そして、3次元地図(旧)と、この途中成
果の3次元地図データと新規の拡張ステレオモデルとか
ら変化を求める拡張ステレオマッチングによる変化抽出
処理を行い(S3)、これを写真上(拡張ステレオモデ
ル)に割り付ける前の途中成果の3次元地図として記憶
する(S4)。Then, a change extraction process is performed by extended stereo matching for obtaining a change from the three-dimensional map (old), the three-dimensional map data of the intermediate result, and the new extended stereo model (S3), and this is extracted on the photograph ( It is stored as a three-dimensional map of the intermediate result before being assigned to the extended stereo model (S4).
【0091】次に、写真上での編集処理を行う(S
5)。これは、デジタル写真測量ワークステーションを
用いて行うのが望ましい。Next, editing processing on the photograph is performed (S
5). This is preferably done using a digital photogrammetry workstation.
【0092】この編集処理は、ステップS4で得た途中
成果の地物の3次元データを新規の拡張ステレオモデル
の上にオーバレイしてモニターに表示し、3次元データ
と新規に撮影した拡張ステレオモデルとを比較すること
によってオペレータがマニュアルで編集を行う。ここで
は拡張ステレオモデルとしては新規に撮影した一般的な
ステレオ画像を用いてもよいが、旧2次元地図を作成し
たときの画像と新規に撮影した画像とから構成されるス
テレオモデルを使用してもよい。In this editing process, the three-dimensional data of the intermediate feature obtained in step S4 is overlaid on a new extended stereo model and displayed on a monitor, and the three-dimensional data and the newly photographed extended stereo model are displayed. The operator manually edits by comparing with. Here, a general stereo image newly shot may be used as the extended stereo model, but a stereo model composed of an image obtained when an old two-dimensional map is created and a newly shot image is used. Is also good.
【0093】そして、この編集処理で得られた3次元デ
ータに旧の3次元データを更新する処理を行う(S
6)。Then, a process of updating the old three-dimensional data to the three-dimensional data obtained by this editing process is performed (S
6).
【0094】つまり、この一連の処理によって、標高を
持たない数値地図データを容易に3次元データ化がなさ
れ、かつ既存の地図の更新ができることになる。That is, by this series of processing, digital map data having no elevation can be easily converted into three-dimensional data, and an existing map can be updated.
【0095】[0095]
【発明の効果】以上のように本発明によれば、2次元地
図を効率的に3次元地図化することができる。特に航空
写真を新しくとる必要がない場合は、コンピュータグラ
フィックスや都市3次元シミュレーションなどの用途に
用いての都市3次元モデルを既存地図から廉価に作成す
ることが可能となる。As described above, according to the present invention, a two-dimensional map can be efficiently converted into a three-dimensional map. In particular, when it is not necessary to take a new aerial photograph, a city three-dimensional model used for applications such as computer graphics and city three-dimensional simulation can be created at low cost from an existing map.
【0096】また、数値地図を3次元化することによ
り、2次元地図の経年変化修正業務において、新規の撮
影した地図をステレオ航空写真上に重ねることができ、
修正が容易になる。Further, by making the numerical map three-dimensional, a new photographed map can be superimposed on the stereo aerial photograph in the secular change correction work of the two-dimensional map.
Modification becomes easy.
【図1】本実施の形態1の不定形窓を用いた拡張イメー
ジング方法の概略構成図である。FIG. 1 is a schematic configuration diagram of an extended imaging method using an irregular window according to a first embodiment.
【図2】実施の形態2の不定形窓を用いた拡張イメージ
ング方法の概略構成図である。FIG. 2 is a schematic configuration diagram of an extended imaging method using an irregular window according to a second embodiment.
【図3】不定形窓の高さ方向の変更を説明する説明図で
ある。FIG. 3 is an explanatory diagram illustrating a change in the height direction of an irregular shaped window.
【図4】実施の形態3の比高を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a specific height according to a third embodiment.
【図5】各実施の形態の具体的な構成図である。FIG. 5 is a specific configuration diagram of each embodiment.
【図6】標高探索部の構成図である。FIG. 6 is a configuration diagram of an elevation search unit.
【図7】エリアセンサの幾何学的特性を説明する説明図
である。FIG. 7 is an explanatory diagram illustrating geometric characteristics of an area sensor.
【図8】地物データのメッシュ化の説明図である。FIG. 8 is an explanatory diagram of meshing of feature data.
【図9】撮影時期の異なるときの地物データの変化を説
明する説明図である。FIG. 9 is an explanatory diagram illustrating a change in feature data at different shooting times.
【図10】複雑な形状の建物の標高の求め方を説明する
説明図である。FIG. 10 is an explanatory diagram illustrating a method of obtaining an elevation of a building having a complicated shape.
【図11】実施の形態3の地図の更新を説明するフロー
チャートである。FIG. 11 is a flowchart illustrating updating of a map according to the third embodiment.
1 デジタル画像入力部 2 ハードディスク 3 標定要素算出部 4 数値地図入力部 5 処理対象地物データ抽出部 6 画像上地物計測部 7 標高探索部 DESCRIPTION OF SYMBOLS 1 Digital image input part 2 Hard disk 3 Orientation element calculation part 4 Numerical map input part 5 Processing object feature data extraction part 6 Image feature measurement part 7 Elevation search part
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09B 29/00 G09B 29/00 Z (72)発明者 内田 修 東京都新宿区新宿4−2−18 新宿光風ビ ル アジア航測株式会社内 (72)発明者 坂元 光輝 東京都新宿区新宿4−2−18 新宿光風ビ ル アジア航測株式会社内 (72)発明者 柴崎 亮介 東京都江東区猿江1丁目5−3−408 Fターム(参考) 2C032 HA02 5B050 BA02 BA07 BA17 DA02 DA04 DA05 DA10 EA07 EA18 EA19 EA27 EA28 FA13 5B057 AA13 AA14 CA08 CA12 CA13 CA16 CA18 CB08 CB13 CB18 CD01 CD14 CE11 5L096 AA09 BA18 CA04 EA17 FA34 FA69 GA41 JA05 JA09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G09B 29/00 G09B 29/00 Z (72) Inventor Osamu Uchida 4-2-18 Shinjuku, Shinjuku-ku, Shinjuku-ku, Tokyo Shinjuku Kofu Building Asia Air Survey Co., Ltd. (72) Mitsuteru Sakamoto Inventor 4-2-18 Shinjuku, Shinjuku-ku, Tokyo Shinjuku Kofu Building Asia Air Survey Co., Ltd. (72) Ryosuke Shibasaki 1-5-Sarie, Koto-ku, Tokyo 3-408 F term (reference) 2C032 HA02 5B050 BA02 BA07 BA17 DA02 DA04 DA05 DA10 EA07 EA18 EA19 EA27 EA28 FA13 5B057 AA13 AA14 CA08 CA12 CA13 CA16 CA18 CB08 CB13 CB18 CD01 CD14 CE11 5L096 AA41 FA18 FA09 GA04
Claims (3)
の組み合わせを用いたイメージングマッチング方法にお
いて、 前記2種類の画像に対して標定作業を行って関数で関係
づけた拡張ステレオモデルを生成する工程と、 前記拡張ステレオモデルの両方の画像に共通に存在する
既知の地物のポリゴン点列を基準の不定形窓とする工程
と、 前記不定形窓にそれぞれ高さ(z)を与えて、この高さ
(z)を変化させる工程と、 前記不定形窓の高さが変化される毎に、その高さに応じ
た前記拡張ステレオモデルの両方の画像上における投影
位置を求める工程と、 前記拡張ステレオモデルの両画像の投影位置における前
記不定形窓で区切られる領域の輝度値を比較する工程
と、 前記比較結果が最も近似したときの不定形窓の高さ
(z)を前記拡張ステレオモデルの両画像の地物の高さ
として出力する工程と、 前記出力された高さ(z)を用いて前記地物の3次元座
標を決定する工程とを有することを特徴とする不定形窓
を用いた画像間拡張イメージングマッチング方法。1. An imaging matching method using a combination of two types of images having different resolutions in the same area, wherein an orientation process is performed on the two types of images to generate an extended stereo model related by a function. And a step of using a polygon point sequence of a known feature which is present in both images of the extended stereo model in common as a reference irregular window; and giving a height (z) to each of the irregular windows, Changing a height (z); obtaining a projection position on both images of the extended stereo model according to the height each time the height of the irregular window is changed; Comparing the luminance values of the areas delimited by the irregular window at the projection positions of the two images of the stereo model; and calculating the height (z) of the irregular window when the comparison result is the closest to the extended window. An irregular window having a step of outputting as a feature height of both images of the teleo model, and a step of determining three-dimensional coordinates of the feature using the outputted height (z). Extended Image Matching Method between Images
高さが求められる毎に、前記地理データから前記高さを
減算して地物の比高を求める工程とを有することを特徴
とする請求項1記載の不定形窓を用いた画像間拡張イメ
ージングマッチング方法。2. The method according to claim 1, further comprising the step of: providing geographical data of the surface of a region, and subtracting the height from the geographical data to obtain a specific height of the feature every time the height of the feature is determined. 2. The extended imaging matching method between images using an irregular window according to claim 1.
しい画像に存在しないときは、前記地物が消失している
ことを知らせる工程とを有することを特徴とする請求項
1又は2記載の不定形窓を用いた画像間拡張イメージン
グマッチング方法。3. The method according to claim 1, further comprising the step of notifying that the feature has disappeared when an image based on the irregular shaped window does not exist in a new image. Extended Image-to-Image Imaging Matching Method Using Undefined Windows
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000251456A JP3618649B2 (en) | 2000-08-22 | 2000-08-22 | An extended image matching method between images using an indefinite window |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000251456A JP3618649B2 (en) | 2000-08-22 | 2000-08-22 | An extended image matching method between images using an indefinite window |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002063580A true JP2002063580A (en) | 2002-02-28 |
JP3618649B2 JP3618649B2 (en) | 2005-02-09 |
Family
ID=18740861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000251456A Expired - Fee Related JP3618649B2 (en) | 2000-08-22 | 2000-08-22 | An extended image matching method between images using an indefinite window |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3618649B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005274994A (en) * | 2004-03-25 | 2005-10-06 | Geo Technical Laboratory Co Ltd | Method of generating three-dimensional map data |
WO2006135040A1 (en) * | 2005-06-17 | 2006-12-21 | Omron Corporation | Image processing device and image processing method performing 3d measurement |
KR100753819B1 (en) | 2005-12-09 | 2007-08-31 | 한국전자통신연구원 | Multistatic radar detection system and method thereof |
US7283658B2 (en) | 2002-06-20 | 2007-10-16 | Ec Toshiba Space Systems, Ltd. | Topographic measurement using stereoscopic picture frames |
JP2009145314A (en) * | 2007-12-17 | 2009-07-02 | Korea Electronics Telecommun | Digital photogrammetry by integrated modeling of different types of sensors, and its device |
WO2010061861A1 (en) * | 2008-11-25 | 2010-06-03 | Necシステムテクノロジー株式会社 | Stereo matching process device, stereo matching process method, and recording medium |
US8116530B2 (en) | 2007-05-31 | 2012-02-14 | Nec System Technologies, Ltd. | Map change detection device, map change detection method, and program |
US8218853B2 (en) | 2005-07-28 | 2012-07-10 | Nec System Technologies, Ltd. | Change discrimination device, change discrimination method and change discrimination program |
JP2012186606A (en) * | 2011-03-04 | 2012-09-27 | Mitsubishi Electric Corp | Image display device |
US8682064B2 (en) | 2008-11-25 | 2014-03-25 | Nec System Technologies, Ltd. | Building change detection apparatus, building change detection method and program |
US8831335B2 (en) | 2008-11-25 | 2014-09-09 | Nec Solution Innovators, Ltd. | Stereo matching processing apparatus, stereo matching processing method and computer-readable recording medium |
WO2018042551A1 (en) * | 2016-08-31 | 2018-03-08 | 株式会社オプティム | Unnecessary object removal system, unnecessary object removal method and program |
CN109117699A (en) * | 2018-02-05 | 2019-01-01 | 田华 | Unmanned flight's platform real-time image transmission system and method |
JP2020004053A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Generation apparatus, generation method, and program |
JP2020008802A (en) * | 2018-07-12 | 2020-01-16 | 株式会社日立製作所 | Three-dimensional map generation device and three-dimensional map generation method |
JP2020095519A (en) * | 2018-12-13 | 2020-06-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Shape estimation device, shape estimation method, program, and recording medium |
-
2000
- 2000-08-22 JP JP2000251456A patent/JP3618649B2/en not_active Expired - Fee Related
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7283658B2 (en) | 2002-06-20 | 2007-10-16 | Ec Toshiba Space Systems, Ltd. | Topographic measurement using stereoscopic picture frames |
US7508972B2 (en) | 2002-06-20 | 2009-03-24 | Nec Toshiba Space Systems Ltd. | Topographic measurement using stereoscopic picture frames |
JP2005274994A (en) * | 2004-03-25 | 2005-10-06 | Geo Technical Laboratory Co Ltd | Method of generating three-dimensional map data |
JP4674051B2 (en) * | 2004-03-25 | 2011-04-20 | 株式会社ジオ技術研究所 | Method for generating 3D map data |
WO2006135040A1 (en) * | 2005-06-17 | 2006-12-21 | Omron Corporation | Image processing device and image processing method performing 3d measurement |
US8233041B2 (en) | 2005-06-17 | 2012-07-31 | Omron Corporation | Image processing device and image processing method for performing three dimensional measurements |
JP4811272B2 (en) * | 2005-06-17 | 2011-11-09 | オムロン株式会社 | Image processing apparatus and image processing method for performing three-dimensional measurement |
US8218853B2 (en) | 2005-07-28 | 2012-07-10 | Nec System Technologies, Ltd. | Change discrimination device, change discrimination method and change discrimination program |
KR100753819B1 (en) | 2005-12-09 | 2007-08-31 | 한국전자통신연구원 | Multistatic radar detection system and method thereof |
US8116530B2 (en) | 2007-05-31 | 2012-02-14 | Nec System Technologies, Ltd. | Map change detection device, map change detection method, and program |
JP2009145314A (en) * | 2007-12-17 | 2009-07-02 | Korea Electronics Telecommun | Digital photogrammetry by integrated modeling of different types of sensors, and its device |
JP4719753B2 (en) * | 2007-12-17 | 2011-07-06 | 韓國電子通信研究院 | Digital photogrammetry method and apparatus using heterogeneous sensor integrated modeling |
WO2010061861A1 (en) * | 2008-11-25 | 2010-06-03 | Necシステムテクノロジー株式会社 | Stereo matching process device, stereo matching process method, and recording medium |
CN102239503A (en) * | 2008-11-25 | 2011-11-09 | Nec软件系统科技有限公司 | Stereo matching process device, stereo matching process method, and recording medium |
JP2010128622A (en) * | 2008-11-25 | 2010-06-10 | Nec System Technologies Ltd | Stereo matching processing apparatus, stereo matching processing method and program |
US8682064B2 (en) | 2008-11-25 | 2014-03-25 | Nec System Technologies, Ltd. | Building change detection apparatus, building change detection method and program |
US8831335B2 (en) | 2008-11-25 | 2014-09-09 | Nec Solution Innovators, Ltd. | Stereo matching processing apparatus, stereo matching processing method and computer-readable recording medium |
JP2012186606A (en) * | 2011-03-04 | 2012-09-27 | Mitsubishi Electric Corp | Image display device |
JPWO2018042551A1 (en) * | 2016-08-31 | 2018-12-20 | 株式会社オプティム | Unnecessary object removal system, unnecessary object removal method and program |
WO2018042551A1 (en) * | 2016-08-31 | 2018-03-08 | 株式会社オプティム | Unnecessary object removal system, unnecessary object removal method and program |
CN109117699A (en) * | 2018-02-05 | 2019-01-01 | 田华 | Unmanned flight's platform real-time image transmission system and method |
CN109117699B (en) * | 2018-02-05 | 2019-04-16 | 新昌县雷涛机械有限公司 | Unmanned flight's platform real-time image transmission system and method |
JP2020004053A (en) * | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Generation apparatus, generation method, and program |
JP7278720B2 (en) | 2018-06-27 | 2023-05-22 | キヤノン株式会社 | Generation device, generation method and program |
JP2020008802A (en) * | 2018-07-12 | 2020-01-16 | 株式会社日立製作所 | Three-dimensional map generation device and three-dimensional map generation method |
JP2020095519A (en) * | 2018-12-13 | 2020-06-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Shape estimation device, shape estimation method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP3618649B2 (en) | 2005-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110648398B (en) | Real-time ortho image generation method and system based on unmanned aerial vehicle aerial data | |
US20080279447A1 (en) | Computational Solution Of A Building Of Three Dimensional Virtual Models From Aerial Photographs | |
JP6057298B2 (en) | Rapid 3D modeling | |
Kumar et al. | Registration of video to geo-referenced imagery | |
JP3618649B2 (en) | An extended image matching method between images using an indefinite window | |
US8963943B2 (en) | Three-dimensional urban modeling apparatus and method | |
US20030014224A1 (en) | Method and apparatus for automatically generating a site model | |
US20070269102A1 (en) | Method and System of Generating 3D Images with Airborne Oblique/Vertical Imagery, GPS/IMU Data, and LIDAR Elevation Data | |
US20110292208A1 (en) | High-resolution urban true orthoimage creation | |
CN111024089A (en) | Indoor positioning navigation method based on BIM and computer vision technology | |
JP4568845B2 (en) | Change area recognition device | |
KR100904078B1 (en) | A system and a method for generating 3-dimensional spatial information using aerial photographs of image matching | |
JP2003323640A (en) | Method, system and program for preparing highly precise city model using laser scanner data and aerial photographic image | |
JP4588369B2 (en) | Imaging apparatus and imaging method | |
Febro | 3D documentation of cultural heritage sites using drone and photogrammetry: a case study of Philippine UNESCO-recognized Baroque churches | |
CN114627237A (en) | Real-scene three-dimensional model-based front video image generation method | |
JP2010506337A (en) | System and method for visualizing and measuring real-world 3-D spatial data | |
Poloprutský et al. | 3D digital reconstruction based on archived terrestrial photographs from metric cameras | |
JP3966419B2 (en) | Change area recognition apparatus and change recognition system | |
JP4231279B2 (en) | Digital image processing device | |
Ahn et al. | Ortho-rectification software applicable for IKONOS high resolution images: GeoPixel-Ortho | |
JP2006024161A (en) | Model forming device and model forming method | |
Dlesk et al. | Possibilities of processing archival photogrammetric images captured by Rollei 6006 metric camera using current method | |
Mitishita et al. | 3D monocular restitution applied to small format digital airphoto and laser scanner data | |
US11776148B1 (en) | Multi-view height estimation from satellite images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041110 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071119 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091119 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101119 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111119 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121119 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |