JP3618649B2 - An extended image matching method between images using an indefinite window - Google Patents

An extended image matching method between images using an indefinite window Download PDF

Info

Publication number
JP3618649B2
JP3618649B2 JP2000251456A JP2000251456A JP3618649B2 JP 3618649 B2 JP3618649 B2 JP 3618649B2 JP 2000251456 A JP2000251456 A JP 2000251456A JP 2000251456 A JP2000251456 A JP 2000251456A JP 3618649 B2 JP3618649 B2 JP 3618649B2
Authority
JP
Japan
Prior art keywords
height
images
feature
image
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000251456A
Other languages
Japanese (ja)
Other versions
JP2002063580A (en
Inventor
和夫 織田
健 土居原
内田  修
光輝 坂元
亮介 柴崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2000251456A priority Critical patent/JP3618649B2/en
Publication of JP2002063580A publication Critical patent/JP2002063580A/en
Application granted granted Critical
Publication of JP3618649B2 publication Critical patent/JP3618649B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
航空写真や衛星画像など、同一地域を撮像した2種類以上の画像を利用して、標高を持たない2次元的な数値地図データを3次元データ化(標高値を付与)したり、既成の数値地図データに記述された地物の滅失を確認する手法に関する。
【0002】
【従来の技術】
従来の写真測量では、計測対象を同種のカメラを用いて異なる二箇所の位置(もしくはそれ以上)から撮影し、各画像上で対応点を求め、三角測量の原理に基づいて3次元空間内の位置を決定する作業を行う。
【0003】
この作業を自動的に行うための方法には、ステレオ画像を構成する一方の画像内の1点もしくは規則的な格子上に区分された領域、あるいは線構造(エッジ)に着目し、それに対応する点もしくは領域、あるいは線構造を、もう一方の画像で探索しマッチングするステレオマッチング方法が一般的である。
【0004】
【発明が解決しようとする課題】
しかし、この方法では、あらかじめ形状が分かっている領域が存在したとしても、例えば撮影高度、撮影日等が相違しているからその形状を探索条件とすることができない。
【0005】
そのため、この形状を拘束条件とするマッチングが行えず、効率的な標高の決定ができないことになり、結果としてその地物の3次元データを得ることができない。
【0006】
これは、例えば既往の数値地図データに記述された地物、例えば建物などに対して標高を与え3次元データ化しようとする際に、ステレオ画像によって計測された点や線を再度、データ編集しなければ3次元数値地図データの生成が行えないと言う問題になる。
【0007】
また、最近、高分解能商業衛星が実用化されたり、ラインスキャナを航空機に搭載しデジタル画像データを取得する試みも始まり、航空写真一種類に限らず同一地域を異なる撮像装置で画像化したデータが個別に入手される状況が広がり始めている。
【0008】
すなわち、従来の写真測量のように予めステレオの撮影を意図せず、同一地域を異なる位置から撮影した画像が個別に取得されるようになってきている。
【0009】
21世紀に向けた情報化社会においては、地理情報システム(GIS)の普及とともに、その情報基盤となる数値地図データをタイムリーに更新してデータを維持管理することが必要となる。
【0010】
しかし、最新の数値地図をタイムリーに得ようとしても、従来のような数年に1回のステレオ航空写真の撮影によるデータ更新では、適時更新は困難であり、しかもコストも低減できない。
【0011】
そこで、同一地域を適時、撮像し個別に取得される多種多様な画像を用いて従来の写真測量と同等の計測を行ったり地図更新を行うといったことが有用になってくる。しかし、現実にはそのようなシステムは存在しない。
【0012】
本発明は、以上の課題を解決するためになされたもので、同一地域を撮影した2種類以上の多種多様な画像を用いて標高を持たない数値地図データを容易に3次元データ化することによって、既存の地図の更新ができる画像間拡張イメージマッチング方法を得ることを目的とする。
【0013】
【課題を解決するための手段】
本発明は、同一地域の異なる解像度の2種類の画像の組み合わせを用いたイメージングマッチング方法において、前記2種類の画像に対して標定作業を行って関数で関係づけた拡張ステレオモデルを生成する工程と、前記拡張ステレオモデルの両方の画像に共通に存在する既知の地物のポリゴン点列を基準の不定形窓とする工程と、前記不定形窓にそれぞれ高さ(z)を与えて、この高さ(z)を変化させる工程と、前記不定形窓の高さが変化される毎に、その高さに応じた前記拡張ステレオモデルの両方の画像上における投影位置を求める工程と、前記拡張ステレオモデルの両画像の投影位置における前記不定形窓で区切られる領域の輝度値を比較する工程と、前記比較結果が最も近似したときの不定形窓の高さ(z)を前記拡張ステレオモデルの両画像の地物の高さとして出力する工程と、 前記出力された高さ(z)を用いて前記地物の3次元座標を決定する工程とを備えたことを要旨とする。
【0014】
【発明の実施の形態】
<実施の形態1>
本実施の形態1では、図1に示すように、航空機(ヘリコプタを含む)及び衛星で取得した同一地域の航空写真画像、衛星写真画像、ラインスキャナ画像の内の任意の組み合わせ〔衛星画像(写真又はラインスキャナ画像)と航空画像(写真又はラインスキャナ)との組み合わせ又は異なる高度の航空写真同士の組み合わせ若しくは異なる高度のスキャナ画像の組み合わせ等の組み合わせを含む〕を、コンピュータでデジタルフォーマット化してハードディスク等に格納して、この2つの解像度を合わせ(撮影高度、縮尺に基づく)、これらの画像に対して標定作業)を行う。
【0015】
そして、各々の画像に対して地上の3次元座標を各画像上の2次元座標に投影するための関数を決定する。このように地上の3次元座標を各々の画像座標に投影する関数によって2つの画像が関係づけられた画像の組み合わせを拡張ステレオモデルDi(輝度画像I1、輝度画像I2)と呼ぶことにする。
【0016】
このような拡張ステレオモデルDiを用いると、例えば、標高値を持たず2次元的に記述された既往の数値地図上の地物に標高を与え、3次元データ化することができる。
【0017】
すなわち、標高を求めたい任意の形状をした地物Bu(既知)を閉領域の基準の不定形窓Pl(ポリゴン列)とし、これが任意の標高地(高さ方向)をもつように定める。
【0018】
そして、この不定形窓Plの高さを変化させながら輝度画像I1、輝度画像I2に前述の関数を用いて輝度画像I1、I2上の位置を求め、この位置における不定形窓Plを投影したときの輝度画像I1、I2における輝度値を比較し、評価関数によって最も一致(近似)したと判定されたときの不定形的P1の高さ(標高値H)をその輝度画像における地物の高さと決定する。図1では標高値がH3のときに最も一致しているとした例である。
【0019】
また、図1では、理解を容易にするために、不定形窓Plの高さを変化させて輝度画像I1、I2に投影したときの不定形窓Plの形状を変えて示している。
【0020】
<実施の形態2>
また、地図更新において地図にない新築建物などを3次元データとして追加する場合がある。この場合、従来の方法では、オペレータがステレオ観測しながら3次元データ化しなければならないが、異なる種類の画像の組み合わせではオペレータはステレオ観測ができないし、そのようなシステムも存在しない。
【0021】
しかし、拡張ステレオモデルDiを用いると、この拡張ステレオモデルDiは輝度画像I1と輝度画像I2とが関数によって関係づけられているので、図2に示すように、例えば航空機によって得た輝度画像I1を画面に表示し、この画像上でマウス操作等で地物Buの輪郭に相当する閉領域B1を与える。そして、この閉領域に投影が一致する位置に不定形窓Plhを発生させ、標高H(z)を変化させる。
【0022】
例えば30m、80m、150mの順に標高を変化させると、30m、80m、150mと変化したときの輝度画像I1、I2における不定形窓Plhの輝度画像I1、I2の投影位置をその都度求めながら、この位置における不定形窓Plhを投影したときの輝度画像I1、I2における輝度値を比較し、評価関数によって最も一致(近似)したと判定されるときの不定形的P1hの高さ(標高値H)をその輝度画像における地物の高さと決定する。従って、地物Buの三次元座標を推定することができている。
【0023】
また、図2では、理解を容易にするために、不定形窓Plhの高さを変化させて輝度画像I1、I2に投影したときの不定形窓Plhの形状を変えて示している。
【0024】
つまり、実施の実施の形態1及び実施の形態2では図3に示すように、前述の組み合わせの画像同士を関数で関係させた拡張ステレオモデルの輝度画像I1、I2において、共通に写っている地物Buから得た不定形窓Plhの高さを変化させることによって、輝度画像I1、I2における投影位置を求め、この投影位置における不定形窓で区切られる輝度値の評価関数の一致(近似)で地物Buの高さを推定している。
【0025】
<実施の形態3>
また、数値地形モデルが利用できる場合は、図4に示すように、地物位置での標高を地物標高zから引くことにより、地物の比高も得る。これによって、正確な建物の高さを得ることができる。
【0026】
更に、例えば既往の数値地図に記述された建物に着目するとする。この比高が0に近い値に決定されたとすると、建物が滅失したものとして推定することができる。既に3次元座標が付与された建物についても、新規に撮影された画像と旧画像とで地物が投影される位置の画像を比較することにより、地物の滅失や変更を推定することもできる。
【0027】
次に、上記実施の形態1、2、3の具体例を以下に説明する。図5は、本発明の地物の標高および比高の推定方法の構成図である。図6は図5の標高探索部の概略構成図である。
【0028】
例えば、デジタル画像入力部1は、2つの画像をデジタル画像の形で画像処理装置であるコンピュータのハードディスク2等に格納する。このとき、航空写真のようにフィルムや印画紙として供給される画像の場合は、スキャナで読み取り、A/D変換部によってデジタル画像に変換する。この変換した2つの写真のデジタル画像のピクセル座標(x1pix,y1pix)および(x2pix,y2pix)における画像輝度をI(x1pix,y1pix)およびI(x2pix,y2pix)とする。
【0029】
また、前述のハードディスク2には、拡張ステレオモデル撮影時の対地高度Hと、画像間の撮影位置間隔(基線長B)と、2つの画像の1ピクセルに対応する地上解像度平均Dと、既知の建物のポリゴン(不定形窓)等が記憶されている。
【0030】
次に、標定要素算出部3は、2つの輝度画像I1、I2について、地上の3次元座標が投影される各画像の画像座標算出のための座標変換関数FX、逆座標変換関数関数GX(総称して標定情報ともいう)を決定する。これは航空写真測量において標定作業と呼ばれているものにあたる。標定作業の方法や求めるパラメータは画像センサ(例えばエリアセンサとリニアアレイセンサ)によって異なるが、最終的には、3次元空間内の点(x,y,z)が投影される左右画像のピクセル座標(x1pix,y1pix)および(x2pix,y2pix)を計算する関数を決定できる。
【0031】
つまり、次の4つの座標変換関数FX1(x,y,z)、FY1(x,y,z)、FX2(x,y,z)、FY2(x,y,z)を解析的、もしくは手続き的に決定できる。
【0032】
1pix=FX1(x,y,z) 式(1)
1pix=FY1(x,y,z) 式(2)
2pix=FX2(x,y,z) 式(3)
2pix=FY2(x,y,z) 式(4)
また、z=一定として式(1),式(2)を解析的又は手続的に解くと、各画像上の点がある標高zにあると仮定した時の地上でのx座標とy座標を求めることができる。
【0033】
x=GX1(x1pix,y1pix,z) 式(5)
y=GY1(x1pix,y1pix,z) 式(6)
同様に式(3),式(4)について解くと、
x=GX2(x2pix,y2pix,z) 式(7)
y=GY2(x2pix,y2pix,z) 式(8)
である。
【0034】
航空写真やエリアCCDセンサの様なエリアセンサ画像の場合については、関数FX1(x,y,z)、FY1(x,y,z)、FX2(x,y,z)、FY2(x,y,z)の詳細を図7に記述する。
【0035】
なお標定作業の方法については既存の方法を用いるものとする。例えばエリアCCDセンサの場合は文献[1]、リニア型中心投影センサについては文献[2]に詳しく記述されている。
【0036】
[1]日本写真測量学会:解析写真測量改訂版,1989。「2」内田修:ステレオ衛星画像を用いた3次元計測の自動化に関する研究,1989。
【0037】
また、図7における例えばエリアセンサ画像の座標変換関数は、
中心投影画像の投影中心の座標をP[X]、カメラの地上座標に対する回転角をT=[ω φ κ]、これらを合わせたもの(外部標定要素)をE=[tT tP]とする(左肩のtは転置行列もしくは転置ベクトルを示す)。このとき、地上座標P=[x y z]はカメラ座標系(投影中心に相対的な3次元座標系)pで次のように表現される。
【0038】
[x]=R(T)(R−P) 式(22)
ここで、R(T)は、次の式で定義される回転行列である。
【0039】
【数1】

Figure 0003618649
また、Pが投影される写真座標(投影中心の像(主点)を原点とする2次元座標)p(P,E)=[x y]は次の式で表わされる。
【0040】
【数2】
Figure 0003618649
ここでcは航空写真の焦点距離である。式(24)は、カメラの外部標定要素と地上点の3次元座標がわかれば、それに対応する写真座標がわかることを意味する。写真座標pは、物理的にフィルム面やCCD素子の上の実寸の座標であるが、フィルムを読みとる際のスキャナのひずみや非線形やCCD素子の配置誤差が無視できるとすれば、画像座標pimgとの関係は2次元の射影変換Hinで表すことができる。以上より、EおよびHinを知ることができれば、地上点の3次元座標から画像座標に変換することが可能となり、4つの座標変換関数FX1(x,y,z)、FY1(x,y,z)、FX2(x,y,z)、FY2(x,y,z)が求められたこととなる。
【0041】
また、写真座標p=(x,y)であるとすると、これはカメラ座標ではprp=(x,y,−c)である。これにより、p=(x,y)に写っている点の標高Zがあるとすると、この点の地上座標系における3次元座標P=(X,Y,Z)は次の式で与えられる。
【0042】
【数3】
Figure 0003618649
画像座標pimgに逆射影変換Hin−1を行った後、式(25)を適用すれば、Z=Zの拘束の元で画像座標から3次元座標への変換を行うことができる。つまり、座標変換関数GX1(x,y,z)、GY1(x,y,z)、GX2(x,y,z)、GY2(x,y,z)を求めることができる。
【0043】
一方、数値地図入力部4は、既存の数値地図を入力する。この数値地図は地物(たとえば建物データ)をベクター形式(座標点列データ)で保持しているものとする。数値地図が画像データの場合は、ラスター/ベクター変換によりベクター形式に直す。
【0044】
次に、処理対象地物データ抽出部5は、オペレータによる指示に従って数値地図データより、標高付けの対象となる地物データを抽出する。数値地図では一般に対象の種類(建物・道路等)の違いがコード付けされているので、抽出の際は対象となるコードの図形のみを抽出すればよい。
【0045】
そして、抽出した地物Buをポリゴン点列Pl(閉多角形、一般に最初と最後が同じ点となる点列(p1,p2,…,pn,p1)で表される)に変換する。 このとき、対象とする地物Buが建物データの場合は普通ポリゴン点列になっているものが多いので問題はない。ポリゴン点列になっていない地物の場合は、CADソフト等で編集してあらかじめポリゴン点列化しておく。
【0046】
また、画像上地物計測部6は、拡張ステレオモデルDiの画像上に建物等の地物Buがあるが、数値地図データに対象とする地物形状が記述されていない場合には、拡張ステレオ画像Di(輝度画像I1、I2)のどちらかを画面に表示し、その上でマウス操作により地物形状を入力する。この場合、地物形状はポリゴン点列Plとし、画像座標を列挙した閉図形(不定形窓)として入力する。例えば、図2においては、輝度画像I1からB1を選択し、このB1の不定形窓を得る。
【0047】
次に、標高探索部7は、標高の探索では、画像上地物計測部6で得られた各地物ポリゴン点列Pl(i=1,…,n)について、以下の処理を繰り返す。
【0048】
標高探索部7における標高探索範囲および探索間隔設定部7aは、標高の探索範囲(Hmin,Hmax)および探索間隔dHを設定する。
【0049】
このHminには、その地域の地表面の標高もしくはそれより小さい値を、Hmaxにはその地図の建物階数等から予想される地物の最大標高もしくはそれ以上の値を与える。
【0050】
地形モデル(国土地理院発行の数値地図50mメッシュ(標高)など)が利用できる場合は各地物位置での地表面の標高を推定することができる。
【0051】
また、利用できない場合は、すべての地物について適当に同じHminとHmaxを設定すればよい。またdzには、拡張ステレオモデルから測定される高さ方向の解像度を与えればよい。
【0052】
たとえば、各画像間の撮影位置間隔(基線長)をB、拡張ステレオモデル撮影時の対地高度の平均をH、2つの画像の1ピクセルに対応する地上解像度平均をDとすれば、dHは次の式で与えられる。
【0053】
【数4】
Figure 0003618649
またこの時、探索標高群Hを次のように定義する。
【0054】
=Hmin+dH×k(k=0,1,2,…n) 式(10)
ただし、nはH≦Hmaxとなる最大のkである。
【0055】
そして、不定形窓定義部7bは、地物データのそれぞれのポリゴン点列の内部をステレオマッチングの際の不定形窓として定義する。具体的には、図8に示すように、地物ポリゴン点列内に等間隔のメッシュ(dx、dy)を発生させ、これを不定形窓Plとする。
【0056】
この処理は、ポリゴン点列Plが数値地図(座標が地上座標)から得られたか、それとも画像上の計測結果(座標が画像座標)から得られたかによって処理が異なる。
【0057】
・数値地図から得られたポリゴン点列の時
地物データが数値地図起源の時は、図8に示すように、地物データBuのそれぞれのポリゴン点列の周辺に等間隔のメッシュ点群MPiを発生させる。メッシュは任意の地上座標に原点(ox,oy)を設定し、x方向およびy方向にdxおよびdyの間隔で発生させ、M(ox,oy,dx,dy)とする。
【0058】
なお、oxおよびoyは任意に取ってかまわない。またdxおよびdyは、デジタル航空写真の1ピクセル〜数ピクセルの地上解像度に設定する。
【0059】
ここでi番目の地物Fを表すポリゴン点列Plで囲まれる領域Plin内部に存在するメッシュの交点群MPを次のように定義する。
【0060】
MPi=Plin∩M(ox,oy,dx,dy) 式(11)
このようにして得た不定形窓Pliを用いて、例えば図1では、不定形窓Plの高さを変化させ輝度画像I1、輝度画像I2の投影位置を求め、この投影位置における両方の画像の輝度値を比較する。
【0061】
そして、輝度値の評価関数が最も一致(近似)したときの標高値Hを地物B1、B2の標高値zと決定する。
【0062】
・画像上の計測結果から得られたポリゴン点列の時は、不定形窓定義部7c(第2の不定形窓定義部ともいう)は、Plが画像上の計測結果の時は、評価関数計算ループ部7dの中できめられる標高Hにあわせてメッシュを作成する。
【0063】
今、Plが画像1上で計測されたと仮定し、i番目の画像座標を(px,py)とすると、この点が標高Hにあったときの地上
座標(X,Y)は、式(5)および式(6)を用いて、
=GX1(px,py,H) 式(12)
=GY1(px,py,H) 式(13)
で表される。こうしてすべてのポリゴン点列上の点を地上座標に戻した後、数値地図の場合と同様に変換して、メッシュ交点群MPikを得る。Plが画像上で計測された場合も式(12)および式(13)によって同様にメッシュ点群MPikを得る。
【0064】
このような不定形窓を用いることによって、例えば図2に示すように、航空機によって得た輝度画像I1を画面に表示し、この画像上でマウス操作等で座標が既知の地物B1の輪郭に相当する閉領域(不定形窓Plh:ポリゴン)を与える。そして、この不定形窓Plhを地物Buにおいて、標高H(z)を変化させる。
【0065】
前述の評価関数計算ループ部7dは、すべてのH(k=0,1,2,…,n)について、評価値E(H)を計算する。
【0066】
【数5】
Figure 0003618649
ここで、Ekjは、メッシュ交点群MPiのj番目の点(xj,yj)が標高Hkの高さにあると仮定した時の評価関数値である。評価値E(Hk)は、拡張ステレオモデル上の画像の画素値の一致の程度を評価し、一致が高くなる時に小さくなるものとする。
【0067】
すなわち、標高Hkの高さにあるメッシュ交点群MPiのj番目の点(xj,yj,Hk)が二つの画像I1およびI2の上へ、各々式(1)〜式(4)により投影されるとき、その位置にある画素値V1kjおよびV2kjを
Figure 0003618649
ここで、V1kj(x,y)、V2kj(x,y)は投影したときの画素値であり、(x,y,H)はHにあるときの不定形窓のポリゴン点群を示す。
【0068】
上記(15)式のように表せば、画素値の差の自乗Edifの総和や、画素値の相関係数に(−1)をかけた値Ecorなどを用いることができる。
【0069】
例えば、Edifは次の式で表される。
【0070】
【数6】
Figure 0003618649
また、Ecorは次の式で表される。
【0071】
【数7】
Figure 0003618649
そして、地物標高決定部7eは、i番目の地物Fの標高HFiを、評価関数E(H)を最小にする高さHkminとする。すなわち、
Figure 0003618649
次に、地物高さ計算部7fは、地形モデルがある場合は、2次元のポリゴン点列Plの位置の地表面高さを標高値HFiから引くことにより、地物比高HRiとして出力する。また、後で信頼性の解析に用いるため、標高値HFiでの評価関数値Eも地物の属性情報として出力する。
【0072】
そして、3次元地物データ出力部7eは、2次元のポリゴン点列Plのz座標に標高値HFiを付け加え、更に地表面比高HRiを属性データとして付け加えた3次元地物データPl3Dとして出力する。
【0073】
次に、3次元地図出力部8は、すべてのPl3Dをあわせて、標高付きの3次元地図として出力する。
【0074】
次に、標高推定の信頼性の評価について説明を補充する。
【0075】
次のような場合は、標高推定の信頼性の推定方法として、次の様な例が考えられる。
【0076】
・評価関数値Eが大きい時。つまり、あるしきい値をT2として、
≧T2 式(19)
T2の値の決定方法としては、評価関数値Eの平均値より、1〜2σ大きい値を設定することが合理的である。
【0077】
・求めた高さHFiが探索範囲の両端になる場合。つまり、
Fi=Hmin or HFi=Hmax 式(20)
この場合は、探索範囲が正しく設定されなかった可能性がある。
【0078】
また、地物の滅失や変更の推定する場合は、次のような場合、地物の滅失や変更の可能性が高いと推定できる。
【0079】
・地表面比高が小さい時。つまり、0に近いしきい値をT1として、
|HRi|≦T1 式(21)
また、信頼性が低くなる原因として、地物の高さ、大きさ等に変更が起こっている場合がある。
【0080】
例えば、図9に示すように、A年度の撮影時においては地物の標高がHorgであっても、数年後(経年変化)に撮影した場合は、標高がHorgからHnewに変化している場合がある。
【0081】
また、建物の大きさ(平面形状)も時間の経過に伴って変化している場合もある(C年度撮影)。
【0082】
標高の既知の地物の異動の推定の場合は、すでに標高が既知の地物の異動は次のように推定する。
【0083】
地物の標高をHorgとし、標高の探索範囲を
Horg−dH≦H≦Horg+dHにとる。
【0084】
経年変化がある場合は、推定した標高がHorgと大きく異なるか、評価関数値から標高推定の信頼性が低くなる。
【0085】
また、旧・新の撮影時期の異なる画像を拡張ステレオモデルに構成し、標高推定を行い、標高推定の信頼性が低くなる場合に経年変化があると判定することも可能である。
【0086】
また、例えば図10に示すように、地物が複雑な形状であったり、実際には一定の高さではない場合にも対応可能である。建物について実際に航空写真測量やレーザスキャナで計測した結果と比べてみると、建物の最頻値標高に近い値を示すことが実験で確認されている。
【0087】
また地物高さが0に近いときは、自動的に地物の滅失箇所候補として抽出し、修正の効率化を図ることができる。
【0088】
<実施の形態4>
次に地図の更新について図11のフローチャートを用いて説明する。本説明では予め3次元地図(旧)と、2次元地図(旧)と、新規撮影の拡張ステレオモデルとがディスクに記憶されているとする。
【0089】
このような状態において、二次元地図(旧)を読み込むと共に、拡張ステレオモデルとを読み込み、上記説明のように、既知の地物の不定形窓に高さを与え、これを変化させて拡張ステレオモデルの両方の画像上の投影位置を求め、この投影位置における不定形窓で区切られた領域の輝度値をそれぞれ求めて輝度値を比較し、比較結果が最も一致するときの不定形窓の高さを拡張ステレオモデルにおける地物の高さとする拡張ステレオマッチングによる標高付与処理を行い(S1)、この3次元地図データを途中成果として記憶する(S2)。
【0090】
そして、3次元地図(旧)と、この途中成果の3次元地図データと新規の拡張ステレオモデルとから変化を求める拡張ステレオマッチングによる変化抽出処理を行い(S3)、これを写真上(拡張ステレオモデル)に割り付ける前の途中成果の3次元地図として記憶する(S4)。
【0091】
次に、写真上での編集処理を行う(S5)。これは、デジタル写真測量ワークステーションを用いて行うのが望ましい。
【0092】
この編集処理は、ステップS4で得た途中成果の地物の3次元データを新規の拡張ステレオモデルの上にオーバレイしてモニターに表示し、3次元データと新規に撮影した拡張ステレオモデルとを比較することによってオペレータがマニュアルで編集を行う。ここでは拡張ステレオモデルとしては新規に撮影した一般的なステレオ画像を用いてもよいが、旧2次元地図を作成したときの画像と新規に撮影した画像とから構成されるステレオモデルを使用してもよい。
【0093】
そして、この編集処理で得られた3次元データに旧の3次元データを更新する処理を行う(S6)。
【0094】
つまり、この一連の処理によって、標高を持たない数値地図データを容易に3次元データ化がなされ、かつ既存の地図の更新ができることになる。
【0095】
【発明の効果】
以上のように本発明によれば、2次元地図を効率的に3次元地図化することができる。特に航空写真を新しくとる必要がない場合は、コンピュータグラフィックスや都市3次元シミュレーションなどの用途に用いての都市3次元モデルを既存地図から廉価に作成することが可能となる。
【0096】
また、数値地図を3次元化することにより、2次元地図の経年変化修正業務において、新規の撮影した地図をステレオ航空写真上に重ねることができ、修正が容易になる。
【図面の簡単な説明】
【図1】本実施の形態1の不定形窓を用いた拡張イメージング方法の概略構成図である。
【図2】実施の形態2の不定形窓を用いた拡張イメージング方法の概略構成図である。
【図3】不定形窓の高さ方向の変更を説明する説明図である。
【図4】実施の形態3の比高を説明する説明図である。
【図5】各実施の形態の具体的な構成図である。
【図6】標高探索部の構成図である。
【図7】エリアセンサの幾何学的特性を説明する説明図である。
【図8】地物データのメッシュ化の説明図である。
【図9】撮影時期の異なるときの地物データの変化を説明する説明図である。
【図10】複雑な形状の建物の標高の求め方を説明する説明図である。
【図11】実施の形態3の地図の更新を説明するフローチャートである。
【符号の説明】
1 デジタル画像入力部
2 ハードディスク
3 標定要素算出部
4 数値地図入力部
5 処理対象地物データ抽出部
6 画像上地物計測部
7 標高探索部[0001]
BACKGROUND OF THE INVENTION
Using two or more types of images taken from the same area, such as aerial photographs and satellite images, two-dimensional numerical map data without elevation is converted into three-dimensional data (altitude values are assigned), or existing numerical values The present invention relates to a method for confirming the loss of a feature described in map data.
[0002]
[Prior art]
In conventional photogrammetry, the object to be measured is taken from two different positions (or more) using the same type of camera, the corresponding points are obtained on each image, and the three-dimensional space in the three-dimensional space is obtained based on the principle of triangulation Work to determine the position.
[0003]
A method for automatically performing this work is to pay attention to one point in one image constituting a stereo image or a region divided on a regular grid, or a line structure (edge), and respond to it. A stereo matching method is generally used in which a point or region or a line structure is searched for and matched with another image.
[0004]
[Problems to be solved by the invention]
However, with this method, even if there is a region whose shape is known in advance, the shape cannot be used as a search condition because, for example, the photographing altitude and the photographing date are different.
[0005]
For this reason, matching using this shape as a constraint condition cannot be performed, and the elevation cannot be determined efficiently. As a result, the three-dimensional data of the feature cannot be obtained.
[0006]
This is because, for example, when an altitude is given to a feature described in the existing numerical map data, such as a building, and data is to be converted into three-dimensional data, the points and lines measured by the stereo image are edited again. Otherwise, there is a problem that 3D numerical map data cannot be generated.
[0007]
Recently, high-resolution commercial satellites have been put to practical use, and attempts have been made to acquire digital image data by installing line scanners on airplanes. The situation of individual acquisition is beginning to spread.
[0008]
That is, unlike the conventional photogrammetry, stereo images are not intended in advance, and images obtained by photographing the same region from different positions are being acquired individually.
[0009]
In the information-oriented society toward the 21st century, with the spread of geographic information systems (GIS), it is necessary to maintain and manage data by updating numerical map data that is the information base in a timely manner.
[0010]
However, even when trying to obtain the latest numerical map in a timely manner, the timely update is difficult and the cost cannot be reduced by the conventional data update by taking a stereo aerial photograph once every several years.
[0011]
Therefore, it becomes useful to perform measurement equivalent to conventional photogrammetry or update a map using various images acquired by individually capturing the same area in a timely manner. However, in reality there is no such system.
[0012]
The present invention has been made in order to solve the above-described problems. By easily converting numerical map data having no altitude into three-dimensional data using two or more kinds of images obtained by photographing the same area. An object is to obtain an extended image matching method between images that can update an existing map.
[0013]
[Means for Solving the Problems]
The present invention relates to an imaging matching method using a combination of two types of images having different resolutions in the same region, and a step of performing an orientation operation on the two types of images and generating an extended stereo model related by a function; A polygon point sequence of known features existing in common in both images of the extended stereo model is used as a standard irregular window, and a height (z) is given to each irregular window. A step of changing the height (z), a step of obtaining a projection position on both images of the extended stereo model corresponding to the height of the irregular window, and a step of the extended stereo A step of comparing luminance values of regions divided by the irregular window at the projection positions of both images of the model, and the height (z) of the irregular window when the comparison result is the closest approximation And outputting as the height of the feature of the images of Dell, and summarized in that comprising the step of determining the three-dimensional coordinates of the feature by using the output height (z).
[0014]
DETAILED DESCRIPTION OF THE INVENTION
<Embodiment 1>
In the first embodiment, as shown in FIG. 1, any combination of an aerial photograph image, satellite photograph image, and line scanner image of the same area acquired by an aircraft (including a helicopter) and a satellite [satellite image (photograph (Including a combination of a line scanner image) and an aerial image (photo or line scanner), a combination of aerial photographs of different altitudes or a combination of different altitude scanner images, etc.] The two resolutions are combined (based on the photographing altitude and scale) and the orientation work is performed on these images.
[0015]
Then, a function for projecting the three-dimensional coordinates on the ground onto the two-dimensional coordinates on each image is determined for each image. A combination of images in which two images are related by a function for projecting the three-dimensional coordinates of the ground onto the respective image coordinates is referred to as an extended stereo model Di (luminance image I1, luminance image I2).
[0016]
When such an extended stereo model Di is used, for example, an altitude can be given to a feature on an existing numerical map described two-dimensionally without having an altitude value, and can be converted into three-dimensional data.
[0017]
That is, the feature Bu (known) having an arbitrary shape for which the altitude is to be obtained is defined as the reference indefinite window Pl (polygon array) of the closed region, and has an arbitrary altitude ground (height direction).
[0018]
Then, the positions of the luminance images I1 and I2 are obtained by using the above-described functions for the luminance image I1 and the luminance image I2 while changing the height of the irregular window Pl, and the irregular window Pl at this position is projected. The luminance values in the luminance images I1 and I2 are compared, and the height (elevation value H) of the amorphous P1 when it is determined that the evaluation function matches most closely (approximate) the height of the feature in the luminance image. decide. FIG. 1 shows an example in which the highest value is obtained when the altitude value is H3.
[0019]
Further, in FIG. 1, for easy understanding, the shape of the irregular window Pl when the height of the irregular window Pl is changed and projected onto the luminance images I1 and I2 is changed.
[0020]
<Embodiment 2>
In addition, a new building that is not on the map may be added as three-dimensional data in the map update. In this case, in the conventional method, the operator must convert the data into three-dimensional data while observing the stereo, but the operator cannot perform the stereo observation with a combination of different types of images, and there is no such system.
[0021]
However, when the extended stereo model Di is used, the luminance image I1 and the luminance image I2 are related by a function in the extended stereo model Di, and therefore, as shown in FIG. A closed region B1 corresponding to the contour of the feature Bu is given on the screen by operating the mouse on the image. Then, an irregular window Plh is generated at a position where the projection coincides with the closed region, and the altitude H (z) is changed.
[0022]
For example, when the elevation is changed in the order of 30 m, 80 m, and 150 m, the projection positions of the luminance images I1 and I2 of the irregular window Plh in the luminance images I1 and I2 when changing to 30 m, 80 m, and 150 m are obtained each time. The luminance values in the luminance images I1 and I2 when the irregular window Plh at the position is projected are compared, and the height of the irregular P1h (elevation value H) when it is determined to be the closest (approximate) by the evaluation function Is determined as the height of the feature in the luminance image. Therefore, the three-dimensional coordinates of the feature Bu can be estimated.
[0023]
Further, in FIG. 2, for easy understanding, the shape of the irregular window Plh when the height of the irregular window Plh is changed and projected onto the luminance images I1 and I2 is changed.
[0024]
That is, in the first and second embodiments, as shown in FIG. 3, in the luminance images I1 and I2 of the extended stereo model in which the above-described combination images are related by functions, By changing the height of the irregular window Plh obtained from the object Bu, the projection position in the luminance images I1 and I2 is obtained, and the evaluation function of the luminance value divided by the irregular window at this projection position is matched (approximate). The height of the feature Bu is estimated.
[0025]
<Embodiment 3>
When a numerical terrain model can be used, as shown in FIG. 4, the specific height of the feature is also obtained by subtracting the elevation at the feature position from the feature elevation z. Thus, an accurate building height can be obtained.
[0026]
Further, for example, let us focus on a building described in an existing numerical map. If this specific height is determined to be a value close to 0, it can be estimated that the building has been lost. For buildings that have already been given three-dimensional coordinates, it is also possible to estimate the loss or change of the feature by comparing the image of the position where the feature is projected between the newly captured image and the old image. .
[0027]
Next, specific examples of the first, second, and third embodiments will be described below. FIG. 5 is a configuration diagram of the method for estimating the altitude and specific height of a feature according to the present invention. FIG. 6 is a schematic configuration diagram of the elevation search unit of FIG.
[0028]
For example, the digital image input unit 1 stores two images in the form of a digital image in a hard disk 2 of a computer that is an image processing apparatus. At this time, in the case of an image supplied as a film or photographic paper such as an aerial photograph, it is read by a scanner and converted into a digital image by an A / D converter. The pixel coordinates (x 1 pix , Y 1 pix ) And (x 2 pix , Y 2 pix ) For image brightness 1 (X 1 pix , Y 1 pix ) And I 2 (X 2 pix , Y 2 pix ).
[0029]
Also, the hard disk 2 described above includes a ground altitude H at the time of extended stereo model shooting, a shooting position interval (baseline length B) between images, a ground resolution average D corresponding to one pixel of two images, and a known Stores polygons (indefinite windows) of buildings.
[0030]
Next, the orientation element calculation unit 3 uses, for the two luminance images I1 and I2, a coordinate conversion function FX and an inverse coordinate conversion function function GX (generic name) for calculating image coordinates of each image on which the three-dimensional coordinates on the ground are projected. (Also referred to as orientation information). This corresponds to what is called orientation work in aerial photogrammetry. The orientation work method and required parameters differ depending on the image sensor (for example, the area sensor and the linear array sensor), but finally the pixel coordinates of the left and right images on which the point (x, y, z) in the three-dimensional space is projected (X 1 pix , Y 1 pix ) And (x 2 pix , Y 2 pix ) Can be determined.
[0031]
That is, the following four coordinate transformation functions FX1 (x, y, z), FY1 (x, y, z), FX2 (x, y, z), FY2 (x, y, z) are analyzed analytically or procedurally. Can be determined.
[0032]
x 1 pix = FX1 (x, y, z) Formula (1)
y 1 pix = FY1 (x, y, z) Equation (2)
x 2 pix = FX2 (x, y, z) Equation (3)
y 2 pix = FY2 (x, y, z) Equation (4)
Further, when equations (1) and (2) are solved analytically or procedurally with z = constant, the x-coordinate and y-coordinate on the ground when the point on each image is assumed to be at a certain altitude z are obtained. Can be sought.
[0033]
x = GX1 (x 1 pix , Y 1 pix , Z) Equation (5)
y = GY1 (x 1 pix , Y 1 pix , Z) Equation (6)
Similarly, when solving for Equation (3) and Equation (4),
x = GX2 (x 2 pix , Y 2 pix , Z) Equation (7)
y = GY2 (x 2 pix , Y 2 pix , Z) Equation (8)
It is.
[0034]
For area sensor images such as aerial photographs and area CCD sensors, the functions FX1 (x, y, z), FY1 (x, y, z), FX2 (x, y, z), FY2 (x, y , Z) are described in detail in FIG.
[0035]
It should be noted that the existing method is used for the orientation work method. For example, the area CCD sensor is described in detail in Document [1], and the linear center projection sensor is described in detail in Document [2].
[0036]
[1] Japan Photogrammetry Society: Analytical Photogrammetry Revised Edition, 1989. “2” Osamu Uchida: Research on automation of three-dimensional measurement using stereo satellite images, 1989.
[0037]
Further, for example, the coordinate conversion function of the area sensor image in FIG.
The coordinates of the projection center of the central projection image are P 0 = t [X 0 Y 0 Z 0 ], The rotation angle with respect to the ground coordinates of the camera is T = t [Ω φ κ], a combination of these (external orientation element) E = t [TT tP 0 ] (Left shoulder t indicates a transposed matrix or transposed vector). At this time, the ground coordinate P = t [X y z] is the camera coordinate system (a three-dimensional coordinate system relative to the projection center) p r Is expressed as follows.
[0038]
p r = t [X r y r z r ] = R (T) (RP 0 Formula (22)
Here, R (T) is a rotation matrix defined by the following equation.
[0039]
[Expression 1]
Figure 0003618649
In addition, the photographic coordinates (two-dimensional coordinates with the origin of the projection center image (principal point)) p (P, E) = t [Xy] is represented by the following equation.
[0040]
[Expression 2]
Figure 0003618649
Here, c is the focal length of the aerial photograph. Equation (24) means that if the external orientation elements of the camera and the three-dimensional coordinates of the ground point are known, the corresponding photographic coordinates can be known. The photographic coordinate p is physically the actual coordinate on the film surface or the CCD element, but if the distortion of the scanner when reading the film, non-linearity or the arrangement error of the CCD element can be ignored, the image coordinate pimg Can be expressed by a two-dimensional projective transformation Hin. From the above, if E and Hin can be known, it is possible to convert the three-dimensional coordinates of the ground point into image coordinates, and four coordinate conversion functions FX1 (x, y, z), FY1 (x, y, z) ), FX2 (x, y, z), FY2 (x, y, z) are obtained.
[0041]
If the photo coordinates p = (x, y), this is p in camera coordinates. rp = (X, y, -c). As a result, the altitude Z of the point shown in p = (x, y) p If there is, the three-dimensional coordinates P of this point in the ground coordinate system p = (X, Y, Z p ) Is given by:
[0042]
[Equation 3]
Figure 0003618649
Reverse projection transformation Hin to image coordinates img -1 And then applying equation (25), Z = Z p Conversion from image coordinates to three-dimensional coordinates can be performed under the constraints. That is, the coordinate conversion functions GX1 (x, y, z), GY1 (x, y, z), GX2 (x, y, z), and GY2 (x, y, z) can be obtained.
[0043]
On the other hand, the numerical map input unit 4 inputs an existing numerical map. It is assumed that this numerical map holds features (for example, building data) in a vector format (coordinate point sequence data). When the numerical map is image data, it is converted into a vector format by raster / vector conversion.
[0044]
Next, the processing target feature data extracting unit 5 extracts feature data to be altitude-added from the numerical map data in accordance with an instruction from the operator. Since numerical maps are generally coded with different types of objects (buildings, roads, etc.), only the figure of the target code need be extracted.
[0045]
Then, the extracted feature Bu is converted to a polygon point sequence Pl i (Closed polygon, generally represented by a sequence of points (p1, p2,..., Pn, p1) where the first and last points are the same). At this time, if the target feature Bu is building data, there are no problems because there are many normal polygon point sequences. In the case of a feature that is not in a polygon point sequence, it is edited with CAD software or the like to create a polygon point sequence in advance.
[0046]
Further, the image top feature measurement unit 6 has a feature Bu such as a building on the image of the extended stereo model Di, but when the target feature shape is not described in the numerical map data, the extended stereo model Di is used. One of the images Di (luminance images I1 and I2) is displayed on the screen, and a feature shape is input by operating the mouse on the screen. In this case, the feature shape is a polygon point sequence Pl i And entered as a closed figure (indefinite window) enumerating the image coordinates. For example, in FIG. 2, B1 is selected from the luminance image I1, and an irregular window of this B1 is obtained.
[0047]
Next, the elevation search unit 7 performs the feature polygon point sequence Pl obtained by the on-image feature measurement unit 6 in the elevation search. i (I = 1, ..., n i ), The following processing is repeated.
[0048]
The altitude search range and search interval setting unit 7a in the altitude search unit 7 sets the altitude search range (Hmin, Hmax) and the search interval dH.
[0049]
This Hmin is given an altitude on the ground surface of the area or a value smaller than that, and Hmax is given a value higher than or equal to the maximum altitude of the feature expected from the number of building floors of the map.
[0050]
If a terrain model (such as a numerical map 50m mesh (elevation) published by the Geospatial Information Authority of Japan) is available, the altitude of the ground surface at each feature position can be estimated.
[0051]
In addition, if it cannot be used, the same Hmin and Hmax may be appropriately set for all the features. Further, dz may be given a resolution in the height direction measured from the extended stereo model.
[0052]
For example, if the shooting position interval (baseline length) between each image is B, the average of the ground altitude at the time of extended stereo model shooting is H, and the average of the ground resolution corresponding to one pixel of two images is D, then dH is Is given by
[0053]
[Expression 4]
Figure 0003618649
At this time, search altitude group H k Is defined as follows.
[0054]
H k = Hmin + dH × k (k = 0, 1, 2,... N k Formula (10)
Where n k Is H k The maximum k that satisfies ≦ Hmax.
[0055]
Then, the irregular window defining unit 7b defines the inside of each polygon point sequence of the feature data as an irregular window at the time of stereo matching. Specifically, as shown in FIG. 8, meshes (dx, dy) of equal intervals are generated in the feature polygon point sequence, and this is generated as an indefinite window Pl. i And
[0056]
This processing is performed by the polygon point sequence Pl i The processing differs depending on whether is obtained from a numerical map (coordinates are ground coordinates) or measurement results on images (coordinates are image coordinates).
[0057]
-For polygon point sequences obtained from numerical maps
When the feature data originates from a numerical map, as shown in FIG. 8, a mesh point group MPi with equal intervals is generated around each polygon point sequence of the feature data Bu. The mesh has an origin (ox, oy) set at an arbitrary ground coordinate, and is generated at intervals of dx and dy in the x and y directions, and is defined as M (ox, oy, dx, dy).
[0058]
Note that ox and oy may be arbitrarily selected. Dx and dy are set to a ground resolution of one pixel to several pixels in the digital aerial photograph.
[0059]
Where i-th feature F i Polygon point sequence Pl i Area Plin surrounded by i Intersection group MP of mesh existing inside i Is defined as follows.
[0060]
MPi = Plin i ∩M (ox, oy, dx, dy) Equation (11)
For example, in FIG. 1, the height of the irregular window Pl is changed to obtain the projection positions of the luminance image I1 and the luminance image I2, and the projection positions of both images at the projection position are obtained. Compare brightness values.
[0061]
Then, the altitude value H when the evaluation functions of the luminance values are most matched (approximated) is determined as the altitude value z of the features B1 and B2.
[0062]
In the case of a polygon point sequence obtained from the measurement result on the image, the irregular window definition unit 7c (also referred to as a second irregular window definition unit) i Is the measurement result on the image, the altitude H created in the evaluation function calculation loop section 7d k Create a mesh to match.
[0063]
Pl now i Is measured on image 1, and the i-th image coordinate is (px j , Py j ), This point is at altitude H k When we were on the ground
Coordinates (X j , Y j ) Is obtained by using formula (5) and formula (6),
X j = GX1 (px j , Py j , H k Formula (12)
Y j = GY1 (px j , Py j , H k Formula (13)
It is represented by In this way, all the points on the polygon point sequence are returned to the ground coordinates, and then converted in the same manner as in the case of the numerical map, and the mesh intersection group MP ik Get. Pl i Is also measured on the image, the mesh point group MP is similarly expressed by the equations (12) and (13). ik Get.
[0064]
By using such an irregular window, for example, as shown in FIG. 2, a luminance image I1 obtained by an aircraft is displayed on the screen, and on this image, the contour of the feature B1 whose coordinates are known by a mouse operation or the like is displayed. A corresponding closed region (indefinite window Plh: polygon) is given. Then, the altitude H (z) of the irregular window Plh is changed in the feature Bu.
[0065]
The above-described evaluation function calculation loop unit 7d k (K = 0, 1, 2, ..., n k ) For evaluation value E (H k ).
[0066]
[Equation 5]
Figure 0003618649
Here, Ekj is an evaluation function value when it is assumed that the j-th point (xj, yj) of the mesh intersection group MPi is at the height of the altitude Hk. The evaluation value E (Hk) is evaluated when the degree of matching of the pixel values of the image on the extended stereo model is evaluated, and becomes small when the matching becomes high.
[0067]
That is, the j-th point (xj, yj, Hk) of the mesh intersection point group MPi at the height of the altitude Hk is projected onto the two images I1 and I2 by the expressions (1) to (4), respectively. When the pixel values V1kj and V2kj at that position are
Figure 0003618649
Where V1 kj (X j , Y j ), V2 kj (X j , Y j ) Is the pixel value when projected, and (x j , Y j , H k ) Indicates the polygon point group of the irregular window when in H.
[0068]
If expressed as the above equation (15), the sum of the squares of pixel value differences Edif, the value Ecor obtained by multiplying the correlation coefficient of pixel values by (−1), or the like can be used.
[0069]
For example, Edif k Is represented by the following equation.
[0070]
[Formula 6]
Figure 0003618649
Ecor k Is represented by the following equation.
[0071]
[Expression 7]
Figure 0003618649
Then, the feature altitude determining unit 7e reads the i-th feature F i Altitude H Fi Is evaluated function E (H k ) To minimize height H kmin And That is,
Figure 0003618649
Next, the feature height calculation unit 7f, when there is a topographic model, the two-dimensional polygon point sequence Pl i The height of the ground surface at the altitude value H Fi Feature height H by subtracting from Ri Output as. Also, the altitude value H is used for later analysis of reliability. Fi Evaluation function value E i Are also output as feature attribute information.
[0072]
Then, the three-dimensional feature data output unit 7e outputs a two-dimensional polygon point sequence Pl i Elevation value H in z coordinate Fi In addition, the ground surface specific height H Ri 3D feature data Pl3D with added as attribute data i Output as.
[0073]
Next, the 3D map output unit 8 sends all Pl3Ds. i Are output as a 3D map with elevation.
[0074]
Next, the explanation for the evaluation of the reliability of the altitude estimation will be supplemented.
[0075]
In the following cases, the following example can be considered as a method of estimating the reliability of altitude estimation.
[0076]
・ Evaluation function value E i When is big. In other words, let T2 be a certain threshold value.
E i ≧ T2 Formula (19)
As a method of determining the value of T2, the evaluation function value E i It is reasonable to set a value that is 1 to 2σ larger than the average value.
[0077]
・ Determined height H Fi Is at both ends of the search range. That means
H Fi = Hmin or H Fi = Hmax Formula (20)
In this case, the search range may not be set correctly.
[0078]
In addition, when estimating the loss or change of a feature, it can be estimated that the possibility of the loss or change of the feature is high in the following cases.
[0079]
・ When the ground surface specific height is small. That is, let T1 be a threshold value close to 0.
| H Ri | ≦ T1 Formula (21)
In addition, there is a case where a change in the height, size, etc. of the feature occurs as a cause of the low reliability.
[0080]
For example, as shown in FIG. 9, even when the altitude of the feature is Horg at the time of shooting in year A, the altitude changes from Horg to Hnew when shot after several years (aging). There is a case.
[0081]
In addition, the size (planar shape) of the building may also change with time (Fiscal year C).
[0082]
In the case of estimation of a change in a feature whose altitude is already known, a change in a feature whose altitude is already known is estimated as follows.
[0083]
The altitude of the feature is Horg, and the search range of the altitude is
Horg−dH ≦ H k ≦ Horg + dH.
[0084]
When there is a secular change, the estimated altitude is significantly different from Horg, or the reliability of altitude estimation from the evaluation function value is low.
[0085]
It is also possible to construct old stereo images with different shooting times as an extended stereo model, perform altitude estimation, and determine that there is a secular change when the altitude estimation reliability decreases.
[0086]
Further, for example, as shown in FIG. 10, it is possible to deal with a case where the feature has a complicated shape or is not actually a certain height. Experiments have confirmed that the building shows a value close to the mode elevation of the building when compared with the results of actual measurements with aerial photogrammetry and laser scanners.
[0087]
When the feature height is close to 0, the feature can be automatically extracted as a candidate for a lost portion of the feature, and correction can be made more efficient.
[0088]
<Embodiment 4>
Next, map update will be described with reference to the flowchart of FIG. In this description, it is assumed that a three-dimensional map (old), a two-dimensional map (old), and a newly captured extended stereo model are stored in advance on the disc.
[0089]
In such a state, the two-dimensional map (old) is read and the extended stereo model is read. As described above, the height of the amorphous window of the known feature is given, and this is changed to change the extended stereo model. Find the projection position on both images of the model, find the brightness value of the area divided by the irregular window at this projection position, compare the brightness value, and compare the height of the irregular window when the comparison results are the best match Elevation processing is performed by extended stereo matching using the height as the height of the feature in the extended stereo model (S1), and the 3D map data is stored as an intermediate result (S2).
[0090]
Then, a change extraction process is performed by extended stereo matching to obtain a change from the 3D map (old), the 3D map data obtained in the middle of the process, and the new extended stereo model (S3). ) Is stored as a three-dimensional map of intermediate results before being assigned to ().
[0091]
Next, editing processing on the photograph is performed (S5). This is preferably done using a digital photogrammetry workstation.
[0092]
In this editing process, the 3D data of the intermediate result obtained in step S4 is overlaid on the new extended stereo model and displayed on the monitor, and the 3D data is compared with the newly captured extended stereo model. By doing so, the operator manually edits. Here, a newly taken general stereo image may be used as the extended stereo model, but a stereo model composed of an image obtained when an old 2D map was created and a newly taken image is used. Also good.
[0093]
And the process which updates old three-dimensional data to the three-dimensional data obtained by this edit process is performed (S6).
[0094]
That is, by this series of processing, the numerical map data having no elevation is easily converted into three-dimensional data, and the existing map can be updated.
[0095]
【The invention's effect】
As described above, according to the present invention, a two-dimensional map can be efficiently converted into a three-dimensional map. In particular, when it is not necessary to take a new aerial photograph, it is possible to inexpensively create a three-dimensional city model for use in computer graphics and three-dimensional city simulation.
[0096]
In addition, by converting the numerical map into a three-dimensional map, it is possible to superimpose a new photographed map on a stereo aerial photograph in a two-dimensional map aging correction work, and the correction becomes easy.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an extended imaging method using an indefinite window according to the first embodiment.
FIG. 2 is a schematic configuration diagram of an extended imaging method using an indefinite window according to the second embodiment.
FIG. 3 is an explanatory diagram for explaining a change in the height direction of an indefinite window.
FIG. 4 is an explanatory diagram for explaining the specific height of the third embodiment.
FIG. 5 is a specific configuration diagram of each embodiment.
FIG. 6 is a configuration diagram of an elevation search unit.
FIG. 7 is an explanatory diagram illustrating geometric characteristics of an area sensor.
FIG. 8 is an explanatory diagram of meshing of feature data.
FIG. 9 is an explanatory diagram for explaining changes in feature data when shooting times are different;
FIG. 10 is an explanatory diagram for explaining how to obtain the altitude of a building having a complicated shape.
FIG. 11 is a flowchart illustrating map update according to the third embodiment.
[Explanation of symbols]
1 Digital image input section
2 Hard disk
3 Orientation element calculation part
4 Numerical map input part
5 Feature data extraction unit for processing
6 Image top feature measurement unit
7 Elevation search section

Claims (3)

同一地域の異なる解像度の2種類の画像の組み合わせを用いたイメージングマッチング方法において、
前記2種類の画像に対して標定作業を行って関数で関係づけた拡張ステレオモデルを生成する工程と、
前記拡張ステレオモデルの両方の画像に共通に存在する既知の地物のポリゴン点列を基準の不定形窓とする工程と、
前記不定形窓にそれぞれ高さ(z)を与えて、この高さ(z)を変化させる工程と、
前記不定形窓の高さが変化される毎に、その高さに応じた前記拡張ステレオモデルの両方の画像上における投影位置を求める工程と、
前記拡張ステレオモデルの両画像の投影位置における前記不定形窓で区切られる領域の輝度値を比較する工程と、
前記比較結果が最も近似したときの不定形窓の高さ(z)を前記拡張ステレオモデルの両画像の地物の高さとして出力する工程と、
前記出力された高さ(z)を用いて前記地物の3次元座標を決定する工程と
を有することを特徴とする不定形窓を用いた画像間拡張イメージングマッチング方法。
In an imaging matching method using a combination of two types of images with different resolutions in the same region,
Performing an orientation operation on the two types of images and generating an extended stereo model related by function;
A polygon point sequence of a known feature that exists in common in both images of the extended stereo model is used as a standard amorphous window;
Providing each of the irregular windows with a height (z) and changing the height (z);
Each time the height of the irregular window is changed, obtaining a projection position on both images of the extended stereo model according to the height; and
Comparing luminance values of regions separated by the irregular window at the projection positions of both images of the extended stereo model;
Outputting the height (z) of the irregular window when the comparison result is most approximated as the height of the feature of both images of the extended stereo model;
And a step of determining a three-dimensional coordinate of the feature using the output height (z), and an extended image matching method between images using an indefinite window.
地域の地表の地理データを備え、地物の高さが求められる毎に、前記地理データから前記高さを減算して地物の比高を求める工程と
を有することを特徴とする請求項1記載の不定形窓を用いた画像間拡張イメージングマッチング方法。
2. The method includes the step of subtracting the height from the geographical data to obtain a specific height of the feature every time the height of the feature is obtained, and having geographical data of the surface of the area. An inter-image extended imaging matching method using the described irregular window.
前記不定形窓に基づく画像が撮影日が新しい画像に存在しないときは、前記地物が消失していることを知らせる工程と
を有することを特徴とする請求項1又は2記載の不定形窓を用いた画像間拡張イメージングマッチング方法。
The non-standard window according to claim 1 or 2, further comprising a step of notifying that the feature has disappeared when the image based on the non-standard window does not exist in a new image. The inter-image extended imaging matching method used.
JP2000251456A 2000-08-22 2000-08-22 An extended image matching method between images using an indefinite window Expired - Fee Related JP3618649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000251456A JP3618649B2 (en) 2000-08-22 2000-08-22 An extended image matching method between images using an indefinite window

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000251456A JP3618649B2 (en) 2000-08-22 2000-08-22 An extended image matching method between images using an indefinite window

Publications (2)

Publication Number Publication Date
JP2002063580A JP2002063580A (en) 2002-02-28
JP3618649B2 true JP3618649B2 (en) 2005-02-09

Family

ID=18740861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000251456A Expired - Fee Related JP3618649B2 (en) 2000-08-22 2000-08-22 An extended image matching method between images using an indefinite window

Country Status (1)

Country Link
JP (1) JP3618649B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181800B2 (en) 2002-06-20 2008-11-19 Nec東芝スペースシステム株式会社 Topographic measurement system, storage medium, and program using stereo image
JP4674051B2 (en) * 2004-03-25 2011-04-20 株式会社ジオ技術研究所 Method for generating 3D map data
WO2006135040A1 (en) * 2005-06-17 2006-12-21 Omron Corporation Image processing device and image processing method performing 3d measurement
JP4339289B2 (en) 2005-07-28 2009-10-07 Necシステムテクノロジー株式会社 Change determination device, change determination method, and change determination program
KR100753819B1 (en) 2005-12-09 2007-08-31 한국전자통신연구원 Multistatic radar detection system and method thereof
JP4378571B2 (en) 2007-05-31 2009-12-09 Necシステムテクノロジー株式会社 MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM
KR100912715B1 (en) * 2007-12-17 2009-08-19 한국전자통신연구원 Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
US8682064B2 (en) 2008-11-25 2014-03-25 Nec System Technologies, Ltd. Building change detection apparatus, building change detection method and program
US8831335B2 (en) 2008-11-25 2014-09-09 Nec Solution Innovators, Ltd. Stereo matching processing apparatus, stereo matching processing method and computer-readable recording medium
JP5229733B2 (en) * 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 Stereo matching processing device, stereo matching processing method and program
JP5665608B2 (en) * 2011-03-04 2015-02-04 三菱電機株式会社 Image display device
WO2018042551A1 (en) * 2016-08-31 2018-03-08 株式会社オプティム Unnecessary object removal system, unnecessary object removal method and program
CN109117699B (en) * 2018-02-05 2019-04-16 新昌县雷涛机械有限公司 Unmanned flight's platform real-time image transmission system and method
JP7278720B2 (en) * 2018-06-27 2023-05-22 キヤノン株式会社 Generation device, generation method and program
JP2020008802A (en) * 2018-07-12 2020-01-16 株式会社日立製作所 Three-dimensional map generation device and three-dimensional map generation method
JP2020095519A (en) * 2018-12-13 2020-06-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Shape estimation device, shape estimation method, program, and recording medium

Also Published As

Publication number Publication date
JP2002063580A (en) 2002-02-28

Similar Documents

Publication Publication Date Title
JP3618649B2 (en) An extended image matching method between images using an indefinite window
Kumar et al. Registration of video to geo-referenced imagery
JP6057298B2 (en) Rapid 3D modeling
US7509241B2 (en) Method and apparatus for automatically generating a site model
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
US20080279447A1 (en) Computational Solution Of A Building Of Three Dimensional Virtual Models From Aerial Photographs
JP4058293B2 (en) Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model
US20110292208A1 (en) High-resolution urban true orthoimage creation
Peña-Villasenín et al. 3-D modeling of historic façades using SFM photogrammetry metric documentation of different building types of a historic center
JP4568845B2 (en) Change area recognition device
JP4588369B2 (en) Imaging apparatus and imaging method
Febro 3D documentation of cultural heritage sites using drone and photogrammetry: a case study of Philippine UNESCO-recognized Baroque churches
Sevara Capturing the Past for the Future: an Evaluation of the Effect of Geometric Scan Deformities on the Performance of Aerial Archival Media in Image‐based Modelling Environments
Poloprutský et al. 3D digital reconstruction based on archived terrestrial photographs from metric cameras
JP4491293B2 (en) Model forming apparatus and model forming method
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
JP2006172099A (en) Changed region recognition device and change recognition system
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2004086266A (en) Method, device and program for acquiring shape and recording medium with the program recorded thereon
JP4231279B2 (en) Digital image processing device
JP3691401B2 (en) Method and apparatus for automatically acquiring and restoring the surface of an object to be photographed
Ahn et al. Ortho-rectification software applicable for IKONOS high resolution images: GeoPixel-Ortho
Mitishita et al. 3D monocular restitution applied to small format digital airphoto and laser scanner data
Wild et al. AUTOGRAF—AUTomated Orthorectification of GRAFfiti Photos. Heritage 2022, 5, 2987–3009
Li Orthoimage generation and measurement from single images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111119

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121119

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees