JP2004030461A - Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon - Google Patents

Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2004030461A
JP2004030461A JP2002188580A JP2002188580A JP2004030461A JP 2004030461 A JP2004030461 A JP 2004030461A JP 2002188580 A JP2002188580 A JP 2002188580A JP 2002188580 A JP2002188580 A JP 2002188580A JP 2004030461 A JP2004030461 A JP 2004030461A
Authority
JP
Japan
Prior art keywords
matching
edge
region
stereo
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002188580A
Other languages
Japanese (ja)
Inventor
Masafumi Nakagawa
中川 雅史
Ryosuke Shibazaki
柴▲崎▼ 亮介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Starlabo Corp
Original Assignee
Starlabo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Starlabo Corp filed Critical Starlabo Corp
Priority to JP2002188580A priority Critical patent/JP2004030461A/en
Publication of JP2004030461A publication Critical patent/JP2004030461A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform accurate stereo matching. <P>SOLUTION: The surface of the ground is scanned by a TLS (three line sensor) to obtain front sight image Pf, right-under sight image Pn and a back sight image Pb of a city ground surface A. The respective images are divided into a plurality of regions R<SB>fk</SB>, R<SB>nk</SB>and R<SB>bk</SB>by texture analysis. A feature point on the region R<SB>nk</SB>is extracted to calculate a line of sight vector Vf to the feature point in the front sight image Pf. The presence/non-presence of an intersection between three-dimensional data on the city ground surface A acquired by a laser scanner and the line of sight vector Vf is investigated. After the non-presence of the intersection is confirmed, the region R<SB>nk</SB>is projected on an epitaxial polar line to perform region matching. Further, straight line edges near the regions R<SB>fk</SB>and R<SB>nk</SB>are extracted. Matching of the straight line edges is performed by narrowing down a matching range near the regions R<SB>fk</SB>and R<SB>nk</SB>. At such a time, a corresponding straight line edge is searched based upon a positional relationship between the regions R<SB>fk</SB>and R<SB>nk</SB>and the straight line edge. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、エッジマッチング方法、エッジマッチングプログラム、エッジマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体(以下、単に「記録媒体」という。)、ステレオマッチング方法、ステレオマッチングプログラム及びステレオマッチングプログラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】
従来のステレオマッチング法は、一つのステレオ画像中のエッジをマッチングするにあたって、他のステレオ画像で検出されたエッジ群全体から対応するエッジを検索するものであった。
【0003】
【発明が解決しようとする課題】
しかしながら、従来のステレオマッチング法には次のような問題点があった。すなわち、一般に画像中には類似のエッジが存在するので、正確なエッジマッチングするのが困難である。また、一つのステレオ画像中の特徴点が他のステレオ画像における隠蔽部にある(他のステレオ画像を撮像する際の特徴点に対する視線ベクトルがオブジェクトに遮られる)ために、特徴点をマッチングできないことがある。その結果、正確なステレオマッチングができなくなってしまうという問題点があった。
【0004】
本発明は、上記問題を解決するためになされたものであり、正確なステレオマッチングを可能ならしめるエッジマッチング方法、ステレオマッチング方法等を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、本発明のエッジマッチング方法は、互いに異なる方向から同一のオブジェクト群を撮像した複数のステレオ画像に基づいてオブジェクト群の三次元データを取得するステレオマッチング法を行う際に、ステレオ画像から抽出したエッジをマッチングするエッジマッチング方法であって、各ステレオ画像を複数の領域に分割する領域分割ステップと、一つのステレオ画像における領域と、他のステレオ画像における領域とをマッチングする領域マッチングステップと、領域近傍のエッジを抽出するエッジ抽出ステップと、マッチングされた領域それぞれの近傍におけるエッジ同士をマッチングするエッジマッチングステップとを含むことを特徴とする。
【0006】
画像中で検出される数が少なくかつそれぞれが際立った特徴量を有する領域同士のマッチングは、エッジマッチングと比較して少ない計算量でより正確に行うことができる。このような領域マッチングの結果を利用してエッジマッチングの範囲を絞ることにより、正確なエッジマッチングを可能ならしめる。また、エッジマッチングの範囲を絞ることにより、計算量も軽減することができる。さらに、マッチングされた領域との位置関係を利用してエッジマッチングすることで更にエッジマッチングの正確性を向上させることができる。
【0007】
本発明のエッジマッチング方法は、領域マッチングステップにおいて、予め取得された領域の三次元データに基づいて、マッチングがなされることが好適である。
【0008】
また、本発明のエッジマッチング方法は、領域マッチングステップにおいて、領域の面積と形状とのうち少なくとも一方に基づいて、マッチングがなされることが好適である。
【0009】
また、本発明のエッジマッチング方法は、領域マッチングステップにおいて、更に、領域の濃度分布に基づいて、マッチングがなされることが好適である。
【0010】
ステレオマッチング法以外の方法で取得された領域の三次元データ又は領域の面積及び形状に基づいてマッチングがなされることにより、大まかな領域マッチングを少ない計算量で行うことができる。これと領域の濃度に基づく領域マッチングとを組み合わせた多段階マッチングを行うことにより、マッチングの正確性を向上させることができる。
【0011】
本発明のエッジマッチング方法は、エッジ抽出ステップにおいて抽出されるエッジが直線エッジであり、エッジマッチングステップにおいて、直線エッジの長さ、直線エッジの傾き及び直線エッジ両側の平均濃度に基づいて、マッチングがなされることが好適である。
【0012】
直線エッジをマッチングすることにより、対応するエッジを検索するのが容易になる。また、直線エッジの長さ、直線エッジの傾き及び直線エッジ両側の平均濃度に基づいてマッチングがなされることにより、より正確にエッジマッチングすることができる。
【0013】
上記課題を解決するために、本発明のステレオマッチング方法は、互いに異なる方向から同一のオブジェクト群を撮像した複数のステレオ画像に基づいてオブジェクト群の三次元データを取得するステレオマッチング法において、一つのステレオ画像から特徴点を抽出する特徴点抽出ステップと、他のステレオ画像における投影中心点の三次元座標を始点とし、予め取得された特徴点の三次元座標を終点とする視線ベクトルを算出する視線ベクトル算出ステップと、視線ベクトルと、予め取得されたオブジェクト群の三次元データとの交点の存在から、特徴点が他のステレオ画像における隠蔽部にあることを判断する隠蔽部判断ステップとを含み、隠蔽部判断ステップで特徴点が他のステレオ画像における隠蔽部にあると判断された場合に、一つのステレオ画像と、更に他のステレオ画像とを用いて特徴点の三次元座標を算出することを特徴とする。
【0014】
他のステレオ画像における特徴点に対する視線ベクトルと、ステレオマッチング法以外の方法で取得された領域の三次元データとの交点の有無を調査することにより、機械的に特徴点がこのステレオ画像における隠蔽部にあることを判断できる。特徴点が隠蔽部にある場合には更に他のステレオ画像を用いて特徴点のステレオマッチングをすることにより、正確なエッジマッチングを可能ならしめる。
【0015】
【発明の実施の形態】
以下、添付図面を参照して、本発明のエッジマッチング方法、エッジマッチングプログラム、エッジマッチングプログラムを記録した記録媒体、ステレオマッチング方法、ステレオマッチングプログラム及びステレオマッチングプログラムを記録した記録媒体の好適な実施形態について詳細に説明する。
【0016】
まず、本実施形態のエッジマッチング方法及びステレオマッチング方法を適用した三次元鳥瞰データ取得方法Aを説明する。三次元鳥瞰データ取得方法Aは、都市上空を飛行する航空機から撮像した都市地上面のステレオ画像から、都市地上面の三次元データを取得するものである。ステレオ画像の撮像装置としては、TLS(Three line sensor)が用いられる。TLSとは、3つのリニアCCDをそれぞれが同一の飛行方向線上に配置されるように航空機に搭載したものであり、3つのリニアCCDが、それぞれ、都市地上面の前方視画像Pf、直下視画像Pn、後方視画像Pbを撮像する。すなわち、TLSを走査することにより、同一範囲の都市地上面を互いに異なる方向から撮像したステレオ画像(前方視画像Pf、直下視画像Pn、後方視画像Pb)を得ることができる(図9を参照)。三次元鳥瞰データ取得方法Aでは、直下視画像Pnと前方視画像Pfの組又は直下視画像Pnと後方視画像Pbの組を用いてステレオマッチングすることにより、撮像された都市地上面の三次元データを取得する。以下にその手順を説明する。
【0017】
図1及び2は、三次元鳥瞰データ取得方法Aにより特定範囲の都市地上面A(建物オブジェクト群)の三次元データを取得する手順を示すフローチャートである。まず、TLSにより都市地上面Aの前方視画像Pf、直下視画像Pn、後方視画像Pbを撮像すると共に、それぞれの撮像時におけるリニアCCDの投影中心点Cf、Cn、Cbの三次元座標を算出する(S102)。投影中心点Cf、Cn、Cbの三次元座標を算出する方法としては、GPSなどを用いることができる。なお、以下に現れる三次元座標は、特段の説明がない限り、同一の座標系に基づいているものとする。
【0018】
前方視画像Pf、直下視画像Pn、後方視画像Pbのそれぞれについて、テクスチャ解析をした上、複数の領域Rfk、Rnk、Rbk;k=1〜mに分割する(S104)。テクスチャ解析は、画像中で巨視的に濃度(画素値)が均一に分布している部分を検出することにより行われる。その具体的手法としては、領域拡張法、レベルライジング法などがある。
【0019】
領域Rnk;k=x近傍の直線エッジを抽出する(S106)。ここで、直線エッジ抽出の詳細な手順を説明する。図3は、直線エッジ抽出の詳細な手順を示すフローチャートである。まず、画像中のエッジ(濃度変化の激しい部分であって、変化部分が線状に連なるところ)を検出する(S302)。その具体的手法としては、Canny法などがある。なお、直線エッジとは、概ね直線上に並ぶ変化部分に相当する画素の連なりにおいて、直線からの微小なずれを修正したものをいうものとする。
【0020】
検出されたエッジに直線テンプレートを当て嵌める(S304)。図8は、直線テンプレート及び直線テンプレートが当て嵌められる型枠を示す図である。直線テンプレートが当て嵌められる型枠は3ピクセル×3ピクセルで構成され、型枠中で変化部分に相当する画素が線状に連なっていると仮定した場合、直線テンプレートとしては、22.5°ずつ角度が異なる8つの方向性のものλ1〜8が適用される。図8に示す型枠と直線テンプレートλ1〜8との対応関係に従って、型枠ごとに直線テンプレートλ1〜8が当て嵌められる。
【0021】
当て嵌めた直線テンプレートで表現された直線の統合(直線化修正)が行われる(S306)。ここでは、隣り合う二つの直線テンプレートが角度差22.5°でずれている場合に、かかる直線テンプレートで表現された直線を統合する。
【0022】
領域Rnk;k=x近傍の直線エッジ群における特徴点を抽出する(S108)。具体的には、直線エッジの両端を特徴点とする。
【0023】
各特徴点が前方視画像Pfにおける隠蔽部にあるか判断する(S110)。ここで、特徴点が前方視画像Pfにおける隠蔽部にあるか判断する詳細な手順を説明する。図4は、特徴点が前方視画像Pfにおける隠蔽部にあるか判断する詳細な手順を示すフローチャートである。
【0024】
まず、レーザスキャンにより都市地上面の三次元データ(3Dレーザデータ曲面)を算出する(S402)。図10は、レーザスキャナが実行される様子を示す図である。上空を飛行する航空機から地上面のランダムポイントに向けてレーザ光を発し、ランダムポイントで散乱したレーザ光が戻ってくるまでの時間から、航空機に搭載されたレーザスキャナ装置とランダムポイントとの距離を算出し、さらにレーザ光を照射する際のレーザスキャナ装置の三次元座標及びレーザ光の照射角度からランダムポイントの三次元座標を算出する。この処理を繰り返しつつ、地上面を走査することにより地上面の三次元データを得ることができる。ただし、一般に、ここで得られる三次元座標はステレオマッチング法に比べて間隔の大きい離散値であり、この離散値を補間して地上面の大まかな三次元データ(3Dレーザデータ曲面)を得る。
【0025】
前方視画像Pfを撮像する際の特徴点に対する視線ベクトルVfを算出する(S404)。具体的には、前方視画像Pfの投影中心点Cfの三次元座標を始点とし、レーザスキャナで得られる特徴点の三次元座標を終点とするベクトルを算出し、これを視線ベクトルVfとする。
【0026】
都市地上面の三次元データ(3Dレーザデータ曲面)と、視線ベクトルVfとに交点があるか判断する(S406)。図9は、都市地上面の三次元データ(3Dレーザデータ曲面)と、視線ベクトルVfとが交わる様子を示す図である。ここで交点が存在することは、前方視画像Pfの投影中心点Cfから特徴点を見たときに、視線が他の地上物によって遮られることを意味する。そこで、交点があるときには、特徴点は前方視画像Pfの隠蔽部にあると判断する(S408)。他方、交点がないときには、特徴点は前方視画像Pfの隠蔽部にないと判断する(S409)。S110において、各特徴点について以上の処理を繰り返す。
【0027】
いずれの特徴点も前方視画像Pfの隠蔽部にないと判断されたときには、領域Rnkを前方視画像Pfに投影して領域マッチングを行う(S112)。他方、いずれかの特徴点が前方視画像Pfの隠蔽部にあると判断されたときには、前方視画像Pfに代えて後方視画像Pbをステレオ画像に選択し、領域Rnkを後方視画像Pbに投影して領域マッチングを行う(S113)。片方のステレオ画像における隠蔽の存在は正確なステレオマッチングを妨げる原因の一つとなる。しかし、本実施形態では、上記のように都市地上面の三次元データ(3Dレーザデータ曲面)と視線ベクトルVfとの交点の有無を調査することにより、機械的に隠蔽の存在を検出することができる。さらに、前方視画像Pfに隠蔽の存在が検出されたとき、前方視画像Pfに代えて後方視画像Pbをステレオ画像に選択することでステレオマッチングの正確性が向上する。
【0028】
以下にS112、202、204、206及び208の処理(前方視画像Pfをステレオ画像に選択したときの処理)を説明するが、これらの処理はS113、203、205、207及び209の処理(後方視画像Pbをステレオ画像に選択したときの処理)と同一であるので、S113、203、205、207及び209の説明は省略する。S112における領域マッチングの詳細な手順を説明する。図5は、領域マッチングの詳細な手順を示すフローチャートである。
【0029】
まず、領域Rnk中心点の前方視画像Pf上におけるエピポーララインを算出する(S502)。エピポーララインとは、対象画像とエピポーラ面(対象画像の投影中心点及び対象点が切り出された画像における対象点に対する視線ベクトルを含む面)との交線を指す。S502においては次のようにしてエピポーララインが算出される。(1)直下視画像Pn上における領域Rnk中心点の二次元座標と投影中心点Cnとの相対位置関係から、領域Rnk中心点の三次元座標を算出する。(2)領域Rnk中心点、投影中心点Cn及び投影中心点Cfの三次元座標を含む平面の三次元データを算出し、これをエピポーラ面とする。(3)投影中心点Cfと前方視画像Pfとの相対位置関係から、前方視画像Pfの三次元データを算出する。(4)エピポーラ面と前方視画像Pfとの交線の三次元データを算出し、これをエピポーララインとする。
【0030】
エピポーラライン上に領域Rnk中心点が乗るように、領域Rnkを前方視画像Pfに投影する(S504)。
【0031】
領域Rnk中心点をエピポーララインに沿って移動させつつ、領域Rnkとエピポーラライン上の各領域Rfkとの領域形状マッチング係数Rを算出する(S506)。領域形状マッチング係数Rは、二つの領域の大きさ及び形状の類似性並びに二つの領域の重なり度合いを示す相関係数であり、次の式(1)に表される。
【数1】

Figure 2004030461
:領域Rnkが占める画素数
:領域Rfkが占める画素数
:領域Rnkと領域Rfkとがオーバーラップする範囲の画素数
【0032】
式(1)に表されるように、領域形状マッチング係数Rの分母をN(領域Rnkが占める画素数)でなく、N(領域Rnkが占める画素数)とN(領域Rfkが占める画素数)との積とすることにより、この相関係数が、領域Rnkにおけるオーバーラップの程度だけを示すものではなく、領域Rfkにおいてどれだけの程度でオーバーラップされているかも示すものとなる。
【0033】
図11は、領域形状マッチング係数Rの算出結果の例を示す図である。図11において、x方向にエピポーラライン上にある各領域Rfkの領域番号kを示す。y軸方向に領域Rnk中心点のエピポーラライン上における位置を示す。z軸方向に領域形状マッチング係数Rを示す。それぞれの領域番号kについて領域形状マッチング係数Rのピークが存在するが、そのピークのうち最も高いピークを検出する。最も高いピークを有する領域Rfkが領域Rnkに対応すると判断し、かつこのピークが現れるエピポーラライン上の位置に領域Rnk中心点があるときに領域Rnkと領域Rfkがマッチングされると判断する(S508)。このように、領域中心点のエピポーラライン上にマッチング範囲を限定することにより、計算量を軽減させると共にマッチングの正確性を向上させることができる。また、領域形状マッチング係数Rを用いた領域マッチング(領域の面積及び形状に基づく領域マッチング)により、大まかな領域マッチングを少ない計算量で行うことができる。
【0034】
S508で検出された最大ピークが現れるエピポーラライン上の位置の付近で領域Rnkを動かしつつ、投影した領域Rnkとこれと重なった領域との画素値相関係数Sを算出する(S510)。画素値相関係数Sは、二つの領域における濃度分布の類似性を示す相関係数であり、次の式(2)に表される。
【数2】
Figure 2004030461
l:領域Rnkの前方視画像Pfにおけるx方向の大きさ(ピクセル)
m:領域Rnkの前方視画像Pfにおけるy方向の大きさ(ピクセル)
f(u,v):前方視画像Pf上の座標(u,v)における前方視画像Pfの画
素値
n(u,v):前方視画像Pf上の座標(u,v)における領域Rnkの画素値
【0035】
画素値相関係数Sのピークを検出し、このときの領域Rnkの位置において領域マッチングなされたものとする(S512)。このように、多段階の領域マッチングを行うことにより、マッチングの正確性を向上させることができる。また、画素値相関係数Sを用いた領域マッチング(領域の濃度分布に基づく領域マッチング)により、投影した領域とこれに対応する領域とを正確に重ね合わせることができる。
【0036】
領域Rfk近傍の直線エッジを抽出する(S202)。直線エッジ抽出の具体的手順はS106と同一である。
【0037】
S106で抽出された領域Rnk近傍の直線エッジを前方視画像Pfに投影し、直線エッジマッチングを行う(S204)。ここで、直線エッジマッチングの詳細な手順を説明する。図7は、直線エッジマッチングの詳細な手順を示すフローチャートである。まず、投影された直線エッジと方向性の近い直線エッジを検索する(S702)。ただし、検索される範囲は、S112でマッチングされた領域の近傍周囲に限定される。
【0038】
さらに、投影された直線エッジと長さの近い直線エッジを絞り込み検索する(S704)。
【0039】
マッチングされた領域Rfk、領域Rnkそれぞれとの位置関係に基づき対応する直線エッジを絞り込み検索する(S706)。
【0040】
直線エッジ両側の平均濃度に基づき対応する直線エッジを絞り込み検索する(S708)。このように、S112でマッチングされた領域の近傍にマッチング範囲を限定することにより、すなわち領域マッチングを行った後に領域マッチングの結果を利用してエッジマッチングの範囲を限定することにより、少ない計算量で正確にマッチングすることができる。また、エッジを直線化修正した上でエッジマッチングすることにより、対応するエッジを検索するのが容易になる。加えて、多段階の直線エッジマッチングを行うことにより、マッチングの正確性を向上させることができる。
【0041】
S108と同様に領域Rfk近傍の直線エッジの特徴点を抽出する(S206)。
【0042】
S108及びS206で得られた直線エッジの特徴点のマッチングをする(S208)。
【0043】
マッチングされた各特徴点の三次元座標を算出する(S210)。ここで、前方視画像Pfと直下視画像Pnにおいてマッチングされた特徴点の三次元座標算出方法を説明する。図12は、ステレオマッチング法において対応点(特徴点)の三次元座標が算出される論理を説明する図である。理論的には前方視画像Pfにおける特徴点に対する視線ベクトルと、直下視画像Pnにおける特徴点に対する視線ベクトルとの交点の三次元座標を算出することにより特徴点の三次元座標を得ることができる。しかし、現実には投影中心点の測定誤差などの原因により視線ベクトルが交わらないことがある。そこで、視線ベクトル間の距離が最も近くなる点Of、Onの中点を特徴点の三次元位置とする。
【0044】
以下に、特徴点の三次元座標を算出する具体的手順を示す。(1)まず、前方視画像Pf上の特徴点の三次元座標と、投影中心点Cfの三次元座標とを通過する直線の単位ベクトルを算出し、これから視線ベクトルEf(Xfp,Yfp,Zfp)を算出する。視線ベクトルEfは、次の式(3)に表される。
【数3】
Figure 2004030461
(Xfc,Yfc,Zfc):投影中心点Cfの三次元座標
(Vfx,Vfy,Vfz):前方視画像Pf上の特徴点の三次元座標と、投影中心点Cfの三次元座標とを通過する直線の単位ベクトル
:パラメータ
【0045】
(2)直下視画像Pn上の特徴点の三次元座標と、投影中心点Cnの三次元座標とを通過する直線の単位ベクトルを算出し、これから視線ベクトルEn(Xnp,Ynp,Znp)を算出する。視線ベクトルEnは、次の式(4)に表される。
【数4】
Figure 2004030461
(Xnc,Ync,Znc):投影中心点Cnの三次元座標
(Vnx,Vny,Vnz):直下視画像Pn上の特徴点の三次元座標と、投影中心点Cnの三次元座標とを通過する直線の単位ベクトル
:パラメータ
【0046】
(3)視線ベクトル間の距離が最も近くなるときのパラメータt、tを算出し、これから視線ベクトル間の距離が最も近くなる点Of、Onの三次元座標を得る。
【0047】
(4)視線ベクトル間の距離が最も近くなる点Of、Onの中点の三次元座標を算出する。S210において以上の計算を繰り返して各特徴点の三次元座標を算出する。
【0048】
S208の結果から直線エッジの三次元データを取得する。このようにして三次元線分群が得られる(S212)。
【0049】
領域Rnkの三次元データを算出する(S214)。その具体的方法としては、直線エッジの特徴点と領域Rnkとを紐付ける方法、あるいは領域Rnkの領域全体、縁部又は角部を領域Rnkの特徴点とし、ステレオマッチングによりこの特徴点の三次元座標を算出する方法などが考えられる。ここで算出する領域Rnkの三次元データは大まかなものでよい。
【0050】
すべての領域RnkについてS108からS214までの処理が完了した場合にはS222に進む。未処理の領域Rnkが存在する場合には領域Rnk;k=x+1近傍の直線エッジを抽出した上で(S215)、S108に戻る(S216)。
【0051】
上記の処理で得られた三次元線分群及び領域の三次元データを3Dワークスペース(三次元座標系)に投影する(S218)。
【0052】
領域の三次元データを覆うように三次元線分群を再構成する(S220)。三次元線分群は上記の処理により高い精度で求めることができるが、都市の鳥瞰図を得る上では意味のないものも含まれている。しかし、領域の三次元データを参考にして三次元線分群を再構成することにより、オブジェクトとして意味のあるデータを生成することができる。
【0053】
再構成された三次元線分群で構成される領域に建物屋上面のテンプレートを当て嵌め、建物屋上面を設定する(S222)。
【0054】
得られた建物屋上面と地表面とつなぐ側壁を形成させることによりソリッド化して、建物セグメントを得る(S224)。
【0055】
近接する建物セグメントをクラスタリングして、建物オブジェクトを得る(S226)。以上の手順を踏むことにより、都市地上面Aの三次元データを得ることができる。
【0056】
次に、領域マッチングの別の実施形態を説明する。図6は、領域マッチング(S112の処理)の別の実施形態における手順を示すフローチャートである。まず、レーザスキャナの測定結果から領域Rfk及び領域Rnkの平均高さを算出する(S602)。上記に説明したレーザスキャナをTLSに近接して設置することにより、前方視画像Pf、直下視画像Pn上のランダムポイントの高さ情報を得ることができる。
【0057】
前方視画像Pfにおける領域Rnk中心点のエピポーララインを算出する(S604)。
【0058】
領域Rnkの平均高さと、エピポーラライン上の領域Rfkの平均高さとを比較して領域Rnkに対応する領域Rfkを検出する(S606)。
【0059】
S606で検出された領域Rfkと重なるように領域Rnkを前方視画像Pfに投影する。さらに、その周辺で領域Rnkを移動させつつ、領域Rnkとこれに対応する領域Rfkとの画素値相関係数Sを算出する(S608)。
【0060】
画素値相関係数Sのピークを検出し、このときの領域Rnkとこれに対応する領域Rfkとの位置関係において領域マッチングなされたものとする(S610)。このように、領域形状マッチング係数Rを用いた大まかな領域マッチングに代えて、レーザスキャナの測定結果で得られた領域の高さ情報に基づいて大まかな領域マッチングを行っても、S502〜512の領域マッチング方法と同様の効果を得ることができる。
【0061】
なお、上記の実施形態では、上空から地上に向けてTLS走査するものであったが、建物オブジェクト群の側方から水平方向にステレオ画像の撮像を行うことによって建物オブジェット群側壁の三次元データを取得し、これから都市地上面の三次元データを取得してもよい。
【0062】
次に、本発明の実施形態に係るエッジマッチングプログラム3及びエッジマッチングプログラム3を記録した記録媒体13について説明する。図13は、エッジマッチングプログラム3及びエッジマッチングプログラム3を記録した記録媒体13の構成図である。エッジマッチングプログラム3は、その構成要素として、領域分割モジュール32、領域マッチングモジュール34、エッジ抽出モジュール36及びエッジマッチングモジュール38を含んで構成される。エッジマッチングプログラム3を後述のコンピュータに適用することにより、上記のエッジマッチング方法が実行される。
【0063】
次に、本発明の実施形態に係るステレオマッチングプログラム4及びステレオマッチングプログラム4を記録した記録媒体14について説明する。図14は、ステレオマッチングプログラム4及びステレオマッチングプログラム4を記録した記録媒体14の構成図である。ステレオマッチングプログラム4は、その構成要素として、特徴点抽出モジュール42、視線ベクトル算出モジュール44、隠蔽部判断モジュール46及びステレオ画像選択モジュール48を含んで構成される。ステレオマッチングプログラム4を後述のコンピュータに適用することにより、上記のステレオマッチング方法が実行される。
【0064】
図15は、エッジマッチングプログラム3又はステレオマッチングプログラム4が実行されるコンピュータ5の物理的構成を示す図である。コンピュータ5は、物理的構成要素として、中央処理装置(CPU)52、オペレーティングシステムを常駐させた作業用メモリ54、読み取り装置56、ディスプレイ57及び入力装置58を備える。
【0065】
記録媒体13又は記録媒体14が読み取り装置56に挿入されると、記録媒体13又は記録媒体14に記録された情報が読み取り装置56からアクセス可能となり、エッジマッチングプログラム3又はステレオマッチングプログラム4が、コンピュータ5によって実行される。
【0066】
【発明の効果】
以上説明したように、本発明により、正確なステレオマッチングを可能ならしめるエッジマッチング方法、ステレオマッチング方法等を提供することができる。
【図面の簡単な説明】
【図1】三次元鳥瞰データ取得方法Aにより特定範囲の都市地上面A(建物オブジェクト群)の三次元データを取得する手順を示す第1のフローチャートである。
【図2】三次元鳥瞰データ取得方法Aにより特定範囲の都市地上面A(建物オブジェクト群)の三次元データを取得する手順を示す第2のフローチャートである。
【図3】直線エッジ抽出の詳細な手順を示すフローチャートである。
【図4】特徴点が前方視画像Pfにおける隠蔽部にあるか判断する詳細な手順を示すフローチャートである。
【図5】領域マッチングの詳細な手順を示すフローチャートである。
【図6】領域マッチングの別の実施形態における手順を示すフローチャートである。
【図7】直線エッジマッチングの詳細な手順を示すフローチャートである。
【図8】直線テンプレート及び直線テンプレートが当て嵌められる型枠を示す図である。
【図9】都市地上面の三次元データ(3Dレーザデータ曲面)と、視線ベクトルVfとが交わる様子を示す図である。
【図10】レーザスキャナが実行される様子を示す図である。
【図11】領域形状マッチング係数Rの算出結果の例を示す図である。
【図12】ステレオマッチング法において対応点(特徴点)の三次元座標が算出される論理を説明する図である。
【図13】エッジマッチングプログラム3及びエッジマッチングプログラム3を記録した記録媒体13の構成図である。
【図14】ステレオマッチングプログラム4及びステレオマッチングプログラム4を記録した記録媒体14の構成図である。
【図15】エッジマッチングプログラム3又はステレオマッチングプログラム4が実行されるコンピュータ5の物理的構成を示す図である。
【符号の説明】
13、14…記録媒体、3…エッジマッチングプログラム、32…領域分割モジュール、34…領域マッチングモジュール、36…エッジ抽出モジュール、38…エッジマッチングモジュール、4…ステレオマッチングプログラム、42…特徴点抽出モジュール、44…視線ベクトル算出モジュール、46…隠蔽部判断モジュール、48…ステレオ画像選択モジュール、5…コンピュータ、52…CPU、54…作業用メモリ、56…読み取り装置、57…ディスプレイ、58…入力装置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention records an edge matching method, an edge matching program, a computer-readable recording medium (hereinafter, simply referred to as a “recording medium”) recording the edge matching program, a stereo matching method, a stereo matching program, and a stereo matching program. It relates to a recording medium.
[0002]
[Prior art]
In the conventional stereo matching method, when matching edges in one stereo image, a corresponding edge is searched from the entire edge group detected in another stereo image.
[0003]
[Problems to be solved by the invention]
However, the conventional stereo matching method has the following problems. That is, since similar edges generally exist in an image, it is difficult to perform accurate edge matching. In addition, since the feature point in one stereo image is in the concealment part in another stereo image (the line of sight vector to the feature point when capturing another stereo image is blocked by the object), the feature point cannot be matched. There is. As a result, there is a problem that accurate stereo matching cannot be performed.
[0004]
The present invention has been made to solve the above problem, and has as its object to provide an edge matching method, a stereo matching method, and the like that enable accurate stereo matching.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, the edge matching method of the present invention is used when performing a stereo matching method of acquiring three-dimensional data of an object group based on a plurality of stereo images obtained by imaging the same object group from different directions. An edge matching method for matching edges extracted from a stereo image, comprising: an area dividing step of dividing each stereo image into a plurality of areas; and matching an area in one stereo image with an area in another stereo image. The method is characterized by including a region matching step, an edge extraction step of extracting edges near the region, and an edge matching step of matching edges near each of the matched regions.
[0006]
Matching between regions having a small number of detections in an image and each having a distinctive feature amount can be performed more accurately with a smaller amount of calculation than edge matching. By narrowing down the range of edge matching using the result of such area matching, accurate edge matching can be performed. Further, by narrowing the range of edge matching, the amount of calculation can be reduced. Furthermore, the accuracy of edge matching can be further improved by performing edge matching using the positional relationship with the matched region.
[0007]
In the edge matching method of the present invention, it is preferable that in the region matching step, matching is performed based on three-dimensional data of the region acquired in advance.
[0008]
In the edge matching method of the present invention, it is preferable that in the region matching step, matching is performed based on at least one of an area and a shape of the region.
[0009]
In the edge matching method of the present invention, it is preferable that in the region matching step, matching is performed based on the density distribution of the region.
[0010]
By performing matching based on the three-dimensional data of the region or the area and shape of the region acquired by a method other than the stereo matching method, rough region matching can be performed with a small amount of calculation. By performing multi-stage matching in which this is combined with region matching based on the density of the region, the accuracy of matching can be improved.
[0011]
In the edge matching method of the present invention, the edge extracted in the edge extraction step is a straight edge, and in the edge matching step, matching is performed based on the length of the straight edge, the slope of the straight edge, and the average density on both sides of the straight edge. Preferably, this is done.
[0012]
Matching straight edges makes it easier to find corresponding edges. Further, by performing matching based on the length of the straight edge, the inclination of the straight edge, and the average density on both sides of the straight edge, edge matching can be performed more accurately.
[0013]
In order to solve the above problem, the stereo matching method of the present invention is a stereo matching method for acquiring three-dimensional data of an object group based on a plurality of stereo images obtained by imaging the same object group from different directions. A feature point extraction step of extracting feature points from a stereo image, and a gaze direction calculating a gaze vector starting from the three-dimensional coordinates of the projection center point in another stereo image and ending with the three-dimensional coordinates of the feature points acquired in advance. A vector calculation step, a line-of-sight vector, and a concealment unit determining step of determining that a feature point is in a concealment unit in another stereo image from the presence of an intersection with the three-dimensional data of the previously acquired object group, When the feature point is determined to be in the concealment part in another stereo image in the concealment part determination step, And One of the stereo image, further characterized in that to calculate the three-dimensional coordinates of the feature points by using the other stereo image.
[0014]
By investigating the presence or absence of an intersection between the line-of-sight vector for the feature point in another stereo image and the three-dimensional data of the region obtained by a method other than the stereo matching method, the feature point is mechanically hidden by the concealment unit in this stereo image. Can be determined. When the feature point is in the concealment unit, accurate edge matching is enabled by performing stereo matching of the feature point using still another stereo image.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, with reference to the accompanying drawings, preferred embodiments of an edge matching method, an edge matching program, a recording medium on which an edge matching program is recorded, a stereo matching method, a stereo matching program, and a recording medium on which a stereo matching program is recorded according to the present invention. Will be described in detail.
[0016]
First, a three-dimensional bird's-eye view data acquisition method A to which the edge matching method and the stereo matching method of the present embodiment are applied will be described. The three-dimensional bird's-eye view data acquisition method A is for acquiring three-dimensional data of a city ground surface from a stereo image of the city ground surface captured from an aircraft flying over the city. A TLS (Three Line Sensor) is used as a stereo image pickup device. The TLS is one in which three linear CCDs are mounted on an aircraft such that they are arranged on the same flight direction line, and the three linear CCDs are respectively a forward-looking image Pf and a direct-downward-looking image of a city ground surface. Pn, a rear-view image Pb is captured. That is, by scanning the TLS, it is possible to obtain a stereo image (a front-view image Pf, a nadir-view image Pn, and a rear-view image Pb) that captures the same area of a city ground surface from different directions (see FIG. 9). ). In the three-dimensional bird's-eye view data acquisition method A, stereo matching is performed using a set of the nadir view image Pn and the forward-view image Pf or a set of the nadir view image Pn and the rear-view image Pb, thereby obtaining a three-dimensional image of the captured city ground surface. Get data. The procedure will be described below.
[0017]
1 and 2 are flowcharts showing a procedure for acquiring three-dimensional data of a city ground surface A (building object group) in a specific range by a three-dimensional bird's-eye data acquisition method A. First, a forward view image Pf, a nadir view image Pn, and a backward view image Pb of the city ground surface A are captured by TLS, and the three-dimensional coordinates of the projection center points Cf, Cn, and Cb of the linear CCD at the time of each capture are calculated. (S102). As a method for calculating the three-dimensional coordinates of the projection center points Cf, Cn, Cb, GPS or the like can be used. Note that the three-dimensional coordinates appearing below are based on the same coordinate system unless otherwise specified.
[0018]
The front-view image Pf, the nadir-view image Pn, and the back-view image Pb are each subjected to texture analysis, and then divided into a plurality of regions R fk , R nk , R bk ; k = 1 to m (S104). The texture analysis is performed by detecting a portion in the image where the density (pixel value) is uniformly distributed macroscopically. Specific methods include a region expansion method and a level rising method.
[0019]
Region R nk ; Extract straight edges near k = x (S106). Here, a detailed procedure of straight line edge extraction will be described. FIG. 3 is a flowchart showing a detailed procedure of straight line edge extraction. First, an edge in an image (a portion where a density change is sharp and where the changed portion is linearly continuous) is detected (S302). Specific methods include the Canny method and the like. Note that the straight line edge refers to a series of pixels corresponding to changed portions that are substantially aligned on a straight line and corrected for a slight deviation from the straight line.
[0020]
A straight line template is applied to the detected edge (S304). FIG. 8 is a diagram showing a straight line template and a mold to which the straight line template is fitted. The mold to which the straight line template is applied is composed of 3 pixels × 3 pixels. Assuming that pixels corresponding to the changed portions in the mold are connected in a line, the straight line template is 22.5 ° each. Eight directions λ1-8 having different angles are applied. The linear templates λ1 to λ8 are fitted for each of the molds according to the correspondence between the molds and the linear templates λ1 to λ8 shown in FIG.
[0021]
Integration of straight lines represented by the fitted straight line template (straightening correction) is performed (S306). Here, when two adjacent straight line templates are shifted by an angle difference of 22.5 °, the straight lines expressed by the straight line templates are integrated.
[0022]
Region R nk ; Extract feature points in the straight edge group near k = x (S108). Specifically, both ends of the straight edge are set as feature points.
[0023]
It is determined whether or not each feature point is in the concealed portion in the forward-view image Pf (S110). Here, a detailed procedure for determining whether or not the feature point is located in the concealing portion in the forward-view image Pf will be described. FIG. 4 is a flowchart illustrating a detailed procedure for determining whether or not a feature point is located in the concealing unit in the forward-view image Pf.
[0024]
First, three-dimensional data (3D laser data curved surface) of a city ground surface is calculated by laser scanning (S402). FIG. 10 is a diagram showing how the laser scanner is executed. The distance between the laser scanner device mounted on the aircraft and the random point is determined by the time it takes for the aircraft flying above to emit laser light toward the random point on the ground surface and the laser light scattered at the random point to return. Then, the three-dimensional coordinates of the random point are calculated from the three-dimensional coordinates of the laser scanner device when irradiating the laser beam and the irradiation angle of the laser beam. By scanning the ground surface while repeating this process, three-dimensional data of the ground surface can be obtained. However, in general, the three-dimensional coordinates obtained here are discrete values having larger intervals than in the stereo matching method, and rough discrete three-dimensional data (3D laser data curved surface) on the ground surface is obtained by interpolating the discrete values.
[0025]
A line-of-sight vector Vf for a feature point when the front-view image Pf is captured is calculated (S404). Specifically, a vector having the three-dimensional coordinates of the projection center point Cf of the forward-view image Pf as the starting point and the three-dimensional coordinates of the feature points obtained by the laser scanner as the ending point is calculated, and this is set as the line-of-sight vector Vf.
[0026]
It is determined whether there is an intersection between the three-dimensional data (3D laser data curved surface) on the upper surface of the city and the line-of-sight vector Vf (S406). FIG. 9 is a diagram illustrating a state in which three-dimensional data (3D laser data curved surface) on the upper surface of a city intersects with a line-of-sight vector Vf. Here, the presence of the intersection means that the line of sight is blocked by another ground object when the feature point is viewed from the projection center point Cf of the forward-view image Pf. Therefore, when there is an intersection, it is determined that the feature point is located in the concealing portion of the front-view image Pf (S408). On the other hand, when there is no intersection, it is determined that the feature point is not in the concealing portion of the front-view image Pf (S409). In S110, the above processing is repeated for each feature point.
[0027]
When it is determined that none of the feature points is located in the concealing portion of the forward-view image Pf, the region R nk is projected onto the forward-view image Pf to perform region matching (S112). On the other hand, when it is determined that any feature point is located in the concealment part of the front-view image Pf, the rear-view image Pb is selected as a stereo image instead of the front-view image Pf, and the region R nk is set as the rear-view image Pb. Projection is performed to perform area matching (S113). The presence of occlusion in one stereo image is one of the causes that hinders accurate stereo matching. However, in the present embodiment, it is possible to mechanically detect the presence of occlusion by examining whether or not there is an intersection between the three-dimensional data (3D laser data curved surface) on the city ground surface and the line-of-sight vector Vf as described above. it can. Further, when the presence of occlusion is detected in the forward-view image Pf, the accuracy of the stereo matching is improved by selecting the rear-view image Pb as the stereo image instead of the forward-view image Pf.
[0028]
The processing of S112, 202, 204, 206, and 208 (processing when the forward-view image Pf is selected as a stereo image) will be described below, but these processings are the processing of S113, 203, 205, 207, and 209 (backward). This is the same as the process performed when the visual image Pb is selected as the stereo image), and the description of S113, 203, 205, 207, and 209 is omitted. The detailed procedure of region matching in S112 will be described. FIG. 5 is a flowchart showing a detailed procedure of the area matching.
[0029]
First, an epipolar line on the front-view image Pf of the region R nk center point is calculated (S502). The epipolar line indicates a line of intersection between the target image and an epipolar plane (a plane including a line-of-sight vector for the target point in an image obtained by cutting out the projection center point and the target point of the target image). In S502, an epipolar line is calculated as follows. (1) The three-dimensional coordinates of the center point of the region R nk are calculated from the two-dimensional coordinates of the center point of the region R nk and the projection center point Cn on the nadir image Pn. (2) Three-dimensional data of a plane including the three-dimensional coordinates of the region R nk center point, the projection center point Cn, and the projection center point Cf is calculated, and this is defined as an epipolar surface. (3) The three-dimensional data of the forward-view image Pf is calculated from the relative positional relationship between the projection center point Cf and the forward-view image Pf. (4) Calculate the three-dimensional data of the intersection line between the epipolar plane and the forward-looking image Pf, and use this as the epipolar line.
[0030]
The region R nk is projected on the front-view image Pf such that the center point of the region R nk is on the epipolar line (S504).
[0031]
While moving the center point of the region R nk along the epipolar line, the region shape matching coefficient R between the region R nk and each region R fk on the epipolar line is calculated (S506). The region shape matching coefficient R is a correlation coefficient indicating the similarity of the size and shape of the two regions and the degree of overlap between the two regions, and is expressed by the following equation (1).
(Equation 1)
Figure 2004030461
N n: region R nk is the number of pixels occupied by N f: region R fk is the number of pixels occupied by N o: speed range of pixels and region R nk and the region R fk overlap [0032]
As represented in formula (1), instead of the denominator of the area shape matching coefficients R N n (the number of pixels occupied by a region R nk), N n (region R nk number of pixels occupied) and N f (region R fk ), the correlation coefficient does not only indicate the degree of overlap in the region R nk , but also how much the region R fk overlaps. It will be shown.
[0033]
FIG. 11 is a diagram illustrating an example of a calculation result of the region shape matching coefficient R. In FIG. 11, the region number k of each region R fk on the epipolar line in the x direction is shown. The position on the epipolar line of the center point of the region R nk is shown in the y-axis direction. The region shape matching coefficient R is shown in the z-axis direction. A peak of the region shape matching coefficient R exists for each region number k, and the highest peak among the peaks is detected. Determines that the region R fk with the highest peak corresponding to the region R nk, and the region R nk and the region R fk are matched when the position on the epipolar line this peak appears there is a region R nk center point A determination is made (S508). In this way, by limiting the matching range on the epipolar line at the center of the region, the amount of calculation can be reduced and the accuracy of matching can be improved. Further, by performing region matching using the region shape matching coefficient R (region matching based on the area and shape of the region), rough region matching can be performed with a small amount of calculation.
[0034]
The pixel value correlation coefficient S between the projected region R nk and the overlapping region is calculated while moving the region R nk near the position on the epipolar line where the maximum peak detected in S508 appears (S510). The pixel value correlation coefficient S is a correlation coefficient indicating the similarity of the density distribution in the two regions, and is represented by the following equation (2).
(Equation 2)
Figure 2004030461
l: the size (pixels) of the region R nk in the x-direction in the forward-view image Pf
m: the size (pixels) of the region R nk in the forward direction image Pf in the y direction.
f (u, v): pixel value n (u, v) of forward-view image Pf at coordinates (u, v) on forward-view image Pf: region R nk at coordinates (u, v) on forward-view image Pf Pixel value of
The peak of the pixel value correlation coefficient S is detected, and it is assumed that area matching has been performed at the position of the area R nk at this time (S512). As described above, the accuracy of the matching can be improved by performing the multi-stage area matching. Further, by the area matching using the pixel value correlation coefficient S (area matching based on the density distribution of the area), the projected area and the corresponding area can be accurately overlapped.
[0036]
A straight edge near the region R fk is extracted (S202). The specific procedure for extracting a straight edge is the same as that in S106.
[0037]
The straight line edge near the region R nk extracted in S106 is projected on the forward-view image Pf, and straight line edge matching is performed (S204). Here, a detailed procedure of the straight line edge matching will be described. FIG. 7 is a flowchart showing a detailed procedure of straight-line edge matching. First, a straight edge having a direction similar to the projected straight edge is searched (S702). However, the search range is limited to the vicinity of the area matched in S112.
[0038]
Further, a straight line edge whose length is close to the projected straight edge is narrowed down and searched (S704).
[0039]
A corresponding straight edge is narrowed down and searched based on the positional relationship between the matched region R fk and the region R nk (S706).
[0040]
A corresponding straight edge is narrowed down and searched based on the average density on both sides of the straight edge (S708). As described above, by limiting the matching range to the vicinity of the region matched in S112, that is, by limiting the range of edge matching using the result of the region matching after performing the region matching, the amount of calculation is small. It can be matched exactly. In addition, by performing edge matching after straightening and correcting an edge, it is easy to search for a corresponding edge. In addition, by performing multi-step linear edge matching, the accuracy of matching can be improved.
[0041]
As in S108, feature points of a straight edge near the region Rfk are extracted (S206).
[0042]
The feature points of the straight edges obtained in S108 and S206 are matched (S208).
[0043]
The three-dimensional coordinates of each matched feature point are calculated (S210). Here, a method of calculating three-dimensional coordinates of a feature point matched between the forward-view image Pf and the nadir-view image Pn will be described. FIG. 12 is a diagram illustrating the logic for calculating the three-dimensional coordinates of the corresponding points (feature points) in the stereo matching method. Theoretically, the three-dimensional coordinates of the feature point can be obtained by calculating the three-dimensional coordinates of the intersection of the gaze vector for the feature point in the front-view image Pf and the gaze vector for the feature point in the nadir view image Pn. However, in reality, the gaze vectors may not intersect due to a measurement error of the projection center point or the like. Therefore, the midpoint between the points Of and On where the distance between the line-of-sight vectors is the closest is defined as the three-dimensional position of the feature point.
[0044]
Hereinafter, a specific procedure for calculating the three-dimensional coordinates of the feature points will be described. (1) First, a unit vector of a straight line passing through the three-dimensional coordinates of a feature point on the front-view image Pf and the three-dimensional coordinates of the projection center point Cf is calculated, and from this, a line-of-sight vector Ef (X fp , Y fp , Z fp ) is calculated. The line-of-sight vector Ef is expressed by the following equation (3).
[Equation 3]
Figure 2004030461
(X fc , Y fc , Z fc ): three-dimensional coordinates of the projection center point Cf (V fx , V fy , V fz ): three-dimensional coordinates of a feature point on the front-view image Pf, and a cubic of the projection center point Cf A unit vector t f of a straight line passing through the original coordinates: parameter
(2) A unit vector of a straight line passing through the three-dimensional coordinates of the feature points on the nadir image Pn and the three-dimensional coordinates of the projection center point Cn is calculated, and from this, the line-of-sight vectors En (X np , Y np , Z np ) Is calculated. The line-of-sight vector En is represented by the following equation (4).
(Equation 4)
Figure 2004030461
(X nc , Y nc , Z nc ): the three-dimensional coordinates of the projection center point Cn (V nx , V ny , V nz ): the three-dimensional coordinates of the feature points on the nadir image Pn, and the tertiary of the projection center point Cn Unit vector t n of a straight line passing through the original coordinates: parameter
(3) The parameters t f and t n when the distance between the line-of-sight vectors is the closest are calculated, and the three-dimensional coordinates of the points Of and On where the distance between the line-of-sight vectors are the closest are obtained from this.
[0047]
(4) Calculate the three-dimensional coordinates of the midpoint of the points Of and On where the distance between the line-of-sight vectors is closest. In S210, the above calculation is repeated to calculate three-dimensional coordinates of each feature point.
[0048]
Three-dimensional data of a straight edge is obtained from the result of S208. Thus, a three-dimensional line segment group is obtained (S212).
[0049]
The three-dimensional data of the region R nk is calculated (S214). As a specific method, a method applying the cord to the feature points and the region R nk of straight edge or the entire region R nk regions, an edge or corner to feature points in the region R nk, the feature point by stereo matching For example, a method of calculating the three-dimensional coordinates of. The three-dimensional data of the region R nk calculated here may be rough.
[0050]
When the processes from S108 to S214 are completed for all the regions R nk , the process proceeds to S222. If there is an unprocessed region R nk, a straight edge near the region R nk ; k = x + 1 is extracted (S215), and the process returns to S108 (S216).
[0051]
The three-dimensional line group and the three-dimensional data of the region obtained by the above processing are projected onto a 3D workspace (three-dimensional coordinate system) (S218).
[0052]
A three-dimensional line group is reconstructed so as to cover the three-dimensional data of the area (S220). The three-dimensional line segment group can be obtained with high accuracy by the above-described processing, but some of them are meaningless for obtaining a bird's-eye view of the city. However, by reconstructing a three-dimensional line segment group with reference to the three-dimensional data of the region, meaningful data as an object can be generated.
[0053]
The template on the upper surface of the building is applied to the region constituted by the reconstructed three-dimensional line group, and the upper surface of the building is set (S222).
[0054]
A building segment is obtained by forming a side wall connecting the obtained building roof surface and the ground surface to solidify it (S224).
[0055]
A building object is obtained by clustering adjacent building segments (S226). By performing the above procedure, three-dimensional data of the city ground surface A can be obtained.
[0056]
Next, another embodiment of the area matching will be described. FIG. 6 is a flowchart showing a procedure in another embodiment of the area matching (processing of S112). First, the average height of the region R fk and the region R nk is calculated from the measurement result of the laser scanner (S602). By installing the laser scanner described above close to the TLS, it is possible to obtain height information of random points on the forward-view image Pf and the nadir-view image Pn.
[0057]
An epipolar line at the center point of the region R nk in the forward-view image Pf is calculated (S604).
[0058]
Detecting a region R fk corresponding to the region R mean the height of the nk, area by comparing the average height of the area R fk on epipolar line R nk (S606).
[0059]
The region R nk is projected on the forward-view image Pf so as to overlap with the region R fk detected in S606. Further, the pixel value correlation coefficient S between the region R nk and the corresponding region R fk is calculated while moving the region R nk around the periphery (S608).
[0060]
It is assumed that the peak of the pixel value correlation coefficient S is detected, and the region matching is performed in the positional relationship between the region R nk and the corresponding region R fk at this time (S610). As described above, instead of performing the rough region matching using the region shape matching coefficient R, the rough region matching is performed based on the height information of the region obtained by the measurement result of the laser scanner, The same effect as in the area matching method can be obtained.
[0061]
In the above embodiment, the TLS scanning is performed from the sky to the ground. , And three-dimensional data of the city ground surface may be obtained from this.
[0062]
Next, the edge matching program 3 according to the embodiment of the present invention and the recording medium 13 on which the edge matching program 3 is recorded will be described. FIG. 13 is a configuration diagram of the edge matching program 3 and the recording medium 13 on which the edge matching program 3 is recorded. The edge matching program 3 includes, as its components, a region division module 32, a region matching module 34, an edge extraction module 36, and an edge matching module 38. The edge matching method described above is executed by applying the edge matching program 3 to a computer described below.
[0063]
Next, the stereo matching program 4 according to the embodiment of the present invention and the recording medium 14 on which the stereo matching program 4 is recorded will be described. FIG. 14 is a configuration diagram of the stereo matching program 4 and the recording medium 14 on which the stereo matching program 4 is recorded. The stereo matching program 4 includes a feature point extraction module 42, a line-of-sight vector calculation module 44, a concealment unit determination module 46, and a stereo image selection module 48 as its components. The above-described stereo matching method is executed by applying the stereo matching program 4 to a computer described below.
[0064]
FIG. 15 is a diagram illustrating a physical configuration of a computer 5 on which the edge matching program 3 or the stereo matching program 4 is executed. The computer 5 includes, as physical components, a central processing unit (CPU) 52, a working memory 54 in which an operating system is resident, a reading device 56, a display 57, and an input device 58.
[0065]
When the recording medium 13 or the recording medium 14 is inserted into the reading device 56, the information recorded on the recording medium 13 or the recording medium 14 becomes accessible from the reading device 56, and the edge matching program 3 or the stereo matching program 4 5 is performed.
[0066]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an edge matching method, a stereo matching method, and the like that enable accurate stereo matching.
[Brief description of the drawings]
FIG. 1 is a first flowchart showing a procedure for acquiring three-dimensional data of a city ground surface A (building object group) in a specific range by a three-dimensional bird's-eye data acquisition method A.
FIG. 2 is a second flowchart illustrating a procedure for acquiring three-dimensional data of a city ground surface A (building object group) in a specific range by a three-dimensional bird's-eye data acquisition method A;
FIG. 3 is a flowchart showing a detailed procedure of straight line edge extraction.
FIG. 4 is a flowchart showing a detailed procedure for determining whether or not a feature point is in a concealing portion in a forward-view image Pf.
FIG. 5 is a flowchart showing a detailed procedure of region matching.
FIG. 6 is a flowchart showing a procedure in another embodiment of region matching.
FIG. 7 is a flowchart illustrating a detailed procedure of linear edge matching.
FIG. 8 is a diagram showing a straight line template and a mold to which the straight line template is applied;
FIG. 9 is a diagram showing a state in which three-dimensional data (3D laser data curved surface) on the upper surface of a city intersects with a line-of-sight vector Vf.
FIG. 10 is a diagram showing how a laser scanner is executed.
FIG. 11 is a diagram illustrating an example of a calculation result of a region shape matching coefficient R.
FIG. 12 is a diagram illustrating logic for calculating three-dimensional coordinates of corresponding points (feature points) in the stereo matching method.
FIG. 13 is a configuration diagram of an edge matching program 3 and a recording medium 13 on which the edge matching program 3 is recorded.
FIG. 14 is a configuration diagram of a stereo matching program 4 and a recording medium 14 on which the stereo matching program 4 is recorded.
FIG. 15 is a diagram showing a physical configuration of a computer 5 on which an edge matching program 3 or a stereo matching program 4 is executed.
[Explanation of symbols]
13, 14: recording medium, 3: edge matching program, 32: area division module, 34: area matching module, 36: edge extraction module, 38: edge matching module, 4: stereo matching program, 42: feature point extraction module, 44: line-of-sight vector calculation module, 46: concealment unit determination module, 48: stereo image selection module, 5: computer, 52: CPU, 54: working memory, 56: reading device, 57: display, 58: input device.

Claims (10)

互いに異なる方向から同一のオブジェクト群を撮像した複数のステレオ画像に基づいて前記オブジェクト群の三次元データを取得するステレオマッチング方法を行う際に、前記ステレオ画像から抽出したエッジをマッチングするエッジマッチング方法であって、
各前記ステレオ画像を複数の領域に分割する領域分割ステップと、
一つの前記ステレオ画像における前記領域と、他の前記ステレオ画像における前記領域とをマッチングする領域マッチングステップと、
前記領域近傍のエッジを抽出するエッジ抽出ステップと、
マッチングされた前記領域それぞれの近傍におけるエッジ同士をマッチングするエッジマッチングステップとを含む
ことを特徴とするエッジマッチング方法。
When performing a stereo matching method of acquiring three-dimensional data of the object group based on a plurality of stereo images obtained by imaging the same object group from different directions, an edge matching method that matches edges extracted from the stereo images is performed. So,
An area dividing step of dividing each of the stereo images into a plurality of areas;
An area matching step of matching the area in one stereo image with the area in another stereo image;
An edge extraction step of extracting an edge near the region;
An edge matching step of matching edges in the vicinity of each of the matched regions.
前記領域マッチングステップにおいて、
予め取得された前記領域の三次元データに基づいて、前記マッチングがなされる
ことを特徴とする請求項1記載のエッジマッチング方法。
In the region matching step,
The edge matching method according to claim 1, wherein the matching is performed based on three-dimensional data of the region acquired in advance.
前記領域マッチングステップにおいて、
前記領域の面積と形状とのうち少なくとも一方に基づいて、前記マッチングがなされる
ことを特徴とする請求項1記載のエッジマッチング方法。
In the region matching step,
The edge matching method according to claim 1, wherein the matching is performed based on at least one of an area and a shape of the region.
前記領域マッチングステップにおいて、更に、
前記領域の濃度分布に基づいて、前記マッチングがなされる
ことを特徴とする請求項2又は3に記載のエッジマッチング方法。
In the region matching step,
The edge matching method according to claim 2, wherein the matching is performed based on a density distribution of the area.
前記エッジ抽出ステップにおいて抽出されるエッジが直線エッジであり、
前記エッジマッチングステップにおいて、直線エッジの長さ、直線エッジの傾き及び直線エッジ両側の平均濃度に基づいて、前記マッチングがなされる
ことを特徴とする請求項1ないし4のいずれか1項に記載のエッジマッチング方法。
The edge extracted in the edge extraction step is a straight edge,
The method according to claim 1, wherein in the edge matching step, the matching is performed based on a length of the straight edge, a slope of the straight edge, and an average density on both sides of the straight edge. Edge matching method.
互いに異なる方向から同一のオブジェクト群を撮像した複数のステレオ画像に基づいて前記オブジェクト群の三次元データを取得するステレオマッチング方法において、
一つの前記ステレオ画像から特徴点を抽出する特徴点抽出ステップと、
他の前記ステレオ画像における投影中心点の三次元座標を始点とし、予め取得された前記特徴点の三次元座標を終点とする視線ベクトルを算出する視線ベクトル算出ステップと、
前記視線ベクトルと、予め取得された前記オブジェクト群の三次元データとの交点の存在から、前記特徴点が他の前記ステレオ画像における隠蔽部にあることを判断する隠蔽部判断ステップとを含み、
前記隠蔽部判断ステップで前記特徴点が他の前記ステレオ画像における隠蔽部にあると判断された場合に、一つの前記ステレオ画像と、更に他の前記ステレオ画像とを用いて前記特徴点の三次元座標を算出する
ことを特徴とするステレオマッチング方法。
In a stereo matching method of acquiring three-dimensional data of the object group based on a plurality of stereo images obtained by imaging the same object group from different directions,
A feature point extraction step of extracting feature points from one stereo image,
A line-of-sight vector calculation step of calculating a line-of-sight vector having the three-dimensional coordinates of the projection center point in the other stereo image as a start point and the end point of the three-dimensional coordinates of the feature point acquired in advance,
The sight line vector, from the presence of the intersection of the previously acquired three-dimensional data of the object group, including a concealing unit determining step of determining that the feature point is in the concealing unit in the other stereo image,
When it is determined in the concealing unit determining step that the feature point is located in the concealing unit in the other stereo image, the three-dimensional feature point is determined using one of the stereo images and the other stereo image. A stereo matching method comprising calculating coordinates.
請求項1ないし5のいずれか1項に記載のエッジマッチング方法をコンピュータに実行させる
ことを特徴とするエッジマッチングプログラム。
An edge matching program for causing a computer to execute the edge matching method according to any one of claims 1 to 5.
請求項7記載のエッジマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which the edge matching program according to claim 7 is recorded. 請求項6記載のステレオマッチング方法をコンピュータに実行させる
ことを特徴とするステレオマッチングプログラム。
A stereo matching program for causing a computer to execute the stereo matching method according to claim 6.
請求項9記載のステレオマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which the stereo matching program according to claim 9 is recorded.
JP2002188580A 2002-06-27 2002-06-27 Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon Pending JP2004030461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002188580A JP2004030461A (en) 2002-06-27 2002-06-27 Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002188580A JP2004030461A (en) 2002-06-27 2002-06-27 Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon

Publications (1)

Publication Number Publication Date
JP2004030461A true JP2004030461A (en) 2004-01-29

Family

ID=31183293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002188580A Pending JP2004030461A (en) 2002-06-27 2002-06-27 Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon

Country Status (1)

Country Link
JP (1) JP2004030461A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086266A (en) * 2002-08-23 2004-03-18 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for acquiring shape and recording medium with the program recorded thereon
JP2005091510A (en) * 2003-09-12 2005-04-07 Pasuko:Kk Method for structuring numeric geographical model using multi-line sensor
JP2008076285A (en) * 2006-09-22 2008-04-03 Ihi Corp Photogrammetric system
JP2011169658A (en) * 2010-02-17 2011-09-01 Mitsubishi Electric Corp Device and method for pinpointing photographed position
CN104156973A (en) * 2014-08-26 2014-11-19 清华大学深圳研究生院 Real-time three-dimensional video monitoring method based on stereo matching
CN106844983A (en) * 2017-01-26 2017-06-13 厦门理工学院 A kind of method for improving building typhoon protection ability
CN107192383A (en) * 2017-07-11 2017-09-22 武汉大学 The three-dimensional positioning device and method of a kind of curved-surface building thing
CN107270830A (en) * 2017-07-11 2017-10-20 武汉大学 The infrared three-dimension positioner and method of a kind of curved-surface building thing
CN107356235A (en) * 2017-07-11 2017-11-17 武汉大学 The infrared three-dimension positioner and method of a kind of hyperboloid building
CN107390228A (en) * 2017-07-11 2017-11-24 武汉大学 A kind of three-dimensional positioning device and method of oval calotte building
CN107389040A (en) * 2017-07-11 2017-11-24 武汉大学 The infrared three-dimension positioner and method of a kind of oval calotte building
CN107402376A (en) * 2017-07-11 2017-11-28 武汉大学 A kind of three-dimensional positioning device and method of hyperboloid building
CN107830800A (en) * 2017-10-26 2018-03-23 首都师范大学 A kind of method that fine elevation is generated based on vehicle-mounted scanning system
RU2665250C2 (en) * 2017-01-09 2018-08-28 Федеральное государственное бюджетное учреждение "Федеральный научно-технический центр геодезии, картографии и инфраструктуры пространственных данных" Method of digital topographic photo document creation and integrated means for implementation of this method
CN108732587A (en) * 2018-06-07 2018-11-02 安徽理工大学 It is a kind of that power method is determined based on scanning element cloud ranging, angle measurement
CN111829490A (en) * 2020-07-16 2020-10-27 广州安廷数字技术有限公司 Unmanned aerial vehicle three-dimensional city modeling system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086266A (en) * 2002-08-23 2004-03-18 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for acquiring shape and recording medium with the program recorded thereon
JP2005091510A (en) * 2003-09-12 2005-04-07 Pasuko:Kk Method for structuring numeric geographical model using multi-line sensor
JP4574969B2 (en) * 2003-09-12 2010-11-04 株式会社パスコ Construction method of numerical terrain model using multi-line sensor
JP2008076285A (en) * 2006-09-22 2008-04-03 Ihi Corp Photogrammetric system
JP2011169658A (en) * 2010-02-17 2011-09-01 Mitsubishi Electric Corp Device and method for pinpointing photographed position
CN104156973A (en) * 2014-08-26 2014-11-19 清华大学深圳研究生院 Real-time three-dimensional video monitoring method based on stereo matching
RU2665250C2 (en) * 2017-01-09 2018-08-28 Федеральное государственное бюджетное учреждение "Федеральный научно-технический центр геодезии, картографии и инфраструктуры пространственных данных" Method of digital topographic photo document creation and integrated means for implementation of this method
CN106844983A (en) * 2017-01-26 2017-06-13 厦门理工学院 A kind of method for improving building typhoon protection ability
CN106844983B (en) * 2017-01-26 2021-07-23 厦门理工学院 Method for improving typhoon-proof capacity of building
CN107402376A (en) * 2017-07-11 2017-11-28 武汉大学 A kind of three-dimensional positioning device and method of hyperboloid building
CN107402376B (en) * 2017-07-11 2019-02-12 武汉大学 A kind of three-dimensional positioning device and method of hyperboloid building
CN107389040A (en) * 2017-07-11 2017-11-24 武汉大学 The infrared three-dimension positioner and method of a kind of oval calotte building
CN107356235A (en) * 2017-07-11 2017-11-17 武汉大学 The infrared three-dimension positioner and method of a kind of hyperboloid building
CN107192383A (en) * 2017-07-11 2017-09-22 武汉大学 The three-dimensional positioning device and method of a kind of curved-surface building thing
CN107270830A (en) * 2017-07-11 2017-10-20 武汉大学 The infrared three-dimension positioner and method of a kind of curved-surface building thing
CN107390228B (en) * 2017-07-11 2019-04-12 武汉大学 A kind of three-dimensional positioning device and method of oval calotte building
CN107356235B (en) * 2017-07-11 2019-01-29 武汉大学 A kind of the infrared three-dimension positioning device and method of hyperboloid building
CN107270830B (en) * 2017-07-11 2019-02-12 武汉大学 A kind of the infrared three-dimension positioning device and method of curved-surface building object
CN107192383B (en) * 2017-07-11 2019-02-12 武汉大学 A kind of three-dimensional positioning device and method of curved-surface building object
CN107390228A (en) * 2017-07-11 2017-11-24 武汉大学 A kind of three-dimensional positioning device and method of oval calotte building
CN107389040B (en) * 2017-07-11 2019-02-12 武汉大学 A kind of the infrared three-dimension positioning device and method of oval calotte building
CN107830800B (en) * 2017-10-26 2019-11-12 首都师范大学 A method of fine elevation is generated based on vehicle-mounted scanning system
CN107830800A (en) * 2017-10-26 2018-03-23 首都师范大学 A kind of method that fine elevation is generated based on vehicle-mounted scanning system
CN108732587A (en) * 2018-06-07 2018-11-02 安徽理工大学 It is a kind of that power method is determined based on scanning element cloud ranging, angle measurement
CN111829490A (en) * 2020-07-16 2020-10-27 广州安廷数字技术有限公司 Unmanned aerial vehicle three-dimensional city modeling system

Similar Documents

Publication Publication Date Title
JP5870273B2 (en) Object detection apparatus, object detection method, and program
US6381302B1 (en) Computer assisted 2D adjustment of stereo X-ray images
US20090167843A1 (en) Two pass approach to three dimensional Reconstruction
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
JP5955028B2 (en) Image processing apparatus, image processing method, and image processing program
CN112424565B (en) Vehicle-mounted environment recognition device
Cherian et al. Accurate 3D ground plane estimation from a single image
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
JP2953154B2 (en) Shape synthesis method
US20140055573A1 (en) Device and method for detecting a three-dimensional object using a plurality of cameras
JP6969738B2 (en) Object detection device and method
Maas Automatic DEM generation by multi-image feature based matching
JP2006113832A (en) Stereoscopic image processor and program
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
JP2004030453A (en) Stereo matching method, stereo matching program, and computer readable recording medium with stereo matching program recorded thereon
Haggag et al. Towards automated generation of true orthoimages for urban areas
Meixner et al. Interpreting building facades from vertical aerial images using the third dimension
JP3253328B2 (en) Distance video input processing method
JP7298687B2 (en) Object recognition device and object recognition method
JP2922503B1 (en) 3D coordinate detection method
JPH09229648A (en) Input/output method and device for image information
JPH11190611A (en) Three-dimensional measuring method and three-dimensional measuring processor using this method
JPH09231371A (en) Picture information input device and its method