JP3816826B2 - Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program - Google Patents

Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program Download PDF

Info

Publication number
JP3816826B2
JP3816826B2 JP2002091080A JP2002091080A JP3816826B2 JP 3816826 B2 JP3816826 B2 JP 3816826B2 JP 2002091080 A JP2002091080 A JP 2002091080A JP 2002091080 A JP2002091080 A JP 2002091080A JP 3816826 B2 JP3816826 B2 JP 3816826B2
Authority
JP
Japan
Prior art keywords
urban area
extraction processing
area extraction
block
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002091080A
Other languages
Japanese (ja)
Other versions
JP2003288593A (en
Inventor
哲也 杵渕
章 鈴木
直己 伊藤
昭夫 塩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002091080A priority Critical patent/JP3816826B2/en
Publication of JP2003288593A publication Critical patent/JP2003288593A/en
Application granted granted Critical
Publication of JP3816826B2 publication Critical patent/JP3816826B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,衛星写真画像や航空写真画像などの上空から撮影された画像の中から,そのテクスチャ情報にもとづき市街地領域を自動的に抽出する市街地領域抽出処理方法,市街地領域抽出処理装置,市街地領域抽出処理プログラムおよびそのプログラムの記録媒体に関するものである。
【0002】
【従来の技術】
従来の市街地領域抽出技術では,特定の色や輝度条件を満たす閉領域に着目し,その閉領域の形状があらかじめ規定しておいたものに近い場合に,該閉領域を建造物領域であるとし,このような手法で抽出された建造物を統合して市街地であると認識していた。
【0003】
【発明が解決しようとする課題】
しかし,この種の従来の方法は,画像がモノクロまたはグレースケールで色情報がない場合や,建造物の一部が木や別の建造物で隠れていて閉領域形状を取らない場合や,画像の解像度が低いために各建造物が十分な大きさを持たず閉領域の形状が崩れているような場合などに,安定して市街地領域抽出を行うことができないという問題があった。
【0004】
本発明は,市街地領域でのテクスチャ特徴,すなわち市街地領域ではエッジのパワーが強く,かつエッジ接線方向が直交している傾向が強いという特徴に着目することにより,上記従来の技術では問題となるような場合でも,安定して市街地領域抽出を行うことができるようにすることを目的とする。
【0005】
【課題を解決するための手段】
本発明は,前記課題を解決するめ,市街地領域ではエッジ接線のエッジパワーが強く,かつ接線方向が直交する傾向が強いという特徴から,この傾向を定量的に表す特徴量にもとづき市街地領域判定を行うものであり,実現手段として以下の方法を用いることを特徴とする。
1.市街地領域抽出対象の画像について各画素を中心とする任意サイズのブロックを設定し,各画素において横方向および縦方向のエッジ差分計算を行い,得られたエッジ差分値にもとづきエッジ接線の角度パラメータと距離パラメータとを算出する。
2.算出されたエッジ接線パラメータに対してハフ(Hough)変換を行い,角度パラメータと距離パラメータとを2つの軸とする2次元の投票空間に各エッジ接線パラメータを投票する。
3.得られた投票空間から適当な特徴量を求め,これにもとづきブロックの代表点が市街地であるか否かを判定する。
【0006】
本方法は,特に工場等の大きな建造物の抽出に有効であり,ブロックサイズは建造物が十分に入る程度の大きさにすると良い結果となる。以上により,市街地領域のテクスチャ特徴にもとづく安定した領域抽出が可能となる。
【0007】
【発明の実施の形態】
本発明の実施の形態を,図を用いて詳細に説明する。
【0008】
図1に,本実施の形態による市街地領域抽出処理装置の構成例を示す。図中,1はCPUおよびメモリなどからなる市街地領域抽出処理装置,10は衛星写真画像や航空写真画像などの地表を撮影した画像を記憶する入力画像記憶部,11は着目画素を中心として所定の大きさのブロックを取得するブロック取得処理部,12はブロック内の各点におけるエッジ接線のパラメータを求めるエッジ接線パラメータ算出処理部,13は得られたエッジ接線パラメータをHough変換して2次元の投票空間に投票するHough変換処理部,14は作成される投票空間用の投票空間メモリ,15は投票空間にもとづいて市街地であるか否かを判定する市街地判定処理部,16は判定結果の市街地領域情報である。
【0009】
図2に,図1に示す市街地領域抽出処理装置1の処理の流れを示す。ブロック取得処理21は,ブロック取得処理部11が行う処理であり,ここでは,入力画像記憶部10に記憶されている衛星写真画像や航空写真画像などの地表を撮影した入力画像20について,着目画素を中心として一定サイズのブロックを取得する。ブロックの形は正方形,円形など任意であるが,本実施の形態では,円形のブロックを取得するものとする。これはその後に行われるエッジ接線パラメータのHough変換に都合が良いからである。
【0010】
円形ブロックの例を,図3に示す。円形ブロック30のサイズは,建造物が十分に入る程度の大きさが好ましく,画像の解像度等によって異なるが,例えば数十画素〜百数十画素というようなサイズである。
【0011】
エッジ接線パラメータ計算処理22は,ブロック内の各点におけるエッジ接線を求める処理である。ここでは,図1のエッジ接線パラメータ算出処理部12が行う処理として,まず画像に横方向および縦方向の差分計算を施してエッジベクトルを取得し,取得したエッジベクトルにもとづきエッジ接線パラメータを求める手法を説明する。差分計算を行う前に,前処理としてガウシアンフィルタなどでぼかし処理を施すことにより,ノイズの影響を小さくすることができる。
【0012】
図4は,エッジベクトルの算出方法を説明する図である。横方向の差分計算は,着目画素の左右の画素値を減算することにより,また縦方向の差分計算は,上下の画素値を減算することにより行う。以下,横方向をX方向,縦方向をY方向と表すこととする。
【0013】
図4(a)に示した例では,画素C(点C)における横方向の差分値をCX ,縦方向の差分値をCY として,エッジベクトルC(CX ,CY )は,隣接画素A,B,D,Eの画素値から,
X =(D−B)/2
Y =(E−A)/2
と計算される。
【0014】
また,画像の端にある画素については,上下左右の隣接画素が存在しない場合もある。この場合には,隣接画素と着目画素自身との差分を計算して,エッジベクトルの成分とする。このような例を図4(b)に示す。画素G(点G)におけるエッジベクトルG(GX ,GY )は,隣接画素F,H,Iの画素値から,
X =H−G
Y =(I−F)/2
と計算される。
【0015】
図5に,エッジベクトル情報の例を示す。図5(a)は原画像の画素値,(b)はエッジベクトル成分の値を示している。
【0016】
次に,得られたエッジベクトルからエッジ接線パラメータを計算する。ここでブロックの中心を原点とおき,原点から接線までの距離rと,接線の法線ベクトルがX方向となす角度θを求めるべきエッジ接線パラメータとする。
【0017】
図6は,エッジ接線パラメータの例を説明する図である。図6から明らかなように,点Pにおけるエッジベクトル成分PX とPY とから,点Pにおけるエッジ接線のパラメータθP とrP は簡単に計算される。
【0018】
Hough変換処理23は,算出されたエッジ接線パラメータに対してHough変換を行い,2次元の投票空間24に投票していく処理であり,図1のHough変換処理部13が行う。図7は,その投票処理の例を説明する図である。図7で示した点Pでのエッジ接線パラメータθP とrP は,投票空間内の座標(θP ,rP )に投票される。
【0019】
投票される値は,+1の場合もあるが,本実施の形態ではエッジパワー値そのもの,すなわち(PX 2 +PY 2 )の平方根を投票値とする。この方法により,市街地領域に多く存在するパワーが強いエッジのパラメータが,より強調されることになる。
【0020】
また,ノイズの悪影響の抑制等を目的として,エッジパワーが一定値以下の場合には投票処理を行わないとか,またはエッジパワーに何らかの重みをつけて投票値とするなどの方法も有効である。
【0021】
投票空間24は,Hough変換処理23をブロック内の全画素について行った結果,得られる投票空間である。図8にその例を示す。図8(a)は原画像,図8(b)は投票空間の例を示している。図8(a)に示す例では,直径50画素の円形ブロック内の全画素に対して投票を行っている。図8(b)の投票空間では,得票値の大小を濃度を変えて示している。投票空間の横軸は,角度パラメータθの軸(範囲0〜360°),縦軸は距離パラメータrの軸(範囲0〜25)である。画像内の直線が投票空間内では得票値の高い点として変換されていることが分かる。
【0022】
ブロック内処理終了判定25は,ブロック内の全画素についてエッジ接線パラメータ計算処理22,Hough変換処理23が終了したか否かを判定する処理である。未処理画素が存在する場合,再びエッジ接線パラメータ計算処理22へ戻り,未処理画素の処理を行う。
【0023】
市街地判定処理26は,投票空間メモリ14内の投票空間24の情報にもとづき,ブロックの代表点が市街地であるかどうかを判定する処理であり,図1の市街地判定処理部15が行う。ブロックの代表点として,ブロックの中心画素,ブロック中心付近の画素,ブロックを構成する全画素,ブロック内の一定値以上のエッジパワーを持つ画素などが考えられる。本実施の形態では,2次元の投票空間をそのまま用いず,X軸方向(角度パラメータ軸方向)に射影をとり,1次元に縮退させたヒストグラム(以下,角度ヒストグラムと呼称する)を用いる方法を説明する。
【0024】
図9に,図8(b)に示す投票空間から作成した角度ヒストグラムを示す。角度ヒストグラムの最大値,最小値,平均値,分散値などの統計量から市街地を求める方法もあるが,ここでは(1)最大値/最小値,(2)エッジ接線直交性にもとづく判定処理について説明する。
【0025】
(1)最大値/最小値
角度ヒストグラムの最大値と最小値を求め,最大値を最小値で除算して比率を計算する。この値が一定値以上である場合,ブロックの代表点を市街地と判定する。接線パラメータ計算時の原点をブロックの中心に設定しているため,見た目の傾きが同じ直線でもブロック中心に対して反対側に位置するとき,その角度パラメータθは180°の差を持つこととなる。そこで角度ヒストグラムの180〜360°部分を0〜180°部分に加算し,角度ヒストグラムの範囲を0〜180°とすることで,同一の傾きを持つ直線は同一の角度パラメータを持つように補正する方法も考えられる。
【0026】
ランダムノイズのようにエッジ方向がばらばらである画像の場合,最大値/最小値は小さな値であり,この値が大きな値となるのはブロック内に強いエッジパワーを持つ直線が存在するなどの場合である。
【0027】
(2)エッジ接線直交性
ブロック内に直交する直線が存在する場合,角度ヒストグラムには,90°の間隔を持つ2つのピークが発生する。90°間隔の2つのピークがあるか否かは,次の方法により判定することができる。
【0028】
図10に,その判定方法の説明図を示す。図10に示すヒストグラムは,上記(1)において説明したように180〜360°部分を0〜180°部分に重ねて角度ヒストグラムの角度範囲を0〜180゜としたものである。はじめにこのヒストグラムにおいて最大値を取る角度θ1 を求める。次に,θ1 から90°の差を持つ角度θ2 を中心として任意の幅を持つ第2ピーク探索領域SA を設定し,その領域内での最大値(第2ピーク値)を求める。図10の例では,θ2 を中心として±10°の幅を第2ピーク探索領域SA の範囲と設定した。
【0029】
第2ピーク値を求めた後,この値をヒストグラムの最小値で除算し,その比率が一定値以上の場合,該ブロックの代表点を市街地領域であると判定する。第2ピーク値と最小値との比率以外にも,第2ピーク値そのものの値,第2ピーク値と最小値との差分などを判定尺度としたり,最大値そのものの値も判定尺度に加えることも考えられる。
【0030】
また,範囲を0〜180°とした角度ヒストグラムの,さらに90〜180°部分を0〜90°部分に重ね,角度範囲を0〜90°としたヒストグラムを作成し,該ヒストグラムの最大値と最小値の比率を判定尺度とすることも考えられる。
【0031】
ここでは,角度ヒストグラムにもとづき市街地を判定する方法を説明したが,2次元の投票空間をそのまま使用して,適当な特徴量を算出する方法も考えられる。
【0032】
終了判定処理27は,全画素について市街地判定処理26が行われたか否かを判定する処理である。まだ未処理である画素が存在する場合,ブロック取得処理21に再度戻り,未処理画素について同様に処理を行う。
【0033】
以上の処理を全画素について行うことにより,画素ごとに市街地であるか否かのビットマップまたはラベルが付された市街地領域情報16が求められる。
【0034】
以上の市街地領域抽出処理装置1が行う処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムは,コンピュータが読み取り可能な可搬媒体メモリ,半導体メモリ,ハードディスク等の適当な記録媒体に格納して,そこから読み出すことによりコンピュータに実行させることができる。また,そのプログラムは通信回線を経由して他のコンピュータからダウンロードすることができ,それをインストールして実行させることもできる。
【0035】
【発明の効果】
以上説明したように,本発明は,市街地領域でのテクスチャ特徴,すなわち市街地領域ではエッジのパワーが強く,かつエッジ接線方向が直交している傾向が強いという特徴に着目した市街地領域抽出を行う。このため,安定した閉領域抽出が困難なために従来手法では問題となるような場合でも,安定して市街地領域抽出を行うことができる。
【図面の簡単な説明】
【図1】本実施の形態による市街地領域抽出処理装置の構成例を示す図である。
【図2】市街地領域抽出処理装置の処理の流れを示す図である。
【図3】円形ブロックの例を示す図である。
【図4】エッジベクトルの算出方法を説明する図である。
【図5】エッジベクトル情報の例を示す図である。
【図6】エッジ接線パラメータの例を説明する図である。
【図7】投票処理の例を説明する図である。
【図8】投票空間の例を示す図である。
【図9】角度ヒストグラムの例を示す図である。
【図10】第2ピーク探索処理を説明する図である。
【符号の説明】
1 市街地領域抽出処理装置
10 入力画像記憶部
11 ブロック取得処理部
12 エッジ接線パラメータ算出処理部
13 Hough変換処理部
14 投票空間メモリ
15 市街地判定処理部
16 市街地領域情報
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an urban area extraction processing method, an urban area extraction processing apparatus, an urban area, and the like, which automatically extract an urban area from an image taken from above such as a satellite photograph image and an aerial photograph image based on the texture information. The present invention relates to an extraction processing program and a recording medium for the program.
[0002]
[Prior art]
In the conventional urban area extraction technology, if a closed area that satisfies a specific color and brightness condition is focused on and the closed area is close to a predetermined shape, the closed area is assumed to be a building area. , The buildings extracted by such a method were integrated and recognized as an urban area.
[0003]
[Problems to be solved by the invention]
However, this type of conventional method is used when the image is monochrome or grayscale and there is no color information, or when a part of the building is hidden by a tree or another structure and does not take a closed area shape. There is a problem that the urban area cannot be extracted stably when each building does not have a sufficient size due to its low resolution and the shape of the closed area is collapsed.
[0004]
The present invention is problematic in the above-described conventional technique by focusing on the texture feature in the urban area, that is, the characteristic that the edge power is strong and the edge tangent direction tends to be orthogonal in the urban area. Even in such a case, the object is to enable the city area extraction to be performed stably.
[0005]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the present invention performs urban area determination based on a feature quantity that quantitatively represents this tendency because the edge power of edge tangents is strong and the tendency of the tangent directions to be orthogonal is strong in urban areas. The following method is used as an implementation means.
1. Set an arbitrary size block centered on each pixel for the image of the urban area extraction target, calculate the edge difference in the horizontal and vertical directions at each pixel, and calculate the angle parameter of the edge tangent based on the obtained edge difference value A distance parameter is calculated.
2. A Hough transform is performed on the calculated edge tangent parameter, and each edge tangent parameter is voted on a two-dimensional voting space having the angle parameter and the distance parameter as two axes.
3. An appropriate feature amount is obtained from the obtained voting space, and based on this, it is determined whether or not the representative point of the block is an urban area.
[0006]
This method is particularly effective for extracting large buildings such as factories. The block size should be large enough to fit the building. As described above, it is possible to extract a stable region based on the texture characteristics of the urban area.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described in detail with reference to the drawings.
[0008]
FIG. 1 shows a configuration example of an urban area extraction processing apparatus according to this embodiment. In the figure, 1 is an urban area extraction processing device comprising a CPU and a memory, 10 is an input image storage unit for storing an image of the ground surface such as a satellite photograph image or an aerial photograph image, and 11 is a predetermined pixel centered on the pixel of interest. A block acquisition processing unit that acquires a block of a size, 12 an edge tangent parameter calculation processing unit that obtains an edge tangent parameter at each point in the block, and 13 a two-dimensional vote by performing a Hough transform on the obtained edge tangent parameter A Hough conversion processing unit for voting in a space, 14 is a voting space memory for a created voting space, 15 is an urban area determination processing unit that determines whether it is an urban area based on the voting space, and 16 is an urban area of the determination result Information.
[0009]
FIG. 2 shows a processing flow of the urban area extraction processing apparatus 1 shown in FIG. The block acquisition process 21 is a process performed by the block acquisition processing unit 11. Here, the pixel of interest for the input image 20 obtained by photographing the ground surface such as a satellite photograph image or an aerial photograph image stored in the input image storage unit 10. Get a block of a certain size centered on. The shape of the block is arbitrary, such as a square or a circle, but in this embodiment, a circular block is acquired. This is because it is convenient for the Hough conversion of the edge tangent parameter performed thereafter.
[0010]
An example of a circular block is shown in FIG. The size of the circular block 30 is preferably large enough for a building to enter, and varies depending on the resolution of the image, but is a size such as several tens to hundreds of pixels.
[0011]
The edge tangent parameter calculation process 22 is a process for obtaining an edge tangent at each point in the block. Here, as a process performed by the edge tangent parameter calculation processing unit 12 in FIG. 1, first, an edge vector is obtained by performing a difference calculation in the horizontal direction and the vertical direction on an image, and an edge tangent parameter is obtained based on the obtained edge vector. Will be explained. Before performing the difference calculation, the influence of noise can be reduced by performing blurring processing with a Gaussian filter or the like as preprocessing.
[0012]
FIG. 4 is a diagram for explaining an edge vector calculation method. Difference calculation in the horizontal direction is performed by subtracting the left and right pixel values of the target pixel, and difference calculation in the vertical direction is performed by subtracting the upper and lower pixel values. Hereinafter, the horizontal direction is expressed as the X direction, and the vertical direction is expressed as the Y direction.
[0013]
In the example shown in FIG. 4A, the edge vector C (C X , C Y ) is adjacent to the pixel C (point C) with the horizontal difference value C X and the vertical difference value C Y. From the pixel values of pixels A, B, D, and E,
C X = (D−B) / 2
C Y = (EA) / 2
Is calculated.
[0014]
In addition, for pixels at the edge of the image, there may be no vertical, horizontal, and adjacent pixels. In this case, the difference between the adjacent pixel and the pixel of interest itself is calculated and used as an edge vector component. Such an example is shown in FIG. The edge vector G (G X , G Y ) at the pixel G (point G) is obtained from the pixel values of the adjacent pixels F, H, I.
G X = HG
G Y = (IF) / 2
Is calculated.
[0015]
FIG. 5 shows an example of edge vector information. 5A shows the pixel value of the original image, and FIG. 5B shows the value of the edge vector component.
[0016]
Next, an edge tangent parameter is calculated from the obtained edge vector. Here, assuming that the center of the block is the origin, the distance r from the origin to the tangent and the angle θ that the normal vector of the tangent makes with the X direction are the edge tangent parameters to be obtained.
[0017]
FIG. 6 is a diagram for explaining an example of the edge tangent parameter. As is apparent from FIG. 6, the edge tangent parameters θ P and r P at the point P are easily calculated from the edge vector components P X and P Y at the point P.
[0018]
The Hough conversion process 23 is a process of performing Hough conversion on the calculated edge tangent parameter and voting to the two-dimensional voting space 24, and is performed by the Hough conversion processing unit 13 in FIG. FIG. 7 is a diagram for explaining an example of the voting process. Edge tangent parameter theta P and r P at point P shown in FIG. 7, be voted to the coordinates (theta P, r P) in voting space.
[0019]
Although the value to be voted may be +1, in this embodiment, the edge power value itself, that is, the square root of (P X 2 + P Y 2 ) is used as the vote value. By this method, the parameters of the edge having a strong power existing in the urban area are more emphasized.
[0020]
For the purpose of suppressing the adverse effects of noise and the like, it is also effective to use a voting process when the edge power is below a certain value, or to give a voting value by adding some weight to the edge power.
[0021]
The voting space 24 is a voting space obtained as a result of performing the Hough conversion processing 23 for all the pixels in the block. An example is shown in FIG. FIG. 8A shows an original image, and FIG. 8B shows an example of a voting space. In the example shown in FIG. 8A, voting is performed for all pixels in a circular block having a diameter of 50 pixels. In the voting space of FIG. 8B, the magnitude of the vote value is shown by changing the density. The horizontal axis of the voting space is the axis of the angle parameter θ (range 0 to 360 °), and the vertical axis is the axis of the distance parameter r (range 0 to 25). It can be seen that the straight line in the image is converted as a point having a high vote value in the voting space.
[0022]
The intra-block process end determination 25 is a process for determining whether or not the edge tangent parameter calculation process 22 and the Hough conversion process 23 have been completed for all pixels in the block. If there is an unprocessed pixel, the process returns to the edge tangent parameter calculation process 22 again to process the unprocessed pixel.
[0023]
The urban area determination process 26 is a process of determining whether or not the representative point of the block is an urban area based on the information of the voting space 24 in the voting space memory 14, and is performed by the urban area determination processing unit 15 of FIG. As a representative point of the block, there are a central pixel of the block, a pixel near the center of the block, all pixels constituting the block, a pixel having an edge power exceeding a certain value in the block, and the like. In this embodiment, a method of using a histogram (hereinafter referred to as an angle histogram) that is projected in the X-axis direction (angle parameter axis direction) and reduced in one dimension without using the two-dimensional voting space as it is. explain.
[0024]
FIG. 9 shows an angle histogram created from the voting space shown in FIG. There is also a method of obtaining an urban area from statistics such as the maximum value, minimum value, average value, and variance value of the angle histogram. Here, (1) maximum / minimum value and (2) determination processing based on edge tangent orthogonality explain.
[0025]
(1) Maximum value / minimum value The maximum value and minimum value of the angle histogram are obtained, and the ratio is calculated by dividing the maximum value by the minimum value. If this value is greater than or equal to a certain value, the representative point of the block is determined to be an urban area. Since the origin at the time of tangent parameter calculation is set at the center of the block, even if the apparent inclination is the same straight line, the angle parameter θ has a difference of 180 ° when it is located on the opposite side of the block center. . Therefore, by adding the 180-360 ° portion of the angle histogram to the 0-180 ° portion and setting the angle histogram range to 0-180 °, straight lines having the same inclination are corrected so as to have the same angle parameters. A method is also conceivable.
[0026]
For images with random edge directions, such as random noise, the maximum / minimum values are small, and this value is large when there is a straight line with strong edge power in the block. It is.
[0027]
(2) When an orthogonal straight line exists in the edge tangent orthogonal block, two peaks having an interval of 90 ° are generated in the angle histogram. Whether there are two peaks at 90 ° intervals can be determined by the following method.
[0028]
FIG. 10 is an explanatory diagram of the determination method. The histogram shown in FIG. 10 is obtained by overlapping the 180-360 ° portion with the 0-180 ° portion so that the angle range of the angle histogram is 0-180 ° as described in (1) above. First , the angle θ 1 taking the maximum value in this histogram is obtained. Next, a second peak search area S A having an arbitrary width around an angle θ 2 having a difference of θ 1 to 90 ° is set, and the maximum value (second peak value) in that area is obtained. In the example of FIG. 10, a width of ± 10 ° with θ 2 as the center is set as the range of the second peak search region S A.
[0029]
After obtaining the second peak value, this value is divided by the minimum value of the histogram. If the ratio is equal to or greater than a certain value, it is determined that the representative point of the block is an urban area. In addition to the ratio between the second peak value and the minimum value, the value of the second peak value itself, the difference between the second peak value and the minimum value, etc., can be used as a determination scale, or the maximum value itself can be added to the determination scale. Is also possible.
[0030]
In addition, an angle histogram with a range of 0 to 180 °, and a 90 to 180 ° portion overlapped with a 0 to 90 ° portion to create a histogram with an angle range of 0 to 90 °, the maximum and minimum values of the histogram. It is also conceivable to use the ratio of values as a judgment scale.
[0031]
Here, a method for determining an urban area based on an angle histogram has been described, but a method for calculating an appropriate feature amount using a two-dimensional voting space as it is is also conceivable.
[0032]
The end determination process 27 is a process for determining whether or not the urban area determination process 26 has been performed for all pixels. If there is a pixel that has not yet been processed, the process returns to the block acquisition process 21 and the same processing is performed for the unprocessed pixel.
[0033]
By performing the above processing for all the pixels, the urban area information 16 to which a bitmap or label indicating whether or not the area is an urban area is obtained for each pixel.
[0034]
The processing performed by the above-described urban area extraction processing apparatus 1 can be realized by a computer and a software program, and the program is stored in an appropriate recording medium such as a portable medium memory, a semiconductor memory, or a hard disk that can be read by the computer. It can be executed by a computer by storing and reading from it. The program can be downloaded from another computer via a communication line, and can be installed and executed.
[0035]
【The invention's effect】
As described above, the present invention performs urban area extraction focusing on texture characteristics in urban areas, that is, characteristics in which the edge power is strong and the edge tangent direction tends to be orthogonal in the urban area. For this reason, it is difficult to extract a closed area stably, and even in the case where there is a problem in the conventional method, it is possible to stably extract an urban area.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of an urban area extraction processing device according to the present embodiment.
FIG. 2 is a diagram illustrating a processing flow of an urban area extraction processing device.
FIG. 3 is a diagram illustrating an example of a circular block.
FIG. 4 is a diagram illustrating an edge vector calculation method.
FIG. 5 is a diagram illustrating an example of edge vector information.
FIG. 6 is a diagram for explaining an example of edge tangent parameters;
FIG. 7 is a diagram illustrating an example of voting processing.
FIG. 8 is a diagram illustrating an example of a voting space.
FIG. 9 is a diagram illustrating an example of an angle histogram.
FIG. 10 is a diagram illustrating a second peak search process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Urban area extraction processing apparatus 10 Input image memory | storage part 11 Block acquisition process part 12 Edge tangent parameter calculation process part 13 Hough conversion process part 14 Voting space memory 15 Urban area determination process part 16 Urban area area information

Claims (6)

地表を撮影した画像の中から,コンピュータにより市街地領域を自動的に抽出する方法であって,
前記コンピュータが,
画像各点を中心とした局所領域のブロックを設定する処理過程と,
前記ブロック内の各点においてエッジ接線をそれぞれ算出する処理過程と,
算出されたエッジ接線の角度パラメータと距離パラメータに対してハフ変換を行い,投票空間メモリ内に該2つのパラメータを2軸とする2次元の投票空間を作成する処理過程と,
前記投票空間メモリ内の投票空間にもとづき該ブロックの代表点が市街地であるか否かを判定する処理過程とを有する
ことを特徴とする市街地領域抽出処理方法。
A method for automatically extracting a city area from a photograph of the ground surface by a computer,
The computer is
A process for setting a block of local area around the image points,
A process of calculating the edge tangents respectively at each point in the block,
Performs Hough transform on the calculated edge tangent angle parameter and the distance parameter, the process of creating a two-dimensional voting space for the two parameters and 2 axes voting space memory,
Urban area extracting processing method, wherein a representative point of the block based on the voting space of the voting space in memory and a determining process whether the city.
請求項1に記載の市街地領域抽出処理方法において,
前記エッジ接線パラメータに対してハフ変換を行う際にエッジパワー値を投票値とする
ことを特徴とする市街地領域抽出処理方法。
In the urban area extraction processing method according to claim 1,
An urban area extraction processing method, wherein an edge power value is used as a vote value when performing a Hough transform on the edge tangent parameter.
請求項1または請求項2に記載の市街地領域抽出処理方法において,
前記ブロックの代表点が市街地であるか否かを判定する処理過程では,前記2次元の投票空間について角度パラメータ軸方向に射影をとり1次元のヒストグラムに縮退させ,該ヒストグラムにもとづき該ブロックの代表点が市街地であるか否を判定する
ことを特徴とする市街地領域抽出処理方法。
In the urban area extraction processing method according to claim 1 or 2,
In determining process whether the representative point of the block is urban, the two-dimensional voting space angular parameters axis direction is degenerated into a one-dimensional histogram takes the projection, representative of the blocks based on the histogram An urban area extraction processing method characterized by determining whether or not a point is an urban area.
地表を撮影した画像の中から,コンピュータにより市街地領域を自動的に抽出する装置であって,
画像各点を中心とした局所領域のブロックを設定する手段と,
前記ブロック内の各点においてエッジ接線をそれぞれ算出する手段と,
算出されたエッジ接線の角度パラメータと距離パラメータに対してハフ変換を行い,該2つのパラメータを2軸とする2次元の投票空間を作成する手段と,
得られた投票空間にもとづき該ブロックの代表点が市街地であるか否かを判定する手段とを備える
ことを特徴とする市街地領域抽出処理装置。
A device that automatically extracts a city area from a photograph of the ground surface by a computer,
Means for setting a block in a local area centered on each point of the image;
Means for calculating an edge tangent at each point in the block;
Means for performing a Hough transform on the calculated angle parameter and distance parameter of the edge tangent, and creating a two-dimensional voting space having the two parameters as two axes;
Means for determining whether or not a representative point of the block is an urban area based on the obtained voting space.
請求項1から請求項3までのいずれか一項に記載の市街地領域抽出処理方法を,コンピュータに実行させるための市街地領域抽出処理プログラム。  An urban area extraction processing program for causing a computer to execute the urban area extraction processing method according to any one of claims 1 to 3. 請求項1から請求項3までのいずれか一項に記載の市街地領域抽出処理方法を,コンピュータに実行させるためのプログラムを記録した
ことを特徴とする市街地領域抽出処理プログラムのコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium for an urban area extraction processing program, wherein a program for causing a computer to execute the urban area extraction processing method according to any one of claims 1 to 3 is recorded. .
JP2002091080A 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program Expired - Lifetime JP3816826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002091080A JP3816826B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002091080A JP3816826B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Publications (2)

Publication Number Publication Date
JP2003288593A JP2003288593A (en) 2003-10-10
JP3816826B2 true JP3816826B2 (en) 2006-08-30

Family

ID=29236255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002091080A Expired - Lifetime JP3816826B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Country Status (1)

Country Link
JP (1) JP3816826B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5253835B2 (en) * 2008-02-19 2013-07-31 株式会社キーエンス Image generating apparatus, image generating method, and computer program
JP5523798B2 (en) * 2009-11-16 2014-06-18 株式会社イシダ Image processing apparatus, apparatus with weighing function and packaging apparatus provided with the same

Also Published As

Publication number Publication date
JP2003288593A (en) 2003-10-10

Similar Documents

Publication Publication Date Title
US11080911B2 (en) Mosaic oblique images and systems and methods of making and using same
JP4847592B2 (en) Method and system for correcting distorted document images
US8803950B2 (en) Three-dimensional face capturing apparatus and method and computer-readable medium thereof
Chen et al. Fusion of LIDAR data and optical imagery for building modeling
US8331619B2 (en) Image processing apparatus and image processing method
CN108985137A (en) A kind of licence plate recognition method, apparatus and system
CN111582054B (en) Point cloud data processing method and device and obstacle detection method and device
CN107945111B (en) Image stitching method based on SURF (speeded up robust features) feature extraction and CS-LBP (local binary Pattern) descriptor
Lu et al. The restoration of camera documents through image segmentation
CN103514587B (en) Ship-based image-stabilizing method based on sea-sky boundary detecting
JP3811686B2 (en) Two-dimensional code reader
JP3816826B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
US7440636B2 (en) Method and apparatus for image processing
JP2003141567A (en) Three-dimensional city model generating device and method of generating three-dimensional city model
CN115223031B (en) Monocular frame ranging method and device, medium and curtain wall robot
Novacheva Building roof reconstruction from LiDAR data and aerial images through plane extraction and colour edge detection
Albanwan et al. Enhancement of depth map by fusion using adaptive and semantic-guided spatiotemporal filtering
JP3816825B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
CN114820485A (en) Method for measuring wave climbing height based on airborne image
Lehrbass et al. Urban tree cover mapping with relief-corrected aerial imagery and LiDAR
CN115731256A (en) Vertex coordinate detection method, device, equipment and storage medium
JPH11506847A (en) Visual identification method
JP2004151815A (en) Method, device and program for extracting specific area, and recording medium recording this program
JP3816827B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
JP2775404B2 (en) Automatic target identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060608

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3816826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110616

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120616

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130616

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140616

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term