JP2003288582A - Method, apparatus, and program for urban area extraction, and recording medium for the program - Google Patents

Method, apparatus, and program for urban area extraction, and recording medium for the program

Info

Publication number
JP2003288582A
JP2003288582A JP2002091060A JP2002091060A JP2003288582A JP 2003288582 A JP2003288582 A JP 2003288582A JP 2002091060 A JP2002091060 A JP 2002091060A JP 2002091060 A JP2002091060 A JP 2002091060A JP 2003288582 A JP2003288582 A JP 2003288582A
Authority
JP
Japan
Prior art keywords
urban area
image
edge
area
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002091060A
Other languages
Japanese (ja)
Other versions
JP3816825B2 (en
Inventor
Tetsuya Kinebuchi
哲也 杵渕
Akira Suzuki
章 鈴木
Naoki Ito
直己 伊藤
Akio Shio
昭夫 塩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002091060A priority Critical patent/JP3816825B2/en
Publication of JP2003288582A publication Critical patent/JP2003288582A/en
Application granted granted Critical
Publication of JP3816825B2 publication Critical patent/JP3816825B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably extract an urban area by paying attention to texture features in the urban area when the urban area is automatically extracted from a satellite photographic image, an aerial photographic image, etc. <P>SOLUTION: A two-dimensional edge vector is obtained as to each pixel of an image of an object of urban area extraction and in a block including the pixel as the center, the sum of outer products of a combination of two of all vectors is calculated to decide whether a representative point in the block is in an urban area. Further, lateral and longitudinal edge differences of each pixel in the block including each pixel as the center are calculated to find an edge tangent parameter and Hough transformation is performed for it to decide whether a representative point in the block is in the urban area according to a polling result. Furthermore, a water area and a forest area are found by using images of the red range and near infrared ranges of visible light and used to decide on the urban area. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は,衛星写真画像や航
空写真画像などの上空から撮影された画像の中から,そ
のテクスチャ情報およびマルチスペクトル情報にもとづ
き市街地領域を自動的に抽出する市街地領域抽出処理方
法,市街地領域抽出処理装置,市街地領域抽出処理プロ
グラムおよびそのプログラムの記録媒体に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an urban area area extraction for automatically extracting an urban area area from an image taken from the sky such as a satellite photographic image or an aerial photographic image based on its texture information and multispectral information. The present invention relates to a processing method, an urban area extraction processing device, an urban area extraction processing program, and a recording medium of the program.

【0002】[0002]

【従来の技術】従来の市街地領域抽出技術では,特定の
色や輝度条件を満たす閉領域に着目し,その閉領域の形
状があらかじめ規定しておいたものに近い場合に,該閉
領域を建造物領域であるとし,このような手法で抽出さ
れた建造物を統合して市街地であると認識していた。
2. Description of the Related Art In the conventional urban area extraction technology, attention is paid to a closed area satisfying a specific color or brightness condition, and when the shape of the closed area is close to that defined in advance, the closed area is constructed. It was assumed that it was a building area, and the buildings extracted by such a method were integrated and recognized as an urban area.

【0003】[0003]

【発明が解決しようとする課題】しかし,この種の従来
の方法は,画像がモノクロまたはグレースケールで色情
報がない場合や,建造物の一部が木や別の建造物で隠れ
ていて閉領域形状を取らない場合や,画像の解像度が低
いために各建造物が十分な大きさを持たず閉領域の形状
が崩れているような場合などに,安定して市街地領域抽
出を行うことができないという問題があった。
However, the conventional method of this type is closed when the image is monochrome or grayscale and has no color information, or when a part of the building is hidden by a tree or another building. Stable urban area extraction can be performed when the area shape is not taken, or when each building does not have a sufficient size due to the low image resolution and the shape of the closed area is collapsed. There was a problem that I could not.

【0004】本発明は,市街地領域でのテクスチャ特
徴,すなわち市街地領域ではエッジのパワーが強く,か
つエッジ接線方向が直交している傾向が強いという特徴
に着目することにより,上記従来の技術では問題となる
ような場合でも,安定して市街地領域抽出を行うことが
できるようにすることを目的とする。
The present invention focuses on the texture feature in the urban area, that is, the feature that the edge power is strong and the edge tangential directions are orthogonal to each other in the urban area. Even in such a case, the objective is to enable stable extraction of urban areas.

【0005】なお,ここでエッジパワーとは,画像各点
の2次元エッジベクトルの長さをいい,またエッジ接線
とは,画像各点における該点の2次元エッジベクトルを
法線ベクトルとする直線をいう。
Here, the edge power means the length of the two-dimensional edge vector of each point of the image, and the edge tangent line is the straight line whose normal vector is the two-dimensional edge vector of the point at each point of the image. Say.

【0006】[0006]

【課題を解決するための手段】本発明は,前記課題を解
決するため,市街地領域のエッジパワーとエッジ接線の
直交性を定量的に表す特徴量にもとづき市街地領域判定
を行うものであり,以下の方法を用いることを特徴とす
る。 1.可視光の赤色領域の波長をもつ電磁波をとらえた画
像(R画像という)と近赤外領域の電磁波をとらえた画
像(NIR画像という)とを用い,水領域と森林領域を
抽出する。 2.市街地領域抽出対象の画像に対し,上記1の結果を
使用した適当な前処理を施す。 3.市街地領域抽出対象の画像の各画素について2次元
のエッジベクトルを取得し,各画素を中心とするブロッ
ク内において,すべての2ベクトルの組み合わせについ
てベクトル外積の絶対値を計算し加算する。ベクトル
A,Bの外積の絶対値は,この2ベクトルのなす角度を
θとした場合, |A×B|=|(|A||B|sinθ)| と計算されるため,各エッジベクトルのパワーが大き
く,かつ2つのエッジベクトルの直交性が強いほど大き
な値となる。この結果得られるベクトル外積和を,ブロ
ック内の代表点に特徴量として付与し,この値にもとづ
き該点が市街地であるか否かを判定する。 4.市街地領域抽出対象の画像について各画素を中心と
する任意サイズのブロックを設定し,各画素において横
方向および縦方向のエッジ差分計算を行い,得られたエ
ッジ差分値にもとづきエッジ接線の角度パラメータと距
離パラメータとを求める。算出されたエッジ接線パラメ
ータに対してハフ(Hough)変換を行い,角度パラ
メータと距離パラメータとを2つの軸とする2次元の投
票空間に各エッジ接線パラメータを投票する。得られた
投票空間から適当な特徴量を求め,これにもとづきブロ
ックの代表点が市街地であるか否かを判定する。5.上
記3で抽出された市街地領域と上記4で抽出された市街
地領域とを足し合わせ,そこに上記1で抽出される森林
領域を除外して最終的な市街地領域を求める。
In order to solve the above-mentioned problems, the present invention determines the urban area based on the feature quantity which quantitatively expresses the orthogonality of the edge power and the edge tangent of the urban area. The method is used. 1. A water region and a forest region are extracted using an image capturing an electromagnetic wave having a wavelength in the red region of visible light (referred to as an R image) and an image capturing an electromagnetic wave in the near infrared region (referred to as an NIR image). 2. Appropriate preprocessing using the result of the above 1 is applied to the image of the urban area extraction target. 3. A two-dimensional edge vector is acquired for each pixel of the image of the urban area extraction target, and the absolute value of the vector cross product is calculated and added for all combinations of two vectors in the block centered on each pixel. The absolute value of the cross product of the vectors A and B is calculated as | A × B | = | (| A || B | sin θ) |, where θ is the angle formed by these two vectors. The larger the power and the stronger the orthogonality between the two edge vectors, the larger the value. The vector sum of vector cross products obtained as a result is given to the representative point in the block as a feature amount, and based on this value, it is determined whether or not the point is an urban area. 4. An arbitrary size block centered on each pixel is set for the image of the urban area extraction target, horizontal and vertical edge difference calculations are performed at each pixel, and the angle parameter of the edge tangent is calculated based on the obtained edge difference value. Find the distance parameter and. Hough transform is performed on the calculated edge tangent parameter, and each edge tangent parameter is voted in a two-dimensional voting space having two axes, an angle parameter and a distance parameter. An appropriate feature amount is obtained from the obtained voting space, and based on this, it is determined whether the representative point of the block is the urban area. 5. The final urban area is obtained by adding the urban area extracted in 3 above and the urban area extracted in 4 above and excluding the forest area extracted in 1 above.

【0007】上記3の手法は,小さな家などが集合して
いる市街地領域の抽出に有効であり,ブロックサイズは
家程度の大きさにすると良い結果を示す。また,上記4
の手法は,工場など大きな建造物の抽出に有効であり,
ブロックサイズは上記3で用いるものより大きなものを
使用すると良い結果を示す。
The above-mentioned method 3 is effective for extracting an urban area where small houses and the like are gathered, and a good result is obtained when the block size is about the size of a house. In addition, the above 4
Method is effective for extracting large buildings such as factories,
It is preferable to use a block size larger than that used in 3 above.

【0008】以上の方法により,市街地のテクスチャ特
徴にもとづく安定した市街地領域抽出が可能となる。
By the above method, it is possible to stably extract the urban area based on the texture characteristics of the urban area.

【0009】[0009]

【発明の実施の形態】本発明の実施の形態を,図を用い
て詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail with reference to the drawings.

【0010】図1に,本実施の形態による市街地領域抽
出処理装置の構成例を示す。図中,1はCPUおよびメ
モリなどからなる市街地領域抽出処理装置,10は衛星
写真画像や航空写真画像等,地表を可視光の赤色領域の
波長をもつ電磁波でとらえたR画像,11はR画像10
と同一地点を近赤外領域の電磁波でとらえたNIR画
像,12はR画像10およびNIR画像11と同一地点
を可視光で撮影した画像(以下,P画像という),20
はR画像10とNIR画像11とから水領域を抽出する
水領域抽出処理部,30はR画像10とNIR画像11
とから森林領域を抽出する森林領域抽出処理部,13は
抽出された森林領域,14は抽出された水領域,40は
P画像12に対して行うヒストグラム平坦化処理部,5
0はベクトル外積和を特徴量とする市街地領域抽出処理
部,15は市街地領域抽出処理部50において内積の符
号チェックを行わない場合に抽出された市街地領域A,
16は内積の符号チェックを行った場合に抽出された市
街地領域B,60はHough特徴による市街地領域抽
出処理部,17は市街地領域抽出処理部60の処理によ
り抽出された市街地領域C,70は市街地領域A15と
市街地領域C17とを統合するマージ処理部,18はマ
ージ処理部70の結果得られるマージ結果,80はマー
ジ結果18に対して森林領域の修正を行う森林領域修正
処理部,19は最終的に得られる市街地領域である。
FIG. 1 shows a structural example of an urban area extraction processing apparatus according to this embodiment. In the figure, 1 is an urban area extraction processing device including a CPU and memory, 10 is an R image obtained by capturing the ground surface with electromagnetic waves having a wavelength in the red region of visible light, such as satellite photographic images and aerial photographic images, 11 is an R image 10
NIR image obtained by capturing the same point with electromagnetic waves in the near infrared region, 12 is an image obtained by visualizing the same point as the R image 10 and the NIR image 11 with visible light (hereinafter referred to as P image), 20
Is a water area extraction processing unit that extracts water areas from the R image 10 and the NIR image 11, and 30 is the R image 10 and the NIR image 11
A forest area extraction processing unit for extracting a forest area from the above, 13 an extracted forest area, 14 an extracted water area, 40 a histogram flattening processing unit for the P image 12, 5
0 is an urban area extraction processing unit having a vector outer product sum as a feature amount, 15 is an urban area A extracted when the inner product sign is not checked in the urban area extraction processing unit 50,
Reference numeral 16 is an urban area area B extracted when the sign of the inner product is checked, 60 is an urban area area extraction processing unit using Hough features, 17 is an urban area area C extracted by the processing of the urban area area extraction processing unit 60, and 70 is an urban area. A merge processing unit that integrates the area A15 and the urban area C17, 18 is a merge result obtained as a result of the merge processing unit 70, 80 is a forest area correction processing unit that corrects the forest area for the merge result 18, and 19 is the final result. It is an urban area that can be obtained.

【0011】R画像10は,人工衛星や航空機を用い
て,上空から地表を可視光の赤色領域の波長をもつ電磁
波で撮影した画像である。
The R image 10 is an image obtained by photographing the ground surface from the sky with an electromagnetic wave having a wavelength in the red region of visible light using an artificial satellite or an aircraft.

【0012】NIR画像11は,人工衛星や航空機を用
いて,上空から地表を近赤外領域の波長をもつ電磁波で
撮影した画像である。一般的に地表撮影用の人工衛星や
航空機には,R画像やNIR画像を撮影するための機器
が搭載されている。
The NIR image 11 is an image obtained by photographing the ground surface from the sky with an electromagnetic wave having a wavelength in the near infrared region, using an artificial satellite or an aircraft. Generally, an artificial satellite or an aircraft for surface imaging is equipped with a device for capturing an R image and an NIR image.

【0013】P画像12は,人工衛星や航空機を用い
て,上空から地表を可視光で撮影した画像である。一般
的にP画像は,R画像やNIR画像に比べて解像度が高
いため,本実施の形態では,P画像から市街地領域を抽
出する方法を説明する。P画像の代わりにR画像やNI
R画像,または別の波長領域で撮影した画像を市街地領
域抽出対象の画像とすることもできる。
The P image 12 is an image obtained by photographing the ground surface with visible light from above using an artificial satellite or an aircraft. Generally, the P image has a higher resolution than the R image and the NIR image. Therefore, in the present embodiment, a method of extracting the urban area from the P image will be described. R image or NI instead of P image
An R image or an image photographed in another wavelength region can be used as an image for extracting the urban area.

【0014】水領域抽出処理部20は,同一地点を撮影
したR画像10とNIR画像11とから,水領域を抽出
する処理手段である。はじめにアフィン変換などで2枚
の画像の位置合わせが必要となる場合も考えられる。位
置合わせの後,対応する各点において, X=(NIR画像における輝度値)/(R画像における
輝度値) を計算する。水の反射率は可視光の赤色領域と近赤外領
域とで大きく異なり,近赤外領域での反射率は可視光赤
色領域の反射率よりたいへん小さい。したがって,水領
域では上記Xは小さな値をとる。そこでXの値が一定値
以下である場合,該点を水領域であると判定する。この
一定値は,照明条件やカメラ特性によって大きく値が変
動するが,例えば, NIR/R<0.7 の場合に,その画素を水領域と判定する。
The water area extraction processing unit 20 is a processing means for extracting a water area from the R image 10 and the NIR image 11 taken at the same point. First, there may be a case where alignment of two images is required due to affine transformation or the like. After alignment, at each corresponding point, X = (luminance value in NIR image) / (luminance value in R image) is calculated. The reflectance of water differs greatly between the red region of visible light and the near-infrared region, and the reflectance in the near-infrared region is much smaller than that in the red region of visible light. Therefore, X has a small value in the water region. Therefore, when the value of X is equal to or less than a certain value, the point is determined to be the water region. Although the value of this constant value varies greatly depending on the illumination conditions and the camera characteristics, for example, when NIR / R <0.7, the pixel is determined to be the water region.

【0015】また上記X以外にも,NIR画像11での
輝度値とR画像10での輝度値との差や,下記で説明す
るNDVIを水領域の判定尺度とする方法も考えられ
る。
In addition to the above X, a method in which the difference between the brightness value in the NIR image 11 and the brightness value in the R image 10 or NDVI described below is used as the water area judgment scale is also conceivable.

【0016】森林領域抽出処理部30は,水領域抽出処
理部20と同様に,同一地点を撮影したR画像10とN
IR画像11とから森林領域を抽出する処理手段であ
る。ここでもアフィン変換などで2枚の画像の位置合わ
せが必要となる場合も考えられる。その後,対応する各
点において, NDVI=(NIR画像における輝度値−R画像におけ
る輝度値)/(NIR画像における輝度値+R画像にお
ける輝度値) を計算する。森林領域では,クロロフィルの分光反射率
特性より上記NDVIの値が大きくなる(参照:“図解
リモートセンシング”,日本測量協会)。NDVIの値
が一定値以上である場合,該点を森林領域と判定する。
The forest area extraction processing unit 30 is similar to the water area extraction processing unit 20 in that the R image 10 and the N image taken at the same point are taken.
It is a processing means for extracting the forest area from the IR image 11. In this case as well, there may be a case where the two images need to be aligned by affine transformation or the like. Then, at each corresponding point, NDVI = (luminance value in NIR image−luminance value in R image) / (luminance value in NIR image + luminance value in R image) is calculated. In the forest area, the value of NDVI becomes larger than the spectral reflectance characteristic of chlorophyll (see: "Illustrated Remote Sensing", Japan Surveyors Association). When the value of NDVI is a certain value or more, the point is determined as a forest area.

【0017】森林領域13は,森林領域抽出処理部30
により抽出された領域である。森林領域13に対して,
必要に応じてノイズ除去処理,ぼかし処理,最大値フィ
ルタ処理,最小値フィルタ処理などの画像処理を施す方
法もある。
The forest area 13 is a forest area extraction processing unit 30.
Is the region extracted by. For the forest area 13,
There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filtering processing, and minimum value filtering processing as needed.

【0018】水領域14は,水領域抽出処理部20によ
り抽出された領域である。水領域14に対して,必要に
応じてノイズ除去処理,ぼかし処理,最大値フィルタ処
理,最小値フィルタ処理などの画像処理を施す方法もあ
る。
The water area 14 is an area extracted by the water area extraction processing section 20. There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filter processing, and minimum value filter processing on the water region 14 as necessary.

【0019】ヒストグラム平坦化処理部40は,必要に
応じてP画像に対して輝度変換を行う処理手段であり,
本実施の形態では,ヒストグラム平坦化(参照:“コン
ピュータ画像処理入門”,総研出版,田村秀行監修)を
行う。この処理により建物の屋根部分と影部分とのコン
トラストが大きくなり,市街地領域のテクスチャ特徴が
より強調される。
The histogram flattening processing section 40 is a processing means for performing luminance conversion on the P image as necessary,
In this embodiment, histogram flattening (reference: “Introduction to computer image processing”, Research Institute Publishing, supervised by Hideyuki Tamura) is performed. By this processing, the contrast between the roof part and the shadow part of the building is increased, and the texture features in the urban area are further emphasized.

【0020】また本実施の形態では,ヒストグラム平坦
化の際に水領域14を用いる方法について説明する。海
や湖など,輝度値の小さい領域が画像中に大きく存在す
る場合,ヒストグラム平坦化処理では適切なコントラス
ト強調効果が現れない場合がある。そこで,ヒストグラ
ム平坦化処理に必要な輝度ヒストグラムを,水領域を除
外した部分で取得し,またヒストグラム平坦化処理自体
も水領域を除外した部分にのみ適用する。このような方
法を用いることにより,画像中に海や湖などが大きく存
在している場合にも,市街地領域のコントラストが強調
される。
Further, in the present embodiment, a method of using the water region 14 at the time of histogram flattening will be described. If there are large areas of low brightness in the image, such as the sea or lake, the histogram flattening process may not show the appropriate contrast enhancement effect. Therefore, the luminance histogram necessary for the histogram flattening process is acquired in the part excluding the water region, and the histogram flattening process itself is applied only to the part excluding the water region. By using such a method, the contrast in the urban area is enhanced even when there are large seas or lakes in the image.

【0021】ベクトル外積和による市街地領域抽出処理
部50は,ベクトル外積和を特徴量として市街地領域を
抽出する処理手段である。図2に,ベクトル外積和によ
る市街地領域抽出処理部50による処理の流れを示す。
The urban area extraction processing unit 50 using the vector cross product sum is a processing means for extracting the urban area using the vector cross product sum as a feature amount. FIG. 2 shows the flow of processing by the urban area extraction processing unit 50 using the vector cross product sum.

【0022】入力画像(P画像)51は,ヒストグラム
平坦化処理部40で出力される画像である。エッジベク
トル取得処理52は,画像に差分計算を施してエッジベ
クトルを取得する処理である。差分計算を行う前に,前
処理としてガウシアンフィルタなどでぼかし処理を施す
ことにより,ノイズの影響を小さくすることができる。
The input image (P image) 51 is an image output by the histogram flattening processing unit 40. The edge vector acquisition process 52 is a process of performing a difference calculation on an image to acquire an edge vector. The effect of noise can be reduced by performing blurring processing with a Gaussian filter or the like before performing the difference calculation.

【0023】本実施の形態では,横方向と縦方向の差分
計算を行う方法について説明する。図3は,そのエッジ
ベクトルの算出方法を説明する図である。横方向の差分
計算は,着目画素の左右の画素値を減算することより,
縦方向の差分計算は上下の画素値を減算することにより
行う。
In the present embodiment, a method of calculating the difference between the horizontal direction and the vertical direction will be described. FIG. 3 is a diagram illustrating a method of calculating the edge vector. The difference calculation in the horizontal direction is performed by subtracting the pixel values on the left and right of the pixel of interest.
The difference calculation in the vertical direction is performed by subtracting the upper and lower pixel values.

【0024】図3(a)に示した例では,画素C(点
C)における横方向の差分値をCX ,縦方向の差分値を
Y として,エッジベクトルC(CX ,CY )は,隣接
画素A,B,D,Eの画素値から, CX =(D−B)/2 CY =(E−A)/2 と計算される。
In the example shown in FIG. 3A, the edge vector C (C X , C Y ) is defined by assuming that the horizontal difference value at the pixel C (point C) is C X and the vertical difference value is C Y. Is calculated as C X = (D−B) / 2 C Y = (E−A) / 2 from the pixel values of the adjacent pixels A, B, D and E.

【0025】また,画像の端にある画素については,上
下左右の隣接画素が存在しない場合もある。この場合に
は,隣接画素と着目画素自身との差分を計算して,エッ
ジベクトルの成分とする。このような例を図3(b)に
示す。画素G(点G)におけるエッジベクトルG
(GX ,GY )は,隣接画素F,H,Iの画素値から, GX =H−G GY =(I−F)/2 と計算される。
Further, with respect to the pixels at the edges of the image, there are cases where there are no adjacent upper, lower, left and right pixels. In this case, the difference between the adjacent pixel and the pixel of interest itself is calculated and used as the edge vector component. Such an example is shown in FIG. Edge vector G at pixel G (point G)
(G X , G Y ) is calculated as G X = H−G G Y = (I−F) / 2 from the pixel values of the adjacent pixels F, H, and I.

【0026】エッジベクトル情報53は,エッジベクト
ル取得処理52の結果得られ,全画素に2次元のエッジ
ベクトルが付与されている。図4に,エッジベクトル情
報53の例を示す。図4(a)は原画像の画素値,
(b)はエッジベクトル成分の値を示している。
The edge vector information 53 is obtained as a result of the edge vector acquisition processing 52, and two-dimensional edge vectors are given to all pixels. FIG. 4 shows an example of the edge vector information 53. FIG. 4A shows the pixel value of the original image,
(B) shows the value of the edge vector component.

【0027】ブロック取得処理54は,着目画素を中心
として一定サイズの領域を取得する処理である。図5
は,領域のサイズを3画素×3画素とした場合のブロッ
クの例を示している。
The block acquisition process 54 is a process for acquiring an area of a fixed size centered on the pixel of interest. Figure 5
Shows an example of a block when the size of the area is 3 pixels × 3 pixels.

【0028】外積和計算処理55は,ブロック取得処理
54で取得したブロック内において,すべての2つのエ
ッジベクトルの組み合わせ間でのベクトル外積を計算
し,その絶対値を加算していく処理である。ここでは,
図6に示した例のように,9画素で構成されるブロック
内のすべての2つのベクトルの組み合わせ,すなわち 9
2 =36通りの組み合わせ間でベクトル外積の絶対値
を計算して加算する。
The outer product sum calculation process 55 is a process of calculating a vector outer product between all combinations of two edge vectors in the block acquired by the block acquisition process 54 and adding the absolute values thereof. here,
As in the example shown in FIG. 6, a combination of all two vectors in a block consisting of 9 pixels, that is, 9
The absolute value of the vector cross product is calculated and added among C 2 = 36 combinations.

【0029】また,図7(a)に示すように,白地に黒
い領域と黒字に白い領域とを区別するため,外積を計算
する2つのベクトルのうちのどちらか一方のエッジベク
トルVE と,該エッジベクトルVE を付与されたエッジ
点から他方のエッジ点に向かう方向ベクトルVD との内
積を計算し,図7(b)に示すように内積値がプラス値
の場合にのみベクトル外積の加算処理を行い,図7
(c)に示すように内積値がマイナス値の場合には,そ
れら2つのエッジベクトルの組み合わせにおけるベクト
ル外積の加算処理をスキップする方法も考えられる(図
7(d))。
Further, as shown in FIG. 7A, in order to distinguish a black region on a white background and a white region on a black character, an edge vector V E of either one of two vectors for calculating an outer product, The inner product of the edge vector V E and the direction vector V D from the given edge point toward the other edge point is calculated, and the vector outer product is calculated only when the inner product value is a positive value as shown in FIG. 7B. Figure 7
As shown in FIG. 7C, when the inner product value is a negative value, a method of skipping the addition process of the vector outer product in the combination of these two edge vectors can be considered (FIG. 7D).

【0030】外積和56は,外積和計算処理55の結果
得られ,画像各点に特徴量として与えられる。
The outer product sum 56 is obtained as a result of the outer product sum calculation processing 55, and is given to each point of the image as a feature amount.

【0031】市街地判定処理57は,外積和計算処理5
5で得られた外積和56にもとづき,ブロックの代表点
を市街地であるかどうかを判定する処理である。代表点
はブロックの中心点,ブロックを構成する全点,ブロッ
ク中心付近の点など,任意に設定可能であるが,ここで
はブロックの中心点とする。外積和の値に対してしきい
値処理を行って市街地と非市街地領域の二つに分別す
る。また,しきい値処理を行わずに,外積和の値をその
まま市街地らしさを表す値として出力することも考えら
れる。
The city area determination processing 57 is the outer product sum calculation processing 5
This is a process for determining whether or not the representative point of the block is the urban area based on the outer product sum 56 obtained in 5. The representative point can be arbitrarily set, such as the center point of the block, all points forming the block, and points near the center of the block. Here, the representative point is the center point of the block. Thresholding is performed on the value of the sum of outer products to classify it into two areas, an urban area and a non-urban area. It is also conceivable that the value of the sum of outer products is output as it is as a value representing the urban area without performing threshold processing.

【0032】また,海岸線などの誤抽出を抑えるため,
水領域抽出処理部20で抽出した水領域14を用い水領
域の近郊では市街地判定を取り消す方法も考えられる。
Further, in order to suppress erroneous extraction of coastlines,
A method of canceling the urban area determination in the suburbs of the water area using the water area 14 extracted by the water area extraction processing unit 20 may be considered.

【0033】終了判定処理58は,全画素についてブロ
ック取得処理54,外積和計算処理55,市街地判定処
理57が行われたかどうかを判定する処理である。まだ
未処理である画素が存在する場合には,ブロック取得処
理54に戻り,未処理画素について同様に市街地判定を
行う。
The end determination processing 58 is processing for determining whether or not the block acquisition processing 54, the outer product sum calculation processing 55, and the city area determination processing 57 have been performed for all pixels. If there is a pixel that has not been processed yet, the process returns to the block acquisition process 54, and the city area determination is similarly performed for the unprocessed pixel.

【0034】市街地領域A(内積チェック無)15は,
ベクトル外積和による市街地領域抽出処理部50におい
て内積の符号チェックを行わない場合に抽出された市街
地領域である。市街地領域A15に対して,必要に応じ
てノイズ除去処理,ぼかし処理,最大値フィルタ処理,
最小値フィルタ処理などの画像処理を施す方法もある。
Urban area A (no inner product check) 15
This is the urban area extracted when the sign of the inner product is not checked by the urban area extraction processing unit 50 based on the vector outer product sum. Noise reduction processing, blurring processing, maximum value filtering processing, as necessary for the urban area A15,
There is also a method of performing image processing such as minimum value filter processing.

【0035】また,市街地領域B(内積チェック有)1
6は,ベクトル外積和による市街地領域抽出処理部50
において内積の符号チェックを行った場合に抽出された
市街地領域である。市街地領域B16に対して,必要に
応じてノイズ除去処理,ぼかし処理,最大値フィルタ処
理,最小値フィルタ処理などの画像処理を施す方法もあ
る。
Urban area B (with inner product check) 1
6 is an urban area extraction processing unit 50 based on the sum of vector cross products
It is an urban area extracted when the sign of the inner product is checked in. There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filter processing, and minimum value filter processing on the city area B16 as necessary.

【0036】Hough特徴による市街地領域抽出処理
部60は,エッジ接線パラメータのHough変換によ
って算出されるHough特徴量にもとづいて市街地領
域を抽出する処理手段である。図8に,Hough特徴
による市街地領域抽出処理部60の処理の流れを示す。
The urban area extraction processing unit 60 based on the Hough feature is a processing means for extracting the urban area based on the Hough feature amount calculated by the Hough transform of the edge tangent parameter. FIG. 8 shows a processing flow of the urban area extraction processing unit 60 based on the Hough feature.

【0037】入力画像(P画像)61は,ヒストグラム
平坦化処理部40で出力される画像である。ブロック取
得処理62は,着目画素を中心として一定サイズのブロ
ックを取得する処理である。ブロックの形は正方形,円
形など任意であるが,本実施の形態では,円形のブロッ
クを取得するものとする。これはその後に行われるエッ
ジ接線パラメータのHough変換に都合が良いからで
ある。円形ブロックの例を,図9に示す。
The input image (P image) 61 is an image output by the histogram flattening processing unit 40. The block acquisition process 62 is a process of acquiring a block of a fixed size centered on the pixel of interest. The shape of the block is arbitrary, such as a square or a circle, but in the present embodiment, a circular block is acquired. This is because it is convenient for the Hough transform of the edge tangent parameter that is performed thereafter. An example of a circular block is shown in FIG.

【0038】エッジ接線パラメータ計算処理63は,ブ
ロック内の各点におけるエッジ接線を求める処理であ
る。ここでは,まず画像に横方向および縦方向の差分計
算を施してエッジベクトルを取得し,取得したエッジベ
クトルにもとづきエッジ接線パラメータを求める手法を
説明する。エッジベクトルを求める処理は,図2で説明
したエッジベクトル取得処理52と同様である。
The edge tangent line parameter calculation process 63 is a process for obtaining an edge tangent line at each point in the block. Here, a method of first performing a difference calculation in the horizontal and vertical directions on an image to acquire an edge vector, and obtaining an edge tangent parameter based on the acquired edge vector will be described. The processing for obtaining the edge vector is the same as the edge vector acquisition processing 52 described with reference to FIG.

【0039】次に,得られたエッジベクトルからエッジ
接線パラメータを計算する。ここでブロックの中心を原
点とおき,原点から接線までの距離rと,接線の法線ベ
クトルがX方向となす角度θを求めるべきエッジ接線パ
ラメータとする。
Next, edge tangent parameters are calculated from the obtained edge vector. Here, the center of the block is the origin, and the distance r from the origin to the tangent and the angle θ formed by the tangent normal vector with the X direction are the edge tangent parameters to be obtained.

【0040】図10は,エッジ接線パラメータの例を説
明する図である。図10から明らかなように,点Pにお
けるエッジベクトル成分PX とPY とから,点Pにおけ
るエッジ接線のパラメータθP とrP は簡単に計算され
る。
FIG. 10 is a diagram for explaining an example of edge tangent line parameters. As is apparent from FIG. 10, the edge tangent parameters θ P and r P at the point P are easily calculated from the edge vector components P X and P Y at the point P.

【0041】Hough変換処理64は,算出されたエ
ッジ接線パラメータに対してHough変換を行い,2
次元の投票空間に投票していく処理である。図11は,
その投票処理の例を説明する図である。図10で示した
点Pでのエッジ接線パラメータθP とrP は,投票空間
内の座標(θP ,rP )に投票される。
The Hough transform process 64 performs Hough transform on the calculated edge tangent parameters, and 2
This is a process of voting in a three-dimensional voting space. Figure 11
It is a figure explaining the example of the voting process. Edge tangent parameter theta P and r P at point P shown in FIG. 10, be voted to the coordinates (theta P, r P) in voting space.

【0042】投票される値は,+1の場合もあるが,本
実施の形態ではエッジパワー値そのもの,すなわち(P
X 2 +PY 2 )の平方根を投票値とする。この方法によ
り,市街地領域に多く存在するパワーが強いエッジのパ
ラメータが,より強調されることになる。
The voted value may be +1 in this case, but in the present embodiment, the edge power value itself, that is, (P
The voting value is the square root of ( X 2 + P Y 2 ). By this method, the parameters of the edge with strong power, which are often present in the urban area, are more emphasized.

【0043】また,ノイズの悪影響の抑制等を目的とし
て,エッジパワーが一定値以下の場合には投票処理を行
わないとか,またはエッジパワーに何らかの重みをつけ
て投票値とするなどの方法も有効である。
Further, for the purpose of suppressing the adverse effects of noise, it is also effective to perform no voting process when the edge power is a fixed value or less, or to give a weight to the edge power to obtain a voting value. Is.

【0044】投票空間65は,Hough変換処理64
をブロック内の全画素について行った結果,得られる投
票空間である。図12にその例を示す。図12(a)は
原画像,図12(b)は投票空間の例を示している。図
12(a)の例では直径50画素の円形ブロック69内
の全画素に対して投票を行っている。図12(b)の投
票空間では,得票値の大小を濃度を変えて示している。
投票空間の横軸は,角度パラメータθの軸(範囲0〜3
60°),縦軸は距離パラメータrの軸(範囲0〜2
5)である。画像内の直線が投票空間内では得票値の高
い点として変換されていることが分かる。
The voting space 65 is the Hough conversion processing 64.
This is the voting space obtained as a result of performing for all pixels in the block. FIG. 12 shows an example thereof. 12A shows an original image, and FIG. 12B shows an example of a voting space. In the example of FIG. 12A, voting is performed on all the pixels in the circular block 69 having a diameter of 50 pixels. In the voting space of FIG. 12B, the size of the vote value is shown by changing the density.
The horizontal axis of the voting space is the axis of the angle parameter θ (range 0 to 3).
60 °), the vertical axis is the axis of the distance parameter r (range 0 to 2)
5). It can be seen that the straight line in the image is converted into a point with a high vote value in the voting space.

【0045】ブロック内処理終了判定66は,ブロック
内の全画素についてエッジ接線パラメータ計算処理6
3,Hough変換処理64が終了したか否かを判定す
る処理である。未処理画素が存在する場合,再びエッジ
接線パラメータ計算処理63へ戻り,未処理画素の処理
を行う。
The in-block processing end determination 66 is an edge tangent parameter calculation processing 6 for all pixels in the block.
3, a process of determining whether or not the Hough conversion process 64 is completed. When there is an unprocessed pixel, the process returns to the edge tangent line parameter calculation process 63 again to process the unprocessed pixel.

【0046】市街地領域B(内積チェック有)16は,
図1のベクトル外積和による市街地領域抽出処理部50
で抽出された市街地領域Bである。水領域14は,図1
の水領域抽出処理部20で抽出された水領域である。
The urban area B (with inner product check) 16 is
Urban area extraction processing unit 50 based on vector sum of cross products in FIG.
It is the urban area B extracted in. The water area 14 is shown in FIG.
It is the water region extracted by the water region extraction processing unit 20 of FIG.

【0047】市街地判定処理67は,投票空間65にも
とづき,ブロックの代表点が市街地であるかどうかを判
定する処理である。ブロックの代表点として,ブロック
の中心画素,ブロック中心付近の画素,ブロックを構成
する全画素,ブロック内の一定値以上のエッジパワーを
持つ画素などが考えられる。本実施の形態では,2次元
の投票空間をそのまま用いず,X軸方向(角度パラメー
タ軸方向)に射影をとり,1次元に縮退させたヒストグ
ラム(以下,角度ヒストグラムと呼称する)を用いる方
法を説明する。
The city area determination processing 67 is processing for determining whether the representative point of the block is the city area based on the voting space 65. As a representative point of the block, a center pixel of the block, a pixel near the center of the block, all pixels forming the block, and pixels having an edge power of a certain value or more in the block are considered. In the present embodiment, a method is used in which a two-dimensional voting space is not used as it is, but a projection is taken in the X-axis direction (angle parameter axis direction) and a one-dimensionally degenerated histogram (hereinafter referred to as an angle histogram) is used. explain.

【0048】図13に,図12(b)に示す投票空間か
ら作成した角度ヒストグラムを示す。角度ヒストグラム
の最大値,最小値,平均値,分散値などの統計量から市
街地を求める方法もあるが,ここでは(1)最大値/最
小値,(2)エッジ接線直交性にもとづく判定処理につ
いて説明する。
FIG. 13 shows an angle histogram created from the voting space shown in FIG. There is also a method to obtain the city area from statistics such as the maximum value, minimum value, average value, and variance value of the angle histogram, but here, the judgment processing based on (1) maximum value / minimum value, (2) edge tangent orthogonality explain.

【0049】(1)最大値/最小値 角度ヒストグラムの最大値と最小値を求め,最大値を最
小値で除算して比率を計算する。この値が一定値以上で
ある場合,ブロックの代表点を市街地と判定する。接線
パラメータ計算時の原点をブロックの中心に設定してい
るため,見た目の傾きが同じ直線でもブロック中心に対
して反対側に位置するとき,その角度パラメータθは1
80°の差を持つこととなる。そこで角度ヒストグラム
の180〜360°部分を0〜180°部分に加算し,
角度ヒストグラムの範囲を0〜180°とすることで,
同一の傾きを持つ直線は同一の角度パラメータを持つよ
うに補正する方法も考えられる。
(1) Maximum value / minimum value The maximum value and the minimum value of the angle histogram are obtained, and the maximum value is divided by the minimum value to calculate the ratio. If this value is greater than a certain value, the block's representative point is determined to be an urban area. Since the origin of tangent parameter calculation is set to the center of the block, the angle parameter θ is 1
There will be a difference of 80 °. So add the 180-360 ° part of the angle histogram to the 0-180 ° part,
By setting the range of the angle histogram to 0 to 180 degrees,
A method of correcting straight lines having the same inclination so as to have the same angle parameter may be considered.

【0050】ランダムノイズのようにエッジ方向がばら
ばらである画像の場合,最大値/最小値は小さな値であ
り,この値が大きな値となるのはブロック内に強いエッ
ジパワーを持つ直線が存在するなどの場合である。
In the case of an image in which the edge directions are scattered like random noise, the maximum value / minimum value is a small value, and the large value is that there is a straight line having a strong edge power in the block. And so on.

【0051】(2)エッジ接線直交性 ブロック内に直交する直線が存在する場合,角度ヒスト
グラムには90°の間隔を持つ2つのピークが発生す
る。90°間隔の2つのピークがあるか否かは,次の方
法により判定することができる。図14に,その判定方
法の説明図を示す。
(2) Edge tangent orthogonality If there are orthogonal straight lines in the block, two peaks having an interval of 90 ° occur in the angle histogram. Whether or not there are two peaks at 90 ° intervals can be determined by the following method. FIG. 14 shows an explanatory diagram of the determination method.

【0052】図14に示すヒストグラムは,上記(1)
において説明したように180〜360°部分を0〜1
80°部分に重ねて角度ヒストグラムの角度範囲を0〜
180゜としたものである。はじめにこのヒストグラム
において最大値を取る角度θ 1 を求める。次に,θ1
ら90°の差を持つ角度θ2 を中心として任意の幅を持
つ第2ピーク探索領域SA を設定し,その領域内での最
大値(第2ピーク値)を求める。図14の例では,θ2
を中心として±10°の幅を第2ピーク探索領域SA
範囲と設定した。
The histogram shown in FIG. 14 corresponds to the above (1).
The 180 to 360 ° portion is 0 to 1 as described above.
The angle range of the angle histogram is 0-overlapped on the 80 ° part.
It is 180 degrees. Introduction this histogram
The maximum angle at θ 1Ask for. Then θ1Or
Angle θ with a difference of 90 ° from2With any width around
Second peak search area SAIs set, and the maximum
A large value (second peak value) is calculated. In the example of FIG. 14, θ2
With a width of ± 10 ° around the second peak search area SAof
The range was set.

【0053】第2ピーク値を求めた後,この値をヒスト
グラムの最小値で除算し,その比率が一定値以上の場
合,該ブロックの代表点を市街地領域であると判定す
る。第2ピーク値と最小値との比率以外にも,第2ピー
ク値そのものの値,第2ピーク値と最小値との差分など
を判定尺度としたり,最大値そのものの値も判定尺度に
加えることも考えられる。
After the second peak value is obtained, this value is divided by the minimum value of the histogram, and if the ratio is equal to or greater than a certain value, the representative point of the block is determined to be the urban area. In addition to the ratio between the second peak value and the minimum value, the value of the second peak value itself, the difference between the second peak value and the minimum value, or the like may be used as the judgment scale, or the value of the maximum value itself may be added to the judgment scale. Can also be considered.

【0054】また,範囲を0〜180°とした角度ヒス
トグラムの,さらに90〜180°部分を0〜90°部
分に重ね,角度範囲を0〜90°としたヒストグラムを
作成し,該ヒストグラムの最大値と最小値との比率を判
定尺度とすることも考えられる。
Further, an angle histogram having a range of 0 to 180 ° is further overlapped with a 90 to 180 ° portion on a 0 to 90 ° portion to create a histogram having an angle range of 0 to 90 °. It is also conceivable to use the ratio between the value and the minimum value as the judgment scale.

【0055】ここでは,角度ヒストグラムにもとづき市
街地判定する方法を説明したが,2次元の投票空間をそ
のまま使用して,適当な特徴量を算出する方法も考えら
れる。
Although the method of determining the city area based on the angle histogram has been described here, a method of calculating an appropriate feature amount using the two-dimensional voting space as it is may be considered.

【0056】また,水田や畑などが建造物として誤抽出
されるのを抑制するため,市街地領域B(内積チェック
有)16を用い,上記判定と併せた再判定を行う方法も
ある。建造物は黒地に白い領域として存在する傾向が強
いのに対し,水田や畑などは白地に黒い領域であるた
め,市街地領域B(内積チェック有)16では抽出され
ない。そこで上記方法により市街地と判定されたブロッ
ク内に,市街地領域B(内積チェック有)16が存在し
ない場合に,該ブロックは非市街地領域として前の判定
結果をリジェクトする。
In order to prevent erroneous extraction of paddy fields and fields as buildings, there is also a method of using the urban area B (with inner product check) 16 and performing re-determination together with the above determination. Buildings tend to exist as white areas on a black background, whereas paddy fields and fields are black areas on a white background, and therefore are not extracted in the urban area B (with inner product check) 16. Therefore, when the urban area B (with inner product check) 16 does not exist in the block determined to be the urban area by the above method, the block rejects the previous determination result as the non-urban area.

【0057】また,橋や埋め立て地などの誤抽出を抑え
るため,水領域14を用い水領域の近郊における市街地
判定をリジェクトする方法も考えられる。
In addition, in order to suppress erroneous extraction of bridges, landfills, etc., a method of using the water area 14 and rejecting the city area judgment in the suburbs of the water area can be considered.

【0058】終了判定処理68は,全画素について市街
地判定処理が行われたか否かを判定する処理である。ま
だ未処理である画素が存在する場合,ブロック取得処理
62に再度戻り,未処理画素について同様に処理を行
う。
The end determination process 68 is a process of determining whether or not the urban area determination process has been performed for all pixels. If there are still unprocessed pixels, the process returns to the block acquisition processing 62 again, and the same processing is performed on the unprocessed pixels.

【0059】市街地領域C17は,Hough特徴によ
る市街地領域抽出処理60の結果抽出された市街地領域
である。市街地領域C17に対して,必要に応じてノイ
ズ除去処理,ぼかし処理,最大値フィルタ処理,最小値
フィルタ処理などの画像処理を施す方法もある。
The urban area C17 is an urban area extracted as a result of the urban area extraction processing 60 using the Hough feature. There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filter processing, and minimum value filter processing on the city area C17 as necessary.

【0060】マージ処理部70は,ベクトル外積和を特
徴量として抽出した市街地領域A15と,Hough特
徴にもとづき抽出した市街地領域C17とをマージする
処理手段である。本実施の形態では,市街地領域A15
と市街地領域C17とを2値化して加算する単純な方法
で行うこととする。本方法以外にも,市街地領域A15
と市街地領域C17の市街地らしさを多値で表し,その
値に何らかの重みを付けて加算するなどの方法も考えら
れる。
The merge processing unit 70 is a processing means for merging the urban area A15 extracted with the vector outer product sum as the feature quantity and the urban area C17 extracted based on the Hough feature. In the present embodiment, the urban area A15
And the urban area C17 are binarized and added by a simple method. Besides this method, urban area A15
It is also conceivable that the urban area likeness of the urban area C17 is represented by a multi-valued value and the value is added with some weight.

【0061】マージ結果18は,マージ処理部70の結
果,取得される結果である。マージ結果18に対して,
必要に応じてノイズ除去処理,ぼかし処理,最大値フィ
ルタ処理,最小値フィルタ処理などの画像処理を施す方
法もある。
The merge result 18 is a result obtained as a result of the merge processing unit 70. For the merge result 18,
There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filtering processing, and minimum value filtering processing as needed.

【0062】森林領域修正処理部80は,マージ結果1
8に対して森林領域13を除外し,最終的な市街地領域
19を抽出する処理手段である。除外する方法として,
本実施の形態では,森林領域13およびマージ結果18
を2値化して減算するといった単純な方法で行うことと
する。
The forest area correction processing unit 80 determines the merge result 1
8 is a processing means for excluding the forest area 13 and extracting the final urban area 19. As a method to exclude
In the present embodiment, the forest area 13 and the merge result 18
Will be binarized and subtracted by a simple method.

【0063】市街地領域19は,森林領域修正処理部8
0の結果取得される最終的な市街地領域の抽出結果であ
る。この市街地領域19に対して,必要に応じてノイズ
除去処理,ぼかし処理,最大値フィルタ処理,最小値フ
ィルタ処理などの画像処理を施す方法もある。
The urban area 19 includes the forest area correction processing unit 8
It is the final extraction result of the urban area obtained as a result of 0. There is also a method of performing image processing such as noise removal processing, blurring processing, maximum value filter processing, and minimum value filter processing on the urban area 19 as necessary.

【0064】以上の市街地領域抽出処理装置1が行う処
理は,コンピュータとソフトウェアプログラムとによっ
て実現することができ,そのプログラムは,コンピュー
タが読み取り可能な可搬媒体メモリ,半導体メモリ,ハ
ードディスク等の適当な記録媒体に格納して,そこから
読み出すことによりコンピュータに実行させることがで
きる。また,そのプログラムは通信回線を経由して他の
コンピュータからダウンロードすることができ,それを
インストールして実行させることもできる。
The above-described processing performed by the urban area extraction processing device 1 can be realized by a computer and a software program, and the program is an appropriate computer-readable portable medium memory, semiconductor memory, hard disk, or the like. It can be executed by a computer by storing it in a recording medium and reading it from there. Further, the program can be downloaded from another computer via a communication line, and can be installed and executed.

【0065】[0065]

【発明の効果】以上説明したように,本発明は,市街地
領域でのテクスチャ特徴とマルチスペクトル特徴,特に
市街地領域ではエッジのパワーが強く,かつエッジ接線
方向が直交している傾向が強いというテクスチャ特徴に
着目した市街地領域抽出を行う。家などの小さな建造物
が集合している市街地領域の抽出に有効なベクトル外積
和を特徴量とする市街地領域抽出と,工場などの大規模
建造物の抽出に有効なHough特徴にもとづく市街地
領域抽出とを組み合わせることにより,建造物の大きさ
に依存しない安定した市街地領域抽出を行うことが可能
である。また,マルチスペクトル情報を用いて森林領域
と水領域を抽出することにより,より精度の高い市街地
領域抽出が可能となった。
As described above, according to the present invention, the texture feature and the multi-spectral feature in the urban area, especially the texture in which the edge power is strong and the edge tangential directions are orthogonal in the urban area are strong. The urban area is extracted by focusing on the features. Urban area extraction using vector sum of cross products, which is effective for extracting urban areas where small buildings such as houses are gathered, and urban area extraction based on Hough features, which is effective for extracting large-scale buildings such as factories By combining with, it is possible to perform stable urban area extraction that does not depend on the size of the building. Moreover, by extracting the forest area and the water area using the multi-spectral information, it becomes possible to extract the city area with higher accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施の形態による市街地領域抽出処理装置の
構成例を示す図である。
FIG. 1 is a diagram showing a configuration example of an urban area extraction processing device according to the present embodiment.

【図2】ベクトル外積和による市街地領域抽出処理部に
よる処理の流れを示す図である。
FIG. 2 is a diagram showing a flow of processing by an urban area extraction processing unit using vector sum of cross products.

【図3】エッジベクトルの算出方法を説明する図であ
る。
FIG. 3 is a diagram illustrating a method of calculating an edge vector.

【図4】エッジベクトル情報の例を示す図である。FIG. 4 is a diagram showing an example of edge vector information.

【図5】ブロックの例を示す図である。FIG. 5 is a diagram showing an example of blocks.

【図6】ベクトル外積和の計算の例を示す図である。FIG. 6 is a diagram showing an example of calculation of vector outer product sum.

【図7】内積符号チェック方法の例を説明する図であ
る。
FIG. 7 is a diagram illustrating an example of an inner product code check method.

【図8】Hough特徴による市街地領域抽出処理の流
れを示す図である。
FIG. 8 is a diagram showing a flow of urban area extraction processing based on Hough features.

【図9】円形ブロックの例を示す図である。FIG. 9 is a diagram showing an example of a circular block.

【図10】エッジ接線パラメータの例を説明する図であ
る。
FIG. 10 is a diagram illustrating an example of edge tangent parameters.

【図11】投票処理の例を説明する図である。FIG. 11 is a diagram illustrating an example of voting processing.

【図12】投票空間の例を示す図である。FIG. 12 is a diagram showing an example of a voting space.

【図13】角度ヒストグラムの例を示す図である。FIG. 13 is a diagram showing an example of an angle histogram.

【図14】第2ピーク探索処理を説明する図である。FIG. 14 is a diagram illustrating a second peak search process.

【符号の説明】[Explanation of symbols]

1 市街地領域抽出処理装置 10 R画像 11 NIR画像 12 P画像 13 森林領域 14 水領域 15 市街地領域A(内積チェック無) 16 市街地領域B(内積チェック有) 17 市街地領域C 18 マージ結果 19 市街地領域 20 水領域抽出処理部 30 森林領域抽出処理部 40 ヒストグラム平坦化処理部 50 ベクトル外積和による市街地領域抽出処理部 60 Hough特徴による市街地領域抽出処理部 70 マージ処理部 80 森林領域修正処理部 1 Urban area extraction processing device 10 R image 11 NIR images 12 P image 13 Forest area 14 Water area 15 Urban area A (no inner product check) 16 Urban area B (with inner product check) 17 Urban area C 18 merge results 19 urban area 20 Water region extraction processing unit 30 Forest area extraction processing unit 40 Histogram flattening processor Urban area extraction processing unit by 50 vector sum of cross products Urban area extraction processing unit based on 60 Hough features 70 Merge Processing Unit 80 Forest Area Correction Processing Section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊藤 直己 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 塩 昭夫 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5B057 AA14 CA08 CA12 CA16 CB08 CB12 CB16 CE03 CH01 DB02 DB09 DC13 DC16 DC23 5L096 AA06 BA20 EA05 FA06 FA24 FA36    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Naoki Ito             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation (72) Inventor Akio Shio             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation F term (reference) 5B057 AA14 CA08 CA12 CA16 CB08                       CB12 CB16 CE03 CH01 DB02                       DB09 DC13 DC16 DC23                 5L096 AA06 BA20 EA05 FA06 FA24                       FA36

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 地表を撮影した画像の中から,コンピュ
ータにより市街地領域を自動的に抽出する処理方法であ
って,可視光の赤色領域の波長をもつ電磁波をとらえた
R画像と,近赤外領域の電磁波をとらえたNIR画像と
を用い,対応する各点においてNIR画像の輝度値とR
画像の輝度値とから算出される値により,水領域または
森林領域を抽出する第1の過程と,前記第1の過程の結
果を使用して,市街地領域抽出対象の画像のコントラス
トを大きくする輝度変換を行う第2の過程と,輝度変換
を行った画像各点について2次元のエッジベクトルを算
出し,各画素を中心とする局所領域のブロック内におい
て,全エッジベクトルのすべての2ベクトルの組み合わ
せについてベクトル外積の絶対値を計算して加算し,加
算の結果得られるベクトル外積和にもとづきブロック内
の代表点が市街地であるか否かを判定する第3の過程
と,市街地領域抽出対象の画像各点を中心とするブロッ
クを設定し,該ブロック内の各点においてエッジ接線を
それぞれ求め,算出されたエッジ接線の角度パラメータ
と距離パラメータとに対してハフ変換を行い,該2つの
パラメータを2軸とする2次元の投票空間を作成し,得
られた投票空間にもとづき該ブロックの代表点が市街地
であるか否かを判定する第4の過程と,前記第1,第3
および第4の過程による結果から最終的な市街地領域を
抽出する過程とを有することを特徴とする市街地領域抽
出処理方法。
1. A processing method for automatically extracting an urban area from a photographed surface of a ground by a computer, which comprises an R image capturing an electromagnetic wave having a wavelength in the red region of visible light and a near infrared ray. Using the NIR image that captures the electromagnetic waves in the region, the brightness value and R of the NIR image at each corresponding point
A first process of extracting a water region or a forest region based on a value calculated from the brightness value of the image and a brightness for increasing the contrast of the image of the urban area extraction target by using the result of the first process. The second process of conversion and the calculation of a two-dimensional edge vector for each point of the image that has been subjected to luminance conversion, and in the block of the local area centered on each pixel, a combination of all two vectors of all edge vectors The third process of determining whether the representative point in the block is the urban area or not based on the vector cross product sum obtained as a result of adding and calculating the absolute value of the vector outer product, and the image of the urban area extraction target A block centered on each point is set, an edge tangent is obtained at each point in the block, and an angle parameter and a distance parameter of the calculated edge tangent are calculated. A Hough transform is performed for the two parameters to create a two-dimensional voting space having the two parameters as two axes, and it is determined whether the representative point of the block is an urban area based on the obtained voting space. Process, and the first and third
And a step of extracting a final urban area from the result of the fourth step, the urban area extraction processing method.
【請求項2】 請求項1に記載の市街地領域抽出処理方
法において,前記第3の過程でエッジベクトルの外積を
計算するとき,2つのベクトルのうちどちらか一方のエ
ッジベクトルと,該エッジベクトルを付与されたエッジ
点から他方のエッジ点に向かう方向ベクトルとの内積を
計算し,内積値がマイナス値の場合にはこのエッジベク
トルの組み合わせにおけるベクトル外積の加算処理をス
キップすることを特徴とする市街地領域抽出処理方法。
2. The urban area extraction processing method according to claim 1, wherein when the outer product of the edge vectors is calculated in the third step, one of the two vectors and the edge vector are calculated. An urban product characterized by calculating the inner product of the direction vector from the given edge point to the other edge point and skipping the addition process of the vector outer product in this combination of edge vectors when the inner product value is a negative value. Area extraction processing method.
【請求項3】 請求項1または請求項2に記載の市街地
領域抽出処理方法において,前記第4の過程でエッジ接
線パラメータに対してハフ変換を行う際には,エッジパ
ワー値を投票値とすることを特徴とする市街地領域抽出
処理方法。
3. The urban area extraction processing method according to claim 1, wherein the edge power value is used as a voting value when the Hough transform is performed on the edge tangent parameter in the fourth step. An urban area extraction processing method characterized by the above.
【請求項4】 請求項1,請求項2または請求項3に記
載の市街地領域抽出処理方法において,前記第4の過程
において2次元の投票空間を角度パラメータ軸方向に射
影をとり1次元のヒストグラムに縮退させ,該ヒストグ
ラムにもとづき該ブロックの代表点が市街地であるか否
かを判定することを特徴とする市街地領域抽出処理方
法。
4. The city area extraction processing method according to claim 1, claim 2 or claim 3, wherein in the fourth step, a two-dimensional voting space is projected in the angle parameter axis direction to form a one-dimensional histogram. A method for extracting a city area region, characterized in that the representative point of the block is judged to be the city area based on the histogram.
【請求項5】 地表を撮影した画像の中から,コンピュ
ータにより市街地領域を自動的に抽出する処理装置であ
って,可視光の赤色領域の波長をもつ電磁波をとらえた
R画像と,近赤外領域の電磁波をとらえたNIR画像と
を用い,対応する各点においてNIR画像の輝度値とR
画像の輝度値とから算出される値により,水領域または
森林領域を抽出する第1の手段と,前記第1の手段の結
果を使用して,市街地領域抽出対象の画像のコントラス
トを大きくする輝度変換を行う第2の手段と,輝度変換
を行った画像各点について2次元のエッジベクトルを算
出し,各画素を中心とする局所領域のブロック内におい
て,全エッジベクトルのすべての2ベクトルの組み合わ
せについてベクトル外積の絶対値を計算して加算し,加
算の結果得られるベクトル外積和にもとづきブロック内
の代表点が市街地であるか否かを判定する第3の手段
と,市街地領域抽出対象の画像各点を中心とするブロッ
クを設定し,該ブロック内の各点においてエッジ接線を
それぞれ求め,算出されたエッジ接線の角度パラメータ
と距離パラメータとに対してハフ変換を行い,該2つの
パラメータを2軸とする2次元の投票空間を作成し,得
られた投票空間にもとづき該ブロックの代表点が市街地
であるか否かを判定する第4の手段と,前記第1,第3
および第4の手段による結果から最終的な市街地領域を
抽出する手段とを備えることを特徴とする市街地領域抽
出処理装置。
5. A processing device for automatically extracting a city area area from an image of the surface of the earth by a computer, the R image capturing an electromagnetic wave having a wavelength in the red region of visible light, and a near infrared ray. Using the NIR image that captures the electromagnetic waves in the region, the brightness value and R of the NIR image at each corresponding point
A first means for extracting a water area or a forest area based on a value calculated from the brightness value of the image and a brightness for increasing the contrast of the image of the urban area extraction target by using the result of the first means. A second means for performing a conversion and a combination of all two vectors of all edge vectors in a block of a local area centered on each pixel by calculating a two-dimensional edge vector for each point of the image subjected to the brightness conversion The third means for determining whether or not the representative point in the block is the urban area based on the vector cross product sum obtained as a result of adding and calculating the absolute value of the vector outer product, and the image of the urban area extraction target A block centered on each point is set, an edge tangent is obtained at each point in the block, and an angle parameter and a distance parameter of the calculated edge tangent are calculated. A Hough transform is performed for the two parameters to create a two-dimensional voting space having the two parameters as two axes, and it is determined whether the representative point of the block is an urban area based on the obtained voting space. Means and the first and third
And a means for extracting a final urban area from the result of the fourth means.
【請求項6】 請求項1から請求項4までのいずれか一
項に記載の市街地領域抽出処理方法を,コンピュータに
実行させるための市街地領域抽出処理プログラム。
6. A city area extraction processing program for causing a computer to execute the city area extraction processing method according to any one of claims 1 to 4.
【請求項7】 請求項1から請求項4までのいずれか一
項に記載の市街地領域抽出処理方法を,コンピュータに
実行させるためのプログラムを記録したことを特徴とす
る市街地領域抽出処理プログラムの記録媒体。
7. A recording of a city area extraction processing program, characterized in that a program for causing a computer to execute the city area extraction processing method according to any one of claims 1 to 4 is recorded. Medium.
JP2002091060A 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program Expired - Lifetime JP3816825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002091060A JP3816825B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002091060A JP3816825B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Publications (2)

Publication Number Publication Date
JP2003288582A true JP2003288582A (en) 2003-10-10
JP3816825B2 JP3816825B2 (en) 2006-08-30

Family

ID=29236240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002091060A Expired - Lifetime JP3816825B2 (en) 2002-03-28 2002-03-28 Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program

Country Status (1)

Country Link
JP (1) JP3816825B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310052A (en) * 2004-04-26 2005-11-04 Ntt Data Corp Device, method and program for detecting illegal dumping site
JP2017191470A (en) * 2016-04-13 2017-10-19 キヤノン株式会社 Processing device, processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881659B (en) * 2015-06-12 2018-05-01 中国地质大学(武汉) The extracting method and device of a kind of impermeable stratum

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310052A (en) * 2004-04-26 2005-11-04 Ntt Data Corp Device, method and program for detecting illegal dumping site
JP4512778B2 (en) * 2004-04-26 2010-07-28 株式会社エヌ・ティ・ティ・データ Illegal dumping point detection device, method, and program
JP2017191470A (en) * 2016-04-13 2017-10-19 キヤノン株式会社 Processing device, processing method, and program

Also Published As

Publication number Publication date
JP3816825B2 (en) 2006-08-30

Similar Documents

Publication Publication Date Title
Enomoto et al. Filmy cloud removal on satellite imagery with multispectral conditional generative adversarial nets
Krig Computer vision metrics
Krig Computer vision metrics: Survey, taxonomy, and analysis
Brandtberg et al. Automated delineation of individual tree crowns in high spatial resolution aerial images by multiple-scale analysis
Pham et al. Change detection between SAR images using a pointwise approach and graph theory
CN108961286B (en) Unmanned aerial vehicle image segmentation method considering three-dimensional and edge shape characteristics of building
CN111738916B (en) Remote sensing image generalized shadow spectrum reconstruction method and system based on statistics
Zhang et al. Salient region detection in remote sensing images based on color information content
Banerji et al. A morphological approach to automatic mine detection problems
JP2009123234A (en) Object identification method, apparatus and program
JP4285640B2 (en) Object identification method, apparatus and program
CN116823694A (en) Infrared and visible light image fusion method and system based on multi-focus information integration
JP5648546B2 (en) Passage detection apparatus, method, and program
JP3816825B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
WO2019229855A1 (en) Object detection device, object detection system, object detection method, and recording medium having program recorded thereon
Kang et al. An adaptive fusion panoramic image mosaic algorithm based on circular LBP feature and HSV color system
Mirbod et al. Spatial change recognition model using artificial intelligence to remote sensing
Saberi et al. Multi-temporal satellite image correction based on CNN features and adaptive contrast enhancement
CN113052833A (en) Non-vision field imaging method based on infrared thermal radiation
Hai-tao et al. Research on the building shadow extraction and elimination method
Goud et al. Evaluation of image fusion of multi focus images in spatial and frequency domain
CN114648564B (en) Visible light and infrared image optimization registration method and system for unsteady state target
JP3816826B2 (en) Urban area extraction processing method, urban area extraction processing apparatus, urban area extraction processing program, and recording medium for the program
Wang et al. Shadow Detection and Reconstruction of High-Resolution Remote Sensing Images in Mountainous and Hilly Environments
Kaur et al. Hand Gesture Image Enhancement for Improved Recognition and Subsequent Analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060608

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3816825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110616

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120616

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130616

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140616

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term