JP2013089021A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method Download PDF

Info

Publication number
JP2013089021A
JP2013089021A JP2011228940A JP2011228940A JP2013089021A JP 2013089021 A JP2013089021 A JP 2013089021A JP 2011228940 A JP2011228940 A JP 2011228940A JP 2011228940 A JP2011228940 A JP 2011228940A JP 2013089021 A JP2013089021 A JP 2013089021A
Authority
JP
Japan
Prior art keywords
pixel
value
image
threshold
index value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011228940A
Other languages
Japanese (ja)
Other versions
JP5819157B2 (en
Inventor
Akira Kurosawa
明 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2011228940A priority Critical patent/JP5819157B2/en
Publication of JP2013089021A publication Critical patent/JP2013089021A/en
Application granted granted Critical
Publication of JP5819157B2 publication Critical patent/JP5819157B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically determine a threshold to extract regions with different wavelength ranges.SOLUTION: An image processing unit includes: a normalizing index calculation part for calculating a normalizing index to identify a pixel in pixels in geographical image data taken from a high altitude, on the basis of a spectral luminance value of a first wavelength range and a spectral luminance value of a second wavelength range different from the first wavelength range; a threshold determination part for obtaining a relationship between the normalizing index and an appearance frequency in each pixel, and obtaining the normalizing index that maximizes a degree of separation showing a proportion of in-class dispersion to inter-class dispersion using a discriminant analysis method to determine the obtained normalizing index as a threshold for identifying the pixel; and a region extraction part for extracting a region of image data to be distinguished by the first and second wavelength ranges, on the basis of the normalizing index corresponding to the threshold.

Description

本発明は、画像処理技術に関し、特に、高空から撮影した衛星画像等の画像に対して水域と陸域を自動的に分離する技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for automatically separating a water area and a land area from an image such as a satellite image taken from a high sky.

目視で水底が見える程度の浅い水深を衛星画像から解析する手法が研究されている。近年、衛星画像は、位置精度、空間分解能、スペクトル分解能等が高性能になり、解析結果として得られる水深の精度も向上している。水深を推定する手法を適用する際に、衛星画像において水域のみを抽出する必要がある。水域の抽出のためには、水域と陸域とを分離する境界線(海岸線)の情報が必要である。水域と陸域を分離する情報が得られれば、同時に陸域の抽出も可能となる。   Research has been conducted on techniques for analyzing shallow water depths from the satellite image so that the bottom of the water is visible. In recent years, satellite images have improved performance in position accuracy, spatial resolution, spectral resolution, and the like, and the accuracy of water depth obtained as an analysis result has also improved. When applying the method for estimating the water depth, it is necessary to extract only the water area from the satellite image. In order to extract the water area, information on the boundary line (coast line) that separates the water area from the land area is necessary. If information that separates the water area from the land area is obtained, the land area can be extracted at the same time.

従来、陸域と水域とを分離するために境界線を手作業で入力することや、水域もしくは陸域を強調する画像処理を行った指標画像に対して閾値を設定することで水域の抽出を行ってきた。尚、下記特許文献1では、入力画像に対して所定の固定しきい値で2値化を行うために、RGB画像におけるバンドを固定閾値によって水域と陸域とに分離している。   Conventionally, extraction of water areas can be performed by manually entering boundary lines to separate land areas from water areas, or by setting threshold values for index images that have been subjected to image processing that emphasizes water areas or land areas. I went. In Patent Document 1 below, in order to binarize an input image with a predetermined fixed threshold, a band in the RGB image is separated into a water area and a land area by the fixed threshold.

特許公開2005−148906号公報Japanese Patent Publication No. 2005-148906

水域抽出のために、固定閾値を手作業で決定する方法を用いると、作業者によって判断基準が異なるために、結果が作業者に依存するという問題がある。加えて、手作業による閾値決定を行うため、対象地域の面積や海岸線の複雑さに比例して処理時間が増大するという問題もある。   When a method for manually determining a fixed threshold value for water area extraction is used, there is a problem in that the result depends on the operator because the determination criteria differ depending on the operator. In addition, since the threshold value is manually determined, there is a problem that the processing time increases in proportion to the area of the target area and the complexity of the coastline.

本発明の目的は、波長帯の異なる領域を抽出するための閾値を自動的に決定することである。   An object of the present invention is to automatically determine a threshold value for extracting regions having different wavelength bands.

上記目的を達成するために本発明は、衛星画像から水分指標画像とヒストグラムを作成し、ヒストグラムに対して判別分析法により水域と陸域を分離する閾値を自動決定する。   In order to achieve the above object, the present invention creates a moisture index image and a histogram from a satellite image, and automatically determines a threshold value for separating a water area and a land area from the histogram by a discriminant analysis method.

本発明の一観点によれば、高空から撮影した地理画像データにおける画素において、第1の波長帯の分光輝度値と、前記第1の波長帯とは異なる第2の波長帯の分光輝度値と、に基づいて画素を識別するための正規化(水)指標値を演算する正規化(水)指標演算部と、各画素における前記正規化(水)指標値と出現頻度との関係を求め、クラス内分散とクラス間分散の比である分離度が最大となる正規化(水)指標値を判別分析法により求め、前記画素を識別するための2値化のため閾値として決定する閾値決定部と、前記閾値と対応する正規化(水)指標値に基づいて、前記第1及び第2の波長帯により区別される画像データの領域を抽出する領域抽出部と、を有することを特徴とする画像処理装置が提供される。   According to one aspect of the present invention, a spectral luminance value in a first wavelength band and a spectral luminance value in a second wavelength band different from the first wavelength band in a pixel in geographic image data taken from a high sky, , A normalization (water) index calculation unit for calculating a normalization (water) index value for identifying a pixel based on, and a relationship between the normalization (water) index value and the appearance frequency in each pixel, A threshold determination unit that obtains a normalized (water) index value that maximizes the degree of separation, which is the ratio of intra-class variance and inter-class variance, by discriminant analysis, and determines the threshold value for binarization for identifying the pixel And a region extracting unit that extracts a region of image data distinguished by the first and second wavelength bands based on a normalized (water) index value corresponding to the threshold value. An image processing apparatus is provided.

上記装置により、波長帯の異なる領域を抽出するための閾値を自動的に決定することができる。   The above apparatus can automatically determine a threshold value for extracting regions having different wavelength bands.

さらに、前記第1及び第2の波長帯により区別される画像データの領域内に存在する波長の異なる微小領域を、当該画像データの領域内の分光輝度値を有する画素とする微小領域除去部を有することが好ましい。   Further, a micro area removing unit that uses a micro area having a different wavelength existing in the area of the image data distinguished by the first and second wavelength bands as a pixel having a spectral luminance value in the area of the image data. It is preferable to have.

前記閾値決定部は、前記各画素における前記正規化(水)指標値と出現頻度との関係を正規化(水)指標値ヒストグラムとして求め、前記クラス内分散と前記クラス間分散とのヒストグラムのうち、頻度が最大となる走査起点となる前記正規化(水)指標値が負であるときには、走査方向を正方向とし、走査起点となる前記正規化(水)指標値が正であるときには、走査方向を負方向とすることが好ましい。これにより、起点が−1と+1よりもゼロに近くなり、−1や+1を起点とする一般的な判別分析法よりも走査する範囲が狭くなるため、効率的である。   The threshold value determination unit obtains a relationship between the normalized (water) index value and the appearance frequency in each pixel as a normalized (water) index value histogram, and includes a histogram of the intra-class variance and the inter-class variance. When the normalized (water) index value that is the scanning start point at which the frequency is maximum is negative, the scanning direction is the positive direction, and when the normalized (water) index value that is the scanning start point is positive, scanning is performed. The direction is preferably a negative direction. As a result, the starting point is closer to zero than -1 and +1, and the scanning range is narrower than that of a general discriminant analysis method starting from -1 or +1, which is efficient.

前記閾値決定部は、直前に抽出した無視するべき微小領域を除外した前記正規化(水)指標値ヒストグラムを作成し、前記正規化(水)指標値ヒストグラムに判別分析法を適用して閾値を決定する処理を繰り返して閾値を決定するようにしても良い。これにより、衛星画像を利用する処理において、判別分析法による結果に影響を与える要素を考慮し、より妥当な水分指標値の閾値を自動的に決定することができる。   The threshold value determination unit creates the normalized (water) index value histogram excluding the minute area to be ignored extracted immediately before, and applies a discriminant analysis method to the normalized (water) index value histogram to set the threshold value. The threshold value may be determined by repeating the determining process. Thereby, in the process using the satellite image, it is possible to automatically determine a more appropriate threshold value of the moisture index value in consideration of factors that affect the result of the discriminant analysis method.

本発明の他の観点によれば、高空から撮影した地理画像データにおける画素において、第1の波長帯の分光輝度値と、前記第1の波長帯とは異なる第2の波長帯の分光輝度値と、に基づいて画素を識別するための正規化(水)指標値を演算する正規化(水)指標演算ステップと、各画素における前記正規化(水)指標値と出現頻度との関係を求め、クラス内分散とクラス間分散の比である分離度が最大となる正規化(水)指標値を判別分析法により求め、前記画素を識別するための2値化のための閾値として決定する閾値決定ステップと、前記閾値と対応する正規化(水)指標値に基づいて、前記第1及び第2の波長帯により区別される画像データの領域を抽出する領域抽出ステップと、を有することを特徴とする画像処理方法が提供される。   According to another aspect of the present invention, a spectral luminance value in a first wavelength band and a spectral luminance value in a second wavelength band different from the first wavelength band in a pixel in geographic image data taken from a high sky. And a normalization (water) index calculation step for calculating a normalization (water) index value for identifying a pixel based on the relationship between the normalization (water) index value and the appearance frequency in each pixel. , A threshold value for determining a normalized (water) index value that maximizes the degree of separation, which is the ratio between the intra-class variance and the inter-class variance, by a discriminant analysis method, and determining it as a threshold value for binarization for identifying the pixel A determination step; and a region extraction step of extracting a region of image data distinguished by the first and second wavelength bands based on a normalized (water) index value corresponding to the threshold value. An image processing method is provided.

本発明は、上記の画像処理方法をコンピュータに実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。   The present invention may be a program for causing a computer to execute the above-described image processing method, or a computer-readable recording medium for recording the program.

本発明によれば、波長帯の異なる領域の境界線を画定するための2値化を行うための閾値を、自動的かつ精度良く決定することが可能となるため、作業効率が向上する。   According to the present invention, it is possible to automatically and accurately determine a threshold value for performing binarization for demarcating boundaries between regions having different wavelength bands, so that work efficiency is improved.

本発明の一実施の形態による画像解析装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the image analysis apparatus by one embodiment of this invention. 水域と陸域とを含む衛星画像の一例を示す図である。It is a figure which shows an example of the satellite image containing a water area and a land area. 図2の画像に対するNDWIのヒストグラム図である。FIG. 3 is a histogram of NDWI for the image of FIG. 2. 本発明の第1の実施の形態例による水域抽出処理のうち、微小水域を考慮しない水域抽出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the water area extraction process which does not consider a micro water area among the water area extraction processes by the 1st Example of this invention. 水域抽出処理後の衛星画像の一例を示す図である。It is a figure which shows an example of the satellite image after a water area extraction process. 本発明の第2の実施の形態例による水域抽出処理であって、図1の衛星画像に対し、無視するべき微小水域を含むNDWIのヒストグラムと無視するべき微小水域を含まないNDWIヒストグラムを比較して示した図である。In the water area extraction processing according to the second embodiment of the present invention, the NDWI histogram including the minute water area to be ignored and the NDWI histogram not including the minute water area to be ignored are compared with the satellite image of FIG. FIG. 本発明の第2の実施の形態例による水域抽出処理のうち、微小水域を考慮した水域抽出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the water area extraction process which considered the micro water area among the water area extraction processes by the 2nd Example of this invention.

以下、本発明の実施の形態による画像処理装置について、水域と陸域とを含む衛星画像(地理画像)の処理を例にして説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described by taking a satellite image (geographic image) process including a water area and a land area as an example.

図1は、本発明の第1の実施の形態による画像処理装置の一構成例を示す機能ブロック図である。図1に示す画像処理装置は、処理装置10と、記憶装置20と、入出力装置30と、を有している。処理装置(CPU)10は、画像処理部40を有しており、画像処理部40は、NDWI(正規化水指標: Normalized Difference Water Index)演算部100と、閾値決定部200と、水域抽出部300と、微小領域除去部400と、を有している。記憶装置20は、衛星画像データを受け取り、衛星画像データ記憶部21と、NDWI演算式記憶部22と、閾値記憶部23と、水域データ記憶部24と、を有している。さらに、CPU10に処理を実行させるためのプログラムを記憶しているのが一般的である。入出力装置30は、入力装置31と、表示装置32と、プリンタ33と、を有している。その他、通信インターフェイスなどを有しているのが一般的である。   FIG. 1 is a functional block diagram showing a configuration example of an image processing apparatus according to the first embodiment of the present invention. The image processing apparatus illustrated in FIG. 1 includes a processing device 10, a storage device 20, and an input / output device 30. The processing device (CPU) 10 includes an image processing unit 40. The image processing unit 40 includes an NDWI (Normalized Difference Water Index) calculation unit 100, a threshold value determination unit 200, and a water area extraction unit. 300 and a minute region removing unit 400. The storage device 20 receives satellite image data, and includes a satellite image data storage unit 21, an NDWI arithmetic expression storage unit 22, a threshold storage unit 23, and a water area data storage unit 24. Further, it is general to store a program for causing the CPU 10 to execute processing. The input / output device 30 includes an input device 31, a display device 32, and a printer 33. In addition, it is common to have a communication interface.

図2は、処理対象の衛星画像501であり、水域502と陸域503、水域と陸域の境界である海岸線504が表示されている。この画像501から水域502を抽出する。   FIG. 2 is a satellite image 501 to be processed, in which a water area 502 and a land area 503 and a coastline 504 that is a boundary between the water area and the land area are displayed. A water area 502 is extracted from the image 501.

図3は、対象画像を変換して得られる水分指標ヒストグラムの一例を示す図である。本明細書において取り扱う水分指標は、例えば、一般的にNDWIと呼ばれる指標である。NDWIは、衛星画像等の各画素中に付与された複数の波長帯バンドの値をエネルギーの単位とする分光放射輝度値に変換した値より、下記の(1)式に基づいて得られる値である。   FIG. 3 is a diagram illustrating an example of a moisture index histogram obtained by converting a target image. The moisture index handled in this specification is an index generally called NDWI, for example. NDWI is a value obtained based on the following equation (1) from a value obtained by converting a value of a plurality of wavelength bands given in each pixel such as a satellite image into a spectral radiance value having an energy unit. is there.

NDWI=(短波長帯の分光放射輝度値 - 長波長帯の分光放射輝度値)/(短波長帯の分光放射輝度値 + 長波長帯の分光放射輝度値) (1)     NDWI = (Spectral radiance value in short wavelength band-Spectral radiance value in long wavelength band) / (Spectral radiance value in short wavelength band + Spectral radiance value in long wavelength band) (1)

ここで、波長とは光学センサにより観測された、地表が反射する太陽光の波長である。人間の目は、可視光の波長帯を感じることができ、可視光の波長範囲内において短い波長の光を青い光と認識し、可視光の波長範囲内において長い波長の光を赤い光と認識する。光学センサを備えた人工衛星(光学衛星と称する。)は、光学センサによって観測可能な波長が異なるが、多くの光学衛星が搭載するセンサは光の3原色に近い、Blue(青)、Green(緑)、Red(赤)の波長帯と近赤外線であるNIRの4バンドを観測するセンサである。また、分光放射輝度値への計算式は、撮影するセンサによって異なる。   Here, the wavelength is the wavelength of sunlight reflected by the ground surface, which is observed by an optical sensor. The human eye can feel the wavelength band of visible light, and recognizes light with a short wavelength as blue light within the wavelength range of visible light, and recognizes light with a long wavelength as red light within the wavelength range of visible light. To do. Artificial satellites equipped with optical sensors (referred to as optical satellites) have different observable wavelengths depending on the optical sensor, but sensors mounted on many optical satellites are close to the three primary colors of light, Blue (blue), Green ( It is a sensor that observes four bands of NIR, which is the near-infrared wavelength band and green (Red). The calculation formula for the spectral radiance value varies depending on the sensor to be photographed.

具体的なNDWIの計算をする場合は、例えば、米国のDigitalGlboe社が運用している8バンドセンサを搭載するWorldView-2衛星が撮影した画像は短波長帯にCoastalバンドの分光放射輝度値、長波長帯にNIR2バンドの分光放射輝度値を代入する。同様に、米国のDigitalGlobe社が運用するQuickBirdや、米国のGeoEye社が運用するGeoEye-1やIKONOSなどの4バンドセンサを搭載する衛星が撮影した画像は、短波長帯にBlueバンドの分光放射輝度値、長波長帯にNIRバンドの分光放射輝度値を代入する。   For specific NDWI calculations, for example, an image taken by the WorldView-2 satellite equipped with an 8-band sensor operated by DigitalGlboe in the United States is the spectral radiance value and length of the Coastal band in the short wavelength band. Substitute the spectral radiance value of the NIR2 band for the wavelength band. Similarly, images taken by satellites equipped with 4-band sensors such as QuickBird operated by DigitalGlobe in the US and GeoEye-1 and IKONOS operated by GeoEye in the US are spectral radiances in the blue band in the short wavelength band. Substitute the spectral radiance value of the NIR band for the value and long wavelength band.

NDWIは、その値が大きいほど地表水分量が多いとされ、閾値を設定して陸域と水域とを分離するために利用される。また、数式(1)からNDWIは、−1〜+1までの値をとる。   NDWI is said to have a greater surface water content as its value increases, and is used to set a threshold and separate the land area from the water area. In addition, NDWI takes values from −1 to +1 from Equation (1).

陸域と水域とが映っている画像の場合、画像の例えば全画素からNDWIを計算し、NDWIの出現頻度(画素数に対応)を集計したヒストグラムは大きく2つの山を形成する(601)。NDWIの負数範囲にある山(602)には陸域の画素が集中し、もう一方の正数範囲の高い山(603)には水域の画素が集中する。このとき、水域と陸域とを分離する最適なNDWIの閾値は、2つの山の谷間(604で示す破線)となる。   In the case of an image showing a land area and a water area, NDWI is calculated from, for example, all pixels of the image, and the histogram obtained by counting the appearance frequency (corresponding to the number of pixels) of NDWI largely forms two mountains (601). Pixels in the land area are concentrated on the mountain (602) in the negative number range of NDWI, and pixels in the water area are concentrated on the other mountain (603) in the higher positive number range. At this time, the optimum threshold value of NDWI for separating the water area and the land area is a valley between two mountains (broken line indicated by 604).

図4は、本実施の形態による水域抽出処理の流れを示すフローチャート図である。まず、画像処理部40のうちのNDWI演算部100が、入出力装置30により入力され、例えば衛星画像データ記憶部21に記憶された画像データ(対象画像)を分光放射輝度値に変換し、さらに、NDWI演算式記憶部22に記憶された演算式(1)によりNDWI画像(画素毎のNDWI値)を演算により求める(ステップS1)。尚、ここで扱う画像の値は符号付き浮動小数とする。次に、図2のような水域と陸域との両者が映る画像におけるNDWI値は、図3のように出現頻度が正の領域と負の領域とに大きく偏る性質があり、ヒストグラム上に2つの山を形成する。このとき2つの領域を分離する最適なNDWI値は2つの山の谷間である。この谷間、すなわちNDWIの閾値を判別分析法により決定する。   FIG. 4 is a flowchart showing the flow of the water area extraction process according to the present embodiment. First, the NDWI calculation unit 100 of the image processing unit 40 converts image data (target image) input by the input / output device 30 and stored in the satellite image data storage unit 21 into a spectral radiance value, for example. Then, an NDWI image (NDWI value for each pixel) is calculated by the calculation formula (1) stored in the NDWI calculation formula storage unit 22 (step S1). The image value handled here is a signed floating point number. Next, the NDWI value in the image showing both the water area and the land area as shown in FIG. 2 has a characteristic that the appearance frequency is largely biased into a positive area and a negative area as shown in FIG. Form a mountain. At this time, the optimum NDWI value for separating the two regions is between two mountain valleys. This valley, that is, the threshold value of NDWI is determined by a discriminant analysis method.

閾値決定部200は、判別分析法により、閾値を決定する(ステップS2)。
判別分析法は、大津の二値化とも呼ばれる。これは、2つの正規分布の山(クラス)を形成するヒストグラムを仮定し、クラス内分散とクラス間分散の比である分離度が最大となる閾値を求める方法である。このときの閾値は2つのヒストグラムの山の間にある谷となる。
The threshold value determination unit 200 determines a threshold value by a discriminant analysis method (step S2).
Discriminant analysis is also called binarization of Otsu. This is a method for obtaining a threshold value that maximizes the degree of separation, which is the ratio of intra-class variance and inter-class variance, assuming a histogram that forms two normal distribution peaks (classes). The threshold at this time is a trough between the two histogram peaks.

一般的な判別分析法は、指標の最小値から最大値、または逆方向を走査する手法である。ここではヒストグラムの範囲が−1から+1までであることと、ほぼ正と負の範囲に山が一つずつあるという性質を利用し、効率的な走査の起点と方向とを決定する。より具体的には、まず走査の起点となるNDWIは最も頻度の高いNDWI(図3では、603)とし、ヒストグラム生成時に特定する。この起点は、ヒストグラムにある2つの山の高い方の頂上を指すNDWIである。次に、起点となるNDWIが負であるときには、走査方向を正方向とする。逆に起点となるNDWIが正であるときには、走査方向を負方向とする。これにより、起点が−1と+1よりもゼロに近くなり、−1や+1を起点とする一般的な判別分析法よりも走査する範囲が狭くなるため、効率的である。   A general discriminant analysis method is a method of scanning from the minimum value to the maximum value or the reverse direction of the index. Here, the starting point and the direction of efficient scanning are determined by utilizing the fact that the range of the histogram is from −1 to +1 and the fact that there is one peak in almost the positive and negative ranges. More specifically, the NDWI that is the starting point of scanning is first set to NDWI having the highest frequency (603 in FIG. 3), and is specified when the histogram is generated. This origin is the NDWI that points to the highest peak of the two peaks in the histogram. Next, when the starting NDWI is negative, the scanning direction is the positive direction. On the other hand, when the starting NDWI is positive, the scanning direction is the negative direction. As a result, the starting point is closer to zero than -1 and +1, and the scanning range is narrower than that of a general discriminant analysis method starting from -1 or +1, which is efficient.

尚、陸域に対して水域の面積が大きな画像や逆に水域に対して陸域の面積が大きな画像を同様に対象としたとき、NDWIヒストグラムが図3のような明確な谷を形成しないことがある。明確な谷がないヒストグラムに対して判別分析法は期待した閾値を決定しにくい場合がある。しかしながら、NDWIのゼロ付近に目的とした閾値があるヒストグラムの性質を利用することで、谷がわかりにくい場合でも、NDWIのゼロ付近を詳細に見ることで、NDWI閾値を安定して決定することができる。決定した閾値は閾値記憶部23に記憶される。   Note that the NDWI histogram does not form a clear valley as shown in FIG. 3 when an image having a large water area relative to the land area or an image having a large land area relative to the water area is similarly targeted. There is. The discriminant analysis method may not be able to determine an expected threshold value for a histogram without a clear valley. However, by using the characteristics of a histogram having a target threshold value near zero of NDWI, it is possible to stably determine the NDWI threshold value by looking closely at the vicinity of zero of NDWI even when the valley is difficult to understand. it can. The determined threshold value is stored in the threshold value storage unit 23.

元画像とNDWI画像中の全画素は一意に対応する。水域抽出部300は、対応するNDWIと閾値記憶部23に記憶されたNDWI閾値とを比較し、NDWI閾値より低いNDWIを持つ画素は陸域とみなし、その画素の全バンドを無視する値に代入することで、陸域の画素値を消去する。その結果、画像には水域の情報のみが抽出されることとなる。尚、例として無視する画素には全バンドに−999というとりえない値を代入する(ステップS3)。   All pixels in the original image and the NDWI image correspond uniquely. The water area extraction unit 300 compares the corresponding NDWI with the NDWI threshold value stored in the threshold value storage unit 23, regards a pixel having an NDWI lower than the NDWI threshold value as a land area, and assigns all the bands of the pixel to values that are ignored. By doing so, the pixel value of the land area is deleted. As a result, only water area information is extracted from the image. As an example, an inevitable value of −999 is assigned to all the bands to be ignored (step S3).

NDWI閾値による水域抽出した画像501は、水域502と陸域503とに分離され、海岸線504が現れる。水域を水域データ記憶部24に記憶する。   The water area extracted image 501 based on the NDWI threshold is separated into a water area 502 and a land area 503, and a coastline 504 appears. The water area is stored in the water area data storage unit 24.

しかし、実際の地形では、抽出した水域画像には水田や溜池等、対象とする浅水域ではない無視すべき微小な水域(微小領域)が検出される。そこで、微小領域除去部400は、微小な水域505a・505bに、陸域として無視できる値を代入することで、陸域とみなす。この際、まず、3×3の画素における8連結のラベリング処理アルゴリズムを、水域抽出した画像に対して適用する。一般的に、8連結のラベリング処理とは、2値化された画像に対して適用される。例えば、0と1とで2値化された画像中について1の画素をラベリングするとき、1の画素の周囲8近傍に存在する1の画素を同じグループとする。全ての1の画素について処理した結果、複数のグループが形成され、1の画素は必ず1つのグループに属する。ここでは、全バンドに無視する値が代入された画素とそれ以外の画素との2種類に2値化された画像とみなして処理を行うことで、8連結のラベリング処理を行うとともに、各グループに所属する画素数を集計する。例えば、所属する画素数が最も多いグループの半分以下の所属画素数のグループを無視するべき微小水域とみなし、そのグループに所属する画素の全バンドに−998を代入する(ステップS4)。尚、ステップS4は、任意の処理であり、ステップS3までで処理を終了しても良い。   However, in actual terrain, a small water area (micro area) that is not a target shallow water area, such as a paddy field or a pond, is detected in the extracted water area image. Therefore, the minute area removing unit 400 considers the land area by substituting a value that can be ignored as the land area into the minute water areas 505a and 505b. At this time, first, an 8-connected labeling processing algorithm for 3 × 3 pixels is applied to the image extracted from the water area. In general, the 8-connected labeling process is applied to a binarized image. For example, when 1 pixel is labeled in an image binarized with 0 and 1, 1 pixel existing in the vicinity of 8 around the 1 pixel is set as the same group. As a result of processing for all one pixels, a plurality of groups are formed, and one pixel always belongs to one group. Here, the processing is performed by regarding the image as a binarized image of two types of pixels, that is, a pixel in which a value to be ignored for all the bands is substituted, and other pixels, thereby performing an 8-connected labeling process. The number of pixels belonging to is counted. For example, a group with the number of belonging pixels less than half of the group with the largest number of belonging pixels is regarded as a small water area to be ignored, and -998 is substituted for all the bands of pixels belonging to the group (step S4). Note that step S4 is an arbitrary process, and the process may be terminated up to step S3.

以上の処理により、衛星画像の水域を抽出することができる。水域を、表示装置32、プリンタ33などで出力することができる。   Through the above processing, the water area of the satellite image can be extracted. The water area can be output by the display device 32, the printer 33, or the like.

次に、本発明の第2の実施の形態による衛星画像処理技術について説明する。
第1の実施の形態で説明したように、図4に示す処理を行うことで、期待した水域抽出を実現することができるが、閾値を決定する際に用いるNDWIヒストグラム601(図3)には、前述した無視するべき微小な水域が含まれているため、無視するべき微小な水域がNDWIヒストグラムに影響を与えるほど多く存在する場合には、期待した高精度の水域抽出ができない程度にNDWI閾値決定処理に影響を与える可能性がある。本実施の形態では、この点を考慮した処理を行う。図6は、図3に対応する図であり、図7は、図4に対応する図である。
Next, a satellite image processing technique according to the second embodiment of the present invention will be described.
As described in the first embodiment, the expected water extraction can be realized by performing the processing shown in FIG. 4, but the NDWI histogram 601 (FIG. 3) used when determining the threshold value is used. Since the above-mentioned minute water areas that should be ignored are included, if there are so many minute water areas that should be ignored that the NDWI histogram is affected, the NDWI threshold is set so that the expected high-precision water area extraction cannot be performed. May affect the decision process. In the present embodiment, processing in consideration of this point is performed. 6 is a diagram corresponding to FIG. 3, and FIG. 7 is a diagram corresponding to FIG.

まず、NDWI画像生成部100が、入力された画像データ(対象画像)を分光放射輝度値に変換し、さらにNDWI画像を生成する(ステップS11)。そして、マスク画像として対象画像と同じサイズの1バンドのグレースケール画像を作成する。このとき、各画素には初期値を代入しておく、ここでは具体例として−1とする(ステップS12)。さらに、対象画像をコピーして作業用画像を生成する(ステップS13)。   First, the NDWI image generation unit 100 converts the input image data (target image) into a spectral radiance value, and further generates an NDWI image (step S11). Then, a 1-band grayscale image having the same size as the target image is created as a mask image. At this time, an initial value is assigned to each pixel. Here, −1 is set as a specific example (step S12). Further, the work image is generated by copying the target image (step S13).

対象画像、NDWI画像、マスク画像、作業用画像は同じサイズであり、各画像中の各画素は一意に対応する。ここでマスク画像において無視すべき微小水域を表す値である998ではない画素に対応するNDWI画像中の画素だけを用いて、閾値決定部200が、NDWIヒストグラムを作成する。マスク画像生成直後、全画素の全バンドは−1であるため、初回は全画素を用いてNDWIヒストグラム605aを作成することになる。陸域と水域とが映っている場合は、NDWIの負数範囲にある山602aには陸域の画素が集中し、もう一方の正数範囲の高い山603aには水域の画素が集中する。最適な水域と陸域とを分離するNDWIの閾値は2つの山の谷間604aとなる。NDWI閾値は図4(ステップS2)と同様に判別分析法により決定する(ステップS14)。   The target image, the NDWI image, the mask image, and the work image have the same size, and each pixel in each image uniquely corresponds. Here, the threshold value determination unit 200 creates an NDWI histogram using only pixels in the NDWI image corresponding to pixels that are not 998, which is a value representing a minute water area to be ignored in the mask image. Immediately after generating the mask image, all the bands of all the pixels are −1, so that the NDWI histogram 605a is created using all the pixels for the first time. When the land area and the water area are reflected, the pixels of the land area are concentrated on the mountain 602a in the negative range of the NDWI, and the pixels of the water area are concentrated on the mountain 603a having the higher positive number range. The threshold of the NDWI that separates the optimal water area from the land area is a valley 604a between two mountains. The NDWI threshold value is determined by the discriminant analysis method as in FIG. 4 (step S2) (step S14).

作業用画像とNDWI画像中の全画素は一意に対応する。対応するNDWIとNDWI閾値とを比較し、NDWI閾値より低いNDWIを持つ画素は陸域とみなし、対応する作業用画像の画素の全バンドを無視する値に代入し、陸域の画素値を消去する。その結果、画像には水域の情報のみが抽出されることとなる。尚、例として無視する画素には全バンドに−999を代入する(ステップS15)。   All pixels in the working image and the NDWI image uniquely correspond to each other. Compare the corresponding NDWI with the NDWI threshold, consider pixels with NDWI lower than the NDWI threshold as the land area, substitute all the bands of the corresponding pixels in the working image pixels into values that are ignored, and erase the pixel values in the land area To do. As a result, only water area information is extracted from the image. Note that, for example, -999 is substituted for all the bands to be ignored (step S15).

NDWI閾値による水域抽出した画像501は、水域502と陸域503に分離され、海岸線504が現れる。しかし、抽出した水域画像には水田や溜池等、対象とする浅水域ではない無視すべき微小な水域505a・505bが検出される。そこで、図4(ステップS4)と同様に、微小な水域も陸域として無視する値を代入する。ここでは具体例として、作業用画像に対して無視するべき微小な水域に対応する画素の全バンドに−998を代入する(ステップS16)。   The water area extracted image 501 based on the NDWI threshold is separated into a water area 502 and a land area 503, and a coastline 504 appears. However, in the extracted water area image, small water areas 505a and 505b that are not targeted shallow water areas, such as paddy fields and reservoirs, are detected. Therefore, as in FIG. 4 (step S4), a value that ignores a minute water area as a land area is substituted. Here, as a specific example, -998 is substituted for all bands of pixels corresponding to a minute water area that should be ignored for the work image (step S16).

ここまで、作業用画像上は、水域の画素値と陸域の画素値を表す−999、無視するべき微小な水域を表す−998によって表現されている。この作業用画像とマスク画像の対応する画素を比較し、一方の画素が水域であり、かつ、他方の画素が水域以外である画素数を集計する。この条件に合った画素数がゼロであったとき、作業用画像上の水域とマスク画像上の水域とが一致する。作業用画像上の水域とマスク画像上の水域とが一致した場合(ステップS17でYes)、処理を終了する(終了)。このときの作業用画像が水域を抽出した結果画像とする。条件に合った画素数がゼロではない場合(ステップS17でNo)、作業用画像をマスク画像とする(ステップS18)。そして再度、対象画像をコピーして作業用画像を生成し(ステップS13に戻り)、同様の処理を繰り返す。   Up to this point, the work image is represented by −999 representing the pixel value of the water area and the pixel value of the land area, and −998 representing the minute water area to be ignored. The corresponding pixels of the working image and the mask image are compared, and the number of pixels in which one pixel is a water area and the other pixel is outside the water area is totaled. When the number of pixels that meet this condition is zero, the water area on the work image matches the water area on the mask image. If the water area on the work image matches the water area on the mask image (Yes in step S17), the process ends (end). The work image at this time is a result image obtained by extracting the water area. If the number of pixels meeting the conditions is not zero (No in step S17), the work image is set as a mask image (step S18). Then, the target image is copied again to generate a work image (return to step S13), and the same processing is repeated.

ここで、例えば、マスク画像生成(ステップS12)直後のときには、マスク画像上の全画素の全バンドは−1であるため、条件に合った画素数はゼロとならない。従って、作業用画像をマスク画像とし、作業用画像生成(ステップS13)を再度実施する。2回目以降の判別分析法による閾値決定(ステップS14)は、直前に抽出した無視するべき微小な水域を除外したNDWIヒストグラム(601a)を形成する(605aから601aになる)。この無視するべき微小な水域を除外したNDWIヒストグラム(601a)に判別分析法を適用して、無視するべき微小な水域の影響を考慮したNDWI閾値決定する。ここでは、水域のピークが605aから601aに近づき、閾値も、604aから606aに近づく。   Here, for example, immediately after the mask image generation (step S12), since all the bands of all the pixels on the mask image are −1, the number of pixels that meet the condition does not become zero. Therefore, the work image is set as the mask image, and the work image generation (step S13) is performed again. The threshold determination by the second and subsequent discriminant analysis methods (step S14) forms an NDWI histogram (601a) excluding the minute water area that should be ignored just before extraction (from 605a to 601a). A discriminant analysis method is applied to the NDWI histogram (601a) excluding the minute water area to be ignored, and the NDWI threshold value is determined in consideration of the influence of the minute water area to be ignored. Here, the peak of the water area approaches from 605a to 601a, and the threshold also approaches from 604a to 606a.

以後の処理では、前回と同様に閾値適用による水域抽出と作業用画像の更新(ステップS15)、水域から微小水域を除外し、作業用画像を更新する(ステップS16)。そして作業用画像上の水域画素とマスク画像上の水域画素が一致していれば、処理を終了し、一致していなければ、作業用画像をマスク画像として再度処理を繰り返す(ステップS17、S18)。最終的には、微小領域の影響が小さくなり、閾値も604aから606aになる。   In the subsequent processing, similarly to the previous time, extraction of the water area by applying the threshold and update of the work image (step S15), the minute water area is excluded from the water area, and the work image is updated (step S16). If the water area pixel on the work image matches the water area pixel on the mask image, the process ends. If not, the process is repeated again using the work image as the mask image (steps S17 and S18). . Eventually, the influence of the minute area is reduced, and the threshold value is also changed from 604a to 606a.

尚、ステップS17において、作業用画像上の水域画素とマスク画像上の水域画素は完全一致とせず、作業用画像上の水域画素数の数%以下ならば一致したと条件を緩めてもよい。   In step S17, the water area pixels on the working image and the water area pixels on the mask image may not be completely matched, and the condition may be relaxed if they are equal to or less than a few percent of the number of water area pixels on the working image.

以上の方法を用いることで、水域と陸域の境界線、もしくは、境界線を決定するための閾値を作業者の判断基準に依存せず、一意に決定することが可能となる。また、処理の大部分を計算機により行うことができるため、作業効率の大幅な改善が可能となる。   By using the above method, the boundary line between the water area and the land area, or the threshold value for determining the boundary line can be uniquely determined without depending on the judgment criteria of the operator. In addition, since most of the processing can be performed by a computer, work efficiency can be greatly improved.

さらに、本発明では有限範囲が±1の水分指標を採用することで、計算機上のヒストグラム処理を簡略化・効率化できる。   Furthermore, in the present invention, by adopting a moisture index having a finite range of ± 1, histogram processing on a computer can be simplified and made efficient.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.

例えば、NDWI(正規化水指標: Normalized Difference Water Index)に代えて、正規化土壌指標(NDSI)、正規化植生指標(NDVI)を用いることで、陸域の抽出、森林域等の抽出を行うことができる。   For example, instead of NDWI (Normalized Difference Water Index), normalized soil index (NDSI) and normalized vegetation index (NDVI) are used to extract land areas and forest areas. be able to.

本発明は、画像処理装置に利用できる。   The present invention can be used in an image processing apparatus.

10…処理装置、20…記憶装置、30…入出力装置、40…画像処理部、100…NDWI演算部、200…閾値決定部、300…水域抽出部、400…微小領域除去部、21…衛星画像データ記憶部、22…NDWI演算式記憶部、23…閾値記憶部、24…水域データ記憶部、31…入力装置、32…表示装置、33…プリンタ、501…対象衛星画像、502…水域、503…陸域、504…海岸線、505a・505b…微小水域、、601…NDWIヒストグラム、602…陸域を主成分とする範囲、603…水域を主成分とする範囲、604…閾値とするヒストグラムの谷間、601a…微小水域を除外したNDWIヒストグラム、602a…陸域を主成分とする範囲、603a…水域を主成分とする範囲、604a…微小水域を含むときの閾値とするヒストグラムの谷間、605a…微小水域を含むNDWIヒストグラム、606a…微小水域を除外したときの閾値とするヒストグラムの谷間。 DESCRIPTION OF SYMBOLS 10 ... Processing apparatus, 20 ... Memory | storage device, 30 ... Input-output device, 40 ... Image processing part, 100 ... NDWI calculating part, 200 ... Threshold determination part, 300 ... Water area extraction part, 400 ... Minute area removal part, 21 ... Satellite Image data storage unit, 22 ... NDWI arithmetic expression storage unit, 23 ... Threshold storage unit, 24 ... Water area data storage unit, 31 ... Input device, 32 ... Display device, 33 ... Printer, 501 ... Target satellite image, 502 ... Water area, 503 ... land area, 504 ... coastline, 505a and 505b ... minute water area, 601 ... NDWI histogram, 602 ... range based on land area, 603 ... range based on water area, 604 ... histogram based on threshold Valley, 601a: NDWI histogram excluding minute water area, 602a: Range mainly composed of land area, 603a ... Range mainly composed of water area, 604a ... Minute water Threshold histogram valley which, 605a ... NDWI histogram containing micro waters, valleys of the histogram to the threshold when excluding 606a ... small waters when including.

Claims (6)

高空から撮影した地理画像データにおける画素において、第1の波長帯の分光輝度値と、前記第1の波長帯とは異なる第2の波長帯の分光輝度値と、に基づいて画素を識別するための正規化指標値を演算する正規化指標演算部と、
各画素における前記正規化指標値と出現頻度との関係を求め、クラス内分散とクラス間分散の比である分離度が最大となる正規化指標値を判別分析法により求め、前記画素を識別するための2値化のため閾値として決定する閾値決定部と、
前記閾値と対応する正規化指標値に基づいて、前記第1及び第2の波長帯により区別される画像データの領域を抽出する領域抽出部と、
を有することを特徴とする画像処理装置。
To identify a pixel in a geographic image data photographed from a high sky based on a spectral luminance value in a first wavelength band and a spectral luminance value in a second wavelength band different from the first wavelength band A normalization index calculation unit for calculating the normalization index value of
The relationship between the normalized index value and the appearance frequency in each pixel is obtained, and the normalized index value that maximizes the degree of separation, which is the ratio between the intra-class variance and the inter-class variance, is obtained by discriminant analysis, and the pixel is identified. A threshold value determination unit that determines a threshold value for binarization
A region extracting unit that extracts a region of image data distinguished by the first and second wavelength bands based on a normalized index value corresponding to the threshold;
An image processing apparatus comprising:
さらに、前記第1及び第2の波長帯により区別される画像データの領域内に存在する波長の異なる微小領域を、当該画像データの領域内の分光輝度値を有する画素とする微小領域除去部を有することを特徴とする請求項1に記載の画像処理装置。   Further, a micro area removing unit that uses a micro area having a different wavelength existing in the area of the image data distinguished by the first and second wavelength bands as a pixel having a spectral luminance value in the area of the image data. The image processing apparatus according to claim 1, further comprising: 前記閾値決定部は、前記各画素における前記正規化指標値と出現頻度との関係を正規化指標値ヒストグラムとして求め、前記クラス内分散と前記クラス間分散とのヒストグラムのうち、頻度が最大となる走査起点となる前記正規化指標値が負であるときには、走査方向を正方向とし、走査起点となる前記正規化指標値が正であるときには、走査方向を負方向とすることを特徴とする請求項1又は2に記載の画像処理装置。   The threshold value determination unit obtains a relationship between the normalized index value and the appearance frequency in each pixel as a normalized index value histogram, and the frequency is maximized in the histogram of the intra-class variance and the inter-class variance. The scanning direction is a positive direction when the normalization index value serving as a scanning start point is negative, and the scanning direction is a negative direction when the normalization index value serving as a scanning start point is positive. Item 3. The image processing apparatus according to Item 1 or 2. 前記閾値決定部は、
直前に抽出した無視するべき微小領域を除外した前記正規化指標値ヒストグラムを作成し、前記正規化指標値ヒストグラムヒストグラムに判別分析法を適用して閾値を決定する処理を繰り返して閾値を決定することを特徴とする請求項3に記載の画像処理装置。
The threshold determination unit
Creating the normalized index value histogram excluding the minute area to be ignored extracted immediately before, applying a discriminant analysis method to the normalized index value histogram histogram, and repeating the process of determining the threshold value to determine the threshold value The image processing apparatus according to claim 3.
高空から撮影した地理画像データにおける画素において、第1の波長帯の分光輝度値と、前記第1の波長帯とは異なる第2の波長帯の分光輝度値と、に基づいて画素を識別するための正規化指標値を演算する正規化指標演算ステップと、
各画素における前記正規化指標値と出現頻度との関係を求め、クラス内分散とクラス間分散の比である分離度が最大となる正規化指標値を判別分析法により求め、前記画素を識別するための2値化のための閾値として決定する閾値決定ステップと、
前記閾値と対応する正規化指標値に基づいて、前記第1及び第2の波長帯により区別される画像データの領域を抽出する領域抽出ステップと、
を有することを特徴とする画像処理方法。
To identify a pixel in a geographic image data photographed from a high sky based on a spectral luminance value in a first wavelength band and a spectral luminance value in a second wavelength band different from the first wavelength band A normalization index calculation step for calculating the normalization index value of
The relationship between the normalized index value and the appearance frequency in each pixel is obtained, and the normalized index value that maximizes the degree of separation, which is the ratio between the intra-class variance and the inter-class variance, is obtained by discriminant analysis, and the pixel is identified. A threshold value determining step for determining as a threshold value for binarization,
A region extracting step of extracting a region of image data distinguished by the first and second wavelength bands based on a normalized index value corresponding to the threshold;
An image processing method comprising:
請求項5に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 5.
JP2011228940A 2011-10-18 2011-10-18 Image processing apparatus and image processing method Active JP5819157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011228940A JP5819157B2 (en) 2011-10-18 2011-10-18 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011228940A JP5819157B2 (en) 2011-10-18 2011-10-18 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2013089021A true JP2013089021A (en) 2013-05-13
JP5819157B2 JP5819157B2 (en) 2015-11-18

Family

ID=48532872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011228940A Active JP5819157B2 (en) 2011-10-18 2011-10-18 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5819157B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176301A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processing device and image processing method
CN106023133A (en) * 2016-04-26 2016-10-12 武汉大学 High resolution remote sensing image water body extraction method based on multi-feature combined treatment
CN110296690A (en) * 2019-06-06 2019-10-01 中国科学院东北地理与农业生态研究所 A kind of Tideland resources rapid remote sensing extracting method based on Google Earth Engine Cloud platform
JPWO2019130568A1 (en) * 2017-12-28 2020-02-27 スカパーJsat株式会社 Evaluation information generation system, evaluation information generation method, and program
CN111832575A (en) * 2020-07-16 2020-10-27 黄河勘测规划设计研究院有限公司 Water surface area extraction method and device based on remote sensing image
US11373314B2 (en) 2018-04-05 2022-06-28 Nec Corporation Land mask image generation for ocean surface and land surface
JP7399069B2 (en) 2020-11-27 2023-12-15 三菱電機株式会社 Flood control facility monitoring device, flood control facility monitoring method, and flood control facility monitoring program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148906A (en) * 2003-11-12 2005-06-09 Mitsubishi Space Software Kk Shore line extraction device, shore line extraction method, computer-readable recording medium in which program is recorded, and program
JP2005346664A (en) * 2004-06-07 2005-12-15 Nogiwa Sangyo Kk Coastline extraction method and coastline extraction system
JP2006203595A (en) * 2005-01-21 2006-08-03 Institute Of National Colleges Of Technology Japan Device for partially replacing color in image color space and color partially replacing system
JP2007128141A (en) * 2005-11-01 2007-05-24 Hitachi Software Eng Co Ltd System and method for determining road lane number in road image
US20080267498A1 (en) * 2007-04-30 2008-10-30 Mark Shaw Unsupervised color image segmentation by dynamic color gradient thresholding
JP2009285157A (en) * 2008-05-29 2009-12-10 Yokogawa Electric Corp Medical image processing method and medical image processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148906A (en) * 2003-11-12 2005-06-09 Mitsubishi Space Software Kk Shore line extraction device, shore line extraction method, computer-readable recording medium in which program is recorded, and program
JP2005346664A (en) * 2004-06-07 2005-12-15 Nogiwa Sangyo Kk Coastline extraction method and coastline extraction system
JP2006203595A (en) * 2005-01-21 2006-08-03 Institute Of National Colleges Of Technology Japan Device for partially replacing color in image color space and color partially replacing system
JP2007128141A (en) * 2005-11-01 2007-05-24 Hitachi Software Eng Co Ltd System and method for determining road lane number in road image
US20080267498A1 (en) * 2007-04-30 2008-10-30 Mark Shaw Unsupervised color image segmentation by dynamic color gradient thresholding
JP2009285157A (en) * 2008-05-29 2009-12-10 Yokogawa Electric Corp Medical image processing method and medical image processing apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176301A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processing device and image processing method
CN106023133A (en) * 2016-04-26 2016-10-12 武汉大学 High resolution remote sensing image water body extraction method based on multi-feature combined treatment
JPWO2019130568A1 (en) * 2017-12-28 2020-02-27 スカパーJsat株式会社 Evaluation information generation system, evaluation information generation method, and program
US11373314B2 (en) 2018-04-05 2022-06-28 Nec Corporation Land mask image generation for ocean surface and land surface
CN110296690A (en) * 2019-06-06 2019-10-01 中国科学院东北地理与农业生态研究所 A kind of Tideland resources rapid remote sensing extracting method based on Google Earth Engine Cloud platform
CN111832575A (en) * 2020-07-16 2020-10-27 黄河勘测规划设计研究院有限公司 Water surface area extraction method and device based on remote sensing image
CN111832575B (en) * 2020-07-16 2024-04-30 黄河勘测规划设计研究院有限公司 Remote sensing image-based water surface area extraction method and device
JP7399069B2 (en) 2020-11-27 2023-12-15 三菱電機株式会社 Flood control facility monitoring device, flood control facility monitoring method, and flood control facility monitoring program

Also Published As

Publication number Publication date
JP5819157B2 (en) 2015-11-18

Similar Documents

Publication Publication Date Title
JP5819157B2 (en) Image processing apparatus and image processing method
Huang et al. Individual tree crown detection and delineation from very-high-resolution UAV images based on bias field and marker-controlled watershed segmentation algorithms
AU2015324185B2 (en) Multi-spectral image labeling with radiometric attribute vectors of image space representation components
Lalonde et al. Detecting ground shadows in outdoor consumer photographs
Ma et al. Shadow segmentation and compensation in high resolution satellite images
CN102254174B (en) Method for automatically extracting information of bare area in slumped mass
CN110648347A (en) Coastline extraction method and device based on remote sensing image
EP2579211A2 (en) Graph-based segmentation integrating visible and NIR information
Primicerio et al. NDVI-based vigour maps production using automatic detection of vine rows in ultra-high resolution aerial images
CN103646246A (en) Decision tree model based multispectral remote sensing image river information extraction method
Mahmood et al. Contextual subpixel mapping of hyperspectral images making use of a high resolution color image
Besheer et al. Modified invariant colour model for shadow detection
Marochov et al. Image classification of marine-terminating outlet glaciers in Greenland using deep learning methods
Almeer Vegetation extraction from free google earth images of deserts using a robust BPNN approach in HSV Space
JP6871658B2 (en) Water area identification methods and equipment based on iterative classification
Azevedo et al. Shadow detection improvement using spectral indices and morphological operators in high resolution images from urban areas
CN106875407A (en) A kind of unmanned plane image crown canopy dividing method of combining form and marking of control
Dong et al. Cloud detection method for high resolution remote sensing imagery based on the spectrum and texture of superpixels
CN102231190B (en) Automatic extraction method for alluvial-proluvial fan information
Xiao et al. Individual tree detection and crown delineation with 3D information from multi-view satellite images
Aytekin et al. Automatic and unsupervised building extraction in complex urban environments from multi spectral satellite imagery
JP7126316B2 (en) House change estimation device and program
Rudiastuti et al. Benthic habitat mapping using Sentinel 2A: a preliminary study in image classification approach in an absence of training data
Fan et al. Vegetation coverage detection from very high resolution satellite imagery
Maggiori et al. Improved partition trees for multi-class segmentation of remote sensing images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150930

R150 Certificate of patent or registration of utility model

Ref document number: 5819157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250