JP2006285310A - Evaluation method of canopy of forest, and its canopy evaluation program - Google Patents

Evaluation method of canopy of forest, and its canopy evaluation program Download PDF

Info

Publication number
JP2006285310A
JP2006285310A JP2005100470A JP2005100470A JP2006285310A JP 2006285310 A JP2006285310 A JP 2006285310A JP 2005100470 A JP2005100470 A JP 2005100470A JP 2005100470 A JP2005100470 A JP 2005100470A JP 2006285310 A JP2006285310 A JP 2006285310A
Authority
JP
Japan
Prior art keywords
image data
luminance value
crown
canopy
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005100470A
Other languages
Japanese (ja)
Inventor
Kenichiro Muramoto
健一郎 村本
Mamoru Kubo
守 久保
Nobuyuki Suenaga
信行 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa University NUC
Hokuriku Electric Power Co
Original Assignee
Kanazawa University NUC
Hokuriku Electric Power Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa University NUC, Hokuriku Electric Power Co filed Critical Kanazawa University NUC
Priority to JP2005100470A priority Critical patent/JP2006285310A/en
Publication of JP2006285310A publication Critical patent/JP2006285310A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an evaluation method of canopies of a forest and its canopy evaluation program for detecting canopy shapes from a satellite picture image of the forest at a high resolution and accurately determining kinds of trees of the canopies. <P>SOLUTION: The evaluation method of the canopies of the forest by processing image data obtained by photographing the forest from the above performs planarizing processing to planarize a part of peaks and valleys without substantially varying brightness variations at boundary parts of the canopies relating to spatial change of brightness values of the image data, and conducts area dividing processing for the spatial change of the brightness values of the planarized image data to obtain the canopy shapes. Further, the method obtains a texture feature quantity of the image data of the canopies, and determines the kinds of the trees of the canopies by comparing the texture feature quantity of the image of the canopies with a reference texture feature quantity obtained from the image data of the canopies of the known kinds of trees. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は,森林の樹冠の評価方法及びその樹冠評価プログラムに関し,特に,衛星写真画像など森林を上空から撮影した高分解能の画像データに対して所定の画像処理を行って森林の樹冠の位置,形状(大きさ)を検出し樹種を判定する樹冠評価方法及びその樹冠評価プログラムに関する。   The present invention relates to a forest canopy evaluation method and a canopy evaluation program, and in particular, performs predetermined image processing on high-resolution image data obtained by photographing a forest from the sky, such as a satellite photograph image, and the position of the forest canopy, The present invention relates to a crown evaluation method and a crown evaluation program for detecting a shape (size) and determining a tree species.

森林地帯の衛星写真画像データに画像処理を加えることで森林の樹冠を評価することが注目されている。樹冠とは,森林を構成する樹木を上部から観察した時に,樹木の枝葉で構成された丸みを持った形状をいい,樹種とは樹木の種類をいう。森林を構成する樹冠の位置,形状,大きさの検出に加えてその樹木の種類(樹種)を判定することで,例えば二酸化炭素の排出権の評価や,森林の評価を行うことができる。   Attention has been focused on evaluating forest canopy by applying image processing to satellite photograph image data in forest areas. The canopy is a round shape composed of branches and leaves of a tree when the trees that make up the forest are observed from above, and the tree species is the type of tree. In addition to detecting the position, shape, and size of the canopy that constitutes the forest, the type (tree species) of the tree can be determined, for example, to evaluate carbon dioxide emission rights and forest.

従来から,人工衛星や航空機から撮影した森林のカラー写真画像を画像処理して,森林の樹冠形状画像を求め,その樹冠形状画像と,実際に調査した樹冠に対応するカラー画像とを比較して,樹冠の樹種を判定する森林評価方法が提案されている。例えば,以下の特許文献1に記載されている。   Conventionally, forest color photograph images taken from satellites and aircraft are processed to obtain forest crown shape images, and the crown shape images are compared with the color images corresponding to the actually investigated crowns. Forest evaluation methods have been proposed for determining tree species of canopy. For example, it is described in the following Patent Document 1.

この森林評価方法によれば,人工衛星や航空機で撮影した森林のカラーデジタル写真画像を白黒デジタル画像に変換し,平滑化処理し,樹冠の境界線の強調処理をし,ウォーターシェッドアルゴリズムにより樹冠形状を求め,樹冠形状画像内の画素のスペクトル分析により樹種を判定する。   According to this forest evaluation method, color digital photographic images of forests taken with satellites and aircraft are converted into black and white digital images, smoothed, and the borderline of the canopy is enhanced. The tree species is determined by spectral analysis of the pixels in the crown shape image.

また,人工衛星から撮影した森林地帯の写真画像から,樹木の活性度の指標である正規化植生指数(NDVI:Normalized Difference Vegetation Index)を算出する森林の評価方法や,森林の写真画像の濃淡パターンに対して,その一様性,方向性,コントラストなどを濃度共起行列を用いて求め,その特徴量から森林の樹種を判定する方法や,ヘリコプタから撮影した森林の写真画像に対して樹冠形状を近似円と仮定してその近似円を森林の写真画像に適合させて樹冠を検出する方法なども提案されている。例えば,以下の非特許文献1に記載されるとおりである。   Also, a forest evaluation method for calculating a Normalized Difference Vegetation Index (NDVI), which is an index of the activity of trees, from a photographic image of a forest area taken from an artificial satellite, and a shading pattern of a photographic image of a forest The uniformity, directionality, contrast, etc. are determined using the density co-occurrence matrix, and the tree species of the forest is taken from the helicopter. A method of detecting a crown by adapting the approximate circle to a photographic image of a forest has been proposed. For example, as described in Non-Patent Document 1 below.

更に,高分解能衛星,例えば地球観測衛星IKONOS,の画像を利用した植生解析が日本スペースイメージング社から提案されている。これによれば,高分解能衛星画像を前処理し,領域分割して樹冠形状を求め,各分割領域のスペクトル解析を行って,その波長スペクトルを基にして樹種を分類することが提案されている。但し,領域分割の方法については公表されておらず,スペクトル解析の具体的方法も公表されていない。   Furthermore, a vegetation analysis using an image of a high-resolution satellite such as the earth observation satellite IKONOS has been proposed by Japan Space Imaging. According to this, it has been proposed to preprocess high-resolution satellite images, determine the crown shape by segmenting the region, perform spectral analysis of each segmented region, and classify the tree species based on the wavelength spectrum . However, the method of segmentation has not been published, and the specific method of spectrum analysis has not been published.

そして,衛星IKONOSからの高分解能の森林の画像を現地調査で同定させた樹冠形状に重ねて,その樹冠の画素の平均値と標準偏差を計算し,その樹冠のスペクトル分析により樹種を分類することが提案されている。例えば,以下の非特許文献2に記載されるとおりである。
特開2001−357380号公報 「衛星リモートセンシングによる植生モニタリング−有峰地域の森林活性度調査−平成12−14年度共同研究成果報告書」平成15年3月,金沢大学工学部村本研究室,北陸電力株式会社立地環境部 「高分解能IKONOS衛星による針広混交林の樹種分類」加藤正人,森林航測 大198号 6〜9 2002.11
Then, by superimposing the high-resolution forest image from the satellite IKONOS on the canopy shape identified in the field survey, calculating the average value and standard deviation of the pixel of the canopy, and classifying the tree species by spectral analysis of the canopy Has been proposed. For example, as described in Non-Patent Document 2 below.
JP 2001-357380 A "Vegetation monitoring by satellite remote sensing-Forest activity survey in Arimine area-Report on the results of joint research in FY 2000-2014" March 2003, Muramoto Laboratory, Faculty of Engineering, Kanazawa University, Location Environment Department, Hokuriku Electric Power Co., Inc. “Tree classification of needle-mixed mixed forests using high-resolution IKONOS satellites” Masato Kato, Forest Navigation Survey 198 6-9 2002.11.

非特許文献1に記載されている衛星画像(例えばLandsat)のような画素当たり30mと低分解能の場合は,画素内に複数の樹冠が含まれ,そもそも樹冠形状を検出することができない。したがって,森林全体の評価をするに止まる。また,同文献に記載されているような航空機写真画像の場合は,樹冠検出は近似円による方法が提案されているにすぎず,また写真の濃淡パターンによる樹種判定では,樹木が密集した森林全体の樹種判定をするに止まっている。   In the case of a low resolution of 30 m per pixel such as a satellite image (for example, Landsat) described in Non-Patent Document 1, a plurality of tree crowns are included in the pixel, and the crown shape cannot be detected in the first place. Therefore, it is only necessary to evaluate the entire forest. In the case of an aerial photograph image as described in the same document, only the method of detecting the crown is proposed by the approximate circle, and the tree species judgment by the shading pattern of the photograph is used for the whole forest where trees are dense. It is stopped to judge tree species.

更に,特許文献1に記載された衛星画像に平滑化処理等を行ってウォーターシェッドアルゴリズムにより樹冠形状を求める方法によると,輝度変化が最も小さい部分を中心にして,輝度の変化に沿って四方に領域を拡大させ,隣接する拡大領域が衝突する箇所を樹冠の境界線と定めるものであるが,樹冠の境界部分の輝度値変化を残す程度の平滑化処理だけでは、高分解能の衛星画像データの樹冠の輝度は単純な峰の形状にならないので,樹冠を正確に検出できない。また,樹種の判定に樹冠の画像のスペクトル解析を利用する方法が記載されているが,樹冠画像が複数の画素からなる高分解能の画像データの場合に波長スペクトルの相関性を利用した方法を適用すると,各画素が同じ波長スペクトルを有するとは限らず,正確に樹種を判定することは困難である。   Furthermore, according to the method of obtaining the crown shape by the watershed algorithm by performing the smoothing process etc. on the satellite image described in Patent Document 1, the brightness change is centered around the portion where the brightness change is the smallest. The area where the area is enlarged and the area where the adjacent enlarged area collides is defined as the boundary line of the canopy. Since the brightness of the crown does not have a simple peak shape, the crown cannot be detected accurately. In addition, a method that uses spectral analysis of the crown image for the determination of tree species is described, but the method using the correlation of the wavelength spectrum is applied when the crown image is high-resolution image data consisting of multiple pixels. Then, each pixel does not necessarily have the same wavelength spectrum, and it is difficult to accurately determine the tree species.

また,非特許文献2では,高分解能の衛星写真画像を利用しているものの,樹冠形状の検出は,実地調査画像との重ね合わせによるものであり,実地調査自体が高コストであり現実的な方法とはいえない。また,スペクトル解析による樹種判定は,前述のとおり正確ではない。   In Non-Patent Document 2, although high-resolution satellite photograph images are used, detection of the crown shape is based on superimposition with the field survey image, and the field survey itself is expensive and realistic. It's not a method. Also, tree species determination by spectrum analysis is not accurate as described above.

そして,日本スペースイメージング社の提案では,前述のとおり樹冠形状の検出方法やスペクトル解析による樹種判定の具体的方法については記載されていない。   In addition, the proposal of Japan Space Imaging Co., Ltd. does not describe the method for detecting the crown shape or the specific method for determining the tree species by spectral analysis as described above.

そこで,本発明の目的は,森林の高分解能の衛星写真画像から樹冠形状を正確に検出することができ,その樹冠の樹種を正確に判定することができる森林の樹冠評価方法及びその樹冠評価プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a forest crown evaluation method and a crown evaluation program capable of accurately detecting a crown shape from a high-resolution satellite photograph image of the forest and accurately determining the tree species of the crown. Is to provide.

上記の目的を達成するために,本発明の第1の側面によれば,森林を上空から撮影した画像データを処理して森林の樹冠を評価する樹冠評価方法において,前記画像データの輝度値の空間変化について樹冠の境界部分の輝度値変化を実質的に変更せずに峰と谷の部分を平坦にする平坦化処理を行い,その平坦化された画像データの前記輝度値の空間変化に対して領域分割処理を行って,樹冠の形状を求める。更に,樹冠の画像データのテクスチャ特徴量を求め,当該樹冠の画像のテクスチャ特徴量を既知の樹種の樹冠画像データから求めた基準テクスチャ特徴量と比較して樹冠の樹種を判定する。   In order to achieve the above object, according to a first aspect of the present invention, in a canopy evaluation method for processing image data obtained by photographing a forest from the sky to evaluate a forest canopy, the luminance value of the image data is determined. Spatial changes are performed by flattening the peaks and valleys without substantially changing the brightness values at the boundary of the tree crown, and against the spatial changes in the brightness values of the flattened image data. Then, the area is divided and the crown shape is obtained. Further, the texture feature amount of the image data of the crown is obtained, and the tree feature of the crown is determined by comparing the texture feature amount of the image of the crown with the reference texture feature amount obtained from the crown image data of the known tree species.

本発明の第1の側面において,好ましい実施例では,平坦化処理が,前記画像データの輝度値を所定値だけ減算し元の輝度値を超えない範囲で近傍画素の最大輝度値に置き換える膨張処理と,画像データの輝度値を所定値だけ加算し元の輝度値を下回らない範囲で近傍画素の最小輝度値に置き換える縮退処理とを有する。この実施例によれば,コンピュータソフトウエアを利用した画像処理により膨張処理と縮退処理を簡単に行うことができ,それにより峰と谷が平坦化された画像データについて領域分割処理を簡単に行うことができる。   In a preferred embodiment of the first aspect of the present invention, in a preferred embodiment, the flattening process subtracts the brightness value of the image data by a predetermined value and replaces it with the maximum brightness value of neighboring pixels within a range not exceeding the original brightness value. And a degeneration process that adds a predetermined value to the luminance value of the image data and replaces it with the minimum luminance value of neighboring pixels within a range that does not fall below the original luminance value. According to this embodiment, it is possible to easily perform expansion processing and reduction processing by image processing using computer software, thereby easily performing region division processing on image data in which peaks and valleys are flattened. Can do.

更に,好ましい実施例では,領域分割処理は,前記平坦化処理された画像データの微分値を求める微分値生成処理と,微分値ゼロや極小値の位置を中心に隣接する画素領域を拡張する領域拡張処理と,極小値の位置から拡張された領域を微分値ゼロの位置から拡張された領域に併合する併合処理とを有する。微分値を利用することにより,コンピュータソフトウエアを利用した画像処理で領域分割処理を簡単に行うことができる。   Further, in a preferred embodiment, the region dividing process includes a differential value generation process for obtaining a differential value of the flattened image data, and an area in which adjacent pixel areas are expanded around the position of the differential value zero or the minimum value. An expansion process, and a merge process for merging the area expanded from the position of the minimum value into the area expanded from the position of the differential value zero. By using the differential value, the region division processing can be easily performed by image processing using computer software.

本発明の第1の側面において,好ましい実施例によれば,上空から撮影した画像データは,単一画素当たり数10センチメートル〜数メートル程度の分解能であり,単一樹冠内に複数行複数列の画素が含まれ且つ単一画素内に複数の枝葉が含まれる程度の分解能である。かかる分解能を有する画像データの場合,樹冠画像には樹種に応じた固有の模様(テクスチャ)が生成されるので,スペクトル分析でなくテクスチャ特徴量による樹種判定を容易に行うことができる。   In the first aspect of the present invention, according to a preferred embodiment, the image data taken from the sky has a resolution of about several tens of centimeters to several meters per single pixel, and a plurality of rows and a plurality of columns in a single tree crown. The resolution is such that multiple pixels are included in a single pixel. In the case of image data having such a resolution, a unique pattern (texture) corresponding to the tree type is generated in the tree crown image, so that it is possible to easily determine the tree type based on the texture feature amount instead of the spectrum analysis.

更に,好ましい実施例では,前記テクスチャ特徴量は,画像の輝度値iの点から角度θの方向に長さrの変位δ=(r,θ)だけ離れた点の輝度値jである確率Pδ(i,j)(i,j=0,1,・・・・,n−1)を要素とする同時生起行列から求められる第1のテクスチャ特徴量,画像の輝度値に対し全体が1.0になるよう正規化された輝度値ヒストグラムP(i)(iは輝度値)の平均,分散,歪度,尖度を含む第2のテクスチャ特徴量,画像内で一定の変位δ=(r,θ)だけ離れた2点の輝度値の差がkである確率Pδ(k)(k=0,1,・・・n−1)から求められる第3のテクスチャ特徴量,画像内でθ方向の輝度値iの点がj個続く頻度Pθ(i,j)を要素とするランレングス行列から求められる第4のテクスチャ特徴量のいずれかを含む。これらのテクスチャ特徴量を利用することにより,適切に樹種を判定することができる。   Furthermore, in a preferred embodiment, the texture feature amount is a probability Pδ that is a luminance value j at a point separated from the point of the luminance value i of the image by a displacement δ = (r, θ) of length r in the direction of angle θ. .. (I, j) The first texture feature quantity obtained from a co-occurrence matrix having (i, j = 0, 1,..., N−1) as elements and the luminance value of the image as a whole. Second texture feature value including average, variance, skewness, and kurtosis of brightness value histogram P (i) (i is a brightness value) normalized to 0, constant displacement δ = (r , Θ) is a third texture feature amount determined from the probability Pδ (k) (k = 0, 1,..., N−1) that the difference in luminance value between two points separated by k is θ in the image. A fourth texture feature amount determined from a run-length matrix whose element is a frequency Pθ (i, j) in which j points of luminance value i in the direction continue Including the Zureka. By using these texture feature quantities, the tree species can be determined appropriately.

上記の目的を達成するために,本発明の第2の側面は,第1の側面の評価方法をコンピュータに実行させる樹冠評価プログラムである。   In order to achieve the above object, a second aspect of the present invention is a canopy evaluation program that causes a computer to execute the evaluation method of the first aspect.

上記本発明の第1の側面によれば,樹冠の境界部分の輝度値変化を実質的に変更せずに峰と谷の部分を平坦にする平坦化処理を行うことにより,その後の領域分割処理において,ウォーターシェッドアルゴリズム(流域検出方法)による簡単な画像処理により樹冠形状の検出を正確に行うことができる。また,樹冠の画像のテクスチャ特徴量により樹種を判定するので,樹冠内の複数の画素のスペクトル分析よりもより正確に樹種を判定することができる。   According to the first aspect of the present invention described above, by performing the flattening process for flattening the peak and valley portions without substantially changing the luminance value change at the boundary portion of the tree crown, the subsequent region dividing process is performed. Therefore, the crown shape can be accurately detected by simple image processing using the watershed algorithm (basin detection method). Further, since the tree species is determined based on the texture feature amount of the image of the tree crown, the tree species can be determined more accurately than the spectrum analysis of a plurality of pixels in the tree crown.

以下,図面にしたがって本発明の実施の形態について説明する。但し,本発明の技術的範囲はこれらの実施の形態に限定されず,特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.

図1は,本実施の形態における人工衛星など上空から撮影した画像と樹冠との関係を示す図である。この図により本実施の形態が対象とする画像データの分解能を説明する。森林を上空から撮影すると,樹木の枝葉で構成された丸みを持った樹冠10,12,14,16が観察される。衛星IKONOSなどの高分解能衛星の画像データの場合は,その分解能が1画素当たり1メートル,または60センチメートルであり,樹冠の直径が数メートルから数十メートルとすると,図示されるとおり各樹冠は複数行複数列の画素を含むことになる。図1の例では,実線の四角形が樹冠の画素に対応し,破線の四角形が樹冠以外の画素に対応する。また,1メートル/画素程度の分解能では,1画素内に樹木の複数の枝葉が含まれる。したがって,樹木の枝葉を複数の画素で表現するほどの高い分解能ではない。   FIG. 1 is a diagram showing a relationship between an image taken from the sky such as an artificial satellite and a tree crown in the present embodiment. The resolution of the image data targeted by this embodiment will be described with reference to this figure. When the forest is photographed from the sky, rounded crowns 10, 12, 14, and 16 composed of branches and leaves of trees are observed. In the case of image data from a high-resolution satellite such as the satellite IKONOS, if the resolution is 1 meter per pixel, or 60 centimeters, and the diameter of the crown is several meters to several tens of meters, It includes pixels in multiple rows and multiple columns. In the example of FIG. 1, the solid rectangle corresponds to the pixel of the tree crown, and the dashed rectangle corresponds to a pixel other than the tree crown. In addition, at a resolution of about 1 meter / pixel, one pixel includes a plurality of branches and leaves of a tree. Therefore, the resolution is not high enough to represent the branches and leaves of the tree with a plurality of pixels.

このように,衛星IKONOSによる画像データは,樹冠の形状を目視判読できる程度に高い分解能を持つので,かかる画像データをコンピュータを利用して画像処理することによりその樹冠形状を検出することができる。そして,検出された樹冠形状の樹種を自動判定できれば,森林の評価方法としてその価値を高めることができる。近年,地球温暖化に伴う二酸化炭素の排出権ビジネスの始まりに際して,植林により創出される排出権を効率的且つ正確に評価するツールが求められているところであり,かかる衛星画像データを利用した自動森林評価方法は,排出権取引に欠かせないものである。特に,衛星画像データから樹木1本1本の形状を検出し,その樹種を判定できれば,正規化植生指数(NDVI:Normalized Difference Vegetation Index)による植生活性度(樹木の葉緑素の度合い)などの算出と組み合わせるなどして,より正確に二酸化炭素の吸収量を評価することができる。   As described above, the image data obtained by the satellite IKONOS has a resolution that is high enough to visually interpret the shape of the tree crown. Therefore, the image shape of the tree crown can be detected by image processing using the computer. If the detected tree species of the crown shape can be automatically determined, the value of the forest evaluation method can be increased. In recent years, at the beginning of the carbon credit emission business associated with global warming, there is a need for a tool that efficiently and accurately evaluates the emission credits created by afforestation. Automatic forests using such satellite image data are required. Evaluation methods are essential for emissions trading. In particular, if the shape of each tree can be detected from satellite image data and the tree species can be determined, the vegetation degree (degree of chlorophyll) can be calculated using the Normalized Difference Vegetation Index (NDVI). By combining them, the amount of carbon dioxide absorbed can be more accurately evaluated.

図2は,本実施の形態における森林の樹冠の評価方法についてのフローチャート図である。この評価方法は,森林を上空から撮影した画像データをコンピュータプログラムにより画像処理を行うことで自動的に行うことができる。したがって,この評価方法は,汎用コンピュータに当該画像処理プログラムをインストールした評価コンピュータにより行うことができる。   FIG. 2 is a flowchart of the forest crown evaluation method according to the present embodiment. This evaluation method can be automatically performed by performing image processing on image data obtained by photographing a forest from the sky with a computer program. Therefore, this evaluation method can be performed by an evaluation computer in which the image processing program is installed in a general-purpose computer.

また,図3は,上記評価方法における森林の樹冠形状の検出方法のフローチャート図である。これらのフローチャートにしたがい,且つ具体的画像例を参照しながら,森林の樹冠の評価方法を説明する。   FIG. 3 is a flowchart of the forest crown shape detection method in the evaluation method. A forest canopy evaluation method will be described with reference to these flowcharts and with reference to specific image examples.

図2には,森林樹冠の評価方法の概略が示されている。まず,衛星画像データを入力する(S10)。この衛星画像データは,青,緑,赤,近赤外(B,G,R,NIR)の各波長域の地表反射データからなるマルチスペクトル画像データである。図4,5に,これらの画像の一例を示す。図4には,青と緑の衛星画像が示される。また,図5には,赤と近赤外の衛星画像が示される。各画像データは,画素に対応する輝度値であり,例えば8ビット,256階調の輝度値データである。これらの衛星画像から目視判読されるとおり,複数の画素を含む樹冠が検出可能な程度の分解能を有している。   FIG. 2 shows an outline of a forest canopy evaluation method. First, satellite image data is input (S10). This satellite image data is multispectral image data composed of ground reflection data in each wavelength region of blue, green, red, and near infrared (B, G, R, NIR). 4 and 5 show examples of these images. FIG. 4 shows blue and green satellite images. FIG. 5 shows red and near-infrared satellite images. Each image data is a luminance value corresponding to a pixel, for example, luminance value data of 8 bits and 256 gradations. As can be seen visually from these satellite images, it has a resolution that can detect a crown including a plurality of pixels.

次に,4つの画像データについて主成分分析して,第1主成分の画像を生成する(S12)。この工程については,後に詳述するが,要すれば,図4,5に示した4つの画像データを4次元の輝度値と考えて,それら4次元の輝度値から最も特徴の現れる軸(特徴の分散が最大になる軸)を求め,4つの画像データを線形変換して当該軸上の輝度値(第1主成分)を求めるものである。   Next, a principal component analysis is performed on the four image data to generate a first principal component image (S12). Although this process will be described in detail later, if necessary, the four image data shown in FIGS. 4 and 5 are considered as four-dimensional luminance values, and the axis where the most characteristic appears from these four-dimensional luminance values (features) Is obtained), and the four image data are linearly converted to obtain the luminance value (first principal component) on the axis.

そして,第1主成分の画像データに対して膨張処理と縮退処理を行い,画像データの輝度値の空間変化について樹冠の境界部分の輝度値変化を実質的に変更することなく,峰と谷の部分を削除して平坦にする(S14)。この平坦化処理を行う前の第1主成分の画像データの輝度値の空間変化では,樹冠の境界部分の輝度値が大きく増減すると共に,樹冠内においても輝度値が増減する峰と谷が複数存在する。このような峰や谷は,ウォーターシェッドアルゴリズムによる領域分割処理を行うとそれぞれ個別の領域となり、一つの樹冠が細分化される。この細分化を防ぎ正確な樹冠形状を検出するためには,平坦化処理により峰や谷を平坦化する処理が有効である。   Then, dilation processing and degeneration processing are performed on the first principal component image data, and the spatial change of the luminance value of the image data is substantially unchanged without changing the luminance value change of the boundary portion of the tree crown. The part is deleted and flattened (S14). In the spatial change of the luminance value of the first principal component image data before this flattening processing, the luminance value of the boundary part of the crown can be greatly increased and decreased, and there are a plurality of peaks and valleys in which the luminance value also increases and decreases in the crown. Exists. Such ridges and valleys become individual areas when the area division processing is performed by the watershed algorithm, and one tree crown is subdivided. In order to prevent this subdivision and to detect an accurate crown shape, it is effective to flatten peaks and valleys by flattening processing.

平坦化処理された画像データの輝度値の空間変化に対して,ウォーターシェッドアルゴリズム(流域検出方法)を適用して,樹冠の領域分割処理を行い,樹冠の位置や形状(領域)を求める(S16)。ウォーターシェッドアルゴリズム自体は公知の手法であるが,そのうち,本実施の形態では,画像データの輝度値の空間変化について微分値を求め,微分値ゼロや微分値の極小値の位置を開始点として,周囲の隣接する画素領域を拡張する領域拡張処理を行う。平坦化された画像データの微分値を利用することで,ウォーターシェッドアルゴリズムによる領域分割処理をコンピュータプログラムにより容易に行うことができる。   A watershed algorithm (basin detection method) is applied to the spatial change in the luminance value of the flattened image data to perform a tree canal region division process to obtain the position and shape (region) of the canopy (S16). ). The watershed algorithm itself is a well-known technique, but in this embodiment, the differential value is obtained for the spatial change of the luminance value of the image data, and the position of the differential value zero or the minimum value of the differential value is used as a starting point. An area expansion process is performed to expand adjacent neighboring pixel areas. By using the differential value of the flattened image data, the region division processing by the watershed algorithm can be easily performed by a computer program.

樹冠形状が検出された後,その樹冠の画像データ,ここでは第1主成分の画像データ,の空間的模様であるテクスチャ特徴量を抽出し,既知の樹種の樹冠画像データから求めた基準テクスチャ特徴量と比較し,樹種を判定する(S18)。本実施の形態では,衛星IKONOSの画像の分解能では樹冠の画像データが複数の画素により構成されることを考慮して,従来のスペクトル分析ではなく,テクスチャ特徴量を利用して樹種判定を行う。このテクスチャ特徴量は,例えば,同時生起行列から求められる局所一様性などの特徴量が有効である。   After the crown shape is detected, a texture feature amount, which is a spatial pattern of the image data of the crown, here the image data of the first principal component, is extracted, and the reference texture feature obtained from the crown image data of a known tree species The tree species is determined by comparing with the amount (S18). In the present embodiment, considering the fact that the image data of the tree crown is composed of a plurality of pixels in the resolution of the image of the satellite IKONOS, tree type determination is performed using texture feature amounts instead of conventional spectrum analysis. As the texture feature amount, for example, a feature amount such as local uniformity obtained from the co-occurrence matrix is effective.

そして,最後に評価対象の森林における樹冠の位置,形状(大きさ),樹種を出力する(S20)。この出力データと前述のNDVI値を利用して,森林の排出権の評価を行うことができる。   Finally, the position, shape (size), and tree species of the canopy in the forest to be evaluated are output (S20). By using this output data and the above-mentioned NDVI value, it is possible to evaluate forest emission rights.

[樹冠の検出]
次に,図3のフローチャートにしたがって,森林の樹冠の検出方法について詳述する。樹冠検出は,図2の工程S10〜S16により行われ,図3にはそれらの構成を詳述しており,同じ工程には同じ引用番号を与えている。まず,衛星画像データの入力(S10)は,図2と同じである。次に,第1主成分の画像生成工程S12が行われる。
[Detection of tree crown]
Next, a method for detecting a forest canopy will be described in detail with reference to the flowchart of FIG. The crown detection is performed by steps S10 to S16 in FIG. 2, and their configurations are detailed in FIG. 3, and the same reference numerals are given to the same steps. First, input of satellite image data (S10) is the same as in FIG. Next, the first principal component image generation step S12 is performed.

図6は,第1主成分の画像生成を説明するための図である。第1主成分の画像を生成する主成分分析については,例えば,「新編,画像解析ハンドブック,高木幹雄・下田陽久監修」に詳しく説明されており,それによると,主成分分析とは,多変量の測定値(4色の輝度値)が与えられたとき,線形変換により変量間の相関をなくし,より少ない変量により測定対象の特徴を記述しようとする変換である。図6により簡単に説明すると,仮に2種の変量1x,2xが測定された時,二次元座標(1x軸と2x軸)上には,黒点の変量22がプロットされる。そして,これら変量の分散が最大になる破線の軸が主成分軸20になる。 FIG. 6 is a diagram for explaining image generation of the first principal component. The principal component analysis for generating the first principal component image is described in detail in, for example, “New Edition, Image Analysis Handbook, Supervised by Mikio Takagi / Yoshihisa Shimoda”. When the measurement values (luminance values of four colors) are given, the correlation between the variables is eliminated by linear transformation, and the characteristics of the measurement target are described by fewer variables. Briefly described with reference to FIG. 6, when two types of variables 1 x and 2 x are measured, a black point variable 22 is plotted on two-dimensional coordinates ( 1 x axis and 2 x axis). The broken line axis that maximizes the variance of these variables is the principal component axis 20.

本実施の形態の4色の画像データの輝度値に適用して説明すると,図6の式(1)は,式(3)の条件の下で変量Zの分散が最大になるように,式(2)の係数aを定めた場合の,第1主成分である変量Zを示す。この変量Zは,4色の輝度値である変量1x,2x,3x,4xを係数a1,a2,a3,a4との一次結合で表したものである。 When applied to the luminance values of the four-color image data of the present embodiment, the expression (1) in FIG. 6 is an expression that maximizes the variance of the variable Z under the condition of the expression (3). The variable Z which is the first principal component when the coefficient a in (2) is determined is shown. The variable Z represents the variables 1 x, 2 x, 3 x, and 4 x, which are the luminance values of the four colors, by a linear combination with the coefficients a 1 , a 2 , a 3 , and a 4 .

この第1主成分Zは,4色の輝度値について共分散行列の固有値方程式を解き,その最大固有値に対応する固有ベクトルを第1主成分ベクトルaとし,式(1)のとおり4つの輝度値1x,2x,3x,4xに第1主成分ベクトルaを乗算して求める。図7は,図4,5の4つの画像データから求めた第1主成分の画像である。各画素の輝度値は,その分散が最大になっており,樹冠形状や樹冠の模様(テクスチャ特徴量)を求めるのに適した値に変換されている。 The first principal component Z is solving the eigenvalue equation of the covariance matrix for the four colors luminance values, the eigenvector corresponding to the maximum eigenvalue is a first principal component vector a, 4 single luminance values as illustrated in formula (1) 1 x, 2 x, 3 x, 4 x are multiplied by the first principal component vector a. FIG. 7 is an image of the first principal component obtained from the four image data of FIGS. The luminance value of each pixel has the maximum variance, and is converted to a value suitable for obtaining the crown shape and crown pattern (texture feature).

図3に戻り,次に,第1主成分の画像に対して,平滑化処理を行う(S13)。この平滑化処理は,従来から知られているガウシアンフィルタを利用した処理である。ガウシアンフィルタの一例が図8に示されている。この例では,ガウシアンフィルタGFは3×3のフィルタであり,平滑化処理では,画像データの各画素の輝度値とその周囲8近傍の画素の輝度値に対して,このガウシアンフィルタGFの係数をそれぞれ乗算し,その合計値が中心の画素の輝度値に置き換えられる。これにより,第1主成分の画像データの空間変化における高周波成分が除去され平滑化される。このガウシアンフィルタGFは,8近傍の画素の輝度値を対応する係数に応じて加算するものであり,そのサイズを3×3と小さくすることで,樹冠を検出するための境界部分の輝度値変化を残しつつ,平滑化することができる。   Returning to FIG. 3, next, smoothing processing is performed on the first principal component image (S13). This smoothing process is a process using a conventionally known Gaussian filter. An example of a Gaussian filter is shown in FIG. In this example, the Gaussian filter GF is a 3 × 3 filter, and in the smoothing process, the coefficient of the Gaussian filter GF is applied to the luminance value of each pixel of the image data and the luminance values of the neighboring eight pixels. Each multiplication is performed, and the total value is replaced with the luminance value of the center pixel. Thereby, the high frequency component in the spatial change of the image data of the first principal component is removed and smoothed. This Gaussian filter GF adds luminance values of pixels in the vicinity of 8 according to the corresponding coefficients, and by reducing the size to 3 × 3, the luminance value change at the boundary portion for detecting the tree crown It can be smoothed while leaving

図8は,図6の第1主成分の画像を上記ガウシアンフィルタにより平滑化処理した画像を示す図である。画像データの空間変化が平滑化されて,高周波成分が除去されているが,樹冠を検出するための境界部分の輝度値の大きな変化(低周波成分)は残されたままである。   FIG. 8 is a diagram showing an image obtained by smoothing the first principal component image of FIG. 6 with the Gaussian filter. Although the spatial change of the image data is smoothed and the high frequency component is removed, the large change in the luminance value (low frequency component) at the boundary portion for detecting the canopy remains.

次に,平坦化処理S14のために,膨張処理により輝度値の空間変化の峰の部分を除去して平坦化し(S14A),縮退処理により輝度値の空間変化の谷の部分を除去して平坦化する(S14B)。膨張処理と縮退処理はいずれを先に行っても良い。   Next, for the flattening process S14, the peak part of the spatial change in the luminance value is removed by the dilation process and flattened (S14A), and the valley part of the spatial change in the luminance value is removed by the degeneration process. (S14B). Either the expansion process or the contraction process may be performed first.

図9は,膨張処理のフローチャート図であり,図10は,膨張処理を説明する輝度値の空間変化のグラフ図である。また,図11〜図13は,図8の平滑化処理された画像データに膨張処理を行った結果の画像例を示す図である。膨張処理は,平滑化処理された画像データの輝度値の空間変化について,その峰の部分を平坦化する処理である。図10を参照しながら図9のフローチャートを説明すると,まず,輝度値の空間変化の峰の高さを測定し,比較的多数の峰の高さを含む高さを所定値に設定する(S20)。図10の実線は,平滑化処理された画像データの輝度値の空間変化を示す。峰とは極大値をとる部分であり,この例では4つの峰が存在している。この場合,峰M1とM2が一つの樹冠,峰M3が樹冠以外,峰M4が別の樹冠と予測される。そこで,膨張処理により,峰M1とM2を平坦化して一つにし,峰M3はなくし,峰4は上部の一部分のみを平坦化する。そのために,極大値の位置にある峰の高さを近傍の谷からの高さとして検出し,それらのうち比較的多数の峰の高さを含む高さを上記所定値と設定する。ここでは,峰M1,M2,M3のうちもっと高い高さに設定される。   FIG. 9 is a flowchart of the expansion process, and FIG. 10 is a graph of the spatial change of the luminance value for explaining the expansion process. FIGS. 11 to 13 are diagrams showing examples of images obtained as a result of performing the expansion process on the smoothed image data of FIG. The expansion process is a process of flattening the peak portion of the spatial change in the brightness value of the smoothed image data. The flowchart of FIG. 9 will be described with reference to FIG. 10. First, the height of the peak of the spatial change in the luminance value is measured, and the height including the height of a relatively large number of peaks is set to a predetermined value (S20). ). The solid line in FIG. 10 shows the spatial change in the brightness value of the smoothed image data. A peak is a portion having a maximum value, and in this example, there are four peaks. In this case, it is predicted that the peaks M1 and M2 are one crown, the peak M3 is other than the crown, and the peak M4 is another crown. Therefore, by the expansion process, the peaks M1 and M2 are flattened into one, the peak M3 is eliminated, and the peak 4 is flattened only at a part of the upper part. Therefore, the height of the peak at the position of the maximum value is detected as the height from the neighboring valley, and the height including the heights of a relatively large number of peaks among them is set as the predetermined value. Here, it is set to a higher height among the peaks M1, M2, and M3.

次に,各画素の輝度値を前記所定値だけ減算した画像データを生成する(S22)。その結果,図10中の破線のグラフ(輝度値の空間変化)が得られる。この減算した画像データの輝度値を,元の輝度値を超えない範囲で8近傍の画素の最大輝度値に置き換える処理を,全ての画素に対して行う(S24,S26,S28,S30)。つまり,注目画素の輝度値が近傍8画素の最大輝度値よりも小さい場合は(S24のYES),更に,最大輝度値が元の輝度値より大きくないときは(S26のNO)注目画素の輝度値を最大輝度値に置き換え(S28),最大輝度値が元の輝度値より大きいときは(S26のYES)注目画素の輝度値を元の輝度値に置き換える(S30)。上記の処理を全ての画素について行う(S32)。この置き換え処理S24〜S32は所定回数繰り返すことが望ましい。   Next, image data obtained by subtracting the luminance value of each pixel by the predetermined value is generated (S22). As a result, a broken line graph (luminance value spatial change) in FIG. 10 is obtained. The process of replacing the luminance value of the subtracted image data with the maximum luminance value of pixels in the vicinity of 8 within a range not exceeding the original luminance value is performed for all the pixels (S24, S26, S28, S30). That is, when the luminance value of the target pixel is smaller than the maximum luminance value of the neighboring eight pixels (YES in S24), and when the maximum luminance value is not larger than the original luminance value (NO in S26), the luminance of the target pixel The value is replaced with the maximum luminance value (S28). When the maximum luminance value is larger than the original luminance value (YES in S26), the luminance value of the target pixel is replaced with the original luminance value (S30). The above process is performed for all pixels (S32). The replacement processes S24 to S32 are preferably repeated a predetermined number of times.

その結果,図10中の一点鎖線のグラフの輝度値が得られる。つまり,実線矢印のように減算処理された破線のグラフが,破線矢印のように,近くの峰の輝度値まで(但し元の輝度値以下)上昇され,最終的に小さな峰M1とM2が平坦化されて一つになり,M3が平坦化され,大きな峰M4の上部一部分が平坦化される。つまり,樹冠の境界部分の急激な輝度値変化領域30を実質的に変更せず,小さな峰や大きな峰の上部一部分を平坦化することができる。このような峰の平坦化処理は,平滑化処理で大きなフィルタを使用することでもできるが,その場合は,同時に輝度値変化領域30の形状も平滑化され,樹冠の境界部分の輝度値変化が大きく損なわれるので,樹冠形状の検出をより困難にしてしまい好ましくない。   As a result, the luminance value of the dashed line graph in FIG. 10 is obtained. In other words, the broken line graph subjected to the subtraction processing as indicated by the solid line arrow is increased to the luminance value of the nearby peak (but below the original luminance value) as indicated by the broken line arrow, and finally the small peaks M1 and M2 are flattened. And M3 is flattened, and the upper part of the large peak M4 is flattened. That is, it is possible to flatten a small peak or an upper part of a large peak without substantially changing the sharp brightness change region 30 at the boundary of the tree crown. Such a peak flattening process can also be performed by using a large filter in the smoothing process, but in that case, the shape of the luminance value changing region 30 is also smoothed at the same time, and the luminance value change at the boundary portion of the tree crown is changed. Since it is greatly impaired, detection of the crown shape becomes more difficult, which is not preferable.

図11は,上記膨張処理を1回行った後の画像であり,図12は膨張処理を5回行った後の画像であり,更に,図13は膨張処理を34回行った後の画像である。膨張処理回数が多くなるほど,輝度の高い部分(明るい部分)の濃淡変化がなくなり平坦になっているのが理解される。   FIG. 11 shows an image after the expansion process is performed once, FIG. 12 shows an image after the expansion process is performed 5 times, and FIG. 13 shows an image after the expansion process is performed 34 times. is there. It can be understood that as the number of times of expansion processing increases, the change in shading of the high-luminance portion (bright portion) disappears and becomes flat.

図14は,縮退処理のフローチャート図であり,図15は,縮退処理を説明する輝度値の空間変化のグラフ図である。また,図16〜図18は,膨張処理された画像データに縮退処理を行った結果の画像例を示す図である。縮退処理は,平滑化処理された画像データの輝度値の空間変化について,その谷の部分を平坦化する処理である。図15を参照しながら図14のフローチャートを説明すると,まず,輝度値の空間変化の谷の深さを測定し,比較的多数の谷の深さを含む深さを所定値に設定する(S40)。この所定値の考え方は,膨張処理と同じであり,樹冠の境界部分30の輝度値の変化を変更することなく,適切に谷の部分を平坦化することができる値である。図15の膨張処理後の輝度値の空間変化のグラフでは,谷部分は1つしかないので,その谷部分を平坦化できる深さが所定値として選択される。   FIG. 14 is a flowchart of the degeneration process, and FIG. 15 is a graph of the spatial change of the luminance value for explaining the degeneration process. FIGS. 16 to 18 are diagrams showing examples of images obtained as a result of performing the degeneration processing on the image data subjected to the expansion processing. The reduction process is a process of flattening the valley portion of the spatial change in the brightness value of the smoothed image data. The flowchart of FIG. 14 will be described with reference to FIG. 15. First, the depth of the valley of the spatial change in the luminance value is measured, and the depth including a relatively large number of valley depths is set to a predetermined value (S40). ). The concept of the predetermined value is the same as the expansion processing, and is a value that can appropriately flatten the valley portion without changing the luminance value change of the boundary portion 30 of the tree crown. In the graph of the spatial change of the luminance value after the expansion processing in FIG. 15, since there is only one valley portion, the depth that can flatten the valley portion is selected as a predetermined value.

次に,画素の輝度値を所定数加算した画像データを生成する(S42)。つまり,図15の実線の矢印のように,実線のグラフを破線のグラフのようにする。そして,元の輝度値を超えない範囲で近傍8画素の最小輝度値に置き換える処理を行う(S44,S46,S48,S50)。つまり,注目画素の輝度値が近傍8画素の最小輝度値よりも大きい場合は(S44のYES),更に、近傍8画素の最小輝度値が元の輝度値より小さくないなら(S46のNO)注目画素の輝度値を近傍8画素の最小輝度値に置き換えて(S48),小さいなら(S46のYES)注目画素の輝度値を元の輝度値に置き換える(S50)。そして,これらの置き換え処理S44〜S50を全ての画素について行う(S52)。この置き換え処理は,複数回繰り返すことが望ましい。これが図15の破線矢印の処理に該当する。破線矢印のように処理することで,一点鎖線に示した輝度値の画像データが生成される。   Next, image data is generated by adding a predetermined number of pixel luminance values (S42). That is, the solid line graph is changed to a broken line graph as indicated by the solid line arrow in FIG. Then, a process of replacing with the minimum luminance value of the neighboring 8 pixels within a range not exceeding the original luminance value is performed (S44, S46, S48, S50). That is, when the luminance value of the target pixel is larger than the minimum luminance value of the neighboring eight pixels (YES in S44), and further, if the minimum luminance value of the neighboring eight pixels is not smaller than the original luminance value (NO in S46), attention is paid. The luminance value of the pixel is replaced with the minimum luminance value of the neighboring eight pixels (S48), and if small (YES in S46), the luminance value of the target pixel is replaced with the original luminance value (S50). Then, these replacement processes S44 to S50 are performed for all the pixels (S52). This replacement process should be repeated multiple times. This corresponds to the process indicated by the dashed arrow in FIG. By processing as indicated by the broken-line arrow, the image data having the luminance value indicated by the alternate long and short dash line is generated.

図16は,上記縮退処理を1回行った後の画像であり,図12は縮退処理を5回行った後の画像であり,更に,図13は縮退処理を34回行った後の画像である。縮退処理回数が多くなるほど,輝度の低い部分(暗い部分)の濃淡変化がなくなり平坦になっているのが理解される。   FIG. 16 shows an image after the reduction process is performed once, FIG. 12 shows an image after the reduction process is performed five times, and FIG. 13 shows an image after the reduction process is performed 34 times. is there. It can be understood that as the number of times of degeneration processing increases, there is no change in shading in the low-luminance portion (dark portion), and the flatness is eliminated.

以上の膨張処理と縮退処理により平坦化された空間変化が求められる。上空から撮影した画像は,樹冠領域は光が反射し,輝度値が高くなるが,樹冠の間の領域は輝度値が低くなる傾向にある。但し,図10に実線で示した平滑化後のグラフを利用して,前述の特許文献1に記載されたウォーターシェッド方法を適用して峰の部分を全て異なる樹冠として検出しようとすると,一つの樹冠内に複数の峰が存在する場合などはそれぞれが個別の領域と判定され樹冠が細分化される。そこで,上記のように平坦化処理を行うことで,本来なら一つである樹冠が細分化されてそれぞれが別の領域と判定されることを防ぐことができる。   A spatial change flattened by the above expansion process and contraction process is required. In the image taken from the sky, light is reflected in the crown area and the brightness value is high, but the brightness value tends to be low in the area between the crowns. However, using the graph after smoothing shown by the solid line in FIG. 10 and applying the watershed method described in Patent Document 1 to detect all peak portions as different crowns, When there are a plurality of peaks in the canopy, etc., each is determined as an individual area and the canopy is subdivided. Therefore, by performing the flattening process as described above, it is possible to prevent the original single tree crown from being subdivided and determined to be different areas.

図3に戻り,前述のとおり,膨張処理S14Aと縮退処理S14Bとにより,画像データは樹冠の境界部分の輝度値変化領域30を実質的に変化させることなく峰の部分と谷の部分とが平坦化される。次に,輝度値の空間変化に対する微分値が算出される(S16A)。   Returning to FIG. 3, as described above, by the expansion process S14A and the degeneration process S14B, the peak portion and the valley portion of the image data are flat without substantially changing the luminance value change region 30 at the boundary portion of the crown. It becomes. Next, a differential value with respect to the spatial change of the luminance value is calculated (S16A).

図19は,領域分割処理S16の微分値を示す図である。平坦化処理された画像データについて微分値を求めると,図19に示されるとおり,平坦部分32では,微分値はゼロになり(領域38),輝度値が大きく変化する部分30の微分値は大きくなる。なお,図19には微分値の絶対値が示されている。また,輝度値が大きく変化する領域30でもその傾きが一部変化する部分34が存在する。輝度値の変化に段差が生じる部分である。この部分34は,例えば,樹冠内において輝度値が変化する領域若しくは樹冠外において輝度値が変化する領域に対応する。そして,この傾きが変化する部分34に対応する微分値は,極小値36をとる。   FIG. 19 is a diagram illustrating the differential value of the region division processing S16. When the differential value is obtained for the flattened image data, as shown in FIG. 19, in the flat portion 32, the differential value becomes zero (region 38), and the differential value in the portion 30 where the luminance value greatly changes is large. Become. FIG. 19 shows the absolute value of the differential value. In addition, even in the region 30 where the luminance value changes greatly, there is a portion 34 whose inclination changes partially. This is a portion where a step is generated in the change of the luminance value. This portion 34 corresponds to, for example, a region where the luminance value changes inside the tree crown or a region where the luminance value changes outside the tree crown. The differential value corresponding to the portion 34 where the slope changes takes a local minimum 36.

前述のとおり,上空から撮影した画像は,樹冠の部分は光を反射しているので高い輝度値となり,樹冠以外の部分は影になり低い輝度値となる。したがって,画像の輝度値が峰の部分は樹冠の部分に対応し,谷の部分は樹冠以外の部分に対応する。そこで,図19の輝度値のグラフにおいて,峰の部分の領域を樹冠領域とし,谷の部分を樹冠外領域と判定すればよいことになる。但し,微分値が極小値36の部分34が,樹冠内か樹冠外かを判定して,樹冠形状を正確に求めることが必要になる。   As described above, the image taken from the sky has a high luminance value because the crown portion reflects light, and the portion other than the crown becomes a shadow and has a low luminance value. Accordingly, the peak portion of the luminance value of the image corresponds to the crown portion, and the valley portion corresponds to a portion other than the crown. Therefore, in the luminance value graph of FIG. 19, it is only necessary to determine the peak region as the crown region and the valley portion as the non-crown region. However, it is necessary to accurately determine the crown shape by determining whether the portion 34 having the minimum differential value 36 is inside or outside the canopy.

図20は,微分値画像を示す図であり,微分値大を黒に微分値小を白で示した画像(1)と,微分値の極小箇所を黒にそれ以外を白で示した画像(2)とを示す。つまり,画像(1)は,輝度値が大きく変動する箇所が黒く示され,画像(2)は微分値がゼロの領域38及び極小値の部分36が黒く示される。従って,画像(2)の黒い部分は図19の輝度値が平坦化された領域32と輝度値の傾きが変動する部分34とに対応し,白い部分が輝度値変動部分30に対応する。したがって,平坦化領域32の間に樹冠の境界線が位置することになる。但し,微分値が極小値になる部分34を樹冠側にするか否かを判定する必要がある。   FIG. 20 is a diagram showing a differential value image. An image (1) showing a large differential value in black and a small differential value in white, and an image showing a minimum differential value in black and the other in white ( 2). That is, in the image (1), the portion where the luminance value largely fluctuates is shown in black, and in the image (2), the region 38 where the differential value is zero and the minimum value portion 36 are shown in black. Accordingly, the black portion of the image (2) corresponds to the region 32 in which the luminance value is flattened and the portion 34 in which the gradient of the luminance value varies, and the white portion corresponds to the luminance value variation portion 30 in FIG. Therefore, the boundary line of the tree crown is located between the flattened regions 32. However, it is necessary to determine whether or not the portion 34 where the differential value is the minimum value is on the tree crown side.

図3に戻り,ウォーターシェッドアルゴリズムによる領域分割処理S16Bは,微分値データに対して,微分値が0と微分値が極小値をとる箇所を開始点とする領域拡張処理と,極小値から拡張した領域の併合処理とを有する。   Returning to FIG. 3, the area division process S16B by the watershed algorithm is expanded from the minimum value and the area expansion process starting from the position where the differential value is 0 and the differential value is the minimum value for the differential value data. Region merging process.

図21は,領域拡張処理と併合処理とを説明する図である。領域拡張処理では,図21(1)に示されるとおり,微分値が0の箇所と極小値の箇所とにそれぞれ異なるラベル番号を割り当てる。それと共に,それぞれの領域には,輝度値が峰か谷かの属性データと,微分値0か微分値極小値かの属性データも割り当てられる。図21の例では,領域R0〜R3の黒い領域にはそれぞれラベル番号0〜3が割り当てられ,属性データとして,領域R0とR1は微分値0,領域R2とR3は極小値が割り当てられ,領域R1には輝度値の峰,領域R0には輝度値の谷が割り当てられている。そして,ラベル番号が与えられた画素に隣接する画素にも同じラベル番号を割り当てるラベリング処理を繰り返す。このラベリング処理では,微分値の峰を越えては拡張することはできない。したがって,ラベリング処理による領域拡張を行うと,微分値の尾根が領域の境界となる。全ての画素にラベル番号が与えられるとこのラベリング処理は終了する。その結果,同じラベル番号がそれぞれ拡張領域R0〜R3となる。   FIG. 21 is a diagram for explaining the area expansion process and the merge process. In the area expansion process, as shown in FIG. 21 (1), different label numbers are assigned to the portions where the differential value is 0 and the portions where the minimum value is the minimum value. At the same time, attribute data indicating whether the luminance value is peak or valley and attribute data indicating whether the differential value is 0 or the minimum differential value are also assigned to each region. In the example of FIG. 21, label numbers 0 to 3 are assigned to the black areas R0 to R3, respectively, and as attribute data, the areas R0 and R1 are assigned differential values 0, and the areas R2 and R3 are assigned minimum values. A peak of luminance value is assigned to R1, and a valley of luminance value is assigned to region R0. Then, the labeling process for assigning the same label number to the pixels adjacent to the pixel to which the label number is given is repeated. This labeling process cannot be extended beyond the peak of the differential value. Therefore, when the region is expanded by the labeling process, the ridge of the differential value becomes the boundary of the region. The labeling process ends when all pixels are given a label number. As a result, the same label numbers become the extension regions R0 to R3, respectively.

図21(1)に示すとおり,拡張処理後の領域には,微分値0から拡張した輝度値が峰の領域R1と,微分値0から拡張した輝度値が谷の領域R0と,微分値の極小値から拡張した領域R2およびR3とで構成される。図22は,上記のウォーターシェッドアルゴリズムによる領域分割処理をした画像を示す図である。図22(1)では,領域R1に対応する領域がグレーで示され,それ以外の領域R0,R2,R3に対応する領域は白で示されている。   As shown in FIG. 21 (1), in the expanded region, the luminance value expanded from the differential value 0 is the peak region R1, the luminance value expanded from the differential value 0 is the valley region R0, and the differential value It is comprised by area | region R2 and R3 extended from the minimum value. FIG. 22 is a diagram showing an image that has been subjected to region division processing by the watershed algorithm. In FIG. 22 (1), the region corresponding to the region R1 is shown in gray, and the other regions corresponding to the regions R0, R2, R3 are shown in white.

次に,拡張領域のうち極小値から生成した領域R2とR3を輝度値の峰の領域R1か谷の領域R0かのいずれと同一領域なのかを判定し併合する処理が必要になる。そこで,極小値から生成した全ての領域R2とR3に対して,その領域の平均輝度値が最も近い隣接領域と同一領域であると判定し、その隣接領域に併合する。この併合処理では,極小値からの領域が輝度値の峰の領域R1あるいは谷の領域R0に併合される場合もあれば,隣接する極小値からの領域に併合される場合もある。したがって,上記の隣接領域への併合処理は,極小値からの領域がなくなるまで繰り返される。   Next, it is necessary to determine whether the regions R2 and R3 generated from the minimum value in the extended region are the same region as the peak region R1 or the valley region R0 and merge them. Therefore, for all the regions R2 and R3 generated from the minimum value, it is determined that the average luminance value of the region is the same as the adjacent region, and merged with the adjacent region. In this merging process, the region from the minimum value may be merged with the peak region R1 or the valley region R0 of the luminance value, or may be merged with the region from the adjacent minimum value. Therefore, the above merging process to the adjacent area is repeated until there is no area from the minimum value.

図21(2)には,領域R3が領域R1に併合され,領域R2が領域R0に併合された例が示されている。同様に,図22(2)には,極小値からの領域が全て併合された画像が示されている。矢印50が輝度値の峰の領域に併合され,矢印52が輝度値の谷の領域に併合された例である。このように,極小値から領域拡張をして,平均輝度値の類似する領域に併合させると以下のメリットがある。図19の平坦化された輝度値のグラフにおいて,単純に微分値0の領域を出発点として領域拡張を行ったのでは,微分値0の領域の中間位置が樹冠の境界になる。しかしながら,樹冠内側や外側の画像には輝度値が変化する部分があり,その部分を正しく把握して樹冠内部か外部かを判定しなければ,樹冠の形状を正確に検出することはできない。そこで,本実施の形態では,前述したとおり,微分値の極小値の点36を出発点とする拡張領域を一旦生成し,その後,その平均輝度値に応じて隣接する領域に併合させている。これにより,より正確な樹冠形状を検出することができる。結局,図21(2)に示される斜線の領域が樹冠領域に該当することになる。   FIG. 21 (2) shows an example in which the region R3 is merged with the region R1, and the region R2 is merged with the region R0. Similarly, FIG. 22 (2) shows an image in which all the regions from the minimum value are merged. In this example, the arrow 50 is merged with the peak region of the luminance value, and the arrow 52 is merged with the valley region of the luminance value. In this way, when the region is expanded from the minimum value and merged into a region having a similar average luminance value, there are the following advantages. In the flattened luminance value graph of FIG. 19, when the area expansion is simply performed with the differential value 0 area as a starting point, the intermediate position of the differential value 0 area becomes the boundary of the crown. However, there are portions where the brightness value changes in the images inside and outside the canopy, and the shape of the canopy cannot be accurately detected unless the portion is correctly grasped to determine whether it is inside or outside the canopy. Therefore, in the present embodiment, as described above, an extended region starting from the point 36 of the minimum differential value is once generated, and then merged into adjacent regions according to the average luminance value. Thereby, a more accurate crown shape can be detected. Eventually, the shaded area shown in FIG. 21 (2) corresponds to the tree crown area.

[樹種の判定]
次に,樹冠の場所と形状が検出された後,各樹冠の樹種の判定が行われる。図2の評価方法に示すとおり,本実施の形態では,樹冠の画像(第1主成分の画像)の空間的模様(テクスチャ特徴量)を抽出し,樹種が既知の樹冠画像から求めた空間的模様(テクスチャ特徴量)からなるトレーニングデータと比較し,樹種を判定する(S18)。ここで,テクスチャ特徴量としては,同時生起行列から求められるテクスチャ特徴量などである。そして,樹冠の位置と形状(大きさ)及び樹種を出力する(S20)。そこで,樹種判定方法について詳述する。
[Judgment of tree species]
Next, after the location and shape of the canopy are detected, the tree species of each canopy is determined. As shown in the evaluation method of FIG. 2, in this embodiment, a spatial pattern (texture feature) of a tree crown image (first principal component image) is extracted, and a spatial pattern obtained from a tree crown image with a known tree species. The tree type is determined by comparison with training data composed of patterns (texture feature quantities) (S18). Here, the texture feature amount is a texture feature amount obtained from a co-occurrence matrix. Then, the position and shape (size) of the tree crown and the tree species are output (S20). Therefore, the tree species determination method will be described in detail.

図23は,本実施の形態における樹冠の樹種判定方法のフローチャート図である。図22(2)で求められた樹冠形状に基づき,図7の撮影データの第1主成分の画像について,同時生起行列を求める(S60)。そして,同時生起行列からテクスチャ特徴量として局所一様性やコントラストなどを求める(S62)。更に,実地調査などにより樹種が既知の樹冠画像についても同時生起行列を求め(S64),その同時生起行列からテクスチャ特徴量を求め,それをトレーニングデータとする(S66)。最後に,各樹冠のテクスチャ特徴量をトレーニングデータと比較し,一致するトレーニングデータの樹種に分類する(S68)。   FIG. 23 is a flowchart of the tree species determination method for a crown according to the present embodiment. Based on the crown shape obtained in FIG. 22 (2), a co-occurrence matrix is obtained for the image of the first principal component of the photographing data of FIG. 7 (S60). Then, local uniformity, contrast, and the like are obtained as texture features from the co-occurrence matrix (S62). Further, a co-occurrence matrix is also obtained for a canopy image whose tree type is known by a field survey or the like (S64), and a texture feature quantity is obtained from the co-occurrence matrix and used as training data (S66). Finally, the texture feature amount of each tree crown is compared with the training data and classified into the matching training data tree species (S68).

図24は,同時生起行列を説明する図である。同時生起行列とは,テクスチャ特徴量のうち統計的なテクスチャ特徴の計算方法の一つであり,以下に定義される同時生起行列から画像の空間的模様の一つであるコントラストや局所一様性を求めることができる。図24(1)に示される4×4画像を例にして説明すると,図24(2)に示されるとおり,画像の輝度値iの画素から角度θの方向に長さrの変位δ=(r,θ)離れた画素の輝度値がjである確率Pδ(i,j)を要素とする行列が同時生起行列である。図24(3)に距離r=1で角度θ=0,45,90,135の4つの変位に対する同時生起行列を示す。変位(1,0°)の場合の同時生起行列を例にすると,横方向の隣(r=1)の画素間で輝度i=0,j=0になる個数は4回である。また,輝度i=0,j=1になる個数は2回であり,i=0,j=2になる個数は1回,i=0,j=3になる個数は0回である。同様に,i=1,j=0は2回,i=1,j=1は4回,i=1,j=2は0回,i=1,j=3も0回である。以下同様に横方向に隣接する画素間で輝度i,jが所定の関係になる個数をそれぞれカウントすることで,変位(1,0°)の同時生起行列を求めることができる。更に,同時生起行列は,変位(1,45°),(1,90°),(1,135°)についても求められる。但し,図24に示された要素の値とは異なり,要素の総和が1.0になるように正規化しておくことが望ましい。つまり,各要素が確率になる。   FIG. 24 is a diagram for explaining the co-occurrence matrix. The co-occurrence matrix is one of the statistical texture feature calculation methods among the texture features. Contrast and local uniformity that is one of the spatial patterns of the image from the co-occurrence matrix defined below. Can be requested. The 4 × 4 image shown in FIG. 24 (1) will be described as an example. As shown in FIG. 24 (2), the displacement δ = (length r in the direction of the angle θ from the pixel of the luminance value i of the image. A co-occurrence matrix is a matrix whose element is the probability Pδ (i, j) that the luminance value of a pixel separated by r, θ) is j. FIG. 24 (3) shows a co-occurrence matrix for four displacements of distance r = 1 and angles θ = 0, 45, 90, 135. Taking the co-occurrence matrix in the case of displacement (1, 0 °) as an example, the number of luminance i = 0 and j = 0 between adjacent pixels in the horizontal direction (r = 1) is four. The number of luminance i = 0 and j = 1 is two, the number of i = 0 and j = 2 is one, and the number of i = 0 and j = 3 is zero. Similarly, i = 1, j = 0 is twice, i = 1, j = 1 is four times, i = 1, j = 2 is zero, i = 1, j = 3 is zero. Similarly, the co-occurrence matrix of displacement (1, 0 °) can be obtained by counting the number of luminance i and j having a predetermined relationship between pixels adjacent in the horizontal direction. Furthermore, a co-occurrence matrix is also obtained for displacements (1,45 °), (1,90 °), (1,135 °). However, unlike the element values shown in FIG. 24, it is desirable to normalize so that the total sum of the elements becomes 1.0. That is, each element becomes a probability.

このように,同時生起行列は,ある画像(図24(1))の画素間の輝度値の空間的配置関係を要素とする行列である。そして,この行列に対して,コントラストは,次の通りである。   Thus, the co-occurrence matrix is a matrix having a spatial arrangement relationship of luminance values between pixels of a certain image (FIG. 24 (1)) as an element. And for this matrix, the contrast is:

コントラスト=Σk2x-y(k) (Σはk=0〜(n−1))
但し,Px-y(k)=ΣΣPδ(i,j) (│i−j│=k,k=0〜(n-1),Σはi=0〜(n-1),j=0〜(n-1))とする。
Contrast = Σk 2 P xy (k) (Σ is k = 0 to (n−1))
Where P xy (k) = ΣΣPδ (i, j) (| i−j | = k, k = 0 to (n−1), Σ is i = 0 to (n−1), j = 0 to ( n-1)).

このように,コントラストは,│i−j│=kの確率Pδ(i,j)を累積した確率Px-y(k)にk2を乗算した累積値であるので,同時生起行列の主対角から離れた(kが大きい画素対)確率がどのくらい高いかを示すものである。つまり,輝度差が大きい画素対が多く存在することを意味し,変位の角度θに直交する方向にエッジが存在する場合に大きな値になる。 Thus, the contrast is a cumulative value obtained by multiplying the probability Px-y (k) obtained by accumulating the probability Pδ (i, j) of | i−j | = k by k 2 . It shows how high the probability of being away from the corner (a pixel pair with a large k) is. In other words, this means that there are many pixel pairs having a large luminance difference, and this value is large when there is an edge in a direction orthogonal to the displacement angle θ.

局所一様性は,次の通りである。   The local uniformity is as follows.

局所一様性=ΣΣ[1/{1+(i−j)2}]Pδ(i,j) (Σはi=0〜(n-1),j=0〜(n-1))
このように,局所一様性(inverse difference moment)は,確率Pδ(i,j)に対して主対角でより高くなる重み付けをした累積値であり,行列の主対角付近に高い確率が集中しているほど,つまり隣接画素が同じ輝度値をとる回数が多いほど高い値になるので,局所的に輝度値が一様になっている場合に高い値になる。したがって,局所一様性が高いほどコントラストは低くなり,局所一様性が低いほどコントラストは高くなる傾向にある。したがって,局所一様性をテクスチャ特徴量としてもよく,コントラストをテクスチャ特徴量にしてもよい。
Local uniformity = ΣΣ [1 / {1+ (i−j) 2 }] Pδ (i, j) (Σ is i = 0 to (n−1), j = 0 to (n−1))
Thus, the local difference (inverse difference moment) is a cumulative value that is weighted higher in the main diagonal with respect to the probability Pδ (i, j), and there is a high probability near the main diagonal of the matrix. The higher the concentration, that is, the higher the number of times adjacent pixels take the same luminance value, the higher the value, so the higher the value when the luminance value is locally uniform. Therefore, the higher the local uniformity, the lower the contrast, and the lower the local uniformity, the higher the contrast. Therefore, local uniformity may be used as the texture feature amount, and contrast may be used as the texture feature amount.

図24(1)の画像の場合,コントラストと局所一様性は,以下の値に計算される。   In the case of the image shown in FIG. 24A, the contrast and local uniformity are calculated to the following values.

コントラスト:0.583 (0度), 1.000 (90度), 1.778 (45度), 0.444 (135度)
局所一様性:0.808 (0度), 0.700(90度), 0.511 (45度), 0.778 (135度)
統計的なテクスチャ特徴量の計算手法は,画像データに対してコンピュータソフトウエアによる情報処理を施すことにより空間的模様を自動的に求めることができ,大量の画像データに対する空間的特徴の抽出手法として適している。統計的なテクスチャ特徴量の計算方法として,上記の同時生起行列以外にも,(1)画像の輝度値に対し全体が1.0になるよう正規化された輝度値ヒストグラムP(i)(iは輝度値)の平均,分散,歪度,尖度を含むテクスチャ特徴量,(2)画像内で前記一定の変位δ=(r,θ)だけ離れた2点の輝度値の差がkである確率Pδ(k)(k=0,1,・・・n−1)から求められるテクスチャ特徴量,(3)画像内でθ方向の輝度値iの点がj個続く頻度Pθ(i,j)を要素とするランレングス行列から求められるテクスチャ特徴量などでも,同様に空間的模様の指標として利用することができる。これらのテクスチャ特徴量については,前述の「新編,画像解析ハンドブック,高木幹雄・下田陽久監修」に詳しく説明されている。
Contrast: 0.583 (0 degree), 1.000 (90 degree), 1.778 (45 degree), 0.444 (135 degree)
Local uniformity: 0.808 (0 degree), 0.700 (90 degree), 0.511 (45 degree), 0.778 (135 degree)
The statistical texture feature calculation method can automatically determine the spatial pattern by performing computer software information processing on the image data, and is a spatial feature extraction method for large amounts of image data. Is suitable. As a statistical texture feature calculation method, in addition to the co-occurrence matrix described above, (1) a luminance value histogram P (i) (i) normalized so that the overall luminance value of the image becomes 1.0. Is a texture feature quantity including mean, variance, skewness, and kurtosis, and (2) the difference between the brightness values of two points separated by the constant displacement δ = (r, θ) in the image is k. Texture feature amount obtained from a certain probability Pδ (k) (k = 0, 1,..., N−1), (3) Frequency Pθ (i, A texture feature amount obtained from a run-length matrix having j) as an element can also be used as a spatial pattern index. These texture features are described in detail in the above-mentioned "New edition, Image analysis handbook, supervised by Mikio Takagi and Yoji Shimoda".

本実施の形態では,上空から撮影した画像データは,単一画素あたり数10センチメートル〜数メートルの分解能であり,単一樹冠内に複数行複数列の画素が含まれるので,樹冠の画像データから空間的模様を抽出することができる。したがって,単一の画素のスペクトル分析によるよりも空間的模様を基準にしたほうが樹冠の樹種をより適切に判定することができる。また,単一の画素内には複数の枝葉が含まれる程度の分解能であるので,樹冠の空間的模様は枝葉の模様とは異なる。   In this embodiment, the image data taken from the sky has a resolution of several tens of centimeters to several meters per single pixel, and a plurality of rows and columns of pixels are included in a single tree crown. The spatial pattern can be extracted from Therefore, it is possible to more appropriately determine the tree species of the canopy based on the spatial pattern than based on the spectrum analysis of a single pixel. In addition, since the resolution is such that a single pixel includes a plurality of branches and leaves, the spatial pattern of the crown is different from the pattern of branches and leaves.

上記した本実施の形態での樹冠評価方法は,コンピュータソフトウエアによる情報処理により実現することができる。その場合は,汎用コンピュータに樹冠評価プログラムをインストールし,上空から撮影した画像データと樹種が既知の樹冠画像データとを入力し,情報処理することで,森林の樹冠の位置と形状を検出することができ,更に樹冠のテクスチャ特徴量を利用して樹種を判定することができる。   The above-described crown evaluation method in the present embodiment can be realized by information processing using computer software. In that case, install a canopy evaluation program on a general-purpose computer, input image data taken from the sky and canopy image data with a known tree species, and process the information to detect the position and shape of the forest canopy. In addition, the tree species can be determined using the texture features of the crown.

本実施の形態における人工衛星など上空から撮影した画像と樹冠との関係を示す図である。It is a figure which shows the relationship between the image image | photographed from the sky etc., such as the artificial satellite in this Embodiment, and a tree crown. 本実施の形態における森林の樹冠の評価方法についてのフローチャート図である。It is a flowchart figure about the evaluation method of the forest canopy in this Embodiment. 森林の樹冠形状の検出方法のフローチャート図である。It is a flowchart figure of the detection method of the crown shape of a forest. 衛星画像の一例を示す図である。It is a figure which shows an example of a satellite image. 衛星画像の一例を示す図である。It is a figure which shows an example of a satellite image. 第1主成分の画像生成を説明するための図である。It is a figure for demonstrating the image generation of a 1st main component. 図4,5の4つの画像データから求めた第1主成分の画像を示す図である。It is a figure which shows the image of the 1st main component calculated | required from four image data of FIG. 図6の第1主成分の画像をガウシアンフィルタにより平滑化処理した画像を示す図である。It is a figure which shows the image which smoothed the image of the 1st main component of FIG. 6 by the Gaussian filter. 膨張処理のフローチャート図である。It is a flowchart figure of an expansion process. 膨張処理を説明する輝度値の空間変化のグラフ図である。It is a graph of the spatial change of the luminance value explaining an expansion process. 図8の平滑化処理された画像データに膨張処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the expansion process to the image data by which the smoothing process of FIG. 図8の平滑化処理された画像データに膨張処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the expansion process to the image data by which the smoothing process of FIG. 図8の平滑化処理された画像データに膨張処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the expansion process to the image data by which the smoothing process of FIG. 縮退処理のフローチャート図である。It is a flowchart figure of a degeneration process. 縮退処理を説明する輝度値の空間変化のグラフ図である。It is a graph of the spatial change of the luminance value explaining a degeneration process. 膨張処理された画像データに縮退処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the reduction process to the image data by which the expansion process was carried out. 膨張処理された画像データに縮退処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the reduction process to the image data by which the expansion process was carried out. 膨張処理された画像データに縮退処理を行った結果の画像例を示す図である。It is a figure which shows the example of an image of the result of having performed the reduction process to the image data by which the expansion process was carried out. 領域分割処理S16の微分値を示す図である。It is a figure which shows the differential value of area | region division process S16. 微分値画像を示す図である。It is a figure which shows a differential value image. 領域拡張処理と併合処理とを説明する図である。It is a figure explaining an area expansion process and a merge process. ウォーターシェッドアルゴリズムによる領域分割処理をした画像を示す図である。It is a figure which shows the image which performed the area | region division process by the watershed algorithm. 本実施の形態における樹冠の樹種判定方法のフローチャート図である。It is a flowchart figure of the tree species determination method of the tree crown in this Embodiment. 同時生起行列を説明する図である。It is a figure explaining a co-occurrence matrix.

符号の説明Explanation of symbols

S10〜S16:樹冠検出工程 S18,S20:樹冠の樹種判定工程 S10 to S16: Crown detection step S18, S20: Crown species determination step of the crown

Claims (10)

森林を上空から撮影した画像データを処理して森林の樹冠を評価する樹冠の評価方法において,
前記撮影した画像データの輝度値の空間変化について樹冠の境界部分の輝度値変化を実質的に変更せずに峰と谷の部分を平坦にする平坦化処理工程と,
当該平坦化された画像データの前記輝度値の空間変化に対して領域分割処理を行って,前記森林内の樹冠の形状を求める工程とを有することを特徴とする樹冠の評価方法。
In the canopy evaluation method, which processes image data taken from above the forest and evaluates the canopy of the forest,
A flattening process step of flattening the peak and valley portions without substantially changing the luminance value change of the boundary portion of the crown with respect to the spatial change of the luminance value of the captured image data;
And a step of performing region division processing on the spatial change of the brightness value of the flattened image data to obtain the shape of the canopy in the forest.
請求項1において,
前記平坦化処理工程は,前記画像データの輝度値を第1の所定値だけ減算し元の輝度値を超えない範囲で近傍画素の最大輝度値に置き換える膨張処理工程と,前記画像データの輝度値を第2の所定値だけ加算し元の輝度値を下回らない範囲で近傍画素の最小輝度値に置き換える縮退処理工程とを有することを特徴とする樹冠の評価方法。
In claim 1,
The flattening processing step includes an expansion processing step of subtracting a luminance value of the image data by a first predetermined value and replacing the luminance value of the image data with a maximum luminance value of neighboring pixels within a range not exceeding the original luminance value, and a luminance value of the image data And a degeneration processing step of substituting only the second predetermined value and replacing it with the minimum luminance value of neighboring pixels within a range not lower than the original luminance value.
請求項1において,
前記領域分割処理は,前記平坦化処理された画像データの微分値を求める微分値生成処理工程と,微分値ゼロ及び極小値の位置を中心に隣接する画素領域を拡張する領域拡張処理工程と,前記極小値の位置から拡張された領域を前記微分値ゼロの位置から拡張された領域に併合する併合処理とを有することを特徴とする樹冠の評価方法。
In claim 1,
The region division processing includes a differential value generation processing step for obtaining a differential value of the flattened image data, a region expansion processing step for expanding a pixel region adjacent to the position of the differential value zero and the minimum value, And a merge process for merging the region expanded from the position of the minimum value with the region expanded from the position of the differential value of zero.
請求項1において,
更に,前記上空から撮影した画像データは,複数の色に対応する多次元の輝度値であり,当該多次元の輝度値の分散共分散行列から固有ベクトルを求め,当該多次元の輝度値に前記固有ベクトルを乗算して第1主成分の画像データを求める第1主成分生成工程を有し,
前記平坦化処理は,前記撮像した画像データに代えて当該第1主成分の画像データに対して行われることを特徴とする樹冠の評価方法。
In claim 1,
Further, the image data photographed from the sky is a multidimensional luminance value corresponding to a plurality of colors, an eigenvector is obtained from a variance-covariance matrix of the multidimensional luminance value, and the eigenvector is added to the multidimensional luminance value. And a first principal component generation step of obtaining image data of the first principal component by multiplying by
The method for evaluating a tree crown, wherein the flattening process is performed on the image data of the first principal component instead of the captured image data.
森林を上空から撮影した画像データを処理して森林の樹冠を評価する樹冠の評価方法において,
前記撮影した画像データを画像処理して前記森林内の樹冠の形状を求める工程と,
前記求められた樹冠形状の画像データのテクスチャ特徴量を求め,当該樹冠の画像のテクスチャ特徴量を既知の樹種の樹冠画像データから求めた基準テクスチャ特徴量と比較して樹冠の樹種を判定する樹種判定工程とを有することを特徴とする樹冠の評価方法。
In the canopy evaluation method, which processes image data taken from above the forest and evaluates the canopy of the forest,
Processing the captured image data to obtain a crown shape in the forest; and
The tree species for determining the tree species of the crown by obtaining the texture feature amount of the image data of the obtained crown shape and comparing the texture feature amount of the image of the crown image with the reference texture feature amount obtained from the crown image data of the known tree species A method for evaluating a tree crown, comprising: a determination step.
請求項5において,
前記上空から撮影した画像データは,単一画素当たり数10センチメートル〜数メートルの分解能であり,単一樹冠内に複数行複数列の画素が含まれ且つ単一画素内に複数の枝葉が含まれる程度の分解能であることを特徴とする樹冠の評価方法。
In claim 5,
The image data taken from the sky has a resolution of several tens of centimeters to several meters per single pixel, and includes a plurality of rows and a plurality of columns in a single tree crown and a plurality of branches and leaves in a single pixel. A method for evaluating a tree crown characterized by having a resolution of a certain level.
請求項5または6において,
前記テクスチャ特徴量は,画像の輝度値iの点から角度θの方向に長さrの変位δ=(r,θ)だけ離れた点が輝度値jである確率Pδ(i,j)(i,j=0,1,・・・,n−1)を要素とする同時生起行列から求められる第1のテクスチャ特徴量,画像の輝度値に対し全体が1.0になるよう正規化された輝度値ヒストグラムP(i)(iは輝度値)の平均,分散,歪度,尖度を含む第2のテクスチャ特徴量,画像内で前記一定の変位δ=(r,θ)だけ離れた2点の輝度値の差がkである確率Pδ(k)(k=0,1,・・・n−1)から求められる第3のテクスチャ特徴量,画像内でθ方向の輝度値iの点がj個続く頻度Pθ(i,j)を要素とするランレングス行列から求められる第4のテクスチャ特徴量のいずれかを含むことを特徴とする樹冠の評価方法。
In claim 5 or 6,
The texture feature amount has a probability Pδ (i, j) (i) that a point separated by a displacement δ = (r, θ) having a length r in the direction of the angle θ from the point of the luminance value i of the image is the luminance value j. , J = 0, 1,..., N−1), the first texture feature value obtained from the co-occurrence matrix and the image brightness value are normalized to 1.0. Second texture feature amount including average, variance, skewness, and kurtosis of luminance value histogram P (i) (i is a luminance value), 2 separated by the constant displacement δ = (r, θ) in the image The third texture feature amount obtained from the probability Pδ (k) (k = 0, 1,..., N−1) that the difference between the luminance values of the points is k, the point of the luminance value i in the θ direction in the image Including any one of the fourth texture feature amounts obtained from a run-length matrix whose element is a frequency Pθ (i, j) of which j continues Evaluation method of the crown to be.
請求項6において,
前記テクスチャ特徴量は,画像の輝度値iの点から角度θの方向に長さrの変位δ=(r,θ)だけ離れた点の輝度値jである確率Pδ(i,j)(i,j=0,1,・・・,n−1)を要素とする同時生起行列を求め,当該同時生起行列から求められるコントラスト,局所一様性のいずれかを含むことを特徴とする樹冠の評価方法。
In claim 6,
The texture feature amount is a probability Pδ (i, j) (i) that is a luminance value j at a point separated from the point of the luminance value i of the image by a displacement δ = (r, θ) of length r in the direction of angle θ. , J = 0, 1,..., N−1) as elements, and includes a contrast or local uniformity obtained from the co-occurrence matrix. Evaluation methods.
森林を上空から撮影した画像データを処理して森林の樹冠を評価する樹冠の評価手順をコンピュータに実行させる樹冠評価プログラムにおいて,前記評価手順は,
前記撮影した画像データの輝度値の空間変化について樹冠の境界部分の輝度値変化を実質的に変更せずに峰と谷の部分を平坦にする平坦化処理手順と,
当該平坦化された画像データの前記輝度値の空間変化に対して領域分割処理を行って,前記森林内の樹冠の形状を求める手順とを有することを特徴とする樹冠の評価プログラム。
In a canopy evaluation program for causing a computer to execute a canopy evaluation procedure for processing image data obtained by photographing a forest from above and evaluating the canopy of the forest, the evaluation procedure includes:
A flattening processing procedure for flattening the peak and valley portions without substantially changing the luminance value change of the boundary portion of the crown with respect to the spatial change of the luminance value of the captured image data;
A canopy evaluation program, comprising: a step of performing region division processing on a spatial change of the brightness value of the flattened image data to obtain a shape of a canopy in the forest.
森林を上空から撮影した画像データを処理して森林の樹冠を評価する樹冠の評価手順をコンピュータに実行させる樹冠評価プログラムにおいて,前記評価手順は,
前記撮影した画像データを画像処理して前記森林内の樹冠の形状を求める手順と,
前記求められた樹冠形状の画像データのテクスチャ特徴量を求め,当該樹冠の画像のテクスチャ特徴量を既知の樹種の樹冠画像データから求めた基準テクスチャ特徴量と比較して樹冠の樹種を判定する樹種判定手順とを有することを特徴とする樹冠の評価プログラム。
In a canopy evaluation program for causing a computer to execute a canopy evaluation procedure for processing image data obtained by photographing a forest from above and evaluating the canopy of the forest, the evaluation procedure includes:
A procedure for image processing the captured image data to obtain a crown shape in the forest;
The tree species for determining the tree species of the crown by obtaining the texture feature amount of the image data of the obtained crown shape and comparing the texture feature amount of the image of the crown image with the reference texture feature amount obtained from the crown image data of the known tree species A canopy evaluation program comprising: a determination procedure.
JP2005100470A 2005-03-31 2005-03-31 Evaluation method of canopy of forest, and its canopy evaluation program Pending JP2006285310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005100470A JP2006285310A (en) 2005-03-31 2005-03-31 Evaluation method of canopy of forest, and its canopy evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005100470A JP2006285310A (en) 2005-03-31 2005-03-31 Evaluation method of canopy of forest, and its canopy evaluation program

Publications (1)

Publication Number Publication Date
JP2006285310A true JP2006285310A (en) 2006-10-19

Family

ID=37407217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005100470A Pending JP2006285310A (en) 2005-03-31 2005-03-31 Evaluation method of canopy of forest, and its canopy evaluation program

Country Status (1)

Country Link
JP (1) JP2006285310A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2008287716A (en) * 2007-05-15 2008-11-27 Xerox Corp Contrast enhancement method and device, imaging device and storage medium
JP2010079336A (en) * 2008-09-24 2010-04-08 Hitachi Software Eng Co Ltd Carbon dioxide gas discharge amount acquisition system
JP2010086276A (en) * 2008-09-30 2010-04-15 Shinshu Univ Method and system for tree classification, method and system for generating current status information of forest, and method and system for selecting target area for tree thinning
JP2010145366A (en) * 2008-12-22 2010-07-01 Olympus Corp Cell image analyzer, method for analyzing cell image, and program
JP2011103098A (en) * 2009-11-12 2011-05-26 Shinshu Univ Tree counting method and tree counting apparatus
WO2012002482A1 (en) * 2010-06-30 2012-01-05 株式会社パスコ Evaluation device and evaluation method for carbon dioxide absorbing effectiveness
WO2013002349A1 (en) 2011-06-29 2013-01-03 富士通株式会社 Plant species identification device, method, and program
JP2013096807A (en) * 2011-10-31 2013-05-20 Pasuko:Kk Method for generating feature information reading image
CN103925910A (en) * 2014-04-21 2014-07-16 南京森林警察学院 Forest canopy density measuring method
WO2014142317A1 (en) * 2013-03-15 2014-09-18 株式会社パスコ Forest type analysis device, forest type analysis method and program
JP2015023858A (en) * 2013-06-20 2015-02-05 株式会社パスコ Forest phase analyzer, forest phase analysis method and program
JP2015023857A (en) * 2013-06-20 2015-02-05 株式会社パスコ Forest phase analyzer, forest phase analysis method and program
JP2015084191A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2015084192A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2015184854A (en) * 2014-03-24 2015-10-22 株式会社ジオ技術研究所 Image processor
JP2016538630A (en) * 2013-11-28 2016-12-08 インテル コーポレイション A method for determining local discriminant colors for image feature detectors
CN106815449A (en) * 2017-03-20 2017-06-09 北京林业大学 A kind of determination method on individual plant young apple tree crown mapping border
JP2017169520A (en) * 2016-03-25 2017-09-28 忠士 岩下 Grape cultivation management method
CN107451982A (en) * 2017-08-14 2017-12-08 东北林业大学 A kind of high canopy density standing forest tree crown area acquisition methods based on unmanned plane image
JP2018084472A (en) * 2016-11-22 2018-05-31 国立大学法人信州大学 Forest resource information calculation method and forest resource information calculation device
JP2019144607A (en) * 2018-02-15 2019-08-29 西日本高速道路株式会社 Tree species estimation method using satellite image and tree species soundness determination method for tree species estimated
CN111160236A (en) * 2019-12-27 2020-05-15 北京林业大学 Automatic dividing method for watershed canopy by combining forest region three-dimensional morphological filtering
JP2020091640A (en) * 2018-12-05 2020-06-11 国立大学法人京都大学 Object classification system, learning system, learning data generation method, learned model generation method, learned model, discrimination device, discrimination method, and computer program
CN113111793A (en) * 2021-04-16 2021-07-13 重庆大学 Tree identification method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120331A (en) * 1997-10-08 1999-04-30 Sanyo Electric Co Ltd Method and device for marker area acquisition and area dividing device
JPH11272865A (en) * 1998-03-23 1999-10-08 Mitsubishi Electric Corp Method and device for image segmentation
JP2001076138A (en) * 1999-09-06 2001-03-23 Ricoh Co Ltd Method and device for extracting texture characteristic quantity and recording medium with extraction program of texture characteristic quantity recorded thereon
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
JP2003344048A (en) * 2002-05-22 2003-12-03 Pasuko:Kk System for processing forest information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120331A (en) * 1997-10-08 1999-04-30 Sanyo Electric Co Ltd Method and device for marker area acquisition and area dividing device
JPH11272865A (en) * 1998-03-23 1999-10-08 Mitsubishi Electric Corp Method and device for image segmentation
JP2001076138A (en) * 1999-09-06 2001-03-23 Ricoh Co Ltd Method and device for extracting texture characteristic quantity and recording medium with extraction program of texture characteristic quantity recorded thereon
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
JP2003344048A (en) * 2002-05-22 2003-12-03 Pasuko:Kk System for processing forest information

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210165A (en) * 2007-02-27 2008-09-11 Tohoku Kensetsu Kyokai Method of determining vegetation state and image processor
JP2008287716A (en) * 2007-05-15 2008-11-27 Xerox Corp Contrast enhancement method and device, imaging device and storage medium
JP2010079336A (en) * 2008-09-24 2010-04-08 Hitachi Software Eng Co Ltd Carbon dioxide gas discharge amount acquisition system
JP2010086276A (en) * 2008-09-30 2010-04-15 Shinshu Univ Method and system for tree classification, method and system for generating current status information of forest, and method and system for selecting target area for tree thinning
US9176043B2 (en) 2008-12-22 2015-11-03 Olympus Corporation Cell image analysis apparatus, cell image analysis method, and program
JP2010145366A (en) * 2008-12-22 2010-07-01 Olympus Corp Cell image analyzer, method for analyzing cell image, and program
JP2011103098A (en) * 2009-11-12 2011-05-26 Shinshu Univ Tree counting method and tree counting apparatus
WO2012002482A1 (en) * 2010-06-30 2012-01-05 株式会社パスコ Evaluation device and evaluation method for carbon dioxide absorbing effectiveness
JP2012014371A (en) * 2010-06-30 2012-01-19 Pasco Corp Evaluation method of carbon-dioxide absorption effects and evaluation apparatus
WO2013002349A1 (en) 2011-06-29 2013-01-03 富士通株式会社 Plant species identification device, method, and program
US9230170B2 (en) 2011-06-29 2016-01-05 Fujitsu Limited Plant species identification apparatus and method
JP2013096807A (en) * 2011-10-31 2013-05-20 Pasuko:Kk Method for generating feature information reading image
WO2014142317A1 (en) * 2013-03-15 2014-09-18 株式会社パスコ Forest type analysis device, forest type analysis method and program
JP2014199660A (en) * 2013-03-15 2014-10-23 株式会社パスコ Forest physiognomy analysis device, forest physiognomy analysis method and program
JP2015023857A (en) * 2013-06-20 2015-02-05 株式会社パスコ Forest phase analyzer, forest phase analysis method and program
JP2015023858A (en) * 2013-06-20 2015-02-05 株式会社パスコ Forest phase analyzer, forest phase analysis method and program
JP2015084192A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2015084191A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2016538630A (en) * 2013-11-28 2016-12-08 インテル コーポレイション A method for determining local discriminant colors for image feature detectors
JP2015184854A (en) * 2014-03-24 2015-10-22 株式会社ジオ技術研究所 Image processor
CN103925910A (en) * 2014-04-21 2014-07-16 南京森林警察学院 Forest canopy density measuring method
JP2017169520A (en) * 2016-03-25 2017-09-28 忠士 岩下 Grape cultivation management method
JP2018084472A (en) * 2016-11-22 2018-05-31 国立大学法人信州大学 Forest resource information calculation method and forest resource information calculation device
CN106815449A (en) * 2017-03-20 2017-06-09 北京林业大学 A kind of determination method on individual plant young apple tree crown mapping border
CN107451982A (en) * 2017-08-14 2017-12-08 东北林业大学 A kind of high canopy density standing forest tree crown area acquisition methods based on unmanned plane image
CN107451982B (en) * 2017-08-14 2020-08-14 东北林业大学 High-canopy-density forest stand crown area acquisition method based on unmanned aerial vehicle image
JP2019144607A (en) * 2018-02-15 2019-08-29 西日本高速道路株式会社 Tree species estimation method using satellite image and tree species soundness determination method for tree species estimated
JP7046432B2 (en) 2018-02-15 2022-04-04 西日本高速道路株式会社 Tree species estimation method using satellite images and tree health determination method for tree species estimation
JP2020091640A (en) * 2018-12-05 2020-06-11 国立大学法人京都大学 Object classification system, learning system, learning data generation method, learned model generation method, learned model, discrimination device, discrimination method, and computer program
CN111160236A (en) * 2019-12-27 2020-05-15 北京林业大学 Automatic dividing method for watershed canopy by combining forest region three-dimensional morphological filtering
CN113111793A (en) * 2021-04-16 2021-07-13 重庆大学 Tree identification method and device

Similar Documents

Publication Publication Date Title
JP2006285310A (en) Evaluation method of canopy of forest, and its canopy evaluation program
US9940514B2 (en) Automated geospatial image mosaic generation with multiple zoom level support
Lu et al. Object-oriented change detection for landslide rapid mapping
Huang et al. Building change detection from multitemporal high-resolution remotely sensed images based on a morphological building index
US9135505B2 (en) Automated geospatial image mosaic generation with automatic cutline generation
Zhou An object-based approach for urban land cover classification: Integrating LiDAR height and intensity data
JP5360989B2 (en) Geographic information generation system and geographical information generation method
JP6497579B2 (en) Image composition system, image composition method, image composition program
JP6200826B2 (en) Forest phase analysis apparatus, forest phase analysis method and program
US11804025B2 (en) Methods and systems for identifying topographic features
Bandyopadhyay et al. Classification and extraction of trees and buildings from urban scenes using discrete return LiDAR and aerial color imagery
Kim et al. Automatic pseudo-invariant feature extraction for the relative radiometric normalization of hyperion hyperspectral images
KR101842154B1 (en) Equipment and Method for topographically corrected image generation using quantitative analysis and Apparatus Thereof
CN105681677B (en) A kind of high-resolution optical remote sensing Satellite Camera optimal focal plane determines method
JP6334281B2 (en) Forest phase analysis apparatus, forest phase analysis method and program
JP6218678B2 (en) Forest phase analysis apparatus, forest phase analysis method and program
JP2005241886A (en) Extraction method of changed area between geographical images, program for extracting changed area between geographical images, closed area extraction method and program for extracting closed area
DadrasJavan et al. An object-level strategy for pan-sharpening quality assessment of high-resolution satellite imagery
Jayasekare et al. Hybrid method for building extraction in vegetation-rich urban areas from very high-resolution satellite imagery
Rizvi et al. Wavelet based marker-controlled watershed segmentation technique for high resolution satellite images
JP5305485B2 (en) Ground height data generating apparatus, ground height data generating method, and program
Mondal et al. Enhancement of hazy images using atmospheric light estimation technique
Mishra et al. Single-Frame Super-Resolution of Real-World Spaceborne Hyperspectral Data
Stephane et al. Primal sketch of image series with edge preserving filtering application to change detection
Chen et al. Urban damage estimation using statistical processing of satellite images: 2003 bam, iran earthquake

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101124