JP4553826B2 - Feature environment status providing method and program thereof - Google Patents
Feature environment status providing method and program thereof Download PDFInfo
- Publication number
- JP4553826B2 JP4553826B2 JP2005322922A JP2005322922A JP4553826B2 JP 4553826 B2 JP4553826 B2 JP 4553826B2 JP 2005322922 A JP2005322922 A JP 2005322922A JP 2005322922 A JP2005322922 A JP 2005322922A JP 4553826 B2 JP4553826 B2 JP 4553826B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- image data
- value
- water surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、河道、海岸、湿地帯等の水および水周辺のエリアにおいて瀬、淵、川の状況又は州に存在する砂礫の大きさを面的に数値化して把握するとともに、適宜カラー表示することで視覚的に情報を提供する地物環境状況提供方法に関する。 The present invention grasps the situation of rivers, coasts, wetlands, etc., and the conditions of rivers, rivers, rivers, or the size of gravel existing in the state, and displays them appropriately in color. The present invention relates to a feature environment situation providing method that provides information visually.
1990年から全国109水系の一級河川及び各県が管理する二級河川の一部において「河川水辺の国勢調査」(以下水国調査と称する)が始まった。この調査は植物・魚類・鳥類など、河川に生息・生育する生物を現地確認によって把握するもので、5カ年を1サイクルとして実施され、現在は3巡目の調査に差し掛かっている。 In 1990, the “National Census of River Waterside” (hereinafter referred to as the “Water Country Survey”) started in the first-class rivers of 109 water systems nationwide and some of the second-class rivers managed by each prefecture. This survey is to grasp the organisms that inhabit and grow in rivers, such as plants, fish, and birds, by field confirmation. The survey has been conducted for 5 years as one cycle, and the survey for the third round is now underway.
調査の開始当初、河川管理者は生物に関する情報をまったく持っておらず、環境問題に関する世論の高まりを背景に、まずはどんな生物がいるのかを調べるところから始まった。その後、1997年に河川法が改正され、河川事業の目的として従来の「治水」「利水」に加えて「河川環境の整備と保全」が位置づけられたことにより、事業の三本柱の一つを担う基礎データとして、毎年多額の予算を投じて全国の河川(湖も含む)で調査が実施されてきた。 At the beginning of the survey, river managers had no information about living organisms, and began with investigating what organisms were present against the backdrop of growing public opinion on environmental issues. After that, the River Law was revised in 1997, and in addition to the conventional “Flood Control” and “Water Utilization” as the purpose of the river business, “maintenance and conservation of the river environment” was positioned as one of the three pillars of the project. As basic data that bears the burden, surveys have been conducted on rivers (including lakes) nationwide with a large budget each year.
この一方で公共事業全般に渡ってコスト縮減が叫ばれる中、過去10数年に渡って蓄積されてきたデータの価値が問われている。すなわち、生物情報は積み上がったものの、それが河川管理(生物環境を維持しながら治水等の管理)にほとんど活用されていないという実態があらわになって来ている。 On the other hand, while the cost reduction is screamed throughout the public works, the value of data accumulated over the past ten years is being questioned. In other words, although the biological information has been accumulated, the fact that it is hardly utilized for river management (management of flood control while maintaining the biological environment) has become apparent.
河川管理者として環境情報の取得は必須であるため、2006年から始まる4巡目の調査に向けてマニュアルの改訂が進められているが依然として生物調査主体の内容になっており、河川管理にどのように活用していくかという課題に対する解決策は得られていない。 Since it is essential for river managers to acquire environmental information, the manual is being revised for the fourth round of surveys starting in 2006. There is no solution to the problem of how to utilize it.
現在の水国調査データが河川管理に活用されにくい要因として、調査対象が生物に偏重し、河道地形、河床材料、中州、中州の樹木、川の流れ(早瀬、平瀬、淵)等の場の環境に対する調査が手薄になっている点を挙げることができる。 Factors that make it difficult for current water country survey data to be used for river management include survey sites that are heavily focused on living organisms, such as river channel topography, riverbed materials, trees in Nakashu, Nakashu, and river flows (Hayase, Hirase, Kashiwa). It can be pointed out that surveys on the environment have become very short.
つまり、河川管理で操作できる対象は、個々の生物ではなく、河道形態や流況等の物理条件である。
現在の水国調査データが河川管理に活用されにくい要因として、調査対象が生物に偏重し、場の環境に対する調査が手薄になっている点を挙げることができる。 One of the factors that make it difficult for current water country survey data to be used in river management is that the survey target is heavily focused on living organisms, and the survey of the environment of the field is short.
つまり、河川管理で操作できる対象は、個々の生物ではなく、河道形態や流況等の物理条件であるにもかかわらず、これらの河川の基盤環境データ(中州の状況、樹木の生育状況、川の急流の状況、砂礫の堆積状況、川の変化状況等)は取得がほとんどなされていないので、洪水に対して安全な河道を確保しつつ、どのように生物環境を維持していくのかが数値的に管理されていないという課題があった。 In other words, the objects that can be manipulated in river management are not individual organisms, but physical conditions such as river channel forms and flow conditions, etc. The number of torrents, sand gravel deposits, river changes, etc.) has not been acquired, so how to maintain the biological environment while ensuring a safe river channel against flooding There was a problem that it was not managed.
また、従来の水国調査は多額のコストをかけても対象区間の中に設定されたいくつかの調査地点のみで行われるため、局所的な情報しか得られないので、河川全体の環境がすぐに把握できないという課題があった。 In addition, the conventional water country survey is conducted only at some survey points set in the target section even at a high cost, so only local information can be obtained. There was a problem that could not be grasped.
従って、巨費をかけないで航空レーザデータによって容易に河川全体の状況、基盤データの状況を面的に数値化して把握するとともに、適宜カラー表示することで視覚的に提供できる水環境情報提供方法を得ることが望ましい。 Therefore, there is a water environment information provision method that can easily provide visual information by quantifying and grasping the situation of the entire river and the base data easily with aviation laser data without overwhelming it, and displaying it appropriately in color. It is desirable to obtain.
本発明は、航空機によって対象地域を撮影して得たカラーオルソフォト画像と前記対象地域からのレーザデータとこのレーザデータに基づくDEMデータとDSMデータとによって前記対象地域の地物を分類し、この分類した結果の土地被覆分類図を画面に表示する地物環境状況提供方法であって、
前記カラーオルソフォト画像の画像データ群の輝度分布により決定される赤(R)、緑(G)、青(B)のうちの任意のバンドについての色強度の第1の閾値と、1つの画像データの前記カラーオルソフォト画像の前記任意のバンドの色強度とを比較し、前記第1の閾値以上のときは日向に、前記第1の閾値より小さいときは日影に前記画像データを分類する工程と、
前記画像データが日向に分類された場合、前記対象地域の全画像データの色強度分布により決定される赤(R)、緑(G)、青(B)の3バンドの色強度間の相関関係の条件式に、前記日向の画像データの赤(R)、緑(G)、青(B)の3バンドの色強度を当てはめて、前記日向の画像データを水域、裸地、及び植生地に分類する工程と
前記画像データが日影に分類された場合は、この日影の画像データを、
前記対象地域のレーザデータの反射強度分布により決定される、水域と裸地の境界となる反射強度の第2の閾値と、前記裸地と植生地の境界となる反射強度の第3の閾値と、前記日影に分類された画像データに対応する前記レーザデータに含まれている表層反射強度とを比較し、該表層反射強度が前記第2の閾値より小さいときは前記水域に、前記表層反射強度が前記第2の閾値以上でかつ前記第3の閾値以下のときは前記裸地に、前記表層反射強度が前記第3の閾値より大きいときは前記植生地に分類する工程と、
前記DSMデータの表層標高値と前記DEMデータの地盤標高値とを読み出し、その差を植生高とする工程と、
前記植生高と第4の閾値と比較し、前記植生高が前記第4の閾値以上のときは樹木に、前記植生高が前記第4の閾値より小さいときは草地に分類する工程と、
前記カラーオルソフォト画像の全ての画像データについて前記の全ての工程を繰り返し
実施して、前記対象地域の画像データについて土地被覆分類する工程
とを行うことを要旨とする。
The present invention classifies the features of the target area based on a color orthophoto image obtained by photographing the target area with an aircraft, laser data from the target area, DEM data based on the laser data, and DSM data. A feature environment status providing method for displaying a land cover classification map as a result of classification on a screen,
A first threshold of color intensity for an arbitrary band of red (R), green (G), and blue (B) determined by the luminance distribution of the image data group of the color orthophoto image, and one image comparing the color intensity of the arbitrary band of the color orthophoto image data, the the sun when the first threshold value on more than, classifying the image data in the first time less than the threshold value shade And a process of
When the image data is classified as Hinata, the correlation between the color intensities of the three bands of red (R), green (G), and blue (B) determined by the color intensity distribution of all image data in the target area Is applied to the red (R), green (G), and blue (B) color intensities of the image data for the sun, and the image data for the sun is applied to water, bare land, and vegetation. If the image data is classified as a shadow, and the step of classifying the image data,
A second threshold value of the reflection intensity that becomes the boundary between the water area and the bare land, and a third threshold value of the reflection intensity that becomes the boundary between the bare area and the vegetation, determined by the reflection intensity distribution of the laser data of the target area; Comparing the surface layer reflection intensity included in the laser data corresponding to the image data classified as the shade, and when the surface layer reflection intensity is smaller than the second threshold value, the surface layer reflection is reflected in the water area. Classifying the bare ground when the intensity is equal to or higher than the second threshold and equal to or lower than the third threshold, and classifying as the vegetation when the surface reflection intensity is higher than the third threshold;
Reading the surface elevation value of the DSM data and the ground elevation value of the DEM data, and setting the difference as the vegetation height;
Comparing the vegetation height with a fourth threshold, classifying the tree when the vegetation height is greater than or equal to the fourth threshold, and classifying the grassland when the vegetation height is less than the fourth threshold;
The gist is to repeatedly perform all the above steps for all the image data of the color orthophoto image, and to perform land cover classification for the image data of the target area.
(発明の効果)
以上のように本発明によれば、多大な費用をかけないで川の流れの状況、中州の状況、中州等に堆積している砂礫の大きさが面的・数値的に把握できるとともに、適宜カラー表示することでこれらの情報を視覚的にもわかりやすく表現することによって、河川管理に活用できる。また、海辺や湿地などに関しても同様の効果が期待できる。
(The invention's effect)
As described above , according to the present invention, it is possible to grasp the river flow situation, the state of the Nakasu, the size of the gravel deposited in the Nakasu, etc. without taking a great expense, and appropriately. By displaying this information in color and in easy-to-understand manner, it can be used for river management. The same effect can be expected with respect to the seaside and wetlands.
図1は本発明の航空機によるレーザデータ及びカラー画像を用いた地物環境状況提供システムのハードウエア構成図である。 FIG. 1 is a hardware configuration diagram of a terrestrial environment status providing system using laser data and color images by an aircraft according to the present invention.
図1に示すように、航空機によるレーザデータを用いた地物環境状況提供システムVPS1は、プロセッサ、マイクロコンピュータ、ロジック、レジスタなどの適宜組み合わせからなる中央情報処理装置(CPU部)1と、CPU部1に必要な制御情報・操作情報を入力するキーボード、マウス、対話型ソフトスイッチ、外部通信チャンネル等の情報入力部2と、CPU部1からの情報を広義な意味で表示・伝送するディスプレイ、プリンタ、外部通信チャンネル等を含む情報出力部3と、CPU部1に読み込まれるオペレーティングシステム、アプリケーションプログラムなどの情報が格納されたロム(ROM)等の第1の記憶部4と、CPU部1で随時処理すべき情報及びCPU部1からの情報を格納するラム(RAM)等の第2の記憶部5等を備える。第1及び第2の記憶部4、5は適宜統合、細分化することはかまわない。 As shown in FIG. 1, a terrestrial environment situation providing system VPS1 using laser data from an aircraft includes a central information processing device (CPU unit) 1 including an appropriate combination of a processor, a microcomputer, a logic, a register, and the like, and a CPU unit. 1. Information input unit 2 such as a keyboard, mouse, interactive soft switch, external communication channel, etc. for inputting necessary control information and operation information, and display and printer for displaying and transmitting information from the CPU unit 1 in a broad sense The information output unit 3 including an external communication channel, the first storage unit 4 such as a ROM (ROM) in which information such as an operating system and application program read by the CPU unit 1 is stored, and the CPU unit 1 as needed. Second memory such as a RAM (RAM) for storing information to be processed and information from the CPU unit 1 Equipped with a 5 and the like. The first and second storage units 4 and 5 may be appropriately integrated and subdivided.
第1の記憶部4には、所定のアプリケーション上で動作する水土地環境提供部10と、航空機で所定の範囲の河川、海辺、湖、湿地帯を取得したときのレーザデータRiと、カラーデジタルオルソフォト画像Pi(以下オルソ画像Piという)と、この画像の解析範囲を定めた解析エリア情報(河道エリア、湿地帯エリア、海辺エリア等)と、レーザデータRi及びオルソ画像Piを用いて得られた土地被覆分類情報等が記憶されている。前述のレーザデータRiとオルソ画像Piは、第2の記憶部5に予め記憶されて第1の記憶部4に格納される。また、解析エリア情報、土地被覆分類情報等は第2の記憶部5に生成されて第1の記憶部4に格納される。 The first storage unit 4 includes a water / land environment providing unit 10 that operates on a predetermined application, laser data Ri when a predetermined range of rivers, seasides, lakes, and wetlands are acquired by an aircraft, and color digital data Orthophoto image Pi (hereinafter referred to as orthoimage Pi), analysis area information (river channel area, wetland area, seaside area, etc.) that defines the analysis range of this image, laser data Ri, and orthoimage Pi Land cover classification information is stored. The laser data Ri and the ortho image Pi described above are stored in advance in the second storage unit 5 and stored in the first storage unit 4. Analysis area information, land cover classification information, and the like are generated in the second storage unit 5 and stored in the first storage unit 4.
前述の水土地環境提供部(プログラム)10は、図2に示すように、後述する水面に対する砂州の比高分布算出プログラム11(以下州高分類図作成部11という)と、水面勾配区分と画像解析を組み合わせた瀬淵分類プログラム14(以下瀬淵分類化部14という)と、画像解析による河床材料の粒径分類プログラム12(以下河床材料情報作成部12という)等からなる河川環境状況図作成部20と、レーザデータ編集部200(プログラム)と、反射強度図作成部21(プログラム)と、土地被覆分類図作成部22(プログラム)と、河道解析エリア作成部23(プログラム)と、合成部24等を備えて、オルソ画像Pi、レーザデータRiから例えば図3に示す河川の勾配をキャンセルして砂州比高画像A又は図4に示す河の早瀬、淵等が一目で分かる瀬淵画像B若しくは図5に示すように河道の中州、砂地の石、砂利の状況が一目で分かる河床材料画像C等を生成してこれを情報出力部3に得る。つまり、オルソ画像Pi、レーザデータRiを用いることによって、河道の瀬淵、中州、砂地、河床材料がどの程度の割合で存在しているかを数値データとして得ることを可能としている。このため、河道の環境の管理、解析に適用できることになる。前述の合成部24は、オルソ画像Piをモノクロ画像(白黒)に変換し、このモノクロ画像と河道エリアの画像とを合成(いずれか一方の画像の場合もある)して表示部に表示させる。 As shown in FIG. 2, the water land environment providing unit (program) 10 includes a sandbar relative height distribution calculation program 11 (hereinafter referred to as a state high classification map creating unit 11), a water surface gradient classification, and an image. River environment situation diagram creation consisting of Seto classification program 14 (hereinafter referred to as Seto classification unit 14) combined with analysis, riverbed particle size classification program 12 (hereinafter referred to as riverbed material information creation unit 12) by image analysis, etc. Unit 20, laser data editing unit 200 (program), reflection intensity map creation unit 21 (program), land cover classification map creation unit 22 (program), river channel analysis area creation unit 23 (program), and synthesis unit 24, etc., and canceling the slope of the river shown in FIG. 3 from the ortho image Pi and the laser data Ri, for example, the sand bar specific height image A or the rapids of the river shown in FIG. Etc. is SeraFukashi image B or the Kawado as shown in FIG. 5 sandbank glance, to obtain sand stone, the status of gravel it generates the bed material image C and the like at a glance the information output unit 3. In other words, by using the ortho image Pi and the laser data Ri, it is possible to obtain numerical data indicating the ratio of river channel waterfall, Nakashu, sand, and riverbed material. Therefore, it can be applied to the management and analysis of the river channel environment. The synthesizing unit 24 converts the ortho image Pi into a monochrome image (black and white), synthesizes the monochrome image and the image of the river channel area (may be either one of the images), and displays it on the display unit.
レーザデータ編集部200には、図33に示すように、レーザデータ分類部201、標高値データ抽出部202、植生高算出部204、及び反射強度データ抽出部203が含まれる。そして入力されるレーザデータRiには、データ収集した地点のX座標値、Y座標値、地盤の標高値Zg、表層の標高値Zt、地盤の反射強度Ig、表層の反射強度Itが含まれている。 As shown in FIG. 33, the laser data editing unit 200 includes a laser data classification unit 201, an elevation value data extraction unit 202, a vegetation height calculation unit 204, and a reflection intensity data extraction unit 203. The input laser data Ri includes an X coordinate value, a Y coordinate value, a ground elevation value Zg, a surface elevation value Zt, a ground reflection intensity Ig, and a surface reflection intensity It. Yes.
レーザデータ分類部201は、このレーザデータRiを、レーザ地盤データRg(X、Y、Zg、Ig)とレーザ表層データRt(X、Y、Zt、It)に分類して第1の記憶部4に格納する。 The laser data classification unit 201 classifies the laser data Ri into laser ground data Rg (X, Y, Zg, Ig) and laser surface layer data Rt (X, Y, Zt, It), and stores the first storage unit 4. To store.
つづいて、標高値データ抽出部202は、分類されたレーザ地盤データRgから標高値データを抽出して、数値標高モデル(DEM)として地盤メッシュデータER(X、Y、Zg)を、そしてレーザ表層データRtから標高値データを抽出して、数値地表モデル(DSM)として表層メッシュデータSR(X、Y、Zt)を、それぞれ生成して第1の記憶部4に格納する。 Subsequently, the altitude value data extraction unit 202 extracts altitude value data from the classified laser ground data Rg, and the ground mesh data ER (X, Y, Zg) as a digital altitude model (DEM), and the laser surface layer. Elevation value data is extracted from the data Rt, and surface mesh data SR (X, Y, Zt) is generated as a numerical ground model (DSM) and stored in the first storage unit 4.
次に、植生高算出部204は、地盤メッシュデータERと表層メッシュデータSRから、同一XY座標点の地盤の標高値Zgと表層の標高値Ztを読み出し、その差を計算して、主にその地点に生えている植物の背の高さ(植生高h)を求める。そして座標値とともに植生高データHD(X、Y、h)として第1の記憶部4に格納する。 Next, the vegetation height calculation unit 204 reads the ground elevation value Zg and the surface elevation value Zt at the same XY coordinate point from the ground mesh data ER and the surface layer mesh data SR, calculates the difference between them, and mainly Find the height of the plant growing at the point (vegetation height h). And it stores in the 1st memory | storage part 4 as vegetation height data HD (X, Y, h) with a coordinate value.
一方、反射強度データ抽出部203は、分類されたレーザ地盤データRgから反射強度データを抽出して、地盤反射強度データHRg(X、Y、Ig)を、そしてレーザ表層データRtから反射強度データを抽出して、表層反射強度データHRt(X、Y、It)を、それぞれ生成して第1の記憶部4に格納する。 On the other hand, the reflection intensity data extraction unit 203 extracts the reflection intensity data from the classified laser ground data Rg, obtains the ground reflection intensity data HRg (X, Y, Ig), and the reflection intensity data from the laser surface layer data Rt. The surface layer reflection intensity data HRt (X, Y, It) is generated and stored in the first storage unit 4.
レーザ地盤データRgとレーザ表層データRtは、図34に示すように、レーザを照射した際の測定地点が、地面の場合と地面から突き出た物体(植物等)の表面の場合の得られた各々のデータをさす。図34からわかるように、同一地点のそれぞれの標高値(ZgとZt)の差が植生高(h)になっている。 As shown in FIG. 34, the laser ground data Rg and the laser surface data Rt are respectively obtained when the measurement point when the laser is irradiated is the ground and the surface of an object (plant etc.) protruding from the ground. The data of As can be seen from FIG. 34, the difference between the elevation values (Zg and Zt) at the same point is the vegetation height (h).
反射強度図作成部21は、表層反射強度データHRtの各メッシュの反射強度に応じた色を割り付けることで図7の反射強度分布図HRiを得る。 The reflection intensity diagram creating unit 21 assigns a color corresponding to the reflection intensity of each mesh of the surface layer reflection intensity data HRt to obtain the reflection intensity distribution diagram HRi of FIG.
すなわち、反射強度図作成部21を有することで、水土地環境提供部10は、図6に示すオルソ画像Pi(xyのメッシュにRGB)の他に、図7に示す反射強度分布図HRiを得ることになる。図7の反射強度分布図HRiは、反射強度が強いメッシュ(画素)には赤を割り当て、反射強度が中から強の間には黄色、中には黄緑、弱には青、弱から中の間には水色を割り当てている。これらの色の割り当てには、閾値によって判定して割り当てている。樹木によって河面、砂州面に影があっても反射強度はレーザの反射強度であるから影の影響はほとんど見られない。 That is, by having the reflection intensity map creating unit 21, the water / land environment providing unit 10 obtains the reflection intensity distribution map HRi shown in FIG. 7 in addition to the ortho image Pi (RGB in xy) shown in FIG. It will be. In the reflection intensity distribution diagram HRi of FIG. 7, red is assigned to a mesh (pixel) having a high reflection intensity, yellow when the reflection intensity is between medium and strong, yellow with green, blue with weak, and between weak and medium. Is assigned light blue. These color assignments are made by determination based on threshold values. Even if there are shadows on the river surface and sandbar surface due to trees, the reflection intensity is the reflection intensity of the laser, so there is almost no influence of the shadow.
土地被覆分類図作成部22は、オルソフォトの座標系で定義された土地被覆分類図用メモリ(図示せず)に、オルソ画像Piのメッシュの色情報を解析し、この色に応じて分類することで、図8に示すように、樹木、水(河面)、裸地、草地、それ以外の地物に分類した土地被覆分類図Eを得る。このとき、日影部は区別できないので、日影部に対応するレーザデータの反射強度分布図HRiを読み込んで、水、裸地、草地又は樹木に分類している。 The land cover classification map creation unit 22 analyzes the color information of the mesh of the ortho image Pi in a land cover map memory (not shown) defined in the orthophoto coordinate system, and classifies it according to this color. Thus, as shown in FIG. 8, a land cover classification map E classified into trees, water (river surface), bare land, grassland, and other features is obtained. At this time, since the shadow portion cannot be distinguished, the reflection intensity distribution diagram HRi of the laser data corresponding to the shadow portion is read and classified into water, bare land, grassland, or trees.
また、土地被覆分類図作成部22は、図9に示すように、植生高分布図を得ることも可能である。植生高分布図は、土地被覆分類図Eの深緑エリアのメッシュ位置に対応する座標系の植生高用メモリに、植生高データHDを読み込み、各メッシュの植生高(h)の値に応じた色を植生高用メモリのメッシュに割り付けて図9の植生高分布図を得ている。 Moreover, the land cover classification map creation part 22 can also obtain a vegetation height distribution map as shown in FIG. The vegetation height distribution map reads the vegetation height data HD into the vegetation height memory in the coordinate system corresponding to the mesh position in the dark green area of the land cover classification map E, and the color corresponding to the vegetation height (h) value of each mesh Is assigned to the vegetation height memory mesh to obtain the vegetation height distribution map of FIG.
本実施の形態では、最も樹高が高い樹木には赤を、中くらいより高い樹木には黄色、中くらいには黄緑、それ以下には青を割り付けている。ただし、表示部に表示させるときはオルソ画像Piをモノクロ化して、植生高用メモリの植生高分布図情報を合成して図9の画像を得ている。図9に示すように、影があっても樹木はくっきりと分かる。 In the present embodiment, red is assigned to a tree having the highest tree height, yellow is assigned to a tree that is higher than the middle, yellow is assigned to the middle, and blue is assigned to the lower. However, when displaying on the display unit, the ortho image Pi is converted into monochrome, and the vegetation height distribution map information of the vegetation height memory is synthesized to obtain the image of FIG. As shown in FIG. 9, the tree can be clearly seen even if there is a shadow.
ここで、土地被覆分類図作成部22について詳細に図10のフローチャートを用いて説明する。 Here, the land cover classification map creation unit 22 will be described in detail with reference to the flowchart of FIG.
本実施の形態は、図11に示すように、飛行機から対象地域上空を水平飛行しながら、下方にレーザ光を発射し、往復に要した時間と、航空機の位置、姿勢、発射角度から計算(コンピュータ)によって、地表面のx、y、zを得ている。このレーザは、例えば毎秒33000回〜1,000,000回といった高頻度で発射することが可能であり、これにより例えば50cmから1m程度に1点の密度で標高点(Rx、Ry、Rz)の取得が可能である。また、上記レーザと概ね同じ範囲をデジタルカメラで撮影し、例えば地上20cmといった高解像度のカラー(青・緑・赤、または緑・赤・近赤外)画像を取得、レーザデータRiと合わせてオルソ画像Piを得ることができる。 In the present embodiment, as shown in FIG. 11, laser light is emitted downward while flying horizontally over the target area from an airplane, and is calculated from the time required for reciprocation, the position, attitude, and launch angle of the aircraft ( The computer obtains x, y, and z of the ground surface. This laser can be fired at a high frequency of, for example, 33,000 times to 1,000,000 times per second, so that, for example, an elevation point (Rx, Ry, Rz) at a density of about one point from 50 cm to 1 m. Acquisition is possible. In addition, the same range as the above laser is photographed with a digital camera, and a high-resolution color (blue / green / red or green / red / near infrared) image of, for example, 20 cm above the ground is acquired, and is combined with the laser data Ri. An image Pi can be obtained.
図35に示したように、例えば、データ精度は、オルソ画像Piの単位メッシュ区画の場合、Aで示した20cm×20cmである一方、レーザデータRiの単位メッシュ区画の場合、Bで示した1m×1mである。このように、データの収集方法の差により、オルソ画像Piの単位メッシュの方が、レーザデータRiの単位メッシュより小さい。このため精度の高い緻密なオルソ画像Piの情報を主に用いるが、日陰になった箇所等は、オルソ画像Piではその被覆が判定できない場合が生じる。そのために、オルソ画像Piの単位メッシュ区画Aを含むレーザデータRiの単位メッシュ区画Bの情報を、オルソ画像Piの単位メッシュ区画Aの各々に共通の値として扱って各種判定処理を行うことで、得られる地形情報の精度をあげている。 As shown in FIG. 35, for example, the data accuracy is 20 cm × 20 cm indicated by A in the case of the unit mesh section of the ortho image Pi, while 1 m indicated by B in the case of the unit mesh section of the laser data Ri. × 1 m. Thus, the unit mesh of the ortho image Pi is smaller than the unit mesh of the laser data Ri due to the difference in the data collection method. For this reason, information on the precise ortho image Pi with high accuracy is mainly used. However, in the shaded portion or the like, the covering may not be determined by the ortho image Pi. Therefore, by performing various determination processes by treating the information of the unit mesh section B of the laser data Ri including the unit mesh section A of the ortho image Pi as a value common to each of the unit mesh sections A of the ortho image Pi, The accuracy of the obtained topographic information is raised.
<実施の形態1>
土地被覆分類図作成部22は、第1の記憶部4に記憶されているデジタルカメラによって取得した高精度のオルソ画像Piをデシジョンツリー方式で解析し、河道内及びその周辺の土地被覆状況(樹木、水、裸地等)を分類する。その際、日影部は通常の画像分類では区分できない場合があるため、撮影と同時取得のレーザ反射強度(Intensity)の情報を併用して精度を確保している。また、画像分類では誤差の大きい草地と樹木の区分にレーザによる植生高データを用いて向上させている。
<Embodiment 1>
The land cover classification map creation unit 22 analyzes the high-precision ortho image Pi acquired by the digital camera stored in the first storage unit 4 by a decision tree method, and the land cover state (trees) in and around the river channel , Water, bare land, etc.). At this time, since the shadow portion may not be classified by normal image classification, accuracy is ensured by using information on laser reflection intensity (Intensity) acquired simultaneously with photographing. In the image classification, the vegetation height data obtained by laser is used to improve the grassland and trees with large errors.
オルソ画像Piは、赤、青、緑の3バンド又は緑、赤、近赤外の3バンドの光の強度を、x、yについては一定間隔のメッシュ(画素)の並びで順番に記録したものである。 The ortho image Pi is obtained by sequentially recording the intensity of light of three bands of red, blue, and green or three bands of green, red, and near-infrared in order of x and y in a sequence of meshes (pixels) at regular intervals. It is.
さらに、レーザデータRiは(X,Y,Zg,Ig,Zt,It)として与えられている。 Further, the laser data Ri is given as (X, Y, Zg, Ig, Zt, It).
初めに、記憶部のオルソ画像Piを読み込み、このオルソ画像Piの座標系で定義した土地被覆分類図用メモリを生成している。 First, the ortho image Pi in the storage unit is read, and a land cover classification map memory defined by the coordinate system of the ortho image Pi is generated.
そして、オルソ画像Piのメッシュ番号を設定し、このメッシュ番号のメッシュの画像データ(Px,Py,R,G,B)を読み込む(S200)。 Then, the mesh number of the ortho image Pi is set, and the image data (Px, Py, R, G, B) of the mesh with this mesh number is read (S200).
次に、読み込んだ画像データの赤(R)、緑(G)、青(B)の3バンドの色強度と第1の閾値T1と比較する(S201)。この閾値T1は、画像全体の統計量(輝度分布)より決定された閾値である。また、どの色を判定に採用するかは、画像全体の統計量(輝度分布)より適宜決定して構わない。 Next, the color intensity of the three bands of red (R), green (G), and blue (B) of the read image data is compared with the first threshold value T1 (S201). This threshold value T1 is a threshold value determined from the statistic (brightness distribution) of the entire image. In addition, which color is used for the determination may be appropriately determined from the statistic (brightness distribution) of the entire image.
ステップS201において、色強度が閾値T1よりも小さいと判定したときは、日影と判断する。また、ステップS201において、閾値T1より色強度の値が大きいと判定したときは、日向と判断する。 If it is determined in step S201 that the color intensity is smaller than the threshold value T1, it is determined to be a shade. In step S201, when it is determined that the value of the color intensity is larger than the threshold value T1, it is determined to be sunny.
読み込んだメッシュ(画素)を日影の領域に分類したときは、色強度では、その地点がどのような場所なのかが判断できないため、表層反射強度データHRtから、該当する(Px,Py)メッシュを含むレーザデータの(X,Y)メッシュ区画のデータを読み込む(S202)。 When the read mesh (pixel) is classified into a shaded area, the color intensity cannot determine what the point is, so the corresponding (Px, Py) mesh from the surface reflection intensity data HRt. (X, Y) mesh section data of the laser data including is read (S202).
そして、その区画の表層反射強度(It)を、レーザの反射強度データの統計量より決定される第2及び第3の閾値T21、T22と比較する(S203)。閾値T21より小さい場合は、そのメッシュ(画素)にカテゴリC=1(水域)と設定して、土地被覆分類図Eに保存する(S204)。また、閾値T21とT22の間の値である場合は、そのメッシュ(画素)にカテゴリC=2(裸地)と設定して、土地被覆分類図Eに保存する(S205)。一方、閾値T22より大きい場合には、後述する植生高(h)の判定をするための処理(S209〜S212)に移る。 Then, the surface reflection intensity (It) of the section is compared with the second and third thresholds T21 and T22 determined from the statistics of the laser reflection intensity data (S203). If it is smaller than the threshold T21, the mesh (pixel) is set as category C = 1 (water area) and stored in the land cover classification map E (S204). If the value is between the threshold values T21 and T22, the category (pixel) is set to category C = 2 (bare ground) and stored in the land cover classification map E (S205). On the other hand, when larger than threshold value T22, it shifts to processing (S209-S212) for judging vegetation height (h) mentioned below.
ステップS201において、閾値T1より色強度の値が大きいと判定し、読み込んだメッシュ(画素)を日向の領域に分類したときは、赤(R)、緑(G)、青(B)の3バンドの色強度の相関関係を判定する(S206)。 In step S201, when it is determined that the value of the color intensity is larger than the threshold value T1, and the read mesh (pixel) is classified into the sunny area, three bands of red (R), green (G), and blue (B) The correlation between the color intensities is determined (S206).
例えば、青(B)の色強度が他の赤(R)と緑(G)の値より大きい場合は、そのメッシュ(画素)にカテゴリC=1(水域)と設定して、土地被覆分類図Eに保存する(S208)。また、赤(R)の色強度が他の青(B)と緑(G)の値より大きい場合は、そのメッシュ(画素)にカテゴリC=2(裸地)と設定して、土地被覆分類図Eに保存する(S207)。 For example, if the color intensity of blue (B) is greater than the values of other red (R) and green (G), set the mesh (pixel) as category C = 1 (water area), and the land cover classification map E is stored (S208). Also, if the color intensity of red (R) is greater than the values of other blue (B) and green (G), the category C = 2 (bare) is set for the mesh (pixel), and the land cover classification Save in FIG. E (S207).
ここで、緑(G)の色強度が他の青(B)と赤(R)の値より大きいと判定されたメッシュ(画素)は、植生地として判断され、さらに細かく分類すため、植生高データHDから、該当する(Px,Py)メッシュを含むレーザデータの(X,Y)メッシュ区画のデータを読み込む(S209)。 Here, meshes (pixels) determined that the color intensity of green (G) is greater than the values of other blue (B) and red (R) are determined as vegetation, and are classified further finely. The data of the (X, Y) mesh section of the laser data including the corresponding (Px, Py) mesh is read from the data HD (S209).
そして、その区画の植生高(h)を、植物を分類する高さの第4の閾値T3と比較する(S210)。例えば、50cm以上の高さがあれば樹木として分類する場合は、閾値T3を50とする。 Then, the vegetation height (h) of the section is compared with the fourth threshold value T3 of the height for classifying the plant (S210). For example, the threshold T3 is set to 50 when classifying as a tree if there is a height of 50 cm or more.
ステップS210において、植生高(h)が閾値T3よりも大きいと判定したときは、そのメッシュ(画素)にカテゴリC=3(樹木)と設定して、土地被覆分類図Eに保存する(S211)。一方、植生高(h)が閾値T3よりも小さいと判定したときは、そのメッシュ(画素)にカテゴリC=4(草地)と設定して、土地被覆分類図Eに保存する(S212)。 If it is determined in step S210 that the vegetation height (h) is larger than the threshold value T3, category C = 3 (tree) is set in the mesh (pixel) and stored in the land cover classification map E (S211). . On the other hand, when it is determined that the vegetation height (h) is smaller than the threshold value T3, category C = 4 (grassland) is set in the mesh (pixel) and stored in the land cover classification map E (S212).
なお、3バンドの色強度の相関関係による分類は、撮影した地形の色調によって、その条件式が異なってくることは言うまでもない。したがって、条件式は画像全体の統計量(色強度分布)より適宜決定させる。 Needless to say, the conditional expression of the classification based on the correlation of the color intensities of the three bands differs depending on the color of the photographed terrain. Therefore, the conditional expression is appropriately determined from the statistics (color intensity distribution) of the entire image.
以上の処理を、メッシュ番号をカウントアップして繰り返すことで全メッシュのオルソ画像Piについて行い、全体の土地被覆分類図Eを作成する。このようにカテゴリCの値を設定することで、例えば、水域(C=1)と分類された場合は青を、樹木(C=3)と分類されたときは深緑を、草地(C=4)と分類されたときは黄緑を、裸地(C=2)と分類されたときは黄色を割り付ける等の加工が容易となる。この色付けは、ルックアップテーブルを用いることによって実施できる。このようにして生成した土地被覆分類図情報を第1の記憶部4に記憶し、出力部3に出力することによって図8に示す土地被覆分類図Eを得ている。この土地被覆分類図Eには、影の部分がないので、河道が山等によって影になっている場合に、オルソフォトでは見えにくい影の場所の状況が判断できることになる。なお、以上のフローについては、使用するカラーオルソ画像に合わせて、適宜ディシジョンツリーの判断分岐や使用する色等について変更しても構わない。 The above processing is repeated for all the mesh ortho images Pi by counting up and repeating the mesh numbers, and the entire land cover classification map E is created. By setting the value of category C in this way, for example, when classified as a water area (C = 1), blue is classified when classified as a tree (C = 3), and grassland (C = 4 ) And yellow when it is classified as bare (C = 2), and so on. This coloring can be performed by using a lookup table. The land cover classification map information generated in this way is stored in the first storage unit 4 and output to the output unit 3 to obtain the land cover classification map E shown in FIG. Since this land cover classification map E has no shadow portion, when the river channel is shaded by a mountain or the like, it is possible to determine the situation of the shadow location that is difficult to see with the orthophoto. In addition, about the above flow, you may change suitably the decision branch of a decision tree, the color to be used, etc. according to the color ortho image to be used.
さらに、図12に示すように、所定領域を囲み、この所定領域を拡大すると共に、オルソフォト画像Piから所定領域の画像を抽出して拡大枠の近傍に同時表示させることも可能である。このようにすると、影部の領域の環境をより把握できる。 Furthermore, as shown in FIG. 12, it is possible to enclose a predetermined area, enlarge the predetermined area, extract an image of the predetermined area from the orthophoto image Pi, and simultaneously display it in the vicinity of the enlargement frame. In this way, the environment of the shadow area can be grasped more.
このため、植生高分布図の川の中州に、堤防に高い樹木があるか低い樹木があるかが一目で分かる。例えば、中州に樹木があれば将来は益々樹木で覆われ、その結果中州全体が固定化することが予想される。つまり、洪水が発生した場合は、河の流れをせき止める要因に成ることなどが予想できるので洪水対策に活用できることになる。 For this reason, it can be seen at a glance whether there are high trees or low trees on the dike in the Nakasu of the vegetation height distribution map. For example, if there are trees in Nakasu, it will be covered more and more in the future, and as a result, the entire Nakasu is expected to be fixed. In other words, in the event of a flood, it can be used as a flood control measure because it can be expected to be a factor that stops river flow.
次に、河道解析エリア作成部23について説明する。
河道解析エリア作成部23は、画面上の土地被覆分類図E(図8)においてオペレータがなぞった軌跡を河道エリアFa(堤外地エリアともいう:xy座標)として記憶する(図12、図8)。
Next, the river channel analysis area creation unit 23 will be described.
The river channel analysis area creation unit 23 stores the trajectory traced by the operator in the land cover classification map E (FIG. 8) on the screen as the river channel area Fa (also referred to as a quay area: xy coordinates) (FIGS. 12 and 8). .
そして、この河道エリアFa内の土地被覆分類図Eの画像情報を読み込み(土地被覆分類用メモリから抽出)、堤外地裸地範囲Fb(中州の砂地、両岸の裸地)を抽出(河道エリアの土地被覆分類図の黄色の領域)して記憶する(図13b)。また、河道エリアFa内(図13a)の土地被覆分類図Eの画像情報を読み込み(土地被覆分類用メモリから抽出)、水面エリアFcを抽出(河道エリアの土地被覆分類図の水色の領域)して記憶する(図示せず)。 Then, the image information of the land cover classification map E in the river channel area Fa is read (extracted from the land cover classification memory), and the uncovered land bare land area Fb (sand state in Nakashu, bare land on both banks) is extracted (river channel area) (The yellow area of the land cover classification map) is stored (FIG. 13b). Also, the image information of the land cover classification map E in the river channel area Fa (FIG. 13a) is read (extracted from the land cover classification memory), and the water surface area Fc is extracted (light blue area of the land cover classification map of the river channel area). And memorize (not shown).
(水面に対する砂州の比高分布算出)
次に、水面に対する砂州の比高分布算出について説明する。
(Calculation of specific height distribution of sandbar relative to water surface)
Next, the calculation of the specific height distribution of the sand bar relative to the water surface will be described.
水面に対する砂州の比高分布算出は、レーザデータRiから流程に沿って任意の間隔で水面標高を算出し、それをある基準面に合わせる。すなわち、水面勾配が仮想的にゼロになるように河道標高データを補正した上でその基準面に対する砂州の比高分布を算出するとともに、必要に応じて段彩表示する。この補正を施さない一般的な段彩図では、水面に対する砂州のわずかな比高は河川の勾配に隠れて判別しづらいが、この方法であれば、流程上の全ての箇所において水面から砂州の比高が表現されるので河川環境を規定する増水時の冠水頻度を知ることができる(図3を参照)。 In calculating the specific height distribution of the sand bar with respect to the water surface, the water surface elevation is calculated at arbitrary intervals along the flow path from the laser data Ri, and is adjusted to a certain reference surface. That is, the river channel elevation data is corrected so that the water surface gradient is virtually zero, the specific distribution of the sand bar with respect to the reference surface is calculated, and the stepwise display is performed as necessary. In a typical stage chart without this correction, the slight relative height of the sand bar relative to the water surface is difficult to discern due to the slope of the river, but with this method, the relative height of the sand bar from the water surface at all points on the flow path is difficult. Since it is expressed, it is possible to know the flooding frequency at the time of flooding that defines the river environment (see FIG. 3).
図14は水面に対する砂州の比高分布算出の概略を説明するフローチャートである。 FIG. 14 is a flowchart for explaining the outline of calculating the specific height distribution of the sand bar with respect to the water surface.
図14に示すように、まず、土地被覆分類図Eからデータを読み込む(S400)。そして、カテゴリC=1のメッシュ(Px,Py)を抽出して、水域を求める(S401)。 As shown in FIG. 14, first, data is read from the land cover classification map E (S400). Then, a mesh (Px, Py) of category C = 1 is extracted to obtain a water area (S401).
次に、地盤メッシュデータ(DEM)ERから、この水域メッシュを含むレーザデータのメッシュ区画の情報を読み込む(S402)。これにより、水域メッシュの標高値(Zg)を求められる。 Next, the mesh section information of the laser data including the water area mesh is read from the ground mesh data (DEM) ER (S402). Thereby, the elevation value (Zg) of the water area mesh is obtained.
水域メッシュの座標値に標高値(Zg)を設定し、水面勾配区分図Mを作成する(S403)。 An elevation value (Zg) is set as the coordinate value of the water area mesh, and a water surface gradient division map M is created (S403).
つづいて、この水域メッシュから不等三角網(TIN)を発生させて、基準となる水面の標高値(Zs)を算出する(S404)。具体的な算出法のイメージを水域断面Sに示す。実際の標高がわかっている縁の任意の3点(水域断面Sでは、断面のため2点のみ表示)を抽出して、その3点を頂点とする三角形を作成する。この三角形面の各地点の標高が基準となる水面の標高値(Zs)となる。図32に、TINを発生させた状態を実際の画像上に現したものを示す。 Subsequently, an inequality triangular network (TIN) is generated from the water area mesh, and the elevation value (Zs) of the reference water surface is calculated (S404). An image of a specific calculation method is shown in the water section S. Three arbitrary points on the edge whose actual elevation is known (in the water section S, only two points are displayed because of the cross section) are extracted, and a triangle having the three points as vertices is created. The altitude at each point on the triangular surface is the reference elevation value (Zs) of the water surface. FIG. 32 shows a state where a TIN is generated on an actual image.
そして、この基準水面の標高値(Zs)と水域メッシュの標高値(Zg)の差分を算出し(S405)、砂州比高分布図Aを作成する(S406)。これによって、砂州が水面からどれだけの高さにあるかがわかる。 Then, the difference between the altitude value (Zs) of the reference water surface and the altitude value (Zg) of the water area mesh is calculated (S405), and a sandbar specific height distribution map A is created (S406). This tells you how high the sandbar is from the surface of the water.
図15は他の実施形態の水面に対する砂州の比高分布算出を説明するフローチャートである。 FIG. 15 is a flowchart for explaining the calculation of the specific height distribution of the sand bar relative to the water surface according to another embodiment.
河川環境状況図作成部20の州高分類図作成部11は、河道エリアFaの河面エリアFc以外のエリアFd(裸地、草地、樹木エリア;以下比高分布提供エリアFdという)に対応する位置情報を有するレーザデータのZを読み込む。そして、このZ値に応じた色値をオルソ画像Piと同じ座標系の比高分布提供エリア用メモリのメッシュに割り付ける。閾値a以上は赤、閾値a以下で中間の閾値bの間であれば黄色を、閾値bより低く閾値c以上であれば緑を、閾値c以下は青を割り付ける。 The state classification classification creating unit 11 of the river environment situation diagram creating unit 20 corresponds to an area Fd (bare land, grassland, tree area; hereinafter referred to as a specific height distribution providing area Fd) other than the river surface area Fc of the river channel area Fa. Read Z of laser data having information. Then, the color value corresponding to the Z value is assigned to the mesh of the specific height distribution providing area memory having the same coordinate system as that of the ortho image Pi. Red is assigned when the threshold value a is equal to or greater than the threshold value a, yellow is assigned between the threshold value a and the middle threshold value b, green is assigned when the threshold value is lower than the threshold value b and the threshold value c is greater than the threshold value, and blue is assigned.
すなわち、比高分布提供エリア用メモリの画像情報を表示することで、図16に示す勾配キャンセル前の段彩図Hを得る。この図は上流に行くに従って河道は赤が多くなり、下流は青が多くなる。この図16に示すように州等エリアの高さはわからないが以下のようにすると明らかになる。すなわち、図32に示すように地盤メッシュデータERの河面のDEM(基準面)から、河面以外の領域に対してTINを発生させて、これらのTINのX,Y,Zを抽出する(河面を基準としたDEM)。 That is, by displaying the image information of the specific height distribution providing area memory, the stage chroma H before gradient cancellation shown in FIG. 16 is obtained. In this figure, as the river goes upstream, the river becomes more red and the downstream becomes more blue. As shown in FIG. 16, although the height of the state area is not known, it will become clear if it is as follows. That is, as shown in FIG. 32, from the DEM (reference plane) of the river surface of the ground mesh data ER, TIN is generated for the region other than the river surface, and X, Y, and Z of these TINs are extracted (the river surface Reference DEM).
そして、河道エリアの各DEMのZ値(レーザデータ)から河面を基準としたDEMの各Z値との差を求めることで図3に示す州の川岸の裸地植生部の標高を抽出する。 Then, the elevation of the bare vegetation on the riverbank in the state shown in FIG. 3 is extracted by obtaining the difference between each DEM Z value (laser data) in the river channel area and each DEM Z value based on the river surface.
図3は州等のZ値に応じた色を割り当て州の高さが目でわかるように表示している。 In FIG. 3, colors corresponding to the Z values of states and the like are assigned so that the height of the state can be visually recognized.
また、図15のフローチャートに示すように、他の実施例として以下のように求めてもよい。 Further, as shown in the flowchart of FIG. 15, as another embodiment, it may be obtained as follows.
図15において、オペレータは、勾配キャンセル前の段彩図の河に「みおすじ」を描き、この「みおすじ」の土地被覆分類図Eにおいて「水域」レーザデータMpiを読み込み、入力された間隔Mtiで、そのZ値を読み込む(S51)。 In FIG. 15, the operator draws “Miosuji” in the river of the stage chart before the slope cancellation, reads the “water area” laser data Mpi in the land cover classification map E of this “Miosuji”, and at the inputted interval Mti, The Z value is read (S51).
また、画面の「みおすじ」の下流端のレーザデータのZ値を読み込み、これを基準値BZiとする(S52)。 In addition, the Z value of the laser data at the downstream end of “Miosuji” on the screen is read and used as a reference value BZi (S52).
そして、各間隔MtiのZ値を基準値Bziにするための補正関数βiを求める(S53)。 Then, a correction function βi for obtaining the Z value of each interval Mti as the reference value Bzi is obtained (S53).
次に、勾配キャンセル前の段彩図H(比高分布提供エリア用メモリ)のメッシュ番号Kmpiを設定する(S54)。 Next, the mesh number Kmpi of the stage chroma H (specific height distribution providing area memory) before the gradient cancellation is set (S54).
次に、水面勾配ゼロ図を得るための水面勾配ゼロ図用メモリを、勾配キャンセル前の段彩図Hと同じ座標系で定義する(S55)。 Next, a water surface gradient zero diagram memory for obtaining a water surface gradient zero diagram is defined in the same coordinate system as the stepped chroma diagram H before the gradient cancellation (S55).
そして、ステップS54で設定されたメッシュ番号Kmpiの勾配キャンセル前の段彩図H(比高分布提供用メモリ)のZ値を読み、このZ値を補正関数βiに基づいて基準値Bziに補正(図17を参照)したデータRbiを得る(S56)。 Then, the Z value of the stage chroma H (priority distribution providing memory) before the gradient cancellation of the mesh number Kmpi set in step S54 is read, and this Z value is corrected to the reference value Bzi based on the correction function βi (FIG. 17). Data Rbi is obtained (S56).
次に、データRbiを河道エリア図用メモリに記憶する(S57)。つまり、勾配キャンセル前の段彩図Hのメッシュ番号Kmpiには勾配が基準値とされたデータが作成されていることになる。 Next, the data Rbi is stored in the river channel area memory (S57). That is, data with the gradient as the reference value is created in the mesh number Kmpi of the stage chroma H before the gradient cancellation.
次に、勾配キャンセル前の段彩図Hの最後のメッシュKmpiのZ値を基準値に補正したかどうかを判断し(S58)、最後のメッシュKmpiに対しての補正が終わっていない場合は、メッシュKmpiを次のメッシュに更新して処理をステップS54に戻す(S59)。 Next, it is determined whether or not the Z value of the last mesh Kmpi in the stage chart H before the gradient cancellation has been corrected to the reference value (S58). If the correction for the last mesh Kmpi has not been completed, the mesh Kmpi is determined. Is updated to the next mesh, and the process returns to step S54 (S59).
また、ステップS58において、勾配キャンセル前の段彩図Hの全てのメッシュKmpiのZ値を基準値に補正したと判定したときは、水面勾配図(河道エリア図用メモリ)から河面エリア以外の領域データkpiを抽出する(S60)。 If it is determined in step S58 that the Z values of all the meshes Kmpi in the stage chart H before the gradient cancellation have been corrected to the reference value, the region data kpi other than the river surface area from the water surface gradient map (memory for the river channel area diagram). Is extracted (S60).
すなわち、河道エリア内の裸地、草地、樹木エリアのみが抽出されたことになる。 That is, only bare land, grassland, and tree areas in the river channel area are extracted.
次に、抽出したデータkpiのz値とそのメッシュ番号Kmpiを読み、このメッシュ番号の河道エリア用メモリに割り付(水面勾配ゼロ図に定義)ける(S61)。 Next, the z value of the extracted data kpi and its mesh number Kmpi are read and assigned to the river area memory of this mesh number (defined in the water surface gradient zero diagram) (S61).
次に、各メッシュKmpiのZ値を読み、このZ値に応じた色を割り付(河道エリア用メモリ)けて(S62)、オルソに合成させて画面に出力する(S63)。Z値が閾値Ab以上は赤、閾値abc以上でAb以下は黄色、abc以下でacd以上は黄緑、acd以下は青を割り付ける。すなわち、図3に示す比高分布図Aを得ることができている。この色付けは、ルックアップテーブルを用いることによって実施できる。 Next, the Z value of each mesh Kmpi is read, a color corresponding to the Z value is allocated (memory for the river channel area) (S62), and is synthesized into an ortho and output to the screen (S63). Red is assigned when the Z value is greater than or equal to the threshold value Ab, yellow is assigned when the threshold value is greater than or equal to abc and less than or equal to Ab, yellow and green are assigned when the value is less than abc and greater than or equal to acd, and blue is assigned. That is, the specific height distribution diagram A shown in FIG. 3 can be obtained. This coloring can be performed by using a lookup table.
(瀬・淵)
次に瀬・淵分類化部14について説明する。図18は瀬淵画像生成の概略を説明するフローチャートである。
(Se / Kashiwa)
Next, the Se / Kashiwa classification unit 14 will be described. FIG. 18 is a flowchart for explaining the outline of Seto image generation.
瀬淵分類化部14は、航空レーザによって取得されたレーザデータRiの水面の標高値(河面エリアFa内のZ値)から水面勾配を区分する。さらに、オルソフォト画像Piのテクスチャにより水面の波立ち状態を評価し、これらを重ね合わせることで急勾配の水面が波立った早瀬の部分と緩勾配で水面が滑らかな淵や平瀬の分布状況を精度良く表現する(図4参照)。 The Seze classification part 14 classifies the water surface gradient from the elevation value (Z value in the river surface area Fa) of the water surface of the laser data Ri acquired by the aviation laser. Furthermore, the wave surface state of the water surface is evaluated based on the texture of the orthophoto image Pi, and by superimposing these, the steep water surface waved part of the rapids and the smooth water surface of the ridge and the smooth water surface are accurately distributed. Express well (see Figure 4).
水面の勾配に関しては、レーザ計測器によっては直接的には水面標高を得ることが困難な場合も想定されるが、その場合は水際線の標高値(水面エリアの枠)を代替すればよい。 Regarding the gradient of the water surface, it may be difficult to obtain the water surface elevation directly depending on the laser measuring instrument. In that case, the elevation value of the shoreline (the frame of the water surface area) may be substituted.
また、空撮画像から水面の波立ちを評価する場合、単に画像の輝度を評価するだけでは水質や底質、太陽光の反射の影響を受けるため波立ち状況が分からないが、本実施の形態では、3バンド(RGB)の平均により単バンド化した水部の画像を高周波数/低周波成分に分離する。 In addition, when evaluating the ripples on the water surface from an aerial image, the wave condition is not known simply by evaluating the brightness of the image because it is affected by water quality, bottom sediment, and reflection of sunlight, but in this embodiment, The image of the water part that has been converted into a single band by averaging three bands (RGB) is separated into high frequency / low frequency components.
前者に対して移動窓により分散値の分布を計算することで、画像の高周波成分に反映された波立ち状況のみを抽出し、相対区分できるようにしている(低周波/高周波の分離をえないと、波立ち以外による輝度情報の変化を拾ってしまう)。この処理フローが図18である。 By calculating the distribution of the dispersion value using the moving window, it is possible to extract only the ripples reflected in the high-frequency components of the image and to perform relative classification (if low-frequency / high-frequency separation must be obtained). , Picking up changes in luminance information due to other than waves). This processing flow is shown in FIG.
瀬淵分類化部14は、河面エリアFcのオルソ画像Piのメッシュを読み込み(S70)、これらの3バンド(RGB)の平均を順次求めてモノクロ画像を得る(S71)、(S72)。そして、モノクロ画像に対してウインドウwiをかけてローカル平均を順次求めて、これらの低周波数成分画像を得る(S74)。 The Seto classification unit 14 reads the mesh of the ortho image Pi in the river surface area Fc (S70), and sequentially obtains the average of these three bands (RGB) to obtain a monochrome image (S71) and (S72). Then, the local average is sequentially obtained by applying the window wi to the monochrome image, and these low frequency component images are obtained (S74).
次に、ステップS71で求めたモノクロ画像からステップS74で求めた低周波数成分画像との差を求めることで(S75)、高周波数成分画像を得る(S76)。つまり、波成分を抽出している。 Next, the difference between the monochrome image obtained in step S71 and the low frequency component image obtained in step S74 is obtained (S75) to obtain a high frequency component image (S76). That is, the wave component is extracted.
次に、この高周波成分画像のローカル標準偏差を求めることで水面の波立ち状況を表す素図画像(粗度画像ともいう)を得る(S78)。そして、この素図画像全体の平均値(μ)と標準偏差値(σ)を算出する(S79)。次に、これらの値を参照して素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る(S80)、(S81)。 Next, by obtaining the local standard deviation of the high-frequency component image, a raw image (also referred to as a roughness image) representing the water surface ripple condition is obtained (S78). Then, an average value (μ) and a standard deviation value (σ) of the whole drawing image are calculated (S79). Next, with reference to these values, the value of each pixel in the drawing is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations ( S80), (S81).
淵瀬画像を得るために、初めに波立ち状況を判別する。図19は波立ち状況判別を説明するフローチャートである。 In order to obtain the Hirose image, first, the wave condition is discriminated. FIG. 19 is a flowchart for explaining the swell state determination.
河面エリアFcとオルソ画像Piとを比較して、河面エリアFcのオルソ画像Pciを読み込む(S71)。次に、このオルソ画像pciのメッシュ位置(画素)Mpi毎に、3バンド(RGB)の平均処理を行い(S72)、河面エリアのモノクロ画像Pmを得る。 The river surface area Fc and the ortho image Pi are compared, and the ortho image Pci of the river surface area Fc is read (S71). Next, average processing of three bands (RGB) is performed for each mesh position (pixel) Mpi of the ortho image pci (S72) to obtain a monochrome image Pm in the river surface area.
次に、河面エリアのモノクロ画像Pmに対して所定の大きさのウィンドウwiをかけ(S73)、このウィンドウ内のメッシュのモノクロ輝度値を平均化(低波周波成分抽出)して(S74)、この結果を順次メモリに記憶する(S75)。これを本実施の形態では河面の低周波成分画像EWiという。 Next, a window wi of a predetermined size is applied to the monochrome image Pm in the river surface area (S73), and the monochrome luminance value of the mesh in this window is averaged (low wave frequency component extraction) (S74). The results are sequentially stored in the memory (S75). In the present embodiment, this is called a river surface low frequency component image EWi.
次に、最後の番号のウインドウwiのモノクロ画像に対して平均化処理を行ったかどうかを判断する(S76)。最後のウインドウのモノクロ画像に対して平均化処理を行っていないと判定したときは、ウインドウwiの位置(i,j)を次の位置に更新して(S77)、処理をステップS73に戻す。 Next, it is determined whether or not the averaging process has been performed on the monochrome image of the last-numbered window wi (S76). When it is determined that the averaging process is not performed on the monochrome image of the last window, the position (i, j) of the window wi is updated to the next position (S77), and the process returns to step S73.
また、ステップS76において、最後のウインドウのモノクロ画像に対して平均化処理を行ったと判定したときは、メッシュ位置Mpiを設定する(S78)。 If it is determined in step S76 that the averaging process has been performed on the monochrome image in the last window, the mesh position Mpi is set (S78).
そして、このメッシュMpiの河面のオルソフォト画像Pcimの輝度値からメッシュMpiの低周波成分画像EWiの輝度値を減算することで、そのメッシュの高周波成分画像を得て(S79)、これをメモリに順次記憶する(S80)。つまり、河面の波立ち部分の画像を得たことになる。 Then, by subtracting the luminance value of the low frequency component image EWi of the mesh Mpi from the luminance value of the orthophoto image Pcim of the river surface of the mesh Mpi, a high frequency component image of the mesh is obtained (S79), and this is stored in the memory. Store sequentially (S80). In other words, an image of the rippling part of the river surface was obtained.
次に図19のフローチャートに示すように、最後のメッシュMpiの波立ち成分を抽出したかどうかを判断する(S81)。ステップS81で最後のメッシュMpiの波立ち成分を抽出していないと判定したときは処理をステップS78に処理を戻す。 Next, as shown in the flowchart of FIG. 19, it is determined whether or not the last wave component of the mesh Mpi has been extracted (S81). If it is determined in step S81 that the last wave component of the mesh Mpi has not been extracted, the process returns to step S78.
また、ステップS81において、最後のメッシュMpiの波立ち成分を抽出したと判断したときは、ステップS80で記憶された波立ち成分画像Qiにウインドウwiをかけて(S83)、ウインドウwi内の各画素の標準偏差(波立ち状況素図画像)を求め(S84)、メモリに記憶(粗度画像RWi)する(S85)。 If it is determined in step S81 that the wave component of the last mesh Mpi has been extracted, the wave component image Qi stored in step S80 is multiplied by the window wi (S83), and the standard of each pixel in the window wi is determined. A deviation (roughness map image) is obtained (S84) and stored in memory (roughness image RWi) (S85).
次に、最後の位置のウインドウの素図画像を求めたかどうかを判断する(S86)。最後のウインドウの素図画像を求めていなときはウインドウの位置を次の位置に更新して処理をステップS83に戻す(S87)。 Next, it is determined whether or not a drawing image of the window at the last position has been obtained (S86). When the drawing image of the last window is not obtained, the window position is updated to the next position, and the process returns to step S83 (S87).
ステップS86において、最後の位置のウインドウの素図画像を求めたと判定したときは、メモリの粗度画像RWiにウインドウwiをかけて(S88)、平均をとって標準偏差を求め(S89)、線形変換する(S90)。素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る。 If it is determined in step S86 that the base image of the window at the last position has been obtained, the roughness image RWi in the memory is multiplied by the window wi (S88), and the standard deviation is obtained by averaging (S89). Conversion is performed (S90). The value of each pixel of the raw map is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations.
次に、最後のウインドウwiの波立ち状況QRiを得たかどうかを判断する(S91)。ステップS91において最後ではないと判断したときはウインドウの位置を次の位置に更新して処理をステップS89に戻す。 Next, it is determined whether or not the wave condition QRi of the last window wi has been obtained (S91). If it is determined in step S91 that it is not the last, the window position is updated to the next position, and the process returns to step S89.
次に、瀬、淵画分類図QRiの色分別処理について図21、図22,図23を用いて説明する。 Next, the color separation processing of the Se and Hanga classification chart QRi will be described with reference to FIGS. 21, 22, and 23. FIG.
図21に示すように、河面のオルソ画像Pciのメッシュ位置Mpiを設定する(S100)。次に、メッシュMpiの波立ち成分画像Qiの輝度ehを読み込み(S101)、このehと波立ち閾値Niとを比較する(S102)。 As shown in FIG. 21, the mesh position Mpi of the orthoimage Pci of the river surface is set (S100). Next, the luminance eh of the ripple component image Qi of the mesh Mpi is read (S101), and this eh is compared with the ripple threshold Ni (S102).
ステップS102において、ehが波立ち高いとした閾値naより大きい場合は、波立ち有りの識別を波立ち分布図用メモリ(河面エリアの座標系と同じくされて瀬・淵の算出指示時に生成されている)に定義して(S103)、後述するステップS107に処理を移す。 In step S102, if eh is larger than the threshold value na, which indicates that the ripple is high, the presence of the ripple is identified in the ripple distribution map memory (same as the coordinate system of the river surface area, which is generated at the time of instructing the calculation of the stream / soil). After defining (S103), the process proceeds to step S107 described later.
また、ステップS102において、ehがna以下と判定したときは、nb<eh<naかどうかを判定する(S104)。 If it is determined in step S102 that eh is less than or equal to na, it is determined whether or not nb <eh <na (S104).
ステップS104において、ehがnb<eh<naと判定したときは、そのメッシュに対応する位置の波立ち分布図用メモリの領域に中くらいの波立ち識別コードを定義する(S105)。 If it is determined in step S104 that eh is nb <eh <na, a medium wave identification code is defined in the area of the wave distribution map memory at the position corresponding to the mesh (S105).
また、ステップS104において、ehがnb<eh<naではないと判定したときは、そのメッシュに対応する位置の波立ち分布図用メモリの領域に波立ち無しの識別コードを定義する(S106)。 If it is determined in step S104 that eh is not nb <eh <na, an identification code for no ripple is defined in the area of the ripple distribution memory at a position corresponding to the mesh (S106).
ステップS107においては、最後のメッシュMpiまで識別したかどうかを判断し、(S107)、識別していないと判定したときはメッシュMpiを更新して処理をステップ100に戻す(S108)。 In step S107, it is determined whether or not the last mesh Mpi has been identified (S107). If it is determined that identification has not been performed, the mesh Mpi is updated and the process returns to step 100 (S108).
次に、図22に示すように、レーザデータに基づいて生成されている河面の標高データ(DEM)に対してメッシュ番号Mpiを設定する(S110)。 Next, as shown in FIG. 22, the mesh number Mpi is set for the elevation data (DEM) of the river surface generated based on the laser data (S110).
次に、河面の標高データ(DEM)からメッシュMpiのレーザデータZiを読み込む(S111)。 Next, the laser data Zi of the mesh Mpi is read from the elevation data (DEM) of the river surface (S111).
次に、流れ方向に基づいて、河面の標高データ(DEM)から次のメッシュ位置のレーザデータのz値を読み込み読み込み(S112)、両方の差を求め、これを水面勾配KGiとする(S113)。 Next, based on the flow direction, the z value of the laser data at the next mesh position is read from the elevation data (DEM) of the river surface (S112), the difference between the two is obtained, and this is used as the water surface gradient KGi (S113). .
そして、この水面勾配KGiと閾値Liとを比較する(S114)。KGiが閾値Li以上と判定したときは、水面勾配図メモリ(河面エリアに対応している:瀬淵処理時に作成)のEPiに急勾配の識別コードを割り付け(S115)、後述するステップS117に処理を移す。 Then, the water surface gradient KGi is compared with the threshold value Li (S114). When it is determined that KGi is equal to or greater than the threshold value Li, a steep slope identification code is assigned to EPi in the water surface gradient map memory (corresponding to the river surface area: created at the time of Seto processing) (S115), and processing is performed in step S117 described later. Move.
また、ステップS114において、KGiがLi以下と判定したときは、水面勾配図メモリEpiに急勾配ではないとするメッシュを割り付ける(S118)。 If it is determined in step S114 that KGi is equal to or smaller than Li, a mesh that is not steep is assigned to the water surface gradient map Epi (S118).
そして、最後のメッシュMPiに割付を行ったかどうかを判定し、割付を行っていないときはメッシュ位置を更新して処理をステップS110に戻す。 Then, it is determined whether or not the last mesh MPi has been assigned. If no assignment has been made, the mesh position is updated, and the process returns to step S110.
次に図23に示すように、オルソ画像に基づいて生成した波立ち成分画像Qi(波立ち成分情報用メモリ)のメッシュeiと、レーザデータに基づいて生成した水面勾配図Si(水面勾配図用メモリ)のメッシュepiとを設定する(S121)。 Next, as shown in FIG. 23, the mesh ei of the wave component image Qi (wave component information memory) generated based on the ortho image, and the water surface gradient map Si (water surface gradient memory) generated based on the laser data The mesh epi is set (S121).
次に、メッシュepi、eiに割り付けられている識別コードを読み込む(S122)。そして、メッシュeiには波立ち有りの識別があり、epiには急勾配の識別があるかどうかを判定する(S123)。 Next, the identification code assigned to the meshes epi and ei is read (S122). Then, it is determined whether or not the mesh ei has a ripple and the epi has a steep slope (S123).
ステップS123において、eiは波立ちありでepiには急として識別が割り付けられている場合は、早瀬と判別する(S124)。 If it is determined in step S123 that ei is rippled and identification is assigned to epi as abrupt, it is determined as Hayase (S124).
次に、ei又はeipに対応する位置の瀬・淵図用メモリ(瀬、淵画像生成の指示に伴って生成されている)の領域に早瀬の識別を割り付け(S125)、ステップS126に処理を移す。 Next, Hayase's identification is assigned to the area of the memory for the map and map at the position corresponding to ei or eip (generated in response to the command to generate the map image) (S125), and the process proceeds to step S126. Transfer.
また、ステップS123において、eiには波立ちあり、epiには急の識別がないと判定したときは、波立ちありで、epiに急ではない識別が割り付けられていないかどうかを判定する(S128)。 If it is determined in step S123 that ei has a wave and epi does not have an abrupt identification, it is determined whether an identification that is waved and epi is not abrupt is assigned (S128).
ステップS128において、波立ちあり、急ではないとしているときは、瀬淵図用メモリに平瀬の識別を割り付ける(S129)。 If it is determined in step S128 that there is a wave and it is not abrupt, Hirase's identification is assigned to the memory for the map (S129).
また、ステップS128において、波立ちなし、急ではないとしているときは、瀬淵図用メモリに淵の識別を割り付ける(S130)。 If it is determined in step S128 that there is no undulation and it is not abrupt, the identification of the cocoon is assigned to the memory for drawing the map (S130).
また、ステップS126において、瀬淵図用メモリの最後のkeiに判別結果を割り付けたかどうかを判定する(S126)。最後でないときはkeiを更新して処理をステップS121に戻す(S127)。 In step S126, it is determined whether or not a determination result has been assigned to the last kei in the memory for drawing images (S126). If it is not the last time, kei is updated and the process returns to step S121 (S127).
また、ステップS126において最後のkeiに識別結果を割り付けたと判定したときは、この淵瀬図用テーブルを読み出して画面に表示させる(S131)。すなわち、この処理によって図24の瀬淵分類図が得られることになる。 If it is determined in step S126 that an identification result has been assigned to the last kei, this Hirose chart table is read and displayed on the screen (S131). That is to say, the Seto classification diagram of FIG. 24 is obtained by this processing.
図24は特定の区域に写真が割り付けられている場合を示している。つまり、瀬・淵画像の特定区域に写真(動画でもよい)を割り付けてメモリに記憶し、特定区域が選択されたときに、メモリから写真(又は動画)を瀬・瀬分類図と共に表示させる。これによって、図25に示すように、河川の早瀬、平瀬、淵等がどのような状況になっているかが分かるので、河川環境の把握に効果的である。 FIG. 24 shows a case where a photo is assigned to a specific area. In other words, a photo (or a moving image) is allocated to a specific area of the set / 淵 image and stored in the memory, and when the specific area is selected, the photo (or moving image) is displayed together with the set / set classification chart from the memory. As a result, as shown in FIG. 25, it is possible to understand the situation of the rivers such as the rapids, the hills, and the rivers, which is effective in grasping the river environment.
なお、この波立ち状況の分類技術は河川に限らず海岸に適用することで、沿岸域の水深分布を把握することもできる。 In addition, by applying this wave condition classification technique to the coast as well as the river, it is possible to grasp the water depth distribution in the coastal area.
干潮時におけるレーザ計測と組み合わせて、近年各地で問題となっている海岸浸食の把握に適用できる。 In combination with laser measurement at low tide, it can be applied to grasp coastal erosion, which has become a problem in various places in recent years.
<実施の形態2>
(河床材料)
図26は河床材料の分類画像の表示を説明するフローチャートである。河床材料情報作成部は、画像のテクスチャに河床材料の粒径分布が反映されていることを利用して、カラー画像3バンドの平均によりモノクロ化(以下単バンド画像)した砂州部の画像に対して移動窓により分散値を計算することで、河床材料の粒径を相対的に区分する。
<Embodiment 2>
(River bed material)
FIG. 26 is a flowchart for explaining the display of the classification image of the riverbed material. The riverbed material information creation unit takes advantage of the fact that the particle size distribution of the riverbed material is reflected in the texture of the image, and uses the average of the three bands of the color image to produce a monochrome image (hereinafter referred to as a single band image). The particle size of the riverbed material is relatively divided by calculating the dispersion value using the moving window.
さらに、区分された階層毎に代表地点を選定し、現地で粒度組成を確認することにより、広域的な河床材料の粒径分布を明らかにする。 Furthermore, by selecting representative points for each classified hierarchy and confirming the particle size composition on site, the particle size distribution of the riverbed material over a wide area will be clarified.
その祭、瀬淵の処理と同様に、画像を高周波/低周波成分に分離し、前者のみを対象とすることで、微粒径以外の要因(乾湿の違いや樹木の影など)によるテクスチャー変化の影響を低減している。 Similar to the festival and Seto processing, the image is separated into high and low frequency components, and only the former is targeted, resulting in changes in texture due to factors other than fine particle size (such as differences in wet and dry conditions and shadows of trees). Has reduced the impact.
なお、河に限らないで海岸域への適用も可能であり、海浜の粒径分布を把握し、供給元である河川との比較検証を行うようにしてもよい。 In addition, the present invention can be applied not only to rivers but also to coastal areas, and the particle size distribution of the beach may be grasped and compared with the river that is the supply source.
すなわち、河床材料情報作成部41は、裸地エリアのオルソ画像Piを読み込み、3バンドの平均を行い(S131、S132)、単バンド画像(モノクロ画像)を得る(S133)。 That is, the riverbed material information creation unit 41 reads the ortho image Pi of the bare area, performs an average of the three bands (S131, S132), and obtains a single band image (monochrome image) (S133).
次に、この単バンド画像のローカル平均(フィルタサイズ1m)を求め、低周波成分画像を作成する(S135)。 Next, a local average (filter size 1 m) of the single band image is obtained, and a low frequency component image is created (S135).
そして、この単バンド画像と低周波成分画像の差を求め(S136)、高周波成分画像を得る(S137)。 Then, a difference between the single band image and the low frequency component image is obtained (S136), and a high frequency component image is obtained (S137).
次に、この高周波成分画像のローカル標準偏差(フィルタサイズは例えば1m)を求め(S138)、河床材料素図画像を作成する(S139)。次に、素図画像を使用して一定の範囲(例えば[0,μ+σ])を[0,15]に線形変換し(S140、141)、図27に示す河床材料(粒径)画像(μとσは粗度画像の平均と標準偏差)を作成する(S142)。前述の河床材料画像を得るための色分布分けのために瀬、淵で説明した図21、図22と同様な処理によって色値の割付を行っている。 Next, a local standard deviation (filter size is, for example, 1 m) of the high-frequency component image is obtained (S138), and a riverbed material map image is created (S139). Next, a raw image is used to linearly convert a certain range (for example, [0, μ + σ]) to [0, 15] (S140, 141), and the riverbed material (particle size) image (μ) shown in FIG. And [sigma] create a roughness image average and standard deviation (S142). The color values are assigned by the same processing as that shown in FIGS. 21 and 22 described in the above-mentioned steps for setting the color distribution for obtaining the riverbed material image.
通常フィルタを適用すると影や異なる土地被覆間の境界(エッジ)が強調されるが、低周波成分を除去しておくことでこの影響を低減している。 When applying normal filters, shadows and boundaries (edges) between different land covers are emphasized, but this effect is reduced by removing low-frequency components.
このような処理によって図27に示すように砂州の材料の粒径によって色別表示され、この地点に写真がリンク付けされている場合は、図28に示すようにこの場所の写真が表示されることになる。 By such processing, as shown in FIG. 27, the color is displayed according to the particle size of the material of the sand bar, and when the photograph is linked to this point, the photograph of this place is displayed as shown in FIG. It will be.
砂州乾湿図作成部は、河床材料は一律と仮定し、湿潤な砂州ほど明度が低いことを利用して3バンドを平均化して単バンド化した画像の明度により砂州の水分状況を明らかにする。 The sandbar wet-wet map creation unit assumes that the riverbed material is uniform, and uses the fact that the wetter sandbar has lower lightness, averages the three bands, and clarifies the water status of the sandbar by the brightness of the single band.
このため、図29に示すように、砂州乾湿図作成部42は、裸地のオルソ画像を読み込み(S151)、この画像のRGB(3バンド)を平均化して(S152)、単バンド画像を得る(S153)。次に、砂州の平均、標準偏差を算出し(S154)、線形変形し(S155)、図30に示す砂州水分画像を得る(S155)。素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る。 For this reason, as shown in FIG. 29, the sandbar wet / dry diagram creation unit 42 reads the ortho image of bare ground (S151), averages RGB (three bands) of this image (S152), and obtains a single band image. (S153). Next, the average and standard deviation of the sand bar are calculated (S154), linearly deformed (S155), and the sand bar moisture image shown in FIG. 30 is obtained (S155). The value of each pixel of the raw map is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations.
このような処理を行って得たのが図30の画像である。図30の画像は、砂州エリア以外はオルソフォトを白黒にして合成部がこの砂州のカラー画像と合成して表示させる。 The image shown in FIG. 30 is obtained by performing such processing. In the image shown in FIG. 30, the orthophoto is converted into black and white except for the sandbar area, and the composition unit displays it with the color image of the sandbar.
<実施の形態3>
以上の結果をGISにより複合的に管理解析し、図31に示す項目を流程に沿って単位距離毎に以下に示す指標等を集計するなどして、河川の全体の中で環境の良好な区間や劣化が進んでいる区間を明らかにする。
<Embodiment 3>
The above results are comprehensively managed and analyzed by GIS, and the items shown in Fig. 31 are aggregated for the following indicators for each unit distance along the flow path. Clarify sections where deterioration is progressing.
・河道内に占める河原及び樹林地の割合
・河床材料の代表粒径
・樹林化指数(樹林値面積×樹高)
・水面面積
・樹林化ポテンシャル分布(砂州の比高と粒径分布のオーバーレイ)
・各種生物の生息ポテンシャル分布
なお、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
・ Ratio of riverbanks and forest land in the river channel ・ Representative grain size of riverbed materials ・ Forestation index (forest value area x tree height)
-Water surface area-Forestry potential distribution (overlay of sandbar specific height and particle size distribution)
-Distribution of habitat potential of various organisms The present invention naturally includes various embodiments not described herein. The technical scope of the present invention is determined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1 中央情報処理装置(CPU部)
2 情報入力部
3 情報出力部
4 第1の記憶部
5 第2の記憶部
10 水土地環境提供部
11 州高分類図作成部
12 河床材料情報作成部
14 瀬淵分類化部
20 河川環境状況図作成部
21 反射強度図作成部
22 土地被覆分類図作成部
23 河道解析エリア作成部
24 合成部
200 レーザデータ編集部
201 レーザデータ分類部
202 標高値データ抽出部
203 反射強度データ抽出部
204 植生高算出部
1 Central information processing device (CPU section)
2 Information input unit 3 Information output unit 4 First storage unit 5 Second storage unit 10 Water and land environment provision unit 11 State high classification map generation unit 12 River bed material information generation unit 14 Seto classification unit 20 River environment situation diagram Creation unit 21 Reflection intensity map creation unit 22 Land cover classification map creation unit 23 River channel analysis area creation unit 24 Composition unit 200 Laser data editing unit 201 Laser data classification unit 202 Elevation value data extraction unit 203 Reflection intensity data extraction unit 204 Vegetation height calculation Part
Claims (14)
前記カラーオルソフォト画像の画像データ群の輝度分布により決定される赤(R)、緑(G)、青(B)のうちの任意のバンドについての色強度の第1の閾値と、1つの画像データの前記カラーオルソフォト画像の前記任意のバンドの色強度とを比較し、前記第1の閾値以上のときは日向に、前記第1の閾値より小さいときは日影に前記画像データを分類する工程と、
前記画像データが日向に分類された場合、前記対象地域の全画像データの色強度分布により決定される赤(R)、緑(G)、青(B)の3バンドの色強度間の相関関係の条件式に、前記日向の画像データの赤(R)、緑(G)、青(B)の3バンドの色強度を当てはめて、前記日向の画像データを水域、裸地、及び植生地に分類する工程と
前記画像データが日影に分類された場合は、この日影の画像データを、
前記対象地域のレーザデータの反射強度分布により決定される、水域と裸地の境界となる反射強度の第2の閾値と、前記裸地と植生地の境界となる反射強度の第3の閾値と、前記日影に分類された画像データに対応する前記レーザデータに含まれている表層反射強度とを比較し、該表層反射強度が前記第2の閾値より小さいときは前記水域に、前記表層反射強度が前記第2の閾値以上でかつ前記第3の閾値以下のときは前記裸地に、前記表層反射強度が前記第3の閾値より大きいときは前記植生地に分類する工程と、
前記DSMデータの表層標高値と前記DEMデータの地盤標高値とを読み出し、その差を植生高とする工程と、
前記植生高と第4の閾値と比較し、前記植生高が前記第4の閾値以上のときは樹木に、前記植生高が前記第4の閾値より小さいときは草地に分類する工程と、
前記カラーオルソフォト画像の全ての画像データについて前記の全ての工程を繰り返し
実施して、前記対象地域の画像データについて土地被覆分類する工程
とを行うことを特徴とする地物環境状況提供方法。 The features of the target area are classified by a color orthophoto image obtained by photographing the target area with an aircraft, laser data from the target area, DEM data and DSM data based on the laser data, and the result of the classification A feature environmental status providing method for displaying a land cover classification map on a screen,
A first threshold of color intensity for an arbitrary band of red (R), green (G), and blue (B) determined by the luminance distribution of the image data group of the color orthophoto image, and one image comparing the color intensity of the arbitrary band of the color orthophoto image data, the the sun when the first threshold value on more than, classifying the image data in the first time less than the threshold value shade And a process of
When the image data is classified as Hinata, the correlation between the color intensities of the three bands of red (R), green (G), and blue (B) determined by the color intensity distribution of all image data in the target area Is applied to the red (R), green (G), and blue (B) color intensities of the image data for the sun, and the image data for the sun is applied to water, bare land, and vegetation. If the image data is classified as a shadow, and the step of classifying the image data,
A second threshold value of the reflection intensity that becomes the boundary between the water area and the bare land, and a third threshold value of the reflection intensity that becomes the boundary between the bare area and the vegetation, determined by the reflection intensity distribution of the laser data of the target area; Comparing the surface layer reflection intensity included in the laser data corresponding to the image data classified as the shade, and when the surface layer reflection intensity is smaller than the second threshold value, the surface layer reflection is reflected in the water area. Classifying the bare ground when the intensity is equal to or higher than the second threshold and equal to or lower than the third threshold, and classifying as the vegetation when the surface reflection intensity is higher than the third threshold;
Reading the surface elevation value of the DSM data and the ground elevation value of the DEM data, and setting the difference as the vegetation height;
Comparing the vegetation height with a fourth threshold, classifying the tree when the vegetation height is greater than or equal to the fourth threshold, and classifying the grassland when the vegetation height is less than the fourth threshold;
A feature environment situation providing method comprising: repeatedly performing all the above steps for all image data of the color orthophoto image, and performing a land cover classification on the image data of the target area.
河道エリア内に存在する水域に囲まれた第1の砂州部分が仮に水面だった場合の仮想の標高である第1の基準水面を算出するために、一方の水域の縁の1地点の地盤標高値と隣合う他方の水域の縁の2地点の地盤標高値を抽出し、該3地点を頂点とする三角形を作成することを繰り返して不等三角網を発生させ、各三角形面を前記第1の基準水面とする工程と、
前記3地点の前記地盤標高値から、前記第1の基準水面の標高値を算出する工程と、
一方の片側が水域、他方の片側が堤防に囲まれた第2の砂州部分が仮に水面だった場合の仮想の標高である第2の基準水面を求めるために、
この水域の縁の1地点と、別途作成される2次元の堤防線上に発生させた点群から任意の2地点を抽出して、この3地点を頂点とする三角形を作成することを繰り返して不等三角網を発生させ、各三角形面を前記第2の基準水面とする工程と、
この第2の基準水面の3地点の前記地盤標高値から、前記第2の基準水面の標高値を算出する工程と
をさらに行なうことを特徴とする請求項1記載の地物環境状況提供方法。 In the designated river channel area, extracting the ground elevation value corresponding to the image data from the DEM data corresponding to the image data classified into the water area, respectively, and creating a water surface gradient section;
In order to calculate the first reference water surface, which is the virtual elevation when the first sand bar surrounded by the water area existing in the river channel area is the water surface, the ground elevation at one point at the edge of one water area The ground elevation values at two points on the edge of the other water area adjacent to the value are extracted, and a triangle having the three points as vertices is repeatedly generated to generate an unequal triangular network, and each triangular plane is defined as the first plane. The process of making the reference water surface of
Calculating the elevation value of the first reference water surface from the ground elevation value of the three points;
In order to obtain the second reference water surface, which is a virtual elevation when the second sandbar part surrounded by a water area on one side and the other side surrounded by a dike is the water surface,
Extracting two arbitrary points from one point at the edge of this water area and a point group generated on a two-dimensional dike line created separately, it is not possible to repeatedly create a triangle with these three points as vertices. to generate equal triangulation, a step of each triangle plane and the second reference surface of the water,
2. The feature environment situation providing method according to claim 1, further comprising the step of calculating an elevation value of the second reference water surface from the ground elevation values at three points on the second reference water surface.
前記第2の基準水面の標高値と前記第2の砂州部分の前記地盤標高値との差分を算出する工程と、
これらの地盤標高値の差分に基づいて砂州比高分布図を作成する工程と
をさらに行なうことを特徴とする請求項2記載の地物環境状況提供方法。 Calculating the difference between the elevation value of the first reference water surface in the river channel area and the ground elevation value of the first sand bar portion;
Calculating the difference between the elevation value of the second reference water surface and the ground elevation value of the second sandbar part;
3. The feature environment situation providing method according to claim 2 , further comprising the step of creating a sandbar specific height distribution map based on a difference between these ground elevation values.
前記区間に対応するカラーオルソフォト画像の画像データを抽出して、3バンドの平均によりモノクロ画像を得る工程と、
該モノクロ画像に対して所定の範囲のウインドウをかけてモノクロ輝度値を平均化して低周波数成分を抽出する工程と、
前記モノクロ画像から前記低周波数成分を引いて、高周波数成分を抽出する工程と、
前記水面勾配と前記高周波数成分のローカル標準偏差により水面の波立ち状況を求める工程と
をさらに行なうことを特徴とする請求項2記載の地物環境状況提供方法。 Obtaining a water surface gradient for each arbitrary section from the water surface gradient section diagram;
Extracting color orthophoto image data corresponding to the section to obtain a monochrome image by averaging three bands;
Extracting a low frequency component by averaging a monochrome luminance value over a window of a predetermined range with respect to the monochrome image;
Subtracting the low frequency component from the monochrome image to extract a high frequency component;
3. The feature environment state providing method according to claim 2 , further comprising the step of obtaining a water surface undulation state based on the water surface gradient and a local standard deviation of the high frequency component.
該モノクロ画像に対して所定の範囲のウインドウをかけてモノクロ輝度値を平均化して低周波数成分を抽出する工程と、
前記モノクロ画像から前記低周波数成分を引いて、高周波数成分を抽出する工程と、
該高周波成分のローカル標準偏差値によって前記第1、第2の砂州部分の河床材料の粒径を求める工程と
をさらに行なうことを特徴とする請求項2記載の地物環境状況提供方法。 Extracting color orthophoto image data corresponding to the first and second sandbar portions to obtain a monochrome image by averaging three bands;
Extracting a low frequency component by averaging a monochrome luminance value over a window of a predetermined range with respect to the monochrome image;
Subtracting the low frequency component from the monochrome image to extract a high frequency component;
3. The feature environment status providing method according to claim 2 , further comprising the step of determining the particle size of the river bed material of the first and second sandbar portions by the local standard deviation value of the high frequency component.
をさらに行なうことを特徴とする請求項1乃至6のいずれかに記載の地物環境状況提供方
法。 The method further comprises the step of assigning an arbitrary color to the mesh according to the result of classification of the mesh of the color orthophoto image, creating a color land cover classification map of the target area and displaying it on a screen. Item feature environment status providing method according to any one of Items 1 to 6 .
コンピュータに、
前記カラーオルソフォト画像の画像データ群の輝度分布により決定される赤(R)、緑(G)、青(B)のうちの任意のバンドについての色強度の第1の閾値と、1つの画像データの前記カラーオルソフォト画像の前記任意のバンドの色強度とを比較し、前記第1の閾値以上のときは日向に、前記第1の閾値より小さいときは日影に前記画像データを分類する手段、
前記画像データが日向に分類された場合、前記対象地域の全画像データの色強度分布により決定される赤(R)、緑(G)、青(B)の3バンドの色強度間の相関関係の条件式に、前記日向の画像データの赤(R)、緑(G)、青(B)の3バンドの色強度を当てはめて、前記日向の画像データを水域、裸地、及び植生地に分類する手段、
前記画像データが日影に分類された場合は、この日影の画像データを、
前記対象地域のレーザデータの反射強度分布により決定される、水域と裸地の境界となる反射強度の第2の閾値と、前記裸地と植生地の境界となる反射強度の第3の閾値と、前記日影に分類された画像データに対応する前記レーザデータに含まれている表層反射強度とを比較し、該表層反射強度が前記第2の閾値より小さいときは前記水域に、前記表層反射強度が前記第2の閾値以上でかつ前記第3の閾値以下のときは前記裸地に、前記表層反射強度が前記第3の閾値より大きいときは前記植生地に分類する手段、
前記DSMデータの表層標高値と前記DEMデータの地盤標高値とを読み出し、その差を植生高とする手段、
前記植生高と第4の閾値と比較し、前記植生高が前記第4の閾値以上のときは樹木に、前記植生高が前記第4の閾値より小さいときは草地に分類する工程前記DSMデータの表層標高値と前記DEMデータの地盤標高値とを読み出し、その差を植生高とする手段、
前記カラーオルソフォト画像の全ての画像データについて前記の全ての工程を繰り返し実施して、前記対象地域の画像データについて土地被覆分類する手段、
としての機能を実行させるための地物環境状況提供プログラム。 The features of the target area are classified by a color orthophoto image obtained by photographing the target area with an aircraft, laser data from the target area, DEM data and DSM data based on the laser data, and the result of the classification A feature environment situation providing program for displaying a land cover classification map on a screen,
On the computer,
A first threshold of color intensity for an arbitrary band of red (R), green (G), and blue (B) determined by the luminance distribution of the image data group of the color orthophoto image, and one image comparing the color intensity of the arbitrary band of the color orthophoto image data, the the sun when the first threshold value on more than, classifying the image data in the first time less than the threshold value shade Means to
When the image data is classified as Hinata, the correlation between the color intensities of the three bands of red (R), green (G), and blue (B) determined by the color intensity distribution of all image data in the target area Is applied to the red (R), green (G), and blue (B) color intensities of the image data for the sun, and the image data for the sun is applied to water, bare land, and vegetation. Means to classify,
When the image data is classified as a shade, the shade image data is
A second threshold value of the reflection intensity that becomes the boundary between the water area and the bare land, and a third threshold value of the reflection intensity that becomes the boundary between the bare area and the vegetation, determined by the reflection intensity distribution of the laser data of the target area; Comparing the surface layer reflection intensity included in the laser data corresponding to the image data classified as the shade, and when the surface layer reflection intensity is smaller than the second threshold value, the surface layer reflection is reflected in the water area. Means for classifying the bare fabric when the intensity is greater than or equal to the second threshold and less than or equal to the third threshold, and classifying the vegetation when the surface reflection intensity is greater than the third threshold;
Means for reading the surface elevation value of the DSM data and the ground elevation value of the DEM data, and setting the difference as the vegetation height;
Comparing the vegetation height with a fourth threshold, and classifying the vegetation height as a tree when the vegetation height is greater than or equal to the fourth threshold, and classifying as vegetation when the vegetation height is less than the fourth threshold. Means for reading out the surface elevation value and the ground elevation value of the DEM data, and setting the difference as the vegetation height,
Means for repeatedly performing all the above steps for all image data of the color orthophoto image, and classifying land cover for the image data of the target area;
Feature environment status providing program to execute the function as.
指定された河道エリア内で、前記水域に分類された画像データに対応する前記DEMデータから前記画像データに対応する地盤標高値をそれぞれ抽出し、水面勾配区分を作成する手段、
河道エリア内に存在する水域に囲まれた第1の砂州部分が仮に水面だった場合の仮想の標高である第1の基準水面を算出するために、一方の水域の縁の1地点の地盤標高値と隣合う他方の水域の縁の2地点の地盤標高値を抽出し、該3地点を頂点とする三角形を作成することを繰り返して不等三角網を発生させ、各三角形面を前記第1の基準水面とする手段、
前記3地点の前記地盤標高値から、前記第1の基準水面の標高値を算出する手段、
一方の片側が水域、他方の片側が堤防に囲まれた第2の砂州部分が仮に水面だった場合の仮想の標高である第2の基準水面を求めるために、
この水域の縁の1地点と、別途作成される2次元の堤防線上に発生させた点群から任意の2地点を抽出して、この3地点を頂点とする三角形を作成することを繰り返して不等三角網を発生させ、各三角形面を前記第2の基準水面とする手段、
この第2の基準水面の3地点の前記地盤標高値から、前記第2の基準水面の標高値を算出する手段、
としての機能をさらに実行させるためのる請求項9記載の地物環境状況提供プログラム。 In the computer,
Means for extracting a ground elevation value corresponding to the image data from the DEM data corresponding to the image data classified into the water area in a designated river channel area, and creating a water surface gradient section;
In order to calculate the first reference water surface, which is the virtual elevation when the first sand bar surrounded by the water area existing in the river channel area is the water surface, the ground elevation at one point at the edge of one water area The ground elevation values at two points on the edge of the other water area adjacent to the value are extracted, and a triangle having the three points as vertices is repeatedly generated to generate an unequal triangular network, and each triangular plane is defined as the first plane. Means to make the reference water surface of
Means for calculating an elevation value of the first reference water surface from the ground elevation values at the three points;
In order to obtain the second reference water surface, which is a virtual elevation when the second sandbar part surrounded by a water area on one side and the other side surrounded by a dike is the water surface,
Extracting two arbitrary points from one point at the edge of this water area and a point group generated on a two-dimensional dike line created separately, it is not possible to repeatedly create a triangle with these three points as vertices. Means for generating an equitriangular network, wherein each triangular surface is the second reference water surface;
Means for calculating an elevation value of the second reference water surface from the ground elevation values at three points of the second reference water surface;
The terrestrial environment situation providing program according to claim 9, for further executing the function as.
前記河道エリア内の前記第1の基準水面の標高値と前記第1の砂州部分の前記地盤標高値との差分を算出する手段、
前記第2の基準水面の標高値と前記第2の砂州部分の前記地盤標高値との差分を算出する手段、
これらの地盤標高値の差分に基づいて砂州比高分布図を作成する手段、
としての機能をさらに実行させるための請求項9記載の地物環境状況提供プログラム。 In the computer,
Means for calculating a difference between an elevation value of the first reference water surface in the river channel area and the ground elevation value of the first sand bar portion;
Means for calculating a difference between an elevation value of the second reference water surface and the ground elevation value of the second sandbar part;
A means for creating a sandbar specific height distribution map based on the difference between these ground elevation values,
The terrestrial environment situation providing program according to claim 9 for further executing the function as.
前記水面勾配区分図から任意の区間毎の水面勾配を求める手段、
前記区間に対応するカラーオルソフォト画像の画像データを抽出して、3バンドの平均によりモノクロ画像を得る手段、
該モノクロ画像に対して所定の範囲のウインドウをかけてモノクロ輝度値を平均化して低周波数成分を抽出する手段、
前記モノクロ画像から前記低周波数成分を引いて、高周波数成分を抽出する手段、
前記水面勾配と前記高周波数成分のローカル標準偏差により水面の波立ち状況を求める手段、
としての機能をさらに実行させるための請求項9記載の地物環境状況提供プログラム。 In the computer,
Means for obtaining a water surface gradient for each arbitrary section from the water surface gradient section diagram;
Means for extracting image data of a color orthophoto image corresponding to the section to obtain a monochrome image by averaging three bands;
Means for extracting a low frequency component by averaging a monochrome luminance value over a window of a predetermined range with respect to the monochrome image;
Means for subtracting the low frequency component from the monochrome image to extract a high frequency component;
Means for determining the water surface undulation state from the water surface gradient and the local standard deviation of the high frequency component;
The terrestrial environment situation providing program according to claim 9 for further executing the function as.
前記第1、第2の砂州部分に対応するカラーオルソフォト画像の画像データを抽出して、3バンドの平均によりモノクロ画像を得る手段、
該モノクロ画像に対して所定の範囲のウインドウをかけてモノクロ輝度値を平均化して低周波数成分を抽出する手段、
前記モノクロ画像から前記低周波数成分を引いて、高周波数成分を抽出する手段、
該高周波成分のローカル標準偏差値によって前記第1、第2の砂州部分の河床材料の粒径を求める手段、
としての機能をさらに実行させるための請求項9記載の地物環境状況提供方法。 In the computer,
Means for extracting color orthophoto image data corresponding to the first and second sandbar portions to obtain a monochrome image by averaging three bands;
Means for extracting a low frequency component by averaging a monochrome luminance value over a window of a predetermined range with respect to the monochrome image;
Means for subtracting the low frequency component from the monochrome image to extract a high frequency component;
Means for determining the particle size of the river bed material of the first and second sandbar portions by the local standard deviation value of the high-frequency component;
The terrestrial environment situation providing method according to claim 9, for further executing the function as.
前記砂州比高分布図中の各画像データの地盤標高値の差分の値に従って、該画像データに任意の色を割り付けて、前記河道エリア内のカラー砂州比高分布図を作成する手段、
としての機能をさらに実行させるための請求項10記載の地物環境状況提供プログラム。 In the computer,
Means for assigning an arbitrary color to the image data according to the value of the difference in ground elevation value of each image data in the sand bar specific height distribution map, and creating a color sand bar specific height distribution map in the river channel area;
The terrestrial environment situation providing program according to claim 10, for further executing the function as.
前記カラーオルソフォト画像の前記メッシュの分類結果に従って、前記メッシュに任意の色を割り付けて、前記対象地域のカラー土地被覆分類図を作成して画面に表示する手段、
としての機能をさらに実行させるための請求項8乃至13のいずれかに記載の地物環境状況提供プログラム。 On the computer,
Means for assigning an arbitrary color to the mesh in accordance with the result of classification of the mesh of the color orthophoto image, creating a color land cover classification map of the target area and displaying it on a screen;
The terrestrial environment situation providing program according to any one of claims 8 to 13 , wherein the program further causes the function to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005322922A JP4553826B2 (en) | 2005-02-09 | 2005-11-07 | Feature environment status providing method and program thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005033442 | 2005-02-09 | ||
JP2005322922A JP4553826B2 (en) | 2005-02-09 | 2005-11-07 | Feature environment status providing method and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006252529A JP2006252529A (en) | 2006-09-21 |
JP4553826B2 true JP4553826B2 (en) | 2010-09-29 |
Family
ID=37092897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005322922A Active JP4553826B2 (en) | 2005-02-09 | 2005-11-07 | Feature environment status providing method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4553826B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4386084B2 (en) | 2007-03-06 | 2009-12-16 | エプソンイメージングデバイス株式会社 | Liquid crystal device and electronic device |
JP5021795B2 (en) * | 2010-06-30 | 2012-09-12 | 株式会社パスコ | Method and apparatus for calculating carbon dioxide absorption effect |
JP6060682B2 (en) * | 2012-12-28 | 2017-01-18 | 朝日航洋株式会社 | Road surface image generation system, shadow removal apparatus, method and program |
CN103389103B (en) * | 2013-07-03 | 2015-11-18 | 北京理工大学 | A kind of Characters of Geographical Environment map structuring based on data mining and air navigation aid |
JP6207967B2 (en) * | 2013-10-25 | 2017-10-04 | 株式会社パスコ | Forest phase analysis apparatus, forest phase analysis method and program |
JP5991492B2 (en) * | 2013-11-13 | 2016-09-14 | 株式会社パスコ | Data analysis apparatus, data analysis method, and program |
KR101661708B1 (en) * | 2015-05-11 | 2016-10-04 | 주식회사 로보멕 | System for observing seasons based on images and the method thereof |
EP3447542A4 (en) * | 2016-04-18 | 2019-04-10 | Sony Corporation | Information processing device, information processing method, and program |
US11348272B2 (en) | 2017-03-23 | 2022-05-31 | Nec Corporation | Vegetation index calculation apparatus, vegetation index calculation method, and computer readable recording medium |
JP7119836B2 (en) * | 2018-09-26 | 2022-08-17 | 中国電力株式会社 | Hydroelectric power plant development support equipment |
CN109186542B (en) * | 2018-10-12 | 2023-10-17 | 重庆大学 | Automatic sedimentation monitoring system |
JP6970946B1 (en) * | 2021-03-07 | 2021-11-24 | 西日本技術開発株式会社 | Distribution map creation device, distribution map creation method, and program |
CN115688247A (en) * | 2022-11-10 | 2023-02-03 | 陕西地建土地工程技术研究院有限责任公司 | Loess plateau channel area extraction and calculation method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089664A (en) * | 1998-09-09 | 2000-03-31 | Taisei Corp | Land use planning method |
JP2000251052A (en) * | 1999-03-01 | 2000-09-14 | Ntt Data Corp | Method and device for managing data with remote sensing and recording medium |
JP2003156330A (en) * | 2001-11-22 | 2003-05-30 | Nec Corp | Airborne topography-measuring apparatus and method |
JP2004089032A (en) * | 2002-08-30 | 2004-03-25 | Masahiro Yoshimoto | Method for analyzing resource, system for utilizing resource based on result obtained by the method |
JP3515678B2 (en) * | 1997-06-30 | 2004-04-05 | 朝日航洋株式会社 | Measurement system and method and airborne laser measurement device |
JP3546349B2 (en) * | 1999-02-10 | 2004-07-28 | 株式会社宮崎情報処理センター | Water surface gradient observation system |
JP2005199154A (en) * | 2004-01-14 | 2005-07-28 | Oyo Corp | Management and monitoring method for waste disposal site |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11283012A (en) * | 1998-03-31 | 1999-10-15 | Hitachi Software Eng Co Ltd | Method for recognizing shadow |
-
2005
- 2005-11-07 JP JP2005322922A patent/JP4553826B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3515678B2 (en) * | 1997-06-30 | 2004-04-05 | 朝日航洋株式会社 | Measurement system and method and airborne laser measurement device |
JP2000089664A (en) * | 1998-09-09 | 2000-03-31 | Taisei Corp | Land use planning method |
JP3546349B2 (en) * | 1999-02-10 | 2004-07-28 | 株式会社宮崎情報処理センター | Water surface gradient observation system |
JP2000251052A (en) * | 1999-03-01 | 2000-09-14 | Ntt Data Corp | Method and device for managing data with remote sensing and recording medium |
JP2003156330A (en) * | 2001-11-22 | 2003-05-30 | Nec Corp | Airborne topography-measuring apparatus and method |
JP2004089032A (en) * | 2002-08-30 | 2004-03-25 | Masahiro Yoshimoto | Method for analyzing resource, system for utilizing resource based on result obtained by the method |
JP2005199154A (en) * | 2004-01-14 | 2005-07-28 | Oyo Corp | Management and monitoring method for waste disposal site |
Also Published As
Publication number | Publication date |
---|---|
JP2006252529A (en) | 2006-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4553826B2 (en) | Feature environment status providing method and program thereof | |
Lathrop et al. | A multi-scale segmentation approach to mapping seagrass habitats using airborne digital camera imagery | |
van Puijenbroek et al. | Exploring the contributions of vegetation and dune size to early dune development using unmanned aerial vehicle (UAV) imaging | |
Helmer et al. | Cloud-free satellite image mosaics with regression trees and histogram matching | |
CN109448016A (en) | It is a kind of based on object-oriented and its be subordinate to rule remote sensing image tidal saltmarsh method | |
Ottinger et al. | Monitoring land cover dynamics in the Yellow River Delta from 1995 to 2010 based on Landsat 5 TM | |
Lu et al. | Object-oriented change detection for landslide rapid mapping | |
Mucher et al. | Land cover characterization and change detection for environmental monitoring of pan-Europe | |
Anders et al. | Geomorphological change detection using object-based feature extraction from multi-temporal LiDAR data | |
Lenney et al. | The status of agricultural lands in Egypt: the use of multitemporal NDVI features derived from Landsat TM | |
EP3022686B1 (en) | Automatic generation of multi-scale descriptors from overhead imagery through manipulation of alpha-tree data structures | |
KR100935857B1 (en) | System for generating 3d forest geographical information data using aerial lidar data and digital aerial photo data and method therefor | |
Rampi et al. | Wetland mapping in the upper midwest United States | |
CN114821355B (en) | Coastline automatic identification method and device | |
Berveglieri et al. | Successional stages and their evolution in tropical forests using multi-temporal photogrammetric surface models and superpixels | |
CN112052757B (en) | Method, device, equipment and storage medium for extracting fire trace information | |
CN114612789A (en) | Method for extracting evergreen forest stand changes through long-time satellite remote sensing | |
Qi et al. | Uncertainties in MODIS-derived Ulva prolifera amounts in the Yellow Sea: A systematic evaluation using sentinel-2/MSI observations | |
CN108198178B (en) | Method and device for determining atmospheric range radiation value | |
Newman et al. | Use of object-oriented classification and fragmentation analysis (1985–2008) to identify important areas for conservation in Cockpit Country, Jamaica | |
Urbański et al. | Object-oriented classification of QuickBird data for mapping seagrass spatial structure | |
Nelson et al. | Spatial statistical techniques for aggregating point objects extracted from high spatial resolution remotely sensed imagery | |
CN115760885B (en) | High-closure-degree wetland forest parameter extraction method based on consumer-level unmanned aerial vehicle image | |
CN116363514A (en) | Method and device for determining vegetation growth suitable area of inland coastal zone based on multi-source images | |
CN114882169B (en) | Three-dimensional data-based intelligent analysis system and method for big data of power grid engineering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100713 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130723 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4553826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |