JP2006252529A - Planimetric feature environment condition provision method and program thereof - Google Patents

Planimetric feature environment condition provision method and program thereof Download PDF

Info

Publication number
JP2006252529A
JP2006252529A JP2005322922A JP2005322922A JP2006252529A JP 2006252529 A JP2006252529 A JP 2006252529A JP 2005322922 A JP2005322922 A JP 2005322922A JP 2005322922 A JP2005322922 A JP 2005322922A JP 2006252529 A JP2006252529 A JP 2006252529A
Authority
JP
Japan
Prior art keywords
mesh
color
value
image
water surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005322922A
Other languages
Japanese (ja)
Other versions
JP4553826B2 (en
Inventor
Takio Sano
滝雄 佐野
Yoichi Numata
洋一 沼田
Daisuke Kiyomiya
大輔 清宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2005322922A priority Critical patent/JP4553826B2/en
Publication of JP2006252529A publication Critical patent/JP2006252529A/en
Application granted granted Critical
Publication of JP4553826B2 publication Critical patent/JP4553826B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a planimetric feature environment condition provision method and a program thereof capable of easily grasping the condition of the whole of a river and the condition of data of foundations from aircraft laser data by quantifying them planely and displaying them in color properly. <P>SOLUTION: The system comprises a river environment condition chart creation part 20, a reflection intensity chart creation part 21 (a program), a land-cover classification chart creation part 22 (a program), a river channel analysis area creation part 23 (a program), and a synthesizing part 24, and generates a sand bar relative elevation image A from an orthophotoimage and laser data, a rapid and deep pool image B from which rapids, deep pools, etc. of a river can be obtained at a glance, or a riverbed material image C from which conditions of a sandbar of a river channel, stones in a sandy area, and gravel can be obtained at a glance, etc. They are obtained at the output part 3. By using an orthophotoimage and laser data, proportions of existence of a rapid and deep pool of a river channel, a sandbar, a sandy area, and a riverbed material can be obtained as numerical data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、河道、海岸、湿地帯等の水および水周辺のエリアにおいて瀬、淵、川の状況又は州に存在する砂礫の大きさを面的に数値化して把握するとともに、適宜カラー表示することで視覚的に情報を提供する地物環境状況提供方法に関する。   The present invention grasps the situation of rivers, coasts, wetlands, etc., and the conditions of rivers, rivers, rivers, or the size of gravel existing in the state, and displays them appropriately in color. The present invention relates to a feature environment situation providing method that provides information visually.

1990年から全国109水系の一級河川及び各県が管理する二級河川の一部において「河川水辺の国勢調査」(以下水国調査と称する)が始まった。この調査は植物・魚類・鳥類など、河川に生息・生育する生物を現地確認によって把握するもので、5カ年を1サイクルとして実施され、現在は3巡目の調査に差し掛かっている。   In 1990, the “National Census of River Waterside” (hereinafter referred to as the “Water Country Survey”) started in the first-class rivers of 109 water systems nationwide and some of the second-class rivers managed by each prefecture. This survey is to grasp the organisms that inhabit and grow in rivers, such as plants, fish, and birds, by field confirmation. The survey has been conducted for 5 years as one cycle, and the survey for the third round is now underway.

調査の開始当初、河川管理者は生物に関する情報をまったく持っておらず、環境問題に関する世論の高まりを背景に、まずはどんな生物がいるのかを調べるところから始まった。その後、1997年に河川法が改正され、河川事業の目的として従来の「治水」「利水」に加えて「河川環境の整備と保全」が位置づけられたことにより、事業の三本柱の一つを担う基礎データとして、毎年多額の予算を投じて全国の河川(湖も含む)で調査が実施されてきた。   At the beginning of the survey, river managers had no information about living organisms, and began with investigating what organisms were present against the backdrop of growing public opinion on environmental issues. After that, the River Law was revised in 1997, and in addition to the conventional “Flood Control” and “Water Utilization” as the purpose of the river business, “maintenance and conservation of the river environment” was positioned as one of the three pillars of the project. As basic data that bears the burden, surveys have been conducted on rivers (including lakes) nationwide with a large budget each year.

この一方で公共事業全般に渡ってコスト縮減が叫ばれる中、過去10数年に渡って蓄積されてきたデータの価値が問われている。すなわち、生物情報は積み上がったものの、それが河川管理(生物環境を維持しながら治水等の管理)にほとんど活用されていないという実態があらわになって来ている。   On the other hand, while the cost reduction is screamed throughout the public works, the value of data accumulated over the past ten years is being questioned. In other words, although the biological information has been accumulated, the fact that it is hardly utilized for river management (management of flood control while maintaining the biological environment) has become apparent.

河川管理者として環境情報の取得は必須であるため、2006年から始まる4巡目の調査に向けてマニュアルの改訂が進められているが依然として生物調査主体の内容になっており、河川管理にどのように活用していくかという課題に対する解決策は得られていない。   Since it is essential for river managers to acquire environmental information, the manual is being revised for the fourth round of surveys starting in 2006. There is no solution to the problem of how to utilize it.

現在の水国調査データが河川管理に活用されにくい要因として、調査対象が生物に偏重し、河道地形、河床材料、中州、中州の樹木、川の流れ(早瀬、平瀬、淵)等の場の環境に対する調査が手薄になっている点を挙げることができる。   Factors that make it difficult for current water country survey data to be used for river management include survey sites that are heavily focused on living organisms, such as river channel topography, riverbed materials, trees in Nakashu, Nakashu, and river flows (Hayase, Hirase, Kashiwa). It can be pointed out that surveys on the environment have become very short.

つまり、河川管理で操作できる対象は、個々の生物ではなく、河道形態や流況等の物理条件である。
特開2000−89664号公報 特許第3546349号公報 特開2003−156330号公報
In other words, the objects that can be operated in river management are not individual organisms but physical conditions such as river channel forms and flow conditions.
JP 2000-89664 A Japanese Patent No. 3546349 JP 2003-156330 A

現在の水国調査データが河川管理に活用されにくい要因として、調査対象が生物に偏重し、場の環境に対する調査が手薄になっている点を挙げることができる。   One of the factors that make it difficult for current water country survey data to be used in river management is that the survey target is heavily focused on living organisms, and the survey of the environment of the field is short.

つまり、河川管理で操作できる対象は、個々の生物ではなく、河道形態や流況等の物理条件であるにもかかわらず、これらの河川の基盤環境データ(中州の状況、樹木の生育状況、川の急流の状況、砂礫の堆積状況、川の変化状況等)は取得がほとんどなされていないので、洪水に対して安全な河道を確保しつつ、どのように生物環境を維持していくのかが数値的に管理されていないという課題があった。   In other words, the objects that can be manipulated in river management are not individual organisms, but physical conditions such as river channel forms and flow conditions, etc. The number of torrents, sand gravel deposits, river changes, etc.) has not been acquired, so how to maintain the biological environment while ensuring a safe river channel against flooding There was a problem that it was not managed.

また、従来の水国調査は多額のコストをかけても対象区間の中に設定されたいくつかの調査地点のみで行われるため、局所的な情報しか得られないので、河川全体の環境がすぐに把握できないという課題があった。   In addition, the conventional water country survey is conducted only at some survey points set in the target section even at a high cost, so only local information can be obtained. There was a problem that could not be grasped.

従って、巨費をかけないで航空レーザデータによって容易に河川全体の状況、基盤データの状況を面的に数値化して把握するとともに、適宜カラー表示することで視覚的に提供できる水環境情報提供方法を得ることが望ましい。   Therefore, there is a water environment information provision method that can easily provide visual information by quantifying and grasping the situation of the entire river and the base data easily with aviation laser data without overwhelming it, and displaying it appropriately in color. It is desirable to obtain.

本発明の航空機によるレーザデータ及びカラー画像データを用いた地物環境状況提供方法は、カラーオルソフォト画像のメッシュの赤(R)、緑(G)、青(B)のうちの任意のバンドの色強度と第1の閾値とを比較し、該メッシュを日向と日影に分類する工程と、日向のメッシュの赤(R)、緑(G)、青(B)の3バンドの色強度それぞれを比較し、日向のメッシュを水域、裸地、及び植生地に分類する工程と、日影のメッシュを含む区画のレーザデータの表層反射強度と、第2及び第3の閾値とを比較し、日影のメッシュを水域、前記裸地、及び前記植生地に分類する工程と、カラーオルソフォト画像の全メッシュについて全工程を繰り返し実施して、対象地域の土地被覆分類する工程とを行うことを要旨とする。   The feature environment status providing method using laser data and color image data by an aircraft according to the present invention is used for any band of red (R), green (G), and blue (B) of a mesh of a color orthophoto image. A step of comparing the color intensity with the first threshold and classifying the mesh into the sun and the shade, and the color intensities of the red (R), green (G) and blue (B) bands of the sun mesh respectively Comparing the Hyuga mesh into water, bare land, and vegetation, comparing the surface reflection intensity of the laser data of the section including the shade mesh with the second and third thresholds, Performing a step of classifying a shaded mesh into a water area, the bare land, and the vegetation; and a step of repeatedly performing all the steps for all the meshes of the color orthophoto image to classify the land cover of the target area. The gist.

また、地物環境状況提供方法は、レーザデータに含まれる各区画の地盤標高値と表層標高値を読み出し、その差から該区画の植生高を求める工程と、植生地のメッシュを含む区画の植生高と第4の閾値と比較し、植生地のメッシュを樹木と草地に分類する工程とをさらに行なうことを要旨とする。   The feature environment status providing method includes a step of reading the ground elevation value and surface elevation value of each section included in the laser data, obtaining a vegetation height of the section from the difference, and a vegetation of the section including the mesh of the vegetation The summary is to further perform a step of classifying the mesh of the vegetation into a tree and a grassland by comparing the height with the fourth threshold value.

さらに、地物環境状況提供方法は、前記水域に分類された全メッシュについて、前記メッシュを含む区画の前記レーザデータの地盤標高値をそれぞれ抽出し、水面勾配区分を作成する工程と、前記地盤標高値中の任意の3メッシュについて不等三角網を発生させて、複数の水域に挟まれた砂州の基準水面の標高値を算出する工程と、別途作成される2次元の堤防線上に任意に発生させた点群に、その点の最近傍の前記地盤標高値から標高値を与え、その点の標高値と前記地盤標高値の3メッシュについて不等三角網を発生させて、水域と堤防に挟まれた砂州の基準水面の標高値を算出する工程と、前記基準水面の標高値と前記地盤標高値の差分を算出し、砂州の比高分布を作成する工程とをさらに行なうことを要旨とする。   Further, the feature environment situation providing method extracts a ground elevation value of the laser data of the section including the mesh for all meshes classified into the water area, and creates a water surface gradient section, and the ground elevation Generate an inequality triangle mesh for any 3 meshes in the value, calculate the elevation value of the reference water surface of the sandbar sandwiched between multiple water areas, and generate arbitrarily on a separately created two-dimensional dike line A given point group is given an elevation value from the ground elevation value nearest to the point, and an inequality triangular network is generated for the 3 meshes of the elevation value and the ground elevation value to be sandwiched between the water area and the dike. And a step of calculating an elevation value of the reference water surface of the sand bar and a step of calculating a difference between the elevation value of the reference water surface and the ground elevation value and creating a specific height distribution of the sand bar. .

また、地物環境状況提供方法は、水面勾配区分から任意の区間毎の水面勾配を求める工程と、区間に対応するカラーオルソフォト画像の画素値を抽出して、高周波数成分と低周波成分とに分離し、水面勾配と該分離結果から水面の波立ち状況を求める工程とをさらに行なうことを要旨とする。   In addition, the feature environment status providing method includes a step of obtaining a water surface gradient for each arbitrary section from the water surface gradient section, and extracting a pixel value of a color orthophoto image corresponding to the section to obtain a high frequency component and a low frequency component. The gist is to further perform a step of obtaining a water surface gradient and a wave surface state of the water surface from the separation result.

そして、地物環境状況提供方法は、砂州に対応するカラーオルソフォト画像の画素値を平均化して、低周波成分と高周波成分とに分離し、該高周波成分の標準偏差値によって砂州領域の粒径を求める工程をさらに行なうことを要旨とする。   Then, the feature environment status providing method averages the pixel values of the color orthophoto image corresponding to the sand bar and separates them into a low frequency component and a high frequency component, and the particle size of the sand bar region by the standard deviation value of the high frequency component. The gist is to further perform the step of obtaining

一方、本発明の航空機によって撮影及び計測した、対象地域のカラーオルソフォト画像及びレーザデータを用いた地物環境状況提供プログラムは、コンピュータに、カラーオルソフォト画像のメッシュの赤(R)、緑(G)、青(B)のうちの任意のバンドの色強度と第1の閾値とを比較し、該メッシュを日向と日影に分類する手段、日向のメッシュの赤(R)、緑(G)、青(B)の3バンドの色強度それぞれを比較し、日向のメッシュを水域、裸地、及び植生地に分類する手段、日影のメッシュを含む区画のレーザデータの表層反射強度と、第2及び第3の閾値とを比較し、日影のメッシュを水域、裸地、及び植生地に分類する手段としての機能をカラーオルソフォト画像の全メッシュについて繰り返し実行させ、対象地域の土地被覆分類を行わせる手段としての機能を実行させることを要旨とする。   On the other hand, the feature environment situation providing program using the color orthophoto image and laser data of the target area, which is photographed and measured by the aircraft of the present invention, is stored in the computer in red (R) and green ( Means for comparing the color intensity of an arbitrary band of G) and blue (B) with the first threshold value and classifying the mesh into the sun and the shadow; the red (R) and green (G ), Comparing the color intensity of each of the three bands of blue (B), a means for classifying the sunscreen mesh into water, bare land, and vegetation, the surface layer reflection intensity of the laser data of the section including the sunshade mesh, Comparing the second and third thresholds, the function of classifying the shaded mesh into water, bare land, and vegetation is repeatedly executed for all meshes of the color orthophoto image, and the land cover in the target area Min And summarized in that to perform the functions as a means to perform.

また、地物環境状況提供プログラムは、コンピュータに、レーザデータに含まれる各区画の地盤標高値と表層標高値を読み出し、その差から該区画の植生高を求める手段、植生地のメッシュを含む区画の植生高と第4の閾値と比較し、植生地のメッシュを樹木と草地に分類する手段としての機能をさらに実行させることを要旨とする。   In addition, the feature environment situation providing program reads a ground elevation value and a surface elevation value of each section included in the laser data to a computer, a means for obtaining a vegetation height of the section from the difference, and a section including a vegetation mesh The gist of the present invention is to further execute a function as a means for classifying the mesh of the vegetation into a tree and a grassland by comparing the vegetation height with a fourth threshold value.

さらに、地物環境状況提供プログラムは、コンピュータに、前記水域に分類された全メッシュについて、前記メッシュを含む区画の前記レーザデータの地盤標高値をそれぞれ抽出し、水面勾配区分を作成する手段と、前記地盤標高値中の任意の3メッシュについて不等三角網を発生させて、複数の水域に挟まれた砂州の基準水面の標高値を算出する手段と、別途作成される2次元の堤防線上に任意に発生させた点群に、その点の最近傍の前記地盤標高値から標高値を与え、その点の標高値と前記地盤標高値の3メッシュについて不等三角網を発生させて、水域と堤防に挟まれた砂州の基準水面の標高値を算出する手段と、前記基準水面の標高値と前記地盤標高値の差分を算出し、砂州の比高分布を作成する手段としての機能を実行させることを要旨とする。   Further, the feature environment situation providing program, on the computer, for all meshes classified into the water area, extracts the ground elevation value of the laser data of the section including the mesh, respectively, and creates a water surface gradient section; On the two-dimensional dike line created separately, means for generating an inequality triangle network for any three meshes in the ground elevation value and calculating the elevation value of the reference water surface of the sandbar sandwiched between a plurality of water areas An arbitrarily generated point group is given an elevation value from the ground elevation value nearest to the point, and an inequality triangular network is generated for the three meshes of the elevation value and the ground elevation value, The function of calculating the altitude value of the reference water level of the sand bar sandwiched between the dikes, and calculating the difference between the altitude value of the reference water surface and the ground altitude value and creating the specific height distribution of the sand bar is executed. thing The gist.

またさらに、地物環境状況提供プログラムは、コンピュータに、水面勾配区分から任意の区間毎の水面勾配を求める手段、区間に対応するカラーオルソフォト画像の画素値を抽出して、高周波数成分と低周波成分とに分離し、水面勾配と該分離結果から水面の波立ち状況を求める手段としての機能を実行させることを要旨とする。   Still further, the feature environment situation providing program extracts a pixel value of a color orthophoto image corresponding to a section, a means for obtaining a water surface gradient for each arbitrary section from the water surface gradient section, and extracts a high-frequency component and a low-frequency component. The gist is to perform a function as means for obtaining a water surface gradient and a wave surface state of the water surface from the separation result by separating into frequency components.

そして、地物環境状況提供プログラムは、コンピュータに、砂州に対応するカラーオルソフォト画像の画素値を平均化して、低周波成分と高周波成分とに分離し、該高周波成分の標準偏差値によって砂州領域の粒径を求める手段としての機能を実行させることを要旨とする。   Then, the feature environment status providing program averages the pixel values of the color orthophoto image corresponding to the sand bar and separates them into a low frequency component and a high frequency component, and uses the standard deviation value of the high frequency component as a sand bar region. The gist of the present invention is to execute a function as a means for obtaining the particle size of the particles.

本発明によれば、多大な費用をかけないで川の流れの状況、中州の状況、中州等に堆積している砂礫の大きさが面的・数値的に把握できるとともに、適宜カラー表示することでこれらの情報を視覚的にもわかりやすく表現することによって、河川管理に活用できる。また、海辺や湿地などに関しても同様の効果が期待できる。   According to the present invention, it is possible to grasp the state of river flow, the state of Nakashuu, the size of gravel deposited in the Nakasu and other areas without numerical costs, and display the color appropriately. By expressing this information visually and clearly, it can be used for river management. The same effect can be expected with respect to the seaside and wetlands.

図1は本発明の航空機によるレーザデータ及びカラー画像を用いた地物環境状況提供システムのハードウエア構成図である。   FIG. 1 is a hardware configuration diagram of a terrestrial environment status providing system using laser data and color images by an aircraft according to the present invention.

図1に示すように、航空機によるレーザデータを用いた地物環境状況提供システムVPS1は、プロセッサ、マイクロコンピュータ、ロジック、レジスタなどの適宜組み合わせからなる中央情報処理装置(CPU部)1と、CPU部1に必要な制御情報・操作情報を入力するキーボード、マウス、対話型ソフトスイッチ、外部通信チャンネル等の情報入力部2と、CPU部1からの情報を広義な意味で表示・伝送するディスプレイ、プリンタ、外部通信チャンネル等を含む情報出力部3と、CPU部1に読み込まれるオペレーティングシステム、アプリケーションプログラムなどの情報が格納されたロム(ROM)等の第1の記憶部4と、CPU部1で随時処理すべき情報及びCPU部1からの情報を格納するラム(RAM)等の第2の記憶部5等を備える。第1及び第2の記憶部4、5は適宜統合、細分化することはかまわない。   As shown in FIG. 1, a terrestrial environment situation providing system VPS1 using laser data from an aircraft includes a central information processing device (CPU unit) 1 including an appropriate combination of a processor, a microcomputer, a logic, a register, and the like, and a CPU unit. 1. Information input unit 2 such as a keyboard, mouse, interactive soft switch, external communication channel, etc. for inputting necessary control information and operation information, and display and printer for displaying and transmitting information from the CPU unit 1 in a broad sense The information output unit 3 including an external communication channel, the first storage unit 4 such as a ROM (ROM) in which information such as an operating system and application program read by the CPU unit 1 is stored, and the CPU unit 1 as needed. Second memory such as a RAM (RAM) for storing information to be processed and information from the CPU unit 1 Equipped with a 5 and the like. The first and second storage units 4 and 5 may be appropriately integrated and subdivided.

第1の記憶部4には、所定のアプリケーション上で動作する水土地環境提供部10と、航空機で所定の範囲の河川、海辺、湖、湿地帯を取得したときのレーザデータRiと、カラーデジタルオルソフォト画像Pi(以下オルソ画像Piという)と、この画像の解析範囲を定めた解析エリア情報(河道エリア、湿地帯エリア、海辺エリア等)と、レーザデータRi及びオルソ画像Piを用いて得られた土地被覆分類情報等が記憶されている。前述のレーザデータRiとオルソ画像Piは、第2の記憶部5に予め記憶されて第1の記憶部4に格納される。また、解析エリア情報、土地被覆分類情報等は第2の記憶部5に生成されて第1の記憶部4に格納される。   The first storage unit 4 includes a water / land environment providing unit 10 that operates on a predetermined application, laser data Ri when a predetermined range of rivers, seasides, lakes, and wetlands are acquired by an aircraft, and color digital data Orthophoto image Pi (hereinafter referred to as orthoimage Pi), analysis area information (river channel area, wetland area, seaside area, etc.) that defines the analysis range of this image, laser data Ri, and orthoimage Pi Land cover classification information is stored. The laser data Ri and the ortho image Pi described above are stored in advance in the second storage unit 5 and stored in the first storage unit 4. Analysis area information, land cover classification information, and the like are generated in the second storage unit 5 and stored in the first storage unit 4.

前述の水土地環境提供部(プログラム)10は、図2に示すように、後述する水面に対する砂州の比高分布算出プログラム11(以下州高分類図作成部11という)と、水面勾配区分と画像解析を組み合わせた瀬淵分類プログラム14(以下瀬淵分類化部14という)と、画像解析による河床材料の粒径分類プログラム12(以下河床材料情報作成部12という)等からなる河川環境状況図作成部20と、レーザデータ編集部200(プログラム)と、反射強度図作成部21(プログラム)と、土地被覆分類図作成部22(プログラム)と、河道解析エリア作成部23(プログラム)と、合成部24等を備えて、オルソ画像Pi、レーザデータRiから例えば図3に示す河川の勾配をキャンセルして砂州比高画像A又は図4に示す河の早瀬、淵等が一目で分かる瀬淵画像B若しくは図5に示すように河道の中州、砂地の石、砂利の状況が一目で分かる河床材料画像C等を生成してこれを情報出力部3に得る。つまり、オルソ画像Pi、レーザデータRiを用いることによって、河道の瀬淵、中州、砂地、河床材料がどの程度の割合で存在しているかを数値データとして得ることを可能としている。このため、河道の環境の管理、解析に適用できることになる。前述の合成部24は、オルソ画像Piをモノクロ画像(白黒)に変換し、このモノクロ画像と河道エリアの画像とを合成(いずれか一方の画像の場合もある)して表示部に表示させる。   As shown in FIG. 2, the water land environment providing unit (program) 10 includes a sandbar relative height distribution calculation program 11 (hereinafter referred to as a state high classification map creating unit 11), a water surface gradient classification, and an image. River environment situation diagram creation consisting of Seto classification program 14 (hereinafter referred to as Seto classification unit 14) combined with analysis, riverbed particle size classification program 12 (hereinafter referred to as riverbed material information creation unit 12) by image analysis, etc. Unit 20, laser data editing unit 200 (program), reflection intensity map creation unit 21 (program), land cover classification map creation unit 22 (program), river channel analysis area creation unit 23 (program), and synthesis unit 24, etc., and canceling the slope of the river shown in FIG. 3 from the ortho image Pi and the laser data Ri, for example, the sand bar specific height image A or the rapids of the river shown in FIG. Etc. is SeraFukashi image B or the Kawado as shown in FIG. 5 sandbank glance, to obtain sand stone, the status of gravel it generates the bed material image C and the like at a glance the information output unit 3. In other words, by using the ortho image Pi and the laser data Ri, it is possible to obtain numerical data indicating the ratio of river channel waterfall, Nakashu, sand, and riverbed material. Therefore, it can be applied to the management and analysis of the river channel environment. The synthesizing unit 24 converts the ortho image Pi into a monochrome image (black and white), synthesizes the monochrome image and the image of the river channel area (may be either one of the images), and displays it on the display unit.

レーザデータ編集部200には、図33に示すように、レーザデータ分類部201、標高値データ抽出部202、植生高算出部204、及び反射強度データ抽出部203が含まれる。そして入力されるレーザデータRiには、データ収集した地点のX座標値、Y座標値、地盤の標高値Zg、表層の標高値Zt、地盤の反射強度Ig、表層の反射強度Itが含まれている。   As shown in FIG. 33, the laser data editing unit 200 includes a laser data classification unit 201, an elevation value data extraction unit 202, a vegetation height calculation unit 204, and a reflection intensity data extraction unit 203. The input laser data Ri includes an X coordinate value, a Y coordinate value, a ground elevation value Zg, a surface elevation value Zt, a ground reflection intensity Ig, and a surface reflection intensity It. Yes.

レーザデータ分類部201は、このレーザデータRiを、レーザ地盤データRg(X、Y、Zg、Ig)とレーザ表層データRt(X、Y、Zt、It)に分類して第1の記憶部4に格納する。   The laser data classification unit 201 classifies the laser data Ri into laser ground data Rg (X, Y, Zg, Ig) and laser surface layer data Rt (X, Y, Zt, It), and stores the first storage unit 4. To store.

つづいて、標高値データ抽出部202は、分類されたレーザ地盤データRgから標高値データを抽出して、数値標高モデル(DEM)として地盤メッシュデータER(X、Y、Zg)を、そしてレーザ表層データRtから標高値データを抽出して、数値地表モデル(DSM)として表層メッシュデータSR(X、Y、Zt)を、それぞれ生成して第1の記憶部4に格納する。   Subsequently, the altitude value data extraction unit 202 extracts altitude value data from the classified laser ground data Rg, and the ground mesh data ER (X, Y, Zg) as a digital altitude model (DEM), and the laser surface layer. Elevation value data is extracted from the data Rt, and surface mesh data SR (X, Y, Zt) is generated as a numerical ground model (DSM) and stored in the first storage unit 4.

次に、植生高算出部204は、地盤メッシュデータERと表層メッシュデータSRから、同一XY座標点の地盤の標高値Zgと表層の標高値Ztを読み出し、その差を計算して、主にその地点に生えている植物の背の高さ(植生高h)を求める。そして座標値とともに植生高データHD(X、Y、h)として第1の記憶部4に格納する。   Next, the vegetation height calculation unit 204 reads the ground elevation value Zg and the surface elevation value Zt at the same XY coordinate point from the ground mesh data ER and the surface layer mesh data SR, calculates the difference between them, and mainly Find the height of the plant growing at the point (vegetation height h). And it stores in the 1st memory | storage part 4 as vegetation height data HD (X, Y, h) with a coordinate value.

一方、反射強度データ抽出部203は、分類されたレーザ地盤データRgから反射強度データを抽出して、地盤反射強度データHRg(X、Y、Ig)を、そしてレーザ表層データRtから反射強度データを抽出して、表層反射強度データHRt(X、Y、It)を、それぞれ生成して第1の記憶部4に格納する。   On the other hand, the reflection intensity data extraction unit 203 extracts the reflection intensity data from the classified laser ground data Rg, obtains the ground reflection intensity data HRg (X, Y, Ig), and the reflection intensity data from the laser surface layer data Rt. The surface layer reflection intensity data HRt (X, Y, It) is generated and stored in the first storage unit 4.

レーザ地盤データRgとレーザ表層データRtは、図34に示すように、レーザを照射した際の測定地点が、地面の場合と地面から突き出た物体(植物等)の表面の場合の得られた各々のデータをさす。図34からわかるように、同一地点のそれぞれの標高値(ZgとZt)の差が植生高(h)になっている。   As shown in FIG. 34, the laser ground data Rg and the laser surface data Rt are respectively obtained when the measurement point when the laser is irradiated is the ground and the surface of an object (plant etc.) protruding from the ground. The data of As can be seen from FIG. 34, the difference between the elevation values (Zg and Zt) at the same point is the vegetation height (h).

反射強度図作成部21は、表層反射強度データHRtの各メッシュの反射強度に応じた色を割り付けることで図7の反射強度分布図HRiを得る。   The reflection intensity diagram creating unit 21 assigns a color corresponding to the reflection intensity of each mesh of the surface layer reflection intensity data HRt to obtain the reflection intensity distribution diagram HRi of FIG.

すなわち、反射強度図作成部21を有することで、水土地環境提供部10は、図6に示すオルソ画像Pi(xyのメッシュにRGB)の他に、図7に示す反射強度分布図HRiを得ることになる。図7の反射強度分布図HRiは、反射強度が強いメッシュ(画素)には赤を割り当て、反射強度が中から強の間には黄色、中には黄緑、弱には青、弱から中の間には水色を割り当てている。これらの色の割り当てには、閾値によって判定して割り当てている。樹木によって河面、砂州面に影があっても反射強度はレーザの反射強度であるから影の影響はほとんど見られない。   That is, by having the reflection intensity map creating unit 21, the water / land environment providing unit 10 obtains the reflection intensity distribution map HRi shown in FIG. 7 in addition to the ortho image Pi (RGB in xy) shown in FIG. It will be. In the reflection intensity distribution diagram HRi of FIG. 7, red is assigned to a mesh (pixel) having a high reflection intensity, yellow when the reflection intensity is between medium and strong, yellow with green, blue with weak, and between weak and medium. Is assigned light blue. These color assignments are made by determination based on threshold values. Even if there are shadows on the river surface and sandbar surface due to trees, the reflection intensity is the reflection intensity of the laser, so there is almost no influence of the shadow.

土地被覆分類図作成部22は、オルソフォトの座標系で定義された土地被覆分類図用メモリ(図示せず)に、オルソ画像Piのメッシュの色情報を解析し、この色に応じて分類することで、図8に示すように、樹木、水(河面)、裸地、草地、それ以外の地物に分類した土地被覆分類図Eを得る。このとき、日影部は区別できないので、日影部に対応するレーザデータの反射強度分布図HRiを読み込んで、水、裸地、草地又は樹木に分類している。   The land cover classification map creation unit 22 analyzes the color information of the mesh of the ortho image Pi in a land cover map memory (not shown) defined in the orthophoto coordinate system, and classifies it according to this color. Thus, as shown in FIG. 8, a land cover classification map E classified into trees, water (river surface), bare land, grassland, and other features is obtained. At this time, since the shadow portion cannot be distinguished, the reflection intensity distribution diagram HRi of the laser data corresponding to the shadow portion is read and classified into water, bare land, grassland, or trees.

また、土地被覆分類図作成部22は、図9に示すように、植生高分布図を得ることも可能である。植生高分布図は、土地被覆分類図Eの深緑エリアのメッシュ位置に対応する座標系の植生高用メモリに、植生高データHDを読み込み、各メッシュの植生高(h)の値に応じた色を植生高用メモリのメッシュに割り付けて図9の植生高分布図を得ている。   Moreover, the land cover classification map creation part 22 can also obtain a vegetation height distribution map as shown in FIG. The vegetation height distribution map reads the vegetation height data HD into the vegetation height memory in the coordinate system corresponding to the mesh position in the dark green area of the land cover classification map E, and the color corresponding to the vegetation height (h) value of each mesh Is assigned to the vegetation height memory mesh to obtain the vegetation height distribution map of FIG.

本実施の形態では、最も樹高が高い樹木には赤を、中くらいより高い樹木には黄色、中くらいには黄緑、それ以下には青を割り付けている。ただし、表示部に表示させるときはオルソ画像Piをモノクロ化して、植生高用メモリの植生高分布図情報を合成して図9の画像を得ている。図9に示すように、影があっても樹木はくっきりと分かる。   In the present embodiment, red is assigned to a tree having the highest tree height, yellow is assigned to a tree that is higher than the middle, yellow is assigned to the middle, and blue is assigned to the lower. However, when displaying on the display unit, the ortho image Pi is converted into monochrome, and the vegetation height distribution map information of the vegetation height memory is synthesized to obtain the image of FIG. As shown in FIG. 9, the tree can be clearly seen even if there is a shadow.

ここで、土地被覆分類図作成部22について詳細に図10のフローチャートを用いて説明する。   Here, the land cover classification map creation unit 22 will be described in detail with reference to the flowchart of FIG.

本実施の形態は、図11に示すように、飛行機から対象地域上空を水平飛行しながら、下方にレーザ光を発射し、往復に要した時間と、航空機の位置、姿勢、発射角度から計算(コンピュータ)によって、地表面のx、y、zを得ている。このレーザは、例えば毎秒33000回〜1,000,000回といった高頻度で発射することが可能であり、これにより例えば50cmから1m程度に1点の密度で標高点(Rx、Ry、Rz)の取得が可能である。また、上記レーザと概ね同じ範囲をデジタルカメラで撮影し、例えば地上20cmといった高解像度のカラー(青・緑・赤、または緑・赤・近赤外)画像を取得、レーザデータRiと合わせてオルソ画像Piを得ることができる。   In the present embodiment, as shown in FIG. 11, laser light is emitted downward while flying horizontally over the target area from an airplane, and is calculated from the time required for reciprocation, the position, attitude, and launch angle of the aircraft ( The computer obtains x, y, and z of the ground surface. This laser can be fired at a high frequency of, for example, 33,000 times to 1,000,000 times per second, so that, for example, an elevation point (Rx, Ry, Rz) at a density of about one point from 50 cm to 1 m. Acquisition is possible. In addition, the same range as the above laser is photographed with a digital camera, and a high-resolution color (blue / green / red or green / red / near infrared) image of, for example, 20 cm above the ground is acquired, and is combined with the laser data Ri. An image Pi can be obtained.

図35に示したように、例えば、データ精度は、オルソ画像Piの単位メッシュ区画の場合、Aで示した20cm×20cmである一方、レーザデータRiの単位メッシュ区画の場合、Bで示した1m×1mである。このように、データの収集方法の差により、オルソ画像Piの単位メッシュの方が、レーザデータRiの単位メッシュより小さい。このため精度の高い緻密なオルソ画像Piの情報を主に用いるが、日陰になった箇所等は、オルソ画像Piではその被覆が判定できない場合が生じる。そのために、オルソ画像Piの単位メッシュ区画Aを含むレーザデータRiの単位メッシュ区画Bの情報を、オルソ画像Piの単位メッシュ区画Aの各々に共通の値として扱って各種判定処理を行うことで、得られる地形情報の精度をあげている。   As shown in FIG. 35, for example, the data accuracy is 20 cm × 20 cm indicated by A in the case of the unit mesh section of the ortho image Pi, while 1 m indicated by B in the case of the unit mesh section of the laser data Ri. × 1 m. Thus, the unit mesh of the ortho image Pi is smaller than the unit mesh of the laser data Ri due to the difference in the data collection method. For this reason, information on the precise ortho image Pi with high accuracy is mainly used. However, in the shaded portion or the like, the covering may not be determined by the ortho image Pi. Therefore, by performing various determination processes by treating the information of the unit mesh section B of the laser data Ri including the unit mesh section A of the ortho image Pi as a value common to each of the unit mesh sections A of the ortho image Pi, The accuracy of the obtained topographic information is raised.

<実施の形態1>
土地被覆分類図作成部22は、第1の記憶部4に記憶されているデジタルカメラによって取得した高精度のオルソ画像Piをデシジョンツリー方式で解析し、河道内及びその周辺の土地被覆状況(樹木、水、裸地等)を分類する。その際、日影部は通常の画像分類では区分できない場合があるため、撮影と同時取得のレーザ反射強度(Intensity)の情報を併用して精度を確保している。また、画像分類では誤差の大きい草地と樹木の区分にレーザによる植生高データを用いて向上させている。
<Embodiment 1>
The land cover classification map creation unit 22 analyzes the high-precision ortho image Pi acquired by the digital camera stored in the first storage unit 4 by a decision tree method, and the land cover state (trees) in and around the river channel , Water, bare land, etc.). At this time, since the shadow portion may not be classified by normal image classification, accuracy is ensured by using information on laser reflection intensity (Intensity) acquired simultaneously with photographing. In the image classification, the vegetation height data obtained by laser is used to improve the grassland and trees with large errors.

オルソ画像Piは、赤、青、緑の3バンド又は緑、赤、近赤外の3バンドの光の強度を、x、yについては一定間隔のメッシュ(画素)の並びで順番に記録したものである。   The ortho image Pi is obtained by sequentially recording the intensity of light of three bands of red, blue, and green or three bands of green, red, and near-infrared in order of x and y in a sequence of meshes (pixels) at regular intervals. It is.

さらに、レーザデータRiは(X,Y,Zg,Ig,Zt,It)として与えられている。   Further, the laser data Ri is given as (X, Y, Zg, Ig, Zt, It).

初めに、記憶部のオルソ画像Piを読み込み、このオルソ画像Piの座標系で定義した土地被覆分類図用メモリを生成している。   First, the ortho image Pi in the storage unit is read, and a land cover classification map memory defined by the coordinate system of the ortho image Pi is generated.

そして、オルソ画像Piのメッシュ番号を設定し、このメッシュ番号のメッシュの画像データ(Px,Py,R,G,B)を読み込む(S200)。   Then, the mesh number of the ortho image Pi is set, and the image data (Px, Py, R, G, B) of the mesh with this mesh number is read (S200).

次に、読み込んだ画像データの赤(R)、緑(G)、青(B)の3バンドの色強度と第1の閾値T1と比較する(S201)。この閾値T1は、画像全体の統計量(輝度分布)より決定された閾値である。また、どの色を判定に採用するかは、画像全体の統計量(輝度分布)より適宜決定して構わない。   Next, the color intensity of the three bands of red (R), green (G), and blue (B) of the read image data is compared with the first threshold value T1 (S201). This threshold value T1 is a threshold value determined from the statistic (brightness distribution) of the entire image. In addition, which color is used for the determination may be appropriately determined from the statistic (brightness distribution) of the entire image.

ステップS201において、色強度が閾値T1よりも小さいと判定したときは、日影と判断する。また、ステップS201において、閾値T1より色強度の値が大きいと判定したときは、日向と判断する。   If it is determined in step S201 that the color intensity is smaller than the threshold value T1, it is determined to be a shade. In step S201, when it is determined that the value of the color intensity is larger than the threshold value T1, it is determined to be sunny.

読み込んだメッシュ(画素)を日影の領域に分類したときは、色強度では、その地点がどのような場所なのかが判断できないため、表層反射強度データHRtから、該当する(Px,Py)メッシュを含むレーザデータの(X,Y)メッシュ区画のデータを読み込む(S202)。   When the read mesh (pixel) is classified into a shaded area, the color intensity cannot determine what the point is, so the corresponding (Px, Py) mesh from the surface reflection intensity data HRt. (X, Y) mesh section data of the laser data including is read (S202).

そして、その区画の表層反射強度(It)を、レーザの反射強度データの統計量より決定される第2及び第3の閾値T21、T22と比較する(S203)。閾値T21より小さい場合は、そのメッシュ(画素)にカテゴリC=1(水域)と設定して、土地被覆分類図Eに保存する(S204)。また、閾値T21とT22の間の値である場合は、そのメッシュ(画素)にカテゴリC=2(裸地)と設定して、土地被覆分類図Eに保存する(S205)。一方、閾値T22より大きい場合には、後述する植生高(h)の判定をするための処理(S209〜S212)に移る。   Then, the surface reflection intensity (It) of the section is compared with the second and third thresholds T21 and T22 determined from the statistics of the laser reflection intensity data (S203). If it is smaller than the threshold T21, the mesh (pixel) is set as category C = 1 (water area) and stored in the land cover classification map E (S204). If the value is between the threshold values T21 and T22, the category (pixel) is set to category C = 2 (bare ground) and stored in the land cover classification map E (S205). On the other hand, when larger than threshold value T22, it shifts to processing (S209-S212) for judging vegetation height (h) mentioned below.

ステップS201において、閾値T1より色強度の値が大きいと判定し、読み込んだメッシュ(画素)を日向の領域に分類したときは、赤(R)、緑(G)、青(B)の3バンドの色強度の相関関係を判定する(S206)。   In step S201, when it is determined that the value of the color intensity is larger than the threshold value T1, and the read mesh (pixel) is classified into the sunny area, three bands of red (R), green (G), and blue (B) The correlation between the color intensities is determined (S206).

例えば、青(B)の色強度が他の赤(R)と緑(G)の値より大きい場合は、そのメッシュ(画素)にカテゴリC=1(水域)と設定して、土地被覆分類図Eに保存する(S208)。また、赤(R)の色強度が他の青(B)と緑(G)の値より大きい場合は、そのメッシュ(画素)にカテゴリC=2(裸地)と設定して、土地被覆分類図Eに保存する(S207)。   For example, if the color intensity of blue (B) is greater than the values of other red (R) and green (G), set the mesh (pixel) as category C = 1 (water area), and the land cover classification map E is stored (S208). Also, if the color intensity of red (R) is greater than the values of other blue (B) and green (G), the category C = 2 (bare) is set for the mesh (pixel), and the land cover classification Save in FIG. E (S207).

ここで、緑(G)の色強度が他の青(B)と赤(R)の値より大きいと判定されたメッシュ(画素)は、植生地として判断され、さらに細かく分類すため、植生高データHDから、該当する(Px,Py)メッシュを含むレーザデータの(X,Y)メッシュ区画のデータを読み込む(S209)。   Here, meshes (pixels) determined that the color intensity of green (G) is greater than the values of other blue (B) and red (R) are determined as vegetation, and are classified further finely. The data of the (X, Y) mesh section of the laser data including the corresponding (Px, Py) mesh is read from the data HD (S209).

そして、その区画の植生高(h)を、植物を分類する高さの第4の閾値T3と比較する(S210)。例えば、50cm以上の高さがあれば樹木として分類する場合は、閾値T3を50とする。   Then, the vegetation height (h) of the section is compared with the fourth threshold value T3 of the height for classifying the plant (S210). For example, the threshold T3 is set to 50 when classifying as a tree if there is a height of 50 cm or more.

ステップS210において、植生高(h)が閾値T3よりも大きいと判定したときは、そのメッシュ(画素)にカテゴリC=3(樹木)と設定して、土地被覆分類図Eに保存する(S211)。一方、植生高(h)が閾値T3よりも小さいと判定したときは、そのメッシュ(画素)にカテゴリC=4(草地)と設定して、土地被覆分類図Eに保存する(S212)。   If it is determined in step S210 that the vegetation height (h) is larger than the threshold value T3, category C = 3 (tree) is set in the mesh (pixel) and stored in the land cover classification map E (S211). . On the other hand, when it is determined that the vegetation height (h) is smaller than the threshold value T3, category C = 4 (grassland) is set in the mesh (pixel) and stored in the land cover classification map E (S212).

なお、3バンドの色強度の相関関係による分類は、撮影した地形の色調によって、その条件式が異なってくることは言うまでもない。したがって、条件式は画像全体の統計量(色強度分布)より適宜決定させる。   Needless to say, the conditional expression of the classification based on the correlation of the color intensities of the three bands differs depending on the color of the photographed terrain. Therefore, the conditional expression is appropriately determined from the statistics (color intensity distribution) of the entire image.

以上の処理を、メッシュ番号をカウントアップして繰り返すことで全メッシュのオルソ画像Piについて行い、全体の土地被覆分類図Eを作成する。このようにカテゴリCの値を設定することで、例えば、水域(C=1)と分類された場合は青を、樹木(C=3)と分類されたときは深緑を、草地(C=4)と分類されたときは黄緑を、裸地(C=2)と分類されたときは黄色を割り付ける等の加工が容易となる。この色付けは、ルックアップテーブルを用いることによって実施できる。このようにして生成した土地被覆分類図情報を第1の記憶部4に記憶し、出力部3に出力することによって図8に示す土地被覆分類図Eを得ている。この土地被覆分類図Eには、影の部分がないので、河道が山等によって影になっている場合に、オルソフォトでは見えにくい影の場所の状況が判断できることになる。なお、以上のフローについては、使用するカラーオルソ画像に合わせて、適宜ディシジョンツリーの判断分岐や使用する色等について変更しても構わない。   The above processing is repeated for all the mesh ortho images Pi by counting up and repeating the mesh numbers, and the entire land cover classification map E is created. By setting the value of category C in this way, for example, when classified as a water area (C = 1), blue is classified when classified as a tree (C = 3), and grassland (C = 4 ) And yellow when it is classified as bare (C = 2), and so on. This coloring can be performed by using a lookup table. The land cover classification map information generated in this way is stored in the first storage unit 4 and output to the output unit 3 to obtain the land cover classification map E shown in FIG. Since this land cover classification map E has no shadow portion, when the river channel is shaded by a mountain or the like, it is possible to determine the situation of the shadow location that is difficult to see with the orthophoto. In addition, about the above flow, you may change suitably the decision branch of a decision tree, the color to be used, etc. according to the color ortho image to be used.

さらに、図12に示すように、所定領域を囲み、この所定領域を拡大すると共に、オルソフォト画像Piから所定領域の画像を抽出して拡大枠の近傍に同時表示させることも可能である。このようにすると、影部の領域の環境をより把握できる。   Furthermore, as shown in FIG. 12, it is possible to enclose a predetermined area, enlarge the predetermined area, extract an image of the predetermined area from the orthophoto image Pi, and simultaneously display it in the vicinity of the enlargement frame. In this way, the environment of the shadow area can be grasped more.

このため、植生高分布図の川の中州に、堤防に高い樹木があるか低い樹木があるかが一目で分かる。例えば、中州に樹木があれば将来は益々樹木で覆われ、その結果中州全体が固定化することが予想される。つまり、洪水が発生した場合は、河の流れをせき止める要因に成ることなどが予想できるので洪水対策に活用できることになる。    For this reason, it can be seen at a glance whether there are high trees or low trees on the dike in the Nakasu of the vegetation height distribution map. For example, if there are trees in Nakasu, it will be covered more and more in the future, and as a result, the entire Nakasu is expected to be fixed. In other words, in the event of a flood, it can be used as a flood control measure because it can be expected to be a factor that stops river flow.

次に、河道解析エリア作成部23について説明する。
河道解析エリア作成部23は、画面上の土地被覆分類図E(図8)においてオペレータがなぞった軌跡を河道エリアFa(堤外地エリアともいう:xy座標)として記憶する(図12、図8)。
Next, the river channel analysis area creation unit 23 will be described.
The river channel analysis area creation unit 23 stores the trajectory traced by the operator in the land cover classification map E (FIG. 8) on the screen as a river channel area Fa (also referred to as a quay area: xy coordinates) (FIGS. 12 and 8). .

そして、この河道エリアFa内の土地被覆分類図Eの画像情報を読み込み(土地被覆分類用メモリから抽出)、堤外地裸地範囲Fb(中州の砂地、両岸の裸地)を抽出(河道エリアの土地被覆分類図の黄色の領域)して記憶する(図13b)。また、河道エリアFa内(図13a)の土地被覆分類図Eの画像情報を読み込み(土地被覆分類用メモリから抽出)、水面エリアFcを抽出(河道エリアの土地被覆分類図の水色の領域)して記憶する(図示せず)。   Then, the image information of the land cover classification map E in the river channel area Fa is read (extracted from the land cover classification memory), and the uncovered land bare land area Fb (sand state in Nakashu, bare land on both banks) is extracted (river channel area) (The yellow area of the land cover classification map) is stored (FIG. 13b). Also, the image information of the land cover classification map E in the river channel area Fa (FIG. 13a) is read (extracted from the land cover classification memory), and the water surface area Fc is extracted (light blue area of the land cover classification map of the river channel area). And memorize (not shown).

(水面に対する砂州の比高分布算出)
次に、水面に対する砂州の比高分布算出について説明する。
(Calculation of specific height distribution of sandbar relative to water surface)
Next, the calculation of the specific height distribution of the sand bar relative to the water surface will be described.

水面に対する砂州の比高分布算出は、レーザデータRiから流程に沿って任意の間隔で水面標高を算出し、それをある基準面に合わせる。すなわち、水面勾配が仮想的にゼロになるように河道標高データを補正した上でその基準面に対する砂州の比高分布を算出するとともに、必要に応じて段彩表示する。この補正を施さない一般的な段彩図では、水面に対する砂州のわずかな比高は河川の勾配に隠れて判別しづらいが、この方法であれば、流程上の全ての箇所において水面から砂州の比高が表現されるので河川環境を規定する増水時の冠水頻度を知ることができる(図3を参照)。   In calculating the specific height distribution of the sand bar with respect to the water surface, the water surface elevation is calculated at arbitrary intervals along the flow path from the laser data Ri, and is adjusted to a certain reference surface. That is, the river channel elevation data is corrected so that the water surface gradient is virtually zero, the specific distribution of the sand bar with respect to the reference surface is calculated, and the stepwise display is performed as necessary. In a typical stage chart without this correction, the slight relative height of the sand bar relative to the water surface is difficult to discern due to the slope of the river, but with this method, the relative height of the sand bar from the water surface at all points on the flow path is difficult. Since it is expressed, it is possible to know the flooding frequency at the time of flooding that defines the river environment (see FIG. 3).

図14は水面に対する砂州の比高分布算出の概略を説明するフローチャートである。   FIG. 14 is a flowchart for explaining the outline of calculating the specific height distribution of the sand bar with respect to the water surface.

図14に示すように、まず、土地被覆分類図Eからデータを読み込む(S400)。そして、カテゴリC=1のメッシュ(Px,Py)を抽出して、水域を求める(S401)。   As shown in FIG. 14, first, data is read from the land cover classification map E (S400). Then, a mesh (Px, Py) of category C = 1 is extracted to obtain a water area (S401).

次に、地盤メッシュデータ(DEM)ERから、この水域メッシュを含むレーザデータのメッシュ区画の情報を読み込む(S402)。これにより、水域メッシュの標高値(Zg)を求められる。   Next, the mesh section information of the laser data including the water area mesh is read from the ground mesh data (DEM) ER (S402). Thereby, the elevation value (Zg) of the water area mesh is obtained.

水域メッシュの座標値に標高値(Zg)を設定し、水面勾配区分図Mを作成する(S403)。   An elevation value (Zg) is set as the coordinate value of the water area mesh, and a water surface gradient division map M is created (S403).

つづいて、この水域メッシュから不等三角網(TIN)を発生させて、基準となる水面の標高値(Zs)を算出する(S404)。具体的な算出法のイメージを水域断面Sに示す。実際の標高がわかっている淵の任意の3点(水域断面Sでは、断面のため2点のみ表示)を抽出して、その3点を頂点とする三角形を作成する。この三角形面の各地点の標高が基準となる水面の標高値(Zs)となる。図32に、TINを発生させた状態を実際の画像上に現したものを示す。   Subsequently, an inequality triangular network (TIN) is generated from the water area mesh, and the elevation value (Zs) of the reference water surface is calculated (S404). An image of a specific calculation method is shown in the water section S. Three arbitrary points of the ridge whose actual elevation is known (in the water section S, only two points are displayed because of the cross section) are extracted, and a triangle having the three points as vertices is created. The altitude at each point on the triangular surface is the reference elevation value (Zs) of the water surface. FIG. 32 shows a state where a TIN is generated on an actual image.

そして、この基準水面の標高値(Zs)と水域メッシュの標高値(Zg)の差分を算出し(S405)、砂州比高分布図Aを作成する(S406)。これによって、砂州が水面からどれだけの高さにあるかがわかる。   Then, the difference between the altitude value (Zs) of the reference water surface and the altitude value (Zg) of the water area mesh is calculated (S405), and a sandbar specific height distribution map A is created (S406). This tells you how high the sandbar is from the surface of the water.

図15は他の実施形態の水面に対する砂州の比高分布算出を説明するフローチャートである。   FIG. 15 is a flowchart for explaining the calculation of the specific height distribution of the sand bar relative to the water surface according to another embodiment.

河川環境状況図作成部20の州高分類図作成部11は、河道エリアFaの河面エリアFc以外のエリアFd(裸地、草地、樹木エリア;以下比高分布提供エリアFdという)に対応する位置情報を有するレーザデータのZを読み込む。そして、このZ値に応じた色値をオルソ画像Piと同じ座標系の比高分布提供エリア用メモリのメッシュに割り付ける。閾値a以上は赤、閾値a以下で中間の閾値bの間であれば黄色を、閾値bより低く閾値c以上であれば緑を、閾値c以下は青を割り付ける。   The state classification classification creating unit 11 of the river environment situation diagram creating unit 20 corresponds to an area Fd (bare land, grassland, tree area; hereinafter referred to as a specific height distribution providing area Fd) other than the river surface area Fc of the river channel area Fa. Read Z of laser data having information. Then, the color value corresponding to the Z value is assigned to the mesh of the specific height distribution providing area memory having the same coordinate system as that of the ortho image Pi. Red is assigned when the threshold value a is equal to or greater than the threshold value a, yellow is assigned between the threshold value a and the middle threshold value b, green is assigned when the threshold value is lower than the threshold value b and the threshold value c is greater than the threshold value c, and blue is assigned.

すなわち、比高分布提供エリア用メモリの画像情報を表示することで、図16に示す勾配キャンセル前の段彩図Hを得る。この図は上流に行くに従って河道は赤が多くなり、下流は青が多くなる。この図16に示すように州等エリアの高さはわからないが以下のようにすると明らかになる。すなわち、図32に示すように地盤メッシュデータERの河面のDEM(基準面)から、河面以外の領域に対してTINを発生させて、これらのTINのX,Y,Zを抽出する(河面を基準としたDEM)。   That is, by displaying the image information of the specific height distribution providing area memory, the stage chroma H before gradient cancellation shown in FIG. 16 is obtained. In this figure, as the river goes upstream, the river becomes more red and the downstream becomes more blue. As shown in FIG. 16, although the height of the state area is not known, it will become clear if it is as follows. That is, as shown in FIG. 32, from the DEM (reference plane) of the river surface of the ground mesh data ER, TIN is generated for the region other than the river surface, and X, Y, and Z of these TINs are extracted (the river surface Reference DEM).

そして、河道エリアの各DEMのZ値(レーザデータ)から河面を基準としたDEMの各Z値との差を求めることで図3に示す州の川岸の裸地植生部の標高を抽出する。   Then, the elevation of the bare vegetation on the riverbank in the state shown in FIG. 3 is extracted by obtaining the difference between each DEM Z value (laser data) in the river channel area and each DEM Z value based on the river surface.

図3は州等のZ値に応じた色を割り当て州の高さが目でわかるように表示している。   In FIG. 3, colors corresponding to the Z values of states and the like are assigned so that the height of the state can be visually recognized.

また、図15のフローチャートに示すように、他の実施例として以下のように求めてもよい。   Further, as shown in the flowchart of FIG. 15, as another embodiment, it may be obtained as follows.

図15において、オペレータは、勾配キャンセル前の段彩図の河に「みおすじ」を描き、この「みおすじ」の土地被覆分類図Eにおいて「水域」レーザデータMpiを読み込み、入力された間隔Mtiで、そのZ値を読み込む(S51)。   In FIG. 15, the operator draws “Miosuji” in the river of the stage chart before the slope cancellation, reads the “water area” laser data Mpi in the land cover classification map E of this “Miosuji”, and at the inputted interval Mti, The Z value is read (S51).

また、画面の「みおすじ」の下流端のレーザデータのZ値を読み込み、これを基準値BZiとする(S52)。   In addition, the Z value of the laser data at the downstream end of “Miosuji” on the screen is read and used as a reference value BZi (S52).

そして、各間隔MtiのZ値を基準値Bziにするための補正関数βiを求める(S53)。   Then, a correction function βi for obtaining the Z value of each interval Mti as the reference value Bzi is obtained (S53).

次に、勾配キャンセル前の段彩図H(比高分布提供エリア用メモリ)のメッシュ番号Kmpiを設定する(S54)。   Next, the mesh number Kmpi of the stage chroma H (specific height distribution providing area memory) before the gradient cancellation is set (S54).

次に、水面勾配ゼロ図を得るための水面勾配ゼロ図用メモリを、勾配キャンセル前の段彩図Hと同じ座標系で定義する(S55)。   Next, a water surface gradient zero diagram memory for obtaining a water surface gradient zero diagram is defined in the same coordinate system as the stepped chroma diagram H before the gradient cancellation (S55).

そして、ステップS54で設定されたメッシュ番号Kmpiの勾配キャンセル前の段彩図H(比高分布提供用メモリ)のZ値を読み、このZ値を補正関数βiに基づいて基準値Bziに補正(図17を参照)したデータRbiを得る(S56)。   Then, the Z value of the stage chroma H (priority distribution providing memory) before the gradient cancellation of the mesh number Kmpi set in step S54 is read, and this Z value is corrected to the reference value Bzi based on the correction function βi (FIG. 17). Data Rbi is obtained (S56).

次に、データRbiを河道エリア図用メモリに記憶する(S57)。つまり、勾配キャンセル前の段彩図Hのメッシュ番号Kmpiには勾配が基準値とされたデータが作成されていることになる。   Next, the data Rbi is stored in the river channel area memory (S57). That is, data with the gradient as the reference value is created in the mesh number Kmpi of the stage chroma H before the gradient cancellation.

次に、勾配キャンセル前の段彩図Hの最後のメッシュKmpiのZ値を基準値に補正したかどうかを判断し(S58)、最後のメッシュKmpiに対しての補正が終わっていない場合は、メッシュKmpiを次のメッシュに更新して処理をステップS54に戻す(S59)。   Next, it is determined whether or not the Z value of the last mesh Kmpi in the stage chart H before the gradient cancellation has been corrected to the reference value (S58). If the correction for the last mesh Kmpi has not been completed, the mesh Kmpi is determined. Is updated to the next mesh, and the process returns to step S54 (S59).

また、ステップS58において、勾配キャンセル前の段彩図Hの全てのメッシュKmpiのZ値を基準値に補正したと判定したときは、水面勾配図(河道エリア図用メモリ)から河面エリア以外の領域データkpiを抽出する(S60)。   If it is determined in step S58 that the Z values of all the meshes Kmpi in the stage chart H before the gradient cancellation have been corrected to the reference value, the region data kpi other than the river surface area from the water surface gradient map (memory for the river channel area diagram). Is extracted (S60).

すなわち、河道エリア内の裸地、草地、樹木エリアのみが抽出されたことになる。   That is, only bare land, grassland, and tree areas in the river channel area are extracted.

次に、抽出したデータkpiのz値とそのメッシュ番号Kmpiを読み、このメッシュ番号の河道エリア用メモリに割り付(水面勾配ゼロ図に定義)ける(S61)。   Next, the z value of the extracted data kpi and its mesh number Kmpi are read and assigned to the river area memory of this mesh number (defined in the water surface gradient zero diagram) (S61).

次に、各メッシュKmpiのZ値を読み、このZ値に応じた色を割り付(河道エリア用メモリ)けて(S62)、オルソに合成させて画面に出力する(S63)。Z値が閾値Ab以上は赤、閾値abc以上でAb以下は黄色、abc以下でacd以上は黄緑、acd以下は青を割り付ける。すなわち、図3に示す比高分布図Aを得ることができている。この色付けは、ルックアップテーブルを用いることによって実施できる。   Next, the Z value of each mesh Kmpi is read, a color corresponding to the Z value is allocated (memory for the river channel area) (S62), and is synthesized into an ortho and output to the screen (S63). Red is assigned when the Z value is greater than or equal to the threshold value Ab, yellow is assigned when the threshold value is greater than or equal to abc and less than or equal to Ab, yellow and green are assigned when the value is less than abc and greater than or equal to acd, and blue is assigned. That is, the specific height distribution diagram A shown in FIG. 3 can be obtained. This coloring can be performed by using a lookup table.

(瀬・淵)
次に瀬・淵分類化部14について説明する。図18は瀬淵画像生成の概略を説明するフローチャートである。
(Se / Kashiwa)
Next, the Se / Kashiwa classification unit 14 will be described. FIG. 18 is a flowchart for explaining the outline of Seto image generation.

瀬淵分類化部14は、航空レーザによって取得されたレーザデータRiの水面の標高値(河面エリアFa内のZ値)から水面勾配を区分する。さらに、オルソフォト画像Piのテクスチャにより水面の波立ち状態を評価し、これらを重ね合わせることで急勾配の水面が波立った早瀬の部分と緩勾配で水面が滑らかな淵や平瀬の分布状況を精度良く表現する(図4参照)。   The Seze classification part 14 classifies the water surface gradient from the elevation value (Z value in the river surface area Fa) of the water surface of the laser data Ri acquired by the aviation laser. Furthermore, the wave surface state of the water surface is evaluated based on the texture of the orthophoto image Pi, and by superimposing these, the steep water surface waved part of the rapids and the smooth water surface of the ridge and the smooth water surface are accurately distributed. Express well (see Figure 4).

水面の勾配に関しては、レーザ計測器によっては直接的には水面標高を得ることが困難な場合も想定されるが、その場合は水際線の標高値(水面エリアの枠)を代替すればよい。   Regarding the gradient of the water surface, it may be difficult to obtain the water surface elevation directly depending on the laser measuring instrument. In that case, the elevation value of the shoreline (the frame of the water surface area) may be substituted.

また、空撮画像から水面の波立ちを評価する場合、単に画像の輝度を評価するだけでは水質や底質、太陽光の反射の影響を受けるため波立ち状況が分からないが、本実施の形態では、3バンド(RGB)の平均により単バンド化した水部の画像を高周波数/低周波成分に分離する。   In addition, when evaluating the ripples on the water surface from an aerial image, the wave condition is not known simply by evaluating the brightness of the image because it is affected by water quality, bottom sediment, and reflection of sunlight, but in this embodiment, The image of the water part that has been converted into a single band by averaging three bands (RGB) is separated into high frequency / low frequency components.

前者に対して移動窓により分散値の分布を計算することで、画像の高周波成分に反映された波立ち状況のみを抽出し、相対区分できるようにしている(低周波/高周波の分離をえないと、波立ち以外による輝度情報の変化を拾ってしまう)。この処理フローが図18である。   By calculating the distribution of the dispersion value using the moving window, it is possible to extract only the ripples reflected in the high-frequency components of the image and to perform relative classification (if low-frequency / high-frequency separation must be obtained). , Picking up changes in luminance information due to other than waves). This processing flow is shown in FIG.

瀬淵分類化部14は、河面エリアFcのオルソ画像Piのメッシュを読み込み(S70)、これらの3バンド(RGB)の平均を順次求めてモノクロ画像を得る(S71)、(S72)。そして、モノクロ画像に対してウインドウwiをかけてローカル平均を順次求めて、これらの低周波数成分画像を得る(S74)。   The Seto classification unit 14 reads the mesh of the ortho image Pi in the river surface area Fc (S70), and sequentially obtains the average of these three bands (RGB) to obtain a monochrome image (S71) and (S72). Then, the local average is sequentially obtained by applying the window wi to the monochrome image, and these low frequency component images are obtained (S74).

次に、ステップS71で求めたモノクロ画像からステップS74で求めた低周波数成分画像との差を求めることで(S75)、高周波数成分画像を得る(S76)。つまり、波成分を抽出している。   Next, the difference between the monochrome image obtained in step S71 and the low frequency component image obtained in step S74 is obtained (S75) to obtain a high frequency component image (S76). That is, the wave component is extracted.

次に、この高周波成分画像のローカル標準偏差を求めることで水面の波立ち状況を表す素図画像(粗度画像ともいう)を得る(S78)。そして、この素図画像全体の平均値(μ)と標準偏差値(σ)を算出する(S79)。次に、これらの値を参照して素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る(S80)、(S81)。   Next, by obtaining the local standard deviation of the high-frequency component image, a raw image (also referred to as a roughness image) representing the water surface ripple condition is obtained (S78). Then, an average value (μ) and a standard deviation value (σ) of the whole drawing image are calculated (S79). Next, with reference to these values, the value of each pixel in the drawing is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations ( S80), (S81).

淵瀬画像を得るために、初めに波立ち状況を判別する。図19は波立ち状況判別を説明するフローチャートである。   In order to obtain the Hirose image, first, the wave condition is discriminated. FIG. 19 is a flowchart for explaining the swell state determination.

河面エリアFcとオルソ画像Piとを比較して、河面エリアFcのオルソ画像Pciを読み込む(S71)。次に、このオルソ画像pciのメッシュ位置(画素)Mpi毎に、3バンド(RGB)の平均処理を行い(S72)、河面エリアのモノクロ画像Pmを得る。   The river surface area Fc and the ortho image Pi are compared, and the ortho image Pci of the river surface area Fc is read (S71). Next, average processing of three bands (RGB) is performed for each mesh position (pixel) Mpi of the ortho image pci (S72) to obtain a monochrome image Pm in the river surface area.

次に、河面エリアのモノクロ画像Pmに対して所定の大きさのウィンドウwiをかけ(S73)、このウィンドウ内のメッシュのモノクロ輝度値を平均化(低波周波成分抽出)して(S74)、この結果を順次メモリに記憶する(S75)。これを本実施の形態では河面の低周波成分画像EWiという。   Next, a window wi of a predetermined size is applied to the monochrome image Pm in the river surface area (S73), and the monochrome luminance value of the mesh in this window is averaged (low wave frequency component extraction) (S74). The results are sequentially stored in the memory (S75). In the present embodiment, this is called a river surface low frequency component image EWi.

次に、最後の番号のウインドウwiのモノクロ画像に対して平均化処理を行ったかどうかを判断する(S76)。最後のウインドウのモノクロ画像に対して平均化処理を行っていないと判定したときは、ウインドウwiの位置(i,j)を次の位置に更新して(S77)、処理をステップS73に戻す。   Next, it is determined whether or not the averaging process has been performed on the monochrome image of the last-numbered window wi (S76). When it is determined that the averaging process is not performed on the monochrome image of the last window, the position (i, j) of the window wi is updated to the next position (S77), and the process returns to step S73.

また、ステップS76において、最後のウインドウのモノクロ画像に対して平均化処理を行ったと判定したときは、メッシュ位置Mpiを設定する(S78)。   If it is determined in step S76 that the averaging process has been performed on the monochrome image in the last window, the mesh position Mpi is set (S78).

そして、このメッシュMpiの河面のオルソフォト画像Pcimの輝度値からメッシュMpiの低周波成分画像EWiの輝度値を減算することで、そのメッシュの高周波成分画像を得て(S79)、これをメモリに順次記憶する(S80)。つまり、河面の波立ち部分の画像を得たことになる。   Then, by subtracting the luminance value of the low frequency component image EWi of the mesh Mpi from the luminance value of the orthophoto image Pcim of the river surface of the mesh Mpi, a high frequency component image of the mesh is obtained (S79), and this is stored in the memory. Store sequentially (S80). In other words, an image of the rippling part of the river surface was obtained.

次に図19のフローチャートに示すように、最後のメッシュMpiの波立ち成分を抽出したかどうかを判断する(S81)。ステップS81で最後のメッシュMpiの波立ち成分を抽出していないと判定したときは処理をステップS78に処理を戻す。   Next, as shown in the flowchart of FIG. 19, it is determined whether or not the last wave component of the mesh Mpi has been extracted (S81). If it is determined in step S81 that the last wave component of the mesh Mpi has not been extracted, the process returns to step S78.

また、ステップS81において、最後のメッシュMpiの波立ち成分を抽出したと判断したときは、ステップS80で記憶された波立ち成分画像Qiにウインドウwiをかけて(S83)、ウインドウwi内の各画素の標準偏差(波立ち状況素図画像)を求め(S84)、メモリに記憶(粗度画像RWi)する(S85)。   If it is determined in step S81 that the wave component of the last mesh Mpi has been extracted, the wave component image Qi stored in step S80 is multiplied by the window wi (S83), and the standard of each pixel in the window wi is determined. A deviation (roughness map image) is obtained (S84) and stored in memory (roughness image RWi) (S85).

次に、最後の位置のウインドウの素図画像を求めたかどうかを判断する(S86)。最後のウインドウの素図画像を求めていなときはウインドウの位置を次の位置に更新して処理をステップS83に戻す(S87)。   Next, it is determined whether or not a drawing image of the window at the last position has been obtained (S86). When the drawing image of the last window is not obtained, the window position is updated to the next position, and the process returns to step S83 (S87).

ステップS86において、最後の位置のウインドウの素図画像を求めたと判定したときは、メモリの粗度画像RWiにウインドウwiをかけて(S88)、平均をとって標準偏差を求め(S89)、線形変換する(S90)。素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る。   If it is determined in step S86 that the base image of the window at the last position has been obtained, the roughness image RWi in the memory is multiplied by the window wi (S88), and the standard deviation is obtained by averaging (S89). Conversion is performed (S90). The value of each pixel of the raw map is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations.

次に、最後のウインドウwiの波立ち状況QRiを得たかどうかを判断する(S91)。ステップS91において最後ではないと判断したときはウインドウの位置を次の位置に更新して処理をステップS89に戻す。   Next, it is determined whether or not the wave condition QRi of the last window wi has been obtained (S91). If it is determined in step S91 that it is not the last, the window position is updated to the next position, and the process returns to step S89.

次に、瀬、淵画分類図QRiの色分別処理について図21、図22,図23を用いて説明する。   Next, the color separation processing of the Se and Hanga classification chart QRi will be described with reference to FIGS. 21, 22, and 23. FIG.

図21に示すように、河面のオルソ画像Pciのメッシュ位置Mpiを設定する(S100)。次に、メッシュMpiの波立ち成分画像Qiの輝度ehを読み込み(S101)、このehと波立ち閾値Niとを比較する(S102)。   As shown in FIG. 21, the mesh position Mpi of the orthoimage Pci of the river surface is set (S100). Next, the luminance eh of the ripple component image Qi of the mesh Mpi is read (S101), and this eh is compared with the ripple threshold Ni (S102).

ステップS102において、ehが波立ち高いとした閾値naより大きい場合は、波立ち有りの識別を波立ち分布図用メモリ(河面エリアの座標系と同じくされて瀬・淵の算出指示時に生成されている)に定義して(S103)、後述するステップS107に処理を移す。   In step S102, if eh is larger than the threshold value na, which indicates that the ripple is high, the presence of the ripple is identified in the ripple distribution map memory (same as the coordinate system of the river surface area, which is generated at the time of instructing the calculation of the stream / soil). After defining (S103), the process proceeds to step S107 described later.

また、ステップS102において、ehがna以下と判定したときは、nb<eh<naかどうかを判定する(S104)。   If it is determined in step S102 that eh is less than or equal to na, it is determined whether or not nb <eh <na (S104).

ステップS104において、ehがnb<eh<naと判定したときは、そのメッシュに対応する位置の波立ち分布図用メモリの領域に中くらいの波立ち識別コードを定義する(S105)。   If it is determined in step S104 that eh is nb <eh <na, a medium wave identification code is defined in the area of the wave distribution map memory at the position corresponding to the mesh (S105).

また、ステップS104において、ehがnb<eh<naではないと判定したときは、そのメッシュに対応する位置の波立ち分布図用メモリの領域に波立ち無しの識別コードを定義する(S106)。   If it is determined in step S104 that eh is not nb <eh <na, an identification code for no ripple is defined in the area of the ripple distribution memory at a position corresponding to the mesh (S106).

ステップS107においては、最後のメッシュMpiまで識別したかどうかを判断し、(S107)、識別していないと判定したときはメッシュMpiを更新して処理をステップ100に戻す(S108)。   In step S107, it is determined whether or not the last mesh Mpi has been identified (S107). If it is determined that identification has not been performed, the mesh Mpi is updated and the process returns to step 100 (S108).

次に、図22に示すように、レーザデータに基づいて生成されている河面の標高データ(DEM)に対してメッシュ番号Mpiを設定する(S110)。   Next, as shown in FIG. 22, the mesh number Mpi is set for the elevation data (DEM) of the river surface generated based on the laser data (S110).

次に、河面の標高データ(DEM)からメッシュMpiのレーザデータZiを読み込む(S111)。   Next, the laser data Zi of the mesh Mpi is read from the elevation data (DEM) of the river surface (S111).

次に、流れ方向に基づいて、河面の標高データ(DEM)から次のメッシュ位置のレーザデータのz値を読み込み読み込み(S112)、両方の差を求め、これを水面勾配KGiとする(S113)。   Next, based on the flow direction, the z value of the laser data at the next mesh position is read from the elevation data (DEM) of the river surface (S112), the difference between the two is obtained, and this is used as the water surface gradient KGi (S113). .

そして、この水面勾配KGiと閾値Liとを比較する(S114)。KGiが閾値Li以上と判定したときは、水面勾配図メモリ(河面エリアに対応している:瀬淵処理時に作成)のEPiに急勾配の識別コードを割り付け(S115)、後述するステップS117に処理を移す。   Then, the water surface gradient KGi is compared with the threshold value Li (S114). When it is determined that KGi is equal to or greater than the threshold value Li, a steep slope identification code is assigned to EPi in the water surface gradient map memory (corresponding to the river surface area: created at the time of Seto processing) (S115), and processing is performed in step S117 described later Move.

また、ステップS114において、KGiがLi以下と判定したときは、水面勾配図メモリEpiに急勾配ではないとするメッシュを割り付ける(S118)。   If it is determined in step S114 that KGi is equal to or smaller than Li, a mesh that is not steep is assigned to the water surface gradient map Epi (S118).

そして、最後のメッシュMPiに割付を行ったかどうかを判定し、割付を行っていないときはメッシュ位置を更新して処理をステップS110に戻す。   Then, it is determined whether or not the last mesh MPi has been assigned. If no assignment has been made, the mesh position is updated, and the process returns to step S110.

次に図23に示すように、オルソ画像に基づいて生成した波立ち成分画像Qi(波立ち成分情報用メモリ)のメッシュeiと、レーザデータに基づいて生成した水面勾配図Si(水面勾配図用メモリ)のメッシュepiとを設定する(S121)。   Next, as shown in FIG. 23, the mesh ei of the wave component image Qi (wave component information memory) generated based on the ortho image, and the water surface gradient map Si (water surface gradient memory) generated based on the laser data The mesh epi is set (S121).

次に、メッシュepi、eiに割り付けられている識別コードを読み込む(S122)。そして、メッシュeiには波立ち有りの識別があり、epiには急勾配の識別があるかどうかを判定する(S123)。   Next, the identification code assigned to the meshes epi and ei is read (S122). Then, it is determined whether or not the mesh ei has a ripple and the epi has a steep slope (S123).

ステップS123において、eiは波立ちありでepiには急として識別が割り付けられている場合は、早瀬と判別する(S124)。   If it is determined in step S123 that ei is rippled and identification is assigned to epi as abrupt, it is determined as Hayase (S124).

次に、ei又はeipに対応する位置の瀬・淵図用メモリ(瀬、淵画像生成の指示に伴って生成されている)の領域に早瀬の識別を割り付け(S125)、ステップS126に処理を移す。   Next, Hayase's identification is assigned to the area of the memory for the map and map at the position corresponding to ei or eip (generated in response to the command to generate the map image) (S125), and the process proceeds to step S126. Transfer.

また、ステップS123において、eiには波立ちあり、epiには急の識別がないと判定したときは、波立ちありで、epiに急ではない識別が割り付けられていないかどうかを判定する(S128)。   If it is determined in step S123 that ei has a wave and epi does not have an abrupt identification, it is determined whether an identification that is waved and epi is not abrupt is assigned (S128).

ステップS128において、波立ちあり、急ではないとしているときは、瀬淵図用メモリに平瀬の識別を割り付ける(S129)。   If it is determined in step S128 that there is a wave and it is not abrupt, Hirase's identification is assigned to the memory for the map (S129).

また、ステップS128において、波立ちなし、急ではないとしているときは、瀬淵図用メモリに淵の識別を割り付ける(S130)。   If it is determined in step S128 that there is no undulation and it is not abrupt, the identification of the cocoon is assigned to the memory for drawing the map (S130).

また、ステップS126において、瀬淵図用メモリの最後のkeiに判別結果を割り付けたかどうかを判定する(S126)。最後でないときはkeiを更新して処理をステップS121に戻す(S127)。   In step S126, it is determined whether or not a determination result has been assigned to the last kei in the memory for drawing images (S126). If it is not the last time, kei is updated and the process returns to step S121 (S127).

また、ステップS126において最後のkeiに識別結果を割り付けたと判定したときは、この淵瀬図用テーブルを読み出して画面に表示させる(S131)。すなわち、この処理によって図24の瀬淵分類図が得られることになる。   If it is determined in step S126 that an identification result has been assigned to the last kei, this Hirose chart table is read and displayed on the screen (S131). That is to say, the Seto classification diagram of FIG. 24 is obtained by this processing.

図24は特定の区域に写真が割り付けられている場合を示している。つまり、瀬・淵画像の特定区域に写真(動画でもよい)を割り付けてメモリに記憶し、特定区域が選択されたときに、メモリから写真(又は動画)を瀬・瀬分類図と共に表示させる。これによって、図25に示すように、河川の早瀬、平瀬、淵等がどのような状況になっているかが分かるので、河川環境の把握に効果的である。   FIG. 24 shows a case where a photo is assigned to a specific area. In other words, a photo (or a moving image) is allocated to a specific area of the set / 淵 image and stored in the memory, and when the specific area is selected, the photo (or moving image) is displayed together with the set / set classification chart from the memory. As a result, as shown in FIG. 25, it is possible to understand the situation of the rivers such as the rapids, the hills, and the rivers, which is effective in grasping the river environment.

なお、この波立ち状況の分類技術は河川に限らず海岸に適用することで、沿岸域の水深分布を把握することもできる。   In addition, by applying this wave condition classification technique to the coast as well as the river, it is possible to grasp the water depth distribution in the coastal area.

干潮時におけるレーザ計測と組み合わせて、近年各地で問題となっている海岸浸食の把握に適用できる。   In combination with laser measurement at low tide, it can be applied to grasp coastal erosion, which has become a problem in various places in recent years.

<実施の形態2>
(河床材料)
図26は河床材料の分類画像の表示を説明するフローチャートである。河床材料情報作成部は、画像のテクスチャに河床材料の粒径分布が反映されていることを利用して、カラー画像3バンドの平均によりモノクロ化(以下単バンド画像)した砂州部の画像に対して移動窓により分散値を計算することで、河床材料の粒径を相対的に区分する。
<Embodiment 2>
(River bed material)
FIG. 26 is a flowchart for explaining the display of the classification image of the riverbed material. The riverbed material information creation unit takes advantage of the fact that the particle size distribution of the riverbed material is reflected in the texture of the image, and uses the average of the three bands of the color image to produce a monochrome image (hereinafter referred to as a single band image). The particle size of the riverbed material is relatively divided by calculating the dispersion value using the moving window.

さらに、区分された階層毎に代表地点を選定し、現地で粒度組成を確認することにより、広域的な河床材料の粒径分布を明らかにする。   Furthermore, by selecting representative points for each classified hierarchy and confirming the particle size composition on site, the particle size distribution of the riverbed material over a wide area will be clarified.

その祭、瀬淵の処理と同様に、画像を高周波/低周波成分に分離し、前者のみを対象とすることで、微粒径以外の要因(乾湿の違いや樹木の影など)によるテクスチャー変化の影響を低減している。   Similar to the festival and Seto processing, the image is separated into high and low frequency components, and only the former is targeted, resulting in changes in texture due to factors other than fine particle size (such as differences in wet and dry conditions and shadows of trees). Has reduced the impact.

なお、河に限らないで海岸域への適用も可能であり、海浜の粒径分布を把握し、供給元である河川との比較検証を行うようにしてもよい。   In addition, the present invention can be applied not only to rivers but also to coastal areas, and the particle size distribution of the beach may be grasped and compared with the river that is the supply source.

すなわち、河床材料情報作成部41は、裸地エリアのオルソ画像Piを読み込み、3バンドの平均を行い(S131、S132)、単バンド画像(モノクロ画像)を得る(S133)。   That is, the riverbed material information creation unit 41 reads the ortho image Pi of the bare area, performs an average of the three bands (S131, S132), and obtains a single band image (monochrome image) (S133).

次に、この単バンド画像のローカル平均(フィルタサイズ1m)を求め、低周波成分画像を作成する(S135)。   Next, a local average (filter size 1 m) of the single band image is obtained, and a low frequency component image is created (S135).

そして、この単バンド画像と低周波成分画像の差を求め(S136)、高周波成分画像を得る(S137)。   Then, a difference between the single band image and the low frequency component image is obtained (S136), and a high frequency component image is obtained (S137).

次に、この高周波成分画像のローカル標準偏差(フィルタサイズは例えば1m)を求め(S138)、河床材料素図画像を作成する(S139)。次に、素図画像を使用して一定の範囲(例えば[0,μ+σ])を[0,15]に線形変換し(S140、141)、図27に示す河床材料(粒径)画像(μとσは粗度画像の平均と標準偏差)を作成する(S142)。前述の河床材料画像を得るための色分布分けのために瀬、淵で説明した図21、図22と同様な処理によって色値の割付を行っている。   Next, a local standard deviation (filter size is, for example, 1 m) of the high-frequency component image is obtained (S138), and a riverbed material map image is created (S139). Next, a raw image is used to linearly convert a certain range (for example, [0, μ + σ]) to [0, 15] (S140, 141), and the riverbed material (particle size) image (μ) shown in FIG. And [sigma] create a roughness image average and standard deviation (S142). The color values are assigned by the same processing as that shown in FIGS. 21 and 22 described in the above-mentioned steps for setting the color distribution for obtaining the riverbed material image.

通常フィルタを適用すると影や異なる土地被覆間の境界(エッジ)が強調されるが、低周波成分を除去しておくことでこの影響を低減している。   When applying normal filters, shadows and boundaries (edges) between different land covers are emphasized, but this effect is reduced by removing low-frequency components.

このような処理によって図27に示すように砂州の材料の粒径によって色別表示され、この地点に写真がリンク付けされている場合は、図28に示すようにこの場所の写真が表示されることになる。   By such processing, as shown in FIG. 27, the color is displayed according to the particle size of the material of the sand bar, and when the photograph is linked to this point, the photograph of this place is displayed as shown in FIG. It will be.

砂州乾湿図作成部は、河床材料は一律と仮定し、湿潤な砂州ほど明度が低いことを利用して3バンドを平均化して単バンド化した画像の明度により砂州の水分状況を明らかにする。   The sandbar wet-wet plot drawing section assumes that the riverbed material is uniform, and uses the fact that the wetter sandbar has lower lightness, averages the three bands, and clarifies the water status of the sandbar by the brightness of the single band.

このため、図29に示すように、砂州乾湿図作成部42は、裸地のオルソ画像を読み込み(S151)、この画像のRGB(3バンド)を平均化して(S152)、単バンド画像を得る(S153)。次に、砂州の平均、標準偏差を算出し(S154)、線形変形し(S155)、図30に示す砂州水分画像を得る(S155)。素図の各画素の値を一定の範囲(例えば0〜μ+2σ)で均等分割して、波立ち状況を16階調に相対区分した波立ち状況区分図を得る。    For this reason, as shown in FIG. 29, the sandbar wet / dry diagram creation unit 42 reads the ortho image of bare ground (S151), averages RGB (three bands) of this image (S152), and obtains a single band image. (S153). Next, the average and standard deviation of the sand bar are calculated (S154), linearly deformed (S155), and the sand bar moisture image shown in FIG. 30 is obtained (S155). The value of each pixel of the raw map is equally divided within a certain range (for example, 0 to μ + 2σ) to obtain a wave condition division diagram in which the wave condition is relatively divided into 16 gradations.

このような処理を行って得たのが図30の画像である。図30の画像は、砂州エリア以外はオルソフォトを白黒にして合成部がこの砂州のカラー画像と合成して表示させる。   The image shown in FIG. 30 is obtained by performing such processing. In the image shown in FIG. 30, the orthophoto is converted into black and white except for the sandbar area, and is displayed by the compositing unit with the color image of the sandbar.

<実施の形態3>
以上の結果をGISにより複合的に管理解析し、図31に示す項目を流程に沿って単位距離毎に以下に示す指標等を集計するなどして、河川の全体の中で環境の良好な区間や劣化が進んでいる区間を明らかにする。
<Embodiment 3>
The above results are comprehensively managed and analyzed by GIS, and the items shown in Fig. 31 are aggregated for the following indicators for each unit distance along the flow path. Clarify sections where deterioration is progressing.

・河道内に占める河原及び樹林地の割合
・河床材料の代表粒径
・樹林化指数(樹林値面積×樹高)
・水面面積
・樹林化ポテンシャル分布(砂州の比高と粒径分布のオーバーレイ)
・各種生物の生息ポテンシャル分布
なお、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
・ Ratio of riverbanks and forest land in the river channel ・ Representative grain size of riverbed materials ・ Forestation index (forest value area x tree height)
-Water surface area-Forestry potential distribution (overlay of sandbar specific height and particle size distribution)
-Distribution of habitat potential of various organisms The present invention naturally includes various embodiments not described herein. The technical scope of the present invention is determined only by the invention specifying matters according to the scope of claims reasonable from the above description.

航空機によるレーザデータ及びカラー画像を用いた地物環境状況提供システムのハードウエア構成図である。It is a hardware block diagram of the terrestrial environment condition provision system using the laser data and color image by an aircraft. 本発明を説明する概略構成図である。It is a schematic block diagram explaining this invention. 河川の勾配をキャンセルした砂州比高画像の説明図である。It is explanatory drawing of the sand bar specific height image which canceled the gradient of the river. 河の早瀬、淵等が一目で分かる瀬淵画像の説明図である。It is explanatory drawing of the Seto image which understands Hayase of a river, a kite, etc. at a glance. 河床材料画像の説明図である。It is explanatory drawing of a riverbed material image. オルソ画像の説明図である。It is explanatory drawing of an ortho image. 反射強度分布図の説明図である。It is explanatory drawing of a reflection intensity distribution figure. 土地被覆分類図の説明図である。It is explanatory drawing of a land cover classification | category map. 植生高分布図の説明図である。It is explanatory drawing of a vegetation height distribution map. 土地被覆分類図作成部を詳細に説明するフローチャートである。It is a flowchart explaining a land cover classification map creation part in detail. 航空機によるレーザデータの収集及びオルソ画像の取得を説明する説明図である。It is explanatory drawing explaining collection of the laser data by an aircraft, and acquisition of an ortho image. 土地被覆分類図における添付画像を説明する説明図である。It is explanatory drawing explaining the attached image in a land cover classification | category figure. 堤外地マスク(河道エリア)、堤外地裸地(河面エリア)を説明する説明図である。It is explanatory drawing explaining a bank-outside area mask (river channel area) and a bank-outside bare field (river surface area). 水面に対する砂州の比高分布算出の概略を説明するフローチャートである。It is a flowchart explaining the outline of specific height distribution calculation of the sand bar with respect to the water surface. 他の実施形態の水面に対する砂州の比高分布算出を説明するフローチャートである。It is a flowchart explaining the specific height distribution calculation of the sand bar with respect to the water surface of other embodiment. 勾配キャンセル前の段彩図を説明する説明図である。It is explanatory drawing explaining the stage chroma before a gradient cancellation. 水面勾配のキャンセルを説明する説明図である。It is explanatory drawing explaining cancellation of a water surface gradient. 瀬淵画像生成の概略を説明するフローチャートである。It is a flowchart explaining the outline of a Seto image generation. 波立ち状況判別を説明するフローチャートである。It is a flowchart explaining a ripple condition discrimination. 波立ち状況判別を説明するフローチャートである。It is a flowchart explaining a ripple condition discrimination. 瀬、淵画像の色分別処理を説明するフローチャートである。It is a flowchart explaining the color classification process of a stream and a haze image. 瀬、淵画像の色分別処理を説明するフローチャートである。It is a flowchart explaining the color classification process of a stream and a haze image. 瀬、淵画像の色分別処理を説明するフローチャートである。It is a flowchart explaining the color classification process of a stream and a haze image. 瀬淵画像の説明図である。It is explanatory drawing of a Seto image. 瀬淵画像に添付されている写真画像(動画含む)を説明する説明図である。It is explanatory drawing explaining the photographic image (a moving image is included) attached to the Seto image. 河床材料の分類画像の表示を説明するフローチャートである。It is a flowchart explaining the display of the classification image of a riverbed material. 河床材料分類図を説明する説明図である。It is explanatory drawing explaining a riverbed material classification | category figure. 河床材料分類図に添付されている写真画像(動画含む)を説明する説明図である。It is explanatory drawing explaining the photograph image (a moving image is included) attached to the riverbed material classification | category figure. 砂州乾湿図作成部42の処理を説明する説明図である。It is explanatory drawing explaining the process of the sandbar dry / wet map preparation part. 砂州乾湿分類図を説明する説明図である。It is explanatory drawing explaining a sandbar dry / wet classification chart. 実施の形態3の解析画面を説明する説明図である。10 is an explanatory diagram for explaining an analysis screen according to Embodiment 3. FIG. 水面に対して設けるTINを説明する説明図である。It is explanatory drawing explaining TIN provided with respect to a water surface. レーザデータ編集部の詳細構成を説明する構成図である。It is a block diagram explaining the detailed structure of a laser data editing part. 地盤レーザデータ(DEM)と表層レーザデータ(DSM)を説明する説明図である。It is explanatory drawing explaining ground laser data (DEM) and surface layer laser data (DSM). オルソ画像とレーザデータのメッシュ区画の比較図である。It is a comparison figure of the mesh division of an ortho image and laser data.

符号の説明Explanation of symbols

1 中央情報処理装置(CPU部)
2 情報入力部
3 情報出力部
4 第1の記憶部
5 第2の記憶部
10 水土地環境提供部
11 州高分類図作成部
12 河床材料情報作成部
14 瀬淵分類化部
20 河川環境状況図作成部
21 反射強度図作成部
22 土地被覆分類図作成部
23 河道解析エリア作成部
24 合成部
200 レーザデータ編集部
201 レーザデータ分類部
202 標高値データ抽出部
203 反射強度データ抽出部
204 植生高算出部
1 Central information processing device (CPU section)
2 Information input unit 3 Information output unit 4 First storage unit 5 Second storage unit 10 Water and land environment provision unit 11 State high classification map generation unit 12 River bed material information generation unit 14 Seto classification unit 20 River environment situation diagram Creation unit 21 Reflection intensity map creation unit 22 Land cover classification map creation unit 23 River channel analysis area creation unit 24 Composition unit 200 Laser data editing unit 201 Laser data classification unit 202 Elevation value data extraction unit 203 Reflection intensity data extraction unit 204 Vegetation height calculation Part

Claims (14)

航空機によって撮影及び計測した、対象地域のカラーオルソフォト画像及びレーザデータを用いた地物環境状況提供方法において、
前記カラーオルソフォト画像のメッシュの赤(R)、緑(G)、青(B)のうちの任意のバンドの色強度と第1の閾値とを比較し、該メッシュを日向と日影に分類する工程と、
前記日向のメッシュの赤(R)、緑(G)、青(B)の3バンドの色強度それぞれを比較し、前記日向のメッシュを水域、裸地、及び植生地に分類する工程と、
前記日影のメッシュを含む区画の前記レーザデータの表層反射強度と、第2及び第3の閾値とを比較し、前記日影のメッシュを前記水域、前記裸地、及び前記植生地に分類する工程と、
前記カラーオルソフォト画像の全メッシュについて前記の全工程を繰り返し実施して、前記対象地域の土地被覆分類する工程とを行うことを特徴とする地物環境状況提供方法。
In the feature environment situation providing method using the color orthophoto image and laser data of the target area photographed and measured by the aircraft,
The color intensity of an arbitrary band of red (R), green (G), and blue (B) of the mesh of the color orthophoto image is compared with the first threshold value, and the mesh is classified into the sun and the shade. And a process of
Comparing the color intensity of each of the three bands of red (R), green (G), and blue (B) of the Hyuga mesh, and classifying the Hyuga mesh into water, bare land, and vegetation;
The surface layer reflection intensity of the laser data of the section including the shade mesh is compared with the second and third threshold values, and the shade mesh is classified into the water area, the bare land, and the vegetation. Process,
A method for providing a feature environment state, comprising: repeatedly performing all the steps for all meshes of the color orthophoto image, and performing a land cover classification of the target area.
前記レーザデータに含まれる各区画の地盤標高値と表層標高値を読み出し、その差から該区画の植生高を求める工程と、
前記植生地のメッシュを含む区画の前記植生高と第4の閾値と比較し、前記植生地のメッシュを樹木と草地に分類する工程と、
をさらに行ない、
前記対象地域の土地被覆分類を行うことを特徴とする請求項1記載の地物環境状況提供方法。
Reading the ground elevation value and surface elevation value of each section included in the laser data, and obtaining the vegetation height of the section from the difference;
Comparing the vegetation height of the section containing the vegetation mesh with a fourth threshold and classifying the vegetation mesh into trees and grassland;
Further,
The land environment classification method according to claim 1, wherein land cover classification of the target area is performed.
前記水域に分類された全メッシュについて、前記メッシュを含む区画の前記レーザデータの地盤標高値をそれぞれ抽出し、水面勾配区分を作成する工程と、
前記地盤標高値中の任意の3メッシュについて不等三角網を発生させて、複数の水域に挟まれた砂州の基準水面の標高値を算出する工程と、
別途作成される2次元の堤防線上に任意に発生させた点群に、その点の最近傍の前記地盤標高値から標高値を与え、その点の標高値と前記地盤標高値の3メッシュについて不等三角網を発生させて、水域と堤防に挟まれた砂州の基準水面の標高値を算出する工程と、
前記基準水面の標高値と前記地盤標高値の差分を算出し、砂州の比高分布を作成する工程と
をさらに行なうことを特徴とする請求項1または2に記載の地物環境状況提供方法。
For all meshes classified into the water area, extracting the ground elevation value of the laser data of the section including the mesh, respectively, and creating a water surface gradient section;
Generating an inequality triangle network for any 3 mesh in the ground elevation value, and calculating the elevation value of the reference water surface of the sandbar sandwiched between a plurality of water areas;
A point group arbitrarily generated on a two-dimensional dike line created separately is given an altitude value from the ground elevation value nearest to that point, and 3 meshes of the altitude value of the point and the ground elevation value are insignificant. Generating an equilateral triangle net to calculate an elevation value of a reference water surface of a sandbar sandwiched between a water area and a dike;
The feature environment status providing method according to claim 1, further comprising: calculating a difference between the altitude value of the reference water surface and the ground altitude value and creating a specific height distribution of the sand bar.
前記水面勾配区分から任意の区間毎の水面勾配を求める工程と、
前記区間に対応する前記カラーオルソフォト画像の画素値を抽出して、高周波数成分と低周波成分とに分離し、前記水面勾配と該分離結果から水面の波立ち状況を求める工程
とをさらに行なうことを特徴とする請求項3記載の地物環境状況提供方法。
Obtaining a water surface gradient for each arbitrary section from the water surface gradient section;
A step of extracting a pixel value of the color orthophoto image corresponding to the section, separating the pixel value into a high frequency component and a low frequency component, and obtaining a water surface ripple state from the water surface gradient and the separation result. The feature environment situation providing method according to claim 3.
前記砂州に対応する前記カラーオルソフォト画像の画素値を平均化して、低周波成分と高周波成分とに分離し、該高周波成分の標準偏差値によって前記砂州領域の粒径を求める工程をさらに行なうことを特徴とする請求項3または4に記載の地物環境状況提供方法。、   Further performing a step of averaging pixel values of the color orthophoto image corresponding to the sand bar to separate low frequency components and high frequency components, and obtaining a particle size of the sand bar region based on a standard deviation value of the high frequency components. The terrestrial environment situation providing method according to claim 3 or 4, characterized in that: , 前記カラーオルソフォト画像の前記メッシュの分類結果に従って、前記メッシュに任意の色を割り付けて、前記対象地域のカラー土地被覆分類図を作成する工程をさらに行なうことを特徴とする請求項1または2に記載の地物環境状況提供方法。   3. The method according to claim 1, further comprising the step of assigning an arbitrary color to the mesh according to the classification result of the mesh of the color orthophoto image and creating a color land cover classification map of the target area. The feature environment status providing method described. 前記砂州比高分布中の各メッシュの前記差分の値に従って、前記メッシュに任意の色を割り付けて、前記水域のカラー砂州比高分布図を作成する工程をさらに行なうことを特徴とする請求項3記載の地物環境状況提供方法。   4. The method of assigning an arbitrary color to the mesh according to the difference value of each mesh in the sand bar specific height distribution and creating a color sand bar specific height distribution map of the water area is further performed. The feature environment status providing method described. 航空機によって撮影及び計測した、対象地域のカラーオルソフォト画像及びレーザデータを用いた地物環境状況提供プログラムであって、
コンピュータに、
前記カラーオルソフォト画像のメッシュの赤(R)、緑(G)、青(B)のうちの任意のバンドの色強度と第1の閾値とを比較し、該メッシュを日向と日影に分類する手段、
前記日向のメッシュの赤(R)、緑(G)、青(B)の3バンドの色強度それぞれを比較し、前記日向のメッシュを水域、裸地、及び植生地に分類する手段、
前記日影のメッシュを含む区画の前記レーザデータの表層反射強度と、第2及び第3の閾値とを比較し、前記日影のメッシュを前記水域、前記裸地、及び前記植生地に分類する手段
としての機能を、前記カラーオルソフォト画像の全メッシュについて繰り返し実行させ、前記対象地域の土地被覆分類を行なう手段としての機能を実行させることを特徴とする地物環境状況提供プログラム。
A feature environment situation providing program using a color orthophoto image and laser data of a target area photographed and measured by an aircraft,
On the computer,
The color intensity of an arbitrary band of red (R), green (G), and blue (B) of the mesh of the color orthophoto image is compared with the first threshold value, and the mesh is classified into the sun and the shade. Means to
Means for comparing the color intensity of each of the three bands of red (R), green (G), and blue (B) of the Hyuga mesh and classifying the Hyuga mesh into water, bare land, and vegetation;
The surface layer reflection intensity of the laser data of the section including the shade mesh is compared with the second and third threshold values, and the shade mesh is classified into the water area, the bare land, and the vegetation. A feature environment situation providing program that repeatedly executes a function as a means for all meshes of the color orthophoto image and executes a function as a means for performing land cover classification of the target area.
前記コンピュータに、
前記レーザデータに含まれる各区画の地盤標高値と表層標高値を読み出し、その差から該区画の植生高を求める手段、
前記植生地のメッシュを含む区画の前記植生高と第4の閾値と比較し、前記植生地のメッシュを樹木と草地に分類する手段
としての機能をさらに実行させ、前記対象地域の土地被覆分類を行なう手段としての機能を実行させることを特徴とする請求項8記載の地物環境状況提供プログラム。
In the computer,
Means for reading the ground elevation value and the surface elevation value of each section included in the laser data, and obtaining the vegetation height of the section from the difference;
Comparing the vegetation height of the section including the vegetation mesh with a fourth threshold value, further executing a function as a means for classifying the vegetation mesh into trees and grassland, and classifying the land cover classification of the target area 9. The feature environment situation providing program according to claim 8, wherein a function as means for performing is executed.
前記コンピュータに、
前記水域に分類された全メッシュについて、前記メッシュを含む区画の前記レーザデータの地盤標高値をそれぞれ抽出し、水面勾配区分を作成する手段、
前記地盤標高値中の任意の3メッシュについて不等三角網を発生させて、複数の水域に挟まれた砂州の基準水面の標高値を算出する手段、
別途作成される2次元の堤防線上に任意に発生させた点群に、その点の最近傍の前記地盤標高値から標高値を与え、その点の標高値と前記地盤標高値の3メッシュについて不等三角網を発生させて、水域と堤防に挟まれた砂州の基準水面の標高値を算出する手段、
前記基準水面の標高値と前記地盤標高値の差分を算出し、砂州の比高分布を作成する手段
としての機能をさらに実行させることを特徴とする請求項8または9に記載の地物環境状況提供プログラム。
In the computer,
Means for extracting the ground elevation value of the laser data of the section including the mesh for all meshes classified into the water area, and creating a water surface gradient section;
Means for generating an inequality triangular net for any three meshes in the ground elevation value, and calculating an elevation value of a reference water surface of a sand bar sandwiched between a plurality of water areas;
A point group arbitrarily generated on a two-dimensional dike line created separately is given an altitude value from the ground elevation value nearest to that point, and 3 meshes of the altitude value of the point and the ground elevation value are insignificant. Means for generating an equilateral triangle net to calculate the altitude value of the reference water surface of the sandbar sandwiched between the water area and the dike,
The feature environment situation according to claim 8 or 9, further comprising the function of calculating a difference between the elevation value of the reference water surface and the ground elevation value and creating a specific height distribution of a sand bar. Offer program.
前記コンピュータに、
前記水面勾配区分から任意の区間毎の水面勾配を求める手段、
前記区間に対応する前記カラーオルソフォト画像の画素値を抽出して、高周波数成分と低周波成分とに分離し、前記水面勾配と該分離結果から水面の波立ち状況を求める手段
としての機能をさらに実行させることを特徴とする請求項10記載の地物環境状況提供プログラム。
In the computer,
Means for determining a water surface gradient for each arbitrary section from the water surface gradient section;
The pixel value of the color orthophoto image corresponding to the section is extracted, separated into a high-frequency component and a low-frequency component, and a function as means for obtaining a water surface swell state from the water surface gradient and the separation result is further provided. 11. The feature environment situation providing program according to claim 10, wherein the feature environment situation providing program is executed.
前記コンピュータに、
前記砂州に対応する前記カラーオルソフォト画像の画素値を平均化して、低周波成分と高周波成分とに分離し、該高周波成分の標準偏差値によって前記砂州領域の粒径を求める手段としての機能をさらに実行させることを特徴とする請求項10または11に記載の地物環境状況提供プログラム。
In the computer,
The pixel value of the color orthophoto image corresponding to the sand bar is averaged and separated into a low frequency component and a high frequency component, and a function as a means for obtaining a particle size of the sand bar region by a standard deviation value of the high frequency component. 12. The feature environment situation providing program according to claim 10, further comprising executing the program.
前記コンピュータに、
前記カラーオルソフォト画像の前記メッシュの分類結果に従って、前記メッシュに任意の色を割り付けて、前記対象地域のカラー土地被覆分類図を作成する手段としての機能をさらに実行させることを特徴とする請求項8または9に記載の地物環境状況提供プログラム。
In the computer,
The function as a means for assigning an arbitrary color to the mesh according to the mesh classification result of the color orthophoto image and creating a color land cover classification map of the target area is further executed. The feature environment situation providing program according to 8 or 9.
前記コンピュータに、
前記砂州の比高分布中の各メッシュの前記差分の値に従って、前記メッシュに任意の色を割り付けて、前記水域のカラー砂州比高分布図を作成する手段としての機能をさらに実行させることを特徴とする請求項10記載の地物環境状況提供プログラム。
In the computer,
According to the value of the difference of each mesh in the sand bar specific height distribution, an arbitrary color is assigned to the mesh to further execute a function as means for creating a color sand bar specific height distribution map of the water area. The feature environment situation providing program according to claim 10.
JP2005322922A 2005-02-09 2005-11-07 Feature environment status providing method and program thereof Active JP4553826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005322922A JP4553826B2 (en) 2005-02-09 2005-11-07 Feature environment status providing method and program thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005033442 2005-02-09
JP2005322922A JP4553826B2 (en) 2005-02-09 2005-11-07 Feature environment status providing method and program thereof

Publications (2)

Publication Number Publication Date
JP2006252529A true JP2006252529A (en) 2006-09-21
JP4553826B2 JP4553826B2 (en) 2010-09-29

Family

ID=37092897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005322922A Active JP4553826B2 (en) 2005-02-09 2005-11-07 Feature environment status providing method and program thereof

Country Status (1)

Country Link
JP (1) JP4553826B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760294B2 (en) 2007-03-06 2010-07-20 Sony Corporation Liquid crystal device and electronic apparatus
WO2012002482A1 (en) * 2010-06-30 2012-01-05 株式会社パスコ Evaluation device and evaluation method for carbon dioxide absorbing effectiveness
CN103389103A (en) * 2013-07-03 2013-11-13 北京理工大学 Geographical environmental characteristic map construction and navigation method based on data mining
JP2014130404A (en) * 2012-12-28 2014-07-10 Aero Asahi Corp Road surface image generation system, shadow removing apparatus, method and program
JP2015084191A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2015094722A (en) * 2013-11-13 2015-05-18 株式会社パスコ Data analysis device, data analysis method, and program
KR101661708B1 (en) * 2015-05-11 2016-10-04 주식회사 로보멕 System for observing seasons based on images and the method thereof
WO2018173622A1 (en) * 2017-03-23 2018-09-27 日本電気株式会社 Vegetation index calculation device, vegetation index calculation method, and computer readable recording medium
CN109186542A (en) * 2018-10-12 2019-01-11 重庆大学 A kind of automatic sedimentation monitoring system
JPWO2017183546A1 (en) * 2016-04-18 2019-02-21 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2020052606A (en) * 2018-09-26 2020-04-02 中国電力株式会社 Hydraulic power plant development support device
JP6970946B1 (en) * 2021-03-07 2021-11-24 西日本技術開発株式会社 Distribution map creation device, distribution map creation method, and program
WO2024099290A1 (en) * 2022-11-10 2024-05-16 陕西地建土地工程技术研究院有限责任公司 Loess plateau ravine area extraction and calculation method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283012A (en) * 1998-03-31 1999-10-15 Hitachi Software Eng Co Ltd Method for recognizing shadow
JP2000089664A (en) * 1998-09-09 2000-03-31 Taisei Corp Land use planning method
JP2000251052A (en) * 1999-03-01 2000-09-14 Ntt Data Corp Method and device for managing data with remote sensing and recording medium
JP2003156330A (en) * 2001-11-22 2003-05-30 Nec Corp Airborne topography-measuring apparatus and method
JP2004089032A (en) * 2002-08-30 2004-03-25 Masahiro Yoshimoto Method for analyzing resource, system for utilizing resource based on result obtained by the method
JP3515678B2 (en) * 1997-06-30 2004-04-05 朝日航洋株式会社 Measurement system and method and airborne laser measurement device
JP3546349B2 (en) * 1999-02-10 2004-07-28 株式会社宮崎情報処理センター Water surface gradient observation system
JP2005199154A (en) * 2004-01-14 2005-07-28 Oyo Corp Management and monitoring method for waste disposal site

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3515678B2 (en) * 1997-06-30 2004-04-05 朝日航洋株式会社 Measurement system and method and airborne laser measurement device
JPH11283012A (en) * 1998-03-31 1999-10-15 Hitachi Software Eng Co Ltd Method for recognizing shadow
JP2000089664A (en) * 1998-09-09 2000-03-31 Taisei Corp Land use planning method
JP3546349B2 (en) * 1999-02-10 2004-07-28 株式会社宮崎情報処理センター Water surface gradient observation system
JP2000251052A (en) * 1999-03-01 2000-09-14 Ntt Data Corp Method and device for managing data with remote sensing and recording medium
JP2003156330A (en) * 2001-11-22 2003-05-30 Nec Corp Airborne topography-measuring apparatus and method
JP2004089032A (en) * 2002-08-30 2004-03-25 Masahiro Yoshimoto Method for analyzing resource, system for utilizing resource based on result obtained by the method
JP2005199154A (en) * 2004-01-14 2005-07-28 Oyo Corp Management and monitoring method for waste disposal site

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760294B2 (en) 2007-03-06 2010-07-20 Sony Corporation Liquid crystal device and electronic apparatus
WO2012002482A1 (en) * 2010-06-30 2012-01-05 株式会社パスコ Evaluation device and evaluation method for carbon dioxide absorbing effectiveness
JP2012014371A (en) * 2010-06-30 2012-01-19 Pasco Corp Evaluation method of carbon-dioxide absorption effects and evaluation apparatus
CN102713917A (en) * 2010-06-30 2012-10-03 株式会社博思科 Evaluation device and evaluation method for carbon dioxide absorbing effectiveness
JP2014130404A (en) * 2012-12-28 2014-07-10 Aero Asahi Corp Road surface image generation system, shadow removing apparatus, method and program
CN103389103A (en) * 2013-07-03 2013-11-13 北京理工大学 Geographical environmental characteristic map construction and navigation method based on data mining
JP2015084191A (en) * 2013-10-25 2015-04-30 株式会社パスコ Forest physiognomy analyzing apparatus, forest physiognomy analyzing method, and program
JP2015094722A (en) * 2013-11-13 2015-05-18 株式会社パスコ Data analysis device, data analysis method, and program
KR101661708B1 (en) * 2015-05-11 2016-10-04 주식회사 로보멕 System for observing seasons based on images and the method thereof
JPWO2017183546A1 (en) * 2016-04-18 2019-02-21 ソニー株式会社 Information processing apparatus, information processing method, and program
US11348272B2 (en) 2017-03-23 2022-05-31 Nec Corporation Vegetation index calculation apparatus, vegetation index calculation method, and computer readable recording medium
JPWO2018173622A1 (en) * 2017-03-23 2020-05-14 日本電気株式会社 Vegetation index calculation device, vegetation index calculation method, and program
WO2018173622A1 (en) * 2017-03-23 2018-09-27 日本電気株式会社 Vegetation index calculation device, vegetation index calculation method, and computer readable recording medium
JP2020052606A (en) * 2018-09-26 2020-04-02 中国電力株式会社 Hydraulic power plant development support device
JP7119836B2 (en) 2018-09-26 2022-08-17 中国電力株式会社 Hydroelectric power plant development support equipment
CN109186542A (en) * 2018-10-12 2019-01-11 重庆大学 A kind of automatic sedimentation monitoring system
CN109186542B (en) * 2018-10-12 2023-10-17 重庆大学 Automatic sedimentation monitoring system
JP6970946B1 (en) * 2021-03-07 2021-11-24 西日本技術開発株式会社 Distribution map creation device, distribution map creation method, and program
JP2022136348A (en) * 2021-03-07 2022-09-20 西日本技術開発株式会社 Distribution map generation apparatus, distribution map generation method, and program
WO2024099290A1 (en) * 2022-11-10 2024-05-16 陕西地建土地工程技术研究院有限责任公司 Loess plateau ravine area extraction and calculation method

Also Published As

Publication number Publication date
JP4553826B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP4553826B2 (en) Feature environment status providing method and program thereof
Wang et al. Tracking annual changes of coastal tidal flats in China during 1986–2016 through analyses of Landsat images with Google Earth Engine
Lathrop et al. A multi-scale segmentation approach to mapping seagrass habitats using airborne digital camera imagery
Ottinger et al. Monitoring land cover dynamics in the Yellow River Delta from 1995 to 2010 based on Landsat 5 TM
van Puijenbroek et al. Exploring the contributions of vegetation and dune size to early dune development using unmanned aerial vehicle (UAV) imaging
Lenney et al. The status of agricultural lands in Egypt: the use of multitemporal NDVI features derived from Landsat TM
CN109448016A (en) It is a kind of based on object-oriented and its be subordinate to rule remote sensing image tidal saltmarsh method
EP3022686B1 (en) Automatic generation of multi-scale descriptors from overhead imagery through manipulation of alpha-tree data structures
Pan et al. Digital camera based measurement of crop cover for wheat yield prediction
Bagli et al. Morphological automatic extraction of Pan-European coastline from Landsat ETM+ images
CN112052757B (en) Method, device, equipment and storage medium for extracting fire trace information
Varamesh et al. Detection of land use changes in northeastern Iran by Landsat satellite data.
Kennaway et al. Mapping land cover and estimating forest structure using satellite imagery and coarse resolution lidar in the Virgin Islands
Newman et al. Use of object-oriented classification and fragmentation analysis (1985–2008) to identify important areas for conservation in Cockpit Country, Jamaica
Urbański et al. Object-oriented classification of QuickBird data for mapping seagrass spatial structure
Nelson et al. Spatial statistical techniques for aggregating point objects extracted from high spatial resolution remotely sensed imagery
CN115760885B (en) High-closure-degree wetland forest parameter extraction method based on consumer-level unmanned aerial vehicle image
Figorito et al. An object-based method for mapping ephemeral river areas from WorldView-2 satellite data
Levick et al. Structural biodiversity monitoring in savanna ecosystems: Integrating LiDAR and high resolution imagery through object-based image analysis
Li et al. Inventory of mangrove wetlands in the Pearl River Estuary of China using remote sensing
Karydas et al. Fine scale mapping of agricultural landscape features to be used in environmental risk assessment in an olive cultivation area
Edgell Quantifying dune ecomorphodynamics using UAV-based structure from motion photogrammetry
Zhan et al. Daily topographic change patterns of tidal flats in response to anthropogenic activities: Analysis through coastal video imagery
Ali et al. Monitoring vegetation areas by using remote sensing techniques
Urbański The extraction of coastline using OBIA and GIS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4553826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250