JP2013238540A - Observation method and observation system - Google Patents

Observation method and observation system Download PDF

Info

Publication number
JP2013238540A
JP2013238540A JP2012112808A JP2012112808A JP2013238540A JP 2013238540 A JP2013238540 A JP 2013238540A JP 2012112808 A JP2012112808 A JP 2012112808A JP 2012112808 A JP2012112808 A JP 2012112808A JP 2013238540 A JP2013238540 A JP 2013238540A
Authority
JP
Japan
Prior art keywords
observation
image
boundary
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012112808A
Other languages
Japanese (ja)
Inventor
Sumiya Okada
澄哉 岡田
Yoshikuni Fujioka
芳邦 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
METEOROL ENGINEERING CT
METEOROLOGICAL ENGINEERING CENTER
Original Assignee
METEOROL ENGINEERING CT
METEOROLOGICAL ENGINEERING CENTER
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by METEOROL ENGINEERING CT, METEOROLOGICAL ENGINEERING CENTER filed Critical METEOROL ENGINEERING CT
Priority to JP2012112808A priority Critical patent/JP2013238540A/en
Publication of JP2013238540A publication Critical patent/JP2013238540A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Abstract

PROBLEM TO BE SOLVED: To provide an observation method and an observation system capable of accurately capturing the real position change of the boundary of an observation object for a long time.SOLUTION: Reference images imaging an observation object 100 and a still object 102 are obtained, the regions of the observation object 100 and the still object 102 are specified, and a reference ratio between the area of the observation object 100 in a y direction and the area of the still object 102 in the y direction is calculated. After the passage of predetermined time from the acquisition of the reference images, observation images imaging the boundary position of the observation object 100 and the still object 102 are obtained, the regions of the observation object 100 and the still object 102 are specified. An observation ratio between the area of the observation object 100 in the y direction and the area of the still object 102 in the y direction is calculated. From the change of the observation ratio with respect to the reference ratio, the real position change of the boundary of the observation object 100 is observed.

Description

本発明は、観測対象物の境界の実際の位置変化を観測する観測方法及び観測システムに関する。   The present invention relates to an observation method and an observation system for observing an actual position change of a boundary of an observation object.

自然界に存在する水、雪、土砂、雲等の観測対象物は、時間経過とともに位置や大きさ等の状態が変わる。このため、観測対象物の境界の位置変化を観測すれば、河川の氾濫や、雪崩や積雪、土砂災害、天気等を予測することができる。例えば、水の境界(水面)の位置変化を観測するものとして、河川の水位を計測できる方法が提案されている(特許文献1)。特許文献1の水位計測方法は、水面に垂直となるように量水板を河川中へ設置し、この量水板の画像を取り込む。そして、画像の濃度差によって、量水板と水面とを分離して、水面位置を認識するものである。   Observed objects such as water, snow, earth and sand, and clouds that exist in nature change their position and size over time. For this reason, if the change in the position of the boundary of the observation object is observed, it is possible to predict river inundation, avalanches, snow cover, landslide disasters, weather, and the like. For example, as a method for observing a change in the position of a water boundary (water surface), a method capable of measuring the water level of a river has been proposed (Patent Document 1). In the water level measurement method of Patent Document 1, a metered water plate is installed in a river so as to be perpendicular to the water surface, and an image of the metered water plate is captured. Then, the water level and the water surface are separated by the difference in image density, and the water surface position is recognized.

また、計測手段として、特許文献1に記載された量水板以外にも、水上にフロートを設置して、その上下運動を観測するフロート式や、水中に水圧センサを設けて、水の水圧を測定する方式もある。   In addition to the quantity water plate described in Patent Document 1, as a measuring means, a float is installed on the water and the vertical movement is observed, or a water pressure sensor is provided in the water to control the water pressure of the water. There is also a method to measure.

河川の水位を計測すると、河床あるいは河川ポイント(基準となる位置)から、水かさがどの程度であるかを算出することができる。この値と川の断面積とから、1秒間に流れる水量が何トン程度であるかがわかる。これにより、水位の計測位置から河口に対して何分後にどの程度の水量の水が到達するかが予測でき、堤防、護岸等が危険であるか、安全であるかを判断していた。   If the water level of a river is measured, it is possible to calculate how much water is from the river bed or river point (reference position). From this value and the cross-sectional area of the river, you can see how many tons of water flows per second. As a result, it was possible to predict how much water would reach the estuary from the water level measurement position, and to determine whether the levee and revetment were dangerous or safe.

特開平8−145765号公報JP-A-8-145765

前記特許文献1に記載された観測方法は、観測対象物中の、ある1箇所(1ポイント)を観測するものであり、環境変化を立体的に捉えることができない。しかしながら、自然界に発生する現象を予測しようとすると、観測対象物の1箇所の境界の位置変化を観測するだけでは十分ではない。例えば、同程度の水位変化であっても、川幅が狭い場所と広い場所とでは河川の氾濫の程度、氾濫するまでの時間予測が異なるように、周囲の環境や、境界の時間あたりの変化率等により、その後の変化予測は異なる。   The observation method described in Patent Document 1 observes a certain place (one point) in an observation target, and cannot capture an environmental change three-dimensionally. However, in order to predict a phenomenon occurring in the natural world, it is not sufficient to observe a change in the position of one boundary of the observation object. For example, even if the water level changes to the same extent, the rate of change of the surrounding environment and the boundary per hour is different so that the degree of river flooding and the time prediction until flooding differ between narrow and wide rivers. Etc., the subsequent change prediction is different.

また、特許文献1に記載された方法は、計測手段を観測対象物である水の中に設置するものである。このため、特許文献1の方法では、実際に河川の氾濫や、雪崩、土砂災害が発生すると、計測手段が流される等して観測不能となるおそれがある。   Moreover, the method described in patent document 1 installs a measurement means in the water which is an observation object. For this reason, in the method of patent document 1, when a river overflow, an avalanche, or a landslide disaster actually occurs, there exists a possibility that a measurement means may be washed away and it becomes impossible to observe.

そこで、本発明は、上記事情に鑑み、観測対象物の境界の実際の位置変化を正確に捉えることができ、長期にわたって安定した観測ができる観測方法及び観測システムを提供する。   Therefore, in view of the above circumstances, the present invention provides an observation method and an observation system that can accurately grasp an actual position change of the boundary of an observation target and can perform stable observation over a long period of time.

本発明の観測方法は、観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得し、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出することにより、観測対象物の境界の実際の位置変化を観測する観測方法であって、前記観測対象物の境界及び静止物体を撮像した基準画像を取得し、前記基準画像を色毎に複数の領域に分割して、前記基準画像における観測対象物及び静止物体の領域を特定し、前記基準画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との基準比率を算出し、前記基準画像を取得したときから所定時間経過後に、前記観測対象物の境界及び静止物体を撮像した観測画像を取得し、前記観測画像を色毎に複数の領域に分割して、前記観測画像における観測対象物及び静止物体の領域を特定し、前記観測画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との観測比率を算出し、前記基準比率に対する前記観測比率の変化を算出することにより、観測対象物の境界の実際の位置変化を観測するものである。   The observation method of the present invention acquires an image obtained by capturing a stationary object having a color different from the boundary of the observation target and the observation target, and in this image, the direction in which the position of the boundary of the observation target is displaced is the y direction, An observation method for observing an actual position change of a boundary of an observation object by calculating a displacement in the y direction of the boundary with a direction orthogonal to the y direction as an x direction, the boundary between the observation object and the stationary A reference image obtained by imaging an object is acquired, the reference image is divided into a plurality of regions for each color, and an observation target object and a stationary object region are specified in the reference image. The region and the region of the stationary object are divided at equal intervals in the x direction, and for each divided range, a reference ratio between the area in the y direction of the observation object and the area in the y direction of the stationary object is calculated, and the reference I got the image After a predetermined time has elapsed, an observation image obtained by capturing the boundary of the observation object and a stationary object is acquired, and the observation image is divided into a plurality of regions for each color, and the observation object and the stationary object in the observation image are divided. An area is specified, and in the observation image, the area of the observation object and the area of the stationary object are divided at equal intervals in the x direction, and for each divided area, the area of the observation object in the y direction, The actual position change of the boundary of the observation object is observed by calculating the observation ratio with the area in the y direction and calculating the change of the observation ratio with respect to the reference ratio.

本発明の観測方法によれば、基準画像における基準比率と、この基準画像が撮影された後に撮影された観測画像における観測比率の変化から、撮影した観測対象物の境界位置が、基準画像の撮影時から全体的にどのように変化したのかを立体的に観測することができる。すなわち、観測対象物の特定の箇所の境界の位置変化を観測するものではなく、撮影された全範囲において、観測対象物の境界の位置変化を全体的に観測することができる。また、観測対象物の境界が撮影できる位置、つまり、観測対象物から離れた位置に機器を設置でき、観測対象物中に設置する必要がなくなる。   According to the observation method of the present invention, from the reference ratio in the reference image and the change in the observation ratio in the observation image taken after the reference image is taken, the boundary position of the photographed observation object is taken as the reference image. It is possible to observe in three dimensions how it has changed from time to time. That is, the change in the position of the boundary of the observation target is not observed, but the change in the position of the boundary of the observation target can be observed as a whole in the entire captured range. In addition, the device can be installed at a position where the boundary of the observation object can be photographed, that is, at a position away from the observation object, and it is not necessary to install it in the observation object.

前記構成において、前記画像の観測対象物の領域及び静止物体の領域をx方向に1画素毎に分割することができる。これにより、分割した範囲(Δx)のy方向における面積は、Δxにおけるy方向の画素数とでき、容易に面積を算出することができる。   In the above configuration, the observation object region and the stationary object region of the image can be divided pixel by pixel in the x direction. Thereby, the area in the y direction of the divided range (Δx) can be the number of pixels in the y direction in Δx, and the area can be easily calculated.

前記構成において、前記観測画像を所定時間毎に取得することができる。   The said structure WHEREIN: The said observation image can be acquired for every predetermined time.

前記構成において、前記観測対象物は、水、雪、土砂、雲のいずれかからなり、自然環境の変化を観測するものとできる。   In the above-described configuration, the observation object may be one of water, snow, earth and sand, and clouds, and observe changes in the natural environment.

本発明の観測システムは、観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得する撮像手段と、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出する画像処理手段とを備え、観測対象物の境界の実際の位置変化を観測する観測システムであって、前記画像処理手段は、前記撮像手段にて撮像した画像を取り込む画像取込部と、撮像した画像において、前記観測対象物の色及び静止物体の色を予め記憶する記憶部と、前記画像を色毎に複数の領域に分割する領域分割部と、前記画像における観測対象物及び静止物体の領域を特定し、画像の観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との比率を算出する演算部と、前記比率の変化から、観測対象物の境界の実際の位置変化を解析する解析部とを備えたものである。   The observation system of the present invention includes an imaging unit that acquires an image of a stationary object having a color different from the boundary of the observation target and the observation target, and a direction in which the position of the boundary of the observation target is displaced in this image. an observation system for observing an actual position change of a boundary of an observation object, comprising: an image processing means for calculating a displacement in a y direction of a boundary, wherein a direction orthogonal to the y direction is defined as an x direction. The image processing unit includes an image capturing unit that captures an image captured by the imaging unit, a storage unit that stores in advance the color of the observation object and the color of the stationary object in the captured image, and the image for each color. A region dividing unit that divides the image into a plurality of regions, and the region of the observation object and the stationary object in the image are identified, and the region of the observation object and the region of the stationary object in the image are divided at equal intervals in the x direction, For each divided range A calculation unit that calculates a ratio between the area in the y direction of the observation object and the area in the y direction of the stationary object, and an analysis unit that analyzes the actual position change of the boundary of the observation object from the change in the ratio. It is provided.

本発明の観測方法及び観測システムは、観測対象物の状態の変化を立体的に観測することができるため、人の目視による観測と同様の観測ができて、観測対象物の境界の位置変化を正確に捉えることができる。これにより、自然界に発生する現象を正確に予測することができる。また、観測対象物から離れた位置に機器を設置でき、観測対象物中には設置する必要がなくなるため、観測対象物の状態が急激に変化しても機器の流出等を防止することができ、長期にわたって安定した観測が可能となる。また、人が観測対象物に近づく必要もなくなり、遠方からの観測が可能となるため、安全なものとなり、設置が容易であるとの利点もある。   Since the observation method and the observation system of the present invention can three-dimensionally observe the change in the state of the observation object, the observation can be performed in the same manner as the observation by human eyes, and the change in the position of the boundary of the observation object can be detected. It can be accurately captured. As a result, a phenomenon occurring in the natural world can be accurately predicted. In addition, since the equipment can be installed at a position away from the observation object and it is not necessary to install it in the observation object, the outflow of the equipment can be prevented even if the state of the observation object changes suddenly. , Stable observation over a long period of time becomes possible. Further, since it is not necessary for a person to approach the observation object and observation from a distant place is possible, there is an advantage that it is safe and easy to install.

本発明の観測システムのブロック図である。It is a block diagram of the observation system of the present invention. 本発明の観測システムを、河川近傍に設置した状態を示す図である。It is a figure which shows the state which installed the observation system of this invention in the river vicinity. 本発明の観測システムを構成する撮像手段により撮影した水及び護岸の画像であり、(a)は時刻t0における基準画像であり、(b)は時刻t1における観測画像である。It is the image of the water and revetment which were image | photographed with the imaging means which comprises the observation system of this invention, (a) is a reference | standard image in the time t0, (b) is the observation image in the time t1. 本発明の観測方法により水面位置を観測する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure which observes a water surface position with the observation method of this invention. 図3の画像を解析する画像であり、(a)は時刻t0における基準画像であり、(b)は時刻t1における観測画像である。3 is an image for analyzing the image of FIG. 3, (a) is a reference image at time t0, and (b) is an observation image at time t1.

以下、本発明を実施するための最良の形態について説明する。   Hereinafter, the best mode for carrying out the present invention will be described.

図1は本発明の観測システムのブロック図であり、図2は本発明の観測システムの設置例を示す図である。本実施形態では、図2に示すように、観測対象物が水100であり、背景の静止物体が護岸102である河川101付近に本発明の観測システムを設置し、水100の境界の位置変化(河川水位)を観測する例について説明する。   FIG. 1 is a block diagram of the observation system of the present invention, and FIG. 2 is a diagram showing an installation example of the observation system of the present invention. In this embodiment, as shown in FIG. 2, the observation system of the present invention is installed near the river 101 where the observation object is water 100 and the background stationary object is the revetment 102, and the position change of the boundary of the water 100 is performed. An example of observing (river water level) will be described.

本発明の観測システムは、図1及び図2に示すように、撮像手段1と、画像処理手段2とを備えている。   As shown in FIGS. 1 and 2, the observation system of the present invention includes an imaging unit 1 and an image processing unit 2.

撮像手段1は公知公用のカメラであり、観測対象物である水100の境界(水位)及び静止物体である護岸102を撮像できるものである。本実施形態では、撮像手段1は赤外線と可視光線との両方で撮像するウェブカメラとしているが、赤外線のみで行うもの、可視光線のみで行うもの等、観測対象物と静止物体との色の差が明確となる画像を撮像できるものであればよい。この撮像手段1は、観測すべき範囲の水位及び護岸102が撮像できる位置であれば、いずれの位置に設置してもよい。このため、水100から離れた位置に設置でき、水中には設置する必要がなくなる。   The imaging means 1 is a publicly known camera that can image the boundary (water level) of the water 100 as an observation object and the seawall 102 as a stationary object. In the present embodiment, the imaging unit 1 is a web camera that captures both infrared rays and visible rays. However, the color difference between the observation object and the stationary object, such as the one that uses only infrared rays or the one that uses only visible rays. Any image can be used as long as it can capture an image in which is clear. The imaging means 1 may be installed at any position as long as the water level in the range to be observed and the revetment 102 can be imaged. For this reason, it can install in the position away from the water 100, and it becomes unnecessary to install in water.

撮像手段1は、水100及び護岸102を撮像する。図3(a)は、基準となる時刻t0において撮影した基準画像であり、初期段階での護岸102に対する水位を示している。図3(b)は、基準画像を取得したとき(時刻t0)から所定時間経過後の時刻t1において撮影した観測画像である。図3(a)、(b)において、ハッチングなしが水100の領域を示し、ハッチングありが護岸102の領域を示す。実際の画像は、水100の領域を示す色(例えば白色)と、護岸102の領域を示す色(例えば黒色)とが異なる色となる。図3(a)において、B0は時刻t0における水位を示し、図3(b)において、B1は時刻t0から所定時間経過した後の時刻t1における水位を示している。撮像手段1は、水位が変位する方向をy方向、y方向と直交する方向をx方向となるように画像を撮像する。本実施形態の場合は、水位B0、B1は上下方向に変位するため、図3(a)、図3(b)に示すように、水位B0、B1が変位する上下方向がy方向となり、水平方向がx方向となるようにして画像を撮像する。   The imaging unit 1 images the water 100 and the revetment 102. FIG. 3A is a reference image taken at the reference time t0 and shows the water level with respect to the revetment 102 in the initial stage. FIG. 3B is an observation image taken at time t1 after a predetermined time has elapsed since the reference image was acquired (time t0). In FIGS. 3A and 3B, no hatching indicates the area of the water 100, and hatching indicates the area of the revetment 102. In the actual image, the color indicating the area of the water 100 (for example, white) and the color indicating the area of the revetment 102 (for example, black) are different colors. 3A, B0 indicates the water level at time t0, and in FIG. 3B, B1 indicates the water level at time t1 after a predetermined time has elapsed from time t0. The imaging means 1 captures an image so that the direction in which the water level is displaced is the y direction and the direction orthogonal to the y direction is the x direction. In the case of the present embodiment, the water levels B0 and B1 are displaced in the vertical direction. Therefore, as shown in FIGS. 3 (a) and 3 (b), the vertical direction in which the water levels B0 and B1 are displaced is the y direction. An image is taken so that the direction is the x direction.

画像処理手段2は、パーソナルコンピュータにて構成されており、図1に示すように、画像取込部3と、記憶部4と、領域分割部5と、補正部6と、演算部7と、解析部8と、表示部9とを備えている。   The image processing means 2 is constituted by a personal computer, and as shown in FIG. 1, an image capturing unit 3, a storage unit 4, a region dividing unit 5, a correcting unit 6, a calculating unit 7, An analysis unit 8 and a display unit 9 are provided.

画像取込部3は、撮像手段1にて撮像した画像をパーソナルコンピュータへ取り込むものである。記憶部4は、撮像した画像において、観測対象物である水100の色(白色)及び静止物体である護岸102の色(黒色)を予め記憶させるものである。領域分割部5は、画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割するものである。補正部6は、観測対象物及び静止物体の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去するものである。   The image capturing unit 3 captures an image captured by the image capturing unit 1 into a personal computer. The storage unit 4 stores in advance the color (white) of the water 100 that is an observation target and the color (black) of the revetment 102 that is a stationary object in the captured image. The area dividing unit 5 is configured to divide the same color area of the image into a plurality of areas for each color. The correction unit 6 removes other colors as noise when the other colors are slightly mixed in the region of the observation object and the stationary object.

演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、画像における水100の領域と、画像における護岸102の領域を特定する。すなわち、分割された領域のうち、白色を水100、黒色を護岸102として特定する。そして、後述するように、画像の水100の領域と護岸102の領域とをx方向に等間隔に分割して、分割した範囲毎に、水101のy方向における面積と、護岸102のy方向における面積との比率を算出する。   The calculation unit 7 acquires information on the color indicating the area of the water 100 (white) and the color indicating the area of the revetment 102 (black) from the storage unit 4, and among the areas divided by the area dividing unit 5 The area of the water 100 in the image and the area of the revetment 102 in the image are specified. That is, among the divided areas, white is identified as water 100 and black as revetment 102. Then, as will be described later, the area of the water 100 and the area of the revetment 102 in the image are divided at equal intervals in the x direction, and the area in the y direction of the water 101 and the y direction of the revetment 102 are divided for each divided area. The ratio with the area at is calculated.

解析部8は、演算部7による演算結果から、夫々のx位置において、時間の経過により水101及び護岸102の割合がどのように変化したかを解析する。本実施形態では、解析部8として、蓄積部10、比較部11、及び換算部12を備えている。蓄積部10は、演算部7により求めた比率のデータを蓄積するものである。比較部11は、蓄積部10に蓄積された比率のデータを比較するものである。換算部12は、比率と、護岸102の実際の高さから水面の高さ位置を求めるものである。これにより、x方向の夫々の位置において、水面の高さ位置がどのように変化するかを解析することができる。   The analysis unit 8 analyzes how the ratio of the water 101 and the revetment 102 has changed with the passage of time from the calculation result of the calculation unit 7 at each x position. In the present embodiment, the analysis unit 8 includes an accumulation unit 10, a comparison unit 11, and a conversion unit 12. The accumulating unit 10 accumulates the ratio data obtained by the calculating unit 7. The comparison unit 11 compares the ratio data accumulated in the accumulation unit 10. The conversion unit 12 obtains the height position of the water surface from the ratio and the actual height of the revetment 102. Thereby, it is possible to analyze how the height position of the water surface changes at each position in the x direction.

表示部9は、解析部8による解析結果を表示するディスプレイである。   The display unit 9 is a display that displays an analysis result obtained by the analysis unit 8.

次に、図4のフローチャートを用いて、本発明の観測システムにより観測対象物の境界の実際の位置変化を観測する方法について説明する。この場合も、観測対象物が水100であり、背景の静止物体が護岸102である河川101付近に本発明の観測システムを設置し、水100の境界位置の変位(河川水位)を観測する例について説明する。   Next, a method for observing the actual position change of the boundary of the observation object by the observation system of the present invention will be described using the flowchart of FIG. Also in this case, the observation system of the present invention is installed in the vicinity of the river 101 where the observation object is the water 100 and the background stationary object is the revetment 102, and the displacement of the boundary position of the water 100 (river water level) is observed. Will be described.

まず、画像処理手段2の記憶部4に、撮像手段1にて撮像した画像において、水100の領域を示す色(例えば白色)及び護岸102の領域を示す色(例えば黒色)を予め記憶させる(ステップS1)。次に、基準となる時刻t0において、撮像手段1が水100の境界(水面)及び護岸102を撮像し、例えば図3(a)に示すような基準画像を取得する(ステップS2)。この基準画像を画像取込部3にて画像処理手段2に取り込む。   First, the storage unit 4 of the image processing unit 2 stores in advance the color (for example, white) indicating the region of the water 100 and the color (for example, black) indicating the region of the revetment 102 in the image captured by the imaging unit 1 ( Step S1). Next, at time t0 as a reference, the imaging means 1 images the boundary (water surface) of the water 100 and the revetment 102, and acquires a reference image as shown in FIG. 3A, for example (step S2). The reference image is captured in the image processing means 2 by the image capturing unit 3.

領域分割部5は、基準画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割する。そして、演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、基準画像における水100の領域と、基準画像における護岸102の領域を特定する(ステップS3)。具体的には、水101の領域は、基準画像で白色となる図3(a)のa、b、c、dで囲まれた範囲であり、護岸102の領域は基準画像で黒色となる図3(a)のc、d、m、lで囲まれた範囲であると特定する。このとき、補正部6は、水100及び護岸102の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去する。   The area dividing unit 5 sets the same color area of the reference image as one area, and divides it into a plurality of areas for each color. Then, the calculation unit 7 acquires information on the color (white) indicating the region of the water 100 and the color (black) indicating the region of the revetment 102 from the storage unit 4, and the region divided by the region dividing unit 5 Among these, the region of the water 100 in the reference image and the region of the revetment 102 in the reference image are specified (step S3). Specifically, the area of the water 101 is a range surrounded by a, b, c, and d in FIG. 3A that is white in the reference image, and the area of the revetment 102 is black in the reference image. 3 (a) is specified as a range surrounded by c, d, m, and l. At this time, the correction unit 6 removes other colors as noise when the other colors are slightly mixed in the area of the water 100 and the revetment 102.

演算部7は、図5(a)に示すように、基準画像の水100の領域と護岸102の領域とをx方向に等間隔(本実施形態では1画素毎)に分割する(ステップS4)。なお、1画素は撮像手段1の解像度によって異なる。本実施形態では、x方向に13等分したものとして説明する。   As shown in FIG. 5A, the calculation unit 7 divides the region of the water 100 and the region of the revetment 102 in the reference image at equal intervals in the x direction (one pixel in the present embodiment) (step S4). . One pixel differs depending on the resolution of the imaging means 1. In the present embodiment, the description will be made assuming that it is divided into 13 equal parts in the x direction.

そして、x方向に分割した範囲毎に、水101の領域のy方向における面積S0―1〜S0−13と、護岸102の領域のy方向における面積T0−1〜T0−13とを求め、夫々の面積の基準比率(S0−1)/(T0−1)、(S0−2)/(T0−2)、・・・(S0−13)/(T0−13)を算出する(ステップS5)。この場合、Δxは1画素としているため、Δxのy方向における面積は、Δxにおけるy方向の画素数に相当する。例えば、図5(a)において、g、h、i、jで囲まれた面積S0−8は、gからhの範囲において、画像の下枠から境界B0までのy方向における画素数である。また、i、j、n、oで囲まれた面積T0−8は、gからhの範囲において、境界B0から画像の上枠までのy方向における画素数である。   Then, for each range divided in the x direction, areas S0-1 to S0-13 in the y direction of the area of water 101 and areas T0-1 to T0-13 in the y direction of the area of revetment 102 are obtained, respectively. (S0-1) / (T0-1), (S0-2) / (T0-2),... (S0-13) / (T0-13) are calculated (step S5). . In this case, since Δx is one pixel, the area in the y direction of Δx corresponds to the number of pixels in the y direction in Δx. For example, in FIG. 5A, the area S0-8 surrounded by g, h, i, j is the number of pixels in the y direction from the lower frame of the image to the boundary B0 in the range of g to h. An area T0-8 surrounded by i, j, n, and o is the number of pixels in the y direction from the boundary B0 to the upper frame of the image in the range from g to h.

基準比率(S0−1)/(T0−1)、(S0−2)/(T0−2)、・・・(S0−13)/(T0−13)は、解析部8の蓄積部10に格納される(ステップS6)。   The reference ratios (S0-1) / (T0-1), (S0-2) / (T0-2),... (S0-13) / (T0-13) are stored in the storage unit 10 of the analysis unit 8. Stored (step S6).

次に、基準画像を取得したとき(時刻t0)から所定時間経過後の時刻t1において、前記した方法と同様の方法により、撮像手段1が水100の境界(水面)及び護岸102を撮像し、例えば図3(b)に示すような観測画像を取得する(ステップS7)。この観測画像を画像取込部3にて画像処理手段2に取り込む。   Next, at time t1 after a predetermined time has elapsed since the reference image was acquired (time t0), the imaging means 1 images the boundary (water surface) of the water 100 and the revetment 102 by the same method as described above, For example, an observation image as shown in FIG. 3B is acquired (step S7). The observation image is captured by the image capturing unit 3 in the image processing unit 2.

領域分割部5は、観測画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割する。そして、演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、観測画像における水100の領域と、観測画像における護岸102の領域を特定する(ステップS8)。具体的には、水101の領域は、観測画像で白色となる図3(b)のa、b、e、fで囲まれた範囲であり、護岸102の領域は観測画像で黒色となる図3(b)のe、f、m、lで囲まれた範囲であると特定する。このとき、補正部6は、水100及び護岸102の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去する。   The area dividing unit 5 divides the same color area of the observed image into a plurality of areas for each color. Then, the calculation unit 7 acquires information on the color (white) indicating the region of the water 100 and the color (black) indicating the region of the revetment 102 from the storage unit 4, and the region divided by the region dividing unit 5 Among these, the region of the water 100 in the observation image and the region of the revetment 102 in the observation image are specified (step S8). Specifically, the area of the water 101 is a range surrounded by a, b, e, and f in FIG. 3B that is white in the observation image, and the area of the revetment 102 is black in the observation image. 3 (b) is specified as a range surrounded by e, f, m, and l. At this time, the correction unit 6 removes other colors as noise when the other colors are slightly mixed in the area of the water 100 and the revetment 102.

演算部7は、図5(b)に示すように、観測画像の水100の領域と護岸102の領域とをx方向に等間隔(本実施形態では1画素毎)に分割する(ステップS9)。   As shown in FIG. 5B, the calculation unit 7 divides the area of the water 100 and the area of the revetment 102 in the observation image at equal intervals in the x direction (in this embodiment, for each pixel) (step S9). .

そして、x方向に分割した範囲毎に、水101の領域のy方向における面積S1―1〜S1−13と、護岸102の領域のy方向における面積T1−1〜T1−13とを求め、夫々の面積の観測比率(S1−1)/(T1−1)、(S1−2)/(T1−2)、・・・(S1−13)/(T1−13)を算出する(ステップS10)。この場合も、Δxは1画素としているため、Δxのy方向における面積は、Δxにおけるy方向の画素数に相当する。   Then, for each range divided in the x direction, areas S1-1 to S1-13 in the y direction of the area of the water 101 and areas T1-1 to T1-13 in the y direction of the area of the revetment 102 are obtained, respectively. (S1-1) / (T1-1), (S1-2) / (T1-2),... (S1-13) / (T1-13) are calculated (step S10). . Also in this case, since Δx is one pixel, the area in the y direction of Δx corresponds to the number of pixels in the y direction at Δx.

観測比率(S1−1)/(T1−1)、(S1−2)/(T1−2)、・・・(S1−13)/(T1−13)は、解析部8の蓄積部10に格納される(ステップS11)。   The observation ratios (S1-1) / (T1-1), (S1-2) / (T1-2),... (S1-13) / (T1-13) are stored in the storage unit 10 of the analysis unit 8. Stored (step S11).

その後、解析部8は、蓄積部10に格納された基準比率と観測比率とを抽出し、比較部11にて基準比率と観測比率とを比較して、基準比率に対する観測比率の変化から時刻t1の護岸102に対する水100の割合が、時刻t0からどのように変化しているのかを解析する(ステップS12)。この場合、(S0−1)/(T0−1)と(S1−1)/(T1−1)との比較、(S0−2)/(T0−2)と(S1−2)/(T1−2)との比較、・・・(S0−13)/(T0−13)と(S1−13)/(T1−13)との比較により、夫々のx位置における比率の変化を解析する。本実施形態では、換算部12が、比率から水面の実際の位置を換算する。具体的には、比率に実際の護岸102の高さを乗算することにより、水面位置を換算する。この換算した値は、表示部9により表示される。   Thereafter, the analysis unit 8 extracts the reference ratio and the observation ratio stored in the storage unit 10, compares the reference ratio and the observation ratio in the comparison unit 11, and determines the time t1 from the change in the observation ratio with respect to the reference ratio. It is analyzed how the ratio of water 100 to the revetment 102 has changed since time t0 (step S12). In this case, comparison between (S0-1) / (T0-1) and (S1-1) / (T1-1), (S0-2) / (T0-2) and (S1-2) / (T1 -2),... (S0-13) / (T0-13) and (S1-13) / (T1-13) are compared to analyze the change in the ratio at each x position. In this embodiment, the conversion part 12 converts the actual position of the water surface from the ratio. Specifically, the water surface position is converted by multiplying the ratio by the actual height of the revetment 102. The converted value is displayed on the display unit 9.

本システムを継続する場合は(ステップS13)ステップS6に戻る。次の観測画像を取得する時刻はt2であり、t2で取得した観測画像に基づいてステップS8〜ステップS13を実行する。このように、本システムを継続する場合には、ステップS7〜ステップS13を繰り返し行い、本システムを終了する場合は、パソコンの電源を落とす等して終了する。   When continuing this system (step S13), it returns to step S6. The time to acquire the next observation image is t2, and Steps S8 to S13 are executed based on the observation image acquired at t2. As described above, when the present system is continued, steps S7 to S13 are repeatedly performed, and when the present system is terminated, the personal computer is terminated by turning off the power of the personal computer.

本発明では、水100の状態変化を立体的に観測することができるため、人の目視による観測と同様の観測ができて、水100の境界の位置変化を正確に捉えることができる。これにより、自然界に発生する現象を正確に予測することができる。また、水100から離れた位置に機器を設置でき、水中には設置する必要がなくなるため、水100の状態が急激に変化しても機器の流出等を防止することができ、長期にわたって安定した観測が可能となる。また、人が河川に近づく必要もなくなり、遠方からの観測が可能となるため、安全なものとなり、設置が容易であるとの利点もある。   In the present invention, since the change in the state of the water 100 can be observed in three dimensions, it is possible to observe the same as the observation by human eyes, and the change in the position of the boundary of the water 100 can be accurately captured. As a result, a phenomenon occurring in the natural world can be accurately predicted. In addition, since the device can be installed at a position away from the water 100 and does not need to be installed in the water, even if the state of the water 100 changes suddenly, the outflow of the device can be prevented and stable over a long period of time. Observation becomes possible. In addition, since there is no need for people to approach the river and observation from a distance is possible, there is an advantage that it is safe and easy to install.

以上、本発明の実施形態及び実施例について説明したが、本発明はこれらに限定されることなく種々の変形が可能である。例えば、観測対象物としては、水以外に雪、土砂、雲であってもよい。撮像手段1は連続的に撮像していてもいなくてもよく、断続的に撮像するものであってもよい。撮像手段1は、観測対象物と静止物体との色の差が撮像できるものであれば、種々のものを採用することができる。補正部5や換算部12や表示部9は省略することもできる。   While the embodiments and examples of the present invention have been described above, the present invention is not limited to these and various modifications can be made. For example, the observation target may be snow, earth and sand, or clouds in addition to water. The imaging unit 1 may or may not capture images continuously, or may intermittently capture images. As the imaging unit 1, various devices can be adopted as long as the color difference between the observation object and the stationary object can be imaged. The correction unit 5, the conversion unit 12, and the display unit 9 can be omitted.

1 撮像手段
2 画像処理手段
3 画像取込部
4 記憶部
5 領域分割部
7 演算部
8 解析部
100 水
101 護岸
B0、B1 境界
S、T 面積
DESCRIPTION OF SYMBOLS 1 Imaging means 2 Image processing means 3 Image capture part 4 Storage part 5 Area division part 7 Calculation part 8 Analysis part 100 Water 101 Seawall B0, B1 Boundary S, T Area

Claims (5)

観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得し、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出することにより、観測対象物の境界の実際の位置変化を観測する観測方法であって、
前記観測対象物の境界及び静止物体を撮像した基準画像を取得し、
前記基準画像を色毎に複数の領域に分割して、前記基準画像における観測対象物及び静止物体の領域を特定し、
前記基準画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との基準比率を算出し、
前記基準画像を取得したときから所定時間経過後に、前記観測対象物の境界及び静止物体を撮像した観測画像を取得し、
前記観測画像を色毎に複数の領域に分割して、前記観測画像における観測対象物及び静止物体の領域を特定し、
前記観測画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との観測比率を算出し、
前記基準比率に対する前記観測比率の変化を算出することにより、観測対象物の境界の実際の位置変化を観測することを特徴とする観測方法。
An image obtained by capturing a stationary object having a color different from the boundary of the observation target and the observation target is acquired. In this image, the direction in which the position of the boundary of the observation target is displaced is defined as the y direction, and the direction orthogonal to the y direction is defined. An observation method for observing a change in the actual position of the boundary of an observation object by calculating a displacement in the y direction of the boundary as an x direction,
Obtaining a reference image obtained by imaging the boundary of the observation object and a stationary object;
The reference image is divided into a plurality of regions for each color, and the region of the observation object and the stationary object in the reference image is specified,
In the reference image, the region of the observation object and the region of the stationary object are divided at equal intervals in the x direction, and the area in the y direction of the observation object and the area of the stationary object in the y direction are divided for each divided range. Calculate the standard ratio of
After an elapse of a predetermined time from when the reference image is acquired, an observation image obtained by capturing the boundary of the observation object and a stationary object is acquired,
The observation image is divided into a plurality of regions for each color, and an observation object and a stationary object region in the observation image are specified,
In the observation image, the region of the observation object and the region of the stationary object are divided at equal intervals in the x direction, and the area of the observation object in the y direction and the area of the stationary object in the y direction are divided for each divided range. Calculate the observation ratio of
An observation method characterized by observing an actual position change of a boundary of an observation object by calculating a change in the observation ratio with respect to the reference ratio.
前記画像の観測対象物の領域及び静止物体の領域をx方向に1画素毎に分割することを特徴とする請求項1の観測方法。   The observation method according to claim 1, wherein the observation object region and the stationary object region of the image are divided for each pixel in the x direction. 前記観測画像を所定時間毎に取得することを特徴とする請求項1又は請求項2の観測方法。   The observation method according to claim 1, wherein the observation image is acquired every predetermined time. 前記観測対象物は、水、雪、土砂、雲のいずれかからなることを特徴とする請求項1〜請求項3のいずれか1項の観測方法。   The observation method according to any one of claims 1 to 3, wherein the observation object is made of any one of water, snow, earth and sand, and clouds. 観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得する撮像手段と、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出する画像処理手段とを備え、観測対象物の境界の実際の位置変化を観測する観測システムであって、
前記画像処理手段は、
前記撮像手段にて撮像した画像を取り込む画像取込部と、
撮像した画像において、前記観測対象物の色及び静止物体の色を予め記憶する記憶部と、
前記画像を色毎に複数の領域に分割する領域分割部と、
前記画像における観測対象物及び静止物体の領域を特定し、画像の観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との比率を算出する演算部と、
前記比率の変化から、観測対象物の境界の実際の位置変化を解析する解析部とを備えたことを特徴とする観測システム。
An imaging means for acquiring an image obtained by imaging a stationary object having a color different from the boundary of the observation target and the observation target, and the direction in which the position of the boundary of the observation target is displaced in this image is orthogonal to the y direction An observation system for observing the actual position change of the boundary of the observation object, comprising image processing means for calculating the displacement of the boundary in the y direction, where
The image processing means includes
An image capturing unit that captures an image captured by the imaging unit;
In a captured image, a storage unit that stores in advance the color of the observation object and the color of a stationary object;
An area dividing unit for dividing the image into a plurality of areas for each color;
The region of the observation object and the stationary object in the image is specified, the region of the observation object and the region of the stationary object in the image are divided at equal intervals in the x direction, and the y direction of the observation object is divided for each divided range An arithmetic unit that calculates a ratio of the area in the y direction of the stationary object in the y direction;
An observation system comprising: an analysis unit that analyzes an actual position change of the boundary of the observation object based on the change in the ratio.
JP2012112808A 2012-05-16 2012-05-16 Observation method and observation system Pending JP2013238540A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012112808A JP2013238540A (en) 2012-05-16 2012-05-16 Observation method and observation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012112808A JP2013238540A (en) 2012-05-16 2012-05-16 Observation method and observation system

Publications (1)

Publication Number Publication Date
JP2013238540A true JP2013238540A (en) 2013-11-28

Family

ID=49763688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012112808A Pending JP2013238540A (en) 2012-05-16 2012-05-16 Observation method and observation system

Country Status (1)

Country Link
JP (1) JP2013238540A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767544A (en) * 2021-01-06 2021-05-07 成都理工大学 Spatial case reasoning method for regional landslide risk evaluation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07266014A (en) * 1994-03-31 1995-10-17 Mitsubishi Materials Corp Detection of molten metal surface level
JP2001041803A (en) * 1999-08-04 2001-02-16 Fujitsu Ltd Liquid-level detecting method
JP2009217725A (en) * 2008-03-12 2009-09-24 Nippon Telegr & Teleph Corp <Ntt> Monitoring device and monitoring method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07266014A (en) * 1994-03-31 1995-10-17 Mitsubishi Materials Corp Detection of molten metal surface level
JP2001041803A (en) * 1999-08-04 2001-02-16 Fujitsu Ltd Liquid-level detecting method
JP2009217725A (en) * 2008-03-12 2009-09-24 Nippon Telegr & Teleph Corp <Ntt> Monitoring device and monitoring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767544A (en) * 2021-01-06 2021-05-07 成都理工大学 Spatial case reasoning method for regional landslide risk evaluation
CN112767544B (en) * 2021-01-06 2022-04-01 成都理工大学 Spatial case reasoning method for regional landslide risk evaluation

Similar Documents

Publication Publication Date Title
Palmsten et al. Laboratory investigation of dune erosion using stereo video
Catálan et al. Remote sensing of breaking wave phase speeds with application to non-linear depth inversions
Gilmore et al. Source and magnitude of error in an inexpensive image-based water level measurement system
Rueben et al. Optical measurements of tsunami inundation through an urban waterfront modeled in a large-scale laboratory basin
JP6468439B2 (en) Gas detection image processing apparatus, gas detection image processing method, and gas detection image processing program
KR101053405B1 (en) Structure Deformation Detection System and Method
JP3907200B2 (en) Environmental information observation equipment
Huisman et al. The use of video imagery to analyse groundwater and shoreline dynamics on a dissipative beach
CN203148531U (en) Water level and water quality monitoring terminal based on machine vision
JP2018054540A (en) Visualization device for ground surface displacement in interest area and visualization program of ground surface displacement in interest area
KR101921610B1 (en) Method and Apparatus for Monitoring Objects from Video
Astruc et al. A stereoscopic method for rapid monitoring of the spatio-temporal evolution of the sand-bed elevation in the swash zone
CN111879292B (en) Coastline dynamic monitoring method, coastline dynamic monitoring equipment and storage medium
Li et al. Stereo-imaging LSPIV (SI-LSPIV) for 3D water surface reconstruction and discharge measurement in mountain river flows
KR101284842B1 (en) Apparatus and method for measuring water level
KR101284034B1 (en) A microvibration measuring method using camera image
KR101548077B1 (en) Apparatus and method for measuring image snowfall
KR101640527B1 (en) Method and Apparatus for Monitoring Video for Estimating Size of Single Object
Flores et al. Estimating surfzone wave transformation and wave setup from remote sensing data
JP2013238540A (en) Observation method and observation system
Erikson et al. A method to extract wave tank data using video imagery and its comparison to conventional data collection techniques
JP4108593B2 (en) Inundation monitoring device
JP5901051B2 (en) Displacement detection alarm system
KR101232185B1 (en) Device and method for monitoring water level
KR102421085B1 (en) Water level measurement system using IoT and water level measurement method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160316