JP2013238540A - Observation method and observation system - Google Patents
Observation method and observation system Download PDFInfo
- Publication number
- JP2013238540A JP2013238540A JP2012112808A JP2012112808A JP2013238540A JP 2013238540 A JP2013238540 A JP 2013238540A JP 2012112808 A JP2012112808 A JP 2012112808A JP 2012112808 A JP2012112808 A JP 2012112808A JP 2013238540 A JP2013238540 A JP 2013238540A
- Authority
- JP
- Japan
- Prior art keywords
- observation
- image
- boundary
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Abstract
Description
本発明は、観測対象物の境界の実際の位置変化を観測する観測方法及び観測システムに関する。 The present invention relates to an observation method and an observation system for observing an actual position change of a boundary of an observation object.
自然界に存在する水、雪、土砂、雲等の観測対象物は、時間経過とともに位置や大きさ等の状態が変わる。このため、観測対象物の境界の位置変化を観測すれば、河川の氾濫や、雪崩や積雪、土砂災害、天気等を予測することができる。例えば、水の境界(水面)の位置変化を観測するものとして、河川の水位を計測できる方法が提案されている(特許文献1)。特許文献1の水位計測方法は、水面に垂直となるように量水板を河川中へ設置し、この量水板の画像を取り込む。そして、画像の濃度差によって、量水板と水面とを分離して、水面位置を認識するものである。
Observed objects such as water, snow, earth and sand, and clouds that exist in nature change their position and size over time. For this reason, if the change in the position of the boundary of the observation object is observed, it is possible to predict river inundation, avalanches, snow cover, landslide disasters, weather, and the like. For example, as a method for observing a change in the position of a water boundary (water surface), a method capable of measuring the water level of a river has been proposed (Patent Document 1). In the water level measurement method of
また、計測手段として、特許文献1に記載された量水板以外にも、水上にフロートを設置して、その上下運動を観測するフロート式や、水中に水圧センサを設けて、水の水圧を測定する方式もある。
In addition to the quantity water plate described in
河川の水位を計測すると、河床あるいは河川ポイント(基準となる位置)から、水かさがどの程度であるかを算出することができる。この値と川の断面積とから、1秒間に流れる水量が何トン程度であるかがわかる。これにより、水位の計測位置から河口に対して何分後にどの程度の水量の水が到達するかが予測でき、堤防、護岸等が危険であるか、安全であるかを判断していた。 If the water level of a river is measured, it is possible to calculate how much water is from the river bed or river point (reference position). From this value and the cross-sectional area of the river, you can see how many tons of water flows per second. As a result, it was possible to predict how much water would reach the estuary from the water level measurement position, and to determine whether the levee and revetment were dangerous or safe.
前記特許文献1に記載された観測方法は、観測対象物中の、ある1箇所(1ポイント)を観測するものであり、環境変化を立体的に捉えることができない。しかしながら、自然界に発生する現象を予測しようとすると、観測対象物の1箇所の境界の位置変化を観測するだけでは十分ではない。例えば、同程度の水位変化であっても、川幅が狭い場所と広い場所とでは河川の氾濫の程度、氾濫するまでの時間予測が異なるように、周囲の環境や、境界の時間あたりの変化率等により、その後の変化予測は異なる。
The observation method described in
また、特許文献1に記載された方法は、計測手段を観測対象物である水の中に設置するものである。このため、特許文献1の方法では、実際に河川の氾濫や、雪崩、土砂災害が発生すると、計測手段が流される等して観測不能となるおそれがある。
Moreover, the method described in
そこで、本発明は、上記事情に鑑み、観測対象物の境界の実際の位置変化を正確に捉えることができ、長期にわたって安定した観測ができる観測方法及び観測システムを提供する。 Therefore, in view of the above circumstances, the present invention provides an observation method and an observation system that can accurately grasp an actual position change of the boundary of an observation target and can perform stable observation over a long period of time.
本発明の観測方法は、観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得し、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出することにより、観測対象物の境界の実際の位置変化を観測する観測方法であって、前記観測対象物の境界及び静止物体を撮像した基準画像を取得し、前記基準画像を色毎に複数の領域に分割して、前記基準画像における観測対象物及び静止物体の領域を特定し、前記基準画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との基準比率を算出し、前記基準画像を取得したときから所定時間経過後に、前記観測対象物の境界及び静止物体を撮像した観測画像を取得し、前記観測画像を色毎に複数の領域に分割して、前記観測画像における観測対象物及び静止物体の領域を特定し、前記観測画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との観測比率を算出し、前記基準比率に対する前記観測比率の変化を算出することにより、観測対象物の境界の実際の位置変化を観測するものである。 The observation method of the present invention acquires an image obtained by capturing a stationary object having a color different from the boundary of the observation target and the observation target, and in this image, the direction in which the position of the boundary of the observation target is displaced is the y direction, An observation method for observing an actual position change of a boundary of an observation object by calculating a displacement in the y direction of the boundary with a direction orthogonal to the y direction as an x direction, the boundary between the observation object and the stationary A reference image obtained by imaging an object is acquired, the reference image is divided into a plurality of regions for each color, and an observation target object and a stationary object region are specified in the reference image. The region and the region of the stationary object are divided at equal intervals in the x direction, and for each divided range, a reference ratio between the area in the y direction of the observation object and the area in the y direction of the stationary object is calculated, and the reference I got the image After a predetermined time has elapsed, an observation image obtained by capturing the boundary of the observation object and a stationary object is acquired, and the observation image is divided into a plurality of regions for each color, and the observation object and the stationary object in the observation image are divided. An area is specified, and in the observation image, the area of the observation object and the area of the stationary object are divided at equal intervals in the x direction, and for each divided area, the area of the observation object in the y direction, The actual position change of the boundary of the observation object is observed by calculating the observation ratio with the area in the y direction and calculating the change of the observation ratio with respect to the reference ratio.
本発明の観測方法によれば、基準画像における基準比率と、この基準画像が撮影された後に撮影された観測画像における観測比率の変化から、撮影した観測対象物の境界位置が、基準画像の撮影時から全体的にどのように変化したのかを立体的に観測することができる。すなわち、観測対象物の特定の箇所の境界の位置変化を観測するものではなく、撮影された全範囲において、観測対象物の境界の位置変化を全体的に観測することができる。また、観測対象物の境界が撮影できる位置、つまり、観測対象物から離れた位置に機器を設置でき、観測対象物中に設置する必要がなくなる。 According to the observation method of the present invention, from the reference ratio in the reference image and the change in the observation ratio in the observation image taken after the reference image is taken, the boundary position of the photographed observation object is taken as the reference image. It is possible to observe in three dimensions how it has changed from time to time. That is, the change in the position of the boundary of the observation target is not observed, but the change in the position of the boundary of the observation target can be observed as a whole in the entire captured range. In addition, the device can be installed at a position where the boundary of the observation object can be photographed, that is, at a position away from the observation object, and it is not necessary to install it in the observation object.
前記構成において、前記画像の観測対象物の領域及び静止物体の領域をx方向に1画素毎に分割することができる。これにより、分割した範囲(Δx)のy方向における面積は、Δxにおけるy方向の画素数とでき、容易に面積を算出することができる。 In the above configuration, the observation object region and the stationary object region of the image can be divided pixel by pixel in the x direction. Thereby, the area in the y direction of the divided range (Δx) can be the number of pixels in the y direction in Δx, and the area can be easily calculated.
前記構成において、前記観測画像を所定時間毎に取得することができる。 The said structure WHEREIN: The said observation image can be acquired for every predetermined time.
前記構成において、前記観測対象物は、水、雪、土砂、雲のいずれかからなり、自然環境の変化を観測するものとできる。 In the above-described configuration, the observation object may be one of water, snow, earth and sand, and clouds, and observe changes in the natural environment.
本発明の観測システムは、観測対象物の境界及び観測対象物とは色が異なる静止物体を撮像した画像を取得する撮像手段と、この画像において、観測対象物の境界の位置が変位する方向をy方向、y方向と直交する方向をx方向として、境界のy方向の変位を算出する画像処理手段とを備え、観測対象物の境界の実際の位置変化を観測する観測システムであって、前記画像処理手段は、前記撮像手段にて撮像した画像を取り込む画像取込部と、撮像した画像において、前記観測対象物の色及び静止物体の色を予め記憶する記憶部と、前記画像を色毎に複数の領域に分割する領域分割部と、前記画像における観測対象物及び静止物体の領域を特定し、画像の観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との比率を算出する演算部と、前記比率の変化から、観測対象物の境界の実際の位置変化を解析する解析部とを備えたものである。 The observation system of the present invention includes an imaging unit that acquires an image of a stationary object having a color different from the boundary of the observation target and the observation target, and a direction in which the position of the boundary of the observation target is displaced in this image. an observation system for observing an actual position change of a boundary of an observation object, comprising: an image processing means for calculating a displacement in a y direction of a boundary, wherein a direction orthogonal to the y direction is defined as an x direction. The image processing unit includes an image capturing unit that captures an image captured by the imaging unit, a storage unit that stores in advance the color of the observation object and the color of the stationary object in the captured image, and the image for each color. A region dividing unit that divides the image into a plurality of regions, and the region of the observation object and the stationary object in the image are identified, and the region of the observation object and the region of the stationary object in the image are divided at equal intervals in the x direction, For each divided range A calculation unit that calculates a ratio between the area in the y direction of the observation object and the area in the y direction of the stationary object, and an analysis unit that analyzes the actual position change of the boundary of the observation object from the change in the ratio. It is provided.
本発明の観測方法及び観測システムは、観測対象物の状態の変化を立体的に観測することができるため、人の目視による観測と同様の観測ができて、観測対象物の境界の位置変化を正確に捉えることができる。これにより、自然界に発生する現象を正確に予測することができる。また、観測対象物から離れた位置に機器を設置でき、観測対象物中には設置する必要がなくなるため、観測対象物の状態が急激に変化しても機器の流出等を防止することができ、長期にわたって安定した観測が可能となる。また、人が観測対象物に近づく必要もなくなり、遠方からの観測が可能となるため、安全なものとなり、設置が容易であるとの利点もある。 Since the observation method and the observation system of the present invention can three-dimensionally observe the change in the state of the observation object, the observation can be performed in the same manner as the observation by human eyes, and the change in the position of the boundary of the observation object can be detected. It can be accurately captured. As a result, a phenomenon occurring in the natural world can be accurately predicted. In addition, since the equipment can be installed at a position away from the observation object and it is not necessary to install it in the observation object, the outflow of the equipment can be prevented even if the state of the observation object changes suddenly. , Stable observation over a long period of time becomes possible. Further, since it is not necessary for a person to approach the observation object and observation from a distant place is possible, there is an advantage that it is safe and easy to install.
以下、本発明を実施するための最良の形態について説明する。 Hereinafter, the best mode for carrying out the present invention will be described.
図1は本発明の観測システムのブロック図であり、図2は本発明の観測システムの設置例を示す図である。本実施形態では、図2に示すように、観測対象物が水100であり、背景の静止物体が護岸102である河川101付近に本発明の観測システムを設置し、水100の境界の位置変化(河川水位)を観測する例について説明する。
FIG. 1 is a block diagram of the observation system of the present invention, and FIG. 2 is a diagram showing an installation example of the observation system of the present invention. In this embodiment, as shown in FIG. 2, the observation system of the present invention is installed near the
本発明の観測システムは、図1及び図2に示すように、撮像手段1と、画像処理手段2とを備えている。
As shown in FIGS. 1 and 2, the observation system of the present invention includes an
撮像手段1は公知公用のカメラであり、観測対象物である水100の境界(水位)及び静止物体である護岸102を撮像できるものである。本実施形態では、撮像手段1は赤外線と可視光線との両方で撮像するウェブカメラとしているが、赤外線のみで行うもの、可視光線のみで行うもの等、観測対象物と静止物体との色の差が明確となる画像を撮像できるものであればよい。この撮像手段1は、観測すべき範囲の水位及び護岸102が撮像できる位置であれば、いずれの位置に設置してもよい。このため、水100から離れた位置に設置でき、水中には設置する必要がなくなる。
The imaging means 1 is a publicly known camera that can image the boundary (water level) of the
撮像手段1は、水100及び護岸102を撮像する。図3(a)は、基準となる時刻t0において撮影した基準画像であり、初期段階での護岸102に対する水位を示している。図3(b)は、基準画像を取得したとき(時刻t0)から所定時間経過後の時刻t1において撮影した観測画像である。図3(a)、(b)において、ハッチングなしが水100の領域を示し、ハッチングありが護岸102の領域を示す。実際の画像は、水100の領域を示す色(例えば白色)と、護岸102の領域を示す色(例えば黒色)とが異なる色となる。図3(a)において、B0は時刻t0における水位を示し、図3(b)において、B1は時刻t0から所定時間経過した後の時刻t1における水位を示している。撮像手段1は、水位が変位する方向をy方向、y方向と直交する方向をx方向となるように画像を撮像する。本実施形態の場合は、水位B0、B1は上下方向に変位するため、図3(a)、図3(b)に示すように、水位B0、B1が変位する上下方向がy方向となり、水平方向がx方向となるようにして画像を撮像する。
The
画像処理手段2は、パーソナルコンピュータにて構成されており、図1に示すように、画像取込部3と、記憶部4と、領域分割部5と、補正部6と、演算部7と、解析部8と、表示部9とを備えている。
The image processing means 2 is constituted by a personal computer, and as shown in FIG. 1, an
画像取込部3は、撮像手段1にて撮像した画像をパーソナルコンピュータへ取り込むものである。記憶部4は、撮像した画像において、観測対象物である水100の色(白色)及び静止物体である護岸102の色(黒色)を予め記憶させるものである。領域分割部5は、画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割するものである。補正部6は、観測対象物及び静止物体の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去するものである。
The
演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、画像における水100の領域と、画像における護岸102の領域を特定する。すなわち、分割された領域のうち、白色を水100、黒色を護岸102として特定する。そして、後述するように、画像の水100の領域と護岸102の領域とをx方向に等間隔に分割して、分割した範囲毎に、水101のy方向における面積と、護岸102のy方向における面積との比率を算出する。
The
解析部8は、演算部7による演算結果から、夫々のx位置において、時間の経過により水101及び護岸102の割合がどのように変化したかを解析する。本実施形態では、解析部8として、蓄積部10、比較部11、及び換算部12を備えている。蓄積部10は、演算部7により求めた比率のデータを蓄積するものである。比較部11は、蓄積部10に蓄積された比率のデータを比較するものである。換算部12は、比率と、護岸102の実際の高さから水面の高さ位置を求めるものである。これにより、x方向の夫々の位置において、水面の高さ位置がどのように変化するかを解析することができる。
The analysis unit 8 analyzes how the ratio of the
表示部9は、解析部8による解析結果を表示するディスプレイである。 The display unit 9 is a display that displays an analysis result obtained by the analysis unit 8.
次に、図4のフローチャートを用いて、本発明の観測システムにより観測対象物の境界の実際の位置変化を観測する方法について説明する。この場合も、観測対象物が水100であり、背景の静止物体が護岸102である河川101付近に本発明の観測システムを設置し、水100の境界位置の変位(河川水位)を観測する例について説明する。
Next, a method for observing the actual position change of the boundary of the observation object by the observation system of the present invention will be described using the flowchart of FIG. Also in this case, the observation system of the present invention is installed in the vicinity of the
まず、画像処理手段2の記憶部4に、撮像手段1にて撮像した画像において、水100の領域を示す色(例えば白色)及び護岸102の領域を示す色(例えば黒色)を予め記憶させる(ステップS1)。次に、基準となる時刻t0において、撮像手段1が水100の境界(水面)及び護岸102を撮像し、例えば図3(a)に示すような基準画像を取得する(ステップS2)。この基準画像を画像取込部3にて画像処理手段2に取り込む。
First, the storage unit 4 of the
領域分割部5は、基準画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割する。そして、演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、基準画像における水100の領域と、基準画像における護岸102の領域を特定する(ステップS3)。具体的には、水101の領域は、基準画像で白色となる図3(a)のa、b、c、dで囲まれた範囲であり、護岸102の領域は基準画像で黒色となる図3(a)のc、d、m、lで囲まれた範囲であると特定する。このとき、補正部6は、水100及び護岸102の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去する。
The area dividing unit 5 sets the same color area of the reference image as one area, and divides it into a plurality of areas for each color. Then, the
演算部7は、図5(a)に示すように、基準画像の水100の領域と護岸102の領域とをx方向に等間隔(本実施形態では1画素毎)に分割する(ステップS4)。なお、1画素は撮像手段1の解像度によって異なる。本実施形態では、x方向に13等分したものとして説明する。
As shown in FIG. 5A, the
そして、x方向に分割した範囲毎に、水101の領域のy方向における面積S0―1〜S0−13と、護岸102の領域のy方向における面積T0−1〜T0−13とを求め、夫々の面積の基準比率(S0−1)/(T0−1)、(S0−2)/(T0−2)、・・・(S0−13)/(T0−13)を算出する(ステップS5)。この場合、Δxは1画素としているため、Δxのy方向における面積は、Δxにおけるy方向の画素数に相当する。例えば、図5(a)において、g、h、i、jで囲まれた面積S0−8は、gからhの範囲において、画像の下枠から境界B0までのy方向における画素数である。また、i、j、n、oで囲まれた面積T0−8は、gからhの範囲において、境界B0から画像の上枠までのy方向における画素数である。
Then, for each range divided in the x direction, areas S0-1 to S0-13 in the y direction of the area of
基準比率(S0−1)/(T0−1)、(S0−2)/(T0−2)、・・・(S0−13)/(T0−13)は、解析部8の蓄積部10に格納される(ステップS6)。
The reference ratios (S0-1) / (T0-1), (S0-2) / (T0-2),... (S0-13) / (T0-13) are stored in the
次に、基準画像を取得したとき(時刻t0)から所定時間経過後の時刻t1において、前記した方法と同様の方法により、撮像手段1が水100の境界(水面)及び護岸102を撮像し、例えば図3(b)に示すような観測画像を取得する(ステップS7)。この観測画像を画像取込部3にて画像処理手段2に取り込む。
Next, at time t1 after a predetermined time has elapsed since the reference image was acquired (time t0), the imaging means 1 images the boundary (water surface) of the
領域分割部5は、観測画像のうち同色領域を一つの領域とし、色毎に複数の領域に分割する。そして、演算部7は、記憶部4から水100の領域を示す色(白色)及び護岸102の領域を示す色(黒色)の情報を夫々取得して、領域分割部5にて分割された領域のうち、観測画像における水100の領域と、観測画像における護岸102の領域を特定する(ステップS8)。具体的には、水101の領域は、観測画像で白色となる図3(b)のa、b、e、fで囲まれた範囲であり、護岸102の領域は観測画像で黒色となる図3(b)のe、f、m、lで囲まれた範囲であると特定する。このとき、補正部6は、水100及び護岸102の領域に僅かに他の色が混在する場合に、他の色をノイズとして除去する。
The area dividing unit 5 divides the same color area of the observed image into a plurality of areas for each color. Then, the
演算部7は、図5(b)に示すように、観測画像の水100の領域と護岸102の領域とをx方向に等間隔(本実施形態では1画素毎)に分割する(ステップS9)。
As shown in FIG. 5B, the
そして、x方向に分割した範囲毎に、水101の領域のy方向における面積S1―1〜S1−13と、護岸102の領域のy方向における面積T1−1〜T1−13とを求め、夫々の面積の観測比率(S1−1)/(T1−1)、(S1−2)/(T1−2)、・・・(S1−13)/(T1−13)を算出する(ステップS10)。この場合も、Δxは1画素としているため、Δxのy方向における面積は、Δxにおけるy方向の画素数に相当する。
Then, for each range divided in the x direction, areas S1-1 to S1-13 in the y direction of the area of the
観測比率(S1−1)/(T1−1)、(S1−2)/(T1−2)、・・・(S1−13)/(T1−13)は、解析部8の蓄積部10に格納される(ステップS11)。
The observation ratios (S1-1) / (T1-1), (S1-2) / (T1-2),... (S1-13) / (T1-13) are stored in the
その後、解析部8は、蓄積部10に格納された基準比率と観測比率とを抽出し、比較部11にて基準比率と観測比率とを比較して、基準比率に対する観測比率の変化から時刻t1の護岸102に対する水100の割合が、時刻t0からどのように変化しているのかを解析する(ステップS12)。この場合、(S0−1)/(T0−1)と(S1−1)/(T1−1)との比較、(S0−2)/(T0−2)と(S1−2)/(T1−2)との比較、・・・(S0−13)/(T0−13)と(S1−13)/(T1−13)との比較により、夫々のx位置における比率の変化を解析する。本実施形態では、換算部12が、比率から水面の実際の位置を換算する。具体的には、比率に実際の護岸102の高さを乗算することにより、水面位置を換算する。この換算した値は、表示部9により表示される。
Thereafter, the analysis unit 8 extracts the reference ratio and the observation ratio stored in the
本システムを継続する場合は(ステップS13)ステップS6に戻る。次の観測画像を取得する時刻はt2であり、t2で取得した観測画像に基づいてステップS8〜ステップS13を実行する。このように、本システムを継続する場合には、ステップS7〜ステップS13を繰り返し行い、本システムを終了する場合は、パソコンの電源を落とす等して終了する。 When continuing this system (step S13), it returns to step S6. The time to acquire the next observation image is t2, and Steps S8 to S13 are executed based on the observation image acquired at t2. As described above, when the present system is continued, steps S7 to S13 are repeatedly performed, and when the present system is terminated, the personal computer is terminated by turning off the power of the personal computer.
本発明では、水100の状態変化を立体的に観測することができるため、人の目視による観測と同様の観測ができて、水100の境界の位置変化を正確に捉えることができる。これにより、自然界に発生する現象を正確に予測することができる。また、水100から離れた位置に機器を設置でき、水中には設置する必要がなくなるため、水100の状態が急激に変化しても機器の流出等を防止することができ、長期にわたって安定した観測が可能となる。また、人が河川に近づく必要もなくなり、遠方からの観測が可能となるため、安全なものとなり、設置が容易であるとの利点もある。
In the present invention, since the change in the state of the
以上、本発明の実施形態及び実施例について説明したが、本発明はこれらに限定されることなく種々の変形が可能である。例えば、観測対象物としては、水以外に雪、土砂、雲であってもよい。撮像手段1は連続的に撮像していてもいなくてもよく、断続的に撮像するものであってもよい。撮像手段1は、観測対象物と静止物体との色の差が撮像できるものであれば、種々のものを採用することができる。補正部5や換算部12や表示部9は省略することもできる。
While the embodiments and examples of the present invention have been described above, the present invention is not limited to these and various modifications can be made. For example, the observation target may be snow, earth and sand, or clouds in addition to water. The
1 撮像手段
2 画像処理手段
3 画像取込部
4 記憶部
5 領域分割部
7 演算部
8 解析部
100 水
101 護岸
B0、B1 境界
S、T 面積
DESCRIPTION OF
Claims (5)
前記観測対象物の境界及び静止物体を撮像した基準画像を取得し、
前記基準画像を色毎に複数の領域に分割して、前記基準画像における観測対象物及び静止物体の領域を特定し、
前記基準画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との基準比率を算出し、
前記基準画像を取得したときから所定時間経過後に、前記観測対象物の境界及び静止物体を撮像した観測画像を取得し、
前記観測画像を色毎に複数の領域に分割して、前記観測画像における観測対象物及び静止物体の領域を特定し、
前記観測画像において、観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との観測比率を算出し、
前記基準比率に対する前記観測比率の変化を算出することにより、観測対象物の境界の実際の位置変化を観測することを特徴とする観測方法。 An image obtained by capturing a stationary object having a color different from the boundary of the observation target and the observation target is acquired. In this image, the direction in which the position of the boundary of the observation target is displaced is defined as the y direction, and the direction orthogonal to the y direction is defined. An observation method for observing a change in the actual position of the boundary of an observation object by calculating a displacement in the y direction of the boundary as an x direction,
Obtaining a reference image obtained by imaging the boundary of the observation object and a stationary object;
The reference image is divided into a plurality of regions for each color, and the region of the observation object and the stationary object in the reference image is specified,
In the reference image, the region of the observation object and the region of the stationary object are divided at equal intervals in the x direction, and the area in the y direction of the observation object and the area of the stationary object in the y direction are divided for each divided range. Calculate the standard ratio of
After an elapse of a predetermined time from when the reference image is acquired, an observation image obtained by capturing the boundary of the observation object and a stationary object is acquired,
The observation image is divided into a plurality of regions for each color, and an observation object and a stationary object region in the observation image are specified,
In the observation image, the region of the observation object and the region of the stationary object are divided at equal intervals in the x direction, and the area of the observation object in the y direction and the area of the stationary object in the y direction are divided for each divided range. Calculate the observation ratio of
An observation method characterized by observing an actual position change of a boundary of an observation object by calculating a change in the observation ratio with respect to the reference ratio.
前記画像処理手段は、
前記撮像手段にて撮像した画像を取り込む画像取込部と、
撮像した画像において、前記観測対象物の色及び静止物体の色を予め記憶する記憶部と、
前記画像を色毎に複数の領域に分割する領域分割部と、
前記画像における観測対象物及び静止物体の領域を特定し、画像の観測対象物の領域及び静止物体の領域をx方向に等間隔に分割して、分割した範囲毎に、観測対象物のy方向における面積と、静止物体のy方向における面積との比率を算出する演算部と、
前記比率の変化から、観測対象物の境界の実際の位置変化を解析する解析部とを備えたことを特徴とする観測システム。 An imaging means for acquiring an image obtained by imaging a stationary object having a color different from the boundary of the observation target and the observation target, and the direction in which the position of the boundary of the observation target is displaced in this image is orthogonal to the y direction An observation system for observing the actual position change of the boundary of the observation object, comprising image processing means for calculating the displacement of the boundary in the y direction, where
The image processing means includes
An image capturing unit that captures an image captured by the imaging unit;
In a captured image, a storage unit that stores in advance the color of the observation object and the color of a stationary object;
An area dividing unit for dividing the image into a plurality of areas for each color;
The region of the observation object and the stationary object in the image is specified, the region of the observation object and the region of the stationary object in the image are divided at equal intervals in the x direction, and the y direction of the observation object is divided for each divided range An arithmetic unit that calculates a ratio of the area in the y direction of the stationary object in the y direction;
An observation system comprising: an analysis unit that analyzes an actual position change of the boundary of the observation object based on the change in the ratio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012112808A JP2013238540A (en) | 2012-05-16 | 2012-05-16 | Observation method and observation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012112808A JP2013238540A (en) | 2012-05-16 | 2012-05-16 | Observation method and observation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013238540A true JP2013238540A (en) | 2013-11-28 |
Family
ID=49763688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012112808A Pending JP2013238540A (en) | 2012-05-16 | 2012-05-16 | Observation method and observation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013238540A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767544A (en) * | 2021-01-06 | 2021-05-07 | 成都理工大学 | Spatial case reasoning method for regional landslide risk evaluation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07266014A (en) * | 1994-03-31 | 1995-10-17 | Mitsubishi Materials Corp | Detection of molten metal surface level |
JP2001041803A (en) * | 1999-08-04 | 2001-02-16 | Fujitsu Ltd | Liquid-level detecting method |
JP2009217725A (en) * | 2008-03-12 | 2009-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Monitoring device and monitoring method |
-
2012
- 2012-05-16 JP JP2012112808A patent/JP2013238540A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07266014A (en) * | 1994-03-31 | 1995-10-17 | Mitsubishi Materials Corp | Detection of molten metal surface level |
JP2001041803A (en) * | 1999-08-04 | 2001-02-16 | Fujitsu Ltd | Liquid-level detecting method |
JP2009217725A (en) * | 2008-03-12 | 2009-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Monitoring device and monitoring method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767544A (en) * | 2021-01-06 | 2021-05-07 | 成都理工大学 | Spatial case reasoning method for regional landslide risk evaluation |
CN112767544B (en) * | 2021-01-06 | 2022-04-01 | 成都理工大学 | Spatial case reasoning method for regional landslide risk evaluation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Palmsten et al. | Laboratory investigation of dune erosion using stereo video | |
Catálan et al. | Remote sensing of breaking wave phase speeds with application to non-linear depth inversions | |
Gilmore et al. | Source and magnitude of error in an inexpensive image-based water level measurement system | |
Rueben et al. | Optical measurements of tsunami inundation through an urban waterfront modeled in a large-scale laboratory basin | |
JP6468439B2 (en) | Gas detection image processing apparatus, gas detection image processing method, and gas detection image processing program | |
KR101053405B1 (en) | Structure Deformation Detection System and Method | |
JP3907200B2 (en) | Environmental information observation equipment | |
Huisman et al. | The use of video imagery to analyse groundwater and shoreline dynamics on a dissipative beach | |
CN203148531U (en) | Water level and water quality monitoring terminal based on machine vision | |
JP2018054540A (en) | Visualization device for ground surface displacement in interest area and visualization program of ground surface displacement in interest area | |
KR101921610B1 (en) | Method and Apparatus for Monitoring Objects from Video | |
Astruc et al. | A stereoscopic method for rapid monitoring of the spatio-temporal evolution of the sand-bed elevation in the swash zone | |
CN111879292B (en) | Coastline dynamic monitoring method, coastline dynamic monitoring equipment and storage medium | |
Li et al. | Stereo-imaging LSPIV (SI-LSPIV) for 3D water surface reconstruction and discharge measurement in mountain river flows | |
KR101284842B1 (en) | Apparatus and method for measuring water level | |
KR101284034B1 (en) | A microvibration measuring method using camera image | |
KR101548077B1 (en) | Apparatus and method for measuring image snowfall | |
KR101640527B1 (en) | Method and Apparatus for Monitoring Video for Estimating Size of Single Object | |
Flores et al. | Estimating surfzone wave transformation and wave setup from remote sensing data | |
JP2013238540A (en) | Observation method and observation system | |
Erikson et al. | A method to extract wave tank data using video imagery and its comparison to conventional data collection techniques | |
JP4108593B2 (en) | Inundation monitoring device | |
JP5901051B2 (en) | Displacement detection alarm system | |
KR101232185B1 (en) | Device and method for monitoring water level | |
KR102421085B1 (en) | Water level measurement system using IoT and water level measurement method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160316 |