JP4677561B2 - Water level detection system, water level detection method, and program - Google Patents

Water level detection system, water level detection method, and program Download PDF

Info

Publication number
JP4677561B2
JP4677561B2 JP2006049247A JP2006049247A JP4677561B2 JP 4677561 B2 JP4677561 B2 JP 4677561B2 JP 2006049247 A JP2006049247 A JP 2006049247A JP 2006049247 A JP2006049247 A JP 2006049247A JP 4677561 B2 JP4677561 B2 JP 4677561B2
Authority
JP
Japan
Prior art keywords
region
flowing
pixel
water level
water
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006049247A
Other languages
Japanese (ja)
Other versions
JP2007226681A (en
Inventor
政宏 岩橋
裕二 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology
Original Assignee
Nagaoka University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology filed Critical Nagaoka University of Technology
Priority to JP2006049247A priority Critical patent/JP4677561B2/en
Publication of JP2007226681A publication Critical patent/JP2007226681A/en
Application granted granted Critical
Publication of JP4677561B2 publication Critical patent/JP4677561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Description

本発明は、水位検出システム、水位検出方法、及びプログラムに関し、詳しくは、撮影して得られる映像信号に基づく河川等の水位検出技術に関する。   The present invention relates to a water level detection system, a water level detection method, and a program, and more particularly, to a water level detection technique for a river or the like based on a video signal obtained by photographing.

河川の氾濫による水害を事前に察知して水防活動に役立てるために、河川敷の各所に水位計や監視カメラを設置し、それらにより得られるデータを一箇所に集約するシステムが、国土交通省が設置するテレメータをはじめとして多数実現されている。また、傾斜模様が描かれた量水板を河川中に設置し、その量水板を含む画像を取り込んで画像処理を行うことで、水位計を設置せずに河川映像から河川の水位を検出する方法が提案されている(例えば、特許文献1参照。)。   The Ministry of Land, Infrastructure, Transport and Tourism has established a system that installs water level meters and monitoring cameras at various locations on the riverbed and collects the data obtained from them in one place in order to detect flood damage caused by river floods in advance and use it for flood control activities. Many telemeters have been implemented. In addition, a water level plate with an inclined pattern is installed in the river, and the water level of the river is detected from the river image without installing a water level meter by capturing the image including the level water plate and performing image processing. A method has been proposed (for example, see Patent Document 1).

特開平9−161076号公報Japanese Patent Laid-Open No. 9-161076

しかしながら、流水を妨げる物体を河川の中に設置することは、洪水等の災害の要因となり得るため、河川法により厳しく制限管理されており、河川において量水板が設置できる場所は限られている。その一方で、できるだけ多くの箇所から水位データを収集することが、より正確で信頼できる防災情報を生成するためには欠かせない。   However, the installation of objects that obstruct running water in rivers can cause floods and other disasters, so they are strictly controlled by the River Law, and there are only a limited number of places where water can be installed in rivers. . On the other hand, collecting water level data from as many locations as possible is indispensable for generating more accurate and reliable disaster prevention information.

本発明は、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その河川等の水位を検出できるようにすることを目的とする。   An object of the present invention is to make it possible to detect a water level of a river or the like from only a video signal having the river or the like as a subject without installing any object in the water.

本発明の水位検出システムは、固定カメラを用いて撮影された映像に基づいて水位を検出する水位検出システムであって、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、上記積分手段により得られた映像にウェーブレット変換を施す変換手段と、上記変換手段でのウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定手段と、上記推定手段での推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割手段とを備え、上記領域分割手段は、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とする。
本発明の水位検出方法は、固定カメラを用いて撮影された映像に基づいて水位を検出する水位検出方法であって、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、上記積分工程で得られた映像にウェーブレット変換を施す変換工程と、上記ウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定工程と、上記推定工程での推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割工程とを有し、上記領域分割工程にて、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とする。
本発明のプログラムは、固定カメラを用いて撮影された映像に基づく水位検出処理をコンピュータに実行させるためのプログラムであって、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、上記積分ステップで得られた映像にウェーブレット変換を施す変換ステップと、上記ウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定ステップと、上記推定ステップでの推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割ステップとをコンピュータに実行させ、上記領域分割ステップにて、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とする。
The water level detection system of the present invention is a water level detection system that detects a water level based on an image captured using a fixed camera, and an image including a flowing region and a non-flowing region captured using a fixed camera. An integration means for integrating the supplied video in the time direction, a conversion means for performing wavelet transformation on the video obtained by the integration means, and a feature amount obtained by wavelet transformation in the conversion means , An estimation means for estimating for each pixel whether the pixel is the pixel of the flowing water region or the pixel of the non-flowing water region, and based on the estimation result of the estimating means, the in-video region is defined as the flowing water region and the non-flowing region. Area dividing means for detecting a water level by dividing into a flowing water area, and the area dividing means is estimated as a pixel estimated as the flowing water area or the non-flowing water area. Using the pixel as the target pixel, the number of the target pixel is integrated in the direction in which the boundary between the flowing water region and the non-flowing region extends, and the boundary pixel number is determined from the obtained distribution of the target pixel number. A boundary between the flowing water region and the non-flowing water region is detected as a water level by dividing the flowing water region and the non-flowing water region based on the obtained number of target pixels.
The water level detection method of the present invention is a water level detection method for detecting a water level based on an image captured using a fixed camera, and an image including a flowing water region and a non-flowing region captured using a fixed camera. An integration step for integrating in the time direction, a conversion step for performing wavelet transformation on the video image obtained in the integration step, and a pixel in the flowing water region based on the feature quantity obtained by the wavelet transformation or the non- An area for detecting a water level by dividing an in-video area into the running water area and the non-flowing water area based on an estimation process for estimating whether the pixel is a flowing water area pixel by pixel and an estimation result in the estimation process A division step, and in the region division step, the pixel estimated as the flowing region or the pixel estimated as the non-flowing region is set as a target pixel, and the number of target pixels is determined as the flowing water. Based on the obtained number of target pixels, with the boundary pixel number as a threshold value. A boundary between the flowing water region and the non-flowing water region is detected as a water level by dividing the flowing water region and the non-flowing water region.
The program of the present invention is a program for causing a computer to execute a water level detection process based on an image photographed using a fixed camera, and an image including a flowing water area and a non-flowing water area photographed using a fixed camera. Integration step in the time direction, a conversion step for performing wavelet transform on the video obtained in the integration step, and a pixel in the flowing water region based on the feature amount obtained by the wavelet transform or the above Based on the estimation step for estimating whether each pixel is a non-flowing region pixel and the estimation result in the estimation step, the water level is detected by dividing the in-video region into the flowing region and the non-flowing region. The area dividing step is executed by a computer, and the pixels estimated as the flowing water area or the top in the area dividing step are Using the pixel estimated as a non-flowing region as the target pixel, the number of target pixels is integrated in the direction in which the boundary between the flowing region and the non-flowing region extends, and the boundary pixel number is determined from the distribution of the obtained target pixels And detecting the boundary between the flowing water region and the non-flowing water region as a water level by dividing the flowing water region and the non-flowing water region based on the obtained target pixel number with the boundary pixel number as a threshold value. It is characterized by.

本発明によれば、河川等を被写体として固定カメラで撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分して流水領域におけるエッジ成分を抑圧し、その映像全体にウェーブレット変換を施して得られた特徴量に基づいて画素毎に流水領域の画素であるか又は非流水領域の画素であるかを推定する。そして、その推定結果に基づいて流水領域及び非流水領域に分割することによって流水領域と非流水領域との境界を水位として検出する。これにより、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、水位を検出することができる。   According to the present invention, an image including a flowing region and a non-flowing region captured by a fixed camera with a river or the like as a subject is integrated in the time direction to suppress edge components in the flowing region, and wavelet transform is performed on the entire image. Based on the feature amount obtained by applying, it is estimated for each pixel whether it is a pixel in a flowing water region or a pixel in a non-flowing water region. And the boundary of a flowing water area | region and a non-flowing water area | region is detected as a water level by dividing | segmenting into a flowing water area | region and a non-flowing water area | region based on the estimation result. Thereby, the water level can be detected only from the video signal having the river or the like as the subject without installing any object in the water.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態による流水領域検出システムの構成例を示すブロック図である。本実施形態による流水領域検出システムは、固定カメラCMを用いた撮影で得られる河川等を被写体とする映像信号から、時間方向の積分(例えば本実施形態ではフレーム加算)、ウェーブレット変換及び最尤推定に基づき、その河川等における流水領域を検出する。   FIG. 1 is a block diagram illustrating a configuration example of a flowing water region detection system according to an embodiment of the present invention. The flowing water region detection system according to the present embodiment uses time-direction integration (for example, frame addition in the present embodiment), wavelet transform, and maximum likelihood estimation from a video signal having a subject such as a river obtained by photographing using a fixed camera CM. Based on the above, the flowing water area in the river or the like is detected.

本実施形態による流水領域検出システムは、図1に示すように、領域抽出部1、フレーム加算部2、ウェーブレット変換部3、最尤推定部4、及び領域分割部5を有する。以下、図1に示した流水領域検出システムの各機能部について詳細に説明する。なお、以下においては、必要に応じて図2に示すような実際の河川画像について流水領域及び非流水領域を検出、判別することで、河川の水位検出を行う場合を適宜例示して説明する。   As shown in FIG. 1, the flowing water region detection system according to the present embodiment includes a region extraction unit 1, a frame addition unit 2, a wavelet transform unit 3, a maximum likelihood estimation unit 4, and a region division unit 5. Hereinafter, each function part of the flowing water area detection system shown in FIG. 1 will be described in detail. In the following, a case where the water level of a river is detected by detecting and discriminating a flowing water region and a non-flowing water region in an actual river image as shown in FIG.

(領域抽出部1)
領域抽出部1は、固定カメラCMを用いて撮影された撮像映像から、半分に陸部が、もう半分には流水部が写っているような領域を数フレームにわたり抽出する。ここで、流水部とは、撮像映像における水面等の水が写りこんだ領域であり、陸部とは、流水部以外の領域(例えば、背景画像等の領域)である。
(Region extraction unit 1)
The region extraction unit 1 extracts a region in which a land portion is captured in half and a flowing water portion in half, from a captured image captured using the fixed camera CM over several frames. Here, the flowing water part is an area where water such as a water surface in the captured image is reflected, and the land part is an area other than the flowing water part (for example, an area such as a background image).

例えば、領域抽出部1は、図2(a)に示すように上半分が陸部、下半分が流水部であるような領域画像を撮像映像から抽出する。なお、領域画像を抽出する際、陸部が下で流水部が上、又は陸部及び流水部がそれぞれ左と右、あるいは右と左に写っていても良く、流水領域の検出は可能である。また、撮影映像全体の半分が陸部、もう半分が流水部となるように固定カメラCMのアングル等を調整して撮影を行い、得られた撮影映像そのものを領域画像としても良い。   For example, the region extraction unit 1 extracts a region image in which the upper half is a land portion and the lower half is a flowing portion as shown in FIG. When extracting the area image, the land part may be below and the flowing part may be above, or the land part and flowing part may be shown on the left and right, or on the right and left, respectively, and the flowing area can be detected. . Further, it is also possible to perform shooting by adjusting the angle of the fixed camera CM so that half of the entire shot video is a land portion and the other half is a flowing water portion, and the obtained shot video itself may be used as a region image.

ここで、領域画像における陸部には模様のある静止した物体が写っており,流水部においては水面が常に動いていることが望ましい。また、領域画像において水面は水平であることが望ましく、そうなるように撮影画像(領域画像)を90度回転させるか拡大や縮小をするなどのアフィン変換を施すことも効果的である。また、夜間に撮影した映像については、例えば赤外線照射した結果として、陸部に何らかの模様が写ってさえいれば、流水部には何も写っていなくても良く、流水領域を検出可能である。   Here, it is desirable that a stationary object with a pattern appears in the land portion in the region image, and that the water surface always moves in the flowing water portion. Further, it is desirable that the water surface is horizontal in the region image, and it is also effective to perform affine transformation such as rotating the photographed image (region image) 90 degrees or enlarging or reducing the image so as to be so. In addition, for a video taken at night, for example, as long as a certain pattern is reflected in the land as a result of infrared irradiation, nothing may be reflected in the flowing water, and the flowing water area can be detected.

領域画像の抽出は、ある時点でユーザーが抽出位置を指定した後は、流水領域の検出結果を基に得られた水位に応じて水面が常に領域画像の中心付近に位置するようにして、ある時間間隔で自動的に実施するようにしても良い。   The region image is extracted after the user designates the extraction position at a certain point in time so that the water surface is always located near the center of the region image according to the water level obtained based on the detection result of the flowing water region. It may be performed automatically at time intervals.

(フレーム加算部2)
フレーム加算部2は、領域抽出部1により抽出された領域画像について、複数のフレームを同期加算する。すなわち、フレーム加算部2は、領域抽出部1により抽出された領域画像を時間方向に積分する。これにより、動いている流水部がぼやけた、あるいは滑らか
となった画像が得られる。つまり、流水部のエッジ成分(高周波成分)が抑圧される。その一方で、静止している陸部は特に変化しない。このことは、例えば図2(a)及び図2(b)を比較することで確認できる。図2(b)は、フレーム加算部2により複数フレームを同期加算して得られたものである。
(Frame adder 2)
The frame addition unit 2 synchronously adds a plurality of frames for the region image extracted by the region extraction unit 1. That is, the frame addition unit 2 integrates the region image extracted by the region extraction unit 1 in the time direction. As a result, an image in which the moving flowing water part is blurred or smooth is obtained. That is, the edge component (high frequency component) of the flowing water part is suppressed. On the other hand, the stationary land is not particularly changed. This can be confirmed, for example, by comparing FIG. 2 (a) and FIG. 2 (b). FIG. 2B is obtained by synchronously adding a plurality of frames by the frame adder 2.

ただし、複数のフレームの領域画像を加算する際、単純に加算を行うと画素値も単純に増大してしまい要求されるリソース等も増大するので、例えば加算したフレーム数で画素値を割るなどして画素値の値域拡大を防止することが望ましい。また、例えば、画像を加算する際に、画素値に重み係数を乗じたり、あるいは画素値に関しビットシフトを行ったりしても良い。   However, when adding region images of a plurality of frames, if the addition is simply performed, the pixel value simply increases and the required resources increase. For example, the pixel value is divided by the number of added frames. Therefore, it is desirable to prevent the range of pixel values from expanding. Further, for example, when adding images, the pixel value may be multiplied by a weighting factor, or a bit shift may be performed on the pixel value.

例えば、フレーム加算部2は、4枚のフレームを加算する場合には,各フレームにおける画素値に0.25を乗じるか、あるいはそれと等価になるように画素値を右に2ビットシフトさせた後に、既にフレームメモリに格納されている画素値と加算し、加算結果をフレームメモリに新たに格納する。これにより、加算される枚数分のフレームメモリを用意することなく、少ないフレームメモリでフレーム加算を実現することができる。   For example, when adding four frames, the frame adding unit 2 multiplies the pixel value in each frame by 0.25 or shifts the pixel value to the right by 2 bits so as to be equivalent to it. The pixel value already stored in the frame memory is added, and the addition result is newly stored in the frame memory. Thus, frame addition can be realized with a small number of frame memories without preparing as many frame memories as the number of sheets to be added.

また、フレームメモリに格納されている画素値と、領域抽出部1により抽出された領域画像の画素値とを加算して2で割った後、その加算結果をフレームメモリに新たに格納する。この処理を繰り返すことで,複数のフレームの領域画像が重み加算された画像が生成される。あるいは、固定カメラCMで撮像する際に、シャッターを比較的長い時間に亘り開けておき、露光時間を比較的長くすることでも、上述したように複数のフレームを加算した場合と同等の効果を得ることができる。   Further, the pixel value stored in the frame memory and the pixel value of the region image extracted by the region extraction unit 1 are added and divided by 2, and then the addition result is newly stored in the frame memory. By repeating this process, an image is generated by weight-adding region images of a plurality of frames. Alternatively, when taking an image with the fixed camera CM, an effect equivalent to that obtained by adding a plurality of frames as described above can be obtained by opening the shutter for a relatively long time and making the exposure time relatively long. be able to.

ここで、詳細は後述するが本実施形態では、映像においてエッジ画素を多く含む領域を陸部分、エッジ画素が少ない領域を流水部分として、陸部及び流水部の判別を行う。そして、陸部と流水部の境界の位置を水面として認識することで、図2(a)に示したような水位を算出することが可能となる。   Here, although details will be described later, in the present embodiment, the land portion and the flowing water portion are determined by setting a region including many edge pixels in the video as a land portion and a region including few edge pixels as a flowing portion. Then, by recognizing the position of the boundary between the land portion and the flowing water portion as the water surface, it becomes possible to calculate the water level as shown in FIG.

(ウェーブレット変換部3)
ウェーブレット変換部3は、フレーム加算部2により生成された画像に対してウェーブレット変換を施し、流水部には少ないが陸部には多く存在するエッジ成分、つまり流水部と陸部の差異を強調させるようなN次元(Nは整数)の特徴ベクトル(特徴量)を計算する。例えば、図2(b)に示した画像に、ウェーブレット変換部3によるウェーブレット変換を施すことで、図2(c)に示すようにLL、LH、HL、HHといった4つの帯域画像が生成される。但し、帯域画像の画素数は、ウェーブレット変換前の画素数の縦横共に半分となる。
(Wavelet transform unit 3)
The wavelet transform unit 3 performs wavelet transform on the image generated by the frame addition unit 2 and emphasizes the edge component that is small in the flowing part but large in the land part, that is, the difference between the flowing part and the land part. Such N-dimensional (N is an integer) feature vector (feature amount) is calculated. For example, by performing wavelet transform by the wavelet transform unit 3 on the image shown in FIG. 2B, four band images such as LL, LH, HL, and HH are generated as shown in FIG. 2C. . However, the number of pixels in the band image is halved both vertically and horizontally before the wavelet transform.

これら4つの帯域画像(帯域信号)を、フレーム加算部2により生成された画像の各画素に対する特徴ベクトルの4つの成分とすれば良い。すなわち、図2(c)に示した場合の特徴ベクトルは、4次元のベクトルとなる。但し、上述したように画素数が縦横ともに半分となっているため、フレーム加算部2により生成された画像での近接する4つの画素からなるグループが、帯域画像における1画素に対応する。したがって、4つの画素を1グループとし、それを単位として特徴ベクトルが生成される。   These four band images (band signals) may be the four components of the feature vector for each pixel of the image generated by the frame addition unit 2. That is, the feature vector shown in FIG. 2C is a four-dimensional vector. However, since the number of pixels is halved both vertically and horizontally as described above, a group of four adjacent pixels in the image generated by the frame adder 2 corresponds to one pixel in the band image. Therefore, a feature vector is generated with four pixels as one group.

また、図3(c)に示したLL帯域画像(低周波数画像)に対して、ウェーブレット変換を更にもう1回適用しても良く、この場合には全部で7つの帯域画像が生成されるので、特徴ベクトルは7次元のベクトルとなる。なお、ウェーブレット変換により得られる帯域画像のすべてを常に使う必要はなく、陸部と流水部の違いが見られない帯域画像については特徴ベクトルに含めなくても良い。   Further, the wavelet transform may be applied once more to the LL band image (low frequency image) shown in FIG. 3C, and in this case, seven band images are generated in total. The feature vector is a 7-dimensional vector. Note that it is not always necessary to use all of the band images obtained by the wavelet transform, and band images in which the difference between the land part and the flowing water part is not seen may not be included in the feature vector.

また、ウェーブレット変換の基底には数多くの種類が存在するが何れを用いても良い。特に、画像圧縮の国際標準であるJPEG2000(例えば、「JPEG 2000-Image compression fundamentals, standards and practice」、D.S.Taubman,M.W.Marcellin共著,Kluwer Academic Publishers,2002を参照)におけるウェーブレット変換を利用することで、汎用的なIPコアを活用でき、システムの開発期間の短縮や回路の小型化を図ることが可能となる。   There are many types of wavelet transform bases, and any of them may be used. In particular, by using wavelet transform in JPEG2000, which is an international standard for image compression (see, for example, “JPEG 2000-Image compression fundamentals, standards and practice”, co-authored by DSTaubman and MWMarcellin, Kluwer Academic Publishers, 2002) A general-purpose IP core can be used to shorten the system development period and reduce the circuit size.

(最尤推定部4)
最尤推定部4は、ウェーブレット変換部3により生成された画像における個々の画素について、陸領域の画素であるか、あるいは流水領域の画素であるかを推定する。さらに、例えば、最尤推定部4は、推定結果に応じて画素値を白(陸領域と推定された画素)又は黒(流水領域と推定された画素)の何れかにし、図2(d)に一例を示すような画像を得るようにしても良い。
(Maximum likelihood estimator 4)
The maximum likelihood estimation unit 4 estimates whether each pixel in the image generated by the wavelet transform unit 3 is a land region pixel or a flowing water region pixel. Further, for example, the maximum likelihood estimation unit 4 changes the pixel value to either white (a pixel estimated as a land area) or black (a pixel estimated as a flowing water area) according to the estimation result, and FIG. An image as shown in FIG.

陸領域の画素であるか、又は流水領域の画素であるかの推定を行う際には、例えば最尤推定法を利用することができる。最尤推定法を用いる場合、まず、流水領域及び陸領域であると既に分かっている画像領域をそれぞれ教師画像として指定する。ここでは、これらをそれぞれクラスω1及びクラスω2と呼ぶ。次に、判別対象となる画像について、画素毎にどちらのクラスに属するかを判別する。 When estimating whether the pixel is a land region pixel or a flowing water region pixel, for example, a maximum likelihood estimation method can be used. When the maximum likelihood estimation method is used, first, image areas that are already known to be a running water area and a land area are designated as teacher images. Here, these are called class ω 1 and class ω 2 , respectively. Next, with respect to an image to be discriminated, it is discriminated which class belongs to each pixel.

最尤推定の結果、画素毎に事前確率P(G(m,n)|ωi),i∈{1,2}が最大となるクラスωiが決定される。特徴ベクトルの値の確率密度分布が正規分布であると仮定できる場合には、次式の対数尤度関数を最小にするクラスを求めることで、流水領域又は陸領域のどちらのクラスに属するかが判別される。 As a result of the maximum likelihood estimation, a class ω i having a maximum prior probability P (G (m, n) | ω i ), iε {1,2} is determined for each pixel. If the probability density distribution of the feature vector values can be assumed to be a normal distribution, the class that minimizes the log-likelihood function of Determined.

ここで、μi,Ciはクラスωiの教師画像より求めた特徴ベクトルの平均値ベクトルと共分散行列であり、di 2はマハラノビス距離である。 Here, μ i and C i are the mean value vector and covariance matrix of feature vectors obtained from the class ω i teacher image, and d i 2 is the Mahalanobis distance.

なお、上述した説明では、流水領域及び陸領域のそれぞれについて1クラスを割り当てているが、複数のクラスを割り当てることも可能である。また、教師画像の位置については、既に計算された水位の下の部分を流水部、上の部分を陸部というように、時々刻々と更新される水位を基準として自動的に設定することで、日照変化や水位変化に対して安定した流水領域検出が可能となる。   In the above description, one class is assigned to each of the flowing water area and the land area, but a plurality of classes can be assigned. In addition, the position of the teacher image is automatically set on the basis of the water level that is updated from time to time, such as the flowing water portion below the already calculated water level and the land portion above the water level, Stable running water area detection is possible against changes in sunshine and water level.

(領域分割部5)
領域分割部5は、最尤推定部4により生成された画像に対して、陸領域であると推定された画素を多く含む領域を陸部、それ以外を流水部と判別して、非流水領域及び流水領域に二分割する。この処理は、最尤推定部4により陸領域であると推定された画素の分布又は流水領域であると推定された画素の分布に基づいてなされる。
(Region division unit 5)
The region dividing unit 5 discriminates, from the image generated by the maximum likelihood estimating unit 4, a region including many pixels estimated to be a land region as a land portion and the other as a flowing portion, and a non-flowing region. And divided into two areas. This process is performed based on the pixel distribution estimated by the maximum likelihood estimation unit 4 as a land area or the pixel distribution estimated as a flowing water area.

例えば、このようにして得られた2つの領域の境界を出力することで、図2(a)に示したように陸部と流水部の境界として水位が算出される。   For example, by outputting the boundary between the two regions thus obtained, the water level is calculated as the boundary between the land portion and the flowing water portion as shown in FIG.

領域分割部5における処理については、様々な形態が考えられる。以下、図3〜図6を参照して、領域分割部5における処理の一例について説明する。   Various forms of processing in the area dividing unit 5 are conceivable. Hereinafter, an example of processing in the region dividing unit 5 will be described with reference to FIGS.

図3は、領域分割部5の構成例を示すブロック図であり、図4は、図3に示す領域分割部5による領域分割の原理を説明するための図である。   FIG. 3 is a block diagram showing a configuration example of the area dividing unit 5, and FIG. 4 is a diagram for explaining the principle of area division by the area dividing unit 5 shown in FIG.

(横方向ヒストグラム計算部11)
横方向ヒストグラム計算部11は、対象とする領域画像について、最尤推定部4にて陸領域であると推定された画素(以下、「推定陸部画素」とも呼ぶ。)が幾つ存在するかを各行毎に数える。つまり、横方向ヒストグラム計算部11は、各行毎に推定陸部画素数を積算し、推定陸部画素の横方向のヒストグラムを生成する。
(Horizontal histogram calculation unit 11)
The horizontal histogram calculation unit 11 determines how many pixels (hereinafter also referred to as “estimated land portion pixels”) that are estimated to be land regions by the maximum likelihood estimation unit 4 in the target region image. Count for each line. That is, the horizontal direction histogram calculation unit 11 integrates the estimated number of land pixels for each row and generates a horizontal histogram of the estimated land pixels.

例えば、図4(a)に模式的に示す二値画像において、上から一行目には6個の推定陸部画素、二行目には7個の推定陸部画素が存在している。したがって、横方向ヒストグラム計算部11により生成される横方向のヒストグラム(図4(b))には、それぞれの行、すなわち縦位置について、推定陸部画素数が6及び7としてプロットされる。   For example, in the binary image schematically shown in FIG. 4A, there are six estimated land pixels in the first row from the top, and seven estimated land pixels in the second row. Accordingly, in the horizontal histogram (FIG. 4B) generated by the horizontal histogram calculation unit 11, the estimated land pixel numbers are plotted as 6 and 7 for each row, that is, the vertical position.

(縦方向ヒストグラム計算部12)
縦方向ヒストグラム計算部12は、横方向ヒストグラム計算部11により生成された横方向ヒストグラムを参照し、各推定陸部画素数の値について、対応する縦位置が幾つ存在するかを数える。つまり,縦方向ヒストグラム計算部12は、横方向ヒストグラムにおける各推定陸部画素数に関する縦方向のヒストグラムを生成する。
(Vertical Histogram Calculation Unit 12)
The vertical histogram calculation unit 12 refers to the horizontal histogram generated by the horizontal histogram calculation unit 11 and counts how many corresponding vertical positions exist for each estimated land pixel number value. That is, the vertical direction histogram calculation unit 12 generates a vertical direction histogram regarding each estimated land portion pixel number in the horizontal direction histogram.

例えば,図4(b)に示した横方向ヒストグラムにおいて、左から一列目には2個の推定陸部画素数、二列目には1個の推定陸部画素数がある。縦方向ヒストグラム計算部12により生成される横方向のヒストグラム(図4(c))には、それぞれの列、すなわち推定陸部画素数について、推定陸部画素数の縦方向積算値が2及び1としてプロットされる。   For example, in the horizontal histogram shown in FIG. 4B, there are two estimated land pixel numbers in the first column from the left, and one estimated land pixel number in the second column. In the horizontal histogram (FIG. 4C) generated by the vertical histogram calculation unit 12, the vertical integrated values of the estimated land pixel numbers are 2 and 1 for each column, that is, the estimated land pixel number. Is plotted as

(境界値決定部13)
縦方向ヒストグラム計算部12により生成された縦方向ヒストグラムには、陸部に関連するヒストグラム部分と、流水部に関連するヒストグラム部分の2つのクラスタ(分布)が存在する。したがって、これら2つのクラスタを分離する境界部分を決定することができる。境界値決定部13は、その境界部分(境界画素数)を決定する。この境界部分の決定方法としては種々の方法を用いることができる。
(Boundary value determination unit 13)
The vertical histogram generated by the vertical histogram calculation unit 12 includes two clusters (distributions) of a histogram portion related to the land portion and a histogram portion related to the flowing water portion. Therefore, it is possible to determine the boundary portion that separates these two clusters. The boundary value determination unit 13 determines the boundary portion (number of boundary pixels). Various methods can be used as a method for determining the boundary portion.

例えば、境界値決定部13は、クラス内の分散が小さく、かつクラス間の距離が大きくなるように境界を定めても良いし、又はクラス内分散・クラス間分散比が最大となるように境界を定めても良い。あるいは、境界値決定部13は、縦方向ヒストグラムを双峰性のガウス分布に帰着させて2つのクラスの境界を決定しても良い。   For example, the boundary value determination unit 13 may determine the boundary so that the variance within the class is small and the distance between the classes is large, or the boundary so that the intra-class variance / inter-class variance ratio is maximized. May be determined. Alternatively, the boundary value determination unit 13 may determine the boundary between the two classes by reducing the vertical histogram to a bimodal Gaussian distribution.

(水位計算部14)
水位計算部14は、境界値決定部13により決定された縦方向ヒストグラムにおける2つのクラスの境界に基づいて、それに対応する横方向ヒストグラムにおける境界を定め、更にそれに対応する二値画像の境界を定める。これにより、画像が陸部と流水部の領域に二分割され、その境界を水位として出力する。
(Water level calculation unit 14)
Based on the two class boundaries in the vertical histogram determined by the boundary value determination unit 13, the water level calculation unit 14 determines the boundary in the corresponding horizontal histogram, and further determines the boundary of the corresponding binary image. . As a result, the image is divided into two regions, a land portion and a flowing water portion, and the boundary is output as a water level.

具体的には、境界値決定部13により決定された境界をしきい値として、それに対応する図4(c)に示した縦方向ヒストグラムにおける境界P1が、図4(b)に示した横方向ヒストグラムにおける対応点P2を経て、図4(a)に示した二値画像における陸部と流水部との境界である水位P3が求められる。実際の河川画像に適用した場合を図5に示している。   Specifically, with the boundary determined by the boundary value determination unit 13 as a threshold value, the corresponding boundary P1 in the vertical histogram shown in FIG. 4C is the horizontal direction shown in FIG. 4B. Through the corresponding point P2 in the histogram, a water level P3 that is a boundary between the land portion and the flowing water portion in the binary image shown in FIG. The case where it applies to an actual river image is shown in FIG.

なお、上述した説明では、画像において水面が水平である(陸部と流水部の境界が横方向に伸びている)場合を一例として示したが、画像において水面が垂直である(陸部と流水部の境界が縦方向に伸びている)場合には、各列毎にエッジ画素数を積算してエッジ画素の縦方向のヒストグラムを生成し、それを参照して各エッジ画素数に関する横方向のヒストグラムを生成するようにすれば良い。   In the above description, the case where the water surface is horizontal in the image (the boundary between the land portion and the flowing water portion extends in the lateral direction) is shown as an example, but the water surface is vertical in the image (the land portion and the flowing water). When the boundary of the portion extends in the vertical direction), the edge pixel number is added up for each column to generate a vertical histogram of the edge pixel, and the horizontal direction of each edge pixel number is referenced with reference to that. A histogram may be generated.

以上、説明したように本実施形態によれば、河川等を被写体として固定カメラCMを用いて撮影された撮像映像から、領域抽出部1により陸部と流水部の境界、すなわち陸部と流水部を含む領域画像を抽出し、フレーム加算部2により各領域について数フレーム分を加算して流水部が滑らかになった画像を生成する。さらに、その画像全体にウェーブレット変換をウェーブレット変換部3により施し、ウェーブレット変換により得られた特徴ベクトルを基に陸部の画素であるか、流水部の画素であるか最尤推定部4で推定し、その推定結果に基づき領域分割部5により陸部及び流水部に領域分割を行う。これにより、陸部及び流水部をそれぞれ検出でき、その二領域の境界を水位と判定することで、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その流水領域を検出することができる。   As described above, according to the present embodiment, from the captured image captured using the fixed camera CM with a river or the like as a subject, the region extraction unit 1 uses the boundary between the land part and the flowing part, that is, the land part and the flowing part. Is extracted, and the frame adding unit 2 adds several frames for each region to generate an image in which the running water portion is smooth. Further, the wavelet transform is performed on the entire image by the wavelet transform unit 3, and the maximum likelihood estimation unit 4 estimates whether the pixel is a land pixel or a flowing water pixel based on the feature vector obtained by the wavelet transform. Based on the estimation result, the region dividing unit 5 performs region division on the land portion and the flowing water portion. As a result, the land part and the flowing water part can be detected, respectively, and the boundary between the two areas is determined as the water level, so that the flowing water can be detected only from the video signal with the river or the like as the subject without installing any object in the water. A region can be detected.

なお、上述した説明では、領域抽出部1は、固定カメラCMを用いて撮影された撮像映像から1つの領域画像を抽出するようにしているが、図6に示すように、1枚のフレームに対して複数の領域画像(図6に示す例では、領域1、領域2、及び領域3)を抽出するようにしても良い。その場合、複数の領域画像において、その一部領域が重複していても構わない。これらの各領域画像のそれぞれについて、上述した処理により陸部及び流水部を判別し、得られた複数の結果から総合的に判断して最終的な陸部及び流水部の領域分割を行うようにしても良い。例えば、複数の結果の平均値を最終的な陸部及び流水部の境界としたり、多数決法により最終的な陸部及び流水部の領域を決定することで、固定カメラCMのレンズに雨水が付着したり、降雨や降雪あるいは霧による画像障害が発生して流水部が検出しにくい場合でも、流水部を高精度かつ安定して検出することが可能となる。   In the above description, the area extraction unit 1 extracts one area image from the captured video imaged using the fixed camera CM. However, as shown in FIG. On the other hand, a plurality of region images (region 1, region 2, and region 3 in the example shown in FIG. 6) may be extracted. In that case, the partial areas may overlap in the plurality of area images. For each of these area images, the land part and the flowing water part are discriminated by the above-described processing, and the final division of the land part and the flowing water part is performed by comprehensively judging from the obtained results. May be. For example, rainwater adheres to the lens of the fixed camera CM by using the average value of multiple results as the boundary between the final land part and the flowing water part, or by determining the final land part and flowing water area by the majority method. Even when an image failure due to rainfall, snowfall or fog occurs and it is difficult to detect the flowing water portion, the flowing water portion can be detected with high accuracy and stability.

(本発明の他の実施形態)
なお、上述した実施形態は、コンピュータのCPU又はMPU、RAM、ROM等で構成可能なものであり、RAMやROMに記憶されたプログラムが動作することによって実現でき、上記プログラムは本発明の実施形態に含まれる。また、コンピュータが上述の実施形態の機能を果たすように動作させるプログラムを、例えばCD−ROMのような記録媒体に記録し、コンピュータに読み込ませることによって実現できるものであり、上記プログラムを記録した記録媒体は本発明の実施形態に含まれる。上記プログラムを記録する記録媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。
また、コンピュータがプログラムを実行し処理を行うことにより、上述の実施形態の機能が実現されるプログラムプロダクトは、本発明の実施形態に含まれる。上記プログラムプロダクトとしては、上述の実施形態の機能を実現するプログラム自体、上記プログラムが読み込まれたコンピュータ、ネットワークを介して通信可能に接続されたコンピュータに上記プログラムを提供可能な送信装置、及び当該送信装置を備えるネットワークシステム等がある。
また、コンピュータが供給されたプログラムを実行することにより上述の実施形態の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)又は他のアプリケーションソフト等と共同して上述の実施形態の機能が実現される場合や、供給されたプログラムの処理のすべて又は一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて上述の実施形態の機能が実現される場合も、かかるプログラムは本発明の実施形態に含まれる。
(Other embodiments of the present invention)
The above-described embodiment can be configured by a CPU or MPU of a computer, a RAM, a ROM, and the like, and can be realized by operating a program stored in the RAM or the ROM, and the program is an embodiment of the present invention. include. In addition, a program that causes a computer to operate so as to perform the functions of the above-described embodiments can be realized by recording the program on a recording medium such as a CD-ROM and causing the computer to read the program. A medium is included in an embodiment of the present invention. As a recording medium for recording the program, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, and the like can be used in addition to the CD-ROM.
In addition, a program product in which the functions of the above-described embodiments are realized by a computer executing a program and performing processing is included in the embodiments of the present invention. The program product includes the program itself that implements the functions of the above-described embodiments, a computer loaded with the program, a transmission device that can provide the program to a computer that is communicably connected via a network, and the transmission There are network systems equipped with devices.
Moreover, not only the functions of the above-described embodiments are realized by executing a program supplied by a computer, but the program is also shared with an OS (operating system) or other application software running on the computer. When the functions of the above-described embodiment are realized, or when all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer, the functions of the above-described embodiment are realized. Such a program is included in the embodiment of the present invention.

例えば、図7に示すようなコンピュータ機能700を有し、そのCPU701により上述した実施形態での動作が実施される。
コンピュータ機能700は、図7に示すように、CPU701と、ROM702と、RAM703と、キーボード(KB)709のキーボードコントローラ(KBC)705と、表示部としてのCRTディスプレイ(CRT)710のCRTコントローラ(CRTC)706と、ハードディスク(HD)711及びフレキシブルディスク(FD)712のディスクコントローラ(DKC)707と、ネットワークインタフェースカード(NIC)708とが、システムバス704を介して互いに通信可能に接続された構成としている。
CPU701は、ROM702又はHD711に記憶されたソフトウェア、又はFD712より供給されるソフトウェアを実行することで、システムバス704に接続された各構成部を総括的に制御する。
すなわち、CPU701は、上述したような動作を行うための処理プログラムを、ROM702、HD711、又はFD712から読み出して実行することで、上述した実施形態での動作を実現するための制御を行う。
RAM703は、CPU701の主メモリ又はワークエリア等として機能する。
KBC705は、KB709や図示していないポインティングデバイス等からの指示入力を制御する。
CRTC706は、CRT710の表示を制御する。
DKC707は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び上記処理プログラム等を記憶するHD711及びFD712とのアクセスを制御する。
NIC708はネットワーク713上の他の装置と双方向にデータをやりとりする。
For example, a computer function 700 as shown in FIG. 7 is provided, and the CPU 701 performs the operation in the above-described embodiment.
As shown in FIG. 7, the computer function 700 includes a CPU 701, a ROM 702, a RAM 703, a keyboard controller (KBC) 705 of a keyboard (KB) 709, and a CRT controller (CRTC) of a CRT display (CRT) 710 as a display unit. ) 706, a disk controller (DKC) 707 of a hard disk (HD) 711 and a flexible disk (FD) 712, and a network interface card (NIC) 708 are communicably connected to each other via a system bus 704. Yes.
The CPU 701 comprehensively controls each component connected to the system bus 704 by executing software stored in the ROM 702 or the HD 711 or software supplied from the FD 712.
That is, the CPU 701 reads out a processing program for performing the above-described operation from the ROM 702, the HD 711, or the FD 712 and executes it, thereby performing control for realizing the operation in the above-described embodiment.
The RAM 703 functions as a main memory or work area for the CPU 701.
The KBC 705 controls an instruction input from the KB 709 or a pointing device (not shown).
The CRTC 706 controls display on the CRT 710.
The DKC 707 controls access to the HD 711 and the FD 712 that store a boot program, various applications, user files, a network management program, the processing program, and the like.
The NIC 708 exchanges data with other devices on the network 713 in both directions.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

本発明の一実施形態による流水領域検出システムの構成例を示す図である。It is a figure which shows the structural example of the flowing water area | region detection system by one Embodiment of this invention. 図1に示す流水領域検出システムで処理された画像の一例を示す図である。It is a figure which shows an example of the image processed with the flowing water area | region detection system shown in FIG. 領域分割部の構成例を示す図である。It is a figure which shows the structural example of an area division part. 図3に示す領域分割部による領域分割の原理を説明するための図である。It is a figure for demonstrating the principle of the area division by the area division part shown in FIG. 図3に示す領域分割部による領域分割を実際の河川画像に適用した場合を示す図である。It is a figure which shows the case where the area division by the area division part shown in FIG. 3 is applied to an actual river image. 領域抽出部による領域画像抽出の他の例を示す図である。It is a figure which shows the other example of the area image extraction by an area extraction part. 本実施形態における流水領域検出システムを実現可能なコンピュータ機能を示すブロック図である。It is a block diagram which shows the computer function which can implement | achieve the flowing water area | region detection system in this embodiment.

符号の説明Explanation of symbols

1 領域抽出部
2 フレーム加算部
3 ウェーブレット変換部
4 最尤推定部
5 領域分割部
11 横方向ヒストグラム計算部
12 縦方向ヒストグラム計算部
13 境界値決定部
14 水位計算部
DESCRIPTION OF SYMBOLS 1 Area extraction part 2 Frame addition part 3 Wavelet transformation part 4 Maximum likelihood estimation part 5 Area division part 11 Horizontal direction histogram calculation part 12 Vertical direction histogram calculation part 13 Boundary value determination part 14 Water level calculation part

Claims (7)

固定カメラを用いて撮影された映像に基づいて水位を検出する水位検出システムであって、
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、
上記積分手段により得られた映像にウェーブレット変換を施す変換手段と、
上記変換手段でのウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定手段と、
上記推定手段での推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割手段とを備え、
上記領域分割手段は、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とする水位検出システム。
A water level detection system that detects a water level based on an image captured using a fixed camera,
An integration unit that integrates the supplied image in the time direction, provided with an image including a flowing region and a non-flowing region captured using a fixed camera;
Conversion means for performing wavelet transform on the video obtained by the integration means;
An estimation unit that estimates, for each pixel, whether the pixel is in the flowing region or the non-flowing region based on the feature amount obtained by the wavelet transform in the conversion unit;
An area dividing means for detecting a water level by dividing an in-video area into the flowing water area and the non-flowing water area based on an estimation result in the estimating means;
The region dividing means integrates the number of target pixels with respect to a direction in which a boundary between the flowing water region and the non-flowing region extends, with the pixel estimated as the flowing water region or the pixel estimated as the non-flowing water region as a target pixel. Further, the boundary pixel number is determined from the distribution of the obtained target pixel number, and the boundary pixel number is used as a threshold value to divide the flowing water region and the non-flowing region based on the obtained target pixel number. A water level detection system for detecting a boundary between a flowing water region and the non-flowing water region as a water level.
上記積分手段は、供給される映像を複数のフレームにわたって加算することを特徴とする請求項1記載の水位検出システム。   2. The water level detection system according to claim 1, wherein the integration means adds the supplied video over a plurality of frames. 上記推定手段は、上記ウェーブレット変換により分割された複数の帯域信号を上記特徴量として、上記流水領域の画素であるか又は上記非流水領域の画素であるかを推定することを特徴とする請求項1又は2記載の水位検出システム。   The said estimation means estimates whether it is a pixel of the said water flow area | region or the pixel of the said non-flow water area | region, using the several band signal divided | segmented by the said wavelet transformation as the said feature-value. The water level detection system according to 1 or 2. 上記固定カメラを用いて撮影された映像から上記流水領域及び非流水領域が含まれる領域映像を抽出して上記積分手段に供給する領域抽出手段をさらに備えることを特徴とする請求項1〜3の何れか1項に記載の水位検出システム。   The apparatus according to claim 1, further comprising a region extracting unit that extracts a region image including the flowing region and the non-flowing region from an image captured using the fixed camera and supplies the region image to the integrating unit. The water level detection system according to any one of claims. 上記固定カメラを用いて撮影された映像から互いに領域の異なる複数の上記領域映像を抽出し、抽出した各領域映像毎に処理して得られる各領域映像での上記流水領域及び上記非流水領域の分割結果に基づいて、上記撮影された映像における水位を検出することを特徴とする請求項4記載の水位検出システム。   Extracting the plurality of region images having different regions from the image captured using the fixed camera, and processing each of the region images obtained by processing each extracted region image 5. The water level detection system according to claim 4, wherein a water level in the photographed video is detected based on the division result. 固定カメラを用いて撮影された映像に基づいて水位を検出する水位検出方法であって、
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、
上記積分工程で得られた映像にウェーブレット変換を施す変換工程と、
上記ウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定工程と、
上記推定工程での推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割工程とを有し、
上記領域分割工程にて、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とする水位検出方法。
A water level detection method for detecting a water level based on an image taken with a fixed camera,
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A conversion step of performing wavelet conversion on the video obtained in the integration step;
An estimation step for estimating, for each pixel, whether the pixel is in the flowing region or the non-flowing region based on the feature amount obtained by the wavelet transform;
A region dividing step of detecting a water level by dividing a region in the image into the flowing water region and the non-flowing water region based on the estimation result in the estimating step;
In the region dividing step, the pixel estimated as the flowing region or the pixel estimated as the non-flowing region is set as the target pixel, and the number of target pixels is integrated in the direction in which the boundary between the flowing region and the non-flowing region extends. Further, by determining the number of boundary pixels from the obtained distribution of the number of target pixels, and dividing the divided into the flowing region and the non-flowing region based on the obtained number of target pixels using the boundary pixel number as a threshold value. A water level detection method, wherein a boundary between the flowing water region and the non-flowing water region is detected as a water level.
固定カメラを用いて撮影された映像に基づく水位検出処理をコンピュータに実行させるためのプログラムであって、
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、
上記積分ステップで得られた映像にウェーブレット変換を施す変換ステップと、
上記ウェーブレット変換により得られた特徴量に基づいて、上記流水領域の画素であるか又は上記非流水領域の画素であるかを画素毎に推定する推定ステップと、
上記推定ステップでの推定結果に基づいて、映像内領域を上記流水領域及び上記非流水領域に分割することによって水位を検出する領域分割ステップとをコンピュータに実行させ、
上記領域分割ステップにて、上記流水領域と推定された画素又は上記非流水領域と推定された画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することによって上記流水領域と上記非流水領域との境界を水位として検出することを特徴とするプログラム。
A program for causing a computer to execute a water level detection process based on an image captured using a fixed camera,
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A conversion step of performing wavelet transform on the video obtained in the integration step;
An estimation step for estimating, for each pixel, whether the pixel is the pixel of the flowing water region or the pixel of the non-flowing region based on the feature amount obtained by the wavelet transform;
Based on the estimation result in the estimation step, the computer executes an area division step of detecting a water level by dividing an in-video area into the flowing water area and the non-flowing area,
In the region dividing step, the pixel estimated as the flowing region or the pixel estimated as the non-flowing region is set as the target pixel, and the number of target pixels is integrated in the direction in which the boundary between the flowing region and the non-flowing region extends. Further, by determining the number of boundary pixels from the obtained distribution of the number of target pixels, and dividing the divided into the flowing region and the non-flowing region based on the obtained number of target pixels using the boundary pixel number as a threshold value. A program for detecting a boundary between the flowing water region and the non-flowing water region as a water level.
JP2006049247A 2006-02-24 2006-02-24 Water level detection system, water level detection method, and program Active JP4677561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006049247A JP4677561B2 (en) 2006-02-24 2006-02-24 Water level detection system, water level detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006049247A JP4677561B2 (en) 2006-02-24 2006-02-24 Water level detection system, water level detection method, and program

Publications (2)

Publication Number Publication Date
JP2007226681A JP2007226681A (en) 2007-09-06
JP4677561B2 true JP4677561B2 (en) 2011-04-27

Family

ID=38548419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006049247A Active JP4677561B2 (en) 2006-02-24 2006-02-24 Water level detection system, water level detection method, and program

Country Status (1)

Country Link
JP (1) JP4677561B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4910139B2 (en) * 2006-02-24 2012-04-04 国立大学法人長岡技術科学大学 Running water area detection system, running water area detection method, and program
JP2011080859A (en) * 2009-10-07 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for detection of water surface boundary
JP5384316B2 (en) * 2009-12-24 2014-01-08 株式会社パスコ Displacement measuring device, displacement measuring method, and displacement measuring program
JP5601255B2 (en) * 2011-03-18 2014-10-08 富士通株式会社 Water level monitoring device, water level monitoring method, and water level monitoring program
KR101192300B1 (en) 2011-09-27 2012-12-24 계명대학교 산학협력단 Water level detection method using k-means clustering
JP2017091440A (en) * 2015-11-17 2017-05-25 ソニー株式会社 Disaster prevention system and disaster prevention method
JP6682409B2 (en) * 2016-09-08 2020-04-15 株式会社東芝 River monitoring device, river monitoring method and program
JP6911697B2 (en) * 2017-10-20 2021-07-28 富士通株式会社 Water level judgment program, water level judgment method, and water level judgment device
CN107833432A (en) * 2017-11-30 2018-03-23 深圳市多精彩电子科技有限公司 Drowned monitoring and alarming system and drowned monitoring alarm method
CN110874825B (en) * 2019-10-29 2023-05-30 南昌大学 Method for extracting binary image of water trace on surface of composite insulator
JP6946541B1 (en) * 2020-12-25 2021-10-06 株式会社クボタ River monitoring device, river monitoring system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935065A (en) * 1995-07-24 1997-02-07 Mitsubishi Electric Corp On-vehicle image processor
JP2002148094A (en) * 2000-11-10 2002-05-22 Hitachi Ltd Method and equipment for measuring water level
JP2003149032A (en) * 2001-11-16 2003-05-21 Mitsubishi Electric Corp Level measuring device
JP2004258752A (en) * 2003-02-24 2004-09-16 Fuji Photo Film Co Ltd Image dividing method and device
JP2007256254A (en) * 2006-02-24 2007-10-04 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935065A (en) * 1995-07-24 1997-02-07 Mitsubishi Electric Corp On-vehicle image processor
JP2002148094A (en) * 2000-11-10 2002-05-22 Hitachi Ltd Method and equipment for measuring water level
JP2003149032A (en) * 2001-11-16 2003-05-21 Mitsubishi Electric Corp Level measuring device
JP2004258752A (en) * 2003-02-24 2004-09-16 Fuji Photo Film Co Ltd Image dividing method and device
JP2007256254A (en) * 2006-02-24 2007-10-04 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program

Also Published As

Publication number Publication date
JP2007226681A (en) 2007-09-06

Similar Documents

Publication Publication Date Title
JP4677561B2 (en) Water level detection system, water level detection method, and program
JP4910139B2 (en) Running water area detection system, running water area detection method, and program
JP4839442B2 (en) Image processing system, image processing method, and program
Messelodi et al. A Kalman filter based background updating algorithm robust to sharp illumination changes
US9947077B2 (en) Video object tracking in traffic monitoring
JP5478047B2 (en) Video data compression pre-processing method, video data compression method and video data compression system using the same
JP6891972B2 (en) River risk assessment device, river risk assessment method, and program
US8385732B2 (en) Image stabilization
KR20120020008A (en) Method for reconstructing super-resolution image, and system for detecting illegally parked vehicles therewith
US10789470B2 (en) System and method for detecting dynamic object
KR101851896B1 (en) Method and apparatus for video stabilization using feature based particle keypoints
WO2021223127A1 (en) Global motion estimation-based time-domain filtering method and device, and storage medium
JP7078295B2 (en) Deformity detection device, deformation detection method, and program
JP5848665B2 (en) Moving object motion vector detection apparatus, moving object motion vector detection method, and program
Colombari et al. Background initialization in cluttered sequences
JP5272890B2 (en) Image processing apparatus, image processing method, and program
Huang et al. Tracking camouflaged objects with weighted region consolidation
Lindstrom et al. Background and foreground modeling using an online EM algorithm
WO2022063386A1 (en) Generation of a 3d point cloud of a scene
JP4566803B2 (en) Spatial synchronization recovery method and apparatus for digital watermark detection for moving images
Kancherla et al. Video steganalysis using spatial and temporal redundancies
KR20190007382A (en) System and method for detecting dynamic object
US20230199135A1 (en) Method for generating a bird&#39;s eye view image
Fenyi et al. Gaussian based Image Segmentation Algorithm
CN115937263B (en) Vision-based target tracking method, system, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150