JP2007256254A - Water flow area detection system, water flow area detection method, and program - Google Patents

Water flow area detection system, water flow area detection method, and program Download PDF

Info

Publication number
JP2007256254A
JP2007256254A JP2006232597A JP2006232597A JP2007256254A JP 2007256254 A JP2007256254 A JP 2007256254A JP 2006232597 A JP2006232597 A JP 2006232597A JP 2006232597 A JP2006232597 A JP 2006232597A JP 2007256254 A JP2007256254 A JP 2007256254A
Authority
JP
Japan
Prior art keywords
region
flowing
flowing water
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006232597A
Other languages
Japanese (ja)
Other versions
JP4910139B2 (en
Inventor
Masahiro Iwahashi
政宏 岩橋
Junji Saito
淳史 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology NUC
Original Assignee
Nagaoka University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology NUC filed Critical Nagaoka University of Technology NUC
Priority to JP2006232597A priority Critical patent/JP4910139B2/en
Publication of JP2007256254A publication Critical patent/JP2007256254A/en
Application granted granted Critical
Publication of JP4910139B2 publication Critical patent/JP4910139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Measurement Of Levels Of Liquids Or Fluent Solid Materials (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a water flow area by only an image signal that has a river or the like as subject, without having to install any object in water. <P>SOLUTION: This water flow area detection system/method is provided with a frame addition part 2 for adding images, including the water flow area and a non-water-flow area photographed by using a fixed camera CM over a plurality of frames; a space filter processing part 3 for intensifying an edge component in an added image; a binarization processing part 4 for classifying respective pixels in an image generated by the space filer processing part 3, based on whether the each pixel is an edge pixel; and an area division part 5A for determining the water flow area and a non-water-flow area, based on the binarized image obtained, and the water flow area is thereby detected by only the image signal with the river or the like as the subject, without having to install any object in the water. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、流水領域検出システム、流水領域検出方法、及びプログラムに関し、詳しくは、撮影して得られる映像信号に基づく河川等の流水領域検出技術に関する。   The present invention relates to a flowing water region detection system, a flowing water region detection method, and a program, and more particularly, to a flowing water region detection technique such as a river based on a video signal obtained by photographing.

河川の氾濫による水害を事前に察知して水防活動に役立てるために、河川敷の各所に水位計や監視カメラを設置し、それらにより得られるデータを一箇所に集約するシステムが、国土交通省が設置するテレメータをはじめとして多数実現されている。また、傾斜模様が描かれた量水板を河川中に設置し、その量水板を含む画像を取り込んで画像処理を行うことで、水位計を設置せずに河川映像から河川の水位を検出する方法が提案されている(例えば、特許文献1参照。)。   The Ministry of Land, Infrastructure, Transport and Tourism has established a system that installs water level meters and monitoring cameras at various locations on the riverbed and collects the data obtained from them in one place in order to detect flood damage caused by river floods in advance and use it for flood control activities. Many telemeters have been implemented. In addition, a water level plate with an inclined pattern is installed in the river, and the water level of the river is detected from the river image without installing a water level meter by capturing the image including the level water plate and performing image processing. A method has been proposed (for example, see Patent Document 1).

特開平9−161076号公報Japanese Patent Laid-Open No. 9-161076

しかしながら、流水を妨げる物体を河川の中に設置することは、洪水等の災害の要因となり得るため、河川法により厳しく制限管理されており、河川において量水板が設置できる場所は限られている。その一方で、できるだけ多くの箇所から水位データを収集することが、より正確で信頼できる防災情報を生成するためには欠かせない。   However, the installation of objects that obstruct running water in rivers can cause floods and other disasters, so they are strictly controlled by the River Law, and there are only a limited number of places where water can be installed in rivers. . On the other hand, collecting water level data from as many locations as possible is indispensable for generating more accurate and reliable disaster prevention information.

本発明は、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その河川等の流水領域を検出できるようにすることを目的とする。   An object of the present invention is to make it possible to detect a flowing water region of a river or the like from only a video signal having the river or the like as a subject without installing any object in the water.

本発明の流水領域検出システムは、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、上記積分手段により得られた映像のエッジ成分を強調させる空間フィルタ処理手段と、上記空間フィルタ処理手段で処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定し、当該判定結果に基づいて上記流水領域及び上記非流水領域を判別する領域判別手段とを備えることを特徴とする。
また、本発明の流水領域検出システムは、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、上記積分手段により得られた映像のエッジ成分を強調させる空間フィルタ処理手段と、上記空間フィルタ処理手段で処理された映像における各ライン毎に求めた特徴量に基づいて上記流水領域及び上記非流水領域を判別する領域判別手段とを備えることを特徴とする。
本発明の流水領域検出方法は、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、上記積分工程で得られた映像のエッジ成分を強調させる空間フィルタ処理工程と、上記空間フィルタ処理工程で処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定する判定工程と、上記判定工程での判定結果に基づいて、上記流水領域及び上記非流水領域を判別する領域判別工程とを有することを特徴とする。
また、本発明の流水領域検出方法は、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、上記積分工程で得られた映像のエッジ成分を強調させる空間フィルタ処理工程と、上記空間フィルタ処理工程で処理された映像の各ライン毎に特徴量を算出する特徴量計算工程と、上記特徴量計算工程で算出された特徴量に基づいて、上記流水領域及び上記非流水領域を判別する領域判別工程とを有することを特徴とする。
本発明のプログラムは、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、上記積分ステップで得られた映像のエッジ成分を強調させる空間フィルタ処理ステップと、上記空間フィルタ処理ステップで処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定する判定ステップと、上記判定ステップでの判定結果に基づいて、上記流水領域及び上記非流水領域を判別する領域判別ステップとをコンピュータに実行させることを特徴とする。
また、本発明のプログラムは、固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、上記積分ステップで得られた映像のエッジ成分を強調させる空間フィルタ処理ステップと、上記空間フィルタ処理ステップで処理された映像の各ライン毎に特徴量を算出する特徴量計算ステップと、上記特徴量計算ステップで算出された特徴量に基づいて、上記流水領域及び上記非流水領域を判別する領域判別ステップとをコンピュータに実行させることを特徴とする。
The flowing water region detection system of the present invention is supplied with an image including a flowing water region and a non-flowing water region photographed using a fixed camera, and integrates the supplied image in a time direction. Spatial filter processing means for enhancing the edge component of the received video, and for each pixel in the video processed by the spatial filter processing means is determined for each pixel, and based on the determination result And a region discriminating unit for discriminating between the flowing water region and the non-flowing water region.
Further, the flowing water region detection system of the present invention is supplied with an image including a flowing water region and a non-flowing region imaged using a fixed camera, and integrates the supplied image in the time direction, and the integrating device The spatial filter processing means for enhancing the edge component of the image obtained by the above, and the flowing water region and the non-flowing water region are discriminated based on the feature value obtained for each line in the video processed by the spatial filter processing device. It comprises an area discriminating means.
The flowing water region detection method of the present invention emphasizes the integration step of integrating an image including a flowing water region and a non-flowing region photographed using a fixed camera in the time direction, and the edge component of the image obtained in the integration step. A spatial filter processing step, a determination step for determining whether each pixel in the video processed in the spatial filter processing step is an edge pixel, and a determination result in the determination step And an area discriminating step for discriminating between the flowing water area and the non-flowing water area.
Further, the flowing water region detection method of the present invention includes an integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera, and an edge component of the image obtained in the integration step. Based on the feature amount calculated in the feature amount calculation step, the feature amount calculation step for calculating the feature amount for each line of the video processed in the spatial filter processing step, and the feature amount calculated in the feature amount calculation step, An area discriminating step for discriminating between the flowing water area and the non-flowing water area.
The program of the present invention includes an integration step for integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera, and a spatial filter for enhancing an edge component of the image obtained in the integration step. A step of determining for each pixel whether or not each pixel in the image processed in the spatial filter processing step is an edge pixel, and the flow of water based on the determination result in the determination step An area determination step for determining an area and the non-flowing water area is caused to be executed by a computer.
In addition, the program of the present invention emphasizes an integration step for integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera, and an edge component of the image obtained in the integration step. A spatial filter processing step; a feature amount calculation step for calculating a feature amount for each line of the video processed in the spatial filter processing step; and the flowing water region based on the feature amount calculated in the feature amount calculation step. And a region determining step for determining the non-flowing water region.

本発明によれば、河川等を被写体として固定カメラで撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分して流水領域におけるエッジ成分を抑圧し、その映像における非流水領域におけるエッジ成分を強調させる空間フィルタを画像全体に施す。そして、空間フィルタの施された映像の各画素に対してエッジ成分であるか否かを判定し、その結果に基づいて流水領域及び非流水領域を判別する。あるいは、空間フィルタの施された映像における各ライン毎に求めた特徴量に基づいて流水領域及び非流水領域を判別する。これにより、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その流水領域を検出することができる。   According to the present invention, an image including a flowing region and a non-flowing region captured by a fixed camera with a river or the like as a subject is integrated in the time direction to suppress edge components in the flowing region, and in the non-flowing region in the image A spatial filter that enhances the edge component is applied to the entire image. And it determines whether it is an edge component with respect to each pixel of the image | video with which the spatial filter was given, and discriminate | determines a flowing water area | region and a non-flowing water area | region based on the result. Alternatively, the flowing water region and the non-flowing water region are discriminated based on the feature amount obtained for each line in the image subjected to the spatial filter. Thereby, the flowing water region can be detected only from the video signal having the river or the like as a subject without installing any object in the water.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態による流水領域検出システムの構成例を示すブロック図である。第1の実施形態による流水領域検出システムは、固定カメラCMを用いた撮影で得られる河川等を被写体とする映像信号から、時間方向の積分(例えば本実施形態ではフレーム加算)及び空間フィルタ処理に基づき、その河川等における流水領域を検出する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration example of a flowing water region detection system according to the first embodiment of the present invention. The flowing water region detection system according to the first embodiment performs integration in the time direction (for example, frame addition in this embodiment) and spatial filter processing from a video signal having a subject such as a river obtained by photographing using a fixed camera CM. Based on this, a flowing water area in the river or the like is detected.

第1の実施形態による流水領域検出システムは、図1に示すように、領域抽出部1、フレーム加算部2、空間フィルタ処理部3、二値化処理部4、及び領域分割部5Aを有する。以下、図1に示した流水領域検出システムの各機能部について詳細に説明する。なお、以下においては、必要に応じて図2に示すような実際の河川画像について流水領域及び非流水領域を検出、判別することで、河川の水位検出を行う場合を適宜例示して説明する。   As shown in FIG. 1, the flowing water region detection system according to the first embodiment includes a region extraction unit 1, a frame addition unit 2, a spatial filter processing unit 3, a binarization processing unit 4, and a region division unit 5A. Hereinafter, each function part of the flowing water area detection system shown in FIG. 1 will be described in detail. In the following, a case where the water level of a river is detected by detecting and discriminating a flowing water region and a non-flowing water region in an actual river image as shown in FIG.

(領域抽出部1)
領域抽出部1は、固定カメラCMを用いて撮影された撮像映像から、半分に陸部が、もう半分には流水部が写っているような領域を数フレームにわたり抽出する。ここで、流水部とは、撮像映像における水面等の水が写りこんだ領域であり、陸部とは、流水部以外の領域(例えば、背景画像等の領域)である。
(Region extraction unit 1)
The region extraction unit 1 extracts a region in which a land portion is captured in half and a flowing water portion in half, from a captured image captured using the fixed camera CM over several frames. Here, the flowing water part is an area where water such as a water surface in the captured image is reflected, and the land part is an area other than the flowing water part (for example, an area such as a background image).

例えば、領域抽出部1は、図2(a)に示すように上半分が陸部、下半分が流水部であるような領域画像を撮像映像から抽出する。なお、領域画像を抽出する際、陸部が下で流水部が上、又は陸部及び流水部がそれぞれ左と右、あるいは右と左に写っていても良く、流水領域の検出は可能である。また、撮影映像全体の半分が陸部、もう半分が流水部となるように固定カメラCMのアングル等を調整して撮影を行い、得られた撮影映像そのものを領域画像としても良い。   For example, the region extraction unit 1 extracts a region image in which the upper half is a land portion and the lower half is a flowing portion as shown in FIG. When extracting the area image, the land part may be below and the flowing part may be above, or the land part and flowing part may be shown on the left and right, or on the right and left, respectively, and the flowing area can be detected. . Further, it is also possible to perform shooting by adjusting the angle of the fixed camera CM so that half of the entire shot video is a land portion and the other half is a flowing water portion, and the obtained shot video itself may be used as a region image.

ここで、領域画像における陸部には模様のある静止した物体が写っており,流水部においては水面が常に動いていることが望ましい。また、領域画像において水面は水平であることが望ましく、そうなるように撮影画像(領域画像)を90度回転させるか拡大や縮小をするなどのアフィン変換を施すことも効果的である。また、夜間に撮影した映像については、例えば赤外線照射した結果として、陸部に何らかの模様が写ってさえいれば、流水部には何も写っていなくても良く、流水領域を検出可能である。   Here, it is desirable that a stationary object with a pattern appears in the land portion in the region image, and that the water surface always moves in the flowing water portion. Further, it is desirable that the water surface is horizontal in the region image, and it is also effective to perform affine transformation such as rotating the photographed image (region image) 90 degrees or enlarging or reducing the image so as to be so. In addition, for a video taken at night, for example, as long as a certain pattern is reflected in the land as a result of infrared irradiation, nothing may be reflected in the flowing water, and the flowing water area can be detected.

領域画像の抽出は、ある時点でユーザーが抽出位置を指定した後は、流水領域の検出結果を基に得られた水位に応じて水面が常に領域画像の中心付近に位置するようにして、ある時間間隔で自動的に実施するようにしても良い。   The region image is extracted after the user designates the extraction position at a certain point in time so that the water surface is always located near the center of the region image according to the water level obtained based on the detection result of the flowing water region. It may be performed automatically at time intervals.

(フレーム加算部2)
フレーム加算部2は、領域抽出部1により抽出された領域画像について、複数のフレームを同期加算する。すなわち、フレーム加算部2は、領域抽出部1により抽出された領域画像を時間方向に積分する。これにより、動いている流水部がぼやけた、あるいは滑らかとなった画像が得られる。つまり、流水部のエッジ成分(高周波成分)が抑圧される。その一方で、静止している陸部は特に変化しない。このことは、例えば図2(a)及び図2(b)を比較することで確認できる。図2(b)は、フレーム加算部2により複数フレームを同期加算して得られたものである。
(Frame adder 2)
The frame addition unit 2 synchronously adds a plurality of frames for the region image extracted by the region extraction unit 1. That is, the frame addition unit 2 integrates the region image extracted by the region extraction unit 1 in the time direction. As a result, an image in which the moving flowing water part is blurred or smooth is obtained. That is, the edge component (high frequency component) of the flowing water part is suppressed. On the other hand, the stationary land is not particularly changed. This can be confirmed, for example, by comparing FIG. 2 (a) and FIG. 2 (b). FIG. 2B is obtained by synchronously adding a plurality of frames by the frame adder 2.

ただし、複数のフレームの領域画像を加算する際、単純に加算を行うと画素値も単純に増大してしまい要求されるリソース等も増大するので、例えば加算したフレーム数で画素値を割るなどして画素値の値域拡大を防止することが望ましい。また、例えば、画像を加算する際に、画素値に重み係数を乗じたり、あるいは画素値に関しビットシフトを行ったりしても良い。   However, when adding region images of a plurality of frames, if the addition is simply performed, the pixel value simply increases and the required resources increase. For example, the pixel value is divided by the number of added frames. Therefore, it is desirable to prevent the range of pixel values from expanding. Further, for example, when adding images, the pixel value may be multiplied by a weighting factor, or a bit shift may be performed on the pixel value.

例えば、フレーム加算部2は、4枚のフレームを加算する場合には,各フレームにおける画素値に0.25を乗じるか、あるいはそれと等価になるように画素値を右に2ビットシフトさせた後に、既にフレームメモリに格納されている画素値と加算し、加算結果をフレームメモリに新たに格納する。これにより、加算される枚数分のフレームメモリを用意することなく、少ないフレームメモリでフレーム加算を実現することができる。   For example, when adding four frames, the frame adding unit 2 multiplies the pixel value in each frame by 0.25 or shifts the pixel value to the right by 2 bits so as to be equivalent to it. The pixel value already stored in the frame memory is added, and the addition result is newly stored in the frame memory. Thus, frame addition can be realized with a small number of frame memories without preparing as many frame memories as the number of sheets to be added.

また、フレームメモリに格納されている画素値と、領域抽出部1により抽出された領域画像の画素値とを加算して2で割った後、その加算結果をフレームメモリに新たに格納する。この処理を繰り返すことで,複数のフレームの領域画像が重み加算された画像が生成される。あるいは、固定カメラCMで撮像する際に、シャッターを比較的長い時間に亘り開けておき、露光時間を比較的長くすることでも、上述したように複数のフレームを加算した場合と同等の効果を得ることができる。   Further, the pixel value stored in the frame memory and the pixel value of the region image extracted by the region extraction unit 1 are added and divided by 2, and then the addition result is newly stored in the frame memory. By repeating this process, an image is generated by weight-adding region images of a plurality of frames. Alternatively, when taking an image with the fixed camera CM, an effect equivalent to that obtained by adding a plurality of frames as described above can be obtained by opening the shutter for a relatively long time and making the exposure time relatively long. be able to.

また、複数のフレームにわたって画像を加算する前に、加算する画像に対して、例えば時間方向のメディアンフィルタ処理といった非線形処理を施すようにしても良い。このように、加算する領域画像に非線形処理を施すことで、固定カメラCMの前を遮る鳥や虫、降雨雪粒子、あるいは車のライトや水滴といった一時的に発生した外乱による影響を取り除くことができ、安定した水位検出を行うことが可能となる。   Further, before adding images over a plurality of frames, non-linear processing such as median filter processing in the time direction may be performed on the images to be added. In this way, by performing non-linear processing on the region image to be added, it is possible to remove the influence caused by disturbances such as birds, insects, rain and snow particles, or car lights and water drops that block the front of the fixed camera CM. This makes it possible to perform stable water level detection.

ここで、詳細は後述するが本実施形態では、映像においてエッジ画素を多く含む領域を陸部分、エッジ画素が少ない領域を流水部分として、陸部及び流水部の判別を行う。そして、陸部と流水部の境界の位置を水面として認識することで、図2(a)に示したような水位を算出することが可能となる。   Here, although details will be described later, in the present embodiment, the land portion and the flowing water portion are determined by setting a region including many edge pixels in the video as a land portion and a region including few edge pixels as a flowing portion. Then, by recognizing the position of the boundary between the land portion and the flowing water portion as the water surface, it becomes possible to calculate the water level as shown in FIG.

(空間フィルタ処理部3)
空間フィルタ処理部3は、フレーム加算部2により生成された画像に対して、流水部には少ないが陸部には多く存在するエッジ成分、つまり流水部と陸部の差異を強調させるための空間フィルタ処理を施す。例えば、図2(b)に示した画像に、空間フィルタ処理部3によるフィルタ処理を施すことで、図2(c)に示す画像が得られる。
(Spatial filter processing unit 3)
The spatial filter processing unit 3 is a space for emphasizing the edge component that is small in the flowing water portion but large in the land portion, that is, the difference between the flowing water portion and the land portion, with respect to the image generated by the frame addition unit 2. Apply filtering. For example, the image shown in FIG. 2C is obtained by applying the filter processing by the spatial filter processing unit 3 to the image shown in FIG.

本実施形態では、空間フィルタ処理部3は、画像の画素値と空間フィルタ係数値との畳み込み処理により、画像のエッジ成分を強調させる。その空間フィルタの係数値としては、微分処理に相当するものが効果的である。
ここで、空間フィルタの伝達関数を、
In the present embodiment, the spatial filter processing unit 3 enhances the edge component of the image by convolution processing of the pixel value of the image and the spatial filter coefficient value. As the coefficient values of the spatial filter, those corresponding to differential processing are effective.
Where the transfer function of the spatial filter is

Figure 2007256254
Figure 2007256254

と表現すると、空間フィルタ処理部3での処理に用いる空間フィルタの係数値としては、上記式(1)においてT1=T2=1として、 In other words, the coefficient value of the spatial filter used for processing in the spatial filter processing unit 3 is T1 = T2 = 1 in the above equation (1).

Figure 2007256254
Figure 2007256254

と表されるPrewittオペレータや、又は、 Or Prewitt operator, or

Figure 2007256254
Figure 2007256254

と表されるSobelオペレータが効果的である。これらは、どちらも画像における横方向に微分処理を施し、かつ縦方向に平均化処理を施したことに等しい。
また、空間フィルタの伝達関数を、
The Sobel operator expressed as follows is effective. Both of these are equivalent to performing differential processing in the horizontal direction in the image and averaging processing in the vertical direction.
The transfer function of the spatial filter is

Figure 2007256254
Figure 2007256254

と表した場合の、H(z)=1−z-1なるフィルタ及びH(z)=1+z-1なるフィルタを画像における横方向にそれぞれ1回づつ適用し、かつH(z)=1+z-1なるフィルタを縦方向に2回適用することで、上述したSobelオペレータと等価な処理となる。これらのフィルタの組み合わせや適用回数を適宜調整することで、より効果的な処理が可能となることもある。 And a filter of H (z) = 1−z −1 and a filter of H (z) = 1 + z −1 are applied once in the horizontal direction in the image, and H (z) = 1 + z −. By applying the filter “ 1” twice in the vertical direction, the processing is equivalent to the above-described Sobel operator. More effective processing may be possible by appropriately adjusting the combination and the number of times of application of these filters.

また、例えば、上記式(1)においてT1やT2の値を1よりも大きな整数値とし、h(k1,k2)を任意に与えることで、自由度が高くなるため、より効果的な処理が可能となる場合もある。
特に、流水部に対して空間フィルタを適用した結果の分散値が最小となるように、最小自乗法により空間フィルタのフィルタ係数値を計算するようにしても良い。
あるいは、空間フィルタ処理後の分散値について、流水部と陸部の比が最大となるように空間フィルタのフィルタ係数値やタップ数等のパラメータを決定するようにしても良い。例えば、空間フィルタ処理後の流水部の分散値σW 2が一定という制約条件の下で、陸部の分散値σL 2を最大化するようにする。すなわち、下記式(5)に示す評価関数Lを最大化するように空間フィルタに係るパラメータを決定しても良い。
In addition, for example, in the above formula (1), the value of T1 or T2 is set to an integer value larger than 1 , and h (k 1 , k 2 ) is arbitrarily given, so that the degree of freedom is increased, and thus more effective. Processing may be possible.
In particular, the filter coefficient value of the spatial filter may be calculated by the method of least squares so that the variance value as a result of applying the spatial filter to the flowing water portion is minimized.
Or you may make it determine parameters, such as a filter coefficient value of a spatial filter, and a tap number, so that the ratio of a flowing water part and a land part may become the maximum about the dispersion value after a spatial filter process. For example, the dispersion value σ L 2 of the land portion is maximized under the constraint that the dispersion value σ W 2 of the flowing water portion after the spatial filter processing is constant. That is, the parameter relating to the spatial filter may be determined so as to maximize the evaluation function L shown in the following formula (5).

Figure 2007256254
Figure 2007256254

この問題は、ラグランジュの未定乗数法により固有値問題として解けることが知られている。なお、逆に、陸部の分散値が一定という制約条件の下で流水部の分散値を最小化するように空間フィルタに係るパラメータを決定しても良い。
また、画像によっては上述のような画像における横方向ではなく、縦方向に微分処理を施した方が効果的な場合もある。また、平均化処理を施す必要がない場合もある。
It is known that this problem can be solved as an eigenvalue problem by Lagrange's undetermined multiplier method. Conversely, the parameter relating to the spatial filter may be determined so as to minimize the dispersion value of the flowing water part under the constraint that the dispersion value of the land part is constant.
Also, depending on the image, it may be more effective to perform differential processing in the vertical direction instead of the horizontal direction in the image as described above. In some cases, it is not necessary to perform an averaging process.

上述したような空間フィルタの方向、係数値、タップ数等のパラメータは、時々刻々と変化する撮影環境(状況)に応じて、リアルタイムで最適なものに適宜更新することが望ましい。それにより、日照の変化や水質・濁度・流速などの変化に伴う撮影画像の変動に対応することができ、精度が高くかつ安定した流水領域検出を行うことができる。   It is desirable that the parameters such as the spatial filter direction, the coefficient value, and the number of taps as described above are updated as appropriate in real time in accordance with the shooting environment (situation) that changes every moment. As a result, it is possible to cope with changes in the photographed image due to changes in sunlight, changes in water quality, turbidity, flow velocity, etc., and highly accurate and stable detection of the flowing water region can be performed.

(二値化処理部4)
二値化処理部4は、空間フィルタ部3により生成された画像における個々の画素に対して、エッジ画素であるか否かの判定を画素毎に行い、判定結果に基づいて各画素をエッジ画素か否か(非エッジ画素)に分類する。さらに、二値化処理部4は、その分類に応じて画素値を例えば白(エッジ画素)又は黒(非エッジ画素)の何れかに二値化し、図2(d)に一例を示すようような二値画像を得る。
(Binarization processing unit 4)
The binarization processing unit 4 determines for each pixel whether or not each pixel in the image generated by the spatial filter unit 3 is an edge pixel, and determines each pixel as an edge pixel based on the determination result. Or not (non-edge pixels). Further, the binarization processing unit 4 binarizes the pixel value into, for example, white (edge pixel) or black (non-edge pixel) according to the classification, and an example is shown in FIG. A binary image is obtained.

ここで、二値化処理部4にて二値化処理を行う際のしきい値については,例えば空間フィルタ部3により生成された画像の画素値に応じて計算すれば良く、例えばその平均値やそのヒストグラムの重心値などを適用できる。   Here, the threshold value when the binarization processing unit 4 performs binarization processing may be calculated, for example, according to the pixel value of the image generated by the spatial filter unit 3, for example, an average value thereof And the centroid value of the histogram can be applied.

(領域分割部5A)
領域分割部5Aは、二値化処理部4により生成された画像に対して、エッジ画素を多く含む領域を陸部(非流水領域)、それ以外を流水部(流水領域)と判別して領域を二分割する。この判別処理は、二値化処理部4により生成された画像におけるエッジ画素の分布又は非エッジ画素の分布に基づいてなされる。
(Area division unit 5A)
The area dividing unit 5A determines an area including many edge pixels from the image generated by the binarization processing unit 4 as a land part (non-flowing area) and the other as a flowing part (flowing area). Is divided into two. This discrimination processing is performed based on the distribution of edge pixels or the distribution of non-edge pixels in the image generated by the binarization processing unit 4.

例えば、このようにして得られた2つの領域の境界を出力することで、図2(a)に示したように陸部と流水部の境界として水位が算出される。
ここで、二値化処理部4及び領域分割部5Aにより、本発明の領域判別手段が構成される。
For example, by outputting the boundary between the two regions thus obtained, the water level is calculated as the boundary between the land portion and the flowing water portion as shown in FIG.
Here, the binarization processing unit 4 and the region dividing unit 5A constitute region discriminating means of the present invention.

二値化処理部4により生成された画像において、領域を陸部(非流水領域)及び流水部(流水領域)に二分割する領域分割部5Aにおける処理については、様々な形態が考えられる。以下、図3〜図6を参照して、領域分割部5Aにおける処理の一例について説明する。   In the image generated by the binarization processing unit 4, various forms are conceivable for the processing in the region dividing unit 5 </ b> A that bisects the region into a land portion (non-flowing water region) and a flowing water portion (flowing water region). Hereinafter, an example of processing in the region dividing unit 5A will be described with reference to FIGS.

図3は、領域分割部5Aの構成例を示すブロック図であり、図4は、図3に示す領域分割部5Aによる領域分割の原理を説明するための図である。   FIG. 3 is a block diagram showing a configuration example of the area dividing unit 5A, and FIG. 4 is a diagram for explaining the principle of area division by the area dividing unit 5A shown in FIG.

(横方向ヒストグラム計算部11)
横方向ヒストグラム計算部11は、図1に示した二値化処理部4により生成された二値画像について、各行毎に幾つのエッジ画素が存在するかを数える。つまり、横方向ヒストグラム計算部11は、二値画像における各行毎にエッジ画素数を積算し、エッジ画素の横方向のヒストグラムを生成する。
(Horizontal histogram calculation unit 11)
The horizontal histogram calculation unit 11 counts how many edge pixels exist for each row in the binary image generated by the binarization processing unit 4 shown in FIG. That is, the horizontal histogram calculation unit 11 integrates the number of edge pixels for each row in the binary image, and generates a horizontal histogram of the edge pixels.

例えば、図4(a)に示す二値画像において、上から一行目には6個のエッジ画素、二行目には7個のエッジ画素が存在している。したがって、横方向ヒストグラム計算部11により生成される横方向のヒストグラム(図4(b))には、それぞれの行、すなわち縦位置について、エッジ画素数が6及び7としてプロットされる。   For example, in the binary image shown in FIG. 4A, there are six edge pixels in the first row from the top and seven edge pixels in the second row. Therefore, in the horizontal histogram (FIG. 4B) generated by the horizontal histogram calculation unit 11, the number of edge pixels is plotted as 6 and 7 for each row, that is, the vertical position.

(縦方向ヒストグラム計算部12)
縦方向ヒストグラム計算部12は、横方向ヒストグラム計算部11により生成された横方向ヒストグラムを参照し、各エッジ画素数の値について、対応する縦位置が幾つ存在するかを数える。つまり,縦方向ヒストグラム計算部12は、横方向ヒストグラムにおける各エッジ画素数に関する縦方向のヒストグラムを生成する。
(Vertical Histogram Calculation Unit 12)
The vertical histogram calculation unit 12 refers to the horizontal histogram generated by the horizontal histogram calculation unit 11 and counts the number of corresponding vertical positions for each edge pixel value. That is, the vertical histogram calculation unit 12 generates a vertical histogram regarding the number of edge pixels in the horizontal histogram.

例えば,図4(b)に示した横方向ヒストグラムにおいて、左から一列目には2個のエッジ画像数、二列目には1個のエッジ画像数がある。縦方向ヒストグラム計算部12により生成される横方向のヒストグラム(図4(c))には、それぞれの列、すなわちエッジ画素数について、エッジ画素数の縦方向積算値が2及び1としてプロットされる。   For example, in the horizontal histogram shown in FIG. 4B, there are two edge images in the first column from the left, and one edge image in the second column. In the horizontal histogram generated by the vertical histogram calculation unit 12 (FIG. 4C), the vertical integrated values of the number of edge pixels are plotted as 2 and 1 for each column, that is, the number of edge pixels. .

(境界値決定部13)
縦方向ヒストグラム計算部12により生成された縦方向ヒストグラムには、陸部に関連するヒストグラム部分と、流水部に関連するヒストグラム部分の2つのクラスタ(分布)が存在する。したがって、これら2つのクラスタを分離する境界部分を決定することができる。境界値決定部13は、その境界部分(境界画素数)を決定する。この境界部分の決定方法としては種々の方法を用いることができる。
(Boundary value determination unit 13)
The vertical histogram generated by the vertical histogram calculation unit 12 includes two clusters (distributions) of a histogram portion related to the land portion and a histogram portion related to the flowing water portion. Therefore, it is possible to determine the boundary portion that separates these two clusters. The boundary value determination unit 13 determines the boundary portion (number of boundary pixels). Various methods can be used as a method for determining the boundary portion.

例えば、境界値決定部13は、クラス内の分散が小さく、かつクラス間の距離が大きくなるように境界を定めても良いし、又はクラス内分散・クラス間分散比が最大となるように境界を定めても良い。あるいは、境界値決定部13は、縦方向ヒストグラムを双峰性のガウス分布に帰着させて2つのクラスの境界を決定しても良い。   For example, the boundary value determination unit 13 may determine the boundary so that the variance within the class is small and the distance between the classes is large, or the boundary so that the intra-class variance / inter-class variance ratio is maximized. May be determined. Alternatively, the boundary value determination unit 13 may determine the boundary between the two classes by reducing the vertical histogram to a bimodal Gaussian distribution.

(水位計算部14)
水位計算部14は、境界値決定部13により決定された縦方向ヒストグラムにおける2つのクラスの境界に基づいて、それに対応する横方向ヒストグラムにおける境界を定め、更にそれに対応する二値画像の境界を定める。これにより、画像が陸部と流水部の領域に二分割され、その境界を水位として出力する。
(Water level calculation unit 14)
Based on the two class boundaries in the vertical histogram determined by the boundary value determination unit 13, the water level calculation unit 14 determines the boundary in the corresponding horizontal histogram, and further determines the boundary of the corresponding binary image. . As a result, the image is divided into two regions, a land portion and a flowing water portion, and the boundary is output as a water level.

具体的には、境界値決定部13により決定された境界をしきい値として、それに対応する図4(c)に示した縦方向ヒストグラムにおける境界P1が、図4(b)に示した横方向ヒストグラムにおける対応点P2を経て、二値画像における陸部と流水部との境界である水位P3が求められる。実際の河川画像に適用した場合を図5に示している。   Specifically, with the boundary determined by the boundary value determination unit 13 as a threshold value, the corresponding boundary P1 in the vertical histogram shown in FIG. 4C is the horizontal direction shown in FIG. 4B. Through the corresponding point P2 in the histogram, a water level P3 that is a boundary between the land portion and the flowing water portion in the binary image is obtained. The case where it applies to an actual river image is shown in FIG.

なお、上述した説明では、画像において水面が水平である(陸部と流水部の境界が横方向に伸びている)場合を一例として示したが、画像において水面が垂直である(陸部と流水部の境界が縦方向に伸びている)場合には、各列毎にエッジ画素数を積算してエッジ画素の縦方向のヒストグラムを生成し、それを参照して各エッジ画素数に関する横方向のヒストグラムを生成するようにすれば良い。   In the above description, the case where the water surface is horizontal in the image (the boundary between the land portion and the flowing water portion extends in the lateral direction) is shown as an example, but the water surface is vertical in the image (the land portion and the flowing water). When the boundary of the portion extends in the vertical direction), the edge pixel number is added up for each column to generate a vertical histogram of the edge pixel, and the horizontal direction of each edge pixel number is referenced with reference to that. A histogram may be generated.

以上、説明したように第1の実施形態によれば、河川等を被写体として固定カメラCMを用いて撮影された撮像映像から、領域抽出部1により陸部と流水部の境界、すなわち陸部と流水部を含む領域画像を抽出し、フレーム加算部2により各領域について数フレーム分を加算して流水部が滑らかになった画像を生成する。さらに、その画像におけるエッジ成分を強調させる空間フィルタを空間フィルタ処理部3にて画像全体に施し、得られた画像の各画素に対してエッジ成分か否かに分類する二値化処理を二値化処理部4で施し、領域分割部5Aによりエッジ成分を多く含む領域を陸部、それ以外を流水部と判別して領域分割を行う。これにより、陸部及び流水部をそれぞれ検出でき、その二領域の境界を水位と判定することで、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その流水領域を検出することができる。   As described above, according to the first embodiment, from the captured image captured using the fixed camera CM with a river or the like as a subject, the region extraction unit 1 uses the boundary between the land part and the flowing water part, that is, the land part. An area image including the flowing part is extracted, and the frame adding part 2 adds several frames for each area to generate an image in which the flowing part is smooth. Further, a spatial filter that enhances the edge component in the image is applied to the entire image by the spatial filter processing unit 3, and binarization processing for classifying each pixel of the obtained image as an edge component is binary. The region dividing unit 5A performs the region division by discriminating the region containing a lot of edge components as the land portion and the other as the flowing portion. As a result, the land part and the flowing water part can be detected, respectively, and the boundary between the two areas is determined as the water level, so that the water flow can be detected only from the video signal having the river as a subject without installing any object in the water. A region can be detected.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態による流水領域検出システムは、固定カメラを用いた撮影で得られる河川等を被写体とする映像信号から、時間方向の積分(フレーム加算等)及び空間フィルタ処理に基づき、その河川等における流水領域を検出する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
The flowing water area detection system according to the second embodiment is based on the integration of the time direction (frame addition, etc.) and spatial filter processing from a video signal having a river or the like obtained by photographing using a fixed camera as a subject. Detect the flowing water area at.

図8は、第2の実施形態による流水領域検出システムの構成例を示すブロック図である。なお、この図8において、図1に示したブロック等と同一の機能を有するブロック等には同一の符号を付し、重複する説明は省略する。
図8に示すように、第2の実施形態による流水領域検出システムは、領域抽出部1、フレーム加算部2、空間フィルタ処理部3、ライン特徴量計算部6、及び領域分割部5Bを有する。
FIG. 8 is a block diagram illustrating a configuration example of the flowing water region detection system according to the second embodiment. In FIG. 8, blocks having the same functions as the blocks shown in FIG. 1 are denoted by the same reference numerals, and redundant description is omitted.
As shown in FIG. 8, the flowing water region detection system according to the second embodiment includes a region extraction unit 1, a frame addition unit 2, a spatial filter processing unit 3, a line feature amount calculation unit 6, and a region division unit 5B.

(空間フィルタ処理部3)
空間フィルタ処理部3は、パラメータ計算部7を有し、フレーム加算部2により生成された画像に対して、流水部には少ないが陸部には多く存在するエッジ成分、つまり流水部と陸部の差異を強調させるための空間フィルタ処理を施す。例えば、領域抽出部1により撮像映像から抽出した図9(a)に示す領域画像を、フレーム加算部2により複数フレームを同期加算して得られる図9(b)に示す画像に、空間フィルタ処理部3によるフィルタ処理を施すことで、図9(c)に示す画像が得られる。
(Spatial filter processing unit 3)
The spatial filter processing unit 3 includes a parameter calculation unit 7 and has an edge component that is small in the flowing water portion but large in the land portion, that is, the flowing water portion and the land portion with respect to the image generated by the frame addition unit 2. A spatial filter process for emphasizing the difference is performed. For example, the spatial image processing is performed on the region image shown in FIG. 9A extracted from the captured video by the region extraction unit 1 and the image shown in FIG. By performing the filtering process by the unit 3, an image shown in FIG. 9C is obtained.

本実施形態では、空間フィルタ処理部3は、画像の画素値と空間フィルタ係数値との畳み込み処理により、画像のエッジ成分を強調させる。空間フィルタの係数値としては、微分処理に相当するものが効果的である。   In the present embodiment, the spatial filter processing unit 3 enhances the edge component of the image by convolution processing of the pixel value of the image and the spatial filter coefficient value. As the coefficient value of the spatial filter, one corresponding to differential processing is effective.

この空間フィルタの係数値は、空間フィルタ処理部3内のパラメータ計算部7により算出される。パラメータ計算部7は、空間フィルタの方向、係数値、タップ数等のパラメータを算出し、時々刻々と変化する撮影環境(状況)に応じて、最適なものに適宜更新する処理をリアルタイムで行う。なお、パラメータ計算部7による空間フィルタの係数値やタップ数等のパラメータの決定方法については、第1の実施形態での空間フィルタに係るパラメータの決定方法と同様であるので説明は省略する。   The coefficient value of the spatial filter is calculated by the parameter calculation unit 7 in the spatial filter processing unit 3. The parameter calculation unit 7 calculates parameters such as the direction of the spatial filter, the coefficient value, the number of taps, etc., and performs a process of updating to the optimum one in real time according to the shooting environment (situation) that changes every moment. Note that the method for determining parameters such as the coefficient value of the spatial filter and the number of taps by the parameter calculation unit 7 is the same as the method for determining the parameter related to the spatial filter in the first embodiment, and a description thereof will be omitted.

このように、パラメータ計算部7が、時々刻々と変化する撮影環境に応じて、リアルタイムで最適な空間フィルタに係るパラメータを算出して適宜更新することにより、日照の変化や水質・濁度・流速などの変化に伴う撮影画像の変動に対応することができ、精度が高くかつ安定した流水領域検出を行うことができる。また、例えば固定カメラCMの設置位置を変えても、空間フィルタに係るパラメータを自動的に最適化することができる。   In this way, the parameter calculation unit 7 calculates the parameters related to the optimal spatial filter in real time according to the shooting environment that changes from moment to moment, and updates it appropriately, so that changes in sunshine, water quality, turbidity, flow velocity Thus, it is possible to cope with fluctuations in the captured image accompanying changes such as high accuracy and stable water flow region detection. Further, for example, even if the installation position of the fixed camera CM is changed, the parameters relating to the spatial filter can be automatically optimized.

(ライン特徴量計算部6)
ここで、図9(a)に示した画像をフレーム加算部2により複数フレームにわたって同期加算することにより、図9(b)に示したように、動いている流水部については高周波成分が低減された滑らかな信号となり、静止している陸部については高周波成分が維持された明確な輪郭を持つ信号となる。こうした違いを顕在化させるために、図9(b)に示した画像に対して空間フィルタ処理部3により空間フィルタ処理を施すことで、流水部に対して陸部の輪郭(高周波)成分が強調された図9(c)に示した画像が得られる。
(Line feature calculation unit 6)
Here, the image shown in FIG. 9 (a) is synchronously added over a plurality of frames by the frame adder 2, so that the high-frequency component is reduced in the flowing water portion as shown in FIG. 9 (b). It becomes a smooth signal and a signal having a clear outline in which high-frequency components are maintained for a stationary land portion. In order to make this difference obvious, the contour (high frequency) component of the land portion is emphasized with respect to the flowing water portion by applying the spatial filter processing to the image shown in FIG. 9B by the spatial filter processing portion 3. The image shown in FIG. 9C is obtained.

ライン特徴量計算部6は、このように空間フィルタ処理部3で処理された画像の各ラインの特徴量として、画像の各ライン毎に分散値を算出する。図9(c)に示した画像に基づいて、ライン特徴量計算部6により算出した特徴量を図9(d)に示す。図9(d)に示されるように、算出された特徴量の値は、概して陸部では大きく、流水部では小さくなっている。   The line feature amount calculation unit 6 calculates a variance value for each line of the image as the feature amount of each line of the image processed by the spatial filter processing unit 3 in this way. The feature amount calculated by the line feature amount calculation unit 6 based on the image shown in FIG. 9C is shown in FIG. As shown in FIG. 9D, the calculated feature value is generally large in the land and small in the flowing water.

なお、ライン特徴量計算部6は、画像の各ラインの特徴量として分散値を算出するようにしているが、画像の各ライン毎に絶対値和を算出するようにしても良い。絶対値和を算出するようにした場合には、分散値を算出する場合に比べて、乗算処理が含まれないために演算量を低減させることができる。   The line feature amount calculation unit 6 calculates the variance value as the feature amount of each line of the image, but may calculate an absolute value sum for each line of the image. When the absolute value sum is calculated, the amount of calculation can be reduced because the multiplication process is not included as compared with the case where the variance value is calculated.

(領域分割部5B)
領域分割部5Bは、ライン特徴量計算部6により算出された各ラインの特徴量に基づいて、画像における陸部(非流水領域)と流水部(流水領域)とを判別して領域を二分割する。
(Region division unit 5B)
The region dividing unit 5B discriminates the land portion (non-flowing region) and the flowing portion (flowing region) in the image based on the feature amount of each line calculated by the line feature amount calculating unit 6, and divides the region into two. To do.

ライン特徴量計算部6により算出された特徴量に基づいて、領域を陸部(非流水領域)及び流水部(流水領域)に二分割する領域分割部5Bにおける処理については、様々な形態が考えられる。例えば、図9(d)に示される特徴量を鍵型図形P11に近似し、この鍵のくびれ部分を陸部と流水部の境界として水位とすることもできる。また、例えば、クラス内分散・クラス間分散比最大基準により2クラスに分離しするといった線形判別法を適用することもできる。このようにして得られる2つの領域の境界を水位として出力する。
ここで、ライン特徴量計算部6及び領域分割部5Bにより、本発明の領域判別手段が構成される。
Based on the feature amount calculated by the line feature amount calculation unit 6, various forms are considered for the processing in the region dividing unit 5B that divides the region into a land portion (non-flowing water region) and a flowing water portion (flowing water region). It is done. For example, the feature quantity shown in FIG. 9 (d) can be approximated to the key figure P11, and the constricted portion of this key can be used as the water level as the boundary between the land portion and the flowing water portion. Further, for example, a linear discriminant method in which the class is divided into two classes based on the maximum intra-class variance / inter-class variance ratio criterion can be applied. The boundary between the two regions obtained in this way is output as a water level.
Here, the line feature amount calculation unit 6 and the region division unit 5B constitute the region discrimination means of the present invention.

以上、説明したように第2の実施形態によれば、河川等を被写体として固定カメラCMを用いて撮影された撮像映像から、領域抽出部1により陸部と流水部の境界、すなわち陸部と流水部を含む領域画像を抽出し、フレーム加算部2により各領域について数フレーム分を加算して流水部が滑らかになった画像を生成する。さらに、パラメータ計算部6により撮影状況等に応じて空間フィルタのパラメータを適宜変更しつつ、その画像におけるエッジ成分を強調させる空間フィルタを空間フィルタ処理部3にて画像全体に施し、得られた画像の各ライン毎に特徴量をライン特徴量計算部6で算出し、領域分割部5Bにより各ラインの特徴量に基づいて画像を流水部と陸部の2クラスに分類して領域分割を行う。これにより、陸部及び流水部をそれぞれ検出でき、その二領域の境界を水位と判定することで、水中にいかなる物体をも設置することなく、河川等を被写体とする映像信号のみから、その流水領域を検出することができる。   As described above, according to the second embodiment, from the captured image captured using the fixed camera CM with a river or the like as a subject, the region extraction unit 1 uses the boundary between the land part and the flowing water part, that is, the land part. An area image including the flowing part is extracted, and the frame adding part 2 adds several frames for each area to generate an image in which the flowing part is smooth. Furthermore, the spatial filter processing unit 3 applies a spatial filter that enhances the edge component in the image while appropriately changing the parameters of the spatial filter according to the shooting situation by the parameter calculation unit 6, and the obtained image The feature amount is calculated by the line feature amount calculation unit 6 for each of the lines, and the region division unit 5B classifies the image into two classes of the flowing water portion and the land portion based on the feature amount of each line, and performs region division. As a result, the land part and the flowing water part can be detected, respectively, and the boundary between the two areas is determined as the water level, so that the water flow can be detected only from the video signal having the river as a subject without installing any object in the water. A region can be detected.

また、第2の実施形態によれば、ラインの特徴量に基づいて領域分割を行って水位を検出することで、第1の実施形態で行っていた二値化処理や縦方向及び横方向のヒストグラム計算が不要となるとともに、画素単位の処理ではなくライン単位での処理となる。これにより、システム全体での演算処理量が低減され、高精度な水位計算処理システム(処理回路等)の省電力化や小型化が可能となる。また、二値化処理においては、設定する閾値の調整が容易ではなく、その決定方法に依存して水位計算の精度が異なり、ヒストグラム計算においては、二値化処理の結果を累積するために二値化誤差をも累積してしまうが、第2の実施形態では、このような処理を用いないことで、より高精度な水位検出を行うことができる。   Further, according to the second embodiment, by performing region division based on the feature amount of the line and detecting the water level, the binarization processing and the vertical and horizontal directions performed in the first embodiment are performed. Histogram calculation is not required, and processing is performed in units of lines rather than processing in units of pixels. As a result, the amount of calculation processing in the entire system is reduced, and power saving and miniaturization of a highly accurate water level calculation processing system (processing circuit, etc.) can be achieved. Also, in the binarization process, it is not easy to adjust the threshold value to be set, and the accuracy of the water level calculation varies depending on the determination method. In the histogram calculation, the binarization process is performed in order to accumulate the results of the binarization process. Although the value error is also accumulated, in the second embodiment, the water level can be detected with higher accuracy by not using such processing.

なお、上述した第1及び第2の実施形態では、領域抽出部1は、固定カメラCMを用いて撮影された撮像映像から1つの領域画像を抽出するようにしているが、図6に示すように、1枚のフレームに対して複数の領域画像(図6に示す例では、領域1、領域2、及び領域3)を抽出するようにしても良い。その場合、複数の領域画像において、その一部領域が重複していても構わない。これらの各領域画像のそれぞれについて、上述した処理により陸部及び流水部を判別し、得られた複数の結果から総合的に判断して最終的な陸部及び流水部の領域分割を行うようにしても良い。例えば、複数の結果の平均値を最終的な陸部及び流水部の境界としたり、多数決法により最終的な陸部及び流水部の領域を決定することで、固定カメラCMのレンズに雨水が付着したり、降雨や降雪あるいは霧による画像障害が発生して流水部が検出しにくい場合でも、流水部を高精度かつ安定して検出することが可能となる。   In the first and second embodiments described above, the region extraction unit 1 extracts one region image from a captured image captured using the fixed camera CM. However, as illustrated in FIG. In addition, a plurality of area images (area 1, area 2, and area 3 in the example shown in FIG. 6) may be extracted for one frame. In that case, the partial areas may overlap in the plurality of area images. For each of these area images, the land part and the flowing water part are discriminated by the above-described processing, and the final division of the land part and the flowing water part is performed by comprehensively judging from the obtained results. May be. For example, rainwater adheres to the lens of the fixed camera CM by using the average value of multiple results as the boundary between the final land part and the flowing water part, or by determining the final land part and flowing water area by the majority method. Even when an image failure due to rainfall, snowfall or fog occurs and it is difficult to detect the flowing water portion, the flowing water portion can be detected with high accuracy and stability.

(本発明の他の実施形態)
なお、上述した実施形態は、コンピュータのCPU又はMPU、RAM、ROM等で構成可能なものであり、RAMやROMに記憶されたプログラムが動作することによって実現でき、上記プログラムは本発明の実施形態に含まれる。また、コンピュータが上述の実施形態の機能を果たすように動作させるプログラムを、例えばCD−ROMのような記録媒体に記録し、コンピュータに読み込ませることによって実現できるものであり、上記プログラムを記録した記録媒体は本発明の実施形態に含まれる。上記プログラムを記録する記録媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。
また、コンピュータがプログラムを実行し処理を行うことにより、上述の実施形態の機能が実現されるプログラムプロダクトは、本発明の実施形態に含まれる。上記プログラムプロダクトとしては、上述の実施形態の機能を実現するプログラム自体、上記プログラムが読み込まれたコンピュータ、ネットワークを介して通信可能に接続されたコンピュータに上記プログラムを提供可能な送信装置、及び当該送信装置を備えるネットワークシステム等がある。
また、コンピュータが供給されたプログラムを実行することにより上述の実施形態の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)又は他のアプリケーションソフト等と共同して上述の実施形態の機能が実現される場合や、供給されたプログラムの処理のすべて又は一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて上述の実施形態の機能が実現される場合も、かかるプログラムは本発明の実施形態に含まれる。
(Other embodiments of the present invention)
The above-described embodiment can be configured by a CPU or MPU of a computer, a RAM, a ROM, and the like, and can be realized by operating a program stored in the RAM or the ROM, and the program is an embodiment of the present invention. include. In addition, a program that causes a computer to operate so as to perform the functions of the above-described embodiments can be realized by recording the program on a recording medium such as a CD-ROM and causing the computer to read the program. A medium is included in an embodiment of the present invention. As a recording medium for recording the program, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, and the like can be used in addition to the CD-ROM.
In addition, a program product in which the functions of the above-described embodiments are realized by a computer executing a program and performing processing is included in the embodiments of the present invention. The program product includes the program itself that implements the functions of the above-described embodiments, a computer loaded with the program, a transmission device that can provide the program to a computer that is communicably connected via a network, and the transmission There are network systems equipped with devices.
Moreover, not only the functions of the above-described embodiments are realized by executing a program supplied by a computer, but the program is also shared with an OS (operating system) or other application software running on the computer. When the functions of the above-described embodiment are realized, or when all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer, the functions of the above-described embodiment are realized. Such a program is included in the embodiment of the present invention.

例えば、図7に示すようなコンピュータ機能700を有し、そのCPU701により上述した実施形態での動作が実施される。
コンピュータ機能700は、図7に示すように、CPU701と、ROM702と、RAM703と、キーボード(KB)709のキーボードコントローラ(KBC)705と、表示部としてのCRTディスプレイ(CRT)710のCRTコントローラ(CRTC)706と、ハードディスク(HD)711及びフレキシブルディスク(FD)712のディスクコントローラ(DKC)707と、ネットワークインタフェースカード(NIC)708とが、システムバス704を介して互いに通信可能に接続された構成としている。
CPU701は、ROM702又はHD711に記憶されたソフトウェア、又はFD712より供給されるソフトウェアを実行することで、システムバス704に接続された各構成部を総括的に制御する。
すなわち、CPU701は、上述したような動作を行うための処理プログラムを、ROM702、HD711、又はFD712から読み出して実行することで、上述した実施形態での動作を実現するための制御を行う。
RAM703は、CPU701の主メモリ又はワークエリア等として機能する。
KBC705は、KB709や図示していないポインティングデバイス等からの指示入力を制御する。
CRTC706は、CRT710の表示を制御する。
DKC707は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び上記処理プログラム等を記憶するHD711及びFD712とのアクセスを制御する。
NIC708はネットワーク713上の他の装置と双方向にデータをやりとりする。
For example, a computer function 700 as shown in FIG. 7 is provided, and the CPU 701 performs the operation in the above-described embodiment.
As shown in FIG. 7, the computer function 700 includes a CPU 701, a ROM 702, a RAM 703, a keyboard controller (KBC) 705 of a keyboard (KB) 709, and a CRT controller (CRTC) of a CRT display (CRT) 710 as a display unit. ) 706, a disk controller (DKC) 707 of a hard disk (HD) 711 and a flexible disk (FD) 712, and a network interface card (NIC) 708 are communicably connected to each other via a system bus 704. Yes.
The CPU 701 comprehensively controls each component connected to the system bus 704 by executing software stored in the ROM 702 or the HD 711 or software supplied from the FD 712.
That is, the CPU 701 reads out a processing program for performing the above-described operation from the ROM 702, the HD 711, or the FD 712 and executes it, thereby performing control for realizing the operation in the above-described embodiment.
The RAM 703 functions as a main memory or work area for the CPU 701.
The KBC 705 controls an instruction input from the KB 709 or a pointing device (not shown).
The CRTC 706 controls display on the CRT 710.
The DKC 707 controls access to the HD 711 and the FD 712 that store a boot program, various applications, user files, a network management program, the processing program, and the like.
The NIC 708 exchanges data with other devices on the network 713 in both directions.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

本発明の第1の実施形態による流水領域検出システムの構成例を示す図である。It is a figure which shows the structural example of the flowing water area | region detection system by the 1st Embodiment of this invention. 図1に示す流水領域検出システムで処理された画像の一例を示す図である。It is a figure which shows an example of the image processed with the flowing water area | region detection system shown in FIG. 領域分割部の構成例を示す図である。It is a figure which shows the structural example of an area division part. 図3に示す領域分割部による領域分割の原理を説明するための図である。It is a figure for demonstrating the principle of the area division by the area division part shown in FIG. 図3に示す領域分割部による領域分割を実際の河川画像に適用した場合を示す図である。It is a figure which shows the case where the area division by the area division part shown in FIG. 3 is applied to an actual river image. 領域抽出部による領域画像抽出の他の例を示す図である。It is a figure which shows the other example of the area image extraction by an area extraction part. 本実施形態における流水領域検出システムを実現可能なコンピュータ機能を示すブロック図である。It is a block diagram which shows the computer function which can implement | achieve the flowing water area | region detection system in this embodiment. 本発明の第2の実施形態による流水領域検出システムの構成例を示す図である。It is a figure which shows the structural example of the flowing water area | region detection system by the 2nd Embodiment of this invention. 第2の実施形態による流水領域検出システムでの処理を説明するための図である。It is a figure for demonstrating the process in the flowing water area | region detection system by 2nd Embodiment.

符号の説明Explanation of symbols

1 領域抽出部
2 フレーム加算部
3 空間フィルタ処理部
4 二値化処理部
5A、5B 領域分割部
6 ライン特徴量計算部
7 パラメータ計算部
11 横方向ヒストグラム計算部
12 縦方向ヒストグラム計算部
13 境界値決定部
14 水位計算部
DESCRIPTION OF SYMBOLS 1 Area extraction part 2 Frame addition part 3 Spatial filter process part 4 Binarization process part 5A, 5B Area division part 6 Line feature-value calculation part 7 Parameter calculation part 11 Horizontal direction histogram calculation part 12 Vertical direction histogram calculation part 13 Boundary value Decision part 14 Water level calculation part

Claims (14)

固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、
上記積分手段により得られた映像のエッジ成分を強調させる空間フィルタ処理手段と、
上記空間フィルタ処理手段で処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定し、当該判定結果に基づいて上記流水領域及び上記非流水領域を判別する領域判別手段とを備えることを特徴とする流水領域検出システム。
An integration unit that integrates the supplied image in the time direction, provided with an image including a flowing region and a non-flowing region captured using a fixed camera;
Spatial filter processing means for enhancing an edge component of the video obtained by the integration means;
A region discriminating unit that determines, for each pixel, whether each pixel in the image processed by the spatial filter processing unit is an edge pixel, and discriminates the flowing water region and the non-flowing water region based on the determination result. And a flowing water region detection system.
上記領域判別手段は、
上記空間フィルタ処理手段で処理された映像に対し、画素毎にエッジ画素であるか否かの判定を行ってエッジ画素又は非エッジ画素に分類する二値化処理手段と、
上記二値化処理手段により分類された上記エッジ画素又は上記非エッジ画素の分布に基づいて、映像内領域を上記流水領域及び上記非流水領域に二分割する領域分割手段とを備えることを特徴とする請求項1記載の流水領域検出システム。
The region discriminating means
Binarization processing means for determining whether each image is an edge pixel for the image processed by the spatial filter processing means and classifying the image into an edge pixel or a non-edge pixel;
A region dividing unit that divides a region in the image into the flowing water region and the non-flowing region based on the distribution of the edge pixels or the non-edge pixels classified by the binarization processing unit; The flowing water region detection system according to claim 1.
上記領域分割手段は、上記エッジ画素又は上記非エッジ画素を対象画素として、当該対象画素数を上記流水領域と非流水領域との境界が伸びる方向に関して積算し、さらに得られた対象画素数の分布から境界画素数を決定し、当該境界画素数をしきい値として上記得られた対象画素数に基づき上記流水領域及び上記非流水領域に分割することを特徴とする請求項2記載の流水領域検出システム。   The area dividing means integrates the number of target pixels with respect to the direction in which the boundary between the flowing water area and the non-flowing area extends, with the edge pixel or the non-edge pixel as the target pixel, and the distribution of the obtained target pixel number 3. The water flow region detection according to claim 2, wherein the boundary pixel number is determined from the boundary pixels, and the boundary pixel number is used as a threshold value, and the water flow region and the non-water flow region are divided based on the obtained target pixel number. system. 固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像が供給され、供給された映像を時間方向に積分する積分手段と、
上記積分手段により得られた映像のエッジ成分を強調させる空間フィルタ処理手段と、
上記空間フィルタ処理手段で処理された映像における各ライン毎に求めた特徴量に基づいて上記流水領域及び上記非流水領域を判別する領域判別手段とを備えることを特徴とする流水領域検出システム。
An integration unit that integrates the supplied image in the time direction, provided with an image including a flowing region and a non-flowing region captured using a fixed camera;
Spatial filter processing means for enhancing an edge component of the video obtained by the integration means;
A running water area detection system comprising: area discrimination means for discriminating between the running water area and the non-flowing water area based on a feature amount obtained for each line in the video processed by the spatial filter processing means.
上記領域判別手段は、
上記空間フィルタ処理手段で処理された映像の各ライン毎に、上記特徴量として分散値又は絶対値和を算出する特徴量計算手段と、
上記特徴量計算手段により算出された特徴量に基づいて、映像内領域を上記流水領域及び上記非流水領域に二分割する領域分割手段とを備えることを特徴とする請求項4記載の流水領域検出システム。
The region discriminating means
For each line of the video processed by the spatial filter processing means, feature quantity calculation means for calculating a variance value or an absolute value sum as the feature quantity;
5. The flowing water region detection according to claim 4, further comprising region dividing means for dividing the region in the image into the flowing water region and the non-flowing region based on the feature amount calculated by the feature amount calculating means. system.
上記積分手段は、供給される映像を複数のフレームにわたって加算することを特徴とする請求項1〜5の何れか1項に記載の流水領域検出システム。   The running water area detection system according to claim 1, wherein the integration unit adds the supplied video over a plurality of frames. 上記積分手段により複数のフレームにわたって映像を加算する前に、当該映像に非線形処理を施すことを特徴とする請求項6記載の流水領域検出システム。   7. The flowing water region detection system according to claim 6, wherein before the video is added over a plurality of frames by the integrating means, nonlinear processing is performed on the video. 上記固定カメラを用いて撮影された映像から上記流水領域及び非流水領域が含まれる領域映像を抽出して上記積分手段に供給する領域抽出手段をさらに備えることを特徴とする請求項1〜7の何れか1項に記載の流水領域検出システム。   8. The apparatus according to claim 1, further comprising a region extracting unit that extracts a region image including the flowing region and the non-flowing region from an image captured using the fixed camera and supplies the region image to the integrating unit. The flowing water region detection system according to any one of the preceding claims. 上記固定カメラを用いて撮影された映像から互いに領域の異なる複数の上記領域映像を抽出し、抽出した各領域映像毎に処理して得られる各領域映像での上記流水領域と上記非流水領域の判別結果に基づいて、上記撮影された映像における上記流水領域及び上記非流水領域を判別することを特徴とする請求項8記載の流水領域検出システム。   A plurality of area videos having different areas are extracted from the video captured using the fixed camera, and the flowing area and the non-flowing area in each area video obtained by processing each extracted area video. 9. The flowing water region detection system according to claim 8, wherein the flowing water region and the non-flowing water region in the captured image are determined based on a determination result. 上記空間フィルタ処理手段で用いる空間フィルタは、上記流水領域に対するフィルタ処理により得られる結果の分散値が最小となるようにフィルタ係数値が計算され随時更新されることを特徴とする請求項1〜9の何れか1項に記載の流水領域検出システム。   The spatial filter used in the spatial filter processing means is calculated and updated as needed so that a filter coefficient value is calculated so that a variance value obtained as a result of the filtering process on the flowing water region is minimized. The flowing water region detection system according to any one of the above. 固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、
上記積分工程で得られた映像のエッジ成分を強調させる空間フィルタ処理工程と、
上記空間フィルタ処理工程で処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定する判定工程と、
上記判定工程での判定結果に基づいて、上記流水領域及び上記非流水領域を判別する領域判別工程とを有することを特徴とする流水領域検出方法。
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A spatial filter processing step for enhancing the edge component of the video obtained in the integration step;
A determination step of determining for each pixel whether or not each pixel in the image processed in the spatial filter processing step is an edge pixel;
A running water area detection method comprising: an area discriminating process for discriminating between the running water area and the non-flowing water area based on a determination result in the determining process.
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分工程と、
上記積分工程で得られた映像のエッジ成分を強調させる空間フィルタ処理工程と、
上記空間フィルタ処理工程で処理された映像の各ライン毎に特徴量を算出する特徴量計算工程と、
上記特徴量計算工程で算出された特徴量に基づいて、上記流水領域及び上記非流水領域を判別する領域判別工程とを有することを特徴とする流水領域検出方法。
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A spatial filter processing step for enhancing the edge component of the video obtained in the integration step;
A feature amount calculating step for calculating a feature amount for each line of the video processed in the spatial filter processing step;
A running water area detection method comprising: an area discrimination step for discriminating between the running water area and the non-flowing water area based on the feature quantity calculated in the feature quantity calculation step.
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、
上記積分ステップで得られた映像のエッジ成分を強調させる空間フィルタ処理ステップと、
上記空間フィルタ処理ステップで処理された映像における各画素に対してエッジ画素であるか否かを画素毎に判定する判定ステップと、
上記判定ステップでの判定結果に基づいて、上記流水領域及び上記非流水領域を判別する領域判別ステップとをコンピュータに実行させるためのプログラム。
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A spatial filter processing step for enhancing the edge component of the video obtained in the integration step;
A determination step of determining for each pixel whether or not each pixel in the image processed in the spatial filter processing step is an edge pixel;
A program for causing a computer to execute an area determination step for determining the flowing water area and the non-flowing water area based on a determination result in the determination step.
固定カメラを用いて撮影された流水領域及び非流水領域が含まれる映像を時間方向に積分する積分ステップと、
上記積分ステップで得られた映像のエッジ成分を強調させる空間フィルタ処理ステップと、
上記空間フィルタ処理ステップで処理された映像の各ライン毎に特徴量を算出する特徴量計算ステップと、
上記特徴量計算ステップで算出された特徴量に基づいて、上記流水領域及び上記非流水領域を判別する領域判別ステップとをコンピュータに実行させるためのプログラム。
An integration step of integrating in a time direction an image including a flowing water region and a non-flowing region photographed using a fixed camera;
A spatial filter processing step for enhancing the edge component of the video obtained in the integration step;
A feature amount calculating step for calculating a feature amount for each line of the video processed in the spatial filter processing step;
A program for causing a computer to execute an area discrimination step for discriminating between the flowing water area and the non-flowing water area based on the feature quantity calculated in the feature quantity calculating step.
JP2006232597A 2006-02-24 2006-08-29 Running water area detection system, running water area detection method, and program Active JP4910139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006232597A JP4910139B2 (en) 2006-02-24 2006-08-29 Running water area detection system, running water area detection method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006049246 2006-02-24
JP2006049246 2006-02-24
JP2006232597A JP4910139B2 (en) 2006-02-24 2006-08-29 Running water area detection system, running water area detection method, and program

Publications (2)

Publication Number Publication Date
JP2007256254A true JP2007256254A (en) 2007-10-04
JP4910139B2 JP4910139B2 (en) 2012-04-04

Family

ID=38630633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006232597A Active JP4910139B2 (en) 2006-02-24 2006-08-29 Running water area detection system, running water area detection method, and program

Country Status (1)

Country Link
JP (1) JP4910139B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
WO2011070871A1 (en) * 2009-12-07 2011-06-16 ソニー株式会社 Information processing device, information processing method, and program
JP2012198079A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Water level monitoring device, water level monitoring method and water level monitoring method
CN103886612A (en) * 2014-04-08 2014-06-25 马鸿旭 Automatic water level extraction method and system based on reservoir monitoring camera
JP2014127161A (en) * 2012-12-27 2014-07-07 Nidec Sankyo Corp Character segmentation device, character recognition device, character segmentation method, and program
JP2014178744A (en) * 2013-03-13 2014-09-25 Samsung R&D Institute Japan Co Ltd Light emitting object detection device, light emitting object detection method, and light emitting object detection program
CN104406535A (en) * 2014-10-14 2015-03-11 中国科学院长春光学精密机械与物理研究所 Indication grating gap detection method based on images
KR20160082453A (en) * 2014-12-30 2016-07-08 한국해양과학기술원 Apparatus and method for measureing nearshore current using image processing
WO2017149744A1 (en) * 2016-03-04 2017-09-08 株式会社日立国際電気 Water level measurement system and water level measurement method
JP2019078555A (en) * 2017-10-20 2019-05-23 富士通株式会社 Water level determining program, water level determination method, and water level determining device
WO2019107528A1 (en) * 2017-12-01 2019-06-06 日本電気株式会社 River risk level determining device, river risk level determining method, and storage medium
JP2020107097A (en) * 2018-12-27 2020-07-09 株式会社タムロン Far-infrared image processing device, far-infrared monitoring device including the same, and far-infrared image processing program
US11282226B2 (en) 2017-08-30 2022-03-22 Mitsubishi Electric Corporation Water level measurement device and shoreline extraction method
CN114359243A (en) * 2022-01-10 2022-04-15 首都师范大学 Seasonal small micro-wetland dynamic monitoring method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5321615B2 (en) * 2011-03-07 2013-10-23 三菱電機株式会社 Water level detection device, water level detection system, and water level detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001041803A (en) * 1999-08-04 2001-02-16 Fujitsu Ltd Liquid-level detecting method
JP2001343274A (en) * 2000-06-01 2001-12-14 Masako Hata Water level measuring apparatus using image processing
JP2007212238A (en) * 2006-02-08 2007-08-23 Mitsubishi Electric Corp Water level detector and water level detection method using it
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
JP2008072636A (en) * 2006-09-15 2008-03-27 Nagaoka Univ Of Technology Image processing system, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001041803A (en) * 1999-08-04 2001-02-16 Fujitsu Ltd Liquid-level detecting method
JP2001343274A (en) * 2000-06-01 2001-12-14 Masako Hata Water level measuring apparatus using image processing
JP2007212238A (en) * 2006-02-08 2007-08-23 Mitsubishi Electric Corp Water level detector and water level detection method using it
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
JP2008072636A (en) * 2006-09-15 2008-03-27 Nagaoka Univ Of Technology Image processing system, image processing method, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
JP4677561B2 (en) * 2006-02-24 2011-04-27 国立大学法人長岡技術科学大学 Water level detection system, water level detection method, and program
WO2011070871A1 (en) * 2009-12-07 2011-06-16 ソニー株式会社 Information processing device, information processing method, and program
US8891855B2 (en) 2009-12-07 2014-11-18 Sony Corporation Information processing apparatus, information processing method, and program for generating an image including virtual information whose size has been adjusted
JP2012198079A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Water level monitoring device, water level monitoring method and water level monitoring method
JP2014127161A (en) * 2012-12-27 2014-07-07 Nidec Sankyo Corp Character segmentation device, character recognition device, character segmentation method, and program
JP2014178744A (en) * 2013-03-13 2014-09-25 Samsung R&D Institute Japan Co Ltd Light emitting object detection device, light emitting object detection method, and light emitting object detection program
CN103886612A (en) * 2014-04-08 2014-06-25 马鸿旭 Automatic water level extraction method and system based on reservoir monitoring camera
CN103886612B (en) * 2014-04-08 2017-01-11 马鸿旭 Automatic water level extraction method and system based on reservoir monitoring camera
CN104406535A (en) * 2014-10-14 2015-03-11 中国科学院长春光学精密机械与物理研究所 Indication grating gap detection method based on images
KR101662292B1 (en) 2014-12-30 2016-10-05 한국해양과학기술원 Apparatus and method for measureing nearshore current using image processing
KR20160082453A (en) * 2014-12-30 2016-07-08 한국해양과학기술원 Apparatus and method for measureing nearshore current using image processing
WO2017149744A1 (en) * 2016-03-04 2017-09-08 株式会社日立国際電気 Water level measurement system and water level measurement method
JPWO2017149744A1 (en) * 2016-03-04 2018-09-20 株式会社日立国際電気 Water level measurement system and water level measurement method
US10473463B2 (en) 2016-03-04 2019-11-12 Hitachi Kokusai Electric Inc. Water level measurement system and water level measurement method
US11282226B2 (en) 2017-08-30 2022-03-22 Mitsubishi Electric Corporation Water level measurement device and shoreline extraction method
JP2019078555A (en) * 2017-10-20 2019-05-23 富士通株式会社 Water level determining program, water level determination method, and water level determining device
WO2019107528A1 (en) * 2017-12-01 2019-06-06 日本電気株式会社 River risk level determining device, river risk level determining method, and storage medium
JPWO2019107528A1 (en) * 2017-12-01 2020-12-17 日本電気株式会社 River risk assessment device, river risk assessment method, and program
US10977923B2 (en) 2017-12-01 2021-04-13 Nec Corporation River risk level determining device, river risk level determining method, and storage medium
JP2020107097A (en) * 2018-12-27 2020-07-09 株式会社タムロン Far-infrared image processing device, far-infrared monitoring device including the same, and far-infrared image processing program
CN114359243A (en) * 2022-01-10 2022-04-15 首都师范大学 Seasonal small micro-wetland dynamic monitoring method
CN114359243B (en) * 2022-01-10 2022-08-26 首都师范大学 Seasonal small micro-wetland dynamic monitoring method

Also Published As

Publication number Publication date
JP4910139B2 (en) 2012-04-04

Similar Documents

Publication Publication Date Title
JP4910139B2 (en) Running water area detection system, running water area detection method, and program
JP4677561B2 (en) Water level detection system, water level detection method, and program
US8934711B2 (en) Apparatus and method of processing image
US9947077B2 (en) Video object tracking in traffic monitoring
CN100474337C (en) Noise-possessing movement fuzzy image restoration method based on radial basis nerve network
CN101739686B (en) Moving object tracking method and system thereof
EP1995691B1 (en) Method and apparatus for segmenting a motion area
US8520953B2 (en) Apparatus and method for extracting edges of image
JP4839442B2 (en) Image processing system, image processing method, and program
JP2006216046A (en) Computer-implemented method modeling background in sequence of frame of video
JP2008523454A (en) How to model background and foreground regions
Tan et al. Fast single-image defogging
CN107194946B (en) FPGA-based infrared salient object detection method
Zhang et al. Moving vehicles segmentation based on Bayesian framework for Gaussian motion model
Niksaz Automatic traffic estimation using image processing
WO2013102797A1 (en) System and method for detecting targets in maritime surveillance applications
CN117237597A (en) Data processing terminal based on Beidou satellite data and AI graph fusion
Soundrapandiyan et al. Adaptive pedestrian detection in infrared images using fuzzy enhancement and top-hat transform
JP7078295B2 (en) Deformity detection device, deformation detection method, and program
JP7283081B2 (en) Attached matter detection device and attached matter detection method
CN101567088B (en) Method and device for detecting moving object
Colombari et al. Background initialization in cluttered sequences
Lafenetre et al. Handheld burst super-resolution meets multi-exposure satellite imagery
US20110158516A1 (en) Image classification methods and systems
KR101563543B1 (en) Lpr system for recognition of compact car and two wheel vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150