JPH11191191A - Waterway inflow/outflow object monitoring device - Google Patents

Waterway inflow/outflow object monitoring device

Info

Publication number
JPH11191191A
JPH11191191A JP9366250A JP36625097A JPH11191191A JP H11191191 A JPH11191191 A JP H11191191A JP 9366250 A JP9366250 A JP 9366250A JP 36625097 A JP36625097 A JP 36625097A JP H11191191 A JPH11191191 A JP H11191191A
Authority
JP
Japan
Prior art keywords
image
difference
detection
image data
frame memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9366250A
Other languages
Japanese (ja)
Inventor
Kosuke Kawakado
浩亮 川角
Hiroshi Sekii
弘志 関井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP9366250A priority Critical patent/JPH11191191A/en
Publication of JPH11191191A publication Critical patent/JPH11191191A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a waterway inflow/outflow object monitoring device with which detection/inflow and outflow degree measurement of jellyfish to flow in/out of a waterway can be performed through a simple image processing method. SOLUTION: Applied image data are sent through processings in the order of a mean value reducing processing part 4, a spatial filtering processing part 5 and a binarizing processing part 6, wherein a jellyfish-like part with remarkable differenced in gradation value from surrounding pixels is emphasized, a binary image having the relevant part of a white pixel is generated, and jellyfish candidates are extracted by an object candidate detecting processing part 7. At an inter-image differential processing part 10, a difference between two images of different acquisition time is obtained, that difference is applied through a differential image reducing processing part 11 to a detection-exception area setting part 12, and part of reflected sunlight having a large differential value is obtained. Based on the outputs from both the processing parts 7 and 12, a detection exclusion processing part 8 extracts a jellyfish candidate located outside the area of reflected light and when it is matched with fixed conditions, a prescribed alarm is issued by operating an alarm processing part 9.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、水路流出入物監視
装置に関するもので、より具体的には、水路へ流出入す
る物体(主に冷却水取水路へ流入するくらげ)を監視す
るために、監視カメラの映像から画像処理によって対象
物を検出し、その流出入度合を計測するものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a waterway inflow / outflow monitoring device, and more specifically, to monitoring objects flowing into and out of a waterway (mainly jellyfish flowing into a cooling water intake channel). Also, the present invention relates to an apparatus for detecting a target object by image processing from a video of a monitoring camera and measuring the flow-in / out degree.

【0002】[0002]

【発明の背景】水路に多数のくらげが侵入してきた場合
には、水路が詰まってしまい取水口等における正常な取
水処理等ができなくなる。そこで、従来は、水路を監視
カメラで撮像するとともに、その撮像したビデオ信号を
モニタに出力する。そして、監視員がそのモニタを監視
し、くらげが侵入してきたならば、くらげを除去する作
業を行うようにしている。
BACKGROUND OF THE INVENTION When a large number of jellyfish enter a waterway, the waterway is clogged and normal water intake processing at an intake port or the like cannot be performed. Therefore, conventionally, a waterway is imaged with a monitoring camera, and the imaged video signal is output to a monitor. Then, an observer monitors the monitor and, if the jellyfish has invaded, works to remove the jellyfish.

【0003】しかしながら、上記した従来の監視方法で
は、くらげの発生を遅滞なく検出するためには、常時モ
ニタを監視する必要があるが、実際には、監視員はその
他の処理・作業も行わなければならないので、一定の時
間ごとにモニタを見る程度にとどまる。その結果、くら
げの除去作業が遅れるおそれがある。また、モニタを見
てわかるのは、その時のくらげの存在数であり、その数
量が増加傾向にあるのか減少傾向にあるのかはわからな
い。さらには、その増減の速度もわからない。その結
果、くらげの除去作業を行う必要があるか否かの判断
や、行う場合に早急に行う必要があるか否かの判断がし
にくい。
[0003] In the conventional monitoring method described above, however, it is necessary to constantly monitor the monitor in order to detect the occurrence of jellyfish without delay, but in actuality, the monitor must perform other processing and work. You only have to watch the monitor at regular intervals. As a result, the jellyfish removal operation may be delayed. Further, what can be seen from the monitor is the number of jellyfishes at that time, and it is not known whether the number of jellyfishes is increasing or decreasing. Furthermore, the speed of the increase or decrease is not known. As a result, it is difficult to determine whether or not it is necessary to perform the jellyfish removal work, and to determine whether or not it is necessary to perform the work immediately.

【0004】そこで、監視カメラで撮像した画像情報に
対し、所定の画像処理を行ってくらげ部分を抽出し、画
面中のくらげの発生数を計数したり、経過時間に伴うく
らげの数の変化の履歴を検出することにより、くらげの
除去作業の有無やその緊急性についての正しい判断を行
うようにすることが考えられる。そして、一般的な画像
処理を利用したものとして、以下の2つが考えられる。
Therefore, predetermined image processing is performed on image information captured by the surveillance camera to extract a jellyfish portion, to count the number of jellyfishes occurring on the screen, and to determine the change in the number of jellyfishes with the lapse of time. By detecting the history, it is conceivable to make a correct decision on the presence or absence of jellyfish removal work and its urgency. Then, the following two methods can be considered as those utilizing general image processing.

【0005】**第1の方法 画像間の差分処理によって移動物体や状態変化を画像変
化領域として抽出し、その抽出した変化領域の特徴(大
きさ,形,数など)によってくらげか否かを判断し、最
終的にくらげと判断したものを計数することにより画像
中に存在するくらげ数を求めることができる。
** First method A moving object or a state change is extracted as an image change region by a difference process between images, and whether or not jelly is determined based on the characteristics (size, shape, number, etc.) of the extracted change region. The number of jellyfishes present in the image can be obtained by judging and finally counting the judgements.

【0006】すなわち、監視TVカメラから得られる画
像の濃淡値をA/D変換してディジタル画像に変換した
画像データと、同様にして得られた数フレーム前の画像
データとの差(フレーム間差分)をとる。すると、移動
していない背景部分などは、差分をとることにより除去
されるため、結局移動するくらげ等が抽出されることに
なる。
That is, the difference between the image data obtained by A / D converting the gray value of the image obtained from the surveillance TV camera into a digital image and the image data obtained several frames before (the difference between frames) Take). Then, since the background portion that has not moved is removed by calculating the difference, the moving jellyfish or the like is eventually extracted.

【0007】そこで、得られた差分画像の各画素の濃淡
値について、設定されたしきい値との比較によって2値
化処理することにより、変化領域と非変化領域とを弁別
し、変化領域であるくらげ部分を抽出する。最後に、得
られた変化領域の持つ特徴(大きさ、形など)からくら
げか否かを判断するようになる。
Therefore, by performing binarization processing on the gray value of each pixel of the obtained difference image by comparing it with a set threshold value, a change area and a non-change area are discriminated from each other. Extract a jellyfish part. Finally, it is determined from the characteristics (size, shape, etc.) of the obtained change area whether or not the jellyfish is jellyfish.

【0008】また、フレーム間差分に替えて、予め背景
部分を撮像しておき、背景画像と入力画像との差分画像
を求める方法(背景差分)を用いることもできる。
Further, instead of the inter-frame difference, a method of obtaining a difference image between the background image and the input image (background difference) by previously imaging the background portion may be used.

【0009】しかしながら、この方法では、背景部分が
濃淡画像にした時に固定されていないと、背景部分もそ
の一部が差分画像として抽出されてしまい、誤検出して
しまうおそれがある。特に、本願発明の監視対象領域の
背景画像は、海面や水面等の液面であるので、常に変化
しているため、上記問題が顕著に現れる。
However, in this method, if the background portion is not fixed when it is converted into a grayscale image, a part of the background portion is also extracted as a difference image, and there is a risk of erroneous detection. In particular, since the background image of the monitoring target region of the present invention is a liquid surface such as a sea surface or a water surface, the background image is constantly changing, so that the above-described problem is conspicuous.

【0010】さらに、検出対象物が海面・水面上を浮遊
するくらげであるため、その移動速度は一定ではなく、
同一場所に停滞することもある。そして、フレーム間差
分を求める場合には、2つの画像間の時間に対象物が一
定量移動することが前提となるので、対象物であるくら
げの移動速度が遅く、2つの画像における対象物の位置
が部分的に重なり合うような場合には、その部分の差分
値が低く抑えられ、2値化時の形状欠損が生じてしま
い、抽出できないおそれがある。
Furthermore, since the object to be detected is a jellyfish floating on the sea or water surface, its moving speed is not constant.
Sometimes they stagnate in the same place. Then, when calculating the inter-frame difference, it is premised that the object moves by a fixed amount in the time between the two images, so that the moving speed of the jellyfish, which is the object, is slow, When the positions partially overlap with each other, the difference value of the portion is suppressed to a low value, and a shape loss at the time of binarization occurs, which may not be able to be extracted.

【0011】**第2の方法 得られた画像そのものを2値化することによって検出対
象領域を抽出し、その領域の特徴(大きさ、形、数な
ど)によってその状態を判断する方法を適用することが
考えられる。
** Second method A method of extracting a detection target area by binarizing the obtained image itself and applying a method of judging the state based on the characteristics (size, shape, number, etc.) of the area is applied. It is possible to do.

【0012】すなわち、監視TVカメラから得られる画
像をA/D変換してディジタル画像に変換し、さらに、
得られたディジタル画像の各画素の濃淡値について、設
定されたしきい値との比較によって検出領域と非検出領
域に分別する2値化処理を行う。そして、最後に、2値
画像により得られた検出対象領域の持つ特徴(大きさ、
形など)から、くらげか否かを判断し、そのくらげの数
を計数する。
That is, an image obtained from a surveillance TV camera is A / D converted to a digital image, and
A binarization process is performed on the grayscale value of each pixel of the obtained digital image to separate the grayscale value into a detection area and a non-detection area by comparing with a set threshold value. Finally, the characteristics (size, size, etc.) of the detection target area obtained from the binary image
From the shape, etc.), judge whether the jellyfish is or not and count the number of the jellyfish.

【0013】ところで、この方法で精度の良い判別を行
うためには、2値化する際のしきい値の決定が重要であ
る。しかし、本発明の監視対象領域の背景画像が海面・
水面であるので、1画面内での濃淡値に大きな勾配やむ
らが存在する。その結果、一つのしきい値で画面全体を
2値化すると、適切に2値化できない領域が生じ、くら
げを正しく抽出できないおそれがある。
By the way, in order to perform accurate discrimination by this method, it is important to determine a threshold value for binarization. However, the background image of the monitoring target area of the present invention is
Since the image is on the water surface, there is a large gradient or unevenness in the gradation value in one screen. As a result, if the entire screen is binarized with one threshold, an area that cannot be binarized properly occurs, and jellyfish may not be extracted correctly.

【0014】また、上記のように1画面全体で濃淡値に
むらがある場合には、画像の部分部分に応じてしきい値
を自動的に設定する方法により適用することが考えられ
る。しかし、海面・水面のように画像の濃淡値が時間経
過とともに変動する場合には、それに応じてしきい値を
適切に設定する必要があり、その画像の時間変動に対応
するために、得られる画像ごとに画像の部分に応じてし
きい値を設定する処理を行うようにしなければならず、
処理が膨大となってしまい、監視を目的としたリアルタ
イム処理には向かない。
In the case where the gradation value is uneven in one entire screen as described above, it is conceivable to apply the method by a method of automatically setting a threshold value according to a portion of an image. However, when the gray level of an image fluctuates with time, such as the sea surface / water surface, it is necessary to appropriately set a threshold value accordingly, and it is obtained in order to cope with the time fluctuation of the image. For each image, the process of setting the threshold value according to the part of the image must be performed,
The processing becomes enormous and is not suitable for real-time processing for monitoring.

【0015】また、第1、第2の方法はともに画素単位
に2値化を行うために一つの検出対象物がいくつにも分
かれて抽出されることがあり、その後の統合処理をうま
く行わないと、物体の数の計測が不正確になるという問
題を有している。
In both the first and second methods, since one binarization is performed on a pixel-by-pixel basis, there is a case where one detection target is divided and extracted, and subsequent integration processing is not performed well. In addition, there is a problem that the measurement of the number of objects becomes inaccurate.

【0016】そこで、上記した問題点を解決するため、
本出願人は先に、特願平8−224677号にて、水路
へ流出入するくらげの検出・流出入度合の計測を簡易な
画像処理手法で実現することのできる水路流出入物監視
装置を提案した。係る先願発明について簡単に説明する
と、図1のようなブロック構成からなる。なお、この図
示したブロック図は、先願の明細書に添付した図面と同
一ではないが、本発明と対比する上で便宜上異ならせて
いるが、実質的には同じである。
Therefore, in order to solve the above problems,
The present applicant previously disclosed in Japanese Patent Application No. Hei 8-224677 a waterway inflow / inflow monitoring device capable of detecting jellyfish flowing into and out of a waterway and measuring the degree of inflow and outflow by a simple image processing method. Proposed. Briefly describing such a prior invention, it has a block configuration as shown in FIG. The illustrated block diagram is not the same as the drawing attached to the specification of the prior application, but is different for convenience in comparison with the present invention, but is substantially the same.

【0017】同図に示すように、監視TVカメラ1から
得られる濃淡映像(濃淡画像データ)はA/D変換部2
によってディジタル画像に変換される。次に、フレーム
積算・平均化処理部3で、その後の処理で対象物の検出
に障害となる信号中のノイズ成分や液面の波による画像
の細かいむらを軽減するために、時間軸方向で平均化を
行う。つまり順次入力される画像を用いて同座標の濃淡
値を積算・平均化する。
As shown in FIG. 1, a gray scale image (shade image data) obtained from the surveillance TV camera 1 is converted to an A / D converter 2.
Is converted into a digital image. Next, in the frame integration / averaging processing unit 3, in order to reduce a noise component in a signal that interferes with detection of an object in a subsequent process and fine unevenness of an image due to a wave of a liquid surface, the frame integration / averaging processing unit 3 performs Perform averaging. That is, the grayscale values of the same coordinates are integrated and averaged using the sequentially input images.

【0018】このフレーム積算・平均化処理部3から得
られる画像データを、平均値縮小処理部4において、所
定のブロックサイズで平均値縮小処理を行う。平均値縮
小処理は、画像を所定のブロックサイズで分割し、その
ブロック内画素濃淡値の平均値をもってそのブロックの
代表値とするもので、ブロックサイズをN×Nとする
と、この処理でデータ数は1/N2 に圧縮される。
The image data obtained from the frame integration / averaging processing section 3 is subjected to an average value reduction processing in a predetermined block size in an average value reduction processing section 4. The average value reduction process divides an image by a predetermined block size, and uses the average value of the pixel grayscale values in the block as a representative value of the block. If the block size is N × N, the number of data Is compressed to 1 / N 2 .

【0019】続いて、平均値縮小処理部4から得られた
画像データを、空間フィルタ処理部5において空間フィ
ルタ処理を行う。つまり、周囲の近傍画素との濃淡値の
差が大きい画素を強調する。よって、くらげの部分が浮
き上がる。
Subsequently, the image data obtained from the average value reduction processing section 4 is subjected to a spatial filter processing in a spatial filter processing section 5. That is, a pixel having a large difference in gray value from surrounding pixels is emphasized. Therefore, the jellyfish part rises.

【0020】画像2値化処理部6では、空間フィルタ処
理部5から得られた画像データのうち予め設定された検
出対象外領域を除いたデータを設定されたしきい値で2
値化(例:検出画素を1、非検出画素を0)することに
よって、画像を検出領域と非検出領域に区別する。
In the image binarization processing section 6, data obtained by excluding a preset non-detection area from the image data obtained from the spatial filter processing section 5 is set to a threshold value of 2
By binarizing (eg, detecting pixels 1 and non-detecting pixels 0), the image is distinguished into a detection area and a non-detection area.

【0021】対象物検出処理部7′では、画像2値化処
理部6から得られる画像2値データを用いて、画像内の
検出物の数量を計測する。すなわち、画像2値データに
対し、ラべリング処理を施すことによって、くらげの数
を計測できる。そして、警報処理部9′では、対象物検
出処理部7′による検出数の値やその時間変化により、
検出物の流入度合を判別しそれに応じた警報を発するよ
うにしている。
The object detection processing section 7 'uses the image binary data obtained from the image binarization processing section 6 to measure the number of detected objects in the image. That is, the number of jellyfishes can be measured by performing a labeling process on the binary image data. Then, in the alarm processing unit 9 ', the value of the number of detections by the object detection processing unit 7' and its time change,
The degree of inflow of the detected object is determined, and an alarm is issued accordingly.

【0022】上記した先願の発明では、背景となる液面
よりも濃淡値の高い部分を対象物として抽出し、その数
を計数することにより流入度合を判別するようにしてい
る。従って、比較的簡易な画像処理のアルゴリズムで流
入物(くらげ)を検出することが可能となり、自動的に
監視を行うという初期の目的を達成できた。しかし、さ
らに研究を行うと、太陽光が液面で反射されることによ
り、その液面が光ってしまい、白くなる。また、液面は
風や水の流れ等に影響されて、さざ波が発生する。そう
すると、係るさざ波が発生した液面は、微少な凹凸とな
るので、乱反射しより白っぽくなることがあるというこ
とがわかった。
In the above-mentioned invention of the prior application, a portion having a higher or lower gray value than the background liquid surface is extracted as an object, and the number thereof is counted to determine the degree of inflow. Therefore, the inflow (jellyfish) can be detected by a relatively simple image processing algorithm, and the initial purpose of automatically monitoring can be achieved. However, when further research is performed, the liquid surface shines and becomes white due to the reflection of sunlight on the liquid surface. Also, the liquid surface is affected by the flow of the wind or water, and generates ripples. Then, it has been found that the liquid surface on which the ripples are generated has minute irregularities, so that it may be irregularly reflected and become whitish.

【0023】そこで、上記した先願の発明では、濃淡画
像として撮像した場合に比較的白く写る反射光の部分も
検出画素として抽出されるおそれがあり、しかも、先願
発明の画像処理アルゴリズムでは、くらげ/反射光とい
うようなはっきりした区別を行って検出していないため
に、反射光などがあってもくらげとみなして計数するお
それがある。すると例えば、検出対象物がくらげであ
り、検出されたものの中に反射光を検出したものが含ま
れている場合には検出精度が低下し、その量が多量の場
合は誤警報につながる。
Therefore, in the above-mentioned invention of the prior application, there is a possibility that a portion of reflected light which appears relatively white when captured as a grayscale image is also extracted as a detection pixel. Since a distinction such as jellyfish / reflected light is not detected and detected, there is a possibility that even if there is reflected light or the like, it may be counted as jellyfish. Then, for example, if the object to be detected is jellyfish, and the detected object includes an object that detects reflected light, the detection accuracy is reduced, and if the amount is large, a false alarm is caused.

【0024】本発明は、上記した背景に鑑みてなされた
もので、その目的とするところは、上記した問題を解決
し、監視カメラの画像から水路へ流出入する物体(主に
くらげ)の検出及びその流出入度合の計測を簡易な画像
処理手法で実現でき、しかも、太陽光等の液面反射によ
る誤検出を軽減し、検出対象の物体を確実に検出するこ
とのできる水路流出入物監視装置を提供するものであ
る。
The present invention has been made in view of the above-mentioned background, and has as its object to solve the above-mentioned problems and to detect an object (mainly jellyfish) flowing into and out of a water channel from an image of a surveillance camera. And the measurement of the inflow / outflow degree can be realized by a simple image processing method, and furthermore, erroneous detection due to reflection of liquid surface such as sunlight can be reduced, and an inflow / inflow substance monitor capable of reliably detecting an object to be detected. An apparatus is provided.

【0025】[0025]

【課題を解決するための手段】上記した目的を達成する
ため、本発明に係る水路流出入物監視装置では、監視対
象の水路を撮像して得られたビデオ画像に基づく画像デ
ータを順次受取り、所定回数の画像データから平均化画
像を求めるフレーム積算平均化処理手段と、そのフレー
ム積算平均化処理手段から出力される平均化画像に対し
設定されたブロックサイズに分割し、そのブロック内の
画素の濃淡値に基づいてそのブロックの濃淡値を求める
ことにより縮小画像を生成する平均値縮小処理手段と、
その平均値縮小処理された画像データに対し、周囲の近
傍画素との濃淡値の差が大きい処理対象画素を強調する
ような所定の空間フィルタ処理を行う空間フィルタ処理
手段と、その空間フィルタ処理手段から出力される画像
データに対し、設定されたしきい値で2値化し、検出領
域と非検出領域に区別する画像2値化処理手段とを備え
たことを前提とする。そしてさらに、前記監視対象の水
路を撮像して得られたビデオ画像に基づく画像データの
中で濃淡値の時間変化が一定以上となる部分を検出する
手段(実施の形態では、画像間差分処理部10や差分画
像縮小処理部11に対応)と、その検出する手段で検出
された前記部分及びその周辺部分を求め、検出除外領域
を設定する検出除外領域設定手段と、前記設定された検
出除外領域と、前記画像2値化処理手段により得られた
2値画像に基づいて検出対象物を検出する検出手段(実
施の形態では、「対象物候補検出処理部7,検出除外処
理部8」や、「画像合成処理部20,対象物検出処理部
21」に対応)と、その検出手段の検出結果に基づいて
警報出力する警報手段とを備えて構成した(請求項
1)。
In order to achieve the above object, a waterway inflow / outflow monitoring device according to the present invention sequentially receives image data based on a video image obtained by imaging a waterway to be monitored. Frame integration and averaging processing means for obtaining an averaged image from the image data of a predetermined number of times, and a block size set for the averaged image output from the frame integration and averaging processing means, Average value reduction processing means for generating a reduced image by obtaining a gray value of the block based on the gray value;
Spatial filter processing means for performing predetermined spatial filter processing on the image data subjected to the average value reduction processing so as to emphasize a processing target pixel having a large difference in gray value from surrounding neighboring pixels, and the spatial filter processing means It is assumed that an image binarization processing means is provided for binarizing image data output from the image processing unit with a set threshold value and discriminating between a detection area and a non-detection area. Further, a means for detecting a portion of the image data based on the video image obtained by imaging the waterway to be monitored, in which the time change of the grayscale value is equal to or more than a certain value (in the embodiment, the image difference processing unit 10 and a difference image reduction processing unit 11), a detection exclusion area setting unit for obtaining the portion detected by the detection unit and a peripheral portion thereof, and setting a detection exclusion region, and the set detection exclusion region. Detection means for detecting a detection target based on the binary image obtained by the image binarization processing means (in the embodiment, “target candidate detection processing unit 7, detection exclusion processing unit 8”, (Corresponding to the "image synthesis processing unit 20, the object detection processing unit 21") and alarm means for outputting an alarm based on the detection result of the detection means (claim 1).

【0026】前記濃淡値の時間変化が一定以上となる部
分を検出する手段は、画像間差分処理を行う差分処理手
段を含み、差分値が一定以上の部分を検出するものとす
ることができる(請求項2)。
The means for detecting a portion where the time change of the gray value is equal to or more than a certain value includes a difference processing means for performing an inter-image difference process, and can detect a portion where the difference value is equal to or more than a certain value. Claim 2).

【0027】また、前記フレーム積算平均化処理手段
は、与えられた画像データを格納する第1フレームメモ
リと、その与えられた画像を積算して得られた積算画像
データを格納する第2フレームメモリと、その第2フレ
ームメモリに格納された積算画像データを積算回数で除
して得られた平均化画像を格納する第3フレームメモリ
とを有し、前記差分処理手段は、前記ビデオ画像に基づ
く画像データを格納する第4フレームメモリと、前記第
1フレームメモリに格納された画像データと、前記第4
フレームメモリに格納された画像データに基づいて差分
処理する手段と、その差分処理して得られた差分画像を
格納する第5フレームメモリとを備えて構成することが
できる(請求項3)。
The frame integration and averaging processing means includes a first frame memory for storing given image data and a second frame memory for storing integrated image data obtained by integrating the given image. And a third frame memory for storing an averaged image obtained by dividing the integrated image data stored in the second frame memory by the number of times of integration, wherein the difference processing means is based on the video image. A fourth frame memory for storing image data; an image data stored in the first frame memory;
It can be configured to include means for performing a difference process based on the image data stored in the frame memory, and a fifth frame memory for storing a difference image obtained by the difference process (claim 3).

【0028】また、別の手法としては、前記フレーム積
算平均化処理手段は、与えられた画像データを格納する
第1フレームメモリと、その与えられた画像を積算して
得られた積算画像データを格納する第2フレームメモリ
と、その第2フレームメモリに格納された積算画像デー
タを積算回数で除して得られた平均化画像を格納する第
3フレームメモリとを有し、前記差分処理手段は、前記
第1フレームメモリに格納された画像データと、前記第
3フレームメモリに格納された画像データに基づいて差
分処理する手段と、その差分処理して得られた差分画像
を格納するフレームメモリとを備えて構成することもで
きる(請求項4)。
As another method, the frame integration and averaging means includes a first frame memory for storing given image data, and an integrated image data obtained by integrating the given image. A second frame memory for storing the image data, and a third frame memory for storing an averaged image obtained by dividing the integrated image data stored in the second frame memory by the number of times of integration. Means for performing a difference process based on the image data stored in the first frame memory and the image data stored in the third frame memory; and a frame memory for storing a difference image obtained by the difference process. (Claim 4).

【0029】ここで水路とは、冷却水の取水路の他、自
然の川や、ある程度幅が狭く水が流れる人工のものを含
み、さらには、ダム,池等の比較的幅の広い部分も含む
ものである。そして、検出対象物は、実施の形態では、
くらげを例示しているが、これに限ることはなく、水路
を詰まらせるもの(例えばビニール等のごみ)等でもよ
い。
Here, the water channel includes not only a cooling water intake channel, but also a natural river or an artificial water channel having a relatively small width through which water flows, and a relatively wide portion such as a dam or a pond. Including. Then, the detection target is, in the embodiment,
Although the jellyfish is illustrated, the invention is not limited to this, and a jellyfish that blocks a water channel (for example, garbage such as vinyl) may be used.

【0030】係る構成にすると、前提条件の構成をとる
ことにより所定の空間フィルタ処理を行うので、濃淡値
の勾配やむらが存在する画像が比較的フラットな画像に
なるため、その後の2値化処理が容易になる。このこと
は、本発明における背景画像となる液面のように常時濃
淡値が変動し、しかも、全体で均一ではなく各部での濃
淡値が微妙に異なるような画像データの特徴がある場合
においても、検出対象物となるくらげの濃淡値は背景部
分よりも大きい(明るい)ために、その境界部分での濃
淡値の差は大きくなる。よって、空間フィルタ処理をす
ることにより、強調されるので、検出対象物が浮かび上
がる。よって、しきい値処理により確実に検出対象物と
背景部分とを弁別できる。
According to this configuration, since a predetermined spatial filter process is performed by taking the configuration of the preconditions, an image having a gradient or unevenness of the gray value becomes a relatively flat image. Processing becomes easier. This is true even in the case where the gray level always fluctuates like the liquid surface serving as the background image in the present invention, and furthermore, there is a characteristic of image data in which the gray level in each part is not uniform as a whole and is slightly different. Since the shade value of the jellyfish to be detected is larger (brighter) than that of the background portion, the difference in the shade value at the boundary is large. Therefore, the object to be detected emerges because it is emphasized by performing the spatial filter processing. Therefore, it is possible to reliably discriminate the detection target from the background by the threshold processing.

【0031】さらに、空間フィルタ処理の前処理として
平均値縮小処理を行うことは、データ量を削減すること
による処理負荷の軽減はもちろんのこと、検出対象物が
分断される可能性が低くなり、対象物の計数が容易とな
る。
Further, performing the average value reduction processing as preprocessing of the spatial filter processing not only reduces the processing load by reducing the data amount, but also reduces the possibility that the detection target is divided. The counting of the objects becomes easy.

【0032】そして、この前提条件の構成では、検出対
象物と同様の濃度(濃淡値)があるものは精度よく抽出
することができるが、濃淡値が比較的近い非検出対象物
も含まれているおそれがある。そして、係る非検出対象
物であるにもかかわらず検出されるものとして太陽光の
液面の反射光がある。
According to the configuration of the preconditions, an object having the same density (gray level) as the object to be detected can be accurately extracted, but a non-detection object having a relatively similar gray level is also included. May be present. The reflected light from the liquid level of sunlight is detected as a non-detection target object despite being detected.

【0033】そこで本発明では、入力画像において微少
時間における濃淡値の変化が激しい部分における検出
は、太陽光の液面反射による誤検出の可能性が高いこと
に着目し、これを検出から除外する処理を加えたことを
特徴としている。
Therefore, in the present invention, attention is paid to the fact that detection in a portion of the input image in which the gray level changes greatly in a very short time is highly likely to be erroneously detected due to reflection of sunlight on the liquid surface, and this is excluded from the detection. It is characterized by adding processing.

【0034】従って、濃淡値の時間変化が一定以上とな
る部分を検出する手段や、画像間差分処理手段を実行す
ることにより、上記した太陽光の液面反射により白く光
っている領域を抽出することができる。そして、係る領
域に基づいて検出除外領域を設定することにより、当該
検出除外領域に濃淡値の高い物体があってもそれは反射
光であるおそれが高いと判断でき、検出対象物の計数か
ら除去する。これにより、精度よく目的とする検出対象
物を検出し、正しく警報出力ができる。
Therefore, by executing a means for detecting a portion where the time change of the gray level value is equal to or more than a certain value or an image difference processing means, the area shining white due to the liquid level reflection of sunlight is extracted. be able to. By setting the detection exclusion area based on the area, even if there is an object having a high gray value in the detection exclusion area, it can be determined that the object is likely to be reflected light, and is removed from the counting of the detection target. . As a result, the target object to be detected can be accurately detected, and an alarm output can be correctly output.

【0035】また、請求項3,4に記載の発明では、通
常、画像間差分処理を行うには、差分処理対象の2つの
画像を格納するために2つのフレームメモリを必要とす
るが、その内の1または2個をフレーム積算平均化処理
手段内に実装されたフレームメモリを用いることによ
り、使用するフレームメモリの数を減らすことができ
る。これにより、構成の簡略化に伴うシステムの小規模
化・部品点数の削減・コスト安を図ることができる。
In the third and fourth aspects of the present invention, two frame memories are usually required to store two images to be subjected to difference processing in order to perform the difference processing between images. By using one or two of the frame memories mounted in the frame integration and averaging processing means, the number of frame memories used can be reduced. As a result, it is possible to reduce the size of the system, reduce the number of parts, and reduce costs due to the simplification of the configuration.

【0036】[0036]

【発明の実施の形態】図2は、本発明に係る水路流出入
物監視装置の第1の実施の形態を示している。同図に示
すように、まず、監視TVカメラ1から得られる濃淡画
像をA/D変換部2に与え、そこにおいてA/D変換し
てディジタル画像に変換させる。そしてこのディジタル
画像を次段のフレーム積算・平均化処理部3に与える。
FIG. 2 shows a first embodiment of a waterway inflow and outflow monitoring device according to the present invention. As shown in the figure, first, a grayscale image obtained from the surveillance TV camera 1 is given to an A / D converter 2 where it is A / D converted and converted into a digital image. Then, the digital image is provided to the frame integration / averaging processing unit 3 in the next stage.

【0037】フレーム積算・平均化処理部3では、順次
連続して入力されてくるn枚の画像データに対し、同一
座標の各画素の濃淡値を積算するとともにその平均値を
求め、その求めた平均濃淡値をその後の画像処理の基準
となる画像データの画素の濃淡値とする。これにより、
信号中のノイズ成分や液面の波による画像の細かいむら
は同一の座標上に存在し続けることが少ないので、その
影響が軽減される。これにより、ノイズなどの誤判別の
要因となる雑音成分を除去することができる。また、フ
レーム積算・平均化処理部3の後段には、平均値縮小処
理部4が接続され、積算・平均化された画像データに対
し、設定されたブロックサイズで平均値縮小処理を行
う。この平均値縮小処理は、まず、予め設定されたN×
M(N=Mでも可)のブロックサイズで分割し、さらに
分割されたブロック内に存在する画素の濃淡値の平均値
を求める。そして、その求めた平均濃淡値をそのブロッ
クの代表値とするようになっている。
The frame integration / averaging processing unit 3 integrates the grayscale values of the pixels of the same coordinates with respect to the n consecutively input image data and obtains the average value. The average gray value is set as the gray value of the pixel of the image data serving as a reference for the subsequent image processing. This allows
The influence of the noise component in the signal and the fine unevenness of the image due to the wave of the liquid surface are rarely kept on the same coordinates, so that the influence is reduced. This makes it possible to remove noise components that cause erroneous determination such as noise. Further, an average value reduction processing unit 4 is connected to the subsequent stage of the frame integration / averaging processing unit 3, and performs average value reduction processing on the integrated / averaged image data with a set block size. This average value reduction processing is performed by first setting a predetermined N ×
The image is divided into M (N = M is also possible) block sizes, and the average value of the grayscale values of the pixels present in the divided blocks is obtained. Then, the obtained average gray value is used as a representative value of the block.

【0038】係る処理をすることにより、例えばブロッ
クサイズをN×N(N=M)とすると、データ数は1/
2 に圧縮することができる。このように圧縮すること
により、画像をぼかし、例えば各くらげの細かい寸法・
形状や濃度の差が現れにくくするとともに、処理対象の
データ数を縮小することにより、短時間でより正確な判
断を行えるようにしている。
By performing such processing, for example, if the block size is N × N (N = M), the number of data is 1 /
It can be compressed to N 2. By compressing in this way, the image is blurred, for example,
The difference in shape and density is less likely to appear, and the number of data to be processed is reduced, so that more accurate judgment can be made in a short time.

【0039】そして、具体的なサイズとしては、くらげ
の平面形状がほぼ円形であることから、N=Mとするの
が好ましく、しかもN個の画素の長さと、くらげの半径
とが同程度になるように設定するのが好ましい。そし
て、本例では、8×8でブロック化するようにした。
As a specific size, since the plane shape of the jellyfish is substantially circular, it is preferable to set N = M. In addition, the length of N pixels and the radius of the jellyfish are substantially the same. It is preferable to set so that Then, in this example, the blocks are divided into 8 × 8 blocks.

【0040】なお、分割する際のブロックサイズは、上
記のように予め固定していてもよいし、或いは、別途ブ
ロックサイズ設定部を設け、そのブロックサイズ設定部
からの制御信号に基づいて設定するようにしてもよい。
そして、係る設定は、検出処理において毎回更新を行う
ものではなく、手動設定または自動設定で定期・不定期
に行うようにしてもよい。
The block size at the time of division may be fixed in advance as described above, or a separate block size setting unit may be provided and set based on a control signal from the block size setting unit. You may do so.
The setting may not be performed every time in the detection process, but may be performed periodically or irregularly by manual setting or automatic setting.

【0041】さらに、平均値縮小処理部4で生成された
画像データを、空間フィルタ処理部5に与え、そこにお
いて所定の空間フィルタ処理を行い、検出対象物のくら
げの部分が浮き出るようにする。そして、この空間フィ
ルタの具体的な処理方法として、例えば処理対象画素を
中心とするn×nの局所領域の中の各濃淡データと処理
対象画素の濃淡値との差の絶対値を求め、求められた
(n×n−1)個の差の絶対値の中から、最大値を選択
して、空間フィルタ処理の結果として出力することがで
きる。
Further, the image data generated by the average value reduction processing section 4 is supplied to a spatial filter processing section 5, where a predetermined spatial filter processing is performed so that a jellyfish portion of the detection object emerges. As a specific processing method of the spatial filter, for example, an absolute value of a difference between each grayscale data in an n × n local region centered on a pixel to be processed and a grayscale value of the pixel to be processed is obtained. The maximum value can be selected from the absolute values of the obtained (n × n−1) differences and output as a result of the spatial filter processing.

【0042】一例を示すと、n=3とすると、図3
(A)に示すように、局所領域を構成する画素は、〜
の9個となり、そのうち中央のの画素が処理対象画
素となる。そこで、|−|,|−|,|−
|,…,|−|,|−|を求め、計8個の演算
結果の中からもっとも大きい値をその処理対象画素の
代表値とする。なお、上記した絶対値演算の式中丸数字
は、各画素の濃淡値を意味する。
As an example, if n = 3, FIG.
As shown in (A), the pixels forming the local region are:
, Of which the central pixel is the pixel to be processed. Therefore, | − |, | − |, | −
|,..., | − |, | − |, And the largest value among the total of eight calculation results is set as the representative value of the pixel to be processed. Note that the circled numbers in the above expression of the absolute value calculation mean the grayscale values of each pixel.

【0043】係る構成にすると、周囲の画素との濃度差
が大きい場合には代表値が高くなり、処理対象画素を
含む9個の画素の濃淡値がほぼ同じ場合には、代表値が
小さくなる。つまり、上記したように、ここでの処理対
象画素は、前段で縮小化処理がされており、くらげの半
径と同程度の大きさとなっている。従って、処理対象画
素にくらげが存在している場合には、同図(B)中ハッ
チングで示すように、4画素分に存在することになる。
従って、図示の例では、ハッチングをしていない5個の
画素との間の濃度差が大きくなる。一方、くらげがいな
い部分では、局所領域は海面或いは水面となっているの
で、各画素間での濃度差はいずれも小さくなる。よっ
て、少なくとも処理対象画素にくらげが存在する場合に
は、その処理対象画素の代表値が大きくなる。
With this configuration, the representative value is high when the density difference with surrounding pixels is large, and the representative value is small when the nine pixels including the pixel to be processed have substantially the same gray value. . That is, as described above, the pixel to be processed here has been reduced in the previous stage, and has a size approximately equal to the radius of the jellyfish. Therefore, when the jellyfish exists in the processing target pixel, it exists for four pixels as shown by hatching in FIG.
Therefore, in the illustrated example, the density difference between the five pixels that are not hatched is large. On the other hand, in a portion where there is no jellyfish, the local region is the sea surface or the water surface, so that the density difference between each pixel is small. Therefore, when there is at least a jellyfish in the processing target pixel, the representative value of the processing target pixel increases.

【0044】そして、係る方法により空間フィルタリン
グした場合の処理結果の一例を示すと図4のようにな
る。そして、図中濃淡値(上記で言う「代表値」)が高
くなっているところが、くらげが存在している候補地で
ある。
FIG. 4 shows an example of the processing result when the spatial filtering is performed by the above method. In the figure, the place where the gray value (the “representative value” mentioned above) is high is the candidate place where the jellyfish exists.

【0045】また、別の空間フィルタリング方法として
は、検出対象のくらげの濃淡値が、背景となる液面の濃
淡値よりも高い(明るい)ことに着目し、背景の液面よ
りも濃淡値の高い画素を抽出することを目的としてい
る。
As another spatial filtering method, focusing on the fact that the gray value of the jellyfish to be detected is higher (brighter) than the gray value of the background liquid level, The purpose is to extract high pixels.

【0046】すなわち、処理対象画素を中心とするn×
nの矩形領域に存在する各画素の濃淡値データの中か
ら、最大濃淡値及び最小濃淡値を抽出する。そして、処
理対象画素の濃淡値から、最大濃淡値と最小濃淡値をそ
れぞれ減算し、求められた2つの減算値を加算する。そ
して、求めた加算値が、正の場合にはその値をフィルタ
出力値とし、また負の場合には0をフィルタ出力値とす
る。
That is, nx centering on the pixel to be processed
The maximum gray value and the minimum gray value are extracted from the gray value data of each pixel existing in the n rectangular area. Then, the maximum grayscale value and the minimum grayscale value are respectively subtracted from the grayscale value of the processing target pixel, and the obtained two subtraction values are added. When the obtained addition value is positive, the value is used as the filter output value, and when the obtained addition value is negative, 0 is used as the filter output value.

【0047】画像データに対する具体的な処理は次式に
より求めることができる。
The specific processing for the image data can be obtained by the following equation.

【0048】[0048]

【数1】 そして、3×3の局所領域とした場合の処理例を示す
と、処理対象画素に検出対象物がある場合には、図5に
示すように、処理対象画素の濃淡値が最大濃淡値となる
ので、その差は「0」となり、最小濃淡値との差も大き
な正の値となる。よって、最終的な加算結果は、最小濃
淡値との差と等しくなり、大きな正の値となる。
(Equation 1) In a processing example in the case of a 3 × 3 local area, when a processing target pixel has a detection target, as shown in FIG. 5, the gray value of the processing target pixel becomes the maximum gray value. Therefore, the difference is “0”, and the difference from the minimum shading value is also a large positive value. Therefore, the final addition result becomes equal to the difference from the minimum shading value and becomes a large positive value.

【0049】なお、上記したように、本実施の形態で
は、くらげの場合には、4画素分を占めるが、少なくと
も処理対象画素にくらげの部分がかかっている場合に
は、上記の通りとなる。
As described above, in the present embodiment, the jellyfish occupies four pixels, but when at least the pixel to be processed has a jellyfish portion, the result is as described above. .

【0050】また、処理対象領域に検出対象物のくらげ
がいない(もちろん処理対象画素にもいない)場合に
は、各画素の差が少ないために、処理対象画素の濃淡値
と最大濃淡値及び最小濃淡値との差が小さくなる。加え
て処理対象画素が最大濃淡値でない場合は、処理対象画
素から最大濃淡値を引いた値は負になるため、この分だ
け最終的な加算結果が低く抑えられることになる。さら
に、図6の例のように、処理対象画素の濃淡値が最大濃
淡値よりも最小濃淡値に近い場合は、加算結果が負とな
り、フィルタ出力は0となる。
Further, when there is no jellyfish of the object to be detected in the region to be processed (or, of course, there is no pixel to be processed), since the difference between the pixels is small, the gray value of the pixel to be processed, the maximum gray value, and the minimum value The difference from the gray value becomes smaller. In addition, when the pixel to be processed is not the maximum grayscale value, the value obtained by subtracting the maximum grayscale value from the pixel to be processed is negative, so that the final addition result is suppressed by that much. Further, as in the example of FIG. 6, when the gray value of the processing target pixel is closer to the minimum gray value than the maximum gray value, the addition result becomes negative and the filter output becomes 0.

【0051】そして、図4を求めた際に使用したのと同
一の平均値縮小処理画像に対し、上記の方法を実行して
得られた部分領域の一例を示すと、図7のようになっ
た。図4と図7を比較すると明らかなように、くらげが
存在する部分がより急峻となるとともに、背景部分の値
はより低く抑えられるため、くらげを検出しやすくな
る。
FIG. 7 shows an example of a partial area obtained by executing the above-mentioned method for the same average value reduction processing image used when obtaining FIG. 4. Was. As is clear from the comparison between FIG. 4 and FIG. 7, the portion where the jellyfish exists is steeper, and the value of the background portion is suppressed lower, so that the jellyfish can be easily detected.

【0052】そして、空間フィルタ処理部5の出力が、
画像2値化処理部6に与えられる。この画像2値化処理
部6では、空間フィルタ処理部5から得られた画像デー
タのうち予め設定された検出対象外領域を除いたデータ
に対し、設定されたしきい値で2値化(例えば、検出画
素(くらげに対応する明るい画素)を1,非検出画素を
0)する。本例では、前処理として空間フィルタ処理を
施しているので、検出対象のくらげ部分の濃淡値は高く
なり、背景の液面の濃淡値は小さく(暗く)なるように
し、両者の濃淡値の差が大きくなるようにしたため、2
値化しきい値を比較的ラフに設定しても、くらげ部分を
確実に抽出することができる。そして、図7に示すよう
な空間フィルタ処理結果の濃淡画像データに対して2値
化処理した結果、図8に示すようになる。なお、図中白
抜き部分がくらげが存在する候補部分である。
The output of the spatial filter processing unit 5 is
It is provided to the image binarization processing unit 6. The image binarization processing unit 6 binarizes the image data obtained from the spatial filter processing unit 5 from the data excluding the predetermined non-detection target area with a set threshold (for example, , The detected pixel (the bright pixel corresponding to the jellyfish) is 1, and the non-detected pixel is 0). In this example, since the spatial filter processing is performed as the preprocessing, the gray value of the jellyfish portion to be detected is increased, and the gray value of the background liquid level is reduced (darkened). Was made larger, so 2
Even if the valuation threshold is set relatively rough, it is possible to reliably extract the jellyfish portion. Then, as a result of performing binarization processing on the grayscale image data resulting from the spatial filter processing as shown in FIG. 7, the result becomes as shown in FIG. It should be noted that a blank portion in the drawing is a candidate portion having jellyfish.

【0053】なお、上記した検出対象外領域は、画面内
の極端に明るい部分,暗い部分、また濃淡にむらがある
部分,液面と壁などの境界部分など、誤動作につながり
やすい部分を判断対象から除くためにあらかじめ設定す
るようにしている。つまり、検出対象外領域に関する情
報(座標データ等)に基づいて指定される。そして、係
る検出対象外領域の設定は、例えばモニタを見ながら直
接検出対象外領域を指示してもよく、或いは濃淡画像
(くらげがいない画像)から極端に明るいところや、濃
度が変化しやすい領域などの所定の条件を満たす領域を
抽出し、それから自動的に設定するようにしてもよい。
そして、係る検出対象外領域を設定する機能を付加する
とよいが、本発明では必ずしも設けなくてもよい。
It should be noted that the above-mentioned non-detection target area is a part which is likely to be liable to malfunction, such as an extremely bright part, a dark part, a part having uneven density, or a boundary part between a liquid surface and a wall in the screen. It is set in advance to exclude from. That is, it is specified based on information (coordinate data and the like) regarding the non-detection target area. For the setting of the non-detection target area, for example, the non-detection target area may be directly instructed while looking at the monitor, or an extremely bright place from a gray-scale image (an image without jellyfish) or an area where the density is likely to change. For example, an area that satisfies a predetermined condition such as the above may be extracted and then automatically set.
Then, a function of setting the non-detection target region may be added, but the present invention is not necessarily provided.

【0054】さらに、上記した画像2値化処理部6の出
力を対象物候補検出処理部7に与え、その対象物候補検
出処理部7にて、1フレームの2値画像内の検出対象物
候補を抽出する。すなわち、本例では、一つの検出対象
物が複数の画素で検出される場合があるので、ラベリン
グ処理を実行し、複数の画素が連結しているものをひと
かたまりの領域として識別する。そして、ラベリングし
た各領域を検出し、対象物候補の座標位置を求める。
Further, the output of the above-mentioned image binarization processing section 6 is given to an object candidate detection processing section 7, and the object candidate detection processing section 7 detects the detection object candidate in a binary image of one frame. Is extracted. That is, in this example, since one detection target object may be detected by a plurality of pixels, a labeling process is performed, and an area where a plurality of pixels are connected is identified as a group of areas. Then, each labeled area is detected, and the coordinate position of the target object candidate is obtained.

【0055】上記した符号1から7で示す処理部を実行
して抽出した領域は、濃淡に基づいてくらげらしいと推
定できる画素部分(対象物候補)である。しかし、対象
物候補を単に見つけるという目的で、対象物が1〜4ブ
ロック程度で検出されるようにブロックサイズを設定し
ている。従って、係る条件に該当するものとしては、検
出対象のくらげの場合の他に、例えば太陽光の液面反射
等の可能性もある。そこで、本実施の形態では、上記し
た処理装置に加え、さらに以下の機能を付加することに
より、太陽光の液面反射領域を検出し、それによる誤計
測を防止するようにしている。
The areas extracted by executing the processing units indicated by the above-mentioned reference numerals 1 to 7 are pixel portions (object candidates) which can be estimated to be jellyfish based on the shading. However, the block size is set so that the object is detected in about 1 to 4 blocks for the purpose of simply finding the object candidate. Accordingly, the condition that corresponds to such a condition may be, for example, liquid reflection of sunlight or the like, in addition to the case of jellyfish to be detected. Therefore, in the present embodiment, in addition to the above-described processing device, the following function is further added to detect the liquid-reflection region of the sunlight, thereby preventing erroneous measurement.

【0056】すなわち、図2に示すように、A/D変換
部2の出力と、フレーム積算・平均化処理部3における
中間データを画像間差分処理部10に与え、そこにおい
て2枚の画像間の差分処理を行うようにしている。この
処理により、2枚の画像間において同一位置の画素の濃
淡値の差分値を算出し、この絶対値からなる画像間差分
画像を算出する。
That is, as shown in FIG. 2, the output of the A / D converter 2 and the intermediate data in the frame integration / averaging processor 3 are given to the inter-image difference processor 10, where the two images are interpolated. Is performed. By this processing, a difference value of the grayscale value of the pixel at the same position between the two images is calculated, and an image difference image including the absolute value is calculated.

【0057】この画像間差分処理部10の具体的な構造
としては、図9に示すように構成できる。すなわち、上
記したフレーム積算・平均化処理部3の処理を行うため
の内部構造としては、図3に示すように、A/D変換部
2から与えられる入力画像を格納する第1フレームメモ
リ3aと、その第1フレームメモリ3aに入力される画
像を順次積算して得られた積算画像を格納する第2フレ
ームメモリ3bと、その第2フレームメモリ3bに格納
された積算画像を積算回数Nで除して得られた平均画像
を格納する第3フレームメモリ3cをそれぞれ直列に接
続し、さらに、各フレーム間に、積算処理するための加
算器3dと、平均値を求めるための除算器3eを介在さ
せるように構成することにより実現できる。
The specific structure of the image difference processing unit 10 can be configured as shown in FIG. That is, as shown in FIG. 3, a first frame memory 3a for storing an input image supplied from the A / D converter 2 has an internal structure for performing the processing of the frame integration / averaging processing section 3 described above. A second frame memory 3b for storing an integrated image obtained by sequentially integrating the images input to the first frame memory 3a, and dividing the integrated image stored in the second frame memory 3b by the number of integrations N. The third frame memories 3c for storing the average images obtained in this way are connected in series, and an adder 3d for performing an integration process and a divider 3e for obtaining an average value are interposed between each frame. It can be realized by a configuration in which the

【0058】そして、本形態では、画像間差分処理部1
0の入力側に1つの第4フレームメモリ10aを配置
し、その第4フレームメモリ10aにA/D変換部2よ
り与えられる入力画像を格納するようにする。そして、
上記したフレーム積算・平均化処理部3における入力画
像を格納する第1フレームメモリ3aの出力をこの画像
間差分処理部10にも与えるようにし、第1,第4フレ
ームメモリ3a,10aに格納された入力画像をそれぞ
れ減算器10bに与え、そこにおいて画像間差分処理を
行い、得られた差分画像を出力側の第5フレームメモリ
10cに格納するようにする。そして、この出力側の第
5フレームメモリ10cに格納された差分画像は、次段
の差分画像縮小処理部11に与えられる。すなわち、太
陽光反射領域は、さざ波などに起因して、同一画素にお
ける濃淡値は比較的大きく変動する。これに対し、非反
射領域の場合には、濃淡値はほぼ一定の値をとる。従っ
て、差分処理を行うことにより、差分値が大きくなった
画素は、太陽光反射領域であるおそれが高いといえる。
In this embodiment, the image difference processing unit 1
One fourth frame memory 10a is arranged on the input side of 0, and the input image given from the A / D converter 2 is stored in the fourth frame memory 10a. And
The output of the first frame memory 3a for storing the input image in the above-described frame integration / averaging processing unit 3 is also provided to the inter-image difference processing unit 10, and the output is stored in the first and fourth frame memories 3a and 10a. Each of the input images is supplied to a subtracter 10b, where image difference processing is performed, and the obtained difference image is stored in a fifth frame memory 10c on the output side. Then, the difference image stored in the fifth frame memory 10c on the output side is provided to the difference image reduction processing unit 11 at the next stage. That is, in the sunlight reflection area, the shading value in the same pixel fluctuates relatively largely due to ripples and the like. On the other hand, in the case of the non-reflection area, the gray value takes a substantially constant value. Therefore, it can be said that a pixel having a large difference value by performing the difference processing has a high possibility of being a sunlight reflection area.

【0059】なお、各フレームメモリ3a,10aから
減算器10bに与える画像データは、異なる時刻に得ら
れた画像データであるのはもちろんであり、これは例え
ば、第4フレームメモリ10aに格納された画像は、所
定回数分(例えば2〜3フレーム分)遅らせて出力した
り、図示省略するが所定の第1フレームメモリ3a及び
または10aから減算器10bに至る経路に遅延手段を
介在させることにより実現できる。そして、後述するよ
うに、係る画像間差分処理は、画像取得する都度毎回行
う必要はないので、前者のようにあるタイミングで入力
された画像データを第4フレームメモリ10aに格納し
ておき、その後所定期間(時間・フレーム)経過後に出
力するような制御をすれば簡単に実現できる。
The image data provided from each of the frame memories 3a and 10a to the subtractor 10b is, of course, image data obtained at different times. For example, the image data is stored in the fourth frame memory 10a. The image is output after being delayed by a predetermined number of times (for example, two to three frames), or by interposing delay means on a path from the predetermined first frame memory 3a and / or 10a to the subtractor 10b (not shown). it can. Then, as described later, such an inter-image difference process does not need to be performed each time an image is acquired, so that image data input at a certain timing as in the former is stored in the fourth frame memory 10a, and thereafter, This can be easily realized by performing control such that the output is performed after a predetermined period (time / frame) has elapsed.

【0060】差分処理部10では、時間的に連続する画
像を用いて、一定時間間隔の画像間の差分処理(一般的
にフレーム間差分処理として広く知られている)を行う
ものであり、その間に発生する画像の時間変化を検出す
るのに有効である。一般に差分処理を行う場合には、画
像間差分の対象画像を格納するフレームメモリ2個と、
その演算結果画像を格納するフレームメモリ1個の計3
個のフレームメモリを基本的に必要とする。しかし、本
発明では、図9に示すように画像間差分の対象画像の一
方として、フレーム積算・平均化処理のフレームメモリ
の画像を利用するため、対象画像用に必要なフレームメ
モリは1つで良くなり、1つ分省略できるので好まし
い。
The difference processing section 10 performs difference processing between images at fixed time intervals (generally known as inter-frame difference processing) using temporally continuous images. This is effective for detecting a temporal change of an image occurring in the image. Generally, when performing the difference processing, two frame memories for storing the target image of the difference between the images,
One frame memory for storing the image of the operation result, a total of 3
Basically, it requires two frame memories. However, in the present invention, as shown in FIG. 9, since one of the target images of the difference between the images uses the image of the frame memory of the frame integration / averaging process, only one frame memory is required for the target image. This is preferable because it can be improved and one can be omitted.

【0061】差分画像縮小処理部11は、画像間差分処
理部10による差分画像データを、平均値縮小処理部4
に用いた所定のブロックサイズで画像の縮小処理を行
う。ここでの縮小処理の目的は、画像の時間変化を示す
差分画像を、検出処理の基本となる平均値縮小処理画像
と同サイズにすることである。具体的な縮小方法として
は、平均値縮小処理部4にて行ったのと同様の処理とし
てもよいが、ブロック内画素濃淡値の最大値(平均値縮
小処理の場合は平均値)をもってそのブロックの代表値
とする処理としてもよい。すなわち、差分画像中に現れ
る太陽光の液面反射部分は、高い濃淡値を持つものの細
かな模様となることが多く、これを平均値縮小処理する
と平滑化効果によってくらげの存在部分との違いを見分
けにくくなるおそれがある。これを防ぐためには、後者
の最大値を用いる方式のほうが好ましい。
The difference image reduction processing section 11 converts the difference image data from the image difference processing section 10 into an average value reduction processing section 4.
The image is reduced with the predetermined block size used for the image processing. The purpose of the reduction processing here is to make the difference image showing the time change of the image the same size as the average reduction processing image which is the basis of the detection processing. As a specific reduction method, the same processing as that performed by the average value reduction processing unit 4 may be performed. However, the maximum value of the pixel density value in the block (the average value in the case of the average value reduction processing) is used for the block. May be used as the representative value of That is, the liquid-reflection part of sunlight appearing in the difference image often has a high density value but has a fine pattern, and when this is averaged, the difference from the jelly-existing part due to the smoothing effect is reduced. There is a possibility that it will be difficult to distinguish them. In order to prevent this, the latter method using the maximum value is more preferable.

【0062】この差分画像縮小処理部11で求められた
縮小画像が、次段の検出除外領域設定処理部12に与え
られる。この検出除外領域設定処理部12では、縮小処
理された差分画像から、検出対象から除外すべき太陽光
の反射部分を抽出する処理を行うようにしている。具体
的には、まず、差分画像縮小処理部からの画像データを
所定の2値化しきい値で2値化(例:検出除外画素を
1、非検出除外画素を0)する。この検出除外画素はま
ばらに抽出されることが多いため、この画素に膨張処理
を所定回数施すことによって拡大統合させ、目的の検出
除外領域を算出する。この膨張処理は、処理対象の画素
が検出除外対象画素(1)とすると、その周囲の画素も
検出対象除外対象画素(1)とすることを所定回数繰り
返す処理である。従って、繰り返し回数が1回とする
と、近傍8画素(3×3の局所領域)までが検出除外領
域となり、繰り返し回数が2回とすると、検出除外画素
を中心として5×5の局所領域が検出除外領域となる。
もちろん3回以上繰り返しても良い。
The reduced image obtained by the difference image reduction processing section 11 is provided to the detection exclusion area setting processing section 12 at the next stage. The detection exclusion area setting processing unit 12 performs a process of extracting a reflected portion of sunlight to be excluded from detection targets from the reduced difference image. Specifically, first, the image data from the difference image reduction processing unit is binarized by a predetermined binarization threshold (for example, the detection exclusion pixel is 1 and the non-detection exclusion pixel is 0). Since the detection exclusion pixels are often sparsely extracted, expansion and integration are performed on the pixels by performing expansion processing a predetermined number of times to calculate a target detection exclusion area. This expansion process is a process of repeating a predetermined number of times that a pixel to be processed is a detection exclusion target pixel (1) and surrounding pixels are also set to a detection target exclusion target pixel (1). Therefore, if the number of repetitions is one, up to eight neighboring pixels (3 × 3 local areas) will be a detection exclusion area, and if the number of repetitions is two, a 5 × 5 local area around the detection exclusion pixels will be detected. It becomes an exclusion area.
Of course, it may be repeated three or more times.

【0063】そして、この検出除外領域設定処理部12
で求められた検出除外領域データと、上記した対象物検
出処理部7で求められた結果が検出除外処理部8に与え
られるようにしている。この検出除外処理部8は、対象
物検出処理部7による対象物候補のうち、検出除外領域
設定処理部12からの検出除外領域中に存在するものを
除く処理を実行するようにしている。つまり、対象物候
補の位置座標が、検出除外領域中にある場合には、それ
を除去する。これにより、対象物検出処理部7における
検出基本処理では区別のできなかった太陽光の液面反射
による誤検出を除外することができ、検出精度が向上す
る。
Then, the detection exclusion area setting processing section 12
The detection exclusion area data obtained in step (1) and the result obtained by the object detection processing section 7 described above are provided to the detection exclusion processing section 8. The detection exclusion processing unit 8 executes processing for excluding, from among the object candidates by the object detection processing unit 7, those present in the detection exclusion area from the detection exclusion area setting processing unit 12. That is, when the position coordinates of the object candidate are in the detection exclusion area, they are removed. Thereby, erroneous detection due to reflection of sunlight on the liquid surface, which cannot be distinguished in the basic detection processing in the object detection processing unit 7, can be excluded, and the detection accuracy is improved.

【0064】そして、このように検出除外処理部8にて
精度よくクラゲの数を計数できるので、警報処理部9で
は、検出除外処理部8からの検出数の値やその時間変化
により、検出物の流入度合いを判別しそれに応じた警報
を発するようにしている。
Since the number of jellyfishes can be counted with high accuracy in the detection exclusion processing unit 8 as described above, the alarm processing unit 9 detects the number of jellyfishes based on the value of the number of detections from the detection exclusion processing unit 8 and its time change. Is determined and an alarm is issued accordingly.

【0065】つまり、入力画像が図10に示すようにな
っており検出対象外領域が図11になっているとする
と、画像2値化処理部6からは図12に示すような2値
画像が出力される。図中白抜き部分が検出対象候補部分
である。図10中領域Rは、反射光に基づく領域である
が、図12ではその領域に対応する部分に検出対象候補
部分が抽出されている。
That is, assuming that the input image is as shown in FIG. 10 and the non-detection area is as shown in FIG. 11, the image binarization processing section 6 outputs a binary image as shown in FIG. Is output. The white part in the figure is the detection target candidate part. The region R in FIG. 10 is a region based on the reflected light, but in FIG. 12, the detection target candidate portion is extracted in a portion corresponding to the region.

【0066】一方、画像間差分処理した後、平均化並び
に膨張処理することにより検出除外領域設定処理部12
から出力される検出除外領域は、図13中黒塗りの部分
となり、この図と図10を比較すると明らかなように、
反射光に基づく領域Rは、検出除外領域に設定される。
従って、この検出除外領域に検出対象候補が存在しても
無視されるので、図12に示す2値画像のうち検出除外
領域に該当する部分を黒画素に置き換えると、図14の
ようになる。そして、図14中白画素の部分が検出対象
物であるクラゲが存在する部分となる。よって、係る白
画素の領域に基づいてクラゲの数を計数できる。なお、
図14は、計数の基本概念を説明するために示したが、
実際に係る2値画像を求め、それに基づいて計数する必
要がないのはもちろんである。すなわち、上記したよう
に、対象物候補検出処理部7で求めた座標値と図13に
示す検出除外領域に基づいて計数することができるから
である。もちろん、後述する他の実施の形態のようにし
て、具体的に2値画像を求め、それに基づいて計数する
のももちろんよい。
On the other hand, after performing the difference processing between the images, the averaging and expansion processing are performed, so that the detection exclusion area setting processing section 12
The detection exclusion area output from is the blacked-out part in FIG. 13, and as is clear from comparison between FIG. 10 and FIG.
The region R based on the reflected light is set as a detection exclusion region.
Therefore, even if the detection target candidate exists in this detection exclusion area, it is ignored. Therefore, when the portion corresponding to the detection exclusion area in the binary image shown in FIG. 12 is replaced with black pixels, the result becomes as shown in FIG. Then, the white pixel portion in FIG. 14 is the portion where the jellyfish which is the detection target exists. Therefore, the number of jellyfish can be counted based on the white pixel area. In addition,
FIG. 14 is shown to explain the basic concept of counting,
Needless to say, there is no need to obtain the actual binary image and count based on it. That is, as described above, the counting can be performed based on the coordinate values obtained by the target object detection processing unit 7 and the detection exclusion area shown in FIG. Of course, as in the other embodiments described later, it is of course also possible to specifically obtain a binary image and count based on the binary image.

【0067】図15,図16は、本発明の第2の実施の
形態を示している。本実施の形態では、画像間差分の2
枚の対象画像に、フレーム積算・平均化画像とフレーム
積算・平均化処理への最終入力フレームを用いることに
よって、画像間差分の対象画像用にフレームメモリを追
加することなく目的の画像間差分処理を行えるようにし
ている。
FIGS. 15 and 16 show a second embodiment of the present invention. In the present embodiment, the difference between the images is 2
By using the frame integration and averaging image and the final input frame to the frame integration and averaging process for the target images, the target image difference processing can be performed without adding a frame memory for the image difference target image. Can be done.

【0068】具体的には、画像間差分処理部10′に
は、フレーム積算・平均化処理部3における第1フレー
ムメモリ3aの出力と、第3フレームメモリ3cすなわ
ちフレーム積算・平均化処理部3の出力(平均化画像)
をそれぞれ与え、内蔵する減算器10bにて画像間差分
処理を実行し、得られた差分データを第5フレームメモ
リ10cに与え、次段の差分画像縮小処理部11へ与え
るようにしている。
Specifically, the output from the first frame memory 3a in the frame integration / averaging processing unit 3 and the third frame memory 3c, that is, the frame integration / averaging processing unit 3 Output (averaged image)
And a built-in subtractor 10b executes an inter-image difference process. The obtained difference data is provided to the fifth frame memory 10c, and is provided to the next-stage difference image reduction processing unit 11.

【0069】すなわち、フレーム積算・平均化画像は、
画像濃淡値の時間変化を平滑化した画像であり、この画
像と最終フレームとの差分画像は単純なフレーム間差分
画像に比べるとその差分値は低く抑えられる傾向があ
る。しかし、太陽光反射による濃淡値変化自体は大きい
ため、この方法によっても流出入物による変化と区別で
きるような差分値を得ることは可能である。従って、本
形態によれば、上記した第1の実施の形態に比べ、さら
にフレームメモリを1つ減らすことができる。
That is, the frame integrated / averaged image is
This is an image obtained by smoothing the temporal change of the image density value, and the difference image between this image and the final frame tends to have a lower difference value than a simple inter-frame difference image. However, since the gray level change itself due to sunlight reflection is large, even with this method, it is possible to obtain a difference value that can be distinguished from the change due to inflow and outflow. Therefore, according to the present embodiment, the number of frame memories can be further reduced by one in comparison with the first embodiment.

【0070】図17は、本発明の第3の実施の形態を示
している。本実施の形態は、上記した第1の実施の形態
を基本とし、対象物候補と検出除外領域に基づいて検出
対象物を求める手法を変えている。すなわち、画像2値
化処理部6の出力と検出除外領域設定処理部12の出力
を画像合成処理部20に与える。この画像合成処理部2
0は、与えられた2つの画像の論理和をとり、少なくと
も一方の画素が黒画素の場合には当該画素を黒にするよ
うにする。これにより、画像2値化処理部6から出力さ
れる2値画像のうち、検出除外領域に該当する画素は黒
画素になる。よって、画像合成処理部20に与えられる
2枚の2値画像が、それぞれ図12,図13とすると、
画像合成処理部20からは、図14に示すようになる。
つまり、この画像合成処理部20は、検出除外処理を行
うことになる。
FIG. 17 shows a third embodiment of the present invention. This embodiment is based on the first embodiment described above, and is different from the method of obtaining a detection target based on a target candidate and a detection exclusion area. That is, the output of the image binarization processing unit 6 and the output of the detection exclusion area setting processing unit 12 are given to the image synthesis processing unit 20. This image synthesis processing unit 2
0 takes the logical sum of the two given images, and if at least one pixel is a black pixel, makes the pixel black. As a result, in the binary image output from the image binarization processing unit 6, the pixel corresponding to the detection exclusion area becomes a black pixel. Therefore, if the two binary images given to the image synthesis processing unit 20 are respectively shown in FIGS.
FIG. 14 shows the image composition processing unit 20.
That is, the image synthesis processing unit 20 performs the detection exclusion processing.

【0071】そして、画像合成処理部20の出力を対象
物検出処理部21に与え、そこにおいて与えられた2値
画像をラベリング処理して連続する白画素を統合し、こ
この領域を設定し、その領域の数を計数することによ
り、検出対象物の数を求める。そして、係る求めた数が
所定数以上の場合には、警報処理部9を動作させ、警報
を発する。なお、係る構成は、上記した第2の実施の形
態に対してももちろん適用できる。
Then, the output of the image synthesizing processing section 20 is supplied to the object detecting processing section 21, where the given binary image is subjected to labeling processing to integrate continuous white pixels, and an area is set. By counting the number of the areas, the number of detection targets is obtained. When the obtained number is equal to or more than the predetermined number, the alarm processing unit 9 is operated to issue an alarm. Note that such a configuration can of course be applied to the above-described second embodiment.

【0072】なおまた、上記した各実施の形態では、画
像間差分処理部における処理対象の画像を格納するフレ
ームメモリを、1または2個省略する例を示したが、本
発明ではこれに限ることはなく、画像間差分処理部内に
独立してフレームメモリを設け、一般的に行われる画像
間差分処理を行う構成としてももちろんよい。
In each of the embodiments described above, an example is shown in which one or two frame memories for storing the image to be processed in the inter-image difference processing section are omitted, but the present invention is not limited to this. Instead, a frame memory may be provided independently in the inter-image difference processing unit to perform a generally performed inter-image difference process.

【0073】[0073]

【発明の効果】以上のように本発明に係る水路流出入物
監視装置では、空間フィルタ処理を行うことにより、濃
淡値の勾配やむらが存在する画像が比較的フラットな画
像になるためその後の2値化処理が容易に行うことがで
きる。しかも、その前処理として平均値縮小処理を行う
ため、処理対象のデータ量を削減することができ、処理
負荷が軽減されて、リアルタイムでの処理が可能となる
ばかりでなく、ブロックサイズを適宜に設定することに
より、対象物が分断される可能性が低くなり、検出対象
物候補の検出が容易かつ正確に行える。
As described above, in the waterway inflow / outflow material monitoring apparatus according to the present invention, by performing the spatial filter processing, the image in which the gradient or unevenness of the grayscale value is present becomes a relatively flat image. Binarization processing can be easily performed. In addition, since the average value reduction processing is performed as the preprocessing, the amount of data to be processed can be reduced, the processing load is reduced, real-time processing becomes possible, and the block size is appropriately adjusted. By setting, the possibility that the target object is divided is reduced, and the detection target object candidate can be easily and accurately detected.

【0074】このように、前提条件の構成をとることに
より、対象物を確実に抽出することができる。そして、
そのようにして抽出した中には、非検出対象物も含まれ
る。しかし、本発明では、前提条件に加えて各請求項で
規定するような処理手段を設けたことにより、太陽光の
反射光の領域を検出することができるので、検出対象物
を精度よく抽出でき、監視カメラの画像から水路へ流出
入する物体(主にくらげ)の検出及びその流出入度合の
計測を簡易な画像処理手法で実現でき、しかも、検出対
象の物体と濃度の近い非検出対象物とを精度よく弁別す
ることができる。
As described above, by adopting the configuration of the precondition, the object can be reliably extracted. And
The non-detection target is also included in the extraction in this manner. However, in the present invention, by providing the processing means as defined in each claim in addition to the preconditions, the area of the reflected light of sunlight can be detected, so that the detection target can be accurately extracted. In addition, the detection of objects (mainly jellyfish) flowing into and out of the water channel from the images of the surveillance cameras and the measurement of the degree of the inflow and outflow can be realized by a simple image processing method. Can be distinguished with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明をする過程で創案した先発明の水路流出
入物監視装置を示すブロック図である。
FIG. 1 is a block diagram showing a waterway inflow and outflow monitoring device according to a prior invention, which was devised in the course of carrying out the present invention.

【図2】本発明に係る水路流出入物監視装置の第1の実
施の形態を示すブロック図である。
FIG. 2 is a block diagram showing a first embodiment of a waterway inflow / outflow substance monitoring apparatus according to the present invention.

【図3】空間フィルタの機能を説明する図である。FIG. 3 is a diagram illustrating a function of a spatial filter.

【図4】空間フィルタの処理結果の一例を示す図であ
る。
FIG. 4 is a diagram illustrating an example of a processing result of a spatial filter.

【図5】空間フィルタの機能を説明する図である。FIG. 5 is a diagram illustrating a function of a spatial filter.

【図6】空間フィルタの機能を説明する図である。FIG. 6 is a diagram illustrating a function of a spatial filter.

【図7】空間フィルタの処理結果の一例を示す図であ
る。
FIG. 7 is a diagram illustrating an example of a processing result of a spatial filter.

【図8】フレーム画像2値化処理結果の一例を示す図で
ある。
FIG. 8 is a diagram illustrating an example of a frame image binarization processing result;

【図9】本実施の形態の要部を示す図である。FIG. 9 is a diagram showing a main part of the present embodiment.

【図10】入力画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an input image.

【図11】その入力画像における検出対象外領域の一例
を示す図である。
FIG. 11 is a diagram illustrating an example of a non-detection target area in the input image.

【図12】図10の入力画像を与えたときに画像2値化
処理部6から出力される2値画像を示す図である。
12 is a diagram illustrating a binary image output from the image binarization processing unit 6 when the input image in FIG. 10 is provided.

【図13】同検出除外領域設定処理部12から出力され
る画像を示す図である。
FIG. 13 is a diagram showing an image output from the detection exclusion area setting processing unit 12.

【図14】図12に示す画像に対し検出除外処理して得
られた2値画像を示す図である。
14 is a diagram illustrating a binary image obtained by performing a detection exclusion process on the image illustrated in FIG. 12;

【図15】本発明に係る水路流出入物監視装置の第2の
実施の形態を示すブロック図である。
FIG. 15 is a block diagram showing a second embodiment of the waterway inflow / outflow substance monitoring apparatus according to the present invention.

【図16】本実施の形態の要部を示す図である。FIG. 16 is a diagram showing a main part of the present embodiment.

【図17】本発明に係る水路流出入物監視装置の第3の
実施の形態を示すブロック図である。
FIG. 17 is a block diagram showing a third embodiment of the waterway inflow / outflow substance monitoring apparatus according to the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 2 A/D変換部 3 フレーム積算・平均化処理部 4 平均値縮小処理部 5 空間フィルタ処理部 6 画像2値化処理部 7 対象物候補検出処理部 8 検出除外処理部 9 警報処理部 10 画像間差分処理部 11 差分画像縮小処理部 12 検出除外領域設定処理部 20 画像合成処理部 21 対象物検出処理部 Reference Signs List 1 camera 2 A / D converter 3 frame integration / averaging processor 4 average reduction processor 5 spatial filter processor 6 image binarization processor 7 target candidate detection processor 8 detection exclusion processor 9 alarm processor DESCRIPTION OF SYMBOLS 10 Image difference processing part 11 Difference image reduction processing part 12 Detection exclusion area setting processing part 20 Image synthesis processing part 21 Object detection processing part

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 監視対象の水路を撮像して得られたビデ
オ画像に基づく画像データを順次受取り、所定回数の画
像データから平均化画像を求めるフレーム積算平均化処
理手段と、 そのフレーム積算平均化処理手段から出力される平均化
画像に対し設定されたブロックサイズに分割し、そのブ
ロック内の画素の濃淡値に基づいてそのブロックの濃淡
値を求めることにより縮小画像を生成する平均値縮小処
理手段と、 その平均値縮小処理された画像データに対し、周囲の近
傍画素との濃淡値の差が大きい処理対象画素を強調する
ような所定の空間フィルタ処理を行う空間フィルタ処理
手段と、 その空間フィルタ処理手段から出力される画像データに
対し、設定されたしきい値で2値化し、検出領域と非検
出領域に区別する画像2値化処理手段と、 前記監視対象の水路を撮像して得られたビデオ画像に基
づく画像データの中で濃淡値の時間変化が一定以上とな
る部分を検出する手段と、 その検出する手段で検出された前記部分及びその周辺部
分を求め、検出除外領域を設定する検出除外領域設定手
段と、 前記設定された検出除外領域と、前記画像2値化処理手
段により得られた2値画像に基づいて検出対象物を検出
する検出手段と、 その検出手段の検出結果に基づいて警報出力する警報手
段とを備えたことを特徴とする水路流出入物監視装置。
A frame integration and averaging means for sequentially receiving image data based on a video image obtained by imaging a waterway to be monitored and obtaining an averaged image from a predetermined number of image data; Average value reduction processing means for generating a reduced image by dividing an averaged image output from the processing means into a set block size, and obtaining a grayscale value of the block based on grayscale values of pixels in the block And a spatial filter processing means for performing predetermined spatial filter processing on the image data subjected to the average value reduction processing so as to emphasize a processing target pixel having a large difference in gray level between neighboring pixels, and the spatial filter. Image binarization processing means for binarizing image data output from the processing means with a set threshold value to distinguish between a detection area and a non-detection area; Means for detecting a portion in which the time change of the grayscale value is equal to or greater than a predetermined value in image data based on a video image obtained by imaging the waterway to be monitored, and the portion detected by the detecting means and the portion Detection exclusion area setting means for obtaining a peripheral portion and setting a detection exclusion area; detecting a detection target based on the set detection exclusion area and the binary image obtained by the image binarization processing means A waterway inflow / outflow monitoring device, comprising: a detection unit; and an alarm unit that outputs an alarm based on a detection result of the detection unit.
【請求項2】 前記濃淡値の時間変化が一定以上となる
部分を検出する手段は、画像間差分処理を行う差分処理
手段を含み、差分値が一定以上の部分を検出するもので
ある請求項1に記載の水路流出入物監視装置。
2. The image processing apparatus according to claim 1, wherein the means for detecting a portion where the time change of the gray value is equal to or more than a predetermined value includes a difference processing unit for performing an inter-image difference process, and detects the portion where the difference value is equal to or more than a certain value. 2. The waterway inflow and outflow monitoring device according to 1.
【請求項3】 前記フレーム積算平均化処理手段は、与
えられた画像データを格納する第1フレームメモリと、 その与えられた画像を積算して得られた積算画像データ
を格納する第2フレームメモリと、 その第2フレームメモリに格納された積算画像データを
積算回数で除して得られた平均化画像を格納する第3フ
レームメモリとを有し、 前記差分処理手段は、前記ビデオ画像に基づく画像デー
タを格納する第4フレームメモリと、 前記第1フレームメモリに格納された画像データと、前
記第4フレームメモリに格納された画像データに基づい
て差分処理する手段と、 その差分処理して得られた差分画像を格納する第5フレ
ームメモリとを備えたことを特徴とする請求項2に記載
の水路流出入物監視装置。
3. The frame integration and averaging processing means includes: a first frame memory for storing given image data; and a second frame memory for storing integrated image data obtained by integrating the given image. And a third frame memory for storing an averaged image obtained by dividing the integrated image data stored in the second frame memory by the number of times of integration, wherein the difference processing means is based on the video image. A fourth frame memory for storing the image data; a means for performing a difference process based on the image data stored in the first frame memory and the image data stored in the fourth frame memory; The inflow / outflow substance monitoring apparatus according to claim 2, further comprising a fifth frame memory that stores the obtained difference image.
【請求項4】 前記フレーム積算平均化処理手段は、与
えられた画像データを格納する第1フレームメモリと、 その与えられた画像を積算して得られた積算画像データ
を格納する第2フレームメモリと、 その第2フレームメモリに格納された積算画像データを
積算回数で除して得られた平均化画像を格納する第3フ
レームメモリとを有し、 前記差分処理手段は、前記第1フレームメモリに格納さ
れた画像データと、前記第3フレームメモリに格納され
た画像データに基づいて差分処理する手段と、 その差分処理して得られた差分画像を格納するフレーム
メモリとを備えたことを特徴とする請求項2に記載の水
路流出入物監視装置。
4. A first frame memory for storing given image data, and a second frame memory for storing integrated image data obtained by integrating the given images. And a third frame memory for storing an averaged image obtained by dividing the integrated image data stored in the second frame memory by the number of times of integration, wherein the difference processing means is provided in the first frame memory. Means for performing a difference process based on the image data stored in the third frame memory and the image data stored in the third frame memory, and a frame memory for storing a difference image obtained by the difference process. The inflow / outflow material monitoring device according to claim 2, wherein
JP9366250A 1997-12-25 1997-12-25 Waterway inflow/outflow object monitoring device Pending JPH11191191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9366250A JPH11191191A (en) 1997-12-25 1997-12-25 Waterway inflow/outflow object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9366250A JPH11191191A (en) 1997-12-25 1997-12-25 Waterway inflow/outflow object monitoring device

Publications (1)

Publication Number Publication Date
JPH11191191A true JPH11191191A (en) 1999-07-13

Family

ID=18486310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9366250A Pending JPH11191191A (en) 1997-12-25 1997-12-25 Waterway inflow/outflow object monitoring device

Country Status (1)

Country Link
JP (1) JPH11191191A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995240A (en) * 2009-08-21 2011-03-30 财团法人工业技术研究院 Method for receiving optical information as well as method and unit for identifying position of luminous object
JP2020071698A (en) * 2018-10-31 2020-05-07 電気興業株式会社 Fire detection device, fire detection method, and fire monitoring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101995240A (en) * 2009-08-21 2011-03-30 财团法人工业技术研究院 Method for receiving optical information as well as method and unit for identifying position of luminous object
JP2020071698A (en) * 2018-10-31 2020-05-07 電気興業株式会社 Fire detection device, fire detection method, and fire monitoring system

Similar Documents

Publication Publication Date Title
JP3123587B2 (en) Moving object region extraction method using background subtraction
JP5518359B2 (en) Smoke detector
US5774177A (en) Textile fabric inspection system
US10791252B2 (en) Image monitoring device, image monitoring method, and recording medium
US9064317B2 (en) Detection of near-field camera obstruction
CN110232359B (en) Retentate detection method, device, equipment and computer storage medium
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
JP2006261761A (en) Image signal processing apparatus
CN110114801A (en) Display foreground detection device and method, electronic equipment
Lin et al. Real-time active tampering detection of surveillance camera and implementation on digital signal processor
KR20180096096A (en) Coastline monitoring apparatus and method using ocean color image
JP3797499B2 (en) Canal runoff monitoring device
JPH09119900A (en) Method for automatically evaluating concrete defect
JP2010200190A (en) Video monitoring system
CN1323545C (en) Method for determining automatic detection threshold of bad pixel of medical image
JPH0973541A (en) Object detection device/method
JP4740755B2 (en) Monitoring device using images
JPH07249128A (en) Picture processor for vehicle
CN110446025B (en) Camera module detection system and method applied to electronic equipment
JPH11191191A (en) Waterway inflow/outflow object monitoring device
JP2007212238A (en) Water level detector and water level detection method using it
US20090322879A1 (en) Method and device for the detection of defective pixels of an image recording sensor, preferably in a driver assistance system
CN115661475A (en) Image foreign matter identification method, device, equipment and storage medium
JP4925942B2 (en) Image sensor
JPH11219493A (en) Method for processing traffic information

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307